FAQ sulla Tecnologia NVIDIA Quantum-2 InfiniBand
Con il rapido sviluppo della tecnologia, la domanda di HPC nei settori continua a crescere. Per rispondere a questa domanda, la tecnologia NVIDIA Quantum-2 Infiniband è emersa come soluzione. Questa tecnologia offre capacità di trasferimento ed elaborazione dei dati ad alta velocità e bassa latenza, fornendo prestazioni eccezionali per il calcolo distribuito. In questo articolo approfondiremo le caratteristiche e le applicazioni della tecnologia NVIDIA Quantum-2 Infiniband e affronteremo alcune domande frequenti su questa tecnologia.
Che cos'è NVIDIA Quantum-2 Infiniband?
NVIDIA Quantum-2 Infiniband utilizza l'architettura NVIDIA InfiniBand di settima generazione per offrire a sviluppatori e ricercatori HPC prestazioni di rete superiori e funzionalità ricche per aiutarli a risolvere problemi impegnativi. Offre networking definito dal software, computing di rete, isolamento delle prestazioni, motori di accelerazione avanzati, accesso diretto alla memoria remota (RDMA) e velocità straordinarie fino a 400 Gb/s per i data center di supercomputing avanzati.
Nel complesso, NVIDIA Quantum-2 è una piattaforma di rete InfiniBand NDR da 400 Gbps composta da switch Mellanox InfiniBand Quantum-2, adattatori di rete ConnectX-7, unità di elaborazione dati (DPU) BlueField-3, ricetrasmettitori InfiniBand NDR da 400 G e tutto il software per supportare la nuova architettura.
Prodotti FS nell'ambito della tecnologia
La tabella seguente mostra lo switch Mellanox InfiniBand, IB Rete adattatori and IB transceivers di FS con tecnologia NVIDIA Quantum-2 Infiniband.
Tipo
|
Prodotto
|
Caratteristiche
|
---|---|---|
Mellanox InfiniBand NDR Switch
|
64 x NDR 400G, 32 connettori OSFP, gestito
|
|
64 x NDR 400G, 32 connettori OSFP, non gestito
|
||
InfiniBand Adattaore di Rete
|
QSFP112 a porta singola, PCIe 5.0 x 16, Secure Boot
|
|
OSFP a porta singola, PCIe 5.0 x 16, Crypto e Secure Boot
|
||
OSFP a porta singola, PCIe 5.0 x 16, Secure Boot
|
||
OSFP a porta singola, PCIe 5.0 x 16
|
||
400G NDR InfiniBand Transceiver
|
OSFP 400G SR4 PAM4, 850nm, 50m
|
|
OSFP 400G DR4 PAM4, 1310nm, 500m
|
Domande Frequenti sulla Tecnologia NVIDIA Quantum-2 Infiniband
Tech FAQ
Q1: È possibile utilizzare UFM per monitorare le reti RoCE?
A1: No, UFM (Gestore del tessuto unificato) supporta solo InfiniBand.
Q2: A quale scala di cluster consiglia di utilizzare UFM?
A2: Si consiglia di configurare UFM per tutte le reti IB. UFM fornisce non solo OpenSM ma anche altre potenti funzionalità di gestione e interfaccia. Inoltre, ogni volta che i clienti hanno esigenze di gestione della rete, si consiglia di configurare UFM.
Mellanox InfiniBand Switch FAQ
Q1: Nella configurazione di rete del Super Pod, se l'ultima SU ha meno di 32 nodi, diciamo solo 16 nodi, è possibile ridurre gli switch Leaf nell'ultima SU a soli 4? In questo modo due interfacce di rete dello stesso nodo si connetterebbero a un unico Leaf switch. Ci saranno problemi con l'albero SHARP?
A1: È possibile, ma non consigliato. Mellanox InfiniBand NDR switches possonosupportare 64 SAT (SHARP Aggregation Tree).
Q2: Su uno switch InfiniBand NDR, è possibile collegare una porta a un cavo NDR e l'altra porta a un cavo NDR 200 da uno a due?
A2: Sì, è possibile. La configurazione della divisione delle porte per le interfacce NDR deve essere eseguita sul lato dello switch.
Q3: Lo switch InfiniBand NDR ha 64 porte da 400 Gb. Perché si dice che ha 32 porte QSFP56?
A3: A causa dei vincoli di dimensioni e potenza, un pannello 2U può ospitare solo 32 gabbie. Ogni gabbia può supportare due porte da 400 Gb, per un totale di 64 porte. È importante distinguere tra i concetti di gabbia e porta quando si parla di switch NDR e delle loro interfacce.
Q4: La funzionalità di UFM è la stessa per gli switch NDR gestiti e per quelli non gestiti?
A4: Sì, la funzionalità è la stessa.
400G NDR InfiniBand Moduli FAQ
Q1: È possibile collegare moduli diversi su ciascuna estremità con un cavo per stabilire la connettività dei dati? Ad esempio, se il server utilizza OSFP e lo switch utilizza QSFP112.
A1: Nel caso di InfiniBand, è necessario utilizzare moduli e cavi InfiniBand. Per gli switch InfiniBand, le porte sono OSFP. Entrambe le estremità devono utilizzare i moduli raccomandati da NVIDIA per garantire la compatibilità e il supporto.
Q2: Se l'NDR è compatibile con l'HDR e l'EDR, questo tipo di cavo e modulo è disponibile solo in un unico pezzo?
A2: Sì, non esiste una soluzione separata per i cavi e i moduli..
Q3: I moduli sul lato del NIC OSFP devono essere piatti?
A3: Sì, il NIC dovrebbe utilizzare moduli piatti.
Q4: 400G IB e 400G Ethernet, ad eccezione dei moduli ottici, i cavi sono gli stessi?
A4: I cavi ottici sono gli stessi. Si noti che sono del tipo APC con angolo di smussatura di 8 gradi.
InfiniBand Network Adattatore FAQ
Q1: RDMA non è supportato in modalità Ethernet per la scheda di rete InfiniBand?
A1: È supportato RDMA over Ethernet (RoCE). Si consiglia di utilizzare la soluzione Nvidia Spectrum-X.
Q2: Si parla di simplex o duplex per gli adattatori di rete IB?
A2: Tutti gli adattatori di rete IB supportano la comunicazione duplex. Il concetto di simplex o duplex è irrilevante per i dispositivi attuali, perché i canali fisici per l'invio e la ricezione dei dati sono già separati.
Conclusione
L'osservanza delle linee guida di rete di Quantum-2 garantisce una comunicazione efficiente e la condivisione delle risorse. Configurando e collegando le interfacce di rete in modo appropriato, gli utenti possono migliorare ulteriormente le prestazioni del sistema. La tecnologia NVIDIA Quantum-2 Infiniband svolge un ruolo fondamentale nei progressi tecnologici e continuerà a guidare il progresso del computing ad alte prestazioni.
Potresti essere interessato a
Indirizzo Email
-
Cosa è la porta SFP di uno switch Gigabit?
22 Mag 2023
-
Cosa è un Iniettore PoE e come si usa?
21 Feb 2023
-
Come Capire l'indirizzo IP e la Subnet Mask?
24 Set 2022
-
DHCP o IP Statico: Qual è il migliore?
08 Mag 2023
-
Come Collegare Più Switch Ethernet?
22 Set 2022