Français

Évolution de la Technologie DPU : Les Innovations de Demain

Mis à jour depuis le 12 mars, 2024 by
163

Avec les progrès de l'informatique en nuage et des technologies de virtualisation, les cartes réseau ont également connu quatre étapes en termes de fonctionnalité et de structure matérielle : les NIC, les SmartNIC, les DPU à base de FPGA et les DPU SoC NIC. Dans cet article, nous expliquerons les différents types de cartes réseau et de processeurs utilisés dans les centres de données, en nous concentrant sur leur matériel, leurs capacités de programmation, leur développement et leurs applications.

L’évolution et l’application des contrôleurs d’interface réseau (NIC)

La carte réseau de base traditionnelle, également connue sous le nom de NIC ou adaptateur réseau, joue un rôle essentiel dans les réseaux informatiques. Sa fonction principale est de convertir les données pour une transmission efficace entre les périphériques du réseau. Au fil du temps, les progrès ont élargi ses capacités. Il intègre désormais des fonctionnalités supplémentaires et possède des capacités de délestage matériel de base, telles que la vérification CRC, TSO/UF0, LSO/LR0 et la prise en charge VLAN, entre autres. Il prend également en charge le SR-IOV pour la virtualisation et la qualité de service pour améliorer les performances du réseau. En ce qui concerne la bande passante de l'interface réseau, elle a évolué des vitesses de 100M et 1000M vers des vitesses plus élevées de 10G, 25G et même 100G.

Network Interface Controllers (NICs)

Dans les réseaux de virtualisation de l'informatique en nuage, la carte réseau de base traditionnelle offre trois méthodes principales pour fournir un accès réseau aux machines virtuelles.

1. Via la pile de protocoles du noyau du système d'exploitation, la carte réseau transmet le trafic entrant aux machines virtuelles.

2. Le pilote DPDK en mode utilisateur contourne la pile de protocole du noyau et copie directement les paquets de données dans la mémoire de la machine virtuelle pour améliorer les performances.

3. La technologie SR-IOV virtualise la carte réseau physique en plusieurs fonctions virtuelles (VF) affectées directement aux machines virtuelles.

Au fur et à mesure que la complexité du réseau augmente avec les protocoles de tunnel comme VxLAN et les technologies de commutation virtuelle, les ressources CPU deviennent plus exigeantes. Les SmartNICs relèvent ce défi en soulageant le CPU des tâches de traitement du réseau, améliorant ainsi les performances globales du réseau.

Évolution et application des SmartNIC

Les SmartNICs offrent bien plus que de simples capacités de transmission de réseau que l'on trouve dans les cartes de réseau de base traditionnelles. Elles intègrent des capacités de déchargement matériel du plan de données, telles que le déchargement matériel OVS/vRouter, à l'aide d'un FPGA ou d'un processeur intégré avec un FPGA et un cœur de processeur. Ces SmartNICs améliorent le taux de transfert des réseaux d'informatique en nuage et allègent la charge des ressources informatiques sur le processeur hôte.

Contrairement aux cartes réseau traditionnelles, les SmartNIC ne comprennent pas de CPU classique. Elles s'appuient sur le processeur de l'hôte pour gérer le plan de contrôle. L'objectif principal de l'accélération du déchargement des SmartNIC est le plan de données, qui englobe des tâches telles que le déchargement des chemins rapides pour les switchs virtuels comme 0VS/vRouter, le déchargement du réseau RDMA, le déchargement du stockage NVMe-oF et le délestage de la sécurité du plan de données IPsec/TLS.

SmartNIC

Cependant, malgré ces améliorations, alors que les vitesses des réseaux continuent d'augmenter dans les applications d'informatique en nuage, l'unité centrale de traitement consacre toujours des ressources considérables à la classification, au suivi et au contrôle du trafic. Parvenir à une "consommation zéro" de l'unité centrale hôte est devenu la prochaine priorité de recherche des fournisseurs d'informatique en nuage, afin de minimiser son implication dans les tâches susmentionnées.

Évolution et application des DPU basés sur FPGA

Le DPU basé sur FPGA est une carte réseau intelligente capable de délester les données et de disposer de fonctions de contrôle du plan. Elle est également partiellement programmable pour les plans de contrôle et de données. En ce qui concerne le matériel, il comprend un processeur CPU polyvalent basé sur un FPGA, tel que le CPU Intel.

Par rapport aux SmartNIC, les DPU basés sur FPGA améliorent l'architecture matérielle en incorporant une unité de traitement CPU polyvalente, ce qui donne une architecture FPGA+CPU. Cette configuration facilite l'accélération et le déchargement de divers composants d'infrastructure, notamment le réseau, le stockage, la sécurité et la gestion. Actuellement, la forme prédominante des DPU est la configuration FPGA+CPU. Les DPU basés sur cette architecture offrent une excellente programmabilité logicielle et matérielle.

FPGA-Based DPU

Au cours des premières phases de développement des DPU, la plupart des fabricants ont opté pour cette approche. Elle offrait des temps de développement plus courts, des itérations rapides et facilitait la personnalisation rapide des fonctions. Cela a permis aux fabricants de DPU de lancer rapidement leurs produits et de saisir les opportunités du marché. Cependant, lorsque la largeur de bande du réseau est passée de 25G à 100G, l'architecture FPGA+CPU DPU a rencontré des limitations dues aux processus des puces et aux structures FPGA. Ces limitations ont rendu difficile le contrôle efficace de la surface de la puce et de la consommation d'énergie tout en recherchant un débit plus élevé. Par conséquent, le développement continu de cette architecture DPU a été entravé.

Évolution et application des NIC SoC DPU

Le DPU SoC, basé sur l'ASIC (Application-Specific Integrated Circuit), combine les performances des accélérateurs dédiés avec la programmabilité des processeurs à usage général. Contrairement aux architectures basées sur les FPGA, les DPU SoC relèvent les défis en matière de coût, de consommation d'énergie et de fonctionnalité, en particulier pour les serveurs 100G de la prochaine génération. Ils offrent des avantages en termes de coût, de consommation d'énergie, de débit élevé et de souplesse de programmation. Les SoC DPU prennent en charge la gestion des applications, les machines virtuelles, les conteneurs et les applications "bare metal".

DPU SoC NIC

La technologie DPU évolue et les SoC DPU programmables à usage général sont désormais essentiels à la construction des centres de données des fournisseurs d'informatique en nuage. Ils permettent une gestion efficace des ressources informatiques et réseau, prennent en charge divers scénarios d'informatique en nuage et optimisent l'utilisation des ressources du centre de données. Les grands fabricants de puces et les principaux fournisseurs de services en nuage ont réalisé des investissements considérables dans la recherche, le développement et l'utilisation des DPU, atteignant un rapport coût-efficacité remarquable grâce à une exploration continue et à une mise en œuvre pratique.

DPU dans AWS (Amazon Cloud)

AWS (Amazon Web Services), l'un des principaux fournisseurs de services d'informatique en nuage, s'appuie sur le système DPU de Nitro comme base technique essentielle. Le système Nitro DPU soulage efficacement les fonctions de réseau, de stockage, de sécurité et de surveillance sur du matériel et des logiciels dédiés. Cela permet aux instances de service d'accéder à la quasi-totalité des ressources du serveur, ce qui se traduit par une réduction significative des coûts et une augmentation des recettes annuelles. Le système Nitro DPU comprend plusieurs composants:

1. Carte Nitro : Matériel dédié au réseau, au stockage et au contrôle pour améliorer les performances globales du système.

2. Puce de sécurité Nitro : Transfère les fonctions de virtualisation et de sécurité vers du matériel et des logiciels dédiés, réduisant ainsi la surface d'attaque et garantissant une plateforme cloud sécurisée.

3. Hyperviseur Nitro : Un programme de gestion d'hyperviseur léger qui gère efficacement l'allocation de la mémoire et de l'unité centrale, offrant des performances comparables à celles du métal nu.

DPU in AWS (Amazon Cloud)

En fournissant des fonctions essentielles de réseau, de sécurité, de serveur et de surveillance, le système Nitro DPU libère des ressources de service sous-jacentes pour les machines virtuelles des clients. Il permet à AWS d'offrir davantage de types d'instances bare metal et même d'atteindre des performances réseau allant jusqu'à 100 Gbps pour des instances spécifiques.

DPU NVIDIA

NVIDIA, entreprise de semi-conducteurs réputée pour ses processeurs graphiques (GPU) dans les domaines de l'IA et de l'informatique à haute performance (HPC), a acquis Mellanox, entreprise de puces et d'équipements de réseau, en avril 2020 pour 6,9 milliards de dollars. À la suite de cette acquisition, NVIDIA a lancé la série de DPU BlueField.

Le DPU NVIDIA BlueField-3, conçu spécifiquement pour l'IA et l'informatique accélérée, hérite des fonctions avancées du DPU BlueField-2. Il fournit une connectivité réseau jusqu'à 400G et offre des capacités de délestage, d'accélération et d'isolation pour les fonctions de réseau, de stockage, de sécurité et de gestion définies par logiciel.

IPU Intel

IPU (Infrastructure Processing Unit) d'Intel est un dispositif de réseau avancé équipé d'accélérateurs renforcés et de connexions Ethernet. Il utilise des cœurs programmables dédiés étroitement couplés pour accélérer et gérer les fonctions d'infrastructure. L'IPU permet un déchargement complet de l'infrastructure et agit comme un point de contrôle hôte pour les applications d'infrastructure en cours d'exécution, fournissant une couche supplémentaire de sécurité. Le déchargement de tous les services d'infrastructure du serveur vers l'IPU libère les ressources de l'unité centrale du serveur et offre aux fournisseurs de services en nuage un point de contrôle indépendant et sécurisé.

Intel IPU

Le programme de développement d'Intel inclut les produits IPU Oak Springs Canyon et Mount Evans. Oak Springs Canyon est un IPU basé sur FPGA, tandis que le IPU Mount Evans est basé sur ASIC. Oak Springs Canyon comprend un FPGA Intel Agilex et un processeur Xeon-D, tandis que Mount Evans, conçu conjointement par Intel et Google, intègre un ASIC pour le traitement des paquets et 16 cœurs ARM Neoverse N1 pour de puissantes capacités de calcul.

DPU sur Alibaba Cloud

Alibaba Cloud est à l'avant-garde de l'exploration de la technologie DPU. Lors de l'Alibaba Cloud Summit en 2022, l'entreprise a dévoilé le processeur d'infrastructure cloud CIPU, développé sur la base de l'architecture Shenlong. Le CIPU hérite de la fonctionnalité et du positionnement de son prédécesseur, la carte MoC (Micro Server on a Card), qui s'aligne sur la définition du DPU. La carte MoC est dotée d'unités d'E/S, de stockage et de traitement indépendantes et gère les tâches de virtualisation du réseau, du stockage et des appareils. Les cartes MoC sont passées par quatre étapes de développement :

Les première et deuxième générations de cartes MoC ont permis de relever le défi de la virtualisation informatique sans frais généraux, la virtualisation du réseau et du stockage étant implémentée dans le logiciel.

La troisième génération de cartes MoC a introduit des fonctions améliorées de transfert de réseau, ce qui a permis d'améliorer considérablement les performances du réseau.

La quatrième génération de cartes MoC a permis un délestage matériel complet des opérations de mise en réseau et de stockage et prend également en charge la capacité RDMA.

Le CIPU d'Alibaba Cloud, conçu pour le système Feitian, est essentiel à la création d'une nouvelle génération de systèmes complets d'architecture logicielle et matérielle d'informatique en nuage..

DPU avec Volcano Engine

Volcano Engine est dédié à l'avancement de la technologie DPU développée par ses soins, en utilisant une approche intégrée de virtualisation logicielle et matérielle pour des services de calcul haute performance élastiques et évolutifs. Son serveur bare metal élastique de deuxième génération et son serveur cloud de troisième génération sont tous deux dotés de DPU développés par ses soins. Ces DPU ont fait l'objet de tests approfondis pour s'assurer de leurs capacités et de leur adéquation à diverses applications. L'instance EBM de deuxième génération, lancée en 2022, combine la stabilité et la sécurité des machines physiques avec la flexibilité des machines virtuelles, représentant une nouvelle génération de serveurs en nuage à haute performance. La troisième génération d'instance ECS, publiée au cours du premier semestre 2023, intègre la dernière architecture DPU de Volcano Engine avec son switch virtuel propriétaire et sa technologie de virtualisation, ce qui améliore considérablement les performances d'E/S réseau et de stockage. En combinant son propre DPU, son switch virtuel et sa technologie de virtualisation, Volcano Engine vise à offrir des solutions de calcul à haute performance évolutives et efficaces qui répondent aux exigences en constante évolution de l'informatique en nuage (cloud computing).

Cela pourrait également vous intéresser

Connaissances
Connaissances
Connaissances
See profile for Migelle.
Migelle
Switch PoE, PoE+ ou PoE++ : Lequel choisir ?
25 août, 2021
47.1k
Connaissances
See profile for Sheldon.
Sheldon
Quelle est la différence entre LACP et PAGP ?
29 déc, 2021
16.7k
Connaissances
See profile for Migelle.
Migelle
Switch PoE actif ou passif : lequel choisir ?
28 févr, 2022
19.8k
Connaissances
See profile for Vincent.
Vincent
Comprendre le transceiver bidirectionnel BiDi
05 janv, 2022
9.3k
Connaissances
See profile for Moris.
Moris
Câbles à fibre optique Simplex ou Duplex
25 nov, 2018
17.7k
Connaissances
See profile for Sheldon.
Sheldon
Quelle est la différence entre RIP et OSPF ?
10 juin, 2021
22.8k