Français

L'Ère de l'IA : Stimule la Croissance du Marché des Émetteurs-Récepteurs Optiques

Mis à jour depuis le 29 déc, 2023 by
197

Les progrès de l'intelligence artificielle (IA) ont joué un rôle déterminant dans la transformation de nombreux secteurs d'activité. Le marché des émetteurs-récepteurs optiques est certainement l'un des domaines qui connaît un important développement. Cet article examine l'impact de l'IA, en particulier la vague d'IA déclenchée par des modèles tels que ChatGPT, sur la restructuration des réseaux de centres de données et la croissance des émetteurs-récepteurs optiques haute performance, en accordant une attention particulière à l'essor prévu des émetteurs-récepteurs optiques 800G en 2024.

La Révolution de l'IA Déclenchée par ChatGPT

Le développement et le déploiement de modèles d'IA tels que ChatGPT ont ouvert un nouvel horizon de possibilités. Ces modèles, qui s'appuient sur des techniques avancées d'apprentissage en profondeur, sont capables de comprendre et de générer des textes semblables à ceux d'un être humain. ChatGPT, en tant que représentant de cette vague d'IA, a démontré le potentiel d'amélioration de la communication et de rationalisation du traitement des données. Ses capacités de traitement du langage naturel contribuent à améliorer l'efficacité des interactions homme-machine, ce qui en fait un atout inestimable pour optimiser les opérations des centres de données. La révolution de l'IA est donc devenue l'un des moteurs essentiels de la demande d'émetteurs-récepteurs optiques plus rapides, plus fiables et plus puissants.

Le fonctionnement de ChatGPT nécessite des ressources informatiques en nuage robustes pour le support. Le modèle GPT publié par OpenAI en 2018 comptait 117 millions de paramètres et a été formé avec environ 5 Go de données de préformation. En revanche, GPT-3 possède un nombre impressionnant de 175 milliards de paramètres et a été entraîné avec 45 To de données. Au cours de la seule phase d'apprentissage du modèle, ChatGPT a consommé environ 3640 jours PF de puissance de calcul, avec des coûts d'apprentissage atteignant la somme stupéfiante de 12 millions de dollars. La consommation pendant la phase d'accès au service est encore plus importante. On estime que pour répondre aux besoins de recherche et d'accès des utilisateurs actuels de ChatGPT, un investissement initial d'environ 3 à 4 milliards de dollars dans l'infrastructure informatique, notamment à l'aide de serveurs (GPU), est nécessaire.

Comment l'IA Remodèle les Réseaux des Centres de Données

L'intégration de l'IA dans les centres de données a redéfini le paysage de la transmission des données. Les centres de données traditionnels, conçus pour les charges de travail informatiques classiques, se métamorphosent pour répondre aux exigences des applications pilotées par l'IA. Le principal facteur de différenciation réside dans la manière dont les données sont traitées et transmises.

Centre de Données Traditionnel vs. Centre de Données IA

Dans un centre de données traditionnel, les données circulent à travers une architecture de réseau hiérarchique, chaque couche introduisant une latence et des goulets d'étranglement potentiels. Au départ, les centres de données adoptaient le modèle traditionnel à trois niveaux, comprenant la couche d'accès, la couche d'agrégation et la couche centrale. La couche d'accès reliait les nœuds informatiques aux commutateurs des armoires, la couche d'agrégation facilitait les interconnexions entre les couches d'accès et la couche centrale gérait les connexions entre les couches d'agrégation et les réseaux externes.

Cependant, avec la rapide augmentation du volume du trafic est-ouest dans les centres de données, les couches centrales et d'agrégation de l'architecture de réseau à trois niveaux ont dû faire face à des tâches de plus en plus nombreuses et à des exigences de performance plus élevées, ce qui a entraîné une hausse significative des coûts d'équipement. En conséquence, une architecture de réseau leaf-spine plus rationalisée, adaptée au trafic est-ouest, est apparue. Dans cette architecture révisée, les commutateurs "leaf" établissent des connexions directes avec les nœuds de calcul, tandis que les commutateurs "spine" fonctionnent comme des commutateurs "core", sélectionnant dynamiquement plusieurs chemins par le biais de l'ECMP (Equal-Cost Multipath).

L'architecture de réseau de type "leaf-spine" présente plusieurs avantages, notamment une utilisation élevée de la bande passante, une excellente évolutivité, une latence prévisible du réseau et une sécurité renforcée. Ces caractéristiques la rendent largement applicable et avantageuse pour le déploiement dans divers scénarios de centres de données.

architecture des centres de données

Les centres de données IA, quant à eux, tirent parti du traitement parallèle, de l'informatique distribuée et des interconnexions à haut débit pour garantir un flux de données continu et un temps de latence minimal. Le besoin d'une architecture réseau fat-tree non bloquée est devenu crucial en raison de l'importance du trafic de données interne. Les centres de données IA de NVIDIA utilisent une architecture de réseau fat-tree pour garantir une fonctionnalité non bloquée.

Le principe de base consiste à utiliser un grand nombre de commutateurs peu performants pour créer un vaste réseau non bloqué. Ce modèle garantit que, pour tout type de communication, il existe des chemins dont la largeur de bande correspond à celle des cartes d'interface réseau (NIC), et que tous les commutateurs de l'architecture sont identiques. L'architecture de réseau fat-tree trouve une large application dans les centres de données qui ont des exigences élevées en matière de réseau, en particulier dans les centres de calcul à haute performance et les centres de données d'intelligence artificielle.

Prenons l'exemple du système de centre de données DGX A100 SuperPOD AI de NVIDIA : tous les switchs à trois niveaux sont des switchs NVIDIA Quantum QM8790 à 40 ports. Les switchs de premier niveau sont reliés à 1120 cartes d'interface réseau InfiniBand HDR 200G de Mellanox. Dans cette configuration, les ports de liaison descendante des switchs de deuxième niveau se connectent aux switchs de premier niveau, tandis que leurs ports de liaison montante se connectent aux switchs de troisième niveau. Les switchs de troisième niveau disposent exclusivement de ports de liaison descendante et sont interconnectés avec les switchs de deuxième niveau.

En outre, la partie stockage du système utilise une architecture réseau distincte, séparée de la partie informatique. Cette séparation nécessite un nombre spécifique de commutateurs et d'émetteurs-récepteurs optiques. Ainsi, par rapport aux centres de données conventionnels, le nombre de commutateurs et d'émetteurs-récepteurs optiques dans les centres de données IA a connu une augmentation substantielle.

Le Rôle des Émetteurs-récepteurs Optiques 800G est Essentiel

Les émetteurs-récepteurs optiques 800G jouent un rôle essentiel dans cette transformation. Un seul émetteur-récepteur optique 800G dans le port optique peut remplacer deux émetteurs-récepteurs optiques 400G. En outre, dans le port électrique, 8 canaux SerDes peuvent être intégrés, alignés sur les 8 canaux 100G du port optique. Cette conception permet d'améliorer la densité des canaux dans les switchs, tout en réduisant considérablement la taille physique.

Le débit de l'émetteur-récepteur optique est influencé par les cartes réseau, et la vitesse de la carte réseau est limitée par la vitesse du canal PCIe. Dans les serveurs DGX A100 de NVIDIA, les connexions internes se font via NVLink3 avec une bande passante unidirectionnelle de 300GB/s. Cependant, les GPU A100 sont reliés aux cartes réseau ConnectX-6 via 16 canaux PCIe 4.0, ce qui équivaut à une bande passante totale d'environ 200G. Par conséquent, un émetteur-récepteur optique 200G ou un câble DAC est nécessaire pour atteindre la bande passante de 200G de la carte réseau.

Dans le cas des serveurs DGX H100, les connexions internes utilisent NVLink4 avec une bande passante unidirectionnelle de 450 Go/s. Les GPU H100 se connectent aux cartes réseau ConnectX-7 via 16 canaux PCIe 5.0, ce qui résulte en une bande passante totale d'environ 400 G pour une carte réseau individuelle. Il est à noter que la vitesse de l'émetteur-récepteur optique est influencée par la bande passante PCIe entre la carte réseau et le GPU.

Si la vitesse du canal PCIe interne des serveurs DGX A100 et H100 devait atteindre 800G (PCIe 6.0), il deviendrait possible de déployer des cartes réseau avec une bande passante de 800G et d'utiliser des émetteurs-récepteurs optiques de 800G. Cette amélioration pourrait permettre d'accroître considérablement l'efficacité de calcul du système.

Évolution de la vitesse des canaux PCIe

2024 - L'Année des Émetteurs-récepteurs Optiques 800G

En ce qui concerne l'avenir, 2024 s'annonce comme une année importante pour le marché des émetteurs-récepteurs optiques, avec un intérêt particulier pour les solutions 800G. À partir de 2019, date de la transition vers les émetteurs-récepteurs optiques 100G, le marché a présenté deux voies de mise à niveau : 200G et 400G. Toutefois, la prochaine génération d'émetteurs-récepteurs optiques à haut débit sur le marché est exclusivement centrée sur les émetteurs-récepteurs optiques 800G. Combiné à l'escalade de la puissance de calcul et à la concurrence stimulée par l'IA et les réseaux GC (Generalized Convolutional), on prévoit que les principaux fournisseurs de cloud et les géants de la technologie en Amérique du Nord sont susceptibles de faire des acquisitions substantielles d'émetteurs-récepteurs optiques 800G en 2024.

2024 - L'Année des Émetteurs-récepteurs Optiques 800G

Dans ce contexte de transformation, il est essentiel d'avoir un partenaire fiable et innovant. FS, en tant que fournisseur fiable de solutions de mise en réseau, propose une gamme complète de solutions 800G conçues pour les centres de données en nuage à très grande échelle dans le monde entier. En 2023, nous avons annoncé une nouvelle série de solutions InfiniBand 800G NDR. Notre gamme de produits inclut des types d'émetteurs-récepteurs optiques 800G OSFP et 800G QSFP-DD. FS a également élargi sa gamme de produits pour inclure des AOC et des DAC 800G. Cela nous permet de renforcer notre support à une clientèle provenant de diverses industries, en garantissant un approvisionnement continu en produits et solutions de réseaux optiques fiables et de première qualité.

En conclusion, la convergence des progrès de l'IA et du marché des émetteurs-récepteurs optiques annonce une nouvelle ère de transmission de données à haute vitesse. L'impact de l'IA sur les réseaux des centres de données souligne le rôle central des émetteurs-récepteurs optiques. Alors que nous anticipons 2024, l'année des émetteurs-récepteurs optiques 800G, les entreprises peuvent toujours compter sur FS pour surmonter les complexités du secteur de l'IA et créer des réseaux résilients et performants afin de paver la voie vers un avenir aux possibilités illimitées.

Cela pourrait également vous intéresser

Connaissances
Connaissances
Connaissances
See profile for Migelle.
Migelle
Switch PoE, PoE+ ou PoE++ : Lequel choisir ?
25 août, 2021
47.1k
Connaissances
See profile for Sheldon.
Sheldon
Quelle est la différence entre LACP et PAGP ?
29 déc, 2021
16.7k
Connaissances
See profile for Migelle.
Migelle
Switch PoE actif ou passif : lequel choisir ?
28 févr, 2022
19.8k
Connaissances
See profile for Vincent.
Vincent
Comprendre le transceiver bidirectionnel BiDi
05 janv, 2022
9.3k
Connaissances
See profile for Moris.
Moris
Câbles à fibre optique Simplex ou Duplex
25 nov, 2018
17.7k
Connaissances
See profile for Sheldon.
Sheldon
Quelle est la différence entre RIP et OSPF ?
10 juin, 2021
22.8k