Español

¿Por qué es tan importante la red InfiniBand en los centros de datos HPC?

Actualizado el 20 de febrero de 2023 por
635

InfiniBand Banner

Los centros de datos HPC utilizan cada vez más la red InfiniBand. La demanda de interconexiones con gran ancho de banda y baja latencia también se está expandiendo a un mercado más amplio debido a la rápida expansión de aplicaciones de alto rendimiento de datos, como el análisis de datos y el aprendizaje automático. En comparación con Ethernet, InfiniBand, una tecnología de red diseñada para la interconexión de alta velocidad, se ha convertido en una estrella en ascenso en numerosas instalaciones informáticas de alto rendimiento en todo el mundo.

Verifica también - Tendencia de la red InfiniBand

Tutorial de InfiniBand: ¿Qué es la red InfiniBand?

InfiniBand es una tecnología de interconexión de red de estándar abierto con gran ancho de banda, bajo retardo y alta confiabilidad. Esta tecnología se utiliza ampliamente en el campo de los clústeres de supercomputadoras. La red Infiniband se utiliza para la interconexión de datos entre y dentro de conmutadores de datos, así como para la interconexión entre sistemas de almacenamiento.

El sistema InfiniBand consta de adaptadores de canal (CA), conmutadores, enrutadores, cables y conectores. Las CA se dividen en Adaptadores de canal de host (HCA) y Adaptadores de canal de destino (TCA). En principio, los conmutadores IBA son similares a otros conmutadores de red estándar, pero deben cumplir con los requisitos de alto rendimiento y bajo costo de InfiniBand. Los enrutadores InfiniBand se utilizan para segmentar redes grandes en subredes más pequeñas y conectarlas con enrutadores. HCA es un punto de dispositivo que conecta los nodos finales de IB, como servidores o dispositivos de almacenamiento, a la red de IB. TCA es una forma especial de adaptador de canal que se utiliza a menudo en entornos integrados, como dispositivos de almacenamiento.

Descubriendo la red InfiniBand en centros de datos HPC

InfiniBand es una arquitectura de entrada/salida (E/S) de alto rendimiento que permite conectar múltiples tecnologías de conmutación de cables simultáneamente. Según la velocidad del puerto, la red InfiniBand tiene una variedad de conmutadores de encapsulación, como conmutadores QDR InfiniBand, FDR InfiniBand, NDR InfiniBand y XDR InfiniBand, etc., para lograr plenamente el soporte empresarial para los centros de datos HPC.

En la informática mainframe, los canales dedicados del modelo InfiniBand se utilizan para conectar y transferir datos entre la mainframe y los periféricos. Con un tamaño de paquete máximo de 4K, InfiniBand permite enlaces seriales bidireccionales y punto a punto que se pueden agregar en unidades de 4X y 12X para lograr una tasa de rendimiento de datos útiles combinada de hasta 300 gigabits por segundo.

InfiniBand Network

Para promover aún más el desarrollo de la industria HPC, muchos propietarios de marcas han comenzado a introducir productos InfiniBand. FS proporciona conmutadores de centro de datos de 200G, especialmente switches 200G InfiniBand, que se puede utilizar como una de las opciones para los centros de datos HPC.

¿Cómo se integra la red InfiniBand con el centro de datos HPC?

Hoy en día, Internet es una infraestructura masiva que necesita una variedad de aplicaciones con uso intensivo de datos. Las grandes empresas también están construyendo centros de datos HPC para satisfacer la demanda de computación confiable de una cantidad de datos. Un entorno de sistema se crea gracias al ancho de banda extremadamente alto de HPC entre los nodos informáticos, el almacenamiento y los sistemas de análisis. Otro indicador de rendimiento de la arquitectura HPC es la latencia. El centro de datos HPC decidió utilizar la red InfiniBand porque puede satisfacer sus requisitos de alto ancho de banda y baja latencia.

Bandwidth & Latency

En comparación con RoCE y TCP/IP, la adopción de la red InfiniBand en entornos de procesamiento de alto rendimiento, especialmente aquellos que utilizan tecnologías de virtualización de servidores, blade y computación en la nube, ha mostrado ventajas sobresalientes.

Verifica también - RoCE vs. Infiniband vs. TCP/IP

Las ventajas de la red InfiniBand en los centros de datos HPC

Ya sea la evolución de la tecnología de comunicación de datos, la innovación de la tecnología de Internet o la mejora de la presentación visual, todos se benefician de una informática más potente, una mayor capacidad y un almacenamiento más seguro, y redes más eficientes. La red InfiniBand puede proporcionar servicios de red de mayor ancho de banda y al mismo tiempo reducir la latencia, disminuir el consumo de recursos informáticos por carga de transmisión de red e integrar perfectamente los centros de datos HPC gracias a sus ventajas únicas.

Eficiencia de la red: La red InfiniBand (red IB) descarga el procesamiento de protocolos y el movimiento de datos desde la CPU a la interconexión, maximizando la eficiencia de la CPU y realizando simulaciones de ultra alta resolución, grandes conjuntos de datos y algoritmos altamente paralelizados. La velocidad de transmisión de InfiniBand ha alcanzado los 168 Gbps (12xFDR), superando con creces los 10Gbps de 10 Gigabit Ethernet y los 100 Gbps de 10 Gigabit Ethernet. Especialmente en los centros de datos HPC se lograrán importantes mejoras de rendimiento, como Web 2.0, computación en la nube, big data, servicios financieros, centros de datos virtualizados y aplicaciones de almacenamiento. Esto acortará la cantidad de tiempo que lleva completar la tarea y reducirá el costo general del proceso.

Mayor ancho de banda: En el período en que Ethernet 100G dominaba el mercado, la velocidad de la red IB también se desarrollaba continuamente y se lanzaron uno tras otro conmutadores InfiniBand 100G/200G para cumplir con los requisitos de alto rendimiento de la arquitectura HPC. Los conmutadores InfiniBand son una excelente opción para los centros de datos HPC debido a su alto ancho de banda, alta velocidad y rendimiento de baja latencia, lo que les permite lograr una alta eficiencia del servidor y productividad de las aplicaciones.

Escalabilidad: La capa de red 2 se puede crear con 48.000 nodos en una única subred gracias a InfiniBand. Además, la red IB no depende de mecanismos de transmisión como ARP, por lo que no provocará tormentas de transmisión ni desperdiciará ancho de banda adicional. También se pueden asociar diferentes subredes IB a conmutadores y conmutadores.

FS ofrece switches de centro de datos de NVIDIA Quantum™-2 NDR InfiniBand 400G y NVIDIA Quantum™ HDR InfiniBand 200G , disponible en configuraciones administradas y no administradas. Para satisfacer las diversas necesidades de los clientes, los conmutadores 400G vienen con opciones de soporte de servicio de un año, tres años y cinco años. Seguramente, si tienes varios dispositivos funcionando para reducir la carga de trabajo, también puedes utilizar redes Ethernet para completar la transmisión de datos. FS también proporciona conmutadores Ethernet de múltiples velocidades para ayudar en la construcción de su red.

Conclusión

Con su rendimiento extremo, la red InfiniBand y su arquitectura técnica innovadora pueden ayudar a los usuarios del centro de datos HPC a maximizar el rendimiento empresarial. La tecnología Infiniband simplifica enormemente la arquitectura de red de alto rendimiento, reduce el retraso causado por las capas de arquitectura multinivel y proporciona un fuerte soporte para la actualización fluida del ancho de banda de acceso de los nodos informáticos clave. Será la tendencia general de que las redes InfiniBand entren cada vez en más escenarios de uso.

También podría interesarte

Conocimiento
Conocimiento
See profile for Sheldon.
Sheldon
¿Qué es el puerto SFP del switch Gigabit?
ene 29, 2023
48.4k
Conocimiento
Conocimiento
Conocimiento
See profile for Sheldon.
Sheldon
Análisis de PON: Qué es OLT, ONU, ONT y ODN
oct 22, 2018
40.6k
Conocimiento
See profile for Migelle.
Migelle
Switch PoE vs PoE+ vs PoE++: ¿Cómo elegir?
ene 18, 2022
28.5k
Conocimiento
Conocimiento
Conocimiento
Conocimiento
See profile for Vincent.
Vincent
¿Qué es un SFP BiDi y tipos de SFP BiDi?
mar 31, 2022
18.6k
Conocimiento
See profile for Sheldon.
Sheldon
RIP vs OSPF: ¿Cuál es la diferencia?
jul 9, 2021
30.6k