Quand le transport des informations sur Ethernet ne tolère aucune perte, que choisir ?

Le concept d’Ethernet a été développé par Xerox Corporation en 1970. En 1980 un consortium composé de Digital Equipment Corporation, Intel Corporation et  Xerox Corporation a commencé à travailler sur le standard IEEE 802.3. Approuvé en 1983, amendé au fil du développement des technologies, ce standard officiel 802.3-1985 conserve ses prérogatives. Un des points essentiels, en plus du support physique proprement dit, était d’assurer aux équipements interconnectés un niveau de communication leur permettant de garantir leurs échanges. Nous avons entre autres le CSMA/CD, le contrôle de flux, de nouvelles fonctions comme la QoS, la gestion de liens redondants, d’éventuels goulots d’étranglements, mais aussi le protocole TCP/IP  lui-même au-dessus de cette couche physique pour faire en sorte que les informations arrivent à destination. Mais cela implique parfois de dégrader le résultat ou de réitérer les envois, et ce quel que soit les capacités de transmission qui atteignent aujourd’hui communément le Gigabit, et le 10 Gigabit.

Certains applicatifs ou applications ne permettent plus aujourd’hui cette tolérance à la perte de paquets, aux retransmissions, aux erreurs, aux collisions. Citons par exemple des environnements  Data Center avec des échanges intensifs pour la gestion de grappes de serveurs, le stockage en réseau, le transfert des données utilisateurs ainsi que le trafic d’administration tous partagés sur le même support.

Une solution est d’utiliser pour la partie stockage le Fiber Channel Storage Area Network (FC SAN), mais cela nécessite un réseau spécifique avec des switches et des adaptateurs réseau pour les serveurs en FC. Le coût d’acquisition est significativement supérieur à celui de l’Ethernet, et cela implique d’avoir deux type de matériels qui cohabitent, l’un pour le réseau Ethernet et l’autre pour le FC SAN. Plus d’espace sera nécessaire, les besoins électriques, de ventilation et les coûts de maintenance seront supérieurs.

Le iSCSI est une alternative Ethernet au FC SAN, mais seul il ne peut gérer correctement sur le réseau la saturation du trafic dans les files d’attentes. Data Center Bridging (DCB)  est une suite de standards IEEE qui va permettre au niveau matériel d’allouer de la bande passante par type de trafic et d’améliorer la fiabilité du transport Ethernet en utilisant le contrôle de flux basé sur les priorités.

L’allocation de la bande passante basée sur le matériel permet de contourner le système d’exploitation en étant contrôlé directement par une carte réseau compatible RoCE, pour Remote Direct Memory Access (RDMA) over Converged Ethernet.

dcb-RoCE

DCB assure l’interopérabilité entre les adaptateurs réseaux et les switches compatibles DCB.

DCB fourni une solution de transport sans perte sur Ethernet entre un switch et la carte réseau d’un serveur compatibles en validant la fonction de contrôle de flux basé sur les priorités, pour une application, un protocole, un port TCP/UDP standard ou spécifique à cette application.

DCB n’est pas exclusif au stockage et à l’optimisation du iSCSI, Il a l’avantage d’être un standard et peut donc être déployé et administré dans des réseaux hétérogènes pour augmenter les performances applicatives Ethernet L2/L3 en s’appuyant sur les débits de 10 Gigabit.

Les switches D-Link séries DXS-3400 & DXS-3600 sont conçues pour les architectures Data Center « Lossless Ethernet » en offrant les performances et la fiabilité de la fonction DCB.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Thème : Baskerville 2 par Anders Noren.

Retour en haut ↑

%d blogueurs aiment cette page :