Ethernet und die Zukunft der Datenvernetzung

2022-10-27 11:01:41 By : Mr. Caroline Mao

Die Notwendigkeit, mehr Daten in kürzerer Zeit und sicherer zu hosten, zu verarbeiten und zu übertragen, stellt eine enorme Belastung für bestehende Rechenzentrumsnetzwerke, Server und Speicherarchitekturen dar, mit den Anforderungen spezifischer Anwendungen wie künstlicher Intelligenz, maschinellem Lernen, Bilderkennung, und Datenanalysen verschärfen das Problem.Wenn sie neue Plattformen hinzufügen, ziehen es viele Unternehmen jetzt vor, softwaredefinierte Objekt-/Block-/Dateispeicherlösungen von Anbietern wie Red Hat zu kaufen oder Open-Source-Distributionen wie OpenStack zu verwenden, die manchmal von einer hyperkonvergenten Infrastruktur unterstützt oder parallel dazu verwendet werden ( HCI) Storage-Stacks von Unternehmen wie Nutanix, Dell EMC, Hewlett Packard Enterprise und Cisco Systems.Darüber hinaus werden sich drehende Festplatten schnell durch effizientere All-Flash-Lösungen ersetzt, wobei Gartner prognostiziert, dass bis 2021 50 Prozent aller Rechenzentren Solid State Drives (SSDs) für Hochleistungs-Workloads verwenden werden.All dies bedeutet, dass aktuelle Storage Area Networks (SANs) es einfach nicht mehr schaffen.Dies gilt insbesondere für Fibre-Channel-SANs, deren Niedergang seit Jahrzehnten prognostiziert wird, obwohl eine riesige Installationsbasis, einfache Verwaltung und Isolierung des Blockspeicherverkehrs ihre kurzfristige Relevanz zu gewährleisten scheinen.Das Problem für Fibre Channel besteht nun darin, dass ein weiterer seiner historischen Vorteile – eine regelmäßig aktualisierte Roadmap mit einem klar definierten Upgrade-Pfad – so aussieht, als würde er langsam nachlassen und die Technologie hinsichtlich zukünftiger Leistungssteigerungen ihren Höhepunkt erreicht haben.In ähnlicher Weise hat FC keinen Leistungsvorteil mehr, da die Ethernet-Geschwindigkeiten kürzlich die Fibre-Channel-Geschwindigkeiten übertroffen haben.Einer der Hauptvorteile von Fibre Channel gegenüber Ethernet scheint durch das Aufkommen dessen, was Mellanox Ethernet Storage Fabric (ESF) nennt, weiter untergraben worden zu sein.ESF unterstützt einzigartige speicherbewusste Funktionen wie die Bereitstellung intelligenter Netzwerke und Speicherauslagerungen – einschließlich TCP, RDMA, NVMe over Fabrics (NVMe-oF), Erasure Coding, T10 DIF und Verschlüsselung, um die höchste Leistung und die niedrigste Latenz in ein verlustfreier Stoff.Mellanox-Switches weisen außerdem keinen Paketverlust auf (kein vermeidbarer Paketverlust, beispielsweise aufgrund von Mikrobursts im Datenverkehr) und liefern diese Leistung fair und konsistent, um dem wachsenden Wunsch der Kunden nach Ethernet-basiertem Speicher aufgrund seiner Fähigkeit zur Unterstützung von Blöcken, Dateien und Objekten gerecht zu werden Datenspeicherung sowie die gleichzeitige Verarbeitung von Rechen- und Speicherdatenverkehr.ESF, das die gleiche Art von Remote Direct Memory Access (RDMA) wie InfiniBand unterstützt, kann RDMA verwenden, um den TCP/IP-Stapel zu umgehen und direkte Server-zu-Server- und Server-zu-Speicher-Datenübertragungen zwischen Anwendungsspeichern zu ermöglichen, ohne den Verarbeitungsaufwand auf den zu laden ZENTRALPROZESSOR.Dadurch kann ESF erhebliche Leistungs- und Effizienzsteigerungen erzielen.Es wird jetzt in Cloud-, Speicher- und Unternehmens-Ethernet-Netzwerken mit RDMA over Converged Ethernet (RoCE – ausgesprochen Rocky, und derzeit in Microsofts Azure Cloud und anderen Hyperscaler-Clouds zu finden) eingesetzt, um beispielsweise Latenzzeiten und Server-CPU/IO-Engpässe zu reduzieren.Das Beste ist, dass ESF RoCE sowohl in verlustbehafteten als auch in verlustfreien Netzwerken unterstützt und gleichzeitig TCP/IP-Verkehr auf derselben Fabric unterstützen kann.Und die Verwendung von RDMA zusammen mit dem NVMe-oF-Speicherprotokoll für Datenübertragungen zwischen dem Host und den angeschlossenen Speichersystemen kann die Latenzen noch weiter von Millisekunden auf Mikrosekunden senken.Obwohl die Technologie gerade erst danach schreit, vom Unternehmensmarkt angenommen zu werden, wird sie seit Jahren von Hyperscale-Rechenzentren eingesetzt.Es ist vorgesehen, dass NVMe-Schnittstellen weiterhin bestehende Technologien wie SAS und SATA ersetzen werden, um die vollen Leitungsraten zu unterstützen, die von Anwendungen für maschinelles Lernen (ML) und künstliche Intelligenz (KI) benötigt werden, und die Einführung von RDMA weiter zu nutzen.Intelligente oder intelligente NICs bieten Hardware-Offloads, um die Latenz zu reduzieren und die CPU auf dem Speicherinitiator und -ziel freizugeben, sodass sowohl Server als auch Speicher mehr CPU-Leistung zum Ausführen von Anwendungen oder Speicherfunktionen haben.Weitere erweiterte Funktionen sind verfügbar, wie die Unterstützung für virtuelle Open vSwitch (OVS)-Switches und Overlay-Netzwerke wie VXLAN, die Eigentümern und Betreibern möglicherweise Geld für zusätzliche Netzwerk-Switch-Hardware an anderer Stelle sparen, sowie schnellere, effizientere Sicherheit über eingebettete Firewalls und die Auslagerung der Verschlüsselung vom Server auf die SmartNIC selbst.Da Fibre Channel nicht mehr im Rennen ist, sieht es jetzt nach einem direkten Kampf zwischen InfiniBand und Ethernet aus, um die Hochgeschwindigkeits-Speicherstrukturen bereitzustellen, die Rechenzentren benötigen, um ihren Betrieb zukunftssicher zu machen.Und im Gegensatz zu Fibre Channel haben beide Technologien ehrgeizige Roadmaps.Die InfiniBand Trade Association (IBTA) veröffentlichte eine Roadmap mit 1x, 2x, 4x und 12x Portbreiten mit einer Bandbreite von bis zu 600 Gb/s im Jahr 2018, abhängig von der Kapazität pro Lane (entweder 100 Gb/s oder 125 Gb/s) und der Anzahl der Lanes pro Server.InfiniBand eignet sich gut für Serververbindungen über kurze passive und aktive Kupferkabel in HPC-Rechenzentren, kann aber auch über Transceiver und optische Kabel über Entfernungen von bis zu 10 Kilometern für Verbindungen zwischen Rechenzentren eingesetzt werden.InfiniBand hat viel Unterstützung in der HPC-Community und bei einigen Hyperscalern und Cloud-Buildern, wobei seine Vorteile nicht nur auf Durchsatz und niedrige Latenz beschränkt sind.InfiniBand mit dem HDR-Geschmack hat jetzt viel Spielraum für Erweiterungen, die selbst von Hyperscale-Rechenzentren benötigt werden, und unterstützt maximale Clustergrößen von bis zu 40.000 Knoten, die durch InfiniBand-Routing weiter erweitert werden können.Es bietet traditionell eine geringere Latenz als Ethernet, während Benutzer die höheren Leitungsgeschwindigkeiten, größeren Paketgrößen, dynamischen Routing-Funktionen und das einfach zu verwendende Multipathing loben, das es bietet.Die Hersteller setzen alles daran, Verbindungen mit 100 Gb/s und 200 Gb/s auf den Markt zu bringen.Mellanox liefert derzeit InfiniBand-Komponenten mit verbesserter Datenrate (EDR), die vier Spuren mit 25 Gbit/s zu einer Gesamtbandbreite von 100 Gbit/s kombinieren (ein Wechsel von NRZ- zu PAM-4-Signalisierung macht die 25 Gbit/s pro Spur physisch Signalisierung sieht aus wie 50 Gb/s pro Spur).Das Unternehmen hat im vergangenen Jahr mit der Auslieferung von InfiniBand mit 200 Gbit/s Higher Data Rate (HDR) begonnen und hat auch ein schnelleres InfiniBand mit nächster Datenrate (NDR) am Horizont mit nativer 100-Gbit/s-Signalisierung pro Lane.Am äußersten Ende der Roadmap von Mellanox befindet sich die Extended Data Rate (XDR) InfiniBand-Spezifikation, die potenziell bis zu 1 Tbit/s über die vier Lanes läuft, die normalerweise verwendet werden, um an einem unbestimmten Punkt in der Zukunft einen Serverport zu erstellen;dies impliziert eine Signalisierung von 250 Gb/s pro Lane, und es ist noch nicht klar, welche Mischung aus nativer Signalisierung, Datencodierung und Modulation verwendet wird, um dieses Ziel zu erreichen.Aber auch hinter Ethernet stehen konkrete Pläne für eine verbesserte Konnektivität.Die 200-Gbit/s- und 400-Gbit/s-Spezifikationen wurden Ende letzten Jahres von der IEEE 802.3 Ethernet Working Group ratifiziert, wobei das Konsortium von Lieferanten, aus denen sich die Ethernet Alliance zusammensetzt, zuversichtlich ist, dass 400-Gbit/s-Verbindungen in Hyperscale-Rechenzentren von bereitgestellt werden 2020. Weitere Spezifikationen mit einer Kapazität von bis zu 800 Gb/s und einer Konnektivität von 1,6 Tb/s könnten bereits 2023 erscheinen.Sowohl 200 Gb/s als auch 400 Gb/s unterstützen eine Reihe unterschiedlicher Verkabelungsspezifikationen, die die Übertragungsanforderungen für kurze und lange Reichweiten, die Abwärtskompatibilität und die Stromverbrauchsgrenzen in den meisten Rechenzentren erfüllen sollten, in denen Platz und Strom oft knapp sind Singlemode-Faser (SMF) oder Multimode-Faser (MMF) basierend auf mehreren Bahnen und Fasersträngen.Die neuesten Ethernet-Spezifikationen wurden auch verschoben, um die Latenzprobleme anzugehen, die durch die Notwendigkeit verursacht werden, vor der Datenübertragung eine Vorwärtsfehlerkorrektur durchzuführen, um die Zuverlässigkeit zu gewährleisten.Anstatt es optional zu machen, bettet die 802.bs-Architektur die Reed-Solomon-Forward-Error-Correction (FEC) in die Physical Coding Sub-Layer (PCS) für jede Rate ein und zwingt die Hersteller effektiv, 200-Gb/s- und 400-Gb/s-Extender-Sublayer zu entwickeln um die zukünftige Entwicklung anderer PCS-Unterschichten zu unterstützen, die zu einem späteren Zeitpunkt andere Arten von FEC für eine höhere Effizienz verwenden können.Jeder Zeitrahmen für die Bereitstellung der neuesten InfiniBand- oder Ethernet-Technologie in Cloud- oder Unternehmensrechenzentren hängt davon ab, wann Hersteller geeignete Komponenten auf den Markt bringen können und wie günstig sie sind.Das Momentum scheint jetzt jedoch sehr fest hinter Ethernet zu stehen.Die Verkäufe der InfiniBand-ASICs und -Switches von Mellanox blieben von 2015 bis 2018 stabil, mit gelegentlichen Spitzen hier und da, und InfiniBand zeigte ein bescheidenes Wachstum, das von HPC/ML/AI-Projekten angetrieben wurde.Aber es war die Nachfrage nach den ESF-Netzwerkkomponenten und dem Hochleistungs-Ethernet des Unternehmens – wo Mellanox bei Ethernet-Adaptern mit 25 Gbit/s und mehr führend ist –, die den größten Teil des Umsatzwachstums im Jahr 2018 ausmachte und wovon sie auch weiterhin profitieren werden mehrjährige Umstellung auf höhere Geschwindigkeiten.Die Dinge könnten sich ändern, aber eines ist sicher, egal welche Technologie gewinnt, Netzwerke werden intelligenter.Heute ist InfiniBand mit Technologien wie SMART führend, die nicht nur HPC-, sondern auch KI-Workloads beschleunigen.Aber auch Ethernet entwickelt sich rasant mit der SmartNIC-Technologie und virtuellen Switch-Offloads.Ethernet soll nahezu alles liefern, was das moderne hyperkonvergente oder softwaregesteuerte Rechenzentrum langfristig in Bezug auf Speicherleistung, Kapazität und Verwaltung benötigt.Es sieht so aus, als wäre Ethernet eine Technologie, gegen die man nur schwer wetten kann.Am Ende steht fest: Die Netze der Zukunft werden intelligenter und schneller.Mit Highlights, Analysen und Geschichten aus der Woche direkt von uns in Ihren Posteingang, ohne dazwischen.Abonniere jetztDer Deal für Nvidia zur Übernahme von Mellanox, der im vergangenen März für 6,9 Milliarden US-Dollar angekündigt wurde, hat endlich die Musterung aller Regulierungsbehörden der Welt bestanden und wurde heute abgeschlossen.Die Kombination der beiden Unternehmen bietet viele Möglichkeiten, von denen wir einige hier und da in …Cisco Systems ist zwar immer noch der größte Anbieter von Switches und Routern im Allgemeinen, aber bei der Lieferung des Siliziums, das das Switching selbst und manchmal sogar ein bisschen Routing im Rechenzentrum im Besonderen übernimmt, ist es längst von Broadcom übertroffen worden.(Bedeutung nicht …Um es so zu betrachten, ist dies die beste Zeit unter den schlimmsten Zeiten für Nvidia.Trotz einer globalen Pandemie, die zu Unterbrechungen des IT-Betriebs sowie zu Ausgaben bei großen und kleinen Unternehmen geführt hat und die Lieferketten in der gesamten IT unterbrochen hat …Deine Email-Adresse wird nicht veröffentlicht.Diese Seite verwendet Akismet, um Spam zu reduzieren.Erfahren Sie, wie Ihre Kommentardaten verarbeitet werden.The Next Platform wird von Stackhouse Publishing Inc in Partnerschaft mit The Register, der führenden britischen Technologiepublikation, herausgegeben.Es bietet eine umfassende Abdeckung von High-End-Computing in großen Unternehmen, Supercomputing-Zentren, Hyperscale-Rechenzentren und Public Clouds.Weiterlesen…Mit Highlights, Analysen und Geschichten aus der Woche direkt von uns in Ihren Posteingang, ohne dazwischen.Abonniere jetztAlle Inhalte sind urheberrechtlich geschützt von The Next Platform