DE112012002080T5 - Switching-Netzwerk-Architektur gemäss dem Distributed Fabric Protocol (DFP) - Google Patents

Switching-Netzwerk-Architektur gemäss dem Distributed Fabric Protocol (DFP) Download PDF

Info

Publication number
DE112012002080T5
DE112012002080T5 DE112012002080.4T DE112012002080T DE112012002080T5 DE 112012002080 T5 DE112012002080 T5 DE 112012002080T5 DE 112012002080 T DE112012002080 T DE 112012002080T DE 112012002080 T5 DE112012002080 T5 DE 112012002080T5
Authority
DE
Germany
Prior art keywords
virtual
traffic
port
switch
ports
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112012002080.4T
Other languages
English (en)
Inventor
Vijoy Pandey
Keshav Govind Kamble
Dayavanti Gopal Kamath
Deepak Kumar
Jayakrishna Kidambi
Dar-Ren Leu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of DE112012002080T5 publication Critical patent/DE112012002080T5/de
Granted legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L49/00Packet switching elements
    • H04L49/25Routing or path finding in a switch fabric
    • H04L49/253Routing or path finding in a switch fabric using establishment or release of connections between ports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L49/00Packet switching elements
    • H04L49/70Virtual switches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L49/00Packet switching elements
    • H04L49/35Switches specially adapted for specific applications
    • H04L49/356Switches specially adapted for specific applications for storage area networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

Ein Switching-Netzwerk enthält eine obere Ebene mit einem Master-Switch und eine untere Ebene mit mehreren Entitäten der unteren Ebene. Der Master-Switch enthält eine Mehrzahl von Anschlüssen, die jeweils mit einer entsprechenden aus der Mehrzahl von Entitäten der unteren Ebene verbunden sind. Jeder aus der Mehrzahl von Anschlüssen enthält eine Mehrzahl von virtuellen Anschlüssen, die jeweils einer entsprechenden aus einer Mehrzahl von fernen physischen Schnittstellen (RPIs) an der Entität der unteren Ebene entsprechen, die mit diesem Anschluss verbunden ist. Jeder aus der Mehrzahl von Anschlüssen enthält außerdem eine Empfangsschnittstelle, die in Reaktion auf den Empfang von Datenverkehr von einer bestimmten Entität der unteren Ebene aus der Mehrzahl von Entitäten der unteren Ebene den Datenverkehr in Warteschlangen zu dem virtuellen Anschluss aus der Mehrzahl von virtuellen Anschlüssen einreiht, der der RPI in der bestimmten Entität der unteren Ebene entspricht, bei der es sich um die Quelle des Datenverkehrs handelt. Der Master-Switch enthält ferner eine Switch-Steuereinheit, die Datenverkehr von dem virtuellen Anschluss zu einem Ausgangsanschluss aus der Mehrzahl von Anschlüssen schaltet, von dem der Datenverkehr weitergeleitet wird.

Description

  • Technisches Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich allgemein auf Netzwerk-Datenübertragungen und insbesondere auf eine verbesserte Switching-Netzwerk-Architektur für Computernetzwerke.
  • Hintergrund der Erfindung
  • Wie in der Technik bekannt beruhen Netzwerk-Datenübertragungen gewöhnlich auf dem bekannten siebenschichtigen Open-Systems-Interconnection-(OSI-)Modell, das die Funktionen der verschiedenen Protokollschichten definiert, wobei die eigentlichen Schichtprotokolle nicht spezifiziert werden. Bei den sieben Schichten, die hier gelegentlich auch als Schicht 7 (Layer 7) bis Schicht 1 (Layer 1) bezeichnet werden, handelt es sich um die Verarbeitungsschicht (Application Layer), Darstellungsschicht (Presentation Layer), Kommunikationssteuerungsschicht (Session Layer), Transportschicht (Transport Layer), Vermittlungsschicht (Network Layer), Sicherungsschicht (Data Link Layer) bzw. Bitübertragungsschicht (Physical Layer).
  • An einer Quellenstation beginnen Datenübertragungen, wenn Daten von einem Quellenvorgang in der oberen (Verarbeitungs-)Schicht des Funktionsstapels empfangen werden. Die Daten werden in jeder nachfolgenden niedrigeren Schicht des Stapels sequenziell formatiert, bis ein Datenrahmen aus Bits in der Sicherungsschicht erhalten wird. Schließlich werden die Daten in der Bitübertragungsschicht in der Form von elektromagnetischen Signalen hin zu einer Zielstation über eine Netzwerkverbindung übertragen. Wenn die übertragenen Daten in der Zielstation empfangen werden, werden sie in einem entsprechenden Stapel von Funktionen in der umgekehrten Reihenfolge, in der die Daten in der Quellenstation verarbeitet wurden, nach oben geleitet, wodurch die Informationen an einen Empfangsvorgang in der Zielstation geliefert werden.
  • Das Prinzip von geschichteten Protokollen wie jene, die durch das OSI-Modell unterstützt werden, besteht darin, dass während des vertikalen Durchlaufs der Daten durch die Modellschichten die Schichten an den Quellen- und Zielstationen in der Art Peer-to-Peer (d. h. Schicht N zu Schicht N) interagieren und die Funktionen jeder einzelnen Schicht ausgeführt werden, ohne die Schnittstelle zwischen den Funktion der einzelnen Schicht und die unmittelbar darüber und darunter liegenden Schichten zu beeinflussen. Um diese Wirkung zu erzielen, fügt jede Schicht des Protokollstapels in der Quellenstation üblicherweise Informationen (in der Form eines verkapselten Vorsatzes (Header)) an die Daten an, die durch den Sendevorgang erzeugt werden, wenn sich die Daten in dem Stapel abwärts bewegen. An der Zielstation werden diese verkapselten Vorsätze einzeln abgestreift, wenn sich die Daten in den Schichten des Stapels aufwärts bewegen, bis die entkapselten Daten an den Empfangsvorgang geliefert werden.
  • Das physische Netzwerk, das die Quellen- und Zielstationen verbindet, kann eine beliebige Anzahl von Netzwerkknoten enthalten, die untereinander durch eine oder mehrere leitungsgestützte oder drahtlose Netzwerkverbindungen verbunden sind. Zu Netzwerkknoten gehören gewöhnlich Hosts (z. B. Server-Computer, Client-Computer, mobile Einheiten usw.), die Netzwerkverkehr, Switches und Router erzeugen und in Anspruch nehmen. Herkömmliche Netzwerk-Switches verbinden unterschiedliche Netzwerksegmente und Prozesse und leiten Daten in der Sicherungsschicht (Data Link Layer, Schicht 3) des OSI-Modells weiter. Switches stellen üblicherweise zumindest grundlegende Brückenfunktionen bereit, darunter Filtern von Datenverkehr durch eine Media-Access-Control-(MAC-)Adresse der Schicht 2, Erkennen der Quellen-MAC-Adressen aus Rahmen und Weiterleiten von Rahmen auf der Grundlage von Ziel-MAC-Adressen. Router, die unterschiedliche Netzwerke auf der Vermittlungsschicht (Network Layer, Schicht 3) des OSI-Modells verbinden, setzen üblicherweise Netzwerkdienste wie z. B. Routenverarbeitung, Wegbestimmung und Weg-Switching ein.
  • Ein großes Netzwerk enthält üblicherweise eine große Anzahl von Switches, die in Bezug auf Management, Steuerung und Datenebenen unabhängig betrieben werden. Demzufolge muss jeder Switch individuell konfiguriert werden, setzt eine unabhängige Steuerung des Datenverkehrs um (z. B. Zugriffsteuerlisten (ACLs)) und leitet Datenverkehr unabhängig von dem Datenverkehr, der durch andere der Switches bewältigt wird, weiter.
  • Offenbarung der Erfindung
  • Gemäß wenigstens einer Ausführungsform werden das Management, die Steuerung und die Handhabung von Daten bei einer Mehrzahl von Switches in einem Computernetzwerk verbessert.
  • In wenigstens einer Ausführungsform enthält ein Switching-Netzwerk eine obere Ebene mit einem Master-Switch und eine untere Ebene mit einer Mehrzahl von Entitäten der unteren Ebene. Der Master-Switch enthält eine Mehrzahl von Anschlüssen, wovon jeder mit einer entsprechenden aus der Mehrzahl von Entitäten der unteren Ebene verbunden ist. Jeder aus der Mehrzahl von Anschlüssen enthält eine Mehrzahl von virtuellen Anschlüssen, wovon jeder einer entsprechenden aus einer Mehrzahl von fernen physischen Schnittstellen (RPIs) in der Entität der unteren Ebene entspricht, die mit diesem Anschluss (engl.: Port) verbunden ist. Jeder aus der Mehrzahl von Anschlüssen enthält außerdem eine Empfangsschnittstelle, die in Reaktion auf den Empfang von Datenverkehr von einer bestimmten Entität der unteren Ebene den Datenverkehr zu dem virtuellen Anschluss aus der Mehrzahl von virtuellen Anschlüssen, der der RPI in der bestimmten Entität der unteren Ebene, die die Quelle des Datenverkehrs darstellt, in einer Warteschlange einreiht. Der Master-Switch enthält ferner eine Switch-Steuereinheit, die Datenverkehr von dem virtuellen Anschluss zu einem Ausgangsanschluss unter der Mehrzahl von Anschlüssen schaltet, von dem der Datenverkehr weitergeleitet wird.
  • In wenigstens einer Ausführungsform enthält das Switching-Netzwerk eine obere Ebene und eine untere Ebene mit einer Mehrzahl von Entitäten der unteren Ebene. Ein Master-Switch in der oberen Ebene, der eine Mehrzahl von Anschlüssen aufweist, wovon jeder mit einer entsprechenden Entität der unteren Ebene verbunden ist, setzt an jedem der Anschlüsse eine Mehrzahl von virtuellen Anschlüssen um, die jeweils einer entsprechenden aus einer Mehrzahl von fernen physischen Schnittstellen (RPIs) in der Entität der unteren Ebene entsprechen, die mit diesem Anschluss verbunden ist. Datenverkehr, der zwischen dem Master-Switch und den RPIs übertragen wird, wird in virtuellen Anschlüssen, die den RPIs in Entitäten der unteren Ebene entsprechen, mit denen der Datenverkehr übertragen wird, in eine Warteschlange eingereiht. Der Master-Switch erzwingt eine prioritätsgestützte Ablaufsteuerung (PFC) an Datenverkehr eines vorgegebenen virtuellen Anschlusses, indem ein PFC-Datenrahmen, der Prioritäten für wenigstens zwei verschiedene Klassen des Datenverkehrs festlegt, der durch die bestimmte RPI übertragen wird, zu einer Entität der unteren Ebene, in der sich eine entsprechende RPI befindet, übertragen wird.
  • In wenigstens einer Ausführungsform enthält ein Switching-Netzwerk eine obere Ebene mit einem Master-Switch und eine untere Ebene mit einer Mehrzahl von Entitäten der unteren Ebene. Der Master-Switch, der eine Mehrzahl von Anschlüssen aufweist, die jeweils mit einer entsprechenden Entität der unteren Ebene verbunden sind, setzt an jedem der Anschlüsse eine Mehrzahl von virtuellen Anschlüssen um, die jeweils einer entsprechenden aus einer Mehrzahl von fernen physischen Schnittstellen (RPIs) an der Entität der unteren Ebene, die mit diesem Anschluss verbunden ist, entsprechen. Datenverkehr, der zwischen dem Master-Switch und RPIs übertragen wird, wird in virtuellen Anschlüssen, die den RPIs entsprechen, mit denen der Datenverkehr übertragen wird, in Warteschlangen eingereiht. Der Master-Switch dient der Datenbehandlung in dem Datenverkehr gemäß einer Steuerungsstrategie, die wenigstens auf dem virtuellen Anschluss beruht, in dem der Datenverkehr in Warteschlangen eingereiht ist, so dass der Master-Switch für unterschiedliche Strategien an Datenverkehr gilt, der in zwei virtuellen Anschlüssen in demselben Anschluss des Master-Switch in Warteschlangen eingereiht ist.
  • Kurzbeschreibung der Zeichnungen
  • Die eigentliche Offenbarung sowie eine bevorzugte Art der Verwendung und deren Vorteile werden durch Bezugnahme die folgende genaue Beschreibung einer veranschaulichenden Ausführungsform am besten verstanden, wenn sie in Verbindung mit den angefügten Zeichnungen gelesen wird, in denen:
  • 1 ein Blockschaltbild in Übersichtsform einer Datenverarbeitungsumgebung gemäß einer Ausführungsform ist;
  • 2 ein Blockschaltbild in Übersichtsform einer Ausführungsform einer Switching-Netzwerk-Architektur gemäß dem Distributed Fabric Protocol (DFP) ist, die in der Datenverarbeitungsumgebung von 1 umgesetzt werden kann;
  • 3 ein Blockschaltbild in Übersichtsform einer weiteren Ausführungsform einer DFP-Switching-Netzwerk-Architektur ist, die in der Datenverarbeitungsumgebung von 1 umgesetzt werden kann;
  • 4 ein genaueres Blockschaltbild eines Host in 3 gemäß einer Ausführungsform ist;
  • 5A ein Blockschaltbild in Übersichtsform einer beispielhaften Ausführungsform eines Master-Switch eines DFP-Switching-Netzwerks gemäß einer Ausführungsform ist;
  • 5B ein Blockschaltbild in Übersichtsform einer beispielhaften Ausführungsform eines Folge-Switch (Follower-Switch) eines DFP-Switching-Netzwerks gemäß einer Ausführungsform ist;
  • 6 eine Ansicht der DFP-Switching-Netzwerk-Architektur von 2 oder 3 ist, die als ein virtualisierter Switch an einer Management-Schnittstelle gemäß einer Ausführungsform dargestellt ist;
  • 7 ein logischer Ablaufplan in Übersichtsform eines beispielhaften Prozesses zum Verwalten eines DFP-Switching-Netzwerks gemäß einer Ausführungsform ist;
  • 8 einen logischen Ablaufplan in Übersichtsform eines beispielhaften Prozesses darstellt, durch den Netzwerkverkehr von einer unteren Ebene zu einer oberen Ebene eines DFP-Switching-Netzwerks weitergeleitet wird, das so eingerichtet ist, dass es gemäß einer Ausführungsform als ein virtualisierter Switch betrieben wird;
  • 9 ein logischer Ablaufplan in Übersichtsform eines beispielhaften Prozesses ist, durch den ein Master-Switch in der oberen Ebene einen Datenrahmen bearbeitet, der von der unteren Ebene eines DFP-Switching-Netzwerks gemäß einer Ausführungsform empfangen wird;
  • 10 ein logischer Ablaufplan in Übersichtsform eines beispielhaften Prozesses ist, durch den ein Folge-Switch oder Host in der unteren Ebene einen Datenrahmen bearbeitet, der von einem Master-Switch in der oberen Ebene eines DFP-Switching-Netzwerks gemäß einer Ausführungsform empfangen wird;
  • 11 ein logischer Ablaufplan in Übersichtsform eines beispielhaften Verfahrens zum Betreiben einer Link Aggregation Group (LAG) in einem DFP-Switching-Netzwerk gemäß einer Ausführungsform ist;
  • 12 eine beispielhafte Ausführungsform einer LAG-Datenstruktur darstellt, die verwendet wird, um eine Zugehörigkeit einer LAG gemäß einer Ausführungsform aufzuzeichnen;
  • 13 ein logischer Ablaufplan in Übersichtsform eines beispielhaften Verfahrens zum Multicasting in einem DFP-Switching-Netzwerk gemäß einer Ausführungsform ist;
  • 14 beispielhafte Ausführungsformen von Multicast-Index-Datenstrukturen der Schicht 2 und Schicht 3 darstellt;
  • 15 ein logischer Ablaufplan in Übersichtsform eines beispielhaften Verfahrens der verbesserten Übertragungsauswahl (Enhanced Transmission Selection, ETS) in einem DFP-Switching-Netzwerk gemäß einer Ausführungsform ist;
  • 16 eine beispielhafte Enhanced-Transmission-Selection-(ETS-)Datenstruktur darstellt, die verwendet werden kann, um ETS für einen Master-Switch eines DFP-Switching-Netzwerks gemäß einer Ausführungsform einzurichten;
  • 17 ein logischer Ablaufplan in Übersichtsform eines beispielhaften Verfahrens ist, durch welches ein DFP-Switching-Netzwerk in einer unteren Ebene eine prioritätsgestützte Ablaufsteuerung (PFC) und/oder andere Dienste umsetzt;
  • 18 einen beispielhaften PFC-Datenrahmen 1800 darstellt, der verwendet werden kann, um eine prioritätsgestützte Ablaufsteuerung (PFC) und/oder andere Dienste in einer unteren Ebene eines DFP-Switching-Netzwerks gemäß einer Ausführungsform umzusetzen;
  • 19A ein logischer Ablaufplan in Übersichtsform eines beispielhaften Prozesses ist, durch den ein Folge-Switch der unteren Ebene eines DFP-Switching-Netzwerks einen PFC-Datenrahmen verarbeitet, der von einem Master-Switch gemäß einer Ausführungsform empfangen wurde; und
  • 19B ein logischer Ablaufplan in Übersichtsform eines beispielhaften Prozesses ist, durch den ein Host der unteren Ebene in einem DFP-Switching-Netzwerk einen PFC-Datenrahmen verarbeitet, der von einem Master-Switch gemäß einer Ausführungsform empfangen wurde.
  • Genaue Beschreibung einer veranschaulichenden Ausführungsform
  • Es wird eine Switching-Netzwerk-Architektur offenbart, die ein vereinheitlichtes Management, Steuerung und Datenebenen in einer Mehrzahl von miteinander verbundenen Switches in einem Computer-Netzwerk einführt.
  • In den Figuren und insbesondere in 1 ist ein Blockschaltbild in Übersichtsform einer beispielhaften Datenverarbeitungsumgebung 100 gemäß einer Ausführungsform dargestellt. Wie gezeigt enthält die Datenverarbeitungsumgebung 100 eine Sammlung von Ressourcen 102. Die Ressourcen 102, zu denen verschiedene Hosts, Clients, Switches, Router, Speichereinrichtungen usw. gehören können, sind für einen Datenaustausch miteinander verbunden und können physisch oder virtuell in einem oder mehreren öffentlichen, privaten, Gemeinschafts- oder Cloud-Netzwerken oder einer Kombination hiervon gruppiert sein (nicht gezeigt). Auf diese Weise kann die Datenverarbeitungsumgebung 100 eine Infrastruktur, Plattformen, Software und/oder Dienste anbieten, auf die von verschiedenen Client-Einheiten 110 wie etwa Personal Computer (z. B. Desktop-, Laptop-, Netbook-, Tablet- oder handgehaltene Computer) 110a, Smartphones 110b, Server-Computersysteme 110c und Verbraucherelektronik wie etwa Medienwiedergabegeräte (z. B. Settop-Boxes, Digital-Versatile-Disk-(DVD-)Player oder digitale Videorekorder (DVRs) 110d zugegriffen werden kann. Es sollte klar sein, dass die in 1 gezeigten Typen von Client-Einheiten 110 lediglich beispielhaft sind und es sich bei Client-Einheiten 110 um jeden Typ von elektronischen Einheiten handeln kann, die mit Ressourcen 102 über ein Paket-Netzwerk Daten austauschen und auf diese zugreifen können.
  • In 2 ist ein Blockschaltbild in Übersichtsform einer beispielhaften Switching-Netzwerk-Architektur gemäß dem Distributed Fabric Protocol (DFP) dargestellt, die in Ressourcen 102 gemäß einer Ausführungsform umgesetzt werden kann. Bei der dargestellten beispielhaften Ausführungsform gehört zu den Ressourcen 102 eine Mehrzahl von physischen und/oder virtuellen Netzwerk-Switches, die ein DFP-Switching-Netzwerk 200 bilden. Im Unterschied zu herkömmlichen Netzwerkumgebungen, bei denen jeder Switch ein unabhängiges Management, Steuerung und Datenebenen umsetzt, setzt ein DFP-Switching-Netzwerk 200 eine vereinheitlichtes Management, Steuerung und Datenebenen um, wodurch alle beteiligten Switches als ein vereinheitlichter virtualisierter Switch betrachtet werden können, was somit Verwendung, Konfiguration und Management des Netzwerk-Fabric vereinfacht.
  • Das DFP-Switching-Netzwerk 200 enthält zwei oder mehr Ebenen von Switches, die in der aktuellen Ausführungsform eine untere Ebene mit einer Mehrzahl von Folge-Switches, zu denen die Folge-Switches 202a bis 202d gehören, und eine obere Ebene mit einer Mehrzahl von Master-Switches, zu denen die Master-Switches 204a bis 204b gehören, enthalten. In einer Ausführungsform mit zwei Ebenen ist wie gezeigt ein Anschluss jedes Master-Switch 204 durch eine von Zwischenebenen-Verbindungen 206 mit einem der Anschlüsse jedes Folge-Switch 202 direkt verbunden und ein Anschluss jedes Master-Switch 204 ist mit einem Anschluss wenigstens eines anderen Master-Switch 204 durch eine Master-Verbindung 208 direkt oder indirekt verbunden. Wenn derartige Unterscheidungen relevant sind, werden Anschlüsse, die einen Switch-zu-Switch-Datenaustausch über Zwischenebenen-Verbindungen 206 unterstützen, hier als „Zwischen-Switch-Anschlüsse” bezeichnet, während andere Anschlüsse (z. B. des Folge-Switch 202a bis 202d) als „Datenanschlüsse” bezeichnet werden.
  • In einer bevorzugten Ausführungsform sind Folge-Switches 202 so eingerichtet, dass sie in der Datenebene in einer Durchlauf-Betriebsart betrieben werden, was bedeutet, dass der gesamte eingehende Datenverkehr, der an Datenanschlüssen 210 von Folge-Switches 202 (z. B. von Hosts) empfangen wird, durch Folge-Switches 202 über Zwischen-Switch-Anschlüsse und Zwischenebenen-Verbindungen 206 zu einem der Master-Switches 204 weitergeleitet wird. Die Master-Switches 204 dienen ihrerseits als das Fabric für den Datenverkehr (daher die Bezeichnung verteiltes Fabric) und setzen die gesamte Paket-Vermittlung und Weglenkung für den Datenverkehr um. Bei dieser Anordnung kann Datenverkehr z. B. in dem ersten beispielhaften Ablauf wie durch Pfeile 212a bis 212d angegeben und in dem zweiten beispielhaften Ablauf wie durch Pfeile 214s bis 214a angegeben weitergeleitet werden.
  • Es ist klar, dass die Zentralisierung von Vermittlung und Weglenkung für Folge-Switches 202 in Master-Switches 204 bedeutet, dass den Master-Switches 204 die Eingangs-Datenanschlüsse von Folge-Switches 202 bekannt sind, an denen Datenverkehr empfangen wird. Bei einer bevorzugten Ausführungsform verwendet eine Switch-zu-Switch-Datenübertragung über Verbindungen 206, 208 ein Schicht-2-Protokoll wie etwa das Inter-Switch-Link-(ISL-)Protokoll, das durch Cisco Corporation entwickelt wurde, oder IEEE 802.1QnQ, das ein explizites Tagging verwendet, um mehrere virtuelle Lokalbereichsnetzwerke (VLANs) der Schicht 2 über einem DSP-Switching-Netzwerk 200 einzurichten. Jeder Folge-Switch 202 wendet vorzugsweise VLAN-Tags (die auch als Dienst-Tags (S-Tags)) bekannt sind, auf Datenrahmen an, um den Eingangs-Datenanschluss 210 in dem Folge-Switch 202, auf dem der Datenrahmen empfangen wurde, zu dem empfangenden Master-Switch 204 zu schalten. Bei alternativen Ausführungsformen kann der Eingangs-Datenanschluss durch eine andere Kennung übertragen werden, z. B. ein MAC-in-MAC-Vorsatz, eine eindeutige MAC-Adresse, ein IP-in-IP-Vorsatz usw. Wie nachfolgend weiter erläutert wird, weist jeder Datenanschluss 210 in jedem Folge-Switch 202 einen entsprechenden virtuellen Anschluss (oder Vport) in jedem Master-Switch 204 auf und Datenrahmen, die an dem Datenanschluss 210 eines Folge-Switch 202 eintreffen, werden so behandelt, als ob sie an dem entsprechenden Vport des empfangenden Master-Switch 204 eintreffen.
  • In 3 ist ein Blockschaltbild in Übersichtsform einer weiteren beispielhaften Switching-Netzwerk-Architektur gemäß dem Distributed Fabric Protocol (DFP) dargestellt, die in Ressourcen 102 gemäß einer Ausführungsform umgesetzt werden kann. Die in 3 gezeigte Architektur, die über ein DFP-Switching-Netzwerk 300 vereinheitlichtes Management, Steuerung und Datenebenen umsetzt, kann in Ressourcen 102 als eine Alternative zu der in 2 gezeigten DFP-Switching-Netzwerk-Architektur oder zusätzlich zu dieser umgesetzt werden.
  • In der dargestellten beispielhaften Ausführungsform gehören zu den Ressourcen 102 im DFP-Switching-Netzwerk 300 ein oder mehrere physische und/oder virtuelle Netzwerk-Switches, die wenigstens einen der Master-Switches 204a bis 204b in einer oberen Ebene umsetzen. Das Switching-Netzwerk 300 enthält auf einer unteren Ebene zusätzlich eine Mehrzahl von physischen Hosts 302a bis 302d. Wie in 4 dargestellt enthält in einer beispielhaften Ausführungsform jeder Host 302 eine oder mehrere Netzwerk-Schnittstellen 404 (z. B. Netzwerk-Schnittstellenkarten (NICs), zusammengefasste Netzwerkadapter (CNAs) usw.), die eine Schrittstelle bereitstellen, durch die dieser Host 302 mit Master-Switch(es) 204 Daten austauscht. Der Host 302 enthält außerdem einen oder mehrere Prozessoren 402 (die üblicherweise eine oder mehrere integrierte Schaltungen aufweisen), die Daten und Programmcode verarbeiten, um z. B. Daten oder Software in der Datenverarbeitungsumgebung 100 zu verwalten, auf diese zuzugreifen und zu verarbeiten. Der Host 302 enthält außerdem Eingabe/Ausgabe-(E/A-)Einheiten 406 wie etwa Anschlüsse, Anzeigen, Benutzereingabeeinheiten und angeschlossene Einheiten usw., die Eingaben empfangen und Ausgaben der durch den Host 302 und/oder andere Ressource(n) in der Datenverarbeitungsumgebung 100 ausgeführten Verarbeitung bereitzustellen. Der Host 302 enthält schließlich eine Datenspeichereinrichtung 410, die einen oder mehrere flüchtige oder nichtflüchtige Speichereinheiten aufweisen kann, darunter Speicher, USB-Laufwerke, optische oder magnetische Plattenlaufwerke, Bandlaufwerke usw. Die Datenspeichereinrichtung 410 kann z. B. Programmcode (darunter Software, Firmware oder eine Kombination hiervon) und Daten speichern.
  • In 3 enthält der Programmcode, der durch jeden Host 302 ausgeführt wird, eine Überwachungseinrichtung einer virtuellen Maschine (Virtual Machine Monitor, VMM) 304 (die auch als Hypervisor bezeichnet wird), die die Ressourcen ihres entsprechenden physischen Host 302 virtualisiert und verwaltet. Jede VMM 304 ordnet Ressourcen einer oder mehrerer virtueller Maschinen (VMs) 306 in einer oder mehreren möglicherweise heterogenen Partitionen eines Betriebssystems zu und unterstützt deren Ausführung. Jede der VMs 304 kann eine (und in einigen Fällen mehrere) virtuelle Netzwerk-Schnittstellen (virtuelle NICs (VNICs)) aufweisen, die wenigstens in den Schichten 2 und 3 des OSI-Modells eine Netzwerkkonnektivität bereitstellen.
  • Wie dargestellt können eine oder mehrere der VMMs 304a bis 304d optional einen oder mehrere virtuelle Switches (VSs) 310 (z. B. Fibre-Channel-Switch(es), Ethernet-Switch(es), Fibre-Channel over Ethernet-(FCoE-)Switches usw.) bereitstellen, an die VMs 306 angeschlossen werden können. In ähnlicher Weise können eine oder mehrere der Netzwerk-Schnittstellen 404 von Hosts 302 optional einen oder mehrere virtuelle Switches (VSs) 312 (z. B. Fibre-Channel-Switch(es), Ethernet-Switch(es), FCoE-Switches usw.) bereitstellen, mit denen VMs 306 verbunden werden können. Somit stehen VMs 306 mit Master-Switch(es) 204 über Zwischenebenen-Verbindungen 206, Netzwerk-Schnittstellen 404, der durch VMMs 304 bereitgestellten Virtualisierungsschicht und wahlweise einem oder mehreren virtuellen Switches 310, 312, die in Programmcode und/oder Hardware umgesetzt sind, in einem Netzwerk-Datenaustausch.
  • Wie in 2 sind virtuelle Switches 310, 312 gegebenenfalls vorzugsweise so eingerichtet, dass sie auf der Datenebene in einer Durchlauf-Betriebsart betrieben werden, was bedeutet, dass der gesamte eingehende Datenverkehr, der an den virtuellen Datenanschlüssen von virtuellen Switches 310, 312 von VMs 306 empfangen wird, durch virtuelle Switches 310, 312 über Netzwerk-Schnittstellen 404 und Zwischenebenen-Verbindungen 206 zu einem der Master-Switches 204 weitergeleitet wird. Master-Switches 204 dienen ihrerseits als das Fabric für den Datenverkehr und realisieren die gesamte Vermittlung und Weglenkung für den Datenverkehr.
  • Wie oben erläutert bedeutet die Zentralisierung von Vermittlung und Weglenkung für Hosts 302 in Master-Switch(es) 204, dass dem Master-Switch 204, der Datenverkehr von einem Host 302 empfängt, die Quelle des Datenverkehrs bekannt ist (z. B. Link-Aggregation-Group-(LAG-)Schnittstelle, physischer Anschluss, virtueller Anschluss usw.). Um einen Datenaustausch von derartigen Verkehrsquellen-Informationen zu ermöglichen, wird beim Datenaustausch über Zwischenebenen-Verbindungen 206 wiederum vorzugsweise ein Schicht-2-Protokoll verwendet wie etwa das Inter-Switch-Link-(ISL-)Protokoll, das durch Cisco Corporation entwickelt wurde, oder IEEE 802.1QnQ, das explizites Tagging enthält, um mehrere virtuelle Lokalbereichsnetzwerke (VLANs) der Schicht 2 über DFP-Switching-Netzwerke 300 einzurichten. Jeder Host 302 wendet vorzugsweise VLAN-Tags auf Datenrahmen an, um die Datenverkehrsquelle (z. B. physischer Anschluss, LAG-Schnittstelle, virtueller Anschluss (z. B. virtuelle Netzwerk-Schnittstellenkarte (VNIC) der VM, Single-Root-E/A-Virtualisierung (SRIOV) der NIC-Partition oder FCoE-Anschluss), von der der Datenrahmen empfangen wurde, zu dem empfangenden Master-Switch 204 zu schalten. Jede derartige Datenverkehrsquelle weist einen entsprechenden Vport an jedem Master-Switch 204 auf, und Datenrahmen, die von einer Datenverkehrsquelle in einem Host 302 stammen, werden so behandelt, als ob sie am entsprechenden Vport des empfangenden Master-Switch 204 eingehen. Im Allgemeinen werden Datenverkehrsquellen in Hosts 302 und Datenanschlüsse 210 in Folge-Switches 202 im Folgenden als ferne physische Schnittstellen (RPIs) bezeichnet, sofern keine Unterscheidung zwischen den verschiedenen Typen von RPIs vorgesehen ist.
  • In DFP-Switching-Netzwerken 200 und 300 kann ein Lastausgleich durch ein Konfigurieren von Folge-Switches 202 und/oder Hosts 2302 erreicht werden. Zum Beispiel kann bei einer möglichen Ausführungsform einer statischen Konfiguration Datenverkehr auf der Grundlage der Quellen-RPI zwischen Master-Switches aufgeteilt werden. Wenn bei dieser beispielhaften Ausführungsform zwei Master-Switches 204 verwendet werden, kann jeder Folge-Switch 202 oder Host 302 so eingerichtet sein, dass er zwei statische RPI-Gruppen umsetzt, die jeweils die Hälfte der Gesamtzahl ihrer RPIs enthalten und Verkehr von jeder der RPI-Gruppen zu einem anderen der beiden Master-Switches 204 übertragen. Wenn in ähnlicher Weise vier Master-Switches 204 verwendet werden, kann jeder Folge-Switch 202 oder Host 302 so eingerichtet sein, dass er vier statische RPI-Gruppen umsetzt, die jeweils ein Viertel der Gesamtzahl ihrer RPIs enthalten und Verkehr von jeder der RPI-Gruppen zu einem anderen der vier Master-Switches 204 übertragen.
  • In 5A ist ein Blockschaltbild in Übersichtsform einer beispielhaften Ausführungsform eines Switch 500a dargestellt, der verwendet werden kann, um einen der Master-Switches 204 der 2 bis 3 umzusetzen.
  • Wie gezeigt enthält der Switch 500a eine Mehrzahl von physischen Anschlüssen 502a bis 502m. Jeder Anschluss 502 enthält eine aus einer Mehrzahl von Empfangs-(Rx-)Schnittstellen 504a bis 504m und eine entsprechende aus einer Mehrzahl von Eingangs-Warteschlangen 506a bis 606m, die Datenrahmen Puffern, die durch die zugehörige Rx-Schnittstelle 504 empfangen werden. Jeder der Anschlüsse 502a bis 502m enthält ferner eine entsprechende aus einer Mehrzahl von Ausgangs-Warteschlangen 514a bis 514m und eine entsprechende aus einer Mehrzahl von Sende-(Tx-)Schnittstellen 520a bis 520m, die Datenrahmen von einer zugehörigen Ausgangs-Warteschlange 514 übertragen.
  • Bei einer Ausführungsform ist jede der Eingangs-Warteschlangen 506 und Ausgangs-Warteschlangen 514 jedes Anschlusses 502 so eingerichtet, dass sie mehrere (z. B. acht) Warteschlangen-Einträge pro RPI in der unteren Ebene des DFP-Switching-Netzwerks 200, 300 bereitstellt, von dem eingehender Datenverkehr an diesem Anschluss 502 empfangen werden kann. Die Gruppe von mehreren Warteschlangen-Einträgen in einem für eine RPI der unteren Ebene definierten Master-Switch 204 wird hier als ein virtueller Anschluss (Vport) definiert, wobei jeder Warteschlangen-Eintrag in dem Vport einer VOQ entspricht. Zum Beispiel ist für ein DFP-Switching-Netzwerk 200, das in 2 dargestellt ist, der Anschluss 502a des Switch 500a so eingerichtet, dass er für jeden von k + 1 Datenanschlüssen 210 des Folge-Switch 202, der mit dem Anschluss 502a verbunden ist, einen entsprechenden von Eingangs-Vports 522a0 bis 522ak und einen entsprechenden von Ausgangs-Vports 524a0 bis 524ak umsetzt. Wenn der Switch 500a in einem DFP-Switching-Netzwerk 300 umgesetzt ist, das in 3 erläutert ist, ist der Anschluss 502a so eingerichtet, dass er einen entsprechenden Vport 522 für jede von k + 1 Datenverkehrsquellen in dem Host 302 umsetzt, der durch eine Zwischenebenen-Verbindung 206 mit dem Anschluss 502a verbunden ist. In ähnlicher Weise ist für ein DFP-Switching-Netzwerk 200, das in 2 dargestellt ist, der Anschluss 502m des Switch 500a so eingerichtet, dass er für jeden der p + 1 Datenanschlüsse 210 eines Folge-Switch 202, der mit dem Anschluss 502m verbunden ist, einen entsprechenden der Eingangs-Vports 522m0 bis 522mp und einen entsprechenden der Ausgangs-Vports 524m0 bis 524mp umsetzt. Wenn der Switch 500a in einem DFP-Switching-Netzwerk 300 umgesetzt ist, das in 3 dargestellt ist, setzt der Anschluss 502a einen entsprechenden Vport 522 für jede von k Datenverkehrsquellen in dem Host 302 um, der durch eine Zwischenebenen-Verbindung 206 mit einem Anschluss 502a verbunden ist. Es ist klar, dass sich die Anzahl von Eingangs-Vports, die an jedem der Anschlüsse 502 umgesetzt sind, in Abhängigkeit von der Anzahl von RPIs an der bestimmten Entität der unteren Ebene (z. B. Folge-Switch 202 oder Host 302) unterscheidet, die mit jedem der Anschlüsse 502 verbunden ist. Somit wird jede RPI an einer unteren Ebene eines DFP-Switching-Netzwerks 200 oder 300 auf eine Menge von Eingangs- und Ausgangs-Vports 522, 524 an einem physischen Anschluss 502 jedes Master-Switch 204 abgebildet, und wenn Datenrahmen von dieser RPI an dem physischen Anschluss 502 empfangen werden, kann die Empfangsschnitte 504 des Anschlusses 504 die Datenrahmen auf der Grundlage einer RPI-Kennung in dem Datenverkehr zu dem geeigneten Eingangs-Vport 522 leiten.
  • Der Master-Switch 204 kann bei Bedarf Vports 522, 524 erzeugen, löschen, sperren oder über seine physischen Anschlüsse 502 migrieren in Abhängigkeit von dem Verbindungszustand mit den Entitäten 202, 302 der unteren Ebene. Wenn z. B. ein Folge-Switch 202 durch einen Ersatz-Folge-Switch 202 mit einer größeren Anzahl von Anschlüssen ersetzt wird, erzeugen die Master-Switches 204 automatisch zusätzliche Vports 522, 524 in dem betreffenden physischen Anschluss 502, um die zusätzlichen RPIs in dem Ersatz-Folge-Switch 202 unterzubringen. Wenn in ähnlicher Weise eine VM 306, die in einem Host 302 betrieben wird, der mit einem ersten physischen Anschluss eines Master-Switch 204 verbunden ist, zu einem anderen Host 302 migriert, der mit einem anderen zweiten physischen Anschluss des Master-Switch 204 verbunden ist (d. h., die Migration bleibt in dem Switch-Bereich), migriert der Master-Switch 204 automatisch die Vports 522, 524, die der VM 306 entsprechen, von dem ersten physischen Anschluss 502 des Master-Switch 204 zu dem zweiten physischen Anschluss 502 des Master-Switch 204. Wenn die VM 306 ihre Migration in einem vorgegebenen Löschintervall beendet, kann der Datenverkehr für die VM 306 durch die Switch-Steuereinheit 530a neu markiert und zu dem Ausgangs-Vport 524 in dem zweiten physischen Anschluss 502 weitergeleitet werden. Auf diese Weise kann die Migration der VM 306 ohne Verkehrsunterbrechung oder Verlust von Datenverkehr realisiert werden, was für verlustempfindliche Protokolle besonders vorteilhaft ist.
  • Jeder Master-Switch 204 erkennt außerdem einen Verlust einer Zwischen-Switch-Verbindung 206 zu einer Entität der unteren Ebene (z. B. die Änderungen des Verbindungszustands von oben nach unten, eine Zwischen-Switch-Verbindung 206 ist unterbrochen oder eine Entität der unteren Ebene ist gestört). Wenn ein Verlust einer Zwischen-Switch-Verbindung 206 erkannt wird, sperrt der Master-Switch 204 die zugehörigen Vports 522, 524 automatisch, bis die Wiederherstellung der Zwischen-Switch-Verbindung 206 erkannt wird. Wenn die Zwischen-Switch-Verbindung 206 in einem vorgegebenen Löschintervall nicht wiederhergestellt wird, löscht der Master-Switch 204 die Vports 522 524, die der Entität der unteren Ebene zugehörig sind, mit denen der Datenaustausch verloren gegangen ist, um die Warteschlangenkapazität wiederherzustellen. Während des Löschintervalls ermöglicht die Switch-Steuereinheit 530a, dass Datenverkehr, der für einen gesperrten Ausgangs-Vport 524 bestimmt ist, auf der Eingangsseite gepuffert wird. Wenn die Zwischen-Switch-Verbindung 206 wiederhergestellt ist und der gesperrte Ausgangs-Vport 524 wieder freigegeben ist, kann der gepufferte Datenverkehr ohne Verlust zu dem Ausgangs-Vport 524 weitergeleitet werden.
  • Der Switch 500a enthält außerdem einen Kreuzschienenschalter 510, der funktionsmäßig in der Lage ist, Datenrahmen von einer der Eingangs-Warteschlangen 506a bis 506m zu einer der Ausgangs-Warteschlangen 514a bis 514m (und somit zwischen einem Eingangs-Vport 522 und einem Ausgangs-Vport 524) unter der Steuerung der Switch-Steuereinheit 530a in intelligenter Weise zu schalten. Es ist klar, dass die Switch-Steuereinheit 530a mit einem oder mehreren zentralisierten oder verteilten Spezialzweck- oder Mehrzweck-Verarbeitungselementen oder Logikeinheiten umgesetzt werden kann, die eine Steuerung vollständig in Hardware oder gewöhnlich durch die Ausführung von Firmware und/oder Software durch ein Verarbeitungselement umsetzen kann.
  • Um Datenrahmen in intelligenter Weise zu schalten, erzeugt und unterhält die Switch-Steuereinheit 530a eine oder mehrere Datenstrukturen mit Datenebenen, z. B. eine Weiterleitungs-Informationsbank (FIB) 532a, die gewöhnlich als eine Weiterleitungstabelle in einem inhaltsadressierbaren Speicher (CAM) umgesetzt ist. Bei dem dargestellten Beispiel enthält die FIB 532a eine Mehrzahl von Einträgen 534, bei denen es sich z. B. um ein MAC-Feld 536, ein Anschlusskennungs-(PID-)Feld 538 und ein Feld 540 der Kennung (VPID) eines virtuellen Anschlusses (Vport) handeln kann. Jeder Eintrag 534 ordnet somit eine Ziel-MAC-Adresse eines Datenrahmens einem bestimmten Vport 520 in einem bestimmten Ausgangsanschluss 502 für den Datenrahmen zu. Die Switch-Steuereinheit 530a erzeugt die FIB 332a automatisch, indem aus beobachteten Datenrahmen eine Zugehörigkeit zwischen Anschlüssen 502 und Vports 520 und Ziel-MAC-Adressen, die durch die Datenrahmen spezifiziert werden, erkannt wird und die erkannten Zugehörigkeiten in der FIB 532a aufgezeichnet werden. Die Switch-Steuereinheit 530a steuert daraufhin den Kreuzschienenschalter 510m, um Datenrahmen gemäß der in der FIB 532a aufgezeichneten Zugehörigkeiten zu schalten. Somit verwaltet jeder Master-Switch seine QoS, ACL und andere Verwaltungsdatenstrukturen der Schicht 2 und der Schicht 3 für jeden Vport in Übereinstimmung mit RPIs in der unteren Ebene und greift auf diese zu.
  • Die Switch-Steuereinheit 530a setzt außerdem ein Management-Modul 550 um, das als das Management- und Steuerungszentrum für den vereinheitlichten virtualisierten Switch dient. Bei einer Ausführungsform enthält jeder Master-Switch 204 ein Management-Modul 350, jedoch ist zu einem Zeitpunkt lediglich das Management-Modul 350 eines einzelnen Master-Switch 204 (hier als der leitende Master-Switch 204 bezeichnet) eines vorhandenen DFP-Switching-Netzwerks 200 oder 300 funktionsfähig. Bei einer Störung des Master-Switch 204 (die z. B. durch das Fehlen einer Aktivitätssignalnachricht durch den leitenden Master-Switch 204 über die Master-Verbindung 208 erfasst wird), dient dann ein anderer Master-Switch 204, der vorgegeben sein kann oder aus den verbleibenden funktionsfähigen Master-Switches 204 ausgewählt wird, als der leitende Master-Switch 204, übernimmt vorzugsweise automatisch die Rolle des leitenden Master-Switch 204 und nutzt sein Management-Modul 350, um ein zentralisiertes Management und eine Steuerung des DFP-Switching-Netzwerks 200 oder 300 bereitzustellen.
  • Das Management-Modul 550 enthält vorzugsweise eine Management-Schnittstelle 552, z. B. eine XML- oder HTML-Schnittstelle, auf die ein Administrator zugreifen kann, der in einer mit dem Netzwerk verbundenen Administratorkonsole (z. B. einer der Clients 110a bis 110c) in Reaktion auf das Einloggen und das Eintragen von administrativen Berechtigungsnachweisen untergebracht ist. Das Management-Modul 550 präsentiert vorzugsweise über eine Management-Schnittstelle 552 eine globale Ansicht aller Anschüsse, die sich in allen Switches (z. B. den Switches 204 und/oder 202) in einem DFP-Switching-Netzwerk 200 oder 300 befinden. 6 ist z. B. eine Ansicht des DFP-Switching-Netzwerks 200 von 2, das als ein virtualisierter Switch 600 über die Management-Schnittstelle 552 gemäß einer Ausführungsform präsentiert wird. Bei dieser Ausführungsform kann der Master-Switch 204 als ein virtuelles Switching-Chassis betrachtet werden, wobei die Folge-Switches 202 als virtuelle Leitungskarten dienen. Bei diesem Beispiel präsentiert der virtualisierte Switch 600, der z. B. in einer Anzeige der Administratorkonsole grafisch und/oder tabellenförmig dargestellt wird, virtualisierte Anschlüsse (Pa bis Pf) 602a, die den Datenanschlüssen und Zwischen-Switch-Anschlüssen des Folge-Switch 202a entsprechen, Pl bis Pp 602b, die den Datenanschlüssen und Zwischen-Switch-Anschlüssen des Folge-Switch 202b entsprechen, Pq bis Ps 602c, die den Datenanschlüssen und Zwischen-Switch-Anschlüssen des Folge-Switch 202c entsprechen, und Pw bis Pz 602d, die den Datenanschlüssen und Zwischen-Switch-Anschlüssen des Folge-Switch 202d entsprechen. Außerdem repräsentiert der virtualisierte Switch 600 durch Pg bis Pk 602e die Zwischen-Switch-Anschlüsse des Master-Switch 204a und repräsentiert durch Pt bis Pv 602f die Zwischen-Switch-Anschlüsse des Master-Switch 204b. Des Weiteren repräsentiert der virtualisierte Switch 600 jeden Vport 522, 524, der in einem Master-Switch 204 mit einer entsprechenden Menge von virtuellen Ausgabe-Warteschlangen (VOQs) 604 umgesetzt ist. Zum Beispiel wird jeder der Vports 522, 524, der in Master-Switches 204a, 204b umgesetzt ist, durch eine entsprechende der VOQ-Gruppen 604a bis 604k dargestellt. Durch Zusammenwirken mit dem virtualisierten Switch 600 kann der Administrator (z. B. über grafische, textförmige, numerische und/oder andere Eingaben) eine gewünschte Steuerung für einen oder mehrere (oder alle) Anschlüsse oder Vports eines oder mehrerer (oder aller) Folge-Switches 202 und Master-Switches 204 in dem DFP-Switching-Netzwerk 200 über eine vereinheitlichte Schnittstelle verwalten und einrichten. Es sollte erwähnt werden, dass die Umsetzung von Gruppen von VOQs 604a bis 604k in einem virtualisieren Switch 600 zusätzlich zu virtualisierten Anschlüssen Pa bis Pf 602a, Pl bis Pp 602b, Pq bis Ps 602c und Pw bis Pz 602d die Umsetzung einer individualisierten Steuerung für Datenverkehr jeder RPI (und jeder Verkehrsklassifizierung des Datenverkehrs der RPI) auf einer Ebene (oder auf beiden Ebenen) eines DFP-Switching-Netzwerks 200 oder 300 ermöglicht. Somit kann ein Administrator, wie im Folgenden weiter erläutert, eine gewünschte Steuerung für eine spezifische Verkehrsklassifizierung eines bestimmten Datenanschlusses 210 des Folge-Switch 202a über ein Zusammenwirken mit einem virtualisierten Anschluss Pa des virtualisierten Switch 600 umsetzen. Der Administrator kann alternativ oder zusätzlich eine gewünschte Steuerung für diese Verkehrsklassifizierung für diesen Datenanschluss 210 einrichten durch Zusammenwirken mit einer bestimmten VOQ, die dieser Verkehrsklassifizierung in der VOQ-Gruppe 604 entspricht, die den Eingangs-Vport 522 oder den Ausgangs-Vport 524 repräsentieren, die dem Datenanschluss 210 entsprechen.
  • In 5A enthält die Switch-Steuereinheit 530a ferner ein Steuermodul 560a, das verwendet werden kann, um eine gewünschte Steuerung für Datenrahmen umzusetzen, die ein DFP-Switching-Netzwerk 200 oder 300 durchlaufen. Das Steuermodul 560a enthält ein Modul 562 der lokalen Strategie, das eine gewünschte Abfolge von Steuerungsstrategien für den Switch 500a am Eingang und/oder Ausgang auf der Grundlage jedes Vport umsetzt. Das Steuermodul 560 kann ferner eine Liste der lokalen Zugangssteuerung (ACL) 564 enthalten, die einen Eingangs-Zugriff auf den Switch 500a auf der Grundlage jedes Vport einschränkt. Der leitende Master-Switch 204 kann ferner optional ein fernes Strategiemodul 566 und eine ferne ACL 568 enthalten, die eine gewünschte Abfolge von Steuerungsstrategien und eine Zugangssteuerung auf einen oder mehrere Folge-Switches 202 oder virtuelle Switches 310, 312 bei Eingabe und/oder Ausgabe auf der Grundlage jedes Datenanschlusses umsetzen. Der leitende Master-Switch 204 kann vorteilhaft neu hinzugefügte oder aktualisierte Steuerungsinformationen (z. B. eine Steuerungsstrategie oder eine ACL) für einen weiteren Master-Switch 204, Folge-Switch 202 oder virtuellen Switch 310, 312 über ein reserviertes Management-VLAN zu dem Ziel-Switch verschieben. Somit können ACLs, Steuerungsstrategien und andere Steuerungsinformationen für Verkehr, der durch den virtualisierten Switch verläuft, durch Master-Switches 204 an den Vports 522, 524 der Master-Switches 204, durch Folge-Switches 202 an Datenanschlüssen 210 und/oder an den virtuellen Anschlüssen von virtuellen Switches 310, 312 erzwungen werden.
  • Die Fähigkeit zum globalen Umsetzen einer Strategie und der Zugangssteuerung an einem oder mehreren gewünschten Speicherorten in einem DFP-Switching-Netzwerk 200 oder 300 ermöglicht mehrere Management-Merkmale. Um z. B. einen gewünschten Lastausgleich zwischen Master-Switches 204 zu erreichen, können homogene oder heterogene Steuerungsstrategien durch Folge-Switches 202 und/oder virtuelle Switches 310, 312 umgesetzt werden, wodurch eine gewünschte Verteilung des Datenverkehrs, der zu den Master-Switch(es) 204 verläuft, zur Vermittlung und Weglenkung erreicht wird. Bei einer bestimmten Umsetzung kann die Lastverteilung gemäß den verschiedenen Verkehrstypen erfolgen, wobei unterschiedliche Datenübertragungsprotokolle in verschiedenen Master-Switches 204 ablaufen. Folge-Switches 202 und Hosts 302, die mit Master-Switches 204 verbunden sind, können somit eine gewünschte Lastverteilung umsetzen, indem Protokolldateneinheiten (PDUs) von jedem aus einer Mehrzahl von diversen Verkehrstypen zu dem Master-Switch 204 geleitet werden, der für dieses Protokoll zuständig ist.
  • Obwohl in 5A nicht explizit dargestellt, sollte klar sein, dass in wenigstens einigen Ausführungsformen die Switch-Steuereinheit 530a zusätzlich zu einer Rahmenvermittlung der Schicht 2 außerdem eine Weglenkung und andere Paketverarbeitungen in der Schicht 3 (und darüber) umsetzen kann, wie in der Technik bekannt ist. Bei derartigen Fällen kann die Switch-Steuereinheit 530a eine Weglenkungsinformationsbank (RIB) enthalten, die Routen zu Adressen der Schicht 3 zuordnet.
  • In 5B ist ein Blockschaltbild in Übersichtsform einer beispielhaften Ausführungsform eines Switch 500b dargestellt, der verwendet werden kann, um einen beliebigen der Folge-Switches 202 von 2 umzusetzen. Wie durch gleiche Bezugszeichen angegeben kann der Switch 500b ähnlich wie der Switch 500a mit einer Mehrzahl von Anschlüssen 502a bis 502m, einer Switch-Steuereinheit 530b und einem Kreuzschienenschalter 510, der durch die Switch-Steuereinheit 530b gesteuert wird, aufgebaut sein. Da jedoch der Switch 500b vorgesehen ist, in einer Durchlass-Betriebsart betrieben zu werden, die letztendlich die Zuständigkeit zum Weiterleiten von Rahmen bei den Master-Switches 204 belässt, ist die Switch-Steuereinheit 530b vereinfacht. Bei der dargestellten Ausführungsform enthält z. B. jeder Eintrag 534 der FIB 332b ein Steuerungsfeld 570 zum Kennzeichnen von Werten für ein oder mehrere Rahmenfelder (z. B. Ziel-MAC-Adresse, RPI usw.), die verwendet werden, um die Rahmen zu klassifizieren (wobei die Rahmen-Klassifizierungen durch das Management-Modul 350 zur Switch-Steuereinheit 530b verschoben werden), und ein zugehöriges PID-Feld 538, das den Ausgangs-Datenanschluss 502 des Switch 530b kennzeichnet, der mit einem Master-Switch 204 zum Weiterleiten dieser Klassifizierung von Datenverkehr verbunden ist. Das Steuermodul 560 ist gleichfalls vereinfacht, da keine ferne Strategie 566 oder ferne ACLs 568 unterstützt werden. Das Management-Modul 550 kann schließlich vollständig weggelassen werden, wobei der Switch 660b nicht so ausgestattet sein muss, dass er als ein Master-Switch 204 dienen kann.
  • In 7 ist ein logischer Ablaufplan in Übersichtsform eines beispielhaften Prozesses zum Verwalten eines DFP-Switching-Netzwerks gemäß einer Ausführungsform dargestellt. Zur Einfachheit ist der Prozess von 7 unter Bezugnahme auf die DFP-Switching-Netzwerke 200 und 300 der 2 und 3 beschrieben. Wie bei den anderen hier dargestellten logischen Ablaufplänen werden Schritte in logischer Reihenfolge und nicht in strikt chronologischer Reihenfolge dargestellt, und wenigstens einige Schritte können in einer anderen Reihenfolge als dargestellt oder gleichzeitig ausgeführt werden.
  • Der Prozess beginnt im Block 700 und geht vor zum Block 702, der jeden der Master-Switches 204a, 204b darstellt und die Zugehörigkeit und die Topologie des DFP-Switching-Netzwerks 200 oder 300 erkennt, in dem er sich befindet. In verschiedenen Ausführungsformen können die Master-Switches 204a, 204b die Topologie und die Zugehörigkeit eines DFP-Switching-Netzwerks 200 oder 300 erkennen, indem z. B. eine Konfiguration von einem Netzwerk-Administrator empfangen wird, der in einer der Client-Einheiten 110a bis 110c stationiert ist, oder alternativ durch ein Umsetzen eines automatisierten Switch-Ermittlungsprotokolls durch die Switch-Steuereinheit 530a von jedem der Master-Switches 204a, 204b. Auf der Grundlage der ermittelten Zugehörigkeit in einem DFP-Switching-Netzwerk 200 oder 300 setzt die Switch-Steuereinheit 530a von jedem der Master-Switches 204 an jedem Anschluss 502 einen entsprechenden Eingangs-Vport 522 und einen entsprechenden Ausgangs-Vport 524 für jede RPI in der unteren Ebene des DFP-Switching-Netzwerks 200, 300 um, von denen eingehender Datenverkehr an diesem Anschluss 502 empfangen werden kann (Block 704). Der leitende Master-Switch 204, z. B. der Master-Switch 204a, ermöglicht daraufhin Konfiguration, Management und Steuerung des DFP-Switching-Netzwerks 200 oder 300 als ein virtualisierter Switch 600 über die Management-Schnittstelle 552 (Block 706). Es sollte klar sein, dass das DFP-Switching-Netzwerk 200 oder 300 als ein virtualisierter Switch 600 so eingerichtet, verwaltet und gesteuert werden kann, als ob sich sämtliche virtualisierte Anschlüsse 602 des virtualisierten Switch 600 in einem einzigen physischen Switch befinden. Somit können z. B. Anschluss-Spiegelung, Anschluss-Bündelung, Multicasting, verbesserte Übertragungsauswahl (ETS) (z. B. Ratenbegrenzung und Formung gemäß dem Entwurf dem Standard IEEE 802.1Qaz) und prioritätsgestützte Ablaufsteuerung für virtualisierte Anschlüsse 602, ungeachtet der Switches 202, 310, 312 oder Hosts 302, zu denen die entsprechenden RPIs gehören, umgesetzt werden. Daraufhin verschiebt das Management-Modul 550 der Switch-Steuereinheit 530a des leitenden Master-Switch (z. B. Master-Switch 204a) Steuerungsinformationen zu anderen Master-Switches 204, Folge-Switches und/oder virtuellen Switches 310, 312, um das Steuermodul 560 und die FIB 532 der anderen Switches in geeigneter Weise einzurichten (Block 708). Der Prozess von 7 endet anschließend im Block 710.
  • In 8 ist ein logischer Ablaufplan in Übersichtsform eines beispielhaften Prozesses dargestellt, durch den Netzwerkverkehr von einer unteren Ebene zu einer oberen Ebene eines DFP-Switching-Netzwerks weitergeleitet wird, das so eingerichtet ist, dass es als ein virtualisierter Switch gemäß einer Ausführungsform betrieben wird. Zur Einfachheit wird der Prozess von 8 ebenfalls unter Bezugnahme auf das DFP-Switching-Netzwerk 200 von 2 und das DFP-Switching-Netzwerk 300 von 3 beschrieben.
  • Der dargestellte Prozess beginnt im Block 800 und geht daraufhin vor zum Block 802, der eine RPI in der unteren Ebene des DFP-Switching-Netzwerks darstellt, die einen Datenrahmen empfängt, der zu einem Master-Switch 204 übertragen werden soll. Wie durch die Darstellung einer gestrichelten Linie im Block 804 angegeben, kann der Folge-Switch 202 oder der Host 302, in dem sich die RPI befindet, wahlweise eine Strategiesteuerung oder eine Zugangssteuerung (durch eine Bezugnahme auf eine ACL) auf den Datenrahmen erzwingen, falls er dazu vorher durch den leitenden Master-Switch 204 angewiesen wurde.
  • Im Block 806 wendet der Folge-Switch 202 oder der Host 302 in der unteren Ebene eine RPI-Kennung (z. B. ein S-Tag) auf den Datenrahmen an, um die Eingangs-RPI zu identifizieren, an der der Datenrahmen empfangen wurde. Der Folge-Switch 202 oder der Host 302 in der unteren Ebene leiten dann den Datenrahmen zu einem Master-Switch 204 in der oberen Ebene des DFP-Switching-Netzwerks 200 oder 300 weiter (Block 808). Bei einem Folge-Switch 202 wird der Datenrahmen im Block 808 über den Zwischen-Switch-Ausgangsanschluss weitergeleitet, der durch die FIB 532b angegeben ist. Anschließend endet der in 8 dargestellte Prozess im Block 810.
  • In 9 ist ein logischer Ablaufplan in Übersichtsform eines beispielhaften Prozesses dargestellt, durch den ein Master-Switch in der oberen Ebene einen Datenrahmen behandelt, der von der unteren Ebene eines DFP-Switching-Netzwerks gemäß einer Ausführungsform empfangen wurde. Der dargestellte Prozess beginnt im Block 900 und geht dann vor zum Block 902, der einen Master-Switch 204 eines DFP-Switching-Netzwerks 200 oder 300 darstellt, der einen Datenrahmen von einem Folge-Switch 202 oder Host 302 an einem seiner Anschlüsse 502 empfängt. In Reaktion auf den Empfang des Datenrahmens vorklassifiziert die Empfangsschnittstelle 504 des Anschlusses 502, an der der Datenrahmen empfangen wurde, den Datenrahmen gemäß der RPI-Kennung (z. B. S-Tag), die durch den Datenrahmen spezifiziert ist, und legt den Datenrahmen in der Warteschlange zu dem Eingangs-Vport 522 ab, der dieser RPI zugehörig ist (Block 904). Vom Block 904 geht der in 9 dargestellte Prozess vor zu den beiden Blöcken 910 und 920.
  • Im Block 910 greift die Switch-Steuereinheit 530a unter Verwendung der Ziel-MAC-Adresse, die durch den Datenrahmen spezifiziert wird, auf die FIB 532a zu. Wenn ein FIB-Eintrag 534, der ein übereinstimmendes MAC-Feld 536 aufweist, gefunden wird, wird die Verarbeitung in den Blöcken 922 bis 928 fortgesetzt, die im Folgenden beschrieben werden. Wenn jedoch die Switch-Steuereinheit 530a im Block 910 ermittelt, dass die Ziel-MAC-Adresse unbekannt ist, erkennt die Switch-Steuereinheit 530a die Zugehörigkeit zwischen der Ziel-MAC-Adresse, dem Ausgangs-Anschluss 502 und der Ziel-RPI unter Verwendung einer herkömmlichen Ermittlungstechnik und aktualisiert die FIB 532a dementsprechend. Der Prozess geht anschließend vor zu den Blöcken 922 bis 928.
  • Im Block 920 wendet die Switch-Steuereinheit 530a auf den Datenrahmen eine beliebige lokale Strategie 562 oder lokale ACL 564 an, die durch das Steuermodul 560a für den Eingangs-Vport 522 spezifiziert ist. Außerdem führt die Switch-Steuereinheit 530a eine beliebige weitere Spezialbehandlung am Eingang für den Datenrahmen aus. Wie später genauer erläutert wird, kann es sich bei dieser Spezialbehandlung z. B. um die Umsetzung von Anschluss-Bündelung, prioritätsgestützter Ablaufsteuerung, Multicasting, Anschluss-Spiegelung oder ETS handeln. Jeder Typ von Spezialbehandlung kann auf Datenverkehr am Eingang und/oder Ausgang angewendet werden, wie später beschrieben wird. Der Prozess geht dann vor zu den Blöcken 922 bis 928.
  • In den Blöcken 922 bis 928 aktualisiert die Switch-Steuereinheit 530a die RPI-Kennung des Datenrahmens, damit sie gleich jener ist, die in dem VPID-Feld 540 des übereinstimmenden FIB-Eintrags 534 spezifiziert ist (oder durch den Ermittlungsvorgang erkannt wurde) und reiht den Datenrahmen in die Warteschlange in dem entsprechenden Ausgangs-Vport 524 ein, der durch das PID-Feld 538 des übereinstimmenden FIB-Eintrags 534 identifiziert wird (oder durch den Ermittlungsvorgang erkannt wird). Im Block 926 wendet die Switch-Steuereinheit 530a auf den Datenrahmen eine beliebige lokale Strategie 562 oder lokale ACL 564 an, die durch das Steuermodul 560a für den Ausgangs-Vport 524 spezifiziert ist. Außerdem führt die Switch-Steuereinheit 530a eine beliebige weitere Spezialbehandlung am Ausgang für den Datenrahmen aus, darunter z. B. die Umsetzung von Anschluss-Bündelung, prioritätsgestützter Ablaufsteuerung, Multicasting, Anschluss-Spiegelung oder ETS. Der Master-Switch 204 leitet daraufhin den Datenrahmen über eine Zwischen-Switch-Verbindung 206 zu der unteren Ebene (z. B. ein Folge-Switch 202 oder ein Host 302) des DFP-Switching-Netzwerks 200 oder 300 weiter (Block 928). Der in 9 gezeigte Prozess endet daraufhin im Block 930.
  • In 10 ist ein logischer Ablaufplan in Übersichtsform eines beispielhaften Prozesses dargestellt, durch den ein Folge-Switch 202 oder ein Host 302 in der unteren Ebene einen Datenrahmen behandelt, der von einem Master-Switch in der oberen Ebene eines DFP-Switching-Netzwerks 200 oder 300 gemäß einer Ausführungsform empfangen wurde. Der in 10 dargestellte Prozess beginnt im Block 1000 und geht dann vor zum Block 1002, der eine Entität der unteren Ebene wie etwa einen Folge-Switch 202 oder einen Host 302 veranschaulicht, die einen Datenrahmen von einem Master-Switch 204 z. B. an einem Zwischen-Switch-Anschluss 502 des Folge-Switch 202 oder an einer Netzwerk-Schnittstelle 404 oder VMM 304 des Host 302 empfängt.
  • In Reaktion auf den Empfang des Datenrahmens entfernt die Entität der unteren Ebene aus dem Datenrahmen die RPI-Kennung, die durch den Master-Switch 204 aktualisiert wurde (Block 1004). Die Entität der unteren Ebene leitet dann den Datenrahmen zu der RPI durch, die durch die extrahierte RPI-Kennung identifiziert wird (Block 1006). Somit greift z. B. die Switch-Steuereinheit 530b auf ihre FIB 632b mit der RPI und/oder der Ziel-MAC-Adresse des Datenrahmens zu, um einen übereinstimmenden FIB-Eintrag 534 zu identifizieren, und steuert anschließend den Kreuzschienenschalter 510, um der Datenrahmen zu dem in dem PID-Feld 538 des übereinstimmenden FIB-Eintrags 534 spezifizierten Anschluss weiterzuleiten. Eine Netzwerk-Schnittstelle 404 oder VMM 304 eines Host lenkt gleichfalls den Datenrahmen zu der RPI, die durch die RPI-Kennung angegeben ist. Anschließend endet der Prozess im Block 1008.
  • In 11 ist ein logischer Ablaufplan in Übersichtsform eines beispielhaften Verfahrens zum Betreiben einer Link Aggregation Group (LAG) in einem DFP-Switching-Netzwerk gemäß einer Ausführungsform dargestellt. Eine Link Aggregation (Verbindungszusammenführung) wird außerdem in der Technik verschiedenartig als Trunking, Link Bundling, Bonding, Teaming, Port Channel, EtherChannel und Multi-Link-Trunking bezeichnet.
  • Der in 11 veranschaulichte Prozess beginnt im Block 1100 und geht dann vor zum Block 1102, der die Einrichtung eines Master-Switch 204 eines DFP-Switching-Netzwerks 200 oder 300 einer LAG darstellt, die eine Mehrzahl von RPIs aufweist. Im Unterschied zu herkömmlichen LAGs kann eine LAG, die in einem DFP-Switching-Netzwerk 200 oder 300 eingerichtet ist, RPIs von mehreren verschiedenen (und möglicherweise heterogenen) Folge-Switches 202 und/oder Hosts 302 enthalten. In DFP-Switching-Netzwerken 200 und 300 der 2 bis 3 kann z. B. eine einzige LAG RPIs von einem oder mehreren Folge-Switches 202a bis 202d und/oder Hosts 302a bis 302d enthalten.
  • Bei wenigstens einigen Ausführungsformen kann eine LAG in einem Master-Switch 204 durch eine statische Konfiguration des Master-Switch 204 eingerichtet werden, z. B. durch einen Systemadministrator, der in einer der Client-Einheiten 110a bis 110c angeordnet ist, die mit der Management-Schnittstelle 552 des leitenden Master-Switch 204 zusammenwirken. Eine LAG kann alternativ oder zusätzlich in einem Master-Switch 204 eingerichtet werden durch den Austausch von Nachrichten zwischen dem Master-Switch 204 und einer oder mehreren Entitäten der unteren Ebene (z. B. Folge-Switches 202 oder Rosts 302) über das Link Aggregation Control Protocol (LACP), das in IEEE 802.1AX-2008 definiert ist, das hier durch Bezugnahme eingeschlossen ist. Da die LAG in dem Master-Switch 204 eingerichtet ist, sollte klar sein, dass nicht alle Entitäten der unteren Ebene, die mit einer Zwischen-Switch-Verbindung 206 verbunden sind, die zu der LAG gehört, eine Unterstützung für die LAG bereitstellen müssen (oder über das Vorhandensein der LAG informiert sein müssen).
  • Das Einrichten einer LAG in einem Master-Switch 204 wie im Block 1102 dargestellt enthält vorzugsweise ein Aufzeichnen der Zugehörigkeit der LAG in einer LAG-Datenstruktur 1200 in der Switch-Steuereinheit 530a wie in 12 gezeigt. Bei der dargestellten beispielhaften Ausführungsform enthält die LAG-Datenstruktur 1200 eine oder mehrere LAG-Zugehörigkeits-Einträge 1202, die jeweils eine Zugehörigkeit zu einer entsprechenden LAG spezifizieren. Bei einer bevorzugten Ausführungsform drücken LAG-Zugehörigkeits-Einträge 1202 eine LAG-Zugehörigkeit in Bezug auf die RPIs oder Vports 520 aus, die den RPIs zugehörig sind, die die LAG bilden. Bei anderen Ausführungsformen kann die LAG alternativ oder zusätzlich in Bezug auf die Zwischen-Switch-Verbindungen 206 ausgedrückt werden, die den Master-Switch 204 und die RPIs verbinden. Es ist klar, dass die LAG-Datenstruktur 1200 als eine selbständige Datenstruktur umgesetzt werden kann oder in einem oder mehreren Feldern einer anderen Datenstruktur wie etwa eine FIB 532a umgesetzt werden kann.
  • Nach dem Einrichten der LAG führt der Master-Switch 204 eine Spezialbehandlung für Datenrahmen aus, die in der LAG zu RPIs gerichtet werden, wie zuvor oben unter Bezugnahme auf die Blöcke 920 bis 926 von
  • 9 erwähnt wurde. Wie im Block 1104 dargestellt überwacht die Switch-Steuereinheit 530a insbesondere Datenrahmen, die zum Weiterleiten empfangen wurden, und ermittelt z. B. unter Bezugnahme auf die FIB 532a und/oder die LAG-Datenstruktur 1200, ob von der in dem Datenrahmen enthaltenen Ziel-MAC-Adresse gegebenenfalls bekannt ist, dass sie einer RPI, die zu einer LAG gehört, zugehörig ist. In Reaktion auf eine negative Ermittlung im Block 1104 geht der Prozess zum Block 1112, der nachfolgend beschrieben wird. Wenn jedoch die Switch-Steuereinheit 532a im Block 1104 ermittelt, dass ein Datenrahmen an eine Ziel-MAC adressiert ist, die einer zu einer LAG gehörenden RPI zugehörig ist, wählt die Switch-Steuereinheit 532a eine Ausgangs-RPI für den Datenrahmen aus den Zugehörigkeiten der LAG aus.
  • Im Block 1110 kann die Switch-Steuereinheit 532a die Ausgangs-RPI aus den LAG-Zugehörigkeiten auf der Grundlage einer aus einer Mehrzahl von LAG-Strategien auswählen, darunter das Round-Robin-Modell, Broadcast, Lastausgleich oder Zerlegung (hashed). Bei einer Umsetzung einer Zerlegungs-LAG-Strategie führt die Switch-Steuereinheit 532a eine XOR-Verknüpfung von Quellen- und Ziel-MAC-Adressen aus und führt an dem Ergebnis eine Modulo-Operation im Umfang der LAG aus, um stets dieselbe RPI für eine vorhandene MAC-Adresse auszuwählen. Bei anderen Ausführungsformen kann die Zerlegungs-LAG-Strategie die Ausgangs-RPI auf der Grundlage von unterschiedlichen oder zusätzlichen Faktoren auswählen, darunter die Quellen-IP-Adresse, Ziel-IP-Adresse, Quellen-MAC-Adresse, Zieladresse und/oder Quellen-RPI usw.
  • Wie im Block 1112 angegeben werden das „Versprühen” (spraying) und das Verteilen von Datenrahmen über die LAG fortgesetzt, bis die LAG dekonfiguriert wird, indem z. B. eine statische Konfiguration des Master-Switch 204 entfernt wird oder über LCAP. Daraufhin wird der in 11 veranschaulichte Prozess im Block 1120 beendet.
  • Die Fähigkeit zum Umsetzen einer verteilten LAG in einem Master-Switch 204, der unterschiedliche Entitäten der unteren Ebene umfasst, ermöglicht zusätzliche Netzwerk-Fähigkeiten. In einem DFP-Switching-Netzwerk 300 mit mehreren VMs 306, die denselben Dienst bereitstellen, ermöglicht z. B. das Bilden einer LAG, die alle derartigen VMs als Mitglieder aufweist, dass Datenverkehr für den Dienst über die VMs 306 automatisch auf der Grundlage des Dienst-Tag und weiterer Tupel-Felder ohne ein Management durch VMMs 304 lastausgeglichen wird. Des Weiteren kann ein derartiger Lastausgleich über VMs 306 erreicht werden, die in verschiedenen VMMs 304 und verschiedenen Hosts 302 betrieben werden.
  • Wie oben angemerkt kann es sich bei der Spezialbehandlung, die in den Blöcken 920 bis 926 von 9 wahlweise ausgeführt wird, nicht nur um das Verteilen von Rahmen zu einer LAG, sondern außerdem um ein Multicasting von Datenverkehr handeln. In 13 ist ein logischer Ablaufplan in Übersichtsform eines beispielhaften Verfahrens zum Multicasting in einem DFP-Switching-Netzwerk gemäß einer Ausführungsform dargestellt. Der Prozess beginnt im Block 1300 und geht dann vor zu den Blöcken 1302 bis 1322, die die Spezialbehandlung veranschaulichen, die durch einen Master-Switch für Multicast-Datenverkehr ausgeführt wird, wie zuvor unter Bezugnahme auf die Blöcke 920 bis 926 von 9 beschrieben wurde.
  • Im Einzelnen ermittelt im Block 1310 eine Switch-Steuereinheit 530a eines Master-Switch 204 durch Bezugnahme auf die Ziel-MAC-Adresse oder die IP-Adresse, die im Datenverkehr spezifiziert ist, ob der Datenverkehr eine Multicast-Zustellung erfordert. IP reserviert z. B. 224.0.0.0 bis 239.255.255.255 für Multicast-Adressen, und Ethernet nutzt wenigstens die in Tabelle I zusammengefassten Multicast-Adressen: Tabelle I
    Multicast-Adresse Protokoll
    01:00:0C:CC:CC:CC Cisco Discovery Protocol oder VLAN Trunking Protocol (VTP)
    01:00:0C:CC:CC:CD Cisco Shared Spanning Tree Protocol Addresses
    01:80:C2:00:00:00 IEEE 802.1D Spanning Tree Protocol
  • In Reaktion auf eine Ermittlung im Block 1310, dass der Datenverkehr keine Multicast-Behandlung erfordert, wird für den Datenverkehr keine Multicast-Behandlung ausgeführt (wobei eine andere Spezialbehandlung ausgeführt werden kann), und der Prozess führt im Block 1310 Iterationen aus. Wenn jedoch die Switch-Steuereinheit 530a im Block 1310 ermittelt, dass es sich bei eingehendem Datenverkehr um Multicast-Verkehr handelt, geht der Prozess zum Block 1312.
  • Im Block 1312 führt die Switch-Steuereinheit 530a eine Suche nach dem Multicast-Datenverkehr in einer Multicast-Index-Datenstruktur aus. Bei einer beispielhaften Ausführungsform, die in 14 gezeigt ist, setzt die Switch-Steuereinheit 530a z. B. eine Multicast-Index-Datenstruktur 1400 der Schicht 2 für Multicast-Rahmen der Schicht 2 und eine Multicast-Index-Datenstruktur 1410 der Schicht 3 für Multicast-Pakete der Schicht 3 um. In der dargestellten beispielhaften Ausführungsform enthält die Multicast-Index-Datenstruktur 1400 der Schicht 2, die z. B. als eine Tabelle umgesetzt werden kann, die eine Mehrzahl von Einträgen 1402 enthält, die jeweils ein Vier-Tupel-Feld 1404, das aus einer Eingangs-RPI, Quellen-MAC-Adresse, Ziel-MAC-Adresse und VLAN gebildet wird, einem Index-Feld 1406 zuordnen, das einen Index in einer Multicast-Zieldatenstruktur 1420 spezifiziert. Die Multicast-Index-Datenstruktur 1410 der Schicht 3, die gleichfalls als eine Tabelle umgesetzt werden kann, enthält eine Mehrzahl von Einträgen 1412, die jeweils ein Zwei-Tupel-Feld 1404, das aus einer Quellen-Adresse der Schicht 3 (z. B. IP-Adresse) und einer Multicast-Gruppenkennung gebildet wird, einem Indexfeld 1406 zuordnen, das einen Index in einer Multicast-Zieldatenstruktur 1420 spezifiziert. Die Multicast-Zieldatenstruktur 1420, die ebenfalls als eine Tabelle oder eine verknüpfte Liste umgesetzt werden kann, enthält wiederum eine Mehrzahl von Multicast-Zieleinträgen 1422, die jeweils eine oder mehreren RPIs in der unteren Ebene identifizieren, zu der Datenverkehr übertragen werden soll. Die Multicast-Datenstruktur 1400 der Schicht 2, die Multicast-Index-Datenstruktur 1410 der Schicht 3 und die Multicast-Zieldatenstruktur 1420 werden sämtlich vorzugsweise durch die Steuerungsebene in einem herkömmlichen MC-Erkennungsvorgang aufgefüllt.
  • Die Switch-Steuereinheit 530a führt also im Block 1312 eine Suche aus, um einen Index in der Multicast-Zieldatenstruktur 1420 in die Multicast-Index-Datenstruktur 1410 der Schicht 2 zu erhalten, wenn es sich bei dem Datenverkehr um einen Multicast-Rahmen der Schicht 2 handelt, und führt die Suche in der Multicast-Index-Datenstruktur 1410 der Schicht 3 aus, wenn es sich bei dem Datenverkehr um ein L3-Multicast-Paket handelt. Wie im Block 1314 angegeben, kann der Master-Switch 204 das Multicast des Datenverkehrs entweder durch Eingangs-Replikation oder Ausgangs-Replikation behandeln, wobei die gewünschte Umsetzung vorzugsweise in der Switch-Steuereinheit 530a eingerichtet ist. Wenn in der Switch-Steuereinheit 204 eine Ausgangs-Replikation eingerichtet ist, geht der Prozess vor zum Block 1316, der eine Switch-Steuereinheit 530a veranschaulicht, die bewirkt, dass eine einzige Kopie des Datenverkehrs den Kreuzschienenschalter 510 durchläuft und in jeder Ausgangs-Warteschlange 514 repliziert werden soll, die einer RPI entspricht, die in dem Multicast-Zieleintrag 1422 identifiziert wird, der durch den im Block 1312 erhaltenen Index identifiziert wird. Es ist klar, dass eine Ausgangs-Replikation von Multicast-Verkehr die Inanspruchnahme der Bandbreite des Kreuzschienenschalters 510 zu Lasten einer Head-of-Line-(HOL-)Blockierung vermindert. Nach dem Block 1316 wird die Verarbeitung des replizierten Datenverkehrs durch den Master-Switch 204 fortgesetzt wie zuvor in 9 beschrieben (Block 1330).
  • Wenn dagegen der Master-Switch 204 für eine Eingangs-Replikation eingerichtet ist, geht der Prozess vom Block 1314 vor zum Block 1320, der eine Switch-Steuereinheit 530a veranschaulicht, die bewirkt, dass der Multicast-Datenverkehr in jeder der Eingangs-Warteschlangen 506 der Anschlüsse 502 repliziert wird, die Ausgabe-Warteschlangen 514 aufweisen, die den RPIs zugehörig sind, die in dem indexierten Multicast-Zieleintrag 1422 identifiziert werden. Es ist klar, dass eine Eingangs-Replikation auf diese Weise eine HOL-Blockierung beseitigt. Nach dem Block 1320 wird der Datenverkehr einer zusätzlichen Verarbeitung unterzogen wie oben unter Bezugnahme auf 9 erläutert. Bei einer derartigen Verarbeitung steuert die Switch-Steuereinheit 530a den Kreuzschienenschalter 510, um den Multicast-Datenverkehr, der am Eingang repliziert wurde, direkt von den Eingangs-Warteschlangen 506 zu den Ausgangs-Warteschlangen 514 derselben Anschlüsse 502 zu übertragen.
  • Es ist klar, dass die Umsetzung der beschriebenen MC-Behandlung in einem Master-Switch 204 eines DFP-Switching-Netzwerks 200 anstelle von Folge-Switches 202 die Verwendung von vereinfachten Folge-Switches 202 ermöglicht, die nicht zu einer Multicast-Verteilung von Datenverkehr in der Lage sein müssen.
  • Wie oben unter Bezugnahme auf die Blöcke 920 bis 926 von 9 beschrieben kann die Spezialbehandlung von Datenverkehr in einem DFP-Switching-Netzwerk wahlweise die Anwendung von ETS auf Datenverkehr enthalten. 15 ist ein logischer Ablaufplan in Übersichtsform eines beispielhaften Verfahrens zur verbesserten Übertragungsauswahl (ETS) in einem DFP-Switching-Netzwerk 200 oder 300 gemäß einer Ausführungsform.
  • Der in 15 dargestellte Prozess beginnt im Block 1500 und geht dann vor zum Block 1502, der die Konfiguration des Master-Switch 204 zum Umsetzen von ETS z. B. über die Management-Schnittstelle 552 des leitenden Master-Switch 204 des DFP-Switching-Netzwerks 200 oder 300 darstellt. Bei verschiedenen Ausführungsformen ist ETS so eingerichtet, dass sie am Eingang und/oder Ausgang des Master-Switch 204 umgesetzt werden soll.
  • ETS, die im Entwurf des Standards IEEE 802.1Qaz definiert ist, richtet mehrere Verkehrsklassengruppen (TCGs) ein und spezifiziert die Priorität der Übertragung (d. h. zeitliche Planung) von Datenverkehr in den verschiedenen TCGs gegenüber Verkehrswarteschlangen (z. B. Eingangs-Vports 5222 oder Ausgangs-Vports 524), um einen gewünschten Ausgleich der Verbindungsnutzung zwischen den TCGs zu erzielen. ETS richtet nicht nur eine minimale garantierte Bandbreite für jede TCG ein, sondern ermöglicht außerdem, dass Verkehr mit niedrigerer Priorität genutzte Bandbreite in Anspruch nimmt, die nominell für TCGs mit höherer Priorität zur Verfügung steht, wodurch die Verbindungsnutzung und Flexibilität verbessert werden, während eine Vernachlässigung des Verkehrs mit niedrigerer Priorität vermieden wird. Die Konfiguration von ETS in einem Master-Switch 204 kann z. B. das Einrichten und/oder Belegen einer ETS-Datenstruktur 1600, wie in 15 gezeigt, in der Switch-Steuereinheit 530a des Master-Switch 204 enthalten. Bei der beispielhaften Ausführungsform, die in 16 gezeigt ist, enthält eine ETS-Datenstruktur 1600, die z. B. als eine Tabelle umgesetzt sein kann, eine Mehrzahl von ETS-Einträgen 1602. Bei der dargestellten Ausführungsform enthält jeder ETS-Eintrag 1602 ein TCG-Feld 1604, das den/die Verkehrstyp(en) definiert, (z. B. Fibre Channel (FC), Ethernet, FC-over-Ethernet (FCoE), iSCSI usw.) die zu einer vorhandenen TCG gehören, ein Minimalwertfeld 1806, das (z. B. in absoluten Angaben oder als eine Prozentangabe) eine garantierte minimale Bandbreite für die TCG definiert, die im TCG-Feld 1604 festgelegt ist, und ein Maximalwertfeld 1806, das (z. B. in absoluten Angaben oder als eine Prozentangabe) eine maximale Bandbreite für die TCG definiert, die im TCG-Feld 1604 festgelegt ist.
  • In 15 geht der Prozess nach der Konfiguration von ETS in einem Master-Switch 1502 vor zu den Blöcken 1504 bis 1510, die die Spezialbehandlung darstellen, die wahlweise für ETS in den Blöcken 920 bis 926 von 9 ausgeführt wird. Insbesondere veranschaulicht der Block 1504 den Master-Switch 204, der ermittelt, ob ein an einem Eingangs-Vport 520 oder einem Ausgangs-Vport 522 empfangener Datenrahmen gegebenenfalls zu einer Verkehrsklasse gehört, die zu einer aktuell eingerichteten ETS-TCG gehört, die z. B. durch die ETS-Datenstruktur 1600 definiert ist. Es ist klar, dass der Datenrahmen auf der Grundlage des Felds Ethernet-Typ eines herkömmlichen Ethernet-Rahmens oder dergleichen klassifiziert sein kann. In Reaktion auf eine Ermittlung im Block 1504, dass der empfangene Datenrahmen nicht zu einer aktuell eingerichteten ETS-TCG gehört, erfährt der Rahmen eine bestmögliche Ablaufplanung, und der Prozess geht vor zum Block 1512, der nachfolgend beschrieben wird.
  • Im Block 1504 wendet der Master-Switch 204 in Reaktion auf eine Ermittlung, dass der empfangene Datenrahmen zu einer aktuell eingerichteten ETS-TCG gehört, eine Ratenbegrenzung und Verkehrsformung auf den Datenrahmen an, um die minimalen und maximalen Bandbreiten einzuhalten, die für die ETS-TCG in den Feldern 1606, 1608 des relevanten ETS-Eintrags 1602 der ETS-Datenstruktur 1600 spezifiziert sind (Block 1510). Wie oben angemerkt kann der Master-Switch 204 in Abhängigkeit von der Konfiguration die ETS auf die VOQs an Eingangs-Vports 522 und/oder Ausgangs-Vports 524 anwenden. Der Prozess geht dann vor zum Block 1512, der veranschaulicht, dass der Master-Switch 204 ETS für eine Verkehrsklasse umsetzt wie in den Blöcken 1504 und 1510 dargestellt, bis ETS für diese Verkehrsklasse dekonfiguriert wird. Anschließend endet der in 15 veranschaulichte Prozess im Block 1520.
  • In einem DFP-Switching-Netzwerk 200 oder 300 kann eine Ablaufsteuerung nicht nur in Master-Switches 204 vorteilhaft umgesetzt werden, wie unter Bezugnahme auf die 15 bis 16 beschrieben wurde, sondern auch in den RPIs der Entitäten der unteren Ebene wie etwa Folge-Switches 202 und Hosts 302. In 17 ist ein logischer Ablaufplan in Übersichtsform eines beispielhaften Verfahrens dargestellt, durch das ein DFP-Switching-Netzwerk 200 oder 300 eine prioritätsgestützte Ablaufsteuerung (PFC) und/oder andere Dienste in einer unteren Ebene umsetzt.
  • Der in 17 gezeigte Prozess beginnt im Block 1700 und geht dann vor zum Block 1702, der einen Master-Switch 204 darstellt, der eine prioritätsgestützte Ablaufsteuerung (PFC) für eine Entität in einer unteren Ebene eines DFP-Switching-Netzwerks 200 oder 300 zum Beispiel in Reaktion auf (1) einen Empfang einer PFC-Konfiguration für einen virtualisierten Anschluss 602a bis 602d, der wenigstens einer RPI einer Entität der unteren Ebene entspricht, in einem leitenden Master-Switch 204, der ein Management-Modul 550 betreibt, oder (2) einen Empfang eines standardgestützten PFC-Datenrahmens, der von einer nachgeschalteten Entität in dem Netzwerk stammt und in dem Master-Switch 204 über einen Durchlass-Folge-Switch 202 empfangen wird in einem Master-Switch 204. Einem Fachmann ist klar, dass ein standardgestützter PFC-Datenrahmen durch eine nachgeschaltete Entität erzeugt werden kann, die einen Datenverkehrsstrom von einer vorgeschalteten Entität empfängt, um die vorgeschaltete Entität über einen Stau des Verkehrsstroms zu benachrichtigen. In Reaktion auf eine positive Ermittlung im Block 1702, dass ein Master-Switch 204 eine PFC-Konfiguration für eine Entität der unteren Ebene empfangen hat, geht der Prozess vor zum Block 1704, der den Master-Switch 204 veranschaulicht, der einen proprietären Datenrahmen, der mit PFC-Konfigurationsfeldern ergänzt ist (im Folgenden als proprietärer PFC-Datenrahmen bezeichnet), erzeugt und zu wenigstens einer Entität der unteren Ebene überträgt, um die Entität der unteren Ebene für PFC einzurichten. Anschließend endet der in 17 dargestellte Prozess im Block 1706.
  • In 18 ist die Struktur eines beispielhaften proprietären PFC-Datenrahmens 1800 gemäß einer Ausführungsform dargestellt. Wie zuvor unter Bezugnahme auf den Block 1704 von 17 beschrieben kann der proprietäre PFC-Datenrahmen 1800 durch einen Master-Switch 204 erzeugt und zu einer Entität der unteren Ebene eines DFP-Switching-Netzwerks wie etwa einem Folge-Switch 202 oder einem Host 302 übertragen werden, um PFC in der Entität der unteren Ebene umzusetzen.
  • In der dargestellten beispielhaften Ausführungsform ist der proprietäre PFC-Datenrahmen 1800 als ein erweiterter Ethernet-MAC-Steuerrahmen umgesetzt. Der proprietäre PFC-Datenrahmen 1800 enthält demzufolge ein Ziel-MAC-Adressenfeld 1802, das die MAC-Adresse einer RPI in der Entität der unteren Ebene spezifiziert, von der der Master-Switch 204 Datenrahmen empfangen kann, und ein Quellen-MAC-Adressenfeld 1804, das den Ausgangs-Vport am Master-Switch 204 identifiziert, von dem der proprietäre PFC-Datenrahmen 1800 übertragen wird. Den Adressenfeldern 1802, 1804 folgt ein Feld 1806 vom Ethernet-Typ, das einen PFC-Datenrahmen 1800 als einen MAC-Steuerrahmen identifiziert (z. B. durch einen Wert von 0x8808).
  • Das Datenfeld des proprietären PFC-Datenrahmens 1800 beginnt dann mit einem MAC-Steuerungs-Operationscode-Feld 1808, der angibt, dass der proprietäre PFC-Datenrahmen 1800 zum Umsetzen einer Ablaufsteuerung dient (z. B. durch einen Wert des Befehls PAUSE von 0x0101). Dem MAC-Steuerungs-Operationscode-Feld 1808 folgt ein Prioritäts-Freigabefeld 1810, das ein Freigabefeld 1812 und ein Klassenvektorfeld 1814 enthält. In einer Ausführungsform gibt das Freigabefeld 1812 durch den Zustand des niedrigstwertigen Bits an, ob der proprietäre PFC-Datenrahmen 1800 gegebenenfalls zum Umsetzen einer Ablaufsteuerung in einer RPI in der Entität der unteren Ebene dient, bei der es sich um das Ziel des proprietären PFC-Datenrahmens 1800 handelt. Der Klassenvektor 1814 gibt ferner an z. B. unter Verwendung von Multi-Hot-Codierung, für welche N Klassen des Verkehrs diese Ablaufsteuerung durch den proprietären PFC-Datenrahmen 1800 umgesetzt ist. Nach dem Prioritäts-Freigabevektor 1810 enthält der proprietäre PFC-Datenrahmen 1800 N Zeitabschnitt-Felder 1820a bis 1820n, die jeweils einer entsprechenden der N Klassen des Verkehrs entsprechen, für die eine Ablaufsteuerung umgesetzt werden kann. Unter der Annahme, dass das Freigabefeld 1812 auf Freigeben der Ablaufsteuerung für RPIs eingestellt und das entsprechende Bit in dem Klassenvektor 1814 so eingestellt ist, dass es eine Ablaufsteuerung für eine bestimmte Verkehrsklasse angibt, spezifiziert ein vorhandenes Zeitabschnitt-Feld 1820 (z. B. als ein anteiliger Wert oder ein absoluter Wert) eine maximale Bandbreite der Übertragung von Daten durch die RPI in der zugehörigen Verkehrsklasse. Die RPI, für die die Ablaufsteuerung durch den proprietären PFC-Datenrahmen 1800 eingerichtet ist, wird durch das RPI-Feld 1824 weiter spezifiziert.
  • Nach dem Datenfeld enthält der proprietäre PFC-Datenrahmen 1800 wahlweise Füllzeichen 1826, um eine vorgegebene Größe des proprietären PFC-Datenrahmens 1800 zu erhalten. Der proprietäre PFC-Datenrahmen 1800 enthält schließlich ein herkömmliches Prüfsummenfeld 1830, das verwendet wird, um Fehler in dem proprietären PFC-Datenrahmen 1800 zu erkennen.
  • Es ist klar, dass ein proprietärer PFC-Datenrahmen 1800 verwendet werden kann, um andere Funktionen als die Ablaufsteuerung für RPIs auszulösen. Ein proprietärer PFC-Datenrahmen 1800 kann z. B. außerdem verwendet werden, um Dienste für eine spezifizierte RPI auszulösen (z. B. unter Verwendung spezieller reservierter Werte der Zeitabschnitt-Felder 1820). Zu diesen zusätzlichen Diensten können z. B. gehören das Wiederaufbereiten von Strategien des Server-Lastausgleichs, das Aktualisieren von Firewall-Einschränkungen, das Erzwingen einer Dienstverweigerung (DOS), Angriffsprüfungen usw.
  • In 19A ist ein logischer Ablaufplan in Übersichtsform eines beispielhaften Prozesses dargestellt, durch den eine Entität der unteren Ebene des DFP-Switching-Netzwerks 200 oder 300 wie etwa ein Folge-Switch 202 einen proprietären PFC-Datenrahmen 1800, der von einem Master-Switch 204 empfangen wurde, gemäß einer Ausführungsform verarbeitet.
  • Der Prozess beginnt im Block 1900 und geht dann vor zum Block 1902, der eine Durchlauf-Entität der unteren Ebene wie etwa einen Folge-Switch 202 darstellt, die den Empfang eines proprietären PFC-Datenrahmens 1800 überwacht. In Reaktion auf den Empfang eines proprietären PFC-Datenrahmens 1800, der z. B. durch eine Klassifizierung auf der Grundlage des MAC-Steuerungs-Operationscode-Felds 1808 erkannt wird, geht der Prozess vom Block 1902 vor zum Block 1904. Der Block 1904 stellt den Folge-Switch 202 dar (z. B. die Switch-Steuereinheit 530b), der den proprietären PFC-Datenrahmen 1800 in einen standardgestützten PFC-Datenrahmen umsetzt z. B. durch Extrahieren von Nicht-Standard-Feldern 1810, 1820 und 1824. Der Folge-Switch 202 ermittelt dann einen Ausgangs-Datenanschluss 210 für den standardgestützten PFC-Datenrahmen, indem z. B. die aus dem RPI-Feld 1824 extrahierte RPI durch Bezugnahme auf die FIB 532b in eine Anschlusskennung umgesetzt wird, und leitet den resultierenden standardgestützten PFC-Datenrahmen über den ermittelten Ausgangs-Datenanschluss 210 hin zu der Quelle des Datenverkehrs weiter, die einen Stau bewirkt (Block 1906), anschließend endet der in 19A gezeigte Prozess im Block 1920. Es sollte angemerkt werden, dass, da es sich bei PFC um eine individuell umgesetzte Per-RPI handeln kann, der beschriebene Prozess verwendet werden kann, um eine unterschiedliche PFC für verschiedene RPIs in derselben Entität der unteren Ebene umzusetzen (z. B. Folge-Switch 202 oder Host 302). Da die RPIs in den Entitäten der unteren Ebene durch VOQs 604 repräsentiert werden, kann ferner eine individualisierte PFC für eine oder mehrere RPIs alternativ oder selektiv in Master-Switches 204 umgesetzt sein, so dass derselbe Anschluss 502 eine unterschiedliche PFC für den Datenverkehr von verschiedenen Vports 522, 524 umsetzt.
  • In 19B ist ein logischer Ablaufplan in Übersichtsform eines beispielhaften Prozesses dargestellt, durch den eine Entität der unteren Ebene eines DFP-Switching-Netzwerks 200 oder 300 wie etwa eine Host-Plattform 302 einen proprietären PFC-Datenrahmen 1800, der von einem Master-Switch 204 empfangen wurde, gemäß einer Ausführungsform verarbeitet.
  • Der Prozess beginnt im Block 1920 und geht dann vor zum Block 1922, der eine Netzwerk-Schnittstelle 404 (z. B. eine NCA oder NIC) einer Host-Plattform 302 veranschaulicht, die den Empfang eines proprietären PFC-Datenrahmens 1800 überwacht, z. B. durch Klassifizieren eines eingehenden Datenrahmens auf der Grundlage eines MAC-Steuerungs-Operationscode-Felds 1808. In Reaktion auf das Erkennen des Empfangs eines proprietären PFC-Datenrahmens 1800 geht der Prozess vom Block 1922 vor zum Block 1930. Der Block 1930 stellt die Netzwerk-Schnittstelle 404 dar, die den proprietären PFC-Datenrahmen 1800 z. B. über eine Unterbrechung oder eine andere Nachricht zur VMM 304 zur Behandlung überträgt. In Reaktion auf den Empfang des proprietären PFC-Datenrahmens 1800 überträgt der Hypervisor 304 seinerseits den proprietären PFC-Datenrahmen 1800 zu der VM 306, die der RPI zugehörig ist, die in dem RPI-Feld 1824 des proprietären PFC-Datenrahmens 1800 angegeben ist (Block 1932). Daraufhin wendet die VM 306 eine PFC (oder einen anderen Dienst, der durch den proprietären PFC-Datenrahmen 1800 angegeben ist) für die spezifische Anwendung und die Verkehrspriorität an, die durch den proprietären PFC-Datenrahmen 1800 angegeben ist (Block 1934). Dadurch kann eine PFC für jede Priorität und jede Anwendung umgesetzt werden, wodurch z. B. eine Datenzentrum-Serverplattform auf eine erste VM 306 (z. B. einen Server für Videostreaming) eine andere PFC als auf eine zweite VM 306 (z. B. einen FTP-Server) anwenden kann, z. B. in Reaktion auf einen Rückstau von einem Videostreaming-Client, der mit der Datenzentrum-Serverplattform im Datenaustausch steht. Nach dem Block 1934 endet der in 19B dargestellte Prozess im Block 1940.
  • Wie beschrieben wurde, enthält ein Switching-Netzwerk in einigen Ausführungsformen eine obere Ebene mit einem Master-Switch und eine untere Ebene mit einer Mehrzahl von Entitäten der unteren Ebene. Der Master-Switch weist eine Mehrzahl von Anschlüssen auf, die jeweils mit einer entsprechenden aus der Mehrzahl von Entitäten der unteren Ebene verbunden sind. Jeder aus der Mehrzahl von Anschlüssen enthält eine Mehrzahl von virtuellen Anschlüssen, die jeweils einer entsprechenden aus einer Mehrzahl von fernen physischen Schnittstellen (RPIs) in der Entität der unteren Ebene entsprechen, die mit diesem Anschluss verbunden ist. Jeder aus der Mehrzahl von Anschlüssen enthält außerdem eine Empfangs-Schnittstelle, die in Reaktion auf den Empfang von Datenverkehr von einer bestimmten Entität der unteren Ebene aus der Mehrzahl von Entitäten der unteren Ebene den Datenverkehr zu dem virtuellen Anschluss aus der Mehrzahl von virtuellen Anschlüssen in einer Warteschlange ablegt, die der RPI in der bestimmten Entität der unteren Ebene entspricht, bei der es sich um die Quelle des Datenverkehrs handelt. Der Master-Switch enthält ferner eine Switch-Steuereinheit, die Datenverkehr von dem virtuellen Anschluss zu einem Ausgangs-Anschluss unter der Mehrzahl von Anschlüssen schaltet, von dem der Datenverkehr weitergeleitet wird.
  • In einigen Ausführungsformen eines Switching-Netzwerks, die eine obere Ebene und eine untere Ebene enthalten, setzt ein Master-Switch in der oberen Ebene, der eine Mehrzahl von Anschlüssen aufweist, die jeweils mit einer entsprechenden Entität der unteren Ebene verbunden sind, in jedem der Anschlüsse eine Mehrzahl von virtuellen Anschlüssen um, die jeweils einer entsprechenden aus einer Mehrzahl von fernen physischen Schnittstellen (RPIs) in der Entität der unteren Ebene entsprechen, die mit diesem Anschluss verbunden ist. Datenverkehr, der zwischen dem Master-Switch und RPIs übertragen wird, wird in den virtuellen Anschlüssen in Warteschlangen abgelegt, die den RPIs in Entitäten der unteren Ebene entsprechen, mit denen der Datenverkehr übertragen wird. Der Master-Switch erzwingt eine prioritätsgestützte Ablaufsteuerung (PFC) an Datenverkehr eines vorhandenen virtuellen Anschlusses, indem ein PFC-Datenrahmen, der Prioritäten für wenigstens zwei unterschiedliche Klassen von Datenverkehr spezifiziert, der durch die bestimmte RPI ausgetauscht wird, zu einer Entität der oberen Ebene übertragen wird, in der sich eine entsprechende RPI befindet.
  • In einigen Ausführungsformen eines Switching-Netzwerks, das eine obere Ebene und eine untere Ebene enthält, setzt ein Master-Switch in der oberen Ebene, der eine Mehrzahl von Anschlüssen aufweist, die jeweils mit einer entsprechenden Entität der unteren Ebene verbunden sind, in jedem der Anschlüsse eine Mehrzahl von virtuellen Anschlüssen um, die jeweils einer entsprechenden aus einer Mehrzahl von fernen physischen Schnittstellen (RPIs) in der Entität der unteren Ebene entsprechen, die mit diesem Anschluss verbunden ist. Datenverkehr, der zwischen dem Master-Switch und RPIs übertragen wird, wird in Warteschlangen in virtuellen Anschlüssen abgelegt, die den RPIs entsprechen, mit denen der Datenverkehr übertragen wird. Der Master-Switch wendet eine Datenbehandlung auf den Datenverkehr an gemäß einer Steuerungsstrategie, beruhend auf wenigstens dem virtuellen Anschluss, in dem der Datenverkehr in Warteschlangen abgelegt wird, so dass der Master-Switch unterschiedliche Strategien auf Datenverkehr anwendet, der in zwei virtuellen Anschlüssen in demselben Anschluss des Master-Switch abgelegt ist.
  • Zwar ist vorliegende Erfindung insbesondere so gezeigt, wie sie unter Bezugnahme auf eine oder mehrere bevorzugte Ausführungsformen beschrieben wurde, jedoch ist es einem Fachmann klar, dass verschiedene Änderungen an Form und Einzelheiten ausgeführt werden können, ohne von dem Gedanken und Umfang der Erfindung abzuweichen. Obwohl z. B. Aspekte unter Bezugnahme auf eine oder mehrere Maschinen (z. B. Hosts und/oder Netzwerk-Switches) beschrieben wurden, die Programmcode ausführen (z. B. Software, Firmware oder eine Kombination hiervon), der die hier beschriebenen Funktionen anweist, sollte klar sein, dass Ausführungsformen alternativ als ein Programmprodukt umgesetzt werden können, bei dem es sich um ein materielles maschinenlesbares Speichermedium oder eine Speichereinheit (z. B. ein optisches Speichermedium, ein Arbeitsspeichermedium, ein Plattenspeichermedium usw.) handeln kann, das Programmcode speichert, der durch eine Maschine verarbeitet werden kann, um zu bewirken, dass die Maschine eine oder mehrere der beschriebenen Funktionen ausführt.

Claims (34)

  1. Verfahren zum Schalten in einem Switching-Netzwerk, das eine obere Ebene und eine untere Ebene mit einer Mehrzahl von Entitäten der unteren Ebene aufweist, wobei das Verfahren aufweist: in einem Master-Switch in der oberen Ebene, der eine Mehrzahl von Anschlüssen aufweist, die jeweils mit einer entsprechenden aus der Mehrzahl von Entitäten der unteren Ebene verbindbar sind, Implementieren einer Mehrzahl von virtuellen Anschlüssen in jedem aus der Mehrzahl von Anschlüssen, wobei jeder einer entsprechenden aus einer Mehrzahl von fernen physischen Schnittstellen (RPIs) in der Entität der unteren Ebene entspricht, die mit diesem Anschluss verbindbar ist; in Reaktion auf einen Empfang von Datenverkehr von einer bestimmten Entität der unteren Ebene aus der Mehrzahl von Entitäten der unteren Ebene an einem Eingangsanschluss aus der Mehrzahl von Anschlüssen des Master-Switch Einreihen des Datenverkehrs in eine Warteschlange zu dem virtuellen Anschluss des Eingangsanschlusses, der der RPI in der bestimmten Entität der unteren Ebene entspricht, bei der es sich um die Quelle des Datenverkehrs handelt; und Schalten des Datenverkehrs von dem virtuellen Anschluss des bestimmten Anschlusses zu einem Eingangsanschluss aus der Mehrzahl von Anschlüssen des Master-Switch und Weiterleiten des Datenverkehrs von dem Ausgangsanschluss.
  2. Verfahren nach Anspruch 1, wobei: jeder aus der Mehrzahl von virtuellen Anschlüssen eine Mehrzahl von virtuellen Eingangsanschlüssen aufweist; der virtuelle Anschluss des bestimmten Anschlusses einen virtuellen Eingangsanschluss aufweist; jeder aus der Mehrzahl von Anschlüssen des Master-Switch ferner eine Mehrzahl von virtuellen Ausgangsanschlüssen aufweist; und das Schalten ein Schalten des Datenverkehrs von dem virtuellen Eingangsanschluss zu einem virtuellen Ausgangsanschluss aus der Mehrzahl von virtuellen Ausgangsanschlüssen in dem bestimmten Datenanschluss aufweist.
  3. Verfahren nach Anspruch 1 oder Anspruch 2, wobei: der Datenverkehr eine RPI-Kennung aufweist, die die RPI in der bestimmten Entität der unteren Ebene identifiziert; das Einreihen in eine Warteschlange ein Einreihen des Datenverkehrs auf der Grundlage des RPI-Kennung aufweist; und das Verfahren ferner das Aktualisieren der RPI-Kennung durch den Master-Switch vor dem Weiterleiten des Datenverkehrs von dem Ausgangsanschluss aufweist.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei: das Switching-Netzwerk mehrere Master-Switches aufweist, wobei jeder mit jeder aus der Mehrzahl von Entitäten der unteren Ebene verbindbar ist; und das Implementieren ein Implementieren der Mehrzahl von virtuellen Anschlüssen bei jedem von den mehreren Master-Switches aufweist.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei: die Mehrzahl von Entitäten der unteren Ebene einen Folge-Switch aufweist, der in einer Durchlauf-Betriebsart eingerichtet ist; und und die Mehrzahl von RPIs Datenanschlüsse aufweist.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei: die Mehrzahl von Entitäten der unteren Ebene eine Host-Plattform aufweist; und die Mehrzahl von RPIs in der Host-Plattform eine virtuelle Maschine aufweist.
  7. Verfahren nach einem der vorhergehenden Ansprüche, das ferner aufweist: den Master-Switch, der eine Management-Schnittstelle darstellt, durch die RPIs in der Mehrzahl von Entitäten der unteren Ebene und der Mehrzahl von virtuellen Anschlüssen als ein vereinheitlichter virtueller Switch verwaltet werden.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei: das Switching-Netzwerk mehrere Master-Switches aufweist, wobei jeder mit jeder aus der Mehrzahl von Entitäten der unteren Ebene verbindbar ist; ein Implementieren mehrerer RPI-Gruppen in jeder Entität der unteren Ebene in gleichem Umfang erfolgt wie die Anzahl der mehreren Master-Switches; das Verfahren ferner aufweist, dass jede aus den mehreren RPI-Gruppen Datenverkehr zu einem von den mehreren Master-Switches überträgt.
  9. Verfahren nach einem der vorhergehenden Ansprüche, das ferner ein dynamisches Erzeugen von wenigstens einem virtuellen Anschluss in einem aus der Mehrzahl von Anschlüssen aufweist.
  10. Verfahren nach einem der vorhergehenden Ansprüche, das ferner ein dynamisches Migrieren wenigstens eines virtuellen Anschlusses zwischen verschiedenen Anschlüssen aus der Mehrzahl von Anschlüssen aufweist.
  11. Verfahren nach Anspruch 10, wobei: der wenigstens eine virtuelle Anschluss einer migrierenden virtuellen Maschine zugehörig ist; das Verfahren ferner ein Puffern von Datenverkehr für die virtuelle Maschine am Eingang mindestens bis zur Beendigung der Migration bzw. zum Ablauf einer im Voraus definierten Lösch-Zeitdauer aufweist.
  12. Verfahren nach einem der vorhergehenden Ansprüche, das ferner aufweist: vorübergehendes Deaktivieren wenigstens eines virtuellen Anschlusses in einem aus der Mehrzahl von Anschlüssen in Reaktion auf eine Unterbrechung des Datenaustausches mit einer entsprechenden Entität der unteren Ebene; und Aktivieren des wenigstens einen virtuellen Anschlusses, wenn der Datenaustausch mit der entsprechenden Entität der unteren Ebene wiederhergestellt wird.
  13. Verfahren nach Anspruch 12, das ferner ein Puffern von Datenverkehr für die Entität der unteren Ebene am Eingang mindestens bis zum Aktivieren des wenigstens einen virtuellen Anschlusses bzw. bis zum Ablauf einer im Voraus definierten Lösch-Zeitdauer aufweist.
  14. Programmprodukt, das aufweist: eine maschinenlesbare Speichereinheit; und Programmcode, der in dem maschinenlesbaren Speichermedium gespeichert ist, wobei der Programmcode beim Verarbeiten durch eine Maschine bewirkt, dass die Maschine ausführt: in einem Master-Switch eines Switching-Netzwerks, das eine obere Ebene und eine untere Ebene mit einer Mehrzahl von Entitäten der unteren Ebene aufweist, wobei der Master-Switch eine Mehrzahl von Anschlüssen aufweist, wobei jeder mit einer entsprechenden aus der Mehrzahl von Entitäten der unteren Ebene verbindbar ist, Implementieren einer Mehrzahl von virtuellen Anschlüssen in jedem aus der Mehrzahl von Anschlüssen, wobei jeder einer entsprechenden aus einer Mehrzahl von fernen physischen Schnittstellen (RPIs) in der Entität der unteren Ebene entspricht, die mit diesem Anschluss verbindbar ist; in Reaktion auf einen Empfang von Datenverkehr von einer bestimmten Entität der unteren Ebene aus der Mehrzahl von Entitäten der unteren Ebene an einem Eingangsanschluss aus der Mehrzahl von Anschlüssen des Master-Switch Einreihen des Datenverkehrs in eine Warteschlange zu dem virtuellen Anschluss des Eingangsanschlusses, der der RPI in der bestimmten Entität der unteren Ebene entspricht, bei der es sich um die Quelle des Datenverkehrs handelt; und Schalten des Datenverkehrs von dem virtuellen Anschluss des bestimmten Anschlusses zu einem Ausgangsanschluss aus der Mehrzahl von Anschlüssen des Master-Switch und Weiterleiten des Datenverkehrs von dem Ausgangsanschluss.
  15. Programmprodukt nach Anspruch 14, wobei: jeder aus der Mehrzahl von virtuellen Anschlüssen eine Mehrzahl von virtuellen Eingangsanschlüssen aufweist; der virtuelle Anschluss des bestimmten Anschlusses einen virtuellen Eingangsanschluss aufweist; jeder aus der Mehrzahl von Anschlüssen des Master-Switch ferner eine Mehrzahl von virtuellen Ausgangsanschlüssen aufweist; und das Schalten ein Schalten von Datenverkehr von dem virtuellen Eingangsanschluss zu einem virtuellen Ausgangsanschluss aus der Mehrzahl von virtuellen Ausgangsanschlüssen in dem bestimmten Datenanschluss aufweist.
  16. Programmprodukt nach Anspruch 14 oder Anspruch 15, wobei: der Datenverkehr eine RPI-Kennung aufweist, die die RPI in der bestimmten Entität der unteren Ebene identifiziert; das Einreihen in eine Warteschlange ein Einreihen des Datenverkehrs auf der Grundlage der RPI-Kennung aufweist; und der Programmcode ferner bewirkt, dass der Master-Switch die RPI-Kennung vor dem Weiterleiten des Datenverkehrs von dem Ausgangsanschluss aktualisiert.
  17. Programmprodukt nach einem der Ansprüche 14 bis 16, wobei: das Switching-Netzwerk mehrere Master-Switches aufweist, die jeweils mit jeder aus der Mehrzahl von Entitäten der unteren Ebene verbindbar sind; und das Implementieren ein Implementieren der Mehrzahl von virtuellen Anschlüssen in jedem der mehreren Master-Switches aufweist.
  18. Programmprodukt nach einem der Ansprüche 14 bis 17, wobei: die Mehrzahl von Entitäten der unteren Ebene einen Folge-Switch aufweist, der in einer Durchlass-Betriebsart eingerichtet ist; und die Mehrzahl von RPIs Datenanschlüsse aufweist.
  19. Programmprodukt nach einem der Ansprüche 14 bis 18, wobei: die Mehrzahl von Entitäten der unteren Ebene eine Host-Plattform aufweist; und die Mehrzahl von RPIs auf der Host-Plattform eine virtuelle Maschine aufweist.
  20. Programmprodukt nach einem der Ansprüche 14 bis 19, wobei das Programmprodukt ferner bewirkt, dass der Master-Switch ausführt: Darstellen einer Management-Schnittstelle, durch die RPIs in der Mehrzahl von Entitäten der unteren Ebene und der Mehrzahl von virtuellen Anschlüssen als ein vereinheitlichter virtueller Switch verwaltet werden.
  21. Master-Switch eines Switching-Netzwerks, der eine obere Ebene mit dem Master-Switch und eine untere Ebene mit einer Mehrzahl von Entitäten der unteren Ebene aufweist, wobei der Master-Switch aufweist: eine Mehrzahl von Anschlüssen, wobei jeder mit einer entsprechenden aus der Mehrzahl von Entitäten der unteren Ebene verbindbar ist, wobei jeder aus der Mehrzahl von Anschlüssen aufweist: eine Mehrzahl von virtuellen Anschlüssen, wobei jeder einer entsprechenden aus einer Mehrzahl von fernen physischen Schnittstellen (RPIs) an der Entität der unteren Ebene entspricht, die mit diesem Anschluss verbindbar ist; eine Empfangsschnittstelle, die in Reaktion auf den Empfang von Datenverkehr von einer bestimmten Entität der unteren Ebene aus der Mehrzahl von Entitäten der unteren Ebene den Datenverkehr in eine Warteschlange zu dem virtuellen Anschluss aus der Mehrzahl von virtuellen Anschlüssen einreiht, der der RPI in der bestimmten Entität der unteren Ebene entspricht, bei der es sich um die Quelle des Datenverkehrs handelt; eine Switch-Steuereinheit, die Datenverkehr von dem virtuellen Anschluss zu einem Ausgangsanschluss aus der Mehrzahl von Anschlüssen schaltet, von dem der Datenverkehr weitergeleitet wird.
  22. Master-Switch nach Anspruch 21, wobei: jeder aus der Mehrzahl von virtuellen Anschlüssen eine Mehrzahl von virtuellen Eingangsanschlüssen aufweist; der virtuelle Anschluss einen virtuellen Eingangsanschluss aufweist; jeder aus der Mehrzahl von Anschlüssen ferner eine Mehrzahl von virtuellen Ausgangsanschlüssen aufweist; und die Switch-Steuereinheit den Datenverkehr von dem virtuellen Eingangsanschluss zu einem virtuellen Ausgangsanschluss aus der Mehrzahl von virtuellen Ausgangsanschlüssen in dem Ausgangsanschluss schaltet.
  23. Master-Switch nach Anspruch 21 oder Anspruch 22, wobei: der Datenverkehr eine RPI-Kennung aufweist, die die RPI in der bestimmten Entität der unteren Ebene identifiziert; die Empfangsschnittstelle den Datenverkehr auf der Grundlage der RPI-Kennung in eine Warteschlange einreiht; und der Master-Switch die RPI-Kennung vor dem Weiterleiten des Datenverkehrs von dem Ausgangsanschluss aktualisiert.
  24. Master-Switch nach einem der Ansprüche 21 bis 23, der ferner aufweist: ein Management-Modul, das eine Management-Schnittstelle darstellt, durch die RPIs in der Mehrzahl von Entitäten der unteren Ebene und der Mehrzahl von virtuellen Anschlüssen als ein vereinheitlichter virtueller Switch verwaltet werden.
  25. Switching-Netzwerk, das aufweist: den Master-Switch nach einem der Ansprüche 21 bis 24; und die Mehrzahl von Entitäten der unteren Ebene.
  26. Switching-Netzwerk nach Anspruch 25, wobei: das Switching-Netzwerk mehrere Master-Switches aufweist, wobei jeder mit jeder aus einer Mehrzahl von Entitäten der unteren Ebene verbindbar ist; und jeder der mehreren Master-Switches die Mehrzahl von virtuellen Anschlüssen in jedem aus der Mehrzahl von Anschlüssen implementiert.
  27. Switching-Netzwerk nach Anspruch 25 oder Anspruch 26, wobei: die Mehrzahl von Entitäten der unteren Ebene einen Folge-Switch aufweisen, der in einer Durchlass-Betriebsart eingerichtet ist; und die Mehrzahl von RPIs Datenanschlüsse aufweist.
  28. Switching-Netzwerk nach Anspruch 27, wobei: der Master-Switch einen größeren ersten Merkmalsatz und der Folge-Switch einen kleineren zweiten Merkmalsatz aufweist; und Anschlüsse des Folge-Switch den größeren ersten Merkmalsatz des Master-Switch an den virtuellen Anschlüssen des Master-Switch erben.
  29. Switching-Netzwerk nach einem der Ansprüche 25 bis 28, wobei: die Mehrzahl von Entitäten der unteren Ebene eine Host-Plattform aufweist; und die Mehrzahl von RPIs auf der Host-Plattform eine virtuelle Maschine aufweist.
  30. Switching-Netzwerk nach einem der Ansprüche 25 bis 29, wobei der Master-Switch und die Mehrzahl von Entitäten der unteren Ebene eine einzige Datenebene und eine einzige Steuerungsebene gemeinsam nutzen.
  31. Switching-Netzwerk nach einem der Ansprüche 25 bis 30, wobei die Mehrzahl von Entitäten der unteren Ebene eine Mehrzahl von Folge-Switches aufweist, die in einer Durchlass-Betriebsart betrieben werden, so dass die Mehrzahl von Master-Switches als ein virtuelles Chassis dient und die Folge-Switches als virtuelle Leitungskarten des virtuellen Chassis dienen.
  32. Switching-Netzwerk nach einem der Ansprüche 25 bis 31, wobei der Master-Switch als ein virtuelles Switch-Fabric für das Switching-Netzwerk dient.
  33. Switching-Netzwerk nach einem der Ansprüche 25 bis 32, wobei: das Switching-Netzwerk mehrere Master-Switches mit dem Master-Switch aufweist; jede aus der Mehrzahl von Entitäten der unteren Ebene eine Anzahl von Anschlussgruppen aufweist, die einer Anzahl der mehreren Master-Switches entspricht; jede aus der Mehrzahl von Entitäten der unteren Ebene Datenverkehr, der in jeder Anschlussgruppe empfangen wird, zu einem entsprechenden der mehreren Master-Switches weiterleitet.
  34. Vorrichtung zum Schalten in einem Switching-Netzwerk, das eine obere Ebene und eine untere Ebene mit einer Mehrzahl von Entitäten der unteren Ebene aufweist, wobei die Vorrichtung aufweist: ein Mittel in einem Master-Switch in der oberen Ebene, das eine Mehrzahl von Anschlüssen aufweist, wobei jeder mit einer entsprechenden aus der Mehrzahl von Entitäten der unteren Ebene verbindbar ist, zum Implementieren einer Mehrzahl von virtuellen Anschlüssen in jedem aus der Mehrzahl von Anschlüssen, wobei jeder einer entsprechenden aus einer Mehrzahl von fernen physischen Schnittstellen (RPIs) in der Entität der unteren Ebene entspricht, die mit diesem Anschluss verbindbar ist; ein Mittel, das auf den Empfang von Datenverkehr von einer bestimmten Entität der unteren Ebene aus der Mehrzahl von Entitäten der unteren Ebene an einem Eingangsanschluss aus der Mehrzahl von Anschlüssen des Master-Switch anspricht, um den Datenverkehr in Warteschlangen zu dem virtuellen Anschluss des Eingangsanschlusses einzureihen, der der RPI in der bestimmten Entität der unteren Ebene entspricht, bei der es sich um die Quelle des Datenverkehrs handelt; ein Mittel zum Schalten des Datenverkehrs von dem virtuellen Anschluss des bestimmten Anschlusses zu einem Ausgangsanschluss aus der Mehrzahl von Anschlüssen des Master-Switch; und ein Mittel zum Weiterleiten des Datenverkehrs von dem Ausgangsanschluss.
DE112012002080.4T 2011-05-14 2012-04-19 Switching-Netzwerk-Architektur gemäss dem Distributed Fabric Protocol (DFP) Granted DE112012002080T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/107,894 2011-05-14
US13/107,894 US8837499B2 (en) 2011-05-14 2011-05-14 Distributed fabric protocol (DFP) switching network architecture
PCT/IB2012/051955 WO2012156837A1 (en) 2011-05-14 2012-04-19 Distributed fabric protocol (dfp) switching network architecture

Publications (1)

Publication Number Publication Date
DE112012002080T5 true DE112012002080T5 (de) 2014-07-10

Family

ID=47141849

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112012002080.4T Granted DE112012002080T5 (de) 2011-05-14 2012-04-19 Switching-Netzwerk-Architektur gemäss dem Distributed Fabric Protocol (DFP)

Country Status (8)

Country Link
US (2) US8837499B2 (de)
JP (1) JP2013545359A (de)
KR (1) KR101485728B1 (de)
CN (1) CN103534998A (de)
CA (1) CA2833679C (de)
DE (1) DE112012002080T5 (de)
GB (1) GB2505129B (de)
WO (1) WO2012156837A1 (de)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8495194B1 (en) * 2010-06-29 2013-07-23 Amazon Technologies, Inc. Connecting network deployment units
US9276953B2 (en) 2011-05-13 2016-03-01 International Business Machines Corporation Method and apparatus to detect and block unauthorized MAC address by virtual machine aware network switches
US8670450B2 (en) 2011-05-13 2014-03-11 International Business Machines Corporation Efficient software-based private VLAN solution for distributed virtual switches
US20120287785A1 (en) 2011-05-14 2012-11-15 International Business Machines Corporation Data traffic handling in a distributed fabric protocol (dfp) switching network architecture
US20120291034A1 (en) 2011-05-14 2012-11-15 International Business Machines Corporation Techniques for executing threads in a computing environment
US8837499B2 (en) 2011-05-14 2014-09-16 International Business Machines Corporation Distributed fabric protocol (DFP) switching network architecture
US8588224B2 (en) * 2011-05-14 2013-11-19 International Business Machines Corporation Priority based flow control in a distributed fabric protocol (DFP) switching network architecture
KR101715080B1 (ko) * 2011-06-09 2017-03-13 삼성전자주식회사 네임 기반의 네트워크 시스템에서 펜딩 테이블의 오버플로우를 방지하는 노드 장치 및 방법
US9497073B2 (en) 2011-06-17 2016-11-15 International Business Machines Corporation Distributed link aggregation group (LAG) for a layer 2 fabric
US9402271B2 (en) * 2011-06-27 2016-07-26 Brocade Communications Systems, Inc. Converged wireless local area network
US20130064066A1 (en) 2011-09-12 2013-03-14 International Business Machines Corporation Updating a switch software image in a distributed fabric protocol (dfp) switching network
US8767529B2 (en) * 2011-09-12 2014-07-01 International Business Machines Corporation High availability distributed fabric protocol (DFP) switching network architecture
US8750129B2 (en) 2011-10-06 2014-06-10 International Business Machines Corporation Credit-based network congestion management
US9065745B2 (en) 2011-10-06 2015-06-23 International Business Machines Corporation Network traffic distribution
US9565132B2 (en) * 2011-12-27 2017-02-07 Intel Corporation Multi-protocol I/O interconnect including a switching fabric
CN103297354B (zh) * 2012-03-02 2017-05-03 日电(中国)有限公司 服务器互连系统、服务器和数据转发方法
CN104205753B (zh) * 2012-03-19 2017-10-03 英特尔公司 用于输入/输出虚拟化系统中的分组管理的技术
US9769061B2 (en) * 2012-05-23 2017-09-19 Brocade Communications Systems, Inc. Integrated heterogeneous software-defined network
JP5958164B2 (ja) * 2012-08-07 2016-07-27 富士通株式会社 制御装置、方法及びプログラム、並びにシステム及び情報処理方法
US9007893B2 (en) * 2013-03-20 2015-04-14 Alcatel Lucent Layered third party application software redundancy in a non-homogenous virtual chassis
CN104219159B (zh) 2013-05-31 2017-12-05 国际商业机器公司 基于虚拟局域网的虚拟接口进行链路聚合方法和装置
US9686178B2 (en) * 2013-07-22 2017-06-20 Vmware, Inc. Configuring link aggregation groups to perform load balancing in a virtual environment
US9509615B2 (en) * 2013-07-22 2016-11-29 Vmware, Inc. Managing link aggregation traffic in a virtual environment
US9350666B2 (en) * 2013-07-22 2016-05-24 Vmware, Inc. Managing link aggregation traffic in a virtual environment
US10120729B2 (en) 2014-02-14 2018-11-06 Vmware, Inc. Virtual machine load balancing
US20170070473A1 (en) * 2014-03-14 2017-03-09 Hewlett Packard Enterprise Development Lp A switching fabric including a virtual switch
WO2015196377A1 (zh) * 2014-06-25 2015-12-30 华为技术有限公司 一种用户身份类别确定方法以及装置
AU2015283976B2 (en) * 2014-07-03 2018-12-06 Fiber Mountain, Inc. Data center path switch with improved path interconnection architecture
US10257117B2 (en) * 2014-11-05 2019-04-09 Avago Technologies International Sales Pte. Limited Distributed switch architecture
US9832797B2 (en) 2015-06-29 2017-11-28 At&T Intellectual Property I, L.P. Mobility network function consolidation
US10243914B2 (en) 2015-07-15 2019-03-26 Nicira, Inc. Managing link aggregation traffic in edge nodes
US9992153B2 (en) 2015-07-15 2018-06-05 Nicira, Inc. Managing link aggregation traffic in edge nodes
US10331616B2 (en) * 2015-08-05 2019-06-25 Futurewei Technologies, Inc. Integration of network linecard (LC) to host operating system (OS)
CN105245826B (zh) * 2015-08-27 2019-04-30 浙江宇视科技有限公司 一种控制监控视频流传输的方法及装置
EP3340064B1 (de) * 2016-08-03 2020-12-02 Huawei Technologies Co., Ltd. Netzwerkschnittstellenkarte, computervorrichtung und datenpaketverarbeitungsverfahren
WO2018053179A1 (en) 2016-09-14 2018-03-22 Fiber Mountain, Inc. Intelligent fiber port management
US9923783B1 (en) * 2017-01-07 2018-03-20 International Business Machines Corporation Hardware connection management
US10673781B2 (en) 2018-01-31 2020-06-02 Hewlett Packard Enterprise Development Lp Dedicated virtual local area network for peer-to-peer traffic transmitted between switches
US11494212B2 (en) * 2018-09-27 2022-11-08 Intel Corporation Technologies for adaptive platform resource assignment
US11012369B2 (en) * 2019-07-05 2021-05-18 Dell Products L.P. Aggregated switch path optimization system
US11381512B1 (en) * 2019-12-10 2022-07-05 Cisco Technology, Inc. Priority-based flow control messaging for port extender
US11316796B2 (en) 2019-12-30 2022-04-26 Juniper Networks, Inc. Spraying for unequal link connections in an internal switch fabric
US20220052904A1 (en) * 2020-08-11 2022-02-17 F5 Networks, Inc. Managing network ports in a virtualization environment
KR102314880B1 (ko) * 2021-05-10 2021-10-19 농업회사법인 유한회사 더자람 슬레이브 채널의 자유로운 확장이 가능한 스마트팜 제어 시스템
CN113890823B (zh) * 2021-08-20 2023-08-25 长沙湘计海盾科技有限公司 一种用于层次拓扑的交换机自动配置方法及介质

Family Cites Families (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5394402A (en) 1993-06-17 1995-02-28 Ascom Timeplex Trading Ag Hub for segmented virtual local area network with shared media access
US5617421A (en) 1994-06-17 1997-04-01 Cisco Systems, Inc. Extended domain computer network using standard links
US5515359A (en) 1994-08-26 1996-05-07 Mitsubishi Electric Research Laboratories, Inc. Credit enhanced proportional rate control system
US5633859A (en) 1994-09-16 1997-05-27 The Ohio State University Method and apparatus for congestion management in computer networks using explicit rate indication
ZA959722B (en) 1994-12-19 1996-05-31 Alcatel Nv Traffic management and congestion control for packet-based networks
US6035105A (en) 1996-01-02 2000-03-07 Cisco Technology, Inc. Multiple VLAN architecture system
US5742604A (en) 1996-03-28 1998-04-21 Cisco Systems, Inc. Interswitch link mechanism for connecting high-performance network switches
EP0853405A3 (de) 1997-01-06 1998-09-16 Digital Equipment Corporation Ethernetnetz mit auf Kredit basierter Flussteuerung
US5893320A (en) 1997-05-20 1999-04-13 Demaree; Michael S. Device for cooking fowl
US6192406B1 (en) 1997-06-13 2001-02-20 At&T Corp. Startup management system and method for networks
US6147970A (en) 1997-09-30 2000-11-14 Gte Internetworking Incorporated Quality of service management for aggregated flows in a network system
US6567403B1 (en) 1998-04-30 2003-05-20 Hewlett-Packard Development Company, L.P. Virtual-chassis switch network topology
US6609153B1 (en) 1998-12-24 2003-08-19 Redback Networks Inc. Domain isolation through virtual network machines
US6347337B1 (en) 1999-01-08 2002-02-12 Intel Corporation Credit based flow control scheme over virtual interface architecture for system area networks
US6646985B1 (en) 1999-06-03 2003-11-11 Fujitsu Network Communications, Inc. Congestion control mechanism in a network access device
JP2001081588A (ja) * 1999-09-13 2001-03-27 Mitsui Mining & Smelting Co Ltd 電解槽への給電構造及びその補修方法
US6901452B1 (en) 2000-03-02 2005-05-31 Alcatel Selectable prioritization for data communication switch
US6880086B2 (en) 2000-05-20 2005-04-12 Ciena Corporation Signatures for facilitating hot upgrades of modular software components
US6947419B2 (en) 2001-06-12 2005-09-20 Acute Technology Corp. Apparatus for multicast forwarding in a virtual local area network environment
US7042842B2 (en) 2001-06-13 2006-05-09 Computer Network Technology Corporation Fiber channel switch
US7263060B1 (en) 2001-06-28 2007-08-28 Network Appliance, Inc. Multiple switch protected architecture
US7173934B2 (en) 2001-09-10 2007-02-06 Nortel Networks Limited System, device, and method for improving communication network reliability using trunk splitting
US6760804B1 (en) * 2001-09-11 2004-07-06 3Com Corporation Apparatus and method for providing an interface between legacy applications and a wireless communication network
US7035220B1 (en) 2001-10-22 2006-04-25 Intel Corporation Technique for providing end-to-end congestion control with no feedback from a lossless network
US7668966B2 (en) 2001-11-02 2010-02-23 Internap Network Services Corporation Data network controller
US7561517B2 (en) 2001-11-02 2009-07-14 Internap Network Services Corporation Passive route control of data networks
US20030185206A1 (en) 2002-03-29 2003-10-02 Bhaskar Jayakrishnan Destination device bit map for delivering an information packet through a switch fabric
KR100472416B1 (ko) 2002-11-01 2005-03-11 삼성전자주식회사 패킷 플로우 제어 장치 및 방법
US7702729B2 (en) 2003-04-08 2010-04-20 Johanson Bradley E Event heap: a coordination infrastructure for dynamic heterogeneous application interactions in ubiquitous computing environments
JP2004355125A (ja) 2003-05-27 2004-12-16 Pioneer Electronic Corp ソフトウェア更新処理装置、そのシステム、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
US7508763B2 (en) 2003-09-04 2009-03-24 Hewlett-Packard Development Company, L.P. Method to regulate traffic congestion in a network
US7751416B2 (en) * 2003-09-18 2010-07-06 Cisco Technology, Inc. Virtual network device
US20050105538A1 (en) 2003-10-14 2005-05-19 Ananda Perera Switching system with distributed switching fabric
CN101087238B (zh) 2003-10-21 2010-08-04 华为技术有限公司 无源光网络的动态带宽分配装置及方法
JP3954007B2 (ja) 2003-11-13 2007-08-08 アンリツ株式会社 拡張中継システム及び中継装置
US7483370B1 (en) 2003-12-22 2009-01-27 Extreme Networks, Inc. Methods and systems for hitless switch management module failover and upgrade
US7593320B1 (en) 2004-04-30 2009-09-22 Marvell International, Ltd. Failover scheme for stackable network switches
GB2418326B (en) 2004-09-17 2007-04-11 Hewlett Packard Development Co Network vitrualization
US7830793B2 (en) 2004-10-22 2010-11-09 Cisco Technology, Inc. Network device architecture for consolidating input/output and reducing latency
US8238347B2 (en) 2004-10-22 2012-08-07 Cisco Technology, Inc. Fibre channel over ethernet
US7564869B2 (en) 2004-10-22 2009-07-21 Cisco Technology, Inc. Fibre channel over ethernet
US7974223B2 (en) 2004-11-19 2011-07-05 Corrigent Systems Ltd. Virtual private LAN service over ring networks
US20070036178A1 (en) * 2005-02-02 2007-02-15 Susan Hares Layer 2 virtual switching environment
EP1854250B1 (de) 2005-02-28 2011-09-21 International Business Machines Corporation Bladeserversystem mit mindestens einem stapelschalter mit mehreren untereinander verbundenen und für verwaltung sowie betrieb als virtueller einzelschalter konfigurierten schaltern
US8085657B2 (en) 2005-04-01 2011-12-27 Sony Corporation Flow control in a cellular communication system
CN100486216C (zh) 2005-07-15 2009-05-06 华为技术有限公司 一种提高虚拟交换系统中传输可靠性的方法
JP2007174152A (ja) 2005-12-21 2007-07-05 Fujitsu Access Ltd ネットワークの輻輳制御システムおよびその方法
JP2007208369A (ja) 2006-01-31 2007-08-16 Fujitsu Ltd ネットワークシステム及びネットワークシステムのノード冗長方法
CN100571249C (zh) 2006-02-27 2009-12-16 中兴通讯股份有限公司 一种实时确定传输的以太网通讯方法
US7515535B2 (en) 2006-05-10 2009-04-07 Cisco Technology, Inc. Technique for efficiently managing bandwidth for multipoint-to-multipoint services in a provider network
BRPI0806396B1 (pt) 2007-02-02 2020-04-28 Interdigital Tech Corp método e aparato para melhorar o rlc para tamanho flexível de pdu do rlc
US9661112B2 (en) 2007-02-22 2017-05-23 International Business Machines Corporation System and methods for providing server virtualization assistance
JP4753314B2 (ja) 2007-03-06 2011-08-24 Kddi株式会社 仮想閉域網を1つのレイヤ3スイッチとして設定管理するシステム及びプログラム
US8140696B2 (en) 2007-03-12 2012-03-20 International Business Machines Corporation Layering serial attached small computer system interface (SAS) over ethernet
US8320245B2 (en) 2007-03-13 2012-11-27 Alcatel Lucent Policy enforcement points
JP4888186B2 (ja) 2007-03-28 2012-02-29 富士通株式会社 通信システム、中継器、中継方法
WO2008154556A1 (en) 2007-06-11 2008-12-18 Blade Network Technologies, Inc. Sequential frame forwarding
US9667442B2 (en) 2007-06-11 2017-05-30 International Business Machines Corporation Tag-based interface between a switching device and servers for use in frame processing and forwarding
US7912003B2 (en) 2007-06-27 2011-03-22 Microsoft Corporation Multipath forwarding algorithms using network coding
WO2009042735A1 (en) 2007-09-25 2009-04-02 Blade Network Technologies, Inc. Apparatus for externally changing the direction of air flowing through electronic equipment
US7839777B2 (en) 2007-09-27 2010-11-23 International Business Machines Corporation Method, system, and apparatus for accelerating resolution of network congestion
US8867341B2 (en) 2007-11-09 2014-10-21 International Business Machines Corporation Traffic management of client traffic at ingress location of a data center
US8553537B2 (en) 2007-11-09 2013-10-08 International Business Machines Corporation Session-less load balancing of client traffic across servers in a server group
US7835306B2 (en) 2008-01-23 2010-11-16 Cisco Technology, Inc. Translating MST instances between ports of a bridge in a computer network
US8625592B2 (en) 2008-02-26 2014-01-07 Cisco Technology, Inc. Blade switch with scalable interfaces
US20110035494A1 (en) 2008-04-15 2011-02-10 Blade Network Technologies Network virtualization for a virtualized server data center environment
JP5104508B2 (ja) 2008-04-16 2012-12-19 富士通株式会社 中継装置およびパケット中継方法
US8385202B2 (en) 2008-08-27 2013-02-26 Cisco Technology, Inc. Virtual switch quality of service for virtual machines
US9426095B2 (en) 2008-08-28 2016-08-23 International Business Machines Corporation Apparatus and method of switching packets between virtual ports
US9237034B2 (en) 2008-10-21 2016-01-12 Iii Holdings 1, Llc Methods and systems for providing network access redundancy
US7929554B2 (en) 2008-12-23 2011-04-19 Cisco Technology, Inc. Optimized forwarding for provider backbone bridges with both I and B components (IB-PBB)
JP5177004B2 (ja) 2009-02-19 2013-04-03 富士通株式会社 動作モード変更装置および通信装置
CN102334112B (zh) 2009-02-27 2014-06-11 美国博通公司 用于虚拟机网络的方法和系统
US8238340B2 (en) 2009-03-06 2012-08-07 Futurewei Technologies, Inc. Transport multiplexer—mechanisms to force ethernet traffic from one domain to be switched in a different (external) domain
US8265075B2 (en) 2009-03-16 2012-09-11 International Business Machines Corporation Method and apparatus for managing, configuring, and controlling an I/O virtualization device through a network switch
US8665886B2 (en) 2009-03-26 2014-03-04 Brocade Communications Systems, Inc. Redundant host connection in a routed network
CA3002975C (en) 2009-04-01 2020-07-14 Nicira, Inc. Method and apparatus for implementing and managing virtual switches
JP5617839B2 (ja) 2009-04-24 2014-11-05 日本電気株式会社 パケット通信システム、パケット通信装置、パケット通信方法、パケット通信プログラムを記録したコンピュータ読み取り可能な記録媒体
US8325598B2 (en) 2009-05-20 2012-12-04 Verizon Patent And Licensing Inc. Automatic protection switching of virtual connections
US8174984B2 (en) 2009-05-29 2012-05-08 Oracle America, Inc. Managing traffic on virtualized lanes between a network switch and a virtual machine
US8638799B2 (en) 2009-07-10 2014-01-28 Hewlett-Packard Development Company, L.P. Establishing network quality of service for a virtual machine
US8204061B1 (en) * 2009-07-23 2012-06-19 Cisco Technology, Inc. Virtual port channel switches with distributed control planes
US8125928B2 (en) 2009-07-24 2012-02-28 Juniper Networks, Inc. Routing frames in a shortest path computer network for a multi-homed legacy bridge node
US9031081B2 (en) 2009-08-06 2015-05-12 Broadcom Corporation Method and system for switching in a virtualized platform
US8625427B1 (en) 2009-09-03 2014-01-07 Brocade Communications Systems, Inc. Multi-path switching with edge-to-edge flow control
JP5717164B2 (ja) 2009-10-07 2015-05-13 日本電気株式会社 コンピュータシステム、及びコンピュータシステムのメンテナンス方法
US8537860B2 (en) 2009-11-03 2013-09-17 International Business Machines Corporation Apparatus for switching traffic between virtual machines
US8665747B2 (en) 2009-12-03 2014-03-04 Cisco Technology, Inc. Preventing loops on network topologies built with virtual switches and VMS
US8369335B2 (en) 2010-03-24 2013-02-05 Brocade Communications Systems, Inc. Method and system for extending routing domain to non-routing end stations
US8625616B2 (en) 2010-05-11 2014-01-07 Brocade Communications Systems, Inc. Converged network extension
EP2489172B1 (de) 2010-05-28 2020-03-25 Huawei Technologies Co., Ltd. Virtuelle schicht 2 und mechanismus zu ihrer skalierung
US8634308B2 (en) 2010-06-02 2014-01-21 Brocade Communications Systems, Inc. Path detection in trill networks
US8885488B2 (en) 2010-06-02 2014-11-11 Brocade Communication Systems, Inc. Reachability detection in trill networks
US20110299533A1 (en) 2010-06-08 2011-12-08 Brocade Communications Systems, Inc. Internal virtual network identifier and internal policy identifier
US8446914B2 (en) 2010-06-08 2013-05-21 Brocade Communications Systems, Inc. Method and system for link aggregation across multiple switches
US9246703B2 (en) 2010-06-08 2016-01-26 Brocade Communications Systems, Inc. Remote port mirroring
US8406128B1 (en) 2010-06-29 2013-03-26 Amazon Technologies, Inc. Efficient highly connected data centers
US8588081B2 (en) 2010-07-14 2013-11-19 Cisco Technology, Inc. Monitoring a flow set to detect faults
US8873551B2 (en) 2010-07-30 2014-10-28 Cisco Technology, Inc. Multi-destination forwarding in network clouds which include emulated switches
US9059940B2 (en) * 2010-08-04 2015-06-16 Alcatel Lucent System and method for transport control protocol in a multi-chassis domain
US8345697B2 (en) 2010-08-17 2013-01-01 Dell Products, Lp System and method for carrying path information
US8498299B2 (en) 2010-08-19 2013-07-30 Juniper Networks, Inc. Flooding-based routing protocol having average-rate and burst-rate control
US9749241B2 (en) * 2010-11-09 2017-08-29 International Business Machines Corporation Dynamic traffic management in a data center
US20120131662A1 (en) 2010-11-23 2012-05-24 Cisco Technology, Inc. Virtual local area networks in a virtual machine environment
US20120163164A1 (en) 2010-12-27 2012-06-28 Brocade Communications Systems, Inc. Method and system for remote load balancing in high-availability networks
US9071630B2 (en) 2011-01-07 2015-06-30 Jeda Networks, Inc. Methods for the interconnection of fibre channel over ethernet devices using a trill network
US8478961B2 (en) 2011-03-02 2013-07-02 International Business Machines Corporation Dynamic migration of virtual machines based on workload cache demand profiling
KR101780423B1 (ko) 2011-03-18 2017-09-22 삼성전자주식회사 반도체 장치 및 이의 제조 방법
US8787377B2 (en) 2011-03-21 2014-07-22 Avaya, Inc. Usage of masked BMAC addresses in a provider backbone bridged (PBB) network
US8755383B2 (en) 2011-03-21 2014-06-17 Avaya, Inc. Usage of masked ethernet addresses between transparent interconnect of lots of links (TRILL) routing bridges
US8670450B2 (en) 2011-05-13 2014-03-11 International Business Machines Corporation Efficient software-based private VLAN solution for distributed virtual switches
US20120287785A1 (en) 2011-05-14 2012-11-15 International Business Machines Corporation Data traffic handling in a distributed fabric protocol (dfp) switching network architecture
US8635614B2 (en) 2011-05-14 2014-01-21 International Business Machines Corporation Method for providing location independent dynamic port mirroring on distributed virtual switches
US8837499B2 (en) 2011-05-14 2014-09-16 International Business Machines Corporation Distributed fabric protocol (DFP) switching network architecture
US8588224B2 (en) 2011-05-14 2013-11-19 International Business Machines Corporation Priority based flow control in a distributed fabric protocol (DFP) switching network architecture
US9736085B2 (en) 2011-08-29 2017-08-15 Brocade Communications Systems, Inc. End-to end lossless Ethernet in Ethernet fabric
US8767529B2 (en) 2011-09-12 2014-07-01 International Business Machines Corporation High availability distributed fabric protocol (DFP) switching network architecture

Also Published As

Publication number Publication date
GB201320969D0 (en) 2014-01-15
US20130022050A1 (en) 2013-01-24
GB2505129A8 (en) 2014-03-05
CN103534998A (zh) 2014-01-22
CA2833679C (en) 2019-05-07
KR20130143123A (ko) 2013-12-30
JP2013545359A (ja) 2013-12-19
KR101485728B1 (ko) 2015-01-22
WO2012156837A1 (en) 2012-11-22
US20120287939A1 (en) 2012-11-15
CA2833679A1 (en) 2012-11-22
GB2505129B (en) 2014-06-25
US8837499B2 (en) 2014-09-16
GB2505129A (en) 2014-02-19
US8798080B2 (en) 2014-08-05

Similar Documents

Publication Publication Date Title
DE112012002080T5 (de) Switching-Netzwerk-Architektur gemäss dem Distributed Fabric Protocol (DFP)
DE112012001320B4 (de) Prioritätsgestützte Flusssteuerung in einer Switching-Netzwerkarchitektur mit einem Protokoll einer verteilten Struktur (Distributed Fabric Protocol DFP)
DE112016007055B4 (de) Querverbindung von Switches auf der Basis eines hierarchischen Overlay-tunneling
DE60127794T2 (de) Gebundene Netzschalterkonfiguration
DE60133352T2 (de) Gebundene Netzvermittlungskonfiguration
DE60005993T2 (de) Verfahren und netzwerkvermittlungsstelle mit datenserialisierung durch gefahrlose mehrstufige störungsfreie multiplexierung
DE60126223T2 (de) Anordnung zur Verbindung von Netzvermittlungsstellen
DE60309947T2 (de) Hochgeschwindigkeitsprotokoll für die Verbindung von modularen Netzwerkelementen
DE60031515T2 (de) Netzwerkvermittlung
US8767722B2 (en) Data traffic handling in a distributed fabric protocol (DFP) switching network architecture
US8797843B2 (en) High availability distributed fabric protocol (DFP) switching network architecture
DE102011114278B4 (de) Verfahren und Vorrichtung, die eine Ausfallumschaltung für einen Punkt-Punkt-Tunnel für Split-Plane-Umgebungen drahtloser lokaler Netze bereitstellen
DE202015009244U1 (de) Routing von Datenverkehr innerhalb von und zwischen autonomen Systemen
DE102013208431B4 (de) Großer verteilter Switch auf Fabric-Basis unter Verwendung virtueller Switches und virtueller Steuereinheiten
DE112017000152T5 (de) Virtueller Core eines CCAP (Converged Cable Access Platform)
DE102012220834A1 (de) Verfahren und Vorrichtung zum Umsetzen eines flexiblen virtuellen lokalen Netzwerks
DE102014117460A1 (de) Programmierbares verteiltes Networking
DE60034320T2 (de) Verfahren zur vermeidung von nichtsequentiellen rahmen in einer netzwerkvermittlungsstelle
DE102011114272A1 (de) Paketweiterleitungsfunktion eines Mobilitätsswitchs, der als Routed-SMLT-(RSMLT-)Knoten eingesetzt wird
DE102011114276A1 (de) Ausfallsicherheit durch Routed Split Multi-Link Trunking für Split-Plane-Umgebungendrahtloser lokaler Netze
DE60215416T2 (de) Zeigerbasierte binäre Suchmaschine und dafür geeignetes Verfahren
DE112013000469T5 (de) Switch-Erkennungsprotokoll für ein verteiltes Struktursystem
DE60036292T2 (de) Architektur zur gruppenbasierten vermittlung
DE60037424T2 (de) Vereinigte Tabelle zur L2-, L3-, L4-Vermittlung und Filterung
DE60022870T2 (de) Verfahren zur überlastungsverwaltung in einer netzwerkvermittlung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: LIFETECH IP SPIES DANNER & PARTNER PATENTANWAE, DE

Representative=s name: LIFETECH IP SPIES & BEHRNDT PATENTANWAELTE PAR, DE

Representative=s name: SPIES & BEHRNDT PATENTANWAELTE PARTG MBB, DE

Representative=s name: SPIES DANNER & PARTNER PATENTANWAELTE PARTNERS, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04L0012560000

Ipc: H04L0012700000

R082 Change of representative

Representative=s name: LIFETECH IP SPIES DANNER & PARTNER PATENTANWAE, DE

Representative=s name: LIFETECH IP SPIES & BEHRNDT PATENTANWAELTE PAR, DE

Representative=s name: SPIES & BEHRNDT PATENTANWAELTE PARTG MBB, DE

R082 Change of representative

Representative=s name: LIFETECH IP SPIES & BEHRNDT PATENTANWAELTE PAR, DE

Representative=s name: SPIES & BEHRNDT PATENTANWAELTE PARTG MBB, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04L0012700000

Ipc: H04L0012715000

R082 Change of representative

Representative=s name: SPIES & BEHRNDT PATENTANWAELTE PARTG MBB, DE

R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04L0012715000

Ipc: H04L0045640000

R016 Response to examination communication
R018 Grant decision by examination section/examining division