-
Es
gibt verschiedene Arten von Computer-Kommunikationssystemen zum Abwickeln
der Kommunikation zwischen digitalen Nutzereinheiten wie Computer
und Workstations. Beispielsweise ist ein System, das zur Verbindung
von Computern in einem beschränkten
geografischen Gebiet (üblicherweise
bis zu etwa einer Meile) entworfen wurde, bekannt als Local-Area-Network
(LAN = lokales Netzwerk). Ein Beispiel für ein solches System ist Ethernet,
das von Xerox während
der späten
1970iger Jahre entwickelt wurde. Dieses arbeitet bei 10 Mbs und
die Daten werden in der Form von Ethernet Rahmen über verdrillte
(Kabel-) Paare versandt.
-
Über größere Distanzen
werden Wide Area Networks (WANs = Weitbereichsnetzwerke) benutzt.
Eine Form von WAN benutzt ATM (Asynchronous Transfer Mode = Asynchroner Übertragungsmodus).
ATM benutzt 53 byte- Zellen als eine Basiseinheit für den Transfer.
Jede ATM-Zelle ist aufgeteilt in 5 byte von ATM Overhead-Schicht
und 48 byte von ATM Nutzdaten. Ein ATM-Netzwerk ist im Wesentlichen von statistischer
Natur, wobei die ATM-Zellen über
virtuelle Kanäle übertragen
werden, die innerhalb des Netzwerkes eingerichtet werden.
-
Durch
den Einsatz eines Zellenswitching-Multiplexschemas optimiert ATM
die Nutzung der Bandbreite, indem es die Vorteile des statistischen
Multiplexens einer Switching Fabric nutzt. In einer homogenen ATM-Umgebung
sind ATM-Terminal-Adapter
mit der ATM-Switching Fabric verbunden, um eine möglichst
vollständig
vernetzte logisch verbundene Kommunikations-Infrastruktur zu bilden.
Ein ATM-Adapter ist jegliche Randeinrichtung, die eine Schnittstelle
für den
ATM-Zellenstrom
zu einem ATM-Dienst-Nutzer bildet. Typische Beispiele von ATM-Adaptern
umfassen ATM-Netzwerkschnittstellenkarten
(Network Interface Cards – NICs) für digitale
Computer.
-
Generell
werden vernetzte Computer mit LAN-Adaptern versehen zur Verbindung
mit einem lokalen Netz, wie Ethernet. Solche LAN-Adapter ermöglichen
nicht, sie mit großflächigen Netzwerken
zu verbinden wie mit ATM-Netzwerken. Während es möglich ist, spezielle ATM-Adapter-Karten
in vernetzte Computer einzubauen, erfordert dies, physisch auf die
Computer zuzugreifen und entsprechende Treiber-Software bereitzustellen.
-
Die
PCT-Anmeldung WO/93/26107 offenbart ein ATM-Ethernet-Portal, das ATM-Zellen
zu Ethernet-Rahmen umbaut und umgekehrt, um so Einrichtungen, die
an entfernten Ethernet LANs angebracht sind, zu ermöglichen,
transparent über
ein ATM-Netzwerk zu kommunizieren. Ein Portal, das zwischen jedem
Ethernet-Segment und dem ATM-Netzwerk angeordnet ist, segmentiert
ausgehende Ethernet-Rahmen in ATM-Zellen und umgekehrt. Diese Portale
arbeiten auf einer niedrigen Ebene in dem ISO-Model und sind nicht
in der Lage, mit Nicht-Ethernet-Einrichtungen zu kommunizieren.
-
Protokolle,
die oberhalb der Datenverbindungsschicht (Schicht 2) angeordnet
sind, werden durch diese Portale nicht interpretiert.
-
Bei
einer Ausführungsform
werden den Ethernet-Rahmen von einem Ethernet zu einem anderen über einen
virtuellen Circuit gesendet, der von Hand konfiguriert wurde. Dies
ist ein uneffizientes und zeitraubendes Verfahren. Bei einer anderen
Ausführungsform
werden permanente virtuelle Circuits durch das ATM-Netzwerk zwischen
jedem Paar von Portalen eingerichtet und ein übertragendes Portal sendet
Zellen an jedes Portal. Dies ist eine uneffiziente Nutzung der Bandbreite,
da die Zellen an alle Portale gesendet werden müssen und so das Netzwerk unnötigerweise
verstopfen.
-
Bei
einer anderen Ausführungsform
sendet ein Verbindungsprozessor, der an einen Host an einem der Ethernet-Segmente
angebracht ist, Instruktionen aus, um die Multipoint-Verbindungen
zwischen den Portalen zu konfigurieren, die an den verschiedenen
Ethernet-Segmenten angebracht sind. Das Übertragungsportal sendet dann
ausgehende ATM-Zellen an alle Portale auf der Multipoint-Verbindung
(ineffiziente Nutzung der Bandbreite). Bei einer anderen Ausführungsform
wird eine primitive Form von Routing benutzt, indem der Verbindungsprozessor
die lokalen Portale mit einem der voretablierten virtuellen Circuits
anweist, die ausgegangenen Zellen weiter zu senden. Dies funktioniert
nur, falls der Verbindungsprozessor, der mit dem lokalen Portal
verbunden ist, bereits eine PVC mit dem entfernten Portal aufgebaut
hat.
-
In
der PCT-Anmeldung WO/93/26107 werden permanente virtuelle Circuits
benötigt
zwischen jedem Paar von Portalen, was die Größe des Systems erheblich begrenzt.
Dies ist analog zu einem nicht vermittelten Telefonsystem, wo jedes
Paar von Telefonen miteinander verbunden sein muss. Die Anzahl der
Verbindungen steigt exponentiell mit der Anzahl von Telefonen. Weiterhin
muss jedes Portal wissen, welcher Circuit zu dem Portal führt, mit
dem die Zieleinrichtung verbunden ist, so dass die Verbindungstabelle
in jedem Portal jedes Mal aktualisiert werden muss, wenn eine Einrichtung
an das Netzwerk angeschlossen wird. Das in der obigen Anmeldung
beschriebene System ist lediglich für eine kleine Anzahl von Portalen
gedacht. Falls kein Circuit existiert zu einem Portal, können die
Portale nicht über
das Netzwerk kommunizieren.
-
Schließlich ist
das in der obigen PCT-Anmeldung beschriebene System lediglich entworfen
worden, um Ethernet- Rahmen über
eine ATM-Struktur zwischen Ethernet-Segmenten zu übertragen.
Es erlaubt nicht, zwischen einer Einrichtung zu kommunizieren, die
an einem Ethernet angeschlossen ist und einer Einrichtung, die an
einer ATM angeschlossen ist.
-
EP 473 066 beschreibt ein
Netzwerk, in dem LANs mit einem ATM-Netzwerk über entsprechende Brücken verbunden
sind. Jede Brücke
hält die
Adressen von allen Einrichtungen des Netzwerkes vor. Das Problem
bei dieser Anordnung ist, dass es nicht reagiert auf die Gegenwart
von neuen Terminals, so dass, falls eine Brücke die Adresse eines Zielterminals
nicht kennt, sie das gesamte ATM-Netzwerk überschwemmen muss, wodurch
sie unerwünschterweise
große
Mengen der Bandbreite verbraucht.
-
EP 524 316 beschreibt ebenfalls
ein System zur Verbindung von LANs (verbindungslose Netzwerke) durch
ATM-Strukturen (verbindungsorientierte Netzwerke). Bei diesem System
werden verbindungslose Server mit jedem ATM-Switch assoziiert und
die segmentierten LAN-Rahmen müssen
erst als ATM-Zellen durch eine permanente virtuelle Verbindung [(permanent
virtual connection (PVC)] zu einem Sendeserver geleitet werden,
und dann von diesem Sendeserver über
die ATM-Struktur an den empfangenden Server, von dem die Zellen über eine
zweite permanente virtuelle Verbindung zu einem Reassembler gesandt
werden. Während dies
eine Verbesserung ist gegenüber
dem Stand der Technik, der zu diesem Patent beschrieben wurde, erfordert
dieses System, dass jedem Switch ein verbindungsloser Server zugeordnet
wird und dass eine PVC (die teuer ist) zwischen dem verbindungslosen
Server und dem Terminal aufrecht zu erhalten ist, den er versorgt.
Weiterhin muss jeder verbindungslose Server die Anzahl der Zielterminals
beibehalten. Falls der verbindungslose Server nicht die Zieladresse
kennt, kann er die Zellen nicht an die korrekte Zieleinrichtung
senden, ohne das Netzwerk zu überschwemmen;
eine Operation, die große
Mengen von nutzloser Bandbreite verbraucht.
-
All
die Systeme nach dem Stand der Technik wurden entworfen als ein
Mittel zur Errichtung der Kommunikation zwischen Einrichtungen,
die an LANs angekoppelt sind, die durch ein ATM-Netzwerk verbunden sind.
Keines dieser Systeme berücksichtigt
die Möglichkeit,
dass LAN-verbundene Vorrichtungen mit anderen Vorrichtungen kommunizieren,
die direkt mit dem ATM-Netzwerk verbunden sind.
-
Eine
Aufgabe der Erfindung ist es, diese Nachteile zu umgehen. Die Merkmale
der Erfindung werden in den unabhängigen Ansprüchen definiert.
-
Die
Erfindung kann implementiert werden mit Benutzereinrichtungen wie
Personalcomputer, die über das
ATM-Netzwerk verbunden
sein können
bei Anwendung der vorhandenen LAN-Adapter. Das gesamte Netzwerk,
einschließlich
der ATM-Switching
Struktur, kann somit agieren wie ein virtuelles LAN.
-
Bei
einer Ausführungsform
sind die ATM-Zellen gekapselt in LAN-Rahmen und werden in gekapselter Form über das
Ethernet LAN direkt zu den LAN-Adapter-Karten geliefert. Bei einer
anderen Ausführungsform sehen
die Schnittstellenmittel Überbrückung vor
sowie Netzwerkschicht-Forwarding und LAN-Emulationsfunktionen, um eine transparente
Kommunikation zwischen jeglichen der genannten Benutzereinrichtungen über das
ATM-Netzwerk zu ermöglichen.
Eine solche Einrichtung erzeugt LAN-Rahmen aus den ATM-Zellen und umgekehrt
und ist bekannt als ein "Ridge" oder "bridge/router" (Brücke/Router).
Ein Vorteil dieser Anordnung ist, dass weder die Netzwerk-Interfaceadapter
noch die dazu gehörende
Treibersoftware an den lokalen Workstations ersetzt werden müssen.
-
Das
gesamte ATM-Netzwerk wird abgebildet als ein verteilter Router,
der die Topologie und die Erreichbarkeitsinformationen mit externen
Routing-Peers teilt. Verbindungen innerhalb des Netzwerks werden bei
Bedarf aufgebaut durch Anrufe mit niedriger Priorität, die über vordefinierte
virtuelle Pfade geleitet werden, die jeweils eine Vielzahl von Verbindungen
mit ähnlichen
Verkehrscharakteristika enthalten. Da jede Verbindung nur eine kleine
gebundene Informationsrate hat, es ihr aber erlaubt ist, auf dem
Level des virtuellen Wegs, der sie enthält, aufzutreten, werden die
Ressourcen kontrolliert, während
gleichzeitig statistische Vorteile durch die Ansammlung von Verkehr
erreicht werden.
-
Das
Netzwerk von ATM-Switches emuliert ein LAN und das System funktioniert
als ein extrem großer, verteilter
Bridge/Router. Die Einrichtungen, die sich mit dem System verbinden, "glauben", dass sie sich mit einem
großen
LAN verbinden. Es scheint, dass irgendwo auf dem LAN ein Router
ist, durch den viele andere Netzwerke erreicht werden können. Die
Einrichtungen sind sich vollständig
im Unklaren über
die tatsächliche Architektur
des Systems. Sie haben keine Möglichkeit
zu wissen, dass das LAN erstreckt wird über die ATM-Struktur und dass
das Netzwerk hinter dem "Router" ebenfalls Teil der
gleichen ATM-Struktur ist. Router, die mit dem System verbunden
sind, sehen es auch als ein LAN an mit einem angekoppeltem Router.
Routinginformationen werden ausgetauscht zwischen den externen Routingrechnern
oder Routingservern und dem "Ridge" unter Benutzung
von Standardroutingprotokollen.
-
Die
Erfindung wird nun detaillierter beschrieben, lediglich als Beispiel,
unter Bezugnahme auf die beigefügten
Zeichnungen, bei denen:
-
1 ein
Blockdiagramm eines großflächigen Netzwerkes
ist, das gemäß einer
ersten Ausführungsform
der Erfindung arbeitet;
-
2 ein
Blockdiagramm eines großflächigen Netzwerks
ist, das gemäß einer
zweiten Ausführungsform
der Erfindung arbeitet;
-
3 ein
Diagramm ist, das die Funktion eines "Ridges" entsprechend einem bevorzugten Ausführungsbeispiel der
Erfindung darstellt;
-
4 ein
Blockdiagramm ist, das die interne Funktion des "Ridges" detaillierter zeigt.
-
5 den
generellen Verkehrsstrom in dem "Ridge" zeigt;
-
6 den
Verkehrsstrom in der Ethernet-ATM-Richtung für den "Ridge" zeigt;
-
7 den
Verkehrsstrom in der ATM-Ethernet- Richtung für den "Ridge" zeigt;
-
8 ein
QMAC in größerem Detail
zeigt;
-
9 ein
Blockdiagramm einer Suchmaschine ist;
-
10 ein
Diagramm ist, das den Pufferstrom In dem "Ridge" zeigt;
-
11 ein
Blockdiagramm eines PHY-Moduls ist;
-
12 ein
detailliertes Blockdiagramm eines Routingservers für ein ATM-LAN-Netzwerk
ist;
-
13 ein
vorbekanntes OAM-Bearbeitungsbetriebsmittel für einen ATM-Switch zeigt;
-
14 ein
OAM-Bearbeitungsbetriebsmittel gemäß einer Ausführungsform
der Erfindung zeigt;
-
15 ein
typisches Beispiel eines verbundenen Systems von Ethernet- angekoppelten
Computern und ATM-angekoppelten
Computern darstellt;
-
16 schematisch
die relevanten internen Merkmale der Schichten zeigt, die in den
Ethernetangekoppelten Endstationen beschrieben sind, die ATM-Dienste
nutzen;
-
17 einen
virtuellen ATM-Switch zeigt; und
-
18 schematisch
Details eines virtuellen ATM-Switches illustriert, der in der 17 detaillierter
gezeigt ist.
-
Gesichtspunkte
der folgenden Beschreibung, die ein bevorzugtes Ausführungsbeispiel
der vorliegenden Erfindung betreffen, werden mit Bezug auf die 3 und 4 gegeben.
-
Unter
Bezugnahme nun auf die 1 bestimmen ATM-Switches 1a, 1b, 1c ein
großflächiges Netzwerk
(WAN) mit asynchronen Übertragungsmodus.
Der Switch 1a ist durch eine Netzwerk-Schnittstellenkarte (NIC) 2 mit
einem Routingserver 4 verbunden und durch eine Netzwerkschnittstellenkarte
(NIC) 3 mit einem Systemmanager 5.
-
Die
Workstation 12 ist auf herkömmliche Weise über eine
Netzwerk-Schnittstellenkarte (NIC) 13 mit dem großflächigen Netzwerk
verbunden. NIC 13 ist speziell angepasst, um die Workstation 12 mit
dem ATM-Netzwerk zu verbinden.
-
Die
Switches 1a, 1b, 1c sind ebenfalls verbunden
durch WAN-LAN-Schnittstelleneinrichtungen 6, die als "Ridges" bekannt sind, mit
Router 9, Workstation 8, Hub 10, Bridge 11 und
SNMP-Manager 14, die jeweils lokale Netzwerkadapter haben
zur Verbindung mit einem lokalen Netzwerk, in diesem Fall Ethernet.
-
Die
Einrichtungen 8, 9, 10 und 11 sind
mit entsprechenden Ethernet-Ports des Ridges 6a verbunden und
der SNMP-Manager 14 ist dargestellt als verbunden mit einem
der Ethernet-Ports von Rigde 6b.
-
Das
großflächige Netzwerk
arbeitet unter der Steuerung des Routing-Servers 4, der
von dem verbindungslosen Modell von herkömmlichen LANs zu dem verbindungsorientierten
Modell von ATM übersetzt.
Es implementiert traditionelle Routing-Tabellen-Verbindungsprotokolle
(z.B. RIP und OSPF) und kommuniziert mit externen Routing-Rechnern,
um die ausgedehnte Topologie des verbindungslosen Netzwerks zu lernen.
Es erkennt auch die Anwesenheit von allen anderen externen Einrichtungen,
um seine Kenntnisse der Topologie des verbindungslosen Netzwerks
zu komplettieren.
-
Der
Routing-Server 4 lernt die Topologie des ATM-Netzwerkes
von dem Systemmanager 5 und konfiguriert die Ridges 6 nach
Bedarf um zwischen der ATM-Topologie und der LAN-Topologie zu kartieren.
-
Die
Funktion des Routing-Rechners 4 ist, die Topologie der
Einrichtungen, die an das ATM-LAN-System angekoppelt sind, zu pflegen.
Die Topologie-Information wird benötigt, um LAN-Verkehr von der
Quelle zum Ziel über
ein ATM-Netzwerk zu verschicken und zu routen. Das Verkehrs-Forwarding
wird sowohl durch den Routing-Server 4 ausgeführt als
auch durch die Ridges 6 unter Benutzung von Informationen,
die der Routing-Rechner an sie über
die Topologie übermittelt.
Diese Fähigkeit,
Einrichtungen zu erlauben, irgendwo im Netzwerk anzukoppeln, die
diese Konfiguration ermöglicht,
ist einmalig bei diesem System und die Funktion wird durchgeführt durch
das Routing-Server-Topologie-Management.
-
Der
Routing-Server 4 enthält
demgemäß die administrative
Information, die ein virtuelles LAN definiert, wie die LAN-Netzwerknummern
und Einrichtungsmitgliedschaften, Filter und Zugangsbeschränkungen.
-
Der
Routing-Server kennt das Layout der Switches und Hauptleitungen
und erkennt das Vorliegen von allen angeschlossenen Einrichtungen.
Der Routing-Server 4 benutzt diese Kenntnisse des vollständigen Netzwerks
um sicherzustellen, dass Packets durch das System korrekt zugesandt
werden, unter Benutzung eines dynamischen Geflechts von ATM-Verbindungen.
-
Bei
kleineren Netzwerken dient der Routing-Server 4 auch als
ARP-Server und als Broadcastserver (größere Netzwerke werden mehrere
separate Routing-, ARP- und Broadcastserver enthalten). In dieser
Rolle übersendet
der Routing-Rechner 4 Broadcastverkehr an jedes andere
Netzwerkelement, das ihn erhalten soll. Dies erlaubt es dem Routing-Server 4,
verschiedene Heuristika und Optimierungen zu verwenden, um die Menge
von Broadcastverkehr zu begrenzen, der durch das Netzwerk fließt. Beispielsweise
können
ARP-Anfragen oft direkt durch den Routing-Server behandelt werden,
der die Adressen der meisten in dem Netzwerk vorhandenen Einrichtungen
bereits kennt. Für
die Packets, die "geflutet" werden müssen, kann
der Routing-Server eine einfache Kopie des Packets an jeden Ridge
senden, für
den die Übertragung
gedacht ist, zusammen mit einer Maske, um die Ports anzugeben, über die
das Packet zu fluten ist.
-
Ein
vereinfachtes Blockdiagramm des Routing-Servers 4 ist in 12 gezeigt.
Der Routing-Server 4 enthält einen zentralisierten Routing-
und Forwardingserver 400, einen NIC Einrichtungstreiber 407,
einen Transaktions-Manager 402, einen Topologie-Manager 403,
einen Multicast-Server 404, einen Routing- Manager 405 und
einen ADP-Manager 406.
-
Die
Einrichtungen 402 bis 406 sind verbunden mit dem
Forwarder 400 und dem SNMP-Agenten 408. Der Transaktionsmanager 402 ist
verbunden mit dem Standby-Server 409. Der Forwarder 400 ist
direkt verbunden mit dem SNMP-Agenten 408.
-
Der
Routing-Server 4 pflegt die Kenntnisse über den Standort aller Einrichtungen
im System. Diese Information wird dynamisch gelernt, während sich
Einrichtungen mit dem Netzwerk verbinden und wird gelernt durch
Kommunikation Über
Standard-Routing-Protokolle z.B. IP und IPX, mit Routing-Rechnern
am Rande des Systems. Diese Kenntnisse werden verteilt an die Ridges 6 über ein
Adress-Verteilungsprotokoll.
Die Kommunikation mit den Ridges 6 erlaubt es den Ridges,
Datenübertragung
direkt mit einer Majorität
der Daten durchzuführen.
-
Der
zentralisierte Multicast-Server 404 bearbeitet den gesamten
Multicast-Verkehr. Wo möglich
reagiert der Routing-Server
auf die übersandten
Daten, ohne weiter in das Netzwerk zu übertragen.
-
Der
Routing- Rechner 4 führt
auch das LAN-Topologie-Management aus, um dynamisch das Zufügen, das
Bewegen und die Änderung
von LAN-Einrichtungen zu ermöglichen
und um Zugangskontrolle bei Einrichtungen durchzuführen gemäß Regeln,
die durch den Systemadministrator festgestellt wurden.
-
Die
Einrichtungen 9 bis 14, die an einen ATM-LAN angekoppelt
sind, werden dynamisch erkannt durch den Routing-Server und falls
erlaubt, in das Netzwerk zugelassen. Die Ridges 6 partizipieren
bei der Erkennung durch Detektierung der Einrichtung. Der Routing-Server 4 bestimmt,
ob der Zugang erlaubt ist und falls ja, welche Dienste erlaubt sind.
Der Routing-Server 4 pflegt außerdem die Kenntnisse über den
Standort der Einrichtungen über
längere
Zeitdauern. Der Routing-Server erlaubt Einrichtungen von unterschiedlichen
Netzwerken, Ports in das System zu teilen.
-
Der
Routing-Server 4 ermöglicht
auch eine flexible, übertragbare
und redundante Plattformunterstützung.
Der Routing-Server 4 wird auf einer SUN-Workstation mit
einer ATM-Schnittstellenkarte gefahren, die sowohl einzeln als auch
Multiprozessor-Plattformen unterstützt. Ein redundanter Routing-Server 409 wird
unterstützt
und übernimmt
im Falle des Ausfalls des primären
Routing-Servers 400. Ein ATM-basiertes Übertragungsprotokoll wird zwischen
den zwei Plattformen benutzt, um die Koordination sicherzustellen.
-
Einer
der Vorteile der beschriebenen Architektur ist, dass sie die Anwendung
von Fernüberwachung der
Ridges ermöglicht.
Die Daten von einem überwachten
Port, einschließlich
Fehler, werden über
das Netzwerk zu einem Fernüberwachungs-Port übertragen,
um die Daten von dem überwachten
Port an dem Fernüberwachungs-Port
zu replizieren. Dies ermöglicht,
Tests an dem überwachten
Port ferndurchzuführen,
als ob sie vor Ort wären.
-
Vorzugsweise
werden überwachte
Packets gekennzeichnet, um zu verhindern, dass sie als normal empfangene
Packets durch das empfangende Ridge behandelt werden.
-
Zurückkehrend
zu 1 sieht jeder ATM-Switch 1 Hochbandbreiten-Zellenswitching
vor, was der Kern des Systems ist. Es gibt drei Arten von ATM-Switches,
nämlich
einen ATM-Arbeitsgruppenswitch (WGS) (= Work Group Switch), eine
36170 Switching Shelf und einen 36170 Access Shelf.
-
Der
WGS ist ein billiger 12-Port, 1,6 Gbit/s ATM-Switch zum Gebrauch
in Kundeneinrichtungs-Anwendungen.
-
Der
36170 Switching Shelf ist ein 12,8 Gbit/s ATM-Switch, der bis zu
8 ATM-Feeder Switches und/oder Access Shelves verbindet. Der 36170
Access Shelf ist ein 1,6 Gbit/s ATM-Switch mit 12 Steckplätzen. Jeder Steckplatz
kann einen von mehreren ATM-Schnittstellen enthalten. Der WGS wird
detaillierter beschrieben mit Bezug auf die 13 und 14.
-
Zur
Zeit benötigen
ATM-Switches, die OAM-(Operation and Management – Betrieb und Management)-Unterstützung an
einem Zugangsport vorsehen, einen spezifischen Mikroprozessor 52,
um OAM-Zellen zu interpretieren und zu erzeugen. OAM-(Operation
and Management)-Zellen werden übertragen
zu und von dem Mikroprozessor durch eine Zellenbearbeitungsmaschine 50,
die ein gemeinsames RAM 51 nutzt, wie in 13 gezeigt.
-
Der
Nachteil bei dieser Vorgehensweise ist, dass zusätzliche Kosten und Komplexität (PCB-Bereiche, zusätzliche
Bauelemente, gemeinsame RAM-Systeme) benötigt werden, um die OAM-Funktionalität zu unterstützen. Diese
zusätzlichen
Kosten verhindern die Möglichkeit,
einen kostengünstigen,
voll ausgerüsteten
Multiportswitch zu machen.
-
Gemäß der Erfindung,
wie sie in 14 dargestellt ist, wird die
Zellenbearbeitungsmaschine modifiziert, um alle wichtigen OAM-Zellen
zu einer zentralisierten OAM-Bearbeitungs-Ressource zu leiten unter
Benutzung von vorkonfigurierten internen Switchadressen. Alle Bearbeitungen
der Zellen finden auf diesem einen Mikroprozessor statt und dies
beseitigt die Notwendigkeit für
einen spezialisierten Mikroprozessor 52 an jedem Port,
wie in 14 gezeigt.
-
Bei
einem geeigneten Schema bilden Zellen mit VCI (Virtual Channel Identifier
= Virtueller Kanalidentifizierer) – drei oder vier (Segment und
Ende-zu-Ende) und VP (virtual Path – virtueller Pfad) vermittelt
den F4 (VPC (Virtual Path Connection = Virtuelle Pfadverbindung))
OAM-Fluss. Zellen mit PTI (Payload Type Identifier Nutzdaten-Art
Identifizierer) – 4
oder 5 (Segment und Ende-zu-Ende) und VC vermittelt, bilden die
F5 (VCC (Virtual Channel Connection – virtuelle Kanalverbindung)
OAM-Fluss.
-
Zutritts-
F4/F5 OAM-Strömungszellen
mit einem OAM-Zellentyp = 0001 (Fehlermanagement) und einem Funktionstyp
= 0000, 0001 oder 1000 (AIS, FERF, Loopback) werden von dem Zellenstrom
abgetrennt und umgeleitet unter Benutzung eines vorbestimmten Headers.
Diese Zellen sind die, die durch den zentralisierten OAM-Prozessor
bearbeitet werden.
-
Eine
geeignete zentralisierte OAM-Bearbeitungs-Ressource ist ein CCM
(Control Complex Module – Steuerkomplexmodul),
das verantwortlich ist, um OAM-Unterstützung an alle UCS (Universal
Card Slot = universeller Kartenschlitz)-Module zu liefern. Die UCS-Module
leiten die benötigten
Zugangs-OAM-Zellen [VC AIS (Virtual Channel Alarm Indication Signal
= virtueller Kanal-Alarmanzeige-Signal), VC FERF (Virtual Channel
Far End Receiver Failure = virtueller Kanal-Empfänger-Fehler am entfernten Ende),
VP AIS (Virtual Path Alarm indication Signal – virtueller Pfad-Alarmanzeige-Signal),
VP FERF (Virtual Path Far End Receiver Failure = virtueller Pfad-Empfänger-Fehler
am entfernten Ende), Segment Loopback, End-to-End Loopback] an den
CCM. Der CCM erzeugt die benötigten
Austritts-OAM-Zellen.
-
ATM-Switches
nach dem Stand der Technik, die UPC (Usage Parameter Control = Gebrauchsparameter-Steuerung)
implemetieren, ATM-Adressenübersetzung
oder andere verbesserte Funktionalität am Hochgeschwindigkeits-(155
Mbps oder größer) Zutritts-
oder Austrittsports, benötigen
einen spezifischen Mikroprozessor, um portspezifische Parameter
zu aktualisieren, die in einem Dual-Port gemeinsamen Memorysystem vorliegen.
Diese Parameter können
neue VPI/VCIs, Anwender Switch-Header, UPC-Parameter, Statistiken und
Verbindungszulässigkeiten
enthalten. Wenn eine Zelle an dem Zutritts- oder Austrittsport ankommt,
benutzt dann eine Hardware-(H/W)-Maschine diese Parameter, um die
Zellen entsprechend zu bearbeiten.
-
Der
Nachteil bei diesem Ansatz ist, dass zusätzliche Kosten und Komplexität (PCB-Bereich,
zusätzliche
Komponenten, gemeinsame RAM-Systeme) benötigt werden, um die verbesserte
Funktionalität
zu implementieren. Diese zusätzlichen
Kosten verhindern die Möglichkeit,
einen preiswerten, voll ausgerüsteten
Multiport-Switch herzustellen.
-
Eine
verbesserte Funktionalität
wird der H/W-Zellen-Bearbeitungsmaschine
zugefügt,
um die Notwendigkeit für
den zusätzlichen
Prozessor und gemeinsame Memory-Systeme zu eliminieren. Um dies
zu tun, werden die Daten- und Steuerströme zusammengeführt und
die H/W-Zellen-Bearbeitungsmaschine wird so ausgelegt, dass sie
die Steuerzellen interpretieren kann. Dies aktualisiert das RAM
nach Bedarf, um Zutritts- und Austrittsverbindungen zu konfigurieren
und sendet Erwiderungen auf Statusanfragen. Dies kann erreicht werden
durch Einführen
eines feldprogrammierbaren Gate Arrays, wie eines verfügbar ist
von der Xilinx Corporation, in der Zellen-Bearbeitungsmaschine.
Die Zellen-Bearbeitungsmaschine kann dann die Steuerzellen interpretieren.
-
Ein
zusätzlicher
Vorteil dieses Ansatzes ist eine Reduktion im Bandbreitenbedarf
des RAM-Systems. Vorhandene Implementierungen benötigen Hochgeschwindigkeit
SRAM, um die gemeinsamen Memory-Systeme zu implementieren. Durch
Eliminierung der Notwendigkeit, durch den externen Mikroprozessor
zusätzliche
Zugriffe vorzusehen, kann die RAM-Bandbreite deutlich reduziert
werden.
-
Diese
Technologie kann bei jedem ATM Switch benutzt werden. Zusätzlich kann
dieser Ansatz benutzt werden von jeder Leitungskarte in einer Switchumgebung,
die häufigere
Parameter-Aktualisierungen benötigt.
-
Zurückkehrend
nun zu 1 sind die ATM-Switches 1a, 1b, 1c mit
den entsprechenden Ridges 6a, 6b, 6c verbunden.
-
In
einer Ausführungsform
hat jedes Ridge 6 zwölf
Ethernet Ports 7 zur Verbindung mit einem Ethernet-LAN,
Ethernet-Adapter von einer lokalen Workstation 8, einen
konventionellen Router 9, Hub 10 oder Brücke 11.
-
Die
Ridges 6 führen
das Brücken
aus, das Netzwerkschicht-Forwarding
und LAN-Emulationsfunktionen, um eine transparente Kommunikation
zwischen jeder der Benutzereinrichtungen über das ATM-Netzwerk zu ermöglichen.
Die Ridges ermöglichen
den Einrichtungen, die für
Kommunikation in der LAN-Umgebung entworfen wurden, über die
ATM-Umgebung zu kommunizieren. Tatsächlich führen die Ridges 6 Grundschritte aus
wie folgt:
-
(1) Validierung der Quellenadresse
-
Wenn
ein Packet auf einem Ridge-LAN-Port ankommt, verifiziert das Ridge,
dass es die Quellen-MAC-Adresse an dem Port zuvor gesehen hat.
-
Falls
die Adresse in der Quellen-Adressentabelle für den Port gefunden wurde,
läuft das
Packet weiter zur Zielidentifizierung.
-
Falls
die Adresse nicht gefunden wird, ist eine neue Station im System
hinzugekommen und das Packet wird an den Routing-Server geleitet
zur Bearbeitung
-
(2) Zielidentifizierung
-
Nachdem
das Ridge die Quellenadresse des Packets validiert hat, untersucht
es die MAC-Ziel-Adresse des Packets. An diesem Punkt können verschiedene
Möglichkeiten
auftreten:
- – Das Packet ist adressiert
an eine Broadcastadresse oder an eine MAC-Adresse, die nicht in
der Ziel-Adressentabelle des Ridges ist. Das Packet wird an den
Routing-Server zur Bearbeitung übergeben.
- – Das
Packet ist adressiert an die MAC-Adresse des VIVID "Routing-Rechners" selbst. Dies bedeutet,
dass das Packet weitergeleitet werden muss, so dass die Netzwerkschichtadresse
des Packets untersucht wird. Falls die Netzwerkschichtadresse in
der Ziel-Adressentabelle ist, wird die Forwarding Information aus
der Tabelle entnommen und das Packet läuft weiter zur Filterstufe.
Andernfalls wird das Packet an den Routing-Server übergeben.
- – Das
Packet ist adressiert an eine MAC-Adresse, die in der Ziel-Adressentabelle
des Ridges ist. In diesem Fall kann das Packet gebrückt werden
und so wird die Forwarding Information aus der Tabelle entnommen und
das Packet läuft
weiter an die Filterstufe.
-
Der
Zweck dieses Schritts ist es, die logische Zieladresse in der Nachschlagtabelle
einer physikalischen Adresse für
das Ausgangsmedium zuzuordnen. Die Forwarding Information, die aus
der Ziel-Adressentabelle erhalten wird, ist deshalb davon abhängig, wie
und wohin das Packet übersandt
wird. Falls die Zieleinrichtung an einen Port an dem Ridge angekoppelt
ist und das Packet über
eine MAC Schicht übertragen
wird, wird die Ziel-Port ID aus der Tabelle entnommen. Falls die
Zieleinrichtung an einen Port des Ridges angekoppelt ist, und das
Packet über
eine Netzwerkschicht übertragen
wird, werden der Ziel-Port ID und die MAC-Adresse der Zieleinrichtung
entnommen.
-
Schließlich wird,
falls das Ziel an einem anderen Ridge angeordnet ist, lediglich
die ATM-Adresse des Ausgangs-Ridges aus der Tabelle entnommen.
-
Die
Kartierung der physikalischen zur logischen Vernetzung wird an diesem
Punkt durchgeführt
durch Assoziierung einer geographisch basierten physikalischen Schicht-ATM-Adresse
mit der logischen Netzwerkschicht-Zieladresse innerhalb des Packets.
-
(3) Filterung
-
Nachdem
die Quelle und die Zieladresse der Packets verifiziert wurden, überprüft das Ridge
um festzustellen, ob es den Einrichtungen erlaubt ist, miteinander
zu reden. Üblicherweise
ist dies einfach eine Überprüfung der
Quellenadresse, der Zieladresse und des Protokolltyps, obwohl es
notwendig sein kann, tiefer in das Packet zu schauen, um bei Bedarf
Applikations-Levelfilterung durchzuführen. Falls es den Einrichtungen nicht
erlaubt ist, miteinander zu kommunizieren, wird das Packet verworfen.
-
Andernfalls
wird das Packet weitergeleitet an die Umsetzungsstation.
-
(4) Umsetzung
-
Falls
das Packet durch einen LAN-Port in das System eingetreten ist und
forwarded wird über
eine Netzwerkschicht, wird die Ethernet- oder die 802.3 Verkapselung
entfernt zusammen mit der Quellen- und der Ziel-MAC-Adresse aus
dem Packet und die Time-to-Live für das Packet wird vermindert.
Das Packet wird dann verkapselt als ein geroutetes PDU, um über die
ATM Struktur übertragen
zu werden.
-
Wenn
das Packet an einen Ridge-Port gesandt wird, wird die Quell-MAC-Adresse
des Packets auf die MAC-Adresse des VIVID "Routingrechners" gesetzt. Die Ziel-MAC-Adresse wird
auf den Wert gesetzt, der erhalten wurde von der Zieladressentabelle
während
der Zielidentifizierung. Dann wird das Packet in der für das LAN
geeigneten Form verkapselt.
-
(5) Anrufaufbau
-
Falls
das Packet über
die ATM-Struktur übersandt
werden soll, überprüft das Ridge,
um zu sehen, ob es ein SVC zu dem Austritts-Ridge hat. Falls ein
SVC bisher noch nicht eingerichtet wurde, wird ein Ruf erzeugt zu
dem Austritts-Ridge
unter Benutzung der ATM-Adresse, die während der Zielidentifizierung
erhalten wurde.
-
(6) Übertragung
-
Das
Packet wird übertragen
auf den Ridge-Austritts-Port oder fragmentiert in ATM-Zellen und über ein SVC
zu dem Austritts-Ridge übertragen.
Jedes Ridge 6 sieht deshalb Medien-Raten-Verbindungen vor
zwischen einem herkömmlichen
Local Area Network (LAN) (z.B. Ethernet/802.3, Token Ring/802.5,
Fiber Distributed Data Interface (FDDI), etc.) und dem asynchronen
Transfermodus (ATM) Wide Area Network.
-
Die
Ridges 6 können
angesehen werden als 178,560 pps-Switching-
und Konzentrationselemente. Die durch die Ridges ausgeführten Funktionen
sind mehr spezifisch:
- a) ATM-Schichtsegmentation
und Wiederzusammensetzung,
- b) ATM-Adaption Schicht 5 (AAL5),
- c) Verkapselung und Entkapselung von Rahmen in RFC 1483 Headern,
- d) Ableitung einer ATM-Adresse und/oder einer VPI/VCI von dem
Header eines Rahmens,
- e) Ethernet-Brückung
oder Netzwerk-Schicht Forwarding von Rahmen,
- f) Fragmentation von IP-Rahmen die auf einem ATM-Port erhalten
wurden, und
- g) Übertragungs-Konvergenzunterschichtenbearbeitung
in Übereinstimmung
mit SONET STS-3c.
-
Wie
detaillierter unten beschrieben wird, verkapselt das Ridge an dem
Ethernet-Interface die empfangenen Zellen und sendet sie in das
ATM-Netzwerk zu ihren Zieleinrichtungen. Auf dem ATM-Interface verkapselt
das Ridge die Zellen, die für
seine angeschlossenen Ethernet-Hosts bestimmt sind, bevor sie über das Ethernet
zu ihren Zieleinrichtungen geschickt werden.
-
2 zeigt
eine alternative Anordnung, bei der gleiche Teile mit gleichen Bezugszeichen
bezeichnet sind. In 2 ist der ATM-Switch 1c,
der sowohl mit dem Ridge 6c verbunden ist als auch mit
dem ridge-artigen Gateway 14, das wiederum verbunden ist
mit der Workstation 15. Anstatt ATM-Zellen zu Ethernet-Format zu
konvertieren und umgekehrt, verkapselt das Gateway 14 die
einkommenden ATM-Zellen in Ethernet-Rahmen, was ihnen ermöglicht,
direkt durch die Ethernet-Adapter in den lokalen Workstations mit
der Hilfe der Ethernet-Treiber empfangen zu werden.
-
Um
Fairness ohne Wettstreit zu erreichen, wird ein Management-Informations-Rahmen
durch das Ridge an die angeschlossenen Ethernet-Hosts übertragen.
Wenn ein Host einen Management-Informations-Rahmen
erhält, überträgt er Daten
auf den virtuellen Circuit(s), der (die) in dem Management-Informations-Rahmen
angegeben ist (sind) und entsprechend der Bandbreitenparametern,
die mit den virtuellen Kanälen
assoziiert sind, als sie initialisiert wurden. Auf diese Weise werden
das Ridge und der oder die Hosts synchronisiert, so dass jeder Host
eine spezifische Menge von Bandbreite erhält ohne Wettstreit oder Kollision.
-
Unter
Bezugnahme auf die 3 hat das dargestellte Ridge 6 zwölf 10 Mbps
(10 baseT) Ethernet-Ports 20 zur Verbindung von Ethernet-Einrichtungen,
einen einzelnen RS-232 seriellen Port 21 und einen 155
Mbps one OC-3 over Multi-Mode Faser-ATM-Port Schnittstellen-Port 22.
Wie oben angegeben, führt
das Ridge 6 das Bridging durch, die LAN Emulation und Netzwerkschicht
Forwarding-Funktionen. Sowohl Benutzerdaten als auch Steuerverkehr
(zu und von dem Routing Server und dem Systemmanager) werden über die ATM-Schnittstelle
geführt.
-
Die
Funktion des Ridges 6 ist, Ethernet-Brückung auszuführen, Netzwerkschicht-Forwarding
und LAN-Emulation für
zwölf Ethernet-Ports
und einen einzelnen ATM-Port. Verkehr zwischen Ethernets kann entweder
gebrückt
oder direkt netzwerkschichtmaßig übersandt
werden; wenn der ATM-Port für
den Verkehr mit anderen Ridges benötigt wird, wird Verkapselung
und ATM-Schichtbearbeitung durchgeführt.
-
Unter
Bezugnahme auf die 4, die ein detaillierteres Blockdiagramm
ist, umfasst das Ridge 6 Ethernet MAC-Empfänger 23 und
Sender 24, einen ausgehenden Rahmen-Prozessor 25,
einen einlaufenden Rahmen-Prozessor 26, einlaufende und
ausgehende Rahmen-Speichermemories 27, 28, einen
Suchmaschinenfilter 29 (dargestellt in der 9 und
detaillierter beschrieben in unserer parallelen Anmeldung Nr. PCT/CA94/00695,
eingereicht am 22. Dezember 1994 und betitelt "Look-up Engine for Packet-Based Network),
einen ATM-Schichtensegmentierungsprozessor 30, einem Zellen-Autopadder 31,
einem TC-Schicht SONET-Framer 32, ATM Schicht-Re-Assemblierungsprozessor 33 und
einem schnellen Warteschlangendienstcontroller 34. Der
TC-Schicht-SONET-Framer ist mit dem ATM-Modul 35 verbunden,
das das ATM-Interface 22 aufweist zur Verbindung über optische
Fasern oder Twisted-Pair-Kupferleitungen.
-
Der
Zweck des schnellen Warteschlangendienstcontrollers 34 ist,
an eine Ausgangswarteschlange Packets aufzureihen, die für Ethernet-Ports
bestimmt sind. Es gibt eine Ausgabewarteschlange für jeden
Port. Wenn eine Warteschlange bedient wird, wird das Packet an den
Ethernet MAC Port übertragen,
der in der Lage sein muss, das Packet anzunehmen. Alle Warteschlangen
haben die gleiche Priorität.
-
In
dem schnellen Warteschlangendienstcontroller 34 wird die
Verfügbarkeit
der Ports und der Daten faktorisiert in die Anforderung für die nächsten Ports.
Die Port-Verfügbarkeit
wird als eine Bitmaske in der Adresse dargestellt.
-
Eine
Priorität,
die mit "Round Robin"-Priorität kodiert
wird, stellt sicher, dass, falls die aktuelle Warteschlange (wie
sie durch "Round
Robin' definiert
wird) nicht bedient werden kann (weil entweder der Port oder die
Daten nicht zur Verfügung
stehen), dann der Port mit der nächst
höheren
Priorität,
der alle Anforderungen befriedigt, zurückgegeben wird. Deshalb gibt
diese Einrichtung immer ein brauchbares Ergebnis zurück. Mit den
adressenkartierten Bitverzeichnissen mit nützlichen Daten kann das Ergebnis
mit lediglich einer Leseoperation zurückgegeben werden, wodurch die
Leistungsfähigkeit
verbessert wird.
-
Der
schnelle Warteschlangendienstcontroller 34 kann tatsächlich auf
jeden Satz von parallelen Warteschlangen angewandt werden, der diesen
Dienst benötigt,
und es ist nicht beschränkt
auf einen "Round-Robin'-Dienstmechanismus
aber kann ebenfalls implementiert werden, wo den Warteschlangen
unterschiedliche Prioritäten
zugeordnet sind.
-
Der
Verkehrsstrom in einem Ridge 6 ist in 5 gezeigt.
Das Ridge 6 wurde entworfen für separate Datenpfade in der
Empfangs- und Sendungssrichtunq. Die einzige Ausnahme ist der lokal
vermittelte Ethernet-Verkehr, der durch das Segmenter-RAM-System über eine
Bypasseinheit 45 geleitet wird. Dieser Ansatz erleichtert
die Anforderungen an ein Einfach-Memory-System, das schnell der
Engpass des Systems würde.
-
Quad
MAC 40, der den Sender 24 und den Empfänger 23 in
der 4 vorsieht, hat 3 Kb Input- und Output-FIFOs 46,
die verbunden sind mit dem Segmenter-RAM 41 und dem Segmenter 42 an
dem ATM-richtungsseitigen und dem Re-Assembler RAM 43 und
Re-Assembler 44 auf dem ethernetseitigen Eingang.
-
Die
Bypass-Einrichtung 45 erlaubt dem einlaufenden Ethernet-Verkehr,
das ATM-Netzwerk zu umgehen und direkt zu dem Ausgang von Quad-MAC 40 zu
gelangen. 6 zeigt detaillierter den Packetfluss
in der ATM-Richtung. Als erstes werden die Ethernet-Rahmen in ihrer
Gesamtheit innerhalb des Quad MAC ASIC FIFO 46 gepuffert,
dann informiert der QMAC den AXE RISC-Prozessor 48 über den
Empfangscontroller 47, dass ein DMA benötigt wird. Der AXE (Übertragungsmaschine) 48 initiiert
einen DMA zum Segmenter-RAM ohne zu berücksichtigen, welcher Port gewählt wird,
und der Empfangscontroller 47 wählt den Port unter Benutzung
eines "Round-Robin"-Prioritätschemas.
Die Suchmaschine 29, auf die oben Bezug genommen wird und
die in unserer parallel anhängigen
Anmeldung beschrieben wird, horcht dann und lädt die Rahmen-Header-Information
(siehe 9) im "Fly-By"-Modus und startet
die Contextsuche für
die Quelle, die Ziel-MAC-Adresse, den Protokolltyp, die Port-Gruppe
etc. Wie in der 6 gezeigt wird, werden die dekodierten
Rahmen-Daten an die Übertragungsmaschine
(AXE) 48 gesendet.
-
Die
AXE 48 übernimmt
die Suchergebnisse und kann das Packet verwerfen oder eine Netzwerkschichttransformation
durchführen
falls instruiert. Es formatiert das Packet dann wieder wie erforderlich
in einen CS-PDU und informiert den Segmenter 42, das Zellenaufteilen
zu beginnen, der Segmenter vollführt
die ATM-Segmentation und sendet den Puffer nach Vollendung zurück. Der
AXE 48 ist eine 50 MHz R3000 RISC-Maschine mit einem integrierten
Hochgeschwindigkeits-DMA und einem separaten sekundären Prozessorbus.
-
Um
die Mediengeschwindigkeitsleistung beizubehalten, muss sie die unten
beschriebene Aufgabe in 5,6 μs
(280 Zyklen) vervollständigen.
Die AXE 48 hält
die DMR-Daten zwischen den QMACs und den Segmenter RAM im Vordergrund
fließend,
wobei etwa 512 Bytes zur gleichen Zeit bewegt werden; es gibt keine
Verschachtelung von Ports, nachdem eine Packet-DMA einmal begonnen
hat. Im Hintergrund werden Packetinformationen erhalten von dem
LUE FIFO, und die AXE-Packet-Behandlung beginnt.
-
Das
Packet wird entweder verworfen, gebrückt oder Netzwerkschicht- übersandt.
Für gebrückte Packets
wird keine Packetmodifizierung durchgeführt.
-
Für Netzwerkschicht-übersandte
Packets werden Felder im Header der Netzwerkschichtnutzdaten modifiziert;
z. B. wird im IP-Fall der TTL heruntergezählt und die Prüfsumme angepasst.
Die neue Ziel-MAC-Adresse wird an den Packetdeskriptor angehängt zum
Einfügen
durch den Sendecontroller. Die Bearbeitung in diesem Stadium ist
protokollabhängig.
-
Das
Packet wird verkapselt in RFC 1483-artige LLCVerkapselung für die ATM
Adaptationsschicht 5.
-
Der
VC wird eingefügt
von dem LUE 29.
-
Der
Rahmen wird in die Warteschlange zu dem Segmenter für das ATM
oder die lokale Übermittlung eingereiht.
-
Vom
Ridge-Host-Prozessor kommender Verkehr erscheint dem Rest des Ridges
(8) einfach als ein "13ter Port".
-
Ein
Teil von dem Host-Prozessor-Komplex umfasst eine FIFO-Schnittstelle,
die den Quad MAC 40 nachbildet.
-
Daten
strömen
aus den Ethernet-Ports über
einen zu dem der vorherigen Beschreibung symmetrischen Pfad, wie
in 7 gezeigt, die den Datenstrom in der ATM-Ethernet-Richtung
zeigt. Dieser ist vergleichbar mit dem in der 6 beschriebenen
mit der Ausnahme, dass der Sendesteuerprozessor 50 den
QMAC-direkten Speicherzugriff ausführt und MAC-Header zufügt. Der
Sendecontroller 50 ist funktionell ähnlich dem AXE 48,
da Packets von den Segmenter- und Reassembler-RAMs ausgepackt werden,
MAC-Adressen eingefügt
und an die Quad MACs weitergegeben werden. Wie der AXE ist der TXC
implementiert mit einem 50 MHz R3000-basierten RISC-Prozessor und
muss seine Bearbeitung in 5.6 μs
abschließen.
-
Es
gibt drei Quellen von Ethernet-Packets, die von dem Ridge übertragen
werden. ATM-Zellen, lokaler Inter-Portverkehr und vom lokalen Host-Prozessor
stammend. In den letzteren zwei Fällen sind die Rahmen eher im
Segmenter-Speicher als im Reassembler-Speicher.
-
Damit
muss der Sendecontroller 50 mit zwei Verkehrsquellen arbeiten,
um die QMACs 40 zu versorgen.
-
Der
Packetstrom von dem Reassembler ist wie folgt:
- 1)
Die ATM-Zellen werden reassembelt in dem Reassembler-RAM;
- 2) Der Reassembler fügt
die Packet-Header in den LUE ein, der die Quellen- und die Ziel-MAC-Adressen wie
auch die ausgehende Port-Gruppe bestimmt.
Diese Information
wird dann an den Rahmen angehängt
zur Benutzung durch den Sendecontroller;
- 3) Der Rahmen wird vom Reassembler in die Warteschlange des
Sendecontrollers eingereiht.
-
Der
Packetstrom vom Segmenter-Speichersystem umfasst einfach, dass der
Segmenter Rahmen in die Warteschlange des Sendecontrollers 50 einreiht.
Nachdem der Sendecontroller-RISC-Prozessor
von der Ankunft von Rahmen über
den ATM oder lokale Schaltpfade informiert wurde, fügt er die
MAC-Adressen ein und leitet den DMA nach außen an den entsprechenden Port
von dem Quad MAC.
-
Der
QMAC 40 ist detailliert in 8 gezeigt.
Dieser umfasst einen ASIC, der vier Ports von Ethernetverkehr und
von Hochgeschwindigkeits-, 32 Bit breiten synchronen Datenbussen
bedient; es wird ein externer DMA benötigt.
-
Der
QMAC 40 weist integrierte 10 BaseT oder AUI-Transceiver
auf, eine volle Ausrüstung
von Packet- und Byte-Zählern
und einen internen 3k Packetpuffer in jeder Richtung.
-
Die
Suchmaschine 29 ist in 9 gezeigt
und beschrieben in unserer parallelen Anmeldung, auf die wir uns
bereits oben bezogen haben. Die Suchmaschine (Lookup Engine, LUE)
wird jedes Mal benutzt, wenn ein Packet aus dem Ethernet oder dem
ATM-Netzwerk erhalten wird. Die Art von Information, die die Maschine liefert,
die in einer Nachschlagtabelle gehalten wird, ist abhängig von
der Richtung des Packetflusses und der Art des Packets. Die LUE
wird alle benötigten
Informationen liefern, um den Pfad zu jeder bekannten Zieleinrichtung
zu finden, als auch Standardinformationen im Falle von unbekannten
Zieleinrichtungen. Die Standardinformation wird in den meisten Fällen das
Packet zu dem Routingserver leiten.
-
Die
LUE 29 basiert auf Tabellenrecherchen unter Benutzung von
Halb-Byte-Indizierung auf veränderlichen
Abschnitten des Packets, sowie MAC- und Netzwerkschichtadressen,
und Bitmustererkennung auf bestimmten Abschnitten für die Netzwerkschicht-Protokollbestimmung.
Jede Nachschlagetabelle ist organisiert in einem hexadezimalen Suchbaum.
Jeder Suchbaum beginnt mit einer 16-Wort-Wurzeltabelle. Der Suchschlüssel (z.
B. MAC-Adressen) wird in Halbbytes aufgeteilt, die benutzt werden
als Index für
nachgeschaltete Tabellen. Die 16 Bit-Eintragung in der Tabelle wird
mit dem nächsten
4 Bit Halbbyte verkettet, um die 20 Bit-Adresse der nächsten 16
Wort-Tabelle zu bilden. Die letzten Blatt- Eintragungspunkte deuten auf die gewünschte Information.
Ein Blockdiagramm der LUE ist unten gezeigt:
Bitmustererkennung
wird erreicht durch einen Satz Mikrocode-Instruktionen. Die mikrocodierte
Maschine hat die Fähigkeit,
Felder in einem Packet zu vergleichen mit vorprogrammierten Konstanten
und üblicherweise
in einer einzelnen Anweisung Zweig- und Indexerhöhung durchzuführen. Die
Mikrocode-Maschine hat vollständige
Kontrolle über
den gesamten Suchalgorhythmus, so dass sie zugeschnitten werden
kann auf spezifische Nachschlagfunktionen und neuer Mikrocode wird
geladen, wenn neue Funktionen benötigt werden. Die Ausgabe der
mikrocodierten Maschine der Packetanalyse ist ein Index, den der
AXE benutzen kann, um schnell auf eine Verarbeitungsroutine zu deuten.
-
Lernen
und Altern von Quellenadressen benötigt Baum-Manipulation und wird erreicht als eine
Hintergrundaufgabe mit der Hilfe von dem AXE- und den Host-Prozessoren.
Neu erkannte Quellen-MAC-Rahmen resultieren in einer internen Meldung,
die an den Host-Prozessor geleitet wird, die verlangt, dass Parameter zu
der LUE-Quell-RAM zugefügt
werden. Der Host-Prozessor greift dann auf den LUE RAM zu und überarbeitet
den Baum nach Bedarf.
-
Die
LUE ist physikalisch partitioniert in eine große FPGA, separate Quellen-
und Ziel-Nachschlagspeicher von 512 kB bzw. 1 MB, einen herunterladbaren
Mikrocode RAM und einer Kombination von Xilinx und FIFO-Einrichtungen
als Schnittstellen zu den RISC-Prozessoren.
-
Zur
Reduzierung der Entwurfsanforderungen an ein einfaches, superschnelles-Speichersystem,
das benötigt
wird für
die Segmentation, für
die Reassemblierung und für
QMAC-Verkehr, wird die ATM SAR-Funktion durch das Ridge in zwei
Teile aufgespaltet. Somit ist die Architektur horizontal geteilt
in der Richtung und tatsächlich
ein Vollduplex-System.
-
Der
Segmenterkomplex besteht aus einem ATMizer, einem Interface in das
Segmenter-RAM auf seinem Primärbus,
einigen zusätzlichen
Hochgeschwindigkeits-Zeigerspeichern auf seinem sekundären Bus
und einem Speicher für
den Reassembler. Letzterer wird benutzt als ein SAR-Kommunikationspuffer
für OAM
und untergeordnete Switchingunterstützung.
-
Ein
spezialisierter ATMizer wird benutzt zur Implementierung von ATM-Reassemblierung
in dem Ridge von bis zu 1024 simultanen VCs. Wenn Packets reassembelt
werden, horcht die LUE auf die einkommenden ersten Zellen und liefert
die Ziel-MAC-Adresse, falls es sich um eine geroutete PDU handelt
(die Quell-MAC ist automatisch der Routingserver).
-
Der
MAC wird an das Packet angehängt
durch den Reassembler für
schnelles Einfügen
durch den Sendecontroller.
-
Zellen
können
von dem Reassembler an den Segmenter weitergeleitet werden unter
Benutzung einer Zwischen-ATMizer-Zellenverbindung.
Dies ist günstig
für Loopback-Diagnosen.
Die Segmenter- und Reassembler-RAMs sind ähnlich in der Funktion und
liefern die Zwischen-CS-PDU-Pufferung zwischen den ATM und LAN-Umgebungen.
Der Segmenterspeicher hat vier Ports: den AXE-Sekundärbus, den
Quad MAC (AXE Primärbus),
den Sendecontroller und den Segmenter. Der Reassemblerspeicher hat
drei Ports: den Sendecontroller und die beiden Primär- und Sekundärbusse des
Reassemblers. Beide haben 512 kB Kapazität.
-
Jedes
RAM-System hat einen ähnlichen
Zuordnungscontroller und Dienstzugriffanforderungen, von denen nur
jeweils ein einziger in einer "Round-Robin"-Weise erledigt wird.
Der Zuordner erlaubt es, dass sich Adressen hinter den Puffern sammeln,
so dass die Umschaltzeiten zwischen Schnittstellen minimiert werden. Zur
Zeit benutzten die Speichersysteme Hochgeschwindigkeits- 15 ns RAMs,
um drei Zyklen für
die Zuordnung bzw. vier bis fünf
Zyklen für
das Schreiben und Lesen zu erreichen. Die RAM-Systeme liefern über 800
Mbps in gestützter
Bandbreite.
-
Das
Ridge benötigt
einen überwachenden
Host-Prozessor, der den Systemstart handhabt, als auch Energieversorgungsdiagnose,
Herunterladen von LUE- und RISC-Prozessoren, das Ablaufenlassen
von Spannbaumalgorithmen, das Durchführen des Netzwerkmanagements
(SNMP, 4602 I/F), das Durchführen
der lokalen Serienportkonfiguration, das Verbindungsmanagement (Q.2931),
das "Lernen" und die Tabellenpflege für den LUE
durchführt,
das Laufenlassen von PHY-Modulstatuscode bei Bedarf (OC3) und die
Steuerung der Anzeige-LEDs.
-
Der
Hostprozessorkomplex wird realisiert mit einer 6 MIP MC68349 CPU,
die bei 25 MHz arbeitet mit den folgenden Peripheriegeräten: 2 MB
RAM, zwei Bänken
von 1 Mbyte-Flash-EPROMs (Intel-basiert); 32 KB batteriegepufferten
NVM (Non-volatile-Memory – nicht
flüchtiger
Speicher); 2 KB FIFOs in jeder Richtung für Packetübertragung; ATMizer serielle
Herunterlader; und RS-232-Transceiver für die lokale serielle Portkonfiguration.
-
Von
einer "5-Prozessor-Pipeline" Architektur wie
dem Ridge kann erwartet werden, dass sie erhebliche Datendurchsatzerfordernisse
hat; derer sind im Wesentlichen drei, wie in den folgenden Abschnitten
beschrieben.
-
Der
Hostprozessor muss die Konfigurations-, die Wartungs- und die Statistik-Abfragepackets
an jeden der ATMizer weiterleiten, als auch mit externen Ethernet
basierten Einrichtungen kommunizieren. Um diese zwei Erfordernisse
zu erleichtern, erscheint der Hostprozessor als ein "13ter Port" eingereiht mit den
QMACs zu den AXE und Sendecontrollern. Rahmen, die für den internen
Prozessor bestimmt sind, werden durch den AXE markiert und in den
Segmenterspeicher geladen, im Wesentlichen wie der reguläre Verkehr.
Um zu dem Reassembler zu kommen, muss ein Mitteilungs-Packet vom
Sendecontroller physikalisch in den Reassemblerspeicher zurückkopiert
werden.
-
In
der anderen Richtung unterscheidet der Sendecontroller zwischen
lokalen Nachrichten und MAC-adressiertem Verkehr, der bestimmt ist
für den
Host, indem eine Markierung (Flag) vor das Packet gehängt wird.
Der Hostprozessor benutzt seinen Integralen-DMA-Controller um Daten
zu und von seinem QMAC-emulierenden FIFOs zu bewegen.
-
Da
Pufferzeiger weitergeleitet werden zwischen den Ridge-ATMizern, wird eine
einfache Interruptmarkierung benutzt, um ihren Bearbeitungsbedarf
anzuzeigen. Zur gleichen Zeit wird der "CPCond"-Eingang gesetzt, so dass eine einfache
R 3000-Zweig-Instruktion in einem einzigen Zyklus auf die Marke
zeigen und die Abfrage weiterleiten kann.
-
Der
Segmenter empfängt
ein Interrupt von dem AXE, der die Ankunft eines Datenpuffers anzeigt.
Der TXC empfängt
ein Interrupt vom Segmenter und Reassembler, der die Ankunft eines
Datenpuffers anzeigt.
-
Der
Segmenter und der Reassembler unterbrechen einander, um ihre Speicherwarteschlangen
zu bedienen.
-
Der
Segmenter und der Reassembler benötigen einen direkten Kommunikationspfad
für bidirektionale Protokolle
wie untergeordnetes Switching und ATM OAM. Dies wird erreicht durch
einen kleinen Speicher und die Fähigkeit,
einander zu unterbrechen.
-
Mit
vier Prozessoren, die Daten durch das Ridge bewegen, wird ein optimales
Schema zur Weiterleitung von Pufferzeigern und der Rückgabe von
freien notwendig. Indem die Speicher vom Segmenter und Reassembler
mehrere Ports haben, ist kein aktuelles Kopieren der Daten notwendig.
Der Einfachheit wegen und wegen niedriger Kosten werden Speicherzeiger
durch die Speicher mit mehreren Ports hindurchgeleitet auf dem gleichen
Weg wie die Daten. Um die Komplexität bei der Rückgabe von Puffern zu verhindern,
werden sie in einer unidirektionalen Weise durchgeleitet, wie in
der 10 gezeigt.
-
Packets,
die vom AXE empfangen wurden, werden an den Segmenter weitergeleitet,
ob sie für
das ATM-Netzwerk bestimmt sind oder nicht. Im Fall eines lokalen
Verkehrs wird der Segmenter das Packet wieder an den Sendecontroller
einschleusen, was bedeutet, dass die Liste von zurückgegebenem
freien Puffer durch einen einzelnen Prozessor gemanagt wird. Dies
verhindert Probleme beim Wiedereintreten und vereinfacht das gesamte
Puffermanagement.
-
Datenpuffer,
die vom Reassembler empfangen werden, können einfach an den Sendecontroller
zur Ethernetübertragung
weitergeleitet und zurückgeleitet
werden, wenn der DMA abgeschlossen ist.
-
Statistiken
werden geführt
von einer Kombination von Hardware und Software in dem Ridge, abhängig von
der Anwendung. Die Quad MACS haben Hardwarezähler für:
Anzahl von gesendeten/empfangenen
Rahmen
Anzahl von gesendeten/empfangenen Bytes
Ethernetempfangsfehler
(CRC, Ausrichtung, "Runt")
Anzahl von
Kollisionen
- – Anzahl von fehlgeschlagenen Übertragungen
aufgrund von mehr als 16 Kollisionen
- – Andere
Statistiken werden durch ATMizers zum Bericht über die Hostprozessoren gesammelt.
Beispiele davon sind:
- – Anzahl
der gesandten/empfangenen Zellen
- – Anzahl
von Sicherheitsverletzungen/Port
-
Das
Ridge-PHY-Modul trägt
der aktuellen Debatte über
physikalische Schnittstellentypen Rechnung, indem es sie einfach
auswechselbar macht. Dies ist detailliert in 11 gezeigt.
-
Die
Ridges sind deswegen Schlüsselelemente
des Systems, die 12 Ethernetports mit lokalem Switching auf eine
einzelne ATM Hauptleitung konzentrieren zur Verbindung mit einem
ATM-Switch. Die
spezielle Ausführungsform
des beschriebenen Ridges hat: 12 10-BaseT Ethernetports; einen modularen
ATM-Port (erste Ausgabe: 155 Mbps STS-3c über Multimode-Faseroptikkabel);
volle Mediengeschwindigkeitsbrückung
und Netzwerkschicht-Forwarding zwischen allen Ethernet- und ATM-Ports;
breiter Bereich von Packetfilterfähigkeiten; Unterstützung von
IP-Fragmentation in der ATM-zu-Ethernet-Richtung; Managebarkeit
unter Benutzung von SNMP und Standard MIBs; Spannbaumalgorithmen;
ATM-Unterstützung:
AALS, CLP, OAM, Verkehrsformung, Newbridge "Switching mit niedriger Priorität"; Fernüberwachung
des Verkehrs mit Ethernet-"Abhör"-Modus; Rack-, Desktop-
oder Wand-montierbar in Einzelgehäusen; lokale Managementschnittstellen
(Serieller Port); herunterladbare Software unter Benutzung von "Flash" Memory; "weiche "RISC-" und ASIC-basiertes Design. über 200
MIPS.
-
Das
beschriebene Ridge ist somit ein ATM LAN-Emulator, der entworfen
wurde, um eine geroutete Ethernetumgebung mit einem ATM-WAN-Netzwerk
mit den folgenden Eigenschaften zu vereinen: niedrige Kosten; volle
Mediengeschwindigkeitsbrückung
und Netzwerksschicht-Forwarding; noch zu definierende/zu erfindende
Standards zu berücksichtigen;
die Unterstützung
eines vollen Bereiches von Filterfähigkeiten; Verstehen und Nutzung
von gerouteten Protokollfähigkeiten;
als Einzelgerät
oder integriert in einer Vielzahl von verschiedenen ATM-Hubs; direkter
gerader Entwicklungspfad zu ASICs.
-
Schlüsselelemente
für das
Ridge sind:
Schnelle Ethernet-MACs mit hoher Kapazität,
Leistungsfähige Tabellensuchmaschine.
Ein wesentlicher
Aspekt von Brücken und Routingrechnern ist
die Fähigkeit,
schnell Ports, VCs, MAC-Adressen, Sicherheitsbeschränkungen,
etc. in Echtzeit zuzuordnen. Auf dem Ridge bedingt dies die Notwendigkeit
eines Nachschauens alle 5,6 μs
in einer Tabelle, die wenigstens 8.000 MAC-Einträge enthält.
-
- Flexible Netzwerkschicht-Hardware-Analysierer.
-
Um
Hochgeschwindigkeitsnetzwerkschicht-Forwarding durchzuführen, müssen Rahmen
schnell analysiert und modifiziert werden mit neuen MAC-Adressen,
TTL und Prüfsummen.
Ein Hochgeschwindigkeits-RISC-Prozessor macht diese Arbeit derzeit
und ist mit der Tabellensuchmaschine gekoppelt um einen Rahmenbearbeitungskomplex
zu bilden.
-
Schnelle,
ATM-Ethernet-Puffersysteme mit vielen Ports. Da das Ridge eine Speicher-
und Forwardingeinrichtung ist und Verstopfung in beiden Richtungen
möglich
ist, ist die Größe von internem
Pufferspeicher eine Überlegung
wert. Das Speichersystem muss schnell sein, wenigstens 275 Mbps
in jeder Richtung ermöglichen,
relativ groß und
billig sein. Andere wesentliche Charakteristika schließen eine
effiziente Zuordnung der RAM-Systeme und niedrige Zugriffsverzögerung ein.
-
Ein
fundamentaler Aspekt der Ridges ist das Neupacken von Ethernetrahmen,
eines Einfügens
eines VCI und Aufteilen in 53 Byte Zellen. Der entgegengesetzte
Prozess erfordert gleichzeitig das Zusammensetzen von Rahmen und
das erneute Leiten an die entsprechenden Ethernetports. Die Zellengröße und die
erforderliche ATM-Bearbeitung sind hoch abhängig von der Zielumgebung.
-
Der "ATMizer" hat einen 50 MHz
R3000 Kern, der gekoppelt ist mit internem RAM, Caches, DMA- und ATM-Serialisierungshardware,
die erforderlich ist, um ATM-Zellen
in Echtzeit zu bearbeiten.
-
RISC-basierte
DMA. Die Fähigkeit,
um Ridge-Daten mit hoher Geschwindigkeit herumzubewegen, Felder
zu modifizieren und Warteschlangen zu managen, verlangt nach einer
extrem schnellen und kosteneffektiven RISC-Lösung. Um den Entwicklungsprozess
abzukürzen
und eine hochoptimierte integrierte Lösung zu nutzen, benutzt das
Ridge zwei ATMizer in einer Nicht-ATM-Anwendung, um schnelle Datenbearbeitung durchzuführen.
-
Hochgeschwindigkeits-ATM-Port.
Verbindung mit einem ATM-Switch über
ein Übertragungsmedium (eigenständiges Ridge)
oder eine geeignete Backplaneschnittstelle (Stealth in dem 36150
Switch). Da die Wahl des physikalischen Mediums und des Framingschemas
zur Zeit noch stark debattiert wird, wird ein austauschbares PHY-Modul
für diese
Funktion benutzt.
-
Ein
relativ langsamer Prozessor wird benötigt als ein Haushaltungsprozessor
für das
Netzwerkmanagement, für
die Diagnose, Konfiguration und Gesamtüberwachung. In einer Ausführhrngsform
ist dies ein Motorola 68349 Mikroprozessor, der mit 25 MHz getaktet
ist.
-
Ein
weiterer Aspekt der Erfindung wird beschrieben unter Bezugnahme
auf die 15 bis 18.
-
In 15 werden
der ATM-angeschlossene Digitalcomputer und nachfolgende LAN-Adapter 100, 101 benutzt,
um nachfolgende Ethernet-LANs und digitale Computer mit dem ATM-Switching
Fabric 102 zu vernetzen, das aus einem oder mehreren ATM-Switches 103 zusammengesetzt
sein kann. Diese Konfiguration wird benutzt, um LAN-Datenverkehr
zwischen den verschiedenen Endeinheiten zu transportieren.
-
Aber
die Vorteile von ATM, die garantierte Bandbreite (Bandwidth – BW) einschließen, Verkehrsmanagement
etc. werden nicht erstreckt über
die nachfolgenden LAN-Adapter hinaus auf die nachfolgenden angekoppelten
LAN- (z. B. Ethernet-) Digitalcomputer. Deshalb ist es unmöglich, Ethernet
zu benutzen im Sinne des traditionellen Carrierbetriebes mit vielfachem
Zugriff und Kollisionserkennungs-(CSMA/CD)-Modus, alle zur Verfügung stehenden
Dienstleistungen an direkt angekoppelten ATM-Komponenten- (z.B.
Digitalcomputer) vorzusehen, wenn in den nachfolgenden LAN-Umgebungen
nicht ein Zwischenlevelzugangsmechanismus benutzt wird.
-
ATM-Dienstleistungen
bei einer Ethernet-angekoppelten Endstation (Digitalcomputer) vorzusehen,
die mit dem ATM-Switching
Fabric über
einen ATM-angekoppelten Nachfolge-LAN-Adapter verkoppelt ist, erfordert
ein Verbindungsmanagement-, Signalisierungs- und Bandbreitenmanagementmechanismus
vorzusehen, der deterministisch den Zugang zu den Ethernet- LAN
von allen Endstationen, die mit ihm verbunden sind, steuert und
ATM Q.2931-Signalisierung auf die Ethernet-Endstationen ausdehnt.
-
Das
Bereitstellen von vollen ATM-Dienstleistungen für an Ethernet angekoppelte
Endeinrichtungen unter Benutzung von Digitalcomputern als ein spezifisches
Beispiel für
derartige Endeinrichtungen wird nun beschrieben.
-
15 beschreibt
ein typisches Beispiel eines verbundenen Systems von Ethernet-angekoppelten
Digitalcomputern 101 und ATM-angekoppelten Digitalcomputern 100.
-
In 16 werden
die Ethernet-angekoppelten Nutzer von ATM-Dienstleistungen dargestellt
als Blöcke,
die vier Schichten enthalten: "Anwendung(en)", "ATM API", "802.3 Treiber" und "802.3 Interface" bzw. 101a, 101b, 101c, 101d,
jeweils angekoppelt an das Ethernetbackbone 104, das durch
einen virtuellen ATM-Switch 105, der unten detaillierter
beschrieben wird, angekoppelt ist an den ATM-Switch 103.
-
Die "Anwendung(en)"-Schicht 101 ist
vorgesehen, schematisch eine Anwendung zu repräsentieren, die geschichtet
ist auf ein ATM-Anwendungsprogamminterface (API), das benutzt wird,
um die ATM-Dienste auf die Anwendung zu erstrecken.
-
Die "ATM API"-Schicht 101b soll
schematisch eine Komponente darstellen, die API-Dienstleistungen an
den oberen Schichtnutzer liefert im Sinne der niedrigeren Schichtbereitsteller,
der in dieser Figur der "802.3 Treiber" ist. Typische Dienste,
die durch derartige API bereitgestellt werden umfasst "atmConnectReq", der benutzt wird,
um zu beantragen, dass eine Verbindung von einem ATM-Endpunkt hergestellt
wird, die mit einer Anwendung korrespondiert, die in der ATM-Adresse
spezifiziert wird; "atmTx" der benutzt wird,
um Servicedateneinheiten (Service Data Units – SDUs) an einen ATM-Endpunkt
zu liefern über
eine vorher hergestellte Verbindung; und "atmRx" der benutzt wird, um SDUs von einem
ATM-Endpunkt zu empfangen über
eine zuvor hergestellte Verbindung. Der obere Teil von 17 stellt
schematisch diese Konstruktionen dar.
-
Die "802.3 Treiber" 101c-Schicht
soll schematisch eine Komponente darstellen, die SDUs in ATM-Zellenformate
umwandelt und das ATM-Verbindungsmanagement, Bandbreitenmanagement
und Signalisierung bereitstellt. Diese Schicht wird benutzt, um
ATM-Verbindungen herzustellen und zu zerstören, SDUs in ATM-Zellen für die Übertragung
und ATM-Zellen in SDUs für
den Empfang zu konvertieren und steuert die Übertragung von ATM-Zellen auf
das Ethernet-LAN.
-
Die "802.3 Interface"-Schicht soll schematisch
das Ethernetinterface darstellen zum Ethernet-LAN. Dieses Interface
wird benutzt, um Ethernetrahmen zu senden und zu empfangen.
-
Die
ATM-angekoppelten Nutzer von ATM-100 Diensten sind gleicherweise
dargestellt als Blöcke,
die vier Schichten enthalten: "Anwendung(en)", "ATM API", "ATM Treiber" und "ATM Interface" bzw. 100a, 100b, 100c, 100d.
-
Das
obere Schichtinterface zu dem "ATM
API" 100a liefert
das gleiche Interface an eine Anwendung, die auf einer ATM-angekoppelten
Endstation residiert, wie der "ATM
API" abgeleitete
ATM-Dienstleistungen an eine Ethernet-angekoppelte Endstation liefert.
-
Die "ATM Treiber"- Schicht 100b soll
schematisch eine Komponente darstellen, die SDUs in ATM-Zellenformate
umwandelt und das ATM-Verbindungsmanagement, Bandbreitenmanagement
und Signalisierung vorsieht. Diese Schicht wird benutzt, um ATM-Verbindungen
herzustellen und zu zerstören,
SDUs in ATM-Zellen zur Übertragung
und ATM-Zellen in SDUs für
den Empfang zu konvertieren und die Übertragung von ATM-Zellen in
das ATM-Netzwerk zu steuern.
-
Die "ATM Interface"-Schicht 100c soll
schematisch das ATM-Interface
zu einem ATM-Netzwerk darstellen. Dieses Interface wird benutzt,
um ATM-Zellen zu senden und zu empfangen.
-
In 16 wird
ein ATM-Switch dargestellt durch ein Piktogramm, das an ein X erinnert.
Zwei Exemplare dieses Piktogramms liegen vor, 103 und 103a.
Switch 103 liefert direkte Verbindungen mit ATM-Endpunkten.
Switch 103a bildet ein Teil eines virtuellen Switches 105 und
ist geschichtet oben auf einer "802.3
Treiber"-Schicht.
-
In 16 besteht
ein impliziertes "Peer"-Verhältnis zwischen
all den Instanzen der ATM-Anwendung(en). Mit anderen Worten, die
Anwendungen sind in der Lage, Informationen auf einer "Peer"-Basis auszutauschen
unter Benutzung von Diensten, die über den ATM API zur Verfügung gestellt
werden.
-
ATM-Dienste
werden erstreckt auf die Ethernet-angekoppelten Endstationen unter
Benutzung von Ethernet-LAN als eine virtuelle Porterstreckung für den virtuellen
ATM-Switch 105. Ein Ethernet-Host, der wünscht ATM-Meldungen
mit irgend einer anderen Endstation auszutauschen, die in 16 angekoppelt
ist, übersendet
die zu übertragenden
Zellen an den virtuellen ATM-Switch, der wiederum die Zellen an
den entsprechenden ATM-Link weiterleitet. Es ist wichtig festzustellen,
dass selbst wenn die ATM-Endstation, an die die Zellen zu übertragen
sind, auf dem gleichen Ethernetsegment sind wie der Erzeuger der
Zellen, dass die Zellen weiterhin zuerst an den virtuellen ATM-Switch
geleitet werden.
-
Der
untere Abschnitt 105b des virtuellen Switches 105 kann vorgesehen
werden durch ein Ridge wie oben beschrieben.
-
Um
deterministischen Zugang zu dem Ethernet-LAN sicherzustellen, kann
keine Station außer
dem virtuellen ATM-Switch
irgendwelche Daten auf dem LAN-Segment übertragen, bevor es einen Managementindizierungs-Rahmen
erhält
von dem virtuellen ATM-Switch. Der Managementindizierungs-Rahmen
enthält
Information, der definiert, auf welche virtuellen Kanalverbindungen
(Virtual Channel Connections – VCCs)
die Ethernet-angekoppelte Endstation senden kann. Vorausgesetzt,
dass der virtuelle ATM-Switch verantwortlich ist für die Erzeugung
des Managementindizierungsrahmens, misst es außerdem die von dem virtuellen ATM-Switch
zu den der Ethernet-angekoppelten Endstation zu übertragenden Daten gemäß den Bandbreitenparametern,
die mit der VCC verbunden waren, als sie initialisiert wurde.
-
16 stellt
schematisch relevante interne Merkmale der beschriebenen Schichten
in der Ethernet-angekoppelten Endstation dar, die ATM-Dienste nutzt.
Die rechte Seite der Figur zeigt die Schichten zu Referenzzwecken
auf. Eine Anwendung, die entwickelt wurde, um ATM-Dienste in der
Ethernet-angekoppelten Endstation zu nutzen, würde die Interface-Punkte nutzen,
die oben an dem ATM API dargestellt sind. Der ATM API ist nicht
erschöpfend
im Sinne der gezeigten und zuvor in Bezug genommen Interfacedienste.
Es wird eine repräsentative
Untergruppe gezeigt. 17 zeigt den Datenfluss von
SDUs zu ATM-Zellen zu Ethernetrahmen. Der Datenfluss von Managementrahmen
(Indizierungen) ist ebenfalls dargestellt.
-
17 illustriert
schematisch die Highlights des virtuellen ATM-Switches 105,
auf den in 16 Bezug genommen wurde.
-
18 stellt
die zentralisierte Bandbreiten-, Anruf-Setup- und Signalisierungs- Funktionen dar,
die Dienste sind, die auf die Ethernet-angekoppelten Endstationen
erstreckt werden, die ATM-Dienste benötigen. Die Figur zeigt auch
den Zellen-Switching
Datenpfad, wie Proxy- (virtuell erstreckte) Dienste auf Ethernet-angekoppelte
Endstationen über
den ATM-Management- und Signalisierungsblock erstreckt werden.
-
-
-
-
-