-
Die
Erfindung betrifft ein Verfahren, eine Anordnung und einen Netzknoten
zur Übermittlung
von Informationen in einem Kommunikationsnetz.
-
In
aktuellen Kommunikationsnetzen oder Datenübertragungsnetzen werden von
den Nutzern zunehmend höhere
Datenübertragungsraten
gewünscht. Übertragungsverfahren,
die hohe Übertragungsraten
auch in den Teilnehmeranschlussnetzen (Access-Networks) eines Kommunikationsnetzes
bereitstellen können,
sind beispielsweise Verfahren, die nach dem xDSL-Verfahren arbeiten.
Mit Hilfe dieser Übertragungsverfahren
können
die Betreiber von Kommunikationsnetzen ihren Kunden auch breitbandige
Anschlüsse
beispielsweise an das Internet anbieten, mittels derer die Teilnehmer
zahlreiche Anwendungen oder Applikationen zunehmend einfacher und
schneller nutzen können.
-
Mit
der Nachfrage nach diesen unterschiedlichen Diensten bzw. Services,
d.h. mit der Nachfrage nach mehreren unabhängigen Datenströmen, steigen
jedoch auch die an die angeschlossenen Teilnehmer zu übertragenden
Datenmengen. Dabei ergibt sich innerhalb des Kommunikationsnetzes
ein Ressourcenproblem. So übersteigen
die den Kunden angebotenen Datenmengen oftmals die dem einzelnen
Kunden tatsächlich
zur Verfügung
gestellte Bandbreite. Das bedeutet, dass nicht die gesamte Datenmenge
direkt an den Teilnehmer übertragen werden
kann. Einzelne Daten können
z.B. erst verzögert übermittelt
oder müssen
ganz verworfen werden.
-
Um
die Verwaltung der anfallenden Datenmengen zu bewerkstelligen bzw.
um die unterschiedlichen Datenströme oder Datenflüsse zu lenken
und zu organisieren, existieren in aktuellen Datennetzen so genannte
Verkehrsfluss- Verwaltungseinrichtungen.
Diese Management-Einrichtungen bestimmen über den für die einzelnen Teilnehmer
bestimmten Verkehrsfluss, d.h. über
die Übermittlung
der Daten an jeden an das Netz angeschlossenen Teilnehmer. Mittels
dieses Verkehrsfluss- bzw. Traffic-Managements (auch: Datenstrom-Verwaltung)
wird somit sichergestellt, dass keine "Daten-Verstopfungen" innerhalb des Netzes auftreten, indem
das anfallende Datenaufkommen derart organisiert wird, dass die
jeweils vorhandene Bandbreite zur Übermittlung der Daten zu jedem
Zeitpunkt verfügbar
ist. Dabei werden die Leitungen zu den einzelnen angeschlossenen
Teilnehmern durch das Traffic-Management überwacht
und nur eine unproblematische Menge an Daten an die Teilnehmer übermittelt.
-
Moderne
Kommunikationsnetze besitzen zumeist ein so genanntes "Backbone", d.h. ein breitbandiges
Hauptnetz, in dem ausreichend Übertragungskapazität vorhanden
ist. Die oben erwähnten Engpässe für die Datenübertragung
entstehen also vor allem in jenen Bereichen des Netzes, in denen weniger
Bandbreite zur Verfügung
steht – üblicherweise
in den Anbindungsleitungen zu den Endgeräten der Teilnehmer. Diese Teilnehmeranschlussleitungen
verbinden die angeschlossenen Endgeräte mittels beispielsweise Kupferleitungen
mit einer ersten vermittlungsseitigen Instanz. Ein solcher erster Anbindungspunkt
der Vermittlungsseite wird z.B. als "Access Node" oder DSLAM ("Digital Subscriber Line Access Multiplexer") bezeichnet und
bindet eine Vielzahl von Teilnehmern an das Hauptnetz an.
-
Zwischen
DSLAM und Backbone befindet sich zumeist noch das so genannte "Aggregation Network". An dieses sind
auf einer ersten Seite beispielsweise mehrere DSLAMs geschaltet,
deren Datenflüsse
zusammengefasst werden, eine zweite Seite des Aggregation Networks
ist mit zumindest einem "Service
Edge" verbunden.
Service Edge bzw. Edge Device ("Zugangseinrichtung") ist dabei die Bezeichnung
für jene
Einrichtung in einem Netzwerk, von der aus eine Weiterleitung der
Daten in das Hauptnetz erfolgt. Dies kann beispielsweise ein so
genannter Broadband Remote Access Server (GRAS) oder ein einfacher
IP-Router (IP: "Internet Protocol") sein.
-
Der
Abschnitt des Kommunikationsnetzes von Endgerät bis zum Edge Device wird
als Zugangsnetz oder Access Network bezeichnet.
-
Während ältere Zugangsnetzwerke
meist nur eine Zugangseinrichtung zum Hauptnetz, also nur ein Edge
Device, besitzen, geht man bei der Architektur von neueren Netzwerken
dazu über,
das Access Network über
mehrere verschieden Edge Devices mit dem Backbone zu verbinden ("Multi-Edge-Netzwerk"). Da die von mehreren
Edge Devices an einen einzelnen Teilnehmer übermittelten Daten jedoch nicht
synchronisiert sind, führt
dies zu dem Problem, dass es vermehrt auch bereits innerhalb des
Aggregation Networks zu Daten-Engpässen kommen kann. Beispielsweise
kann es bei annähernd
zeitgleichem Übermitteln
von großen
Datenmengen ausgehend von unterschiedlichen Edge Devices zu ein
und demselben Teilnehmer zu so genannten "Bursts", also Verkehrsspitzen, kommen, die wiederum
zu Verzögerungen
oder Datenverlusten im Aggregation Network führen können.
-
Ein
in den einzelnen Edge Devices integriertes Verkehrsfluss-Management, wie es
bei einigen Aggregation Networks mit nur einer Zugangseinrichtung
verwendet wird, kann dabei das erläuterte Problem nicht lösen. Die
Verkehrsflusssteuereinrichtungen der einzelnen Edge Devices kommunizieren
in aktuellen Kommunikationsnetzen nicht miteinander, was bei Anordnung
beispielsweise mehrerer Edge Devices innerhalb eines Aggregation
Networks zu Stauungen von in Richtung der Teilnehmer ausgesendeten
Datenströmen
führen
kann.
-
Wird
das Verkehrsfluss-Management beispielsweise an den teilnehmerseitigen
Anschlusspunkten des Access Nodes durchgeführt, so offenbart sich ein
anderes Problem: In diesem Fall wäre zwar einerseits eine Überwachung
der Teilnehmeran schlussleitungen und somit eine Begrenzung des für einen
einzelnen Teilnehmer bestimmten Datenverkehrs möglich, andererseits können mittels
derzeitiger, mit den Anschlussleitungen verbundenen Management-Einrichtungen
jedoch Verhandlungen über
die so genannten Dienstgütevereinbarungen ("Service Level Agreements") aktuell nur mit
einem einzelnen Edge Device durchgeführt werden. Mit Hilfe derartiger
Dienstgütevereinbarungen
werden im Allgemeinen Absprachen über die einzelnen angeforderten
Dienste erledigt, d.h. es werden die Eigenschaften und Parameter
der Dienste verhandelt, beispielsweise die dem Dienst zur Verfügung gestellte Bandbreite
oder eine Priorität.
Beinhaltet das Aggregation Network allerdings mehr als eine Zugangseinrichtung,
handelt es sich bei dem Netz also um ein Multi-Edge-Netzwerk, so
kann ein an der Teilnehmeranschlusseinrichtung angeordnetes Verkehrsfluss-Management
unter Umständen
keine Dienstgütevereinbarungen
mehr treffen.
-
Des
Weiteren ist eine Anordnung des Traffic Managements in einem der
Access Nodes in jedem Fall kostenintensiv. Da aktuelle Access Nodes
jedoch möglichst
kostengünstig
sein sollten, werden diese daher vorzugsweise möglichst einfach ausgestaltet, d.h.
nicht mit aufwändigen
Funktionalitäten
ausgestattet.
-
Die
Aufgabe der Erfindung ist daher, eine Verkehrsfluss-Verwaltung für Kommunikationsnetze mit
mehreren Zugangseinrichtungen bereit zu stellen.
-
Diese
Aufgabe wird ausgehend von einem Verfahren gemäß den Merkmalen des Patentanspruchs
1 sowie von einer Anordnung und einem Netzknoten gemäß den Merkmalen
der Patentansprüche
9 und 11 gelöst.
-
Im
Rahmen des erfindungsgemäßen Verfahrens
zur Übermittlung
von Informationen in einem Kommunikationsnetz, bei dem über ein
Anschlussnetz Datenströme
von mehreren Zugangseinrichtungen zu einem Teilnehmer übermittelt
werden und zumindest ein Teil der Datenströme über zumindest einen Netzknoten
des Anschlussnetzes in Richtung des Teilnehmers übermittelt wird, erfolgt dabei
eine Steuerung des zumindest einen Teils der Datenströme durch
den zumindest einen Netzknoten.
-
Der
wesentliche Vorteil des erfindungsgemäßen Verfahrens besteht darin,
dass die in einem Anschlussnetzwerk von mehreren Zugangseinrichtungen
an einen Teilnehmer übermittelten
Datenströme gesteuert
werden können.
-
Vorteilhaft
umfasst die Steuerung des zumindest einen Teils der Datenströme ein Verkehrsfluss-Management
der Datenströme
und/oder eine Aufteilung der im Anschlussnetz nutzbaren Ressourcen
auf die Datenströme – Ansprüche 2 und
3. Hierdurch kann ein Verkehrsfluss-Management in modernen Anschlussnetzwerken
bereitgestellt werden.
-
Weitere
vorteilhafte Ausführungsformen
des erfindungsgemäßen Verfahrens
sowie eine Anordnung und ein Netzknoten können den weiteren Ansprüchen entnommen
werden.
-
Im
Folgenden wird die Erfindung mit Hilfe der beigefügten Zeichnungen
detaillierter erläutert.
-
Dabei
zeigt:
-
1 eine
schematische Darstellung eines aktuellen Teilnehmeranschlussnetzes,
-
2 eine
schematische Darstellung des Datenstrom-Managements in einem Multi-Edge-Netzwerk
und
-
3 ein
Beispiel der Funktionsweise des Datenstrom-Managements.
-
Im
Folgenden wird allgemein der prinzipielle Aufbau eines aktuellen
Teilnehmeranschlussnetzes (Access Network – AN) er läutert. Hierzu sind zur Veranschaulichung
alle wesentlichen Komponenten eines solchen Netzabschnitts (AN)
eines Kommunikationsnetzes (KN) in der Darstellung aus 1 eingezeichnet.
Mehrere Teilnehmer (TN1 ... TN9) sind über drei Anschlussknoten ("Access Nodes" – AN1, AN2, AN3) mit dem Netzwerk
(KN) verbunden. Die Access Nodes (AN1, AN2, AN3) sammeln die Daten
der Teilnehmer (TN1 ... TN9) bzw. leiten die für die angeschlossenen Teilnehmer
(TN1 ... TN9) bestimmten Datenströme an die entsprechenden Teilnehmer (TN1
... TN9) weiter. Vermittlungsseitig sind die Anschlussknoten (AN1,
AN2, AN3) beispielsweise mit den Switches SW1 und SW2 des Aggregation
Networks (AN) verbunden. Switches (SW1, SW2) sind Netzwerkkomponenten,
die unter anderem Vermittlungsfunktionen innerhalb eines Kommunikationsnetzes
KN ausüben.
Derartige Switches (SW1, SW2) können
z.B. untereinander verbunden sein (SW1 mit SW2), oder sie sind die
letzten Knotenpunkte des Aggregation Networks AN (in 1:
SW2) vor den so genannten Zugangseinrichtungen, die den Übergang in
das Hauptnetz des Kommunikationsnetzes KN bilden. In 1 sind
zwei Edge Devices eingezeichnet, beispielsweise ein so genannter "Broadband Remote Access
Server" (GRAS),
der den Zugang zu einem Netz eines Internet Service Providers (IP-Netz)
darstellt, sowie ein weiterer IP-Edge, der beispielsweise einen
direkten Zugang zu einem beliebigen anderen IP-Netz darstellt (IP: "Internet Protocol").
-
Des
Weiteren sind in 1 beispielhaft mögliche Positionen
zur Anordnung des erfindungsgemäßen Datenstrom-Mangements
eingezeichnet. Dabei kann der "Traffic
Manager" (TM) einerseits
z.B. am letzten Switch SW2 angeordnet sein (TM(1)), um bereits am
ersten Punkt, an dem alle von den Edge Devices GRAS bzw. IP-Edge
kommenden Datenströme gebündelt vorliegen,
eine Verkehrsfluss-Organisation durchzuführen. Es ist jedoch auch denkbar – beispielsweise
bei großen örtlichen
Abständen – das Traffic
Management für
einzelne oder alle Teilnehmer in teilnehmernäheren Netzknoten unterzubringen
(etwa in SW1 (TM(2)) oder direkt an den Teilnehmeranschlussleitungen
im Access Node AN1 bzw. DSLAM (TM(3))). Es muss nur gewährleistet
bleiben, dass beim Verkehrsfluss-Management für einen bestimmten Teilnehmer
der Traffic Manager an einem Punkt im Netz angeordnet ist, durch
den der gesamte für den
entsprechenden Teilnehmer bestimmte Datenstrom fließt.
-
Erfindungsgemäß wird bei
der Positionierung des Verkehrsfluss-Managements insbesondere auf
den Aspekt der Wirtschaftlichkeit Wert gelegt. So gilt es abzustimmen,
wo das Traffic Management aus Sicht des Netzbetreibers am günstigsten
angeordnet werden kann. Im Allgemeinen wird dies möglichst weit
innerhalb des Kommunikationsnetzes KN sein, an zentralen Knoten,
die leicht und kostengünstig
zu erreichen sind und an denen eine große Anzahl an Teilnehmeranschlüssen zusammengefasst
werden. Vorteilhaft sollte das Traffic Management beispielsweise
innerhalb des Aggregation Networks AN möglichst nah an den Zugangseinrichtungen
(GRAS und IP-Edge) durchgeführt
werden, beispielsweise an dem in Richtung Teilnehmer ersten Netzknoten
(SW2 mit TM(1)) des Aggregation Netzwerks AN, an dem alle für den entsprechenden
Teilnehmer bestimmten Datenströme
konzentriert und weitergeleitet werden. Lediglich bei besonderen äußeren Umständen wie bei
außergewöhnlich großen örtlichen
Ausmaßen des
Zugangsnetzwerks kann sich eine teilnehmernähere Durchführung des Verkehrsfluss-Managements (z.B.
TM(3) in AN1) als kostengünstiger
erweisen.
-
In 2 ist
in einer vergrößerten Darstellung der
schematische Aufbau des in 1 dargestellten Traffic
Managements (TM(1), TM(2), TM(3)) dargestellt. Ganz rechts sind
in 2 zahlreiche unterschiedliche Datenströme (ST1,...,
ST9) eingezeichnet, die von mehreren unterschiedlichen Service Providern
stammen können
und für
einen Teilnehmer bestimmt sind. Die Bezugzeichen innerhalb der Klammern
der Beschriftungen der Datenströme
geben beispielhaft an, von welchem Service Provider ein bestimmter
Datenstrom stammt und wahlweise zudem mit welcher Priorität der entsprechende
Strom behandelt werden soll. So bedeutet etwa ST4 (Serv 2, Prio
medium), dass Datenstrom ST4 von Service Provider 2 stammt und eine
mittlere Priorität
besitzt. Als mögliche
Prioritäten
werden in diesem Beispiel in abnehmender Reihenfolge die fünf Stufen "am höchsten" ("highest"), "hoch" ("high"), "mittel" ("medium"), "niedrig" ("low") und "am niedrigsten" ("lowest") angenommen. Besitzt
der betreffende Datenstrom keine zugeordnete Priorität, so fehlt
in 2 eine Angabe zur Priorität.
-
Des
Weiteren sind in 2 durch "BW" mehrere
Einrichtungen zum Einschränken
der Bandbreite, so genannte "Bandwidth
Limiter" eingetragen. Das
Traffic Management ist somit in der Lage, an den betreffenden Stellen
die den einzelnen oder auch den logisch verbundenen Datenströmen zur
Verfügung stehende
Bandbreite vorzugeben.
-
In 2 sind
zudem noch einige so genannte "Scheduler" eingetragen. Diese
regulieren unter anderem die zeitliche Abfolge, in der die an den
jeweiligen Scheduler-Positionen auf eine Weitervermittlung wartenden
Datenströme
verarbeitet werden. Das Warten vor bzw. das "Anstellen" an einem Scheduler wird auch mit dem
englischen Begriff "Queuing" bezeichnet, die
einzelnen Datenströme
vor einem Scheduler als "Queue".
-
In
den Schedulern können
die einzelnen Queues abhängig
von unterschiedlichen Kriterien weitergeleitet werden. Am geläufigsten
sind hierbei z.B. das "round
robin"-Verfahren
(RR), eine Weiterbehandlung nach dem Priority-Queuing" (PQ) und das "Weighted-Fair-Queuing" (WFQ). Beim round-robin-Verfahren
werden die am Scheduler anliegenden Datenströme stets der Reihe nach weitervermittelt. Das
bedeutet, dass von jedem anliegenden Datenstrom reihum eine feste
Anzahl von Bits weitergeleitet wird. Anders werden die Datenströme beim
Priority-Queuing verarbeitet. Bei dieser Art des Schedulings werden
die anliegenden Datenströme
strikt nach ihrer Priorität
weitervermittelt. Das Weighted-Fair-Queuing schließlich verbindet
die beiden zuvor erläuterten
Verfahren. Hier wird zwar auch jeweils reihum von allen anliegenden
Datenströmen
eine gewisse Anzahl an Bits übertragen,
die jeweilige Anzahl dieser Bits hängt jedoch von der dem entsprechenden
Datenstrom zugeordneten Priorität
ab. Von Datenströmen
mit einer höheren
Priorität
werden in jedem einzelnen Übertragungsschritt
pro Zeitintervall mehr Bits weitergeleitet als von Datenströmen mit
einer geringeren Priorität.
-
Wie
in 2 dargestellt, wird es durch das erfindungsgemäße Verfahren
zur Datenstrom-Verwaltung in einem Kommunikationsnetz somit ermöglicht,
die Datenströme
einzeln zu behandeln. In 2 werden beispielsweise die
ersten acht Datenströme (ST1,...,
ST8) direkt in ihrer Bandbreite eingeschränkt. Lediglich Datenstrom DS9
kann zuletzt uneingeschränkt
Bandbreite beanspruchen. Des Weiteren ist in 2 zu sehen,
wie der Traffic Manager mehrere Datenströme desselben Service Providers unterschiedlich
behandelt (bspw. ST1, ST2, ST8 und ST9) oder wie einzelne, von unterschiedlichen
Service Providern stammende Datenströme kombiniert und gemäß derselben
Vorschriften weitervermittelt werden (bspw. ST5, ST6 und ST7). Zusätzlich werden
mehrere Scheduler eingesetzt, die einzelne oder logisch verbundene
Datenströme
nach bestimmten Verfahren weiter übermitteln. Auch die logisch
verbundenen Datenströme
können,
wie in 2 zu sehen, mit weiteren Bandwidth Limitern erneut
in der ihnen gemeinsam zur Verfügung
stehenden Bandbreite beschränkt
werden.
-
Es
gilt zu beachten, dass die Darstellung in 2 lediglich
eine beispielhafte Ausführung
eines Traffic Managements beschreibt. Die einzelnen Bandwidth Limiter,
Scheduler sowie alle weiteren Management-Funktionen können auf
beliebige Art eingefügt,
ausgelassen, verknüpft
und ausgestaltet sein.
-
3 zeigt
schließlich
ein weniger komplexes Ausführungsbeispiel
der Funktionsweise des erfindungsgemäßen Verfahrens. In diesem Beispiel existieren
in einem Zugangsnetzwerk für
einen Teilnehmer vier Datenströme,
die von drei unterschiedlichen Service Providern stammen. Bei dem
ersten Datenstrom handelt es sich um Voice-over-IP-Daten (VOIP),
es handelt sich dabei also beispielsweise um ein Angebot eines Voice
Services (Sprachübermittlungsdienst),
mit dessen Hilfe Telefongespräche über ein
IP-Netz vermittelt werden können.
Ein zweiter Datenstrom stammt von einem Broadcast Service, hierbei
werden z.B. Fernsehprogramme über
ein IP-Netz übertragen
(IPTV). Ein dritter Service Provider schließlich stellt verschiedene Dienste
durch einen Hochgeschwindigkeits-Internetanschluss ("High Speed Internet" – HSI) zur Verfügung, in
diesem Beispiel etwa zum einen einen Video-on-Demand-Dienst (VOD)
und zum anderen eine Best-Effort-Internetverbindung (Best Effort),
also einen Zugang zum Internet, bei dem jeweils so viel wie möglich der
zur Verfügung
stehenden Bandbreite genutzt werden soll.
-
Durch
das Traffic Management werden die für die Sprachdienste benötigten Daten
bandbreitenbegrenzt. Dies kann direkt am Queue-Ausgang mittels eines
Bandwidth Limiters geschehen, da der erste Datenstrom (VoIP) der
einzige Datenstrom ist, der einem Sprachdienst zugeordnet ist. Das
Traffic Management begrenzt somit die für Sprachdienste zur Verfügung stehende
Bandbreite gemäß dem Service Level
Agreement für
Sprachdienste ("Service-Shaping"). Auf ähnliche
Weise wird auch die für IPTV-Dienste
nutzbare Bandbreite direkt am Queue-Ausgang des zweiten Datenstroms
(IPTV) begrenzt. Wie in 3 zu sehen ist, wird der zweite Datenstrom
(IPTV) ebenfalls bandbreitenbegrenzt ("Queue-Shaping"). Der dritte Datenstrom (VoD) bleibt
auf dieser Ebene unbegrenzt, ebenso wie der Best-Effort-Datenstrom (Best-Effort).
-
Da
sowohl der zweite Datenstrom (IPTV) als auch der dritte Datenstrom
(VoD) zum Leistungsmerkmal "Video" gehören, werden
diese beiden Ströme
vom Traffic Management zusammengefasst. Dies geschieht in einem
Scheduler, der in diesem Fall nach dem "Weighted-Fair-Queuing"-Prinzip arbeitet (WFQ).
Der gemeinsame, alle Video-Services repräsentierende Datenfluss wird
anschließend
gemäß den Vereinbarungen
im Service Level Agreement für Video-Dienstleistungen
bandbreitenbegrenzt ("Group-Shaping").
-
In
einem abschließenden
Schritt werden die Datenflüsse
der drei verschiedenen Services (Sprache, Video, Internet) ein letztes
Mal auf eine auf der Teilnehmeranschlussleitung erzielbare Bandbreite begrenzt.
Dabei werden die einzelnen Datenströme zuerst mittels eines Schedulers
zusammengefasst. Wie in 3 zu sehen, arbeitet der Scheduler
dabei nach dem Strict-Priority-Verfahren, d.h. es werden die mit
der höchsten
Priorität
versehenen Datenströme
bevorzugt weitervermittelt. Ein nach dem Scheduler angeordneter
Bandwidth Limiter stellt abschließend sicher, dass die auf der
Teilnehmeranschlussleitung vorhandene Bandbreite nicht überschritten wird.