JP2000502854A - 動的同期転送モードネットワークにおけるスロットの再使用方法とその装置 - Google Patents

動的同期転送モードネットワークにおけるスロットの再使用方法とその装置

Info

Publication number
JP2000502854A
JP2000502854A JP09524273A JP52427397A JP2000502854A JP 2000502854 A JP2000502854 A JP 2000502854A JP 09524273 A JP09524273 A JP 09524273A JP 52427397 A JP52427397 A JP 52427397A JP 2000502854 A JP2000502854 A JP 2000502854A
Authority
JP
Japan
Prior art keywords
token
slot
capacity
node
tokens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP09524273A
Other languages
English (en)
Inventor
ラムフェルト、ラーズ
Original Assignee
ダイナーク エイビー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ダイナーク エイビー filed Critical ダイナーク エイビー
Priority claimed from PCT/SE1996/001748 external-priority patent/WO1997024844A1/en
Publication of JP2000502854A publication Critical patent/JP2000502854A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2852Metropolitan area networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/42Loop networks
    • H04L12/422Synchronisation for ring networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/64Hybrid switching systems
    • H04L12/6418Hybrid transport
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q11/00Selecting arrangements for multiplex systems
    • H04Q11/04Selecting arrangements for multiplex systems for time-division multiplexing
    • H04Q11/0428Integrated services digital network, i.e. systems for transmission of different types of digitised signals, e.g. speech, data, telecentral, television signals
    • H04Q11/0478Provisions for broadband connections
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J2203/00Aspects of optical multiplex systems other than those covered by H04J14/05 and H04J14/07
    • H04J2203/0001Provisions for broadband connections in integrated services digital network using frames of the Optical Transport Network [OTN] or using synchronous transfer mode [STM], e.g. SONET, SDH
    • H04J2203/0028Local loop
    • H04J2203/0039Topology
    • H04J2203/0044Bus, e.g. DQDB
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J2203/00Aspects of optical multiplex systems other than those covered by H04J14/05 and H04J14/07
    • H04J2203/0001Provisions for broadband connections in integrated services digital network using frames of the Optical Transport Network [OTN] or using synchronous transfer mode [STM], e.g. SONET, SDH
    • H04J2203/0046User Network Interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04JMULTIPLEX COMMUNICATION
    • H04J3/00Time-division multiplex systems
    • H04J3/02Details
    • H04J3/06Synchronising arrangements
    • H04J3/07Synchronising arrangements using pulse stuffing for systems with different or fluctuating information rates or bit rates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/64Hybrid switching systems
    • H04L12/6418Hybrid transport
    • H04L2012/6432Topology
    • H04L2012/6435Bus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/64Hybrid switching systems
    • H04L12/6418Hybrid transport
    • H04L2012/6445Admission control
    • H04L2012/6448Medium Access Control [MAC]
    • H04L2012/6451Deterministic, e.g. Token, DQDB
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/64Hybrid switching systems
    • H04L12/6418Hybrid transport
    • H04L2012/6445Admission control
    • H04L2012/6456Channel and bandwidth allocation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/64Hybrid switching systems
    • H04L12/6418Hybrid transport
    • H04L2012/6445Admission control
    • H04L2012/6459Multiplexing, e.g. TDMA, CDMA

Abstract

(57)【要約】 本発明は、DTM(Dynamic Synchronous Transfer Mode)の処理能力を増大させるためのスロット再使用法と装置に関する。本発明のスロット再使用法は、DTMのブロックトークンフォーマットを拡張して、ソースと宛先ノードとの間のセグメントを説明するパラメータを含め、ブロックトークン容量を、ソースと宛先ノードとの間のセグメントにのみ確保し、そして、そのネットワークの切り離されたセグメントにわたって同じスロットで同時に伝送を行えるようにする、ことで構成されている。また、本発明のスロット再使用法は、同じスロット範囲を示す二つ以上のセグメント連続トークンが、ノードの自由プール中に存在しているとき、単一トークンに併合されることを含んでいてもよい。

Description

【発明の詳細な説明】 動的同期転送モードネットワークにおけるスロットの再使用方法とその装置 発明の技術分野 本発明は、スロットの再使用法およびDTM(Dynamic Synchronous Transfer Mode)(動的同期転送モード)ネットワークの処理能力を増大するための装置に 関する。 関連技術の説明 新しい高容量通信のネットワークとプロトコルは、通信に関する産業界と学界 によって常に開発されている。この開発は再々変化するので、リアルタイムのオ ーディオ、ビデオおよび非同期通信のサービスをアプリケーションに組み込むア プリケーションディベロッパーにとって新しい結果が重要である。これらのアプ リケーションは、広範囲のネットワークのアクセス端末に見つけることができる 。端末は、ネットワークのホストとして作動し、大部分が、小型のポケット電話 またはテレビジョンセット、マルチメディアの作業端末およびすばらしいスーパ ーコンピュータを含むあらゆる電子装置である。ホストは、処理力に対するその 要求およびその通信サービスの要求の大きさが異なっている。これらの本質的に 異なっている要求は、現在、独立したネットワーククラスの組合せに反映されて いる。各ネットワーククラスは、その特定のトラヒックとアプリケーションに対 して最適化される。すなわち、ケーブルテレビジョンのネットワークは、容量が 、ビデオを送る固定された大きさのサブチャネルに分割されている単向性放送ネ ットワークを使用する。電話ネットワークは、保証された処理能力とタイトに制 御された遅延バリエーションを有する64 Kbit/s の二重ケーブルだけを使用する 。コンピュータネットワーク、例えばインターネットには、コネクションレス型 のパケット交換を利用することによって、多数の並列のネットワークセションが 入っている。またコンピュータネットワークは、リンクを有効に利用するため、 統計的マルチプレクシングを使用する。移動系の骨格ネットワークは、すべての 能動端末を動的に追跡する別の制御(または信号)容量を必要とする。 現在存在し、そして将来増大するこの広いスペクトルのアプリケーションの場 合、新しいタイプの各サービスに対して、新しい時には全世界にわたるネットワ ークと新しい端末インタフェースを連続的に発明することは不可能である。代わ りに、既在のおよび新しいサービスを保持する総合サービスネットワークを開発 する必要がある。このようなネットワークの総合目標は、全世界にわたる大きさ に対するスケーラビリティを高価なネットワークの部材を最大限に共用して経費 を最少にすることである。総合サービスネットワークを現実的な解決策とするの に十分低い価格で必要なリンク容量を提供する光伝送技術が提示されている。 しかし、著しく高い容量を有する新しい総合光ネットワークは、今日のより特 殊化されかつ性能が低いネットワークには見られない新しい問題点をもたらす。 第一に、ネットワークの容量が増大して、情報のフライト待ち時間が光の速度に よって限定されたままであると、帯域遅延積が増大して、ユーザのトラヒックを 第三者のネットワークトラヒックから分離する機構に対して一層高い要求が出さ れるであろう。例えば、電話セションは、他のユーザが高容量のビデオチャネル を開いたことによって影響を受けてはならない。第二に、アプリケーションとプ ロトコルは、通過中の情報量が増大している場合に高い信頼性で作動して、増大 したネットワーク容量によって利益を受ける必要がある。そのため、ネットワー クのバーストとトランザクションが大きくなる。 IP[インターネットプロトコル(Internet Protocol)]のような無国籍のパ ケット交換プロトコルを使用する現在のネットワークは、極端に拡大可能である ことが分かってきた。現在のネットワークは、1970年代中期のごく少数のDAR PA(Defense Advanced Research Projects Agency)の研究コンピュータを接続 した小さなネットワークから、現在の全世界にわたっていたるところに存在する インターネットまで発展したのである。共用媒体のLAN’s(Local AreaNetwo rks)、例えばCSMAICD[Carrier Sense Multiple Access /Collision Dete ction,トークンリングとFDDI(Fiber Distributed Datainterface)]が、ル ータまたはブリッジによって接続される単純なビルディングブロックとして、イ ンターネットに使用されている。容易な拡張、増分ノードの低コストおよび故障 ノードに対する許容範囲を組み合わせた結果、単純でフレキシブルなそして堅牢 なネットワークになった。また、共用媒体によって、IPマ ルチキャストのような新しいマルチキャストプロトコルを有効に利用できる。 共用媒体の欠点は、一般に、いずれの時点でも、単一の端末しか送信させるこ とができないので全ネットワークセグメントを有効に利用していないことである 。 共用媒体の容量を再使用させるスキームが設計されているが、これによって、高 速アクセス制御ハードウェアが複雑になるという犠牲を払っている。また、共用 媒体のアクセス制御機構もネットワークの大きさに強く左右され、通常、地域環 境に対してのみ有効である。 ネットワークの二つの主要タイプは、電話通信に使用される接続指向型回線交 換ネットワークと、インターネットが代表的なものであるコネクションレス型パ ケット交換ネットワークである。回線交換ネットワークがデータ通信に使用され る場合、回線は、情報のバースト間でオープンしたままにしておく必要があり、 ネットワークの容量がむだに使用される。この問題は、回線管理の操作が、ユー ザの要求の動的バリエーションに比べて遅いので起こる。回線交換ネットワーク のオーバヘッドの他の原因は対照的二重通信路を必要とするという制限であり、 これによって、情報の流れが一方向性の場合、100%のオーバーヘッドが生じ る。また、この制約によって、マルチキャストの回線の実現が困難になりかつ非 能率的になる。一方、コネクションレス型パケット交換ネットワークは、資源の 確保を欠いているので、伝送する前に、各メッセージに見出し情報を付加しなけ ればならない。さらに、コネクションレス型パケット交換ネットワークの待ち時 間は、正確に予測することができないので、パケットは、バッファのオーバフロ ーまたは不正な見出しのため失われることもある。後者の二つの因子によって、 リアルタイムのサービスを維持することが困難になる。輻輳回避機構によって、 異なるユーザのトラヒック流を切り離することができる。しかし、これらのスキ ームは、往復パケットの遅延に類似のタイムスケールでの作動に限定される。 上記諸問題を解決するため、通信産業界は、ATM(Asynchronous TransferM ode)の開発に集中している。ATMはLAN’sや多くの将来の公的ネットワ ーク用に提案されている。CCITT(International Telegraph andTelephone Consultative Committee)も、B−ISDN(Broadband-IntegratedServices D igital Network)の転送標準として使用するためATMを採用した。 ATMネットワークは、接続指向型であり、回線交換ネットワークとしてチャネ ルを樹立するが、情報転送用のセルと呼ばれる小さな固定した大きさのパケット を使用している。ATMの上記パケット交換性は、ネットワークが、接続のリア ルタイムの保証を確立するため、バッファ資源管理マネージャおよびリンクスケ ジューラのような新しい機構すなわち仮想チャネル/パスを備える必要があるこ とを意味する。 リアルタイムの保証を与えられる他の解決策は、回線交換ネットワークに集中 しているので、上記のような回線交換の問題を解決しなければならない。新しい 共用媒体の制御プロトコルを採用されているので、共用媒体に共通の検討すべき 問題点がある。この設計は、DTM(Dynamic Synchronous Transfer Mode)と呼 ばれているが(例えば、Christer Bohm,Perl Lindgren,Lars Ramfeltおよび 3(2)巻、109〜126頁、1994年およびLars Gauffin,Lars Hakanssonおよび Networks and ISDN Systems,24(2)巻、119〜139頁、1992年4月参照)、チャネ ルを通信の抽象として使用する。このチャネルは、電話回線とは色々の面で異な っている。第一に樹立遅延が短いので、ユーザの要求が変わるのと同様に速く動 的に資源を割り当てたり/資源の割当を解除することができる。第二に、これら チャネルは単向方式なので、通信が単方向通信の場合、オーバヘッドが最小にな る。第三に、これらチャネルは、ユーザの容量要求の大きな変動を指示するため 多数のビットレートを提供する。最後に、これらチャネルは、マルチキャストで あり、多数の宛先が許容される。 DTMチャネルは、多くの有利な特性を回線と共用している。チャネルの樹立 以後、制御情報の転送がないので、大きなデータを転送する場合、ネットワーク 資源の利用率が非常に高くなる。リアルタイムトラヒックの支持は自然の支持な ので、ネットワーク内の管理、輻輳制御またはフロー制御の必要が全くない。制 御情報はデータから分離されているので、マルチキャストの複雑さが小さくなる 。伝送の遅延は無視することができ(すなわち125μsより小さい)、ATMと 同様にバッファがオーバフローするためデータロスの可能性がない。ビット誤り 率 は基礎のリンク技術によって左右され、そしてチャネルセットアップ時に資源が 厳密に確保されるため交換は簡単で迅速である。 DTMは、従来の回線交換ネットワークでは不十分である領域すなわち動的帯 域の割当、チャネル樹立の遅延において、共用媒体ネットワークのように優れた 性能を示すことができる。 発明の要約 DTMを使用する場合の問題点の一つは、データスロットを、そのネットワー ク内で同時に二つのノードで決して使用できないことである。 本発明の目的はこの問題を解決することである。この目的は、共用リンクをよ りうまく利用してDTMネットワークの処理能力を増大するスロット再使用法と 装置によって達成される。 本発明のスロット再使用法は、DTMのブロックトークンフォーマットを延長 して、ソースと宛先ノードの間のセグメントを説明するパラメータを含ませ、ブ ロックトークンの容量を、ソースと宛先ノードの間のセグメントにのみ確保し、 次いで同じスロットで、ネットワークの連結されていないセグメントにわたって 同時に伝送を行えるようにすることからなる方法である。 また、このスロット再使用法によは、二つ以上のセグメント連続トークンを併 合して、ノードの自由プール中に存在しているとき、単一トークン中に、同じス ロット範囲を表現することを含めてもよい。 本発明のスロット再使用法と装置は、上記問題点を回避する。本発明の方法は 、チャネルに対して、ソースと宛先ノードの間のセグメントにのみ容量を確保さ せる。単一スロットを、このように、ネットワーク内で同時に多数回使用できる 。 本発明の非常に重要な利点は、もとのプロトタイプの実働化に対してハードウ ェアを変更する必要が全くないことである。 本発明の他の利点は、中点のおよび分散したトークン管理スキームの両方でお よびこれらスキームの組合せで実現できることである。 さらに他の利点は、性能利得が明確であることである。すなわち、ソースと宛 先ノードの対が均一に分散しているデュアルバスにおいて、処理能力が2倍に増 大していることが分かっている。 さらに他の利点は、その性能利得が他のネットワークの設計においてより高い ことであり、例えばソースと宛先ノードが均一に分散している二重リング構造で は、処理能力が4倍に増大する。不均一に分散したソースと宛先ノードを有して いる場合、性能利得はさらに高くなる。 さらに別の利点は、二つの連続トークンをノードの自由プール中に併合できる 確率を増大する方法として、トークンをそのホームノードに戻して細分化を低下 させる非細分化法(defragmentation method)を組み合わすと性能が改善される ことである。 図面の簡単な説明 本発明を、以下の添付図面を参照してより詳細に説明する。 図1は、デュアルバスDTMネットワークを示す。 図2は、本発明の各データスロットに対して形成されたホームノードを有する DTMの125μsのサイクルを示す。 図3は、スロットの数とセグメントを示すトークンマップを示す。 図4は、本発明のスロットの再使用を示すスロットセグメントのマップを示す 。 図5は、ユーザの要求が小さく(16 Kbyte)かつ本発明にしたがって分散トー クンサーバを用いてシミュレートしたとき許容される最小容量が異なっている場 合の性能(処理能力とアクセス遅延をそれぞれ、与えられた付加に対して示す) を示す。 図6は、ユーザの要求が小さく(16 Kbyte)かつ本発明にしたがって分散トー クンサーバを用いてシミュレートしたとき要求をブロックする前に許容される再 試行の数が異なっている場合の性能を示す。 図7は、A)シミュレーション開始時に、本発明の非細分化スキームを用いて 細分化法を全く使用しなかった場合、B)シミュレーション開始時に、本発明の 非細分化スキームを用いて最大の細分化法を使用した場合、およびC)シミュレ ーション開始時に、非細分化スキームを使わずに最大の細分化法を用いた場合の 、シミュレーション時間の関数としてのアクセス遅延を示す。 図8は、スロットの再使用ありとなしの場合のデュアルバスDTMネットワー クに与えられた負荷に対するデュアルバスDTMの理論的処理能力を示す。 図9は、10kmの長さのデュアルバスDTMネットワークの中央トークンマネー ジャを、スロットの再使用なしで用いてシミュレートしたときの異なるパケット の大きさに対する性能を示す。 図10は、10kmの長さのデュアルバスDTMネットワークの中央トークンマネー ジャを、本発明のスロットの再使用法を用いてシミュレートした場合の異なるパ ケットの大きさに対する性能を示す。 図11は、1000kmの長さのデュアルバスDTMネットワークの中央トークンマネ ージャを、本発明のスロット再使用法を用いてシミュレートした場合の異なるパ ケットの大きさに対する性能を示す。 図12は、デュアルバスDTMネットワークの分散ロークンマネージャを、本発 明の非細分化法とスロット再使用法を利用してシミュレートした場合の異なるパ ケットの大きさに対する性能を示す。 図13は、分散トークンマネージャを、本発明の非細分化法とスロット再使用法 を利用してシミュレートした場合の異なるバスの長さに対する性能を示す。 図14は、デュアルバスDTMネットワークの分散トークンマネージャを、本発 明の非細分化法とスロット再使用法を用いてシミュレートした場合の異なるトラ ヒック状態に対する性能を示す。 実施態様の詳細な説明 最初に、DTM MAC(Medium Access Control)のプロトコルを説明する。 DTMネットワークの基本トポロジーは、図1に示すようなすべてのノードを接 続する二つの単方向性光ファイバーを有するバスである。速度が異なるいくつも のバスを接続して任意多段ネットワークが形成される。現在のプロトタイプの実 働化の場合、これらのバスは二次元のメッシュに組み合わすことができる。その 二つのバスの接合部のノードは、これら二つのバス間のデータスロットを周期的 に効果できる。これによって、そのノードを通じて、一定の遅延で有効な交換を 行うことができる。DTMにおける一次通信の抽象化は、マルチレートのマルチ キャストのチャネルである。 DTMの媒体アクセス制御は、時分割多重スキームである。そのバスの帯域幅 は、図2に示すように、125μsずつのサイクルに分割され、そしてそのサイク ルは64ビットタイムのスロット(すなわち略してスロットという)に分割される 。1サイクル中のスロットの数は、このように、ネットワークのビットレートに よって、例えば6.4 Gbit/sネットワークによって決まり、1サイクル当たり約12 500のスロットがある。 これらスロットは、二つのグループ:制御スロットとデータスロットに分割さ れる。制御スロットは、チャネル樹立および帯域幅再割当のためのメッセージの ようなメッセージを、ネットワークの内部動作のために送るのに用いられる。デ ータスロットは、ユーザデータを転送するのに使用され、中間ネットワークのノ ードによって解釈されない。中間ノードはソースと宛先との間のノードである。 各ネットワークのノードには、ノードコントローラ:NCがあり、このNCは 、データスロットへのアクセスを制御して、ネットワークのスタートアップと誤 り回復のようなネットワークの管理動作を実施する。ノードコントローラの主な タスクは、ユーザから要求があった場合、チャネルを作り終了させ、そしてユー ザの要求に応答しバックグランド中にあるネットワークの資源を管理することで ある。 制御スロットは、ノードコントローラ間のメッセージ用に排他的に使用される 。各ノードコントローラは、他のノードに向けて下流に制御メッセージをブロー ドキャストするのに用いる各サイクルにおいて少なくとも一つの制御スロットへ の書込みを許可する。制御スロットへの書込みアクセスは排他的であるから、そ のノードコントローラは、他のノードおよびネットワーク負荷には関係なしに、 その制御スロットに対し常にアクセスしている。一つのノードが使用する制御ス ロットの数は、ネットワーク作動中に変えることができる。 ネットワークは、デュアルバスに限定されることなく、他の種類の構造体、例 えば任意の数のノードを有するリング構造体で実現することができる。伝送媒体 は、光ファイバー以外に、同軸ケーブルまたは他の高帯域幅伝送媒体でもよい。 以後、伝送媒体は光ファイバーと呼称する。好ましい実施態様におけるDTM デュアルバスの帯域幅は、125μsずつのサイクルに分割され、そしてそのサイ クルは64ビットタイムのスロットに分割される。本発明は、上記数値を有するD TMネットワークに限定されることなく、任意の大きさのサイクルとスロットを 有するネットワークに使用できる。 資源管理(被呼トークンの管理)の原理を以下に説明する。サイクル中のスロ ットの大部分はデータスロットである。データスロットに対するアクセスは、ト ラヒックの要求によって時間の経過とともに変化する。スロットに対する書込み アクセスはスロットトークン(または略してトークン)によって制御される。ノ ードコントローラは、対応トークンを有している場合に限り、スロットにデータ を書き込むことができる。そのトークンプロトコルは、そのスロットアクセスが コンクリフトのないことを保証する。なおこのことは、いくつものノードがデー タを同じスロットに書き込まないことを意味する。 チャネル樹立および帯域幅再割当の制御メッセージは、スロットまたはトーク ンのセットをパラメータとして運ぶ。しかし、制御メッセージは64ビットなので 、少数のパラメータしかもつことができない。このことは、ユーザが大帯域幅の 転送を要求する場合、チャネルを作るためいくつもの制御メッセージを送る必要 がある。このことによって余分のアクセス遅延が生じかつ信号容量が消費される 。 我々は、チャネルを作りトークンの再割当を行っている間に送る必要がある情 報の量を少なくするいくつかの機構を検討中である。トークン管理の際に最初に 行う最適化は、ブロックトークンを導入するために行われる。ブロックトークン は、単一制御メッセージで転送され、1グループのトークンを表すが、特定の組 合せのトークンに対してのみ使用することができる。例えば、シミュレーター中 、ブロックトークンは、スロットの数およびそのグループ中の連続スロットの数 を与えるオフセットによって表される。ブロックトークンが最適化されていれば 、トークンのプールは小ピースに細分化されていないとみなされる。このことは トークンプールの細分化と呼称される。 トークンプロトコルは、一つのデータスロットが、そのバスで同時に二つのノ ードによって使用されることがないことを保証している。場合によっては、この プロトコルは堅実すぎる。図3は、三つのトークン(A、BおよびC)が三つ のチャネルに対してどのように確保されるのか一例を示している。ノードはバス セグメントによって接続され、チャネルは一般にバスのセグメントのサブセット (灰色)を使い、そして残りは確保されるが(白色)使用されないようだと共用 の資源が浪費される。選択肢のうち優れているのは、チャネルを、図4に示す実 施例のようにセンダとレシーバの間のセグメントのチャネルだけに容量を確保さ せることである。この場合、単一のスロットがそのバスで多数回使される。チャ ネルDとEは、チャネルAとCと同じスロットを使用しているがセグメントが異 なっている。このことは、スロットの再使用と呼称される。スロットの再使用に よって、バスの切り離されたセグメントにわたって同じスロットで同時に伝送が 行えるようになる。 スロットの再使用は、リングネットワークとバスネットワークの共用リンクを 一層うまく利用する一般的な方法である。DQDB(Distributed Queue DualBu s)、SimpleおよびCRMA(Cycl: C Reservation Multiple Access)における スロット再使用のアルゴリズムは、これらスロットの制御情報によって決まる。 バッファ挿入ネットワークは、METARINGと同様に宛先解除と結合される と、個々のリンクの容量を再使用し、そして弾性バッファを通じて入力されるパ ケット流を遅延させることによって、起こりうるコンテンションを解決する。 スロットの再使用によって、アクセススキームの複雑さは、アクセスがDQD B、SimpleおよびCRMAのようなハードウェアでなされるかまたはDTMのよ うなソフトウェアで行われるのかにかかわらず増大する。スロット再使用は、D TM以外の系で実現される場合、スロットの再使用によって、臨界的な高速パス にノードを通じて複雑なハードウェアが付加されるのでノード遅延が増大する。 DTMでスロットを再使用させるため、ブロックトークンのフォーマットを、 本発明にしたがって拡張させて、該フォーマットが表しているセグメントを説明 するパラメータを入れる。また、トークン管理プロトコルも本発明にしたがって 、スロット数の大きさとセグメントの大きさのコンフリクトを回避するため変形 される。最も重要な想定は、ハードウェアは、許容されるかまたは要求されるか にかかわらず、元のプロトタイプの実働化には変化しないということである。性 能利得も全く明確である。すなわち、ソースと宛先の対が均一に分散しているデ ュ アルバスにおいて、処理能力が2倍に増大することが分かったのである。性能利 得は、他のネットワーク設計ではさらに高い。例えば、ソースと宛先のノードが 均一に分散している二重リング構造では、処理能力は4倍になる。ソースと宛先 のノードが不均一に分散していると性能利得はさらに高くなる。 しかし、DTMネットワークでスロットを再使用することによって生じうる欠 点は、そのノードコントローラと信号チャネルに対してアルゴリズムの複雑度が 高くなり、結局、負荷が高くなることである(特に、平均のチャネル持続期間が 短い場合)。 2種のトークン管理スキームを評価した。第一の最も単純なスキームは、単一 のノードコントローラに、一つのファイバーに対するすべての自由なトークンを 管理させるスキームである。また、この種の集中サーバ機構は、ヘッドエンドノ ードがファイバーの容量をすべての他のノードに分布させているCRMAなどの システムにも使用されている。各ファイバーに対して、スロットジェネレータか らの距離の1/3の距離に位置するノードがトークンサーバであるようにシミュ レータを配置構成した(バスに100個のノードがある場合、33番目と67番目のノ ードがトークンサーバである)。これは、二つの単向性ファイバーの各々に対す る要求の中央点に相当し、その結果、トークンマネージャはその両側に同量のト ラヒックを持っている。 ユーザの要求がノードに到着する時間毎に、ノードはまずマネージャにトーク ンを要求し次いでそのトークンをチャネルの全寿命にわたってロックする。ユー ザがチャネルを切断する要求を発すると、トークンはマネージャに直ちに戻る。 すべての要求は、トークン要求中に遅延し、アクセスは中央マネージャによって 直列化される。 分散されたトークンマネージャの方が集中型のものより、基本的に複雑である 。我々はそれをできるだけ単純にしようと試みた。我々の方法において、各ノー ドは、自由トークンをいくつ持っているかについての状態情報を正規にブロード キャストする。他のノードは、この情報をその状態テーブル中に記憶する。さら に容量を要求するノードは、その状態テーブルを考慮して、どのノードからスロ ットを要求するかを決定する。開始側のプロトコルは次のように作動する。 ユーザの要求がノードに到達すると、 1.ノードがユーザの要求を満たすのに十分に多数の自由トークンを持ってい る場合、そのノードは、要求された数のスロットをユーザに割当て、次いでチャ ネル樹立メッセージを宛先ノードに送り、次に確保されたスロットを用いてデー タを伝送することによってチャネルをスタートさせる。 2.さもなければ、ノードは、その利用可能なトークンに、確保されていると してマークを付けてその状態テーブルをチェックする。すなわち、そのネットワ ーク内の自由トークンの合計量が要求を満たすほど十分でない場合、要求は拒絶 される(ブロックされる)。さもなければ、そのノードは、未使用の容量を有す るノードにトークンを要求する。 トークンの要求を受けるこれらノードのうちの一つが要求された数の自由スロ ットをもっていない場合、やはり、もっているすべてのスロットを提供する。い ずれにしろ、ノードは、要求しているノードに、応答を送り返す。ノードは、厳 密なFIFOオーダで、入力要求を満たす。 ノードは、トークン要求に対する応答を受けると、その応答で(応答がある場 合)そのノードが受け取るスロットに確保されたとしてマークを付ける、ノード は、その送ったすべての要求に対して応答を受け取ったとき、十分な容量を獲得 したかどうかによって、チャネルをスタートさせるかまたはユーザの要求を拒絶 する。ユーザの要求が拒絶された場合、確保されたスロットは再び自由であると してマークが付けられる。 スタートアップするとき、すべての自由トークンはネットワークノード中に均 一に分散しており、各ノードはその自由トークンのうちの少なくとも一つを取り 、それ(それら)を能動状態まで移行させて、それ(それら)が制御スロットで あると宣言する。ここでユーザの要求が受容され、トークンは要求があり次第ノ ード間を移動することができる。 このスキームの弱点は、スロットの再割当がユーザの要求でしかトリガーされ ずかつユーザの要求はトークンの再割当が未決のままであることによって遅延さ れることである。これを改善するため我々が実施した最適化は、バックグラウン ドにスロットの再割当を実施することである。その結果、小形〜中形の大きさの 要求に対してトークンの再割当を行う必要が少なくなる。 自由トークンのプールは、再割当の成功率と利用率を増大するため、均一以外 の方式で分布させてもよい。プールを管理しているノードが少ない場合、トーク ンの再割当が失敗する確率が低いため、チャネルのブロッキングが減少する。 この場合、完全トークンプールは、全ノード中に、比較的分散されている(ス ロットジェネレータに近いノードは、スロットジェネレータから離れているノー ドより多くのトークンをもっている)。トークンの転送は、常にサーバノードを 含むノードの対以外のどんな対のノードの間で起こってもよい。局所ノードが、 到着するユーザの要求を満たすのに十分なトークンを有している場合、その要求 はトークンの再割当なしで受容される。さらに、到着するユーザの要求がプール の分散に十分整合している限り、再割当は全く必要でない。 トークンのプールを分散させる方法を決定する前にいくつかの質問に回答しな ければならない。以下の問題点がアドレス指定される。 1.ノードの局所資源がユーザの要求を満たすほど十分でない場合、他のどの ノードにさらに多くのトークンを要求すべきであるか? 2.あるノードがいくつものノードにトークンを要求する場合、そのトークン をいくつ要求すべきであるか?およびノードが要求した容量の小部分を受け取っ た場合、そのノードはチャネルを拒絶すべきか? 3.トークンがノード間を自由に移動する場合、トークンプールを小ピースに 細分化してブロックトークン最適化スキームを無用にするか? 状態メッセージが決定され、自由トークンのプールの回りに情報を分散させる のに使用される。状態メッセージの情報は、ノードがより多くの資源を要求する とき、適当なノードと選択するのを助けるのに使用される。この方法は上記第一 の問題をアドレス指定する。 我々のスキームには以下のような働きがある。各ノードは、自由トークンをい くつもっているかについての状態情報を正規にブロードキャストする。他のノー ドはこの情報をその状態テーブルに記憶する。より大きい容量を要求するノード は、その状態テーブルを参照して、どのノードにスロットを要求するかを決定す る。ブロードキャストされた状態情報はトークン情報の現在の状態の近似のかつ 日付けつきのビューを提供する。したがって、トークンの要求は、もはや提供す べきトークンをもっていないノードに送られたので拒絶される。 状態テーブルは、期限切れまたは利用できなくても、システムは作動するとい う意味で“ソフトな”情報である。しかし、状態テーブルは、再割当法の成功率 を改善しなければならない。 集中トークンマネージャ(図9)と分散トークンマネージャ(図12)を比較す ると、我々は、資源がそのシステム内でまだ使用されていない場合、分散バージ ョン中に多い新しいタイプの拒絶があることが分かる。 ノードは上記状態テーブルを用いて、トークンを要求すべきノードを取り出す 。要求が標的ノードに到達したとき、利用可能な容量の大きさが変化していて、 要求された量より少ない量が要求しているノードに戻されると、ユーザは拒絶す る。 この動作は、非常に多数のトークンの不必要な移動をもたらすので、他のノー ドが要求されたより少ないトークンを受ける確率も増大する。この場合に移動さ れるトークンは転送中、ロックされ使用されない。 プールが、多数(数百個)のノード中に比較的、分散されている場合、プール の平均の大きさは比較的少ない。負荷が高いと、プール中の自由トークンの数は さらに一層減少する。ノードが非常に速い速度でチャネルを創製して破壊する場 合、個々のノードの自由容量の大きさは、小さな大きさの容量を持っているノー ドから容量のないノードの間をジャンプする。この場合、ユーザが要求する平均 の容量が、ノードの自由トークンの数に比べて大きいと、いくつかのノードがそ の要求を満たすため要求される必要がある。この時点で、要求されるノードのう ちの一つが自由容量もっていない確率が増大すると、ユーザが拒絶するに至る。 集中型モデルに戻ることなしにこの問題をアドレス指定する方法がいくつかあ る。第一に、我々は、完全に要求が満たされないときにどんなスロットもともか く放棄してはいけない。このプロトコルは、単一のノードしか自由トークンを要 求されないが、いくつかのノードが要求されて、トークンが移動されるかまたは 使用されずにロックされる場合に当てはまる。第二に、トークンが要求された後 、我々が我々の要求するのより少ない数のトークンを受け取る場合、我々はその トークン要求手順を何回も、単に再試行することができる。これによって、ユー ザの要求が受容されて受け取られたトークンが使用される確率が増大する。再試 行の経費は、増大した信号と増大したアクセス遅延の経費であり、その再試行に よってオーバーロードになったネットワークの性能が悪化する。また、ユーザの 再試行によって、再試行される要求に対するセットアップ遅延が長くなる。第三 に、ユーザは、拒絶する代わりに、容量が要求された容量より小さいチャネルを 受け取ることを望むことがある。 例えば、ユーザは、要求量の50%を受け取れば、受容を望むことがある。図5 において、処理能力すなわち輸送されたユーザデータとファイバーで伝送された ビットの合計数との比率、およびアクセス遅延すなわちユーザの要求の到着から 要求の第一データの送出までの時間を、各種の受容可能な最小容量[100%(40 スロット)、50%(20スロット)および5%(1スロット)]を有する小さな(16K byte)ユーザの要求について、与えられた負荷に対してプロットした。受容可能 な平均最小帯域幅が小さいと処理能力が増大する。ユーザが(16 Kbyteのデータ 転送を要求している)8回まで再試行してから要求が最終的にブロックされると きにもたらされる性能を図6に示す。より多くの信号とより長い遅延を犠牲にし て、利用率が増大し(ブロッキングが減少する)、再試行を多数回行う場合、こ れが再々行われると、逆効果になる。 ユーザのフレキシブルな要求の方策の利点は、明らかに、拒絶される確率が低 いことと全処理能力が高いことである。要求が到達した時点で、図5と6に示す 配置構成のどちらかに決定される。チャネルの容量に対する要求が厳密なユーザ は、十分な容量が割当てられるまで再試行を行うが、他のユーザはそうではなく て容量が要求される容量より小さいチャネルを受容する。ここで提供されるその 他のシミュレーションの場合、最小の受容可能な帯域幅は要求される容量の50% と定義する。 一般的に、ノード中の連続自由ブロックの平均数は、トークンが無作為に移動 しかつユーザが要求する容量が変化するために小さい。この細分化のために、ブ ロックトークンの最適化が事実上役に立たなくなり、アクセス遅延が高容量のチ ャネルに対して比較的長い(数ms)。ブロック割当を有効にするには、自由 トークンの細分化を減少させる必要がある。さもないと、細分化は、中位ないし は高い負荷の場合、高帯域幅のチャネルに対するアクセス遅延の断然最も重要な 原因になる。低容量のチャネルは、ほとんど常に、細分化の現在の大きさとは無 関係に、チャネル樹立の遅延が非常に短い。スロットを再使用する場合、細分化 の問題は、スロット(時間)とセグメント(空間)の大きさの両者に起こるので 細分化の問題はさらに悪化する(図4参照)。これは、集中型サーバのバージョ ンにおける、一般的な動的記憶割当の問題の特定のアプリケーションである。分 散トークンマネージャにおいて、細分化の大部分は、多数の自由プール(各ノー ドに対して一つずつ)を使用することから起こる。二つの自由な隣接トークンは 、同じノード中で見つけられる場合にのみ併合することができる。 可能な場合、細分化を回避してノード中の自由トークンの平均ブロックサイズ を増大する試みを行う分散スキームを実行した。スロット再使用ありとなしの両 者のスキームを使用した。 そのスキームは以下のように作動する。 1.ネットワークスタートアップ時に各トークンのホームノードを定義し、同 じホームノードを共有するトークンが常に連続スロットの範囲を定義する方式で トークンを分散させる。その結果、図4に示すトークンマップ中に大きな平均ト ークン領域が得られる。 2.同じスロットまたはセグメントの範囲を有する二つのスロット連続トーク ンが自由プール中に存在している場合、それらトークンを単一のトークンに併合 する(時には、再帰的スプリットと併合操作が必要である)。併合を行うとき、 常に、セグメントの併合を優先して行ってからスロット数を併合する(その理由 は、ごく少数のセグメントにまたがっているトークンは、多数のセグメントにま たがっているトークンより、他のノードに対して有用性が小さいからである)。 少なくとも部分的に同じスロット範囲を示しかつノードの自由プール内に存在す る二つのセグメント連続トークンは分割されて、同じスロット範囲を示しかつ単 一のトークンに併合されるセグメント連続トークンが得られる。 3.ノードが局所のユーザまたは遠隔ユーザからトークンの要求を受けると、 スロット数とセグメント数の大きさにもっともよく適合したアルゴリズムを用い てトークンプールからトークンを取り出す(図4参照)。トークンの他は、トー クンマップ中のトークンの領域として計算され、我々は要求された容量を満たす 、最小領域を有するトークンを取り出す試みをする。コストの関数も、例えばス ロットの数、セグメントの数、スロットの位置およびセグメントの位置の関数と して定義することができるが、しかし、その関数は、最小にししかも要求された 容量を満たさねばならない。また、この機構は、集中型トークンマネージャを使 用する場合、サーバが使用できる。 4.ノードは、他のノードにトークンを要求する必要がある場合に、より少数 のノードにより大きなチャンクを要求することができるとき、いくつものノード に小さなチャンクを要求しない。その状態テーブルがこの情報を提供する。した がって、トークンの転送はより効率的であり、樹立メッセージが少なくかつ細分 化が低い。 5.自由トークンが、かなりの時間または長い転送の後、使用されないでいる 場合、ホームノードに送り戻される。 このスキームは、二つの連続トークンを細分化を減らす自由リストに併合でき る確率を増大するように、トークンを“ホーム”ノードに戻す。ホームノードの “重力(gravity)”が強すぎる場合、そのスキームは資源の共用と不必要な信号 が少なくなる。ホームノードの重力が弱すぎると、細分化が問題を残す、この“ 重力”は、バスの作動中に変化する。 非細分化(defragmentation)機構を評価するため、我々は別の一組のシミュレ ーションを行った。3種のシミュレータ[A,B,C]を配置構成した。シミュ レータAは、シミュレーション開始時に細分化がなく上記非細分化スキームを使 用するよう配置構成した。Bは、完全な資源プールの最大の細分化で始まった。 全トークンが単一のスロットを有し、そして非細分化機構の前に“ホーム”ノー ドのトークンは作動させなかった。最後に、シミュレータとは、非細分化機構を 用いることなく、最大の細分化がなされたプールで出発した。すべての場合、ス ロットの再使用を実施し、負荷は80%と定義した。 図7に、10kmのネットワークについて、アクセス遅延をシミュレートした時間 の関数として示した。シミュレータCは長いアクセス遅延で出発し、そしてその 遅延は、信号チャネルがオーバーロードになりかつメッセージ待ち行列が成長す るにつれて増大した。非細分化機構を使用するシミュレータBは、Cと同様に不 良状態で出発し、10ms後すでに、平均のアクセス遅延は500ms未満である。シミ ュレーション時間が1秒経過した時以後、B曲線はAとほとんど一致した。すな わち、B曲線は、全く細分化なしで出発するシミュレータの性能に収束する。そ の収束速度は、ネットワークの自由容量の大きさに左右されるので負荷にも左右 される。これら全シミュレーション中の負荷は80%であった。この非細分化機構 によって、アクセス遅延が明らかに改善され、また分散された実働化においてブ ロックトークンの最適化が有意義になる。 性能の2種の尺度すなわち利用率とアクセス遅延が重要である。利用率は、デ ータ転送に実際に使用される公称のネットワーク容量の部分を意味し、ネットワ ークの効率の尺度である。アクセス遅延は、ユーザの要求の到着からその要求の 第一データの送出までの時間を意味し、これは、コンピュータの通信トラヒック がいかにうまく保持できるかを示す重要な尺度である。 DTMの利用率に影響する主な要因が二つある。第一に、各ノードは制御スロ ットの形態で信号容量を割り当てられており、このことは、リンク容量が固定さ れると、多数のノードを有するバスに、データを転送するのに利用できるスロッ トが少ないことを意味する。第二に、スロットトークンがノード間で再割当てさ れながら、対応するスロットはデータ転送を行うのに使用できないのでトークン の再割当てはオーバヘッドをこうむる。 アクセス遅延は、制御スロットに対する負荷、およびチャネルを樹立するのに 制御メッセージをいくつ送る必要があるかによって主に決まる。このアクセス遅 延は、一般に、いくつかの遅延:例えばノードコントローラ処理の遅延(5μs )、自由トークンを見つけて割り当てる際の遅延(100μs)、最初の利用可能 な制御スロットがパスするのを待つ際の遅延(50μs)および最初に割り当てら れたデータスロットがユーザのデータで満たされるのを最終的に待つ際の遅延( 62.5μs)の合計である。さらに、メッセージは、ノードコントローラへ入力す る際に、処理されるのを待っている待ち行列で遅延する。以下に述べるシミュレ ーションにおける、平均の遅延は数百μsまでである。 コンピュータ通信に見られる比較的寿命が短い転送(4〜4000 Kbyte)にむし ろ近いトラヒックパターンに、DTMが暴露されるシミュレーションから得られ た結果を説明する。トラヒックは、クライアントサーバ指向のバースティインタ ーアライバル(bursty inter-arrival)および指数分散アライバルを有している 。そのシミュレーションモデルでは、各転送は、情報の新しい“パケット”のア ライバルによって始まる。ノードコントローラは、転送のため資源を割り当てよ うと試み、データを伝送し最後にチャネルを解除する。このことは、リアルシス テム中の機構が単純化されることを意味し、このシステムにおいて、チャネルの セットアップ、データの転送およびチャネルの分解は、ユーザが開始する独立し た作動である。例えば、転送がまさに行われようとしているのを知っているユー ザは、転送が始まるときにチャネルがすでに樹立されているように、予めチャネ ルを要求することによって、チャネル樹立の遅延を“隠す”ことができる。セッ トアップと分解の間、チャネルの容量は、ユーザに対して完全に確保される。チ ャネルの最も直接的な用途は、単一転送の用途であり、例えばファイル転送また はビデオ伝送である。 アプリケーションの特徴によって、チャネルの使用法を最適化することができ る。例えば、チャネルは、ATMセルまたはIPパケットのようなより高いレベ ルのメッセージのシーケンスを転送するのに使用できる(このことは、ATMネ ットワークにおいて全IPトラヒックに対し単一VCを用いるのと類似している )。チャネルがマルチキャストチャネルの場合、異なる宛先に対するメッセージ は、そのチャネルに多重化することができる。このことは、各メッセージが、マ ルチキャストチャネルのあらゆるレシーバに到着し、レシーバはメッセージをフ ィルターできなければならないことを意味する。別の解決法は、各メッセージに 対してチャネルを創製し破壊するが、シーケンス中の次のメッセージのためトー クンが容易に利用できるように、メッセージ間にトークンを確保する方法である 。 この種のユーザの動作は、シミュレーションが特定のアプリケーションに対す る最適化であるから、シミュレーションには組み込まれない。代わりに、そのネ ットワークが、ユーザのレベル最適化なしでどのように実行するかについて注 意がはらわれる。 センダは、レシーバがチャネル樹立メッセージを受け取る前でさえ、資源が割 り当てられたならば直ちにデータを送り始める。このことはチャネル樹立と呼称 される。レシーバは結局、制御メッセージに対し応答してチャネルを受容するか または拒絶する。 ユーザの要求は以下のパラメータを有している。 ・チャネル樹立とチャネル解除の間に転送されるユーザデータの大きさを意味 するパケットの大きさ。我々は、パケットの大きさと数Kbyte から数Mbyte まで シミュレートする。 ・チャネル用に要求される容量つまりノードが割り当てを試みるスロットの数 。本明細書のすべてのシミュレーションに対して要求される容量は40のスロット または20.48 Mbit/sに固定されている。 ・最小の許容可能な容量。ノードは、この数のスロットを割り当てることがで きない場合、要求をブロックする。これは通常40または20のスロット(要求され る容量の100%または50%)に設定される。 ・ソースのアドレス ・宛先のアドレス ソースおよび宛先のアドレスはランダムに生成し(同じ確率を有する全ノード )そしてユーザのインターアライバル時間が指数的に分散されている。これらシ ミュレーションによって、利用率、チャネルセットアップの遅延およびブロッキ ングに対する信号容量とスロット再割当てオーバーヘッドの効果を研究する。我 々は、トラヒックの条件を変えて、下記特性を有するポロジーについてシミュレ ートする。 ・100のノードを有するデュアルバスネットワーク。たとえ、より多数のノー ドを一つのバスに接続することが理論的に可能であっても、我々は、一つのバス に100を超えるノードを有するネットワークを管理することは実行できないと考 えている。100のノードが容量を共用していることは、トークンの管理のプロト コルを利用し試験するのに十分に意味がある。 ・各バスの容量は6.4 Gbit/sである。我々は、このことは、1、2年以内に実 現できる現実的なものと信じている。2.4 Gbit/sの光学的リンクは数年間入手で きた。そして10 Gbit/sのリンクは間もなく市場に現れると報じられている。6.4 Gbit/sは100 MHzのスロットレートに相当し、このレートは、スロットを処理す るMACハードウェアが、現在のCMOS技術で達成できるこのスピードを作動 させるレートである。 ・全信号容量は、全ノードに対する容量と同じであるが、これらのスロットは 、ノードがバスに配置されている位置によって、比例的に二つのファイバーの方 向の間に分配されている。ノードがスロットジェネレータに近ければ近いほど、 より大きな制御容量が必要である。しかし、両方のバスの制御容量の合計は、全 ノードについて同じである。二つのトークンサーバを有するネットワークにおい て、これらサーバは、他のノードより大きい制御容量と高い処理容量を有してい る。 ・そのバスの長さは10kmである。この長さは、伝搬遅延の効果を無視できない 十分に大きなネットワークを提供する。異なるバスの長さによるシミュレーショ ンにおける伝搬遅延の効果の試験結果を図11と13に示す。 ・2種のトークン管理スキームをシミュレートする。すなわち、一つのファイ バーのすべてのトークンが単一のトークン−サーバによって管理される非対称ス キームおよび各ノードコントローラが全世界にわたるトークンプールの小部分管 理する対称スキームである。 DTMデュアルバスネットワークの性能を分析する場合、最高の理論的性能を 発揮するようアドレスを指定し、シミュレートされた性能と比較しなければなら ない。また、その最高の理論的性能は、我々が評価する異なるスキームやインプ リメンテーションを比較するのにもこの明細書で用いられる。 デュアルバスのシステムの、スロットの再使用なしでの最大処理能力は、両方 のファイバーが同じトラヒックを受け入れる場合、リンク容量の2倍と定義する ことができる。スロットを再使用するシステムで、そのシステム処理能力は、や はり、ソース宛先の分散に左右される。デュアルバスに対してこの処理能力を得 るため、我々は、ソースと宛先のアドレスが均一に分散されているモンテカルロ シミュレーションを使用した(図8の左側のグラフ参照)。これを、ユーザが大 きな転送(20 Mbit/s容量にて4MB)を要求し、信号容量が障害になっていない (図8の右側のグラフ参照)DTMネットワーク(集中型トークンマネージャを 用いて以下に定義されるようなシミュレータ配置構成)と比較すると、利用率が 理想的な場合に近い。このように動作するリアルトラヒックは、バルクデータの 転送とオーディオ/ビデオの流れ出ある。図に示す差は、DTMのいくらの容量 が、制御スロットに用いられ、データ転送によって使用されるスロットの利用可 能な数が低下する結果である。DTMシステムのランダムジェネレータは、上流 と下流の方向に、正確に同じ大きさのトラヒックを生成しない。このためこれら の方向のうちの一方でブロッキングが起こり、そのとき容量は他方の方向で得る ことができる。チャネルが樹立されている間、資源は、一瞬いくらかの容量を浪 費して未使用のままロックされる。 中央トークンマネージャの場合、その二つの管理ノードは、他のノードより大 きい信号容量を必要とする(サーバノードには、他のノードに比べて8倍の制御 スロットが割り当てられる)。 第一組のシミュレーションの結果を図9に示す。ユーザは20 Mbit/sのチャネ ルを要求し、インターアライバル時間は指数的に分散され(ポアソン過程で生成 する)、そしてこれらのシミュレーションを異なるパケットサイズで実施する。 そのチャネルの全容量に割り当てることができない場合、その要求は拒絶され、 トークンはトークンサーバに戻される。パケットサイズは4 Mbyteから4 Kbyteま で変化し、その時点で、我々には処理能力の劣化が見え始める。 処理能力の劣化は、ノードの処理容量または制御チャネルの容量が小さすぎる 場合に起こる。サーバのノードは特にオーバーロードになりやすい。その結果、 制御メッセージを含む待ち行列が非常に大きくなり始める。制御トークンは未使 用の容量を示すので処理能力は劣化する。 4 Kbyte/チャネルのシミュレーションの場合、制御容量は制限因子であり、さ らに制御スロット(信号容量)を加えると、4 Kbyteおよびさらに小さなパケッ トが一層効率的に支持される。 図10に示す次のセットの曲線は、スロット再使用機構がシステムの性能をどの ように改善するかを示す。処理能力は、かなりの数のチャネルが拒絶される前に 、 ほとんど2倍まで増大する。チャネルの均一なソースと宛先の分散によって、ス ロットの再使用で達成される増大容量の大きさが限定される。我々が行っている ように、ソースと宛先を均一に生成させると、デュアルバスの処理能力は2倍に なることが分かったのである。これらのシミュレーションにおいて、与えられる 負荷が2.5を超えると、我々は実際に2.0より高い処理能力を得ることができるこ とが分かる。しかし、このレベルの処理能力には、いくつかのチャネルが拒絶さ れることなしに到達することができない。拒絶される確率が最も高いチャネルは 、多数のスロットまたはセグメントを使用するチャネルである。したがって、そ のシステムは、あまり強く要求されていないユーザの要求を“フィルターし”て 、残りの要求を捨てる。これは通常、許容できない動作なので、我々は、この動 作をこれ以上検討しない。処理能力の劣化は、与えられた負荷が1で4 Kbyteの 転送のときに起こる。たとえ、十分な資源がトークンサーバで利用できても、制 御チャネルが輻輳するので、チャネルを十分迅速に樹立し破壊することは不可能 である。さらに、同じ理由で、与えられた負荷が1.8で8 Kbyteのシミュレーショ ンに処理能力の劣化が見られる。スロット再使用の機構は、制御とサーバの処理 容量がボトルネックでない限り、集中型トークンプロトコルをごくわずか変える ことによって、システムの処理能力をほとんど2倍にすることが、図10に示すシ ミュレーションから結論することができる。負荷が0.1から0.5まで増加すると、 アクセス遅延が実際に減少することが、予想外のことであるが、これらの曲線か ら分かる。このことは、スロットがチャネルに割り当てられる方法の結果であり 、より迅速にトークンを要求する方法の結果ではない。トークンをサーバに要求 するのにかかる時間は着実に増大している。 図10に示すDTMの性能と図8に示す理論値を比較すると、等しく短いバース ト(数msの期間)を有効に支持できることが分かる。 単一のトークンサーバを使用する場合、各チャネルを樹立するためまずトーク ンが要求され、そのトークンがサーバに要求された後、ノードがチャネルを樹立 できる。バスの長さが増大すると、トークンを要求するのにより長い時間がかか るので、処理能力が限定されかつアクセス遅延が増大する。 図11にシミュレーションで得られた結果を示す。この場合、バスの長さは100 kmから1000 kmまで増大している(ノード間の時間間隔はこの場合50μsである )。アクセス遅延と処理能力は、この場合、トークンサーバに対する往復の待ち 時間によって限定される。 この場合のアクセス遅延は、サーバまでの距離によって決まるが、転送の大き さには無関係である。利用率は、樹立相は長いデータ転送相にわたって償却され るので、転送の大きさに強く左右される。1/10秒の時間で256 Kbyteもの大量 の情報を転送するチャネルは、バスの長さが1000 kmの場合、一層有効にサポー トされる。 集中型トークンマネージャを使うといくつもの利点がある。クライアントはそ れ自身の開放されたチャネルに関する状態情報を含んでいるだけであるから簡単 である。スロットサーバは、ユーザの要求を満たそうと試行するとき選択すべき すべての自由トークンをもっているので、スロットの再使用も簡単でかつ効率的 である。サーバは、アドミションの制御と公平さのような他の方針に関連する機 能を実行することができる。サーバ内の自由トークンのプールの細分化は通常、 非常に限られているので、高容量のユーザの要求に対してさえも、1チャネル当 たりの接続樹立メッセージが非常に少なくなる。 欠点もある。チャネルを頻繁に樹立し破壊するユーザは、トークンを使用後、 常に戻すが、短時間のうちに再びトークンを要求することによって過剰な信号を 導入する。サーバノードの処理容量は、バスに多数のノードがある場合、または パケットの平均の大きさが非常に小さい場合、オーバーロードになる。媒体の長 さが、ビット期間、ビット/パケットおよび媒体速度の積値に対して著しく大き い場合、サーバに対する往復時間も性能を限定する。結局、サーバノードは、す べてのノードが依存している状態情報を有し、チャネルを創製する。したがって サーバノードの故障はすべてのノードに影響する。 次の章で、十分に分散されたトークンマネージャの特性をシミュレートして研 究する。 スロットの再使用と細分化を伴う分散されたトークンマネージャの性能を評価 する場合、中央トークンマネージャの場合と同じトラヒックとパラメータが使用 されるが、その方針は、要求された容量の50%に割り当てることができる場合、 要求は受容されるという方針である。 図12に示す結果は、スロット再使用、十分に分散されたトークンマネージャ、 どれほどの容量をノードがもっているかを述べる状態メッセージおよび非細分化 スキームを伴うシミュレータから得た結果である。すべてのノードが同じ処理容 量を有し、そして処理負荷は図10に示すサーバが受け取る負荷よりはるかに低い 。ノード間の従属性が低いほど高い信頼性が得られる。上記システムはスロット を再使用しないシステムより優れた作動をするが、先に述べた集中型システムほ ど優れてはいない。 上記配置構成の性能と図10に示す集中型トークンマネージャを比較すると、ブ ロッキングが多く、そしていくつかの要求が、分散された実働化におけるはるか に低い負荷でブロックされることが分かる。 予想外の結果であったが、パケットの大きさが増大したとき性能が実際には低 下したのである!これらの結果を調べたところ、やはり、転送の平均の大きさが 大きいとトークンの移動が小さくかつ状態情報が、実際には、短い転送の場合よ り、ネットワーク内の自由資源の一層誤ったビューを与えることが見出された。 この場合、我々が資源を見つけないと考えるならば、要求は拒絶される。この機 構は、資源が使いつくされたとき、制御容量を無駄使いをするのを避けるために 導入した。 この理由は、状態メッセージがバスの全セグメントをカバーする“全世界にわ たる”トークンを説明しているにすぎないということである。どのノードも全世 界にわたるトークンを使用することができ、そして全世界にわたるトークンはス ロットの再使用なしのDTMシステムの唯一タイプのトークンである。1.00より 高いロードにおいて、多数のトークンが区分され、それを新しい要求に使用させ るため、再使用スキームが要求する。したがって、再使用なしのシステムのため に開発されて使用される状態メッセージの機構は、新しい要求が自由容量を見つ けるのを助けるその性能が限定され、最悪の場合、ブロッキングが多くなる。 バスの長さが1km〜1000kmの分散トークンマネージャの処理能力とアクセス遅 延を図13に示す。16 Kbyteの小さなパケットがチャネルの樹立と破壊の間に送ら れ、大きなパケット(数百Kbyte)の場合、システムの処理能力の性能はバスの長 さに余り影響されない。1kmと100kmのバスでは、10kmのバスとほぼ同じ処理能 力とアクセス遅延の結果が得られる。というのは125μsのサイクルを用いて導 入される待ち時間はシステムのフライト待ち時間より優先するからである。1000 kmの長さのバスの場合、そのアクセス遅延は、集中型トークンサーバを使用する 1000kmのシステムの場合よりはるかに短いことが見出され、特に、低負荷の場合 、トークンは、ユーザの要求した場所のごく近くに見出され、そして遅延はすべ てのシステムの場合とほぼ同じである。負荷が非常に高い場合でさせ、アクセス 遅延は、集中型サーバを有するシステムの場合より約1ms短い。 集中型トークンマネージャシステムは、処理と信号が十分である限り、トラヒ ックとはほとんど無関係に同じ性能をもっている。分散システムを評価するため 、二つの他のトラヒックジェネレータを使用した。第一に、我々は、バーストで 到着するユーザの要求をシミュレートするジェネレータを使用した。要求が到着 したとき、我々は、新しい要求を、20μs後に90%の確率で到着したと定義する 。その結果、要求のバーストがノードに到着してソースアドレスに高い時間的局 所性を強制する。第二に、クライアントサーバの動作に一層類似しているトラヒ ックを生成させるため、到着するトラヒックの量を五つのサーバノードに対し、 0、25、50、75および99と増大させた。サーバ宛先の確率も高くなる。 図14に、分散トークンサーバシステムの処理能力とアクセス遅延を示す。 分数実働化は、集中型トークンサーバと比べていくつもの利点をもっているが 欠点もあることは明らかである。それらのノードは処理負荷を共用し、高性能ト ークンサーバに対する要求は少なく、リダンダンシーが高く、そしてアクセス遅 延は、低容量の要求に対しては短い。欠点は、必要な資源に対してアクセスする ために何回も再試行を行う必要があるインフレキシブルなユーザに対してブロッ キングが多いことである。また、状態メッセージと状態テーブルの機構は、スロ ット再使用が許容させる場合、不必要なブロッキングを避けるため変えなければ ならないことは明らかである。 負荷が特定点を超えて増大すると、自由トークンを見つけることが困難になり 、ブロッキングがかなり多くなり、そして利用率が負荷によってわずかしか増大 しない。与えられた負荷に対するブロッキングの程度は、主として、ユーザの要 求 の最小容量の要件によって決まる。その最小容量が小さければ小さいほど、ノー ドがユーザの要求を満たすことができる確率が高くなる。さらに、これらのシミ ュレーションでは、トークンの要求は、各ユーザの要求に対して1ラウンドしか 送られない。利用率は、アクセス遅延が長くなるという犠牲をはらって、何ラウ ンドも行うことによって(すなわち再試行を利用する)増大させることができる 。 上記待ち時間が独立しているとすれば、媒体の平均アクセス遅延は、単一の制 御スロットを有しかつネットワークに対する負荷が軽い場合(これはボローがま れにしか起こらないことを意味する)、約125μs(単一サイクル)になる。 さらに、細分化のため、それは多数の制御メッセージを受け取りチャネルを樹 立し、そのチャネルは制御チャネルの負荷にさらに加わりその結果アクセス遅延 が加わる。事実、有効な非細分化のスキームなしで、細分化が、これらシミュレ ーションで、アクセス遅延に対する支配的な原因である。 DTMのスロット再割当機構を利用すると、高い帯域幅を必要とするチャネル を樹立するのに長時間かかる。この交換条件は容認される。すなわち、媒体の短 いアクセス遅延を必要とするタイプのトラヒックは、転送のために割当てられる 帯域幅の大きさに通常余り鋭敏でないので、このようなトラヒックは、再割当の プロトコルをあまり必要とせずに受容することができる。高帯域幅を要求する転 送の場合、そのアクセス遅延は非常に長いので、ほとんど常に、再割当のプロト コルが必要である。しかし、一般に、高帯域幅の転送は恐らくアクセス遅延に対 して余り鋭敏でないであろう。 これらのシミュレーションは、DTMの高速回線交換プロトコルが、デュアル バスの共用媒体の環境で良好に機能することを示した。二つのスロット(トーク ン)管理人キームが分析されて、両方とも良好に機能しスロットの再使用によっ て利益を受けることができる。集中型スキームは理想的なプロトコルに最も近い 機能を実行し、実動化が簡単になる。分散系はユーザの動作に対して一層敏感な ので、頻敏にブロードキャストされる状態情報と、本発明の非細分化法とを利用 して、チャネルの樹立とスロットの再割当を行うのに必要な制御メッセージの数 を減らさねばならない。長いバスに対して非細分化法を用いると、分数モデルは 集中型モデルより優れた性能を示す(図11と13を比較)。また、小セットのトー クンサーバノードを用いて集中型モデルと分散モデルを結合する資源管理システ ムも可能である。 さらに、接続樹立のオーバーヘッドが非常に小さくなるように設計して、小さ い(数Kbyte)の転送の場合でも利用率を高くすることができる。アクセス遅延は 、高負荷の場合でも数百μsであることが分かる。本発明のスロット再使用法と 装置によって、ノードに余分のハードウェアを導入することなしに、性能を2倍 に増大することができる。本発明のスロット再使用のスキームを使用する場合、 細分化が、スロットとセグメントの大きさに起こるので、本発明の非細分化法を 用いることが一層重要である。
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,DE, DK,ES,FI,FR,GB,GR,IE,IT,L U,MC,NL,PT,SE),OA(BF,BJ,CF ,CG,CI,CM,GA,GN,ML,MR,NE, SN,TD,TG),AP(KE,LS,MW,SD,S Z,UG),UA(AM,AZ,BY,KG,KZ,MD ,RU,TJ,TM),AL,AM,AT,AU,AZ ,BA,BB,BG,BR,BY,CA,CH,CN, CU,CZ,DE,DK,EE,ES,FI,GB,G E,HU,IL,IS,JP,KE,KG,KP,KR ,KZ,LC,LK,LR,LS,LT,LU,LV, MD,MG,MK,MN,MW,MX,NO,NZ,P L,PT,RO,RU,SD,SE,SG,SI,SK ,TJ,TM,TR,TT,UA,UG,UZ,VN

Claims (1)

  1. 【特許請求の範囲】 1.DTM(Dynamic Synchronous Transfer Mode)の処理能力を増大するための スロット再使用法であって、 DTMのブロックトークンフォーマットを拡張して、ソースと宛先ノードとの 間のセグメントを説明するパラメータを含め、 そのブロックトークンの容量が、ソースと宛先ノードとの間のセグメントにの み確保され、そして そのネットワークの切り離されたセグメントにわたって同じスロットで同時に 伝送を行えるようにする、 ことを特徴とする方法。 2.同じスロット範囲を示す二つ以上のセグメント連続トークンが、ノードの自 由プール中に存在しているとき、単一トークンに併合されることを特徴とする、 請求の範囲1に記載のスロット再使用法。 3.中央トークン管理スキームで実行されることを特徴とする、請求の範囲1ま たは2に記載のスロット再使用法。 4.分散トークン管理スキームで実行されることを特徴とする、請求の範囲1ま たは2に記載のスロット再使用法。 5.集中型モデルと分散型モデルを結合し、したがって小セットのトークンサー バノードを使用する資源管理システムで実行されることを特徴とする、請求の範 囲1または2に記載のスロット再使用法。 6.ホームノードが、ネットワークのスタートアップ時またはネットワーク作動 中またはネットワーク作動中、同じホームノードを共用するトークンが常に、少 なくとも部分的に、連続したスロット範囲を形成する方式で、各トークンに対し て形成され、 有意の時間が経過したとき、自由トークンがそれぞれのホームノードに送り戻 され、そして 同じスロット範囲を有する二つ以上のスロット連続トークンが、ノードの自由 プール内に存在しているとき、単一トークンに併合される、 非細分化法と結合されることを特徴とする、請求の範囲1〜5のいずれか一つ に記載のスロット再使用法。 7.同じスロット範囲またはセグメント範囲を有する二つ以上のトークンが、ノ ードの自由プール内に存在しているとき、単一トークンに併合されることを特徴 とする、請求の範囲6に記載のスロット再使用法。 8.同じスロット範囲またはセグメント範囲を有するスロットおよび/またはセ グメント連続トークンを併合するとき、たとえトークンの数が増大しても、常に 、セグメントの併合を優先させてその後スロット数の併合を行うことを特徴とす る、請求の範囲7に記載のスロット再使用法。 9.ノードが、局所のユーザまたは遠隔ユーザからトークンを要求されたとき、 スロットの数とセグメントの数の大きさに最も適合したアルゴリズムを用いて、 トークンをトークンプールから取り出し、そしてそのアルゴリズムで、要求され た容量を満たしかつトークンマップ中に最小領域を有するトークンが選択される ことを特徴とする、請求の範囲1〜8のいずれか一つに記載のスロット再使用法 。 10.ノードが他のノードからトークンを要求する必要があり、そして要求された 容量を満たすトークンが存在しない場合、前もって必要なトークンの数を最小に することを特徴とする、請求の範囲1〜8のいずれか一つに記載のスロット再使 用法。 11.DTM(Dynamic Synchronous Transfer Mode)ネットワークの処理能力を増 大するためのスロット再使用装置であって、 ソースと宛先ノードとの間のセグメントを説明するパラメータを含む拡張され たDTMブロックトークンフォーマットおよび ソースと宛先ノードとの間のセグメントにのみ、ブロックトークン容量を確保 するために配置されたノードを備えており、そして ネットワークの切り離されたセグメントにわたって同じスロットで同時に伝送 できるようにする、 ことを特徴とするスロット再使用装置。
JP09524273A 1995-12-28 1996-12-23 動的同期転送モードネットワークにおけるスロットの再使用方法とその装置 Pending JP2000502854A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SE9504679A SE515407C2 (sv) 1995-12-28 1995-12-28 Återanvändning av tidluckor, plan och arrangemang
SE9504679-3 1995-12-28
PCT/SE1996/001748 WO1997024844A1 (en) 1995-12-28 1996-12-23 Method and arrangement for slot reuse in a dynamic synchronous transfer mode network

Publications (1)

Publication Number Publication Date
JP2000502854A true JP2000502854A (ja) 2000-03-07

Family

ID=20400755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09524273A Pending JP2000502854A (ja) 1995-12-28 1996-12-23 動的同期転送モードネットワークにおけるスロットの再使用方法とその装置

Country Status (2)

Country Link
JP (1) JP2000502854A (ja)
SE (1) SE515407C2 (ja)

Also Published As

Publication number Publication date
SE515407C2 (sv) 2001-07-30
SE9504679L (sv) 1997-06-29
SE9504679D0 (sv) 1995-12-28

Similar Documents

Publication Publication Date Title
EP0873629B1 (en) Method and arrangement for network resource administration
JP2704667B2 (ja) 多重チャネル帯域幅割当法
CA2364090C (en) Bandwidth allocation in ethernet networks
US7283472B2 (en) Priority-based efficient fair queuing for quality of service classification for packet processing
JP2002512485A (ja) 二重リングトポロジにおける動的同期転送モード用の方法及び装置
US6504853B1 (en) Reallocation procedure
US5982747A (en) Method for managing failures on dynamic synchronous transfer mode dual ring topologies
US5838687A (en) Slot reuse method and arrangement
US5960002A (en) Defragmentation method and arrangement
JP2002511704A (ja) リングトポロジにおける動的同期転送モードの同期化方法及び装置
US6795441B1 (en) Hierarchy tree-based quality of service classification for packet processing
US7339953B2 (en) Surplus redistribution for quality of service classification for packet processing
JP2000502854A (ja) 動的同期転送モードネットワークにおけるスロットの再使用方法とその装置
JPH09233104A (ja) マルチサービス・ネットワークにおける容量管理システムおよび方法
Pattavina A multiservice high-performance packet switch for broad-band networks
US6920108B1 (en) Method and apparatus for collision avoidance in bufferless networks
Ramfelt Performance Analysis of Slot Management in DTM Networks
Chang et al. Performance evaluation of DTM access nodes
AU657176B2 (en) Method and circuit for controlling access to an asynchronously oeprated network
JP2002527944A (ja) Dtmネットワークにおいて通信チャネルを確立するための方法および装置
US20080002577A1 (en) Efficient allocation of shapers
Woloszynski Standardization of a multi‐configuration medium access protocol for broadband ISDN
JPH11510330A (ja) セルベース通信網において回線コネクションをエミュレートする方法及び装置
Cole Network Systems Architecture
Popescu et al. Modeling and analysis of multi-access mechanisms in SUPERLAN