JP5775027B2 - スケジューラ、ネットワークシステム、プログラム - Google Patents

スケジューラ、ネットワークシステム、プログラム Download PDF

Info

Publication number
JP5775027B2
JP5775027B2 JP2012133777A JP2012133777A JP5775027B2 JP 5775027 B2 JP5775027 B2 JP 5775027B2 JP 2012133777 A JP2012133777 A JP 2012133777A JP 2012133777 A JP2012133777 A JP 2012133777A JP 5775027 B2 JP5775027 B2 JP 5775027B2
Authority
JP
Japan
Prior art keywords
scheduling
group
groups
node
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012133777A
Other languages
English (en)
Other versions
JP2013258589A (ja
Inventor
雅弘 中川
雅弘 中川
恭太 服部
恭太 服部
直樹 君島
直樹 君島
片山 勝
勝 片山
三澤 明
明 三澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012133777A priority Critical patent/JP5775027B2/ja
Publication of JP2013258589A publication Critical patent/JP2013258589A/ja
Application granted granted Critical
Publication of JP5775027B2 publication Critical patent/JP5775027B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Small-Scale Networks (AREA)
  • Time-Division Multiplex Systems (AREA)

Description

本発明は、TDM(time division multiplexing、時分割多重)方式のネットワークシステムにおいて、ノードやリンクのスケジューリングを行うための技術に関する。
TDM方式のネットワークシステムでは、TS(time slot、タイムスロット)長の整数倍の時間(t)を周期として繰り返し処理を行う。以下では、tをTDMフレーム長と呼ぶ。
以下、TDM方式のネットワークシステムにおいて、ノードやリンクのスケジューリングを行う従来のスケジューリング方法について説明する(例えば、非特許文献1,2参照)。ここでは、図12に示すように、ネットワークシステムが、ノードA〜Eとリンクa〜eとからなり、1波長、単方向リングの構成であるとする。また、スケジューラは、ノードAに配置されているとする。
ステップS1:
まず、図12に示すように、スケジューラは、各パスが要求するトラヒック量を所要TS数に換算し、トラヒックマトリクスをTSマトリクスに変換する。なお、パスとは、送信元ノードと宛先ノードとの間を結ぶ通信経路を指す。ここでは、トラヒック量50Mbpsを1TSに換算する。例えば、ノードA→ノードDのパスのトラヒック量は150Mbpsであるため、所要TS数は3となる。
ステップS2:
次に、図13に示すように、スケジューラは、TSマトリクスを基に、各リンクa〜eの所要TS数を算出する。例えば、リンクaの所要TS数は、リンクaを通るパスの所要TS数(角丸四角形で囲った所要TS数)を合計した18となる。次に、リンクa〜eの所要TS数の最大値に基づき、全てのTSを収容し得るTDMフレーム長(非特許文献2では、スーパーフレーム長と称している)を求める。リンクa,bの所要TS数が18で最大値であるため、TDMフレーム長は18となる。なお、非特許文献2では、tを基本フレーム長(TS長の整数倍として定義)の整数倍にするという制約を設けているため、基本フレーム長を10TSとした場合、全てのTSを収容し得るTDMフレーム長(非特許文献2では、スーパーフレーム長と称している)は、2フレーム分の20TSとなる。なお、ここでは、全てのTSを収容し得るフレーム長を可変としているが、固定としても良い。
ステップS3:
その後、図14に示すように、スケジューラは、ステップS2で求めたフレーム長の空きTSに、各パスを所要TS数分割り当てる。このとき、例えば、First Fit割当(空きを発見したら即割当)や、連続TS優先割当(要求するTS数が連続して確保できれば即割当)等の様々な割当ポリシが存在する。この工程で、各リンクa〜eの各TSにおいて、どのパスのデータを流すかを表すリンクスケジュールテーブルが作成される。
以上のスケジューリング方法の流れを、図15のフロー図に示す。すなわち、スケジューラは、各パスが要求するトラヒック量の集計後に上述のステップS1〜S3の処理を行い、各ノードA〜Eに対し、そのノードを終点とするリンクおよび始点とするリンクのリンクスケジュールテーブルを通知する。
X. Zhang and C. Qiao, "Pipelined transmission scheduling in all-optical TDM/WDM rings," in Proc. Int. Conf. Computer Communication and Networks, Sept. 1997, pp. 144-149. K. Gokyu, K. Baba, and M. Murata, "Path accommodation methods for unidirectional rings with optical compression TDM," IEICE Transactions on Communications, vol. E83-B, pp. 2294-2303, Oct. 2000. T. Tatsuta, N. Oota, N. Miki, and K. Kumozaki, "Design philosophy and performance of a GE-PON system for mass deployment," JOURNAL OF OPTICAL NETWORKING, vol. 6, no. 6, pp. 689-700, June 2007.
ところで、ネットワークシステムにおいては、各パスのトラヒック量は、固定ではなく、随時変動する。
例えば、図16に示すように、ノードC→ノードAのパスのトラヒック量が多く、ノードC→ノードBのパスのトラヒック量が少ない状態でTS割当を行った場合に、その後、ノードC→ノードAのパスのトラヒック量が少なくなり、ノードC→ノードBのパスのトラヒック量が多くなることがある。
このとき、TSを変更しないと、トラヒック量が少なくなったノードC→ノードAのパスに多くのTSを割り当てたままとなり、非常に非効率な状態になる。
そのため、スケジューラは、再度スケジューリングを行い、リンクスケジュールテーブルを書き換えることで、トラヒック変動に追従する。
しかしながら、全パス数は、ノード数をNとするとO(N2)と表されるため、従来法のように、1パスずつシーケンシャルにTS割当を行う場合、1パスあたりの平均TS割当計算時間をαとおくと、全パスのTS割当の計算時間はα×O(N2)となる。加えて、それぞれのパスが通るリンク数、すなわちTS割当の際に空塞状況を確認する必要があるリンク数はO(N)と表されるため、α自体もNに依存することとなる。したがって、TS割当の計算時間は、ネットワークシステムの規模と共に増大する。
そのため、トラヒック変動に追従するネットワークシステムの大規模化を実現するためには、TS割当の計算時間を削減することによって、スケジューリング時間を削減することが重要な課題となる。
そこで、本発明の目的は、TDM方式のネットワークシステムにおいて、スケジューリング時間を削減することで、システムの大規模化を実現することができる技術を提供することにある。
本発明の第1のスケジューラは、
TDM方式のネットワークシステムを構成するスケジューラであって、
前記ネットワークシステムを構成する複数のノードをグループ化するグループ化手段と、
グループ間のスケジューリングを行う第1のスケジューリング手段と、
グループ内のスケジューリングを行う第2のスケジューリング手段と、を有し、
前記第1のスケジューリング手段によるスケジューリング後に、前記第2のスケジューリング手段によるスケジューリングを行うか、または、前記第2のスケジューリング手段によるスケジューリング後に、前記第1のスケジューリング手段によるスケジューリングを行う。
本発明の第2のスケジューラは、
TDM方式のネットワークシステムを構成するスケジューラであって、
前記ネットワークシステムを構成する複数のノード間のパスをグループ化するグループ化手段と、
グループ間のスケジューリングを行う第1のスケジューリング手段と、
グループ内のスケジューリングを行う第2のスケジューリング手段と、を有し、
前記第1のスケジューリング手段によるスケジューリング後に、前記第2のスケジューリング手段によるスケジューリングを行うか、または、前記第2のスケジューリング手段によるスケジューリング後に、前記第1のスケジューリング手段によるスケジューリングを行う。
本発明の第1のネットワークシステムは、
複数のノードと、前記複数のノード間を接続するリンクと、を有してなるTDM方式のネットワークシステムであって、
前記ネットワークシステムを構成する複数のノードをグループ化するグループ化手段と、
グループ間のスケジューリングを行う第1のスケジューリング手段と、
グループ内のスケジューリングを行う第2のスケジューリング手段と、を有し、
前記第1のスケジューリング手段によるスケジューリング後に、前記第2のスケジューリング手段によるスケジューリングを行うか、または、前記第2のスケジューリング手段によるスケジューリング後に、前記第1のスケジューリング手段によるスケジューリングを行う。
本発明の第2のネットワークシステムは、
複数のノードと、前記複数のノード間を接続するリンクと、を有してなるTDM方式のネットワークシステムであって、
前記ネットワークシステムを構成する複数のノード間のパスをグループ化するグループ化手段と、
グループ間のスケジューリングを行う第1のスケジューリング手段と、
グループ内のスケジューリングを行う第2のスケジューリング手段と、を有し、
前記第1のスケジューリング手段によるスケジューリング後に、前記第2のスケジューリング手段によるスケジューリングを行うか、または、前記第2のスケジューリング手段によるスケジューリング後に、前記第1のスケジューリング手段によるスケジューリングを行う。
本発明の第1のプログラムは、
TDM方式のネットワークシステムを構成するスケジューラに、
前記ネットワークシステムを構成する複数のノードをグループ化する手順と、
グループ間のスケジューリングを行った後に、グループ内のスケジューリングを行うか、または、グループ内のスケジューリングを行った後に、グループ間のスケジューリングを行う手順と、を実行させる。
本発明の第2のプログラムは、
TDM方式のネットワークシステムを構成するスケジューラに、
前記ネットワークシステムを構成する複数のノード間のパスをグループ化する手順と、
グループ間のスケジューリングを行った後に、グループ内のスケジューリングを行うか、または、グループ内のスケジューリングを行った後に、グループ間のスケジューリングを行う手順と、を実行させる。
本発明によれば、ネットワークシステムを構成する複数のノードまたは複数のノード間のパスをグループ化し、グループ間のスケジューリングを行った後に、段階的に、グループ内のスケジューリングを行うか、または、グループ内のスケジューリングを行った後に、段階的に、グループ間のスケジューリングを行う。
これにより、スケジューリング時間が削減されるため、システムの大規模化を実現することができるという効果が得られる。
本発明のネットワークシステムの構成を示す図である。 本発明の第1の実施形態のスケジューラの構成を示す図である。 本発明の第1の実施形態のスケジューラの前提条件を説明する図である。 本発明の第1の実施形態のスケジューラの概略動作を説明する図である。 本発明の第1の実施形態のスケジューラの詳細動作を説明する図である。 本発明の第1の実施形態のスケジューラの詳細動作を説明する図である。 本発明の第1の実施形態のスケジューラの詳細動作(第1の例)を説明する図である。 本発明の第1の実施形態のスケジューラの詳細動作(第2の例)を説明する図である。 本発明の第2の実施形態のスケジューラの構成を示す図である。 本発明の第2の実施形態のスケジューラの動作を説明する図である。 本発明を多段リング構成のネットワークシステムに適用する場合の動作を説明する図である。 従来のスケジューリング方法を説明する図である。 従来のスケジューリング方法を説明する図である。 従来のスケジューリング方法を説明する図である。 従来のスケジューリング方法の流れを説明するフロー図である。 従来のスケジューリング方法の課題を説明する図である。
以下に、本発明を実施するための形態について図面を参照して説明する。
(1)第1の実施形態
図1に、本発明のスケジューラが適用されるネットワークシステムの構成を示す。
図1に示すように、本実施形態のネットワークシステムは、N(Nは、2以上の自然数)個のノード10間がリンク20によって接続されたリング型のネットワークシステムである。なお、図1においては、N=5となっているが、Nの数はこれに限定されない。
各ノード10は、それぞれホストコンピュータ30が接続されており、ホストコンピュータ30間のデータを転送する。このとき、ノード10は、リング上の前段のノードから送られてきたデータを処理し、次段のノードへデータを送る。
スケジューラ40は、ネットワークシステム全体を管理し、各リンク20および各ノード10のスケジューリングを行う。スケジューラ40の配置場所は、図1に限定されず、別のノードに配置されても良い。
なお、本発明においては、スケジューラ40に主な特徴があり、ノード10は、公知の構成にパスのトラヒック量を動的に収集しスケジューラ40に通知する機能を追加した構成であれば良く、また、ホストコンピュータ30は公知の構成であれば良い。そのため、以下では、スケジューラ40の構成についてのみ詳細に説明する。
図2に、本発明の第1の実施形態のスケジューラ40の構成を示す。
図2に示すように、本発明の第1の実施形態のスケジューラ40は、交流トラヒック量集計部401と、ノードグルーパ402と、グループ間帯域割当部403と、リンクテーブル(グループ単位)404と、グループ内(ノード間)帯域割当部405と、テーブル変換部406と、リンクスケジュールテーブル407と、テーブル換算部408と、ノードグループテーブル409と、テーブル変換部410と、ノードスケジュールテーブル411と、テーブルトランスミッタ412と、タイマ413と、を有している。
交流トラヒック量集計部401は、各ノード10から、各パスが要求するトラヒック量を動的に集計する。
ノードグルーパ402は、N個のノード10を、論理的に、G(Gは、N>Gの関係を満たす2以上の自然数)個のグループにグループ化するグループ化手段である。
グループ間帯域割当部403は、各グループ間(同一のグループ間、異なるグループ間の双方を含む)にTSを割り当て、そのTS割当結果を基に、各リンク20のリンクテーブル(グループ単位)404を作成する。
すなわち、グループ間帯域割当部403は、グループ間のスケジューリングを行うもので、第1のスケジューリング手段に相当する。
リンクテーブル(グループ単位)404は、リンク数分(N個)配置されるものであり、そのリンク20の各TSにおいて、どのグループ間のデータを流すかを表すテーブルである。
グループ内(ノード間)帯域割当部405は、グループ数の2乗分(G2個)配置されるものであり、グループ内のノード10間(同一のグループに属するノード10間、異なるグループに属するノード10間の双方を含む)のパスにTSを割り当てる。各グループ内(ノード間)帯域割当部405は、並列処理が可能である。
すなわち、グループ内(ノード間)帯域割当部405は、グループ内のスケジューリングを行うもので、第2のスケジューリング手段に相当する。
なお、G2個のグループ内(ノード間)帯域割当部405の内訳は、同一のグループに属するノード10間のパス(送信元ノードと宛先ノードが同一のグループに属するパス)へのTS割当を行うのがG個、異なるグループに属するノード10間のパス(送信元ノードと宛先ノードが異なるグループに属するパス)へのTS割当を行うのがG(G−1)個で、合計G2個となる。
テーブル変換部406は、リンク数分(N個)配置されるものであり、そのリンク20のリンクテーブル(グループ単位)404を、グループ内(ノード間)帯域割当部405のTS割当結果を基に、リンクスケジュールテーブル407に変換する。各テーブル変換部406は、並列処理が可能である。
リンクスケジュールテーブル407は、リンク数分(N個)配置されるものであり、そのリンク20の各TSにおいて、どのパスのデータを流すかを表すテーブルである。
テーブル換算部408は、グループ数分(G個)配置されるものであり、各リンク20のリンクテーブル(グループ単位)404を基に、そのグループのノードグループテーブル409を作成する。各テーブル換算部408は、並列処理が可能である。
ノードグループテーブル409は、グループ数分(G個)配置されるものであり、そのグループの各TSにおけるノード処理の内容(データ送信、方路切替等)を表すテーブルである。
テーブル変換部410は、グループ数分(G個)配置されるものであり、そのグループのノードグループテーブル409を、各リンク20のリンクスケジュールテーブル407を基に、ノードスケジュールテーブル411に変換する。各テーブル変換部410は、並列処理が可能である。
ノードスケジュールテーブル411は、ノード数分(N個)配置されるものであり、そのノード10の各TSにおけるノード処理の内容(データ送信、方路切替等)を表すテーブルである。
テーブルトランスミッタ412は、各ノード10に対し、そのノードのノードスケジュールテーブル411を送信する。ここで、従来法においては、各ノードが独自にリンクのスケジュールテーブルから各TSにおけるノード処理を認識する必要があった。しかし、本実施形態においては、各ノードにノードスケジュールテーブル411を送信するため、各ノードがリンクのスケジュールテーブルからノード処理を認識するという機能を配備する必要がなくなる。
タイマ413は、各ノード10が処理を行う時間を管理する。
以下、本実施形態のスケジューラ40の動作について説明する。
(i)概略動作
まず、スケジューラ40の概略動作について説明する。
図3に示すように、ここでは説明の便宜上、ネットワークシステムが、N=6とした単方向リングの構成であり、リンクあたりで同一スロットに同時に接続可能なチャネルは1個(ファイバ多重や波長多重を行わない)であるものとする。なお、6個のノード10をそれぞれノードA〜Fとし、6個のリンク20をそれぞれリンクa〜fとする。ただし、本発明は、これに限定されず、双方向リングをはじめ任意トポロジおよび波長多重を行った場合にも適用可能である(各ファイバの各波長についてリンクスケジュールテーブル407が作成される)。
また、スケジューラ40がノードAに設けられているとする。
図4に、本実施形態のスケジューラ40において、リンクスケジュールテーブル407を作成するまでの動作の概要を示す。
図4に示すように、まず、ノードグルーパ402は、6個のノードA〜Fを論理的にグループ化する。ここでは、6個のノードA〜Fを、2ノードずつの3個のグループにグループ化することとし、ノードA,Bはグループg1に、ノードC,Dはグループg2に、ノードE,Fはグループg3に、それぞれグループ化している。
次に、グループ間帯域割当部403は、ノード単位のTSマトリクスを、グループ単位のTSマトリクスに変換する。例えば、g3→g3の所要TS数は、g3に属するノードE,Fの一方を送信元ノード、他方を宛先ノードとするパスの所要TS数(角丸四角形で囲った所要TS数)に基づき、4となる。
次に、グループ間帯域割当部403は、グループ単位のTSマトリクスを基に、各グループ間にTSを割り当てる。例えば、g1→g3には、リンクa〜eのS1〜S4のTSを割り当てる。
次に、グループ間帯域割当部403は、各リンクのリンクテーブル(グループ単位)404を作成する。例えば、リンクaのリンクテーブル(グループ単位)404において、S1のTSには、g1→g3をスケジューリングする。
一方、各グループ内(ノード間)帯域割当部405は、グループ内のノード間の各パスにTSを割り当てる。例えば、g1→g3内のノード間のパスのTS割当を行うグループ内(ノード間)帯域割当部405は、ノードA→ノードFのパスには、リンクa〜eのS1のTSを割り当てる。このとき、g1→g3内のノード間のパスに対するTS割当処理とg1→g2内のノード間のパスに対するTS割当処理とは、独立して実行可能である。
その後、各テーブル変換部406は、各リンクのリンクテーブル(グループ単位)404をリンクスケジュールテーブル407に変換する。例えば、リンクaのリンクスケジュールテーブル407において、S1のTSには、ノードA→ノードFのパスをスケジューリングする。
本実施形態においては、N個のノード10をグループ化し、グループ間でのTS割当の後に、段階的に、グループ内のノード間のパスのTS割当を実行する。そのため、従来法と比較して、TS割当の計算時間を削減することができる。
すなわち、従来法においては、O(N2)本のパスを、O(N)本のリンク上に割り当てていた。これに対して、本実施形態においては、グループ単位の計算では、O(G2)本のパスを、O(G)本のリンク上に割り当て、グループ内のノード単位の計算では、1グループあたり、O{(N/G)2}本のパスを、O{(N/G)}本のリンク上に割り当てる。さらに、本実施形態においては、テーブル分割を行っているため、TS割当の際に、空塞状況を確認する必要があるTS数は従来法に比べて小さい値となる。以上より、本実施形態においては、従来法と比較して、TS割当の計算時間を削減することができる。
また、例えば、図4のテーブル上では、g1→g3の部分と、g1→g2の部分と、は排他的に分割されている。そのため、g1→g3内のノード間のパスに対するTS割当処理と、g1→g2内のノード間のパスに対するTS割当処理とは、独立して実行可能である。よって、グループ内(ノード間)帯域割当部405によるTS割当処理を、並列処理することで、TS割当の計算時間をさらに削減することができる。
(ii)詳細動作
次に、スケジューラ40の詳細動作について説明する。
図5に示すように、ここでは説明の便宜上、ネットワークシステムが、N=8とした単方向リングの構成であり、リンクあたりで同一スロットに同時に接続可能なチャネルは1個(ファイバ多重や波長多重を行わない)であるものとする。なお、8個のノード10をそれぞれノードA〜Hとし、8個のリンク20をそれぞれリンクa〜hとする。ただし、本発明は、これに限定されず、双方向リングをはじめ任意トポロジおよび波長多重を行った場合にも適用可能である(各ファイバの各波長についてリンクスケジュールテーブル407が作成される)。
また、スケジューラ40がノードAに設けられているとする。
まず、ノードグルーパ402は、8個のノードA〜Hをグループ化する。ここでは、8個のノードA〜Hを2ノードずつの4個のグループにグループ化することとし、ノードA,Bはグループg1に、ノードC,Dはグループg2に、ノードE,Fはグループg3に、ノードG,Hはグループg4に、それぞれグループ化している。ここでは、隣接するノードを同数ずつグループ化しているが、グループ化の方法はこれに限定されない。
次に、グループ間帯域割当部403は、図5の上側のノード間のリンクテーブル(各リンクa〜hのリンクスケジュールテーブル407を集合したテーブルに相当)を、図5の下側のグループ間のリンクテーブル(各リンクa〜hのリンクテーブル(グループ単位)404を集合したテーブルに相当)を用意する。
次に、図6に示すように、グループ間帯域割当部403は、ノード単位のTSマトリクスを、グループ単位のTSマトリクスに変換する。
次に、グループ間帯域割当部403は、グループ単位のTSマトリクスを基に、グループ間のリンクテーブル上で各グループ間にTSを割り当てていく。
ここで、グループ間にTSを割り当てる方法としては、例えば、2つの例が考えられる。以下、この2つの例について説明する。
図7に示すように、第1の例では、グループ間帯域割当部403は、同一のグループ間(送信元ノードと宛先ノードが同一のグループに属する)には、リング1周分×所要TS数を割り当てる。図7では、g1→g1の所要TS数は1と仮定しており、そのため、S1のTSをリング1周分割り当てる。
また、グループ間帯域割当部403は、異なるグループ間(送信元ノードと宛先ノードが異なるグループに属する)には、同一のTSで同一グループが送信元と宛先の両方を担うことを許容しないTS割当を行う。例えば、S2,S3のTSでは、g1,g3は、送信元にはなっているが、宛先にはなっておらず、逆に、g2,g4は、宛先にはなっているが、送信元にはなっていない。
続いて、各グループ内(ノード間)帯域割当部405は、ノード単位のTSマトリクスを基に、ノード間のリンクテーブル上でグループ内のノード間のパスにTSを割り当てていく。例えば、g1→g1内のノード間のパスのTS割当を行うグループ内(ノード間)帯域割当部405は、ノードA→ノードBのパスには、リンクaのS1のTSを割り当て、ノードB→ノードAのパスには、リンクb〜hのS1のTSを割り当てる。また、g2→g1内のノード間のパスのTS割当を行うグループ内(ノード間)帯域割当部405は、ノードC→ノードAのパスには、リンクc〜hのS8のTSを割り当て、ノードD→ノードBのパスには、リンクd〜h,aのS9のTSを割り当てる。また、これらのグループ内(ノード間)帯域割当部405は、独立して実行可能である。
第1の例では、グループ単位で割り当てられたTSは、完全に排他的となる。
一方、図8に示すように、第2の例では、グループ間帯域割当部403は、同一のグループ間(送信元ノードと宛先ノードが同一のグループに属する)には、第1の例と同様のTS割当を行う。
また、グループ間帯域割当部403は、異なるグループ間(送信元ノードと宛先ノードが異なるグループに属する)には、同一のTSで同一グループが送信元と宛先の両方を担うことを許容するTS割当を行う。例えば、S2,S3のTSでは、g1,g2,g3,g4はいずれも、送信元にも宛先にもなっている。
続いて、各グループ内(ノード間)帯域割当部405は、ノード単位のTSマトリクスを基に、ノード間のリンクテーブル上でグループ内のノード間のパスにTSを割り当てていく。例えば、g1→g1内のノード間のパスのTS割当を行うグループ内(ノード間)帯域割当部405は、第1の例と同様のTS割当を行う。また、g3→g1内のノード間のパスのTS割当を行うグループ内(ノード間)帯域割当部405は、ノードF→ノードAのパスには、リンクf〜hのS4のTSを割り当て、ノードE→ノードBのパスには、リンクe〜h,aのS5のTSを割り当てる。
第2の例では、グループ単位で割り当てられたTSは、完全に排他的とはならないが、グループ内のノード間のパスに割り当てるTSを階段状のブロック単位とすることで、グループ間の排他性が保持される(どのグループも独立にグループ内のTS割当が可能になる)。
上述したように本実施形態においては、ノード10をグループ化し、グループ間でのTS割当の後に、段階的に、グループ内のノード間のパスでのTS割当を実行する。そのため、従来法と比較して、TS割当の計算時間を削減することができる。
すなわち、従来法においては、O(N2)本のパスを、O(N)本のリンク上に割り当てていた。これに対して、本実施形態においては、グループ単位の計算では、O(G2)本のパスを、O(G)本のリンク上に割り当て、グループ内のノード単位の計算では、1グループあたり、O{(N/G)2}本のパスを、O{(N/G)}本のリンク上に割り当てる。さらに、本実施形態においては、テーブル分割を行っているため、TS割当の際に、空塞状況を確認する必要があるTS数は従来法に比べて小さい値となる。以上より、本実施形態においては、従来法と比較して、TS割当の計算時間を削減することができる。
また、グループ内(ノード間)帯域割当部405によるTS割当処理を、並列処理することにより、TS割当の計算時間をさらに削減することができる。
このように、本実施形態においては、TS割当の計算時間を削減することができるため、スケジューリング時間を削減することができ、それにより、トラヒック変動に追従するネットワークシステムの大規模化を実現することができる。
また、本実施形態においては、テーブル変換部406、テーブル換算部408、およびテーブル変換部410による処理の並列処理も可能であるため、スケジューリング時間をさらに削減することができる。
(2)第2の実施形態
図9に、本発明の第2の実施形態のスケジューラ40の構成を示す。なお、図9において、図2と同一の構成要素には同一の符号を付し、説明を省略する。
図9に示すように、本発明の第2の実施形態のスケジューラ40は、交流トラヒック量集計部401と、パスグルーパ414と、グループ間帯域割当部415と、リンクテーブル(グループ単位)416と、グループ内(ノード間)帯域割当部417と、テーブル変換部418と、リンクスケジュールテーブル407と、テーブル換算部419と、ノードスケジュールテーブル411と、テーブルトランスミッタ412と、タイマ413と、を有している。
パスグルーパ414は、N個のノード10間のパス(フルメッシュ通信であれば、N(N−1)本)を、論理的に、G個のグループにグループ化するグループ化手段である。
グループ間帯域割当部415は、各グループにTSを割り当て、そのTS割当結果を基に、各リンク20のリンクテーブル(グループ単位)416を作成する。
すなわち、グループ間帯域割当部415は、グループ間のスケジューリングを行うもので、第1のスケジューリング手段に相当する。
リンクテーブル(グループ単位)416は、リンク数分(N個)配置されるものであり、そのリンク20の各TSにおいて、どのグループのデータを流すかを表すテーブルである。
グループ内(ノード間)帯域割当部417は、グループ数分(G個)配置されるものであり、そのグループ内のパスにTSを割り当てる。各グループ内(ノード間)帯域割当部417は、並列処理が可能である。
すなわち、グループ内(ノード間)帯域割当部417は、グループ内のスケジューリングを行うもので、第2のスケジューリング手段に相当する。
テーブル変換部418は、グループ数分(G個)配置されるものであり、各リンク20のリンクテーブル(グループ単位)404を、グループ内(ノード間)帯域割当部405による、そのグループのTS割当結果を基に、リンクスケジュールテーブル407に変換する。各テーブル変換部418は、並列処理が可能である。
テーブル換算部419は、グループ数分(G個)配置されるものであり、各リンク20のリンクスケジュールテーブル407を、グループ内(ノード間)帯域割当部405による、そのグループのTS割当結果を基に、ノードスケジュールテーブル411に変換する。各テーブル換算部419は、並列処理が可能である。
以下、本実施形態のスケジューラ40の動作について説明する。
ここでは、説明の便宜上、第1の実施形態と同様に、図3にした前提条件が適用されるものとする。
図10に、本実施形態のスケジューラ40において、リンクスケジュールテーブル407を作成するまでの動作の概要を示す。
図10に示すように、まず、パスグルーパ414は、6個のノードA〜FからなるネットワークシステムにおけるパスをG個のグループにグループ化する。ここでは、パスを3個のグループにグループ化することとする。なお、WDM(Wavelength Division Multiplexing、波長分割多重)伝送を用いる場合は、例えば、Gを1ファイバあたりの波長数の整数倍に設定することが考えられる。
リング型のネットワークシステムの場合、ノードi→jのパスとノードj→iのパスとでリングを1周する。言い換えると、このような対称となるパスをペアとすると、TS割当の単位がリング1周分となる。
そこで、図10では、パスグルーパ414は、対称となるパスをペア化した後、送信元ノード番号、宛先ノード番号の昇順に、パスをグループ化している。ただし、このグループ化方法は、一例であって、これに限定されない。
次に、グループ間帯域割当部415は、各グループにTSを割り当てる。例えば、g1には、リンクa〜eのS1〜S9のTSを割り当てる。
次に、グループ間帯域割当部415は、各リンクのリンクテーブル(グループ単位)404を作成する。例えば、リンクaのリンクテーブル(グループ単位)404において、S1のTSには、g1をスケジューリングする。
一方、各グループ内(ノード間)帯域割当部417は、グループ内の各パスにTSを割り当てる。このとき、g1内のパスに対するTS割当処理と、g2内のパスに対するTS割当処理と、g3内のパスに対するTS割当処理とは、独立して実行可能である。
その後、各テーブル変換部418は、各リンクのリンクテーブル(グループ単位)416をリンクスケジュールテーブル407に変換する。
上述したように本実施形態においては、パスをグループ化し、グループ間でのTS割当の後に、段階的に、グループ内のパスでのTS割当を実行する。
そのため、第1の実施形態と同様に、TS割当の計算時間を削減することができる。
また、グループ内(ノード間)帯域割当部417によるTS割当処理を、並列処理することにより、TS割当の計算時間をさらに削減することができる。
このように、本実施形態においては、TS割当の計算時間を削減することができるため、スケジューリング時間を削減することができ、それにより、トラヒック変動に追従するネットワークシステムの大規模化を図ることができる。
また、本実施形態においては、テーブル変換部418およびテーブル換算部419による処理の並列処理も可能であるため、スケジューリング時間をさらに削減することができる。
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明の要旨を逸脱しない範囲で当業者が理解し得る各種の変形が可能である。
例えば、上記実施形態においては、リング段数が1であるリング型のネットワークシステムに適用する場合の例を挙げて説明したが、本発明は、多段リング構成のネットワークシステムにも適用可能である。
例えば、図11に示すように、上位リングに、3個の下位リングX〜Zが接続された多段リング構成について考える。詳細には、上位リングは、ノードA〜Dにより構成され、ノードAを介して下位リングX(ノードA,E〜Gにより構成)が接続され、ノードBを介して下位リングY(ノードB,H〜Jにより構成)が接続され、ノードCを介して下位リングZ(ノードC,K〜Mにより構成)が接続されている。
この場合、まず、上位リングのノードDに配置されたマスタースケジューラ40Aは、下位リングX〜Zを、それぞれ1つのグループにグループ化する。すなわち、下位リングXを構成するノードA,E〜GはグループRXに、下位リングYを構成するノードB,H〜JはグループRYに、下位リングZを構成するノードC,K〜MはグループRZに、それぞれグループ化する。また、ノードDはグループDとする。
そして、マスタースケジューラ40Aは、まず、グループ間のTS割当を行い、その後に、グループ内のノード間のパスのTS割当を行う。
このとき、ノードA,B,Cにもスレーブスケジューラ40Bを配置し、各々が属するグループ内のTS割当を並列に処理することとすれば、スケジューリング時間の削減においてより効果的となる。
また、上位リングと下位リングのそれぞれのスケジューリングで異なる周期を用いることも可能である。
また、上記実施形態においては、グループ間のスケジューリング(TS割当)の後に、段階的に、グループ内のスケジューリング(TS割当)を実行する例を説明したが、本発明は、スケジューリングの順番はこれに限定されず、グループ内のスケジューリングの後に、段階的に、グループ間のスケジューリングを実行しても良い。この場合でも、TS割当の計算時間を削減することができる。
また、本発明のスケジューラ40,40A,40Bにて行われる方法は、コンピュータに実行させるためのプログラムに適用しても良い。また、そのプログラムを記憶媒体に格納することも可能であり、ネットワークを介して外部に提供することも可能である。
10,A〜H ノード
20,a〜h リンク
30 ホストコンピュータ
40 スケジューラ
40A マスタースケジューラ
40B スレーブスケジューラ
401 交流トラヒック量集計部
402 ノードグルーパ
403,415 グループ間帯域割当部
404,416 リンクテーブル(グループ単位)
405,417 グループ内(ノード間)帯域割当部
406,410,418 テーブル変換部
407 リンクスケジュールテーブル
408,419 テーブル換算部
409 ノードグループテーブル
411 ノードスケジュールテーブル
412 テーブルトランスミッタ
413 タイマ
414 パスグルーパ
g1〜g3,RX〜RZ グループ

Claims (8)

  1. TDM方式のネットワークシステムを構成するスケジューラであって、
    前記ネットワークシステムを構成する複数のノードをグループ化するグループ化手段と、
    グループ間のパスに必要なトラヒック量に応じて、同一グループ間にはネットワーク内の全リンクにおける同一タイムスロットを割り当て、異なるグループ間には同一のタイムスロットで同一グループが送信元と宛先との両方を担うことを許容せずにタイムスロットを割り当てるスケジューリング、もしくは、グループ間のパスに必要なトラヒック量に応じて階段状のブロック単位のタイムスロット群を割り当てるスケジューリングを行う第1のスケジューリング手段と、
    グループ内のパスに必要なトラヒック量に応じてタイムスロットを割り当てるスケジューリングを行う第2のスケジューリング手段と、を有し、
    前記第1のスケジューリング手段によるスケジューリング後に、前記第2のスケジューリング手段によるスケジューリングを行うか、または、前記第2のスケジューリング手段によるスケジューリング後に、前記第1のスケジューリング手段によるスケジューリングを行う、スケジューラ。
  2. 前記第2のスケジューリング手段は、
    各々がグループ内のノード間のパスのスケジューリングを行う複数の第2のスケジューリング手段を含み、
    前記複数の第2のスケジューリング手段の各々は、並列にスケジューリングを行う、請求項1に記載のスケジューラ。
  3. TDM方式のネットワークシステムを構成するスケジューラであって、
    前記ネットワークシステムを構成する複数のノード間のパスをグループ化するグループ化手段と、
    グループ間のパスに必要なトラヒック量に応じて、ネットワーク内の全リンクにおける同一タイムスロットを各グループ間パスに割り当てるスケジューリングを行う第1のスケジューリング手段と、
    グループ内のパスに必要なトラヒック量に応じてタイムスロットを割り当てるスケジューリングを行う第2のスケジューリング手段と、を有し、
    前記第1のスケジューリング手段によるスケジューリング後に、前記第2のスケジューリング手段によるスケジューリングを行うか、または、前記第2のスケジューリング手段によるスケジューリング後に、前記第1のスケジューリング手段によるスケジューリングを行う、スケジューラ。
  4. 前記第2のスケジューリング手段は、
    各々がグループ内のパスのスケジューリングを行う複数の第2のスケジューリング手段を含み、
    前記複数の第2のスケジューリング手段の各々は、並列にスケジューリングを行う、請求項3に記載のスケジューラ。
  5. 複数のノードと、前記複数のノード間を接続するリンクと、を有してなるTDM方式のネットワークシステムであって、
    前記ネットワークシステムを構成する複数のノードをグループ化するグループ化手段と、
    グループ間のパスに必要なトラヒック量に応じて、同一グループ間にはネットワーク内の全リンクにおける同一タイムスロットを割り当て、異なるグループ間には同一のタイムスロットで同一グループが送信元と宛先との両方を担うことを許容せずにタイムスロットを割り当てるスケジューリング、もしくは、グループ間のパスに必要なトラヒック量に応じて階段状のブロック単位のタイムスロット群を割り当てるスケジューリングを行う第1のスケジューリング手段と、
    グループ内のパスに必要なトラヒック量に応じてタイムスロットを割り当てるスケジューリングを行う第2のスケジューリング手段と、を有し、
    前記第1のスケジューリング手段によるスケジューリング後に、前記第2のスケジューリング手段によるスケジューリングを行うか、または、前記第2のスケジューリング手段によるスケジューリング後に、前記第1のスケジューリング手段によるスケジューリングを行う、ネットワークシステム。
  6. 複数のノードと、前記複数のノード間を接続するリンクと、を有してなるTDM方式のネットワークシステムであって、
    前記ネットワークシステムを構成する複数のノード間のパスをグループ化するグループ化手段と、
    グループ間のパスに必要なトラヒック量に応じて、ネットワーク内の全リンクにおける同一タイムスロットを各グループ間パス割り当てるスケジューリングを行う第1のスケジューリング手段と、
    グループ内のパスに必要なトラヒック量に応じてタイムスロットを割り当てるスケジューリングを行う第2のスケジューリング手段と、を有し、
    前記第1のスケジューリング手段によるスケジューリング後に、前記第2のスケジューリング手段によるスケジューリングを行うか、または、前記第2のスケジューリング手段によるスケジューリング後に、前記第1のスケジューリング手段によるスケジューリングを行う、ネットワークシステム。
  7. TDM方式のネットワークシステムを構成するスケジューラに、
    前記ネットワークシステムを構成する複数のノードをグループ化する手順と、
    グループ間のパスに必要なトラヒック量に応じて、同一グループ間にはネットワーク内の全リンクにおける同一タイムスロットを割り当て、異なるグループ間には同一のタイムスロットで同一グループが送信元と宛先との両方を担うことを許容せずにタイムスロットを割り当てるスケジューリング、もしくは、グループ間のパスに必要なトラヒック量に応じて階段状のブロック単位のタイムスロット群を割り当てるスケジューリングを行った後に、グループ内のパスに必要なトラヒック量に応じてタイムスロットを割り当てるスケジューリングを行うか、または、グループ内の前記スケジューリングを行った後に、グループ間の前記スケジューリングを行う手順と、を実行させるためのプログラム。
  8. TDM方式のネットワークシステムを構成するスケジューラに、
    前記ネットワークシステムを構成する複数のノード間のパスをグループ化する手順と、
    グループ間のパスに必要なトラヒック量に応じて、ネットワーク内の全リンクにおける同一タイムスロットを各グループ間パス割り当てるスケジューリングを行った後に、グループ内のパスに必要なトラヒック量に応じてタイムスロットを割り当てるスケジューリングを行うか、または、グループ内の前記スケジューリングを行った後に、グループ間の前記スケジューリングを行う手順と、を実行させるためのプログラム。
JP2012133777A 2012-06-13 2012-06-13 スケジューラ、ネットワークシステム、プログラム Expired - Fee Related JP5775027B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012133777A JP5775027B2 (ja) 2012-06-13 2012-06-13 スケジューラ、ネットワークシステム、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012133777A JP5775027B2 (ja) 2012-06-13 2012-06-13 スケジューラ、ネットワークシステム、プログラム

Publications (2)

Publication Number Publication Date
JP2013258589A JP2013258589A (ja) 2013-12-26
JP5775027B2 true JP5775027B2 (ja) 2015-09-09

Family

ID=49954670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012133777A Expired - Fee Related JP5775027B2 (ja) 2012-06-13 2012-06-13 スケジューラ、ネットワークシステム、プログラム

Country Status (1)

Country Link
JP (1) JP5775027B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6039592B2 (ja) * 2014-02-12 2016-12-07 日本電信電話株式会社 動的帯域割当を行うネットワークで用いられるスケジューラ及びプログラム
JP6234915B2 (ja) * 2014-11-19 2017-11-22 日本電信電話株式会社 ネットワークシステムおよびその制御方法
JP6234916B2 (ja) * 2014-11-19 2017-11-22 日本電信電話株式会社 ネットワークシステムおよびその制御方法
JP6367150B2 (ja) * 2015-05-29 2018-08-01 日本電信電話株式会社 故障リンクの復旧順序決定方法、および復旧順序決定プログラム
JP6310534B2 (ja) * 2016-11-30 2018-04-11 日本電信電話株式会社 スケジューラ

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3014571B2 (ja) * 1993-09-30 2000-02-28 松下電器産業株式会社 無線通信システム
JP3567878B2 (ja) * 2000-10-02 2004-09-22 日本電気株式会社 パケット交換装置
JP4207648B2 (ja) * 2003-04-24 2009-01-14 住友電気工業株式会社 光加入者線の接続ユニットおよび宅用終端装置

Also Published As

Publication number Publication date
JP2013258589A (ja) 2013-12-26

Similar Documents

Publication Publication Date Title
JP5775027B2 (ja) スケジューラ、ネットワークシステム、プログラム
Cai et al. Novel node-arc model and multiiteration heuristics for static routing and spectrum assignment in elastic optical networks
Takagi et al. Algorithms for maximizing spectrum efficiency in elastic optical path networks that adopt distance adaptive modulation
WO2012053634A1 (ja) 波長パス再配置方法及び上位レイヤパス再配置方法
CN101808254B (zh) 一种基于分层图的静态选路与波长分配方法
Velasco et al. Elastic spectrum allocation for variable traffic in flexible-grid optical networks
US8964760B2 (en) Interprocessor communication system and communication method, network switch, and parallel calculation system
JP2011234244A (ja) 光通信システム及び光通信方法
CN107566926A (zh) 一种光传输网络规划中分配中继资源的计算方法
CN101212818A (zh) 网络节点及缓存装置及调度方法
JP5775041B2 (ja) スケジューラ、スケジューリング方法、プログラム
JP6279460B2 (ja) ネットワークシステムおよびその制御方法
JP6279981B2 (ja) エラスティック光パスネットワークシステム、スペクトル割り当て方法及びプログラム
Hadi et al. General QoS-aware scheduling procedure for passive optical networks
Zhemin et al. Clustering techniques for traffic grooming in optical WDM mesh networks
JP6279982B2 (ja) 光パスネットワークシステムおよび通信制御方法
Ge et al. Blocking performance approximation in flexi-grid networks
Patel et al. Optical-layer traffic grooming in flexible grid WDM networks
Xiao et al. A network flow approach for static and dynamic traffic grooming in WDM networks
Beshir et al. Survivable impairment-aware traffic grooming in WDM rings
Wang et al. Research on optical code assignment algorithm based on PCE domain
JP2013258590A (ja) スケジューラ、ネットワークシステム、プログラム
Oksana et al. Cross-layer design for optimal energy effective resource allocation in IP-over-DWDM networks
JP6189258B2 (ja) 光tdmリング網のタイムスロット割り当て方法
Garcia et al. Meta Heuristic for WDM Optical Networks Without Wavelength Conversion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140728

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20141027

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20141031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150702

R150 Certificate of patent or registration of utility model

Ref document number: 5775027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees