JP2015029183A - Tdm network system and scheduling method - Google Patents

Tdm network system and scheduling method Download PDF

Info

Publication number
JP2015029183A
JP2015029183A JP2013157588A JP2013157588A JP2015029183A JP 2015029183 A JP2015029183 A JP 2015029183A JP 2013157588 A JP2013157588 A JP 2013157588A JP 2013157588 A JP2013157588 A JP 2013157588A JP 2015029183 A JP2015029183 A JP 2015029183A
Authority
JP
Japan
Prior art keywords
group
traffic
scheduling
node
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013157588A
Other languages
Japanese (ja)
Other versions
JP6005600B2 (en
Inventor
雅弘 中川
Masahiro Nakagawa
雅弘 中川
恭太 服部
Kyota Hattori
恭太 服部
直樹 君島
Naoki Kimijima
直樹 君島
片山 勝
Masaru Katayama
勝 片山
三澤 明
Akira Misawa
明 三澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013157588A priority Critical patent/JP6005600B2/en
Publication of JP2015029183A publication Critical patent/JP2015029183A/en
Application granted granted Critical
Publication of JP6005600B2 publication Critical patent/JP6005600B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Small-Scale Networks (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a TDM network system which makes it possible to perform, at high speed and efficiently, time slot allocation calculation in a large scale network.SOLUTION: A TDM network system comprises: a network including a plurality of nodes for performing data transfer to another adjacent node according to a time slot schedule; and a scheduler which is connected to any one node and creates the time slot schedule on the basis of traffic aggregated by the network. The scheduler calculates the number of required time slots from the aggregated traffic; groups the plurality of nodes; calculates traffic fluctuation difference of respective groups; performs scheduling inside each group and scheduling among the respective groups on the basis of information on the difference; and determines a time slot schedule of the entire system by applying results of the scheduling inside the groups to a result of the scheduling among the groups.

Description

本発明は、時分割多重(Time Division Multiplexing: TDM)技術を用いたネットワークシステムにおいて、動的にリソース割当を行う装置およびリソース割当方法(スケジューリング方法)に関する。   The present invention relates to a device for dynamically allocating resources and a resource allocation method (scheduling method) in a network system using Time Division Multiplexing (TDM) technology.

TDMネットワークでは、ノード間のデータ転送を、事前にデータを送りあうタイミング(タイムスロット(TS)と称する)を決めて行っている。図18は従来のTDMネットワークシステムによるデータ転送方法を説明するための図である。   In the TDM network, data transfer between nodes is performed by determining the timing (referred to as a time slot (TS)) at which data is transmitted in advance. FIG. 18 is a diagram for explaining a data transfer method by a conventional TDM network system.

TDMネットワークシステムでは、効率的なデータ転送のためにはTSを可能な限り隙間なく割り当てる必要がある。そのため、各ノード間の通信TSを決定するスケジューリングを事前に行っている。   In the TDM network system, it is necessary to allocate TSs as much as possible for efficient data transfer. Therefore, scheduling for determining the communication TS between the nodes is performed in advance.

ネットワーク(NW)内の各リンク上に規定されたTSの割当状況を表すテーブルをスケジュールテーブルと呼ぶ。スケジューリングは、このテーブル上に通信を割り当てていく操作に相当する。TDMネットワークシステムでは、複数のTSからなるTDMフレーム長(t)を単位として繰り返し動作を行う。   A table representing the allocation status of TSs defined on each link in the network (NW) is called a schedule table. Scheduling corresponds to an operation of assigning communication on this table. In the TDM network system, the operation is repeated with a TDM frame length (t) composed of a plurality of TSs as a unit.

図18を参照すると、ノードA→ノードB→ノードCの経由リンクで共通のタイムスロット(S1)を割り当てた場合、ノードB→ノードCの同一リンクで同じタイムスロットは使えない。ノードB→ノードC→ノードDの経由リンクには、別のタイムスロット(S2、S3)を割り当てている。   Referring to FIG. 18, when a common time slot (S1) is assigned to the via link of node A → node B → node C, the same time slot cannot be used on the same link of node B → node C. Another time slot (S2, S3) is assigned to the transit link from node B to node C to node D.

このようにして、TDMネットワークシステムでは、事前にデータ転送スケジュールを決定し、運用している。   In this way, the TDM network system determines and operates the data transfer schedule in advance.

TDMスケジューリング方法に関しては、様々なヒューリスティック法があり、例えば非特許文献1の方法が挙げられる。与えられたトポロジ、トラヒックに対し1パスずつ順にTSを割り当てる方法である。   There are various heuristic methods for the TDM scheduling method, for example, the method of Non-Patent Document 1. In this method, TSs are sequentially assigned to a given topology and traffic one path at a time.

本出願の発明者らは、通信トラヒックに応じて動的(例えば、 秒オーダ以下)にNW内の帯域割当を行うNWシステムを大規模化するために、階層化方式(非特許文献2参照)およびRip-up & Re-allocate方式(非特許文献3)を考案している。   In order to increase the scale of an NW system that dynamically allocates bandwidth within an NW according to communication traffic (for example, in the order of seconds or less), the inventors of the present application have a hierarchical system (see Non-Patent Document 2). And Rip-up & Re-allocate method (Non-Patent Document 3).

非特許文献2に開示された階層化方式では、リソース割当問題(前述のスケジューリングと同義)を、小規模な単位に分割し、 それぞれを独立に解くことで割当計算の高速化を図っている。   In the hierarchization method disclosed in Non-Patent Document 2, the resource allocation problem (synonymous with the above-mentioned scheduling) is divided into small units, and each is solved independently to speed up the allocation calculation.

非特許文献3に開示されたRip-up & Re-allocate方式では、トラヒック変動の差分のみに着目したリソース割当(前述のスケジューリングと同義)を行って、変動が生じていない箇所を計算の対象外とすることで、割当計算の高速化を図っている。   In the Rip-up & Re-allocate method disclosed in Non-Patent Document 3, resource allocation (synonymous with the above-mentioned scheduling) focusing on only the difference in traffic fluctuation is performed, and the part where fluctuation does not occur is not subject to calculation. By doing so, the allocation calculation is speeded up.

K. Gokyu, K. Baba, and M. Murata, "Path accommodation methods for unidirectional rings with optical compression TDM," IEICE Transactions on Communications, vol. E83-B, pp. 2294-2303, Oct. 2000K. Gokyu, K. Baba, and M. Murata, "Path accommodation methods for unidirectional rings with optical compression TDM," IEICE Transactions on Communications, vol. E83-B, pp. 2294-2303, Oct. 2000 中川、服部、君島、片山、三澤、平松、"階層化を用いた光TDMスケジューリング方式HOTS の提案," 信学会ソサイエティ大会, B-6-25、2012年9月Nakagawa, Hattori, Kimijima, Katayama, Misawa, Hiramatsu, “Proposal of optical TDM scheduling method HOTS using layering,” Society of Science Society Conference, B-6-25, September 2012 中川、服部、君島、片山、三澤、"光L2 スイッチネットワークにおけるトラヒック変動差分に着目した動的帯域割当方式Rip-up & Re-allocateの提案," 信学会総合大会, B-6-3、2013年3月Nakagawa, Hattori, Kimijima, Katayama, Misawa, "Proposal of Rip-up & Re-allocate Dynamic Bandwidth Allocation Method Focusing on Traffic Fluctuation Difference in Optical L2 Switch Networks," IEICE General Conference, B-6-3, 2013 March

従来の方法では、NWの規模が大きくなると、同一の計算リソースでは、NW制御に必要なTS割当計算に時間がかかってしまい、高速化の効果が不十分なおそれがある。   In the conventional method, when the scale of the NW increases, it takes time to calculate TS allocation necessary for NW control with the same calculation resource, and there is a possibility that the effect of speeding up is insufficient.

本発明は上述したような技術が有する問題点を解決するためになされたものであり、大規模ネットワークでのタイムスロット割当計算を高速かつ効率よく行うことを可能にしたTDMネットワークシステムおよびスケジューリング方法を提供することを目的とする。   The present invention has been made to solve the above-described problems of the technology, and provides a TDM network system and a scheduling method capable of performing time slot allocation calculation in a large-scale network at high speed and efficiency. The purpose is to provide.

上記目的を達成するための本発明のTDMネットワークシステムは、
タイムスロットスケジュールにしたがってタイムスロット単位で隣接する他のノードにデータ転送を行う複数のノードを含むネットワークと、
前記複数のノードのうちいずれか1つのノードに接続され、前記ネットワークのトラヒックを集計し、集計したトラヒックに基づいて前記タイムスロットスケジュールを作成するスケジューラと、を有し、
前記スケジューラは、
集計したトラヒックから必要となるタイムスロット数を算出し、前記ネットワークに含まれる複数のノードをグループ化し、各グループのトラヒック変動差分を算出し、その差分の情報に基づいて、グループ内のスケジューリングおよびグループ間のスケジューリングをそれぞれ行い、グループ内のスケジューリング結果を、グループ間のスケジューリング結果に当てはめて、システム全体の前記タイムスロットスケジュールを決定する構成である。
To achieve the above object, the TDM network system of the present invention comprises:
A network including a plurality of nodes performing data transfer to other adjacent nodes in units of time slots according to a time slot schedule;
A scheduler that is connected to any one of the plurality of nodes, aggregates traffic of the network, and creates the time slot schedule based on the aggregated traffic;
The scheduler
Calculate the required number of time slots from the aggregated traffic, group a plurality of nodes included in the network, calculate the traffic fluctuation difference of each group, and based on the information of the difference, schedule and group within the group The time slot schedule of the entire system is determined by performing scheduling between each other and applying the scheduling result within the group to the scheduling result between the groups.

また、本発明のスケジューリング方法は、タイムスロットスケジュールにしたがってタイムスロット単位で隣接する他のノードにデータ転送を行う複数のノードを含むネットワークに対して、前記タイムスロットスケジュールを提供するスケジューラによるスケジューリング方法であって、
前記ネットワークで集計したトラヒックから必要となるタイムスロット数を算出し、
前記ネットワークに含まれる複数のノードをグループ化し、各グループのトラヒック変動差分を算出し、
算出した差分の情報に基づいて、グループ内のスケジューリングおよびグループ間のスケジューリングをそれぞれ行い、
前記グループ内のスケジューリングの結果を、グループ間のスケジューリング結果に当てはめて、システム全体の前記タイムスロットスケジュールを決定するものである。
The scheduling method of the present invention is a scheduling method by a scheduler that provides the time slot schedule to a network including a plurality of nodes that perform data transfer to other adjacent nodes in time slot units according to the time slot schedule. There,
Calculate the required number of time slots from the traffic aggregated in the network,
Grouping a plurality of nodes included in the network, calculating a traffic fluctuation difference of each group,
Based on the calculated difference information, scheduling within the group and scheduling between the groups, respectively,
The scheduling result within the group is applied to the scheduling result between groups to determine the time slot schedule of the entire system.

本発明によれば、ネットワーク制御に必要なTS割当計算の時間を短縮することが可能となり、より大規模なネットワークシステムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to shorten the time of TS allocation calculation required for network control, and can provide a larger-scale network system.

第1の実施形態のTDMネットワークシステムの一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the TDM network system of 1st Embodiment. 図1に示したノードの構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of a node illustrated in FIG. 1. 図1に示したスケジューラの一構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of a scheduler illustrated in FIG. 1. 図2に示した演算装置およびメモリを組み合わせたものを機能ブロックに置き換えたものである。The combination of the arithmetic unit and the memory shown in FIG. 2 is replaced with a functional block. 第1の実施形態のスケジューラの動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of the scheduler of 1st Embodiment. 図5に示したステップ203における処理を示すフローチャートである。It is a flowchart which shows the process in step 203 shown in FIG. スケジューリング高速化の仕組みを説明するための図である。It is a figure for demonstrating the mechanism of scheduling acceleration. トラヒックの偏りによって生じる課題を説明するための図である。It is a figure for demonstrating the subject which arises by the bias of traffic. 第2の実施形態のTDMネットワークシステムによる動作を説明するための図である。It is a figure for demonstrating the operation | movement by the TDM network system of 2nd Embodiment. 動的グループリアレンジの様子をイメージした模式図である。It is the schematic diagram which imaged the mode of the dynamic group rearrangement. 実施例1のTDMネットワークシステムにおけるスケジューラの構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of a scheduler in the TDM network system according to the first embodiment. 実施例2のTDMネットワークシステムの構成例を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration example of a TDM network system according to a second embodiment. 実施例3のTDMネットワークシステムの構成例を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration example of a TDM network system according to a third embodiment. 実施例4のTDMネットワークシステムにおけるスケジューラの構成例を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration example of a scheduler in a TDM network system according to a fourth embodiment. 図14に示す各種信号を説明するための表である。It is a table | surface for demonstrating the various signals shown in FIG. 第3の実施形態のTDMネットワークシステムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the TDM network system of 3rd Embodiment. 第3の実施形態のTDMネットワークシステムの動作を説明するための図である。It is a figure for demonstrating operation | movement of the TDM network system of 3rd Embodiment. 従来のTDMネットワークシステムによるデータ転送方法を説明するための図である。It is a figure for demonstrating the data transfer method by the conventional TDM network system.

本発明のTDMネットワークシステムおよびスケジューリング方法について、ネットワーク構成がリングトポロジの場合で実施形態を説明する。   An embodiment of the TDM network system and scheduling method of the present invention will be described when the network configuration is a ring topology.

なお、実施形態では、説明の便宜上、片方向リング、リンクあたりで同一スロットに同時に接続可能なチャネルは1つ(ファイバ多重や波長多重を行わない)とする。例えば、波長数が1、TDMフレーム長が10ms、TS長が100μsである。双方向リングをはじめ任意トポロジおよび波長多重を行った場合においても、本発明を適用することが可能である。これにより、各リンクの各波長上でリンクスケジュールテーブルが作成される。また、スケジューリングは全てスケジューラの内部で実行される処理であるものとする。   In the embodiment, for convenience of explanation, the number of channels that can be simultaneously connected to the same slot per one-way ring and link is assumed to be one (no fiber multiplexing or wavelength multiplexing is performed). For example, the number of wavelengths is 1, the TDM frame length is 10 ms, and the TS length is 100 μs. The present invention can also be applied to a case where an arbitrary topology and wavelength multiplexing are performed including a bidirectional ring. Thereby, a link schedule table is created on each wavelength of each link. Further, it is assumed that the scheduling is a process executed inside the scheduler.

(第1の実施形態)
本実施形態のTDMネットワークシステムの構成を説明する。
(First embodiment)
The configuration of the TDM network system of this embodiment will be described.

図1は本実施形態のTDMネットワークシステムの一構成例を示すブロック図である。   FIG. 1 is a block diagram showing a configuration example of the TDM network system according to the present embodiment.

図1に示すように、ノード20a〜20eがリング状に接続され、各ノードにはホストコンピュータ30が接続されている。ノード20aにスケジューラ10が接続されている。   As shown in FIG. 1, nodes 20a to 20e are connected in a ring shape, and a host computer 30 is connected to each node. The scheduler 10 is connected to the node 20a.

図2は図1に示したノードの構成例を示すブロック図である。図3は図1に示したスケジューラの一構成例を示すブロック図である。   FIG. 2 is a block diagram showing a configuration example of the node shown in FIG. FIG. 3 is a block diagram showing a configuration example of the scheduler shown in FIG.

図2に示すように、ノード20a〜20eのそれぞれは、コントローラ21と、スイッチ22と、Tx(Transmitter)23と、Rx(Receiver)24と、バッファ25と、IO26とを有する。図3に示すように、スケジューラ10は、演算装置11と、メモリ13と、IO(入出力部)15とを有する。   As illustrated in FIG. 2, each of the nodes 20 a to 20 e includes a controller 21, a switch 22, a Tx (Transmitter) 23, an Rx (Receiver) 24, a buffer 25, and an IO 26. As shown in FIG. 3, the scheduler 10 includes an arithmetic device 11, a memory 13, and an IO (input / output unit) 15.

表1はノード20a〜20eの各ノードについて、入力信号、処理内容および出力信号の概要を示す。   Table 1 shows an outline of input signals, processing contents, and output signals for each of the nodes 20a to 20e.

表2はスケジューラ10ついて、入力信号、処理内容および出力信号の概要を示す。   Table 2 shows an outline of input signals, processing contents, and output signals for the scheduler 10.

図4は図2に示した演算装置およびメモリを組み合わせたものを機能ブロックに置き換えたものである。図2に示した演算装置11およびメモリ13は、階層化方式に関連する構成と、Rip-up & Re-allocate方式に関連する構成と、これら2つの方式の組み合わせによって新たに追加された構成とを有する。   FIG. 4 is obtained by replacing the combination of the arithmetic unit and the memory shown in FIG. 2 with functional blocks. The arithmetic device 11 and the memory 13 shown in FIG. 2 have a configuration related to the hierarchization method, a configuration related to the Rip-up & Re-allocate method, and a configuration newly added by a combination of these two methods. Have

図4に示す構成のうち、階層化方式に関連する構成は、ノードグルーパ121、トラヒック情報保持部122、ノード制御信号生成部123、実スケジュールテーブル保持部124、実スケジュールテーブル算出部125、グループ内スケジュールテーブル保持部126、グループ間スケジュールテーブル保持部127である。   Among the configurations shown in FIG. 4, the configuration related to the hierarchization method includes a node grouper 121, a traffic information holding unit 122, a node control signal generation unit 123, an actual schedule table holding unit 124, an actual schedule table calculation unit 125, and an intra-group schedule. A table holding unit 126 and an inter-group schedule table holding unit 127.

Rip-up & Re-allocate方式に関連する構成は、増加分貼り付け変更部131、減少分剥ぎ取り変更部132、増加分貼り付け変更部133、減少分剥ぎ取り変更部134、タイマ135である。   The configuration related to the Rip-up & Re-allocate method includes an increment paste change unit 131, a decrease strip removal change unit 132, an increment paste change unit 133, a decrease strip removal change unit 134, and a timer 135. .

これら2つの方式の組み合わせにより、本実施形態で追加された構成は、グループ内トラヒック変動差分算出部111、グループ内トラヒック変動差分保持部112、グループ間トラヒック変動差分算出部113、グループ間トラヒック変動差分保持部114、グループ内割当履歴保持部115、グループ間割当保持部116である。   The configuration added in the present embodiment by the combination of these two methods includes an intra-group traffic fluctuation difference calculation unit 111, an intra-group traffic fluctuation difference holding unit 112, an inter-group traffic fluctuation difference calculation unit 113, and an inter-group traffic fluctuation difference. A holding unit 114, an intra-group allocation history holding unit 115, and an inter-group allocation holding unit 116.

本実施形態では、図4に示す各部が専用の電子回路で構成されている場合で説明するが、演算装置11にCPU(Central Processing Unit)が設けられ、メモリ13にスケジューリング実行のためのプログラムが予め格納され、図4に示す構成の一部または全部が、ソフトウェア(プログラム)をコンピュータ(演算装置)が実行することでスケジューラ10に仮想的に構成されてもよい。   In the present embodiment, the case where each unit illustrated in FIG. 4 is configured by a dedicated electronic circuit will be described. However, a CPU (Central Processing Unit) is provided in the arithmetic device 11, and a program for executing scheduling is stored in the memory 13. 4 may be virtually configured in the scheduler 10 by executing software (program) by a computer (arithmetic apparatus).

本実施形態では、図4に示す構成のうち、既に実現されている「階層化方式」および「Rip-up & Re-allocate方式」のそれぞれに関連する構成についての詳細な説明を省略し、これら2つの方式の組み合わせに関連する構成について詳細に説明する。   In the present embodiment, a detailed description of the configurations related to each of the “layered scheme” and “Rip-up & Re-allocate scheme” that have already been realized among the configurations shown in FIG. 4 is omitted. The configuration related to the combination of the two methods will be described in detail.

グループ内割当履歴保持部115は、前回のTSスケジュールに基づくグループ内のTS割当を示すスケジュールであるグループ内スケジュールを保持する。   The intra-group allocation history holding unit 115 holds an intra-group schedule that is a schedule indicating TS allocation within a group based on the previous TS schedule.

グループ間割当保持部116は、前回のTSスケジュールに基づくグループ間のTS割当を示すスケジュールであるグループ間スケジュールを保持する。   The inter-group allocation holding unit 116 holds an inter-group schedule that is a schedule indicating TS allocation between groups based on the previous TS schedule.

トラヒック情報保持部122は、NW内のトラヒックを集計し、集計したトラヒックの情報から所要TSを算出し、所要TSの情報を保持する。   The traffic information holding unit 122 counts the traffic in the NW, calculates a required TS from the totaled traffic information, and holds the required TS information.

ノードグルーパ121は、トラヒック情報保持部122が集計したトラヒックの情報からノード20a〜20eをグルーピングし、グルーピングの結果をグループ内トラヒック変動差分算出部111およびグループ間トラヒック変動差分算出部113に通知する。   The node grouper 121 groups the nodes 20a to 20e from the traffic information collected by the traffic information holding unit 122, and notifies the intra-group traffic fluctuation difference calculation unit 111 and the inter-group traffic fluctuation difference calculation unit 113 of the grouping result.

グループ内トラヒック変動差分算出部111は、ノードグルーパ121から通知されたグルーピングの結果とトラヒック情報保持部122が保持する所要TS数の情報から各グループ内TS変動差分を算出し、算出結果をグループ内トラヒック変動差分保持部112に渡す。   The intra-group traffic fluctuation difference calculation unit 111 calculates the intra-group TS fluctuation difference from the grouping result notified from the node grouper 121 and the information on the number of required TSs held by the traffic information holding unit 122, and the calculation result is used as the intra-group traffic difference. It is passed to the fluctuation difference holding unit 112.

グループ内トラヒック変動差分保持部112は、グループ内トラヒック変動差分算出部111から受け取るグループ内トラヒック変動差分情報を保持する。   The intra-group traffic fluctuation difference holding unit 112 holds the intra-group traffic fluctuation difference information received from the intra-group traffic fluctuation difference calculation unit 111.

グループ間トラヒック変動差分算出部113は、ノードグルーパ121から通知されたグルーピングの結果とトラヒック情報保持部122が保持する所要TS数の情報からグループ間TS変動差分を算出し、算出結果をグループ間トラヒック変動差分保持部114に渡す。   The inter-group traffic fluctuation difference calculation unit 113 calculates an inter-group TS fluctuation difference from the grouping result notified from the node grouper 121 and the information on the required number of TS held by the traffic information holding unit 122, and the calculation result is used as the inter-group traffic fluctuation. It is passed to the difference holding unit 114.

グループ間トラヒック変動差分保持部114は、グループ間トラヒック変動差分算出部113から受け取るグループ間トラヒック変動差分情報を保持する。   The inter-group traffic fluctuation difference holding unit 114 holds the inter-group traffic fluctuation difference information received from the inter-group traffic fluctuation difference calculation unit 113.

増加分貼り付け変更部131および減少分剥ぎ取り変更部132は、グループ内割当履歴保持部115に保持されている情報とグループ内トラヒック変動差分保持部112に保持されている情報に基づいて、トラヒックに変動が生じているノード間を対象にTSの増加または減少を行って、グループ内スケジュールテーブル保持部126が保持しているグループ内スケジュールテーブルを更新する。   The increase pasting change unit 131 and the decrease stripping change unit 132 are based on information held in the intra-group allocation history holding unit 115 and information held in the intra-group traffic fluctuation difference holding unit 112. The intra-group schedule table held by the intra-group schedule table holding unit 126 is updated by increasing or decreasing the TS between nodes where fluctuations occur.

増加分貼り付け変更部133および減少分剥ぎ取り変更部134は、グループ間割当履歴保持部116に保持されている情報とグループ間トラヒック変動差分保持部114に保持されている情報に基づいて、トラヒックに変動が生じているグループ間を対象にTSの増加または減少を行って、グループ間スケジュールテーブル保持部127が保持しているグループ間スケジュールテーブルを更新する。   The increment paste change unit 133 and the decrease strip change unit 134 determine the traffic based on the information held in the inter-group allocation history holding unit 116 and the information held in the inter-group traffic fluctuation difference holding unit 114. The TS is increased or decreased between the groups in which fluctuations occur in the group, and the inter-group schedule table held by the inter-group schedule table holding unit 127 is updated.

実スケジュールテーブル算出部125は、グループ内スケジュールテーブルをグループ間スケジュールテーブルに反映させてTSスケジュールを取得し、新たなTSスケジュールを実スケジュールテーブル保持部124に格納する。   The actual schedule table calculation unit 125 acquires the TS schedule by reflecting the intra-group schedule table in the inter-group schedule table, and stores the new TS schedule in the actual schedule table holding unit 124.

ノード制御信号生成部123は、実スケジュールテーブル保持部124に保持されているTSスケジュールをノード20a〜20eの各ノードに対応したノード処理に換算し、各ノードに対応したスケジューリング結果をIO15を介して出力する。   The node control signal generation unit 123 converts the TS schedule held in the actual schedule table holding unit 124 into node processing corresponding to each node of the nodes 20a to 20e, and sends a scheduling result corresponding to each node via the IO15. Output.

次に、本実施形態のTDMネットワークシステムにおけるスケジューラの動作手順を説明する。   Next, the operation procedure of the scheduler in the TDM network system of this embodiment will be described.

図5は本実施形態のスケジューラの動作手順を示すフローチャートであり、図6は図5に示したステップ203における処理を示すフローチャートである。   FIG. 5 is a flowchart showing the operation procedure of the scheduler of this embodiment, and FIG. 6 is a flowchart showing the processing in step 203 shown in FIG.

スケジューラ10は、NWのトラヒックを集計すると(ステップ201)、所要TS数を算出する(ステップ203)。続いて、スケジューラ10は、TSの割り当てを行ってTSスケジュールを作成する(ステップ203)。   When the scheduler 10 sums up the traffic of the NW (step 201), it calculates the required number of TSs (step 203). Subsequently, the scheduler 10 assigns TSs and creates a TS schedule (step 203).

ステップ203では、図6に示すように、スケジューラ10は、算出した所要TS数から各グループ内TS変動差分を算出するとともに(ステップ231a)、所要TS数からグループ間変動差分を算出する(ステップ231b)。続いて、スケジューラ10は、ステップ231aで算出したグループ内TS変動差分の情報に基づいて、グループ内のテーブル上でRip-up & Re-allocate演算処理を実行する(ステップ232a)。この演算結果を「演算結果CR1」と称する。   In step 203, as shown in FIG. 6, the scheduler 10 calculates the intra-group TS fluctuation difference from the calculated required TS number (step 231a), and calculates the inter-group fluctuation difference from the required TS number (step 231b). ). Subsequently, the scheduler 10 executes Rip-up & Re-allocate calculation processing on the table in the group based on the information on the TS variation difference in the group calculated in Step 231a (Step 232a). This calculation result is referred to as “calculation result CR1”.

また、スケジューラ10は、ステップ231bで算出したグループ間変動差分の情報に基づいて、グループ間のテーブル上でRip-up & Re-allocate演算処理を実行する(ステップ232b)。この演算結果を「演算結果CR2」と称する。スケジューラ10は、演算結果CR1を演算結果CR2に代入してTSスケジュールを取得する(ステップ233)。   Further, the scheduler 10 executes Rip-up & Re-allocate calculation processing on the table between groups based on the information on the difference between groups calculated in step 231b (step 232b). This calculation result is referred to as “calculation result CR2”. The scheduler 10 acquires the TS schedule by substituting the calculation result CR1 into the calculation result CR2 (step 233).

その後、図5に示すように、スケジューラ10は、ノード処理に換算し(ステップ204)、ノード20a〜20eの各ノードに対応したスケジューリング結果を各ノード宛に通知する(ステップ205)。   After that, as shown in FIG. 5, the scheduler 10 converts to node processing (step 204) and notifies the scheduling result corresponding to each of the nodes 20a to 20e to each node (step 205).

本実施形態では、階層化(大規模な問題を小規模な複数の問題に分割)とRip-up & Re-allocate(変動が生じた通信のみに着目した部分変更)を組み合わせることで、素早く最適解に近づけることを可能にしている。   In this embodiment, it is quickly optimized by combining hierarchization (dividing a large-scale problem into multiple small problems) and Rip-up & Re-allocate (partial change focusing only on communication with fluctuations). It makes it possible to approach the solution.

本実施形態により、スケジューリングを高速化できる仕組みの概要を、図を参照して説明する。図7はスケジューリング高速化の仕組みを説明するための図である。   An outline of a mechanism that can speed up scheduling according to the present embodiment will be described with reference to the drawings. FIG. 7 is a diagram for explaining a mechanism for speeding up scheduling.

第1段階として、階層化方式を適用することで、対象となるノードに対するTSの割当問題の計算の規模を小さくしている。例えば、100ノードの割当問題を、「10ノードの割当問題×10+10グループの割当問題」に置き換える。   As a first step, the scale of calculation of the TS allocation problem for the target node is reduced by applying a hierarchization method. For example, the assignment problem of 100 nodes is replaced with “assignment problem of 10 nodes × 10 + 10 group assignment problem”.

第2段階として、第1段階のそれぞれの割当問題にRip-up & Re-allocate方式を適用する。規模が小さくなっている割当問題に対し、「トラヒック変動が生じていないノードは計算の対象外」とした割当の部分変更を行うことで、高速に解を導出している。   As a second stage, the Rip-up & Re-allocate method is applied to each allocation problem in the first stage. In response to an allocation problem that is becoming smaller in scale, a solution is derived at high speed by performing partial modification of the allocation so that “nodes that do not have traffic fluctuations are not subject to calculation”.

次に、割当問題の計算時間短縮の仕組みを詳しく説明する。   Next, the mechanism for reducing the calculation time of the assignment problem will be described in detail.

非特許文献2に開示された階層化方式による割当を行うためにノードグループを定義し、ノードグループの順序対をノードグループペア(GP)と呼ぶと、NW内のパスはいずれかのGPに属することになる。ノード数をNとし、グループ数をGとする。   When a node group is defined to perform allocation by the hierarchization method disclosed in Non-Patent Document 2, and an ordered pair of node groups is called a node group pair (GP), a path in the NW belongs to any GP It will be. Let N be the number of nodes and G be the number of groups.

(1)各GP内の割当計算とGP間の割当計算で対象とするパス数とリンク数は、非特許文献1に開示された既存方式による割当方法に比べてそれぞれ小さくなるため、割当計算の規模が削減される。
Nノード網で既存方式が対象とするパス数、リンク数:O(N2) パス、O(N) リンク
Nノード網でGグループを定義した階層化方式が対象とするパス数、リンク数:
→GP内の割当計算・・・O[(N/G)2] パス、 O[(N/G)] リンク
→GP間の割当計算・・・O(G2) パス、 O(G) リンク
(2)GP内の割当計算ならびにGP間の割当計算方法にRip-up & Re-allocate方式を用いるとトラヒック変動が一定値以下のパスに対しては割当計算を省略可能であるため、さらに割当計算の規模が削減される。
各パスにおいてトラヒック変動量が1TS分の帯域(例えば、100Mbps)を超過する割合をa(0≦a≦1)とおくと、
→GP内の割当計算・・・Rip-up & Re-allocate計算対象のパス数がa倍(≦1)されることとなる。
→GP間の割当計算・・・NW内でトラヒックが増加するパスと減少するパスの割合が同一であるとすると、GP単位で見るとトラヒックの増減はなしとみなせる確率が高い。この場合、 Rip-up & Re-allocateの計算対象外となる。
(1) Since the number of paths and the number of links targeted in the allocation calculation within each GP and the allocation calculation between GPs are smaller than the allocation method based on the existing method disclosed in Non-Patent Document 1, the allocation calculation Scale is reduced.
The number of paths and links targeted by the existing method in the N-node network: O (N 2 ) path, the number of links and the number of links targeted by the hierarchical system that defines the G group in the O (N) link N-node network:
→ Allocation calculation within GP ... O [(N / G) 2 ] path, O [(N / G)] link → Allocation calculation between GPs ... O (G 2 ) path, O (G) link (2) If the Rip-up & Re-allocate method is used for the allocation calculation within the GP and the allocation calculation method between the GPs, the allocation calculation can be omitted for a path whose traffic fluctuation is below a certain value. The scale of calculation is reduced.
If the ratio that the traffic fluctuation amount exceeds the bandwidth for one TS (for example, 100 Mbps) in each path is a (0 ≦ a ≦ 1),
→ Allocation calculation in GP: The number of paths subject to Rip-up & Re-allocate calculation is multiplied by a (≦ 1).
→ Assignment calculation between GPs ... If the ratio of the path where traffic increases and the path where traffic decreases in the NW is the same, there is a high probability that traffic will not increase or decrease when viewed in GP units. In this case, Rip-up & Re-allocate is not subject to calculation.

したがって、所要計算時間は階層化方式以下となる。その結果、次の効果が得られる。
・トラヒック変動が比較的緩やかである領域においてはGP内の計算時間が減る。
・GP単位でのトラヒック増減がない場合、GP間の計算時間を省くことが可能となる。
・計算時間の上限は階層化方式と同等(計算時間が上限または上限付近の値をとるのは非現実的な激しいトラヒック変動が生じた場合)になる。
Therefore, the required calculation time is less than the hierarchization method. As a result, the following effects can be obtained.
-The calculation time in the GP decreases in an area where the traffic fluctuation is relatively moderate.
-If there is no traffic increase / decrease in GP units, calculation time between GPs can be saved.
-The upper limit of the calculation time is equivalent to that of the hierarchization method (the calculation time takes the upper limit or a value near the upper limit when unrealistic heavy traffic fluctuation occurs).

本実施形態によれば、同一計算リソースにおいて、同一規模のNW制御に必要なTS割当計算の時間を短縮することができ、より大規模なNWシステムを提供することができる。   According to the present embodiment, it is possible to reduce the TS allocation calculation time required for NW control of the same scale in the same calculation resource, and to provide a larger scale NW system.

(第2の実施形態)
本実施形態は、第1の実施形態で説明したTDMネットワークシステムにおいて、トラヒックに偏りが生じた場合にも、対処可能にしたものである。
(Second Embodiment)
In this embodiment, the TDM network system described in the first embodiment can cope with the case where traffic is biased.

階層化のグループが固定された場合、トラヒックが偏ってしまうと、 グループ単位のトラヒック変動量の総和が大きくなる事象が発生する場合が考えられる。この場合、Rip-up & Re-allocate方式で最適解に近づくまでに時間がかかってしまうことがある。その場合には、要求通りにトラヒックを転送できない状態となり、転送トラヒック量が低減してしまうことになる。   When the hierarchized group is fixed, if the traffic is biased, an event may occur in which the total sum of traffic fluctuations for each group increases. In this case, it may take time to approach the optimal solution using the Rip-up & Re-allocate method. In this case, traffic cannot be transferred as requested, and the amount of transfer traffic is reduced.

図8はトラヒックの偏りによって生じる課題を説明するための図である。   FIG. 8 is a diagram for explaining a problem caused by traffic bias.

トラヒックがNW内で均一に分散している場合、図8の左側の図に示すように、第1の実施形態で説明したスケジューリング方法が行われる。トラヒックが偏ってトラヒック分布に変化が起きると、図8の右側の図に示すように、グループ単位の大きなトラヒック変動に起因する割当効率悪化を解消しようとする。その結果、同一設備量のNWシステムで要求通りに転送されるトラヒック量が減少してしまうことになる。   When the traffic is uniformly distributed in the NW, the scheduling method described in the first embodiment is performed as shown in the left diagram of FIG. When the traffic is biased and the traffic distribution changes, as shown in the diagram on the right side of FIG. 8, an attempt is made to eliminate the deterioration in allocation efficiency caused by large traffic fluctuations in units of groups. As a result, the amount of traffic transferred as requested in the NW system having the same equipment amount decreases.

図9は本実施形態のTDMネットワークシステムによる動作を説明するための図である。   FIG. 9 is a diagram for explaining the operation of the TDM network system of this embodiment.

図9に示すように、本実施形態では、各グループにおけるトラヒック変動量の総和を均一化するように、グループを動的に組み換える動的グループリアレンジを行うことで、割当計算誤差の蓄積を回避する。この動的グループリアレンジは、グループ毎のトラヒック変動を観測する機構、グループ毎のトラヒック変動を検出する機構、グループの組み換え計算を行う機構、設定変更を行う機構によって実現される。   As shown in FIG. 9, in the present embodiment, accumulation of allocation calculation errors is performed by performing dynamic group rearrangement that dynamically rearranges groups so as to equalize the sum of traffic fluctuation amounts in each group. To avoid. This dynamic group rearrangement is realized by a mechanism for observing traffic fluctuation for each group, a mechanism for detecting traffic fluctuation for each group, a mechanism for performing group recombination calculation, and a mechanism for changing settings.

本実施形態のTDMネットワークシステムにおける動的グループリアレンジングを実現するための具体的な構成を説明する。図10は動的グループリアレンジの様子をイメージした模式図である。   A specific configuration for realizing dynamic group rearranging in the TDM network system of this embodiment will be described. FIG. 10 is a schematic diagram illustrating the dynamic group rearrange.

動的グループリアレンジの設計項目として、(A)グループ毎の偏りを検知する箇所、(B)どう検知するか(何を監視してどう偏りを検出するか)、(C)どうグループリアレンジするかの3つの項目が考えられ、各項目で何を選択するかによって種々のパターンが考えられる。   Design items for dynamic group rearrangement include: (A) where to detect bias for each group, (B) how to detect (what to monitor and how to detect bias), and (C) how to rearrange the group. There are three possible items, and various patterns can be considered depending on what is selected for each item.

(A)どこでグループ毎の偏りを検知するか?
1.スケジューラ
2.グループ内に属するノードの中で一番親ノードに近い子ノードのコントローラ
3.親ノードのコントローラ
(B)何を監視するか?
a.グループのトラヒック変動量の総和→閾値比較
b.グループのロス率の総和→閾値比較
c.グループの遅延の総和→閾値比較
(C)どうグループをリアレンジするか?
i.各グループで変動量の総和が均一となるようにリアレンジする。
ii.各グループで遅延の総和が均一となるようにリアレンジする。
(A) Where is the bias for each group detected?
1. 1. Scheduler 2. The controller of the child node closest to the parent node among the nodes belonging to the group Parent node controller (B) What to monitor?
a. Sum of traffic fluctuation amount of group → Threshold comparison b. Sum of group loss rates → threshold comparison c. Sum of group delays → threshold comparison (C) How to rearrange groups?
i. Rearrange so that the total amount of variation is uniform in each group.
ii. Rearrange so that the total delay is uniform in each group.

グループをリアレンジする際のオプションとして、グループをリアレンジする頻度を調整する(一度実行したら、一定時間経過するまでリアレンジしない)。これは、グループリアレンジ処理が頻繁に実施されると、網内のグループが変わるとともに、変更しなくても良い割当状態も変更されることとなるため、これを抑制するためである。   Adjust the frequency of rearranging the group as an option when rearranging the group (once done, do not rearrange until a certain time has elapsed). This is because, if group rearrangement processing is frequently performed, the group in the network changes and the allocation state that does not need to be changed is also changed.

上記(A)〜(C)の3つの項目のうち、(A)の項目における「1〜3」のそれぞれにおいて、(B)の項目で「a」を選択した場合の実施例を説明する。なお、第1の実施形態で説明した構成と同様な構成についての詳細な説明を省略する。   Of the above three items (A) to (C), an example in which “a” is selected in the item (B) in each of “1 to 3” in the item (A) will be described. A detailed description of the same configuration as that described in the first embodiment is omitted.

本実施例は、スケジューラでグループ毎のトラヒックを監視し大きなトラヒック変動を検知する場合であり、「1,a」の組み合わせのパターンに相当する。   The present embodiment is a case where the scheduler monitors the traffic for each group and detects a large traffic fluctuation, and corresponds to a combination pattern of “1, a”.

図11は本実施例のTDMネットワークシステムにおけるスケジューラの構成例を示すブロック図である。   FIG. 11 is a block diagram showing a configuration example of the scheduler in the TDM network system of the present embodiment.

図11に示すように、本実施例のスケジューラ10は、グループトラヒック監視部152と、グループ組み換え通知部151とをさらに有する。図11では、説明のために、第1の実施形態で説明したスケジューラ20の演算装置11とは別に構成を追加して示しているが、グループトラヒック監視部152およびグループ組み替え通知部151の機能を演算装置11に実行させてもよい。本実施例では、演算装置11に実行させる処理に、ノードグループを組み替える処理を追加している。   As shown in FIG. 11, the scheduler 10 according to the present embodiment further includes a group traffic monitoring unit 152 and a group recombination notification unit 151. In FIG. 11, for the sake of explanation, a configuration is added and shown separately from the arithmetic device 11 of the scheduler 20 described in the first embodiment, but the functions of the group traffic monitoring unit 152 and the group rearrangement notification unit 151 are illustrated. You may make the arithmetic unit 11 perform. In the present embodiment, a process of rearranging the node groups is added to the process executed by the arithmetic device 11.

グループトラヒック監視部152は、各ノード間のトラヒック情報を定期的にIO15を介して取得し、グループ間トラヒック変動量が予め設定された閾値を超過したか否かの情報である閾値超過情報をグループ組み換え通知部151に通知する。   The group traffic monitoring unit 152 periodically acquires traffic information between the nodes via the IO 15, and groups the threshold excess information that is information as to whether or not the inter-group traffic fluctuation amount exceeds a preset threshold. The recombination notification unit 151 is notified.

グループ組み替え通知部151は、グループトラヒック監視部152から通知された閾値超過情報がグループ間トラヒック変動量が閾値を超えた旨の情報であると、グループ組み替えを指示する旨のグループ組替指示通知を演算装置11に送信する。   The group reassignment notification unit 151 sends a group reassignment instruction notification for instructing group reassignment when the threshold excess information notified from the group traffic monitoring unit 152 is information indicating that the inter-group traffic fluctuation amount exceeds the threshold. It transmits to the arithmetic unit 11.

演算装置11は、ノード20a〜20eに対して、トラヒック変動量の総和が均一になるようにグルーピングし直す。   The arithmetic unit 11 regroups the nodes 20a to 20e so that the total traffic fluctuation amount is uniform.

本実施例では、グループ間のトラヒックが変動すると、スケジューラが、その変動を検出し、トラヒック変動量が均一になるようにグループ化し直すので、同じ設備でデータ転送されるトラヒック量が減少することを抑制することが可能となる。   In this embodiment, when the traffic between the groups fluctuates, the scheduler detects the fluctuation and regroups so that the traffic fluctuation amount becomes uniform, so that the traffic amount transferred by the same equipment decreases. It becomes possible to suppress.

本実施例は、子ノードのコントローラでグループ毎のトラヒックを監視し、スケジューラが大きなトラヒック変動を検知する場合であり、「2,a」の組み合わせのパターンに相当する。   In this embodiment, the traffic of each group is monitored by the controller of the child node, and the scheduler detects a large traffic fluctuation, which corresponds to a combination pattern of “2, a”.

図12は本実施例のTDMネットワークシステムの構成例を示すブロック図である。図12(a)はスケジューラとスケジューラに接続されるノードの構成例を示し、図12(b)はそのノードに最も近いノードの構成例を示す。   FIG. 12 is a block diagram illustrating a configuration example of the TDM network system according to the present embodiment. FIG. 12A shows a configuration example of a scheduler and a node connected to the scheduler, and FIG. 12B shows a configuration example of a node closest to the node.

スケジューラ10に接続されるノード20aを親ノードとし、親ノードのコントローラを親コントローラと称する。   The node 20a connected to the scheduler 10 is referred to as a parent node, and the controller of the parent node is referred to as a parent controller.

同一グループに属するノードのうち、親ノード以外のノードを子ノードと称し、子ノードのコントローラを子コントローラと称する。ここでは、親ノードへと向かう制御信号の向きに対して最も下流にいる(親ノードの1ホップ手前)子ノードに注目し、本実施例では、ノード20eが上記の最も下流にいる子ノードの場合で説明する。後述の他の実施例についても同様である。   Among the nodes belonging to the same group, nodes other than the parent node are referred to as child nodes, and the controller of the child node is referred to as a child controller. Here, attention is paid to the child node that is the most downstream (one hop before the parent node) with respect to the direction of the control signal toward the parent node. In this embodiment, the node 20e is the above-mentioned most downstream child node. The case will be explained. The same applies to other examples described later.

図12(a)に示すように、スケジューラ10は実施例1と同様な構成である。図12(b)に示すように、本実施例のノード20eは、グループトラヒック算出・通知部161をさらに有する。   As shown in FIG. 12A, the scheduler 10 has the same configuration as that of the first embodiment. As shown in FIG. 12B, the node 20e of this embodiment further includes a group traffic calculation / notification unit 161.

グループトラヒック算出・通知部161は、各ノード間のトラヒック情報を定期的に取得し、取得したトラヒック情報からグループ間トラヒック変動量を算出し、その結果を子コントローラ21bに通知する。子コントローラ21bは、グループトラヒック算出・通知部161から受け取るグループ間トラヒック変動量の情報をノード20aに転送する。   The group traffic calculation / notification unit 161 periodically acquires traffic information between the nodes, calculates an inter-group traffic fluctuation amount from the acquired traffic information, and notifies the child controller 21b of the result. The child controller 21b transfers the inter-group traffic fluctuation amount information received from the group traffic calculation / notification unit 161 to the node 20a.

ノード20aの親コントローラ21aはノード20eから受け取るグループ間トラヒック変動量をスケジューラ10に転送する。スケジューラ10のグループトラヒック監視部152は、グループ間トラヒック変動量と予め設定された閾値とを比較し、比較の結果を示す閾値超過情報をグループ組み換え通知部151に通知する。   The parent controller 21a of the node 20a transfers the inter-group traffic fluctuation amount received from the node 20e to the scheduler 10. The group traffic monitoring unit 152 of the scheduler 10 compares the inter-group traffic fluctuation amount with a preset threshold value, and notifies the group recombination notification unit 151 of threshold excess information indicating the comparison result.

本実施例では、グループ間トラヒック変動量の算出の処理を子ノードに実行させているため、実施例1に比べてスケジューラの処理負荷が軽減する。   In this embodiment, since the process of calculating the inter-group traffic fluctuation amount is executed by the child node, the processing load of the scheduler is reduced compared to the first embodiment.

本実施例は、親ノードのコントローラでグループ毎のトラヒックを監視し、大きなトラヒック変動を検知する場合であり、「3,a」の組み合わせのパターンに相当する。   In this embodiment, the parent node controller monitors the traffic for each group and detects a large traffic fluctuation, which corresponds to a combination pattern of “3, a”.

図13は本実施例のTDMネットワークシステムの構成例を示すブロック図である。図13(a)はスケジューラと親ノードの構成例を示し、図13(b)は子ノードの構成例を示す。本実施例においても、最も下流にいる子ノードがノード20eの場合で説明する。   FIG. 13 is a block diagram showing a configuration example of the TDM network system of this embodiment. FIG. 13A shows a configuration example of the scheduler and the parent node, and FIG. 13B shows a configuration example of the child node. Also in the present embodiment, description will be given on the case where the most downstream child node is the node 20e.

図13(a)に示すように、スケジューラ10は図12(a)に示した構成において、グループトラヒック監視部152の代わりに閾値超過通知監視部153を有する。また、ノード20aは、実施例1に示した構成に、グループトラヒック算出部162と、閾値比較部163と、閾値超過通知部164とをさらに有する。   As illustrated in FIG. 13A, the scheduler 10 includes a threshold excess notification monitoring unit 153 instead of the group traffic monitoring unit 152 in the configuration illustrated in FIG. Further, the node 20a further includes a group traffic calculation unit 162, a threshold comparison unit 163, and a threshold excess notification unit 164 in the configuration shown in the first embodiment.

グループトラヒック算出部162は、親コントローラ21aを介してスケジューラ10からグループ間トラヒック変動量の情報を取得して閾値比較部163に通知する。閾値比較部163は、予め決められた閾値とグループ間トラヒック変動量とを比較してその結果を閾値超過通知部164に通知する。   The group traffic calculation unit 162 acquires information on the inter-group traffic fluctuation amount from the scheduler 10 via the parent controller 21a and notifies the threshold comparison unit 163 of the information. The threshold comparison unit 163 compares a predetermined threshold with the inter-group traffic fluctuation amount and notifies the threshold excess notification unit 164 of the result.

閾値超過通知部164は、グループ間トラヒック変動量と閾値との比較結果から、グループ間トラヒック変動量が閾値を超過したか否かの情報である閾値超過情報を親コントローラ21aに通知する。親コントローラ21aは閾値超過情報をスケジューラ10に転送する。   The threshold excess notification unit 164 notifies the parent controller 21a of threshold excess information, which is information indicating whether or not the inter-group traffic fluctuation amount has exceeded the threshold value, based on the comparison result between the inter-group traffic fluctuation amount and the threshold value. The parent controller 21 a transfers the threshold excess information to the scheduler 10.

スケジューラ10の閾値超過通知監視部153は、ノード20aから受け取った閾値超過情報がグループ間トラヒック変動量が閾値を超えた旨の情報である場合、その旨をグループ組み替え通知部151に通知する。   When the threshold excess notification information received from the node 20a is information that the inter-group traffic fluctuation amount exceeds the threshold, the threshold excess notification monitoring unit 153 of the scheduler 10 notifies the group rearrangement notification unit 151 to that effect.

本実施例では、グループ間トラヒック変動量の算出と、トラヒック変動量と閾値との比較処理を親ノードに実行させているため、実施例1に比べてスケジューラの処理負荷が軽減する。   In the present embodiment, the processing load of the scheduler is reduced compared to the first embodiment because the parent node is caused to execute the calculation of the inter-group traffic fluctuation amount and the comparison processing between the traffic fluctuation amount and the threshold value.

本実施例は、過度に頻繁なグループ変更が行われることを抑制する場合であり、「1,a」の組み合わせの別のパターンに相当する。   The present embodiment is a case where excessively frequent group changes are suppressed, and corresponds to another pattern of combinations of “1, a”.

図14は本実施例のTDMネットワークシステムにおけるスケジューラの構成例を示すブロック図であり、図15は図14に示す各種信号を説明するための表である。   FIG. 14 is a block diagram showing a configuration example of a scheduler in the TDM network system of the present embodiment, and FIG. 15 is a table for explaining various signals shown in FIG.

図14に示すように、本実施例のスケジューラ10は、実施例1で説明した構成に、組替タイマ155と、組替許可通知部154とをさらに有する。   As illustrated in FIG. 14, the scheduler 10 according to the present embodiment further includes a reassignment timer 155 and a reassignment permission notification unit 154 in the configuration described in the first embodiment.

グループトラヒック監視部152は、各ノード間のトラヒック情報をIO15を介して取得し、グループ間トラヒック変動量が予め設定された閾値を超過したか否かの情報である閾値超過情報をグループ組み換え通知部151に通知する。グループ組み替え通知部151は、グループトラヒック監視部152から通知された閾値超過情報がグループ間トラヒック変動量が閾値を超えた旨の情報であると、グループ組み替えを指示する旨のグループ組替指示通知を演算装置11に送信する。   The group traffic monitoring unit 152 obtains traffic information between the nodes via the IO 15, and transmits group excess notification information indicating whether the inter-group traffic fluctuation amount exceeds a preset threshold. 151 is notified. The group reassignment notification unit 151 sends a group reassignment instruction notification for instructing group reassignment when the threshold excess information notified from the group traffic monitoring unit 152 is information indicating that the inter-group traffic fluctuation amount exceeds the threshold. It transmits to the arithmetic unit 11.

また、グループ組み換え通知部151は、演算装置11宛にグループ組替指示通知を送信した際、グループ組替指示通知を指示したことを通知するためのグループ組替指示送信通知を組替許可タイマ155に送信する。組替許可タイマ155は、グループ組替指示送信通知を受信してからタイマを起動させ、予め決められた時間内に次のグループ組替指示送信通知を受け取らなければ、タイムアウトを組替許可通知部154に通知する。組替許可通知部154は、組替許可タイマからタイムアウトの通知を受けると、グループ組み替え通知部151に対して、グループ組替指示を演算装置11に通知することを許可する。   In addition, the group recombination notification unit 151 transmits a group reassignment instruction transmission notification for notifying that the group reconfiguration instruction notification is instructed when the group reconfiguration instruction notification is transmitted to the arithmetic device 11. Send to. The reassignment permission timer 155 activates the timer after receiving the group reassignment instruction transmission notification, and if it does not receive the next group reassignment instruction transmission notification within a predetermined time, the reassignment permission notification unit 154 is notified. When receiving the notification of timeout from the reassignment permission timer, the reassignment permission notification unit 154 permits the group reassignment notification unit 151 to notify the arithmetic device 11 of a group reassignment instruction.

本実施例では、タイマによる管理を行うことで、過度に頻繁なグループのリアレンジに起因する不必要な割当状態変更を抑制できる。   In the present embodiment, unnecessary allocation state changes due to excessively frequent rearrangement of groups can be suppressed by performing management using a timer.

本実施形態によれば、グループ単位のトラヒック変動に起因する割当効率悪化を抑制し、同一NW設備量における収容トラヒック量を増加させることが可能となる。そのため、従来技術によってトラヒック変動に応じて動的なスケジューリング(帯域割当)を行う場合に比べ、大規模NWをより高速に動的に制御することが可能となる。   According to this embodiment, it is possible to suppress the allocation efficiency deterioration caused by the traffic fluctuation of the group unit and increase the accommodated traffic amount in the same NW facility amount. Therefore, it is possible to dynamically control a large-scale NW at a higher speed than when dynamic scheduling (bandwidth allocation) is performed according to traffic fluctuations according to the conventional technology.

(第3の実施形態)
次に、第1および第2の実施形態で説明したTDMネットワークシステムによるスケジューリング方法を多段リングに適用した場合を説明する。
(Third embodiment)
Next, a case where the scheduling method by the TDM network system described in the first and second embodiments is applied to a multistage ring will be described.

図16は本実施形態のTDMネットワークシステムの構成例を示すブロック図である。図16は多段リング網の一例を示す図であり、段数が2段の場合を示す。   FIG. 16 is a block diagram showing a configuration example of the TDM network system of the present embodiment. FIG. 16 is a diagram showing an example of a multistage ring network, and shows a case where the number of stages is two.

上位リングには、ノードA〜ノードEからなる5つのノード20がリング状に接続されている。下位リングAには、ノードA、ノードFおよびノードGの3つのノード20がリング状に接続されている。下位リングBには、ノードB、ノードH、ノードIおよびノードJの4つのノード20がリング状に接続されている。下位リングCには、ノードC、ノードKおよびノードMの3つのノード20がリング状に接続されている。   Five nodes 20 including nodes A to E are connected to the upper ring in a ring shape. In the lower ring A, three nodes 20 of a node A, a node F, and a node G are connected in a ring shape. In the lower ring B, four nodes 20 of a node B, a node H, a node I, and a node J are connected in a ring shape. In the lower ring C, three nodes 20 of a node C, a node K, and a node M are connected in a ring shape.

なお、ノード20およびスケジューラ10についての構成は第1の実施形態で説明した構成と同様であるため、本実施形態ではその詳細な説明を省略する。   Note that the configuration of the node 20 and the scheduler 10 is the same as the configuration described in the first embodiment, and thus detailed description thereof is omitted in this embodiment.

本実施形態のTDMネットワークシステムの動作を説明する。   The operation of the TDM network system of this embodiment will be described.

図17は本実施形態のTDMネットワークシステムの動作を説明するための図である。図17は、ノードDおよびノードEがグループZにグループ化され、ノードAを含む下位リングAがグループRAにグループ化され、ノードBを含む下位リングBがグループRBにグループ化され、ノードCを含む下位リングCがグループRCにグループ化された場合を示す。   FIG. 17 is a diagram for explaining the operation of the TDM network system of this embodiment. FIG. 17 shows that node D and node E are grouped into group Z, lower ring A including node A is grouped into group RA, lower ring B including node B is grouped into group RB, and node C is The case where the lower ring C to be included is grouped into the group RC is shown.

はじめに、グループ間のスケジューリングを行うことで、上位リングと下位リング間のスケジューリングを行う。図17の上側の図には、グループRA→RB→RC→Zへのデータ転送のTS割当が示されている。続いて、各リング内のスケジューリングを行う。図17の上側の図に、下位リングB内のデータ転送のTS割当が示されている。   First, scheduling between upper and lower rings is performed by scheduling between groups. The upper diagram in FIG. 17 shows TS allocation for data transfer from the group RA → RB → RC → Z. Subsequently, scheduling in each ring is performed. In the upper diagram of FIG. 17, TS allocation for data transfer in the lower ring B is shown.

その後、各階層でRip-up & Re-allocate による動的変更を行う。図17の下側の図は、グループRB→グループZへの変動がないので、計算対象外とし、下位リングBについて、Rip-up & Re-allocate による動的変更を行うことで、「ノードJ→ノードE」の1TS減少と「ノードI→ノードD」の1TS増加が行われることを示している。   After that, dynamic change by Rip-up & Re-allocate is performed at each layer. In the lower diagram of FIG. 17, since there is no change from group RB to group Z, it is excluded from calculation, and the lower ring B is dynamically changed by Rip-up & Re-allocate. This indicates that 1TS decrease of “→ node E” and 1 TS increase of “node I → node D” are performed.

このようにして、多段リングにおいても、各リング間のスケジューリングと、各リング内のスケジューリングから成る階層化を定義した後に、それぞれの階層でRip-up & Re-allocate による動的変更を行うことが可能となる。   In this way, even in a multistage ring, after defining a hierarchy consisting of scheduling between each ring and scheduling within each ring, dynamic change by Rip-up & Re-allocate can be performed in each hierarchy. It becomes possible.

なお、本実施形態では、スケジューリングを「グループ間」→「グループ内」の順番で行う場合で説明したが、「グループ内」→「グループ間」の順番であってもよい。   In the present embodiment, the case where scheduling is performed in the order of “between groups” → “within group” has been described, but the order may be “within group” → “between groups”.

また、上記実施例では、階層化方式やRip-up & Re-allocate方式を用いる場合で説明したが、これらの方式は本願発明を構成するTDMスケジューリング方法の一例であって、用いる方式はこれら2つの方式に限定されない。   In the above embodiment, the case where the hierarchization method and the Rip-up & Re-allocate method are used has been described. However, these methods are examples of the TDM scheduling method constituting the present invention. It is not limited to one method.

さらに、階層化方式とRip-up & Re-allocate方式の組み合わせによるスケジューリング方法の特性を説明する。   Furthermore, the characteristics of the scheduling method based on the combination of the hierarchization method and the Rip-up & Re-allocate method will be described.

1つ目は、グループレイヤ、ノードレイヤそれぞれの計算を独立で行うことができるという特性がある。具体例として、
・周期が異なってもよい。例えば、ノードレイヤTに対し、グループレイヤをkT(kは自然数)としてよい。
・計算方法を変えてもよい(例えば、非特許文献1に開示されたヒューリスティック法、またはRip-up & Re-allocate方式)。
・スケジューラ内で、それぞれの計算専用の演算装置を設けてもよい (複数の演算装置を用いてもよい)。
などのバリエーションが考えられる。
The first characteristic is that the calculation of each of the group layer and the node layer can be performed independently. As a specific example,
-The period may be different. For example, for the node layer T, the group layer may be kT (k is a natural number).
The calculation method may be changed (for example, the heuristic method disclosed in Non-Patent Document 1 or the Rip-up & Re-allocate method).
-An arithmetic unit dedicated to each calculation may be provided in the scheduler (a plurality of arithmetic units may be used).
Variations such as are conceivable.

2つ目は、ノードレイヤのそれぞれ(グループ内)の計算を独立で行うことができるという特性がある。具体例として、
・周期がそれぞれ異なってもよい。例えば、それぞれ、独立して周期をmT(mはkの約数となる自然数)としてよい。
・計算方法をそれぞれ変えてもよい(例えば、非特許文献1に開示されたヒューリスティック法、またはRip-up & Re-allocate方式)。
・スケジューラ内で、それぞれの計算専用の演算装置を設けてもよい (複数の演算装置を用いてもよい)。
などのバリエーションが考えられる。
The second characteristic is that each node layer (within a group) can be calculated independently. As a specific example,
-The period may be different. For example, the period may be independently mT (m is a natural number that is a divisor of k).
The calculation method may be changed (for example, the heuristic method disclosed in Non-Patent Document 1 or the Rip-up & Re-allocate method).
-An arithmetic unit dedicated to each calculation may be provided in the scheduler (a plurality of arithmetic units may be used).
Variations such as are conceivable.

10 スケジューラ
11 演算装置
13 メモリ
20a〜20e ノード
10 scheduler 11 computing device 13 memory 20a-20e node

Claims (3)

タイムスロットスケジュールにしたがってタイムスロット単位で隣接する他のノードにデータ転送を行う複数のノードを含むネットワークと、
前記複数のノードのうちいずれか1つのノードに接続され、前記ネットワークのトラヒックを集計し、集計したトラヒックに基づいて前記タイムスロットスケジュールを作成するスケジューラと、を有し、
前記スケジューラは、
集計したトラヒックから必要となるタイムスロット数を算出し、前記複数のノードをグループ化し、各グループのトラヒック変動差分を算出し、その差分の情報に基づいて、グループ内のスケジューリングおよびグループ間のスケジューリングをそれぞれ行い、グループ内のスケジューリング結果を、グループ間のスケジューリング結果に当てはめて、システム全体の前記タイムスロットスケジュールを決定する、TDMネットワークシステム。
A network including a plurality of nodes performing data transfer to other adjacent nodes in units of time slots according to a time slot schedule;
A scheduler that is connected to any one of the plurality of nodes, aggregates traffic of the network, and creates the time slot schedule based on the aggregated traffic;
The scheduler
Calculate the required number of time slots from the aggregated traffic, group the plurality of nodes, calculate the traffic fluctuation difference of each group, and perform scheduling within the group and scheduling between groups based on the difference information A TDM network system that performs each and applies a scheduling result within a group to a scheduling result between groups to determine the time slot schedule of the entire system.
請求項1記載のTDMネットワークシステムにおいて、
前記スケジューラは、前記複数のノードをグループ化する際、トラヒック変動量の総和を均一化するようにグルーピングする、TDMネットワークシステム。
The TDM network system according to claim 1, wherein
The scheduler is a TDM network system that groups the plurality of nodes so as to uniformize the total traffic fluctuation amount.
タイムスロットスケジュールにしたがってタイムスロット単位で隣接する他のノードにデータ転送を行う複数のノードを含むネットワークに対して、前記タイムスロットスケジュールを提供するスケジューラによるスケジューリング方法であって、
前記ネットワークで集計したトラヒックから必要となるタイムスロット数を算出し、
前記複数のノードをグループ化し、各グループのトラヒック変動差分を算出し、
算出した差分の情報に基づいて、グループ内のスケジューリングおよびグループ間のスケジューリングをそれぞれ行い、
前記グループ内のスケジューリングの結果を、グループ間のスケジューリング結果に当てはめて、システム全体の前記タイムスロットスケジュールを決定する、スケジューリング方法。
A scheduling method by a scheduler that provides the time slot schedule to a network including a plurality of nodes that perform data transfer to other adjacent nodes in time slot units according to the time slot schedule,
Calculate the required number of time slots from the traffic aggregated in the network,
Grouping the plurality of nodes, calculating a traffic fluctuation difference of each group,
Based on the calculated difference information, scheduling within the group and scheduling between the groups, respectively,
A scheduling method for determining the time slot schedule of the entire system by applying a scheduling result in the group to a scheduling result between groups.
JP2013157588A 2013-07-30 2013-07-30 TDM network system and scheduling method Expired - Fee Related JP6005600B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013157588A JP6005600B2 (en) 2013-07-30 2013-07-30 TDM network system and scheduling method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013157588A JP6005600B2 (en) 2013-07-30 2013-07-30 TDM network system and scheduling method

Publications (2)

Publication Number Publication Date
JP2015029183A true JP2015029183A (en) 2015-02-12
JP6005600B2 JP6005600B2 (en) 2016-10-12

Family

ID=52492628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013157588A Expired - Fee Related JP6005600B2 (en) 2013-07-30 2013-07-30 TDM network system and scheduling method

Country Status (1)

Country Link
JP (1) JP6005600B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6396852B1 (en) * 1997-11-18 2002-05-28 Jane Marie Simmons Ring bundling in the design of rings for telecommunications networks

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6396852B1 (en) * 1997-11-18 2002-05-28 Jane Marie Simmons Ring bundling in the design of rings for telecommunications networks

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6016023722; 中川雅弘,服部恭太,君島直樹,片山勝,三澤明: '光L2スイッチネットワークにおける階層化スケジューリング方式の提案' 信学技法 , 201209, 第141-146頁 *
JPN6016023723; 中川雅弘,服部恭太,君島直樹,片山勝,三澤明: '光L2スイッチネットワークにおけるトラフィック変動差分に着目した動的帯域割当方式Rip-up & R' 2013年電子情報通信学会総合大会 , 20130319, 第3頁 *

Also Published As

Publication number Publication date
JP6005600B2 (en) 2016-10-12

Similar Documents

Publication Publication Date Title
US9432257B2 (en) Traffic behavior driven dynamic zoning for distributed traffic engineering in SDN
CN108293005B (en) Method and apparatus for sharing state related information
Lu et al. Data-oriented task scheduling in fixed-and flexible-grid multilayer inter-DC optical networks: A comparison study
Lu et al. Malleable reservation based bulk-data transfer to recycle spectrum fragments in elastic optical networks
CN113784373B (en) Combined optimization method and system for time delay and frequency spectrum occupation in cloud edge cooperative network
WO2015155598A2 (en) Method and apparatus for flow control in a dual connectivity system
JP2014503165A (en) Method and apparatus for scheduling peer-to-peer traffic in a cellular network
Zhao et al. Elastic reliability optimization through peer-to-peer checkpointing in cloud computing
CN105245307A (en) Method of determining communication path in communication network and equipment
Xiang et al. Joint planning of network slicing and mobile edge computing: Models and algorithms
Noormohammadpour et al. DDCCast: Meeting point to multipoint transfer deadlines across datacenters using ALAP scheduling policy
Li et al. Distributed model training based on data parallelism in edge computing-enabled elastic optical networks
Basu et al. Drive: Dynamic resource introspection and vnf embedding for 5g using machine learning
WO2017045640A1 (en) Associated stream bandwidth scheduling method and apparatus in data center
CN113840333A (en) Power grid resource allocation method and device, electronic equipment and storage medium
Gholamipour et al. Online admission control and resource allocation in network slicing under demand uncertainties
JP2014160920A (en) Tdm network system and scheduling method for the same
JP6005600B2 (en) TDM network system and scheduling method
EP3485618A1 (en) Device and method for managing end-to-end connections
JP6279981B2 (en) Elastic optical path network system, spectrum allocation method and program
Ferdouse et al. Joint workload scheduling and BBU allocation in cloud-RAN for 5G networks
KR102451832B1 (en) Method for allocating resources in a cellular communication network and its nodes
JP4622944B2 (en) Multi-site traffic control method and system
US9510228B2 (en) System and method of traffic engineering in a software defined radio access network
KR101491698B1 (en) Control apparatus and method thereof in software defined network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150701

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20151001

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160907

R150 Certificate of patent or registration of utility model

Ref document number: 6005600

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees