JP6835683B2 - 分散方法 - Google Patents

分散方法 Download PDF

Info

Publication number
JP6835683B2
JP6835683B2 JP2017152580A JP2017152580A JP6835683B2 JP 6835683 B2 JP6835683 B2 JP 6835683B2 JP 2017152580 A JP2017152580 A JP 2017152580A JP 2017152580 A JP2017152580 A JP 2017152580A JP 6835683 B2 JP6835683 B2 JP 6835683B2
Authority
JP
Japan
Prior art keywords
area
distribution
transmission time
server
usage rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017152580A
Other languages
English (en)
Other versions
JP2019032653A (ja
Inventor
雅幸 西木
雅幸 西木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017152580A priority Critical patent/JP6835683B2/ja
Publication of JP2019032653A publication Critical patent/JP2019032653A/ja
Application granted granted Critical
Publication of JP6835683B2 publication Critical patent/JP6835683B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Description

本発明は、分散方法に関する。
近年、様々なデバイスがネットワークに接続されるようになり、低遅延性が要求されるアプリケーションサービスが利用される場合がある。また、仮想化技術の進展により、必要な時に必要な規模のサーバを柔軟に配置する技術が知られている。そこで、サーバ等の計算リソースを、サービスの需要が大きいエリアへの集中配置に換えて、デバイス(以下、ノードとも記す)の近傍に分散させることにより、低遅延化を図る技術が検討されている。
ここで、サーバの集中配置によれば、サービス提供エリア全体でのサービス需要に応じて用意された物理リソースの範囲内で仮想リソースが配分される。したがって、エリアごとの需要計画は不要であり、コスト面で大群化効果を期待できる。
一方、サーバの分散配置によれば、サービス提供の低遅延化が可能となるが、各配置エリアにおけるサーバの規模が小さくなる。エリアごとの需要に応じて用意された物理リソースの範囲内で仮想リソースが配分されるため、集中配置と比較して、コスト面で大群化効果が薄れ分割損が発生する。また、エリアごとに需要計画が必要となり設備の運用も煩雑になる。
そこで、分散されたサーバ資源を効率よく活用する技術が期待されている。例えば、サーバを論理的に統合運用する技術が知られている(非特許文献1参照)。この技術では、ローカルエリア内のサーバの負荷を監視し、負荷が所定の閾値を超過した場合に、ロードバランサ(LB)が、レイヤ2(L2)で延伸されたネットワークのリモートエリアに配置されたサーバに負荷を分散させる。
"Cisco ACE:VMwareと協調して動作する仮想サーバ ロード バランサ"、[online]、2011年、Cisco Systems Inc.、[2017年7月11日検索]、インターネット<URL:http://www.cisco.com/c/ja_jp/about/newsroom/technology-commentary/tech-2011/load-balancing-with-vmware.html>
しかしながら、従来の技術では、ノードが要求する伝送時間は考慮されていない。例えば、ローカルエリアのサーバの負荷が上昇した場合にのみ、リモートエリアのサーバに負荷分散させる。すなわち、リモートエリアで処理可能なサービス要求も一律にローカルエリアのサーバで処理を行うため、使用されるリソースに偏りが生じ運用コストが増大していた。また、ローカルエリアのサーバの負荷が上昇した場合には、遅延が許容されないサービス要求であってもリモートエリアのサーバに処理を行わせるため、サービス品質が低下していた。
本発明は、上記に鑑みてなされたものであって、ノードが要求する伝送時間を考慮して、サービス提供エリア全体のサーバを効率よく運用することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る分散方法は、振分装置と網内資源管理装置とを有する分散システムで実行される分散方法であって、前記振分装置における、自装置が属するエリアのノードと提供サービスに対応するサーバとの間の伝送時間と、該エリア内の前記サーバのリソース使用率とを収集し、前記網内資源管理装置に通知する収集工程と、前記網内資源管理装置における、属するエリアの異なる前記振分装置から通知された前記伝送時間と前記リソース使用率とを、該エリアごとに記憶部に蓄積する蓄積工程と、前記網内資源管理装置における、前記記憶部に蓄積された前記伝送時間と前記リソース使用率とを他のエリアの前記振分装置に通知する通知工程と、前記振分装置における、前記網内資源管理装置から通知されたエリアごとの前記伝送時間と前記リソース使用率とを参照し、ノードから要求されたサービスについての伝送時間に関する要求伝送条件を満たすエリアの前記サーバを特定して該ノードの要求を振り分ける振分工程と、を含んだことを特徴とする。
本発明によれば、ノードが要求する伝送時間を考慮して、サービス提供エリア全体のサーバを効率よく運用することができる。
図1は、本実施形態に係る分散システムの概略構成を例示する模式図である。 図2は、分散システムの処理概要を説明するための説明図である。 図3は、網内資源管理装置の概略構成を例示する模式図である。 図4は、振分装置の概略構成を例示する模式図である。 図5は、要求伝送時間情報のデータ構成を例示する図である。 図6は、収集部の処理を説明するための説明図である。 図7は、収集部の処理を説明するための説明図である。 図8は、振分部の処理を説明するための説明図である。 図9は、振分部の処理を説明するための説明図である。 図10は、管理処理手順を示すフローチャートである。 図11は、振分処理手順を示すフローチャートである。 図12は、振分処理手順を示すフローチャートである。 図13は、振分処理手順を示すフローチャートである。 図14は、分散処理の効果を説明するための説明図である。 図15は、分散プログラムを実行するコンピュータを例示する図である。
以下、図面を参照して、本発明の一実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
[振分システムの概要]
図1は、本実施形態に係る分散システムの概略構成を例示する模式図である。図1に例示するように、分散システム1は、ノード2にサービスを提供するサーバ5と、サーバ資源管理装置6と、振分装置10と、網内資源管理装置20とを有する。ノード2は、接続されるローカルエリアLのGW(ゲートウェイ)装置3およびアクセスNW(網)4を介してサーバ5にアクセスする。
ここで、サーバ5は、提供サービスに対応して、ローカルエリアLおよびこのローカルエリアLと中継NW7で接続されたリモートエリアRの各エリアの物理リソース8上に、仮想マシンとして構築されている。また、サーバ資源管理装置6は、各エリアに配置され、エリア内のサーバ5に関するリソース使用率等の情報を管理している。
振分装置10は各エリアに配置され、集約SW(スイッチ)9を介して各エリア内の各サーバ5の物理リソース8に接続される。振分装置10は、自装置10LからローカルエリアL内のGW装置3、各サーバ5L、および他エリアすなわちリモートエリアRの振分装置10Rへの伝送時間を予め計測し管理する。また、振分装置10は、計測した伝送時間およびサーバ資源管理装置6が計測したリソース使用率を網内資源管理装置20に通知する。
網内資源管理装置20は、中継NW7に接続され、各エリアの振分装置10から通知された伝送時間およびリソース使用率を管理する。
図2は、分散システム1の処理概要を説明するための説明図である。図2に例示するように、分散システム1において、振分装置10は、後述する分散処理を行って、ノード2が要求したサービスに要求される伝送時間の条件を意味する要求伝送条件に応じて、ローカルエリアLまたはリモートエリアRの適切なサーバ5を選択してサービス要求を振り分ける。
例えば、振分装置10は、要求された提供サービスB用のリモートエリアRのサーバ5Rが、サービスBの要求伝送条件に対応可能か否かを網内資源管理装置20に問い合わせ、対応可能であれば、このサーバ5Rにサービス要求を振り分ける負荷分散を行う。一方、サービスBの要求伝送条件を満たさないリモートエリアRのサーバ5Rには、サービス要求の振り分けを行わない。これにより、分散システム1は、サービス提供エリア全体のサーバ5を効率よく運用することが可能となる。
[網内資源管理装置の構成]
図3は、網内資源管理装置20の概略構成を例示する模式図である。図3に例示するように、網内資源管理装置20は、ワークステーションやパソコン等の汎用コンピュータで実現され、入力部21と出力部22と通信制御部23と、記憶部24と、制御部25とを備える。
入力部21は、キーボードやマウス等の入力デバイスを用いて実現され、操作者による入力操作に対応して、制御部25に対して各種指示情報を入力する。出力部22は、液晶ディスプレイなどの表示装置、プリンター等の印刷装置、情報通信装置等によって実現され、例えば、後述する分散処理の結果等を操作者に対して出力する。
通信制御部23は、NIC(Network Interface Card)等で実現され、LAN(Local Area Network)やインターネットなどの電気通信回線を介した振分装置10等の外部の装置と制御部25との通信を制御する。
記憶部24は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部24には、網内資源管理装置20を動作させる処理プログラムや、処理プログラムの実行中に使用されるデータなどが予め記憶され、あるいは処理の都度一時的に記憶される。また、この記憶部24は、通信制御部23を介して制御部25と通信する構成でもよい。
本実施形態において、記憶部24は、全エリア伝送時間情報24aおよび全エリアリソース使用率情報24bを含む。全エリア伝送時間情報24aおよび全エリアリソース使用率情報24bは、後述する分散処理において、振分装置10から通知され蓄積される。
制御部25は、CPU(Central Processing Unit)等の演算処理装置がメモリに記憶された処理プログラムを実行することにより、図3に例示するように、蓄積部25aおよび通知部25bとして機能する。なお、これらの機能部は、それぞれが異なるハードウェアに実装されてもよい。
蓄積部25aは、属するエリアの異なる振分装置10から通知された伝送時間とリソース使用率とを、該エリアごとに記憶部24に蓄積する。具体的には、蓄積部25aは、後述する複数のエリアの振分装置10から伝送時間とリソース使用率とを通知された場合に、伝送時間をエリアに対応づけて、全エリア伝送時間情報24aとして蓄積する。また、蓄積部25aは、通知されたリソース使用率をエリアに対応づけて、全エリアリソース使用率情報24bとして蓄積する。
通知部25bは、記憶部24に蓄積された伝送時間とリソース使用率とを他のエリアの振分装置10に通知する。具体的には、通知部25bは、後述する振分装置10から伝送時間とリソース使用率とを通知された場合に、通知元の振分装置10の属するエリアの他のエリアの振分装置10に、通知された伝送時間とリソース時間とを通知元のエリアと対応づけて通知する。
または、通知部25bは、振分装置10の要求に応じて、蓄積された伝送時間とリソース使用率とをその振分装置10に通知するようにしてもよい。例えば、通知部25bは、後述する振分装置10から参照を要求された場合に、全エリア伝送時間情報24aおよび全エリアリソース使用率情報24bを参照し、要求元の振分装置10のリモートエリアRに該当するエリアの伝送時間およびリソース使用率を通知する。
[振分装置の構成]
図4は、振分装置10の概略構成を例示する模式図である。図4に例示するように、振分装置10は、ワークステーションやパソコン等の汎用コンピュータで実現され、入力部11と出力部12と通信制御部13と、記憶部14と、制御部15とを備える。
入力部11は、キーボードやマウス等の入力デバイスを用いて実現され、操作者による入力操作に対応して、制御部15に対して各種指示情報を入力する。出力部12は、液晶ディスプレイなどの表示装置、プリンター等の印刷装置、情報通信装置等によって実現され、例えば、後述する分散処理の結果等を操作者に対して出力する。
通信制御部13は、NIC等で実現され、LANやインターネットなどの電気通信回線を介したサーバ等の外部の装置と制御部15との通信を制御する。
記憶部14は、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14には、振分装置10を動作させる処理プログラムや、処理プログラムの実行中に使用されるデータなどが予め記憶され、あるいは処理の都度一時的に記憶される。また、この記憶部14は、通信制御部13を介して制御部15と通信する構成でもよい。
本実施形態において、記憶部14は、自エリア伝送時間情報14a、自エリアリソース使用率情報14b、他エリア伝送時間情報14c、他エリアリソース使用率情報14d、および要求伝送時間情報14eを含む。ここで、自エリア伝送時間情報14aおよび自エリアリソース使用率情報14bは、後述する分散処理において計測され、記憶部14に蓄積される。また、他エリア伝送時間情報14cおよび他エリアリソース使用率情報14dは、後述する分散処理において取得され、記憶部14に蓄積される。
また、要求伝送時間情報14eは、提供サービスとサービスについて要求される伝送時間の許容範囲との対応付けを示す情報であり、後述する分散処理に先立って、予め記憶部14に格納される。図5は、要求伝送時間情報14eのデータ構成を例示する図である。図5に示すように、要求伝送時間情報14eは、サービス名、要求種別、サービス識別子および要求伝送時間を含む。
ここで、サービス識別子は、サービス名に対応するサービスを識別する情報であり、例えば、サービスサイトのURL等のアドレス情報で表される。要求種別は、ノード2がサービス要求の際に送信する要求メッセージの通知、制御等の種別を表す。要求伝送時間は、サービスに対して許容される伝送時間を表す。図5には、例えば、サービス名「service001」、サービス識別子「aaa.bbb.com/service001/notify/xxxx」のサービスについての要求種別「通知」の要求メッセージに対する要求伝送時間が500msecであることが示されている。
図4の説明に戻る。制御部15は、CPU等の演算処理装置がメモリに記憶された処理プログラムを実行することにより、図4に例示するように、収集部15aおよび振分部15bとして機能する。なお、これらの機能部は、それぞれが異なるハードウェアに実装されてもよい。
収集部15aは、自装置が属するローカルエリアLのノード2と提供サービスに対応するサーバ5との間の伝送時間と、該ローカルエリアL内のサーバ5Lのリソース使用率とを収集し、網内資源管理装置20に通知する。
ここで、図6および図7は、収集部15aの処理を説明するための説明図である。図6(a)に示すように、収集部15aは、ノード2とサーバ5との間の伝送時間として、自装置10Lと、自エリアすなわちローカルエリアL内のGW装置3、ローカルエリアL内のサーバ5L、および他エリアであるリモートエリアRの振分装置10Rとの間の伝送時間を収集する。
以下、自装置10LとGW装置3との間の伝送時間をアクセス伝送時間Tac、自装置10LとローカルエリアL内のサーバ5Lとの間の伝送時間をローカル伝送時間Tlo、自装置10LとリモートエリアRの振分装置10Rとの間の伝送時間をエリア間伝送時間Tarと記す。
具体的には、収集部15aは、ローカルエリアL内のGW装置3、ローカルエリアL内のサーバ5Lの物理リソース8、およびリモートエリアRの振分装置10Rに向けて定期的に計測用パケットを送信し、その応答を受信する。計測用パケットとして、例えば、ICMP(Internet Control Message Protocol、インターネット制御通知プロトコル)のTimestamp要求通知(13)およびTimestamp応答通知(14)を用いて実現される。
そして、図6(b)に例示するように、収集部15aは、伝送時間として、計測用パケットの送信時を示すオリジナルタイムスタンプと応答パケットの送信時を示すレシーブタイムスタンプとの時間間隔を算出する。なお、図6(b)には、ローカルエリアLの振分装置10LとリモートエリアRの振分装置10Rとの間のエリア間伝送時間Tarを計測する例が示されている。同様に、振分装置10LとGW装置3との間のアクセス伝送時間Tac、および振分装置10LとローカルエリアL内のサーバ5Lとの間のローカル伝送時間Tloを計測することができる。
次に、図7に示すように、収集部15aは、収集した伝送時間をローカルエリアLに対応づけて、自エリア伝送時間情報14aに蓄積する。また、収集部15aは、ローカルエリアLに対応付けた伝送時間を、網内資源管理装置20に通知する。
また、収集部15aは、ローカルエリアL内のサーバ資源管理装置6から各サーバ5Lのメモリ使用率等のリソース使用率を収集し、ローカルエリアLに対応づけて、自エリアリソース使用率情報14bに蓄積する。また、収集部15aは、ローカルエリアLに対応づけた各サーバ5Lのリソース使用率を、網内資源管理装置20に通知する。
網内資源管理装置20は、前述のとおり、通知された伝送時間をエリアに対応付けて全エリア伝送時間情報24aに蓄積する。また、網内資源管理装置20は、通知されたリソース使用率をエリアに対応付けて全エリアリソース使用率情報24bに蓄積する。
また、網内資源管理装置20は、前述のとおり、通知された伝送時間およびリソース使用率を他のエリアすなわちローカルエリアLに対するリモートエリアRの振分装置10Rに通知する。
リモートエリアRの振分装置10Rでは、収集部15aが、通知された伝送時間およびリソース使用率を、それぞれエリアに対応づけて、他エリア伝送時間情報14c、他エリアリソース使用率情報14dに蓄積する。
なお、後述する振分部15bが網内資源管理装置20に要求することにより、他エリアの伝送時間およびリソース使用率を取得して、他エリア伝送時間情報14c、他エリアリソース使用率情報14dに蓄積してもよい。
図4の説明に戻る。振分部15bは、網内資源管理装置20から通知された伝送時間とリソース使用率とを参照し、ノード2から要求されたサービスについての伝送時間に関する要求伝送条件を満たすエリアのサーバ5を特定して該ノード2の要求を振り分ける。
ここで、図8および図9は、振分部15bの処理を説明するための説明図である。まず、ノード2からサービスを要求する要求メッセージを受信した場合に、図8に示すように、振分部15bは、要求メッセージに含まれるサービス識別子を用いて要求伝送時間情報14eを参照し、ノード2から要求されたサービスに対する要求伝送時間Treqを特定する。
図8に示す例では、ノード2が発信した要求メッセージから、ノード2が要求したサービスのサービス識別子「aaa.bbb.com/service001/notify/xxxx」が特定され、要求伝送時間情報14eから、このサービス識別子で識別されるサービスに対応する要求伝送時間Treq=500[msec]が特定されている。
次に、図9に示すように、振分部15bは、自エリア伝送時間情報14aおよび他エリア伝送時間情報14cを参照し、エリアごとにノード2からサーバ5までの伝送見込時間を算出する。ここで、伝送見込時間は、アクセス伝送時間Tacと、ローカル伝送時間Tloと、エリア間伝送時間Tarとの和を用いて表すことができる。具体的には、伝送見込時間は、補正係数Kを用いて、次式(1)のように表すことができる。
伝送見込時間=(Tac+Tlo+Tar)×K …(1)
次に、振分部15bは、次式(2)に示す要求伝送条件を満たすエリアを、振分先のエリアとして特定する。具体的には、振分部15bは、次式(2)に示すように、伝送見込時間が要求伝送時間Treqより小さいエリアを振分先エリアとして特定する。
req>(Tac+Tlo+Tar)×K …(2)
また、振分部15bは、特定した振分先エリアで負荷が低いサーバ5を特定し、ノード2の要求を振り分ける。例えば、振分部15bは、振分先エリアのサーバ5のうち、リソース使用率が所定の閾値以下かつ最低のサーバ5を、負荷が低いサーバ5として特定する。
なお、振分部15bが振分先エリアを特定する方式は特に限定されない。例えば、振分部15bは、最短エリアであるローカルエリアLを優先して振分先エリアとして特定する。すなわち、振分部15bは、まず、ローカルエリアLで負荷の低いサーバ5を探索する。また、振分部15bは、ローカルエリアL内にリソース使用率が所定の閾値以下であるサーバ5が存在しない場合に、要求伝送条件を満たす他のリモートエリアRを探索し、負荷の低いエリアを振分先エリアとして特定する。例えば、振分部15bは、エリア内のサーバ5が要求伝送条件を満たすリモートエリアRのうち、サーバ5のリソース使用率の平均値が最も低いエリアを振分先エリアとして特定する。
この方式によれば、低遅延である最短エリアのサーバ5Lが優先して活用されるので、効果的に遅延を抑制できる。一方、要求伝送時間Treqが大きくリモートエリアRのサーバ5Rで処理可能なサービス要求が、ローカルエリアLのサーバ5Lを占有してしまう場合がある。したがって、この方式は、ローカルエリアLのサーバ5Lが提供するサービスに対する要求伝送時間Treqの値とそのばらつきとがともに小さい場合に好適である。
または、振分部15bは、要求伝送条件を満たすエリアのうち、負荷の低いエリアを振分先エリアとして特定する。すなわち、振分部15bは、まず、要求伝送条件を満たすエリアを探索し、そのうちで負荷の低いエリアを振分先エリアとして特定する。例えば、振分部15bは、エリア内のサーバ5が要求伝送条件を満たすエリアのうち、エリア内のサーバ5のリソース使用率の平均値が最も低いエリアを振分先エリアとして特定する。
この方式によれば、サービス提供可能なエリア全体にノード2のサービス要求を振り分けるので、エリア間で効率よく負荷分散が可能となる。一方、ローカルエリアLに空リソースがあってもリモートエリアRに振り分けられる場合が発生する。したがって、この方式は、サービス提供可能なエリア全体に処理を分散させたい場合に好適である。
あるいは、振分部15bは、負荷の低いエリアのうち、要求伝送条件を満たすエリアを振分先エリアとして特定する。すなわち、振分部15bは、まず、負荷の低いエリアを探索し、そのうち要求伝送条件を満たすエリアを振分先エリアとして特定する。例えば、振分部15bは、エリア内のサーバ5のリソース使用率の平均値が最も低いエリアを選定し、選定したエリア内のサーバ5が要求伝送条件を満たす場合に、振分先エリアとして特定する。
この方式によれば、サービス提供可能なエリア全体で容易に負荷の平準化を図れる。一方、要求伝送時間Treqが小さくサービスの要求伝送条件が厳しい場合には、要求伝送条件を満たせずに低負荷のエリアの探索が繰り返される場合が発生する。したがって、この方式は、サービスの要求伝送条件が比較的緩く、サービス提供可能なエリア全体でリソース使用率のばらつきが大きい場合に好適である。
[分散処理]
次に、図10〜図13を参照して、本実施形態に係る分散システム1による分散処理について説明する。分散処理は、管理処理と振分処理と含む。まず、図10は、管理処理手順を示すフローチャートである。図10のフローチャートは、例えば、分散システム1の運用者により、処理の開始を指示する操作入力があったタイミングで開始される。
まず、振分装置10の収集部15aが、定期的にローカルエリアLで伝送時間を計測し、自エリア伝送時間情報14aに蓄積する(ステップS1)。伝送時間として、サーバ5Lと自装置10Lとの間のローカル伝送時間Tlo、サーバ5LとGW装置3との間のアクセス伝送時間Tac、他のリモートエリアRの振分装置10Rとの間のエリア間伝送時間Tarが計測される。
また、収集部15aは、サーバ資源管理装置6からサーバ5Lのリソース使用率を収集し、自エリアリソース使用率情報14bに蓄積する。
そして、収集部15aは、計測した伝送時間と収集したリソース使用率とを網内資源管理装置20に通知する(ステップS2)。収集部15aは、計測結果および収集結果に変更があった場合には、更新を通知する。
網内資源管理装置20では、蓄積部25aが、振分装置10から通知された計測結果をエリアに対応付けして、全エリア伝送時間情報24aに蓄積する。また、蓄積部25aは、通知された収集結果をエリアに対応付けして、全エリアリソース使用率情報24bに蓄積する。また、通知部25bが、通知された計測結果および収集結果を他エリアであるリモートエリアRの振分装置10Rに通知する(ステップS3)。通知部25bは、計測結果および収集結果に変更があった場合に、更新を通知する。
リモートエリアRの振分装置10では、通知された計測結果を他エリア伝送時間情報14cに蓄積し、通知された収集結果を他エリアリソース使用率情報14dに蓄積する(ステップS4)。このようにして、振分装置10では、他エリアの情報を記憶部14に追加する。これにより、一連の管理処理が終了する。
次に、図11〜図13は、振分処理手順を示すフローチャートである。図11〜図13のフローチャートは、いずれも、ノード2がサービスを要求する要求メッセージを生成してローカルエリアLの振分装置10Lに送信したタイミング(ステップS11)で開始される。
まず、図11に示すように、振分装置10Lでは、振分部15bが、ノード2から受信した要求メッセージに含まれるサービス識別子を用いて要求伝送時間情報14eを参照し、ノード2から要求されたサービスに対する要求伝送時間Treqを特定する(ステップS12〜S13)。
次に、振分部15bは、振分先エリアを特定する。図11に示す例では、振分部15bは、最短エリアであるローカルエリアLを優先して振分先エリアとして特定する。すなわち、振分部15bは、まず、ローカルエリアLでリソース使用率が所定の閾値以下の負荷の低いサーバ5を探索する(ステップS21)。
ローカルエリアLでリソース使用率が所定の閾値以下の負荷の低いサーバ5があれば(ステップS21,Yes)、振分部15bは、ローカルエリアLを振分先エリアとして、ステップS31に処理を進める。
一方、ローカルエリアLでリソース使用率が所定の閾値以下の負荷の低いサーバ5が存在しない場合には(ステップS21,No)、振分部15bは、上記式(2)に示す要求伝送条件を満たす他のリモートエリアRを探索する(ステップS22)。
また、振分部15bは、エリア内のサーバ5が要求伝送条件を満たすリモートエリアRのうち、サーバ5Rのリソース使用率の平均値が最も低いエリアを振分先エリアとして特定する(ステップS23)。
そして、振分部15bは、特定した振分先エリアでリソース使用率が所定の閾値以下かつ最低のサーバ5を特定し、ノード2の要求を振り分ける(ステップS31)。これにより、一連の振分処理が終了する。これにより、低遅延である最短エリアのサーバ5Lが優先して活用されるので、効果的に遅延を抑制できる。
なお、図12および図13は、振分処理の他の方式を示す。図12および図13に示す方式は、図11に示したステップS21〜S23の振分先エリアを特定する処理の方式が異なる。その他の手順(ステップS11〜S13,S31)は図11と同様であるので、説明を省略する。
図12に示す方式では、振分部15bは、要求伝送条件を満たすエリアのうち、負荷の低いエリアを振分先エリアとして特定する。すなわち、振分部15bは、まず、上記式(2)に示す要求伝送条件を満たすエリアを探索する(ステップS24)。また、振分部15bは、そのうちで負荷の低いエリアを振分先エリアとして特定する。例えば、振分部15bは、エリア内のサーバ5のリソース使用率の平均値が最も低いエリアを振分先エリアとして特定する(ステップS25)。
この方式によれば、サービス提供可能なエリア全体にノード2のサービス要求を振り分けるので、エリア間で効率よく負荷分散が可能となる。
また、図13に示す方式では、振分部15bは、負荷の低いエリアのうち、要求伝送条件を満たすエリアを振分先エリアとして特定する。すなわち、振分部15bは、まず、負荷の低いエリアを探索する。例えば、振分部15bは、エリア内のサーバ5のリソース使用率の平均値が最も低いエリアを選定する(ステップS26)。そして、振分部15bは、選定したエリア内のサーバ5が上記式(2)に示す要求伝送条件を満たすか否かを確認する(ステップS27)。
選定したエリアが要求伝送条件を満たす場合に(ステップS27,Yes)、振分部15bは、このエリアを振分先エリアとして特定し、ノード2の要求メッセージをこのエリアの振分装置10に送信する(ステップS28)。一方、選定したエリアが要求伝送条件を満たさない場合に(ステップS27,No)、振分部15bは、ステップS26に処理を戻す。この方式によれば、サービス提供可能なエリア全体で容易に負荷の平準化を図れる。
以上、説明したように、本実施形態の分散システム1において、振分装置10の収集部15aが、自装置10Lが属するローカルエリアLのノード2と提供サービスに対応するサーバ5との間の伝送時間と、該ローカルエリアL内のサーバ5Lのリソース使用率とを収集し、網内資源管理装置20に通知する。また、網内資源管理装置20の蓄積部25aが、属するエリアの異なる振分装置10から通知された伝送時間とリソース使用率とを、該エリアごとに記憶部24に蓄積する。また、網内資源管理装置20の通知部25bが、記憶部24に蓄積された伝送時間とリソース使用率とを他のエリアの振分装置10に通知する。また、振分装置10の振分部15bが、網内資源管理装置20から通知されたエリアごとの伝送時間とリソース使用率と参照し、ノード2から要求されたサービスについての伝送時間に関する要求伝送条件を満たすエリアのサーバ5を特定して該ノード2の要求を振り分ける。
これに対し、従来の技術では、図14に例示するように、ローカルエリア内のサーバの負荷を監視し、負荷が所定の閾値を超過した場合に、ロードバランサ(LB)が、仮想的にL2で延伸されたネットワークのリモートエリアに配置されたサーバに負荷を分散させる。
この場合に、ノードが要求する伝送時間は考慮されていない。例えば、ローカルエリアのサーバの負荷が上昇した場合にのみ、リモートエリアのサーバに負荷分散させる。すなわち、リモートエリアで処理可能なサービス要求も一律にローカルエリアのサーバで処理を行うため、使用されるリソースに偏りが生じ運用コストが増大していた。また、ローカルエリアのサーバの負荷が上昇した場合には、遅延が許容されないサービス要求であってもリモートエリアのサーバに処理を行わせるため、サービス品質が低下していた。
これに対し、本実施形態の分散システム1によれば、ノードが要求する伝送時間を考慮して、サービス提供エリア全体のサーバに負荷を分散させて効率よく運用することが可能となる。
[システム構成等]
図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
上記実施形態に係る振分装置10および網内資源管理装置20が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。一実施形態として、振分装置10および網内資源管理装置20は、パッケージソフトウェアやオンラインソフトウェアとして上記の分散処理を実行する分散プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の分散プログラムを情報処理装置に実行させることにより、情報処理装置を振分装置10および網内資源管理装置20として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)などの移動体通信端末、さらには、PDA(Personal Digital Assistants)などのスレート端末などがその範疇に含まれる。以下に、振分装置10および網内資源管理装置20と同様の機能を実現する管理プログラムを実行するコンピュータの一例を説明する。
図15は、分散プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1031に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。ディスクドライブ1041には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1051およびキーボード1052が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1061が接続される。
ここで、ハードディスクドライブ1031は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記実施形態で説明した各テーブルは、例えばハードディスクドライブ1031やメモリ1010に記憶される。
また、分散プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュール1093として、ハードディスクドライブ1031に記憶される。具体的には、上記実施形態で説明した振分装置10および網内資源管理装置20が実行する各処理が記述されたプログラムモジュール1093が、ハードディスクドライブ1031に記憶される。
また、分散プログラムによる情報処理に用いられるデータは、プログラムデータ1094として、例えば、ハードディスクドライブ1031に記憶される。そして、CPU1020が、ハードディスクドライブ1031に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、分散プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1031に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1041等を介してCPU1020によって読み出されてもよい。あるいは、分散プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LANやWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
以上、本発明者によってなされた発明を適用した実施形態について説明したが、本実施形態による本発明の開示の一部をなす記述および図面により本発明は限定されることはない。すなわち、本実施形態に基づいて当業者等によりなされる他の実施形態、実施例および運用技術等は全て本発明の範疇に含まれる。
1 分散システム
2 ノード
3 GW装置
4 アクセスNW
5 サーバ
6 サーバ資源管理装置
7 中継NW
8 物理リソース
9 集約SW
10 振分装置
11、21 入力部
12、22 出力部
13、23 通信制御部
14、24 記憶部
14a 自エリア伝送時間情報
14b 自エリアリソース使用率情報
14c 他エリア伝送時間情報
14d 他エリアリソース使用率情報
14e 要求伝送時間情報
15、25 制御部
15a 収集部
15b 振分部
20 網内資源管理装置
24a 全エリア伝送時間情報
24b 全エリアリソース使用率情報
25a 蓄積部
25b 通知部

Claims (6)

  1. 振分装置と網内資源管理装置とを有する分散システムで実行される分散方法であって、
    前記振分装置における、自装置が関与する伝送の伝送時間と、自装置が属するエリア内の提供するサービスに対応するサーバのリソース使用率とを収集し、前記網内資源管理装置に通知する収集工程と、
    前記網内資源管理装置における、属するエリアが互いに異なる前記振分装置から通知された前記伝送時間と前記リソース使用率とを、該エリアごとに記憶部に蓄積する蓄積工程と、
    前記網内資源管理装置における、前記記憶部に蓄積された、あるエリアに関する前記伝送時間と前記リソース使用率とを、当該あるエリアとは異なるエリアの前記振分装置に通知する通知工程と、
    前記振分装置における、前記網内資源管理装置から通知されたエリアごとの前記伝送時間と前記リソース使用率とを参照し、ノードから要求されたサービスについての伝送時間に関する要求伝送条件を満たすエリアの前記サーバを特定して該ノードの要求を振り分ける振分工程と、
    を含んだことを特徴とする分散方法。
  2. 前記収集工程において収集される前記伝送時間は、自装置と、自装置が属するエリア内のゲートウェイ装置、該エリア内の前記サーバ、および他エリアの前記振分装置との間の伝送時間であることを特徴とする請求項1に記載の分散方法。
  3. 前記通知工程において、前記振分装置の要求に応じて、蓄積された前記伝送時間と前記リソース使用率とを該振分装置に通知することを特徴とする請求項1または2に記載の分散方法。
  4. 前記振分工程において、自装置が属するエリアを優先してノードの要求を振り分けることを特徴とする請求項1〜3のいずれか1項に記載の分散方法。
  5. 前記振分工程において、前記要求伝送条件を満たすエリアのうち、負荷の低いエリアの前記サーバにノードの要求を振り分けることを特徴とする請求項1〜3のいずれか1項に記載の分散方法。
  6. 前記振分工程において、負荷の低いエリアのうち、前記要求伝送条件を満たすエリアの前記サーバにノードの要求を振り分けることを特徴とする請求項1〜3のいずれか1項に記載の分散方法。
JP2017152580A 2017-08-07 2017-08-07 分散方法 Active JP6835683B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017152580A JP6835683B2 (ja) 2017-08-07 2017-08-07 分散方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017152580A JP6835683B2 (ja) 2017-08-07 2017-08-07 分散方法

Publications (2)

Publication Number Publication Date
JP2019032653A JP2019032653A (ja) 2019-02-28
JP6835683B2 true JP6835683B2 (ja) 2021-02-24

Family

ID=65523481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017152580A Active JP6835683B2 (ja) 2017-08-07 2017-08-07 分散方法

Country Status (1)

Country Link
JP (1) JP6835683B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3913030A4 (en) 2019-02-26 2022-03-16 Moresco Corporation METHOD OF MAKING A HOTMELT ADHESIVE AND HOTMELT ADHESIVE
WO2023105640A1 (ja) * 2021-12-07 2023-06-15 日本電気株式会社 通信装置、通信方法、及び非一時的なコンピュータ可読媒体

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7853953B2 (en) * 2005-05-27 2010-12-14 International Business Machines Corporation Methods and apparatus for selective workload off-loading across multiple data centers
JP2013196287A (ja) * 2012-03-19 2013-09-30 Oki Electric Ind Co Ltd 仮想マシン制御装置及びプログラム
JP6097235B2 (ja) * 2014-02-19 2017-03-15 西日本電信電話株式会社 負荷分散システム、負荷分散装置及び負荷分散方法
JP6368699B2 (ja) * 2015-12-09 2018-08-01 日本電信電話株式会社 負荷分散装置および負荷分散方法
JP6569692B2 (ja) * 2017-02-09 2019-09-04 日本電気株式会社 管理サーバ、通信システム、管理サーバの制御方法、及びプログラム
JP6660322B2 (ja) * 2017-02-10 2020-03-11 日本電信電話株式会社 負荷分散装置および負荷分散方法

Also Published As

Publication number Publication date
JP2019032653A (ja) 2019-02-28

Similar Documents

Publication Publication Date Title
WO2020253266A1 (zh) 一种提供边缘服务的方法、装置和设备
JP7252356B2 (ja) モバイルエッジコンピューティングノードの選択方法、装置及びシステム並びにコンピュータプログラム
CN108737270B (zh) 一种服务器集群的资源管理方法和装置
Kim et al. VNF-EQ: dynamic placement of virtual network functions for energy efficiency and QoS guarantee in NFV
CN110463140B (zh) 计算机数据中心的网络服务水平协议
US20150372911A1 (en) Communication path management method
Wuhib et al. Allocating compute and network resources under management objectives in large-scale clouds
WO2015050488A1 (en) Method, system, computer program and computer program product for monitoring data packet flows between virtual machines, vms, within a data centre
WO2010098969A2 (en) Load balancing in a multiple server system hosting an array of services
KR20170029263A (ko) 부하 분산 장치 및 방법
JP5757325B2 (ja) 仮想デスクトップシステム、ネットワーク処理装置、管理方法、及び管理プログラム
JP2011237844A (ja) 負荷分散装置及びシステム
WO2017082185A1 (ja) リソース割当装置及びリソース割当方法
JPWO2018220708A1 (ja) 資源割当システム、管理装置、方法およびプログラム
EP3534578B1 (en) Resource adjustment method, device and system
JP2012037935A (ja) 情報処理装置
WO2014018486A1 (en) Systems and methods for multi-blade load balancing
JP6835683B2 (ja) 分散方法
Yang et al. Heuristic scheduling algorithms for allocation of virtualized network and computing resources
KR101448413B1 (ko) Atca-기반 장비에서 통신 트래픽을 스케줄링하기 위한 방법 및 장치
Ben Jemaa et al. Analytical models for QoS-driven VNF placement and provisioning in wireless carrier cloud
Babu et al. Interference aware prediction mechanism for auto scaling in cloud
Chen et al. Traffic-aware load balancing for M2M networks using SDN
JP2013187656A (ja) 分散型クラウドインフラのための網制御システム及び経路管理サーバ及び網制御方法及びプログラム
JP5471166B2 (ja) 管理システム、管理装置、ネットワーク装置、管理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210204

R150 Certificate of patent or registration of utility model

Ref document number: 6835683

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150