JP2014238710A - 情報システム間サービス提供装置、情報システム間サービス提供方法および情報システム間サービス提供プログラム - Google Patents

情報システム間サービス提供装置、情報システム間サービス提供方法および情報システム間サービス提供プログラム Download PDF

Info

Publication number
JP2014238710A
JP2014238710A JP2013120883A JP2013120883A JP2014238710A JP 2014238710 A JP2014238710 A JP 2014238710A JP 2013120883 A JP2013120883 A JP 2013120883A JP 2013120883 A JP2013120883 A JP 2013120883A JP 2014238710 A JP2014238710 A JP 2014238710A
Authority
JP
Japan
Prior art keywords
traffic
resources
service
resource
inter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013120883A
Other languages
English (en)
Other versions
JP5575953B1 (ja
Inventor
博 胡
Hiroshi Ko
博 胡
邦夫 波戸
Kunio Namito
邦夫 波戸
祐一 村田
Yuichi Murata
祐一 村田
村山 純一
Junichi Murayama
純一 村山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013120883A priority Critical patent/JP5575953B1/ja
Application granted granted Critical
Publication of JP5575953B1 publication Critical patent/JP5575953B1/ja
Publication of JP2014238710A publication Critical patent/JP2014238710A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

【課題】ネットワークを経由してリソースを利用してサービスを提供する情報システムにおいて、ネットワーク上のトラヒックを削減する。【解決手段】検出部は、サービスの提供により発生するトラヒックの情報を検出する。分割部は、複数のエリアにリソースを分散配置するための分割パターンを生成する。算出部は、検出した情報を用いて、分割パターンに基づいてリソースを分散配置した場合に、リソースの移動により生じる第1のトラヒックコスト、リソースの移動前にサービスの提供により生じる第2のトラヒックコスト、およびリソースの移動後にサービスの提供により生じる第3のトラヒックコストを求め、第1乃至第3のトラヒックコストに基づき総トラヒックコストを算出する。選択部は、総トラヒックコストに基づき、リソースを分散配置するためのパターンを選択する。配置分は、選択したパターンに基づき、リソースを分散配置する。【選択図】図1

Description

本発明は、情報システム間サービス提供装置、情報システム間サービス提供方法および情報システム間サービス提供プログラムに関する。
近年、ネットワークを経由してリソースを利用しサービスを提供する情報システム(以下、情報システムと称する。)の普及が進んでいる。一例として、クラウドコンピューティングにより、データセンタ等に配置されたリソースを用いてサービスを提供する技術が挙げられる。
情報システムによってサービスを提供する際には、ネットワークを介してリソースとユーザ端末との間で情報を送受信する。このため、ネットワークを介して一定のトラヒックが発生する。トラヒックの量が過度に増加すると、提供されるサービスに遅延が生じる等の問題が生じる可能性がある。そこで、サービス提供に利用されるサーバ等のリソースとユーザ端末との間の情報通信経路を制御し、適宜経路を変更する等して、トラヒックを調整する技術が開発されている。たとえば、かかる技術の一例として、非特許文献1に記載されているトラヒックエンジニアリング等がある。トラヒックエンジニアリングは、二つの端点間のパスを制御する等によりトラヒックを計画的に調整する技術である。
また、複数のサービスに共通したリソースを使用する場合等には、各サービスに割り当てるリソースを状況に応じて調整し、リソースを効率的に利用する技術が開発されている。たとえば、非特許文献1に記載されているように、ライブマイグレーションは、仮想マシンがホストしているサービスを停止することなく、仮想マシンを一つの物理マシンから他の物理マシンにマイグレートさせる技術である。
トラヒックエンジニアリングやライブマイグレーションを利用することにより、情報システムによるサービスの提供を停止することなく、トラヒックおよびリソース割当を制御することができる。
Hirofumi Ichihara, Yuki Koizumi, Hiroyuki Ohsaki, Kunio Hato, Junichi Murayama, and Makoto Imase, "On the Integrated Control of Virtual Machine Live Migration and Traffic Engineering for Cloud Computing", Global Communications Conference (GLOBECOM), 2012 IEEE, 3-7 Dec. 2012, pp. 1629-1634
しかしながら、上記のようにトラヒックエンジニアリングやライブマイグレーションを利用しても所望の効果が得られない場合がある。
たとえば、非特許文献1のように、二つの端点間でのトラヒック量を調整する場合を考える。非特許文献1では、ノード(ユーザ端末)と仮想マシン(サービスを提供する計算リソース)との間でのトラヒック量を調整するトラヒックエンジニアリングを行う。この場合、情報送受信経路を調整することで一つ一つの装置と仮想マシンとの間での負担を平準化し、トラヒック量を調整することができる。しかし、トラヒックの発生源である端点、すなわち、ノードや仮想マシン自体を制御することはできない。そのため、トラヒックの総量を根本的に減少させることはできない。
また、ユーザが所定の地域に多数集中している場合には、ライブマイグレーションを用いて、当該地域に存在するデータセンタの計算リソースを当該地域内のユーザ用に集中的に利用すれば、ネットワーク上のトラヒックを削減することができる。しかし、たとえば、ユーザが集中している地域が複数存在するような場合には、総合的にトラヒック削減効果を上げることが難しい。
開示の実施の形態は、上記に鑑みてなされたものであって、ネットワークを経由してリソースを利用してサービスを提供する情報システムにおいて、ネットワーク上のトラヒックを削減することができる情報システム間サービス提供装置、情報システム間サービス提供方法および情報システム間サービス提供プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る実施の形態は、複数の情報システム各々が有するリソースによりネットワークを介してユーザに提供するサービスにより発生するトラヒックの情報を検出する。また、サービスが提供される複数のエリアにリソースを分散配置するための分割パターンを生成する。また、検出した情報を用いて、分割パターンに基づいてリソースを分散配置した場合に、リソースの移動により生じる第1のトラヒックコスト、リソースの移動前にサービスの提供により生じる第2のトラヒックコスト、およびリソースの移動後にサービスの提供により生じる第3のトラヒックコストを求める。さらに、第1、第2、第3のトラヒックコストに基づき総トラヒックコストを算出する。さらに、算出した総トラヒックコストに基づき、リソースを分散配置するためのパターンを選択する。そして、選択したパターンに基づき、リソースを分散配置することを特徴とする。
本発明の実施の形態に係る情報システム間サービス提供装置、情報システム間サービス提供方法および情報システム間サービス提供プログラムは、ネットワークを経由してリソースを利用してサービスを提供する情報システムにおいて、ネットワーク上のトラヒックを削減することができるという効果を奏する。
図1は、第1の実施形態に係る情報システム間サービス提供システムの構成の一例を示す図である。 図2Aは、第1の実施形態において分割数を1に設定してリソースを移動させる例について説明するための図である。 図2Bは、第1の実施形態において分割数を1に設定してリソースを移動させる例について説明するための他の図である。 図3Aは、第1の実施形態において分割数を3に設定してリソースを移動させる例について説明するための図である。 図3Bは、第1の実施形態において分割数を3に設定してリソースを移動させる例について説明するための他の図である。 図4は、第1の実施形態における分割パターンの例を示す図である。 図5は、第1の実施形態に係る情報システム間サービス提供方法を適用するネットワーク構成の一例を示す図である。 図6は、図5に示す例において、リソースを再配置する例を説明するための図である。 図7は、図6に示す例において、分割数1としてリソースを再配置した場合のトラヒックコストの変動の一例を示すグラフである。 図8は、図6に示す例において、複数の配置パターンのトラヒックコストの比較の一例を示すグラフである。 図9は、第1の実施形態に係る情報システム間サービス提供装置におけるリソース再配置処理の流れの一例を説明するためのフローチャートである。 図10は、情報システム間サービス提供装置における一連の処理を実行するプログラムである情報システム間サービス提供プログラムによる情報処理が、コンピュータを用いて具体的に実現されることを示す図である。
以下に、本発明の実施形態に係る情報システム間サービス提供装置、情報システム間サービス提供方法および情報システム間サービス提供プログラムについて、図面に基づき説明する。なお、この実施形態により本発明が限定されるものではない。また、各実施形態は適宜組み合わせることができる。
ネットワークを介してサービスを利用するユーザは、たとえば、昼間は会社内やその周辺でネットワークに接続してサービスを利用すると予測される。しかし、夜間になると、自宅やその周辺でネットワークに接続してサービスを利用する可能性がある。したがって、昼間にサービスを利用するユーザはオフィス街などに集中する可能性があるのに対し、夜間にはオフィス街でサービスを利用するユーザはほとんどいなくなる可能性がある。
かかる場合に、全ての時間帯において同じ位置に配置したリソースを利用してサービスを提供すると、時間帯によってはリソースとユーザとの距離が遠くなり、多数のルータを経由しなければサービスを提供できず遅延が長くなることが考えられる。また、時間帯によってサービスを利用するユーザの位置が変わる場合に加え、新規に加入したサービス利用者やサービスの利用を停止したユーザがいる場合も考えられる。かかる場合にもサービスが提供される対象エリア各々のユーザの数が増減する。
そこで、第1の実施形態に係る情報システム間サービス提供装置は、サービスの提供により発生するネットワーク上のトラヒックの情報等を検出し、トラヒックの状況等に応じて、リソースの配置を変更する。リソースの配置を変更する場合には、たとえば、データセンタのサーバに構築される仮想マシンを一つのデータセンタから他のデータセンタにライブマイグレーションによって移行させる。リソースの再配置先の決定においては、ユーザとリソースとの間で発生するトラヒック量、リソース間で発生するトラヒック量、ネットワーク上の遅延、リソースの移動により発生するトラヒック量等を考慮する。以下、図面を参照して本発明の実施形態につき説明する。
なお、以下の実施形態の説明において、トラヒック量に応じて再配置するリソースは仮想マシン等の計算リソースであるものとして説明する。ただし、ユーザとの間で情報を送受信するリソースで、ユーザからの距離が提供するサービス品質に影響するリソースであれば、計算リソース以外のリソースも再配置の対象とすることができる。たとえば記憶リソース等も同様に再配置の対象とすることができる。
また、実施形態の説明においては、リソースの再配置のために利用する技術の一例として、ライブマイグレーションを用いる。ただし、リソースの再配置に利用する技術はライブマイグレーションに限定されず、サービスを停止せずにサービスに利用するリソースを移動させることができる技術であれば任意の技術を利用することができる。
(第1の実施形態)
図1は、第1の実施形態に係る情報システム間サービス提供システム1の構成の一例を示す図である。図1を参照して、第1の実施形態に係る情報システム間サービス提供システム1の構成の一例につき説明する。
図1に示す情報システム間サービス提供システム1は、情報システム間サービス提供装置10と、ネットワーク20と、データセンタ(DC)管理装置30A,30Bと、ネットワーク(NW)管理装置40A,40Bとを備える。また、情報システム間サービス提供システム1は、ネットワーク50と、データセンタ60A,60Bと、ネットワークNW1,NW2と、を備える。
情報システム間サービス提供装置10は、ネットワーク20を介してDC管理装置30A,30BおよびNW管理装置40A,40Bと通信可能に接続される。DC管理装置30A,30Bは各々、ネットワーク50を介してデータセンタ(DC)60A,60Bと通信可能に接続される。また、NW管理装置40A,40Bは各々、ネットワーク50を介してネットワークNW1およびネットワークNW2と接続される。データセンタ60Aは、エリア1内に配置され、ルータ(図示せず)等によってネットワーク50、ネットワークNW1,NW2等と接続される。また、データセンタ60Bは、エリア2内に配置され、ルータ(図示せず)等によってネットワーク50、ネットワークNW1,NW2等と接続される。ユーザA,B,Cは、エリア1およびエリア2内のネットワーク接続可能な端末を使用して、ネットワーク20,50、NW1,NW2等を介して提供されるサービスを利用する。
情報システム間サービス提供装置10はたとえば、インタークラウドサーバ等である。情報システム間サービス提供装置10はたとえば、インタークラウドシステムにおいてクラウドを利用してサービスを提供する事業者の端末に接続される。そして、事業者の端末からの要求に応じて、当該事業者が提供するサービスに利用するリソースを再配置する。
[リソースの再配置の例]
リソースの再配置を行う場面について、図2A、図2B、図3A、図3Bを用いて説明する。図2Aおよび図2Bは、第1の実施形態において分割数を1に設定してリソースを移動させる例について説明するための図である。図3Aおよび図3Bは、第1の実施形態において分割数を3に設定してリソースを移動させる例について説明するための図である。ここで、「分割数」とは、リソースを移動させる場合に、当該リソースを移動させたのちにリソースが配置されるエリアの数を指すものとする。たとえば、エリア1にあるリソースを全てエリア2およびエリア3に移動させる場合、分割数は「2」となる。また、エリア1、2、3にあるリソースをエリア1、4に移動させた場合、分割数は「2」となる。
第1の実施形態においては、ネットワークを介したサービスが提供される地域は、予め複数のエリアに区分されているものとする。エリアの設定手法は特に限定されない。たとえば、エリアとは、事業者がネットワークを介したサービスを提供する場合に配置した一つのルータの配下に含まれる地域を指す。事業者は、サービスの提供に適した所定範囲の地域を一つのまとまりとして、当該地域内のユーザを一つのルータの配下に置く。かかる地域を第1の実施形態における「エリア」としてよい。また、行政区域ごとにルータを管理する場合などは、当該行政区域を一つのエリアとしてもよい。
図2Aに示す例では、サービスが提供される地域は、エリア1〜4に分割されている。例えば、時刻t1においては、エリア1、2内に各一人のユーザが存在し、エリア3にはユーザが存在しない。これに対してエリア4内には二人のユーザが存在する。このような場合には、ユーザが集中しているエリア4内に計算リソースを集中させることで、ユーザと計算リソースとの通信距離を短くし、通信距離を加味した全体としてトラヒック量を減じることができる。
図2Bは、時刻t1から所定時間が経過した時刻t2におけるユーザの配置を示す。図2Bの例では、エリア1に二人のユーザが存在し、エリア2、4には各々一人のユーザが存在する。他方、エリア3にはユーザが存在しない。図2Bに示すように、各エリア内でサービスを利用するユーザの数が変動した場合には、サービスに利用する計算リソースの位置を変更することで、ネットワークにかかるトラヒックの負荷を減じることができる場合がある。そこで、図2Bでは、サービスに利用する計算リソースをエリア4からエリア1に移動させることが考えられる。計算リソースの移動には、上述したライブマイグレーション等を利用すれば、ユーザに提供するサービスを中断することなく、最適な場所に計算リソースを移動することができる。
図2A,図2Bでは、分割数1の例、すなわち計算リソース全てをエリア4からエリア1に移動させる例を説明した。しかし、これに限定されず、計算リソースを複数のエリアに分割して移動させることもできる。
図3A,図3Bは、第1の実施形態において分割数を3に設定して計算リソースを移動させる例について説明するための図である。図3Aでは、時刻t1において、エリア1〜4の各エリア内にそれぞれ一人のユーザが存在する。これに対して、図3Bでは、時刻t2において、エリア1に二人のユーザ、エリア3,4にそれぞれ一人のユーザが存在し、エリア2にはユーザが存在しない。
図3Bの例の場合、エリア3,4のリソースはそのままとして、エリア2のリソースをエリア1に移動させることで、全てのリソースとユーザとの距離を短くすることができ、トラヒック削減に資すると考えられる。そこで、図3Bの場合は、分割数を3としてエリア2の計算リソースをエリア1に移動させることでリソースを再配置している。
[データセンタおよびDC管理装置]
再び、図1に戻り、情報システム間サービス提供システム1に含まれるDC管理装置30A,30Bにつき説明する。DC管理装置30A,30Bはそれぞれ、データセンタ60A,60Bに接続され、データセンタ60A,60Bを管理する。データセンタ60A,60Bには、記憶装置、サーバ等のリソースが集合的に配置され、これらのリソースをクラウドサービスの利用者に提供する。DC管理装置30A,30Bはそれぞれ、データセンタ60A,60Bを監視してリソースの利用状況や、リソースの割り当て先、リソースの性能等の情報を管理し、必要に応じてデータセンタ60A,60Bに命令を送る。
データセンタ60A,60Bは、計算リソースや記憶リソースを備える。計算リソースとしてはたとえば、仮想マシン(VM:Virtual Machine)、サーバ、CPU(Central Processing Unit)、メモリ、ディスク等が挙げられる。また、記憶リソースとしては、ストレージ装置等が挙げられる。
データセンタ60A,60Bには適宜仮想マシン(VM:Virtual Machine)が構築される。たとえば、図1の例では、データセンタ60A内に仮想マシンVM1が構築されており、データセンタ60B内に仮想マシンVM2,VM3が構築されている。仮想マシンはデータセンタの利用状況およびデータセンタの処理性能に応じて増設することができる。また、必要に応じてライブマイグレーションによってあるデータセンタ内の仮想マシンを他のデータセンタに移動させたり、一つのデータセンタ内の一つのサーバから他のサーバへ移動させたりすることができる。
[ネットワークおよびNW管理装置]
NW管理装置40A,40Bはそれぞれ、ネットワークNW1およびNW2に接続され、ネットワークNW1およびNW2を管理する。ネットワークNW1およびNW2もデータセンタ60A,60Bと同様、クラウドサービスのために利用者に適宜割り当てられる。
ネットワークNW1,NW2としては、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、光ファイバー、光パス、IPネットワーク、イーサネット(登録商標)、トンネルネットワーク等が利用できる。
[ネットワーク20および50]
ネットワーク20および50は、たとえばローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、光ファイバー、光パス、IPネットワーク、イーサネット(登録商標)、トンネルネットワーク等であってよい。図1においては、ネットワーク20と50とを、別のネットワークとして図示するが同一のネットワークであってもよい。ネットワーク20,50の種類は特に限定されず、情報システム間サービス提供装置10と、DC管理装置30A,30B、NW管理装置40A,40B、データセンタ60A,60BおよびネットワークNW1,NW2との間で通信を可能にするものであればよい。任意のネットワークをネットワーク20,50として利用できる。
なお、図1には、二つのDC管理装置、二つのNW管理装置、二つのデータセンタおよび二つのネットワークNW1,NW2を示す。しかし、本発明はこれに限定されるのではなく、任意の数のDC管理装置、NW管理装置、データセンタおよびネットワークを含む構成に適用することができる。また、ユーザの数も特に限定されない。また、データセンタ内に構築される仮想マシンの数も特に限定されない。
[情報システム間サービス提供装置の構成の一例]
さらに図1を参照して、情報システム間サービス提供装置10の構成の一例について説明する。図1に示すように、情報システム間サービス提供装置10は、検出部101と、分割部102と、算出部103と、選択部104と、配置部105と、を備える。なお、図1には特に図示しないが、情報システム間サービス提供装置10は、CPU(Central Processing Unit)等の制御部を備え、CPUにおいて検出部101等の機能が実現されればよい。また、情報システム間サービス提供装置10は、検出部101等において処理または生成される情報を記憶する記憶部106を備える。
検出部101は、ネットワーク上のトラヒックに関する情報を検出する。たとえば、検出部101は、データセンタ60A,60Bが備える計算リソース、すなわち、仮想マシンVM1,VM2,VM3相互間で情報を送受信することにより発生するネットワーク上のトラヒックの情報を検出する。またたとえば、検出部101は、データセンタ60A,60Bが備える計算リソースと、ユーザA,B,Cとの間で情報を送受信することにより発生するトラヒックの情報を検出する。
またたとえば、検出部101は、データセンタ60A,60Bが配置されるエリア1,2内のユーザに関する情報を検出する。
たとえば、検出部101は、その時点でサービスを提供している各エリア内のユーザの数を検出する。ユーザは、各エリア内において利用可能な情報処理端末等を用いてネットワークにアクセスする。そして、ユーザは、サービスの提供を受けるためパスワード認証などの処理を経てサービス提供側、すなわちサービスを提供する計算リソース等との通信を確立し、サービスの提供を受ける。このため、検出部101はたとえば、エリア1,2内のルータに対して認証処理の要求が送信されたことや通信が確立されたことを検知すれば、その時点でサービスの提供を受けているユーザ数を検知できる。ただし、各時点において各エリア内でサービスの提供を受けているユーザ数を検知するための手法は特に限定されず、任意の手法を用いることができる。
また、検出部101は、サービスを利用することができる全ユーザの数などの情報を検出する。たとえば検出部101は、当該サービスの提供に対する新規加入者がいた場合に、当該サービス提供者からの通知等によりユーザ数を検出してもよい。たとえば、情報システム間サービス提供装置10と、サービス提供者の端末とが接続されている場合には、当該端末からの通知に応じて、検出部101が情報を受信し記憶部106に格納すればよい。また、情報システム間サービス提供装置10の管理者が手動で入力してもよい。
また、検出部101は、各エリア間での通信に要する遅延に関する情報を検出する。遅延の情報は、エリアを設定する際に予め遅延を測定することによって検出してもよい。また、サービス提供中に遅延を測定して平均値を算出することによって検出してもよい。遅延に関する情報の検出の手法は特に限定されない。
次に、分割部102は、情報システム間サービス提供装置10が管理対象とするエリア内のリソースに対して適用可能な分割パターンを生成する。たとえば、図2A、図2B、図3A、図3Bの例のように、四つのエリアに分割された区域内のリソースを情報システム間サービス提供装置10が再配置する場合を考える。図2Aの例では、四つの計算リソースがエリア4に配置されている。これらの計算リソースを再配置する分割パターンとしてはたとえば、図4に示すような例が考えられる。
図4は、第1の実施形態における分割パターンの例を示す図である。図4の例において、「パターンID:001」の分割パターンは、図2Aにおいてエリア4に配置されている四つの計算リソースをエリア1に移動させることを意味する。この場合、移動後に計算リソースが存在するエリア数は「1」であるため、分割数は「1」となる。
また、図4中、「パターンID:005」の分割パターンは、「分割数:2」が対応づけられており、図2Aにおいてエリア4に配置される四つの計算リソースを二つのエリアに分割して配置することを示している。「パターンID:005」の分割パターンにおいては、計算リソース一つがエリア1に、計算リソース三つがエリア2に分割して配置される。
分割部102は、このように各時点のリソースの配置状態に応じて、適用可能な複数の分割パターンを生成する。生成した分割パターンは記憶部106に記憶する。
なお、分割部102は、分割パターンを生成する際に予め定められた分割ルールを適用するものとしてもよい。たとえば、対象となるサービスが提供されるエリアが10個である場合は、予め分割数の上限として「10」を設定して記憶部106に記憶しておき、分割数が上限を超えないように分割パターンを生成する。また、トラヒックコストの削減効果が少ないと見込まれる分割パターンまで生成しないように、データセンタ間の遅延が所定の閾値を超える場合には当該データセンタ間ではリソースを移動しないように分割ルールを設定してもよい。また、データセンタ間に所定数以上のルータがある場合には、当該データセンタ間でリソースを移動しないように分割ルールを設定してもよい。
算出部103は、分割部102が生成した分割パターン各々について、当該分割パターンに基づきリソースを再配置した場合に発生するトラヒックに係るトラヒックコストを算出する。ここで、トラヒックコストとは、トラヒックにより生じる負荷を表す値とする。たとえば、分割パターンに基づきリソースを再配置する前に発生している単位時間あたりのトラヒック量と、分割パターンに基づきリソースを再配置した後に発生する単位時間当たりのトラヒック量の合計をトラヒックコストとする。また、これに分割パターンに基づきリソースを再配置するために生じる単位時間あたりのトラヒック量を加算してもよい。またたとえば、通信により発生したトラヒック量に当該通信に使用されたネットワークの遅延で重み付けした値をトラヒックコストとしてもよい。また、通信により発生したトラヒック量に当該通信に使用されたネットワークの距離で重み付けした値をトラヒックコストとしてもよい。
なお、トラヒックコストの算出手法は提供するサービスの性質や、ネットワークの種類、運用実績等に基づいて決定すればよい。
たとえば、算出部103は、各分割パターンを採用した場合に、所定の時間までに発生する累積トラヒック総量を算出する。所定の時間の長さは、運用実績にもとづき予測されるトラヒック量や、エリアごとに予測されるユーザの変動パターン、提供するサービスの性質などにもとづいて決定する。所定の時間の長さは、情報システム間サービス提供装置10が、検出部101が検出した情報等に基づいて自動的に設定するものとしてもよい。また、情報システム間サービス提供装置10の管理者が手動で入力してもよい。また、情報システム間サービス提供装置10のリソース再配置処理の対象となるリソースを利用するサービス提供業者が指定するものとしてもよい。また、所定の時間は、トラヒックの状況に応じて適宜変更するものとしてもよい。
例として、所定の分割パターンに基づきリソースをライブマイグレーションにより再配置する場合の累積トラヒック総量を考える。この場合、算出部103は、再配置中、すなわちライブマイグレーション中にユーザがサービスの提供を受けるために発生する単位時間あたりのトラヒック量を算出する。また、算出部103は、ライブマイグレーションを実行するために発生する単位時間あたりのトラヒック量を算出する。また算出部103は、ライブマイグレーションが完了した後、所定の時間までに、再配置後のリソースを用いたサービスの提供により発生する単位時間あたりのトラヒック量を算出する。そして、算出部103は、それぞれに要した時間を乗算した値を合算して、累積トラヒック総量を算出する。
このように算出部103は、分割部102が生成した分割パターンそれぞれについて、当該分割パターンを用いてリソースを移動させた場合に発生するトラヒックコストを算出する。
選択部104は、算出部103が算出した各分割パターンのトラヒックコストを比較し、トラヒックコストが最も少ない分割パターンを選択する。たとえば、選択部104は、所定の時間までに発生する累積トラヒック量を比較し、累積トラヒック量が最小の分割パターンを選択する。
なお、提供されるサービスの種類や性質に応じて、算出部103が算出するトラヒック量の種類や設定する単位時間、選択部104が分割パターンを選択する際に適用する基準等を変更してもよい。
配置部105は、選択部104が選択した分割パターンに基づきリソースが配置されるよう、DC管理装置30A,30B、NW管理装置40A,40Bに通知する。DC管理装置30A,30B、NW管理装置40A,40Bは、通知された分割パターンに基づきリソースを移動させるため、移動対象となるリソースを有するデータセンタに命令を送信する。命令を受信したデータセンタはライブマイグレーション等により、リソースを移動させる。
記憶部106は、情報システム間サービス提供装置10内の各部の処理に使用する情報および各部の処理によって生成される情報を記憶する。たとえば、記憶部106は、分割部102が分割パターンを生成する際に適用するルールを記憶する。また、記憶部106は図4に示す分割パターンの情報を記憶する。記憶部106はまた、算出部103がトラヒックコストを算出する際に適用するルールを記憶する。記憶部106は、算出部103が算出したトラヒックコストに関する情報を適宜記憶するように構成してもよい。記憶部106はまた、サービスのユーザに関する情報や、サービスに利用するリソースに関する情報を記憶する。
[トラヒックコストの算出処理の一例]
次に、図5および図6を参照し、算出部103によるトラヒックコストの算出処理の一例につき説明する。図5は、第1の実施形態に係る情報システム間サービス提供方法を適用するネットワーク構成の一例を示す図である。図6は、図5に示す例において、リソースを再配置する例を説明するための図である。
図5および図6の例では、算出部103は、トラヒックコストとして、以下の三つの値を算出する。
(1)ライブマイグレーション中(またはライブマイグレーション前)にユーザがサービスの提供を受けることによって生じる単位時間あたりのトラヒック量
(2)ライブマイグレーション完了後にユーザがサービスの提供を受けることによって生じる単位時間あたりのトラヒック量
(3)ライブマイグレーションのために情報を送受信することで生じる単位時間あたりのトラヒック量
そして、算出部103は、各々に、当該トラヒックに使用されたネットワークの遅延で重み付けをし、重み付けの値を合算する。合算した値をトラヒックコストとする。
図5の例では、四つのデータセンタがそれぞれエリア1〜4に配置され、ルータによってネットワークに接続されている。図5では、エリア1のデータセンタDC_Aに二つの仮想マシンが構築されている。エリア2〜4各々には、データセンタDC_B,DC_C,DC_Dが配置されている。また、各データセンタはルータと接続される。エリア1〜4のそれぞれにルータR1,R2,R3,R4が配置される。また、それぞれのルータとデータセンタとは八つのネットワークNW1〜NW8を介して接続されている。
図5の例において、各エリア内でサービスを利用するユーザの数は変動するものとし、時刻tにおける各エリア内のユーザ数を、Ux(t)と表す(ただし、xはエリア番号であり、x=1,2,3,4)。ただし、エリア1〜4内でサービスを利用できるユーザの総数は変動しないものとし、ユーザはエリア間を移動してサービスを利用できるものとする。また、1ユーザがサービスを利用するために計算リソースに対して利用できる通信帯域はs1とする(単位はMbps)。
さらに、図5の例において、ルータ間またはデータセンタ間のネットワークNWy(すなわち、バックボーンネットワーク。ここで、yはネットワークの番号であり、y=1〜8)の帯域容量をBy[Mb/s]と表す。また、ネットワークNWyの遅延をLy[ms]、距離をDy[km]と表す。
また、図5の例では、計算リソースの移動をライブマイグレーションによって実行するものと仮定する。そして、各仮想マシンのライブマイグレーションに要する時間をtm[s]、ライブマイグレーションにより発生する単位時間あたりの情報量をMigと表す。
第1の実施形態の情報システム間サービス提供装置10は、検出部101において上記の変数が示す情報を検出する。そして、検出部101が検出した情報と分割部102が生成した分割パターンに基づき、算出部103が算出処理を行う。
算出部103はたとえば、次式(1)を用いて上記(1)のトラヒック量を算出する。
Figure 2014238710
式(1)中、「s」は1ユーザあたりのトラヒック量を表し、「U1(t)」は、時刻tにおけるエリア1内のユーザ数を表す。また、「L1」は、図5の例において、ネットワークNW5において発生する遅延を表す。また、「U2(t)」は、時刻tにおけるエリア2内のユーザ数を表し、「L2」は図5のエリア1内のルータR1からエリア2内のルータR2までの通信によって発生する遅延を表す。
すなわち、式(1)は、図5に示すエリア1内のユーザがルータR1を介してデータセンタDC_Aにアクセスすることで生じるトラヒックコストと、エリア2内のユーザがルータR1およびR2を介してエリア1内のデータセンタDC_Aにアクセスすることで生じるトラヒックコストを合算したものを表す。すなわち、式(1)は、計算リソースをエリア1内のデータセンタDC_Aからエリア2内のデータセンタDC_Bにライブマイグレーションしている間に発生するトラヒックコストの一部である。ライブマイグレーション中に、計算リソースがまだエリア1内にある場合は、式(1)に示すトラヒックコストが発生する。
また、算出部103はたとえば、次式(2)を用いて時刻tにおいて、上記(2)のトラヒック量を算出する。
Figure 2014238710
式(2)中、各記号の意味は式(1)と同様である。「L3」は、図5の例において、エリア2内のルータR2からデータセンタDC_Bまでの通信によって発生する遅延を表す。すなわち、式(2)は、エリア1内のユーザがルータR1、R2を介してエリア2内のデータセンタDC_Bにアクセスすることで生じるトラヒックコストと、エリア2内のユーザがルータR2を介してデータセンタDC_Bにアクセスすることで生じるトラヒックコストを合算したものである。
また、算出部103はたとえば、上記(3)のトラヒック量を、算出するトラヒックコストに反映させるため、式(1)に、ライブマイグレーションによって発生する単位時間あたりのトラヒック量Migを合算する。
そして、算出部103は、式(1)から得た値にMigを加算した値にライブマイグレーションに要した時間tmを乗算する。さらに算出部103は、式(2)から得た値に、ライブマイグレーションが完了した時刻から予め定められた所定の時間までの時間を乗算する。そして、算出部103は得た値を加算して、所定の時間までのトラヒックコストを得る。
なお、上の式(1)(2)では、トラヒックコストの重み付けのため、各ネットワークの遅延の値を用いた。このほか、各ネットワークの距離を表す値を重み付けに用いてもよい。
[トラヒック量の変動の例]
図7は、図6に示す例において、分割数1としてリソースを再配置した場合の累積トラヒックコストの変動の一例を示すグラフである。図7において、時刻t=aにおいて、計算リソースの移動を開始したものとする。そして、時刻t=a+tmにおいて全ての計算リソースの移動、すなわち、仮想マシンのライブマイグレーションが終了したものとする。
図7に示す例では、ライブマイグレーション中は一次的にトラヒック量の増加率が高くなっている。しかし、ライブマイグレーション完了後はトラヒックの増加率が低くなっている。これはライブマイグレーション中はライブマイグレーションに係るトラヒックが発生する(上記Mig)が、ライブマイグレーション終了後はトラヒック削減効果が得られるためと考えられる。
図8は、図6に示す例において、複数の配置パターンのトラヒックコストの比較の一例を示すグラフである。図8では、分割数1としてリソースを再配置した場合と、分割数2としてリソースを再配置した場合と、配置を変更しなかった場合との三つの場合のトラヒックコストの変動を示している。
図8の例では、分割数2とした場合、指定時間における累積トラヒックコストが最小となる。したがってトラヒックコストの算出のために設定した指定時間が、図8における時刻bより後であれば、分割数2の分割パターンを選択することになる。なお、分割数2とした場合、いずれのエリアに仮想マシンを再配置するかによって複数の分割パターンが存在するが、図8では例として一つの分割パターンのみを示す。
[リソース再配置処理の流れの一例]
図9は、第1の実施形態に係る情報システム間サービス提供装置10におけるリソース再配置処理の流れの一例を説明するためのフローチャートである。図9に示すように、情報システム間サービス提供装置10において、検出部101はまず、トラヒックに係る情報を検出する(ステップS801)。次に分割部102は、予め定められたルールに基づき、分割パターンを生成する(ステップS802)。そして、算出部103は、分割部102が生成した各分割パターンについて、トラヒックコストを算出する(ステップS803)。次に、選択部104は、算出部103が算出したトラヒックコストに基づき各分割パターンのトラヒックコストを比較し、トラヒックコストが最小となる分割パターンを選択する(ステップS804)。そして、配置部105は、選択部104が選択した分割パターンにもとづき、リソースを再配置する(ステップS805)。これによって、リソース再配置処理が終了する。
[第1の実施形態の効果]
上述したように、第1の実施形態に係る情報システム間サービス提供装置は、複数の情報システム各々が有するリソースによりネットワークを介してユーザにサービスを提供する情報システム間サービス提供装置である。そして、情報システム間サービス提供装置は、検出部と、分割部と、算出部と、選択部と、配置部とを備える。検出部は、サービスの提供により発生するトラヒックの情報を検出する。分割部は、サービスが提供される複数のエリアにリソースを分散配置するための分割パターンを生成する。算出部は、検出部が検出した情報を用いて、分割パターンに基づいてリソースを分散配置した場合に、リソースの移動により生じる第1のトラヒックコスト、リソースの移動前にサービスの提供により生じる第2のトラヒックコスト、およびリソースの移動後にサービスの提供により生じる第3のトラヒックコストを求め、第1、第2、第3のトラヒックコストに基づき総トラヒックコストを算出する。選択部は、算出部が算出した総トラヒックコストに基づき、リソースを分散配置するためのパターンを選択する。配置部は、選択部が選択したパターンに基づき、リソースを分散配置する。このように、第1の実施形態に係る情報システム間サービス提供装置によれば、サービスを提供する複数の計算リソースはユーザの存在するエリアに応じて、移動に伴うコストが考慮されたうえで、全体のトラヒックコストが最小となるように柔軟に適切なエリアに分散配置されることが可能となる。このため、ネットワークを経由してリソースを利用してサービスを提供する情報システムにおいて、ネットワーク上のトラヒックを削減することができる。さらに、分散配置により、各エリアに存在するユーザがより近いエリアの計算リソースを利用可能とし、遅延の減少等、品質の向上も期待できる。
また、上記実施形態の情報システム間サービス提供装置によれば、複数の分割数において考えられる全ての分割パターンを考慮する。そして、各分割パターンを採用した場合に生じるトラヒックコストを時系列的に算出して、累積的なトラヒックコストを比較する。このため、一時的なトラヒックコストではなく所定期間にわたるトラヒックコストの変動を考慮して分割パターンを選択することができる。また、サービスの性質等に応じてトラヒックコストを算出する期間を適宜設定してトラヒックコストを比較するため、サービスごとに適切な分割パターンを選択してリソースの再配置を実行することができる。このため、提供するサービスに応じて適切なトラヒック抑制を実現することができる。
(第2の実施形態)
これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、その他の実施例にて実施されてもよい。以下に、その他の実施例を説明する。
上記実施形態においては、クラウドコンピューティングを用いて計算リソースを配分する例を説明した。しかし、本発明はクラウドコンピューティングを用いた技術に限定されず、ネットワークを介して情報の送受信を行うことによりサービスを提供する任意の技術に適用することができる。
[リソース再配置のタイミング]
なお、リソースを再配置するタイミングは特に限定されない。たとえば、リアルタイムでトラヒックの状況を監視して継続的に再配置をおこなってもよい。また、所定の時間間隔を予め設定しておき、所定の時間が経過するごとにリソースの再配置をおこなってもよい。また、トラヒックの状況を継続的に監視し、トラヒック量が予め定めた閾値を超えた場合にリソースの再配置をおこなってもよい。
[トラヒックコストの算出手法]
上記第1の実施形態では、式(1)、式(2)に示すように、トラヒックが発生したネットワークの遅延を重み付けに使用してトラヒックコストを算出した。しかし本発明はこれに限定されず、他の値を重み付けに使用することができる。たとえば、実際のネットワークの距離を重み付けに使用してもよい。
この場合、算出部103は、たとえば、以下の値を順次算出して、トラヒックコストを得る。
(1)サービス提供のために計算リソース間で発生する単位時間あたりのトラヒック量に当該計算リソース間の距離を乗じたもの
(2)サービス提供のために計算リソースとユーザ間で発生する単位時間あたりのトラヒック量に、当該計算リソースとユーザとの距離を乗じたもの
(3)上記(1)の延べ量と、上記(2)の延べ量との総和
これに加えて、ライブマイグレーションにより生じたトラヒックコストを考慮する。
算出部103は、現時点のパターンと分割パターンそれぞれについて上記のトラヒックコストを算出し、選択部104は、トラヒックコストを比較して最もトラヒックコストが小さいパターンを選択する。
また、算出部103は、ライブマイグレーションにより生じるトラヒックコストを算出する際には、混合整数線形計画法を用いて、トラヒックコストが最小となる移動方法を算出してもよい。そして、算出部103は、トラヒックコストが最小となる移動方法を採用して、トラヒックコストを算出してもよい。
[システム構成]
また、本実施例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上述文書中や図面中に示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。たとえば、図1に示す例では、記憶部106を情報システム間サービス提供装置10の内部に配置したが、記憶部106を情報システム間サービス提供装置10の外部装置としてネットワーク経由で接続するようにしてもよい。また、情報システム間サービス提供装置10を、インタークラウドサーバの一部として組み入れ、インタークラウドサーバの他の機能と連携して動作するように構成してもよい。また、記憶部106はそれぞれ、他の情報も記憶するように構成できる。
[プログラム]
図10は、情報システム間サービス提供装置における一連の処理を実行するプログラムである情報システム間サービス提供プログラムによる情報処理が、コンピュータを用いて具体的に実現されることを示す図である。図10に例示するように、コンピュータ3000は、たとえば、メモリ3010と、CPU(Central Processing Unit)3020と、ハードディスクドライブ3080と、ネットワークインタフェース3070とを有する。コンピュータ3000の各部はバス3100によって接続される。
メモリ3010は、図10に例示するように、ROM3011およびRAM3012を含む。ROM3011は、たとえば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。
ここで、図10に例示するように、ハードディスクドライブ3080は、たとえば、OS3081、アプリケーションプログラム3082、プログラムモジュール3083、プログラムデータ3084を記憶する。すなわち、開示の技術に係る情報システム間サービス提供プログラムは、コンピュータ3000によって実行される指令が記述されたプログラムモジュール3083として、たとえばハードディスクドライブ3080に記憶される。たとえば、検出部101、分割部102、算出部103、選択部104、配置部105の各部と同様の情報処理を実行する手順各々が記述されたプログラムモジュール3083が、ハードディスクドライブ3080に記憶される。
また、記憶部106に記憶されるデータのように、情報システム間サービス提供プログラムによる情報処理に用いられるデータは、プログラムデータ3084として、たとえばハードディスクドライブ3080に記憶される。そして、CPU3020が、ハードディスクドライブ3080に記憶されたプログラムモジュール3083やプログラムデータ3084を必要に応じてRAM3012に読み出し、各種の手順を実行する。
なお、情報システム間サービス提供プログラムに係るプログラムモジュール3083やプログラムデータ3084は、ハードディスクドライブ3080に記憶される場合に限られない。たとえば、プログラムモジュール3083やプログラムデータ3084は、着脱可能な記憶媒体に記憶されてもよい。この場合、CPU3020は、ディスクドライブなどの着脱可能な記憶媒体を介してデータを読み出す。また、同様に、プログラムモジュール3083やプログラムデータ3084は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。この場合、CPU3020は、ネットワークインタフェース3070を介して他のコンピュータにアクセスすることで各種データを読み出す。
[その他]
なお、本実施例で説明した情報システム間サービス提供プログラムは、インターネット等のネットワークを介して配布することができる。また、同期プログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVDなどのコンピュータで読取可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。
1 情報システム間サービス提供システム
10 情報システム間サービス提供装置
101 検出部
102 分割部
103 算出部
104 選択部
105 配置部
20,50 ネットワーク
30A,30B データセンタ管理装置
40A,40B ネットワーク管理装置
60A,60B データセンタ
3000 コンピュータ
3010 メモリ
3020 CPU
3070 ネットワークインタフェース
3080 ハードディスクドライブ
DC_A〜DC_D データセンタ
NW1〜NW8 ネットワーク
R1〜R4 ルータ
VM1〜VM4 仮想マシン

Claims (8)

  1. 複数の情報システム各々が有するリソースによりネットワークを介してユーザにサービスを提供する情報システム間サービス提供装置であって、
    前記サービスの提供により発生するトラヒックの情報を検出する検出部と、
    前記サービスが提供される複数のエリアに前記リソースを分散配置するための分割パターンを生成する分割部と、
    前記検出部が検出した情報を用いて、前記分割パターンに基づいて前記リソースを分散配置した場合に、前記リソースの移動により生じる第1のトラヒックコスト、前記リソースの移動前に前記サービスの提供により生じる第2のトラヒックコスト、および前記リソースの移動後に前記サービスの提供により生じる第3のトラヒックコストを求め、前記第1、第2、第3のトラヒックコストに基づき総トラヒックコストを算出する算出部と、
    前記算出部が算出した総トラヒックコストに基づき、前記リソースを分散配置するためのパターンを選択する選択部と、
    前記選択部が選択したパターンに基づき、前記リソースを分散配置する配置部と、
    を備えることを特徴とする情報システム間サービス提供装置。
  2. 前記検出部は、前記サービスの提供により発生する単位時間あたりの前記リソース間のトラヒック量、前記サービスの提供により発生する単位時間あたりの前記リソースと前記ユーザ間のトラヒック量、前記複数のエリア各々の中で前記サービスの提供を受ける前記ユーザの数、前記複数のエリア相互間での通信の遅延を検出し、
    前記算出部は、前記検出部が検出した情報に基づき、前記総トラヒックコストを算出することを特徴とする請求項1に記載の情報システム間サービス提供装置。
  3. 前記分割部は、前記複数のエリアの数を上限値として設定される、前記リソースを分散配置できるエリア数を示す分割数ごとに、すべての可能な分割パターンを生成し、
    前記算出部は、複数の分割パターン各々について前記総トラヒックコストを算出することを特徴とする請求項1または2に記載の情報システム間サービス提供装置。
  4. 前記算出部は、トラヒックが発生したネットワークの遅延情報を用いて前記第1、第2、第3のトラヒックコストを重み付けすることで、前記総トラヒックコストを算出することを特徴とする請求項1から3のいずれか1項に記載の情報システム間サービス提供装置。
  5. 前記算出部は、前記分割パターン各々について、
    (1)現時点の前記リソースの配置である現時点のパターンから当該分割パターンに基づき前記リソースを移動させることで発生するトラヒックコストを前記第1のトラヒックコストとして算出し、
    前記算出部はさらに、前記現時点のパターンおよび前記分割パターン各々について、前記現時点から前記リソースの移動完了までの第1の期間および前記リソースの移動完了から所定時間経過までの第2の期間のそれぞれにつき、
    (2)前記サービスの提供により発生する単位時間あたりの前記リソース間のトラヒック量に当該リソース間の距離を表す値を乗算した値を取得し、すべての前記リソースの組合せについて取得した前記値を加算したリソース間トラヒックコストを算出し、
    (3)前記サービスの提供により発生する単位時間あたりの前記リソースと前記ユーザ間のトラヒック量に前記リソースと前記ユーザとの間の距離を表す値を乗算した値を取得し、すべてのユーザについて取得した前記値を加算したリソース・ユーザ間トラヒックコストを算出し、
    (4)前記リソース間トラヒックコストと前記リソース・ユーザ間トラヒックコストの合計の前記第1の期間の延べ量および前記第2の期間の延べ量を、前記第2のトラヒックコストおよび前記第3のトラヒックコストとして算出し、
    (5)前記第2のトラヒックコストと前記第3のトラヒックコストの合計を前記現時点のパターンの総トラヒックコストとし、前記第1、第2および第3のトラヒックコストの合計を前記分割パターンの総トラヒックコストとして算出し、
    前記選択部は、前記現時点のパターンおよび前記分割パターンのうち、総トラヒックコストが最小のパターンを選択することを特徴とする請求項1から3のいずれか1項に記載の情報システム間サービス提供装置。
  6. 前記算出部は、混合整数線形計画法を用いてマイグレーションに係るトラヒックコストが最小になるよう、前記リソースを移動させることを特徴とする請求項1から5のいずれか1項に記載の情報システム間サービス提供装置。
  7. 複数の情報システム各々が有するリソースによりネットワークを介してユーザにサービスを提供する情報システム間サービス提供装置で実行される情報システム間サービス提供方法であって、
    前記サービスの提供により発生するトラヒックの情報を検出する検出工程と、
    前記サービスが提供される複数のエリアに前記リソースを分散配置するための分割パターンを生成する分割工程と、
    前記検出工程が検出した情報を用いて、前記分割パターンに基づいて前記リソースを分散配置した場合に、前記リソースの移動により生じる第1のトラヒックコスト、前記リソースの移動前に前記サービスの提供により生じる第2のトラヒックコスト、および前記リソースの移動後に前記サービスの提供により生じる第3のトラヒックコストを求め、前記第1、第2、第3のトラヒックコストに基づき総トラヒックコストを算出する算出工程と、
    前記算出工程が算出した総トラヒックコストに基づき、前記リソースを分散配置するためのパターンを選択する選択工程と、
    前記選択工程が選択したパターンに基づき、前記リソースを分散配置する配置工程と、
    を含むことを特徴とする情報システム間サービス提供方法。
  8. コンピュータに、
    複数の情報システム各々が有するリソースによりネットワークを介してユーザに提供するサービスにより発生するトラヒックの情報を検出する検出ステップと、
    前記サービスが提供される複数のエリアに前記リソースを分散配置するための分割パターンを生成する分割ステップと、
    前記検出ステップにおいて検出した情報を用いて、前記分割パターンに基づいて前記リソースを分散配置した場合に、前記リソースの移動により生じる第1のトラヒックコスト、前記リソースの移動前に前記サービスの提供により生じる第2のトラヒックコスト、および前記リソースの移動後に前記サービスの提供により生じる第3のトラヒックコストを求め、前記第1、第2、第3のトラヒックコストに基づき総トラヒックコストを算出する算出ステップと、
    前記算出ステップにおいて算出した総トラヒックコストに基づき、前記リソースを分散配置するためのパターンを選択する選択ステップと、
    前記選択ステップにおいて選択したパターンに基づき、前記リソースを分散配置する配置ステップと、
    を実行させるための情報システム間サービス提供プログラム。
JP2013120883A 2013-06-07 2013-06-07 情報システム間サービス提供装置、情報システム間サービス提供方法および情報システム間サービス提供プログラム Active JP5575953B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013120883A JP5575953B1 (ja) 2013-06-07 2013-06-07 情報システム間サービス提供装置、情報システム間サービス提供方法および情報システム間サービス提供プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013120883A JP5575953B1 (ja) 2013-06-07 2013-06-07 情報システム間サービス提供装置、情報システム間サービス提供方法および情報システム間サービス提供プログラム

Publications (2)

Publication Number Publication Date
JP5575953B1 JP5575953B1 (ja) 2014-08-20
JP2014238710A true JP2014238710A (ja) 2014-12-18

Family

ID=51579022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013120883A Active JP5575953B1 (ja) 2013-06-07 2013-06-07 情報システム間サービス提供装置、情報システム間サービス提供方法および情報システム間サービス提供プログラム

Country Status (1)

Country Link
JP (1) JP5575953B1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036866A (ja) * 2016-08-31 2018-03-08 Kddi株式会社 データセンタと光ネットワークとを含むシステムの制御装置
JP2018147344A (ja) * 2017-03-08 2018-09-20 日本電気株式会社 仮想マシン移動制御方法と通信システムとコントローラ及びプログラム
JPWO2021014624A1 (ja) * 2019-07-24 2021-01-28
JP7413835B2 (ja) 2019-04-30 2024-01-16 富士通株式会社 遅延保証を備えたモニタリングに基づくエッジコンピューティングサービス

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221581A (ja) * 2010-04-02 2011-11-04 Hitachi Ltd 計算機システムの管理方法、計算機システム管理端末および計算機管理システム
JP5768651B2 (ja) * 2011-10-21 2015-08-26 富士通株式会社 通信装置、通信方法、および、通信プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036866A (ja) * 2016-08-31 2018-03-08 Kddi株式会社 データセンタと光ネットワークとを含むシステムの制御装置
JP2018147344A (ja) * 2017-03-08 2018-09-20 日本電気株式会社 仮想マシン移動制御方法と通信システムとコントローラ及びプログラム
JP7413835B2 (ja) 2019-04-30 2024-01-16 富士通株式会社 遅延保証を備えたモニタリングに基づくエッジコンピューティングサービス
JPWO2021014624A1 (ja) * 2019-07-24 2021-01-28
WO2021014624A1 (ja) * 2019-07-24 2021-01-28 日本電信電話株式会社 スケジューリング制御装置、スケジューリング制御方法、及びプログラム
JP7342952B2 (ja) 2019-07-24 2023-09-12 日本電信電話株式会社 スケジューリング制御装置、スケジューリング制御方法、及びプログラム

Also Published As

Publication number Publication date
JP5575953B1 (ja) 2014-08-20

Similar Documents

Publication Publication Date Title
Qu et al. Delay-aware scheduling and resource optimization with network function virtualization
Hawilo et al. Network function virtualization-aware orchestrator for service function chaining placement in the cloud
JP6558483B2 (ja) 通信装置とシステムと方法並びに割り当て装置とプログラム
KR102199278B1 (ko) 가속 자원 처리 방법 및 장치, 및 네트워크 기능 가상화 시스템
US10880180B2 (en) Method and apparatus for data analytics management
EP2979409B1 (en) A method and system to allocate bandwidth for heterogeneous bandwidth request in cloud computing networks
Kim et al. VNF-EQ: dynamic placement of virtual network functions for energy efficiency and QoS guarantee in NFV
Salahuddin et al. RSU cloud and its resource management in support of enhanced vehicular applications
US20130212279A1 (en) Resource Allocation Mechanism
Faraci et al. An analytical model to design and manage a green SDN/NFV CPE node
JP2013506908A (ja) 企業ネットワーク内の割り当てられたクラウドリソースの動的な負荷分散およびスケーリング
JP6097235B2 (ja) 負荷分散システム、負荷分散装置及び負荷分散方法
Houidi et al. An efficient algorithm for virtual network function scaling
JP5242717B2 (ja) リソース管理サーバ、リソース管理システム、リソース管理方法及びリソース管理プログラム
Leivadeas et al. Resource management and orchestration for a dynamic service chain steering model
JP5575953B1 (ja) 情報システム間サービス提供装置、情報システム間サービス提供方法および情報システム間サービス提供プログラム
Adami et al. Effective resource control strategies using openflow in cloud data center
US11784885B2 (en) Shared bandwidth speed limiting method, device, and storage medium
Zhang et al. Dynamic anycast in inter-datacenter networks over elastic optical infrastructure
Skulysh et al. Managing the process of servicing hybrid telecommunications services. Quality control and interaction procedure of service subsystems
Scharf et al. Network-aware instance scheduling in OpenStack
Alhazmi et al. Optimized provisioning of SDN-enabled virtual networks in geo-distributed cloud computing datacenters
Shang et al. Network congestion-aware online service function chain placement and load balancing
Fischer et al. On the construction of optimal embedding problems for delay-sensitive service function chains
Qu et al. Delay-aware flow migration for embedded services in 5G core networks

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140702

R150 Certificate of patent or registration of utility model

Ref document number: 5575953

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150