JP5892031B2 - リソース管理システム、リソース管理方法、およびリソース管理プログラム - Google Patents

リソース管理システム、リソース管理方法、およびリソース管理プログラム Download PDF

Info

Publication number
JP5892031B2
JP5892031B2 JP2012233294A JP2012233294A JP5892031B2 JP 5892031 B2 JP5892031 B2 JP 5892031B2 JP 2012233294 A JP2012233294 A JP 2012233294A JP 2012233294 A JP2012233294 A JP 2012233294A JP 5892031 B2 JP5892031 B2 JP 5892031B2
Authority
JP
Japan
Prior art keywords
data center
configuration
resource
migration
performance information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012233294A
Other languages
English (en)
Other versions
JP2014085773A (ja
Inventor
雅崇 園田
雅崇 園田
松本 安英
安英 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012233294A priority Critical patent/JP5892031B2/ja
Priority to US14/011,033 priority patent/US9391916B2/en
Priority to GB1315382.0A priority patent/GB2507170A/en
Publication of JP2014085773A publication Critical patent/JP2014085773A/ja
Application granted granted Critical
Publication of JP5892031B2 publication Critical patent/JP5892031B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5055Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering software capabilities, i.e. software resources associated or available to the machine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • G06F9/5088Techniques for rebalancing the load in a distributed system involving task migration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/501Performance criteria

Description

本発明は、リソース管理システム、リソース管理方法、およびリソース管理プログラムに関する。
データセンタ(DC:Data Center)は、サーバ、ストレージ装置、ルータ、スイッチ等の複数のリソースが設置された施設である。たとえば、DCでは、DC内のサーバがユーザのアプリケーションを実行する仮想マシンを起動し、仮想マシンがアプリケーションを実行することにより、ユーザが要求するシステムをユーザに提供する。
たとえば、DCにおいて、最適化のためのポリシーと、アプリケーションに依存するポリシーとを考慮して、アプリケーションが稼働する仮想マシンを稼働させたまま、アプリケーションを移行する技術がある。また、リソースの余剰ポリシーの変更に応じて、仮想マシンの配置案を生成し、物理マシンのリソースとネットワーク機器のリソースの両方について、リソースの使用量をシミュレーションする技術がある。さらに、複数のサーバが複数の仮想サーバを実行するシステムにて、仮想サーバ間の通信量を計測し、仮想サーバを他のサーバに割り当てた場合に通信量に基づく平均消費コストを算出して、平均消費コストが下がる他のサーバに仮想サーバを再割当する技術がある。(たとえば、下記特許文献1〜3を参照。)
特開2009−116852号公報 特開2010−146420号公報 特開2011−221581号公報
しかしながら、上記した技術によれば、ユーザからの要求に応じて新たなシステムをDCに構築する際に、DCに空きリソースがあるにも関わらず要求された性能を満たすシステムを構築できず、DCのリソースが有効活用されない場合がある。
1つの側面では、本発明は、データセンタのリソースを有効活用してシステムを構築するリソース管理システム、リソース管理方法、およびリソース管理プログラムを提供することを目的とする。
一側面によれば、システムの性能情報を参照して、第1のデータセンタのリソースを利用して実現される第1のシステムの一部の機能構成を第2のデータセンタのリソースを利用して実現しても第1のシステムに対応する第1の性能情報を満たすか否かを判断し、第1の性能情報を満たすと判断した場合、第2のデータセンタのリソースを利用して一部の機能を実現することで、第1の性能情報を満たす構成システムを第1のデータセンタのリソースと第2のデータセンタのリソースとを利用して構築するリソース管理システム、リソース管理方法、およびリソース管理プログラムが提案される。
一態様によれば、データセンタのリソースを有効活用してシステムを構築することができるという効果を奏する。
図1は、本実施の形態にかかるリソース管理システムの動作例を示す説明図である。 図2は、クラウドシステムのシステム構成例を示す説明図である。 図3は、リソース管理装置のハードウェア構成例を示すブロック図である。 図4は、リソース管理装置の機能構成例を示すブロック図である。 図5は、テナントの仮想システム情報の記憶内容の一例を示す説明図である。 図6は、新規テナントの構築要求のメッセージの一例を示す説明図である。 図7は、新規テナント用の仮想システム情報の記憶内容の一例を示す説明図である。 図8は、トンネリング設定情報の記憶内容の一例を示す説明図である。 図9は、運用ポリシーの設定要求の一例を示す説明図である。 図10は、新規テナントの構築要求が行われた場合の各テナントの状態例を示す説明図である。 図11は、新規テナントの構築要求が行われた場合のクラウドシステムの状態例を示す説明図である。 図12は、新規テナントの構築要求が行われた場合の構築先DCの選択例を示す説明図である。 図13は、新規テナントの構築要求が行われた場合の移行対象構成の選択例を示す説明図である。 図14は、新規テナントの構築要求が行われた場合の選択結果に従った移行処理例を示す説明図(その1)である。 図15は、新規テナントの構築要求が行われた場合の選択結果に従った移行処理例を示す説明図(その2)である。 図16は、新規テナントの構築要求が行われた場合の移行処理の結果を示す説明図である。 図17は、新規テナントの構築要求が行われた場合のリソース配備処理手順の一例を示すフローチャートである。 図18は、構築先DC選択処理手順の一例を示すフローチャートである。 図19は、移行対象構成選択処理手順の一例を示すフローチャートである。 図20は、移行対象構成の移行指示処理手順の一例を示すフローチャートである。 図21は、新規テナントの構築指示処理手順の一例を示すフローチャートである。 図22は、運用ポリシーの設定要求が行われた場合のクラウドシステムの状態例を示す説明図である。 図23は、運用ポリシーの設定要求が行われた場合の運用ポリシーの変更を反映した状態を示す説明図である。 図24は、運用ポリシーの設定要求が行われた場合のテナントの移行先DCの選択例を示す説明図である。 図25は、運用ポリシーの設定要求が行われた場合の選択結果に従った移行処理例を示す説明図(その1)である。 図26は、運用ポリシーの設定要求が行われた場合の選択結果に従った移行処理例を示す説明図(その2)である。 図27は、運用ポリシーの設定要求が行われた場合の移行処理の結果を示す説明図である。 図28は、運用ポリシーの設定要求が行われた場合のリソース配備処理手順の一例を示すフローチャートである。 図29は、運用ポリシー適用処理手順の一例を示すフローチャートである。
以下に添付図面を参照して、開示のリソース管理システム、リソース管理方法、およびリソース管理プログラムの実施の形態を詳細に説明する。
図1は、本実施の形態にかかるリソース管理システムの動作例を示す説明図である。リソース管理システム100は、複数のDC(Data Center)を有するシステムである。リソース管理システム100は、ユーザからの要求に応じて、複数のDCのリソースの中から、ユーザの要求を満たすシステムを構築して、ユーザに提供するシステムである。リソース管理システム100内にあるリソース管理装置101は、複数のDCを制御するコンピュータである。
DCは、各種のコンピュータやデータ通信などの装置を運用する装置を備えている。以下、ユーザからの要求に応じて構築される各システムを、「テナント」と称する。DCは、CPU(Central Processing Unit)や、ストレージ等のリソース等を含む。そして、DCのリソースにより実現される構成により、システムの機能が実現される。DCのリソースにより実現される構成としては、たとえば、仮想的な装置である仮想マシン(VM:Virtual Machine)や、論理ボリュームが挙げられる。
リソース管理システム100内のリソース管理装置101は、新たなテナントを構築できない場合に、第1のDCのリソースを利用して実現される構成を第2のDCに移行しても、構築済のテナントの性能情報を満たすか否かを判断する。構築済のテナントの性能情報を満たす場合、リソース管理装置101は、該当の構成を第1のDCから第2のDCに移行した結果、第1のDCのリソースを利用して実現される構成により新たなシステムを構築する。この動作について、図1の(A)〜図1の(C)を用いて説明する。
図1の(A)にて、リソース管理システム100は、DC1とDC2を有する。DC1は、構成として、VM1−1、ボリュームVO1−1、ボリュームVO1−2を有する。さらに、DC1は、VM1−1とボリュームVO1−1とから構築されるテナントTaを有する。図1では、テナントが行うサービスを模式的に店舗のイラストにて示す。たとえば、店舗Saは、VM1−1とボリュームVO1−1を用いて提供されるサービスである。
また、DC2は、構成として、VM2−1、VM2−2、ボリュームVO2−1、ボリュームVO2−2を有する。さらに、DC2は、VM2−1とボリュームVO2−1とから構築されるテナントTbを有する。店舗Sbは、VM2−1とボリュームVO2−1を用いて提供されるサービスである。リソース管理装置101は、VM1つとボリューム1つというTaの性能情報と、VM1つとボリューム1つというTbの性能情報と、を記憶する。
このような状態で、リソース管理装置101は、第1のDCとしてDC1に、1つのVMと、1つのボリュームから構成される新規テナントTcの構築要求を行う。しかしながら、DC1には、利用されていないVMがないため、新規テナントTcが構築できない。
次に、図1の(B)にて、新規テナントTcが構築できない場合に、リソース管理装置101は、Taの性能情報を参照して、DC1のリソースを利用して実現される構成を第2のDCとしてDC2に移行してもTaの性能情報を満たすか否かを判断する。図1の(B)では、リソース管理装置101は、DC1内のVM1−1をDC2内のVM2−2に移行してもVM1つとボリューム1つというTaの性能情報を満たすと判断する。Taの性能情報を満たすと判断した場合、リソース管理装置101は、VM1−1をDC2内のVM2−2に移行する。これにより、Taは、VM2−2とボリュームVO1−1から構築されることになる。
続けて、図1の(C)にて、VM1−1をDC2内のVM2−2に移行した結果、VM1−1を実現していたリソースが解放されたため、リソース管理装置101は、VM1−1とボリュームVO1−2によりテナントTcを構築する。
(クラウドシステムのシステム構成例)
次に、図1に示したリソース管理システム100をクラウドシステムに適用した場合について説明する。
図2は、クラウドシステムのシステム構成例を示す説明図である。クラウドシステム200は、リソース管理装置101と、DC1〜DC3と、ユーザ用端末211と、管理用端末212と、を含む。リソース管理装置101とDC1〜DC3とは、ネットワーク201にてそれぞれ接続される。また、図2では図示していないが、リソース管理装置101は、ユーザ用端末211と、管理用端末212とも、ネットワークにてそれぞれ接続される。DC1〜DC3は、ルータr1、ルータr2、ルータr3により接続される。
DC1は、ルータr1と、コアスイッチcsw1と、スイッチsw10と、スイッチsw11と、物理マシンpm10と、物理マシンpm11と、ストレージ装置st10と、ストレージ装置st11と、を含む。続けて、DC1内の接続関係について説明する。ルータr1は、コアスイッチcsw1と接続する。コアスイッチcsw1は、ルータr1と、スイッチsw10と、スイッチsw11とに接続する。スイッチsw10は、コアスイッチcsw1と、物理マシンpm10と、物理マシンpm11とに接続する。スイッチsw11は、コアスイッチcsw1と、ストレージ装置st10と、ストレージ装置st11とに接続する。
DC2は、ルータr2と、コアスイッチcsw2と、スイッチsw20と、スイッチsw21と、物理マシンpm20と、物理マシンpm21と、ストレージ装置st20と、ストレージ装置st21と、を含む。DC2内の接続関係は、DC1内の接続関係において、符号“1x”が“2x”に置き換わったものと同一であるため、説明は省略する。
DC3は、ルータr3と、コアスイッチcsw3と、スイッチsw30と、スイッチsw31と、物理マシンpm30と、ストレージ装置st30と、を含む。続けて、DC3内の接続関係について説明する。ルータr3は、コアスイッチcsw3と接続する。コアスイッチcsw3は、ルータr3と、スイッチsw30と、スイッチsw31とに接続する。スイッチsw30は、コアスイッチcsw3と、物理マシンpm30に接続する。スイッチsw31は、コアスイッチcsw3と、ストレージ装置st30とに接続する。
ルータr1〜ルータr3は、ネットワーク間を相互接続する装置である。以下、ネットワークを、単に、「NW」と記載する場合がある。スイッチsw10〜スイッチsw31は、パケットの交換機能を持った装置である。コアスイッチは、スイッチの一種であり、中心的なネットワーク内部でのデータ転送や、データの中継に用いられる装置である。
物理マシンpm10〜物理マシンpm30は、5つのVMを実行することができる。また、ストレージ装置st10〜ストレージ装置st30は、1つ200[GB]のボリュームVOを5つ生成することができる。以下、テナントを構築する構成は、該当の構成の符号の後ろに、テナントの符号を結合することにより表すこととする。たとえば、テナントTaを構築する1番目のVMは、VMa1と表記する。
また、リソース管理装置101は、クラウドシステム200内に、テナントTa、テナントTb、テナントTcという3つのテナントを構築する。テナントTaは、物理マシンpm10のVMa1〜VMa5と、ストレージ装置st10のボリュームVOa1〜ボリュームVOa5により構築される。テナントTbは、物理マシンpm20のVMb1〜VMb5と、物理マシンpm21のVMb6と、ストレージ装置st20のボリュームVOb1〜ボリュームVOb5と、ストレージ装置st21のボリュームVOb6により構築される。テナントTcは、物理マシンpm30のVMc1〜VMc3と、ストレージ装置st30のボリュームVOc1〜ボリュームVOc3により構築される。
ユーザ用端末211は、ユーザによって操作される端末である。ユーザ用端末211は、ユーザの操作によって、新規テナントの構築要求221をリソース管理装置101に送信する。新規テナントの構築要求221の具体例は、図6にて後述する。管理用端末212は、クラウドシステム200の管理者によって操作される端末である。管理用端末212は、管理者の操作によって、運用ポリシーの設定要求222をリソース管理装置101に送信する。運用ポリシーの設定要求222の具体例は、図9にて後述する。
(リソース管理装置のハードウェア)
図3は、リソース管理装置のハードウェア構成例を示すブロック図である。図4において、リソース管理装置101は、CPU301と、ROM(Read‐Only Memory)302と、RAM(Random Access Memory)303と、を含む。また、リソース管理装置101は、ディスクドライブ304およびディスク305と、通信インターフェース306と、を含む。また、CPU301〜通信インターフェース306はバス307によってそれぞれ接続される。また、図3では図示していないが、ルータr1〜ルータr3、コアスイッチcsw1〜コアスイッチcsw3、スイッチsw10〜スイッチsw31、物理マシンpm10〜ストレージ装置st30も、リソース管理装置101と同様のハードウェアを有する。
CPU301は、リソース管理装置101の全体の制御を司る演算処理装置である。ROM302は、ブートプログラムなどのプログラムを記憶する不揮発性メモリである。RAM303は、CPU301のワークエリアとして使用される揮発性メモリである。
ディスクドライブ304は、CPU301の制御に従ってディスク305に対するデータのリードおよびライトを制御する制御装置である。ディスクドライブ304には、たとえば、磁気ディスクドライブ、ソリッドステートドライブなどを採用することができる。ディスク305は、ディスクドライブ304の制御で書き込まれたデータを記憶する不揮発性メモリである。たとえばディスクドライブ304が磁気ディスクドライブである場合、ディスク305には、磁気ディスクを採用することができる。また、ディスクドライブ304がソリッドステートドライブである場合、ディスク305には、半導体素子メモリを採用することができる。
通信インターフェース306は、NW201と内部のインターフェースを司り、他の装置からのデータの入出力を制御する制御装置である。具体的に、通信インターフェース306は、通信回線を通じてNW201となるLAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどに接続され、NW201を介して他の装置に接続される。通信インターフェース306には、たとえば、モデムやLANアダプタなどを採用することができる。また、リソース管理装置101は、光ディスクドライブ、光ディスク、キーボード、マウスを有していてもよい。また、ユーザ用端末211と、管理用端末212も、光ディスクドライブ、光ディスク、キーボード、マウスを有していてもよい。
(リソース管理装置101の機能)
次に、リソース管理装置101の機能について説明する。図4は、リソース管理装置の機能構成例を示すブロック図である。リソース管理装置101は、受付部401と、判断部402と、負荷量算出部403と、通信量算出部404と、選択部405と、構築部406と、を含む。制御部となる受付部401〜構築部406は、記憶装置に記憶されたプログラムをCPU301が実行することにより、受付部401〜構築部406の機能を実現する。記憶装置とは、具体的には、たとえば、図3に示したROM302、RAM303、ディスク305などである。
また、リソース管理装置101は、記憶部410にアクセス可能である。記憶部410は、RAM303、ディスク305といった記憶装置に格納される。また、記憶部410は、ユーザからの要求に応じたテナントの性能情報を記憶するテナントの仮想システム情報411、トンネリング設定情報412を含む。また、記憶部410は、複数の構成の各々の構成間で発生した通信量を記憶していてもよい。テナントの仮想システム情報411の記憶内容の一例は、図5にて後述する。トンネリング設定情報412の記憶内容の一例は、図8にて後述する。
受付部401は、ユーザ用端末211から、新規テナントの構築要求221を受け付ける。また、受付部401は、管理用端末212から、運用ポリシーの設定要求222を受け付ける。受け付けた新規テナントの構築要求221、運用ポリシーの設定要求222は、RAM303、ディスク305などの記憶領域に記憶される。
判断部402は、記憶部410に記憶される性能情報を参照して、第1のDCのリソースを利用して実現される第1のテナントの一部の機能構成を第2のDCのリソースを利用して実現しても第1のテナントに対応する第1の性能情報を満たすか否かを判断する。また、判断部402は、受付部401によって新規テナントの構築要求221を受け付けた結果、複数のDCのいずれか一つのDCに新たなテナントを構築できない場合に、判断を行ってもよい。さらに、判断部402は、受付部401によって運用ポリシーの設定要求222を受け付けた結果、複数のDCのいずれか一つのDCにて、リソースが利用できなくなって構築できなくなった新たなテナントがある場合に、判断を行ってもよい。なお、判断結果は、RAM303、ディスク305などの記憶領域に記憶される。
負荷量算出部403は、次に記述する場合、第1の構成を第2のDCに移行する処理にかかる負荷量と、第2の構成を第2のDCに移行する処理にかかる負荷量とを算出する。次に記述する場合とは、判断部402によって第1のDCのリソースを利用して実現される第1の構成または第2の構成を第2のDCに移行しても第1の性能情報を満たすと判断された場合である。負荷量は、たとえば、移行するデータサイズに基づいて算出されてもよい。負荷量の算出例は、図12にて後述する。
また、負荷量算出部403は、選択部405によって選択された移行対象構成を第2のDCとは異なる第3のDCに移行しても第1の性能情報を満たすと判断された場合、移行対象構成を第3のDCに移行する処理にかかる負荷量を算出してもよい。
また、負荷量算出部403は、次に示す場合、構成を第2のDCに移行する処理にかかる負荷量と、構成を第3のDCに移行する処理にかかる負荷量とを算出してもよい。次に示す場合とは、判断部402によって第1のDCのリソースを利用して実現される構成を第2のDCまたは第3のDCに移行しても第1の性能情報を満たすと判断された場合である。
また、負荷量算出部403は、さらに、第1のDCのリソースを利用して実現される構成とは異なる他の構成を移行先DCに移行しても第1の性能情報を満たすと判断された場合、他の構成を移行先DCに移行する処理にかかる負荷量を算出してもよい。算出された負荷量は、RAM303、ディスク305などの記憶領域に記憶される。
通信量算出部404は、記憶部410に記憶される通信量に基づいて、第1の構成を第2のDCに移行した後に第1のDCと第2のDCとの間で発生する通信量を算出する。さらに、通信量算出部404は、第2の構成を第2のDCに移行した後に第1のDCと第2のDCとの間で発生する通信量とを算出する。通信量の算出例は、図13にて後述する。なお、算出された通信量は、RAM303、ディスク305などの記憶領域に記憶される。
選択部405は、負荷量算出部403によって算出された算出結果に基づいて、第1の構成または第2の構成のうち第1のDCから第2のDCに移行する移行対象構成を選択する。たとえば、第1の構成を第2のDCに移行する処理にかかる負荷量として、移行するデータサイズが、30[MB]であり、第2の構成を第2のDCに移行する処理にかかる負荷量として、移行するデータサイズが、20[MB]であるとする。この場合、選択部405は、負荷量が小さい第1の構成を移行対象構成として選択する。
また、選択部405は、負荷量算出部403によって算出された算出結果に基づいて、第2のDCまたは第3のDCのうち移行対象構成の移行先DCを選択してもよい。また、選択部405は、通信量算出部404によって算出された算出結果に基づいて、第1の構成または第2の構成のうち第1のDCから第2のDCに移行する移行対象構成を選択してもよい。また、選択部405は、負荷量算出部403によって算出された算出結果に基づいて、第2のDCまたは第3のDCのうち構成を移行する移行先DCを選択してもよい。また、選択部405は、負荷量算出部403によって算出された算出結果に基づいて、構成または他の構成のうち移行先DCに移行する移行対象構成を選択してもよい。なお、算出された通信量は、RAM303、ディスク305などの記憶領域に記憶される。
構築部406は、判断部402によって性能情報を満たすと判断された場合、第2のDCのリソースを利用して一部の機能を実現することで、第1の性能情報を満たす構成テナントを第1のDCのリソースと第2のDCのリソースとを利用して構築する。構成テナントとは、新しく構成されるテナントである。具体的に、構築部406は、通信用のトンネリング設定情報412を作成して、構成を第1のDCから第2のDCに移行して、第1のDCの空きリソースとなったリソースを利用して実現される構成により新たなテナントを構築する。また、新たなテナントが2つ以上のDCのリソースを利用する場合、構築部406は、サービス用のトンネリング設定情報412を作成する。
また、構築部406は、第2のDCのリソースを利用して選択部405によって選択された移行対象構成を実現することで、第1の性能情報を満たす構成テナントを第1のDCのリソースと第2のDCのリソースとを利用して構築してもよい。また、構築部406は、選択部405によって選択された移行先DCのリソースを利用して移行対象構成を実現することで、第1の性能情報を満たす構成テナントを第1のDCのリソースと移行先データセンタのリソースとを利用して構築してもよい。また、構築部406は、選択部405によって選択された移行先データセンタのリソースを利用して構成を実現することで、第1の性能情報を満たす構成テナントを第1のDCのリソースと移行先DCのリソースとを利用して構築してもよい。また、構築部406は、移行先DCのリソースを利用して選択部405によって選択された移行対象構成を実現することで、第1の性能情報を満たす構成テナントを第1のDCのリソースと移行先DCのリソースとを利用して構築してもよい。
図5は、テナントの仮想システム情報の記憶内容の一例を示す説明図である。図5に示すテナントの仮想システム情報411は、レコード501−1〜レコード501−3を有する。テナントの仮想システム情報411は、テナントIDと構成IDという2つのフィールドを有する。テナントIDフィールドには、テナントを一意に識別する識別情報が格納される。構成IDフィールドには、テナントを構築する構成を識別する識別情報が格納される。
たとえば、レコード501−1は、テナントIDがTaであるテナントがDC1内の物理マシンpm10のVMa1〜VMa5と、DC1内の物理マシンpm11のVMa6と、DC1内のストレージ装置st10により構築されることを示す。
図6は、新規テナントの構築要求のメッセージの一例を示す説明図である。図6に示す新規テナントの構築要求221のメッセージは、XML(Extensible Markup Language)により表現される。新規テナントの構築要求221のメッセージは、仮想システムが要求する性能情報を記憶する。
以下、図6に示す新規テナントの構築要求221のメッセージが記憶する性能情報について説明する。性能情報の一つであるVMのタイプは、<Machine>タグ内の、<RequiredType>タグ内に記憶される。VMのタイプは、VM1つの処理性能を表す。たとえば、VMのタイプに大きい値が設定された場合、該当のVMを実行するCPUの個数が多くなる。また、性能情報の一つであるVMの個数は、<Machine>タグ内の、<RequiredNumber>タグで示される。
さらに、性能情報の一つであるVMが用いるボリュームサイズは、<Volume>タグ内の、<RequiredSize>タグで示される。また、性能情報の一つであるNW帯域は、<Network>タグ内の、<RequiredBandwidth>タグで示される。さらに、性能情報の一つであるNW遅延時間は、<RequiredMaxTrafficDelay>タグで示される。
図7は、新規テナント用の仮想システム情報の記憶内容の一例を示す説明図である。新規テナント用の仮想システム情報701は、構築要求のあった新規テナント用の仮想システムの構成の一覧を記憶する。図7に示す新規テナント用の仮想システム情報701は、レコード701−1〜レコード701−6を記憶する。
新規テナント用の仮想システム情報701は、構成IDと、構成構築先という2つのフィールドを有する。構成IDフィールドには、新規テナント用に構築された仮想システムの構成の識別情報が格納される。構成構築先フィールドには、構築された構成を実現するリソースの識別情報が格納される。
たとえば、レコード701−1は、新規テナント用に構築された仮想システムの構成IDがVMx1となるVMが、DC1内の物理マシンpm10内にあることを示す。また、レコード701−6は、新規テナント用に構築された仮想システムの構成IDがボリュームx1となるボリュームが、DC1内のストレージ装置st11に接続されたストレージに確保されたことを示す。
図8は、トンネリング設定情報の記憶内容の一例を示す説明図である。トンネリング設定情報412は、構成の移行時の通信用として、または仮想システムが複数のDCにより構築された場合に、サービス通信用として設定される。図8に示すトンネリング設定情報412は、レコード801−1〜レコード801−12を記憶する。
トンネリング設定情報412は、設定元、トンネリング先IP(Internet Protocol)アドレスという2つのフィールドを含む。設定元フィールドには、トンネリング設定情報412が設定される構成の識別情報が格納される。構成の識別情報は、構成を一意に特定できるように割り振られるIPアドレスを用いてもよい。トンネリング先IPアドレスフィールドには、通信先となる異なるセグメントの構成のIPアドレスが格納される。
たとえば、レコード801−1は、VMa2からVMa1の通信用として、DC1内の物理マシンpm10のVMa2から、異なるセグメントとなるDC2内の物理マシンpm21のVMa1へのトンネリング設定であることを示す。また、レコード801−2は、VMa1からVMa2の通信用として、DC2内の物理マシンpm21のVMa1から、異なるセグメントとなるDC1内の物理マシンpm10のVMa2へのトンネリング設定であることを示す。
図9は、運用ポリシーの設定要求の一例を示す説明図である。運用ポリシーの設定要求222は、システム管理者が操作する管理用端末212から発行される。図9に示す運用ポリシーの設定要求222は、DC3内の物理マシンpm30の保守要求である。
図10は、新規テナントの構築要求が行われた場合の各テナントの状態例を示す説明図である。図10では、クラウドシステム200が、テナントTa、テナントTb、テナントTcが構築済みであり、新規テナントTxの構築要求を受けた状態を示す。ここで、説明の簡略化のため、テナントTa〜テナントTc、テナントTxが要求するVMのタイプはmediumとする。VMのタイプがmediumである場合、該当のVMに割り当てられるCPU数は1であり、VMに割り当てられるメモリサイズは1[GB]であり、VMが使用するボリュームサイズは0.04[TB]である。
また、新規テナントTxが要求する性能情報は、VM数が5個であり、ボリュームサイズが1.0[TB]であり、NW帯域が4[Gbps]であり、NW遅延時間が2[ms]である。
図11は、新規テナントの構築要求が行われた場合のクラウドシステムの状態例を示す説明図である。図11では、クラウドシステム200が有するDC1、DC2、DC3の空きリソースの状態を示す。たとえば、DC1は、空VM数が4であり、空ストレージ領域が1[TB]であり、空NW帯域が9[Gbps]であり、NW遅延時間が1[ms]である。また、DC1とDC2間の利用可能NW帯域は、5[Gbps]であり、DC1とDC2のNW平均遅延時間は、5[ms]である。さらに、DC1とDC3間の利用可能NW帯域は、5[Gbps]であり、DC1とDC3のNW平均遅延時間は、13[ms]である。利用可能NW帯域は、NW帯域から、現在使用されるNW帯域を減じたものである。
図12は、新規テナントの構築要求が行われた場合の構築先DCの選択例を示す説明図である。リソース管理装置101は、Txの構築先DC候補となるDCを列挙して、構築先DC候補の空リソースとTxの性能情報との差分と、移行コストを算出する。Txの構築先DC候補ごとの構築先DC候補の空リソースとTxの性能情報との差分と、移行コストとを、表1201に示す。
表1201は、テナントを構築するDC、構築先DC候補の空リソース状況、Txの性能情報、構築先DC候補の空リソースとTxの性能情報との差分、移行コストという5つのフィールドを有する。構築先DC候補の空リソース状況フィールドは、空VM数、空ストレージ領域、空NW帯域、NW総遅延時間という4つのサブフィールドを有する。Txの性能情報フィールドは、VM数、ボリュームサイズ、NW帯域、NW遅延時間という4つのサブフィールドを有する。構築先DC候補の空リソースとTxの性能情報との差分フィールドは、VM数、ボリュームサイズ、NW帯域、NW遅延時間という4つのサブフィールドを有する。
テナントを構築するDCフィールドには、テナントの構築先DC候補となるDCの識別情報が格納される。移行コストフィールドには、構築先DC候補にテナントを構築したときに発生する、他のテナントの構成の移行にかかる負荷量が格納される。
構築先DC候補の空リソース状況フィールドの4つのサブフィールドと、Txの性能情報フィールドの4つのサブフィールドとには、図6、図10で示したテナントの性能情報がそれぞれ格納される。また、構築先DC候補の空リソースとTxの性能情報との差分フィールドの4つのサブフィールドには、構築先DC候補の空リソース状況フィールドの4つのサブフィールドの値と、Txの性能情報フィールドのうち対応するサブフィールドの値の差分が格納される。
また、図12に示す表1201は、レコード1201−1〜レコード1201−6を有する。レコード1201−1は、Txの構築先DC候補をDC1とした場合の構築先DC候補の空リソースとTxの性能情報との差分と、移行コストを示す。同様に、レコード1201−2はTxの構築先DC候補がDC2である場合を示し、レコード1201−3はTxの構築先DC候補がDC3である場合を示す。レコード1201−4はTxの構築先DC候補がDC1とDC2である場合を示す。レコード1201−5はTxの構築先DC候補がDC1とDC3である場合を示す。レコード1201−6はTxの構築先DC候補がDC2とDC3である場合を示す。Txの構築先DC候補が、3つ以上のDCとなってもよい。
構築先DC候補の空リソースとTxの性能情報との差分フィールドの各サブフィールドの値は、以下の式により算出される。
VM数=空VM数−Txの性能情報によるVM数
ボリュームサイズ=空ストレージ領域−Txの性能情報によるボリュームサイズ
NW帯域=空NW帯域−Txの性能情報によるNW帯域
NW遅延時間=Txの性能情報によるNW遅延時間−NW総遅延時間
1つのDCにより構築されるテナントでの空NW帯域は、該当のDCの利用可能NW帯域の値となり、NW総遅延時間は、該当のDCのNW遅延時間の値となる。また、複数のDCにより構築されるテナントでの空NW帯域と、NW総遅延時間の算出手順については、下記(1)式と(2)式により算出できる。
空NW帯域=Min(各々のDCの空NW帯域,DC間の利用可能NW帯域) …(1)
NW総遅延時間=Σ(各々のDCのNW遅延時間,DC間のNW平均遅延時間) …(2)
ただし、Min()は、引数内の最小値を出力する関数である。たとえば、Txの構築先DC候補がDC1とDC2である場合の空NW帯域は、(1)式を適用して、以下のように算出される。
空NW帯域=Min(DC1の空きNW帯域,DC2の空きNW帯域,DC1とDC2間の利用可能NW帯域)
空NW帯域=Min(9,9,5)=5[Mbps]
同様に、Txの構築先DC候補がDC1とDC2である場合のNW総遅延時間は、(2)式を適用して、以下のように算出される。
NW総遅延時間=Σ(DC1のNW遅延時間,DC2のNW遅延時間,DC1とDC2のNW平均遅延時間)
NW総遅延時間=Σ(1,1,5)=1+1+5=7[ms]
また、移行コストは、下記(3)式により算出できる。
移行コスト=VMの不足数*(VMのメモリサイズ+VMのボリュームサイズ)+ストレージの不足サイズ …(3)
なお、移行コストの算出式は、(3)式に限られない。たとえば、移行コストの算出式は、(3)式の第3項としてNW帯域の不足量が追加された式でもよい。また、移行コストを算出する際に、NW遅延時間が負になった構築先DC候補は、構築先から除外する。理由として、NW遅延時間は、距離の影響が強く、構成を移行しても大きな改善が見られないためである。表1201により、NW遅延時間が負となる構築先DC候補は、DC1とDC2となる場合、DC1とDC3となる場合、DC2とDC3となる場合である。NW遅延時間が負になった構築先DC候補が構築先DCとして選択されないようにするため、リソース管理装置101は、たとえば、NW遅延時間が負になった構築先DC候補の移行コストを無限大に設定する。
たとえば、Txの構築先DC候補がDC1である場合の移行コストは、(3)式を適用して、以下のように算出される。
移行コスト=DC1のVMの不足数*(VMのメモリサイズ+VMのボリュームサイズ)+DC1のストレージの不足サイズ
移行コスト=1*(0.001+0.04)+0=0.041
リソース管理装置101は、たとえば、算出した移行コストのうち、最小の移行コストとなる構築先DC候補を、Txの構築先として選択する。図12の例では、リソース管理装置101は、DC1〜DC3から、Txの構築先としてDC1を選択する。次に、リソース管理装置101は、DC1に構築されるTxの構成のうち移行対象構成の選択処理と、移行先DCを選択する処理を実行する。移行対象構成の選択例と、移行先DCの選択例について、図13にて説明する。
図13は、新規テナントの構築要求が行われた場合の移行対象構成の選択例を示す説明図である。リソース管理装置101は、Taの各VMを移行候補として列挙して、VMごとに、該当のVMの移行先DCの候補と、該当のVMを移行するときの移行コストと、該当のVMを移行すると発生する通信コストを求める。VMごとの、該当のVMの移行先DCの候補と、該当のVMを移行するときの移行コストと、該当のVMを移行すると発生する通信コストを、表1301に示す。
表1301は、移行対象VM候補、移行先DC候補、移行した場合のTaを構築するDC、移行による性能情報違反の有無、移行コスト、移行後のDC間の通信コスト、という6つのフィールドを有する。また、表1301は、レコード1301−1〜レコード1301−12を有する。
移行対象VM候補フィールドは、移行候補となるVMの識別情報が格納される。移行先DC候補フィールドには、該当のVMの移行候補となるDCの識別情報が格納される。移行した場合のTaを構築するDCフィールドには、該当のVMが移行候補となるDCに移行した場合のTaを構築するDCの識別情報が格納される。移行による性能情報違反の有無フィールドには、該当のVMが移行候補となるDCに移行した場合に、Taの性能情報を満たすか否かを示す識別子が格納される。具体的に、移行による性能情報違反の有無フィールドには、Taの性能情報を満たすことを示す“無”識別子と、Taの性能情報を満たさないことを示す“有”識別子とが格納される。移行コストフィールドには、該当のVMを移行にかかる負荷量が格納される。移行後のDC間の通信コストフィールドには、該当のVMを移行した後に発生する、通信にかかる負荷量が格納される。
移行コストフィールドには、たとえば、下記(4)式により算出した値が格納されてもよい。
移行コスト=移行するVM数*(VMのメモリサイズ+VMのボリュームサイズ)+移行するストレージのサイズ …(4)
たとえば、レコード1301−1は、移行候補のVMがTa.VMa1であり、移行先DCがDC2である場合について示す。さらに、レコード1301−1は、Ta.VMa1が、DC2に移行することにより、移行後のTaは、DC1とDC2のリソースを利用して構築されることになることを示す。さらに、レコード1301−1は、VMがDC2に移行したとき、性能情報を満たすことを示す。
一方、レコード1301−2は、移行候補のVMがTa.VMa1であり、移行先DCがDC3である場合について示す。さらに、レコード1301−2は、Ta.VMa1が、DC3に移行することにより、移行後のTaは、DC1とDC3のリソースを利用して構築されることになることを示す。さらに、レコード1301−2は、VMがDC3に移行したとき、性能情報を満たさないことを示す。具体的に、DC1とDC3のリソースを利用して構築されるTaは、図12に示したレコード1201−6によりNW総遅延時間が15[ms]であり、図11等で示したようにTaのNW遅延時間は8[ms]であるから、Taの性能情報を満たさない。
また、レコード1301−1は、(4)式により算出された移行コストが0.041であることを示す。図13の例では、レコード1301−1に格納された移行コストは、以下のように算出される。
移行コスト=移行するVM数*(VMのメモリサイズ+VMのボリュームサイズ)+移行するストレージのサイズ
移行コスト=1*(0.001+0.04)+0=0.041
また、レコード1301−1は、通信コストとして、110[Kpkts]であることを示す。なお、Kpktsは、1000パケットを意味する。通信コストフィールドには、前述の例のような、Ta内での構成間の通信量が格納されていてもよい。Ta内での構成間の通信量は、一定期間Ta内での構成間で発生した通信量を記録してもよい。表1302は、移行対象VM候補を1レコードとして、一定期間Ta内での構成間で発生した通信量を示す。図13に示す表1302は、レコード1302−1〜レコード1302−6を有する。
表1302は、移行対象VM候補の通信先、総通信量という2つのフィールドを含む。移行対象VM候補の通信先フィールドは、Ta内の構成ごとに、該当の構成と移行対象VMとの通信量を格納するサブフィールドを有する。総通信量フィールドには、該当の構成と移行対象VMとの通信量の和が格納される。
さらに、レコード1301−1は、VMa1と各構成との通信量の和が110[Kpkts]であることを示す。
リソース管理装置101は、レコード1302−1〜レコード1302−6の総通信量フィールドの値を、レコード1301−1、3、5、7、9、11の移行後のDC間の通信コストフィールドの値として格納する。
以上、レコード1301−1〜レコード1301−12の各値について説明したところで、リソース管理装置101が行う移行対象構成の選択例について説明する。リソース管理装置101は、表1301を参照して、次の3つの条件に当てはまるレコードを選択し、移行対象VMとして、選択したレコードの移行対象VM候補フィールドに設定されたVMを選択する。また、リソース管理装置101は、移行先DCとして、選択したレコードの移行先DC候補フィールドに設定されたDCを選択する。
1つ目の条件は、移行による性能情報違反の有無フィールドの値が“無”となるレコードである。2つ目の条件は、移行コストフィールドの値が最小となるレコードである。3つ目の条件は、移行後のDC間の通信コストの値が最小となるレコードである。リソース管理装置101は、1つ目の条件により選択したレコードが1つであれば、移行対象VMとして、選択したレコードの移行対象VM候補フィールドに設定されたVMを選択し、移行先DCとして、移行先DC候補フィールドに設定されたDCを選択する。また、リソース管理装置101は、1つ目の条件により選択したレコードが複数あれば、さらに2つ目の条件と、3つ目の条件を用いてレコードを絞り込んでもよい。
また、図13の例では、移行すべきVMが1つである場合について説明した。移行すべきVMが2つ以上有る場合の移行コストは、それぞれのVMの移行コストを加算すればよい。たとえば、VMa1とVMa2をDC2に移行する場合の移行コストは、0.041+0.041=0.082となる。また、移行すべきVMが2つ以上有る場合の通信コストは、それぞれのVMの通信コストを加算し、移行先VMが同一であれば、それぞれのVM間で発生した通信量を減ずればよい。たとえば、VMa1とVMa2をDC2に移行する場合の通信コストは、110+220−50−50=230[Kpkts]となる。
図13の例では、移行による性能情報違反の有無フィールドの値が“無”であり、移行コストと移行後のDC間の通信コストが最小値となるレコード1301−1を選択する。したがって、リソース管理装置101は、移行対象VMとしてVMa1を選択し、移行先DCとしてDC2を選択する。次に、図14と図15を用いて、VMa1をDC2に移行する場合の処理を説明する。
図14は、新規テナントの構築要求が行われた場合の選択結果に従った移行処理例を示す説明図(その1)である。(1)番目の処理として、リソース管理装置101は、移行用のトンネリング設定情報412を作成する。具体的に、リソース管理装置101は、移行元構成から移行先構成への移行用のトンネリング設定情報412として、レコード1401−1を作成する。また、リソース管理装置101は、移行先構成から移行元構成への移行用のトンネリング設定情報412として、レコード1402−1を作成する。レコード1401−1、レコード1402−1の作成後、リソース管理装置101は、レコード1401−1、レコード1402−1を物理マシンpm10内のVMa1と、物理マシンpm21内のVMa1に送信し、トンネリングを作成させる。
なお、本実施の形態におけるトンネリング設定情報412は、仮想マシン間でのトンネリングを行うため、仮想マシンまでのアドレスを格納する。もし、仮想マシン間でのトンネリングが行えない場合、トンネリング設定情報412は、物理マシンまでのアドレスを格納しておき、物理マシン間でのトンネリングを行ってもよい。
(2)番目の処理として、リソース管理装置101は、VMの移行を実施する。リソース管理装置101は、移行対象VMとなるVMa1を、移行元リソースとなるDC1内の物理マシンpm10から移行先リソースとなるDC2内の物理マシンpm21に移行する。リソース管理装置101は、移行が終わったら、物理マシンpm10内のVMa1と、物理マシンpm21内のVMa1に対し、作成したトンネリングを削除させる。
図15は、新規テナントの構築要求が行われた場合の選択結果に従った移行処理例を示す説明図(その2)である。図15の状態は、VMa1の移行が終了した状態である。リソース管理装置101は、Ta内の各構成を同一のセグメントと見なすために、Taを運用するためのサービス用のトンネリングを設定する。具体的に、リソース管理装置101は、各構成から移行したVMa1へのTaのサービス用のトンネリング設定情報412として、レコード1501−1〜レコード1501−6を作成する。また、リソース管理装置101は、移行したVMa1から各構成へのTaのサービス用のトンネリング設定情報412として、レコード1502−1〜レコード1502−6を作成する。作成後、リソース管理装置101は、対応する物理マシン内の各構成に、作成したレコード群を送信し、トンネリングを作成させる。
図16は、新規テナントの構築要求が行われた場合の移行処理の結果を示す説明図である。図16では、Txが構築されたことにより、DC1の空きVM数が0となり、空きストレージ領域が0[TB]となり、空きNW帯域が、9[Gbps]から、Txの性能情報である4[Gbps]を減じた、5[Gbps]となる。
次に、図17〜図21を用いて、新規テナントの構築要求221をトリガーとしたリソース配備処理のフローチャートを説明する。
図17は、新規テナントの構築要求が行われた場合のリソース配備処理手順の一例を示すフローチャートである。新規テナントの構築要求が行われた場合のリソース配備処理は、新規テナントの構築要求221をトリガーとして、複数のDCの中から新規テナント用のリソースを配備する処理である。
リソース管理装置101は、構築先DC選択処理を実行する(ステップS1701)。構築先DC選択処理の詳細は、図18にて後述する。次に、リソース管理装置101は、構築済のテナントの構成を移行すべきか否かを判断する(ステップS1702)。構築済のテナントの構成を移行すべきか否かは、構築先DC選択処理で選択された構築先DCの移行コストの値によって判断することができる。具体的に、移行コストの値は、0より大きければ、何らかの構成を移行させなければ、新規テナントを構築できないことを示し、0であれば、構成を移行させなくても、新規テナントを構築できることを示す。
構築済のテナントの構成の移行を行う場合(ステップS1702:Yes)、リソース管理装置101は、移行対象構成選択処理を実行する(ステップS1703)。移行対象構成選択処理の詳細は、図19にて後述する。
ステップS1703の実行後、または構築済のテナントの構成の移行を行わない場合(ステップS1702:No)、リソース管理装置101は、移行対象構成があるか否かを判断する(ステップS1704)。移行対象構成がある場合(ステップS1704:Yes)、リソース管理装置101は、移行対象構成の移行指示処理を実行する(ステップS1705)。移行対象構成の移行指示処理の詳細は、図20にて後述する。
ステップS1705の実行後、または移行対象構成がない場合(ステップS1704:No)、リソース管理装置101は、新規テナントがあるか否かを判断する(ステップS1706)。新規テナントがある場合(ステップS1706:Yes)、リソース管理装置101は、新規テナントの構築指示処理を実行する(ステップS1707)。新規テナントの構築指示処理の詳細は、図21にて後述する。ステップS1707の実行後、または新規テナントがない場合(ステップS1706:No)、リソース管理装置101は、新規テナントの構築要求が行われた場合のリソース配備処理を終了する。新規テナントの構築要求が行われた場合のリソース配備処理を実行することにより、クラウドシステム200は、1つのDC内に新規テナントを構築できない場合でも、構築済のテナントの構成を移行することで、新規テナントを構築することができる。
図18は、構築先DC選択処理手順の一例を示すフローチャートである。構築先DC選択処理は、複数のDCの中から、新規テナントを構築するDCを選択する処理である。リソース管理装置101は、新規テナントの構築先DC候補となるDCの一覧を作成する(ステップS1801)。ステップS1801の処理は、図12の例で具体的に説明すると、表1201のテナントを構築するDCフィールドに格納されるDCの識別情報を取得する処理である。
次に、リソース管理装置101は、各構築先DC候補について、テナントの構築による、構築済のテナントの構成の移行コストを算出する(ステップS1802)。続けて、リソース管理装置101は、移行コストが最小となる構築先DC候補を選択する(ステップS1803)。ステップS1803の終了後、リソース管理装置101は、構築先DC選択処理を終了する。構築先DC選択処理を実行することにより、クラウドシステム200は、複数のDCの中から、新規テナントを構築するDCを選択することができる。
図19は、移行対象構成選択処理手順の一例を示すフローチャートである。移行対象構成選択処理は、テナントを構築する構成の中から、移行対象構成を選択する処理である。リソース管理装置101は、移行対象構成候補と、移行先DC候補との組合せの一覧を作成する(ステップS1901)。ステップS1901の処理は、図13の例で具体的に説明すると、表1301の移行対象VM候補フィールドに格納されるVMの識別情報と、移行先DC候補フィールドに格納されるDCの識別情報との組合せを作成する処理である。
次に、リソース管理装置101は、移行対象構成候補と移行先DC候補の組合せについて、移行対象構成候補により構築されるテナントの性能情報違反の有無を判断する(ステップS1902)。続けて、リソース管理装置101は、移行対象構成候補と移行先DC候補の組合せから、移行コストが最小となる組合せを選択する(ステップS1903)。次に、リソース管理装置101は、移行コストが最小となる組合せから、DC間通信コストが最小となる組合せを選択する(ステップS1904)。ステップS1904の処理終了後、リソース管理装置101は、移行対象構成選択処理を終了する。移行対象構成選択処理を実行することにより、クラウドシステム200は、移行にかかる負荷量が小さく、さらに、移行後のDC間の通信量が少なくなる構成を移行対象構成として選択することができる。
図20は、移行対象構成の移行指示処理手順の一例を示すフローチャートである。移行対象構成の移行指示処理は、移行対象構成の移行指示を指示する処理である。リソース管理装置101は、移行用のトンネリング設定情報412を作成して、移行対象構成の移行元での物理マシンと移行対象構成の移行先での物理マシンに、移行用のトンネリングの設定指示を行う(ステップS2001)。次に、リソース管理装置101は、移行対象構成の移行元での物理マシンと移行対象構成の移行先での物理マシンに、移行対象構成の移行指示を行う(ステップS2002)。続けて、リソース管理装置101は、移行対象構成の移行元での物理マシンと移行対象構成の移行先での物理マシンに、移行用のトンネリングの削除指示を行う(ステップS2003)。次に、リソース管理装置101は、移行対象構成を有するテナントの各構成に、テナントのサービス用のトンネリングの作成指示を行う(ステップS2004)。ステップS2004の処理終了後、リソース管理装置101は、移行対象構成の移行指示処理を終了する。
構築済のテナントの構成の移行指示処理を実行することにより、クラウドシステム200は、複数のDCにより構築されたテナントについて、移行用のトンネリングを設定して同一セグメントと見なして、構成の移行を行うことができる。また、サービス用のトンネリングを設定して、クラウドシステム200は、同一セグメントと見なして該当のテナントをユーザに提供することができる。
図21は、新規テナントの構築指示処理手順の一例を示すフローチャートである。新規テナントの構築指示処理は、新規テナントを構築する指示を、物理マシンまたは構成に指示する処理である。リソース管理装置101は、物理マシンに、リソースの配備指示を行う(ステップS2101)。具体的に、物理マシンは、空リソースの中から、新規テナントを構築する構成を実現するリソースを確保する。
次に、リソース管理装置101は、新規テナントが複数のDCにより構築されるか否かを判断する(ステップS2102)。新規テナントが複数のDCにより構築される場合(ステップS2102:Yes)、リソース管理装置101は、新規テナントの各構成に、新規テナントのサービス用のトンネリングの作成指示を行う(ステップS2103)。ステップS2103の終了後、または新規テナントが複数のDCにより構築されていない場合(ステップS2102:No)、リソース管理装置101は、新規テナントの構築指示処理を終了する。
(運用ポリシーの設定要求)
次に、図22〜図29を用いて、運用ポリシーの設定要求が行われた場合のクラウドシステム200の動作について説明する。
図22は、運用ポリシーの設定要求が行われた場合のクラウドシステムの状態例を示す説明図である。図22でのクラウドシステム200の状態は、図16で示したクラウドシステム200の状態に等しい。この状態で、物理マシンpm30を保守するため、運用ポリシーの変更として、管理用端末212が、物理マシンの保守要求(DC3,pm30)を発行したとする。続けて、図23にて、運用ポリシーに従った状態について説明する。
図23は、運用ポリシーの設定要求が行われた場合の運用ポリシーの変更を反映した状態を示す説明図である。物理マシンの保守要求(DC3,pm30)を受け付けたリソース管理装置101は、運用ポリシーに従い、pm30を、テナントの構築先対象から除外する。したがって、クラウドシステム200は、pm30のリソースを利用して実現される構成であるTcのVMc1、TcのVMc2、TcのVMc3を移行対象構成として選択して、DC3以外の他のDCに移行することになる。図24にて、移行対象構成の移行先DCの選択例について説明する。
図24は、運用ポリシーの設定要求が行われた場合のテナントの移行先DCの選択例を示す説明図である。リソース管理装置101は、移行対象構成の移行先DC候補となるDCを列挙して、移行先DC候補の空リソースとTcの性能情報との差分と、移行コストを算出する。移行対象構成の移行先DC候補ごとの移行先DCの空リソースとTcの性能情報との差分と、移行コストとを、表2401に示す。表2401の各フィールドは、表1201にて示した、構築先DC候補が移行先DC候補に置き換わり、TxがTcに置き換わっただけであるため、説明を省略する。また、移行先DC候補の空リソースとTcの性能情報との差分フィールドの各サブフィールドの算出方法も、TxがTcに置き換わっただけであるため、説明を省略する。図24に示す表2401は、レコード2401−1〜レコード2401−3を有する。
図24の例では、リソース管理装置101は、Tcの構築先として、移行コストが最小となったDC2を選択する。次に、DC2の各構成の移行処理の例について、図25、図26にて説明する。
図25は、運用ポリシーの設定要求が行われた場合の選択結果に従った移行処理例を示す説明図(その1)である。(1)番目の処理として、リソース管理装置101は、移行用のトンネリング設定情報412を作成する。具体的に、リソース管理装置101は、移行元構成から移行先構成への移行用のトンネリング設定情報412として、レコード2501−1〜レコード2501−3を作成する。また、リソース管理装置101は、移行先構成から移行元構成への移行用のトンネリング設定情報412として、レコード2502−1〜レコード2502−3を作成する。次に、リソース管理装置101は、レコード2501−1〜レコード2501−3、レコード2502−1〜レコード2502−3を物理マシンpm30内のVMc1〜VMc3と、物理マシンpm21内のVMc1〜VMc3に送信し、トンネリングを作成させる。
(2)番目の処理として、リソース管理装置101は、VMの移行を実施する。リソース管理装置101は、移行対象VMとなる仮想マシンVMc1〜VMc3を、移行元リソースとなるDC3内の物理マシンpm30から移行先リソースとなるDC2内の物理マシンpm21に移行する。リソース管理装置101は、移行が終わったら、物理マシンpm30内のVMc1〜VMc3と、物理マシンpm21内のVMc1〜VMc3に対し、作成したトンネリングを削除させる。
図26は、運用ポリシーの設定要求が行われた場合の選択結果に従った移行処理例を示す説明図(その2)である。図26の状態は、VMc1〜VMc3の移行が終了した状態である。リソース管理装置101は、Tc内の各構成を同一のセグメントと見なすために、Tcを運用するためのサービス用のトンネリングを設定する。具体的に、リソース管理装置101は、移行したVMc1〜VMc3からストレージ装置st30へのTcのサービス用のトンネリング設定情報412として、レコード2601−1〜レコード2601−3を作成する。また、リソース管理装置101は、ストレージ装置st30から移行したVMc1〜VMc3へのTaのサービス用のトンネリング設定情報412として、レコード2602−1〜レコード2602−6を作成する。作成後、リソース管理装置101は、対応する物理マシン内の各構成に、作成したレコード群を送信し、トンネリングを作成させる。
図27は、運用ポリシーの設定要求が行われた場合の移行処理の結果を示す説明図である。図27では、TcがDCのリソースを利用して構築されたことにより、DC2の空きVM数が0となり、空きNW帯域が、9[Gbps]から、Tbの性能情報である1[Gbps]を減じた、8[Gbps]となる。
次に、運用ポリシーの設定要求222をトリガーとしたリソース配備処理のフローチャートを説明する。
図28は、運用ポリシーの設定要求が行われた場合のリソース配備処理手順の一例を示すフローチャートである。運用ポリシーの設定要求が行われた場合のリソース配備処理は、運用ポリシーの設定要求222をトリガーとして、運用ポリシーの適用により移行することになった構成のリソースを配備する処理である。また、図28に示すステップS2804〜ステップS2807は、ステップS1702〜ステップS1705と同一であるため、説明を省略する。
リソース管理装置101は、運用ポリシー適用処理を実行する(ステップS2801)。運用ポリシー適用処理の詳細は、図29にて後述する。次に、リソース管理装置101は、運用ポリシーの適用により、移行対象構成が選択されたか否かを判断する(ステップS2802)。移行対象構成が選択された場合(ステップS2802:Yes)、リソース管理装置101は、移行先DC選択処理を実行する(ステップS2803)。移行先DC選択処理の処理内容は、図18で示した構築先DC選択処理の処理内容とほぼ同等であるため、図示を省略する。移行先DC選択処理の処理内容の差分は、「構築先DC候補」が「移行先DC候補」となり、ステップS1802の処理である「構築済のテナントの構成」が、「移行対象構成により構築されるテナント以外の構築済のテナントの構成」となる。ステップS2803の実行終了後、リソース管理装置101は、ステップS2804の処理に移行する。
また、移行対象構成が選択されていない場合(ステップS2802:No)、リソース管理装置101は、運用ポリシーの設定要求が行われた場合のリソース配備処理を終了する。運用ポリシーの設定要求が行われた場合のリソース配備処理を実行することにより、運用ポリシーの適用によって、リソースが利用できなくなった構成に対して、使用可能なリソースを配備して、構成を移行することができる。
図29は、運用ポリシー適用処理手順の一例を示すフローチャートである。運用ポリシー適用処理は、クラウドシステム200に、運用ポリシーを適用する処理である。リソース管理装置101は、運用ポリシーで指定されたリソースの確認を行う(ステップS2901)。次に、リソース管理装置101は、対象リソースへの変更内容を適用する(ステップS2902)。続けて、リソース管理装置101は、テナントの構築先対象から除外されたリソースを利用して実現される構成があるか否かを判断する(ステップS2903)。
テナントの構築先対象から除外されたリソースを利用して実現される構成がある場合(ステップS2903:Yes)、リソース管理装置101は、除外されたリソースを利用して実現される構成を移行対象構成として選択する(ステップS2904)。ステップS2904の実行終了後、または、テナントの構築先対象から除外されたリソースを利用して実現される構成がない場合(ステップS2903:No)、リソース管理装置101は、運用ポリシー適用処理を終了する。
以上説明したように、リソース管理装置101によれば、新しいテナントを第1のDCに構築できない場合、第1のDCのリソースを利用して実現される構成を第1のDCから第2のDCに移行しても構築済のシステムの性能情報を満たすなら、構成を移行する。これにより、リソース管理装置101は、移行することによって生まれた空リソースを用いて、ユーザからの要求を満足する新たなテナントを構築することができる。また、リソース管理装置101は、DCの空きリソースを有効活用することができる。
また、リソース管理装置101は、第1のDCのリソースを利用して実現される第1の構成または第2の構成を第1のDCから第2のDCに移行しても構築済のシステムの性能情報を満たすか否かを判断する。構築済のシステムの性能情報を満たすと判断した場合、リソース管理装置101は、第1の構成または第2の構成について、移行にかかる負荷量を算出して、負荷量に基づいて、第1の構成または第2の構成から、移行対象構成を選択してもよい。これにより、リソース管理装置101は、ユーザからの要求を満足する新たなテナントを構築することができるとともに、移行にかかる負荷量がより少ない構成を移行することができる。
また、リソース管理装置101は、さらに、移行対象構成を第2のDCとは異なる第3のDCに移行しても性能情報を満たすか否かを判断する。第3のDCに移行しても性能情報を満たすと判断した場合、リソース管理装置101は、移行対象構成を第3のDCに移行する処理にかかる負荷量を算出して、負荷量に基づいて、第2のDCまたは第3のDCから、移行先DCを選択してもよい。これにより、リソース管理装置101は、ユーザからの要求を満足する新たなテナントを構築することができるとともに、移行にかかる負荷量がより少ないDCに、移行にかかる負荷量がより少ない構成を移行することができる。
また、リソース管理装置101は、さらに、第1の構成を第2のDCに移行した後に第1のDCと第2のDCとの間で発生する通信量と、第2の構成を第2のDCに移行した後に第1のDCと第2のDCとの間で発生する通信量を算出する。続けて、リソース管理装置101は、算出した通信量に基づいて、第1の構成または第2の構成から、移行対象構成を選択してもよい。これにより、リソース管理装置101は、ユーザからの要求を満足する新たなテナントを構築することができるとともに、移行後に発生する通信量がより少ない構成を移行することができる。
また、リソース管理装置101は、構成を第2のDCとは異なる第3のDCに移行しても性能情報を満たすか否かを判断する。第3のDCに移行しても性能情報を満たすと判断した場合、リソース管理装置101は、構成を第3のDCに移行する処理にかかる負荷量を算出して、負荷量に基づいて、第2のDCまたは第3のDCから、移行先DCを選択してもよい。これにより、リソース管理装置101は、ユーザからの要求を満足する新たなテナントを構築することができるとともに、移行にかかる負荷量がより少ないDCに構成を移行することができる。
また、リソース管理装置101は、さらに、構成または前述の構成とは異なる他の構成を移行先DCに移行しても性能情報を満たすか否かを判断する。構成または他の構成を移行先DCに移行しても性能情報を満たすと判断した場合、リソース管理装置101は、他の構成を移行先DCに移行する処理にかかる負荷量を算出し、負荷量に基づいて、構成または他の構成のうち移行対象構成を選択してもよい。これにより、リソース管理装置101は、ユーザからの要求を満足する新たなテナントを構築することができるとともに、負荷量がより少ない構成を、移行にかかる負荷量のより少ないDCに移行することができる。
なお、本実施の形態で説明したリソース管理方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。本リソース管理プログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また本リソース管理プログラムは、インターネット等のネットワークを介して配布してもよい。
上述した実施の形態に関し、さらに以下の付記を開示する。
(付記1)システムの性能情報を記憶する記憶部と、
前記性能情報を参照して、第1のデータセンタのリソースを利用して実現される第1のシステムの一部の機能構成を第2のデータセンタのリソースを利用して実現しても前記第1のシステムに対応する第1の性能情報を満たすか否かを判断する判断部と、
前記判断部によって前記第1の性能情報を満たすと判断された場合、前記第2のデータセンタのリソースを利用して前記一部の機能を実現することで、前記第1の性能情報を満たす構成システムを前記第1のデータセンタのリソースと前記第2のデータセンタのリソースとを利用して構築する構築部と、
を有することを特徴とするリソース管理システム。
(付記2)前記判断部によって前記第1のデータセンタのリソースを利用して実現される第1の構成または第2の構成を前記第2のデータセンタに移行しても前記第1の性能情報を満たすと判断された場合、前記第1の構成を前記第2のデータセンタに移行する処理にかかる負荷量と、前記第2の構成を前記第2のデータセンタに移行する処理にかかる負荷量とを算出する負荷量算出部と、
前記負荷量算出部によって算出された算出結果に基づいて、前記第1の構成または前記第2の構成のうち前記第1のデータセンタから前記第2のデータセンタに移行する移行対象構成を選択する選択部と、をさらに有し、
前記構築部は、
前記第2のデータセンタのリソースを利用して前記選択部によって選択された前記移行対象構成を実現することで、前記第1の性能情報を満たす構成システムを前記第1のデータセンタのリソースと前記第2のデータセンタのリソースとを利用して構築することを特徴とする付記1に記載のリソース管理システム。
(付記3)前記負荷量算出部は、
さらに、前記移行対象構成を前記第2のデータセンタとは異なる第3のデータセンタに移行しても前記第1の性能情報を満たすと判断された場合、前記移行対象構成を前記第3のデータセンタに移行する処理にかかる負荷量を算出し、
前記選択部は、
前記負荷量算出部によって算出された算出結果に基づいて、前記第2のデータセンタまたは前記第3のデータセンタのうち前記移行対象構成の移行先データセンタを選択し、
前記構築部は、
前記選択部によって選択された前記移行先データセンタのリソースを利用して前記移行対象構成を実現することで、前記第1の性能情報を満たす構成システムを前記第1のデータセンタのリソースと前記移行先データセンタのリソースとを利用して構築することを特徴とする付記2に記載のリソース管理システム。
(付記4)前記記憶部は、複数の構成の各々の構成間で発生した通信量を記憶しており、
前記通信量に基づいて、前記第1の構成を前記第2のデータセンタに移行した後に前記第1のデータセンタと前記第2のデータセンタとの間で発生する通信量と、前記第2の構成を前記第2のデータセンタに移行した後に前記第1のデータセンタと前記第2のデータセンタとの間で発生する通信量とを算出する通信量算出部をさらに有し、
前記選択部は、
さらに、前記通信量算出部によって算出された算出結果に基づいて、前記第1の構成または前記第2の構成のうち前記第1のデータセンタから前記第2のデータセンタに移行する移行対象構成を選択することを特徴とする付記2または3に記載のリソース管理システム。
(付記5)前記判断部によって前記第1のデータセンタのリソースを利用して実現される構成を第2のデータセンタまたは第3のデータセンタに移行しても前記第1の性能情報を満たすと判断された場合、前記構成を前記第2のデータセンタに移行する処理にかかる負荷量と、前記構成を前記第3のデータセンタに移行する処理にかかる負荷量とを算出する負荷量算出部と、
前記負荷量算出部によって算出された算出結果に基づいて、前記第2のデータセンタまたは前記第3のデータセンタのうち前記構成を移行する移行先データセンタを選択する選択部と、をさらに有し、
前記構築部は、
前記選択部によって選択された移行先データセンタのリソースを利用して前記構成を実現することで、前記第1の性能情報を満たす構成システムを前記第1のデータセンタのリソースと前記移行先データセンタのリソースとを利用して構築することを特徴とする付記1に記載のリソース管理システム。
(付記6)前記負荷量算出部は、
さらに、前記第1のデータセンタのリソースを利用して実現される前記構成とは異なる他の構成を前記移行先データセンタに移行しても前記第1の性能情報を満たすと判断された場合、前記他の構成を前記移行先データセンタに移行する処理にかかる負荷量を算出し、
前記選択部は、
前記負荷量算出部によって算出された算出結果に基づいて、前記構成または前記他の構成のうち前記移行先データセンタに移行する移行対象構成を選択し、
前記構築部は、
前記移行先データセンタのリソースを利用して前記選択部によって選択された前記移行対象構成を実現することで、前記第1の性能情報を満たす構成システムを前記第1のデータセンタのリソースと前記移行先データセンタのリソースとを利用して構築することを特徴とする付記5に記載のリソース管理システム。
(付記7)コンピュータが、
システムの性能情報を参照して、第1のデータセンタのリソースを利用して実現される第1のシステムの一部の機能構成を第2のデータセンタのリソースを利用して実現しても前記第1のシステムに対応する第1の性能情報を満たすか否かを判断し、
前記第1の性能情報を満たすと判断した場合、前記第2のデータセンタのリソースを利用して前記一部の機能を実現することで、前記第1の性能情報を満たす構成システムを前記第1のデータセンタのリソースと前記第2のデータセンタのリソースとを利用して構築する、
処理を実行することを特徴とするリソース管理方法。
(付記8)コンピュータに、
システムの性能情報を参照して、第1のデータセンタのリソースを利用して実現される第1のシステムの一部の機能構成を第2のデータセンタのリソースを利用して実現しても前記第1のシステムに対応する第1の性能情報を満たすか否かを判断し、
前記第1の性能情報を満たすと判断した場合、前記第2のデータセンタのリソースを利用して前記一部の機能を実現することで、前記第1の性能情報を満たす構成システムを前記第1のデータセンタのリソースと前記第2のデータセンタのリソースとを利用して構築する、
処理を実行させることを特徴とするリソース管理プログラム。
(付記9)システムの性能情報を参照して、第1のデータセンタのリソースを利用して実現される第1のシステムの一部の機能構成を第2のデータセンタのリソースを利用して実現しても前記第1のシステムに対応する第1の性能情報を満たすか否かを判断し、
前記第1の性能情報を満たすと判断した場合、前記第2のデータセンタのリソースを利用して前記一部の機能を実現することで、前記第1の性能情報を満たす構成システムを前記第1のデータセンタのリソースと前記第2のデータセンタのリソースとを利用して構築する、
処理をコンピュータに実行させるリソース管理プログラムを記録したことを特徴とする記録媒体。
100 リソース管理システム
101 リソース管理装置
401 受付部
402 判断部
403 負荷量算出部
404 通信量算出部
405 選択部
406 構築部
410 記憶部
411 テナントの仮想システム情報
412 トンネリング設定情報

Claims (7)

  1. システムの性能情報を記憶する記憶部と、
    前記性能情報を参照して、第1のデータセンタのリソースを利用して実現される第1のシステムの一部の機能構成を第2のデータセンタのリソースを利用して実現しても前記第1のシステムに対応する第1の性能情報を満たすか否かを判断する判断部と、
    前記判断部によって前記第1の性能情報を満たすと判断された場合、前記第2のデータセンタのリソースを利用して前記一部の機能を実現することで、前記第1の性能情報を満たす構成システムを前記第1のデータセンタのリソースと前記第2のデータセンタのリソースとを利用して構築する構築部と、
    を有することを特徴とするリソース管理システム。
  2. 前記判断部によって前記第1のデータセンタのリソースを利用して実現される第1の構成または第2の構成を前記第2のデータセンタに移行しても前記第1の性能情報を満たすと判断された場合、前記第1の構成を前記第2のデータセンタに移行する処理にかかる負荷量と、前記第2の構成を前記第2のデータセンタに移行する処理にかかる負荷量とを算出する負荷量算出部と、
    前記負荷量算出部によって算出された算出結果に基づいて、前記第1の構成または前記第2の構成のうち前記第1のデータセンタから前記第2のデータセンタに移行する移行対象構成を選択する選択部と、をさらに有し、
    前記構築部は、
    前記第2のデータセンタのリソースを利用して前記選択部によって選択された前記移行対象構成を実現することで、前記第1の性能情報を満たす構成システムを前記第1のデータセンタのリソースと前記第2のデータセンタのリソースとを利用して構築することを特徴とする請求項1に記載のリソース管理システム。
  3. 前記負荷量算出部は、
    さらに、前記移行対象構成を前記第2のデータセンタとは異なる第3のデータセンタに移行しても前記第1の性能情報を満たすと判断された場合、前記移行対象構成を前記第3のデータセンタに移行する処理にかかる負荷量を算出し、
    前記選択部は、
    前記負荷量算出部によって算出された算出結果に基づいて、前記第2のデータセンタまたは前記第3のデータセンタのうち前記移行対象構成の移行先データセンタを選択し、
    前記構築部は、
    前記選択部によって選択された前記移行先データセンタのリソースを利用して前記移行対象構成を実現することで、前記第1の性能情報を満たす構成システムを前記第1のデータセンタのリソースと前記移行先データセンタのリソースとを利用して構築することを特徴とする請求項2に記載のリソース管理システム。
  4. 前記記憶部は、複数の構成の各々の構成間で発生した通信量を記憶しており、
    前記通信量に基づいて、前記第1の構成を前記第2のデータセンタに移行した後に前記第1のデータセンタと前記第2のデータセンタとの間で発生する通信量と、前記第2の構成を前記第2のデータセンタに移行した後に前記第1のデータセンタと前記第2のデータセンタとの間で発生する通信量とを算出する通信量算出部をさらに有し、
    前記選択部は、
    さらに、前記通信量算出部によって算出された算出結果に基づいて、前記第1の構成または前記第2の構成のうち前記第1のデータセンタから前記第2のデータセンタに移行する移行対象構成を選択することを特徴とする請求項2または3に記載のリソース管理システム。
  5. 前記判断部によって前記第1のデータセンタのリソースを利用して実現される構成を第2のデータセンタまたは第3のデータセンタに移行しても前記第1の性能情報を満たすと判断された場合、前記構成を前記第2のデータセンタに移行する処理にかかる負荷量と、前記構成を前記第3のデータセンタに移行する処理にかかる負荷量とを算出する負荷量算出部と、
    前記負荷量算出部によって算出された算出結果に基づいて、前記第2のデータセンタまたは前記第3のデータセンタのうち前記構成を移行する移行先データセンタを選択する選択部と、をさらに有し、
    前記構築部は、
    前記選択部によって選択された移行先データセンタのリソースを利用して前記構成を実現することで、前記第1の性能情報を満たす構成システムを前記第1のデータセンタのリソースと前記移行先データセンタのリソースとを利用して構築することを特徴とする請求項1に記載のリソース管理システム。
  6. コンピュータが、
    システムの性能情報を参照して、第1のデータセンタのリソースを利用して実現される第1のシステムの一部の機能構成を第2のデータセンタのリソースを利用して実現しても前記第1のシステムに対応する第1の性能情報を満たすか否かを判断し、
    前記第1の性能情報を満たすと判断した場合、前記第2のデータセンタのリソースを利用して前記一部の機能を実現することで、前記第1の性能情報を満たす構成システムを前記第1のデータセンタのリソースと前記第2のデータセンタのリソースとを利用して構築する、
    処理を実行することを特徴とするリソース管理方法。
  7. コンピュータに、
    システムの性能情報を参照して、第1のデータセンタのリソースを利用して実現される第1のシステムの一部の機能構成を第2のデータセンタのリソースを利用して実現しても前記第1のシステムに対応する第1の性能情報を満たすか否かを判断し、
    前記第1の性能情報を満たすと判断した場合、前記第2のデータセンタのリソースを利用して前記一部の機能を実現することで、前記第1の性能情報を満たす構成システムを前記第1のデータセンタのリソースと前記第2のデータセンタのリソースとを利用して構築する、
    処理を実行させることを特徴とするリソース管理プログラム。
JP2012233294A 2012-10-22 2012-10-22 リソース管理システム、リソース管理方法、およびリソース管理プログラム Expired - Fee Related JP5892031B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012233294A JP5892031B2 (ja) 2012-10-22 2012-10-22 リソース管理システム、リソース管理方法、およびリソース管理プログラム
US14/011,033 US9391916B2 (en) 2012-10-22 2013-08-27 Resource management system, resource management method, and computer product
GB1315382.0A GB2507170A (en) 2012-10-22 2013-08-29 Resource allocation across data centres to meet performance requirements

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012233294A JP5892031B2 (ja) 2012-10-22 2012-10-22 リソース管理システム、リソース管理方法、およびリソース管理プログラム

Publications (2)

Publication Number Publication Date
JP2014085773A JP2014085773A (ja) 2014-05-12
JP5892031B2 true JP5892031B2 (ja) 2016-03-23

Family

ID=49396995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012233294A Expired - Fee Related JP5892031B2 (ja) 2012-10-22 2012-10-22 リソース管理システム、リソース管理方法、およびリソース管理プログラム

Country Status (3)

Country Link
US (1) US9391916B2 (ja)
JP (1) JP5892031B2 (ja)
GB (1) GB2507170A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9912521B2 (en) * 2013-03-13 2018-03-06 Dell Products L.P. Systems and methods for managing connections in an orchestrated network
US10129101B2 (en) 2015-04-30 2018-11-13 Futurewei Technologies, Inc. Application driven and adaptive unified resource management for data centers with Multi-Resource Schedulable Unit (MRSU)
US11042417B2 (en) 2016-08-10 2021-06-22 Nec Corporation Method for managing computational resources of a data center using a single performance metric for management decisions
JP2021189845A (ja) * 2020-06-01 2021-12-13 株式会社日立製作所 データセンタシステムおよびその運用方法、並びにデータセンタシステム拠点設計支援装置および方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7743127B2 (en) 2002-10-10 2010-06-22 Hewlett-Packard Development Company, L.P. Resource allocation in data centers using models
US20060070060A1 (en) 2004-09-28 2006-03-30 International Business Machines Corporation Coordinating service performance and application placement management
US8095929B1 (en) * 2007-04-16 2012-01-10 Vmware, Inc. Method and system for determining a cost-benefit metric for potential virtual machine migrations
US7970903B2 (en) 2007-08-20 2011-06-28 Hitachi, Ltd. Storage and server provisioning for virtualized and geographically dispersed data centers
JP5104588B2 (ja) 2007-10-18 2012-12-19 富士通株式会社 マイグレーションプログラム、および仮想マシン管理装置
US8468230B2 (en) 2007-10-18 2013-06-18 Fujitsu Limited Method, apparatus and recording medium for migrating a virtual machine
US7801994B2 (en) 2007-11-29 2010-09-21 Hitachi, Ltd. Method and apparatus for locating candidate data centers for application migration
US10025627B2 (en) * 2008-11-26 2018-07-17 Red Hat, Inc. On-demand cloud computing environments
JP2010146420A (ja) * 2008-12-22 2010-07-01 Hitachi Ltd 余剰資源管理システム、その管理方法、及びサーバ装置
JP4824807B2 (ja) 2009-09-30 2011-11-30 株式会社野村総合研究所 負荷管理装置、情報処理システムおよび負荷管理方法
JP2011081579A (ja) 2009-10-07 2011-04-21 Hitachi Ltd Itシステム仮想化における仮想リソースのシステム運用管理方法およびシステム
JP2011113268A (ja) 2009-11-26 2011-06-09 Nomura Research Institute Ltd クラウドファサード管理システム
US8924569B2 (en) 2009-12-17 2014-12-30 Intel Corporation Cloud federation as a service
US8140682B2 (en) * 2009-12-22 2012-03-20 International Business Machines Corporation System, method, and apparatus for server-storage-network optimization for application service level agreements
US20120054624A1 (en) 2010-08-27 2012-03-01 Owens Jr Kenneth Robert Systems and methods for a multi-tenant system providing virtual data centers in a cloud configuration
US20110246627A1 (en) * 2010-04-01 2011-10-06 International Business Machines Corporation Data Center Affinity Of Virtual Machines In A Cloud Computing Environment
JP2011221581A (ja) 2010-04-02 2011-11-04 Hitachi Ltd 計算機システムの管理方法、計算機システム管理端末および計算機管理システム
US8667171B2 (en) * 2010-05-28 2014-03-04 Microsoft Corporation Virtual data center allocation with bandwidth guarantees
JP5678508B2 (ja) * 2010-07-29 2015-03-04 日本電気株式会社 シンクライアントシステム、管理サーバ、仮想マシン作成管理方法及び仮想マシン作成管理プログラム
JP5476261B2 (ja) * 2010-09-14 2014-04-23 株式会社日立製作所 マルチテナント型情報処理システム、管理サーバ及び構成管理方法
JP5666620B2 (ja) * 2010-12-07 2015-02-12 株式会社日立製作所 ネットワークシステム、及びそのサービス品質制御方法
US20120191929A1 (en) * 2011-01-21 2012-07-26 Hitachi, Ltd. Method and apparatus of rapidly deploying virtual machine pooling volume
US8978030B2 (en) 2011-04-07 2015-03-10 Infosys Limited Elastic provisioning of resources via distributed virtualization
US8671407B2 (en) * 2011-07-06 2014-03-11 Microsoft Corporation Offering network performance guarantees in multi-tenant datacenters
JP5054220B1 (ja) * 2011-08-19 2012-10-24 株式会社大塚商会 仮想データセンタシステム
US8549519B2 (en) * 2011-08-19 2013-10-01 Hitachi, Ltd. Method and apparatus to improve efficiency in the use of resources in data center
US20140089510A1 (en) * 2012-09-27 2014-03-27 Fang Hao Joint allocation of cloud and network resources in a distributed cloud system

Also Published As

Publication number Publication date
GB2507170A (en) 2014-04-23
US9391916B2 (en) 2016-07-12
US20140115165A1 (en) 2014-04-24
JP2014085773A (ja) 2014-05-12
GB201315382D0 (en) 2013-10-16

Similar Documents

Publication Publication Date Title
Masdari et al. An overview of virtual machine placement schemes in cloud computing
US8423646B2 (en) Network-aware virtual machine migration in datacenters
Manvi et al. Resource management for Infrastructure as a Service (IaaS) in cloud computing: A survey
US10698739B2 (en) Multitenant access to multiple desktops on host machine partitions in a service provider network
Xu et al. Survivable virtual infrastructure mapping in virtualized data centers
CN103368768B (zh) 混合云环境中自动缩放网络覆盖的方法、装置及设备
CN102105865B (zh) 虚拟机环境中不中断网络连通性的电源管理方法和系统
JP6113849B2 (ja) クラウド内に地理的分散型のアプリケーションを自動的に配備する方法および装置
US9088503B2 (en) Multi-tenant information processing system, management server, and configuration management method
Kirby et al. An approach to ad hoc cloud computing
US20140149493A1 (en) Method for joint service placement and service routing in a distributed cloud
ES2607636T3 (es) Método implementado por ordenador y sistema para proporcionar un servicio de conexión en red y un producto de programa de ordenador adaptado para realizar el método
TW201214284A (en) Virtualization and dynamic resource allocation aware storage level reordering
JP5892031B2 (ja) リソース管理システム、リソース管理方法、およびリソース管理プログラム
Goyal et al. Energy efficient hybrid policy in green cloud computing
Son et al. SDCon: Integrated control platform for software-defined clouds
CN108370328A (zh) 一种nfv mano策略描述符的管理方法及装置
Vig et al. An efficient distributed approach for load balancing in cloud computing
Diallo et al. AutoMigrate: a framework for developing intelligent, self-managing cloud services with maximum availability
Javadpour et al. Mapping and embedding infrastructure resource management in software defined networks
CN105635285B (zh) 一种基于状态感知的vm迁移调度方法
Jeong et al. Towards energy-efficient service scheduling in federated edge clouds
Sotiriadis et al. Towards inter-cloud simulation performance analysis: Exploring service-oriented benchmarks of clouds in SimIC
CN107528871A (zh) 存储系统中的数据分析
Xu et al. An adaptive function placement in serverless computing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160208

R150 Certificate of patent or registration of utility model

Ref document number: 5892031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees