JP2014153897A - 計算機システム及びリソース管理装置並びにリソース管理方法 - Google Patents

計算機システム及びリソース管理装置並びにリソース管理方法 Download PDF

Info

Publication number
JP2014153897A
JP2014153897A JP2013022767A JP2013022767A JP2014153897A JP 2014153897 A JP2014153897 A JP 2014153897A JP 2013022767 A JP2013022767 A JP 2013022767A JP 2013022767 A JP2013022767 A JP 2013022767A JP 2014153897 A JP2014153897 A JP 2014153897A
Authority
JP
Japan
Prior art keywords
data center
management device
resource management
computer
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013022767A
Other languages
English (en)
Other versions
JP6081212B2 (ja
JP2014153897A5 (ja
Inventor
Toshiaki Suzuki
敏明 鈴木
Toshiaki Tarui
俊明 垂井
Tomohiro Baba
智宏 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2013022767A priority Critical patent/JP6081212B2/ja
Publication of JP2014153897A publication Critical patent/JP2014153897A/ja
Publication of JP2014153897A5 publication Critical patent/JP2014153897A5/ja
Application granted granted Critical
Publication of JP6081212B2 publication Critical patent/JP6081212B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

【課題】データセンタ間を接続する広域のネットワークに輻輳を発生させることなく、VMが提供するサービスの品質を劣化させずに省電力化を達成するためのVM移動先候補を高速に選定する。
【解決手段】複数のデータセンタ30、40、50と、第1のネットワーク10と、データセンタ内のリソースを管理するリソース管理装置130、140、150と、ネットワーク管理装置3とを備える計算機システムにおいて、第1のリソース管理装置が、移動予定の仮想計算機132、136、142、146、152,156が必要とするリソース量に基づき他のリソース管理装置に依頼して選定した移動先候補情報を、ネットワーク管理装置でエンドユーザからのデータ送受信において第1のネットワーク内に問題が発生するか否かを判定し、その結果と移動先候補の情報から、最も省電力化を達成する物理計算機を移動予定の仮想計算機の移動先として選択する。
【選択図】図1

Description

本発明は、遠隔より計算機資源をユーザへ提供する計算機システム及びリソース管理装置並びにリソース管理方法に関する。特に、計算機資源の配置決定処理の高速化を実現する装置、方法及びシステムに関する。
本技術分野の背景技術として、特許文献1に記載の発明がある。この発明は、仮想マシンの配置先の物理サーバを様々な要因を考慮して決定し、消費電力の低減を効率化することを課題としている。その解決手段として、制御装置は、複数の物理サーバに仮想マシンを配置する配置制御部と、仮想マシン毎の負荷情報を取得する負荷情報取得部と、物理サーバの優先順位情報を記憶する優先順位情記憶部と、物理サーバの制約条件情報を記憶する制約条件情報記憶部と、負荷情報と優先順位情報と制約条件情報とに基づいて、仮想マシン毎に当該仮想マシンの制約条件を満足する最も優先順位の高い物理サーバを選択する選択部とを備え、仮想マシン毎に物理サーバの選択および選択された物理サーバへの仮想マシンの配置を順に繰り返し、配置制御部は、仮想マシン毎に選択された物理サーバに配置するように制御する。
また、他の背景技術として、特許文献2に記載の発明がある。この発明は、アプリケーションのマイグレーションを可能にする、現在のパフォーマンス状態に準じてアプリケーションを実行することが可能な、1つ以上の適切なデータセンタを自動的に見つけることを課題としている。その解決手段として、第1のデータセンタは、そのマイグレーションされるアプリケーションのためのネットワーク要件、サーバ要件、およびストレージ要件を指定するマイグレーション要求文書によって、マイグレーション後にアプリケーションの指定されたパフォーマンスレベルが維持されることを保証する。マイグレーションを受ける候補であるデータセンタは、指定された要件を受け取り、パフォーマンスインデックスおよび他の分析を用いてそのハードウェア、ソフトウェア、及び他の構成が指定された要件を満たすかを決定する。決定結果は要求側データセンタに返され、要求側データセンタはマイグレーションを実施するかを決定する。
特開2011−13822号公報 特開2009−134687号公報
しかし、従来の仮想マシン(以下、VMと記す。)の配置先決定では、CPUリソースの収容可否を中心として移動先を決定している。そのため、複数のデータセンタを広域なネットワークで接続した大規模なクラウドシステムでは、VMの移動に伴い、広域ネットワーク側に輻輳が発生し、VMから提供するサービスの品質が大幅に劣化する場合がある。
特許文献1には、システムの消費電力低減を効率化するシステムにおいて、物理サーバが有するネットワークリソースに対して、配分の上限規定が記載されている。例えば、特許文献1の図17には、制約条件情報記憶部に記憶される物理サーバの制約条件情報として、ネットワーク帯域の配置上限値を設定した例が記載されている。しかし、この方法は、物理サーバに対するネットワークリソースに関する規定であり、複数のデータセンタを接続する広域ネットワークのリソースに関する規定ではない。物理サーバに対するネットワークリソースには余裕があっても、VM移動に伴う、複数のデータセンタ間を接続する広域ネットワークの輻輳発生やVMから提供されるサービス品質が劣化する場合が存在する。
また特許文献2には、複数のデータセンタを備える情報システムにおいて、第1のデータセンタから他のデータセンタに対して、アプリケーションのマイグレーションが可能かを、ネットワークリソース、サーバリソース、およびストレージリソースの観点で十分なリソースの空き容量があるかを確認する処理の記載がある。例えば、特許文献2の図2には個々のデータセンタのハードウェア及びソフトウェアの構成例が示されており、個々のデータセンタはリソースの1つとして仮想プライベートネットワーク(VPN)203を備えている。また、図14には、利用可能なVPN帯域幅の確認を確認するフローチャートが記載されている。各データセンタのリソースマネージャは、利用可能な未割当帯域幅をVPN要求部で要求されている帯域幅の量と比較している。しかし、この方法は、各データセンタ内でのネットワークリソースの空き容量を考慮しているが、複数のデータセンタ間を接続するネットワークのリソースの過不足を考慮しておらず、VM移動に伴う、複数のデータセンタ間を接続する広域ネットワークの輻輳発生やVMから提供されるサービス品質が劣化する場合が存在する。
本発明は、システムの省電力化を実効するシステムにおいて、複数のデータセンタ間にまたがったVMの移動において、各データセンタ間を接続する広域のネットワークに輻輳を発生させることなく、且つ複数のデータセンタ内に相当数存在する物理サーバより、VMが提供するサービスの品質を劣化させずに省電力化を達成するためのVM移動先候補を高速に選定する装置、方法、および計算機システムを提供することを目的とする。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、複数のデータセンタと前記複数のデータセンタを接続する第1のネットワークとを備えた計算機システムであって、前記データセンタ毎に設けられ当該データセンタ内のリソースを管理するリソース管理装置と、前記第1のネットワークを管理するネットワーク管理装置と、前記各データセンタ内に存在する移動予定の仮想計算機が必要とするリソース量を取得する手段とを有し、前記データセンタの1つを管理する第1の前記リソース管理装置は、管理下の前記1つのデータセンタにおける前記移動予定の仮想計算機が必要とする他の前記データセンタのリソース量を、該他のデータセンタを管理する第2の前記リソース管理装置へ通知する機能と、前記必要なリソース量の情報に応答して前記第2のリソース管理装置において選定された、前記移動予定の仮想計算機を稼動することが可能な少なくとも1つの物理計算機の候補の情報を受信する機能と、前記受信した前記仮想計算機の移動先候補の情報を、前記ネットワーク管理装置へ通知する機能とを有し、前記ネットワーク管理装置は、当該システムを利用するエンドユーザから前記受信した移動先候補毎の前記物理計算機へのデータ送受信において、前記ネットワーク内に問題が発生するか否かを判定し、該判定の結果を前記第1のリソース管理装置へ通知する機能を有し、前記第1のリソース管理装置は、さらに、前記移動先候補物理計算機候補の情報と前記の判定の結果とから、省電力化を達成する上位の少なくとも1つの物理計算機を、前記移動予定の仮想計算機の移動先として選択する機能を有することを特徴とする。
本発明によれば、第1のネットワークにより接続された複数のデータセンタを備えた計算機システムにおいて、複数のデータセンタ間にまたがったVMの移動において、各データセンタ間を接続する第1のネットワークに輻輳を発生させることなく、且つ複数のデータセンタ内に相当数存在する物理サーバより、VMが提供するサービスの品質を劣化させずに省電力化を達成するためのVM移動先候補を高速に選定することができる。
本発明の第1の実施形態における計算機システムの構成例を示す説明図である。 本発明の第1の実施形態におけるデータセンタ管理装置のメモリに格納されるプログラム及びデータを示す説明図である。 本発明の第1の実施形態におけるWAN管理装置のメモリに格納されるプログラム及び情報を示す説明図である。 本発明の第1の実施形態における管理装置のハードウェア構成の一例を示すブロック図である。 本発明の第1の実施形態における省電力化制御タイミングの一例を示す説明図である。 第1の実施形態における、複数のデータセンタ管理装置における、物理サーバリソースの利用形態の一例を示す図である。 第1の実施形態の第1のネットワークにおけるデータ送受信の通信経路の一例を示す図である。 本発明の第1の実施形態における計算機システム全体の処理の流れを説明するシーケンス図である。 本発明の第1の実施形態におけるデータセンタ管理装置が実行する省電力配置制御処理を説明するフローチャートである。 本発明の第1の実施形態におけるデータセンタ管理装置が実行する省電力配置解除処理を説明するフローチャートである。 本発明の第1の実施形態におけるデータセンタ管理装置が実行する省電力化応答処理を説明するフローチャートである。 本発明の第1の実施形態におけるVMが必要とするリソース量の作成方法を説明する図である。 本発明の第1の実施形態におけるVMが消費したリソース量の一例を示す説明図である。 本発明の第1の実施形態におけるVMが消費する予想リソース量の一例を示す説明図である。 本発明の第1の実施形態におけるVMが必要とする予想リソース量の一例を示す図である。 本発明の第1の実施形態における物理サーバにいて予想される残リソース量の一例を示す図である。 本発明の第1の実施形態におけるデータセンタ内物理サーバの予想残リソース量の一例を示す図である。 本発明の第1の実施形態におけるWANが必要とするリソース量の作成方法を説明する図である。 本発明の第1の実施形態におけるWANが消費したリソース量の一例を示す説明図である。 本発明の第1の実施形態におけるWANが消費する予想リソース量の一例を示す説明図である。 本発明の第1の実施形態におけるWANの左回りに関する予想残リソース量の一例を示す図である。 本発明の第1の実施形態におけるWANの右回りに関する予想残リソース量の一例を示す図である。 本発明の第2の実施形態における計算機システムの構成例を示す説明図である。 第2の実施形態におけるデータセンタ統合管理サーバ160を含む計算機システムの機能ブロックを示す図である。 第2の実施形態における計算機システム全体の処理の流れを説明するシーケンス図である。
本発明の代表的な実施形態を示せば以下の通りである。すなわち、複数のデータセンタと、前記複数のデータセンタを接続する第1のネットワークと、前記データセンタ毎にデータセンタ内のリソースを管理するリソース管理装置と、前記第1のネットワークを管理するネットワーク管理装置と、を備える計算機システムであって、前記第1のリソース管理装置は、管理するデータセンタ内に存在する移動予定の仮想計算機が必要とするリソース量を取得し、前記取得した移動予定の仮想計算機が必要とするリソース量を1乃至複数の前記第2のリソース管理装置へ通知し、他のリソース管理装置は、移動予定の仮想計算機を稼動することが可能な物理計算機の候補を1乃至複数選定し、前記第1のリソース管理装置へ通知し、前記第1のリソース管理装置は、前記第2のリソース管理装置から受信した仮想計算機の移動先候補情報を、前記ネットワーク管理装置へ通知し、前記ネットワーク管理装置は、システムを利用するエンドユーザから前記受信した移動先候補毎の物理計算機へのデータ送受信において前記第1のネットワーク内に問題が発生するか否かを判定し、その判定結果を前記第1のリソース管理装置へ通知し、前記第1のリソース管理装置は、前記移動先候補物理計算機と前記の判定結果から最も省電力化を達成する物理計算機を、移動予定の仮想計算機の移動先として選択すること、を特徴とする。
本発明によれば、第1の観点で、計算機システムにおいて、サービスを提供する複数の仮想計算機を、計算機リソースのみならず、複数の仮想計算機を移動した場合に、各計算機間を接続する第1のネットワークに輻輳を発生させる等の問題が発生しない場合に限り、且つ省電力化を達成する計算機上へ仮想計算機を移動することができる。したがって、仮想計算機が提供するサービスの品質を劣化させることなく、計算機システムの省電力化を達成できる。
本発明によれば、第2の観点で、複数存在するデータセンタ内の膨大な計算機群の中から、予め条件に適する計算機を選別し、サービスを提供する仮想計算機を移動可能か否かを少量の計算器量にて判定することができる。したがって、サービスを提供する仮想計算機の移動先を高速、短時間にて判定でき、且つ仮想計算機の省電力な配置を長時間に設定することができる。
以下、本発明の実施形態について図面を用いて説明する。
本発明の第1の実施形態では、複数のデータセンタをリングネットワーク10で接続した計算機システムの省電力化について説明する。
図1は、第1の実施形態における計算機システムの構成例を示す説明図である。本実施形態における計算機システムは、エンドユーザ端末2、第1のネットワーク(Wide Area Network:WAN)10、WAN管理サーバ(ネットワーク管理装置)3、第1のネットワークに接続されたノード21、22、23、24、25、複数のデータセンタ30、40、50、各データセンタに設けられたデータセンタ管理装置(データセンタ管理サーバ)130、140、150、第2のネットワーク(データセンタネットワーク)11、12、13等により構成される。各データセンタは、ノード31、32、33、34、35、41、42、43、44、45、51、52、53、54、55、物理サーバ131、135、141、145、151、155、及び仮想サーバ(以下、Virtual Machine、VMと記す。)132、136、142、146、152、156等を有している。本実施形態では、第1のネットワーク10が、ノード21、22、23、24、25により構成される。また、各データセンタ内の第2のネットワークとして、ノード32、33、34、35を含むネットワーク11、ノード42、43、44、45を含むネットワーク12、ノード52、53、54、55を含むネットワーク13が、各々構成される。なお、第1のネットワーク10は、他のネットワークタイプ、例えばスター型ネットワークであっても良い。スター型ネットワークの場合、中心のHUBを介してスポーク状に複数のノードが接続され、これらのノードにエンドユーザ端末2、複数のデータセンタ30、40、50、ネットワーク管理装置3等が接続される。
いずれの場合でも、各データセンタのデータセンタ管理サーバ130、140、150は、自データセンタにおける仮想計算機の移動を制御する時はマスタコンピュータとして機能し、他のデータセンタ管理サーバをスレーブコンピュータとして機能させるように構成されている。
図1に示した計算機システムでは、例えば、物理サーバやVMの処理負荷が低減する深夜の時間帯等において、複数のデータセンタ30、40、50間にまたがりVMの片寄(縮約移動)を行い、不要な物理サーバをスリープさせる、或いは電源を停止することにより計算機システムの省電力化を実現する。
図2は、データセンタ管理装置130(140、150)のメモリ172(図4にて後述する。)にて実行されるプログラムおよび格納されるデータを示す説明図である。メモリ172では、省電力配置制御処理プログラム230、省電力配置解除処理プログラム231、データセンタ管理サーバ省電力化応答処理プログラム232、VM配置とサーバ電源管理処理233、リソースモニタリング処理プログラム234、及びリソース消費予測処理プログラム235を実行する。
省電力配置制御処理プログラム230は、VMの処理負荷が低い場合に、VMの片寄せ配置を実行する処理を実行する。なお、省電力配置制御処理プログラム230の詳細な動作については、図9を用いて後述する。
省電力配置解除処理プログラム231は、VMの処理負荷が高くなる場合に、VMの片寄せ配置を解除(非縮約)し、高負荷時のVMを適正配置する処理を実行する。なお、省電力配置解除処理プログラム231の詳細な動作については、図10を用いて後述する。
データセンタ管理サーバ省電力化応答処理プログラム232は、他データセンタ管理サーバから移動予定のVMが必要とするリソース量を受信し、その移動予定のVMを収容することが可能な物理サーバを探索し、要求元のデータセンタ管理サーバへ返信する処理を実行する。なお、データセンタ管理サーバ省電力化応答処理プログラム232の詳細な動作については、図11を用いて後述する。
VM配置とサーバ電源管理処理233は、前記の省電力配置制御処理プログラム230及び省電力配置解除処理プログラム231が決定したVMの配置に従い、VMの移動を実際の物理サーバに対して実行する。また、VMの片寄せ移動後に稼動が不要な物理サーバが発生した場合は、省電力なモードに状態を移行する。或いは必要に応じて電源オンが可能な程度に不要な処理を全て停止しても良い。
リソースモニタリング処理プログラム234は、データセンタ内に存在する全てのVM及び物理サーバに対して、図13に示されるリソースに関して、その状態をモニタリングする。なお、図13の内容については、後述する。
リソース消費予測処理プログラム235は、前記のリソースモニタリング処理プログラム234の実行により収集したVMによるリソース消費履歴から、図14に示すように、VMが将来に消費する予定のリソース量を予測する。予測の方式としては、自己回帰モデルを用いたが、その他の手法により予測しても良い。なお、図14の内容については、後述する。
図4は、図2に示した各プログラムを実行するデータセンタ管理装置130のハードウェア構成の一例を示すブロック図である。データセンタ管理装置130は、CPU171、メモリ172、ストレージ173、ネットワークインタフェース174を備え、各構成はバス175を介して互いに接続される。CPU171は、ストレージ173に格納された各種のプログラムやデータベースのデータをメモリ172にロードし、プログラムを実行する。CPU171がプログラムを実行することによってデータセンタ管理装置130が備える機能を実現できる。メモリ172は、CPU171によって実行されるプログラム及び当該プログラムの実行に必要なデータを格納する。メモリ172に格納されるプログラム及びデータについては、図2で述べた通りである。ネットワークインタフェース174は、第2のネットワーク11を介して外部の装置と接続する。なお、データセンタ管理装置140及び150は、データセンタ管理装置130と同様のハードウェア構成であり、実行する処理も同一である。また、及びWAN管理サーバ3は、データセンタ管理装置130と同一のハードウェア構成である。
メモリ172では、また、図2及び図13に示したVM消費リソース履歴データベース情報240、図2及び図14に示したVM消費リソース予測データベース情報241、図2及び図15に示したVM必要リソース予測データベース情報242、図2及び図16に示した物理サーバリソース残量予測データベース情報243、図2及び図17に示したデータセンタリソース残量予測データベース情報244を保持する。なお、図13から図17の内容については、後述する。
なお、データセンタ管理サーバ130は、ハードウェアを用いて、上記説明した各種処理(プログラム230から235)と同様の機能を実現してもよい。
図3は、第1の実施形態におけるWAN管理サーバ3のメモリに格納されるプログラム及びデータを示す説明図である。図3に示した各プログラムを実行するWAN管理サーバのハードウェア構成は、図4に示した構成と同一である。メモリ172では、WAN内輻輳判定処理プログラム236、WAN内リソースモニタリング処理プログラム237、WAN内リソース消費予測処理プログラム238、及び、WAN内帯域残量予測処理プログラム239を実行する。
WAN内輻輳判定処理プログラム236は、データセンタA管理サーバ130から送信された移動予定のVMに関する情報と、移動予定のVMを収容可能な物理サーバ及びその物理サーバを収容するデータセンタの識別子情報を受信し、且つ図21及び図22に示したWAN帯域残量予測データベース247(A、B)を参照し、移動予定のVMを移動候補先である物理サーバへ移動した場合に、WAN側に輻輳が発生するか否かを判断する。例えば、移動予定のVMが必要とする帯域として、図15のVM必要リソース予測データベース情報242Aに示されるように、0.15Gbpsの送信帯域と0.05Gbpsの受信帯域を必要としており、且つデータセンタBに存在する物理サーバで左回りの通信路を経由してデータを送受信している物理サーバが候補の場合は、図21に示したWAN帯域残量予測データベース247Aの左回り向け最少残帯域リソース601を参照する。そして、左回りの通信路を経由する場合は、N21からN22、N22からN23、及びN23からN24までの各区間において、VMが必要とする0.05Gbpsの受信帯域と、N24からN25、及びN25からN21までの区間において、VMが必要とする0.15Gbpsの送信帯域を確保可能であることを判定し、収容に問題が無いことをデータセンタA管理サーバ130へ回答する。
WAN内リソースモニタリング処理プログラム237は、WAN内に存在するノード21、22、23、24、25における消費帯域をモニタリングして、図19に示すWAN消費帯域履歴データベース245Aを作成する。なお、図19では、WANにおける左回りの帯域、且つある日の20:00から翌日の6:00までに消費された帯域に関してのみ記載しているが、同様に右回りについても、図示していないWAN消費帯域履歴データベース245Bを作成する。
WAN内リソース消費予測処理プログラム238は、図19に示したWAN消費帯域履歴データベース245Aを参照し、将来において各ノードが必要とする帯域リソース量を推測し、図20に示したWAN消費帯域予測データベース246Aを作成する。なお、図20では、WANにおける左回りの帯域、且つある日の20:00から翌日の6:00までに必要とされる帯域に関してのみ記載しているが、同様に右回りについても、図示していないWAN消費帯域予測データベース246Bを作成する。
WAN内帯域残量予測処理プログラム239は、図20のWAN消費帯域予測データベース246Aを参照し、図21及び図22に示したWAN帯域残量予測データベース247A及び247Bを作成する。図21の601及び図22の602に示された最少残帯域リソース量は、図20に示したWAN消費帯域予測データベース246において、所定の期間における最少の帯域量をデータベース化したものである。
メモリ172Bでは、また、図19に示したWAN消費帯域履歴データベース情報245A、図20に示したWAN消費帯域予測データベース情報246A、及び図21、図22に示したWAN帯域残量予測データベース情報247A、247Bを保持する。図19から図22の内容については、後述する。
なお、WAN管理サーバ3は、ハードウェアを用いて、上記説明した各種処理(プログラム236から238)と同様の機能を実現してもよい。
図5は、本発明の第1の実施形態における省電力化制御タイミングの一例を示す説明図である。図1に示した計算機システムでは、VMにおける昼夜の処理量の差を利用し、VMのCPU負荷が低下している間にVMを片寄せし且つ不要な物理サーバを停止することで省電力化を図る。図中、280の曲線は、1日目の8時から翌日の24時までの期間において、VMにおける1分毎のCPUにおける平均負荷量の例を示している。
第1の実施形態では、省電力配置開始時刻1(時刻251)にて示される1日目の20時からVMの片寄せ(縮約)を開始し、省電力配置完了時刻1(時刻252)にて示される2日目の21時にVM片寄せの完了を見込んだ制御となっている。ここで、時刻251と時刻252間は、あるデータセンタで予定している全てのVMの移動を完了するために見積もられた第一の移動期間(T2)253である。また、VMの処理負荷が増加する期間は、実施したVMの片寄を解除(非縮約)するため、省電力配置解除開始時刻1(時刻254)にて示される2日目の4時からVMの片寄せ解除を開始し、省電力配置解除完了時刻1(時刻255)にて示される2日目の6時にVM片寄せ解除の完了を見込んだ制御となっている。ここで、時刻254と時刻255間は、あるデータセンタで予定している全てのVMの片寄せ解除のための移動を完了するために見積もられた第二の移動期間(T3)256である。その後、省電力配置開始時刻2(時刻257)にて示される2日目の20時からVMの片寄せを開始し、前記1日目に実施したVM片寄せと同等の処理を実行する。
前記説明した実施形態では、期間260で示されるように、VMの片寄せを時刻251に開始し、VMの片寄せ解除は時刻255に完了している。ここで仮に、VMにおけるCPU負荷が低下している期間として、時刻251から時刻254までを指定し、その間において移動予定VMが必要とするリソース量を、他のサーバにおいて収容可能だと判断しVMを移動した場合、VMの移動を完了する前に負荷が上昇する可能性があるため、VMの移動が完了するまでの時刻を含めて、VMの移動が可能化を判断する必要がある。即ち、時刻251から時刻255にて示される期間260(図中の低負荷確認期間TL)において、移動予定VMが必要するリソース量を、他のサーバにおいて収容可能かを判断する必要がある。
また、前記説明した実施形態では、期間(TH)261で示されるように、VMの片寄せ解除を時刻254に開始し、次の回のVM片寄せを時刻257に開始し所定期間(T4)後の時刻258に片寄せの完了をしている。期間256及び期間259の間は、VMの移動が進行している期間であり、この期間にVMの処理負荷が上昇する可能性があるため、期間261にて示される期間(高負荷確認期間TH)において、移動予定のVMが必要とするリソース量を、他のサーバが収容可能かを判断する必要がある。
前記説明した実施形態では、VMの負荷が低い期間(TL)260と負荷が高い期間(TH)261の両方において移動予定のVMが必要とするリソース量を他の物理サーバが収容可能かを判断する必要がある。そのため、移動予定のVMが必要とするリソースの収容可否判定を期間282(将来負荷予測対象期間TES)にて示される期間分を少なくとも予測する必要がある。また、前記予測は、VMの移動を開始する前、例えば期間281(将来負荷予測実行期間T1)に行う必要がある。さらに前記予測を、VMの配置を判定したり、或いはVMの移動を制御したりしている期間と同時に実行すると、データセンタ管理サーバの負荷が上昇し、処理遅延が発生するため、VMの配置を判定したり、或いはVMの移動を制御したりしている期間と重複しない時間帯に実行する。但し、前記予測を、VMの配置を判定したり、或いはVMの移動を制御したりするサーバと異なるサーバで実行する場合は、消費電力が増加するが、処理の遅延は削減される。
本発明の計算機システムは、例えば、数個乃至10個程度のデータセンタを備え、各データセンタが管理サーバを含んで構成され、各データセンタ管理サーバが管理する物理サーバが1ユーザ(企業等)あたり最大1000台、VMが5000台程度の規模を有する。すなわち、各データセンタ内には膨大な数の計算機群(リソース)が存在し、これらのリソースは、エンドユーザ向けのサービスを提供する複数の企業に貸与される。
図6は、本発明の第1の実施形態における、データセンタ管理サーバ130、140、150におけるデータセンタのリソースの利用形態の一例を示す図である。複数のデータセンタ管理サーバ130、140、150のリソースが、複数の企業(A〜N)により使用される。例えば、ある時間帯において、データセンタ管理サーバ130−1をマスタ、データセンタ管理サーバ140−1、150−3をスレーブの関係で、WAN管理サーバ3と連携し、図5に示したような省電力化制御タイミングでVMの片寄せを行う。同様に、企業Aとは非同期の関係で、データセンタ管理サーバ140−2をマスタ、データセンタ管理サーバ130−2、150−2をスレーブの関係で、WAN管理サーバ3と連携してVMの片寄せを行う。また、企業A、Bとは非同期の関係で、データセンタ管理サーバ150−3をマスタ、データセンタ管理サーバ130−3、140−3をスレーブの関係で使用してVMの片寄せを行う。例えば、1企業当たり、1000台のVM、200台の物理サーバが、各々、省電力化制御の対象となる。なお、省電力化制御のパターンは図5の例に限定されるものではない。データセンタのユーザである各企業の業務内容や営業形態、さらにはそれに対応するエンドユーザの構成毎に異なることは言うまでもない。
図7は、第1の実施形態の第1のネットワークにおけるデータ送受信の通信経路の一例を示す図である。この例では、図1の例と異なり、第1のネットワーク10Aがノード21、24間で短絡されている。そのため例えば、エンドユーザ2が接続されたノードN21を起点としデータセンタAの物理サーバ1s−1までの経路を想定した時、ノードN21からデータセンタAのノードN23までの通信経路は、ノードN22を経由する左周りのルート、ノードN25を経由する右周りのルートに加えて、ノードN21からノードN24を経由する中央のルートも存在している。なお、各データセンタ内の1s−1、1s−2等は物理サーバのノードを示している。本実施例では、各サーバや各ノード間の将来負荷の予測に基づき、システムを利用するエンドユーザと移動先候補毎の物理サーバ間において実行されるデータ送受信において、第1のネットワーク内に問題が発生するか否かを判定する。各サーバや第1のネットワークの各ノード間の将来負荷の予測は、VM移動による省電力化制御のタイミングと重ならない時間帯に実施する。
図8は、本発明の第1の実施形態における計算機システム全体の処理の流れを説明するシーケンス図である。本実施形態では、データセンタ30内のデータセンタ管理(データセンタ管理サーバ)130が、当該データセンタ管理サーバ130をマスタ、データセンタ管理サーバ140、150をスレーブの関係で使用して、データセンタ30内に存在するVM132を、WAN10内に輻輳を発生させることなく、より電力効率の良い他のデータセンタ40、或いはデータセンタ50内の物理サーバへ移動することにより、図1に示したシステムの省電力化を実現する例について説明する。なお、移動先の探索では、データセンタ30内の物理サーバを含めて電力効率の良い物理サーバを探索する。図8では、データセンタA管理サーバ130が、自データセンタ内のVMを、他のデータセンタB、或いはデータセンタC内の物理サーバへ移動する処理を示す。当該処理に関係のない構成は省略している。
WAN管理サーバ3は、WAN10を構成するノード21、22、23、24、25における消費帯域をモニタリングし、図19に示すWAN消費帯域履歴データベース245Aを構成する(ステップS201)。また、WAN管理サーバ3は、モニタリングした各ノードにおけるWAN消費帯域履歴データベース245Aから、WAN10における今後の消費帯域を予測し、図20に示すWAN消費帯域予測データベース246Aを構成する(ステップS202)。図19及び図20では、WANにおける左回りの帯域に関してのみ記載しているが、同様に右回りについてもデータベースを作成する。さらに、WAN管理サーバ3は、WAN帯域消費予測データベース246から、図5にて示した低負荷確認期間(TL)260に関して、図21、図22に示した左回り及び右回りの各ノード間における提供可能なWAN帯域残量予測データベース247A及び247B(期間260において、最少となる帯域)を算出する(ステップS203)。なお、図19、図20、図21、図22の詳細な説明は、後述する。
データセンタ管理サーバ130、140、150は、自データセンタ内のリソースの消費状態をモニタリングし、図13に示す各VMに対するVM消費リソース履歴データベース240Aを構成する(ステップS204、ステップS207、ステップS210)。
また、データセンタ管理サーバ130、140、150は、VMリソース消費履歴データベース240Aから、各VMにおける今後のリソース消費を予測し、図14に示すVM消費リソース予測データベース241Aを構成する(ステップ205、ステップS208、ステップS211)。
さらに、図5にて示した低負荷確認期間(TL)260に関して、VM消費リソース予測データベース241Aから、図15に示す各VMが必要とする最大のリソース量を示すVM必要リソース予測データベース242Aを構成する。(ステップS206、ステップS209、ステップS212)。図13、図14、図15では、VMのCPU負荷が低い場合の期間(図5の期間260)に対する単一のVMに対するVM消費リソース履歴データベース240Aと、VM消費リソース予測データベース241Aと、VM必要リソース予測データベース242Aになっているが、同一構造のデータベースを、CPU負荷が高い期間(図5の期間261)においても作成する。図13、図14、図15の各データベースは、VMが必要とする各データセンタ内の第2のネットワークの帯域に関する情報(送信帯域及び受信帯域)を含んでいる。なお、図13、図14、図15の詳細な説明は、後述する。
データセンタA管理サーバ130は、自データセンタ内に存在する全てのVMに対して、他のデータセンタへ移動するか否かを判定するための順序を決定する(ステップS213)。
データセンタA管理サーバ130は、ステップ213にて決定した順序に従い、第1番目の移動予定VMに対して、将来に必要なリソース量を図2に示したVM必要リソース予測データベース242から取得する(ステップS214)。
データセンタA管理サーバ130は、移動予定のVMを収容可能な物理サーバを探索するため、取得した移動予定のVMが必要とするリソース量をデータセンタB管理サーバ140及びデータセンタC管理サーバ150へ送信する(ステップS215及びステップS216)。
データセンタB管理サーバ140は、データセンタA管理サーバより送信された移動予定のVMが必要とするリソース量を受信し、図17に示したデータセンタリソース残量予測データベース244を参照し、移動予定のVM収容が可能な物理サーバを探索する(ステップS217)。なお、図17の詳細な説明は後述する。また、判断の方法に関しては、図11に示したデータセンタ管理装置が実行する省電力化応答処理を説明するフローチャートを用いて詳述する。また、データセンタB管理サーバ140は、ステップS217の処理において探索した、移動予定VMを収容可能な1乃至複数の物理サーバの情報をデータセンタA管理サーバへ送信する(ステップS219)。
同様に、データセンタC管理サーバ150は、データセンタA管理サーバより送信された移動予定のVMが必要とするリソース量を受信し、図17に示したデータセンタリソース残量予測データベース244を参照し、移動予定のVM収容が可能な物理サーバを探索する(ステップS218)。また、データセンタC管理サーバ150は、ステップS218の処理において探索した、移動予定VMを収容可能な1乃至複数の物理サーバの情報をデータセンタA管理サーバへ送信する(ステップS220)。
データセンタA管理サーバ130は、データセンタB管理サーバ140及びデータセンタC管理サーバ150より送信された、移動予定のVMを収容可能な全ての物理サーバ候補から所定数(例えば候補数3)の候補物理サーバを選定する(ステップS221)。続いて、データセンタA管理サーバ130は、移動予定のVMに関する情報(VMのIPアドレス等の識別子、及びVMが必要とするリソース量情報)と、ステップS221の処理において選定した物理サーバ候補に関する情報(物理サーバのIPアドレス等の識別子、及び物理サーバを収容するデータセンタの識別子)とを、WAN管理サーバ3へ送信する(ステップS222)。VMが必要とするリソース量情報には、第1のネットワークを使用した移動予定の時間帯、すなわち第1のネットワークを使用する低負荷確認期間TLの情報も含まれる。なお、候補物理サーバを選定するのに必要な第1のネットワークを使用する時間帯の情報は、低負荷確認期間TLに限定する必要はなく、例えば、縮約及び非縮約のための移動時間帯T2,T3等を適宜組み合わせたものであっても良い。
WAN管理サーバ3は、データセンタA管理サーバより送信された移動予定のVMに関する情報(第1のネットワークの使用予定時間帯の情報を含む)と、移動予定のVMを収容可能な物理サーバ及びその物理サーバを収容するデータセンタの識別子情報を受信し、且つ図21及び図22に示したWAN帯域残量予測データベース247を参照し、移動予定のVMを移動候補先である物理サーバへ、図5中の低負荷確認期間TLに移動した場合に、WAN側に輻輳が発生するか否かを判断する(ステップS223)。この判断は、低負荷確認期間TLの開始前、例えば、図5の18時乃至20時の間になされる。ここで例えば、移動先候補の物理サーバの識別子が、2s−1の場合、最初の番号がデータセンタの番号を示し、次の文字sはサーバを示し、さらに最後の番号1は、データセンタ2内の物理サーバの番号を示している。また、本実施形態では、最後の物理サーバの番号が127までの場合は、左回りの通信路を利用し、物理サーバの番号が128から255までの場合は、右回りの通信経路を利用することを示している。ここでは、物理サーバの識別子から、どのデータセンタに所属する物理サーバか、また左回りの通信経路を利用するか、或いは右回りの通信経路を利用するかを判別可能なとしたが、それぞれが判別可能な対応を示すデータベースを別途作成し保持しても良い。
例えば、移動予定のVMが必要とする帯域として、図15に示されるように、0.15Gbpsの送信帯域と0.05Gbpsの受信帯域を必要としており、且つデータセンタBに存在する物理サーバで左回りの通信路を経由してデータを送受信している物理サーバが候補の場合は、図21に示したWAN帯域残量予測データベース247Aを参照する。そして、左回りの通信路を経由する場合は、N21からN22、N22からN23、及びN23からN24までの各区間において、VMが必要とする0.05Gbpsの受信帯域と、N24からN25、及びN25からN21までの区間において、低負荷確認期間TLにVMが必要とする0.15Gbpsの送信帯域を確保可能な場合は、収容に問題が無いことを、データセンタA管理サーバへ回答する(ステップS224)。一方、候補である物理サーバの収容先がデータセンタBであり、且つ必要とする帯域として、0.15Gbpsの送信帯域と0.05Gbpsの受信帯域を右回りで必要とする場合は、図22に示したWAN帯域残量予測データベース247Bを参照する。そして、右回りの通信路を経由するため、N21からN25、N25からN24までの区簡において、VMが必要とする0.05Gbpsの受信帯域と、N24からN23、N23からN22、及びN22からN21までの区間において、VMが必要とする0.15Gbpsの送信帯域確保が可能かを判断する。本実施形態では、右回りの通信路を経由する場合は、移動予定のVMが必要とする通信帯域を確保できないため、収容に予定に問題があることを、データセンタA管理サーバへ回答することになる(ステップS224)。
データセンタA管理サーバ130は、WAN管理サーバより送信された、移動VM収容候補物理サーバ毎の収容可否を受信し、収容可能な物理サーバにおいて最も電力効率の良い物理サーバを、移動予定のVMの移動先として選定する(ステップS225)。
前記説明した処理、ステップS214からステップS225を、自データセンタ内に存在する移動可否判断を実行する全てのVMについて実施する(ステップS226)。また、データセンタA管理サーバ130は、自データセンタ内の移動可否判断を実行する全てのVMについて移動可否を判断した後、移動予定のVMを、既存の物理サーバ上から移動候補先の物理サーバへ移動を制御する(ステップS227)。
移動先候補の物理サーバには、自データセンタ内の物理サーバも対象となる。すなわち、VMの移動には、自データセンタ内の他の物理サーバへの移動が含まれる場合もある。例えば、データセンタA管理サーバ130が、移動候補先の物理サーバの選定にあたって、各データセンタ30、40、50から3件、合計9件の候補物理サーバをまず選定し、次に、各々の電力効率と、右/左回りの通信帯域とを考慮して、最終的に、移動予定のVMの移動先として上位の3件を選定することが考えられる。このような選定は、低負荷確認期間TLの開始前、例えば20時までになされる。そして、選定されたVMの移動が低負荷確認期間TLに行われる。
図9は、本発明の第1の実施形態におけるデータセンタA管理サーバ130が実行する省電力配置制御処理を説明するフローチャートある。データセンタA管理サーバ130のCPU171が、省電力配置制御処理プログラム230をメモリ172にロードすることにより、VMの省電力配置制御処理が開始される(ステップS300)。
CPU171は、データセンタ内に存在するサーバ及びVMに対するモニタリングデータが所定期間以上存在するか否かを判定する(ステップS301)。例えば、3週間分の履歴データが存在するか否かを判定する。
ステップS301の条件が満たされていない場合は、ステップS301の条件が満たされるまでステップS301を継続する。ステップS301の条件が満たされた場合、CPU171は、VMが消費する将来のリソース量を予測する期間にあるか否かを判定する(ステップS302)。例えば、図5に示した将来負荷予測実行期間281内かを判定する。ステップS302の条件が満たされない場合は、ステップS302の条件が満たされるまでステップS302を継続する。
ステップS302の条件が満たされたと判定した場合、VMが消費する将来(例えば、図5における将来負荷予測対象期間282)のリソース量を予測する。具体的な予測例としては、図13に示した、VMが消費したリソースの履歴情報等から、図14に示した、VMが将来に消費する予定のリソース量を予測する(ステップS303)。なお、図13および図14では、図5における低負荷確認期間260における予測となっているが、同様に高負荷確認期間261についても予測する。
続いて、CPU171は、VMの省電力配置を実行する時刻になっているか否かを判定する(ステップS304)。ステップS304の判定において条件を満たしていないと判定した場合、ステップS304の条件が満たされるまでステップS304を継続する。
ステップS304の条件を満たしていると判定した場合、VM毎の移動先判定の順番を決定する(ステップS305)。
続いて、CPU171は、ステップS305にて決定した順番に、移動予定のVMが将来(例えば、図5における低負荷確認期間260)の縮約移動において必要とするリソース量を、他のデータセンタ管理サーバ140および150へ送信する(ステップS306)。
CPU171は、移動予定のVMを収容可能な物理サーバ候補の回答を、他の全てのデータセンタ管理サーバから受信したかを判定する(ステップS307)。ステップS307の条件を満たしていない場合は、ステップS307条件が満たされるまでステップS307を継続する。ステップS307の条件を満たした場合は、移動予定VMを収容可能な物理サーバとして受信した全ての候補及び自データセンタ内において移動VMを収容可能な物理サーバとから、さらに電力効率の良い順番で、所定数の物理サーバを候補として選定する(ステップS308)。例えば、上位3件の物理サーバを選定する。なお、他のデータセンタ管理サーバから受信した物理サーバを全て候補として選定しても良い。但し、その場合は、実際の移動先物理サーバ選定時間がわずかではあるが増加する。
続いて、CPU171は、ステップS308で選定した物理サーバ候補が、他のデータセンタ内の物理サーバか否かを判定する(ステップS309)。ステップS309の条件を満たすと判定した場合は、CPU171は、各候補の物理サーバへVMを移動した場合、WANに輻輳の問題が発生するか否かを確認するため、移動予定のVMに関する情報(VMのIPアドレス等の識別子、及びVMが必要とするリソース量情報)と、選定した物理サーバ候補に関する情報(物理サーバのIPアドレス等の識別子、及び物理サーバを収容するデータセンタの識別子)とを、WAN管理サーバ3へ送信する(ステップS310)。ステップS309の条件を満たしていないと判定した場合は、ステップS312の処理へと遷移する。
続いて、CPU171は、移動予定のVMを収容可能な物理サーバ候補の回答を、他の全てのデータセンタ管理サーバから受信したか否かを判定する(ステップS311)。ステップS311の条件を満たしていない場合は、ステップS311の条件が満たされるまでステップS311を継続する。ステップS311の条件を満たしていると判定した場合は、候補となっている物理サーバに関して、WAN側においても収容可能と判定された物理サーバ候補から最も省電力化を達成する物理サーバをVMの移動先候補物理サーバとして決定保持する(ステップS312)。
CPU171は、ステップS312で最終決定した候補の物理サーバ情報を、他のデータセンタ管理サーバへ通知する(ステップS313)。
続いて、ステップS306からステップS313までの処理を、自データセンタ内の全てのVMに対して実施したか否かを判定する(ステップS314)。ステップS314の条件を満たしていないと判定した場合は、次の移動予定のVMを選択し、ステップS306の処理に戻る(ステップS315)。ステップS314の条件を満たしていると判定した場合は、決定したVM移動先へ全てのVM移動を指示する(ステップS316)。
図10は、本発明の第1の実施形態におけるデータセンタ管理装置130が実行する省電力配置解除処理を説明するフローチャートある。データセンタA管理サーバ130のCPU171が、省電力配置制御処理プログラム231をメモリ172にロードすることにより、VMの省電力配置解除処理が開始される(ステップS1300)。
図10に示した、ステップS1305、ステップS1307、及びステップS1309からステップS1316までの処理は、図9にて説明したテップS305、ステップS307、及びステップS309からステップS316までの処理の内容と同一のため、説明を省略する。
CPU171は、省電力な配置を解除すべき時刻に達しているか否かを判定する(ステップS1320)。即ち、省電力配置解除開始時刻1(254)に達しているか否かを判定する。ステップS1320の条件を満たしていないと判定した場合は、ステップS1320条件が満たされるまでステップS1320を継続する。ステップS1320の条件を満たしていると判定した場合は、図9に説明したステップS1305の処理を実行する。
続いて、CPU171は、ステップS1305を実行した後、VMの負荷が高まる期間(例えば、図5中の高負荷確認期間261)におけるVMの片寄せ配置を解除した(非縮約)配置を決定するため、移動予定のVMが必要とするリソース量を、他のデータセンタ管理サーバへ送信する(ステップS1321)。続いて、CPU171はステップS1307を実行する。
ステップS1307の条件を満たした場合は、移動予定VMを収容可能な物理サーバとして受信した全ての候補及び自データセンタ内において移動VMを収容可能な物理サーバとから、さらに電力効率の良い順番で、所定数の物理サーバを候補として選定する(ステップS1322)。例えば、上位3件の物理サーバを選定する。なお、他のデータセンタ管理サーバから受信した物理サーバを全て候補として選定しても良い。但し、その場合は、実際の移動先物理サーバ選定時間がわずかではあるが増加する。
続いて、CPU171は、ステップS1309からステップS1316までの処理を実行し、図5の高負荷確認期間261向けに決定したVM移動先へ全てのVM移動を指示する。
図11は、本発明の第1の実施形態におけるデータセンタ管理装置が実行する省電力化応答処理を説明するフローチャートある。データセンタB管理サーバ140、或いはデータセンタC管理サーバ150のCPU171が、データセンタ管理サーバ省電力化応答処理プログラム232をメモリ172にロードすることにより、VM移動先候補選定処理が開始される(ステップS400)。
CPU171は、別のプロセスを起動し、非同期にてVMの配置制御や、物理サーバの電源管理処理を実行する(ステップS401)。
またCPU171は、別のプロセスを起動し、非同期にて、自データセンタ内のリソースの消費状態をモニタリングし、図13に示す各VMに対するVM消費リソース履歴データベース240Aを構成する(ステップS402)。なお、図13では、図5における低負荷確認期間260におけるリソースの消費状態履歴のみ表示しているが、高負荷確認期間261を含め、絶え間なくリソースの消費状態をモニタリングする。
続いて、CPU171は、図17に示したように、各物理サーバにおける電力効率の良い順に物理サーバをリスト化する(ステップS403)。ここで例えば、電力効率として、エネルギーの使用の合理化に関する法律が規定するエネルギー消費効率を用いる。
CPU171は、他のデータセンタ管理サーバから移動予定のVMを収容可能な物理サーバの探索依頼を受信しているか否かを判定する(ステップS404)。ステップS404の条件を満たしていないと判定した場合は、ステップS404の条件を満たすまで、ステップS404の処理を継続する。
ステップS404の条件を満たしたと判定した場合は、移動予定のVMを収容可能な物理サーバを探索開始する(ステップS405)。
CPU171は、図17に示した物理サーバの予想残リソース量データベース244Aを参照し、移動予定のVMを収容可能か判定する物理サーバを、物理サーバの予想残リソース量データベース244Aから順次1台を設定する(ステップS406)。
続いて、CPU171は、探索した物理サーバの個数として、1を加算する(ステップS407)。
CPU171は、ステップS406にて設定した探索物理サーバが、移動予定のVMを収容可能か判定する(ステップS408)。具体的には、図17に示す物理サーバの予想残リソース量データベース244Aを参照し、移動予定のVMが将来において消費する予定のリソース量を提供可能な物理サーバを、電力効率の良い順に探索する。移動予定のVMを収容可能な物理サーバ候補の選定では、図1に示したエンドユーザ2が各物理サーバとデータを送受信する場合に、WAN内において異なる経路を利用する物理サーバを複数選定する。例えば、本実施形態では、各データセンタ内における物理サーバの識別子を基に、サーバの識別子が0から127の場合は、WANにおいて左回りの経路を利用し、128から255までの場合は、WANにおいて右回りの経路を利用するため、左回りと右回りそれぞれにおいて、移動VMを収容可能な物理サーバ候補を選定する。
ステップS408の条件を満たしていると判定した場合は、移動予定のVMを収容可能な物理サーバ候補としてリストへ追加管理する(ステップS409)。
続いて、CPU171は、移動予定のVMを収容可能な物理サーバ候補がリストされたか否かを判定する(ステップS410)。具体的には、本実施形態では、WANに左回りの通信路と右回りの通信路が存在するため、各データセンタより、左回りの通信路を利用する物理サーバ候補と、右回りの通信路を利用する物理サーバ候補とが、1台ずつ選定されたか否かを判定する。
ステップS410の条件を満たしていないと判定した場合は、規定の物理サーバを探索したか否かを判定する(ステップS415)。具体的には、例えば自データセンタ内に1000台の物理サーバが存在する場合、電力効率順に10%(100台)の物理サーバのみを検索するように設定する。或いは、移動予定のVMが収容されている物理サーバの電力効率以上の物理サーバのみを対象とした探索を行う設定をする。
ステップS415の条件を満たしていると判定した場合は、ステップS411へ進み処理を継続する。
ステップS415の条件を満たしていないと判定した場合は、探索候補として設定した全ての物理サーバを探索したか否かを判定する(ステップS416)。
ステップS416の条件を満たしていると判定した場合は、ステップS411へ進み処理を継続する。
ステップS416の条件を満たしていないと判定した場合は、ステップS406へ進み処理を継続する。
また、CPU171は、ステップS408の条件を満たしていないと判定した場合は、規定割合の物理サーバを探索したか否かを判定する(ステップS415)。
ステップS410の条件を満たしていると判定した場合、移動予定のVMを収容可能な候補としてリストした物理サーバの情報(物理サーバのIPアドレス等の識別子、及び物理サーバを収容するデータセンタの識別子)を、要求元のデータセンタA管理サーバ130へ送信する(ステップS411)。
続いて、CPU171は、データセンタA管理サーバ130から、VMの移動先としての最終的な物理サーバの情報を受信したか否かを判定する(ステップS412)。ステップS412の条件を満たしていないと判定した場合は、ステップS412の条件を満たすまでステップS412の処理を継続する。
ステップS412の条件を満たしたと判定した場合、受信したVMの移動先としての物理サーバが自データセンタ内の物理サーバかを判定する(ステップS413)。ステップS413の条件を満たしていないと判定した場合は、ステップS404の処理へと進む。ステップS413の条件を満たしたと判定した場合は、選択された自データセンタ内の物理サーバが将来において提供可能なリソース量を、収容するVMが必要とするリソース量を減算し、図17に示したDCリソース残量予測データベース244を更新する(ステップS414)。ここで、DCリソース残量予測データベース244の更新では、収容するVMが必要とするリソース量を減算した後、提供可能なリソース量が所定の量未満である場合は、VM移動先候補としての物理サーバリストから除外し、図17の探索対象551に示したフラグを0にセットし、探索対象から除外したことを明示する。
図12は、本発明の第1の実施形態におけるVMが必要とする将来のリソース量を作成する方法を示している。即ち、算出したい期間における1週間、2週間、及び3週間前のリソースの消費履歴571、572、573を用いて、将来に必要とするリソース量580を算出する。なお算出では、自己回帰モデルを用いた。
図13は、本発明の第1の実施形態におけるVMが消費したリソース量の一例を示す説明図である。図13に示したVM消費リソース履歴データベース240Aでは、記録した期間が2012年12月10日(月)の20:00から12月11日(火)の6:00、すなわち図5中の低負荷確認期間TLとなっている。またモニタリングしたリソースは、CPU、メモリ、ストレージ、VMからの送信帯域、及びVMの受信帯域となっていることを示している。
図14は、本発明の第1の実施形態におけるVMが消費する予想リソース量の一例を示す説明図である。図14に示したVM消費リソース予測データベース241Aでは、予測した期間が2012年12月17日(月)の20:00から12月18日(火)の6:00、すなわち低負荷確認期間TLとなっている。また予測したリソースは、CPU、メモリ、ストレージ、VMからの送信帯域、及びVMの受信帯域となっていることを示している。
図15は、本発明の第1の実施形態におけるVMが必要とする予想リソース量の一例を示す図である。図15に示したVM必要リソース予測データベース242Aでは、予測した期間521が2012年12月17日(月)の20:00から12月18日(火)の6:00、すなわち低負荷確認期間TLとなっている。記載した項目511は、移動対象VMのIPアドレス522、移動対象VMを収容している物理サーバ523、移動対象VMを収容している物理サーバのエネルギー消費効率524、移動予定VMのCPU必要量525、メモリ必要量526、ストレージ必要量527、移動予定VMの送信帯域528、及び移動予定VMのデータ受信帯域529とから構成していることを示している。また、各項目における情報、及び必要とするリソース量は、図14にて予測した必要リソース量を参照し、前記予測期間における必要リソース量の最大値となっている。
図16は、本発明の第1の実施形態における物理サーバにいて予想される残リソース量の一例を示す図である。図16に示した物理サーバリソース残量予測データベース243Aでは、残リソースの管理項目561として、サーバ(物理サーバ或いはVM)識別子、エネルギー消費効率、CPU、メモリ、ストレージ、サーバのデータ送信帯域、サーバのデータ受信帯域があることを示している。図16の562は、複数のVMを収容する物理サーバが保有する全リソース量を示している。また、図16中の563、564が示すリソース量は、収容しているVM1及びVM2が予測期間中に必要とする最大リソース量を示している。さらに図16中の565は、各データセンタ内において複数のVMを収容した物理サーバにおける最少残リソース量を示している。
図17は、本発明の第1の実施形態におけるデータセンタ内物理サーバの予想残リソース量の一例を示す図である。図17に示した、データセンタリソース残量予測データベース244Aは、VM収容探索の対象を示す識別子551、物理サーバの電力効率に基づいて探索優先順位552、物理サーバ識別子553、物理サーバのエネルギー消費効率554、予測期間における、最少の残CPUリソース555、最少の残メモリリソース556、最少の残ストレージリソース557、最少の残送信帯域リソース558、及び最少の残受信帯域リソース559の項目を含んでいることを示している。各リソース項目における残リソース量は、図17に記載の値である。
図18は、本発明の第1の実施形態における複数のデータセンタ間のWAN(第1のネットワーク)が必要とするリソース量の作成方法を説明する図である。即ち、算出したい期間における1週間、2週間、及び3週間前のリソースの消費履歴591、592、593を用いて、将来に必要とするリソース量600を算出する。なお算出では、自己回帰モデルを用いた。
図19は、本発明の第1の実施形態におけるWANが消費したリソース量の一例を示す説明図である。縦軸は時間帯、横軸はノード間のリンクを示している。図19に示したWAN消費帯域履歴データベース245Aでは、図示していないが、記録した期間が2012年12月10日(月)の20:00から12月11日(火)の6:00、すなわち低負荷確認期間TLとなっている。またモニタリングしたノード間のリンクは、第1のネットワークのノード21とノード22間、ノード22とノード23間、ノード23とノード24間、ノード24とノード25間、ノード25とノード21間、となっていることを示している。また、WAN消費帯域履歴データベース245Aに記載した消費帯域は、1分毎の各リンクにおける平均消費帯域を表している。さらに、図19では、左回りの通信経路における消費帯域の履歴を示したWAN消費帯域履歴データベース245Aであるが、同様に、図示していない右回りの通信経路における消費帯域の履歴を示したWAN消費帯域履歴データベース245Bも作成する。
図20は、本発明の第1の実施形態におけるWANが消費する予想リソース量の一例を示す説明図である。図20に示したWAN消費帯域予測データベース246Aでは、図示していないが、予測した期間が2012年12月17日(月)の20:00から12月18日(火)の6:00、すなわち低負荷確認期間TLとなっている。またモニタリングしたノード間のリンクは、第1のネットワークのノード21とノード22間、ノード22とノード23間、ノード23とノード24間、ノード24とノード25間、ノード25とノード21間、となっていることを示している。また、WAN消費帯域予測データベース246Aに記載した予測消費帯域は、1分毎の各リンクにおける平均消費帯域の予測値を表している。さらに、図20では、左回りの通信経路における消費帯域の予測値を示したWAN消費帯域予測データベース246Aであるが、同様に、図示していない右回りの通信経路における消費帯域の予測値を示したWAN消費帯域予測データベース246Bも作成する。
図21は、本発明の第1の実施形態におけるWANの左回りに関する予想残リソース量の一例を示す図である。図21に示したWAN帯域残量予測データベース247Aでは、図示していないが、予測した期間が2012年12月17日(月)の20:00から12月18日(火)の6:00、すなわち低負荷確認期間TLとなっている。図21の601に示された最少残帯域リソース量は、図20に示したWAN消費帯域予測データベース246Aにおいて、前記予測した期間TLにおける第1のネットワークの左回りに対する最少の帯域量をデータベース化したものである。
図22は、本発明の第1の実施形態におけるWANの右回りに関する予想残リソース量の一例を示す図である。図22に示したWAN帯域残量予測データベース247Bでは、図示していないが、予測した期間が2012年12月17日(月)の20:00から12月18日(火)の6:00、すなわち低負荷確認期間TLとなっている。図22の602に示された最少残帯域リソース量は、図示していないが、WAN消費帯域予測データベース246Bにおいて、前記予測した期間TLにおける第1のネットワークの右回りに対する最少の帯域量をデータベース化したものである。
本実施例によれば、計算機システムにおいて、サービスを提供する仮想計算機を、計算機リソースのみならず、前記仮想計算機を移動した場合に、低負荷確認期間で計算機のみならずデータセンタ間を接続するネットワークに問題が発生しない場合に限り、且つ省電力化を達成する計算機上へ仮想計算機を移動することができる。したがって、仮想計算機が提供するエンドユーザへのサービスの品質を劣化させることなく、計算機システムの省電力化を達成できる。また、複数存在するデータセンタ内の膨大な計算機群の中から、予め条件に適する計算機を選別し、サービスを提供する仮想計算機移動可能か否かを少量の計算器量にて判定することができる。したがって、サービスを提供する仮想計算機の移動先を高速、短時間にて判定でき、且つ仮想計算機の省電力な配置を長時間に設定することができる。
本発明の第2の実施形態について、図23乃至図25を参照して説明する。第2の実施形態では、第1の実施形態と異なり、特定のデータセンタ内に、データセンタ統合管理サーバが設けられている。
図23は、第2の実施形態における計算機システムの構成例を示す図である。データセンタ統合管理サーバ160は、データセンタ30内の第2のネットワーク11のノード36に接続されている。データセンタ統合管理サーバ160は、第1の実施形態における各管理サーバ130、140、150が処理していた機能の一部を集約したものである。
図24は、データセンタ統合管理サーバ160を含む計算機システムの機能ブロックを示している。データセンタ統合管理サーバ160は、第1のネットワーク10を介してWAN管理サーバ3に接続され、各データセンタ内の管理サーバ130、140、150を統合管理する。各データセンタ管理サーバ130、140、150には、第2のネットワーク11、12、13を介して物理サーバ131、141、151やネットワークノード138、148,158が接続されている。ネットワークノード138、148、158は第2のネットワーク11の各ノード32、33、等に相当する。データセンタ統合管理サーバ160は、主な機能として、データセンタ省電力化順位制御部、WAN管理サーバ連携部、データセンタ管理サーバ連携部を備え、省電力化制御開始前の各データセンタ内の状態のモニタリング、各データセンタの省電力化処理の順序の決定、及び移動予定のVMに関する情報や移動先候補の物理サーバ情報等をWAN管理サーバへ通知等を行う。WAN管理サーバ3は、WAN状態モニタリング部、WAN状態履歴保持部、WAN負荷予測部及びWAN状態回答部を備えている。このWAN管理サーバ3の構成は図3に示した第1の実施形態のWAN管理サーバ3の構成例と表現が若干異なるが、全体として両者は処理事項が同じである。各データセンタ管理サーバ130、140、150は、DC状態モニタリング部、DC状態履歴保持部、DC負荷予測部、DC統合管理サーバ連携部、他DC管理サーバ連携部、サーバ省電力化制御部、及び、指定VM収容先判定部を備えている。これらデータセンタ管理サーバの構成は図2に示した第1の実施形態のデータセンタ管理サーバ130の構成例と表現が若干異なるが、データセンタ統合管理サーバ160に移行した機能を除いて、全体として両者は処理事項が同じである。
図25は、第2の実施形態における計算機システム全体の処理の流れを説明するシーケンス図である。本実施形態では、データセンタA管理サーバ130が、データセンタ統合管理サーバ160の管理の下で、自データセンタ内のVMを、他のデータセンタB、或いはデータセンタC内の物理サーバへ移動する処理を示す。
WAN管理サーバ3は、WAN状態のモニタリング、WAN内の将来の負荷予測、WAN内の将来の残帯域算出の処理を行う。各データセンタ管理サーバ130、140、150は、各データセンタ内のリソースの消費状態をモニタリングし、各VMに対するVM消費リソース履歴データベースを構成する。また、各データセンタ内におけるVMリソース消費履歴データベースから、各VMにおける将来のリソース消費(負荷)を予測し、VM消費リソース予測データベースを構成する。さらに、図5にて示した低負荷確認期間(TL)260に関して、VM消費リソース予測データベースから、各VMが必要とする最大のリソース量を示すVM必要リソース予測データベースを構成する。これらの処理が、省電力化制御の前に予め実行される。データセンタ統合管理サーバ160は、データセンタ毎の省電力化制御の順序を決定し、初めに実行するデータセンタ管理サーバへ通知する。通知を受けたデータセンタ管理サーバは、データセンタ内に存在する全てのVMに対して、他のデータセンタへ移動するか否かを判定するための順序を決定する。本実施形態では、データセンタA管理サーバ130は、データセンタ統合管理サーバ160からの指示に従い、第1番目の移動予定VMに対して、将来に必要なリソース量をVM必要リソース予測データベース242から取得する。以降の、WAN管理サーバ3及び各データセンタ管理サーバ130、140、150における処理は、実施例1と同様である。
本実施形態においても、実施形態1と同様な効果がある。また、各データセンタの全体を集中管理することで、各データセンタにおける省電力化制御のタイミングを適切に制御できる。
2…エンドユーザ端末、
3…WAN管理装置、
10…第1のネットワーク(WAN)、
11、12、13…第2の(データセンタ)ネットワーク、
21、22、23、24、25…ノード、
30、40、50…データセンタ、
31、32、33、34、35、36…ノード、
41、42、43、44、45…ノード、
51、52、53、54、55…ノード、
130、140、150…データセンタ管理サーバ、
131、135、141、145、151、155…物理サーバ、
132、136、142、146、152、156…仮想サーバ(VM)、
230…省電力配置制御処理プログラム、
231…省電力配置解除処理プログラム、
232…データセンタ管理サーバ省電力化応答処理プログラム、
233…VM配置とサーバ電源管理処理、
234…リソースモニタリング処理プログラム、
235…リソース消費予測処理プログラム
236…WAN内輻輳判定処理プログラム、
237…WAN内リソースモニタリング処理プログラム、
238…WAN内リソース消費予測処理プログラム、
239…WAN内帯域残量予測処理プログラム、
240…VM消費リソース履歴データベース情報、
241…VM消費リソース予測データベース情報、
242…VM必要リソース予測データベース情報、
243…物理サーバリソース残量予測データベース情報、
244…データセンタリソース残量予測データベース情報、
245…WAN消費帯域履歴データベース、
246…WAN消費帯域予測データベース、
247…WAN帯域残量予測データベース、
260…低負荷確認期間TL、
261…高負荷確認期間TH。

Claims (15)

  1. 複数のデータセンタと前記複数のデータセンタを接続する第1のネットワークとを備えた計算機システムであって、
    前記データセンタ毎に設けられ当該データセンタ内のリソースを管理するリソース管理装置と、
    前記第1のネットワークを管理するネットワーク管理装置と、
    前記各データセンタ内に存在する移動予定の仮想計算機が必要とするリソース量を取得する手段とを有し、
    前記データセンタの1つを管理する第1の前記リソース管理装置は、
    管理下の前記1つのデータセンタにおける前記移動予定の仮想計算機が必要とするリソース量を、該他のデータセンタを管理する第2の前記リソース管理装置へ通知する機能と、
    前記必要なリソース量の情報に応答して前記第2のリソース管理装置において選定された、前記移動予定の仮想計算機を稼動することが可能な少なくとも1つの物理計算機の候補の情報を受信する機能と、
    前記受信した前記仮想計算機の移動先候補の情報を、前記ネットワーク管理装置へ通知する機能とを有し、
    前記ネットワーク管理装置は、
    当該システムを利用するエンドユーザから前記受信した移動先候補毎の前記物理計算機へのデータ送受信において、前記第1のネットワーク内に問題が発生するか否かを判定し、該判定の結果を前記第1のリソース管理装置へ通知する機能を有し、
    前記第1のリソース管理装置は、さらに、
    前記移動先候補物理計算機候補の情報と前記の判定の結果とから、省電力化を達成する上位の少なくとも1つの物理計算機を、前記移動予定の仮想計算機の移動先として選択する機能を有する
    ことを特徴とする計算機システム。
  2. 請求項1において、
    前記第1のリソース管理装置は、
    管理下の前記データセンタ内に存在する仮想計算機が移動予定の時間帯おいて前記仮想計算機が必要とするリソース量を取得する機能と、
    前記複数の仮想計算機の移動先物理計算機候補の中から、上位の所定数に絞った数の前記物理計算機候補を選択し、該選択した物理計算機情報を前記ネットワーク管理装置へ通知する機能とを有し、
    前記ネットワーク管理装置における前記判定において、前記移動予定の時間帯に前記第1のネットワーク内に問題が発生するか否かを判定する
    ことを特徴とする計算機システム。
  3. 請求項2において、
    前記第1のリソース管理装置は、
    前記第2のリソース管理装置から受信した前記仮想計算機の移動先物理計算機候補、及び、自データセンタ内の少なくとも1つの仮想計算機の移動先物理計算機候補とから、前記上位の所定数の物理計算機候補を選択する機能を有する
    ことを特徴とする計算機システム。
  4. 請求項1において、
    前記第1のリソース管理装置は、
    前記移動予定の仮想計算機を収容している物理計算機の電力効率を前記第2のリソース管理装置へ通知する機能を有し、
    前記第2のリソース管理装置は、
    前記受信した前記電力効率に応答して、該電力効率以上でかつ前記仮想計算機を稼動することが可能な物理計算機の候補の情報を選定し、前記第1のリソース管理装置へ送信する機能を有する
    ことを特徴とする計算機システム。
  5. 請求項1において、
    前記第1のリソース管理装置は、管理する仮想計算機全てに対して移動の可否を決定した後に、該配置換えを予定する仮想計算機の移動を実行する機能を有する
    ことを特徴とする計算機システム。
  6. 請求項1において、
    前記第2のリソース管理装置は、
    前記移動予定の仮想計算機を稼動することが可能な同一のデータセンタ内における物理計算機の候補として、前記第1のネットワーク上において異なる通信経路を利用する複数の前記物理計算機候補を選定する機能を有する
    ことを特徴とする計算機システム。
  7. 請求項6において、
    前記第1のネットワークがリング型のネットワークであり、
    前記他のデータセンタのリソースを管理する前記第2のリソース管理装置は、仮想計算機を稼動可能な物理計算機の候補を、前記第1のネットワークにおける左回りの通信経路および右回りの通信経路を利用する物理計算機の候補をそれぞれ一台以上選定する機能を有する
    ことを特徴とする計算機システム。
  8. 請求項1において、
    前記第2のリソース管理装置は、
    管理する物理計算機を電力効率順に管理し、前記第1のリソース管理装置から移動予定の仮想計算機が必要とするリソース量を受信した場合、前記電力効率順に前記仮想計算機が必要とするリソースを提供可能な物理計算機を探索する機能を有する
    ことを特徴とする計算機システム。
  9. 請求項1において、
    前記各データセンタは、当該データセンタ内のリソースとして第2のネットワーク含んでおり、
    前記第2のリソース管理装置は、
    管理する前記物理計算機のうち、所定以上の残リソースを有しない前記物理計算機を、前記移動予定の仮想計算機を収容する物理計算機としてのリストから除外する
    ことを特徴とする計算機システム。
  10. 請求項1において、
    前記第2のリソース管理装置は、
    前記第1のリソース管理装置から受信した移動予定の仮想計算機を、該仮想計算機の移動時間を含めた期間の間において収容可能かを判定することにより、前記移動予定の仮想計算機を稼動可能な物理計算機を選定する
    ことを特徴とする計算機システム。
  11. 請求項1において、
    前記第1のネットワークに接続されたデータセンタ統合管理サーバを備え、
    該データセンタ統合管理サーバは、
    前記各データセンタ内に存在する移動予定の仮想計算機が必要とするリソース量を取得する機能と、
    前記各データセンタの省電力化処理の順序を決定し、前記各データセンタに通知する機能とを有する
    ことを特徴とする計算機システム。
  12. 第1のデータセンタ内のリソースを管理するリソース管理装置であって、
    前記第1のデータセンタは、ネットワーク管理装置により制御される第1のネットワークを介して、計算機システムを構成する複数の第2のデータセンタと接続可能に構成されており、
    前記リソース管理装置は、
    前記第1のデータセンタ内に存在する移動予定の仮想計算機が必要とするリソース量を取得する手段と、
    前記取得した移動予定の仮想計算機が必要とするリソース量を前記第2のデータセンタの第2のリソース管理装置へ通知する手段と、
    前記第2のリソース管理装置から前記移動予定の仮想計算機を収容可能な物理計算機の候補情報を受信する手段と、
    前記受信した仮想計算機を収容可能な物理計算機の候補に対して前記移動予定の前記仮想計算機を移動した場合に前記第1のネットワークに問題が発生しないかを、前記ネットワーク管理装置へ問い合わせる手段と、
    前記物理計算機候補の情報と前記問い合わせた結果とから、省電力化を達成する上位の少なくとも1つの物理計算機へ、前記移動予定の仮想計算機を配置するように決定する手段とを有する
    ことを特徴とするデータセンタ内のリソース管理装置。
  13. 請求項12において、
    前記リソース管理装置は、
    前記第2のリソース管理装置から受信した前記仮想計算機の移動先物理計算機候補、及び、自データセンタ内の少なくとも1つの仮想計算機の移動先物理計算機候補とから、前記上位の所定数の物理計算機候補を選択し、
    該選択した物理計算機情報に関し、移動予定の時間帯に前記仮想計算機を移動した場合に前記第1のネットワークに問題が発生しないかを、前記ネットワーク管理装置へ問い合わせる
    ことを特徴とするデータセンタ内のリソース管理装置。
  14. 複数のデータセンタと前記複数のデータセンタを接続する第1のネットワークとを備えた計算機システムにおけるリソース管理方法であって、
    前記計算機システムは、
    前記データセンタ毎に設けられ当該データセンタ内のリソースを管理するリソース管理装置と、
    前記第1のネットワークを管理するネットワーク管理装置とを有しており、
    前記データセンタの1つを管理する第1の前記リソース管理装置が、
    管理下の前記データセンタ内に存在する移動予定の仮想計算機が必要とするリソース量を取得し、
    前記取得した移動予定の仮想計算機が必要とするリソース量を他の前記データセンタを管理する第2のリソース管理装置へ通知し、
    前記第2のリソース管理装置が、移動予定の仮想計算機を稼動することが可能な物理計算機の候補を1乃至複数選定し、前記第1のリソース管理装置へ通知し、
    前記第1のリソース管理装置は、前記第2の前記リソース管理装置から受信した前記仮想計算機の移動先候補の情報を、前記ネットワーク管理装置へ通知し、
    前記ネットワーク管理装置は、当該システムを利用するエンドユーザから前記受信した移動先候補毎の前記物理計算機へのデータ送受信において、前記第1のネットワーク内に問題が発生するか否かを判定し、該判定の結果を前記第1のリソース管理装置へ通知し、
    前記第1のリソース管理装置は、前記移動先候補物理計算機と前記の判定の結果とから最も省電力化を達成する少なくとも1つの物理計算機を、前記移動予定の仮想計算機の移動先として選択する
    ことを特徴とする計算機システムにおけるリソース管理方法。
  15. 請求項14において、
    前記第1のリソース管理装置は、
    管理下の前記データセンタ内に存在する移動予定の仮想計算機が必要とするリソース量を取得し、
    前記第2のリソース管理装置から受信した前記仮想計算機の移動先物理計算機候補、及び、自データセンタ内の少なくとも1つの仮想計算機の移動先物理計算機候補とから、前記上位の所定数の物理計算機候補を選択し、
    移動予定の時間帯に前記仮想計算機を移動した場合に前記第1のネットワークに問題が発生しないかを、前記ネットワーク管理装置へ問い合わせる
    ことを特徴とする計算機システムにおけるリソース管理方法。
JP2013022767A 2013-02-08 2013-02-08 計算機システム及びリソース管理装置並びにリソース管理方法 Active JP6081212B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013022767A JP6081212B2 (ja) 2013-02-08 2013-02-08 計算機システム及びリソース管理装置並びにリソース管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013022767A JP6081212B2 (ja) 2013-02-08 2013-02-08 計算機システム及びリソース管理装置並びにリソース管理方法

Publications (3)

Publication Number Publication Date
JP2014153897A true JP2014153897A (ja) 2014-08-25
JP2014153897A5 JP2014153897A5 (ja) 2016-01-07
JP6081212B2 JP6081212B2 (ja) 2017-02-15

Family

ID=51575714

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013022767A Active JP6081212B2 (ja) 2013-02-08 2013-02-08 計算機システム及びリソース管理装置並びにリソース管理方法

Country Status (1)

Country Link
JP (1) JP6081212B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212609A (ja) * 2015-05-08 2016-12-15 株式会社日立製作所 仮想マシン運用支援システムおよび仮想マシン運用支援方法
JP2016218759A (ja) * 2015-05-20 2016-12-22 富士通株式会社 情報処理装置、情報処理プログラム、及びデータセンタシステム
JP2017168074A (ja) * 2016-03-14 2017-09-21 北京百度網訊科技有限公司 データ伝送制御方法及び装置
JP2019159385A (ja) * 2018-03-07 2019-09-19 富士ゼロックス株式会社 処理割当装置及び処理割当プログラム
US10768967B2 (en) 2017-08-23 2020-09-08 Fujitsu Limited Maintenance control method, system control apparatus and storage medium
WO2023152896A1 (ja) * 2022-02-10 2023-08-17 日本電信電話株式会社 仮想マシン消費電力予測装置、仮想マシン消費電力予測方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009134687A (ja) * 2007-11-29 2009-06-18 Hitachi Ltd アプリケーションマイグレーションのための候補データセンタを見つける方法および装置[0001]
JP2011221581A (ja) * 2010-04-02 2011-11-04 Hitachi Ltd 計算機システムの管理方法、計算機システム管理端末および計算機管理システム
JP2012141671A (ja) * 2010-12-28 2012-07-26 Hitachi Ltd 仮想計算機の移動方法、仮想計算機システム及び管理サーバ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009134687A (ja) * 2007-11-29 2009-06-18 Hitachi Ltd アプリケーションマイグレーションのための候補データセンタを見つける方法および装置[0001]
JP2011221581A (ja) * 2010-04-02 2011-11-04 Hitachi Ltd 計算機システムの管理方法、計算機システム管理端末および計算機管理システム
JP2012141671A (ja) * 2010-12-28 2012-07-26 Hitachi Ltd 仮想計算機の移動方法、仮想計算機システム及び管理サーバ

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212609A (ja) * 2015-05-08 2016-12-15 株式会社日立製作所 仮想マシン運用支援システムおよび仮想マシン運用支援方法
JP2016218759A (ja) * 2015-05-20 2016-12-22 富士通株式会社 情報処理装置、情報処理プログラム、及びデータセンタシステム
JP2017168074A (ja) * 2016-03-14 2017-09-21 北京百度網訊科技有限公司 データ伝送制御方法及び装置
US10768967B2 (en) 2017-08-23 2020-09-08 Fujitsu Limited Maintenance control method, system control apparatus and storage medium
JP2019159385A (ja) * 2018-03-07 2019-09-19 富士ゼロックス株式会社 処理割当装置及び処理割当プログラム
JP7077676B2 (ja) 2018-03-07 2022-05-31 富士フイルムビジネスイノベーション株式会社 処理割当装置及び処理割当プログラム
WO2023152896A1 (ja) * 2022-02-10 2023-08-17 日本電信電話株式会社 仮想マシン消費電力予測装置、仮想マシン消費電力予測方法、及びプログラム

Also Published As

Publication number Publication date
JP6081212B2 (ja) 2017-02-15

Similar Documents

Publication Publication Date Title
CN103608747B (zh) 基于上下文信息的电力和负载管理
JP6081212B2 (ja) 計算機システム及びリソース管理装置並びにリソース管理方法
Kaur et al. Container-as-a-service at the edge: Trade-off between energy efficiency and service availability at fog nano data centers
Liu et al. Solving the multi-objective problem of IoT service placement in fog computing using cuckoo search algorithm
US10200261B2 (en) Multiple-computing-node system job node selection
US9442760B2 (en) Job scheduling using expected server performance information
Wadhwa et al. TRAM: Technique for resource allocation and management in fog computing environment
CN102246152B (zh) 保存程序执行状态
CN104636204B (zh) 一种任务调度方法与装置
CN102591921A (zh) 个人数据中心内的调度和管理
Żotkiewicz et al. Minimum dependencies energy-efficient scheduling in data centers
WO2020215752A1 (zh) 图计算方法及装置
Qu et al. Study QoS optimization and energy saving techniques in cloud, fog, edge, and IoT
Fernández-Cerero et al. Sphere: Simulator of edge infrastructures for the optimization of performance and resources energy consumption
JP6010975B2 (ja) ジョブ管理装置、ジョブ管理方法、及びプログラム
Babu et al. Interference aware prediction mechanism for auto scaling in cloud
US20230367654A1 (en) Automatic node fungibility between compute and infrastructure nodes in edge zones
Whaiduzzaman et al. Pefc: Performance enhancement framework for cloudlet in mobile cloud computing
CN112948088B (zh) 一种云计算平台中的云工作流智能管理与调度系统
Deiab et al. Energy efficiency in cloud computing
CN105827744A (zh) 云存储平台的数据处理方法
Liu et al. KubFBS: A fine‐grained and balance‐aware scheduling system for deep learning tasks based on kubernetes
EP2923320A1 (en) Transparently routing job submissions between disparate environments
Shitharth et al. QoS enhancement in wireless ad hoc networks using resource commutable clustering and scheduling
Tang et al. Edge computing energy-efficient resource scheduling based on deep reinforcement learning and imitation learning

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140908

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160719

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170118

R150 Certificate of patent or registration of utility model

Ref document number: 6081212

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150