JP6741941B2 - 仮想マシン管理プログラム、仮想マシン管理方法、及び、仮想マシン管理装置 - Google Patents

仮想マシン管理プログラム、仮想マシン管理方法、及び、仮想マシン管理装置 Download PDF

Info

Publication number
JP6741941B2
JP6741941B2 JP2016159477A JP2016159477A JP6741941B2 JP 6741941 B2 JP6741941 B2 JP 6741941B2 JP 2016159477 A JP2016159477 A JP 2016159477A JP 2016159477 A JP2016159477 A JP 2016159477A JP 6741941 B2 JP6741941 B2 JP 6741941B2
Authority
JP
Japan
Prior art keywords
virtual machine
resource usage
migration
value
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016159477A
Other languages
English (en)
Other versions
JP2018028746A (ja
Inventor
大輔 菊岡
大輔 菊岡
義起 寺井
義起 寺井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016159477A priority Critical patent/JP6741941B2/ja
Publication of JP2018028746A publication Critical patent/JP2018028746A/ja
Application granted granted Critical
Publication of JP6741941B2 publication Critical patent/JP6741941B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、仮想マシン管理プログラム、仮想マシン管理方法、及び、仮想マシン管理装置に関する。
複数の物理マシンにそれぞれに1台以上の仮想マシンが配備されたシステムがある。このようなシステムでは、仮想マシンを利用するユーザから、仮想マシンのリソースに関する設定の変更要求を受けることがある。
変更要求を受信すると、仮想マシン管理装置は、物理マシンに配備された1以上の仮想マシンのリソース使用量を参照し、変更要求に基づくリソースの変更の可否を判定する。リソースの変更が可能である場合、仮想マシン管理装置は、変更要求に基づいて、各仮想マシンのリソースの設定値を変更する。一方、リソースの変更が不可能である場合、仮想マシン管理装置は、例えば、変更要求に応じたリソースを確保するために、マイグレーションを実行する。
仮想マシンのリソースに関する技術については、例えば、特許文献1〜4に記載される。
国際公開第08/102739号 特開2013−206321号公報 国際公開第14/122743号 特開2014−6739号公報
しかしながら、例えば、変更要求の受信時の各仮想マシンのリソース使用量に基づいてリソースの変更の可否を判定する場合、変更可能であると判定された場合であっても、変更要求の適用後にリソース不足が生じる可能性がある。一方、各仮想マシンのリソース使用量の最大値に基づいてリソースの変更の可否を判定する場合、リソースに余剰があるにも関わらず、変更が不可能であると判定される場合がある。リソースの変更の可否が適切に判定されない場合、マイグレーションの実行を適切に判定できない。
開示の1つの側面は、仮想マシンの適切な配備を実現する仮想マシン管理プログラム、仮想マシン管理方法、及び、仮想マシン管理装置を提供することを目的とする。
第1の態様によれば、複数の物理マシンに1以上の仮想マシンが配備されたシステムで、第1の期間を複数に分割した所定期間ごとに、前記1以上の仮想マシンそれぞれのリソース使用量を記憶し、第1の仮想マシンのリソースに関する変更情報を取得したときに、前記第1の仮想マシンを配備する第1の物理マシンに配備される、前記第1の仮想マシン以外の第2の仮想マシンの前記所定期間ごとのリソース使用量と、前記変更情報に基づく前記第1の仮想マシンの前記所定期間ごとのリソース使用量の予測値とに基づいて、前記第1、第2の仮想マシンのリソース使用量の前記所定期間ごとの合計値が所定の閾値を超えるか否かを判定し、いずれかの前記所定期間のリソース使用量の合計値が前記所定の閾値を超える場合に、マイグレーションの実行を決定する、処理を実行させる。
1つの側面では、仮想マシンの適切な配備を実現できる。
本実施の形態における情報処理システムの構成の一例を示す図である。 物理マシン300の仮想環境を模式的に説明する図である。 スケールアップの一例を示す図である。 VMゲストa1〜a4の時間帯に応じたリソース使用量の変移例を示す図である。 VMゲスト群のメモリの設定値の合計が許容リソース量を超えるにも関わらずスケールアップを実行した場合の、メモリの割り当て量を例示する図である。 本実施の形態における管理装置100の処理を説明するフローチャート図である。 仮想マシン群のリソース使用量の所定期間ごとの合計を模式的に説明する図である。 第2の実施の形態における管理装置(仮想マシン管理装置)100のハードウェア構成図である。 図8に示した管理装置100のソフトウェアの機能を示す図である。 本実施の形態における仮想マシン管理プログラムの処理の流れを説明するフローチャート図である。 図10の工程S12の処理の詳細を説明するフローチャート図である。 稼働履歴情報テーブル121の一例を示す図である。 VMホストhAが実行する各VMゲストa1〜a4の各時間帯のメモリ使用量の一例を示す図である。 スケールアップ後のVMゲストa1のメモリ使用量の予測値の一例を示す図である。 図10のフローチャート図の工程S14の処理の詳細を説明するフローチャート図である。 各VMホストhA〜hDのVMゲスト群のメモリ使用量の時間帯ごとの合計値を示す図である。 VMゲストa4をVMホストhB〜hDに移行した場合の、各VMホスト単位のメモリ使用量の時間帯ごとの合計値を示す図である。 1つの目のマイグレーションを実行した場合の、各VMホストhA〜hDのVMゲスト群のメモリ使用量の時間帯ごとの合計値を示す図である。 ラベルテーブル122の一例を説明する図である。 1つ目、2つ目のマグレーションプランを実行した場合の、各VMホストhA〜hDのメモリ使用量の時間帯ごとの合計値の一例を示す図である。 マイグレーション対象リスト123の一例を示す図である。 移行VMゲストa4、d1の時間帯ごとのメモリ使用量の一例を示す図である。 マイグレーション前後の1つのVMホストのリソース使用量を示す図である。
以下、図面にしたがって本発明の実施の形態について説明する。ただし、本発明の技術的範囲はこれらの実施の形態に限定されず、特許請求の範囲に記載された事項とその均等物まで及ぶものである。
[情報処理システムの構成]
図1は、本実施の形態における情報処理システムの構成の一例を示す図である。図1に示すように、情報処理システムは、仮想マシン管理装置100(以下、管理装置100と称する)と、クライアント装置200と、当該管理装置100が管理対象とする管理対象サーバ群を有する。管理対象サーバ群は、複数の物理マシン300a〜300d(物理マシン300ともいう)を有する。
管理装置100とクライアント装置200との間、及び、管理装置100と各物理マシン300との間は、ネットワークを介して接続する。ネットワークは、例えば、LAN(Local Area Network)やVPN(Virtual Private Network)等の通信網である。
物理マシン300では、コンピュータシステムの動作環境を仮想的に実現する仮想化ソフトウェアが動作する。仮想化ソフトウェアは、1または複数の仮想マシンを実行する。管理装置100は、各物理マシン300の仮想環境を管理する。また、管理装置100は、例えば、仮想マシンの配備や削除、仮想マシンの他の物理マシン300へのマイグレーション等を、仮想化ソフトウェアに指示する。クライアント装置200は、仮想環境に対する指示の入力や、仮想環境の情報の表示等を行う。
図2は、物理マシン300aの仮想環境を模式的に説明する図である。なお、他の物理マシン300b〜300dの構成も物理マシン300aと同様である。図2は、ハイパーバイザー型の仮想化環境を示す。ただし、この例に限定されるものではなく、本実施の形態はホスト型の仮想化環境にも有効である。
ハイパーバイザー型の仮想化環境では、ハードウェア上で、仮想化ソフトウェアを示すハイパーバイザー302が動作する。ハイパーバイザー302は、例えば、VMware ESXi(登録商標)等のソフトウェアである。以下、ハードウェア301とハイパーバイザー302との組み合わせを、VMホストと称する。また、以下、仮想マシンをVMゲストと称する。
図2に示すVMホストhAは、4つのVMゲストa1〜a4を実行する。各VMゲストa1〜a4は、VMホストhAがハードウェア301に含まれるCPU(Central Processing Unit:CPU)やメモリ等のリソースを割り当てることにより動作する。
また、VMゲストa1〜a4には、当該VMゲストに割り当てられるリソースの上限を示す設定値が設定される。各VMゲストa1〜a4には、設定値が示すリソースが常に割り当てられるのではなく、設定値を上限として、処理に応じたリソースが動的に割り当てられる。また、未割り当てのリソースは、いずれかのVMゲストに割り当て可能である。割り当て可能なリソースが不足すると処理のパフォーマンスが低下するため、設定値には、例えば、VMゲストa1〜a4の処理に要するリソースの最大値が設定される。
(スケールアップ、スケールダウン)
管理装置100は、クライアント装置200を介して、ユーザから各VMゲストの設定値の変更要求を受け付ける。変更要求は、設定値の増減(スケールアップ・スケールダウン)である。スケールアップは設定値の増加(拡張)を示し、スケールダウンは設定値の低減(減縮)を示す。このとき、管理装置100は変更要求の可否を判定する。本実施の形態では、スケールアップする場合を例示する。
管理装置100は、例えば、スケールアップ対象のVMゲストを含む、同一のVMホストが実行するVMゲスト群のリソースの使用状態に基づいて、スケールアップの可否を判定する。スケールアップ不可と判定した場合、例えば、管理装置100は、空きリソースを増加させるために、VMゲストのいずれかを他のVMホストにマイグレーションする。
具体的に、管理装置100は、スケールアップ受付時、VMゲスト群に割り当てられているリソース量(以下、リソース使用量と称する)の合計値がVMホストの許容リソース量を超えない場合に、スケールアップ可能であると判定する。許容リソース量は、VMホストがVMゲスト群に割り当て可能なリソース量の最大値である。
ただし、この場合、スケールアップに伴い、スケールアップ対象のVMゲストに割り当て可能なリソースの上限が増加することにより、他のVMゲストに十分なリソースを割り当てられない場合がある。または、他のVMゲストの負荷が増加した場合、スケールアップしたVMゲストに十分なリソースを割り当てられない場合がある。
または、管理装置100は、例えば、各VMゲストのリソース使用量の平均値に基づいて、スケールアップの可否を判定する。具体的に、管理装置100は、VMゲスト群のリソース使用量の平均値の合計が許容リソース量を超えない場合に、スケールアップ可能であると判定する。ただし、平均値に基づいてスケールアップ可能である旨判定された場合であっても、VMゲスト群の負荷が同一の時間帯に高くなると、各VMゲストに割り当てるリソースが不足する可能性がある。
(設定値に基づくスケールアップの可否判定)
このように、スケールアップ受付時のリソース使用量やリソース使用量の平均値に基づいてスケールアップの可否を判定する場合、スケールアップ後にリソース不足が発生する可能性がある。したがって、管理装置100は、例えば、各VMゲストのリソースの設定値に基づいて、スケールアップの可否を判定する。
つまり、管理装置100は、スケールアップ後のVMゲスト群の設定値の合計が許容リソース量を超えない場合に、スケールアップ可能であると判定する。前述したとおり、各VMゲストには、設定値を上限としてリソースが割り当てられる。したがって、設定値に基づいてスケールアップの可否を判定することにより、スケールアップ後にリソース不足が発生することを抑制可能になる。
図3は、スケールアップの一例を示す図である。図3の左図は、VMホストhAが実行する各VMゲストa1〜a4の、スケールアップ前のリソースの設定値を示す。リソースは、CPU及びメモリである。図3の例によると、VMゲストa1、a2のメモリの設定値は値「30GB」、CPUの設定値は値「3.3GHz×2コア」である。他のVMゲストa3、a4についても、設定値が表される。
スケールアップ前の各VMゲストa1〜a4のメモリの設定値の合計値は、値「100GB(=30+30+20+20)」である。この場合、VMゲストa1〜a4のメモリの設定値の合計は、VMホストhAの許容リソース量「100GB」に収まっている。
図3の右図は、スケールアップ後の各VMゲストa1〜a4のリソースの設定値を示す。図3は、実行する処理の増加により、VMゲストa1のメモリの設定値を「30GB」から「60GB」にスケールアップする場合を例示する。スケールアップに伴い、各VMゲストa1〜a4のメモリの設定値の合計値「130GB(=60+30+20+20)」は許容リソース量「100GB」を超える。したがって、管理装置100は、スケールアップが不可能である旨の判定を行う。
このように、設定値に基づいてスケールアップの可否を判定する場合、割り当て可能なリソースの上限に基づくことにより、リソースの不足を抑制可能になる。ただし、設定値に基づく場合、リソース使用量が低い時間帯についても設定値と同等のリソースを使用するとみなされ、スケールアップの可否が判定される。このため、余剰リソースがあるにも関わらず、スケールアップ不可であると判定される場合がある。ここで、図4にしたがって、余剰リソースについて説明する。
図4は、VMゲストa1〜a4の時間帯に応じたリソース使用量の変移例を示す図である。図4に示すグラフの横軸は時間を、縦軸はリソース使用量を示す。図4に示す点線a1x〜a4xは各VMゲストa1〜a4のリソース使用量の変移を示し、線hAyはVMホストhAの許容リソース量を示す。
図4の例によると、VMゲストa1は、昼間の時間帯「6時〜18時」にアクセスが集中するオンライン処理を行うため、リソース使用量a1xが昼間の時間帯に高くなる。また、VMゲストa2は夜間の時間帯「18時〜6時」にバッチ処理を行うため、リソース使用量a2xが夜間の時間帯に高くなる。VMゲストa4のリソース使用量a4xについても、VMゲストa2と同様である。また、VMゲストa3のリソース使用量a3xは、1日を通して変化しない。
このように、各VMゲストa1〜a4のリソース使用量a1x〜a4xは所定に応じて、時間帯に応じた変化パターンを有する。また、リソース使用量a1x、a2x、a4xによっては、変更の周期を有する。したがって、リソース使用量a1x〜a4xが高くなる時間帯が重なる場合、リソース使用量の合計は許容リソース量hAyに近づく。
これに対し、リソース使用量a1x〜a4xが高くなる時間帯が異なる場合、リソース使用量の合計は許容リソース量hAyに達しない。つまり、リソース使用量a1x〜a4xが高くなる時間帯が重複しない場合、余剰リソースが生じる。
なお、設定値に基づいてスケールアップが不可能であると判定したにも関わらず、スケールアップを実行すると、各VMゲストでリソース不足が発生する可能性がある。ここで、図5にしたがって、リソース不足の一例を説明する。
図5は、VMゲスト群のメモリの設定値の合計が許容リソース量を超えるにも関わらずスケールアップを実行した場合の、メモリの割り当て量を例示する図である。図5は、図3で前述したとおり、スケールアップにより、各VMゲストa1〜a4のメモリの設定値の合計値「130GB」が許容リソース量「100GB」を超える場合を示す。
図5の左図は、スケールアップ前の各VMゲストa1〜a4に対するメモリの割り当て量(メモリ使用量)を示す。前述したとおり、各VMゲストa1〜a4には、図3に示した設定値を上限として、メモリが割り当てられる。図5の例によると、VMゲストa1、a2には値「30GB」が、VMゲストa3、a4には「20GB」が割り当てられている。
図5の右図は、スケールアップ後の各VMゲストa1〜a4へのメモリの割り当て量を示す。スケールアップに伴い、VMゲストa1に、スケールアップ前より多くのメモリを割り当て可能になる。したがって、図5に示すように、VMゲストa1に割り当てられたメモリ量が値「30GB」から値「50GB」に増加する。
一方、VMゲストa1に割り当てたメモリ量の増加により、他のVMゲストa2〜a4に割り当て可能なメモリ量が低減する。これにより、VMゲストa2に割り当てられたメモリ量が、値「30GB」から値「20GB」に低減する。VMゲストa3、a4についても同様に、スケールアップ後に、割り当てられたメモリ量が低減する。
このように、設定値に基づいてスケールアップ不可と判定されたにも関わらずスケールアップを断行する場合、他のVMゲストa2〜a4に割り当て可能なリソース量が低減する。この場合、他のVMゲストa2〜a4にスケールアップ前と同等のメモリ量を割り当てることができず、パフォーマンスが低下する。または、他のVMゲストa2〜a4の負荷が高いとき、スケールアップしたにも関わらずVMゲストa1に十分なリソースを割り当てることができない場合がある。
このように、設定値に基づいてスケールアップの可否を判定する場合、リソースの余剰があるにも関わらず、スケールアップ不可だと判定される場合がある。一方、この場合にスケールアップを断行すると、各VMゲストでリソース不足が発生する可能性がある。このように、スケールアップの可否を適切に判定することは容易ではない。
[第1の実施の形態]
したがって、本実施の形態における管理装置100は、複数の物理マシンに1以上の仮想マシン(VMゲスト)が配備されたシステムで、第1の期間を複数に分割した所定期間ごとに、1以上の仮想マシンそれぞれのリソース使用量を記憶する。
また、管理装置100は、第1の仮想マシンのリソースに関する変更情報を取得したときに、第1の仮想マシンを配備する第1の物理マシンに配備される第1の仮想マシン以外の第2の仮想マシンの所定期間ごとのリソース使用量を取得する。また、管理装置100は、変更情報に基づく第1の仮想マシンの所定期間ごとのリソース使用量の予測値を取得する。
そして、管理装置100は、第1、第2の仮想マシンのリソース使用量の所定期間ごとの合計値が所定の閾値を超えるか否かを判定する。いずれかの所定期間のリソース使用量の合計値が所定の閾値を超える場合、管理装置100は、マイグレーションの実行を決定する。
図4で前述したとおり、各仮想マシンのリソース使用量は、時間帯に応じて変化パターンや周期等の偏りを有する。したがって、管理装置100は、1日や1週間等の期間を、リソース使用量の変化パターンが表れる所定期間に分割し、当該所定期間ごとのリソース使用量を定数化する。そして、管理装置100は、スケールアップ後の物理マシンのリソース使用量の合計と許容リソース量とを所定期間ごとに比較することで、スケールアップの可否の判定を行う。
所定期間ごとのリソース使用量は、時間帯に応じた変化パターンを有する。したがって、管理装置100は、リソース使用量の所定期間ごとの合計値に基づくことにより、時間帯に応じたリソース使用量の変化パターンを考慮したスケールアップの可否の判定を行える。例えば、仮想マシン間でリソース使用量が高くなる時間帯が重複する場合、重複した時間帯のリソース使用量の合計に基づいて、スケールアップの可否を判定可能になる。これにより、管理装置100は、リソース不足の発生を適切に抑制できる。
一方、仮想マシン間でリソース使用量が高くなる時間帯が重複しない場合、当該重複しない時間帯のリソース使用量の合計に基づいて、スケールアップの可否を判定可能になる。これにより、管理装置100は、リソースの余剰を抑制し、コストアップを抑制できる。また、スケールアップ可能なケースが増加するため、不要なマイグレーションが減少し、マイグレーションに伴う業務のパフォーマンスへの影響が減少する。
このように、本実施の形態の管理装置100は、分割した所定期間ごとのリソース使用量を利用することで、時間帯に応じたリソース使用量の変化パターンに基づいてリソースの変更要求の可否を適切に判定できる。これにより、各物理マシンのリソースを効率的に使用した仮想マシンの適切な配備を実現可能になる。
[管理装置100の処理の流れ]
図6は、本実施の形態における管理装置100の処理を説明するフローチャート図である。
S1:管理装置100は、第1の期間を複数に分割した所定期間ごとに、1以上の仮想マシン(VMゲスト)それぞれのリソース使用量を記憶する。
第1の期間は、例えば1日であって、所定期間は、例えば1日を3時間ごとに分割した期間を示す。具体的に、所定期間は、期間「0時〜3時」、「3時〜6時」、「6時〜9時」等の期間である。なお、この例に限定されるものではなく、所定期間は、例えば、1日を6時間ごとに分割した期間等であってもよい。また、第1の期間は1週間や1か月等の期間であって、所定期間は1日や10日等であってもよい。
S2:管理装置100は、第1の仮想マシンのリソースに関する変更情報を取得したか否かを判定する。リソースは、物理マシン300が有するCPUやメモリ等である。変更情報は、例えば、リソースの設定値のスケールアップの要求である。図3の例によると、第1の仮想マシンはVMゲストa1である。
S3:変更情報を取得すると(S2のYes)、管理装置100は、変更情報に基づいて、第1の仮想マシン(VMゲストa1)の所定期間ごとのリソース使用量の予測値を算出する。
S4:管理装置100は、第1の仮想マシンを配備する第1の物理マシン300に配備される第1の仮想マシン以外の第2の仮想マシン(VMゲストa2〜a4)の所定期間ごとのリソース使用量を取得する。そして、取得したリソース使用量と予測値とに基づいて、第1、第2の仮想マシンのリソース使用量の所定期間ごとの合計値を取得する。
S5:管理装置100は、いずれかの所定期間のリソース使用量の合計値が所定の閾値を超えるか否かを判定する。所定の閾値は、第1の物理マシン300aに配備される仮想マシン群(VMゲストa1〜a4)に割り当てられるリソース使用量の最大値(許容リソース量)である。
S6:いずれかの所定期間のリソース使用量が所定の閾値を超える場合(S5のYes)、管理装置100は、VMゲストa1〜a4のいずれかのマイグレーションの実行を決定する。一方、いずれの所定期間のリソース使用量も所定の閾値を超えない場合(S5のNo)、管理装置100は、変更情報の適用が可能である旨、判定する。
図7は、仮想マシン群のリソース使用量の所定期間ごとの合計を模式的に説明する図である。図7に示すグラフの横軸は時間を、縦軸はリソース使用量を示す。図7に示す矢印は、各VMゲストa1〜a4のリソース使用量a1x〜a4xを示し、実線はリソース使用量a1x〜a4xの合計を示す。なお、リソース使用量a1xは、スケールアップ後のリソース使用量の予測値である。
所定期間ごとのリソース使用量a1x〜a4xは、時間帯に応じた変化パターンを有する。このため、図7に示すように、リソース使用量a1x〜a4xの合計値と許容リソース量とを所定期間ごとに比較することで、スケールアップの可否を適切に判定可能になる。図7の例によると、リソース使用量が高くなる時間帯が分散している。したがって、いずれの時間帯(所定期間)のリソース使用量の合計も許容リソース量を超えない。したがって、管理装置100は、スケールアップ可能である旨判定する。
[第2の実施の形態]
図8は、第2の実施の形態における管理装置(仮想マシン管理装置)100のハードウェア構成図である。管理装置100は、例えば、CPU101、メインメモリ110や補助記憶装置111等を備えるメモリ102、通信インタフェース部103を有する。各部は、バス106を介して相互に接続する。
CPU101は、バス106を介してメモリ102等と接続するとともに、管理装置100全体の制御を行う。通信インタフェース部103は、有線通信を介して、クライアント装置200や物理マシン300等と接続し、データの送受信を行う。通信インタフェース部103は、例えば、NIC(Network Interface Card:NIC)である。
RAM(Random Access Memory:RAM)等を示すメインメモリ110は、CPU101が処理を行うデータ等を記憶する。補助記憶装置111は、CPU101が実行するオペレーションシステムのプログラムを格納する領域(図示せず)や、仮想マシン管理プログラム格納領域120を有する。また、補助記憶装置111は、稼働履歴情報テーブル格納領域121、ラベルテーブル格納領域122、マイグレーション対象リスト格納領域123を有する。補助記憶装置111は、HDD(Hard disk drive)、不揮発性半導体メモリ等を示す。
仮想マシン管理プログラム格納領域120の仮想マシン管理プログラム(以下、仮想マシン管理プログラム120と称する)はメインメモリ110にロードされる。そして、CPU101がメインメモリ110内にロードされた仮想マシン管理プログラム120を実行することによって、本実施の形態における仮想マシンの管理処理を実現する。
稼働履歴情報テーブル格納領域121の稼働履歴情報テーブル(以下、稼働履歴情報テーブル121と称する)は、各VMゲストのリソース使用量の履歴を有する。稼働履歴情報テーブル121の一例を、図12にしたがって後述する。
ラベルテーブル格納領域122のラベルテーブル(以下、ラベルテーブル122と称する)は、各VMゲストのラベル情報を有する。ラベルテーブル122の一例を、図19にしたがって後述する。
マイグレーション対象リスト格納領域123のマイグレーション対象リスト(以下、マイグレーション対象リスト123と称する)は、マイグレーション対象のVMゲスト、及び、移行先のVMホストの情報を有する。マイグレーション対象リスト123の一例を、図21にしたがって後述する。
[管理装置100のソフトウェアの機能]
図9は、図8に示した管理装置100のソフトウェアの機能を示す図である。図9において、図8で示したものと同一のものは、同一の符号で示す。図9に示すように、仮想マシン管理プログラム120は、例えば、スケールアップ判定モジュール131、マイグレーション計画作成モジュール132を有する。
スケールアップ判定モジュール131(以下、判定モジュール131と称する)は、稼働履歴情報テーブル121を参照し、所定期間ごとの各VMゲストのリソース使用量を記憶する。リソース使用量は、各物理マシンが有するメモリまたはプロセッサの使用量を含む。以下、所定期間を時間帯と称する。
また、判定モジュール131は、第1のVMゲストのリソースに関する変更情報を取得したときに、変更情報に基づく第1のVMゲストの時間帯ごとのリソース使用量の予測値、第1のVMゲスト以外の第2のVMゲストの時間帯ごとのリソース使用量を取得する。そして、判定モジュール131は、第1、第2のVMゲストの時間帯ごとのリソース使用量の合計と所定の閾値を比較する。いずれかの時間帯のリソース使用量の合計値が所定の閾値を超える場合、判定モジュール131は、マイグレーションの実行を決定し、マイグレーション計画作成モジュール132にマイグレーションプランの作成を指示する。
マイグレーション計画作成モジュール132(以下、計画作成モジュール132と称する)は、マイグレーションプランを有するマイグレーション対象リスト123を作成する。計画作成モジュール132は、スケールアップ後の各VMホストのリソース使用量の時間帯ごとの合計が所定の閾値に収まるような、マイグレーションプランを作成する。
図10は、本実施の形態における仮想マシン管理プログラムの処理の流れを説明するフローチャート図である。
S11:判定モジュール131は、VMゲストのスケールアップの申請を受け付ける。スケールアップの申請は、例えば、ユーザによって、クライアント装置200を介して入力される。本実施の形態では、図3と同様に、VMゲストa1のメモリの設定値を値「30GB」から「60GB」にスケールアップする申請が入力された場合を例示する。なお、本実施の形態では、メモリの設定値をスケールアップする場合を例示するが、CPUの設定値をスケールアップする場合の処理についても同様である。
S12:判定モジュール131は、スケールアップのシミュレーションを行う。工程S12の処理の詳細は、図11のフローチャート図にしたがって後述する。
S13:判定モジュール131は、シミュレーション(工程S11)の結果、スケールアップのために、マイグレーションが必要か否かを判定する。
S14:マイグレーションが必要であると判定された場合(S13のYes)、計画作成モジュール132は、マイグレーションプランを生成し、マイグレーション対象リスト123に記憶する。工程S14の処理の詳細は、図15のフローチャート図にしたがって後述する。
S15:判定モジュール131は、工程S14の結果、マイグレーションすることでリソース不足を解消可能であるか否かを判定する。
S16:リソース不足を解消できない場合(S15のNo)、判定モジュール131は、リソースが不足していることを示すリソース不足の警告を表示し、処理を終了する。
S17:一方、リソース不足を解消可能である場合(S15のYes)、判定モジュール131は、マイグレーションプランを表示する。
S18:工程S17の後、判定モジュール131は、ユーザによる、マイグレーションプランの承諾の是非を受け付ける。例えば、ユーザは、クライアント装置200を介して、表示されたマイグレーションプランの承諾を指示する。マイグレーションプランが承諾されない場合(S18のNo)、判定モジュール131は処理を終了する。
S19:マイグレーションプランが承諾される場合(S18のYes)、判定モジュール131は、マイグレーションプランの実行の開始時間まで待機する。
S20:判定モジュール131は、マイグレーション対象リスト123を参照し、マイグレーションを実行する。判定モジュール131は、スケールアップに要するリソースが不足すると判定した場合にマイグレーションを実行することで、スケールアップのためのリソースを確保する。
S21:判定モジュール131は、VMゲストをスケールアップする。前述したとおり、VMゲストa1のメモリの設定値を値「30GB」から「60GB」にスケールアップする。
次に、図11〜図14にしたがって、図10の工程S12の処理を説明する。前述したとおり、工程S12では、スケールアップのシミュレーションを行う。
[図10の工程S12]
図11は、図10の工程S12の処理の詳細を説明するフローチャート図である。工程S12では、スケールアップのシミュレーションを行う。
S31:判定モジュール131は、定期的に、各物理マシン300から稼働履歴情報テーブル121(図12に後述)を受信し記憶する。そして、判定モジュール131は、稼働履歴情報テーブル121を参照し、スケールアップ対象のVMゲストを含む、各VMゲストの時間帯ごとのリソース使用量を取得し記憶する。リソースの使用量は、例えば、CPU使用量やメモリ使用量である。工程S31の処理を図13にしたがって後述する。
S32:判定モジュール131は、スケールアップの情報に基づいて、スケールアップ適用後の、スケールアップ対象のVMゲストの時間帯ごとのリソース使用量を予測値を算出する。工程S32の処理を、図14にしたがって後述する。
S33:判定モジュール131は、スケールアップ対象のVMゲストのリソース使用量の予測値(S32)と、他のVMゲストのリソース使用量との、時間帯ごとの合計値を算出する。
S34:判定モジュール131は、工程S33で算出した時間帯ごとの合計値のうち、所定の閾値を超える時間帯があるか否かを判定する。所定の閾値は、スケールアップ対象のVMゲストを実行するVMホストの許容リソース量である。
S35:いずれの時間帯の合計値も所定の閾値を超えない場合(S34のNo)、スケールアップした場合のリソース使用量の合計値が許容リソース量を超えないことを示す。したがって、判定モジュール131は、判定結果として、マイグレーションを実行することなくスケールアップ可能である旨のメッセージを出力する。
S36:一方、いずれかの時間帯のリソース使用量が所定の閾値を超える場合(S34のYes)、リソースが不足する場合を示す。したがって、判定モジュール131は、判定結果として、マイグレーションが必要である旨のメッセージを出力する。
(稼働履歴情報テーブル121)
図12は、稼働履歴情報テーブル121の一例を示す図である。図12に示すように、稼働履歴情報テーブル121は、VMゲストID(identification:ID)、タイムスタンプ、CPU使用量(GigaHertz:GHz)、メモリ使用量(GigaByte:GB)の情報を有する。
VMゲストIDは、VMゲストを識別する情報である。タイムスタンプは、リソース使用量を取得した日付及び時間を示す。CPU使用量は、VMゲストが単位時間当たりに送信した信号量を示す。メモリ使用量は、VMゲストが単位時間当たりに使用したメモリのサイズを示す。
図12の稼働履歴情報テーブル121の例によると、VMゲストa1の、時間「2016/02/04 00:00:00」のCPU使用量は値「3.000GHz」であって、メモリ使用量は値「11.972GB」である。同様にして、VMゲストa1の、時間「2016/02/04 00:00:06」のCPU使用量は値「2.980GHz」であって、メモリ使用量は値「11.628GB」である。
図12は、稼働履歴情報テーブル121は、VMゲストa1の他の時間についても同様に、CPU使用量及びメモリ使用量の情報を有する。また、稼働履歴情報テーブル121は、VMゲストa2等の他のVMゲストについても同様に、リソース使用量の情報を有する。
(図11の工程S31)
図13は、VMホストhAが実行する各VMゲストa1〜a4の各時間帯のメモリ使用量の一例を示す図である。判定モジュール131は、図12に示した稼働履歴情報テーブル121を参照し、各時間帯のメモリ使用量の最大値を取得し、当該時間帯のメモリ使用量として記憶する。図示していないが、判定モジュール131は、各時間帯のCPU使用量の最大値を取得し、当該時間帯のCPU使用量として記憶する。
このように、判定モジュール131は、リソース使用量の履歴をサンプリングすることにより、時間帯ごとのCPU量及びメモリ量を定数化する。なお、時間帯ごとのリソース使用量は、例えば、時間帯におけるリソース使用量の平均値や、時間帯における一時点のリソース使用量であってもよい。
図13の例によると、VMゲストa1の時間帯「0時〜3時」のメモリ使用量は値「5GB」、時間帯「3時〜6時」のメモリ使用量は値「5GB」である。また、VMゲストa1の時間帯「6時〜9時」のメモリ使用量は値「20GB」である。他の時間帯についても、メモリ使用量が記憶される。また、他のVMゲストa2〜a4についても、時間帯ごとのメモリ使用量が記憶される。
(図11の工程S32)
図14は、スケールアップ後のVMゲストa1のメモリ使用量の予測値の一例を示す図である。工程S32では、スケールアップ対象のVMゲストa1の、時間帯ごとのスケールアップ後のリソース使用量の予測値を算出する。括弧内の値は、スケールアップ前のメモリ使用量である。
本実施の形態では、メモリの設定値を値「30GB」から「60GB」にスケールアップする場合を例示する。この場合、メモリの設定値が2倍に変化する。このため、判定モジュール131は、図13に示したVMゲストa1のメモリ使用量を2倍に変更する。図14の例によると、時間帯「6時〜9時」のメモリ使用量は、図13に示した値「20GB」の2倍の値「40GB」である。他の時間帯についても、同様に予測値が算出される。
このように、判定モジュール131は、記憶した第1の仮想マシンの所定期間ごとのリソースの使用量と、変更情報が含む変更量に基づいて、変更情報を適用した場合の、第1の仮想マシンの所定期間ごとのリソース使用量の予測値を算出する。これにより、判定モジュール131は、リソースの変更量の度合いに基づいて、スケールアップ後の第1の仮想マシンの予測値を取得できる。
なお、リソース使用量が所定値(例えば、5GB)以下の時間帯は、VMゲストがアイドル状態である旨推測可能である。アイドル状態である時間帯のリソース使用量は、スケールアップ後も変化しない可能性が高い。したがって、判定モジュール131は、リソース使用量が所定値以下の所定期間のリソース使用量の予測値を、記憶したリソース使用量と同一の値として算出する。
図14の例によると、VMゲストa1の時間帯「0時〜3時」「3時〜6時」のメモリ使用量は、所定値「5GB」以下である。したがって、判定モジュール131は、時間帯「0時〜3時」「3時〜6時」の予測値を、変更前と同一の値「5GB」として予測する。これにより、アイドル状態の時間帯の、リソース使用量についても適切に予測値を算出可能になる。
(図11のS33、S34)
工程S33、S34では、VMゲストa1のリソース使用量の予測値と他のVMゲストa2〜a4のリソース使用量との、時間帯ごとの合計値のうち、所定の閾値(許容リソース量)を超える時間帯があるか否かを判定する。本実施の形態における許容リソース量は、値「100GB」である。
図14の例によると、例えば、時間帯「9時〜12時」のメモリ使用量の合計値は値「90GB(=50+15+20+5)」であって、時間帯「12時〜15時」のメモリ使用量の合計値は値「110 GB(=60+15+20+15)」である。判定モジュール131は、他の時間帯についても、時間帯ごとにメモリ使用量の合計値を算出する。
図14の例によると、時間帯「12時〜15時」、「15時〜18時」Maのメモリ使用量の合計値が、値「100GB」許容リソース量を超える(S34のYes)。したがって、判定モジュール131は、マイグレーションが必要である旨のメッセージを出力する。なお、図示していないが、いずれの時間帯のメモリ使用量の合計も値「100GB」を超えない場合(S34のNo)、判定モジュール131は、スケールアップ可能である旨のメッセージを出力する。
このように、1日や1週間等の期間を分割した時間帯(所定期間)ごとのリソース使用量に基づくことにより、時間帯に応じたリソース使用量の変化パターンを考慮したスケールアップの可否の判定が可能になる。このため、スケールアップの可否判定に伴う、リソース不足やリソースの余剰の発生を抑制可能になる。したがって、不要なマイグレーションの発生を抑制可能になり、業務への影響を抑制可能になるとともに、リソースを効率的に使用したVMゲストの配備を実現可能になる。
[図10の工程S14]
図15は、図10のフローチャート図の工程S14の処理の詳細を説明するフローチャート図である。工程S14では、マイグレーションプランを生成する。本実施の形態では、物理マシン300でVMホストhA〜hDが動作し、各VMホストhA〜hDが4つのVMゲスト(a1〜a4、b1〜b4、c1〜c4、d1〜d4)を実行する場合を例示する。
S41:計画作成モジュール132は、VMホストhA〜hDのうち、リソース使用量の時間帯ごとの超過量が最大となるVMホストを特定する。このとき、VMホストhAのリソース使用量は、図11の工程S33で算出した、スケールアップした場合のリソース使用量である。また、計画作成モジュール132は、特定したVMホストのリソース使用量の合計値に基づいて、超過量の最大値「X値」を取得する。超過量は、合計値の許容リソース量からの超過である。
具体的に、計画作成モジュール132は、VMホスト単位に、当該VMホストが実行するVMゲスト群のリソース使用量の時間帯ごとの合計値を算出する。また、計画作成モジュール132は、VMホストごとに、複数の時間帯の間で最も大きい合計値(以下、最大合計値ともいう)を特定し、最大合計値の許容リソース量からの超過量を算出する。そして、計画作成モジュール132は、複数のVMホストの間で、超過量が最大となるVMホストを特定する。
図16は、各VMホストhA〜hDのVMゲスト群のメモリ使用量の時間帯ごとの合計値を示す図である。図16に示すVMホストhAのメモリ使用量は、図14に示したVMゲストa1〜a4の合計値(図14のct)と同様である。VMホストhBのメモリ使用量は、VMゲストb1〜b4のメモリ使用量の時間帯ごとの合計値である。VMホストhC、hDのメモリ使用量についても同様である。
図16の例によると、VMホストhAの最大合計値は値「110GB」Ma-1、VMホストhBの最大合計値は値「95GB」Mb-1である。また、VMホストhCの最大合計値は値「90GB」Mc-1、VMホストhDの最大合計値は値「95GB」Md-1である。本実施の形態では、各VMホストhA〜hDの許容リソース量は値「100GB」である。したがって、超過量の最大値「X値」は、値「10GB(=110-100)」となる。
S42:計画作成モジュール132は、マイグレーション対象リスト123に情報が存在するか否かを判定する。
S43:マイグレーション対象リスト123に情報が存在しない場合(S42のNo)、マイグレーションプランを未だ作成していない場合を示す。したがって、計画作成モジュール132は、1つ目のマイグレーションプランを生成する。以下、マイグレーションを移行ともいう。具体的に、計画作成モジュール132は、マイグレーションプランとして、移行対象のVMゲスト(以下、移行VMゲストと称する)と、当該VMゲストを移行する先のVMホスト(以下、移行先VMホストと称する)を特定する。
具体的に、計画作成モジュール132は、工程S41で特定したVMホストが実行する各VMゲストを、移行VMゲスト候補とする。そして、計画作成モジュール132は、移行VMゲスト候補のいずれかを別のVMホストに移行した場合に、VMホストのリソース使用量の時間帯ごとの最大合計値が最小となる、移行VMゲスト候補と別のVMホストとの組み合わせを特定する。
つまり、計画作成モジュール132は、組み合わせパターン(=移行VMゲスト候補数×他のVMホスト数)のうち、最大合計値が最小となる移行VMゲスト候補と移行先VMホストの組み合わせを特定する。このとき、計画作成モジュール132は、特定した移行VMゲストを移行先VMホストに移行すると仮定した場合の、全てのVMホストの時間帯ごとのリソース使用量の合計値に基づいて、超過量の最大値「Y値」を取得する。
図16の例では、計画作成モジュール132は、移行VMゲスト候補a1〜a4それぞれを各VMホストhB〜hDに移行した場合の、VMホスト単位のメモリ使用量の時間帯ごとの合計値を算出する。つまり、計画作成モジュール132は、「12(=4×3)」パターンの、時間帯ごとのメモリ使用量を算出する。
図17は、VMゲストa4をVMホストhB〜hDに移行した場合の、各VMホスト単位のメモリ使用量の時間帯ごとの合計値を示す図である。即ち、図17は、12パターンのうち3パターンのメモリ使用量を示す。図17に示すVMホストhAのメモリ使用量は、図16に示すVMホストhAのメモリ使用量と同じである。
VMホストhBのメモリ使用量は、VMゲストb1〜b4のメモリ使用量の合計値と、VMゲストa4のメモリ使用量とを、時間帯ごとに加算した値である。VMホストhC、hDのメモリ使用量についても同様である。図示していないが、他の移行VMゲスト候補a1〜a3をVMホストhB〜hDに移行した場合(9パターン)の、VMホスト単位のメモリ使用量についても算出する。
そして、計画作成モジュール132は、12パターンのうち、最大合計値が最小となる移行VMゲスト候補と移行先VMホストとの組み合わせを特定する。図17の例によると、VMホストhAの最大合計値は値「110GB」Ma-2、VMホストhBの最大合計値は値「110GB」Mb-2である。また、VMホストhCの最大合計値は値「120GB」Mc-2、VMホストhDの最大合計値は値「105GB」Md-2である。
本実施の形態によると、12パターンの最大合計値(図17のMa-2〜Md-2を含む)のうち、最大合計値「105GB」Md-2が最も小さい。したがって、計画作成モジュール132は、移行VMゲストa4とVMホストhDとの組み合わせを特定する(S43)。また、図示していないが、VMゲストa4をVMホストhDに移行したと仮定した場合の、最大の超過量「Y値」は「5GB(=105-100)」である。
このように、計画作成モジュール132は、第1、第2の仮想マシンのいずれかを各別の物理マシンに移行した場合の、別の物理マシンに配備される仮想マシン群のリソース使用量の所定期間ごとの合計の最大値を取得する。そして、計画作成モジュール132は、最大値が最小となる、第1、第2の仮想マシンのいずれかと別の物理マシンの組み合わせを、第1の移行仮想マシン及び第1の移行先物理マシンとして特定する。
つまり、計画作成モジュール132は、スケールアップ対象のVMホストが実行するVMゲストのいずれかを他のVMゲストに移行した場合に、リソース使用量の時間帯ごとの最大合計値が低減するVMゲストとVMホストを特定する。これにより、計画作成モジュール132は、移行元、移行先VMホストのリソース使用量の時間帯ごとの最大合計値がより小さくなるマイグレーションプランを生成できる。
これにより、移行元、移行先VMホストそれぞれで、複数の時間帯のリソース使用量の偏りが平滑化される。平滑化されることにより、リソースを効率的に使用可能になる。したがって、マイグレーション回数の低減や、VMゲストの追加配備等が可能になる。
S44:計画作成モジュール132は、超過量「X」が超過量「Y」より大きいか否かを判定する。つまり、計画作成モジュール132は、マイグレーションプランを適用したことで、超過量が改善されているか否かを判定する。
S45:超過量「X」が超過量「Y」以下である場合(S44のNo)、マイグレーションプランを実行しても超過量が減少(改善)しないことを示す。これは、物理マシン300のリソースが不足している場合を示す。したがって、計画作成モジュール132は、結果情報「リソース不足」を出力し、処理を終了する。
S46:一方、超過量「X」が超過量「Y」を超える場合(S44のYes)、マイグレーションプランを実行することで超過量が減少(改善)することを示す。したがって、計画作成モジュール132は、工程S43で特定したマイグレーションプランを、マイグレーション対象リスト123に格納する。
図17の例によると、VMゲストa4をVMホストhDにマイグレーションした場合のY値「5GB」はX値「10GB」より小さい(S44のYes)。したがって、計画作成モジュール132は、VMゲストa4とVMホストhDの組み合わせを、マイグレーション対象リスト123に記憶する。
S47:計画作成モジュール132は、超過量「Y」が値「0」であるか否かを判定する。
S48:超過量「Y」が値「0」である場合(S47のYes)、マイグレーションプランの実行により、各VMホストのリソース不足が解消される場合を示す。したがって、計画作成モジュール132は、マイグレーション対象リスト123、及び、マイグレーション開始時間を出力し、処理を終了する。マイグレーション開始時間については後述する。
(2つ目以降のマイグレーションプラン)
一方、超過量「Y」が値「0」より大きい場合(S47のNo)、計画作成モジュール132は、工程S41に遷移し、2つ目のマイグレーションプランの生成を開始する。即ち、計画作成モジュール132は、1つ目のマイグレーションプランを実行した場合の、リソース使用量の時間帯ごとの超過量が最大となるVMホストを特定する(S41)。
図18は、1つの目のマイグレーションを実行した場合の、各VMホストhA〜hDのVMゲスト群のメモリ使用量の時間帯ごとの合計値を示す図である。
図18の例によると、VMホストhAの最大合計値は値「95GB」Ma-3、VMホストhBの最大合計値は値「95GB」Mb-3である。また、VMホストhCの最大合計値は値「90GB」Mc-3、VMホストhDの最大合計値は値「105GB」Md-3である。したがって、計画作成モジュール132は、VMホストhDを特定するとともに、超過量の最大値「Y値」として値「5GB(=105-100)」を取得する。
2つ目のマイグレーションプランの生成時、1つ目のマイグレーションプランをマイグレーション対象リスト123に格納済みである(S42のYes)。したがって、計画作成モジュール132は、工程S49に遷移する。
S49:マイグレーション対象リスト123に情報が存在する場合(S42のYes)、計画作成モジュール132は、1つ目の移行VMゲストとラベルグループが同一のVMゲストを、移行VMゲスト候補とする。具体的に、計画作成モジュール132は、ラベルテーブル122を参照し、1つ目の移行VMゲストa4のグループを取得する。そして、計画作成モジュール132は、工程S41で特定したVMホストhDが実行するVMゲストd1〜d4のうち、移行VMゲストa1とラベルが同一のVMゲストを抽出する。
(ラベルテーブル122)
図19は、ラベルテーブル122の一例を説明する図である。図19に示すラベルテーブル122によると、VMゲストa1は「グループA」に、VMゲストa2、a4は「グループB」に分類される。また、VMゲストa3は、「グループC」に分類される。他のVMゲストも同様に、予め、グループに分類される。
本実施の形態では、「グループA」は、日中の時間帯にリソース使用量が高くなるVMゲストを示す。また、「グループB」は、夜間の時間帯にリソース使用量が高くなるVMゲストを、「グループC」は、1日を通してリソース使用量の変動が小さいVMゲストを示す。
計画作成モジュール132は、予め、リソース使用量に基づいて各VMゲストをグループに分類する。つまり、計画作成モジュール132は、リソース使用量の変化パターンが同一のVMゲストを同一のグループに分類する。
具体的に、計画作成モジュール132は、VMゲストごとに、昼間の時間帯(例えば、AM6:00〜PM6:00)のリソース使用量の平均値「x」、及び、夜間の時間帯(例えば、PM6:00〜AM6:00)のリソース使用量の平均値「y」を算出する。また、計画作成モジュール132は、1日のリソース使用量の平均値「z」を算出する。
x−y>z …式1
y−x>z …式2
そして、計画作成モジュール132は、各VMゲストの値「x」〜「z」にしたがって、当該VMゲストが式1、式2のいずれに該当するかを判定する。計画作成モジュール132は、式1に該当するVMゲストを「グループA」に、式2に該当するVMゲストを「グループB」に分類する。そして、計画作成モジュール132は、式1、式2のいずれにも該当しないVMゲストを、「グループC」に分類する。
図19の例によると、移行VMゲストa4は「グループB」である。したがって、計画作成モジュール132は、VMゲストd1〜d4のうち、「グループB」のVMゲストd1、d2を抽出する。このように、計画作成モジュール132は、第1の移行仮想マシンに加えて第2の移行仮想マシンを特定する場合、所定期間と同じまたは長い第2の期間ごとのリソース使用量に基づいて分類される種別が第1の移行仮想マシンと同一の候補仮想マシンを選択する。
マイグレーションを実行する間、VMゲストの処理が中断されることにより、パフォーマンスが低下する。したがって、リソース使用量の変化パターンが同一の複数のVMゲストを移行対象として特定し、両VMゲストのリソース使用量が低くなる期間にマイグレーションを計画することで、マイグレーションに伴うパフォーマンスの低下を抑制可能になる。
また、計画作成モジュール132は、リソース使用量の変化パターンが類似するVMゲストを移行候補とすることができる。これにより、リソース使用量の超過を解消可能な移行VMゲストを効率的に特定することが可能になる。
S50:計画作成モジュール132は、2つ目の移行VMゲストと、当該移行VMゲストのマイグレーション先の第2の移行VMホストを特定する。計画作成モジュール132は、VMゲストd1、d2のいずれかをVMホストhA〜hCに移行した場合の、各VMホストhA〜hCのVMゲスト群のメモリ使用量の時間帯ごとの合計値を算出する。
つまり、計画作成モジュール132は、「6(=2×3)」パターンのメモリ使用量を算出する。本実施の形態では、6パターンのうち、移行VMゲストd1と移行先VMホストhCとの組み合わせが特定される。また、計画作成モジュール132は、VMゲストd1をVMホストhCにマイグレーションしたと仮定した場合の、各VMホストの最大合計値のうち最大値「95GB」を取得する。値「95GB」は許容リソース量「100GB」より小さいため、「Y値」は値「0GB」となる。
このように、計画作成モジュール132は、第1の移行仮想マシンを移行した場合の、各物理マシンに配備される仮想マシン群のリソース使用量の所定期間ごとの合計値の所定の閾値からの超過が、複数の物理マシン間で最大となる移行元物理マシンを特定する。
また、計画作成モジュール132は、移行元物理マシンに配備された仮想マシンのうち、選択した候補仮想マシンのいずれかを各別の物理マシンに移行した場合の、各別の物理マシンに配備される仮想マシン群のリソース使用量の所定期間ごとの合計を算出する。そして、計画作成モジュール132は、合計の最大値が最小となる、仮想マシンと別の物理マシンの組み合わせを、第2の移行仮想マシン及び第2の移行先物理マシンとして特定する。
このように、リソース使用量の超過量が最大となるVMゲストを選択し、VMホストが実行するVMゲストのいずれかを移行する。このとき、計画作成モジュール132は、各VMホストのリソース使用量の最大値が抑制される移行VMゲスト及び移行先VMホストを特定する。
これにより、複数のVMホストの間で、リソース使用量の高い時間帯が分散される。つまり、同一の時間帯にリソース使用量が高くなるVMゲストを、複数のVMゲストの間に分散して配備することが可能になる。言い換えると、同一のVMホストのVMゲスト間で、時間帯に応じたリソース使用量の偏りが補完されるようなマイグレーションが行われる。
これにより、各VMホストにおけるリソース使用量の時間帯に応じた偏りが平滑化され、リソースをより効率的に使用可能になる。したがって、各VMホストでスケールアップ可能なケースが増加するとともに、各VMホストに配備可能なVMゲスト数が増加する。このように、計画作成モジュール132は、各物理マシン300のリソースを効率的に使用した、VMゲストの適切な配備を実現できる。
S51:計画作成モジュール132は、2回目の工程S41で算出した超過量「X」が、工程S50で算出した超過量「Y」より大きいか否かを判定する。X値「5GB」はY値「0GB」を超えるため(S51のYes)、計画作成モジュール132は、移行VMゲストd1とVMホストhCの組み合わせを、マイグレーション対象リスト123に格納する(S46)。また、Y値「0GB」が値「0」である(S47のYes)ため、マイグレーション対象リスト123が出力される(S48)。
図20は、1つ目、2つ目のマグレーションプランを実行した場合の、各VMホストhA〜hDのメモリ使用量の時間帯ごとの合計値の一例を示す図である。図20に示すように、各VMホストhA〜hDの時間帯ごとのメモリ使用量は、全て許容リソース量「100GB」以下の値である。これは、マイグレーションプランの実行により、リソース不足が解消されることを示す。
(マイグレーション対象リスト123)
図21は、マイグレーション対象リスト123の一例を示す図である。図21に示すマイグレーション対象リスト123は、2つのマイグレーションプラン「移行VMゲストa1と移行先VMホストhD」、「移行VMゲストd1と移行先VMホストhC」を有する。
なお、図21の例では、1つ目の移行先VMホストと2つ目の移行元VMホストが同一である場合を例示するが、この例に限定されるものではない。両者は異なっていてもよい。また、マイグレーション対象リスト123は、単数のマイグレーションプランを有してもよいし、3つ以上のマイグレーションプランを有していてもよい。
図22は、移行VMゲストa4、d1の時間帯ごとのメモリ使用量の一例を示す図である。前述したとおり、移行VMゲストa4、d1は同一グループに属するため、リソース使用量の変動特性が類似する。計画作成モジュール132は、移行VMゲストa4、d1のリソース使用量が小さくなる時間帯「9時〜12時」tmに、マイグレーション開始時間をスケジュールする。
なお、複数の移行VMゲストの間でリソース使用量が低下する時間帯が一致しない場合、計画作成モジュール132は、各移行VMゲストのリソース使用量の合計が最小となる時間帯にマイグレーション開始時間をスケジュールしてもよい。
このように、計画作成モジュール132は、第1、第2の移行仮想マシンのリソース使用量が所定値以下の初知恵期間に、第1、第2の移行仮想マシンのマイグレーションをスケジュールする。これにより、リソース使用量が低い時間帯にマイグレーションの実行をスケジュールすることが可能になり、マイグレーションによる業務への影響を抑制することが可能になる。
(移行VMゲスト候補の拡張)
なお、超過量「X」が超過量「Y」以下である場合(S51のNo)、2つ目のマイグレーションプランを実行したとしても超過量が減少しないことを示す。そこで、計画作成モジュール132は、移行VMゲスト候補を、グループが同一のVMゲストd1、d2から、VMゲストd1〜d4に拡張する(S43)。
そして、計画作成モジュール132は、工程S43と同様に、VMゲストd1〜d4のいずれかをVMホストhA〜hCに移行した場合に、VMホストのリソース使用量の時間帯ごとの最大合計値が最小となる移行VMゲストと移行先VMホストを特定する。また、計画作成モジュール132は、最大の超過量「Y」を取得する。
そして、超過量「X」が超過量「Y」を超える場合(S44のYes)、計画作成モジュール132は、2つ目のマイグレーションプランをマイグレーション対象リスト123に格納する。超過量「Y」が値「0」の場合(S47のYes)の処理は前述したとおりである。一方、超過量「Y」が値「0」より大きい場合(S47のNo)、計画作成モジュール132は、工程S41に遷移して、3つ目のマイグレーションプランを生成する。
このように、計画作成モジュール132は、第1の移行仮想マシンを移行した場合の、第1の物理マシン、及び、第1の移行先物理マシンに配備される仮想マシン群それぞれのリソース使用量の所定期間ごとの合計値を取得する。そして、計画作成モジュール132は、いずれかの所定期間の合計値が所定の閾値を超える場合に、第2の移行仮想マシンを特定する。これにより、計画作成モジュール132は、スケールアップ後の各VMホストのリソース使用量が許容リソース量に収まるようなマイグレーションプランを作成できる。
このように、計画作成モジュール132は、第1、第2の移行仮想マシンを移行した場合の各物理マシンに配備される仮想マシン群のリソース使用量の所定期間ごとの合計値が所定の閾値に収まるまで、第2の移行仮想マシンの特定を繰り返す。これにより、複数の移行仮想マシンが特定される。
このように、計画作成モジュール132は、VMホストとVMゲスト間の構成を総当たりで配備して最適化するのではなく、同一時間帯にリソース使用量が高くなるVMゲストを、複数のVMホストの間で分散するように配備する。そして、計画作成モジュール132は、各VMホストのリソース使用量の時間帯ごとの合計が許容リソース量に収まるまで、特定処理を繰り返す。
これにより、効率的に、各VMホストのリソース使用量の時間帯ごとの合計値を平滑化することが可能になる。つまり、少ないマイグレーション回数で、各VMホストのリソース使用量の合計値を許容リソース量に収めることが可能になる。これにより、業務への影響を低減、及び、VMゲストの最適な配備を実現可能になる。
図23は、マイグレーション前後の1つのVMホストのリソース使用量を示す図である。図23のグラフgaは、あるVMホストのマイグレーション前のリソース使用量の遷移を示す。一方、図23のグラフgbは、同VMホストのマイグレーション後のリソース使用量の遷移を示す。
図23のグラフga、gbに示す点線は、VMホストが実行する各VMゲストのリソース使用量をそれぞれ示し、実線はVMゲスト群のリソース使用量の総量である。本実施の形態によると、時間帯に応じたリソース使用量の偏りをVMゲスト間で補完するようなマイグレーションが行われる。したがって、グラフgbに示すように、グラフgaに対して、VMゲスト群のリソース使用量の時間帯に応じた合計値の変移が緩やかになる。
以上の実施の形態をまとめると、次の付記のとおりである。
(付記1)
複数の物理マシンに1以上の仮想マシンが配備されたシステムで、第1の期間を複数に分割した所定期間ごとに、前記1以上の仮想マシンそれぞれのリソース使用量を記憶し、
第1の仮想マシンのリソースに関する変更情報を取得したときに、前記第1の仮想マシンを配備する第1の物理マシンに配備される、前記第1の仮想マシン以外の第2の仮想マシンの前記所定期間ごとのリソース使用量と、前記変更情報に基づく前記第1の仮想マシンの前記所定期間ごとのリソース使用量の予測値とに基づいて、前記第1、第2の仮想マシンのリソース使用量の前記所定期間ごとの合計値が所定の閾値を超えるか否かを判定し、
いずれかの前記所定期間のリソース使用量の合計値が前記所定の閾値を超える場合に、マイグレーションの実行を決定する、
処理を実行させる仮想マシン管理プログラム。
(付記2)
付記1において、
前記判定は、前記記憶した前記第1の仮想マシンの前記所定期間ごとのリソース使用量と、前記変更情報が含む前記リソースの変更量に基づいて、前記変更情報を適用した場合の、前記第1の仮想マシンの前記所定期間ごとの前記リソース使用量の予測値を算出する、
仮想マシン管理プログラム。
(付記3)
付記1において、
前記判定は、前記リソース使用量が所定値以下の所定期間の前記リソース使用量の予測値を、前記記憶した前記リソース使用量と同一の値として算出する、
仮想マシン管理プログラム。
(付記4)
付記1において、
前記リソース使用量は、各物理マシンが有するメモリまたはプロセッサの使用量を含む、
仮想マシン管理プログラム。
(付記5)
付記1において、
前記所定の閾値は、各物理マシンに配備される仮想マシン群に割り当てるリソース使用量の最大値である、
仮想マシン管理プログラム。
(付記6)
付記1において、さらに、
前記第1、第2の仮想マシンのいずれかを各別の物理マシンにマイグレーションした場合の、前記各別の物理マシンに配備される仮想マシン群のリソース使用量の前記所定期間ごとの合計値の最大値が最小となる、前記第1、第2の仮想マシンのいずれかと別の物理マシンの組み合わせを、第1の移行仮想マシン及び第1の移行先物理マシンとして特定する、
仮想マシン管理プログラム。
(付記7)
付記6において、
前記第1の移行仮想マシンに加えて第2の移行仮想マシンを特定する場合、前記所定期間と同じまたは長い第2の期間ごとのリソース使用量に基づいて分類される種別が前記第1の移行仮想マシンと同一の候補仮想マシンを選択する、
仮想マシン管理プログラム。
(付記8)
付記7において、さらに、
前記第1、第2の移行仮想マシンの前記リソース使用量が所定値以下の所定期間に、前記第1、第2の移行仮想マシンのマイグレーションをスケジュールする、
仮想マシン管理プログラム。
(付記9)
付記7において、
前記第2の移行仮想マシンの前記特定は、
前記第1の移行仮想マシンをマイグレーションした場合の、各物理マシンに配備される仮想マシン群のリソース使用量の前記所定期間ごとの合計値の前記所定の閾値からの超過が、前記複数の物理マシン間で最大となる移行元物理マシンを特定し、
前記移行元物理マシンに配備された仮想マシンのうち、前記選択した前記候補仮想マシンのいずれかを各別の物理マシンにマイグレーションした場合の、前記各別の物理マシンに配備される仮想マシン群のリソース使用量の前記所定期間ごとの合計値の最大値が最小となる、候補仮想マシンと別の物理マシンの組み合わせを、前記第2の移行仮想マシン及び第2の移行先物理マシンとして特定する、
仮想マシン管理プログラム。
(付記10)
付記9において、
前記第1、第2の移行仮想マシンをマイグレーションした場合の各物理マシンに配備される仮想マシン群のリソース使用量の所定期間ごとの合計値が前記所定の閾値に収まるまで、前記第2の移行仮想マシンの前記特定を繰り返し複数の第2の移行仮想マシンを特定する、
仮想マシン管理プログラム。
(付記11)
付記7において、
前記第1の移行仮想マシンを移行した場合の、前記第1の物理マシン、及び、前記第1の移行先物理マシンに配備される仮想マシン群それぞれのリソース使用量の所定期間ごとの合計値が前記所定の閾値を超える場合に、前記第2の移行仮想マシンを前記特定する、
仮想マシン管理プログラム。
(付記12)
複数の物理マシンに1以上の仮想マシンが配備されたシステムで、第1の期間を複数に分割した所定期間ごとに、前記1以上の仮想マシンそれぞれのリソース使用量を記憶し、
第1の仮想マシンのリソースに関する変更情報を取得したときに、前記第1の仮想マシンを配備する第1の物理マシンに配備される、前記第1の仮想マシン以外の第2の仮想マシンの前記所定期間ごとのリソース使用量と、前記変更情報に基づく前記第1の仮想マシンの前記所定期間ごとのリソース使用量の予測値とに基づいて、前記第1、第2の仮想マシンのリソース使用量の前記所定期間ごとの合計値が所定の閾値を超えるか否かを判定し、
いずれかの前記所定期間のリソース使用量の合計値が前記所定の閾値を超える場合に、マイグレーションの実行を決定する、
仮想マシン管理方法。
(付記13)
複数の物理マシンに1以上の仮想マシンが配備されたシステムで、第1の期間を複数に分割した所定期間ごとに、前記1以上の仮想マシンそれぞれのリソース使用量を記憶する記憶部と、
第1の仮想マシンのリソースに関する変更情報を取得したときに、前記第1の仮想マシンを配備する第1の物理マシンに配備される、前記第1の仮想マシン以外の第2の仮想マシンの前記所定期間ごとのリソース使用量と、前記変更情報に基づく前記第1の仮想マシンの前記所定期間ごとのリソース使用量の予測値とに基づいて、前記第1、第2の仮想マシンのリソース使用量の前記所定期間ごとの合計値が所定の閾値を超えるか否かを判定し、いずれかの前記所定期間のリソース使用量の合計値が前記所定の閾値を超える場合に、マイグレーションの実行を決定する処理部と、を有する
仮想マシン管理装置。
100:仮想マシン管理装置(管理装置)、101:CPU、102:メモリ、103:通信インタフェース部、106:バス、110:メインメモリ、111:補助記憶装置、120:仮想マシン管理プログラム、121:稼働履歴情報テーブル、122:ラベルテーブル、123:マイグレーション対象リスト、200:クライアント装置、300:物理マシン

Claims (9)

  1. 複数の物理マシンに1以上の仮想マシンが配備されたシステムで、第1の期間を複数に分割した所定期間ごとに、前記1以上の仮想マシンそれぞれのリソース使用量を記憶し、
    第1の仮想マシンのリソースに関する変更情報を取得したときに、前記第1の仮想マシンを配備する第1の物理マシンに配備される、前記第1の仮想マシン以外の第2の仮想マシンの前記所定期間ごとのリソース使用量と、前記変更情報に基づく前記第1の仮想マシンの前記所定期間ごとのリソース使用量の予測値とに基づいて、前記第1、第2の仮想マシンのリソース使用量の前記所定期間ごとの合計値が所定の閾値を超えるか否かを判定し、
    いずれかの前記所定期間のリソース使用量の合計値が前記所定の閾値を超える場合に、マイグレーションの実行を決定し、
    前記第1、第2の仮想マシンのいずれかを各別の物理マシンにマイグレーションした場合の、前記各別の物理マシンに配備される仮想マシン群のリソース使用量の前記所定期間ごとの合計値の最大値が最小となる、前記第1、第2の仮想マシンのいずれかと別の物理マシンの組み合わせを、第1の移行仮想マシン及び第1の移行先物理マシンとして特定する、
    処理を実行させる仮想マシン管理プログラム。
  2. 請求項1において、
    前記判定は、前記リソース使用量が所定値以下の所定期間の前記リソース使用量の予測値を、前記記憶した前記リソース使用量と同一の値として算出する、
    仮想マシン管理プログラム。
  3. 請求項1において、
    前記所定の閾値は、各物理マシンに配備される仮想マシン群に割り当てるリソース使用量の最大値である、
    仮想マシン管理プログラム。
  4. 請求項において、さらに、
    前記第1の移行仮想マシンに加えて第2の移行仮想マシンを特定する場合、前記所定期間と同じまたは長い第2の期間ごとのリソース使用量に基づいて分類される種別が前記第1の移行仮想マシンと同一の候補仮想マシンを選択する、
    仮想マシン管理プログラム。
  5. 請求項において、さらに、
    前記第1、第2の移行仮想マシンの前記リソース使用量が所定値以下の所定期間に、前記第1、第2の移行仮想マシンのマイグレーションをスケジュールする、
    仮想マシン管理プログラム。
  6. 請求項において、
    前記第2の移行仮想マシンの前記特定は、
    前記第1の移行仮想マシンをマイグレーションした場合の、各物理マシンに配備される仮想マシン群のリソース使用量の前記所定期間ごとの合計値の前記所定の閾値からの超過が、前記複数の物理マシン間で最大となる移行元物理マシンを特定し、
    前記移行元物理マシンに配備された仮想マシンのうち、前記選択した前記候補仮想マシンのいずれかを各別の物理マシンにマイグレーションした場合の、前記各別の物理マシンに配備される仮想マシン群のリソース使用量の前記所定期間ごとの合計値の最大値が最小となる、候補仮想マシンと別の物理マシンの組み合わせを、前記第2の移行仮想マシン及び第2の移行先物理マシンとして特定する、
    仮想マシン管理プログラム。
  7. 請求項において、
    前記第1、第2の移行仮想マシンをマイグレーションした場合の各物理マシンに配備される仮想マシン群のリソース使用量の所定期間ごとの合計値が前記所定の閾値に収まるまで、前記第2の移行仮想マシンの前記特定を繰り返し複数の第2の移行仮想マシンを特定する、
    仮想マシン管理プログラム。
  8. 複数の物理マシンに1以上の仮想マシンが配備されたシステムで、第1の期間を複数に分割した所定期間ごとに、前記1以上の仮想マシンそれぞれのリソース使用量を記憶し、
    第1の仮想マシンのリソースに関する変更情報を取得したときに、前記第1の仮想マシンを配備する第1の物理マシンに配備される、前記第1の仮想マシン以外の第2の仮想マシンの前記所定期間ごとのリソース使用量と、前記変更情報に基づく前記第1の仮想マシンの前記所定期間ごとのリソース使用量の予測値とに基づいて、前記第1、第2の仮想マシンのリソース使用量の前記所定期間ごとの合計値が所定の閾値を超えるか否かを判定し、
    いずれかの前記所定期間のリソース使用量の合計値が前記所定の閾値を超える場合に、マイグレーションの実行を決定し、
    前記第1、第2の仮想マシンのいずれかを各別の物理マシンにマイグレーションした場合の、前記各別の物理マシンに配備される仮想マシン群のリソース使用量の前記所定期間ごとの合計値の最大値が最小となる、前記第1、第2の仮想マシンのいずれかと別の物理マシンの組み合わせを、第1の移行仮想マシン及び第1の移行先物理マシンとして特定する、
    仮想マシン管理方法。
  9. 複数の物理マシンに1以上の仮想マシンが配備されたシステムで、第1の期間を複数に分割した所定期間ごとに、前記1以上の仮想マシンそれぞれのリソース使用量を記憶する記憶部と、
    第1の仮想マシンのリソースに関する変更情報を取得したときに、前記第1の仮想マシンを配備する第1の物理マシンに配備される、前記第1の仮想マシン以外の第2の仮想マシンの前記所定期間ごとのリソース使用量と、前記変更情報に基づく前記第1の仮想マシンの前記所定期間ごとのリソース使用量の予測値とに基づいて、前記第1、第2の仮想マシンのリソース使用量の前記所定期間ごとの合計値が所定の閾値を超えるか否かを判定し、いずれかの前記所定期間のリソース使用量の合計値が前記所定の閾値を超える場合に、マイグレーションの実行を決定し、前記第1、第2の仮想マシンのいずれかを各別の物理マシンにマイグレーションした場合の、前記各別の物理マシンに配備される仮想マシン群のリソース使用量の前記所定期間ごとの合計値の最大値が最小となる、前記第1、第2の仮想マシンのいずれかと別の物理マシンの組み合わせを、第1の移行仮想マシン及び第1の移行先物理マシンとして特定する処理部と、を有する
    仮想マシン管理装置。
JP2016159477A 2016-08-16 2016-08-16 仮想マシン管理プログラム、仮想マシン管理方法、及び、仮想マシン管理装置 Active JP6741941B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016159477A JP6741941B2 (ja) 2016-08-16 2016-08-16 仮想マシン管理プログラム、仮想マシン管理方法、及び、仮想マシン管理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016159477A JP6741941B2 (ja) 2016-08-16 2016-08-16 仮想マシン管理プログラム、仮想マシン管理方法、及び、仮想マシン管理装置

Publications (2)

Publication Number Publication Date
JP2018028746A JP2018028746A (ja) 2018-02-22
JP6741941B2 true JP6741941B2 (ja) 2020-08-19

Family

ID=61248474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016159477A Active JP6741941B2 (ja) 2016-08-16 2016-08-16 仮想マシン管理プログラム、仮想マシン管理方法、及び、仮想マシン管理装置

Country Status (1)

Country Link
JP (1) JP6741941B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020038436A (ja) * 2018-09-03 2020-03-12 三菱電機株式会社 仮想マシン管理装置、仮想マシン管理方法及び仮想マシン管理プログラム
JP7197776B2 (ja) * 2018-11-01 2022-12-28 富士通株式会社 スケジューリングプログラム、スケジューリング方法、およびスケジューリング装置
JP7135780B2 (ja) * 2018-11-27 2022-09-13 富士通株式会社 ライブマイグレーション調整プログラム及びライブマイグレーション調整方法
JP7177349B2 (ja) * 2019-02-08 2022-11-24 富士通株式会社 スケジュールプログラム、スケジュール装置およびスケジュール方法
JP7234702B2 (ja) * 2019-03-07 2023-03-08 日本電気株式会社 情報処理装置、コンテナ配置方法及びコンテナ配置プログラム
JP7163341B2 (ja) * 2020-06-10 2022-10-31 株式会社日立製作所 計算機システム及び計算機システムの制御方法
CN115174495B (zh) * 2022-06-20 2023-06-16 平安银行股份有限公司 基于并行路由的资源分配方法及相关设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5702747B2 (ja) * 2012-03-07 2015-04-15 日本電信電話株式会社 サービスオーダーシステム、サービスオーダー装置、サービスオーダー方法、及びサービスオーダープログラム
JP5827594B2 (ja) * 2012-05-17 2015-12-02 日本電信電話株式会社 仮想マシン配置装置および仮想マシン配置方法
JP6044131B2 (ja) * 2012-06-25 2016-12-14 富士通株式会社 プログラム、管理サーバおよび仮想マシン移動制御方法
US20150234671A1 (en) * 2013-03-27 2015-08-20 Hitachi, Ltd. Management system and management program
JP6455035B2 (ja) * 2014-09-10 2019-01-23 富士通株式会社 負荷分散管理装置、制御方法およびプログラム

Also Published As

Publication number Publication date
JP2018028746A (ja) 2018-02-22

Similar Documents

Publication Publication Date Title
JP6741941B2 (ja) 仮想マシン管理プログラム、仮想マシン管理方法、及び、仮想マシン管理装置
US20130339956A1 (en) Computer system and optimal arrangement method of virtual machine in computer system
JP6435050B2 (ja) クラウドシステムにおけるリソース管理
US9588789B2 (en) Management apparatus and workload distribution management method
JP4853717B2 (ja) サーバ移行計画作成システム、サーバ移行計画作成方法
CN105843683B (zh) 用于动态优化平台资源分配的方法、系统和设备
EP3253027B1 (en) Resource allocation method and apparatus for virtual machines
JP5229590B2 (ja) サーバ組替支援システム、サーバ組替支援方法
US9009703B2 (en) Sharing reconfigurable computing devices between workloads
CN103797462A (zh) 一种创建虚拟机的方法和装置
US20160196157A1 (en) Information processing system, management device, and method of controlling information processing system
JP6107801B2 (ja) 情報処理装置、情報処理システム、タスク処理方法、及び、プログラム
CN111274033B (zh) 一种资源部署方法、装置、服务器以及存储介质
JP6374845B2 (ja) 計算機システム及びコンテナ管理方法
Ramezani et al. A multi-objective load balancing system for cloud environments
Raj et al. Enhancement of hadoop clusters with virtualization using the capacity scheduler
JP7197776B2 (ja) スケジューリングプログラム、スケジューリング方法、およびスケジューリング装置
JP2019079334A (ja) 情報処理装置、情報処理システムおよび情報処理方法
JP5640844B2 (ja) 仮想計算機制御プログラム、計算機、及び仮想計算機制御方法
Seth et al. Dynamic threshold-based dynamic resource allocation using multiple VM migration for cloud computing systems
Thai et al. Task scheduling on the cloud with hard constraints
JP6750368B2 (ja) 仮想マシン制御プログラム、仮想マシン制御方法および仮想マシン制御装置
US20170060616A1 (en) Migration controlling method and migration controller
Baresi et al. Towards vertically scalable spark applications
JP6239400B2 (ja) 制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200706

R150 Certificate of patent or registration of utility model

Ref document number: 6741941

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150