JP7040319B2 - 運用管理装置、移動先推奨方法及び移動先推奨プログラム - Google Patents

運用管理装置、移動先推奨方法及び移動先推奨プログラム Download PDF

Info

Publication number
JP7040319B2
JP7040319B2 JP2018120906A JP2018120906A JP7040319B2 JP 7040319 B2 JP7040319 B2 JP 7040319B2 JP 2018120906 A JP2018120906 A JP 2018120906A JP 2018120906 A JP2018120906 A JP 2018120906A JP 7040319 B2 JP7040319 B2 JP 7040319B2
Authority
JP
Japan
Prior art keywords
resource
physical machine
server
unit
contention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018120906A
Other languages
English (en)
Other versions
JP2020003929A (ja
Inventor
淳一 樋口
拓人 辻
乾 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018120906A priority Critical patent/JP7040319B2/ja
Priority to US16/423,238 priority patent/US10942763B2/en
Publication of JP2020003929A publication Critical patent/JP2020003929A/ja
Application granted granted Critical
Publication of JP7040319B2 publication Critical patent/JP7040319B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • G06F9/5088Techniques for rebalancing the load in a distributed system involving task migration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5019Workload prediction

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Debugging And Monitoring (AREA)

Description

本発明は、運用管理装置、移動先推奨方法及び移動先推奨プログラムに関する。
複数のユーザが共有リソースを利用するパブリッククラウドでは、同一サーバ(物理マシン)で稼働する複数の仮想マシンの間でリソースの競合が発生することがある。ここで、リソースとしては、CPU(Central Processing Unit)、ネットワーク、ディスク等がある。
競合の発生によって同一サーバ上の仮想マシンの動作が重くなり、ユーザのサービスの性能品質が低下する。このため、サーバの負荷が高くなったときに、サーバで稼働している仮想マシンを他のサーバに移動させることが行われる。仮想マシンの移動先は、曜日及び時間帯毎のリソース使用率の平均値等の統計値に基づきサーバを評価することで決められる。
なお、仮想マシンの移動については、サービス中断時間が許容サービス中断時間以内と判定されるサーバを移動先のサーバとして抽出することによって、集約効率を向上する技術がある。また、この技術は、サーバの使用リソース量が上限閾値を超えると予想される場合、サーバの使用リソース量が上限閾値を下回るように使用リソース量の大きい仮想マシンから順に移動対象の仮想マシン候補を抽出することで、リソース使用効率を向上する。また、この技術は、サーバの使用リソース量が下限閾値を所定時間下回る場合、当該サーバに配置されている仮想マシンを他のサーバに移動することによって、電力使用効率を向上する。
また、クライアント装置に所定のサービスを提供する複数のサーバ装置の仮想化を実行する仮想化実行装置が、サーバ装置の仮想化環境の利便性を向上する技術がある。この仮想化実行装置は、クライアント装置を操作するユーザの特性情報と、1又は複数のVM(Virtual Machine:仮想マシン)から構成されるシステムのシステム構成情報を格納する。そして、この仮想化実行装置は、格納された特性情報及びシステム構成情報を用いて、VMの複数種類のリソースの、所定の期間毎の使用予定量を推測する。そして、この仮想化実行装置は、推測した複数種類のリソースの使用予定量を用いて、VMを複数のサーバ装置のいずれに配置するかの配置最適化、及びVMの動作に必要となるディスク領域を複数のストレージ装置のいずれに割り当てるかの割当最適化を実行する。
特開2013-239095号公報 特開2016-110248号公報
曜日及び時間帯毎のリソース使用率の平均値等の統計値に基づきサーバを評価して仮想マシンの移動先を決めると、リソース使用率は統計処理によってまるめられてしまうため、一時的又はスパイク的な高負荷によるリソース競合が発生するという問題がある。
図28は、一時的又はスパイク的な高負荷によるリソース競合の発生を説明するための図である。図28の(A)に示すように、同じ月曜日の同じ時間帯でも、5/21と5/28では1分毎に監視したリソース使用率が異なる。この理由は、(A)ではオンデマンドのバッチ処理等が行われており、オンデマンドのバッチ処理等では、同じ曜日及び時間帯でもVMのリソース負荷のバラツキが大きいためである。例えば、帳票出力や集計処理では、ユーザの利用タイミングでリソース高負荷が発生する。このように、リソース高負荷が発生するとリソース競合が発生する。しかしながら、曜日及び時間帯毎のリソース使用率では、統計処理のため、このような一時的なリソース高負荷は、特定されることがなく、移動先のサーバの評価に用いられない。
また、図28の(B)に示すように、1分毎のリソース監視では現れることがなく1秒毎のリソース監視で現れるスパイク的な高負荷があり、スパイク的な高負荷によりリソース競合が発生しする。しかしながら、リソース監視によるクラウド基盤へのオーバーヘッドは大きいため、1秒毎のリソース監視は行われることはない。したがって、このようなスパイク的な高負荷は、特定されることはなく、移動先のサーバの評価に用いられない。なお、クラウド基盤とは、クラウドシステムが有するリソースを仮想化して提供する基盤である。
本発明は、1つの側面では、一時的又はスパイク的な高負荷によるリソース競合の発生を抑えるように仮想マシンの移動先のサーバを特定することを目的とする。
1つの態様では、運用管理装置は、第1作成部と推測部と第2作成部と算出部と特定部とを有する。前記第1作成部は、情報処理システムで稼働する仮想マシン毎に、仮想マシンのリソース使用率の連続的な確率分布であるVM負荷モデルを作成する。前記推測部は、第1仮想マシンの移動先物理マシンを特定する指示を受けたときに、該第1仮想マシンが稼働している第1物理マシン以外の物理マシン毎に、物理マシンのリソース使用率の確率分布を推測したデータであるリソース使用率推測データを作成する。前記推測部は、物理マシン上で稼働している仮想マシン群のVM負荷モデルと前記第1仮想マシンのVM負荷モデルに基づいて、前記リソース使用率推測データを作成する。前記第2作成部は、物理マシンのリソース使用率に基づいて、物理マシンのリソース使用率とリソースの競合発生確率との関係をモデル化したリソース競合発生モデルを作成する。前記算出部は、前記第1物理マシン以外の物理マシン毎に、前記リソース使用率推測データと前記リソース競合発生モデルに基づいてリソースの競合発生確率の統計値を算出する。前記特定部は、前記第1物理マシン以外の物理マシン毎に算出された前記統計値に基づいて前記移動先物理マシンを特定し、特定した移動先物理マシンの情報を出力する。
1つの側面では、本発明は、一時的又はスパイク的な高負荷によるリソース競合の発生を抑えるように仮想マシンの移動先のサーバを特定することができる。
図1は、実施例に係るクラウド基盤管理装置によるVM移動先の特定方法を説明するための図である。 図2は、実施例に係るクラウド基盤管理装置の機能構成を示す図である。 図3は、VMリソース使用率データの例を示す図である。 図4Aは、VMの負荷確率分布の生成を説明するための図である。 図4Bは、負荷確率分布の形状決定を説明するための図である。 図5は、VM負荷モデル記憶部がVM毎に記憶するVM負荷モデルの情報の一例を示す図である。 図6は、構成情報の一例を示す図である。 図7は、移動対象VMの情報の一例を示す図である。 図8は、リソース使用率推測データの作成方法を説明するための図である。 図9は、推測データ記憶部が記憶するリソース使用率推測データの一例を示す図である。 図10は、リソース使用率データの一例を示す図である。 図11は、微小間隔使用率記憶部がサーバ毎に記憶するリソース使用率データの一例を示す図である。 図12Aは、リソース競合の発生確率の算出を説明するための図である。 図12Bは、リソース競合発生モデルの生成を説明するための図である。 図13は、リソース競合発生モデルの情報の一例を示す図である。 図14は、競合リスク評価部による処理を説明するための図である。 図15は、VM移動先サーバ情報の一例を示す図である。 図16は、VM負荷モデル化部による処理のフローを示すフローチャートである。 図17は、競合発生モデル化部による処理のフローを示すフローチャートである。 図18は、VM配置を変更する処理のフローを示すフローチャートである。 図19は、VM負荷モデル化処理のフローを示すフローチャートである。 図20は、近似度合計算処理のフローを示すフローチャートである。 図21は、推測処理のフローを示すフローチャートである。 図22は、リソース使用率推測処理のフローを示すフローチャートである。 図23は、競合発生モデル化処理のフローを示すフローチャートである。 図24は、競合発生確率算出処理のフローを示すフローチャートである。 図25は、競合発生モデル生成処理のフローを示すフローチャートである。 図26は、競合リスク評価処理のフローを示すフローチャートである。 図27は、実施例に係る移動先推奨プログラムを実行するコンピュータのハードウェア構成を示す図である。 図28は、一時的又はスパイク的な高負荷によるリソース競合の発生を説明するための図である。
以下に、本願の開示する運用管理装置、移動先推奨方法及び移動先推奨プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例は開示の技術を限定するものではない。
まず、実施例に係るクラウド基盤管理装置によるVM移動先の特定方法について説明する。図1は、実施例に係るクラウド基盤管理装置によるVM移動先の特定方法を説明するための図である。図1に示すように、実施例に係るクラウド基盤管理装置は、各VMについて、曜日及び時間帯毎にリソース使用率を連続的な確率分布でモデル化することでVM負荷モデルを作成する(1)。例えば、実施例に係るクラウド基盤管理装置は、1時間毎のリソース使用率を連続的な確率分布でモデル化する。図1では、VM#1~VM#3について、1時間毎のVM負荷モデルが作成される。なお、リソース使用率の値は%である。
そして、実施例に係るクラウド基盤管理装置は、移動対象VMの移動先サーバを特定する指示を受けると、サーバで稼働するVMと移動対象VMのVM負荷モデルに基づいてサーバのリソース使用率推測データをサーバ毎に作成する(2)。ここで、リソース使用率推測データは、移動対象VMがサーバに移動された場合にリソース使用率の確率分布を推測したデータである。実施例に係るクラウド基盤管理装置は、リソース使用率推測データを曜日及び時間帯毎に作成する。図1では、例えば、VM#1を移動対象VMとし、サーバ#1でVM#2とVM#3が稼働するとすると、VM#1~VM#3のVM負荷モデルに基づいてサーバ#1のリソース使用率推測データが作成される。リソース使用率推測データは、サーバ#2等の他のサーバについても作成される。
また、実施例に係るクラウド基盤管理装置は、サーバのリソース使用率を用いて、サーバのリソース使用率とリソースの競合が発生する確率との関係をモデル化したリソース競合発生モデルを作成する(3)。実施例に係るクラウド基盤管理装置は、リソース競合発生モデルを作成する際に、一般的な監視間隔のリソース使用率だけではなく、監視間隔より小さい微小間隔のリソース使用率も用いる。例えば、監視間隔を1分とすると微小間隔は1秒である。
そして、実施例に係るクラウド基盤管理装置は、リソース使用率推測データとリソース競合発生モデルに基づいてリソースの競合リスクをサーバ毎に評価し、競合リスクに基づいて移動先サーバを特定して移動先サーバの情報を表示装置に表示する(4)。図1では、サーバ#1のリスク評価指標が「0.7」、サーバ#2のリスク評価指標が「0.2」と評価され、サーバ#2が移動先サーバとして特定される。ここで、リスク評価指標は、リソースの競合リスクの評価結果を示す指標であり、値が小さいほど競合リスクが小さい。そして、実施例に係るクラウド基盤管理装置は、移動先サーバの情報としてサーバ#2の情報を表示する。
このように、実施例に係るクラウド基盤管理装置は、リソース使用率の確率分布に基づいて移動先サーバを特定するので、一時的な高負荷によるリソース競合の発生を抑えるように仮想マシンの移動先のサーバを特定することができる。また、実施例に係るクラウド基盤管理装置は、微小間隔のリソース使用率に基づいて移動先サーバを特定するので、スパイク的な高負荷によるリソース競合の発生を抑えるように仮想マシンの移動先のサーバを特定することができる。
次に、実施例に係るクラウド基盤管理装置の機能構成について説明する。図2は、実施例に係るクラウド基盤管理装置の機能構成を示す図である。図2に示すように、実施例に係るクラウド基盤管理装置1は、VMリソース使用率記憶部11と、VM負荷モデル化部12と、VM負荷モデル記憶部13と、構成情報記憶部14と、推測部15とを有する。また、クラウド基盤管理装置1は、推測データ記憶部16と、サーバリソース使用率記憶部17と、微小間隔使用率記憶部18と、競合発生モデル化部19と、競合発生モデル記憶部20と、競合リスク評価部21とを有する。
VMリソース使用率記憶部11は、各VMについて、リソース使用率を一定の時間間隔でVMリソース使用率データとして記憶する。VMのリソース使用率は、パブリッククラウド2に含まれるVMが動作するサーバから収集される。図3は、VMリソース使用率データの例を示す図である。なお、以下では、リソースがCPUである場合を基本として説明する。図3(a)は、VM#1のVMリソース使用率データを示し、図3(b)は、VM#2のVMリソース使用率データを示す。図3に示すように、VMリソース使用率記憶部11は、VM毎に、日付、時刻及びCPU使用率を1分間隔で記憶する。
日付及び時刻は、CPU使用率が収集された日及び時刻である。CPU使用率は、VMがCPUを使用した割合である。CPU使用率の単位は、パーセント(%)である。例えば、2017年5月7日の9時のVM#1のCPU使用率は20%である。
VM負荷モデル化部12は、曜日及び時間帯毎に、VMリソース使用率データに基づいてVMの負荷確率分布を生成し、生成した負荷確率分布の形状を決定することでVM負荷モデルを作成する。図4Aは、VMの負荷確率分布の生成を説明するための図であり、図4Bは、負荷確率分布の形状決定を説明するための図である。
VM負荷モデル化部12は、様々な確率分布の形状を表現できるように、カーネル密度推定により、負荷確率分布を生成する。すなわち、VM負荷モデル化部12は、図4Aに示すように、リソース使用率の1点毎に正規分布を対応させて例えば1時間内のリソース使用率について足し合わせることで、リソース使用率の確率密度関数を負荷確率分布として生成する。
具体的には、VM負荷モデル化部12は、
Figure 0007040319000001
を計算することで、負荷確率分布を生成する。式(1)において、Nは1時間内のリソース使用率xiの点数であり、hはVM負荷モデルの近似度合を示すパラメータである。図4Aは、VM#1の負荷確率分布を示す。
また、VM負荷モデル化部12は、交差検証により、リソース使用率xiをVM負荷モデル計算用のグループと近似度合の決定用のグループに分割し、2つのグループを利用して尤度関数を計算する。すなわち、VM負荷モデル化部12は、図4Bに示すように、モデル計算用のグループのリソース使用率xiを用いて確率分布fを計算し、近似度合の決定用のグループのリソース使用率xiを用いて尤度関数Lを計算する。
具体的には、VM負荷モデル化部12は、
Figure 0007040319000002
を計算することで、尤度関数Lを計算する。式(2)において、Mは近似度合の決定用のグループのリソース使用率xiの点数である。
そして、VM負荷モデル化部12は、グループ分割を変えながら尤度関数Lを計算し、尤度関数Lが最大になるhを、推定法としてグリッドサーチを用いて推定することで負荷確率分布の形状を決定する。
VM負荷モデル記憶部13は、VM負荷モデル化部12により作成されたVM負荷モデルの情報をVM毎に記憶する。図5は、VM負荷モデル記憶部13がVM毎に記憶するVM負荷モデルの情報の一例を示す図である。図5に示すように、VM負荷モデル記憶部13は、VM毎に、対象期間、h及び対象期間内のCPU使用率を対象期間を1時間ずつずらしながら1週間分記憶する。すなわち、VM負荷モデル記憶部13は、曜日及び時間帯毎にh及び対象曜日及び時間帯内のCPU使用率を記憶する。
対象期間は、VM負荷モデルの曜日及び時間帯である。対象期間内のCPU使用率は、VM負荷モデルの作成に用いられたCPU使用率である。例えば、月曜日の9時から10時の時間帯のVM負荷モデルの近似度合は0.7であり、VM負荷モデルの作成に用いられたCPU使用率は20%、35%、30%、10%、8%、4%及び1%である。
構成情報記憶部14は、パブリッククラウド2の構成情報を記憶する。図6は、構成情報の一例を示す図である。図6(a)は、サーバに関する構成情報であり、図6(b)は、VMに関する構成情報である。図6(a)に示すように、サーバに関する構成情報には、サーバ名、CPU数、オーバーコミット率、メモリ量及び稼働VMリストが含まれる。
サーバ名は、サーバを識別する名前である。CPU数は、サーバが有するCPUの数である。オーバーコミット率は、(VMに割り当てることができるCPU数の合計)/(サーバが有するCPU数の合計)である。一般にVMは100%稼働するとは限らないので、サーバが有するCPU数の合計よりも多い数のCPUをVMに割り当てることができる。メモリ量は、サーバが有するメインメモリの容量である。メモリ量の単位はGB(ギガバイト)である。稼働VMリストは、サーバで稼働するVMの名前である。
例えば、サーバ#1は、16個のCPUと24GBのメインメモリを有する。サーバ#1のオーバーコミット率は1であり、VM#1、VM#2及びVM#3がサーバ#1で稼働する。
また、図6(b)に示すように、VMに関する構成情報には、VM名、必要CPU数及び必要メモリ量が含まれる。VM名は、VMを識別する名前である。必要CPU数は、VMの稼働に必要なCPUの数である。必要メモリ量は、VMの稼働に必要なメインメモリの量である。必要メモリ量の単位はGBである。例えば、VM#1は、稼働にあたってCPUが1つと2GBのメインメモリが必要である。
推測部15は、利用者から移動対象VMの情報とともに移動先サーバの特定指示を受け付けると、VM負荷モデル記憶部13と構成情報記憶部14に基づいて曜日及び時間帯毎の各サーバのリソース使用率推測データを作成する。
図7は、移動対象VMの情報の一例を示す図である。図7に示すように、移動対象VMの情報には、VM名、必要CPU数及び必要メモリ量が含まれる。VM名は、移動対象VMの名前である。必要CPU数は、移動対象VMの稼働に必要なCPUの数である。必要メモリ量は、移動対象VMの稼働に必要なメインメモリの量である。必要メモリ量の単位はGBである。例えば、図7では、稼働にあたってCPUが2つと12GBのメインメモリが必要であるVM#1が移動対象VMである。
図8は、リソース使用率推測データの作成方法を説明するための図である。図8に示すように、推測部15は、サーバで稼働するVMのVM負荷モデルからリソース使用率をサンプリングしてサーバのリソース使用率を計算することを繰り返すことでリソース使用率推測データを作成する。推測部15は、曜日及び時間帯毎のVM負荷モデルを用いて曜日及び時間帯毎のサーバのリソース使用率を計算する。また、推測部15は、リソース使用率推測データをサーバ毎に作成する。
図8では、サーバ#1のリソース使用率推測データが作成される。例えば、サーバ#1ではVM#2とVM#3が稼働しており、VM#1が移動対象VMである。推測部15は、サーバに搭載予定のVMのリソース使用率の全ての組み合わせからリソース使用率推測データを算出すると現実的な時間で計算が終わらないため、各VM負荷モデルからVMのリソース使用率をサンプリングする。
推測部15は、マルコフ連鎖モンテカルロ法(MCMC法:Markov Chain Monte Carlo methods)等、連続的な分布からサンプリングする手法を利用してサンプリングする。また、推測部15は、絶対に観測されないデータのサンプリングを防止するため、[0,100]範囲以外のリソース使用率の確率を0に設定する。
VM#1のVM負荷モデルからVM#1のリソース使用率XVM1がサンプリングされ、VM#2のVM負荷モデルからVM#2のリソース使用率XVM2がサンプリングされ、VM#3のVM負荷モデルからVM#3のリソース使用率XVM3がサンプリングされる。そして、推測部15は、サーバ#1のリソース使用率Xserver1を以下の式(3)を用いて計算する。
Figure 0007040319000003
式(3)で、CPUserver1はサーバ#1のCPUの数であり、Vはサーバ#1上のVMの数であり、CPUVMiは各VM#iが利用するCPUの数であり、VM#iはサーバ#1上のVMである。図8では、Vは3である。式(3)では、Xserver1が100%を超えるのを防ぐために100と比較して小さい値がとられる。推測部15は、サーバ毎にリソース使用率を計算する。
推測データ記憶部16は、推測部15により計算されたリソース使用率推測データを曜日及び時間帯毎に記憶する。また、推測データ記憶部16は、リソース使用率推測データをサーバ毎に記憶する。ただし、サンプリングしたリソース使用率XVMiがあれば、構成情報と式(3)を用いてサーバのリソース使用率推測データを計算することができる。そこで、推測データ記憶部16は、サンプリングしたリソース使用率をリソース使用率推測データとして記憶してもよい。
図9は、推測データ記憶部16が記憶するリソース使用率推測データの一例を示す図である。図9(a)は、サーバ#1のリソース使用率推測データを示し、図9(b)は、サーバ#2のリソース使用率推測データを示す。図9に示すように、リソース使用率推測データには、対象期間とサンプリングで推測したCPU使用率とが含まれる。対象期間は、リソース使用率推測データの曜日及び時間帯である。サンプリングで推測したCPU使用率は、推測部15によりVM負荷モデルからサンプリングされたリソース使用率である。例えば、サーバ#1の月曜日の9時から10時までの期間を対象としてVM負荷モデルからサンプリングされたリソース使用率は100%、23%、45%、3%、1%、2%及び4%である。
サーバリソース使用率記憶部17は、サーバの一定時間間隔のリソース使用率をリソース使用率データとしてサーバ毎に記憶する。ここで、リスース使用率は、サーバのリソースのうちVMで使用できるリソースに対する割合である。図10は、リソース使用率データの一例を示す図である。図10は、サーバ#1のリソース使用率データを示す。
図10に示すように、リソース使用率データには、日付、時刻及びCPU使用率が含まれる。日付及び時刻は、CPU使用率が収集された日及び時刻である。図10では、1分間隔でリソース使用率が収集される。CPU使用率は、サーバがCPUを使用した割合である。CPU使用率の単位は、パーセント(%)である。例えば、2017年4月2日の9時のサーバ#1のCPU使用率は55%である。
微小間隔使用率記憶部18は、サーバリソース使用率記憶部17が記憶するリソース使用率データよりも短い時間間隔のリソース使用率データをサーバ毎に記憶する。ここでは、微小間隔使用率記憶部18がリソース使用率を記憶する時間間隔を微小間隔と呼び、サーバリソース使用率記憶部17がリソース使用率を記憶する時間間隔を通常間隔と呼ぶ。
図11は、微小間隔使用率記憶部18がサーバ毎に記憶するリソース使用率データの一例を示す図である。図11に示すように、微小間隔使用率記憶部18は、CPU使用率を1秒間隔で記憶する。この例では、微小間隔使用率記憶部18は、サーバリソース使用率記憶部17と比較して1/60の時間間隔でCPU使用率を記憶する。
競合発生モデル化部19は、サーバリソース使用率記憶部17と微小間隔使用率記憶部18に基づいてリソース競合の発生確率を算出し、算出した発生確率を近似するリソース競合発生モデルを生成する。
競合発生モデル化部19は、微小間隔のリソース使用率を用いてリソース競合の発生を検知し、離散化したリソース使用率の段階毎に、通常間隔においてリソース競合の発生が1回でも検知されたか否かに基づいてリソース競合の発生有無を判定する。ここで、競合発生モデル化部19は、リソース使用率の段階を、通常間隔のリソース使用率に基づいて決定する。そして、競合発生モデル化部19は、通常間隔におけるリソース競合の発生有無の判定を複数の通常間隔について繰り返すことで、リソース競合の発生確率を算出する。
図12Aは、リソース競合の発生確率の算出を説明するための図である。図12Aでは、リソース使用率は10段階に離散化されている。図12Aに示すように、i(i=1,・・・,10)段階目のリソース競合の発生確率piは、以下の式(4)で計算される。
Figure 0007040319000004
式(4)で、ciはi段階目に関してリソース競合の発生有無が判定された回数であり、diはi段階目に関してリソース競合の発生有と判定された回数である。
そして、競合発生モデル化部19は、リソース使用率が100%に近づくとリソース競合の発生確率の増加率も増加する特性を表現できるように、段階毎に算出したリソース競合発生確率を近似するリソース競合発生モデルを作成する。例えば、競合発生モデル化部19は、段階毎に算出したリソース競合発生確率を最小二乗法等を用いてべき関数に近似する。
図12Bは、リソース競合発生モデルの生成を説明するための図である。図12Bに示すように、競合発生モデル化部19は、段階毎に算出したリソース競合発生確率を式(5)で近似する。
Figure 0007040319000005
式(5)で、pはリソース競合発生確率であり、uはサーバのリソース使用率であり、nは1以上の係数である。
競合発生モデル記憶部20は、リソース競合発生モデルの情報を記憶する。図13は、リソース競合発生モデルの情報の一例を示す図である。図13に示すように、リソース競合発生モデルの情報には、モデルを表す関数と係数nが含まれる。図13では、モデルを表す関数は式(5)に示した関数であり、係数nは3である。
競合リスク評価部21は、推測データ記憶部16と競合発生モデル記憶部20に基づいて、リソース競合が発生する確率の期待値を算出し、算出した期待値に基づいて、リソース競合発生のリスクを評価するリスク評価指標をサーバ毎に算出する。そして、競合リスク評価部21は、算出したリスク評価指標に基づいて移動先サーバを特定し、特定した移動先サーバの情報を表示装置に表示する。
競合リスク評価部21は、指標算出部21aと特定部21bとを有する。指標算出部21aは、サーバ毎に、リソース使用率推測データとリソース競合発生モデルを用いて曜日及び時間帯毎のリソース競合発生確率期待値を算出する。指標算出部21aは、曜日及び時間帯毎の全リソース使用率推測データを用いてリソース競合発生確率の平均値を計算することで曜日及び時間帯毎のリソース競合発生確率期待値を算出する。そして、指標算出部21aは、曜日及び時間帯毎のリソース競合発生確率期待値の基づいて、リスク評価指標をサーバ毎に算出する。
特定部21bは、リスク評価指標が最も小さいサーバを移動先サーバとして特定し、特定した移動先サーバの情報を表示する。
図14は、競合リスク評価部21による処理を説明するための図である。図14に示すように、競合リスク評価部21は、曜日及び時間帯毎のリソース競合発生確率期待値を以下の式(6)を用いて算出する。
Figure 0007040319000006
式(6)で、pexp(t)は曜日及び時間帯tにおけるリソース競合発生確率の期待値であり、pi(t)は曜日及び時間帯tにおけるリソース使用率推測データのi番目のデータのリソース競合発生確率である。ui(t)は曜日及び時間帯tにおけるリソース使用率推測データのi番目のデータのリソース使用率であり、mは曜日及び時間帯tにおけるリソース使用率推測データの数である。mは、曜日及び時間帯tに依存しないサンプリングデータ数である。
そして、競合リスク評価部21は、1週間におけるリソース競合発生確率期待値の統計値をリスク評価指標として算出する。統計値は、最大値、平均値、標準偏差又はそれらの組合せ等である。競合リスク評価部21は、リスク評価指標をサーバ毎に算出する。図14では、サーバ#1のリスク評価指標が0.9と算出され、サーバ#2のリスク評価指標が0.2と算出される。
そして、競合リスク評価部21は、リスク評価指標が最も小さいサーバを移動先サーバとして特定し、特定した移動先サーバの情報を出力する。図14では、サーバ#2のリスク評価指標がサーバ#1より小さいため、サーバ#2が移動先サーバとして特定され、「サーバ#2」が移動先サーバの情報として表示される。なお、競合リスク評価部21は、リスク評価指標が小さい順に優先度をつけて、複数の移動先サーバの情報を表示してもよい。
図15は、VM移動先サーバ情報の一例を示す図である。図15に示すように、VM移動先サーバ情報には、VM移動先サーバ名が含まれる。図15では、VM移動先サーバは、サーバ#2である。
次に、クラウド基盤管理装置1による処理のフローを図16~図26を用いて説明する。図16は、VM負荷モデル化部12による処理のフローを示すフローチャートである。図16に示すように、VM負荷モデル化部12は、VM負荷モデル化受付の状態にあり(ステップS1)、定期実行の曜日かつ時刻であるか否かを判定する(ステップS2)。例えば、定期実行は毎週日曜日の4時である。
そして、定期実行の曜日でない又は定期実行の時刻でない場合には、VM負荷モデル化部12は、引き続きVM負荷モデル化受付の状態に留まる。一方、定期実行の曜日かつ時刻である場合には、VM負荷モデル化部12は、VM負荷モデルを作成するVM負荷モデル化処理を行う(ステップS3)。そして、VM負荷モデル化部12は、VM負荷モデル化機能の停止指示ありか否かを判定し(ステップS4)、停止指示なしの場合には、ステップS1に戻り、停止指示ありの場合には、処理を終了する。
このように、VM負荷モデル化部12は、定期的にVM負荷モデル化処理を行うことで、VM負荷モデルを作成することができる。
図17は、競合発生モデル化部19による処理のフローを示すフローチャートである。図17に示すように、競合発生モデル化部19は、リソース競合モデル化受付の状態にあり(ステップS11)、実施指示ありか否かを判定する(ステップS12)。そして、実施指示がない場合には、競合発生モデル化部19は、引き続きリソース競合モデル化受付の状態に留まる。
一方、実施指示がある場合には、競合発生モデル化部19は、リソース競合発生モデルを作成する競合発生モデル化処理を行う(ステップS13)。そして、競合発生モデル化部19は、リソース競合モデル化機能の停止指示ありか否かを判定し(ステップS14)、停止指示なしの場合には、ステップS11に戻り、停止指示ありの場合には、処理を終了する。
このように、競合発生モデル化部19は、実施指示があると競合発生モデル化処理を行うことで、リソース競合発生モデルを作成することができる。
図18は、VM配置を変更する処理のフローを示すフローチャートである。図18に示すように、クラウド基盤管理装置1は、VM配置変更受付の状態にあり(ステップS21)、VM配置変更指示ありか否かを判定する(ステップS22)。そして、VM配置変更指示がない場合には、クラウド基盤管理装置1は、引き続きVM配置変更受付の状態に留まる。
一方、VM配置変更指示がある場合には、クラウド基盤管理装置1は、リソース使用率推測データを作成する推測処理を行い(ステップS23)、リソース競合リスクを評価する競合リスク評価処理を行う(ステップS24)。そして、クラウド基盤管理装置1は、VM移動先サーバの情報を表示する(ステップS25)。そして、クラウド基盤管理装置1は、VM配置変更機能の停止指示ありか否かを判定し(ステップS26)、停止指示なしの場合には、ステップS21に戻り、停止指示ありの場合には、処理を終了する。
このように、クラウド基盤管理装置1は、VM配置変更指示があると、推測処理及び競合リスク評価処理を行うことで、VMの移動先のサーバの情報を表示することができる。
図19は、VM負荷モデル化処理のフローを示すフローチャートである。図19の処理は、図16のステップS3の処理に対応する。図19に示すように、VM負荷モデル化部12は、VMリソース使用率データを読み込み(ステップS31)、VM負荷モデルの近似度合hを計算する近似度合計算処理を行う(ステップS32)。
そして、VM負荷モデル化部12は、VM負荷モデル記憶部13にVM負荷モデルの情報を格納し(ステップS33)、サーバ内の全VMのVM負荷モデルを作成したか否かを判定する(ステップS34)。そして、サーバ内にVM負荷モデルを作成していないVMがある場合には、VM負荷モデル化部12は、ステップS31に戻って、次のVMについて処理を行う。
一方、サーバ内の全VMのVM負荷モデルを作成した場合には、VM負荷モデル化部12は、全サーバを処理したか否かを判定し(ステップS35)、処理していないサーバがある場合には、ステップS31に戻って、次のサーバについて処理を行う。一方、全サーバを処理した場合には、VM負荷モデル化部12は、VM負荷モデル化処理を終了する。
図20は、近似度合計算処理のフローを示すフローチャートである。図20に示すように、VM負荷モデル化部12は、VMのリソース使用率に正規分布を割り当てる(ステップS41)。そして、VM負荷モデル化部12は、VMリソース使用率データを分割する(ステップS42)。例えば、VM負荷モデル化部12は、VMリソース使用率データを4つのグループに分割する。
そして、VM負荷モデル化部12は、1つを除いたグループを利用して尤度関数を作成し(ステップS43)、残りの1グループで尤度関数が最大になるモデルの近似度合を計算する(ステップS44)。そして、VM負荷モデル化部12は、各グループを1回選択したか否かを判定し(ステップS45)、選択されていないグループがある場合には、ステップS43に戻る。
一方、各グループを1回選択した場合には、VM負荷モデル化部12は、計算した各モデルの近似度合の平均を計算し(ステップS46)、hとする。そして、VM負荷モデル化部12は、全対象期間分を作成したか否かを判定し(ステップS47)、作成していない対象期間がある場合には、ステップS41に戻り、全対象期間分を作成した場合には、近似度計算処理を終了する。
このように、VM負荷モデル化部12は、近似度合を計算することでVM負荷モデルを作成することができる。
図21は、推測処理のフローを示すフローチャートである。図21の処理は、図18のステップS23の処理に対応する。図21に示すように、推測部15は、移動対象VMの情報を読み込み(ステップS51)、構成情報を読み込む(ステップS52)。そして、推測部15は、サーバにVMが移動可能かの判定に使う値を計算する(ステップS53)。具体的には、推測部15は、移動対象VMも含めてサーバで稼働するVMが利用するCPUの数の合計N、移動対象VMも含めてサーバで稼働するVMの必要メモリ量の合計S、サーバのCPU数にオーバーコミット率を乗じた値Mを計算する。
そして、推測部15は、サーバにVM移動が可能か否かを判定する(ステップS54)。具体的には、推測部15は、NがMより小さく、かつ、Sがサーバのメモリ量より小さいか否かを判定する。
そして、推測部15は、NがMより小さく、かつ、Sがサーバのメモリ量より小さい場合には、サーバにVM移動が可能と判定し、リソース使用率推測データを作成するリソース使用率推測処理を行う(ステップS55)。そして、推測部15は、全サーバを処理したか否かを判定し(ステップS56)、処理していないサーバがある場合には、ステップS53に戻り、全サーバを処理した場合には、処理を終了する。ただし、推測部15は、移動対象VMの移動元のサーバについては推測処理は行わなくてもよい。
図22は、リソース使用率推測処理のフローを示すフローチャートである。図22に示すように、推測部15は、移動対象VMのVM負荷モデルを読み込み(ステップS61)、サーバ内の全VMのVM負荷モデルを読み込む(ステップS62)。そして、推測部15は、移動対象VMのVM負荷モデルから1点サンプリングし(ステップS63)、サーバ内の全VMのVM負荷モデルから各々1点ずつサンプリングする(ステップS64)。
そして、推測部15は、各VM負荷モデルからサンプリングした値と構成情報を用いてサーバのリソース使用率を推定する(ステップS65)。そして、推測部15は、n個リソース使用率を推定したか否かを判定する(ステップS66)。ここで、nは、例えば5000である。そして、リソース使用率をn個推定していない場合には、推測部15は、ステップS63に戻る。
一方、n個リソース使用率を推定した場合には、推測部15は、推定したリソース使用率を推測データ記憶部16に格納する(ステップS67)。そして、推測部15は、全対象期間分のリソース使用率推測データを作成したか否かを判定し(ステップS68)、作成していない場合には、ステップS61に戻り、作成した場合には、リソース使用率推測処理を終了する。
このように、推測部15は、リソース使用率推測処理を移動対象VMが移動可能なサーバについて行うことで、競合リスク評価に使われるリソース使用率推測データを作成することができる。
図23は、競合発生モデル化処理のフローを示すフローチャートである。図23の処理は、図17のステップS13の処理に対応する。図23に示すように、競合発生モデル化部19は、サーバリソース使用率記憶部17からリソース使用率データを読み込み(ステップS71)、微小間隔使用率記憶部18からリソース使用率データを読み込む(ステップS72)。
そして、競合発生モデル化部19は、リソース競合発生確率を算出する競合発生確率算出処理を行い(ステップS73)、リソース競合発生モデルを生成する競合発生モデル生成処理を行う(ステップS74)。そして、競合発生モデル化部19は、競合発生モデル記憶部20に、リソース競合発生モデルの情報を格納する(ステップS75)。
図24は、競合発生確率算出処理のフローを示すフローチャートである。図24に示すように、競合発生モデル化部19は、リソース使用率データから対象時刻TのCPU使用率の値を取得する(ステップS81)。ここで、リソース使用率データは、サーバリソース使用率記憶部17から読み込まれた通常間隔のリソース使用率データである。
そして、競合発生モデル化部19は、CPU使用率を離散化した段階数iを特定する(ステップS82)。例えば、10段階に離散化する場合、0%以上10%未満のCPU使用率についてはi=1、10%以上20%未満のCPU使用率についてはi=2、・・・、90%以上100%未満のCPU使用率についてはi=10が特定される。
そして、競合発生モデル化部19は、リソース競合有無判定回数ciに1を加え(ステップS83)、対象時刻Tの微小時間監視のCPU使用率が一度でも閾値以上か否かを判定する(ステップS84)。ここで、対象時刻Tの微小時間監視のCPU使用率は、微小間隔使用率記憶部18から読み込まれた微小間隔のリソース使用率データのうち対象時刻TからT+1分の間のCPU使用率である。また、閾値は、例えば95%である。
そして、競合発生モデル化部19は、対象時刻Tの微小時間監視のCPU使用率が一度でも閾値以上である場合には、リソース競合の発生有回数diに1を加える(ステップS85)。そして、競合発生モデル化部19は、対象時刻Tに1分加える(ステップS86)。そして、競合発生モデル化部19は、全判定回数繰り返したか否かを判定し(ステップS87)、全判定回数繰り返していない場合には、ステップS81に戻る。ここで、全判定回数は、例えば、10000である。
一方、全判定回数繰り返した場合には、競合発生モデル化部19は、リソース競合発生確率piを算出する(ステップS88)。そして、競合発生モデル化部19は、全段階数繰り返したか否かを判定し(ステップS89)、piを算出していないiがある場合には、ステップS88に戻って別のiについてpiを算出する。一方、全段階数繰り返した場合には、競合発生モデル化部19は、競合発生確率算出処理を終了する。
図25は、競合発生モデル生成処理のフローを示すフローチャートである。図25に示すように、競合発生モデル化部19は、リソース競合発生確率piを取得し(ステップS91)、i段階目のリソース使用率uiを算出する(ステップS92)。例えば、10段階に離散化する場合、u1は5%、u2は10%、・・・、u10は95%とする。そして、競合発生モデル化部19は、全段回数繰り返したか否かを判定し(ステップS93)、全段回数繰り返していない場合には、ステップS91に戻る。
一方、全段回数繰り返した場合には、競合発生モデル化部19は、近似する関数種類を選択し(ステップS94)、uiとpiの関係から、例えば最小二乗法により、近似する関数を決定する(ステップS95)。
このように、競合発生モデル化部19は、競合発生確率算出処理及び競合発生モデル生成処理を行うことで、リソース競合発生モデルを作成することができる。
図26は、競合リスク評価処理のフローを示すフローチャートである。図26の処理は、図18のステップS24の処理に対応する。図26に示すように、競合リスク評価部21は、リソース競合発生モデルを読み込み(ステップS101)、リソース使用率推測データを読み込む(ステップS102)。そして、競合リスク評価部21は、リソース競合発生確率の期待値を算出し(ステップS103)、全曜日及び時間帯を処理したか否かを判定する(ステップS104)。そして、処理していない曜日及び時間帯がある場合には、競合リスク評価部21は、ステップS103に戻る。
一方、全曜日及び時間帯を処理した場合には、競合リスク評価部21は、リソース競合のリスク評価指標を算出し(ステップS105)、移動先候補のサーバを全て処理したか否かを判定する(ステップS106)。そして、競合リスク評価部21は、処理していない移動先候補サーバがある場合には、ステップS102に戻り、移動先候補のサーバを全て処理した場合には、VM移動先サーバの情報を表示する(ステップS107)。
このように、競合リスク評価部21は、リソース競合発生モデルとリソース使用率推測データを用いて全曜日及び時間帯のリソース競合発生確率の期待値を算出し、全曜日及び時間帯のリソース競合発生確率の期待値からリソース競合のリスク評価指標を算出する。したがって、競合リスク評価部21は、リソース競合のリスク評価指標に基づいてVMの移動先サーバを特定することができる。
上述してきたように、実施例では、VM負荷モデル化部12が、VM毎に、VM負荷モデルを1時間間隔で1週間を対象として作成する。そして、仮想マシンの移動先サーバの特定指示を受けると、推測部15が、サーバ上で稼働しているVM群のVR負荷モデルと移動対象仮想マシンのVR負荷モデルに基づいて、リソース使用率推測データを1時間間隔で1週間を対象として作成する。推測部15は、リソース使用率推測データを移動元サーバ以外のサーバ毎に作成する。また、競合発生モデル化部19が、サーバのリソース使用率に基づいてリソース競合発生モデルを作成する。そして、競合リスク評価部21が、移動元サーバ以外のサーバ毎に、リソース使用率推測データとリソース競合発生モデルに基づいてリソース競合発生確率の期待値を1時間間隔で1週間を対象として算出する。そして、競合リスク評価部21は、1時間間隔で1週間を対象として算出したリソース競合発生確率の統計値に基づいて、移動元サーバ以外のサーバ毎に、リスク評価指標を算出する。そして、競合リスク評価部21は、リスク評価指標に基づいて移動先サーバを特定する。したがって、クラウド基盤管理装置1は、一時的又はスパイク的な高負荷によるリソース競合の発生を抑えるように仮想マシンの移動先のサーバを特定することができる。
また、実施例では、VM負荷モデル化部12は、1時間間隔のリソース使用率の各値に正規分布を対応させ、各値に対応する正規分布を1時間間隔のリソース使用率の全ての値について足し合わせることでVM負荷モデルを作成する。したがって、VM負荷モデル化部12は、一時的な高負荷を反映するVM負荷モデルを作成することができる。
また、実施例では、推測部15は、サーバで稼働する各VMのVM負荷モデルからリソース使用率をサンプリングして足し合わせることを繰り返すことでリソース使用率推測データを作成する。したがって、推測部15は、正確なリソース使用率推測データを作成することができる。
また、実施例では、競合発生モデル化部19は、サーバについて1秒間隔で計測されたリソース使用率に基づいて1分毎のリソース競合発生有無を判定する。そして、競合発生モデル化部19は、リソース競合発生確率を1分毎のリソース競合発生有無に基づいて計算する処理をリソース使用率の値の10段階について行うことでリソース競合発生モデルを作成する。したがって、競合発生モデル化部19は、スパイク的な高負荷によるリソース競合の発生をモデル化することができる。
なお、実施例では、クラウド基盤管理装置1について説明したが、クラウド基盤管理装置1の構成をソフトウェアによって実現することで、同様の機能を有する移動先推奨プログラムを得ることができる。そこで、移動先推奨プログラムを実行するコンピュータについて説明する。
図27は、実施例に係る移動先推奨プログラムを実行するコンピュータのハードウェア構成を示す図である。図27に示すように、コンピュータ50は、メインメモリ51と、CPU52と、LAN(Local Area Network)インタフェース53と、HDD(Hard Disk Drive)54とを有する。また、コンピュータ50は、スーパーIO(Input Output)55と、DVI(Digital Visual Interface)56と、ODD(Optical Disk Drive)57とを有する。
メインメモリ51は、プログラムやプログラムの実行途中結果などを記憶するメモリである。CPU52は、メインメモリ51からプログラムを読み出して実行する中央処理装置である。CPU52は、メモリコントローラを有するチップセットを含む。
LANインタフェース53は、コンピュータ50をLAN経由で他のコンピュータに接続するためのインタフェースである。HDD54は、プログラムやデータを格納するディスク装置であり、スーパーIO55は、マウスやキーボードなどの入力装置を接続するためのインタフェースである。DVI56は、液晶表示装置を接続するインタフェースであり、ODD57は、DVDの読み書きを行う装置である。
LANインタフェース53は、PCIエクスプレス(PCIe)によりCPU52に接続され、HDD54及びODD57は、SATA(Serial Advanced Technology Attachment)によりCPU52に接続される。スーパーIO55は、LPC(Low Pin Count)によりCPU52に接続される。
そして、コンピュータ50において実行される移動先推奨プログラムは、コンピュータ50により読み出し可能な記録媒体の一例であるDVDに記憶され、ODD57によってDVDから読み出されてコンピュータ50にインストールされる。あるいは、移動先推奨プログラムは、LANインタフェース53を介して接続された他のコンピュータシステムのデータベースなどに記憶され、これらのデータベースから読み出されてコンピュータ50にインストールされる。そして、インストールされた移動先推奨プログラムは、HDD54に記憶され、メインメモリ51に読み出されてCPU52によって実行される。
また、実施例では、VMの移動先サーバを特定する場合について説明したが、クラウド基盤管理装置1は、新たに追加されるVMの配置先サーバを特定してもよい。このとき、新たに追加されるVMのVM負荷モデルは既知であるとする。あるいは、新たに追加されるVMのVM負荷モデルが未知の場合には、クラウド基盤管理装置1は、新たに追加されるVMの負荷を除外して配置先サーバを特定してもよい。
また、実施例では、対象期間を1週間としたが、対象期間は1ヶ月等の他の期間でもよい。また、実施例では、1時間毎のVMのリソース使用率を用いて1時間毎のVM負荷モデルを作成したが、クラウド基盤管理装置1は、他の時間毎のVMのリソース使用率を用いて他の時間毎のVM負荷モデルを作成してもよい。この場合、クラウド基盤管理装置1は、リソース使用率推測データの作成、リソース競合発生確率の期待値の算出も他の時間毎に行う。
1 クラウド基盤管理装置
2 パブリッククラウド
11 VMリソース使用率記憶部
12 VM負荷モデル化部
13 VM負荷モデル記憶部
14 構成情報記憶部
15 推測部
16 推測データ記憶部
17 サーバリソース使用率記憶部
18 微小間隔使用率記憶部
19 競合発生モデル化部
20 競合発生モデル記憶部
21 競合リスク評価部
50 コンピュータ
51 メインメモリ
52 CPU
53 LANインタフェース
54 HDD
55 スーパーIO
56 DVI
57 ODD

Claims (8)

  1. 情報処理システムで稼働する仮想マシン毎に、仮想マシンのリソース使用率の連続的な確率分布であるVM負荷モデルを作成する第1作成部と、
    第1仮想マシンの移動先物理マシンを特定する指示を受けたときに、該第1仮想マシンが稼働している第1物理マシン以外の物理マシン毎に、物理マシン上で稼働している仮想マシン群のVM負荷モデルと前記第1仮想マシンのVM負荷モデルに基づいて、物理マシンのリソース使用率の確率分布を推測したデータであるリソース使用率推測データを作成する推測部と、
    物理マシンのリソース使用率に基づいて、物理マシンのリソース使用率とリソースの競合発生確率との関係をモデル化したリソース競合発生モデルを作成する第2作成部と、
    前記第1物理マシン以外の物理マシン毎に、前記リソース使用率推測データと前記リソース競合発生モデルに基づいてリソースの競合発生確率の統計値を算出する算出部と、
    前記第1物理マシン以外の物理マシン毎に算出された前記統計値に基づいて前記移動先物理マシンを特定し、特定した移動先物理マシンの情報を出力する特定部と
    を有することを特徴とする運用管理装置。
  2. 前記第1作成部は、前記VM負荷モデルを第1時間間隔で所定の期間を対象に作成し、
    前記推測部は、前記リソース使用率推測データを前記第1時間間隔で前記所定の期間を対象に作成し、
    前記算出部は、前記統計値を前記第1時間間隔で前記所定の期間を対象に算出し、前記第1時間間隔で前記所定の期間を対象に算出した統計値に基づいてリスク評価指標を算出し、
    前記特定部は、前記リスク評価指標に基づいて前記移動先物理マシンを特定することを特徴とする請求項1に記載の運用管理装置。
  3. 前記第1作成部は、前記第1時間間隔のリソース使用率の各値に正規分布を対応させ、各値に対応する正規分布を前記第1時間間隔のリソース使用率の全ての値について足し合わせることで前記VM負荷モデルを作成することを特徴とする請求項2に記載の運用管理装置。
  4. 前記推測部は、物理マシンで稼働する各仮想マシンのVM負荷モデルからリソース使用率をサンプリングして足し合わせることを繰り返すことで前記リソース使用率推測データを作成することを特徴とする請求項2又は3に記載の運用管理装置。
  5. 前記第2作成部は、物理マシンについて第2時間間隔で計測されたリソース使用率に基づいて前記第2時間間隔が複数個含まれる第3時間間隔毎のリソース競合発生有無を判定し、前記競合発生確率を前記第3時間間隔毎のリソース競合発生有無に基づいて計算する処理をリソース使用率の値に基づく複数の段階について行うことで前記リソース競合発生モデルを作成することを特徴とする請求項2、3又は4に記載の運用管理装置。
  6. 前記リソースはCPUであり、前記所定の期間は1週間であり、前記第1時間間隔は1時間であり、前記第2時間間隔は1秒であり、前記第3時間間隔は1分であり、前記段階の数は10であることを特徴とする請求項5に記載の運用管理装置。
  7. コンピュータが、
    情報処理システムで稼働する仮想マシン毎に、仮想マシンのリソース使用率の連続的な確率分布であるVM負荷モデルを作成し、
    第1仮想マシンの移動先物理マシンを特定する指示を受けたときに、該第1仮想マシンが稼働している第1物理マシン以外の物理マシン毎に、物理マシン上で稼働している仮想マシン群のVM負荷モデルと前記第1仮想マシンのVM負荷モデルに基づいて、物理マシンのリソース使用率の確率分布を推測したデータであるリソース使用率推測データを作成し、
    物理マシンのリソース使用率に基づいて、物理マシンのリソース使用率とリソースの競合発生確率との関係をモデル化したリソース競合発生モデルを作成し、
    前記第1物理マシン以外の物理マシン毎に、前記リソース使用率推測データと前記リソース競合発生モデルに基づいてリソースの競合発生確率の統計値を算出し、
    前記第1物理マシン以外の物理マシン毎に算出された前記統計値に基づいて前記移動先物理マシンを特定し、特定した移動先物理マシンの情報を出力する
    処理を実行することを特徴とする移動先推奨方法。
  8. コンピュータに、
    情報処理システムで稼働する仮想マシン毎に、仮想マシンのリソース使用率の連続的な確率分布であるVM負荷モデルを作成し、
    第1仮想マシンの移動先物理マシンを特定する指示を受けたときに、該第1仮想マシンが稼働している第1物理マシン以外の物理マシン毎に、物理マシン上で稼働している仮想マシン群のVM負荷モデルと前記第1仮想マシンのVM負荷モデルに基づいて、物理マシンのリソース使用率の確率分布を推測したデータであるリソース使用率推測データを作成し、
    物理マシンのリソース使用率に基づいて、物理マシンのリソース使用率とリソースの競合発生確率との関係をモデル化したリソース競合発生モデルを作成し、
    前記第1物理マシン以外の物理マシン毎に、前記リソース使用率推測データと前記リソース競合発生モデルに基づいてリソースの競合発生確率の統計値を算出し、
    前記第1物理マシン以外の物理マシン毎に算出された前記統計値に基づいて前記移動先物理マシンを特定し、特定した移動先物理マシンの情報を出力する
    処理を実行させることを特徴とする移動先推奨プログラム。
JP2018120906A 2018-06-26 2018-06-26 運用管理装置、移動先推奨方法及び移動先推奨プログラム Active JP7040319B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018120906A JP7040319B2 (ja) 2018-06-26 2018-06-26 運用管理装置、移動先推奨方法及び移動先推奨プログラム
US16/423,238 US10942763B2 (en) 2018-06-26 2019-05-28 Operation management apparatus, migration destination recommendation method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018120906A JP7040319B2 (ja) 2018-06-26 2018-06-26 運用管理装置、移動先推奨方法及び移動先推奨プログラム

Publications (2)

Publication Number Publication Date
JP2020003929A JP2020003929A (ja) 2020-01-09
JP7040319B2 true JP7040319B2 (ja) 2022-03-23

Family

ID=68981051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018120906A Active JP7040319B2 (ja) 2018-06-26 2018-06-26 運用管理装置、移動先推奨方法及び移動先推奨プログラム

Country Status (2)

Country Link
US (1) US10942763B2 (ja)
JP (1) JP7040319B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10884779B2 (en) * 2018-12-07 2021-01-05 Nutanix, Inc. Systems and methods for selecting virtual machines to be migrated
CN111385150A (zh) * 2020-03-09 2020-07-07 北京百度网讯科技有限公司 用于获取信息的方法及装置
JP2021192159A (ja) * 2020-06-05 2021-12-16 富士通株式会社 資源調整装置、資源調整プログラム、及び資源調整方法
US20220035656A1 (en) * 2020-07-29 2022-02-03 Mythics, Inc. Migration evaluation system and method
CN111949380A (zh) * 2020-09-18 2020-11-17 成都精灵云科技有限公司 一种基于哨兵模式实现应用迁移的系统及其方法
WO2022104500A1 (zh) * 2020-11-17 2022-05-27 深圳先进技术研究院 一种负载控制方法、装置、计算机设备及存储介质
US11853185B2 (en) * 2020-11-30 2023-12-26 Microsoft Technology Licensing, Llc Server network resource reallocation
CN114896024B (zh) * 2022-03-28 2022-11-22 同方威视技术股份有限公司 基于核密度估计的虚拟机运行状态检测方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012247836A (ja) 2011-05-25 2012-12-13 Mitsubishi Electric Corp リソース使用率算出装置および応答時間比算出装置およびリソース使用率算出方法およびプログラム
WO2013011624A1 (ja) 2011-07-15 2013-01-24 日本電気株式会社 仮想マシン管理システム及び仮想マシン管理方法
US20150052250A1 (en) 2013-08-14 2015-02-19 International Business Machines Corporation Adaptive algorithm for cloud admission policies

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9395786B2 (en) * 2007-11-20 2016-07-19 Hewlett Packard Enterprise Development Lp Cross-layer power management in a multi-layer system
JP5827594B2 (ja) 2012-05-17 2015-12-02 日本電信電話株式会社 仮想マシン配置装置および仮想マシン配置方法
JP6163926B2 (ja) * 2013-07-16 2017-07-19 日本電気株式会社 仮想マシン管理装置、仮想マシン管理方法、及びプログラム
JP2016110248A (ja) 2014-12-03 2016-06-20 日本電信電話株式会社 仮想化実行装置、仮想化システム、および、リソース最適化方法
US10564998B1 (en) * 2017-01-19 2020-02-18 Tintri By Ddn, Inc. Load balancing using predictive VM-based analytics

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012247836A (ja) 2011-05-25 2012-12-13 Mitsubishi Electric Corp リソース使用率算出装置および応答時間比算出装置およびリソース使用率算出方法およびプログラム
WO2013011624A1 (ja) 2011-07-15 2013-01-24 日本電気株式会社 仮想マシン管理システム及び仮想マシン管理方法
US20150052250A1 (en) 2013-08-14 2015-02-19 International Business Machines Corporation Adaptive algorithm for cloud admission policies

Also Published As

Publication number Publication date
US20190391836A1 (en) 2019-12-26
JP2020003929A (ja) 2020-01-09
US10942763B2 (en) 2021-03-09

Similar Documents

Publication Publication Date Title
JP7040319B2 (ja) 運用管理装置、移動先推奨方法及び移動先推奨プログラム
JP5218390B2 (ja) 自律制御サーバ、仮想サーバの制御方法及びプログラム
US9715408B2 (en) Data-aware workload scheduling and execution in heterogeneous environments
US9058216B2 (en) Method for estimating job run time
JP6241300B2 (ja) ジョブスケジューリング装置、ジョブスケジューリング方法、およびジョブスケジューリングプログラム
CA3090095C (en) Methods and systems to determine and optimize reservoir simulator performance in a cloud computing environment
TWI433035B (zh) 按比例調整指令間隔以識別用於代表性指令追蹤的收集點
US20140215471A1 (en) Creating a model relating to execution of a job on platforms
US11700210B2 (en) Enhanced selection of cloud architecture profiles
JP6299759B2 (ja) 予測関数作成装置、予測関数作成方法、及びプログラム
CN110362388B (zh) 一种资源调度方法及装置
TWI598812B (zh) 判定用於軟體開發之經推薦之最佳化策略
Varghese et al. Cloud benchmarking for maximising performance of scientific applications
JP6891611B2 (ja) 管理装置、情報処理システムの制御方法、および管理装置の管理プログラム
JPWO2017188419A1 (ja) 計算資源管理装置、計算資源管理方法、及びプログラム
Xue et al. Managing data center tickets: Prediction and active sizing
US20150012629A1 (en) Producing a benchmark describing characteristics of map and reduce tasks
Fang et al. Practical iterative optimization for the data center
Bader et al. Lotaru: Locally estimating runtimes of scientific workflow tasks in heterogeneous clusters
JP6159056B2 (ja) 選択プログラム、選択方法及び選択装置
JPWO2015146100A1 (ja) 負荷推定システム、情報処理装置、負荷推定方法、及び、コンピュータ・プログラム
JP2020194377A (ja) ジョブ電力予測プログラム、ジョブ電力予測方法、およびジョブ電力予測装置
Iorio et al. Transfer learning for cross-model regression in performance modeling for the cloud
JP2022023420A (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP6792159B2 (ja) 並列処理パラメータ決定プログラム、並列処理パラメータ決定方法、および並列処理管理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220221

R150 Certificate of patent or registration of utility model

Ref document number: 7040319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150