JP5332065B2 - クラスタ構成管理方法、管理装置及びプログラム - Google Patents

クラスタ構成管理方法、管理装置及びプログラム Download PDF

Info

Publication number
JP5332065B2
JP5332065B2 JP2010134051A JP2010134051A JP5332065B2 JP 5332065 B2 JP5332065 B2 JP 5332065B2 JP 2010134051 A JP2010134051 A JP 2010134051A JP 2010134051 A JP2010134051 A JP 2010134051A JP 5332065 B2 JP5332065 B2 JP 5332065B2
Authority
JP
Japan
Prior art keywords
cluster
changing means
combination
computer
resource
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010134051A
Other languages
English (en)
Other versions
JP2011258119A (ja
JP2011258119A5 (ja
Inventor
智也 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2010134051A priority Critical patent/JP5332065B2/ja
Priority to PCT/JP2011/053695 priority patent/WO2011155233A1/ja
Publication of JP2011258119A publication Critical patent/JP2011258119A/ja
Publication of JP2011258119A5 publication Critical patent/JP2011258119A5/ja
Application granted granted Critical
Publication of JP5332065B2 publication Critical patent/JP5332065B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing

Description

本発明は、クラスタ構成管理方法、クラスタ構成管理装置及びプログラムに係り、特に、負荷変動に伴い計算機資源の割当量の変更が必要な計算機システムにおいて、計算機資源の最適な割当てを行うクラスタ構成管理方法、クラスタ構成管理装置及びプログラムに関する。
企業で利用される計算機システム(以下、企業システムとする)では、時間や時期によって負荷が変動する。複数のサーバで構築するクラスタシステムでサービスを提供している企業システムにおいて、最大の負荷予測に合わせて計算機資源を用意しておくことは、余剰なコンピューティングリソースを消費し、維持費用の面においても無駄となる。このような課題に対して、負荷変動に応じて、サービスレベルを維持するために、計算機資源を制御する技術が提案されている。
特許文献1には、負荷変動を予測し、負荷の増減に応じてサーバのスケールイン、スケールアウトを適用することにより、サービスレベルを維持するための技術が開示されている。
また、特許文献2には、複数のアプリケーションが動作しているWebシステムにおける負荷予測方式が開示されている。
一方で、近年は、1台の物理サーバを独立した仮想サーバとして動作させるサーバ仮想化技術が広まっている。サーバ仮想化技術を導入した環境では、負荷が低い場合に、余剰リソースを他の仮想サーバに回すことにより、サーバの集約率の向上などが行える。そのため、動的な負荷変動への対応技術として、サーバ仮想化技術の重要度が高まっている。
非特許文献1には、1つの物理マシン内で複数のアプリケーションに応じてリソースの分配比率を決定する方式が提案されている。又、非特許文献2には、仮想サーバでのグリッド環境において、CPUの負荷予測に基づいてネットワーク負荷を中期的に予測する技術が開示されている。
特開2005−128866号公報 特開2007−265244号公報
Power and performance management of virtualized computing environments via look ahead control, 2008. グリッド環境でのCPU負荷予測に基づくネットワーク負荷中期予測, 電子情報通信学会論文誌. D-I,2004.
ところで、サーバ仮想化環境では、計算機システムの負荷変動に対してリソースの有効利用を図る場合、スケールイン、スケールアウト以外にも、CPUリソースの割り当て量の設定、仮想CPUの追加など多種のリソース量変更技術が提案されている。これら種々の技術は、計算機資源の割り当て変更の実行に必要となる時間やその実行によりその後発揮する性能も大きく異なるものである。
一般に負荷の変動幅は時間帯、業務内容及びイベントにより多種多様であり、状況に応じて適切なリソースの割り当て量を変更する手段を適用するのが好ましい。
例えば、所定の負荷の変動に追従する場合において、スケールアウトによるサーバの追加が間に合わない場合でも、実行に比較的時間がかからないCPUリソースの割り当て量の追加を先に実施することにより、負荷変動に対応できる場合がある。逆に、負荷変動が少ない場合は、仮想サーバを追加するのではなく、より、少ない単位でのリソースの追加により、計算機資源の有効活用を図ることができる。
このように、複数のリソース量変更技術の中から、将来のある時刻に対する負荷予測に対して、実行に必要な時間を考慮しつつ選択可能なリソース量変更手段の組み合わせを選択することで、迅速又は適切に負荷変動に追従することが望まれる。
本発明は、これらの問題点に鑑みてなされたもので、負荷変動が発生した場合に、計算機資源の割当てを効率的に行い、業務のサービスレベルを維持するためのクラスタの管理に関する技術を提供するものである。
本発明は、プロセッサとメモリを含む計算機資源を備えた物理計算機と、前記計算機資源を仮想化して複数の仮想計算機に割り当てる仮想化部と、前記複数の仮想計算機でクラスタを構成し、前記仮想化部を管理する管理部と、を有する計算機システムのクラスタ構成管理方法であって、
前記管理部が、前記クラスタに対する所定時間後の負荷情報の予測値を演算する第1のステップと、
前記管理部が、前記クラスタを構成する前記仮想計算機の現在の計算機資源の割り当て量と、所定時間後の計算機資源の割り当て量とを保持する第2のステップと、
前記管理部が、前記クラスタの構成を変更するために利用可能な計算機資源の複数の変更手段を保持する第3のステップと、
前記管理部が、前記クラスタを構成する前記仮想計算機に割り当てた現在の計算機資源の割り当て量と、前記負荷情報の予測値と、から前記複数の変更手段の組み合わせを選択し、前記選択された現在の変更手段の組み合わせで、前記負荷情報の予測値を処理可能であるか否かを判定し、前記選択された複数の変更手段の組み合わせでは前記負荷情報の予測値を処理できないと判定された場合に、前記複数の変更手段の組み合わせまたは実行予定時刻を更新する第4のステップと、
前記管理部が、前記実行予定時刻に到達した変更手段を前記仮想化部に通知して実行させる第5のステップと、
を含む。
したがって、本発明は、仮想計算機でクラスタを提供する際に、負荷変動に追随しつつ、クラスタで使用する計算機資源の割り当て量を抑制しながら、クラスタが提供する業務のサービスレベルを維持し、計算機資源の有効活用が可能となる。
本発明の実施形態を示し、業務クラスタを構成する計算機システムのブロック図である。 本発明の実施形態を示し、負荷履歴テーブルの一例を示す説明図である。 本発明の実施形態を示し、資源管理テーブルを構成する物理計算機資源管理テーブルの一例を示す説明図である。 本発明の実施形態を示し、資源管理テーブルを構成する仮想計算機資源管理テーブルの一例を示す説明図である。 本発明の実施形態を示し、資源予約テーブルの一例を示す説明図である。 本発明の実施形態を示し、変更手段管理テーブルを構成する手段テーブルの一例を示す説明図である。 本発明の実施形態を示し、変更手段管理テーブルを構成する変更条件テーブルの一例を示す説明図である。 本発明の実施形態を示し、資源変更手段実施手順の一例を示す説明図である。 本発明の実施形態を示し、制御部で行われる処理の一例を示すフローチャートである。 本発明の実施形態を示し、手段選択処理で行われる処理の一例を示すフローチャートである。 本発明の実施形態を示し、負荷予測の上昇時の手段選択処理の選択結果の一例を示すグラフである。 本発明の実施形態を示し、負荷予測の下降時の手段選択処理の選択結果の一例を示すグラフである。 本発明の実施形態を示し、再構成処理で行われる処理の一例を示すフローチャートである。 本発明の実施形態を示し、実行部で行われる処理の一例を示すフローチャートである。
以下、本発明の一実施形態を添付図面に基づいて説明する。
図1は、本発明の第1の実施形態を示し、クラスタを構成する計算機システムの構成を示すブロック図である。
本計算機システムは、業務システム118と管理部101とで構成される。業務システム118は、複数の業務クラスタ123より構成される。ひとつの業務クラスタ123は、負荷分散機119、ひとつ以上の業務サーバ120で構成される。ひとつの業務クラスタ123はひとつの業務(またはサービス)を提供する。図示の例では、3つの業務クラスタ123で3種の業務を提供する例を示す。また、負荷分散機119は、業務クラスタ123毎に、あるいは、業務システム118毎に配置される。
業務サーバ120は、物理計算機122の計算機資源を仮想化するハイパーバイザ121により作成される仮想計算機として構成される。複数の物理計算機122は、CPU1221とメモリ1222及びストレージ装置(図示省略)を備えており、これらの計算機資源は複数の業務クラスタ123で共用される。なお、CPU1221は複数のプロセッサコアを備える。各業務クラスタ123の業務サーバ120に対する物理計算機122の計算機資源(物理計算機資源)の割り当ては、ひとつの業務クラスタ123に対して複数の物理計算機122の計算機資源を割り当てることができる。あるいは、ひとつの物理計算機122の計算機資源を複数の業務クラスタ123に割り当てることができる。
各業務クラスタ123は、クライアント(計算機)117からネットワーク50を介してリクエストを受け付け、所定の業務処理を実行し、処理結果をクライアント117に返信する。負荷分散機119は、業務システム118に対する負荷情報を取得するためのインタフェースを備え、業務サーバ120間の負荷を制御する。また、ハイパーバイザ121は、ハイパーバイザ121上で実行される仮想計算機(業務サーバ120)に対する計算機資源の割当、解除、および、新たな仮想計算機を追加するためのインタフェースを有する。
管理部101は、入力部109、監視部110、制御部111、実行部116、負荷履歴テーブル103、資源管理テーブル104、資源予約テーブル105、変更手段管理テーブル106、資源変更手段実施手順107で構成される。負荷履歴テーブル103、変更手段管理テーブル106、資源変更手段実施手順107は、業務クラスタ120ごとに作成される。管理部101は、物理計算機102が実行する。物理計算機102はCPU1021とメモリ1022及びストレージ装置(図示省略)を備え、メモリ1022にロードした制御部111、監視部110、実行部116、入力部109をCPU1021が実行することで、各機能を実現する。このため、物理計算機102は図示しない管理ネットワーク(またはネットワーク50)を介して業務システム118に接続される。
なお、管理部101は、業務システム123を構成する物理計算機122上の仮想計算機として実行してもよい。
監視部110では、業務クラスタ123が受け取るリクエストの件数(例えば、件数/秒)を負荷情報として計測し、時系列で計測結果を、負荷履歴テーブル103へ記録する。監視部110による業務クラスタ123のリクエストの測定は、例えば、負荷分散機119が受信した単位時間当たりのリクエスト数を監視部110が取得することで行われる。また、負荷分散機119は、測定した負荷情報を管理部101に送信する。
入力部109は、ユーザ(または計算機システムの管理者)が操作する入力装置(図示省略)からシステムの構成情報や業務サーバ120に対して、管理部101が実行可能な計算機資源の割当変更、解除などの資源変更手段及び資源変更手段の組み合わせに関する情報を受け付け、資源管理テーブル104、及び、変更手段管理テーブル106に記録する。
なお、各業務クラスタ123の各業務サーバ120に対する物理計算機122の計算機資源の割り当て開始は、管理者などが予め設定した資源管理テーブル104の情報に基づいて実行部116が各物理計算機122のハイパーバイザ121に対して指令することで行われる。
また、資源変更手段は、仮想計算機で構成される業務サーバ120及び業務クラスタ123に対する物理的な計算機資源の割り当ての態様を指す。本実施形態では、資源変更手段の一例として、業務サーバ120へ割り当てるCPU1221(またはプロセッサコア)の数の追加を「CPU割当追加」とし、業務サーバ120へ割り当てるCPU1221(またはプロセッサコア)の使用率の増大を「CPU割当率追加」とし、業務クラスタ123への仮想計算機(業務サーバ120)の追加を「仮想サーバ追加」とし、業務サーバ120へ割り当てたCPU1221(またはプロセッサコア)の削減を「CPU割当削減」とし、業務サーバ120へ割り当てたCPU1221(またはプロセッサコア)の使用率の削減を「CPU割当率削減」とし、業務クラスタ123に割り当てた仮想計算機(業務サーバ120)の削減を「仮想サーバ削減」とした例を示す。また、「CPU割当追加」、「CPU割当追加」は、物理計算機122のCPU1221が複数のプロセッサコアを有する場合は、プロセッサコアの単位で割り当ての追加または削減を行うことができる。また、論理プロセッサ(例えば、ハイパースレッドなど)を有するCPU1221の場合、プロセッサコアの追加、削減は、論理プロセッサ単位で追加または削減を行うようにしてもよい。また、資源変更手段としては、CPU1221やプロセッサコアの追加、削減の他、メモリ1222の割り当て量の増大、削減を行うようにしてもよい。
図2は、負荷履歴テーブル103の一例を示す説明図である。負荷履歴テーブル1201は、負荷分散機119で負荷が測定された時刻(時刻1202)と、測定された時刻におけるクライアント117からの単位時間当たりのリクエスト到着件数1203とを含む。負荷履歴テーブル103は、監視部110によって更新される。なお、監視部110は、業務クラスタ123毎に負荷履歴テーブル103を作成し、それぞれを更新する。
なお、負荷分散機119は受信したリクエストに加えて、業務サーバ120に分配したリクエストを測定し、業務サーバ120毎の負荷情報を監視部110に送信してもよい。この場合、負荷履歴テーブル103には、リクエストの分配先の業務サーバ120毎にリクエスト数を管理してもよい。これにより、業務サーバ120毎に負荷情報を管理することができる。
図3A、図3Bは、資源管理テーブル104の一例を示す説明図である。資源管理テーブル104は、業務システム118を提供する物理計算機122に関する計算機資源を管理する物理計算機資源管理テーブル201と、仮想計算機(業務サーバ120)に関する計算機資源を管理する仮想計算機資源管理テーブル211とを含む。資源管理テーブル104は、監視部110がハイパーバイザ121から取得した情報と、入力部109から受け付けた情報により更新される。
図3Aは、物理計算機資源管理テーブル201を示し、図3Bは、仮想計算機資源管理テーブル211を示す。
図3Aの物理計算機資源管理テーブル201は、サーバ名202、IPアドレス203、CPU資源204、メモリ資源206などの各種資源の搭載量と、現在割当て済み量(204〜207)を記録するCPU資源割当済205とメモリ資源割当済量207から一つのエントリが構成される。例えば、行208では、サーバ名202がサーバAの物理計算機では、CPU資源に関しては、2コア搭載(CPU資源204)されており、1つ目のコアは資源を100%割当済みであり、2つ目のコアは30%の資源を割当済みである(CPU資源割当済205)であることを示している。
図3Bの仮想計算機資源管理テーブル211は、物理計算機資源管理テーブル201と同様に、サーバ名212、IPアドレス213、CPU資源最大214、メモリ資源最大216などの各種資源の搭載量と、現在割り当てられている量(CPU資源割当済み215、メモリ資源割当済217)、及び、当該仮想計算機を実行する物理計算機122の識別子が物理計算機218に格納される。
図4は、資源予約テーブル105の一例を示す説明図である。資源予約テーブル105は、手段選択処理113で作成または更新される。
資源予約テーブル105は、変更する計算機資源の予約の開始時刻を表す時刻302、サーバ名303、予約対象の計算機資源を表す資源種別304、及び、その計算機資源の予約量を示す変化量305を有する。例えば、行306は、時刻10:10:10以降に、サーバBがCPU資源を1コア分余分に使用するための予約を表している。
図5A、図5Bは、変更手段管理テーブル106の一例を示す説明図である。変更手段管理テーブル106は、管理者などが入力部109を介して予め設定した値が格納される。
変更手段管理テーブル106は、制御部111で選択可能な計算機資源の資源変更手段を管理する手段テーブル401と、計算機資源の変更による性能の変動幅を格納する変動幅条件テーブル411とを含む。図5Aは、手段テーブル401を示し、図5Bは、変動幅条件テーブル411を示す。
手段テーブル401は、選択可能な計算機資源の資源変更手段の種別を記載した手段402、当該資源変更手段の実行により変化する計算機資源の種別と変化量を格納する対象資源403、当該資源変更手段の実行により変化するクラスタシステムの能力(性能)を格納する変動幅404、当該資源変更手段の実行を完了するまでに必要な時間を記載する実行時間405から構成される。変動幅404で用いる指標は、応答時間(遅延時間)や処理可能なリクエスト量などが考えられるが、ここでは、処理可能なリクエスト数(例えば件/秒)を用いる。例えば、「手段402」が「CPUコア数」の場合、CPUコアを1つ追加すると、単位時間当たりに処理可能なリクエスト件数が変動幅404の「85」だけ増加し、計算機資源の追加処理には実行時間405に格納された「10秒」が必要であることを示している。あるいは、逆に資源の割当てを解除(削減)する場合、コアの割当てを1つ解除することにより、単位時間当たりに処理可能なリクエスト数が85だけ減少することを示している。変動幅404の値は事前に業務システム118(または業務クラスタ123)に対し負荷を掛け、計算機資源量(計算機資源の割り当て量)の変化による処理可能リクエスト件数の変化を測定することで求めることができる。
なお、変動幅404の処理可能リクエスト件数の変化は、同じ計算機資源量の変化でも、そのときの他の条件により異なる場合がある。その場合、変動幅とその条件を変動幅条件テーブル411へ設定し、変動幅欄404には、実際の変動幅を求めるために参照する変動幅条件テーブル411の名称を記録する。変動幅条件テーブルの例を図5Bのテーブル411に示す。ここでは、CPU資源の追加及び削除は、CPUコアの最大能力の10%の単位で行うことを想定する。この例の場合、CPUの使用率412を「70%」から「80%」へ10%増加させると処理可能なリクエスト数が変動幅413の「10」だけ増えるが、「80%」から「90%」へ10%増加させた場合は、処理可能なリクエスト数が「5」件しか増えないことを示している。
制御部111は、CPU1021で実行され、メモリ102上に展開された所定のプログラムとの協働により、負荷予測処理112、手段選択処理113、判定処理114及び再構成処理115が実行される。
負荷予測処理112では、将来のある時刻Nまでの業務クラスタ123の負荷変動の予測値を求める処理を実行する。より具体的には、負荷履歴テーブル103に記録されている情報を元に、現在時刻より時間Nだけ先の時点までの負荷変動を予測する。負荷変動の予測方法は、例えば、前年度、先月、先日などの過去の負荷測定データ(負荷履歴テーブル103)に基づいた循環変動値を用いる。もしくは、さらに循環変動値を元に、直近の負荷測定データからマルコフモデルを元に予測した負荷の負荷値による補正を行う方式などを使うことができる。本実施形態の負荷予測については、上記従来例に示した特許文献2等に記載されている公知または周知の技術を採用することができる。
手段選択処理113は、負荷予測処理112の予測結果に対して、利用可能な計算機資源量などの制約条件を満たしつつ、後述する評価式による評価値が最高となる時刻Tまでに実行する計算機資源変更手段と、計算機資源変更手段の実施時刻などで構成される資源変更手段実施手順107を求める処理である。
より具体的には、各物理計算機122や仮想計算機(業務サーバ120)で使用可能な計算機資源量や、計算機資源量の変更手段を実施する場合に必要になる時間などの制約条件を考慮しつつ、負荷予測処理112で予測された負荷量を処理できるだけの計算機資源を業務クラスタ123に対して割り当てるための、資源変更手段実施手順107を求める。なお、制約を満たす資源変更手段実施手順107は多くの場合複数存在するため、予め与えられた評価式において、評価値が最高になる手順を選択する。なお、制約条件は、未割当の計算機資源の量と、資源変更手段が完了するまでの時間の例を示すが、他の制約条件を加えてもよい。また、資源変更手段が完了するまでの時間の制約条件は、資源変更手段の実施が完了するまで、現時点の計算機資源の割り当てで処理可能な負荷(リクエスト)を、負荷の予測値が超えない場合に、当該制約条件を満たすものとする。
判定処理114では、時刻Tまでの時間より短い間隔で、各時点での新たに予測した負荷に対して、現在登録されている資源変更手段実施手順107が適切か否かを判定する。
再構成処理115では、上記判定処理114での判定結果が適切でないと判定された場合に、組合せの見直しをする処理である。
図6は、資源変更手段実施手順107の一例を示す説明図である。この資源変更手段実施手順107は、実行部116が、資源予約テーブル105に基づいて、計算機資源量を変更する手段を実施する時刻502、実施する手段503、実施対象のサーバ504、手段503に対応するコマンドがすでに実行中か否かを示す実行状態欄505で構成される。例えば、行506は、時刻10時10分10秒に、ある仮想計算機(サーバB)に対して、CPUの割当量を10%増加すること、また、現在、このコマンドは未実行の状態であることを示している。なお、資源変更手段毎に予めコマンドが設定されており、実行部116が資源変更手段実施手順を読み込んで、制御対象の物理計算機122のハイパーバイザ121に対して資源変更手段毎のコマンドを送信する。
図7は、制御部111で行われる処理の一例を示すフローチャートである。この処理は、管理部101により一定の周期(再予測間隔、例えば数秒毎、かつ所定時間N未満)で呼び出される。また、本処理の初回の呼び出しの前に、再選択時刻として、現在時刻Tから所定時間Nだけ先の時刻(予測範囲)が設定される。なお、再選択時刻は、負荷予測を求めて計算機資源の割り当てを再評価する時刻である。
まず、制御部111は、負荷予測処理112により、業務クラスタ123毎に現在時刻Tから所定時間Nだけ先の時間までの負荷の予測値を求める(S601)。
次に、制御部111は、現在時刻が、再選択時刻であるか否かを判断する(S602)。再選択時刻の場合(S602:Yes)、制御部111は、ステップS607の処理に進み、手段選択処理113により、ステップS601で求めた負荷の予測値に対する業務クラスタ123を構成する業務サーバ120の資源変更手段の実施手順を求める(S607)。
現在時刻が、再選択時刻でない場合(S602:No)、制御部111は、ステップ603において、現在の資源変更手段実施手順107が、ステップ601で求められた負荷予測に対して有効か否かを判定する(S603)。有効か否かの判定は、負荷予測処理112で予測された負荷(予測値)に対して、現在予定されている資源変更手段の実行で負荷予測(現在時刻+Nにおける予想リクエスト数)に追従可能か否かで判定する。つまり、制御部111は、現在時刻で業務クラスタ123に割り当てられた計算機資源の割り当て量を、資源管理テーブル104(物理計算機資源管理テーブル201、仮想計算機資源管理テーブル211)から取得し、各業務サーバ120ごとに処理可能なリクエスト数を求める。なお、処理可能なリクエスト数は、例えば、CPU1221やプロセッサコアの割当数や割り当て率に応じて予め処理可能なリクエスト数を設定することで制御部111で演算することができる。そして、制御部111は、業務クラスタ123を構成する各業務サーバ120の処理可能なリクエスト数の和を当該業務クラスタ123の処理可能な負荷とする。
そして、現在の資源変更手段実施手順107で変更される予定の計算機資源の割り当て量に応じた処理可能なリクエスト数(変動幅404)の和を処理可能な負荷の変化分とする。
制御部111は、上記処理可能な負荷と処理可能な負荷の変化分の和が、負荷の予測値以上であれば、現在の資源変更手段実施手順107が、ステップ601で求められた負荷予測に対して有効であると判定し、上記処理可能な負荷と処理可能な負荷の変化分の和が、負荷の予測値未満であれば、無効と判定する。
制御部111は、現在予定されている資源変更手段が有効であり見直しの必要がないと判断する場合(S604:No)、処理を終了する。
一方、現在予定されている資源変更手段が有効でなく見直しが必要と判定される場合(ステップS604:Yes)、制御部111は、再構成処理115により、資源変更手段実施手順107における実行実施時刻の補正を試みる(605)。もし補正が行えた場合(ステップS606:Yes)、処理を終了する。
一方、ステップ605の補正が行えなかった場合(ステップS606:No)、ステップ607へ進む。ステップ607では、手段選択処理113により、現在の負荷予測に対する、新たな資源変更手段実施手順107を作成する。また、再選択時刻を、ステップ601における予測で用いた、現在時刻Tから所定時間Nだけ先の時刻に設定する。
上記処理により、仮想化環境上の業務クラスタ123において、負荷変動に追従するために業務クラスタ123毎に負荷を予測し、負荷の予測結果に対して業務クラスタ123を構成する各業務サーバ120に割り当てる計算機資源を制御する。この計算機資源の割り当ては、計算機資源の割り当て量の変更に利用できる資源変更手段と、当該資源変更手段による許容量(処理可能なリクエスト数)の変化と、割り当て変更の実行完了に必要な時間を条件として、現在、および、将来(現在時刻+時間N)の計算機資源の予約状況を考慮して、負荷変動に追従でき、かつ、使用する計算機資源の割り当て量の少ない資源変更手段の組み合わせを選択する。そして、選択した資源変更手段の組み合わせが負荷変動に追従できなくなった場合には、各手段の実行の時刻を調整することにより、再構成を試みる。さらに、再構成に失敗した場合、再度、資源変更手段の組み合わせを求めることができる。
以下に各処理の詳細を示す。
図8は、手段選択処理113で行われる処理の一例を示すフローチャートである。この処理は、図7のステップ607で行われる処理の詳細を示す。この処理では、制約条件を満たす資源変更手段の組み合わせが複数存在する場合に、最も評価値の高い資源変更手段の組み合わせを選択する。
まず、制御部111は、最大の評価値を記録するための変数に初期値として負の最大値を設定する(701)。
次に、ステップ702において、制御部111は、各種計算機資源の制約(未割当の計算機資源の量)を満たす資源変更手段の組み合わせのうち未処理のものを1つ選択する。本処理の詳細は、後述する。
ステップ702で、制約を満たす資源変更手段の組み合わせが選択できた場合(S703:Yes)、S704において、S702において見つかった資源変更手段の組み合わせに対する評価値を求める。評価値の求め方は後述する。
次にステップ705において、ステップ704で求めた評価値が変数Maxに格納されている値より大きいか調べる。
評価値が変数Maxよりも大きい場合(S705:Yes)ステップ706へ進み、変数MaxにS704で求めた評価値を格納すると共に、現在選択されている資源変更手段の組み合わせを変数などに記録する。
ステップ703において選択できる組み合わせが見つからなかった場合(つまり、すべての組み合わせの選択が終了した場合)、ステップ707において、ステップ706で記録された変数Maxに格納されている評価値をもつ組み合わせを資源変更手段実施手順107へ格納する。
次に、ステップ708において、ステップ706において記録されたMaxに格納されている評価値をもつ資源変更手段の組み合わせを実施するために必要となる計算機資源の予約を、資源予約テーブル105へエントリを追加することにより実施する。
図9、図10は、図8に示したステップ702における資源変更手段の組合せを選択する処理の一例を示すグラフである。図9は業務クラスタ123に計算機資源を追加する例を示す。図10は業務クラスタ123から計算機資源を削減する例を示す。
図9、図10において、グラフの縦軸は負荷(リクエスト量/秒)であり、横軸は経過時間である。
まず、図9において、曲線801は、現在時刻T0(802)より前は、実際に測定された負荷を示し、現在時刻T0(802)より後は、予測された負荷を表している。
閾値803は、現在時刻T0において業務クラスタ123に割り当てられた資源を用いて処理可能な負荷の量を示している。この閾値に対して、資源変更手段として、CPU資源割当追加コマンドを2回、仮想計算機の追加コマンドを1回行う場合を考える。この場合、負荷予測801と閾値803が交わる時刻T1(804)と、現在時刻T0からCPU資源追加コマンドの実行時間経過時間のうち、後の時刻がコマンド実行完了時刻となる。この例では、時刻T1(804)がコマンド完了時刻、その時刻からコマンド実行時間を差し引いた時刻が、コマンド実行時刻となる。このコマンドにより、時刻T1(804)以降では、閾値は新たに、808となる。
同様の手順で、2回目のCPU資源割当の実施完了時刻はT2(805)、仮想計算機追加完了時刻はT3(806)となる。また、これらにより、閾値は、負荷予測時刻TN(807)までの負荷に対応可能となり、これ以上の追加は必要ない。
以上により、各資源変更手段の実施手順が求まる。本実施形態では、複数の資源変更手段の実行順序を含めて資源変更手段の組み合わせとする。
次に、この資源変更手段実施手順が計算機資源の制約を満たしているか否かを判定する。例えば、最初のコマンドの制約は、時刻T1(804)以降で、割当可能なCPU資源の空きが、物理計算機122上に存在し、かつ、CPU資源を割当可能な仮想計算機が存在することである。これらは、制御部111が資源管理テーブル104と、資源予約テーブル105を参照することで計算機資源の制約を満たしているか否かを判定することができる。資源管理テーブル104は現在時刻T0における計算機資源の割当状況を管理している。一方、資源予約テーブル105は、今後の他の業務クラスタ123(または業務サーバ120)で実施予定のコマンドで使用する計算機資源に関する情報を管理する。
資源予約テーブル105の例を図4に示す。資源予約テーブル105は、上述のように、サーバ名303、変化する資源種別304、変化量305、及びコマンドを実行する予定の時刻302により構成される。例えば、行306は、時刻Tにおいて、仮想サーバBに対するCPU資源割当(コアを1つ追加)が行われる予定を示している。
また、これは、同時刻に仮想サーバBが実行される物理計算機122のCPU資源の空き容量が割当実施量だけ減少することを示している。なお、業務システム118の保守作業や、物理計算機122の増強などによる資源量の変化も、本資源予約テーブル105により管理する。
次に、負荷の予測値が下降の場合の例を図10に示す。この場合、最初に実行するコマンドの変化量を、現在時刻T0(903)の閾値902から引いた値が、負荷曲線901と交わる時刻が最初のコマンド実行完了候補時刻(T1(903))となる。負荷上昇時と同様にコマンドの実行時間から導きだされる最速実行完了時間とのうち、遅いほうが実行完了時刻となる。以下、新たな閾値を元に、時刻TN(907)までの区間で、適用できるコマンドがなくなるまで行うことにより、実行するコマンドの組み合わせが2つのCPU割り当て削減と1つの仮想サーバの削減となる。
なお、求められた負荷予測が増加、下降を繰り返すパターンである場合は、各グラフの区間を曲線の頂点で区切った部分グラフを求め、各部分グラフでの資源変更手段の組み合わせの結果を結合することにより、コマンドの組み合わせと順序を含む資源変更手段実施手順を求める。
また、本処理により、資源変更手段の組み合わせを選択する時点で、以前に求めた資源変更手段実施手順が実行中であり、まだ、実行が完了していない場合が考えられる。資源変更手段のコマンドが実行中であるか否かは、資源変更手段実施手順107の実行中505により判定できる。この場合、上記の組み合わせを求める手順において、コマンド実行後の新たな閾値が負荷予測曲線と交わる時刻までに、コマンドの実行が完了する場合、それまでに求まっている資源変更手段実施手順の次に、実行完了するコマンドを追加することにより求めることができる。
次に、図8のステップ704で行われる評価値の算出処理の詳細について述べる。本実施形態では、資源変更手段実施手順の評価値を求めるために、次の評価式を用いる。
評価値 = Σ安定稼動期間
− αΣコマンド実行コスト
− βΣ(N − 安定稼動時間)
− γ(使用資源量) … 評価式1
ここで、評価式1の安定稼動時間とは、現在時刻から、負荷予測時刻TNまでの間において、閾値(処理可能なリクエスト数)が予測負荷(負荷の予測値)を上回っている時間であるとする。また、コマンド実行コストは、資源変更手段実施手順のコマンドの実行時間とする。使用資源量は、現在時刻から時刻Nまでの閾値で構成される矩形の面積である。また、α、β、γは、所定の係数であり業務システム118または業務クラスタ123ごとに予め決まった値を設定する。係数は、0でもよく、その場合は、特定の項目を無視することができる。なお、コマンド実行コストは、資源変更手段実施手順のコマンド(資源変更手段)の実行回数としてもよい。
図11は、図7のステップ605で行われる実行時刻補正処理の詳細を示すフローチャートである。本処理では、資源変更手段実施手順107で設定されたコマンドの実行時刻502に対してコマンド実行の時刻を前倒しすることにより、負荷予測に対応できるか否かを調べ、負荷の予測値に対応可能な場合、新たなコマンド実行時刻を求める。これは、他の業務システム118(または業務クラスタ123)に対する資源変更手段実施手順107が、現在の計算機資源の予約状況を元に作成されているため、未割当の計算機資源に対する影響を出来るだけ押さえるためである。本処理では、資源変更手段実施手順107の資源変更手段503に対応する各コマンドに対して、ステップ1002〜1005の処理を適用する(ステップ1001、1006、1007)。
まず、ステップ1002で、ステップ1001で読み込んだ資源変更手段実施手順107のコマンドの実行時に閾値が負荷の予測値を満たしているかを調べる。閾値が負荷の予測値以上で現在の業務クラスタ123の性能が負荷を満たせている場合は、次のコマンドへ進む。現在の業務クラスタ123の性能が負荷を満たせていない場合(負荷が過大)で、すでにコマンドの実行が開始されているか否かを判定する(1003)。この判定は、制御部111は、資源変更手段実施手順107の実行状態欄505が「未」であれば、コマンドが実行されていないと、判定する。
当該コマンドの実行が開始されていない場合、上述の制約条件を満たす上でコマンドの実行時刻を早めることで、現時点の計算機資源の割り当て量で予測負荷(負荷の予測値)を満たせるかを否かを判定する(1004)。コマンドの実行時刻を前倒ししても制約条件を満たせる場合(1005)は、資源変更手段実施手順107の時刻502を所定時間だけ早めて修正し、当該修正に合わせて資源予約テーブル105の時刻302も更新する。
一方、コマンドの実行時刻を早めても予測負荷を満たせない場合、もしくは、ステップ1003においてコマンドが既に開始されている場合、ステップ1008へ進み、開始されているコマンドを除いて、現在の資源変更手段実施手順107を破棄し、破棄した資源変更手段について資源予約テーブル105を更新してから終了する。
上記処理により、資源変更手段実施手順で変更される計算機資源の割り当て量が、負荷の予測値に対応できない場合、現在実行中のコマンド以外の資源変更手段を削除することになる。
図12は、実行部116で行われる処理の一例を示すフローチャートである。
実行部116は、管理部101により一定間隔(所定の周期)で起動し、資源変更手段実施手順107のうち、現在時刻が実行時刻502に到達した資源変更手段503に対応するコマンドに対して、コマンドの実行を開始する(1101)。なお、一定間隔は、再選択時刻となる所定時間Nよりも小さい値が望ましい。実行部116は、対象サーバ504を実行するハイパーバイザ121に対して当該コマンドを送信し、資源変更手段を実施させる。
次に、実行部116は、ハイパーバイザ121に送信したコマンドに対応する資源予約テーブル105のエントリを削除し(1102)、当該コマンドに対応する資源割当量の変更を資源管理テーブル104に対して行い(1103)、実行が終了したコマンドに対応する資源変更手段503のエントリを資源変更手段実施手順107から削除する。
以上の処理により、資源変更手段実施手順107のテーブルに設定された資源変更手段が、実行予定の時刻502を経過する度に、資源変更手段503に対応するコマンドがハイパーバイザ121に送信されて計算機資源の割り当て量の変更が実施される。
なお、上記実施形態では、業務クラスタ123ごとに計算機資源の割り当て量を制御する例について説明したが、複数の業務クラスタ123を同じタイミングで制御することも考えられる。この場合、各業務クラスタ123における評価値は上述の処理で求め、各業務クラスタ123の評価値の合計が最大となる組み合わせを選択する。また、同じタイミングで評価値を求める場合、先に評価値を求める業務クラスタ123ほど優先される。これは、先に評価値を求める業務クラスタ123により資源が予約されるためである。そのため、各業務クラスタ123に対して優先度を指定して、優先度の順に評価値を求める。
また、上記実施形態では、使用する物理計算機122のハードウェアのCPU1221の性能は均質であると仮定していた。CPU1221の性能が均質でない場合は、変更手段管理テーブル106をCPU1221の種別または性能ごとに保持し、業務サーバ120が動作している物理計算機122に応じて使い分けるか、あるいは、あるCPU1221に対して変更手段管理テーブル106を用意し、さらに、CPU1221の種別に応じて値を補正する変換テーブルを用意することにより対応することが可能である。
以上説明したように、本実施形態によれば、仮想化環境上において、複数の業務クラスタ123により構成される業務システム118に対して、将来の負荷変動を予測し、予測された結果に対して、複数のハードウェア資源を変更させる手段を組み合わせることにより、負荷変動に追従するために必要な資源を割り当てることが可能となる。これにより、負荷変動への追随しつつ、業務クラスタで使用とする資源を低く抑えることにより、資源有効活用が可能となる。
101 管理部
103 負荷履歴テーブル
104 資源管理テーブル
105 資源予約テーブル
106 変更手段管理テーブル
107 資源変更手段実施手順
110 監視部
111 制御部
112 負荷予測処理
113 手段選択処理
114 判定処理
115 再構築処理
116 実行部
118 業務システム
120 業務サーバ
121 ハイパーバイザ
122 物理計算機
123 業務クラスタ
1221 CPU
1222 メモリ

Claims (9)

  1. プロセッサとメモリを含む計算機資源を備えた物理計算機と、前記計算機資源を仮想化して複数の仮想計算機に割り当てる仮想化部と、前記複数の仮想計算機でクラスタを構成し、前記仮想化部を管理する管理部と、を有する計算機システムのクラスタ構成管理方法であって、
    前記管理部が、前記クラスタに対する所定時間後の負荷情報の予測値を演算する第1のステップと、
    前記管理部が、前記クラスタを構成する前記仮想計算機の現在の計算機資源の割り当て量と、所定時間後の計算機資源の割り当て量とを保持する第2のステップと、
    前記管理部が、前記クラスタの構成を変更するために利用可能な計算機資源の複数の変更手段を保持する第3のステップと、
    前記管理部が、前記クラスタを構成する前記仮想計算機に割り当てた現在の計算機資源の割り当て量と、前記負荷情報の予測値と、から前記複数の変更手段の組み合わせを選択し、前記選択された現在の変更手段の組み合わせで、前記負荷情報の予測値を処理可能であるか否かを判定し、前記選択された複数の変更手段の組み合わせでは前記負荷情報の予測値を処理できないと判定された場合に、前記複数の変更手段の組み合わせまたは実行予定時刻を更新する第4のステップと、
    前記管理部が、前記実行予定時刻に到達した変更手段を前記仮想化部に通知して実行させる第5のステップと、
    を含むことを特徴とするクラスタ構成管理方法。
  2. 請求項1に記載のクラスタ構成管理方法であって、
    前記第4のステップは、
    前記変更手段の組み合わせを複数選択するステップと、
    前記選択された変更手段の組み合わせ毎に所定の指標を演算するステップと、
    前記指標が最大となる変更手段の組み合わせを選択するステップと、
    を含むことを特徴とするクラスタ構成管理方法。
  3. 請求項2に記載のクラスタ構成管理方法であって、
    前記指標を演算するステップは、
    前記変更手段を適用した場合に、前記負荷情報の予測値を処理可能となる期間の長さと、 前記変更手段が使用する計算機資源の割り当て量と、前記変更手段を実行する際のコストの組み合わせから前記指標を演算することを特徴とするクラスタ構成管理方法。
  4. 請求項3に記載のクラスタ構成管理方法であって、
    前記コストは、前記変更手段の実行開始から実行完了までの時間であることを特徴とするクラスタ構成管理方法。
  5. 請求項3に記載のクラスタ構成管理方法であって、
    前記コストは、前記変更手段の数であることを特徴とするクラスタ構成管理方法。
  6. 請求項1に記載のクラスタ構成管理方法であって、
    前記第4のステップは、
    前記選択された現在の変更手段の組み合わせで、前記負荷情報の予測値を処理可能であるか否かを判定するステップと、
    前記判定の結果が、前記現在の変更手段の組み合わせでは前記負荷情報の予測値を処理できない場合に、前記実行予定時刻を所定時間だけ早めた場合に前記負荷情報の予測値を処理可能であるか否かを判定するステップと、
    当該判定の結果が、前記実行予定時刻を所定時間だけ早めた場合に前記負荷情報の予測値を処理可能である場合には、前記実行予定時刻を所定時間だけ早めて更新するステップと、
    を含むことを特徴とするクラスタ構成管理方法。
  7. 請求項1に記載のクラスタ構成管理方法であって、
    前記第4のステップは、
    前記選択された現在の変更手段の組み合わせで、前記負荷情報の予測値を処理可能であるか否かを判定するステップと、
    前記判定の結果が、前記現在の変更手段の組み合わせでは前記負荷情報の予測値を処理できないと判定された場合に、前記実行予定時刻を所定時間だけ早めた場合に前記負荷情報の予測値を処理可能であるか否かを判定するステップと、
    当該判定の結果が、前記実行予定時刻を所定時間だけ早めた場合に前記負荷情報の予測値を処理できないと判定した場合には前記変更手段の新たな組み合わせと実行予定時刻を設定するステップと、
    を含むことを特徴とするクラスタ構成管理方法。
  8. 計算機資源を仮想化する仮想化部を有する物理計算機で複数の仮想計算機を稼動させ、前記複数の仮想計算機でクラスタを構成し、プロセッサとメモリを備えて前記クラスタを管理する管理装置であって、
    前記クラスタに対する所定時間後の負荷情報の予測値を演算する負荷予測部と、
    前記クラスタを構成する前記仮想計算機の現在の計算機資源の割り当て量と、所定時間後の計算機資源の割り当て量とを保持する資源管理部と、
    前記クラスタの構成を変更するために利用可能な計算機資源の複数の変更手段を保持する資源変更部と、
    前記クラスタを構成する前記仮想計算機に割り当てた現在の計算機資源の割り当て量と、前記負荷情報の予測値と、から前記複数の変更手段の組み合わせを選択し、前記選択された現在の変更手段の組み合わせで、前記負荷情報の予測値を処理可能であるか否かを判定し、前記選択された複数の変更手段の組み合わせでは前記負荷情報の予測値を処理できないと判定された場合に、前記複数の変更手段の組み合わせまたは実行予定時刻を更新する制御部と、
    前記実行予定時刻に到達した前記変更手段を前記仮想化部に通知して実行させる実行部と、
    を有することを特徴とする管理装置。
  9. プロセッサとメモリを備えた計算機で複数の仮想計算機で構成されたクラスタを制御するプログラムであって、
    前記クラスタに対する所定時間後の負荷情報の予測値を演算する第1の手順と、
    前記クラスタを構成する前記仮想計算機の現在の計算機資源の割り当て量と、所定時間後の計算機資源の割り当て量とを保持する第2の手順と、
    前記クラスタの構成を変更するために利用可能な計算機資源の複数の変更手段を保持する第3の手順と、
    前記クラスタを構成する前記仮想計算機に割り当てた現在の計算機資源の割り当て量と、前記負荷情報の予測値と、から前記複数の変更手段の組み合わせを選択し、前記選択された現在の変更手段の組み合わせで、前記負荷情報の予測値を処理可能であるか否かを判定し、前記選択された複数の変更手段の組み合わせでは前記負荷情報の予測値を処理できないと判定された場合に、前記複数の変更手段の組み合わせまたは実行予定時刻を更新する第4の手順と、
    前記実行予定時刻に到達した変更手段実行する第5の手順と、
    を前記計算機に実行させることを特徴とするプログラム。
JP2010134051A 2010-06-11 2010-06-11 クラスタ構成管理方法、管理装置及びプログラム Active JP5332065B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010134051A JP5332065B2 (ja) 2010-06-11 2010-06-11 クラスタ構成管理方法、管理装置及びプログラム
PCT/JP2011/053695 WO2011155233A1 (ja) 2010-06-11 2011-02-21 クラスタ構成管理方法、管理装置及びプログラムを格納した記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010134051A JP5332065B2 (ja) 2010-06-11 2010-06-11 クラスタ構成管理方法、管理装置及びプログラム

Publications (3)

Publication Number Publication Date
JP2011258119A JP2011258119A (ja) 2011-12-22
JP2011258119A5 JP2011258119A5 (ja) 2012-09-27
JP5332065B2 true JP5332065B2 (ja) 2013-11-06

Family

ID=45097848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010134051A Active JP5332065B2 (ja) 2010-06-11 2010-06-11 クラスタ構成管理方法、管理装置及びプログラム

Country Status (2)

Country Link
JP (1) JP5332065B2 (ja)
WO (1) WO2011155233A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5767480B2 (ja) * 2011-01-31 2015-08-19 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 情報処理装置、情報処理システム、配置構成決定方法、プログラムおよび記録媒体
JP5913301B2 (ja) * 2011-05-19 2016-04-27 日本放送協会 放送通信連携受信装置
KR101540631B1 (ko) 2012-12-28 2015-07-30 삼성에스디에스 주식회사 가상 클러스터의 동적 확장 시스템, 방법 및 그 프로그램이 저장된 기록매체
WO2014115282A1 (ja) * 2013-01-24 2014-07-31 株式会社日立製作所 計算機システム及び計算機リソースの割当方法
JP2015072588A (ja) * 2013-10-02 2015-04-16 日本電信電話株式会社 サーバの仮想制御方法
US11809451B2 (en) 2014-02-19 2023-11-07 Snowflake Inc. Caching systems and methods
WO2015145664A1 (ja) 2014-03-27 2015-10-01 株式会社日立製作所 リソース管理方法およびリソース管理システム
JP6277827B2 (ja) * 2014-03-31 2018-02-14 富士通株式会社 情報処理装置、スケール管理方法およびプログラム
JP6158751B2 (ja) * 2014-05-30 2017-07-05 日本電信電話株式会社 計算機資源割当装置及び計算機資源割当プログラム
WO2016075771A1 (ja) * 2014-11-12 2016-05-19 株式会社日立製作所 計算機システムおよび計算機システムにおけるオートスケール方法
JP6347730B2 (ja) * 2014-11-27 2018-06-27 株式会社日立製作所 計算機システム及び計算機リソースの割当て管理方法
WO2016088163A1 (ja) * 2014-12-01 2016-06-09 株式会社日立製作所 計算機システム及びリソース管理方法
JP6495645B2 (ja) * 2014-12-19 2019-04-03 株式会社東芝 リソース制御装置、方法、及びプログラム
JP6550822B2 (ja) * 2015-03-20 2019-07-31 日本電気株式会社 情報処理資源管理装置、情報処理資源管理方法、及び、情報処理資源管理プログラム
JPWO2016178316A1 (ja) * 2015-05-07 2018-02-22 日本電気株式会社 計算機調達予測装置、計算機調達予測方法、及び、プログラム
KR20170126553A (ko) * 2016-05-09 2017-11-20 한국전자통신연구원 제조 현장의 작업 이벤트 추천 및 입력을 위한 장치
JP6721105B2 (ja) * 2017-03-10 2020-07-08 日本電気株式会社 管理装置、制御装置、方法、及びプログラム
WO2018163392A1 (ja) * 2017-03-10 2018-09-13 日本電気株式会社 第1の制御装置、装置、方法、プログラム、記録媒体、及びシステム
JP7111779B2 (ja) * 2020-08-26 2022-08-02 モルガン スタンレー サービシーズ グループ,インコーポレイテッド コンピュータリソースのための予測的資産最適化
WO2024004103A1 (ja) * 2022-06-29 2024-01-04 楽天モバイル株式会社 通信システムに含まれる要素の適切なスケールアウトの実行
WO2024004104A1 (ja) * 2022-06-29 2024-01-04 楽天モバイル株式会社 通信システムに含まれる要素の適切なスケールアウトの実行

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4119239B2 (ja) * 2002-12-20 2008-07-16 株式会社日立製作所 計算機資源割当方法、それを実行するための資源管理サーバおよび計算機システム
WO2008084826A1 (ja) * 2007-01-11 2008-07-17 Nec Corporation プロビジョニングシステム、方法、及び、プログラム
US20100030877A1 (en) * 2007-02-23 2010-02-04 Mitsuru Yanagisawa Virtual server system and physical server selecting method
JP2009237859A (ja) * 2008-03-27 2009-10-15 Nec Corp 仮想マシン管理システム

Also Published As

Publication number Publication date
JP2011258119A (ja) 2011-12-22
WO2011155233A1 (ja) 2011-12-15

Similar Documents

Publication Publication Date Title
JP5332065B2 (ja) クラスタ構成管理方法、管理装置及びプログラム
US20200287961A1 (en) Balancing resources in distributed computing environments
Hieu et al. Virtual machine consolidation with multiple usage prediction for energy-efficient cloud data centers
US9183016B2 (en) Adaptive task scheduling of Hadoop in a virtualized environment
JP6386165B2 (ja) 分散コンピュータシステムへの電力割り振りに変更がある場合に中断され得るジョブ及び中断され得ないジョブを管理するための方法並びに装置
JP5544967B2 (ja) 仮想マシン管理プログラム及び仮想マシン管理装置
JP6165777B2 (ja) 自動スケーリングのためのコンピューティングシステム、コンピュータ記憶メモリ、及び、コンピュータ実装方法
US9104498B2 (en) Maximizing server utilization within a datacenter
US20130339956A1 (en) Computer system and optimal arrangement method of virtual machine in computer system
WO2012056596A1 (ja) 計算機システム及び処理制御方法
Sampaio et al. PIASA: A power and interference aware resource management strategy for heterogeneous workloads in cloud data centers
JP5616523B2 (ja) 情報処理システム
Babu et al. Interference aware prediction mechanism for auto scaling in cloud
KR102469927B1 (ko) 분할 메모리 관리장치 및 방법
JP2019008454A (ja) 情報処理システムおよびリソース割り当て方法
Sung et al. OMBM: optimized memory bandwidth management for ensuring QoS and high server utilization
JP7331386B2 (ja) ジョブ制御システム、方法、及びプログラム
KR101671119B1 (ko) 클라우드 컴퓨팅 시스템의 자원 관리 방법
JP2010191567A (ja) 情報管理装置及び情報管理方法等
JP2013127685A (ja) 情報処理システムおよび運用管理方法
KR20150070930A (ko) 최적 비용을 고려한 마이그레이션 자원 할당 시스템 및 할당 방법
JP6059259B2 (ja) 計算機システム及び計算機リソースの割当方法
JP5722247B2 (ja) 仮想サーバ管理システム
JP5978673B2 (ja) 情報処理装置
JP6524733B2 (ja) 並列演算装置、並列演算システム、およびジョブ制御プログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120813

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130423

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130712

R150 Certificate of patent or registration of utility model

Ref document number: 5332065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150