JP7159887B2 - 仮想化基盤および仮想化基盤のスケーリング管理方法 - Google Patents
仮想化基盤および仮想化基盤のスケーリング管理方法 Download PDFInfo
- Publication number
- JP7159887B2 JP7159887B2 JP2019012719A JP2019012719A JP7159887B2 JP 7159887 B2 JP7159887 B2 JP 7159887B2 JP 2019012719 A JP2019012719 A JP 2019012719A JP 2019012719 A JP2019012719 A JP 2019012719A JP 7159887 B2 JP7159887 B2 JP 7159887B2
- Authority
- JP
- Japan
- Prior art keywords
- scaling
- scale
- resource
- resources
- computes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
- G06F2009/45562—Creating, deleting, cloning virtual machine instances
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
- G06F2009/4557—Distribution of virtual machine instances; Migration and load balancing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/503—Resource availability
Description
第1の問題は、クラスタを構成する仮想マシンやコンテナ間の負荷の偏りや特定の仮想マシンまたはコンテナへの突発的な負荷増に対応できないことである。
第2の問題は、仮想マシンやコンテナのイメージがコンピュート上にない場合は、イメージコピーに時間を要することである。
第3の問題は、アプリケーションによっては、仮想マシンやコンテナの起動後のコンフィグ投入や、仮想マシンやコンテナ間の同期処理に長い時間がかかるケースがあることである。
請求項2に記載の発明では、複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視するリソース監視部と、前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行うスケーリング実施判定部と、各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行うリソース払出制御部と、前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、スケールアウト、スケールアップ、スケールアウトおよびスケールアップの併用のうち何れかのスケーリング方法を選択するスケーリング方法判定部と、前記スケーリング方法判定部が選択したスケーリング方法を前記リソース払出制御部に対して指示するスケーリング指示部と、を備え、前記リソース払出制御部は、スケールアウトまたは併用がスケーリング方法として指示されており、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との余剰がスケールアップによるリソース量よりも大きいならば、前記余剰からスケールアップによるリソース量を減じた量を稼働中の実行環境からリソース割当変更手段によって削除し、かつスケールアップを行わない、ことを特徴とする仮想化基盤とした。
このようにすることで、高速であり、かつ粒度の細かいスケーリングを実現できる。
図1は、本実施形態に係る仮想化基盤の構成図である。図2は、本実施形態に係るコンピュートと仮想マシンを示すシステム図である。以下、図1と図2とを参照しつつ仮想化基盤の各部構成と概略動作について説明する。
仮想化基盤1は、スケーリング部11と、リソース払出制御部12と、監視部13と、記憶部14とを含んで構成される。
コンピュート3は、それぞれ自身で動作する仮想マシン2の設定情報を格納する仮想マシン設定ファイル31と、仮想マシン2を制御するための制御プログラムを、不図示のCPUが実行することにより具現化される仮想化層32とを備えている。
スケーリング実施判定部113は、監視部13に含まれるリソース監視部131の監視情報に基づき、スケーリングを実施するか否かを判定し、スケーリングを実施する場合には必要なリソース量を算出する。
スケーリング指示部112は、スケーリング方法判定部111の選択したスケーリング方法を、リソース払出制御部12に対して指示する。
リソース抽出選定部122は、リソース管理部121にリソース情報を問い合わせて、割り当てるリソースを決定する。リソース管理部121は、新規に割り当てたリソースの情報を反映する。なおリソース情報は、リソース情報リポジトリ141で管理されている。
監視部13は、リソース監視部131を含んでいる。このリソース監視部131は、複数のコンピュートの負荷、およびこれらコンピュート上で稼働している仮想マシン2の負荷を監視する。
記憶部14は、リソース情報リポジトリ141と仮想マシンイメージリポジトリ142を含んでいる。記憶部14は、リソースの情報と仮想マシンイメージの管理を行う。
リソース情報リポジトリ141には、各仮想マシンが使用するリソース情報が記載されたリソース管理テーブル1411を含んでいる。仮想マシンイメージリポジトリ142は、各仮想マシンの起動時に用いる仮想ハードウェアのテンプレートや仮想マシンイメージが格納されている。
仮想マシン2の削除の場合、仮想化基盤1は、前段のロードバランサ4の振り分け設定を変更した後仮想マシン2およびその仮想ハードウェアを削除する。また仮想化基盤1は、リソース監視部131の監視対象も変更する。リソース割当変更の場合、仮想化基盤1は、ホットプラグによりリソース割当量を変更する。なおリソース割当変更手段は、ホットプラグに限定されない。
ここで仮想マシン2の起動については、市中の仮想化基盤と同様に行われていることを前提とする。
最初、リソース払出制御部12は、不図示の上位システムからリソース割当要求を受け付ける(S10)。このリソース割当要求とは、具体的にいうと仮想マシン2の起動要求である。リソース払出制御部12内のリソース抽出選定部122は、割当可能リソースを抽出して(S11)、割当リソースを選定する(S12)。ここでリソース抽出選定部122は、割当ポリシや、既に割当てられている仮想マシン2の使用リソース量等を考慮して選定する。ここで割当ポリシとは、例えば非特許文献3に記載のAffinityルールやAnti-Affinityルール、CPU Pinning適用によるCPUの固定割当を行うか否かなどをいう。
非特許文献3:インターネット<URL:https://docs.openstack.org/ocata/config-reference/compute/schedulers.html>
非特許文献4:インターネット<URL:https://libvirt.org/formatdomain.html>
最初、リソース監視部131は、例えばCPU使用率、メモリ使用量など負荷状態を示す指標であるメトリック情報を収集する(S20)。
最初、スケーリング方法判定部111は、クラスタを構成する仮想マシンのインデックス変数Xを1で初期化し(S24)、空きリソース量Yを0で初期化する(S25)。これらXとYとは、プログラムの内部変数である。
最初、リソース監視部131は、例えばCPU使用率、メモリ使用量など負荷状態を示す指標であるメトリック情報を収集する(S40)。
スケーリング方法判定部111は、同一コンピュート3内の空きリソースが追加リソース量未満ならば(No)、同一コンピュートの空きリソースが0であるか否かを判定する(S46)。スケーリング方法判定部111は、空きリソースが0ならば(Yes)、スケールアウトを選択して図5の処理を終了し、空きリソースが0でないならば(No)、スケールアップとスケールアウトの併用を選択して、図5の処理を終了する。
リソース管理テーブル1411は、リソースの割当状況を管理するために利用され、Compute ID欄と多重率欄と、使用率欄と、割当先欄とを含む各レコードによって構成される。なお、リソース管理テーブル1411の各レコードは、図6の各行に対応する。
多重率欄には、コンピュート3間の性能比率が格納される。図6では、Compute ID#0,#1の多重率欄には100%が格納されており、Compute ID#0のコンピュート3とCompute ID#1のコンピュート3とが性能の基準であることを示している。更にCompute ID#2,#3の多重率欄には、150%が格納されており、Compute ID#2,#3のコンピュート3は、Compute ID#0,#1のコンピュート3に対して、それぞれ1.5倍の性能を有していることを示している。この多重率欄の情報により、コンピュート3間の性能差分を吸収することが可能である。
最初、スケーリング指示部112は、スケーリング方法を判定して分岐する(S50)。スケーリング指示部112は、スケーリング方法がスケールアップならば、ステップS51の処理に進み、スケールアウトならばステップS58の処理に進み、これらの併用ならばステップS52の処理に進む。
ステップS51において、スケーリング指示部112は、リソース抽出選定部122によってスケールアップを指示されたリソース量(例えば2コア)を、実際にスケールアウトするリソース量として通知し、図7の処理を終了する。
ステップS58において、スケーリング指示部112は、スケーリング実施判定部113から指示されたリソース量とVMの起動時に用いる仮想ハードウェアのテンプレートにより、実際にスケールアウトするリソース量を決定する。なお、このテンプレートのことを略して「VMテンプレート」と記載する。本実施形態のテンプレートには、4コア分のCPUを使用することが記載されているので、スケールアウトする単位は4の倍数となる。
具体的にいうと、スケールアウト6コアが指示され、VMのテンプレートが4コアならは、2つのVMの追加となる。このときスケーリング指示部112が決定したスケールアウトのリソース量は8コアとなり、2個のコアが差分のリソース量となる。この差分の2コアは、図8のステップS80の処理で削除(スケールダウン)される。
スケーリング指示部112は、決定したリソース量が指定されたリソース量と等しいならば(Yes)、リソース抽出選定部122に、スケールアウトするリソース量(例えば4コア)を通知し(S61)、図7の処理を終了する。
ステップS52において、スケーリング指示部112は、スケーリング実施判定部113から指示されたスケールアウトのリソース量とVMテンプレートにより、実際にスケールアウトするリソース量を決定する。スケーリング指示部112は、決定したスケールアウトするリソース量がスケーリング実施判定部113から指定されたスケールアウトのリソース量よりも大きいか否かを判定する(S53)。スケーリング指示部112は、決定したスケールアウトするリソース量が指示されたスケールアウトのリソース量と等しいならば(Yes)、リソース抽出選定部122に、実際にスケールアップするリソース量とスケールアウトするリソース量を通知し(S57)、図7の処理を終了する。
具体的にいうと、スケーリング実施判定部113から指定されたスケールアウトのリソース量がVMテンプレートのリソース量の倍数ならば、スケーリング指示部112が決定したスケールアウトするリソース量は、実際にスケールアウトするリソース量と等しくなる。また、スケーリング指示部112は、スケーリング実施判定部113から指示されたスケールアップするリソース量を、実際にスケールアップするリソース量としてリソース抽出選定部122に通知する。
具体的にいうと、スケールアウト7コアとスケールアップ2コアが指示され、VMのテンプレートが4コアならは、2つのVMの追加となる。このときスケーリング指示部112が決定したスケールアウトのリソース量は8コアとなり、1個のコアが余剰となる。スケーリング指示部112は、スケールアップを指示されたリソース量の2コアから、余剰の1コアを差し引くことで、実際にスケールアップされるリソース量の1コアを算出する。
具体的にいうと、スケールアウト6コアとスケールアップ1コアが指示され、VMのテンプレートが4コアならは、2つのVMの追加となる。このときスケーリング指示部112が決定したスケールアウトのリソース量は8コアとなり、2個のコアが余剰となる。この余剰のコア数はスケールアップの1コアよりも多いので、余剰のコア数からスケールアップを指示されたリソース量を引いた差分のリソース量は1コアとなる。この差分の1コアは、図8のステップS80の処理で削除(スケールダウン)される。
リソース抽出選定部122は、再びリソース管理部121に空きリソースを問い合せ、スケールアップ/スケールアウト/差分のリソース量の指示を受信する(S70)。
ステップS73において、リソース抽出選定部122は、リソースが確保できないならば(No)、NG応答をスケーリング指示部112に返して(S75)、いったん終了する。これにより、スケーリング部11は、再びスケーリング方法の判定から繰り返す。
併用の際、VMのテンプレートのCPUリソースがスケールアウト指定されたCPUリソースより大きいならば、差分のCPUリソースについてはスケールアップリソース量から差し引く。その上でさらに差分が生じる場合、仮想化基盤1は、ホットプラグ機能を使って既存のCPUリソースを削除する。CPUリソースを削除する対象となる仮想マシンは、クラスタ群の中で最もCPUコア数の小さい仮想マシンを選ぶとよい。
他にもCPUコア数の平均値から最も離れているコア数の仮想マシンを選ぶ、ランダムに仮想マシンを選ぶ、などの選択肢も取り得る。
監視対象は、コンピュート#1~#3からなるクラスタである。各コンピュート#1~3は、それぞれ8コアのCPUを備えている。
コンピュート#3には、どのVMも稼働しておらず、その使用率は0%である。
図9Bに示すクラスタでは、初期状態に対してVM#1に2コア分のCPUがスケールアップされている。VM#1-1は、2コア分だけスケールアップしている。仮想化基盤1は、ホットプラグ機能を用いてVM#1-1をスケールアップしているため、短時間で処理を完了できる。
図9Cに示すクラスタでは、初期状態に対してVM#1に4コア分のCPUがスケールアップされている。VM#1-2は、2コア分だけスケールアップしている。仮想化基盤1は、ホットプラグ機能を用いてVM#1-2をスケールアップしているため、短時間で処理を完了できる。
図9Dに示すクラスタでは、初期状態に対して、VM#1に6コア分のCPUがスケールアップされている。ここではコンピュート#3上に新たにVM#1-3が稼働している。VM#1-3は、4コアを占有している。仮想化基盤1は、ホットプラグ機能を用いてVM#1-3をスケールアウトし、かつ、差分のリソース量だけVM#1-1からスケールダウンしているため、細かな粒度でスケーリングを制御できる。
初期状態において、コンピュート#1には、VM#1-1が稼働している。このVM#1-1は、コンピュート#1の8コアを全て占有している。コンピュート#1の使用率は、100%である。
コンピュート#3には、どのVMも稼働しておらず、その使用率は0%である。
図10Bに示すクラスタでは、初期状態に対して2コア分のCPUがスケールアップされている。ここではVM#1-3が4コア分だけスケールアップしており、差分のリソース量である2コア分は、ホットプラグ機能を用いてVM#1-1をスケールダウンしている。これによりCPUコアを過剰に占有することがなくなる。
本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲で、変更実施が可能であり、例えば、次の(a),(b)のようなものがある。
(b) 上記実施形態では、実行環境として仮想マシンが用いられた例を記載したが、実行環境としてコンテナを用いて、このコンテナに対するリソースの割り当てに適用してもよく、限定されない。
11 スケーリング部
111 スケーリング方法判定部
112 スケーリング指示部
113 スケーリング実施判定部
12 リソース払出制御部
121 リソース管理部
122 リソース抽出選定部
123 仮想マシン制御部
13 監視部
131 リソース監視部
14 記憶部
141 リソース情報リポジトリ
1411 リソース管理テーブル
142 仮想マシンイメージリポジトリ
2 仮想マシン (実行環境)
3,3-1~3-4 コンピュート
31 仮想マシン設定ファイル
32 仮想化層
4 ロードバランサ
5 ローカルネット
6 インターネット
Claims (10)
- 複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視するリソース監視部と、
前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行うスケーリング実施判定部と、
各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行うリソース払出制御部と、
前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、スケールアウト、スケールアップ、スケールアウトおよびスケールアップの併用のうち何れかのスケーリング方法を選択するスケーリング方法判定部と、
前記スケーリング方法判定部が選択したスケーリング方法を前記リソース払出制御部に対して指示するスケーリング指示部と、
を備え、
前記リソース払出制御部は、スケールアウトまたは併用がスケーリング方法として指示されている場合、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との間に余剰があるならば、スケールアップによるリソース量から前記余剰を差し引くか、またはスケールダウンを併用する、
ことを特徴とする仮想化基盤。 - 複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視するリソース監視部と、
前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行うスケーリング実施判定部と、
各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行うリソース払出制御部と、
前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、スケールアウト、スケールアップ、スケールアウトおよびスケールアップの併用のうち何れかのスケーリング方法を選択するスケーリング方法判定部と、
前記スケーリング方法判定部が選択したスケーリング方法を前記リソース払出制御部に対して指示するスケーリング指示部と、
を備え、
前記リソース払出制御部は、スケールアウトまたは併用がスケーリング方法として指示されており、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との余剰がスケールアップによるリソース量よりも大きいならば、前記余剰からスケールアップによるリソース量を減じた量を稼働中の実行環境からリソース割当変更手段によって削除し、かつスケールアップを行わない、
ことを特徴とする仮想化基盤。 - 前記スケーリング方法判定部は、何れかの実行環境が稼働しているコンピュートの空きリソースの総和が追加リソースより多い場合、スケールアップによるスケーリング方法を選択する、
ことを特徴とする請求項1または2に記載の仮想化基盤。 - 前記リソース払出制御部は、スケールアップによるスケーリング方法で各前記コンピュートのリソース割当を変更する場合、リソース割当変更手段によってリソース割当量を変更する、
ことを特徴とする請求項3に記載の仮想化基盤。 - 前記スケーリング方法判定部は、何れかの実行環境が稼働しているコンピュートのいずれにも空きリソースがない場合、スケールアウトによるスケーリング方法を選択する、
ことを特徴とする請求項4に記載の仮想化基盤。 - 前記スケーリング方法判定部は、何れかの実行環境が稼働しているコンピュートの空きリソースの総和が追加リソースよりも少ない場合、スケールアウトおよびスケールアップの併用によるスケーリング方法を選択する、
ことを特徴とする請求項5に記載の仮想化基盤。 - 複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視するリソース監視部と、
前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行うスケーリング実施判定部と、
各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行うリソース払出制御部と、
前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、何れかの実行環境が稼働しているコンピュートの空きリソースの総和が追加リソースより多い場合、スケールアップによるスケーリング方法を選択し、何れかの実行環境が稼働しているコンピュートのいずれにも空きリソースがない場合、スケールアウトによるスケーリング方法を選択し、何れかの実行環境が稼働しているコンピュートの空きリソースの総和が追加リソースよりも少ない場合、スケールアウトおよびスケールアップの併用によるスケーリング方法を選択する選択するスケーリング方法判定部と、
前記スケーリング方法判定部が選択したスケーリング方法を前記リソース払出制御部に対して指示するスケーリング指示部と、
を備え、
前記リソース払出制御部は、スケールアップによるスケーリング方法で各前記コンピュートのリソース割当を変更する場合、リソース割当変更手段によってリソース割当量を変更し、スケールアウトまたは併用がスケーリング方法として指示されている場合、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との間に余剰があるならば、スケールアップによるリソース量から前記余剰を差し引くか、またはスケールダウンを併用する、
ことを特徴とする仮想化基盤。 - リソース監視部は、複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視し、
スケーリング実施判定部は、前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行い、
スケーリング方法判定部は、前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、スケールアウト、スケールアップ、スケールアウトおよびスケールアップの併用のうち何れかのスケーリング方法を選択し、
スケーリング指示部は、前記スケーリング方法判定部が選択したスケーリング方法をリソース払出制御部に対して指示し、
前記リソース払出制御部は、各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行い、
スケールアウトまたは併用がスケーリング方法として指示されている場合、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との間に余剰があるならば、スケールアップによるリソース量から前記余剰を差し引くか、またはスケールダウンを併用する、
ことを特徴とする仮想化基盤のスケーリング管理方法。 - リソース監視部は、複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視し、
スケーリング実施判定部は、前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行い、
スケーリング方法判定部は、前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、スケールアウト、スケールアップ、スケールアウトおよびスケールアップの併用のうち何れかのスケーリング方法を選択し、
スケーリング指示部は、前記スケーリング方法判定部が選択したスケーリング方法をリソース払出制御部に対して指示し、
前記リソース払出制御部は、各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行い、
スケールアウトまたは併用がスケーリング方法として指示されており、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との余剰がスケールアップによるリソース量よりも大きいならば、前記余剰からスケールアップによるリソース量を減じた量を稼働中の実行環境からリソース割当変更手段によって削除し、かつスケールアップを行わない、
ことを特徴とする仮想化基盤のスケーリング管理方法。 - リソース監視部は、複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視し、
スケーリング実施判定部は、前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行い、
スケーリング方法判定部は、前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、何れかの実行環境が稼働しているコンピュートの空きリソースの総和が追加リソースより多い場合、スケールアップによるスケーリング方法を選択し、
何れかの実行環境が稼働しているコンピュートのいずれにも空きリソースがない場合、スケールアウトによるスケーリング方法を選択し、何れかの実行環境が稼働しているコンピュートの空きリソースの総和が追加リソースよりも少ない場合、スケールアウトおよびスケールアップの併用によるスケーリング方法を選択し、
スケーリング指示部は、前記スケーリング方法判定部が選択したスケーリング方法をリソース払出制御部に対して指示し、
前記リソース払出制御部は、各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行い、
スケールアップによるスケーリング方法で各前記コンピュートのリソース割当を変更する場合、リソース割当変更手段によってリソース割当量を変更し、
スケールアウトまたは併用がスケーリング方法として指示されている場合、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との間に余剰があるならば、スケールアップによるリソース量から前記余剰を差し引くか、またはスケールダウンを併用する、
ことを特徴とする仮想化基盤のスケーリング管理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019012719A JP7159887B2 (ja) | 2019-01-29 | 2019-01-29 | 仮想化基盤および仮想化基盤のスケーリング管理方法 |
PCT/JP2020/001481 WO2020158452A1 (ja) | 2019-01-29 | 2020-01-17 | 仮想化基盤および仮想化基盤のスケーリング管理方法 |
US17/423,054 US20220129294A1 (en) | 2019-01-29 | 2020-01-17 | Virtualization platform and virtualization platform scaling management method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019012719A JP7159887B2 (ja) | 2019-01-29 | 2019-01-29 | 仮想化基盤および仮想化基盤のスケーリング管理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020123003A JP2020123003A (ja) | 2020-08-13 |
JP7159887B2 true JP7159887B2 (ja) | 2022-10-25 |
Family
ID=71840326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019012719A Active JP7159887B2 (ja) | 2019-01-29 | 2019-01-29 | 仮想化基盤および仮想化基盤のスケーリング管理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220129294A1 (ja) |
JP (1) | JP7159887B2 (ja) |
WO (1) | WO2020158452A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11726758B2 (en) * | 2019-02-07 | 2023-08-15 | Microsoft Technology Licensing, Llc | Efficient scaling of a container-based application in a distributed computing system |
WO2023162000A1 (ja) * | 2022-02-22 | 2023-08-31 | 日本電信電話株式会社 | リソース決定装置、方法およびプログラム |
CN114265671B (zh) * | 2022-03-03 | 2022-06-07 | 浙江省邮电工程建设有限公司 | 虚拟机房的混合式扩展方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011090594A (ja) | 2009-10-26 | 2011-05-06 | Hitachi Ltd | サーバ管理装置およびサーバ管理方法 |
JP2015115059A (ja) | 2013-12-13 | 2015-06-22 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | クラウド・コンピューティング環境を動的に変更する方法、情報処理システム、およびコンピュータ・プログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5731907B2 (ja) * | 2011-06-02 | 2015-06-10 | 株式会社東芝 | 負荷分散装置、負荷分散方法及び負荷分散プログラム |
CA3057032C (en) * | 2018-09-28 | 2023-03-21 | Element Ai Inc. | System and method for managing network resources |
-
2019
- 2019-01-29 JP JP2019012719A patent/JP7159887B2/ja active Active
-
2020
- 2020-01-17 WO PCT/JP2020/001481 patent/WO2020158452A1/ja active Application Filing
- 2020-01-17 US US17/423,054 patent/US20220129294A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011090594A (ja) | 2009-10-26 | 2011-05-06 | Hitachi Ltd | サーバ管理装置およびサーバ管理方法 |
JP2015115059A (ja) | 2013-12-13 | 2015-06-22 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | クラウド・コンピューティング環境を動的に変更する方法、情報処理システム、およびコンピュータ・プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2020158452A1 (ja) | 2020-08-06 |
JP2020123003A (ja) | 2020-08-13 |
US20220129294A1 (en) | 2022-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7138126B2 (ja) | リソース配置を最適化するための適時性リソース移行 | |
EP3761170B1 (en) | Virtual machine creation method and apparatus | |
US10873623B2 (en) | Dynamically modifying a cluster of computing nodes used for distributed execution of a program | |
Mansouri | Adaptive data replication strategy in cloud computing for performance improvement | |
JP7159887B2 (ja) | 仮想化基盤および仮想化基盤のスケーリング管理方法 | |
US20130339956A1 (en) | Computer system and optimal arrangement method of virtual machine in computer system | |
JP2010282420A (ja) | 管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム | |
JP2012094030A (ja) | 計算機システム及び処理制御方法 | |
US11966768B2 (en) | Apparatus and method for multi-cloud service platform | |
JP2017219972A (ja) | コンピュータプログラム、情報処理方法、管理ノードおよび情報処理システム | |
JP7035858B2 (ja) | マイグレーション管理プログラム、マイグレーション方法およびマイグレーションシステム | |
CN113608834A (zh) | 一种基于超融合的资源调度方法、装置、设备及可读介质 | |
JP5515889B2 (ja) | 仮想マシンシステム、自動マイグレーション方法および自動マイグレーションプログラム | |
JP2019079334A (ja) | 情報処理装置、情報処理システムおよび情報処理方法 | |
Lin et al. | Capacity optimization for resource pooling in virtualized data centers with composable systems | |
JP6620609B2 (ja) | 分散処理実行管理プログラム、分散処理実行管理方法および分散処理実行管理装置 | |
JP5471292B2 (ja) | 仮想マシン移動制御プログラム,仮想マシン移動制御装置および仮想マシン移動制御方法 | |
JP6511025B2 (ja) | リソース割当装置、リソース割当方法およびリソース割当プログラム | |
JP7176633B2 (ja) | 仮想化基盤制御装置、仮想化基盤制御方法および仮想化基盤制御プログラム | |
Wang et al. | Provision of storage QoS in distributed file systems for clouds | |
JP2014206805A (ja) | 制御装置 | |
JP7037059B2 (ja) | リソース管理システム、および、リソース割当プログラム | |
JP2011215812A (ja) | 仮想計算機管理方法、計算機システム及びリソース管理プログラム | |
JP7367758B2 (ja) | 仮想化基盤制御装置、仮想化基盤制御方法および仮想化基盤制御プログラム | |
JP6365027B2 (ja) | 割り当てプログラム、割り当て装置、割り当てシステム、及び割り当て方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210510 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220902 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220926 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7159887 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |