JP7159887B2 - 仮想化基盤および仮想化基盤のスケーリング管理方法 - Google Patents

仮想化基盤および仮想化基盤のスケーリング管理方法 Download PDF

Info

Publication number
JP7159887B2
JP7159887B2 JP2019012719A JP2019012719A JP7159887B2 JP 7159887 B2 JP7159887 B2 JP 7159887B2 JP 2019012719 A JP2019012719 A JP 2019012719A JP 2019012719 A JP2019012719 A JP 2019012719A JP 7159887 B2 JP7159887 B2 JP 7159887B2
Authority
JP
Japan
Prior art keywords
scaling
scale
resource
resources
computes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019012719A
Other languages
English (en)
Other versions
JP2020123003A (ja
Inventor
絵里子 岩佐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2019012719A priority Critical patent/JP7159887B2/ja
Priority to PCT/JP2020/001481 priority patent/WO2020158452A1/ja
Priority to US17/423,054 priority patent/US20220129294A1/en
Publication of JP2020123003A publication Critical patent/JP2020123003A/ja
Application granted granted Critical
Publication of JP7159887B2 publication Critical patent/JP7159887B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45562Creating, deleting, cloning virtual machine instances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/503Resource availability

Description

本発明は、同一コンピュート内のスケーリングについてはスケールアップを、コンピュートを超えるスケーリングについてはスケールアウトを適用する仮想化基盤および仮想化基盤のスケーリング管理方法に関する。
仮想化基盤とは、仮想化技術を用いてサーバやネットワークといった物理資源を抽象化・隠蔽し、複数のアプリケーションやサービスに対して共通基盤として準備された仮想環境、またそれらの仮想環境を管理するシステムのことをいう。
近年では通信サービスにおいても、仮想化技術を適用したネットワーク機能の仮想化(NFV:Network Functions Virtualization)の採用が進展している。ネットワークの仮想化とは、従来では専用のハードウェアを用いて実現されていたネットワーク機能を、ソフトウェア化して汎用サーバ上で動作させるように構成することをいう。このようなネットワーク機能の仮想化技術をキャリア網に適用することで、経済的にスケーラビリティと信頼性を両立させることや、迅速なサービス提供、サービスごとの需要に応じた柔軟なリソース割り当てと、ハードウェアの寿命に縛られないサービス展開が実現できると期待されている。
OpenStackとはクラウド環境構築用のオープンソースソフトウェア群のことをいう。非特許文献1に記載のOpenStack Novaは、OpenStackコンポーネントの1つであり、仮想マシンの制御や管理を担当する。Novaは、仮想マシンを作成する際に、flavorと呼ばれる仮想ハードウェアのテンプレートを用い、この仮想ハードウェア上で仮想マシンを起動させる。このテンプレートには、CPU(Central Processing Unit)やメモリやディスク等のリソース割当条件が記載されている。
非特許文献2に記載のOpenStack Heatは、OpenStackコンポーネントの1つであり、リソースの配置を定義したテンプレートを用いて、システムの構築を自動化するオーケストレーションを担当する。OpenStack Heatは、テンプレート内のAutoScalingGroupやScalingPolicyにスケーリング対象やスケーリングルールを記述すると、その条件に従ってスケールアウトする。なおOpenStackでは、ホットプラグのように仮想マシンを無停止でリソース割当を変更すること、即ち無停止でスケールアップをすることはできない。
仮想化基盤上では、新たな実行環境であるVM(Virtual Machine:仮想マシン)やコンテナの生成および既存の実行環境であるVMやコンテナの削除が容易になることから、仮想化基盤上に搭載したアプリケーションをスケーリングする際には、処理量に応じてVMやコンテナの数を増減させることにより処理能力を最適化するスケールアウトやスケールインの方法が採用される。具体的には、前段にロードバランサを配置し、仮想マシン群またはコンテナ群(クラスタ)に対して処理を振り分ける構成をとることが多い。
一方、仮想マシンやコンテナ自体の処理能力を増減させることで処理能力を最適化するスケールアップやスケールダウンの方法も存在する。代表的な技術であるホットプラグでは、仮想マシンに割り当てるCPUやメモリやディスクを柔軟に追加または削除することが可能である。
"OpenStack Compute (nova)",インターネット<URL:https://docs.openstack.org/nova/latest/> "OpenStack-Heat",インターネット<URL:https://docs.openstack.org/heat/latest/>
上記したスケールアウトは、以下の問題がある。
第1の問題は、クラスタを構成する仮想マシンやコンテナ間の負荷の偏りや特定の仮想マシンまたはコンテナへの突発的な負荷増に対応できないことである。
第2の問題は、仮想マシンやコンテナのイメージがコンピュート上にない場合は、イメージコピーに時間を要することである。
第3の問題は、アプリケーションによっては、仮想マシンやコンテナの起動後のコンフィグ投入や、仮想マシンやコンテナ間の同期処理に長い時間がかかるケースがあることである。
第4の問題は、特に仮想マシンでは、仮想マシン起動に数分単位で時間がかかる懸念があることである。リソースの追加単位が仮想マシンの起動時に用いる仮想ハードウェアのテンプレートサイズに依存するため、追加粒度を細かくすることが難しい。追加粒度を細かくするとスケーリング回数が増えて第2~第4の問題が課題となるため、細かくすることは難しい。
一方で、仮想マシンやコンテナ自体の処理能力を増減させることで処理能力を最適化するスケールアップやスケールダウンの方法も存在する。スケールアップやスケールダウンを実現する代表的な技術であるホットプラグでは、仮想マシンに割り当てるCPUやメモリやディスクを柔軟に追加および削除することが可能である。この技術は仮想マシンの生成は伴わないため、処理は1秒未満で完了するというメリットがある。しかし、スケールアップは、同一コンピュート上に仮想マシンが動作しており、かつ余剰のリソースがなければならない。
そこで、本発明は、高速であり、かつ粒度の細かいスケーリングを実現することを課題とする。
前記した課題を解決するため、請求項1に記載の発明では、複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視するリソース監視部と、前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行うスケーリング実施判定部と、各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行うリソース払出制御部と、前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、スケールアウト、スケールアップ、スケールアウトおよびスケールアップの併用のうち何れかのスケーリング方法を選択するスケーリング方法判定部と、前記スケーリング方法判定部が選択したスケーリング方法を前記リソース払出制御部に対して指示するスケーリング指示部と、を備え、前記リソース払出制御部は、スケールアウトまたは併用がスケーリング方法として指示されている場合、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との間に余剰があるならば、スケールアップによるリソース量から前記余剰を差し引くか、またはスケールダウンを併用する、ことを特徴とする仮想化基盤とした。
このようにすることで、高速であり、かつ粒度の細かいスケーリングを実現できる。
請求項2に記載の発明では、複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視するリソース監視部と、前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行うスケーリング実施判定部と、各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行うリソース払出制御部と、前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、スケールアウト、スケールアップ、スケールアウトおよびスケールアップの併用のうち何れかのスケーリング方法を選択するスケーリング方法判定部と、前記スケーリング方法判定部が選択したスケーリング方法を前記リソース払出制御部に対して指示するスケーリング指示部と、を備え、前記リソース払出制御部は、スケールアウトまたは併用がスケーリング方法として指示されており、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との余剰がスケールアップによるリソース量よりも大きいならば、前記余剰からスケールアップによるリソース量を減じた量を稼働中の実行環境からリソース割当変更手段によって削除し、かつスケールアップを行わない、ことを特徴とする仮想化基盤とした。
このようにすることで、高速であり、かつ粒度の細かいスケーリングを実現できる。
請求項に記載の発明では、前記スケーリング方法判定部は、何れかの実行環境が稼働しているコンピュートの空きリソースの総和が追加リソースより多い場合、スケールアップによるスケーリング方法を選択する、ことを特徴とする請求項1または2に記載の仮想化基盤とした。
このようにすることで、本発明によれば、高速なスケーリングが実現できる。
請求項に記載の発明では、前記リソース払出制御部は、スケールアップによるスケーリング方法で各前記コンピュートのリソース割当を変更する場合、リソース割当変更手段によってリソース割当量を変更する、ことを特徴とする請求項に記載の仮想化基盤とした。
このようにすることで、本発明によれば、粒度の細かいスケーリングが実現できる。
請求項に記載の発明では、前記スケーリング方法判定部は、何れかの実行環境が稼働しているコンピュートのいずれにも空きリソースがない場合、スケールアウトによるスケーリング方法を選択する、ことを特徴とする請求項に記載の仮想化基盤とした。
このようにすることで、本発明によれば、高速なスケーリングが実現できる。
請求項に記載の発明では、前記スケーリング方法判定部は、何れかの実行環境が稼働しているコンピュートの空きリソースの総和が追加リソースよりも少ない場合、スケールアウトおよびスケールアップの併用によるスケーリング方法を選択する、ことを特徴とする請求項に記載の仮想化基盤とした。
このようにすることで、本発明によれば、粒度の細かいスケーリングが実現できる。
請求項7に記載の発明では、複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視するリソース監視部と、前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行うスケーリング実施判定部と、各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行うリソース払出制御部と、前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、何れかの実行環境が稼働しているコンピュートの空きリソースの総和が追加リソースより多い場合、スケールアップによるスケーリング方法を選択し、何れかの実行環境が稼働しているコンピュートのいずれにも空きリソースがない場合、スケールアウトによるスケーリング方法を選択し、何れかの実行環境が稼働しているコンピュートの空きリソースの総和が追加リソースよりも少ない場合、スケールアウトおよびスケールアップの併用によるスケーリング方法を選択する選択するスケーリング方法判定部と、前記スケーリング方法判定部が選択したスケーリング方法を前記リソース払出制御部に対して指示するスケーリング指示部と、を備え、前記リソース払出制御部は、スケールアップによるスケーリング方法で各前記コンピュートのリソース割当を変更する場合、リソース割当変更手段によってリソース割当量を変更し、スケールアウトまたは併用がスケーリング方法として指示されている場合、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との間に余剰があるならば、スケールアップによるリソース量から前記余剰を差し引くか、またはスケールダウンを併用する、ことを特徴とする仮想化基盤とした。
このようにすることで、高速であり、かつ粒度の細かいスケーリングを実現できる。
請求項8に記載の発明では、リソース監視部は、複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視し、スケーリング実施判定部は、前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行い、スケーリング方法判定部は、前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、スケールアウト、スケールアップ、スケールアウトおよびスケールアップの併用のうち何れかのスケーリング方法を選択し、スケーリング指示部は、前記スケーリング方法判定部が選択したスケーリング方法をリソース払出制御部に対して指示し、前記リソース払出制御部は、各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行い、スケールアウトまたは併用がスケーリング方法として指示されている場合、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との間に余剰があるならば、スケールアップによるリソース量から前記余剰を差し引くか、またはスケールダウンを併用する、ことを特徴とする仮想化基盤のスケーリング管理方法とした。
請求項9に記載の発明では、リソース監視部は、複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視し、スケーリング実施判定部は、前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行い、スケーリング方法判定部は、前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、スケールアウト、スケールアップ、スケールアウトおよびスケールアップの併用のうち何れかのスケーリング方法を選択し、スケーリング指示部は、前記スケーリング方法判定部が選択したスケーリング方法をリソース払出制御部に対して指示し、前記リソース払出制御部は、各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行い、スケールアウトまたは併用がスケーリング方法として指示されており、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との余剰がスケールアップによるリソース量よりも大きいならば、前記余剰からスケールアップによるリソース量を減じた量を稼働中の実行環境からリソース割当変更手段によって削除し、かつスケールアップを行わない、ことを特徴とする仮想化基盤のスケーリング管理方法とした。
請求項10に記載の発明では、リソース監視部は、複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視し、スケーリング実施判定部は、前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行い、スケーリング方法判定部は、前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、何れかの実行環境が稼働しているコンピュートの空きリソースの総和が追加リソースより多い場合、スケールアップによるスケーリング方法を選択し、何れかの実行環境が稼働しているコンピュートのいずれにも空きリソースがない場合、スケールアウトによるスケーリング方法を選択し、何れかの実行環境が稼働しているコンピュートの空きリソースの総和が追加リソースよりも少ない場合、スケールアウトおよびスケールアップの併用によるスケーリング方法を選択し、スケーリング指示部は、前記スケーリング方法判定部が選択したスケーリング方法をリソース払出制御部に対して指示し、前記リソース払出制御部は、各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行い、スケールアップによるスケーリング方法で各前記コンピュートのリソース割当を変更する場合、リソース割当変更手段によってリソース割当量を変更し、スケールアウトまたは併用がスケーリング方法として指示されている場合、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との間に余剰があるならば、スケールアップによるリソース量から前記余剰を差し引くか、またはスケールダウンを併用する、ことを特徴とする仮想化基盤のスケーリング管理方法とした。
このようにすることで、高速であり、かつ粒度の細かいスケーリングを実現できる。
本発明によれば、高速であり、かつ粒度の細かいスケーリングを実現することが可能となる。
本実施形態に係る仮想化基盤の構成図である。 本実施形態に係るコンピュートと仮想マシンを示すシステム図である。 仮想マシンの起動処理を示すフローチャートである。 クラスタを監視対象にした場合のスケーリング手法の選択処理を示すフローチャートである。 仮想マシンを監視対象にした場合のスケーリング手法の選択処理を示すフローチャートである。 リソース管理テーブルの一例を示す図である。 スケーリング方法とリソース量から、実際にスケールアップまたはスケールアウトするリソース量を算出するフローチャートある。 各コンピュート上で動作するリソースの選択を示すフローチャートである。 クラスタを監視対象にした場合の初期状態を示す図である。 クラスタを監視対象にした場合のスケールアップの例を示す図である。 クラスタを監視対象にした場合のスケールアップの例を示す図である。 クラスタを監視対象にした場合の併用パターンを示す図である。 クラスタを監視対象にした場合の初期状態を示す図である。 クラスタを監視対象にした場合のスケールアウトの例を示す図である。
以降、本発明を実施するための形態を、各図を参照して詳細に説明する。本実施形態は、仮想マシンについてのみ着目した実施形態である。
図1は、本実施形態に係る仮想化基盤の構成図である。図2は、本実施形態に係るコンピュートと仮想マシンを示すシステム図である。以下、図1と図2とを参照しつつ仮想化基盤の各部構成と概略動作について説明する。
仮想化基盤1は、スケーリング部11と、リソース払出制御部12と、監視部13と、記憶部14とを含んで構成される。
この仮想化基盤1は、図2に示すように、仮想化技術を用いてサーバやネットワークといったコンピュート3-1~3-4,…を抽象化・隠蔽し、このコンピュート3-1~3-4,…のうち何れかで動作する仮想マシン2a,2b,…を管理する。各仮想マシン2a,2b,…には、ロードバランサ4が接続され、ローカルネット5を介してインターネット6からトラヒックが振り分けられる。ロードバランサ4も仮想マシンとして構築してもよい。コンピュート3-1~3-4は、仮想マシンごとに、この仮想マシンに割り当てるリソース情報が定義されている仮想マシン設定ファイル31を保持する。この仮想マシン設定ファイル31は、例えばXML形式で記載されている。
以下、各コンピュート3-1~3-4を特に区別しないときには、単にコンピュート3と記載する。仮想マシン2a,2b,…を特に区別しないときには、単に仮想マシン2と記載する。仮想マシン2は、ユーザのアプリケーションを実行するための実行環境である。
コンピュート3は、それぞれ自身で動作する仮想マシン2の設定情報を格納する仮想マシン設定ファイル31と、仮想マシン2を制御するための制御プログラムを、不図示のCPUが実行することにより具現化される仮想化層32とを備えている。
図1に戻り説明を続ける。スケーリング部11は、スケーリング方法判定部111と、スケーリング指示部112と、スケーリング実施判定部113とを含んで構成される。このスケーリング部11は、スケーリング方法の判定とスケーリングの指示を行う。
スケーリング実施判定部113は、監視部13に含まれるリソース監視部131の監視情報に基づき、スケーリングを実施するか否かを判定し、スケーリングを実施する場合には必要なリソース量を算出する。
スケーリング方法判定部111は、リソース払出制御部12に払い出し可能なリソースを問い合わせることで、スケーリングの方法を決定する。スケーリング方法判定部111は、スケーリング実施判定部113によるスケーリングの実施判定の際、各コンピュート3のリソースの空きを確認し、スケーリング方法として、スケールアウト、スケールアップ、スケールアウトとスケールアップの併用のうちいずれかを選択する。
スケーリング指示部112は、スケーリング方法判定部111の選択したスケーリング方法を、リソース払出制御部12に対して指示する。
リソース払出制御部12は、リソース管理部121と、リソース抽出選定部122と、仮想マシン制御部123とを含んで構成される。リソース払出制御部12は、各コンピュート3のリソースの管理と各仮想マシン2へのリソースの割当を行う。
リソース管理部121は、記憶部14のリソース情報リポジトリ141に基づき、各コンピュート3や各仮想マシン2が使用しているリソース情報を管理する。
リソース抽出選定部122は、リソース管理部121にリソース情報を問い合わせて、割り当てるリソースを決定する。リソース管理部121は、新規に割り当てたリソースの情報を反映する。なおリソース情報は、リソース情報リポジトリ141で管理されている。
リソース抽出選定部122は、仮想マシン制御部123にスケーリングの指示を行う。スケーリングとは、仮想マシンの追加や削除、仮想マシンが使用するリソースの割当を変更することをいう。仮想マシン制御部123は、コンピュート3の仮想化層32に対して処理を行い、スケーリング処理を完了させる。
監視部13は、リソース監視部131を含んでいる。このリソース監視部131は、複数のコンピュートの負荷、およびこれらコンピュート上で稼働している仮想マシン2の負荷を監視する。
記憶部14は、リソース情報リポジトリ141と仮想マシンイメージリポジトリ142を含んでいる。記憶部14は、リソースの情報と仮想マシンイメージの管理を行う。
リソース情報リポジトリ141には、各仮想マシンが使用するリソース情報が記載されたリソース管理テーブル1411を含んでいる。仮想マシンイメージリポジトリ142は、各仮想マシンの起動時に用いる仮想ハードウェアのテンプレートや仮想マシンイメージが格納されている。
仮想マシン2の追加の場合、仮想化基盤1は、仮想マシンイメージリポジトリ142で管理されている仮想ハードウェアのテンプレートを指定し、仮想ハードウェアテンプレートで規定されたリソース容量で仮想マシンイメージから仮想マシンを起動する。その後、仮想化基盤1は、前段のロードバランサ4の振り分け設定を変更すると共に、リソース監視部131の監視対象も変更する。
仮想マシン2の削除の場合、仮想化基盤1は、前段のロードバランサ4の振り分け設定を変更した後仮想マシン2およびその仮想ハードウェアを削除する。また仮想化基盤1は、リソース監視部131の監視対象も変更する。リソース割当変更の場合、仮想化基盤1は、ホットプラグによりリソース割当量を変更する。なおリソース割当変更手段は、ホットプラグに限定されない。
図3は、仮想マシン2の起動処理を示すフローチャートである。
ここで仮想マシン2の起動については、市中の仮想化基盤と同様に行われていることを前提とする。
最初、リソース払出制御部12は、不図示の上位システムからリソース割当要求を受け付ける(S10)。このリソース割当要求とは、具体的にいうと仮想マシン2の起動要求である。リソース払出制御部12内のリソース抽出選定部122は、割当可能リソースを抽出して(S11)、割当リソースを選定する(S12)。ここでリソース抽出選定部122は、割当ポリシや、既に割当てられている仮想マシン2の使用リソース量等を考慮して選定する。ここで割当ポリシとは、例えば非特許文献3に記載のAffinityルールやAnti-Affinityルール、CPU Pinning適用によるCPUの固定割当を行うか否かなどをいう。
非特許文献3:インターネット<URL:https://docs.openstack.org/ocata/config-reference/compute/schedulers.html>
リソース管理部121は、リソース情報リポジトリ141のリソース管理テーブル1411(図6参照)を書き換える(S13)。リソース払出制御部12の仮想マシン制御部123は、仮想マシン2を起動する(S14)。
ステップS14の仮想マシン2の起動時に、コンピュート3内に仮想マシン設定ファイル31が作成される。この仮想マシン設定ファイル31には、リソースの割当情報等が記載されている。以下の非特許文献4には、仮想マシン設定ファイル31の要素と属性の概要が記載されている。
非特許文献4:インターネット<URL:https://libvirt.org/formatdomain.html>
リソース監視部131は、起動した仮想マシン2の情報を監視対象情報に追加して更新する(S15)。最後にリソース払出制御部12は、不図示の上位システムに対してリソース(仮想マシン2)の払い出しを応答し(S16)、図3の処理を終了する。
図4は、クラスタを監視対象にした場合のスケーリング手法の選択処理を示すフローチャートである。
最初、リソース監視部131は、例えばCPU使用率、メモリ使用量など負荷状態を示す指標であるメトリック情報を収集する(S20)。
スケーリング実施判定部113は、リソース監視部131が収集したメトリック情報に従い、監視対象の負荷が閾値を超えたか否かを判定し(S21)、よってスケーリングを実施するか否かを判定する。この判定に用いるメトリック情報の種類やその閾値などの判定ルールは、事前に設定されている。
スケーリング実施判定部113は、監視対象が閾値を超えたならば(Yes)、ステップS23の処理に進み、監視対象が閾値以下ならば(No)、所定時間αの待ち時間(S22)の後、ステップS20の処理に戻る。ここで所定時間αは、監視対象の各コンピュート3の変化速度に応じて設定すればよく、限定されない。
スケーリング実施判定部113は、追加が必要なリソース量を算出する(S23)。ここで追加される固定のリソース量や割合の単位は、予め決められている。
具体例としてCPU使用率を監視している場合、CPU使用率が70%を超えたら、2コアを追加するというルールや、20%のリソースを追加するルールが考えられる。20%のリソース追加とは、複数の仮想マシン2でクラスタを組んでいる場合において、このクラスタを組む仮想マシン2の合計コア数に20%を乗算して得られるコア数となる。この例以外にも、時系列データの推定モデルを用いてリソース変化を予測してスケーリング量やスケーリングの実施を決定するといったより高度な手法を用いてもよい。監視対象は仮想マシン単位とすることもでき、クラスタ単位とすることも可能であるが、ここではクラスタ単位の負荷を監視対象とする場合の処理を説明する。
スケーリング実施判定部113から追加するリソース量を通知されると、スケーリング方法判定部111は、一連の処理を開始する。
最初、スケーリング方法判定部111は、クラスタを構成する仮想マシンのインデックス変数Xを1で初期化し(S24)、空きリソース量Yを0で初期化する(S25)。これらXとYとは、プログラムの内部変数である。
次にスケーリング方法判定部111は、リソース管理部121に問い合わせて、クラスタを構成するX個目の仮想マシン2を搭載するコンピュート3内にリソースの空きがあるかを確認する(S26)。更にスケーリング方法判定部111は、当該コンピュート3のリソースの空きが確認済みか否かを判定する(S27)。スケーリング方法判定部111は、リソースの空きを確認済みならば(Yes)、ステップS30に進み、リソースの空きを確認していなかったならば(No)、空きリソース量Yに当該コンピュート3の空きリソースを加えて(S28)、ステップS29に進む。
ステップS29において、スケーリング方法判定部111は、空きリソース量Yが追加リソース量よりも大きいか否かを判定する。スケーリング方法判定部111は、空きリソース量Yが追加リソース量以上ならば(Yes)、スケールアップを選択して、図4の処理を終了する。スケーリング方法判定部111は、空きリソース量Yが追加リソース量よりも小さいならば(No)、ステップS30の処理に進む。
ステップS30において、スケーリング方法判定部111は、変数Xがクラスタを構成する仮想マシン数と等しいか否かを判定する。スケーリング方法判定部111は、変数Xがクラスタを構成する仮想マシン数と等しいならば(Yes)、ステップS32の処理に進み、変数Xがクラスタを構成する仮想マシン数とは異なるならば(No)、変数Xに1を加算して(S31)、ステップS26の処理に戻る。
ステップS32において、スケーリング方法判定部111は、空きリソース量Yが0であるか否かを判定する。スケーリング方法判定部111は、空きリソース量Yが0ならば(Yes)、スケールアウトを選択し、空きリソース量Yが0でないならば(No)、スケールアップとスケールアウトの併用を選択して、図4の処理を終了する。
つまり、クラスタを構成する仮想マシンを搭載する各コンピュート内の空きリソースの総和が追加リソースより多い場合はスケールアップが選択される。クラスタを構成する仮想マシンを搭載する各コンピュート内にリソースの空きはあるが追加リソースよりは少ない場合は併用が選択される。クラスタを構成する仮想マシンを搭載する各コンピュート3内にリソースの空きがない場合はスケールアウトが選択される。
図5は、仮想マシン2を監視対象にした場合のスケーリング手法の選択処理を示すフローチャートである。
最初、リソース監視部131は、例えばCPU使用率、メモリ使用量など負荷状態を示す指標であるメトリック情報を収集する(S40)。
スケーリング実施判定部113は、リソース監視部131が収集したメトリック情報に従い、監視対象の負荷が閾値を超えたか否かを判定し(S41)、よってスケーリングを実施するか否かを判定する。
スケーリング実施判定部113は、監視対象が閾値を超えたならば(Yes)、ステップS43の処理に進み、監視対象が閾値以下ならば(No)、所定時間αの待ち時間(S42)の後、ステップS40の処理に戻る。
スケーリング実施判定部113は、追加が必要なリソース量を算出する(S43)。ここで追加される固定のリソース量や割合の単位は、予め決められている。スケーリング実施判定部113から追加するリソース量を通知されると、スケーリング方法判定部111は、一連の処理を開始する。
最初、スケーリング方法判定部111は、リソース管理部121に問い合わせて、この仮想マシンを搭載する同一コンピュート3内にリソースの空きがあるか否かを確認する(S44)。
次にスケーリング方法判定部111は、同一コンピュート3内の空きリソースが追加リソース量よりも多いか否かを判定する(S45)。スケーリング方法判定部111は、同一コンピュート3内の空きリソースが追加リソース量以上ならば(Yes)、スケールアップを選択して、図5の処理を終了する。
スケーリング方法判定部111は、同一コンピュート3内の空きリソースが追加リソース量未満ならば(No)、同一コンピュートの空きリソースが0であるか否かを判定する(S46)。スケーリング方法判定部111は、空きリソースが0ならば(Yes)、スケールアウトを選択して図5の処理を終了し、空きリソースが0でないならば(No)、スケールアップとスケールアウトの併用を選択して、図5の処理を終了する。
図6は、リソース管理テーブル1411の一例を示す図である。
リソース管理テーブル1411は、リソースの割当状況を管理するために利用され、Compute ID欄と多重率欄と、使用率欄と、割当先欄とを含む各レコードによって構成される。なお、リソース管理テーブル1411の各レコードは、図6の各行に対応する。
Compute ID欄には、当該レコードに係るコンピュート3の識別情報が格納される。
多重率欄には、コンピュート3間の性能比率が格納される。図6では、Compute ID#0,#1の多重率欄には100%が格納されており、Compute ID#0のコンピュート3とCompute ID#1のコンピュート3とが性能の基準であることを示している。更にCompute ID#2,#3の多重率欄には、150%が格納されており、Compute ID#2,#3のコンピュート3は、Compute ID#0,#1のコンピュート3に対して、それぞれ1.5倍の性能を有していることを示している。この多重率欄の情報により、コンピュート3間の性能差分を吸収することが可能である。
使用率欄には、各コンピュート3における使用リソースの数値が格納される。なお、この使用率欄の値は、性能基準のコンピュート3に対する当該コンピュートにおける使用リソースの割合である。多重率欄の値から使用率欄の値を減算することで、当該コンピュート3における空きリソース量を算出することができる。図6では、Compute ID#0の使用率欄には50%が格納され、Compute ID#1の使用率欄には70%が格納され、Compute ID#2の使用率欄には20%が格納され、Compute ID#3の使用率欄には50%が格納されている。なお図6において使用率欄は1次元であるが、CPUやメモリやディスク使用量など多次元に拡張してもよい。
割当先欄には、各コンピュートに割り当てられた仮想マシンの識別情報が格納される。図6では、Compute ID#0の割当先欄にVM#01,VM#05が格納され、Compute ID#1の割当先欄にVM#02,VM#10,VM#13が格納され、Compute ID#2の割当先欄にVM#08が格納され、Compute ID#3の割当先欄にVM#20,VM#04が格納されている。
リソース管理テーブル1411を用いる際、スケーリング実施判定部113が算出した追加リソース量と使用率の変換は事前に決められているものとする。例えば、使用率25%が2コアに該当するなどである。またスケーリング実施判定部113は、多重率が使用率よりも大きい場合、リソースの空きがあると判定する。例えば、多重率100%のコンピュートで使用率が50%の場合、50%のリソースの空きがある。この50%のリソースの空きは、例えば4コア分の空きに相当する。
図7は、スケーリング方法とリソース量から、実際にスケールアップまたはスケールアウトするリソース量を算出するフローチャートある。
最初、スケーリング指示部112は、スケーリング方法を判定して分岐する(S50)。スケーリング指示部112は、スケーリング方法がスケールアップならば、ステップS51の処理に進み、スケールアウトならばステップS58の処理に進み、これらの併用ならばステップS52の処理に進む。
《スケールアップの場合》
ステップS51において、スケーリング指示部112は、リソース抽出選定部122によってスケールアップを指示されたリソース量(例えば2コア)を、実際にスケールアウトするリソース量として通知し、図7の処理を終了する。
《スケールアウトの場合》
ステップS58において、スケーリング指示部112は、スケーリング実施判定部113から指示されたリソース量とVMの起動時に用いる仮想ハードウェアのテンプレートにより、実際にスケールアウトするリソース量を決定する。なお、このテンプレートのことを略して「VMテンプレート」と記載する。本実施形態のテンプレートには、4コア分のCPUを使用することが記載されているので、スケールアウトする単位は4の倍数となる。
スケーリング指示部112は、決定したスケールアウトのリソース量がスケーリング実施判定部113から指示されたスケールアウトのリソース量と等しいか否かを判定する(S59)。スケーリング指示部112は、決定したスケールアウトのリソース量が指示されたスケールアウトのリソース量と等しくないならば(No)、リソース抽出選定部122に、差分のリソース量と実際にスケールアウトするリソース量を通知し(S60)、図7の処理を終了する。
具体的にいうと、スケールアウト6コアが指示され、VMのテンプレートが4コアならは、2つのVMの追加となる。このときスケーリング指示部112が決定したスケールアウトのリソース量は8コアとなり、2個のコアが差分のリソース量となる。この差分の2コアは、図8のステップS80の処理で削除(スケールダウン)される。
スケーリング指示部112は、決定したリソース量が指定されたリソース量と等しいならば(Yes)、リソース抽出選定部122に、スケールアウトするリソース量(例えば4コア)を通知し(S61)、図7の処理を終了する。
《併用の場合》
ステップS52において、スケーリング指示部112は、スケーリング実施判定部113から指示されたスケールアウトのリソース量とVMテンプレートにより、実際にスケールアウトするリソース量を決定する。スケーリング指示部112は、決定したスケールアウトするリソース量がスケーリング実施判定部113から指定されたスケールアウトのリソース量よりも大きいか否かを判定する(S53)。スケーリング指示部112は、決定したスケールアウトするリソース量が指示されたスケールアウトのリソース量と等しいならば(Yes)、リソース抽出選定部122に、実際にスケールアップするリソース量とスケールアウトするリソース量を通知し(S57)、図7の処理を終了する。
具体的にいうと、スケーリング実施判定部113から指定されたスケールアウトのリソース量がVMテンプレートのリソース量の倍数ならば、スケーリング指示部112が決定したスケールアウトするリソース量は、実際にスケールアウトするリソース量と等しくなる。また、スケーリング指示部112は、スケーリング実施判定部113から指示されたスケールアップするリソース量を、実際にスケールアップするリソース量としてリソース抽出選定部122に通知する。
スケーリング指示部112は、決定したリソース量が指定されたリソース量と等しくないならば(No)、スケールアップを指示されたリソース量から余剰のコア数を引いて実際にスケールアップ量を決定する。(S54)。具体的にいうと、スケールアウト7コアが指示され、VMのテンプレートが4コアならは、2つのVMの追加となる。このときスケーリング指示部112が決定したスケールアウトのリソース量は8コアとなり、1個のコアが余剰となる。
更にスケーリング指示部112は、余剰のコア数よりもスケールアップを指示されたリソース量が多いか否かを判定する(S55)。スケーリング指示部112は、余剰のコア数がスケールアップを指示されたリソース量よりも多くなかったならば(No)、リソース抽出選定部122に、ステップS54で決定したスケールアップするリソース量とステップS52で決定したスケールアウトするリソース量を通知し(S57)、図7の処理を終了する。
具体的にいうと、スケールアウト7コアとスケールアップ2コアが指示され、VMのテンプレートが4コアならは、2つのVMの追加となる。このときスケーリング指示部112が決定したスケールアウトのリソース量は8コアとなり、1個のコアが余剰となる。スケーリング指示部112は、スケールアップを指示されたリソース量の2コアから、余剰の1コアを差し引くことで、実際にスケールアップされるリソース量の1コアを算出する。
ステップS55において、スケーリング指示部112は、余剰のコア数がスケールアップを指示されたリソース量よりも多かったならば(Yes)、余剰のコア数からスケールアップを指示されたリソース量を引いて差分リソース量を決定し(S56)、リソース抽出選定部122に、差分のリソース量とステップS52で決定したスケールアウトするリソース量を通知し(S60)、図7の処理を終了する。
具体的にいうと、スケールアウト6コアとスケールアップ1コアが指示され、VMのテンプレートが4コアならは、2つのVMの追加となる。このときスケーリング指示部112が決定したスケールアウトのリソース量は8コアとなり、2個のコアが余剰となる。この余剰のコア数はスケールアップの1コアよりも多いので、余剰のコア数からスケールアップを指示されたリソース量を引いた差分のリソース量は1コアとなる。この差分の1コアは、図8のステップS80の処理で削除(スケールダウン)される。
図8は、各コンピュート上で動作するリソースの選択を示すフローチャートである。
リソース抽出選定部122は、再びリソース管理部121に空きリソースを問い合せ、スケールアップ/スケールアウト/差分のリソース量の指示を受信する(S70)。
リソース抽出選定部122は、スケールアップのリソース量の指示が有るか否かを判定する(S71)。リソース抽出選定部122は、スケールアップ指示が有るならば(Yes)、同一コンピュートの空きリソースとスケールアップのリソース量を比較し(S72)、リソースが確保可能であるか否かを判定する(S73)。リソース抽出選定部122は、スケールアップ指示が無いならば(No)、ステップS76の処理に進む。
ステップS73において、リソース抽出選定部122は、リソースが確保可能ならば(Yes)、仮想マシン制御部123に同一コンピュートへのリソースの追加を指示し(S74)、ステップS76の処理に進む。仮想マシン制御部123は、スケールアップの際、ホットプラグを用いて指定されたリソース量を追加する。
ステップS73において、リソース抽出選定部122は、リソースが確保できないならば(No)、NG応答をスケーリング指示部112に返して(S75)、いったん終了する。これにより、スケーリング部11は、再びスケーリング方法の判定から繰り返す。
ステップS76において、リソース抽出選定部122は、スケールアウトのリソース量の指示が有るか否かを判定する。リソース抽出選定部122は、スケールアウト指示が有るならば(Yes)、仮想マシン制御部123に仮想マシンを起動可能な各コンピュートにおける仮想マシンの起動を指示し(S77)、ステップS78の処理に進む。リソース抽出選定部122は、スケールアウト指示が無いならば(No)、ステップS78の処理に進む。
ステップS78において、リソース抽出選定部122は、差分のリソース量の指示が有るか否かを判定する。リソース抽出選定部122は、差分指示が有るならば(Yes)、CPUコア数が最小の仮想マシンを選択し(S79)、差分をホットプラグ機能で削除すると(S80)、図8の処理を終了する。リソース抽出選定部122は、差分指示が無いならば(No)、図8の処理を終了する。
併用およびスケールアウトの際には、事前に準備されたVMのテンプレートを使用してVMを追加する。このVMのテンプレートは、VM起動時に使用するものと同様である。
併用の際、VMのテンプレートのCPUリソースがスケールアウト指定されたCPUリソースより大きいならば、差分のCPUリソースについてはスケールアップリソース量から差し引く。その上でさらに差分が生じる場合、仮想化基盤1は、ホットプラグ機能を使って既存のCPUリソースを削除する。CPUリソースを削除する対象となる仮想マシンは、クラスタ群の中で最もCPUコア数の小さい仮想マシンを選ぶとよい。
他にもCPUコア数の平均値から最も離れているコア数の仮想マシンを選ぶ、ランダムに仮想マシンを選ぶ、などの選択肢も取り得る。
図9Aは、クラスタを監視対象にした場合の初期状態を示す図である。
監視対象は、コンピュート#1~#3からなるクラスタである。各コンピュート#1~3は、それぞれ8コアのCPUを備えている。
初期状態において、コンピュート#1には、VM#1-1とVM#2-1とが稼働している。コンピュート#1は、VM#1-1が4コアを占有し、VM#2-1が2コアを占有している。コンピュート#1の使用率は、75%である。
コンピュート#2には、VM#1-2が稼働している。コンピュート#2は、VM#1-2が6コアを占有している。コンピュート#2の使用率は、75%である。
コンピュート#3には、どのVMも稼働しておらず、その使用率は0%である。
図9Bは、クラスタを監視対象にした場合のスケールアップの一例を示す図である。
図9Bに示すクラスタでは、初期状態に対してVM#1に2コア分のCPUがスケールアップされている。VM#1-1は、2コア分だけスケールアップしている。仮想化基盤1は、ホットプラグ機能を用いてVM#1-1をスケールアップしているため、短時間で処理を完了できる。
図9Cは、クラスタを監視対象にした場合のスケールアップの他の例を示す図である。
図9Cに示すクラスタでは、初期状態に対してVM#1に4コア分のCPUがスケールアップされている。VM#1-2は、2コア分だけスケールアップしている。仮想化基盤1は、ホットプラグ機能を用いてVM#1-2をスケールアップしているため、短時間で処理を完了できる。
図9Dは、クラスタを監視対象にした場合の併用パターンを示す図である。
図9Dに示すクラスタでは、初期状態に対して、VM#1に6コア分のCPUがスケールアップされている。ここではコンピュート#3上に新たにVM#1-3が稼働している。VM#1-3は、4コアを占有している。仮想化基盤1は、ホットプラグ機能を用いてVM#1-3をスケールアウトし、かつ、差分のリソース量だけVM#1-1からスケールダウンしているため、細かな粒度でスケーリングを制御できる。
図10Aは、クラスタを監視対象にした場合の初期状態を示す図である。
初期状態において、コンピュート#1には、VM#1-1が稼働している。このVM#1-1は、コンピュート#1の8コアを全て占有している。コンピュート#1の使用率は、100%である。
コンピュート#2には、VM#1-2が稼働している。このVM#1-2は、コンピュート#1の8コアを全て占有している。コンピュート#2の使用率は、100%である。
コンピュート#3には、どのVMも稼働しておらず、その使用率は0%である。
図10Bは、クラスタを監視対象にした場合のスケールアウトの例を示す図である。
図10Bに示すクラスタでは、初期状態に対して2コア分のCPUがスケールアップされている。ここではVM#1-3が4コア分だけスケールアップしており、差分のリソース量である2コア分は、ホットプラグ機能を用いてVM#1-1をスケールダウンしている。これによりCPUコアを過剰に占有することがなくなる。
(変形例)
本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲で、変更実施が可能であり、例えば、次の(a),(b)のようなものがある。
(a) スケールアウトやスケールアップの対象は、CPUリソースに限定されず、メモリリソースやディスクリソースなどであってもよい。
(b) 上記実施形態では、実行環境として仮想マシンが用いられた例を記載したが、実行環境としてコンテナを用いて、このコンテナに対するリソースの割り当てに適用してもよく、限定されない。
1 仮想化基盤
11 スケーリング部
111 スケーリング方法判定部
112 スケーリング指示部
113 スケーリング実施判定部
12 リソース払出制御部
121 リソース管理部
122 リソース抽出選定部
123 仮想マシン制御部
13 監視部
131 リソース監視部
14 記憶部
141 リソース情報リポジトリ
1411 リソース管理テーブル
142 仮想マシンイメージリポジトリ
2 仮想マシン (実行環境)
3,3-1~3-4 コンピュート
31 仮想マシン設定ファイル
32 仮想化層
4 ロードバランサ
5 ローカルネット
6 インターネット

Claims (10)

  1. 複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視するリソース監視部と、
    前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行うスケーリング実施判定部と、
    各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行うリソース払出制御部と、
    前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、スケールアウト、スケールアップ、スケールアウトおよびスケールアップの併用のうち何れかのスケーリング方法を選択するスケーリング方法判定部と、
    前記スケーリング方法判定部が選択したスケーリング方法を前記リソース払出制御部に対して指示するスケーリング指示部と、
    を備え
    前記リソース払出制御部は、スケールアウトまたは併用がスケーリング方法として指示されている場合、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との間に余剰があるならば、スケールアップによるリソース量から前記余剰を差し引くか、またはスケールダウンを併用する、
    ことを特徴とする仮想化基盤。
  2. 複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視するリソース監視部と、
    前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行うスケーリング実施判定部と、
    各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行うリソース払出制御部と、
    前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、スケールアウト、スケールアップ、スケールアウトおよびスケールアップの併用のうち何れかのスケーリング方法を選択するスケーリング方法判定部と、
    前記スケーリング方法判定部が選択したスケーリング方法を前記リソース払出制御部に対して指示するスケーリング指示部と、
    を備え
    前記リソース払出制御部は、スケールアウトまたは併用がスケーリング方法として指示されており、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との余剰がスケールアップによるリソース量よりも大きいならば、前記余剰からスケールアップによるリソース量を減じた量を稼働中の実行環境からリソース割当変更手段によって削除し、かつスケールアップを行わない、
    ことを特徴とする仮想化基盤。
  3. 前記スケーリング方法判定部は、何れかの実行環境が稼働しているコンピュートの空きリソースの総和が追加リソースより多い場合、スケールアップによるスケーリング方法を選択する、
    ことを特徴とする請求項1または2に記載の仮想化基盤。
  4. 前記リソース払出制御部は、スケールアップによるスケーリング方法で各前記コンピュートのリソース割当を変更する場合、リソース割当変更手段によってリソース割当量を変更する、
    ことを特徴とする請求項に記載の仮想化基盤。
  5. 前記スケーリング方法判定部は、何れかの実行環境が稼働しているコンピュートのいずれにも空きリソースがない場合、スケールアウトによるスケーリング方法を選択する、
    ことを特徴とする請求項に記載の仮想化基盤。
  6. 前記スケーリング方法判定部は、何れかの実行環境が稼働しているコンピュートの空きリソースの総和が追加リソースよりも少ない場合、スケールアウトおよびスケールアップの併用によるスケーリング方法を選択する、
    ことを特徴とする請求項に記載の仮想化基盤。
  7. 複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視するリソース監視部と、
    前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行うスケーリング実施判定部と、
    各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行うリソース払出制御部と、
    前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、何れかの実行環境が稼働しているコンピュートの空きリソースの総和が追加リソースより多い場合、スケールアップによるスケーリング方法を選択し、何れかの実行環境が稼働しているコンピュートのいずれにも空きリソースがない場合、スケールアウトによるスケーリング方法を選択し、何れかの実行環境が稼働しているコンピュートの空きリソースの総和が追加リソースよりも少ない場合、スケールアウトおよびスケールアップの併用によるスケーリング方法を選択する選択するスケーリング方法判定部と、
    前記スケーリング方法判定部が選択したスケーリング方法を前記リソース払出制御部に対して指示するスケーリング指示部と、
    を備え
    前記リソース払出制御部は、スケールアップによるスケーリング方法で各前記コンピュートのリソース割当を変更する場合、リソース割当変更手段によってリソース割当量を変更し、スケールアウトまたは併用がスケーリング方法として指示されている場合、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との間に余剰があるならば、スケールアップによるリソース量から前記余剰を差し引くか、またはスケールダウンを併用する、
    ことを特徴とする仮想化基盤。
  8. リソース監視部は、複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視し、
    スケーリング実施判定部は、前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行い、
    スケーリング方法判定部は、前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、スケールアウト、スケールアップ、スケールアウトおよびスケールアップの併用のうち何れかのスケーリング方法を選択し、
    スケーリング指示部は、前記スケーリング方法判定部が選択したスケーリング方法をリソース払出制御部に対して指示し、
    前記リソース払出制御部は、各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行い、
    スケールアウトまたは併用がスケーリング方法として指示されている場合、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との間に余剰があるならば、スケールアップによるリソース量から前記余剰を差し引くか、またはスケールダウンを併用する、
    ことを特徴とする仮想化基盤のスケーリング管理方法。
  9. リソース監視部は、複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視し、
    スケーリング実施判定部は、前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行い、
    スケーリング方法判定部は、前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、スケールアウト、スケールアップ、スケールアウトおよびスケールアップの併用のうち何れかのスケーリング方法を選択し、
    スケーリング指示部は、前記スケーリング方法判定部が選択したスケーリング方法をリソース払出制御部に対して指示し、
    前記リソース払出制御部は、各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行い、
    スケールアウトまたは併用がスケーリング方法として指示されており、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との余剰がスケールアップによるリソース量よりも大きいならば、前記余剰からスケールアップによるリソース量を減じた量を稼働中の実行環境からリソース割当変更手段によって削除し、かつスケールアップを行わない、
    ことを特徴とする仮想化基盤のスケーリング管理方法。
  10. リソース監視部は、複数のコンピュートの負荷、および前記コンピュート上で稼働している実行環境の負荷を監視し、
    スケーリング実施判定部は、前記リソース監視部の監視情報に基づき、スケーリングの実施判定と必要なリソース量算出を行い、
    スケーリング方法判定部は、前記スケーリング実施判定部によるスケーリングの実施判定の際、各前記コンピュートのリソースの空きを確認し、何れかの実行環境が稼働しているコンピュートの空きリソースの総和が追加リソースより多い場合、スケールアップによるスケーリング方法を選択し、
    何れかの実行環境が稼働しているコンピュートのいずれにも空きリソースがない場合、スケールアウトによるスケーリング方法を選択し、何れかの実行環境が稼働しているコンピュートの空きリソースの総和が追加リソースよりも少ない場合、スケールアウトおよびスケールアップの併用によるスケーリング方法を選択し、
    スケーリング指示部は、前記スケーリング方法判定部が選択したスケーリング方法をリソース払出制御部に対して指示し、
    前記リソース払出制御部は、各前記コンピュートのリソースの管理と各前記実行環境へのリソースの割当を行い、
    スケールアップによるスケーリング方法で各前記コンピュートのリソース割当を変更する場合、リソース割当変更手段によってリソース割当量を変更し、
    スケールアウトまたは併用がスケーリング方法として指示されている場合、スケールアウトのリソース量と実行環境の起動時に用いる仮想ハードウェアのテンプレートに基づくスケールアウトのリソース量との間に余剰があるならば、スケールアップによるリソース量から前記余剰を差し引くか、またはスケールダウンを併用する、
    ことを特徴とする仮想化基盤のスケーリング管理方法。
JP2019012719A 2019-01-29 2019-01-29 仮想化基盤および仮想化基盤のスケーリング管理方法 Active JP7159887B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019012719A JP7159887B2 (ja) 2019-01-29 2019-01-29 仮想化基盤および仮想化基盤のスケーリング管理方法
PCT/JP2020/001481 WO2020158452A1 (ja) 2019-01-29 2020-01-17 仮想化基盤および仮想化基盤のスケーリング管理方法
US17/423,054 US20220129294A1 (en) 2019-01-29 2020-01-17 Virtualization platform and virtualization platform scaling management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019012719A JP7159887B2 (ja) 2019-01-29 2019-01-29 仮想化基盤および仮想化基盤のスケーリング管理方法

Publications (2)

Publication Number Publication Date
JP2020123003A JP2020123003A (ja) 2020-08-13
JP7159887B2 true JP7159887B2 (ja) 2022-10-25

Family

ID=71840326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019012719A Active JP7159887B2 (ja) 2019-01-29 2019-01-29 仮想化基盤および仮想化基盤のスケーリング管理方法

Country Status (3)

Country Link
US (1) US20220129294A1 (ja)
JP (1) JP7159887B2 (ja)
WO (1) WO2020158452A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11726758B2 (en) * 2019-02-07 2023-08-15 Microsoft Technology Licensing, Llc Efficient scaling of a container-based application in a distributed computing system
WO2023162000A1 (ja) * 2022-02-22 2023-08-31 日本電信電話株式会社 リソース決定装置、方法およびプログラム
CN114265671B (zh) * 2022-03-03 2022-06-07 浙江省邮电工程建设有限公司 虚拟机房的混合式扩展方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011090594A (ja) 2009-10-26 2011-05-06 Hitachi Ltd サーバ管理装置およびサーバ管理方法
JP2015115059A (ja) 2013-12-13 2015-06-22 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation クラウド・コンピューティング環境を動的に変更する方法、情報処理システム、およびコンピュータ・プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5731907B2 (ja) * 2011-06-02 2015-06-10 株式会社東芝 負荷分散装置、負荷分散方法及び負荷分散プログラム
CA3057032C (en) * 2018-09-28 2023-03-21 Element Ai Inc. System and method for managing network resources

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011090594A (ja) 2009-10-26 2011-05-06 Hitachi Ltd サーバ管理装置およびサーバ管理方法
JP2015115059A (ja) 2013-12-13 2015-06-22 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation クラウド・コンピューティング環境を動的に変更する方法、情報処理システム、およびコンピュータ・プログラム

Also Published As

Publication number Publication date
WO2020158452A1 (ja) 2020-08-06
JP2020123003A (ja) 2020-08-13
US20220129294A1 (en) 2022-04-28

Similar Documents

Publication Publication Date Title
JP7138126B2 (ja) リソース配置を最適化するための適時性リソース移行
EP3761170B1 (en) Virtual machine creation method and apparatus
US10873623B2 (en) Dynamically modifying a cluster of computing nodes used for distributed execution of a program
Mansouri Adaptive data replication strategy in cloud computing for performance improvement
JP7159887B2 (ja) 仮想化基盤および仮想化基盤のスケーリング管理方法
US20130339956A1 (en) Computer system and optimal arrangement method of virtual machine in computer system
JP2010282420A (ja) 管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム
JP2012094030A (ja) 計算機システム及び処理制御方法
US11966768B2 (en) Apparatus and method for multi-cloud service platform
JP2017219972A (ja) コンピュータプログラム、情報処理方法、管理ノードおよび情報処理システム
JP7035858B2 (ja) マイグレーション管理プログラム、マイグレーション方法およびマイグレーションシステム
CN113608834A (zh) 一种基于超融合的资源调度方法、装置、设备及可读介质
JP5515889B2 (ja) 仮想マシンシステム、自動マイグレーション方法および自動マイグレーションプログラム
JP2019079334A (ja) 情報処理装置、情報処理システムおよび情報処理方法
Lin et al. Capacity optimization for resource pooling in virtualized data centers with composable systems
JP6620609B2 (ja) 分散処理実行管理プログラム、分散処理実行管理方法および分散処理実行管理装置
JP5471292B2 (ja) 仮想マシン移動制御プログラム,仮想マシン移動制御装置および仮想マシン移動制御方法
JP6511025B2 (ja) リソース割当装置、リソース割当方法およびリソース割当プログラム
JP7176633B2 (ja) 仮想化基盤制御装置、仮想化基盤制御方法および仮想化基盤制御プログラム
Wang et al. Provision of storage QoS in distributed file systems for clouds
JP2014206805A (ja) 制御装置
JP7037059B2 (ja) リソース管理システム、および、リソース割当プログラム
JP2011215812A (ja) 仮想計算機管理方法、計算機システム及びリソース管理プログラム
JP7367758B2 (ja) 仮想化基盤制御装置、仮想化基盤制御方法および仮想化基盤制御プログラム
JP6365027B2 (ja) 割り当てプログラム、割り当て装置、割り当てシステム、及び割り当て方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220926

R150 Certificate of patent or registration of utility model

Ref document number: 7159887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150