JP6190969B2 - マルチテナントリソース調停方法 - Google Patents

マルチテナントリソース調停方法 Download PDF

Info

Publication number
JP6190969B2
JP6190969B2 JP2016545128A JP2016545128A JP6190969B2 JP 6190969 B2 JP6190969 B2 JP 6190969B2 JP 2016545128 A JP2016545128 A JP 2016545128A JP 2016545128 A JP2016545128 A JP 2016545128A JP 6190969 B2 JP6190969 B2 JP 6190969B2
Authority
JP
Japan
Prior art keywords
resource
tenant
arbitration
information
virtual machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016545128A
Other languages
English (en)
Other versions
JPWO2016030973A1 (ja
Inventor
謙太 山崎
謙太 山崎
知弘 森村
知弘 森村
裕 工藤
裕 工藤
正明 岩嵜
正明 岩嵜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2016030973A1 publication Critical patent/JPWO2016030973A1/ja
Application granted granted Critical
Publication of JP6190969B2 publication Critical patent/JP6190969B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/34Network arrangements or protocols for supporting network services or applications involving the movement of software or configuration parameters 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/51Discovery or management thereof, e.g. service location protocol [SLP] or web services

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Debugging And Monitoring (AREA)
  • Stored Programmes (AREA)

Description

本発明は、マルチテナント間のリソースを調停する技術に関する。
近年,利用者の要求に応じてオンデマンドに計算機リソース(以降,リソースと呼称する)を提供するクラウドコンピューティングと呼ばれる計算機環境が広く普及している。クラウドコンピューティング環境では,様々な要件を持った異なる種別の業務システム(以降,テナントと呼称する)が計算機環境のリソースを共有しながら複数稼働する構成が一般的であり,そのような構成をマルチテナント環境と呼称する。マルチテナント環境では、新規のテナントを投入する場合や稼働中のテナントにリソースを追加する場合に,マルチテナント環境に要求されるリソース確保要求に対して十分な空きが存在しない状況が生じ得る。特許文献1には,計算機環境のリソース量または使用量を参照して,要求されるリソース確保要求に対して割り当てリソース量を調節する機能を備えたリソース割当方法が開示されている。
特許第5256744号
テナントがリソース確保を要求する際,例えば夜間バッチジョブなど、処理の種類によってはリソースを利用する期間が限定されている場合があるため、リソース確保期間に応じて他テナントがリソース提供可能か否かを考慮することが必要である。テナントで稼動する業務システムの繁忙期以外の期間であれば中長期にリソース提供可能と判断することができる。特許文献1では,計算機環境のリソース量または使用量のみ考慮したリソース調停であるため,テナントのリソース確保要求の期間を考慮した調停は考えられていない。
またテナント間のリソースのやりとりを円滑に行うためには,リソースを貸す側のリソース提供方法を適切に選択する必要がある。例えば,テナントが短期にリソース追加を要求する場合には,リソース利用終了後にそのリソースを元のテナントへ返却することが容易であることが望ましい。特許文献1では,リソースのやりとりを考慮したリソース確保手段の決定は考えられていない。
さらに,テナントのリソース確保要求を満足するためにリソースの機能形態を考慮する必要が生じ得る。例えば,テナントが仮想マシン2台分のリソース追加を要求し,なおかつ高可用性を考慮して仮想マシンを別々の物理マシン上で稼働させるHA(High Availability)構成を要求する,といった場合への対応が求められ得る。特許文献1では,リソースの機能形態を考慮したリソース調停方法は考えられていない。
本発明では、上記の事情を鑑みて、リソースの割り当てを要求するテナントのリソース確保要求の要求期間や利用している機能など、テナントのリソース利用形態を考慮して、提供可能なリソースを算出してリソースの調停を行う方法を提供する。
複数のテナントが存在する環境下でのリソース調停の効率の向上を図ることができる。
本発明の実施例1の概要を示した図である。 本発明の実施例1の調停サーバのモジュール構成を示した図である。 本発明の実施例1のテナント構成情報を示した図である。 本発明の実施例1のテナントポリシー情報を示した図である。 本発明の実施例1のテナント利用状況情報を示した図である。 本発明の実施例1のリソース調停結果情報を示した図である。 本発明の実施例1の全体処理のフローチャートである。 本発明の実施例1のリソース提供候補算出処理のフローチャートである。 本発明の実施例1の提供可能リソース量算出処理のフローチャートである。 本発明の実施例2のテナントポリシー情報を示した図である。 本発明の実施例2のリソース調停レベル情報を示した図である。 本発明の実施例2のリソース提供候補算出処理のフローチャートである。 本発明の実施例2のリソース提供候補算出処理のフローチャートである。
図1は,実施例1の概略を説明した図である。
はじめにリソースを必要とする「テナント1」が各種条件を含む「リソース確保要求」を「調停サーバ」へ送信する。「リソース確保要求」には,リソースの種別,リソースの各要求量,およびリソースの利用期間を含む。次に「調停サーバ」は「リソース確保要求」と「テナントポリシー情報」に基づき他のテナントである「テナント2」「テナント3」のリソース調停を指示する。ここで「テナントポリシー情報」には,テナント毎の制限事項,リソース確保方法,といった情報を含んでいる。「調停サーバ」にリソースの調停を指示された「テナント2」および「テナント3」は,「テナントポリシー情報」に定義されたリソース確保方法に従い,リソースの確保を実施する。図1の例では,「テナント2」は「テナント1」のリソース確保要求が短期間であると判断し,「テナント1」のリソース利用が終了次第すぐにリソースを回収できるよう,仮想マシンに割り当てられているリソース量の割当を変更することでリソース確保を実施している。同様に「テナント3」は「テナント1」のリソース確保要求が長期間であると判断し,長期に自テナントのリソースを解放するため仮想マシンを削除することでリソース確保を実施している。このように,テナントが要求するリソース確保要求の条件の一つである利用期間に応じて,各テナントがリソース確保する方法を適切に選択することで,テナント間のリソース調停を効率的に実施できる。
図2は,調停サーバ1の詳細な構成を示した図である。
調停サーバ1は,マルチテナント環境でテナントを管理し、テナントのリソース確保要求を調停する計算機であって,CPU11,記憶資源12,および通信インターフェース13を含む。後ほど詳細を示すが、記憶資源12は、各種調停処理モジュールと、各種情報を格納し、CPU11は、各種調停処理モジュールを実行することで、各種調停処理を行う。なお、記憶資源12は、例えば、HDD(Hard Disk Drive)、フラッシュメモリ、DRAM、及びこれら組み合わせであることが考えられるが、プログラム及び情報を格納できるデバイスであれば、どのようなデバイスでもよい。
テナント3は,調停サーバ1に対してリソース確保要求を送信する計算機群,または調停サーバ1からの指示に従ってリソース調停を実行する計算機群であって,ネットワーク2を介して調停サーバ1に管理される。マルチテナント環境におけるテナントは、1つ以上の物理リソースまたは仮想リソースで構成される。また、物理リソースは1以上の物理サーバ7で構成され、物理サーバはリソースとして通信I/F 71、CPU 72、メモリ73、ディスク74を備え、仮想サーバ75を実行する。テナントで稼動するサービスやアプリケーションには,例えばWebサーバとDBサーバで構成されるWebシステムや,バッチ処理を実行するバッチ処理基盤システムが含まれる。
管理プログラム1000は,リソース状態監視モジュール100と,リソース要求応答モジュール101と,リソース提供候補算出モジュール102と,リソース調停指示モジュール103で構成される。
リソース状態監視モジュール100は,テナント3の構成情報およびリソース利用情報を定期的または監視要求時に取得し,テナント構成情報200およびテナント利用状況情報202に格納する。
リソース要求処理モジュール101は,テナント3からのリソース確保要求を受信し,リソース調停処理後の結果をリソース確保要求元のテナント3へ送信する。
ここでリソース確保要求には,物理計算機,仮想計算機,プログラム,サービスに割り当て可能なリソースの種別と量,当該リソースの利用期間を示す情報を含む。
リソースの種別としては,例えば,マシン台数,CPU数,CPU周波数,CPU1個あたりの占有量や予約量、メモリ量,I/Oスループット量,I/O帯域量,I/O容量あたりの占有量や予約量、キャッシュ容量などを記載できる。
リソースの利用期間としては,始期と期間を指定する方法や、終期を指定する方法、あるいは始期のみを指定する方法がある。始期と期間を指定する方法の例としては「現時刻から3時間利用」「15:00から20時間利用」といった記載が挙げられる。終期を指定する方法の例としては,「本日06:00まで利用」「2014年7月2日 10:00まで利用」といった記載が挙げられる。始期のみを指定する方法の例としては「現時刻より利用開始」「2014年7月29日 18:00より利用開始」といった記載が挙げられる。
リソース提供候補算出モジュール102は,テナント3からのリソース確保要求を基に,他のテナント3が提供可能なリソース量を算出し,算出結果をリソース調停結果情報230に格納する。
リソース調停指示モジュール103は,リソース提供候補算出モジュール102の算出したリソース調停結果情報230の内容に従い,テナント3へリソース確保手段の実行を指示する。
管理計算機4は、物理および仮想のリソース構成を制御する計算機であって、リソース構成を制御する構成モジュール5と、リソース構成情報6をメモリ上に持つ。構成モジュール5が制御を実行する契機としては、管理計算機4や調停サーバ1、または他の計算機で稼動するプログラムからの実行命令が挙げられるが、これに限定されず、管理者からの操作受付を契機に制御を実行してもよい。リソース構成情報6は管理計算機4で稼動するプログラムが作成するが、これに限定されず、他の計算機で稼動するプログラムの持つ情報を定期的に収集したり、管理者や他プログラムからの収集命令を契機に他の計算機で稼動するプログラムの持つ情報を収集したり、あるいは管理者が入力することで作成されてもよい。さらにリソース構成情報6は構成モジュール5により利用されうるが、これに限定されず、他のプログラムからの開示命令に応答して情報提供してもよい。
次に,図3乃至図6を用いて格納情報について説明する。
図3は,テナント構成情報200を示している。テナント構成情報200は、図3−aで示すテナント毎の仮想マシン構成を定義するテナント内仮想マシン構成情報201と、図3−bで示す物理マシン構成情報206で構成される。テナント内仮想マシン構成情報201は,テナントに所属する仮想マシン名202と,当該仮想マシンが稼働する稼働マシン名203と,当該仮想マシンに割り当てられているCPU数204と,当該仮想マシンに割り当てられているメモリ量205を含む。さらに稼働マシン名203にある各マシンの構成情報は物理マシン構成情報206で定義されており、物理マシン構成情報206は物理マシン名207と,マシンの総CPU数208と,マシンの総メモリ量209を含む。
仮想マシン名202は仮想マシンが一意に識別できる情報であればよく,管理者が手動で記録してもよいし,仮想マシンに設定されている情報をソフトウェアが読み取り記録してもよい。同様に稼働マシン名203も稼働マシンが一意に識別できる情報であればよく,管理者が手動で記録してもよいし,稼働マシンに設定されている情報をソフトウェアが読み取り記録してもよい。
CPU割当数204は仮想マシンに割り当てられているCPUの数を示しているが,仮想マシンに割り当てられているCPUの程度を示す情報であればよく,CPU周波数を使用してもよい。仮想マシンに割り当てられているCPUの種別は物理CPUまたは仮想CPUである。
図4は,テナントポリシー情報210を示している。テナントポリシー情報210は,ポリシー項目211,ポリシー内容212を含む。
ポリシー項目211には,テナントの優先度,最低必要量,期間定義,短期期間リソース提供方法,長期期間リソース提供方法,を含む。
テナント優先度は他のテナントと優先度比較ができる情報であればよく,例えば図5では当該テナントの優先度が高いことを示す「High」が格納されている。優先度は,High,LowやGold,Silver,Bronze等の文字列の他に数値やアルファベットを使用してもよい。さらにテナント優先度情報は静的に定義する以外に,時間帯や曜日,日付といった情報を基に動的に変化してもよい。
最低必要量は当該テナントが最低限保持することを保証しなければならないリソース量を示しており,図4では仮想マシン4台を最低限保持することを示す「4VM」が格納されている。テナントを構成する仮想マシン台数で指定する他に,CPU量やメモリ量等のリソース種別ごとに指定してもよい。
期間定義は,テナントがリソース確保要求を出す際に要求する期間を,当該テナントが短期、中期または長期と判断する基準値を示しており,時間や日数等の時間情報を指定する。図4では要求期間が24時間未満であれば短期,24時間以上で7日未満であれば中期、7日以上であれば長期と判断する情報が格納されている。
短期期間リソース提供方法、中期期間リソース提供方法および長期期間リソース提供方法は,期間定義で定義した基準に基づいてリソースの要求期間を判断した際,各期間でのリソース提供方法を定義する。図4では,短期期間のリソース確保を要求されている場合には仮想マシンのCPU割当量に制限を課すCPUキャッピングを利用して,CPUリソース割当量を変更してリソースを提供する手段を選択し,中期期間のリソース確保を要求されている場合には不要な仮想マシンをシャットダウンしてリソース提供する手段を選択し、長期期間のリソース確保を要求されている場合には不要な仮想マシンを削除してリソースを提供する手段を選択することを示す情報が格納されている。
リソース確保要求期間の長短に応じてリソース提供方法を変えるのは、各テナントがリソースを他テナントへ提供可能かを判断する際に、リソース提供手段適用時の自テナントの安定性の観点、リソース提供手段の処理時間の観点、リソース提供手段実行時の負荷の観点を考慮する必要がある点ためである。安定性の観点では、CPUキャッピングによるリソース提供方法は、仮想マシンのOS(Operating System)が認識しているCPU割当量よりも少ない量のCPUのみ利用可能とするよう仮想化基盤側で制限する機能であるため、OSの認識する構成と仮想化基盤で制限をかけた構成とでギャップが生じ、システムの挙動の安定性の点で長期間のCPUキャッピング利用は控えたいニーズがある。そのため、中期または長期にリソースを他のテナントへ提供する際には、仮想マシンをシャットダウンまたは削除して仮想マシン単位にリソースの開放と提供を実施するほうが、リソース提供側のシステム安定性の点で優れる。
またリソース提供手段の処理時間の観点では、リソースを提供する際の処理時間と、リソース提供が終了した後に自テナントのリソース割当量を回復するための処理時間を考慮する必要がある。図4のリソース提供方法では、CPUキャッピングによるリソース提供および回復の処理時間が最も短いため、短期期間のリソース提供時にはCPUキャッピングによるリソース提供を選択するよう定義している。またVMシャットダウンによるリソース提供方法では、リソース回復のためにはVMを再び起動するだけでよいのに対し、VM削除によるリソース提供方法では、リソース回復のためには新規にVMを作成する処理が必要となる。またVMシャットダウンではシャットダウン後に利用しないVMが環境に残るためVM未稼働の間はリソース利用の観点で無駄が生じるが、VM削除によるリソース提供では削除したVM分のリソースが開放されるためリソースの無駄が生じない。それら特性を考慮し、中期期間のリソース提供に対してはリソース回復処理も考慮してVMシャットダウンによるリソース提供方法を定義し、長期間のリソース提供に対しては未使用リソース削減を考慮してVM削除によるリソース提供方法を定義している。
またリソース提供手段実行時の負荷の観点では、各手段を実行した際の自テナントまたは他テナントへ与える負荷影響を考慮する必要がある。図4のリソース提供方法では、CPUキャッピングによるリソース提供手段の負荷が最も小さく、次に負荷が小さいのはVMシャットダウン(および回復時のVM起動処理)で、VM削除(および回復時のVM新規作成処理)の負荷が最も大きい。そのため、各処理の発生頻度を考慮して、短期期間のリソース提供時にはCPUキャッピングによるリソース提供手段を定義し、中期期間に対してはVMシャットダウン、長期期間に対してはVM削除を定義している。
以上のように、リソース提供手段適用時の自テナントの安定性の観点、リソース提供手段の処理時間の観点、リソース提供手段実行時の負荷の観点から、リソースを提供する期間に応じて異なるリソース提供手段を定義することでテナント間のリソース調停をより効果的に実施できる。本実施例では期間で区分したため図4のような内容にしたが、ポリシー次第では、安定性や負荷を数値化し、これらをリソース提供方法の区分をする基準として用いてもよい。
図5は,テナント利用状況情報220を示している。テナント利用状況情報220は,テナントを構成する仮想マシン名221と,当該仮想マシンのCPU利用量222と,当該仮想マシンのメモリ利用量223と,当該仮想マシンのディスク利用量224と,当該仮想マシンのネットワーク利用量225を含む。
CPU利用量222は仮想マシンに割り当てられているCPUに対する利用量が分かる情報であればよく,図5ではCPU割当量に対する使用比率を格納しているが,使用中の仮想CPU数や周波数といった情報を使用してもよい。
メモリ利用量223は仮想マシンに割り当てられているメモリに対する利用量が分かる情報であればよく,図5ではメモリ割当量に対する使用比率を格納しているが,使用中のメモリ量を使用してもよい。
ディスク利用量224は仮想マシンに割り当てられているディスクに対する利用量が分かる情報であればよく,図5ではディスクに対するIOPS(Input/Output Per Second)を格納しているが,ディスクの読み込み/書き込み性能値やディスクの読み込み/書込み量,ディスクの使用容量や空き容量といった情報を使用してもよい。
ネットワーク利用量225は仮想マシンのネットワーク利用量が分かる情報であればよく,図5では単位時間あたりに仮想マシンが送受信するデータ量を格納しているが,単位時間あたりに仮想マシンが送受信するパケット数や,特定時間内に仮想マシンが送受信する総データ量や総パケット数といった情報を使用してもよい。
図6は,リソース調停結果情報230を示している。リソース調停結果情報230は,リソース調停の結果,リソースを提供する先のテナント情報231と,リソースを提供する元のテナント情報232と,リソース提供量233と,リソースの提供手段234と,リソースの提供期間235を含む。
リソース提供量233は提供元テナント232が提供先テナント231へ提供するリソース量を示す情報であればよく,図6ではテナント「T2」がCPU2個相当のリソースをテナント「T1」へ提供し,テナント「T3」がCPU4個相当のリソースをテナント「T1」へ提供することを示す情報が格納されている。リソース提供量233に格納する情報は複数のリソース種別を含んでもよく,例えば「CPU:2個,メモリ:1GB」のようにCPUとメモリを提供することを示す情報を格納してもよい。
またリソースの単位をリソース種別ではなく仮想マシン単位で表現してもよく,例えばリソースを提供するために自テナントの仮想マシンを1台削除した場合、削除した仮想マシンを「仮想マシン:VM1 削除」のように記録することで、提供したリソース量として特定の仮想マシンを示す情報を格納してもよい。
リソース提供手段234は提供元テナント232が提供先テナント231へリソース提供する手段を示す情報であればよく,図6ではテナント「T2」が「CPUキャッピングによる割当量変更」手段を使用して提供量233に示すリソース量をテナント「T1」へ提供し,テナント「T3」が「VM削除」手段を使用して提供量233に示すリソース量をテナント「T1」へ提供することを示す情報が格納されている。
提供期間235は提供元テナント232が提供量233のリソースを提供先テナント231へ提供する期間を示している。図6では,テナント「T2」は「2014/06/30 06:00:00まで」の期間でリソースをテナント「T1」へ提供し,テナント「T3」は提供期間の指定なしでリソースをテナント「T1」へ提供することを示す情報が格納されている。
図7は,マルチテナント環境でリソース確保要求を処理するフローチャートを示す図である。以下,フローに沿って説明する。
管理プログラムは,テナントからのリソース確保要求を受信する(ステップS101)。リソース確保要求には物理計算機,仮想計算機,プログラム,サービスに割り当て可能なリソースの種別と量,当該リソースの利用期間を示す情報を含み,例えば「CPU:8コア,利用期間:6時間」といった内容を含む。
次に管理プログラムは,(ステップS101)で受信したリソース確保要求に基づき,リソースを提供するテナントの候補を算出する(ステップS102)。本処理の詳細は図8および図9を用いて説明する。
次に管理プログラムは,(ステップS102)で算出したテナント候補に対してリソース調停の実行を指示し,結果を受信する(ステップS103)。リソース調停の実行指示は物理マシン,仮想マシン,物理リソース,仮想リソース,論理分割されたリソース等を管理するソフトウェアに対してAPI(Application Programming Interface)やSDK(Software Development Kit)等を介して送信してよく,またリソース調停の実行指示をメール等の手段により計算機環境を管理する管理者へ送信してもよい。
次に管理プログラムは、(ステップS103)で調停した結果を使用して管理計算機にリソース調停処理を実行させる(ステップS104)。管理プログラムが管理計算機にリソース調停処理を実行させる手段としては、管理計算機が外部へ公開しているAPI(Application Programming Interface)や)を介して実行指示を与えることができる他、管理計算機が提供するGUI(Graphical User Interface)やCLI(Command Line Interface)を管理プログラムまたは管理者が操作して実行指示を与えてもよい。管理プログラムがリソース調停指示を管理計算機に与えた後に、調停処理の結果を知るために一定周期で管理プログラムが調停処理の結果を管理計算機に問い合わせるが、その他の方法により調停処理の結果を確認してもよく、管理計算機が管理プログラムに対して調停結果を通知することで確認してもよい。
次に管理プログラムは,(ステップS104)で調停した結果をリソース確保要求送信元のテナントへ送信する(ステップS105)。調停結果は,確保完了したリソース種別と量,およびリソースを確保したサーバの識別情報を含む。例えば「Server−1:CPU:4コア確保,Server−2:CPU:4コア確保」といった内容を含む場合,サーバ名「Server−1」からはCPU4コアを確保し,サーバ名「Server−2」からはCPU4コアを確保したことを示す。
図8は,管理プログラム内のリソース提供候補算出モジュールが実行する(ステップS102)のリソース提供候補算出処理の詳細を示すフローチャートである。以下,フローに沿って説明する。
リソース提供候補算出モジュールは,テナント構成情報200を参照してテナント一覧を取得し,各テナントに対して(ステップS202)乃至(ステップS204)の処理を実行する(ステップS201)。
次にリソース提供候補算出モジュールは,テナント構成情報200,テナントポリシー情報210,およびテナント利用状況情報220を参照し,
当該テナントの現在のリソース割当量がテナントポリシーで定義される必要最低量より多いかを確認する(ステップS202)。図4の例では,「テナント1」の最低必要量が「4VM」(仮想マシン4台)であることを示している。さらに「テナント1」のテナント内仮想マシン構成情報(図3−a)を参照して、「テナント1」で現在稼動している仮想マシンの台数を取得し、必要最低量である仮想マシン4台を満足する台数が稼動しているかを(ステップS202)で確認する。
必要最低量以下の場合,他のテナントへ提供可能なリソースは無いと判断し,(ステップS201)の処理対象を次のテナントに変更する。必要最低量より多くのリソースが割り当てられている場合は(ステップS203)の処理へ進む。
次にリソース提供候補算出モジュールは,当該テナントが提供することのできるリソース量を算出する(ステップS203)。本処理の詳細は図10を用いて説明する。
次にリソース提供候補算出モジュールは,(ステップS203)で算出した結果をリソース提供元テナント候補に登録する(ステップS204)。リソース提供元テナント候補は管理プログラムにより保持され、リソース提供元テナント候補には、リソース提供もとのテナント名、および提供可能なリソース情報が登録される。
次にリソース提供候補算出モジュールは,リソース提供元テナント候補を参照して各テナント候補に対し(ステップS206)乃至(ステップS208)の処理を実行する(ステップS205)。
次にリソース提供候補算出モジュールは,当該算出結果を提供可能リソース量として加算する(ステップS206)。
次にリソース提供候補算出モジュールは,当該算出結果を提供候補リストへ登録する(ステップS207)。
次にリソース提供候補算出モジュールは,(ステップS206)で加算した値が,リソース確保要求に含まれる要求量以上であるか確認する(ステップS208)。加算の合計値が要求量未満である場合,次の算出結果を取得して(ステップS206)の処理へ戻る。合計値が要求量以上である場合,(ステップS205)のループ処理を終了し,提供候補リストに登録した情報をリソース調停結果情報230へ格納する。
(ステップS205)でリソース提供元テナント候補からリソース提供元テナントを選択する方法は,テナントポリシー210を参照して最も優先度の低いテナントから順に選択してよく,他の選択方法としては,リソースを提供するサーバ台数を少なくするために,リソース確保要求に含まれるリソース要求量に最も近いリソース提供量を含むテナントから順に選択してもよい。またテナント利用状況情報220を参照してリソースの利用率が低いテナントを優先して選択してもよい。
図9は,管理プログラム内のリソース提供候補算出モジュールが実行する(ステップS203)の提供可能リソース量算出処理の詳細を示すフローチャートである。以下,フローに沿って説明する。
リソース提供候補算出モジュールは,リソース確保要求を参照して,リソースの要求期間を示す情報を取得する(ステップS301)。例えば、リソース確保要求が「CPU:8コア,利用期間:6時間」といった内容を含む場合,確保要求期間は「利用期間:6時間」である。
次にリソース提供候補算出モジュールは,テナントポリシー情報210を参照し,(ステップS301)で取得した期間情報に応じたリソース提供方法を選択する(ステップS302)。図4の例では,確保要求期間として「利用期間:6時間」を取得した場合,テナントポリシー情報210より確保要求期間が24時間未満であるため「短期」と判断し、リソース提供方法として「CPUキャッピングによる割当量の変更」を選択する。
次にリソース提供候補算出モジュールは,テナントポリシー情報210を参照し,(ステップS302)で選択したリソース提供方法を使用して確保可能なリソース量を算出する(ステップS303)。図4の例でリソース提供方法として「CPUキャッピングによる割当量の変更」を選択した場合、リソース提供方法に応じた確保可能リソース量の算出には,例えばテナント利用状況情報220の履歴情報を利用して定常時のCPUリソースの利用傾向を算出することで,余剰に割り当てられているCPUリソース量を,確保可能なリソース量として算出する方法が利用できる。
さらにリソース提供方法として複数の提供方法の組み合わせを利用してもよい。仮想マシンを削除するリソース提供方法を選択する場合,仮想マシン削除後にそのテナントに対して突発的に処理負荷が増加すると,テナントの処理性能を上げるために仮想マシンを新たに追加して元の構成に戻す必要が生じ得る。仮想マシンを追加するためには時間を要するため,その間にテナントは処理性能不足となり,テナントの利用者に対して満足なサービスを提供できない事態が生じ得る。そこで仮想マシンを削除する際には,テナント内に残る他の仮想マシンを予めCPUキャッピングしておき,処理負荷の急増時にはCPUキャッピングの設定を変更することで一時的に仮想マシンの処理性能を向上させ,そのバックエンドの処理で仮想マシンの新規追加処理を実行する方法が利用できる。例えば,6コアを割り当てられた仮想マシンに対して2コア分のCPUキャッピングを設定して仮想的に4コアの仮想マシンとみなしている場合を考える。この仮想マシン3台で構成されるテナントに対して,仮想マシン1台削除を実施すると,2コア分の余力を持つ仮想マシンが2台残るため,負荷の急増時にこれら仮想マシンのCPUキャッピング設定を変更して仮想マシンを6コア割当に再構成することで,削除した仮想マシン1台に相当する合計4コアの処理性能が追加される。6コア割当の仮想マシン2台で処理している間に,新規に4コア割当の仮想マシン(6コア割当に対して2コア分をキャッピングしてもよい)の追加処理を実行し,仮想マシンの追加が完了後に,CPUキャッピングの設定を変更した2台の仮想マシンに対して再度2コア分のCPUキャッピングを設定して,4コア割当の仮想マシン3台で構成される元のテナント構成を復元することができる。
以上によって,リソースを必要とするテナントのリソース確保要求に対して,要求条件の一部である利用期間を考慮したリソース確保手段を実施してリソースを確保するため,テナント間のリソース調停を効率的に実施できる。
以下,本発明の実施例2について図10乃至図12を用いて説明する。
実施例1では、リソース確保要求期間を判断するための「期間定義」情報を管理者が予めテナントポリシー情報に定義する必要があるが、「期間定義」はテナントごとに異なることは十分に考えられることであるため、管理者がテナントの利用履歴情報や特性を考慮して全てのテナントに対する「期間定義」を予め定義することは作業負担が大きい。そこで、実施例2では各テナントに期間定義を設定する代わりに、調停するレベルを設定することでリソースの調停方法を自動的に選択してリソースの提供を行う。
図10は、本実施例におけるテナントポリシー情報210を示す。テナントポリシー情報210に新たに「リソース調停レベル」項目を加え、また「期間定義」項目は未定義とする。ここで「リソース調停レベル」とは調停サーバがリソース提供方法を選択する際の指針となる情報であり、実施例2では5段階の値で表現し、「リソース調停レベル」の値が1に近ければ当該テナントのリソース提供方法を選択する際にテナントの安定性を重視して提供方法を選択するといったより保守的なリソース調停を実施し、値が5に近ければリソース提供方法の処理時間の短さや実行の容易さを重視して提供方法を選択するといったより積極的なリソース調停を実施する。
図11は、管理プログラムが持つリソース調停レベル情報300を示している。リソース調停レベル情報300は、リソース調停レベル301とリソース確保要求期間302の2つの軸を持つ。図10の例ではリソース調停レベルに「2」が設定されている。さらに図11の例でテナントからのリソース確保要求に含まれるリソース確保要求期間が「中期」である場合には、リソース調停レベル301の値が「2」でありリソース確保要求期間302が「中期」である箇所を参照し、リソース提供方法に「長期用方法」を選択する。図10の例で長期期間のリソース提供方法に「仮想マシンの削除」が定義されているため、この例では管理プログラムは「仮想マシンの削除」をリソース提供方法として選択する。
図12は,実施例2で管理プログラム内のリソース提供候補算出モジュールが実行する(ステップS203)の提供可能リソース量算出処理の詳細を示すフローチャートである。以下,フローに沿って説明する。実施例2では,実施例1で説明したフローチャートのうち,(ステップS301)および(ステップS303)の処理ステップは同じであるため,差分となる(ステップS401)および(ステップS402)の処理ステップについて説明する。
リソース提供候補算出モジュールは,テナントポリシー情報210を参照し、リソース調停レベルを取得する(ステップS401)。図10の例では、リソース調停レベルとして「2」を取得する。
次にリソース提供候補算出モジュールは、(ステップS301)で取得したリソース確保要求期間と、(ステップS401)で取得したリソース調停レベルと、リソース調停レベル情報300と、テナントポリシー情報210と、を使用して、リソース提供方法を選択する(ステップS402)。
ここで(ステップS301)で取得したリソース確保要求期間を「短期」「中期」「長期」と判断する方法の一例について説明する。
リソース確保要求期間を「短期」と判断する方法として、「システムが正常な安定挙動を示す期間」にリソース確保要求期間が含まれる場合に「短期」と判断する方法が挙げられる。システムの「正常な安定挙動」には、CPU利用率などのリソース利用率がシステム監視製品の規定する正常値以下に収まっている状態や、リソース利用率の値の推移がシステム監視製品の規定する正常状態に収まっている状態を利用できる。例えば、業務システムを24時間枠で分析した場合に、業務システムの利用者が多く、リソース利用率の推移も大きい昼間は対象外とし、業務システムの利用者が少ない夜間の期間を「正常な安定挙動」と判断することが考えられる。
またリソース確保要求期間を「中期」と判断する方法として、「短期」「長期」の期間判断に一致しない、または「短期」「長期」の期間判断の間に含まれる期間を「中期」と判断する方法が挙げられる。別の方法として、システム監視製品が繁忙期と判断する時期の間を「中期」と判断する方法でもよく、例えばバッチ処理システムでは週末や月末にバッチ処理が集中する場合が多いため、1週間のうちの平日を「中期」と判断したり、月末日を除く期間を「中期」と判断したりすることができる。また「短期」の規定数倍を「中期」と判断する方法でもよい。
またリソース確保要求期間を「長期」と判断する方法として、リソース確保要求期間が始期のみで終期の指定が無い場合に「長期」と判断する方法が挙げられる。また「中期」の規定数倍を「長期」と判断する方法でもよい。
リソース提供候補算出モジュールはシステム監視製品にリソース確保要求期間の判断を問い合わせて結果を取得でき、あるいはリソース提供候補算出モジュールがシステム監視製品のリソース監視情報を取得して判断してもよい。
次にリソース提供候補算出モジュールは、(ステップS402)で選択したリソース提供方法に基づき、実施例1と同様に(ステップS303)で確保可能なリソース量を算出する。
以上によって,管理者は予め「短期」「中期」「長期」の定義をテナントポリシー情報に定義することなく、リソース調停レベルのみをテナントポリシー情報へ定義するだけで、リソース確保要求期間に基づいて調停サーバが自動的にリソース提供方法を選択してリソース確保を実施するため,管理者の作業負担を軽減することができる。
以下,本発明の実施例3について図13を用いて説明する。
実施例3では,リソース要求処理モジュール101がテナント3から受信するリソース確保要求に,実施例1のリソース確保要求の内容に加え,当該リソースの利用形態を示す情報をさらに含む。
リソースの利用形態としては,例えば,信頼性を確保するためのHA(High Availability)構成が挙げられる。HA構成では,2台以上のサーバを利用し,1台を現用系,他を待機系として設定することで,現用系のサーバに障害が発生した場合に素早く待機系のサーバを切り替え可能とする。そのため,仮想マシンでHA構成を構築する場合は,現用系と待機系の仮想マシンは異なる物理マシン上に設置する必要があり,リソース確保要求でHA構成を利用形態に指定されている場合にはリソースを複数の物理マシンから調達しなければならない。HA構成をリソース確保要求のリソース利用形態に含む場合,例えば「HA構成のためにCPU4コア,メモリ4GBの仮想マシン2台分」といった記載が挙げられる。
図13は,実施例3において,管理プログラム内のリソース提供候補算出モジュールが実行する(ステップS203)の提供可能リソース量算出処理の詳細を示すフローチャートである。実施例3では,実施例1で説明したフローチャートのうち,(ステップS201)乃至(ステップS204)の処理ステップは同じであるため,差分となる(ステップS501)乃至(ステップS504)の処理ステップについて説明する。以下,フローに沿って説明する。
リソース提供候補算出モジュールは,リソース確保要求を参照し,(ステップS203)で算出した提供可能リソース量がリソース利用形態を満足するために必要な量以上であるかを確認する(ステップS501)。例えば,リソース確保要求に「HA構成のためにCPU4コア,メモリ4GBの仮想マシン2台分」というリソース利用形態情報が含まれる場合,HA利用形態を満足するためには仮想マシン1台分のリソースを提供可能なテナントが2つ以上存在する必要がある。そのため,リソース提供の候補となり得るテナントは最低でも仮想マシン1台に要求される分のリソースを提供可能なテナントである必要があるため,「HA構成のためにCPU4コア,メモリ4GBの仮想マシン2台分」というリソース確保要求に対してリソース利用形態を満足するために必要なリソース量を、仮想マシン1台に対する「CPU4コア,メモリ4GB」のリソースと判断でき,(ステップS203)で算出した提供可能リソース量が上記を満たす場合は算出結果リストへ登録する(ステップS204)。(ステップS203)で算出した提供可能リソース量が上記を満たさない場合は算出結果リストへの登録は行わないで次のテナントに処理を移す。
次にリソース提供候補算出モジュールは,算出結果リストを参照し,利用形態を満足するリソース確保ができたかを確認する(ステップS502)。具体的には、「CPU4コア,メモリ4GB」のリソースがテナント2つ以上から確保できたか否かで判断する。リソース確保できている場合はS304の処理へ進む。リソース確保できていない場合,(ステップS503)の処理へ進む。
次にリソース提供候補算出モジュールは,テナント構成情報200を参照し,テナント構成を再構成することでリソース確保要求を満足するリソースを確保可能か算出する(ステップS503)。算出には例えば,仮想マシンを現在の物理マシンから別の物理マシンへ移動させることで物理マシン上のリソースを確保できるか否かを,物理マシンと仮想マシンの組み合わせの組を基に算出する手法がある。例として、2台の物理サーバAと物理サーバBが存在する場合、どちらかの物理サーバ上のみで仮想マシン2台分のリソースを確保しても、HA構成の要件を満たすことができない。そこで、例えば物理サーバB上の仮想マシン1台以上を物理サーバAまたは他の物理サーバ上へ移行させることで、物理サーバB上に仮想マシン1台分のリソース確保ができるかを確認し、もし可能であれば物理サーバAと物理サーバB上に仮想マシンをそれぞれ1台ずつ作成してHA構成の要件を満たせると判断できる。
最後にリソース提供候補算出モジュールは,提供可能リソース情報を提供候補リストへ登録する(ステップS504)。
リソースの利用形態は実施例3で説明したHA構成に限られず、他の利用形態としては正サイトと副サイトで構成されるDR(Disaster Recovery)構成を構成する際に、正サイトと副サイトでリソース確保を調停するために利用できる。また別の利用形態としては、複数の仮想サーバを利用してロードバランサによる負荷分散構成を構成する際に、できる限り負荷分散の効果を高めるためにロードバランサ配下の複数の仮想サーバを別々の物理サーバ上で稼動するようにリソース確保を調停するために利用できる。
以上によって,リソースを必要とするテナントのリソース確保要求に対して,要求条件の一部である機能形態を考慮したリソース確保手段を実施してリソースを確保するため,テナント間のリソース調停を効率的に実施できる。
なお、以上の実施例では調停サーバが調停に関する処理を行う形で示したが、管理計算機が調停サーバの処理を兼ねても良い。
1・・・管理計算機 2・・・ネットワーク 3・・・テナント 4・・・管理計算機 1000・・・管理プログラム

Claims (6)

  1. マルチテナント環境を構成する計算機システムに接続する調停サーバであって、
    前記マルチテナント環境に含まれる複数のテナントの構成を示す構成情報、
    前記複数のテナントの利用状況を示す利用状況情報及び
    リソース利用期間に対応するリソース提供方法の情報を含むポリシー情報を有し、
    前記複数のテナントの中のリソースを要求するテナントから、リソース割当要求量及び前記リソース利用期間の情報を含むリソース割当要求を受け付け、
    前記構成情報、前記利用状況情報、前記ポリシー情報及び前記リソース割当要求を参照して、前記複数のテナントの中のリソースを提供するテナント、該テナントから提供されるリソース量及び該テナントからリソースを提供される方法を含む調停情報を作成し、
    前記調停情報に基づいて前記リソースを提供するテナントにリソース調停を指示する
    ことを特徴とする調停サーバ。
  2. 請求項記載の調停サーバであって、
    前記リソース提供方法は、前記リソースを提供するテナントの利用する仮想計算機を削除する方法、前記仮想計算機をシャットダウンする方法及び前記仮想計算機に割り当てられているCPUの量をキャッピングにより減らす方法を含む
    ことを特徴とする調停サーバ。
  3. 請求項記載の調停サーバであって、
    前記リソース提供方法は、前記リソース利用期間が短期だった場合はCPUの量をキャッピングにより減らす方法であり、前記リソース利用期間が中期だった場合は前記仮想計算機をシャットダウンする方法であり、前記リソース利用期間が長期だった場合は前記仮想計算機を削除する方法である
    ことを特徴とする調停サーバ。
  4. マルチテナント環境を構成し、調停サーバを含む計算機システムにおいて、
    前記マルチテナント環境に含まれる複数のテナントの中のリソースを要求するテナントから前記調停サーバに対して、リソース割当要求量及びリソース利用期間の情報を含むリソース割当要求を送受信するステップ、
    前記複数のテナントの構成を示す構成情報、前記複数のテナントの利用状況を示す利用状況情報、前記リソース利用期間に対応するリソース提供方法の情報を含むポリシー情報及び前記リソース割当要求を参照し、前記複数のテナントの中のリソースを提供するテナント、該テナントから提供されるリソース量及び該テナントからリソースを提供される方法を含む調停情報を作成するステップ、及び
    前記調停情報に基づいて前記リソースを提供するテナントにリソース調停を指示するステップを含む
    ことを特徴とするリソース調停方法。
  5. 請求項記載のリソース調停方法であって、
    前記リソース提供方法は、前記リソースを提供するテナントの利用する仮想計算機を削除する方法、前記仮想計算機をシャットダウンする方法及び前記仮想計算機に割り当てられているCPUの量をキャッピングにより減らす方法を含む
    ことを特徴とするリソース調停方法。
  6. 請求項記載のリソース調停方法であって、
    前記リソース提供方法は、前記リソース利用期間が短期だった場合はCPUの量をキャッピングにより減らす方法であり、前記リソース利用期間が中期だった場合は前記仮想計算機をシャットダウンする方法であり、前記リソース利用期間が長期だった場合は前記仮想計算機を削除する方法である
    ことを特徴とするリソース調停方法。
JP2016545128A 2014-08-27 2014-08-27 マルチテナントリソース調停方法 Active JP6190969B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/072353 WO2016030973A1 (ja) 2014-08-27 2014-08-27 マルチテナントリソース調停方法

Publications (2)

Publication Number Publication Date
JPWO2016030973A1 JPWO2016030973A1 (ja) 2017-04-27
JP6190969B2 true JP6190969B2 (ja) 2017-08-30

Family

ID=55398915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016545128A Active JP6190969B2 (ja) 2014-08-27 2014-08-27 マルチテナントリソース調停方法

Country Status (3)

Country Link
US (1) US10333859B2 (ja)
JP (1) JP6190969B2 (ja)
WO (1) WO2016030973A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6451307B2 (ja) * 2014-12-24 2019-01-16 富士通株式会社 ストレージ装置およびストレージ装置制御プログラム
US10609129B2 (en) * 2016-02-19 2020-03-31 Huawei Technologies Co., Ltd. Method and system for multi-tenant resource distribution
US10454771B2 (en) * 2016-04-06 2019-10-22 Alcatel Lucent Virtual infrastructure
US10547511B2 (en) 2016-05-04 2020-01-28 Alcatel Lucent Infrastructure resource states
US10305788B2 (en) 2016-06-30 2019-05-28 Alcatel Lucent Near-real-time and real-time communications
US20180026856A1 (en) * 2016-07-21 2018-01-25 Cisco Technology, Inc. Orchestrating micro-service deployment based on network policy health
US11150950B2 (en) * 2016-12-01 2021-10-19 Vmware, Inc. Methods and apparatus to manage workload domains in virtual server racks
CN107071045A (zh) * 2017-05-08 2017-08-18 深信服科技股份有限公司 一种基于多租户的资源调度系统
US10423452B2 (en) * 2017-06-22 2019-09-24 International Business Machines Corporation Allocating resources to virtual machines
US10754696B1 (en) * 2017-07-20 2020-08-25 EMC IP Holding Company LLC Scale out capacity load-balancing for backup appliances
JP6842447B2 (ja) * 2018-09-12 2021-03-17 株式会社日立製作所 リソース割当ての最適化を支援するシステム及び方法
US11467872B1 (en) * 2019-08-01 2022-10-11 Amazon Technologies, Inc. Resource capacity management
CN112231053B (zh) * 2020-09-29 2022-12-16 新华三信息安全技术有限公司 一种负载均衡服务分配方法及装置
JP2022133993A (ja) * 2021-03-02 2022-09-14 株式会社日立製作所 ストレージシステム、リソース制御方法、及びリソース制御プログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002323986A (ja) * 2001-04-25 2002-11-08 Hitachi Ltd コンピュータリソース流通システム及び方法
JP4756675B2 (ja) * 2004-07-08 2011-08-24 インターナショナル・ビジネス・マシーンズ・コーポレーション コンピュータ資源のキャパシティを予測するためのシステム、方法およびプログラム
US7908314B2 (en) * 2005-03-23 2011-03-15 Hitachi, Ltd. Method for controlling a management computer
US7761573B2 (en) * 2005-12-07 2010-07-20 Avaya Inc. Seamless live migration of virtual machines across optical networks
JP5229232B2 (ja) * 2007-12-04 2013-07-03 富士通株式会社 リソース貸出制御装置、リソース貸出方法およびリソース貸出プログラム
JP5256744B2 (ja) * 2008-01-16 2013-08-07 日本電気株式会社 資源割当てシステム、資源割当て方法及びプログラム
US8972978B2 (en) * 2008-05-02 2015-03-03 Skytap Multitenant hosted virtual machine infrastructure
US10372490B2 (en) * 2008-05-30 2019-08-06 Red Hat, Inc. Migration of a virtual machine from a first cloud computing environment to a second cloud computing environment in response to a resource or services in the second cloud computing environment becoming available
US9842004B2 (en) * 2008-08-22 2017-12-12 Red Hat, Inc. Adjusting resource usage for cloud-based networks
US8769083B2 (en) * 2009-08-31 2014-07-01 Red Hat, Inc. Metering software infrastructure in a cloud computing environment
JP5487951B2 (ja) * 2009-12-22 2014-05-14 富士通株式会社 運用管理プログラム、運用管理装置および運用管理方法
US8650299B1 (en) * 2010-02-03 2014-02-11 Citrix Systems, Inc. Scalable cloud computing
US8909783B2 (en) * 2010-05-28 2014-12-09 Red Hat, Inc. Managing multi-level service level agreements in cloud-based network
US8504689B2 (en) * 2010-05-28 2013-08-06 Red Hat, Inc. Methods and systems for cloud deployment analysis featuring relative cloud resource importance
US8954586B2 (en) * 2011-07-13 2015-02-10 International Business Machines Corporation Pre-provisioning virtual machines in a networked computing environment
WO2013048986A1 (en) * 2011-09-26 2013-04-04 Knoa Software, Inc. Method, system and program product for allocation and/or prioritization of electronic resources
US8856339B2 (en) * 2012-04-04 2014-10-07 Cisco Technology, Inc. Automatically scaled network overlay with heuristic monitoring in a hybrid cloud environment
US9379995B2 (en) * 2012-09-11 2016-06-28 Vmware, Inc. Resource allocation diagnosis on distributed computer systems based on resource hierarchy
US9015714B2 (en) * 2012-11-27 2015-04-21 Citrix Systems, Inc. Diagnostic virtual machine created to monitor cluster of hypervisors based on user requesting assistance from cluster administrator
US9329888B2 (en) * 2013-01-28 2016-05-03 International Business Machines Corporation Computing optimized virtual machine allocations using equivalence combinations
US8706798B1 (en) * 2013-06-28 2014-04-22 Pepperdata, Inc. Systems, methods, and devices for dynamic resource monitoring and allocation in a cluster system
US9509626B2 (en) * 2013-10-17 2016-11-29 Ciena Corporation Method and apparatus for provisioning a virtual machine (VM) from a network service provider
US9703611B1 (en) * 2014-03-21 2017-07-11 Amazon Technologies, Inc. Isolating resources for utilization by tenants executing in multi-tenant software containers

Also Published As

Publication number Publication date
US20170019345A1 (en) 2017-01-19
US10333859B2 (en) 2019-06-25
JPWO2016030973A1 (ja) 2017-04-27
WO2016030973A1 (ja) 2016-03-03

Similar Documents

Publication Publication Date Title
JP6190969B2 (ja) マルチテナントリソース調停方法
US11425194B1 (en) Dynamically modifying a cluster of computing nodes used for distributed execution of a program
CA2978889C (en) Opportunistic resource migration to optimize resource placement
US8321558B1 (en) Dynamically monitoring and modifying distributed execution of programs
US8260840B1 (en) Dynamic scaling of a cluster of computing nodes used for distributed execution of a program
US8719415B1 (en) Use of temporarily available computing nodes for dynamic scaling of a cluster
US10846129B2 (en) Systems and methods for organizing on-demand migration from private cluster to public cloud
KR101474872B1 (ko) 클라우드 상에 가상 클러스터들의 효율적 구축을 위한 탄력적 가상 클러스터 관리 방법, 이를 이용한 가상 클러스터 관리 장치 및 클라우드 시스템
JPWO2017179537A1 (ja) ソフトウェア更新制御装置、ソフトウェア更新制御システム、ソフトウェア更新制御方法、及び、ソフトウェア更新制御プログラムが格納された記録媒体
KR20130019698A (ko) 사용자 스케줄러와 마이그레이션(Migration)을 통한 자원 최적화 방법 및 시스템
JP2015075898A (ja) 処理再開方法、処理再開プログラムおよび情報処理システム
CN103885811A (zh) 虚拟机系统全系统在线迁移的方法、系统与装置
US10019182B2 (en) Management system and management method of computer system
US20220237016A1 (en) Apparatus for determining resource migration schedule
US10831525B2 (en) Intelligent assignment of virtual machines to compute only or hyper converged nodes
US10776173B1 (en) Local placement of resource instances in a distributed system
US11036599B2 (en) Disaster recovery and replication according to workload priorities in disaggregated datacenters
US9928092B1 (en) Resource management in a virtual machine cluster
US11734038B1 (en) Multiple simultaneous volume attachments for live migration between cloud regions and edge locations
US11336519B1 (en) Evaluating placement configurations for distributed resource placement
US10509567B2 (en) System and method for migrating storage while in use
KR20160043706A (ko) 가상 머신 스케일링 장치 및 그 방법
US10540112B2 (en) System and method for migrating virtual machines with storage while in use
CN113614694A (zh) 使用预测容量使用情况对虚拟机工作负载进行装箱
US20190370134A1 (en) Replicating workload data according to a degree of resiliency for disaster recovery in disaggregated datacenters

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170807

R150 Certificate of patent or registration of utility model

Ref document number: 6190969

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150