JP2020016910A - リソース割当装置、リソース管理システム、および、リソース割当プログラム - Google Patents

リソース割当装置、リソース管理システム、および、リソース割当プログラム Download PDF

Info

Publication number
JP2020016910A
JP2020016910A JP2018137323A JP2018137323A JP2020016910A JP 2020016910 A JP2020016910 A JP 2020016910A JP 2018137323 A JP2018137323 A JP 2018137323A JP 2018137323 A JP2018137323 A JP 2018137323A JP 2020016910 A JP2020016910 A JP 2020016910A
Authority
JP
Japan
Prior art keywords
resource
allocation
physical
virtual
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018137323A
Other languages
English (en)
Other versions
JP7037059B2 (ja
Inventor
敬子 栗生
Keiko Kuriu
敬子 栗生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018137323A priority Critical patent/JP7037059B2/ja
Priority to PCT/JP2019/026624 priority patent/WO2020022018A1/ja
Priority to US17/261,748 priority patent/US11762704B2/en
Publication of JP2020016910A publication Critical patent/JP2020016910A/ja
Application granted granted Critical
Publication of JP7037059B2 publication Critical patent/JP7037059B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5044Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45562Creating, deleting, cloning virtual machine instances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/503Resource availability

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Stored Programmes (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Debugging And Monitoring (AREA)

Abstract

【課題】リソースの提供側と利用側との双方に適したリソース割当を実現すること。【解決手段】リソース割当装置1は、仮想CPUが使用する物理CPUの使用量および物理CPUの特性を仮想CPUごとに規定した割当要求を受け、割当要求で指定された物理CPUの特性に合致する割当用リソース2を選択するフィルタリング部12と、選択された各割当用リソース2の使用可能な使用量と、割当要求で指定された物理CPUの使用量とをもとに、仮想CPUの割当先となる物理CPUを選択するウェイティング部13と、割当先として選定された物理CPUに対して、割当要求で指定された仮想CPUを割り当てる仮想マシン生成部14とを有する。【選択図】図1

Description

本発明は、リソース割当装置、リソース管理システム、および、リソース割当プログラムに関する。
コンピュータシステムを構築および稼動させるためのサーバ基盤技術として、物理的な計算機資源(リソース)を仮想化した仮想デバイスを用いた仮想計算機であるVM(Virtual Machine)が普及している。VMの構成要素となる仮想デバイスとは、例えば、物理CPUを仮想化した仮想CPUなどである。
VMをインフラとして提供するサービス(IaaS:Infrastructure as a Service)に向けて、例えば、非特許文献1に記載のOpenStack(登録商標)は、どのリソース(計算機リソース、ネットワークリソース)をどのVMに割り当てるかを規定するスケジューリング機能を提供している。このスケジューリング機能では、VMを割当可能なリソース候補の選択(フィルタリング)と、選択されたリソース候補からVMを割り当てるリソースを選定するための優先度付け(ウェイティング)という2段階の処理により、各VMの割当先となるリソースを特定する。
以下では、VMが収容する仮想CPUを割当対象とし、その仮想CPUの割当先を物理CPUとして説明する。1台のVMには、1つ以上の仮想CPUが収容される。1つの物理CPUには、1つ以上の仮想CPUが動作している。なお、1つの物理CPUを1つの仮想CPUが占有(dedicated)する方式(占有割当方式)としてもよいし、1つの物理CPUを複数の仮想CPUで共有(shared)する方式(共有割当方式)としてもよい。
IaaSサービスを提供するインフラ運用者は、共有割当方式の物理CPUについて、1つの物理CPU上に何台の仮想CPUを割り当てるかというオーバーコミット率を設定することができる(非特許文献2)。オーバーコミット率を上げて1つの物理CPU上に多くの仮想CPUを割り当てることで、インフラ運用者にとってはリソースの利用効率が高まり、収益性が向上する。
OpenStack、"Filter Scheduler"、[online]、[2018年7月9日検索]、インターネット〈URL:https://docs.openstack.org/nova/latest/user/filter-scheduler.html#filtering〉 OpenStack、"CPU topologies"、[online]、[2018年7月9日検索]、インターネット〈URL:https://docs.openstack.org/nova/pike/admin/cpu-topologies.html〉
一般的なIaaS基盤では、VMを提供するサービス提供者が必要なリソース量を要求し、インフラ運用者は要求されたリソースに基づきスケジューリング機能を利用し適切なリソースを選定する。
ここで、インフラ運用者と、インフラの提供を受けて各消費者にサービスを提供するサービス提供者との間では、IaaSサービスのインフラについての情報共有がなされていないことが多く、両者の情報共有が分断されてしまっていた。そのため、両者にとって、それぞれ以下の問題があった。
本来は少ない負荷で済むようなサービス内容であっても、サービス提供者によって過大なリソース量が要求されてしまうと、インフラ運用者はオーバーコミット率を下げたり占有割当方式を採用したりすることにより、収容効率が上がらないという問題があった。
インフラ運用者の利益を大きくするためにオーバーコミット率を高く設定しすぎると、大きい負荷のサービス内容を実行するときには乏しいリソース量により、サービス提供者にとってはサービス品質が劣化してしまう問題があった。
なお、サービス提供者がインフラ運用者に要求すべき適切なリソースは、サービス提供者のサービス内容に応じて変化することもある。例えば、ネットワーク機能向けVMに使用される仮想CPUとして、パケット転送処理やコネクション接続処理などのネットワーク処理を高速に実行可能な物理CPUが割り当てられることが好ましい。一方で、高性能な画面描画能力を有する物理CPUをネットワーク機能向けVMに割り当ててしまっても、その画面描画能力は使用されずにリソースの無駄となってしまう。
そこで、本発明は、リソースの提供側と利用側との双方に適したリソース割当を実現することを、主な課題とする。
前記課題を解決するために、本発明のリソース割当装置は、以下の特徴を有する。
本発明は、仮想リソースが使用する物理リソースの使用量および前記物理リソースの特性を前記仮想リソースごとに規定した割当要求を受け、前記割当要求で指定された前記物理リソースの特性に合致する割当用リソースを選択するフィルタリング部と、
選択された各前記割当用リソースの使用可能な使用量と、前記割当要求で指定された前記物理リソースの使用量とをもとに、前記仮想リソースの割当先となる前記物理リソースを選定するウェイティング部と、
割当先として選定された前記物理リソースに対して、前記割当要求で指定された前記仮想リソースを割り当てるリソース割当部とを有することを特徴とする。
これにより、物理リソースの特性に合致する割当用リソースを選択することで、リソースの利用側に適したリソース割当となり、割当用リソースの使用可能な使用量をもとに割当用リソースを選択することで、リソースの提供側に適したリソース割当となる。
本発明は、前記ウェイティング部が、選択された各前記割当用リソースの使用可能な使用量が少ないほど、優先的に前記仮想リソースの割当先として選定することを特徴とする。
これにより、用意する割当用リソースの総数を節約できることで、割当用リソースの提供者の収益性が向上する。
本発明は、前記のリソース割当装置と、前記割当用リソースを運用するインフラ運用者の端末と、前記割当用リソースを受けてサービスを提供するサービス提供者の端末とを含めて構成されるリソース管理システムであって、
前記インフラ運用者の端末が、前記割当用リソースごとの性能データおよび特性データを前記サービス提供者の端末に通知し、
前記サービス提供者の端末が、通知された前記割当用リソースごとの性能データから前記仮想リソースが使用する前記物理リソースの使用量を特定するとともに、通知された前記割当用リソースごとの特性データから前記仮想リソースが使用する前記物理リソースの特性を特定することで、前記割当要求を作成することを特徴とする。
これにより、インフラ運用者とサービス提供者との間の情報共有により、双方に都合の良い物理リソースが割り当てられる。
本発明は、前記インフラ運用者の端末が、前記割当用リソースごとの性能データとして、前記割当用リソースが物理CPUであるときのCPU使用率を、物理CPU上で動作させるプロセス種別ごとに通知し、
前記サービス提供者の端末が、事前に入力されているサービスのプロセス種別から、通知されたプロセス種別ごとのCPU使用率をもとに、前記仮想リソースが使用するCPU使用率を前記物理リソースの使用量として求めることを特徴とする。
これにより、サービス提供者は、自身の提供するサービス内容に適した物理リソースの割当要求をインフラ運用者に通知できる。
本発明によれば、リソースの提供側と利用側との双方に適したリソース割当を実現することができる。
本実施形態に係わるリソース管理システムの構成図である。 本実施形態に係わるリソース割当処理を示すシーケンス図である。 本実施形態に係わるリソース管理情報を示すテーブルである。 本実施形態に係わるリソース割当定義ファイルを示すテーブルである。 本実施形態に係わるリソース管理部に格納される第1テーブルを示す。 本実施形態に係わるリソース管理部に格納される第2テーブルおよび第3テーブルを示す。 本実施形態に係わるリソース管理部に格納される第4テーブルを示す。
以下、本発明の一実施形態について、図面を参照して詳細に説明する。
図1は、リソース管理システムの構成図である。
リソース管理システムは、リソース割当装置1と、割当用リソース2と、サービス提供者端末(サービス提供者の端末)3と、インフラ運用者端末(インフラ運用者の端末)4とがネットワークで接続されて構成される。これらの各装置は、それぞれCPU(Central Processing Unit)と、メモリと、ハードディスクなどの記憶手段(記憶部)と、ネットワークインタフェースとを有するコンピュータとして構成される。
このコンピュータは、CPUが、メモリ上に読み込んだプログラム(アプリケーションや、その略のアプリとも呼ばれる)を実行することにより、各処理部により構成される制御部(制御手段)を動作させる。
インフラ運用者端末4は、割当用リソース2をIaaSとして、サービス提供者端末3に提供する。リソース割当装置1は、割当用リソース2の状況を管理するとともに、個別のリソース割当処理を担当する。そして、インフラ運用者端末4は、リソース割当装置1から取得した割当用リソース2に関する情報を、リソース管理情報31としてサービス提供者端末3に提供する(詳細は図3)。
サービス提供者端末3は、図示しない顧客に向けてサービスを提供する。サービス提供者は、提供するサービスを構築するための個々のプロセス種別(「パケット処理」、「バッチ処理」など)と、そのプロセス種別をVMで実行させる頻度とを、サービス提供者端末3に事前に入力しておく。
サービス提供者端末3は、提供されたリソース管理情報31と、事前に入力された情報とをもとに、提供するサービスを構築するために要求するリソースの詳細をリソース割当定義ファイル32として作成し、そのリソース割当定義ファイル32をリソース割当装置1に通知することで、リソースの割当を要求する(詳細は図4)。
つまり、インフラ運用者端末4がリソース管理情報31を送信し、サービス提供者端末3がリソース割当定義ファイル32を送信することで、両者間で事前の情報交換が行われる。
リソース割当装置1は、処理部10として、リソース割当決定部11と、フィルタリング部12と、ウェイティング部13と、仮想マシン生成部(リソース割当部)14とを有する。また、リソース割当装置1は、処理部10が扱うデータを記憶するために、リソース管理部15を有する(詳細は図5〜図7)。
リソース割当決定部11は、リソース管理部15で管理する割当用リソース2の特性と、リソース割当定義ファイル32で要求された仮想CPUの特性とを踏まえ、要求された各仮想CPU(仮想リソース)を適切な物理CPU(物理リソース)に割り当てるように、スケジューリングを制御する。つまり、リソース割当決定部11は、他の各処理部(フィルタリング部12と、ウェイティング部13と、仮想マシン生成部14)に対して、以下に示す3段階のスケジューリングを指示する。
・第1段階として、フィルタリング部12は、仮想CPUの特性と同一の特性を持つ物理CPUを選択する。
・第2段階として、ウェイティング部13は、選択された物理CPUに対して、仮想CPUの使用率に合う物理CPUを割当先として選定する。
・第3段落として、仮想マシン生成部14は、割当先の物理CPU上に仮想CPUを割り当てるとともに、その仮想CPUを収容するVM(仮想マシン)を生成する。
リソース管理部15は、スケジューリングの各段階で使用するデータを保存するとともに、各処理部10の要求に応じて保存したデータを読み書きする。
図2は、リソース割当処理を示すシーケンス図である。サービス提供者がVMのデプロイする場合のフローを以下に示す。
S101として、インフラ運用者端末4は、リソース割当装置1から取得した割当用リソース2に関する情報を、リソース管理情報31としてサービス提供者端末3に提供する(図3)。
S102として、サービス提供者端末3は、提供されたリソース管理情報31と、事前に入力された情報とをもとに、提供するサービスを構築するために要求するリソースを割当用リソース2から選択する。
S103として、サービス提供者端末3は、S102の選択結果を記載したリソース割当定義ファイル32をリソース割当装置1のリソース割当決定部11に通知することで、リソースの割当(デプロイ)を指示する(図4)。
S104として、リソース割当決定部11は、割当用リソース2から現在割当可能なリソースを、リソース管理部15に要求する。
S105として、リソース管理部15は、保存したデータから現在割当可能なリソースを読み出す。
S106として、リソース管理部15は、S105で読み出したデータをリソース候補として、リソース割当決定部11に返却する(図5)。
S107として、フィルタリング部12は、リソース割当決定部11から通知されたS106のリソース候補を対象に、リソース割当定義ファイル32で指定された仮想CPUの特性と同一の特性を持つ物理CPUを選択する(図6)。
S108として、ウェイティング部13は、S107で選択された物理CPUに対して、仮想CPUの使用率に合う物理CPUを割当先として選定する(図6)。
S111として、ウェイティング部13は、S108の割当先の物理CPUを割当リソースとしてリソース管理部15に通知する。
S112として、リソース管理部15は、S111で通知された割当リソースに仮想CPUを割り当てた後の割当用リソース2の状況に適合するように、管理しているリソースを更新する(図7)。
S113として、仮想マシン生成部14は、S108の割り当て先の物理CPU上に仮想CPUを割り当てるとともに、その仮想CPUを収容するVM(仮想マシン)を生成するように、割当用リソース2に指示する。
S114として、割当用リソース2は、S113の指示を受け、仮想CPUとその仮想CPUを収容するVMを生成する。
S115として、割当用リソース2は、S114のVM生成処理が完了したことを、仮想マシン生成部14に通知する。
S116として、リソース割当決定部11は、S103のデプロイ要求の処理が完了したことを、サービス提供者端末3に通知する。
図3は、リソース管理情報31を示すテーブルである。リソース管理情報31は、割当用リソース2の性能を示すベンチマークリスト31aと、割当用リソース2の処理特性を示す処理特性パラメータリスト31bとで構成される。
ベンチマークリスト31aは、パケット処理などのプロセス種別ごとに、そのプロセス種別が割当用リソース2上で実行されることで、どの程度のリソース量が消費されるかという使用状況を示すデータである。図3では、ベンチマークリスト31aの使用状況として、CPU使用率を例示している。このCPU使用率は、例えば、定められた環境下で測定したときのCPU使用率の平均値でもよいし、プロセスを起動したときのCPU使用率の最大値でもよい。
また、図3では、1種類の割当用リソース2に対して、4種類のプロセス種別のデータを例示したが、複数種類の割当用リソース2について、割当用リソース2ごとのプロセス種別のデータを用意してもよい。
処理特性パラメータリスト31bは、割当用リソース2の処理特性と特性値とを対応付けるデータである。処理特性とは、例えば、図3で例示した単位時間当たりの起動回数でもよいし、処理実行時の実行時間でもよい。特性値は、処理特性の範囲に割り当てられたF1,F2,F3などのIDである。
図4は、リソース割当定義ファイル32を示すテーブルである。リソース割当定義ファイル32は、割当を要求する仮想CPUごとに、その仮想CPU上で動作させるプロセス種別と、そのプロセス種別において要求するCPU使用率などの負荷量と、そのプロセス種別における実行頻度などの処理特性とを対応付けるデータである。
例えば、サービス提供者端末3には、以下の提供するサービスに関する情報が、サービス提供者から事前に入力されているとする。
・パケット処理を5回実行する。
・バッチ処理を30回実行する。
サービス提供者端末3は、ベンチマークリスト31aを参照して、パケット処理に対応するCPU使用率50%と、バッチ処理に対応するCPU使用率20%とを求める。
サービス提供者端末3は、処理特性パラメータリスト31bを参照して、パケット処理に対応する特性値F1と、バッチ処理に対応する特性値F2とを求める。
そして、サービス提供者端末3は、それぞれ求めた情報をもとに、パケット処理を動作させる仮想CPU「V1」と、バッチ処理を動作させる仮想CPU「V2」とを含むVMを要求する旨のリソース割当定義ファイル32を作成する。
図5は、リソース管理部15に格納される第1テーブル15aを示す。この第1テーブル15aは、S105でリソース管理部15が読み出した、現在割当可能なリソース候補である。
第1テーブル15aは、割当用リソース2の物理CPUごとに、現在の使用可能な残りのCPU使用率(残使用可能率)と、物理CPUの特性値とが対応付けられている。
例えば、物理CPU「C1」は、残使用可能率が20%なので、既に他の仮想CPUが割り当てられた状態である。つまり、物理CPU「C1」に対して新たに仮想CPUを割り当てるときには、共有割当方式となる。
一方、物理CPU「2」は、残使用可能率が100%なので、現時点ではどの仮想CPUも割り当てられていない状態である。つまり、物理CPU「C2」に対して新たに仮想CPUを割り当てるときには、占有割当方式としてもよい。
図6は、リソース管理部15に格納される第2テーブル15bおよび第3テーブル15cを示す。
第2テーブル15bは、S107として、フィルタリング部12が、第1テーブル15aの物理CPUの特性値と、リソース割当定義ファイル32で指定された仮想CPUの特性値とを照合した結果である。第2テーブル15bは、仮想CPUと、その割当先候補となる物理CPUとの組み合わせについて、互いの特性値が同じであるときは「候補」とし、特性値が異なるときには「否」とする採否欄を有する。
さらに、フィルタリング部12は、リソース割当定義ファイル32で指定された仮想CPUの使用率以上の残使用可能率をもつ第1テーブル15aの物理CPUを、「候補」に採用してもよい。
第3テーブル15cは、S108として、ウェイティング部13が、第2テーブル15bで「候補」となる組み合わせについて、仮想CPUごとに割当先候補となる物理CPUを選定するための順位付け(重み付け=ウェイティング)を行った結果を格納する。順位が小さいほど、優先して割当先に選ばれる。
ウェイティング部13は、同じ仮想CPUに対応する割当先候補について、第1テーブル15aの残使用可能率が小さい順に、第3テーブル15cの順位を決定する。例えば、仮想CPU「V1」には、C2,C4という2つの物理CPUが割当先候補となっている。そのうち、物理CPU「C4」の残使用可能率「50%」は、物理CPU「C2」の残使用可能率「100%」よりも小さいので、物理CPU「C4」の順位が1位になる。
図7は、リソース管理部15に格納される第4テーブル15dを示す。
第4テーブル15dは、第3テーブル15cの順位=1位の割当先候補を割当先として決定した後の、第1テーブル15aの更新処理(S112)の結果を示す。
物理CPU「C1」の残使用可能率は「20%」から「0%」に減少している。これは、仮想マシン生成部14が仮想CPU「V2」を物理CPU「C1」に割り当てた結果、リソース割当定義ファイル32の仮想CPU「V2」で指定されたバッチ処理の使用率「20%」が消費されたためである。
物理CPU「C4」の残使用可能率は「50%」から「0%」に減少している。これは、仮想マシン生成部14が仮想CPU「V1」を物理CPU「C4」に割り当てた結果、リソース割当定義ファイル32の仮想CPU「V1」で指定されたパケット処理の使用率「50%」が消費されたためである。
以上説明した本実施形態では、コンピュータシステムを構築および稼動させるためのサーバ基盤技術について、サービス提供者が把握している仮想CPUの特性と、インフラ運用者が把握している物理CPUの特性とを事前に情報交換させることで、リソース割当装置1は、割り当てるリソースを適切に判断できる。
リソース割当装置1による割当結果は、以下に示すように、サービス提供者の要望と、インフラ運用者の要望とをバランスよく満たすことができるものである。
・フィルタリング部12がリソース割当定義ファイル32に適合しないリソースを事前にふるい落とすことで、サービス提供者は、サービス内容を円滑に(停止したり、性能不足になったりせずに)提供できる。
・ウェイティング部13がリソース管理部15内の残使用可能率からリソースの利用効率がよい順序でリソースの選別順序を決定する。例えば残使用可能率が少ないリソースほど優先して選択(共有割当方式)することで、用意する物理CPUの総数を節約できる。これにより、インフラ運用者は、物理CPUごとのオーバーコミット率のようなパラメータ値を考慮することなく、割当用リソース2にVMを効率よく収容できる。
一方、従来は、インフラ運用者がOpenStackの動作パラメータとして、占有割当方式か共有割当方式かを物理CPUごとに選択できたり、共有割当方式におけるオーバーコミット率を設定できたりするものの、どのような動作パラメータをどのVMに設定するか、などの運用コマンドの入力には、インフラ運用者の経験と勘による試行錯誤を要していた。
なお、本実施形態においては、本発明にかかる割当用リソース2は、図1に示すように、3つとして例示したが、これらの個数や構成に限定されない。また、本発明では、一般的なコンピュータのハードウェア資源を、リソース割当装置1、サービス提供者端末3、インフラ運用者端末4の各手段として動作させるプログラムによって実現することができる。そして、このプログラムは、通信回線を介して配布したり、CD−ROM等の記録媒体に記録して配布したりすることも可能である。
1 リソース割当装置
2 割当用リソース
3 サービス提供者端末(サービス提供者の端末)
4 インフラ運用者端末(インフラ運用者の端末)
10 処理部
11 リソース割当決定部
12 フィルタリング部
13 ウェイティング部
14 仮想マシン生成部(リソース割当部)
15 リソース管理部
31 リソース管理情報
31a ベンチマークリスト
31b 処理特性パラメータリスト
32 リソース割当定義ファイル

Claims (5)

  1. 仮想リソースが使用する物理リソースの使用量および前記物理リソースの特性を前記仮想リソースごとに規定した割当要求を受け、前記割当要求で指定された前記物理リソースの特性に合致する割当用リソースを選択するフィルタリング部と、
    選択された各前記割当用リソースの使用可能な使用量と、前記割当要求で指定された前記物理リソースの使用量とをもとに、前記仮想リソースの割当先となる前記物理リソースを選定するウェイティング部と、
    割当先として選定された前記物理リソースに対して、前記割当要求で指定された前記仮想リソースを割り当てるリソース割当部とを有することを特徴とする
    リソース割当装置。
  2. 前記ウェイティング部は、選択された各前記割当用リソースの使用可能な使用量が少ないほど、優先的に前記仮想リソースの割当先として選定することを特徴とする
    請求項1に記載のリソース割当装置。
  3. 請求項1または請求項2に記載のリソース割当装置と、前記割当用リソースを運用するインフラ運用者の端末と、前記割当用リソースを受けてサービスを提供するサービス提供者の端末とを含めて構成されるリソース管理システムであって、
    前記インフラ運用者の端末は、前記割当用リソースごとの性能データおよび特性データを前記サービス提供者の端末に通知し、
    前記サービス提供者の端末は、通知された前記割当用リソースごとの性能データから前記仮想リソースが使用する前記物理リソースの使用量を特定するとともに、通知された前記割当用リソースごとの特性データから前記仮想リソースが使用する前記物理リソースの特性を特定することで、前記割当要求を作成することを特徴とする
    リソース管理システム。
  4. 前記インフラ運用者の端末は、前記割当用リソースごとの性能データとして、前記割当用リソースが物理CPUであるときのCPU使用率を、物理CPU上で動作させるプロセス種別ごとに通知し、
    前記サービス提供者の端末は、事前に入力されているサービスのプロセス種別から、通知されたプロセス種別ごとのCPU使用率をもとに、前記仮想リソースが使用するCPU使用率を前記物理リソースの使用量として求めることを特徴とする
    請求項3に記載のリソース管理システム。
  5. リソース割当装置としてのコンピュータに、フィルタリング部と、ウェイティング部と、リソース割当部とを実現させるためのリソース割当プログラムであって、
    前記フィルタリング部は、仮想リソースが使用する物理リソースの使用量および前記物理リソースの特性を前記仮想リソースごとに規定した割当要求を受け、前記割当要求で指定された前記物理リソースの特性に合致する割当用リソースを選択し、
    前記ウェイティング部は、選択された各前記割当用リソースの使用可能な使用量と、前記割当要求で指定された前記物理リソースの使用量とをもとに、前記仮想リソースの割当先となる前記物理リソースを選定し、
    前記リソース割当部は、割当先として選定された前記物理リソースに対して、前記割当要求で指定された前記仮想リソースを割り当てることを特徴とする
    リソース割当プログラム。
JP2018137323A 2018-07-23 2018-07-23 リソース管理システム、および、リソース割当プログラム Active JP7037059B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018137323A JP7037059B2 (ja) 2018-07-23 2018-07-23 リソース管理システム、および、リソース割当プログラム
PCT/JP2019/026624 WO2020022018A1 (ja) 2018-07-23 2019-07-04 リソース割当装置、リソース管理システム、および、リソース割当プログラム
US17/261,748 US11762704B2 (en) 2018-07-23 2019-07-04 Resource allocation device, resource management system, and resource allocation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018137323A JP7037059B2 (ja) 2018-07-23 2018-07-23 リソース管理システム、および、リソース割当プログラム

Publications (2)

Publication Number Publication Date
JP2020016910A true JP2020016910A (ja) 2020-01-30
JP7037059B2 JP7037059B2 (ja) 2022-03-16

Family

ID=69181395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018137323A Active JP7037059B2 (ja) 2018-07-23 2018-07-23 リソース管理システム、および、リソース割当プログラム

Country Status (3)

Country Link
US (1) US11762704B2 (ja)
JP (1) JP7037059B2 (ja)
WO (1) WO2020022018A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230169712A1 (en) 2020-02-28 2023-06-01 Nippon Telegraph And Telephone Corporation Resource estimation apparatus, resource estimation method and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007136021A1 (ja) * 2006-05-24 2007-11-29 Nec Corporation 仮想マシン管理装置、仮想マシン管理方法およびプログラム
JP2011028705A (ja) * 2009-07-24 2011-02-10 Tops Systems:Kk プロセッサの並列ソフトウェア実行方式
WO2012039053A1 (ja) * 2010-09-24 2012-03-29 株式会社日立製作所 計算機システムの運用管理方法、計算機システム及びプログラムを記憶する計算機読み取り可能な媒体

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9256467B1 (en) * 2014-11-11 2016-02-09 Amazon Technologies, Inc. System for managing and scheduling containers

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007136021A1 (ja) * 2006-05-24 2007-11-29 Nec Corporation 仮想マシン管理装置、仮想マシン管理方法およびプログラム
JP2011028705A (ja) * 2009-07-24 2011-02-10 Tops Systems:Kk プロセッサの並列ソフトウェア実行方式
WO2012039053A1 (ja) * 2010-09-24 2012-03-29 株式会社日立製作所 計算機システムの運用管理方法、計算機システム及びプログラムを記憶する計算機読み取り可能な媒体

Also Published As

Publication number Publication date
US11762704B2 (en) 2023-09-19
JP7037059B2 (ja) 2022-03-16
US20210334145A1 (en) 2021-10-28
WO2020022018A1 (ja) 2020-01-30

Similar Documents

Publication Publication Date Title
US20190324819A1 (en) Distributed-system task assignment method and apparatus
JP5400482B2 (ja) 管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム
JP5244236B2 (ja) 計算機システム、方法、およびプログラム
US10108458B2 (en) System and method for scheduling jobs in distributed datacenters
KR100998391B1 (ko) 데이터 처리 시스템을 관리하는 규정 설정 방법, 컴퓨터 판독 가능한 저장 매체 및 시스템
JP2007272263A (ja) 計算機の管理方法、計算機システム、及び管理プログラム
KR20160087706A (ko) 가상화 플랫폼을 고려한 분산 데이터 처리 시스템의 자원 할당 장치 및 할당 방법
JP2014532946A (ja) クラスタに依頼されたタスクを実行するために前記クラスタのコンピュータ資源を割り当てるための方法、コンピュータプログラム、およびデバイス
JP6010975B2 (ja) ジョブ管理装置、ジョブ管理方法、及びプログラム
WO2020158452A1 (ja) 仮想化基盤および仮想化基盤のスケーリング管理方法
JP2006163482A (ja) 情報処理装置の制御方法、情報処理装置、及びプログラム
JP6511025B2 (ja) リソース割当装置、リソース割当方法およびリソース割当プログラム
WO2020022018A1 (ja) リソース割当装置、リソース管理システム、および、リソース割当プログラム
JP2011192049A (ja) 仮想マシンシステム、自動マイグレーション方法および自動マイグレーションプログラム
WO2017051474A1 (ja) 計算機システムの管理方法及び計算機システム
JP5577745B2 (ja) クラスタシステム、プロセス配置方法、及びプログラム
CN116157778A (zh) 共享物理主机上混合集中分布式调度的系统和方法
JP2015022385A (ja) 仮想システムおよび仮想システム制御方法
KR100788328B1 (ko) 그리드 컴퓨팅을 이용한 미들웨어 시스템 및 그 동작 방법
WO2020024207A1 (zh) 处理业务请求的方法、装置与存储系统
JP6191361B2 (ja) 情報処理システム、情報処理システムの制御方法及び制御プログラム
JP2012181673A (ja) リソース割当装置、リソース割当方法、およびプログラム
KR102014246B1 (ko) 리소스 통합관리를 위한 메소스 처리 장치 및 방법
JP2012038275A (ja) 取引計算シミュレーションシステム、方法及びプログラム
JP6374059B2 (ja) コンピュータ資源配分決定方法、コンピュータ資源配分決定方法プログラムおよび制御用コンピュータ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220214

R150 Certificate of patent or registration of utility model

Ref document number: 7037059

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150