JP2010282420A - 管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム - Google Patents

管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム Download PDF

Info

Publication number
JP2010282420A
JP2010282420A JP2009135181A JP2009135181A JP2010282420A JP 2010282420 A JP2010282420 A JP 2010282420A JP 2009135181 A JP2009135181 A JP 2009135181A JP 2009135181 A JP2009135181 A JP 2009135181A JP 2010282420 A JP2010282420 A JP 2010282420A
Authority
JP
Japan
Prior art keywords
resource
amount
pool
physical
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009135181A
Other languages
English (en)
Other versions
JP2010282420A5 (ja
JP5400482B2 (ja
Inventor
Kentaro Watanabe
健太郎 渡邊
Kimitoku Sugauchi
公徳 菅内
Hideharu Kato
英晴 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2009135181A priority Critical patent/JP5400482B2/ja
Priority to US12/558,866 priority patent/US8131855B2/en
Publication of JP2010282420A publication Critical patent/JP2010282420A/ja
Publication of JP2010282420A5 publication Critical patent/JP2010282420A5/ja
Priority to US13/408,495 priority patent/US9197698B2/en
Application granted granted Critical
Publication of JP5400482B2 publication Critical patent/JP5400482B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5011Pool

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Debugging And Monitoring (AREA)

Abstract

【課題】あるリソースプールに関連付けられた複数の仮想サーバが複数の物理サーバに分散して配置された環境において、管理者によるリソースプールおよび仮想サーバのリソース管理を容易にする。
【解決手段】複数の物理サーバ104と、物理サーバ104で稼動する複数の仮想サーバ120と、物理サーバ104にネットワーク207を介して接続される管理サーバ101と、を備える情報処理システムにおけるリソース管理方法において、リソースプール130に関連付けられた仮想サーバ120と仮想サーバ120が稼動する物理サーバ104を特定し、特定した物理サーバ104の性能情報を収集し、収集した性能情報に基づいてリソースプール130の性能情報を算出することを特徴とする。
【選択図】図1

Description

本発明は、計算機の管理として、特に複数の計算機のリソースを管理する技術に関する。
企業の情報処理システム及び企業のデータセンタにおいて、サーバの保有台数が増大している。これに伴って、サーバの運用管理コストが増大している。
この問題を解決するため、サーバを仮想化する技術が知られている。サーバを仮想化する技術は、複数の仮想サーバが単一の物理サーバで稼動できる技術である。具体的には、物理サーバに備わるプロセッサ(CPU:Central Processing Unit)及びメモリ等のリソースが分割され、分割された物理サーバのリソースが、それぞれ複数の仮想サーバに割り当てられる。そして、単一の物理サーバで複数の仮想サーバが同時に稼動する。
今日、CPUの処理性能が向上したこと及びメモリ等のリソースのコストが低下したことによって、サーバを仮想化する技術に関する需要が増大している。
また、サーバを仮想化する技術は、複数の仮想サーバが単一の物理サーバで稼動できるというメリットの他に、複数の仮想サーバでワークロード管理をすることによって、物理サーバのリソースをより有効に利用できるというメリットももたらす。
ここで、ワークロード管理とは、物理サーバの負荷等の状況に応じて、仮想サーバに割り当てられる物理サーバのリソースの量を変更することである。例えば、ある仮想サーバの負荷が高くなった場合、同じ物理サーバで稼動する負荷の低い仮想サーバに割り当てられている物理サーバのリソースを負荷の高い仮想サーバに割り当てる。これによって、物理サーバのリソースを有効に利用できる。
さらに、リソースプールを用いると、グループ化した仮想サーバに対して、割り当てるリソース量をまとめて管理できる。グループ化した仮想サーバに割り当てる合計リソース量を設定し、グループ化した仮想サーバ間で設定した合計リソース量のリソースを共有させることができる。リソースプールの利用者は、リソースプールの合計リソース量内であれば、仮想サーバのサイズを拡張したり、仮想サーバを新たに作成したりできる。
また、グループ内で適用されるリソース割当てポリシを設定でき、例えば、グループ内の仮想サーバ内でリソースを競合した場合には優先的にリソースを割り当てる仮想サーバを設定することもできる。さらに、グループに占有的にリソースを割り当てるだけでなく、グループ間でリソースを共有させることもできる。グループ間で共有するリソースを競合した場合に、優先的にリソースを割り当てるグループを設定できるような割当てポリシを設定できる。
このように、リソースプールのリソース管理をすることによって、複数の物理サーバのリソースをより有効に利用できる(特許文献1、特許文献2、非特許文献1参照)。
特開2007−272263号公報 特開平2−122363号公報
[online][平成21年4月17日検索]、インターネット<URL: http://www.vmware.com/files/jp/pdf/vi3_35_25_u2_resource_mgmt_ja.pdf> VMware, Inc「リソース管理ガイド」
しかし、従来のリソースプールのリソース管理では、主にリソースプールの構成やリソース使用状況を監視するため、リソース管理を行う管理者の所望するリソース管理を実現できない場合がある。
例えば、ある仮想サーバは、一般に、同時に複数の物理サーバ上には存在できず、ある一時点では必ず一つの物理サーバ上にある必要がある。複数の物理サーバのリソースの一部をそれぞれ分割して仮想サーバに割り当てることができない。このような物理的なリソースの制約があるため、リソースプールには十分な空きリソースがあっても、リソースプールを構成する物理サーバに空きリソースが不足していると、リソースプール上に十分なリソースが割り当てられた仮想サーバを作成できない。また、リソースプールに十分な空きリソースがあっても、物理サーバに空きリソースが不足していると、リソースプールに属する仮想サーバは、物理サーバの空きリソース以上には割り当てリソースを拡張できない。
このように、リソースプールに十分な空きリソースがあるにも関わらず仮想サーバをリソースプールに追加できない理由を管理者が特定できなかったり、仮想サーバが十分なリソースを確保できない理由を管理者が特定できなかったりする場合があり、リソース管理が容易でない。
このような事情を鑑みて、本発明の課題は、あるリソースプールに関連付けられた複数の仮想サーバが単一または複数の物理サーバに分散して配置された環境において、管理者によるリソースプールおよび仮想サーバのリソース管理を容易にすることである。
本発明は、演算処理をするプロセッサと、プロセッサに接続されるメモリと、メモリに接続されるインターフェースと、を備える複数の物理サーバと、物理サーバで稼動する複数の仮想サーバと、物理サーバにネットワークを介して接続され、演算処理をするプロセッサと、プロセッサに接続されるメモリと、メモリに接続されるインターフェースと、を備える管理計算機と、を備える情報処理システムにおけるリソースの管理方法であって、管理計算機は、物理サーバと当該物理サーバで稼動する仮想サーバとを対応付ける情報と、一つまたは複数の仮想サーバをグループとして管理する情報と、を備え、グループの指定を受け付けて、当該グループに対応する仮想サーバを特定し、特定した仮想サーバが稼動する物理サーバを特定し、特定した物理サーバの処理性能を収集し、収集した処理性能に基づいてリソースプールの処理性能を算出することを特徴とする。
このように本発明では、リソースプールを構成する物理サーバを意識したリソース管理がなされるため、管理者は、物理的なリソースの制約により発生した事象を特定することができ、リソースの管理が容易になる。
近年では、仮想サーバに要求されるリソース量が大きくなり、物理サーバのリソース量に近づいている。そのため、物理サーバのリソース量の空きがほとんど無い状態で、十分なリソース量の空きがあるリソースプールの管理が行われることが通常である。そのような管理において、リソースプールの管理者が物理サーバを監視することができるようになるのは非常に有益である。従来は、仮想サーバに要求されるリソース量がそれほど大きくなかったので、リソースプールの管理者が物理サーバに着目する必要性は乏しかった。
詳細は後記する。
本発明によれば、あるリソースプールに関連付けられた複数の仮想サーバが単一または複数の物理サーバに分散して配置された環境において、管理者によるリソースプールおよび仮想サーバのリソース管理を容易にすることができる。
本発明の第1の実施の形態の情報処理システムの構成図 情報処理システムのハードウェア構成図 仮想サーバ性能テーブル300の構成図 物理サーバ性能テーブル400の構成図 プール性能テーブル500の構成図 仮想サーバ物理サーバ対応テーブル600の構成図 仮想サーバプール対応テーブル700の構成図 プール物理サーバ対応テーブル800の構成図 プール構成テーブル900の構成図 本発明の第1の実施の形態のリソースプールの管理を示す図 第1の実施の形態の表示部114の処理動作を示すフロー図 第1の実施の形態のリソースプール130の性能情報を表示する画面を示す図 第1の実施の形態のリソースプール130の性能情報を表示する画面を示す図 第1の実施の形態のリソースプール130の性能情報を表示する画面を示す図 シミュレーション部115の処理フロー図 リソースプール130が物理サーバ群を占有しているときの処理動作のフロー図 リソースプール130が物理サーバ群を占有しているときの処理動作のフロー図 リソースプール130が物理サーバ群を占有しているときの処理動作のフロー図 サイズ固定のリソースプール130が物理サーバ群を共有しているときの処理動作のフロー図 サイズ固定のリソースプール130が物理サーバ群を共有しているときの処理動作のフロー図 サイズ固定のリソースプール130が物理サーバ群を共有しているときの処理動作のフロー図 サイズ変動のリソースプール130が物理サーバ群を共有しているときの処理動作のフロー図 サイズ変動のリソースプール130が物理サーバ群を共有しているときの処理動作のフロー図 サイズ変動のリソースプール130が物理サーバ群を共有しているときの処理動作のフロー図 プール管理部110の処理動作のフロー図 本発明の第1の実施の形態のリソースプールの管理を示す図 本発明の第1の実施の形態のリソースプールの管理を示す図 本発明の第2の実施の形態の仮想サーバ性能テーブル300の構成図 本発明の第2の実施の形態の物理サーバ性能テーブル400の構成図 本発明の第2の実施の形態のプール性能テーブル500の構成図
≪第1の実施の形態≫
図1は、本発明の第1の実施の形態の情報処理システムの構成図である。
本実施の形態の情報処理システムは、管理サーバ(管理計算機)101と、物理サーバ104と、端末103と、を備える。
管理サーバ101と、物理サーバ104と、端末103は、ネットワーク207を介して接続されている。物理サーバ104は、サーバ仮想化プログラム121を備え、そのプログラムを読み出して処理を実行することにより、仮想サーバ120をその物理サーバ104上に稼働する。
管理サーバ101、物理サーバ104、端末103は、計算機201(図2参照)として構成されている。
図2は、計算機201、外部記憶装置206、ネットワーク207、入力装置208、出力装置209を示す、情報処理システムのハードウェア構成図である。
計算機201は、CPU(制御装置)202、主記憶装置(記憶装置)203、外部記憶装置インターフェース204、通信インターフェース205、を備える。外部記憶装置インターフェース204は、外部記憶装置(記憶装置)206に接続され、通信インターフェース205は、ネットワーク207に接続されている。また、計算機201は、入力装置(例:キーボード、ポインティングデバイス)208と、出力装置(表示装置(例:ディスプレイ))209が接続されている。また、管理サーバ101は、図示していないがコンソールを備える。なお、管理サーバ101が、コンソールを備えなくとも、管理サーバ101にネットワーク207を介して接続する別の計算機が、コンソールを備えていても良い。
また、計算機201は、外部記憶装置206、入力装置208、出力装置209を含めて備えた構成としても良い。
管理サーバ101は、物理サーバ104と、サーバ仮想化プログラム121と、仮想サーバ120と、リソースプール130を管理および制御する。本実施の形態では、リソースプール130は、管理サーバ101とは別の計算機において専用のプログラム(リソースプール構成用のプログラム)を用いて物理サーバ104から構成され、その計算機が記憶し、管理サーバ101からの指令に従って、管理サーバ101によるリソースプール130の管理を実現するものとして説明する。しかし、管理サーバ101がリソースプール130を記憶して管理しても良い。
管理サーバ101は、プール管理部110と、制御部111と、性能管理部112と、構成管理部113と、表示部114と、シミュレーション部115と、記憶部119を備える。
プール管理部110は、リソースプール130のリソース量を、例えば記憶部119に記憶されている各種テーブル(300〜900)を用いて管理する処理部である。
制御部111は、サーバ仮想化プログラム121を介して仮想サーバ120を制御する処理部である。
性能管理部112は、仮想サーバ120、物理サーバ104、リソースプール130の性能情報を管理する処理部である。サーバ仮想化プログラム121を介して、性能情報を収集し、記憶部119に、後述する仮想サーバ性能テーブル300と、後述する物理サーバ性能テーブル400と、後述するプール性能テーブル500に、当該性能情報を記録する。また、表示部114やその他の処理部が要求した性能情報を、仮想サーバ性能テーブル300や、物理サーバ性能テーブル400や、プール性能テーブル500から読み込み、応答する。
構成管理部113は、仮想サーバ120、物理サーバ104、リソースプール130の構成情報を管理する処理部である。サーバ仮想化プログラム121を介して、構成情報を収集し、記憶部119に、後述する仮想サーバ物理サーバ対応テーブル600と、後述する仮想サーバプール対応テーブル700と、後述するプール物理サーバ対応テーブル800と、後述するプール構成テーブル900を記録する。また、表示部114やその他の処理部が要求した構成情報を、仮想サーバ物理サーバ対応テーブル600や、仮想サーバプール対応テーブル700や、プール物理サーバ対応テーブル800や、プール構成テーブル900から読込み、応答する。
表示部114は、管理サーバ101を操作する管理者の要求に応じて、仮想サーバ120、物理サーバ104、リソースプール130の性能情報または構成情報を表示する処理部である。
シミュレーション部115は、仮想サーバ120、物理サーバ104、リソースプール130のリソース量をシミュレーションして算出する処理部である。
記憶部119は、管理サーバ101の管理情報(性能情報、構成情報その他の管理サーバ101によるリソースの管理に必要な情報の総称)の記憶領域である。
記憶部119は、仮想サーバ性能テーブル300と、物理サーバ性能テーブル400と、プール性能テーブル500と、仮想サーバ物理サーバ対応テーブル600と、仮想サーバプール対応テーブル700と、プール物理サーバ対応テーブル800と、プール構成テーブル900と、を備える。また、管理サーバ110の処理部による処理結果やネットワーク207上で取得したデータ等を一時的または半永久的に記憶する。
仮想サーバ性能テーブル300は、仮想サーバ120のリソース割当てに関する性能情報および性能情報に関係する設定情報を記憶するテーブルである。
図3は、仮想サーバ性能テーブル300の構成図である。各行に、仮想サーバ120に割り当てられたCPU202に関する性能情報と性能情報に関係する設定情報を記録している。これらの性能情報は、クロック周波数で表現している。
なお、前記CPU202は、当該物理サーバ104が備えるCPU202をいう。以下、単に「CPU202」と記載するときは、特に説明しない限り、当該物理サーバ104が備えるCPUを意味するものとする。また、主記憶装置203、外部記憶装置206についても同様である。
仮想サーバ性能テーブル300は、仮想サーバID(Identifier)欄301と、CPU割当量欄302と、CPU割当不足量欄303と、CPU割当上限欄304と、CPU割当予約欄305と、CPU割当加重欄306と、を備える。
仮想サーバID欄301には、仮想サーバ120を一意に識別する情報が記憶されている。
CPU割当量欄302には、仮想サーバ120が、サーバ仮想化プログラム121から割り当てられたCPU202の動作クロック周波数(仮想デバイスの割当リソース量)を記憶する。仮想サーバ120は、この割り当てられた動作クロック周波数で動作する。サーバ仮想化プログラム121は、仮想サーバ120の負荷に応じて動的に仮想サーバ120に割当てる動作クロック周波数を変動させる。そのため、CPU割当量欄302に記憶する値は逐次変化する。
CPU割当不足量欄303には、仮想サーバ120が、負荷を処理するためサーバ仮想化プログラム121に割当ての要求をしたが割り当てられなかったCPU202の動作クロック周波数(仮想デバイスの不足リソース量)を記録する。CPU割当量と、CPU割当不足量とを合計した値が、仮想サーバ120上の負荷を処理するために仮想サーバ120に割当てる必要があったリソース量である。このCPU割当不足量は、物理サーバ104上に稼動する他の仮想サーバ120とリソースを競合し、割り当てられなかった動作クロック周波数を示す。なお、CPU割当不足量は、例えば物理サーバ104の性能や負荷の量等に基づいて周知の解析方法により算出することができる。
CPU割当上限欄304には、仮想サーバ120に割り当てるCPU202の動作クロック周波数の制限値を記録する。仮想サーバ120が要求しても、サーバ仮想化プログラム121はCPU割当上限欄304に記憶された値以上のCPU割当てを仮想サーバ120に割り当てない。なお、「n/a」は、該当する値が存在しないことを示す(not applicable)。
CPU割当予約欄305には、仮想サーバ120に割り当てるCPU202の動作クロック周波数の保証値を記憶する。仮想サーバ120が要求すると、サーバ仮想化プログラム121が仮想サーバ120にCPU割当予約欄305に記憶された値の動作クロック周波数を最低限割り当てることを保証する。
CPU割当加重欄306には、仮想サーバ120が物理サーバ104上の他の仮想サーバ120とCPU202を競合したときに、サーバ仮想化プログラム121が割当て量を調整するために用いる重み付け情報の値を記憶する。
本実施の形態では、仮想サーバ性能テーブル300に記憶する仮想サーバ120の性能情報として、CPU202の動作クロック周波数を示したが、これに限定しない。仮想サーバ120の性能情報は、仮想サーバ120に割り当てられたリソース量であれば、いずれの情報でも良く、例えば、CPU202の全クロック周波数と動作クロック周波数とから算出した使用状況を示すパーセンテージ情報、主記憶装置203の割当て容量、ネットワーク207のアクセスの帯域、外部記憶装置206のディスク容量、ディスクアクセス入出力の帯域等でも良い。これらのいずれか一部または全てであっても良い。
物理サーバ性能テーブル400は、物理サーバ104のリソース使用状況を示す性能情報を記憶するテーブルである。物理サーバ性能テーブル400の各行には、物理サーバ104の性能情報を記録する。
図4は、物理サーバ性能テーブル400の構成図である。各行には、物理サーバ104のCPU202の性能情報をクロック周波数表示で記憶している。
物理サーバ性能テーブル400は、物理サーバID欄401と、CPU合計欄402と、CPU使用欄403と、CPU空き欄404と、を備える。
物理サーバID欄401には、物理サーバ104を一意に識別するための情報を記憶する。
CPU合計欄402には、物理サーバ104に搭載されたCPU202の全クロック周波数を記憶する。
CPU使用欄403には、物理サーバ104に搭載されたCPU202の動作クロック周波数(物理デバイスの使用リソース量)を記憶する。CPU合計欄402の値を全体としたときのCPU使用欄403の値の割合は、物理サーバ104のCPU使用率である。また、物理サーバ104上で稼動する全ての仮想サーバ120のCPU割当量(符号302参照)を合計した値は、物理サーバ104のCPU使用欄403の値となる。
CPU空き欄404には、物理サーバ104に搭載されたCPU202の動作しなかったクロック周波数(物理デバイスの空きリソース量)を記憶する。CPU合計欄402の値からCPU使用欄403の値を差し引いた値がCPU空き欄404の値である。
本実施の形態では、物理サーバ性能テーブル400に記憶する物理サーバ104の性能情報として、CPU202のクロック周波数に関する情報を示したが、情報の内容や表現形式はこれに限定しない。物理サーバ104のリソースの使用状況を示す性能情報であればいずれの情報でも良く、例えば、CPU202のクロック周波数と動作クロック周波数とから算出した使用量を示すパーセンテージ情報、主記憶装置203の使用容量、ネットワーク207のアクセスの帯域、外部記憶装置206のディスク量、ディスクアクセス入出力の帯域等でも良い。これらのいずれか一部または全てであっても良い。
プール性能テーブル500は、リソースプール130の使用状況を示す性能情報や性能情報に関係する設定情報を記憶するテーブルである。
図5は、プール性能テーブル500の構成図である。プール性能テーブル500の各行には、リソースプール130の使用状況を示す性能情報を記憶する。
プール性能テーブル500は、プールID欄501と、CPU割当合計欄502と、CPU割当使用欄503と、CPU割当空き欄504と、CPU割当上限欄505と、CPU割当予約欄506と、CPU割当加重欄507と、を備える。
プールID欄501には、リソースプール130を一意に識別する情報を記憶している。
CPU割当合計欄502には、リソースプール130に割り当てられたCPU202のクロック周波数の合計量を記憶している。リソースプール130の利用者(管理者)は、仮想サーバ120に割り当てられるクロック周波数の合計がCPU割当合計欄502の値以内になる範囲で、仮想サーバ120を新たに作成したり、仮想サーバ120に割り当てられるクロック周波数を拡張したりできる。
CPU割当使用欄503には、リソースプール130に割り当てられたCPU202のクロック周波数の使用量を記憶している。リソースプール130に関連付けられた仮想サーバ120に割り当てられるクロック周波数の合計量を示している。
CPU割当空き欄504には、リソースプール130に割り当てられたCPU202のクロック周波数の未使用量(リソースプールの空きリソース量)を記憶している。リソースプール130に割り当てられたCPU202のクロック周波数で、リソースプール130に関連付けられたどの仮想サーバ120にも割り当てられてないクロック周波数合計量を示している。CPU割当合計欄502の値からCPU使用欄503の値を差し引いた値が記録される。
CPU割当上限欄505には、リソースプール130に割り当てられるCPU202のクロック周波数の上限値を記憶している。リソースプール130に割り当てるクロック周波数の合計量が変動する場合に、CPU割当上限欄505の値よりも多くクロック周波数が割り当てられないことを示している。
CPU割当予約欄506には、リソースプール130に割り当てられるCPU202のクロック周波数の保証値を記録している。リソースプール130に割り当てるクロック周波数の合計量が変動する場合に、CPU割当予約欄506の値を最低限割り当てることを保証することを示している。
CPU割当加重欄507には、リソースプール130に割り当てられるCPU202のクロック周波数の割当て重みを記憶している。リソースプール130に割当てるクロック周波数の合計量が変動するとき、他のリソースプール130と物理サーバ104群を競合する場合に、CPU割当加重507に記憶する値で優先度づけして割当てるクロック周波数を調整し、リソースプール130にクロック周波数を割り当てる。
本実施の形態では、プール性能テーブル500に記憶するリソースプール130の性能情報として、CPU202のクロック周波数に関する情報を示したが、情報の内容や表現形式はこれに限定しない。リソースプール130のリソースの使用状況を示す性能情報であればいずれの情報でも良く、例えば、CPU202のクロック周波数と動作クロック周波数とから算出した使用量を示すパーセンテージ情報、主記憶装置203の容量、ネットワーク207のアクセスの帯域、外部記憶装置206のディスク容量、ディスクアクセス入出力の帯域等でも良い。これらのいずれか一部または全てであっても良い。
仮想サーバ物理サーバ対応テーブル600は、仮想サーバ120とその仮想サーバ120が稼動する物理サーバ104との対応関係を記録するテーブルである。
図6は、仮想サーバ物理サーバ対応テーブル600の構成図である。各行には、仮想サーバ120とその仮想サーバ120が稼動する物理サーバ104との対応関係を記録している。仮想サーバ物理サーバ対応テーブル600は、仮想サーバID欄601と、物理サーバID欄602と、を備える。
仮想サーバID欄601には、仮想サーバ120を一意に識別する情報が記憶されている。
物理サーバID欄602には、物理サーバ104を一意に識別する情報が記憶されている。
仮想サーバプール対応テーブル700は、リソースプール130と仮想サーバ120との対応関係を記憶するテーブルである。
図7は、仮想サーバプール対応テーブル700の構成図である。各行には、仮想サーバ120とリソースプール130の対応関係を記録している。仮想サーバプール対応テーブル700は、プールID欄701と、仮想サーバID欄702と、を備えている。
プールID欄701には、リソースプール130を一意に識別する情報が記憶されている。
仮想サーバID欄702には、仮想サーバ120を一意に識別する情報が記憶されている。
プール物理サーバ対応テーブル800は、リソースプール130とリソースプール130にリソースを提供する物理サーバ104との対応関係を記憶するテーブルである。
図8は、プール物理サーバ対応テーブル800の構成図である。各行には、リソースプール130と物理サーバ104の対応関係を記憶している。プール物理サーバ対応テーブル800は、プールID欄801と、物理サーバID欄802と、共有欄803と、を備えている。
プールID欄801には、リソースプール130を一意に識別する情報を記憶している。
物理サーバID欄802には、物理サーバ104を一意に識別する情報を記憶している。
共有欄803には、リソースプール130が物理サーバ104を共有しているか否かを示す情報を記憶している。図8によれば、物理サーバA、Bは、プールA、Bにリソースを提供したとき、物理サーバAは、必要に応じて物理サーバBが提供したリソースを利用することができ、物理サーバBは、必要に応じて物理サーバAが提供したリソースを利用することができる(共有)。しかし、物理サーバC、Dは、プールCにリソースを提供しても、物理サーバCは、物理サーバDが提供したリソースを利用することはできないし、物理サーバDは、物理サーバCが提供したリソースを利用することはできない(占有)。
プール構成テーブル900は、リソースプール130とそのリソースプール130のリソースを利用可能な物理サーバ104との対応関係を記憶するテーブルである。リソースプール130は、対応関係のある物理サーバ104からリソースの提供を受ける。
図9は、プール構成テーブル900の構成図である。各行には、リソースプール130と物理サーバ104の対応関係を記憶している。プール構成テーブル900は、プールID欄901と、物理サーバID欄902と、を備えている。
プールID欄901には、リソースプール130を一意に識別する情報を記憶している。
物理サーバID欄902には、物理サーバ104を一意に識別する情報を記憶している。
なお、図10に関する説明は、後記する。
次に、本実施の形態の情報処理システムで実行される処理について説明する。管理サーバ101のCPU202は、管理サーバ101の主記憶装置203に記憶されたリソース管理用のプログラム(リソース管理プログラム)を記憶領域に読み出して、そのプログラムに記述されたコードに基づいて、この処理を実行する。ハードウェアと協働して前記実行をすることにより、管理サーバ101が備える処理部(110〜115)による機能が実現される。ただ、説明の便宜上、以下に説明する処理は、処理部(110〜115)のいずれかが実行するものとして説明する。
なお、前記管理用のプログラムは、管理サーバ101が記憶するだけでなく、リソースプール130を作成する別の計算機が記憶し、前記実行を行うようにしても良い。
図11は、第1の実施の形態の表示部114の処理動作を示すフロー図である。
(1)表示部114は、プールXを特定する(ステップ1101)。例えば、あるリソースプール130を特定した表示要求を受信したとき、そのリソースプール130をプールXとして特定する。
(2)表示部114は、性能管理部112を通して、プール性能テーブル500を参照し、プールXの性能情報Xを取得する(ステップ1102)。具体的には、プール性能テーブル500を参照し、プールXをキーにしてプールID欄501の内容を検索し、該当する行のCPU割当合計欄502、CPU割当使用欄503、CPU割当空き欄504の内容を、性能情報Xとして記憶する。
(3)表示部114は、構成管理部113を通して、プール物理サーバ対応テーブル800を参照し、プールXを構成する物理サーバ群Xを特定する(ステップ1103)。具体的には、プール物理サーバ対応テーブル800を参照し、プールXをキーにしてプールID欄801の内容を検索し、該当する行の物理サーバID欄802の内容を、物理サーバ群Xとして記憶する。複数の行が該当した場合は、該当した全ての行の物理サーバ欄802の内容を物理サーバ群Xとして記憶する。
(4)表示部114は、構成管理部113を通して、仮想サーバプール対応テーブル700を参照し、プールXに関連付けられた仮想サーバ群Xを特定する(ステップ1104)。具体的には、仮想サーバプール対応テーブル700を参照し、プールXをキーにしてプールID欄701の内容を検索し、該当した行の仮想サーバID欄702の内容を仮想サーバ群Xとして記憶する。複数行該当した場合は、全ての行の仮想サーバID欄702の内容を仮想サーバ群Xとして記憶する。
(5)表示部114は、物理サーバ群Xに属する物理サーバXとしてステップ1106からステップ1110を繰り返す(ステップ1105)。ここでは、物理サーバ群Xに複数の物理サーバ104が含まれる場合には、それぞれの物理サーバ104を特定し(ループ処理で対象(ここでは、物理サーバ104)を1つ1つ決定することを意味する。他のループ処理についても同様である。)、特定した物理サーバ104についてステップ1106からステップ1110を実行する。
(6)表示部114は、性能管理部112を通して、物理サーバ性能テーブル400を参照し、物理サーバXの性能情報Zを取得する(ステップ1106)。具体的には、物理サーバ性能テーブル400を参照し、ステップ1105で特定した物理サーバの識別情報をキーにして、物理サーバID欄401を検索し、該当する行のCPU合計欄402、CPU使用欄403、CPU空き欄404を性能情報Zとして記憶する。
(7)表示部114は、構成管理部113を通して、仮想サーバ物理サーバ対応テーブル600を参照し、物理サーバXに関連付けられた仮想サーバ群Yを特定する(ステップ1107)。具体的には、仮想サーバ物理サーバ対応テーブル600を参照し、ステップ1105で特定した物理サーバの識別情報をキーにして、物理サーバID欄602の内容を検索し、該当した行の仮想サーバID欄601の内容を仮想サーバ群Yとして記憶する。複数行該当した場合は、各行の仮想サーバID欄601の内容全てを仮想サーバ群Yとして記憶する。
(8)表示部114は、仮想サーバ群Yのうち、仮想サーバ群Xに属するものを仮想サーバ群Zとして特定する(ステップ1108)。特定したリソースプール130がリソースの提供を受ける物理サーバ104上にある仮想サーバ120群(仮想サーバ群Y)のうち、特定したリソースプール130に属する仮想サーバ120群(仮想サーバ群X)を特定して、仮想サーバ群Zとする。
(9)表示部114は、仮想サーバ群Zに属する仮想サーバXについてステップ1110を繰り返す(ステップ1109)。仮想サーバ群Zに複数の仮想サーバ120の識別情報が含まれていた場合、それぞれの仮想サーバ120の識別情報について、仮想サーバXとして、ステップ1110を実行する。
(10)表示部114は、性能管理部112を通して、仮想サーバ性能テーブル300を参照し、仮想サーバXの性能情報Zを取得する(ステップ1110)。仮想サーバ性能テーブル300を参照し、仮想サーバXをキーにして、仮想サーバID欄301を検索し、該当した行のCPU割当量欄302等の情報を取得する。
表示部114は、プールXと、プールXを構成する物理サーバ群Xと、物理サーバ群X上で稼動しプールXに属する仮想サーバ群Zと、を関連付けて表示する。また、プールXの性能情報Xと、物理サーバ群Xの性能情報Zと、さらに仮想サーバ群Zの性能情報Zを合わせて関連付けて表示する。
図12は、第1の実施の形態のリソースプール130の性能情報を表示する画面を示す図である。リソースプール130の利用者は、管理サーバ101の入力装置208を操作して、表示部114にリソースプール130を特定して性能情報の表示要求を出すと、表示部114は構成管理部113を介して、特定したリソースプール130を構成する物理サーバ104を特定し、リソースプール130に関連付けられた仮想サーバ120を特定し、仮想サーバ120と物理サーバ104とを対応づける。さらに、表示部114は、性能管理部112を介して、特定したリソースプール130の性能情報を取得して、物理サーバ104の性能情報と、物理サーバ104上で稼動する仮想サーバ120の性能情報を取得し、取得した情報を画面1201に表示する。リソースプールの利用者は、リソースプール130の利用状況と、リソースプール130を構成する物理サーバ104の利用状況、仮想サーバ120の利用状況とを関連付けて参照できる。
画面1201はプールCというリソースプールに関する利用状況を表示している。プールCの利用状況1201では、プールCのCPU割当使用量の一部である仮想サーバE(VME)のCPU割当量1204と、プールCのCPU割当使用量の一部である仮想サーバF(VMF)のCPU割当量1205と、プールCのCPU割当空き量1206と、プールCのCPU割当合計量1207とが表示されている。
また、プールCにリソースを提供している物理サーバ(この場合は、物理サーバC(PMC)および物理サーバD(PMD))に関するリソースの利用状況を示すプールCの内訳1203では、物理サーバCのCPU使用量1208と、物理サーバCのCPU空き量1209と、物理サーバCのCPU合計量1210と、物理サーバDのCPU使用量1211と、物理サーバDのCPU空き量1212と、物理サーバDのCPU合計量1213とが表示されている。
また、表示されたリソースプールの利用状況に対しリソースの移動等の操作を行うために押下するOKボタン1214および前記操作を中断するために押下するキャンセルボタン1215が表示されている。
これにより、リソースプール130の利用者は、新たに仮想サーバ120をリソースプール130に追加したときに当該仮想サーバ120が利用可能なリソース量を予測できる。また、リソースプール130のリソースに属する仮想サーバ120がさらに利用可能な(拡張可能な)リソース量を予測でき、仮想サーバ120に割り振る負荷量を利用可能なリソース量に収まるよう調整できる。
さらに、必要に応じて、仮想サーバ120の稼動する物理サーバ104を変更することにより、複数の物理サーバに分散している空きリソースをまとめて、仮想サーバ130に割り当てることで、リソースプール130に割り当てられたリソースを有効活用できる。
なお、図12に示した画面1201は、リソースプールの利用者だけでなく、リソースプールの提供者や、管理者が利用しても良い。管理者は、仮想サーバ120の性能劣化が発生した場合に、リソースプール130が原因か、物理サーバ104が原因か、仮想サーバ120が原因かを特定できる。リソースプール130の提供者は、リソースプール130の利用者にSLA(Service Level Agreement)等に沿ったサービスを提供できているか確認できる。
図13も、第1の実施の形態のリソースプール130の性能情報を表示する画面を示す図である。
リソースプール130の利用者は、管理対象の単一または複数のリソースプール130を特定して使用状況の表示要求を出すと、表示部114は、リソースプール130を構成する物理サーバ104を特定し、リソースプール130と関連付けられた仮想サーバ120を特定し、リソースプール130と特定した物理サーバ104と仮想サーバ120の性能情報をそれぞれプール情報1301と仮想サーバリスト1302と構成物理サーバ1303を画面1300に表示する。
プール情報1301は、図5のプール性能テーブルの符号501から符号506のそれぞれに対応するプールID1311、全体1312、使用1313、空き1314、上限1315および予約1316と、追加したい仮想サーバがあればそのサイズの最大量を示す追加可能仮想サーバ最大サイズ1317から構成されている。
仮想サーバリスト1302は、図3の仮想サーバ性能テーブルの符号301、302、304、305のそれぞれに対応する仮想サーバID1321、割当て1323、上限1324および下限1325と、当該仮想サーバが稼働する物理サーバを示す物理サーバID1322と、拡張したい仮想サーバがあればその拡張量を示す拡張可能1326から構成されている。
構成物理サーバ1303は、図4の物理サーバ性能テーブルの符号401から符号404のそれぞれに対応する物理サーバ1331、全体1332、使用1333、空き1334から構成されている。
この他に、表示されたリソースプールの利用状況に対しリソースの移動等の操作を行うために押下するOKボタン1340および前記操作を中断するために押下するキャンセルボタン1341が表示されている。
リソースプール130に仮想サーバ120を追加するとき、その仮想サーバ120に割り当て可能なリソース量の最大サイズをシミュレーション部115が算出し、その値(追加する仮想デバイスに割り当てることができるリソース量の最大)を表示部114は追加可能仮想サーバ最大サイズ欄1317に表示する。また、リソースプール130に属する仮想サーバ120が割当てられたクロック周波数を拡張するとき、拡張可能なクロック周波数の最大サイズをシミュレーション部115が算出し、その値(拡張量の最大)を拡張可能欄1326に表示する。
これにより、リソースプール130の利用者は、新たに仮想サーバ120をリソースプール130に追加したときに当該仮想サーバ120が利用可能なリソース量を予測できる。また、リソースプール130のリソースに属する仮想サーバ120がさらに利用可能なリソース量を予測でき、仮想サーバ120に割り振る負荷量を利用可能なリソース量に収まるよう調整できる。
さらに、必要に応じて、仮想サーバ120の稼動する物理サーバ104を変更することにより、複数の物理サーバに分散している空きリソースをまとめて、仮想サーバ130に割り当てることで、リソースプール130に割り当てられたリソースを有効活用できる。
なお、図13に示した画面は、リソースプールの利用者だけでなく、管理者や、リソースプールの提供者が利用しても良い。
管理者は、仮想サーバ120の性能劣化が発生した場合に、リソースプール130が原因か、物理サーバ104が原因か、仮想サーバ120が原因かを特定できる。
図14も、第1の実施の形態のリソースプール130の性能情報を表示する画面を示す図である。
リソースプール130の提供者は、管理対象の単一または複数のリソースプール130を特定して使用状況の表示要求を出すと、表示部114は、リソースプール130を構成する物理サーバ104を特定し、リソースール130と関連付けられた仮想サーバ120を特定し、リソースプール130と特定した物理サーバ104と仮想サーバ120の性能情報をそれぞれプール情報1401と仮想サーバリスト1402と構成物理サーバ1403を画面1400に表示する。図14では、図13のときと比べ、1つの物理サーバ(ここでは物理サーバAまたはB)が複数のリソースプール(ここではプールAおよびプールB)にリソースを提供したときの画面1400が表示されている。
プール情報1401、仮想サーバリスト1402、構成物理サーバ1403はそれぞれ、プール情報1301、仮想サーバリスト1302、構成物理サーバ1303と同じである。
プールID1411、全体1412、使用1413、空き1414、上限1415、予約1416、追加可能仮想サーバ最大サイズ1417はそれぞれ、プールID1311、全体1312、使用1313、空き1314、上限1315、予約1316、追加可能仮想サーバ最大サイズ1317と同じである。
仮想サーバID1421、物理サーバID1422、割当て1423、上限1424、下限1425、拡張可能1426はそれぞれ、仮想サーバID1321、物理サーバID1322、割当て1323、上限1324、下限1325、拡張可能1326と同じである。
OKボタン1440、キャンセルボタン1441はそれぞれ、OKボタン1340、キャンセルボタン1341と同じである。
リソースプール130に仮想サーバ120を追加するとき、その仮想サーバ120に割り当て可能なリソース量の最大サイズをシミュレーション部115が算出し、その値を表示部114は追加可能仮想サーバ最大サイズ欄1417に表示する。また、リソースプール130に属する仮想サーバ120が割当てられたクロック周波数を拡張するとき、拡張可能なクロック周波数の最大サイズをシミュレーション部115が算出し、その値を拡張可能欄1427に表示する。
これにより、リソースプール130の提供者は、新たに仮想サーバ120をリソースプール130に追加したときに当該仮想サーバ120が利用可能なリソース量を予測できる。また、リソースプール130のリソースに属する仮想サーバ120がさらに利用可能なリソース量を予測でき、仮想サーバ120に割り振る負荷量を利用可能なリソース量に収まるよう調整できる。
さらに、必要に応じて、仮想サーバ120の稼動する物理サーバ104を変更することにより、複数の物理サーバに分散している空きリソースをまとめて、仮想サーバ130に割り当てることで、リソースプール130に割り当てられたリソースを有効活用できる。
なお、図14に示した画面は、リソースプールの提供者だけでなく、管理者や、複数のリソースプールを利用するリソースプールの提供者が利用しても良い。
管理者は、仮想サーバ120の性能劣化が発生した場合に、リソースプール130が原因か、物理サーバ104が原因か、仮想サーバ120が原因かを特定できる。
リソースプール130の利用者は、SLA等に沿ってリソースプールが提供されているか確認できる。また、新たに仮想サーバ120をリソースプール130に追加したときに当該仮想サーバ120が利用可能なリソース量を予測できる。また、リソースプール130内に追加で稼動可能な仮想サーバ120の数を予測できる。また、リソースプール130を構成する物理サーバ104の構成や性能を考慮して、リソースプール130内で稼動する仮想サーバ120数を制限したりできる。
さらに、リソースプール130のリソースに属する仮想サーバ120がさらに利用可能なリソース量を予測でき、仮想サーバ120に割り振る負荷量を利用可能なリソース量に収まるよう調整できる。
さらに、必要に応じて、リソースプール130の利用者は、仮想サーバ120の稼動する物理サーバ104を変更することにより、複数の物理サーバに分散している空きリソースをまとめて、仮想サーバ130に割り当てることで、リソースプール130に割り当てられたリソースを有効活用できる。また、リソースプール130内で適用される仮想サーバ130のリソース割当て設定を見直すこともできる。また、複数のリソースプール130を管理する場合は、図14の画面1400に表示された性能や構成を参照し、そのリソースプール130間でリソースを融通する設定調整もできる。
図15は、シミュレーション部115の処理フロー図である。
(1)シミュレーション部115は、プールXを特定する(ステップ1501)。例えば、リソースプール130の利用者から、リソースプール130の性能情報の表示要求があると、表示部114はシミュレーション部115に表示要求のあったリソースプール130を指定してシミュレーションを要求する。指定されたリソースプール130をプールXとして特定する。
(2)シミュレーション部115は、プールXが物理サーバ群を占有するか他のプールと共有するか判定する(ステップ1502)。具体的には、構成管理部113を通して、プール物理サーバ対応テーブル800を参照し、プールXをキーにプールID欄801の内容を検索し、該当する行の共有欄803の内容が占有ならば、他のプールと共有せず占有すると判定し、共有ならば、プールは他のプールと共有すると判定する。該当する行が複数行ある場合は、全ての行の欄が占有なら占有と判定し、それ以外は共有と判定する。
(3)ステップ1502の判定で、占有と判定した場合(ステップ1502で「占有」)、シミュレーション部115は、占有時のシミュレーションを実行する(ステップ1503)。この処理は、図16(図16A、図16B、図16Cの総称)で詳細に説明する。
(4)ステップ1502の判定で、他のプールと物理サーバ群を共有すると判定した場合(ステップ1502で「他のプールと共有」)、シミュレーション部115は、プールXのリソース合計量が固定か、変動かを判定する(ステップ1504)。例えば、性能管理部112を通して、プール性能テーブル500を参照し、CPU割当合計欄502の内容と、CPU上限欄505の内容と、CPU割当予約欄506の内容と、が一致していたら固定と判断し、それ以外は、変動と判定する。
(5)ステップ1504で固定であると判定した場合(ステップ1504で「固定」)、シミュレーション部115は、共有固定時のシミュレーションを実行する(ステップ1505)。この処理は、図17(図17A、図17B、図17Cの総称)で詳細に説明する。
(6)ステップ1504で変動であると判定した場合(ステップ1504で「変動」)、シミュレーション部115は、共有変動時のシミュレーションを実行する(ステップ1506)。この処理は、図18(図18A、図18B、図18Cの総称)で詳細に説明する。
図16は、シミュレーション部115の処理フローのうち、リソースプール130が物理サーバ群を占有しているときの処理動作のフロー図である。
(1)シミュレーション部115は、プールXの合計リソース量Xを取得する(ステップ1601)。具体的には、性能管理部112を通して、プール性能テーブル500を参照し、プールXをキーにしてプールID欄501を検索し、該当した行のCPU割当合計欄502の内容を取得し、合計リソース量Xとする。
(2)シミュレーション部115は、プールXを構成する物理サーバ群Xを取得する(ステップ1602)。具体的には、構成管理部113を通して、プール構成テーブル900を参照し、プールXをキーにプールID欄901を検索し、該当した行の物理サーバID欄902の内容を物理サーバ群Xとして記憶する。複数行が該当した場合は、全ての行の物理サーバID欄の内容を物理サーバ群Xとして記憶する。
(3)シミュレーション部115は、物理サーバ群Xに属する物理サーバXでステップ1604を繰り返す(ステップ1603)。複数の物理サーバ104の識別情報が物理サーバ群Xに属する場合は、それぞれの物理サーバ104の識別情報について、ステップ1604の処理を繰り返す。
(4)シミュレーション部115は、物理サーバXの合計リソース量Yを取得する(ステップ1604)。具体的には、性能管理部112を通して、物理サーバ性能テーブル400を参照し、物理サーバXをキーに物理サーバID欄401の内容を検索し、該当した行のCPU合計欄402の内容を合計リソース量Yとして記憶する。
(5)シミュレーション部115は、プールXに属する仮想サーバ群Xを取得する(ステップ1605)。具体的には、構成管理部113を通して、仮想サーバプール対応テーブル700を参照し、プールXをキーにプールID欄701を検索し、該当する行の仮想サーバID欄702の内容を仮想サーバ群Xとして記憶する。複数行が該当する場合は、全ての行の仮想サーバID欄702の内容を仮想サーバ群Xに記憶する。
(6)シミュレーション部115は、仮想サーバ群Xに属する仮想サーバXに対し、それぞれステップ1607を繰り返す(ステップ1606)。
(7)シミュレーション部115は、仮想サーバX上の負荷の処理に必要なリソース量Xを算出する(ステップ1607)。具体的には、性能管理部112を通して、仮想サーバ性能テーブル300を参照し、仮想サーバXをキーに仮想サーバID欄301を検索し、該当した行のCPU割当量欄302の内容と、CPU割当不足量欄303の内容とを合算した値を、必要なリソース量Xとして記憶する。
(8)シミュレーション部115は、シミュレーション対象を判定する(ステップ1608)。例えば、表示部114からプールXに追加可能な仮想サーバサイズのリソース最大量をシミュレーションするよう要求があったときは、プールXがシミュレーション対象であるとする。一方、リソースプール130に属する仮想サーバ120が拡張可能なリソース量をシミュレーションするよう要求があったときは、ここでは仮想サーバ120がシミュレーション対象であるとする。
なお、前記要求は、例えば管理サーバ101の利用者の入力装置208からの操作によりなされる。
(9)ステップ1608の判定でプールXがシミュレーション対象のとき(ステップ1608で「プールX」)、シミュレーション部115は、ステップ1610からステップ1613までの処理を、最大のリソース量Yが見つかるまで繰り返し実行する(ステップ1609)。特定したシミュレーション対象のリソースプール130に追加可能なリソースの量の最大値を算出する。
(10)シミュレーション部115は、リソース量Yの新たな仮想サーバYがあったと仮定する(ステップ1610)。具体的には、あるCPUクロック周波数を指定した仮想サーバYがプールXにあると仮定する。
(11)シミュレーション部115は、仮想サーバ群Xと仮想サーバYと物理サーバ群Xの構成を決定する(ステップ1611)。仮想サーバYがプールXにあるとしたときに、仮想サーバ群Xに含まれる仮想サーバ120と仮想サーバYを稼動させる物理サーバ104を決定する。
(12)シミュレーション部115は、ステップ1611で決定した構成にしたとき、仮想サーバ群Xと仮想サーバYのリソース量の合計が、合計リソース量X(ステップ1601参照)以内か判定する(ステップ1612)。リソースプール130に属する仮想サーバ120に、リソースプール130の合計サイズ以上のリソースを提供できないためである。合計リソース量X以内である場合(ステップ1612でYes)、ステップ1613に進み、そうでない場合(ステップ1612でNo)、ステップ1611で決定した構成では最大のリソース量Y(ステップ1609参照)を見つけられないとして、仮定したリソース量Yを破棄し(ステップ1622)、次のステップに移る。
(13)シミュレーション部115は、ステップ1611で決定した構成にしたとき、それぞれの物理サーバX上の仮想サーバ120のリソース量の合計が、物理サーバXの合計リソース量Y(ステップ1604参照)以内か判定する。(ステップ1613)。物理サーバ104のリソース量以上に、仮想サーバ120を物理サーバ104上で稼動させることができないからである。合計リソース量Y以内である場合(ステップ1613でYes)、リソース量Yをとりあえず仮に設定し(ステップ1621)、次のステップに進み、そうでない場合(ステップ1613でNo)、ステップ1611で決定した構成では最大のリソース量Y(ステップ1609参照)を見つけられないとして、仮定したリソース量Yを破棄し(ステップ1622)、次のステップに移る。
結果的に、仮に設定したリソース量Yのうち最大となるリソース量を決定する。
(14)シミュレーション部115は、プールXに追加可能な仮想サーバXの最大リソース量を(リソース量Y(ステップ1610参照)−リソース量X(ステップ1607参照))と算出して応答し、終了する(ステップ1614)。ここで応答した値が、リソースプール130に仮想サーバ120を新たに追加したときに、最大確保可能なリソース量である。
(15)ステップ1608の判定でシミュレーション対象が仮想サーバ群X中の仮想サーバ120のとき(ステップ1608で「仮想サーバ群X中の仮想サーバY」)、シミュレーション部115は、ステップ1616からステップ1619までの処理を最大のリソース量Yが見つかるまで繰り返す(ステップ1615)。
(16)シミュレーション部115は、仮想サーバXに必要なリソース量Xをリソース量Yと(仮定)する(ステップ1616)。すなわち、仮想サーバXのリソース量をリソース量Yにまで拡張できるかをシミュレーションする。
(17)シミュレーション部115は、仮想サーバ群Xと物理サーバ群Xの構成を決定する(ステップ1617)。
(18)シミュレーション部115は、ステップ1617で決定した構成にしたとき、仮想サーバ群Xのリソース量の合計が、合計リソース量X(ステップ1601参照)以内か判定する(ステップ1618)。リソースプール130に属する仮想サーバ120に、リソースプール130の合計サイズ以上のリソースを提供できないためである。合計リソース量X以内である場合(ステップ1618でYes)、ステップ1619に進み、そうでない場合(ステップ1618でNo)、ステップ1617で決定した構成では最大のリソース量Yを見つけられないとして、仮定したリソース量Yを破棄し(ステップ1624)、次の処理に移る。
(19)シミュレーション部115は、ステップ1617で決定した構成にしたとき、それぞれの物理サーバX上の仮想サーバ120のリソース量の合計が、物理サーバXの合計リソース量Y(ステップ1604参照)以内か判定する(ステップ1619)。物理サーバ104のリソース量以上に、仮想サーバ120を物理サーバ104上で稼動させることができないからである。合計リソース量Y以内である場合(ステップ1619でYes)、リソース量Yをとりあえず仮に設定し(ステップ1623)、次のステップに進み、そうでない場合(ステップ1619でNo)、ステップ1617で決定した構成では最大のリソース量Yを見つけられないとして、仮定したリソース量Yを破棄し(ステップ1624)、次のステップに移る。
結果的に、仮に設定したリソース量Yのうち最大となるリソース量を決定する。
(20)シミュレーション部115は、仮想サーバXが拡張可能なリソース量を(リソース量Y(ステップ1616参照)−リソース量X(ステップ1607参照))と算出し応答して、終了する(ステップ1620)。ここで応答した値が、仮想サーバXが拡張可能な最大リソース量である。
図17は、シミュレーション部115の処理フローのうち、サイズ固定のリソースプール130が物理サーバ群を共有しているときの処理動作のフロー図である。図15および図16で説明した事項と共通する事項についてはその説明を省略する。
(1)シミュレーション部115は、プールX(ステップ1501参照)と共有するプールYを特定する(ステップ1701)。
(2)シミュレーション部115は、プールXとプールYの合計リソース量X、Yを取得する(ステップ1702)。
(3)シミュレーション部115は、プールX、Yを構成する物理サーバ群Xを取得する(ステップ1703)。
(4)シミュレーション部115は、物理サーバ群Xに属する物理サーバXについて、ステップ1705を繰り返す(ステップ1704)。
(5)シミュレーション部115は、物理サーバXの合計リソース量Zを取得する(ステップ1705)。
(6)シミュレーション部115は、プールX、Yに属する仮想サーバ群Xを取得する(ステップ1706)。
(7)シミュレーション部115は、仮想サーバ群Xに属する仮想サーバXについて、ステップ1708を繰り返す(ステップ1707)。
(8)シミュレーション部115は、仮想サーバX上の負荷の処理に必要なリソース量Aを算出する(ステップ1708)。
(9)シミュレーション部115は、シミュレーション対象を判定する(ステップ1709)。
(10)ステップ1709の判定でプールXがシミュレーション対象のとき(ステップ1709で「プールX」)、シミュレーション部115は、ステップ1711からステップ1714までの処理を最大のリソース量Bが見つかるまで繰り返し実行する(ステップ1710)。
(11)シミュレーション部115は、リソース量Bの新たな仮想サーバZがあったと仮定する(ステップ1711)。具体的には、あるCPUクロック周波数を指定した仮想サーバYがプールXにあると仮定する。
(12)シミュレーション部115は、仮想サーバ群Xと仮想サーバZと物理サーバ群Xの構成を決定する(ステップ1712)。
(13)シミュレーション部115は、ステップ1712で決定した構成にしたとき、プールXに属する仮想サーバ群Xと仮想サーバYのリソース量の合計が、合計リソース量X(ステップ1702参照)以内であり、プールYに属する仮想サーバ群Xのリソース量の合計が合計リソース量Y(ステップ1702参照)以内か判定する(ステップ1713)。合計リソース量X、Y以内である場合(ステップ1713でYes)、ステップ1714に進み、そうでない場合(ステップ1713でNo)、ステップ1712で決定した構成では最大のリソース量Bを見つけられないとして、仮定したリソース量Bを破棄し(ステップ1723)、次のステップに移る。
(14)シミュレーション部115は、ステップ1712で決定した構成にしたとき、それぞれの物理サーバX上の仮想サーバ120のリソース量の合計が、物理サーバXの合計リソース量Z(ステップ1705参照)以内か判定する。(ステップ1714)。合計リソース量Z以内である場合(ステップ1714でYes)、リソース量Bをとりあえず仮に設定し(ステップ1722)、次のステップに進み、そうでない場合(ステップ1714でNo)、ステップ1712で決定した構成では最大のリソース量Bを見つけられないとして、仮定したリソース量Bを破棄し(ステップ1723)、次のステップに移る。
結果的に、仮に設定したリソース量Bのうち最大となるリソース量を決定する。
(15)シミュレーション部115は、プールXに追加可能な仮想サーバZの最大リソース量を(リソース量B(ステップ1711参照)−リソース量A(ステップ1708参照))と算出して応答し、終了する(ステップ1715)。
(16)ステップ1709の判定でシミュレーション対象が仮想サーバ群X中の仮想サーバ120のとき(ステップ1709で「仮想サーバ群X中の仮想サーバY」)、シミュレーション部115は、ステップ1717からステップ1720までの処理を最大のリソース量Cが見つかるまで繰り返す(ステップ1716)。
(17)シミュレーション部115は、仮想サーバXに必要なリソース量Aをリソース量Cと(仮定)する(ステップ1717)。
(18)シミュレーション部115は、仮想サーバ群Xと物理サーバ群Xの構成を決定する(ステップ1718)。
(19)シミュレーション部115は、ステップ1718で決定した構成にしたとき、プールXに属する仮想サーバ群Xのリソース量の合計が、合計リソース量X(ステップ1702参照)以内で、プールYに属する仮想サーバ群Xの合計リソース量Y(ステップ1702参照)以内か判定する(ステップ1719)。合計リソース量X、Y以内である場合(ステップ1719でYes)、ステップ1720に進み、そうでない場合(ステップ1719でNo)、ステップ1718で決定した構成では最大のリソース量Cを見つけられないとして、仮定したリソース量Cを破棄し(ステップ1725)、次のステップに移る。
(20)シミュレーション部115は、ステップ1718で決定した構成にしたとき、それぞれの物理サーバX上の仮想サーバ120のリソース量の合計が、物理サーバXの合計リソース量Z(ステップ1705参照)以内か判定する(ステップ1720)。合計リソース量Z以内である場合(ステップ1720でYes)、リソース量Cをとりあえず仮に設定し(ステップ1724)、次のステップに進み、そうでない場合(ステップ1720でNo)、ステップ1718で決定した構成では最大のリソース量Cを見つけられないとして、仮定したリソース量Cを破棄し(ステップ1725)、次のステップに移る。
結果的に、仮に設定したリソース量Cのうち最大となるリソース量を決定する。
(21)シミュレーション部115は、仮想サーバYが拡張可能なリソース量を(リソース量C(ステップ1717参照)−リソース量A(ステップ1708参照))と算出し応答して、終了する(ステップ1721)。
図18は、シミュレーション部115の処理フローのうち、サイズ変動のリソースプール130が物理サーバ群を共有しているときの処理動作のフロー図である。図15〜図17で説明した事項と共通する事項についてはその説明を省略する。
(1)シミュレーション部115は、プールX(ステップ1501参照)と共有するプールYを特定する(ステップ1801)。
(2)シミュレーション部115は、プールXとプールYの合計リソース量X、Yを取得する(ステップ1802)。
(3)シミュレーション部115は、プールX、Yを構成する物理サーバ群Xを取得する(ステップ1803)。
(4)シミュレーション部115は、物理サーバ群Xに属する物理サーバXについて、ステップ1705を繰り返す(ステップ1804)。
(5)シミュレーション部115は、物理サーバXの合計リソース量Zを取得する(ステップ1805)。
(6)シミュレーション部115は、プールX、Yに属する仮想サーバ群Xを取得する(ステップ1806)。
(7)シミュレーション部115は、仮想サーバ群Xに属する仮想サーバXについて、ステップ1808を繰り返す(ステップ1807)。
(8)シミュレーション部115は、仮想サーバX上の負荷の処理に必要なリソース量Aを算出する(ステップ1808)。
(9)シミュレーション部115は、シミュレーション対象を判定する(ステップ1809)。
(10)ステップ1809の判定でプールXがシミュレーション対象のとき(ステップ1809で「プールX」)、シミュレーション部115は、ステップ1811からステップ1813までの処理を最大のリソース量Bが見つかるまで繰り返し実行する(ステップ1810)。
(11)シミュレーション部115は、リソース量Bの新たな仮想サーバZがあったと仮定する(ステップ1811)。具体的には、あるCPUクロック周波数を指定した仮想サーバYがプールXにあると仮定する。
(12)シミュレーション部115は、仮想サーバ群Xと仮想サーバZと物理サーバ群Xの構成を決定する(ステップ1812)。
(13)シミュレーション部115は、ステップ1812で決定した構成にしたとき、それぞれの物理サーバX上の仮想サーバ120のリソース量の合計が、物理サーバXの合計リソース量Z(ステップ1805参照)以内か判定する(ステップ1813)。合計リソース量Z以内である場合(ステップ1813でYes)、リソース量Bをとりあえず仮に設定し(ステップ1820)、次のステップに進み、そうでない場合(ステップ1813でNo)、ステップ1812で決定した構成では最大のリソース量Bを見つけられないとして、仮定したリソース量Bを破棄し(ステップ1821)、次のステップに移る。
結果的に、仮に設定したリソース量Bのうち最大となるリソース量を決定する。
(14)シミュレーション部115は、プールXに追加可能な仮想サーバZの最大リソース量を(リソース量B(ステップ1811参照)−リソース量A(ステップ1808参照))と算出して応答し、終了する(ステップ1814)。
(15)ステップ1809の判定でシミュレーション対象が仮想サーバ群X中の仮想サーバ120のとき(ステップ1709で「仮想サーバ群X中の仮想サーバY」)、シミュレーション部115は、ステップ1816からステップ1818までの処理を最大のリソース量Cが見つかるまで繰り返す(ステップ1815)。
(16)シミュレーション部115は、仮想サーバXに必要なリソース量Aをリソース量Cと(仮定)する(ステップ1816)。
(17)シミュレーション部115は、仮想サーバ群Xと物理サーバ群Xの構成を決定する(ステップ1817)。
(18)シミュレーション部115は、ステップ1817で決定した構成にしたとき、それぞれの物理サーバX上の仮想サーバ120のリソース量の合計が、物理サーバXの合計リソース量Z(ステップ1805参照)以内か判定する(ステップ1818)。合計リソース量Z以内である場合(ステップ1818でYes)、リソース量Cをとりあえず仮に設定し(ステップ1822)、次のステップに進み、そうでない場合(ステップ1818でNo)、ステップ1817で決定した構成では最大のリソース量Cを見つけられないとして、仮定したリソース量Cを破棄し(ステップ1822)、次の処理に移る。
結果的に、仮に設定したリソース量Cのうち最大となるリソース量を決定する。
(19)シミュレーション部115は、仮想サーバYが拡張可能なリソース量を(リソース量C(ステップ1816参照)−リソース量A(ステップ1808参照))と算出し応答して、終了する(ステップ1819)。
以上の処理動作により、プールの利用者は、リソースプール130に追加可能な仮想サーバの最大リソース量やリソースプール130に属する仮想サーバ120が拡張可能なリソース量を参照できる。それにより、仮想サーバ120のリソース量を調整しやすくなる。
図19は、プール管理部110の処理動作のフロー図である。
(1)プール管理部110は、プールXの空きリソース量Xを取得する(ステップ1901)。
(2)プール管理部110は、プールXを構成する物理サーバ群Xを取得する(ステップ1902)。
(3)プール管理部110は、物理サーバ群Xに属する物理サーバXについてステップ1904からステップ1908までの処理を実行する(ステップ1903)。
(4)プール管理部110は、物理サーバXの空きリソース量Yを取得する(ステップ1904)。
(5)プール管理部110は、空きリソース量Yが空きリソース量Xよりも大きいか判定する(ステップ1905)。ステップ1905の判定で、大きいと判定した場合は(ステップ1905でYes)、ステップ1903で次の物理サーバXのステップに移行する。例えば、ある仮想サーバを移動したいときは、プールXの空きリソース量X以上の十分な空きリソースYを有する物理サーバに移動して稼働させれば良い。これにより、仮想サーバの移動元の物理サーバのリソースを確保し、その物理サーバが構成するプールの空きリソースを有効に活用することができる。仮想サーバの移動の要求は、例えば、入力装置208からなされる。
(6)ステップ1905の判定で、小さいと判定すると(ステップ1905でNo)、プール管理部110は、構成変更が可能か判定する(ステップ1906)。なお、構成変更が可能であるとは、リソースプール130を構成することになる物理サーバ群を変更する、つまりリソースプール130からリソースが割り当てられた仮想サーバを別の物理サーバに移動するときに、その物理サーバ群の性能情報に由来する制約のもとで変更することが可能であることを意味する。
(7)ステップ1906の判定で構成変更可能と判定すると(ステップ1906でYes)、プール管理部110は、制御部111を通して、空きリソース量Xを全物理サーバで確保する構成変更を実行する(ステップ1907)。例えば、ある物理サーバにおいて、他の物理サーバにリソースを(少しずつ)振り分けることにより、十分なリソースの空きを確保できるのであれば、その空きを確保する。実行した後、ある仮想サーバを、空きを確保した物理サーバに移動する等して処理全体を終了する。
(8)ステップ1906の判定で構成変更できないと判定すると(ステップ1906でNo)、プール管理部110は、表示部114を通してプール利用者や管理者、プール提供者に通知する。また、シミュレーション部115を通して、確保可能な最大量をシミュレートし、表示部114を通して表示する(ステップ1908)。表示した後、ステップ1903で次の物理サーバXの処理に移行する。
図10は、本発明の第1の実施の形態のリソースプール130の管理を示す図である。
サーバグループ1001は、複数の物理サーバ104をまとめたものである。
プール利用者1000が利用するあるリソースプール130は、物理サーバ104を他のリソースプールと共有せず、占有した状態である。リソースプール130に属する仮想サーバ120は、リソースプール130を構成する物理サーバ104のいずれかのひとつの上でそれぞれ稼動する。1つの物理サーバ104上には複数の仮想サーバ120が稼動していても良い。また、物理サーバ104のCPU合計量から仮想サーバ120のCPU割当量の合計を差し引いたものが、空き1002である。
図20は、本発明の第1の実施の形態のリソースプールの管理を示す図である。図10に示した構成と同一の構成については、同一の符号を付す。
複数のリソースプール1、2(130)が、物理サーバ104を共有している。リソースプール1、2(130)のサイズは固定である。プール利用者1(1000)が利用するリソースプール1(130)には、仮想サーバ1(120)および仮想サーバ5(120)が割り当てられている。また、プール利用者2(1000)が利用するリソースプール2(130)には、仮想サーバ2(120)、仮想サーバ3、4(120)および仮想サーバ5(120)が割り当てられている。
図21は、本発明の第1の実施の形態のリソースプールの管理を示す図である。図10に示した構成と同一の構成については、同一の符号を付す。
複数のリソースプール130が、物理サーバ104を共有している。リソースプール130のサイズは変動である。プール利用者1(1000)が利用するリソースプール1(130)には、仮想サーバ1(120)および仮想サーバ5(120)が割り当てられている。また、プール利用者2(1000)が利用するリソースプール2(130)には、仮想サーバ2(120)、仮想サーバ3、4(120)および仮想サーバ5(120)が割り当てられている。仮想サーバ120の運用に応じて、リソースプール1(130)のCPU割当量(2GHz)およびリソースプール2(130)のCPU割当量(2GHz)を変えることができる。
≪第2の実施の形態≫
本発明の第2の実施形態は、仮想サーバ120へのCPU202の割当てをCPUのコアの数によって定義する点で第1の実施の形態とは異なる。
本実施の形態のCPU202は、複数のコアを備える。各コアは、プログラムを同時に実行できる。複数のコアを備えるCPU202の場合には、コア単位で仮想サーバ120に割り当てるほうが、独立性が高く効率的である。
なお、第1の実施の形態と同じ構成は同じ符号を付与し、説明を省略する。
図22は、本実施の形態の仮想サーバ性能テーブル300の構成図である。
仮想サーバ性能テーブル300は、仮想サーバID欄301と、割当コア数欄2001とを、備える。
割当コア数欄2001には、仮想サーバ120に割当てられる単位となるCPU202のコア数を記憶している。
図23は、本実施の形態の物理サーバ性能テーブル400の構成図である。
物理サーバ性能テーブル400は、物理サーバID欄401と、総コア数欄2301と、割当済コア数欄2302と、未割当コア数欄2303を備える。
総コア数欄2301は、物理サーバ104のCPU202のコア数を記憶している。
割当済コア数欄2302は、物理サーバ104のCPU202のコア数で、物理サーバ104上で稼動する仮想サーバ120に割り当てられたコア数を記憶している。
未割当コア数欄2303は、物理サーバ104のCPU202のコア数で、物理サーバ104上で稼動するどの仮想サーバ120にも割り当てられていないコア数を記憶している。
図24は、本実施の形態のプール性能テーブル500の構成図である。
プール性能テーブル500は、プールID欄501と、総コア数欄2401と、割当済コア数欄2402と、未割当コア数欄2403を備えている。
総コア数欄2401は、リソースプール130に設定された総コア数を記憶している。リソースプール130に属する仮想サーバ120へ割り当てるコア数の合計はこの値以内にしなければならない。
割当済コア数欄2402は、リソースプール130に属する仮想サーバ120に割り当てたコア数の合計を記憶している。
未割当てコア数欄2403は、リソースプール130に属するどの仮想サーバ120にも割り当てられておらず、リソースプール130に属する仮想サーバ120や新たにリソースプール130に追加する仮想サーバ120が利用可能なコア数の合計を記憶している。
本発明の第1の実施形態では、CPUの動作クロック周波数(Hz)を単位として、物理サーバ104の性能や構成を考慮したリソースプール130の管理方法を示したが、本発明の第2の実施形態では、CPU202のコア数に基づいて、本発明の第1の実施形態と同様に、物理サーバ104の性能や構成を考慮したリソースプール130の管理方法を実現可能である。表示部114は、リソースプール130のコア数の利用状況と、当該リソースプール130を構成する物理サーバ104のコア数の利用状況と、当該物理サーバ104上で稼動する仮想サーバ120のコア数の利用状況とを、関連付けて画面に表示する。また、リソース管理部110は、仮想サーバ120と物理サーバ104との対応関係を変更して、リソースプール130の未割当コア数を仮想サーバ120に提供できるようにする。
本発明の第2の実施形態によれば、リソースプール130の利用者や、提供者、管理者によるリソースプール130の管理を容易にする。特に、物理サーバ104の構成を考慮した管理ができる。
図22〜図24を用いて具体例を説明する。プールBにはコア数2の空きがあるが(符号2403参照)、プールBを構成する物理サーバAも物理サーバBもそれぞれコア数1の空きしかない(符号2303参照)。従って、プールBの未割当コア数だけからだとコア数2の仮想サーバ120を追加できると判断してしまうが(符号2001参照)、実際は現状の構成のままでは物理サーバ104の空きが足りないためコア数2の仮想サーバ120を追加できない。このような状況が発生していることを、リソースプール130の利用者や、提供者、管理者に気付かせることができる。
≪その他≫
前記した各実施形態は、本発明を実施するために好適のものであるが、その実施形式はこれらに限定されるものでなく、本発明の要旨を変更しない範囲内において種々変形することが可能である。
例えば、本実施形態によるリソースプールによるリソースの管理方法は、物理サーバおよび物理サーバ上で稼働する仮想サーバで構成される情報処理システムだけでなく、物理ボリュームおよび物理ボリューム上に作成された仮想(論理)ボリュームで構成されるストレージシステムについても適用可能である。つまり、物理サーバや物理ボリュームといった物理デバイスおよび、仮想サーバや仮想ボリュームといった仮想デバイスで構成されるシステムについても本実施形態のリソースの管理方法を適用することが可能である。
ストレージシステムでは、ある仮想ボリュームが同時に複数の物理ボリューム上に存在することができるので、高性能の物理ボリュームと低性能の物理ボリュームとを用いて1つの仮想ボリュームを構成し、その仮想ボリュームにファイルを格納することができる。ファイルをこのように格納すると、ストレージシステムを運用するにつれ、実際にはファイルが高性能の物理ボリュームに格納されることもあれば低性能の物理ボリュームに格納されることもある。そのため、ファイルが低性能の物理ボリュームに格納されているときに、リード/ライト処理がなされると、その処理は遅く、高性能の物理ボリュームを用いた利点を生かしきれない場合がある。本発明では、リソースプールを利用するにあたり、物理ボリュームを監視することができるので、必要に応じて高性能の物理ボリュームにファイルを格納させることができ、高性能の物理ボリュームを用いた利点を生かすことができる。
また、本実施の形態で説明したリソース管理用のプログラムは、インターネット等のネットワーク上で流通可能な状態で希望者に配布しても良いし、そのプログラムを記録した記録媒体(例:CD(Compact Disk))を流通して希望者に配布しても良い。
また、本実施の形態の表示部114は、性能情報および構成情報の全部または一部の情報を表示するように制御しても良い。
また、本実施の形態では、シミュレーション部115が、プールに追加可能な仮想サーバの最大リソース量や、仮想サーバが拡張可能な最大リソース量を算出した(図16〜図18参照)。しかし、算出するこれらのリソース量は、必ずしも最大でなくとも良い(例:仮想サーバの稼働パフォーマンスが最良になるように、前記最大のリソース量の60%のリソース量を算出する等)。
その他、ハードウェア、ソフトウェア、各フローチャート等の具体的な構成について、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
物理サーバと仮想サーバとリソースプールが混在する環境での物理サーバのリソースの割当てに関する制御について本発明を適用することができる。
101 管理サーバ(管理計算機)
104 物理サーバ(物理デバイス)
120 仮想サーバ(仮想デバイス)
121 サーバ仮想化プログラム
130 リソースプール
110 プール管理部
111 制御部
112 性能管理部
113 構成管理部
114 表示部
115 シミュレーション部
119 記憶部
300 仮想サーバ性能テーブル(構成情報の一部)
400 物理サーバ性能テーブル(構成情報の一部)
500 プール性能テーブル(構成情報の一部)
600 仮想サーバ物理サーバ対応テーブル(性能情報の一部)
700 仮想サーバプール対応テーブル(性能情報の一部)
800 プール物理サーバ対応テーブル(性能情報の一部)
900 プール構成テーブル(性能情報の一部)

Claims (17)

  1. 物理デバイス上を稼働する仮想デバイスにリソースを割り当てることができ、前記物理デバイスからリソースの提供を受けるリソースプールを管理し、前記物理デバイスと通信可能に接続される管理計算機において、
    前記リソースプールにリソースを提供する物理デバイスの識別情報および管理対象となる前記リソースプールの識別情報を含む構成情報と、
    前記物理デバイスの空きリソース量および前記リソースプールの空きリソース量を含む性能情報と、を記憶する記憶装置と、
    あるリソースプールに関する表示要求を入力装置から取得する制御と、
    前記構成情報を参照して、前記表示要求のあったリソースプールおよび当該リソースプールにリソースを提供する物理デバイスを特定する制御と、
    前記性能情報を参照して、前記特定したリソースプールの空きリソース量および前記特定した物理デバイスの空きリソース量を特定する制御と、
    前記特定したリソースプールの空きリソース量および前記特定した物理デバイスの空きリソース量を表示装置に表示する制御と、を実行する制御装置と、を有する
    ことを特徴とする管理計算機。
  2. 前記構成情報には、前記リソースプールからリソースを割り当てられている仮想デバイスの識別情報が含まれており、
    前記性能情報には、前記物理デバイスの使用リソース量、前記仮想デバイスに割り当てられた割当リソース量、および前記仮想デバイス上の負荷を処理するのに不足しているリソース量である不足リソース量が含まれており、
    前記制御装置は、
    前記表示要求のあったリソースプールからリソースを割り当てる仮想デバイスを追加する場合は、前記構成情報および前記性能情報を参照して、前記追加する仮想デバイスが稼働する物理デバイスの空きリソース量と使用リソース量との合計、および前記リソースプールからリソースを割り当てられている仮想デバイス上の負荷を処理するのに必要となるリソース量である、当該割当リソース量と当該不足リソース量との合計、に基づいて、前記追加する仮想デバイスに割り当てることができるリソース量を算出する制御と、
    前記算出したリソース量の最大を前記表示装置に表示する制御と、を実行する
    ことを特徴とする請求項1に記載の管理計算機。
  3. 前記構成情報には、前記リソースプールからリソースを割り当てられている仮想デバイスの識別情報が含まれており、
    前記性能情報には、前記物理デバイスの使用リソース量、前記仮想デバイスに割り当てられた割当リソース量、および前記仮想デバイス上の負荷を処理するのに不足しているリソース量である不足リソース量が含まれており、
    前記制御装置は、
    前記表示要求のあったリソースプールからリソースを割り当てられている仮想デバイスを拡張する場合は、前記構成情報および前記性能情報を参照して、前記拡張する仮想デバイスが稼働する物理デバイスの空きリソース量と使用リソース量との合計、および前記リソースプールからリソースを割り当てられている仮想デバイス上の負荷を処理するのに必要となるリソース量である、当該割当リソース量と当該不足リソース量との合計、に基づいて、前記拡張する仮想デバイスに割り当てることができるリソースの拡張量を算出する制御と、
    前記算出したリソースの拡張量の最大を前記表示装置に表示する制御と、を実行する
    ことを特徴とする請求項1に記載の管理計算機。
  4. 前記制御装置は、
    前記性能情報を参照して、前記リソースプールの空きリソース量以上の空きリソース量を有する物理デバイスが存在すれば、ある物理デバイス上を稼働する仮想デバイスを移動させる要求を前記入力装置から取得する制御と、
    前記仮想デバイスを当該物理デバイス上に移動して稼働させる制御と、を実行する
    ことを特徴とする請求項1に記載の管理計算機。
  5. 前記物理デバイスは、物理サーバであり、
    前記仮想デバイスは、仮想サーバである、
    ことを特徴とする請求項1から請求項4のいずれかに記載の管理計算機。
  6. 物理デバイス上を稼働する仮想デバイスにリソースを割り当てることができ、前記物理デバイスからリソースの提供を受けるリソースプールを管理し、前記物理デバイスと通信可能に接続される管理計算機によるリソース管理方法において、
    前記管理計算機の記憶装置は、
    前記リソースプールにリソースを提供する物理デバイスの識別情報および管理対象となる前記リソースプールの識別情報を含む構成情報と、
    前記物理デバイスの空きリソース量および前記リソースプールの空きリソース量を含む性能情報と、を記憶しており、
    前記管理計算機の制御装置は、
    あるリソースプールに関する表示要求を入力装置から取得するステップと、
    前記構成情報を参照して、前記表示要求のあったリソースプールおよび当該リソースプールにリソースを提供する物理デバイスを特定するステップと、
    前記性能情報を参照して、前記特定したリソースプールの空きリソース量および前記特定した物理デバイスの空きリソース量を特定するステップと、
    前記特定したリソースプールの空きリソース量および前記特定した物理デバイスの空きリソース量を表示装置に表示するステップと、を実行する
    ことを特徴とするリソース管理方法。
  7. 前記構成情報には、前記リソースプールからリソースを割り当てられている仮想デバイスの識別情報が含まれており、
    前記性能情報には、前記物理デバイスの使用リソース量、前記仮想デバイスに割り当てられた割当リソース量、および前記仮想デバイス上の負荷を処理するのに不足しているリソース量である不足リソース量が含まれており、
    前記制御装置は、
    前記表示要求のあったリソースプールからリソースを割り当てる仮想デバイスを追加する場合は、前記構成情報および前記性能情報を参照して、前記追加する仮想デバイスが稼働する物理デバイスの空きリソース量と使用リソース量との合計、および前記リソースプールからリソースを割り当てられている仮想デバイス上の負荷を処理するのに必要となるリソース量である、当該割当リソース量と当該不足リソース量との合計、に基づいて、前記追加する仮想デバイスに割り当てることができるリソース量を算出するステップと、
    前記算出したリソース量の最大を前記表示装置に表示するステップと、を実行する
    ことを特徴とする請求項6に記載のリソース管理方法。
  8. 前記構成情報には、前記リソースプールからリソースを割り当てられている仮想デバイスの識別情報が含まれており、
    前記性能情報には、前記物理デバイスの使用リソース量、前記仮想デバイスに割り当てられた割当リソース量、および前記仮想デバイス上の負荷を処理するのに不足しているリソース量である不足リソース量が含まれており、
    前記制御装置は、
    前記表示要求のあったリソースプールからリソースを割り当てられている仮想デバイスを拡張する場合は、前記構成情報および前記性能情報を参照して、前記拡張する仮想デバイスが稼働する物理デバイスの空きリソース量と使用リソース量との合計、および前記リソースプールからリソースを割り当てられている仮想デバイス上の負荷を処理するのに必要となるリソース量である、当該割当リソース量と当該不足リソース量との合計、に基づいて、前記拡張する仮想デバイスに割り当てることができるリソースの拡張量を算出するステップと、
    前記算出したリソースの拡張量の最大を前記表示装置に表示するステップと、を実行する
    ことを特徴とする請求項6に記載のリソース管理方法。
  9. 前記制御装置は、
    前記性能情報を参照して、前記リソースプールの空きリソース量以上の空きリソース量を有する物理デバイスが存在すれば、ある物理デバイス上を稼働する仮想デバイスを移動させる要求を前記入力装置から取得するステップと、
    前記仮想デバイスを当該物理デバイス上に移動して稼働させるステップと、を実行する
    ことを特徴とする請求項6に記載のリソース管理方法。
  10. 前記物理デバイスは、物理サーバであり、
    前記仮想デバイスは、仮想サーバである、
    ことを特徴とする請求項6から請求項9のいずれかに記載のリソース管理方法。
  11. 物理デバイス上を稼働する仮想デバイスにリソースを割り当てることができ、前記物理デバイスからリソースの提供を受けるリソースプールを管理し、前記物理デバイスと通信可能に接続される管理計算機によるリソース管理方法を実行させるリソース管理プログラムにおいて、
    前記管理計算機の記憶装置は、
    前記リソースプールにリソースを提供する物理デバイスの識別情報および管理対象となる前記リソースプールの識別情報を含む構成情報と、
    前記物理デバイスの空きリソース量および前記リソースプールの空きリソース量を含む性能情報と、を記憶しており、
    前記管理計算機の制御装置に、
    あるリソースプールに関する表示要求を入力装置から取得する処理と、
    前記構成情報を参照して、前記表示要求のあったリソースプールおよび当該リソースプールにリソースを提供する物理デバイスを特定する処理と、
    前記性能情報を参照して、前記特定したリソースプールの空きリソース量および前記特定した物理デバイスの空きリソース量を特定する処理と、
    前記特定したリソースプールの空きリソース量および前記特定した物理デバイスの空きリソース量を表示装置に表示する処理と、を実行させる
    ことを特徴とするリソース管理プログラム。
  12. 前記構成情報には、前記リソースプールからリソースを割り当てられている仮想デバイスの識別情報が含まれており、
    前記性能情報には、前記物理デバイスの使用リソース量、前記仮想デバイスに割り当てられた割当リソース量、および前記仮想デバイス上の負荷を処理するのに不足しているリソース量である不足リソース量が含まれており、
    前記制御装置に、
    前記表示要求のあったリソースプールからリソースを割り当てる仮想デバイスを追加する場合は、前記構成情報および前記性能情報を参照して、前記追加する仮想デバイスが稼働する物理デバイスの空きリソース量と使用リソース量との合計、および前記リソースプールからリソースを割り当てられている仮想デバイス上の負荷を処理するのに必要となるリソース量である、当該割当リソース量と当該不足リソース量との合計、に基づいて、前記追加する仮想デバイスに割り当てることができるリソース量を算出する処理と、
    前記算出したリソース量の最大を前記表示装置に表示する処理と、を実行させる
    ことを特徴とする請求項11に記載のリソース管理プログラム。
  13. 前記構成情報には、前記リソースプールからリソースを割り当てられている仮想デバイスの識別情報が含まれており、
    前記性能情報には、前記物理デバイスの使用リソース量、前記仮想デバイスに割り当てられた割当リソース量、および前記仮想デバイス上の負荷を処理するのに不足しているリソース量である不足リソース量が含まれており、
    前記制御装置に、
    前記表示要求のあったリソースプールからリソースを割り当てられている仮想デバイスを拡張する場合は、前記構成情報および前記性能情報を参照して、前記拡張する仮想デバイスが稼働する物理デバイスの空きリソース量と使用リソース量との合計、および前記リソースプールからリソースを割り当てられている仮想デバイス上の負荷を処理するのに必要となるリソース量である、当該割当リソース量と当該不足リソース量との合計、に基づいて、前記拡張する仮想デバイスに割り当てることができるリソースの拡張量を算出する処理と、
    前記算出したリソースの拡張量の最大を前記表示装置に表示する処理と、を実行させる
    ことを特徴とする請求項11に記載のリソース管理プログラム。
  14. 前記制御装置に、
    前記性能情報を参照して、前記リソースプールの空きリソース量以上の空きリソース量を有する物理デバイスが存在すれば、ある物理デバイス上を稼働する仮想デバイスを移動させる要求を前記入力装置から取得する処理と、
    前記仮想デバイスを当該物理デバイス上に移動して稼働させる処理と、を実行させる
    ことを特徴とする請求項11に記載のリソース管理プログラム。
  15. 前記物理デバイスは、物理サーバであり、
    前記仮想デバイスは、仮想サーバである、
    ことを特徴とする請求項11から請求項14のいずれかに記載のリソース管理プログラム。
  16. 請求項11から請求項15のいずれかに記載のリソース管理プログラムを記録した記録媒体。
  17. 物理デバイス上を稼働する仮想デバイスにリソースを割り当てることができ、前記物理デバイスからリソースの提供を受けるリソースプールを管理する管理計算機と、前記物理デバイスとが通信可能に接続される情報処理システムにおいて、
    前記管理計算機は、
    前記リソースプールにリソースを提供する物理デバイスの識別情報および管理対象となる前記リソースプールの識別情報を含む構成情報と、
    前記物理デバイスの空きリソース量および前記リソースプールの空きリソース量を含む性能情報と、を記憶する記憶装置と、
    あるリソースプールに関する表示要求を前記管理計算機の入力装置から取得する制御と、
    前記構成情報を参照して、前記表示要求のあったリソースプールおよび当該リソースプールにリソースを提供する物理デバイスを特定する制御と、
    前記性能情報を参照して、前記特定したリソースプールの空きリソース量および前記特定した物理デバイスの空きリソース量を特定する制御と、
    前記特定したリソースプールの空きリソース量および前記特定した物理デバイスの空きリソース量を前記管理計算機の表示装置に表示する制御と、を実行する制御装置と、を有する
    ことを特徴とする情報処理システム。
JP2009135181A 2009-06-04 2009-06-04 管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム Active JP5400482B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009135181A JP5400482B2 (ja) 2009-06-04 2009-06-04 管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム
US12/558,866 US8131855B2 (en) 2009-06-04 2009-09-14 Management computer, resource management method, resource management computer program, recording medium, and information processing system
US13/408,495 US9197698B2 (en) 2009-06-04 2012-02-29 Management computer, resource management method, resource management computer program, recording medium, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009135181A JP5400482B2 (ja) 2009-06-04 2009-06-04 管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム

Publications (3)

Publication Number Publication Date
JP2010282420A true JP2010282420A (ja) 2010-12-16
JP2010282420A5 JP2010282420A5 (ja) 2011-08-18
JP5400482B2 JP5400482B2 (ja) 2014-01-29

Family

ID=43301532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009135181A Active JP5400482B2 (ja) 2009-06-04 2009-06-04 管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム

Country Status (2)

Country Link
US (2) US8131855B2 (ja)
JP (1) JP5400482B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012117471A1 (ja) * 2011-03-01 2012-09-07 日本電気株式会社 仮想サーバシステム、管理サーバ装置及びシステム管理方法
WO2014020746A1 (ja) * 2012-08-02 2014-02-06 株式会社日立製作所 管理計算機及び計算機システム管理方法
WO2014188478A1 (ja) * 2013-05-20 2014-11-27 株式会社日立製作所 仮想環境と非仮想環境が混在するクラウドシステムにおける監視項目制御方法、管理計算機及び計算機システム
JP2014533462A (ja) * 2011-10-27 2014-12-11 ゼットティーイー コーポレイション 明示的または仮想化されたマシーントゥーマシンゲート(m2m)ウェイ要素を介して、サービス構成要素の集中的な過負荷の制御をクラウドベースで実行するためのシステムおよび方法
WO2015049789A1 (ja) * 2013-10-04 2015-04-09 株式会社日立製作所 リソース管理システムおよびリソース管理方法
JP2015094975A (ja) * 2013-11-08 2015-05-18 日本電気株式会社 仮想マシン管理システムおよび仮想マシン管理方法
JP2015141459A (ja) * 2014-01-27 2015-08-03 日本電気株式会社 システム制御装置、制御方法、及びプログラム
JP2015524976A (ja) * 2012-08-31 2015-08-27 華為技術有限公司Huawei Technologies Co.,Ltd. 中央処理装置のリソース割当方法及び計算ノード
JP2017142838A (ja) * 2017-04-06 2017-08-17 華為技術有限公司Huawei Technologies Co.,Ltd. 中央処理装置のリソース割当方法及び計算ノード
WO2019176606A1 (ja) * 2018-03-12 2019-09-19 日本電信電話株式会社 Vm性能保証システムおよびvm性能保証方法
WO2019225419A1 (ja) * 2018-05-24 2019-11-28 日本電信電話株式会社 Vm優先度制御システムおよびvm優先度制御方法
WO2019225429A1 (ja) * 2018-05-24 2019-11-28 日本電信電話株式会社 Vmマイグレーションシステムおよびvmマイグレーション方法

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120158923A1 (en) * 2009-05-29 2012-06-21 Ansari Mohamed System and method for allocating resources of a server to a virtual machine
GB2473194A (en) * 2009-09-02 2011-03-09 1E Ltd Monitoring the performance of a computer based on the value of a net useful activity metric
WO2011043011A1 (ja) * 2009-10-09 2011-04-14 日本電気株式会社 仮想サーバシステム、その自律制御サーバ、そのデータ処理方法およびコンピュータプログラム
US8224993B1 (en) * 2009-12-07 2012-07-17 Amazon Technologies, Inc. Managing power consumption in a data center
US9122538B2 (en) * 2010-02-22 2015-09-01 Virtustream, Inc. Methods and apparatus related to management of unit-based virtual resources within a data center environment
US8782240B2 (en) * 2010-10-18 2014-07-15 Avaya Inc. Resource allocation using shared resource pools
US20120158945A1 (en) * 2010-12-16 2012-06-21 Christian Goldbach Server load balancing using dynamic log-on groups
US8549519B2 (en) 2011-08-19 2013-10-01 Hitachi, Ltd. Method and apparatus to improve efficiency in the use of resources in data center
US9223623B2 (en) * 2012-03-28 2015-12-29 Bmc Software, Inc. Dynamic service resource control
US20150006730A1 (en) * 2013-06-27 2015-01-01 Sap Ag Enabling multi-tenant virtual servers in a cloud system
US20150081400A1 (en) * 2013-09-19 2015-03-19 Infosys Limited Watching ARM
US9432267B2 (en) 2014-03-12 2016-08-30 International Business Machines Corporation Software defined infrastructures that encapsulate physical server resources into logical resource pools
US10382279B2 (en) * 2014-06-30 2019-08-13 Emc Corporation Dynamically composed compute nodes comprising disaggregated components
US10382534B1 (en) 2015-04-04 2019-08-13 Cisco Technology, Inc. Selective load balancing of network traffic
US10108455B2 (en) 2015-08-26 2018-10-23 Vmware, Inc. Methods and apparatus to manage and execute actions in computing environments based on a type of virtual compute node
US10110505B2 (en) 2015-08-26 2018-10-23 Vmware, Inc. Methods and apparatus to manage and execute actions in computing environments using a graphical user interface
US10122649B2 (en) * 2015-08-26 2018-11-06 Vmware, Inc. Methods and apparatus to manage and execute actions in computing environments based on a routing path
US11005682B2 (en) 2015-10-06 2021-05-11 Cisco Technology, Inc. Policy-driven switch overlay bypass in a hybrid cloud network environment
US10523657B2 (en) 2015-11-16 2019-12-31 Cisco Technology, Inc. Endpoint privacy preservation with cloud conferencing
US20180013636A1 (en) * 2016-07-07 2018-01-11 Cisco Technology, Inc. System and method for scaling application containers in cloud environments
US10659283B2 (en) 2016-07-08 2020-05-19 Cisco Technology, Inc. Reducing ARP/ND flooding in cloud environment
US10263898B2 (en) 2016-07-20 2019-04-16 Cisco Technology, Inc. System and method for implementing universal cloud classification (UCC) as a service (UCCaaS)
US11044162B2 (en) 2016-12-06 2021-06-22 Cisco Technology, Inc. Orchestration of cloud and fog interactions
US10326817B2 (en) 2016-12-20 2019-06-18 Cisco Technology, Inc. System and method for quality-aware recording in large scale collaborate clouds
US10334029B2 (en) 2017-01-10 2019-06-25 Cisco Technology, Inc. Forming neighborhood groups from disperse cloud providers
US10552191B2 (en) 2017-01-26 2020-02-04 Cisco Technology, Inc. Distributed hybrid cloud orchestration model
US10892940B2 (en) 2017-07-21 2021-01-12 Cisco Technology, Inc. Scalable statistics and analytics mechanisms in cloud networking
JPWO2021171211A1 (ja) * 2020-02-26 2021-09-02
CN117891426B (zh) * 2024-03-14 2024-05-24 麒麟软件有限公司 显示设备扩展功能管理系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120106A (ja) * 1997-10-17 1999-04-30 Fujitsu Ltd サーバ資源利用状況の表示方式およびそのための記録媒体
JP2005222123A (ja) * 2004-02-03 2005-08-18 Hitachi Ltd 計算機システム、管理装置、ストレージ装置及びコンピュータ装置
JP2008152594A (ja) * 2006-12-19 2008-07-03 Hitachi Ltd マルチコアプロセッサ計算機の高信頼化方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4949254A (en) 1988-09-29 1990-08-14 Ibm Corp. Method to manage concurrent execution of a distributed application program by a host computer and a large plurality of intelligent work stations on an SNA network
JP4519098B2 (ja) 2006-03-30 2010-08-04 株式会社日立製作所 計算機の管理方法、計算機システム、及び管理プログラム
WO2009108344A1 (en) * 2008-02-29 2009-09-03 Vkernel Corporation Method, system and apparatus for managing, modeling, predicting, allocating and utilizing resources and bottlenecks in a computer network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120106A (ja) * 1997-10-17 1999-04-30 Fujitsu Ltd サーバ資源利用状況の表示方式およびそのための記録媒体
JP2005222123A (ja) * 2004-02-03 2005-08-18 Hitachi Ltd 計算機システム、管理装置、ストレージ装置及びコンピュータ装置
JP2008152594A (ja) * 2006-12-19 2008-07-03 Hitachi Ltd マルチコアプロセッサ計算機の高信頼化方法

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012117471A1 (ja) * 2011-03-01 2012-09-07 日本電気株式会社 仮想サーバシステム、管理サーバ装置及びシステム管理方法
US9461933B2 (en) 2011-03-01 2016-10-04 Nec Corporation Virtual server system, management server device, and system managing method
JP5867499B2 (ja) * 2011-03-01 2016-02-24 日本電気株式会社 仮想サーバシステム、管理サーバ装置及びシステム管理方法
US9426088B2 (en) 2011-10-27 2016-08-23 Zte (Usa) Inc. System and method for cloud-based implementation of control of focused overload of service element (COFO-SE) via explicit (or virtualized) machine-to-machine (M2M) gateway element
JP2014533462A (ja) * 2011-10-27 2014-12-11 ゼットティーイー コーポレイション 明示的または仮想化されたマシーントゥーマシンゲート(m2m)ウェイ要素を介して、サービス構成要素の集中的な過負荷の制御をクラウドベースで実行するためのシステムおよび方法
WO2014020746A1 (ja) * 2012-08-02 2014-02-06 株式会社日立製作所 管理計算機及び計算機システム管理方法
US10810045B2 (en) 2012-08-31 2020-10-20 Huawei Technologies Co., Ltd. Method and apparatus for allocating central processing unit (CPU) resources in a default resource pool
JP2015524976A (ja) * 2012-08-31 2015-08-27 華為技術有限公司Huawei Technologies Co.,Ltd. 中央処理装置のリソース割当方法及び計算ノード
US10007558B2 (en) 2012-08-31 2018-06-26 Huawei Technologies Co., Ltd. Method and apparatus for allocating central processing unit resources in a default resource pool
WO2014188478A1 (ja) * 2013-05-20 2014-11-27 株式会社日立製作所 仮想環境と非仮想環境が混在するクラウドシステムにおける監視項目制御方法、管理計算機及び計算機システム
US9444704B2 (en) 2013-05-20 2016-09-13 Hitachi, Ltd. Method for controlling monitoring items, management computer, and computer system in cloud system where virtual environment and non-virtual environment are mixed
JP6030757B2 (ja) * 2013-05-20 2016-11-24 株式会社日立製作所 仮想環境と非仮想環境が混在するクラウドシステムにおける監視項目制御方法、管理計算機及び計算機システム
WO2015049789A1 (ja) * 2013-10-04 2015-04-09 株式会社日立製作所 リソース管理システムおよびリソース管理方法
JP5976230B2 (ja) * 2013-10-04 2016-08-23 株式会社日立製作所 リソース管理システムおよびリソース管理方法
US9495195B2 (en) 2013-10-04 2016-11-15 Hitachi, Ltd. Resource migration between virtual containers based on utilization rate and performance degradation
JP2015094975A (ja) * 2013-11-08 2015-05-18 日本電気株式会社 仮想マシン管理システムおよび仮想マシン管理方法
JP2015141459A (ja) * 2014-01-27 2015-08-03 日本電気株式会社 システム制御装置、制御方法、及びプログラム
JP2017142838A (ja) * 2017-04-06 2017-08-17 華為技術有限公司Huawei Technologies Co.,Ltd. 中央処理装置のリソース割当方法及び計算ノード
WO2019176606A1 (ja) * 2018-03-12 2019-09-19 日本電信電話株式会社 Vm性能保証システムおよびvm性能保証方法
WO2019225419A1 (ja) * 2018-05-24 2019-11-28 日本電信電話株式会社 Vm優先度制御システムおよびvm優先度制御方法
JP2019204305A (ja) * 2018-05-24 2019-11-28 日本電信電話株式会社 Vm優先度制御システムおよびvm優先度制御方法
WO2019225429A1 (ja) * 2018-05-24 2019-11-28 日本電信電話株式会社 Vmマイグレーションシステムおよびvmマイグレーション方法

Also Published As

Publication number Publication date
US20100312893A1 (en) 2010-12-09
US9197698B2 (en) 2015-11-24
JP5400482B2 (ja) 2014-01-29
US20120166649A1 (en) 2012-06-28
US8131855B2 (en) 2012-03-06

Similar Documents

Publication Publication Date Title
JP5400482B2 (ja) 管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム
JP4519098B2 (ja) 計算機の管理方法、計算機システム、及び管理プログラム
CN111344688B (zh) 云计算中资源提供的方法及系统
US8595364B2 (en) System and method for automatic storage load balancing in virtual server environments
JP5577412B2 (ja) 計算機システム、マイグレーション方法及び管理サーバ
US8327370B2 (en) Dynamic policy manager method, system, and computer program product for optimizing fractional resource allocation
US9201896B2 (en) Managing distributed storage quotas
Li et al. CAM: a topology aware minimum cost flow based resource manager for MapReduce applications in the cloud
US20160210175A1 (en) Method of allocating physical computing resource of computer system
KR101430649B1 (ko) 클라우드 환경 내의 데이터 분석 서비스 제공 시스템 및 방법
US10248460B2 (en) Storage management computer
CN109684074A (zh) 物理机资源分配方法及终端设备
JP2015146154A (ja) ジョブスケジューリング装置、ジョブスケジューリング方法、およびジョブスケジューリングプログラム
US10419305B2 (en) Visualization of workload distribution on server resources
JP2011186701A (ja) リソース割当装置、リソース割当方法、およびリソース割当プログラム
US11586471B2 (en) Computer system and control method for computer system
US11635996B2 (en) Management system and management method for migrating a business system operating on a target infrastructure
JP2017215884A (ja) 仮想マシン配置装置およびリソース管理方法
US9467336B2 (en) Information processing system and management method thereof
JP2015022385A (ja) 仮想システムおよび仮想システム制御方法
JP2010026828A (ja) 仮想計算機の制御方法
JP6374059B2 (ja) コンピュータ資源配分決定方法、コンピュータ資源配分決定方法プログラムおよび制御用コンピュータ
JP2016038888A (ja) 情報処理システム、情報処理方法及び情報処理プログラム
KR20160063430A (ko) 가상머신 리소스 사전예약을 통한 가용 리소스 자원 관리 및 할당 방법
JP2015146148A (ja) 仮想マシン管理装置、仮想マシン管理方法、及び、仮想マシン管理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131025

R150 Certificate of patent or registration of utility model

Ref document number: 5400482

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150