JP5867499B2 - 仮想サーバシステム、管理サーバ装置及びシステム管理方法 - Google Patents

仮想サーバシステム、管理サーバ装置及びシステム管理方法 Download PDF

Info

Publication number
JP5867499B2
JP5867499B2 JP2013502054A JP2013502054A JP5867499B2 JP 5867499 B2 JP5867499 B2 JP 5867499B2 JP 2013502054 A JP2013502054 A JP 2013502054A JP 2013502054 A JP2013502054 A JP 2013502054A JP 5867499 B2 JP5867499 B2 JP 5867499B2
Authority
JP
Japan
Prior art keywords
management
amount
virtual server
data
management virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013502054A
Other languages
English (en)
Other versions
JPWO2012117471A1 (ja
Inventor
竹村 俊徳
俊徳 竹村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2013502054A priority Critical patent/JP5867499B2/ja
Publication of JPWO2012117471A1 publication Critical patent/JPWO2012117471A1/ja
Application granted granted Critical
Publication of JP5867499B2 publication Critical patent/JP5867499B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/83Admission control; Resource allocation based on usage prediction

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Debugging And Monitoring (AREA)

Description

本発明は、複数の物理サーバ及び複数の物理サーバ装置上で稼働する複数の仮想サーバの管理技術に関する。
近年、仮想サーバ技術が進歩及び普及している。仮想サーバ技術では、物理的に1台のコンピュータ上に、ソフトウェアにより複数の仮想サーバが構築され、それら複数の仮想サーバで複数の処理が並列に実行される。このような仮想サーバ技術によれば、通信網を介して接続された複数のコンピュータを用いて複数の仮想サーバを同時に稼動させる仮想サーバシステムを構築することができる。
以降、仮想サーバと物理的なコンピュータとを区別するために、物理的なコンピュータを物理サーバ装置と表記する場合もある。
上述のような仮想サーバシステムでは、物理サーバ装置の空きリソースを利用して仮想サーバを統合する技術が用いられている。例えば、下記特許文献1で提案される仮想サーバシステムでは、従来、管理専用に用意された物理サーバ装置を管理サーバ装置として稼働させていたところ、空きリソースの多い物理サーバ装置上に他の仮想サーバと共に管理用仮想サーバが構築されている。この手法によれば、物理サーバ装置の台数を削減することができる。また、下記特許文献2で提案される仮想サーバシステムは、サービスのリソース使用量に基づいて、仮想マシンをホストマシン(仮想マシンの管理単位)間で移動させる。
特開2010−026828号公報 特開2010−113677号公報
しかしながら、上述のような仮想サーバシステムでは、システム規模が大きくなる程、管理用仮想サーバで処理すべき運用管理データの量が大きくなるため、物理サーバ装置が、その管理用仮想サーバにとって必要なリソースを十分に提供できなくなる場合がある。また、従来の仮想サーバシステムでは、当該運用管理データが管理用仮想サーバに集約されるため、管理用仮想サーバにおける運用管理データの分析処理においてボトルネックが発生する場合がある。
本発明の目的は、上述のような問題点に鑑み、複数の物理サーバ及び複数の物理サーバ装置上で稼働する複数の仮想サーバを適切にかつ効率よく管理する技術を提供することにある。
本発明の各態様では、上述した課題を解決するために、それぞれ以下の構成を採用する。
第1の態様は、複数の仮想サーバを稼働させる複数の物理サーバ装置と、これら複数の物理サーバ装置と通信可能な管理サーバ装置と、を備える仮想サーバシステムに関する。第1の態様に係る仮想サーバシステムでは、当該各物理サーバ装置は、当該複数の仮想サーバの中の少なくとも1つとして、各物理サーバ装置及び各物理サーバ装置上で稼働する他の仮想サーバから取得されたデータの分析処理を実行する管理用仮想サーバを稼働させる。更に、第1の態様に係る仮想サーバシステムでは、当該管理サーバ装置が、当該複数の物理サーバ装置から負荷データをそれぞれ収集するデータ収集手段と、このデータ収集手段により収集された負荷データを用いて、各物理サーバ装置の空きリソース量をそれぞれ算出する空き容量算出手段と、この空き容量算出手段により算出された空きリソース量の範囲内において、当該管理用仮想サーバに対するリソース割当量を算出する割当量算出手段と、この割当量算出手段により算出されたリソース割当量のリソースを当該管理用仮想サーバに割り当てるよう当該管理用仮想サーバが稼働する物理サーバ装置に指示する割当指示手段と、管理用仮想サーバに分析処理の実行を指示すると共に、管理用仮想サーバにおいて分析処理に費やされた時間を取得する分析処理指示手段と、を備える。前記割当量算出手段は、前記空きリソース量の範囲内で割当可能なリソース量を決定し、前記割当指示手段により既に指示されたリソース割当量と前記分析処理指示手段により取得された分析処理時間との積、及び、予め保持される所定処理時間を用いて、当該割当可能なリソース量の範囲内において前記管理用仮想サーバに対するリソース割当量を算出する。当該管理サーバ装置は、割当指示手段により既に指示されたリソース割当量及び分析処理指示手段により取得された分析処理時間のセットの履歴を格納する性能データ格納手段と、複数の物理サーバ装置上で稼働する複数の管理用仮想サーバに含まれる転送対象の管理用仮想サーバに、分析処理の対象となるデータの一部を、他の物理サーバ装置上で稼働する転送先の管理用仮想サーバに転送するよう指示する転送指示手段と、を更に備える。割当量算出手段は、性能データ格納手段に格納される履歴情報に基づいて、各管理用仮想サーバに関し、算出されたリソース割当量が割り当てられた場合の分析処理に費やされる時間をそれぞれ推定し、複数の管理用仮想サーバの中から、所定上限時間を超える分析処理時間が推定された管理用仮想サーバを転送対象の管理用仮想サーバとして特定する
第2の態様は、複数の仮想サーバをそれぞれ稼働させる複数の物理サーバ装置と、当該複数の物理サーバ装置と通信可能な管理サーバ装置と、を備える仮想サーバシステムで実行されるシステム管理方法に関する。第2の態様に係るシステム管理方法では、当該各物理サーバ装置がそれぞれ、当該複数の仮想サーバの中の少なくとも1つの仮想サーバとして、各物理サーバ装置及び各物理サーバ装置上で稼働する他の仮想サーバから取得されたデータの分析処理を実行する管理用仮想サーバを稼働させる。更に、第2の態様に係るシステム管理方法では、当該管理サーバ装置が、当該複数の物理サーバ装置から負荷データをそれぞれ収集するデータ収集ステップと、この収集された負荷データを用いて、各物理サーバ装置の空きリソース量をそれぞれ算出する割当量算出ステップと、この算出された空きリソース量の範囲内において、当該管理用仮想サーバに対するリソース割当量を算出し、この算出されたリソース割当量のリソースを当該管理用仮想サーバに割り当てるよう当該管理用仮想サーバが稼働する物理サーバ装置に指示する割当指示ステップと、管理用仮想サーバに分析処理の実行を指示すると共に、管理用仮想サーバにおいて分析処理に費やされた時間を取得する分析処理指示ステップと、を実行する。割当量算出ステップにおいて、空きリソース量の範囲内で割当可能なリソース量を決定し、割当指示ステップにおいて既に指示されたリソース割当量と分析処理指示ステップにおいて取得された分析処理時間との積、及び、予め保持される所定処理時間を用いて、当該割当可能なリソース量の範囲内において管理用仮想サーバに対するリソース割当量を算出する。当該管理サーバ装置は、割当指示ステップにおいて既に指示されたリソース割当量及び分析処理指示ステップにおいて取得された分析処理時間のセットの履歴を格納する性能データ格納手段を有する。当該管理サーバ装置は、複数の物理サーバ装置上で稼働する複数の管理用仮想サーバに含まれる転送対象の管理用仮想サーバに、分析処理の対象となるデータの一部を、他の物理サーバ装置上で稼働する転送先の管理用仮想サーバに転送するよう指示する転送指示ステップを更に実行する。割当量算出ステップにおいて、性能データ格納手段に格納される履歴情報に基づいて、各管理用仮想サーバに関し、算出されたリソース割当量が割り当てられた場合の分析処理に費やされる時間をそれぞれ推定し、複数の管理用仮想サーバの中から、所定上限時間を超える分析処理時間が推定された管理用仮想サーバを転送対象の管理用仮想サーバとして特定する
なお、本発明の別態様としては、上記第1の態様に含まれる管理サーバ装置であってもよいし、その管理サーバ装置の各構成をコンピュータに実現させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
上記各態様によれば、複数の物理サーバ及び複数の物理サーバ装置上で稼働する複数の仮想サーバを適切にかつ効率よく管理する技術を提供することができる。
図1は、第1実施形態における仮想サーバシステムの構成例を示す概念図である。 図2は、第1実施形態における管理サーバ装置の構成例を概念的に示すブロック図である。 図3は、第1実施形態においける管理サーバ装置の動作例を示すフローチャートである。 図4は、第2実施形態における管理サーバ装置の構成例を概念的に示すブロック図である。 図5は、第2実施形態における管理サーバ装置の動作例を示すフローチャートである。 図6は、第2実施形態における転送先選定部の動作例を示すフローチャートである。
以下、本発明の実施の形態について説明する。なお、以下に挙げる実施形態は例示であり、本発明は以下の実施形態の構成に限定されない。
本実施形態に係る仮想サーバシステムは、物理サーバ装置及び当該物理サーバ装置上で稼働する他の仮想サーバから取得されたデータの分析処理を実行する管理用仮想サーバを含む、複数の仮想サーバをそれぞれ稼働させる複数の物理サーバ装置と、このような複数の物理サーバ装置と通信可能な管理サーバ装置とを有する。当該管理サーバ装置は、複数の物理サーバ装置から負荷データをそれぞれ収集するデータ収集手段と、このデータ収集手段により収集された負荷データを用いて、各物理サーバ装置の空きリソース量をそれぞれ算出する空き容量算出手段と、この空き容量算出手段により算出された空きリソース量の範囲内において、管理用仮想サーバに対するリソース割当量を算出する割当量算出手段と、この割当量算出手段により算出されたリソース割当量のリソースを管理用仮想サーバに割り当てるよう管理用仮想サーバが稼働する物理サーバ装置に指示する割当指示手段と、を備える。
ここで、管理用仮想サーバにより取得されるデータは、管理用仮想サーバ自体を稼働させる物理サーバ装置、及び、その物理サーバ装置上で稼働する他の仮想サーバから収集されるデータであって、以降、運用管理データと表記する場合もある。運用管理データとは、例えば、障害履歴情報、仮想サーバの稼働履歴情報、仮想サーバ上で実行されているアプリケーション情報、負荷情報等である。また、このような運用管理データの分析処理とは、性能分析、負荷変動の予測、リソース量の見積もり(キャパシティプランニング)等である。なお、本実施形態は、管理用仮想サーバにより取得される運用管理データ自体及びその運用管理データの分析処理自体を限定しない。
本実施形態では、複数の物理サーバ装置から負荷データが収集され、収集された負荷データを用いて各物理サーバ装置の空きリソース量がそれぞれ算出され、算出された空きリソース量を用いて、各物理サーバ装置上で稼働する各管理用仮想サーバに対するリソース割当量がそれぞれ算出される。そして、本実施形態に係る管理サーバ装置から各物理サーバ装置へそれぞれ指示されることにより、各物理サーバ装置において、上記算出されたリソース割当量の各リソースが各管理用仮想サーバに割り当てられる。
このように、本実施形態では、各物理サーバ装置の空きリソースを利用して、物理サーバ装置及び仮想サーバから取得されるデータの分析処理を行う各管理用仮想サーバを稼働させる。つまり、本実施形態によれば、物理サーバ装置及び仮想サーバに関するデータの分析処理を複数の物理サーバ装置に効率的に分散させることができる。
本実施形態によれば、上述のように、分析処理を効率的に分散させることにより、当該分析処理を行う処理主体に対して十分にリソースを割り当てられない現象や、当該分析処理がシステム全体の処理能力のボトルネックとなる現象を防ぐことができる。更に、当該分析処理の分散により、当該分析処理を管理サーバ装置が集約して行う従来システムに比べて、管理サーバ装置の処理負荷を軽減させることができる。更に、本実施形態では、各物理サーバ装置上で取得される各データ(運用管理データ)の分析処理が実行されるため、分析処理対象のデータが各物理サーバ装置と管理サーバ装置との間で送受されていた従来システムに比べて、通信負荷を低減させることができる。
従って、本実施形態によれば、複数の物理サーバ装置及び各物理サーバ装置上で稼働する仮想サーバを効率よく適切に管理することができる。
以下、上述の実施形態について更に詳細を説明する。
[第1実施形態]
〔システム構成〕
図1は、第1実施形態における仮想サーバシステム10の構成例を示す概念図である。第1実施形態における仮想サーバシステム10は、管理サーバ装置2、複数の物理サーバ装置3等を含む。図1では、物理サーバ装置3は、符号3(#1)から符号3(#m)(mは正数)で示される。物理サーバ装置3(#1)から3(#m)は、本実施形態に関連する機能については同一の機能を有していればよいため、以降、個々に区別する必要がある場合を除き、物理サーバ装置3と表記する。
管理サーバ装置2と各物理サーバ装置3とは、通信網1を介して接続され、相互に通信可能である。通信網1は、インターネット等のような公衆網、WAN(Wide Area Network)、LAN(Local Area Network)、無線通信ネットワーク等である。なお、本実施形態において、管理サーバ装置2と各物理サーバ装置3との間の通信形態は限定されない。
管理サーバ装置2は、いわゆるコンピュータであり、例えば、バス15で相互に接続される、CPU(Central Processing Unit)11、メモリ12、入出力インタフェース(I/F)13等を有する。メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、可搬型記憶媒体等である。入出力I/F13は、通信網1を介して各物理サーバ装置3と通信を行う通信装置等と接続される。入出力I/F13は、表示装置や入力装置等のようなユーザインタフェース装置と接続されてもよい。なお、本実施形態は、管理サーバ装置2のハードウェア構成を限定しない。
物理サーバ装置3も、いわゆるコンピュータであり、管理サーバ装置2と同様に、CPU、メモリ、入出力I/F等(図示せず)を有する。物理サーバ装置3は、メモリに格納されるプログラムがCPUにより実行されることにより、サーバ仮想化を実現する。このサーバ仮想化は、例えば、仮想マシンモニタ(以降、VMM(Virtual Machine Monitor)と表記する)により実現される。この場合、VMMは、1台の物理サーバ装置3を仮想マシンとしてエミュレートすることにより、複数のゲストOS(Operating System)を稼働させる。このような仮想化技術としては、複数種の技術が周知であり、本実施形態は、サーバ仮想化技術自体を限定しない。
物理サーバ装置3は、上述のような仮想化技術により、複数の仮想サーバを稼働させる。このような複数の仮想サーバには、自身を稼働する物理サーバ装置3、及び、同一の物理サーバ装置3上で稼働する他の仮想サーバから取得されたデータ(運用管理データ)の分析処理を実行する管理用仮想サーバが含まれる。図1では、管理用仮想サーバは、符号31(#1)から符号31(#m)で示される。管理用仮想サーバ31(#1)から31(#m)は、同一の機能を有していればよいため、以降、個々に区別する必要がある場合を除き、管理用仮想サーバ31と表記する。
本実施形態では、物理サーバ装置3上で稼働される複数の仮想サーバが、上述の管理用仮想サーバ31と、この管理用仮想サーバ31によりデータ分析処理の対象とされる他の仮想サーバとに分類される。図1では、当該他の仮想サーバは、業務用仮想サーバと表記される。本実施形態は、当該他の仮想サーバは、管理用仮想サーバ31によるデータ分析処理の対象とされる仮想サーバであれば、業務用仮想サーバに限定されない。即ち、当該他の仮想サーバ上で実行される処理は限定されない。図1では、業務用仮想サーバは、符号32(#1)から符号3n(#1)、および、符号32(#m)から符号3n(#m)と表記される。これら業務用仮想サーバは、本実施形態に関連する機能については同一機能を有していればよいため、以降、個々に区別する必要がある場合を除き、業務用仮想サーバ32と表記する。なお、各業務用仮想サーバ32は、本実施形態に関連しない機能についてはそれぞれ異なる機能を有していてもよい。
仮想サーバシステム10に含まれる管理サーバ装置2及び各物理サーバ装置3は、管理サーバ装置2、各物理サーバ装置3、各仮想サーバ(管理用仮想サーバ31及び業務用仮想サーバ32)をそれぞれ特定し得る識別情報を共有している。これら識別情報は、通信に利用されるIP(Internet Protocol)アドレスやホスト名であってもよいし、本仮想サーバシステム10で定義された固有の情報であってもよい。これら識別情報は、各装置及び各仮想サーバを個別に特定することができ、他の装置及び他の仮想サーバを宛先として通信することができるのであれば、どのような形態であってもよい。よって、以降の説明では、これら識別情報を用いた各ノードの特定手法については言及しない。
〔装置構成〕
図2は、第1実施形態における管理サーバ装置2の構成例を概念的に示すブロック図である。第1実施形態における管理サーバ装置2は、データ収集部21、空き容量算出部22、割当量算出部23、割当指示部24、分析処理指示部25、負荷データ格納部27、性能データ格納部28等を含む。これら各処理部は、例えば、CPU11によりメモリ12に格納されるプログラムが実行されることで実現される。負荷データ格納部27及び性能データ格納部28は、メモリ12上で実現される。
データ収集部21は、複数の物理サーバ装置3から負荷データをそれぞれ収集する。具体的には、データ収集部21は、入出力I/F13を介して、各物理サーバ装置、各管理用仮想サーバ31、各業務用仮想サーバ32等を宛先とするデータ要求パケットを送り、各物理サーバ装置3から負荷データを含む応答パケットを受信する。負荷データは、各物理サーバ装置3から自発的に管理サーバ装置2へ送信されてもよい。
当該負荷データとは、物理サーバ装置3が有する各リソース(コンピュータ資源)の利用状況を示す情報であり、CPU使用率、CPU数、CPUコア数、メモリ使用量、記録媒体の入出力性能値(例えば、最大データ転送速度に対する入出力データ転送速度の割合)、記録媒体の保存データ量、通信制御装置の入出力性能値(伝送速度や使用帯域等)等が該当する。当該負荷データは、利用されているリソース量と呼ぶこともできる。本実施形態は、この負荷データの内容自体を制限しないため、収集される負荷データは、上記各情報のいずれか1つであってもよいし、各情報のいずれか複数であってもよいし、他の情報であってもよい。
当該負荷データは、物理サーバ装置3の負荷データとして収集される。物理サーバ装置3の負荷データとは、物理サーバ装置3上で稼働される全仮想サーバの負荷データと、仮想サーバ以外でその物理サーバ装置3上で実行される処理の負荷データとの合計値を意味する。よって、データ収集部21は、物理サーバ装置3上で稼働される全仮想サーバから各仮想サーバの負荷データをそれぞれ収集し、かつ、その物理サーバ装置3から、仮想サーバ以外でその物理サーバ装置3上で実行される処理の負荷データを収集し、これら負荷データを足し合わせることにより物理サーバ装置3の負荷データを算出するようにしてもよい。
データ収集部21は、当該負荷データを任意のタイミング(例えば所定周期)で収集し、収集された負荷データを履歴データとして負荷データ格納部27に格納する。
負荷データ格納部27は、各物理サーバ装置3に関し、データ収集部21により収集された負荷データの履歴、及び、最大処理性能値をそれぞれ格納する。最大処理性能値とは、物理サーバ装置3が有するリソース量の最大値、即ち、空きリソース量の最大値を意味する。各物理サーバ装置3の最大処理性能値は、予め、負荷データ格納部27に格納されていてもよいし、データ収集部21により各物理サーバ装置3から収集されるようにしてもよい。
空き容量算出部22は、データ収集部21により収集された負荷データを用いて、各物理サーバ装置3の空きリソース量をそれぞれ算出する。例えば、空き容量算出部22は、最大処理性能値から負荷データを減算することにより、各物理サーバ装置3の空きリソース量を算出する。空きリソース量は、或る時点の瞬間値、即ち、1つの負荷データを用いて算出されてもよいし、負荷データ格納部27に格納される一定期間の負荷データの平均値を用いて算出されてもよいし、負荷データ格納部27に格納される一定期間の負荷データのうちの最大値を用いて算出されてもよい。
割当量算出部23は、空き容量算出部22により算出された空きリソース量の範囲内において、各管理用仮想サーバ31に対するリソース割当量をそれぞれ算出する。具体的には、割当量算出部23は、当該空きリソース量を用いて、各物理サーバ装置3に関し割当可能なリソース量をそれぞれ算出し、この割当可能なリソース量より小さくなるように当該リソース割当量を決定する。割当可能なリソース量は、例えば、空きリソース量から、最大処理性能値と、最大処理性能値に対する利用不可能な最大リソース量の割合値(例えば、20%)との積を減算することにより算出される。また、割当可能なリソース量には、空きリソース量そのままが利用されてもよい。
また、具体的なリソース割当量の決定手法には、以下のような複数の手法が存在する。第1手法は、割当可能なリソース量をそのままリソース割当量に決定する手法である。第2手法は、割当可能なリソース量に所定係数を掛けることでリソース割当量を決定する手法である。第3手法及び第4手法は、管理用仮想サーバ31における運用管理データの分析処理に必要な総リソース量を算出し、この総リソース量を用いてリソース割当量を決定する手法である。
総リソース量は、管理用仮想サーバ31に割り当てられたリソース量と、その管理用仮想サーバ31における運用管理データの分析処理に費やされた処理時間とを乗算することにより算出される。管理用仮想サーバ31に割り当てられたリソース量は、以前に割当量算出部23により算出され、割当指示部24により実際に管理用仮想サーバ31に割り当てられたリソース割当量が利用される。このリソース割当量は、性能データ格納部28から取得される。上記処理時間は、分析処理指示部25により計測された時間であり、性能データ格納部28から取得される。
上記第3手法では、上述の総リソース量が割当可能なリソース量で除算されることにより、割当可能なリソース量が実際に管理用仮想サーバ31に割り当てられた場合に当該分析処理に費やされる処理時間が推定され、この処理時間が予め保持される所定処理時間(例えば目標処理時間)より短くなるようにリソース割当量を決定する。例えば、割当可能なリソース量に基づいて推定された処理時間が所定処理時間よりも短い場合には、割当可能なリソース量がそのままリソース割当量に決定される。
上記第4手法は、上述の総リソース量を所定処理時間で除算することにより得られる値をリソース割当量に決定する。この第4手法は、管理用仮想サーバ31に、所定処理時間全てを使って運用管理データの分析処理を行わせる場合に有効である。割当量算出部23は、これら複数の手法のうちの少なくとも1つを用いて、各管理用仮想サーバ31に対するリソース割当量をそれぞれ算出する。なお、これら手法は、物理サーバ装置3毎又は管理用仮想サーバ31毎に切り替えられて利用されてもよい。
割当指示部24は、割当量算出部23により算出された各リソース割当量のリソースを各管理用仮想サーバ31に割り当てるよう各管理用仮想サーバ31が稼働する各物理サーバ装置3に指示する。具体的には、割当指示部24は、入出力I/F13を介してリソース割当量を示すデータを含む指示パケットを物理サーバ装置3に送る。これにより、物理サーバ装置3のVMMやホストOSが、この指示パケットに応じてそのリソース割当量のリソースを対象の管理用仮想サーバ31に割り当てる。
分析処理指示部25は、各管理用仮想サーバ31に対して、運用管理データの分析処理の実行を指示すると共に、各管理用仮想サーバ31において当該分析処理に費やされた処理時間を取得する。分析処理指示部25は、例えば、分析処理の実行指示を送信してから、管理用仮想サーバ31から分析処理の完了の通知を受けるまでの時間を計測し、その時間を当該処理時間としてもよいし、管理用仮想サーバ31により計測された処理時間を管理用仮想サーバ31から取得するようにしてもよい。分析処理指示部25は、取得された運用管理データの分析処理に費やされた処理時間を性能データ格納部28に格納する。
性能データ格納部28は、各管理用仮想サーバ31における運用管理データの分析処理の処理時間、及び、各管理用仮想サーバ31に割り当てられたリソース割当量をそれぞれ格納する。
〔動作例〕
図3は、第1実施形態においける管理サーバ装置2の動作例を示すフローチャートである。
管理サーバ装置2では、データ収集部21が、各物理サーバ装置3(3(#1)から3(#m))から負荷データをそれぞれ収集する(S31)。収集された負荷データは、負荷データ格納部27に格納される。
空き容量算出部22は、データ収集部21により収集された負荷データ、及び、各物理サーバ装置3の最大処理性能値を用いて、各物理サーバ装置3の空きリソース量をそれぞれ算出する(S32)。最大処理性能値は、例えば、負荷データ格納部27から取得される。
割当量算出部23は、上記処理(S32)で算出された空きリソース量の範囲内において、各管理用仮想サーバ31に対するリソース割当量をそれぞれ算出する(S33)。リソース割当量の算出には、空きリソース量に加えて、負荷データ格納部27に格納される最大処理性能値、性能データ格納部28に格納される運用管理データの分析処理の処理時間及びリソース割当量等を利用することができる。
割当指示部24は、割当量算出部23により算出された各リソース割当量のリソースを各管理用仮想サーバ31に割り当てるよう、各物理サーバ装置3にそれぞれ指示する(S34)。この指示により、各物理サーバ装置3は、各物理サーバ装置3で稼働している各管理用仮想サーバ31に、管理サーバ装置2からの指示に含まれていたリソース割当量のリソースをそれぞれ割り当てる。
分析処理指示部25は、各管理用仮想サーバ31に対して、運用管理データの分析処理の実行をそれぞれ指示する(S35)。これにより、各管理用仮想サーバ31は、管理サーバ装置2で算出されたリソース割当量のリソースを使って、運用管理データの分析処理を実行する。
分析処理指示部25は、分析処理の実行指示の後、各管理用仮想サーバ31において運用管理データの分析処理に費やされた処理時間をそれぞれ取得し、各処理時間を性能データ格納部28にそれぞれ格納する(S36)。性能データ格納部28に格納される処理時間は、上述したように、リソース割当量の算出に利用されてもよい。
〔第1実施形態における作用及び効果〕
上述したように、第1実施形態における仮想サーバシステム10によれば、運用管理データの分析処理を各物理サーバ装置3上で稼働する各管理用仮想サーバ31に分散させることができる。更に、第1実施形態では、物理サーバ装置3の空きリソース量の範囲内において適切に決定されるリソース割当量のリソースが、運用管理データの分析処理を実行する各管理用仮想サーバ31に割り当てられる。
従って、第1実施形態によれば、物理サーバ装置3の台数や運用管理データの量が増大した場合であっても、空きリソース量を有効に利用することにより、当該分析処理のための運用管理サーバを新たに増設することなく効率的に分析処理を行うことができる。
また、第1実施形態では、各管理用仮想サーバ31に関し、実際に割り当てられたリソース量(リソース割当量)と、そのリソース量に応じて当該分析処理に費やされた処理時間とが性能データ格納部28にそれぞれ格納され、これら情報を用いて、各管理用仮想サーバ31のリソース割当量が算出され得る。このような態様によれば、正確に各管理用仮想サーバ31のリソース割当量をそれぞれ算出することができる。
[第2実施形態]
第2実施形態における仮想サーバシステム10は、第1実施形態に加えて、運用管理データの分析処理を他の管理用仮想サーバ31にアウトソースし得る構成を更に有する。以下、第2実施形態における仮想サーバシステム10について第1実施形態と異なる内容を中心に説明し、第1実施形態と同様の内容については適宜省略する。
図4は、第2実施形態における管理サーバ装置2の構成例を概念的に示すブロック図である。第2実施形態における管理サーバ装置2は、第1実施形態の構成に加えて、転送先選定部41及び転送指示部42を更に含む。これら新たな処理部についても例えば、CPU11によりメモリ12に格納されるプログラムが実行されることで実現される。
データ収集部21は、上述した負荷データに加えて、各管理用仮想サーバ31が保持する運用管理データのデータ量の情報を複数の物理サーバ装置3からそれぞれ収集する。なお、ここでは、複数の物理サーバ装置3から情報を収集すると記載するが、論理的な通信主体は、各物理サーバ装置3上で稼働する各管理用仮想サーバ31である。収集された運用管理データのデータ量情報は、負荷データと共に、負荷データ格納部27に格納される。
割当量算出部23は、データ収集部21により収集された運用管理データのデータ量情報、負荷データ格納部27及び性能データ格納部28に格納される情報等を用いて、各管理用仮想サーバ31に対するリソース割当量をそれぞれ算出する。本実施形態では、同一物理サーバ装置3上で同じ種類の運用管理データの分析処理を行うため、リソース割当量が一定の場合、運用管理データのデータ量と運用管理データの分析時間とが比例すると定義できる。同様に、運用管理データのデータ量が一定の場合、運用管理データの分析時間とリソース割当量とが反比例すると定義でき、分析処理時間が一定の場合、運用管理データのデータ量とリソース割当量とが比例すると定義することができる。
このような関係に基づいて、割当量算出部23は、負荷データ格納部27に格納される運用管理データのデータ量の履歴、及び、性能データ格納部28に格納されるリソース割当量の履歴を用いて、データ収集部21により新たに収集された運用管理データのデータ量に対応するリソース割当量を算出する。なお、割当量算出部23は、運用管理データのデータ量を用いることなく、第1実施形態と同様の手法で、各管理用仮想サーバ31に対するリソース割当量をそれぞれ算出するようにしてもよい。
割当量算出部23は、上述のように各管理用仮想サーバ31に対するリソース割当量をそれぞれ算出した後、算出された各リソース割当量のリソースが割り当てられた各管理用仮想サーバ31において運用管理データの分析処理に費やされる処理時間をそれぞれ推定する。この分析処理時間は、第1実施形態で説明された総リソース量を、算出されたリソース割当量で除算することにより算出されてもよいし、運用管理データの分析処理時間とリソース割当量との比例関係に基づいて、分析処理時間及びリソース割当量の過去の履歴を用いて推定されてもよい。
割当量算出部23は、全ての管理用仮想サーバ31の中から、推定された分析処理時間が所定の上限時間を超えている管理用仮想サーバ31を、転送対象の管理用仮想サーバ31として、特定する。この所定の上限時間は、例えば、管理用仮想サーバ31において運用管理データの分析処理が実行される間隔に応じて予め決められ、保持される。
割当量算出部23は、転送対象の管理用仮想サーバ31が存在する場合には、転送対象の管理用仮想サーバ31に関する処理を転送先選定部41に依頼し、転送先選定部41から、転送先管理用仮想サーバ31の情報、及び、超過データ量の情報を取得する。割当量算出部23は、超過データ量が転送先管理用仮想サーバ31に転送されたことを想定し、転送先管理用仮想サーバ31に対するリソース割当量を再計算する。
具体的には、割当量算出部23は、転送先管理用仮想サーバ31に関し、新たに収集された運用管理データのデータ量と、当該超過データ量との合計データ量を求め、この合計データ量に対応するリソース割当量を割当可能なリソース量の範囲内となるように算出する。この算出処理は、運用管理データのデータ量とリソース割当量との比例関係に基づいて行われ、負荷データ格納部27に格納される運用管理データのデータ量の履歴と性能データ格納部28に格納されるリソース割当量の履歴とを利用する。
本実施形態では、運用管理データのデータ量と運用管理データの分析処理時間とリソース割当量との関係を上述のように定義することができるため、当該分析処理時間が所定の上限時間を超えたのは、運用管理データの増加が原因であると定義することができる。以降、当該分析処理時間から所定の上限時間を減算した時間を超過処理時間と表記し、この超過処理時間に対応する運用管理データの量を超過データ量と表記する。
転送先選定部41は、上述のような考え方に基づいて、割当量算出部23により特定された転送対象の管理用仮想サーバ31に関し、超過データ量を算出し、かつ、この超過データ量の分析処理をさせる他の管理用仮想サーバ31(以降、転送先管理用仮想サーバ31と表記する)を選定する。なお、選定される転送先管理用仮想サーバ31は、管理用仮想サーバ31が稼働する物理サーバ装置3とは異なる物理サーバ装置3上で稼働する。
超過データ量の算出手法は次のとおりである。まず、転送先選定部41は、割当量算出部23により算出されたリソース割当量に基づいて、所定の上限時間で処理し得る運用管理データのデータ量を推定する。この推定は、運用管理データのデータ量と運用管理データの分析時間との比例関係に基づいて行われ、負荷データ格納部27に格納される運用管理データのデータ量の履歴と性能データ格納部28に格納される分析処理時間の履歴とを利用する。転送先選定部41は、転送対象の管理用仮想サーバ31から新たに収集された運用管理データのデータ量からその推定されたデータ量を減算することにより、その管理用仮想サーバ31に関する超過データ量を算出する。
他の管理用仮想サーバ31の選定手法は次のとおりである。転送先選定部41は、他の物理サーバ装置3上で稼働する他の管理用仮想サーバ31に関し、新たに収集された運用管理データのデータ量と、上述の超過データ量との合計データ量を求め、この合計データ量の運用管理データの分析処理にかかる時間を推定する。この推定は、運用管理データのデータ量と運用管理データの分析時間との比例関係に基づいて行われ、負荷データ格納部27に格納される運用管理データのデータ量の履歴と性能データ格納部28に格納される分析処理時間の履歴とを利用する。転送先選定部41は、推定された分析処理時間が所定の上限時間を超えない管理用仮想サーバ31を特定し、この特定された管理用仮想サーバ31を転送先管理用仮想サーバ31に決定する。
転送指示部42は、割当量算出部23により特定された転送対象の管理用仮想サーバ31に、転送先選定部41により算出された超過データ量分の運用管理データを、転送先選定部41により選定された転送先管理用仮想サーバ31に転送するように指示する。これにより、指示を受けた転送対象の管理用仮想サーバ31は、自身が保持する運用管理データの中の超過データ量に相当するデータを転送先管理用仮想サーバ31に送信する。
〔動作例〕
図5は、第2実施形態における管理サーバ装置2の動作例を示すフローチャートである。
管理サーバ装置2では、データ収集部21が、各物理サーバ装置3(3(#1)から3(#m))から、負荷データ、及び、各管理用仮想サーバ31(31(#1)から31(#m))が保持する運用管理データのデータ量情報をそれぞれ収集する(S51)。なお、論理的には、運用管理データのデータ量情報は、各管理用仮想サーバ31からそれぞれ取得される。収集された負荷データ及び運用管理データのデータ量情報は、負荷データ格納部27に格納される。
空き容量算出部22は、データ収集部21により収集された負荷データ、及び、各物理サーバ装置3の最大処理性能値を用いて、各物理サーバ装置3の空きリソース量をそれぞれ算出する(S52)。最大処理性能値は、例えば、負荷データ格納部27から取得される。
割当量算出部23は、上記処理(S52)で算出された空きリソース量の範囲内において、各管理用仮想サーバ31に対するリソース割当量をそれぞれ算出する(S53)。例えば、割当量算出部23は、運用管理データのデータ量とリソース割当量との比例関係に基づいて、負荷データ格納部27に格納される運用管理データのデータ量の履歴、及び、性能データ格納部28に格納されるリソース割当量の履歴を用いて、データ収集部21により新たに収集された運用管理データのデータ量に対応するリソース割当量を算出する。
続いて、割当量算出部23は、各管理用仮想サーバ31が、処理(S53)で算出されたリソース割当量のリソースが割り当てられた場合に、運用管理データの分析処理にかかる時間をそれぞれ推定する(S54)。この推定は、例えば、運用管理データの分析処理時間とリソース割当量との比例関係に基づいて、性能データ格納部28に格納される分析処理時間及びリソース割当量の履歴を用いて行われる。
割当量算出部23は、管理用仮想サーバ31の中に、推定された分析処理時間が所定の上限時間を超えている管理用仮想サーバ31が存在するか否かを判定する(S55)。割当量算出部23は、当該管理用仮想サーバ31が存在しない場合には(S55;NO)、割当指示部24に処理を依頼する。
これにより、割当指示部24は、割当量算出部23により算出された各リソース割当量のリソースを各管理用仮想サーバ31に割り当てるよう、各物理サーバ装置3にそれぞれ指示する(S59)。この指示により、各物理サーバ装置3は、各物理サーバ装置3で稼働している各管理用仮想サーバ31に、管理サーバ装置2からの指示に含まれていたリソース割当量のリソースをそれぞれ割り当てる。
分析処理指示部25は、各管理用仮想サーバ31に対して、運用管理データの分析処理の実行をそれぞれ指示する(S60)。これにより、各管理用仮想サーバ31は、管理サーバ装置2で算出されたリソース割当量のリソースを使って、運用管理データの分析処理を実行する。
分析処理指示部25は、分析処理の実行指示の後、各管理用仮想サーバ31において運用管理データの分析処理に費やされた処理時間をそれぞれ取得し、各処理時間を性能データ格納部28にそれぞれ格納する(S61)。
一方、推定された分析処理時間が所定の上限時間を超えている管理用仮想サーバ31(転送対象の管理用仮想サーバ31)が存在する場合には(S55;YES)、転送先選定部41が、各転送対象の管理用仮想サーバ31に関し、超過データ量と、その超過データ量の運用管理データの転送先となる他の管理用仮想サーバ31(転送先管理用仮想サーバ31)をそれぞれ決定する(S56)。この処理の具体例は、後述する。
割当量算出部23は、転送先選定部41から、転送先管理用仮想サーバ31の情報、及び、超過データ量の情報を取得し、各転送先管理用仮想サーバ31に対するリソース割当量をそれぞれ再計算する(S57)。再計算されるリソース割当量は、処理(S52)で算出された、転送先管理用仮想サーバ31が稼働する物理サーバ装置3の空きリソース量の範囲内であり、かつ、管理用仮想サーバ31が現在保持している運用管理データに、転送対象管理用仮想サーバ31から転送される当該超過データ量分の運用管理データを足し合わせた運用管理データに対応するリソース量となる。
続いて、転送指示部42は、各転送対象の管理用仮想サーバ31に、転送先選定部41により算出された超過データ量分の運用管理データを、転送先選定部41により選定された転送先管理用仮想サーバ31に転送するようにそれぞれ指示する(S58)。これにより、転送対象の管理用仮想サーバ31が保持する運用管理データの中の超過データ量に相当するデータが転送先管理用仮想サーバ31に転送される。
以降、処理(S59)、処理(S60)及び処理(S61)が実行される。
図6は、第2実施形態における転送先選定部41の動作例を示すフローチャートである。図6は、図5の処理(S56)を具体化した例を示す。まず、転送先選定部41は、割当量算出部23により特定された転送対象の管理用仮想サーバ31のうちの1つを処理対象として選択する(S71)。
転送先選定部41は、割当量算出部23により算出された処理対象(転送対象の管理用仮想サーバ31)に対するリソース割当量に基づいて、所定の上限時間で処理し得る運用管理データのデータ量を推定する。この推定は、運用管理データのデータ量と運用管理データの分析時間との比例関係に基づいて行われ、負荷データ格納部27に格納される運用管理データのデータ量の履歴と性能データ格納部28に格納される分析処理時間の履歴とを利用して行われる。続いて、転送先選定部41は、図5の処理(S51)において処理対象から収集された運用管理データのデータ量からその推定されたデータ量を減算することにより、処理対象に関する超過データ量を算出する(S72)。
続いて、転送先選定部41は、処理対象以外の転送対象管理用仮想サーバ31の中の1つを仮の転送先管理用仮想サーバとして選択する(S73)。
転送先選定部41は、処理(S72)で算出された超過データ量分の運用管理データを加えた場合の、仮の転送先管理用仮想サーバ31における運用管理データの分析処理にかかる時間を推定する(S74)。具体的には、転送先選定部41は、図5の処理(S51)において処理対象から収集された運用管理データのデータ量と、処理(S72)で算出された超過データ量との合計データ量を求め、この合計データ量の運用管理データの分析処理にかかる時間を推定する。この推定は、運用管理データのデータ量と運用管理データの分析時間との比例関係に基づいて行われ、負荷データ格納部27に格納される運用管理データのデータ量の履歴と性能データ格納部28に格納される分析処理時間の履歴とを利用して行われる。
転送先選定部41は、推定された分析処理時間が所定の上限時間を超えているか否かを判定する(S75)。転送先選定部41は、当該分析処理時間が所定の上限時間を超えていない場合(S75;NO)、仮の転送先管理用仮想サーバ31を処理対象のための転送先に決定する(S76)。一方、転送先選定部41は、当該分析処理時間が所定の上限時間を超えている場合(S75;YES)、仮の転送先管理用仮想サーバ31を転送先とすることができないことを認識し、他の管理用仮想サーバ31の選択を試みる。
具体的には、転送先選定部41は、仮の管理用仮想サーバ31が稼働する物理サーバ装置3以外で、他の管理用仮想サーバ31が稼働する物理サーバ装置3が残っているか否かを判定する(S78)。転送先選定部41は、当該物理サーバ装置3が残っている場合(S78;YES)、その物理サーバ装置3上で稼働する管理用仮想サーバ31を仮の転送先管理用仮想サーバ31として選択する(S73)。以降、転送先選定部41は、新たに選択された管理用仮想サーバ31を対象に、処理(S74)以降を実行する。
転送先選定部41は、当該物理サーバ装置3が残っていない場合(S78;NO)、処理対象の運用管理データを転送できないと判断し、処理対象となる管理用仮想サーバ31に関する警告情報を格納する(S79)。
転送先選定部41は、処理対象に関し、転送先管理用仮想サーバ31を決定するか(S76)、又は、警告情報を格納する(S79)と、未処理の転送対象の管理用仮想サーバ31が存在するか否かを判定する(S77)。転送先選定部41は、全ての転送対象の管理用仮想サーバ31に関する処理が完了するまで、上述の各処理を実行する。
〔第2実施形態における作用及び効果〕
上述したように、第2実施形態では、各管理用仮想サーバ31に対して決定されたリソース割当量に基づいて、各管理用仮想サーバ31における運用管理データの分析処理にかかる時間が推定され、この分析処理時間が所定上限時間を超える管理用仮想サーバ31(転送対象の管理用仮想サーバ31)の運用管理データの一部が他の管理用仮想サーバ31に転送される。
このとき、転送されるデータ量(超過データ量)は、転送対象の管理用仮想サーバ31において所定上限時間内で運用管理データの分析処理が完了するように決定される。また、転送先の管理用仮想サーバ31は、当該超過データ量が転送されたとしても、その転送先の管理用仮想サーバ31において、所定上限時間内で全ての運用管理データの分析処理が完了するように決定される。更に、転送先の管理用仮想サーバ31に当該超過データ量が転送されたことを想定して、転送先の管理用仮想サーバ31に対するリソース割当量が再計算される。
従って、第2実施形態によれば、物理サーバ装置3の負荷や各管理用仮想サーバ31が保持する運用管理データのデータ量にばらつきがある場合においても、各物理サーバ装置3の空きリソース量に応じて、運用管理データの分析処理の負荷を仮想サーバシステム10内で分散させることができる。即ち、第2実施形態によれば、運用管理データの分析処理のために、仮想サーバシステム10内のリソースを全体的に効率よく利用することができる。結果、管理サーバ装置2の増設や高性能化、特定の物理サーバ装置3の高性能化等を極力抑えることができる。
なお、上述の説明で用いた複数のフローチャートでは、複数のステップ(処理)が順番に記載されているが、本実施形態で実行される処理ステップの実行順序は、その記載の順番に制限されない。本実施形態では、図示される処理ステップの順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態は、内容が相反しない範囲で組み合わせることができる。
上記の各実施形態の一部又は全部は、以下の付記のようにも特定され得る。但し、各実施形態が以下の記載に限定されるものではない。
(付記1)物理サーバ装置及び当該物理サーバ装置上で稼働する他の仮想サーバから取得されたデータの分析処理を実行する管理用仮想サーバを含む、複数の仮想サーバをそれぞれ稼働させる、複数の物理サーバ装置と、これら複数の物理サーバ装置と通信可能な管理サーバ装置と、を備え、上記管理サーバ装置が、上記複数の物理サーバ装置から負荷データをそれぞれ収集するデータ収集手段と、このデータ収集手段により収集された負荷データを用いて、上記各物理サーバ装置の空きリソース量をそれぞれ算出する空き容量算出手段と、この空き容量算出手段により算出された空きリソース量の範囲内において、上記管理用仮想サーバに対するリソース割当量を算出する割当量算出手段と、この割当量算出手段により算出されたリソース割当量のリソースを上記管理用仮想サーバに割り当てるよう上記管理用仮想サーバが稼働する物理サーバ装置に指示する割当指示手段と、を含むことを特徴とする仮想サーバシステム。
(付記2)物理サーバ装置及び当該物理サーバ装置上で稼働する他の仮想サーバから取得されたデータの分析処理を実行する管理用仮想サーバを含む、複数の仮想サーバをそれぞれ稼働させる、複数の物理サーバ装置と通信可能な管理サーバ装置において、上記複数の物理サーバ装置から負荷データをそれぞれ収集するデータ収集手段と、このデータ収集手段により収集された負荷データを用いて、上記各物理サーバ装置の空きリソース量をそれぞれ算出する空き容量算出手段と、この空き容量算出手段により算出された空きリソース量の範囲内において、上記管理用仮想サーバに対するリソース割当量を算出する割当量算出手段と、この割当量算出手段により算出されたリソース割当量のリソースを上記管理用仮想サーバに割り当てるよう上記管理用仮想サーバが稼働する物理サーバ装置に指示する割当指示手段と、を備えることを特徴とする管理サーバ装置。
(付記3)上記管理用仮想サーバに上記分析処理の実行を指示すると共に、上記管理用仮想サーバにおいて上記分析処理に費やされた時間を取得する分析処理指示手段を更に備え、上記割当量算出手段は、上記空きリソース量の範囲内で割当可能なリソース量を決定し、上記割当指示手段により既に指示されたリソース割当量と上記分析処理指示手段により取得された分析処理時間との積、及び、予め保持される所定処理時間を用いて、当該割当可能なリソース量の範囲内において上記管理用仮想サーバに対するリソース割当量を算出することを特徴とする付記2に記載の管理サーバ装置。
(付記4)上記割当指示手段により既に指示されたリソース割当量及び上記分析処理指示手段により取得された分析処理時間のセットの履歴を格納する性能データ格納手段と、上記複数の物理サーバ装置上で稼働する複数の管理用仮想サーバに含まれる転送対象の管理用仮想サーバに、上記分析処理の対象となるデータの一部を、他の物理サーバ装置上で稼働する転送先の管理用仮想サーバに転送するよう指示する転送指示手段と、を更に備え、上記割当量算出手段は、上記性能データ格納手段に格納される履歴情報に基づいて、上記各管理用仮想サーバに関し、上記算出されたリソース割当量が割り当てられた場合の上記分析処理に費やされる時間をそれぞれ推定し、上記複数の管理用仮想サーバの中から、所定上限時間を超える分析処理時間が推定された管理用仮想サーバを上記転送対象の管理用仮想サーバとして特定する、ことを特徴とする付記3に記載の管理サーバ装置。
(付記5)上記負荷データと共に、上記各管理用仮想サーバにおいて上記分析処理の対象となるデータのデータ量の履歴をそれぞれ格納する負荷データ格納手段と、この負荷データ格納手段に格納される上記データ量の履歴及び上記性能データ格納手段に格納される分析処理時間の履歴を用いて、上記割当量算出手段により特定された上記転送対象の管理用仮想サーバに関し、上記所定上限時間で分析処理され得るデータ量を推定し、当該転送対象の管理用仮想サーバにおける上記分析処理の対象となるデータの最新データ量から当該推定されたデータ量を減算することにより、上記転送先の管理用仮想サーバへの転送データ量を算出する転送先選定手段と、を更に備えることを特徴とする付記4に記載の管理サーバ装置。
(付記6)上記転送先選定手段は、上記転送先の管理用仮想サーバにおける上記分析処理の対象となるデータの最新データ量と上記転送データ量との合計データ量を算出し、上記性能データ格納手段に格納される分析処理時間の履歴及び上記負荷データ格納手段に格納されるデータ量の履歴を用いて、上記転送先の管理用仮想サーバにおける当該合計データ量のデータの上記分析処理に費やされる時間を推定し、当該推定された分析処理時間が上記所定上限時間を超えないことを確認する、ことを特徴とする付記5に記載の管理サーバ装置。
(付記7)複数の仮想サーバをそれぞれ稼働させる複数の物理サーバ装置と、当該複数の物理サーバ装置と通信可能な管理サーバ装置と、を備える仮想サーバシステムで実行されるシステム管理方法において、上記各物理サーバ装置がそれぞれ、上記複数の仮想サーバの中の少なくとも1つの仮想サーバとして、各物理サーバ装置及び各物理サーバ装置上で稼働する他の仮想サーバから取得されたデータの分析処理を実行する管理用仮想サーバを稼働させ、上記管理サーバ装置が、上記複数の物理サーバ装置から負荷データをそれぞれ収集し、収集された負荷データを用いて、上記各物理サーバ装置の空きリソース量をそれぞれ算出し、算出された空きリソース量の範囲内において、上記管理用仮想サーバに対するリソース割当量を算出し、算出されたリソース割当量のリソースを上記管理用仮想サーバに割り当てるよう上記管理用仮想サーバが稼働する物理サーバ装置に指示する、ことを含むシステム管理方法。
(付記8)上記管理用仮想サーバに上記分析処理の実行を指示すると共に、上記管理用仮想サーバにおいて上記分析処理に費やされた時間を取得することを更に含み、上記リソース割当量の算出では、上記空きリソース量の範囲内で割当可能なリソース量を決定し、既に指示されたリソース割当量と上記取得された分析処理時間との積、及び、予め保持される所定処理時間を用いて、当該割当可能なリソース量の範囲内において上記管理用仮想サーバに対するリソース割当量を算出する付記7に記載のシステム管理方法。
(付記9)既に指示されたリソース割当量及び上記取得された分析処理時間のセットの履歴を性能データ格納部に格納し、上記複数の物理サーバ装置上で稼働する複数の管理用仮想サーバに含まれる転送対象の管理用仮想サーバに、上記分析処理の対象となるデータの一部を、他の物理サーバ装置上で稼働する転送先の管理用仮想サーバに転送するよう指示し、上記性能データ格納部に格納される履歴情報に基づいて、上記各管理用仮想サーバに関し、上記算出されたリソース割当量が割り当てられた場合の上記分析処理に費やされる時間をそれぞれ推定し、上記複数の管理用仮想サーバの中から、所定上限時間を超える分析処理時間が推定された管理用仮想サーバを上記転送対象の管理用仮想サーバとして特定する、ことを更に含む付記8に記載のシステム管理方法。
(付記10)上記負荷データと共に、上記各管理用仮想サーバにおいて上記分析処理の対象となるデータのデータ量の履歴をそれぞれ負荷データ格納部に格納し、この負荷データ格納部に格納される上記データ量の履歴及び上記性能データ格納部に格納される分析処理時間の履歴を用いて、上記特定された上記転送対象の管理用仮想サーバに関し、上記所定上限時間で分析処理され得るデータ量を推定し、当該転送対象の管理用仮想サーバにおける上記分析処理の対象となるデータの最新データ量から当該推定されたデータ量を減算することにより、上記転送先の管理用仮想サーバへの転送データ量を算出することを更に含む付記9に記載のシステム管理方法。
(付記11)上記転送先の管理用仮想サーバにおける上記分析処理の対象となるデータの最新データ量と上記転送データ量との合計データ量を算出し、上記性能データ格納部に格納される分析処理時間の履歴及び上記負荷データ格納部に格納されるデータ量の履歴を用いて、上記転送先の管理用仮想サーバにおける当該合計データ量のデータの上記分析処理に費やされる時間を推定し、当該推定された分析処理時間が上記所定上限時間を超えないことを確認することを更に含む付記10に記載のシステム管理方法。
(付記12)物理サーバ装置及び当該物理サーバ装置上で稼働する他の仮想サーバから取得されたデータの分析処理を実行する管理用仮想サーバを含む、複数の仮想サーバをそれぞれ稼働させる、複数の物理サーバ装置と通信可能な管理サーバ装置で実行されるプログラムにおいて、上記複数の物理サーバ装置から負荷データをそれぞれ収集するデータ収集手段と、このデータ収集手段により収集された負荷データを用いて、上記各物理サーバ装置の空きリソース量をそれぞれ算出する空き容量算出手段と、この空き容量算出手段により算出された空きリソース量の範囲内において、上記管理用仮想サーバに対するリソース割当量を算出する割当量算出手段と、この割当量算出手段により算出されたリソース割当量のリソースを上記管理用仮想サーバに割り当てるよう上記管理用仮想サーバが稼働する物理サーバ装置に指示する割当指示手段と、を前記管理サーバ装置に実現させることを特徴とするプログラム。
(付記13)上記管理用仮想サーバに上記分析処理の実行を指示すると共に、上記管理用仮想サーバにおいて上記分析処理に費やされた時間を取得する分析処理指示手段を前記管理サーバ装置に更に実現させ、上記割当量算出手段は、上記空きリソース量の範囲内で割当可能なリソース量を決定し、上記割当指示手段により既に指示されたリソース割当量と上記分析処理指示手段により取得された分析処理時間との積、及び、予め保持される所定処理時間を用いて、当該割当可能なリソース量の範囲内において上記管理用仮想サーバに対するリソース割当量を算出することを特徴とする付記12に記載のプログラム。
(付記14)上記割当指示手段により既に指示されたリソース割当量及び上記分析処理指示手段により取得された分析処理時間のセットの履歴を格納する性能データ格納手段と、上記複数の物理サーバ装置上で稼働する複数の管理用仮想サーバに含まれる転送対象の管理用仮想サーバに、上記分析処理の対象となるデータの一部を、他の物理サーバ装置上で稼働する転送先の管理用仮想サーバに転送するよう指示する転送指示手段と、を前記管理サーバ装置に更に実現させ、上記割当量算出手段は、上記性能データ格納手段に格納される履歴情報に基づいて、上記各管理用仮想サーバに関し、上記算出されたリソース割当量が割り当てられた場合の上記分析処理に費やされる時間をそれぞれ推定し、上記複数の管理用仮想サーバの中から、所定上限時間を超える分析処理時間が推定された管理用仮想サーバを上記転送対象の管理用仮想サーバとして特定する、ことを特徴とする付記13に記載のプログラム。
(付記15)上記負荷データと共に、上記各管理用仮想サーバにおいて上記分析処理の対象となるデータのデータ量の履歴をそれぞれ格納する負荷データ格納手段と、この負荷データ格納手段に格納される上記データ量の履歴及び上記性能データ格納手段に格納される分析処理時間の履歴を用いて、上記割当量算出手段により特定された上記転送対象の管理用仮想サーバに関し、上記所定上限時間で分析処理され得るデータ量を推定し、当該転送対象の管理用仮想サーバにおける上記分析処理の対象となるデータの最新データ量から当該推定されたデータ量を減算することにより、上記転送先の管理用仮想サーバへの転送データ量を算出する転送先選定手段と、を前記管理サーバ装置に更に実現させることを特徴とする付記14に記載のプログラム。
(付記16)上記転送先選定手段は、上記転送先の管理用仮想サーバにおける上記分析処理の対象となるデータの最新データ量と上記転送データ量との合計データ量を算出し、上記性能データ格納手段に格納される分析処理時間の履歴及び上記負荷データ格納手段に格納されるデータ量の履歴を用いて、上記転送先の管理用仮想サーバにおける当該合計データ量のデータの上記分析処理に費やされる時間を推定し、当該推定された分析処理時間が上記所定上限時間を超えないことを確認する、ことを特徴とする付記15に記載のプログラム。
(付記17)付記12から16のいずれか1つに記載のプログラムを記録したコンピュータが読み取り可能な記録媒体。
この出願は、2011年3月1日に出願された日本出願特願2011−044150を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (6)

  1. 物理サーバ装置及び当該物理サーバ装置上で稼働する他の仮想サーバから取得されたデータの分析処理を実行する管理用仮想サーバを含む、複数の仮想サーバをそれぞれ稼働させる、複数の物理サーバ装置と、
    前記複数の物理サーバ装置と通信可能な管理サーバ装置と、
    を備え、
    前記管理サーバ装置が、
    前記複数の物理サーバ装置から負荷データをそれぞれ収集するデータ収集手段と、
    前記データ収集手段により収集された負荷データを用いて、前記各物理サーバ装置の空きリソース量をそれぞれ算出する空き容量算出手段と、
    前記空き容量算出手段により算出された空きリソース量の範囲内において、前記管理用仮想サーバに対するリソース割当量を算出する割当量算出手段と、
    前記割当量算出手段により算出されたリソース割当量のリソースを前記管理用仮想サーバに割り当てるよう前記管理用仮想サーバが稼働する物理サーバ装置に指示する割当指示手段と、
    前記管理用仮想サーバに前記分析処理の実行を指示すると共に、前記管理用仮想サーバにおいて前記分析処理に費やされた時間を取得する分析処理指示手段と、を備え、
    前記割当量算出手段は、前記空きリソース量の範囲内で割当可能なリソース量を決定し、前記割当指示手段により既に指示されたリソース割当量と前記分析処理指示手段により取得された分析処理時間との積、及び、予め保持される所定処理時間を用いて、当該割当可能なリソース量の範囲内において前記管理用仮想サーバに対するリソース割当量を算出し、
    前記割当指示手段により既に指示されたリソース割当量及び前記分析処理指示手段により取得された分析処理時間のセットの履歴を格納する性能データ格納手段と、
    前記複数の物理サーバ装置上で稼働する複数の管理用仮想サーバに含まれる転送対象の管理用仮想サーバに、前記分析処理の対象となるデータの一部を、他の物理サーバ装置上で稼働する転送先の管理用仮想サーバに転送するよう指示する転送指示手段と、を更に備え、
    前記割当量算出手段は、前記性能データ格納手段に格納される履歴情報に基づいて、前記各管理用仮想サーバに関し、前記算出されたリソース割当量が割り当てられた場合の前記分析処理に費やされる時間をそれぞれ推定し、前記複数の管理用仮想サーバの中から、所定上限時間を超える分析処理時間が推定された管理用仮想サーバを前記転送対象の管理用仮想サーバとして特定する、仮想サーバシステム。
  2. 物理サーバ装置及び当該物理サーバ装置上で稼働する他の仮想サーバから取得されたデータの分析処理を実行する管理用仮想サーバを含む、複数の仮想サーバをそれぞれ稼働させる、複数の物理サーバ装置と通信可能な管理サーバ装置において、
    前記複数の物理サーバ装置から負荷データをそれぞれ収集するデータ収集手段と、
    前記データ収集手段により収集された負荷データを用いて、前記各物理サーバ装置の空きリソース量をそれぞれ算出する空き容量算出手段と、
    前記空き容量算出手段により算出された空きリソース量の範囲内において、前記管理用仮想サーバに対するリソース割当量を算出する割当量算出手段と、
    前記割当量算出手段により算出されたリソース割当量のリソースを前記管理用仮想サーバに割り当てるよう前記管理用仮想サーバが稼働する物理サーバ装置に指示する割当指示手段と、
    前記管理用仮想サーバに前記分析処理の実行を指示すると共に、前記管理用仮想サーバにおいて前記分析処理に費やされた時間を取得する分析処理指示手段と、
    を備え、
    前記割当量算出手段は、前記空きリソース量の範囲内で割当可能なリソース量を決定し、前記割当指示手段により既に指示されたリソース割当量と前記分析処理指示手段により取得された分析処理時間との積、及び、予め保持される所定処理時間を用いて、当該割当可能なリソース量の範囲内において前記管理用仮想サーバに対するリソース割当量を算出し、
    前記割当指示手段により既に指示されたリソース割当量及び前記分析処理指示手段により取得された分析処理時間のセットの履歴を格納する性能データ格納手段と、
    前記複数の物理サーバ装置上で稼働する複数の管理用仮想サーバに含まれる転送対象の管理用仮想サーバに、前記分析処理の対象となるデータの一部を、他の物理サーバ装置上で稼働する転送先の管理用仮想サーバに転送するよう指示する転送指示手段と、を更に備え、
    前記割当量算出手段は、前記性能データ格納手段に格納される履歴情報に基づいて、前記各管理用仮想サーバに関し、前記算出されたリソース割当量が割り当てられた場合の前記分析処理に費やされる時間をそれぞれ推定し、前記複数の管理用仮想サーバの中から、所定上限時間を超える分析処理時間が推定された管理用仮想サーバを前記転送対象の管理用仮想サーバとして特定する、管理サーバ装置。
  3. 前記負荷データと共に、前記各管理用仮想サーバにおいて前記分析処理の対象となるデータのデータ量の履歴をそれぞれ格納する負荷データ格納手段と、
    前記負荷データ格納手段に格納される前記データ量の履歴及び前記性能データ格納手段に格納される分析処理時間の履歴を用いて、前記割当量算出手段により特定された前記転送対象の管理用仮想サーバに関し、前記所定上限時間で分析処理され得るデータ量を推定し、当該転送対象の管理用仮想サーバにおける前記分析処理の対象となるデータの最新データ量から当該推定されたデータ量を減算することにより、前記転送先の管理用仮想サーバへの転送データ量を算出する転送先選定手段と、
    を更に備えることを特徴とする請求項に記載の管理サーバ装置。
  4. 前記転送先選定手段は、前記転送先の管理用仮想サーバにおける前記分析処理の対象となるデータの最新データ量と前記転送データ量との合計データ量を算出し、前記性能データ格納手段に格納される分析処理時間の履歴及び前記負荷データ格納手段に格納される前記データ量の履歴を用いて、前記転送先の管理用仮想サーバにおける当該合計データ量のデータの前記分析処理に費やされる時間を推定し、当該推定された分析処理時間が前記所定上限時間を超えないことを確認する、
    ことを特徴とする請求項に記載の管理サーバ装置。
  5. 複数の仮想サーバをそれぞれ稼働させる複数の物理サーバ装置と、当該複数の物理サーバ装置と通信可能な管理サーバ装置と、を備える仮想サーバシステムで実行されるシステム管理方法において、
    前記各物理サーバ装置がそれぞれ、
    前記複数の仮想サーバの中の少なくとも1つの仮想サーバとして、各物理サーバ装置及び各物理サーバ装置上で稼働する他の仮想サーバから取得されたデータの分析処理を実行する管理用仮想サーバを稼働させ、
    前記管理サーバ装置が、
    前記複数の物理サーバ装置から負荷データをそれぞれ収集するデータ収集ステップと
    前記収集された負荷データを用いて、前記各物理サーバ装置の空きリソース量をそれぞれ算出する空き容量算出ステップと
    前記算出された空きリソース量の範囲内において、前記管理用仮想サーバに対するリソース割当量を算出する割当量算出ステップと
    前記算出されたリソース割当量のリソースを前記管理用仮想サーバに割り当てるよう前記管理用仮想サーバが稼働する物理サーバ装置に指示する割当指示ステップと
    前記管理用仮想サーバに前記分析処理の実行を指示すると共に、前記管理用仮想サーバにおいて前記分析処理に費やされた時間を取得する分析処理指示ステップと、を実行し、
    前記割当量算出ステップにおいて、前記空きリソース量の範囲内で割当可能なリソース量を決定し、前記割当指示ステップにおいて既に指示されたリソース割当量と前記分析処理指示ステップにおいて取得された分析処理時間との積、及び、予め保持される所定処理時間を用いて、当該割当可能なリソース量の範囲内において前記管理用仮想サーバに対するリソース割当量を算出し、
    前記割当指示ステップにおいて既に指示されたリソース割当量及び前記分析処理指示ステップにおいて取得された分析処理時間のセットの履歴を格納する性能データ格納手段を有し、
    前記複数の物理サーバ装置上で稼働する複数の管理用仮想サーバに含まれる転送対象の管理用仮想サーバに、前記分析処理の対象となるデータの一部を、他の物理サーバ装置上で稼働する転送先の管理用仮想サーバに転送するよう指示する転送指示ステップを更に実行し、
    前記割当量算出ステップにおいて、前記性能データ格納手段に格納される履歴情報に基づいて、前記各管理用仮想サーバに関し、前記算出されたリソース割当量が割り当てられた場合の前記分析処理に費やされる時間をそれぞれ推定し、前記複数の管理用仮想サーバの中から、所定上限時間を超える分析処理時間が推定された管理用仮想サーバを前記転送対象の管理用仮想サーバとして特定する、システム管理方法。
  6. 物理サーバ装置及び当該物理サーバ装置上で稼働する他の仮想サーバから取得されたデータの分析処理を実行する管理用仮想サーバを含む、複数の仮想サーバをそれぞれ稼働させる、複数の物理サーバ装置と通信可能な管理サーバ装置で実行されるプログラムにおいて、
    前記複数の物理サーバ装置から負荷データをそれぞれ収集するデータ収集手段と、
    前記データ収集手段により収集された負荷データを用いて、前記各物理サーバ装置の空きリソース量をそれぞれ算出する空き容量算出手段と、
    前記空き容量算出手段により算出された空きリソース量の範囲内において、前記管理用仮想サーバに対するリソース割当量を算出する割当量算出手段と、
    前記割当量算出手段により算出されたリソース割当量のリソースを前記管理用仮想サーバに割り当てるよう前記管理用仮想サーバが稼働する物理サーバ装置に指示する割当指示手段と、
    前記管理用仮想サーバに前記分析処理の実行を指示すると共に、前記管理用仮想サーバにおいて前記分析処理に費やされた時間を取得する分析処理指示手段と、
    を前記管理サーバ装置に実現させ、
    前記割当量算出手段は、前記空きリソース量の範囲内で割当可能なリソース量を決定し、前記割当指示手段により既に指示されたリソース割当量と前記分析処理指示手段により取得された分析処理時間との積、及び、予め保持される所定処理時間を用いて、当該割当可能なリソース量の範囲内において前記管理用仮想サーバに対するリソース割当量を算出し、
    前記管理サーバ装置が、前記割当指示手段により既に指示されたリソース割当量及び前記分析処理指示手段により取得された分析処理時間のセットの履歴を格納する性能データ格納手段を有し、
    前記管理サーバ装置に、前記複数の物理サーバ装置上で稼働する複数の管理用仮想サーバに含まれる転送対象の管理用仮想サーバに、前記分析処理の対象となるデータの一部を、他の物理サーバ装置上で稼働する転送先の管理用仮想サーバに転送するよう指示する転送指示手段をさらに実現させ、
    前記割当量算出手段は、前記性能データ格納手段に格納される履歴情報に基づいて、前記各管理用仮想サーバに関し、前記算出されたリソース割当量が割り当てられた場合の前記分析処理に費やされる時間をそれぞれ推定し、前記複数の管理用仮想サーバの中から、所定上限時間を超える分析処理時間が推定された管理用仮想サーバを前記転送対象の管理用仮想サーバとして特定する、プログラム。
JP2013502054A 2011-03-01 2011-11-07 仮想サーバシステム、管理サーバ装置及びシステム管理方法 Active JP5867499B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013502054A JP5867499B2 (ja) 2011-03-01 2011-11-07 仮想サーバシステム、管理サーバ装置及びシステム管理方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011044150 2011-03-01
JP2011044150 2011-03-01
JP2013502054A JP5867499B2 (ja) 2011-03-01 2011-11-07 仮想サーバシステム、管理サーバ装置及びシステム管理方法
PCT/JP2011/006219 WO2012117471A1 (ja) 2011-03-01 2011-11-07 仮想サーバシステム、管理サーバ装置及びシステム管理方法

Publications (2)

Publication Number Publication Date
JPWO2012117471A1 JPWO2012117471A1 (ja) 2014-07-07
JP5867499B2 true JP5867499B2 (ja) 2016-02-24

Family

ID=46757440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013502054A Active JP5867499B2 (ja) 2011-03-01 2011-11-07 仮想サーバシステム、管理サーバ装置及びシステム管理方法

Country Status (3)

Country Link
US (1) US9461933B2 (ja)
JP (1) JP5867499B2 (ja)
WO (1) WO2012117471A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10498806B2 (en) * 2016-07-14 2019-12-03 Teemstone Llc Computer-executable server load monitoring method, apparatus performing the same and storage medium storing the same
US10778785B2 (en) * 2017-11-28 2020-09-15 International Business Machines Corporation Cognitive method for detecting service availability in a cloud environment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272263A (ja) * 2006-03-30 2007-10-18 Hitachi Ltd 計算機の管理方法、計算機システム、及び管理プログラム
JP2007323245A (ja) * 2006-05-31 2007-12-13 Nec Corp 計算機システムおよび性能計測方法ならびに管理サーバ装置
JP2010026828A (ja) * 2008-07-22 2010-02-04 Hitachi Ltd 仮想計算機の制御方法
WO2010064394A1 (ja) * 2008-12-01 2010-06-10 日本電気株式会社 データ処理システム、そのコンピュータプログラムおよびデータ処理方法
JP2010282420A (ja) * 2009-06-04 2010-12-16 Hitachi Ltd 管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8776050B2 (en) * 2003-08-20 2014-07-08 Oracle International Corporation Distributed virtual machine monitor for managing multiple virtual resources across multiple physical nodes
US8717885B2 (en) * 2007-04-26 2014-05-06 Mushroom Networks, Inc. Link aggregation methods and devices
US7941510B1 (en) * 2007-10-11 2011-05-10 Parallels Holdings, Ltd. Management of virtual and physical servers using central console
WO2009104400A1 (ja) * 2008-02-22 2009-08-27 日本電気株式会社 情報処理装置、情報処理システム、設定プログラム送信方法及びサーバ設定プログラム
US8576852B2 (en) * 2008-06-24 2013-11-05 Mushroom Networks, Inc. Inter-office communication methods and devices
JPWO2010024027A1 (ja) * 2008-08-28 2012-01-26 日本電気株式会社 仮想サーバシステム及び物理サーバ選択方法
JP2010113677A (ja) 2008-11-10 2010-05-20 Hitachi Ltd サービス管理装置、サービス管理方法およびサービス管理システム
US8635318B1 (en) * 2009-09-15 2014-01-21 Symantec Corporation Message broadcast protocol which handles configuration changes in a cluster of virtual servers
US8713139B1 (en) * 2009-10-29 2014-04-29 Hewlett-Packard Development Company, L.P. Automatic fixup of network configuration on system image move
US8245140B2 (en) * 2009-12-31 2012-08-14 International Business Machines Corporation Visualization and consolidation of virtual machines in a virtualized data center
US9021046B2 (en) * 2010-01-15 2015-04-28 Joyent, Inc Provisioning server resources in a cloud resource
US8924964B2 (en) * 2010-11-01 2014-12-30 Microsoft Corporation Dynamic allocation and assignment of virtual environment
US8811183B1 (en) * 2011-10-04 2014-08-19 Juniper Networks, Inc. Methods and apparatus for multi-path flow control within a multi-stage switch fabric
US8825867B2 (en) * 2012-05-04 2014-09-02 Telefonaktiebolaget L M Ericsson (Publ) Two level packet distribution with stateless first level packet distribution to a group of servers and stateful second level packet distribution to a server within the group
US8879550B2 (en) * 2012-05-08 2014-11-04 Telefonaktiebolaget L M Ericsson (Publ) Method and apparatus for packet classification
US8995277B2 (en) * 2012-10-30 2015-03-31 Telefonaktiebolaget L M Ericsson (Publ) Method for dynamic load balancing of network flows on LAG interfaces
US8923122B2 (en) * 2012-12-19 2014-12-30 Telefonaktiebolaget L M Ericsson (Publ) Packet train generation for estimating available network bandwidth
US9009165B2 (en) * 2013-01-10 2015-04-14 Telefonaktiebolaget L M Ericsson (Publ) High performance hash-based lookup for packet processing in a communication network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272263A (ja) * 2006-03-30 2007-10-18 Hitachi Ltd 計算機の管理方法、計算機システム、及び管理プログラム
JP2007323245A (ja) * 2006-05-31 2007-12-13 Nec Corp 計算機システムおよび性能計測方法ならびに管理サーバ装置
JP2010026828A (ja) * 2008-07-22 2010-02-04 Hitachi Ltd 仮想計算機の制御方法
WO2010064394A1 (ja) * 2008-12-01 2010-06-10 日本電気株式会社 データ処理システム、そのコンピュータプログラムおよびデータ処理方法
JP2010282420A (ja) * 2009-06-04 2010-12-16 Hitachi Ltd 管理計算機、リソース管理方法、リソース管理プログラム、記録媒体および情報処理システム

Also Published As

Publication number Publication date
US20140019623A1 (en) 2014-01-16
US9461933B2 (en) 2016-10-04
JPWO2012117471A1 (ja) 2014-07-07
WO2012117471A1 (ja) 2012-09-07

Similar Documents

Publication Publication Date Title
US9378032B2 (en) Information processing method, information processing apparatus, recording medium, and system
CN112153700B (zh) 一种网络切片资源管理方法及设备
JP2018198068A (ja) 分散型クラウドにおける作業負荷移動に基づくプロファイルベースのsla保証
EP3253027B1 (en) Resource allocation method and apparatus for virtual machines
CN106326002B (zh) 资源调度方法、装置及设备
WO2011155233A1 (ja) クラスタ構成管理方法、管理装置及びプログラムを格納した記憶媒体
WO2012094138A2 (en) Seamless scaling of enterprise applications
KR101471749B1 (ko) 클라우드 서비스의 가상자원 할당을 위한 퍼지 로직 기반의 자원평가 장치 및 방법
JP5958301B2 (ja) 情報処理方法、プログラム、情報処理装置、及び情報処理システム。
US20140244844A1 (en) Control device and resource control method
JPWO2013132735A1 (ja) 仮想マシン管理装置及び仮想マシン管理方法
JP2015007942A (ja) プログラム、仮想マシン管理方法および情報処理装置
JP6519111B2 (ja) データ処理制御方法、データ処理制御プログラムおよびデータ処理制御装置
JP5596716B2 (ja) リソース管理装置、リソース管理システム、リソース管理方法およびリソース管理プログラム
JP2017041191A (ja) リソース管理装置、リソース管理プログラム、及びリソース管理方法
CN108376103A (zh) 一种云平台的资源平衡控制方法及服务器
JP5445739B2 (ja) リソース割当装置、リソース割当方法、及びプログラム
WO2013082742A1 (zh) 资源调度方法、装置和系统
JP2016110248A (ja) 仮想化実行装置、仮想化システム、および、リソース最適化方法
JP5867499B2 (ja) 仮想サーバシステム、管理サーバ装置及びシステム管理方法
JP6279816B2 (ja) ストレージ監視システムおよびその監視方法
JP2013127685A (ja) 情報処理システムおよび運用管理方法
KR101394365B1 (ko) 가상화 환경에서 프로세서를 할당하는 장치 및 방법
JP6059259B2 (ja) 計算機システム及び計算機リソースの割当方法
JP2016099972A (ja) プロセスマイグレーション方法及びクラスタシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151221

R150 Certificate of patent or registration of utility model

Ref document number: 5867499

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350