JP5870927B2 - サーバシステム、管理装置、サーバ管理方法、およびプログラム - Google Patents

サーバシステム、管理装置、サーバ管理方法、およびプログラム Download PDF

Info

Publication number
JP5870927B2
JP5870927B2 JP2012537560A JP2012537560A JP5870927B2 JP 5870927 B2 JP5870927 B2 JP 5870927B2 JP 2012537560 A JP2012537560 A JP 2012537560A JP 2012537560 A JP2012537560 A JP 2012537560A JP 5870927 B2 JP5870927 B2 JP 5870927B2
Authority
JP
Japan
Prior art keywords
server
unit
load data
physical
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012537560A
Other languages
English (en)
Other versions
JPWO2012046386A1 (ja
Inventor
竹村 俊徳
俊徳 竹村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2012537560A priority Critical patent/JP5870927B2/ja
Publication of JPWO2012046386A1 publication Critical patent/JPWO2012046386A1/ja
Application granted granted Critical
Publication of JP5870927B2 publication Critical patent/JP5870927B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0876Network utilisation, e.g. volume of load or congestion level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • G06F11/3433Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment for load management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3442Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for planning or managing the needed capacity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/815Virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/503Resource availability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/508Monitor

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Debugging And Monitoring (AREA)

Description

本発明は、サーバシステム、管理装置、サーバ管理方法、およびプログラムに関し、特に、複数の物理サーバ上で複数の仮想サーバが稼働するサーバシステム、管理装置、サーバ管理方法、およびプログラムに関する。
近年、1台の物理サーバにソフトウェアによって複数の仮想サーバを構築し、それら複数の仮想サーバで複数の処理を同時に実行するための仮想サーバ技術が実現されている。仮想サーバ技術によれば、通信網によって接続された複数の物理サーバ上で複数の仮想サーバを同時に稼動させるためのシステムも構築することが可能である。
このような複数の物理サーバ上で複数の仮想サーバが稼動する仮想サーバシステムでは、物理サーバの空きリソースの処理性能を動的に計測し、性能の異なる物理サーバ上で稼働する仮想サーバの処理性能を比較する技術が従来から知られている。
たとえば、特許文献1には、複数の物理サーバ上で仮想サーバを稼働させる仮想サーバ環境において、仮想サーバを移動させる先の物理サーバの空き容量を見積もることが記載されている。
特開2009−134687号公報
しかしながら上述した文献記載のシステムでは、ある時点の負荷の値についてのキャパシティの有無についての判断を行うだけであり、処理内容に依存して時間的に変化する周期性のある一定期間の負荷データに対して、十分なキャパシティが確保できるかどうかは検証されていない。しかも、一定期間の負荷データに対してキャパシティの確認を行う場合、負荷データ数が増加してデータ量が膨大となるため、キャパシティの判定の計算時間が長くなるという問題点があった。
本発明の目的は、上述した課題を解決するサーバシステム、管理装置、サーバ管理方法、およびプログラムを提供することにある。
本発明のサーバシステムは、
複数の仮想サーバが稼動する複数の物理サーバと、
複数の前記物理サーバに通信網で接続され、前記物理サーバ上で稼働する前記仮想サーバを管理する管理装置と、を備え、
前記管理装置は、
前記物理サーバにおいて、前記仮想サーバを稼働させたときの空きリソース容量が所定の条件を満たすか否かを判定する処理を、所定の単位時間ごとに分割し、並列分散処理によって行う判定手段と、
所定の処理が実行されている、複数の前記仮想サーバおよび複数の前記物理サーバの負荷データを前記通信網を介して収集する収集手段と、
前記収集手段が収集した前記負荷データを、単位負荷の範囲に基づいて、グループに分類し、各前記グループから所定数の負荷データを選択する選択手段と、
を備え
前記管理装置において、
前記判定手段は、前記選択手段により選択された前記負荷データに基づいて、前記判定する処理を行う
本発明の管理装置は、
複数の仮想サーバが稼動する複数の物理サーバに通信網で接続され、
前記物理サーバにおいて、前記仮想サーバを稼働させたときの空きリソース容量が所定の条件を満たすか否かを判定する処理を、所定の単位時間ごとに分割し、並列分散処理によって行う判定手段と、
所定の処理が実行されている、複数の前記仮想サーバおよび複数の前記物理サーバの負荷データを前記通信網を介して収集する収集手段と、
前記収集手段が収集した前記負荷データを、単位負荷の範囲に基づいて、グループに分類し、各前記グループから所定数の負荷データを選択する選択手段と、
を備え
前記判定手段は、前記選択手段により選択された前記負荷データに基づいて、前記判定する処理を行う
本発明のサーバ管理方法は、
複数の仮想サーバが稼動する複数の物理サーバに通信網で接続され、前記物理サーバ上で稼働する前記仮想サーバを管理する管理装置が、
前記物理サーバにおいて、前記仮想サーバを稼働させたときの空きリソース容量が所定の条件を満たすか否かを判定する処理を、所定の単位時間ごとに分割し、並列分散処理によって行い、さらに、
所定の処理が実行されている、複数の前記仮想サーバおよび複数の前記物理サーバの負荷データを前記通信網を介して収集し、
収集した前記負荷データを、単位負荷の範囲に基づいて、グループに分類し、各前記グループから所定数の負荷データを選択し、
前記判定する処理において、
選択された前記負荷データに基づいて、前記判定する処理を行う。
本発明のプログラムは、
複数の仮想サーバが稼動する複数の物理サーバに通信網で接続され、前記物理サーバ上で稼働する前記仮想サーバを管理する管理装置を実現するコンピュータに、
前記物理サーバにおいて、前記仮想サーバを稼働させたときの空きリソース容量が所定の条件を満たすか否かを判定する処理を、所定の単位時間ごとに分割し、並列分散処理によって行う手順
所定の処理が実行されている、複数の前記仮想サーバおよび複数の前記物理サーバの負荷データを前記通信網を介して収集する手順、
収集した前記負荷データを、単位負荷の範囲に基づいて、グループに分類し、各前記グループから所定数の負荷データを選択する手順、
を実行させ
前記判定する処理を行う手順において、選択された前記負荷データに基づいて前記判定する処理を実行させるためのものである。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
また、本発明の各種の構成要素は、必ずしも個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等でもよい。
また、本発明の方法およびコンピュータプログラムには複数の手順を順番に記載してあるが、その記載の順番は複数の手順を実行する順番を限定するものではない。このため、本発明の方法およびコンピュータプログラムを実施するときには、その複数の手順の順番は内容的に支障しない範囲で変更することができる。
さらに、本発明の方法およびコンピュータプログラムの複数の手順は個々に相違するタイミングで実行されることに限定されない。このため、ある手順の実行中に他の手順が発生すること、ある手順の実行タイミングと他の手順の実行タイミングとの一部ないし全部が重複していること、等でもよい。
本発明によれば、仮想サーバを稼働したときの物理サーバのリソース管理を短時間に低負荷で行うサーバシステム、管理装置、サーバ管理方法、およびプログラムが提供される。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
本発明の実施の形態に係るサーバシステムの構成を示す機能ブロック図である。 本発明の実施の形態に係るサーバシステムの動作の例を示すフローチャートである。 本発明の実施の形態に係るサーバシステムの構成を示す機能ブロック図である。 本発明の実施の形態に係るサーバシステムの動作の例を示すフローチャートである。 本発明の実施の形態に係るサーバシステムにおける一連の処理で扱うデータ形式の例を一覧表で示す図である。 本発明の実施の形態に係るサーバシステムの構成を示す機能ブロック図である。 本発明の実施の形態に係るサーバシステムの動作の例を示すフローチャートである。 本発明の実施の形態に係るサーバシステムにおける一連の処理で扱うデータ形式の例を一覧表で示す図である。 本発明の実施の形態に係るサーバシステムの構成を示す機能ブロック図である。 本発明の実施の形態に係るサーバシステムの動作の例を示すフローチャートである。 本発明の実施の形態に係るサーバシステムの管理装置における一連の処理で扱うデータ形式の例を一覧表で示す図である。 本発明の実施の形態に係るサーバシステムの管理装置の画面の一例を示す図である。 本発明の実施の形態に係るサーバシステムの並列分散処理を説明するための図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
(第1の実施の形態)
図1は、本発明の実施の形態に係るサーバシステム1の構成を示す機能ブロック図である。
本発明の実施の形態に係るサーバシステム1は、複数の仮想サーバ20が稼動する複数の物理サーバ10と、複数の物理サーバ10に通信網3で接続され、物理サーバ10上で稼働する仮想サーバ20を管理する管理装置100と、を備える。そして、管理装置100は、物理サーバ10において、仮想サーバ20を稼働させたときの空きリソース容量が、所定の条件を満たすか否かを判定する処理を、所定の単位時間ごとに分割し、並列分散処理によって行う判定部104を有する。図1では、物理サーバPM1で稼動する仮想サーバに符号VM11、...、VM1n(nは自然数)を付与し、物理サーバPMmで稼動する仮想サーバに符号VMm1、...、VMmi(mとiは自然数)を付与する。以下の説明では、これらの符号を用いてそれぞれを区別する。
サーバシステム1の各構成要素は、CPU(Central Processing Unit)、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスクなどの記憶ユニット、ネットワーク接続用インタフェースを備えるコンピュータのハードウェアとソフトウェアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。以下説明する各図は、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
また、以下の各図において、本発明の本質に関わらない部分の構成については省略してあり、図示されていない。
管理装置100は、たとえば、図示しないCPUやメモリ、ハードディスク、および通信装置を備え、キーボードやマウス等の入力装置やディスプレイやプリンタ等の出力装置と接続されるサーバコンピュータやパーソナルコンピュータ、またはそれらに相当する装置により実現することができる。そして、CPUが、ハードディスクに記憶されるプログラムをメモリに読み出して実行することにより、上記各ユニットの各機能を実現することができる。
本実施形態のコンピュータプログラムは、管理装置100を実現させるためのコンピュータに、物理サーバ10において、仮想サーバ20を稼働させたときの空きリソース容量が所定の条件を満たすか否かを判定する処理を、所定の単位時間ごとに分割し、並列分散処理によって行う手順を実行させるように記述されている。
本実施形態のコンピュータプログラムは、コンピュータで読み取り可能な記録媒体(磁気ディスク、半導体メモリ、光ディスク等)に記録されてもよい。記録媒体は特に限定されず、様々な形態のものが考えられる。また、プログラムは、記録媒体からコンピュータのメモリにロードされてもよいし、ネットワークを通じてコンピュータにダウンロードされ、メモリにロードされてもよい。
本実施形態のサーバシステム1において、管理装置100は、それぞれ業務アプリケーションを実行している物理サーバ10および仮想サーバ20のリソースを監視し、必要に応じて、仮想サーバ20を他の物理サーバ10にマイグレーションするなどの制御を行うこともできる。このとき、本実施形態の管理装置100は、リソースを効率よく利用できるような物理サーバ10と仮想サーバ20の組み合わせを見つける判定処理を行う。
本実施形態において、物理サーバ10は、ハードウェアによって構成される実際のコンピュータをさし、図示しないCPUやメモリ、ハードディスク、および通信制御装置を備え、キーボードやマウス等の入力装置やディスプレイやプリンタ等の出力装置と接続されるサーバコンピュータやパーソナルコンピュータ、またはそれらに相当する装置により実現することができる。そして、CPUが、ハードディスクに記憶されるプログラムをメモリに読み出して実行することにより、上記各ユニットの各機能を実現することができる。
仮想サーバ20は、物理サーバ10上に仮想化ソフトによって構築される仮想的なコンピュータをさす。仮想サーバ20は物理サーバ10上に複数稼働させることができる。これにより、1台の物理サーバ10を、複数の利用者が同時に利用したり、異なるOSを並列に実行させたりすることができる。
図1では、管理装置100は、物理サーバ10とは異なるコンピュータとなっているが、物理サーバ10または仮想サーバ20が稼働しているコンピュータにより実現することもできる。
本実施形態において、サーバシステム1の管理対象システムは、複数の仮想サーバ20が稼働する複数の物理サーバ10を備えるシステムであり、たとえば、データセンタなど、多数のIT機器を有する大規模なシステムを含む。この場合、上記の物理サーバ10と仮想サーバ20の組み合わせ数が膨大になり、仮想サーバ20をマイグレーションする移動先の物理サーバ10を決定する計算時間が長くなり、処理の負荷が大きくなってしまうという課題が生じる。したがって、本発明の実施形態に係るサーバシステム1では、所定の単位時間ごとに分割し、並列分散処理によって判定処理を行うことで、このようなデータセンタなど、多数のIT機器を有する大規模システムにも対応可能になる。
また、本発明の実施の形態に係るサーバシステム1において、管理装置100は、物理サーバ10および仮想サーバ20の負荷データの負荷のピークが周期的に現れるものについて、負荷データを監視し、効率よくリソースを利用できるように制御する。
たとえば、企業内のウェブサーバは、出退勤時刻と昼休みに負荷が高くなるという日単位の周期性を有する。また、企業の給与計算システムや勤務管理システムなどは、月単位でデータ処理を行うため、月末や月初にサーバの負荷のピークがあり、それ以外の時期はサーバの負荷が低いといった月単位の周期性を有する。このように、物理サーバ上で稼働する仮想サーバの負荷は、処理内容に依存して時間的に変化する。そこで、負荷データの負荷のピークが周期的に現れ、一定期間内で負荷が変化するような場合においても、本実施形態の管理装置100は、効率よくリソースを利用できるように制御する。
監視対象の物理サーバ10および仮想サーバ20の負荷のピークが周期的に現れる期間(以後、「タイムスパンT」と呼ぶ)は、日単位、週単位、月単位、年単位、曜日単位、季節単位、半期単位など様々考えられる。また、分割処理の単位時間(△T)は、たとえば、1時間、1日、1週間、1ヶ月、1年などである。
また、リソースは、物理サーバ10または仮想サーバ20のCPU、メモリ、ネットワークI/O(Input/Output)、およびストレージI/Oなどを含むことができる。
具体的には、サーバシステム1は、収集部102と、判定部104とを有する管理装置100と、管理装置100に接続された負荷データ記憶部120と、判定結果記憶部130と、を備える。
なお、負荷データ記憶部120および判定結果記憶部130は、管理装置100に含まれてもよい。
収集部102は、通信網3を介して、物理サーバ10および仮想サーバ20から物理サーバ10および仮想サーバ20の負荷データの値を一定間隔で取得し、履歴データとして負荷データ記憶部120に記憶する。収集部102が収集する負荷データは、物理サーバ10および仮想サーバ20それぞれのCPU使用率、メモリ使用率、記録媒体の入出力性能値(例えば最大データ転送速度に対する入出力データ転送速度の割合)、通信制御装置の入出力性能値(伝送速度や使用帯域等)等の性能に関する情報を含む。
負荷データ記憶部120は、収集部102が収集した負荷データを記憶する。負荷データ記憶部120は、物理サーバ10ごとに、その物理サーバ10上で稼働している仮想サーバ20ごとの負荷データを、収集時刻tごとに1ペアとして記憶することができる。
判定部104は、収集部102が収集した負荷データに基づいて、物理サーバ10上で稼働する仮想サーバ20の格納可能性を判定する。本実施形態では、判定部104は、収集部102が収集した、物理サーバ10と物理サーバ10上で稼働する仮想サーバ20の負荷データを時間帯ごとに分割し、格納可能性を判定する。また、判定部104は、格納可能性の判定結果を判定結果記憶部130に記憶する。
ここで、判定部104における判定処理の並列分散処理について、以下に説明する。
たとえば、図13に示すように、まず、複数の物理サーバ10(PM1、PM2、...、PMm)から通信網3を介して収集部102が収集した負荷データD1、D2、...、Dmは、負荷データ記憶部120に格納する。その後、所定のタイムスパンTを複数に分割した単位時間△Tごとに、それぞれ、時刻t1からt2の間のデータd11、d21、...、dm1、時刻t2からt3の間のデータd12、d22、...、dm2などに分割される。なお、本図では、タイムスパンTが4つの単位時間△Tに分割されているが、これに限定されるものではなく、説明上便宜的に示しているだけである。そして、判定部104において、複数の処理部U1、U2、U3、...が、この単位時間△Tごとに分割された複数の物理サーバ10(PM1、PM2、...、PMm)の分割データをそれぞれ並列に分散して処理する。そして、各処理部から処理された複数の結果R1、R2、R3、...が判定結果記憶部130に格納される。
たとえば、図13では、判定部104の処理部U1では、時刻t1からt2の間の物理サーバPM1、PM2、...、PMmのデータd11、d21、...、dm1が処理されて結果R1が判定結果記憶部130に格納される。また、判定部104の処理部U2では、時刻t2からt3の間の物理サーバPM1、PM2、...、PMmのデータd12、d22、...、dm2が処理されて結果R2が判定結果記憶部130に格納される。このようにして、本発明の管理装置100の判定部104における判定処理は、並列分散処理されることとなる。
図1に戻り、本実施形態では、判定部104は、ある周期の時間帯で、たとえば、24時間で、物理サーバ10上の空きリソースを使って、ある周期的な負荷のピークを有する仮想サーバ20が稼働できるか否かを判定し、ある仮想サーバ20の物理サーバ10に対する格納可能性として示す。
ここで、格納可能性の判定とは、ある物理サーバ10上で0台以上の仮想サーバ20が稼働している状況で、物理サーバ10上で新たに仮想サーバ20を稼働させる場合、仮想サーバ20の負荷について周期性のある一定期間を単位として、その期間内の全ての時刻において、CPU、メモリ、ネットワークI/O、ストレージI/Oなどのいずれのリソースもキャパシティが不足することなく処理を完了できるかどうかを判定することと定義する。
ただし、他の実施形態では、CPU、メモリ、ネットワークI/O、またはストレージI/Oなどのうち予め決められたいずれかのリソースのキャパシティが不足することなく周期性のある一定期間内に処理を完了できるかどうかを判定することもできる。
すなわち、物理サーバ10上の空きリソースが、仮想サーバ20を稼働するのに必要な量以上であれば、格納可能(OK)と判定され、物理サーバ10上の空きリソースが、仮想サーバ20を稼働するのに必要な量に満たなければ、格納不可(NG)と判定される。
判定結果記憶部130は、判定部104が行った格納可能性の判定結果を「OK」または「NG」のいずれか記憶する。本実施形態では、便宜上、判定結果を「OK」または「NG」と示しているが、これに限定されるものではなく、判定結果を示す情報として、数値、記号、フラグなど、様々な態様が考えられる。
このように構成された本実施形態のサーバシステム1の動作について、以下に説明する。
図2は、本発明の実施の形態に係るサーバシステム1の動作の例を示すフローチャートである。以下、図1および図2を用いて説明する。
本発明の実施の形態に係るサーバ管理方法は、管理装置100が、物理サーバにおいて、仮想サーバを稼働させたときの空きリソース容量が所定の条件を満たすか否かを判定する処理を、所定の単位時間ごとに分割し、並列分散処理によって行う(ステップS103)。
詳細には、まず、収集部102が、各物理サーバ10から、物理サーバ10および仮想サーバ20の負荷データを収集し、負荷データ記憶部120に記憶する(ステップS101)。そして、判定部104が、負荷データ記憶部120を参照し、記憶された負荷データを所定の単位時間ごとに分割する。そして、並列分散処理にて格納可能性を判定し、その判定結果を判定結果記憶部130に記憶する(ステップS103)。
本実施形態のサーバシステム1は、このようにして判定結果記憶部130に記憶された各物理サーバ10で仮想サーバ20を稼働させた場合の格納可能性の判定結果を、オペレータが必要に応じて閲覧できるように提示する提示部(不図示)を有することができる。たとえば、判定結果をディスプレイなどの出力装置(不図示)に画面表示したり、プリンタなどの出力装置(不図示)に印字出力したりできる。
オペレータが、キーボードなどの入力装置(不図示)を用いて、格納可能性の判定結果を検索する操作を行う操作画面をディスプレイに表示し、オペレータの操作を受け付けて、検索処理を行う処理部(不図示)を有することができる。
このように構成することで、仮想サーバ20の移動先に適した物理サーバ10の選択をオペレータに短時間で判断させることが可能になる。なお、判定結果は、すべての物理サーバの判定結果をリストにして提示してもよい。また、リストは、判定結果の可否毎にソートできてもよい。さらに、リストに、物理サーバの他の性能情報(たとえば、CPU性能、メモリ容量等)などを含めて提示してもよい。
本発明によれば、物理サーバ10と仮想サーバ20の各組合せに対して、物理サーバ10上に仮想サーバ20を移動して稼働させた場合について、物理サーバ10や仮想サーバ20の負荷データを時間帯ごとに分割して格納可能性の判定処理を実行することにより、並列分散処理が可能となる。そのため、本発明によれば、短時間に低負荷で仮想サーバ20の移動先に適した物理サーバ10の選択ができる。このように、本発明によれば、仮想サーバを稼働したときの物理サーバのリソース管理を短時間に低負荷で行える。そして、本発明によれば、仮想サーバ20のキャパシティ不足や無駄な空きリソースの発生を回避することができ、効率よくリソースを利用できることとなる。
本発明によれば、特に、周期性のある一定期間の負荷データに対して、仮想サーバ20の実行に必要なキャパシティが十分確保されていることを短時間で検証することができる。その理由は、仮想サーバの周期的な負荷データの全体に対して、格納可能性を判定できるためである。
また、本発明のサーバシステム1によれば、物理サーバや仮想サーバの台数が増大した場合でも、仮想サーバを稼働させるのに十分なキャパシティを持つ物理サーバを短時間に判定できるという効果を奏する。この結果、仮想サーバのキャパシティ不足や無駄な空きリソースの発生を回避することができる。その理由は、格納可能性の判定処理を並列分散実行可能な処理として実現しているためである。
(第2の実施の形態)
図3は、本発明の実施の形態に係るサーバシステム1の構成を示す機能ブロック図である。
本実施形態のサーバシステム1の管理装置200は、上記実施の形態の管理装置100における、収集部102が収集した負荷データに基づく処理を行う具体的な構成を有する。
なお、本実施形態において、サーバシステム1は、物理サーバ10および仮想サーバ20の台数がそれほど多くなく、負荷データのサイズ(監視対象となる負荷データ件数)が中程度の場合の例について説明する。
本発明の実施の形態に係るサーバシステム1において、管理装置200は、図1の上記実施形態の管理装置100の構成に加え、さらに、生成部202と、算出部204と、を備える。
生成部202は、はじめに、収集部102が各物理サーバ10から収集した物理サーバ10および仮想サーバ20の負荷データから、各物理サーバ10の識別子(PM_ID)と収集時刻tがキーで、負荷データがバリューのペアのデータを生成する。そして、生成部202は、分割処理の単位時間△Tがキーで、その時間内に含まれる時刻tのログをバリューとするペアのデータを生成する。
生成部202によって生成された上記各データは、負荷データ記憶部120に記憶することができる。
算出部204は、タイムスパンTに含まれる全てのΔTに対して、仮想サーバ20を稼働させた場合の物理サーバ10の余剰リソース量を算出する。
このように構成された本実施形態のサーバシステム1の管理装置200の動作について、以下に説明する。
図4は、本発明の実施の形態に係るサーバシステム1の動作の例を示すフローチャートである。また、図5は、サーバシステム1における一連の処理で扱うデータ形式の例を一覧表で示す図である。以下、図3乃至図5を用いて説明する。
まず、管理装置200の収集部102が、通信網3を介して各物理サーバ10の負荷データを一定間隔で取得し、負荷データ記憶部120に記憶する(ステップS201)。この時のデータ形式は図5の表1のステップS201のようになる。図5に示すように、負荷データは、たとえば、収集時刻t(2010/05/27 13:05:02)、物理サーバ10および仮想サーバ20の識別情報(PM1、VM11)、その仮想サーバ20のCPU利用率(CPU 32%)、およびネットワーク入出力性能値(NW send 253Mbps)などを含む。
管理装置200の生成部202が、負荷データ記憶部120を参照し、各負荷データから、物理サーバ10の識別子(PM_ID)と時刻tがキーで、負荷データ(図5の表1において、「load_info_1(VM_ID+CPU+NW_send+...」と示す)がバリューのペアのデータを生成する(ステップS203)。この時のデータ形式は図5の表1のステップS203のようになる。
さらに、管理装置200の生成部202が、負荷データ記憶部120を参照し、分割処理の単位時間△Tがキーで、その時間内に含まれる時刻tのログ(図5の表1において、「load_info_2(PM_ID+t+load_info_1のリスト)」と示す)をバリューとするペアのデータを生成する(ステップS205)。この時のデータ形式は図5の表1のステップS205のようになる。
管理装置200の判定部104が、負荷データ記憶部120を参照し、同じΔTに含まれるログからPM_IDと仮想サーバの識別子(VM_ID)のペアのデータを生成して、格納可能性を判定する。そして、管理装置200の判定部104は、その判定結果(図5の表1において、「result_2(PM_ID,VM_ID,OK/NG)」に相当)を判定結果記憶部130に記憶する(ステップS207)。さらに、管理装置200の算出部204が、負荷データ記憶部120を参照し、余剰リソース量(図5の表1において、「result_2(PM_ID,VM_ID,余剰リソース)」に相当)を算出して、判定結果記憶部130に記憶する(ステップS209)。この時のデータ形式は図5の表1のステップS207およびステップS209のようになる。
管理装置200の判定部104が、判定結果記憶部130を参照し、タイムスパンTに含まれる全てのΔTに対して、格納可能性を判定する。そして、管理装置200の判定部104は、PM_IDとVM_IDのペアのデータに対応する判定結果(図5の表1において、「result_1(OK/NG)」に相当)を判定結果記憶部130に記憶する(ステップS211)。そして、管理装置200の算出部204が、判定結果記憶部130を参照し、PM_IDとVM_IDのペアのデータに対応する物理サーバ10の余剰リソース(図5の表1において、「result_1(余剰リソース)」に相当)を算出して、判定結果記憶部130に記憶する(ステップS213)。この時のデータ形式は図5の表1のステップS211およびS213のようになる。
このようにして判定結果記憶部130に記憶された各物理サーバ10で仮想サーバ20を稼働させた場合の格納可能性の判定結果は、上記実施形態と同様に、オペレータからの検索要求を受け付けて検索結果をオペレータに提示することができる。
これにより、仮想サーバ20の移動先に適した物理サーバ10の選択をオペレータに短時間で判断させることが可能になる。また、余剰リソース量を比較できるように提示することにより、無駄の少ない物理サーバ10の選択をオペレータに判断させることが可能になる。
本実施形態のサーバシステム1によれば、上記実施形態と同様な効果を奏する。
(第3の実施の形態)
図6は、本発明の実施の形態に係るサーバシステム1の構成を示す機能ブロック図である。
本実施形態のサーバシステム1の管理装置300は、図3の上記実施形態とは、負荷データの件数が多い場合などに、判定部104の分割処理の単位時間をより短くすることで、判定処理の負荷を低減する点で相違する。
本発明の実施の形態に係るサーバシステム1において、管理装置300は、図3の上記実施形態の管理装置200の構成に加え、単位時間内に処理される負荷データが所定数未満含まれるように、単位時間の最小値を決定する決定部302をさらに備える。さらに、管理装置300の判定部104は、決定された最小値に単位時間を分割し、最小値の単位時間で判定する処理を行う。
なお、本実施形態において、サーバシステム1は、物理サーバ10および仮想サーバ20の台数が多く、負荷データのサイズ(監視対象となる負荷データ件数)が大きい場合の例について説明する。
具体的には、本実施形態の管理装置300は、図3の上記実施形態の管理装置200の生成部202に替えて、生成部304を有するとともに、管理装置200と同様な収集部102と、判定部104と、算出部204と、を有し、さらに、決定部302を有する。
決定部302において、単位時間の最小値は、単位時間内に処理される負荷データに対応する物理サーバ10と仮想サーバ20のペア数がその時間内で所定個数未満となるように決定することができる。収集部102が収集した負荷データの単位時間あたりの処理数が多く、かつ、判定処理の負荷が所定の基準より高くなる場合に決定部302の本処理を行うのが好ましい。
生成部304は、図3の上記実施形態の管理装置200の生成部202と同様に、収集部102が各物理サーバ10から収集した物理サーバ10および仮想サーバ20の負荷データから、各物理サーバ10の識別子(PM_ID)と収集時刻tがキーで、負荷データがバリューのペアのデータを生成する。そして、生成部202は、分割処理の単位時間△Tがキーで、その時間内に含まれる時刻tのログをバリューとするペアのデータを生成する。
さらに、生成部304は、生成されたデータのペア数が所定数より多い場合に、単位時間△Tの最小値ΔTminがキーで、その時間内に含まれる時刻tのログをバリューとするペアのデータを生成する。
生成部304によって生成された上記各データは、負荷データ記憶部120に記憶することができる。
このように構成された本実施形態のサーバシステム1の管理装置300の動作について、以下に説明する。
図7は、本発明の実施の形態に係るサーバシステム1の管理装置300の動作の例を示すフローチャートである。また、図8は、サーバシステム1における一連の処理で扱うデータ形式の例を一覧表で示す図である。
なお、本実施形態の管理装置300は、図4の上記実施形態の管理装置200の動作を示すフローチャートと同様な手順で処理を行うとともに、図4のステップS205とステップS207の間に、図7に示すステップS301乃至ステップS307の処理を行う。以下、図4、図6乃至図8を用いて説明する。
上記実施形態の管理装置200と同様に、管理装置300の収集部102が、通信網3を介して各物理サーバ10の負荷データを一定間隔で取得し、負荷データ記憶部120に記憶する(図4のステップS201)。この時のデータ形式は図8の表2のステップS201のようになる。
管理装置300の生成部304が、負荷データ記憶部120を参照し、各負荷データから、各物理サーバ10の識別子(PM_ID)と収集時刻tがキーで、負荷データ(図8の表2において、「load_info_1(VM_ID+CPU+NW_send+...」と示す)がバリューのペアのデータを生成する(図4のステップS203)。この時のデータ形式は図8の表2のステップS203のようになる。
管理装置300の生成部304が、負荷データ記憶部120を参照し、分割処理の単位時間△Tがキーで、その時間内に含まれる時刻tのログ(図8の表2において、「load_info_2(PM_ID+t+load_info_1のリスト)」と示す)をバリューとするペアのデータを生成する(図4のステップS205)。この時のデータ形式は図8の表2のステップS205のようになる。そして、管理装置300は、図7のステップS301に処理を移行する。
管理装置300の決定部302が、負荷データ記憶部120を参照し、ステップS205で生成されたデータのペア数が所定数より多いか否かを判定する(図7のステップS301)。そして、データのペア数が所定数より多い場合には(図7のステップS301のYES)、管理装置300の決定部302が、負荷データ記憶部120を参照し、単位時間内に処理される負荷データが所定数未満含まれるように単位時間△Tの最小値ΔTminを決定する(図7のステップS302)。なお、データのペア数が所定数より少ない場合には(図7のステップS301のNO)、管理装置300は、図4のフローに戻り、図4のステップS207の処理を続ける。
そして、管理装置300の生成部304が、負荷データ記憶部120を参照し、単位時間△Tの最小値ΔTminがキーで、その時間内に含まれる時刻tのログ(図8の表2において、「load_info_3(load_info_2のリスト)」と示す)をバリューとするペアのデータを生成する(図7のステップS303)。この時のデータ形式は図8の表2のステップS303のようになる。
そして、管理装置300の判定部104が、負荷データ記憶部120を参照し、同じΔTminに含まれるログからPM_IDとVM_IDのペアのデータを生成して、格納可能性を判定する。そして、管理装置300の判定部104は、その判定結果(図8の表2において、「result_3(PM_ID,VM_ID,OK/NG)」に相当)を判定結果記憶部130に記憶する(図7のステップS305)。さらに、管理装置300の算出部204が、負荷データ記憶部120を参照し、余剰リソース量(図8の表2において、「result_3(PM_ID,VM_ID,余剰リソース)」に相当)を算出して、判定結果記憶部130に記憶する(図7のステップS307)。この時のデータ形式は図8の表2のステップS305およびS307のようになる。そして、管理装置300は、図4のフローに戻り、図4のステップS207の処理を続ける。
管理装置300の判定部104が、判定結果記憶部130を参照し、ΔTに含まれる全てのΔTminに対して、格納可能性を判定する。そして、管理装置300の判定部104は、その判定結果(図8の表2において、「result_2(PM_ID,VM_ID,OK/NG)」に相当)を判定結果記憶部130に記憶する(図4のステップS207)。さらに、管理装置300の算出部204が、判定結果記憶部130を参照し、余剰リソース量(図8の表2において、「result_2(PM_ID,VM_ID,余剰リソース)」に相当)を算出して、判定結果記憶部130に記憶する(図4のステップS209)。この時のデータ形式は図8の表2のステップS207およびS209のようになる。
そして、管理装置300の判定部104が、判定結果記憶部130を参照し、タイムスパンTに含まれる全てのΔTに対して、格納可能性を判定する。そして、管理装置300の判定部104は、PM_IDとVM_IDのペアのデータに対応する判定結果(図8の表2において、「result_1(OK/NG)」に相当)を判定結果記憶部130に記憶する(図4のステップS211)。そして、管理装置300の算出部204が、判定結果記憶部130を参照し、PM_IDとVM_IDのペアのデータに対応する物理サーバ10の余剰リソース(図8の表2において、「result_1(余剰リソース)」に相当)を算出して、判定結果記憶部130に記憶する(図4のステップS213)。この時のデータ形式は図8の表2のステップS211およびS213のようになる。
このようにして判定結果記憶部130に記憶された各物理サーバ10で仮想サーバ20を稼働させた場合の格納可能性の判定結果は、上記実施形態と同様に、オペレータからの検索要求を受け付けて検索結果をオペレータに提示することができる。
これにより、仮想サーバ20の移動先に適した物理サーバの選択をオペレータに短時間で判断させることが可能になる。また、余剰リソース量を比較できるように提示することにより、無駄の少ない物理サーバ10の選択をオペレータに判断させることが可能になる。
本実施形態のサーバシステム1によれば、上記実施形態と同様な効果を奏するとともに、物理サーバ10や仮想サーバ20の負荷データを分割処理の単位時間の最小値△Tminごとに分割して格納可能性の判定処理を実行することにより、より粒度の小さい並列分散処理が可能となる。そのため、本発明によれば、データ量が大規模になった場合でも短時間で仮想サーバ20の移動先に適した物理サーバ10の選択ができ、仮想サーバ20のキャパシティ不足や物理サーバ10の無駄な空きリソースの発生を回避することができる。
(第4の実施の形態)
図9は、本発明の実施の形態に係るサーバシステム1の構成を示す機能ブロック図である。
本実施形態のサーバシステム1の管理装置400は、図3および図6の上記実施形態とは、同様な負荷パターンの負荷データを有するサーバをグループ化し、グループの中から代表のサーバを選択して判定処理を行うことで、判定処理の負荷を低減する点で相違する。
本実施形態のサーバシステム1の管理装置400は、サーバの負荷のパターンが同じようなものが多数存在するようなシステムの場合に特に有用である。また、負荷の低いサーバで、ほとんど負荷に変化がないものが多数存在するようなシステムの場合にも有用である。
本発明の実施の形態に係るサーバシステム1において、管理装置400は、収集部102が収集した負荷データを、単位負荷の範囲に基づいて、グループに分類し、各グループから所定数の負荷データを選択する選択部402をさらに備える。さらに、管理装置400の判定部104は、選択された負荷データに基づいて、判定する処理を行う。
なお、本実施形態において、サーバシステム1は、物理サーバ10および仮想サーバ20の台数が非常に多く、かつ、負荷データのサイズ(監視対象となる負荷データ件数)が極端に大きいの場合の例について説明する。
具体的には、本実施形態の管理装置400は、図3または図6の上記実施形態の管理装置200の生成部202または管理装置300の生成部304に替えて、生成部406を有するとともに、管理装置200および管理装置300と同様な収集部102と、判定部104と、算出部204と、を有し、管理装置300の決定部302に替えて、決定部404を有し、さらに、選択部402を有する。
選択部402は、収集部102が収集した負荷データを、単位負荷の範囲に基づいて、グループに分類し、各グループから所定数の負荷データを選択する。後述するように、選択部402は、単位時間△Tまたは単位時間△Tの最小値△Tminに含まれる物理サーバ10と仮想サーバ20の負荷データのペア数が所定のペア数より多い場合に負荷データの選択処理を行うことができる。または、同様な負荷パターンを有するものが所定のデータ数より多い場合に選択処理を行ってもよい。
ここで、単位負荷の範囲とは、たとえば、単位時間当たりの物理サーバ10の平均負荷、ピーク時の負荷、または負荷の変動幅などの範囲である。選択部402は、所定の範囲の平均負荷、ピーク時の負荷、または負荷の変動幅を有する物理サーバ10をグループに分け、グループの中から代表のサーバを選択する。
決定部404は、図6の管理装置300の決定部302と同様に、単位時間内に処理される負荷データが所定数未満含まれるように単位時間の最小値を決定する。
なお、本実施形態の管理装置400は、決定部404を有しているが、必ずしも必要はなく、図3の管理装置200と同様に、単位時間の最小値を決定する構成は有さなくてもよい。
生成部406は、図3の上記実施形態の管理装置200の生成部202と同様に、収集部102が各物理サーバ10から収集した物理サーバ10および仮想サーバ20の負荷データから、各物理サーバ10の識別子(PM_ID)と収集時刻tがキーで、負荷データがバリューのペアのデータを生成する。そして、生成部202は、分割処理の単位時間△Tがキーで、その時間内に含まれる時刻tのログをバリューとするペアのデータを生成する。
さらに、生成部406は、図6の上記実施形態の管理装置300の生成部304と同様に、生成されたデータのペア数が所定数より多い場合に、単位時間△Tの最小値ΔTminがキーで、その時間内に含まれる時刻tのログをバリューとするペアのデータを生成する。
生成部406によって生成された上記各データは、負荷データ記憶部120に記憶することができる。
このように構成された本実施形態のサーバシステム1の管理装置400の動作について、以下に説明する。
図10は、本発明の実施の形態に係るサーバシステム1の管理装置400の動作の例を示すフローチャートである。また、図11は、サーバシステム1における一連の処理で扱うデータ形式の例を一覧表で示す図である。
なお、本実施形態の管理装置400は、図4の上記実施形態の管理装置200の動作を示すフローチャートと同様な手順で処理を行うとともに、図4のステップS205とステップS207の間に、図7に示すステップS301乃至ステップS307の処理を行い、さらに、図7のステップS303とステップS305の間に、図10のステップS401乃至ステップS405の処理を行う。以下、図4、図7、図9乃至図11を用いて説明する。
上記実施形態の管理装置200と同様に、管理装置400の収集部102が、通信網3を介して各物理サーバ10の負荷データを一定間隔で取得し、負荷データ記憶部120に記憶する(図4のステップS201)。この時のデータ形式は図11の表3のステップS201のようになる。
管理装置400の生成部406が、負荷データ記憶部120を参照し、各負荷データから、各物理サーバ10の識別子(PM_ID)と収集時刻tがキーで、負荷データ(図11の表3において、「load_info_1(VM_ID+CPU+NW_send+...」と示す)がバリューのペアのデータを生成する(図4のステップS203)。この時のデータ形式は図11の表3のステップS203のようになる。
管理装置400の生成部406が、負荷データ記憶部120を参照し、分割処理の単位時間△Tがキーで、その時間内に含まれる時刻tのログ(図11の表3において、「load_info_2(PM_ID+t+load_info_1のリスト)」と示す)をバリューとするペアのデータを生成する(図4のステップS205)。この時のデータ形式は図11の表3のステップS205のようになる。そして、管理装置400は、図7のステップS301に処理を移行する。
管理装置400の決定部404が、負荷データ記憶部120を参照し、ステップS205で生成されたデータのペア数が所定数より多いか否かを判定する(図7のステップS301)。そして、データのペア数が多い場合には(図7のステップS301のYES)、管理装置400の決定部404が、負荷データ記憶部120を参照し、単位時間内に処理される負荷データが所定数未満含まれるように単位時間△Tの最小値ΔTminを決定する(図7のステップS302)。
そして、管理装置400の生成部304が、負荷データ記憶部120を参照し、単位時間△Tの最小値ΔTminがキーで、その時間内に含まれる時刻tのログ(図11の表3において、「load_info_3(load_info_2のリスト)」と示す)をバリューとするペアのデータを生成する(図7のステップS303)。この時のデータ形式は図11の表3のステップS303のようになる。そして、管理装置400は、図10のステップS401に処理を移行する。
管理装置400の選択部402が、負荷データ記憶部120を参照し、ステップS303で生成されたΔTminに含まれるデータのペア数が所定数より多いか否かを判定する(図10のステップS401)。そして、ΔTminに含まれるデータのペア数が所定数より多い場合には(図10のステップS401のYES)、単位負荷ΔLの範囲ごとにデータのペアをグループ化する(図10のステップS403)。この時のデータ形式は図11の表3のステップS403のようになる。なお、ΔTminに含まれるデータのペア数が所定数より少ない場合には(図10のステップS401のNO)、管理装置400は、図7のフローに戻り、図7のステップS305の処理を続ける。
そして、管理装置400の選択部402が、負荷データ記憶部120を参照し、ΔLに含まれるデータのペアのうち代表となるr個を選択し、ΔTminに含まれるデータのペアを置換する(図10のステップS405)。この時のデータ形式は図11の表3のステップS405のようになる。そして、管理装置400は、図7のフローに戻り、図7のステップS305の処理を続ける。
そして、管理装置400の判定部104が、負荷データ記憶部120を参照し、同じΔTminに含まれるログからPM_IDとVM_IDのペアのデータを生成して、格納可能性を判定する。そして、管理装置400の判定部104は、その判定結果(図11の表3において、「result_3(PM_ID,VM_ID,OK/NG)」に相当)を判定結果記憶部130に記憶する(図7のステップS305)。さらに、管理装置400の算出部204が、負荷データ記憶部120を参照し、余剰リソース量(図11の表3において、「result_3(PM_ID,VM_ID,余剰リソース)」に相当)を算出して、判定結果記憶部130に記憶する(図7のステップS307)。この時のデータ形式は図11の表3のステップS305およびS307のようになる。そして、管理装置400は、図4のフローに戻り、図4のステップS207の処理を続ける。
管理装置400の判定部104が、判定結果記憶部130を参照し、ΔTに含まれる全てのΔTminに対して、格納可能性を判定する。そして、管理装置400の判定部104は、その判定結果(図8の表2において、「result_3(PM_ID,VM_ID,OK/NG)」に相当)を判定結果記憶部130に記憶する(図4のステップS207)。さらに、管理装置400の算出部204が、判定結果記憶部130を参照し、余剰リソース量(図11の表3において、「result_2(PM_ID,VM_ID,余剰リソース)」に相当)を算出して、判定結果記憶部130に記憶する(図4のステップS209)。この時のデータ形式は図11の表3のステップS207およびS209のようになる。
そして、管理装置400の判定部104が、判定結果記憶部130を参照し、タイムスパンTに含まれる全てのΔTに対して、格納可能性を判定する。そして、管理装置400の判定部104は、PM_IDとVM_IDのペアのデータに対応する判定結果(図11の表3において、「result_1(OK/NG)」に相当)を判定結果記憶部130に記憶する(図4のステップS211)。そして、管理装置400の算出部204が、判定結果記憶部130を参照し、PM_IDとVM_IDのペアのデータに対応する物理サーバ10の余剰リソース(図11の表3において、「result_1(余剰リソース)」に相当)を算出して、判定結果記憶部130に記憶する(図4のステップS213)。この時のデータ形式は図11の表3のステップS211およびS213のようになる。
このようにして判定結果記憶部130に記憶された各物理サーバ10で仮想サーバ20を稼働させた場合の格納可能性の判定結果は、上記実施形態と同様に、オペレータからの検索要求を受け付けて検索結果をオペレータに提示することができる。
これにより、仮想サーバ20の移動先に適した物理サーバ10の選択をオペレータに短時間で判断させることが可能になる。また、余剰リソース量を比較できるように提示することにより、無駄の少ない物理サーバ10の選択をオペレータに判断させることが可能になる。
本実施形態のサーバシステム1によれば、上記実施形態と同様な効果を奏するとともに、物理サーバ10や仮想サーバ20の負荷データを分割処理の単位時間の最小値△Tminごとに分割し、さらに単位負荷△Lの範囲ごとに代表値を絞り込んで格納可能性の判定処理を実行することにより、より粒度が小さくかつ組合せの少ない並列分散処理が可能となる。そのため、本発明によれば、データ量が極端に大きくなった場合でも短時間で仮想サーバ20の移動先に適した物理サーバ10の選択ができ、仮想サーバ20のキャパシティ不足や物理サーバ10の無駄な空きリソースの発生を回避することができる。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
たとえば、本発明の他の実施形態のサーバシステム1において、管理装置の判定部における格納可能性の判定処理は、以下の判定を行う構成としてもよい。第1の判定方法は、安全性を重視した方法であり、空きリソース容量が全期間にわたり要求されたリソース量を満たしているかを判定する。オンライン処理向けの判定方法である。第2の判定方法は、空きリソース容量の平均が要求されたリソース量を満たしているかを判定する。この第2の判定方法では、一時的にリソース容量が上限に達してもよく、所定期間内(一周期以内)(たとえば、24時間以内)に処理が終了できればよいシステムに適した方法であり、バッチ処理向けの判定方法である。
これら2つの判定方法は、オペレータのニーズに応じて、いずれかを選択して行ってもよいし、両方行ってもよい。
すなわち、上記第1の判定方法によれば、他の実施形態のサーバシステム1において、管理装置の判定部は、判定する処理において、空きリソース容量が、負荷データの負荷のピークが周期的に現れる所定期間にわたり、要求条件を満たしているか否かを判定する。この要求条件を満たしていれば、判定部は、格納可能性があると判定することができる。
また、上記第2の判定方法によれば、他の実施形態のサーバシステム1において、管理装置の判定部は、判定する処理において、負荷データの負荷のピークが周期的に現れる所定期間内の空きリソース容量の平均値が、平均値の要求条件を満たしているか否かを判定する。この要求条件を満たしていれば、判定部は、格納可能性があると判定することができる。
また、他の実施形態のサーバシステム1において、管理装置は、算出された余剰リソース量をユーザに提示するリソース提示部(不図示)をさらに備えることができる。さらに、管理装置の判定部による判定結果をユーザに提示する判定結果提示部(不図示)をさらに備えてもよい。
図12は、本発明の実施の形態に係るサーバシステム1のリソース提示部によって表示装置(不図示)に表示される画面の一例を示す図である。
同図に示すように、画面500は、仮想サーバ512(VM)と移動先物理サーバ514(PM)のペアのデータに対するCPU、メモリ、またはネットワークなどの余剰リソース516をリスト502として含む。リスト502において、リソース選択リスト518によってCPU、メモリ、またはネットワークの中からオペレータが操作部(不図示)を用いて選択したリソースの余剰リソース量の少ない順にソートすることができる。このリスト502をオペレータが参照することで、仮想サーバを移動したときの物理サーバの余剰リソース量を比較できる。
なお、この例では、リスト502には、格納可能性の判定で、「OK」と判定されたもののみを含んでいるものとする。他の例では、すべての物理サーバ10と仮想サーバ20のペアの一覧を含むこともでき、その場合、格納可能性の判定結果を示す情報(「OK」または「NG」など)をリスト502に表示するのが望ましい。
また、リスト502には、仮想サーバ512と移動先物理サーバ514のペアごとに、仮想サーバ512を移動先物理サーバ514に移動する指示を受け付ける移動ボタン520を設けてもよい。オペレータは、リスト502を参照し、物理サーバ10と仮想サーバ20のペアを移動ボタン520で選択することができ、さらに、マイグレーションの実行指示をOKボタン522で受け付けることができる。オペレータがOKボタン522を操作することで、リスト502の中で移動ボタン520で選択された物理サーバ10と仮想サーバ20のペアについて、移動先物理サーバ514に仮想サーバ512をマイグレーションする指示として受け付けることができる。また、リスト502を参照して、マイグレーションを行う必要がないとオペレータが判断した場合には、キャンセルボタン524を操作することで、画面500を閉じたり、移動ボタン520による選択をキャンセルしたりしてもよい。
管理装置100は、仮想サーバを物理サーバにマイグレーションする指示を受け付けたとき、受け付けた仮想サーバを受け付けた物理サーバにマイグレーションする移動部をさらに備えてもよい。あるいは、他の管理装置または物理サーバにマイグレーションを指示してもよい。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
本発明は、以下の態様も含むことができる。
(付記1)
複数の仮想サーバが稼動する複数の物理サーバに通信網で接続され、
前記物理サーバにおいて、前記仮想サーバを稼働させたときの空きリソース容量が所定の条件を満たすか否かを判定する処理を、所定の単位時間ごとに分割し、並列分散処理によって行う判定手段を備え、
さらに、所定の処理が実行されている、複数の前記仮想サーバおよび複数の前記物理サーバの負荷データを前記通信網を介して収集する収集手段を備え、
前記判定手段は、前記収集手段が収集した前記負荷データに基づいて、前記判定する処理を行う管理装置。
(付記2)
(付記1)に記載の管理装置において、
前記単位時間内に処理される前記負荷データが所定数未満含まれるように前記単位時間の最小値を決定する決定手段をさらに備え、
前記判定手段は、決定された前記最小値に前記単位時間を分割し、前記最小値の前記単位時間で前記判定する処理を行う管理装置。
(付記3)
(付記1)または(付記2)に記載の管理装置において、
前記収集手段が収集した前記負荷データを、単位負荷の範囲に基づいて、グループに分類し、各前記グループから所定数の負荷データを選択する選択手段をさらに備え、
前記判定手段は、選択された前記負荷データに基づいて、前記判定する処理を行う管理装置。
(付記4)
(付記1)乃至(付記3)いずれかに記載の管理装置において、
前記管理装置の前記判定手段は、前記判定する処理において、前記空きリソース容量が、前記負荷データの負荷のピークが周期的に現れる所定期間にわたり、要求条件を満たしているか否かを判定する管理装置。
(付記5)
(付記1)乃至(付記4)いずれかに記載の管理装置において、
前記管理装置の前記判定手段は、前記判定する処理において、前記負荷データの負荷のピークが周期的に現れる所定期間内の前記空きリソース容量の平均値が、平均値の要求条件を満たしているか否かを判定する管理装置。
(付記6)
(付記1)乃至(付記5)いずれかに記載の管理装置において、
前記管理装置は、
前記負荷データに基づいて、前記物理サーバの余剰リソース量を算出する算出手段と、
算出された前記余剰リソース量をユーザに提示するリソース提示手段と、
をさらに備える管理装置。
(付記7)
(付記1)乃至(付記6)いずれかに記載の管理装置において、
前記管理装置の前記判定手段による判定結果をユーザに提示する判定結果提示手段をさらに備える管理装置。
(付記8)
複数の仮想サーバが稼動する複数の物理サーバに通信網で接続され、前記物理サーバ上で稼働する前記仮想サーバを管理する管理装置が、
前記物理サーバにおいて、前記仮想サーバを稼働させたときの空きリソース容量が所定の条件を満たすか否かを判定する処理を、所定の単位時間ごとに分割し、並列分散処理によって行い、
さらに、所定の処理が実行されている、複数の前記仮想サーバおよび複数の前記物理サーバの負荷データを前記通信網を介して収集し、
収集した前記負荷データに基づいて、前記判定する処理を行うサーバ管理方法。
(付記9)
(付記8)に記載のサーバ管理方法において、
前記管理装置が、
前記単位時間内に処理される前記負荷データが所定数未満含まれるように前記単位時間の最小値を決定し、
決定された前記最小値に前記単位時間を分割し、前記最小値の前記単位時間で前記判定する処理を行うサーバ管理方法。
(付記10)
(付記8)または(付記9)に記載のサーバ管理方法において、
前記管理装置が、
収集した前記負荷データ、単位負荷の範囲に基づいて、グループに分類し、各前記グループから所定数の負荷データを選択し、
選択された前記負荷データに基づいて、前記判定する処理を行うサーバ管理方法。
(付記11)
(付記8)乃至(付記10)いずれかに記載のサーバ管理方法において、
前記管理装置が、
前記判定する処理において、前記空きリソース容量が、前記負荷データの負荷のピークが周期的に現れる所定期間にわたり、要求条件を満たしているか否かを判定するサーバ管理方法。
(付記12)
(付記8)乃至(付記11)いずれかに記載のサーバ管理方法において、
前記管理装置が、
前記判定する処理において、前記負荷データの負荷のピークが周期的に現れる所定期間内の前記空きリソース容量の平均値が、平均値の要求条件を満たしているか否かを判定するサーバ管理方法。
(付記13)
(付記8)乃至(付記12)いずれかに記載のサーバ管理方法において、
前記管理装置が、
前記負荷データに基づいて、前記物理サーバの余剰リソース量を算出し、
算出された前記余剰リソース量をユーザに提示するサーバ管理方法。
(付記14)
(付記8)乃至(付記13)いずれかに記載のサーバ管理方法において、
前記管理装置が、前記判定結果をユーザに提示するサーバ管理方法。
(付記15)
複数の仮想サーバが稼動する複数の物理サーバと、
複数の前記物理サーバに通信網で接続され、前記物理サーバ上で稼働する前記仮想サーバを管理する管理装置と、を備え、
前記管理装置は、
前記物理サーバにおいて、前記仮想サーバを稼働させたときの空きリソース容量が所定の条件を満たすか否かを判定する処理を、所定の単位時間ごとに分割し、並列分散処理によって行う判定手段を備え、
前記管理装置の前記判定手段による判定結果をユーザに提示する判定結果提示手段をさらに備えるサーバシステム。
(付記16)
複数の仮想サーバが稼動する複数の物理サーバと、
複数の前記物理サーバに通信網で接続され、前記物理サーバ上で稼働する前記仮想サーバを管理する管理装置と、を備え、
前記管理装置は、
前記物理サーバにおいて、前記仮想サーバを稼働させたときの空きリソース容量が所定の条件を満たすか否かを判定する処理を、所定の単位時間ごとに分割し、並列分散処理によって行う判定手段を備えるサーバシステム。
(付記17)
(付記16)に記載のサーバシステムにおいて、
前記管理装置は、
所定の処理が実行されている、複数の前記仮想サーバおよび複数の前記物理サーバの負荷データを前記通信網を介して収集する収集手段をさらに備え、
前記管理装置の前記判定手段は、前記収集手段が収集した前記負荷データに基づいて、前記判定する処理を行うサーバシステム。
(付記18)
(付記17)に記載のサーバシステムにおいて、
前記管理装置は、
前記単位時間内に処理される前記負荷データが所定数未満含まれるように前記単位時間の最小値を決定する決定手段をさらに備え、
前記管理装置の前記判定手段は、決定された前記最小値に前記単位時間を分割し、前記最小値の前記単位時間で前記判定する処理を行うサーバシステム。
(付記19)
(付記17)または(付記18)に記載のサーバシステムにおいて、
前記管理装置は、
前記収集手段が収集した前記負荷データを、単位負荷の範囲に基づいて、グループに分類し、各前記グループから所定数の負荷データを選択する選択手段をさらに備え、
前記管理装置の前記判定手段は、選択された前記負荷データに基づいて、前記判定する処理を行うサーバシステム。
(付記20)
(付記17)乃至(付記19)いずれか一項に記載のサーバシステムにおいて、
前記管理装置の前記判定手段は、前記判定する処理において、前記空きリソース容量が、前記負荷データの負荷のピークが周期的に現れる所定期間にわたり、要求条件を満たしているか否かを判定するサーバシステム。
(付記21)
(付記17)乃至(付記20)いずれか一項に記載のサーバシステムにおいて、
前記管理装置の前記判定手段は、前記判定する処理において、前記負荷データの負荷のピークが周期的に現れる所定期間内の前記空きリソース容量の平均値が、平均値の要求条件を満たしているか否かを判定するサーバシステム。
(付記22)
(付記17)乃至(付記21)いずれか一項に記載のサーバシステムにおいて、
前記管理装置は、
前記負荷データに基づいて、前記物理サーバの余剰リソース量を算出する算出手段と、
算出された前記余剰リソース量をユーザに提示するリソース提示手段と、
をさらに備えるサーバシステム。
(付記23)
複数の仮想サーバが稼動する複数の物理サーバに通信網で接続され、
前記物理サーバにおいて、前記仮想サーバを稼働させたときの空きリソース容量が所定の条件を満たすか否かを判定する処理を、所定の単位時間ごとに分割し、並列分散処理によって行う判定手段を備える管理装置。
(付記24)
複数の仮想サーバが稼動する複数の物理サーバに通信網で接続され、前記物理サーバ上で稼働する前記仮想サーバを管理する管理装置が、
前記物理サーバにおいて、前記仮想サーバを稼働させたときの空きリソース容量が所定の条件を満たすか否かを判定する処理を、所定の単位時間ごとに分割し、並列分散処理によって行うサーバ管理方法。
(付記25)
複数の仮想サーバが稼動する複数の物理サーバに通信網で接続され、前記物理サーバ上で稼働する前記仮想サーバを管理する管理装置を実現するコンピュータに、
前記物理サーバにおいて、前記仮想サーバを稼働させたときの空きリソース容量が所定の条件を満たすか否かを判定する処理を、所定の単位時間ごとに分割し、並列分散処理によって行う手順を実行させるためのプログラム。
この出願は、2010年10月7日に出願された日本出願特願2010−227824号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (8)

  1. 複数の仮想サーバが稼動する複数の物理サーバと、
    複数の前記物理サーバに通信網で接続され、前記物理サーバ上で稼働する前記仮想サーバを管理する管理装置と、を備え、
    前記管理装置は、
    前記物理サーバにおいて、前記仮想サーバを稼働させたときの空きリソース容量が所定の条件を満たすか否かを判定する処理を、所定の単位時間ごとに分割し、並列分散処理によって行う判定手段と、
    所定の処理が実行されている、複数の前記仮想サーバおよび複数の前記物理サーバの負荷データを前記通信網を介して収集する収集手段と、
    前記収集手段が収集した前記負荷データを、単位負荷の範囲に基づいて、グループに分類し、各前記グループから所定数の負荷データを選択する選択手段と、
    を備え
    前記管理装置において、
    前記判定手段は、前記選択手段により選択された前記負荷データに基づいて、前記判定する処理を行うサーバシステム。
  2. 請求項に記載のサーバシステムにおいて、
    前記管理装置は、
    前記単位時間内に処理される前記負荷データが所定数未満含まれるように前記単位時間の最小値を決定する決定手段をさらに備え、
    前記管理装置の前記判定手段は、決定された前記最小値に前記単位時間を分割し、前記最小値の前記単位時間で前記判定する処理を行うサーバシステム。
  3. 請求項1または2に記載のサーバシステムにおいて、
    前記管理装置の前記判定手段は、前記判定する処理において、前記空きリソース容量が、前記負荷データの負荷のピークが周期的に現れる所定期間にわたり、要求条件を満たしているか否かを判定するサーバシステム。
  4. 請求項1乃至3いずれか一項に記載のサーバシステムにおいて、
    前記管理装置の前記判定手段は、前記判定する処理において、前記負荷データの負荷のピークが周期的に現れる所定期間内の前記空きリソース容量の平均値が、平均値の要求条件を満たしているか否かを判定するサーバシステム。
  5. 請求項1乃至4いずれか一項に記載のサーバシステムにおいて、
    前記管理装置は、
    前記負荷データに基づいて、前記物理サーバの余剰リソース量を算出する算出手段と、
    算出された前記余剰リソース量をユーザに提示するリソース提示手段と、
    をさらに備えるサーバシステム。
  6. 複数の仮想サーバが稼動する複数の物理サーバに通信網で接続され、
    前記物理サーバにおいて、前記仮想サーバを稼働させたときの空きリソース容量が所定の条件を満たすか否かを判定する処理を、所定の単位時間ごとに分割し、並列分散処理によって行う判定手段と、
    所定の処理が実行されている、複数の前記仮想サーバおよび複数の前記物理サーバの負荷データを前記通信網を介して収集する収集手段と、
    前記収集手段が収集した前記負荷データを、単位負荷の範囲に基づいて、グループに分類し、各前記グループから所定数の負荷データを選択する選択手段と、
    を備え
    前記判定手段は、前記選択手段により選択された前記負荷データに基づいて、前記判定する処理を行う管理装置。
  7. 複数の仮想サーバが稼動する複数の物理サーバに通信網で接続され、前記物理サーバ上で稼働する前記仮想サーバを管理する管理装置が、
    前記物理サーバにおいて、前記仮想サーバを稼働させたときの空きリソース容量が所定の条件を満たすか否かを判定する処理を、所定の単位時間ごとに分割し、並列分散処理によって行い、さらに、
    所定の処理が実行されている、複数の前記仮想サーバおよび複数の前記物理サーバの負荷データを前記通信網を介して収集し、
    収集した前記負荷データを、単位負荷の範囲に基づいて、グループに分類し、各前記グループから所定数の負荷データを選択し、
    前記判定する処理において、
    選択された前記負荷データに基づいて、前記判定する処理を行うサーバ管理方法。
  8. 複数の仮想サーバが稼動する複数の物理サーバに通信網で接続され、前記物理サーバ上で稼働する前記仮想サーバを管理する管理装置を実現するコンピュータに、
    前記物理サーバにおいて、前記仮想サーバを稼働させたときの空きリソース容量が所定の条件を満たすか否かを判定する処理を、所定の単位時間ごとに分割し、並列分散処理によって行う手順
    所定の処理が実行されている、複数の前記仮想サーバおよび複数の前記物理サーバの負荷データを前記通信網を介して収集する手順、
    収集した前記負荷データを、単位負荷の範囲に基づいて、グループに分類し、各前記グループから所定数の負荷データを選択する手順、
    を実行させ
    前記判定する処理を行う手順において、選択された前記負荷データに基づいて前記判定する処理を実行させるためのプログラム。
JP2012537560A 2010-10-07 2011-09-09 サーバシステム、管理装置、サーバ管理方法、およびプログラム Expired - Fee Related JP5870927B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012537560A JP5870927B2 (ja) 2010-10-07 2011-09-09 サーバシステム、管理装置、サーバ管理方法、およびプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010227824 2010-10-07
JP2010227824 2010-10-07
PCT/JP2011/005093 WO2012046386A1 (ja) 2010-10-07 2011-09-09 サーバシステム、管理装置、サーバ管理方法、およびプログラム
JP2012537560A JP5870927B2 (ja) 2010-10-07 2011-09-09 サーバシステム、管理装置、サーバ管理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2012046386A1 JPWO2012046386A1 (ja) 2014-02-24
JP5870927B2 true JP5870927B2 (ja) 2016-03-01

Family

ID=45927395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012537560A Expired - Fee Related JP5870927B2 (ja) 2010-10-07 2011-09-09 サーバシステム、管理装置、サーバ管理方法、およびプログラム

Country Status (3)

Country Link
US (1) US9319291B2 (ja)
JP (1) JP5870927B2 (ja)
WO (1) WO2012046386A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9762506B2 (en) 2013-02-06 2017-09-12 Hitachi, Ltd. Virtual guest management system and virtual guest management method
US9584364B2 (en) * 2013-05-21 2017-02-28 Amazon Technologies, Inc. Reporting performance capabilities of a computer resource service
WO2015151290A1 (ja) * 2014-04-04 2015-10-08 株式会社日立製作所 管理計算機と計算機制御方法及び計算機システム
JP2016085687A (ja) * 2014-10-28 2016-05-19 株式会社三菱東京Ufj銀行 プログラムインストールコスト算出装置、プログラムインストール装置及び記録媒体
JP6718844B2 (ja) * 2017-06-28 2020-07-08 日本電信電話株式会社 輻輳制御装置及び輻輳制御方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101149A (ja) * 1999-09-30 2001-04-13 Nec Corp 分散並列型データ処理装置及び分散並列型データ処理プログラムを記録した記録媒体並びに分散並列型データ処理システム
JP2002202383A (ja) * 2000-10-30 2002-07-19 Mitsubishi Heavy Ind Ltd 気体状況予測方法
JP2005115653A (ja) * 2003-10-08 2005-04-28 Ntt Data Corp 仮想マシン管理装置及びプログラム
JP2006228115A (ja) * 2005-02-21 2006-08-31 Ntt Comware Corp 負荷分散予測装置及び負荷分散制御方法並びにそのプログラム、負荷分散制御システムおよび当該システムにおける負荷分散制御方法
JP2008217302A (ja) * 2007-03-02 2008-09-18 Nec Corp 仮想マシンシステム、管理サーバ、仮想マシン移行方法及びプログラム
JP2008276320A (ja) * 2007-04-25 2008-11-13 Nec Corp 仮想システム制御方法およびコンピュータシステム
JP2008293117A (ja) * 2007-05-22 2008-12-04 Hitachi Ltd 仮想計算機の性能監視方法及びその方法を用いた装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7836181B2 (en) * 2004-09-21 2010-11-16 Alcatel-Lucent Usa Inc. Fairness and load balancing in wireless LANs using association control
US8539075B2 (en) * 2006-04-21 2013-09-17 International Business Machines Corporation On-demand global server load balancing system and method of use
US20080082647A1 (en) * 2006-09-29 2008-04-03 Dennis Baker Connection reservation in dynamic node allocation computing environments
CN101212389B (zh) * 2006-12-30 2010-06-23 华为技术有限公司 一种突发汇聚控制方法及相应的装置、通信设备
US7801994B2 (en) 2007-11-29 2010-09-21 Hitachi, Ltd. Method and apparatus for locating candidate data centers for application migration
JP2010146420A (ja) * 2008-12-22 2010-07-01 Hitachi Ltd 余剰資源管理システム、その管理方法、及びサーバ装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101149A (ja) * 1999-09-30 2001-04-13 Nec Corp 分散並列型データ処理装置及び分散並列型データ処理プログラムを記録した記録媒体並びに分散並列型データ処理システム
JP2002202383A (ja) * 2000-10-30 2002-07-19 Mitsubishi Heavy Ind Ltd 気体状況予測方法
JP2005115653A (ja) * 2003-10-08 2005-04-28 Ntt Data Corp 仮想マシン管理装置及びプログラム
JP2006228115A (ja) * 2005-02-21 2006-08-31 Ntt Comware Corp 負荷分散予測装置及び負荷分散制御方法並びにそのプログラム、負荷分散制御システムおよび当該システムにおける負荷分散制御方法
JP2008217302A (ja) * 2007-03-02 2008-09-18 Nec Corp 仮想マシンシステム、管理サーバ、仮想マシン移行方法及びプログラム
JP2008276320A (ja) * 2007-04-25 2008-11-13 Nec Corp 仮想システム制御方法およびコンピュータシステム
JP2008293117A (ja) * 2007-05-22 2008-12-04 Hitachi Ltd 仮想計算機の性能監視方法及びその方法を用いた装置

Also Published As

Publication number Publication date
JPWO2012046386A1 (ja) 2014-02-24
WO2012046386A1 (ja) 2012-04-12
US9319291B2 (en) 2016-04-19
US20130205024A1 (en) 2013-08-08

Similar Documents

Publication Publication Date Title
Hsieh et al. Utilization-prediction-aware virtual machine consolidation approach for energy-efficient cloud data centers
Vasile et al. Resource-aware hybrid scheduling algorithm in heterogeneous distributed computing
Wu et al. Energy and migration cost-aware dynamic virtual machine consolidation in heterogeneous cloud datacenters
Coutinho et al. Elasticity in cloud computing: a survey
Usama et al. Job schedulers for Big data processing in Hadoop environment: testing real-life schedulers using benchmark programs
Joseph et al. IntMA: Dynamic interaction-aware resource allocation for containerized microservices in cloud environments
Jiang et al. Scaling-up item-based collaborative filtering recommendation algorithm based on hadoop
Rasooli et al. COSHH: A classification and optimization based scheduler for heterogeneous Hadoop systems
Xu et al. Adaptive task scheduling strategy based on dynamic workload adjustment for heterogeneous Hadoop clusters
JP5870927B2 (ja) サーバシステム、管理装置、サーバ管理方法、およびプログラム
Bi et al. SLA-based optimisation of virtualised resource for multi-tier web applications in cloud data centres
JP2012069056A (ja) クラウドサービス再配置システムと方法およびプログラム
Jafarnejad Ghomi et al. Applying queue theory for modeling of cloud computing: A systematic review
WO2014045549A1 (ja) マシン配置計画を生成する情報処理装置及びマシン配置計画生成方法
CN109614227A (zh) 任务资源调配方法、装置、电子设备及计算机可读介质
Ashraf et al. Distributed virtual machine consolidation: A systematic mapping study
Dias et al. A systematic literature review on virtual machine consolidation
Ouyang et al. Mitigating stragglers to avoid QoS violation for time-critical applications through dynamic server blacklisting
Surya et al. Prediction of resource contention in cloud using second order Markov model
Heidari et al. A cost-efficient auto-scaling algorithm for large-scale graph processing in cloud environments with heterogeneous resources
Khan Hadoop performance modeling and job optimization for big data analytics
Gómez et al. Determining the real capacity of a desktop cloud
US11392424B2 (en) Method and device for aiding decision-making for the allocation of computing means on a high performance computing infrastructure
Segall et al. Overview of big data-intensive storage and its technologies for cloud and fog computing
Patel et al. An efficient selection procedure with an enhanced load-balancing scheme for gridsim

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151228

R150 Certificate of patent or registration of utility model

Ref document number: 5870927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees