JP2011090594A - サーバ管理装置およびサーバ管理方法 - Google Patents

サーバ管理装置およびサーバ管理方法 Download PDF

Info

Publication number
JP2011090594A
JP2011090594A JP2009245035A JP2009245035A JP2011090594A JP 2011090594 A JP2011090594 A JP 2011090594A JP 2009245035 A JP2009245035 A JP 2009245035A JP 2009245035 A JP2009245035 A JP 2009245035A JP 2011090594 A JP2011090594 A JP 2011090594A
Authority
JP
Japan
Prior art keywords
server
scale
virtual
load
physical server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009245035A
Other languages
English (en)
Other versions
JP5378946B2 (ja
Inventor
Yasushi Miyata
康志 宮田
Tomoya Ota
智也 太田
Hiroyasu Nishiyama
博泰 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2009245035A priority Critical patent/JP5378946B2/ja
Priority to US12/708,150 priority patent/US8286165B2/en
Publication of JP2011090594A publication Critical patent/JP2011090594A/ja
Application granted granted Critical
Publication of JP5378946B2 publication Critical patent/JP5378946B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • G06F9/5088Techniques for rebalancing the load in a distributed system involving task migration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45562Creating, deleting, cloning virtual machine instances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer And Data Communications (AREA)
  • Power Sources (AREA)

Abstract

【課題】クラスタシステムのスケールイン/スケールアウトや片寄せ時の移行コストを削減し、消費電力を削減することができるサーバ管理装置を提供する。
【解決手段】サーバ管理装置101は、仮想サーバ群103を稼働する物理サーバ群102を管理し、物理サーバ群102に配置された複数の仮想サーバを含んでなるクラスタシステムを運用する際に、仮想サーバ群103の負荷状態により仮想サーバの配置状態を管理する。スケールイン実行時には、稼働中の仮想サーバ数が最も少ない物理サーバで稼働する仮想サーバを停止対象とする。スケールアウト実行時には、負荷変動を予測し、負荷の変動が類似したクラスタシステムが同じ物理サーバ上に集まるようにクラスタシステムのスケールアウト先を制御する。スケールインの実行タイミングは、予測した負荷変動が上昇傾向なら実行を遅らせ、下降傾向なら実行を早める。
【選択図】図1

Description

本発明は、1台の物理サーバを独立した1台以上の仮想的なサーバとして動作させるサーバ仮想化技術と、仮想サーバで構築するクラスタシステムの構成を動的に変更し消費電力を低減する技術に関する。
近年、企業の情報システムである企業情報システム(以下、企業システムという。)への仮想化技術の導入が進んでいる。仮想化技術により、企業システムを構成する物理サーバは仮想サーバへと置き換えられ、サーバ統合(サーバコンソリデーション)による物理サーバ数の削減が進んでいる。物理サーバ数の削減により、企業は物理サーバ導入コストや消費電力が低減するメリットを得ている。
企業システムでは、時間や時期によって負荷が変動する。複数の仮想サーバで構築するクラスタシステムでサービスを提供している企業システムにおいて、負荷のピークに合わせて全ての仮想サーバを起動しておくと、負荷に対して余剰なコンピューティングリソース(例えば、CPU(Central Processing Unit)、メモリ)、電力を供給していることとなり無駄が多い。余剰な電力を削減するために、負荷変動に応じた動的なシステム構成変更や片寄せの技術として、特許文献1や非特許文献1がある。
なお、ここでのクラスタシステムとは、同一の計算処理を行う複数の仮想サーバと、クライアントからのリクエストを複数の仮想サーバに対して割振る機能(例えば、負荷分散器)とを含んでなるシステムである。前記計算処理は仮想サーバ上で稼働するプログラムであるアプリケーションサーバが実行する。
特許文献1では、複数の仮想サーバが稼働する物理サーバが複数存在するシステムを対象としている。対象とするシステムにおいて消費電力削減を目的とし、負荷に応じて仮想サーバが稼働する物理サーバを変更する(以下、仮想サーバの移行という。)。具体的には、現在の負荷の状態から必要なコンピューティングリソース量を必要仮想サーバ数として導出し、導出した仮想サーバ数が稼働するのに最低限必要な物理サーバに仮想サーバを移行する(以下、片寄せという。)。その結果、稼働中の仮想サーバがなくなった余剰物理サーバが発生し、その物理サーバの電源を切断することで消費電力を削減する。
非特許文献1では、仮想サーバで構築する複数のクラスタシステムが複数の物理サーバ上で稼働する環境を対象としている。対象とする環境において、消費電力削減を目的とし、負荷に応じてクラスタシステムをスケールイン/スケールアウトする。
スケールインとは、クラスタシステムを構成する1以上の仮想サーバに対するリクエストの割振りを停止し、該仮想サーバをクラスタシステムより削除する処理である。スケールインにより、クラスタシステムが消費するコンピューティングリソース量は減少する。さらに、スケールインを実行した仮想サーバを停止することで稼働中の仮想サーバ数が0(ゼロ)となった物理サーバの電源を切断し消費電力を削減する。
一方、スケールアウトとは、1以上の仮想サーバをクラスタシステムに追加し、追加した仮想サーバにリクエスト割振りを開始する処理である。スケールアウトにより、クラスタシステムが消費するコンピューティングリソース量は増加する。また、スケールアウトを実施する前には、必要に応じて仮想サーバの起動処理を行う。
非特許文献1では、各物理サーバの稼働中の仮想サーバ数に応じた消費電力を消費電力データとして事前に取得している。事前取得した消費電力データを用い、スケールイン時には停止することで最も消費電力を削減する効果の高い仮想サーバをクラスタシステムから削除する処理を行う。クラスタシステムから削除した仮想サーバは停止させる。スケールアウト時には、起動した場合に最も消費電力の上昇が低い仮想サーバをクラスタシステムに追加する処理を行う。この追加処理の前に必要に応じて仮想サーバを起動させる。
US2005/0060590A1号公報
Dara Kusic, Power and performance management of virtualized computing environments via lookahead control, Cluster Computing, Kluwer Academic Publishers, 2009.3
特許文献1と非特許文献1の技術を組み合わせることで、負荷に応じてクラスタシステムが必要とするコンピューティングリソース量を最適化することができ、仮想サーバをできる限り少ない数の物理サーバに片寄せすることができると考えられる。その結果、消費電力を削減する効果を高めることができると推測される。しかし、消費電力を削減する効果をより高くするためには、次に示す課題を解決する必要がある。
第1の課題として、片寄せ実行時に仮想サーバの移行回数ができる限り少なくなるようにクラスタシステムのスケールイン/スケールアウト対象を制御することが必要である。特許文献1では、片寄せ実行時に仮想サーバ移行回数が多いと、仮想サーバの移行コストにより消費電力削減効果の低下、応答性能の低下が発生する。
なお、仮想サーバの移行コストとはCPU負荷、I/O負荷、移行時間などである。CPU負荷、I/O負荷が増大すると消費電力が増加する。また、移行時間が増大することで、物理サーバの電源を切断する時間が短くなり消費電力を削減する効果が低下する。さらに、移行時間の増大は負荷変動への追従を遅らせ、クラスタシステムがユーザ要求の応答性能を出せなくなる。
一方、非特許文献1では、片寄せを前提としていないため、片寄せ実行時に仮想サーバの移行回数をできる限り少なくするようなクラスタシステムの構成変更方法を取ってはいない。そのため、特許文献1と非特許文献1の技術を組み合わせるだけでは、仮想サーバの移行コストによって消費電力を削減する効果が低下する問題や、応答性能が低下する問題が発生する。
第2の課題として、クラスタシステムに余分なコンピューティングリソースを持たせることなく、スケールイン/スケールアウトを交互に繰り返すことによる消費電力の増加を防ぐ制御が必要である。非特許文献1ではクラスタシステムにコンピューティングリソースを余分に与えることでスケールイン/スケールアウトを実行する閾値に十分な余裕を持たせている。これにより、スケールイン/スケールアウトを交互に繰り返すことを防ぎ、短期間に物理サーバの電源ON/OFFを繰り返すことによる消費電力の増加防止を実現している。しかし、この方法では、スケールイン/スケールアウトによるシステム構成の変更回数は減少するが、消費電力を削減する効果も減少する問題が存在する。
本発明は、前記の課題を解決するための発明であって、クラスタシステムのスケールイン/スケールアウトや片寄せ時の移行コスト、つまりシステム構成の変更回数をできる限り削減し、消費電力を削減することができるサーバ管理装置およびサーバ管理方法を提供することを目的とする。
前記第1の課題を解決するために、次に示す装置・手段を設ける。
(1−1)仮想サーバの起動/停止による構成変更の対象となる複数のクラスタシステムを管理する装置として、複数の仮想サーバを利用したクラスタシステムであって、そのクラスタシステムを構成する複数の仮想サーバの一部を停止/起動する処理と、停止/起動処理に伴って実行するスケールイン/スケールアウト処理によりクラスタシステムが使用するコンピューティングリソース量を制御するサーバ管理装置(例えば、サーバ管理装置101)を設ける。なお、仮想サーバの停止/起動のみでクラスタシステムを構成する仮想サーバ数を変更できるが、クラスタシステムに対するリクエスト割振りの失敗を防ぐためにスケールイン/スケールアウト処理も同時に行うことが一般的である。そこで、スケールイン実行後に仮想サーバの停止処理、スケールアウト実行前に仮想サーバの起動処理を行うものとして以降説明する。
(1−2)スケールイン実行後に停止対象とする仮想サーバを判断する手段として、クラスタシステムの負荷情報を収集する手段(例えば、負荷情報収集部124)と、収集した負荷情報からスケールインの可否を判断する手段(例えば、スケールイン判断部131)と、前記判断によりスケールインできるなら仮想サーバの物理サーバへの構成情報を収集する手段(例えば、構成情報収集部125)と、前記収集した構成情報から稼働する仮想サーバ数が最も少ない物理サーバに存在する仮想サーバをスケールイン実行後の停止対象として選択する手段(例えば、スケールイン対象仮想サーバ選択部132)とを設ける。
(1−3)スケールアウト実行前に新たに仮想サーバを稼働する物理サーバを選択する手段として、クラスタシステムの負荷情報を収集する手段が収集した負荷情報からスケールアウトの必要性を判断する手段(例えば、スケールアウト判断部134)と、前記判断でスケールアウトの必要性があるとき、前記収集した構成情報から稼働する仮想サーバ数が最も多い物理サーバを選択する手段(例えば、スケールアウト対象物理サーバ選択部135)とを設ける。
(1−4)前記スケールアウト実行前に新たに仮想サーバを稼働する物理サーバを選択する手段の代わりに、クラスタシステムの負荷情報を収集する手段が収集した負荷情報からスケールアウトの必要性を判断する手段(例えば、スケールアウト判断部134)と、過去に収集した負荷情報から負荷変動の類似度を導出する手段(例えば、負荷変動類似度計算部701)と、導出した負荷変動の類似度が高いクラスタシステムを構成する仮想サーバがより多く存在する物理サーバを選択する手段(例えば、スケールアウト対象物理サーバ選択部135)とを設けてもよい。
さらに前記第2の課題を解決するために、次に示す手段を設ける。
(2−1)スケールインの実行タイミングを制御するために、過去に収集した負荷情報からクラスタシステム毎に現在の負荷が上昇傾向か下降傾向かを判断し、負荷が下降傾向ならスケールインを積極的に行うようにスケールインの可否判断を行う閾値を変更し、負荷が上昇傾向ならスケールインを消極的に行うようにスケールインの可否判断を行う閾値を変更する手段(例えば、負荷変動予測部1301)を設ける。
(2−2)スケールアウトの実行タイミングを制御するために、物理サーバが保持する余剰コンピューティングリソース量の情報を収集する手段(例えば、構成情報収集部125)と、収集した余剰コンピューティングリソースを利用して仮想サーバのスケールアップが可能かを判断する手段(例えば、スケールアウト/スケールアップ判断部1601)と、前記判断によりスケールアップ可能ならば、クラスタシステムのスケールアウトの代わりに仮想サーバをスケールアップする仮想サーバを選択する手段(例えば、スケールアップ対象仮想サーバ選択部1602)と、選択された仮想サーバをスケールアップし、負荷分散器を制御し、負荷分散器を制御することで該仮想サーバで処理するリクエスト量をクラスタシステム内の他仮想サーバより増加させる手段(例えば、スケールアップ実行部1603)とを設ける。
なお、スケールアップとは、仮想サーバに割当てるCPUやメモリなどのコンピューティングリソース量を増加させ、リクエスト処理の数や速度を増強することである。このコンピューティングリソースは、スケールアップを実施する仮想サーバが稼働する物理サーバが保持する未使用のコンピューティングリソースを使用する。
本発明によれば、クラスタシステムのスケールイン/スケールアウトや片寄せ時の移行コスト、つまり、システム構成の変更回数をできる限り削減し、消費電力を削減することができる。
実施形態1に係るクラスタシステムを示す図である。 サーバ管理装置が実行するスケールイン/スケールアウトの処理の流れを示す図である。 スケールインの実行シーケンスを示す図である。 スケールアウトの実行シーケンスを示す図である。 物理サーバ上の仮想サーバ数によりスケールイン/スケールアウト対象を制御した場合の効果例を示す図である。 スケールイン判断、スケールアウト判断時の閾値を示す図である。 実施形態2に係るクラスタシステムを示す図である。 クラスタシステムの負荷類似度計算処理の流れを示す図である。 負荷変動が類似したクラスタシステムを同一物理サーバにスケールアウトした場合の効果例を示す図である。 実施形態3に係るクラスタシステムを示す図である。 片寄せ判断と片寄せ実行処理の流れを示す図である。 仮想サーバの疑似移行処理の実行シーケンスを示す図である。 実施形態4に係るクラスタシステムを示す図である。 負荷変動予測からスケールイン/スケールアウトのタイミングを変更する処理の流れを示す図である。 負荷変動予測によりスケールイン/スケールアウトのタイミングを変更した場合の効果例を示す図である。 実施形態5に係るクラスタシステムを示す図である。 スケールアップの判断と実行の流れを示す図である。 実施形態6に係るクラスタシステムを示す図である。 運用ポリシの例を示す図である。 運用ポリシを利用した場合の、構成変更判断部、構成変更対象選択部、構成変更実行部の処理の流れを示す図である。 スケールイン対象仮想サーバ選択処理の流れを示す図である。 サーバ管理装置が行うスケールイン/スケールアウト、片寄せ時のクラスタシステムの構成例を示す図である。
以下、本発明を実施するための形態を、図面を参照して詳細に説明する。
<<実施形態1>>
図1は、実施形態1に係るクラスタシステムを示す図である。クラスタシステムは、サーバ管理装置101、仮想サーバ群103を有する管理対象となる物理サーバ群102、負荷分散器104から構成されており、負荷分散器104は、ネットワーク105を介してクライアント106に接続されている。
サーバ管理装置101は、スケールイン/スケールアウトを実行する機能を有し、一般的なコンピュータを用いて実現することができる。サーバ管理装置101は、メモリ112と、CPU113と、通信装置114と、ハードディスクなどの記憶装置111と、入力装置115と、表示装置116とを備える。サーバ管理装置101は、通信装置114を介して、管理対象の物理サーバ群102、仮想サーバ群103、負荷分散器104に接続している。
スケールインとは、クラスタシステムを構成する1以上の仮想サーバに対するリクエストの割振りを停止し、該仮想サーバをクラスタシステムより削除する処理である。スケールインにより、クラスタシステムが消費するコンピューティングリソース量は減少する。さらに、スケールインを実行した仮想サーバを停止することで、稼働中の仮想サーバ数が0(ゼロ)となった物理サーバの電源を切断し消費電力を削減することができる。また、スケールアウトとは、1以上の仮想サーバをクラスタシステムに追加し、追加した仮想サーバにリクエスト割振りを開始する処理である。スケールアウトにより、クラスタシステムが消費するコンピューティングリソース量は増加することができる。また、スケールアウトを実施する前には、必要に応じて仮想サーバの起動処理を行う。
入力装置115は、キーボードやマウスなどのコンピュータに指示を入力するための装置であり、プログラム起動などの指示を入力する。表示装置116は、ディスプレイなどであり、サーバ管理装置101による処理の実行状況や実行結果などを表示する。CPU113は、メモリ112に格納される各種プログラムを実行する。通信装置114は、LAN(Local Area Network)などを介して、他の装置と各種データやコマンドを交換する。記憶装置111は、サーバ管理装置101が処理を実行するための各種データを保存する。メモリ112は、サーバ管理装置101が処理を実行する各種プログラムおよび一時的なデータを保持する。
サーバ管理装置101は、複数のクラスタシステムを管理しており、クラスタシステムは負荷分散器104と仮想サーバ群103に含まれる複数の仮想サーバから構成し、ネットワーク105を介してクライアント106からのリクエストを受け取り処理する。なお、ここでの負荷分散器104とは、クライアント106からのリクエストを仮想サーバ群103内の1以上の仮想サーバに割振る装置のことである。
図1において、負荷分散器104は、ネットワーク105と物理サーバ群102の間に存在するが、物理サーバ群102に仮想的な装置として配置してもよいし、仮想サーバ群103内の仮想サーバに負荷分散器と同様の機能を持たせてもよい。また、クライアント106が負荷分散器104と同様の機能を持ちクライアント106にてリクエストを割振る処理を行ってもよい。
仮想サーバ群103は、物理サーバ群102で動作する仮想化ソフトウェア107の上で実行される。この仮想サーバ群103のうち任意の台数を利用して複数のクラスタシステムを構築する。なお、仮想化ソフトウェアとは、物理サーバが持つコンピューティングリソースを仮想サーバ群103で分割、または共有して利用できるよう制御するソフトウェアである。
CPU113は、記憶装置111に格納されたプログラム151とデータ152をメモリ112に読み出して実行する。プログラム151は、負荷情報収集部124、構成情報収集部125、構成変更判断部121、負荷情報保存/取得部141、構成情報保存/取得部142、構成変更対象選択部122、構成変更実行部123、物理サーバ電源OFF可否判断部126、物理サーバ電源OFF実行部127、物理サーバ電源ON実行部128を有する。
例えば、構成変更判断部121は、取得(収集)した負荷情報からクラスタシステムを構成する仮想サーバ数の削減可否を判断する。また、構成変更判断部121は、負荷情報収集部124が収集した負荷情報からクラスタシステムを構成する仮想サーバ数の過不足を判断する。構成変更判断部121は、負荷情報収集部124が収集した負荷情報からクラスタシステムを構成する仮想サーバ数の過不足を判断し、構成変更対象選択部122が、クラスタシステムを構成する仮想サーバ数が不足していると判断した場合に、構成情報収集部125が収集した構成情報から稼働する仮想サーバ数が最も多い物理サーバを選択し、構成変更実行部123が、選択した物理サーバ上で仮想サーバを起動する。
負荷情報収集部124は、クラスタシステムを構成する仮想サーバ群の負荷情報を通信装置114により、仮想サーバ群103と仮想化ソフトウェア107と通信することで受け取る。負荷情報保存/取得部141は、負荷情報収集部124が収集した負荷情報を記憶装置111にデータ152として保存するとともに、過去の負荷情報をデータ152から取得する。構成変更判断部121は、負荷情報保存/取得部141で取得した負荷情報からクラスタシステムの構成変更の実行可否や要否を判断する。
なお、図1においては、負荷情報収集部124と、負荷情報保存/取得部141とを分けて説明しているが、これに限定されるものではない。負荷情報収集部124が、クラスタシステムを構成する仮想サーバ群の負荷情報を通信装置114により、仮想サーバ群103と仮想化ソフトウェア107と通信することで受け取り、収集した負荷情報を記憶装置111にデータ152として保存するとともに、過去の負荷情報をデータ152から取得してもよい。この場合、構成変更判断部121は、負荷情報収集部124で取得した負荷情報からクラスタシステムの構成変更の実行可否や要否を判断する。
構成情報収集部125では、仮想サーバ群103が物理サーバ群102中のどの物理サーバで実行する仮想化ソフトウェア107上に割付けられているかの情報と物理サーバが保持する未使用のコンピューティングリソース量を構成情報として通信装置114を介して収集する。
構成情報保存/取得部142では、構成情報収集部125が収集した構成情報を記憶装置111にデータ152として保存するとともに、過去の構成情報をデータ152から取得する。
構成変更対象選択部122では、構成変更判断部121においてクラスタシステムの構成変更を実行すると判断した場合に、構成情報保存/取得部142で取得した情報から片寄せ実行時の仮想サーバ移行回数が削減できるように構成変更の対象となる仮想サーバまたは物理サーバを選択する。構成変更実行部123では、構成変更対象選択部122で選択した構成変更の対象に対して構成変更を実行する。
物理サーバ電源OFF可否判断部126では、構成変更の実行の結果、物理サーバ群102内の物理サーバに対して電源を切断できるか判断する。物理サーバ電源OFF実行部127では、物理サーバ電源OFF可否判断部126において物理サーバの電源が切断できると判断した場合に物理サーバの電源切断を実行する。物理サーバ電源ON実行部128では、構成変更実行時に物理サーバの電源を投入する必要がある場合に電源を投入する。
構成変更判断部121は、スケールインの可否を判断するスケールイン判断部131と、スケールアウトの必要性を判断するスケールアウト判断部134を有する。構成変更対象選択部122は、スケールイン実行後に停止対象とする仮想サーバを選択するスケールイン対象仮想サーバ選択部132と、スケールアウト実行前に仮想サーバを稼働させる物理サーバを選択するスケールアウト対象物理サーバ選択部135を有する。構成変更実行部123は、クラスタシステムのスケールインを実行した後にスケールイン対象仮想サーバ選択部132で選択した仮想サーバを停止するスケールイン実行部133と、スケールアウト対象物理サーバ選択部135で選択した物理サーバ上で仮想サーバを稼働させ、スケールアウトを実行するスケールアウト実行部136を有する。
サーバ管理装置101は、管理する複数のクラスタシステムに対して、スケールイン実行後に停止対象とする仮想サーバ、スケールアウト実行前に仮想サーバを新たに稼働させる物理サーバを選択する。この時、仮想サーバの起動/停止、移行による片寄せといった構成変更にかかる消費電力や時間をも削減する手段について図22を用いて概要を説明する。
(本実施形態の概要)
図22は、サーバ管理装置が行うスケールイン/スケールアウト、片寄せ時のクラスタシステムの構成例を示す図である。ここでは、構成情報表2211に示されるように、サーバ管理装置101がクラスタシステムA(2221)、クラスタシステムB(2222)、クラスタシステムC(2223)を管理する環境を例として説明する。図22において、クラスタシステムを構成する仮想サーバと物理サーバの対応関係と負荷分散器104との関係を仮想/物理サーバの構成2201で示す。負荷分散器104は、各クラスタシステムを構成する仮想サーバにクライアントからのリクエストを割振る。
図22において、説明のため仮想/物理サーバの構成2201を構成情報表2211に示す。構成情報表2211では、物理サーバ列にサーバ管理装置101が管理する物理サーバ群#1〜#3を示す。仮想サーバ群列には、物理サーバ#1〜#3上で稼働中の仮想サーバを示す。例えば、物理サーバ#1では、クラスタシステムAを構成する仮想サーバA1、クラスタシステムBを構成する仮想サーバB1、クラスタシステムCを構成する仮想サーバC1,C2が稼働する。サーバ管理装置101が管理する複数のクラスタシステムに関して、クラスタシステムA(2221)は、仮想サーバA1,A2,A3により構成される。クラスタシステムB(2222)は、仮想サーバB1,B2,B3により構成される。クラスタシステムC(2223)は、仮想サーバC1,C2,C3により構成される。なお、図22の構成情報表2212〜2214は、全て構成情報表2211と同様の構成情報表である。
クラスタシステムB(2222)に対する負荷が低下し、スケールインが可能となった場合には、仮想サーバB1,B2,B3の中から仮想サーバを選択し停止する。本実施形態では、片寄せを行うことも考慮し、片寄せ時に物理サーバ間で移行する仮想サーバ数が少なくなるようにスケールイン実行後に停止対象とする仮想サーバを選択する。具体的には、クラスタシステムB(2222)を構成する仮想サーバB1,B2,B3の中で仮想サーバB3を停止対象とすることで、物理サーバ#3の電源切断に最も近いとサーバ管理装置101が判断する。そして、スケールインを実行した結果を構成情報表2212に示す。
また、構成情報表2212の状態から片寄せにより仮想サーバA3を物理サーバ#2上で稼働するように移行した結果を構成情報表2214に示す。片寄せの結果、物理サーバ#3で稼働する仮想サーバが存在しなくなったため、物理サーバ#3の電源を切断し消費電力を削減できる。
一方、構成情報表2211の状態からクラスタシステムB(2222)に対する負荷が上昇した場合には、スケールアウトを行う。本実施形態では、スケールアウト後にスケールイン、片寄せといった構成変更を実施した場合に消費電力ができる限り少なくなるようにスケールアウト先となる物理サーバを選択する。具体的には、まずクラスタシステムB(2222)を構成する仮想サーバを新たに立ち上げる未使用のコンピューティングリソースを保持する物理サーバ#2,#3を選択する。次に選択した物理サーバ#2,#3のうち、稼働中の仮想サーバ数が最も多い物理サーバ#2をスケールアウト対象となる仮想サーバとして選択しスケールアウトを実行する。その結果を構成情報表2213に示す。
スケールアウト後にクラスタシステムA(2221)、クラスタシステムB(2222)をスケールインした場合には、仮想サーバA3,B3を停止し物理サーバ#3の電源を切断できる。
従来技術では、スケールイン後に片寄せすることや、スケールアウト後にスケールインや片寄せまでを考慮してスケールインの対象とする仮想サーバ、スケールアウトの対象とする物理サーバを選択していない。そのため、本実施形態のようなできる限り少ない仮想サーバの移行回数で片寄せを実行し、消費電力を削減することはできていない。以降では図22を用いて説明した概要を図2〜図6を用いて詳細に説明する。
図2は、サーバ管理装置が実行するスケールイン/スケールアウトの処理の流れを示す図である。適宜図1を参照する。サーバ管理装置101の動作について、図2に示すフロー図に従って説明する。サーバ管理装置101は、複数のクラスタシステムに対して次に示す処理を実行する。なお、この処理は複数のクラスタシステムに対して順番に実行してもよいし、同時に実行してもよい。また、ここでは複数のクラスタシステムのうちサーバ管理装置101が処理を実行しているクラスタシステムを、対象クラスタシステムと記述する。
サーバ管理装置101では、対象クラスタシステムを構成する仮想サーバ群103の負荷情報を、通信装置114を介して負荷情報収集部124が収集する(ステップS201)。ここでの負荷情報は、仮想サーバと通信して収集してもよいし、各物理サーバで稼働する仮想化ソフトウェア107と通信して収集してもよい。
負荷情報収集部124が収集した負荷情報を負荷情報保存/取得部141が記憶装置111に格納する(ステップS202)。この負荷情報は、コンピューティングリソースとアプリケーションサーバが持つ情報を有する。
なお、本実施形態でのコンピューティングリソースとは、仮想サーバのCPU使用率(CPU)、メモリ使用率(Memory)、ディスク使用率、ネットワーク帯域使用率である。アプリケーションサーバが持つ情報とは、仮想サーバ上で稼働するアプリケーションの処理待ちキュー数(Queue)、DBとのコネクション数(DB)、FullGC(Garbage Collection)の発生頻度(FullGC)、セッション数(Session)などのクライアントからのリクエストやアプリケーションの実行時間に応じて増減する値である。それぞれの負荷情報には、図6のスケールイン/スケールアウトの判断条件となる閾値表601に示すような閾値を事前に設定し記憶装置111内のデータ152に保持しておく。
図6は、スケールイン判断、スケールアウト判断時の閾値を示す図である。スケールイン/スケールアウトの判断条件となる閾値表601は、判断条件列と、閾値とから構成され、判断条件列は判断条件#1〜#8から構成されている。判断条件#1には動作種別であるスケール/スケールアウト/片寄(片寄せ)があり、判断条件#2には条件であるand/orがあり、判断条件#3〜#8には各判断条件の項目がある。具体的には、スケールインの場合には、and条件により、判断条件#3〜#8を全て満たせばスケールインを実行することを意味する。スケールアウトの場合には、or条件で判断条件#3〜#8を1つでも満たせばスケールアウトを実行することを意味する。なお、図中、「<=」は以下を、「==」は等しいことを、「>=」は以上を、「>」はより大きいことを意味する。
図2に戻り、スケールイン判断部131は、負荷情報保存/取得部141が記憶装置111から取得した負荷情報を用い、対象クラスタシステムのスケールインが可能か判断する(ステップS203)。具体的には、取得した負荷情報が対象クラスタシステムに予め設定した閾値α以下かを判断する。前記閾値αは、例えば図6のスケールイン/スケールアウト列であり、判断条件#3〜#8に記述の値である。負荷が閾値α以下であれば(ステップS203,Yes)、スケールイン可能と判断し、ステップS204に進む。負荷が閾値α以下でなければ(ステップS203,No)、スケールイン可能でないと判断し、ステップS210に進む。
ステップS204において、構成情報収集部125が、物理サーバと仮想サーバの構成情報と物理サーバが保持する未使用のコンピューティングリソース量を収集する。続いて、収集した構成情報を構成情報保存/取得部142が記憶装置111に格納する(ステップS205)。スケールイン対象仮想サーバ選択部132は、収集した構成情報から最適なスケールイン対象の仮想サーバを選択する(ステップS206)。ステップS206の詳細(図21参照)は後述する。
スケールイン実行部133は、クラスタシステムをスケールインし、スケールイン実行後に停止対象とした仮想サーバを停止する(ステップS207)。具体的なスケールインの手順は後述する。その後、物理サーバ電源OFF可否判断部126がスケールインを実行した物理サーバ上に稼働中の仮想サーバが存在するか判定する(ステップS208)。稼働中の仮想サーバが存在すれば(ステップS208,Yes)、物理サーバの電源OFFを実行できないと判断し、ステップS210のスケールアウトの要否判断に進む。稼働中の仮想サーバが存在しなければ(ステップS208,No)、物理サーバ電源OFF実行部127がスケールインを実行した物理サーバの電源をOFFし(ステップS209)、ステップS210に進む。ここでの物理サーバの電源OFFは、例えば、SSH(Secure SHell)、Telnet、Webサービスなどを利用して停止対象物理サーバに停止信号を送信する。
前記したステップS206における、スケールイン対象仮想サーバ選択部132が実行する、スケールイン実行後に停止対象とする仮想サーバの選択についての具体的な手順を、図21を参照しながら説明する。
図21は、スケールイン対象仮想サーバ選択処理の流れを示す図である。まず、スケールインが可能なクラスタシステムを構成する仮想サーバが稼働する物理サーバ群Pを抽出する(ステップS2101)。次に、物理サーバ群P内の各物理サーバで稼働する仮想サーバ数PNUMを取得する。この仮想サーバ数は他のクラスタシステムを構成する仮想サーバも含める(ステップS2102)。最後に、前記取得した稼働中の仮想サーバ数PNUMが最も少ない物理サーバを選択し、前記選択した仮想サーバをスケールイン実行後に停止対象とする仮想サーバとして選択する(ステップS2103)。
なお、構成情報収集部125は、稼働する前記物理サーバの消費電力量を収集し、構成情報保存/取得部142は、記憶装置111に格納してもよい。このとき、ステップS206において、スケールイン対象の仮想サーバを選択するときに、構成変更対象選択部122のスケールイン対象仮想サーバ選択部132は、さらに、スケールインのときに停止対象とする仮想サーバが稼働する物理サーバの消費電力量を構成情報から取得し、取得した消費電力量が多い方の物理サーバ上で稼働する仮想サーバをスケールインのときに停止対象とする仮想サーバと判断してもよい。
図3は、スケールインの実行シーケンスを示す図である。スケールインの具体的な手順を図3のシーケンス図を参照しながら説明する。まず、負荷分散器104に対して停止対象(スケールイン対象)の仮想サーバ301に対する閉塞要求を行い(ステップS311)、負荷分散器104では停止対象の仮想サーバへのリクエスト割振りを停止する(ステップS312)。負荷分散器104は、サーバ管理装置101に閉塞処理の完了を通知する(ステップS313)。閉塞処理完了通知を受け取ったサーバ管理装置101は、停止対象の仮想サーバ301に停止要求を送り(ステップS314)、停止対象の仮想サーバ301で停止処理を実行する(ステップS315)。最後に、サーバ管理装置101は、停止完了通知を受け取る(ステップS316)。なお、サーバ管理装置101は、停止対象とした仮想サーバを停止する前に、ステップS312において停止対象の仮想サーバへのリクエスト割振りを停止したのち、ステップS315においてクラスタシステムから削除するのがよい。
図2に戻り、スケールアウト判断部134では、負荷情報保存/取得部141が記憶装置111から負荷情報を収集し、対象クラスタシステムのスケールアウトが必要か判断する(ステップS210)。スケールアウトが不必要ならば(ステップS210,No)、ステップS217に進む。スケールアウトが必要ならば(ステップS210,Yes)、構成情報収集部125が物理サーバと仮想サーバの構成情報と物理サーバが保持する未使用のコンピューティングリソース量を収集する(ステップS211)。収集した構成情報は、構成情報保存/取得部142が記憶装置111に格納する(ステップS212)。
スケールアウト対象物理サーバ選択部135は、収集した構成情報から最適なスケールアウト対象の物理サーバを選択する(ステップS213)。具体的には、まず、対象クラスタシステムがスケールアウトするのに必要な物理リソース量βを取得する。この物理リソース量βは事前に設定しておいてもよい。次に、サーバ管理装置101が管理する物理サーバ群102のうち未使用のコンピューティングリソース量をβ以上持つ物理サーバ群Pを抽出する。なお抽出する物理サーバ群Pに停止中の物理サーバを含んでもよい。停止中の物理サーバの構成情報は過去に保存した構成情報を記憶装置111から取得する。最後に、物理サーバ群Pの中で稼働中の仮想サーバ数が最も多い物理サーバをスケールアウト対象の物理サーバとして選択する。ここまでの処理の結果、スケールアウト対象の物理サーバが存在しない場合は、スケールアウトするためのコンピューティングリソースが不足していると判断しサーバ管理者にリソース不足を通知した後に処理を終了してもよい。
スケールアウト実行部136は、スケールアウト先の物理サーバの電源がONか確認する(ステップS214)。スケールアウト先の物理サーバの電源がOFFならば(ステップS214,No)、物理サーバ電源ON実行部128がスケールアウト対象物理サーバの電源を投入し(ステップS215)、ステップS216に進む。ここでの物理サーバの電源投入は、例えば、「Wake up on Lan」技術を利用し通信装置114を介して起動物理サーバのNIC(Network Interface Card)に起動要求を送信する。スケールアウト先の物理サーバの電源がONならば(ステップS214,Yes)、ステップS216に進む。
スケールアウト実行部136は、選択した物理サーバに対してスケールアウトを実行する(ステップS216)。スケールアウト実行後は、サーバ管理装置101が管理する複数のクラスタシステムに対してステップS201〜ステップS216の処理が完了しているか確認する(ステップS217)。完了していれば(ステップS217,Yes)、処理を終了する。完了していなければ(ステップS217,No)、スケールイン/スケールアウトの判断を行う対象となるクラスタシステムを変更し、ステップS201を再び実行する。
図4は、スケールアウトの実行シーケンスを示す図である。スケールアウト実行の処理の流れを図4のシーケンス図を参照しながら説明する。スケールアウト対象の物理サーバ401の電源がOFFならサーバ管理装置101がスケールアウト対象の物理サーバ401の電源をONにして起動する(ステップS411〜ステップS413)。スケールアウト対象の物理サーバ401の電源がONならば、スケールアウト対象の物理サーバ401上にスケールアウト対象の仮想サーバ402の起動要求を送信する(ステップS414)。スケールアウト対象の物理サーバ401は、スケールアウト対象の仮想サーバ402を起動した(ステップS415,ステップS416)後に、サーバ管理装置101に起動完了通知を行う(ステップS417)。起動完了通知を受け取ったサーバ管理装置101は、負荷分散器104にリクエスト割振り開始要求を送信し(ステップS418)、新たに起動した仮想サーバにリクエスト割振りを開始する(ステップS419)。最後に、サーバ管理装置101はリクエスト割振り開始通知を負荷分散器104から受け取る(ステップS420)。すなわち、スケールアウト実行において、サーバ管理装置101は、起動した仮想サーバをクラスタシステムに追加し、リクエストの割振りを開始する。
以上のように、本実施形態では、スケールイン対象を稼働中の仮想サーバ数が少ない物理サーバから選択すると、稼働中の仮想サーバ数が減少する物理サーバを特定の物理サーバに集中することができる。その結果、物理サーバ間で稼働中の仮想サーバ数の偏りができ、従来方式に比べ少ない仮想サーバの回数で片寄せを実現することができる。
さらに、スケールアウト対象を稼働中の仮想サーバ数の多い物理サーバから選択することで、特定の物理サーバ上に仮想サーバを集約することができる。その結果、仮想サーバ数の少ない物理サーバは仮想サーバ数が少ない状態を維持でき、前記のスケールインによる物理サーバの電源切断が、仮想サーバの移行なし、または従来方式に比べて少ない回数で実現することができる。
図5は、物理サーバ上の仮想サーバ数によりスケールイン/スケールアウト対象を制御した場合の効果例を示す図である。図5(a)は、スケールインのみした場合であり、図5(b)は、スケールアウトしたのちスケールインをした場合である。図5に示す構成情報表501,521,512、531〜533,541〜543は、図22の構成情報表2211と同様に、物理サーバと仮想サーバの構成情報を示す。なお、構成情報表511,531〜533は、本実施形態に係る構成情報表であり、構成情報表521,541〜543は、比較例の構成情報表である。
図5(a)に示す構成情報表501の状態から本実施形態でのクラスタシステムBのスケールインを実行すると構成情報表511の状態となる。本実施形態では、スケールイン対象を稼働中の仮想サーバ数が少ない物理サーバである物理サーバ#3が選択されているからである。この場合、片寄せを実行するには#3の1台の仮想サーバA3を物理サーバ#2に移行すればよいことになる(移行回数は1)。
一方、本実施形態を適用しなかった場合(比較例の場合)には、構成情報表521の状態となる場合がある。この場合、片寄せを実行するには、物理サーバ#3の2台の仮想サーバA3,B3を、物理サーバ#2に移行する必要がある(移行回数は2)。この例では、本実施形態を適用することで、仮想サーバの移行回数を2から1に削減できる。なお、クラスタシステムの負荷変動は絶えず発生しており、この片寄せが一日で複数回発生する。
次に、クラスタシステムBの仮想サーバを追加するスケールアウトに関しても本実施形態の効果例を示す。図5(b)に示す構成情報表501の状態から本実施形態のスケールアウトを実行した結果が構成情報表531である。本実施形態では、スケールアウト対象を、仮想サーバが配置でき、かつ、稼働中の仮想サーバ数の多い物理サーバである物理サーバ#2が選択されているからである。スケールアウトの対象は物理サーバ#2の仮想サーバB4である。その後、クラスタシステムBの負荷が低下し、本実施形態の方式でスケールインを実行した結果が構成情報表532である。本実施形態では、スケールイン対象を稼働中の仮想サーバ数が少ない物理サーバである物理サーバ#3が選択されているからである。スケールインの対象は物理サーバ#3の仮想サーバB3である。さらに、クラスタシステムAの負荷が低下し、本実施形態の方式でスケールインを実行した結果が構成情報表533である。本実施形態では、本実施形態では、スケールイン対象を稼働中の仮想サーバ数が少ない物理サーバである物理サーバ#3が選択されているからである。スケールインの対象は物理サーバ#3の仮想サーバA3である。構成情報表533では、片寄せを実行しなくとも(移行回数は0)、物理サーバ#3の電源を切断できる状態となる。
本実施形態を適用しなかった場合(比較例の場合)には、構成情報表541の状態となる場合がある。スケールアウトの対象は、物理サーバ#3の仮想サーバB4である。その後、クラスタシステムBの負荷が低下し、スケールインを実行した結果が構成情報表542である。スケールインの対象は物理サーバ#1の仮想サーバB1である。さらに、クラスタシステムAの負荷が低下し、スケールインを実行した結果が構成情報表543である。スケールインの対象は物理サーバ#3の仮想サーバA3である。構成情報表543の状態から物理サーバ#3の電源を切断するには、物理サーバ#3の仮想サーバB3を物理サーバ#1に移行するとともに、物理サーバ#3の仮想サーバB4を物理サーバ#2に移行する必要がある。よって、移行回数は2となる。この例では、本実施形態を適用することで、仮想サーバの移行回数を2から0に削減できる。
以上の2例のように本実施形態によれば、スケールイン対象を稼働中の仮想サーバ数が少ない物理サーバから選択するスケールイン/スケールアウト対象を稼働中の仮想サーバ数の多い物理サーバから選択するスケールアウトを実行することで、仮想サーバの移行回数を低減することができる。
<<実施形態2>>
実施形態2は、実施形態1のサーバ管理装置101において、スケールアウト判断時に複数のクラスタシステムの負荷変動類似度を活用してスケールアウト対象の物理サーバを選択する手段を加えたものである。ここでの負荷変動類似度とは、クラスタシステムを構成する仮想サーバ数が増減する期間と一定である期間、さらにその時の仮想サーバ数の増減率が一致する度合いである。負荷変動類似度が一致するクラスタシステムでは、クラスタシステムを構成する仮想サーバ数が同時に少ない、または多い状態に移行する。この負荷変動類似度を導出するためには、クラスタシステムを構成する仮想サーバ数が一定である期間と、その期間での仮想サーバ数の情報をクラスタシステムから取得する。前記取得した情報から、仮想サーバ数が一定である期間以外は、仮想サーバが増減している期間だとわかる。さらに、前記仮想サーバが増減している期間の前後で、仮想サーバ数が一定である期間での仮想サーバ数の差分を増減率と計算できる。
スケールアウト対象物理サーバ選択部135は、負荷変動類似度の高いクラスタシステムを構成する仮想サーバが同一物理サーバに集約するようにクラスタシステムのスケールアウト先となる物理サーバを選択する。その結果、負荷変動類似度の高いクラスタシステムを構成する仮想サーバが同一物理サーバ上に存在することとなり、同一物理サーバ上に存在する複数のクラスタシステムでスケールインが同時期に起こり、同一物理サーバ上の仮想サーバを停止できる機会が増加する。つまり、スケールイン実行後の仮想サーバの停止による仮想サーバ数の減少が同一物理サーバに集中しやすくなる。従って、負荷変動類似度の高いクラスタシステムを複数の物理サーバで分散させ、仮想サーバ数の減少を物理サーバ間で分散させる場合に比べて、物理サーバの電源切断をより速く達成できる。このように、負荷変動類似度を活用することで、片寄せによる物理サーバの電源切断を仮想サーバの移行なしに実現できる機会をさらに増加させることができる。
図7は、実施形態2に係るクラスタシステムを示す図である。図7に示すようにサーバ管理装置101の記憶装置111に、負荷変動類似度計算部701のプログラムを実施形態1のサーバ管理装置101に追加する。負荷変動類似度計算部701では、負荷情報保存/取得部141が記憶装置111から取得した過去の負荷情報から複数のクラスタシステムの負荷変動類似度を計算し、その結果をスケールアウト対象物理サーバ選択部135で利用する。スケールアウト対象物理サーバ選択部135では、負荷変動類似度の高いクラスタシステムが同一物理サーバに集約するようにスケールアウト先を選択する。負荷変動類似度計算部701で行う処理の具体例を図8のフロー図を参照して説明する。
図8は、クラスタシステムの負荷類似度計算処理の流れを示す図である。クラスタシステムKとクラスタシステムLとし、毎日、毎週、毎月の特定の時刻tにおけるクラスタシステムK、クラスタシステムLにおいて稼働中であった仮想サーバ数の平均値をS(t)、S(t)とする。図8において、負荷変動類似度計算部701は、抽出作業を実行する時期と同じ時期の負荷情報から負荷変動の類似度を抽出する。ここでの時期とは、曜日、月、及び特定日であり、例えば、負荷変動類似度計算部701は、毎週金曜日の特定の時刻tにおいて稼働中であった仮想サーバ数の平均値を、金曜日における負荷変動の類似度を抽出するのに利用する。また、負荷情報を取得する曜日、月、及び特定日は単独または組合せでもよい。
任意の時刻tから任意の時刻tまでの過去に稼働中であった仮想サーバ数の平均値の差分をDiff(S,S)とし、全クラスタシステムに対して計算する(ステップS801)。このDiff(S,S)の計算には例えば、積分を用いて次のように計算する。

Diff(S,S)=∫[S(t)−S(t)]dt(t:t→t
前記Diff(S,S)を導出するために、より近い過去の結果の影響をより強く受けるように所定時間(例えば、現在の時刻tより一定時間前のtからtまで)の過去に稼働中であった仮想サーバ数に重み付けを行い導出してもよい。また、現在の時刻tより一定時間前のtからtまでの稼働中であった仮想サーバ数の差分としてもよい。全クラスタシステムに対して計算したDiffの最大値をDiff maxとし、類似度を例えば次のように計算する(ステップS802)。

Sim(S,S)=(Diff max−Diff(S,S))/Diff max
前記Sim(S,S)を導出するために、稼働中であった仮想サーバ数が多い期間より少ない期間がより長く一致するクラスタシステム同士の類似度が高くなるように重みづけを行ってもよいし、Diff(S,S)を大きい順に並べその番号を類似度として導出してもよい。また、時刻t→tの間で S(t)−S(t)が0となる時刻の総和を、TKL(t→t)として算出し、TKL(t→t)をクラスタシステムKとLの類似度としてもよい。
以上のようにして導出した負荷類似度をスケールアウト対象の物理サーバを選択する場合に利用する。例えば、各物理サーバPでクラスタシステムLを構成する仮想サーバ数をSLNとして、クラスタシステムKに対する類似クラスタシステム集約度Iを次のように計算する(ステップS803)。

=ΣSim(S,S)×SLN
この類似クラスタシステム集約度Iの高い物理サーバをスケールアウト対象として選択する(ステップS804)。また、類似クラスタシステム集約度Iが同一の物理サーバが複数存在した場合には、構成情報収集部125が物理サーバ群102の各物理サーバの消費電力を収集しておき、前記収集した消費電力の少ない物理サーバをスケールアウト対象としてもよい。
以上により、負荷変動が類似したクラスタシステムが同じ物理サーバに集約されるため、クラスタシステムの負荷が低下しスケールインを実行する場合には同一物理サーバ上の仮想サーバが停止対象となる。特定の物理サーバで集中して仮想サーバが停止するため、物理サーバの電源切断の機会が増加する。
本実施形態では、負荷変動の類似度を算出するときには各種方法を適用することができる。負荷変動類似度計算部701は、過去の負荷変動のデータとそのときの稼働仮想サーバ数をクラスタシステム毎に取得し、前記クラスタシステムの稼働中の仮想サーバ数が一致する期間がより長いクラスタシステム同士を、類似度の高いクラスタシステムと判定することができる。
負荷変動類似度計算部701は、特定期間、例えば1時間ごとに負荷の状態を取得し、終了時刻の負荷と開始時刻の負荷の差分を取り、正なら上昇傾向、負なら下降傾向と判断する。上昇傾向である時間が一致するクラスタシステム同士、下降傾向である時間が一致するクラスタシステム同士を負荷類似度が高いと判定することができる。
負荷変動類似度計算部701は、クラスタシステムごとに設定した負荷の最大値に対して何割の負荷で稼働しているかをクラスタシステムの負荷率として取得する。時刻に対する負荷率の変化が似通ったクラスタシステム同士を負荷類似度が高いと判定することができる。ここで、負荷の最大値は過去の負荷状態から取得してもよいし、クラスタシステムが最大構成となった場合に処理できる負荷最大値の論理値でもよいし、運用管理者が設定してもよい。
負荷変動類似度計算部701は、運用管理者が設定したクラスタシステム間の負荷類似度を使用してもよい。クラスタシステムを構築する時や、実行中に運用管理者がクラスタシステム間の類似度をサーバ管理装置に入力する。この負荷類似度は、記憶装置にデータとして記憶され、負荷変動類似度計算部701が読み出すことで負荷類似度を判定する。
負荷変動類似度計算部701は、クラスタシステムの稼働中の仮想サーバ数が多い期間より少ない期間が一致するクラスタシステム同士を、より類似度が高いと判定することができる。
負荷変動類似度計算部701は、判定を実施する時間以降でより近い時間帯で稼働中の仮想サーバ数が一致するクラスタシステム同士をより類似していると判定することができる。
負荷変動類似度計算部701は、抽出作業を実行する時期と同じ時期の負荷情報から負荷変動の類似度を抽出することができる。
負荷変動類似度計算部701は、より近い過去の負荷変動の類似度がより高いと判断するように所定時間の過去に稼働中であった仮想サーバ数に重み付けすることができる。
図9は、負荷変動が類似したクラスタシステムを同一物理サーバにスケールアウトした場合の効果例を示す図である。サーバ管理装置101が3台の物理サーバ上でクラスタシステムA,B,Cを管理する環境を想定する。クラスタシステムA,B,Cはそれぞれ、仮想サーバA1〜A2,C1〜C4,B1〜B6で構成する。負荷変動の合計図901にクラスタシステムA,B,Cの時間毎の負荷変動と、それら負荷変動の合計を示す。
負荷変動類似度計算部701は、クラスタシステムの稼働中の仮想サーバ数が多い期間より少ない期間が一致するクラスタシステム同士を、より類似度が高いと判定する。この例では、クラスタシステムAとクラスタシステムCの負荷変動の類似度が高いと判定される。
本実施形態のスケールアウトでは、クラスタシステムA,Cを構成する仮想サーバを同じ物理サーバにスケールアウトする。従って、負荷が最も高い場合には、構成情報表911の状態となる。具体的には、物理サーバ#1は、クラスタシステムAに係る仮想サーバA1,A2、および、クラスタシステムCに係る仮想サーバC1,C2が配置されている。
その後、構成情報表911の状態からはクラスタシステムA,Cの負荷が低下し、本実施形態のスケールインを実行すると構成情報表912の状態となる。具体的には、クラスタシステムAの中から仮想サーバA2、および、クラスタシステムCの中から仮想サーバC1,C2,C4を停止した状態である。この状態から片寄せを実行するには、物理サーバ#1の仮想サーバA1を物理サーバ#3に移行する(移行回数は1)。
比較例では、例えば、負荷変動の異なるクラスタシステムA,B、クラスタシステムB,Cを同じ物理サーバにスケールアウトする。従って、負荷が最も高い場合には、構成情報表921の状態となる。具体的には、物理サーバ#1は、クラスタシステムAに係る仮想サーバA1,A2、および、クラスタシステムBに係る仮想サーバB1,B2が配置されている。また、物理サーバ#2は、クラスタシステムCに係る仮想サーバC1,C2、および、クラスタシステムBに係る仮想サーバB3,B4が配置されている。同様に、物理サーバ#3は、クラスタシステムCに係る仮想サーバC3,C4、および、クラスタシステムBに係る仮想サーバB5,B6が配置されている。
その後、構成情報表921の状態からはクラスタシステムAとCの負荷が低下し、本実施形態のスケールインを実行すると構成情報表922の状態となる。具体的には、クラスタシステムAの中から仮想サーバA2、および、クラスタシステムCの中から仮想サーバC2,C3,C4を停止した状態である。この状態から片寄せを実行するには物理サーバ#3の仮想サーバB5を、物理サーバ#2に移行するとともに、物理サーバ#3の仮想サーバB6を、物理サーバ#1に移行する(移行回数は2)。
この例では、本実施形態を適用することで、仮想サーバの移行回数を2から1に削減できる。以上のように本実施形態の負荷変動類似度からスケールアウト先を選択することで、片寄せ時の仮想サーバの移行回数を低減することができる。
<<実施形態3>>
実施形態3は、実施形態1のサーバ管理装置101において、スケールイン実行後に仮想サーバの移行を行う手段を加えることで、仮想サーバの片寄せを実行し余剰物理サーバの電源切断を行うことができる。ここでの片寄せは、仮想サーバを移行することで物理サーバの電源が切断できる場合に限り実行し、消費電力削減効果のない片寄せを実行しないよう制御する。
図10は、実施形態3に係るクラスタシステムを示す図である。図10に示すようにサーバ管理装置101の記憶装置111に、片寄判断部1001、片寄対象仮想サーバ選択部1002、片寄実行部1003の各プログラムを、図1のサーバ管理装置101に追加する。片寄判断と片寄実行の詳細な説明を図11のフロー図を参照して説明する。
図11は、片寄せ判断と片寄せ実行処理の流れを示す図である。適宜図10を参照する。片寄判断部1001では、複数のクラスタシステムのいずれかでスケールインが発生したかを判断する(ステップS1101)。スケールインが発生したならば(ステップS1101,Yes)、片寄判断を実行するためステップS1102に進む。スケールインが発生していない場合は(ステップS1101,No)、片寄せを実行しても物理サーバの電源切断はできないと判断し処理を終了する。
片寄対象仮想サーバ選択部1002では、スケールイン実行後に停止した仮想サーバが稼働していた物理サーバをPとし、物理サーバP上の稼働中の仮想サーバ数を取得する(ステップS1102)。前記取得した稼働中の仮想サーバ数から物理サーバP上の仮想サーバを他物理サーバに移行する片寄せと、他物理サーバ上で稼働する仮想サーバを物理サーバPに移行する片寄せ、どちらの移行コストが少ないか判断する。そのために次の2つの条件判定を続けて行う(ステップS1103)。
(a)物理サーバP上で稼働する全稼働中の仮想サーバを物理サーバP以外の物理サーバ群PEXC(P)に移行できるか?(ステップS1103)
(b)物理サーバP(M≠N)で稼働する全仮想サーバを物理サーバPに移行できるか?(ステップS1104(ステップS1104A、ステップS1104B))
ステップS1103がYesおよびステップS1104A(ステップS1104)がYesの場合は、ステップS1105A(ステップS1105)に進む。ステップS1103がYesおよびステップS1104AがNoの場合はステップS1109に進む。ステップS1103がNoおよびステップS1104BがYesの場合は、ステップS1105B(ステップS1105)に進む。ステップS1103がNoおよびステップS1104B(ステップS1104)がNoの場合は、片寄せを実行しても物理サーバの電源を切断できないと判断して処理を終了する。
ステップS1104AがYesの場合は、移行元となる物理サーバの候補が複数存在する場合がある。そこで、仮想サーバの移行回数が最小となる物理サーバを移行元の物理サーバPとして選択し(ステップS1105A)、ステップS1106に進む。
物理サーバP、物理サーバPを移行元とした場合に、物理サーバPを移行元とした方が仮想サーバの移行回数が少ないならば(ステップS1106,Yes)、ステップS1107A(ステップS1107)に進む。そうでなければ(ステップS1106,No)、ステップS1109に進む。ステップS1107Aでは、移行元の物理サーバP上の稼働中の仮想サーバの全てを、物理サーバPに移行する(物理サーバPから物理サーバPへ仮想サーバを移行する)。その後、物理サーバ電源OFF実行部127が物理サーバの電源PをOFFする(ステップS1108A)。一方、ステップS1109では物理サーバP上の仮想サーバの移行先をスケールアウト対象物理サーバ選択部135と同様の方法で選択し片寄実行部1103が仮想サーバの移行を行う。その後、物理サーバ電源OFF実行部127が物理サーバの電源PをOFFし(ステップS1110)、処理を終了する。
同様に、ステップS1104BがYesの場合は、移行元となる物理サーバの候補が複数存在する場合がある。そこで、仮想サーバの移行回数が最小となる物理サーバを移行元の物理サーバPとして選択し(ステップS1105B)、移行元の物理サーバP上の稼働中の仮想サーバを全て物理サーバPに移行する(ステップS1107B)。その後、物理サーバ電源OFF実行部127が物理サーバの電源PをOFFし(ステップS1108B)、処理を終了する。
片寄せを実行する際には稼働中の仮想サーバを移行する必要がある。移行の方法としては、稼働中の仮想サーバを一度停止し、物理サーバへの構成を変更した後に再び稼働させる方法がある。また、仮想サーバを停止しない方法として、稼働中の仮想サーバが持つメモリ内容を移行先にコピーし稼働状態を維持したまま移行を実現するライブマイグレーション技術が存在する。本実施形態が対象とするクラスタシステムでは、クラスタシステムを構成する仮想サーバのいずれでクライアントからのリクエストを処理しても結果は同じである。この性質を利用して、稼働状態を維持した仮想サーバの移行を疑似的に実現することもできる。図12を参照してその詳細を説明する。
図12は、仮想サーバの疑似移行処理の実行シーケンスを示す図である。サーバ管理装置101は、移行先の物理サーバ上に存在する停止状態である移行先の仮想サーバ1202に対する起動要求を移行先の物理サーバに送付し(ステップS1211)、移行先の仮想サーバの起動処理を行う(ステップS1212)。そして、移行先の仮想サーバ1202は、起動完了通知を行う(ステップS1213)。起動完了通知を受けたサーバ管理装置101は、負荷分散器104に対して、移行先の仮想サーバへのリクエスト割振り要求を送付し(ステップS1214)、負荷分散器104は移行先の仮想サーバへのリクエスト割振りを開始する(ステップS1215)。そして、負荷分散器104は、リクエスト割振り完了通知を行う(ステップS1216)。
リクエスト割振り変更であるリクエスト割振り完了通知を受けたサーバ管理装置101は、移行元の仮想サーバの閉塞要求を負荷分散器104に対して送付し(ステップS1217)、負荷分散器104は移行元の仮想サーバ1201へのリクエスト割振りを停止する(ステップS1218)。そして、負荷分散器104は、閉塞完了通知を行う(ステップS1219)。リクエスト割振り停止である閉塞完了通知を受け取ったサーバ管理装置101は、移行元の仮想サーバ1201に対して停止要求を送付し(ステップS1220)、移行元の仮想サーバ1201は停止処理を実行する(ステップS1221)。そして、移行元の仮想サーバ1201は停止完了通知を行う(ステップS1222)。最後に、サーバ管理装置101は移行元の仮想サーバ1201の停止完了通知を受け取り、移行元の仮想サーバ1201から移行先の仮想サーバ1202への疑似的な仮想サーバ移行を完了する。
<<実施形態4>>
実施形態4は、実施形態1のサーバ管理装置101において、負荷変動予測から仮想サーバで構成するクラスタシステムのスケールイン/スケールアウトのタイミングを制御する手段を加えることで物理サーバの電源ON/OFF繰り返しによる消費電力増加を抑えることができる。
図13は、実施形態4に係るクラスタシステムを示す図である。図13に示すようにサーバ管理装置101の記憶装置111に、負荷変動予測部1301のプログラムを、図1のサーバ管理装置101に追加する。負荷変動を予測しスケールイン/スケールアウトの実行タイミングを変更する詳細な説明を図14のフロー図を参照して説明する。なお、負荷変動予測部1301は、実施形態2,3のサーバ管理装置101に加えてもよい。
図14は、負荷変動予測からスケールイン/スケールアウトのタイミングを変更する処理の流れを示す図である。適宜図13を参照する。負荷変動予測部1301では、対象クラスタシステムの過去の負荷情報を負荷情報保存/取得部141を介して記憶装置111から取得する。そして、取得した負荷情報の時刻tにおける平均値を平均負荷L(t)とする(ステップS1401)。具体的には、現在時刻tから予測期間T後、時刻tまでの対象クラスタシステムの平均負荷L(t)を記憶装置111から取得する。なお、ここでの平均負荷L(t)とは、毎日の同じ時刻でのコンピューティングリソースやアプリケーションが持つ情報をそれぞれ加算平均した値である。また、毎日に限らず毎週、毎月、毎年、特定日の同じ時刻の負荷情報を加算平均してもよい。すなわち、負荷変動予測部1301は、負荷変動傾向の予測を実行する時期と同じ時期の負荷情報から負荷変動傾向を予測することになる。ここでの時期とは、曜日、月、及び特定日であり、例えば、負荷変動予測部1301は、毎週金曜日の特定の時刻tにおける負荷の平均値を、金曜日における負荷変動を予測するのに利用する。また、負荷情報を取得する曜日、月、及び特定日は単独または組合せでもよい。
そして、予測期間T(t−t)である時刻tから時刻tまでの期間内の負荷の変動傾向D(T)を、例えば次のように計算する(ステップS1402)。

D(T)=(L(t)-L(t))/(t−t
前記D(T)を導出するために、より近い過去の結果の影響をより強く受けるように加重平均した平均負荷L(t)を計算に使用してもよい。また、平均値を用いずに現在の時刻tより一定時間前のtにおける負荷情報との差分を用いて次のように計算してもよい。

D(T)=(L(t)-L(t))/(t−t
負荷変動予測部1301は、D(T)が0より大きいか判断する(ステップS1403)。D(T)が0より大きい場合には(D(T)>0)(ステップS1403,Yes)、対象クラスタシステムの負荷が対象期間において上昇傾向であると判断し、スケールインを消極的に行うようにスケールイン/スケールアウトの判断条件となる閾値を変更する。具体的には、スケールイン判断部131やスケールアウト判断部134で利用するスケールイン/スケールアウトの判断条件となる閾値表601の閾値列に示す閾値を低くし(ステップS1404)、処理を終了する。
一方、D(T)が0より大きくない場合には(D(T)≦0)(ステップS1403,Yes)、対象クラスタシステムの負荷が対象期間において下降傾向であると判断し、スケールインを積極的に行うようにスケールイン/スケールアウトの判断条件となる閾値を変更する。具体的には、スケールイン判断部131やスケールアウト判断部134で利用するスケールイン/スケールアウトの判断条件となる閾値表601の閾値列に示す閾値を高くする(ステップS1405)。
なお、負荷の変動傾向D(T)が十分に小さい場合(ほぼ0に近い場合)には、定常状態と判断しスケールイン/スケールアウトの判断条件となる閾値を変更しないようにしてもよい。具体的には、サーバ管理装置101を管理する管理者は、クラスタシステムの負荷が定常状態であると判断する負荷の変動幅の値εを入力装置115から入力する。サーバ管理装置は変動幅の値εを記憶装置111内のデータ152として格納する。ステップS1403で負荷が上昇傾向か下降傾向か判定する際に、記憶装置111に格納されたεを取得する。D(T)の絶対値がε以上であり、かつD(T)が0より大きければ上昇傾向と判断する。D(T)の絶対値がε以上であり、かつD(T)が0より大きくなければ下降傾向と判断する。D(T)の絶対値がεより小さい場合は定常状態と判定し処理を終了する。
また、負荷変動傾向を導出した期間TをさらにN分割し、それぞれの期間で負荷変動傾向を導出してもよい。この場合、期間Tのうち上昇傾向期間と下降傾向期間がともに一定数(所定値)を超えた場合に不安定状態と判断(判定)し、スケールアウトを積極的に行うようにしてもよい。
クラスタシステムの運用管理者が業務の負荷が上昇傾向であるか、下降傾向であるか設定してもよい。例えば、8:00〜14:00は業務の負荷が上昇傾向、14:00〜17:00は業務の負荷が下降傾向といった負荷変動傾向データを記憶装置111のデータ152として運用管理者が事前に入力しておく。負荷変動予測部1301は記憶装置111から負荷変動傾向データを参照し、負荷変動傾向を判定する。
以上のように負荷変動が上昇傾向の場合にはスケールインが発生しにくくし、下降傾向の場合にはスケールインが発生しやすいように閾値を変更することで、スケールイン/スケールアウトが交互に繰り返すことを防ぐことができる。
図15は、負荷変動予測によりスケールイン/スケールアウトのタイミングを変更した場合の効果例を示す図である。グラフ1511には、負荷変動が上昇傾向の場合にスケールイン/スケールアウト閾値を低下させる概要を示しており、閾値変更ありの場合である。比較例として、グラフ1521には、スケールイン/スケールアウト閾値を変更しない方式を示しており、閾値変更なしの場合である。
通常、クラスタシステムの負荷変動が閾値を下回った場合にはスケールインを実行し、超えた場合にスケールアウトを実行する。閾値変更ありのグラフ1511では、スケールイン/スケールアウト閾値と負荷変動が2回交差しているので、スケールイン/スケールアウトを2回実行する。一方、閾値変更なしのグラフ1521では、スケールイン/スケールアウト閾値と負荷変動が4回交差しているので、スケールイン/スケールアウトを4回実行する。その内、短期間で負荷が上下する部分1531でのスケールイン/スケールアウトを2回実行する。
この例では、本実施形態を適用することで、短期間で負荷が上下する部分1531でのスケールイン/スケールアウトを交互に繰り返すことを防ぐことができる。さらに、スケールイン/スケールアウトが物理サーバの電源ON/OFFを伴えば、短期間での物理サーバの電源ON/OFF繰り返しによる消費電力増加を防ぐことができる。
<<実施形態5>>
実施形態5は、実施形態1のサーバ管理装置101において、クラスタシステムを構成する仮想サーバをスケールアップして、スケールアウトのタイミングを遅らせる手段を加えている。これにより、クラスタシステムが処理できるリクエスト量を増加させることで、物理サーバの電源OFF時間を長くし消費電力を削減する効果を高めることができる。
スケールアップとは、仮想サーバに割当てるCPUやメモリなどのコンピューティングリソース量を増加させ、リクエスト処理の数や速度を増強することである。このコンピューティングリソースは、スケールアップを実施する仮想サーバが稼働する物理サーバが保持する未使用のコンピューティングリソースを使用する。
図16は、実施形態5に係るクラスタシステムを示す図である。図16に示すようにサーバ管理装置101の記憶装置111に、スケールアップ対象仮想サーバ選択部1602とスケールアップ実行部1603の各プログラムを追加する。さらに、スケールアウトかスケールアップのどちらを実行するか判断するために、スケールアウト判断部134をスケールアウト/スケールアップ判断部1601に変更する。なお、クラスタシステムを構成する仮想サーバをスケールアップして、スケールアウトのタイミングを遅らせる手段は実施形態2〜4のサーバ管理装置101に加えてもよい。スケールアップ可否を判断し、スケールアップを実行する詳細な説明を図17のフロー図を参照して説明する。
図17は、スケールアップの判断と実行の流れを示す図である。適宜図16を参照する。スケールアウト/スケールアップ判断部1601では、負荷情報保存/取得部141が記憶装置111から負荷情報を取得する(ステップS1701)。取得したクラスタシステムの負荷がクラスタシステムに予め設定しておいた閾値αを超えるかを判断する(ステップS1702)。クラスタシステムの負荷が閾値αを超える場合(ステップS1702,Yes)、スケールアウト/スケールアップが必要と判断し、ステップS1703に進む。クラスタシステムの負荷が閾値αを超えない場合(ステップS1702,No)、スケールアウト/スケールアップが不必要と判断し処理を終了する。
スケールアップ対象仮想サーバ選択部1602は、負荷が上昇したクラスタシステムを構成する仮想サーバが稼働する物理サーバ群Pの中で未使用コンピューティング(物理)リソース量が最も多い物理サーバPを選択する(ステップS1703)。そして、未使用コンピューティングリソースを持つ物理サーバPが存在するか否かを判定する(ステップS1704)。未使用コンピューティングリソースを持つ物理サーバPが存在しなければ(ステップS1704,No)、負荷上昇に対してスケールアウト処理を実行して(ステップS1705)、処理を終了する。
物理サーバPが存在すれば(ステップS1704,Yes)、スケールアップ対象仮想サーバ選択部1602は、物理サーバP上で稼働する対象クラスタシステムの仮想サーバSを選択する(ステップS1706)。そして、スケールアップ実行部1603は、仮想サーバSへのコンピューティングリソース量の割当をM倍に増加させ仮想サーバSをスケールアップする(ステップS1707)。その後、負荷分散器104から仮想サーバSへのリクエスト割振り量をM倍に増加させる(ステップS1708)。
以上のスケールアップ処理により、未使用コンピューティングリソースを利用して、スケールアウト実行のタイミングを遅らせることができる。その結果、次にスケールアウト対象となる物理サーバの電源OFF時間を延ばし消費電力を削減する効果を高めることができる。
具体的な効果として、例えば、クラスタシステムの負荷が一定の期間Tの間高くなり、再び負荷が下る場合を想定する。T時間の間、スケールアップにより新たに物理サーバの電源をONすることなく対応できた場合の削減できる電力量は以下の通りである。

(物理サーバの起動と停止にかかる電力量)+T×(物理サーバの消費電力−スケールアップにより増加した消費電力)
ここで、スケールアップにより増加した消費電力は、物理サーバの消費電力に比べて十分小さいので、消費電力削減効果が得られる。また、スケールアップ後Ta時間でスケールアウトが発生した場合でも、以下の電力量を削減することが可能である。

Ta×(物理サーバの消費電力−スケールアップにより増加した消費電力)
なお、本実施形態において、構成情報収集部125は、物理サーバが保持する未使用のコンピューティングリソース量を構成情報として収集しており、構成変更判断部121のスケールアウト/スケールアップ判断部1601は、取得した未使用のコンピューティングリソースを利用し仮想サーバのスケールアップ可否を判断し、構成変更対象選択部122のスケールアップ対象仮想サーバ選択部1602は、前記判断によりスケールアップ可能のとき、クラスタシステムのスケールアウトの代わりに仮想サーバをスケールアップし、構成変更実行部123のスケールアップ実行部1603は、クライアント106からのリクエストを、クラスタシステムを構成する仮想サーバ群103に割振る負荷分散器104を管理し、負荷分散器104を制御することによりスケールアップを実行した仮想サーバへのリクエスト割振り量をクラスタシステム内の他の仮想サーバより増加させることができる。
<<実施形態6>>
実施形態6は、実施形態1のサーバ管理装置101において、構成変更判断部121で利用する閾値を、クラスタシステムの運用ポリシに基づいて変更できるようにする手段を追加した。また、構成変更対象選択部122において、クラスタシステムの運用ポリシに基づいて構成変更対象を選択できる。
図18は、実施形態6に係るクラスタシステムを示す図である。図18に示すようにサーバ管理装置101の記憶装置111に、運用ポリシ取得部1801のプログラムを、図1のサーバ管理装置101に追加する。なお、構成変更判断部121で利用する閾値を、クラスタシステムの運用ポリシに基づいて変更できるようにする手段は、実施形態2〜5のサーバ管理装置101に加えてもよい。
図19は、運用ポリシの例を示す図である。判断条件#0にポリシ種別を記述し、運用ポリシ表1901に示すような運用ポリシを定義する。例として「積極的省電力」、「可用性保持」を挙げる。「積極的省電力」は、コンピューティングリソースの使用率を高め、余剰コンピューティングリソースを削減するポリシである。「可用性保持」は、仮想サーバに割当てるコンピューティングリソースに余裕を持たせ、耐障害性を高め、さらに突発的な負荷上昇に対応するためのポリシである。なお、運用ポリシ表1901は記憶装置111内のデータと152の一部して保持する。
「積極的省電力」では、判断条件#3〜#8に示すスケールイン/スケールアウトの閾値を「可用性保持」に比べ高く設定し、スケールインがより発生しやすいようにする。また、判断条件#2に示す条件の「or」は判断条件#3〜#8の判断条件を1つでも満たせばスケールイン/スケールアウトを実行することを意味する。一方、判断条件#2に示す条件の「and」の場合は判断条件#3〜#8の判断条件を全て満たせばスケールイン/スケールアウトを実行することを意味する。「積極的省電力」では、スケールインの条件を「or」と設定することでスケールインが発生しやすいようにする。
判断条件#9の最大仮想サーバ数とは、クラスタシステムを構成する仮想サーバ数の最大値である。この数値を設定することでスケールアウトの上限を設定し、特定のクラスタシステムがコンピューティングリソースを使いきることのないようにする。なお、この数を無制限にしてもよい。
クラスタシステムを構成する仮想サーバは、判断条件#10の最小物理サーバ数以上の物理サーバ上で常に稼働するようにする。最小物理サーバ数を設定することで、特定の物理サーバに障害が発生した場合もクラスタシステムで実行する処理を中断することなく続行できる。また、スケールイン実行後に停止対象とする仮想サーバを選択する場合に、選択すると最小物理サーバ数の条件を満たさない仮想サーバはスケールイン実行後に停止対象とする仮想サーバとして選択しない。片寄せ対象選択時も同様である。この最小物理サーバ数を設定することで、耐障害性を考慮したクラスタシステムに本実施形態を適用することができる。なお、耐障害性を考慮しなければこの数を0としてもよい。
判断条件#11の仮想サーバ移行数は一度の片寄せで移行する仮想サーバの上限数である。仮想サーバの移行数が増加すると、システム構成変更時間が延び、他のシステム構成変更要求への遅れや、クライアントからのリクエストに対する応答性能の劣化が発生する可能性がある。この影響の許容量をこの仮想サーバ移行で設定する。
図20は、運用ポリシを利用した場合の、構成変更判断部、構成変更対象選択部、構成変更実行部の処理の流れを示す図である。適宜図18を参照する。運用ポリシを利用した場合の、構成変更判断部121、構成変更対象選択部122、構成変更実行部123の処理の流れを、図20を参照して説明する。
構成変更判断部121および構成変更対象選択部122は、運用ポリシ表1901(図19参照)を運用ポリシ取得部1801から取得し(ステップS2001)、取得した運用ポリシ表1901からポリシ種別を選択する(ステップS2002)。ポリシ種別の選択は、サーバ管理装置101の管理者が予めクラスタシステムを構築する場合に、入力装置115から通信装置114を介して選択しておくとよい。また、クラスタシステムの実行途中で、入力装置115から通信装置114を介して変更してもよい。
次に、構成変更判断部121は、構成変更判断対象(a)スケールイン、(b)スケールアウト、(c)片寄せに対して別の処理を行うため場合分けする(ステップS2003)。
(a)スケールインの場合は、まずスケールイン判断部131が運用ポリシ表1901の判断条件の行、かつスケールインの列に記述した閾値を取得し負荷情報保存/取得部141が記憶装置111から取得した負荷情報と比較する(ステップS2005)。前記比較により、スケールインが可能でなければ(ステップS2005,No)、処理を終了する。スケールインが可能であれば(ステップS2005,Yes)、運用ポリシのスケールイン列に記述した最小物理サーバ数を取得する(ステップS2006)。次に、スケールイン対象仮想サーバ選択部132がスケールイン実行後に、クラスタシステムを構成する仮想サーバが稼働する物理サーバ数が最小物理サーバ数未満とならないようにスケールイン対象(停止対象)の仮想サーバを選択する(ステップS2007)。最後に、ステップS2007の処理によりスケールイン対象仮想サーバが存在すれば(ステップS2008,Yes)、スケールイン実行部133がスケールインを実行し(ステップS2008)、処理を終了する。なお、ステップS2007の処理によりスケールイン対象仮想サーバが存在しなければ(ステップS2008,No)、処理を終了する。
本実施形態では、最小物理サーバ数を規定しているので、クラスタシステムの物理サーバ障害への耐性を高めるためにクラスタを構成する仮想サーバを複数の物理サーバに分散させて稼働させることができる。また、ステップS2008において、スケールイン実行後に停止すると物理サーバ障害への耐性が低下する仮想サーバをスケールイン実行後に停止対象とする仮想サーバから取り除いてもよい。
(b)スケールアウトの場合は、まずスケールアウト判断部134が運用ポリシ表1901の判断条件の行、かつスケールアウトの列に記述した閾値を取得し負荷情報保存/取得部141が記憶装置111から取得した負荷情報と比較する(ステップS2010)。前記比較により、スケールアウトが不要であれば(ステップS2011,No)、処理を終了する。スケールアウトが必要ならば(ステップS2011,Yes)、運用ポリシのスケールアウトの列に記述した最大仮想サーバ数を取得する(ステップS2012)。次に、スケールアウト対象物理サーバ選択部135がクラスタシステムを構成する仮想サーバ数が最大仮想サーバ数未満か判断する(ステップS2013)。クラスタシステムを構成する仮想サーバ数が最大仮想サーバ数未満なら(ステップS2013,Yes)、スケールアウト対象の物理サーバの選択を行い(ステップS2014)、スケールアウトを実行し(ステップS2015)、処理を終了する。なお、クラスタシステムを構成する仮想サーバ数が最大仮想サーバ数未満でないなら(ステップS2013,No)、処理を終了する。
(c)片寄せの場合は、まず片寄判断部1001が運用ポリシ表1901の片寄せの列に記述した仮想サーバ移行数Mを取得する(ステップS2016)。片寄判断部1001は片寄せ実行時に必要な仮想サーバ移行数がM以下か判断する(ステップS2017)。
前記判断が偽ならば(ステップS2017,No)、処理を終了する。前記判断が真ならば(ステップS2017,Yes)、次に片寄対象仮想サーバ選択部1002が運用ポリシ表1901の片寄せ列に記述した最小物理サーバ数を取得する(ステップS2018)。片寄せ実行後に、クラスタシステムを構成する仮想サーバが稼働する物理サーバ数が最小物理サーバ数未満とならないように片寄せ時に移行対象(移行元と移行先)となる仮想サーバを選択する(ステップS2019)。前記選択により移行対象仮想サーバが決定(選択)し(ステップS2019)、片寄せが実行可能ならば(ステップS2020,Yes)、片寄実行部1003が片寄せを実行し(ステップS2021)、処理を終了する。なお、片寄せが可能でないならば(ステップS2020,No)、処理を終了する。
このように、システム構成を動的に変更し、コンピューティングリソース量を最適化するシステムに本実施形態を適用することで、片寄せ実行時に必要な仮想サーバの移行回数を削減し消費電力削減効果を高めることができる。さらに、スケールインの実行タイミングを変更することでスケールイン/スケールアウトの繰り返しによる消費電力の増加を防ぐことができる。また、スケールアウトの実行タイミングを遅らせることで、スケールアウト対象となる物理サーバの電源OFF時間を長くし消費電力を削減する効果を高めることができる。
本実施形態のスケールインの実行で稼働中の仮想サーバ数が多い物理サーバと少ない物理サーバといった、片寄せ実行後の状態に近づけることができる。さらに、スケールインを続けることで、仮想サーバの移行なしに片寄せ状態を実現できる。また、本発明ではスケールインの実行で片寄せ実行後の状態に効率的に近づけるためにスケールアウト実行前に新たに仮想サーバを稼働させる物理サーバの選択も行う。
本実施形態のスケールアウトにより負荷変動が類似したクラスタシステムを構成する仮想サーバが同じ物理サーバに集約する。そのため、特定のクラスタシステムの負荷が低下する期間は、スケールイン実行後に停止対象となる仮想サーバが特定の物理サーバ上に集中する。
以上のようにスケールイン/スケールアウトにより、各物理サーバ間で稼働中の仮想サーバを偏らせることで片寄せ実行後の状態に近づける。その結果、本発明を利用せず各物理サーバ間で稼働中の仮想サーバの偏りが少ない状態に比べ、片寄せ実行時に仮想サーバを移行する回数を削減することができる。
さらに、スケールインの実行タイミングを変更することでスケールイン/スケールアウトの繰り返しによる消費電力の増加を防ぐことができる。また、スケールアウトの実行タイミングを遅らせることで、スケールアウト実行前に稼働対象となる物理サーバの電源OFF時間を長くし消費電力を削減する効果を高めることができる。
本実施形態のサーバ管理装置101は、仮想サーバ群103を稼働する物理サーバ群102を管理し、物理サーバ群102に配置された複数の仮想サーバを含んでなるクラスタシステムを運用する際に、仮想サーバ群103の負荷状態により仮想サーバの配置状態を管理する。スケールイン実行時には、稼働中の仮想サーバ数が最も少ない物理サーバで稼働する仮想サーバを停止対象とする。スケールアウト実行時には、負荷変動を予測し、負荷の変動が類似したクラスタシステムが同じ物理サーバ上に集まるようにクラスタシステムのスケールアウト先を制御する。スケールインの実行タイミングは、予測した負荷変動が上昇傾向なら実行を遅らせ、下降傾向なら実行を早めることができる。
101 サーバ管理装置
102 物理サーバ群
103 仮想サーバ群
104 負荷分散器
105 ネットワーク
106 クライアント
107 仮想化ソフトウェア
111 記憶装置
112 メモリ
113 CPU
114 通信装置
115 入力装置
116 表示装置
121 構成変更判断部
122 構成変更対象選択部
123 構成変更実行部
124 負荷情報収集部
125 構成情報収集部
126 物理サーバ電源OFF可否判断部
127 物理サーバ電源OFF実行部
128 物理サーバ電源ON実行部
131 スケールイン判断部
132 スケールイン対象仮想サーバ選択部
133 スケールイン実行部
134 スケールアウト判断部
135 スケールアウト対象物理サーバ選択部
136 スケールアウト実行部
141 負荷情報保存/取得部
142 構成情報保存/取得部
151 プログラム
152 データ
301 スケールイン対象の仮想サーバ
401 スケールアウト対象の物理サーバ
402 スケールアウト対象の仮想サーバ
501 構成情報表
601 スケールイン/スケールアウトの判断条件となる閾値表
701 負荷変動類似度計算部
901 負荷変動の合計図
1001 片寄判断部
1002 片寄対象仮想サーバ選択部
1003 片寄実行部
1201 移行元の仮想サーバ
1202 移行先の仮想サーバ
1301 負荷変動予測部
1601 スケールアウト/スケールアップ判断部
1602 スケールアップ対象仮想サーバ選択部
1603 スケールアップ実行部
1801 運用ポリシ取得部
1901 運用ポリシ表

Claims (25)

  1. 複数の仮想サーバを有する仮想サーバ群を稼働する物理サーバを含んでなる物理サーバ群を管理し、前記物理サーバ群に配置された前記複数の仮想サーバを含んでなるクラスタシステムを運用する際に、前記仮想サーバ群の負荷状態により前記仮想サーバの配置状態を管理するサーバ管理装置であって、
    前記クラスタシステムを構成する仮想サーバ群の負荷情報を収集する負荷情報収集部と、
    前記仮想サーバ群が前記物理サーバのどの物理サーバに割付けられているかを構成情報として収集する構成情報収集部と、
    前記収集した負荷情報からクラスタシステムを構成する仮想サーバ数の削減可否を判断する構成変更判断部と、
    前記収集した構成情報から稼働する仮想サーバ数が最も少ない物理サーバを選択する構成変更対象選択部と、
    前記選択した物理サーバ上で稼働する仮想サーバを停止する構成変更実行部とを有する
    ことを特徴とするサーバ管理装置。
  2. 前記サーバ管理装置は、さらに、
    前記停止対象とした仮想サーバを停止する前に、前記停止対象の仮想サーバへのリクエスト割振りを停止しクラスタシステムから削除するスケールインを実行する
    ことを特徴とする請求項1に記載のサーバ管理装置。
  3. 前記サーバ管理装置は、さらに、
    前記構成変更判断部が、前記収集した負荷情報からクラスタシステムを構成する仮想サーバ数の過不足を判断し、
    前記構成変更対象選択部が、クラスタシステムを構成する仮想サーバ数が不足していると判断した場合に、構成情報収集部が収集した構成情報から稼働する仮想サーバ数が最も多い物理サーバを選択し、
    前記構成変更実行部が、前記選択した物理サーバ上で仮想サーバを起動する
    ことを特徴とする請求項1に記載のサーバ管理装置。
  4. 前記サーバ管理装置は、さらに、
    前記起動した仮想サーバをクラスタシステムに追加しリクエストの割振りを開始するスケールアウトを実行する
    ことを特徴とする請求項3に記載のサーバ管理装置。
  5. 前記サーバ管理装置は、さらに、
    前記負荷情報収集部が過去に収集した負荷情報から複数のクラスタシステム間で負荷変動の類似度を導出する負荷変動類似度計算部を備え、
    前記構成変更判断部が、前記収集した負荷情報から仮想サーバを追加するスケールアウトの必要性を判断し、
    前記構成変更対象選択部が、前記判断でスケールアウトの必要性があるとき、前記導出した負荷変動の類似度が高いクラスタシステムを構成する仮想サーバがより多く存在する物理サーバを選択し、
    前記構成変更実行部が、前記選択した物理サーバをスケールアウト先と判断しスケールアウトを実行する
    ことを特徴とする請求項1に記載のサーバ管理装置。
  6. 前記サーバ管理装置は、さらに、
    前記構成変更実行部が構成変更した結果、前記物理サーバに対して仮想サーバが存在しないか判断し、仮想サーバが存在しないと判定したとき、物理サーバの電源切断を実行する物理サーバ電源制御部を有する
    ことを特徴とする請求項1に記載のサーバ管理装置。
  7. 前記構成変更実行部が、前記スケールインを実行したのちに、
    前記構成変更判断部は、稼働中の仮想サーバを移行することで物理サーバの電源を切断することができるか判断し、
    前記構成変更対象選択部は、前記切断の判断により物理サーバの電源を切断できるとき、1以上の仮想サーバを物理サーバ間で移行し、
    前記構成変更実行部は、移行元の物理サーバで稼働する仮想サーバが存在しないか判断し、
    前記物理サーバ電源制御部は、前記仮想サーバの存在の判断により稼働する仮想サーバが存在しないなら物理サーバの電源を切断する
    ことを特徴とする請求項6に記載のサーバ管理装置。
  8. 前記サーバ管理装置は、さらに、
    前記負荷情報収集部から収集した負荷情報からクラスタシステム毎に現在時刻における負荷が上昇傾向か下降傾向かの負荷変動を判断する負荷変動予測部を備え、
    前記負荷変動予測部は、
    負荷が下降傾向ならスケールインの可否判断を行う閾値を高く変更し、
    負荷が上昇傾向ならスケールインの可否判断を行う閾値を低く変更する
    ことを特徴とする請求項2に記載のサーバ管理装置。
  9. 前記構成情報収集部は、さらに、前記物理サーバが保持する未使用のコンピューティングリソース量を前記構成情報として収集し、
    前記構成変更判断部は、前記収集した未使用のコンピューティングリソース量に基づいて、仮想サーバに割当てる前記コンピューティングリソース量を増加させるスケールアップの可否を判断し、
    前記変更対象選択部は、前記判断によりスケールアップが可能のとき、当該仮想サーバをスケールアップし、
    前記構成変更実行部は、クライアントからのリクエストを、クラスタシステムを構成する仮想サーバ群に割振る負荷分散器を管理し、前記負荷分散器を制御することによりスケールアップを実行した仮想サーバへのリクエスト割り振り量をクラスタシステム内の他の仮想サーバより増加させる
    ことを特徴とする請求項5に記載のサーバ管理装置。
  10. 前記サーバ管理装置には、スケールインのときの最小の物理サーバ数を含む運用ポリシを記憶装置に記憶しており、
    前記構成変更対象選択部は、スケールインの実行のときに前記最小の物理サーバ数未満とならないように、停止対象の仮想サーバを選択し、
    前記停止対象の仮想サーバのスケールインを実行する
    ことを特徴とする請求項2に記載のサーバ管理装置。
  11. 前記構成情報収集部は、さらに、稼働する前記物理サーバの消費電力量を収集して前記構成情報として記憶しており、
    前記構成変更対象選択部は、スケールインのときに停止対象とする仮想サーバが稼働する物理サーバの消費電力量を前記構成情報から取得し、
    前記取得した消費電力量が多い方の物理サーバ上で稼働する仮想サーバをスケールインのときに停止対象とする仮想サーバと判断する
    ことを特徴とする請求項2に記載のサーバ管理装置。
  12. 前記構成情報収集部は、前記物理サーバが前記サーバ管理装置に登録される際にコンピューティングリソース量を含む前記構成情報を収集して記憶装置に登録し、
    前記構成変更判断部は、スケールアウト対象判断のときに、停止中物理サーバの前記コンピューティングリソース量を取得し、停止中物理サーバを含めてスケールアウト先を判断し、
    前記構成変更対象選択部は、前記判断により停止中物理サーバをスケールアウト先としたときに、停止中物理サーバをサーバ管理装置が起動し、
    前記構成変更実行部は、前記起動をした物理サーバ上で仮想サーバを起動しスケールアウトをする
    ことを特徴とする請求項5に記載のサーバ管理装置。
  13. 前記サーバ管理装置は、
    前記1以上の仮想サーバを物理サーバ間で移行する際に、前記クラスタシステムを構成する移行元の物理サーバで稼働する仮想サーバと移行先の物理サーバで停止状態の仮想サーバとの起動/停止操作において、
    移行先の物理サーバで停止状態である移行先の仮想サーバに対する起動を移行先の物理サーバに要求し、
    クライアントからのリクエストを割振る負荷分散器に、前記移行先の仮想サーバへのリクエストの割り振りの開始を要求し、
    前記負荷分散器に、前記移行元の仮想サーバへのリクエストの割り振りの停止を要求し、
    前記移行元の物理サーバで稼働する前記移行元の仮想サーバに対する停止を前記移行元の物理サーバに要求する、
    ことを特徴とする請求項7に記載のサーバ管理装置。
  14. 前記負荷変動類似度計算部は、
    前記負荷情報収集部から前記収集した負荷情報をクラスタシステム毎に取得し、
    前記クラスタシステムの負荷が増加する期間と減少する期間がより長く一致するクラスタシステム同士を、類似度の高いクラスタシステムと判定する
    ことを特徴とする請求項5に記載のサーバ管理装置。
  15. 前記負荷変動類似度計算部は、
    前記負荷情報収集部から前記収集した負荷情報に基づく過去の負荷変動のデータとそのときの稼働仮想サーバ数をクラスタシステム毎に取得し、
    前記クラスタシステムの稼働中の仮想サーバ数が一致する期間がより長いクラスタシステム同士を、類似度の高いクラスタシステムと判定する
    ことを特徴とする請求項14に記載のサーバ管理装置。
  16. 前記負荷変動類似度計算部は、
    前記クラスタシステムの稼働中の仮想サーバ数が多い期間より少ない期間が一致するクラスタシステム同士を、より類似度が高いと判定する
    ことを特徴とする請求項15に記載のサーバ管理装置。
  17. 前記負荷変動類似度計算部は、
    判定を実施する時間以降でより近い時間帯で稼働中の仮想サーバ数が一致するクラスタシステム同士をより類似していると判定する
    ことを特徴とする請求項15に記載のサーバ管理装置。
  18. 前記負荷変動類似度計算部は、
    抽出作業を実行する時期と同じ時期の負荷情報から負荷変動の類似度を抽出する
    ことを特徴とする請求項15に記載のサーバ管理装置。
  19. 前記負荷変動類似度計算部は、
    より近い過去の負荷変動の類似度がより高いと判断するように所定時間の過去に稼働中であった仮想サーバ数に重み付けする
    ことを特徴とする請求項15に記載のサーバ管理装置。
  20. 前記負荷変動予測部は、
    前記負荷情報収集部から前記収集した負荷情報に基づく負荷変動のデータを一定期間毎に区切ったデータをさらに一定期間毎に区切り、その期間内で上昇傾向か下降傾向かを算出し、
    前記算出した上昇傾向と下降傾向の数がともに所定値を上回れば不安定状態と判定する
    ことを特徴とする請求項8に記載のサーバ管理装置。
  21. 前記負荷変動予測部は、
    前記負荷情報収集部から前記収集した負荷情報に基づく負荷変動のデータを、より近い過去の負荷変動を大きくするとともに、より遠い過去の負荷変動を小さくするように加重平均する
    ことを特徴とする請求項8に記載のサーバ管理装置。
  22. 前記負荷変動予測部は、
    負荷変動傾向の予測を実行する時期と同じ時期の負荷情報から負荷変動傾向を予測する
    ことを特徴とする請求項8に記載のサーバ管理装置。
  23. 複数の仮想サーバを有する仮想サーバ群を稼働する物理サーバを含んでなる物理サーバ群を管理するサーバ管理装置を備え、前記物理サーバ群に配置された前記複数の仮想サーバを含んでなるクラスタシステムを運用する際に、前記仮想サーバ群の負荷状態により前記仮想サーバの配置状態を管理するサーバ管理方法であって、
    前記サーバ管理装置は、
    前記クラスタシステムを構成する仮想サーバ群の負荷情報を収集し、
    前記仮想サーバ群が前記物理サーバのどの物理サーバに割付けられているかを構成情報として収集し、
    前記収集した負荷情報から仮想サーバを停止するスケールインの可否を判断し、
    前記収集した構成情報から稼働する仮想サーバ数が最も少ない物理サーバを選択し、
    前記選択した物理サーバ上で稼働する仮想サーバをスケールイン実行後の停止対象として選択しスケールインを実行する
    ことを特徴とするサーバ管理方法。
  24. 前記サーバ管理装置は、さらに、
    前記収集した負荷情報から仮想サーバを追加するスケールアウトの必要性を判断し、
    前記判断でスケールアウトの必要性があるとき、前記収集した構成情報から稼働する仮想サーバ数が最も多い物理サーバを選択し、
    前記選択した物理サーバ上に仮想サーバを起動しスケールアウトを実行する
    ことを特徴とする請求項23に記載のサーバ管理方法。
  25. 前記サーバ管理装置は、さらに、
    過去に収集した負荷情報から複数のクラスタシステム間で負荷変動の類似度を導出し、
    前記収集した負荷情報から仮想サーバを追加するスケールアウトの必要性を判断し、
    前記判断でスケールアウトの必要性があるとき、前記導出した負荷変動の類似度が高いクラスタシステムを構成する仮想サーバがより多く存在する物理サーバを選択し、
    前記選択した物理サーバをスケールアウト先と判断しスケールアウトを実行する
    ことを特徴とする請求項23に記載のサーバ管理方法。
JP2009245035A 2009-10-26 2009-10-26 サーバ管理装置およびサーバ管理方法 Active JP5378946B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009245035A JP5378946B2 (ja) 2009-10-26 2009-10-26 サーバ管理装置およびサーバ管理方法
US12/708,150 US8286165B2 (en) 2009-10-26 2010-02-18 Server management apparatus and server management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009245035A JP5378946B2 (ja) 2009-10-26 2009-10-26 サーバ管理装置およびサーバ管理方法

Publications (2)

Publication Number Publication Date
JP2011090594A true JP2011090594A (ja) 2011-05-06
JP5378946B2 JP5378946B2 (ja) 2013-12-25

Family

ID=43899391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009245035A Active JP5378946B2 (ja) 2009-10-26 2009-10-26 サーバ管理装置およびサーバ管理方法

Country Status (2)

Country Link
US (1) US8286165B2 (ja)
JP (1) JP5378946B2 (ja)

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012198724A (ja) * 2011-03-18 2012-10-18 Fujitsu Ltd 情報処理プログラム及び方法、転送処理装置
JP2012238174A (ja) * 2011-05-11 2012-12-06 Canon Inc システム管理サーバ、管理方法及びプログラム
WO2013042615A1 (ja) * 2011-09-22 2013-03-28 富士通株式会社 電子計算機システム及び仮想マシン配置方法
WO2013051056A1 (en) 2011-10-04 2013-04-11 Hitachi, Ltd. Multi-client storage system and storage system management method
JP2013080346A (ja) * 2011-10-03 2013-05-02 Daiwa Securities Group Inc 情報処理装置、保守作業支援方法および保守作業支援用プログラム
WO2013084332A1 (ja) * 2011-12-08 2013-06-13 株式会社日立製作所 仮想計算機の制御方法及び仮想計算機システム
WO2013102975A1 (ja) * 2012-01-06 2013-07-11 日本電気株式会社 仮想マシン管理装置及び仮想マシン管理方法
JP2013156996A (ja) * 2012-01-31 2013-08-15 Vmware Inc ソフトウェア・アプリケーションに対するコンピューティング資源の伸縮割当て
JP2013168140A (ja) * 2012-02-16 2013-08-29 Hon Hai Precision Industry Co Ltd バーチャルマシンの配置方法
JP2013225204A (ja) * 2012-04-20 2013-10-31 Fujitsu Frontech Ltd トラフィック量予測に基づき、稼働サーバ台数を自動で最適化する負荷分散方法及び装置
KR101351688B1 (ko) 2009-06-01 2014-01-14 후지쯔 가부시끼가이샤 서버 관리 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체, 관리 서버, 가상 서버 배치 방법
JP2014006619A (ja) * 2012-06-22 2014-01-16 Fujitsu Ltd 携帯端末装置の制御方法、制御プログラム及び携帯端末装置
KR20140111671A (ko) * 2012-01-09 2014-09-19 마이크로소프트 코포레이션 가상 머신 풀 내의 리소스의 할당 기법
JP2015513333A (ja) * 2012-04-04 2015-05-07 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. マイグレーションによるデータベースの作業負荷バランシング
JP2015194958A (ja) * 2014-03-31 2015-11-05 富士通株式会社 情報処理装置、スケール管理方法およびプログラム
US9235439B2 (en) 2012-03-19 2016-01-12 Fujitsu Limited Management server, patch scheduling method, and recording medium
US9244718B2 (en) 2012-09-19 2016-01-26 Nec Corporation Virtual machine resource allocation based on connection time coverage exceeding a minimum threshold
CN105426284A (zh) * 2014-09-12 2016-03-23 日本电气株式会社 监视设备、服务器、监视系统、监视方法和程序记录介质
JP2016045682A (ja) * 2014-08-22 2016-04-04 日本電信電話株式会社 サーバ
KR20160067180A (ko) * 2013-10-11 2016-06-13 브이엠웨어, 인코포레이티드 가상 머신들을 관리하는 장치 및 방법
JP2016526735A (ja) * 2013-08-23 2016-09-05 ヴイエムウェア インコーポレイテッドVMware,Inc. 仮想ハドゥープマネジャ
WO2016178316A1 (ja) * 2015-05-07 2016-11-10 日本電気株式会社 計算機調達予測装置、計算機調達予測方法、及び、プログラム
JP2016220291A (ja) * 2015-05-14 2016-12-22 株式会社Nttファシリティーズ 給電システム、給電方法およびサーバ
WO2017006384A1 (ja) * 2015-07-03 2017-01-12 富士通株式会社 仮想マシン管理プログラム,仮想マシン管理装置および仮想マシン管理方法
JP2017041185A (ja) * 2015-08-21 2017-02-23 日本電信電話株式会社 管理サーバ装置及び管理プログラム
JP2017083935A (ja) * 2015-10-23 2017-05-18 日本電気株式会社 情報処理装置、クラスタシステム、クラスタリング方法、及びプログラム
JP2018018275A (ja) * 2016-07-27 2018-02-01 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2018504665A (ja) * 2014-12-19 2018-02-15 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 電力管理のための論理的にパーティション化された環境のイベント駆動型再最適化
US9910709B2 (en) 2014-03-20 2018-03-06 Fujitsu Limited Allocation control method and apparatus
JP2018097837A (ja) * 2016-12-13 2018-06-21 キヤノン株式会社 サービスシステム、その制御方法、およびそのプログラム
JP2018160197A (ja) * 2017-03-24 2018-10-11 東日本旅客鉄道株式会社 情報処理装置
US10379902B2 (en) 2016-11-14 2019-08-13 Fujitsu Limited Information processing device for aggregating load information, information processing system for aggregating load information, and non-transitory computer-readable storage medium recording program for aggregating load information
WO2020158452A1 (ja) * 2019-01-29 2020-08-06 日本電信電話株式会社 仮想化基盤および仮想化基盤のスケーリング管理方法
JP2021504780A (ja) * 2017-11-21 2021-02-15 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 分散コンピューティング環境における自動対角スケーリングためのアプリケーションの優先順位付け
JP2021522578A (ja) * 2018-05-01 2021-08-30 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation モノのインターネット(IoT)ネットワーク内で接続された複数のリソースを最適化するための方法、コンピュータ・システムおよびプログラム
JP7103705B1 (ja) 2021-12-21 2022-07-20 北京穿楊科技有限公司 クラスタに基づく容量縮小処理方法及び装置
JP2023089891A (ja) * 2021-12-16 2023-06-28 北京穿楊科技有限公司 クラスタの容量拡張方法及び装置
WO2024121897A1 (ja) * 2022-12-05 2024-06-13 日本電信電話株式会社 サービス提供装置、レプリカ数決定方法、及びプログラム

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7675854B2 (en) 2006-02-21 2010-03-09 A10 Networks, Inc. System and method for an adaptive TCP SYN cookie with time validation
US8312507B2 (en) 2006-10-17 2012-11-13 A10 Networks, Inc. System and method to apply network traffic policy to an application session
US8584199B1 (en) 2006-10-17 2013-11-12 A10 Networks, Inc. System and method to apply a packet routing policy to an application session
US8560677B2 (en) 2009-02-13 2013-10-15 Schneider Electric It Corporation Data center control
US9519517B2 (en) 2009-02-13 2016-12-13 Schneider Electtic It Corporation Data center control
US9778718B2 (en) * 2009-02-13 2017-10-03 Schneider Electric It Corporation Power supply and data center control
US9960967B2 (en) 2009-10-21 2018-05-01 A10 Networks, Inc. Determining an application delivery server based on geo-location information
WO2011054148A1 (zh) * 2009-11-06 2011-05-12 华为技术有限公司 一种资源配置方法和装置
US8874744B2 (en) 2010-02-03 2014-10-28 Vmware, Inc. System and method for automatically optimizing capacity between server clusters
US9122538B2 (en) * 2010-02-22 2015-09-01 Virtustream, Inc. Methods and apparatus related to management of unit-based virtual resources within a data center environment
US8745204B2 (en) * 2010-03-12 2014-06-03 Cisco Technology, Inc. Minimizing latency in live virtual server migration
US8443367B1 (en) * 2010-07-16 2013-05-14 Vmware, Inc. Federated management in a distributed environment
US8464104B2 (en) * 2010-09-10 2013-06-11 International Business Machines Corporation Mobility of versioned workload partitions
US9215275B2 (en) 2010-09-30 2015-12-15 A10 Networks, Inc. System and method to balance servers based on server load status
US8983536B2 (en) 2010-10-22 2015-03-17 Google Technology Holdings LLC Resource management in a multi-operating environment
US8924539B2 (en) * 2010-11-24 2014-12-30 Red Hat, Inc. Combinatorial optimization of multiple resources across a set of cloud-based networks
US9442771B2 (en) 2010-11-24 2016-09-13 Red Hat, Inc. Generating configurable subscription parameters
US9563479B2 (en) * 2010-11-30 2017-02-07 Red Hat, Inc. Brokering optimized resource supply costs in host cloud-based network using predictive workloads
US9609052B2 (en) 2010-12-02 2017-03-28 A10 Networks, Inc. Distributing application traffic to servers based on dynamic service response time
US8626902B2 (en) * 2010-12-03 2014-01-07 International Business Machines Corporation Modeling and reducing power consumption in large IT systems
US8909785B2 (en) * 2011-08-08 2014-12-09 International Business Machines Corporation Smart cloud workload balancer
JP5342615B2 (ja) * 2011-08-15 2013-11-13 株式会社日立システムズ 仮想サーバ制御システム及びプログラム
WO2013042269A1 (ja) * 2011-09-22 2013-03-28 富士通株式会社 電源管理装置、電源管理方法および電源管理プログラム
US8897154B2 (en) 2011-10-24 2014-11-25 A10 Networks, Inc. Combining stateless and stateful server load balancing
JP5785050B2 (ja) * 2011-10-27 2015-09-24 株式会社日立製作所 情報処理システム、その省電力制御方法、及び装置
TWI533146B (zh) * 2011-11-10 2016-05-11 財團法人資訊工業策進會 虛擬資源調整裝置、方法及儲存其之電腦可讀取紀錄媒體
JP5603318B2 (ja) * 2011-12-22 2014-10-08 株式会社日立製作所 電力需要調整システム、装置、および方法
AU2011384034A1 (en) 2011-12-22 2014-07-10 Schneider Electric It Corporation Systems and methods for reducing energy storage requirements in a data center
US9094364B2 (en) 2011-12-23 2015-07-28 A10 Networks, Inc. Methods to manage services over a service gateway
KR101696698B1 (ko) * 2011-12-23 2017-01-17 한국전자통신연구원 상호 의존 관계가 있는 컴포넌트 분배 및 관리 방법
US10044582B2 (en) 2012-01-28 2018-08-07 A10 Networks, Inc. Generating secure name records
US9396041B2 (en) 2012-02-01 2016-07-19 Google Technology Holdings LLC Optimization of resource usage in a multi-environment computing system
US9118618B2 (en) 2012-03-29 2015-08-25 A10 Networks, Inc. Hardware-based packet editor
JP5976842B2 (ja) * 2012-04-23 2016-08-24 株式会社日立製作所 計算機システム、及び、計算機システムの仮想サーバ移行制御方法
KR20150031225A (ko) * 2012-06-22 2015-03-23 엘지전자 주식회사 무선 통신 시스템에서 서버를 활성화 또는 비활성화하기 위한 방법 및 장치
US9398092B1 (en) * 2012-09-25 2016-07-19 Emc Corporation Federated restore of cluster shared volumes
WO2014052099A2 (en) 2012-09-25 2014-04-03 A10 Networks, Inc. Load distribution in data networks
US9843484B2 (en) 2012-09-25 2017-12-12 A10 Networks, Inc. Graceful scaling in software driven networks
US10021174B2 (en) 2012-09-25 2018-07-10 A10 Networks, Inc. Distributing service sessions
CN103793276A (zh) * 2012-10-31 2014-05-14 英业达科技有限公司 负载预测方法与电子装置
US9338225B2 (en) 2012-12-06 2016-05-10 A10 Networks, Inc. Forwarding policies on a virtual service network
JPWO2014091734A1 (ja) * 2012-12-14 2017-01-05 日本電気株式会社 システム構築装置、及び、システム構築方法
US9531846B2 (en) 2013-01-23 2016-12-27 A10 Networks, Inc. Reducing buffer usage for TCP proxy session based on delayed acknowledgement
US9571350B2 (en) 2013-01-23 2017-02-14 International Business Machines Corporation Network element diagnostic evaluation
US9900252B2 (en) 2013-03-08 2018-02-20 A10 Networks, Inc. Application delivery controller and global server load balancer
US9628399B2 (en) * 2013-03-14 2017-04-18 International Business Machines Corporation Software product instance placement
US9992107B2 (en) 2013-03-15 2018-06-05 A10 Networks, Inc. Processing data packets using a policy based network path
US20140278807A1 (en) * 2013-03-15 2014-09-18 Cloudamize, Inc. Cloud service optimization for cost, performance and configuration
WO2014179753A2 (en) 2013-05-03 2014-11-06 A10 Networks, Inc. Facilitating secure network traffic by an application delivery controller
CN103428008B (zh) * 2013-08-28 2016-08-10 浙江大学 面向多用户群的大数据分发方法
IN2013CH05013A (ja) 2013-11-07 2015-05-08 Schneider Electric It Corp
US10230770B2 (en) 2013-12-02 2019-03-12 A10 Networks, Inc. Network proxy layer for policy-based application proxies
US9495238B2 (en) 2013-12-13 2016-11-15 International Business Machines Corporation Fractional reserve high availability using cloud command interception
US9246840B2 (en) 2013-12-13 2016-01-26 International Business Machines Corporation Dynamically move heterogeneous cloud resources based on workload analysis
US9942152B2 (en) 2014-03-25 2018-04-10 A10 Networks, Inc. Forwarding data packets using a service-based forwarding policy
US9942162B2 (en) 2014-03-31 2018-04-10 A10 Networks, Inc. Active application response delay time
US9722945B2 (en) * 2014-03-31 2017-08-01 Microsoft Technology Licensing, Llc Dynamically identifying target capacity when scaling cloud resources
US9842039B2 (en) 2014-03-31 2017-12-12 Microsoft Technology Licensing, Llc Predictive load scaling for services
US9632840B2 (en) * 2014-04-22 2017-04-25 International Business Machines Corporation Load balancing with granularly redistributable workloads
US9906422B2 (en) 2014-05-16 2018-02-27 A10 Networks, Inc. Distributed system to determine a server's health
US10129122B2 (en) 2014-06-03 2018-11-13 A10 Networks, Inc. User defined objects for network devices
US9986061B2 (en) 2014-06-03 2018-05-29 A10 Networks, Inc. Programming a data network device using user defined scripts
US9992229B2 (en) 2014-06-03 2018-06-05 A10 Networks, Inc. Programming a data network device using user defined scripts with licenses
US10097410B2 (en) 2014-06-26 2018-10-09 Vmware, Inc. Methods and apparatus to scale application deployments in cloud computing environments
US10268467B2 (en) 2014-11-11 2019-04-23 A10 Networks, Inc. Policy-driven management of application traffic for providing services to cloud-based applications
US9848041B2 (en) 2015-05-01 2017-12-19 Amazon Technologies, Inc. Automatic scaling of resource instance groups within compute clusters
US9838332B1 (en) * 2015-06-30 2017-12-05 Spanning Cloud Apps Llc Dynamically meeting slas without provisioning static capacity
US10581976B2 (en) 2015-08-12 2020-03-03 A10 Networks, Inc. Transmission control of protocol state exchange for dynamic stateful service insertion
US10243791B2 (en) 2015-08-13 2019-03-26 A10 Networks, Inc. Automated adjustment of subscriber policies
US20170212705A1 (en) * 2016-01-26 2017-07-27 Netapp, Inc. Dynamic Weighting for Distributed Parity Device Layouts
CN107026900B (zh) 2017-03-06 2020-02-14 浙江大华技术股份有限公司 一种拍摄任务分配方法及装置
CN110019503A (zh) * 2017-09-01 2019-07-16 北京京东尚科信息技术有限公司 Redis集群的扩容和/或缩容的方法及装置
CN110881058B (zh) * 2018-09-06 2022-04-12 阿里巴巴集团控股有限公司 请求调度方法、装置、服务器及存储介质
CN110198356A (zh) * 2019-06-10 2019-09-03 莫毓昌 一种基于混合云的用户请求调度机制
US11704617B2 (en) * 2019-06-20 2023-07-18 Stripe, Inc. Systems and methods for modeling and analysis of infrastructure services provided by cloud services provider systems
US11748173B2 (en) * 2019-07-19 2023-09-05 Ricoh Company, Ltd. Information processing system, information processing method, and storage medium for controlling virtual server that executes program
US11481262B1 (en) 2020-06-25 2022-10-25 Amazon Technologies, Inc. Rapid autoscaling with preinitialized instance quantity based on historical scale up rate
US11520638B1 (en) * 2020-06-25 2022-12-06 Amazon Technologies, Inc. Combined active and preinitialized resource management for rapid autoscaling
JP7222487B2 (ja) 2020-08-13 2023-02-15 日本電気株式会社 情報処理システム、情報処理方法およびインフラ
CN112433815A (zh) * 2020-11-24 2021-03-02 中国科学院深圳先进技术研究院 一种基于容器管制的云数据中心节能方法及系统
US11895181B2 (en) * 2020-12-04 2024-02-06 Schneider Electric It Corporation Power optimization of microserver loads
US20220414577A1 (en) * 2021-06-28 2022-12-29 Dell Products L.P. System and method for performance-centric workload placement in a hybrid cloud environment
US11736348B2 (en) 2021-06-28 2023-08-22 Dell Products L.P. System and method for network services based functionality provisioning in a VDI environment
WO2023272726A1 (zh) * 2021-07-02 2023-01-05 深圳先进技术研究院 云服务器集群负载调度方法、系统、终端以及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310791A (ja) * 2006-05-22 2007-11-29 Hitachi Ltd 計算機システムの消費電力低減方法、及びそのプログラム
WO2008146677A1 (ja) * 2007-05-24 2008-12-04 Nec Corporation 仮想マシン管理装置、仮想マシン管理方法および仮想マシン管理プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050060590A1 (en) 2003-09-16 2005-03-17 International Business Machines Corporation Power-aware workload balancing usig virtual machines

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310791A (ja) * 2006-05-22 2007-11-29 Hitachi Ltd 計算機システムの消費電力低減方法、及びそのプログラム
WO2008146677A1 (ja) * 2007-05-24 2008-12-04 Nec Corporation 仮想マシン管理装置、仮想マシン管理方法および仮想マシン管理プログラム

Cited By (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101351688B1 (ko) 2009-06-01 2014-01-14 후지쯔 가부시끼가이샤 서버 관리 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체, 관리 서버, 가상 서버 배치 방법
JP2012198724A (ja) * 2011-03-18 2012-10-18 Fujitsu Ltd 情報処理プログラム及び方法、転送処理装置
JP2012238174A (ja) * 2011-05-11 2012-12-06 Canon Inc システム管理サーバ、管理方法及びプログラム
WO2013042615A1 (ja) * 2011-09-22 2013-03-28 富士通株式会社 電子計算機システム及び仮想マシン配置方法
US9733986B2 (en) 2011-09-22 2017-08-15 Fujitsu Limited Computer system and virtual machine arranging method
JP2013080346A (ja) * 2011-10-03 2013-05-02 Daiwa Securities Group Inc 情報処理装置、保守作業支援方法および保守作業支援用プログラム
WO2013051056A1 (en) 2011-10-04 2013-04-11 Hitachi, Ltd. Multi-client storage system and storage system management method
US8751657B2 (en) 2011-10-04 2014-06-10 Hitachi, Ltd. Multi-client storage system and storage system management method
WO2013084332A1 (ja) * 2011-12-08 2013-06-13 株式会社日立製作所 仮想計算機の制御方法及び仮想計算機システム
JPWO2013084332A1 (ja) * 2011-12-08 2015-04-27 株式会社日立製作所 仮想計算機の制御方法及び仮想計算機システム
US9223604B2 (en) 2011-12-08 2015-12-29 Hitachi, Ltd. Control method of virtual machine and virtual machine system
WO2013102975A1 (ja) * 2012-01-06 2013-07-11 日本電気株式会社 仮想マシン管理装置及び仮想マシン管理方法
US10241812B2 (en) 2012-01-09 2019-03-26 Microsoft Technology Licensing, Llc Assignment of resources in virtual machine pools
KR102005595B1 (ko) 2012-01-09 2019-07-30 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 가상 머신 풀 내의 리소스의 할당 기법
KR20140111671A (ko) * 2012-01-09 2014-09-19 마이크로소프트 코포레이션 가상 머신 풀 내의 리소스의 할당 기법
JP2015507281A (ja) * 2012-01-09 2015-03-05 マイクロソフト コーポレーション 仮想マシンプールにおけるリソースの割り当て
JP2018055707A (ja) * 2012-01-09 2018-04-05 マイクロソフト テクノロジー ライセンシング,エルエルシー 仮想マシンプールにおけるリソースの割り当て
JP2013156996A (ja) * 2012-01-31 2013-08-15 Vmware Inc ソフトウェア・アプリケーションに対するコンピューティング資源の伸縮割当て
JP2013168140A (ja) * 2012-02-16 2013-08-29 Hon Hai Precision Industry Co Ltd バーチャルマシンの配置方法
US9235439B2 (en) 2012-03-19 2016-01-12 Fujitsu Limited Management server, patch scheduling method, and recording medium
JP2015513333A (ja) * 2012-04-04 2015-05-07 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. マイグレーションによるデータベースの作業負荷バランシング
JP2013225204A (ja) * 2012-04-20 2013-10-31 Fujitsu Frontech Ltd トラフィック量予測に基づき、稼働サーバ台数を自動で最適化する負荷分散方法及び装置
JP2014006619A (ja) * 2012-06-22 2014-01-16 Fujitsu Ltd 携帯端末装置の制御方法、制御プログラム及び携帯端末装置
US9244718B2 (en) 2012-09-19 2016-01-26 Nec Corporation Virtual machine resource allocation based on connection time coverage exceeding a minimum threshold
JP2016526735A (ja) * 2013-08-23 2016-09-05 ヴイエムウェア インコーポレイテッドVMware,Inc. 仮想ハドゥープマネジャ
KR102277715B1 (ko) 2013-10-11 2021-07-15 브이엠웨어, 인코포레이티드 가상 머신들을 관리하는 장치 및 방법
KR20160067180A (ko) * 2013-10-11 2016-06-13 브이엠웨어, 인코포레이티드 가상 머신들을 관리하는 장치 및 방법
US9910709B2 (en) 2014-03-20 2018-03-06 Fujitsu Limited Allocation control method and apparatus
JP2015194958A (ja) * 2014-03-31 2015-11-05 富士通株式会社 情報処理装置、スケール管理方法およびプログラム
JP2016045682A (ja) * 2014-08-22 2016-04-04 日本電信電話株式会社 サーバ
CN105426284A (zh) * 2014-09-12 2016-03-23 日本电气株式会社 监视设备、服务器、监视系统、监视方法和程序记录介质
JP2018504665A (ja) * 2014-12-19 2018-02-15 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 電力管理のための論理的にパーティション化された環境のイベント駆動型再最適化
US10664040B2 (en) 2014-12-19 2020-05-26 International Business Machines Corporation Event-driven reoptimization of logically-partitioned environment for power management
WO2016178316A1 (ja) * 2015-05-07 2016-11-10 日本電気株式会社 計算機調達予測装置、計算機調達予測方法、及び、プログラム
JP2016220291A (ja) * 2015-05-14 2016-12-22 株式会社Nttファシリティーズ 給電システム、給電方法およびサーバ
WO2017006384A1 (ja) * 2015-07-03 2017-01-12 富士通株式会社 仮想マシン管理プログラム,仮想マシン管理装置および仮想マシン管理方法
US10817322B2 (en) 2015-07-03 2020-10-27 Fujitsu Limited Virtual machine management apparatus and virtual machine management method
JPWO2017006384A1 (ja) * 2015-07-03 2018-04-19 富士通株式会社 仮想マシン管理プログラム,仮想マシン管理装置および仮想マシン管理方法
JP2017041185A (ja) * 2015-08-21 2017-02-23 日本電信電話株式会社 管理サーバ装置及び管理プログラム
JP2017083935A (ja) * 2015-10-23 2017-05-18 日本電気株式会社 情報処理装置、クラスタシステム、クラスタリング方法、及びプログラム
JP2018018275A (ja) * 2016-07-27 2018-02-01 富士ゼロックス株式会社 情報処理装置及びプログラム
US10379902B2 (en) 2016-11-14 2019-08-13 Fujitsu Limited Information processing device for aggregating load information, information processing system for aggregating load information, and non-transitory computer-readable storage medium recording program for aggregating load information
CN108228346A (zh) * 2016-12-13 2018-06-29 佳能株式会社 服务系统及其控制方法
JP2018097837A (ja) * 2016-12-13 2018-06-21 キヤノン株式会社 サービスシステム、その制御方法、およびそのプログラム
US11303546B2 (en) 2016-12-13 2022-04-12 Canon Kabushiki Kaisha Service system and control method of the same
JP2018160197A (ja) * 2017-03-24 2018-10-11 東日本旅客鉄道株式会社 情報処理装置
JP7119082B2 (ja) 2017-11-21 2022-08-16 インターナショナル・ビジネス・マシーンズ・コーポレーション 分散コンピューティング環境における自動対角スケーリングためのアプリケーションの優先順位付け
JP2021504780A (ja) * 2017-11-21 2021-02-15 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 分散コンピューティング環境における自動対角スケーリングためのアプリケーションの優先順位付け
JP2021522578A (ja) * 2018-05-01 2021-08-30 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation モノのインターネット(IoT)ネットワーク内で接続された複数のリソースを最適化するための方法、コンピュータ・システムおよびプログラム
JP7198288B2 (ja) 2018-05-01 2022-12-28 キンドリル・インク モノのインターネット(IoT)ネットワーク内で接続された複数のリソースを最適化するための方法、コンピュータ・システムおよびプログラム
JP2020123003A (ja) * 2019-01-29 2020-08-13 日本電信電話株式会社 仮想化基盤および仮想化基盤のスケーリング管理方法
WO2020158452A1 (ja) * 2019-01-29 2020-08-06 日本電信電話株式会社 仮想化基盤および仮想化基盤のスケーリング管理方法
JP7159887B2 (ja) 2019-01-29 2022-10-25 日本電信電話株式会社 仮想化基盤および仮想化基盤のスケーリング管理方法
US12001875B2 (en) 2019-01-29 2024-06-04 Nippon Telegraph And Telephone Corporation Virtualization platform and virtualization platform scaling management method
JP2023089891A (ja) * 2021-12-16 2023-06-28 北京穿楊科技有限公司 クラスタの容量拡張方法及び装置
JP7103705B1 (ja) 2021-12-21 2022-07-20 北京穿楊科技有限公司 クラスタに基づく容量縮小処理方法及び装置
JP2023092413A (ja) * 2021-12-21 2023-07-03 北京穿楊科技有限公司 クラスタに基づく容量縮小処理方法及び装置
WO2024121897A1 (ja) * 2022-12-05 2024-06-13 日本電信電話株式会社 サービス提供装置、レプリカ数決定方法、及びプログラム

Also Published As

Publication number Publication date
JP5378946B2 (ja) 2013-12-25
US8286165B2 (en) 2012-10-09
US20110099403A1 (en) 2011-04-28

Similar Documents

Publication Publication Date Title
JP5378946B2 (ja) サーバ管理装置およびサーバ管理方法
CN107273185B (zh) 一种基于虚拟机的负载均衡控制方法
Esfandiarpoor et al. Structure-aware online virtual machine consolidation for datacenter energy improvement in cloud computing
Rajguru et al. A comparative performance analysis of load balancing algorithms in distributed system using qualitative parameters
Jung et al. Synchronous parallel processing of big-data analytics services to optimize performance in federated clouds
Sreenivas et al. Load balancing techniques: Major challenge in Cloud Computing-a systematic review
Ramezani et al. A multi-objective load balancing system for cloud environments
KR20130019698A (ko) 사용자 스케줄러와 마이그레이션(Migration)을 통한 자원 최적화 방법 및 시스템
Mosa et al. Virtual machine consolidation for cloud data centers using parameter-based adaptive allocation
CN106681839A (zh) 弹性计算动态分配方法
Elsharkawey et al. Mlrts: multi-level real-time scheduling algorithm for load balancing in fog computing environment
Babu et al. Interference aware prediction mechanism for auto scaling in cloud
Keerthika et al. A multiconstrained grid scheduling algorithm with load balancing and fault tolerance
CN107168805A (zh) 一种基于虚拟机的资源调度方法
Rani et al. State-of-the-art dynamic load balancing algorithms for cloud computing
Jaiswal et al. An approach towards the dynamic load management techniques in cloud computing environment
Mazrekaj et al. Distributed resource allocation in cloud computing using multi-agent systems
Gayathri Green cloud computing
Ramezani et al. Task scheduling in cloud environments: A survey of population‐based evolutionary algorithms
Tiwari et al. A review on load balancing of virtual machine resources in cloud computing
Ashalatha et al. Dynamic load balancing methods for resource optimization in cloud computing environment
Kella et al. VM Live Migration Algorithm Based on Stable Matching Model to Improve Energy Consumption and Quality of Service.
Yoon et al. Optimal dataset allocation in distributed heterogeneous clouds
Paya et al. Energy-aware load balancing policies for the cloud ecosystem
KR20200102011A (ko) 가상화 기반 고가용성 클러스터의 라이브 마이그레이션 최소화 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130723

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130926

R150 Certificate of patent or registration of utility model

Ref document number: 5378946

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150