JP2012032877A - 情報処理装置を管理するプログラム、管理方法および管理装置 - Google Patents

情報処理装置を管理するプログラム、管理方法および管理装置 Download PDF

Info

Publication number
JP2012032877A
JP2012032877A JP2010169683A JP2010169683A JP2012032877A JP 2012032877 A JP2012032877 A JP 2012032877A JP 2010169683 A JP2010169683 A JP 2010169683A JP 2010169683 A JP2010169683 A JP 2010169683A JP 2012032877 A JP2012032877 A JP 2012032877A
Authority
JP
Japan
Prior art keywords
server
information processing
processing apparatus
information
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010169683A
Other languages
English (en)
Inventor
Koji Sugai
浩二 菅井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010169683A priority Critical patent/JP2012032877A/ja
Priority to US13/181,674 priority patent/US8694679B2/en
Publication of JP2012032877A publication Critical patent/JP2012032877A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer And Data Communications (AREA)
  • Debugging And Monitoring (AREA)

Abstract

【課題】割当てられた資源に見合う性能を仮想機械が発揮するように情報処理装置を管理する。
【解決手段】第1の情報処理装置510と該第1の情報処理装置510が提供している仮想機械の属性情報との対応関係と、第2の情報処理装置520と該第2の情報処理装置520が提供している仮想機械の属性情報との対応関係とを記憶する記憶部531を参照し、前記第1の情報処理装置510が提供している仮想機械のうち、配置対象の仮想機械の属性と同じ属性の仮想機械の数が、前記第2の情報処理装置520が提供している仮想機械のうち、該配置対象の仮想機械の属性と同じ属性の仮想機械の数よりも少ないことが検出された場合に、前記第1の情報処理装置510に、該配置対象の仮想機械を配置する処理を管理装置530に実行させる。
【選択図】図5

Description

本発明は、VM(Virtual Machine;仮想機械)を提供する情報処理装置を管理するプログラム、管理方法および管理装置に関する。
従来、クラウドコンピューティングやシンクライアントなどに、VMを提供するサーバが利用されている。
VMには、仮想的に所定の性能の資源、例えば、CPU(Central Processing Unit)やメモリなどが割当てられている。しかし、実際にVMが使用する資源量は、VM上で動作するソフトウェア、例えば、OS(Operating System)やOS上で動作する業務用アプリケーションなどの使用状況により変化する。
そこで、例えば、サーバが備える資源のうちVMが実際に使用できる資源の割合の範囲が設定される。この資源の割合の範囲を「使用率レンジ」という。そして、各VMが実際に使用する資源が、使用率レンジの範囲となるように、サーバ間でVMの移動が行われる。また、必要に応じて、サーバが起動または停止され、稼働するサーバの数が調整される。
例えば、VMが実際に使用している資源の使用率が使用率レンジを下回る場合、一部のサーバにVMが集められ、その他のサーバが停止される。また、VMが実際に使用している資源の使用率が使用率レンジを上回る場合、新たにサーバが起動される。そして、起動したサーバにVMを移動するマイグレーションが実行される。
例えば、動作周波数1GHz相当のCPUが仮想的に割当てられたVMを6台動作させる情報処理システム100を考える。図1に、動作周波数1GHz相当のCPUが仮想的に割当てられたVM1−VM6のCPUの使用率について模式的に示す。図1に示す使用率101は、VM1が、動作周波数1GHz相当のCPUを40%の使用率で動作させていることを示している。同様に、使用率102、103、104、105および106は、それぞれVM2、VM3、VM4、VM5およびVM6が、動作周波数1GHz相当のCPUを40%の使用率で動作させていることを示している。
図1に示した使用率の情報処理システム100は、動作周波数2GHzのCPUを有する、3台のサーバを用いて実現することができる。この場合のCPUの使用率を図2に模式的に示す。
なお、図1との比較を容易にするために、図2に示す使用率201−203は、動作周波数1GHzのCPUの使用率を基準にしている。動作周波数が2GHzの場合、動作周波数1GHzの場合と比べて2倍の動作周波数となるので、サーバ1−3の最大使用率は200%となっている。図3に示す使用率301−302および図4に示す使用率401−403についても同様である。
図2に示すように、VM1とVM2をサーバ1で動作させ、VM3とVM4をサーバ2で動作させ、VM5とVM6をサーバ3で動作させることにより、図1に示した情報処理システム100を実現することができる。このときのサーバ1、2および3のCPUの使用率201、202および203は、40%(=(40%+40%)÷200%×100)となる。
また、サーバ2で動作しているVM3をサーバ1に移動し、サーバ3で動作しているVM5およびVM6をサーバ2に移動することにより、図2に示した情報処理システム100は、2台のサーバ1および2を用いて実現することもできる。この場合、サーバ3を停止することができる。この場合のCPUの使用率を図3に模式的に示す。
また、図3に示したサーバ1上で動作するVM1およびVM2の使用率が同時に80%まで上昇した場合、図3に示したサーバ1が有するCPUの使用率は200%となる。この場合、再度停止していたサーバ3を起動してVM2をサーバ3に移動することにより、図2に示した情報処理システム100は、3台のサーバ1−3を用いて実現することができる。この場合のCPUの使用率を図4に模式的に示す。
以上のような処理を行って、サーバ1−3が有するCPUの使用率を一定の範囲となるように調整することにより、稼働するサーバ数を減らして電気代などのコストを削減することが知られている。
上記技術に関連して、複数の仮想計算機に所望の割合でCPU資源を配分して仮想計算機を走行させる仮想計算機システムにおいて、CPU配分が不均等であっても、指定したCPU資源の配分比を維持して実CPUの有効利用を図るCPU制御方式が知られている。
また、実資源の使用状況に応じて効果的に計算機システム全体の電力消費量の低減を図る情報処理装置が知られている。
また、データセンタにおいて、ユーザ企業ごとに夫々独立な計算資源を割当て、負荷に応じてその割当てを自動的にリアルタイムに変更する計算機資源分割装置が知られている。
特開平05−324361号公報 特開平09−179667号公報 特開2002−024192号公報
しかし、使用率レンジを低く設定すると、稼働するサーバの台数をあまり減らすことができないため、コスト削減効果が小さい。また、使用率レンジを高く設定すると、サーバに未使用の資源が少なくなる。この場合、VMが使用する資源が急に増加すると、他のVMが使用できる資源が不足する。そのため、VMに割当てた資源、例えば、CPUやメモリなどに見合う性能を得ることができなくなる。一定の品質を保証するSLA(Service Level Agreement)が導入されている場合には、SLA違反となる可能性がある。
本プログラムは、上述した問題に鑑みてなされたものであり、その解決しようとする課題は、割当てられた資源に見合う性能を仮想機械が発揮するように情報処理装置を管理することである。
本プログラムの1つの観点によれば、本プログラムは、以下の処理を、仮想機械を提供する複数の情報処理装置を管理する管理装置に実行させる。
管理装置は、第1の情報処理装置と該第1の情報処理装置が提供している仮想機械の属性情報との対応関係と、第2の情報処理装置と該第2の情報処理装置が提供している仮想機械の属性情報との対応関係とを記憶する記憶部を参照する。
そして、管理装置は、前記第1の情報処理装置が提供している仮想機械のうち、配置対象の仮想機械の属性と同じ属性の仮想機械の数が、前記第2の情報処理装置が提供している仮想機械のうち、該配置対象の仮想機械の属性と同じ属性の仮想機械の数よりも少ないことが検出する。この場合、管理装置は、前記第1の情報処理装置に、該配置対象の仮想機械を配置する。
本プログラムによると、割当てられた資源に見合う性能を仮想機械が発揮するように情報処理装置を管理することができる。
動作周波数1GHz相当のCPUが仮想的に割当てられたVM1−VM6のCPUの使用率を模式的に示す図である。 図1に示したCPUの使用率の情報処理システムを、動作周波数2GHzのCPUを有する、3台のサーバを用いて実現する場合のCPUの使用率を模式的に示す図である。 図2に示した情報処理システムを、2台のサーバを用いて実現した場合のCPUの使用率を模式的に示す図である。 図3に示した情報処理システムを、停止していたサーバ3を再度起動してVM2をサーバ3に移動することにより、3台のサーバ1−3を用いて実現した場合のCPUの使用率を模式的に示す図である。 第1の実施例に係る管理装置を使用した情報処理システムを説明する図である。 第2の実施例に係る管理サーバを用いた情報処理システムの構成例を示す図である。 第2の実施例に係る管理サーバの構成例を示す図である。 第2の実施例に係るサーバテーブルの具体例を示す図である。 第2の実施例に係るVMテーブルの具体例を示す図である。 業務Aを行うVM8をサーバ2に追加した場合のVMテーブルを示す図である。 業務Aを行うVM8のCPU使用率が100%まで増加した場合のVMテーブルを示す図である。 業務Aを行うVM8のCPU使用率が100%まで増加した場合のサーバテーブルを示している。 サーバ2上で動作しているVM4をサーバ2に移動した場合のVMテーブルを示す図である。 サーバ2上で動作しているVM4をサーバ2に移動した場合のサーバテーブルを示す図である。 第2の実施例に係るVMの追加処理を示すフローチャートである。 第2の実施例に係る管理サーバの処理の概要を示す図である。 第2の実施例に係るVMの移動処理を示すフローチャートである。 第2の実施例に係るVMの削除処理を示すフローチャートである。 第2本実施例に係る管理サーバの具体的な構成例を示す図である。 VMをグループに分類する基準に、VMが接続されるネットワークを使用した場合のVMテーブルを示す図である。 VMをグループに分類する基準に、VMを使用するユーザを使用した場合のVMテーブルを示す図である。
以下、本実施形態の一例について、図5−図21に基づいて説明する。なお、以下に説明する実施形態はあくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図ではない。すなわち、本実施形態は、その趣旨を逸脱しない範囲で、各実施例の一部または全部を組み合わせるなど種々変形して実施することができる。
図5は、本実施例に係る管理装置520を使用した情報処理システム500を説明する図である。
情報処理システム500は、第1の情報処理装置510と、第2の情報処理装置520と、管理装置530と、を備える。そして、第1の情報処理装置510と、第2の情報処理装置520と、管理装置530と、はネットワークまたは専用線などを介して、互いに通信可能に接続されている。
第1の情報処理装置510および第2の情報処理装置520は、CPUやメモリなど情報処理を行うために必要な構成要素を備える一般的な情報処理装置によって実現することができる。
第1の情報処理装置510および第2の情報処理装置520は、所定のプログラムを実行し、プログラムの命令にしたがって1または2以上の仮想機械を提供する。仮想機械には、仮想的に所定の性能の資源が割当てられる。
「資源」とは、情報処理装置が情報処理を行うために使用する資源のことである。情報処理に必要なハードウェア、例えば、情報処理装置に備わるCPU、メモリ、磁気ディスク装置やネットワークなどの入出力装置など、の一部または全部が資源として使用することができる。
図5に示す第1の情報処理装置510は、仮想機械Aと仮想機械Bを提供している場合の例を示している。また、第2の情報処理装置520は、仮想機械Aと仮想機械Cを提供している場合の例を示している。
図5では、第1の情報処理装置510と第2の情報処理装置520が提供している仮想機械Aは、後述する属性情報に基づく属性が同一である仮想機械であることを示している。
ただし、図5に示す第1の情報処理装置510および第2の情報処理装置520が提供している仮想機械は例示であって、管理装置530を使用する情報処理システム500の構成を限定する趣旨ではない。
管理装置530は、第1の情報処理装置510および第2の情報処理装置520を管理する装置である。管理装置530は、第1の情報処理装置510などと同様に、CPUやメモリなど情報処理を行うために必要な構成要素を備える一般的な情報処理装置によって実現することができる。管理装置530は、所定のプログラムを実行することにより、本実施例に係る情報処理装置の管理を実現することができる。また、管理装置530は、記憶部531を備えることができる。
記憶部531は、第1の情報処理装置510と、第1の情報処理装置510が提供している仮想機械、例えば、図5に示す仮想機械Aや仮想機械Bなどの属性情報と、の対応関係を記憶する。同様に、記憶部531は、第2の情報処理装置520と、第2の情報処理装置520が提供している仮想機械、例えば、図5に示す仮想機械Aや仮想機械Cなどの属性情報と、の対応関係を記憶する。
属性情報とは、第1の情報処理装置510や第2の情報処理装置520が提供している仮想機械、例えば、図5に示す仮想機械A、BおよびCなどが属する属性を示す情報である。属性情報には、情報処理にかかる負荷の変動が同一または類似する傾向となる属性、例えば、仮想機械の使用目的、仮想機械が使用するネットワーク、仮想機械を利用するユーザなどを使用することができる。
管理装置530は、第1の情報処理装置510と第1の情報処理装置510が提供している仮想機械の属性情報との対応関係と、第2の情報処理装置520と第2の情報処理装置520が提供している仮想機械の属性情報との対応関係とを記憶する記憶部を参照する。
そして、管理装置530は、第1の情報処理装置510が提供している仮想機械のうち、配置対象の仮想機械の属性と同じ属性の仮想機械の数が、第2の情報処理装置520が提供している仮想機械のうち、配置対象の仮想機械の属性と同じ属性の仮想機械の数よりも少ないことを検出する。この場合、管理装置530は、第1の情報処理装置510に、配置対象の仮想機械を配置する。
「配置する」には、例えば、第1の情報処理装置510に配置対象の仮想機械を新たに追加するという意味も、第2の情報処理装置520上にある配置対象の仮想機械を第1の情報処理装置510に移動するという意味も、含むことができる。
例えば、図5の例では、第1の情報処理装置510が提供している仮想機械のうち、仮想機械Cの属性と同じ属性の仮想機械の数が、第2の情報処理装置520が提供している仮想機械のうち、仮想機械Cの属性と同じ属性の仮想機械の数よりも少ない。したがって、仮想機械Cを追加する場合、管理装置530は、第1の情報処理装置510に仮想機械Cを追加する。
以上のように、管理装置530は、第1の情報処理装置510が提供している仮想機械のうち、配置対象の仮想機械の属性と同じ属性の仮想機械の数が、第2の情報処理装置520が提供している仮想機械のうち、配置対象の仮想機械の属性と同じ属性の仮想機械の数よりも少ない場合、第1の情報処理装置510に、配置対象の仮想機械を配置する。
そのため、同一の属性の仮想機械の数を少なくできるので、情報処理にかかる負荷の変動が同一または類似の傾向にある仮想機械も少ない。したがって、多くの仮想機械の負荷が同時に上昇して、情報処理装置の負荷が急に上昇することを回避することができる。その結果、負荷の上昇により一部の仮想機械が使用する資源が増加して他の仮想機械が使用できる資源が減少することを回避することができる。各仮想機械は、割当てられている資源を、制限されることなく使用できるので、割当てられた資源に見合う性能を発揮することができる。
図6は、本実施例に係る管理サーバ610を用いた情報処理システム600の構成例を示す図である。
情報処理システム600は、管理サーバ610と、サーバ620、サーバ630およびサーバ640と、を備える。そして、管理サーバ610、サーバ620、サーバ630およびサーバ640は、ネットワークや専用線などを介して互いに通信可能に接続されている。
管理サーバ610は、ユーザの操作により、サーバ620、630および640にVMを追加する。
また、管理サーバ610は、サーバ620、630および640にかかる情報処理ときの負荷を監視する。そして、管理サーバ610は、サーバ620、630および640にかかる負荷が、あらかじめ設定された使用率レンジ内となるように、各サーバ上で動作しているVMの移動やサーバの起動・停止を行う。
サーバ620は、情報処理に必要なCPUやメモリ等のハードウェア621を備える。そして、ハードウェア621上で、ハイパーバイザ622が動作している。ハイパーバイザ622は、仮想的に所定の性能の資源を割当てたVMを実現するプログラムである。図6には、VM1とVM2がハイパーバイザ622上で動作している場合の例を示している。
同様に、サーバ630は、ハードウェア631を備える。そして、ハードウェア631上で、ハイパーバイザ632が動作している。図6には、ハイパーバイザ632上で、VM3、VM4およびVM5が動作している場合の例を示している。また、サーバ640は、ハードウェア641を備える。そして、ハードウェア641上で、ハイパーバイザ642が動作している。図6には、ハイパーバイザ642上で、VM6が動作している場合の例を示している。
なお、管理サーバ610、サーバ620、サーバ630およびサーバ640は、一般的な情報処理装置が備えるハードウェア構成によって実現できる。管理サーバ610の具体的な構成例については、図19に示して後述する。
また、図6には、サーバを3台備える場合の情報処理システム600を例示したが、管理サーバ601が管理するサーバの台数を限定する趣旨ではないのは当然である。
図7は、本実施例に係る管理サーバ610の構成例を示す図である。
管理サーバ610は、配置/構成制御部611と、VM制御部612と、サーバ電源制御部613と、VM管理用DB(DataBase)614と、を備える。
配置/構成制御部611は、サーバ620、630および640から、定期的に、各サーバの負荷を示す負荷情報を取得する。本実施例では、負荷情報として、CPUの使用率を使用する場合を例に説明する。
「使用率」には、例えば、単位時間当りに資源が占有される割合を使用することができる。この場合、CPUの使用率は、単位時間当りにCPUが占有されている割合となる。ただし、「使用率」は、必要に応じて適切に定義したものを使用すればよい。
配置/構成制御部611は、ユーザから新たなVMの追加の指示を受けると、VMを追加するサーバをサーバ620、630または640から選出する。そして、配置/構成制御部611は、選出したサーバ上に新たなVMを起動するように、VM制御部612に指示する。
また、配置/構成制御部611は、CPUの使用率が、あらかじめ設定された使用率レンジの下限値より低いサーバを検出すると、その検出したサーバ上で動作しているVMの移動先をサーバ620、630または640から選出する。そして、配置/構成制御部611は、あらかじめ設定された使用率レンジの下限値よりCPUの使用率が低いサーバ上で動作しているVMすべてを、選出したサーバに移動するように、VM制御部612に指示する。そして、配置/構成制御部611は、VMの移動によりサーバ上で動作するVMがなくなると、その動作するVMがなくなったサーバを停止するように、サーバ電源制御部613に指示する。
また、配置/構成制御部611は、CPUの使用率が、あらかじめ設定された使用率レンジの上限値より高いサーバを検出すると、その検出したサーバ上で動作しているVMの移動先をサーバ620、630または640から選出する。そして、配置/構成制御部611は、あらかじめ設定された使用率レンジの上限値よりCPUの使用率が高いサーバ上で動作しているVMのうち負荷が最も低いVMを、選出したサーバに移動するように、VM制御部612に指示する。ただし、負荷が最も低いVMを移動することに限定する趣旨ではなく、任意の1または2以上のVMを選んで移動してもよい。なお、負荷が最も低いVMを移動するのは、VMを移動する際にかかるサーバの負荷を抑えつつ、サーバの使用率を下げるためである。VMを移動させる移動先のサーバがない場合、配置/構成制御部611は、停止中のサーバを起動するように、サーバ電源制御部613に指示する。そして、配置/構成制御部611は、起動したサーバにVMを移動するように、VM制御部612に指示する。
VM制御部612は、配置/構成制御部611からの指示にしたがって、サーバに対して新たなVMの起動を指示する。また、VM制御部612は、配置/構成制御部611からの指示にしたがって、サーバ間でVMを移動するマイグレーションを、サーバに指示する。
サーバ電源制御部613は、配置/構成制御部611からの指示にしたがって、サーバに停止を指示する。また、サーバ電源制御部613は、配置/構成制御部611からの指示にしたがって、サーバに起動を指示する。
VM管理用DB614は、サーバに関する情報を含むサーバテーブル800と、VMに関する情報を含むVMテーブル900と、を少なくとも記憶する記憶装置である。サーバテーブル800およびVMテーブル900については、それぞれ図8と図9に具体例を示す。
なお、本実施例では、負荷情報として各サーバに備わるCPUの使用率を使用する場合を示したが、負荷情報を各サーバに備わるCPUの使用率に限定する趣旨ではない。例えば、実行待ちプロセス数の平均数を表す、CPUのロードアベレージや、メモリの使用率など情報処理によってサーバにかかる負荷を示す情報を負荷情報として用いることができる。
また、図7には、サーバ620、630および640から配置/構成制御部611、VM制御部612やサーバ電源制御部613からサーバ620、630および640に矢印が記載されているが、これはデータの流れを示すものである。したがって、図6に示した構成と異なる構成を意図するものではない。
図8は、本実施例に係るサーバテーブル800の具体例を示す図である。
サーバテーブル800は、サーバ毎に、「CPU性能」、「電源状態」、「CPU使用率」および「CPU使用量」についての情報を含む。
「CPU性能」は、サーバに備わるCPUの情報処理能力を示す情報である。本実施例では、「CPU性能」として、CPUの動作周波数を使用している。
「電源状態」は、サーバの電源状態、すなわちサーバの電源がON状態かOFF状態かを示す情報である。なお、OFF状態には、サーバが低消費電力の状態やサスペンド状態などを含むこともできる。
「CPU使用率」は、単位時間当りにCPUが占有される割合を示す情報である。
「CPU使用量」は、以下の式(1)で求められる情報である。
「CPU使用量」=「CPU性能」×「CPU使用率」÷100 ・・・(1)
なお、図8に示すCPU性能は、すべて3.0GHzとなっているが、これは説明を簡単にするためである。したがって、CPU性能を、3.0GHzに限定する趣旨ではない。同様に、後述するサーバテーブル1200やサーバテーブル1400についても、CPU性能を、3.0GHzに限定する趣旨ではない。
図9は、本実施例に係るVMテーブル900の具体例を示す図である。
VMテーブル900は、VM毎に、「CPU性能」、「CPU使用率」、「CPU使用量」、「グループ」および「稼働サーバ名」についての情報を含む。
「CPU性能」は、VMに仮想的に割当てられたCPUの情報処理能力を示す情報である。図8と同様に、本実施例では、「CPU性能」として、CPUの動作周波数を使用している。
「CPU使用率」は、VMに仮想的に割当てられたCPUが単位時間当りに占有されている割合を示す情報である。
「CPU使用量」は、式(1)で求められる情報である。
「グループ」は、VMが使用される業務を基準にして分類されるグループを示す情報である。図9に示す例では、VM1、VM5およびVM7は、業務Aに使用されるグループであることを示している。同様に、図9に示す例では、VM2およびVM3は、業務Bに使用されるグループであることを示し、VM4およびVM6は、業務Cに使用されるグループであることを示している。
「稼働サーバ名」は、VMが動作しているサーバの名称、すなわち識別情報である。
本実施例では、図9に示した「グループ」を、VMが属する属性を示す属性情報として使用している。同一の属性を持つVMは、情報処理にかかる負荷の変動が同一または類似する傾向にある。したがって、同一の属性を持つVMを同一のサーバ上で動作させると、急激な負荷の上昇を招く可能性がある。そのため、同一の属性を持つVMは、なるべく異なるサーバ上に分散して動作させることが望ましい。
なお、本実施例では、仮想的にVMに割当てるCPU性能がすべて1.0GHzとなっている。そのため、図9に示したCPU性能は、すべて1.0GHzとなっている。これは、説明を簡単にするためである。仮想的にVMに割当てるCPU性能を、1.0GHzに限定する趣旨ではない。同様に、後述するVMテーブル1000、VMテーブル1100およびVMテーブル1300についても、仮想的にVMに割当てるCPU性能を、1.0GHzに限定する趣旨ではない。
また、本実施例では、属性情報として、VMが行う業務を使用する場合を示すが、これに限定する趣旨ではない。必要に応じて、情報処理にかかる負荷の変動が同一または類似する傾向を示す共通の情報を属性情報として使用してもよい。例えば、図20に示す「ネットワーク」や図21に示す「ユーザ」などを、属性情報として使用することもできる。また、例えば、CPUが備えるコア数、スレッド数、アーキテクチャの種別、L2キャッシュやL3キャッシュの容量、バス速度、使用するメモリの種別、一定の基準から導き出される性能スコアなどを、属性情報として使用することもできる。
図10は、VMテーブル900が示す状態で、業務Aを行うVM8をサーバ2に追加した場合のVMテーブル1000を示している。追加直後は、VM8のCPU使用率が0%なので、VM8のCPU使用量も0GHzとなっている。
図11は、VMテーブル1000が示す状態で、業務Aを行うVM8のCPU使用率が100%、すなわち、CPU使用量が1.0GHzまで増加した場合のVMテーブル1100を示している。そして、図12は、VMテーブル1100が示す状態におけるサーバテーブル1200を示している。
VM8のCPU使用量が1.0GHzまで増加すると、サーバ2上で動作するVM3、VM4およびVM8のCPU使用量の合計は、2.7GHzとなる。したがって、図12に示す、サーバ2のCPU使用量は、2.7GHzとなる。このときのサーバ2のCPU使用率は、90.0%まで増加する。
図13は、VMテーブル1100が示す状態で、サーバ2上で動作しているVM4をサーバ4に移動した場合のVMテーブル1300を示している。また、図14は、VMテーブル1300が示す状態におけるサーバテーブル1400を示している。
VM4がサーバ2からサーバ4に移動されると、サーバ2上で動作するVMは、VM3とVM8だけとなる。この場合、VM3とVM8のCPU使用量の合計は、2.0GHzとなる。したがって、図14に示す、サーバ2のCPU使用量は、2.0GHzとなる。サーバ2のCPU使用率は、66.7%まで減少する。
一方、VM4がサーバ2からサーバ4に移動すると、サーバ4上で動作するVMは、VM4とVM7となる。VM4とVM7のCPU使用量の合計は、1.7GHzとなる。したがって、図14に示す、サーバ4のCPU使用量は、1.7GHzとなる。サーバ4のCPU使用率は、56.7%まで増加する。
図15は、本実施例に係るVMの追加処理を示すフローチャートである。
ユーザから新たなVMの追加の指示を受けると、管理サーバ610は、以下に示すVMの追加処理の実行を開始する(ステップS1500)。
ステップS1501において、管理サーバ610は、各サーバ、例えば図6に示したサーバ620、630および640から、負荷情報を取得する。この負荷情報には、2つの種類の負荷情報が含まれる。1つは、サーバに備わるCPUについての負荷情報、例えば、図8に示したCPU使用率である。この負荷情報を「CPU負荷情報」という。もう1つは、サーバ上で動作しているVMに仮想的に割当てられたCPUについての負荷情報、例えば、図9に示したCPU使用率である。この負荷情報を「VM負荷情報」という。
管理サーバ610は、取得したCPU負荷情報を、サーバテーブル800に記憶する。また、管理サーバ610は、取得したVM負荷情報を、VMテーブル900に記憶する。
ステップS1502において、管理サーバ610は、追加するVMが属するグループを決定する。例えば、管理サーバ610は、ユーザが指定する業務のグループを、追加するVMが属するグループと決定する。
ステップS1503において、管理サーバ610は、サーバテーブル800を参照し、サーバのCPU使用率が使用率レンジの上限値を超えていないサーバを抽出する。この抽出されたサーバが、VMを追加するサーバの候補となる。
本実施例では、一例として使用率レンジが「20%−80%」である場合を考える。例えば、サーバテーブル800では、サーバ1−4のCPU使用率が、すべて「20%−80%」の範囲内にある。この場合、管理サーバ610は、VMを追加するサーバの候補として、サーバ1−4を抽出する。
ステップS1504において、管理サーバ610は、VMテーブル900を参照し、ステップS1503で抽出したサーバのうち、ステップS1502で決定したグループと同一グループのVMが最も少ないサーバを選択する。
例えば、ステップS1502で、追加するVMが属するグループが、業務Aのグループであると決定した場合、管理サーバ610は、業務Aのグループに属するVMが最も少ないサーバを選択する。
VMテーブル900を参照すると、サーバ1では、業務Aのグループに属するVM1が稼働している。サーバ3では、業務Aのグループに属するVM5が稼働している。サーバ4では、業務Aのグループに属するVM7が稼働している。これに対して、サーバ2では、業務Aのグループに属するVMは稼働していない。この場合、管理サーバ610は、ステップS1503で抽出したサーバ1−4のうち、サーバ2を選択する。
ステップS1505において、管理サーバ610は、VMを追加する。例えば、管理サーバ610は、ステップS1504で選択したサーバに対して、新たなVMを追加するように指示を行う。すると、指示を受けたサーバは、新たなVMを起動する。
ステップS1506において、管理サーバ610は、VM管理用DB614を更新する。例えば、VM8をサーバ2に追加した場合、管理サーバ610は、図10に示したVMテーブル1000のように、VM管理用DB614に記憶されるVMテーブル900を更新する。
図16は、本実施例に係る管理サーバ610の処理の概要を示す図である。管理サーバ610は、一定間毎に、または必要が生じた時に、図16に示す負荷監視・制御処理を実行することができる。
ステップS1601において、管理サーバ610は、各サーバ、例えば図6に示したサーバ620、630および640から、負荷情報、すなわち、図15で説明したCPU負荷情報およびVM負荷情報を取得する。そして、管理サーバ610は、取得したCPU負荷情報を、サーバテーブル800に記憶し、取得したVM負荷情報を、VMテーブル900に記憶する。
なお、ステップS1701の処理は、必須の処理ではない。例えば、ステップS1701の処理は、図16に示したステップS1601の処理で代用することもできる。
ステップS1601の処理が完了すると、管理サーバ610は、以下に示すステップS1602−S1610の処理を、すべてのサーバについて行う。管理サーバ610は、サーバテーブル800に登録されているサーバから1つのサーバを選択し、処理をステップS1602に移行する。以下の処理では、この選択したサーバを「対象サーバ」という。
ステップS1602において、管理サーバ610は、サーバテーブル800を参照し、対象サーバのCPU使用率を取得する。そして、管理サーバ610は、対象サーバのCPU使用率が、使用率レンジの下限値より低いか否かを判定する。同様に、管理サーバ610は、対象サーバのCPU使用率が、使用率レンジの上限値より高いか否かを判定する。
ステップS1603において、対象サーバのCPU使用率が使用率レンジの下限値より小さい場合(ステップS1603 YES)、管理サーバ610は、対象サーバのCPU使用率が低いと判断して処理をステップS1604に移行する。そして、ステップS1604において、管理サーバ610は、対象サーバ上で動作しているすべてのVMに対して、VMを他のサーバに移動する処理を行う。
対象サーバ上のすべてのVMの移動が完了すると、管理サーバ610は、処理をステップS1605に移行する。そして、ステップS1605において、管理サーバ610は、動作するVMがなくなった対象サーバを停止する。
サーバテーブル800に登録されているサーバに、ステップS1602−S1610の処理を行っていないサーバがある場合、管理サーバ610は、サーバテーブル800に登録されているサーバから新たな対象サーバを選択する。そして、管理サーバ610は、処理をステップS1602に移行する。
一方、ステップS1603において、対象サーバのCPU使用率が使用率レンジの下限値以上の場合(ステップS1603 NO)、管理サーバ610は、対象サーバの負荷は低くないと判断して処理をステップS1606移行する。
ステップS1606において、対象サーバのCPU使用率が使用率レンジの上限値以下の場合(ステップS1606 NO)、管理サーバ610は、対象サーバのCPU使用率が高くないと判断する。サーバテーブル800に登録されているサーバに、ステップS1602−S1610の処理を行っていないサーバがある場合、管理サーバ610は、サーバテーブル800に登録されているサーバから新たな対象サーバを選択する。そして、管理サーバ610は、処理をステップS1602に移行する。
一方、対象サーバのCPU使用率が使用率レンジの上限値より大きい場合(ステップS1606 YES)、管理サーバ610は、対象サーバのCPU使用率が高いと判断して処理をステップS1607に移行する。
ステップS1607において、管理サーバ610は、対象サーバ上で動作するVMのうち、負荷が最も低いVMを選択する。例えば、管理サーバ610は、VMテーブル900を参照し、対象サーバ上で動作しているVMのうち、CPUの使用率が最も低いVMを選択する。
ステップS1608において、管理サーバ610は、ステップS1607で選択したVMに対して、VMを他のサーバに移動する処理を行う。
ステップS1609において、VMの移動先がない場合、すなわち、VMの移動先がないためにステップS1608の処理が実行できなかった場合(ステップS1609 YES)、管理サーバ610は、処理をステップS1610に移行する。そして、ステップS1610において、管理サーバ610は、停止しているサーバを起動する。サーバが起動すると、管理サーバ610は、起動したサーバにVMを移動する。
サーバテーブル800に登録されているサーバに、ステップS1602−S1610の処理を行っていないサーバがある場合、管理サーバ610は、サーバテーブル800に登録されているサーバから新たな対象サーバを選択する。そして、管理サーバ610は、処理をステップS1602に移行する。
また、サーバテーブル800に登録されているすべてのサーバについてステップS1602−S1610の処理を行うと、管理サーバ610は、処理をステップS1611に移行して負荷監視・制御処理を終了する。
図17は、本実施例に係るVMの移動処理を示すフローチャートである。
図16に示したステップS1604またはS1608に処理が移行すると、管理サーバ610は、以下に示すVMの移動処理の実行を開始する(ステップS1700)。
ステップS1701において、管理サーバ610は、各サーバ、例えば図6に示したサーバ620、630および640から、負荷情報、すなわち、図15で説明したCPU負荷情報およびVM負荷情報を取得する。そして、管理サーバ610は、取得したCPU負荷情報をサーバテーブル800に記憶する。また、管理サーバ610は、取得したVM負荷情報をVMテーブル900に記憶する。
ステップS1702において、管理サーバ610は、サーバテーブル800を参照し、VM移動後のサーバのCPU使用率が使用率レンジの上限値を超えていないサーバを抽出する。この抽出されたサーバが、VMの移動先のサーバの候補となる。
なお、サーバ2上で動作しているVM4を移動する場合を例にとると、VM移動後のサーバのCPU使用率は、以下のように求めることができる。
(1)管理サーバ610は、VMテーブル1100を参照し、移動するVM4のCPU使用量(0.7GHz)を取得する。
(2)管理サーバ610は、サーバテーブル1200を参照し、サーバ1のCPU使用量(1.8GHz)を取得する。
(3)管理サーバ610は、VM4のCPU使用量(0.7GHz)と、サーバ1のCPU使用量(1.8GHz)と、の和(2.5GHz)を求める。そして、管理サーバ610は、以下の式(2)から、VM4がサーバ1に移動した場合のサーバ1のCPU使用率(83.3%)を求める。
「CPU使用率」=「CPU使用量」÷「CPU性能」×100 ・・・(2)
(4)同様に、管理サーバ610は、VM4がサーバ3に移動した場合のサーバ3のCPU使用率(70.0%)と、VM4がサーバ4に移動した場合のサーバ4のCPU使用率(56.7%)を求める。
上記の場合、管理サーバ610は、VM4移動後のサーバのCPU使用率が使用率レンジの範囲内となるサーバ3とサーバ4を、VMの移動先のサーバの候補として抽出する。
ステップS1703において、管理サーバ610は、VMテーブル900を参照し、ステップS1702で抽出したサーバのうち、移動するVMと同一グループのVMが最も少ないサーバを選択する。
例えば、図11に示したVM4を移動する場合、管理サーバ610は、VM4が属する業務Cのグループに属するVMが最も少ないサーバを選択する。VMテーブル1100を参照すると、VM4移動後のサーバのCPU使用率が使用率レンジの範囲内となるサーバ3および4のうち、サーバ3には、業務Cのグループに属するVM6が稼働している。これに対して、サーバ4には、業務Cのグループに属するVMは稼働していない。この場合、管理サーバ610はサーバ4を選択する。
ステップS1704において、管理サーバ610は、ステップS1703で選択したサーバにVMを移動する。例えば、管理サーバ610は、移動するVMが動作している対象サーバと、ステップS1703で選択したサーバと、に対して、VMの移動を指示する。すると、指示を受けたサーバ間でVMの移動が行われる。
ステップS1705において、管理サーバ610は、VM管理用DB614を更新する。例えば、VM4をサーバ2からサーバ4に移動した場合、管理サーバ610は、図13に示したVMテーブル1300、図14に示したサーバテーブル1400のように、VM管理用DB614に記憶されるサーバテーブル800およびVMテーブル900を更新する。
図18は、本実施例に係るVMの削除処理を示すフローチャートである。
ユーザからVMの削除の指示を受けると、管理サーバ610は、以下に示すVMの削除処理の実行を開始する(ステップS1800)。
ステップS1801において、管理サーバ610は、ユーザに指定されたサーバに対してVMの削除を指示する。そして、指定のサーバからVMの削除が完了した旨の通知を受けると、管理サーバ610は、処理をステップS1802に移行する。そして、ステップS1802において、管理サーバ610は、VM管理用DB614を更新する。例えば、管理サーバ610は、VM管理用DB614に記憶されているVMテーブル900から、削除したVMについての情報を削除する。そして、管理サーバ610は、VMを削除する処理を終了する(ステップS1803)。
図19は、本実施例に係る管理サーバ610の具体的な構成例を示す図である。
図19に示す管理サーバ610は、CPU1901と、メモリ1902と、入力装置1903と、出力装置1904と、外部記録装置1905と、媒体駆動装置1906と、ネットワーク接続装置1908と、を備える。そして、これらの装置がバスに接続されて相互にデータの受け渡しが行える構成となっている。
CPU1901は、周辺機器や各種ソフトウェアを実行する他に本実施例に係る負荷監視・制御処理を実現するプログラムを実行する演算装置である。
メモリ1902は、プログラムを実行するために使用される揮発性の記憶装置である。メモリ1902には、例えば、RAM(Random Access Memory)などを使用することができる。
入力装置1903は、外部からのデータ入力手段である。入力装置1903には、例えば、キーボードやマウスなどを使用することができる。
出力装置1904は、データ等を表示装置等に表示する装置である。なお、出力装置1904には、表示装置を含むこともできる。
外部記録装置1905は、管理サーバ610が動作するために必要なプログラムやデータの他に本実施例に係る負荷監視・制御処理を実現するプログラムを記録する不揮発性の記憶装置である。また、外部記録装置1905は、その一部または全部をVM管理用DB614として使用することもできる。外部記憶装置1905には、例えば、磁気ディスク記憶装置などを使用することができる。
媒体駆動装置1906は、メモリ1902や外部記録装置1905のデータを可搬記録媒体1907、例えば、フロッピイディスクやMOディスク、CD−RやDVD−Rなどに出力し、または可搬記録媒体1907からプログラムやデータ等を読み出す装置である。
ネットワーク接続装置1908は、ネットワーク1909に接続する装置である。
なお、メモリ1902、外部記録装置1905および可搬記録媒体1907などの情報処理装置に読取り可能な記録媒体は、非一時的(non−transitory)な媒体である。
また、図19に示した構成のすべてが管理サーバ610に必須の構成であることを示す趣旨ではない。図19に示した構成の一部または全部を使用してもよいし、図19に示した構成以外の構成を含んでもよい。
図20は、VMをグループに分類する基準に、VMが接続されるネットワークを使用した場合のVMテーブル2000を示す図である。
図20に示す例では、VM1、VM5およびVM7は、ネットワークNet1に接続されるグループであることを示している。同様に、VM2およびVM3、は、ネットワークNet2に接続されるグループであることを示し、VM4およびVM6は、ネットワークNet3に接続されるグループであることを示している。
図21は、VMをグループに分類する基準に、VMを使用するユーザを使用した場合のVMテーブル2100を示す図である。
図21に示す例では、VM1、VM5およびVM7は、ユーザAに使用されるグループであることを示している。同様に、VM2およびVM3、は、ユーザBに使用されるグループであることを示し、VM4およびVM6は、ユーザCに使用されるグループであることを示している。
以上のように、管理サーバ610は、VMを追加または移動する際に、その追加または移動するVMが属する属性と同一の属性に属するVMの数が最も少ないサーバを選択する。そして、管理サーバ610は、その選択したサーバにVMを追加または移動させる。
同一の属性に属するVMの数が少ないと、情報処理にかかる負荷の変動が同一または類似の傾向にあるVMが少なくなる。そのため、多くのVMの負荷が同時に上昇して、サーバの負荷が急に上昇することを回避できる。その結果、負荷が上昇して一部のVMでの資源の使用量が増加し他のVMが使用できる資源が減少することを回避できる。各VMは、割当てられている資源を、制限されることなく使用できるので、割当てられた資源に見合う性能を発揮できる。
また、負荷の変動が同一または類似の傾向にあるVMは、複数のサーバに分散して配置されることにより、同一サーバ上で動作する複数のVMにかかる負荷が同時に上昇することを回避される。その結果、VMが使用する資源量が安定するので、VMのマイグレーションを行う頻度を抑えることができる。さらに、マイグレーションに必要なコストを削減することができる。
なお、コストとは、例えば、マイグレーション等に必要な処理を行う際にサーバにかかる負荷、例えば、CPUやメモリ、ネットワークの使用率の増加などが含まれる。また、コストには、マイグレーション等の保守を行うための保守費用なども含むことができる。
また、管理サーバ610は、負荷の変動が同一または類似の傾向にある同一の属性を持つVMを分散してサーバに追加または移動する。そのため、利用者は、情報処理システム600における情報処理装置620−640の負荷の管理、例えば情報処理装置620−640上のVMの追加や移動などを容易に行うことができる。
VMのマイグレーションを行う頻度が抑えられるので、VMの追加または移動先として使用するサーバを起動する頻度も少なくなる。したがって、サーバの起動完了までマイグレーションを行うことができないために、必要な資源量を確保できず、VMに割当てた資源に見合う性能を発揮できない状態を回避することができる。
また、管理サーバ610は、サーバのCPU使用率が使用率レンジの上限値を超えていないサーバを抽出してVMを追加する(ステップS1503)。これにより、管理サーバ610は、情報処理システム600に含まれるサーバのCPU使用率が使用率レンジの上限値より小さくするようにVMを追加することができる。
また、管理サーバ610は、VM移動後のサーバのCPU使用率が使用率レンジの上限値を超えないサーバを抽出してVMを移動する(ステップS1702)。これにより、管理サーバ610は、情報処理システム600に含まれるサーバのCPU使用率が使用率レンジの上限値より小さくなるようにVMを移動することができる。
また、管理サーバ610は、サーバのCPU使用率が使用率レンジの下限値より低いサーバを検出すると、検出したサーバ上のすべてのVMを他のサーバに移動し、動作するVMがなくなったサーバを停止する(ステップS1603−S1605)。これにより、管理サーバ610は、サーバの稼働効率を上げてコストを削減することができる。
また、管理サーバ610は、サーバのCPU使用率が使用率レンジの上限値より高いサーバを検出すると、検出したサーバ上のVMを他のサーバに移動する(ステップS1606−S1608)。これにより、管理サーバ610は、情報処理システム600に含まれるサーバのCPU使用率を、使用率レンジの上限値より低く抑えることができる。
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)
第1の情報処理装置と該第1の情報処理装置が提供している仮想機械の属性情報との対応関係と、第2の情報処理装置と該第2の情報処理装置が提供している仮想機械の属性情報との対応関係とを記憶する記憶部を参照し、
前記第1の情報処理装置が提供している仮想機械のうち、配置対象の仮想機械の属性と同じ属性の仮想機械の数が、前記第2の情報処理装置が提供している仮想機械のうち、該配置対象の仮想機械の属性と同じ属性の仮想機械の数よりも少ないことが検出された場合に、前記第1の情報処理装置に、該配置対象の仮想機械を配置する、
処理を管理装置に実行させることを特徴とするプログラム。
(付記2)
前記属性情報には、前記第1または前記第2の情報処理装置にかかる負荷の変動が同一または類似する傾向を示す属性が含まれる、
ことを特徴とする付記1に記載のプログラム。
(付記3)
前記第1および前記第2の情報処理装置は、前記第1および前記第2の情報処理装置の負荷を示す負荷情報に基づく負荷が、第1の基準より低い情報処理装置である、
ことを特徴とする付記1に記載のプログラム。
(付記4)
前記第1および前記第2の情報処理装置は、前記第1および前記第2の情報処理装置の負荷を示す負荷情報に基づく負荷であって、前記配置対象の仮想機械を配置した場合にかかる負荷が、第1の基準より低い情報処理装置である、
ことを特徴とする付記1に記載のプログラム。
(付記5)
前記第1の情報処理装置の負荷を示す負荷情報に基づく負荷が、第2の基準より低い場合に、前記第1の情報処理装置が提供する仮想機械すべてを、前記第1の情報処理装置以外の第3の情報処理装置に移動する、 処理を管理装置に実行させることを特徴とする付記1に記載のプログラム。
(付記6)
前記第1の情報処理装置が提供する仮想機械すべての移動が完了すると、前記第1の情報処理装置を停止する、
前記第2の仮想機械すべての移動が完了すると、前記第2の情報処理装置を停止させる、
処理を管理装置に実行させることを特徴とする付記5に記載のプログラム。
(付記7)
前記第1の情報処理装置の負荷を示す負荷情報に基づく負荷が、前記第1の基準より高い場合に、前記第1の情報処理装置が提供する仮想機械を、前記第1の情報処理装置以外の第3の情報処理装置に移動する、 処理を管理装置に実行させることを特徴とする付記1に記載のプログラム。
(付記8)
前記第3の情報処理装置がない場合、新たに第4の情報処理装置を起動し、前記第1の情報処理装置が提供する仮想機械を前記第4の情報処理装置に移動する、
処理を管理装置に実行させることを特徴とする付記7に記載のプログラム。
(付記9)
前記負荷情報は、前記情報処理装置が有する演算装置または記憶装置の使用率のいずれか1つである、
ことを特徴とする付記3、4、5および7のいずれか1項に記載のプログラム。
(付記10)
前記属性情報は、前記仮想機械に接続されるネットワーク、前記仮想機械を利用する利用者および前記仮想機械の用途のいずれか1つを属性として含む、
ことを特徴とする付記1に記載のプログラム。
(付記11)
第1の情報処理装置と該第1の情報処理装置が提供している仮想機械の属性情報との対応関係と、第2の情報処理装置と該第2の情報処理装置が提供している仮想機械の属性情報との対応関係とを記憶する記憶部を参照し、
前記第1の情報処理装置が提供している仮想機械のうち、配置対象の仮想機械の属性と同じ属性の仮想機械の数が、前記第2の情報処理装置が提供している仮想機械のうち、該配置対象の仮想機械の属性と同じ属性の仮想機械の数よりも少ないことが検出された場合に、前記第1の情報処理装置に、該配置対象の仮想機械を配置する、
処理を管理装置に実行させることを特徴とする管理方法。
(付記12)
第1の情報処理装置と該第1の情報処理装置が提供している仮想機械の属性情報との対応関係と、第2の情報処理装置と該第2の情報処理装置が提供している仮想機械の属性情報との対応関係とを記憶する記憶部と、
前記記憶部を参照する参照部と、
前記第1の情報処理装置が提供している仮想機械のうち、配置対象の仮想機械の属性と同じ属性の仮想機械の数が、前記第2の情報処理装置が提供している仮想機械のうち、該配置対象の仮想機械の属性と同じ属性の仮想機械の数よりも少ないことが検出された場合に、前記第1の情報処理装置に、該配置対象の仮想機械を配置する配置部と、
を備える管理装置。
600 情報処理システム
610 管理サーバ
611 配置/構成制御部
612 VM制御部
613 サーバ電源制御部
614 VM管理用DB
620 サーバ
630 サーバ
640 サーバ

Claims (5)

  1. 第1の情報処理装置と該第1の情報処理装置が提供している仮想機械の属性情報との対応関係と、第2の情報処理装置と該第2の情報処理装置が提供している仮想機械の属性情報との対応関係とを記憶する記憶部を参照し、
    前記第1の情報処理装置が提供している仮想機械のうち、配置対象の仮想機械の属性と同じ属性の仮想機械の数が、前記第2の情報処理装置が提供している仮想機械のうち、該配置対象の仮想機械の属性と同じ属性の仮想機械の数よりも少ないことが検出された場合に、前記第1の情報処理装置に、該配置対象の仮想機械を配置する、
    処理を管理装置に実行させることを特徴とするプログラム。
  2. 前記第1および前記第2の情報処理装置は、前記第1および前記第2の情報処理装置の負荷を示す負荷情報に基づく負荷が、第1の基準より低い情報処理装置である、
    ことを特徴とする請求項1に記載のプログラム。
  3. 前記第1および前記第2の情報処理装置は、前記第1および前記第2の情報処理装置の負荷を示す負荷情報に基づく負荷であって、前記配置対象の仮想機械を配置した場合にかかる負荷が、第1の基準より低い情報処理装置である、
    ことを特徴とする請求項1に記載のプログラム。
  4. 第1の情報処理装置と該第1の情報処理装置が提供している仮想機械の属性情報との対応関係と、第2の情報処理装置と該第2の情報処理装置が提供している仮想機械の属性情報との対応関係とを記憶する記憶部を参照し、
    前記第1の情報処理装置が提供している仮想機械のうち、配置対象の仮想機械の属性と同じ属性の仮想機械の数が、前記第2の情報処理装置が提供している仮想機械のうち、該配置対象の仮想機械の属性と同じ属性の仮想機械の数よりも少ないことが検出された場合に、前記第1の情報処理装置に、該配置対象の仮想機械を配置する、
    処理を管理装置に実行させることを特徴とする管理方法。
  5. 第1の情報処理装置と該第1の情報処理装置が提供している仮想機械の属性情報との対応関係と、第2の情報処理装置と該第2の情報処理装置が提供している仮想機械の属性情報との対応関係とを記憶する記憶部と、
    前記記憶部を参照する参照部と、
    前記第1の情報処理装置が提供している仮想機械のうち、配置対象の仮想機械の属性と同じ属性の仮想機械の数が、前記第2の情報処理装置が提供している仮想機械のうち、該配置対象の仮想機械の属性と同じ属性の仮想機械の数よりも少ないことが検出された場合に、前記第1の情報処理装置に、該配置対象の仮想機械を配置する配置部と、
    を備える管理装置。
JP2010169683A 2010-07-28 2010-07-28 情報処理装置を管理するプログラム、管理方法および管理装置 Pending JP2012032877A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010169683A JP2012032877A (ja) 2010-07-28 2010-07-28 情報処理装置を管理するプログラム、管理方法および管理装置
US13/181,674 US8694679B2 (en) 2010-07-28 2011-07-13 Control device, method and program for deploying virtual machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010169683A JP2012032877A (ja) 2010-07-28 2010-07-28 情報処理装置を管理するプログラム、管理方法および管理装置

Publications (1)

Publication Number Publication Date
JP2012032877A true JP2012032877A (ja) 2012-02-16

Family

ID=45527850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010169683A Pending JP2012032877A (ja) 2010-07-28 2010-07-28 情報処理装置を管理するプログラム、管理方法および管理装置

Country Status (2)

Country Link
US (1) US8694679B2 (ja)
JP (1) JP2012032877A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196695A (ja) * 2012-03-15 2013-09-30 Hon Hai Precision Industry Co Ltd 仮想マシン割り当てシステム及びその方法
JP2014049129A (ja) * 2012-08-31 2014-03-17 Hon Hai Precision Industry Co Ltd 仮想マシンの負荷管理システム及びその方法
JP5729466B2 (ja) * 2011-04-20 2015-06-03 日本電気株式会社 仮想マシン管理装置、仮想マシン管理方法、及び、プログラム
JP2016057898A (ja) * 2014-09-10 2016-04-21 富士通株式会社 負荷分散管理装置、制御方法およびプログラム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012217202B4 (de) * 2011-10-12 2020-06-18 International Business Machines Corporation Verfahren und System zum Optimieren des Platzierens virtueller Maschinen in Cloud-Computing-Umgebungen
US20130160003A1 (en) * 2011-12-19 2013-06-20 Vmware, Inc. Managing resource utilization within a cluster of computing devices
WO2013122597A1 (en) 2012-02-17 2013-08-22 Affirmed Networks, Inc. Virtualized open wireless services software architecture
US9946563B2 (en) * 2012-02-21 2018-04-17 Disney Enterprises, Inc. Batch scheduler management of virtual machines
JP5862359B2 (ja) * 2012-02-23 2016-02-16 日本電気株式会社 シンクライアントシステム、接続管理サーバ、接続管理方法、及び接続管理プログラム
JP2014045238A (ja) * 2012-08-24 2014-03-13 Fujitsu Ltd 情報処理システム、中継装置、情報処理装置、及び情報処理方法。
KR20140052397A (ko) * 2012-10-24 2014-05-07 삼성전자주식회사 이동 통신 시스템에서 가상 머신 관리 장치 및 방법
CN104424013B (zh) * 2013-08-26 2018-03-09 国际商业机器公司 在计算环境中部署虚拟机的方法和设备
US10855645B2 (en) 2015-01-09 2020-12-01 Microsoft Technology Licensing, Llc EPC node selection using custom service types
JP2018521524A (ja) 2015-05-07 2018-08-02 アファームド ネットワークス,インク. 課金システム用コール詳細記録を生成するための方法およびシステム
US10528374B2 (en) 2016-08-25 2020-01-07 International Business Machines Corporation Volume management by virtual machine affiliation auto-detection
WO2018112003A1 (en) 2016-12-13 2018-06-21 Affirmed Networks, Inc. Machine-to-machine network optimization and online charging
JP7108628B2 (ja) 2016-12-13 2022-07-28 マイクロソフト テクノロジー ライセンシング,エルエルシー Ocsが非応答である間のオンライン課金機構
US10548140B2 (en) 2017-05-02 2020-01-28 Affirmed Networks, Inc. Flexible load distribution and management in an MME pool
JP7178365B2 (ja) 2017-05-05 2022-11-25 マイクロソフト テクノロジー ライセンシング,エルエルシー サービス能力公開機能(scef)ベースのインターネットオブシングス(iot)通信の方法とシステム
US10664299B2 (en) * 2017-05-24 2020-05-26 Amzetta Technologies, Llc Power optimizer for VDI system
JP7234141B2 (ja) 2017-05-31 2023-03-07 マイクロソフト テクノロジー ライセンシング,エルエルシー Ipsecの地理的冗長性のための分離した制御プレーンおよびデータプレーンの同期
US10856134B2 (en) 2017-09-19 2020-12-01 Microsoft Technolgy Licensing, LLC SMS messaging using a service capability exposure function
WO2019164864A1 (en) 2018-02-20 2019-08-29 Affirmed Networks, Inc. Dynamic selection of network elements
SG11202008717SA (en) 2018-03-20 2020-10-29 Affirmed Networks Inc Systems and methods for network slicing
EP3827577B1 (en) 2018-07-23 2023-09-13 Microsoft Technology Licensing, LLC System and method for intelligently managing sessions in a mobile network
JP2021149129A (ja) * 2020-03-16 2021-09-27 富士通株式会社 料金算出プログラム、及び料金算出方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03250356A (ja) * 1990-02-28 1991-11-08 Oki Electric Ind Co Ltd マルチプロセッサ負荷分散制御方式
JP2004199561A (ja) * 2002-12-20 2004-07-15 Hitachi Ltd 計算機資源割当方法、それを実行するための資源管理サーバおよび計算機システム
WO2008102739A1 (ja) * 2007-02-23 2008-08-28 Nec Corporation 仮想サーバシステム及び物理サーバ選択方法
JP2009199395A (ja) * 2008-02-22 2009-09-03 Nec Corp 仮想サーバ管理装置および仮想サーバ管理方法
JP2009265778A (ja) * 2008-04-22 2009-11-12 Dino Co Ltd 仮想化サーバ
JP2010169683A (ja) * 2009-01-21 2010-08-05 O2 Micro Inc 信号プロセッサを有するナビゲーションシステム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2682770B2 (ja) 1992-05-15 1997-11-26 富士通株式会社 仮想計算機システムのcpu制御方式
JPH09179667A (ja) 1995-12-21 1997-07-11 Hitachi Ltd 情報処理装置
US6985937B1 (en) * 2000-05-11 2006-01-10 Ensim Corporation Dynamically modifying the resources of a virtual server
JP4292693B2 (ja) 2000-07-07 2009-07-08 株式会社日立製作所 計算機資源分割装置および資源分割方法
US7437730B2 (en) * 2003-11-14 2008-10-14 International Business Machines Corporation System and method for providing a scalable on demand hosting system
US20060184937A1 (en) * 2005-02-11 2006-08-17 Timothy Abels System and method for centralized software management in virtual machines
US7607129B2 (en) * 2005-04-07 2009-10-20 International Business Machines Corporation Method and apparatus for using virtual machine technology for managing parallel communicating applications
WO2007021836A2 (en) * 2005-08-15 2007-02-22 Toutvirtual Inc. Virtual systems management
US8291411B2 (en) * 2007-05-21 2012-10-16 International Business Machines Corporation Dynamic placement of virtual machines for managing violations of service level agreements (SLAs)

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03250356A (ja) * 1990-02-28 1991-11-08 Oki Electric Ind Co Ltd マルチプロセッサ負荷分散制御方式
JP2004199561A (ja) * 2002-12-20 2004-07-15 Hitachi Ltd 計算機資源割当方法、それを実行するための資源管理サーバおよび計算機システム
WO2008102739A1 (ja) * 2007-02-23 2008-08-28 Nec Corporation 仮想サーバシステム及び物理サーバ選択方法
JP2009199395A (ja) * 2008-02-22 2009-09-03 Nec Corp 仮想サーバ管理装置および仮想サーバ管理方法
JP2009265778A (ja) * 2008-04-22 2009-11-12 Dino Co Ltd 仮想化サーバ
JP2010169683A (ja) * 2009-01-21 2010-08-05 O2 Micro Inc 信号プロセッサを有するナビゲーションシステム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5729466B2 (ja) * 2011-04-20 2015-06-03 日本電気株式会社 仮想マシン管理装置、仮想マシン管理方法、及び、プログラム
JP2013196695A (ja) * 2012-03-15 2013-09-30 Hon Hai Precision Industry Co Ltd 仮想マシン割り当てシステム及びその方法
JP2014049129A (ja) * 2012-08-31 2014-03-17 Hon Hai Precision Industry Co Ltd 仮想マシンの負荷管理システム及びその方法
JP2016057898A (ja) * 2014-09-10 2016-04-21 富士通株式会社 負荷分散管理装置、制御方法およびプログラム

Also Published As

Publication number Publication date
US20120030349A1 (en) 2012-02-02
US8694679B2 (en) 2014-04-08

Similar Documents

Publication Publication Date Title
JP2012032877A (ja) 情報処理装置を管理するプログラム、管理方法および管理装置
Ghomi et al. Load-balancing algorithms in cloud computing: A survey
US20140040474A1 (en) Maximizing server utilization within a datacenter
Liu et al. Profit aware load balancing for distributed cloud data centers
Sekhar et al. A survey on energy efficient server consolidation through vm live migration
Chard et al. Cost-aware elastic cloud provisioning for scientific workloads
Cao et al. Energy efficient workflow job scheduling for green cloud
Sun et al. Cloud platform scheduling strategy based on virtual machine resource behaviour analysis
CN107528871A (zh) 存储系统中的数据分析
US10007559B1 (en) Virtual tiering
Gourisaria et al. Energy saving task consolidation technique in cloud centers with resource utilization threshold
Sanjeevi et al. DTCF: deadline task consolidation first for energy minimisation in cloud data centres
Maharana et al. Energy-efficient real-time tasks scheduling in cloud data centers
Do et al. A generalized model for investigating scheduling schemes in computational clusters
Leite et al. Power‐aware server consolidation for federated clouds
Elgelany et al. Energy efficiency for data center and cloud computing: A literature review
Thakkar et al. Experimenting with energy efficient vm migration in IaaS cloud: Moving towards green cloud
JP6059259B2 (ja) 計算機システム及び計算機リソースの割当方法
Manzoor et al. An analysis of energy-efficient approaches used for virtual machines and data centres
Peer Mohamed et al. An efficient framework to handle integrated VM workloads in heterogeneous cloud infrastructure
Hage et al. Saving the planet with bin packing-Experiences using 2D and 3D bin packing of virtual machines for greener clouds
Xie et al. A resource scheduling algorithm based on trust degree in cloud computing
Sakthi Saravanankumar et al. CPU resizing vertical scaling on cloud
JP2013196062A (ja) 情報処理装置
WO2024036940A1 (zh) 一种容器管理方法及相关设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140711

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140805