JP2013196447A - 管理装置の制御プログラム、制御方法及び管理装置 - Google Patents

管理装置の制御プログラム、制御方法及び管理装置 Download PDF

Info

Publication number
JP2013196447A
JP2013196447A JP2012063652A JP2012063652A JP2013196447A JP 2013196447 A JP2013196447 A JP 2013196447A JP 2012063652 A JP2012063652 A JP 2012063652A JP 2012063652 A JP2012063652 A JP 2012063652A JP 2013196447 A JP2013196447 A JP 2013196447A
Authority
JP
Japan
Prior art keywords
disk
program
virtual machine
guest
disk device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012063652A
Other languages
English (en)
Other versions
JP5910215B2 (ja
Inventor
Masakatsu Nouka
昌克 苗加
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012063652A priority Critical patent/JP5910215B2/ja
Publication of JP2013196447A publication Critical patent/JP2013196447A/ja
Application granted granted Critical
Publication of JP5910215B2 publication Critical patent/JP5910215B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】ディスクI/Oの負荷のばらつきが大きいVMゲストの配置先の適正化を図ることのできる管理サーバを提供する。
【解決手段】複数のディスク装置を備えたストレージ装置と、前記ディスク装置を用いて仮想マシンを構成するためのプログラムを実行するサーバ装置とを有する情報処理システムを管理する管理装置の制御プログラムは、前記管理装置に、前記サーバ装置に所定の仮想マシンを実行させるためのプログラムに基づいて、過去に構成された複数の仮想マシンに関するプログラムがそれぞれ割り当てられたディスク装置に対するアクセス頻度を取得し、前記取得した複数の仮想マシンのアクセス頻度のばらつき度合いを示す分散値を算出し、前記分散値が所定値以上の場合、前記新たな仮想マシンを構成するためのプログラムを割り当てるディスク装置を前記ディスク装置の空き容量に基づいて決定する。
【選択図】図1

Description

本発明は、管理装置の制御プログラム、制御方法及び管理装置に関する。
物理サーバとストレージ装置とをネットワーク接続する技術がある。この技術は、IP−SAN(Internet Protocol‐ Storage Area Network)やFC−SAN(Fibre Channel−Storage Area Network)等、物理サーバとストレージ装置との間をIPネットワークで接続したものである。このIPネットワークで接続された物理サーバとストレージ装置は、各々が搭載するネットワーク機器に応じてIPアドレスなどのネットワークアドレスが付与され、当該ネットワークアドレスを使用して通信を行っている。
近年、物理サーバにて、複数の仮想マシン(VM:Virtual Machine)を稼働させ、当該VMからネットワーク上のストレージ装置へのアクセスを行うことが可能となっている。新たなVMを物理サーバ上で稼働させる(以下、物理サーバ上で、新たなVMを稼働させることを「以下物理サーバ上で稼働するVMゲストと称し、かつ、VMゲストを物理マシン上で稼働させる設定を行うことを「VMゲストを生成すると称する」)には、新たに稼働させるVMゲストを稼働させるためのプログラム等のデータなどを格納する記憶領域を設定する。上記したような物理サーバとストレージとを組み合わせたシステムにおいて、VMゲストの記憶領域は、ストレージシステム内の共有ディスクの何れかに設定する。また、この際、過去に生成したVMゲストにおける各種設定を元にして新たなVMゲストを生成することが行われる。
この時、新たなVMゲスト用のデータを配置する共有ディスクは、空き容量やディスクI/Oの負荷状況を基に、システムの管理者に決定される。
VMゲストを生成する方法としては、事前に生成してあるVMゲストのバックアップファイルであるVMゲストイメージを用いる方法と、VMゲストイメージを用いずにユーザが全てのスペック情報を設定する方法とがある。また、事前に生成済みの同一のVMゲストイメージを基にした複数のVMゲストのディスクI/Oの負荷の情報を保存しておき、該保存されている負荷の情報を基に、新たに生成するVMのディスクI/Oの負荷を予測することも行われている。
即ち、システムの管理者は、ストレージシステム内の各共有ディスクにおけるディスクI/Oの負荷状況と、新たに生成するVMによるディスクI/Oの負荷の予測値を参考にして、生成するVMゲストのデータを格納する領域が設定される。
先行技術文献としては、下記のものがある。
特開2005−50303号公報 特開2007−164304号公報 特開2007−323245号公報
事前に生成済みの同一のVMゲストイメージを基にした複数のVMゲストのディスクI/Oの負荷の情報を保存し、該保存した負荷の情報を基に、新たに生成するVMゲストのディスクI/Oの負荷を予測する場合、以下の課題がある。即ち、新たに生成されるVMゲストは、過去と同じ仕様のVMゲストを生成しても、VMゲストを動作させるユーザの処理によって、ディスクI/Oの負荷が変わってしまうことがある。これに対応するため、過去複数回生成した炊事のVMゲストのディスクI/O負荷の平均を取ることも考えられる。しかしながら、過去に生成したVMのディスクI/Oの負荷が各々で大きく異なっている場合(以下、この場合を「ばらつきが大きい」と称する。)、過去のVMゲストのディスクI/O負荷の平均と、実際に生成したVMゲストのディスクI/O負荷が大きく異なることがある。
1つの側面では、本発明は、ディスクI/Oの負荷のばらつきが大きいVMゲストの配置先の適正化を図ることのできる管理サーバを提供することである。
上記課題を解決するために、複数のディスク装置を備えたストレージ装置と、前記ディスク装置を用いて仮想マシンを構成するためのプログラムを実行するサーバ装置とを有する情報処理システムを管理する管理装置の制御プログラムは、前記管理装置に、前記サーバ装置に所定の仮想マシンを実行させるためのプログラムに基づいて、過去に構成された複数の仮想マシンに関するプログラムがそれぞれ割り当てられたディスク装置に対するアクセス頻度を取得し、前記取得した複数の仮想マシンのアクセス頻度のばらつき度合いを示す分散値を算出し、前記分散値が所定値以上の場合、前記新たな仮想マシンを構成するためのプログラムを割り当てるディスク装置を前記ディスク装置の空き容量に基づいて決定し、前記新たな仮想マシンを構成するためのプログラムを前記決定したディスク装置に割り当てる処理を実行させる。
1実施形態によれば、ディスクI/Oの負荷のばらつきが大きいVMゲストの配置先の適正化を図ることができる。
情報処理システムを示す図(その1)である。 VMホストを示す図である。 管理サーバを示す図である。 情報処理システムを示す図(その2)である。 テーブルを示す図である。 テーブル更新処理を示すフローチャートである。 VMゲストの生成処理を示すフローチャートである。 配置ディスク決定処理を示すフローチャート(その1)である。 配置ディスク決定処理を示すフローチャート(その2)である。 共有ディスクの状態を示す図(その1)である。 共有ディスクの状態を示す図(その2)である。 共有ディスクの状態を示す図(その3)である。
以下、本実施形態における情報処理システムについて説明する。
図1は、本実施形態における情報処理システムを示す図である。情報処理システムは、複数のVMホスト100、ネットワーク200、管理サーバ300及びストレージ装置400を有する。複数のVMホスト100、管理サーバ300及びストレージ装置400は、ネットワーク200によって互いに接続される。VMホスト100は、VMゲストを実行する。管理サーバ300は、VMホスト100及びストレージ装置400の管理を行う。ストレージ装置400は、複数の共有ディスクを有し、データを格納する。
図2は、本実施形態におけるVMホストを示す図である。VMホスト100は、CPU201、主記憶装置202、システムコントローラ203、バス204、ネットワークコントローラ207、電源209、ディスクコントローラ212及びハードディスク213を有する。VMホスト100は、CPU(Central Processing Unit)201によって制御されている。
CPU201及び主記憶装置202には、システムコントローラ203が接続されている。システムコントローラ203は、CPU201と主記憶装置202との間のデータ転送や、CPU201とバス204との間のデータ転送を制御する。さらに、システムコントローラ203には、バス204を介して、ネットワークコントローラ207及びディスクコントローラ212が接続されている。
主記憶装置202には、CPU201に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、主記憶装置202には、CPU201による処理に必要な各種データが格納される。主記憶装置202には、例えば、RAM(Random Access Memory)が用いられる。
ディスクコントローラ212には、ハードディスク213が接続されている。ディスクコントローラ212は、ハードディスク213を制御する。
ハードディスク213は、CPU201が主記憶装置202上でVMゲストを実行するためのVMゲストイメージ3100、CPU201に当該VMゲストイメージ3100の呼び出しなどの制御を行わせる制御プログラム2000及び各種データを格納する。また、ハードディスク213は、CPU201が主記憶装置202上で過去に実行したVMゲストに対応するVMゲストイメージも格納する。VMゲストイメージ3100とは、インストールデータをバックアップしたプログラムである。VMゲストイメージ3100はCPUの個数、メモリ容量やOSやアプリケーション等のディスクのデータを有している。CPU201は、これらデータをストレージ装置400が有する共有ディスクの格納領域に割り当てることで、VMゲストを構成する。CPU201は、過去に実行したVMゲストに対応するVMゲストイメージに基づいて、新たにVMゲストを構成することができる。
ネットワークコントローラ207は、図1に示したVMホスト100、情報処理装置200及びストレージ装置400と接続されており、VMホスト100、情報処理装置200及びストレージ装置400との間で、データの送受信を行う。電源209は、不図示の電源線を介してVMホスト100内の各ハードウェアに対して電力を供給する。
このようなハードウェアによって、VMホスト100の処理機能を実現することができる。
図3は、本実施形態における管理サーバを示す図である。管理サーバ300は、CPU221、主記憶装置222、システムコントローラ223、バス224、ネットワークコントローラ227、電源229、ディスクコントローラ232及びハードディスク233を有する。管理サーバ300は、CPU221によって制御されている。
CPU221及び主記憶装置222には、システムコントローラ223が接続されている。システムコントローラ223は、CPU221と主記憶装置222との間のデータ転送や、CPU221とバス224との間のデータ転送を制御する。さらに、システムコントローラ223には、バス224を介して、ネットワークコントローラ227及びディスクコントローラ232が接続されている。
主記憶装置222には、CPU221に実行させるOSのプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、主記憶装置222には、CPU221による処理に必要な各種データが格納される。主記憶装置222には、例えば、RAMが用いられる。
ディスクコントローラ232には、ハードディスク233が接続されている。ディスクコントローラ232は、ハードディスク233を制御する。
ハードディスク233は、CPU221が主記憶装置222上で実行するアプリケーションプログラム1000、CPU221に当該アプリケーションプログラム1000の呼び出しなどの制御を行わせる制御プログラム4000及び各種データを格納する。また、ハードディスク233は、テーブル500を格納する。なお、テーブル500については後述する。
ネットワークコントローラ227は、図1に示したVMホスト100及びストレージ装置400と接続されており、VMホスト100及びストレージ装置400との間で、データの送受信を行う。電源229は、不図示の電源線を介して管理サーバ300内の各ハードウェアに対して電力を供給する。
このようなハードウェアによって、管理サーバ300の処理機能を実現することができる。
図4に図1において示した本実施形態における情報処理システムを示す。VMホスト100のCPU201が、主記憶装置202にて制御プログラム2000を実行することで、VMホスト100にて、VMゲストが実行される。VMホスト100それぞれにおいて、例えば、「VMA」110、「VMB」120及び「VMC」130が実行される。
ストレージ装置400は、例えば、記憶領域である「共有ディスク0」410、「共有ディスク1」420及び「共有ディスク2」430を有する。「共有ディスク0」410乃至「共有ディスク2」430はデータを記憶する。「共有ディスク0」410は「VMA」110に関するデータが、「共有ディスク1」420は「VMB」120に関するデータが、「共有ディスク2」430は「VMC」130に関するデータが、それぞれ割り当てられている。
図5は、テーブル500を示す。テーブル500は、ID502と、イメージ504と、ゲスト506と、共有ディスク508と、I/O510とを対応付けて有する。ID502は、VMゲストを識別する情報である。イメージ504は、VMゲストを生成する際に基にするVMゲストイメージの名称を示す。ゲスト506は、対応するVMゲストイメージから生成したVMゲストの名称を示す。共有ディスク508は、生成したVMゲストを割り当てた共有ディスクの名称を示す。I/O510は、対応する共有ディスクへのVMホストからの単位時間当たりのアクセス数を示す。
管理サーバ300は、VMホスト100が実行するVMゲストからID502と、イメージ504と及びゲスト506を取得し、テーブル500に書き込む。また、管理サーバ300は、ストレージ装置400からVMホスト100が生成したVMゲストが割り当てられた共有ディスクの名称を取得し、テーブル500に書き込む。さらに、管理サーバ300は、VMホスト100が生成したVMゲストが割り当てられた共有ディスクのディスクI/Oを取得し、テーブル500に書き込む。
図6は、テーブルの更新処理を示すフローチャートである。
S101において、管理サーバ300のCPU221は、共有ディスクに割り当てられたあるVMゲストに対してディスクI/Oを要求する。管理サーバ300のCPU221は、処理をS102へ移行する。
S102において、管理サーバ300のCPU221は、共有ディスクに割り当てられたディスクI/Oを要求したVMゲストからディスクI/Oを取得する。管理サーバ300のCPU221は、処理をS103へ移行する。
S103において、管理サーバ300のCPU221は、取得したディスクI/Oをテーブル500に書き込む。管理サーバ300のCPU221は、処理をS104へ移行する。
S104において、管理サーバ300のCPU221は、全てのVMゲストに対して、ディスクI/Oの要求処理を実施したか否かを判定する。全てのVMゲストに対して、ディスクI/Oの要求処理を実施した場合、管理サーバ300のCPU221は、処理を終了する。一方、全てのVMゲストに対して、ディスクI/Oの要求処理を実施していない場合、管理サーバ300のCPU221は、処理をS101に戻す。
図7は、VMゲストの生成処理を示すフローチャートである。
S201において、管理サーバ300のCPU221は、新たに生成するVMゲストの基になるVMゲストイメージが指定されているか否かを判定する。新たに生成するVMゲストの基になるVMゲストイメージが指定されている場合、管理サーバ300のCPU221は、処理をS202へ移行する。一方、新たに生成するVMゲストの基になるVMゲストイメージが指定されていない場合、管理サーバ300のCPU221は、処理をS205へ移行する。
S202において、管理サーバ300のCPU221は、テーブル500を参照して指定されたVMゲストイメージに基づいて過去に生成したVMゲストのディスクI/Oのばらつき度合いを示す分散値を算出する。管理サーバ300のCPU221は、処理をS203へ移行する。
S203において、管理サーバ300のCPU221は、S202において算出した分散値が基準値以上であるか否かを判定する。S202において算出した分散値が基準値以上である場合、管理サーバ300のCPU221は、処理をS204へ移行する。一方、S202において算出した分散値が基準値未満である場合、管理サーバ300のCPU221は、処理をS205へ移行する。生成するVMゲストはVMゲストイメージの指定がある場合、ディスクI/Oのばらつきが大きい場合と小さい場合とがある。同一のVMゲストイメージを基にVMゲストを生成しても、当該生成したVMゲストが例えば、アプリサーバに使用されたり、DBサーバに使用されたりと用途が異なることで、共有ディスクのディスクI/Oにばらつきが生じる。
S204において、管理サーバ300のCPU221は、テーブル500を参照して、基にするVMゲストのディスクI/Oから新たに生成するVMゲストのディスクI/Oを見積もり、新たに生成するVMゲストを割り当てる共有ディスクを決定する。管理サーバ300のCPU221は、処理をS206へ移行する。S202において算出した分散値が基準値未満の場合、指定されたVMゲストイメージに基づいて新たに生成するVMゲストのディスクI/Oのばらつきは小さく、新たに生成するVMゲストのディスクI/Oを予想することができる。そのため、管理サーバ300のCPU221は、新たに生成するVMゲストのディスクI/Oの予想値に基づいて、ディスクI/Oを平準化するように共有ディスクに新たに生成するVMゲストを割り当てる。
S205において、管理サーバ300のCPU221は、共有ディスクの状態により、新たに生成するVMゲストに関するプログラムを割り当てる共有ディスクを決定する。管理サーバ300のCPU221は、処理をS206へ移行する。S202において算出した分散値が基準値以上の場合、指定されたVMゲストイメージに基づいて新たに生成するVMゲストのディスクI/Oのばらつきは大きく、新たに生成するVMゲストのディスクI/Oを予想することができない。そのため、管理サーバ300のCPU221は、共有ディスクに空き領域があれば、VMゲストを稼働させる処理能力に余裕があるものとして、新たに生成するVMゲストに関するプログラムを残り容量の大きい共有ディスクに割り当てる。また、S205において、新たに生成するVMゲストの基になるVMゲストイメージが指定されていない場合、新たに生成するVMゲストに関するプログラムを残り容量の大きい共有ディスクに割り当てる。
S206において、VMホスト100のCPU201は、VMゲストを生成し、生成したVMゲストに関する所定のデータをS204またはS205において決定した共有ディスクに割り当てる。VMホスト100のCPU201は、VMゲストイメージ指定がある場合、ユーザによって指定されたVMゲストイメージに基づいてVMゲストを生成する。ユーザは、新たに生成するVMゲストとハードウェアスペックが似ているVMゲストイメージを指定すれば良い。また、VMホスト100のCPU201は、VMゲストイメージ指定がない場合、ユーザによって指定されるCPUの個数、メモリの個数及びハードディスクの個数等のハードウェアスペックに基づいてVMゲストを生成する。VMホスト100のCPU201は、処理を終了する。
図8は、図7におけるS204の配置ディスク決定処理を示すフローチャートである。
S301において、管理サーバ300のCPU221は、指定されたVMゲストに関するデータが割り当てられている共有ディスクのディスクI/Oの平均値を算出する。管理サーバ300のCPU221は、処理をS302へ移行する。
S302において、管理サーバ300のCPU221は、全体のディスクI/Oの平均値を算出する。管理サーバ300のCPU221は、処理をS303へ移行する。
S303において、管理サーバ300のCPU221は、共有ディスクの容量の平均値を算出する。管理サーバ300のCPU221は、処理をS304へ移行する。
S304において、管理サーバ300のCPU221は、1ディスクあたりのディスクI/O目標値を算出する。管理サーバ300のCPU221は、処理をS305へ移行する。
S305において、管理サーバ300のCPU221は、共有ディスクのディスクI/Oの平均値を算出する。管理サーバ300のCPU221は、処理をS306へ移行する。
S306において、管理サーバ300のCPU221は、指定されたVMゲストを生成した場合の平均値を算出する。管理サーバ300のCPU221は、処理をS307へ移行する。
S307において、管理サーバ300のCPU221は、ディスクI/Oを共有ディスクの容量で割り、単位サイズあたりの目標値を算出する。管理サーバ300のCPU221は、処理をS308へ移行する。
S308において、管理サーバ300のCPU221は、全ての共有ディスクに対して処理を実施したか否かを判定する。全ての共有ディスクに対して処理を実施した場合、管理サーバ300のCPU221は、処理をS309へ移行する。一方、全ての共有ディスクに対して処理を実施していない場合、管理サーバ300のCPU221は、処理をS305へ戻す。
S309において、管理サーバ300のCPU221は、目標値と平均値との差分の割合が少ない共有ディスクを選択する。管理サーバ300のCPU221は、処理を終了する。
図9は、図7におけるS205の配置ディスク決定処理を示すフローチャートである。
S401において、管理サーバ300のCPU221は、共有ディスクに占めるVMゲストに関するデータの割合を算出する。管理サーバ300のCPU221は、処理をS402へ移行する。
S402において、管理サーバ300のCPU221は、共有ディスクの現在の使用割合を算出する。管理サーバ300のCPU221は、処理をS403へ移行する。
S403において、管理サーバ300のCPU221は、S401及びS402において算出した値の和が最も小さい共有ディスクを選択する。管理サーバ300のCPU221は、処理を終了する。
続いて、図10乃至図12を用いて、ディスクI/Oを予測できない場合に、共有ディスクの残り容量に基づいてVMゲストイメージに関するデータを配置する方法について説明する。
図10は、共有ディスクの状態を示す図である。図10の上段に示すように、共有ディスクAのディスクI/Oは200、共有ディスクBのディスクI/Oは100であるとし、共有ディスクAにはVM1に関するデータが、共有ディスクBにはVM2に関するデータ及びVM3に関するデータが割り当てられているとする。また、VM1に関するデータが割り当てられている共有ディスクAの残り容量の方が、VM2に関するデータ及びVM3に関するデータが割り当てられている共有ディスクBの残り容量よりも大きいとする。なお、VM1、VM2及びVM3は同一のあるVMゲストイメージから生成されたVMゲストである。ここで、同一のあるVMゲストイメージから新たにVM4を生成したとする。
図10の中段に示すように、VM1乃至VM4はばらつきがあるVMゲストイメージから生成しているので、新たに生成されたVM4に関するデータは、残り容量が大きい共有ディスクAに割り当てられる。ばらつきがあるVMから生成されたVM4に関するデータはディスクI/O及びデータ量にもばらつきがあるため、共有ディスクAに割り当てるまで、実際のディスクI/O及びデータ量が分からない。ここで、VM4に関するデータを実際に共有ディスクAに割り当てることで、共有ディスクAのディスクI/Oは250になったとする。この時、共有ディスクBには、VM4を格納する空き容量があるとする。
図10の下段に示すように、VM4に関するデータを一旦共有ディスクAに割り当ててから、共有ディスクBに再度割り当てることで、共有ディスクAと共有ディスクBのディスクI/Oを平準化する。
図11は、共有ディスクの状態を示す図である。図11の上段に示すように、共有ディスクAのディスクI/Oは200、共有ディスクBのディスクI/Oは100であるとし、共有ディスクAにはVM1に関するデータが、共有ディスクBにはVM2に関するデータ及びVM3に関するデータが割り当てられているとする。また、VM1に関するデータが割り当てられている共有ディスクAの残り容量の方が、VM2に関するデータ及びVM3に関するデータが割り当てられている共有ディスクBの残り容量よりも大きいとする。なお、VM1、VM2及びVM3は同一のあるVMゲストイメージから生成されたVMゲストである。ここで、同一のあるVMゲストイメージから新たにVM4を生成したとする。
図11の中段に示すように、VM1乃至VM4はばらつきがあるVMゲストイメージから生成しているので、新たに生成されたVM4に関するデータは、残り容量が大きい共有ディスクAに割り当てられる。ばらつきがあるVMから生成されたVM4に関するデータはディスクI/O及びデータ量にもばらつきがあるため、共有ディスクAに割り当てるまで、実際のディスクI/O及びデータ量が分からない。ここで、VM4に関するデータを実際に共有ディスクAに割り当てることで、共有ディスクAのディスクI/Oは350になったとする。この時、共有ディスクBには、VM4を格納する空き容量がないとする。
図11の下段に示すように、VM4に関するデータを共有ディスクAに割り当てることで、共有ディスクBの残り容量を確保しておき、また新たに生成するVMを共有ディスクBに割り当てることで、共有ディスクAと共有ディスクBのディスクI/Oを平準化する。
図12は、共有ディスクの状態を示す図である。図12の上段に示すように、共有ディスクAのディスクI/Oは200、共有ディスクBのディスクI/Oは100であるとし、共有ディスクAにはVM5に関するデータが、共有ディスクBにはVM2に関するデータ及びVM3に関するデータが割り当てられているとする。また、VM5に関するデータが割り当てられている共有ディスクAの残り容量の方が、VM2に関するデータ及びVM3に関するデータが割り当てられている共有ディスクBの残り容量よりも大きいとする。なお、VM5、VM2及びVM3は同一のあるVMから生成されたVMでゲストある。ここで、同一のあるVMゲストイメージから新たにVM4を生成したとする。
図12の中段に示すように、VM2乃至VM5はばらつきがあるVMゲストイメージから生成しているので、新たに生成されたVM4に関するデータは、残り容量が大きい共有ディスクAに割り当てられる。ばらつきがあるVMから生成されたVM4に関するデータはディスクI/O及びデータ量にもばらつきがあるため、共有ディスクAに割り当てるまで、実際のディスクI/O及びデータ量が分からない。ここで、VM4に関するデータを実際に共有ディスクAに割り当てることで、共有ディスクAのディスクI/Oは350になったとする。この時、共有ディスクBには、VM4に関するデータを格納する空き容量があるとする。さらに、VM4に関するデータを共有ディスクBに割り当てると、共有ディスクBにさらに新たなVMを割り当てる空き容量を確保できないとする。
図12の下段に示すように、VM4に関するデータを一旦共有ディスクAに割り当ててから、共有ディスクBに再度割り当てることで、共有ディスクAと共有ディスクBのディスクI/Oを平準化する。共有ディスクAのディスクI/Oを小さく、かつ空き容量を十分に確保しておくことで、また新たに生成するVMを共有ディスクBに割り当てることで、共有ディスクAと共有ディスクBのディスクI/Oを平準化する。
以上、本発明の例示的な実施の形態の情報処理システムについて説明したが、本発明は、具体的に開示された実施の形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。
100 VMホスト
110、120、130 VMゲスト
200 ネットワーク
201、221 CPU
202、222 主記憶装置
203、223 システムコントローラ
204、224 バス
207、227 ネットワークコントローラ
209、229 電源
212、232 ディスクコントローラ
213、233 ハードディスク
300 管理サーバ
400 ストレージ装置
410、420、430 共有ディスク
500 テーブル
502 ID
504 イメージ
506 ゲスト
508 共有ディスク
510 ディスクI/O
1000 アプリケーションプログラム
2000、4000 制御プログラム
3100 VMゲストイメージ

Claims (6)

  1. 複数のディスク装置を備えたストレージ装置と、前記ディスク装置を用いて仮想マシンを構成するためのプログラムを実行するサーバ装置とを有する情報処理システムを管理する管理装置の制御プログラムであって、
    前記管理装置に、
    前記サーバ装置に所定の仮想マシンを実行させるためのプログラムに基づいて、過去に構成された複数の仮想マシンに関するプログラムがそれぞれ割り当てられたディスク装置に対するアクセス頻度を取得し、
    前記取得した複数の仮想マシンのアクセス頻度のばらつき度合いを示す分散値を算出し、
    前記分散値が所定値以上の場合、前記新たな仮想マシンを構成するためのプログラムを割り当てるディスク装置を前記ディスク装置の空き容量に基づいて決定し、
    前記新たな仮想マシンを構成するためのプログラムを前記決定したディスク装置に割り当てる、
    処理を実行させること特徴とする制御プログラム。
  2. 前記分散値が所定値よりも小さい場合、新たな仮想マシンを構成するためのプログラムを割り当てるディスク装置を前記ディスク装置へのアクセス頻度に基づいて決定することを特徴とする請求項1記載の制御プログラム。
  3. 複数のディスク装置を備えたストレージ装置と、前記ディスク装置を用いて仮想マシンを構成するためのプログラムを実行するサーバ装置とを有する情報処理システムを管理する管理装置の制御方法において、
    前記管理装置が、
    前記サーバ装置に所定の仮想マシンを実行させるためのプログラムに基づいて、過去に構成された複数の仮想マシンに関するプログラムがそれぞれ割り当てられたディスク装置に対するアクセス頻度を取得し、
    前記取得した複数の仮想マシンのアクセス頻度のばらつき度合いを示す分散値を算出し、
    前記分散値が所定値以上の場合、前記新たな仮想マシンを構成するためのプログラムを割り当てるディスク装置を前記ディスク装置の空き容量に基づいて決定し、
    前記新たな仮想マシンを構成するためのプログラムを前記決定したディスク装置に割り当てる、
    こと特徴とする制御方法。
  4. 前記分散値が所定値よりも小さい場合、新たな仮想マシンを構成するためのプログラムを割り当てるディスク装置を前記ディスク装置へのアクセス頻度に基づいて決定することを特徴とする請求項3記載の制御方法。
  5. 複数のディスク装置を備えたストレージ装置と、前記ディスク装置を用いて仮想マシンを構成するためのプログラムを実行するサーバ装置とを有する情報処理システムを管理する管理装置において、
    前記サーバ装置に所定の仮想マシンを実行させるためのプログラムに基づいて、過去に構成された複数の仮想マシンに関するプログラムがそれぞれ割り当てられたディスク装置に対するアクセス頻度を格納する格納部を有し、
    前記取得した複数の仮想マシンのアクセス頻度のばらつき度合いを示す分散値を算出し、前記分散値が所定値以上の場合、前記新たな仮想マシンを構成するためのプログラムを割り当てるディスク装置を前記ディスク装置の空き容量に基づいて決定し、
    前記新たな仮想マシンを構成するためのプログラムを前記決定したディスク装置に割り当てる処理を行う処理部と
    を有すること特徴とする管理装置。
  6. 前記処理部は、前記分散値が所定値よりも小さい場合、新たな仮想マシンを構成するためのプログラムを割り当てるディスク装置を前記ディスク装置へのアクセス頻度に基づいて決定することを特徴とする請求項5記載の管理装置。
JP2012063652A 2012-03-21 2012-03-21 管理装置の制御プログラム、制御方法及び管理装置 Active JP5910215B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012063652A JP5910215B2 (ja) 2012-03-21 2012-03-21 管理装置の制御プログラム、制御方法及び管理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012063652A JP5910215B2 (ja) 2012-03-21 2012-03-21 管理装置の制御プログラム、制御方法及び管理装置

Publications (2)

Publication Number Publication Date
JP2013196447A true JP2013196447A (ja) 2013-09-30
JP5910215B2 JP5910215B2 (ja) 2016-04-27

Family

ID=49395289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012063652A Active JP5910215B2 (ja) 2012-03-21 2012-03-21 管理装置の制御プログラム、制御方法及び管理装置

Country Status (1)

Country Link
JP (1) JP5910215B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133854A (ja) * 2005-11-09 2007-05-31 Hitachi Ltd リソース割り当てのためのコンピュータ化されたシステムと方法
JP2008117094A (ja) * 2006-11-02 2008-05-22 Hitachi Ltd ストレージシステム、ストレージ装置及びストレージ管理方法
JP2011238202A (ja) * 2010-05-11 2011-11-24 Lsi Corp リソース使用量に基づいて論理区画コンピュータシステムのリソースを管理するためのシステム及び方法
WO2012032679A1 (ja) * 2010-09-06 2012-03-15 株式会社日立製作所 計算機システム、及び、計算機システムの制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133854A (ja) * 2005-11-09 2007-05-31 Hitachi Ltd リソース割り当てのためのコンピュータ化されたシステムと方法
JP2008117094A (ja) * 2006-11-02 2008-05-22 Hitachi Ltd ストレージシステム、ストレージ装置及びストレージ管理方法
JP2011238202A (ja) * 2010-05-11 2011-11-24 Lsi Corp リソース使用量に基づいて論理区画コンピュータシステムのリソースを管理するためのシステム及び方法
WO2012032679A1 (ja) * 2010-09-06 2012-03-15 株式会社日立製作所 計算機システム、及び、計算機システムの制御方法

Also Published As

Publication number Publication date
JP5910215B2 (ja) 2016-04-27

Similar Documents

Publication Publication Date Title
US9588789B2 (en) Management apparatus and workload distribution management method
US9183016B2 (en) Adaptive task scheduling of Hadoop in a virtualized environment
JP4519098B2 (ja) 計算機の管理方法、計算機システム、及び管理プログラム
JP5088366B2 (ja) 仮想計算機制御プログラム、仮想計算機制御システムおよび仮想計算機移動方法
JP5332065B2 (ja) クラスタ構成管理方法、管理装置及びプログラム
JP5119077B2 (ja) 仮想サーバリソース調整システム、リソース調整装置、仮想サーバリソース調整方法、及び、コンピュータプログラム
US20150309828A1 (en) Hypervisor manager for virtual machine management
TWI748530B (zh) 資源管理方法和裝置、電子設備及記錄媒體
US10248460B2 (en) Storage management computer
WO2014032287A1 (zh) 中央处理器资源分配方法和计算节点
JP2016507814A (ja) 記憶リソースを共有する方法およびシステム
US9690608B2 (en) Method and system for managing hosts that run virtual machines within a cluster
JP2009265778A (ja) 仮想化サーバ
JP2016103179A (ja) 計算機リソースの割り当て方法及び計算機システム
EP2631797A2 (en) Thin client system with virtual machine management and server, method and program for connection management
US20130185531A1 (en) Method and apparatus to improve efficiency in the use of high performance storage resources in data center
JP6653710B2 (ja) 計算機および計算機の制御方法
KR20150007698A (ko) 가상 데스크탑 서비스를 위한 부하 분산 시스템
JP2014067322A (ja) 仮想サーバの負荷分散システム、および負荷分散方法
JP5910215B2 (ja) 管理装置の制御プログラム、制御方法及び管理装置
JP5988505B2 (ja) 仮想リソース管理装置、選択方法及び選択プログラム
JP2013127685A (ja) 情報処理システムおよび運用管理方法
JP5435133B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
KR20120071979A (ko) 클라우드 컴퓨팅 시스템의 자원관리장치 및 방법
JP6870390B2 (ja) 仮想基盤にもとづくシステムにおけるリソース割当方法、接続管理サーバおよび接続管理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160314

R150 Certificate of patent or registration of utility model

Ref document number: 5910215

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150