JP2011232916A - 計算機システム及び管理計算機 - Google Patents

計算機システム及び管理計算機 Download PDF

Info

Publication number
JP2011232916A
JP2011232916A JP2010101843A JP2010101843A JP2011232916A JP 2011232916 A JP2011232916 A JP 2011232916A JP 2010101843 A JP2010101843 A JP 2010101843A JP 2010101843 A JP2010101843 A JP 2010101843A JP 2011232916 A JP2011232916 A JP 2011232916A
Authority
JP
Japan
Prior art keywords
migration
server
virtual
physical server
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010101843A
Other languages
English (en)
Other versions
JP5589218B2 (ja
Inventor
Kazuhiko Mizuno
和彦 水野
Takeshi Naono
健 直野
Hideki Okita
英樹 沖田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2010101843A priority Critical patent/JP5589218B2/ja
Publication of JP2011232916A publication Critical patent/JP2011232916A/ja
Application granted granted Critical
Publication of JP5589218B2 publication Critical patent/JP5589218B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】仮想サーバの最適な移行先及び移行経路を設定し、移行処理の事前検証及び移行処理に要する時間を短縮させる。
【解決手段】仮想計算機システム上の複数の仮想サーバの移行を制御する管理計算機を備えた計算機システムである。管理計算機は、各仮想サーバの稼働情報及び構成情報を取得し、取得された各仮想サーバの稼働情報及び構成情報に基づき、移行経路グループを設定し、各仮想サーバの稼働状況を監視し、マイグレーション契機を検知した場合、設定された移行経路グループと、各物理サーバの現在及び過去の移行状況を含む移行情報とに基づき、移行対象の仮想サーバの移行先及び移行経路を選定し、選定された移行先及び移行経路に基づき、移行対象の仮想サーバを移行させ、各物理サーバの移行情報を更新する。
【選択図】図1

Description

本発明は、計算機システムに関し、特に、仮想サーバの最適な移行先及び移行経路を設定する技術に関する。
仮想化技術の発展により、各機器が所有するリソースを仮想的にプールし、利用用途や利用状況に応じて仮想サーバを別の物理サーバ(Bladeサーバ)に移行させる運用が一般化している。このような運用に利用される機能をマイグレーション機能と呼ぶ。マイグレーション機能を利用した運用によれば、消費電力の低減や負荷分散による性能保証が可能になる。以下、図17、18を用いて従来のマイグレーション機能を説明する。
図17は、従来の仮想サーバの稼働状況に応じたマイグレーションを説明する図である。図17を用いて、管理計算機(不図示)が、仮想サーバ1702の稼働状況に応じて、仮想サーバ1702を他の物理サーバ1701に移行(マイグレーションと同義)させる処理を説明する。
まず管理計算機(不図示)は、実機環境1700の各構成要素(仮想サーバ1702、物理サーバ1701等)の稼働状況を監視する。その後、所定の仮想サーバ1702が高負荷状態であることを、CPU(Central Processing Unit)利用率の増加等により判定した場合((1))、この仮想サーバ1702の移行先となり得る他の各物理サーバ1701のリソースの利用状況(稼働状況)及びシステム構成を検証する((2))。その後、高負荷状態を解消するために、仮想サーバ1702を他の物理サーバ1701に移行させる((3))。なお、(2)において各物理サーバ1701の稼働状況等を事前に検証するのは、空きリソースがない物理サーバ1701への移行や、システム構成が異なる物理サーバ1701への移行を防ぐためである。
図18は、従来のスケジュール管理によるマイグレーションを説明する図である。図18を用いて、管理計算機(不図示)が、仮想サーバ1803の移行を、業務の運用方法に応じてスケジュール管理させる処理を説明する。
昼間には各仮想サーバ1803を十分に稼働させ、夜間には殆ど稼働させない業務の運用方法の場合、管理計算機(不図示)は、昼間には各物理サーバ1802に仮想サーバ1803を設置し、各仮想サーバ1803に業務を実行させ、夜間には一つの物理サーバ1802に各仮想サーバ1803を移行させて他の物理サーバ1802の電源を落とすように、各仮想サーバ1803をスケジュール管理する。これにより、システム全体の消費電力を削減できる。
上述したようなマイグレーション機能は、現在、色々なベンダから提供されている。例えばVMware社は、VMotionと呼ばれるマイグレーション機能を提供している(非特許文献1参照)。このVMotionは、移行元の仮想サーバのシステム構成が移行先の仮想サーバと同一であることを前提としたマイグレーション機能である。また、仮想サーバの稼働状況を監視し、高負荷状態の仮想サーバを別の物理サーバに移行させることによって、仮想サーバの性能低下を抑制するVMware(登録商標) DRS(Distributed Resource Scheduler)機能(非特許文献2参照)や、仮想サーバの移行タイミングや移行先を予めスケジュール管理する機能が提供されている。
その他、高負荷状態の仮想サーバを判定する技術として、特許文献1には、仮想サーバの負荷を定期的に取得し、取得された負荷が事前に設定した閾値を上回る、又は、下回る回数に基づいて、仮想サーバの高負荷・低負荷を判定する技術が開示されている。また、仮想サーバ等の稼働状況を検証する技術として、特許文献2には、仮想サーバ又は物理サーバに計測プログラムをインストールし、この計測プログラムを用いて仮想サーバ又は物理サーバの処理性能を測定する技術が開示されている。特許文献2に開示された技術によれば、物理サーバが備えるCPUの種類により各仮想サーバの処理性能が異なる場合であっても、CPUの種類に関係なく同じ基準で各仮想サーバの処理性能を測定することができる。
特開2009−116380号公報 特開2007−323245号公報
上記従来の仮想サーバの稼働状況に応じたマイグレーション(図17参照)では、各物理サーバ及び各仮想サーバの稼働状況等を事前に検証する必要がある((2))。しかしながら、検証対象の物理サーバ及び仮想サーバの台数が増加した場合には、各物理サーバ及び各仮想サーバの稼働状況等を容易に検証できない。また、上記従来のスケジュール管理によるマイグレーション(図18参照)では、移行元及び移行先の物理サーバのシステム構成が同じであるように環境を事前に構築する必要がある。そのため、運用ポリシーの変更や機器の統合等を容易にできず、システム構成全体の見直しが必要となる可能性がある。
また、仮想サーバの稼働状況を検証する場合、上述したような計測プログラムを利用した性能調査や、CPUの種類に合わせたベンチマークによる性能評価等を実行する必要がある。これは、物理サーバが備えるCPUの種類等に応じて、仮想サーバの性能が変動するためである。ここで計測プログラムを利用した性能調査では、仮想サーバ又は物理サーバに計測プログラムがインストールされる。しかしながら、計測プログラムに対するメンテナンスが必要になった場合、全ての仮想サーバ及び物理サーバに対してメンテナンスを実行する必要があり、メンテナンスに時間を要する可能性がある。
また、仮想サーバの稼働状況を監視し、所定の条件に基づき自動的に移行処理を実行する場合、各仮想サーバの移行処理は各々のタイミングで実行される。そのため、例えば複数の仮想サーバを1つの物理サーバに移行する場合、移行待ちが発生し、移行処理に時間を要する可能性がある。また、仮想サーバを一時的に移行先の物理サーバ以外の他の物理サーバに移行させ、次に移行先の物理サーバに移行させる方法もある。しかしながら、この方法では、他の物理サーバにおいて仮想サーバを一時的に移行させるための空きリソースが確保されていない場合、移行前の仮想サーバの性能を保証することができない。また、一時的な移行先として選択された物理サーバのリソースを消費するため、この物理サーバ上の他の仮想サーバに影響を及ぼす可能性がある。
本発明は、上述した課題を考慮したものであって、仮想サーバの最適な移行先及び移行経路を設定し、移行処理の事前検証及び移行処理に要する時間を短縮させる計算機システムを提供することを目的とする。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、1又は複数の物理サーバ上で動作する複数の仮想サーバを備える仮想計算機システムと、前記複数の仮想サーバの移行を制御する管理計算機と、を備えた計算機システムであって、前記管理計算機は、プログラムを実行するプロセッサと、前記プロセッサによって実行されるプログラムを格納するメモリとを備え、前記管理計算機は、前記各仮想サーバの稼働情報及び構成情報を取得し、取得された前記各仮想サーバの稼働情報及び構成情報に基づき、前記各仮想サーバについて、前記各仮想サーバが移行可能な移行先の物理サーバ及び仮想サーバのグループである移行経路グループを設定し、前記各仮想サーバの稼働状況を監視し、所定の仮想サーバのマイグレーション契機を検知し、前記所定の仮想サーバのマイグレーション契機を検知した場合、設定された前記移行経路グループと、前記各物理サーバの現在及び過去の移行状況を含む移行情報とに基づき、前記所定の仮想サーバの移行先及び移行経路を選定し、選定された前記所定の仮想サーバの移行先及び移行経路に基づき、前記所定の仮想サーバを移行させ、前記所定の仮想サーバの移行に伴い、前記各物理サーバの移行情報を更新することを特徴とする。
本発明によれば、仮想サーバの最適な移行先及び移行経路を設定し、移行処理の事前検証及び移行処理に要する時間を短縮させることができる。
本発明の実施の形態の計算機システムの構成例を示す図である。 本発明の実施の形態のシステム監視部の構成例を示す図である。 本発明の実施の形態の稼働情報管理テーブルの一例を示す図である。 本発明の実施の形態の整合性管理テーブルの一例を示す図である。 本発明の実施の形態の整合性を説明するための図である。 本発明の実施の形態の移行制御部の構成例を示す図である。 本発明の実施の形態のスケジュール管理テーブルの一例を示す図である。 本発明の実施の形態の移行管理テーブルの一例を示す図である。 本発明の実施の形態の移行回数履歴管理テーブルの一例を示す図である。 本発明の実施の形態の移行実行部の構成例を示す図である。 本発明の実施の形態のシステム監視部の処理手順を示すフローチャートである。 本発明の実施の形態の移行制御部の処理手順を示すフローチャートである。 本発明の実施の形態の移行制御部の移行先選定処理の処理手順を示すフローチャートである。 本発明の実施の形態の移行制御部の移行経路選定処理の処理手順を示すフローチャートである。 本発明の実施の形態の移行実行部の処理手順を示すフローチャートである。 本発明の実施の形態のマイグレーション処理をモニタリングするための表示画面の一例を示す図である。 従来の仮想サーバの稼働状況に応じたマイグレーションを説明する図である。 従来のスケジュール管理によるマイグレーションを説明する図である。
以下、本発明の実施の形態について図面に基づいて説明する。
図1は、本発明の実施の形態の計算機システム1の構成例を示す図である。図1に示す計算機システム1では、管理計算機100が、業務ネットワーク101を介して接続された実機環境102の各構成要素を制御する。
実機環境102は、複数の物理サーバ108、FC(Fiber Channel)スイッチ109、及び、ストレージ110を備える。各物理サーバ108は、HBA(Host Bus Adapter)120、FCスイッチ109を経由して、ストレージ110のディスクドライブ126を使用する。HBA120は、ファイバチャネルに接続されるポートである。FCスイッチ109は、物理サーバ108とストレージ110とをファイバチャネルで通信させる機器である。このFCスイッチ109内のパス経路を設定することにより、物理サーバ108とストレージ110とのパス経路を制御することができる。
各物理サーバ108には、日立サーバ仮想化機構(Virtage)やVMware等の仮想アプリケーション(不図示)がインストールされる。各物理サーバ108のハイパバイザ107上では、複数の仮想サーバ106が稼動する。各仮想サーバ106には、仮想CPU115、仮想メモリ116及び仮想HBA117が割り当てられる。これら仮想CPU115、仮想メモリ116及び仮想HBA117の各々は、物理サーバ108に搭載されたCPU119、メモリ118、及び、HBA120がハイパバイザ107によって論理的に分割されたものである。
ストレージ110は、複数のディスクドライブ126を組み合わせることによって構成されるRG(Raid Group)125を備える。各物理サーバ108は、このRG125を、複数のディスクドライブ126を纏めた1つの仮想ディスクとして利用する。LU(Logical Unit)124は、このRG125を仮想的に区分けしたディスクボリュームである。LU124は、ストレージ110のコントローラ123とAポート121、又は、Bポート122に割り当てられる。各物理サーバ108内の仮想サーバ106は、FCスイッチ109を経由して、このLU124を利用する。
管理計算機100は、メモリ111、キャッシュ112、CPU113、ディスクドライブ114を備える。メモリ111には、システム監視部103、移行制御部104、及び、移行実行部105を実行するプログラムが格納される。CPU113は、メモリ111に格納されたプログラムを実行する。この管理計算機100は、実機環境102の仮想サーバ106の移行処理を制御する。
システム監視部103は、実機環境102の実機情報と稼働情報とを取得する(10000)。実機情報は、実機環境102のシステム構成を示す情報である。この実機情報は、実機環境102を構成する各機器の情報及び各機器間の接続情報を含む。システム監視部103は、取得された実機情報に基づき、移行に利用する移行経路グループを作成する。一方、稼働情報は、実機環境102で動作する仮想サーバ106や物理サーバ108の稼働状況を示す情報である。この稼働情報は、仮想サーバ106や物理サーバ108のリソース利用状況を含む。システム監視部103は、取得された稼働情報に基づき、仮想サーバ106の稼働状況を監視する。その後、仮想サーバ106のリソース不足等により通常業務に影響を及ぼす要因を検知した場合、要因となる仮想サーバ106を他の物理サーバ108に移行させる通知を、移行制御部104に送信する(10001)。このシステム監視部103の構成については、図2を用いて後述する。
移行制御部104は、移行処理を管理する。具体的には、移行先及び移行経路の選定等の移行に関する設定、移行の履歴情報の管理、及びの実行順番を登録するスケジュール管理を実行する。この移行制御部104は、システム監視部103から通知を受信した場合、システム監視部103によって取得された稼働情報、作成された移行経路グループ、及び、移行の履歴情報に基づき、移行先及び移行経路を選定し、移行の実行スケジュールに登録する。この移行制御部104は、移行の実行スケジュールに登録された各仮想サーバ106の情報を、移行実行部105に順次送信する(10002)。この移行制御部104の構成については、図6を用いて後述する。
移行実行部105は、移行制御部104から受信した情報に基づき、実機環境102に順次移行処理を実行させる(10003)。この移行実行部105は、実機環境102に移行処理を実行させた後、移行処理の完了通知を移行の実行スケジュールに登録する。この移行実行部105の構成については、図10を用いて後述する。
図2は、本発明の実施の形態のシステム監視部103の構成例を示す図である。図2に示すように、システム監視部103は、構成/統計情報取得部200、管理テーブル作成部201、モニタリング部202、及び、実機情報送信部(マイグレーション契機送信部)203を備える。
構成/統計情報取得部200は、実機環境102から、実機環境102の構成情報(前述の実機情報に相当)と統計情報(前述の稼働情報に相当)を取得する(10000)。この構成/統計情報取得部200は、取得された実機環境102の構成情報と統計情報を、管理テーブル作成部201に送信する(20000)。管理テーブル作成部201は、受信した実機環境102の構成情報と統計情報とに基づき、整合性管理テーブル205及び稼働情報管理テーブル206を作成し、これらのテーブル205、206に格納された情報を、稼働情報DB204にデータベースとして登録する(20001)。整合性管理テーブル205は、各仮想サーバ106のシステム構成の一致度合いを示す指標(整合性)を管理するテーブルである。稼働情報管理テーブル206とは、各仮想サーバ106の稼働情報を管理するテーブルである。整合性管理テーブル205及び稼働情報管理テーブル206については、図3、図4を用いて後述する。
モニタリング部202は、稼働情報管理テーブル206に基づき、各仮想サーバ106の稼働状況をモニタリング(監視)する(20002)。システム管理者は、モニタリング部202によってモニタリングされた内容に基づいて、各仮想サーバ106の稼働状況を監視する。またシステム管理者は、必要に応じて仮想サーバ106のマイグレーション契機が発生したと判定し、移行を指示する。そうすると、管理テーブル作成部201は、実機情報送信部203にマイグレーション契機が発生した旨を通知する(20003)。なお、システム管理者がマイグレーション契機の発生を判定する代わりに、モニタリング部202は、仮想サーバ106の稼働情報(例えば仮想サーバ106の負荷)が予め設定された閾値を超えた場合に、自動的に仮想サーバ106のマイグレーション契機が発生したと判定してもよい。その後、マイグレーション契機が発生した旨を通知された実機情報送信部203は、該当する仮想サーバ106を他の物理サーバ10に移行させる通知を、移行制御部104に送信する(10001)。
図3は、本発明の実施の形態の稼働情報管理テーブル206の一例を示す図である。図3に示すように、稼働情報管理テーブル206の左側2列には、実機環境102の各物理サーバ108及び各物理サーバ108に搭載された各仮想サーバ106を一意に識別する識別子が登録される。また、稼働情報管理テーブル206の各行には、各仮想サーバ106におけるリソースの利用状況、すなわち、Server(仮想サーバ)106の仮想CPUの利用率、Busy率、Hyper(ハイパバイザ)107のCPUの利用率、FC−SW(FCスイッチ)109の転送率、及び、Storage(ストレージ)110のプロセッサの利用率とドライブの利用率、並びに、仮想サーバ106の移行の指示があった場合のマイグレーション契機の発生要因である機器及びリソースが登録される。このように稼働情報管理テーブル206は、各仮想サーバ106の稼働情報を管理している。なお、図3に示す稼働情報管理テーブル206には、各仮想サーバ106におけるリソースの利用状況の平均値が登録されているが、この場合には限らない。例えば、リソースの利用状況の時系列情報が登録されてもよい。また、リソースの利用状況の時系列情報から任意の期間で集計した情報が登録されてもよい。
図3の例では、物理サーバ "0"に搭載された仮想サーバ "1"の稼働状況は、仮想サーバ106のCPU利用率が80%、Busy率が10%、ハイパバイザ107のCPU利用率が80%、FCスイッチ109の転送率が20%、ストレージ110のプロセッサ利用率が80%、ドライブ利用率が10%であることを示す。また、物理サーバ "0"に搭載された仮想サーバ "1"では、仮想サーバ106のCPU利用率が高いことが要因となってマイグレーション契機が発生していることを示す。
図4は、本発明の実施の形態の整合性管理テーブル205の一例を示す図である。図4に示すように、整合性管理テーブル205の左側2列には、移行元の各物理サーバ108及び各物理サーバ108に搭載された各仮想サーバ106を一意に識別する識別子が登録される。また、整合性管理テーブル205の上段2行には、移行先の各物理サーバ108及び各物理サーバ108に搭載された仮想サーバ106を一意に識別する識別子が登録される。また、移行元の各仮想サーバ106と移行先の各仮想サーバ106との交点には、各仮想サーバ106のシステム構成の一致度合いを示す指標(整合性)が登録される。
なお、図4の例では、簡易的に指標が3段階(0、50、100)に示される場合を表しているが、この場合には限らない。例えば、システム構成の確認項目に応じて評価段階を変更してもよい。システム監視部103(管理テーブル作成部201)は、この指標に応じて各仮想サーバ106を複数のグループに分け、各グループを移行経路グループとして設定する。図4の例では、物理サーバ “0”の仮想サーバ“1”から移行可能な物理サーバ“1”の仮想サーバ“1”、物理サーバ “2”の仮想サーバ“1”、“2”を、移行経路グループAとして設定する。同様に、物理サーバ“0”の仮想サーバ“2”から移行可能な物理サーバ“1”の仮想サーバ“1”を、移行経路グループBとして設定する。同様に、移行経路グループCを設定する。そうすると、物理サーバ“1”の仮想サーバ“1”から移行可能な物理サーバ“0”の仮想サーバ“1”、“2”、“3”を、移行経路グループABCとして設定することができる。同様に、物理サーバ“2”の仮想サーバ“1”から移行可能な物理サーバ“0”の仮想サーバ“1”、“2”を、移行経路グループABとして設定することができる。設定された移行経路グループの情報は、整合性管理テーブル205において移行元の仮想サーバ106毎に登録される。また、図4の例では、各移行経路グループは各仮想サーバ106のシステム構成のみに着目して設定されているが、この場合には限らない。移行処理の移行先及び移行経路を選択する際に、仮想サーバ106の稼働状況等に応じて各移行経路グループを再編成してもよい。再編成処理の詳細については、図11を用いて後述する。
図5は、本発明の実施の形態の整合性を説明するための図である。上述した指標(整合性)の設定方法及び移行経路グループの設定方法について、図5を用いて具体的に説明する。
図5では、4つの仮想サーバA501、B502、C503、D504を備えた実機環境102において、各仮想サーバA501、B502、C503、D504のシステム構成の一致度合いを示す指標を3段階(0、50、100)に分けた例を示している。
指標が100の場合、仮想サーバB502と仮想サーバC503のようにシステム構成が全く同じであることを表す。指標が50の場合、仮想サーバA501と仮想サーバB502のように同一のストレージ510を利用しているが、両仮想サーバA501、B502のリソースの設定値(仮想CPU506の数や仮想メモリ507の容量等)が異なることを表す。指標が0の場合、仮想サーバC503と仮想サーバD504のように異なるストレージ509を利用しているため、両仮想サーバC503、D504間で移行できないことを表す。
即ち、整合性が100、50である仮想サーバA501、B502、C503の間では、移行可能である。但し、整合性が50である仮想サーバA501、B502はリソースの設定値が異なるため、単純な移行(性能保証を意識しない移行)は可能であるものの、移行の前後で性能を保証できない可能性がある。一方、整合性が0である仮想サーバD504と他の仮想サーバA501、B502、C503との間では移行できない。
なお、図5に示す例では、システム構成の整合性を3段階に分けて示しているが、この場合には限らない。例えば物理サーバ505のCPU506の種類や仮想メモリ507の容量、FCスイッチ508のカスケード接続状況、及び、ストレージ509のドライブ構成等に応じて、システム構成の整合性を細分化させてもよい。
図6は、本発明の実施の形態の移行制御部104の構成例を示す図である。図6に示すように、移行制御部104は、マイグレーション契機受信部600、移行先選定部601、及び、移行指示送信部602を備える。
マイグレーション契機受信部600は、システム監視部103から移行の指示(所定の仮想サーバ106を他の物理サーバ10に移行させる通知)を受信する(10001)。その後、マイグレーション契機受信部600は、移行先選定部601に移行先及び移行経路を選定する処理を指示する(60000)。
移行先及び移行経路を選定する処理の指示を受信した移行先選定部601は、稼働情報DB204から、各仮想サーバ106の稼働情報と、移行対象の仮想サーバ106の移行経路グループの情報とを取得する(60001)。次に、移行先選定部601は、移行情報DB606から、移行経路グループに含まれる各物理サーバ108の移行情報(すなわち、各テーブル603、604、605に登録された情報等)を取得する(60002)。その後、移行先選定部601は、稼働情報DB204及び移行情報DB606から取得された情報に基づき、移行先の物理サーバ108及び移行経路を選定する。その後、移行先選定部601は、選定された移行先の物理サーバ108及び移行経路を、移行指示送信部602に送信する(60003)。移行指示送信部602は、受信した移行先の物理サーバ108及び移行経路の情報に基づき、スケジュール管理テーブル603、移行管理テーブル604、移行回数履歴管理テーブル605を作成し、これらのテーブル603、604、605に格納された情報を、移行情報DB606にデータベースとして登録する(60004)。スケジュール管理テーブル603は、仮想サーバ106の移行の実行順番等のスケジュールを管理するテーブルである。移行管理テーブル604は、各物理サーバ108に対する移行予定数(移行される仮想サーバ106の数)を管理するテーブルである。移行回数履歴管理テーブル605は、仮想サーバ106の移行先の物理サーバ108及び移行回数の履歴を管理するテーブルである。スケジュール管理テーブル603、移行管理テーブル604及び移行回数履歴管理テーブル605については、それぞれ図7〜図9を用いて後述する。
移行指示送信部602は、スケジュール管理テーブル603に登録された実行順番で各仮想サーバ106を移行させる指示を、移行実行部105に送信する(10002)。
図7は、本発明の実施の形態のスケジュール管理テーブル603の一例を示す図である。図7に示すように、スケジュール管理テーブル603には、"受付ID"、“関連ID”、“移行元(物理サーバ、仮想サーバ)”、“移行先(物理サーバ、仮想サーバ)”、“開始時刻”、“終了時刻”、“マイグレーション契機(機器、リソース)”、“移行先物理サーバの空き”、“移行先物理サーバに移行予定の仮想サーバ数”を対応付けた情報が、スケジュール情報として登録される。
“受付ID”には、移行の指示を受け付けた順番が登録される。“関連ID”には、移行対象の仮想サーバ106の移行経路を示す識別子が登録される。同一の移行経路の場合には同一の“関連ID”が登録される。“移行元(物理サーバ、仮想サーバ)”には、移行元の仮想サーバ106及び仮想サーバ106が搭載された物理サーバ108の識別情報が登録される。“移行先(物理サーバ、仮想サーバ)”には、移行先の仮想サーバ106及び仮想サーバ106が搭載された物理サーバ108の識別情報が登録される。“開始時刻”、“終了時刻”には、それぞれ移行の開始時刻、終了時刻が登録される。なお、“開始時刻”は、移行指示送信部602が移行の指示を移行実行部105に送信した際に登録される。また、“終了時刻”は、移行実行部105が移行の完了通知を受信した際に登録される。これら“開始時刻”、“終了時刻”により、移行の状態を把握することができる。“マイグレーション契機”には、マイグレーション契機の発生要因が登録される。“移行先物理サーバの空き”には、現在(移行先選定部601が移行先の物理サーバ108及び移行経路を選定したとき)の移行先の物理サーバ108のリソースの空き率が登録される。 “移行先物理サーバに移行予定の仮想サーバ数”には、移行先の物理サーバ108に移行予定の仮想サーバ106の数が登録される。これら“マイグレーション契機”、“移行先物理サーバの空き”、“移行先物理サーバに移行予定の仮想サーバ数”により、移行の経緯を把握することができる。
図7の例では、“受付ID”が“1”、"2"、"3"の“関連ID”には、全て"1"が登録されている。これは、“移行元”が物理サーバ"1"の仮想サーバ "5"である場合の移行経路が、物理サーバ "2"の仮想サーバ "3"、及び、物理サーバ "3"の仮想サーバ "4"を経由して、物理サーバ "5"の仮想サーバ "1"に移行するものであることを示す。
また図7の例では、“移行元”が物理サーバ "1"の仮想サーバ "5"である場合の“マイグレーション契機”として、機器、リソースにはそれぞれ"Server"、"CPU"が登録されている。これは、仮想サーバ “5”のCPU利用率が高いことが、マイグレーション契機の発生要因であることを意味する。なお、マイグレーション契機の発生要因が"仮想サーバ106のCPUの利用率の高さ"である場合、この“マイグレーション契機”に対応する“移行先物理サーバの空き”には、移行先の仮想サーバ106のCPU利用率が登録される。また、“移行先物理サーバに移行予定の仮想サーバ数”が"1"の場合、他の仮想サーバ106が移行を実行中であることを表す。
図8は、本発明の実施の形態の移行管理テーブル604の一例を示す図である。図8に示すように、移行管理テーブル604には、物理サーバ108毎に"移行される仮想サーバ数"及び"移行する仮想サーバ数"が登録される。"移行される仮想サーバ数"とは、他の物理サーバ108から対象の物理サーバ108に移行する仮想サーバ106の数を表す。一方"移行する仮想サーバ数"とは、対象の物理サーバ108から他の物理サーバ108に移行する仮想サーバ106の数を表す。また、"移行される仮想サーバ数"及び"移行する仮想サーバ数"では、"予約"と"実行"に分けて物理サーバ108及び仮想サーバ106が登録される。"予約"とは、移行待ちの状態の仮想サーバ106の数を表す。"実行"とは、移行中の状態の仮想サーバ106の数を表す。
図8の例では、物理サーバ "1"の行からは、他の物理サーバ "4"の仮想サーバ106 "1"の一つが、物理サーバ“1”に移行中の状態であることが読み取れる。また、物理サーバ“2”の“移行する仮想サーバ数”の欄からは、物理サーバ“2”の仮想サーバ“1”が、他の物理サーバ“4”の仮想サーバ“3”に移行中の状態であることが読み取れる。
図9は、本発明の実施の形態の移行回数履歴管理テーブル605の一例を示す図である。図9に示すように、移行回数履歴管理テーブル605には、所定の取得期間毎に、移行元と移行先との間の移行回数が登録されている。
図9の例では、取得期間が2009年4月1日から2009年4月30日の期間及び2009年5月1日から2009年5月31日の期間のそれぞれにおける移行元と移行先と間の移行回数が示されている。例えば、2009年4月1日から2009年4月30日の期間において、物理サーバ "0"の仮想サーバ"1"(移行元)から物理サーバ"1"の仮想サーバ"1"(移行先)への移行回数は5回である。また、同期間において、物理サーバ“0”の仮想サーバ106“1”(移行元)から物理サーバ"2"の仮想サーバ"1"及び"2"(移行先)への移行回数は、それぞれ1回、5回である。
この移行回数履歴管理テーブル605によれば、移行の実行頻度を把握することができる。また、この移行回数履歴管理テーブル605に登録された移行回数と、スケジュール管理テーブル603(図7参照)に登録された移行の履歴情報とにより、物理サーバ108に搭載された仮想サーバ106の移行経路を探索したり、物理サーバ108に対する移行の実行頻度を調査したりすることができる。
図10は、本発明の実施の形態の移行実行部105の構成例を示す図である。図10に示すように、移行実行部105は、移行指示受信部1001、移行コマンド発行部1002を備える。
移行指示受信部1001は、移行制御部104から移行の指示を受信する(10002)。その後、移行指示受信部1001は、移行コマンド発行部1002に移行元及び移行先の情報を送信する(100001)。そうすると、移行コマンド発行部1002は、移行実行コマンド1003から、移行を実行するためのコマンドを取得する(100002)。その後、移行コマンド発行部1002は、取得されたコマンドを実機環境102に発行することによって、実機環境102に移行処理の実行を指示する(10003)。その後、移行コマンド発行部1002は、実機環境102から移行処理の完了通知を受信すると、移行情報DB606に登録されたスケジュール管理テーブル603に、終了時刻を登録する(100004)。
以下、管理計算機100が備えるシステム監視部103、移行制御部104、及び、移行実行部105(図1参照)の各処理手順について説明する。
図11は、本発明の実施の形態のシステム監視部103の処理手順を示すフローチャートである。
まずシステム監視部103は、実機環境102から、各物理サーバ108及び各物理サーバ108に搭載された仮想サーバ106の実機情報と稼働情報を取得する(1100)。次に、システム監視部103は、取得された実機情報と稼働情報とに基づいて、稼働情報管理テーブル206及び整合性管理テーブル205を作成する(1101)。整合性管理テーブル205には、各物理サーバ108及び各物理サーバ108に搭載された仮想サーバ106のシステム構成の一致度合いを示す指標(整合性)が登録される。なお、仮想サーバ106のシステム構成が全く同じ場合、指標には100が設定される。移行を実行可能であるが、仮想サーバ106の設定内容が異なるため移行の前後で性能を保証できない可能性がある場合、指標には50が設定される。移行を実行不可である場合、指標には0が設定される。
その後、システム監視部103は、実機環境102の運用ポリシー等に合わせて、整合性管理テーブル205に登録された指標に基づき、移行経路グループを設定する(1102)。ステップ1102では、移行の前後で同等の性能を保証したい場合、システム監視部103は、指標が100の各仮想サーバ106を移行経路グループとして設定する。また、運用上仮想サーバ106をある物理サーバ108に統合させたい場合、システム監視部103は、整合性が50、100の各仮想サーバ106を移行経路グループとして設定することができる。
移行経路グループを設定した後、システム監視部103は、実機環境102の稼働状況を監視する(1103)。その後、システム監視部103は、マイグレーション契機を検知するまで待機する(1104)。ステップ1104では、システム監視部103は、ある要因により仮想サーバ106の移行を指示された場合に、マイグレーション契機を検知する。ここでいう移行の指示は、例えばある仮想サーバ106が高負荷となった場合やリソースの利用状況が設定された閾値を超えた場合に発行される。
マイグレーション契機を検知した場合(1104でYES)、システム監視部103は、稼働情報管理テーブル206にマイグレーション契機の発生要因となる機器及びリソースを登録する(1105)。その後、稼働情報管理テーブル206に登録されたマイグレーション契機の発生要因に応じて、移行対象の仮想サーバ106を含む移行経路グループを再編成する(1106)。ステップ1106では、システム監視部103は、整合性管理テーブル205に登録された移行対象の仮想サーバ106の移行経路グループの情報から、マイグレーション契機の要因への対応に不向きな物理サーバ108を除くことによって、移行対象の仮想サーバ106の移行経路グループを再編成する。例えば、マイグレーション契機の発生要因がCPU利用率の増加である場合、CPU利用率を取り込める余裕がある物理サーバ108のみを用いて移行経路グループを再編成する。移行経路グループを再編成後、システム監視部103は、移行対象の仮想サーバ106を移行する指示を、移行制御部104に通知する(1107)。
図12は、本発明の実施の形態の移行制御部104の処理手順を示すフローチャートである。
まず移行制御部104は、システム監視部103から移行の指示を受信する(1200)。その後、移行制御部104は、移行先選定処理を実行する(1201)。移行先選定処理は、移行先の物理サーバ108を選定するための処理である。移行先選定処理については図13を用いて後述する。その後、移行制御部104は、移行経路選定処理を実行する(1202)。移行経路選定処理は、移行経路を選定するための処理である。移行経路選定処理については図14を用いて後述する。
その後、移行制御部104は、選定された移行先の物理サーバ108及び移行経路をスケジュール管理テーブル603に登録する(1204)。その後、移行制御部104は、スケジュール管理テーブル603に登録された情報に基づき、移行実行部105に移行対象の仮想サーバ106の情報を送信する(1205)。
図13は、本発明の実施の形態の移行制御部104の移行先選定処理の処理手順を示すフローチャートである。移行制御部104の移行先選定処理について、適宜他の図面を参照して説明する。
まず移行制御部104は、稼働情報DB204に登録された稼働情報管理テーブル206の情報(図3参照)から、移行対象の仮想サーバ106の稼働情報(構成情報やマイグレーション契機等)を取得する(1300)。次に移行制御部104は、稼働情報DB204に登録された整合性管理テーブル205の情報(図4参照)から、移行対象の仮想サーバ106を含む移行経路グループの情報を取得する(1301)。
その後、移行制御部104は、移行情報DB606に登録された移行管理テーブル604の情報(図8参照)から、ステップ1301で取得された移行経路グループに含まれる各物理サーバ108について、 “移行される仮想サーバ数”と、“移行する仮想サーバ数”との総和(以下、「各物理サーバ108の移行数」という。)と、移行する予定の仮想サーバの情報(以下、「移行予定仮想サーバ情報」という。)を取得する(1302)。
その後、移行制御部104は、ステップ1302で取得された各物理サーバ108の移行数及び移行予定仮想サーバ情報と、ステップ1301で取得された移行経路グループに含まれる各物理サーバ108の空きリソースの状況とに応じて、移行先の物理サーバ108の候補を選択し、候補の各々に優先順位を設定する(1303)。ステップ1303において、移行制御部104は、各物理サーバ108の空きリソースの状況に応じて、例えば空きリソースが大きい順に移行先の物理サーバ108の候補を選択し、選択された順に優先順位を設定する。また移行制御部104は、移行情報DB606に登録された移行回数履歴管理テーブル605の情報(図9参照)から、移行先の物理サーバ108の候補の各々の移行回数の履歴を確認する。確認した結果、移行対象の仮想サーバ106の移行先として過去に設定されており、且つ、再度他の物理サーバ108に移行している物理サーバ108については、例えば移行回数に重み(0〜1)等を乗算した値を、上記設定された優先順位から減算することにより、優先順位を下げる。その後、移行制御部104は、最も優先順位が高い物理サーバ108を移行先として設定する(1304)。
このように移行制御部104は、各物理サーバ108の移行回数の履歴を利用して、移行先の物理サーバ108を選定している。これにより、例えば移行元の物理サーバ108に搭載されたCPUよりも移行先の物理サーバ108に搭載されたCPUの性能が低い場合であっても、仮想サーバ106の移行の前後で性能が低下するような現象を回避することができる。
図14は、本発明の実施の形態の移行制御部104の移行経路選定処理の処理手順を示すフローチャートである。移行制御部104の移行先選定処理について、適宜他の図面を参照して説明する。
まず移行制御部104は、図13のステップ1301で取得された移行経路グループの情報と、図13のステップ1302で取得された各物理サーバ108の移行数とを取得する(1400)。次に移行制御部104は、図13のステップ1304で移行先として設定された物理サーバ108の移行数が0であるか否かを判定する(1401)。
移行先の物理サーバ108の移行数が0である場合(1401でYES)、移行制御部104は、移行対象の仮想サーバ106を直接、移行先の物理サーバ108に移行させるように移行経路を設定する(1402)。一方、移行先の物理サーバ108の移行数が0以外の場合(1401でNO)、移行制御部104は、移行先の物理サーバ108の移行数と、移行経路グループに含まれる他の各物理サーバ108の移行数の最小値とを比較する(1403)。
移行先の物理サーバ108の移行数の方が小さい場合(1403でNO)、移行制御部104は、移行対象の仮想サーバ106を直接、移行先の物理サーバ108に移行させるように移行経路を設定する(1402)。一方、他の各物理サーバ108の移行数の最小値の方が小さい場合(1403でYES)、移行対象の仮想サーバ106を、移行数が最小値である他の物理サーバ108に一旦移行させる(1404)。その後、移行制御部104は、移行経路グループに含まれる各物理サーバ108の移行数を集計し、移行先の物理サーバ108の移行数以下になるような各物理サーバ108を移行経路として設定する(1405)。
このように移行制御部104は、各物理サーバ108の移行数を利用して、移行経路を選定している。これにより、移行処理の実行待ち時間を短縮させることや、移行処理後に業務を早急に開始させることが可能となる。
図15は、本発明の実施の形態の移行実行部105の処理手順を示すフローチャートである。
まず移行実行部105は、移行制御部104から、移行先の物理サーバ108及び移行元の仮想サーバ106の構成情報(移行情報)を受信する(1500)。次に、移行実行部105は、移行実行コマンド1003(図10参照)から移行処理を実行するためのコマンド(移行実行コマンド)を取得し、取得されたコマンドを実機環境102に発行する(1501)。その後、移行実行部105は、実機環境102から移行処理の完了通知を受信するまで待機する(1502)。
実機環境102から移行処理の完了通知を受信した場合(1503でYES)、移行実行部105は、スケジュール管理テーブル603に終了時刻を登録することによって、スケジュール管理テーブル603を更新する(1504)。また、移行実行部105は、移行回数履歴管理テーブル605に移行先の物理サーバ108及び移行元の仮想サーバ106の構成情報(移行情報)を登録することによって、移行回数履歴管理テーブル605を更新する(1505)。
図16は、本発明の実施の形態のマイグレーション処理をモニタリングするための表示画面の一例を示す図である。図16に示すマイグレーション管理画面1600は、例えばシステム監視部103のモニタリング部202(図2参照)によって表示される。
図16に示すように、マイグレーション管理画面1600には、構成情報とスケジュール情報とが表示される。構成情報の欄には、仮想サーバ1609〜1611と物理サーバ1604〜1608が移行経路グループ毎に(図16では移行経路グループ1601及び移行経路グループ1602)区別して表示されている。また各移行経路グループ1601、1602には、各物理サーバ1604〜1608の移行数1603が表示される。移行数1603の"IN"は、該当する物理サーバに他の物理サーバから移行される仮想サーバの数(図8参照)を表す。移行数1603の"OUT"は、該当する物理サーバから他の物理サーバに移行される仮想サーバの数を表す。一方、スケジュールの欄には、スケジュール管理テーブル603(図7参照)に登録された内容が表示される。
図16の例では、移行経路グループ1601には、物理サーバA1604、物理サーバB1605、及び、物理サーバC1606が登録されている。一方、移行経路グループ1602には、物理サーバD1607、及び、物理サーバE1608が登録されている。また、移行経路グループ1601において、物理サーバA1604の仮想サーバA1609が物理サーバB1605の仮想サーバB1610を経由し、物理サーバCの仮想サーバC1611に移行する状況が表示されている。
以上のように、構成情報の欄には、移行経路グループ1601、1602、各物理サーバ1604〜1608の移行数1603、仮想サーバ1609の移行経路(図中矢印)が表示される。そのため、システム管理者は、このマイグレーション管理画面1600を参照して、移行処理の状況を容易に把握することができる。
一方、スケジュールの欄には、移行処理の実行順番等のスケジュールが表示される。そのため、システム管理者は、このマイグレーション管理画面1600を参照して、移行処理の状況を容易に把握することができる。また、移行先や移行経路を変更したい場合、移行処理を任意のタイミングで容易に制御することが可能となる。
以上説明したように、本発明の実施の形態の管理計算機100及び管理計算機100による仮想サーバ106の移行制御システムでは、まずシステム監視部103が、各物理サーバ108及び各物理サーバ108に搭載される各仮想サーバ106のシステム構成の一致の度合いに応じて、移行経路グループを設定する。次にシステム監視部103は、設定された移行経路グループに対し、マイグレーション契機の発生要因及び発生要因に対する各物理サーバ108の空きリソース状況に応じて、移行経路グループを再編成している。その後、移行制御部104が、移行経路グループに登録された各物理サーバ108の稼働情報、移行数に応じて、移行経路グループに含まれる各物理サーバ108に対して優先順位を設定する。なお、マイグレーション対象の仮想サーバ106の移行先として過去に設定されており、且つ、マイグレーション対象の仮想サーバ106を他の物理サーバ108に移行させた回数が多い物理サーバ108の優先順位を下げる。これにより、最適な移行先を選定することができる。また、移行先の物理サーバ108の移行数と他の物理サーバ108の移行数とに基づき、移行処理待ちによる待機時間を短縮させる最適な移行経路を選定することができる。
以上、本発明の実施の形態について説明したが、上記実施の形態は本発明の適用例の一つを示したものであり、本発明の技術的範囲を上記実施の形態の具体的構成に限定する趣旨ではない。本発明の要旨を逸脱しない範囲において種々変更可能である。
例えば、上記実施の形態では、スケジュール管理テーブル603に登録された移行処理の実行順番に従って移行処理を実行させているが、この場合に限らない。例えば移行処理の実行前に、再度、移行経路グループに登録された物理サーバ108の稼働状況と移行数を見直してもよい。これにより、最適な移行先となる物理サーバ108と移行経路を設定させることができる。
1 計算機システム
100 管理計算機
101 業務ネットワーク
102、1700、1801 実機環境
103 システム監視部
104 移行制御部
105 移行実行部
106、501、502、503、504、1702、1803 仮想サーバ
107 ハイパバイザ
108、507、1701、1802 物理サーバ
109、508、1703、1804 FCスイッチ
110、509、1704、1805 ストレージ
111、118 メモリ
112 キャッシュ
113、119 CPU
114、126 ディスクドライブ
115 仮想HBA
116、506 仮想CPU
117、507 仮想メモリ
120 HBA
121 ストレージのAポート
122 ストレージのBポート
123 ストレージのコントローラ
124 LU
126 RG
200 構成/統計情報取得部
201 管理テーブル作成部
202 モニタリング部
203 実機情報送信部
204 稼働情報DB
205 整合性管理テーブル
206 稼働情報管理テーブル
600 マイグレーション契機受信部
601 移行先選定部
602 移行指示送信部
603 スケジュール管理テーブル
604 移行管理テーブル
605 移行回数履歴管理テーブル
606 移行情報DB
1001 移行指示受信部
1002 移行コマンド発行部
1003 移行実行コマンド

Claims (16)

  1. 1又は複数の物理サーバ上で動作する複数の仮想サーバと、前記複数の仮想サーバの移行を制御する管理計算機と、を備えた計算機システムであって、
    前記管理計算機は、プログラムを実行するプロセッサと、前記プロセッサによって実行されるプログラムを格納するメモリとを備え、
    前記管理計算機は、
    前記各仮想サーバの稼働情報及び構成情報を取得し、
    取得された前記各仮想サーバの稼働情報及び構成情報に基づき、前記各仮想サーバについて、前記各仮想サーバが移行可能な移行先の物理サーバ及び仮想サーバのグループである移行経路グループを設定し、
    前記各仮想サーバの稼働状況を監視し、所定の仮想サーバのマイグレーション契機を検知し、
    前記所定の仮想サーバのマイグレーション契機を検知した場合、設定された前記移行経路グループと、前記各物理サーバの現在及び過去の移行状況を含む移行情報とに基づき、前記所定の仮想サーバの移行先及び移行経路を選定し、
    選定された前記所定の仮想サーバの移行先及び移行経路に基づき、前記所定の仮想サーバを移行させ、
    前記所定の仮想サーバの移行に伴い、前記各物理サーバの移行情報を更新することを特徴とする計算機システム。
  2. 前記管理計算機は、前記移行先及び移行経路を選定した後に、選定された前記各仮想サーバの移行先及び移行経路を表示するためのデータを生成することを特徴とする請求項1に記載の計算機システム。
  3. 前記管理計算機は、さらに、前記各物理サーバの移行情報を併せて表示するためのデータを生成することを特徴とする請求項2に記載の計算機システム。
  4. 前記各物理サーバの移行情報は、前記各物理サーバにおける仮想サーバの移行に関するスケジュール情報、前記各物理サーバに移行中及び移行予定の仮想サーバの数の情報、及び、前記各物理サーバに過去に仮想サーバが移行した回数に関する履歴情報を含むことを特徴とする請求項1に記載の計算機システム。
  5. 前記管理計算機は、前記各物理サーバに移行中及び移行予定の仮想サーバの数である移行数を管理する移行管理テーブルを備え、
    前記管理計算機は、前記移行先及び移行経路を選定する場合、
    前記移行情報管理テーブルから、設定された前記移行経路グループに含まれる各物理サーバに移行中及び移行予定の仮想サーバの数である移行数を取得し、
    取得された各物理サーバの移行数及び前記各物理サーバの稼働状況に応じて、前記所定の仮想サーバの移行先の物理サーバの候補を選択し、且つ、候補として選択された物理サーバの各々に優先順位を設定し、
    設定された優先順が最も高い物理サーバを、前記所定の仮想サーバの移行先として選定することを特徴とする請求項1に記載の計算機システム。
  6. 前記管理計算機は、さらに、前記所定の仮想サーバの移行先として選定された物理サーバの移行数が0であるか否かを判定し、
    前記選定された物理サーバの移行数が0の場合、前記所定の仮想サーバを、前記選定された物理サーバに直接移行させるよう移行経路を選定し、
    前記選定された物理サーバの移行数が0以外で、かつ、前記移行経路グループに含まれる他の物理サーバの移行数の最小値が、前記選定された物理サーバの移行数よりも小さい場合、前記所定の仮想サーバを、前記移行数が最小値である他の物理サーバに一旦移行させるよう移行経路を選定することを特徴とする請求項5に記載の計算機システム。
  7. 前記管理計算機は、前記移行数が最小値である他の物理サーバに一旦移行させた後に、前記移行経路グループに含まれ、当該物理サーバの移行数が前記選定された物理サーバの移行数よりも小さくなるような物理サーバを、次の移行経路として設定することを特徴とする請求項6に記載の計算機システム。
  8. 前記管理計算機は、前記移行経路グループを設定する場合、取得された前記各仮想サーバの稼働情報及び構成情報に基づき、各仮想サーバ間の構成の一致度合いを示す整合性を、前記各仮想サーバについて求め、求められた前記各仮想サーバ間の整合性に応じて、前記各仮想サーバについて移行経路グループを設定することを特徴とする請求項1に記載の計算機システム。
  9. 1又は複数の物理サーバ上で動作する複数の仮想サーバの移行を制御する管理計算機であって、
    前記管理計算機は、プログラムを実行するプロセッサと、前記プロセッサによって実行されるプログラムを格納するメモリとを備え、
    前記各仮想サーバの稼働情報及び構成情報を取得し、
    取得された前記各仮想サーバの稼働情報及び構成情報に基づき、前記各仮想サーバについて、前記各仮想サーバが移行可能な移行先の物理サーバ及び仮想サーバのグループである移行経路グループを設定し、
    前記各仮想サーバの稼働状況を監視し、所定の仮想サーバのマイグレーション契機を検知した場合、設定された前記移行経路グループと、前記各物理サーバの現在及び過去の移行状況を含む移行情報とに基づき、前記所定の仮想サーバの移行先及び移行経路を選定し、
    選定された前記所定の仮想サーバの移行先及び移行経路に基づき、前記所定の仮想サーバを移行させ、
    前記所定の仮想サーバの移行に伴い、前記各物理サーバの移行情報を更新することを特徴とする管理計算機。
  10. 前記管理計算機は、前記移行先及び移行経路を選定した後に、選定された前記各仮想サーバの移行先及び移行経路を表示するためのデータを生成することを特徴とする請求項9に記載の管理計算機。
  11. 前記管理計算機は、さらに、前記各物理サーバの移行情報を併せて表示するためのデータを生成することを特徴とする請求項10に記載の管理計算機。
  12. 前記各物理サーバの移行情報は、前記各物理サーバにおける仮想サーバの移行に関するスケジュール情報、前記各物理サーバに移行中及び移行予定の仮想サーバの数の情報、及び、前記各物理サーバに過去に仮想サーバが移行した回数に関する履歴情報を含むことを特徴とする請求項9に記載の管理計算機。
  13. 前記管理計算機は、前記各物理サーバに移行中及び移行予定の仮想サーバの数である移行数を管理する移行管理テーブルを備え、
    前記管理計算機は、前記移行先及び移行経路を選定する場合、
    前記移行情報管理テーブルから、設定された前記移行経路グループに含まれる各物理サーバに移行中及び移行予定の仮想サーバの数である移行数を取得し、
    取得された各物理サーバの移行数及び前記各物理サーバの稼働状況に応じて、前記所定の仮想サーバの移行先の物理サーバの候補を選択し、且つ、候補として選択された物理サーバの各々に優先順位を設定し、
    設定された優先順が最も高い物理サーバを、前記所定の仮想サーバの移行先として選定することを特徴とする請求項9に記載の管理計算機。
  14. 前記管理計算機は、さらに、前記所定の仮想サーバの移行先として選定された物理サーバの移行数が0であるか否かを判定し、
    前記選定された物理サーバの移行数が0の場合、前記所定の仮想サーバを、前記選定された物理サーバに直接移行させるよう移行経路を選定し、
    前記選定された物理サーバの移行数が0以外で、かつ、前記移行経路グループに含まれる他の物理サーバの移行数の最小値が、前記選定された物理サーバの移行数よりも小さい場合、前記所定の仮想サーバを、前記移行数が最小値である他の物理サーバに一旦移行させるよう移行経路を選定することを特徴とする請求項13に記載の管理計算機。
  15. 前記管理計算機は、前記移行数が最小値である他の物理サーバに一旦移行させた後に、前記移行経路グループに含まれ、当該物理サーバの移行数が前記選定された物理サーバの移行数よりも小さくなるような物理サーバを、次の移行経路として設定することを特徴とする請求項14に記載の管理計算機。
  16. 前記管理計算機は、前記移行経路グループを設定する場合、取得された前記各仮想サーバの稼働情報及び構成情報に基づき、各仮想サーバ間の構成の一致度合いを示す整合性を、前記各仮想サーバについて求め、求められた前記各仮想サーバ間の整合性に応じて、前記各仮想サーバについて移行経路グループを設定することを特徴とする請求項9に記載の管理計算機。
JP2010101843A 2010-04-27 2010-04-27 計算機システム及び管理計算機 Expired - Fee Related JP5589218B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010101843A JP5589218B2 (ja) 2010-04-27 2010-04-27 計算機システム及び管理計算機

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010101843A JP5589218B2 (ja) 2010-04-27 2010-04-27 計算機システム及び管理計算機

Publications (2)

Publication Number Publication Date
JP2011232916A true JP2011232916A (ja) 2011-11-17
JP5589218B2 JP5589218B2 (ja) 2014-09-17

Family

ID=45322179

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010101843A Expired - Fee Related JP5589218B2 (ja) 2010-04-27 2010-04-27 計算機システム及び管理計算機

Country Status (1)

Country Link
JP (1) JP5589218B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013109556A (ja) * 2011-11-21 2013-06-06 Bank Of Tokyo-Mitsubishi Ufj Ltd 監視制御装置
WO2013084332A1 (ja) * 2011-12-08 2013-06-13 株式会社日立製作所 仮想計算機の制御方法及び仮想計算機システム
WO2013099019A1 (ja) * 2011-12-28 2013-07-04 株式会社日立製作所 複数の物理マシンで動作する複数の仮想マシンの再配置を制御する管理計算機
JP2013196538A (ja) * 2012-03-22 2013-09-30 Hitachi Solutions Ltd 仮想マシン運用監視システム
WO2013153567A1 (ja) * 2012-04-09 2013-10-17 日本電気株式会社 可視化装置、可視化システムおよび可視化方法
WO2014030221A1 (ja) * 2012-08-22 2014-02-27 株式会社日立製作所 仮想計算機システム、管理計算機及び仮想計算機管理方法
WO2015151290A1 (ja) * 2014-04-04 2015-10-08 株式会社日立製作所 管理計算機と計算機制御方法及び計算機システム
JP2016004433A (ja) * 2014-06-17 2016-01-12 日本電信電話株式会社 仮想機器管理装置、仮想機器管理方法及び仮想機器管理プログラム
US9300530B2 (en) 2013-02-19 2016-03-29 Nec Corporation Management device, management method, and medium
JP2016164733A (ja) * 2015-03-06 2016-09-08 ビッグローブ株式会社 仮想マシン運用管理装置、仮想マシン運用管理システム、仮想マシン運用管理方法、及び、プログラム
JP2019061359A (ja) * 2017-09-25 2019-04-18 富士ゼロックス株式会社 プログラム及び情報処理装置
JP7040113B2 (ja) 2018-02-23 2022-03-23 富士フイルムビジネスイノベーション株式会社 プログラム及び情報処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299161A (ja) * 2006-04-28 2007-11-15 Hitachi Ltd San管理方法およびsan管理システム
JP2009252204A (ja) * 2008-04-11 2009-10-29 Hitachi Ltd 計算機の運用管理システム及び運用管理方法
WO2010024027A1 (ja) * 2008-08-28 2010-03-04 日本電気株式会社 仮想サーバシステム及び物理サーバ選択方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299161A (ja) * 2006-04-28 2007-11-15 Hitachi Ltd San管理方法およびsan管理システム
JP2009252204A (ja) * 2008-04-11 2009-10-29 Hitachi Ltd 計算機の運用管理システム及び運用管理方法
WO2010024027A1 (ja) * 2008-08-28 2010-03-04 日本電気株式会社 仮想サーバシステム及び物理サーバ選択方法

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013109556A (ja) * 2011-11-21 2013-06-06 Bank Of Tokyo-Mitsubishi Ufj Ltd 監視制御装置
JPWO2013084332A1 (ja) * 2011-12-08 2015-04-27 株式会社日立製作所 仮想計算機の制御方法及び仮想計算機システム
WO2013084332A1 (ja) * 2011-12-08 2013-06-13 株式会社日立製作所 仮想計算機の制御方法及び仮想計算機システム
US9223604B2 (en) 2011-12-08 2015-12-29 Hitachi, Ltd. Control method of virtual machine and virtual machine system
WO2013099019A1 (ja) * 2011-12-28 2013-07-04 株式会社日立製作所 複数の物理マシンで動作する複数の仮想マシンの再配置を制御する管理計算機
JP2013196538A (ja) * 2012-03-22 2013-09-30 Hitachi Solutions Ltd 仮想マシン運用監視システム
JPWO2013153567A1 (ja) * 2012-04-09 2015-12-17 日本電気株式会社 可視化装置、可視化システムおよび可視化方法
WO2013153567A1 (ja) * 2012-04-09 2013-10-17 日本電気株式会社 可視化装置、可視化システムおよび可視化方法
US9882962B2 (en) 2012-04-09 2018-01-30 Nec Corporation Visualization device, visualization system, and visualization method
US10462214B2 (en) 2012-04-09 2019-10-29 Nec Corporation Visualization system and visualization method
WO2014030221A1 (ja) * 2012-08-22 2014-02-27 株式会社日立製作所 仮想計算機システム、管理計算機及び仮想計算機管理方法
US9384035B2 (en) 2012-08-22 2016-07-05 Hitachi, Ltd. Virtual computer system, management computer, and virtual computer management method
JPWO2014030221A1 (ja) * 2012-08-22 2016-07-28 株式会社日立製作所 仮想計算機システム、管理計算機及び仮想計算機管理方法
US9300530B2 (en) 2013-02-19 2016-03-29 Nec Corporation Management device, management method, and medium
WO2015151290A1 (ja) * 2014-04-04 2015-10-08 株式会社日立製作所 管理計算機と計算機制御方法及び計算機システム
JP2016004433A (ja) * 2014-06-17 2016-01-12 日本電信電話株式会社 仮想機器管理装置、仮想機器管理方法及び仮想機器管理プログラム
JP2016164733A (ja) * 2015-03-06 2016-09-08 ビッグローブ株式会社 仮想マシン運用管理装置、仮想マシン運用管理システム、仮想マシン運用管理方法、及び、プログラム
JP2019061359A (ja) * 2017-09-25 2019-04-18 富士ゼロックス株式会社 プログラム及び情報処理装置
JP7040113B2 (ja) 2018-02-23 2022-03-23 富士フイルムビジネスイノベーション株式会社 プログラム及び情報処理装置

Also Published As

Publication number Publication date
JP5589218B2 (ja) 2014-09-17

Similar Documents

Publication Publication Date Title
JP5589218B2 (ja) 計算機システム及び管理計算機
US9485160B1 (en) System for optimization of input/output from a storage array
JP5427011B2 (ja) 仮想ハードディスクの管理サーバおよび管理方法、管理プログラム
US9043571B2 (en) Management apparatus and management method
JP4469306B2 (ja) 計算機システム、管理サーバ
US8706963B2 (en) Storage managing system, computer system, and storage managing method
US9760294B2 (en) Computer system, storage management computer, and storage management method
US8521693B2 (en) Storage system and its operation method
US20130311645A1 (en) Management system and management method
US8578121B2 (en) Computer system and control method of the same
US20090150639A1 (en) Management apparatus and management method
JP2010287256A (ja) サーバシステム及びサーバの配置方法
JP2004246749A (ja) 記憶装置システム
JP2011186701A (ja) リソース割当装置、リソース割当方法、およびリソース割当プログラム
US8589651B2 (en) Method for supporting migration destination decision and management system
US20160371121A1 (en) Computer system and load leveling program
CN103814365A (zh) 计算机系统及数据输入输出方法
US9201613B2 (en) Computer system, management method of the computer system, and program
US20210278986A1 (en) Management system and management method for infrastructure system
US20140068214A1 (en) Information processing apparatus and copy control method
US20170153845A1 (en) Information processing apparatus and method executed by an information processing apparatus
JP4608559B2 (ja) ブレード割り当て方法及びブレード割り当てプログラム
US9130880B2 (en) Management system and information acquisition method
JP2006155658A (ja) 記憶装置システム
US20180011890A1 (en) Management system, and management method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120309

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140422

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140709

R150 Certificate of patent or registration of utility model

Ref document number: 5589218

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees