JP5967215B2 - 情報処理装置、プログラムおよび仮想マシン移動方法 - Google Patents

情報処理装置、プログラムおよび仮想マシン移動方法 Download PDF

Info

Publication number
JP5967215B2
JP5967215B2 JP2014545479A JP2014545479A JP5967215B2 JP 5967215 B2 JP5967215 B2 JP 5967215B2 JP 2014545479 A JP2014545479 A JP 2014545479A JP 2014545479 A JP2014545479 A JP 2014545479A JP 5967215 B2 JP5967215 B2 JP 5967215B2
Authority
JP
Japan
Prior art keywords
virtual machine
backup
priority
virtual machines
order
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014545479A
Other languages
English (en)
Other versions
JPWO2014073046A1 (ja
Inventor
尚恭 嶋田
尚恭 嶋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Application granted granted Critical
Publication of JP5967215B2 publication Critical patent/JP5967215B2/ja
Publication of JPWO2014073046A1 publication Critical patent/JPWO2014073046A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1448Management of the data involved in backup or backup restore
    • G06F11/1451Management of the data involved in backup or backup restore by selection of backup contents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1458Management of the backup or restore process
    • G06F11/1469Backup restoration techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1458Management of the backup or restore process
    • G06F11/1464Management of the backup or restore process for networked environments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/203Failover techniques using migration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/485Task life-cycle, e.g. stopping, restarting, resuming execution
    • G06F9/4856Task life-cycle, e.g. stopping, restarting, resuming execution resumption being on a different machine, e.g. task migration, virtual machine migration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2038Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant with a single idle spare processing component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2048Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share neither address space nor persistent storage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/815Virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/82Solving problems relating to consistency
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/84Using snapshots, i.e. a logical point-in-time copy of the data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Software Systems (AREA)
  • Hardware Redundancy (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は情報処理装置、プログラムおよび仮想マシン移動方法に関する。
情報処理の分野では、物理的なコンピュータ(物理マシンや物理ホストと呼ぶことがある)上で、複数の仮想的なコンピュータ(仮想マシンや論理ホストと呼ぶことがある)を動作させる仮想化技術が利用されている。各仮想マシン上では、OS(Operating System)などのソフトウェアを実行できる。仮想化技術を利用する物理マシンは、複数の仮想マシンを管理するためのソフトウェアを実行する。例えば、ハイパーバイザと呼ばれるソフトウェアが、CPU(Central Processing Unit)の処理能力やRAM(Random Access Memory)の記憶領域を、演算のリソースとして複数の仮想マシンに割り振ることがある。
また、複数の物理マシンを含むシステムには、仮想マシンを実行する物理マシンを変更できるものがある。例えば、仮想マシンを終了させてから、あるいは、終了させずに、ハイパーバイザ間で仮想マシンに関するデータの移動を可能とする技術が用いられている。
例えば、複数の仮想マシンが移動対象の場合、移動させるための所要時間が最も少なくなる仮想マシンおよび移動方法のセットを選択して、選択された移動方法により、選択された仮想マシンを、より先に移動させるように移動スケジュールを作成する提案がある。
また、仮想マシン、物理マシンおよびネットワークの負荷の変化を、高次方程式などの近似式によって把握または分析することで、仮想マシン、物理マシンおよびネットワークに対して負荷がかからないように仮想マシンの移動をスケジューリングする提案もある。
なお、バックアップ元システムに障害が発生した際には、バックアップ装置によって事前にバックアップされたデータに基づいて、リストア先システムに、バックアップ元システムを復元する提案もある。
特開2010−244524号公報 特開2010−117760号公報 特開2008−243123号公報
複数の仮想マシンを現在とは別の物理マシンへ移動させたいことがある。例えば、物理マシンが設置された拠点が被災した場合である。別の拠点の物理マシンへ仮想マシンを移動させれば、処理を継続できるからである。ところが、緊急時には仮想マシンを移動させるための時間が制限され得る。例えば、地震や火災などの災害時は、拠点の建物の崩壊が迫っていることもある。この場合、全ての仮想マシンを制限時間内に他の拠点へ移動できるとは限らない。そこで、どのように仮想マシンを効率的に移動させるかが問題となる。
例えば、移動が間に合わない仮想マシンが生じても、事前に取得しておいたバックアップのデータを用いて当該仮想マシンを別の拠点の物理マシン上に復元し得る。しかし、バックアップの状況によっては、仮想マシンを元に近い状態で復元するのが容易でないことがある。例えば、バックアップのデータが古いほど、直近の状態への復元が容易でない。
一側面によれば、本発明は、復元可能な状態を考慮した順序で仮想マシンを移動できる情報処理装置、プログラムおよび仮想マシン移動方法を提供することを目的とする。
一実施態様によれば、情報処理装置が提供される。この情報処理装置は、記憶部と演算部とを有する。記憶部は、1または複数の装置で動作する複数の仮想マシンそれぞれに関するデータのバックアップの履歴を示す情報を記憶する。演算部は、バックアップの履歴示す複数の仮想マシンそれぞれに対して実行されたバックアップの成否に基づいて複数の仮想マシンそれぞれを1または複数の他の装置へ移動させる順序をバックアップに失敗した仮想マシンを優先して移動させるように決定し、複数の仮想マシンそれぞれを当該順序で移動させるように1または複数の装置を制御する。
また、一実施態様によれば、コンピュータによって実行されるプログラムが提供される。このプログラムは、1または複数の装置で動作する複数の仮想マシンそれぞれに関するデータのバックアップの履歴示す複数の仮想マシンそれぞれに対して実行されたバックアップの成否に基づいて、複数の仮想マシンそれぞれを1または複数の他の装置へ移動させる順序をバックアップに失敗した仮想マシンを優先して移動させるように決定し、複数の仮想マシンそれぞれを当該順序で移動させるように1または複数の装置を制御する、処理をコンピュータに実行させる。
また、一実施態様によれば、仮想マシン移動方法が提供される。この仮想マシン移動方法では、情報処理装置が、1または複数の装置で動作する複数の仮想マシンそれぞれに関するデータのバックアップの履歴示す複数の仮想マシンそれぞれに対して実行されたバックアップの成否に基づいて、複数の仮想マシンそれぞれを1または複数の他の装置へ移動させる順序をバックアップに失敗した仮想マシンを優先して移動させるように決定し、複数の仮想マシンそれぞれを当該順序で移動させるように1または複数の装置を制御する。
一実施態様によれば、復元可能な状態を考慮した順序で仮想マシンを移動できる。
本発明の上記および他の目的、特徴および利点は本発明の例として好ましい実施の形態を表す添付の図面と関連した以下の説明により明らかになるであろう。
第1の実施の形態の情報処理システムを示す図である。 第2の実施の形態の情報処理システムを示す図である。 第2の実施の形態の制御サーバのハードウェア例を示す図である。 第2の実施の形態の仮想マシンの例を示す図である。 第2の実施の形態のソフトウェア例を示す図である。 第2の実施の形態のDC管理テーブルの例を示す図である。 第2の実施の形態の優先度条件テーブルの例を示す図である。 第2の実施の形態のAP優先度条件テーブルの例を示す図である。 第2の実施の形態の仮想マシン管理テーブルの例を示す図である。 第2の実施の形態のバックアップ履歴管理テーブルの例を示す図である。 第2の実施の形態のバックアップ優先度テーブルの例を示す図である。 第2の実施の形態の移動順序テーブルを示す図である。 第2の実施の形態の警告データを示す図である。 第2の実施の形態の優先度の判定例を示すフローチャートである。 第2の実施の形態の仮想マシンの移動例を示すフローチャートである。 第2の実施の形態の優先度の再評価の例を示すフローチャートである。 第2の実施の形態の仮想マシンの移動例を示す図である。 第2の実施の形態の移動順序の評価の他の例(その1)を示す図である。 第2の実施の形態の移動順序の評価の他の例(その2)を示す図である。
以下、本実施の形態を図面を参照して説明する。
[第1の実施の形態]
図1は、第1の実施の形態の情報処理システムを示す図である。第1の実施の形態の情報処理システムは、情報処理装置1,2,3を有する。情報処理装置1,2,3は、ネットワークを介して接続されている。情報処理装置1は、情報処理装置2,3上で動作する仮想マシンを管理するコンピュータである。情報処理装置2は、複数の仮想マシンを実行可能である。例えば、情報処理装置2では仮想マシン2a,2b,2cが実行されている。情報処理装置3も、複数の仮想マシンを実行可能である。例えば、情報処理装置2,3はハイパーバイザを実行してもよい。ハイパーバイザが情報処理装置2,3のリソースを仮想マシンに割り当ててもよい。
情報処理装置1は、記憶部1aおよび演算部1bを有する。記憶部1aはRAMなどメモリである。演算部1bはCPUなどのプロセッサである。記憶部1aに記憶されたプログラムを演算部1bが実行することで第1の実施の形態の情報処理が実現されてもよい。
記憶部1aは、複数の仮想マシンそれぞれに関するデータのバックアップの履歴を示す情報を記憶する。仮想マシンに関するデータは、当該仮想マシンで実行されるOSやアプリケーションなどのソフトウェアの処理に用いられるデータを含んでもよい。バックアップされた仮想マシン2a,2b,2cのデータは、ネットワークに接続された記憶装置(図1では図示を省略)に、仮想マシン2a,2b,2cに対応付けて格納されてもよい。
例えば、記憶部1aは仮想マシン2aに対してバックアップの履歴A1を示す情報を記憶する。記憶部1aは、仮想マシン2bに対してバックアップの履歴A2を示す情報を記憶する。記憶部1aは、仮想マシン2cに対してバックアップの履歴A3を示す情報を記憶する。ここで、仮想マシン2aの識別情報を“#1”とする。仮想マシン2bの識別情報を“#2”とする。仮想マシン2cの識別情報を“#3”とする。
演算部1bは、当該バックアップの履歴に基づいて複数の仮想マシンそれぞれを情報処理装置3へ移動させる順序を決定する。例えば、演算部1bは直近のバックアップが取得された時間が古い順に仮想マシンを移動させるよう決定する。演算部1bは、複数の仮想マシンそれぞれを当該順序で移動させるように情報処理装置2を制御する。演算部1bは、仮想マシンを1つずつ順次移動させてもよいし、複数個単位に順次移動させてもよい。
演算部1bは、地震や火災などの災害の発生が検出された際に、上記のように移動順序を決定し、情報処理装置2で動作する複数の仮想マシンを情報処理装置3へ移動させてもよい。あるいは、演算部1bは、ユーザによる移動開始の指示入力を受け付けた際に、上記のように移動順序を決定し、情報処理装置2で動作する複数の仮想マシンを情報処理装置3へ移動させてもよい。演算部1bは、各仮想マシンのバックアップ履歴が取得されるたびに移動順序を事前に(災害の発生などの検出よりも前に)決定しておいてもよい。
例えば、演算部1bは、仮想マシン2a,2b,2cを移動開始タイミングT1で情報処理装置3へ移動開始させる。バックアップの履歴A1,A2,A3は、移動開始タイミングT1に対し、仮想マシン2a,2b,2cについてバックアップが行われた直近の期間を示す情報を含む。ここで、バックアップが行われた期間は開始時点から終了時点までの時間幅で示される。バックアップが行われた期間の新旧を比較する場合、各期間の終了時点を比較してもよい。あるいは、各期間の開始時点を比較してもよい。例えば、終了時点で比較するならば、古いものから新しいものへ順に並べると、バックアップの履歴A1,A2,A3となる(履歴A1が最も古く履歴A3が最も新しい)。この場合、演算部1bは仮想マシン2a,2b,2cの順に情報処理装置3へ移動させると決定する。
移動期間B1,B2,B3は、移動開始タイミングT1の後、仮想マシン2a,2b,2cそれぞれを移動させるための所要期間を示す。移動期間B1は、仮想マシン2aを移動させるための所要期間に相当する。移動期間B2は、仮想マシン2bを移動させるための所要期間に相当する。移動期間B3は、仮想マシン2cを移動させるための所要期間に相当する。例えば、演算部1bが仮想マシン2a,2b,2cの順に移動させると決定した場合、演算部1bは、仮想マシン2a,2b,2cの順に移動を行うように情報処理装置2を制御する。このため、移動期間B1,B2,B3の開始時点の時系列もこの順序となる。
情報処理装置1によれば、演算部1bにより、情報処理装置2で動作する仮想マシン2a,2b,2cそれぞれに関するデータのバックアップの履歴に基づいて、仮想マシン2a,2b,2cを移動させる順序が決定される。演算部1bにより、仮想マシン2a,2b,2cを情報処理装置3へ当該順序で移動するように情報処理装置2が制御される。
これにより、情報処理装置1は、仮想マシン2a,2b,2cについて、復元可能な状態を考慮した順序で移動できる。例えば、情報処理装置2が設置された拠点が被災した場合などの緊急時に、別の拠点に設置された情報処理装置3へ仮想マシン2a,2b,2cを移動させたいことがある。しかし、緊急時には移動のために利用できる時間が制限され得る。情報処理装置2が設置された拠点の崩壊が迫っていたり、電力の供給可能時間などが制限されたりすることがあるからである。このため、全ての仮想マシンを制限時間内に別拠点の情報処理装置3へ移動できるとは限らない。
そこで、情報処理装置1は仮想マシン2a,2b,2cに関するバックアップの履歴A1,A2,A3に基づいて移動順序を決定する。例えば、取得されたバックアップが古い仮想マシン2aの移動をより優先させる。バックアップのデータが古いほど、直近の状態に復元するのが容易でないからである。例えば、仮に移動が間に合わずにバックアップから復元しようとするときに、復元の作業に手間がかかり業務の中断が長引く可能性が高い。一方、取得されたバックアップが新しい仮想マシン2cの移動をより後回しにする。バックアップのデータが新しいほど、直近の状態に比較的容易に復元できるからである。
仮に、後回しになった仮想マシン2cが制限時刻T2までに移動を完了できなかったとする。その場合、仮想マシン2cは記憶装置に格納されたバックアップのデータを用いて情報処理装置3上に復元され得る。バックアップの履歴A3によれば、仮想マシン2cのバックアップのデータは、仮想マシン2a,2bのバックアップが行われた時点よりも後の時点で取得されたものである。すなわち、仮想マシン2cは仮想マシン2a,2bよりも、移動開始タイミングT1の状態(元の状態)により近い状態で復元可能である。このため、仮想マシン2cは元の状態に戻すのが仮想マシン2a,2bよりも比較的容易である。あるいは、元の状態まで完全に戻せないとしてもシステムへの影響が比較的小さい。
このように、バックアップの履歴に基づいて移動順序を決定することで、仮想マシン2a,2b,2cについて復元可能な状態を考慮した順序で移動を行える。その結果、仮に、制限時間内に移動が間に合わない仮想マシンが生じたとしても、システムをより新しい状態に復旧できる可能性が高まる。業務を中断させずに継続できる可能性も高まる。
なお、上記の説明では、仮想マシン2a,2b,2cは情報処理装置2で実行されるものとしたが、複数の情報処理装置で実行されてもよい。例えば、仮想マシン2aが第1の情報処理装置で実行され、仮想マシン2b,2cが第2の情報処理装置で実行されていても同様に制御できる。また、仮想マシン2a,2b,2cの移動先となる情報処理装置が複数でもよい。例えば、仮想マシン2a,2bを第3の情報処理装置へ移動させ、仮想マシン2cを第4の情報処理装置へ移動させる場合も同様に制御できる。
[第2の実施の形態]
図2は、第2の実施の形態の情報処理システムを示す図である。第2の実施の形態の情報処理システムは、データセンタ(DC:Data Center)30,40,50内に設置されたサーバコンピュータ上で動作する複数の仮想マシンを管理する。データセンタ30,40,50は、地理的に離れた複数の拠点に設けられている。
第2の実施の形態の情報処理システムは、制御サーバ100、実行サーバ200,200a,200b,200c,200d,200e、バックアップサーバ300、警告サーバ400およびセンサ装置500,500a,500bを有する。実行サーバ200,200aおよびセンサ装置500は、データセンタ30内に設置されている。実行サーバ200b,200cおよびセンサ装置500aは、データセンタ40内に設置されている。実行サーバ200d,200e、バックアップサーバ300およびセンサ装置500bは、データセンタ50内に設置されている。
警告サーバ400はネットワーク10に接続されている。ネットワーク10は、例えばインターネットやWAN(Wide Area Network)などの広域ネットワークである。制御サーバ100は、ネットワーク20に接続されている。ネットワーク20は、データセンタ30,40,50を結ぶ広域ネットワークである。ネットワーク20はネットワーク10に接続されている。
実行サーバ200,200aおよびセンサ装置500は、ネットワーク21に接続されている。ネットワーク21は、データセンタ30の拠点内ネットワークである。実行サーバ200b,200cおよびセンサ装置500aは、ネットワーク22に接続されている。ネットワーク22は、データセンタ40の拠点内ネットワークである。実行サーバ200d,200e、バックアップサーバ300およびセンサ装置500bは、ネットワーク23に接続されている。ネットワーク23は、データセンタ50の拠点内ネットワークである。ネットワーク21,22,23は、ネットワーク20に接続されている。
制御サーバ100は、各データセンタに設置された実行サーバ(例えば、実行サーバ200)上で動作する仮想マシンの管理/制御を行うサーバコンピュータである。制御サーバ100は、警告サーバ400またはセンサ装置500,500a,500bから災害発生の通知や警告などを受信する。制御サーバ100は、当該警告に含まれる情報に基づいて、仮想マシンの実行サーバ間の移動を制御する。
実行サーバ200,200a,200b,200c,200d,200eは、仮想マシンを実行可能なサーバコンピュータである。例えば、仮想マシンは業務用のアプリケーションを実行する。例えば、ユーザはネットワーク10,20に接続されたクライアントコンピュータ(図2では図示を省略)から、当該アプリケーションの機能を利用できる。各実行サーバは、仮想マシンの処理に用いられるデータを定期的にバックアップサーバ300に送信する(バックアップ)。各実行サーバは、バックアップサーバ300に格納されたバックアップデータを用いて、仮想マシンを復元することもできる。
バックアップサーバ300は、仮想マシンごとのバックアップデータを保存するサーバコンピュータである。バックアップサーバ300は、各実行サーバから定期的に送信されるバックアップデータを仮想マシンごとに記憶する。また、バックアップサーバ300は、何れかの実行サーバからリストアの要求を受けると、要求された仮想マシンのバックアップデータを当該実行サーバに提供する。
なお、バックアップサーバは、データセンタ30,40などの各データセンタに設置されていてもよい。この場合、例えば、各実行サーバは、自己の実行サーバが設置されたデータセンタ以外の複数のデータセンタに設置された各バックアップサーバに自己のバックアップデータを分散して保存できる。
警告サーバ400は、災害発生の通知や警告などを報知するサーバコンピュータである。例えば、地震、津波および火災などの災害が発生すると災害が発生した旨の通知や当該災害の影響が及ぶ地域についての警告を発行し、制御サーバ100へ送信する。
センサ装置500,500a,500bは、震度や水位など災害に関するセンサデータを計測するセンサデバイスである。センサ装置500,500a,500bは、ネットワークを介した通信機能を有する。例えば、センサ装置500は、計測されたセンサデータ(例えば、震度)が閾値を超えた場合、センサ装置500が設置されたデータセンタ30で災害が発生した旨を報知する。当該災害が発生した旨の通知は、制御サーバ100へも送信される。
図3は、第2の実施の形態の制御サーバのハードウェア例を示す図である。制御サーバ100は、プロセッサ101、RAM102、HDD(Hard Disk Drive)103、画像信号処理部104、入力信号処理部105、ディスクドライブ106および通信部107を有する。各ユニットは、制御サーバ100内のバスに接続されている。実行サーバ200,200a,200b,200c,200d,200e、バックアップサーバ300および警告サーバ400も、制御サーバ100と同様のハードウェアを用いて実現できる。
プロセッサ101は、制御サーバ100の情報処理を制御する。プロセッサ101は、マルチプロセッサであってもよい。プロセッサ101は、例えばCPU、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)またはPLD(Programmable Logic Device)などである。プロセッサ101はCPU、MPU、DSP、ASIC、FPGA、PLDのうちの2以上の要素の組み合わせであってもよい。
RAM102は、制御サーバ100の主記憶装置である。RAM102は、プロセッサ101に実行させるOSのプログラムやアプリケーションのプログラムの少なくとも一部を一時的に記憶する。また、RAM102は、プロセッサ101による処理に用いる各種データを記憶する。
HDD103は、制御サーバ100の補助記憶装置である。HDD103は、内蔵した磁気ディスクに対して、磁気的にデータの書き込みおよび読み出しを行う。HDD103には、OSのプログラム、アプリケーションプログラム、および各種データが格納される。制御サーバ100は、フラッシュメモリやSSD(Solid State Drive)などの他の種類の補助記憶装置を備えてもよく、複数の補助記憶装置を備えてもよい。
画像信号処理部104は、プロセッサ101からの命令に従って、制御サーバ100に接続されたディスプレイ11に画像を出力する。ディスプレイ11としては、CRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイなどを用いることができる。
入力信号処理部105は、制御サーバ100に接続された入力デバイス12から入力信号を取得し、プロセッサ101に通知する。入力デバイス12としては、マウスやタッチパネルなどのポインティングデバイス、キーボードなどを用いることができる。
ディスクドライブ106は、記録媒体13に記録されたプログラムやデータを読み取る駆動装置である。記録媒体13として、例えば、フレキシブルディスク(FD:Flexible Disk)やHDDなどの磁気ディスク、CD(Compact Disc)やDVD(Digital Versatile Disc)などの光ディスク、光磁気ディスク(MO:Magneto-Optical disk)を使用できる。ディスクドライブ106は、プロセッサ101からの命令に従って、記録媒体13から読み取ったプログラムやデータをRAM102またはHDD103に格納する。
通信部107は、ネットワーク20を介して他の情報処理装置(例えば、実行サーバ200など)と通信を行う。
ただし、制御サーバ100はディスクドライブ106を備えていなくてもよく、専ら他の情報処理装置からアクセスされる場合には、画像信号処理部104や入力信号処理部105を備えていなくてもよい。また、ディスプレイ11や入力デバイス12は、制御サーバ100の筐体と一体に形成されていてもよい。
図4は、第2の実施の形態の仮想マシンの例を示す図である。実行サーバ200は、ハードウェア層201、ハイパーバイザ202および仮想マシン210,220を有する。
ハードウェア層201は、実行サーバ200が有するCPUの演算リソースや実行サーバ200が有するRAMの記憶リソースなど、仮想マシン210,220に提供するためのリソースとなる階層である。
ハイパーバイザ202は、実行サーバ200上で動作する複数の仮想マシン210,220を制御する。ハイパーバイザ202は、仮想マシン210,220にハードウェア層201のリソースを割り当てる。
仮想マシン210,220は、実行サーバ200上で動作する仮想的なコンピュータである。仮想マシン210,220は、ハイパーバイザ202の制御により並列に動作する。仮想マシン210,220は、割り当てられたリソースを用いて、OSや業務AP(APplication)を実行する。
実行サーバ200a,200b,200c,200d,200eも、実行サーバ200と同様に複数の仮想マシンを実行可能である。
図5は、第2の実施の形態のソフトウェア例を示す図である。ここで、図5ではデータセンタ50およびネットワーク10,23の図示を省略している。図5に示す各ユニットは、各サーバコンピュータに設けられたRAMに記憶されたプログラムを、プロセッサが実行することで実現されてもよい。制御サーバ100は、記憶部110、管理部120および移動制御部130を有する。
記憶部110は、各仮想マシンの移動を制御するための情報を記憶する。例えば、記憶部110は、データセンタ30,40,50が存在するエリアを示す情報および仮想マシンの移動順序を決定するための情報を記憶する。
管理部120は、各実行サーバ上で動作する仮想マシン(例えば、仮想マシン210)に関するバックアップの履歴を示す情報(以下、単にバックアップ履歴ということがある)を定期的に各実行サーバから取得する。管理部120は、取得したバックアップ履歴を記憶部110に格納する。
また、管理部120は警告サーバ400またはセンサ装置500,500aなどから警告データを受信したとき、当該警告データに基づいて他の拠点へ移動させるべき仮想マシンを決定する。管理部120は、記憶部110に記憶された情報に基づいて、仮想マシンの移動順序を決定する。管理部120は、移動先の実行サーバを選択する。例えば、警告データで指定される警告エリア外のデータセンタに設置された実行サーバから、移動先の候補となる複数の実行サーバを選択する。更に、候補となった実行サーバで利用可能なリソースや負荷の状況など考慮して、候補を絞り込む。
移動制御部130は、管理部120により決定された移動順序で、仮想マシンを移動させるように各実行サーバを制御する。
実行サーバ200は、前述のように仮想マシン210,220を有する。仮想マシン210は、バックアップ処理部211および通信エージェント212を有する。
バックアップ処理部211は、バックアップデータをバックアップサーバ300に、定期的に送信する。バックアップ処理部211は、仮想マシン210に割り当てられた実行サーバ200上の記憶領域に、バックアップ履歴を格納する。バックアップ履歴は、バックアップの開始時刻、終了時刻および成功/失敗の結果を含む。バックアップ履歴は、バックアップデータの格納先の記憶装置(例えば、バックアップサーバ300)を示す情報を含んでもよい。バックアップ処理部211は、バックアップサーバ300に格納されたバックアップデータを用いて、仮想マシン210のOSや業務APなどのデータをリストアすることもできる。
ここで、バックアップ処理部211は仮想マシンごとに定期的に(例えば、1回/日や1回/週)でバックアップを取得する。バックアップの方法としては、フルバックアップ、増分バックアップおよび差分バックアップが考えられる。バックアップ処理部211は何れかの方法を用いることができる。増分または差分バックアップであれば、前回フルバックアップ時のバックアップデータと、増分または差分バックアップ時のバックアップデータとを用いて、仮想マシン210のOSや業務APなどのデータをリストアできる。
通信エージェント212は、制御サーバ100の要求に応じて、バックアップ処理部211が取得したバックアップ履歴を制御サーバ100へ送信する。
実行サーバ200aは仮想マシン210a,220aを有する。実行サーバ200bは仮想マシン210b,220bを有する。実行サーバ200cは仮想マシン210c,220cを有する。仮想マシン220,210a,220a,210b,220b,210c,220cも、仮想マシン210と同様の機能を有する。
図6は、第2の実施の形態のDC管理テーブルの例を示す図である。DC管理テーブル111は、データセンタ30,40,50が設けられた地域を管理するテーブルである。DC管理テーブル111は、記憶部110に格納される。DC管理テーブル111は、DCおよびエリアの項目を含む。
DCの項目には、データセンタを識別するためのデータセンタ名が登録される。ここで、データセンタ30のデータセンタ名は“DC1”である。データセンタ40のデータセンタ名は“DC2”である。データセンタ50のデータセンタ名は“DC3”である。エリアの項目には、データセンタが存在する地域が登録される。
例えば、DC管理テーブル111には、データセンタ名が“DC1”、“エリアX”という情報が登録されている。これは、データセンタ30がエリアXで示される地域に存在することを示す。また、DC管理テーブル111には、データセンタ名が“DC2”、“エリアY”という情報が登録されている。これは、データセンタ50がエリアYで示される地域に存在することを示す。エリアYは、エリアXとは地理的に離れた地域である。
図7は、第2の実施の形態の優先度条件テーブルの例を示す図である。優先度条件テーブル112は、バックアップ履歴に応じた仮想マシンの優先度(以下、バックアップ優先度ということがある)を定義したテーブルである。優先度条件テーブル112は、記憶部110に格納される。優先度条件テーブル112は、最終バックアップからの経過時間およびバックアップ優先度の項目を含む。
最終バックアップからの経過時間の項目には、直近のバックアップにおける経過時間の範囲が登録される。バックアップ優先度の項目には、バックアップ優先度を示す数値が登録される。バックアップ優先度は、数値が大きいほど、優先度が高い(より優先される)ことを示す。
例えば、優先度条件テーブル112には、仮想マシンの直近のバックアップ履歴から現在時刻までの経過時間が“1時間未満”の場合、バックアップ優先度が“1”という情報が登録されている。同様に、当該経過時間が“1時間以上2時間未満”の場合、バックアップ優先度が“2”である。当該経過時間が“2時間以上3時間未満”の場合、バックアップ優先度が“3”である。当該経過時間が“3時間以上4時間未満”の場合、バックアップ優先度が“4”である。当該経過時間が“4時間以上5時間未満”の場合、バックアップ優先度が“5”である。当該経過時間が“5時間以上”の場合、バックアップ優先度が“6”である。数値が大きいほど優先度が高いから、優先度条件テーブル112の中ではバックアップ優先度“6”が最高の優先度、バックアップ優先度“1”が最低の優先度ということになる。
なお、管理部120は、優先度条件テーブル112を所定の定義情報に基づいて生成してもよい。例えば、バックアップ有効時間範囲とバックアップ優先度レベル数とを含む定義情報の管理部120への入力を許容してもよい。その場合、管理部120は、バックアップ有効時間範囲とバックアップ優先度レベル数とに基づいて、優先度条件テーブル112を生成できる。例えば、バックアップ有効時間範囲が“5時間”、バックアップ優先度レベル数が“6”と指定されたとする。すると、管理部120は、5時間の範囲を均一に5つの優先度レベルに分割し、5時間以上の範囲を最高の優先度レベルとする(計6つのレベル)。このようにして、管理部120は優先度条件テーブル112を生成し得る。
また、経過時間の範囲が1時間と均一である場合を例示したが、均一でなくてもよい。例えば、第1のバックアップ優先度とする経過時間の範囲と第2のバックアップ優先度とする経過時間の範囲とが異なるように優先度条件テーブル112を生成してもよい。
図8は、第2の実施の形態のAP優先度条件テーブルの例を示す図である。AP優先度条件テーブル113は、業務APの重要度に応じた仮想マシンの優先度(以下、AP優先度ということがある)を定義したテーブルである。AP優先度条件テーブル113は、記憶部110に格納される。AP優先度条件テーブル113は、業務APおよびAP優先度の項目を含む。
業務APの項目には、仮想マシンが実行する業務APの種類を示す情報が登録される。例えば、業務APがファイルサーバの場合、業務APの項目には“FS”(File Server)が設定される。業務APがDB(DataBase)サーバの場合、業務APの項目には“DB”が設定される。業務APがWebサーバの場合、業務APの項目には“Web”が設定される。AP優先度の項目には、AP優先度を示す数値が登録される。AP優先度は、数値が大きいほど、優先度が高い(より優先される)ことを示す。
例えば、AP優先度条件テーブル113には、業務APが“FS”の場合、AP優先度が“1”という情報が登録されている。同様に、業務APが“DB”の場合、AP優先度が“2”である。業務APが“Web”の場合、AP優先度が“3”である。数値が大きいほど優先度が高いから、AP優先度条件テーブル113の中ではAP優先度“3”が最高の優先度、AP優先度“1”が最低の優先度ということになる。
図9は、第2の実施の形態の仮想マシン管理テーブルの例を示す図である。仮想マシン管理テーブル114は、仮想マシンの属性を管理するためのテーブルである。仮想マシン管理テーブル114は、記憶部110に格納される。仮想マシン管理テーブル114は、仮想マシン名、業務AP、業務グループ、継続優先度、設置場所およびバックアップ場所の項目を含む。
仮想マシン名の項目には、仮想マシンの識別情報が登録される。ここで、仮想マシン210の仮想マシン名を“VM(Virtual Machine)1”とする。仮想マシン220の仮想マシン名を“VM2”とする。仮想マシン210aの仮想マシン名を“VM3”とする。仮想マシン220aの仮想マシン名を“VM4”とする。仮想マシン210bの仮想マシン名を“VM5”とする。仮想マシン220bの仮想マシン名を“VM6”とする。仮想マシン210cの仮想マシン名を“VM7”とする。仮想マシン220cの仮想マシン名を“VM8”とする。
業務APの項目には、仮想マシン上で実行される業務APを示す情報が登録される。業務グループの項目には、仮想マシンが所属する業務グループの番号が登録される。業務グループとは、1つの業務に係る処理を連携する仮想マシンの集合を示す単位である。例えば、各業務グループには、ファイルサーバ、DBサーバおよびWebサーバである仮想マシンが含まれて、各サーバが連携する。継続優先度の項目には、仮想マシンの重要度に応じた継続優先度を示す数値が登録される。継続優先度とは、仮想マシンに個別に設定される優先度である。継続優先度には、処理を継続させたい優先度を任意に設定できる。例えば、継続優先度は、数値が大きいほど、優先度が高い(より優先される)ことを示す。
設置場所の項目には、仮想マシンを動作させる実行サーバが設置されたデータセンタ名が設定される。バックアップ場所の項目には、仮想マシンのバックアップデータを格納するバックアップサーバ300が設置されたデータセンタのデータセンタ名が設定される。
例えば、仮想マシン管理テーブル114には、仮想マシン名が“VM1”、継続優先度が“1”、業務APが“FS”、業務グループが“1”、設置場所が“DC1”、バックアップ場所が“DC3”という情報が提供される。これは、仮想マシン210について、業務APがファイルサーバであり、業務グループ“1”に属すること、継続優先度が“1”であることを示している。また、仮想マシン210を実行する実行サーバ200がデータセンタ30に設置されていること、バックアップデータを格納するバックアップサーバ300がデータセンタ50に設置されていることを示している。
ここで、仮想マシン210a,210b,220bも業務グループ“1”である。また、仮想マシン210aの継続優先度は“2”、仮想マシン210bの継続優先度は“3”、仮想マシン220bの継続優先度は“4”である。したがって、仮想マシン210,210a,210b,220bが互いに連携して所定の業務処理を実現する。その中で、仮想マシン220bの継続優先度が最も高い。次いで、仮想マシン210bの継続優先度が高い。次いで、仮想マシン210aの継続優先度が高い。そして、仮想マシン210の継続優先度が最も低い。
図10は、第2の実施の形態のバックアップ履歴管理テーブルの例を示す図である。バックアップ履歴管理テーブル115は、各仮想マシンのバックアップ履歴を管理するためのテーブルである。バックアップ履歴管理テーブル115は、記憶部110に格納される。バックアップ履歴管理テーブル115には、項番、仮想マシン名、開始、終了および結果の項目が含まれる。
項番の項目には、項番が登録される。仮想マシン名の項目には、仮想マシン名が登録される。開始の項目には、バックアップを開始した時刻が登録される。終了の項目には、バックアップを終了した時刻が登録される。結果の項目には、バックアップの成否を示す結果が登録される。例えば、バックアップが成功した場合には“成功”が登録される。バックアップが失敗した場合には“失敗”が登録される。
例えば、バックアップ履歴管理テーブル115には、項番が“1”、仮想マシン名が“VM1”、開始が“10/2 4:00”、終了が“10/2 5:20”、結果が“成功”という情報が登録される。これは、仮想マシン210についてのバックアップが10月2日の午前4時に開始され、10月2日の午前5時20分に終了し、バックアップが成功(正常終了)したことを示す。
一方、例えば、項番“7”のレコードでは、仮想マシン210c(“VM7”)についてのバックアップ結果が“失敗”である。これは、バックアップが失敗(異常終了)したことを示す。この場合は、仮想マシン210cのバックアップデータを正常に取得できていないことになる。
なお、バックアップ履歴管理テーブル115には、仮想マシンごとに直近の所定回数分(例えば、1〜3回程度)のバックアップ履歴を格納しておいてもよいし、過去のバックアップ履歴を全て格納しておいてもよい。
図11は、第2の実施の形態のバックアップ優先度テーブルの例を示す図である。バックアップ優先度テーブル116は、仮想マシンごとのバックアップ優先度を管理するためのテーブルである。バックアップ優先度テーブル116は、記憶部110に格納される。バックアップ優先度テーブル116には、仮想マシン名およびバックアップ優先度の項目が含まれる。
仮想マシン名の項目には、仮想マシン名が登録される。バックアップ優先度の項目には、バックアップ優先度が登録される。例えば、バックアップ優先度テーブル116には、仮想マシン名が“VM1”、バックアップ優先度が“1”という情報が登録される。これは、直近のバックアップ履歴に応じた仮想マシン210のバックアップ優先度が“1”であることを示している。
図12は、第2の実施の形態の移動順序テーブルを示す図である。移動順序テーブル117は、仮想マシンごとの継続優先度、AP優先度およびバックアップ優先度に基づいて管理部120が評価した仮想マシンの移動順序を管理するためのテーブルである。移動順序テーブル117は、記憶部110に格納される。移動順序テーブル117は、仮想マシン名、優先度総合評価値および移動順序の項目を含む。
仮想マシン名の項目には、仮想マシン名が登録される。優先度総合評価値の項目には、継続優先度、AP優先度およびバックアップ優先度を考慮して総合的に評価された値(優先度総合評価値)が登録される。優先度総合評価値は、数値が大きいほど、優先度が高い(より優先される)ことを示す。移動順序の項目には、移動する順序が登録される。
ここで、優先度の総合評価値は、優先度条件テーブル112、AP優先度条件テーブル113および仮想マシン管理テーブル114に基づいて、継続優先度、AP優先度およびバックアップ優先度の和によって求められる。例えば、仮想マシン210(VM1)の優先度総合評価値は、1+1+1=3である。仮想マシン220(VM2)の優先度総合評価値は、2+1+5=8である。仮想マシン210a(VM3)の優先度総合評価値は2+2+1=5である。仮想マシン220a(VM4)の優先度総合評価値は3+2+4=9である。仮想マシン210b(VM5)の優先度総合評価値は3+3+2=8である。仮想マシン220b(VM6)の優先度総合評価値は4+3+3=10である。仮想マシン210c(VM7)の優先度総合評価値は3+3+6=12である。仮想マシン220c(VM8)の優先度総合評価値は4+3+6=13である。
優先度総合評価値が同じ値の場合、例えば、バックアップ優先度の大きい順とする。よって、移動順序はVM8(移動順序“1”)、VM7(移動順序“2”)、VM6(移動順序“3”)、VM4(移動順序“4”)、VM2(移動順序“5”)、VM5(移動順序“6”)、VM3(移動順序“7”)、VM1(移動順序“8”)となる。
なお、上記のように優先度総合評価値が同じ値の場合に、バックアップ優先度を用いて、移動順序を判断するものとしたが、バックアップ優先度以外を優先させてもよい。例えば、継続優先度を比較して移動順序を判断してもよいし、AP優先度を比較して移動順序を判断してもよい。優先度総合評価値が同じ値である場合に何れの優先度を比較するかについて、ユーザによる選択入力を許容してもよい。
図13は、第2の実施の形態の警告データを示す図である。警告データ600は、警告サーバ400またはセンサ装置500,500a,500bが、所定の地域における災害発生などを知らせる警告を制御サーバ100に通知するための通信データである。警告データ600は、警告サーバ400またはセンサ装置500,500a,500bにより制御サーバ100へ送信される。
警告データ600は、警告エリアおよび警告内容のフィールドを有する。警告エリアのフィールドには、災害が発生した地域や災害の影響が及び得る地域を示す情報が設定される。警告内容のフィールドには、警告の内容を示す情報が設定される。
例えば、エリアXで大地震が発生した場合、警告エリアのフィールドが“エリアX”であり、警告内容のフィールドが“大地震発生”である警告データ610が、警告サーバ400などから送信される。
図14は、第2の実施の形態の優先度の判定例を示すフローチャートである。以下、図14に示す処理をステップ番号に沿って説明する。
(ステップS11)管理部120は、各仮想マシンからバックアップ履歴を受信する。管理部120は、バックアップ履歴管理テーブル115の各情報(バックアップの開始、終了および結果)を、受信されたバックアップ履歴に基づいて更新する。
(ステップS12)管理部120は、バックアップ履歴に基づいて各仮想マシンのバックアップ優先度を特定する。具体的には、管理部120は仮想マシンごとの直近のバックアップの終了時刻をバックアップ履歴管理テーブル115から検索する。管理部120は、検索された終了時刻から現在時刻までの経過時間を算出する。管理部120は、算出された経過時間と優先度条件テーブル112とに基づいて、バックアップ優先度を検索する。そして、管理部120は、検索されたバックアップ優先度を当該仮想マシンのバックアップ優先度と特定する。管理部120は、1つの仮想マシンについてバックアップ履歴を受信するたびに、当該仮想マシンに対して本ステップS12を実行してもよい。
(ステップS13)管理部120は、バックアップ優先度テーブル116の各仮想マシン名について、バックアップ優先度を特定したバックアップ優先度で更新する。
なお、図14の処理は、管理部120が警告サーバ400などから警告データ600を受信したタイミングで実行開始されてもよい。また、直近のバックアップの開始時刻から現在時刻までの経過時間を優先度条件テーブル112でいう“最終バックアップからの経過時間”としてもよい。
更に、ステップS12では、直近のバックアップに失敗していることもある。その場合、管理部120は、優先度条件テーブル112内の最高のバックアップ優先度を対象の仮想マシンに付与してもよい。あるいは、対象の仮想マシンについて直近のバックアップよりも前の時点における、成功したバックアップの履歴がバックアップ履歴管理テーブル115にあれば、当該成功したバックアップの履歴に基づいて、バックアップ優先度を求めてもよい。また、定期的なバックアップを取得していない仮想マシンも存在し得る。管理部120は、そのような仮想マシンに最高のバックアップ優先度を付与してもよい。
管理部120は、災害が発生した旨を警告サーバ400やセンサ装置500などから受信すると、仮想マシンの移動制御を開始する。次に、当該移動制御の手順を説明する。
図15は、第2の実施の形態の仮想マシンの移動例を示すフローチャートである。以下、図15に示す処理をステップ番号に沿って説明する。
(ステップS21)管理部120は、警告サーバ400から警告データ600を受信する。例えば、警告データ600には、前述のように警告エリア“エリアX”、警告内容“大地震発生”という情報が格納されている。
(ステップS22)管理部120は、警告データ600を参照して警告エリアを確認する。管理部120は、DC管理テーブル111を参照して、当該警告エリアに含まれるデータセンタを特定する。例えば、警告エリアが“エリアX”であれば、警告エリアに含まれるのはデータセンタ40,50である。
(ステップS23)管理部120は、移動対象の仮想マシンを特定する。具体的には、管理部120は仮想マシン管理テーブル114を参照して、ステップS22で特定されたデータセンタ内の仮想マシンを移動対象とする。データセンタ40,50が警告エリアに含まれる場合、移動対象の仮想マシンは、仮想マシン210,220,210a,220a,210b,220b,210c,220cである。
(ステップS24)管理部120は、移動対象の仮想マシンについて、バックアップ優先度を再評価する。詳細は後述する。
(ステップS25)管理部120は、AP優先度条件テーブル113および仮想マシン管理テーブル114を参照して、移動対象の仮想マシンについて継続優先度およびAP優先度を取得する。具体的には、継続優先度の取得は移動対象の仮想マシンごとに、当該仮想マシンに一致する仮想マシンの継続優先度を仮想マシン管理テーブル114から取得する。また、AP優先度の取得は移動対象の仮想マシンごとに、仮想マシンに対応する業務APを仮想マシン管理テーブル114から検索する。そして、管理部120は検索された業務APのAP優先度をAP優先度条件テーブル113から取得する。
(ステップS26)管理部120は、検索した各仮想マシンについて、取得した継続優先度、AP優先度およびバックアップ優先度に基づいて、優先度の総合評価を行い、移動順序テーブル117を作成する。具体的には、管理部120は仮想マシンごとに継続優先度、AP優先度およびバックアップ優先度を合計した値を優先度総合評価値として求め、移動順序テーブル117に登録する。
(ステップS27)管理部120は、仮想マシンごとの優先度総合評価に基づいて、仮想マシンの移動順序を決定する。管理部120は、優先度総合評価の大きい順になるように移動順序を決定し、移動順序テーブル117に登録する。
(ステップS28)管理部120は、警告エリア外のデータセンタの中から移動先のデータセンタを決定する。例えば、DC管理テーブル111によれば、データセンタ50は“エリアY”に存在しており、警告エリア“エリアX”に対して警告エリア外である。したがって、管理部120は、当該データセンタ50を移動先とする。移動先のデータセンタの候補が複数存在する場合には、警告エリアから最も遠いエリアに存在するデータセンタを選択してもよい。そのようなエリアは、災害の被害が及ぶ可能性が低いからである。また、管理部120は、決定されたデータセンタ内の実行サーバの中から、移動先の実行サーバを決定する。データセンタ50には実行サーバ200d,200eが存在している。管理部120は、実行サーバ200d,200eを移動先の実行サーバとする。
(ステップS29)移動制御部130は、移動順序テーブル117を参照して、管理部120により決定された順序で、移動先の実行サーバへ移動対象の各仮想マシンを移動させるよう移動元の実行サーバに指示する。例えば、移動制御部130は、実行サーバ200d,200eへの、仮想マシン210,220,210a,220a,210b,220b,210c,220cの移動を、実行サーバ200,200a,200b,200cに対して順番に指示する。
このようにして、管理部120はバックアップ履歴に基づいて、複数の仮想マシンの移動順序を決定し、複数の仮想マシンを当該移動順序で移動するように各実行サーバを制御する。なお、ステップS28において、管理部120は、移動先のデータセンタに設置された実行サーバにおいて利用可能なリソースや移動後の負荷などに基づいて、移動先の実行サーバを決定してもよい。例えば、仮想マシンを動作することで受ける負荷、仮想マシンの動作に用いるためのリソースの有無、仮想マシンを移動するための帯域の広さなどを考慮することが考えられる。
また、ステップS29において、各実行サーバはライブマイグレーションと呼ばれる技術を用いて仮想マシンの移動を行ってもよい。具体的には、仮想マシン210を実行サーバ200dに移動する場合を想定すると次のような手順を採ることが考えられる。
(1)実行サーバ200dで仮想マシン210用のCPU/メモリリソースを予約する。(2)実行サーバ200で仮想マシン210に割り当てられているメモリリソースのデータを、実行サーバ200dで仮想マシン210用に新たに割り当てたメモリリソースにコピーする。(3)実行サーバ200から実行サーバ200dへ仮想マシン210に割り当てていたCPUリソースの状態をコピーし、実行サーバ200で仮想マシン210を停止させる。(4)実行サーバ200dで仮想マシン210を再開し、実行サーバ200で仮想マシン210に割り当てていたリソースを解放する。(5)実行サーバ200d上の仮想マシン210についてネットワーク設定(例えば、所定のアドレスなど)を更新する。これにより、仮想マシン210は、移動前と同様の動作が可能となる。
ただし、実行サーバ200上で仮想マシン210を停止させてから、仮想マシン210に関するデータを実行サーバ200dにコピーして、仮想マシン210を実行サーバ200d上に移動させてもよい。次に、ステップS24のバックアップ優先度の再評価の手順を説明する。
図16は、第2の実施の形態の優先度の再評価の例を示すフローチャートである。以下、図16に示す処理をステップ番号に沿って説明する。
(ステップS31)管理部120は、ステップS23で特定された移動対象の仮想マシンを1つ選択する。
(ステップS32)管理部120は、当該仮想マシンのバックアップ先を確認する。具体的には、管理部120は、仮想マシン管理テーブル114について、当該仮想マシンのバックアップ場所を確認する。管理部120は、確認したバックアップ場所が警告エリア内であるか判定する。バックアップ場所が警告エリア内である場合、処理をステップS33へ進める。バックアップ場所が警告エリア外である場合、処理をステップS34へ進める。
(ステップS33)管理部120は、バックアップ優先度テーブル116について、選択した仮想マシンのバックアップ優先度を最大レベルに更新する。最大レベルのバックアップ優先度とは、例えば、優先度条件テーブル112に設定されたバックアップ優先度のうちの最大値である。あるいは、それよりも大きな所定の値でもよい。
(ステップS34)管理部120は、移動対象の全仮想マシンについて処理済みか判定する。移動対象の全仮想マシンについて処理済みである場合、処理を終了する。移動対象の全仮想マシンについて処理済みでない場合、処理をステップS31に進める。
このようにして、管理部120は、移動対象の仮想マシンのバックアップ取得先が警告エリア内であるか否かに基づいて、当該仮想マシンのバックアップ優先度を再評価する。バックアップ取得先となるバックアップサーバが警告エリア内に存在する場合、当該バックアップサーバが設けられた拠点が崩壊したり、停電したりして利用不能になるおそれがある。すると、リストアのためにバックアップデータを利用するのが困難になってしまう。そこで、管理部120は、バックアップ取得先が警告エリア内に存在する仮想マシンのバックアップ優先度を最高レベルに引き上げる。これにより、当該仮想マシンが別拠点へ優先的に移動されるように制御できる。
図17は、第2の実施の形態の仮想マシンの移動例を示す図である。図17では、災害が発生したときの仮想マシンの具体的な移動例を示している。データセンタ30,40は警告エリアに含まれている。移動順序は移動順序テーブル117に設定された通りである。また、仮想マシン210,210a,220,220aの移動先は、データセンタ50に配置された実行サーバ200dである。仮想マシン210b,210c,220b,220cの移動先は、データセンタ50に配置された実行サーバ200eである。
この場合、制御サーバ100は、次の順序で各仮想マシンが移動されるように実行サーバ200,200a,200b,200cを制御する。最初に、仮想マシン220c(VM8)を実行サーバ200eへ移動させる。2番目に、仮想マシン210c(VM7)を実行サーバ200eへ移動させる。3番目に、仮想マシン220b(VM6)を実行サーバ200eへ移動させる。4番目に、仮想マシン220a(VM4)を実行サーバ200dへ移動させる。5番目に、仮想マシン220(VM2)を実行サーバ200dへ移動させる。6番目に、仮想マシン210b(VM5)を実行サーバ200eへ移動させる。7番目に、仮想マシン210a(VM3)を実行サーバ200dへ移動させる。最後に、仮想マシン210(VM1)を実行サーバ200dへ移動させる。
ここで、移動順序を評価する方法の一例として、バックアップ優先度、AP優先度および継続優先度の和を優先度総合評価値として求める処理を例示した。ただし、他の方法を用いてもよい。例えば、業務グループ単位で優先度総合評価値を求めてもよい。具体的には、次のように評価することが考えられる。
図18は、第2の実施の形態の移動順序の評価の他の例(その1)を示す図である。移動順序テーブル117aは、移動順序テーブル117に代えて、記憶部110に格納される。移動順序テーブル117aは、仮想マシン名、優先度総合評価値および移動順序の項目を含む。
仮想マシン名の項目には、仮想マシン名が登録される。優先度総合評価値の項目には、業務グループに属する仮想マシンの中で、図12と同様に計算した各優先度の合計値が最大となる仮想マシンの当該合計値が設定される。
例えば、業務グループが“1”に属する仮想マシンについて、仮想マシン210(VM1)の当該合計値が“3”であり、仮想マシン210a(VM3)の当該合計値が“5”であり、仮想マシン210b(VM5)の当該合計値が“8”であり、仮想マシン220b(VM6)の当該合計値が“10”であるため、VM1、VM3、VM5およびVM6の優先度総合評価値は“10”となる。
同様に、業務グループ“2”に属する仮想マシンについて、仮想マシン220(VM2)の当該合計値は“8”であり、仮想マシン220a(VM4)の当該合計値は“9”であり、仮想マシン210c(VM7)の当該合計値は“12”であり、仮想マシン220c(VM8)の当該合計値は“13”であるため、VM2、VM4、VM7およびVM8の優先度総合評価値は“13”となる。
移動順序の項目には、移動する順序が、優先度総合評価値が大きい順になるように設定される。優先度総合評価の値が同じ場合は、当該合計値が大きい順になるように設定される。したがって、移動順序は、VM8,VM7,VM4,VM2,VM6,VM5,VM3,VM1の順となる。
このように、業務グループ内の仮想マシンのうち当該合計値が最大値となる仮想マシンの合計値を、業務グループ内の各仮想マシンの優先度総合評価値として、移動順序を決定することもできる。なお、業務グループ内の仮想マシンごとに算出された合計値の平均値を、当該業務グループ内の各仮想マシンの優先度総合評価値として、移動順序を決定してもよい。
また、更に他の方法を用いて優先度総合評価値を求めることが考えられる。例えば、優先度に重み付けをして和をとることで優先度総合評価値を求めてもよい。具体的には、次のように評価することが考えられる。
図19は、第2の実施の形態の移動順序の評価の他の例(その2)を示す図である。移動順序テーブル117bは、移動順序テーブル117に代えて、記憶部110に格納される。移動順序テーブル117bは、仮想マシン名、優先度総合評価値および移動順序の項目を含む。
仮想マシン名の項目には、仮想マシン名が登録される。優先度総合評価値の項目には、仮想マシン管理テーブル114における継続優先度、AP優先度およびバックアップ優先度に対して重み付けし、合計した値が設定される。例えば、図16において、継続優先度の重みが“3”であり、AP優先度の重みが“1”であり、バックアップ優先度の重みが“5”であるとする。
その場合、仮想マシン210(VM1)の優先度総合評価値は1×3+1×1+1×5=9となる。仮想マシン220(VM2)の優先度総合評価値は2×3+1×1+5×5=32となる。仮想マシン210a(VM3)の優先度総合評価値は2×3+2×1+1×5=13となる。仮想マシン220a(VM4)の優先度総合評価値は3×3+2×1+4×5=31となる。仮想マシン210b(VM5)の優先度総合評価値は3×3+3×1+2×5=22となる。仮想マシン220b(VM6)の優先度総合評価値は4×3+3×1+3×5=30となる。仮想マシン210c(VM7)の優先度総合評価値は3×3+3×1+6×5=42となる。仮想マシン220c(VM8)の優先度総合評価値は4×3+3×1+6×5=45となる。
よって、移動順序はVM8,VM7,VM2,VM4,VM6,VM5,VM3,VM1の順となる。このように、優先度に重み付けをして和をとったものを優先度総合評価値として、移動順序を決定してもよい。
以上で説明したように、制御サーバ100は警告サーバ400などから警告データ600を受信すると、データセンタ30,40に存在する仮想マシンそれぞれの継続優先度、AP優先度およびバックアップ優先度に基づいて仮想マシンの移動順序を決定する。そして、制御サーバ100は、当該移動順序で仮想マシンをデータセンタ50へ移動するよう各実行サーバを制御する。特に、バックアップ優先度に基づいて移動順序を決定するので、各仮想マシンについて復元可能な状態を考慮した順序で仮想マシンを移動できる。
具体的には、より新しい時点のバックアップを取得している仮想マシンほど、移動を後回しにする。より新しい時点のバックアップを取得していれば、より新しい時点へ復元可能だからである。このため、仮に移動が間に合わない仮想マシンが生じたとしても、バックアップデータを用いて、当該仮想マシンをより新しい時点で復元できる可能性が高まる。これにより、仮に移動が間に合わない仮想マシンが生じたとしても、業務システムへの影響を軽減できる。
また、バックアップ優先度以外の他の種類の優先度(AP優先度や継続優先度など)をも考慮して移動順序を決定してもよい。そうすれば、バックアップの状況だけでなく、業務の優先度などをも加味して総合的に移動順序を判断できる。
また、制御サーバ100は、警告データ600を受信することで、災害など仮想マシンの移動開始すべきタイミングを効率的に検知できる。緊急時の検知方法は、警告データ600の受信に限らない。例えば、停電時に無停電電源装置によって発せられるバッテリからの給電開始の通知を受信することで、仮想マシンを移動開始すべきタイミングを検知してもよい。その場合、当該通知元の無停電電源装置がどのデータセンタに設置されているかを示す情報を制御サーバ100が予め保有しておけば、仮想マシン管理テーブル114に基づいて、移動させるべき仮想マシンを特定できる。あるいは、給電開始の通知に、データセンタを示す情報が含まれてもよい。
また、制御サーバ100は、警告データ600に含まれる警告エリア内のデータセンタ30,40に存在する仮想マシンのみ移動させる。これにより、制御サーバ100は、限られた時間内に移動させるべき仮想マシンを限定することができる。このため、仮想マシンを効率的に移動できる。
また、制御サーバ100は、移動させる仮想マシンによる実行データのバックアップ先のデータセンタが警告エリア内の場合、当該仮想マシンのバックアップ優先度を上げて、優先して移動されるように制御する。これにより、制御サーバ100は、移動させる仮想マシンのバックアップ先のデータセンタが災害などに巻き込まれた場合を考慮して移動順序を決定できる。
なお、前述のように、第1の実施の形態の情報処理は、演算部1bにプログラムを実行させることで実現できる。また、第2の実施の形態の情報処理は、プロセッサ101にプログラムを実行させることで実現できる。このようなプログラムは、コンピュータ読み取り可能な記録媒体(例えば、記録媒体13)に記録され得る。記録媒体としては、例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどを使用できる。磁気ディスクには、FDおよびHDDが含まれる。光ディスクには、CD、CD−R(Recordable)/RW(Rewritable)、DVDおよびDVD−R/RWが含まれる。
プログラムを流通させる場合、例えば、当該プログラムを記録した可搬記録媒体が提供される。また、プログラムを他のコンピュータの記憶装置に格納しておき、ネットワーク20経由でプログラムを配布することもできる。コンピュータは、例えば、可搬記録媒体に記録されたプログラムまたは他のコンピュータから受信したプログラムを、記憶装置(例えば、HDD103)に格納し、当該記憶装置からプログラムを読み込んで実行する。ただし、可搬記録媒体から読み込んだプログラムを直接実行してもよく、他のコンピュータからネットワーク20を介して受信したプログラムを直接実行してもよい。また、上記の情報処理の少なくとも一部を、DSP、ASIC、PLDなどの電子回路で実現することも可能である。
上記については単に本発明の原理を示すものである。更に、多数の変形や変更が当業者にとって可能であり、本発明は上記に示し、説明した正確な構成および応用例に限定されるものではなく、対応する全ての変形例および均等物は、添付の請求項およびその均等物による本発明の範囲とみなされる。
1,2,3 情報処理装置
1a 記憶部
1b 演算部
2a,2b,2c 仮想マシン
A1,A2,A3 バックアップ履歴
B1,B2,B3 移動期間
T1 移動開始タイミング
T2 制限時刻

Claims (9)

  1. 1または複数の装置で動作する複数の仮想マシンそれぞれに関するデータのバックアップの履歴を示す情報を記憶する記憶部と、
    前記バックアップの履歴示す前記複数の仮想マシンそれぞれに対して実行されたバックアップの成否に基づいて前記複数の仮想マシンそれぞれを1または複数の他の装置へ移動させる順序をバックアップに失敗した仮想マシンを優先して移動させるように決定し、前記複数の仮想マシンそれぞれを前記順序で移動させるように前記1または複数の装置を制御する演算部と、
    を有する情報処理装置。
  2. 前記演算部は、前記複数の仮想マシンそれぞれに対してバックアップが行われた時間に基づいて前記順序を決定する、請求項1記載の情報処理装置。
  3. 前記演算部は、バックアップが行われた時間と現時刻との時間差が大きい仮想マシンほど優先して移動させるように前記順序を決定する、請求項2記載の情報処理装置。
  4. 前記演算部は、前記1または複数の装置のうち災害の影響を受ける装置で動作する仮想マシンについて前記順序を決定する、請求項1乃至の何れか1項に記載の情報処理装置。
  5. 前記記憶部は、前記1または複数の装置が設置された地域を示す情報を記憶し、
    前記演算部は、警告装置によって報知される災害の影響を受ける地域を示す情報を受け付けると、前記記憶部に記憶された情報に基づいて、前記災害の影響を受ける装置を特定する、
    請求項記載の情報処理装置。
  6. 1または複数の装置で動作する複数の仮想マシンそれぞれに関するデータのバックアップの履歴示す前記複数の仮想マシンそれぞれに対して実行されたバックアップの成否に基づいて、前記複数の仮想マシンそれぞれを1または複数の他の装置へ移動させる順序をバックアップに失敗した仮想マシンを優先して移動させるように決定し、
    前記複数の仮想マシンそれぞれを前記順序で移動させるように前記1または複数の装置を制御する、
    処理をコンピュータに実行させるプログラム。
  7. 情報処理装置が、
    1または複数の装置で動作する複数の仮想マシンそれぞれに関するデータのバックアップの履歴示す前記複数の仮想マシンそれぞれに対して実行されたバックアップの成否に基づいて、前記複数の仮想マシンそれぞれを1または複数の他の装置へ移動させる順序をバックアップに失敗した仮想マシンを優先して移動させるように決定し、
    前記複数の仮想マシンそれぞれを前記順序で移動させるように前記1または複数の装置を制御する、
    仮想マシン移動方法。
  8. 1または複数の装置で動作する複数の仮想マシンそれぞれに関するデータのバックアップの履歴を示す情報とバックアップされたデータの格納先である記憶装置の設置場所を示す情報とを記憶する記憶部と、
    前記バックアップの履歴を示す情報と前記設置場所を示す情報とに基づいて前記複数の仮想マシンそれぞれを1または複数の他の装置へ移動させる順序を、バックアップされたデータの格納先である記憶装置の設置場所が災害の影響を受ける地域である仮想マシンを優先して移動させるように決定し、前記複数の仮想マシンそれぞれを前記順序で移動させるように前記1または複数の装置を制御する演算部と、
    を有する情報処理装置。
  9. 1または複数の装置で動作する複数の仮想マシンそれぞれに関するデータのバックアップの履歴を示す情報とソフトウェアの重要度とを記憶する記憶部と、
    前記バックアップの履歴を示す情報と前記複数の仮想マシンそれぞれで実行される前記ソフトウェアの重要度に基づいて前記複数の仮想マシンそれぞれを1または複数の他の装置へ移動させる順序を決定し、前記複数の仮想マシンそれぞれを前記順序で移動させるように前記1または複数の装置を制御する演算部と、
    を有する情報処理装置。
JP2014545479A 2012-11-07 2012-11-07 情報処理装置、プログラムおよび仮想マシン移動方法 Expired - Fee Related JP5967215B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/078792 WO2014073046A1 (ja) 2012-11-07 2012-11-07 情報処理装置、プログラムおよび仮想マシン移動方法

Publications (2)

Publication Number Publication Date
JP5967215B2 true JP5967215B2 (ja) 2016-08-10
JPWO2014073046A1 JPWO2014073046A1 (ja) 2016-09-08

Family

ID=50684184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014545479A Expired - Fee Related JP5967215B2 (ja) 2012-11-07 2012-11-07 情報処理装置、プログラムおよび仮想マシン移動方法

Country Status (3)

Country Link
US (1) US9652332B2 (ja)
JP (1) JP5967215B2 (ja)
WO (1) WO2014073046A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9141487B2 (en) * 2013-01-15 2015-09-22 Microsoft Technology Licensing, Llc Healing cloud services during upgrades
JP5713056B2 (ja) * 2013-06-24 2015-05-07 横河電機株式会社 プロセス制御装置及びシステム並びにその更新方法
JP6221701B2 (ja) * 2013-12-03 2017-11-01 富士通株式会社 制御プログラム、制御装置及び制御方法
US20160019119A1 (en) * 2014-07-21 2016-01-21 Longsand Limited Prioritizing backup of files
JP6413517B2 (ja) * 2014-09-04 2018-10-31 富士通株式会社 管理装置、マイグレーション制御プログラム、情報処理システム
CN106155831B (zh) * 2015-03-24 2019-04-23 联想(北京)有限公司 一种数据恢复方法及装置
US11023330B2 (en) * 2016-09-02 2021-06-01 Vmware, Inc. Efficient scheduling of backups for cloud computing systems
US10223218B2 (en) * 2016-11-29 2019-03-05 International Business Machines Corporation Disaster recovery of managed systems
US10601837B1 (en) * 2017-10-02 2020-03-24 EMC IP Holding Company LLC Systems and methods for performing data protection operations with a proxy register
US11256540B2 (en) * 2018-12-27 2022-02-22 Micro Focus Llc Server-to-container migration
US11163647B2 (en) 2019-04-23 2021-11-02 EMC IP Holding Company LLC System and method for selection of node for backup in distributed system
US11119685B2 (en) 2019-04-23 2021-09-14 EMC IP Holding Company LLC System and method for accelerated data access
US11099941B2 (en) 2019-04-23 2021-08-24 EMC IP Holding Company LLC System and method for accelerating application service restoration
US11106544B2 (en) * 2019-04-26 2021-08-31 EMC IP Holding Company LLC System and method for management of largescale data backup
US11036400B2 (en) 2019-04-26 2021-06-15 EMC IP Holding Company LLC System and method for limiting restoration access
US11061732B2 (en) 2019-05-14 2021-07-13 EMC IP Holding Company LLC System and method for scalable backup services

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113677A (ja) * 2008-11-10 2010-05-20 Hitachi Ltd サービス管理装置、サービス管理方法およびサービス管理システム
JP2010225021A (ja) * 2009-03-25 2010-10-07 Toshiba Corp ファイルバックアップ装置およびその方法
JP2011128967A (ja) * 2009-12-18 2011-06-30 Hitachi Ltd 仮想計算機の移動方法、仮想計算機システム及びプログラム
JP2011192184A (ja) * 2010-03-16 2011-09-29 Nec Corp 仮想コンピュータシステム、管理サーバ、仮想マシンの構築方法およびそのプログラム
JP2011209811A (ja) * 2010-03-29 2011-10-20 Nec Corp 仮想マシンシステムおよび仮想マシン配置方法
JP2012088943A (ja) * 2010-10-20 2012-05-10 Hitachi Ltd 仮想サーバ管理装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6944785B2 (en) * 2001-07-23 2005-09-13 Network Appliance, Inc. High-availability cluster virtual server system
JP4780015B2 (ja) 2007-03-29 2011-09-28 日本電気株式会社 バックアップ装置及び方法並びにプログラム
JP5334010B2 (ja) 2008-03-10 2013-11-06 東芝エレベータ株式会社 昇降機保守管理装置
JP5140633B2 (ja) * 2008-09-04 2013-02-06 株式会社日立製作所 仮想化環境において生じる障害の解析方法、管理サーバ、及びプログラム
JP4839361B2 (ja) 2008-11-11 2011-12-21 株式会社日立製作所 仮想マシン移動管理サーバおよび仮想マシン移動方法
JP4970479B2 (ja) * 2009-03-03 2012-07-04 ソニー株式会社 情報処理システム
US8595737B2 (en) 2009-03-17 2013-11-26 Hitachi, Ltd. Method for migrating a virtual server to physical server according to a variation ratio, a reference execution time, a predetermined occupied resource amount and a occupancy amount
WO2013145288A1 (ja) * 2012-03-30 2013-10-03 富士通株式会社 情報処理装置、仮想マシン停止方法およびプログラム
JP6079226B2 (ja) * 2012-12-27 2017-02-15 富士通株式会社 情報処理装置、サーバ管理方法およびサーバ管理プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113677A (ja) * 2008-11-10 2010-05-20 Hitachi Ltd サービス管理装置、サービス管理方法およびサービス管理システム
JP2010225021A (ja) * 2009-03-25 2010-10-07 Toshiba Corp ファイルバックアップ装置およびその方法
JP2011128967A (ja) * 2009-12-18 2011-06-30 Hitachi Ltd 仮想計算機の移動方法、仮想計算機システム及びプログラム
JP2011192184A (ja) * 2010-03-16 2011-09-29 Nec Corp 仮想コンピュータシステム、管理サーバ、仮想マシンの構築方法およびそのプログラム
JP2011209811A (ja) * 2010-03-29 2011-10-20 Nec Corp 仮想マシンシステムおよび仮想マシン配置方法
JP2012088943A (ja) * 2010-10-20 2012-05-10 Hitachi Ltd 仮想サーバ管理装置

Also Published As

Publication number Publication date
US9652332B2 (en) 2017-05-16
US20150234713A1 (en) 2015-08-20
JPWO2014073046A1 (ja) 2016-09-08
WO2014073046A1 (ja) 2014-05-15

Similar Documents

Publication Publication Date Title
JP5967215B2 (ja) 情報処理装置、プログラムおよび仮想マシン移動方法
JP5834939B2 (ja) プログラム、仮想マシン制御方法、情報処理装置および情報処理システム
US10877859B2 (en) Protecting virtual machines against storage connectivity failures
US10678457B2 (en) Establishing and maintaining data apportioning for availability domain fault tolerance
US9846611B2 (en) Proactive resource reservation for protecting virtual machines
JP5427011B2 (ja) 仮想ハードディスクの管理サーバおよび管理方法、管理プログラム
US7203944B1 (en) Migrating virtual machines among computer systems to balance load caused by virtual machines
JP5140633B2 (ja) 仮想化環境において生じる障害の解析方法、管理サーバ、及びプログラム
US9485160B1 (en) System for optimization of input/output from a storage array
JP5756240B2 (ja) 管理システム及び管理方法
US9817734B2 (en) Virtual machine recovery on non-shared storage in a single virtual infrastructure management instance
JP6186787B2 (ja) データ転送装置、データ転送システム、データ転送方法及びプログラム
WO2013145288A1 (ja) 情報処理装置、仮想マシン停止方法およびプログラム
JP6372074B2 (ja) 情報処理システム,制御プログラム及び制御方法
WO2011074284A1 (ja) 仮想計算機の移動方法、仮想計算機システム及びプログラムを格納した記憶媒体
JP2018088134A (ja) マイグレーションプログラム、情報処理装置およびマイグレーション方法
WO2015068299A1 (ja) 管理計算機および計算機システムの管理方法
JP6123626B2 (ja) 処理再開方法、処理再開プログラムおよび情報処理システム
JP2014191752A (ja) マイグレーション処理プログラム,マイグレーション方法及びクラウドシステム
EP2645635B1 (en) Cluster monitor, method for monitoring a cluster, and computer-readable recording medium
TW201347459A (zh) 管理方法及其系統
US20190173770A1 (en) Method and system for placement of virtual machines using a working set computation
US9678823B2 (en) Information processing apparatus, information processing method, and information processing system
JP7104327B2 (ja) 情報処理装置、仮想マシン管理プログラムおよび仮想マシン管理方法
US20230342202A1 (en) System and method of adaptative scalable microservice

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160620

R150 Certificate of patent or registration of utility model

Ref document number: 5967215

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees