JP6260375B2 - 管理装置、管理プログラム及び情報処理システム - Google Patents

管理装置、管理プログラム及び情報処理システム Download PDF

Info

Publication number
JP6260375B2
JP6260375B2 JP2014053665A JP2014053665A JP6260375B2 JP 6260375 B2 JP6260375 B2 JP 6260375B2 JP 2014053665 A JP2014053665 A JP 2014053665A JP 2014053665 A JP2014053665 A JP 2014053665A JP 6260375 B2 JP6260375 B2 JP 6260375B2
Authority
JP
Japan
Prior art keywords
level
amount
secured
site
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014053665A
Other languages
English (en)
Other versions
JP2015176459A (ja
Inventor
沙綾子 近藤
沙綾子 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014053665A priority Critical patent/JP6260375B2/ja
Priority to US14/576,461 priority patent/US20150263988A1/en
Priority to EP14199634.8A priority patent/EP2921956A1/en
Publication of JP2015176459A publication Critical patent/JP2015176459A/ja
Application granted granted Critical
Publication of JP6260375B2 publication Critical patent/JP6260375B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/82Miscellaneous aspects
    • H04L47/822Collecting or measuring resource availability data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2094Redundant storage or storage space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/83Admission control; Resource allocation based on usage prediction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2097Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements maintaining the standby controller/processing unit updated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/3006Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system is distributed, e.g. networked systems, clusters, multiprocessor systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3055Monitoring arrangements for monitoring the status of the computing system or of the computing system component, e.g. monitoring if the computing system is on, off, available, not available

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Hardware Redundancy (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、異なるサイトでシステムを復旧する技術に関する。
クラウド環境において、あるサイト(以下運用サイトという。)における業務システムが何らかの事由によって停止した場合に、当該業務システムを他のサイト(以下、待機サイトという。)において復旧させるための仕組みが存在する。例えば待機サイトは、運用サイトで保持するデータ(システムの構成情報、イメージ及びユーザデータなど)と同期されたデータを保持している。そして、待機サイトによる復旧時には、このデータを用いて運用サイトと同等の業務システムが構築される。
また、平素から復旧の動作が正常に行われることを確認するために、時折復旧のリハーサルが行われる。
待機サイトは、業務システムを構築するためのリソースを備えている。但し、このリソースは、他の目的にも用いられていることがある。従って、待機サイトにおける空きリソースの規模は時に変動し、復旧時に使用されるリソースが常時空いているとは限らない。
そのため、復旧のリハーサルを行おうとしても、リソースが不足して叶わないことがある。このように、復旧のリハーサルのための環境が整っていなければ、復旧の動作を確認することができない。
ある特許文献には、プリンタのような組込機器に関して、組込用アプリケーションが実行環境で使用するリソースの量を求め、実行環境におけるリソースの制限条件を満たしていることを検証する技術が開示されている。この文献のように、導入前にリソース不足を予知したとしても、その組込用アプリケーションにとって実行環境が整っていないこと自体は変わりがない。
特開2006−244450号公報 特開2000−347997号公報 特開2010−198060号公報
本発明の目的は、一側面によれば、適宜実施可能なレベルによる復旧動作の確認を選択的に行えるようにすることである。
一態様に係る管理装置は、第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する第1取得部と、上記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、空き状況が適合するレベルを特定する特定部と、適合するレベルに応じたリハーサル処理を起動させる起動部とを有する。
一態様に係る情報処理システムは、第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する取得部と、上記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、空き状況が適合するレベルを特定する特定部と、適合するレベルに応じたリハーサル処理を起動させる起動部と、適合するレベルに応じたリハーサル処理を実行するリハーサル部とを有する。
一側面としては、適宜実施可能なレベルによる復旧動作の確認を選択的に行える。
図1は、ネットワーク構成例を示す図である。 図2は、仮想サーバの配備例を示す図である。 図3は、割当量テーブルの例を示す図である。 図4は、日常処理の概要を示す図である。 図5は、管理装置のモジュール構成例を示す図である。 図6は、使用量テーブルの例を示す図である。 図7は、第1確保量テーブルの例を示す図である。 図8は、レベル1における第2確保量テーブルの例を示す図である。 図9は、レベル2における第2確保量テーブルの例を示す図である。 図10は、レベル3における第2確保量テーブルの例を示す図である。 図11は、レベル4における第2確保量テーブルの例を示す図である。 図12は、レベル5における第2確保量テーブルの例を示す図である。 図13は、準備処理フローを示す図である。 図14は、特定処理(A)フローを示す図である。 図15は、特定処理(B)フローを示す図である。 図16は、特定処理(C)フローを示す図である。 図17は、特定処理(D)フローを示す図である。 図18は、設定処理フローを示す図である。 図19は、設定処理フローを示す図である。 図20は、リソースの空き量と判定結果との例を示す図である。 図21は、制御処理フローを示す図である。 図22は、リハーサル処理フローを示す図である。 図23は、リハーサル処理フローを示す図である。 図24は、コンピュータの機能ブロック図である。
図1に、ネットワーク構成例を示す。運用サイト101では、業務システムが運用されている。運用サイト101は、LAN(Local Area Network)を介して接続されている物理サーバ103、ストレージ装置105及び管理サーバ107を有している。物理サーバ103には、業務システムで用いられる仮想サーバが配備される。管理サーバ107は、物理サーバ103及びストレージ装置105などのハードウエア装置とともに、仮想サーバや仮想ネットワークなどの仮想環境も管理する。また、管理サーバ107は、物理サーバ103及びストレージ装置105などのハードウエア装置と、仮想サーバや仮想ネットワークなどの仮想環境の状態をモニタするモニタ部109を有している。
例えば運用サイト101が被災して、運用サイト101における業務システムが停止した場合には、待機サイト111において当該業務システムを復旧させる。つまり、運用サイト101における業務システムと同様のシステムが、待機サイト111において再構築される。
待機サイト111は、運用サイト101と同様に、LANを介して接続されている物理サーバ113、ストレージ装置115及び管理サーバ117を有している。物理サーバ113には、復旧時に業務システムの仮想サーバが配備される。但し、通常時において物理サーバ113に、それ以外の仮想サーバが配備されていることもある。管理サーバ117は、管理サーバ107と同様に、物理サーバ113及びストレージ装置115などのハードウエア装置とともに、仮想サーバや仮想ネットワークなどの仮想環境も管理する。また、管理サーバ117は、物理サーバ113及びストレージ装置115などのハードウエア装置と、仮想サーバや仮想ネットワークなどの仮想環境の状態をモニタするモニタ部119を有している。更に、管理サーバ117は、復旧のリハーサル処理を行うリハーサル部121を有している。尚、上述した仮想サーバは、仮想マシンの一形態である。
例えば地震に起因するような広域にわたる自然的被災を考慮する場合、待機サイト111は、運用サイト101から離れた場所に設けられる。この例では、運用サイト101のLANと、待機サイト111のLANとは、WAN(Wide Area Network)を介して接続されている。但し、例えば機器の故障のような局所的障害に備える場合には、待機サイト111を運用サイト101と近接する場所に設けるようにしてもよい。そのような場合は、待機サイト111は、運用サイト101と共通のLANに設けられるようにしてもよい。本実施の形態では、待機サイト111において、予定通りに業務システムが復旧されることを確認するためのリハーサルを行う。
管理装置131は、運用サイト101と待機サイト111とを管理する。管理装置131は、リハーサルの制御を行うための準備を行う準備部133と、リハーサルの制御を行う制御部135とを有している。管理サーバ117に代えて、管理装置131がリハーサル部121を備えるようにしてもよい。
管理装置131は、運用サイト101のLANに接続するようにしてもよい。その場合には、管理装置131は、モニタ部109を有するようにしてもよい。
また、管理装置131は、待機サイト111のLANに接続するようにしてもよい。その場合には、管理装置131は、モニタ部119を有するようにしてもよい。同じく、管理装置131は、リハーサル部121を有するようにしてもよい。
モニタ部109、モニタ部119、リハーサル部121、準備部133及び制御部135は、ハードウエア資源(例えば図24)と、以下で述べる処理をプロセッサに実行させるプログラムとを用いて実現される。
図2に、仮想サーバの配備例を示す。運用サイト101は、物理サーバ103a乃至103cを有している。物理サーバ103aには、IDが「VSA−1」である仮想サーバと、IDが「VSA−2」である仮想サーバとが配備されている。物理サーバ103bには、IDが「VSA−3」である仮想サーバと、IDが「VSB−1」である仮想サーバとが配備されている。物理サーバ103cには、IDが「VSA−4」である仮想サーバと、IDが「VSB−2」である仮想サーバと、IDが「VSB−3」である仮想サーバとが配備されている。
そして、各仮想サーバは、物理サーバ103に設けられている仮想スイッチに接続されている。また、各仮想スイッチは、物理スイッチに接続されている。仮想スイッチを介して接続された仮想サーバは、仮想ネットワークを介してデータ通信を行う。
これらの仮想サーバには、リソースが割り当てられる。図3に示す割当量テーブルの例を用いて、リソースの割り当てについて説明する。図3に示した割当量テーブルの例には、仮想サーバ毎にレコードが設けられている。各レコードは、当該仮想サーバが供される業務の名を設定するためのフィールドと、当該仮想サーバのIDを設定するためのフィールドと、当該仮想サーバに対するリソースの割当量を設定するためのフィールドと、当該仮想サーバに関する冗長化のために増設された仮想サーバのIDを設定するためのフィールドとを有している。尚、この例におけるフィールド以外の形式で、冗長化を設定するようにしてもよい。リソースの割当量を設定するためのフィールドは、CPUの割当量(GHz×個数)を設定するためのフィールドと、メモリの割当量(GB)を設定するためのフィールドと、ディスクの割当量(GB×個数)を設定するためのフィールドとを含んでいる。CPUの個数が1である場合には、「×1」の表記を省略する。また、ディスクの個数が1である場合には、「×1」の表記を省略する。尚、この図に示した割当量テーブルでは、同じ業務名のフィールド(例えば、「業務A」)が連結されているが、この表示はこれらのフィールドに同じ業務名が設定されていることを意味している。
このテーブルにおける第1レコードは、IDが「VSA−1」である仮想サーバは、「業務A」に供されることを示している。また、このレコードは、当該仮想サーバには、「2」GHzのCPUが「2」個割り当てられ、「10」GBのメモリが割り当てられ、更に「20」GBのディスクが「2」個割り当てられていることを示している。更に、このレコードは、当該仮想サーバの冗長化のためにID「VSA−4」の仮想サーバが増設されていることを示している。
このテーブルにおける第2レコードは、IDが「VSA−2」である仮想サーバは、「業務A」に供されることを示している。また、このレコードは、当該仮想サーバには、「1」GHzのCPUが1個割り当てられ、「4」GBのメモリが割り当てられ、更に「50」GBのディスクが1個割り当てられていることを示している。更に、このレコードは、当該仮想サーバの冗長化のために仮想サーバが増設されていないことを示している。
このテーブルにおける第3レコードは、IDが「VSA−3」である仮想サーバは、「業務A」に供されることを示している。また、このレコードは、当該仮想サーバには、「1」GHzのCPUが1個割り当てられ、「4」GBのメモリが割り当てられ、更に「50」GBのディスクが「3」個割り当てられていることを示している。更に、このレコードは、当該仮想サーバの冗長化のために仮想サーバが増設されていないことを示している。
このテーブルにおける第4レコードは、IDが「VSA−4」である仮想サーバは、「業務A」に供されることを示している。また、このレコードは、当該仮想サーバには、「2」GHzのCPUが「2」個割り当てられ、「10」GBのメモリが割り当てられ、更に「20」GBのディスクが「2」個割り当てられていることを示している。更に、このレコードは、当該仮想サーバの冗長化のために仮想サーバが増設されていないことを示している。
このテーブルにおける第5レコードは、IDが「VSB−1」である仮想サーバは、「業務B」に供されることを示している。また、このレコードは、当該仮想サーバには、「2」GHzのCPUが「2」個割り当てられ、「4」GBのメモリが割り当てられ、更に「20」GBのディスクが「2」個割り当てられていることを示している。更に、このレコードは、当該仮想サーバの冗長化のために仮想サーバが増設されていないことを示している。
このテーブルにおける第6レコードは、IDが「VSB−2」である仮想サーバは、「業務B」に供されることを示している。また、このレコードは、当該仮想サーバには、「3」GHzのCPUが1個割り当てられ、「16」GBのメモリが割り当てられ、更に「30」GBのディスクが1個割り当てられていることを示している。更に、このレコードは、当該仮想サーバの冗長化のためにID「VSB−3」の仮想サーバが増設されていることを示している。
このテーブルにおける第7レコードは、IDが「VSB−3」である仮想サーバは、「業務B」に供されることを示している。また、このレコードは、当該仮想サーバには、「3」GHzのCPUが1個割り当てられ、「16」GBのメモリが割り当てられ、更に「50」GBのディスクが1個割り当てられていることを示している。更に、このレコードは、当該仮想サーバの冗長化のために仮想サーバが増設されていないことを示している。
次に、復旧の前提となる日常処理について説明する。日常処理は、復旧処理あるいはリハーサル処理のタイミングに関わらず、日常的に実行される。図4に、日常処理の概要を示す。業務システムの構成が変更されるときに、管理サーバ107は、構成情報401を生成する。構成情報401は、ストレージ装置105に格納されているデータ(システムイメージやプール)と、そのデータを展開すべき物理サーバ103あるいは仮想サーバとの関係のような業務システムの構成に関する情報である。生成された構成情報401は、ストレージ装置105に格納される。そして、管理サーバ107は、バックアップ機能によって、構成情報401を管理サーバ117へ送信し、管理サーバ117は、受信した構成情報411をストレージ装置115に格納する。
また、管理サーバ107のストレージ装置105に格納されているシステムイメージ403及びユーザデータ405は、ストレージ装置105とストレージ装置115とのレプリケーション機能によって、ストレージ装置115に格納されているシステムイメージ413及びユーザデータ415へ複製される。尚、日常処理は、従来の技術と同様であるので、これ以上説明しない。
図5に、管理装置131のモジュール構成例を示す。管理装置131は、図1に示したように準備処理を行う準備部133を有している。準備部133は、第1取得部501、データ記憶部503、第1サイズ記憶部505、第1特定部507、第2サイズ記憶部509、設定部511及び送信部513を有している。
第1取得部501は、運用サイト101のモニタリングデータを取得する。データ記憶部503は、運用サイト101のモニタリングデータを記憶する。モニタリングデータには、例えば所定間隔で収集された仮想サーバにおけるリソースの使用量(CPUの使用量、メモリの使用量及びディスクの使用量)が含まれている。第1サイズ記憶部505は、図3に例示した割当量テーブルを記憶する。第1特定部507は、モニタリング期間内におけるいずれかの時点におけるリソースの使用量を特定する。第2サイズ記憶部509は、リソースの使用量が設定された使用量テーブルを記憶する。使用量テーブルについては、図6を用いて後述する。設定部511は、当該業務に関するリハーサルにおいて待機サイト111で確保すべきリソースの量を第1確保量テーブル及び第2確保量テーブルに設定する。送信部513は、第1確保量テーブル及び第2確保量テーブルをリハーサル部121へ送信する。
管理装置131は、第1確保量テーブル及び第2確保量テーブルを記憶するための第3サイズ記憶部521を有している。第1確保量テーブルについては、図7を用いて後述する。第2確保量テーブルについては、図8乃至図12を用いて後述する。
本実施の形態におけるレベルは、業務システム復旧のリハーサル処理で確保すべきリソースの規模を定める。この例におけるレベル1は、運用サイト101の業務システムにおいて割り当てられているリソース量と同規模のリソースを、リハーサル処理で確保する趣旨により設けられている。この例におけるレベル2は、運用サイト101の業務システムにおけるある時点で実際に使用されたリソース量と同規模のリソースを、リハーサル処理で確保する趣旨により設けられている。この例におけるレベル3は、冗長化を省いたと想定した場合に、運用サイト101の業務システムにおいて割り当てられるリソース量と同規模のリソースを、リハーサル処理で確保する趣旨により設けられている。この例におけるレベル4は、冗長化を省いた場合に、運用サイト101の業務システムにおけるある時点で使用されたであろうと想定されるリソース量と同規模のリソースを、リハーサル処理で確保する趣旨により設けられている。この例におけるレベル5は、運用サイト101の業務システムに関連する仮想サーバの各々において実際に使用されたリソース量に足りるリソースを、リハーサル処理で確保する趣旨により設けられている。
尚、レベル1乃至レベル4は、リハーサル処理において、同時に複数の仮想サーバを配備することを想定している。一方レベル5は、リハーサル処理において、同時に複数の仮想サーバを配備しないことを想定している。つまり、レベル5は、1つずつ仮想サーバを配備することを想定している。
また、管理装置131は、図1に示したように制御処理を行う制御部135を有している。制御部135は、受付部531、第2取得部533、第4サイズ記憶部535、第2特定部537、判定部539及び起動部541を有している。
受付部531は、リハーサルの条件を受け付ける。第2取得部533は、待機サイト111におけるリソースの空き量を取得する。第4サイズ記憶部535は、待機サイト111におけるリソースの空き量を記憶する。第2特定部537は、待機サイト111におけるリソースの空き量が、リハーサルの対象である業務について各レベルにおけるリソースの確保量以上であるか否かを判定し、最も上位のレベルを特定する。この例において、上位のレベルとは、確保量の多い方のレベルを指す。従って、第2特定部537は、最も確保量の多いレベルを特定する。判定部539は、待機サイト111におけるリソースの空き量が、リハーサルの条件で指定されたレベルにおけるリソースの確保量以上であるかを判定する。起動部541は、レベルを指定してリハーサル処理を起動する。
データ記憶部503、第1サイズ記憶部505、第2サイズ記憶部509、第3サイズ記憶部521及び第4サイズ記憶部535は、ハードウエア資源(例えば図24)を用いて実現される。また、第1取得部501、第1特定部507、設定部511、送信部513、受付部531、第2取得部533、第2特定部537、判定部539及び起動部541は、ハードウエア資源(例えば図24)と、以下で述べる処理をプロセッサに実行させるプログラムとを用いて実現される。
次に、第2サイズ記憶部509に記憶される使用量テーブルについて説明する。図6に示した使用量テーブルの例には、業務Aのシステムに供される仮想サーバ毎にレコードが設けられている。各レコードは、当該仮想サーバが供される業務の名を設定するためのフィールドと、当該仮想サーバのIDを設定するためのフィールドと、当該仮想サーバに対するリソースの使用量を設定するためのフィールドとを有している。リソースの使用量を設定するためのフィールドは、CPUの使用量(GHz×個数)を設定するためのフィールドと、メモリの使用量(GB)を設定するためのフィールドと、ディスクの使用量(GB×個数)を設定するためのフィールドとを含んでいる。
このテーブルにおける第1レコードは、IDが「VSA−1」である仮想サーバが、「業務A」に供されることを示している。また、このレコードは、当該仮想サーバが、ある時点において、「2」GHzのCPUを1個使用し、「8」GBのメモリを使用し、更に「20」GBのディスクを1個使用していたことを示している。
このテーブルにおける第2レコードは、IDが「VSA−2」である仮想サーバが、「業務A」に供されることを示している。また、このレコードは、当該仮想サーバが、ある時点において、「1」GHzのCPUを1個使用し、「2」GBのメモリを使用し、更に「20」GBのディスクを1個使用していたことを示している。
このテーブルにおける第3レコードは、IDが「VSA−3」である仮想サーバが、「業務A」に供されることを示している。また、このレコードは、当該仮想サーバが、ある時点において、「1」GHzのCPUを1個使用し、「2」GBのメモリを使用し、更に「50」GBのディスクを1個使用していたことを示している。
このテーブルにおける第4レコードは、IDが「VSA−4」である仮想サーバが、「業務A」に供されることを示している。また、このレコードは、当該仮想サーバが、ある時点において、「2」GHzのCPUを1個使用し、「8」GBのメモリを使用し、更に「20」GBのディスクを1個使用していたことを示している。
このテーブルにおける第5レコードは、IDが「VSB−1」である仮想サーバが、「業務B」に供されることを示している。また、このレコードは、当該仮想サーバが、ある時点において、「2」GHzのCPUを1個使用し、「1」GBのメモリを使用し、更に「20」GBのディスクを1個使用していたことを示している。
このテーブルにおける第6レコードは、IDが「VSB−2」である仮想サーバが、「業務B」に供されることを示している。また、このレコードは、当該仮想サーバが、ある時点において、「1」GHzのCPUを1個使用し、「8」GBのメモリを使用し、更に「20」GBのディスクを1個使用していたことを示している。
このテーブルにおける第7レコードは、IDが「VSB−3」である仮想サーバが、「業務B」に供されることを示している。また、このレコードは、当該仮想サーバが、ある時点において、「1」GHzのCPUを1個使用し、「8」GBのメモリを使用し、更に「40」GBのディスクを1個使用していたことを示している。
次に、第3サイズ記憶部521に記憶される第1確保量テーブルについて説明する。図7に、第1確保量テーブルの例を示す。この例は、業務Aのシステムを想定している。業務Bのシステムに関しても、別に第1確保量テーブルが設けられる。
図7に示した第1確保量テーブルの例には、レベル毎にレコードが設けられている。各レコードは、当該レベルを設定するためのフィールドと、当該レベルにおいて業務システム全体のリソースの確保量を設定するためのフィールドを有している。業務システム全体のリソースの確保量を設定するためのフィールドは、業務システム全体のCPUの確保量(GHz×個数)を設定するためのフィールドと、業務システム全体のメモリの確保量(GB)を設定するためのフィールドと、業務システム全体のディスクの確保量(GB×個数)を設定するためのフィールドとを含んでいる。CPUの確保量(GHz×個数)は、確保されるCPUの周波数(GHz)と確保されるCPUの個数との積に相当する。ディスクの確保量(GB×個数)も、確保されるディスクの容量(GB)と確保されるディスクの個数との積に相当する。
このテーブルにおける第1レコードは、「レベル1」において、業務システム全体で「10」GHz×個数相当のCPUが確保され、「28」GBのメモリが確保され、更に「280」GB×個数相当のディスクが確保されるべきことを示している。
このテーブルにおける第2レコードは、「レベル2」において、業務システム全体で「6」GHz×個数相当のCPUが確保され、「20」GBのメモリが確保され、更に「110」GB×個数相当のディスクが確保されるべきことを示している。
このテーブルにおける第3レコードは、「レベル3」において、業務システム全体で「6」GHz×個数相当のCPUが確保され、「18」GBのメモリが確保され、更に「240」GB×個数相当のディスクが確保されるべきことを示している。
このテーブルにおける第4レコードは、「レベル4」において、業務システム全体で「4」GHz×個数相当のCPUが確保され、「12」GBのメモリが確保され、更に「90」GB×個数相当のディスクが確保されるべきことを示している。
このテーブルにおける第5レコードは、「レベル5」において、業務システム全体で「2」GHz×個数相当のCPUが確保され、「8」GBのメモリが確保され、更に「50」GB×個数相当のディスクが確保されるべきことを示している。
第3サイズ記憶部521には、上述した第1確保量テーブルの他に、レベル毎の第2確保量テーブルも記憶される。図8に、レベル1における第2確保量テーブルの例を示す。図9に、レベル2における第2確保量テーブルの例を示す。図10に、レベル3における第2確保量テーブルの例を示す。図11に、レベル4における第2確保量テーブルの例を示す。図12に、レベル5における第2確保量テーブルの例を示す。いずれも、業務Aのシステムを想定している。業務Bのシステムに関しても、レベル1乃至レベル5における第2確保量テーブルが設けられる。図8乃至図12に示した第2確保量テーブルの詳細については、設定処理の説明において併せて述べる。
次に、準備部133による準備処理について説明する。準備処理は、後述する制御処理に先立って行われる。準備処理は、制御処理の直前に実行するようにしてもよく、あるいは制御処理と別のタイミングで実行するようにしてもよい。図13に、準備処理フローを示す。第1取得部501は、管理サーバ107のモニタ部109から、運用サイト101のモニタリングデータを取得する(S1301)。モニタリングデータは、データ記憶部503に記憶される。モニタリングデータは、例えば所定のモニタリング期間において、所定間隔で測定されたリソースの使用量を含んでいる。リソースの使用量は、例えば運用サイト101の仮想サーバにおけるCPUの使用量、メモリの使用量及びディスクの使用量を含む。
また、第1取得部501は、管理サーバ107から、運用サイト101の仮想サーバにおけるリソースの割当量を取得する(S1303)。リソースの割当量は、例えばCPUの割当量、メモリの割当量及びディスクの割当量を含む。運用サイト101の仮想サーバにおけるリソースの割当量は、第1サイズ記憶部505に記憶される。
準備部133は、当該仮想システムで行われる業務のうち、未処理の業務を1つ特定する(S1305)。そして、第1特定部507は、当該業務について、特定処理を実行する(S1307)。特定処理は、モニタリング期間内におけるいずれかの時点におけるリソースの使用量を特定する。この例では、他の時点に比べてリソースの使用量が小さい時点を特定し、その時点におけるリソースの使用量を特定する。具体的には、特定処理(A)乃至特定処理(D)について順次説明する。第1特定部507は、特定処理(A)乃至特定処理(D)のうち、いずれの特定処理を実行してもよい。
まず、特定処理(A)について説明する。図14に、特定処理(A)フローを示す。第1特定部507は、モニタリング期間のうち、CPUの使用量が最も小さい時点を特定する(S1401)。そして、第1特定部507は、当該時点におけるCPUの使用量、メモリの使用量及びディスクの使用量を特定する(S1403)。
次に、特定処理(B)について説明する。図15に、特定処理(B)フローを示す。第1特定部507は、モニタリング期間のうち、メモリの使用量が最も小さい時点を特定する(S1501)。そして、第1特定部507は、当該時点におけるCPUの使用量、メモリの使用量及びディスクの使用量を特定する(S1503)。
次に、特定処理(C)について説明する。図16に、特定処理(C)フローを示す。第1特定部507は、モニタリング期間のうち、ディスクの使用量が最も小さい時点を特定する(S1601)。そして、第1特定部507は、当該時点におけるCPUの使用量、メモリの使用量及びディスクの使用量を特定する(S1603)。
更に、特定処理(D)について説明する。特定処理(D)では、CPUの使用量を優先して判断し、次にメモリの使用量を優先して判断する。図17に、特定処理(D)フローを示す。第1特定部507は、モニタリング期間のうち、CPUの使用量が最も小さい時点を特定する(S1701)。特定処理(D)では、CPUの使用量についての最小値が2つ以上の時点で観測されることも考慮する。
第1特定部507は、2つ以上の時点が特定されたか否かを判定する(S1703)。2つ以上の時点が特定されない場合、つまり最小値が1つの時点で観測されている場合には、第1特定部507は、当該時点におけるCPUの使用量、メモリの使用量及びディスクの使用量を特定する(S1711)。そして、特定されたCPUの使用量、メモリの使用量及びディスクの使用量は、第2サイズ記憶部509に記憶される。
S1701において2つ以上の時点が特定された場合には、第1特定部507は、それらの時点のうち、メモリの使用量が最も小さい時点を特定する(S1705)。特定処理(D)では、メモリの使用量についての最小値が2つ以上の時点で観測されることも考慮する。
第1特定部507は、2つ以上の時点が特定されたか否かを判定する(S1707)。2つ以上の時点が特定されない場合、つまり最小値が1つの時点で観測されている場合には、第1特定部507は、当該時点におけるCPUの使用量、メモリの使用量及びディスクの使用量を特定する(S1711)。そして、特定されたCPUの使用量、メモリの使用量及びディスクの使用量は、第2サイズ記憶部509に記憶される。
S1705において2つ以上の時点が特定された場合には、第1特定部507は、それらの時点のうち、ディスクの使用量が最も小さい時点を特定する(S1709)。ディスクの使用量についても最小値が2つ以上の時点で観測されている場合には、どちらの時点を特定してもよい。
第1特定部507は、当該時点におけるCPUの使用量、メモリの使用量及びディスクの使用量を特定する(S1711)。そして、特定されたCPUの使用量、メモリの使用量及びディスクの使用量は、第2サイズ記憶部509に記憶される。
上述した特定処理(A乃至D)では、最小相当の使用量を特定する例を示した。このようにすれば、実際の稼働状態のうち最も小規模のリソース量を特定できる。従って、小さいリソース量によっても、リハーサル処理において稼働状態に近い動作が確認できると期待される。但し、実際の稼働状態に近い動作を確認するためには、最小よりも大きい使用量を特定するようにしてもよい。
図13の説明に戻る。設定部511は、S1305で特定された業務について、設定処理を実行する(S1309)。設定部511は、各レベルに応じて、当該業務に関するリハーサルにおいて待機サイト111で確保すべきリソースの量を第1確保量テーブルに設定する。また、設定部511は、各レベルにおいて各仮想サーバのために確保すべきリソースの量を、第2確保量テーブルに設定する。
図18及び図19に、設定処理フローを示す。S1801及びS1803では、レベル1におけるリソースの確保量を設定する。レベル1におけるリソースの確保量の概要について、図8を用いて説明する。
図8に示した第2確保量テーブルの第1レコード乃至第4レコードは、「業務A」に供される仮想サーバ(ID:「VSA−1」乃至「VSA−4」)におけるリソースの確保量を示している。この確保量は、リソースの割当量と等しい。図8に示した第2確保量テーブルの第5レコードは、レベル1における業務システム全体のリソースの確保量を示している。レベル1における業務システム全体の確保量は、各仮想サーバにおける確保量の合計である。
例えば、この例における業務システム全体のCPUの確保量「10」は、ID「VSA−1」の仮想サーバに確保すべき「2」GHzのCPU「2」個相当の量と、ID「VSA−2」の仮想サーバに確保すべき「1」GHzのCPU1個相当の量と、ID「VSA−3」の仮想サーバに確保すべき「1」GHzのCPU1個相当の量と、ID「VSA−4」の仮想サーバに確保すべき「2」GHzのCPU「2」個相当の量との合計である。
例えば、この例における業務システム全体のメモリの確保量「28」は、ID「VSA−1」の仮想サーバに確保すべき「10」GBの量と、ID「VSA−2」の仮想サーバに確保すべき「4」GBの量と、ID「VSA−3」の仮想サーバに確保すべき「4」GBの量と、ID「VSA−4」の仮想サーバに確保すべき「10」GBの量との合計である。
例えば、この例における業務システム全体のディスクの確保量「280」は、ID「VSA−1」の仮想サーバに確保すべき「20」GBのディスク「2」個相当の量と、ID「VSA−2」の仮想サーバに確保すべき「50」GBのディスク1個相当の量と、ID「VSA−3」の仮想サーバに確保すべき「50」GBのディスク「3」個相当の量と、ID「VSA−4」の仮想サーバに確保すべき「20」GBのディスク「2」個相当の量との合計である。
図18の説明に戻る。設定部511は、当該業務に供される仮想サーバにおけるリソースの割当量を、第1サイズ記憶部505に記憶されている割当量テーブルから取得する(S1801)。設定部511は、仮想サーバにおけるリソースの割当量を、レベル1における第2確保量テーブルに設定する。また、設定部511は、仮想サーバにおける確保量の合計を、第1確保量テーブルに設定する(S1803)。
S1805及びS1807では、レベル2におけるリソースの確保量を設定する。レベル2におけるリソースの確保量の概要について、図9を用いて説明する。
図9に示した第2確保量テーブルの第1レコード乃至第4レコードは、「業務A」に供される仮想サーバ(ID:「VSA−1」乃至「VSA−4」)におけるリソースの確保量を示している。この確保量は、リソースの使用量と等しい。図9に示した第2確保量テーブルの第5レコードは、レベル2における業務システム全体のリソースの確保量を示している。レベル2における業務システム全体の確保量は、各仮想サーバにおける確保量の合計である。
例えば、この例における業務システム全体のCPUの確保量「6」は、ID「VSA−1」の仮想サーバに確保すべき「2」GHzのCPU1個相当の量と、ID「VSA−2」の仮想サーバに確保すべき「1」GHzのCPU1個相当の量と、ID「VSA−3」の仮想サーバに確保すべき「1」GHzのCPU1個相当の量と、ID「VSA−4」の仮想サーバに確保すべき「2」GHzのCPU1個相当の量との合計である。
例えば、この例における業務システム全体のメモリの確保量「20」は、ID「VSA−1」の仮想サーバに確保すべき「8」GBの量と、ID「VSA−2」の仮想サーバに確保すべき「2」GBの量と、ID「VSA−3」の仮想サーバに確保すべき「2」GBの量と、ID「VSA−4」の仮想サーバに確保すべき「8」GBの量との合計である。
例えば、この例における業務システム全体のディスクの確保量「110」は、ID「VSA−1」の仮想サーバに確保すべき「20」GBのディスク1個相当の量と、ID「VSA−2」の仮想サーバに確保すべき「20」GBのディスク1個相当の量と、ID「VSA−3」の仮想サーバに確保すべき「50」GBのディスク1個相当の量と、ID「VSA−4」の仮想サーバに確保すべき「20」GBのディスク1個相当の量との合計である。
図18の説明に戻る。設定部511は、当該業務に供される仮想サーバにおけるリソースの使用量を、第2サイズ記憶部509に記憶されている使用量テーブルから取得する(S1805)。設定部511は、仮想サーバにおけるリソースの使用量を、レベル2における第2確保量テーブルに設定する。また、設定部511は、仮想サーバにおける確保量の合計を、第1確保量テーブルに設定する(S1807)。
S1809及びS1811では、レベル3におけるリソースの確保量を設定する。レベル3におけるリソースの確保量の概要について、図10を用いて説明する。
図10に示した第2確保量テーブルの第1レコード乃至第3レコードは、「業務A」に供される仮想サーバのうち、ID「VSA−1」乃至「VSA−3」の仮想サーバにおけるリソースの確保量を示している。この確保量は、リソースの割当量と等しい。図10に示した第2確保量テーブルの第4レコードは、「業務A」に供される仮想サーバのうち、ID「VSA−4」の仮想サーバにおけるリソースの割当量は、加算の対象とならないことを示している。図10に示した第2確保量テーブルの第5レコードは、レベル3における業務システム全体のリソースの確保量を示している。レベル3における業務システム全体の確保量は、冗長化のために増設された仮想サーバを除く各仮想サーバにおける確保量の合計である。この例では、ID「VSA−1」の仮想サーバの冗長化のために増設されたID「VSA−4」の仮想サーバにおける割当量は、加算されない。冗長化された複数の仮想サーバのうち、割当量の加算のための仮想サーバを選択する方法は、この例に限定されない。他の方法によって、いずれか1つの仮想サーバを選択するようにしてもよい。
例えば、この例における業務システム全体のCPUの確保量「6」は、ID「VSA−1」の仮想サーバに確保すべき「2」GHzのCPU「2」個相当の量と、ID「VSA−2」の仮想サーバに確保すべき「1」GHzのCPU1個相当の量と、ID「VSA−3」の仮想サーバに確保すべき「1」GHzのCPU1個相当の量との合計である。
例えば、この例における業務システム全体のメモリの確保量「18」は、ID「VSA−1」の仮想サーバに確保すべき「10」GBの量と、ID「VSA−2」の仮想サーバに確保すべき「4」GBの量と、ID「VSA−3」の仮想サーバに確保すべき「4」GBの量との合計である。
例えば、この例における業務システム全体のディスクの確保量「240」は、ID「VSA−1」の仮想サーバに確保すべき「20」GBのディスク「2」個相当の量と、ID「VSA−2」の仮想サーバに確保すべき「50」GBのディスク1個相当の量と、ID「VSA−3」の仮想サーバに確保すべき「50」GBのディスク「3」個相当の量との合計である。
図18の説明に戻る。設定部511は、当該業務に供される仮想サーバ(増設された仮想サーバを除く)におけるリソースの割当量を、第1サイズ記憶部505に記憶されている割当量テーブルから取得する(S1809)。設定部511は、これらの割当量を、レベル3における第2確保量テーブルに設定する。また、設定部511は、仮想サーバにおける確保量の合計を、第1確保量テーブルに設定する(S1811)。そして、端子Aを介して、図19に示したS1901の処理に移る。
S1901及びS1903では、レベル4におけるリソースの確保量を設定する。レベル4におけるリソースの確保量の概要について、図11を用いて説明する。
図11に示した第2確保量テーブルの第1レコード乃至第3レコードは、「業務A」に供される仮想サーバのうち、ID「VSA−1」乃至「VSA−3」の仮想サーバにおけるリソースの確保量を示している。この確保量は、リソースの使用量と等しい。図11に示した第2確保量テーブルの第4レコードは、「業務A」に供される仮想サーバのうち、ID「VSA−4」の仮想サーバにおけるリソースの使用量は、加算の対象とならないことを示している。図11に示した第2確保量テーブルの第5レコードは、レベル4における業務システム全体のリソースの確保量を示している。レベル4における業務システム全体の確保量は、冗長化のために増設された仮想サーバを除く各仮想サーバにおける確保量の合計である。この例では、ID「VSA−1」の仮想サーバの冗長化のために増設されたID「VSA−4」の仮想サーバにおける使用量は、加算されない。
例えば、この例における業務システム全体のCPUの確保量「4」は、ID「VSA−1」の仮想サーバに確保すべき「2」GHzのCPU1個相当の量と、ID「VSA−2」の仮想サーバに確保すべき「1」GHzのCPU1個相当の量と、ID「VSA−3」の仮想サーバに確保すべき「1」GHzのCPU1個相当の量との合計である。
例えば、この例における業務システム全体のメモリの確保量「12」は、ID「VSA−1」の仮想サーバに確保すべき「8」GBの量と、ID「VSA−2」の仮想サーバに確保すべき「2」GBの量と、ID「VSA−3」の仮想サーバに確保すべき「2」GBの量との合計である。
例えば、この例における業務システム全体のディスクの確保量「90」は、ID「VSA−1」の仮想サーバに確保すべき「20」GBのディスク1個相当の量と、ID「VSA−2」の仮想サーバに確保すべき「20」GBのディスク1個相当の量と、ID「VSA−3」の仮想サーバに確保すべき「50」GBのディスク1個相当の量との合計である。
図19の説明に戻る。設定部511は、当該業務に供される仮想サーバ(増設された仮想サーバを除く)におけるリソースの使用量を、第2サイズ記憶部509に記憶されている使用量テーブルから取得する(S1901)。設定部511は、これらの使用量を、レベル4における第2確保量テーブルに設定する。また、設定部511は、仮想サーバにおける確保量の合計を、第1確保量テーブルに設定する(S1903)。
S1905及びS1907では、レベル5におけるリソースの確保量を設定する。レベル5におけるリソースの確保量の概要について、図12を用いて説明する。
図12に示した第2確保量テーブルの第1レコード乃至第4レコードは、「業務A」に供される仮想サーバ(ID:「VSA−1」乃至「VSA−4」)におけるリソースの確保量を示している。この確保量は、リソースの使用量と等しい。図12に示した第2確保量テーブルの第5レコードは、レベル5における業務システム全体のリソースの確保量を示している。レベル5における業務システム全体の確保量は、各仮想サーバにおける確保量のうちの最大値である。
例えば、この例における業務システム全体のCPUの確保量「2」は、ID「VSA−1」の仮想サーバが使用した「2」GHzのCPU1個相当の量と、ID「VSA−2」の仮想サーバが使用した「1」GHzのCPU1個相当の量と、ID「VSA−3」の仮想サーバが使用した「1」GHzのCPU1個相当の量と、ID「VSA−4」の仮想サーバが使用した「2」GHzのCPU1個相当の量とのうちの最大値である。
例えば、この例における業務システム全体のメモリの確保量「8」は、ID「VSA−1」の仮想サーバが使用した「8」GBの量と、ID「VSA−2」の仮想サーバが使用した「2」GBの量と、ID「VSA−3」の仮想サーバが使用した「2」GBの量と、ID「VSA−4」の仮想サーバが使用した「8」GBの量とのうちの最大値である。
例えば、この例における業務システム全体のディスクの確保量「50」は、ID「VSA−1」の仮想サーバが使用した「20」GBのディスク1個相当の量と、ID「VSA−2」の仮想サーバが使用した「20」GBのディスク1個相当の量と、ID「VSA−3」の仮想サーバが使用した「50」GBのディスク1個相当の量と、ID「VSA−4」の仮想サーバが使用した「20」GBのディスク1個相当の量とのうちの最大値である。
図19の説明に戻る。設定部511は、当該業務に供される仮想サーバのリソースにおける使用量のうち、最大値を判定する(S1905)。設定部511は、仮想サーバのリソースにおける使用量を、レベル5における第2確保量テーブルに設定する。設定部511は、判定された最大値を第1確保量テーブルに設定する(S1907)。
図13の説明に戻る。送信部513は、第3サイズ記憶部521に記憶されている第1確保量テーブルと第2確保量テーブルとをリハーサル部121へ送信する(S1310)。尚、リハーサル部121は、受信した第1確保量テーブルと第2確保量テーブルと保持する。
準備部133は、未処理の業務があるか否かを判定する(S1311)。S1307及びS1309に関して未処理の業務があると判定した場合には、準備部133は、S1305に示した処理に戻って、上述した処理を繰り返す。
一方、S1307及びS1309に関して未処理の業務がないと判定した場合には、準備部133は、準備処理を終える。
続いて、制御処理について説明する。制御処理では、待機サイト111におけるリソースの空き量が、あるレベルにおけるリソースの確保量以上であると判定した場合に、当該レベルによるリハーサルを起動させる。
図20に、想定されるリソースの空き量が、リソースの確保量以上であると判定されるか否かについて例示する。この図は、想定される状況と当該状況における各レベルの判定結果をテーブル形式で示している。
このテーブルにおける第1レコードは、「15」GHz×個数相当のCPUが空き、「30」GBのメモリが空き、更に「300」GB×個数相当のディスクが空いている「状況A」では、レベル1乃至レベル5のいずれについてもリソースの空き量が確保量「以上」であるという判定結果が得られることを示している。
このテーブルにおける第2レコードは、「10」GHz×個数相当のCPUが空き、「25」GBのメモリが空き、更に「250」GB×個数相当のディスクが空いている「状況B」では、レベル1についてリソースの空き量が確保量「未満」であるという判定結果が得られ、レベル2乃至レベル5についてリソースの空き量が確保量「以上」であるという判定結果が得られることを示している。
このテーブルにおける第3レコードは、「10」GHz×個数相当のCPUが空き、「19」GBのメモリが空き、更に「250」GB×個数相当のディスクが空いている「状況C」では、レベル1及びレベル2についてリソースの空き量が確保量「未満」であるという判定結果が得られ、レベル3乃至レベル5についてリソースの空き量が確保量「以上」であるという判定結果が得られることを示している。
このテーブルにおける第4レコードは、「5」GHz×個数相当のCPUが空き、「15」GBのメモリが空き、更に「100」GB×個数相当のディスクが空いている「状況D」では、レベル1乃至レベル3についてリソースの空き量が確保量「未満」であるという判定結果が得られ、レベル4及びレベル5についてリソースの空き量が確保量「以上」であるという判定結果が得られることを示している。
このテーブルにおける第5レコードは、「2」GHz×個数相当のCPUが空き、「10」GBのメモリが空き、更に「50」GB×個数相当のディスクが空いている「状況E」では、レベル1乃至レベル4についてリソースの空き量が確保量「未満」であるという判定結果が得られ、レベル5についてリソースの空き量が確保量「以上」であるという判定結果が得られることを示している。
次に、制御処理フローについて説明する。制御処理によって、後述するリハーサル処理が起動される。図21に、制御処理フローを示す。ここでは、業務単位でリハーサルを制御する例について説明する。
本実施の形態では、リハーサルの起動に至る2つの方式を採用している。第1方式では、即時リハーサルを実施するようにする。この方式では、制御部135においてレベルを自動的に選定する。第2方式では、指定されたレベルでリハーサルを実施するようにする。この方式では、指定されたレベルにおけるリソースが確保できるタイミングに至った場合に、リハーサルを実施するようにする。
まず、受付部531は、リハーサルの条件を受け付ける(S2101)。リハーサルの条件には、業務の指定が含まれる。更に、リハーサルの条件には、上述した第1方式あるいは第2方式のいずれかの選択が含まれる。また、第2方式が選択された場合には、レベルの指定もリハーサルの条件に含まれる。つまり、受付部531は、業務の指定を受け付け、第1方式あるいは第2方式のいずれかの選択も受け付け、更に第2方式が選択された場合には、レベルの指定も受け付ける。
受付部531は、第1方式が選択されたか否かを判定する(S2103)。第1方式が選択されたと判定した場合には、第2取得部533は、管理サーバ117のモニタ部119から、待機サイト111におけるリソースの空き量を取得する(S2105)。この例におけるリソースの空き量には、CPUの空き量、メモリの空き量及びディスクの空き量が含まれている。取得したリソースの空き量は、第4サイズ記憶部535に記憶される。
第2特定部537は、上述したリソースの空き量が、当該業務の各レベルにおけるリソースの確保量以上であるか否かを判定し(S2107)、最も上位のレベルを特定する(S2109)。そして、起動部541は、特定されたレベルのリハーサル処理を起動する(S2111)。このとき、起動部541は、リハーサルの条件で指定された業務とリハーサル処理におけるレベルとを管理サーバ117のリハーサル部121に通知し、動作を開始させる。そして、制御部135は、制御処理を終える。
S2103において、第1方式が選択されなかったと判定した場合、つまり第2方式が選択された場合には、第2取得部533は、S2105の場合と同様に、管理サーバ117のモニタ部119から、待機サイト111におけるリソースの空き量を取得する(S2113)。
判定部539は、上述したリソースの空き量が、リハーサルの条件で指定されたレベルにおけるリソースの確保量以上であるか否かを判定する(S2115)。
上述したリソースの空き量が、リハーサルの条件で指定されたレベルにおけるリソースの確保量以上であると判定した場合には、起動部541は、指定されたレベルのリハーサル処理を起動する(S2117)。このとき、起動部541は、リハーサルの条件で指定された業務と、リハーサル処理におけるレベルとを管理サーバ117のリハーサル部121に通知し、動作を開始させる。そして、制御部135は、制御処理を終える。
一方、上述したリソースの空き量が、リハーサルの条件で指定されたレベルにおけるリソースの確保量未満であると判定した場合には、判定部539は、所定時間の経過を待つ(S2119)。そして、S2113の処理に戻って、制御部135は上述した処理を繰り返す。
最後に、管理サーバ117のリハーサル部121におけるリハーサル処理について説明する。図22及び図23に、リハーサル処理フローを示す。リハーサル部121は、上述したように、管理装置131からリハーサル対象の業務とリハーサル処理におけるレベルとを取得する(S2201)。リハーサル部121は、第1確保量テーブルに基づいて、当該レベルにおけるリソースの確保量を特定し、特定された確保量に相当するリソースを確保する(S2203)。リハーサル部121は、リハーサル処理におけるレベルがレベル1乃至レベル4のいずれかであるか否かを判定する(S2205)。
リハーサル処理におけるレベルがレベル1乃至レベル4のいずれかであると判定した場合には、リハーサル部121は、図4に示した構成情報411、システムイメージ413及びユーザデータ415を用いて、各仮想サーバを配備する(S2207)。
このとき、リハーサル部121は、当該業務と当該レベルとによって特定される第2確保量テーブルに基づいて、各仮想サーバの確保量を特定し、特定された確保量のリソースを各仮想サーバに割り当てるようにする。更に、リハーサル部121は、仮想ネットワークの設定も行う。
そして、リハーサル部121は、配備された各仮想サーバを起動する(S2209)。リハーサル部121は、リハーサル対象の業務についての動作確認を行う(S2211)。このとき、リハーサル部121は、レベルに応じた動作確認を行うようにしてもよい。
リハーサル処理におけるレベルがレベル1である場合には、例えば各仮想サーバに対して比較的高い処理負荷が掛かる動作確認(例えば、限界値に関するテスト)を行うようにしてもよい。同じく、仮想サーバ間の通信を伴う動作確認を行うようにしてもよい。同じく、冗長化に関する動作確認も行うようにしてもよい。
リハーサル処理におけるレベルがレベル2である場合には、例えば各仮想サーバに対して比較的低い処理負荷しか掛からない動作確認(例えば、初期値を設定するテスト)を行うようにしてもよい。同じく、仮想サーバ間の通信を伴う動作確認を行うようにしてもよい。同じく、冗長化に関する動作確認も行うようにしてもよい。
リハーサル処理におけるレベルがレベル3である場合には、例えば各仮想サーバに対して比較的高い処理負荷が掛かる動作確認(例えば、限界値に関するテスト)を行うようにしてもよい。同じく、仮想サーバ間の通信を伴う動作確認を行うようにしてもよい。但し、冗長化に関する動作確認の結果は失敗となるので、冗長化に関する動作確認は省くようにしてもよい。
リハーサル処理におけるレベルがレベル4である場合には、例えば各仮想サーバに対して比較的低い処理負荷しか掛からない動作確認(例えば、初期値を設定するテスト)を行うようにしてもよい。同じく、仮想サーバ間の通信を伴う動作確認を行うようにしてもよい。但し、冗長化に関する動作確認の結果は失敗となるので、冗長化に関する動作確認は省くようにしてもよい。
業務の動作確認を終えると、リハーサル部121は、各仮想サーバを停止させ(S2213)、停止させた各仮想サーバを削除する(S2215)。最後に、リハーサル部121は、S2203で確保したリソースを解放して(S2217)、リハーサル処理を終える。
S2205において、リハーサル処理におけるレベルがレベル1乃至レベル4のいずれでもないと判定した場合、つまりリハーサル処理におけるレベルがレベル5である場合には、端子Bを介して図23に示したS2301の処理に移る。
リハーサル処理におけるレベルがレベル5である場合には、リハーサル対象の業務に供される仮想サーバを1つずつ確認する。リハーサル部121は、リハーサル対象の業務に供される仮想サーバを1つ特定する(S2301)。
リハーサル部121は、図4に示した構成情報411、システムイメージ413及びユーザデータ415を用いて、当該仮想サーバを配備する(S2302)。このとき、リハーサル部121は、レベル5における第2確保量テーブルに基づいて、当該仮想サーバの確保量を特定し、特定された確保量のリソースを当該仮想サーバに割り当てるようにする。リハーサル部121は、配備された仮想サーバを起動させ、起動の結果を確認する(S2303)。このとき、リハーサル部121は、当該仮想サーバに関する単体テストを行い、単体としての動作確認を行うようにしてもよい。
リハーサル部121は、当該仮想サーバを停止させ(S2305)、停止させた仮想サーバを削除する(S2307)。リハーサル部121は、S2301において特定されていない仮想サーバがあるか否かを判定する(S2309)。S2301において特定されていない仮想サーバがあると判定した場合には、S2301に戻って、リハーサル部121は上述した処理を繰り返す。
一方、S2301において未特定の仮想サーバがないと判定した場合には、最後に、リハーサル部121は、S2203で確保したリソースを解放して(S2311)、リハーサル処理を終える。
本実施の形態によれば、待機サイトにおけるリソースの空き状況に応じたリハーサル処理を起動するので、適宜実施可能なレベルによる復旧動作の確認を選択的に行える。
また、運用サイトにおいて実際に使用されたリソースと同規模のリソースを確保するレベル2を設けることができる。
また、運用サイトにおいて冗長化を省いた構成で使用されると想定されるリソースと同規模のリソースを確保するレベル4を設けることができる。
また、最小の使用量を特定するので、レベル2及びレベル4に設定される閾値が小さくなり、これらのレベルに適合するケースが増える。
また、運用において冗長化を省いた構成で割り当てられると想定されるリソースと同規模のリソースを確保するレベル3を設けることができる。
また、仮想マシン単位で、実際に使用されたリソースと同規模のリソースを確保可能なレベル5を設けることができる。
以上本発明の一実施の形態を説明したが、本発明はこれに限定されるものではない。例えば、上述の機能ブロック構成はプログラムモジュール構成に一致しない場合もある。
また、上で説明した各記憶領域の構成は一例であって、上記のような構成でなければならないわけではない。さらに、処理フローにおいても、処理結果が変わらなければ処理の順番を入れ替えることも可能である。さらに、並列に実行させるようにしても良い。
なお、上で述べた管理サーバ107、管理サーバ117及び管理装置131は、コンピュータ装置であって、図24に示すように、メモリ2501とCPU(Central Processing Unit)2503とハードディスク・ドライブ(HDD:Hard Disk Drive)2505と表示装置2509に接続される表示制御部2507とリムーバブル・ディスク2511用のドライブ装置2513と入力装置2515とネットワークに接続するための通信制御部2517とがバス2519で接続されている。オペレーティング・システム(OS:Operating System)及び本実施例における処理を実施するためのアプリケーション・プログラムは、HDD2505に格納されており、CPU2503により実行される際にはHDD2505からメモリ2501に読み出される。CPU2503は、アプリケーション・プログラムの処理内容に応じて表示制御部2507、通信制御部2517、ドライブ装置2513を制御して、所定の動作を行わせる。また、処理途中のデータについては、主としてメモリ2501に格納されるが、HDD2505に格納されるようにしてもよい。本発明の実施例では、上で述べた処理を実施するためのアプリケーション・プログラムはコンピュータ読み取り可能なリムーバブル・ディスク2511に格納されて頒布され、ドライブ装置2513からHDD2505にインストールされる。インターネットなどのネットワーク及び通信制御部2517を経由して、HDD2505にインストールされる場合もある。このようなコンピュータ装置は、上で述べたCPU2503、メモリ2501などのハードウエアとOS及びアプリケーション・プログラムなどのプログラムとが有機的に協働することにより、上で述べたような各種機能を実現する。
以上述べた本発明の実施の形態をまとめると、以下のようになる。
本実施の形態に係る管理装置は、第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する第1取得部と、 上記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、空き状況が適合するレベルを特定する特定部と、適合するレベルに応じたリハーサル処理を起動させる起動部とを有する。
このようにすれば、第2サイトにおけるリソースの空き状況に応じたリハーサル処理を起動するので、適宜実施可能なレベルによる復旧動作の確認を選択的に行える。
また、上記管理装置は、更に、第1サイトでモニタされた、上記システムにおけるリソースの使用量を取得する第2取得部を有するようにしてもよい。上記管理装置は、更に、上記使用量によって、上記規模についての閾値を設定する設定部を有するようにしてもよい。
このようにすれば、第1サイトにおいて実際に使用されたリソースと同規模のリソースを確保するレベルを設けることができる。
また、上記管理装置は、更に、第1サイトでモニタされた、上記システムにおけるリソースの使用量を取得する第2取得部を有するようにしてもよい。上記管理装置は、更に、上記使用量から上記システムにおける冗長化のための使用量を差し引き、残余の使用量によって、上記規模についての閾値を設定する設定部を有するようにしてもよい。
このようにすれば、第1サイトにおいて冗長化を省いた構成で使用されると想定されるリソースと同規模のリソースを確保するレベルを設けることができる。
上記設定部は、複数の時点におけるリソースの使用量を比較し、少ない方の使用量を用いるようにしてもよい。
このようにすれば、設定される閾値が小さくなるので、適合しやすいレベルを設けることができる。
また、上記管理装置は、更に、第1サイトから、上記システムに対するリソースの割当量を取得する第2取得部を有するようにしてもよい。上記管理装置は、更に、上記割当量から上記システムにおける冗長化のための割当量を差し引き、残余の割当量によって、上記規模についての閾値を設定する設定部を有するようにしてもよい。
このようにすれば、第1サイトにおいて冗長化を省いた構成で割り当てられると想定されるリソースと同規模のリソースを確保するレベルを設けることができる。
また、上記管理装置は、更に、第1サイトでモニタされた、上記システムに含まれる複数の仮想マシンの各々におけるリソースの使用量を取得する第2取得部を有するようにしてもよい。上記管理装置は、更に、仮想マシンの各々における上記使用量を比較して、最も大きい使用量によって、上記規模についての閾値を設定する設定部を有するようにしてもよい。
このようにすれば、仮想マシン単位で、実際に使用されたリソースと同規模のリソースを確保可能なレベルを設けることができる。
本実施の形態に係る情報処理システムは、第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する取得部と、上記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、空き状況が適合するレベルを特定する特定部と、適合するレベルに応じたリハーサル処理を起動させる起動部と、適合するレベルに応じたリハーサル処理を実行するリハーサル部とを有する。
このようにすれば、第2サイトにおけるリソースの空き状況に応じたリハーサル処理を起動するので、適宜実施可能なレベルによる復旧動作の確認を選択的に行える。
なお、上で述べた管理装置及び情報処理システムの処理をコンピュータに行わせるためのプログラムを作成することができ、当該プログラムは、例えばフレキシブルディスク、CD−ROM、光磁気ディスク、半導体メモリ、ハードディスク等のコンピュータ読み取り可能な記憶媒体又は記憶装置に格納されるようにしてもよい。尚、中間的な処理結果は、一般的にメインメモリ等の記憶装置に一時保管される。
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)
第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する第1取得部と、
前記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、前記空き状況が適合するレベルを特定する特定部と、
前記適合するレベルに応じた前記リハーサル処理を起動させる起動部と
を有する管理装置。
(付記2)
更に、
前記第1サイトでモニタされた、前記システムにおけるリソースの使用量を取得する第2取得部と、
前記使用量によって、前記規模についての閾値を設定する設定部と
を有する付記1記載の管理装置。
(付記3)
更に、
前記第1サイトでモニタされた、前記システムにおけるリソースの使用量を取得する第2取得部と、
前記使用量から前記システムにおける冗長化のための使用量を差し引き、残余の使用量によって、前記規模についての閾値を設定する設定部と
を有する付記1記載の管理装置。
(付記4)
前記設定部は、複数の時点におけるリソースの使用量を比較し、少ない方の使用量を用いる
付記2又は3記載の管理装置。
(付記5)
更に、
前記第1サイトから、前記システムに対するリソースの割当量を取得する第2取得部と、
前記割当量から前記システムにおける冗長化のための割当量を差し引き、残余の割当量によって、前記規模についての閾値を設定する設定部と
を有する付記1記載の管理装置。
(付記6)
更に、
前記第1サイトでモニタされた、前記システムに含まれる複数の仮想マシンの各々におけるリソースの使用量を取得する第2取得部と、
前記仮想マシンの各々における前記使用量を比較して、最も大きい使用量によって、前記規模についての閾値を設定する設定部と
を有する付記1記載の管理装置。
(付記7)
第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する処理と、
前記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、前記空き状況が適合するレベルを特定する処理と、
前記適合するレベルに応じた前記リハーサル処理を起動させる処理と
をコンピュータに実行させるための管理プログラム。
(付記8)
第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する取得部と、
前記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、前記空き状況が適合するレベルを特定する特定部と、
前記適合するレベルに応じた前記リハーサル処理を起動させる起動部と、
前記適合するレベルに応じた前記リハーサル処理を実行するリハーサル部と
を有する情報処理システム。
101 運用サイト 103 物理サーバ
105 ストレージ装置 107 管理サーバ
109 モニタ部 111 待機サイト
113 物理サーバ 115 ストレージ装置
117 管理サーバ 119 モニタ部
121 リハーサル部 131 管理装置
133 準備部 135 制御部
401 構成情報 403 システムイメージ
405 ユーザデータ 411 構成情報
413 システムイメージ 415 ユーザデータ
501 第1取得部 503 データ記憶部
505 第1サイズ記憶部 507 第1特定部
509 第2サイズ記憶部 511 設定部
513 送信部 521 第3サイズ記憶部
531 受付部 533 第2取得部
535 第4サイズ記憶部 537 第2特定部
539 判定部 541 起動部

Claims (12)

  1. 第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する第1取得部と、
    前記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、前記空き状況が適合するレベルを特定する特定部と、
    前記適合するレベルに応じた前記リハーサル処理を起動させる起動部と
    を有する管理装置であって、
    更に、
    前記第1サイトでモニタされた、前記システムにおけるリソースの使用量を取得する第2取得部と、
    前記使用量から前記システムにおける冗長化のための使用量を差し引き、残余の使用量によって、前記複数のレベルのうちの1のレベルにおいて確保すべき前記リソースの規模を設定する設定部と
    を有する管理装置
  2. 第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する第1取得部と、
    前記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、前記空き状況が適合するレベルを特定する特定部と、
    前記適合するレベルに応じた前記リハーサル処理を起動させる起動部と
    を有する管理装置であって、
    更に、
    前記第1サイトでモニタされた、前記システムにおけるリソースの使用量を取得する第2取得部と、
    複数の時点におけるリソースの使用量を比較し、少ない方の使用量によって、前記複数のレベルのうちの1のレベルにおいて確保すべき前記リソースの規模を設定する設定部と
    を有する管理装置
  3. 第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する第1取得部と、
    前記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、前記空き状況が適合するレベルを特定する特定部と、
    前記適合するレベルに応じた前記リハーサル処理を起動させる起動部と
    を有する管理装置であって、
    更に、
    前記第1サイトから、前記システムに対するリソースの割当量を取得する第2取得部と、
    前記割当量から前記システムにおける冗長化のための割当量を差し引き、残余の割当量によって、前記複数のレベルのうちの1のレベルにおいて確保すべき前記リソースの規模を設定する設定部と
    を有する管理装置
  4. 第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する第1取得部と、
    前記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、前記空き状況が適合するレベルを特定する特定部と、
    前記適合するレベルに応じた前記リハーサル処理を起動させる起動部と
    を有する管理装置であって、
    更に、
    前記第1サイトでモニタされた、前記システムに含まれる複数の仮想マシンの各々におけるリソースの使用量を取得する第2取得部と、
    前記仮想マシンの各々における前記使用量を比較して、最も大きい使用量によって、前記複数のレベルのうちの1のレベルにおいて確保すべき前記リソースの規模を設定する設定部と
    を有する管理装置
  5. 第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する処理と、
    前記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、前記空き状況が適合するレベルを特定する処理と、
    前記適合するレベルに応じた前記リハーサル処理を起動させる処理と
    をコンピュータに実行させるための管理プログラムであって、
    更に、
    前記第1サイトでモニタされた、前記システムにおけるリソースの使用量を取得する処理と、
    前記使用量から前記システムにおける冗長化のための使用量を差し引き、残余の使用量によって、前記複数のレベルのうちの1のレベルにおいて確保すべき前記リソースの規模を設定する処理と
    を前記コンピュータに実行させる管理プログラム
  6. 第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する処理と、
    前記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、前記空き状況が適合するレベルを特定する処理と、
    前記適合するレベルに応じた前記リハーサル処理を起動させる処理と
    をコンピュータに実行させるための管理プログラムであって、
    更に、
    前記第1サイトでモニタされた、前記システムにおけるリソースの使用量を取得する処理と、
    複数の時点におけるリソースの使用量を比較し、少ない方の使用量によって、前記複数のレベルのうちの1のレベルにおいて確保すべき前記リソースの規模を設定する処理と
    を前記コンピュータに実行させる管理プログラム
  7. 第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する処理と、
    前記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、前記空き状況が適合するレベルを特定する処理と、
    前記適合するレベルに応じた前記リハーサル処理を起動させる処理と
    をコンピュータに実行させるための管理プログラムであって、
    更に、
    前記第1サイトから、前記システムに対するリソースの割当量を取得する処理と、
    前記割当量から前記システムにおける冗長化のための割当量を差し引き、残余の割当量によって、前記複数のレベルのうちの1のレベルにおいて確保すべき前記リソースの規模を設定する処理と
    を前記コンピュータに実行させる管理プログラム
  8. 第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する処理と、
    前記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、前記空き状況が適合するレベルを特定する処理と、
    前記適合するレベルに応じた前記リハーサル処理を起動させる処理と
    をコンピュータに実行させるための管理プログラムであって、
    更に、
    前記第1サイトでモニタされた、前記システムに含まれる複数の仮想マシンの各々におけるリソースの使用量を取得する処理と、
    前記仮想マシンの各々における前記使用量を比較して、最も大きい使用量によって、前記複数のレベルのうちの1のレベルにおいて確保すべき前記リソースの規模を設定する処理と
    を前記コンピュータに実行させる管理プログラム
  9. 第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する第1取得部と、
    前記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、前記空き状況が適合するレベルを特定する特定部と、
    前記適合するレベルに応じた前記リハーサル処理を起動させる起動部と、
    前記適合するレベルに応じた前記リハーサル処理を実行するリハーサル部と
    を有する情報処理システムであって、
    更に、
    前記第1サイトでモニタされた、前記システムにおけるリソースの使用量を取得する第2取得部と、
    前記使用量から前記システムにおける冗長化のための使用量を差し引き、残余の使用量によって、前記複数のレベルのうちの1のレベルにおいて確保すべき前記リソースの規模を設定する設定部と
    を有する情報処理システム
  10. 第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する第1取得部と、
    前記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、前記空き状況が適合するレベルを特定する特定部と、
    前記適合するレベルに応じた前記リハーサル処理を起動させる起動部と、
    前記適合するレベルに応じた前記リハーサル処理を実行するリハーサル部と
    を有する情報処理システムであって、
    更に、
    前記第1サイトでモニタされた、前記システムにおけるリソースの使用量を取得する第2取得部と、
    複数の時点におけるリソースの使用量を比較し、少ない方の使用量によって、前記複数のレベルのうちの1のレベルにおいて確保すべき前記リソースの規模を設定する設定部と
    を有する情報処理システム
  11. 第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する第1取得部と、
    前記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、前記空き状況が適合するレベルを特定する特定部と、
    前記適合するレベルに応じた前記リハーサル処理を起動させる起動部と、
    前記適合するレベルに応じた前記リハーサル処理を実行するリハーサル部と
    を有する情報処理システムであって、
    更に、
    前記第1サイトから、前記システムに対するリソースの割当量を取得する第2取得部と、
    前記割当量から前記システムにおける冗長化のための割当量を差し引き、残余の割当量によって、前記複数のレベルのうちの1のレベルにおいて確保すべき前記リソースの規模を設定する設定部と
    を有する情報処理システム
  12. 第1サイトで稼動しているシステムの復旧に用いられるデータを保持している第2サイトにおけるリソースの空き状況を取得する第1取得部と、
    前記システムの復旧のリハーサル処理で確保すべきリソースの規模を定めた複数のレベルのうち、前記空き状況が適合するレベルを特定する特定部と、
    前記適合するレベルに応じた前記リハーサル処理を起動させる起動部と、
    前記適合するレベルに応じた前記リハーサル処理を実行するリハーサル部と
    を有する情報処理システムであって、
    更に、
    前記第1サイトでモニタされた、前記システムに含まれる複数の仮想マシンの各々におけるリソースの使用量を取得する第2取得部と、
    前記仮想マシンの各々における前記使用量を比較して、最も大きい使用量によって、前記複数のレベルのうちの1のレベルにおいて確保すべき前記リソースの規模を設定する設定部と
    を有する情報処理システム
JP2014053665A 2014-03-17 2014-03-17 管理装置、管理プログラム及び情報処理システム Expired - Fee Related JP6260375B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014053665A JP6260375B2 (ja) 2014-03-17 2014-03-17 管理装置、管理プログラム及び情報処理システム
US14/576,461 US20150263988A1 (en) 2014-03-17 2014-12-19 Management device and information processing system
EP14199634.8A EP2921956A1 (en) 2014-03-17 2014-12-22 Information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014053665A JP6260375B2 (ja) 2014-03-17 2014-03-17 管理装置、管理プログラム及び情報処理システム

Publications (2)

Publication Number Publication Date
JP2015176459A JP2015176459A (ja) 2015-10-05
JP6260375B2 true JP6260375B2 (ja) 2018-01-17

Family

ID=52272893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014053665A Expired - Fee Related JP6260375B2 (ja) 2014-03-17 2014-03-17 管理装置、管理プログラム及び情報処理システム

Country Status (3)

Country Link
US (1) US20150263988A1 (ja)
EP (1) EP2921956A1 (ja)
JP (1) JP6260375B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6377197B1 (ja) * 2017-03-03 2018-08-22 三菱電機インフォメーションシステムズ株式会社 スレッド数変動通信装置及びスレッド数変動通信プログラム
FR3134407A1 (fr) 2022-04-06 2023-10-13 Pommier Poignée pour porte de camion

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000347997A (ja) 1999-06-03 2000-12-15 Mitsubishi Electric Corp 分散構成計算機装置
US7287086B2 (en) * 2003-07-09 2007-10-23 Internatinonal Business Machines Corporation Methods, systems and computer program products for controlling data transfer for data replication or backup based on system and/or network resource information
JP4207938B2 (ja) 2005-02-01 2009-01-14 セイコーエプソン株式会社 ソフトウェア認証システム、ソフトウェア認証プログラム、およびソフトウェア認証方法
US7669020B1 (en) * 2005-05-02 2010-02-23 Symantec Operating Corporation Host-based backup for virtual machines
CA2620131A1 (en) * 2005-08-23 2007-03-01 Mimosa Systems, Inc. Enterprise server version migration through identity preservation
JP2010198060A (ja) 2009-02-23 2010-09-09 Nec Corp サーバシステム及びサーバシステムの制御方法
US9424094B2 (en) * 2009-06-01 2016-08-23 International Business Machines Corporation Server consolidation using virtual machine resource tradeoffs
JP2011128967A (ja) * 2009-12-18 2011-06-30 Hitachi Ltd 仮想計算機の移動方法、仮想計算機システム及びプログラム
US8397039B2 (en) * 2010-02-12 2013-03-12 Symantec Corporation Storage systems and methods
US9032414B1 (en) * 2011-12-08 2015-05-12 Symantec Corporation Systems and methods for managing system resources allocated for backup validation
US9602426B2 (en) * 2013-06-21 2017-03-21 Microsoft Technology Licensing, Llc Dynamic allocation of resources while considering resource reservations

Also Published As

Publication number Publication date
EP2921956A1 (en) 2015-09-23
US20150263988A1 (en) 2015-09-17
JP2015176459A (ja) 2015-10-05

Similar Documents

Publication Publication Date Title
US11782794B2 (en) Methods and apparatus for providing hypervisor level data services for server virtualization
US11669409B2 (en) Application migration between environments
US10651926B2 (en) State transfer among satellite platforms
CN111488241B (zh) 在容器编排平台实现无代理备份与恢复操作的方法和系统
US11663085B2 (en) Application backup and management
US9977704B1 (en) Automated backup and replication of virtual machine data centers
CN106445741B (zh) 一种基于ceph实现oracle数据库容灾备份方法
Wang et al. Efficient task replication for fast response times in parallel computation
WO2020072338A1 (en) Data backup and disaster recovery between environments
ES2568258T3 (es) Sistema y procedimiento para proporcionar almacenamiento y recuperación flexibles de archivos de capturas
US9026858B2 (en) Testing server, information processing system, and testing method
US20170201465A1 (en) Provisioning of resources
JP2010503074A5 (ja)
US20150234713A1 (en) Information processing apparatus and virtual machine migration method
CN102713856A (zh) 具有选择性按需数据可用性的多阶段文件系统恢复
JP2012043071A (ja) 調整システム、調整装置、調整方法、及びそのプログラム
JP6260375B2 (ja) 管理装置、管理プログラム及び情報処理システム
WO2014080492A1 (ja) 計算機システム、クラスタ管理方法、及び管理計算機
JP2013041515A (ja) 仮想データセンタシステム
US20130263128A1 (en) Computer-readable recording medium, migration control method and control device
CN104636082B (zh) 磁盘阵列raid的控制方法及装置
JP2020067722A (ja) 並列処理装置、並列演算実行プログラムおよびバックアップ方法
JP2007334836A (ja) 情報処理装置、データ保持装置及びそれらの制御方法、コンピュータプログラム並びに記憶媒体
CN110554933A (zh) 一种云管理平台、云平台服务的跨云高可用方法及系统
CN105550018A (zh) 一种在云计算系统创建虚拟机的方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171127

R150 Certificate of patent or registration of utility model

Ref document number: 6260375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees