JP5384467B2 - 再目的化可能回復環境 - Google Patents

再目的化可能回復環境 Download PDF

Info

Publication number
JP5384467B2
JP5384467B2 JP2010254299A JP2010254299A JP5384467B2 JP 5384467 B2 JP5384467 B2 JP 5384467B2 JP 2010254299 A JP2010254299 A JP 2010254299A JP 2010254299 A JP2010254299 A JP 2010254299A JP 5384467 B2 JP5384467 B2 JP 5384467B2
Authority
JP
Japan
Prior art keywords
environment
production
recovery
repurposeable
recovery environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010254299A
Other languages
English (en)
Other versions
JP2011216072A (ja
Inventor
コリアー,ライアン
ロレンツォッティ,サンドロ
パテル,ガウラン
コーン,ジェイ
Original Assignee
アクセンチュア グローバル サービスィズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクセンチュア グローバル サービスィズ リミテッド filed Critical アクセンチュア グローバル サービスィズ リミテッド
Publication of JP2011216072A publication Critical patent/JP2011216072A/ja
Application granted granted Critical
Publication of JP5384467B2 publication Critical patent/JP5384467B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2035Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant without idle spare hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2097Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements maintaining the standby controller/processing unit updated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1479Generic software techniques for error detection or fault masking
    • G06F11/1482Generic software techniques for error detection or fault masking by means of middleware or OS functionality
    • G06F11/1484Generic software techniques for error detection or fault masking by means of middleware or OS functionality involving virtual machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2028Failover techniques eliminating a faulty processor or activating a spare
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/815Virtual

Description

本願は、概して、本番環境のための回復環境として機能するように動作する再目的化可能回復環境に関する。
現在、多くのシステムが、故障時に利用可能な専用障害回復環境を有する。
障害回復環境は、ダウンタイムの余裕を持つことができないシステムにとって重要である場合があるものの、障害回復環境内のシステムは維持のために相当量の資源を必要とする。資源としては、ハードウェア、データセンターのスペース、電力、冷却、ハードウェア維持費用等が挙げられてよい。同様に、障害回復環境内のシステムは大部分が使用されず、従って、ほとんどの時間、無駄な資源になってしまっている。例えば、業務プロセスを走らせる複雑な企業システムが、ウェブサーバ、データベースサーバ、アプリケーションサーバ等などの多くの異なる構成要素を含む場合がある。これらの複雑なシステムのための障害回復環境も同様に多くのサーバ、ネットワーク構成要素、アプリケーションおよびコードを含むであろう。そして、それらは、障害回復環境が、業務プロセスを現在走らせている本番環境の故障時のフェイルオーバーに常に備えができているように維持されなければならない。これは通例、障害回復システムが本番環境のシステムと同期していることを確認するために、障害回復システム上で走るアプリケーションおよびコードについてのバージョン管理を含む。これはしばしば、本番システム用のアプリケーションおよびコードのバージョンを手作業で常に追跡し、新しいバージョンを障害回復システム内のサーバ上に手作業でアップロードするという時間がかかる作業を含む。同様に、ルータおよびスイッチ等の、障害回復環境のネットワーク構成要素はシステム管理者によって構成され維持される必要がある。もし障害回復環境が本番環境と同期するように維持されなければ、これは、障害回復環境が機能しない、または障害回復システムが完全な機能性を提供しないという結果をもたらす可能性があろう。障害回復システムの不断の構成および維持は、重要なシステムのための障害回復環境を有する必要がある企業にとって多大な時間および金銭的支出を要求するが、それらは本番システムおよび/またはデータセンターサイトの破局的な障害時しか用いられないため、企業は自分たちの障害回復システムからほとんど益を受けない可能性がある。
本開示の1つの実施形態は、再構成マネージャを含むシステム、および再目的化可能回復環境内の記憶システムを提示する。再構成マネージャは、再目的化可能回復環境を、本番環境のための回復環境と、回復環境とは異なる第2の環境との間で再構成するように動作する。再目的化可能回復環境内の記憶システムは、再目的化可能回復環境が第2の環境として動作している間、本番環境から本番情報を定期的に保存する。記憶システム内の本番情報は、再目的化可能回復環境を第2の環境から回復環境に再構成するために用いられる。
本開示の第2の実施形態は、再構成マネージャを含むシステム、および再目的化可能回復環境内の記憶システムを提示する。再構成マネージャは再目的化可能回復環境を本番のための回復環境の間で再構成するように動作する。記憶システムは、本番環境から本番情報を定期的に記憶するとともに少なくとも1つのオペレーティングシステムおよび少なくとも1つのアプリケーションを含む本番ソフトウェアを記憶する。再構成マネージャは本番環境の故障を検出し、本番環境の故障の検出に応答して再目的化可能回復環境を第2の環境から回復環境に再構成する。再構成することは、第2の環境内で用いられる情報を記憶システム内に保存するステップと、再目的化可能回復環境内のサーバをシャットダウンするステップと、記憶システム内の上記の少なくとも1つのオペレーティングシステムを用いてサーバをリブートするステップであって、リブートされるサーバのうちの少なくとも1つは上記の少なくとも1つのアプリケーションを実行するように構成され、該少なくとも1つのアプリケーションは記憶システム内の本番データにアクセスするように構成される、リブートするステップと、ネットワーク装置を再構成するステップと、を含む。
本開示の第3の実施形態は、本番環境から本番情報を再目的化可能回復環境内の記憶システム内に定期的に保存するステップであって、再目的化可能回復環境は、本番環境のための回復環境として動作するように構成可能であって、回復環境とは異なる第2の環境として動作するように構成可能であり、定期的に保存される本番情報は、再目的化可能回復環境が第2の環境として動作しているときに記憶システム内に保存される、保存するステップと;記憶システム内の本番情報を用いて再目的化可能回復環境を第2の環境から回復環境に再構成するステップと;を含む方法を提示する。
本開示の第4の実施形態は、本番環境から本番データを再目的化可能回復環境内の記憶システム内に定期的に保存するステップであって、再目的化可能回復環境は、本番環境のための回復環境として動作するように構成可能であって、回復環境とは異なる第2の環境として動作するように構成可能である、保存するステップと;本番環境内で用いられる同じソフトウェアを含み本番環境からの少なくとも1つのオペレーティングシステムおよび少なくとも1つのアプリケーションを含む本番ソフトウェアを再目的化可能回復環境内の記憶システム内に記憶するステップと;ネットワーク装置のためのネットワーク構成情報を記憶するステップと;本番環境の故障を検出するステップと;本番環境の故障の検出に応答して再目的化可能回復環境を第2の環境から回復環境に再構成するステップと;を含む方法を提示する。再構成するステップは、第2の環境内で用いられる情報を保存するステップと;再目的化可能回復環境内のサーバをシャットダウンするステップと;記憶システム内の上記の少なくとも1つのオペレーティングシステムを用いてサーバをリブートするステップであって、リブートされるサーバのうちの少なくとも1つは上記の少なくとも1つのアプリケーションを実行するように構成され、該少なくとも1つのアプリケーションは記憶システム内の本番データにアクセスするように構成される、リブートするステップと;記憶されたネットワーク構成を用いてネットワーク装置を再構成するステップと;を含む。
本開示の第5の実施形態は、コンピュータによって実行されると:本番環境から本番情報を再目的化可能回復環境内の記憶システム内に定期的に保存するステップであって、再目的化可能回復環境は、本番環境のための回復環境として動作するように構成可能であって、回復環境とは異なる第2の環境として動作するように構成可能であり、定期的に保存される本番情報は、再目的化可能回復環境が第2の環境として動作しているときに記憶システム内にあるときに保存される、保存するステップと;記憶システム内の本番情報を用いて再目的化可能回復環境を第2の環境から回復環境に再構成するステップと;を含む方法を遂行する少なくとも1つのコンピュータプログラムを記憶する少なくとも1つのコンピュータ可読媒体を提示する。
本発明の実施形態が以下の記載において次の図面を参照しながら詳述される。
一実施形態によるシステムを示す図である。 一実施形態による、異なる環境のためのアーキテクチャを示す図である。 一実施形態による、異なる環境のためのアーキテクチャを示す図である。 一実施形態による、本番情報の複製およびSANからのブートを示す図である。 一実施形態による、ネットワーク装置の再構成を示す図である。 一実施形態による、再目的化可能回復環境を再構成する方法のフローチャートを示す図である。
単純化および例示目的のために、実施形態の原理はそれらの例を主に参照することによって記載される。以下の記載では、実施形態の完全な理解を提供するために数多くの具体的詳細が説明される。しかし、実施形態はこれらの具体的詳細に限定されることなく実施されてよいことは当業者には明らかであろう。いくつかの例では、実施形態を不必要に分かりにくくしないように、周知の方法および構造は詳しく記載されていない。さらに、異なる実施形態が後述される。実施形態は種々の組み合わせで一緒に用いられてよいまたは遂行されてよい。
1.概説
本発明の一実施形態によれば、再目的化可能回復環境は、本番環境の故障への応答時等、必要なときに本番環境のための回復環境として機能するようにか、あるいはステージング環境または任意の他の形式の非回復環境等の、異なる環境として機能するように動作するものである。例えば、本番環境が通常の業務作業を走らせる間、再目的化可能回復環境はステージング環境として機能すればよい。ステージング環境は、コードおよびアプリケーションあるいは他のシステムの開発および試験のために、それらを本番環境内に公開する前に用いられればよい。本番環境の故障に応答して、再目的化可能回復環境はステージング環境から回復環境に再目的化され、それにより、本番システムが回復環境内で走ることができるようになる。従って、本番環境の故障が発生した場合、ステージング環境は回復環境として再目的化され、通常の業務作業を再開することができる。その結果、これによって、ほとんど活用されない可能性がある障害回復専用インフラストラクチャを維持する必要が避けられる。
さらに、実施形態による回復プロセスは、ネットワーク装置(例えば、ルータ、スイッチ、ファイアウォール、ロードバランサ)、記憶装置(例えば、ストレージエリアネットワーク(storage area network、SAN)およびレプリケーションイネーブラ)、ならびにサーバ(物理および仮想の両方)を構成することを含む、再目的化可能回復環境のインフラストラクチャ要素群の合理化された再目的化を含むというものである。これらのプロセスによって、本番環境の故障時に回復環境内で用いられるシステムを維持し構成するために必要なシステム管理時間は著しく低減される。
2.システム
図1は、一実施形態によるシステム100を示す。システム100は本番環境110および再目的化可能回復環境120を含む。本願明細書において用いられる環境は複数の装置およびソフトウェアを含む。1つの例では、環境が、日常的な作業およびプロセスを走らせるために用いられる、ハードウェア、ならびにアプリケーションおよびコード等のソフトウェアを含むサイトとなっている。ハードウェアは、サーバと、ルータ、スイッチ、ファイアウォール、ロードバランサ等などのネットワーク装置と、記憶とを含んでよい。図示の本番環境110および再目的化可能回復環境120は環境の例であるが、本番環境110および再目的化可能回復環境120は全ての構成要素を含まなくてもよいし、または図1に示されるものとは異なる構成要素を含んでもよいことは当業者には明らかであろう。
本番環境110は、例えば、システムマネージャ111、サーバ112a〜m、仮想機械(virtual machine、VM)をホストするサーバ112n〜z、記憶システム113、およびネットワーク装置114を含む。本番環境110はVMをホストするサーバとVMをホストしないサーバを含んでよいことを示すために、サーバ112a〜mはサーバ112n〜zから独立して示されていることに留意されたい。ユーザ115は本番環境110にローカルであってもよいし、あるいは、例えば、ワイドエリアネットワーク(wide area network、WAN)またはローカルエリアネットワーク(local area network、LAN)等のネットワークを介して接続される、本番環境110の遠隔ユーザであってもよい。ユーザ115は、サーバ112a〜z上で走るアプリケーション(VM上で走るアプリケーションを含んでよい)を用いて日常の仕事を遂行すればよい。記憶システム113内には本番情報が記憶される。本番情報は、アプリケーション、アプリケーションのためのデータ、ブート情報、オペレーティングシステム(operating system、OS)等の装置のための構成情報、ネットワーク装置構成情報、VMのための構成情報、および本番環境110内で用いられる任意の他の情報のうちの1つ以上を含んでいればよい。本番情報の少なくとも一部はワークステーション上にローカルに記憶されてもよい。ネットワーク装置114はルータ、スイッチ、ファイアウォール、ロードバランサ等を含んでよく、本番環境110の内部のネットワーク接続を管理するために用いられ、再目的化可能回復環境120を含む遠隔場所と本番環境110との間のネットワーク接続も管理する。システムマネージャ111はサイト管理、サイト回復およびサイトバックアップに関連する様々な機能を遂行すればよい。例えば、システムマネージャ111は、記憶システム113内に記憶されればよいローカルデータのバックアップを制御すればよい。システムマネージャ111は、本番環境110内の全ての装置を識別する情報、および装置のための構成情報を記憶すればよい。システムマネージャ111は、データ回復ソフトウェア、仮想機械(VM)回復ソフトウェア等などの、システム故障から回復するためのソフトウェアを含んでいればよい。システムマネージャ111は、再目的化可能回復環境120に本番情報を送る周期を制御してよいし、データ回復およびVM回復用の既製のソフトウェアを含んでもよい。
本番環境110および再目的化可能回復環境120は2箇所の地理的に分散したホスティング場所にあってよく、ネットワーク130によって接続されればよい。図示はされていないが、複数の本番および回復サイトが用いられてもよい。ネットワーク130はインターネット等の公衆WAN、または私設WANであればよい。代替的に、本番環境110および再目的化可能回復環境120は1つの場所にあってもよく、LANを介して接続されればよい。
再目的化可能回復環境120は、例えば、再構成マネージャ121、サーバ122a〜z、記憶システム123およびネットワーク装置124を含む。フェイルオーバーが行われるとき、本番環境110のユーザ115は再目的化可能回復環境120に接続すればよい。図示はされていないが、再目的化可能回復環境120がステージング環境または他の非回復環境として動作しているときにユーザが再目的化可能回復環境120に接続してもよい。
再構成マネージャ121は再目的化可能回復環境120を、本番環境110のための回復環境として動作するように、またはステージング環境等の何らかの他の種類の環境として動作するように構成する。ステージング環境は、例えば、本番環境110のためのシステムを開発し試験するために用いられる。例えば、ステージング環境内で本番環境110用のソフトウェアアプリケーションが開発および試験され、その後、本番環境110内で公開されて用いられる。本番環境110内で現在のバージョンが用いられる間、ステージング環境内でアプリケーションの新しいバージョンが開発および試験され続ければよい。ステージング環境は他のシステムを、本番環境に公開される前に試験するために用いられてもよい。例えば、新しい記憶システムが、ステージング環境内で本番環境110用の既存のアプリケーションおよび他のソフトウェアを用いて試験されればよい。ステージング環境内での試験およびデバッギング後、システムは本番環境110内に導入されればよい。
再目的化可能回復環境120がステージング環境として動作しているときは、ユーザは、本番環境110内の業務アプリケーションの典型的なエンドユーザよりはむしろ、開発者および試験者を含む場合がある。ステージング環境として動作しているとき、サーバ122a〜z、記憶システム123およびネットワーク装置124は開発および試験のための資源として利用される。
再構成マネージャ121は、再目的化可能回復環境120を本番環境110のための回復環境として構成するようにも動作する。再構成マネージャ121は本番環境110が故障したことを判定すればよく、再構成マネージャ121はサーバ122a〜z、記憶システム123およびネットワーク装置124を本番環境110内のサーバ112a〜z、記憶システム113およびネットワーク装置114として動作するように再構成する。1つの例では、再構成マネージャ121はシステム管理者または別のシステムから本番環境110の故障の通知を受ける。再構成マネージャ121はステージング環境内のサーバ122a〜mをシャットダウンし、サーバ122a〜mを、それらが回復環境のために構成され用いられることができるようにリブートすればよい。サーバの一部だけが本番アプリケーションのために必要な場合は、全てのサーバ122a〜mがシャットダウンされなくてもよい。同様に、VMをホストするサーバ122n〜zもシャットダウンされなくてよい。これらのサーバは、シャットダウンされることなく、本番環境110からのVMおよびアプリケーションを含むように再構成されればよい。再構成マネージャ121はサーバ122a〜zおよびネットワーク装置124に構成情報を送り、これらの装置を回復環境用に構成すればよい。再構成マネージャ121は、本願明細書において記載されている、環境を再構成するための他の機能を遂行すればよい。
ステージング環境から回復環境への再構成後、ユーザ115は、回復環境として動作する再目的化可能回復環境120に接続し、本番環境110内で普段、遂行するであろう自分たちの日常の仕事および職務を遂行すればよい。
1つの実施形態では、再目的化可能回復環境120内のサーバ122a〜z、記憶システム123およびネットワーク装置124は本番環境120内のサーバ112a〜z、記憶システム113およびネットワーク装置114と同種の装置である。装置が両環境内で同じであれば、回復環境はよりロバストなものとなるはずである。同種の装置とは、本番環境110内の装置に等価な装置とも呼ばれ、サーバの場合であれば、同じ型式で尚且つ、同じ量のメモリおよび同じプロセッサ等の同じ仕様または構成、を有する装置を含むものであればよい。同様に、装置が再目的化可能回復環境120内で再構成されると、装置は同じVMをホストし、同じアプリケーションを走らせ、本番環境110内で用いられていた任意の他のソフトウェアを走らせる。ステージング環境から回復環境への再目的化可能回復環境120の再構成が以下にさらに詳述される。
図2は、例えば、再目的化可能回復環境120が、図3に示されるステージング環境120bから、または別の種類の環境から回復環境120aとして構成された後の、本番環境110と、回復環境120aとして動作する再目的化可能回復環境120とのアーキテクチャを示す。本番環境110は、サーバまたは他のプラットフォーム上で走るソフトウェアであればよいシステムマネージャ111、ならびにアプリケーション210および213を含む。アプリケーション210は、図1にも示されるサーバ112n〜zを含むものであればよいVMインフラストラクチャ、およびVMを作り出しそれをホストするVMソフトウェアによってホストされるVM211上で走っている。アプリケーション213は、VMではなく、図1にも示されるサーバ112a〜mによってホストされる。記憶システム113内には本番情報、が記憶される。本番環境110はユーザ115にアプリケーションおよびサービス216を提供するように動作する。同様に、本番環境内のサーバ、ユーザ115および他の装置はネットワーク240を介して接続されればよい。ネットワーク240は図1に示されるネットワーク装置114を含む。ネットワーク装置114の構成は、後述される本番情報230内に含まれ回復環境120aに複製されればよい。後にさらに詳述されるように、本番環境内のネットワーク241がネットワーク240とほぼ同等に構成される。ネットワーク241は図1に示されるネットワーク装置124を含む。
1つの実施形態では、回復環境120aのアーキテクチャは、それが、回復環境120aへの構成を制御する再構成マネージャ121を含むこと以外は、本番環境110と同じである。回復環境120aへの構成後、ユーザ115は回復環境120aに接続し、本番環境110内で利用可能であった同じアプリケーションおよびサービス216にアクセスすることができる。
本番環境110および再目的化可能回復環境120内の記憶システム113および123はそれぞれSAN213および223を含んでいればよい。しかし、本願明細書において記載されている情報を記憶するために他の形式の記憶システムが用いられてもよいことは当業者には明らかであろう。図2に示されるように、本番環境110内のSAN213は、アプリケーション210および213等のアプリケーション、アプリケーションによって用いられるデータ、ブート情報、オペレーティングシステム(OS)等の装置のための構成情報、ネットワーク装置構成情報、VMのための構成情報、および本番環境110内で用いられる任意の他の情報のうちの1つ以上を含むものであればよい本番情報230を記憶する。本番情報230は、後にさらに詳述されるように、SAN223に定期的に複製され、従って、本番環境110の故障時にすぐに利用できるようになっている。SAN223は、再目的化可能回復環境120が用いられているステージング環境および/または任意の他の環境のための情報231も記憶する。情報231は、再目的化可能回復環境120が回復環境120aとして動作しているときは用いられないので、点線の形式で示されている。
図3は、本番環境110と、ステージング環境120bとして動作する再目的化可能回復環境120とのアーキテクチャを示す。本番環境110は図2に示されるものと同じである。ステージング環境120bのアーキテクチャはテストベッド301、アプリケーション302およびコード303を含むものであってよい。テストベッド301は、図1に示されるサーバ112a〜zのうちの1つ以上、ネットワーク装置124のうちの1つ以上、およびアプリケーション302およびコード303を試験するためのテストベッドを共同で提供する1つ以上のVMを含むものであればよい。上述されたように、ステージング環境120bは、コードおよびアプリケーションあるいは他のシステムを、それらを本番環境内に公開する前に開発し試験するために用いられればよく、アプリケーション302およびコード303は試験されるソフトウェアの例として示されている。他のシステムが試験されてもよい。同様に、ネットワーク装置124を構成することによってネットワーク242が作り出されればよく、ステージング環境120b内で装置およびユーザを接続するために用いられる。ネットワーク242は回復環境120a内のネットワーク241とは異なる構成を含む。例えば、ネットワーク242は異なるIPアドレスを用い、さらに、ルータおよびスイッチを異なる様式で構成する場合がある。
再構成マネージャ121は、再目的化可能回復環境120の、ステージング環境120bへの構成を制御する。ステージング環境120bへの構成後、ユーザ315がステージング環境120bに接続し、例えば、様々なシステムを試験し開発することができる。ユーザ315は、試験者および開発者を含む場合があり、本番環境のエンドユーザ115とは異なってよい。
SAN223は、図2に示される情報231内に含まれればよいステージング情報331を記憶する。ステージング情報331は、試験データ、構成情報、あるいはステージング環境120bによって用いられる任意の他の情報、またはステージング環境120bのためのテストベッド301もしくは任意の他の装置を構成するために必要とされる情報を含んでよい。後にさらに詳述されるように、再目的化可能回復環境120がステージング環境120bとして動作している間、本番情報230は本番環境110から定期的に複製され、SAN223内に記憶されればよい。同様に、再目的化可能回復環境120はステージング環境以外の環境のために構成されてもよい。
3.再構成可能なステージングセンター環境内における本番記憶のレプリケーション
一実施形態によれば、本番情報230は本番環境110から再目的化可能回復環境120に複製される。レプリケーションは、再目的化可能回復環境120がステージング環境として動作する間に行われる。本番環境110から再目的化可能回復環境120へのレプリケーションは定期的に行われるため、本番環境の故障時のデータ損失はわずかしかない。例えば、本番環境110内の故障の結果、15分のデータ損失またはそれ未満しか生じないという場合がある。遅れは少なくとも一部はWAN/LANの構成および速度が原因で起こり、従って、15分とは異なる場合もある。
上述されたように、本番環境110および再目的化可能回復環境120内の記憶システム113および123はそれぞれSAN213および223をそれぞれ含めばよく、本番環境110内のSAN213から再目的化可能回復環境120内のSAN223にボリュームが複製される。同様に、レプリケーションのための1つの実施形態は、SAN213および223の両方の上に全ての本番データが記憶されるように、SAN213と223との間のデータを同期することを含めばよいというものである。本番環境110内のSAN213上の全ての本番データが再目的化可能回復環境120内のSAN223上に記憶されるように初期化プロセスがまず遂行される。本番データが初期化された後、環境内のボリューム間のあらゆる差分を特定するために走査が遂行される。次に、ほとんどリアルタイムで遂行されればよいより高速な同期プロセスを可能とするため、差分のみが、圧縮された形で転送される。
同様に、ボリュームを複製するとき、1つ以上のレプリケーションセットを含むコンシステンシーグループが確立されればよい。各レプリケーションセットは、本番ボリューム、およびそれが複製している複製ボリュームを含む。コンシステンシーグループは、複製への更新が常に一貫性があり、正しい書き込み順序になっていること、すなわち、複製は、ユーザによって仕事を続けるために用いられるか、または本番環境110を復元するために用いられることが常にできるようになっていることを確実にする。同様に、コンシステンシーグループは、複製されるボリュームの速度、サイズおよび場所の構成を可能とする。コンシステンシーグループはそれに追加されるボリュームを全て監視し、一貫性、および書き込み順序の忠実性を確実にする。2つのデータセットが互いに依存する場合(例えばデータベースとデータベースログ)、それらは同じコンシステンシーグループ内に提供されればよい。
図4は、本番環境110内のSAN220から、ステージング環境として動作する再目的化可能回復環境120内のSAN223に定期的に複製される本番情報を示す。サーバ112a〜z上にあればよい本番情報230はSAN220内に記憶される。本番情報230はネットワークを通じてSAN223に定期的に複製される。SAN223はステージング情報231、ブート情報232および装置構成情報233等の他の情報を記憶してもよい。
4.SANからのブート
一実施形態によれば、図1に示される、再目的化可能回復環境120の記憶システム123は、再目的化可能回復環境120内のサーバ122a〜mのためのシステムブートイメージを記憶する。ブートイメージは、図4に示される、SAN223内に記憶される本番情報230内に含まれればよい。サーバ122a〜mは次に、本番環境110を複製するためにSAN223内に記憶されたイメージからブートすればよい。ブートイメージは、オペレーティングシステム(OS)、およびサーバをブートするために用いられる他の情報を含むものであればよい。環境内の記憶システム用のSANを用いる場合は、必要に応じ、記憶装置が追加されればよい。必要な場合は記憶装置が追加されてサーバ122a〜mのためのブートイメージを記憶すればよく、そうすれば、サーバ122a〜mは、個々のサーバからブートするのとは対照的に、回復環境120a内のSAN223からブートすることができる。その結果、管理者が可用性、データ完全性、プロビジョニング速度および障害回復を向上させることができる。1つの実施形態では、再目的化可能回復環境120内のサーバ122a〜mは、インターネットプロトコル(Internet protocol、IP)アドレス、グローバル一意識別子(globally unique identifier、GUID)およびサーバ名を含む、本番環境110内のサーバまさにそのものの構成を有する。他の実施形態では、全く同じではなく、ほぼ同等の構成が再目的化可能回復環境120内で用いられればよい。
図4は、回復環境120a内のSAN223からのブートの説明図を提供するものである。例えば、本番環境110がユーザに利用不可能になる。データの全てまたは実質的に全ては再目的化可能回復環境120内のSAN223に複製されている。サーバ212a〜mが、ステージング環境から回復環境に再構成するためにシャットダウンされる。次に、サーバ212a〜mは、SAN223内のブート情報を用いてSAN223からブートされる。本番環境110内の各物理サーバは再目的化可能回復環境120内に等価な物理サーバを有していればよいことに留意されたい。ステージングサーバとして動作する物理サーバがシャットダウンした後、サーバは回復環境120a内で本番システムのためのサーバとして動作するようにブートアップされる。従って、本質的に、本番環境110内でユーザによってアクセスされていた同じサーバが今や回復環境120a内でユーザによってアクセスされる。変更はユーザにとって途切れなく見えるであろう。回復環境120a内のサーバ222n〜zは本番システムのためのVMをホストし、これらのサーバは本番システムのためのVMをホストするように再構成されるべくシャットダウンされる必要はなくてよい。
5.ネットワーク再構成
本番環境110内の物理サーバ、VMおよびネットワーク装置は、各自に割り当てられるIPアドレス、および装置の種類に基づいたルーティング情報を含むものであればよいアドレス指定スキーマを有する。本番環境110の構成およびアドレス指定スキーマは回復環境120a内に複製される。例えば、本番環境110内のサーバがIPアドレスを有する。同じIPアドレスが回復環境120a内の等価なサーバに割り当てられる。従って、本番環境110内の装置およびVMの同じIPアドレスが回復環境120a内の等価な装置およびVMに適用される。回復環境120a内の同じIPアドレスおよびネットワークセグメントのマイグレーションを用いることが従来の障害回復システムからの完全な脱却である。従来の障害回復システムは通例、少なくとも一部は新しいIPアドレスを用いる。なぜなら、従来の障害回復システムは本番システムと同時に走っており、従って本番システムとは異なるIPアドレスを有していなければならないからである。
同様に、等価な装置の構成が本番環境110と概ね同じであるため、最新、有効且つロバストなものであることが分かっている構成が装置、VMおよびアプリケーションのために用いられる。例えば、本番環境110が故障すれば、ステージング環境120bはシャットダウンされる。例えば、ステージング環境120bの一部が本番環境110を収容することができるなら、ステージング環境120b全体がシャットダウンされなくてもよいことに留意されたい。再目的化可能回復環境120内のネットワークは、本番環境110からの構成を用いて回復環境120a用に再構成される。再構成の一部は、本番環境ネットワークに関連する追加の仮想ローカルエリアネットワーク(virtual local area networ、VLAN)を用いてコアスイッチを更新することを含む。関連するVLANルーティング情報も構成される。インターネットファイアウォールインターフェースが本番IPに再アドレス設定される。本番ファイアウォールからの現在の構成を用いて他のファイアウォールが更新される。ファックスサーバが、ユーザがアクセスすることを確実にするために再アドレス設定される。外部で決定されることができる、回復環境120a内の資源のための外部ドメイン名システム(domain name system、DNS)テーブルが新しいIPアドレスで更新される。
回復環境120a内のネットワーク241は現在の本番ネットワーク構成の大部分を用いる。同様に、再構成の間、構成は予め構築され回復環境120a内のネットワーク装置にプッシュされる。例えば、ネットワーク装置構成情報は予め構築され、図4に示されるSAN223内に記憶され、図1に示されるネットワーク装置124等のネットワーク装置にプッシュされる。別の例では、ネットワーク装置構成情報は休止状態でネットワーク装置124内に記憶され、回復環境120aに再構成する際に呼び出される。同様に、何らかの構成変更を行う前に、ステージング環境構成は、例えば、図3に示されるステージング情報331の一部として、SAN223内に記憶される。または、ステージング環境120bのためのネットワーク装置構成情報がネットワーク装置124内に休止状態で記憶され、ステージング環境120bに再構成する際に呼び出される。
図5は、本番環境110内の構成を模倣するために回復環境120a内で遂行されればよいIPアドレス再構成のいくつかを示す。本番環境110は15.15.2.xを用い、ステージング環境120bは15.20.2.xを用いる。回復環境120aに再構成するために、ファイアウォール501が15.15.2.xの本番IPアドレス群に変更される。サーバ122a〜mおよびVMならびにネットワーク装置124も本番環境110の15.15IPアドレス群に構成される。
6.再目的化可能回復環境内のVMの構成
本番環境110はVM、図1に示されるサーバ112n〜z上でホストされるようなVM、を用いればよく、その結果、等価なVMが回復環境120a内においてサーバ122n〜z上で作られ用いられる。フェイルオーバーステップおよびブート順序が前もって構成され、SAN223内に記憶される。フェイルオーバーステップおよびブート順序を用いて回復環境120a内にVMを作る。
例えば、ステージング環境120b内のVMがシャットダウンされ、本番VMを走らせるための資源を解放する。回復環境120a内で本番VMを走らせるために十分な資源が利用可能である場合は、ステージングVMのうちの1つ以上は起動したままでよい。次に、本番VMが回復環境120a内に作られる。VMをブートするための順序が指定されればよい。順序はインフラストラクチャおよび業務への重要度等の因子に基づかせればよい。例えば、アクティブディレクトリサービス、ネットワークサービスおよび他のサービスのためのVMが最初にブートアップされる。次に、重要な業務アプリケーションのためのVMがブートされる。優先度のより低い監視サービスおよびアプリケーションが最後にブートされればよい。
7.方法
図6は、一実施形態による、再目的化可能回復環境120を再構成する方法600のフローチャートを示す。方法600は例として図1〜図5のうちの1つ以上の構成要素に関して記載されるものであり、方法は他のシステム内で遂行されてもよい。
方法600は、本番情報230は、上述されたように、再目的化可能回復環境120内の、SAN223等の記憶システム上で複製されることを仮定している。
ステップ601において、本番環境110の故障が検出される。故障は、本番環境110全部をユーザによって使用不能な状態にするか、または本番環境110の大部分を使用不能な状態にする故障を含むものであればよい。故障の検出は、システム管理者または別のシステムによって再構成マネージャ121に提供される故障の指摘を含むものであればよい。
ステップ602において、ステージング環境の状態がSAN223内に記憶される。これは図3においてステージング情報331として示される。例えば、ステージング情報331は、アプリケーションまたはシステムの試験および開発の現在の状態、サーバおよびネットワーク構成、ならびにステージング環境内で用いられる任意の他の情報を含むものであればよい。SAN223が、ステージング環境内で用いられるデータのための中央リポジトリとして動作している場合、この情報の一部または全てはSAN223内にすでに記憶されていてよい。この場合、ステージング情報331はSAN223内にすでに記憶されている。ステージング情報331がいくらかでもワークステーションまたはサーバ内にローカルに記憶されていれば、そのときは、ステップ602において、この情報はSAN223に保存される。
ステップ603において、ステージング環境120b内のサーバおよびVMがシャットダウンされ、資源を本番システムのために解放する。例えば、サーバ122a〜mがシャットダウンされればよい。なぜなら、それらのサーバは、本番アプリケーション213を走らせているサーバ112a〜mと等価であるからである。従って、再目的化可能回復環境120内のサーバ122a〜mはシャットダウンされ、それにより、それらは、本番環境110からのサーバ112a〜mとほぼ同等に再構成され本番アプリケーション213を走らせることができるようになる。サーバ122n〜z上で走るステージングVMもシャットダウンされてよく、同様にそれにより、それらのサーバ上で本番VMがブートアップされ本番アプリケーション210を走らせることができるようになる。本番システムを走らせるために十分な資源が利用できる場合は、全てのサーバおよびVMがシャットダウンされなくてもよい。
ステップ604において、再目的化可能回復環境120内のネットワーク装置124が本番環境110内のネットワーク装置114の構成に再構成される。ネットワーク装置124は本番環境110のネットワーク装置114とほぼ同等に構成される。例えば、再目的化可能回復環境120内のネットワーク装置124は、本番環境110内のネットワーク装置114と同じIPアドレスを用いて構成される。他の構成も本番環境110と同じである。例えば、スイッチおよびルータポート設定、ファイアウォール設定ならびに他の設定が本番環境110内の等価なネットワーク装置の構成と同じかまたはほぼ同等となっている。ネットワーク装置124を構成することで、本番システムによって用いられる本番環境110からのネットワーク240を複製するネットワーク241が作り出されることができる。
ステップ605において、サーバが再目的化可能回復環境120内のデータ記憶からブートされる。例えば、SAN223からのブートイメージを用いてサーバ122a〜mがリブートされ、サーバ122a〜m上で本番アプリケーション213が実行される。ステップ605および606が同時に遂行されてもよい。
ステップ606において、本番VMが再目的化可能回復環境120内でブートアップされる。例えば、サーバ122n〜zは再目的化可能回復環境120内のVMをホストする。本番環境110内で用いられるVMである本番VMがサーバ122n〜zのうちの1つ以上の上でブートアップされる。VMは、SAN223内に記憶された構成情報内で指定される順序でブートアップされればよい。本番VMをブートアップすることは、回復環境120aとして動作する再目的化可能回復環境120内の本番VM上でアプリケーション210を走らせることも含む。
ステップ607において、回復環境120aは妥当性が確認される。例えば、ステップ601〜606から生成された回復環境120a内で走る本番システムが、それらが適切に走ることを確実にするために試験される。
ステップ608において、ステップ607における妥当性確認の後、ユーザ115は、アプリケーションおよびサービス216を含む、回復環境120a内の本番システムにアクセスすることを許される。ユーザ115は、あたかも自分たちが本番環境110にアクセスしているかのように、アプリケーションおよびデータにアクセスして自分たちの日常の仕事を遂行する。
本番環境110が回復された後、再目的化可能回復環境120は再構成されてステージング環境120bに戻る。例えば、ステージング情報331が用いられ、サーバおよびネットワーク装置を再構成してそれらの以前の状態に戻す。すると、ステージング環境120b内で開発および試験が再開することができる。同様に、再目的化可能回復環境120がステージング環境120bとして動作する間の、SAN223内への本番情報230の定期的な保存、およびSAN223内への、本番環境110の構成への任意の更新の記憶が再開する。
本願明細書において記載されているステップおよび機能のうちの1つ以上ならびに本願明細書において記載されているシステムの構成要素のうちの1つ以上は、メモリまたは別の種類の記憶装置等のコンピュータ可読記憶装置上に記憶されるコンピュータコードとして実装されてよい。コンピュータコードはコンピュータシステム上で、例えば、プロセッサ、特定用途向け集積回路(application−specific integrated circuit、ASIC)または他の種類の回路によって、実行される。コードは、ソースコード、オブジェクトコード、実行可能コードまたは他のフォーマットの形式のプログラム命令で構成されるソフトウェアプログラム(単数または複数)として存在すればよい。
実施形態は例を参照しながら記載されているが、当業者は、請求されている実施形態の範囲から逸脱することなく、記載されている実施形態に様々な変更を行うことができよう。

Claims (26)

  1. 再目的化可能回復環境を、本番環境のための回復環境と、前記回復環境とは異なる第2の環境との間で再構成するように動作する再構成マネージャと
    前記再目的化可能回復環境が前記第2の環境として動作している間、前記本番環境から本番情報を定期的に保存する、前記再目的化可能回復環境内の記憶システムと
    を含み、
    前記記憶システム内の前記本番情報は、前記再目的化可能回復環境を前記第2の環境から前記回復環境に再構成するために用いられ
    前記再構成マネージャは、
    前記本番環境の故障を検出し、
    前記第2の環境のために動作している前記再目的化可能回復環境内でサーバがその時点で用いている情報を前記記憶システム内に保存し、
    前記サーバをシャットダウンし、
    前記記憶システム内の少なくとも1つのオペレーティングシステムを用いて前記サーバをリブートし、前記少なくとも1つのオペレーティングシステムは、前記本番環境のためのオペレーティングシステムを含み、前記リブートされるサーバは、前記サーバをリブートするのに用いられる前記少なくとも1つのオペレーティングシステムを走らせ前記本番環境からのアプリケーションを実行するように構成される、
    システム。
  2. 前記再構成マネージャは前記サーバのリブートを通じて前記再目的化可能回復環境を前記第2の環境から前記回復環境に再構成する、請求項1に記載のシステム。
  3. 前記記憶システムは、前記本番環境内で用いられる仮想機械のリスト、および前記仮想機械をブートアップするための順序を記憶し、
    前記再構成マネージャは、前記再目的化可能回復環境内で走る、前記第2の環境のための仮想機械をシャットダウンし、前記再目的化可能回復環境内で前記本番環境仮想機械を前記順序でブートアップする、
    請求項1に記載のシステム。
  4. 前記再構成マネージャは前記再目的化可能回復環境内のネットワーク装置を前記本番環境内のネットワーク装置と同じ設定を有するように構成する、請求項1に記載のシステム。
  5. 前記再構成マネージャは前記再目的化可能回復環境内の等価な装置を前記本番環境内の装置の同じIPアドレスを有するように構成する、請求項1に記載のシステム。
  6. 前記本番環境内の前記装置がサーバおよびネットワーク装置を含み、前記再目的化可能回復環境内の前記等価な装置は、前記本番環境内の前記サーバおよびネットワーク装置と同じ型式および構成であるサーバおよびネットワーク装置を含む、請求項に記載のシステム。
  7. 再目的化可能回復環境を、第2の環境と、本番環境のための回復環境との間で再構成するように動作する再構成マネージャと
    前記本番環境から本番データを定期的に記憶し、少なくとも1つのオペレーティングシステムおよび少なくとも1つのアプリケーションを含む前記本番環境からの本番ソフトウェアを記憶する、前記再目的化可能回復環境内の記憶システムと
    を含み、
    前記再構成マネージャは前記本番環境の故障を検出し、前記本番環境の前記故障の検出に応答して前記再目的化可能回復環境を前記第2の環境から前記回復環境に再構成し、前記再構成することは、
    前記第2の環境内で用いられる情報を前記記憶システム内に保存することと
    前記再目的化可能回復環境内のサーバをシャットダウンすることと
    前記記憶システム内の前記少なくとも1つのオペレーティングシステムを用いて前記サーバをリブートすることであって、前記リブートされるサーバのうちの少なくとも1つは前記少なくとも1つのオペレーティングシステムを走らせ前記少なくとも1つのアプリケーションを実行するように構成され、前記少なくとも1つのアプリケーションは前記記憶システム内の前記本番データにアクセスするように構成される、リブートすることと
    ネットワーク装置を再構成することと
    を含む、
    システム。
  8. 前記第2の環境はステージング環境であり、前記第2の環境内で用いられる前記情報は、前記ステージング環境として動作する前記再目的化可能回復環境内で開発または試験されている少なくとも1つのアプリケーションのための情報を含む、請求項に記載のシステム。
  9. 前記記憶システムは、前記本番環境内で用いられる仮想機械のリスト、および前記仮想機械をブートアップするための順序を記憶し、
    前記再構成マネージャは、前記再目的化可能回復環境内で走る、前記第2の環境のための仮想機械をシャットダウンし、前記再目的化可能回復環境内で前記本番環境仮想機械を前記順序でブートアップする、
    請求項に記載のシステム。
  10. 前記再構成マネージャは前記ネットワーク装置を前記本番環境内のネットワーク装置と同じ設定を有するように構成する、請求項に記載のシステム。
  11. 前記再構成マネージャは前記再目的化可能回復環境内の等価な装置を前記本番環境内の装置の同じIPアドレスを有するように構成する、請求項に記載のシステム。
  12. 前記本番環境内の前記装置がサーバおよびネットワーク装置を含み、前記再目的化可能回復環境内の前記等価な装置は、前記本番環境内の前記サーバおよびネットワーク装置と同じ型式および構成であるサーバおよびネットワーク装置を含む、請求項11に記載のシステム。
  13. 本番環境から本番情報を再目的化可能回復環境内の記憶システム内に定期的に保存することであって、前記再目的化可能回復環境は、前記本番環境のための回復環境として動作するように構成可能であって、前記回復環境とは異なる第2の環境として動作するように構成可能であり、前記定期的に保存される本番情報は、前記再目的化可能回復環境が前記第2の環境として動作しているときに前記記憶システム内に保存される、保存することと
    前記記憶システム内の前記本番情報を用いて前記再目的化可能回復環境を前記第2の環境から前記回復環境に再構成することであって、前記再構成することは、前記第2の環境のために動作している前記再目的化可能回復環境内のサーバをシャットダウンすることと、前記記憶システム内の少なくとも1つのオペレーティングシステムを用いて前記サーバをリブートすることを含み、前記少なくとも1つのオペレーティングシステムは、前記本番環境のためのオペレーティングシステムを含み、前記リブートされるサーバは、前記サーバをリブートするのに用いられる前記少なくとも1つのオペレーティングシステムを走らせ前記本番環境からのアプリケーションを実行するように構成される、再構成することと、
    を含む方法。
  14. 前記再目的化可能回復環境の前記再構成が
    前記第2の環境内で走る仮想機械をシャットダウンすることと
    前記本番情報を用いて本番仮想機械をリブートすることであって、前記本番仮想機械のうちの少なくとも1つは前記本番環境からのアプリケーションを走らせるように構成される、リブートすることと
    を含む、請求項13に記載の方法。
  15. 本番仮想機械をリブートすることが
    前記本番仮想機械をリブートする所定の順序を決定すること
    を含み、
    前記本番仮想機械の前記リブートは前記決定された順序で遂行される、
    請求項14に記載の方法。
  16. 前記再目的化可能回復環境の前記再構成が
    ネットワーク装置を前記本番環境内のネットワーク装置と同じ設定を有するように構成すること
    を含む、請求項13に記載の方法。
  17. 前記方法が
    前記本番環境内の装置のために用いられるIPアドレスを記憶すること
    を含み、
    前記再目的化可能回復環境の前記再構成は、前記再目的化可能回復環境内の等価な装置を前記本番環境内の前記装置の同じIPアドレスを有するように構成することを含む、
    請求項13に記載の方法。
  18. 本番環境から本番データを再目的化可能回復環境内の記憶システム内に定期的に保存することであって、前記再目的化可能回復環境は、前記本番環境のための回復環境として動作するように構成可能であって、前記回復環境とは異なる第2の環境として動作するように構成可能である、保存することと
    前記本番環境からの少なくとも1つのオペレーティングシステムおよび少なくとも1つのアプリケーションを含む本番ソフトウェアを前記本番環境から前記再目的化可能回復環境内の前記記憶システム内に記憶することと
    ネットワーク装置のためのネットワーク構成情報を記憶することと
    前記本番環境の故障を検出することと
    前記本番環境の前記故障の検出に応答して前記再目的化可能回復環境を前記第2の環境から前記回復環境に再構成することであって、前記再構成することは、
    前記第2の環境内で用いられる情報を保存することと
    前記再目的化可能回復環境内のサーバをシャットダウンすることと
    前記記憶システム内の前記少なくとも1つのオペレーティングシステムを用いて前記サーバをリブートすることであって、前記リブートされるサーバのうちの少なくとも1つは前記少なくとも1つのオペレーティングシステムを走らせ前記少なくとも1つのアプリケーションを実行するように構成され、前記少なくとも1つのアプリケーションは前記記憶システム内の前記本番データにアクセスするように構成される、リブートすることと
    前記記憶されたネットワーク構成情報を用いてネットワーク装置を再構成することと
    を含む、再構成することと
    を含む方法。
  19. 前記第2の環境はステージング環境であり、前記第2の環境内で用いられる前記情報は、前記ステージング環境として動作する前記再目的化可能回復環境内で開発または試験されている少なくとも1つのアプリケーションのための情報を含む、請求項18に記載の方法。
  20. 前記再目的化可能回復環境の前記再構成が
    前記第2の環境内で走る仮想機械をシャットダウンすることと
    前記本番情報を用いて本番仮想機械をリブートすることであって、前記本番仮想機械のうちの少なくとも1つは前記本番環境からのアプリケーションを走らせるように構成される、リブートすることと
    を含む、請求項18に記載の方法。
  21. 本番仮想機械をリブートすることが
    前記本番仮想機械をリブートする所定の順序を決定すること
    を含み、
    前記本番仮想機械の前記リブートは前記決定された順序で遂行される、
    請求項20に記載の方法。
  22. ネットワーク装置を再構成することが
    前記ネットワーク装置を前記本番環境内のネットワーク装置と同じ設定を有するように構成すること
    を含む、請求項18に記載の方法。
  23. 前記方法が
    前記本番環境内の装置のために用いられるIPアドレスを記憶すること
    を含み、
    前記再目的化可能回復環境の前記再構成は、前記再目的化可能回復環境内の等価な装置を前記本番環境内の前記装置の同じIPアドレスを有するように構成することを含む、
    請求項18に記載の方法。
  24. コンピュータによって実行されると
    本番環境から本番情報を再目的化可能回復環境内の記憶システム内に定期的に保存することであって、前記再目的化可能回復環境は、前記本番環境のための回復環境として動作するように構成可能であって、前記回復環境とは異なる第2の環境として動作するように構成可能であり、前記定期的に保存される本番情報は、前記再目的化可能回復環境が前記第2の環境として動作しているときに前記記憶システム内にあるときに保存される、保存することと
    前記記憶システム内の前記本番情報を用いて前記再目的化可能回復環境を前記第2の環境から前記回復環境に再構成することであって、前記再構成することは、前記第2の環境のために動作している前記再目的化可能回復環境内のサーバをシャットダウンすることと、前記記憶システム内の少なくとも1つのオペレーティングシステムを用いて前記サーバをリブートすることを含み、前記少なくとも1つのオペレーティングシステムは、前記本番環境のためのオペレーティングシステムを含み、前記リブートされるサーバは、前記サーバをリブートするのに用いられる前記少なくとも1つのオペレーティングシステムを走らせ前記本番環境からのアプリケーションを実行するように構成される、再構成することと、
    を含む方法を遂行する少なくとも1つのコンピュータプログラムを記憶する少なくとも1つのコンピュータ可読媒体。
  25. 前記再目的化可能回復環境の再構成が
    前記第2の環境内で走る仮想機械をシャットダウンすることと
    前記再目的化可能回復環境内で本番仮想機械をリブートするための順序を決定することと
    前記本番情報を用いて前記本番仮想機械を前記順序でリブートすることであって、前記本番仮想機械のうちの少なくとも1つは前記本番環境からのアプリケーションを走らせるように構成される、リブートすることと
    を含む、請求項24に記載の少なくとも1つのコンピュータ可読媒体。
  26. 前記方法が
    前記本番環境内の装置のために用いられるIPアドレスを記憶すること
    を含み、
    前記再目的化可能回復環境の前記再構成は、前記再目的化可能回復環境内の等価な装置を前記本番環境内の前記装置の同じIPアドレスを有するように構成することを含む、
    請求項24に記載の少なくとも1つのコンピュータ可読媒体。
JP2010254299A 2010-04-01 2010-11-12 再目的化可能回復環境 Active JP5384467B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/752,310 US8234515B2 (en) 2010-04-01 2010-04-01 Repurposable recovery environment
US12/752,310 2010-04-01

Publications (2)

Publication Number Publication Date
JP2011216072A JP2011216072A (ja) 2011-10-27
JP5384467B2 true JP5384467B2 (ja) 2014-01-08

Family

ID=43707879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010254299A Active JP5384467B2 (ja) 2010-04-01 2010-11-12 再目的化可能回復環境

Country Status (8)

Country Link
US (1) US8234515B2 (ja)
EP (1) EP2372555B1 (ja)
JP (1) JP5384467B2 (ja)
CN (1) CN102214128B (ja)
AU (1) AU2010241431B2 (ja)
CA (1) CA2718888C (ja)
MX (1) MX2010012247A (ja)
SG (1) SG174662A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9104803B2 (en) * 2011-01-03 2015-08-11 Paypal, Inc. On-demand software test environment generation
US9176829B2 (en) * 2011-07-01 2015-11-03 Microsoft Technology Licensing, Llc Managing recovery virtual machines in clustered environment
CN103514038B (zh) * 2012-06-26 2018-11-27 中兴通讯股份有限公司 一种虚拟系统的平滑关闭方法及系统
US9047248B2 (en) * 2013-01-29 2015-06-02 Sungard Availability Services, Lp Logical domain recovery
US9904610B2 (en) 2013-02-08 2018-02-27 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Configuration of servers for backup
WO2015009318A1 (en) * 2013-07-19 2015-01-22 Hewlett-Packard Development Company, L.P. Virtual machine resource management system and method thereof
JP6273732B2 (ja) * 2013-09-20 2018-02-07 日本電気株式会社 情報処理引き継ぎ制御装置、情報処理引き継ぎ制御方法、及び、情報処理引き継ぎ制御プログラム
CN103595572B (zh) * 2013-11-27 2018-03-27 安徽斯百德信息技术有限公司 一种云计算集群中节点自修复的方法
US9582381B2 (en) * 2014-06-12 2017-02-28 Unisys Corporation Multi-threaded server control automation for disaster recovery
US10474486B2 (en) * 2015-06-30 2019-11-12 Veritas Technologies Llc Data access accelerator
US10423588B2 (en) * 2015-08-25 2019-09-24 International Business Machines Corporation Orchestrated disaster recovery
US10558480B2 (en) 2015-09-10 2020-02-11 Veritas Technologies Llc Optimizing access to production data
CN107231399B (zh) * 2016-03-25 2020-11-06 阿里巴巴集团控股有限公司 高可用服务器集群的扩容方法以及装置
US10320898B2 (en) * 2016-06-06 2019-06-11 Verizon Patent And Licensing Inc. Automated multi-network failover for data centers
US10838767B2 (en) 2016-09-12 2020-11-17 International Business Machines Corporation Distributed computing utilizing a recovery site
US10104120B2 (en) * 2017-01-12 2018-10-16 Acalvio Technologies, Inc. Command and control cyber vaccine
US10496499B2 (en) * 2017-09-06 2019-12-03 Royal Bank Of Canada System and method for datacenter recovery
JP6943125B2 (ja) * 2017-10-04 2021-09-29 トヨタ自動車株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62172437A (ja) * 1986-01-24 1987-07-29 Fujitsu Ltd 高信頼性システム
US7020697B1 (en) * 1999-10-01 2006-03-28 Accenture Llp Architectures for netcentric computing systems
US6671818B1 (en) * 1999-11-22 2003-12-30 Accenture Llp Problem isolation through translating and filtering events into a standard object format in a network based supply chain
US7930531B2 (en) * 2000-01-06 2011-04-19 Super Talent Electronics, Inc. Multi-partition USB device that re-boots a PC to an alternate operating system for virus recovery
US8612553B2 (en) 2000-01-14 2013-12-17 Microsoft Corporation Method and system for dynamically purposing a computing device
US6728780B1 (en) * 2000-06-02 2004-04-27 Sun Microsystems, Inc. High availability networking with warm standby interface failover
US6732186B1 (en) * 2000-06-02 2004-05-04 Sun Microsystems, Inc. High availability networking with quad trunking failover
US6718383B1 (en) * 2000-06-02 2004-04-06 Sun Microsystems, Inc. High availability networking with virtual IP address failover
US6763479B1 (en) * 2000-06-02 2004-07-13 Sun Microsystems, Inc. High availability networking with alternate pathing failover
GB0112781D0 (en) * 2001-05-25 2001-07-18 Global Continuity Plc Method for rapid recovery from a network file server failure
US7194543B2 (en) * 2001-11-12 2007-03-20 Mci, Llc System and method for creating and managing survivable, service hosting networks
US7213246B1 (en) 2002-03-28 2007-05-01 Veritas Operating Corporation Failing over a virtual machine
US7178059B2 (en) * 2003-05-07 2007-02-13 Egenera, Inc. Disaster recovery for processing resources using configurable deployment platform
US7134052B2 (en) * 2003-05-15 2006-11-07 International Business Machines Corporation Autonomic recovery from hardware errors in an input/output fabric
CN1292346C (zh) 2003-09-12 2006-12-27 国际商业机器公司 用于在分布式计算体系结构中执行作业的系统和方法
WO2005036367A2 (en) * 2003-10-08 2005-04-21 Unisys Corporation Virtual data center that allocates and manages system resources across multiple nodes
US6996502B2 (en) * 2004-01-20 2006-02-07 International Business Machines Corporation Remote enterprise management of high availability systems
JP2005250839A (ja) * 2004-03-04 2005-09-15 Nomura Research Institute Ltd 耐障害性システム
US7844444B1 (en) * 2004-11-23 2010-11-30 Sanblaze Technology, Inc. Fibre channel disk emulator system and method
JP4733399B2 (ja) * 2005-01-28 2011-07-27 株式会社日立製作所 計算機システム、計算機、ストレージ装置及び管理端末
US7734945B1 (en) * 2005-04-29 2010-06-08 Microsoft Corporation Automated recovery of unbootable systems
US7484032B2 (en) * 2005-06-30 2009-01-27 Smith Roger A Fault tolerant computer system
JP4544146B2 (ja) * 2005-11-29 2010-09-15 株式会社日立製作所 障害回復方法
US7734596B2 (en) * 2005-11-30 2010-06-08 Stephen John Vivian Automatic failover configuration with redundant abservers
JP2007279890A (ja) * 2006-04-04 2007-10-25 Hitachi Ltd バックアップシステム及びバックアップ方法
US8266472B2 (en) * 2006-05-03 2012-09-11 Cisco Technology, Inc. Method and system to provide high availability of shared data
JP2008052407A (ja) * 2006-08-23 2008-03-06 Mitsubishi Electric Corp クラスタシステム
JP5068056B2 (ja) 2006-10-11 2012-11-07 株式会社日立製作所 障害回復方法、計算機システム及び管理サーバ
JP4923990B2 (ja) * 2006-12-04 2012-04-25 株式会社日立製作所 フェイルオーバ方法、およびその計算機システム。
JP4842210B2 (ja) * 2007-05-24 2011-12-21 株式会社日立製作所 フェイルオーバ方法、計算機システム、管理サーバ及び予備サーバの設定方法
JP2009080704A (ja) * 2007-09-26 2009-04-16 Toshiba Corp 仮想計算機システム及び同システムにおけるサービス引き継ぎ制御方法
US8181174B2 (en) * 2007-12-28 2012-05-15 Accenture Global Services Limited Virtual machine configuration system
US8135985B2 (en) * 2009-06-17 2012-03-13 International Business Machines Corporation High availability support for virtual machines
US7992031B2 (en) * 2009-07-24 2011-08-02 International Business Machines Corporation Automated disaster recovery planning

Also Published As

Publication number Publication date
US8234515B2 (en) 2012-07-31
MX2010012247A (es) 2011-10-28
CA2718888A1 (en) 2011-10-01
AU2010241431A1 (en) 2011-10-20
CA2718888C (en) 2017-08-29
SG174662A1 (en) 2011-10-28
JP2011216072A (ja) 2011-10-27
EP2372555B1 (en) 2012-10-24
EP2372555A1 (en) 2011-10-05
CN102214128B (zh) 2014-07-30
CN102214128A (zh) 2011-10-12
US20110246813A1 (en) 2011-10-06
AU2010241431B2 (en) 2012-08-30

Similar Documents

Publication Publication Date Title
JP5384467B2 (ja) 再目的化可能回復環境
US11533311B2 (en) Automatically deployed information technology (IT) system and method
JP6514308B2 (ja) 複製されたデータインスタンスのためのフェイルオーバーおよび復旧
CN106716360B (zh) 支持多租户应用服务器环境中的补丁修补的系统和方法
US8935216B2 (en) Automated computing appliance cloning or migration
JP5142678B2 (ja) デプロイ方法およびシステム
US7933987B2 (en) Application of virtual servers to high availability and disaster recovery solutions
US20070283343A1 (en) Installation of a Bootable Image for Modifying the Operational Environment of a Computing System
US20110289342A1 (en) Method for the file system of figure 7 for the cluster
US20130246838A1 (en) Discovering boot order sequence of servers belonging to an application
JP2022536706A (ja) セキュリティが強化された自動的に配備される情報技術(it)システム及び方法
US11615006B2 (en) Virtual network life cycle management
Quintero et al. IBM PowerHA SystemMirror for AIX Cookbook

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131002

R150 Certificate of patent or registration of utility model

Ref document number: 5384467

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250