JP2004295465A - 計算機システム - Google Patents

計算機システム Download PDF

Info

Publication number
JP2004295465A
JP2004295465A JP2003086907A JP2003086907A JP2004295465A JP 2004295465 A JP2004295465 A JP 2004295465A JP 2003086907 A JP2003086907 A JP 2003086907A JP 2003086907 A JP2003086907 A JP 2003086907A JP 2004295465 A JP2004295465 A JP 2004295465A
Authority
JP
Japan
Prior art keywords
storage subsystem
volume
information
computer
configuration information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003086907A
Other languages
English (en)
Inventor
Norifumi Nishikawa
記史 西川
Kazuhiko Mogi
和彦 茂木
Nobuo Kawamura
信男 河村
Takashi Oeda
高 大枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2003086907A priority Critical patent/JP2004295465A/ja
Priority to US10/788,452 priority patent/US7020744B2/en
Priority to EP04005339A priority patent/EP1462943A3/en
Publication of JP2004295465A publication Critical patent/JP2004295465A/ja
Priority to US11/281,384 priority patent/US7139889B2/en
Priority to US11/526,047 priority patent/US7313662B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2087Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring with a common controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2033Failover techniques switching over of hardware resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2038Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant with a single idle spare processing component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2069Management of state, configuration or failover
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2097Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements maintaining the standby controller/processing unit updated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2071Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring using a plurality of controllers
    • G06F11/2074Asynchronous techniques

Abstract

【課題】ディザスタリカバリシステムでは、正・副双方のサイトで計算機及び記憶装置が必要であり安価に導入できないという課題がある。また、副サイト側の設定を手動で行わなければならず設定ミス等が発生するという課題がある。
【解決手段】正サイトの構成情報を記憶装置サブシステムに書き出す構成定義作成ステップと、該記憶装置に書き出された該構成情報を該ネットワークを経由して副サイトの記憶装置サブシステムに複製するデータ転送ステップと、該転送された該構成情報を受信し副サイトの記憶装置サブシステムに記憶するデータ受信ステップと、該記憶した構成情報を読み出し副サイトのサーバの設定を行う構成定義ステップを設ける。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、記憶装置サブシステム間でデータを転送することにより、災害時におけるデータ保全を行うディザスタリカバリシステムに関する。
【0002】
【従来の技術】
ネットワークに新たな計算機を追加する技術として、特許文献1が知られている。特許文献1には、第一の計算機、オペレーティングシステム(以下「OS」)を格納した第一の記憶装置サブシステム及び第一の記憶装置サブシステムに格納されたデータの複製を格納する第二の記憶装置サブシステムからなるネットワークシステムに第二の計算機が追加された場合に、第一の計算機が第二の記憶装置サブシステムの設定変更を行って第二の計算機に第二の記憶装置サブシステムを割当てることにより、第二の記憶装置サブシステムに格納されたOSを第二の計算機にインストールする技術が開示されている。
【0003】
また、記憶装置サブシステムに設定される共有ディスクを用いた2重系システム(以下、HA(High Avairability)構成と記す)の設定方法として、非特許文献1に開示された技術が知られている。本方法では、副系の計算機が記憶装置サブシステムに作成された共有ディスクを検出してその共有ディスクのボリューム情報を読み出すことにより、HA構成における副系の計算機の共用ボリュームの定義を行う。これにより、HA構成に含まれる副系の計算機に、自動的にボリュームを認識させることができる。
【0004】
【特許文献1】
特開2002−278769号公報
【非特許文献1】
VERITAS Cluster Volume Manager VERITAS Cluster File System クラスタ環境のための新しいVERITASのボリューム管理及びファイルシステムテクノロジ、http://www.veritas.com/jp/products/pdfs/cvm_cfs_wp.pdf
【0005】
【発明が解決しようとする課題】
特許文献1では、第二の計算機が追加された後、第一の計算機が第二の記憶装置サブシステムの設定変更を行っている。したがってこの場合、第一の計算機に障害が発生すると、第二の計算機は第二の記憶装置サブシステムを使用することが出来ない。また、ディザスタリカバリシステムとして使用する場合、第一・第二双方の計算機が必須となるので、安価なディザスタリカバリシステムを提供できない。
【0006】
また、非特許文献1に開示された技術では、副系の計算機が自動的に共有ボリュームを認識することが出来るが、正系の計算機と副系の計算機は同一の記憶装置サブシステムを共有する必要があり、このままではディザスタリカバリシステムには使用できない。また、非特許文献1の技術をディザスタリカバリシステムへ転用することを考える。この場合、ディザスタリカバリシステムでは正サイト・副サイトでディスク装置の実体が異なることが多く、正副記憶装置サブシステム間でディスク装置の計算機に対するエミュレーションタイプや記憶容量等の整合性が保証されず、このままでは副サイトの計算機が自動的にボリュームを認識することが出来ないという課題がある。
【0007】
また、正サイトで稼動していたデータベース等のアプリケーションを副サイトで継続して稼動させたい場合、従来では、人手によって副サイトの設定を行う必要があり、速やかな継続稼動が出来なかった。
【0008】
本発明の目的は、ディザスタリカバリシステムの副サイトの構築を容易にし、かつ安価なディザスタリカバリシステムを提供することである。
【0009】
【課題を解決するための手段】
上記の目的を解決するために、本発明は以下の構成とする。すなわち、第一の計算機、第一の計算機と接続される第一の記憶装置サブシステム、及び第一の記憶装置サブシステムと接続される第二の記憶装置サブシステムとを有する計算機システムにおいて、第一の計算機が有する、第一の記憶装置サブシステムを使用する際に必要となる情報や各種の環境変数等(以下「構成情報」)を第一の記憶装置サブシステムに送信し、第一の記憶装置サブシステムが、送信された構成情報を記憶装置サブシステムが有する記憶装置に格納する。その後、第一の記憶装置サブシステムは、第一の記憶装置サブシステムに格納された構成情報を第二の記憶装置サブシステムに転送して複製し、第二の記憶装置サブシステムが、転送された構成情報を受信して第二の記憶装置サブシステムが有する記憶装置に格納する。更に、計算機システムに第二の計算機が追加された際に、第二の計算機が第二の記憶装置サブシステムに格納された構成情報を読み出して第二の計算機自身の設定を行う。
【0010】
ここで、計算機自身の設定とは、記憶装置サブシステムが有する記憶領域のマウント、各種アプリケーションで使用される定義情報の読み込み等がある。
【0011】
尚、構成情報には、アプリケーションの実行の際に必要になる定義情報や、計算機に記憶領域をマウントする際に必要となる情報等が含まれる。
【0012】
【発明の実施の形態】
以下、図1〜図10を用いて本発明の実施形態について説明する。図1は、本発明が適用される計算機システムの一実施形態の構成を示す図である。本システムは、サーバ1a、サーバ1b、記憶装置サブシステム2a及び記憶装置サブシステム2bを有する。これらの装置は、ネットワーク3で相互に接続されている。尚、サーバ1bは、後述する通り、後にネットワーク3に接続される計算機でも良い。
【0013】
本システムでは、サーバ1a及び記憶装置サブシステム2aをまとめて正サイトと称する。また、サーバ1b及び記憶装置サブシステム2bをまとめて副サイトと称する。
【0014】
サーバ1は計算機であり、CPU101、主記憶102、ネットワークインタフェース103、ディスプレイ104、キーボード105、CD−ROM106、コントローラ107、ディスク装置108、及びデータインタフェース109を有する。
【0015】
記憶装置サブシステム2はデータを格納する記憶装置であり、ポート21、ディスクコントローラ22、制御メモリ23、プロセッサ24、キャッシュメモリ25、及びディスク装置26を有する。なお、ここでディスク装置108及び26は論理的な記憶装置であり、実際には複数個の物理的記憶装置が一つの論理的な記憶装置を構成していてもよい。この場合、複数個の物理的記憶装置がディスクアレイを構成していても良い。ここで、物理的記憶装置とは、ハードディスクドライブやDVDといった記憶媒体を有する物理的な記憶装置である。
【0016】
サーバ1のディスク装置108には、データベース管理システムプログラム4、アプリケーションプログラム5、構成定義作成プログラム6及びボリュームマウントプログラム18が格納される。これらのプログラムは、CD−ROM106からディスク装置108にインストールされ、その後主記憶102に読み出され、CPU101により実行される。尚、CD−ROM106ではなく、サーバ1に接続されるネットワーク3等を介してディスク装置108にこれらのプログラムがインストールされても良い。
【0017】
記憶装置サブシステム2aの制御メモリ23aには、正サイトのディスク装置26と副サイトのディスク装置26の対応関係(以下「ペア関係」)を管理するペア定義テーブル7、一つ以上のディスク装置26(26a〜26cの何れか一つ以上)を一つ又はそれ以上の記憶領域(以下「ボリューム」)として管理するためのボリューム定義テーブル8a、及びディスク装置26に記憶されたデータを副サイトの記憶装置サブシステム2bに転送する際にプロセッサ24aが実行するデータ転送プログラム16が格納されている。
【0018】
あるボリュームの先頭部分(又はボリューム内の事前に決められた位置。以下の説明ではボリュームの先頭部分に格納されるとして説明をする。尚、その格納位置は正副サイトで共有される。副サイトは、あらかじめ正サイトあるいはユーザ等からその格納位置に関する情報を入手する)に対応するディスク装置26には、そのボリュームがOSのファイルシステムのどの部分に割り当てられる(以下「マウントされる」)かを示す構成定義テーブル9が格納される。また、ボリュームを構成するディスク装置26には、そのボリュームを使用するサーバ1上で稼動するデータベース管理システムプログラム4やアプリケーションプログラム5についての設定情報が登録される定義情報ファイルの名称が登録される環境変数定義ファイル15が格納される。尚、環境変数定義ファイル15には、その他にも、サーバ1で実行されるプログラムの設定情報等のサーバ1の環境変数の情報が登録されたファイルの格納位置についての情報が登録される。
【0019】
本実施形態では、環境変数定義ファイル15には、そのボリュームがマウントされるファイルシステムで所定の名称が与えられる。環境変数定義ファイル15に登録される値はアプリケーションプログラム5等に固有の名称を示す値であり、ファイル名ではなく例えば作業ディレクトリ名であってもよい。
【0020】
ディスク装置26には、さらにデータベース管理システムプログラム4の定義情報ファイルであるDBMS定義情報ファイル10及びアプリケーションプログラム5の定義情報ファイルであるアプリケーション定義情報ファイル13が格納される。これらは、環境変数定義ファイル15に登録されたファイル名が付与されてディスク装置26に格納される。
【0021】
サーバ1は、構成定義作成プログラム6を実行することで、環境変数定義ファイル15及び各プログラムの定義情報ファイルを作成する。
【0022】
また、ディスク装置26には、データベース管理システムプログラム4やアプリケーションプログラム5で使用されるデータ14も記憶される。さらに、データベース管理システムプログラム4、アプリケーションプログラム5及び構成定義作成プログラム6が記憶装置サブシステム2aのディスク装置26に格納されていても良い。この場合、サーバ1は、これらのプログラムを使用する際には、ネットワーク3を介して記憶装置サブシステム2からこれらのプログラムを読み出して、ディスク装置108等に格納して使用する。
【0023】
記憶装置サブシステム2bの制御メモリ23bには、データ受信プログラム17、ペア定義テーブル7、ボリューム定義テーブル8b及び定義チェックプログラム11が格納される。
【0024】
データ受信プログラム17は、記憶装置サブシステム2bが、記憶装置サブシステム2aからネットワーク3及びポート21dを経由して転送されたデータを受信し、ディスク装置26d〜26fにデータを格納する際に、プロセッサ24bで実行される。
【0025】
定義チェックプログラム11は、記憶装置サブシステム2bが、記憶装置サブシステム2aから受信したデータが構成定義テーブル9に含まれるデータであるか否かを判断し、構成定義テーブル9である場合には構成定義内容のチェックを行う際に、プロセッサ24bで実行される。
【0026】
また、ディスク装置26d〜26fには、記憶装置サブシステム2aのディスク装置26に記憶されている構成定義テーブル9、環境変数定義ファイル15、DBMS定義情報10、アプリケーション定義情報13及びデータ14の複製が記憶される。
【0027】
図2は、ペア定義テーブル7の構成の例を示す図である。ペア定義テーブル7は、ペア関係の集合であるグループの名称が登録されるグループ名フィールド201、ペア関係の名称が登録されるペア名フィールド202、ペア関係を構成する正サイトの記憶装置サブシステム2aのポートの情報が登録される正ポートフィールド203、ペア関係を構成する正サイトの記憶装置サブシステム2aの論理ユニット名が登録される正論理ユニットフィールド204、ペア関係を構成する副サイトの記憶装置サブシステム2bのポートの情報が登録される副ポートフィールド205、ペアを構成する副サイトの記憶装置サブシステム2bの論理ユニット名が登録される副論理ユニットフィールド206及びペア関係の状態を示す情報が登録される状態フィールド207を有する。
【0028】
論理ユニット(以下「LU」)は、ディスク装置26で構成される記憶領域を管理する際の単位である。また、ボリュームは、LUへのアクセスに使用されるポートの名称とボリュームを構成するLUの名称との組み合わせにより一意に識別される。以下、ボリュームを表記する際に、ポートの名称及びLUの名称を用いてボリューム(ポート名称、LU名称)と表記する。尚、本実施形態では、LU一つが一つのボリュームに対応するとして説明するが、複数のLUが一つのボリュームを構成しても良い。
【0029】
図2の例では、2つのペア関係P1、P2を持つグループG1が定義されており、P1を構成する正サイトのボリュームがボリューム(ポート21b、LU0)、P1を構成する副サイトのボリュームがボリューム(ポート21d、LU0)、及び状態がACTIVEであることがレコード208aにより示されている。ここで、ACTIVEとは、レコード208で示されたペア間でデータの複製処理、すなわち正副サイトのデータの内容を一致させる処理が行われている最中であることを示している。また、P2を構成する正サイトのボリュームがボリューム(ポート21b、LU1)、P2を構成する副サイトのボリュームがボリューム(ポート21d、LU1)、及びその状態がACTIVEであることがレコード208bにより示されている。
【0030】
図3は、ボリューム定義テーブル8の構成の例を示す図である。ボリューム定義テーブル8は、ユーザがボリューム定義プログラムを用いて予め設定する。ここで、ボリューム定義プログラムとは、ネットワーク3に接続される管理用の計算機(図示せず)で実行されるプログラムである。ユーザは、管理用の計算機を介して、記憶装置サブシステム2に設定すべきボリュームの情報を記憶装置サブシステム2に送付する。
【0031】
記憶装置サブシステム2は、送付された情報をボリューム管理テーブル8に登録する。ボリューム定義テーブル8は、ボリュームを識別するポートの情報が登録されるポートフィールド305、ボリュームを構成するLUの情報が登録されるLUフィールド301、ボリュームを構成するディスク装置26の情報が登録されるドライブフィールド302、及び計算機がボリュームを使用する方法(以下、「エミュレーションタイプ」)を示す情報が登録されるエミュレーションタイプフィールド303を有する。
【0032】
本実施形態においては、例として、制御メモリ23aには、図3の上段に示すボリューム定義テーブル8aが、制御メモリ23bには、図3の下段に示すボリューム定義テーブル8bがそれぞれ格納される。図3に示したボリューム定義テーブル8aには2つのボリュームが登録されており、ボリューム(ポート21b、LU0)はディスク装置26aから構成されエミュレーションタイプがなしであることがレコード303aから、ボリューム(ポート21b、LU1)はディスク装置26b及び26cから構成され、エミュレーションタイプがRAID1であることがレコード303b及び303cからわかる。
【0033】
一方、テーブル8bには2つのボリュームが登録されており、ボリューム(ポート21d、LU0)はディスク装置26dから構成されエミュレーションタイプはなしであることがレコード303dから、ボリューム(ポート26d、LU1)はディスク装置26e及び26fから構成されエミュレーションタイプがRAID1であることがレコード303e及び303fからわかる。
【0034】
図4は、構成定義テーブル9の構成の例を示す図である。構成定義テーブル9は、正サイトの記憶装置サブシステム2aの場合は、サーバ1aがボリュームマウントプログラム18を実行することにより、副サイトの記憶装置サブシステム2bの場合は、正サイトの記憶装置サブシステム2aから転送された構成定義テーブル9を、記憶装置サブシステム2bがボリュームに書き込むことによりそれぞれ作成される。
【0035】
構成定義テーブル9は、ボリュームがマウントされるディレクトリを示す情報が登録されるマウント先フィールド401、ボリュームの記憶容量を示す情報が登録される容量フィールド402、エミュレーションタイプを示す情報が登録されるエミュレーションタイプフィールド403を有する。
【0036】
図4上段に示すテーブル9aは、記憶装置サブシステム2aのボリューム(ポート21d、LU0)(ディスク装置26aから構成されている)に格納される構成定義テーブル9の例であり、ボリューム(ポート21d、LU0)のマウント先のディレクトリが/AP/vol1、容量が100MB、エミュレーションタイプがなしであることを示す情報がレコード403aに登録されている。尚、以下、ファイルシステムにおけるファイルあるいはディレクトリを示す表記として、ファイルシステム内のアクセスパスの表記「/AP/vol1」等を用いる。
【0037】
図4下段に示すテーブル9bは、記憶装置サブシステム2aのボリューム(ポート26d、LU1)(ディスク26a及び26bから構成されている)に格納される構成定義テーブル9の例であり、ボリューム(ポート26d、LU1)のマウント先のディレクトリが/DB/vol1、容量が200MB、エミュレーションタイプがRAID1であることを示す情報がレコード403bに登録されている。
【0038】
以下、図1を用いて本システムの動作の概要を示す。まず、ユーザは、予め管理用の計算機等を使用して、記憶装置サブシステム2aのボリューム定義テーブル8aに値を設定しておく。
【0039】
次に、サーバ1aの起動時、サーバ1aは、記憶装置サブシステム2aに存在するボリュームをファイルシステムにマウントする。その際、サーバ1aは、ボリュームを構成するディスク装置26に、そのボリュームとマウント先のファイルシステムについての関係を示す構成情報である構成定義テーブル9を作成・格納する。
【0040】
次に、サーバ1aは、データベース管理システムプログラム4aの実行の際に使用される定義情報ファイルであるDBMS定義情報10及びアプリケーション5aの実行の際に使用される定義情報ファイルであるアプリケーション定義情報13を作成し、これら作成された情報をボリュームに格納する。また、サーバ1aは、これら定義情報ファイル等の環境変数の記憶装置サブシステム2aにおける格納場所を示す情報を登録するファイルとして環境変数定義ファイル15を作成し、記憶装置サブシステム2aのボリュームに格納する。
【0041】
副サイトの構成時、ユーザは、予め、ネットワーク3に副サイトの記憶装置サブシステム2bを接続し、管理用の計算機等を介して、記憶装置サブシステム2bのボリューム定義テーブル8bを作成し値を登録する。次に、サーバ1aは、記憶装置サブシステム2aに対して、ディスク装置26a〜cに格納されたデータを記憶装置サブシステム2bにそれぞれ転送するよう指示する。これにより、ディスク装置26a〜cに格納された構成定義テーブル9、環境変数定義ファイル15、アプリケーション定義情報13、DBMS定義情報10及びデータ14が副サイトの記憶装置サブシステム2bに記憶される。
【0042】
尚、上述のデータ転送の際、記憶装置サブシステム2bは、転送されるデータに構成定義テーブル9の情報が含まれるかどうか及び転送された構成定義テーブル9の情報と記憶装置サブシステム2bが有するボリュームとの間の整合性をチェックする。尚、整合性が取れない場合、記憶装置サブシステム2bは、構成定義テーブル9の情報をディスク装置26に保存しない。
【0043】
サーバ1bがネットワーク3に接続され起動されると、サーバ1bは、構成定義プログラム12を実行し、記憶装置サブシステム2bのボリューム認識及びボリュームのマウントを行う。
【0044】
この際、サーバ1bは、ディスク装置26に格納されている構成定義テーブル9aを読み出すことでそのディスク装置26で構成されるボリュームのマウント先ディレクトリ名を取得し、取得したマウント先ディレクトリ名に基づいて、ボリュームのマウントを行う。尚、サーバ1bは、ペア定義テーブル7を参照して、ボリュームのペア状態が全てSUSPEND状態であるグループをマウントの対象とする。
【0045】
その後、サーバ1bは、マウントされたボリュームから環境変数定義ファイル15を取得し、本ファイル15から各種定義情報ファイルの格納場所を確認して、データベース管理システムプログラム4bやアプリケーションプログラム5bを起動する。これにより、サーバ1bは、ボリュームから構成定義テーブル9等の構成情報を読み出すだけで、そのボリュームのマウント先となるファイルシステム、そのボリュームを使用するアプリケーション等の設定情報を自動的に取得することが出来、サーバ1a無しにボリュームのマウント、アプリケーションの設定をすることができる。以下、上述した処理の詳細な手順について図を用いて説明する。
【0046】
図8は、サーバ1が、CPU101でボリュームマウントプログラム18を実行することでボリュームのマウントを行う処理1000の手順を示す図である。まず、サーバ1は、ユーザよりボリュームをマウントしたいディレクトリの名称(以下「マウント先ディレクトリ名」)とマウントするボリュームを示すデバイスファイル名を取得する。
【0047】
尚、後述するが、ユーザが使用するアプリケーションプログラムやファイルシステム上では、ボリュームはデバイスファイル名で認識される。サーバ1は、後述するボリューム−デバイスファイルマップによって、デバイスファイル名から所定のボリュームを構成するポート及びLUの情報を取得し、これらの情報を用いて、記憶装置サブシステム2に対し、ボリュームの指定を行う(ステップ1001)。
【0048】
次に、サーバ1は、デバイスファイル名で指定されたボリュームの先頭に、構成定義テーブル9が格納されているか否かをチェックする。具体的には、サーバ1は、指定されたボリュームを示す情報(具体的にはポート名及びLU名)及び構成定義テーブル9を要求するコマンドを記憶装置サブシステム2に送信し、その結果を記憶装置サブシステム2から受信する。尚、サーバ1は構成定義テーブル9が格納されている場所(本実施形態ではボリュームの先頭)についての情報を他のサーバ1又はユーザからの入力等で得ている。したがって、サーバ1は、構成定義テーブル9を要求するコマンドに、その格納されている場所を示す情報を含めて送付する。ただし、構成定義テーブル9が格納されている場所に関する情報を記憶装置サブシステム2が有する構成としても良い。この場合には、サーバ1は、単に構成定義テーブル9を要求するコマンドを記憶装置サブシステム2に送信するだけでよい(ステップ1005)。
【0049】
ユーザに指定されたボリュームに構成定義テーブル9が格納されてなければ、サーバ1は、まず、ボリューム定義テーブル8のサイズフィールド306とエミュレーションタイプフィールド303を参照し、指定されたボリュームの記憶容量とエミュレーションタイプを取得する。具体的には、サーバ1は、記憶装置サブシステム2に対して、ボリュームを指定し、記憶容量及びエミュレーションタイプの情報の送信を要求し、これらの情報を受信する(ステップ1002)。
【0050】
次にサーバ1は、そのボリュームのマウント先ディレクトリ名、記憶容量及びエミュレーションタイプに基づいて構成定義テーブル9を作成し、記憶装置サブシステム2に送信する。構成定義テーブル9の格納先は、指定されたボリュームの先頭部分である。具体的には、サーバ1は、マウント先ディレクトリ名、記憶容量及びエミュレーションタイプの情報を記憶装置サブシステム2に送信し、これらの情報を指定したボリュームの先頭に書き込むよう指示する。この際、サーバ1は、指定したボリュームに対応する環境変数定義ファイル15を作成し、併せて指定したボリュームに格納するよう、記憶装置サブシステム2に指示する(ステップ1003)。
【0051】
最後にサーバ1は、指定されたボリュームを、ステップ1001で取得したマウント先ディレクトリ名、又はサーバ1が指定したマウント先ディレクトリ名に対応する場所にマウントする(ステップ1004)。ステップ1005で構成定義ファイル9があると判断した場合は、サーバ1は、そのまま上述したステップ1004の処理を実行する。
【0052】
図5は、記憶装置サブシステム2bが、データ受信プログラム17及び定義チェックプログラム11を実行することによって行う処理手順の例を示す図である。記憶装置サブシステム2bは、これらの処理を行うことによって、記憶装置サブシステム2aから送信された情報の内容を確認する。
【0053】
尚、記憶装置サブシステム2間で転送されるデータには、データ転送の単位ごとに、正サイトのポート名、LU名及び位置を示す情報が付与されている。データを受信した記憶装置サブシステム2bは、記憶装置サブシステム2bにおけるペア定義テーブル7の正ポートフィールド203及び正LUフィールド204の値が受信したデータに含まれるポート名及びボリューム名と一致するレコード208に対応する副ポートフィールド205及び副LUフィールド206によって識別されるボリュームを、受信したデータが格納されるボリュームとして特定する。さらに、記憶装置サブシステム2bは、データのボリューム内の格納位置を、受信したデータに含まれる位置情報の値により決定する。尚、ボリュームがRAID構成のディスク装置26で構成されている場合は、どのディスク装置26のどの位置にデータが記録されるかは記憶装置サブシステム2により一意に決定される。
【0054】
データを受信した記憶装置サブシステム2bは、まず、受信したデータの中に、構成定義テーブル9が含まれているか否かを判定する。具体的には、構成定義テーブル9がボリュームの先頭に格納されている場合、記憶装置サブシステム2bは、ボリュームの先頭データが記憶装置サブシステム2aから送られたか否かで構成定義テーブル9が受信したデータに含まれているかどうか判定する。ボリュームの先頭データであるか否かは、転送されるデータに含まれる位置についての情報で判断される。
【0055】
尚、記憶装置サブシステム2bは、構成定義テーブル9の格納位置(ここではボリュームの先頭)についての情報を、あらかじめ正サイトやユーザ等から入手する。入手の方法としては、正サイトのサーバ1aが格納位置に関する情報を記憶装置サブシステム2bに転送する例や、ユーザが管理端末を解してボリューム定義テーブルを登録する際に格納位置に関する情報を併せて登録しても良い(ステップ601)。
【0056】
受信したデータに構成定義テーブル9が含まれている場合、記憶装置サブシステム2bは、転送された構成定義テーブル9が格納されるボリュームの記憶容量が、転送された構成定義テーブル9のフィールド402に登録された記憶容量より大きいかチェックする。尚、転送された構成定義テーブル9が格納されるボリュームの記憶容量は、構成定義テーブル9の転送時に一緒に転送されるボリュームの情報(ポート名及びLU)に基づいて記憶装置システム2bがペア定義テーブル7及びボリューム定義テーブル8bを検索し、該当するレコードのサイズフィールド306を参照することで得られる(ステップ602)。
【0057】
フィールド402に登録された記憶容量より構成定義テーブル9が格納されるボリュームの記憶容量が大きい場合、記憶装置サブシステム2bは、ボリューム定義テーブル8bに登録された該当するボリュームのエミュレーションタイプと転送された構成定義テーブル9のエミュレーションタイプフィールド403に登録された値が等しいかをチェックする(ステップ603)。値が等しい場合、転送された構成定義テーブル9をボリュームに格納する。また、ステップ601で構成定義テーブル9が転送されていないと判断した場合も、記憶装置サブシステム2は、転送されたデータをボリュームに記憶する(ステップ604)。
【0058】
尚、ステップ602で、ボリュームの記憶容量がフィールド402に登録された記憶容量よりも小さいと判断された場合又はステップ603でエミュレーションタイプが異なると判断された場合、記憶装置サブシステム2bは、転送されたデータをディスク装置26に格納せずに処理を終了する。
【0059】
図6は、サーバ1bが、構成定義プログラム12を実行することによって実施する記憶装置サブシステム2bの構成定義処理の手順を示す図である。本処理によって、サーバ1bは、記憶装置サブシステム2bが有するボリュームを使用して、アプリケーションプログラム5等を実行することが出来るようになる。本処理は、例えば、サーバ1bがネットワーク3に接続され起動された際や、ユーザがサーバ1bにボリュームマウントコマンドを入力した際に実行される。
【0060】
まず、サーバ1bは、サーバ1bからアクセス可能な記憶装置サブシステム2bの全ポート及び全LUの情報を記憶装置サブシステム2bから取得し、これらの情報をサーバ1bのファイルシステムで管理されるデバイスファイルと対応付け、その対応関係を示したデータ、具体的には、図9に示したボリューム−デバイスファイルマップ1101を、主記憶102又はディスク装置108のいずれか一つに記憶する(ステップ704)。
【0061】
次に、サーバ1bは、記憶装置サブシステム2bが有するペア定義テーブル7の状態フィールド207の値が全てSUSPEND状態になっているグループの有無をチェックする。尚、SUSPEND状態とは、ペア関係を構成するボリューム間で、データの内容の一致を維持する処理が行われていない状態を示す(ステップ701)。全てSUSPEND状態になっているグループがあった場合、サーバ1bは、そのグループに対応する副ポートフィールド205及び副LUフィールド206に登録されている値を記憶装置サブスシステム2bのペア定義テーブル7から取得する(ステップ702)。
【0062】
次に、サーバ1bは、ステップ702で取得したポート及びLUを有するボリュームに対応するデバイスファイルをステップ704で作成したマップを使用して取得する。一方、サーバ1bは、取得したデバイスファイルに対応するボリュームの先頭から構成定義テーブル9を読出し、構成定義テーブル9のフィールド401を参照して、そのボリュームのマウント先ディレクトリ名を示す情報を取得する(ステップ703)。
【0063】
その後、サーバ1bは、取得したデバイスファイル名及びマウント先ディレクトリ名を引数として、ボリュームマウントプログラム18を実行し、ボリュームをマウント先となるファイルシステムにマウントする(ステップ1000)。ペア状態が全てSUSPENDであるグループに属する全てのボリュームのマウントが完了したら、サーバ1は、マウントされたボリュームから、環境変数定義ファイル15を取得し、取得した環境変数定義ファイル15に登録された値を確認する(ステップ705)。
【0064】
その後、サーバ1bは、データベース管理システムプログラム4bやアプリケーションプログラム5bの実行を開始する。データベース管理システムプログラム4bやアプリケーションプログラム5bの実行を開始する際、サーバ1bは、先に取得された環境変数定義ファイル15に登録された情報から定義情報ファイルの存在位置を特定し、それらのファイルを取得する(ステップ706)。
【0065】
以下、図1に示したシステムにおいて、副サイトの記憶装置サブシステム2bに、正サイトの構成情報(本実施形態では、構成定義テーブル、環境定義情報ファイル、及び各種プログラムの定義情報ファイルが含まれる)及びデータが転送される例について説明する。ここで、記憶装置サブシステム2aの制御メモリ23aには図2に示す状態のペア定義テーブル7及び図3に示すボリューム定義テーブル8aが存在するとする。また、記憶装置サブシステム2bの制御メモリ23bには、図2に示す状態のペア定義テーブル7及び図3に示すボリューム定義テーブル8bが存在するとする。
【0066】
ネットワーク3に接続されたサーバ1aが起動されると、サーバ1aは、まずデータインタフェース109aに接続された記憶装置サブシステム2aが保持するボリュームについての情報を記憶装置サブシステム2aから取得し、その情報をデバイスファイルと対応付け、ボリューム−デバイスファイルマップ1101aとして記憶する。ボリューム−デバイスファイルマップ1101aは、サーバ1aの主記憶102aに記憶される。図9は、ボリューム−デバイスファイルマップ1101の例を示す図である。この例では、デバイスファイル名が/dev/c1t1d1であるデバイスファイルにボリューム(ポート21b、LU0)が関連付けられ、デバイスファイル名が/dev/c1t1d2であるデバイスファイルにボリューム(ポート21b、LU1)が対応付けられている。
【0067】
次に、サーバ1aは、ユーザやアプリケーション等から、ボリュームをマウントするマウント先ディレクトリ名及びマウントされるボリュームに対応したデバイスファイル名を受信して、ボリュームマウントプログラム18を実行する(ステップ1000)。
【0068】
図10は、サーバ1aがユーザ等から受信する情報の例をマウント先ディレクトリ−デバイスファイルマップ1201として示す図である。マウント先ディレクトリ−デバイスファイルマップ1201を受信したサーバ1aは、マップ1201のレコード1202aから、デバイスファイル/dev/c1t1d1がディレクトリ/AP/vol1に、レコード1202bからデバイスファイル/dev/c1t1d2がディレクトリ/DB/vol1にそれぞれマウントされると判断する(ステップ1001)。
【0069】
その後、サーバ1aは、デバイスファイルで指定されたボリュームに構成定義テーブル9が格納されているか否かを判定する。サーバ1aはまず、/dev/c1t1d1として指定されたボリュームについて判定をする。サーバ1aは、ボリューム−デバイスファイルマップ1101aから、指定されたボリュームのポート等の情報、具体的には、ポート21b及びLU0を取得する。ポート等の情報を取得したサーバ1aは、これらの情報を用いて記憶装置サブシステム2aへアクセスし、ボリュームの先頭に対応するディスク装置26に構成定義テーブル9が格納されているかどうか判断する。本例においては、まだボリュームに構成定義テーブル9が記憶されていないため、サーバ1aは、構成定義テーブル9はなしと判定する(ステップ1005)。
【0070】
次に、サーバ1aは、ボリューム定義テーブル8aを参照し、マウントされるボリュームのエミュレーションタイプ及びサイズを取得する。本例においては、サーバ1aは、ポートフィールド305、LUフィールド301の値がそれぞれポート21b、LU0であるレコード304aのエミュレーションタイプフィールド303とサイズフィールド306を参照する。その結果、サーバ1aは、マウントされるボリュームのエミュレーションタイプはなし、サイズは100MBであるという情報を取得する(ステップ1002)。
【0071】
次に、サーバ1aは、取得したマウント先ディレクトリ名(/AP/vol1)、エミュレーションタイプ(なし)及びサイズ(100MB)を用いて、構成定義テーブル9aのマウント先フィールド401、エミュレーションタイプ403及び容量402フィールドを作成する。その後、サーバ1aは、作成した構成定義テーブル9aを記憶装置サブシステム2aに送信し、マウントされるボリュームの先頭に記憶するよう、記憶装置サブシステム2aに指示する。この例では、図3のボリューム定義テーブル8aのレコード304aのドライブフィールド302から、ボリュームを構成するディスク装置26がディスク装置26aであることがわかる。従って、構成定義テーブル9aは、ディスク装置26aの先頭に配置される(ステップ1003)。
【0072】
その後、サーバ1aは、取得したマウント先ディレクトリ名で指定された位置に、/dev/c1t1d1に関連付けられたボリューム(ポート21b、LU0)をマウントする(ステップ1004)。
【0073】
サーバ1aは、レコード1202bに示されたデバイスファイルに関連付けられたボリュームに対しても同様の処理を行い、ボリューム(ポート21b、LU1)の先頭に図4に示す構成定義テーブル9bを格納するよう記憶装置サブシステム2aに指示し、/DB/vol1で示された位置にボリューム(ポート21b、LU1)をマウントする。
【0074】
この例では、図3のボリューム定義テーブル8aのレコード304b及び304cのドライブフィールド302から、ボリュームを構成するディスク装置26がディスク装置26b及びディスク装置26cであることがわかる。ボリュームを構成するディスク装置26が複数ある場合、どのディスク装置26がボリュームの先頭に対応するかは記憶装置サブシステム2aが決定する。この例ではディスク装置26bが先頭であるので、構成定義テーブル9bは、ディスク装置26bの記憶領域の先頭に配置される。
【0075】
次に、サーバ1aは、サーバ1aで定義された環境変数、具体的にはアプリケーションの定義情報ファイル等の格納場所を示す情報を記憶装置サブシステム2aに送信する。また、この際サーバ1aは、マウントしたボリューム内に予め決められたファイル名の環境変数定義ファイル15を設定し、そのファイル15に送信した情報を格納するよう、記憶装置サブシステム2aに指示を出す。本実施形態では、環境変数定義ファイル15のファイル名を/AP/vol1/env.txtとし、記憶位置はディスク装置26aとする。本実施形態では、環境変数定義ファイル15には、DBMS構成定義情報ファイルが/DB/vol1/db.confに、AP構成定義情報ファイルが/AP/vol1/ap.confにそれぞれ格納されることを示す情報が登録される(ステップ501)。
【0076】
その後、サーバ1aは、環境変数定義ファイル15に登録された位置に、データベース管理システム4a及びアプリケーション5aの定義情報ファイルを出力する。本例では、データベース管理システム4aの定義情報10は/DB/vol1/db.conf、アプリケーションプログラム5aの定義情報13は/AP/vol1/ap.confで示されるファイルとして記憶される。/DB/vol1にマウントされたボリュームを構成するディスク装置26はディスク装置26b及び26cであるが、本例では、DBMS定義情報10はディスク装置26bに記憶される。また、/AP/vol1にマウントされたボリュームを構成するディスク装置26は記憶装置26aであるので、アプリケーション定義情報10はディスク装置26aに記憶される(ステップ502)。
【0077】
次に、記憶装置サブシステム2aのディスク装置26a〜26cに格納されたデータを、ネットワーク3を経由して記憶装置サブシステム2bのディスク装置26d〜26fに転送する手順を説明する。このデータの転送は、ペア定義テーブル7が作成された後実施される。また、本処理は、ユーザが、サーバ1等を介して記憶装置サブシステム2にデータの転送を指示することを契機に開始される。
【0078】
記憶装置サブシステム2aは、ディスク装置26a〜26cに格納されたデータに、自分自身のポート、LU及びデータの格納位置の情報を付加して、記憶装置サブシステム2bに転送する。尚、データ転送が完了した後に、ディスク装置26a〜26cに格納されたデータが更新された場合は、システムにおいてデータの内容の一致を維持する状態である場合には、記憶装置サブシステム2aは、更新が行われた部分のみのデータを記憶装置サブシステム2bに転送する。
【0079】
記憶装置サブシステム2aからデータを受信した記憶装置サブシステム2bは、図5で示した処理を行う。まず、記憶装置サブシステム2bは、記憶装置サブシステム2aから構成定義テーブル9が転送されたか否かを判断する。具体的には、転送されたデータがボリュームの先頭に格納されたデータか否かにより判断される。ボリュームの先頭に格納されたデータかどうかは、転送されたデータに付随する位置情報の値が0か否かで判断される(ステップ601)。
【0080】
図4に示す構成定義テーブル9aが転送された場合、記憶装置サブシステム2bは、定義チェックプログラム11を実行することで、転送されたデータに付随するポート及びLUの情報を参照して、記憶装置サブシステム2aのポート及びLUの情報を取得する。本例においては、ポート21b及びLU0という情報が取得される。次に、記憶装置サブシステム2bは、ペア定義テーブル7の正ポートフィールド203と正LUフィールド204の値がそれぞれポート21b、LU0であるレコード208aを制御メモリ23bに記憶されたペア定義テーブル7から取得し、そのレコード208aの副ポートフィールド205及び副LUフィールド206の値(ここではポート21d、LU0)を得る。
【0081】
次に、記憶装置サブシステム2bは、ボリューム定義テーブル8bのポートフィールド305及びLUフィールド301の値がポート21d、LU0であるレコード304dを取得し、このレコード304dのサイズフィールド306の値100MBと、構成定義テーブル9のレコード404aの容量フィールド402の値100MBとを比較する(ステップ602)。双方の値は等しいため、記憶装置サブシステム2bはレコード304dのエミュレーションタイプ303とレコード404aのエミュレーションタイプ403が等しいか否かチェックする(ステップ603)。
【0082】
双方ともにエミュレーションタイプなしで等しいため、記憶装置サブシステム2bは、その後、転送されたデータをボリューム(ポート21d、LU0)に記憶する。記憶位置は、データに付随する位置情報で示された位置である。
【0083】
上記処理を転送されるデータ全てで繰り返すことにより、正サイトの記憶装置サブシステム2aのディスク装置26a〜26cに記憶された構成定義テーブル9、環境変数定義ファイル15、アプリケーション定義情報13、DBMS定義情報10及びデータ14が、副サイトの記憶装置サブシステム2bのディスク装置26d〜26fに複製される。また、データの複製後、正サイトのディスク装置26a〜26cに更新が行われた場合も、その変更が副サイトのディスク装置26d〜26fに反映される。
【0084】
次に、ネットワーク3を介して副サイトの記憶装置サブシステム2bのポート21dとサーバ1bのデータインタフェース109bを接続し、サーバ1bが起動されサーバ1bの環境が設定されるまでの処理手順の例を説明する。
【0085】
サーバ1bを起動すると、構成定義プログラム12が主記憶102bに読み込まれ、CPU101bにより実行される。まずサーバ1bは、サーバ1bからアクセス可能な記憶装置サブシステム2bのポート及びLUをデバイスファイルに対応付ける。本例では、ポート21dからアクセス可能なLUはLU0、LU1の2つとし、それらにサーバ1bのファイルシステムにより決められたデバイスファイル名が対応付けられる。作成されたボリューム−デバイスファイルマップは図9の1101bに示す通りである。図9では、ボリューム(ポート21d、LU0)が/dev/c1t1d1に、ボリューム(ポート21d、LU1)が/dev/c1t1d2にそれぞれ対応付けられている。
【0086】
次に、サーバ1bは、記憶装置サブシステム2bの制御メモリ23bに存在するペア定義テーブル7の状態フィールド207を参照して、ボリュームのペア状態をチェックする。具体的には、フィールド207の値が全てSUSPENDであるグループがあるか否かを確認する。ペア定義テーブル7が図2に示す状態の場合、サーバ1bは「SUSPEND状態ではないレコードがある」と判断し、再度ステップ701の処理を繰り返す。
【0087】
ここで、正サイトに障害が発生すると、全てのペア関係のペア状態がSUSPEND状態になるが、この状態のペア定義テーブル7を図7に示す。この例では、グループG1の状態が全てSUSPEND状態であることがレコード208a、208bの状態フィールド207からわかり、その結果、サーバ1bは、「全てSUSPEND状態」と判断する。
【0088】
次に、サーバ1bは、全てSUSPEND状態になったグループのボリュームの情報をペア定義テーブル7から取得する。この例では、ボリューム(ポート21d、LU0)及びボリューム(ポート21d、LU1)の2つのボリュームが取得できる(ステップ702)。以下、取得したこれらのボリュームそれぞれについて、サーバ1bは、先述したステップ703、1000で規定される処理を順次実施する。
【0089】
まず、サーバ1bは、ボリューム(ポート21d、LU0)についてステップ703で説明した処理を実施する。具体的には、サーバ1bは、まずボリューム(ポート21d、LU0)に対応するデバイスファイル名をボリューム−デバイスファイルマップ1101bから取得する。一方、サーバ1bは、ボリューム(ポート21d、LU0)の先頭部分から構成定義テーブル9を読出す。本例では、ボリューム(ポート21b、LU0)に対応するディスク装置26は図3のボリューム定義テーブル8bに示す通りディスク装置26dであるので、サーバ1bは、ディスク装置26dから、構成定義テーブル9aを取得する。
【0090】
その後、サーバ1bは、取得した構成定義テーブル9aのレコード404aのマウント先フィールド401を参照し、ファイルシステムにおけるボリューム(ポート21d、LU0)のマウント先ディレクトリ名/AP/vol1を取得する。次に、サーバ1bは、マウント先ディレクトリ名/AP/vol1及び取得したデバイスファイル名/dev/c1t1d1を引数として、ボリュームマウントプログラム18を実行し、/AP/vol1に/dev/c1t1d1に関連付けられるボリュームをマウントする。同様に、ボリューム(ポート21d、LU1)も/DB/vol1にマウントされる。
【0091】
次に、サーバ1bは、環境変数定義ファイル15を取得する。本例においては、環境変数定義ファイル名はenv.txtであるので、サーバ1bは、マウントされた各ボリューム内にenv.txtがあるか否かをチェックする。尚、サーバ1bは、環境変数定義ファイル名を正サイト又はユーザ等より予め取得しておく。取得方法は、構成定義情報テーブルの格納位置の情報の取得方法と同一でよい。本例では/AP/vol1下にenv.txtが存在するので、サーバ1bは、env.txtを読み出して、サーバ1bに設定する(ステップ705)。環境変数定義ファイル15には、先述したように、DBMS構成定義ファイル名の値として/DB/vol1/db.confが、AP構成定義ファイル名の値として/AP/vol1/ap.confがそれぞれ登録されている。
【0092】
最後に、サーバ1bはデータベース管理システム4bを実行するが、サーバ1bは、先に取得した環境変数定義ファイル15に登録されたDBMS構成定義ファイル名の値からDBMS定義情報10を取得して、データベース管理システム4bを起動することが可能となる。同様に、アプリケーションプログラム5bについても環境変数定義ファイル15に登録された情報に基づいてアプリケーション定義情報13を取得することができ、アプリケーションプログラム5を起動することが可能となる。
【0093】
以上示したように、本実施形態によれば、正サイトの障害後に、ネットワーク3を経由して副サイトの記憶装置サブシステム2bのポート21dと、サーバ1bのデータインタフェース109bを接続し、サーバ1bを起動して環境を設定しデータベース管理システム、アプリケーションを起動することが可能となる。
【0094】
【発明の効果】
本発明によれば、ディザスタリカバリシステムにおいて、ディザスタリカバリシステムの副サイトの構築を容易にすることが可能かつ安価なディザスタリカバリシステムを提供することが可能となる。
【図面の簡単な説明】
【図1】本発明が適用されるシステムの構成例を示す図である。
【図2】ペア定義テーブル7の例を示す図である。
【図3】ボリューム定義テーブル8の例を示す図である。
【図4】構成定義テーブル9の例を示す図である。
【図5】データ受信の処理手順の例を示す図である。
【図6】構成定義プログラム12の手順例を示す図である。
【図7】サスペンド状態のペア定義テーブル7の例を示す図である。
【図8】ボリュームマウント処理の手順例を示す図である。
【図9】ボリューム−デバイスファイルマップの例を示す図である。
【図10】マウント先ディレクトリ−デバイスファイルマップの例を示す図である。
【符号の説明】
1…サーバ、2…記憶装置サブシステム、3…ネットワーク、101…CPU、102…主記憶、103…ネットワークインタフェース、104…ディスプレイ、105…キーボード、106…CD−ROM、107…コントローラ、108…記憶装置、109…データインタフェース、21…ポート、22…ディスクコントローラ、23…制御メモリ、24…プロセッサ、25…キャッシュメモリ、26…ディスク装置。

Claims (14)

  1. 第一の計算機、前記第一の計算機と接続される第一の記憶装置サブシステム及び前記第一の記憶装置サブシステムと接続される第二の記憶装置サブシステムを有し、
    前記第一の計算機は、
    該第一の計算機が有する構成情報を前記第一の記憶装置サブシステムに送信し、
    前記第一の記憶装置サブシステムは、前記構成情報を該第一の記憶装置サブシステムの所定の場所に格納し、前記構成情報を含む該第一の記憶装置サブシステムに格納されたデータを前記第二の記憶装置サブシステムに転送し、
    前記第二の記憶装置サブシステムは、前記第一の記憶装置サブシステムから送信されたデータを受信し、受信したデータに前記構成情報が含まれるか否かを確認し、前記構成情報を該第二の記憶装置サブシステム内の所定の場所に格納することを特徴とする計算機システム。
  2. 前記第二の記憶装置サブシステムに接続される第二の計算機を有し、
    前記第二の計算機は、
    前記第二の記憶装置システムの前記所定の場所に前記構成情報が格納されているかどうかを確認し、
    前記所定の場所から前記構成情報を読み出して前記構成情報に含まれる情報に従って該第二の計算機で使用される各種変数の設定を行うことを特徴とする請求項1記載の計算機システム。
  3. 前記第一の記憶装置サブシステムは、
    前記転送されたデータが前記第一の計算機によって更新された場合に、前記第二の記憶装置サブシステムに前記更新されたデータを送信し、
    前記第二の記憶装置サブシステムは、受信した前記更新されたデータを該第二の記憶装置サブシステムの更新されたデータを格納すべき場所に格納することを特徴とする請求項2記載の計算機システム。
  4. 前記第二の記憶装置サブシステムは、
    前記構成情報に含まれる情報と該第二の記憶装置サブシステムの構成を示す情報とを比較し、その内容が一致しない場合には前記構成情報の前記所定の場所への格納を中止することを特徴とする請求項3記載の計算機システム。
  5. 前記構成情報には、
    前記第一の記憶装置サブシステムが前記第一の計算機に提供するボリュームを特定する識別子と前記ボリュームがマウントされるディレクトリの情報が含まれ、
    前記第一の記憶装置サブシステムの所定の場所とは、前記ボリュームの先頭部分であることを特徴とする請求項4記載の計算機システム。
  6. 前記構成情報には、
    前記第一の計算機についての環境変数に関する情報が含まれることを特徴とする請求項5記載の計算機システム。
  7. 前記構成情報には、
    前記第一の計算機及び前記第一の記憶装置サブシステムで稼動するデータベース管理システムの定義情報が含まれることを特徴とする請求項6記載の計算機システム。
  8. 前記構成情報には、
    前記第一の計算機で稼動するアプリケーションの定義情報が含まれることを特徴とする請求項7記載の計算機システム。
  9. 記憶装置サブシステムに接続される計算機であって、
    処理部及び前記記憶装置サブシステムと接続されるインターフェースを有し、
    前記処理部は、
    前記記憶装置サブシステムの所定の場所に該計算機が使用する構成情報が格納されているか否かを確認し、
    前記所定の場所に前記構成情報が格納されていない場合には、前記構成情報を作成し、前記インターフェースを介して前記記憶装置サブシステムに前記構成情報を送信することを特徴とする計算機。
  10. 前記制御部は、
    前記所定の場所に前記構成情報が格納されいてる場合には、前記構成情報を前記インターフェースを介して読み出し、該構成情報の内容にしたがって該計算機の設定を行うことを特徴とする請求項9記載の計算機。
  11. 前記計算機の設定には、前記記憶装置サブシステムが有するボリュームを該計算機で実行されるファイルシステムにマウントする処理が含まれることを特徴とする請求項10記載の計算機。
  12. 他の記憶装置サブシステムと接続されるポートと、
    前記ポートと接続される制御部と、
    前記制御部と接続されるディスク装置とを有し、
    前記制御部は、前記ポートを介して前記他の記憶装置サブシステムからデータを受信し、受信された前記データに構成情報が含まれる場合に前記構成情報に含まれる情報と該記憶装置サブシステムの構成についての情報を比較し、比較された情報が一致する場合には、前記構成情報を前記ディスク装置の所定の場所に格納することを特徴とする記憶装置サブシステム。
  13. 前記制御部は、
    前記比較された情報が一致しない場合には、前記構成情報を前記ディスク装置に格納しないことを特徴とする請求項12記載の記憶装置サブシステム。
  14. 前記構成情報には、
    前記他の記憶装置サブシステムが計算機に提供するボリュームを特定する識別子と前記ボリュームがマウントされるディレクトリの情報が含まれ、
    前記所定の場所とは、前記ボリュームに対応する前記ディスク装置の先頭部分であることを特徴とする請求項13記載の記憶装置サブシステム。
JP2003086907A 2003-03-27 2003-03-27 計算機システム Pending JP2004295465A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2003086907A JP2004295465A (ja) 2003-03-27 2003-03-27 計算機システム
US10/788,452 US7020744B2 (en) 2003-03-27 2004-03-01 Computer system
EP04005339A EP1462943A3 (en) 2003-03-27 2004-03-05 System and method for managing configuration data for a primary and a secondary disk storage system
US11/281,384 US7139889B2 (en) 2003-03-27 2005-11-18 Computer system
US11/526,047 US7313662B2 (en) 2003-03-27 2006-09-25 Computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003086907A JP2004295465A (ja) 2003-03-27 2003-03-27 計算機システム

Publications (1)

Publication Number Publication Date
JP2004295465A true JP2004295465A (ja) 2004-10-21

Family

ID=32821526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003086907A Pending JP2004295465A (ja) 2003-03-27 2003-03-27 計算機システム

Country Status (3)

Country Link
US (3) US7020744B2 (ja)
EP (1) EP1462943A3 (ja)
JP (1) JP2004295465A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006185108A (ja) * 2004-12-27 2006-07-13 Hitachi Ltd ストレージシステムのデータを管理する管理計算機及びデータ管理方法
JP2006293592A (ja) * 2005-04-08 2006-10-26 Hitachi Ltd 計算機システムの構成再現方法
JP2008009707A (ja) * 2006-06-29 2008-01-17 Hitachi Ltd ストレージシステム及びデータ複製方法
JP2010067042A (ja) * 2008-09-11 2010-03-25 Hitachi Ltd 計算機切り替え方法、計算機切り替えプログラム及び計算機システム
JP2016057933A (ja) * 2014-09-11 2016-04-21 富士通株式会社 情報処理システム、ストレージ装置及びプログラム
JP2016519381A (ja) * 2013-10-23 2016-06-30 華為技術有限公司Huawei Technologies Co.,Ltd. クラウドアプリケーションの冗長化のための方法、システム、および装置
JP2018077880A (ja) * 2017-12-21 2018-05-17 華為技術有限公司Huawei Technologies Co.,Ltd. クラウドアプリケーションの冗長化のための方法、システム、および装置
JP2019083039A (ja) * 2019-01-09 2019-05-30 華為技術有限公司Huawei Technologies Co.,Ltd. クラウドアプリケーションの冗長化のための方法、システム、および装置

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295465A (ja) * 2003-03-27 2004-10-21 Hitachi Ltd 計算機システム
JP4519563B2 (ja) * 2004-08-04 2010-08-04 株式会社日立製作所 記憶システム及びデータ処理システム
US7970803B2 (en) 2005-07-01 2011-06-28 Qnx Software Systems Gmbh & Co. Kg Optimized startup verification of file system integrity
US8959125B2 (en) * 2005-07-01 2015-02-17 226008 Ontario Inc. File system having inverted hierarchical structure
US7873683B2 (en) * 2005-07-01 2011-01-18 Qnx Software Systems Gmbh & Co. Kg File system having transaction record coalescing
JP2007140887A (ja) * 2005-11-18 2007-06-07 Hitachi Ltd ストレージシステム、ディスクアレイ装置、ボリューム提示方法及びデータ一致性確認方法
JP4856467B2 (ja) * 2006-05-01 2012-01-18 株式会社日立製作所 ストレージ資源管理システム、ストレージ資源管理方法および管理計算機
US8255675B1 (en) * 2006-06-30 2012-08-28 Symantec Operating Corporation System and method for storage management of file system configuration data
US20080059510A1 (en) * 2006-08-31 2008-03-06 Daniel Cardamore Multimedia system framework having layer consolidating access to multiple media devices
US8566503B2 (en) * 2006-08-25 2013-10-22 Qnx Software Systems Limited Multimedia filesystem having unified representation of content on diverse multimedia devices
US20080147747A1 (en) * 2006-12-14 2008-06-19 Dan Cardamore Media system having synchronization with preemptive prioritization of synchronization order
WO2008117500A1 (ja) * 2007-03-27 2008-10-02 Nec Corporation 仮想マシン運用システム、仮想マシン運用方法およびプログラム
JP5304154B2 (ja) * 2008-10-01 2013-10-02 富士通セミコンダクター株式会社 ドライブ装置、マウントプログラムおよびマウント方法
US8819670B2 (en) * 2010-03-31 2014-08-26 Verizon Patent And Licensing Inc. Automated software installation with interview
US8990263B2 (en) 2012-03-15 2015-03-24 International Business Machines Corporation Policy-based management of storage functions in data replication environments

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5157663A (en) * 1990-09-24 1992-10-20 Novell, Inc. Fault tolerant computer system
US5799322A (en) * 1995-01-24 1998-08-25 Tandem Computer, Inc. System and method for stopping updates at a specified timestamp in a remote duplicate database facility
CA2227432C (en) * 1995-07-20 2001-05-22 Novell, Inc. Transaction synchronization in a disconnectable computer and network
US6101497A (en) * 1996-05-31 2000-08-08 Emc Corporation Method and apparatus for independent and simultaneous access to a common data set
US6157991A (en) * 1998-04-01 2000-12-05 Emc Corporation Method and apparatus for asynchronously updating a mirror of a source device
US6366987B1 (en) * 1998-08-13 2002-04-02 Emc Corporation Computer data storage physical backup and logical restore
US20040030768A1 (en) 1999-05-25 2004-02-12 Suban Krishnamoorthy Unified system and method for downloading code to heterogeneous devices in distributed storage area networks
US6535967B1 (en) 2000-01-19 2003-03-18 Storage Technology Corporation Method and apparatus for transferring data between a primary storage system and a secondary storage system using a bridge volume
US6898727B1 (en) * 2000-03-22 2005-05-24 Emc Corporation Method and apparatus for providing host resources for an electronic commerce site
US6938122B2 (en) * 2001-01-23 2005-08-30 Emc Corporation Remote mirroring in a switched environment
US6732231B1 (en) * 2001-02-28 2004-05-04 Emc Corporation System and method for management of mirrored storage devices storing device serial numbers
JP4828709B2 (ja) 2001-03-19 2011-11-30 株式会社東芝 自動osインストール方法及び計算機ネットワークシステム
US6675932B2 (en) * 2001-07-02 2004-01-13 Harman International Industries, Inc. Speaker housing configured to minimize standing waves and resonate above the frequency range of transducers
US6640291B2 (en) * 2001-08-10 2003-10-28 Hitachi, Ltd. Apparatus and method for online data migration with remote copy
US6922761B2 (en) * 2002-03-25 2005-07-26 Emc Corporation Method and system for migrating data
US6853566B2 (en) * 2002-04-18 2005-02-08 Ricoh Company, Ltd. Charge pump circuit and power supply circuit
JP2004013367A (ja) 2002-06-05 2004-01-15 Hitachi Ltd データ記憶サブシステム
US6973534B2 (en) 2002-08-29 2005-12-06 International Business Machines Corporation Apparatus and method to export and then import a logical volume with assigned storage attributes
JP2004295465A (ja) 2003-03-27 2004-10-21 Hitachi Ltd 計算機システム
US20220009764A1 (en) * 2020-07-07 2022-01-13 The Regents Of The University Of California Micron-resolution soft stretchable strain and pressure sensor

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006185108A (ja) * 2004-12-27 2006-07-13 Hitachi Ltd ストレージシステムのデータを管理する管理計算機及びデータ管理方法
US7941511B2 (en) 2005-04-08 2011-05-10 Hitachi, Ltd. Method for reproducing configuration of a computer system in a remote site
JP2006293592A (ja) * 2005-04-08 2006-10-26 Hitachi Ltd 計算機システムの構成再現方法
JP4515314B2 (ja) * 2005-04-08 2010-07-28 株式会社日立製作所 計算機システムの構成再現方法
JP2008009707A (ja) * 2006-06-29 2008-01-17 Hitachi Ltd ストレージシステム及びデータ複製方法
US8285824B2 (en) 2006-06-29 2012-10-09 Hitachi, Ltd. Storage system and data replication method that refuses one or more requests for changing the first logical configuration information until the first storage apparatus and second storage apparatus are synchronized
JP2010067042A (ja) * 2008-09-11 2010-03-25 Hitachi Ltd 計算機切り替え方法、計算機切り替えプログラム及び計算機システム
JP4572250B2 (ja) * 2008-09-11 2010-11-04 株式会社日立製作所 計算機切り替え方法、計算機切り替えプログラム及び計算機システム
JP2016519381A (ja) * 2013-10-23 2016-06-30 華為技術有限公司Huawei Technologies Co.,Ltd. クラウドアプリケーションの冗長化のための方法、システム、および装置
US9703654B2 (en) 2013-10-23 2017-07-11 Huawei Technologies Co., Ltd. Method, system, and apparatus for cloud application redundancy
JP2016057933A (ja) * 2014-09-11 2016-04-21 富士通株式会社 情報処理システム、ストレージ装置及びプログラム
JP2018077880A (ja) * 2017-12-21 2018-05-17 華為技術有限公司Huawei Technologies Co.,Ltd. クラウドアプリケーションの冗長化のための方法、システム、および装置
JP2019083039A (ja) * 2019-01-09 2019-05-30 華為技術有限公司Huawei Technologies Co.,Ltd. クラウドアプリケーションの冗長化のための方法、システム、および装置

Also Published As

Publication number Publication date
US7313662B2 (en) 2007-12-25
US7020744B2 (en) 2006-03-28
US7139889B2 (en) 2006-11-21
EP1462943A3 (en) 2008-06-04
US20060069891A1 (en) 2006-03-30
EP1462943A2 (en) 2004-09-29
US20040210726A1 (en) 2004-10-21
US20070022265A1 (en) 2007-01-25

Similar Documents

Publication Publication Date Title
JP2004295465A (ja) 計算機システム
US6889309B1 (en) Method and apparatus for implementing an enterprise virtual storage system
JP4451293B2 (ja) 名前空間を共有するクラスタ構成のネットワークストレージシステム及びその制御方法
JP4776342B2 (ja) ストレージシステムでオブジェクトレベルのスナップショットを生成するシステムと方法
JP4124331B2 (ja) Dbms向け仮想ボリューム作成・管理方法
US6832289B2 (en) System and method for migrating data
JP4456909B2 (ja) バックアップ方法、ストレージシステム及びそのプログラム
US8095754B2 (en) Transparent autonomic data replication improving access performance for a storage area network aware file system
JP3843713B2 (ja) 計算機システム及びそのデバイスの割り当て方法
JP5461216B2 (ja) 論理ボリューム管理の為の方法と装置
US7779219B2 (en) Application transparent autonomic availability on a storage area network aware file system
US7836017B1 (en) File replication in a distributed segmented file system
US20100199055A1 (en) Information processing system and management device for managing relocation of data based on a change in the characteristics of the data over time
JP4806572B2 (ja) データミラーリングによって参照負荷を分散するストレージシステムにおけるアクセスの制御
US20060161700A1 (en) Redirection of storage access requests
JP2003316522A (ja) 計算機システムおよび計算機システムの制御方法
JP4278452B2 (ja) 計算機システム
US11579983B2 (en) Snapshot performance optimizations
JP2008146212A (ja) 共有ディレクトリの設定情報を変更する方法、及びファイルサーバ装置
JP4258768B2 (ja) ファイル配置システム
US8117405B2 (en) Storage control method for managing access environment enabling host to access data
JP6000391B2 (ja) ストレージシステムのデータ移行方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060124

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060124

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080508

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080603