JP6005668B2 - 計算機システム及び論理記憶領域管理方法 - Google Patents

計算機システム及び論理記憶領域管理方法 Download PDF

Info

Publication number
JP6005668B2
JP6005668B2 JP2013554106A JP2013554106A JP6005668B2 JP 6005668 B2 JP6005668 B2 JP 6005668B2 JP 2013554106 A JP2013554106 A JP 2013554106A JP 2013554106 A JP2013554106 A JP 2013554106A JP 6005668 B2 JP6005668 B2 JP 6005668B2
Authority
JP
Japan
Prior art keywords
computer
storage area
logical storage
storage medium
logical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013554106A
Other languages
English (en)
Other versions
JPWO2013108351A1 (ja
Inventor
浩也 松葉
浩也 松葉
鵜飼 敏之
敏之 鵜飼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2013108351A1 publication Critical patent/JPWO2013108351A1/ja
Application granted granted Critical
Publication of JP6005668B2 publication Critical patent/JP6005668B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2041Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant with more than one idle spare processing component

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Hardware Redundancy (AREA)

Description

本発明は、複数の計算機を用いて構築された分散共有ファイルシステムに関する。特に、耐故障機能を有する共有ストレージを構築可能な計算機システム及び共有ストレージの管理方法に関する。
複数の計算機から構成される計算機システムでは、一台の計算機に故障が発生して場合であってもシステム全体として動作を継続できる耐故障機能が求められる。
耐故障機能としては、通常使用する主系計算機と、主系計算機の故障に備えて待機する副系計算機とを準備し、主系計算機に故障が発生した場合に副系計算機が動作を引き継ぐ方式が採られる。この場合、主系計算機と副系計算機とが共有ストレージを有し、主系計算機によって変更されたストレージの内容を副系計算機が引き継ぐことができるように構成される。
しかし、前述したような構成では、副系計算機が動作を引き継いだ後に、意図せず主系計算機が共有ストレージへアクセスすることによって、データを破壊する可能性がある。前述したようなデータ破壊の危険性を排除するため、共有ストレージに対するアクセスの排他制御が必要である。
例えば、特許文献1には、機能正否監視手段によって機能の停止が検出された場合に、複数のノードが共有ディスクに対して該共有ディスクの占有を指示するコマンドを発行し、占有権を取得したノードのみが共有ディスクの制御を可能にする方式が開示されている。
特開2002−185478号公報
一般的に、前述したような共有ストレージは、専用のストレージシステムを用いて構成される。前述したような複数の計算機が共有して使用できる記憶領域を提供する機能(以下、共有機能と記載する)、及び、排他制御の機能は、当該ストレージシステムが備える。そのため、一般的な計算機だけでは共有ストレージを構成できない問題がある。
例えば、特許文献1は、計算機とは別に、外部に専用の共有ストレージ装置を用意しているが、計算機が有する記憶装置を用いて共有ストレージを構成するものではない。
また、計算機が有する記憶装置を用いて共有ストレージを構成した場合に、1台の計算機に障害が発生した場合に、共有ストレージをどのように制御するかについては記載されていない。
例えば、複数の計算機が有する記憶装置を用いて構成された共有ストレージを利用する場合、1台の計算機に障害が発生すると、共有ストレージに障害が発生した状態となる。そのため、主系計算機又は副系計算機は、当該共有ストレージを用いてサービスを継続することできない。特許文献1には、共有ストレージの障害を認識されることなく、サービスを継続する構成については記載されていない。
本発明は、上記の問題点に鑑みてなされてものであり、共有機能及び排他制御の機能を備えていない計算機を用いて、安価、かつ、耐故障機能を有する計算機システムを提供することを目的とする。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、複数の計算機を備える計算機システムであって、前記複数の計算機の各々は、プロセッサと、前記プロセッサに接続されるメモリと、前記プロセッサに接続される記憶媒体と、ネットワークを介して他の装置と接続するためのネットワークインタフェースとを有し、前記複数の計算機は、サービスを提供する1台の主系計算機と、前記主系計算機に障害が発生した場合に前記サービスを引き継ぐ1台以上の副系計算機とを含み、前記主系計算機は、前記複数の計算機の各々の前記記憶媒体が提供する記憶領域を用いて論理記憶領域を生成し、生成された前記論理記憶領域へのアクセスを管理する第1の冗長化処理部と、前記論理記憶領域を用いて前記サービスを提供する第1のサービス提供部と、を有し、前記副系計算機は、前記主系計算機を監視し、前記主系計算機の障害を検知した場合に、前記サービスを引き継ぐための処理を実行する障害制御部と、前記複数の計算機の各々の前記記憶媒体が提供する記憶領域を用いて前記論理記憶領域を生成し、生成された前記論理記憶領域へのアクセスを管理する第2の冗長化処理部と、前記論理記憶領域を用いて前記サービスを提供する第2のサービス提供部と、を有し、前記第1の冗長化処理部は、前記サービスの提供開始前に、前記主系計算機の記憶媒体及び前記副系計算機の記憶媒体が提供する記憶領域を用いて第1の論理記憶領域を生成し、前記第1の論理記憶領域と、当該第1の論理記憶領域を構成する前記主系計算機の記憶媒体及び前記副系計算機の記憶媒体との対応関係を含む第1の冗長化情報を生成し、前記第1の論理記憶領域を構成する前記主系計算機の記憶媒体及び前記副系計算機の記憶媒体に、前記第1の冗長化情報を書き込み、前記第1の論理記憶領域を前記第1のサービス提供部に提供して、当該第1のサービス提供部に前記サービスの開始を命令し、前記第1のサービス提供部から前記第1の論理記憶領域に対する第1の書込要求を受信した場合、前記第1の論理記憶領域を構成する前記主系計算機の記憶媒体及び前記副系計算機の記憶媒体に、前記第1の書込要求に含まれるデータを書き込み、前記障害制御部は、前記主系計算機の障害を検知した場合に、前記第1の論理記憶領域を構成する前記副系計算機が有する前記記憶媒体に対する前記主系計算機からのアクセスを禁止し、その後、前記第2の冗長化処理部を呼び出し、前記第2の冗長化処理部によって新たに第2の論理記憶領域が生成された後、当該第2の論理記憶領域を前記第2のサービス提供部に提供して、前記サービスの開始命令を出力することによって当該第2のサービス提供部を起動させ、前記第2の冗長化処理部は、前記主系計算機の障害を検知した前記障害制御部から呼び出された場合、前記主系計算機の記憶媒体を除く、前記副系計算機の記憶媒体のみを用いて前記第2の論理記憶領域を生成し、前記第2の論理記憶領域と、当該第2の論理記憶領域を構成する前記副系計算機の記憶媒体との対応関係を含む第2の冗長化情報を生成し、前記第2の論理記憶領域を構成する前記副系計算機の記憶媒体に前記第2の冗長化情報を書き込み、前記第2の論理記憶領域に対する第2の書込要求を受信した場合、前記第2の論理記憶領域を構成する前記副系計算機の記憶媒体に、前記第2の書込要求に含まれるデータを書き込み、前記第2のサービス提供部は、前記第2の論理記憶領域に格納されたデータを用いて前記サービスを継続することを特徴とする。
本発明の一形態によれば、一般的な計算機を用いて耐故障機能を備えた論理記憶領域(共有ストレージ)を構築することが可能となる。また、主系計算機の障害発生時には、業務処理部は論理記憶領域の障害を意識させることなくサービスを継続できる。
本発明の第一の実施形態の計算機システムの構成を示すブロック図である。 本発明の第一の実施形態における構成設定部(主系)が実行する処理を説明したフローチャートである。 本発明の第一の実施形態における副系選択部が実行する処理を説明するフローチャートである。 本発明の第一の実施形態における冗長化処理部(主系)が実行する処理を説明するフローチャートである。 本発明の第一の実施形態における構成設定部(副系)が実行する処理を説明するフローチャートである。 本発明の第一の実施形態における障害制御部が実行する処理を説明するフローチャートである。 本発明の第一の実施形態における構成設定部(副系)が、障害発生時に実行する処理を説明するフローチャートである。 本発明の第一の実施形態における冗長化処理部(副系)が実行する処理を説明するフローチャートである。 本発明の第一の実施形態における構成回復部(主系)が実行する処理を説明するフローチャートである。 本発明の第一の実施形態における構成回復部(副系)が実行する処理を説明するフローチャートである。 本発明の第二の実施形態の計算機システムの構成を示したブロック図である。
以下、本発明の実施の形態について、図面を用いて詳細に説明する。
(第一の実施形態)
図1は、本発明の第一の実施形態の計算機システムの構成を示すブロック図である。
本実施形態の計算機システムは、計算機101A及び計算機101Bから構成される。計算機101A及び計算機101Bは、ネットワーク180を介して互いに接続される。ネットワーク180は、例えば、LAN(Local Area Network)が考えられる。ただし、本発明は、ネットワーク180の接続形式に限定されない。以下、計算機101A及び計算機101Bを区別しない場合、計算機101と記載する。
本実施形態では、計算機101A及び計算機101Bが備える記憶媒体を用いて共有ストレージを構成する。また、計算機101Aは、共有ストレージを用いてサービスを提供する主系計算機として稼動し、計算機101Bは計算機101Aに障害が発生した場合にサービスを継続する副系計算機として稼動するものとする。なお、図1では、計算機101が2台であるが、3台以上あってもよい。
まず、計算機101のハードウェア構成について説明する。
計算機101Aは、プロセッサ102A、メモリ103A、ストレージインタフェース104A、ディスク装置105A及びネットワークインタフェース106Aを備える。
プロセッサ102Aは、メモリ103Aに格納されるプログラムを実行する。プロセッサ102Aがプログラムを実行することによって、計算機101Aの機能を実現できる。以下、プログラムを主語に処理を説明する場合、プロセッサ102Aによってプログラムが実行されていることを示す。
メモリ103Aは、プロセッサ102Aが実行するプログラム及び当該プログラムを実行するために必要なデータを格納する。メモリ103Aは、例えば、DRAMのような半導体メモリが考えられ、ディスク装置105Aに比べ高速にアクセスすることができる。メモリ103Aに格納されるプログラム及びデータについては後述する。
ストレージインタフェース104Aは、大容量のデータを格納可能なディスク装置105Aに接続するためのインタフェースである。
ディスク装置105Aは、所定のサービスに必要な情報(例えば、ファイルデータ)を格納する。ディスク装置105Aは、例えば、HDD(Hard Disk Drive)が考えられる。
なお、ディスク装置105以外のSSD(Solid State Drive)等の記憶媒体であってよい。また、ディスク装置105Aは、複数あってもよい。また、ディスク装置105Aは計算機101Aに外付けされた形式でもよい。
ネットワークインタフェース106Aは、ネットワーク180を介して他の装置と接続するためのインタフェースである。
なお、計算機101Aは、メモリ103A及びディスク装置105A以外に、OS(Operating System)等の情報を格納する記憶装置を備えていてもよい。
計算機101Bのハードウェア構成は計算機101Aと同一であるため説明を省略する。
次に、計算機101のソフトウェア構成について説明する。
計算機101Aのメモリ103Aには、サービス提供部150、冗長化処理部151A、ディスクドライバ部152A、ネットワークディスクドライバ部153A、副系選択部154、構成設定部155A及び構成回復部156Aを実現するプログラムが格納される。
サービス提供部150は、共有ストレージを用いて所定のサービスを提供する。サービス提供部150は、サービスの提供時に共有ストレージに対するアクセス要求を出力する。
冗長化処理部151Aは、共有ストレージに対するアクセス要求を受信し、当該アクセス要求に対応するアクセス処理を実行する。具体的には、冗長化処理部151Aは、ディスクドライバ部152A及びネットワークディスクドライバ部153Bに対してアクセス要求を出力する。冗長化処理部151Aが実行する処理の詳細は、図4を用いて後述する。冗長化処理部151Aは、例えば、OSが備えるソフトウェアRAID機能によって実現することができる。
ディスクドライバ部152Aは、冗長化処理部151Aから出力されたアクセス要求に基づいて、共有ストレージを構成するディスク装置105Aにアクセスする。
ネットワークディスクドライバ部153Aは、ネットワーク180を介して、共有ストレージを構成するディスク装置105Bにアクセスする。具体的には、ネットワークディスクドライバ部153Aは、ネットワークディスクドライバ部153Bにアクセス要求を送信する。
副系選択部154は、計算機システムに含まれる複数の計算機101から副系計算機となる計算機101を選択する。副系選択部154が実行する処理の詳細は、図3を用いて後述する。
構成設定部155Aは、主系計算機として稼動するために必要な情報を設定する。構成設定部155Aが実行する処理の詳細は、図2を用いて後述する。
構成回復部156Aは、計算機101Aに障害が発生した場合に、当該障害を回復するための処理を実行する。構成回復部156Aが実行する処理の詳細は、図9を用いて後述する。
なお、メモリ103Aに格納されるプログラムは、ディスク装置105A又は外部の装置(図示省略)に格納されていてもよい。この場合、ディスク装置105Aから各プログラムが読み出され、又は、ネットワーク180を介して外部の装置から各プログラムが読み出され、メモリ103Aに格納される。
計算機101Bのメモリ103Bには、障害制御部170、代替サービス提供部171、冗長化処理部151B、ディスクドライバ部152B、ネットワークディスクドライバ部153B、構成設定部155B、及び構成回復部156Bを実現するプログラムが格納される。
障害制御部170は、主系計算機として稼動する計算機101Aの動作を監視し、計算機101Aの障害を検知した場合に、計算機101Bがサービスを継続するための処理を実行する。障害制御部170が実行する処理の詳細は、図6を用いて後述する。
代替サービス提供部171は、障害が発生した計算機101Aの代わりにサービスを提供する。
冗長化処理部151Bは、冗長化処理部151Aと同一のものであり、代替サービス提供部171から出力されたアクセス要求を受信し、共有ストレージに対するアクセス処理を実行する。ディスクドライバ部152Bは、ディスクドライバ部152Bと同一のものである。冗長化処理部151Bが実行する処理の詳細は、図8を用いて後述する。
ネットワークディスクドライバ部153Bは、ネットワークディスクドライバ部153Aから受信したアクセス要求に基づいて、ディスクドライバ部152Bに対してアクセス要求を出力する。これによって、共有ストレージを構成するディスク装置105Bへのアクセスを実現できる。また、ネットワークディスクドライバ部153Bは、ネットワーク180を介して、共有ストレージを構成するディスク装置105Aにアクセスする。
構成設定部155Bは、副系計算機として稼動するために必要な情報を設定する。構成設定部155Bが実行する処理の詳細は、図5及び図7を用いて後述する。
構成回復部156Bは、主系計算機の障害が回復した後に、再び副系計算機として稼動するための処理を実行する。構成回復部156Bが実行する処理の詳細は、図10を用いて後述する。
なお、メモリ103Bに格納されるプログラムは、ディスク装置105B又は外部の装置(図示省略)に格納されていてもよい。この場合、ディスク装置105Bから各プログラムが読み出され、又は、ネットワーク180を介して外部の装置から各プログラムが読み出され、メモリ103Bに格納される。
また、構成設定部155A及び構成設定部155Bは、同一の機能を提供するプログラムであり、主系計算機の設定処理及び副系計算機の設定処理を実行することができる。構成回復部156A及び構成回復部156Bは、同一の機能を提供するプログラムであり、主系計算機の回復処理及び副系計算機の回復処理を実行することができる。
以下、ディスクドライバ部152A及びディスクドライバ部152Bを区別しない場合、ディスクドライバ部152と記載し、ネットワークディスクドライバ部153A及びネットワークディスクドライバ部153Bを区別しない場合、ネットワークディスクドライバ部153と記載する。また、構成設定部155A及び構成設定部155Bを区別しない場合、構成設定部155と記載し、構成回復部156A及び構成回復部156Bを区別しない場合、構成回復部156と記載する。
以下、各構成の処理について説明する。まず、図2〜図5を用いて、主系計算機及び副系計算機の設定方法について説明する。
図2は、本発明の第一の実施形態における構成設定部155A(主系)が実行する処理を説明したフローチャートである。
構成設定部155Aは、計算機システムの管理者からの指示を受信すると処理を開始する(ステップS201)。このとき、当該指示には、計算機システム内の計算機101の総数と構成設定部155Aが実行される計算機101Aの識別番号が含まれる。
例えば、図1の例では、計算機101の総数は「2」、計算機101Aの識別番号は「1」、計算機101Bの識別番号が「2」となる。
構成設定部155Aは、副系選択部154を呼び出す(ステップS202)。呼び出された副系選択部154が後述する処理(図3参照)を実行することによって、副系計算機となる計算機101を決定することができる。このとき、構成設定部155Aは、副系選択部154から副系計算機となる計算機101の識別情報を取得する。
計算機101の識別情報は、計算機システム内において計算機101を一意に識別できる情報であればよく、例えば、計算機101のコンピュータ名、MACアドレス及びIPアドレス等が考えられる。
構成設定部155Aは、ネットワークディスクドライバ部153Aに対して副系計算機が備えるネットワークディスクドライバ部153と接続するよう指示する(ステップS203)。図1に示す例では、ネットワークディスクドライバ部153Aは、ネットワークディスクドライバ部153Bと接続するように指示される。これによって、ネットワークディスクドライバ部153Aは、ネットワークディスクドライバ部153Bにアクセス要求を送信することができる。
構成設定部155Aは、冗長化処理部151Aに論理デバイス(共有ストレージ)の生成を指示する(ステップS204)。ここで、論理デバイスとは、サービス提供部150が一つのディスク装置として認識可能な論理的なディスク装置である。本発明では、複数の計算機101が有するディスク装置105が有する記憶領域から生成される論理デバイスが、共有ストレージとして用いられる。
これによって、ディスク装置105A及びディスク装置105Bが有する記憶領域から論理デバイスが生成される。また、ディスクドライバ部152A及びネットワークディスクドライバ部153Aのそれぞれに同一の書込要求を出力される。そのため、論理デバイスへの書込処理では、ディスク装置105A及びディスク装置105Bのそれぞれにデータが書き込まれる。前述のようにデータが、異なるディスク装置105に格納されるため、主系計算機に障害が発生しても副系計算機のディスク装置105に格納されるデータを用いてサービスを継続することができる。
なお、論理デバイス上には、分散共有ファイルシステムを構築することができる。共有ファイルシステム上に配置されたファイルには、すべての計算機101が同じようにアクセスできる。
構成設定部155Aは、サービス提供部150に論理デバイスにアクセスするように指示し、処理を終了する(ステップS205、ステップS206)。具体的には、構成設定部155Aは、サービスに用いる記憶領域として論理デバイスの識別情報を通知する。これによってサービス提供部150は、論理デバイスに対してアクセス要求を出力する。
図3は、本発明の第一の実施形態における副系選択部154が実行する処理を説明するフローチャートである。
副系選択部154は、構成設定部155Aから呼び出されると処理を開始する(ステップS301)。なお、副系選択部154は、呼び出されるときに計算機システムを構成する計算機101の総数と、構成設定部155Aを実行する計算機101の識別番号とを構成設定部155Aから受け取る。
副系選択部154は、自身の識別番号が計算機システムを構成する計算機101に割り当てられた識別番号のうち、最大の識別番号であるか否かを判定する(ステップS302)。例えば、副系選択部154は、自身の識別番号が計算機101の総数と同一であるか否かを判定する。自身の識別番号が計算機101の総数と同一である場合には、自身の識別番号が最大の識別番号であると判定される。
自身の識別番号が最大であると判定された場合、副系選択部154は、最小の識別番号(例えば、識別番号が「1」)の計算機101を副系計算機に選択し、ステップS305に進む(ステップS303)。
自身の識別番号が最大でないと判定された場合、副系選択部154は、自身の識別番号に「1」を加算した識別番号の計算機101を副系計算機に選択し、ステップS305に進む(ステップS304)。
副系選択部154は、副系計算機として選択された計算機101の識別情報を取得し、処理を終了する(ステップS305、ステップS306)。
例えば、予め、識別番号と識別情報とを対応づけたデータを準備しておき、副系選択部154が、副系計算機の識別番号に基づいて当該データを参照することによって識別情報を取得する方法が考えられる。
なお、副系計算機の選択方法は、図3に示すものに限定されず、計算機101のリソース量、使用率等に基づいて選択する方法であってもよい。また、2台以上の副系計算機を選択する場合、副系計算機として選択された計算機101の識別番号を新たな入力として図3に示す処理を繰り返し実行すればよい。
図4は、本発明の第一の実施形態における冗長化処理部151A(主系)が実行する処理を説明するフローチャートである。
冗長化処理部151Aは、構成設定部155Aから論理デバイスの生成指示を受信すると処理を開始する(ステップS401)。冗長化処理部151Aは、副系計算機の識別情報を取得する(ステップS402)。
冗長化処理部151Aは、主系計算機のディスク装置105及び副系計算機のディスク装置105を統合して論理デバイスを生成する(ステップS403)。図1に示す例では、ディスク装置105A及びディスク装置105Bが統合された論理デバイスが生成される。
冗長化処理部151Aは、論理デバイスと各ディスク装置105とを対応づけた冗長化情報を生成する(ステップS404)。冗長化情報は、少なくとも、論理デバイスの識別情報及びディスク装置105の識別情報を含む。なお、冗長化情報は、計算機101の識別情報等その他の情報を含んでいてもよい。
冗長化処理部151Aは、冗長化情報を各ディスク装置105へ書き込み、処理を終了する(ステップS405、ステップS406)。図1に示す例では、冗長化処理部151Aは、ディスクドライバ部152A及びネットワークディスクドライバ部153Aのそれぞれに冗長化情報の書込要求を出力する。これによって、共有ストレージ、すなわち、論理デバイスを構成するディスク装置105A及びディスク装置105Bに冗長化情報が格納される。
図5は、本発明の第一の実施形態における構成設定部155B(副系)が実行する処理を説明するフローチャートである。
構成設定部155Bは、計算機システムの管理者からの指示を受信すると処理を開始する(ステップS501)。なお、構成設定部155Bの処理は、構成設定部155Aの処理よりも前に実行される。
構成設定部155Bは、ネットワークディスクドライバ部153Bに対して、他の計算機101から自身のディスク装置105へのアクセスを許可するよう設定し、処理を終了する(ステップS502、ステップS503)。図1に示す例では、計算機101Aからディスク装置105Bへのアクセスが許可される。構成設定部155Bが実行する処理によって、計算機101Aがディスク装置105Bにアクセス可能となり、論理デバイスを構成する記憶領域を提供することが可能となる。
以上が、共有ストレージの構成時に実行される処理である。図2〜図5の処理が終了した後、サービス提供部150は、論理デバイスを用いて所定のサービスを提供する。
このとき、冗長化処理部151は、サービス提供部150から論理デバイスへの書込要求を受信すると、ディスク装置105Aから冗長化情報を読み出し、当該冗長化情報に基づいて、ディスク装置105A及びディスク装置105Bのそれぞれにデータを書き込む。なお、読み出された冗長化情報は、メモリ103Aに一時的に格納される。これによって、論理デバイスへのアクセス時にディスク装置105へのI/O発生を低減することができる。
また、冗長化処理部151は、サービス提供部150から論理デバイスへの読出要求を受信すると、冗長化情報を参照して、ディスク装置105Aからデータを読み出す。
次に、図6〜図8を用いて、主系計算機として稼動する計算機101Aに障害が発生した場合に実行される処理について説明する。
図6は、本発明の第一の実施形態における障害制御部170が実行する処理を説明するフローチャートである。
障害制御部170は、周期的に、主系計算機を監視しており、主系計算機の障害を検知すると処理を開始する(ステップS601)。図1に示す例では、障害制御部170は、主系計算機として稼動する計算機101Aを監視し、計算機101Aの障害を検知すると処理を開始する。
監視方法としては、ネットワーク180を介した通信を監視する方法などが考えられる。ただし、本発明は、主系計算機の障害検出方法に限定されない。
なお、副系計算機が複数ある場合には、予め、副系計算機に優先順位を与えておき、優先順位が高い副系計算機が主導的に処理を実行するように構成すればよい。
障害制御部170は、ネットワークディスクドライバ部153Bに対して、論理デバイスを構成する他の計算機101からディスク装置105へのアクセスを禁止するように指示する(ステップS602)。副系計算機が2台以上ある場合には、主系計算機だけではなく他の副系計算機からのアクセスも禁止される。図1に示す例では、計算機101Aからディスク装置105Bへのアクセスが禁止される。
障害制御部170は、構成設定部155Bを呼び出す(ステップS603)。障害制御部170は、構成設定部155Bからの処理完了の通知を待つ。構成設定部155Bが実行する処理の詳細は、図7を用いて後述する。
その後、障害制御部170は、代替サービス提供部171の処理の開始を指示して、処理を終了する(ステップS604、ステップS605)。
以上の処理によって、代替サービス提供部171が、サービス提供部150に代わってサービスを継続することができる。
ステップS602では、計算機101Aからディスク装置105Bへのアクセスを禁止している。これは、計算機101Aが予期せず再び動作を始めた場合に、代替サービス提供部171及びサービス提供部150からディスク装置105Bへのアクセスが衝突してデータが失われる危険を回避するためである。
図7は、本発明の第一の実施形態における構成設定部155B(副系)が、障害発生時に実行する処理を説明するフローチャートである。
構成設定部155Bは、障害制御部170から読み出されると処理を開始する(ステップS701)。構成設定部155Bは、ネットワークディスクドライバ部153Bに対して他の副系計算機が備えるネットワークディスクドライバ部153Bと接続するよう指示する(ステップS702)。これによって、ネットワークディスクドライバ部153Bは、他の副系計算機のネットワークディスクドライバ部153にアクセス要求を送信することができる。
なお、副系計算機はすでに選択されているため、ステップS202に対応する処理は省略される。また、構成設定部155Bは、冗長化情報を参照することによって他の副系計算機を特定することができる。
構成設定部155Bは、冗長化処理部151Bに論理デバイス(共有ストレージ)の生成を指示する(ステップS703)。図1に示す例では、計算機101Bが備えるディスク装置105Bから論理デバイスが生成される。
構成設定部155Bは、代替サービス提供部171に新たに生成された論理デバイスにアクセスするように指示して、処理を終了する(ステップS704、ステップS705)。
図8は、本発明の第一の実施形態における冗長化処理部151B(副系)が実行する処理を説明するフローチャートである。
冗長化処理部151Bは、構成設定部155Bから読み出されると処理を開始する(ステップS801)。冗長化処理部151Bは、副系計算機の識別情報を取得する(ステップS802)。ステップS802の処理は、ステップS402と同一の処理である。
冗長化処理部151Bは、副系計算機のディスク装置105を統合して論理デバイスを生成する(ステップS803)。
ステップS803の処理はステップS403と異なり、主系計算機のディスク装置105を除いたディスク装置105から論理デバイスが生成される。すなわち、副系計算機のディスク装置105のみから論理デバイスが生成される。
図1に示す例では、ディスク装置105Bのみから論理デバイスが生成される。
冗長化処理部151Bは、論理デバイスと各ディスク装置105とを対応づけた冗長化情報を生成する(ステップS804)。ステップS804の処理は、ステップS404と同一の処理である。
冗長化処理部151Bは、冗長化情報を各ディスク装置105へ書き込み、処理を終了する(ステップS805、ステップS806)。図1に示す例では、冗長化処理部151Bは、ネットワークディスクドライバ部153Bに冗長化情報の書込要求を出力する。これによって、論理デバイスを構成するディスク装置105Bに冗長化情報が格納される。
なお、新たに生成された論理デバイスの識別情報は、最初に生成された論理デバイスの識別情報と同一となるように設定する。これによって、障害発生前と同一の動作環境の下サービスを継続することができる。ただし、異なる論理デバイスの識別情報が設定されてもよい。
本実施形態では、前述した処理によって耐障害性を高める効果がある。通常、冗長化処理部151Bは、書込要求を受信した場合、ディスク装置105に格納される冗長化情報を読み出して、論理デバイスを構成するディスク装置105を特定する。さらに、冗長化処理部151Bは、特定された全てのディスク装置105に同一のデータを書き込む。
しかし、主系計算機として稼働する計算機101に障害が発生すると、論理デバイスを構成する主系計算機のディスク装置105を利用できない状態となる。そのため、冗長化処理部151Bは、論理デバイスにエラーが発生しており、論理デバイスを利用できないと判定する。したがって、冗長化処理部151Bは、論理デバイスを構成する複数のディスク装置105にデータを書き込むことができない。すなわち、データの冗長化が実現できない。
そこで、本実施形態では、障害制御部170から呼び出された冗長化処理部151Bが、主系計算機のディスク装置105を除く他のディスク装置105を用いて新たに論理デバイスを構築する。これによって、冗長化処理部151Bは、代替サービス提供部171から書込要求を受信した場合に、複数のディスク装置105にデータを書き込むことができる。
また、図1に示すように、論理デバイスを構成するディスク装置105が1台のみであっても、代替サービス提供部171からは論理デバイスに障害が発生しているとは認識されずにサービスを継続することができるという効果がある。
図9は、本発明の第一の実施形態における構成回復部156A(主系)が実行する処理を説明するフローチャートである。
構成回復部156Aは、障害が回復した計算機101Aが再起動した後、計算機システムの管理者から処理開始の指示を受信すると処理を開始する(ステップS901)。構成回復部156Aは、副系計算機の構成回復部156Bを呼び出す(ステップS902)。これによって、代替サービス提供部171からサービス提供部150へサービスを引き継ぐための処理(図10参照)が実行される。
構成回復部156Aは、ネットワークディスクドライバ部153Aに対して副系計算機が備えるネットワークディスクドライバ部153Bと接続するよう指示する(ステップS903)。ステップS903の処理は、ステップS203と同一の処理である。ステップS903の処理によって、計算機101Aは論理デバイスへアクセスが可能となる。
構成回復部156Aは、冗長化処理部151Aに対して、副系計算機から冗長化情報の取得を指示する(ステップS904)。当該指示を受信した冗長化処理部151Aは、ネットワークディスクドライバ部153Aに、副系計算機から冗長化情報を取得するためのアクセス要求を出力する。
ステップS904では、ステップ803において生成された新たな論理デバイスの冗長化構成が読み出される。これによって、冗長化構成を維持したままサービスを継続することができる。
図1に示す例では、論理デバイスを構成するディスク装置105Bが一個であるためデータの二重化はできないが、論理デバイスに障害が発生しているとは認識されることなくサービスを継続することができるという効果がある。
構成回復部156Aは、サービス提供部150に論理デバイスにアクセスするように指示し、さらに、サービスの開始を指示する(ステップS905)。ステップS905の処理は、ステップS205と同一の処理である。
構成回復部156Aは、冗長化処理部151Aに対してディスク装置105Aを管理下に置くよう指示する、すなわち、論理デバイスの再構成を指示する(ステップS906)。
当該指示を受信した冗長化処理部151Aは、図4に示す処理と同様の処理を実行する。具体的には、ステップS403では、冗長化処理部151Aは、主系計算機のディスク装置105及び副系計算機のディスク装置105の全てを用いて論理ディスクを生成する。すなわち、障害が発生する前と同一の構成の論理デバイスが生成される。また、ステップS405では、冗長化処理部151Aは、主系計算機のディスク装置105及び副系計算機のディスク装置105のそれぞれに冗長化情報を書き込む。なお、この時点では、論理デバイスを構成する主系計算機のディスク装置105にはデータが反映されていない。
以上の処理によって、障害発生前の論理デバイスの構成を回復することができる。図1に示す例では、ステップS706の処理によって、データの二重書き込みが可能となる。
構成回復部156Aは、論理デバイスが生成された後、冗長化処理部151Aに、副系計算機のディスク装置105に格納されるデータを主系計算機のディスク装置105にコピーするように指示し、処理を終了する(ステップS907、ステップS908)。
当該指示を受信した冗長化処理部151Aは、ネットワークディスクドライバ部153Aに対してアクセス要求(読出要求)を出力する。これによって、副系計算機のディスク装置105からデータを取得することができる。また、冗長化処理部151Aは、ディスクドライバ部152Aに対して、取得されたデータのアクセス要求(書込要求)を出力する。これによって、主系計算機のディスク装置105にデータが書き込まれる。
ステップS907の処理によって、論理デバイスを構成する全てのディスク装置に同一のデータが反映される。すなわち、主系計算機が停止している間に代替サービス提供部171によって論理デバイスに書き込まれたデータが主系計算機のディスク装置105に書き込まれる。
図10は、本発明の第一の実施形態における構成回復部156B(副系)が実行する処理を説明するフローチャートである。
構成回復部156Bは、構成回復部156Aから呼び出されると処理を開始する(ステップS1001)。構成回復部156Bは、代替サービス提供部171を停止する(ステップS1002)。
構成回復部156Bは、ネットワークディスクドライバ部153Bに対して、計算機101Aからディスク装置105Bへのアクセスを許可するよう設定し、処理を終了する(ステップS1003、ステップS1004)。
以上の処理によって、他の計算機101からネットワークディスクドライバ部153Bへのアクセスを再開させ、計算機101Aからのアクセスが可能となる。
なお、計算機101Bに障害が発生した場合、計算機101Bの再起動後に構成設定部155Bを起動させる。これによって、ネットワークディスクドライバ部153Aからネットワークディスクドライバ部153Bへのアクセスを回復できる。その後、冗長化処理部151Aが、自動的にディスク装置105Aから105Bへデータをコピーする。
第一の実施形態では、計算機101Aがサービスを提供する主系計算機、計算機101Bが副系計算機であるものとして説明したが、一例であって、それぞれの計算機101が同一の構成を備えてもよい。これによって、お互いが他方の副系計算機となれるような構成が可能となる。
第一の実施形態によれば、複数の計算機のディスク装置を用いて共有ストレージを構成した場合に、いずれかの計算機に障害が発生しても、副系計算機の代替サービス提供部171は、共有ストレージを用いてサービスを継続することができる。すなわち、副系計算機の代替サービス提供部171は、共有ストレージの冗長化構成が維持されているものと認識することができる。
これによって、専用のストレージシステムを用いることなく、一般的な計算機を用いて共有ストレージを構築することができ、また、障害への耐性も確保することができる。
(第二の実施形態)
第二の実施形態について説明する。第二の実施形態では、具体的な装置構成を用いて実際のシステム構築例を説明する。
以下、第一の実施形態との差異を中心に説明する。
図11は、本発明の第二の実施形態の計算機システムの構成を示したブロック図である。
計算機システムの構成は、第一の実施形態と同一であるため説明を省略する。
第二の実施形態では、計算機101のハードウェア構成が一部異なる。具体的には、第二の実施形態では、ネットワークインタフェース106A、106Bがイーサネットコントローラ1101A、1101Bとなる(イーサネットは登録商標、以下同じ。)。その他のハードウェア構成は、第一の実施形態と同一であるため説明を省略する。
また第二の実施形態では、各計算機101が備えるソフトウェア構成が異なる。具体的には、第二の実施形態では、冗長化処理部151A、151BはOSが備えるソフトウェアRAID機能部1111A、1111Bとなり、ネットワークディスクドライバ部153AはiSCSIイニシエータ1112となり、ネットワークディスクドライバ部153BはiSCSIターゲット1113となる。また、計算機101Bは、ネットワーク180を介した計算機101からのアクセスを制御する構成としてネットワークフィルタ部1114を備える。
構成設定部155Aの処理は、以下の点が異なる。ステップS202では、構成設定部155Aは、副系計算機の名称を取得する。また、ステップS203では、構成設定部155Aは、取得された副系計算機の名称をIPv4のアドレス又はIPv6のアドレスに変換し、変換されたアドレスを用いてiSCSIターゲット1113に接続するように指示する。その他の処理は、第一の実施形態と同一である。
障害制御部170の処理は、以下の点が異なる。
ステップS602では、障害制御部170は、iSCSIターゲット1113を停止させ、又は、ネットワークフィルタ部1114に対してiSCSIターゲット1113に送信されたTCP/IPプロトコルのパケットを破棄するように指示する。その他の処理は、第一の実施形態と同一である。
構成回復部156Bの処理は、以下の点が異なる。
ステップS803では、構成回復部156Bが、iSCSIターゲット1113を再開させ、又は、ネットワークフィルタ部1114に対してiSCSIターゲット1113に送信されるTCP/IPプロトコルのパケットの破棄を中止するように指示する。その他の処理は、第一の実施形態と同一である。
第二の実施形態によれば、ソフトウェアRAID、iSCSIターゲット、iSCSIイニシエータ及びイーサネットを用いて、安価に共有ストレージを構築することができる。
なお、本発明は前述した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、前述した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加、削除、置換をすることが可能である。
また、前述の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によってハードウェアを用いて実現してもよい。また、前述の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによってソフトウェアを用いて実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、HDD及びSSD等の記録装置、又は、ICカード、SDカード及びDVD等の記録媒体に格納することができる。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。

Claims (8)

  1. 複数の計算機を備える計算機システムであって、
    前記複数の計算機の各々は、プロセッサと、前記プロセッサに接続されるメモリと、前記プロセッサに接続される記憶媒体と、ネットワークを介して他の装置と接続するためのネットワークインタフェースとを有し、
    前記複数の計算機は、サービスを提供する1台の主系計算機と、前記主系計算機に障害が発生した場合に前記サービスを引き継ぐ1台以上の副系計算機とを含み、
    前記主系計算機は、
    前記複数の計算機の各々の前記記憶媒体が提供する記憶領域を用いて論理記憶領域を生成し、生成された前記論理記憶領域へのアクセスを管理する第1の冗長化処理部と、
    前記論理記憶領域を用いて前記サービスを提供する第1のサービス提供部と、を有し、
    前記副系計算機は、
    前記主系計算機を監視し、前記主系計算機の障害を検知した場合に、前記サービスを引き継ぐための処理を実行する障害制御部と、
    前記複数の計算機の各々の前記記憶媒体が提供する記憶領域を用いて前記論理記憶領域を生成し、生成された前記論理記憶領域へのアクセスを管理する第2の冗長化処理部と、
    前記論理記憶領域を用いて前記サービスを提供する第2のサービス提供部と、を有し、
    前記第1の冗長化処理部は、
    前記サービスの提供開始前に、前記主系計算機の記憶媒体及び前記副系計算機の記憶媒体が提供する記憶領域を用いて第1の論理記憶領域を生成し、
    前記第1の論理記憶領域と、当該第1の論理記憶領域を構成する前記主系計算機の記憶媒体及び前記副系計算機の記憶媒体との対応関係を含む第1の冗長化情報を生成し、
    前記第1の論理記憶領域を構成する前記主系計算機の記憶媒体及び前記副系計算機の記憶媒体に、前記第1の冗長化情報を書き込み、
    前記第1の論理記憶領域を前記第1のサービス提供部に提供して、当該第1のサービス提供部に前記サービスの開始を命令し、
    前記第1のサービス提供部から前記第1の論理記憶領域に対する第1の書込要求を受信した場合、前記第1の論理記憶領域を構成する前記主系計算機の記憶媒体及び前記副系計算機の記憶媒体に、前記第1の書込要求に含まれるデータを書き込み、
    前記障害制御部は、前記主系計算機の障害を検知した場合に、前記第1の論理記憶領域を構成する前記副系計算機が有する前記記憶媒体に対する前記主系計算機からのアクセスを禁止し、その後、前記第2の冗長化処理部を呼び出し、
    前記第2の冗長化処理部によって新たに第2の論理記憶領域が生成された後、当該第2の論理記憶領域を前記第2のサービス提供部に提供して、前記サービスの開始命令を出力することによって当該第2のサービス提供部を起動させ、
    前記第2の冗長化処理部は、
    前記主系計算機の障害を検知した前記障害制御部から呼び出された場合、前記主系計算機の記憶媒体を除く、前記副系計算機の記憶媒体のみを用いて前記第2の論理記憶領域を生成し、
    前記第2の論理記憶領域と、当該第2の論理記憶領域を構成する前記副系計算機の記憶媒体との対応関係を含む第2の冗長化情報を生成し、
    前記第2の論理記憶領域を構成する前記副系計算機の記憶媒体に前記第2の冗長化情報を書き込み、
    前記第2の論理記憶領域に対する第2の書込要求を受信した場合、前記第2の論理記憶領域を構成する前記副系計算機の記憶媒体に、前記第2の書込要求に含まれるデータを書き込み、
    前記第2のサービス提供部は、前記第2の論理記憶領域に格納されたデータを用いて前記サービスを継続することを特徴とする計算機システム。
  2. 請求項1に記載の計算機システムであって、
    前記第1の冗長化処理部は、前記第1の論理記憶領域に対する読出要求を受信した場合、前記第1の論理記憶領域を構成する前記主系計算機の記憶媒体からデータを読み出し、
    前記第2の冗長化処理部は、前記第2の論理記憶領域に対する読出要求を受信した場合、前記第2の論理記憶領域を構成し、かつ、前記第2のサービス提供部が実行される前記副系計算機の記憶媒体からデータを読み出すことを特徴とする計算機システム。
  3. 請求項1に記載の計算機システムであって、
    前記主系計算機は、前記主系計算機の障害が回復し、再起動した後に、前記論理記憶領域の構成を回復する回復部を有し、
    前記回復部は、
    障害が回復した前記主系計算機が再起動した後に、前記第2のサービス提供部を停止させ、
    前記第2の論理記憶領域を構成する前記副系計算機の記憶媒体から前記第2の冗長化情報を取得し、
    前記第2の論理記憶領域を前記第1のサービス提供部に提供して、当該第1のサービス提供部に前記サービスの開始を命令し、
    前記第1の冗長化処理部を呼び出し、
    前記第1の冗長化処理部は、
    前記回復部から呼び出された場合、前記主系計算機の記憶媒体及び前記副系計算機の記憶媒体が提供する記憶領域を用いて第3の論理記憶領域を生成し、
    前記第3の論理記憶領域と、当該第3の論理記憶領域を構成する前記主系計算機の記憶媒体及び前記副系計算機の記憶媒体との対応関係を含む第3の冗長化情報を生成し、
    前記第3の論理記憶領域を構成する前記主系計算機の記憶媒体及び前記副系計算機の記憶媒体に、前記第3の冗長化情報を書き込み、
    前記回復部は、前記第3の論理記憶領域を構成する前記主系計算機の記憶媒体に、前記第3の論理記憶領域を構成する前記副系計算機の記憶媒体に格納されるデータをコピーすることを特徴とする計算機システム。
  4. 請求項1に記載の計算機システムであって、
    前記主系計算機は、前記副系計算機を選択する選択部を有し、
    前記選択部は、
    前記計算機システムに含まれる前記複数の計算機の中から1台以上の前記副系計算機を選択し、
    前記選択された副系計算機との接続を確立することを特徴とする計算機システム。
  5. 複数の計算機を備える計算機システムにおける論理記憶領域管理方法であって、
    前記複数の計算機の各々は、プロセッサと、前記プロセッサに接続されるメモリと、前記プロセッサに接続される記憶媒体と、ネットワークを介して他の装置と接続するためのネットワークインタフェースとを有し、
    前記複数の計算機は、サービスを提供する1台の主系計算機と、前記主系計算機に障害が発生した場合に前記サービスを引き継ぐ1台以上の副系計算機とを含み、
    前記方法は、
    前記主系計算機が、前記サービスの運用開始前に、前記主系計算機の記憶媒体及び前記副系計算機の記憶媒体が提供する記憶領域を用いて第1の論理記憶領域を生成する第1のステップと、
    前記主系計算機が、前記第1の論理記憶領域と、当該第1の論理記憶領域を構成する前記主系計算機の記憶媒体及び前記副系計算機の記憶媒体との対応関係を含む第1の冗長化情報を生成する第2のステップと、
    前記主系計算機が、前記第1の論理記憶領域を構成する前記主系計算機の記憶媒体及び前記副系計算機の記憶媒体に、前記第1の冗長化情報を書き込む第3のステップと、
    前記主系計算機が、前記第1の論理記憶領域を用いて前記サービスを開始する第4のステップと、
    前記主系計算機が、前記第1の論理記憶領域へのアクセス要求を受信した場合に、前記第1の冗長化情報を参照して、前記第1の論理記憶領域にアクセスする第5のステップと、
    前記副系計算機が、前記主系計算機の障害を検知した場合に、前記第1の論理記憶領域を構成する前記副系計算機が有する前記記憶媒体に対する前記主系計算機からのアクセスを禁止する第6のステップと、
    前記副系計算機が、新たに第2の論理記憶領域を生成する第7のステップと、
    前記副系計算機が、前記第2の論理記憶領域へのアクセス要求を受信した場合に、前記第2の論理記憶領域と、当該第2の論理記憶領域を構成する前記副系計算機の記憶媒体との対応関係を含む第2の冗長化情報を参照して、前記第2の論理記憶領域にアクセスする第8のステップと、
    前記副系計算機が、前記第2の論理記憶領域に格納されたデータを用いて前記サービスを継続する第9のステップと、を含み、
    前記第5のステップは、前記主系計算機が、前記第1の論理記憶領域に対する第1の書込要求を受信した場合、前記第1の論理記憶領域を構成する前記主系計算機の記憶媒体及び前記副系計算機の記憶媒体に、前記第1の書込要求に含まれるデータを書き込むステップを含み、
    前記第7のステップは、
    前記副系計算機が、前記主系計算機の記憶媒体を除く、前記副系計算機の記憶媒体のみを用いて前記第2の論理記憶領域を生成する第10のステップと、
    前記副系計算機が、前記第2の冗長化情報を生成する第11のステップと、
    前記副系計算機が、前記第2の論理記憶領域を構成する前記副系計算機の記憶媒体に前記第2の冗長化情報を書き込む第12のステップと、
    前記副系計算機が、前記第2の論理記憶領域を用いて前記サービスを開始する第13のステップと、を含み、
    前記第8のステップは、前記副系計算機が、前記第2の論理記憶領域に対する第2の書込要求を受信した場合、前記第2の論理記憶領域を構成する前記副系計算機の記憶媒体に、前記第2の書込要求に含まれるデータを書き込むステップを含むことを特徴とする論理記憶領域管理方法。
  6. 請求項5に記載の論理記憶領域管理方法であって、
    前記第5のステップは、前記第1の論理記憶領域に対する読出要求を受信した場合、前記第1の論理記憶領域を構成する前記主系計算機の記憶媒体からデータを読み出すステップを含み、
    前記第8のステップは、前記副系計算機が、前記第2の論理記憶領域に対する読出要求を受信した場合、前記第2の論理記憶領域を構成し、かつ、前記サービスを提供する前記副系計算機の記憶媒体からデータを読み出すステップを含むことを特徴とする論理記憶領域管理方法。
  7. 請求項5に記載の論理記憶領域管理方法であって、
    前記方法は、さらに、
    前記主系計算機が、当該主系計算機の障害が回復して再起動した後に、前記副系計算機において実行される前記サービスを停止させるステップと、
    前記主系計算機が、前記第2の論理記憶領域を構成する前記副系計算機の記憶媒体から前記第2の冗長化情報を取得するステップと、
    前記主系計算機が、前記第2の論理記憶領域を用いて前記サービスを開始するステップと、
    前記主系計算機が、前記主系計算機の記憶媒体及び前記副系計算機の記憶媒体が提供する記憶領域を用いて第3の論理記憶領域を生成するステップと、
    前記主系計算機が、前記第3の論理記憶領域と、当該第3の論理記憶領域を構成する前記主系計算機の記憶媒体及び前記副系計算機の記憶媒体との対応関係を含む第3の冗長化情報を生成するステップと、
    前記主系計算機が、前記第3の論理記憶領域を構成する前記主系計算機の記憶媒体及び前記副系計算機の記憶媒体に、前記第3の冗長化情報を書き込むステップと、
    前記主系計算機が、前記第3の論理記憶領域を構成する前記主系計算機の記憶媒体に、前記第3の論理記憶領域を構成する前記副系計算機の記憶媒体に格納されるデータをコピーするステップと、を含むことを特徴とする論理記憶領域管理方法。
  8. 請求項5に記載の論理記憶領域管理方法であって、
    前記第1のステップは、
    前記主系計算機が、前記計算機システムに含まれる前記複数の計算機の中から1台以上の前記副系計算機を選択するステップと、
    前記主系計算機が、前記選択された副系計算機との接続を確立するステップと、を含むことを特徴とする論理記憶領域管理方法。
JP2013554106A 2012-01-16 2012-01-16 計算機システム及び論理記憶領域管理方法 Expired - Fee Related JP6005668B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/050674 WO2013108351A1 (ja) 2012-01-16 2012-01-16 計算機システム及び論理記憶領域管理方法

Publications (2)

Publication Number Publication Date
JPWO2013108351A1 JPWO2013108351A1 (ja) 2015-05-11
JP6005668B2 true JP6005668B2 (ja) 2016-10-12

Family

ID=48798802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013554106A Expired - Fee Related JP6005668B2 (ja) 2012-01-16 2012-01-16 計算機システム及び論理記憶領域管理方法

Country Status (2)

Country Link
JP (1) JP6005668B2 (ja)
WO (1) WO2013108351A1 (ja)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0222739A (ja) * 1988-07-12 1990-01-25 Nec Corp Cpu2重化方式
JPH06187184A (ja) * 1992-12-16 1994-07-08 Mitsubishi Electric Corp 2重系システムの入出力制御装置
US5996075A (en) * 1995-11-02 1999-11-30 Sun Microsystems, Inc. Method and apparatus for reliable disk fencing in a multicomputer system
US7389312B2 (en) * 1997-04-28 2008-06-17 Emc Corporation Mirroring network data to establish virtual storage area network
JP2001109642A (ja) * 1999-10-08 2001-04-20 Toshiba Corp クラスタシステム、及びそのデータ複写方法
JP2007200103A (ja) * 2006-01-27 2007-08-09 Nec Corp クライアントサーバシステムおよびリソース制御方法
JP2008276281A (ja) * 2007-04-25 2008-11-13 Nec Corp データ同期システム、方法、及び、プログラム
JP4561800B2 (ja) * 2007-09-25 2010-10-13 沖電気工業株式会社 データ同期システム及び方法
JP2009265973A (ja) * 2008-04-25 2009-11-12 Nec Corp データ同期システム、障害復旧方法、及び、プログラム

Also Published As

Publication number Publication date
WO2013108351A1 (ja) 2013-07-25
JPWO2013108351A1 (ja) 2015-05-11

Similar Documents

Publication Publication Date Title
US9489274B2 (en) System and method for performing efficient failover and virtual machine (VM) migration in virtual desktop infrastructure (VDI)
JP5068056B2 (ja) 障害回復方法、計算機システム及び管理サーバ
JP4462024B2 (ja) ディスク引き継ぎによるフェイルオーバ方法
US8706859B2 (en) Method and apparatus of data center file system
US11226753B2 (en) Adaptive namespaces for multipath redundancy in cluster based computing systems
JP5959733B2 (ja) ストレージシステムおよびストレージシステムの障害管理方法
US9912535B2 (en) System and method of performing high availability configuration and validation of virtual desktop infrastructure (VDI)
US20140173330A1 (en) Split Brain Detection and Recovery System
JP2007034438A (ja) 冗長パス制御装置、方法及びプログラム並びにディスクアレイシステム
JP2005267327A (ja) ストレージシステム
JP2008112399A (ja) ストレージ仮想化スイッチおよびコンピュータシステム
JP2012173996A (ja) クラスタシステム、クラスタ管理方法、およびクラスタ管理プログラム
US8683258B2 (en) Fast I/O failure detection and cluster wide failover
JP2009026091A (ja) 接続管理プログラム、接続管理方法および情報処理装置
EP3648405B1 (en) System and method to create a highly available quorum for clustered solutions
CN113515408A (zh) 一种数据容灾方法、装置、设备及介质
JP5352027B2 (ja) 計算機システムの管理方法及び管理装置
CN114124803B (zh) 设备管理方法、装置、电子设备及存储介质
JP6005668B2 (ja) 計算機システム及び論理記憶領域管理方法
JP5266347B2 (ja) 引継方法、計算機システム及び管理サーバ
JP4495248B2 (ja) 情報処理装置、障害処理方法
US10514846B2 (en) Computer system and management method for computer
WO2016046951A1 (ja) 計算機システム及びそのファイル管理方法
JP5947974B2 (ja) 情報処理装置及び情報処理装置の交換支援システム並びに交換支援方法
JP6012479B2 (ja) 情報処理システム、制御方法および制御プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150512

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160907

R150 Certificate of patent or registration of utility model

Ref document number: 6005668

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees