JP4491482B2 - 障害回復方法、計算機、クラスタシステム、管理計算機及び障害回復プログラム - Google Patents

障害回復方法、計算機、クラスタシステム、管理計算機及び障害回復プログラム Download PDF

Info

Publication number
JP4491482B2
JP4491482B2 JP2007307106A JP2007307106A JP4491482B2 JP 4491482 B2 JP4491482 B2 JP 4491482B2 JP 2007307106 A JP2007307106 A JP 2007307106A JP 2007307106 A JP2007307106 A JP 2007307106A JP 4491482 B2 JP4491482 B2 JP 4491482B2
Authority
JP
Japan
Prior art keywords
computer
failure
occurred
data
storage unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007307106A
Other languages
English (en)
Other versions
JP2009129409A5 (ja
JP2009129409A (ja
Inventor
洋和 松本
恒彦 馬場
真二 浜田
高志 市村
則明 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007307106A priority Critical patent/JP4491482B2/ja
Priority to US12/041,059 priority patent/US7886181B2/en
Publication of JP2009129409A publication Critical patent/JP2009129409A/ja
Publication of JP2009129409A5 publication Critical patent/JP2009129409A5/ja
Application granted granted Critical
Publication of JP4491482B2 publication Critical patent/JP4491482B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2025Failover techniques using centralised failover control functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0706Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
    • G06F11/0709Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment in a distributed system consisting of a plurality of standalone computer nodes, e.g. clusters, client-server systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2043Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share a common memory address space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0793Remedial or corrective actions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1415Saving, restoring, recovering or retrying at system level
    • G06F11/1438Restarting or rejuvenating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2041Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant with more than one idle spare processing component

Description

本発明は、現用系の計算機と待機系の計算機を含むクラスタシステムの障害を回復する技術に関する。
従来、不揮発性の共有ディスクによって処理データを保持し、現用系の計算機と待機系の計算機とを含むクラスタシステムでは、現用系のプロセスに障害が発生した場合、プロセスの再開始又は待機系への系切り替えを実行することによって障害を回復させていた。
処理性能を向上させるために不揮発性の共有ディスクの代わりに揮発性メモリを用いるクラスタシステムでは、現用系にプロセス障害が発生すると、データが消失してしまうため、回復処理を実行することができない。そこで、現用系のプロセスに障害が発生した場合の回復手段として、別の計算機に再開始のために必要となるデータの複製を転送し、プロセスの再開始時には、別の計算機に複製したデータを利用して再開始を実行する技術が開示されている(特許文献1参照)。特許文献1に開示された技術では、データを複製するために、転送元となる計算機と転送先となる計算機が循環して配置され、すべての計算機でデータを二重化している。
特開平9−168015号公報
しかし、特許文献1に開示された技術では、データを二重に保護しているのみであるため、プロセス再開始時完了までにデータ複製先に障害が発生すると、回復処理を実行することができなくなってしまう。
また、現用系のプロセス障害時には必ず同じ系によるプロセス再開始を実行し、別系からのデータ転送を試みるため、待機系への系切り替えと比較して処理時間が増大してしまう可能性があった。
本発明の目的は、処理データ消失の可能性を最大限に抑えつつ、回復処理の高速化を図るプロセス回復方法を提供する。
本発明の代表的な一形態では、業務処理を実行する第1の計算機と、前記第1の計算機によって処理されるデータの複製を保持する第2の計算機とを含むクラスタシステムにおいて、前記第1の計算機で発生した障害を回復する方法であって、前記第1の計算機は、第1のプロセッサと、前記第1のプロセッサに接続される第1の記憶部と、前記第2の計算機に接続される第1のインタフェースとを備え、前記第2の計算機は、第2のプロセッサと、前記第2のプロセッサに接続される第2の記憶部と、前記第1の計算機に接続される第2のインタフェースとを備え、前記第1の記憶部は、前記業務処理で使用されるデータを記憶し、前記クラスタシステムは、当該クラスタシステムの状態を含むシステム情報を保持し、前記障害回復方法は、前記第1の記憶部に記憶されたデータを、前記第2の計算機に送信し、前記第1の計算機から送信されたデータを、前記第2の記憶部に記憶し、前記第1の計算機に障害が発生した場合には、前記システム情報に基づいて、前記障害が発生した処理を前記第1の計算機で再開始するか、又は、前記障害が発生した処理を前記第2の計算機が実行するか、を判定し、前記障害が発生した処理を前記第1の計算機で再開始する場合には、前記第2の記憶部に格納されたデータを前記第2の計算機から前記第1の計算機に送信し、前記第1の計算機に送信されたデータを前記第1の記憶部に記憶し、前記障害が発生した処理を再開始し、前記障害が発生した処理を前記第2の計算機が実行する場合には、前記障害が発生した処理を前記第2の計算機が実行する。
本発明の一形態によれば、システムの状態に基づいて、プロセスの再開始と系切り替えのいずれを実行するかを判定することによって、障害復旧処理の高速化及び高信頼化を実現することができる。
以下、本発明の実施の形態を、図面を参照して説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態のクラスタシステムの一例を示すシステム構成図である。
本発明の第1の実施の形態のクラスタシステムは、現用系の計算機1、及び、複数の待機系の計算機2〜nを含む。
現用系及び待機系の各計算機は、処理データ管理部101、負荷情報管理部201、及びクラスタ情報管理部301を有する。クラスタシステムに含まれる現用系及び待機系の各計算機は、同じ構成である。また、現用系の計算機が系切り替えによって待機系の計算機に処理が引き継がれると、処理を引き継いだ待機系の計算機は、以降、現用系の計算機として稼働する。また、現用系として稼働していた計算機は、可能であれば、待機系の計算機として稼働させてもよい。
処理データ管理部101は、処理実行部102及び処理データ103を有する。処理実行部102は、要求された処理を実行する。処理データ103は、処理実行部102によって実行される処理に必要なデータである。また、処理データ103は、処理を高速化させるために揮発性のメモリに記憶されている。なお、処理データ103は、データベースに格納されていてもよい。
処理データ管理部101は、自系が現用系か待機系かを示すクラスタ状態304を回復判断テーブル303に通知する。処理実行部102は、処理管理部100の各モジュールの回復に必要となるデータ量105を計算する。さらに、クラスタ情報管理部301にデータ量105を通知し、回復判断テーブル303に記録する。処理実行部102は、さらに、各モジュールの稼働状態を監視する機能と、障害が発生した場合にクラスタ情報管理部301にプロセス障害を通知する機能を備える。プロセス障害の通知には、障害が発生したモジュールの情報を含む。モジュールについては、図6にて詳細に説明する。
処理データ管理部101は、さらに、他系とデータを送受信するデータ転送部104を有する。データ転送部104は、処理実行部102によって処理された処理データ103を、他の計算機に転送し、又は、他の計算機から転送された処理データを受信する。なお、本発明の第1の実施の形態では、現用系の計算機のメモリに格納されている処理データ103は、すべての待機系の計算機に転送され、当該計算機のメモリに格納される。
データ転送部104による処理データの転送方法は、各計算機に個別にデータを送信するユニキャストであってもよいし、システム内のすべての計算機に対して同時にデータを送信するマルチキャストであってもよい。マルチキャストによって、転送データ量の削減を図ることができる。
また、データ転送部104は、データ転送量に応じて、事前又は転送時にデータを圧縮することなどによって転送量を抑制したり、転送経路を複数使用することによって転送経路を他の処理よりも優先的に利用したりしてもよい。
さらに、本発明の第1の実施の形態では、データ転送部104によって他系に処理データを同期転送する。処理データを非同期で転送する場合には、障害発生時に一部の処理データが失われる可能性がある。したがって、データの再生が可能な場合など一部の処理データの欠損が許容されるシステムである場合、又は、さらに上位のシステムなどからデータの再送が可能であれば適用可能である。非同期転送の場合には、他系に処理データを転送後、処理データの格納の完了を待たずに自系の処理を継続できるため、処理性能を向上させることができる。
負荷情報管理部201は、負荷情報判断部202及び負荷情報転送部203を有する。負荷情報判断部202は、計算機の負荷情報を判断する。負荷情報転送部203は、負荷情報を他系に転送したり、他系から転送された負荷情報を受信したりする。さらに、負荷情報転送部203は、自系又は他系の負荷情報である負荷量204を回復判断テーブル303に一定間隔で通知する。なお、負荷量を一定間隔で他系に通知するのではなく、障害発生時に他系に負荷量を通知してもよい。この場合には、引き継ぎ先の系を他系が判断する構成としてもよい。
クラスタ情報管理部301は、クラスタ情報転送部302及び回復判断テーブル303を有する。クラスタ情報転送部302は、クラスタ情報を他系に転送したり、他系から転送されたクラスタ情報を受信したりする。回復判断テーブル303は、処理実行部102によって処理されたデータ量105、クラスタ状態304、及び、自系及び他系の負荷量204を格納する。
クラスタ情報管理部301は、処理データ管理部101を監視することによって、自系のプロセス障害を検出する。処理データ管理部101の監視は、データ量105の通信をハートビートとして利用する方法であってもよいし、負荷量204の通信によって負荷量を測定できたか否かを検出する方法であってもよい。また、他の通信によって直接的又は間接的に監視する方法であってもよい。
クラスタ情報管理部301は、自系のプロセス障害を検出すると、後述する判断基準に基づいて、プロセス再開始又は系切り替えのいずれかを実行するかを判断する。プロセス再開始を実行する場合には、処理データ管理部101にプロセスの再開始を指示する。処理データ管理部101は、プロセスを再開始する指示を受け付けると、データ転送部104を介して、他系に複製されているデータの転送を要求することによって、プロセス再開始に必要なデータを取得する。データ取得後、障害が発生した処理データ管理部101の全部又は一部のプロセスを再開始し、回復を完了する。
一方、クラスタ情報管理部301は、系切り替えを実行する場合には、クラスタ情報転送部302を介して、系切り替え先となる他系に引継ぎを指示する。引継ぎを指示された他系は、データ転送部104によって複製されているデータを取得し、プロセスを実行することによって系切り替えによる回復を完了する。
さらに、クラスタ情報管理部301は、クラスタ情報転送部302によって他系からのクラスタ情報を一定時間受信できなかった場合には、クラスタ情報を受信できなかった他系に障害が発生したものと認識する。他系に障害が発生した場合には、複製されている処理データを利用して、プロセスを起動することによって、系切り替えを実行する機能を有する。ここで、他系の障害検出によって実行される系切り替え処理が、障害が発生した系のプロセス再開始又は系切り替えを指示する処理と重複して実行されないように制御する必要がある。例えば、障害が発生した系のプロセス再開始又は系切り替えが完了するために必要な時間だけ待機してもよいし、障害が発生した系で回復処理が実行されていないことを確認してから系切り替えを実行するようにしてもよい。さらに、同時に複数の計算機でプロセスが引き継がれないように、共有ディスク及びIPアドレスなどの共有されるリソースが排他制御される仕組みであってもよい。
図2は、本発明の第1の実施の形態のハードウェアの構成を示す図である。
現用系及び待機系の各計算機は、前述したように同じ構成である。各計算機は、CPU21、ディスプレイ装置22、キーボード23、マウス24、ネットワークインタフェースカード(NIC)25、ハードディスク装置26及びメモリ27を備える。CPU21、ディスプレイ装置22、キーボード23、マウス24、ネットワークインタフェースカード25、ハードディスク装置26及びメモリ27は、バス28によって接続される。
現用系及び待機系の各計算機は、NIC25を介してネットワークに接続し、他の計算機と相互に通信する。
CPU21は、メモリ27に記憶されたプログラムを実行する。メモリ27は、CPU21によって実行されるプログラム及び当該プログラムの実行に必要なデータを記憶する。メモリ27は、処理管理部100、オペレーティングシステム30、処理データ管理部101、負荷情報管理部201、クラスタ情報管理部301、処理データ103、及び、回復判断テーブル303を記憶する。メモリ27は、前述のように、揮発性のメモリである。
処理管理部100は、オペレーティングシステム30上で実行されるプログラムである。処理データ管理部101、負荷情報管理部201、及びクラスタ情報管理部301は、処理管理部100によって呼び出されるプログラムである。処理データ管理部101、負荷情報管理部201及びクラスタ情報管理部301については、図1にて説明した処理を実行する。
処理データ103は、業務処理に必要なデータである。処理データ103は、前述したように、データベース管理システムによって管理されていてもよい。この場合、データベース管理システムは、メモリ27に記憶される。回復判断テーブル303は、図1にて説明したように、現用系の計算機で発生した障害を回復させるために必要なクラスタ情報などの情報を格納する。
ディスプレイ装置22は、業務処理の実行結果など各種情報を表示する。キーボード23及びマウス24は、利用者からの入力を受け付ける。NIC25は、ネットワークに接続する。ハードディスク装置26は、メモリ27に格納される処理データ、及び、メモリ27にロードされるプログラムなどを格納する。
図3は、本発明の第1の実施の形態の回復判断テーブル303の構成を示す図である。
回復判断テーブル303は、クラスタ状態判断テーブル331、データ量判断テーブル311及び負荷状態判断テーブル321を含む。
クラスタ状態判断テーブル331は、各計算機のクラスタ状態304、及び、利用者又はシステムによって設定された残台数の閾値情報を含む。本発明の第1の実施の形態では、クラスタ状態には、「現用系」、「待機系」及びプロセスダウンを含む「ダウン」の三状態が定義されているが、さらに詳細なクラスタ状態を定義してもよい。例えば、待機系として起動中である状態を含んでもよい。この場合には、起動後は待機系としての役割を果たすことから待機系として扱ってもよいし、現在は待機系の役割を果たしていないことから待機系として扱わなくてもよい。
データ量判断テーブル311は、処理実行部102を構成するモジュールごとのデータ量、利用者又はシステムによって設定されたデータ量の閾値情報、及び、モジュール間の依存関係を表す情報を含む。依存関係は、例えば、図7に示すように、識別子の命名ルールによって表現してもよい。識別子の命名ルールによって依存関係を表す場合には、まず、メインモジュールから直接呼び出される下位モジュールである1段目の各モジュールは、英文字(A−Z)で示される識別子が付与される。さらに、1段目の各モジュールによって呼び出される2段目の各モジュールには、1段目のモジュールの識別子に数字(1−9)を付加した識別子を付与する。なお、モジュール間の依存関係を表す情報は、木構造などの他の手段によって表されてもよい。さらに、モジュール間の依存関係を表す情報は、データ量判断テーブル311とは別のテーブルに保持されてもよい。
負荷状態判断テーブル321は、各計算機の負荷量204を保持する。負荷状態判断テーブル321は、利用者又はシステムによって設定された負荷量の閾値情報、及び、各計算機の負荷量を含む。負荷量は、例えば、処理対象のデータ量又は処理の所要時間であってもよいし、データ量などの情報を変数とする計算式によって算出される値であってもよい。
図4は、本発明の第1の実施の形態のクラスタ情報管理部301によるクラスタ状態判断テーブル331に基づいて障害を回復させる処理の手順を示す図である。
図4に示す障害回復処理では、クラスタ情報管理部301によって、すべての計算機が障害などによって停止することによる処理データ103の消失を防ぐため、待機系の残り台数が閾値よりも少なくならないように制御する。
CPU21は、自系(現用系)で障害発生を検知した場合には(ステップ401)、クラスタ状態判断テーブル331を参照し、待機台数の合計を算出する(ステップ402)。さらに、クラスタ状態判断テーブル331から残台数閾値情報を取得する(ステップ403)。
CPU21は、待機台数が0か否かを判定する(ステップ404)。待機台数が0の場合には(ステップ404の結果が「Y」)、回復に必要なデータが存在しないため、システム回復が不可能と判断し(ステップ405)、本処理を終了する。なお、ステップ405の処理では、終了以外に、処理データ103を不揮発性ディスクに複写するなどのデータ保護処理を実行してもよい。
CPU21は、待機台数が0よりも大きい場合には(ステップ404の結果が「N」)、待機台数の合計が残台数閾値情報以下であるか否かを判定する(ステップ406)。待機台数の合計が残台数閾値情報以下の場合には(ステップ406の結果が「Y」)、プロセスの再開始を試みる(ステップ407)。さらに、プロセスの再開始が成功したか否かを判定する(ステップ408)。
一方、CPU21は、待機台数の合計が残台数閾値情報よりも大きい場合(ステップ406)、又は、プロセスの再開始に失敗した場合には(ステップ408の結果が「N」)、待機系に系を切り替える(ステップ409)。待機系への系切り替えが完了、又は、プロセスの再開始が成功すると(ステップ408の結果が「Y」)、システムを回復させることができる(ステップ410)。
図5A及び図5Bは、本発明の第1の実施の形態のクラスタ状態判断テーブル331に基づいて障害を回復させる処理の一例を示す図である。
図5Aに示すケース1では、計算機1は現用系、計算機2〜4は待機系となっている。計算機1のクラスタ状態判断テーブル331には、各計算機のクラスタ状態が格納されている。
ここで、現用系の計算機1に障害が発生した場合には、残台数閾値情報と稼動中の待機系の台数とを比較する。ケース1では、待機系の残り台数は3台であり、閾値(2台)よりも大きいため、待機系への系切り替えを実行する。
図5Bに示すケース2では、計算機1は現用系、計算機2、3は待機系、計算機4は障害によるダウン中となっている。現用系の計算機1に障害が発生すると、待機系の残り台数2台であり、残台数閾値情報の値(2台)以下であるため、計算機1は待機系からデータを取得し、プロセスの再開始を試みる。
図6は、本発明の第1の実施の形態のクラスタ情報管理部301によるデータ量判断テーブル311に基づいて障害を回復させる処理の手順を示す図である。
本発明の第1の実施の形態では、処理実行部102は、機能ごとにモジュール単位で分割された構成となっている。処理実行時に最初に実行されるモジュールをメインモジュールとする。また、各モジュールは、機能ごとに階層構造となっており、上位のモジュールが下位のモジュールを作成し、さらに、下位のモジュールに障害が発生したか否かを監視する。処理実行部102は、障害が発生した場合には、クラスタ情報管理部301に障害の発生したモジュールを通知する。
次に、クラスタ情報管理部301は、データ量判断テーブル311を参照し、回復が必要となるモジュールを特定する。最下位のモジュールに障害が発生した場合は、当該モジュールを再作成することによって回復させる必要がある。また、下位モジュールを有するモジュールに障害が発生した場合には、すべての下位モジュールもあわせて回復させる必要がある。
各モジュールは、処理の実行時に処理データ103を必要とする。プロセスを再開始する場合には、障害が発生したモジュールごとに必要なデータを待機系から取得する必要がある。各モジュールが必要とするデータ量が大きい場合には、データ転送における処理時間が増大し、系切り替えと比較して回復処理に必要な時間が大きくなる場合がある。したがって、データ転送量が多い場合には、系切り替えを実行したほうが高速な回復が可能となる。本処理では、データ転送量に基づいてプロセスを再開始するか系切り替えを実行するかを判断し、システムを回復させる。
CPU21は、自系(現用系)で障害発生を検知した場合には(ステップ401)、データ量判断テーブル311を参照し、障害モジュール及び障害モジュールに依存関係を有する下位モジュールを特定し、全モジュールのデータ量の合計を算出する(ステップ421)。さらに、データ量判断テーブル311からデータ量閾値情報を取得する(ステップ422)。
CPU21は、データ量の合計がデータ量閾値情報の値よりも小さいか否かを判定する(ステップ423)。データ量の合計がデータ量閾値情報の値よりも小さい場合には(ステップ423の結果が「Y」)、待機系の計算機から転送されるデータ量が小さいため、プロセスの再開始を試みる(ステップ407)。さらに、プロセスの再開始が成功したか否かを判定する(ステップ408)。
一方、CPU21は、データ量の合計がデータ量閾値情報の値以上の場合(ステップ406の結果が「N」)、又は、プロセスの再開始に失敗した場合には(ステップ408の結果が「N」)、待機系に系を切り替える(ステップ409)。待機系への系切り替えが完了、又は、プロセスの再開始が成功すると(ステップ408の結果が「Y」)、システムを回復させることができる(ステップ410)。
図6では、障害が発生したモジュールに対してのみプロセスを再開始するか否かを判断する例を示したが、依存関係を有するより上位のモジュールを対象として、再帰的にモジュールを再開始させてもよい。例えば、系切り替えを実行するステップ409の処理の前に、上位モジュールの再開始を再帰的に実行するようにすればよい。また、このように再帰的にモジュールを再開始する場合には、データ量の合計を閾値と比較せずに、無条件にプロセスを再開始するようにしてもよい。
また、検知された障害が自プロセス内のメモリ資源枯渇による障害であった場合には、プロセスの再開始によるメモリ状態の初期化によって回復可能な場合がある。したがって、最初に、メインモジュール配下の全モジュールのデータ量を算出し、算出された値に基づいて、プロセスの再開始又は系切り替えのいずれを実行するかを判断する処理を追加してもよい。
図7は、本発明の第1の実施の形態のデータ量判断テーブル311に基づいて障害を回復させる処理の一例を示す図である。
図7では、障害(1)及び障害(2)が発生した場合について説明する。また、図7の説明において、プロセスを再開始するか否かを判定するために基準となるデータ量判断テーブル311は、図3に示した回復判断テーブル303のデータ量判断テーブル311を利用する。
障害(1)は、モジュールBに障害が発生した場合を示している。この場合、まず、障害が発生したモジュールBに下位モジュールが存在するか否かを、データ量判断テーブル311に含まれるモジュール間の依存関係に基づいて判断する。
データ量判断テーブル311を参照すると、モジュールBには、下位モジュールとしてモジュールB1及びモジュールB2が存在し、当該モジュールの処理データを待機系から転送する必要があることがわかる。そして、モジュールB、モジュールB1及びモジュールB2の処理データ量の合計を算出すると、150(=30+70+50)となる。さらに、処理データ量の合計とデータ量判断テーブル311に格納された閾値と比較し、プロセスの再開始が必要であるか否かを判断する。障害(1)では、各モジュールのデータ量の合計(150)が閾値(100)よりも大きいため、プロセスを再開始せずに系を切り替える。
一方、障害(2)は、モジュールCに障害が発生した場合を示している。同様に、データ量判断テーブル311からモジュールC及び下位モジュールであるモジュールC1の処理データの合計値を算出し、閾値と比較する。障害(2)では、各モジュールのデータ量の合計(30)が閾値(100)よりも小さいため、プロセスの再開始を実行する。
図8は、本発明の第1の実施の形態の負荷情報判断部202によって障害を回復させる処理の手順を示す図である。
プロセスの再開始又は系切り替えによって障害を回復させる場合に、処理を実行する計算機の負荷が高いと、回復処理に要する時間が増大する可能性が高く、さらに、正常に回復処理を実行できない可能性がある。そこで、図8に示す障害回復処理では、できるだけ負荷の低い計算機で処理が継続されるように回復処理を実行する。
各計算機の負荷量は、所定の基準に基づいて定められた方法によって決定される値である。例えば、負荷量は、一又は複数の情報に重み付けすることによって算出される。負荷量の基準としては、例えば、CPU使用率、ネットワーク使用率、処理が完了していないデータ量などが挙げられる。また、重み付けの方法としては、前述した負荷量の基準と過去の実行時間に基づいて算出された値を利用して、事前に定義された算出式を用いる方法などがある。
負荷情報管理部201は、負荷量を一定間隔で算出し、負荷情報転送部203によって他系に転送する。他系からの負荷量が一定間隔に受信できなかった場合は、当該系の負荷量は高いと判断し、負荷量に最大値を設定する。また、負荷情報管理部201は、自系のクラスタ情報管理部301に算出された自系の負荷量及び受信した他系の負荷量を通知する。クラスタ情報管理部301は、通知された負荷量を回復判断テーブル303の負荷情報判断テーブル321に格納する。
CPU21は、自系(現用系)で障害発生を検知した場合には(ステップ401)、負荷状態判断テーブル321を参照し、各計算機の負荷量を取得する(ステップ441)。さらに、負荷状態判断テーブル321から負荷量閾値情報を取得する(ステップ442)。
CPU21は、自系の負荷量が負荷量閾値情報の値よりも小さいか否か、又は、自系の負荷量が最も低いか否かを判定する(ステップ443)。自系の負荷量が負荷量閾値情報の値よりも小さい場合、又は、自系の負荷量が最も低い場合には(ステップ443の結果が「Y」)、プロセスの再開始を試みる(ステップ407)。さらに、プロセスの再開始が成功したか否かを判定する(ステップ408)。
一方、CPU21は、自系の負荷量が負荷量閾値情報の値以上の場合、かつ、自系の負荷量が最も低くない場合(ステップ443の結果が「N」)、又は、プロセスの再開始に失敗した場合には(ステップ408の結果が「N」)、最も負荷の低い待機系に系切り替えを実行する(ステップ444)。待機系への系切り替えが完了、又は、プロセスの再開始が成功すると(ステップ408の結果が「Y」)、システムを回復させることができる(ステップ410)。
図9A及び図9Bは、本発明の第1の実施の形態の負荷情報判断部202によって障害を回復させる処理の一例を示す図である。
負荷量は、基準となる負荷量を100とした場合の相対的な値とし、値が大きいほど負荷が高いものとする。
図9Aに示すケース1では、負荷量の高い計算機1に障害が発生した場合の例を示している。計算機1の負荷量(70)は閾値(40)よりも大きく、他の待機系の計算機のほうが計算機1よりも負荷量が小さいため、待機系に切り替える。この場合、系切り替え先は最も負荷量の低い計算機3となる。
図9Bに示すケース2では、負荷量の低い計算機1に障害が起こった場合の例を示している。計算機1の負荷量(20)は閾値(40)よりも小さいため、プロセスの再開始を実行する。なお、計算機1の負荷量が閾値以上の場合であっても、計算機1が最も負荷量の低い計算機であるため、プロセスの再開始を実行する。
図10は、本発明の第1の実施の形態の現用系障害時の一連の回復処理の手順を示す図である。
図10に示した回復処理は、図4、図6及び図8に示した手順を組み合わせたものである。各ステップの説明については、前述したとおりである。
本処理は、クラスタ情報管理部301によって、自系(現用系)の計算機の障害が検知された場合に実行される(ステップ401)。
CPU21は、まず、クラスタ状態判断テーブル331を参照し、待機系の計算機の台数及び残台数閾値情報の値を比較する(ステップ402〜406)。処理データ103の消失を防ぐことを最優先とするため、現用系のデータを保持する待機系の計算機が一定台数以上稼働するように制御する。
続いて、CPU21は、データ量判断テーブル311を参照し、障害を回復するために待機系から取得するデータ量とデータ量閾値情報の値とを比較する(ステップ421〜423)。そして、転送されるデータ量がデータ量閾値情報の値よりも少ない場合には、プロセスの再開始を試みる(ステップ407)。転送されるデータ量が少ないほど、プロセスを再開始するために必要な時間が短くなるからである。
最後に、CPU21は、負荷状態判断テーブル321を参照し、各計算機の負荷量と負荷量閾値情報の値とを比較する(ステップ441〜443)。自系の計算機の負荷量が負荷量閾値情報の値よりも小さい場合、又は、自系の計算機の負荷がシステム内で最も低い場合には、プロセスの再開始を試みる。自系の負荷量が負荷量閾値情報の値以上の場合、かつ、自系の負荷量がシステム内で最も低くない場合、又は、プロセスの再開始を失敗した場合には(ステップ443の結果が「N」)、最も負荷の低い待機系を取得して系切り替えを実行する(ステップ444)。
本発明の第1の実施の形態によれば、現用系が回復するために必要なデータをすべての待機系が保持することによって、プロセス回復完了までに連続的に障害が発生した場合であってもデータ消失を防ぐことができる。
また、本発明の第1の実施の形態によれば、プロセスの障害回復手段として、システムの状態に基づいて、プロセスの再開始と系切り替えのいずれかを実施することによって、障害復旧処理の高速化及び高信頼化を実現することができる。
(第2の実施の形態)
本発明の第1の実施の形態では、回復判断テーブル303を各計算機が保持していたが、本発明の第2の実施の形態では、管理計算機が回復判断テーブル303を保持する。さらに、管理計算機によってプロセスの障害回復方法が決定され、各計算機に指示される。
図11は、本発明の第2の実施の形態のクラスタシステムの一例を示すシステム構成図である。
本発明の第2の実施の形態のクラスタシステムは、現用系及び待機系の計算機(1〜n)以外に管理計算機11を含む。現用系及び待機系の計算機(1〜n)と管理計算機11とは、ネットワークを介して接続される。
管理計算機11は、クラスタ状態判断テーブル331及び負荷状態判断テーブル321を保持し、現用系に障害が発生した場合に、プロセスを再開始するか待機系に系切り替えを実行するかを判断する。また、待機系に切り替える場合には、処理を引き継ぐ計算機を選択する。
管理計算機11のハードウェア構成は、図2に示した計算機のハードウェア構成と同様であって、CPU、メモリ、NIC及び入出力装置などを備える。なお、管理計算機11は、仮想計算機上で実行されるプログラムによって実現されてもよい。
管理計算機11は、回復判断テーブル303、データ量取得部108、クラスタ情報転送部302、負荷情報転送部203及び障害回復部110を含む。
回復判断テーブル303は、本発明の第1の実施の形態と同様に、データ量判断テーブル311、クラスタ状態判断テーブル331及び負荷状態判断テーブル321を含む。
なお、データ量判断テーブル311は、他の情報と比較して更新頻度が多く、管理計算機に格納されたデータ量判断テーブル311を随時更新すると、ネットワークトラフィックが増大し、処理効率が悪化するおそれがあるため、各計算機に格納されている。本発明の第2の実施の形態では、現用系の計算機に格納されたデータ量判断テーブル311の情報を定期的に管理計算機11が取得することによって、ネットワークトラフィックの増大を抑制する。
データ量取得部108は、現用系の計算機に格納されたデータ量判断テーブル311から情報を取得し、管理計算機11のデータ量判断テーブル311に情報を格納する。
クラスタ情報転送部302は、現用系及び待機系の計算機から送信されたクラスタ情報を受信し、管理計算機11のクラスタ状態判断テーブル331に受信したクラスタ情報を格納する。
負荷情報転送部203は、現用系及び待機系の計算機から送信された負荷情報を受信し、管理計算機11の負荷状態判断テーブル321に受信した負荷情報を格納する。
障害回復部110は、現用系の計算機に障害が発生すると、回復判断テーブル303に格納された情報に基づいて、システムを回復させる。なお、管理計算機11で実行される回復処理は、図10に示した本発明の第1の実施の形態の回復処理と同様である。
本発明の第2の実施の形態によれば、本発明の第1の実地の形態と同様に、現用系が回復するために必要なデータをすべての待機系が保持することによって、プロセス回復完了までに連続的に障害が発生した場合であってもデータ消失を防ぐことができる。
また、本発明の第2の実施の形態によれば、各計算機の情報を一元管理されるため、回復に必要な情報をすべての計算機で共有する必要がない。したがって、回復に必要な情報を転送するために必要なネットワークのトラフィックを軽減することができる。
さらに、本発明の第2の実施の形態によれば、各計算機がシステム内の他の計算機を監視する必要がなくなるため、各計算機の負荷を軽減することができる。
本発明の第1の実施の形態のクラスタシステムの一例を示すシステム構成図である。 本発明の第1の実施の形態のハードウェアの構成を示す図である。 本発明の第1の実施の形態の回復判断テーブルの構成を示す図である。 本発明の第1の実施の形態のクラスタ状態判断テーブルに基づいて障害を回復させる処理の手順を示す図である。 本発明の第1の実施の形態のクラスタ状態判断テーブルに基づいて障害を回復させる処理の一例を示す図である(プロセス再開始)。 本発明の第1の実施の形態のクラスタ状態判断テーブルに基づいて障害を回復させる処理の一例を示す図である(系切り替え)。 本発明の第1の実施の形態のデータ量判断テーブルに基づいて障害を回復させる処理の手順を示す図である。 本発明の第1の実施の形態のデータ量判断テーブルに基づいて障害を回復させる処理の一例を示す図である。 本発明の第1の実施の形態の負荷情報判断部によって障害を回復させる処理の手順を示す図である。 本発明の第1の実施の形態の負荷情報判断部によって障害を回復させる処理の一例を示す図である(プロセス再開始)。 本発明の第1の実施の形態の負荷情報判断部によって障害を回復させる処理の一例を示す図である(系切り替え)。 本発明の第1の実施の形態の現用系障害時の一連の回復処理の手順を示す図である。 本発明の第2の実施の形態のクラスタシステムの一例を示すシステム構成図である。
符号の説明
1〜n 計算機
11 管理計算機
21 CPU
22 ディスプレイ装置
23 キーボード
24 マウス
25 ネットワークインタフェースカード
26 ハードディスク装置
27 メモリ
100 処理管理部
101 処理データ管理部
102 処理実行部
103 処理データ
104 データ転送部
108 データ量取得部
110 障害回復部
201 負荷情報管理部
202 負荷情報判断部
203 負荷情報転送部
301 クラスタ情報管理部
302 クラスタ情報転送部
303 回復判断テーブル
311 クラスタ状態判断テーブル
321 負荷状態判断テーブル
331 クラスタ状態判断テーブル

Claims (11)

  1. 業務処理を実行する第1の計算機と、前記第1の計算機によって処理されるデータの複製を保持する第2の計算機とを含むクラスタシステムにおいて、前記第1の計算機で発生した障害を回復する方法であって、
    前記第1の計算機は、第1のプロセッサと、前記第1のプロセッサに接続される第1の記憶部と、前記第2の計算機に接続される第1のインタフェースとを備え、
    前記第2の計算機は、第2のプロセッサと、前記第2のプロセッサに接続される第2の記憶部と、前記第1の計算機に接続される第2のインタフェースとを備え、
    前記第1の記憶部は、前記業務処理で使用されるデータを記憶し、
    前記クラスタシステムは、当該クラスタシステムの状態を含むシステム情報を保持し、
    前記障害回復方法は、
    前記第1の記憶部に記憶されたデータを、前記第2の計算機に送信し、
    前記第1の計算機から送信されたデータを、前記第2の記憶部に記憶し、
    前記第1の計算機に障害が発生した場合には、前記システム情報に基づいて、前記障害が発生した処理を前記第1の計算機で再開始するか、又は、前記障害が発生した処理を前記第2の計算機が実行するか、を判定し、
    前記障害が発生した処理を前記第1の計算機で再開始する場合には、前記第2の記憶部に格納されたデータを前記第2の計算機から前記第1の計算機に送信し、前記第1の計算機に送信されたデータを前記第1の記憶部に記憶し、前記障害が発生した処理を再開始し、
    前記障害が発生した処理を前記第2の計算機が実行する場合には、前記第2の計算機が、前記障害が発生した処理を実行することを特徴とする障害回復方法。
  2. 前記システム情報は、前記第2の計算機の数を含み、
    前記障害回復方法は、前記第1の計算機の障害発生時に、前記第2の計算機の数が所定の閾値よりも小さい場合には、前記障害が発生した処理を前記第1の計算機で再開始することを特徴とする請求項1に記載の障害回復方法。
  3. 前記システム情報は、前記第1の計算機で実行される処理を構成する各モジュールによって使用されるデータ量を含み、
    前記障害回復方法は、
    前記第1の計算機の障害発生時に、障害が発生したモジュールを特定し、
    前記特定されたモジュールによって使用されるデータ量を前記システム情報から取得し、
    前記取得されたデータ量が所定の閾値よりも小さい場合には、前記障害が発生した処理を前記第1の計算機で再開始することを特徴とする請求項1に記載の障害回復方法。
  4. 前記システム情報は、前記第1の計算機及び前記第2の計算機の負荷情報を含み、
    前記障害回復方法は、前記第1の計算機の障害発生時に、前記第1の計算機の負荷が所定の閾値よりも小さい場合には、前記障害が発生した処理を前記第1の計算機で再開始することを特徴とする請求項1に記載の障害回復方法。
  5. 前記障害回復方法は、
    前記第1の計算機の障害発生時に、前記第1の計算機の負荷が所定の閾値以上の場合には、最も負荷の少ない計算機を選択し、
    前記選択された計算機が、前記障害が発生した処理を実行することを指示することを特徴とする請求項4に記載の障害回復方法。
  6. 業務処理を実行する第1の計算機と、前記第1の計算機によって処理されるデータの複製を保持する第2の計算機とを含むクラスタシステムに含まれる第1の計算機であって、
    プロセッサと、前記プロセッサに接続される記憶部と、前記第2の計算機に接続されるインタフェースとを備え、
    前記記憶部は、
    前記業務処理で使用されるデータを記憶し、
    前記クラスタシステムの状態を含むシステム情報を記憶し、
    前記プロセッサは、
    前記記憶部に記憶されたデータを、前記第2の計算機に送信し、
    前記第1の計算機に障害が発生した場合には、前記システム情報に基づいて、前記障害が発生した処理を再開始するか、又は、前記障害が発生した処理を前記第2の計算機が実行するか、を判定し、
    前記障害が発生した処理を再開始する場合には、前記第2の計算機から前記第1の計算機によって処理されるデータの複製を取得し、前記取得されたデータを前記記憶部に記憶し、前記障害が発生した処理を再開始し、
    前記障害が発生した処理を前記第2の計算機が実行する場合には、前記第2の計算機に前記障害が発生した処理を実行するように指示することを特徴とする計算機。
  7. 前記システム情報は、前記第2の計算機の数を含み、
    前記プロセッサは、前記第1の計算機の障害発生時に、前記第2の計算機の数が所定の閾値よりも小さい場合には、前記障害が発生した処理を再開始することを特徴とする請求項6に記載の計算機。
  8. 前記システム情報は、前記第1の計算機で実行される処理を構成する各モジュールによって使用されるデータ量を含み、
    前記プロセッサは、
    前記第1の計算機の障害発生時に、障害が発生したモジュールを特定し、
    前記特定されたモジュールによって使用されるデータ量を前記システム情報から取得し、
    前記取得されたデータ量が所定の閾値よりも小さい場合には、前記障害が発生した処理を再開始することを特徴とする請求項6に記載の計算機。
  9. 前記システム情報は、前記第1の計算機及び前記第2の計算機の負荷情報を含み、
    前記プロセッサは、前記第1の計算機の障害発生時に、前記第1の計算機の負荷が所定の閾値よりも小さい場合には、前記障害が発生した処理を再開始することを特徴とする請求項6に記載の計算機。
  10. 前記プロセッサは、
    前記第1の計算機の障害発生時に、前記第1の計算機の負荷が所定の閾値以上の場合には、最も負荷の少ない計算機を選択し、
    前記選択された計算機に、前記障害が発生した処理を実行するように指示することを特徴とする請求項9に記載の計算機。
  11. 業務処理を実行する第1の計算機と、前記第1の計算機によって処理されるデータの複製を保持する第2の計算機と、前記第1の計算機及び前記第2の計算機を管理する管理計算機とを含むクラスタシステムであって、
    前記第1の計算機は、第1のプロセッサと、前記第1のプロセッサに接続される第1の記憶部と、前記第2の計算機に接続される第1のインタフェースとを備え、
    前記第2の計算機は、第2のプロセッサと、前記第2のプロセッサに接続される第2の記憶部と、前記第1の計算機に接続される第2のインタフェースとを備え、
    前記管理計算機は、第3のプロセッサと、前記第3のプロセッサに接続される第3の記憶部と、前記第1の計算機及び前記第2の計算機に接続される第3のインタフェースとを備え、
    前記第1の記憶部は、前記業務処理で使用されるデータを記憶し、
    前記第3の記憶部は、前記クラスタシステムの状態を含むシステム情報を記憶し、
    前記第1の計算機は、前記第1の記憶部に記憶されたデータを前記第2の計算機に送信し、
    前記第2の計算機は、前記第1の計算機から送信されたデータを、前記第2の記憶部に記憶し、
    前記管理計算機は、
    前記第1の計算機に障害が発生した場合には、前記システム情報に基づいて、前記障害が発生した処理を前記第1の計算機で再開始するか、又は、前記障害が発生した処理を前記第2の計算機が実行するか、を判定し、
    前記障害が発生した処理を前記第1の計算機で再開始する場合には、前記第1の計算機に前記障害が発生した処理の再開始を指示し、
    前記第1の計算機は、前記第2の記憶部に格納されたデータを前記第2の計算機から取得し、前記第2の計算機から取得したデータを前記第1の記憶部に記憶し、前記障害が発生した処理を再開始し、
    前記管理計算機は、
    前記障害が発生した処理を前記第2の計算機が実行する場合には、前記システム情報に基づいて、前記障害が発生した処理を継続する第2の計算機を選択し、
    前記選択された第2の計算機に、前記障害が発生した処理を実行することを指示し、
    前記選択された第2の計算機は、前記障害が発生した処理を実行することを特徴とするクラスタシステム。
JP2007307106A 2007-11-28 2007-11-28 障害回復方法、計算機、クラスタシステム、管理計算機及び障害回復プログラム Expired - Fee Related JP4491482B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007307106A JP4491482B2 (ja) 2007-11-28 2007-11-28 障害回復方法、計算機、クラスタシステム、管理計算機及び障害回復プログラム
US12/041,059 US7886181B2 (en) 2007-11-28 2008-03-03 Failure recovery method in cluster system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007307106A JP4491482B2 (ja) 2007-11-28 2007-11-28 障害回復方法、計算機、クラスタシステム、管理計算機及び障害回復プログラム

Publications (3)

Publication Number Publication Date
JP2009129409A JP2009129409A (ja) 2009-06-11
JP2009129409A5 JP2009129409A5 (ja) 2009-09-24
JP4491482B2 true JP4491482B2 (ja) 2010-06-30

Family

ID=40670784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007307106A Expired - Fee Related JP4491482B2 (ja) 2007-11-28 2007-11-28 障害回復方法、計算機、クラスタシステム、管理計算機及び障害回復プログラム

Country Status (2)

Country Link
US (1) US7886181B2 (ja)
JP (1) JP4491482B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8880931B2 (en) 2010-01-04 2014-11-04 Nec Corporation Method, distributed system and computer program for failure recovery
WO2011099380A1 (ja) * 2010-02-10 2011-08-18 三菱電機株式会社 必須データ管理システム及び計算機及び必須データ管理プログラム及び記録媒体及び通信方法
US9901246B2 (en) 2014-02-05 2018-02-27 Verathon Inc. Cystoscopy system including a catheter endoscope and method of use
US11075806B1 (en) 2016-06-30 2021-07-27 Juniper Networks, Inc. Hierarchical naming scheme for state propagation within network devices
US11316744B2 (en) 2016-12-21 2022-04-26 Juniper Networks, Inc. Organizing execution of distributed operating systems for network devices
US10887173B2 (en) 2016-12-21 2021-01-05 Juniper Networks, Inc. Communicating state information in distributed operating systems
US11316775B2 (en) * 2016-12-21 2022-04-26 Juniper Networks, Inc. Maintaining coherency in distributed operating systems for network devices
US10409697B2 (en) * 2017-02-23 2019-09-10 Salesforce.Com, Inc. Automated self-healing database system and method for implementing the same
US11095742B2 (en) 2019-03-27 2021-08-17 Juniper Networks, Inc. Query proxy for delivery of dynamic system state

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05250197A (ja) * 1992-03-04 1993-09-28 Nec Commun Syst Ltd 自律系構成回路の制御方式

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2730534B2 (ja) 1995-12-18 1998-03-25 日本電気株式会社 データ通信網端末のデータバックアップ方法とその装置
US7111084B2 (en) * 2001-12-28 2006-09-19 Hewlett-Packard Development Company, L.P. Data storage network with host transparent failover controlled by host bus adapter
US7318116B2 (en) * 2002-11-08 2008-01-08 International Business Machines Corporation Control path failover in an automated data storage library
JP2005018510A (ja) * 2003-06-27 2005-01-20 Hitachi Ltd データセンタシステム及びその制御方法
JP2005301436A (ja) * 2004-04-07 2005-10-27 Hitachi Ltd クラスタシステムおよびクラスタシステムにおける障害回復方法
US7480827B2 (en) * 2006-08-11 2009-01-20 Chicago Mercantile Exchange Fault tolerance and failover using active copy-cat

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05250197A (ja) * 1992-03-04 1993-09-28 Nec Commun Syst Ltd 自律系構成回路の制御方式

Also Published As

Publication number Publication date
JP2009129409A (ja) 2009-06-11
US20090138757A1 (en) 2009-05-28
US7886181B2 (en) 2011-02-08

Similar Documents

Publication Publication Date Title
JP4491482B2 (ja) 障害回復方法、計算機、クラスタシステム、管理計算機及び障害回復プログラム
EP3694148B1 (en) Configuration modification method for storage cluster, storage cluster and computer system
JP5851503B2 (ja) 高可用性仮想機械環境におけるアプリケーションの高可用性の提供
US6687849B1 (en) Method and apparatus for implementing fault-tolerant processing without duplicating working process
EP2434729A2 (en) Method for providing access to data items from a distributed storage system
US7620845B2 (en) Distributed system and redundancy control method
JP2008097276A (ja) 障害回復方法、計算機システム及び管理サーバ
JP5672304B2 (ja) 障害リカバリのための方法、分散システム、およびコンピュータプログラム
JP5948933B2 (ja) ジョブ継続管理装置、ジョブ継続管理方法、及び、ジョブ継続管理プログラム
US8015432B1 (en) Method and apparatus for providing computer failover to a virtualized environment
CN108737153B (zh) 区块链灾备系统、方法、服务器和计算机可读存储介质
JP2007304845A (ja) 仮想計算機システムおよびソフトウェア更新方法
US20130061086A1 (en) Fault-tolerant system, server, and fault-tolerating method
US8621260B1 (en) Site-level sub-cluster dependencies
JP4796086B2 (ja) クラスタシステム及び同システムにおいてマスタノードを選択する方法
JP2005250840A (ja) 耐障害システムのための情報処理装置
JP2009003537A (ja) 計算機
JP2009265973A (ja) データ同期システム、障害復旧方法、及び、プログラム
CN112269693B (zh) 一种节点自协调方法、装置和计算机可读存储介质
JP2008276281A (ja) データ同期システム、方法、及び、プログラム
CN109947593B (zh) 数据容灾方法、系统、策略仲裁装置和存储介质
Tikotekar et al. On the survivability of standard MPI applications
Limaye et al. Reliability-aware resource management for computational grid/cluster environments
JP2007094604A (ja) 災害対策用コンピュータバックアップ方式
JP6090335B2 (ja) 情報処理装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090806

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100330

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100405

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140409

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees