JP6511738B2 - 冗長システム、冗長化方法および冗長化プログラム - Google Patents

冗長システム、冗長化方法および冗長化プログラム Download PDF

Info

Publication number
JP6511738B2
JP6511738B2 JP2014127731A JP2014127731A JP6511738B2 JP 6511738 B2 JP6511738 B2 JP 6511738B2 JP 2014127731 A JP2014127731 A JP 2014127731A JP 2014127731 A JP2014127731 A JP 2014127731A JP 6511738 B2 JP6511738 B2 JP 6511738B2
Authority
JP
Japan
Prior art keywords
node
update
data
information
update information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014127731A
Other languages
English (en)
Other versions
JP2016009218A (ja
Inventor
康樹 吉橋
康樹 吉橋
朝昭 溝尾
朝昭 溝尾
敏郎 小野
敏郎 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014127731A priority Critical patent/JP6511738B2/ja
Priority to US14/721,059 priority patent/US9921927B2/en
Publication of JP2016009218A publication Critical patent/JP2016009218A/ja
Application granted granted Critical
Publication of JP6511738B2 publication Critical patent/JP6511738B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2028Failover techniques eliminating a faulty processor or activating a spare
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2041Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant with more than one idle spare processing component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2048Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share neither address space nor persistent storage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2097Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements maintaining the standby controller/processing unit updated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/80Database-specific techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/82Solving problems relating to consistency
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/84Using snapshots, i.e. a logical point-in-time copy of the data

Description

本発明は、冗長システム、冗長化方法および冗長化プログラムに関する。
データセンタには、Webサーバ、アプリケーションサーバ、DB(DataBase)サーバなどの各種ノードが設置され、各ノードは、災害や障害に備えて冗長化されることが一般的である。
例えば、データセンタ内のノードについて正系のノードと副系のノードとを用意し、正系のノードが故障した場合、故障した正系のノードに代わり副系のノードが、故障した正系のノードの処理を引き継ぎ、処理を継続する冗長化技術が知られている。
また、正系のデータセンタのバックアップ用の副系のデータセンタを設け、正系のデータセンタが被災した場合に、バックアップ用の副系のデータセンタが処理を引き継ぎ、正系のデータセンタで実行される処理を継続する技術が知られている。
特開2008−134986号公報
しかしながら、正系のデータセンタから副系のデータセンタへログを転送するノードが故障した場合、そのノードが復帰するまで、副系のデータセンタにログが転送されない。故障したノードの復帰までの間に、正系のデータセンタが被災した場合、データロストが発生する。
ノードの故障とデータセンタの被災の双方が発生した場合のデータロストを抑止するために、データセンタ間でログを転送する経路を複数設けることが考えられるが、その場合は2経路からログを受信するノードが副系のデータセンタに存在することになる。この際、2経路からログを受信するノードにおいて、2経路のログのうちいずれのログを反映させるべきかが適切に選択されないと、データロスト量の増加を招く。
1つの側面では、更新情報の反映におけるデータロストの増加を抑制することができる冗長システム、冗長化方法および冗長化プログラムを提供することを目的とする。
第1の案では、第1のノードと該第1のノードのバックアップを行う第2のノードと、
を含む正系システムと、第3のノードと該第3のノードのバックアップを行う第4のノードとを含む副系システムとを備える。前記正系システムの前記第1のノードは、前記第1のノードにおけるデータ更新に応じて生成されるデータ更新情報を前記第2のノードと、前記第3のノードとに送信する送信手段を備える。前記副系システムの前記第4のノードは、前記第2のノードを介して取得したデータ更新情報に示されるトランザクションの進行度と、前記第3のノードを介して取得したデータ更新情報に示されるトランザクションの進行度とを判定し、より進行するトランザクションを示すデータ更新情報を特定して、前記第4のノードの記憶データに反映する反映手段を備える。
1つの側面では、更新情報の反映におけるデータロストの増加を抑制することができる。
図1は、実施例1に係る冗長化システムの全体構成例を示す図である。 図2は、正センタの各ノードの機能構成を示す機能ブロック図である。 図3は、ユーザログ例を示す図である。 図4は、制御ログ例を示す図である。 図5は、リカバリポイントログ例を示す図である。 図6は、システム間通信で送信される更新ファイルの例を示す図である。 図7は、副センタの各ノードの機能構成を示す機能ブロック図である。 図8は、副ミラーノードによるトランザクション進行度の比較例を説明する図である。 図9は、正マスタノードから正ミラーノードへの通知処理の流れを示すフローチャートである。 図10は、正マスタノードから副マスタノードへの通知処理の流れを示すフローチャートである。 図11は、正ミラーノードが実行する更新処理の流れを示すフローチャートである。 図12は、正ミラーノードが実行する通知処理の流れを示すフローチャートである。 図13は、副マスタノードが実行する更新および通知処理の流れを示すフローチャートである。 図14は、副ミラーノードが実行する更新処理の流れを示すフローチャートである。 図15は、実施例2に係る副ミラーノードが実行する更新処理の流れを示すフローチャートである。 図16は、実施例3に係る冗長化システムの障害発生例を説明する図である。 図17は、実施例3に係る冗長化システムの系切替例を説明する図である。 図18は、実施例3に係る副ミラーノードが実行する更新処理の流れを示すフローチャートである。 図19は、実施例3に係る副ミラーノードが実行する系切替処理の流れを示すフローチャートである。 図20は、ハードウェア構成例を説明する図である。
以下に、本願の開示する冗長システム、冗長化方法および冗長化プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
[全体構成例]
図1は、実施例1に係る冗長化システムの全体構成例を示す図である。図1に示すように、このシステムは、DB4重化機能を実行してデータセンタがミラーリングされた冗長化システムであり、データセンタである正センタ1および副センタ5を有する。
正センタ1は、正マスタノード10と正ミラーノード20とを有するデータセンタであり、DBのミラーリングを実行する冗長化構成を有する。同様に、副センタ5は、副マスタノード50と副ミラーノード60とを有するデータセンタであり、DBのミラーリングを実行する冗長化構成を有する。この副センタ5は、正センタ1のバックアップとして機能する。なお、各ノードは、DBサーバやストレージシステムなどの一例である。
正マスタノード10は、業務による更新が行われる現用DB12を有する第1のノードの一例であり、通常運用時は正系ノードとして起動する。正マスタノード10は、業務アプリケーション等によって現用DB12を更新すると、更新前後の差分などを示す更新情報を抽出する。例えば、正マスタノード10は、更新された内容を示す更新ログを、現用DB12の更新に同期して正ミラーノード20に送信する。また、正マスタノード10は、複数の更新ログで構成される更新ファイルを生成して、所定の間隔で副マスタノード50に送信する。
正ミラーノード20は、現用DB12と同期して更新される待機DB22を有する第2のノードの一例であり、通常運用時は正マスタノード10のバックアップとして機能する。正ミラーノード20は、正マスタノード10から更新情報として更新ログを受信すると、受信した更新ログを用いて待機DB22を更新する。その後、正ミラーノード20は、正マスタノード10から受信した更新ログで構成される更新ファイルを生成して、所定の間隔で副ミラーノード60に送信する。
副マスタノード50は、現用DB12と同等の情報を記憶する待機DB52を有する第3のノードの一例であり、通常運用時は、正センタ1の災害等の対策として、副系システムのマスタノードとして機能する。副マスタノード50は、正マスタノード10から更新情報として更新ファイルを受信すると、受信した更新ファイルから更新ログを抽出し、抽出した各更新ログを用いて待機DB52を更新する。その後、副マスタノード50は、正マスタノード10から受信した複数の更新ログで構成される更新ファイルを生成して、所定の間隔で副ミラーノード60に送信する。
副ミラーノード60は、現用DB12と同等の情報を記憶する待機DB62を有する第4のノードの一例であり、通常運用時は、正センタ1の災害等の対策として、副系システムのミラーノードとして機能する。副ミラーノード60は、正ミラーノード20から更新情報として更新ファイルを受信するとともに、副マスタノード50から更新ログを受信する。そして、副ミラーノード60は、受信したいずれかの更新情報を用いて、待機DB62を更新する。
このような状態において、正システムの正マスタノード10は、正マスタノードにおけるデータ更新に応じて生成されるデータ更新情報を正ミラーノード20と、副マスタノード50とに送信する。
そして、副センタ5の副ミラーノード60は、正ミラーノード20を介して取得したデータ更新情報に示されるトランザクションの進行度と、副マスタノード50を介して取得したデータ更新情報に示されるトランザクションの進行度とを判定する。その後、副ミラーノード60は、より進行するトランザクションを示すデータ更新情報を特定して、副ミラーノード60の記憶データに反映する。
つまり、4重化DBを構成する副ミラーノード60は、正マスタノード10が送信した更新情報を正ミラーノード20と副マスタノード50からの2系統で受信し、より処理が進行したトランザクションを示す更新情報を特定して反映させる。したがって、副ミラーノード60は、更新情報の反映におけるデータロスを抑制できる。
[各ノードの機能構成]
次に、図1に示した各ノードの機能構成について説明する。ここでは、一例として、図1の状態における機能構成について説明するが、これに限定されるものではなく、各ノードが同じ機能構成を有することもできる。
[正センタの機能構成]
図2は、正センタの各ノードの機能構成を示す機能ブロック図である。ここでは、正センタ1が有する正マスタノード10と正ミラーノード20とについて説明する。
(正マスタノードの機能構成)
図2に示すように、正マスタノード10は、通信制御部11、DB12、制御部13を有する。
通信制御部11は、正ミラーノード20および副マスタノード50との間の通信を制御する処理部であり、例えばネットワークインタフェースなどである。例えば、通信制御部11は、正ミラーノード20や副マスタノード50にDB12の更新情報を送信する。
DB12は、業務情報などを記憶するデータベースであり、図1に示した現用DB12に該当する。このDB12は、業務による更新が行われる。このDB12は、例えばハードディスクなどの記憶装置に設けられる。
制御部13は、正マスタノード10全体の処理を司る処理部であり、例えばプロセッサなどの一例である。この制御部13は、正マスタノード10と正ミラーノード20とのDB冗長化システムを実現する機能を実行し、正マスタノード10と副マスタノード50とのDB冗長化システムを実現する機能を実行する。すなわち、制御部13は、正センタ1内のDB2重化機能を実現するアプリケーションと、センタ間を跨ったDB4重化を実現するアプリケーションを実行する。
この制御部13は、DB更新部14、センタ内通知部15、挿入部16、センタ間通知部17を有する。これらの処理部は、プロセッサが有する電子回路やプロセッサが実行するプロセスの一例である。
DB更新部14は、DB12を更新する処理部である。例えば、DB更新部14は、アプリケーションの実行等に伴って、DB12の記憶データを更新する。
センタ内通知部15は、DB12の更新に同期させて、DB12の更新情報を同一システム内の正ミラーノード20に送信する処理部である。具体的には、センタ内通知部15は、DB12が更新されると、更新前後の情報から差分を抽出する。そして、センタ内通知部15は、差分情報を示す更新ログを更新情報として正ミラーノード20に送信する。
ここで、更新ログの例について説明する。図3は、ユーザログ例を示す図であり、図4は、制御ログ例を示す図である。図3に示すように、更新ログの一例であるユーザログは、DBの更新情報を示すログであり、「ヘッダ、ユーザログ表示、可変長部、可変長部2、BCキー情報」から構成される。
「ヘッダ」には、更新ログを示す情報や生成日時等が設定され、「ユーザログ表示」には、ユーザログであることを示す情報が設定される。「可変長部」および「可変長部2」には、DBの更新内容を示す情報であり、例えば具体的なレコード位置、更新前後のデータ、差分情報などである。「BCキー情報」は、正マスタノード10と正ミラーノード20とのDB2重化に関する情報が設定され、例えばチェックサムの情報やログの通番などが設定される。
図4に示すように、更新ログの一例である制御ログは、例えばロールバック処理などのDBへの制御処理を示すログであり、「ヘッダ、制御ログ表示、COMMIT指定」から構成される。「ヘッダ」には、更新ログを示す情報や生成日時等が設定され、「制御ログ表示」には、制御ログであることを示す情報が設定される。「COMMIT指定」は、具体的な制御処理を示す情報であり、例えばトランザクションの情報などが設定される。
上述したように、センタ内通知部15は、DB12が更新されると、更新された情報によって上記ユーザログまたは制御ログなどの更新ログを生成する。そして、センタ内通知部15は、生成した更新ログを正ミラーノード20に送信する。また、センタ内通知部15は、生成した更新ログをセンタ間通知部17に通知する。すなわち、センタ内通知部15は、同一センタ内では、DB12の更新と同期させてDBの更新情報を通知する。
挿入部16は、正マスタノード10におけるDBのデータ更新に応じて生成される更新情報を正ミラーノード20と、副マスタノード50とに送信する際に、1又は複数の更新処理単位の境界を示す区切り情報を双方の送信データに挿入する処理部である。
具体的には、挿入部16は、更新ログの到達状況を判断する、各ノードで共通の判断情報であるチェックポイントを定期的に生成する。そして、挿入部16は、定期的に生成したチェックポイントを正ミラーノード20に送信し、センタ間通知部17に通知する。なお、ここでのチェックポイントには、更新ログの一例であるリカバリポイントログが使用される。また、定期的の一例としては、例えば5秒などと設定することができるが、チェックポイント生成の時間間隔は適宜変更してよい。
図5は、リカバリポイントログ例を示す図である。図5に示すように、リカバリポイントログは、更新ログの到達状況を判断するチェックポイントを示すログであり、「ヘッダ、制御ログ表示、RP情報」から構成される。「ヘッダ」は、更新ログを示す情報や生成日時等が設定され、「制御ログ表示」には、リカバリポイントログであることを示す情報が設定される。「RP情報」は、リカバリポイントを特定する情報であり、「識別子」と「通番」とを含む。「識別子」は、DB4重化機能のチェックポイント情報であることを特定する情報であり、「通番」は、23バイトの固定の正数であり、DB4重化システム内で一意の通番となり、例えば数字が大きい方がより新しいログであることを示す。
センタ間通知部17は、DB12の更新情報をまとめて、異なるシステムの副マスタノード50に定期的に送信する処理部である。具体的には、センタ間通知部17は、例えば10秒間隔で、センタ内通知部15から取得した更新ログと挿入部16から取得したリカバリポイントログとを時系列の順でまとめた更新ファイルを生成し、更新ファイルを副マスタノード50に送信する。すなわち、センタ間通知部17は、異なるセンタ間では、DBの更新情報およびチェックポイントを定期的にまとめた更新情報を生成し、DB12の更新と非同期で通知する。
図6は、システム間通信で送信される更新ファイルの例を示す図である。図6に示すように、更新ファイルは、更新ログやリカバリポイントログから構成される。図6の例では、更新ログ1、更新ログ2、リカバリポイントログ1などが含まれており、この順にログが生成されたことを示す。なお、更新ログ1や更新ログ2は、上述したユーザログや制御ログに該当し、リカバリポイントログ1は、上述したリカバリポイントログに該当する。
(正ミラーノードの機能構成)
図2に示すように、正ミラーノード20は、通信制御部21、DB22、制御部23を有する。
通信制御部21は、正マスタノード10および副ミラーノード60との間の通信を制御する処理部であり、例えばネットワークインタフェースなどである。例えば、通信制御部21は、正マスタノード10からDBの更新情報を受信し、副ミラーノード60にDBの更新情報を送信する。
DB22は、正マスタノード10のDB12と同様の業務情報などを記憶するデータベースであり、図1に示した待機DB22に該当する。このDB22は、DB12と同期して更新される。なお、DB22は、例えばハードディスクなどの記憶装置に設けられる。
制御部23は、正ミラーノード20全体の処理を司る処理部であり、例えばプロセッサなどの一例である。この制御部23は、正マスタノード10と正ミラーノード20とのDB冗長化システムを実現する機能を実行し、正ミラーノード20と副ミラーノード60とのDB冗長化システムを実現する機能を実行する。すなわち、制御部23は、正センタ1内のDB2重化機能を実現するアプリケーションと、センタ間を跨ったDB4重化を実現するアプリケーションを実行する。
この制御部23は、受信部24、DB更新部25、センタ間通知部26を有する。これらの処理部は、プロセッサが有する電子回路やプロセッサが実行するプロセスの一例である。
受信部24は、正マスタノード10からDB12の更新情報を受信する処理部である。具体的には、受信部24は、正マスタノード10のDB12の更新と同期した更新ログを受信して、DB更新部25およびセンタ間通知部26に通知する。また、受信部24は、リカバリポイントログを受信すると、センタ間通知部26に通知する。
DB更新部25は、正マスタノード10から通知されるデータの更新情報を用いて、DB22を更新する処理部である。例えば、DB更新部25は、受信された更新ログの可変長部等から更新対象のレコードや更新後のデータなどを抽出し、抽出した情報にしたがってDB22を更新する。DB更新部25は、更新ログが受信されるたびにDB22を更新する。この結果、DB22は、正マスタノード10のDB12と同期することができ、ミラーリングDBとして機能する。
センタ間通知部26は、DB22の更新情報をまとめて、異なるシステムの副ミラーノード60に定期的に送信する処理部である。具体的には、センタ間通知部26は、例えば10秒間隔で、正マスタノード10から受信した更新ログやリカバリポイントログを時系列の順でまとめた更新ファイルを生成し、更新ファイルを副ミラーノード60に送信する。例えば、センタ間通知部26は、図6に示した更新ファイルを生成し、副ミラーノード60に送信する。
[副センタの機能構成]
図7は、副センタの各ノードの機能構成を示す機能ブロック図である。ここでは、副センタ5が有する副マスタノード50と副ミラーノード60とについて説明する。
(副マスタノードの機能構成)
図7に示すように、副マスタノード50は、通信制御部51、DB52、制御部53を有する。
通信制御部51は、正マスタノード10および副ミラーノード60との間の通信を制御する処理部であり、例えばネットワークインタフェースなどである。例えば、通信制御部51は、正マスタノード10のDB12の更新情報として、各種更新ログから構成される更新ファイルを、正マスタノード10から受信する。また、通信制御部51は、副ミラーノード60に対して、正マスタノード10のDB12の更新ログを送信する。
DB52は、業務情報などを記憶するデータベースであり、図1に示した待機DB52に該当する。このDB52は、DB12の更新とは非同期で、正マスタノード10から通知される更新情報によって更新される。なお、DB52は、例えばハードディスクなどの記憶装置に設けられる。
制御部53は、副マスタノード50全体の処理を司る処理部であり、例えばプロセッサなどの一例である。この制御部53は、図1に示したセンタ間を跨ったDB4重化システム全体を実現するアプリケーションを実行し、副センタ5内のDB2重化機能を実現するアプリケーションを実行する。
この制御部53は、受信部54、DB更新部55、センタ内通知部56を有する。これらの処理部は、プロセッサが有する電子回路やプロセッサが実行するプロセスの一例である。
受信部54は、正マスタノード10からDB12の更新情報を受信する処理部である。具体的には、受信部54は、更新ログから構成される更新ファイルを所定の間隔で受信する。そして、受信部54は、受信した更新ファイルをDB更新部55に出力する。
DB更新部55は、正マスタノード10から通知されるデータの更新情報にしたがって、DB52を更新する処理部である。例えば、DB更新部55は、受信部54が受信した更新ファイルから、更新ファイルを構成する各種ログを抽出する。
そして、DB更新部55は、抽出したログのうち、ユーザログおよび制御ログを特定する。その後、DB更新部55は、ログが生成された時系列順で、各ログによって特定されるデータ更新をDB52に反映する。また、DB更新部55は、更新ファイルから各種ログを抽出すると、時系列の順で、抽出したログをセンタ内通知部56に出力する。
例えば、図6の更新ファイルを受信したとすると、DB更新部55は、更新ファイルから更新ログ1、更新ログ2、リカバリポイントログ1を抽出する。そして、DB更新部55は、まず更新ログ1で特定されるデータ更新をDB52に反映した後、次に更新ログ2で特定されるデータ更新をDB52に反映させる。一方で、DB更新部55は、抽出した更新ログ1、更新ログ2、リカバリポイントログ1をセンタ内通知部56に出力する。
センタ内通知部56は、DB52へ反映させたデータの更新情報を副ミラーノード60に送信する処理部である。具体的には、センタ内通知部56は、正マスタノード10から受信した更新ログおよびリカバリポイントログを、各ログが生成された時系列で副ミラーノード60に送信する。
上述した例で説明すると、センタ内通知部56は、DB更新部55から、更新ログ1、更新ログ2、リカバリポイントログ1を順に受信する。すると、センタ内通知部56は、まず更新ログ1を副ミラーノード60に送信し、次に更新ログ2を副ミラーノード60に送信し、最後のリカバリポイントログ1を副ミラーノード60に送信する。
(副ミラーノードの機能構成)
図7に示すように、副ミラーノード60は、通信制御部61、DB62、バッファ63、制御部64を有する。
通信制御部61は、正ミラーノード20および副マスタノード50との間の通信を制御する処理部であり、例えばネットワークインタフェースなどである。例えば、通信制御部61は、正ミラーノード20および副マスタノード50の両方からデータの更新情報を受信する。
DB62は、業務情報などを記憶するデータベースであり、図1に示した待機DB62に該当する。このDB62は、正マスタノード10のDB12の更新とは非同期で、正マスタノード10から通知される更新情報によって更新される。一方で、DB62は、副マスタノード50のDB52の更新とは同期して更新される。なお、DB62は、例えばハードディスクなどの記憶装置に設けられる。
バッファ63は、センタ間通信で正ミラーノード20から受信した更新情報やセンタ内通信で副マスタノード50から受信した更新情報を一時的に記憶する記憶領域である。なお、バッファ63は、例えばハードディスクやメモリなどの記憶装置に設けられる。
制御部64は、副ミラーノード60全体の処理を司る処理部であり、例えばプロセッサなどの一例である。この制御部64は、図1に示したセンタ間を跨ったDB4重化システム全体を実現するアプリケーションを実行し、副センタ5内のDB2重化機能を実現するアプリケーションを実行する。
この制御部64は、センタ内受信部65、センタ間受信部66、特定部67、DB更新部68を有する。これらの処理部は、プロセッサが有する電子回路やプロセッサが実行するプロセスの一例である。
センタ内受信部65は、副マスタノード50からデータの更新情報を受信する処理部である。具体的には、センタ内受信部65は、副マスタノード50から更新ログやリカバリポイントログを受信し、ログの生成日時の時系列順でバッファ63に格納する。上記例で説明すると、センタ内受信部65は、副マスタノード50から、更新ログ1、更新ログ2リカバリポイントログ1を順に受信し、受信した順番でバッファ63に格納する。
センタ間受信部66は、正ミラーノード20からデータの更新情報を受信する処理部である。具体的には、センタ間受信部66は、正ミラーノード20から、更新ログやリカバリポイントログで構成される更新ファイルを受信する。そして、センタ間受信部66は、更新ファイルから各種ログを抽出し、生成日時の順にバッファ63に格納する。
特定部67は、副マスタノード50を介して取得したDB12の更新情報と、正ミラーノード20から取得したDB12の更新情報とのうち、トランザクションがより進んだ更新情報を特定する処理部である。具体的には、特定部67は、更新情報に含まれる最後のリカバリポイントログより後の更新情報に示されるトランザクションの数に応じて、よりトランザクションが進んだ更新情報を特定する。
ここで、トランザクションの進行度の判定例を説明する。図8は、副ミラーノードによるトランザクション進行度の比較例を説明する図である。図8に示す「リ(数字)」は、リカバリポイントログであることを示し、(数字)はリカバリポイントログの受信順を示す。同様に、「更(数字)」は、ユーザログや制御ログなどの更新ログであることを示し、(数字)は更新ログの受信順を示す。
図8の例では、特定部67は、正ミラーノード20から、リ(1)、更(1)、更(2)、リ(2)、更(3)、更(4)、リ(3)、更(5)の順で更新情報を受信していることを特定する。また、特定部67は、副マスタノード50から、リ(1)、更(1)、更(2)、リ(2)、更(3)、更(4)、リ(3)、更(5)、更(6)、更(7)の順で更新情報を受信していることを、更新ファイルから各種ログを抽出することで特定する。
この場合、特定部67は、正ミラーノード20からの更新情報に対しては、更新情報における最後のリカバリポイントログであるリ(3)よりも後に、更新ログが更(5)の1つであると判定する。一方で、特定部67は、副マスタノード50からの更新情報に対しては、更新情報における最後のリカバリポイントログであるリ(3)よりも後に、更新ログが更(5)と更(6)と更(7)の3つであると判定する。
つまり、特定部67は、正ミラーノード20からの更新情報と副マスタノード50からの更新情報とについて、更(6)および更(7)をトランザクションの進行度の差として特定する。この結果、特定部67は、副マスタノード50からの更新情報がよりトランザクションが進行していると特定して、DB更新部68に通知する。
DB更新部68は、よりトランザクションが進んだデータの更新情報を用いて、DB62を更新する処理部である。具体的には、DB更新部68は、特定部67から通知された側の更新ログからデータの更新情報を抽出して、DB62に反映する。上記例での場合、DB更新部68は、センタ内受信部65によって受信された更新ログをバッファ63から時系列で順次読出し、各ログで特定されるデータ更新をDB62に順次反映する。
[処理の流れ]
次に、各ノードが実行する処理について説明する。ここでは、各ノードが実行するDBの更新処理および更新情報の通知処理について説明する。なお、ここでは一例として、DB更新後にチェックポイント(リカバリポイントログ)を生成する例を説明するが、これに限定されるものではない。例えば、DB更新の処理とチェックポイントの生成処理とは、並行して実行することができ、別々のフローチャートで実行することもできる。
(正マスタノード10から正ミラーノード20への通知処理)
図9は、正マスタノードから正ミラーノードへの通知処理の流れを示すフローチャートである。
図9に示すように、正マスタノード10のDB更新部14は、DB12の更新が発生すると(S101:Yes)、DB12を更新する(S102)。続いて、センタ内通知部15は、更新されたDB12の更新前後の差分を抽出して(S103)、更新ログを生成して正ミラーノード20に送信する(S104)。
一方で、挿入部16は、チェックポイントの生成タイミングである場合(S105:Yes)、チェックポイントの通番を含むリカバリポイントログを生成し(S106)、正ミラーノード20に送信する(S107)。なお、チェックポイントの生成タイミングでない場合(S105:No)、S101に戻って、S101以降の処理が実行される。
(正マスタノード10から副マスタノード50への通知処理)
図10は、正マスタノードから副マスタノードへの通知処理の流れを示すフローチャートである。
図10に示すように、正マスタノード10のDB更新部14は、DB12の更新が発生すると(S201:Yes)、DB12を更新する(S202)。その後、センタ間通知部17は、更新されたDB12の更新前後の差分を抽出して蓄積する(S203)。
一方で、挿入部16は、チェックポイントの生成タイミングである場合(S204:Yes)、チェックポイントの通番を含むリカバリポイントログを生成して蓄積する(S205)。なお、チェックポイントの生成タイミングではない場合(S204:No)、S205が実行されず、S206が実行される。
その後、センタ間通知部17は、副マスタノード50への通知タイミングに到達すると(S206:Yes)、蓄積しておいた更新ログやリカバリポイントログを生成順で記述した更新ファイルを生成する(S207)。そして、センタ間通知部17は、生成した更新ファイルを副マスタノード50へ送信する(S208)。なお、チェックポイントの生成タイミングでない場合(S206:No)、S201に戻って、S201以降の処理が実行される。
(正ミラーノード20の更新処理)
図11は、正ミラーノードが実行する更新処理の流れを示すフローチャートである。図11に示すように、正ミラーノード20の受信部24は、正マスタノード10から情報を受信すると(S301:Yes)、受信した情報が更新ログであるか否かを判定する(S302)。
続いて、DB更新部25は、受信された情報が更新ログである場合(S302:Yes)、受信された更新ログにしたがってDB22を更新し(S303)、更新に使用した更新ログを蓄積する(S304)。
一方、DB更新部25は、受信された情報が更新ログではなく、リカバリポイントログである場合(S302:No)、受信されたリカバリポイントログを記憶部等に蓄積する(S305)。
(正ミラーノード20の通知処理)
図12は、正ミラーノードが実行する通知処理の流れを示すフローチャートである。図12に示すように、正ミラーノード20のセンタ間通知部26は、通知タイミングに到達すると(S401:Yes)、蓄積した更新ログおよびリカバリポイントログを読出す(S402)。
その後、センタ間通知部26は、読み出した各ログを生成順に並び替えて更新ファイルを生成し(S403)、生成した更新ファイルを、副センタ5の副ミラーノード60に送信する(S404)。
(副マスタノード50の処理)
図13は、副マスタノードが実行する更新および通知処理の流れを示すフローチャートである。図13に示すように、副マスタノード50のDB更新部55は、更新ファイルが受信されると(S501:Yes)、更新ファイルに含まれる各ログを抽出する(S502)。
続いて、DB更新部55は、得られた各ログのうち更新ログを生成時間の時系列順で、DB52に順次反映し(S503)、抽出された全更新ログの反映が完了するまで(S504:No)、繰り返す。
そして、抽出された全更新ログの反映が完了すると(S504:Yes)、センタ内通知部56は、更新ファイルから得られた更新ログおよびリカバリポイントログを、生成時間の時系列順で、副ミラーノード60に順次送信する(S505)。その後、センタ内通知部56は、更新ファイルから得られた全ログの送信が完了するまで処理を繰り返し(S506:No)、全ログの送信が完了すると(S506:Yes)、S501に戻って以降の処理を繰り返す。
(副ミラーノード60の処理)
図14は、副ミラーノードが実行する更新処理の流れを示すフローチャートである。図14に示すように、副ミラーノード60のセンタ内受信部65は、更新ログまたはリカバリポイントログを副マスタノード50から受信すると(S601:Yes)、受信した更新ログまたはリカバリポイントログを受信順でバッファ63に蓄積する(S602)。
一方、センタ間受信部66が、更新ログまたはリカバリポイントログではなく(S601:No)、更新ファイルを受信すると(S603:Yes)、更新ファイルから各ログを抽出する(S604)。続いて、センタ間受信部66は、得られた更新ログおよびリカバリポイントログを、ログの生成時間の時系列順でバッファ63に蓄積する(S605)。
その後、DB62への反映タイミングに到達するまでS601に戻って以降の処理が実行される(S606:No)。そして、DB62への反映タイミングに到達すると(S606:Yes)、特定部67は、2系統から受信済みの更新ログからトランザクションが進んでいる方の更新ログを特定する(S607)。
その後、DB更新部68は、特定部67によって特定された、よりトランザクションが進んでいる方の更新ログを、更新ログが生成された順でDB62に反映する(S608)。
上述したように、正マスタノード10は、DB12の更新情報を送信する際に、定期的にチェックポイントを送信する。副ミラーノード60は、2系統で更新情報とチェックポイントを受信する。そして、副ミラーノード60は、チェックポイントを基準にして、トランザクションがより進んだ方の更新情報を用いて、DB62を更新することができる。この結果、副ミラーノード60、DB62を更新する更新情報のデータロストを抑制することができる。
また、正マスタノード10は、DB12を更新すると、更新ログを正ミラーノード20に送信する。この結果、正ミラーノード20は、DB22の状態をDB12と同期させることができる。また、正マスタノード10は、DB12を更新したログをまとめた更新ファイルを副マスタノード50に定期的に送信する。この結果、副マスタノード50は、DB12の更新時間とタイムラグを少なくして、DB22の更新をすることができる。
したがって、障害発生してシステム内で切替えが発生した場合でも、遅滞なく、待機DBを用いて業務を継続することができる。また、正センタで障害発生してシステム間で切替えが発生した場合でも、遅滞なく、副センタの各DBを用いて業務を継続することができる。
ところで、実施例1では、各系統で受信された更新ログについて、最新のリカバリポイント以降の更新ログの数を比較して、トランザクションの進行度を判定することで、最新の更新ログを特定する例を説明したが、これに限定されるものではない。
例えば、はじめにリカバリポイントログを比較し、リカバリポイントログが同じ場合に、トランザクションの進行度を判定することもできる。そこで、実施例2では、最新の更新ログを特定する別例として、はじめにリカバリポイントログを比較し、リカバリポイントログが同じ場合に、トランザクションの進行度を判定する例について説明する。
図15は、副ミラーノードが実行する更新処理の流れを示すフローチャートである。図15に示すように、副ミラーノード60のセンタ内受信部65は、更新ログまたはリカバリポイントログを副マスタノード50から受信すると(S701:Yes)、受信した更新ログまたはリカバリポイントログを受信順でバッファ63に蓄積する(S702)。
一方、センタ間受信部66が、更新ログまたはリカバリポイントログではなく(S701:No)、更新ファイルを受信すると(S703:Yes)、更新ファイルから各ログを抽出する(S704)。続いて、センタ間受信部66は、得られた更新ログおよびリカバリポイントログを、ログの生成時間の時系列順でバッファ63に蓄積する(S705)。
その後、DB62への反映タイミングに到達するまでS701に戻って以降の処理が実行される(S706:No)。そして、DB62への反映タイミングに到達すると(S706:Yes)、特定部67は、蓄積される両系のリカバリポイントの通番が同じかを判定する(S707)。例えば、特定部67は、センタ内受信部65が受信した最新のリカバリポイントログの通番と、センタ間受信部66が受信した最新のリカバリポイントログの通番とを比較する。
そして、特定部67は、リカバリポイントログの通番が同じ場合(S707:Yes)、2系統から受信済みの更新ログからトランザクションが進んでいる方の更新ログを特定する(S708)。その後、DB更新部68は、特定部67によって特定された、よりトランザクションが進んでいる方の更新ログを、更新ログが生成された順でDB62に反映する(S709)。
一方、特定部67は、リカバリポイントログの通番が異なる場合(S707:No)、リカバリポイントログの通番が新しい方の系統から受信した更新ログを、より処理が進んでいる更新ログと特定する(S710)。その後、DB更新部68は、特定部67によって特定された、より処理が進んだ各更新ログを生成順でDB62に反映する(S711)。
このように、副ミラーノード60は、リカバリポイントログによってどちらの更新ログが新しいかを判断できる場合、トランザクションの進行度による判定を省略して、新しい方の更新ログをDB62に反映する。また、副ミラーノード60は、リカバリポイントログによってどちらの更新ログが新しいかを判断できない場合、トランザクションの進行度による判定を実行する。この結果、副ミラーノード60は、より素早くDB62を更新することができるので、更新ログが未反映の状態で系切替が発生した場合のデータロス数を少なくすることができる。
次に、実施例3では、実施例1で説明したDB4重化システムにおいて正マスタノード10で障害発生した場合の系切替について説明する。
また、実施例1では、副ミラーノード60が各系統で受信した更新ログを蓄積しておき、所定のタイミングでよりトランザクションが進んだ更新情報を特定して反映する例を説明したが、DBへの反映方法はこれに限定されない。
例えば、副ミラーノード60は、正ミラーノード20から受信した更新情報を蓄積しておき、副マスタノード50から受信した更新情報をDBに反映させる。そして、副ミラーノード60は、系切替が発生した場合に、正ミラーノード20から受信した更新情報が最新の情報であるかを判定し、最新であれば当該更新情報を反映してから系切替を実行することもできる。
そこで、実施例3では、実施例1とは異なる副ミラーノードのDB更新処理と、系切替の処理とについて説明する。
[全体構成]
図16は、実施例3に係る冗長化システムの障害発生例を説明する図である。図16に示すように、全体構成は、図1と同様なので、詳細な説明は省略する。
また、図16に示した点線は、更新ログおよびリカバリポイントログの流れを示している。具体的には、実施例1と同様、正マスタノード10は、更新ログおよびリカバリポイントログを正ミラーノード20と副マスタノード50の両方に送信する。正ミラーノード20と副マスタノード50は、正マスタノード10から受信した更新ログおよびリカバリポイントログを副ミラーノード60へ送信する。副ミラーノード60は、正マスタノード10の更新ログおよびリカバリポイントログを、2系統から受信する。
このような状態において、図16に示すように、正マスタノード10が障害等によって停止すると、系切替が発生する。なお、系切替の発生契機としては、管理者端末が各ノードに通知してもよく、正マスタノード10が障害発生を正ミラーノード20に通知してもよい。別例としては、正ミラーノード20が、正マスタノード10に定期的にPing(Packet Internet Groper)を発行して生死監視を実行して、応答が検出できなかった場合に系切替を実行することもできる。
図17は、実施例3に係る冗長化システムの系切替例を説明する図である。図17に示すように、正マスタノード10が停止すると、正ミラーノード20が正系のマスタノードに昇格し、副ミラーノード60が副系のマスタノードに昇格し、副マスタノード50が副系のミラーノードに降格する。この結果、正ミラーノード20の待機DB22が現用DBに昇格するので、アプリケーションの実行に伴ってDB22が更新される。
そして、正ミラーノード20は、待機DB22を更新すると、更新ログおよびリカバリポイントログから構成される更新ファイルを副ミラーノード60に送信する。また、副ミラーノード60は、受信した更新ファイルに含まれる更新ログにしたがって、待機DB62を更新する。そして、副ミラーノード60は、受信した更新ファイルに含まれる更新ログおよびリカバリポイントログを、副マスタノード50に送信する。副マスタノード50は、受信した更新ログにしたがって、待機DB52を更新する。
[副ミラーノードの更新処理]
図18は、実施例3に係る副ミラーノードが実行する更新処理の流れを示すフローチャートである。なお、ここで説明する処理は、系切替前の更新処理である。
図18に示すように、副ミラーノード60のDB更新部68は、センタ内受信部65によって副マスタノード50から情報が受信されると(S801:Yes)、受信した情報が更新ログか否かを判定する(S802)。
そして、DB更新部68は、受信された情報が更新ログである場合(S802:Yes)、受信した更新ログをDB62に反映して、DB62を更新する(S803)。一方、DB更新部68は、受信された情報が更新ログではなく、リカバリポイントログである場合(S802:No)、リカバリポイントログをバッファ63等に蓄積する(S804)。
また、S801において、センタ間受信部66は、副マスタノード50からではなく正ミラーノード20から更新ファイルを受信した場合(S801:No、S805:Yes)、更新ファイルからログを抽出する(S806)。そして、センタ間受信部66は、得られた更新ログおよびリカバリポイントログを、ログの生成時間の時系列順でバッファ63に蓄積する(S807)。
その後、DB更新部68は、予め指定された間隔でバッファ63に格納される更新ログおよびリカバリポイントログを用いて、トランザクションの進行度を比較する(S808)。
そして、DB更新部68は、副マスタノード50からの更新ログの方が、トランザクションが進行していると判定した場合(S809:Yes)、S810を実行する。すなわち、DB更新部68は、正ミラーノード20から受信した更新ログおよびリカバリポイントログを、バッファ63から削除する(S810)。
一方、DB更新部68は、正ミラーノード20からの更新ログの方が、トランザクションが進行していると判定した場合(S809:No)、正ミラーノード20から受信した更新ログおよびリカバリポイントログをバッファ63に残したまま、S801以降を繰り返す。
[副ミラーノードの系切替処理]
図19は、実施例3に係る副ミラーノードが実行する系切替処理の流れを示すフローチャートである。図19に示すように、副ミラーノード60のDB更新部68は、系切替が発生すると(S901:Yes)、副マスタノード50からの最新のリカバリポイントログと、正ミラーノード20からの最新のリカバリポイントログをバッファ63が抽出する(S902とS903)。
一例を挙げると、副ミラーノード60のDB更新部68は、正マスタノード10の停止を検出した正ミラーノード20から切替通知を受信したり、管理者端末から切替指示を受信することで、系切替の発生を検出する。
そして、特定部67は、リカバリポイントログの通番が同じ場合(S904:Yes)、2系統から受信済みの更新ログからトランザクションが進んでいる方の更新ログを特定する(S905)。その後、DB更新部68は、特定部67によって特定された、よりトランザクションが進んでいる方の更新ログを、更新ログが生成された順でDB62に反映する(S906)。
一方、特定部67は、リカバリポイントログの通番が異なる場合(S904:No)、副マスタノード50からのリカバリポイントログの通番が新しい、すなわち副マスタノード50からのリカバリポイントログが最新かを判定する(S907)。
そして、特定部67は、副マスタノード50からのリカバリポイントログが最新である場合(S907:Yes)、正ミラーノード20から受信した更新ログおよびリカバリポイントログをバッファ63から削除する(S908)。
一方、DB更新部68は、副マスタノード50からのリカバリポイントログが最新ではなく、正ミラーノード20からのリカバリポイントログが最新である場合(S907:No)、S909を実行する。
すなわち、DB更新部68は、正ミラーノード20から受信してバッファ63に蓄積済みの更新ログをDB62に反映して、DB62を更新し(S909)、蓄積済みの全更新ログの反映が終了するまで繰り返して実行する(S910:No)。
その後、DB更新部68は、S910における蓄積済みの全更新ログの反映が完了し(S910:Yes)、S906の実行が完了すると、系切替を実行する(S911)。つまり、DB更新部68は、実施例1で説明した副マスタノード50と同様の処理を実行し、副系のマスタノードとして振る舞う。
このとき、副ミラーノード60のDB更新部68は、系切替の発生を副マスタノード50に通知し、副マスタノード50は、副系のミラーノードとしての機能を実行する。つまり、副マスタノード50は、一般的なDB2重化のミラーDBとして振る舞う。
このように、DB4重化システムにおいて、正マスタノード10が停止した場合でも、各ノードが自動的に役割を変更して動作することができるので、業務を継続することができ、信頼性の向上に繋がる。
また、副ミラーノード60は、系切替が発生するまで、副マスタノード50から受信した更新ログを順次反映することができるので、実施例1に比べて、よりDB62の状態を細心に保つことができる。したがって、副マスタノード50が停止した場合でも、データのロスを抑制しつつ、バックアップとして機能を維持することができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[チェックポイント]
上記実施例では、チェックポイントとしてシステム内で一意な通番を含むリカバリポイントログを用いる例を説明したが、これに限定されるものではなく、例えば日時や時刻などを含むリカバリポイントログを用いることもできる。つまり、システム内で昇順あるいは降順などの一意な順番が指定できるものであれば、様々な情報を使用することができる。
[システム]
また、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともできる。あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図20は、ハードウェア構成例を説明する図である。図1に示した各ノードは、同様のハードウェア構成を有するので、ここでは、一例として正マスタノード10を例にして説明する。
図20に示すように、正マスタノード10は、HDD(Hard Disk Drive)10a、通信インタフェース10b、メモリ10c、CPU(Central Processing Unit)10dを有する。また、図20に示した各部は、バス等で相互に接続される。なお、ここで示したハードウェアは一例であり、例えばグラフィックインタフェースやマウスなどの他のハードウェアを有していてもよい。
HDD10aは、図2等に示した機能を動作させるプログラムやDBを記憶する。通信インタフェース10bは、他の装置との通信を制御するインタフェースであり、例えばネットワークインタフェースカードである。
CPU10dは、図2等に示した各処理部と同様の処理を実行するプログラムをHDD10a等から読み出してメモリ10cに展開することで、図2等で説明した各機能を実行するプロセスを動作させる。
すなわち、このプロセスは、正マスタノード10が有する各処理部と同様の機能を実行する。具体的には、CPU10dは、DB更新部14、センタ内通知部15、挿入部16、センタ間通知部17等と同様の機能を有するプログラムをHDD10a等から読み出す。そして、CPU10dは、DB更新部14、センタ内通知部15、挿入部16、センタ間通知部17と同様の処理を実行するプロセスを実行する。
このように正マスタノード10は、プログラムを読み出して実行することで冗長化作成方法を実行する情報処理装置として動作する。また、正マスタノード10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、正マスタノード10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
1 正センタ
5 副センタ
10 正マスタノード
11 通信制御部
12 DB
13 制御部
14 DB更新部
15 センタ内通知部
16 挿入部
17 センタ間通知部
20 正ミラーノード
21 通信制御部
22 DB
23 制御部
24 受信部
25 DB更新部
26 センタ間通知部
50 副マスタノード
51 通信制御部
52 DB
53 制御部
54 受信部
55 DB更新部
56 センタ内通知部
60 副ミラーノード
61 通信制御部
62 DB
63 バッファ
64 制御部
65 センタ内受信部
66 センタ間受信部
67 特定部
68 DB更新部

Claims (6)

  1. 第1のノードと、
    該第1のノードのバックアップを行う第2のノードと、
    を含む正系システムと、
    第3のノードと、
    該第3のノードのバックアップを行う第4のノードと、
    を含む副系システムと、
    を備え、
    前記正系システムの前記第1のノードは、
    前記第1のノードにおけるデータ更新に応じて生成され、更新処理単位の境界を示す区切り情報が挿入された第1のデータ更新情報を、当該データの更新に同期して前記第2のノードに送信し、前記第1のノードにおけるデータの更新に応じて生成され、更新処理単位の境界を示す区切り情報が挿入された第2のデータ更新情報を、当該データの更新に非同期で前記第3のノードに送信する送信手段を備え、
    前記副系システムの前記第4のノードは、
    前記データの更新に同期して前記第2のノードに送信され、前記第2のノードへの送信と非同期で前記第4のノードに送信される前記第1のデータ更新情報のうち挿入された区切り情報より後のデータ更新情報の数と、前記データの更新に非同期で前記第3のノードに送信され、前記第3のノードへの送信と同期して前記第4のノードに送信される前記第2のデータ更新情報のうち挿入された区切り情報より後のデータ更新情報の数とを比較し、数が多い方のデータ更新情報を、より進行するトランザクションを示すデータ更新情報として特定して、前記第4のノードの記憶データに反映する反映手段を備えた、
    ことを特徴とする冗長システム。
  2. 前記反映手段は、前記データの更新に同期して前記第2のノードに送信され、前記第2のノードへの送信と非同期で前記第4のノードに送信される前記第1のデータ更新情報のうち挿入された区切り情報より後のデータ更新情報の数と、前記データの更新に非同期で前記第3のノードに送信され、前記第3のノードへの送信と同期して前記第4のノードに送信される前記第2のデータ更新情報のうち挿入された区切り情報より後のデータ更新情報の数とを比較し、数が多い方のデータ更新情報を、より進行するトランザクションを示すデータ更新情報として特定して、前記第4のノードの記憶データに反映することを特徴とする請求項1記載の冗長システム。
  3. 前記区切り情報は、区切り情報の送信順を示す順序情報を含み、前記反映手段は、前記第2のノードから取得した更新情報に含まれる最後の区切り情報が示す順序情報と、前記第3のノードを介して取得した更新情報に含まれる最後の区切り情報が示す順序情報とが同じ順を示す場合に、前記トランザクションの進行度の判定を行い、順序情報が異なる場合は、前記第2のノードから取得した更新情報と、前記第3のノードを介して取得した更新情報のうち、より進んだ更新情報を含む側の更新情報を用いて前記記憶データに反映する、ことを特徴とする請求項2記載の冗長システム。
  4. 前記反映手段は、前記第1のノードの停止に応じて、前記より進行するトランザクションを示す更新情報を含む側の更新情報を特定して、前記第4のノードの記憶データに反映する処理を実行し、
    前記第4のノードは、
    前記反映手段による、前記より進行するトランザクションを示す更新情報の前記第4のノードの記憶データへの反映が完了すると、前記第4のノードを前記副系システムの正系ノードに切替える制御を行なう切替え手段をさらに備えた、
    ことを特徴とする請求項1記載の冗長システム。
  5. 第1のノードと、
    該第1のノードのバックアップを行う第2のノードと、
    を含む正系システムと、
    第3のノードと、
    該第3のノードのバックアップを行う第4のノードと、
    を含む副系システムと、
    を備え、
    前記正系システムの前記第1のノードが、
    前記第1のノードにおけるデータ更新に応じて生成され、更新処理単位の境界を示す区切り情報が挿入された第1のデータ更新情報を、当該データの更新に同期して前記第2のノードに送信し、前記第1のノードにおけるデータの更新に応じて生成され、更新処理単位の境界を示す区切り情報が挿入された第2のデータ更新情報を、当該データの更新に非同期で前記第3のノードに送信する処理を含み、
    前記副系システムの前記第4のノードが、
    前記データの更新に同期して前記第2のノードに送信され、前記第2のノードへの送信と非同期で前記第4のノードに送信される前記第1のデータ更新情報のうち挿入された区切り情報より後のデータ更新情報の数と、前記データの更新に非同期で前記第3のノードに送信され、前記第3のノードへの送信と同期して前記第4のノードに送信される前記第2のデータ更新情報のうち挿入された区切り情報より後のデータ更新情報の数とを比較し、数が多い方のデータ更新情報を、より進行するトランザクションを示すデータ更新情報として特定して、前記第4のノードの記憶データに反映する処理を含む、
    ことを特徴とする冗長方法。
  6. 第1のノードと該第1のノードのバックアップを行う第2のノードとを含む正系システムと、第3のノードと該第3のノードのバックアップを行う第4のノードとを含む副系システムとを有する冗長化システムにおける前記第4のノードに、
    更新処理単位の境界を示す区切り情報が挿入され、前記データの更新に同期して前記第2のノードに送信され、前記第2のノードへの送信と非同期で前記第4のノードに送信される前記第1のデータ更新情報のうち挿入された区切り情報より後のデータ更新情報の数と、更新処理単位の境界を示す区切り情報が挿入され、前記データの更新に非同期で前記第3のノードに送信され、前記第3のノードへの送信と同期して前記第4のノードに送信される前記第2のデータ更新情報のうち挿入された区切り情報より後のデータ更新情報の数とを比較し、数が多い方のデータ更新情報を、より進行するトランザクションを示すデータ更新情報として特定して、前記第4のノードの記憶データに反映する処理を、
    実行させることを特徴とする冗長化プログラム。
JP2014127731A 2014-06-20 2014-06-20 冗長システム、冗長化方法および冗長化プログラム Active JP6511738B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014127731A JP6511738B2 (ja) 2014-06-20 2014-06-20 冗長システム、冗長化方法および冗長化プログラム
US14/721,059 US9921927B2 (en) 2014-06-20 2015-05-26 Redundant system, redundancy method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014127731A JP6511738B2 (ja) 2014-06-20 2014-06-20 冗長システム、冗長化方法および冗長化プログラム

Publications (2)

Publication Number Publication Date
JP2016009218A JP2016009218A (ja) 2016-01-18
JP6511738B2 true JP6511738B2 (ja) 2019-05-15

Family

ID=54869739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014127731A Active JP6511738B2 (ja) 2014-06-20 2014-06-20 冗長システム、冗長化方法および冗長化プログラム

Country Status (2)

Country Link
US (1) US9921927B2 (ja)
JP (1) JP6511738B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11334455B2 (en) * 2019-09-28 2022-05-17 Atlassian Pty Ltd. Systems and methods for repairing a data store of a mirror node

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3483901B2 (ja) * 1992-09-11 2004-01-06 株式会社日立製作所 システムの構成変更方法およびその実施計算機システム
US7318133B2 (en) * 2003-06-03 2008-01-08 Hitachi, Ltd. Method and apparatus for replicating volumes
US7467168B2 (en) * 2003-06-18 2008-12-16 International Business Machines Corporation Method for mirroring data at storage locations
JP4422519B2 (ja) * 2004-03-18 2010-02-24 株式会社日立製作所 情報処理システム
JP4477950B2 (ja) 2004-07-07 2010-06-09 株式会社日立製作所 リモートコピーシステム及び記憶装置システム
US7490205B2 (en) * 2005-03-14 2009-02-10 International Business Machines Corporation Method for providing a triad copy of storage data
JP4902403B2 (ja) * 2006-10-30 2012-03-21 株式会社日立製作所 情報システム及びデータ転送方法
JP5244332B2 (ja) 2006-10-30 2013-07-24 株式会社日立製作所 情報システム、データ転送方法及びデータ保護方法
JP2008242715A (ja) 2007-03-27 2008-10-09 Nomura Research Institute Ltd データ復旧方法およびデータ復旧システム
JP2010039986A (ja) * 2008-08-08 2010-02-18 Hitachi Ltd データのバックアップを管理する計算機システム及び方法
JP4659872B2 (ja) 2008-11-07 2011-03-30 富士通株式会社 クラスタシステム制御プログラム、クラスタシステム、クラスタシステム制御方法
US8375004B2 (en) * 2010-04-07 2013-02-12 Hitachi, Ltd. Asynchronous remote copy system and storage control method
JP5900094B2 (ja) 2012-03-28 2016-04-06 日本電気株式会社 データ整合システム、データ整合方法およびデータ整合プログラム
DE112013006658T5 (de) * 2013-05-08 2015-12-03 Hitachi, Ltd. Speichersystem und Datenverwaltungsverfahren

Also Published As

Publication number Publication date
US9921927B2 (en) 2018-03-20
US20150370662A1 (en) 2015-12-24
JP2016009218A (ja) 2016-01-18

Similar Documents

Publication Publication Date Title
WO2019085875A1 (zh) 存储集群的配置修改方法、存储集群及计算机系统
US7603581B2 (en) Remote copying of updates to primary and secondary storage locations subject to a copy relationship
US20100138687A1 (en) Recording medium storing failure isolation processing program, failure node isolation method, and storage system
CN106062717A (zh) 一种分布式存储复制系统和方法
JP2008059583A (ja) クラスタ・システムならびにクラスタ・システム内でレプリカをバックアップする方法およびプログラム製品
JP2007164769A (ja) ミラーリングされたシステム内の障害を管理するための方法、システム、およびプログラム(ミラーリングされたシステム内の障害の管理)
JP6511739B2 (ja) 冗長システムおよび冗長化方法
US9053073B1 (en) Use of timestamp logic in synchronous replication
CN110121694B (zh) 一种日志管理方法、服务器和数据库系统
JP6511737B2 (ja) 冗長システム、冗長化方法および冗長化プログラム
US11016863B2 (en) Self-contained disaster detection for replicated multi-controller systems
JP6511738B2 (ja) 冗長システム、冗長化方法および冗長化プログラム
JP6318902B2 (ja) 冗長システムおよび冗長化方法
CN108984346B (zh) 一种生产数据容灾的方法、系统及存储介质
JP6251965B2 (ja) 情報システムおよびデータベース復旧方法
JP6056408B2 (ja) フォールトトレラントシステム
WO2019109257A1 (zh) 一种日志管理方法、服务器和数据库系统
JP5867902B2 (ja) データベースの非同期レプリケーション方式
US20210240351A1 (en) Remote copy system and remote copy management method
CN106855869B (zh) 一种实现数据库高可用的方法、装置和系统
US10846012B2 (en) Storage system for minimizing required storage capacity during remote volume replication pair duplication
CN115698955A (zh) 事务镜像的容错
JP5956940B2 (ja) 冗長化システムおよび現用機決定方法
US9497266B2 (en) Disk mirroring for personal storage
US11269922B2 (en) Database server, database management method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180521

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181016

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190116

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190325

R150 Certificate of patent or registration of utility model

Ref document number: 6511738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150