JP2008226088A - ディザスタリカバリシステムおよび方法 - Google Patents

ディザスタリカバリシステムおよび方法 Download PDF

Info

Publication number
JP2008226088A
JP2008226088A JP2007066429A JP2007066429A JP2008226088A JP 2008226088 A JP2008226088 A JP 2008226088A JP 2007066429 A JP2007066429 A JP 2007066429A JP 2007066429 A JP2007066429 A JP 2007066429A JP 2008226088 A JP2008226088 A JP 2008226088A
Authority
JP
Japan
Prior art keywords
search
log
function unit
log application
disaster recovery
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007066429A
Other languages
English (en)
Other versions
JP5049618B2 (ja
Inventor
Yoshio Suzuki
芳生 鈴木
Nobuo Kawamura
信男 河村
Shinji Fujiwara
真二 藤原
Satoshi Watanabe
聡 渡辺
Kazuhiko Mizuno
和彦 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007066429A priority Critical patent/JP5049618B2/ja
Priority to US11/802,186 priority patent/US7860824B2/en
Publication of JP2008226088A publication Critical patent/JP2008226088A/ja
Application granted granted Critical
Publication of JP5049618B2 publication Critical patent/JP5049618B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2082Data synchronisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • G06F16/2358Change logging, detection, and notification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2056Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
    • G06F11/2071Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring using a plurality of controllers
    • G06F11/2074Asynchronous techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/855Details of asynchronous mirroring using a journal to transfer not-yet-mirrored changes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】機器コストの削減と運用の容易化を実現することができるDR技術を提供する。
【解決手段】DRシステムにおいて、機器コストの面では、検索を行わない場合には、安価なDBアプライアンスサーバ400でのログ回復が可能な物理適用を採用する。さらに、副サイトでのローカルミラー運用は行わないことにする。また、運用の面では、ログ適用機能部141でログ適用や業務の傾向をモニタリングしておき、検索処理はログ適用の進捗状況に応じて受け付ける。副サイトのログ適用が十分に追いついていない場合には検索を受け付けないことにする。さらに、副DBの整合性保証を行う場合には、検索指示時点で仕掛かり中となっているTrをundoするのではなく、検索指示時点で仕掛かり中のTrだけを対象にredoする。
【選択図】図1

Description

本発明は、ディザスタリカバリ(DR:Disaster Recovery)技術に関し、特に、副サイトのログ適用機能と検索機能に適用して有効な技術に関する。
本発明者が検討したところによれば、DR技術に関しては、以下のような技術が考えられる。DRは遠隔バックアップシステムであり、正サイトで更新した情報を、遠隔地に設置された副サイトに複製する。DR方式としては、ストレージのリモートコピー機能を用いた方式が知られている。この方式では、正サイトでストレージに書き込まれたデータは、サーバリソースを使うことなくリモートコピー機能により副ストレージに複製される。地震などの広域災害を想定した都市間のDRシステムの場合は、正ストレージはWANを介して数百km離れた遠隔地に設置される副ストレージに接続する必要がある。
正サイトの計算機では、DBMS(Database Management System)が稼動する。DBMSはクライアント上のユーザAP(Application)からの問い合わせに応じて、ストレージ内のDBに格納されるデータを参照、あるいは、更新する。ここで、DBMSでは性能向上を実現するために、更新はメモリ上のバッファで行い、ストレージへは別のタイミングで書き出す。ただし、信頼性向上のために、更新差分であるログについては、コミットのタイミングでストレージのログVOLへ同期で書き込みを行う。
サイト間が数百km以上となるDRシステムでは、回線部(ネットワーク部)の構築、維持コストが大きくなる。特に、数百kmに及ぶ広帯域幅回線の維持には、非常に多くのコストを要するため、コスト削減を行うためには、狭帯域幅回線でDRを実現することが必要となる。そこで、DBMSのログだけを転送し、DB本体は、副サイトでログ適用することで複製を行うログベースのDR方式が知られている。ログベースのDR方式では、副サイトの計算機では、リモートコピーで転送されたログを読み込んで、読み込んだログをDBに適用するログ適用部が動作する。
ところで、前記のようなDRシステムに関して、本発明者が検討した結果、以下のようなことが明らかとなった。DRシステムでは、将来の災害に備えて、平常時から副サイトの機器・運用コストを負担しなければならない。そのため、ROI(Return of Investment)向上のために、副サイトのリソースをバックアップ専用ではなく、平常時から有効利用したいという要望が生じてきている。有効利用法としては、例えば、副DBを検索・分析業務に利用することが考えられる。あるいは、副DBの参照を可能とすることで、正サイトでのオペレーションミスへの対応(正サイトで誤って消してしまったデータを副サイトから復帰させる)も考えられる。
副サイトで行うログ適用の方式としては、物理適用と論理適用が知られている。物理適用では、通常のクラッシュリカバリで用いられる方式であり、読み込んだログをそのまま適用する。一方、論理適用では、読み込んだログをSQLに変換した後、そのSQLを実行することでDBを回復する。以下において、図14および図15を用いて、ログ適用の方式とその問題点を説明する。図14(a)は従来方式1(物理適用+ローカルミラー運用)、図14(b)は従来方式2(論理適用)をそれぞれ示す。図15(a)、(b)は検索実行のための副DBの整合性保証処理(開始時、終了時)、図15(c)はログ適用再開時の処理をそれぞれ示す。
(1)従来方式1とその問題点
図14(a)に示す従来方式1は、物理適用でDBを回復し、副ストレージではローカルミラー運用を実施する。すなわち、ログ適用を実施中は、副DB123と副DB’201を同期状態にしておき、検索を行う時だけ副DB123(副DB’201)をTr(トランザクション)整合性のとれる状態にした後、両者を切断状態にする。検索実行時は、検索機能部200は副DB’201を使うため、副DB123を用いるログ適用機能部141は停止することなく処理を続けることができる。
副DB123(副DB’201)を整合性のとれた状態にする時の処理方法について、図15を用いて説明する。図15(a)の状態で整合性のとれた状態にするように指示があった場合(検索実施の要求があった場合)には、まず、仕掛かり中のTr303,304に関するログについてキャンセル処理(undo)を行って、図15(b)の状態にする必要がある。undo実施後の状態は、Tr(313,314)で示す。このundo処理自身も、副DBへの更新とみなされるため、別途、ログを生成して記録しておかなければならない。この処理は、正サイトでは行わなかった、副サイト独自の処理となる。また、図15(c)に示すように、検索処理を停止してログ適用を再開するためには、undoした処理をやり直さなければならず、処理・運用が煩雑となってしまう。すなわち、整合性保証処理の開始時点t1(306)ではなく、仕掛かり中のTr303と304の中で、最も古いTr304の開始時点t0(305)からやり直す必要がある。また、従来方式1は、検索実行時にはローカルミラー運用が必要となるため、処理・運用が煩雑となる。さらに、副ストレージの容量が2倍だけ必要となり、機器コストが上昇してしまうという問題点もある。
(2)従来方式2とその問題点
図14(b)の従来方式2では、論理適用により副DB123を回復する。論理適用が用いられる場合には、ログ回復、検索ともSQL発行となるため、両者は同時並行的に実行できる。しかし、論理適用は、SQL変換・発行コストが加わるため、物理適用に比べると適用速度が劣り、また、CPU負荷も高くなってしまう。そのため、常時的に検索を行わない場合にも、処理能力の高い高価なハード(副DBサーバ/検索サーバ)を備えておく必要がある。また、物理適用に比べるとログ適用のスピードも劣るため、副サイトで未適用なログが正サイトのログ出力で上書きされてしまう(ラップラウンドする)可能性も高くなる。ラップラウンドが生じた場合は、アーカイブログの転送・適用といった新たな運用を行う必要があり、正サイトの運用にも問題が生じる可能性がある。
以上から、従来方式1,2には次のような問題点がある。
(1)機器コスト
(1−1)論理適用は、物理適用に比べるとCPU負荷が高くなるため、検索を行わない場合にも、ログ回復のために処理速度の速い高価なサーバを用意しておく必要がある。(1−2)物理適用でローカルミラー運用を行う場合には、副ストレージに2倍の容量のドライブを用意しておく必要があり、機器コストが上昇する。
(2)運用コスト
(2−1)論理適用は適用速度が遅いため、副サイトで未適用なログがラップラウンドされてしまう可能性が高くなる。(2−2)副サイトで検索を行うためには、副DBをTr整合性のとれた状態にする必要がある。整合性のとれた状態にするためには、未決着Trをundoするが、このundoで生じた更新に対しても、更新ログの記録が必要となる。また、検索を終了し、ログ適用を再開する場合には、ログ適用を停止したポイントではなく、未決着Trの中で最も古いTrが発行された時点からやり直さなければならず、処理が煩雑となってしまう。
そこで、本発明の目的は、これらの問題点を解決して、機器コストの削減と運用の容易化を実現することができるDR技術を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。
本発明では、前記目的を達成するために、以下の方針でDR技術を実現する。
(1)機器コスト削減
(1−1)サーバコスト削減のために、検索を行わない場合には、安価なアプライアンスサーバでのログ回復が可能な物理適用を採用する。(1−2)ストレージコスト削減のために、副サイトでのローカルミラー運用は行わないことで、副ストレージの容量を削減する。
(2)運用容易化
(2−1)ログ適用や業務の傾向をモニタリングしておき、検索処理はログ適用の進捗状況に応じて受け付ける。副サイトのログ適用が十分に追いついていない場合には検索を受け付けないことで、ログがラップラウンドする可能性を低減する。(2−2)副DBの整合性保証を行う場合には、検索指示時点で仕掛かり中となっているTrをundoするのではなく、検索指示時点で仕掛かり中のTrだけを対象にredoする。これにより、undoによる更新ログの生成・管理が不要となり、さらに、ログ適用再開時には検索指示時点からやり直せばよいので運用が容易になる。
すなわち、本発明は、正サイトのDBMSのログをストレージのリモートコピーで副サイトに転送し、副サイトでログ適用を行うログベースのDRシステムに適用され、副サイトでは、ログ適用処理を行うログ適用機能部と、検索処理を行う検索機能部が副ストレージに接続されており、ログ適用機能部は、ログ適用の進捗を監視しており、検索機能部からの検索要求があった場合には、監視しているログ適用の進捗に応じて検索機能部への切替えを行うDR方法を特徴とするものである。特に、このDRシステムにおいて、ログ適用機能部はアプライアンスサーバに構築され、検索機能部は検索サーバに構築されている。
本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。
本発明によれば、機器コストの削減と運用の容易化を実現することができるDR技術を提供することができる。
<実施の形態の概要>
本発明の実施の形態におけるDRシステムは、処理が高速な物理適用を採用し、ログ適用機能は安価なアプライアンスサーバで動作させる。検索機能は、別途、サーバを用意する。ログ適用とはサーバリソースを分けることで、検索処理がログ回復に与える影響を最小限にすることができる。ここで、副サイトでの検索向けのサーバは、実行する検索処理の負荷に応じたものを用意すればよく、定常的に重い検索を行うのでなければ、他の業務サーバとサーバを共有することも可能である。あるいは、検索処理の負荷が低いことが予め分かっているならば、ログ適用機能は、検索サーバで動作させることもできる。
副ストレージでは、容量削減のために、ローカルミラー運用は行わない。そのため、検索を行う場合には、ログ適用機能が副DBをTr整合性のとれた状態にした後、ログ適用を中断し、検索機能に副DBを引き継ぐ。ログ適用中は検索を実施することはできないが、ログ適用処理が並列化などによって高速化が図られており、正サイトの業務に対して十分に高速であるならば、検索処理に多くの時間を割り当てることができる。検索を行う場合には、まず、ログ適用機能で検索可否を判定する。すなわち、平常時から正サイトの業務、副サイトのログ適用の性能をモニタリングしておき、ログ適用が十分に追いついている時にのみ、検索業務を受け付けることとする。
以下において、前記実施の形態の概要に基づいた、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。
<実施の形態1>
図1により、本発明の実施の形態1におけるDRシステムの構成の一例を説明する。図1は、DRシステムの構成を示す図である。
本実施の形態のDRシステムは、正サイトと、副サイトから構成される。正サイトは、DBMSが稼動する計算機からなる正DBサーバ100と、この正DBサーバ100に接続され、DBMSのログファイルとDBファイルが保存される正ストレージ110から構成される。副サイトは、ログ適用機能が稼動する計算機からなるDBアプライアンスサーバ400と、検索機能が稼働する計算機からなる検索サーバ410と、これらのDBアプライアンスサーバ400および検索サーバ410に接続され、DBMSのログファイルとDBファイルが保存される副ストレージ120から構成される。
正サイトの正ストレージ110と副サイトの副ストレージ120とはネットワーク(WAN)160を通じて接続され、正サイトのDBMSのログがストレージのリモートコピーで副サイトに転送され、副サイトでログ適用が行われ、このログ適用で複製されたデータが副ストレージ120に格納される。また、正サイトの正DBサーバ100および副サイトの検索サーバ410は、ネットワーク160を通じてクライアント150に接続されている。
正サイトにおいて、正DBサーバ100では、DBMS101が稼働し、このDBMS101には、ログ管理部102、Tr制御部103、DB管理部104が設けられている。正サイトの正ストレージ110には、ディスク制御処理部111、ログVOL(Log)112、正DB(DB)113が設けられている。
副サイトにおいて、DBアプライアンスサーバ400では、ログ適用処理を行うログ適用機能部141が稼働し、このログ適用機能部141には、判定部401、ログ入力部402、Tr管理部403、適用部404が設けられている。副サイトの検索サーバ410では、検索処理を行う検索機能部151が稼働し、この検索機能部151には、制御部411、検索部412が設けられている。副サイトの副ストレージ120には、ディスク制御処理部121、ログVOL(Log)122、副DB(DB)123が設けられている。
以上のように構成されるDRシステムにおいて、特に、DBアプライアンスサーバ400のログ適用機能部141、検索サーバ410の検索機能部151は、以下のような特徴を有している。
(ログ適用機能部)
ログ適用機能部141は、ログ入力部402、Tr管理部403、適用部404、および判定部401からなる。
ログ入力部402は、ログVOL122を監視し、正サイトから転送されるログを連続的に受信し、適用部404に適用を指示する。適用部404はログの適用を行い、Tr管理部403は適用部404と連携してTrの実行状態を管理する。判定部401は、ログ適用と検索処理の切替えをコントロールする部位であり、平常時から正サイトの業務やログ適用をモニタリングし、ログ適用の進捗に応じて、検索処理の実行可否を判定する。すなわち、判定部401は、検索機能部151からの検索要求に対して、検索実行の可否を決定し、ログ適用が十分に追いついており、問題がなければ副DB123の制御権を検索機能部151へ切替える。
検索処理の実行を許可する場合には、副DB123を整合性のとれる状態にした後、副DB123の制御権を検索機能部151に切替える。本方式での副DB123の整合性保証方式を図2を用いて説明する。従来方式(図2(a))では、時点t1(306)に検索開始指示を受けると、最初にその時点t1(306)で未決着なTr500,501を把握し、そのTrをundoすることで副DB123を整合性のとれる状態にしていた。検索処理が終了してログ適用を再開する場合には、undoしたTrを再実行しなければならず、undoしたTrの中で最も古いTr501から、すなわち、時点t0(305)からやり直さなければならなかった。なお、300〜302は決着したTrである。
それに対して、本方式(図2(b))では、検索開始指示時点t1(306)で未決着なTtだけをredoする。すなわち、時点t1(306)で検索開始指示を受けると、未決着Tr500,501を把握し、そのTrに関するログのみをredoする。redoを行って決着した状態は、Tr(510,511)で示す。検索処理を終了して、ログ適用を再開する場合には、時点t1(306)からログ適用をやり直せばよい。本方式は、従来方式に比べると、undo処理を行わないため、undoによって加えた更新に対する更新ログを記憶しておく必要がない、及び、適用停止ポイントと適用再開ポイントが同一となるため処理や運用が容易になるというメリットがある。
(検索機能部)
検索サーバ410では検索機能部151が動作し、検索機能部151は、制御部411と検索部412から構成される。制御部411は、ユーザやAPからの検索要求を受け付け、要求があった場合には、ログ適用機能部141の判定部401に検索要求を発行する。そして、検索要求が許可された時にのみ、検索部412に検索処理の実行を指示する。
以下において、ログ適用機能部141のログ入力部402、Tr管理部403、適用部404、および判定部401、検索サーバ410の制御部411および検索部412を詳細に説明する。
(ログ入力部)
ログ入力部402は、判定部401から開始指示/中断指示を受け付ける。開始指示を受けた以降は、ログを読み込み、読み込んだログの適用を適用部404に指示する。一方、中断指示を受けた場合には、副DB123を整合性のとれる状態にした後、再び開始指示が入力されるまで待機する。
ログ入力部402の動作フローを図3に示す。ログ入力部402は、ステップ601にて判定部401からの指示を解析し、それが開始指示であった場合(Y)には、ログVOL122からログを入力し(ステップ602)、入力したログの適用を適用部404に指示する(ステップ603)。ログ入力部402は、ステップ604にて判定部401からの指示を解析し、指示が中断要求であった場合(Y)には、副DB123を整合性のとれた状態にした後、次の開始指示が発せられるまで待機状態に入る。
すなわち、ログ入力部402は、最初にログを入力し(ステップ605)、次にTr管理部403に問い合わせを行い、現在、仕掛かり中の未決着のTrに関するリスト(TrのID)を取得する(ステップ606)。続いて、ログ入力部402は、未決着のTrのIDを元に、ログバッファから該Trに関する更新ログのみを抽出し(ステップ607)、その更新ログの適用を適用部404に指示する(ステップ608)。ログ入力部402は、適用が完了したら、次の開始要求が来るまで待機状態となる。
(Tr管理部)
Tr管理部403はTrの実行状況、すなわち、決着したか否かを管理する。これは、例えば、管理テーブルを用意し、あるTrのログを初めて読み込んだ時に、そのTrの状態を管理テーブルに挿入し、そのTrをコミットするログを入力した時に以前に挿入した行を削除すればよい。その結果、管理テーブルにはその時点で未決着なTrの情報を記録しておくことができる。
(適用部)
適用部404は、ログ入力部402が読み込んだログを適用する。
(判定部)
判定部401は、検索機能部151からの要求を受けると、ログ適用の進捗状況に応じて検索処理の実行可否を判定し、検索実行可の場合には副DB123を整合性のとれた状態にした後、検索機能部151への切替えを行う。さらに、予め、ログ適用を停止可能な時間、あるいは、検索処理を実行可能な時間である中断時間の計算を行い、その時間が経過した時、あるいは、検索機能部151から検索完了が通知された時には、検索処理を停止させ、中断していたログ適用を再開させる。
判定部401の動作フローを図4に示す。判定部401は、ログ入力部402に開始を指示した後(ステップ800)、ステップ802にて制御部411からの指示を解析し、それが副サイトの検索機能部151からの検索要求があった場合(Y)には、ステップ803にて最初にログ適用の進捗状況を計算し、受け付け可否を判定する(ステップ804)。
この検索可否の判定は、例えば、適用遅延率を計算することで行う。図5(a)に検索可否判定のイメージ図を示す。図中央のboxはログファイル700を表し、PDBは、正サイトのDBMS101が生成した最新ログへのポインタ701を表し、Plogは副サイトのログ適用機能部141が適用した最新ログへのポインタ702を表す。このログファイル700のサイズがLSZである時に、遅延率(Rdelay)を例えば以下の式で計算する。
Rdelay=(PDB−Plog)/LSZ
判定部401は、この遅延率が、事前に設定しておいた閾値(C1)より小さかった時(Y)にのみ、十分に追いついているとし、検索を受け付けることとする。遅延率がC1を超過した場合(N)には、副サイトの制御部411に拒否通知を送信する(ステップ805)。
DB管理者はこのC1の値を変更することで、検索可否の条件をコントロールすることができる。このコントロール方法としては、時間で与えておくこともできる。例えば、遅れがD時間以内であるDBを検索対象としたい条件を与えたければ、ログの遅れ(PDB−Plog)を正サイトのログ出力速度(VDB)で除した値がD以下であることを検索受け付けの条件とすればよい。
判定部401は、検索を受け付ける場合には、最初に、ログ入力部402に中断を指示する(ステップ807)。ログ入力部402は中断指示を受けて、副DB123を整合性のとれる状態に回復する。判定部401は、副DB123の回復が完了したら、副DB123をunmountし(ステップ808)、副サイトの制御部411に検索要求に対する許可通知を通信する(ステップ809)。
次に、判定部401は、ステップ810にてログ適用の中断時間(Tsuspend)を計算する。中断時間の計算例の考え方を図5(b)に示す。図5(a)の状態で検索要求が受け付けられているとする。この間(検索処理の実行中)、正サイトでは業務が進んで、ポインタ711はPDB’となる。この時、PDB’−Plogがログ適用の遅れとなる。この遅れに対して、許容量を事前に定めておき、遅れが許容量に達する時にログ適用を中断する。
DB’−Plog<=Cmax×LSZ
(PDB+VDB×Tsuspend−Plog)<=Cmax×LSZ
Tsuspend<=(Cmax×LSZ+Plog−PDB)/VDB
但し、Cmax:最大許容遅延率、VDB:正サイトの業務のログ生成速度。
中断時間だけsleep後、判定部401は、ステップ811にて制御部411に中断完を通知後、検索処理の停止が確認後にログ入力部402に開始を指示し、ログ適用処理を再開する。
なお、図4に記載していないが、制御部411から検索完了通知が発行された場合には、中断時間を経過していなくても、ログ適用を再開する。
(制御部)
制御部411は、ユーザ/APからの検索要求を受け付け、判定部401に対して検索要求を発行する。判定部401が検索許可通知を発行した時には、検索部412に検索処理の実行を指示する。
制御部411の動作フローを図6に示す。制御部411は、検索/停止モードを有することとする。制御部411は、停止モードへ変更後(ステップ900)、ステップ902にて判定部401から停止指示を受け取った場合(Y)には、もし検索処理の実行中であったら、検索部412に停止のための実行打ち切りを指示する(ステップ903)。続いて、制御部411は、副DB123をunmountした後(ステップ904)、判定部401に停止終了を通知し(ステップ905)、最後にモードを停止モードに変更する(ステップ906)。
一方、制御部411は、ステップ908にてユーザ/APからの検索要求を受けた時(Y)には、最初に検索モードか確認する(ステップ910)。既に、検索モードであるならば(Y)、そのまま、検索部412に次の検索要求に対する検索実行を指示する(ステップ911)。ステップ910にて停止モードであった場合(N)は、最初に判定部401に検索可否の問い合わせを行う(ステップ913)。
そして、制御部411は、ステップ914にて判定部401から許可通知が得られた場合(Y)には、副DB123をmountし(ステップ917)、モードを検索モードに変更し(ステップ918)、最後に検索部412に検索実行を指示する(ステップ919)。一方、ステップ914にて許可通知が得られなかった場合(N)は、ユーザ/APにエラーを通知する(ステップ915)。
(検索部)
検索部412は、制御部411の指示に従って検索処理の実行を行う。これは、例えば通常のDBMSで検索処理のみを実行させることで実現できる。
以上説明したように、本実施の形態のDRシステムによれば、副サイトでは、ログ適用機能部141が稼働するDBアプライアンスサーバ400と、検索機能部151が稼働する検索サーバ410が副ストレージ120に接続されていることで、以下のような効果を得ることができる。
(1)検索を行わない場合には、安価なDBアプラアンスサーバ400でのログ回復が可能な物理適用を採用することで、サーバコストを削減することができる。また、副サイトでのローカルミラー運用は行わないことで、副ストレージ120の容量を削減でき、ストレージコストを削減することができる。これらの結果により、機器コストを削減することができる。
(2)ログ適用機能部141でログ適用や業務の傾向をモニタリングしておき、検索処理はログ適用の進捗状況に応じて受け付けるようにして、副サイトのログ適用が十分に追いついていない場合には検索を受け付けないことで、ログがラップラウンドする可能性を低減することができる。また、副DB123の整合性保証を行う場合には、検索指示時点で仕掛かり中となっているTrをundoするのではなく、検索指示時点で仕掛かり中のTrだけを対象にredoすることで、undoによる更新ログの生成・管理が不要となり、さらに、ログ適用再開時には検索指示時点からやり直せばよいので運用が容易になる。これらの結果により、運用を容易化することができる。
<実施の形態2>
前記実施の形態1では、検索要求があった場合であっても、ログ適用進捗が十分でなければ、要求を拒否していた。それに対し、実施の形態2では、ログ適用進捗が十分でない場合であっても、検索を受け付けておき、ログ適用が追いついた時に実施する。この時(ログ適用進捗が十分でなく、検索要求時以降に検索を実行する場合には)、要求を行ったユーザやAPには、検索実行の予定時刻を返しておくこととする。
以下において、本実施の形態のDRシステムについて、前記実施の形態1と異なる各部位を詳細に説明する。なお、本実施の形態におけるDRシステムは図1と同様の構成であり、各部位の符号は図1と同様の符号を用いる。
(判定部)
判定部401は、ログ適用進捗が十分でないと判定された場合の処理のみが、前記実施の形態1と異なる。判定部401の動作フローを図7に示す。判定部401は、ステップ804にて、ログ適用進捗が十分でなく、すぐには検索を実行できないと判定された場合(N)には、検索が可能になると予測される待ち時間(T2)を計算する(ステップ1002)。
これは、例えば、検索が可能となる時刻をT2とすると、正サイトのログ出力と副サイトのログ適用の状況はそれぞれ、
DB’’=PDB+VDB×T2
log’’=Plog+Vlog×T2
となるので、その時に
log’’−PDB’’<C1(閾値)
が満たされればよいので、
T2>(C1−(Plog−PDB))/(Vlog−VDB
となる。
さらに、判定部401は、ステップ1003にて制御部411に拒否通知と予測待ち時間(T2)を返す。そして、T2だけsleep後(ステップ1004)、判定部401は、ステップ803にて再び追いつき状況を計算し、ステップ804にて十分に追いついていれば(Y)、ステップ807以降で副DB123を整合性のとれる状態にした後、検索機能部151に副DB123の制御権を切替える。
(制御部)
制御部411についても、前記実施の形態1と異なる部分を中心に説明する。制御部411の動作フローを図8に示す。制御部411では、要求がすぐには受け付けられなかったクエリに対応するために、クエリをキューイングしておくこととする。すなわち、制御部411は、ステップ908にてユーザ/APから検索要求があった場合(Y)には、最初にそのクエリ(検索内容)をキューへ登録する(ステップ1101)。
次に、制御部411は、ステップ910にて検索モードであるかをチェックし、既に検索モードで副DB123の制御権を有している場合(Y)には、キューからクエリを取り出し(ステップ1102)、検索部412にそのクエリの検索実行を指示する(ステップ911)。
一方、制御部411は、ステップ910の判定で、検索モードでない場合(N)は、判定部401に検索可否の判定を依頼する(ステップ914)。制御部411は、ステップ914の判定で、検索実行が許可された場合(Y)には、副DB123をmountし(ステップ917)、検索モードへの変更を行った後(ステップ918)、ステップ1104にてキューからクエリを取り出し、検索部412にクエリの検索実行を指示する(ステップ919)。逆に、制御部411は、ステップ914の判定にて、判定部401が検索を許可しない場合(N)には、ユーザ/APには判定部401が計算した予定実行時刻を提示する(ステップ1103)。
また、制御部411は、ステップ902の判定にて判定部401から停止指示があった場合(Y)で、かつ、その時にクエリを実行していた場合には、検索部412にそのクエリの実行停止を指示した後(ステップ903)、打ち切ったクエリをキューに再び登録しておく(ステップ1100)。
検索機能部151は、図9に示すようなI/Fをユーザに提供できることとする。図9(a)に示す画面(Query)1200はクエリの実行結果と実行状況を示す。
例えば、実行まで完了したクエリであれば、そのクエリの内容(1201)、クエリが登録された時刻(1202)、判定部が予想した実行時刻(1203)、実際に実行された時刻(1204)、副DBの時刻(1205:ログ適用を中断した時の時間、ログ中に記録されている正DBサーバでのタイムスタンプを基にした値)、実行結果へのリンク(1206)を有する。このリンク(1206)を選択した場合には、図9(b)に示す実行結果を表す画面(Result)1220の参照が可能となる。
また、キューに登録されただけで実行が未済みの場合には、クエリの内容(1207)、登録時刻(1208)、判定部が予想した実行時刻(1209)のみが表示され、実行時刻(1210)、DB時刻(1211)、実行結果(1212)については、実際に実行が行われた時にアップデートされる。
以上説明したように、本実施の形態のDRシステムによれば、前記実施の形態1と同様の効果を得ることができるとともに、ログ適用進捗が十分でない場合であっても、検索を受け付けておき、要求を行ったユーザやAPには検索実行の予定時刻を返しておき、ログ適用が追いついた時に検索を実行することができる。
<実施の形態3>
前記実施の形態1,2では、ユーザやAPからの要求をトリガにして副DBの整合性保証処理と検索処理を実施した。実施の形態3では、正サイトの処理に基づいて、自動的に副DBの整合性保証を行い、検索機能部に整合性のとれた副DBを提供する。具体的には、正サイトで行うチェックポイント処理をトリガにする。
以下において、本実施の形態のDRシステムについて、前記実施の形態1,2と異なる各部位を詳細に説明する。なお、本実施の形態におけるDRシステムは図1と同様の構成であり、各部位の符号は図1と同様の符号を用いる。
チェックポイント(CP)処理を図10に示す。チェックポイントでは、最初にCP取得要求を出す。ここで他のオンライン処理を止めてその時に未決着なTr1303,1304を決着させる方法(図10(a))もあるが、オンライン処理への影響を最小限にするためには、図10(b)に示すようにそのまま処理を継続していき、CP取得時点t1(1310)で未決着なTrが全て完了した時点t2(1311)でCP完了したものとする。本実施の形態では、CP所得要求、CP完了時にそれぞれログを出力しておくこととする。すなわち、CP取得要求時点t1(1310)で未決着だったTr1303,1304をredoして決着状態とする。この場合、Tr1303はCP完了時点t2(1311)に終了する。ここで、正サイトでは、t1以降に開始されるTrも存在し、1305〜1307はこの例を示す。ただし、副サイトでは、これらのTrもredoしてしまうと、不整合な状態となりうる(例えばTr1306はCP完了時点t2では決着しない)ため、Tr1305〜1307はredoしないこととする。
(ログ入力部)
ログ入力部402の動作フローを図11に示す。ログ入力部402は、ステップ602にてログを入力し、CPログの有無を判定する(ステップ1400)。読み込んだログの中にCPログがない場合(N)には、ステップ1401にて適用部404に読み込んだログの適用を指示する。CPログがあった場合(Y)には、まずCP取得ログまでのログの適用を指示する(ステップ1403)。
次に、ログ入力部402は、Tr管理部403から未決着なTrのリストを取得し(ステップ606)、読み込んだログの中からその未決着なTrに関するログのみを抽出し(ステップ1404)、適用部404に抽出したログの適用を指示し(ステップ608)、適用が完了すると判定部401に検索要求が可能であることを通知する(ステップ1405)。
さらに、ステップ1406にて判定部401はログ適用進捗に基づいて検索可否判定を行い、検索可である場合(Y)は、ログ適用を中断し、判定部401からの開始要求があるまで停止状態となる(ステップ1409)。一方、許可が得られなければ(N)、CP取得ログ以降もログ適用を指示し(ステップ1407)、そのままログ適用を実行していく。
(判定部)
判定部401の動作フローを図12に示す。判定部401では、ステップ1500にて検索機能部151からではなく、ログ入力部402から検索要求を受け付ける。検索要求があった場合(Y)には、ログ適用進捗状況に応じて検索可否判定を行う。
判定部401は、例えばログ適用遅延率(Rdelay)を計算し(ステップ803)、予め定めた閾値(C1)と比較することで判定を行う(ステップ804)。ログ適用の追いつきが十分でない時(N)は、ステップ1501にて検索ができないことの拒否通知をログ入力部402に発信する。追いつきが十分で検索が行えると判定された時(Y)には、副DB123をunmountした後(ステップ808)、制御部411とログ入力部402に検索が実行できることの許可通知を発行する(ステップ1503)。続いて、判定部401は、中断時間(T)を計算した後(ステップ810)、その時間だけsleepを行い、制御部411に検索停止を通知し、ログ入力部402には開始指示を通信する(ステップ811)。
(制御部)
制御部411は、検索実行が可能な時だけユーザからの要求を受け付ける。制御部411の動作フローを図13に示す。制御部411は、ステップ1600にて判定部401からの通知を受信し、検索が許可された時(Y)には、副DB123をmountし(ステップ1606)、検索モードへ変更し(ステップ1607)、ユーザ/APから検索要求を受信し(ステップ1608)、検索部412に検索実行を指示する(ステップ1609)。ステップ1600の判定で許可通知がない場合(N)には、最初にすでに検索モードであるかをチェックし(ステップ1601)、検索モードであるならば(Y)、ユーザ/APからの検索要求を受け付け(ステップ1602)、その検索を検索部412に指示する(ステップ1603)。
以上説明したように、本実施の形態のDRシステムによれば、前記実施の形態1,2と同様の効果を得ることができるとともに、正サイトで行うチェックポイント処理をトリガにして、自動的に副DB123の整合性保証を行い、検索機能部151に整合性のとれた副DB123を提供することができる。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。
本発明のDR技術は、副サイトのログ適用機能と検索機能に適用することができ、Tr処理システムや、DR構成を取る銀行などの金融業・大企業、および一般企業などに利用可能である。
本発明の実施の形態1におけるDRシステムの構成を示す図である。 本発明の実施の形態1におけるDRシステムと従来方式との比較において、副DBの整合性保証方式((a)従来方式、(b)本方式)を示す図である。 本発明の実施の形態1におけるDRシステムにおいて、適用部の動作フローを示す図である。 本発明の実施の形態1におけるDRシステムにおいて、判定部の動作フローを示す図である。 本発明の実施の形態1におけるDRシステムにおいて、検索可否の判定方法(a)と中断時間の計算方法(b)を示す図である。 本発明の実施の形態1におけるDRシステムにおいて、制御部の動作フローを示す図である。 本発明の実施の形態2におけるDRシステムにおいて、判定部の動作フローを示す図である。 本発明の実施の形態2におけるDRシステムにおいて、制御部の動作フローを示す図である。 本発明の実施の形態2におけるDRシステムにおいて、検索機能部が提供する画面((a)クエリの実行結果と実行状況、(b)クエリの実行結果)を示す図である。 本発明の実施の形態3におけるDRシステムにおいて、チェックポイント処理((a)チェックポイント取得要求時、(b)チェックポイント完了時)を示す図である。 本発明の実施の形態3におけるDRシステムにおいて、ログ入力部の動作フローを示す図である。 本発明の実施の形態3におけるDRシステムにおいて、判定部の動作フローを示す図である。 本発明の実施の形態3におけるDRシステムにおいて、制御部の動作フローを示す図である。 本発明に対する従来方式((a)物理適用+ローカルミラー運用、(b)論理適用)におけるDRシステムの構成を示す図である。 本発明に対する従来方式におけるDRシステムにおいて、検索実行のための副DBの整合性保証処理((a)開始時、(b)終了時)、ログ適用再開時の処理(c)を示す図である。
符号の説明
100…正DBサーバ、101…DBMS、102…ログ管理部、103…Tr制御部、104…DB管理部、
110…正ストレージ、111…ディスク制御処理部、112…ログVOL、113…正DB、
120…副ストレージ、121…ディスク制御処理部、122…ログVOL、123…副DB、
140…副DBサーバ、141…ログ適用機能部、150…クライアント、151…検索機能部、160…ネットワーク、200…検索機能部、
400…DBアプライアンスサーバ、401…判定部、402…ログ入力部、403…Tr管理部、404…適用部、
410…検索サーバ、411…制御部、412…検索部。

Claims (16)

  1. 正サイトのDBMSのログをストレージのリモートコピーで副サイトに転送し、前記副サイトでログ適用を行うログベースのディザスタリカバリシステムであって、
    前記副サイトには、前記ログ適用で複製されたデータを格納する副ストレージと、前記副ストレージに接続されたログ適用処理を行うログ適用機能部と、前記副ストレージに接続された検索処理を行う検索機能部を有し、
    前記ログ適用機能部は、ログ適用の進捗を監視しており、前記検索機能部からの検索要求があった場合には、監視しているログ適用の進捗に応じて前記検索機能部への切替えを行うことを特徴とするディザスタリカバリシステム。
  2. 請求項1記載のディザスタリカバリシステムにおいて、
    前記ログ適用機能部は、アプライアンスサーバに構築され、
    前記検索機能部は、検索サーバに構築されていることを特徴とするディザスタリカバリシステム。
  3. 正サイトのDBMSのログをストレージのリモートコピーで副サイトに転送し、前記副サイトでログ適用を行うログベースのディザスタリカバリ方法であって、
    前記副サイトでは、ログ適用処理を行うログ適用機能部と、検索処理を行う検索機能部が副ストレージに接続されており、
    前記ログ適用機能部は、ログ適用の進捗を監視しており、前記検索機能部からの検索要求があった場合には、監視しているログ適用の進捗に応じて前記検索機能部への切替えを行うことを特徴とするディザスタリカバリ方法。
  4. 請求項3記載のディザスタリカバリ方法において、
    前記ログ適用機能部は、前記検索機能部からの検索要求を受けた場合、監視していたログ適用の進捗状況に応じて検索可否の判定を行い、検索が可能な場合は副DBを整合性のとれた状態にし、ログ適用を中断可能な時間を計算し、その計算した時間内での検索処理を実行した後、ログ適用を再開することを特徴とするディザスタリカバリ方法。
  5. 請求項4記載のディザスタリカバリ方法において、
    前記ログ適用機能部は、検索可否の判定を行う判定部を有しており、
    前記判定部は、正サイトのDBMSと副サイトのログ適用機能部の性能情報を監視しておき、前記検索機能部からの検索要求を受け付けた場合には、監視していた性能情報を用いてログ適用の正サイトからの遅れを計算し、その計算した遅れが事前に定めた閾値以下であったら前記検索機能部への切替えを許可することを特徴とするディザスタリカバリ方法。
  6. 請求項4記載のディザスタリカバリ方法において、
    前記ログ適用機能部は、副サイトの検索の受け付けが決定された場合には、その時点で未決着なトランザクションを決定し、続いてその決定したトランザクションに関する更新ログのみを抽出し、ログ適用して、副DBを整合性のとれた状態に回復することを特徴とするディザスタリカバリ方法。
  7. 請求項4記載のディザスタリカバリ方法において、
    前記検索機能部は、制御部を有しており、
    前記制御部は、ユーザやAPからの検索要求を受け付けると、最初に前記ログ適用機能部に検索要求を出し、副DBが整合性のとれた状態になるのを待ってから、受け付けた検索要求を実施することを特徴とするディザスタリカバリ方法。
  8. 請求項4記載のディザスタリカバリ方法において、
    前記ログ適用機能部は、正サイトのログ出力、副サイトのログ適用の性能情報を監視しておき、前記検索機能部からの検索要求を受け付けた場合には、予め定めておいたログ適用の遅れの許容量と正サイトのログ出力速度から、ラップラウンドをすることなくログ適用を停止することが可能な時間を求め、その求めた時間だけログ適用処理を中断後、ログ適用を再開することを特徴とするディザスタリカバリ方法。
  9. 請求項4記載のディザスタリカバリ方法において、
    前記検索機能部は、前記ログ適用機能部からの要求を監視し、前記ログ適用機能部から検索停止要求を受けた場合には、検索処理を停止し、前記検索機能部が利用していた副DBをアンマウントし、前記ログ適用機能部に副DBの制御を切替えることを特徴とするディザスタリカバリ方法。
  10. 請求項3記載のディザスタリカバリ方法において、
    前記ログ適用機能部は、前記検索機能部からの検索要求を受けた場合、監視していたログ適用の進捗状況をもとに検索受け付けの判定を行い、ログ適用が十分に追いついていない場合には追いつくようになると予想される時間を計算し、その計算した時間を前記検索機能部に検索実行が可能となる予測時刻として返し、ログ適用が十分に追いついている場合には検索を許可するとし、副DBを整合性のとれた状態にし、ログ適用を中断可能な時間を計算し、その計算した時間内での検索処理を実行した後、ログ適用を再開することを特徴とするディザスタリカバリ方法。
  11. 請求項10記載のディザスタリカバリ方法において、
    前記ログ適用機能部は、検索受け付け可能かどうかの判定を行う判定部を有しており、
    前記判定部は、正サイトのDBMSと副サイトのログ適用機能部の性能情報を監視しておき、前記検索機能部からの検索要求を受け付けた場合には、監視していた性能情報を用いてログ適用の正サイトからの遅れを計算し、その計算した遅れが事前に定めた閾値以下であったら前記検索機能部への切替えを許可し、閾値を超過している場合には閾値以下となる時刻を計算し、その計算した時刻を前記検索機能部に検索実行が可能となる予測時間として返すことを特徴とするディザスタリカバリ方法。
  12. 請求項10記載のディザスタリカバリ方法において、
    前記検索機能部は、制御部を有しており、
    前記制御部は、ユーザやAPからの検索要求を受け付けると、最初に前記ログ適用機能部に検索要求を出し、検索が許可された場合には副DBが整合性のとれた状態になるのを待ってから、受け付けた検索要求を実施し、検索が許可されなかった場合にはクエリをキューに格納すると共に、ユーザやAPには前記ログ適用機能部が計算した予測時刻を通知し、この予測時刻になった時には、再度、前記ログ適用機能部にキューに格納したクエリの検索要求を送信することを特徴とするディザスタリカバリ方法。
  13. 請求項3記載のディザスタリカバリ方法において、
    前記ログ適用機能部は、正サイトで行われるチェックポイントログを監視し、チェックポイントログが発行されている場合には、副DBを整合性のとれた状態にした上で、前記検索機能部へ副DBの制御権を切替えることで、チェックポイント毎の検索実行を許可することを特徴とするディザスタリカバリ方法。
  14. 請求項13記載のディザスタリカバリ方法において、
    前記ログ適用機能部は、ログ入力部を有しており、
    前記ログ入力部は、チェックポイントを行ったことを示すログを監視し、チェックポイントログが発行されていた場合には、その時点で未決着なトランザクションを決定し、その決定したトランザクションに関する更新ログのみを抽出し、ログ適用することで整合性のとれたDBを回復することを特徴とするディザスタリカバリ方法。
  15. 請求項13記載のディザスタリカバリ方法において、
    前記ログ適用機能部は、判定部を有しており、
    前記判定部は、ログ入力部から検索要求を受信した場合には、ログ適用の遅れを計算し、遅れが事前に定めた閾値以下であれば、副DBをアンマウントし、前記検索機能部に対して検索実行が可能であることを通知し、副DBの制御権を前記検索機能部に切替えることを特徴とするディザスタリカバリ方法。
  16. 請求項13記載のディザスタリカバリ方法において、
    前記検索機能部は、制御部を有しており、
    前記制御部は、前記ログ適用機能部からの検索要求、あるいは停止要求を監視し、検索要求を受信した場合には、副DBをマウントし、副DBの制御権を前記ログ適用機能部から前記検索機能部に切替え、ユーザやAPからの検索要求を受信して実行し、前記ログ適用機能部から停止要求があった場合には、検索処理を停止し、副DBをアンマウントし、副DBの制御権を前記ログ適用機能部に切替えることを特徴とするディザスタリカバリ方法。
JP2007066429A 2007-03-15 2007-03-15 ディザスタリカバリシステムおよび方法 Expired - Fee Related JP5049618B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007066429A JP5049618B2 (ja) 2007-03-15 2007-03-15 ディザスタリカバリシステムおよび方法
US11/802,186 US7860824B2 (en) 2007-03-15 2007-05-21 System and method of disaster recovery

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007066429A JP5049618B2 (ja) 2007-03-15 2007-03-15 ディザスタリカバリシステムおよび方法

Publications (2)

Publication Number Publication Date
JP2008226088A true JP2008226088A (ja) 2008-09-25
JP5049618B2 JP5049618B2 (ja) 2012-10-17

Family

ID=39763893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007066429A Expired - Fee Related JP5049618B2 (ja) 2007-03-15 2007-03-15 ディザスタリカバリシステムおよび方法

Country Status (2)

Country Link
US (1) US7860824B2 (ja)
JP (1) JP5049618B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015001754A (ja) * 2013-06-13 2015-01-05 富士通株式会社 プログラム、情報処理システムおよびデータ更新制御方法
JP2018160075A (ja) * 2017-03-22 2018-10-11 大阪瓦斯株式会社 補助演算装置、及びそれを備えた演算装置

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4249719B2 (ja) * 2005-03-29 2009-04-08 株式会社日立製作所 バックアップシステム、プログラム及びバックアップ方法
US7934116B2 (en) * 2005-09-30 2011-04-26 Lockheed Martin Corporation Disaster recover/continuity of business adaptive solution framework
US8326805B1 (en) * 2007-09-28 2012-12-04 Emc Corporation High-availability file archiving
US8918603B1 (en) 2007-09-28 2014-12-23 Emc Corporation Storage of file archiving metadata
US20090210427A1 (en) * 2008-02-15 2009-08-20 Chris Eidler Secure Business Continuity and Disaster Recovery Platform for Multiple Protected Systems
US8977595B1 (en) * 2009-01-07 2015-03-10 Sprint Communications Company L.P Message-recovery file log locating and monitoring
US8286030B1 (en) 2009-02-09 2012-10-09 American Megatrends, Inc. Information lifecycle management assisted asynchronous replication
US8689046B2 (en) 2010-11-05 2014-04-01 International Business Machines Corporation System and method for remote recovery with checkpoints and intention logs
US9092475B2 (en) * 2011-11-07 2015-07-28 Sap Se Database log parallelization
US9846620B2 (en) 2013-01-11 2017-12-19 Commvault Systems, Inc. Table level database restore in a data storage system
US9230001B2 (en) 2013-11-14 2016-01-05 Vmware, Inc. Intelligent data propagation using performance monitoring
US9268836B2 (en) * 2013-11-14 2016-02-23 Vmware, Inc. Intelligent data propagation in a highly distributed environment
US10133775B1 (en) * 2014-03-19 2018-11-20 Amazon Technologies, Inc. Run time prediction for data queries
CN105808619B (zh) * 2014-12-31 2019-08-06 华为技术有限公司 基于影响分析的任务重做的方法、影响分析计算装置及一键重置装置
US20160210306A1 (en) * 2015-01-15 2016-07-21 Commvault Systems, Inc. Managing structured data in a data storage system
US10108687B2 (en) 2015-01-21 2018-10-23 Commvault Systems, Inc. Database protection using block-level mapping
US10275408B1 (en) * 2015-03-27 2019-04-30 EMC IP Holding Company LLC Analysis and visualization tool utilizing mixture of multiple reliability measures for product and part combinations
US9904598B2 (en) 2015-04-21 2018-02-27 Commvault Systems, Inc. Content-independent and database management system-independent synthetic full backup of a database based on snapshot technology
CN108196965B (zh) * 2017-12-28 2020-07-28 维沃移动通信有限公司 一种数据处理方法及装置
US11269732B2 (en) 2019-03-12 2022-03-08 Commvault Systems, Inc. Managing structured data in a data storage system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05307576A (ja) * 1991-07-12 1993-11-19 Fujitsu Ltd データベース・システム
JPH1049553A (ja) * 1996-08-05 1998-02-20 Toshiba Corp 情報収集方法
JP2001014336A (ja) * 1999-06-30 2001-01-19 Sharp Corp データベースシステム、およびその制御方法、ならびにその制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004086800A (ja) * 2002-08-29 2004-03-18 Mitsubishi Electric Corp データ同期システムおよびデータ同期方法
JP2006004147A (ja) * 2004-06-17 2006-01-05 Hitachi Ltd ディザスタリカバリシステム、プログラム及びデータベースのリカバリ方法
JP2006048103A (ja) * 2004-07-30 2006-02-16 Hitachi Ltd ディザスタリカバリシステム、プログラム及びデータの複製方法
JP2006099536A (ja) * 2004-09-30 2006-04-13 Hitachi Ltd バックアップデータの利用方法およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5412801A (en) * 1990-01-17 1995-05-02 E-Net Gap recovery for off-site data storage and recovery systems
US6067550A (en) * 1997-03-10 2000-05-23 Microsoft Corporation Database computer system with application recovery and dependency handling write cache
US6226651B1 (en) * 1998-03-27 2001-05-01 International Business Machines Corporation Database disaster remote site recovery
JP2001356945A (ja) * 2000-04-12 2001-12-26 Anetsukusu Syst Kk データバックアップ・リカバリー方式
US20030126133A1 (en) * 2001-12-27 2003-07-03 Slamdunk Networks, Inc. Database replication using application program event playback
US6981177B2 (en) * 2002-04-19 2005-12-27 Computer Associates Think, Inc. Method and system for disaster recovery
US20030220935A1 (en) * 2002-05-21 2003-11-27 Vivian Stephen J. Method of logical database snapshot for log-based replication
JP3822178B2 (ja) * 2003-03-14 2006-09-13 日本電信電話株式会社 エンティティ装置、障害回復方法、及び、コンピュータプログラム
US7383264B2 (en) * 2003-03-27 2008-06-03 Hitachi, Ltd. Data control method for duplicating data between computer systems
US7194486B2 (en) * 2004-06-03 2007-03-20 Hitachi, Ltd. Method and system for data processing with data replication for the same
JP4575762B2 (ja) * 2004-06-03 2010-11-04 株式会社日立製作所 データ処理方法および装置並びにストレージ装置およびその処理プログラム
EP1960903A4 (en) * 2005-11-28 2009-01-28 Commvault Systems Inc SYSTEMS AND METHOD FOR CLASSIFICATION AND TRANSFER OF INFORMATION IN A STORAGE NETWORK
US20070220059A1 (en) * 2006-03-20 2007-09-20 Manyi Lu Data processing node
US20070271302A1 (en) * 2006-05-16 2007-11-22 Texas Instruments, Incorporated Data copy system and method for multi-platform disaster recovery

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05307576A (ja) * 1991-07-12 1993-11-19 Fujitsu Ltd データベース・システム
JPH1049553A (ja) * 1996-08-05 1998-02-20 Toshiba Corp 情報収集方法
JP2001014336A (ja) * 1999-06-30 2001-01-19 Sharp Corp データベースシステム、およびその制御方法、ならびにその制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004086800A (ja) * 2002-08-29 2004-03-18 Mitsubishi Electric Corp データ同期システムおよびデータ同期方法
JP2006004147A (ja) * 2004-06-17 2006-01-05 Hitachi Ltd ディザスタリカバリシステム、プログラム及びデータベースのリカバリ方法
JP2006048103A (ja) * 2004-07-30 2006-02-16 Hitachi Ltd ディザスタリカバリシステム、プログラム及びデータの複製方法
JP2006099536A (ja) * 2004-09-30 2006-04-13 Hitachi Ltd バックアップデータの利用方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015001754A (ja) * 2013-06-13 2015-01-05 富士通株式会社 プログラム、情報処理システムおよびデータ更新制御方法
JP2018160075A (ja) * 2017-03-22 2018-10-11 大阪瓦斯株式会社 補助演算装置、及びそれを備えた演算装置

Also Published As

Publication number Publication date
JP5049618B2 (ja) 2012-10-17
US7860824B2 (en) 2010-12-28
US20080229140A1 (en) 2008-09-18

Similar Documents

Publication Publication Date Title
JP5049618B2 (ja) ディザスタリカバリシステムおよび方法
JP4581500B2 (ja) ディザスタリカバリシステム、プログラム及びデータベースのリカバリ方法
US7383264B2 (en) Data control method for duplicating data between computer systems
JP4283576B2 (ja) トランザクション同期方法、データベースシステム及びデータベース装置
US7668874B2 (en) Disaster recovery processing method and apparatus and storage unit for the same
JP3790589B2 (ja) 分散データベーストランザクションのコミットメント方法
US8341115B1 (en) Dynamically switching between synchronous and asynchronous replication
US8306947B2 (en) Replication of operations on objects distributed in a storage system
US7293194B2 (en) Method and device for switching database access part from for-standby to currently in use
US7529964B2 (en) Data duplication method in a disaster recovery system
US20050262170A1 (en) Real-time apply mechanism in standby database environments
US8166094B2 (en) Coordinated quiesce of a distributed file system
JP5308403B2 (ja) データ処理の障害回復方法、システムおよびプログラム
JP2003504756A (ja) 将来の一時停止コマンドを用いる改良されたリモートデータコピー
US20080154988A1 (en) Hsm control program and method
JP2005222110A (ja) ストレージサブシステム
KR20110086690A (ko) 저장 장치에 데이터 쓰기를 실행하는 방법 및 시스템
US20100030826A1 (en) Production-alternate system including production system for processing transactions and alternate system as a backup system of the production system
JP4289056B2 (ja) 計算機システム間のデータ二重化制御方法
JP2005309793A (ja) データ処理システム
JP2004302635A (ja) トランザクション処理方法及びその実施装置並びにその処理プログラム
JP4095139B2 (ja) コンピュータシステムおよびファイル管理方法
US11301341B2 (en) Replication system takeover with handshake
JPH1185594A (ja) リモートコピー用情報処理システム
JP2569063B2 (ja) 複合サブシステム形オンラインシステムの障害回復方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120626

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120723

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5049618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees