JP4572581B2 - データベース処理方法およびシステム並びにその処理プログラム - Google Patents

データベース処理方法およびシステム並びにその処理プログラム Download PDF

Info

Publication number
JP4572581B2
JP4572581B2 JP2004158628A JP2004158628A JP4572581B2 JP 4572581 B2 JP4572581 B2 JP 4572581B2 JP 2004158628 A JP2004158628 A JP 2004158628A JP 2004158628 A JP2004158628 A JP 2004158628A JP 4572581 B2 JP4572581 B2 JP 4572581B2
Authority
JP
Japan
Prior art keywords
database processing
database
switching destination
processing apparatus
failure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004158628A
Other languages
English (en)
Other versions
JP2005339300A (ja
Inventor
克志 八高
憲宏 原
徹 河島
雅巳 樋川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004158628A priority Critical patent/JP4572581B2/ja
Priority to US11/138,385 priority patent/US7409588B2/en
Publication of JP2005339300A publication Critical patent/JP2005339300A/ja
Priority to US12/216,269 priority patent/US8201022B2/en
Application granted granted Critical
Publication of JP4572581B2 publication Critical patent/JP4572581B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2048Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share neither address space nor persistent storage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/1658Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2033Failover techniques switching over of hardware resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2035Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant without idle spare hardware

Description

本発明はデータ処理技術に関し、系切り替え機能を有するデータベース管理システム(DBMS)に適用して有効な技術に関するものである。
サービスの停止が重大なビジネスチャンスの喪失に直結するネットビジネスの世界では、24時間365日稼動し続ける堅牢性を備えたシステムが求められる。その中でも特に、障害発生時の影響の局所化と迅速なシステム回復が重要である。従来より、データベース(DB)システムでは、障害発生時の迅速なシステム回復のために、サービス実行用の実行系マシンとは別に待機系マシンと用意し、障害発生時に待機系マシンにサービスの実行を切り替える「系切り替え」という技術が用いられてきた。
例えば、非特許文献1(Jim Gray and Andreas Reuter:"TRANSACTION PROCESSING:CONCEPTS AND TECHNIQUES",Morgan Kaufmann Publishers, 1993)は、HA(High Availability)システム構成によるDB障害対策としてホットスタンバイ無停止運用について開示している。
一方、非特許文献2("Parallel Database Systems :The Future of High Performance Database Systems",COMMUNICATIONS OF THE ACM, Vol.35, No.6, 1992, P.85-P.98)には、データベースの処理負荷を複数のプロセッサに分散させ並列に実行するアーキテクチャが開示されている。上記従来技術に記載のShared Everything, Shared Disk(共用型)アーキテクチャでは、DB処理を実行する全ての計算機が全てのデータをアクセスすることが可能であり、Shared Nothing(非共用型)アーキテクチャでは、自計算機に接続されたディスクに格納されたデータのみアクセス可能である。
Shared Nothing(非共用型)アーキテクチャは、共用型アーキテクチャにくらべ、DB処理を実行する構成単位の間での共有リソースが少なく、スケーラビリティの点で非常に優れている。Shared Nothing(非共用型)アーキテクチャにおいても、高可用性を提供するために系切り替えの技術を用いることが多い。
非特許文献3(Aslam Nomani:"Implementing IBM DB2 Universal Database V8.1 Enterprise Server Edition with Microsoft Cluster Server", International Business Machines Corporation, 2003)には、各マシンに複数のDB格納領域を配置したデータベース管理システムにおいてDB格納領域を切り替え単位とする系切り替え方式(負荷分散型系切り替え方式)が開示されている。DB格納領域ごとに実行系と待機系を定義し、通常時は実行系が当該DB格納領域にアクセスし、障害発生時には待機系が当該DB格納領域にアクセスすることでサービスを継続する。この方式では、同一マシンに属する複数のDB格納領域に関して、別々のマシンに分散して待機系を定義する。1つのマシンで障害が発生した場合に、当該マシン中に属する複数のDB格納領域は別々のマシンに引き継がれる。これにより、系切り替え後の処理実行負荷を複数マシンに分散し、システム全体のスループット低下を軽減することができる。
Jim Gray and Andreas Reuter:"TRANSACTION PROCESSING:CONCEPTS AND TECHNIQUES",Morgan Kaufmann Publishers, 1993 David Dewitt and Jim Gray:"Parallel Database Systems :The Future of High Performance Database Systems", COMMUNICATIONS OF THE ACM, Vol.35, No.6, 1992 Aslam Nomani:"Implementing IBM DB2 Universal Database V8.1 Enterprise Server Edition with Microsoft Cluster Server", International Business Machines Corporation, 2003
しかし、系切り替えでは、実行系マシンとは別に待機系マシンとを用意しなければならず、通常サービス実行時には待機系マシンは遊んでいる状態である。また、系切り替えでも「相互待機」という形態で、待機系マシンにも通常のサービス実行を割り当てることもできるが、切り替え時のシステム回復の高速化を図るために、待機系でのシステム立上げをあらかじめ途中まで行っておく(「ウォームスタンバイ」、「ホットスタンバイ」)ことが多く、待機系システムのリソース(プロセスやメモリなど)を余分に用意しなければならない。
上記のような通常時未稼動状態である待機専用のリソースを必要とするシステムにおいては通常時にリソースを有効に利用できておらず、システム構築・運用におけるTCO(Total Cost of Ownership)削減の観点で問題である。さらにまた、ある稼動状態のマシンに障害が発生し、系切り替えにより他の稼動中マシンにフェイルオーバしても、切り替え先マシンに処理負荷が集中(通常片寄せされていない場合の負荷が2倍になることもありうる)し、システム全体としての処理性能が劣化してしまう。
本発明の目的は、前述のような通常時未稼動状態である待機専用のリソースを抑えることにある。他の目的は、障害発生時の系切り替え後におけるシステム全体の処理性能劣化や負荷のアンバランスを改善することにある。
上記目的を達成するために、Shared Nothing(非共用型)アーキテクチャを用いたデータベース管理システムにおいて、障害発生時に稼動中ユニットに切り替える手段を提供するようにしたものである。かつ、障害が発生したユニットに含まれる複数のサーバ(DBMSにおけるDBアクセス機能を提供する論理コンポーネント)を複数の稼動中ユニットに分散するように切り替える手段を提供するようにしたものである。その手段においては、切り替え先ユニットに対して、切り替え対象のサーバを構成上追加する機能、および切り替え対象のサーバを起動し、当該サーバがアクセスを担当するDB格納領域に対するDB回復処理および当該サーバが障害にあった際に実行中であった処理に関してトランザクション回復を施す機能を有するものである。さらに、障害発生時の系切り替え後にシステム全体の処理性能の安定化を図るために、障害発生時のサーバ移動先(系切り替え先ユニット)を決定する方法について、予めユーザが指定したサーバ移動先にしたがいサーバ移動先を決定する機能、予めユーザが指定した指針(ポリシー)に従いシステムが内部にて静的にサーバ移動先を決定する機能、もしくは予めユーザが指定した指針(ポリシー)にしたがいDBMSが障害発生の際に動的にサーバ移動先を決定する機能を備えたものである。
本発明によれば、待機専用のリソースを削減することが可能となる。
以下、本発明を実施するための最良の形態について図面を用いて具体的に説明する。
まず、図1を用いて本発明の概念を簡単に説明する。
本実施例のデータベース管理システムは、処理要求受付サーバ(FES:Front End Server)10およびDBアクセスサーバ(BES:Back End Server)20を具備する。DBアクセスサーバはDB処理サーバとも言う。ここでのサーバとはデータベース管理システム内の論理的な機能コンポーネントであり、物理的なマシンすなわち情報処理装置のことを指しているわけではない。本例での各種のサーバは、プログラムやオブジェクト、プロセス、スレッドにより実現されるものである。
処理要求受付サーバ(FES)10は、ユーザからの問合せ70を受け付け解析し、DBアクセス要求を生成し、DBアクセスサーバへDBアクセス要求を行う。そしてDBアクセスの結果を必要に応じてユーザに返す。DBアクセスサーバ(BES)20は、処理要求受付サーバ10からのDBアクセス要求を受け取り、要求にしたがってDB格納領域上のデータを操作し、必要に応じて結果を処理要求受付サーバに返す。FES10およびBES20とも1つもしくは複数のプロセスまたはスレッドによって実現される。
本実施例のデータベース管理システムのアーキテクチャは、Shared Nothing(非共用型)アーキテクチャであり、本システムが管理するデータベース(例えばテーブル、インデクス)は、さまざまな手法により複数の分割テーブルおよび分割インデクスに分割され、複数のDB格納領域に分散格納される。あるDB格納領域は決まったDBアクセスサーバに対応付けられており、DBアクセスサーバは、そのDBアクセスサーバに対応付けられたDB格納領域内のデータ(例えばテーブルデータ、インデクスデータ)のみをアクセスする。
図1の例では、通常、BES1は、DB格納領域1へのアクセス要求のみを、BES2は、DB格納領域2へのアクセス要求のみを処理する。また、同様に、BES3は、DB格納領域3へのアクセス要求のみを、BES4は、DB格納領域4へのアクセス要求のみを、そしてBES5は、DB格納領域5へのアクセス要求のみを処理する。BES1、BES2、BES3、BES4およびBES5は同じDB格納領域をアクセスすることはない。あるDB格納領域に対するアクセス要求をどのBESが処理するかは、後述するサーバ−DB格納領域担当情報50によってシステム内で静的に決定する。
通常時、BES1、BES2、BES3、BES4およびBES5とも稼動状態であり、すべてのリソース(DBアクセスサーバを実現するプロセス、メモリ等)が有効に活用されている。
ここで、例えば情報処理装置3200に電源等の障害が発生し、BES1、BES2およびBES3を有するDBMS2(unit2)がダウンした場合、他の稼動中のDBMSユニット(本例ではunit1およびunit3)にBESごとに処理を引き継いでサービスを続行する。すなわち、稼動中ユニットunit1へと障害対象のBES1およびBES2が移動する。同様に、稼動中ユニットunit3へと障害対象のBES3が移動する。
具体的には、ユニットunit2に障害が発生したことをユニットunit1と同一の情報処理装置上に配置されている系監視・系切り替え制御機構5およびユニットunit3を同一の情報処理装置上に配置されている系監視・系切り替え制御機構5が検知し、BES1、BES2、BES3おのおののBESに関して以下で述べる系切り替えを実行制御する。以降BES1の系切り替えを例に説明する。
まず、BES1の障害を検知した系監視・系切り替え制御機構5では、障害対象のBES1のサーバ移動先(系切り替え先)のユニットを障害時のサーバ移動先情報30により決定する(703)。ここではユニットunit1に決定したとしよう。その場合、BES1がアクセスを担当しているDB格納領域1(61)が格納されている共用ディスク装置(60)の切り替えを行い、ユニットunit1が配置されている情報処理装置からアクセスができるような状態にする(704)。そして、DBMS2(ユニットunit1)に対して系切り替え連絡をBES1指定により行う(705)。
系監視・系切り替え制御機構5からの連絡を受けたDBMS2(ユニットunit1)は、まず、ユニットunit1に切り替え対象のBES1を追加するため構成情報を変更する(712)。次にユニットunit1にBES1を追加した旨を他の情報処理装置に配置されている他のユニットに対して通知する。そして、切り替え対象であるBES1の起動(開始)を行う(714)。起動処理の延長で、DB格納領域1に対するDB回復処理を行う。
以上のサーバ単位の系切り替え処理は、稼動中の系切り替え先のユニットにおいて稼動していた他のBES(BES4)の処理には影響を与えない。他の障害対象サーバBES2、BES3もBES1と同様にサーバ単位に稼動中ユニット(それぞれユニットunit1、ユニットunit3)に、おのおの独立に切り替えを実行する。
ここで、切り替え後にユーザ(すなわちアプリケーションプログラム)からの問合せ要求70を受け取ったFES(10)は、問合せ要求を解析し、アクセスするデータが存在するDB格納領域を決定する。決定されたDB格納領域へのアクセスを担当するDBアクセスサーバが現在(系切り替え後)稼動中であるユニットに対してDBアクセス要求80を送信する。
要求された稼動中ユニットは、受け取ったDBアクセス処理を指定サーバ(BES1)で実行し、DB格納領域1をアクセスして要求されたデータ操作を行う。本例では、データベース60内のDB格納領域1(61)に格納されたテーブルデータ(62)の"12"を実行結果として、FESに送信する。送信されたテーブルデータは問合せ結果としてFES(10)によってユーザに返却される。すなわち、障害発生前からユニットunit1で稼動しているBES4と全く同じ処理で障害対象のBES1へのDBアクセス処理要求を実現することができる。
本例でも分かるように、障害対象のユニットunit2で稼動していたBES1、BES2、BES3がすべてある1つの特定ユニットへ切り替わるわけではないため、障害発生後の負荷分散が図られ、切り替え先(移動先)の指定により、切り替え後のシステム全体の処理性能劣化を最小限に抑えることも可能である。ここでは、切り替え先である稼動中ユニットに対するトランザクション到着率を負荷として考えると、ユニットunit1で対切り替え前300%、ユニットunit3で対切り替え前200%。特定1ユニットとしてユニットunit1もしくはユニットunit3を想定した場合の400%に比べ1ユニットに着目した場合でも負荷分散の効果が伺える。ユニットunit1およびユニットunit3に関しては実システムではユニットunit2と同等のBESを通常時より配置および稼動されるのがシステム設計上望ましく、その場合3つのBESが稼動中の状態に1つのBESが切り替わって(移動して)くるため対切り替え前133%となる。
ここでの障害時のサーバ移動先情報30は、DBMSの管理者などのユーザによりあらかじめDBMSに登録されているものとして記述しているが、DBMSが内部で自動生成することにより管理者の負担を低減することができる。その場合、システム内のユニット数に対し全てBESの数が均等になるように割り振るなどが考えられる。管理者の負担軽減のためにもちろん障害時のサーバ移動先情報30をシステムのサーバ−ユニット構成情報等を入力としたツールにより生成してもよい。
また、障害発生時に動的にサーバ移動先ユニットを決定してもよい。その場合、サーバ移動先を決定するための指針(ポリシー)90をあらかじめDBMSの管理者などが指定しておくことが考えられる。サーバ移動先を決定するための指針(ポリシー)として、例えば以下のようなものが挙げられる。
(1)CPU利用率、トランザクション到着率、ディスクアクセス率等の負荷の軽い稼動中ユニットをサーバ移動先(切り替え先)を選定する。
(2)メモリ等のリソースに空きがある稼動中ユニットをサーバ移動先(切り替え先)を選定する。
(3)複数稼動中ユニットを切り替えBESが数的に均等になるようにサーバ移動先(切り替え先)を割り振る。
上記(1)、(2)および(3)に挙げられた負荷、リソースの空き等の情報を稼動情報100としてDBMS内に蓄積し、系切り替え時に参照する。
以上のように、障害発生時に、障害対象のユニットに含まれる複数のDBアクセスサーバ(BES)をサーバごとに複数の稼動中ユニットに分散されて切り替えることにより、障害発生時の系切り替え後、システム全体の処理性能劣化を最小限に抑えることが可能となる。
ここでは、FESとBESとを別々の情報処理装置上に配置したが、同一の情報処理装置上に配置することによりハードウェア資源の有効活用が可能である。また、本実施例で示したFESの機能およびBESの機能を1つのDBサーバとして実装することにより、データベース管理システムの管理者は、FESとBESとを意識して管理する必要がなくなり、管理コストを低減することができる。本例における切替先のDBサーバは、サーバ移動先情報30が設定されたときにユニットで実行可能な状態で待機させてもよい。
次に図2を用いて、本実施形態のデータベース管理システムの概略構成を説明する。
ユーザが作成したアプリケーションプログラム6と、問い合わせ処理やリソース管理などのデータベースシステム全体の管理を行うデータベース管理システム2がある。上記のデータベース管理システム2は、処理要求受付サーバ(FES)10、DBアクセスサーバ(BES)20を具備する。また、データベース管理システム2はデータベースバッファ230を具備し、データベースアクセス対象となるデータを永続的にあるいは一時的に格納するデータベース3、そして障害時のサーバ移動先情報30、サーバ−ユニット構成情報40、サーバ−DB格納領域担当情報50、系切り替え先決定指針90および稼動情報100を有する。
処理要求受付サーバ(FES)10は、アプリケーションプログラム6から投入される問合せを受け付け解析し、DBアクセス要求を生成し、DBアクセスサーバへDBアクセス要求を行う。そしてDBアクセスの結果を必要に応じてアプリケーションプログラム6に返す。DBアクセスサーバ(BES)20は、処理要求受付サーバ10からのDBアクセス要求を受け取り、要求にしたがって外部記憶装置上に記憶されるデータベース3に対しデータベースバッファ230を通じてアクセスする。先に図1において説明した系切り替え対象のDBアクセスサーバのDBアクセス処理では、もともと切り替え先ユニットで稼動していたBESが使用しているものと同じデータベースバッファを利用することもありうる。すなわち、もともとのBESと系切り替えにより移ってきたBESとではデータベースバッファを共用する。
上記データベース管理システム2はネットワークなどを介して他のシステムと接続されている。また、処理要求受け付けサーバ(FES)10およびDBアクセスサーバ(BES)20は必ずしも同一の情報処理装置上に配置される必要はない。それぞれ別々の情報処理装置上に配置され、ネットワーク等を介して1つのデータベース管理システムとして機能すればよい。また、1つのデータベース管理システムは複数のFESを配置することにより多量のユーザからの要求の負荷を分散させることができる。また、複数のBESを有することによりデータ処理の並列度が高まり、大規模なデータベースに対するデータ処理も高速に実現することができる。以降、1情報処理装置に配置されるFESもしくはBESを具備したデータベース管理システムの単位をユニットもしくはインスタンスと呼ぶことにする。
上記処理要求受付サーバ10は、問合せの構文解析・意味解析を行い、適切な処理手順を決定し、その処理手順に対応したコードを生成し、DBアクセスサーバ20に対しDBアクセス要求を行う処理要求制御部211を具備している。
上記DBアクセスサーバ20は、処理要求受付サーバ10から受け取ったDBアクセス要求(生成したコード)にしたがってデータベース3上のデータのアクセス制御等を行うデータ処理制御部221を具備している。
また、上記DBアクセスサーバ20は、他の情報処理装置もしくは他の情報処理装置に配置されたユニットに障害が発生した場合、系管理および系切り替え機能5と連携し、系切り替え要求を受け取りサーバ単位の系切り替え処理を起動する系監視・系切り替え機構連携部222、222から要請を障害対象の指定サーバの系切り替え処理を制御するサーバ単位系切り替え処理部223、223制御の下で切り替え処理の一部として切り替え対象サーバの当該ユニットへの構成上の追加を行うサーバ−ユニット構成情報管理部224、さらに切り替えサーバを起動し当該サーバがアクセスを担当しているDB格納領域ほかの回復を行い、実行中だった処理の更新結果を取り消すトランザクション回復を制御するサーバ起動制御部225を具備する。サーバ−ユニット構成情報管理部224は、前述の処理受付サーバ10にも具備される。
図3は本実施形態におけるコンピュータシステムのハードウエア構成の一例を示す図である。この例のコンピュータシステムは、情報処理装置3000、3100および3200を含む。
情報処理装置3000は、CPU3002、主記憶装置3001、通信制御装置3003、I/O制御装置3004及び端末3006により構成される。主記憶装置3001上には、アプリケーションプログラム3008が置かれ、CPU3002を用いて稼動している。アプリケーションプログラム3008がDBMS2の処理要求受付サーバ10にユーザ問合せを行うと、情報処理装置3000の通信制御装置3003と情報処理装置3100の通信制御装置3003によって、ネットワーク3007を経由して処理要求受付サーバ10に問合せ要求が送られる。
情報処理装置3100は、CPU3002、主記憶装置3001、通信制御装置3003、I/O制御装置3004、磁気ディスク装置等の外部記憶装置3005及び端末3006により構成される。情報処理装置3100の主記憶装置3001上には、図2を用いて先に説明した処理要求受付サーバ10を有するデータベース管理システム2が置かれ、CPU3002を用いて稼動している。外部記憶装置3005上にはデータベース管理システム3が管理するデータベース3が格納される。また、データベース管理システム2を実現するプログラム3100も外部記憶装置3003上に格納される。処理要求受付サーバ10は、I/O制御装置装置3004により外部記憶装置3005からデータの読み出し/書き込みを行い、通信制御装置3003によりネットワーク3007で接続された他の情報処理装置とデータの送受信を行う。
情報処理装置3200は、CPU3002、主記憶装置3001、通信制御装置3003、I/O制御装置3004、磁気ディスク装置等の外部記憶装置3005及び端末3006により構成される。情報処理装置3200の主記憶装置3001上には、図2を用いて先に説明したDBアクセスサーバ20を有するデータベース管理システム2が置かれ、CPU3002を用いて稼動している。外部記憶装置3005上にはデータベース管理システム3が管理するデータベース3が格納される。また、データベース管理システム2を実現するプログラム3100も外部記憶装置3003上に格納される。DBアクセスサーバ20は、I/O制御装置装置3004により外部記憶装置3005からデータの読み出し/書き込みを行い、通信制御装置3003によりネットワーク3007で接続された他の情報処理装置とデータの送受信を行う。
ここで、2つの情報処理装置3200にまずそれぞれ関連付けられたデータベース3が格納された外部記憶装置3005は、共用ディスクであり、他方の情報処理装置からのアクセスも可能である。データベース管理システム2の稼動状況の監視(系の監視)および種々の障害発生にともなう系切り替え操作を制御する系監視・系切り替え制御機構5(クラスタウエアと呼ぶこともある)により、上記共用ディスクのアクセス制御は行われる。
図4は本実施形態のサーバ−DB格納領域担当情報の一例を示す図である。
図4の例では、サーバ−DB格納領域担当情報50は、DB格納領域を示すDB格納領域名(401)と、そのDB格納領域名(401)で識別されるDB格納領域へのアクセスを担当するDBアクセスサーバのサーバ名(402)より構成される。情報エントリ411は、DB格納領域1はBES1がそのアクセスを担当することを示している。同様に、情報エントリ412はDB格納領域2へのアクセス担当をBES2が、情報エントリ413はDB格納領域3へのアクセス担当をBES3が行うことをそれぞれ示している。本情報は、系切り替えをまたがって変更されることはない静的はシステム構成情報である。
図5は本実施形態における障害時のサーバ移動先情報の一例を示す図である。
図5の例では、障害時のサーバ移動先情報30は、DBアクセスサーバを示すサーバ名(501)と、そのDBアクセスサーバで識別されるサーバに障害が発生した場合に、系切り替え先となるユニットのユニット名(502)より構成される。情報エントリ511は、障害発生時BES1はユニットunit1へ切り替わる、すなわちユニットunit1に配置されたBES1として処理を引き継ぎ、サービスを続行することを示す。同様に、情報エントリ512はBES2が障害時にユニットunit1へ切り替わることを、情報エントリ513はBES3が障害時にユニットunit3へ切り替わることをそれぞれ示している。本情報はシステム起動時にあらかじめDBMS管理者が指定することもありうるし、またシステムが自動的にシステム内部で生成することもありうる。その場合、あらかじめユーザによりサーバ切り替え先を決定するための指針(ポリシー)90が設定される。その指針(ポリシー)の例としては、
(1)あるユニット内に含まれる全てのDBアクセスサーバを全て別々のユニットに切り替えるように生成する
(2)複数のある特定ユニット間に均等にDBアクセスサーバが切り替わるように生成するなどが挙げられる。
障害時のサーバ移動先情報30は、DBMSが稼動する情報処理装置上のメモリに配置され容易にDBMSからアクセスされるよう実装されることが多い。またさらに本例では、BES1、BES2、BES3とも情報エントリが1つずつしか記載していないが、それぞれ複数エントリを有すること、すなわち切り替え先ユニットが複数存在することも可能であり、障害発生時のユニット稼動情報と、それら複数の切り替え先ユニットとしての優先度から切り替え先を決定すればよい。
図6は本実施形態のサーバ−ユニット構成情報の一例を示す図であり、上側の611から615まではユニットunit2の障害が発生する前の情報を、下側の621から625まではユニットunit2に障害が発生し系切り替えが行われた後の情報を示している。
図6の例では、サーバ−ユニット構成情報40は、DBアクセスサーバを示すサーバ名(601)と、そのDBアクセスサーバが構成上配置されるユニットのユニット名(602)より構成される。情報エントリ611および情報エントリ621、情報エントリ612および情報エントリ622、そして情報エントリ613および情報エントリ623に示すように、通常時ユニットunit2に配置され稼動していたBES1、BES2そしてBES3は、ユニットunit2障害発生に伴う系切り替えによって、BES1およびBES2はユニットunit1へ、BES3はユニットunit3へと構成が変更となっている。
図7および図8は、本実施形態の系監視・系切り替え制御機構および切り替え先のユニットでの、障害発生時の系切り替え処理の手順を示すフローチャートである。図7は系監視・系切り替え制御機構での、図8は切り替え先のユニットでの処理の手順をそれぞれ示すフローチャートである。
まず、系監視・系切り替え制御機構5では、ステップ701において他ユニットの障害発生を検知し、ステップ702において、障害時のサーバ移動先情報を取得する。そして取得した障害時のサーバ移動先情報を元に、サーバ移動先すなわち系切り先ユニットを決定する(ステップ703)。当該ユニットが切り替え先として決定された場合(ステップ704)、ステップ705に進み共用ディスクの切り替えを行う。さらにステップ706においてDBMSに対して障害発生サーバ(切り替え対象サーバ)を指定し、系切り替え連絡を行う。また、ステップ704において、当該ユニットが切り替え先として決定されたかった場合、そのままステップ707へ進み処理を終了する。
系監視・系切り替え制御機構5からステップ801において系切り替え連絡を受けたユニット(DBMS(2))は、ステップ802においてサーバ−ユニット構成情報を変更する。具体的には、指定された切り替え対象サーバの配置ユニットを当該ユニットに変更する。指定サーバが系切り替えにより当該ユニットに移動してくるからである。続いて、ステップ803において、当該ユニットに切り替え対象サーバを追加した旨を他の情報処理装置に配置されている他ユニットに対して通知する。そして、ステップ804において、切り替え対象のサーバの起動(開始)を行う。ステップ805において、切り替え対象サーバがアクセスを担当しているDB格納領域に対するDB回復処理および障害発生時に実行中だった処理の更新結果を取り消すトランザクション回復処理を行う。
図9は、本実施形態の障害発生時の系切り替え処理におけるサーバ移動先ユニット決定の処理手順を示すフローチャートである。
まず、ステップ901において障害時のサーバ移動先情報エントリをサーチし、障害対象サーバに関連する情報エントリを確定する。そして、ステップ902において、確定した情報エントリからサーバ移動先ユニットのユニット名を取得する。ここでステップ903において、取得したユニットが現在稼動中であり切り替え先として有効かどうかと判断する。取得したユニットが稼動中でない場合、ステップ901へ戻り別の切り替え先ユニットを探す。ここで取得したユニットが稼動中である場合、ステップ904に進み、取得したユニットをサーバ移動先に決定する。
図10は、さらに別な実施形態の障害発生時の系切り替え処理において、サーバ移動先ユニット決定の処理手順を示すフローチャートである。ここでは障害発生時に動的にサーバ移動先ユニットを決定する処理手順について示す。サーバ移動先を決定するための指針(ポリシー)90はあらかじめDBMSの管理者などにより指定され、指定された情報はDBMS内に保持されている。
まず、ステップ1001において、切り替え先を決定するための指針(ポリシー)を取得する。そして、ステップ1002において取得した指針(ポリシー)を判断し、その判断結果に基づき切り替え先を決定する。本例では3つの指針(ポリシー)について示している。
まず、ステップ1002においてポリシーが「負荷の軽いユニット」である場合、ステップ1011に進み、自ユニットの負荷情報を取得する。負荷情報の例としては、CPU利用率、トランザクション到着率、ディスクアクセス率等が挙げられる。さらに、ステップ1012において他稼動中ユニットの負荷情報も収集し、ステップ1013において、自ユニットと他ユニットの負荷状況を比較する。ステップ1013において自ユニットの負荷が他ユニットの負荷よりも軽かった場合、ステップ1003に進み自ユニットを切り替え先に決定する。ステップ1013において自ユニットの負荷が他ユニットに比べ重い場合、ステップ1004に進み、自ユニットを切り替え先としては決定しない。
2つ目のポリシーとして、ステップ1002においてポリシーが「リソースに空きのあるユニット」である場合、ステップ1021に進み、自ユニットのリソース(メモリやサーバに関連する情報を管理する制御ブロックなど)の空き状況を取得する。さらに、ステップ1022において他稼動中ユニット内のリソースの空き状況も取得し、ステップ1023において自ユニットと他ユニットのリソースの空き状況を比較する。ステップ1023において自ユニットのリソースが他ユニットのそれよりも多かった場合、ステップ1003に進み自ユニットを切り替え先に決定する。ステップ1013において自ユニットのリソースが他ユニットに比べ少なかった場合、ステップ1004に進み、自ユニットを切り替え先としては決定しない。
3つ目のポリシーとして、ステップ1002においてポリシーが「複数の稼動中ユニットへ均等に切り替える」である場合、ステップ1031に進み、他ユニットの稼動情報を取得する。取得した稼動中ユニットの数により自ユニットは切り替え先がどうかを判断し、特に切り替え先として不適切ではない場合、ステップ1003に進み自ユニットを切り替え先に決定する。他稼動中ユニットおよび切り替え対象となっているサーバの数等により自ユニットは切り明け先ではない場合には、ステップ1004に進み、自ユニットを切り替え先としては決定しない。
図11は、本実施形態の処理要求制御部での障害発生時切り替え処理後のユーザ問合せ処理の手順を示すフローチャートである。
まず、ステップ1101においてユーザ問合せを受け付け解析し、ステップ1102において、ユーザ問合せを実現するためにアクセスするDB格納領域を特定する。続いて、ステップ1103において、サーバ−DB格納領域担当情報をサーチし、特定したDB格納領域へのアクセスを担当しているサーバ(BES)を特定する(ステップ1104)。
そして、ステップ1105において、サーバ−ユニット構成情報をサーチし、特定したサーバ(BES)が稼動しているユニットを特定する(ステップ1106)。ここで特定したユニットの先に特定したサーバに対してDBアクセス要求を送信する(ステップ1107)。最終的に送信先からDBアクセスの結果を受け取り(ステップ1108)、ユーザ問合せ結果として返却する(ステップ1109)。
なお図7、図8、図9、図10および図11で示したフローチャートの処理は、図3で例として示したコンピュータシステムにおけるプログラムとして実行される。しかし、そのプログラムは図3の例の様にコンピュータシステムに物理的に直接接続される外部記憶装置に格納されるものと限定はしない。ハードディスク装置、フレキシブルディスク装置等のコンピュータで読み書きできる記憶媒体に格納することができる。また、ネットワークを介して図3のコンピュータシステムを構成する情報処理装置とは別の情報処理装置に接続される外部記憶装置に格納することもできる。
以上によれば、Shared Nothing(非共用型)アーキテクチャを用いたデータベース管理システムにおいて、障害の発生に備えて待機専用のリソース(マシン、DBMSインスタンス)を有することなく、障害発生時の系切り替え後においても、システム全体の処理性能劣化を最小限に抑えることができ、安定性能を維持することが可能となる。
本発明の概念図である。 本実施形態のデータベース処理システムの機能ブロックを示す図である。 本実施形態におけるコンピュータシステムのハードウエア構成の一例を示す図である。 本実施形態のサーバ−DB格納領域担当情報の一例を示す図である。 本実施形態における障害時のサーバ移動先情報の一例を示す図である。 本実施形態のサーバ−ユニット構成情報の一例を示す図である。 本実施形態の系監視・系切り替え制御機構での障害発生時の系切り替え処理の手順を示すフローチャートである。 本実施形態の切り替え先のユニットでの障害発生時の系切り替え処理の手順を示すフローチャートである。 本実施形態の障害発生時の系切り替え処理におけるサーバ移動先ユニット決定の処理手順を示すフローチャートである。 さらに別の実施形態における障害発生時の系切り替え処理におけるサーバ移動先ユニット決定の処理手順を示すフローチャートである。 本実施形態の処理要求制御部での障害発生時切り替え処理後のユーザ問合せ処理の手順を示すフローチャートである。
符号の説明
2…データベース管理システム、5…系監視・系切り替え制御機構、20…DBアクセスサーバ、30…障害時のサーバ移動先情報、40…サーバ−ユニット構成情報、50…サーバ−DB格納領域担当情報、60…データベース、90…系切り替え先決定指針、100…稼動情報。

Claims (5)

  1. データベース処理プログラムを有するデータベース処理装置を複数備え、複数の格納領域にデータベースを分割して格納し、該格納領域のそれぞれに割当てられたデータベース処理プログラムの実行によりデータベース処理を行なうデータベース管理システムにおけるデータベース管理方法において、
    前記データベース処理装置に障害が発生したことを前記障害が発生していないデータベース処理装置が有する検知手段が検知した場合、稼動中の前記データベース処理装置のうち系切替え先となるデータベース処理装置を決定するステップと、
    前記系切替え先となるデータベース処理装置にて前記障害が発生したデータベース処理装置に割当てられた前記格納領域を前記系切替え先となるデータベース処理装置で稼動するデータベース処理プログラムに割当てるステップと、
    前記系切替え先となるデータベース処理装置におけるデータベース処理プログラムの開始処理を行うステップとを有し、
    前記開始処理を行った前記データベース処理プログラムは、切り替え先データベース処理装置に稼動していた他のデータベース処理プログラムに関連付けられたDB格納領域として前記切り替え先データベース処理装置に備えられたデータベースバッファを利用することを特徴とすることを特徴とするデータベース処理方法。
  2. 前記系切替え先となるデータベース処理装置におけるデータベース処理プログラムの開始処理を行うステップは、
    前記障害が発生したデータベース処理装置に関連付けられている該分割されたデータベース格納領域に対する回復を行うステップと、
    前記データベース処理装置が、障害が発生したことを検知した際に実行中であった処理を回復するステップと、を有することを特徴とする請求項1記載のデータベース処理方法。
  3. 該記載の障害が発生したことを前記検知手段が検知した際に、該障害の影響を受けダウンした前記データベース処理装置の切替え先を決定するステップは、
    あらかじめユーザから与えられた指針を参照するステップと、
    前記参照結果が「負荷の軽いデータベース処理装置」の場合には、自データベース処理装置の負荷と他データベース処理装置の負荷とを比較し、自データベース処理装置の負荷の方が軽い場合に自データベース処理装置を切替え先に決定するステップと、
    前記参照結果が「リソースに空きのあるデータベース処理装置」の場合には、自データベース処理装置のメモリやメモリ上に配置される制御ブロック等であるリソースの空きと、他データベース処理装置のリソースの空きと、を比較し、自データベース処理装置のリソースの空きのほうが多い場合に自データベース処理装置を切替え先に決定するステップと、
    前記参照結果が「複数の稼動中データベース処理装置へ均等に切替える」の場合には、他データベース処理装置の稼動状況を取得し、稼動中データベース処理装置の数により自データベース処理装置を切替え先に決定するステップと、を含むことを特徴とする請求項1記載のデータベース処理方法。
  4. データベース処理プログラムを有するデータベース処理装置を複数備え、複数の格納領域にデータベースを分割して格納し、該格納領域のそれぞれに割当てられたデータベース処理プログラムの実行によりデータベース処理を行なうデータベース管理システムにおいて、
    前記データベース処理装置に障害が発生したことを前記障害が発生していないデータベース処理装置が有する検知手段が検知した場合、稼動中の前記データベース処理装置のうち系切替え先となるデータベース処理装置を決定する手段と、
    前記系切替え先となるデータベース処理装置にて前記障害が発生したデータベース処理装置に割当てられた前記格納領域を前記系切替え先となるデータベース処理装置で稼動するデータベース処理プログラムに割当てる手段と、
    前記系切替え先となるデータベース処理装置におけるデータベース処理プログラムの開始処理を行う手段とを備え、
    前記開始処理を行った前記データベース処理プログラムは、切り替え先データベース処理装置に稼動していた他のデータベース処理プログラムに関連付けられたDB格納領域として前記切り替え先データベース処理装置に備えられたデータベースバッファを利用することを特徴とすることを特徴とするデータベース処理システム。
  5. データベース処理プログラムを有するデータベース処理装置を複数備え、複数の格納領域にデータベースを分割して格納し、該格納領域のそれぞれに割当てられたデータベース処理プログラムの実行によりデータベース処理を行なうデータベース管理システムにおけるデータベース管理方法を実現するためのデータベース管理プログラムにおいて、
    前記データベース処理装置に障害が発生したことを前記障害が発生していないデータベース処理装置が有する検知手段が検知した場合、稼動中の前記データベース処理装置のうち系切替え先となるデータベース処理装置を決定するステップと、
    前記系切替え先となるデータベース処理装置にて前記障害が発生したデータベース処理装置に割当てられた前記格納領域を前記系切替え先となるデータベース処理装置で稼動するデータベース処理プログラムに割当てるステップと、
    前記系切替え先となるデータベース処理装置におけるデータベース処理プログラムの開始処理を行うステップと、
    前記開始処理を行った前記データベース処理プログラムは、切り替え先データベース処理装置に稼動していた他のデータベース処理プログラムに関連付けられたDB格納領域として前記切り替え先データベース処理装置に備えられたデータベースバッファを利用するステップと、を有することを特徴とするデータベース管理プログラム。
JP2004158628A 2004-05-28 2004-05-28 データベース処理方法およびシステム並びにその処理プログラム Active JP4572581B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004158628A JP4572581B2 (ja) 2004-05-28 2004-05-28 データベース処理方法およびシステム並びにその処理プログラム
US11/138,385 US7409588B2 (en) 2004-05-28 2005-05-27 Method and system for data processing with high availability
US12/216,269 US8201022B2 (en) 2004-05-28 2008-07-02 Method and system for data processing with high availability

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004158628A JP4572581B2 (ja) 2004-05-28 2004-05-28 データベース処理方法およびシステム並びにその処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010099385A Division JP5071518B2 (ja) 2010-04-23 2010-04-23 データベース処理方法、データベース処理システム及びデータベース管理プログラム

Publications (2)

Publication Number Publication Date
JP2005339300A JP2005339300A (ja) 2005-12-08
JP4572581B2 true JP4572581B2 (ja) 2010-11-04

Family

ID=35426648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004158628A Active JP4572581B2 (ja) 2004-05-28 2004-05-28 データベース処理方法およびシステム並びにその処理プログラム

Country Status (2)

Country Link
US (2) US7409588B2 (ja)
JP (1) JP4572581B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070011164A1 (en) * 2005-06-30 2007-01-11 Keisuke Matsubara Method of constructing database management system
US8326990B1 (en) * 2005-07-15 2012-12-04 Symantec Operating Corporation Automated optimal workload balancing during failover in share-nothing database systems
JP4920391B2 (ja) * 2006-01-06 2012-04-18 株式会社日立製作所 計算機システムの管理方法、管理サーバ、計算機システム及びプログラム
US8782075B2 (en) * 2007-05-08 2014-07-15 Paraccel Llc Query handling in databases with replicated data
US8201016B2 (en) * 2007-06-28 2012-06-12 Alcatel Lucent Heartbeat distribution that facilitates recovery in the event of a server failure during a user dialog
US8682853B2 (en) * 2008-05-16 2014-03-25 Paraccel Llc System and method for enhancing storage performance in analytical database applications
US8671187B1 (en) 2010-07-27 2014-03-11 Aerohive Networks, Inc. Client-independent network supervision application
US9948626B2 (en) 2013-03-15 2018-04-17 Aerohive Networks, Inc. Split authentication network systems and methods
US9690676B2 (en) * 2013-03-15 2017-06-27 Aerohive Networks, Inc. Assigning network device subnets to perform network activities using network device information
US9152782B2 (en) 2013-12-13 2015-10-06 Aerohive Networks, Inc. Systems and methods for user-based network onboarding
US9965363B2 (en) * 2013-12-14 2018-05-08 Netapp, Inc. Techniques for LIF placement in SAN storage cluster synchronous disaster recovery

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05314085A (ja) * 1992-05-11 1993-11-26 Toshiba Corp 複数計算機間の相互稼動待機方式
JPH0757010A (ja) * 1993-08-23 1995-03-03 Nippon Telegr & Teleph Corp <Ntt> 業務実行制御システムおよびその切替方法
JPH07141394A (ja) * 1993-11-16 1995-06-02 Hitachi Ltd データベース分割管理方法および並列データベースシステム
JPH07152701A (ja) * 1993-11-26 1995-06-16 Fujitsu Ltd 負荷分散方法
JPH07248949A (ja) * 1994-03-10 1995-09-26 Hitachi Ltd 入出力実行方法
JPH07334468A (ja) * 1994-06-07 1995-12-22 Toshiba Corp 負荷分散方式
JPH08278909A (ja) * 1995-04-07 1996-10-22 Nippon Telegr & Teleph Corp <Ntt> 高信頼化システムおよび方法
JPH1165912A (ja) * 1997-08-22 1999-03-09 Hitachi Ltd 並列処理データベースシステム
JPH11345219A (ja) * 1998-04-21 1999-12-14 Lucent Technol Inc アプリケ―ション実現方法及びアプリケ―ション実現装置
JP2000293489A (ja) * 1999-04-08 2000-10-20 Nec Corp データベースサーバシステム
JP2000348063A (ja) * 1993-04-28 2000-12-15 Hitachi Ltd データベース管理方法およびシステム
JP2002007365A (ja) * 2001-04-27 2002-01-11 Hitachi Ltd データベース分割管理方法および並列データベースシステム
JP2003131924A (ja) * 2001-10-19 2003-05-09 Fujitsu Ltd リモートアクセスプログラム、リモートアクセス要求処理プログラム、およびクライアントコンピュータ

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5408652A (en) * 1990-08-31 1995-04-18 Fujitsu Limited Method and apparatus for heterogenous database access by generating different access procedures for different database data structures
US5987432A (en) * 1994-06-29 1999-11-16 Reuters, Ltd. Fault-tolerant central ticker plant system for distributing financial market data
US5625811A (en) * 1994-10-31 1997-04-29 International Business Machines Corporation Method and system for database load balancing
WO2003003252A1 (en) 1998-02-12 2003-01-09 Oracle International Corporation Partitioning ownership of a database among different database servers to control access to the database
US20020129146A1 (en) * 2001-02-06 2002-09-12 Eyal Aronoff Highly available database clusters that move client connections between hosts
US7231391B2 (en) * 2001-02-06 2007-06-12 Quest Software, Inc. Loosely coupled database clusters with client connection fail-over
EP1368742A4 (en) * 2001-02-13 2010-09-01 Candera Inc STORAGE VIRTUALIZATION AND STORAGE MANAGEMENT FOR PROVIDING HIGHER STORAGE SERVICES
US7024414B2 (en) * 2001-08-06 2006-04-04 Sensage, Inc. Storage of row-column data
EP1320217B1 (en) * 2001-12-14 2004-10-13 Hewlett-Packard Company, A Delaware Corporation Method of installing monitoring agents, system and computer program for monitoring objects in an IT network
US6947957B1 (en) * 2002-06-20 2005-09-20 Unisys Corporation Proactive clustered database management

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05314085A (ja) * 1992-05-11 1993-11-26 Toshiba Corp 複数計算機間の相互稼動待機方式
JP2000348063A (ja) * 1993-04-28 2000-12-15 Hitachi Ltd データベース管理方法およびシステム
JPH0757010A (ja) * 1993-08-23 1995-03-03 Nippon Telegr & Teleph Corp <Ntt> 業務実行制御システムおよびその切替方法
JPH07141394A (ja) * 1993-11-16 1995-06-02 Hitachi Ltd データベース分割管理方法および並列データベースシステム
JPH07152701A (ja) * 1993-11-26 1995-06-16 Fujitsu Ltd 負荷分散方法
JPH07248949A (ja) * 1994-03-10 1995-09-26 Hitachi Ltd 入出力実行方法
JPH07334468A (ja) * 1994-06-07 1995-12-22 Toshiba Corp 負荷分散方式
JPH08278909A (ja) * 1995-04-07 1996-10-22 Nippon Telegr & Teleph Corp <Ntt> 高信頼化システムおよび方法
JPH1165912A (ja) * 1997-08-22 1999-03-09 Hitachi Ltd 並列処理データベースシステム
JPH11345219A (ja) * 1998-04-21 1999-12-14 Lucent Technol Inc アプリケ―ション実現方法及びアプリケ―ション実現装置
JP2000293489A (ja) * 1999-04-08 2000-10-20 Nec Corp データベースサーバシステム
JP2002007365A (ja) * 2001-04-27 2002-01-11 Hitachi Ltd データベース分割管理方法および並列データベースシステム
JP2003131924A (ja) * 2001-10-19 2003-05-09 Fujitsu Ltd リモートアクセスプログラム、リモートアクセス要求処理プログラム、およびクライアントコンピュータ

Also Published As

Publication number Publication date
US8201022B2 (en) 2012-06-12
US7409588B2 (en) 2008-08-05
US20080301161A1 (en) 2008-12-04
US20050267904A1 (en) 2005-12-01
JP2005339300A (ja) 2005-12-08

Similar Documents

Publication Publication Date Title
US8201022B2 (en) Method and system for data processing with high availability
US7185096B2 (en) System and method for cluster-sensitive sticky load balancing
US7676635B2 (en) Recoverable cache preload in clustered computer system based upon monitored preload state of cache
JP4675174B2 (ja) データベース処理方法、システム及びプログラム
JP4920248B2 (ja) サーバの障害回復方法及びデータベースシステム
US20070220323A1 (en) System and method for highly available data processing in cluster system
US10706021B2 (en) System and method for supporting persistence partition discovery in a distributed data grid
US20090276654A1 (en) Systems and methods for implementing fault tolerant data processing services
US20120159102A1 (en) Distributed storage system, distributed storage method, and program and storage node for distributed storage
US20090055444A1 (en) Method and System for High-Availability Database
JP2007172334A (ja) 並列型演算システムの冗長性を確保するための方法、システム、およびプログラム
JP2019008417A (ja) 情報処理装置、メモリ制御方法およびメモリ制御プログラム
US11604806B2 (en) System and method for highly available database service
US20120278817A1 (en) Event distribution pattern for use with a distributed data grid
JP6123626B2 (ja) 処理再開方法、処理再開プログラムおよび情報処理システム
EP3087483B1 (en) System and method for supporting asynchronous invocation in a distributed data grid
US20140059312A1 (en) Recording medium, computer, and information processing system
EP2645635B1 (en) Cluster monitor, method for monitoring a cluster, and computer-readable recording medium
US9148430B2 (en) Method of managing usage rights in a share group of servers
JP5071518B2 (ja) データベース処理方法、データベース処理システム及びデータベース管理プログラム
EP3389222B1 (en) A method and a host for managing events in a network that adapts event-driven programming framework
JP4375121B2 (ja) データベース管理システムにおける処理代行方法
US7558858B1 (en) High availability infrastructure with active-active designs
Limaye et al. Reliability-aware resource management for computational grid/cluster environments
JP4305328B2 (ja) コンピュータシステム及びそれを用いた系切り替え制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060306

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100423

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100720

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100802

R151 Written notification of patent or utility model registration

Ref document number: 4572581

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3