JP2003022259A - クライアントサーバ制御システム - Google Patents

クライアントサーバ制御システム

Info

Publication number
JP2003022259A
JP2003022259A JP2001205921A JP2001205921A JP2003022259A JP 2003022259 A JP2003022259 A JP 2003022259A JP 2001205921 A JP2001205921 A JP 2001205921A JP 2001205921 A JP2001205921 A JP 2001205921A JP 2003022259 A JP2003022259 A JP 2003022259A
Authority
JP
Japan
Prior art keywords
server
client
unit
active
standby
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001205921A
Other languages
English (en)
Inventor
Masao Ijiri
昌男 井尻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2001205921A priority Critical patent/JP2003022259A/ja
Publication of JP2003022259A publication Critical patent/JP2003022259A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 クライアントからのリクエストに対するサー
バ側の応答性を高めるとともに、運用系サーバに障害が
発生した場合の待機系サーバへの引き継ぎが迅速かつ円
滑に行われるクライアントサーバ制御システムを提供す
る。 【解決手段】 クライアント2には各サーバ11,12
が運用系か待機系かを識別するための運転モード情報を
管理する運転モード管理部20と、各サーバ11,12
の障害発生の有無を検知する構成制御管理部21と、運
転モード管理部20による運転モード情報および構成制
御管理部21による障害検知情報に基づいて接続すべき
サーバに接続するサーバ接続部22とが設けられる一
方、各サーバ11,12には、当該サーバ11,12が
運用系か待機系かを識別するための運転モード情報を管
理する運転モード管理部110,120と、自己を含む
各サーバ11,12の障害発生の有無を検知するととも
に自己の障害発生時には他のサーバおよびクライアント
2に障害発生を通知する構成制御管理部111,121
とが設けられている。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、クライアントサー
バ制御システムに係り、特には、クライアント側からの
リクエストに対するサーバの応答性を高めるとともに、
障害発生時のサーバの代替制御を迅速かつ円滑に行える
ようにしたクライアントサーバ制御システムに関する。
【0002】
【従来の技術】従来のクライアントサーバ制御システム
には、障害発生に効率的に対処できるようにするため
に、リクエストを発信する各クライアントに対して複数
のサーバを設け、各サーバが同一の共有ディスクに格納
されているデータベースに対してアクセスできるように
した構成のものがある。
【0003】たとえば、特開平8−212095号公報
に開示されているクライアントサーバ制御システムは、
図17に示すように、リクエストを発信する多数のクラ
イアント103と、各クライアント103からのリクエ
ストに応じた処理を実行運用する運用系サーバ101
と、この運用系サーバ101の処理を代替する待機系サ
ーバ102とを有し、クライアント103および各サー
バ101,102が通信回線としてのLAN104を介
して互いに接続されている。さらに、各サーバ101,
102に対しては、共有ディスク106が配置されてい
る。
【0004】運用系と待機系の各サーバ101,102
は、各クライアント103との間で通信を行う通信部1
07,110、各クライアント103からのリクエスト
に応じて共有ディスク106に対するアクセスを行うデ
ィスク制御部109,112、ディスク制御部101,
112へのリクエストの配分、ディスク制御部109,
112および通信部107,110における障害発生の
監視、待機系サーバ102への障害発生通知等の処理を
行うプロセス管理部108,111を備えている。
【0005】そして、各プロセス管理部108,111
には、ディスク制御部109,112による共有ディス
ク106へのアクセスが可能なら『正常状態』、アクセ
ス不可能なら『障害発生』を示す情報を登録する状態管
理テーブル(図示せず)が設けられている。
【0006】次に、上記構成のクライアントサーバ制御
システムにおける各部の動作について説明する。クライ
アント103がLAN104を介して運用系サーバ10
1に対してリクエストの送信を行うと、そのリクエスト
が運用系サーバ101の通信部107に受信される。そ
して、通信部107は、この受信したリクエストをプロ
セス管理部108に渡すと、プロセス管理部108は、
状態管理テーブルの登録内容を参照する。
【0007】プロセス管理部108は、状態管理テーブ
ルの登録内容が『正常状態』なら、ディスク制御部10
9が共有ディスク106へのアクセスが可能であると判
断してディスク制御部109に対してそのリクエストを
配分する。これに対して、プロセス管理部108は、状
態管理テーブルの登録内容が『障害発生』なら、ディス
ク制御部109が共有ディスク160へのアクセスが不
可能であると判断して、そのリクエストを専用通信線1
05等を介して待機系サーバ102のプロセス管理部1
11に配分する。
【0008】運用系サーバ101のディスク制御部10
9がリクエストを受けた場合には、そのリクエストに応
じて共有ディスク上のファイルに対して読み書き等を行
うと共に、自己の故障発生に備えた引き継ぎ情報を同時
に共有ディスク106に書き込む。
【0009】また、プロセス管理部108は、運用系サ
ーバ101内の各処理部107,109の状態を監視し
ており、これらに何らかの障害が発生した場合には、状
態管理テーブルの状態を『正常状態』から『障害発生』
に変更し、運用系サーバ101上で記録されたファイル
情報、通信情報、未処理のリクエスト等を途中処理情報
として待機系サーバ102に送信する。
【0010】待機系サーバ102のプロセス管理部11
1は、運用系サーバ101から上記のファイル情報、通
信情報、未処理のリクエスト等の途中処理情報を受信す
ると、これらの途中処理情報を各部110,111,1
12にそれぞれ分配する。
【0011】これにより、たとえば、運用系サーバ10
1の通信部107に障害が発生している場合には、その
通信部107を停止させた後、待機系サーバ102は、
共有ディスク106の引き継ぎ情報を参照して、通信部
110で運用系サーバ101の論理アドレスが使用でき
るようにし、さらに、LAN104に接続されている全
てのクライアント103に対して、変更されたアドレス
情報を送信する。
【0012】
【発明が解決しようとする課題】このような従来のクラ
イアントサーバ制御システムにおいては、次に指摘する
ような問題が残されており、未だ改善の余地がある。 (1) 従来のものでは、クライアント103には、運
用系サーバ101の障害発生を検知するための手段は何
ら設けられていない。そのため、運用系サーバ101の
プロセス管理部108によって、たとえばディスク制御
部109の状態が『障害発生』であると検知された場合
でも、クライアント103ではそれが分からないため、
クライアント103からのリクエストは、必ず運用系サ
ーバ101に一旦送られ、その後、プロセス管理部10
8によって待機系サーバ102に転送される。このた
め、運用系サーバ101と待機系サーバ102との間で
不必要な処理や通信が行われることになり、その結果、
各サーバ101,102やLAN104に余分な負荷を
与えるばかりか、クライアント103からのリクエスト
に対する応答性能も悪くなる。
【0013】(2) また、運用系サーバ101のディ
スク制御部109は、共有ディスク106に対してデー
タの読み書きとは別に、自己の障害発生の場合に備えた
引き継ぎ情報を共有ディスク106に保存しなければな
らない。そのため、運用系サーバ102に余分な負荷を
与え、しかも、共有ディスク106には余分な記憶容量
が必要となる。
【0014】(3) さらに、運用系サーバ101に障
害が発生した場合には、運用系サーバ101上で記録さ
れたファイル情報、通信情報、未処理のリクエスト等の
途中処理情報を待機系サーバ102に送信する必要があ
り、そのような途中処理情報を送ることができないよう
な障害(たとえば、オペレーティングシステムのハング
等)が発生した場合には、運用系サーバ101が処理途
中で中断した情報は、待機系サーバ102側で引き継ぐ
ことができなくなる。
【0015】本発明は、上記のような各問題点を解決す
るためになされたものであって、クライアントからのリ
クエストに対するサーバ側の応答性を高めるとともに、
運用系サーバに障害が発生した場合の運用系サーバへの
引き継ぎが迅速かつ円滑に行われるようにすることを第
1の課題とする。さらには、運用系サーバの障害発生だ
けでなく、通信回線や共有ディスク等に障害が発生した
場合や、データバックアップ時にも、クライアントから
のリクエストに応じた処理を円滑に行えるようにするこ
とを第2の課題とする。
【0016】
【課題を解決するための手段】本発明は、上記の課題を
解決するために、リクエストを発信するクライアント
と、このクライアントからのリクエストに応じた処理を
実行運用する運用系サーバと、この運用系サーバの処理
を代替する待機系サーバとを有し、前記クライアントお
よび各サーバが通信回線を介して互いに接続され、か
つ、前記各サーバには、同一の共有ディスクに対してア
クセスを行うRDBMS部が設けられているクライアン
トサーバ制御システムにおいて、次の構成を採用してい
る。
【0017】すなわち、請求項1記載に係る発明では、
前記クライアントには、各サーバが運用系か待機系かを
識別するための運転モード情報を管理する運転モード管
理部と、各サーバの障害発生の有無を検知する構成制御
管理部と、前記運転モード管理部による運転モード情報
および前記構成制御管理部による障害検知情報に基づい
て接続すべきサーバを決定して当該サーバに接続するサ
ーバ接続部とが設けられる一方、前記各サーバには、当
該サーバが運用系か待機系かを識別するための運転モー
ド情報を管理する運転モード管理部と、自己を含む各サ
ーバの障害発生の有無を検知するとともに自己の障害発
生時には他のサーバおよび前記クライアントに障害発生
を通知する構成制御管理部とが設けられていることを特
徴としている。
【0018】請求項2記載に係る発明では、請求項1記
載の発明の構成において、前記クライアントと各サーバ
とを接続する前記通信回線は複数設けられる一方、前記
クライアントおよび各サーバには、前記各通信回線の状
態を監視し、通信回線が故障した場合には最適の通信回
線を決定する通信管理部が設けられていることを特徴と
している。
【0019】請求項3記載に係る発明では、請求項1ま
たは請求項2に記載の発明の構成において、前記運転モ
ード管理部は、各サーバが運用系か待機系かを識別する
情報に加えてその他の運転モードの情報も同時に管理す
るものである一方、前記クライアントのサーバ接続部
は、その運転モード管理部で管理されている前記運転モ
ード情報に基づいて、リクエストされた運転モードに適
合したサーバを決定するものであることを特徴としてい
る。
【0020】請求項4記載に係る発明では、請求項1な
いし請求項3のいずれか1項に記載の発明の構成におい
て、前記実行系と待機系の各サーバには、データの高速
アクセスが可能な高速ファイルシステムと、この高速フ
ァイルシステムに対するデータの書き込み制御を行う二
重書き管理部とが設けられる一方、前記クライアントに
は、高速書き込みリクエストに応じて、前記共有ディス
クに書き込まれるべきデータを前記高速ファイルシステ
ムに格納するのに適合したデータ構造へデータ変換する
クライアント側DB変換部が設けられていることを特徴
としている。
【0021】請求項5記載に係る発明では、請求項4記
載の発明の構成において、前記実行系と待機系の各サー
バには、前記高速ファイルシステムに格納されたデータ
を前記共有ディスクに保存すべきデータ構造に変換して
前記RDBMS部に引き渡すサーバ側DB変換部が設け
られていることを特徴としている。
【0022】請求項6記載に係る発明では、請求項5記
載の発明の構成において、前記待機系サーバは、前記運
用系サーバによる共有ディスクへのデータ格納が完了す
るまでは、共有ディスクに対するデータ書き込み要求を
一定時間保持するものであることを特徴としている。
【0023】請求項7記載に係る発明では、請求項5ま
たは請求項6に記載の発明の構成において、前記高速フ
ァイルシステムから前記共有ディスクへ書き込み転送す
るデータは、レコード単位で行うものであることを特徴
としている。
【0024】請求項8記載に係る発明では、請求項5ま
たは請求項6に記載の発明の構成において、前記高速フ
ァイルシステムから前記共有ディスクへ書き込み転送す
るデータは、テーブル単位で行うものであることを特徴
としている。
【0025】請求項9記載に係る発明では、請求項4な
いし請求項8のいずれか1項に記載の構成において、前
記高速ファイルシステムは、不揮発性の記憶媒体で構成
されていることを特徴としている。
【0026】請求項10記載に係る発明では、請求項5
ないし請求項9のいずれか1項に記載の発明の構成にお
いて、前記待機系サーバは、前記運用系サーバのRDB
MS部の故障が回復するまでは、共有ディスクに対する
データ書き込み要求を保持するものであることを特徴と
している。
【0027】請求項11記載に係る発明では、請求項5
ないし請求項9のいずれか1項に記載の発明の構成にお
いて、前記待機系サーバは、前記共有ディスクの故障が
回復するまでは、共有ディスクに対するデータ書き込み
要求を保持するものであることを特徴としている。
【0028】請求項12記載に係る発明では、請求項5
ないし請求項9のいずれか1項に記載の発明の構成にお
いて、前記待機系サーバは、運用系サーバ部によるバッ
クアップ処理が終了するまでは、共有ディスクに対する
データ書き込み要求を保持するものであることを特徴と
している。
【0029】
【発明の実施の形態】実施の形態1.図1は、本発明の
実施の形態1に係るクライアントサーバ制御システムの
全体構成を示すブロック図である。この実施の形態1の
クライアントサーバ制御システムは、リクエストを発信
する多数のクライアント2と、各クライアント2からの
リクエストに応じた処理を実行運用する運用系サーバ1
1と、この運用系サーバ11の処理を代替する待機系サ
ーバ12とを有し、各クライアント2および各サーバ1
1,12が通信回線としてのLAN4を介して互いに接
続されている。さらに、各サーバ11,12に対して
は、共有ディスク3が設けられている。
【0030】各クライアント2には、各サーバ11,1
2が運用系か待機系かを認識するための情報や各サーバ
11,12のその他の運転モード情報を管理する運転モ
ード管理部20、各サーバ11,12の障害発生の有無
を検知する構成制御管理部21、運転モード管理部20
による運転モード情報および構成制御管理部21による
障害検知情報に基づいて接続すべきサーバ11または1
2を決定して当該サーバに接続するサーバ接続部22、
および予め設定されたアプリケーションソフトを実行し
てサーバ接続部22で接続されたサーバ11または12
に対してリクエストを要求するアプリケーション実行部
23が設けられている。
【0031】一方、各サーバ11,12には、当該サー
バが運用系か待機系かを識別するための情報やその他の
運転モード情報を管理する運転モード情報を管理する運
転モード管理部110,120、自己を含む各サーバ1
1,12の障害発生の有無を検知するとともに自己の障
害発生時には他のサーバおよびクライアント2に対して
障害発生を通知する構成制御管理部111,121、共
有ディスク3に格納されているデータベースの維持、運
用を行うための市販のRDBMS(リレーショナルデー
タベース管理システム)が搭載されたRDBMS部11
2,122、およびRDBMS部112,121が共有
ディスク3にアクセスする場合の各種制御を行うDB制
御部113,123が設けられている。なお、市販のR
DBMSとしては、たとえば、マイクロソフト社のSQ
Lや、オラクル社のOracle等がある。
【0032】次に、上記構成のクライアントサーバ制御
システムの動作について説明する。まず、運用系サーバ
11が正常な運用状態において処理を実行している場合
について説明する。ある一つのクライアント2におい
て、そのアプリケーション実行部23は、サーバ接続部
22に対してDBアクセスリクエストを発行する。これ
に応じて、サーバ接続部22は、運転モード管理部20
に対して運用系のサーバがどれであるかを問い合わせ、
運転モード管理部20は、運用系サーバ11のアドレス
をサーバ接続部22に返す。サーバ接続部22は、アプ
リケーション実行部23からのDBアクセスリクエスト
を運転モード管理部20から返されたアドレスに対応し
た運用系サーバ11に対してLAN4を使って送信す
る。
【0033】運用系サーバ11の構成制御管理部111
は、クライアント2からのDBアクセスリクエストが自
己のアドレスに一致していると、そのリクエストをRD
BMS部112に送信する。これに応じてRDBMS部
112は、共有ディスク3内にあるデータベース31に
アクセスを行い、その結果をLAN4を介してクライア
ント2に送信し、サーバ接続部22を介してアプリケー
ション実行部23に返す。
【0034】ここで、待機系サーバ12は、運用系サー
バ11に対する専属のものではなく、実行系サーバ11
が正常に実行運用されている場合には、待機系サーバ1
2独自のサーバ処理を行っている。また、運用系サーバ
11と待機系サーバ12の各構成制御管理部111、1
21は、相互にサーバの状態を監視している。たとえ
ば、待機系サーバ12に着目すると、その構成制御管理
部121は、自己の障害発生の有無を監視するととも
に、運用系サーバ11に障害が発生していないか否かも
同時に監視している。
【0035】次に、運用系サーバ11に障害が発生した
場合の動作について説明する。まず、運用系サーバ11
がダウンして全く動作できないような完全障害が発生し
た場合の処理について説明する。この場合には、実行系
サーバ11の構成制御管理部111からは、待機系サー
バ12およびクライアント2に対して一定時間内に監視
情報が通知されなくなるので、これに応じて待機系サー
バ12およびクライアント2の各構成制御管理部12
1,21は、実行系サーバ11において完全障害が発生
したものと判断する。
【0036】これに応じて、クライアント2は、構成制
御管理部21が運転モード管理部20に対して、今まで
の待機系サーバ12を運用系サーバに切り替わることを
知らせるので、運転モード管理部20は、待機系サーバ
12が運用系となるように運転モードを切り替える。し
たがって、これ以降は、クライアント2のサーバ接続部
22は、アプリケーション実行部23からのDBアクセ
スリクエストに対して新たに運用系となったサーバ12
を選択して接続するようになる。
【0037】また、待機系サーバ12の構成制御管理部
121も、実行系サーバ11から一定時間内に監視情報
が通知されなくなると、自己のサーバを実行系に切り替
える。すなわち、待機系サーバ12は、運用系サーバ1
1に障害が発生したと判断すると、これに応じて運転モ
ード管理部120は、自己が待機系から運用系となるよ
うに運転モードを切り替える。また、構成制御管理部1
21は、DB制御部123に対して共有ディスク3のマ
ウント処理とRDBMS部122の起動を命ずる。これ
に応じて、DB制御部123は、共有ディスク3のマウ
ントを行うとともに、RDBMS部122を起動する。
これにより、RDBMS部122は、共有ディスク3内
のデータベース31と接続する。
【0038】次に、運用系サーバ11にたとえばソフト
ウェア障害や周辺機器(DB制御部113など)のハー
ドウェア障害など、構成制御管理部111が障害発生を
検知できるような障害が発生した場合の動作について説
明する。
【0039】運用系サーバ11の構成制御管理部111
が自己の障害を検知すると、DB制御部113に対して
RDBMS部112の終了処理と共有ディスク3のアマ
ウントとを命じる。これに応じて、DB制御部113
は、RDBMS部112の処理を終了させるとともに、
共有ディスク3のアンマウント処理を行う。さらに、待
機系サーバ12およびクライアント2の各構成制御管理
部121、21に対して、運用系サーバ11に障害が発
生した旨を通知して、運用系サーバ11を停止させる。
【0040】一方、待機系サーバ12の構成制御管理部
121は、運用系サーバ11からの障害発生の通知を受
け取ると、この障害検知に応じて運転モード管理部12
0の運転モードを待機系から運用系に切り替えるように
指示する。また、DB制御部123に対して共有ディス
ク3のマウント処理とRDBMS部122の起動を命ず
る。これに応じて、DB制御部123は、共有ディスク
3のマウントを行うとともに、RDBMS部122を起
動する。これにより、RDBMS部122は、共有ディ
スク3内のDB31と接続する。さらに、クライアント
の構成制御管理部21に対して待機系サーバ12が運用
系になったことを通知する。
【0041】また、クライアント2は、運用系サーバ1
1からの障害発生の通知を受け取ると、構成制御管理部
21が運転モード管理部20に対して、今までの待機系
サーバ12が運用系サーバに切り替わったことを知らせ
るので、運転モード管理部20は、待機系サーバ12が
運用系となるように運転モードを切り替える。したがっ
て、これ以降は、クライアント2のサーバ接続部22
は、アプリケーション実行部23からリクエストが出さ
れた場合に、新たに運用系となったサーバ12に対して
接続するようになる。
【0042】なお、クライアント2において、アプリケ
ーション実行部23からのDBアクセスリクエスト発行
時において、運用系サーバ11に障害が既に発生してい
るが、未だクライアント側の運転モード管理部20が待
機系から運用系に切り替わっていない場合が起こり得
る。その場合には、クライアント2の構成制御管理部2
1は、待機系サーバ12が運用系として確立するまでの
間、一定時間にわたって時間待ちをする。これによっ
て、クライアント2からのリクエストに対する処理の抜
けを防止することができる。このため、クライアント2
側のアプリケーション実行部23は、障害発生時の運用
系サーバ11から待機系サーバ12への系の切り替えつ
いて全く意識する必要がなくなる。
【0043】また、運用系サーバ11においては、極め
て軽微な故障、あるいはバージョンアップなどのために
一時的に待機系サーバ12に系を切り替えたいような場
合が生じる。そのようなときには、運用系サーバ11の
構成制御管理部111から待機系サーバ12およびクラ
イアント2に対して系切り替え要求を出すようにする。
このような系切り替え要求に対して、待機系サーバ12
とクライアント2の各構成制御管理部121,21は、
運用系サーバ11の構成制御管理部111から障害発生
の通知を受けた場合と同様な処理を行うことにより、系
を切り替えることができる。
【0044】以上のように、この実施の形態1では、サ
ーバ11,12およびクライアント2の各構成制御管理
部111,121,21が互いの状態を常時監視し、障
害発生時には、クライアント2のサーバ接続部22がそ
の障害検知に応じて、新たに運用系となるサーバ12を
選択する一方、新たに運用系となるサーバ12のDB制
御部123がRDBMS部122の起動制御を行うの
で、クライアント2のアプリケーション実行部23から
のDBアクセスリクエストは最短の経路でサーバ12に
受け付けられることになり、クライアント2からのリク
エストの応答性が高まる。
【0045】しかも、運用系サーバ11は、従来のよう
に故障発生時に備えて引き継ぎ情報を共有ディスク3に
保管しておく必要がなく、また、障害発生時に運用系サ
ーバ11で記録されたファイル情報や通信情報等の途中
処理情報を待機系サーバ12側に転送する必要もないの
で、運用系サーバ11で未処理のデータも待機系サーバ
12に迅速かつ円滑に引き継いで処理することが可能に
なる。
【0046】実施の形態2.図2は、本発明の実施の形
態2に係るクライアントサーバ制御システムの全体構成
を示すブロック図であり、図1に示した実施の形態1の
構成と対応する部分には同一の符号を付す。
【0047】この実施の形態2のクライアントサーバ制
御システムは、クライアント2、運用系サーバ11、お
よび待機系サーバ12を互いに接続する通信回線として
複数(ここでは2ライン分)のLAN41,42が設け
られている。また、クライアント2、運用系サーバ1
1、および待機系サーバ12に対しては、それぞれ各L
AN41,42の状態を監視し、LAN41,42が故
障した場合には最適のLANを決定する通信管理部とし
てのLAN監視部24,114,124,が設けられて
いる。さらに、2つのLAN41,42の双方に障害が
発生した場合に、運用系と待機系のサーバ11,12間
同士で障害発生が通知できるように両者11,12を結
ぶ別の専用回線43が設けられている。その他の構成
は、図1に示した実施の形態1のものと同じであるか
ら、ここでは詳しい説明は省略する。
【0048】次に、上記構成のクライアントサーバ制御
システムにおける、主としてLAN監視部114,12
4,24の動作について説明する。この実施の形態2の
クライアントサーバ制御システムでは、クライアント2
および各サーバ11,12に設けられているそれぞれの
LAN監視部24,114,124が各LANA41、
LANB42の状態が正常か否かを監視している。
【0049】クライアント2のアプリケーション実行部
23は、サーバ接続部22に対してDBアクセスリクエ
ストを発行する。これに応じてサーバ接続部22は、運
転モード管理部20に対して運用系がどかれかを問い合
わせて、運用系サーバ11を特定する。また、サーバ接
続部22は、LAN監視部24から各LAN41,42
の状態の情報を取得する。
【0050】ここで、一方のLAN41は正常だが、他
方のLAN42が故障しているものとすると、LAN監
視部24は正常なLAN41を検出する。正常なLAN
41がある場合は、運転モード管理部20はそのLAN
A41を経由して送信すべき運用系サーバ11のアドレ
スをサーバ接続部22に返す。サーバ接続部22は、ア
プリケーション実行部23からのDBアクセスリクエス
トを運転モード管理部20から返されたアドレスに対し
て、正常なLANA41を使って運用系サーバ11のR
DBMS部112に送信する。
【0051】なお、LAN監視部24で監視されている
2つのLAN41,42の双方に異常が生じた場合、ク
ライアント2の構成制御管理部21は、予め設定された
所定時間の間、各サーバ11,12からの通知を待つ。
この状態のときに運用系サーバ11に障害が生じた場
合、運用系サーバ11のLAN監視部114は、いずれ
のLAN41,42を経由してもクライアント2あるい
は待機系サーバ12への通信ができないと判断すると、
その旨を構成制御管理部111に通知する。構成制御管
理部111はこの通知を受け取ると、LAN41、42
とは別の専用回線43を経由して待機系サーバ12の構
成制御管理部121に障害発生を通知する。これに応じ
て、待機系サーバ12は、運転モード管理部120が運
転モードを待機系から運用系に切り替えるとともに、待
機系から運用系に切り替わる旨をクライアント2に通知
する。その結果、クライアント2の構成制御管理部21
は、新たに運用系となったサーバ12から各LAN4
1,42の状態をLAN監視部24を経由して取得す
る。
【0052】その後、LAN41,42のいずれか一方
の故障が回復された結果、クライアント2でて回復した
正常なLANがLAN監視部24によって見つかれば、
クライアント2からはそのLANたとえば41を経由し
て新たに運用系となったサーバ12に対してDBアクセ
スリクエストを送信する。
【0053】以上のように、この実施の形態2では、ク
ライアント2、運用系サーバ11、および待機系サーバ
12のそれぞれに各LAN41,42の状態を監視し、
LAN41,42が故障した場合には最適のLANを決
定するLAN監視部114,124,24を設けている
ので、実施の形態1の作用効果に加えて、常に最適なL
ANを選択して接続することができ、しかも、クライア
ント2側のアプリケーション実行部23は、二重化され
たLANを意識することなく、各サーバ11,12に対
してアクセスできるようになる。
【0054】なお、この実施の形態2では二重化された
通信回線として、バス型のLANについて説明したが、
これに限らず、多重化されたLANやリング型やスター
型の他のトポロジーのネットワークに対しても、また、
LANのみならずWAN等の通信回線を使用する場合に
も同様に適用することが可能である。
【0055】実施の形態3.前述の各実施の形態1,2
では、システムとして運用/待機の2つのモードをもつ
場合について説明したが、クライアント2も含めて運用
/待機以外の運転モード(たとえば、試験やシミュレー
ションを行うための試験モードや訓練モードなど)が必
要となるシステムもある。したがって、この実施の形態
3では、このような各種の運用モードをもつ場合に対応
できるようにしたものである。
【0056】この実施の形態3のクライアントサーバ制
御システムの全体構成は、図1のものと基本的に同じで
あるが、図1と異なる点は、この実施の形態3では、ク
ライアント2、運用系および待機系の各サーバ11,1
2の運転モード管理部20,110,120には、運用
/待機のモードの外に、試験モードや訓練モードなどの
他の運転モードを規定する情報が予め登録されている。
また、共有ディスク3には、図3に示すように、各々の
運転モードに応じた複数のデータベース31,32、
…,3Nが格納されていることである。
【0057】図1および図3において、クライアント2
のアプリケーション実行部23は、DB接続部22に対
してDBアクセスリクエストを発行する。サーバ接続部
22は、接続すべきサーバのアドレスを運転モード管理
部20に問い合わせる。運転モード管理部20は、自己
の運転モードと一致するモードで動作するサーバ(ここ
ではたとえば待機系サーバ12とする)を検索する。運
転モード管理部20は、サーバ接続部22に自己の運転
モードに一致するサーバ12のアドレスを返すので、サ
ーバ接続部22は、DBアクセスリクエストをそのアド
レスに一致する待機系サーバ12に向けて送信する。
【0058】待機系サーバ12の構成制御管理部121
は、サーバ立ち上げの際に運転モード管理部120によ
って自分が動作すべき運転モードを取得し、それをDB
制御部123に通知する。DB制御部123は、共有デ
ィスク3をマウントし、指定された運転モードに従って
RDBMS部122に対して、共有ディスク2のデータ
ベースたとえばDB3Nに接続するように指示する。
【0059】以上のように、この実施の形態3では、運
用系/待機系のモードだけでなく他の運転モード(試験
モードや訓練モードなど)においてもRDBMS部11
2,122を起動することができ、他の運転モードを必
要とするクライアント2が共有ディスク3のデータベー
ス31,32、…,3Nに対してアクセスできるように
なる。したがって、サーバ11,12やRDBMS部1
12,122を運転モード毎に予め用意しておく必要が
なくこれらを共有化できるため、資源を有効に活用する
ことができる。
【0060】実施の形態4.図4は、本発明の実施の形
態4に係るクライアントサーバ制御システムの全体構成
を示すブロック図であり、図2に示した実施の形態2の
構成と対応する部分には同一の符号を付す。
【0061】クライアントサーバ制御システムでは、ク
ライアント2のアプリケーション実行部23から一時に
多量のデータが生成され、これをリアルタイムでサーバ
11,12側で保存することが必要となる場合がある。
この実施の形態4のクライアントサーバ制御システムで
は、このようなリアルタイム性の要求に応えることがで
きるように構成したものである。
【0062】すなわち、この実施の形態4のクライアン
トサーバ制御システムでは、クライアント2側に、高速
書き込みリクエストに応じて本来は共有ディスク3に書
き込まれるべきRDB(リレーショナルデータベース)
のデータを後述の高速ファイルシステム115,125
に格納するのに適合したデータ構造へデータ変換するク
ライアント側DB変換部26と、データ構造の変換ルー
ルを定義したクライアント側DB変換テーブル27と、
アプリケーション実行部23からのリクエストに応じて
データを共有ディスク3あるいは高速ファイルシステム
116,126のいずれに格納するのかを選択するDB
切替部25とが設けられている。
【0063】一方、実行系と待機系の各サーバ11,1
2には、データの高速アクセスが可能な高速ファイルシ
ステム116,126と、これらの高速ファイルシステ
ム116,126に対するデータの書き込み制御を行う
二重書き管理部115,125とが設けられている。上
記の各高速ファイルシステム116,126は、この実
施の形態4では、高速アクセスが可能なDRAM等の半
導体記憶装置で構成されている。
【0064】ここで、運用系サーバ11の二重書き管理
部115は、クライアント2からの高速書き込みリクエ
ストを受信すると、これに応じて自己の高速ファイルシ
ステム116にデータを書き込むとともに、このリクエ
ストを待機系サーバ12の二重書き管理部125に転送
することで、待機系サーバ12側の高速ファイルシステ
ム126にもクライアント2から送られる同じデータが
重複して格納されるようになっている。その他の構成
は、図2に示した実施の形態2の場合と同様であるか
ら、ここでは詳しい説明は省略する。
【0065】クライアント2のアプリケーション実行部
23は、サーバ接続部22に対してDBアクセスリクエ
ストを発行する。サーバ接続部22は、アプリケーショ
ン実行部23から要求されたDBアクセスリクエストが
共有ディスク2への格納対象となるRDBのデータなの
か、高速ファイルシステム116,126への格納対象
となるデータなのかを予め設定された定義ファイルを元
に判断する。アクセス対象がRDBのデータの場合は、
実施の形態2の場合と同様に、運用系サーバ11と適切
なLANたとえば41とを決定して運用系サーバ11の
RDBM部112にリクエストを送信する。
【0066】これに対して、リクエスト対象が高速ファ
イルシステム116に対するデータの場合には、クライ
アント2では、データ構造の変換ルールを定義したクラ
イアント側DB変換テーブル27を参照して、クライア
ント側DB変換部26がアクセスリクエストを高速ファ
イルシステム116,126のデータ構造に変換した上
で、適切なLANたとえば41とを決定して運用系サー
バ11の二重書き管理部115にリクエストを送信す
る。
【0067】クライアント2からリクエストを受け付け
た二重書き管理部116は、高速ファイルシステム11
5に対してアクセスを行うとともに、クライアント2に
対して応答データを返信する。特に、クライアント2か
ら高速書き込みリクエストが出されている場合には、待
機系サーバ12の二重書き管理部125にもリクエスト
を送信し、それを受け取った二重書き管理部125は、
高速ファイルシステム126に対してアクセスを行う。
したがって、運用系サーバ11と待機系サーバ12の双
方の高速ファイルシステム116,126に対して同じ
内容のデータが重複して書き込まれる。
【0068】これにより、クライアント2のアプリケー
ション実行部23から多量のデータが生成される場合で
も、これをリアルタイムで運用系サーバ11の高速ファ
イルシステム116に格納できるので、クライアント2
側からのリアルタイム性の要求に応えることができる。
しかも、運用系と待機系の各サーバ11,12の高速フ
ァイルシステム116,126の双方に同じデータが重
複して格納されるため、運用系サーバ116に障害が生
じた場合には、待機系サーバ12の高速ファイルシステ
ム126に格納されている情報に基づいてクライアント
2からのリクエストに対応できることになる。
【0069】以上のように、この実施の形態4では、各
サーバ11,12のRDBMS部112または122に
よって共有ディスク3にデータを保存するようなシーケ
ンスではクイアント2のアプリケーション実行部23の
リアルタイム性を損ねるような場合には、各高速ファイ
ルシステム116または126にデータを高速で格納で
きるため、リアルタイム性の要求に応えることが可能に
なる。しかも、クライアント2側では、アプリケーショ
ンを変更することなく定義ファイルを変更するだけで対
処できるため、クライアント2側の負荷も少なくて済
む。
【0070】実施の形態5.図5は、本発明の実施の形
態5に係るクライアントサーバ制御システムの全体構成
を示すブロック図であり、図4に示した実施の形態4の
構成と対応する部分には同一の符号を付す。
【0071】この実施の形態5のクライアントサーバ制
御システムは、実行系と待機系の各サーバ11,12
に、高速ファイルシステム116,126に一旦格納さ
れたデータを共有ディスク3に保存すべきRDBのデー
タ構造に変換するサーバ側DB変換部117,127
と、高速ファイルシステム116,126のデータ構造
をRDBのデータ構造に変換する変換ルールを定義した
サーバ側DB変換テーブル118,128とが設けられ
ている。さらに、サーバ側DB変換部117,127
は、高速ファイルシステム116,126に格納されて
いるデータをサーバ側DB変換部117,127を用い
て共有ディスク3に格納可能なデータ構造となるように
データ変換するとともに、RDBMS部112,122
に対して共有ディスク3への格納を指令するように構成
されている。その他の構成は、図4に示した実施の形態
4の場合と同様であるから、ここでは詳しい説明は省略
する。
【0072】この実施の形態5の構成において、クライ
アント2のアプリケーション実行部23が運用系サーバ
11の二重書き管理部115に書き込みリクエストを通
知して、運用系サーバ11の高速ファイルシステム11
6にデータが一旦格納されると、その後、DB変換部1
17は、RDBMS部112に対して書き込みリクエス
トを発行し、高速ファイルシステム116に保存された
データを非同期、または定周期にDB変換テーブル11
8を用いて共有ディスク3に格納すべきデータ構造に変
換する。これに応じて、RDBMS部112は、クライ
アント2からの書き込みリクエストとは非同期に、共有
ディスク3上の所定のデータベースたとえば32に対し
て高速ファイルシステム116にデータを書き込む速度
よりも低速度でもって書き込みを行う(以下、この処理
を遅延書き込みと称する)。
【0073】以上のように、この実施の形態5では、リ
アルタイム性を要求するアプリケーション2からの運用
系サーバ11への書き込み要求を一旦高速ファイルシス
テム116に保存してクライアント2には即応答を返
し、その後、高速ファイルシステム116から共有ディ
スク3に遅延書き込みを行うので、クライアント2のア
プリケーション実行部23のリアルタイム性の要求を保
証するとともに、各高速ファイルシステム116,12
6と共有ディスク3の双方の負担を軽減することができ
る。
【0074】実施の形態6.前述の実施の形態5では、
運用系サーバ11がクライアント2からの書き込み要求
を受け付けて高速ファイルシステム116に一旦データ
を保存し、その後、RDBMS部112によって共有デ
ィスク3にデータを遅延書き込みする場合について説明
したが、この実施の形態6では、このような遅延書き込
みを行っている途中で運用系サーバ11やLAN41,
42に障害が発生した場合の具体的な処理について説明
する。なお、この実施の形態6のクライアントサーバ制
御システムにおける構成は、図5に示した実施の形態5
のものと基本的に同じである。
【0075】まず、高速ファイルシステム116に保存
されているデータを共有ディスク3に遅延書き込みする
際に、障害が発生することなく正常に実行運用される場
合の処理について、図6に示すフローチャートを参照し
て説明する。
【0076】運用系サーバ11においてクライアント2
からの書き込みリクエストを受信すると、二重書き管理
部115は、高速ファイルシステム116に書き込みを
行う(ステップA2)。運用系サーバ11は、クライア
ント2からの書き込みリクエストを待機系サーバ12に
も転送するので、待機系サーバ12は、この転送された
書き込みリクエストに応じて、同様に高速ファイルシス
テム126に書き込みを行う(ステップB0)。運用系
サーバ11は、この時点でクライアント2に完了通知を
行う(ステップA3)。
【0077】運用系サーバ11は、高速ファイルシステ
ム116にデータが格納されると、共有ディスク3への
遅延書き込みを開始するために、まず、遅延書き込みリ
クエストを待機系サーバ12にも転送する(ステップA
4)。待機系サーバ12は、この転送されてきた遅延書
き込みリクエストを受信すると(ステップB1)、RDB
MS部112による共有ディスク3への遅延書き込みの
リクエストを一旦キューイングする(ステップB3)。
【0078】運用系サーバ11は、ステップA4の処理
後、RDBMS部112に共有ディスク3への遅延書込
み要求を行い(ステップA5)、遅延書き込みを開始す
る。運用系サーバ11のRDBMS部112が共有ディ
スク3への遅延書き込みを完了すると、その旨を待機系
サーバ12にLANたとえば41を介して通知する(ス
テップA6)。待機系サーバ12は、運用系サーバ11
からのこの遅延書込み完了通知を受け取ると、先のステ
ップB3でキューイングしていた遅延書き込み要求を破
棄する(ステップB4)。
【0079】次に、運用系サーバ11が遅延書き込みの
途中で何らかの要因で重故障となり、RDBMS部11
2による共有ディスク3への遅延書き込みができなかっ
た場合の処理について、図7のフローチャートを参照し
て説明する。
【0080】運用系サーバ11におけるステップA2〜
A4、待機系サーバ12におけるステップB0、B1,
B3は、図6のフローチャートで示した処理と同じであ
る。すなわち、待機系サーバ12は、運用系サーバ11
から転送された遅延書き込みリクエストを受信した後
(ステップB1)、RDBMS部122による共有ディ
スク3への遅延書き込み要求を一旦キューイングし(ス
テップB3)、運用系サーバからの遅延書き込み完了通
知を待ち受けている。
【0081】運用系サーバ11は、ステップA4の処理
後において重故障が発生してRDBMS部112による
共有ディスク3への遅延書き込みが行われなかった場
合、運用系サーバ11の構成制御管理部111から待機
系サーバ12に対して障害が発生した旨を通知するの
で、待機系サーバ12の構成制御管理部121は、この
通知を検知すると、運転モード管理部120は待機系か
ら運用系にモードを切り替える(ステップB11)。そ
して、ステップB3でキューイングしていたRDBMS
部122による共有ディスク3への遅延書き込み要求を
取り出し(ステップB12)、共有ディスク3への書き
込みを行う(ステップB13)。
【0082】次に、運用系サーバ11の遅延書き込みの
途中で、たとえば2つのLAN41,42に共に障害が
発生してRDBMS部112による共有ディスク3への
遅延書き込み完了を待機系サーバ12に通知できなかっ
た場合の処理について、図8に示すフローチャートを参
照して説明する。
【0083】運用系サーバ11におけるステップA2〜
A4、待機系サーバ12におけるステップB0、B1,
B3は、図6のフローチャートで示した処理と同じであ
る。すなわち、待機系サーバ12は、運用系サーバ11
から転送された遅延書き込みリクエストを受信した後
(ステップB1)、RDBMS部122による共有ディ
スク3への遅延書込み要求を一旦キューイングし(ステ
ップB3)、運用系サーバからの遅延書き込み完了通知
を待ち受けている。
【0084】運用系サーバ11には何ら障害が発生して
いないので、運用系サーバ11は、ステップA4の処理
後、共有ディスク3への遅延書き込み要求に応じて、R
DBMS部112は共有ディスク3への遅延書き込みを
行う(ステップA5)。この遅延書き込みが完了後すると
(ステップA6)、運用系サーバ11は待機系サーバ12
に対して書き込み完了を知らせようとするが、いずれの
LAN41,42にも障害が生じているときには、遅延
書き込みの完了を待機系サーバ12に通知できなくな
る。
【0085】待機系サーバ12は、運用系サーバ11か
ら上述の遅延書き込み完了通知が到来せず、しかも、予
め定義された一定時間以内に運用系サーバ11から別の
専用回線43等を経由して障害発生の通知(待機系から
運用系へのモード切り替えの通知)が到来しない場合に
は、運用系サーバ11の障害発生ではなくてLAN4
1,42の障害発生であって運用系サーバ11の遅延書
き込みは完了したものと判断して、RDBMS部112
の共有ディスク3への遅延書き込み要求を破棄する(ス
テップB21)。
【0086】以上のように、この実施の形態6では、ク
ライアント2のアプリケーション実行部23のリアルタ
イム性の要求を保証できるだけでなく、運用系サーバ1
1が遅延書き込みの途中で重故障が生じた場合でも、待
機系サーバ12側でRDBMS部122による共有ディ
スク3への遅延書き込みを保証することが可能になる。
また、遅延書き込みを行っている途中でLAN41,4
2に障害が発生した場合にも円滑に対処することができ
る。
【0087】なお、運用系サーバ11がダウンして全く
動作できないような完全障害が最初から発生している場
合には、実施の形態1で説明したように、クライアント
2と各サーバ11,12の構成制御管理部21,11
1,121の相互の障害監視によって、待機系サーバ1
2が運用系に切り替わって、クライアント2からの書き
込みリクエストは新たに運用系となったサーバ12に送
信されるので、そのサーバ12において、図6に示した
ステップA2〜A6の一連の処理が実行され、RDBM
S部122による共有ディスク3への遅延書込みが実行
される。
【0088】実施の形態7.この実施の形態7では、ク
ライアント2が複数のレコードを運用系サーバ11に一
括して書き込むリクエストを発行した場合において、運
用系と待機系の各サーバ11,12が遅延書き込みを行
う処理について説明する。なお、この実施の形態7のク
ライアントサーバ制御システムおける全体構成は、図5
に示したものと基本的に同じである。
【0089】まず、運用系サーバ11に何ら障害が発生
することなく正常に実行運用される場合の処理につい
て、図9に示すフローチャートを参照して説明する。運
用系サーバ11においてクライアント2から複数レコー
ドの一括書き込みリクエストを受信すると、二重書き管
理部115は高速ファイルシステム116に1レコード
目から順に書き込みを行う(ステップA2)。また、運
用系サーバ11は、待機系サーバ12にもこの一括書き
込みリクエストを転送するので、待機系サーバ12の二
重書き管理部125は、この転送された一括書き込みリ
クエストに応じて、同様に高速ファイルシステム126
に書き込みを行う(ステップB0)。運用系サーバ11
は、全てのレコードの書き込みが完了すると、クライア
ント2に対して書き込み完了を通知する(ステップA
3)。
【0090】運用系サーバ11は、高速ファイルシステ
ム116に全てのレコードが格納されると、共有ディス
ク3への遅延書き込みを開始するために、まず、遅延書
き込みリクエストを待機系サーバ12にも転送する(ス
テップA4)。待機系サーバ12は、この転送されてき
た遅延書き込みリクエストを受信すると(ステップB
1)、RDBMS部122による共有ディスク3への遅
延書き込み要求を一旦キューイングする(ステップB
3)。
【0091】運用系サーバ11は、ステップA4の後、
RDBMS部112に共有ディスク3への遅延書き込み
要求を行い(ステップA5)、レコードごとに順次遅延書
き込みを開始する。RDBMS部112は、トランザク
ションをサポートしていて、ステップA5の遅延書き込
み要求に応じて共有ディスク3に対して1レコード目か
ら順にインサートしていくが、全てのレコードをインサ
ートした後、COMMITコマンドを発行して、RDB
MS部112の共有ディスク3への書き込みを確定させ
る。RDBMS部112の共有ディスク3への遅延書き
込みが完了すると、その旨を待機系サーバ12に対して
LANたとえば41を介して通知する(ステップA
6)。待機系サーバ12は、運用系サーバ11からのこ
の遅延書き込み完了通知を受け取ると、先のステップB
3でキューイングしていた遅延書き込み要求を破棄する
(ステップB4)。
【0092】次に、運用系サーバ11が遅延書き込みの
途中で何らかの要因で重故障になり、RDBMS部11
2による共有ディスク3への遅延書き込みが完了できな
かった場合の処理について、図10に示すフローチャー
トを参照して説明する。
【0093】運用系サーバ11におけるステップA2〜
A4、待機系サーバ12におけるステップB0,B1,
B3は、図9のフローチャートで示した処理と同じであ
る。すなわち、待機系サーバ12は、運用系サーバ11
から転送された遅延書き込みリクエストを受信した後
(ステップB1)、RDBMS部122への遅延書き込み
要求を一旦キューイングし(ステップB3)、運用系サ
ーバ11からの遅延書き込み完了通知を待ち受けてい
る。
【0094】運用系サーバ11において、共有ディスク
3に対して全レコードの格納を完了してCOMMITコ
マンドを発行するまでに至らない途中の時点(ここでは
一例として2レコード分のデータを格納しただけの時
点)で重故障が発生した場合、運用系サーバ11からは
待機系サーバ12に対して一定期間を経過しても遅延書
き込み完了通知が発信されないので、待機系サーバ12
の構成制御管理部121は、運用系サーバ11に重故障
が発生したものと判断して、待機系サーバ12を運用系
に切り替える(ステップB31)。そして、RDBMS
部122を立ち上げる(ステップB32)。その際、旧
運用系サーバ11側のトランザクションの途中までしか
遅延書き込みが実施されていないので(ここでは2レコ
ード目まででしか実行されていない)、まず、ロールフ
ォワード処理を行う(ステップB33)。次いで、ステ
ップB3でキューイングしていたRDBMS部122に
よる共有ディスク3への遅延書き込み要求を取り出し
(ステップB34)、1レコード目から順にインサート
を行い最後にCOMMITを発信し、RDBMS部12
2の共有ディスク3への書込みが完了する(ステップB
35)。
【0095】以上のように、この実施の形態7では、ク
ライアント2からの複数のレコードの一括書き込み要求
に応じて、運用系サーバ11がトランザクションをサポ
ートしつつ、レコード単位で遅延書き込みを行っている
途中で何らかの障害が発生した場合には、待機系のサー
バ12はトランザクションによりロールフォワド処理す
るので、運用系サーバ11から待機系サーバ12へレコ
ード単位の遅延書き込み処理を円滑に引き継ぐことが可
能になる。
【0096】実施の形態8.この実施の形態8では、ク
ライアント2が複数のテーブルを運用系サーバ11に一
括して書き込むリクエストを発行した場合において、運
用系と待機系の各サーバ11,12が遅延書き込みを行
う処理について説明する。なお、この実施の形態8のク
ライアントサーバ制御システムおける全体構成は、図5
に示したものと基本的に同じである。
【0097】まず、運用系サーバ11に何ら障害が発生
することなく正常に実行運用される場合の処理を図11
のフローチャートに示す。図9に示した実施の形態7に
おける正常な運用時のフローチャートと比較すると容易
に分かるように、この実施の形態8の場合、運用系サー
バ11および待機系サーバ12がテーブル単位でデータ
を取り扱う以外は、図9に示したレコード単位でデータ
を格納する場合と基本的な処理動作は同じである。した
がって、ここでは詳しい説明は省略する。
【0098】次に、RDBMS部への遅延書込み中に何
らかの要因により重故障になってしまった場合の処理を
図12のフローチャートに示す。図10に示した実施の
形態7における重故障発生時のフローチャートと比較す
ると容易に分かるように、この実施の形態8の場合、運
用系サーバ11および待機系サーバ12がテーブル単位
でデータを取り扱う以外は、図10に示したレコード単
位でデータを格納する場合と基本的な処理動作は同じで
ある。したがって、ここでは詳しい説明は省略する。
【0099】以上のように、この実施の形態8では、ク
ライアント2からの複数テーブルの一括書込み要求に応
じて、運用系サーバ11がテーブル単位で遅延書き込み
を行っている途中で何らかの障害が発生した場合には、
待機系のサーバ12はトランザクションによりロールフ
ォワド処理するので、運用系サーバ11から待機系サー
バ12へのテーブル単位の遅延書き込み処理を円滑に引
き継ぐことが可能になる。
【0100】実施の形態9.図13は、本発明の実施の
形態9に係るクライアントサーバ制御システムの全体構
成を示すブロック図であり、図5に示した実施の形態5
の構成と対応する部分には同一の符号を付す。
【0101】この実施の形態9において、実施の形態5
の構成と異なる点は、運用系と待機系の各サーバ11,
12の高速ファイルシステム116,126をDRAM
のような揮発性の半導体記憶装置に代えて、不揮発性記
憶装置(たとえばHDD)にしたことである。その他の
構成は図5に示したものと基本的に同じであるから、こ
こでは詳しい説明は省略する。
【0102】高速ファイルシステム116,126を不
揮発性記憶装置にすることにより、たとえば、運用系サ
ーバ11に障害が発生して使用不能になり、待機系サー
バ12が単独で新たな運用系として動作している場合
に、さらに、このサーバ12において、RDBMS部1
22により共有ディスク3への遅延書込みが完了する前
に、何らかの要因で重故障になって両サーバ11,12
が共にダウンした場合にも、少なくとも一方のサーバ1
2の高速ファイルシステム126にはデータがそのまま
保存されていて消失は免れる。
【0103】以上のように、この実施の形態9によれ
ば、たとえば、一方のサーバ12の重故障の要因が取り
除かれて、サーバ12を再び立ち上げた後に、不揮発性
の高速ファイルシステム126に残っているデータを読
み出して遅延書き込み要求を再開すれば、クライアント
2からの要求に応じてRDBMS部122によって共有
ディスク3に遅延書き込みを行うことができるようにな
る。
【0104】実施の形態10.この実施の形態10で
は、図13に示した構成のクライアントサーバ制御シス
テムにおいて、運用系サーバ11のRDBMS部112
により共有ディスク3に遅延書き込みを行っている途中
で、RDBMS部112自身に障害が発生した場合の処
理について、図14に示すフローチャートを参照して説
明する。
【0105】まず、運用系サーバ11においてクライア
ント2からの書き込みリクエストを受信すると、二重書
き管理部115は、高速ファイルシステム116に書き
込みを行う(ステップA2)。運用系サーバ11は、待
機系サーバ12にもこの書き込みリクエストを転送する
ので、待機系サーバ12は、この転送された書き込みリ
クエストに応じて、同様に高速ファイルシステム126
に書き込みを行う(ステップB0)。運用系サーバ11
は、高速ファイルシステム116への書き込みが完了す
ると、クライアント2に対してこの時点で完了通知を行
う(ステップA3)。
【0106】運用系サーバ11は、高速ファイルシステ
ム116にデータが格納されると、その後、RDBMS
部112による共有ディスク3への遅延書き込みを開始
するために、待機系サーバ12に対して遅延書き込みリ
クエストを転送する(ステップA4)。待機系サーバ12
は、運用系サーバ11からの遅延書き込みリクエストを
受信すると(ステップB1)、RDBMS部122による
共有ディスク3への遅延書込み要求を一旦キューイング
する(ステップB3)。
【0107】運用系サーバ11は、ステップA4の処理
後、RDBMS部112による共有ディスク3への遅延
書き込みを開始しようとするが、構成制御管理部111
がRDBMS部122の故障を検知すると、遅延書き込
み要求をキューイングする(ステップA51)。
【0108】その後、運用系サーバ11のRDBMS部
112が復旧されて、構成制御管理部111がDB制御
部113によりRDBMS部112が起動されるのを検
知すると(ステップA52)、遅延書き込みリクエストを
デキューし(ステップA53)、RDBMS部112が共
有ディスク3への遅延書き込みを行う。遅延書き込みが
完了すると、その旨を待機系サーバに通知する(ステッ
プA54)。
【0109】一方、待機系サーバ12は、ステップB3
で遅延書き込み要求を一旦キューイングしていても、運
用系サーバ11から一定期間内に遅延書き込み完了通知
が来ないとタイムアウトが発生するが、待機系サーバ1
2は、運用系サーバ11の障害発生を検知すると、遅延
書き込み要求はデキューせずにキュー状態をそのまま保
持する(ステップB51)。そして、運用系サーバ11の
RDBMS部112が復旧して運用系サーバ11から遅
延書き込み完了通知を受け取ると、キュー状態を保持し
ていた遅延書き込み要求を破棄する(ステップB5
2)。
【0110】なお、運用系サーバ11において遅延書き
込みの途中で重故障が生じたときには、実施の形態6
(図7参照)で説明した通り、待機系サーバ12が運用
系に切り替わって、そのRDBMS部122による共有
ディスク3への遅延書き込みが円滑に引き継がれる。
【0111】以上のように、この実施の形態10によれ
ば、運用系サーバ11のRDBMS部112が何らかの
要因で故障して動作しない場合でも、クライアント2か
らの書込み要求を受け付け、RDBMS部112が復旧
した後は、復旧したRDBMS部112により共有ディ
スク3への遅延書き込みを円滑に行うことができる。
【0112】実施の形態11.この実施の形態11で
は、図13に示した構成のクライアントサーバ制御シス
テムにおいて、運用系サーバ11のRDBMS部112
により共有ディスク3に遅延書き込みを行っている途中
で、共有ディスク3自身に障害が発生した場合の処理に
ついて、図15に示すフローチャートを参照して説明す
る。
【0113】運用系サーバ11におけるステップA2〜
A4、待機系サーバ12におけるステップB0,B1,
B3は、図14のフローチャートで示した処理と同じで
ある。すなわち、待機系サーバ12は、運用系サーバ1
1から転送された遅延書き込みリクエストを受信した後
(ステップB1)、RDBMS部122への遅延書き込み
要求を一旦キューイングし(ステップB3)、運用系サ
ーバ11からの遅延書き込み完了通知を待ち受けてい
る。
【0114】運用系サーバ11は、ステップA4の処理
後、構成制御管理部111が共有ディスク3の故障を検
知すると、遅延書き込み要求をキューイングする(ステ
ップA61)。その後、共有ディスク3が復旧されて、
DB制御部113がRDBMS部112が起動されるの
を検知すると(ステップA62)、遅延書き込みリクエス
トをデキューし(ステップA63)、RDBMS部112
が共有ディスク3への遅延書き込みを行う。遅延書き込
みが完了すると、その旨を待機系サーバ12に通知する
(ステップA64)。
【0115】待機系サーバ12は、ステップB3で遅延
書き込み要求を一旦キューイングしていても、運用系サ
ーバ11から一定期間内に遅延書き込み完了通知が来な
いとタイムアウトが発生するが、待機系サーバ12は、
共有ディスク3の障害発生を検知すると、遅延書き込み
要求はデキューせずにキュー状態をそのまま保持する
(ステップB61)。そして、共有ディスク3が復旧して
運用系サーバ11から遅延書き込み完了通知を受け取る
と、キュー状態を保持していた遅延書き込み要求を破棄
する(ステップB62)。なお、運用系サーバ11にお
いて遅延書き込みの途中で重故障が生じたときには、実
施の形態6(図7参照)で説明した通り、待機系サーバ
12が運用系に切り替わって、そのRDBMS部122
による共有ディスク3への遅延書き込みが円滑に引き継
がれる。
【0116】以上のように、この実施の形態11によれ
ば、共有ディスク3が何らかの要因で故障して動作して
いない場合でも、クライアント2からの書き込み要求を
受け付け、共有ディスク3が復旧した後は、運用系サー
バ11のRDBMS部112により復旧した共有ディス
ク3への遅延書き込みが円滑に行われる。
【0117】実施の形態12.共有ディスク3に格納さ
れているデータが不意に破壊されないようにするために
は、フロッピディスクや磁気テープなどの補助記録装置
に保存しておくことが好ましい。そこで、この実施の形
態12では、運用系サーバ11のRDBMS部112に
よる共有ディスク3への遅延書き込みを一時的に停止し
て、バックアップ処理する場合の動作について、図16
に示すフローチャートを参照して説明する。
【0118】この実施の形態12の場合において、運用
系サーバ11のRDBMS部112による共有ディスク
3への遅延書き込みを一時的に停止してバックアップ処
理する期間中の状態は、運用系と待機系の各サーバ1
1,12が共有ディスク3の故障として取り扱うのと類
似の状態になっている。したがって、図16に示すこの
実施の形態12のバックアップ処理のフローチャート
は、図15に示した実施の形態11におけるフローチャ
ートと比較すると容易に分かるように、『共有ディスク
2の故障』を『バックアップ』の用語に置き換えたにす
ぎず、実施の形態11の場合と基本的に同じ処理内容に
なる。
【0119】なお、運用系サーバ11においてバックア
ップ処理の途中で重故障が生じたときには、実施の形態
6(図7参照)で説明した通り、待機系サーバ12が運
用系に切り替わって、そのRDBMS部122による共
有ディスク3への遅延書き込みが円滑に引き継がれる。
【0120】以上のように、この実施の形態12によれ
ば、運用系サーバ11のRDBMS部112による共有
ディスク3への遅延書き込みを一時的に停止して、バッ
クアップ処理する場合でも、クライアント2からの書き
込み要求を受け付け、バックアップ完了後は、運用系サ
ーバ11のRDBMS部112により共有ディスク3へ
の遅延書き込みが円滑に行われる。
【0121】
【発明の効果】請求項1記載の発明によれば、運用系と
待機系の各サーバおよびクライアントの各構成制御管理
部が互いの状態を常時監視し、障害発生時には、クライ
アント側がその障害検知に応じて、新たに運用系となる
サーバを選択するようになるので、クライアントからの
共有ディスクへのアクセスリクエストは最短の経路でサ
ーバに受け付けられることになり、クライアントからの
リクエストの応答性が高まる。
【0122】しかも、運用系サーバは、従来のように故
障発生時に備えて引き継ぎ情報を共有ディスクに保管し
ておく必要がなく、また、障害発生時に運用系サーバで
記録された途中処理情報を待機系サーバ側に転送する必
要もないので、運用系サーバで未処理のデータも待機系
サーバに迅速かつ円滑に引き継ぐことができる。
【0123】請求項2記載の発明によれば、クライアン
トや運用系と待機系の各サーバのそれぞれに通信回線の
状態を監視する手段を設けているので、請求項1記載の
効果に加えて、常にに最適な通信回線を選択してクライ
アントとサーバ間を接続することができる。
【0124】請求項3記載の発明によれば、運用系/待
機系のモードだけでなく他の運転モード(試験モードや
訓練モードなど)においてもクライアントがサーバを経
由して共有ディスクのデータベースに対してアクセスで
きるようになる。したがって、サーバを運転モード毎に
予め設ける必要がなく兼用できるため、資源を有効に活
用することができる。
【0125】請求項4記載の発明によれば、運用系と待
機系の各サーバに高速ファイルシステムを設けているの
で、請求項1ないし請求項3記載の発明の効果に加え
て、クライアントからのデータのリアルタイム性が要求
される場合でも、迅速かつ確実に運用系サーバの高速フ
ァイルシステムにデータを格納できるようになる。
【0126】請求項5記載の発明によれば、クライアン
トからデータのリアルタイム性が要求される場合でも、
サーバが十分にその要求を保証することができるととも
に、一旦、高速ファイルシステムに保存したデータを非
同期で共有ディスクに遅延書き込みを行うため、高速フ
ァイルシステムと共有ディスクの双方の負担を軽減する
ことができる。
【0127】請求項6記載の発明によれば、請求項5の
効果に加えて、運用系サーバが遅延書き込みの途中で重
故障が生じた場合でも、待機系サーバ側で共有ディスク
への遅延書き込みを保証することが可能になる。また、
遅延書き込みを行っている途中で通信回線に障害が発生
した場合にも円滑に対処することができる。
【0128】請求項7記載の発明によれば、クライアン
トからの書き込み要求に応じて、運用系サーバが共有デ
ィスクにレコード単位で遅延書き込みを行っている途中
で何らかの障害が発生した場合でも、運用系と待機系の
各サーバのトランザクションにより処理するので、待機
系サーバがレコード単位の遅延書き込み処理を円滑に引
き継ぐことが可能になる。
【0129】請求項8記載の発明によれば、クライアン
トからの書き込み要求に応じて、運用系サーバが共有デ
ィスクにテーブル単位で遅延書き込みを行っている途中
で何らかの障害が発生した場合でも、運用系と待機系の
各サーバのトランザクションにより処理するので、待機
系サーバがテーブル単位の遅延書き込み処理を円滑に引
き継ぐことが可能になる。
【0130】請求項9記載の発明によれば、高速ファイ
ルシステムを不揮発性の記憶媒体で構成しているので、
運用系の障害により待機系サーバが新たな運用系となっ
て遅延書き込みを行っている途中でさらに重ねて待機系
サーバに障害が発生した場合でも、高速ファイルシステ
ムにはデータが確実に残っているので、サーバの復旧後
は不揮発性の高速ファイルシステムに残っているデータ
を読み出して遅延書き込みを行うことが可能になる。
【0131】請求項10記載の発明によれば、運用系サ
ーバのRDBMS部が何らかの要因で故障して動作しな
い場合でも、クライアントからの書き込み要求を受け付
けることができ、RDBMS部が復旧した後は、復旧し
たRDBMS部により共有ディスクへの遅延書き込みを
円滑に行うことができる。
【0132】請求項11記載の発明によれば、共有ディ
スクが何らかの要因で故障して動作しない場合でも、ク
ライアントからの書き込み要求を受け付けることがで
き、共有ディスクが復旧した後は、運用系サーバのRD
BMS部により復旧した共有ディスクへの遅延書き込み
が円滑に行われる。
【0133】請求項12記載の発明では、運用系サーバ
で共有ディスクへの遅延書き込みを一時的に停止してバ
ックアップ処理する場合でも、クライアントからの書き
込み要求を受け付けることができ、バックアップ完了後
は、運用系サーバにより共有ディスクへの遅延書き込み
が円滑に行われる。
【図面の簡単な説明】
【図1】 本発明の実施の形態1に係るクライアントサ
ーバ制御システムの全体構成を示すブロック図である。
【図2】 本発明の実施の形態2に係るクライアントサ
ーバ制御システムの全体構成を示すブロック図である。
【図3】 本発明の実施の形態3に係るクライアントサ
ーバ制御システムにおける共有ディスクのデータベース
の格納状態を示す説明図である。
【図4】 本発明の実施の形態4に係るクライアントサ
ーバ制御システムの全体構成を示すブロック図である。
【図5】 本発明の実施の形態5に係るクライアントサ
ーバ制御システムの全体構成を示すブロック図である。
【図6】 本発明の実施の形態6に係るクライアントサ
ーバ制御システムにおいて、運用系サーバが正常に運用
されている場合の遅延書き込み動作を示すフローチャー
トである。
【図7】 本発明の実施の形態6に係るクライアントサ
ーバ制御システムにおいて、運用系サーバが遅延書込み
の途中で障害が発生した場合の動作を示すフローチャー
トである。
【図8】 本発明の実施の形態6に係るクライアントサ
ーバ制御システムにおいて、運用系サーバが遅延書込み
の途中で通信回線等の故障により遅延書込み完了通知エ
ラーが生じた場合の動作を示すフローチャートである。
【図9】 本発明の実施の形態7に係るクライアントサ
ーバ制御システムにおいて、運用系サーバが正常に運用
されている場合のレコード単位で遅延書き込みを行う場
合の動作を示すフローチャートである。
【図10】 本発明の実施の形態7に係るクライアント
サーバ制御システムにおいて、運用系サーバがレコード
単位で遅延書込みを行っている途中で障害が発生した場
合の動作を示すフローチャートである。
【図11】 本発明の実施の形態8に係るクライアント
サーバ制御システムにおいて、運用系サーバが正常に運
用されている場合のテーブル単位で遅延書き込みを行う
場合の動作を示すフローチャートである。
【図12】 本発明の実施の形態8に係るクライアント
サーバ制御システムにおいて、運用系サーバがテーブル
単位で遅延書込みを行っている途中で障害が発生した場
合の動作を示すフローチャートである。
【図13】 本発明の実施の形態9に係るクライアント
サーバ制御システムの全体構成を示すブロック図であ
る。
【図14】 本発明の実施の形態10に係るクライアン
トサーバ制御システムにおいて、運用系サーバが遅延書
込みを行っている途中でRDBMS部に故障が生じた場
合の動作を示すフローチャートである。
【図15】 本発明の実施の形態11に係るクライアン
トサーバ制御システムにおいて、運用系サーバが遅延書
込みを行っている途中で共有ディスクに故障が生じた場
合の動作を示すフローチャートである。
【図16】 本発明の実施の形態12に係るクライアン
トサーバ制御システムにおいて、運用系サーバの遅延書
込みを中断してバックアップ処理を行う場合の動作を示
すフローチャートである。
【図17】 従来のクライアントサーバ制御システムの
全体構成を示すブロック図である。
【符号の説明】
2 クライアント、3 共有ディスク、4 LAN(通
信回線)、11 サーバ、12 サーバ、20 運転モ
ード管理部、21 構成制御管理部、22 サーバ接続
部、23 アプリケーション実行部、25 DB切替
部、26 クライアント側DB変換部、27 クライア
ント側DB変換テーブル、41,42 LAN(通信回
線)、110 運転モード管理部、111 構成制御管
理部、112 RDBMS部、113 DB制御部、1
14 LAN監視部、115 二重書き管理部、116
高速ファイルシステム、117 サーバ側変換部、1
18サーバ側DB変換テーブル、120 運転モード管
理部、121 構成制御管理部、122 RDBMS
部、123 DB制御部、124 LAN監視部、12
5 二重書き管理部、126 高速ファイルシステム、
127 サーバ側変換部、128 サーバ側DB変換テ
ーブル。
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B034 BB02 BB17 CC01 DD02 5B045 JJ01 JJ16 JJ22 JJ44 JJ46 JJ48 5B083 AA08 BB02 BB03 CC04 CD11 CE01 DD09 EE02 EE06 EE08 5B085 AA03 AC11 AC16 BA07 5B089 GA12 GA21 JB17 KA12 MD02 MD03 ME02 ME04 ME09 ME15

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】 リクエストを発信するクライアントと、
    このクライアントからのリクエストに応じた処理を実行
    運用する運用系サーバと、この運用系サーバの処理を代
    替する待機系サーバとを有し、前記クライアントおよび
    各サーバが通信回線を介して互いに接続され、かつ、前
    記各サーバには、同一の共有ディスクに対してアクセス
    を行うRDBMS部が設けられているクライアントサー
    バ制御システムにおいて、 前記クライアントには、各サーバが運用系か待機系かを
    識別するための運転モード情報を管理する運転モード管
    理部と、各サーバの障害発生の有無を検知する構成制御
    管理部と、前記運転モード管理部による運転モード情報
    および前記構成制御管理部による障害検知情報に基づい
    て接続すべきサーバを決定して当該サーバに接続するサ
    ーバ接続部とが設けられる一方、前記各サーバには、当
    該サーバが運用系か待機系かを識別するための運転モー
    ド情報を管理する運転モード管理部と、自己を含む各サ
    ーバの障害発生の有無を検知するとともに自己の障害発
    生時には他のサーバおよび前記クライアントに障害発生
    を通知する構成制御管理部とが設けられていることを特
    徴とするクライアントサーバ制御システム。
  2. 【請求項2】 前記クライアントと各サーバとを接続す
    る前記通信回線は複数設けられる一方、前記クライアン
    トおよび各サーバには、前記各通信回線の状態を監視
    し、通信回線が故障した場合には最適の通信回線を決定
    する通信管理部が設けられていることを特徴とする請求
    項1記載のクライアントサーバ制御システム。
  3. 【請求項3】 前記運転モード管理部は、各サーバが運
    用系か待機系かを識別する情報に加えてその他の運転モ
    ードの情報も同時に管理するものである一方、前記クラ
    イアントのサーバ接続部は、その運転モード管理部で管
    理されている前記運転モード情報に基づいて、リクエス
    トされた運転モードに適合したサーバを決定するもので
    あることを特徴とする請求項1または請求項2に記載の
    クライアントサーバ制御システム。
  4. 【請求項4】 前記実行系と待機系の各サーバには、デ
    ータの高速アクセスが可能な高速ファイルシステムと、
    この高速ファイルシステムに対するデータの書き込み制
    御を行う二重書き管理部とが設けられる一方、前記クラ
    イアントには、高速書き込みリクエストに応じて、前記
    共有ディスクに書き込まれるべきデータを前記高速ファ
    イルシステムに格納するのに適合したデータ構造へデー
    タ変換するクライアント側DB変換部が設けられている
    ことを特徴とする請求項1ないし請求項3のいずれか1
    項に記載のクライアントサーバ制御システム。
  5. 【請求項5】 前記実行系と待機系の各サーバには、前
    記高速ファイルシステムに格納されたデータを前記共有
    ディスクに保存すべきデータ構造に変換して前記RDB
    MS部に引き渡すサーバ側DB変換部が設けられている
    ことを特徴とする請求項4記載のクライアントサーバ制
    御システム。
  6. 【請求項6】 前記待機系サーバは、前記運用系サーバ
    による共有ディスクへのデータ格納が完了するまでは、
    共有ディスクに対するデータ書き込み要求を一定時間保
    持するものであることを特徴とする請求項5記載のクラ
    イアントサーバ制御システム。
  7. 【請求項7】 前記高速ファイルシステムから前記共有
    ディスクへ書き込み転送するデータは、レコード単位で
    行うものであることを特徴とする請求項5または請求項
    6に記載のクライアントサーバ制御システム。
  8. 【請求項8】 前記高速ファイルシステムから前記共有
    ディスクへ書き込み転送するデータは、テーブル単位で
    行うものであることを特徴とする請求項5または請求項
    6に記載のクライアントサーバ制御システム。
  9. 【請求項9】 前記高速ファイルシステムは、不揮発性
    の記憶媒体で構成されていることを特徴とする請求項4
    ないし請求項8のいずれか1項に記載のクライアントサ
    ーバ制御システム。
  10. 【請求項10】 前記待機系サーバは、前記運用系サー
    バのRDBMS部の故障が回復するまでは、共有ディス
    クに対するデータ書き込み要求を保持するものであるこ
    とを特徴とする請求項5ないし請求項9のいずれか1項
    に記載のクライアントサーバ制御システム。
  11. 【請求項11】 前記待機系サーバは、前記共有ディス
    クの故障が回復するまでは、共有ディスクに対するデー
    タ書き込み要求を保持するものであることを特徴とする
    請求項5ないし請求項9のいずれか1項に記載のクライ
    アントサーバ制御システム。
  12. 【請求項12】 前記待機系サーバは、運用系サーバ部
    によるバックアップ処理が終了するまでは、共有ディス
    クに対するデータ書き込み要求を保持するものであるこ
    とを特徴とする請求項5ないし請求項9のいずれか1項
    に記載のクライアントサーバ制御システム。
JP2001205921A 2001-07-06 2001-07-06 クライアントサーバ制御システム Pending JP2003022259A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001205921A JP2003022259A (ja) 2001-07-06 2001-07-06 クライアントサーバ制御システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001205921A JP2003022259A (ja) 2001-07-06 2001-07-06 クライアントサーバ制御システム

Publications (1)

Publication Number Publication Date
JP2003022259A true JP2003022259A (ja) 2003-01-24

Family

ID=19042142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001205921A Pending JP2003022259A (ja) 2001-07-06 2001-07-06 クライアントサーバ制御システム

Country Status (1)

Country Link
JP (1) JP2003022259A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048122A (ja) * 2004-07-30 2006-02-16 Ntt Docomo Inc 通信システム
JP2006285873A (ja) * 2005-04-04 2006-10-19 Toshiba Corp 画像管理システム
JP2008152552A (ja) * 2006-12-18 2008-07-03 Hitachi Ltd 計算機システム及び障害情報管理方法
JP2008197958A (ja) * 2007-02-14 2008-08-28 Sii Data Service Kk 注文情報管理装置、システム、および方法
JP2008287632A (ja) * 2007-05-21 2008-11-27 Panasonic Corp 制御装置復帰システム
JP2009289103A (ja) * 2008-05-30 2009-12-10 Fujitsu Ltd 情報処理システム、情報処理装置、及びコンピュータプログラム
JP2010128644A (ja) * 2008-11-26 2010-06-10 Hitachi Ltd 障害復旧方法、プログラムおよび管理サーバ
JP2012133622A (ja) * 2010-12-22 2012-07-12 Fujitsu Frontech Ltd 計算機切替システム、計算機切替プログラム、および計算機切替方法
JP2012528382A (ja) * 2009-05-25 2012-11-12 アリババ・グループ・ホールディング・リミテッド キャッシュクラスタを構成可能モードで用いるキャッシュデータ処理
JP2014504392A (ja) * 2010-11-17 2014-02-20 アルカテル−ルーセント ネットワーク要素のサービス回復のための方法およびシステム
JP2015201031A (ja) * 2014-04-08 2015-11-12 日本電信電話株式会社 冗長システムとアラーム管理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01228232A (ja) * 1988-03-08 1989-09-12 Koorunetsuto:Kk 自動回線切替装置
JPH02176949A (ja) * 1988-12-28 1990-07-10 Hitachi Ltd ジャーナルデータ取得方式
JPH08212095A (ja) * 1994-10-31 1996-08-20 Hitachi Ltd クライアントサーバ制御システム
JP2000222234A (ja) * 1999-02-04 2000-08-11 Meidensha Corp 二重系のコンピュータシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01228232A (ja) * 1988-03-08 1989-09-12 Koorunetsuto:Kk 自動回線切替装置
JPH02176949A (ja) * 1988-12-28 1990-07-10 Hitachi Ltd ジャーナルデータ取得方式
JPH08212095A (ja) * 1994-10-31 1996-08-20 Hitachi Ltd クライアントサーバ制御システム
JP2000222234A (ja) * 1999-02-04 2000-08-11 Meidensha Corp 二重系のコンピュータシステム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048122A (ja) * 2004-07-30 2006-02-16 Ntt Docomo Inc 通信システム
JP2006285873A (ja) * 2005-04-04 2006-10-19 Toshiba Corp 画像管理システム
JP2008152552A (ja) * 2006-12-18 2008-07-03 Hitachi Ltd 計算機システム及び障害情報管理方法
JP2008197958A (ja) * 2007-02-14 2008-08-28 Sii Data Service Kk 注文情報管理装置、システム、および方法
JP2008287632A (ja) * 2007-05-21 2008-11-27 Panasonic Corp 制御装置復帰システム
JP2009289103A (ja) * 2008-05-30 2009-12-10 Fujitsu Ltd 情報処理システム、情報処理装置、及びコンピュータプログラム
JP2010128644A (ja) * 2008-11-26 2010-06-10 Hitachi Ltd 障害復旧方法、プログラムおよび管理サーバ
JP4648447B2 (ja) * 2008-11-26 2011-03-09 株式会社日立製作所 障害復旧方法、プログラムおよび管理サーバ
JP2012528382A (ja) * 2009-05-25 2012-11-12 アリババ・グループ・ホールディング・リミテッド キャッシュクラスタを構成可能モードで用いるキャッシュデータ処理
US8972773B2 (en) 2009-05-25 2015-03-03 Alibaba Group Holding Limited Cache data processing using cache cluster with configurable modes
JP2014504392A (ja) * 2010-11-17 2014-02-20 アルカテル−ルーセント ネットワーク要素のサービス回復のための方法およびシステム
JP2012133622A (ja) * 2010-12-22 2012-07-12 Fujitsu Frontech Ltd 計算機切替システム、計算機切替プログラム、および計算機切替方法
JP2015201031A (ja) * 2014-04-08 2015-11-12 日本電信電話株式会社 冗長システムとアラーム管理方法

Similar Documents

Publication Publication Date Title
US7318138B1 (en) Preventing undesired trespass in storage arrays
JP3364572B2 (ja) 多重パスi/o要求機構を有するデータ処理システム及びキュー・ステータス更新方法
JP4551096B2 (ja) ストレージサブシステム
US7516287B2 (en) Methods and apparatus for optimal journaling for continuous data replication
JP5049618B2 (ja) ディザスタリカバリシステムおよび方法
US7627612B2 (en) Methods and apparatus for optimal journaling for continuous data replication
JP2905373B2 (ja) ディスク制御装置及びその制御方法
US9058127B2 (en) Data transfer in cluster storage systems
JP2002297456A (ja) バックアップ処理方法及びその実施システム並びにその処理プログラム
JP2003022259A (ja) クライアントサーバ制御システム
EP1318447A2 (en) Raid apparatus and access control method therefor
US7849264B2 (en) Storage area management method for a storage system
US7401256B2 (en) System and method for highly available data processing in cluster system
JP2003029934A (ja) ストレージ制御装置及びその制御方法
US20080301777A1 (en) Hot standby server system
CN109710456B (zh) 一种数据恢复方法及装置
CN102576294B (zh) 含有多个存储装置的存储系统和方法
US10140183B2 (en) Efficient state tracking for clusters
US8555007B2 (en) Storage system with journal disks dynamically assigned
JP3254766B2 (ja) 同一データの多重書き込み方法、データの読み出し方法及びデータ回復方法、並びにそのための制御装置
JP2002202908A (ja) 入出力要求遮断方式、入出力要求遮断方法および入出力要求遮断用プログラムを記録した記録媒体
JPH083807B2 (ja) 2重化磁気デイスク装置の自動切換装置
JP2001290669A (ja) フェールオーバ管理システム、フェールオーバ管理装置、方法、及びコンピュータ読み取り可能な記録媒体
JP3033509B2 (ja) トランザクションの遅延リカバリ方式、遅延リカバリ方法および遅延リカバリプログラムを記録した記録媒体
JP2003036196A (ja) キューファイル回復制御方法及びその実施装置並びにその処理プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050308

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050628