JPH10207855A - 共有ディスク型多重系システム - Google Patents
共有ディスク型多重系システムInfo
- Publication number
- JPH10207855A JPH10207855A JP9006538A JP653897A JPH10207855A JP H10207855 A JPH10207855 A JP H10207855A JP 9006538 A JP9006538 A JP 9006538A JP 653897 A JP653897 A JP 653897A JP H10207855 A JPH10207855 A JP H10207855A
- Authority
- JP
- Japan
- Prior art keywords
- computer
- shared
- disk device
- processing
- shared disk
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/0703—Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
- G06F11/0706—Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
- G06F11/0727—Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment in a storage system, e.g. in a DASD or network based storage system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/202—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
- G06F11/2023—Failover techniques
- G06F11/2028—Failover techniques eliminating a faulty processor or activating a spare
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/202—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
- G06F11/2046—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share persistent storage
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/0703—Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
- G06F11/0793—Remedial or corrective actions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/202—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
- G06F11/2038—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant with a single idle spare processing component
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Hardware Redundancy (AREA)
- Memory System Of A Hierarchy Structure (AREA)
Abstract
行うことのできる多重系システムを構築する。 【解決手段】主系計算機100と従系計算機は定期的に
SVP115を介して生存通知信号を送信し合う。主系計算機
100より一定期間生存通知信号の送信がない場合、従
系計算機101は主系計算機100の状態を問い合わ
せ、一過性の故障であればSVP115を介して主系計算機1
00を一度リセットし、その処理を引き継ぐ。また、恒
久的な故障であれば、SVP115に主系計算機100をリセ
ットし続けさせると共に、共有ディスク装置102のMO
Sスイッチ150〜153を制御し、主系計算機101
を電気的にSCSIより切り離し、主系計算機101の処理
を引き継ぐ。
Description
機により構成される多重系システムに関し、特に、主系
と従系の計算機によって外部記憶装置として利用される
共有ディスク装置を備えた多重系システムに関するもの
である。
ーション)より信頼性に劣るとされるPC(パーソナル
コンピュータ)を、高い信頼性が要求される用途、例え
ば、鉄道運行管理、プラント制御、電力系統制御などに
用いる場合には、多重系システム、すなわち、処理を行
う主系のPCの他に、主系のPCに故障が生じた場合に主系
のPCが行っていた処理を引き継ぐ従系のPCを備えたフォ
ールトトレラントシステムとしてPCを利用することが望
ましい。
ムとしては、たとえば、米国Novell社のNetware SFT II
Iや、米国Compaq社のStandby Recovery Serverが知られ
ている。
のPCそれぞれに拡張ボードを接続し、該拡張ボード間
を光ファイバネットワークで結び付ける。そして、両計
算機の拡張ボードは協調して、光ファイバネットワーク
を介して、定期的に、主系計算機の主記憶内容を従系計
算機の主記憶に複写する処理を行う。
いに監視を行っており、主系計算機からの正常な信号が
途絶えた場合、従系計算機は、複写されたデータを用い
て主系計算機の処理を引き継ぐ。
の内容を複写することにより結果として主系計算機の備
えるディスク装置の内容も従系計算機の備えるディスク
装置に複写されることになるため、主系計算機と従系計
算機とがディスク装置を共有する構成を用いない。
にコールドスタンバイと呼ばれる方式を採用している。
I などの方式(ホットスタンバイ)とは異なり、従系計
算機を、直ちに主系計算機の処理を継続できる状態に置
かない。
機が処理を実行し、この間、従系計算機はOS(オペレ
ーティングシステム)がロードされていない状態で待機
する。
引継ぎは、主系計算機と従系計算機によって共通に用い
られる共有ディスク装置によって行われる。
従系計算機は待機中起動されていない状態に等しく、か
つ、故障発生時には主系計算機自体を停止させるため、
共有ディスク装置は常に一方からのみ参照されることに
なる。
い、主系計算機からの信号が途絶えた場合、従系計算機
は、(1)共有ディスク装置の入出力を主系計算機から
従系計算機に切り替え、(2)OSをロードして共有デ
ィスク装置をファイルシステムに組み込み、(3)主系
計算機が行っていた処理を実行するアプリケーションプ
ログラムをロードし、これを実行する。このように、St
andby Recovery Serverでは、故障発生時に、共有ディ
スク装置の入出力を主系計算機から従系計算機に切り替
えることにより、データ引継ぎを実現している。
行う技術としては、特開昭58−214952号公報に
記載されている、多重化された複数のサービスプロセッ
サの各々が定期的に自身が正常であることを表す正常信
号を送信し合い、主系のサービスプロセッサが正常信号
を送信しなくなった場合には、従系のサービスプロセッ
サの中から新たな主系のサービスプロセッサを選出する
技術が知られている。
するものではなく、複数のプロセッサが並行して処理を
行うマルチプロセッサシステムについてのものである
が、特開平4−24838号公報には、プロセッサに障
害が生じた時の処理に関し、予め選出された特定のプロ
セッサが管理プロセッサとして各プロセッサの状態を監
視し、他のプロセッサに異常が生じた場合には、この異
常が生じたプロセッサをリセットする技術が記載されて
いる。
IIIでは、主系計算機から従系計算機に主記憶の内容を
複写する必要があるために、拡張ボード間に伝送容量の
大きい伝送路を設ける必要がある。このため、Netware
SFT IIIでは、主系計算機から従系計算機の間の拡張ボ
ード間の伝送路として光ファイバを用いている。しか
し、このような光ファイバなどの大容量の伝送路を用い
ることは、多重系システムの実現コストを非常に大きく
することにつながる。
では、共有ディスク装置を用いて、主系の計算機から従
系の計算機にデータを引き継ぐため、Netware SFT III
のように伝送容量の大きな伝送路を必要としない。
では、主系計算機の故障時に共有ディスク装置を従系計
算機で利用可能とするために、主系計算機の故障時にデ
ィスク装置を新たに従系計算機のファイルシステムに直
接組み込んでいる。ここで、PC用OSとして一般的な
WindowsNT、Windows95を使用したシ
ステムでは、ディスク装置をファイルシステムに組み込
むためには、OSの再起動が必要となる。
は、従系計算機をOS未ロードのまま待機させ、主系計
算機故障時に始めて、OSをロードし、共有ディスク装
置をファイルシステムに組み込んでいるが、このような
手法では、故障発生から従系計算機上での処理継続まで
に、数分程度の時間を必要とすることになる。
走、ファン異常、パリティエラーなど深刻度や回復の可
能性の程度が異なる多様な状況が存在する。したがっ
て、多重系システムにおいても、これら故障の程度を考
慮した適当な処置を行うことが望ましい。
を行うことのできる、実現コストの低い多重系システム
を提供することを目的とする。
て、計算機の故障状態に応じた故障時処理を行うことを
目的とする。
ディスク装置の交換を支援することを目的とする。
本発明は、たとえば、第1の計算機計算機と、第2の計
算機と、前記第1の計算機および第2の計算機に共有さ
れた共有外部記憶装置とを有し、当該主系に設定されて
いる計算機の障害時に、当該計算機が行っている処理
を、従系に設定されている計算機が引き継ぐ多重系シス
テムにおいて、主系に設定した第1の計算機上で前記共
有ディスク装置をファイルシステムに組み込んだオペレ
ーティングシステムと、前記共有外部記憶装置を用いな
がら業務処理を行うアプリケーションとを実行し、従系
に設定した第2の計算機において、前記共有ディスク装
置をファイルシステムに組み込んだオペレーティングシ
ステムと第1の計算機の状態を監視する管理プログラム
とを実行すると共に、前記共有外部記憶装置を用いなが
ら業務処理を行うアプリケーションをロードした状態で
保持し第2の計算機の管理プログラムが第1の計算機に
障害を検出した場合に、前記管理プログラムに規定され
た処理によって、第1計算機をリセットして第1計算機
を従系の計算機とすると共に、第2の計算機を主系の計
算機とし、第2の計算機において前記ロードしているア
プリケーションを起動し実行することを特徴とする多重
系システムの運用方法を提供する。
伝送路などのコストの高い伝送路を用いることなく、ま
た、従系の計算機を障害の発生後に起動したりすること
なく、共有ディスク装置を用いて高速に従系への処理の
引継を行うことができる。
たとえば、複数の計算機と、前記複数の計算機に共有さ
れた共有外部記憶装置とを有し、主系に設定されている
計算機である主系計算機の障害時に、当該主系計算機が
行っている処理を、従系に設定されている計算機である
従系計算機が引き継ぐ多重系システムであって、各計算
機は、当該計算機上のプロセスとは独立に動作する、相
互に伝送路を介して接続された機能拡張ボードを各々搭
載し、前記各機能拡張ボードは、障害が生じた他の計算
機に搭載された機能拡張ボードに単発リセット要求と継
続リセット要求のいづれか一方を選択的に前記伝送路を
介して送るリセット要求手段と、前記伝送路を介して他
の計算機に搭載された機能拡張ボードから単発リセット
要求を受け取った場合に、当該機能拡張ボードが搭載さ
れた計算機を瞬時リセットしリセットを解除し、前記伝
送路を介して他の計算機に搭載された機能拡張ボードか
ら継続リセット要求を受信した場合に継続してリセット
し続けるリセット手段とを有することを特徴とする多重
系システムを提供する。
性と思われる計算機の障害に対しては単発的なリセット
を、恒久的と思われる障害に対しては継続的なリセット
を行うなど、障害の程度に応じたリセット処理を行うこ
とができる。
たとえば、複数の計算機と、前記複数の計算機に共有さ
れた共有ディスク装置とを有し、主系に設定されている
計算機である主系計算機の障害時に、当該主系計算機が
行っている処理を、従系に設定されている計算機である
従系計算機が引き継ぐ多重系システムであって、前記共
有ディスク装置は、共有ディスク措置の状態を監視し、
監視している共有ディスク装置の状態を前記計算機に伝
える手段と、計算機から受け取った指示に応じて、共有
ディスク装置と前記各計算機との間の電気的接続を解除
する手段とを有することを特徴とする多重系システムを
提供する。
ディスク措置の故障時に、共有ディスク装置が電気的に
システムから孤立した状態において、システム全体を停
止などすることなく共有ディスク装置を交換することが
できる。
ムの実施形態について説明する。
構成を示す。
システムは、2台の計算機が1台の共有ディスク装置に
接続された、共有ディスク型の2重系システムである。
ただし、計算機数は3台以上とするようにしてもよい。
れぞれ、主系計算機、従系計算機を示している。ただ
し、従系計算機101は主系計算機となり得、また、主
系計算機100は従系計算機となり得る。
(CPU)110、主記憶装置111、入出力制御装置
(I/O)112を備え、これらは、CPUバス120
によって接続されている。
ク装置113や拡張ボードバス121が接続される。
拡張するための拡張ボードを接続するためのスロットに
接続したバスであり、本実施形態に係る計算機100、
101は、拡張ボードとして、SCSI(Small Comput
er System Interface)ボード114、Ethernetボード
116、SVP(Supervise Processor)ボードを備え
る。
はEthernet103に接続され、該ネットワークに接続さ
れた他の計算機などと通信を行う。本実施形態では、Et
hernet103には、プラント1000を管理、制御する
複数のコントローラ1010が接続されている。
ボード114は、SCSIケーブル160、161を介
して共有ディスク装置102に接続される。
ード115は、高信頼化制御ネットワーク104を介し
て接続される。各計算機100、101のSVPボード
は、概括的に言って以下の機能を持つ。
停止、メモリパリティエラーの履歴など、計算機の異常
状態に関するデータを記憶する。
て、高信頼化制御ネットワークを介して、メッセージを
別のSVPボードに転送する。
届いた場合、その種類に応じて以下のいずれかの処理を
行う。
合、接続された計算機に対してリセット信号を一度出力
する、 (b)メッセージが継続リセット命令の場合、接続され
た計算機に対してリセット信号を出力し続ける。
記憶している計算機の状態を要求元SVPボードに通知
する。
セージをそのまま管理プログラムに通知する。
クドライブ140が共有ディスク装置102の記憶媒体
でありSCSI規格に従って入出力を行うディスクドラ
イブ装置である。また、141は、各計算機に備えられ
ているものと同様のSVPボードである。また、共有デ
ィスク装置102内の、150〜153はMOSスイッ
チであり、154、155は終端抵抗である。
41は、概括的に言って、以下の機能を持つ。
合、例えば、ディスク装置内部の温度異常、ファン停止
などが発生した場合、これをメッセージとして、計算機
側のSVPボードに通知する。
切り替え命令を受信した場合、指定切り替えパターンに
したがって、ディスク装置内のMOSスイッチのON/
OFFを設定する。
て、主系計算機100、従系計算機101が正常な状態
では、主系計算機100の主記憶装置111には、OS
130、アプリケーション135、管理プログラム13
1がロードされ、実行されている。
1にはWindowsNT、Windows95、MS
−DOSなどのOS130と管理プログラム131がロー
ドされ、実行されている。また、従系計算機101にお
いて、アプリケーション135は、主記憶装置111に
ロードされているが実行はされていない。
ーション135、管理プログラム131はOS130上で
実行される。
ムの目的たる処理を行うプログラムであり、たとえば、
Ethernet103を介して各コントローラ1010から送
られるデータを処理したり記録したりする処理を行う。
調して2重系システムにおける主系計算機と従系計算機
の切替を行うプログラムである。
01のOS130は、MOSスイッチ150、153がO
N、MOSスイッチ151、152をOFFの状態で起
動され、いずれの計算機のOS130も、共有ディスク
装置102をファイルルシステムの一部として認識する
ようにしている。ここで、SCSIは、バス型のインタフェ
ースであり、その両端で終端抵抗により終端されている
必要がある。いま、MOSスイッチ150、153がO
N、MOSスイッチ151、152がOFFの状態で
は、主系計算機100のSCSIボード114内の終端
抵抗と、従系計算機101のSCSIボード114内の
終端抵抗によってSCSIのバスの両端が終端され、共
有ディスク装置102内の終端抵抗154、155はS
CSIのバスから切り離されている。
ード115の内部構成を示す。
PUバスとの入出力を担当する拡張ボードバスインタフ
ェース170、高信頼化制御ネットワーク104を介し
たメッセージ処理を行うネットワーク制御用プロセッサ
171、ネットワーク制御用プロセッサ171が実行す
るプログラムを格納したメモリ175、メッセージとネ
ットワーク上の電気信号との変換を行う伝送路インタフ
ェース172、メッセージと状態情報の一時格納用バッ
ファであるメッセージ記憶用メモリ173、電源電圧の
立ち上がりを検出してSVPボードの初期化信号を出力
する電源電圧検出回路174を備えている。
分けて、(1)初期化処理、(2)計算機状態監視処
理、(3)制御メッセージ送信処理、(4)制御メッセ
ージ受信処理がある。
計算機とは独立に動作して、故障などにより計算機がリ
セットされた場合でも、その故障状態などを記憶してお
く必要がある。このため、SVPボード115自体の初
期化処理は、計算機のリセットとは独立して行う。この
ために、SVPボードは、自分自身で、拡張ボードバス
121のスロットを介して供給される電源電圧を監視す
る電源電圧検出回路174を備えており、この電源電圧
検出回路174が電源電圧の立ち上がりを検出して、そ
の結果を示す初期化信号183、184を出力する。信
号線183、184は、拡張ボードバスインタフェース
170、ネットワーク制御用プロセッサ171に送ら
れ、各部に、メモリの0クリア、状態情報のクリア、ネ
ットワークのリセットなどの初期化処理を行わせる。
説明する。
を記憶する役割を有しており、信号線181を介して、
計算機電源異常、ファン稼動/停止、温度異常などを監
視し、その結果をメッセージ記憶用メモリ173に格納
する。本実施形態では、計算機電源異常、ファン稼動/
停止、温度異常などを検出する機能は計算機100、1
01自身に備えられており、検出結果が拡張バス121
のスロットを介してSVPボード115に通知されるもの
としている。
て説明する。
121を介して、拡張ボードバスインタフェース170
に、メッセージ送信要求を発する。拡張ボードバスイン
タフェース170は、送信すべきメッセージを一旦メッ
セージ記憶用メモリ173に格納する。この後、拡張ボ
ードバスインタフェース170は、ネットワーク制御用
プロセッサ171にメッセージの到着を知らせる。これ
を受けたネットワーク制御用プロセッサ171は、メッ
セージ記憶用メモリ173から送信すべきメッセージを
取り出して、伝送路インタフェース172に転送し、高
信頼化制御ネットワークを介して、高信頼化制御ネット
ワーク104上の他のSVPボードにメッセージを送信
させる。
3にデータを複写する理由は、拡張ボードバスと高信頼
化制御ネットワークのデータ転送速度がしばしば異なる
ため、速度緩衝用バッファとしてメッセージ記憶用メモ
リ173を使用しているのである。
ついて説明する。
5を介して、伝送路インタフェース172に制御メッセ
ージが転送され、これをネットワーク制御用プロセッサ
171が受信する。
受信したメッセージの種類に応じて以下の処理を行う。
れば、リセット信号線182を介してリセット信号を送
信し、計算機をリセットする。
記憶用メモリ173に格納されている計算機状態情報を
取り出して、状態通知命令として、状態確認命令送信元
SVPボードに制御メッセージを送信する。
の管理プログラムによって処理されるべき制御メッセー
ジ)であれば、それをメッセージ記憶用メモリ173に
格納する。メッセージ記憶用メモリ173に格納された
制御メッセージは、その後、計算機の管理プログラム1
31からの要求により、信号線181を介して随時読み
出される。
れる、拡張ボードバスインタフェース170、および、
ネットワーク制御用プロセッサ171の処理の詳細を説
明する。
0の行う処理の処理手順を示す。
計算機(拡張ボードバス)からの入出力要求を受けると
処理を開始する。すなわち、要求待ち状態191は、信
号線183からの初期化信号、信号線181からの読み
出し信号、書き込み信号の3種類の信号の受信によって
解除される。
るかを判定処理192で判断し、到来した要求が電源立
ち上げ時の初期化信号であると判断すれば、内部レジス
タ、回路の初期化処理を行う(処理193)。
あれば、他のSVPボードから到着した制御メッセージ
を計算機の管理プログラム131に通知しなければなら
ない。したがって、メッセージ記憶用メモリ173に格
納されている制御メッセージを取り出して(処理19
4)、これを信号線181によって、拡張ボードバス1
21に送信する(処理195)。
合には、書き込み信号が、計算機状態情報(電源異常、
ファン稼動/停止など)の通知であるか、制御メッセー
ジの送信であるかを判定し(処理196)、計算機状態
情報の通知の場合、該状態をメッセージ記憶用メモリに
格納しておく(処理197)。また、制御メッセージの
送信を行う場合、該制御メッセージを一旦メッセージ記
憶用メモリに格納しておき(処理198)、これをネッ
トワーク制御用プロセッサに伝送させる(処理199)
次に、図4に、ネットワーク制御用プロセッサ171の
行う処理の処理手順を示す。
処理では、信号線184からの初期化信号、拡張ボード
バスインタフェースからの起動要求、および、伝送路イ
ンタフェースからのメッセージ受信のいずれかのイベン
トの発生によってイベント待ち状態(処理201)が解除
され、次の処理に進む。すなわち、イベント待ち状態2
01でいずれかのイベントが発生すると、処理202で
イベントの種類を判定する。拡張ボードバスインタフェ
ースと同じく、電源立ち上げ時の初期化信号が与えられ
た場合には、通信処理を初期化して、到着している全て
のメッセージを破棄する(処理203)。
スインタフェースからの起動要求、すなわち、制御メッ
セージの送信要求であれば、送信すべき制御メッセージ
をメッセージ記憶用メモリから読み出して(処理20
4)、伝送路インタフェースに制御メッセージを伝送さ
せる(処理205)。
ージ受信イベントの発生は、他SVPボードからの制御
メッセージが到来したことを示している。この場合、受
信した制御メッセージの種類によって異なる処理を行
う。
06によって判定し、これが、強制リセット命令であれ
ば、信号線182を介して、自己の接続されている計算
機にリセット信号を送出する(処理207)。なお、強
制リセット命令には、単発リセット命令と継続リセット
命令の2種類が存在し、単発リセット命令の場合は計算
機に1度リセット信号(リセットパルス)を送出する。単
発リセットは、拡張ボードバス121上のリセット線を
瞬間的にローレベルとすることにより行う。
リセット信号を送信し続ける。継続リセットは、拡張ボ
ードバス121上のリセット線をローレベルに固定する
ことにより実現する。このようにすることにより、継続
リセット命令を受けたSVPボードに繋がる計算機を、
リセット状態(立ち上げ直後の状態)のままにしておく
ことができ、この計算機を実質上、システムから除去す
ることができる。なお、この場合も、この状態のまま、
SVPボードは独立に処理を続けることができる。
イレベルにすることにより、計算機をリセットするもの
もある。
命令である場合には、メッセージ記憶用メモリから計算
機状態情報を入手し(処理208)、これを状態通知メ
ッセージとして、メッセージ送信元SVPボードに送信
する(処理209)。
によって処理されるべきものであれば、単に、受信した
メッセージをメッセージ記憶用メモリに173格納する
(処理210)。
構成を図5に示しておく。
173に格納されるデータとしては、送信メッセージ、
受信メッセージ、並びに、計算機の状態情報がある。
3内に、送信メッセージ用待ち行列220、受信メッセ
ージ用待ち行列221、計算機状態テーブル222を設
ける。送信、および、受信メッセージ用待ち行列には、
それぞれ、送信すべき制御メッセージ、受信した制御メ
ッセージをFIFO(First-In First-Out)形式で格納
する。また、計算機状態テーブル222には、計算機の
状態、例えば、電源異常、ファン稼動/停止、温度異
常、パリティエラーなどを記憶する。
SVP115について説明した。
P141について説明する。
計算機101が正常な状態において、共有ディスク装置
102は両計算機100、101に接続されている。
化を考慮するならば、主系計算機100が故障/停止し
た場合に、従系計算機101を主系の計算機に切替えて
処理を引き継ぐのみならず、障害が生じた計算機100
をシステムから物理的に除去し、新たな計算機をシステ
ムに接続する(2重系を再構築する)ことを支援する必
要がある。そして、この間、正常に動作している従系計
算機101を停止させないようにすることが望ましい。
イッチ150〜153と終端抵抗154、155を設
け、いずれかの計算機がシステムから除去された場合で
も、MOSスイッチを切り替えることによりSCSI機
器がターミネートされるようにする。
153の切り替えのパターンを示す。前述したように、
2つの計算機いずれもが正常に動作している場合には、
aに示すようにMOSスイッチ150、153をONと
する。これにより、計算機100、101はそれぞれS
CSIケーブル160、161を介してディスクドライ
ブ140に接続される。また、同時に、MOSスイッチ
151、152をOFFとすることにより、ディスクド
ライブ140と終端抵抗154、155との接続を切り
離すことにより、計算機100のSCSIボード、ディ
スクドライブ140、計算機101のSCSIボードと
いう3つのSCSI機器の接続において、その両端機器
がターミネートする。
故障復旧のために計算機101を除去し、新たな計算機
を接続しようとする場合、計算機101側でターミネー
トされていたSCSIボード自体も除去されることにな
る。そこで、計算機101の除去に先立ち、図6cに示
すように、MOSスイッチ150、152をON状態に
し、151、153をOFF状態に変更する。これによ
り、図1に示す回路は、図7と同等の回路となる。すな
わち、SCSIケーブル160によって接続されるSC
SIボード114とSCSIディスクドライブ140
は、それぞれの機器の両端でターミネートされ、計算機
100が正常にSCSIディスクドライブ140の内部
を参照できるようになる。逆に計算機100が故障した
場合には、図6bに示すようにMOSスイッチ151、
153をON状態にし、150、152をOFF状態に
する。これにより、ディスクドライブ140を計算機1
01が正常に参照できるようになる。
体が故障するような場合には、図6dに示すように全て
のMOSスイッチ150〜153をOFF状態にしてか
ら、共有ディスク装置102を切り離せば、電気信号的
に切断された状態でディスクドライブなどの交換を行う
ことができる。
有ディスク装置102に備えたSVP141を利用して実
現される。
SVPボード141の構成を示す。
トワーク104に接続され、計算機のSVPボードと互
いにメッセージ通信を行う。伝送路インタフェース23
0は、ネットワーク上の電気信号243を制御メッセー
ジに変換して、ネットワーク制御用プロセッサ231に
送り、また、ネットワーク制御用プロセッサ231から
送られてきた制御メッセージを電気信号に変換して、高
信頼化制御ネットワークを介して送信する。
41には、計算機に接続されるSVPボード115と異
なり、メッセージ記憶用メモリが装備されない。これ
は、共有ディスク装置が制御メッセージを短期間に連続
して送受信することがないためである。
231が処理する制御メッセージは、基本的には、次の
2種類である。
信):ディスク状態を示す信号線242が、状態の変化
を通知してきた場合、これを制御メッセージとして、計
算機のSVPボード115に通知する。
信):ディスク装置内のMOSスイッチ150〜153
を切り替えるため、計算機のSVPボード115が送信
してくる制御メッセージである。この制御メッセージを
受信すると、制御メッセージの指定するパーターン(図
6のいずれか)に従って、MOSスイッチ150〜15
3を切り替えるようMOSスイッチ制御回路232に依
頼する。そして、MOSスイッチ制御回路232は、依
頼内容に応じて、各MOSスイッチのゲートに接続した信
号線244〜247への出力値を決定する。
されるSVPボード115と同様、電源電圧検出回路2
33を有する。電源電圧検出回路233は、ディスク装
置に与えられる電源電圧240を検出して、初期化処理
信号241を出力する。これにより、ネットワーク制御
用プロセッサ231の初期化処理を行われる。
伝送路インタフェース230は、計算機に接続されるS
VPボード115内の伝送路インタフェース172と同
一であってよい。また、ネットワーク制御用プロセッサ
231も、計算機に接続されるSVPボード115のネ
ットワーク制御プロセッサ171と同一であってよい
が、処理すべき制御メッセージが異なるため、ハードウ
ェア的には同一のプロセッサを使用しても、ネットワー
ク制御用プロセッサ231に実行させるためにメモリ2
34に格納するプログラムは異なるものとなる。
ード141のネットワーク制御用プロセッサ231が行
う処理の処理手順を示す。
ベント待ち状態251から次の処理に進めるイベントに
は、信号線241からの初期化信号の受信、ディスク状
態信号242における状態変化、伝送路インタフェース
230からのディスク切り替え命令メッセージ受信があ
り、これらのイベントが発生すると、処理252におい
てイベントの種類を判定する。
電源の立ち上がりを検出して、初期化信号を送信してき
たイベントである場合には、通信処理の初期化、既に受
信しているメッセージの破棄などを行って、SVPボー
ドの状態をリセットする(処理253)。
として伝えられた、ディスク装置内部の状態変化、例え
ば、ディスク装置の電源異常、ファン稼動/停止、温度
異常、ディスクドライブのハードウェアエラーなどであ
る場合には、ネットワーク制御用プロセッサ231は、
このイベントの示す状態変化の内容を認識し、認識した
内容をディスク状態通知メッセージとして、計算機のS
VPボード115に対して通知する(処理254)。た
だし、本実施形態では、共有ディスク装置102の電源
異常、ファン稼動/停止、温度異常などを検出する機能
はディスクドライブ140自身に備えられており、検出
結果がSVPボード141に信号線242を介して通知さ
れるものとしている。
Pボードから送信されたディスク切り替え命令メッセー
ジの受信である場合には、ディスク切り替え命令メッセ
ージの指定するパターン(図6a〜d)の設定に従ってMO
SスイッチのON/OFFを制御するよう、MOSスイ
ッチ制御回路232に依頼する(処理255)。
41を利用して、主系、従系の切替の処理を行う管理プ
ログラム131について説明する。
ては次の3つの処理がある。
通知するため、定期的にSVPボード115を介して、
生存通知信号を送信する。
御メッセージを受信し、処理を行う。たとえば、該制御
メッセージが生存通知信号であれば、その制御メッセー
ジ送信元の計算機が生存していることを認識する。ま
た、たとえば、ディスク状態通知メッセージであれば、
必要なディスク切り替え命令をSVPボード115を介
して共有ディスク装置102に送信する。
通知信号を受けなければ、その計算機が故障したと判断
して、その計算機の強制リセット、並びに、ディスク切
り替え処理を行わせる。故障した他の計算機が主系計算
機であれば、従系計算機である自計算機を主系に移行さ
せる。また、従系計算機の主系への切り替えを行う際
に、共有ディスク装置102から主記憶装置111内に
読み出していたデータを無効化し、データの一貫性を保
つ。
する。
成を示す。
処理に対応する3つのタスク260〜262から構成さ
れる。
自分自身が正常に動作していることを、SVPボード1
15を介して他計算機に通知することである。このた
め、一定周期でSVPボードに対して、生存通知メッセ
ージ270の送信を依頼する。受信処理タスク261
は、他計算機のSVPボード115が送信した生存通知
信号、および、共有ディスク装置102のSVPボード
141が送信したディスク状態通知メッセージ271を
受信する。生存通知送信処理タスク260と同様、受信
処理タスク261は、一定周期で起動され、SVPボー
ド115内のメッセージ記憶用メモリ173に格納され
ている制御メッセージを取り出す。
以上、他の計算機からの生存通知メッセージが到着しな
い場合、その計算機が故障したと判断し、故障処理タス
ク262に、計算機の強制リセット、ディスク切り替え
などを依頼する。また、ディスク状態通知メッセージを
受信した場合には、共有ディスク装置102の異常発生
(若しくは、故障からの復旧)が起こったことになるの
で、ディスク切り替え命令276を発行して、ディスク
装置内のMOSスイッチのON/OFF状態を変更す
る。
行う。
ト命令を送信する(処理272)。この際、必要に応じ
て、計算機の故障状態を確認する計算機状態確認命令を
送信し、故障計算機の状態を入手する。ここで、故障
が、パリティエラーなど一過性のものであると判断した
場合には、単発リセット命令を選択する。また、電源異
常のような重大故障の場合や一過性故障が複数回続いた
場合には、強制リセット命令として、継続リセット命令
を選択する。
令として送信した場合、故障計算機の除去を前提とする
ものであるから、続いて、ディスク切り替えメッセージ
を送信する。このディスク切替メッセージでは、自己の
計算機と共有ディスク装置102が互いにSCSI接続
の両端となってターミネートされるように、ディスク切
り替えパターンを指定する。これにより、故障した計算
機を除去しても、その影響を受けることなく、自己の計
算機が共有ディスク装置を参照することができる。
102の内容の一部275を主記憶装置内111に複写
したディスクキャッシュ263を備え、通常のディスク
参照をディスクキャッシュ263に対して行わせること
により、処理の効率向上を図っている。故障処理タスク
262は、主系計算機が故障し、従系計算機を主系に移
行する直前に、ディスクキャッシュ263を無効化させ
る。ディスクキャッシュ263は、通常、OSの管理下
にあるため、OS130に対して無効化に関する一連の
処理依頼273を行って、ディスクキャッシュ263の
無効化を実施させることになる。
ある。すなわち、共有ディスク装置102の内容が、そ
れに接続されるいずれの計算機の主記憶装置にもディス
クキャッシュとして複写されることがある。このため、
主系計算機側で共有ディスク装置の内容を変更したとし
ても、従系計算機側でディスクキャッシュ263内に対
応するデータを所有していれば、従系計算機を主系に移
行した場合、変更された共有ディスク装置102の内容
を参照せずに、変更されていないディスクキャッシュ
(複写)を参照してしまうことになる。例えば、図11
に示すように、計算機100、101、および、共有デ
ィスク装置102から構成されるシステムにおいて、計
算機100が主系計算機であり、計算機101が従系計
算機であるとする。そして、共有ディスク装置102内
のデータ本体290に対して、そのディスクキャッシュ
263が主系計算機上に、ディスクキャッシュ291が
従系計算機上に存在するものとする。ここで、主系計算
機100上で動作するアプリケーション280が処理を
実行中、共有ディスク装置102上のデータ290を書
き換えたとする(300)。この時点で、計算機100
が故障して、計算機101が主系計算機となり、アプリ
ケーション280が計算機101上で処理を再開する
と、既に共有ディスク装置102のデータ290に対応
するデータがディスクキャッシュ291が計算機101
上に存在するので、ディスクキャッシュに対してデータ
の参照(301)を行おうとする。しかし、先に処理3
00で書き換えられたたデータが、まだ、ディスクキャ
ッシュ291に反映されていない場合には、処理301
で参照したデータは正しい値ではない。
照することを防ぐために、このため、従系計算機は、主
系に移行する直前に、そのディスクキャッシュを無効化
するのである。
通知送信処理タスク260、受信処理タスク261、故
障処理タスク262の行う処理の詳細について説明す
る。
260において行う処理の処理手順を示す。
生存通知を他計算機に対して通知するだけである。すな
わち、生存通知信号をSVPボードを介して別計算機に
送信し(処理311)、予め定められた時間だけ待ち状
態に移行する(処理312)処理を繰り返す。
行う処理の処理手順を示す。
は、生存通知信号とディスク状態通知メッセージの受信
を周期的に行う。
ージの受信を調べ(処理322)、処理323におい
て、実際にディスク状態通知が到来しているかどうかを
判定する。ディスク状態通知メッセージが到着してお
り、ディスク状態通知メッセージが共有ディスク装置の
故障を示している場合、共有ディスク装置102内のM
OSスイッチ150〜153を全てOFFの状態(図6
のdのパターンの設定)に変更するためのディスク切り替
え命令を(SVPボード115を介して)送信する。ディス
ク状態通知メッセージが共有ディスク装置102の故障
からの復旧を示している場合には、逆に、MOSスイッ
チイッチ150〜153を共有ディスク装置102が正
常な場合の設定(図6のa,b,cのパターンの設定のいずれ
か)に変更するディスク切り替え命令を送信することに
なる(処理324)。
5を行うが、受信処理タスク261では、一定時間以上
生存通知を受信しない場合に、故障処理タスク262を
起動しなければならない。そこで、このための制御変数
として、「通知待ち回数」を用いる。また、この予め初
期化処理として、「通知待ち回数」をN回に設定してい
る(処理321)。
他計算機から生存通知信号が到着しているか否かを調べ
る(処理326)。そして、生存通知信号が到着してい
れば、再び、「通知待ち回数」をN回に初期化し(処理
327)、予め定められた時間だけ待ち(処理32
8)、処理322に戻る。一方、処理326で、生存通
知信号が到着していないと判断した場合には、「通知待
ち回数」の値を1減少させ(処理329)、この変数の
値をチェックする(処理330)。そして、「通知待ち
回数」の値が0であれば、「N×生存通知受信間隔」で
計算される時間、生存通知信号を他の計算機から受信し
ていないことになるるので、故障処理タスクを起動させ
る(処理331)。処理327でチェックした値が0で
ない場合には、定められた時間だけ待って(処理32
8)、処理322に戻る。
り、高信頼化制御ネットワークなどにおける一過性通信
エラーに対処することができる。また、図1に示したよ
うに、主系計算機100と従系計算機101が2つのネ
ットワーク(Ethernet、高信頼化制御ネットワーク)で
結ばれている場合、両ネットワークで生存通知信号を送
信するようにすれば、一方のネットワークの通信エラー
に耐えうるようにすることができる。ただし、Ethernet
などの一般に用いられるネットワークで、強制リセット
命令やディスク切り替えメッセージを処理することは信
頼性の面から適切ではないので、これらの制御メッセー
ジは、高信頼化制御ネットワークでのみ転送するように
することが望ましい。
う処理の処理手順を示す。
障計算機の状態を確認する命令を故障計算機のSVP115に
送信し、計算機の故障状態の通知を受ける(処理34
2)。
の程度を判定し、故障計算機の強制リセットの方式を決
定する。計算機故障が一過性のものであれば、正常状態
への復帰を期待して単発リセット命令を送信して(処理
344)、故障計算機を再起動してみる。計算機故障が
永久故障や一過性故障が何回も連続している場合、継続
リセット命令を送信し(処理345)、故障計算機の影
響が波及しないようにシステムから切り離す。
続けてディスク切り替え命令(MOSスイッチ150〜15
3を図6bもしくはcのパターンの設定にする命令)を送信
し(処理346)、共有ディスク装置102を故障計算
機から切り離す。これによって、故障計算機をシステム
から取り除いても、共有ディスク装置の参照を正常に行
うことができる。
計算機には必ず継続リセットさせるといった方式を採用
することも可能である。
り、自計算機が待機中の従系計算機である場合、自計算
機を主系に移行させ、故障計算機上で動作していた処理
を継続させることが必要となるので、まず、自計算機が
待機中であるか否かを判定し(処理347)、待機計算
機であった場合、ディスクキャッシュを無効化し(処理
348)、あらかじめ主記憶装置111にロードしてお
いたアプリケーション135を実行させ、自分計算機を
主系へ移行させる(処理349)。
ついて説明したが、もし、OS130が、ディスクキャ
ッシュの無効化処理をシステムサービスとして提供しな
い場合には、図14の処理348の代わりに、図14の
処理350〜353を行うようにすればよい。
自体をロックし(処理350)、自管理プログラム13
1以外のディスク参照を排除する。そして、一旦、共有
ディスク装置102の論理的な接続解除(アンマウン
ト)を行う(処理351)。これにより、共有ディスク
装置102に対応するディスクキャッシュの内容が無効
化されることになる。そこで、処理352により共有デ
ィスク装置を論理的に接続(マウント)し、最後に、共
有ディスク装置102アンロックして自管理プログラム
131による占有状態を解除する(処理353)。
がそのディスク装置を参照しようとすると、自動的に該
ディスク装置がマウントされる。
ンマウントできる。
な場合は、処理350〜353のうちいずれかを省略す
ることもできる。例えば、上記(1)の特徴をOSが持つ
場合は処理352を、(2)の特徴をOSが持つ場合は処
理350、353を省略することができる。
一実施形態について説明したが、最後に、高信頼化制御
ネットワーク104を介して送信するメッセージを図1
5にまとめて示しておく。図15には、メッセージの種
類、送信元、最終受信者とその処理内容を示した。
ムはOSの一部として備えるようにしてもよい。
なPCを用いて、高信頼な多重系システムを構築するこ
とができる。この多重系システムは、SVPボード、高
信頼化制御ネットワーク、管理プログラムから構成され
るが、アプリケーションは、これらの構成要素を意識す
ることない。従って、アプリケーションは従来と同様の
ものを用いることができる。
用いることにより、計算機間で主記憶のコピーを行う多
重系システムより非常に低コストでシステムを構築で
き、また、高速な主系/従系の切替を行うことができ
る。
いては単発のリセット、再起動による復帰を試み、故障
が永久的であると思われる場合にのみ継続リセットによ
り、その故障の生じた計算機を実質的に無効化するとい
うように、故障の程度に応じた処理を行うことができ
る。
ら分離することにより、システムを停止などすることな
く故障した装置の交換を行うことを可能としている。
故障時の引継ぎを行うことのできる、実現コストの低い
多重系システムを提供することができる。
故障状態に応じた故障時処理を行うことができる。
装置の交換を支援することができる。
る。
ロック図である。
理手順を示したフローチャートである。
制御用プロセッサの行う処理の処理手順を示したフロー
チャートである。
である。
えのパターンを示す図である。
な計算機システムの構成を示す図である。
構成を示したブロック図である。
ットワーク制御用プロセッサの行う処理の処理手順を示
したフローチャートである。
る。
る。
順を示したフローチャートである。
たフローチャートである。
たフローチャートである。
るメッセージの一覧を示した図である。
103…ネットワーク、104…高信頼化制御ネットワ
ーク、110…中央処理装置、111…主記憶装置、1
12…入出力制御装置、113…ディスク装置、114
…SCSIボード、115…計算機用SVPボード、1
16…Ethernetボード、130…OS、131…管理プ
ログラム、140…ディスクドライブ、141…共有デ
ィスク装置用SVPボード、150〜153…MOSス
イッチ、154、155…終端抵抗、160、161…
SCSIケーブル、170…拡張ボードバスインタフェ
ース、171、231…ネットワーク制御用プロセッ
サ、172、230…伝送路インタフェース、173…
メッセージ記憶用メモリ、174、233…電源電圧検
出回路、232…MOSスイッチ制御回路、260…生
存通知送信処理タスク、261…受信処理タスク、26
2…故障処理タスク、263、291…ディスクキャッ
シュ
Claims (8)
- 【請求項1】複数の計算機と、前記複数の計算機に共有
された共有外部記憶装置とを有し、主系に設定されてい
る計算機である主系計算機の障害時に、当該主系計算機
が行っている処理を、従系に設定されている計算機であ
る従系計算機が引き継ぐ多重系システムであって、 各計算機は、当該計算機上のプロセスとは独立に動作す
る、相互に伝送路を介して接続された機能拡張ボードを
各々搭載し、 前記各機能拡張ボードは、 障害が生じた他の計算機に搭載された機能拡張ボードに
単発リセット要求と継続リセット要求のいづれか一方を
選択的に前記伝送路を介して送るリセット要求手段と、 前記伝送路を介して他の計算機に搭載された機能拡張ボ
ードから単発リセット要求を受け取った場合に、当該機
能拡張ボードが搭載された計算機を瞬時リセットしリセ
ットを解除し、前記伝送路を介して他の計算機に搭載さ
れた機能拡張ボードから継続リセット要求を受信した場
合に継続してリセットし続けるリセット手段とを有する
ことを特徴とする多重系システム。 - 【請求項2】請求項1記載の多重系システムであって、 前記各計算機は、当該計算機上のプロセスとして動作す
る管理手段を備え、 前記各機能拡張ボードは、 当該機能拡張ボードが搭載された計算機の状態を監視
し、監視している計算機の状態を他の機能拡張ボードに
前記伝送路を介して伝える手段と、 他の計算機から伝えられた他の計算機の状態を、当該機
能拡張ボードが搭載された計算機の管理手段に通知する
手段とを備え、 前記管理手段は、他の計算機の障害時に、機能拡張ボー
ドから通知された他の計算機の状態に応じて、単発リセ
ット要求もしくは継続リセット要求の一方を選択して機
能拡張ボードに渡し、 前記機能拡張ボードのリセット要求手段は、前記管理手
段から渡された単発リセット要求もしくは継続リセット
要求を障害が生じた他の計算機に搭載された機能拡張ボ
ードに送ることを特徴とする多重系計算機。 - 【請求項3】複数の計算機と、前記複数の計算機に共有
された共有ディスク装置とを有し、主系に設定されてい
る計算機である主系計算機の障害時に、当該主系計算機
が行っている処理を、従系に設定されている計算機であ
る従系計算機が引き継ぐ多重系システムであって、 各計算機は、前記共有ディスク装置用のディスクキャッ
シュを各々有し、 前記従系計算機は、主系計算機が行っている処理を引き
継ぐ際に当該引き継ぎに先だって、ディスクキャッシュ
の内容を無効化する処理を行う無効化手段を有すること
を特徴とする多重系システム。 - 【請求項4】請求項3記載の多重系システムであって、 前記無効化手段は、前記共有ディスク装置の論理的接続
を一旦解除(アンマウント)することによりディスクキャ
ッシュの内容を無効化することを特徴とする多重系シス
テム。 - 【請求項5】複数の計算機と、前記複数の計算機に共有
された共有ディスク装置とを有し、主系に設定されてい
る計算機である主系計算機の障害時に、当該主系計算機
が行っている処理を、従系に設定されている計算機であ
る従系計算機が引き継ぐ多重系システムであって、 前記共有ディスク装置は、共有ディスク装置の状態を監
視し、監視している共有ディスク装置の状態を前記計算
機に伝える手段と、 計算機から受け取った指示に応じて、共有ディスク装置
と前記各計算機との間の電気的接続を解除する手段とを
有することを特徴とする多重系システム。 - 【請求項6】複数の計算機と、前記複数の計算機に共有
された共有ディスク装置とを有し、主系に設定されてい
る計算機である主系計算機の障害時に、当該主系計算機
が行っている処理を、従系に設定されている計算機であ
る従系計算機が引き継ぐ多重系システムであって、 前記各計算機は、他の計算機の障害を検出した際に、当
該他の計算機との間の電気的接続を解除するよう前記共
有ディスク装置に指示する手段を備え、 前記共有ディスク装置は、各計算機との間の電気的接続
の各々を解除すスイッチと、 前記計算機からの指示に応じて、前記スイッチを制御
し、障害が生じた計算機との間の電気的接続を解除する
制御手段とを有することを特徴とする多重系システム。 - 【請求項7】第1の計算機と第2の計算機と、前記第1
の計算機と第2の計算機とに共有された共有ディスク装
置とを有し、第1の計算機と第2の計算機との内、主系
に設定されている計算機である主系計算機の障害時に、
当該主系計算機が行っている処理を、他方の従系に設定
されている計算機である従系計算機が引き継ぐ多重系シ
ステムであって、 前記第1の計算機と共有ディスク装置と第2の計算機と
は、前記第1の計算機、共有ディスク装置、第2の計算
機の順序でバス形式の伝送路によってディジーチェイン
接続されており、 前記第1の計算機および第2の計算機は、他方の計算機
の障害を検出した際に、当該他方の計算機との間の電気
的接続を解除するよう前記共有ディスク装置に指示する
手段を備え、 前記共有ディスク装置は、 第1の計算機との間の伝送路を電気的に切り離す第1の
スイッチと、 第2の計算機との間の伝送路を電気的に切り離す第2の
スイッチと、 前記伝送路を終端するための終端抵抗と、 前記終端抵抗を第1の各計算機との間の伝送路に代えて
接続するための第3のスイッチと、 前記終端抵抗を第2の各計算機との間の伝送路に代えて
接続するための第4のスイッチと前記第1の計算機もし
くは第2の計算機からの指示に応じて、前記第1のスイ
ッチもしくは第2のスイッチを制御して前記障害が生じ
た計算機との間の伝送路を電気的に切り離すと共に、前
記第3のスイッチもしくは第4のスイッチを制御して切
り離した伝送路に代えて前記終端抵抗との間の電気的接
続を確立することを特徴とする多重系システム。 - 【請求項8】第1の計算機計算機と、第2の計算機と、
前記第1の計算機および第2の計算機に共有された共有
外部記憶装置とを有し、当該主系に設定されている計算
機の障害時に、当該計算機が行っている処理を、従系に
設定されている計算機が引き継ぐ多重系システムにおい
て、 主系に設定した第1の計算機上で前記共有外部記憶装置
をファイルシステムに組み込んだオペレーティングシス
テムと、前記共有外部記憶装置を用いながら業務処理を
行うアプリケーションとを実行し、従系に設定した第2
の計算機において、前記共有外部記憶装置をファイルシ
ステムに組み込んだオペレーティングシステムと第1の
計算機の状態を監視する管理プログラムとを実行すると
共に、前記共有外部記憶装置を用いながら業務処理を行
うアプリケーションをロードした状態で保持し、 第2の計算機の管理プログラムが第1の計算機に障害を
検出した場合に、前記管理プログラムに規定された処理
によって、第1計算機をリセットして第1計算機を従系
の計算機とすると共に、第2の計算機を主系の計算機と
し、第2の計算機において前記ロードしているアプリケ
ーションを起動し実行することを特徴とする多重系シス
テムの運用方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP00653897A JP3537281B2 (ja) | 1997-01-17 | 1997-01-17 | 共有ディスク型多重系システム |
TW086118700A TW454128B (en) | 1997-01-17 | 1997-12-11 | Shared disk type multiple system |
US09/001,224 US6138248A (en) | 1997-01-17 | 1997-12-30 | Common disk unit multi-computer system |
CNB98103988XA CN1160638C (zh) | 1997-01-17 | 1998-01-13 | 多计算机系统及其控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP00653897A JP3537281B2 (ja) | 1997-01-17 | 1997-01-17 | 共有ディスク型多重系システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10207855A true JPH10207855A (ja) | 1998-08-07 |
JP3537281B2 JP3537281B2 (ja) | 2004-06-14 |
Family
ID=11641134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP00653897A Expired - Lifetime JP3537281B2 (ja) | 1997-01-17 | 1997-01-17 | 共有ディスク型多重系システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US6138248A (ja) |
JP (1) | JP3537281B2 (ja) |
CN (1) | CN1160638C (ja) |
TW (1) | TW454128B (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002259355A (ja) * | 2001-02-28 | 2002-09-13 | Hitachi Ltd | 多重系システム |
US7467322B2 (en) | 2005-04-04 | 2008-12-16 | Hitachi, Ltd. | Failover method in a cluster computer system |
JP2009181597A (ja) * | 2009-05-21 | 2009-08-13 | Hitachi Ltd | クラスタ構成コンピュータシステムの排他制御方法 |
JP2010244129A (ja) * | 2009-04-01 | 2010-10-28 | Hitachi Ltd | 計算機システム |
JP2010282326A (ja) * | 2009-06-03 | 2010-12-16 | Nec Corp | 情報処理システム、情報処理システムの障害対応機構、及び情報処理システムの障害対応方法 |
JP2012155744A (ja) * | 2012-04-13 | 2012-08-16 | Hitachi Ltd | クラスタ構成コンピュータシステムの排他制御方法 |
US10025682B2 (en) | 2015-06-01 | 2018-07-17 | Fujitsu Limited | Control system and processing method thereof |
JP2022070769A (ja) * | 2020-10-27 | 2022-05-13 | 株式会社日立製作所 | クラスタシステム、クラスタシステムのフェイルオーバー制御方法 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6397270B1 (en) * | 1999-01-05 | 2002-05-28 | Agere Systems Guardian Corp. | System for indirect communication between two computers, each having write access to its own portion of a dual-access disk drive and read access to the entire drive |
JP3651353B2 (ja) * | 2000-04-04 | 2005-05-25 | 日本電気株式会社 | デジタルコンテンツ再生システム及びデジタルコンテンツ配信システム |
JP4155399B2 (ja) * | 2003-03-28 | 2008-09-24 | 株式会社日立製作所 | コンピュータ処理方法及びその実施システム並びにその処理プログラム |
JP4353005B2 (ja) * | 2004-06-29 | 2009-10-28 | 株式会社日立製作所 | クラスタ構成コンピュータシステムの系切替方法 |
US20070079032A1 (en) * | 2005-09-30 | 2007-04-05 | Intel Corporation | Serial signal ordering in serial general purpose input output (SGPIO) |
US20070277012A1 (en) * | 2006-05-23 | 2007-11-29 | Hitachi, Ltd. | Method and apparatus for managing backup data and journal |
US7761657B2 (en) * | 2006-07-10 | 2010-07-20 | Hitachi, Ltd. | Storage control system, control method for storage control system, port selector, and controller |
CN102694542B (zh) * | 2012-05-09 | 2016-12-07 | 北京华大信安科技有限公司 | 信号隔离方法、装置及芯片 |
US20140195672A1 (en) * | 2013-01-09 | 2014-07-10 | Microsoft Corporation | Automated failure handling through isolation |
US10621031B2 (en) * | 2017-06-15 | 2020-04-14 | Smart Embedded Computing, Inc. | Daisy-chain of safety systems |
CN108804288B (zh) * | 2018-05-31 | 2021-07-16 | 联想(北京)有限公司 | 一种信息处理装置、方法及电子设备 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5815651A (en) * | 1991-10-17 | 1998-09-29 | Digital Equipment Corporation | Method and apparatus for CPU failure recovery in symmetric multi-processing systems |
US5361267A (en) * | 1992-04-24 | 1994-11-01 | Digital Equipment Corporation | Scheme for error handling in a computer system |
US5471609A (en) * | 1992-09-22 | 1995-11-28 | International Business Machines Corporation | Method for identifying a system holding a `Reserve` |
US5689689A (en) * | 1992-12-17 | 1997-11-18 | Tandem Computers Incorporated | Clock circuits for synchronized processor systems having clock generator circuit with a voltage control oscillator producing a clock signal synchronous with a master clock signal |
US5812757A (en) * | 1993-10-08 | 1998-09-22 | Mitsubishi Denki Kabushiki Kaisha | Processing board, a computer, and a fault recovery method for the computer |
US5440726A (en) * | 1994-06-22 | 1995-08-08 | At&T Corp. | Progressive retry method and apparatus having reusable software modules for software failure recovery in multi-process message-passing applications |
US5530946A (en) * | 1994-10-28 | 1996-06-25 | Dell Usa, L.P. | Processor failure detection and recovery circuit in a dual processor computer system and method of operation thereof |
US5627962A (en) * | 1994-12-30 | 1997-05-06 | Compaq Computer Corporation | Circuit for reassigning the power-on processor in a multiprocessing system |
JP3196004B2 (ja) * | 1995-03-23 | 2001-08-06 | 株式会社日立製作所 | 障害回復処理方法 |
US5805785A (en) * | 1996-02-27 | 1998-09-08 | International Business Machines Corporation | Method for monitoring and recovery of subsystems in a distributed/clustered system |
US5884018A (en) * | 1997-01-28 | 1999-03-16 | Tandem Computers Incorporated | Method and apparatus for distributed agreement on processor membership in a multi-processor system |
-
1997
- 1997-01-17 JP JP00653897A patent/JP3537281B2/ja not_active Expired - Lifetime
- 1997-12-11 TW TW086118700A patent/TW454128B/zh not_active IP Right Cessation
- 1997-12-30 US US09/001,224 patent/US6138248A/en not_active Expired - Lifetime
-
1998
- 1998-01-13 CN CNB98103988XA patent/CN1160638C/zh not_active Expired - Fee Related
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002259355A (ja) * | 2001-02-28 | 2002-09-13 | Hitachi Ltd | 多重系システム |
US7467322B2 (en) | 2005-04-04 | 2008-12-16 | Hitachi, Ltd. | Failover method in a cluster computer system |
JP2010244129A (ja) * | 2009-04-01 | 2010-10-28 | Hitachi Ltd | 計算機システム |
JP2009181597A (ja) * | 2009-05-21 | 2009-08-13 | Hitachi Ltd | クラスタ構成コンピュータシステムの排他制御方法 |
JP2010282326A (ja) * | 2009-06-03 | 2010-12-16 | Nec Corp | 情報処理システム、情報処理システムの障害対応機構、及び情報処理システムの障害対応方法 |
JP2012155744A (ja) * | 2012-04-13 | 2012-08-16 | Hitachi Ltd | クラスタ構成コンピュータシステムの排他制御方法 |
US10025682B2 (en) | 2015-06-01 | 2018-07-17 | Fujitsu Limited | Control system and processing method thereof |
JP2022070769A (ja) * | 2020-10-27 | 2022-05-13 | 株式会社日立製作所 | クラスタシステム、クラスタシステムのフェイルオーバー制御方法 |
Also Published As
Publication number | Publication date |
---|---|
CN1160638C (zh) | 2004-08-04 |
CN1188935A (zh) | 1998-07-29 |
US6138248A (en) | 2000-10-24 |
TW454128B (en) | 2001-09-11 |
JP3537281B2 (ja) | 2004-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3537281B2 (ja) | 共有ディスク型多重系システム | |
US5784617A (en) | Resource-capability-based method and system for handling service processor requests | |
US6260158B1 (en) | System and method for fail-over data transport | |
KR100358663B1 (ko) | 클러스터 노드 디스트레스 신호 | |
JP4572250B2 (ja) | 計算機切り替え方法、計算機切り替えプログラム及び計算機システム | |
JP5561622B2 (ja) | 多重化システム、データ通信カード、状態異常検出方法、及びプログラム | |
US20050080887A1 (en) | Redundant management control arbitration system | |
JPH08287021A (ja) | 共用メモリに結合される複数の計算機システム及び共用メモリに結合される複数の計算機システムの制御方法 | |
JP2001306349A (ja) | バックアップ装置及びバックアップ方法 | |
JP2004021556A (ja) | 記憶制御装置およびその制御方法 | |
JP2000010739A (ja) | クラスタリング通報方法およびシステム | |
WO1999026138A1 (fr) | Procede de permutation dans un systeme multiplex | |
JP3765198B2 (ja) | 計算機システム | |
CN113535471A (zh) | 集群服务器 | |
JP3465637B2 (ja) | サーバ及びその制御方法 | |
KR960010879B1 (ko) | 공통의 버스 자원을 공유한 다수 프로세서의 버스 이중화 제어 및 버스 이상 상태 발생시 복구 처리방법 | |
JP2000148525A (ja) | サービスプロセッサ二重化システムの現用系負荷軽減方法 | |
JP3363579B2 (ja) | 監視装置及び監視システム | |
CN118132471A (zh) | 一种硬盘控制方法、装置 | |
JP2815730B2 (ja) | アダプタ及びコンピュータシステム | |
JP3260435B2 (ja) | 情報通信システム | |
JP6127039B2 (ja) | クラスタシステムにおけるクラスタ処理の方法及び装置、及びシステム | |
JP2004341982A (ja) | 記憶制御装置の保守管理方式 | |
CN113535472A (zh) | 集群服务器 | |
JP2000057017A (ja) | 遠隔管理モジュール及びそれを用いた遠隔管理機能付コンピュータ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040113 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040309 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040316 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090326 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090326 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100326 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110326 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110326 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120326 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130326 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130326 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140326 Year of fee payment: 10 |
|
EXPY | Cancellation because of completion of term |