JP3118855B2 - マルチプロセッサシステム - Google Patents
マルチプロセッサシステムInfo
- Publication number
- JP3118855B2 JP3118855B2 JP03077571A JP7757191A JP3118855B2 JP 3118855 B2 JP3118855 B2 JP 3118855B2 JP 03077571 A JP03077571 A JP 03077571A JP 7757191 A JP7757191 A JP 7757191A JP 3118855 B2 JP3118855 B2 JP 3118855B2
- Authority
- JP
- Japan
- Prior art keywords
- supervisor
- program
- online
- operation management
- failure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5077—Logical partitioning of resources; Management or configuration of virtualized resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/202—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
- G06F11/2023—Failover techniques
- G06F11/2025—Failover techniques using centralised failover control functionality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/22—Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
- G06F11/26—Functional testing
- G06F11/273—Tester hardware, i.e. output processing circuits
- G06F11/2736—Tester hardware, i.e. output processing circuits using a dedicated service processor for test
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/202—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Multi Processors (AREA)
- Hardware Redundancy (AREA)
Description
に於いて、高性能を実現する為の超多重のマルチプロセ
ッサシステムに関するものである。
コンピュータのダウンサイジングが呼ばれている中で、
大規模オンラインシステムにおける大規模データベース
サーバに対する需要は依然として根強いものがある。
体素子の高集積化、高速化の要素技術はめざましい進展
をとげているが、これらの素子を使って装置として作り
上げる為の生産技術、実装技術面の壁があり、単一プロ
セッサで命令処理速度を上げるには限界に近づいて来て
いる。従って現在と比べて飛躍的に超高速のオンライン
システムを実現する為には、マルチプロセッサ構成の道
しかないのが現状である。マルチプロセッサ構成による
高性能システムを実現する場合、従来次の方式があっ
た。
やす。
00)は、CPU(1901)1台と、運用管理端末(1902)1
台などから構成されている。図でMSは主記憶装置、I
Pは命令処理装置、IOPは入出力処理装置を示す。こ
れに対して、拡大システム(1910)は、CPU2台(191
1,1921)、運用管理端末2台(1912,1922)、及び通信回
線等の手段によるCPU間連絡装置(1913,1923)などか
ら構成される。本方式は要求能力に従ってこれらの台数
を増やしていくことができる。このような拡大システム
では、1CPU内のソフトウェア構成はどのCPUも同
じであるが、CPU台数増に伴い相互の通信オーバヘッ
ド、運用の煩雑さが問題になる。
数を増やす。
に、拡大システム(2010)はいわゆる密結合のマルチプロ
セッサシステム(TCMP)である。本方式では旧システ
ム(2000)と拡大システム(2010)とで、運用管理端末
(2002)の数が等しいため、運用の煩雑さは回避でき
る。
せば、増やす程、一般的にハード/ソフトの性能劣化が
増加し、多重度に見合った性能を引き出せない問題が内
在している。これらについて以下説明する。
示す。CPUは、主記憶装置2110,システム制御装
置2120,入出力処理装置2130,キャッシユメモ
リ2140,命令処理装置2150から構成される。命
令実行の原理的な動作を述べると、主記憶装置内211
0に記憶されている命令群は、システム制御装置212
0を介して実行時に高速のキャッシュメモリ2140に
いったん転送され、命令の実行はキャッシュメモリ21
40と命令処理装置2150間で行なわれる。既に実行
しようとする命令がキャッシュメモリ2140内に存在
する場合は、命令が高速に実行される。入出力処理装置
2130は外部記憶装置のデータをシステム制御装置2
120を介して主記憶装置2110への出し入れを行う
ものである。
252をもつマルチプロセッサ構成の中央処理装置を示
す。命令実行の原理は図21に示す場合と同じである
が、複数命令処理装置をもつ構成の場合、次のような複
数命令処理装置(2251,2251)間で主記憶装置2110を
アクセスするための待時間が増大する。次にそれぞれの
命令処理装置(2251,2252)が命令を実行する際にそれぞ
れのキャッシュメモリ(2140)に主記憶装置2110か
ら当該命令群を転送してから実行するが、同一の主記憶
装置領域内の命令を実行し、その主記憶装置領域内を更
新しようとする場合、それぞれのキャッシュメモリ(21
40)の内容を同一にして命令の実行を進める必要があ
り、そのための時間が命令実行速度を互いに低下させる
要因になる。さらに入出力処理装置2130をとおして主記
憶装置2110へ出し入れするデータの量が多くなると、シ
ステム制御装置2120のスループットを阻害し、結果的に
複数の命令処理装置(2251,2252)間で主記憶
装置2110をアクセスするための待時間がさらに増大し、
命令実行速度を低下させる。これは主記憶装置2110に対
するアクセス頻度が増大すればするほど、命令処理装置
の数が増えれば増えるほど、ますます加速されることに
なる。
トウェア構成を示す。システムは、スーパバイザ2370、
オンラインコントロールプログラム2360およびアプリケ
ーションプログラム空間2301〜2350から構成される。図
23ではアプリケーションプログラムを50多重動作さ
せるためにアプリケーションプログラム空間を50空間
用意した例である。
構成で動作させた場合、主記憶装置内の同一テーブルを
複数命令処理装置が同時更新すると矛盾を来すような個
所は、ロック制御により同時には1台の命令処理装置し
か更新できなくすることが必要である。これは、スーパ
バイザ2370、オンラインコントロールプログラム2
360それぞれに必要であり、命令処理装置の台数が増
えれば増えるほどロック制御にかかるオーバヘッド及び
ロック解除を待つ時間が増大し、ソフトウェア性能をま
すます劣化させる。さらに命令処理装置の台数を増加さ
せ、高いシステム性能を引き出そうとすれば、自ずとシ
ステムの規模は大規模なものとなり、スーパバイザ23
70、オンラインコントロールプログラム2360内の
制御テーブルのエントリ数も増大し、制御テーブルをサ
ーチするためのオーバヘッドも増大し、ソフトウェア性
能をますます劣化させる結果となる。
は、たとえば特開昭61−210470号公報などがあ
る。
テムのトランザクション処理能力を拡大したいという要
求に対応するためには、CPUのプロセッサ多重度をあ
げる方法と、CPU台数を増やす方法とがあるが、それ
ぞれ次の点で解決すべき課題がある。
クション処理能力の拡大を図った場合、CPU台数分だ
け運用管理端末が必要になり、運用の一元化の妨げとな
るばかりでなく、要員増によるコストアップになる。
せる方法 運用の一元化は保たれるが、プロセッサ数の拡大に伴い
従来技術の項で述べたとおり、ハードウェア、ソフトウ
ェア両面からシステムのボトルネックが発生し、多重度
の効果があがらなくなる。すなわち、ハードウェア面か
らは主記憶装置に対するアクセスの競合、ソフトウェア
面からは同一のリソースに対するロックの競合が発生す
る。
ある。
数の命令処理装置が独立的に割当てられる少なくとも1
つのスーパバイザと、別の命令処理装置が独立的に割当
てられこれらスーパバイザの起動/停止と障害監視を行
なう運用管理スーパバイザと、このような運用管理スー
パバイザとスーパバイザとの間の通信を行なうために独
立した命令処理装置間を接続する伝送路とを有するマル
チプロセッサシステムを特徴とする。
のソフトウェアの劣化を回避出来るとともに、運用の一
元化を保持できる。また、マルチプロセッサシステムで
のハードウェア劣化を回避出来るので従来技術の課題を
解決することが出来る。
明する。
で可能なマルチプロセッサシステムでのソフトウェア構
成である。命令処理装置の多重度の少ないマルチプロセ
ッサシステムでは、スーパバイザ(SPV)、オンライン
コントロールプログラム(OCP)のロック制御によるオ
ーバヘッドの増加、ロック解除待時間の増加、システム
の規模の増大によるオーバヘッドの増加によるソフトウ
ェア性能劣化が少なく、システム性能を極端に低下させ
ることはなく実用に耐え得る。しかしコントロールプロ
グラムのロック制御にも限界があり、一般的にスーパバ
イザよりもオンラインコントロールプログラムのロック
制御の限界が先にくるが、その場合には図1の102の
ソフトウェア構成をとり、オンラインコントロールプロ
グラムを複数立上げマルチオンライン構成として、オン
ラインコントロールプログラムのロック制御の限界を回
避することが可能である。図でON1,ON2は2つの
オンラインシステムが存在することを示す。しかし、こ
の構成ではスーパバイザのロック制御の限界を回避する
ことは不可能である。
す。命令処理装置の多重度の多い超多重マルチプロセッ
サシステムでは、スーパバイザも複数立上げたマルチオ
ンライン構成とする。複数立上げたスーパバイザ以下を
統括的に制御し、システムの運用を一元的に制御できる
運用管理スーパバイザを設ける。
で可能なマルチプロセッサシステムでの命令処理装置と
ソフトウェア構成との割り付けを示す(図1の101、
102と図2の201,202と各々対応づけられ
る)。図2の割り付け202の方式をそのままで命令処
理装置の台数を増やして行くと、オンラインコントロー
ルプログラム以下は、複数の命令処理装置群に分散して
割り付けられる為、ハードウェア性能の劣化は一定の値
に抑えられるが、スーパバイザは全ての命令処理装置を
使用する為、命令処理装置の数が増えれば増える程ハー
ドウェア性能の劣化は加速されることになる。
令処理装置(IP)との割り付け方式を示す。割り付け
の例として、運用管理スーパバイザにIP0〜1、通常
のスーパバイザ1〜4に各々IP2〜9,IP10〜1
7,IP18〜25,IP26〜33,オンライン1〜
8に各々IP2〜5,IP6〜9,IP10〜13,I
P14〜17,IP18〜21,IP22〜25,IP
26〜29,IP30〜33のように割当て動作させ
る。このように運用管理スーパバイザと通常のスーパバ
イザとはそれぞれ別のIP群に割当てられる。
されるマルチプロセッサについて、現用システム301
と予備システム302とを設け、現用システムから予備
システムへまたはその逆へ切替る方式の概念を示すもの
である。一点鎖線はソフトウェア構成要素に割り付ける
ハードウェア資源の大きさを示す。4つのオンラインシ
ステムに割り付けるハードウェア資源は現用から予備に
切替ると縮退する状態を示す。現用系、予備系各々にロ
ードされている運用管理スーパバイザは各々に自系複数
オンラインシステムの一括起動/終了、自系オンライン
システムの監視と他系のバックアップ機への自動切替表
示、他系オンラインシステムの監視と自系のバックアッ
プ機への自動切替指示、自系オンライン/他系オンライ
ンの状態表示、各自系オンラインのエラー表示、コマン
ド指示/表示の機能をもつ。これによりシステム運用の
一元管理が可能である。
備系のハードウェア構成401,501および命令処理
装置とソフトウェアのマッピング402,502を示
す。ハードウェア構成401、501の様にハードウェ
ア資源をグループ分けし、マッピング402、502の
様に各IPにソフトウェアをマッピングする。図5のハ
ードウェア構成501で示すマルチプロセッサシステム
は予備系として使用されるが、図4のハードウェア構成
401で示す現用系と比べ、命令処理装置台数の少ない
小規模なマルチプロセッサシステムを構成することが可
能である。この例では、システムの最繁時間帯に於いて
も処理能力を落さずに同時に2つのオンライン、すなわ
ちON1およびON2またはON3およびON4のバッ
クアップが可能なハードウェア構成である。通常時間帯
では、最繁時間帯と比べ一般に1/2〜1/3のデータ
量となるので、ほとんどの時間帯ではマッピング502
に示すように4つのオンラインシステムのバアックアッ
プが可能となり、経済的なシステムを構築することがで
きる。この時ハードウェアには、主記憶装置、命令処理
装置、入出力処理装置間のハードウェア構成制御、命令
処理装置/主記憶装置/入出力処理装置障害時の縮退処
理、一元的にシステムの運用が可能な大形システムコン
ソール機能を具備する必要がある。
セッサシステムをLAN(ローカル・エリア・ネットワ
ーク)を介して接続したハードウェア構成図である。現
用系のハードウェア構成401および予備系のハードウ
ェア構成501は超高速のLAN601を介して接続さ
れ、現用系、予備系各々の運用管理スーパバイザは自系
のオンラインシステムと疎結合される。
ANに限定されるものではなく、各要素間を流れるシス
テム運用にかかわるデ−タ量を転送できる通信媒体であ
ればよい。
ンラインシステムに適用した例を示す。銀行オンライン
システムは、営業店毎に独立している部分が大きいた
め、営業店群単位にシステムを分割することが可能であ
る。現用のマルチプロセッサシステム(710)は、現
用の運用管理スーパバイザ(711)、現用のスーパバ
イザ(712,714)、現用のオンライン(713,
715)から構成される。オンライン713、715は
それぞれ営業店760、770で発生したトランザクシ
ョンを処理する。予備マルチプロセッサシステム(73
0)も同様に構成されるが、マルチプロセッサを縮少し
た構成のため予備のスーパバイザ(732)1つのみ動
作する。オンライン733、734はそれぞれオンライ
ン713、715の予備である。マルチプロセッサシス
テム710と730とは、LAN(601)にノード
(721〜729,740〜741)を介して接続され
ている。営業店760,770の端末(762,77
2)は、営業店の端末制御装置(761,771)、ネ
ットワーク網(705)および通信制御装置(704)
を経由し、ノード(742)によってLAN601に接
続されている。
伝送されるメッセージのヘッダを示す。ネットワーク網
内メッセージ(810)中にネットワーク網内ヘッダ
(811)が設定される。ヘッダ811は通信制御装置
704および端末制御装置761、771で各々設定さ
れるかあるいは削除される。このため通信制御装置70
4および端末制御装置761、771内には、各々図9
に示すネットワーク網内アドレス管理テーブルが設定さ
れる。テーブルは、相手の装置に対応するネットワーク
網内アドレスを示しており、ヘッダ811にはこのアド
レスが設定される。 LAN内メッセージ(820)中
にLAN内ヘッダ(821)が設定される。ヘッダ82
1は、通信制御装置704、運用管理スーパバイザ71
1、スーパバイザ712、714、運用管理スーパバイ
ザ731およびスーパバイザ732で各々設定されるか
あるいは削除される。このため、それぞれの装置内には
図10で示すLAN内アドレス管理テーブルが設定され
る。テーブルは、相手のノードに対応するLAN内アド
レスを示しており、ヘッダ821にはこのアドレスが設
定される。
713へのメッセージの流れを次に示す。図7の端末7
62から入力されたメッセージは、端末制御装置761
でまとめられ、図8に示すヘッダ811を付加され、ネ
ットワーク網705に送られる。ネットワーク網705
では、ヘッダ811に従いメッセージを通信制御装置7
04に渡す。通信制御装置704では、ヘッダ821を
付加し、LAN601に送る。LAN601では、ヘッ
ダ821に従い、スーパバイザ712にメッセージを渡
す。スーパバイザ712はさらにオンライン713まで
メッセージを送る。オンライン713から端末762に
メッセージを送る場合は上記の逆のルートを経由する。
次の様になる。図11にオンラインアドレス管理テーブ
ルを示す。オンライン713からオンライン715にメ
ッセージ送信が必要な場合、オンライン715が、現用
のスーパバイザ712、714中に定義しているアドレ
ス15で送信要求をする。スーパバイザ712ではアド
レス管理テーブルを参照することによってアドレス15
がスーパバイザ714にあると分かるため、スーパバイ
ザ714に送信するためノード721又は722を選択
する。選択は利用率が片寄らないアルゴリズムによって
行なう。スーパバイザ712は図10に示すLANアド
レス管理テーブルに従いLANアドレス21または22
をもつヘッダ821を付加し、ノード721または72
2に送信する。ノード721または722はメッセージ
をスーパバイザ714に送り、スーパバイザ714はこ
れをオンライン715に送る。なお通信制御装置704
の台数は、必要に応じて増設可能である。
理スーパバイザ711を例に図12〜16を用いて説明
する。
ーブルの構成を示すものである。1201は自系スーパ
バイザテーブルであり、ステータスのRは稼動中を示
す。稼動中のスーパバイザに障害を検出すると、Rをた
とえばFに変更する。アドレスはLAN内アドレスであ
る。1202は他系テーブルであり、ステータスおよび
アドレスは自系スーパバイザテーブル1201と同様で
ある。1203はオンラインに関するテーブルであり、
ステータスのRは稼動中、Bは予備用(バックアップ)と
して待機している状態を示す。バックアップチェーンは
そのオンラインが障害になったとき交代するオンライン
を示す。所属はそのオンラインが制御を受ける運用管理
スーパバイザを示す。
体の運用を管理するためにマルチプロセッサシステム7
10の初期設定/終了処理を司る。運用管理スーパバイ
ザ711は自系スーパバイザテーブル(1201)を参照し
て初期設定コマンド投入時、スーパバイザのステータス
を確認し、起動されていないスーパバイザの初期設定I
PLを行う。また、終了処理コマンドが投入されると、
同様にステータスを確認し、動作中のスーパバイザに対
して停止要求を行う。
6を用いて説明する。便宜上、運用管理スーパバイザ7
11、スーパバイザ712および運用管理スーパバイザ
731の間でのメッセージの送信を例にとる。図13
(a)は、運用管理スーパバイザ711がスーパバイザ7
12および運用管理スーパバイザ731との間でメッセ
ージのやりとりをするとき使用する連絡エリア1301
〜1308を示すものである。各連絡エリアはそれぞれ
のスーパバイザが直接アクセスできる主記憶装置上に確
保される。
スーパバイザ間で送受信されるメッセージの形式を示す
ものである。1311はメッセージの発信元を示す種別
コードであり、発信元が運用管理スーパバイザであるか
自系のスーパバイザであるかを示すコードである。13
12は同一送信先に対する送信メッセージの順序を示す
通番であり、1313はメッセージが指令/連絡か応答
かを示すメッセージコードであり、1314はこのメッ
セージが伝える指令/連絡の内容である。なお図13
(b)に示すメッセージにLANヘッダ821が付されL
AN内メッセージ820としてLAN601内を伝送さ
れる。
理を図14に示す。送信処理はタイマ登録(ステップ14
04)により定期的に起動される。起動後一定時間経過し
てもスーパバイザ712や運用管理スーパバイザ731
からの応答が来ていないときはタイムアウトとし(ステ
ップ1401)、スーパバイザ712または運用管理スーパ
バイザ731の障害と判断し、タイムアウト処理を行う
(ステップ1402)。通常時は送信処理を行い(ステップ14
03)、再度次の契機のためのタイマ登録を行う(ステップ
1404)。
ーパバイザ731の障害を検出したとき、テーブル12
02上の運用管理スーパバイザ731ステータスをRか
らFに変更し、運用管理端末に障害の表示をする。運用
管理スーパバイザ731が運用管理スーパバイザ711
の障害を検出したとき、テーブル1202上の運用管理
スーパバイザ711ステータスをRからFに変更し、テ
ーブル1203上のオンライン713,715ステータ
スをRからFに変更し、スーパバイザ732を起動す
る。スーパバイザ732が起動したらテーブル1201
上のスーパバイザ732ステータスをBからRに変更す
る。次に運用管理スーパバイザ731は、スーパバイザ
732に対しオンライン733および734を起動する
よう指令を送り、オンライン733,734が起動した
らテーブル1203上のオンライン733,734ステ
ータスをBからRに変更する。
図15に示す。メッセージ受信時は1312の通番チェ
ックを行い(1501)、エラー時はエラー処理(1502)を行
う。正常時はメッセージコード1313をチェックし
(1502)、特に指令がない場合は、正常応答だけを返す
(1506)。オンラインジョブを起動するときなど特別な
指令がある場合は、それを処理する(1503)。指令が正
常に内部処理された場合(1504Y)、正常応答(1506)を作
成し、エラー時はエラー応答(1505)を作成する。オンラ
イン障害等、連絡すべきメッセージがあれば(1508Y)、
メッセージを作成する(1509)。すなわち管理下にある
オンラインシステム、たとえばオンライン713に障害
を検出しているときには、その旨の連絡をもつメッセー
ジを作成し、運用管理スーパバイザ711に連絡する。
運用管理スーパバイザ711はテーブル1203上のオ
ンライン713ステータスをRからFに変更し、オンラ
イン713のバックアップ先であるオンライン733を
起動するため、オンライン733が所属している運用管
理スーパバイザ731にその旨連絡する。オンライン7
33が起動されたら、テーブル1203上のオンライン
733ステータスはBからRに変更される。
理を図16に示す。メッセージ受信後(1601)、種別コ
ード(1311)のチェックを行い、運用管理スーパバイザ
731からのものか、自系のスーパバイザ712のもの
かを判断する(1602)。運用管理スーパバイザからの場
合、通番(1312)のチェック(1603)を行い、エラー時はエ
ラー処理(1609)、正常時はメッセジコード(1313)をチ
ェックし(1604)、前回送信メッセージに対して応答が
あれば、リターンコードをチェックする(1605)。エラ
ー時はエラー処理をする(1606)。次に指令/連絡の有
無をチェックし(1607)、ある場合、指令/連絡の内容
(1314)を処理(1608)する。なお自系スーパバイザ71
2の場合も同様の処理の流れとなる。一方運用管理スー
パバイザ731の受信処理の流れも図に示す通りであ
る。運用管理スーパバイザ731が他系のオンラインシ
ステム、たとえばオンライン713の障害という連絡を
受けたときには、テーブル1203上のオンライン71
3ステータスをRからFに変更し、オンライン713の
バックアップ先であるオンライン733を起動するた
め、スーパバイザ732に指令を送る。以後オンライン
733の状態はスーパバイザ732を介して運用管理ス
ーパバイザ731が監視し、運用管理スーパバイザ71
1に連絡されるので、運用管理スーパバイザ711の運
用管理端末によって一元的にすべてのオンラインの状態
を把握することができる。
ンライン障害時は、運用管理スーパバイザがこれを検知
し、予備系のマルチプロセッサシステム(730)の予
備運用管理スーパバイザ(731)に報告する。運用管
理スーパバイザ731は、予備のスーパバイザ732に
指示し、必要な予備のオンラインを現用として起動す
る。
1は相互に監視をしており、例えば、マルチプロセッサ
システム710全体が障害時には、運用管理スーパバイ
ザ731がこれを検知してスーパバイザ732に指示を
出し、オンライン733、734を現用に切り替える。
害により予備のオンライン733または734に切り替
わった場合、端末からのメッセージは予備系のオンライ
ンシステムに送られる必要がある。これは次のとおり実
現できる。例えば図7のオンライン713が障害の時、
オンライン733から切替メッセージが端末制御装置7
61に宛ててスーパバイザ732、LAN601、通信
制御装置704およびネットワーク網705を経由して
送信される。端末制御装置761は図17に示す現用オ
ンライン管理テーブル1701をもっており、オンライ
ン733からのメッセージにより、図17(a)の状態
から図17(b)の状態に切り替わる。これにより、以
降メッセージヘッダのアドレス部には、733が入るこ
とになり、予備系のマルチプロセッサシステム730に
送ることが可能になる。
種類は、営業店と現用オンラインとの間、現用オンライ
ン間、運用管理スーパバイザの監視メッサージである
が、いずれも要求側と処理側が1対1に対応しており、
LAN601内メッセージ数は極力小さくし、LAN6
01がシステムボトルネックになることを防ぐ必要があ
る。
ま、マルチプロセッサシステム性能の向上が可能であ
る。
ンが増加しても一元的に運用管理が可能になる。
マルチプロセッサシステムのシステム性能の比較例を示
す。図でMP/UP比は同じ台数の命令処理装置で構成
されたマルチプロセッサシステムのユニットプロセッサ
システムに対する性能比である。横軸に命令処理装置の
多重度、縦軸にマルチプロセッサシステム性能比を示
す。曲線1801は従来のマルチプロセッサシステム
で、命令処理装置を増加させていった場合のマルチプロ
セッサ性能比を示す。スーパバイザのロック制御の限
界、マルチプロセッサハード性能劣化増加により、いく
ら多重度を上げても一定の値以下のシステム性能しか出
ない状態に陥ることを示している。曲線1802は本発
明のマルチプロセッサを適用した場合のシステム性能の
向上傾向を示している。この場合、複数オンライン間の
干渉が少なければ少ない程、高いシステム性能が得られ
るが、たとえ干渉があっても、複数オンラインを互いに
干渉が少ないように業務を分けるとか、オンラインを地
域別に分ける等により従来より飛躍的にシステム性能が
引き出せるマルチプロセッサシステムの実現が可能であ
る。
図である。
ア構成とのマッピング例を示す図である。
の概念を示す図である。
グの例を示す図である。
グの例を示す図である。
ムをLANを介して接続するハードウェア構成図であ
る。
用する例を示すシステム構成図である。
ージの形式を示す図である。
を示す図である。
図である。
す図である。
式を示す図である。
絡エリアとメッセージ構成とを示す図である。
ローチャートである。
フローチャートである。
フローチャートである。
成例を示す図である。
る。
上を示す構成図である。
成図である。
を説明するためのブロック図である。
作を説明するためのブロック図である。
すブロック図である。
イザ 712,714,732:スーパバイザ 7
13,715,733,734:オンライン
Claims (4)
- 【請求項1】トランザクション処理を行うオンラインプ
ログラム及び当該オンライントランザクションプログラ
ムを制御するスーパバイザプログラムが動作する第1の
プロセッサと、前記スーパバイザプログラムの起動処理
と前記スーパバイザプログラムに関する障害監視とを行
う運用管理スーパバイザプログラムが動作する第2のプ
ロセッサと、前記オンラインプログラムに代わってトラ
ンザクション処理を行う予備オンラインプログラム及び
当該予備オンラインプログラムを制御する予備スーパバ
イザプログラムが動作する第3のプロセッサと、前記予
備スーパバイザプログラムの起動処理と前記予備スーパ
バイザプログラムに関する障害監視とを行う予備運用管
理スーパバイザプログラムが動作する第4のプロセッサ
とを有し、前記運用管理スーパバイザプログラムは、更
に前記予備スーパバイザプログラムに関する障害監視を
行い、前記予備スーパバイザプログラムは、更に前記運
用管理スーパバイザプログラムに関する障害監視を行う
ことを特徴とするマルチプロセッサシステム。 - 【請求項2】前記運用管理スーパバイザプログラムは、
前記スーパバイザプログラムに関する障害を検知したと
きに前記予備管理スーパバイザプログラムに障害を通知
することを特徴とする請求項1記載のマルチプロセッサ
システム。 - 【請求項3】前記スーパバイザプログラムは、前記オン
ラインプログラムの障害監視を行い、障害を検知すると
障害の発生を前記運用管理スーパバイザプログラムに通
知し、当該運用管理スーパバイザプログラムは、前記通
知を受けて障害の発生を前記予備運用管理スーパバイザ
に通知することを特徴とする請求項1記載のマルチプロ
セッサシステム。 - 【請求項4】前記予備運用管理スーパバイザプログラム
は、前記運用管理スーパバイザプログラムに関する障害
の発生を検知したときに前記予備スーパバイザプログラ
ムを起動し、当該予備スーパバイザプログラムにより前
記予備オンラインプログラム を起動してトランザクショ
ン処理を開始することを特徴とする請求項1記載のマル
チプロセッサシステム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP03077571A JP3118855B2 (ja) | 1991-04-10 | 1991-04-10 | マルチプロセッサシステム |
US07/865,330 US5692119A (en) | 1991-04-10 | 1992-04-08 | Management method for a multiprocessor system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP03077571A JP3118855B2 (ja) | 1991-04-10 | 1991-04-10 | マルチプロセッサシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04311251A JPH04311251A (ja) | 1992-11-04 |
JP3118855B2 true JP3118855B2 (ja) | 2000-12-18 |
Family
ID=13637698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP03077571A Expired - Lifetime JP3118855B2 (ja) | 1991-04-10 | 1991-04-10 | マルチプロセッサシステム |
Country Status (2)
Country | Link |
---|---|
US (1) | US5692119A (ja) |
JP (1) | JP3118855B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101366775B1 (ko) * | 2012-04-03 | 2014-02-24 | 국방과학연구소 | 컴퓨터 시스템의 고장방지 장치 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3555047B2 (ja) * | 1995-12-20 | 2004-08-18 | 株式会社日立製作所 | 複合コンピュータシステム |
US5991518A (en) * | 1997-01-28 | 1999-11-23 | Tandem Computers Incorporated | Method and apparatus for split-brain avoidance in a multi-processor system |
US6038677A (en) * | 1997-03-31 | 2000-03-14 | International Business Machines Corporation | Automatic resource group formation and maintenance in a high availability cluster configuration |
US6553403B1 (en) * | 1998-06-03 | 2003-04-22 | International Business Machines Corporation | System, method and computer program product for monitoring in a distributed computing environment |
US6549932B1 (en) * | 1998-06-03 | 2003-04-15 | International Business Machines Corporation | System, method and computer program product for discovery in a distributed computing environment |
US6460070B1 (en) * | 1998-06-03 | 2002-10-01 | International Business Machines Corporation | Mobile agents for fault diagnosis and correction in a distributed computer environment |
US7133942B2 (en) * | 2001-12-07 | 2006-11-07 | International Business Machines Corporation | Sequence-preserving multiprocessing system with multimode TDM buffer |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4149243A (en) * | 1977-10-20 | 1979-04-10 | International Business Machines Corporation | Distributed control architecture with post and wait logic |
US4608631A (en) * | 1982-09-03 | 1986-08-26 | Sequoia Systems, Inc. | Modular computer system |
US4484273A (en) * | 1982-09-03 | 1984-11-20 | Sequoia Systems, Inc. | Modular computer system |
US5023779A (en) * | 1982-09-21 | 1991-06-11 | Xerox Corporation | Distributed processing environment fault isolation |
JP2539352B2 (ja) * | 1984-06-20 | 1996-10-02 | 株式会社日立製作所 | 階層型多重計算機システム |
US4918589A (en) * | 1985-10-31 | 1990-04-17 | Allen-Bradley Company, Inc. | Method and apparatus for linking processors in a hierarchical control system |
US4831518A (en) * | 1986-08-26 | 1989-05-16 | Bull Hn Information Systems Inc. | Multiprocessor interrupt rerouting mechanism |
US4807228A (en) * | 1987-03-18 | 1989-02-21 | American Telephone And Telegraph Company, At&T Bell Laboratories | Method of spare capacity use for fault detection in a multiprocessor system |
US5291489A (en) * | 1987-11-13 | 1994-03-01 | Dsc Communications Corporation | Interprocessor switching network |
JPH0746322B2 (ja) * | 1988-05-23 | 1995-05-17 | 日本電気株式会社 | 障害装置特定システム |
US5274809A (en) * | 1988-05-26 | 1993-12-28 | Hitachi, Ltd. | Task execution control method for a multiprocessor system with enhanced post/wait procedure |
-
1991
- 1991-04-10 JP JP03077571A patent/JP3118855B2/ja not_active Expired - Lifetime
-
1992
- 1992-04-08 US US07/865,330 patent/US5692119A/en not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101366775B1 (ko) * | 2012-04-03 | 2014-02-24 | 국방과학연구소 | 컴퓨터 시스템의 고장방지 장치 |
Also Published As
Publication number | Publication date |
---|---|
JPH04311251A (ja) | 1992-11-04 |
US5692119A (en) | 1997-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5784617A (en) | Resource-capability-based method and system for handling service processor requests | |
US7185096B2 (en) | System and method for cluster-sensitive sticky load balancing | |
US5621884A (en) | Distributed data access system including a plurality of database access processors with one-for-N redundancy | |
JP3266481B2 (ja) | クラスタ化コンピューティング・システムのディスク・アクセス・パスにおける障害から回復する方法および関連する装置 | |
US8032786B2 (en) | Information-processing equipment and system therefor with switching control for switchover operation | |
JP4712279B2 (ja) | 拡張可能コンピューティングシステムの制御方法および装置 | |
US20050262508A1 (en) | Computer system and a method for controlling a computer system | |
JP2007172334A (ja) | 並列型演算システムの冗長性を確保するための方法、システム、およびプログラム | |
JP3118855B2 (ja) | マルチプロセッサシステム | |
CN113515408A (zh) | 一种数据容灾方法、装置、设备及介质 | |
JP2001509289A (ja) | 分散型遠隔通信スイッチ内の通信及びプロセス管理のためのシステム及び方法 | |
WO2006005251A1 (fr) | Procede et systeme de realisation de la fonction de commutation dans un systeme de communication | |
JP3490002B2 (ja) | マルチクラスタシステムを構成する計算機 | |
JP2002055840A (ja) | 冗長構成切替システム | |
JPH1069467A (ja) | 分散計算機システムにおけるサーバのデータアクセス方式 | |
US7646705B2 (en) | Minimizing data loss chances during controller switching | |
JP2000244526A (ja) | 多重化したネットワーク接続装置システム | |
JP3213016B2 (ja) | 多重化要素制御方式 | |
JP3176945B2 (ja) | 情報処理装置、待機冗長型システムおよび待機冗長型システムの主系と待機系との間でチェックポイントをとる方法 | |
JPH08190528A (ja) | システム管理装置 | |
JP2885583B2 (ja) | 通信手順制御システム | |
JPH07311748A (ja) | 分散データベースシステムの障害回復方式 | |
JP2000105710A (ja) | 分散処理装置 | |
JP2001103052A (ja) | ネットワーク管理システム | |
CN116107707A (zh) | 一种数据基础引擎平台及使用方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071013 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081013 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091013 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091013 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101013 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111013 Year of fee payment: 11 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111013 Year of fee payment: 11 |