JP3866426B2 - クラスタ計算機におけるメモリ障害処理方法及びクラスタ計算機 - Google Patents

クラスタ計算機におけるメモリ障害処理方法及びクラスタ計算機 Download PDF

Info

Publication number
JP3866426B2
JP3866426B2 JP33017598A JP33017598A JP3866426B2 JP 3866426 B2 JP3866426 B2 JP 3866426B2 JP 33017598 A JP33017598 A JP 33017598A JP 33017598 A JP33017598 A JP 33017598A JP 3866426 B2 JP3866426 B2 JP 3866426B2
Authority
JP
Japan
Prior art keywords
node
memory
failure
communication area
shared communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP33017598A
Other languages
English (en)
Other versions
JP2000148704A (ja
Inventor
浩子 中曽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP33017598A priority Critical patent/JP3866426B2/ja
Priority to US09/433,238 priority patent/US6782492B1/en
Publication of JP2000148704A publication Critical patent/JP2000148704A/ja
Application granted granted Critical
Publication of JP3866426B2 publication Critical patent/JP3866426B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0793Remedial or corrective actions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0706Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
    • G06F11/0709Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment in a distributed system consisting of a plurality of standalone computer nodes, e.g. clusters, client-server systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multi Processors (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は並列計算機における障害処理技術に関し、特にクラスタ計算機におけるメモリ障害処理技術に関する。
【0002】
【従来の技術】
並列計算機の一種に、少なくとも1つのプロセッサ及びメモリを含む複数のノードを、クロスバ網などの高速な相互結合網によって互いに接続したクラスタ計算機がある。クラスタ計算機の利点の1つは価格性能比に優れていることである。例えば個々のノードとして廉価だが処理能力の高いワークステーションを使用した場合、大型計算機をはるかに凌ぐ価格性能比が得られる。また他の利点は、共有メモリを物理的に1箇所に集中配置する集中共有メモリ型の並列計算機に比べ、システム規模の拡大が容易なことである。更に他の利点は、各々のノードはそれ専用のオペレーティングシステムの制御の下に1つの計算機として独立している為、異なるジョブをクラスタ計算機を構成する別々のノードで実行させたり、1つのジョブを並列プログラムとして同時に複数のノードで実行させたりするなど、多用なジョブ処理形態を取り得ることである。なお、このようなクラスタ計算機に関する文献としては、例えば特開平8−305677号公報がある。
【0003】
またクラスタ計算機は、共有メモリを物理的に1箇所に集中配置するのではなくノード単位ごとにローカルメモリとして分散配置した分散共有メモリ型並列計算機ではあるが、共有メモリ型計算機の一種であるため、プロセッサ間通信モデルは共有メモリモデルに従う。つまり、各ノードのプロセッサは通常のメモリアクセス操作によりアドレス指定で直接的に共有メモリをアクセスすることで、ノード間の通信を実現する。具体的には、自ノードで発生したメモリアクセス要求が自ノードに実装されたメモリに対するアクセスであるときは、自ノードのメモリにメモリアクセス要求が転送され、アクセス結果がメモリアクセス元に通知される。他方、自ノードで発生したメモリアクセス要求が他ノードに実装されたメモリに対するアクセスであるときは、相互結合網を通じて他ノードにメモリアクセス要求が転送されて他ノードにおいてメモリがアクセスされ、そのアクセス結果が相互結合網を通じて要求元のノードに戻され、そして、メモリアクセス元に通知される。
【0004】
【発明が解決しようとする課題】
クラスタ計算機を構成する各ノード内のメモリには、そのノードで実行されるオペレーティングシステムや各種アプリケーションプログラムなど破壊されてはならない重要な情報が格納される。そのため、信頼性を高めるためにECC(Error Checking and Correction)機能を搭載したメモリが使われる。例えば32bitにつき7bitの修正用ビットを付加したハミング(Hamming)符号では、1bitの誤りを修正できる。
【0005】
このような誤り訂正機能を搭載したメモリに対して或るノードがメモリアクセスを行った際、1bit誤りであれば自動的に修正されてメモリアクセスは正常終了するが、2ビット誤りであれば訂正不可能な誤りとしてメモリアクセスは異常終了し、訂正不可能な異常終了がメモリアクセス結果として返却される。計算機を構成する主記憶であるメモリに訂正不可能な誤りが発生したというハードウェア障害は、極めて重度の高い障害であるため、従来のクラスタ計算機では一般の計算機と同様に、メモリアクセス結果として訂正不可能な異常終了を受け取ったノードにおいて、システム停止障害通知を発生し、そのノードで実行中の全てのプログラムを終了し、システムを停止していた。
【0006】
従って、各ノード間の通信のために各ノードのメモリ上に設定されている共有通信エリアに訂正不可能な誤りが発生すると、その共有通信エリアをアクセスしたノードは、たとえアクセス先が他ノードに実装されているメモリであってもシステムダウンしてしまう。各ノードは本来独立して動作可能なことがクラスタ計算機の特徴の1つであるため、自ノードに実装されていないメモリに訂正不可能な障害が発生した場合に、その箇所をアクセスしただけで自ノードがシステムダウンしてしまう事態は、クラスタ計算機の可用性(availability)を著しく低下させる要因となる。
【0007】
そこで本発明の第1の目的は、他ノードに実装されたメモリの共有通信エリアで発生した訂正不可能な障害によって、その共有通信エリアをアクセスしたノードがシステムダウンするのを防止し、クラスタ計算機の可用性を高めることにある。
【0008】
また、オペレーティングシステムのカーネル部分などノードが動作し続ける上で必要不可欠な情報を記憶している自ノード固有エリアで訂正不可能な障害が発生した場合にそのノードがシステムダウンするのは致し方ないが、自ノードに実装された共有通信エリアに訂正不可能な障害が発生した場合に、自ノードが即システムダウンしてしまう事態も、クラスタ計算機の可用性を低下させる大きな要因となる。
【0009】
そこで本発明の第2の目的は、自ノードに実装されたメモリの共有通信エリアで発生した訂正不可能な障害によって自ノードがシステムダウンするのを防止し、クラスタ計算機の可用性を高めることにある。
【0010】
【課題を解決するための手段】
上記第1の目的を達成するために、本発明のクラスタ計算機における各ノードは、自ノード固有エリアに対して自ノード内で発生したメモリアクセス要求を出した時に訂正不可能な障害が発生したときはシステム障害停止通知をメモリアクセス元に通知して自ノードの動作を停止し、他ノードに実装されたメモリの共有通信エリアに対して自ノード内で発生したメモリアクセス要求を相互結合網を通じて出した時に訂正不可能な障害が発生したときは共有通信エリア障害通知をメモリアクセス元に通知する。
【0011】
このように、メモリアクセス時に訂正不可能な障害が発生したときの通知として、致命的な障害が発生したためにシステムを即停止すべきことを示す従来のシステム障害停止通知とは別に、システム停止に結び付かない軽度な障害が発生したことを示す共有通信エリア障害通知を定義し、自ノード内で発生したメモリアクセス要求時に訂正不可能な障害が発生した場合にそのアクセス先が自ノード固有エリアであれば重度の障害が発生したことを示すシステム障害停止通知を出して自ノードの動作を停止するが、アクセス先が他ノードに実装されたメモリの共有通信エリアであれば、システム障害停止通知ではなく、より軽度の障害が発生したことを示す共有通信エリア障害通知を出すことにより、他ノードに実装されたメモリの共有通信エリアで発生した訂正不可能な障害によって、その共有通信エリアをアクセスしたノードがシステムダウンするのを防止でき、クラスタ計算機の可用性を高めることができる。
【0012】
或るノードから出されたメモリアクセス要求によって他ノードのメモリで訂正不可能な障害が発生した場合、最終的には要求元のノードのプロセッサ等のメモリアクセス元に共有通信エリア障害通知が出されるわけであるが、この共有通信エリア障害通知をどこで発生させるかについては以下のような各種の方法が採用できる。
【0013】
1つの方法は、自ノード内で発生したメモリアクセス要求が他ノードのメモリに対するアクセス要求である場合に相互結合網を通じて他ノードに転送する制御を行う各ノード内のシステム制御装置が、メモリアクセス要求に対する応答として訂正不可能な異常終了を相互結合網を通じて他ノードから受け取ったときに共有通信エリア障害通知を発生し、メモリアクセス元に通知する方法である。
【0014】
他の方法は、メモリアクセス要求に対する応答として訂正不可能な異常終了の転送を要求された相互結合網が、それに代えて共有通信エリア障害通知を発生し、転送先のノード、つまりアクセス要求元のノードに送る方法である。
【0015】
他の方法は、実際にメモリアクセスが行われたノードにおいて発生する方法である。つまり、相互結合網を通じて他ノードから送られてきたメモリアクセス要求を自ノードのメモリに送り、そのアクセス結果を相互結合網を通じてアクセス元のノードに返却する制御を行うシステム制御装置が、他ノードからのメモリアクセス要求時に自ノードのメモリから訂正不可能な異常終了を受けたとき、それに代えて共有通信エリア障害通知を発生し、相互結合網を通じてアクセス元のノードに返却する方法である。
【0016】
他の方法は、各々のノードからの障害報告を受けて障害ログを取るサービスプロセッサにおいて発生する方法である。つまり、サービスプロセッサが、ノードから訂正不可能なメモリ障害報告を受けたときに、その障害が共有通信エリアで発生したか否かを判別し、共有通信エリアで発生していた場合はアクセス元のノードに対して共有通信エリア障害通知を送出する方法である。
【0017】
また上記第2の目的をも達成するために、本発明のクラスタ計算機における各ノードは、自ノードのメモリの共有通信エリアに対して自ノード内で発生したメモリアクセス要求を出した時に訂正不可能な障害が発生したときは共有通信エリア障害通知をメモリアクセス元に通知する。
【0018】
このように、自ノードのメモリの共有通信エリアに対して自ノード内で発生したメモリアクセス要求を出した時に訂正不可能な障害が発生したとき、システム障害停止通知ではなく、より軽度の障害が発生したことを示す共有通信エリア障害通知を出すことにより、自ノードに実装されたメモリの共有通信エリアで発生した訂正不可能な障害によって、自ノードがシステムダウンするのを防止でき、クラスタ計算機の可用性を高めることができる。
【0019】
共有通信エリア障害通知時の処理は、軽度の障害であるためシステムダウンを伴わない範囲内で実行される。例えば、共有通信エリアを複数バッファに分割定義し、障害時にバッファ単位での縮退が可能になっている場合、障害の発生した共有通信エリアのバッファを縮退する処理が行われる。また、バッファ単位での縮退が行えない構成になっているか、可能でも正常なバッファが1つも存在しなくなった場合には、当該共有通信エリアを使用したノード間通信を閉塞する処理が行われる。これにより、その共有通信エリアを介して通信しているノード間の通信は不可能になるが、そのこと自体はクラスタ計算機の運用に致命的ではない。何故なら、クラスタ計算機の個々のノードはそれ単独で1つのコンピュータとしても動作できるため、他ノードとの通信が必要ないジョブなら実行を継続でき、また、1つのジョブを並列プログラムとして同時に複数のノードで実行している場合でも、通信できなくなったノードを除く残りの複数ノードで並列プログラムを実行できるからである。さらに、相互結合網を経由した共有メモリモデルによるノード間通信とは別にイーサネット等のグローバルネットワーク経由によるメッセージ交換モデルによるノード間通信もサポートされているクラスタ計算機では、メッセージ交換モデルによるノード間通信で代替できるからである。
【0020】
共有通信エリアはノード間で論理的に共有されているため、或る共有通信エリアで訂正不可能な障害が発生したとき、そのアクセス元のノードだけでなく他のノードもその事実を認識し、バッファ単位の縮退などの措置を取る必要がある。他ノードに共有通信エリアの障害を認識させる典型的な方法は、アクセス元のノードが相互結合網やグローバルネットワークを通じて他のノードに共有通信エリア障害通知を転送する方法であるが、それ以外に、他ノードのメモリアクセス時に訂正不可能な障害が発生した場合には以下のような効率的な方法を採用することができる。
【0021】
1つの方法は、他ノードからのメモリアクセス要求時に自ノードのメモリで訂正不可能な異常終了が発生した場合、訂正不可能な異常終了を、相互結合網を介してアクセス要求元のノードに通知すると共に、自ノードのプロセッサにも通知する方法である。
【0022】
他の方法は、メモリアクセス要求に対する応答として訂正不可能な異常終了の転送を要求された相互結合網が、全てのノードに当該訂正不可能な異常終了をブロードキャストする方法である。
【0023】
他の方法は、メモリアクセス要求に対する応答として訂正不可能な異常終了の転送を要求された相互結合網が、それに代えて共有通信エリア障害通知を転送先のノードを含め全てのノードにブロードキャストする方法である。
【0024】
他の方法は、他ノードからのメモリアクセス要求時に自ノードのメモリで訂正不可能な異常終了が発生した場合、訂正不可能な異常終了に代えて共有通信エリア障害通知を相互結合網を通じてアクセス元のノードと自ノードのプロセッサに通知する方法である。
【0025】
他の方法は、他ノードからのメモリアクセス要求時に自ノードのメモリで訂正不可能な異常終了が発生した場合、訂正不可能な異常終了に代えて共有通信エリア障害通知を相互結合網を通じてアクセス元のノードに通知する際、相互結合網が全てのノードに当該共有通信エリア障害通知をブロードキャストする方法である。
【0026】
他の方法は、サービスプロセッサが、アクセス元のノードを含め全てのノードに対して共有通信エリア障害通知を出す方法である。
【0027】
【発明の実施の形態】
次に本発明の実施の形態の例について図面を参照して詳細に説明する。
【0028】
○第1の実施形態
図1を参照すると、本発明の第1の実施形態にかかるクラスタ計算機1は、4つのノード10,20,30,40を備えている。ノード数は本例では、4つであるが、本発明は2つ以上のノードを備えるクラスタ計算機に対して適用可能である。
【0029】
それぞれのノード10,20,30,40は、本例の場合、全て同じ構成であり、プロセッサを構成する2つの演算処理装置(Micro Processing Unit 。以下、MPUと称す)11,12、21,22、31,32、41,42と、入出力制御装置(Input-Output Controller 。以下、IOCと称す)13、23、33、43と、メモリ(Main Memory Unit。以下、MMUと称す)14、24、34、44と、メモリアクセスを含むシステム制御を行うシステム制御装置(System Control Subsystem。以下、SCSと称す)15、25、35、45と、各ノード内におけるMPU間およびMPUとSCSとをつなぐシステムバス16、26、36、46とを備え、それぞれ別個独立なオペレーティングシステムが搭載されている。なお、各ノードに含まれるMPUの数は任意であり、少なくとも1つのMPUを含むノードであれば良く、また全てのノードでMPUの数が同じである必要はない。
【0030】
MMUは誤り訂正機能を有するメモリであり、例えば前述したハミング符号により1bitの誤りは自動修正でき、2bit誤りは完全に検出できる。なお、本例におけるMMUは、ライトしたデータを再度リードしてECCチェックを行うことによりリード時だけでなくライト時にも訂正不可能な障害を検出できるようにしている。
【0031】
クラスタ計算機1における各ノード10,20,30,40は、SCS15,25,35,45において信号線17,27,37,47を介してクロスバ網(Cross Bar Controller。以下、XBCと称す)50に接続されている。XBCは相互結合網の一種であり、クロスポイントスイッチのオン,オフにより、任意のノード間を単一段で結合でき、通信遅延が非常に小さいという特徴をもつ。各ノードは、XBC50を通じて他ノードのMMUをアクセスすることで、共有メモリモデルによるノード間通信を行う。XBCの代わりに、オメガ網などの多段網(multi-stage network)やその他の相互結合網を使用することができる。なお、各ノード内におけるMPU間の通信はシステムバス経由で行われる。
【0032】
さらにクラスタ計算機1における各ノード10,20,30,40は、IOC13,23,33,43において信号線18,28,38,48を介してグローバルネットワーク60に接続されている。グローバルネットワーク60としては、例えばイーサネット(Ethernet)が使用される。勿論、他の形式のLAN(Local Area Network) であっても良い。各ノードは、このグローバルネットワーク60を介してメッセージの交換という形式でノード間通信を行うことができる。即ち、クラスタ計算機1は、XBC50経由の共有メモリモデルによる高速なノード間通信と、それよりは低速であるがグローバルネットワーク60経由のメッセージ交換モデルによるノード間通信との双方が行える。
【0033】
また、グローバルネットワーク60には信号線71を介してクラスタサーバ70が接続されている。クラスタサーバ70は、グローバルネットワーク60を介して各ノード10,20,30,40と適宜通信することにより、各ノードの負荷状況を含む運用状態管理やジョブ管理などを司る。
【0034】
図2はクラスタ計算機1のメモリ構成の一例を示すメモリマップである。図2において、M10〜M13,M20〜M23,M30〜M33,M40〜M43は、各ノードのMMUに物理的に搭載されたメモリモジュールを示し、その中に括弧書きで記述された0,1,2,3の数値は各々のノード内において当該メモリモジュールを他のメモリモジュールと区別するための識別番号である。この例では各々のノードに4つのメモリモジュールが搭載されているが、メモリモジュールの数は一般に複数であれば良く、また全てのノードで同じである必要はない。また図2の縦軸はそれぞれのノードから見たメモリアドレスを示し、全ノードとも0番地から始まるメモリ空間を持つと仮定している。
【0035】
図2のメモリ構成では、各ノードのメモリアドレスx0からx2FFFFは、それぞれのノードに実装されたメモリモジュールM10〜M12,M20〜M22,M30〜M32,M40〜M42にマップされ、それぞれ自ノード専用のノード固有エリアとして使用される。他方、メモリアドレスx30000からx6FFFFは、各ノードのメモリモジュールM13,M23,M33,M43をアドレスが異なるように組み合わされ、共通のアドレスによる相互アクセスが可能な共有通信エリアとして使用される。
【0036】
ここで本例においては、ノード間の独立性を高め、エラー伝搬を防止するために、他ノードの共有通信エリアに対するアクセスはリードアクセスのみ許可し、ライトアクセスは許可しない。つまり、ノード10に実装されたメモリモジュールM13にマップされたメモリアドレスx30000からx3FFFFは、ノード10内のMPU及びIOPからはリード及びライトの双方のアクセスを許可するが、他のノード20,30,40内のMPU及びIOPからはリードアクセスのみを許可する。ノード20,30,40に実装されたメモリモジュールM23,M33,M43についても同様であり、他ノードからはリードアクセスのみを許可する。従って、例えばノード10と他のノード20,30,40の共有メモリモデルによる通信は、ノード10がメモリモジュールM13にデータをライトし、ノード20,30,40がそのデータをリードすることで実現される。
【0037】
なお、例えばノード10からノード20へメモリモジュールM13の或る領域を通じてデータを送る場合、ノード10がその領域にデータをライトした時点でグローバルネットワーク60経由でノード20に対し、データをその領域にライトした旨を通知する。他方、ノード20はその領域のデータをリードし終えると、その旨をグローバルネットワーク60経由でノード10に対し通知する。
【0038】
図2のようなメモリ構成を採る場合、各ノードのMPUおよびIOPからメモリアクセスが出された場合、そのノードのSCSは、アクセスにかかるメモリアドレスに基づき、自ノードに実装されたメモリモジュールに対するローカルなアクセスか、他ノードに実装されたメモリモジュールに対するリモートなアクセスかを判断し、リモートアクセスの場合には要求をXBC50を通じてアクセス先のノードに転送する。そのために各ノードのSCSは、図2のメモリ構成に対応して、図3に示すようなメモリ管理用テーブルを内蔵している。
【0039】
図3において、15aはノード10用、25aはノード20用、35aはノード30用、45aはノード40用のメモリ管理用テーブルである。各々のメモリ管理用テーブルは、自ノードのみで使用するノード固有エリアの割り当て情報を記述した部分Aと、ノード間通信用に使用する共有通信エリアの割り当て情報を記載した部分Bとに分けられ、それぞれの部分A,Bは更に各メモリモジュール毎のエントリに分けられている。そして、各エントリには、当該メモリモジュールに割り当てられたメモリアドレスの開始アドレス152及びサイズ(メモリ長)153と、当該メモリモジュールの実装位置154と、当該メモリモジュールがノード固有エリアか、共有通信エリアかを示す共有/固有ビット151とが設定される。実装位置154としては、例えば、当該メモリモジュールが実装されているノードの識別番号155とそのノード内における当該メモリモジュールの識別番号156とが使われる。また、共有/固有ビット151は、例えば、当該メモリモジュールが共有通信エリアとしてノード間で共有される場合には値1が設定され、ノード固有エリアとして使用される場合には値0が設定される。
【0040】
また本例においては、共有通信エリアとして使用するメモリモジュールM13,M23,M33,M43のメモリ領域を各メモリモジュール毎に複数に分割し、各々の分割領域単位での縮退を可能にしている。個々の分割領域のことをバッファと呼び、バッファの管理のために個々のノード内に備えられているテーブルをバッファ管理テーブルと呼ぶ。
【0041】
図4にバッファの構成例とバッファ管理テーブルの一例を示す。ここでは、メモリモジュールM13,M23,M33,M43の各メモリ領域を同じサイズの2つのバッファに分割し、合計8つのバッファB10,B11,B20,B21,B30,B31,B40,B41を定義した例を示す。バッファ管理テーブル15bは、各バッファに1対1に対応するエントリE10,E11,E20,E21,E30,E31,E40,E41を有し、各エントリに、当該バッファが使用可能か否かを示すバリッド(valid)ビット157、当該バッファの開始アドレス158及びサイズ(バッファ長)159と、当該バッファを含むメモリモジュールが実装されているノードの識別子160とが設定されている。バリッドビット157は、例えば、使用可能の場合は値1、使用不可能な場合は値0に設定される。バッファ管理テーブル15bは、例えば各ノードのノード固有エリア内に格納される。また、クラスタサーバ70内にも同様のバッファ管理テーブル15bが格納されている。
【0042】
図5および図6は、各ノードにおけるSCSのメモリアクセス関連の処理例を示すフローチャートであり、図5は自ノードのMPUまたはIOCからメモリアクセス要求を受けた際の処理例を、図6は他ノードからメモリアクセス要求を受けた際の処理例を、それぞれ示す。また図7は、或るノード内のMPUまたはIOCからメモリアクセス要求が出された際のメモリアクセスに関連する信号の流れを示す図である。
【0043】
以下、各図を参照して本実施形態のクラスタ計算機1におけるメモリアクセス時の処理を説明する。なお、各ノード10,20,30,40ともメモリアクセス時の処理は同じであるため、以下では、ノード10内で発生したメモリアクセス要求を例にする。
【0044】
ノード10内のMPU11,12またはIOC13は、メモリアクセスを行う場合、アクセス先メモリが自ノード内メモリか、他ノード内メモリかにかかわらず、通常のリード/ライト命令によりアドレス指定でメモリアクセス要求を行う。メモリアクセス要求を行ったMPU11,12またはIOC13をメモリアクセス元と言う。メモリアクセス元からのメモリアクセス要求は、図7のa1に示されるように、自ノード10のSCS15に渡る。
【0045】
SCS15は、まず、図3のメモリ管理用テーブル15aを用いて、メモリアクセス要求a1が自ノード内メモリに対するアクセス要求か、他ノード内メモリに対するアクセス要求かをチェックする(図5のステップS1)。具体的には、メモリアクセス要求a1で指定されたメモリアドレスを、開始アドレス152からサイズ153までの範囲内に含むエントリにおけるノード識別番号155の値を調べ、その値が自ノード10の識別番号であれば自ノード内メモリに対するアクセス要求と判断し(ステップS2でYES)、その値が他ノード20,30,40の何れかの識別番号であれば、当該他ノード内のメモリに対するアクセス要求と判断する(ステップS2でNO)。以下、各々の場合にわけて説明する。
【0046】
(1)他ノード内メモリアクセスの場合
SCS15は、メモリアクセス要求a1がリード要求か否かを調べ(ステップS3)、ライト要求であれば、メモリアクセス元にアクセス例外を通知する(ステップS4。図7のb1)。他方、リード要求であれば、当該メモリアクセス要求a1をXBC50経由で、アクセス先のノードに転送する(ステップS5。図7のb2,d1)。そして、アクセス先のノードからの応答を待つ。以下、説明の便宜上、メモリアクセス元がノード20からの通信データをリードするために、図4のバッファB20をリード先としたメモリアクセス要求を送出した場合を仮定する。この場合、当該メモリアクセス要求は、XBC50経由でノード20のSCS25に渡される。
【0047】
ノード20のSCS25は、XBC50経由でノード10からメモリアクセス要求d1を受信すると、図3のメモリ管理用テーブル25aを用いて、メモリアクセス要求d1が自ノードに実装された共有通信エリアに対するものか否かをチェックする(図6のステップS31)。具体的には、メモリアクセス要求d1で指定されたメモリアドレスを、開始アドレス152からサイズ153までの範囲内に含むエントリにおける共有/固有ビット151及びノード識別番号155の値を調べ、共有/固有ビット151の値が1で且つノード識別番号155の値が自ノード20の識別番号であれば、自ノードに実装された共有通信エリアに対するアクセス要求であると判断し、それ以外はそうでないと判断する。そして、メモリアクセス要求d1が自ノードに実装された共有通信エリアに対するものでない場合は(ステップS32でNO)、アドレスエラーをXBC50経由で、ノード10に通知する(ステップS33。図7のf1,d2)。ノード10のSCS15は、アドレスエラーd2を受け取ると(図5のステップS6)、エラー処理へと進む(S7,S8)。このようなアドレスエラーが生じる原因としては、メモリ管理用テーブルのデータ化け、XBC50の故障等が考えられるため、エラー処理において適切な処理が実施される。なお、この点は本発明においては重要ではないので、その詳細な説明は省略する。
【0048】
他方、メモリアクセス要求d1が自ノードに実装された共有通信エリアに対するものであった場合(ステップS32でYES)、ノード20のSCS25は、MMU24に当該メモリアクセス要求、つまりリード要求を渡す(ステップS34。図7のf2)。そして、MMU24からの終了通知を待つ。
【0049】
MMU24は当該リード要求に応答して、自ノードに実装された該当するメモリモジュールのエリア(今の仮定では、メモリモジュールM23のバッファB20内のエリア)からデータを読み出し、ECCをチェックして、誤りが無ければ前記読み出したデータそのものを、誤りがあっても訂正可能であれば訂正後のデータを、それぞれ正常終了としてSCS25に返却し(図7のe1)、前記読み出したデータに訂正不可能な誤りがあれば、訂正不可能な異常終了をSCS25に返却する(図7のe2)。訂正不可能な異常終了には、障害の発生したメモリアドレスが含まれる。
【0050】
SCS25は、MMU24から正常終了e1を受け取ると(ステップS35,S36)、XBC50経由で正常終了をノード10に通知する(ステップS37。図7のf3,d3)。ノード10では、この正常終了をSCS15が受信し(図5のステップS6,S7)、メモリアクセス元に通知する(ステップS9。図7のb5)。
【0051】
他方、SCS25は、MMU24から訂正不可能な異常終了を受け取った場合(ステップS35,S36)、XBC50経由でノード10に訂正不可能な異常終了を通知する(ステップS38。図7のf4,d4)。ノード10では、この訂正不可能な異常終了の通知をSCS15が受信すると(図5のステップS6,S7)、メモリアクセス元に共有通信エリア障害通知を出す(図5のステップS10。図7のb6)。共有通信エリア障害通知には、訂正不可能な異常終了に含まれていた障害メモリアドレスが含められる。
【0052】
以上のSCS15の処理が従来と大きく相違する点である。つまり、従来は、自ノード10内のメモリアクセス元からのメモリアクセス要求を他ノードに転送したときに他ノードから訂正不可能な異常終了の通知を受けた場合、SCS15はシステム停止障害通知をメモリアクセス元に出していたのに対し、本実施形態では、システム停止障害が発生したときの障害程度よりも軽度の障害が発生した旨を示す共有通信エリア障害通知をメモリアクセス元に出す。これにより、メモリアクセス元においてメモリ障害処理を切りわけることができる。
【0053】
以下、共有通信エリアで訂正不可能な障害が発生した場合のクラスタ計算機1の処理例を説明する。
【0054】
共有通信エリア障害通知を受けたメモリアクセス元がノード10のMPU11または12であった場合、MPU11または12は、SCS15,IOC13およびグローバルネットワーク60経由で当該共有通信エリア障害通知をクラスタサーバ70と他の全てのノード20,30,40に転送した後、バッファ縮退プログラムを起動して障害にかかるバッファを縮退する処理を開始する。また、メモリアクセス元がIOC13であった場合は、IOCではノード内資源を管理,構成変更する処理は行えないため、共有通信エリア障害通知をMPU11またはMPU12に通知し、共有通信エリア障害通知のクラスタサーバ70と他の全てのノード20,30,40への通知処理、および障害にかかるバッファを縮退する処理とをMPUに任せる。
【0055】
バッファ縮退プログラムでは、まず、自ノード10が保有する図4のバッファ管理テーブル15bを、共有通信エリア障害通知で通知された障害アドレスで検索して、障害バッファを特定する。今の仮定では、バッファB20が障害バッファに特定される。次に、障害バッファに対応するエントリE20のバリッドビット157を値0にする。これにより、以後、自ノード10において、ノード20と通信する際、バッファB20は使用されなくなる。
【0056】
グローバルネットワーク60経由で共有通信エリア障害通知を受けたノード20,30,40では、その通知がIOC,SCSを通じて何れかのMPUに伝達されてバッファ縮退プログラムが起動され、自ノードの保有する図4のバッファ管理テーブル15bが更新され、ノード10と同様に障害バッファB20が縮退される。これにより、ノード20においては、ノード10,30,40と通信する際にバッファB20は使用されなくなり、ノード30においてはノード20と通信する際にバッファB20は使用されなくなり、ノード40においてはノード20と通信する際にバッファB20は使用されなくなる。
【0057】
グローバルネットワーク60経由で共有通信エリア障害通知を受けたクラスタサーバ70でも、自ら保有する図4のバッファ管理テーブル15bを同様に更新することにより、バッファの状態を管理する。
【0058】
以上のように各ノードでバッファB20が縮退されると、ノード20から他のノード10,30,40への共有メモリモデルに従う送信は、以後、バッファB21だけを使用して実施される。従って、縮退されたバッファB20を使って行われたノード間通信が正常終了していなかった場合、バッファB21を使って当該ノード間通信のリトライが行われる。
【0059】
また、バッファB20だけでなくバッファB21にも訂正不可能な障害が発生して縮退されたとすると、バッファ管理テーブル15bにおいて、ノード識別子160がノード20を示す1となっている全エントリE20,E21のバリッドビット157が0となり、ノード20から他のノード10,30,40へ共有メモリモデルに従って通信するためのバッファが1つもなくなる。このような事態になると、ノード20では他ノード10,30,40との間の共有メモリモデルに従う通信を閉塞し、ノード10,30,40ではノード20との間の共有メモリモデルに従う通信を閉塞する。また、クラスタサーバ70では、ノード20と他ノード10,30,40との間で共有メモリモデルに従う通信が行えなくなったことを管理する。しかしながら、本実施形態のクラスタ計算機1には、グローバルネットワーク60経由でメッセージ交換モデルによる通信が可能であるため、ノード20と他のノード10,30,40との通信をメッセージ交換モデルによる通信で代替することにより、クラスタ構成中のノード状態管理上、ノード20をノードダウンの状態にすることは回避できる。
【0060】
(2)自ノード内メモリアクセスの場合
SCS15は、メモリアクセス元から渡されたメモリアクセス要求a1が自ノード内メモリに対するアクセス要求であれば、そのメモリアクセス要求を自ノード10のMMU14に渡す(図5のステップS11。図7のb3)。そして、MMU14からの応答を待つ。MMU14は当該アクセス要求に応答して、自ノードに実装された該当するメモリモジュールのエリアをアクセスし、アクセス結果をSCS15に返す。アクセス結果には、正常終了と訂正不可能な異常終了との2種類がある(図7のc1,c2)。また訂正不可能な異常終了には、異常終了した障害メモリアドレスが含まれる。
【0061】
SCS15は、MMU14から正常終了c1を受け取ると(ステップS12,S13)、それをメモリアクセス元に通知する(ステップS14。図7のb7)。他方、MMU14から訂正不可能な異常終了を受け取った場合(ステップS12,S13)、図3のメモリ管理用テーブル15aを用いて、訂正不可能な異常終了で通知された障害メモリアドレスが自ノードに実装された共有通信エリア内のアドレスか否かをチェックする(図5のステップS15)。具体的には、障害メモリアドレスを、開始アドレス152からサイズ153までの範囲内に含むエントリにおける共有/固有ビット151及びノード識別番号155の値を調べ、共有/固有ビット151の値が1で且つノード識別番号155の値が自ノード10の識別番号であれば、自ノードに実装された共有通信エリア内のアドレスであると判断し、それ以外はそうでないと判断する。そして、障害メモリアドレスが自ノードに実装された共有通信エリア内のアドレスであれば、メモリアクセス元に共有通信エリア障害通知を出し(ステップS18。図7のb8)、共有通信エリア外のアドレス、つまりノード固有エリア内のアドレスであれば、メモリアクセス元にシステム停止障害通知を出す(ステップS17。図7のb9)。
【0062】
以上のSCS15の処理が従来と大きく相違する点である。つまり、従来は、自ノード10内のメモリアクセス元からの要求を自ノード10内のMMU14に対して送出したときに訂正不可能な異常終了の通知を受けた場合、SCS15は常にシステム停止障害通知をメモリアクセス元に出していたのに対し、本実施形態では、障害箇所が共有通信エリアの場合には、システム停止障害が発生したときの障害程度よりも軽度の障害が発生した旨を示す共有通信エリア障害通知をメモリアクセス元に出す。これにより、メモリアクセス元はメモリ障害処理を切りわけることができる。
【0063】
共有通信エリア障害通知を受けたメモリアクセス元の動作は、前記(1)のときと同じであり、メモリアクセス元がノード10のMPU11または12であったときは、SCS15,IOC13およびグローバルネットワーク60経由で当該共有通信エリア障害通知をクラスタサーバ70と他の全てのノード20,30,40に転送した後、バッファ縮退プログラムを起動して障害にかかるバッファを縮退する処理を開始する。また、メモリアクセス元がIOC13であった場合は、グローバルネットワーク60経由で当該共有通信エリア障害通知をクラスタサーバ70と他の全てのノード20,30,40に送出した後、共有通信エリア障害通知をMPU11またはMPU12に通知し、障害にかかるバッファを縮退する処理をMPUに任せる。
【0064】
またバッファ縮退プログラムでは、自ノード10が保有する図4のバッファ管理テーブル15bを、共有通信エリア障害通知で通知された障害アドレスで検索して、障害バッファを特定する。そして、障害バッファが例えばバッファB10に特定されたとすると、障害バッファB10に対応するエントリE10のバリッドビット157を値0にする。これにより、以後、自ノード10において、他ノード20,30,40と通信する際、バッファB10は使用されなくなる。
【0065】
グローバルネットワーク60経由で共有通信エリア障害通知を受けたノード20,30,40では、その通知がIOC,SCSを通じて何れかのMPUに伝達されてバッファ縮退プログラムが起動され、自ノードの保有する図4のバッファ管理テーブル15bが更新され、ノード10と同様に障害バッファB10が縮退される。また、グローバルネットワーク60経由で共有通信エリア障害通知が転送されてきたクラスタサーバ70でも、自ら保有する図4のバッファ管理テーブル15bを同様に更新することにより、バッファの状態を管理する。
【0066】
以上のように各ノードでバッファB10が縮退されると、ノード10から他のノード20,30,40への共有メモリモデルに従う送信は、以後、バッファB11だけを使用して実施される。
【0067】
また、バッファB10だけでなくバッファB11にも訂正不可能な障害が発生して縮退されたとすると、バッファ管理テーブル15bにおいて、ノード識別子160がノード10を示す0となっている全エントリE10,E11のバリッドビット157が0となり、ノード10から他のノード20,30,40へ共有メモリモデルに従って送信するためのバッファが1つもなくなる。このような事態になると、ノード10では他ノード20,30,40との間の共有メモリモデルに従う通信を閉塞し、ノード20,30,40ではノード10との間の共有メモリモデルに従う通信を閉塞する。また、クラスタサーバ70では、ノード10と他ノード20,30,40との間で共有メモリモデルに従う通信が行えなくなったことを管理する。しかしながら、本実施形態のクラスタ計算機1には、グローバルネットワーク60経由でメッセージ交換モデルによる通信が可能であるため、ノード10と他のノード20,30,40との通信をメッセージ交換モデルによる通信で代替することにより、クラスタ構成中のノード状態管理上、ノード10をノードダウンの状態にすることは回避できる。
【0068】
他方、システム停止障害通知を受けた場合、当該ノード10は、そのノードで実行中の全てのプログラムを終了させ、システムを停止する。つまり、ノードダウンとなる。クラスタサーバ70はグローバルネットワーク60経由で各ノードに対して一定周期でヘルスチェック信号を送っており、ノード10からヘルスチェック信号に対する応答が来ないことで、ノード10がシステムダウンしたことを検出し、クラスタ構成中のノード状態管理上、ノード10をノードダウンの状態として管理する。また、グローバルネットワーク60を通じて他のノード20,30,40にノード10がダウンしたことを通知し、各ノード20,30,40はノード10との間の一切の通信を停止する。
【0069】
以上説明した本発明の第1の実施形態では、以下のような効果が得られる。
【0070】
(a)各ノードにおいて、他ノードに実装された共有通信エリアをアクセスした際に訂正不可能な誤りが発生した場合、その応答として、システム停止障害通知ではなく、より軽度の障害が発生した旨の共有通信エリア障害をメモリアクセス元に返すことができる。これにより、或るノードに実装されたメモリモジュール中の共有通信エリアの障害によって、そのエリアをアクセスした他ノードがシステムダウンする事態を回避できる。
【0071】
(b)各ノードにおいて、自ノード内で発生したメモリアクセス要求に従って自ノードに実装された共有通信エリアをアクセスした際に訂正不可能な誤りが発生した場合、その応答として、システム停止障害通知ではなく、より軽度の障害が発生した旨の共有通信エリア障害をメモリアクセス元に返すことができる。これにより、自ノードに実装されたメモリモジュール中の共有通信エリアの障害によって自ノードがシステムダウンする事態を回避できる。
【0072】
(c)共有通信エリアを複数のバッファに分割し、バッファ単位での縮退を可能としたので、何れかのバッファに訂正不可能な障害が発生しても健全なバッファを使って共有メモリモデルに従うノード間通信を継続できる。
【0073】
(d)XBC50経由の共有メモリモデルに従うノード間通信以外に、グローバルネットワーク60経由のメッセージ交換モデルに従うノード間通信もサポートされているため、他ノードとの通信に使用する全バッファが縮退された場合であっても、メッセージ交換モデルに従うノード間通信によりノード間の通信が確保できる。
【0074】
○第2実施形態
本発明の第2の実施形態は、他ノードから自ノードに実装されている共有通信エリアに対するメモリアクセス要求があった場合に訂正不可能な障害が発生したとき、自ノードのSCSが要求元の他ノードに訂正不可能な異常終了を返すと同時に、自ノードのMPUに対して共有通信エリア障害通知を出すようにした点で、第1の実施形態と相違し、それ以外は第1の実施形態と同じである。
【0075】
本実施形態においては、各ノードのSCSにおける図6のステップS38の処理が、要求元のノードに訂正不可能を示す異常終了をXBC50経由で通知すると共に、図8に示すように自ノードのMPUに共有通信エリア障害通知f5を出すように変更されている。これにより、アクセス要求元のノードからグローバルネットワーク60経由で共有通信エリア障害通知が届く前に自ノードにおけるバッファ縮退処理を開始することができる。なお、その後にグローバルネットワーク60経由で届く共有通信エリア障害通知は自ノードに関しては無視される。
【0076】
○第3実施形態
本発明の第3の実施形態は、何れかのノードからメモリアクセスに対する応答として訂正不可能な異常終了の転送が要求されたとき、XBC50が、その宛先のノードだけでなく全ノードに当該訂正不可能な異常終了をブロードキャストし、この訂正不可能な異常終了を受信したノードのSCSが自ノードのMPUに共有通信エリア障害通知を出すようにした点で、第1の実施形態と相違し、それ以外は第1の実施形態と同じである。
【0077】
本実施形態においては、図9に示すように、他ノードからのメモリアクセスに対する応答として或るノードのSCSから訂正不可能な異常終了f4がXBCに出されると、XBCは当該訂正不可能な異常終了を全ノードにブロードキャストする(d4〜d7)。アクセス要求元では図5のステップS10により自ノードのメモリアクセス元に共有通信エリア障害通知を出し、以後、第1の実施形態で説明した処理が実施される。他方、アクセス要求元以外のノードのSCSでは、ブロードキャストにて訂正不可能な異常終了を受信すると、共有通信エリア障害通知を自ノードの何れかのMPUに出す(図9のf6)。これにより、アクセス要求元のノードからグローバルネットワーク60経由で共有通信エリア障害通知が届く前に自ノードにおけるバッファ縮退処理を開始することができる。なお、その後にグローバルネットワーク60経由で届く共有通信エリア障害通知は自ノードに関しては無視される。勿論、アクセス要求元のノードは共有通信エリア障害通知をグローバルネットワーク60経由で他ノードには送らず、クラスタサーバ70だけに送るようにしても良い。
【0078】
○第4実施形態
本発明の第4の実施形態は、何れかのノードからメモリアクセスに対する応答として訂正不可能な異常終了の転送が要求されたとき、XBC50が、訂正不可能な異常終了を共有通信エリア障害通知に変換して転送し、アクセス要求元のノードにおけるSCSは受信した共有通信エリア障害通知をメモリアクセス元に通知するようにした点で、第1の実施形態と相違し、それ以外は第1の実施形態と同じである。
【0079】
本実施形態においては、図10に示すように、他ノードからのメモリアクセスに対する応答として或るノードのSCSから訂正不可能な異常終了f4がXBCに出されると、XBCは当該訂正不可能な異常終了を共有通信エリア障害通知d8に変換し、アクセス要求元のノードに転送する。アクセス要求元では図5のステップS7において、終了通知の結果がアドレスエラーか、正常終了か、共有通信エリア障害通知かを判別し、共有通信エリア障害通知であれば、ステップS10でメモリアクセス元にそれを通知する。これにより、アクセス要求元ノードにおけるSCSの処理は、アドレスエラーが返却されたとき以外は単に受信した内容をメモリアクセス元に通知するという通常の処理に簡便化できる。
【0080】
○第5実施形態
本発明の第5の実施形態は、何れかのノードからメモリアクセスに対する応答として訂正不可能な異常終了の転送が要求されたとき、XBC50が、共有通信エリア障害通知に変換して、宛先のノードだけでなく全ノードに共有通信エリア障害通知をブロードキャストし、アクセス要求元のノードにおけるSCSは受信した共有通信エリア障害通知をメモリアクセス元に通知し、他方、ブロードキャストにて共有通信エリア障害通知を受信したノードのSCSは自ノードのMPUにその共有通信エリア障害通知を出すようにした点で、第1の実施形態と相違し、それ以外は第1の実施形態と同じである。
【0081】
本実施形態においては、図11に示すように、他ノードからのメモリアクセスに対する応答として或るノードのSCSから訂正不可能な異常終了f4がXBCに出されると、XBCは当該訂正不可能な異常終了を共有通信エリア障害通知に変換し、全ノードにブロードキャストする(d8〜d11)。アクセス要求元のノードでは図5のステップS7において、終了通知の結果がアドレスエラーか、正常終了か、共有通信エリア障害通知かを判別し、共有通信エリア障害通知であれば、ステップS10でメモリアクセス元にそれを通知する。これにより、アクセス要求元ノードにおけるSCSの処理は、アドレスエラーが返却されたとき以外は単に受信した内容をメモリアクセス元に通知するという通常の処理に簡便化できる。また、ブロードキャストにて共有通信エリア障害通知を受信した他ノードのSCSは、それを自ノード内の何れかのMPUに通知する(図11のf7)。これにより、アクセス要求元のノードからグローバルネットワーク60経由で共有通信エリア障害通知が届く前に自ノードにおけるバッファ縮退処理を開始することができる。なお、その後にグローバルネットワーク60経由で届く共有通信エリア障害通知は自ノードに関しては無視される。勿論、アクセス要求元のノードは共有通信エリア障害通知をグローバルネットワーク60経由で他ノードには送らず、クラスタサーバ70だけに送るようにしても良い。
【0082】
○第6実施形態
本発明の第6の実施形態は、他ノードから自ノードに実装されている共有通信エリアに対するメモリアクセス要求があった場合に訂正不可能な障害が発生したとき、図12に示すように、自ノードのSCSが当該メモリアクセスの応答として共有通信エリア障害通知をXBC経由で要求元のノードに出すようにした点(f8,d12)で、第1の実施形態と相違し、それ以外は第1の実施形態と同じである。
【0083】
本実施形態においては、各ノードのSCSにおける図6のステップS38の処理が、要求元のノードに対して共有通信エリア障害通知をXBC50経由で通知する処理に変更される。また、アクセス要求元では図5のステップS7において、終了通知の結果がアドレスエラーか、正常終了か、共有通信エリア障害通知かを判別し、共有通信エリア障害通知であれば、ステップS10でメモリアクセス元にそれを通知する処理となる。
【0084】
○第7実施形態
本発明の第7の実施形態は、他ノードから自ノードに実装されている共有通信エリアに対するメモリアクセス要求があった場合に訂正不可能な障害が発生したとき、図13に示すように、自ノードのSCSが当該メモリアクセスの応答として共有通信エリア障害通知をXBC経由で要求元のノードに出すと共に自ノードの何れかのMPUに当該共有通信エリア障害通知を出すようにした点(f8,d12,f9)で、第1の実施形態と相違し、それ以外は第1の実施形態と同じである。
【0085】
本実施形態においては、各ノードのSCSは、図6のステップS38において、要求元のノードに対して共有通信エリア障害通知をXBC50経由で通知すると共に自ノードの何れかのMPUに当該共有通信エリア障害通知を出す。また、アクセス要求元では図5のステップS7において、終了通知の結果がアドレスエラーか、正常終了か、共有通信エリア障害通知かを判別し、共有通信エリア障害通知であれば、ステップS10でメモリアクセス元にそれを通知する。これにより、アクセス要求元のノードからグローバルネットワーク60経由で共有通信エリア障害通知が届く前に自ノードにおけるバッファ縮退処理を開始することができる。なお、その後にグローバルネットワーク60経由で届く共有通信エリア障害通知は自ノードに関しては無視される。
【0086】
○第8実施形態
本発明の第8の実施形態は、他ノードから自ノードに実装されている共有通信エリアに対するメモリアクセス要求があった場合に訂正不可能な障害が発生したとき、図14に示すように、自ノードのSCSが当該メモリアクセスの応答として共有通信エリア障害通知f8を出し、XBCは、この共有通信エリア障害通知をアクセス要求元のノードを含めて全ノードにブロードキャストするようにした点(d12〜d15)で、第1の実施形態と相違し、それ以外は第1の実施形態と同じである。
【0087】
本実施形態においては、各ノードのSCSは、図6のステップS38において、XBC50に対して共有通信エリア障害通知の転送を要求する。また、アクセス要求元では図5のステップS7において、終了通知の結果がアドレスエラーか、正常終了か、共有通信エリア障害通知かを判別し、共有通信エリア障害通知であれば、ステップS10でメモリアクセス元にそれを通知する。さらに、ブロードキャストにて共有通信エリア障害通知を受信したノードのSCSは、それを自ノード内の何れかのMPUに通知する。これにより、アクセス要求元のノードからグローバルネットワーク60経由で共有通信エリア障害通知が届く前に自ノードにおけるバッファ縮退処理を開始することができる。なお、その後にグローバルネットワーク60経由で届く共有通信エリア障害通知は自ノードに関しては無視される。勿論、アクセス要求元のノードは共有通信エリア障害通知をグローバルネットワーク60経由で他ノードには送らず、クラスタサーバ70だけに送るようにしても良い。
【0088】
○第9実施形態
本発明の第9の実施形態は、サービスプロセッサ(以下、SPと称す)を有するクラスタ計算機に本発明を適用し、訂正不可能なメモリ障害が共有通信エリアで発生したか否かの判断と共有通信エリア障害などの通知をSPに行わせるようにしたものである。本実施形態のクラスタ計算機2の全体構成例を図15に示す。図1の構成と相違し、各々のノード10,20,30,40が、IOC13,23,33,43において、信号線19,29,39,49を通じてSP80に接続されている。
【0089】
本例のクラスタ計算機2では、何れかのノードにおけるMMUにおいて訂正可能な障害および訂正不可能な障害が発生した場合、そのMMUは自ノードのSCS経由でSP80に対し、障害報告を出す。この障害報告では、障害メモリアドレス、訂正可能な障害か訂正不可能な障害かの区別、アクセス要求元のノード等の情報が含まれる。SP80はこの障害報告の受信時に図16に示す処理を実行する。
【0090】
SP80は先ず、受信した障害報告の内容を障害ログとして保存する(ステップS41)。次いで、今回の報告が訂正不可能なメモリ障害か否かを判別し(ステップS42)、訂正可能なメモリ障害であった場合には図16の処理を終える。他方、訂正不可能なメモリ障害であった場合には、その障害が共有通信エリアで生じたか、ノード固有エリアで生じたかを以下のようにしてチェックする(ステップS43)。
【0091】
SP80は、各ノードが保有する図3に示したメモリ管理用テーブル15a,25a,35a,45aを自身も保持している。障害報告を出したノードに対応するメモリ管理用テーブルを障害メモリアドレスで検索し、障害メモリアドレスを開始アドレス152からメモリ長153のアドレス範囲内に含むエントリの共有/固有フラグ151の値を調べ、0であれば、そのノードのノード固有エリアで訂正不可能なメモリ障害が発生したと判断し、1であれば、共有通信エリアで訂正不可能なメモリ障害が発生したと判断する(ステップS44)。
【0092】
次にSP80は、訂正不可能なメモリ障害がノード固有エリアで発生していたときは、アクセス要求元のノードに対して、システム停止障害通知を出す(ステップS45)。他方、共有通信エリアで訂正不可能なメモリ障害が発生していたときは、アクセス要求元のノードに対して障害メモリアドレスを含む共有通信エリア障害通知を出す(ステップS46)。
【0093】
図17に本実施形態において或るノード内のMPUまたはIOCからメモリアクセス要求が出された際のメモリアクセスに関連する信号の流れを示す。以下、図17を参照して本実施形態の動作を図7に示した第1の実施形態の動作との相違点を中心に説明する。
【0094】
他ノードからのメモリアクセス要求d1を受けたノードにおいて、自ノードのMMUに対してメモリアクセス要求f2が出された際、訂正可能な障害および訂正不可能な障害が発生した場合、そのMMUからSCS経由でSP80に対して障害報告e3が出される。また、障害が訂正不可能なときには第1の実施形態と同様に訂正不可能な異常終了e2がSCSに出され、SCSはこれをXBC50を通じてアクセス要求元のノードのSCSに通知する(f4,d4)。
【0095】
障害報告e3を受信したSP50は図16に示した処理により、障害情報のログを取り、訂正不可能な障害の場合にはその障害発生箇所に応じた処理を行う。他ノードからのメモリアクセス要求d1は共有通信エリアに対するアクセスなので、ここでは共有通信エリアで訂正不可能な障害が発生したと判断され、アクセス要求元のノードのSCSに対して共有通信エリア障害通知が出される(g1)。アクセス要求元のノードのSCSは、この共有通信エリア障害通知g1を受信することにより、共有通信エリア障害通知b11をメモリアクセスに対する応答としてメモリアクセス元に通知し、メモリアクセス元は第1の実施形態で説明したと同様の動作を開始する。
【0096】
一方、自ノード内で発生したノード固有エリアに対するメモリアクセス要求b3の処理でMMUにおいて訂正可能な障害および訂正不可能な障害が発生した場合、そのMMUからSCS経由(図17では省略)でSP80に対して障害報告c3が出される。また、障害が訂正不可能なときには第1の実施形態と同様に訂正不可能な異常終了c2がSCSに出される。
【0097】
障害報告c3を受信したSP80は図16に示した処理により、障害情報のログを取り、訂正不可能な障害の場合にはその障害発生箇所に応じた処理を行う。自ノード内でのメモリアクセスはノード固有エリアに対するアクセスと、共有通信エリアに対するアクセスとの双方があるため、SP80は、当該ノードのノード固有エリアで訂正不可能な障害が発生していた場合には、当該ノードのSCSに対してシステム停止障害通知g2を出す。当該ノードのSCSは、このシステム停止障害通知g2を受信することにより、システム停止障害通知b12をメモリアクセスに対する応答としてメモリアクセス元に通知し、メモリアクセス元は第1の実施形態で説明したと同様の動作を開始する。他方、共有通信エリアで訂正不可能な障害が発生していた場合、SP80は、当該ノードのSCSに対して共有通信エリア障害通知g3を出す。当該ノードのSCSは、この共有通信エリア障害通知g3を受信することにより、共有通信エリア障害通知b13をメモリアクセスに対する応答としてメモリアクセス元に通知する。
【0098】
本実施形態では、メモリアクセス時に訂正不可能な誤りが発生した際に、SP80で生成された共有通信エリア障害通知やシステム停止障害通知をメモリアクセス元に通知するため、第1の実施形態に比べて、メモリアクセス元がメモリアクセス要求を出してから上記通知を受けるまでに時間がかかる。そのため、場合によってはタイムアウトが生じる可能性がある。そこで、本実施形態では、他ノードに対してメモリアクセス要求を転送したノードのSCSは、相手ノードから訂正不可能な異常終了d4を受けたとき、メモリアクセス元に対してウエイト通知b14を出す。また、自ノードからのメモリアクセス要求を自ノードのMMUに対して出したときにMMUから訂正不可能な異常終了c2が通知されたとき、メモリアクセス元に対してウエイト通知b15を出す。これらのウエイト通知b14,b15は、タイムアウトを回避するための疑似的な通知であり、メモリアクセス元はウエイト通知を受信するとタイムアウトの監視を停止し、システム停止障害通知または共有通信エリア障害通知が届くのを待つ。
【0099】
本実施形態において、訂正不可能なメモリ障害が共有通信エリア,メモリ固有エリアの何れで発生したか否かの判断や共有通信エリア障害通知などの通知をSP80が実施しているため、各ノードのSCSは図5のアドレスチェック(S15)関連の処理を実施する必要がなく、図18に示されるように各ノードのSCSの処理が簡便化される。
【0100】
○第10の実施形態
本発明の第10の実施形態は、SP80が共有通信エリアにおいて訂正不可能な障害が発生したと判断したとき、図19のg1,g4〜g6、g2,g7〜g9に示すように、アクセス要求元だけでなく他の全てのノードに共有通信エリア障害通知を出すようにした点で第9の実施形態と相違し、その他は第9の実施形態と同じである。共有通信エリア障害通知を受信した各ノードのSCSは、それを自ノード内のMPUに通知する(f11,f12)。これにより、各ノードにおけるバッファ縮退処理を速やかに開始することができる。
【0101】
以上本発明の実施形態について説明したが、本発明は以上の実施形態にのみ限定されず、その他各種の付加変更が可能である。例えば、以下のように構成することができる。
【0102】
共有通信エリアがバッファ単位での縮退が行えない構成。この場合、共有通信エリアで訂正不可能な障害が発生したときは、前述した実施形態において、有効なバッファが1つも存在しなくなった場合の処理が直ちに実施される。
【0103】
XBC経由の共有メモリモデルに従ったノード間通信だけがサポートされており、グローバルネットワーク経由のメッセージ交換モデルに従ったノード間通信がサポートされていない構成。この場合、自ノードに実装された共有通信エリアが訂正不可能な障害により使用できなくなったノードは、クラスタ構成上はノードダウンとなる。しかし、自ノードに閉じて実行されるジョブはなおも継続して実行可能である。
【0104】
専用のクラスタサーバ70を有しない構成。この場合、何れかのノードがクラスタサーバ70の機能を合わせ持つ構成となる。
【0105】
【発明の効果】
以上説明したように本発明によれば、メモリアクセス時に訂正不可能な障害が発生したときの通知として、システム障害停止通知と共有通信エリア障害通知との2種類を定義し、訂正不可能な障害が発生した箇所がノード固有エリアであればシステム障害停止通知を出すが、共有通信エリアであればシステム障害停止通知ではなく、より軽度の障害が発生したことを示す共有通信エリア障害通知を出すことにより、他ノードに実装されたメモリの共有通信エリアで発生した訂正不可能な障害によって、その共有通信エリアをアクセスしたノードがシステムダウンするのを防止でき、また、自ノードに実装されたメモリの共有通信エリアで発生した訂正不可能な障害によって、自ノードがシステムダウンするのを防止でき、クラスタ計算機の可用性を高めることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態にかかるクラスタ計算機の構成例を示すブロック図である。
【図2】クラスタ計算機のメモリ構成の説明図である。
【図3】メモリ管理用テーブルの説明図である。
【図4】共有通信エリア内のバッファの構成例とバッファ管理テーブルの一例を示す図である。
【図5】自ノードのMPUまたはIOCからメモリアクセス要求を受けた際のSCSの処理例を示すフローチャートである。
【図6】他ノードからメモリアクセス要求を受けた際のSCSの処理例を示すフローチャートである。
【図7】本発明の第1の実施の形態におけるメモリアクセスの処理の流れを示す図である。
【図8】本発明の第2の実施の形態におけるメモリアクセスの処理の流れを示す図である。
【図9】本発明の第3の実施の形態におけるメモリアクセスの処理の流れを示す図である。
【図10】本発明の第4の実施の形態におけるメモリアクセスの処理の流れを示す図である。
【図11】本発明の第5の実施の形態におけるメモリアクセスの処理の流れを示す図である。
【図12】本発明の第6の実施の形態におけるメモリアクセスの処理の流れを示す図である。
【図13】本発明の第7の実施の形態におけるメモリアクセスの処理の流れを示す図である。
【図14】本発明の第8の実施の形態におけるメモリアクセスの処理の流れを示す図である。
【図15】本発明を適用したクラスタ計算機の別の例を示すブロック図である。
【図16】サービスプロセッサの処理例を示すフローチャートである。
【図17】本発明の第9の実施の形態におけるメモリアクセスの処理の流れを示す図である。
【図18】自ノードのMPUまたはIOCからメモリアクセス要求を受けた際のSCSの他の処理例を示すフローチャートである。
【図19】本発明の第10の実施の形態におけるメモリアクセスの処理の流れを示す図である。
【符号の説明】
1,2…クラスタ計算機
10,20,30,40…ノード
11,12,21,22,31,32,41,42…MPU
13,23,33,43…IOC
14,24,34,44…MMU
15,25,35,45…SCS
16,26,36,46…システムバス
17,18,19,27,28,29,37,38,39,47,48,49,71…信号線
50…XBC
60…グローバルネットワーク
70…クラスタサーバ
80…SP

Claims (15)

  1. 誤り訂正機能を有するメモリ及び少なくとも1つのプロセッサを含む複数のノードを相互結合網によって互いに結合し、各ノードのメモリ上に自ノード固有エリアと前記複数のノード間で論理的に共有される共有通信エリアとを設定したクラスタ計算機において、
    各ノードは、自ノード固有エリアに対して自ノード内で発生したメモリアクセス要求を出した時に訂正不可能なメモリ障害が発生したときはシステム障害停止通知をメモリアクセス元に通知して自ノードの動作を停止し、他ノードに実装されたメモリの共有通信エリアに対して自ノード内で発生したメモリアクセス要求を相互結合網を通じて出した時に訂正不可能なメモリ障害が発生したときは共有通信エリア障害通知をメモリアクセス元に通知し前記他ノードはメモリ縮退処理を行った後、処理を継続して実行することを特徴とするクラスタ計算機におけるメモリ障害処理方法。
  2. 各ノードは、自ノードのメモリの共有通信エリアに対して自ノード内で発生したメモリアクセス要求を出した時に訂正不可能なメモリ障害が発生したときは共有通信エリア障害通知をメモリアクセス元に通知することを特徴とする請求項1記載のクラスタ計算機におけるメモリ障害処理方法。
  3. 自ノード内で発生したメモリアクセス要求が他ノードのメモリに対するアクセス要求である場合に相互結合網を通じて他ノードに転送する制御を行う各ノード内のシステム制御装置が、メモリアクセス要求に対する応答として訂正不可能な異常終了を相互結合網を通じて他ノードから受け取ったときに共有通信エリア障害通知をメモリアクセス元に通知することを特徴とする請求項1または2記載のクラスタ計算機におけるメモリ障害処理方法。
  4. 他ノードからのメモリアクセス要求時に自ノードのメモリで訂正不可能な異常終了が発生した場合、自ノードのシステム制御装置が、訂正不可能な異常終了を、相互結合網を介してアクセス要求元のノードに通知すると共に、自ノードのプロセッサに共有通信エリア障害通知を出すことを特徴とする請求項3記載のクラスタ計算機におけるメモリ障害処理方法。
  5. メモリアクセス要求に対する応答として訂正不可能な異常終了の転送を要求された相互結合網が、全てのノードに当該訂正不可能な異常終了をブロードキャストすることを特徴とする請求項3記載のクラスタ計算機におけるメモリ障害処理方法。
  6. メモリアクセス要求に対する応答として訂正不可能な異常終了の転送を要求された相互結合網が、訂正不可能な異常終了に代えて共有通信エリア障害通知を転送先のノードに送ることを特徴とする請求項1または2記載のクラスタ計算機におけるメモリ障害処理方法。
  7. 相互結合網が全てのノードに共有通信エリア障害通知をブロードキャストすることを特徴とする請求項6記載のクラスタ計算機におけるメモリ障害処理方法。
  8. 相互結合網を通じて他ノードから送られてきたメモリアクセス要求を自ノードのメモリに送り、そのアクセス結果を相互結合網を通じてアクセス元のノードに返却する制御を行うシステム制御装置が、他ノードからのメモリアクセス要求時に自ノードのメモリから訂正不可能な異常終了を受けたとき、訂正不可能な異常終了に代えて共有通信エリア障害通知を相互結合網を通じてアクセス元のノードに送ることを特徴とする請求項1または2記載のクラスタ計算機におけるメモリ障害処理方法。
  9. 前記システム制御装置が自ノードのプロセッサにも共有通信エリア障害通知を通知することを特徴とする請求項8記載のクラスタ計算機におけるメモリ障害処理方法。
  10. 相互結合網は全てのノードに共有通信エリア障害通知をブロードキャストすることを特徴とする請求項8記載のクラスタ計算機におけるメモリ障害処理方法。
  11. 各々のノードからの障害報告を受けて障害ログを取るサービスプロセッサが、ノードから訂正不可能なメモリ障害報告を受けたときに、その障害が共有通信エリアで発生したか否かを判別し、共有通信エリアで発生していた場合はアクセス元のノードに対して共有通信エリア障害通知を通知することを特徴とする請求項1または2記載のクラスタ計算機におけるメモリ障害処理方法。
  12. 前記サービスプロセッサが、アクセス元のノードを含め全てのノードに対して共有通信エリア障害通知を通知することを特徴とする請求項11記載のクラスタ計算機におけるメモリ障害処理方法。
  13. 共有通信エリア障害通知時、障害の発生した共有通信エリアをバッファ単位で縮退する処理を行うことを特徴とする請求項1,2,3,4,5,6,7,8,9,10,11または12記載のクラスタ計算機におけるメモリ障害処理方法。
  14. 誤り訂正機能を有するメモリ及び少なくとも1つのプロセッサを含む複数のノードを相互結合網によって互いに結合し、各ノードのメモリ上に自ノード固有エリアと前記複数のノード間で論理的に共有される共有通信エリアとを設定したクラスタ計算機において、
    各ノードは、自ノード固有エリアに対して自ノード内で発生したメモリアクセス要求を出した時に訂正不可能なメモリ障害が発生したときはシステム障害停止通知をメモリアクセス元に通知することにより自ノードの動作を停止させ、他ノードに実装されたメモリの共有通信エリアに対して自ノード内で発生したメモリアクセス要求を相互結合網を通じて出した時に訂正不可能なメモリ障害が発生したときは共有通信エリア障害通知をメモリアクセス元に通知するシステム制御装置を備えることを特徴とするクラスタ計算機。
  15. 前記各ノードのシステム制御装置は、自ノードのメモリの共有通信エリアに対して自ノード内で発生したメモリアクセス要求を出した時に訂正不可能なメモリ障害が発生したときは共有通信エリア障害通知をメモリアクセス元に通知することを特徴とする請求項14記載のクラスタ計算機。
JP33017598A 1998-05-11 1998-11-05 クラスタ計算機におけるメモリ障害処理方法及びクラスタ計算機 Expired - Fee Related JP3866426B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP33017598A JP3866426B2 (ja) 1998-11-05 1998-11-05 クラスタ計算機におけるメモリ障害処理方法及びクラスタ計算機
US09/433,238 US6782492B1 (en) 1998-05-11 1999-11-04 Memory error recovery method in a cluster computer and a cluster computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33017598A JP3866426B2 (ja) 1998-11-05 1998-11-05 クラスタ計算機におけるメモリ障害処理方法及びクラスタ計算機

Publications (2)

Publication Number Publication Date
JP2000148704A JP2000148704A (ja) 2000-05-30
JP3866426B2 true JP3866426B2 (ja) 2007-01-10

Family

ID=18229672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33017598A Expired - Fee Related JP3866426B2 (ja) 1998-05-11 1998-11-05 クラスタ計算機におけるメモリ障害処理方法及びクラスタ計算機

Country Status (2)

Country Link
US (1) US6782492B1 (ja)
JP (1) JP3866426B2 (ja)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6851071B2 (en) * 2001-10-11 2005-02-01 International Business Machines Corporation Apparatus and method of repairing a processor array for a failure detected at runtime
US7187689B1 (en) * 2001-10-29 2007-03-06 Juniper Networks, Inc. Self-cleaning mechanism for error recovery
US6990604B2 (en) * 2001-12-28 2006-01-24 Storage Technology Corporation Virtual storage status coalescing with a plurality of physical storage devices
US20040059985A1 (en) * 2002-09-25 2004-03-25 Sharp Guy Bl Method and apparatus for tracking address of memory errors
US20050257219A1 (en) * 2004-04-23 2005-11-17 Holt John M Multiple computer architecture with replicated memory fields
US20050262513A1 (en) * 2004-04-23 2005-11-24 Waratek Pty Limited Modified computer architecture with initialization of objects
US20060095483A1 (en) * 2004-04-23 2006-05-04 Waratek Pty Limited Modified computer architecture with finalization of objects
US7849452B2 (en) * 2004-04-23 2010-12-07 Waratek Pty Ltd. Modification of computer applications at load time for distributed execution
US7707179B2 (en) * 2004-04-23 2010-04-27 Waratek Pty Limited Multiple computer architecture with synchronization
US7844665B2 (en) * 2004-04-23 2010-11-30 Waratek Pty Ltd. Modified computer architecture having coordinated deletion of corresponding replicated memory locations among plural computers
US7788314B2 (en) * 2004-04-23 2010-08-31 Waratek Pty Ltd. Multi-computer distributed processing with replicated local memory exclusive read and write and network value update propagation
JP4474266B2 (ja) * 2004-11-29 2010-06-02 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにコンピュータ・プログラム
US7958322B2 (en) * 2005-10-25 2011-06-07 Waratek Pty Ltd Multiple machine architecture with overhead reduction
US8015236B2 (en) * 2005-10-25 2011-09-06 Waratek Pty. Ltd. Replication of objects having non-primitive fields, especially addresses
US7849369B2 (en) * 2005-10-25 2010-12-07 Waratek Pty Ltd. Failure resistant multiple computer system and method
US20070100828A1 (en) * 2005-10-25 2007-05-03 Holt John M Modified machine architecture with machine redundancy
US7761670B2 (en) * 2005-10-25 2010-07-20 Waratek Pty Limited Modified machine architecture with advanced synchronization
US7660960B2 (en) * 2005-10-25 2010-02-09 Waratek Pty, Ltd. Modified machine architecture with partial memory updating
WO2008040070A1 (en) * 2006-10-05 2008-04-10 Waratek Pty Limited Asynchronous data transmission
US20080133861A1 (en) * 2006-10-05 2008-06-05 Holt John M Silent memory reclamation
US20080120478A1 (en) * 2006-10-05 2008-05-22 Holt John M Advanced synchronization and contention resolution
US20080114943A1 (en) * 2006-10-05 2008-05-15 Holt John M Adding one or more computers to a multiple computer system
US7958329B2 (en) * 2006-10-05 2011-06-07 Waratek Pty Ltd Hybrid replicated shared memory
US20080126503A1 (en) * 2006-10-05 2008-05-29 Holt John M Contention resolution with echo cancellation
US20080126505A1 (en) * 2006-10-05 2008-05-29 Holt John M Multiple computer system with redundancy architecture
US20080140805A1 (en) * 2006-10-05 2008-06-12 Holt John M Multiple network connections for multiple computers
US20080140801A1 (en) * 2006-10-05 2008-06-12 Holt John M Multiple computer system with dual mode redundancy architecture
US20080130631A1 (en) * 2006-10-05 2008-06-05 Holt John M Contention detection with modified message format
US20080140762A1 (en) * 2006-10-05 2008-06-12 Holt John M Job scheduling amongst multiple computers
US20080140858A1 (en) * 2006-10-05 2008-06-12 Holt John M Switch protocol for network communications
US7949837B2 (en) * 2006-10-05 2011-05-24 Waratek Pty Ltd. Contention detection and resolution
WO2008040078A1 (en) * 2006-10-05 2008-04-10 Waratek Pty Limited Synchronization with partial memory replication
US8095616B2 (en) * 2006-10-05 2012-01-10 Waratek Pty Ltd. Contention detection
US20100121935A1 (en) * 2006-10-05 2010-05-13 Holt John M Hybrid replicated shared memory
US20080155127A1 (en) * 2006-10-05 2008-06-26 Holt John M Multi-path switching networks
WO2008040066A1 (en) * 2006-10-05 2008-04-10 Waratek Pty Limited Redundant multiple computer architecture
US20080140973A1 (en) * 2006-10-05 2008-06-12 Holt John M Contention detection with data consolidation
US20080126372A1 (en) * 2006-10-05 2008-05-29 Holt John M Cyclic redundant multiple computer architecture
US20080114853A1 (en) * 2006-10-05 2008-05-15 Holt John M Network protocol for network communications
US20080140856A1 (en) * 2006-10-05 2008-06-12 Holt John M Multiple communication networks for multiple computers
US20080140982A1 (en) * 2006-10-05 2008-06-12 Holt John M Redundant multiple computer architecture
US20080140970A1 (en) * 2006-10-05 2008-06-12 Holt John M Advanced synchronization and contention resolution
US20080250221A1 (en) * 2006-10-09 2008-10-09 Holt John M Contention detection with data consolidation
US8316190B2 (en) * 2007-04-06 2012-11-20 Waratek Pty. Ltd. Computer architecture and method of operation for multi-computer distributed processing having redundant array of independent systems with replicated memory and code striping
JP5278117B2 (ja) * 2009-03-31 2013-09-04 日本電気株式会社 バッファ縮退方式、装置及び方法
US8214424B2 (en) * 2009-04-16 2012-07-03 International Business Machines Corporation User level message broadcast mechanism in distributed computing environment
CN101562543B (zh) * 2009-05-25 2013-07-31 阿里巴巴集团控股有限公司 一种缓存数据的处理方法、处理系统和装置
US8639834B2 (en) * 2010-11-09 2014-01-28 International Business Machines Corporation Self-adjusting application heartbeat management
US9898378B2 (en) 2015-11-10 2018-02-20 International Business Machines Corporation Smart selection of a storage module to be excluded
US10114633B2 (en) * 2016-12-08 2018-10-30 International Business Machines Corporation Concurrent I/O enclosure firmware/field-programmable gate array (FPGA) update in a multi-node environment
US11243831B2 (en) * 2019-07-15 2022-02-08 Micron Technology, Inc. Reset and replay of memory sub-system controller in a memory sub-system

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5619593A (en) 1979-07-23 1981-02-24 Nippon Telegr & Teleph Corp <Ntt> Parity check processing system for memory
JPS5838766A (ja) 1981-09-01 1983-03-07 Dainippon Ink & Chem Inc 常温硬化性塗料用樹脂組成物
JPS5914197A (ja) 1982-07-14 1984-01-25 Fuji Electric Co Ltd マルチプロセツサシステム
JPS60222944A (ja) 1984-04-20 1985-11-07 Fujitsu Ltd メモリパリテイエラ−処理方式
JPS6129966A (ja) 1984-07-23 1986-02-12 Hitachi Ltd 計算機間メツセ−ジ交換における監視方法
JPS61267844A (ja) 1985-05-22 1986-11-27 Fuji Electric Co Ltd 耐故障演算制御装置
JPS63191240A (ja) 1987-02-03 1988-08-08 Nissin Electric Co Ltd マルチプロセツサシステム
JP3004278B2 (ja) 1988-11-24 2000-01-31 富士通株式会社 マルチプロセッサシステム
JPH02166544A (ja) 1988-12-20 1990-06-27 Fujitsu Ltd メモリアドレス変換方式
JPH03152638A (ja) 1989-11-09 1991-06-28 Nec Ibaraki Ltd 情報処理装置のログデータ採取方式
JPH03184154A (ja) 1989-12-13 1991-08-12 Nec Corp ネットワーク制御方式
DE69124285T2 (de) * 1990-05-18 1997-08-14 Fujitsu Ltd Datenverarbeitungssystem mit einem Eingangs-/Ausgangswegetrennmechanismus und Verfahren zur Steuerung des Datenverarbeitungssystems
US5394555A (en) * 1992-12-23 1995-02-28 Bull Hn Information Systems Inc. Multi-node cluster computer system incorporating an external coherency unit at each node to insure integrity of information stored in a shared, distributed memory
JP2766216B2 (ja) 1995-05-08 1998-06-18 甲府日本電気株式会社 情報処理装置
US5590301A (en) * 1995-10-06 1996-12-31 Bull Hn Information Systems Inc. Address transformation in a cluster computer system
JPH09146849A (ja) 1995-11-21 1997-06-06 Nec Corp 情報処理システム及びそのメモリ再構成方法
JP3875749B2 (ja) * 1996-08-08 2007-01-31 富士通株式会社 マルチプロセッサ装置及びそのメモリアクセス方法
JPH1063525A (ja) 1996-08-23 1998-03-06 Canon Inc 情報処理装置、情報処理システム及びその制御方法
US5991518A (en) * 1997-01-28 1999-11-23 Tandem Computers Incorporated Method and apparatus for split-brain avoidance in a multi-processor system
US6401223B1 (en) * 1999-05-21 2002-06-04 Unisys Corporation Programmable system for invalidating pending requests within a data processing system

Also Published As

Publication number Publication date
US6782492B1 (en) 2004-08-24
JP2000148704A (ja) 2000-05-30

Similar Documents

Publication Publication Date Title
JP3866426B2 (ja) クラスタ計算機におけるメモリ障害処理方法及びクラスタ計算機
US7353316B2 (en) System and method for re-routing signals between memory system components
US9219695B2 (en) Switch, information processing apparatus, and communication control method
US8051325B2 (en) Multiprocessor system and failure recovering system
JP2002342299A (ja) クラスタシステム、コンピュータ及びプログラム
US7873861B2 (en) Apparatus to use fabric initialization to test functionality of all inter-chip paths between processors in system
US7904663B2 (en) Secondary path for coherency controller to interconnection network(s)
JP6134720B2 (ja) 接続方法
US7296179B2 (en) Node removal using remote back-up system memory
JP2001134546A (ja) マルチプロセッサシステムの障害処理方法
US20050165974A1 (en) Computer apparatus and computer system
JP2007334668A (ja) メモリダンプ方法、クラスタシステム、それを構成するノードおよびプログラム
JP3434735B2 (ja) 情報処理システム及びそれに用いる障害処理方式
US20080043734A1 (en) Data processing system, data processing apparatus, and data processing method
US20050097208A1 (en) Node removal using remote back-up system memory
JP5482263B2 (ja) エンドポイント共有システムおよびデータ転送方法
JP3374910B2 (ja) マルチプロセッサシステム
JP2003330905A (ja) コンピュータシステム
EP4113311B1 (en) Storage device, operating method of storage device, and electronic device
JPH09160885A (ja) クラスタ型計算機装置の負荷分散方法
JPH0237458A (ja) 冗長バス構成のバス制御方式
JP2009104391A (ja) メモリ二重化システム及び情報処理装置
JP2511542B2 (ja) 情報処理システム
JPH10161907A (ja) コンピュータシステムの状態監視方法
JP2846177B2 (ja) 計算機システム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050310

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060403

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061005

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091013

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101013

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111013

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121013

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees