JP4339763B2 - フェイルオーバ方法及び計算機システム - Google Patents
フェイルオーバ方法及び計算機システム Download PDFInfo
- Publication number
- JP4339763B2 JP4339763B2 JP2004259403A JP2004259403A JP4339763B2 JP 4339763 B2 JP4339763 B2 JP 4339763B2 JP 2004259403 A JP2004259403 A JP 2004259403A JP 2004259403 A JP2004259403 A JP 2004259403A JP 4339763 B2 JP4339763 B2 JP 4339763B2
- Authority
- JP
- Japan
- Prior art keywords
- node
- nodes
- takeover
- cluster
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/08—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
- H04L43/0805—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters by checking availability
- H04L43/0817—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters by checking availability by checking functioning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/06—Management of faults, events, alarms or notifications
- H04L41/0654—Management of faults, events, alarms or notifications using network fault recovery
- H04L41/0663—Performing the actions predefined by failover planning, e.g. switching to standby network elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/40—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass for recovering from a failure of a protocol instance or entity, e.g. service redundancy protocols, protocol state redundancy or protocol service redirection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/10—Active monitoring, e.g. heartbeat, ping or trace-route
- H04L43/106—Active monitoring, e.g. heartbeat, ping or trace-route using time related information in packets, e.g. by adding timestamps
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Environmental & Geological Engineering (AREA)
- Hardware Redundancy (AREA)
- Multi Processors (AREA)
Description
次に、管理サーバ10及び各ノード1〜4で行われる処理の概要について以下に説明する。
次に、管理サーバ10の引き継ぎ情報作成機能110で行われる状態別引き継ぎ情報作成処理112の概要について以下に説明する。
管理サーバ10は、各ノード1〜4のサービス(ファイル共有)の負荷を計るため、図5で示すように、各ノード1〜4が提供しているファイルシステム毎の利用者数を集計し、ファイルシステム名に対応する利用者数(current_usr_num)をノード1〜4毎にまとめたファイルシステム利用者数リストを作成する。このリストは、管理サーバ10のメモリ12やディスク装置16あるいは共有ストレージ装置6に格納する。
管理サーバ10は、管理者などのユーザが設定した設定情報111から、各ノード1〜4のファイルシステム毎のフェイルオーバ時の引き継ぎ回数(上限値)を読み込む。引き継ぎ回数は、図6で示すように、各ノード1〜4に設けたファイルシステム名に対応する引き継ぎ回数の上限が設定され、「3」はフェイルオーバを3回まで行うことを示し、「0」はフェイルオーバを禁止することを示す。
利用者数>100人 → 引き継ぎ回数=3
50<利用者数≦100 → 引き継ぎ回数=2
10<利用者数≦50 → 引き継ぎ回数=1
利用者数≦10 → 引き継ぎ回数=0
のように決定する。
次に、管理サーバ10は、設定した設定情報111からノード1〜4毎の最大利用者数(ユーザ数)を取得する。この最大利用者数は、各ノード1〜4の処理能力などの要件に基づいて管理者などが予め設定したものであり、図7で示すように、各ノード1〜4へ同時に接続可能な利用者数を示す。なお、図7は、ノードの番号と、各ノードに設定された最大利用者数のテーブルである。
管理サーバ10は、各ノード1〜4の稼動状態に基づいて、クラスタ100の状態を設定する。ここでは、図8で示すように、4つのノード1〜4の稼動/停止を全てのパターンについて検討する。ここでは、4ビットのビット列でクラスタ100の状態を示す例について説明する。
fs11 100
fs12 80
fs13 60
であり、引き継ぐノード2〜4の利用者数と最大利用者数は、図5、図7より、
ノード2 利用者数=295 最大利用者数=400
ノード3 利用者数=248 最大利用者数=350
ノード4 利用者数=125 最大利用者数=400
となる。
fs11〜13をノード2〜4に割り当てる方法の一例としては、ノード2〜ノード4の空きユーザ数(最大利用者数−利用者数)が大きい順に、fs11〜fs13の利用者数が大きいものから割当てる。
ノード2=115
ノード3=102
ノード4=275
であるので、空きユーザ数の大きい順にソートを行うと、ノード4、2、3となる。そして、引き継ぐファイルシステムを大きい順にソートすると、fs11、12、13となる。
上記STEP4の結果、状態名S0〜S14について、図11で示すような、リソースの引き継ぎリストを得ることができる。
以上のSTEP4、5で作成した図11のリソース引き継ぎリストを、共有ストレージ装置6に格納する。
次に、リソースの割り当てが完了すると、フェイルオーバ時のアドレス(例えば、IPアドレス)の引き継ぎ状態を作成する。
ノード1:ノード2のIPアドレス
ノード3:ノード4のIPアドレス
をそれぞれ割り当てる。
各ノード1〜4で実行される、フェイルオーバ機能220を構成するクラスタ状態監視処理221の概要について、説明する。
各ノード1〜4で実行される、フェイルオーバ機能220を構成するフェイルオーバ処理223の概要について、説明する。
フェイルオーバ時にマスタとなるノードを決定するため、共有ストレージ装置6上の確認テーブルを参照して、自身のノード番号(例:Node X)が最も小さい場合、自身がマスタとなり、そうでない場合はスレーブとなる。
自ノードがマスタの場合には、停止しているノードに対して、シャットダウン要求を行い、ノードを停止する。その後、後述の状態確認要求処理222を呼び出し、他のノードに引き継ぎ状態を確認する。
自ノードがスレーブの場合には、マスタとなったノードから状態確認要求を受けて、フェイルオーバ処理を再開する。
各ノード1〜4で実行される、フェイルオーバ機能220を構成するフェイルバック処理224の概要について、説明する。
フェイルバック時にマスタとなるノードを決定するため、共有ストレージ装置6上の確認テーブルを参照して、自身のノード番号(例:Node X)が最も小さい場合、自身がマスタとなり、そうでない場合は、スレーブとなる。
自ノードがマスタの場合には、稼働中の他のノードに対して後述の状態確認要求処理222を呼び出し、他のノードに引き継ぎ状態を確認する。
自ノードがスレーブの場合には、マスタとなったノードから状態確認要求を受けて、フェイルバック処理を再開する。
各ノード1〜4で実行される、フェイルオーバ機能220を構成する状態確認要求処理222の概要について、説明する。
管理サーバ10の引き継ぎ情報作成機能110で行われる状態別引き継ぎ情報作成処理112の詳細な処理内容について、図16のフローチャートを参照しながら以下に説明する。このフローチャートは、所定の周期(例えば、数秒)で実行されるものである。
次に、上記S216で行われる状態S(x)毎のリソース引き継ぎ情報の作成処理について、図17のサブルーチンを参照しながら詳述する。
j=(i mod n)+1
として演算する。なお、modはi/nの余りを求める演算子である。
次に、上記S220で行われる状態S(x)毎のアドレス引き継ぎ情報の作成処理について、図18のサブルーチンを参照しながら詳述する。
各ノード1〜4のフェイルオーバ機能220で行われるクラスタ状態監視処理221の詳細な処理内容について、図19のフローチャートを参照しながら以下に説明する。このフローチャートは、時分割処理などにより繰り返して実行されるものである。
S=S+(2^(ノード数−ノード番号))
として更新する。この演算により、障害の生じたノードに対応するビットがオン(=1)に変更される。
各ノード1〜4のフェイルオーバ機能220で行われるフェイルオーバ処理223の詳細な処理内容について、図20のフローチャートを参照しながら以下に説明する。このフローチャートは、上記図19のS84で起動されるもので、クラスタ状態監視処理221とは別のプロセスで起動されるものである。なお、この図20の処理を上記S84のサブルーチンとすることも可能である。
各ノード1〜4のフェイルオーバ機能220で行われるフェイルバック処理224の詳細な処理内容について、図21のフローチャートを参照しながら以下に説明する。このフローチャートは、上記図19のS85で起動されるもので、クラスタ状態監視処理221とは別のプロセスで起動されるものである。なお、この図21の処理を上記S85のサブルーチンとすることも可能である。
各ノード1〜4のフェイルオーバ機能220で行われる状態確認要求処理222の詳細な処理内容について、図22のフローチャートを参照しながら以下に説明する。このフローチャートは、上記図20のS93または図21のS102で起動されるもので、クラスタ状態監視処理221とは別のプロセスで起動されるものである。なお、この図22の処理を上記S93またはS102のサブルーチンとすることも可能である。
上記実施形態において、各ノード1〜4のいずれかがマスターとなってフェイルオーバ処理を行う例を示したが、図23で示すように、管理サーバ10にフェイルオーバ機能220を搭載し、管理サーバ10が常にマスターとして動作し、各ノード1〜4が常にスレーブとして動作させる構成も可能である。この場合、例えば、管理サーバ10にノード番号として、0を与えれば、管理サーバ10によるクラスタノード監視体制をとることができる。
上記実施形態において、各ノード1〜4は、引き継ぐノード番号が小さいノードがマスターとなる例を示したが、図24で示すように、マスターとなった回数を示すテーブルを共有ストレージ装置6上に設け、マスターとなった回数が小さいものから順にマスターとなるようにしてもよい。この場合、ノード番号が小さいノードが繰り返しマスターになるのを防ぎ、各ノード1〜4の負荷をさらに均一にすることができる。
上記実施形態において、各ノード1〜4が全て稼動している状態を0段目(図8参照)としたが、1段目(1つのノードが停止した状態)等を初期状態としても良い。この場合、停止中のノードをスタンバイとして、クラスタ100の全体の負荷が上昇したときにスタンバイのノードをクラスタ100へ加える(フェイルバック)ことで、ノードの自動拡張を行うことができる。
6 共有ストレージ装置
10 管理サーバ
20〜50 サーバ
112 状態別引き継ぎ情報作成処理
221 クラスタ状態監視処理
223 フェイルオーバ処理
224 フェイルバック処理
Claims (3)
- 複数のノードからなるクラスタを有し、前記複数のノードのいずれかに障害が発生したときに、障害の発生したノードの処理を他のノードへ引き継ぐフェイルオーバ方法であって、
前記複数のノードが相互に稼動状態を監視する手順と、
前記監視結果に基づいて障害の発生を検知する手順と、
前記障害が発生したことを検知したときには、前記障害が発生したノードを除くクラスタ内の各ノードが、予め共有する記憶装置に格納された障害の発生したノードの処理を他のノードへ引き継ぐ引き継ぎ情報を読み込む手順と、
前記各ノードが、前記引き継ぎ情報に基づいて障害が発生したノードの処理を引き継ぐ手順と、
前記クラスタ内の各ノードの負荷を取得する手順と、
前記取得した負荷に基づいて、前記複数のノードのいずれかに障害が発生したときの前記引き継ぎ情報を作成する手順と、
を含み、
前記引き継ぎ情報を作成する手順は、
各ノードの処理毎に引き継ぐ回数の上限を設定する手順と、
現在の引き継ぎ回数と前記引き継ぐ回数の上限に基づいて、他のノードに引き継ぐ処理を選択する手順と、を含むことを特徴とするフェイルオーバ方法。 - 複数のノードからなるクラスタと、
前記クラスタを管理する管理ノードと、を備えて、
前記複数のノードのいずれかに障害が発生したときに、障害の発生したノードの処理を他のノードへ引き継ぐ計算機システムにおいて、
前記クラスタ内の各ノード及び前記管理ノードに共有されて、前記複数のノードのいずれかに障害が発生したときの引き継ぎ情報を格納する共有記憶装置を備え、
前記クラスタ内の各ノードは、
他のノードの稼動状態を監視する監視部と、
前記監視結果に基づいて他のノードの障害の発生を検知する障害検知部と、
前記障害を検知したときには、前記共有記憶装置から引き継ぎ情報を取得する引き継ぎ情報取得部と、
前記引き継ぎ情報に基づいて障害が発生したノードの処理を引き継ぐフェイルオーバ部と、
前記クラスタ内の各ノードの負荷を取得する負荷取得部と、
前記取得した負荷に基づいて、前記複数のノードのいずれかに障害が発生したときの引き継ぎ情報を作成し、前記共有記憶装置に書き込む引き継ぎ情報作成部と、
を有し、
前記引き継ぎ情報作成部は、
前記各ノードの処理毎に引き継ぐ回数の上限を設定する引き継ぎ回数上限設定部と、
現在の引き継ぎ回数と前記引き継ぐ回数の上限に基づいて、他のノードに引き継ぐ処理を選択することを特徴とする計算機システム。 - 複数のノードからなるクラスタと、
前記クラスタを管理する管理ノードと、を備えて、
前記複数のノードのいずれかに障害が発生したときに、障害の発生したノードの処理を他のノードへ引き継ぐ計算機システムにおいて、
前記クラスタ内の各ノード及び前記管理ノードに共有されて、前記複数のノードのいずれかに障害が発生したときの引き継ぎ情報を格納する共有記憶装置を備え、
前記クラスタ内の各ノードは、
他のノードの稼動状態を監視する監視部と、
前記監視結果に基づいて他のノードの障害の発生または障害の復旧を検知する検知部と、
前記障害または復旧を検知したときには、前記共有記憶装置から引き継ぎ情報を取得する引き継ぎ情報取得部と、
前記障害が発生したときには、引き継ぎ情報に基づいて障害が発生したノードの処理を引き継ぐフェイルオーバ部と、
前記復旧が発生したときには、引き継ぎ情報に基づいて復旧したノードに処理を引き継ぐフェイルバック部と、
前記クラスタ内の各ノードの負荷を取得する負荷取得部と、
前記取得した負荷に基づいて、前記複数のノードのいずれかに障害が発生したときの引き継ぎ情報を作成し、前記共有記憶装置に書き込む引き継ぎ情報作成部と、
を有し、
前記引き継ぎ情報作成部は、
前記各ノードの処理毎に引き継ぐ回数の上限を設定する引き継ぎ回数上限設定部と、
現在の引き継ぎ回数と前記引き継ぐ回数の上限に基づいて、他のノードに引き継ぐ処理を選択することを特報とする計算機システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004259403A JP4339763B2 (ja) | 2004-09-07 | 2004-09-07 | フェイルオーバ方法及び計算機システム |
US10/985,937 US7428210B2 (en) | 2004-09-07 | 2004-11-12 | Fail over method and a computing system having fail over function |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004259403A JP4339763B2 (ja) | 2004-09-07 | 2004-09-07 | フェイルオーバ方法及び計算機システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006079161A JP2006079161A (ja) | 2006-03-23 |
JP4339763B2 true JP4339763B2 (ja) | 2009-10-07 |
Family
ID=35996072
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004259403A Expired - Fee Related JP4339763B2 (ja) | 2004-09-07 | 2004-09-07 | フェイルオーバ方法及び計算機システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US7428210B2 (ja) |
JP (1) | JP4339763B2 (ja) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2882165B1 (fr) * | 2005-02-11 | 2007-06-29 | Airbus France Sas | Systeme et procede de traitements embarques d'essais en vol |
US7461289B2 (en) * | 2006-03-16 | 2008-12-02 | Honeywell International Inc. | System and method for computer service security |
US7580956B1 (en) | 2006-05-04 | 2009-08-25 | Symantec Operating Corporation | System and method for rating reliability of storage devices |
FR2903384B1 (fr) * | 2006-07-04 | 2009-05-29 | Airbus France Sas | Systeme de commande de vol pour aeronef,et systeme de test pour tester un tel systeme de commande de vol. |
JP5052361B2 (ja) * | 2008-01-31 | 2012-10-17 | 株式会社フジテレビジョン | 画像処理システム及び画像処理方法 |
JP2009217587A (ja) * | 2008-03-11 | 2009-09-24 | Hitachi Ltd | バッチ処理装置及び方法 |
US8327186B2 (en) * | 2009-03-10 | 2012-12-04 | Netapp, Inc. | Takeover of a failed node of a cluster storage system on a per aggregate basis |
US8145838B1 (en) | 2009-03-10 | 2012-03-27 | Netapp, Inc. | Processing and distributing write logs of nodes of a cluster storage system |
US8069366B1 (en) * | 2009-04-29 | 2011-11-29 | Netapp, Inc. | Global write-log device for managing write logs of nodes of a cluster storage system |
US8694625B2 (en) | 2010-09-10 | 2014-04-08 | International Business Machines Corporation | Selective registration for remote event notifications in processing node clusters |
US8984119B2 (en) | 2010-11-05 | 2015-03-17 | International Business Machines Corporation | Changing an event identifier of a transient event in an event notification system |
US8433760B2 (en) * | 2010-12-03 | 2013-04-30 | International Business Machines Corporation | Inter-node communication scheme for node status sharing |
US8667126B2 (en) | 2010-12-03 | 2014-03-04 | International Business Machines Corporation | Dynamic rate heartbeating for inter-node status updating |
US8634328B2 (en) | 2010-12-03 | 2014-01-21 | International Business Machines Corporation | Endpoint-to-endpoint communications status monitoring |
US8634330B2 (en) | 2011-04-04 | 2014-01-21 | International Business Machines Corporation | Inter-cluster communications technique for event and health status communications |
US9154367B1 (en) * | 2011-12-27 | 2015-10-06 | Google Inc. | Load balancing and content preservation |
JP5590022B2 (ja) | 2011-12-28 | 2014-09-17 | 富士通株式会社 | 情報処理装置、制御方法および制御プログラム |
CN104137085B (zh) | 2012-02-14 | 2016-12-14 | 国际商业机器公司 | 集群环境中用于控制客户端对服务的访问的方法 |
JP6007522B2 (ja) | 2012-03-09 | 2016-10-12 | 日本電気株式会社 | クラスタシステム |
US10452284B2 (en) * | 2013-02-05 | 2019-10-22 | International Business Machines Corporation | Storage system based host computer monitoring |
JP2014229088A (ja) * | 2013-05-23 | 2014-12-08 | ソニー株式会社 | データ処理システム、データ処理装置および記憶媒体 |
US9348717B2 (en) * | 2013-07-24 | 2016-05-24 | Netapp, Inc. | Storage failure processing in a shared storage architecture |
US10613949B2 (en) * | 2015-09-24 | 2020-04-07 | Hewlett Packard Enterprise Development Lp | Failure indication in shared memory |
WO2017094168A1 (ja) * | 2015-12-03 | 2017-06-08 | 株式会社日立製作所 | 相互監視システム、相互監視システムにおける障害通知方法、及び、障害通知機能を発揮させるプログラムが記録された非一時的記憶媒体 |
CN108464031B (zh) * | 2016-01-15 | 2019-11-08 | 阿弗梅德网络公司 | 电信网络中的基于数据库的冗余 |
US10346191B2 (en) * | 2016-12-02 | 2019-07-09 | Wmware, Inc. | System and method for managing size of clusters in a computing environment |
US10877858B2 (en) * | 2018-10-19 | 2020-12-29 | Oracle International Corporation | Method and system for a speed-up cluster reconfiguration time via a generic fast self node death detection |
CN111193600B (zh) * | 2018-11-14 | 2023-04-07 | 杭州海康威视系统技术有限公司 | 一种接管服务的方法、装置及系统 |
US11347521B2 (en) * | 2020-01-16 | 2022-05-31 | Vmware, Inc. | Cloud restart for non-critical performance virtual machines |
JP7332488B2 (ja) * | 2020-01-16 | 2023-08-23 | 株式会社日立製作所 | ストレージシステム及びストレージシステムの制御方法 |
US11593234B2 (en) | 2020-01-16 | 2023-02-28 | Vmware, Inc. | Cloud restart for VM failover and capacity management |
CN116684433A (zh) * | 2022-02-23 | 2023-09-01 | 中移(苏州)软件技术有限公司 | 一种请求处理方法、装置及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6128279A (en) * | 1997-10-06 | 2000-10-03 | Web Balance, Inc. | System for balancing loads among network servers |
US6154765A (en) * | 1998-03-18 | 2000-11-28 | Pasocs Llc | Distributed digital rule processor for single system image on a clustered network and method |
US6965936B1 (en) * | 2000-12-06 | 2005-11-15 | Novell, Inc. | Method for detecting and resolving a partition condition in a cluster |
JP2003256399A (ja) | 2002-02-26 | 2003-09-12 | Nec Corp | ホットスタンバイシステム切り替え制御方式 |
US7225356B2 (en) * | 2003-11-06 | 2007-05-29 | Siemens Medical Solutions Health Services Corporation | System for managing operational failure occurrences in processing devices |
-
2004
- 2004-09-07 JP JP2004259403A patent/JP4339763B2/ja not_active Expired - Fee Related
- 2004-11-12 US US10/985,937 patent/US7428210B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20060050629A1 (en) | 2006-03-09 |
JP2006079161A (ja) | 2006-03-23 |
US7428210B2 (en) | 2008-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4339763B2 (ja) | フェイルオーバ方法及び計算機システム | |
CN111818159B (zh) | 数据处理节点的管理方法、装置、设备及存储介质 | |
JP4620455B2 (ja) | サーバ連結環境のための業務継続ポリシー | |
US7778984B2 (en) | System and method for a distributed object store | |
US8706879B2 (en) | Automated discovery and inventory of nodes within an autonomic distributed computing system | |
JP4462969B2 (ja) | フェイルオーバクラスタシステム及びフェイルオーバ方法 | |
US8065560B1 (en) | Method and apparatus for achieving high availability for applications and optimizing power consumption within a datacenter | |
US20060155912A1 (en) | Server cluster having a virtual server | |
JP2020021277A (ja) | 情報処理システム、情報処理システムの管理方法及びプログラム | |
US10367676B1 (en) | Stable leader selection for distributed services | |
CN108369544A (zh) | 计算系统中延期的服务器恢复 | |
CN112231108A (zh) | 任务处理方法、装置、计算机可读存储介质及服务器 | |
CN113312153B (zh) | 一种集群部署方法、装置、电子设备及存储介质 | |
CN113342893B (zh) | 基于区块链的节点同步方法、装置、存储介质及服务器 | |
JP2009223519A (ja) | クラスタシステム及び同システムにおいてマスタノードを選択する方法 | |
CN112714022A (zh) | 多套集群的控制处理方法、装置及计算机设备 | |
Stack et al. | Self-healing in a decentralised cloud management system | |
US8595349B1 (en) | Method and apparatus for passive process monitoring | |
TWI584654B (zh) | 一種服務最佳化的電腦系統及其方法 | |
CN113364874A (zh) | 基于区块链的节点同步方法、装置、存储介质及服务器 | |
JP5657096B2 (ja) | アプリケーションの無進行状態の検出 | |
JP7332249B2 (ja) | 移行先決定プログラム、装置、及び方法 | |
CN115022157B (zh) | 一种集群内节点故障转移的方法、装置、设备及介质 | |
US20180019923A1 (en) | System and method for managing distributed cluster identity | |
CN113515403B (zh) | 微服务状态检查方法、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070606 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090316 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090324 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090508 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090630 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090702 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120710 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130710 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |