JP2007500895A - 複数のサービス・ポイントを有する自律コンピューティングにおける動的に構成可能な耐障害性 - Google Patents

複数のサービス・ポイントを有する自律コンピューティングにおける動的に構成可能な耐障害性 Download PDF

Info

Publication number
JP2007500895A
JP2007500895A JP2006521850A JP2006521850A JP2007500895A JP 2007500895 A JP2007500895 A JP 2007500895A JP 2006521850 A JP2006521850 A JP 2006521850A JP 2006521850 A JP2006521850 A JP 2006521850A JP 2007500895 A JP2007500895 A JP 2007500895A
Authority
JP
Japan
Prior art keywords
processor
processors
clusters
cluster
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006521850A
Other languages
English (en)
Other versions
JP2007500895A5 (ja
JP4405511B2 (ja
Inventor
ムクハージー、マハラージャ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2007500895A publication Critical patent/JP2007500895A/ja
Publication of JP2007500895A5 publication Critical patent/JP2007500895A5/ja
Application granted granted Critical
Publication of JP4405511B2 publication Critical patent/JP4405511B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/177Initialisation or configuration control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1021Server selection for load balancing based on client or server locations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1023Server selection for load balancing based on a hash applied to IP addresses or costs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1034Reaction to server failures by a load balancer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/505Clust
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/40Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass for recovering from a failure of a protocol instance or entity, e.g. service redundancy protocols, protocol state redundancy or protocol service redirection

Abstract

【課題】
複数のプロセッサを有するシステムであって、各々が1つのサービス・ポイントを持つ少なくとも1つのクラスタを備えたシステム、を提供するようにそのシステムを構成する方法を提供する。
【解決手段】
システムにおける各プロセッサから他のプロセッサまでの距離が計算される。しかる後、複数の合計距離が計算される(但し、各合計距離が1つのプロセッサに関連する)。最小合計距離が複数の合計距離から決定される。1つプロセッサがサービス・ポイントとなるように割り当てられる。このプロセッサは最小合計距離に関連するプロセッサである。
【選択図】 図6

Description

本発明は、自律コンピューティング(autonomic computing)に関し、詳しく云えば、効率的な耐障害性の自己構成(self-configuring)および自己修正(self-healing)オペレーションのためのシステムにおいて、プロセッサをクラスタ化し、サービス・ポイントを割り当てるための方法に関するものである。
自律コンピューティングは、一般に、自己監視し、自己構成し、耐障害性であり、および自己修正するマルチプロセッサ・コンピュータ・システムを意図したものを指すが、それはかなり原理的および実用的な観点からの見方である。良好な自律コンピューティング・システムを構築する場合の1つの重要な考察点は、自己修正機構を拡張するためにシステム自体にそのシステムの耐障害性を組み込むことである。自己修正機構は、障害時に、システムが直ちにその障害の性質を検出し、その障害の是正を試みることを必要とするであろう。それが障害を是正できなかった場合、システムは、障害を起こしたプロセッサのタスクを1つまたは複数の他のプロセッサに割り振ることによって、続いて起るパフォーマンス低下を最小限にするであろう。一般的なコンピュータ・アーキテクチャでは、障害検出および管理に関するこのタスクは、プロセッサの1つによって、またはマスタ・プロセッサによって行われる。
自律コンピューティング・システムを構成するプロセッサは地理的に広い領域に分散されることがある。更に、プロセッサは多くの種々のタイプのものがあり、多くの種々のタイプのオペレーティング・システムを稼動させ、分散ネットワークによって接続されることがある。種々のプロセッサが地理的にクラスタ状態で配列されることが多い。そのような配列は、1つのマスタ・プロセッサにシステム全体の耐障害性を管理させることを許容するものではない。従って、幾つかのプロセッサに障害管理を行わせることは有益である。本願では、これらのプロセッサをサービス・ポイントと呼ぶことにする。
図1には、サービス・ポイントを利用する代表的なシステムが示される。システム1は複数の相互接続されたプロセッサ2を含み、それらのプロセッサの1つがサービス・ポイント10となるように割り当てられる。一般に、サービス・ポイントは、そのプロセッサが他のプロセッサまでの最小距離を有するものとなるように選ばれる。本願では、「距離」という用語は、プロセッサ間の必要な通信時間の尺度として使用される。サービス・ポイントは、それ自身の正規のコンピューティング負荷に加えて、次のようないくつかのタスクを有する。
(1)システム内の別の場所における障害プロセッサを検出する、
(2)そのプロセッサのタスクを他のプロセッサに再割り振りすることによって障害プロセッサを置換する、
(3)他のプロセッサによって実行されるタスクを監視する、および
(4)最適のパフォーマンスを保証するためにシステムにおける負荷を平衡させる。
図2は、プロセッサ3がサービス・ポイント10によって障害を検出されたシステムから取り除かれてしまったこと、および、システムにおける残りのプロセッサが動作を継続していることを示す。
冗長な計算を使用する耐障害性が時々使用されるが、現用の自律計算システムの自己修正および自己構成のフィーチャは、例えば、次のようないくつかの新たな問題点を提起している。
(1)すべてのプロセッサ(遠隔地に設置されたものを含む)が同様のものであり且つ交換可能であるとき、自律システムの自己構成可能および自己調整可能フィーチャは非常に良好に作用する。これは、サービス・ポイントが特別のプロセッサである必要がなく、むしろ、余分な負荷を操作しているプロセッサの同じセットから選択されることを意味する。
(2)通常、並列およびスケーラブル・コンピュータ・アーキテクチャでは、プロセッサ・ポイントの数が一定であり、アクティブ・プロセッサの数分の一として指定することができない。しかし、少な過ぎるサービス・ポイントを持つことは自己修正機構を低速にし過ぎる。多過ぎるサービス・ポイントを持つことはシステムの全体的なパフォーマンスを低下させる。
(3)自律コンピューティング・システムは動的な環境で働くので、システム・パフォーマンスを最適化するためにクラスタ化およびサービス・ポイントの割当てを動的に最適化することが重要である。オンデマンド・コンピューティング環境では、プロセッサの合計数(従って、クラスタの構成およびサービス・ポイントの割当て)がコンピューティング負荷に応答して常に変化している。
自律コンピューティング・システムの自己構成環境では、サービス・ポイントを事前割当てすることは一般に不可能である。従って、その状況に関する要件に従って、いずれの現用のプロセッサもサービス・ポイントになるように動的に割り当てることが可能である。一方、多過ぎるサービス・ポイントを設けることはシステムにおける大きい計算上の負荷を導くことになる。従って、サービス・ポイントの数を稼動プロセッサの数の数分の一に限定して保つことが望ましい。
従って、現在の課題は、分散および動的環境におけるプロセッサのセット、および稼動プロセッサの合計数に対するサービス・プロセッサの最大数の比率を表す数を考慮して、サービス・ポイントおよび各サービス・ポイントがサービスするプロセッサを決定することである。
クラスタ化という概念は多くの他の分野にうまく適用されている。しかし、上述の適用分野では、クラスタの数を経験的に指定することができない。余分のサービス・ポイントが常に制限されるよう、クラスタの数に上限を設定することが必要である。一定の限界を伴うクラスタ化の問題点は、一般には対処し難いもの、即ち、効率的な最適の解決方法が存在しないもの、と思われている。しかし、次善の効率的な解決方法に対する要求は依然として存在する。更に詳しく云えば、システムの最適なパフォーマンス(自己構成および自己修正を含む)を保証するために、システムにおける種々のプロセッサをクラスタに動的に割り当て、各クラスタ内のサービス・ポイントを割り当てるための効果的な手順に対する要求が存在する。
本発明の課題は、複数のプロセッサを有するシステムであって、各々が1つのサービス・ポイントを持つ少なくとも1つのクラスタを備えたシステム、を提供するようにそのシステムを構成する方法を提供することにより、上記の要求に対処することである。
本発明によれば、これは、システムにおける各プロセッサから他のプロセッサまでの距離を計算することによって行われる。そこで、複数の合計距離が計算される。その場合、各合計距離が1つのプロセッサに関連している。それらの複数の合計距離から、最小の合計距離が決定される。1つのプロセッサが、サービス・プロセッサとなるように割り当てられる。このプロセッサは、最小の合計距離に関連するプロセッサである。
本発明のもう1つの実施例によれば、本発明の方法は、システムを複数のクラスタに区分することを含む。この区分するプロセスは、各プロセッサに関連する合計距離に従ってプロセッサを分類すること、各プロセッサを2つのクラスタのうちの一方に割り当てること、各クラスタにおけるプロセッサに対する最小の合計距離を、当該クラスタにおけるプロセッサに関連する複数の合計数に従って決定すること、および、各クラスタに対するサービス・プロセッサとして、当該クラスタにおける最小合計距離に関連するプロセッサを割り当てること、を含む。
本発明の更なる実施例によれば、2つのクラスタの1つが2つのクラスタに再分割され、それによってシステムを3つのクラスタに区分する。3つのクラスタにおけるプロセッサに関連する複数の合計距離に従って、3つのクラスタの各々におけるプロセッサに対する最小合計距離が決定される。その最小合計距離に従って、プロセッサが3つのクラスタに割り当てられる。各クラスタにおける最小合計距離に関連するプロセッサがそのクラスタに対するサービス・ポイントとして割り当てられる。
本発明の更なる実施例によれば、プロセッサは異なるタイプのプロセッサであってもよく、それらのタイプに従ってクラスタに割り当てられる。
システムは、プロセッサがそのシステムに加えられるかまたはそのシステムから取り除かれるとき、動的に構成することが可能である。更に、システムの区分化は、プロセッサがシステムから取り除かれるとき、動的に変更することが可能である。
各クラスタにおいて、サービス・ポイントがシステムから取り除かれる場合、そのサービス・ポイントの機能を引き受けるために他のプロセッサをバックアップ・サービス・ポイントとして割り当てることが可能である。
本発明の他の実施例によれば、コンピュータ可読記憶媒体が提供される。その記憶媒体は、複数のプロセッサを有するシステムであって、各々が1つのサービス・ポイントを持つ少なくとも1つのクラスタを備えたシステム、を提供するようにそのシステムを構成する方法を実行するための命令を記憶している。この方法は、システムにおける各プロセッサから他のプロセッサまでの距離を計算するステップ、各合計距離が1つのプロセッサに関連する複数の合計距離を計算するステップ、複数の合計距離から最小合計距離を決定するステップと、最小合計距離に関連するプロセッサをサービス・ポイントとして割り当てるステップを含む。
以下の説明では、システムがN個のプロセッサc1、c2、......cNのセットを有するものと仮定する(図3参照)。d(i,i)=0 および d(i,j) が三角不等式を満足するよう、即ち、d(i,j)+d(j,k) が、d(i,k) よりも大きいかまたはそれに等しくなるよう、プロセッサciおよびcjの間の距離関数d(i,j) が定義される。プロセッサ間の通信の観点から、これは、j 番目のプロセッサを介した通信が i 番目のプロセッサおよび k 番目のプロセッサの間の直接通信よりも遅くなければならないことを意味する。距離d(i,j) は、通信ネットワークの速度、データ交換およびデータ量の比率、およびプロセッサの地理的位置の関数である。
N個のプロセッサのうち、サービス・ポイントとして作用するという余分な負荷を引き受けることができるプロセッサの最大分数として、分数値 f が定義される。数値p=N*fは、サービス・ポイントとして作用するプロセッサの最大数を表す。従って、システムは、最大p個のクラスタを有することが可能である。
本発明によれば、N個のプロセッサから成り、p個のクラスタを有するシステムにおいて、クラスタおよびサービス・ポイントを割り当てるための方法が、複雑さを増すいくつかのケースとして下記のように提供される。
A.ケース1:同様のプロセッサの静的システム
プロセッサc1、c2、......、cNのシステムは、p個の異なるクラスタに分けられるべきものである。この場合、各クラスタは、当該クラスタに属するすべてのプロセッサの、当該クラスタの対応するサービス・ポイントまでの最大距離の和が最小になるよう、サービス・ポイントによって識別される。例えば、図4は、p=4個のクラスタに分けられるべきN=20個のプロセッサを有するシステム30を示す。この例では、分数 f は、1/5であり、実際には、f は一般に1/50乃至1/100の範囲の非常に小さい値である。
先ず、p=1およびp=2の時の単純なケース、即ち、1個および2個のクラスタに関する方法を説明することにする。これらの2つのケースは非自明なケースの基礎を形成する。p=1に関して、即ち、単一のクラスタに関して、次のようなアルゴリズムが使用される。
(a)アルゴリズム(N,1)
i=1乃至i=Nに対して下記の動作を行う。
j=1乃至N(j≠i)に対してd_i=SUM{d(i,j)} をセットする。
i=1乃至Nに対して d_i が最小となるようにiを出力する。
図5は、N=10個のプロセッサを有し、プロセッサc1に対して距離d(1,j) が計算されるシステムを示す。距離 d(1,2)、d(1,3)、......、d(1,10) の和がプロセッサc1に対する合計距離である。
図6は、アルゴリズム(N,1)を示すフローチャートである。第1プロセッサに関して開始すると(ステップ301におけるi=1)、そのプロセッサと他のプロセッサの各々との間の距離が計算される(ステップ302)。これらの距離の和がクラスタにおけるi番目のプロセッサに対する合計距離である(ステップ303)。合計距離が最小であるプロセッサ(ステップ304)がそのクラスタに対するサービス・ポイントになるであろう。
p=2、即ち、2つのクラスタに関して、下記のアルゴリズム、即ち、アルゴリズム(N,2)が使用される。そのアルゴリズムでは、アルゴリズム(N,1)が繰返し使用される。初期ステップのように、N個のプロセッサのセット全体が単一のクラスタとして扱われ、上記のアルゴリズム(N,1)が各プロセッサに対する合計距離を計算するために使用される。即ち、N個のプロセッサの各々が当該プロセッサから他のプロセッサまでの距離の和を表す合計距離を有する。i番目のプロセッサに対するこの距離はd(i,1) として示される。そこで、N個のプロセッサをこの距離に従って分類することが可能である。
(b)アルゴリズム(N,2)
1.プロセッサを距離 d(i,1) によって分類する。
2.2つのクラスタL1およびL2を初期化する。なお、L1はN個のプロセッサすべてを含み、L2は0個のプロセッサを含む。
2.1 アルゴリズム(N,1)を使ってL1に対するサービスのポイントおよびそれの最小距離を計算する。
2.2 d_0 をそれの距離に初期化する。
3.プロセッサc1、c2、.....、cNをそれらの分類順に走査する。
3.1 各プロセッサc_i に関して、それをL1から取り除き、それをL2に入れる。
3.2 L1およびL2対するサービスのポイントおよび距離 d_1iおよび d_2i を計算する。
3.3 距離の和 d_i=d_1i+d_2i をセットする。
4.d_i が最小となるよう i=1乃至Nに対する距離 di を選定し、その距離に対するクラスタL1およびL2を出力する。
図7は、N=10個のプロセッサを有し、2つのクラスタL1およびL2に分けられたシステム30の概略図である。図8は、アルゴリズム(N,2)を図解したフローチャートを示す。上述のように、先ず、アルゴリズム(N,1)を使用してシステムの各プロセッサに対する合計距離が計算され(ステップ321)、しかる後、この距離に従って、プロセッサが分類される(ステップ322)。クラスタのその初期割り当てでは、10個のプロセッサすべてがクラスタL1にあり、クラスタL2にはクラスタがない。従って、初期最小合計距離d_0 は、アルゴリズム(N,1)を使用して前に計算された値と同じである(ステップ323)。各プロセッサ(最小距離で始まり、アルゴリズム(N,1)を使用して計算されたように距離による分類順序で生じる)がクラスタL1からクラスタL2に順次移動し(ステップ324)、各繰返しに対してアルゴリズム(N,1)を使用して各クラスに対する最小合計距離が計算される(ステップ325)。i番目の繰り返しにおいて、最小合計距離が、クラスタL1に対するd_1i およびクラスタL2に対する d_2i として示される。そこで、結合された最小距離 d_i=d_1i+d_2i が計算される(ステップ326)。N個の繰返しの1つにおいて、d_1の値が最小になるであろう。この値は、対応するクラスタ割振りの際にシステムに対する合計距離として選定される(ステップ327)。
p個のクラスタの非自明なケースに関して、上記のアルゴリズム(N,2)が繰り返し使用される。各ステージにおいて、アルゴリズム(N,2)を使用して、作成されたクラスタの各々が2つの部分に分けられる。そこで、合計距離関数を最小にするクラスタ割り当てが識別される。
例えば、アルゴリズム(N,2)が実行されるとき、図7に示されたN=10個のプロセッサのシステムが2つのクラスタL1およびL2に分けられる。そこで、次のステージにおいて、L2はそのままにして、クラスタL1が2つのクラスタL1.1およびL1.2に分けられる(図9)。次に、合計距離(d2.1として示される)が、L1.1、L2.1、およびL2のクラスタ距離の和として計算される。次に、クラスタL1をそのままにして、クラスタL2が2つのクラスタL2.1およびL2.2に分けられる(図10)。再び、合計距離(d2.2として示される)が、L1、L2.1、およびL2.2のクラスタ距離の和として計算される。d2.1 および d2.2 の小さい方が、それに対応するクラスタ構成と共に選ばれる。従って、d2.1<d2.2である場合、クラスタL1.1、L1.2、およびL2が選ばれる。再分割であるL1.1およびL1.2はそれぞれL1およびL3として再命名され、クラスタL3のこのセットに対する合計距離がd2.1 に等しくセットされる。
同様に、いずれの繰返しステージq+1(但し、q=2、....、N−1)においても、クラスタL1、....、Lqが存在する。q+1個のクラスタのq個のセットが、他のすべてのクラスタをそのままにして、クラスタL1、....、Lqの各々を2つの部分L_{j.1} およびL_{j.2} (但し、j=1,...、q)に一時に1つずつ分けることによって作成される。そこで、これらのクラスタの各々に対して、距離d_{q.1}、...、{d_{q.q}} が計算される。これらの距離のうちの最小距離が、対応するクラスタ構成と共に選ばれる。d_{m.j}=min{d_{q.1}、....、{d_{q.q}}であると仮定する。そこで、対応するクラスタ{L1、L2,....、Lq}が選ばれる。次に、距離 d_{q+1} が d_{m.j} に等しくセットされ、Lm=Lm.1およびL_{q+1}=Lm.2にセットされる。このプロセスが、それぞれが自身のサービス・ポイントを有するq+1個のクラスタのセットを生じる。
p個のクラスタのためのアルゴリズムは次のようになる。
(c)アルゴリズム(N,p)
0.アルゴリズム(N,2)を使用してプロセッサのセットを2つのクラスタに分ける。
1.i=2乃至pに対して下記の動作を行う。
1.1 J=1乃至iに対して下記の動作を行う。
1.1.1 アルゴリズム(N,2)を用いてLjをLj.1およびLj.2に分ける。
1.1.2 クラスタの合計距離を合算し、それを d_{i.j} と呼ぶ。
1.2 d_{i+1}=min{d_{i.j} をセットする(j=1乃至 i)。
最小値が生じたjの値をj=mにすると、
1.3 Lm=Lm.1をセットする。
1.4 L_{i+1}=Lm.2をセットする。
2.結果L1、....、Lpを戻す
図11は、上記のアルゴリズム(N,p)に関するフローチャートを示す。先ず、アルゴリズム(N,2)を使用してシステムが2つのクラスタに分けられる(ステップ351)。次に、繰返しが行われ、アルゴリズム(N,2)を用いてj番目のクラスタが2つに分けられ(ステップ352)、すべてのクラスタ(2つの再分割されたクラスタを含む)に対する合計距離が計算される(ステップ353)。これらの合計距離の最小値が見つけられ(ステップ354)、それに対応するクラスタ構成が選ばれる(ステップ355)。そこで、それらのクラスタが、図9および図10に関連して上述したように、再命名される。p個のクラスタのセットが見つけられるまで、クラスタが再分割される。しかる後、クラスタは、各々が1つのサービス・ポイントを有するp個のクラスタのセットを有することになる。このプロセスの結果が、N=20個のプロセッサおよびp=4個のクラスタに関して、図12に概略的に示される(図4と比較されたい)。システム30は、それぞれのサービス・ポイント311、312、313、314を有する4つのクラスタ31、32、33、34に分けられる。
B.ケース2:非同一プロセッサの静的システム
図13は、プロセッサすべてが必ずしも同一のものではないが、それらのオペレーティング・システムおよび/またはテクノロジに従って事前にグループ分けされており、或るタイプのプロセッサに対するサービス・ポイントは同じタイプのものでなければならない、というシステム40の概略図である。システム40では、プロセッサが2つのタイプ41および42のものである。種々のタイプのプロセッサが、TCP/IPのようなプロセッサに無関係のプロトコルを実行するネットワークを介して相互に通信を行うことが可能である。例えば、インテル社のチップ上で稼動するウィンドウズ・ベースのプロセッサのセットおよびAIX(IBMコーポレーションの商標)を実行するサーバのセットを使用して、自律コンピューティング環境を設定することも可能である。その場合、インテル社のシステムに対するサービス・ポイントはインテル社のシステムでなければならず、AIXに関するサービス・ポイントはAIXベースのシステムでなければならない。従って、システム40は、1つのクラスタ内のすべてのプロセッサが同じタイプのものとなるよう、クラスタに分けられなければならない。
このケースに対する解決方法を、上記のケース1から得ることが可能である。m個の異なるタイプのプロセッサが存在し、これらの異なるタイプの各々に対するサービス・ポイントがそれ自身の種類のみから選ばれたものであることが可能であると仮定する。この場合、先ずm<pであるかどうかがチェックされる。但し、pはクラスタの最大数である。m≧pである(実用的なシステムでは極めてありそうもないことである)場合、クラスタは、単に、プロセッサのタイプに従ってグループ分けされる。m<pに関しては、各々が同じタイプのプロセッサだけを含むm個のクラスタL1、....、Lmにプロセッサをグループ分けすることによって、クラスタが初期設定される。しかる後、アルゴリズム(N,p)がこれらのm個のクラスタに適用される。これらのプロセスの結果が、N=20、m=2、およびp=4に関連して図14に概略的に示される。プロセッサ41はクラスタ411、412、413にグループ化され、一方、プロセッサ42はクラスタ420にグループ化される。
C.ケース3:動的システム(プロセッサ編入・離脱システム)
このケースはケース2の拡張であり、プロセッサの数が動的に変化する。プロセッサは、障害のために、またはそれらがオンデマンド環境で動作しているために、システムに編入することまたはシステムから離脱することが可能である。更に、プロセッサの数の変化がクラスタの数または配列の変化に通じることがあり、従って、クラスタも動的に変化する。更に、プロセッサが複数のタイプのものである(従って、複数の異なるグループにある)場合、グループの数が動的に変化することもある。例えば、図15は、クラスタ50におけるプロセッサ501がシステムから取り除かれることになる状況を示す。そのクラスタは、図16に示されるように、クラスタ51として再構成される。プロセッサ501を取り除いた結果、クラスタ51のサービス・ポイントの再割当てが生じることがあり得る。
クラスタ内のプロセッサとサービス・ポイントとの間の合計距離は、システムのパフォーマンスの損失を回避するために動的に最小にされなければならない。1つまたは複数のプロセッサがシステムに加えられるかまたはシステムから取り除かれるたびに、アルゴリズム(N,p)を使用することによってそのクラスタを再計算することが可能である。この方法は、計算のオーバヘッドによって非常に高価となり、大きなパフォーマンス低下を引き起こすことがある。従って、(i)システムにプロセッサを加えること、および(ii)システムからプロセッサを取り除くこと、の2つのケースの各々に関してシステムを動的に更新することが必要である。これらの2つのケースに関する手順は後述される。アルゴリズム(N,p)を使用してクラスタの最適なセットが事前に見つかっているものと仮定する。
(i)新たなプロセッサがシステムに加えられる。この場合、すべての既存のクラスタにおけるすべてのサービス・ポイントに対比してその加えられたプロセッサがテストされる。しかる後、その新たなプロセッサは、合計距離が最小であるクラスタに加えられる。その新たなプロセッサが加えられるクラスタでは、新たなサービス・ポイントを見つけるために、アルゴリズム(N,1)が使用される。この手順は必ずしもシステムを最適化するものではないが、非常に高速であることに留意すべきである。この手順は図17に概略的に示される。図17では、システム55が2つのクラスタ551および552を含み、新たなプロセッサ560を加えることが望ましい。プロセッサ560はクラスタ552に加えられるであろう。それは、システムの合計距離がこれによって最小に保たれるためである。
(ii)既存のプロセッサがシステムから取り除かれる。この場合、どちらのクラスタからプロセッサが取り除かれるかが先ず決定される。この状況に関しては、次の2つのケースが存在する。
(a)取り除かれたプロセッサがサービス・ポイントから最も遠いものではない場合、それはそのクラスタに関する最大距離に影響を与えない。その場合、そのプロセッサは取り除かれ、このクラスタに関してアルゴリズム(N,1)を使用することにより、新たなサービス・ポイントが再計算される。この状況が図18に示される。そこでは、システム57がクラスタ571および572を含み、プロセッサ574が取り除かれるべきものである。その結果、クラスタ構成に関する変化は生じない。
(b)取り除かれたプロセッサがサービス・ポイントから最も遠いものである場合、それの取り除きはクラスタにおけるサービス・ポイントからの最大距離に影響を与える。その場合、プロセッサが先ずクラスタから取り除かれる。一般に、システムは、最適なパフォーマンスを維持するために再平衡化されなければならない。プロセッサがクラスタから取り除かれるとき、他のクラスタから当該クラスタに他のプロセッサを組み入れることによって、システムを更に効率的にすることが可能であろう。この状況が図19に示される。そこでは、プロセッサ577がシステムから取り除かれている(図18と比較されたい)。その結果、システムの合計距離を最小にするように、新たなクラスタ578および579が形成される。これを達成するために、クラスタの最終的セットを形成するためのアルゴリズム(N,p)の各ステップにおいて、前に形成されたクラスタが、アルゴリズム(N,2)を使って分割される。従って、クラスタを形成するプロセス全体をバイナリ・ツリーで表現することが可能である。最終的なクラスタはすべてバイナリ・ツリーのリーフ・ノードである。
プロセッサがクラスタから取り除かれるとき、そのプロセッサが取り除かれるクラスタの他の同胞(sibling)ノードが考察される。その同胞ノードにおけるプロセッサは、プロセッサを同胞ノードから当該クラスタに移動させることがシステムの全体的な距離を最小にするかどうかに関して調べられる。システム全体の全体的な距離が影響を受けない場合、アクションが取られる必要はない。しかし、プロセッサを移動させることによって全体的な距離が減少する場合、プロセッサが同胞ノードから取り除かれて当該クラスタに組み入れられ、従って全体的な距離が再び最小にされる。同胞ノードがリーフ・ノードまたは既存のクラスタである場合、更なるアクションを取る必要はない。そうでない場合、プロセッサの取り除き後、それのチルドレン・ノードを平衡化するためにアルゴリズム(N,2)が使用される。
上記の調整は本来ローカル的なことであり、非常に高速で行うことが可能である。しかし、それらはシステム全体を総体的に平行化するものではない。従って、多くの動的な調整後、システムはかなり平衡を失ったものになることがあり、時々アルゴリズム(N,p)を使用してシステムを最適化し直すことが必要であろう。
D.ケース4:サービス・ポイントに対するバックアップ
システムのフェールセーフ動作を保証するために、本発明は、各クラスタにデュアル・サービス・ポイントを提供するための方法も含む。この方法では、バックアップ・サービス・ポイントがアクティブなサービス・ポイント内に記憶された情報のミラー情報を保持し、更新時にサービス・ポイントが障害を生じた場合、アクティブなサービス・ポイントとして機能し始める。それらのサービス・ポイントがシステムの普通のプロセッサとは全く異ならないことは明らかであろう。従って、サービス・ポイントが障害を生じ、システムから取り除き得ることは可能である。この場合のシステム障害を防ぐために、サービス・ポイントのサービス情報が同じクラスタにおける他のプロセッサに記憶される。例えば、図20に示されたシステム60は4つのクラスタ61、62、63、および64を含む。クラスタ61のサービス・ポイントはプロセッサ601を含み、プロセッサ602はバックアップ・プロセッサである。アクティブ・サービス・プロセッサ601における障害の場合、バックアップ・サービス・ポイント602がサービス・ポイントの機能を引き受ける。そこで、アルゴリズム(N,1)を、必要な場合にクラスタを平衡化し直すために使用することが可能である。
E.動的な数のサービス・ポイント
更に一般的な問題点は、サービス・ポイントの数pに関する最大の許容可能な制限も変更されるという状況である。これは、かなりの数のプロセッサが一時にシステムに加えられるかまたはシステムから取り除かれるときに起こり得る。これは、分数値f(p=N*fに従って、サービス・ポイントの最大の許容可能な数pを与える)が変更される場合にも起こり得る。次のような考慮すべき2つのケースが存在する。
(i) 最大の許容可能なサービス・ポイントの新たな数p1がpよりも大きい。この場合、アルゴリズム(N,p)は現在のクラスタ数と共に使用されるが、そのアルゴリズムは、新しいクラスタ数p1を用いて実行される。これは、ケース1において説明された解決方法と同じであり、第1ステップにおいて、p個のクラスタの各々が1回分割され、一方、他のクラスタはそのままにされる。各ケースにおいて、最も近いサービス・ポイントまでの距離の総和が計算され、その総和を最小にするクラスタ構成が選ばれる。このプロセスは、p+1、.....、p1に対して繰り返し実行される。
(ii)最大の許容可能なサービス・ポイントの新たな数p2がpよりも小さい。この場合、p個のクラスタの各々を生成した命令を再コールすること(ケース1の上記説明参照)が必要である。クラスタは、p2個のクラスタだけが残るまで、逆順に再結合される。
本発明を特定の実施例によって説明したが、当業者にとっては多くの代替、修正、および変更が明らかであることは、上記の説明から鑑みて明白である。従って、本発明は、本発明および「特許請求の範囲」の技術的範囲内にあるそのような代替、修正、および変更をすべて包含することを意図するものである。
サービス・ポイントを有するシステムにおけるプロセッサの代表的な配列を示す概略図である。 障害のあるプロセッサがシステムから取り除かれる後の図1のシステムを示す概略図である。 プロセッサ間の距離が本発明に従って決定される場合の複数のプロセッサを有するシステムの概略図である。 本発明の実施例に従って、サービス・ポイントを有するクラスタに構成されるべき複数のプロセッサを有するシステムの概略図である。 本発明に従って、システムにおける1つのプロセッサから他のプロセッサまでの合計距離を計算するための手順を示す概略図である。 本発明の実施例に従ってアルゴリズム(N,1)におけるステップを詳細に示すフローチャートである。 2つのクラスタに分割されたシステムを示す概略図である。 本発明の実施例に従ってアルゴリズム(N,2)におけるステップを詳細に示すフローチャートである。 本発明の実施例に従って、クラスタが再分割されるシステムを示す概略図である。 システムにおけるクラスタの別の再分割を示す概略図である。 本発明の実施例に従ってアルゴリズム(N,p)におけるステップを詳細に示すフローチャートである。 図4のシステムにおいてクラスタを構成し、サービス・ポイントを割り当てるためのプロセスの結果を示す概略図である。 本発明の更なる実施例に従って、サービス・ポイントを有するクラスタに構成されるべき異なるタイプの複数のプロセッサを有するシステムを示す概略図である。 図13のシステムにおいてクラスタを構成し、サービス・ポイントを割り当てるためのプロセスの結果を示す概略図である。 複数のプロセッサを有し、1つのプロセッサがシステムから取り除かれるべきシステムを示す概略図である。 プロセッサが取り除かれた後の図15のシステムを示す概略図である。 複数のプロセッサを有し、1つのプロセッサがシステムに加えられるべきシステムを示す概略図である。 2つのクラスタを有し、1つのプロセッサがシステムから取り除かれるべきシステムを示す概略図である。 クラスタが再構成された場合、プロセッサが取り除かれた後の図18のシステムを複数のプロセッサを有し、1つのプロセッサがシステムから取り除かれるべきシステムを示す概略図である。 クラスタのサービス・ポイントがシステムから取り除かれるべき場合、各々がサービス・ポイントを有するクラスタに構成された複数のプロセッサを有するシステムを示す概略図である。

Claims (10)

  1. 複数のプロセッサを有するシステムであって、各々が1つのサービス・ポイントを持つ少なくとも1つのクラスタを備えたシステム、を提供するように該システムを構成する方法であって、
    前記システムにおける各プロセッサから他のプロセッサまでの距離を計算するステップと、
    各合計距離が1つのプロセッサに関連する、複数の合計距離を計算するステップと、
    前記複数の合計距離から最小合計距離を決定するステップと、
    前記最小合計距離に関連するプロセッサをサービス・ポイントとして割り当てるステップと、
    を含む、方法。
  2. 前記システムを複数のクラスタに区分するステップを更に含む、請求項1に記載の方法。
  3. 前記区分するステップは、
    各プロセッサに関連した合計距離に従ってプロセッサを分類するステップと、
    各プロセッサを2つのクラスタの一方に割り当てるステップと、
    各クラスタにおけるプロセッサに対する最小合計距離を、当該クラスタにおけるプロセッサに関連した複数の合計距離に従って決定するステップと、
    各クラスタに対するサービス・ポイントとして、当該クラスタにおける最小合計距離に関連するプロセッサを割り当てるステップと、
    を更に含む、請求項2に記載の方法。
  4. 前記2つのクラスタの1つを2つのクラスタに分割し、それによって前記システムを3つのクラスタに区分するステップと、
    前記3つのクラスタにおけるプロセッサに関連した複数の合計距離に従って、前記3つのクラスタの各々におけるプロセッサに対する最小合計距離を決定するステップと、
    前記最小合計距離に従って前記3つのクラスタにプロセッサを割り当てるステップと、
    前記3つのクラスタの各々に対するサービス・ポイントとして、当該クラスタにおける最小合計距離に関連するプロセッサを割り当てるステップと、
    を更に有する、請求項3に記載の方法。
  5. 前記プロセッサは異なるタイプのプロセッサであり、前記タイプに従ってクラスタに割り当てられる、請求項1に記載の方法。
  6. 前記構成する動作は、プロセッサがシステムに加えられるとき、動的に実行される、請求項1に記載の方法。
  7. 前記構成する動作は、プロセッサがシステムから取り除かれるとき、動的に実行される、請求項1に記載の方法。
  8. 前記システムの区分は、プロセッサがシステムから取り除かれるとき、動的に変更される、請求項2に記載の方法。
  9. 別のプロセッサをバックアップ・サービス・ポイントとして割り当てるステップを更に含む、請求項1に記載の方法。
  10. 複数のプロセッサを有するシステムであって、各々が1つのサービス・ポイントを持つ少なくとも1つのクラスタを備えたシステム、を提供するようにそのシステムを構成する方法を実行するための命令を記憶したコンピュータ可読記憶媒体であって、
    前記方法は、
    前記システムにおける各プロセッサから他のプロセッサまでの距離を計算するステップと、
    各合計距離が1つのプロセッサに関連する、複数の合計距離を計算するステップと、
    前記複数の合計距離から最小合計距離を決定するステップと、
    前記最小合計距離に関連するプロセッサをサービス・ポイントとして割り当てるステップと、
    を含む、コンピュータ可読記憶媒体。
JP2006521850A 2003-07-31 2004-06-30 複数のサービス・ポイントを有する自律コンピューティングにおける動的に構成可能な耐障害性 Expired - Fee Related JP4405511B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/604,585 US7111188B2 (en) 2003-07-31 2003-07-31 Dynamically configurable fault tolerance in autonomic computing with multiple service points
PCT/US2004/020906 WO2005015346A2 (en) 2003-07-31 2004-06-30 Dynamically configurable fault tolerance in autonomic computing with multiple service points

Publications (3)

Publication Number Publication Date
JP2007500895A true JP2007500895A (ja) 2007-01-18
JP2007500895A5 JP2007500895A5 (ja) 2009-07-16
JP4405511B2 JP4405511B2 (ja) 2010-01-27

Family

ID=34103114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006521850A Expired - Fee Related JP4405511B2 (ja) 2003-07-31 2004-06-30 複数のサービス・ポイントを有する自律コンピューティングにおける動的に構成可能な耐障害性

Country Status (11)

Country Link
US (2) US7111188B2 (ja)
EP (1) EP1652028B1 (ja)
JP (1) JP4405511B2 (ja)
KR (1) KR100847610B1 (ja)
CN (1) CN100555230C (ja)
AT (1) ATE469393T1 (ja)
BR (1) BRPI0413122A (ja)
CA (1) CA2529664A1 (ja)
DE (1) DE602004027385D1 (ja)
TW (1) TWI338229B (ja)
WO (1) WO2005015346A2 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8782654B2 (en) 2004-03-13 2014-07-15 Adaptive Computing Enterprises, Inc. Co-allocating a reservation spanning different compute resources types
US7490325B2 (en) 2004-03-13 2009-02-10 Cluster Resources, Inc. System and method for providing intelligent pre-staging of data in a compute environment
US20070266388A1 (en) 2004-06-18 2007-11-15 Cluster Resources, Inc. System and method for providing advanced reservations in a compute environment
US8176490B1 (en) 2004-08-20 2012-05-08 Adaptive Computing Enterprises, Inc. System and method of interfacing a workload manager and scheduler with an identity manager
US8271980B2 (en) 2004-11-08 2012-09-18 Adaptive Computing Enterprises, Inc. System and method of providing system jobs within a compute environment
US8863143B2 (en) 2006-03-16 2014-10-14 Adaptive Computing Enterprises, Inc. System and method for managing a hybrid compute environment
US9075657B2 (en) 2005-04-07 2015-07-07 Adaptive Computing Enterprises, Inc. On-demand access to compute resources
US9231886B2 (en) 2005-03-16 2016-01-05 Adaptive Computing Enterprises, Inc. Simple integration of an on-demand compute environment
US7917573B2 (en) * 2005-11-30 2011-03-29 International Business Machines Corporation Measuring and reporting processor capacity and processor usage in a computer system with processors of different speed and/or architecture
US20080059489A1 (en) * 2006-08-30 2008-03-06 International Business Machines Corporation Method for parallel query processing with non-dedicated, heterogeneous computers that is resilient to load bursts and node failures
US8041773B2 (en) * 2007-09-24 2011-10-18 The Research Foundation Of State University Of New York Automatic clustering for self-organizing grids
US8275866B2 (en) * 2007-11-13 2012-09-25 At&T Intellectual Property I, L.P. Assigning telecommunications nodes to community of interest clusters
US8881163B2 (en) * 2007-12-07 2014-11-04 Microsoft Corporation Kernel processor grouping
US8869035B2 (en) * 2009-06-29 2014-10-21 International Business Machines Corporation Increasing resilience of a network service
US11720290B2 (en) 2009-10-30 2023-08-08 Iii Holdings 2, Llc Memcached server functionality in a cluster of data processing nodes
US10877695B2 (en) 2009-10-30 2020-12-29 Iii Holdings 2, Llc Memcached server functionality in a cluster of data processing nodes
US9336302B1 (en) 2012-07-20 2016-05-10 Zuci Realty Llc Insight and algorithmic clustering for automated synthesis
CN103647830B (zh) * 2013-12-13 2017-09-15 浪潮电子信息产业股份有限公司 一种集群管理系统中多层次配置文件的动态管理方法
CN103955404B (zh) * 2014-03-28 2017-05-03 哈尔滨工业大学 一种基于NoC多核同构系统的负载判断方法
US9363008B2 (en) 2014-07-22 2016-06-07 International Business Machines Corporation Deployment criteria for unmanned aerial vehicles to improve cellular phone communications
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
MX2020008905A (es) 2018-06-12 2020-12-03 Vtv Therapeutics Llc Usos terapeuticos de activadores de glucoquinasa en combinacion con insulina o analogos de insulinas.
TWI691852B (zh) 2018-07-09 2020-04-21 國立中央大學 用於偵測階層式系統故障之偵錯裝置及偵錯方法、電腦可讀取之記錄媒體及電腦程式產品
US11288117B2 (en) * 2019-08-06 2022-03-29 Oracle International Corporation Predictive system remediation
CN113252978A (zh) * 2021-05-11 2021-08-13 国网浙江省电力有限公司营销服务中心 一种目标供电台区相位识别方法和识别装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2048306A1 (en) * 1990-10-02 1992-04-03 Steven P. Miller Distributed configuration profile for computing system
US5598532A (en) * 1993-10-21 1997-01-28 Optimal Networks Method and apparatus for optimizing computer networks
US5909540A (en) * 1996-11-22 1999-06-01 Mangosoft Corporation System and method for providing highly available data storage using globally addressable memory
US6230303B1 (en) * 1997-02-24 2001-05-08 Lucent Technologies Inc. Proximity-based cluster allocation for hardware-software co-synthesis of heterogeneous distributed embedded systems
TW325618B (en) * 1997-06-10 1998-01-21 Inst Information Industry Broadcasting processing method of wireless modem network group
US6594775B1 (en) * 2000-05-26 2003-07-15 Robert Lawrence Fair Fault handling monitor transparently using multiple technologies for fault handling in a multiple hierarchal/peer domain file server with domain centered, cross domain cooperative fault handling mechanisms
US6973473B1 (en) * 2000-05-31 2005-12-06 International Business Machines Corporation Method, system and program products for managing identifiers of components of a clustered environment
US6807557B1 (en) * 2000-05-31 2004-10-19 International Business Machines Corporation Method, system and program products for providing clusters of a computing environment
US6982960B2 (en) * 2001-03-09 2006-01-03 Motorola, Inc. Protocol for self-organizing network using a logical spanning tree backbone
CN1195363C (zh) * 2002-12-30 2005-03-30 清华大学 基于线性构造的服务质量路由性能评价方法
CN1195364C (zh) * 2002-12-30 2005-03-30 清华大学 基于宽度优先搜索的性能可调启发式服务质量路由方法

Also Published As

Publication number Publication date
KR20060063870A (ko) 2006-06-12
CN1829973A (zh) 2006-09-06
US20050027829A1 (en) 2005-02-03
US20060248141A1 (en) 2006-11-02
TW200515174A (en) 2005-05-01
WO2005015346A3 (en) 2005-09-22
US7328363B2 (en) 2008-02-05
BRPI0413122A (pt) 2006-10-03
EP1652028A2 (en) 2006-05-03
DE602004027385D1 (de) 2010-07-08
KR100847610B1 (ko) 2008-07-21
ATE469393T1 (de) 2010-06-15
TWI338229B (en) 2011-03-01
CN100555230C (zh) 2009-10-28
EP1652028B1 (en) 2010-05-26
EP1652028A4 (en) 2009-03-18
WO2005015346A2 (en) 2005-02-17
US7111188B2 (en) 2006-09-19
CA2529664A1 (en) 2005-02-17
JP4405511B2 (ja) 2010-01-27

Similar Documents

Publication Publication Date Title
JP4405511B2 (ja) 複数のサービス・ポイントを有する自律コンピューティングにおける動的に構成可能な耐障害性
US11693747B2 (en) Adaptive multipath fabric for balanced performance and high availability
US6437804B1 (en) Method for automatic partitioning of node-weighted, edge-constrained graphs
US11184434B2 (en) Top-of-rack switch replacement for hyper-converged infrastructure computing environments
US8612510B2 (en) System and method for large-scale data processing using an application-independent framework
US7650331B1 (en) System and method for efficient large-scale data processing
US20080256149A1 (en) System and method for dependent failure-aware allocation of distributed data-processing systems
EP3767470B1 (en) Central processing unit cpu hot-remove method and apparatus, and central processing unit cpu hot-add method and apparatus
WO2017097006A1 (zh) 一种实时数据容错处理方法及系统
CN111756635B (zh) 用于网络规划的方法、网络规划设备和计算机可读介质
CN111209084B (zh) 一种faas分布式计算方法和装置
US20230222110A1 (en) Selecting interfaces for device-group identifiers
Pashkov et al. On high availability distributed control plane for software-defined networks
Loukopoulos et al. A pareto-efficient algorithm for data stream processing at network edges
CN115225642B (zh) 超融合系统的弹性负载均衡方法及系统
Engelmann et al. Concepts for high availability in scientific high-end computing
WO2016188135A1 (zh) 集群路由器cpu资源的配置方法及集群路由器
Vistro et al. An Efficient Approach for Resilience and Reliability Against Cascading Failure
Kim et al. Evaluation of PAMS'adaptive management services
CN115543971A (zh) 一种mpp数据库实现高可用的方法
Alrubaiey Assuring virtual network reliability and resilience
Das et al. Fault-tree based evaluation of tiered autonomic systems
JP2017038232A (ja) ネットワーク評価システム、サービス故障率算出方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070626

RD12 Notification of acceptance of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7432

Effective date: 20090508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090522

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20090522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090508

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20090611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091027

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20091027

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091104

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4405511

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131113

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees