JP5741595B2 - 管理装置、管理方法および管理プログラム - Google Patents

管理装置、管理方法および管理プログラム Download PDF

Info

Publication number
JP5741595B2
JP5741595B2 JP2012554572A JP2012554572A JP5741595B2 JP 5741595 B2 JP5741595 B2 JP 5741595B2 JP 2012554572 A JP2012554572 A JP 2012554572A JP 2012554572 A JP2012554572 A JP 2012554572A JP 5741595 B2 JP5741595 B2 JP 5741595B2
Authority
JP
Japan
Prior art keywords
management
node
key
domain
backup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012554572A
Other languages
English (en)
Other versions
JPWO2012101785A1 (ja
Inventor
直広 田村
直広 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2012101785A1 publication Critical patent/JPWO2012101785A1/ja
Application granted granted Critical
Publication of JP5741595B2 publication Critical patent/JP5741595B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/0654Management of faults, events, alarms or notifications using network fault recovery
    • H04L41/0668Management of faults, events, alarms or notifications using network fault recovery by dynamic selection of recovery network elements, e.g. replacement by the most appropriate element after failure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/38Information transfer, e.g. on bus
    • G06F13/40Bus structure
    • G06F13/4004Coupling between buses
    • G06F13/4022Coupling between buses using switching circuits, e.g. switching matrix, connection or expansion network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/1658Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2028Failover techniques eliminating a faulty processor or activating a spare
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2048Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share neither address space nor persistent storage

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Computer And Data Communications (AREA)

Description

本発明は、管理装置、管理方法および管理プログラムに関する。
従来、大規模なネットワークシステムを管理するには、運用管理用の装置である運用管理マネージャを階層化する技術が用いられてきた。このような大規模システム環境の管理の一例としては、大規模データセンタ等の分散コンピュータシステムの運用管理がある。
また、ネットワークの管理技術としては、ネットワーク上に他のネットワークを構築するオーバーレイネットワークを用い、ネットワーク障害に関する情報に基づいてルーティングテーブルを作成、変更する技術が知られている。
また、複数の端末から構成されるネットワーク上で、マスターと呼ぶ役割を端末に設けてイベントの順序を保証する方法があり、マスターの役割をもつ端末の異常を検出したとき、イベント受付順で一意に決まるマスター候補リストの最上位にリストされた端末がマスターの役割を引き継ぐ異常復旧方法も知られている。
特開2005−275539号公報 特開2008−311715号公報
運用管理マネージャを階層化して大規模データセンタ等のネットワークを運用管理する場合には、マネージャへの負荷集中によって処理が遅延する場合がある。この負荷集中に備えるため、高性能サーバを用いるとコストが増大する。また、マネージャを階層化する構成では、マネージャがSPOF(Single Point of Failure)となり、耐障害性が低下する。
開示の技術は、上記に鑑みてなされたものであって、ネットワークシステムの管理における負荷分散、スケーラビリティおよび信頼性の向上を目的とする。
本願の開示する管理装置、管理方法および管理プログラムは、複数のノードで構築されたオーバーレイネットワークに接続された管理ノード上で動作する管理装置、管理方法および管理プログラムである。開示の装置、方法、プログラムは、管理ノードが属する、オーバーレイネットワーク上のドメイン内の他のノードについて情報を収集し、管理情報を作成する。開示の装置、方法、プログラムは、管理装置の管理業務を引き継いで当該管理装置として動作するバックアップノードを選択する。バックアップノードは、オーバーレイネットワーク上の他のノードから、当該ノードの属するドメインが管理ノードと同じであり、かつ、データ容量、および運用時間のうち少なくともいずれかを含む複数の指標に基づいて選択される。開示の装置、方法、プログラムは、バックアップノードに管理情報を複製し、管理ノードが停止した場合にバックアップノードを管理ノードに切り替える。
本願の開示する管理装置、管理方法および管理プログラムによれば、ネットワークシステムの管理における負荷を分散し、スケーラビリティおよび信頼性を向上することができる。
図1は、本実施例に係る管理システムの説明図である。 図2は、本実施例に係るネットワークの説明図である。 図3は、本実施例にかかる管理装置の構成図である。 図4は、管理プログラムによる実施についての説明図である。 図5は、階層化した管理の説明図である。 図6は、サーバのハードウェアと管理プログラムの関係についての説明図である。 図7は、オーバーレイネットワークの説明図である。 図8は、ハッシュテーブルの定義の具体例についての説明図である。 図9は、図3に示したセルフノードテーブルt2の具体例を示す図である。 図10は、図3に示したドメインテーブルt3の具体例を示す図である。 図11は、図3に示したノード管理テーブルt4の具体例を示す図である。 図12は、図3に示したルーティングテーブルt5の具体例を示す図である。 図13は、バックアップ処理部m40の処理動作を説明するフローチャートである。
以下に、本発明にかかる管理装置、管理方法および管理プログラムの実施例を図面に基づいて詳細に説明する。なお、本実施例は開示の技術を限定するものではない。
図1は、本実施例に係る管理システムの説明図である。図1に示したノードN1は、ノードN2〜N4を含むオーバーレイネットワークを管理する管理ノード(マネージャ)であり、ノード選択部m41、データ複製部m42、切り替え処理部m43を有する。図示しないが、ノードN2〜N4もノードN1と同様に、ノード選択部m41、データ複製部m42、切り替え処理部m43を有する。
ノード選択部m41は、ノードN2〜N4から、ノードの属する管理範囲、データ容量、および運用時間を取得し、これらを指標として管理ノードのバックアップノードを選択する。
データ複製部m42は、ノード選択部m41が選択したバックアップノードに管理情報を複製し、切り替え処理部m43は、管理ノードが停止した場合にバックアップノードを管理ノードに切り替える。
図2は、本実施例に係るネットワークの説明図であり、図3は、本実施例にかかる管理装置の構成図である。図2に示したように、管理対象装置n1〜4は、ネットワークを介して接続されている。このネットワークが監視対象のネットワークとなる。
管理対象装置n1には、管理装置m1が接続され、管理対象装置n2には、管理装置m2が接続され、管理対象装置n3には、管理装置m3が接続されている。管理装置m1〜4は、管理対象装置n1〜4のネットワークインタフェースを利用して、管理対象装置n1〜4が属するネットワークに対してオーバーレイネットワークを構築する。管理装置m1〜4は、このオーバーレイネットワークのノードとして機能し、互いに通信可能である。
管理装置m1〜4は、同一の構成を有するので、以降の説明では管理装置m1を例に説明を行なう。管理装置m1は、ノード選択部m41、データ複製部m42、切り替え処理部m43を有する。
図3に示したように、管理装置m1は、オーバーレイネットワーク構築部m11、管理対象検索部m12、管理情報作成部m13、生死監視部m30およびバックアップ処理部m40を有する。そして、バックアップ処理部m40の内部にノード選択部m41、データ複製部m42、切り替え処理部m43を有する。また、管理装置m1は、SAN(Storage Area Network)と接続し、SANに後述する各種情報を保持させる。
オーバーレイネットワーク構築部m11は、管理対象のネットワークに対してオーバーレイネットワークを構築する処理部であり、通信処理部m21、ハッシュ処理部m22、情報取得部m23、通知部m24を有する。
通信処理部m21は、管理対象装置n1がノードとして参加するネットワーク上の他のノードと通信する処理を行なう。ハッシュ処理部m22は、通信処理部m21が他のノードから取得した情報や管理対象装置の情報からハッシュ値を求め、得られたハッシュ値をオーバーレイネットワークのキーとする。情報取得部m23は、通信処理部m21を介してオーバーレイネットワークの他のノードから情報を取得する処理部である。通知部m24は、通信処理部m21を介してオーバーレイネットワークの他のノードに対して情報を通知する処理部である。
管理対象検索部m12は、オーバーレイネットワーク構築部m11が構築したオーバーレイネットワークから、管理装置m1が直接接続された管理対象装置である自ノードと同一の管理範囲に属するノードを検索する処理を行なう。
管理情報作成部m13は、管理対象検索部m12による検索によって得られたノードを管理対象ノードとする管理情報を作成する。
生死監視部m30は、監視対象に指定されたノードの生死を監視する処理部である。バックアップ処理部m40は、ノード選択部m41、データ複製部m42、切り替え処理部m43を有し、バックアップノードの選択、データの複製、生死監視部m30の監視結果に基づく切り替えを行なう。
管理装置m1は、管理対象装置であるコンピュータ上で動作する管理プログラムとして実施することが好適である。図4に示した例では、ドメインAとドメインBにそれぞれ3つのサーバが含まれており、ドメインAとドメインBとの間は通信可能である。
ドメインAのサーバ11では、他のコンピュータシステムの動作環境を仮想的に実現するVM(Virtual Machines)ホストプログラム21が動作している。そして、VMホストプログラム21上に4つのVMゲストプログラム41〜44が動作している。このサーバ11では、VMホストプログラム21上で運用管理プログラム31がさらに動作している。VMホストプログラム21上で動作する運用管理プログラム31は、サーバ11を管理装置として機能させる。この運用管理プログラム31の管理対象装置は、サーバ11自体とサーバ11上で動作するVMホストプログラム21、VMゲストプログラム41〜44である。
また、ドメインAのサーバ12では、OS(Operating System)23が動作し、OS23上で運用管理プログラム32が動作している。そして、このサーバ12にはスイッチ51とルータ53が接続されている。このサーバのOS23上で動作する運用管理プログラム32は、サーバ12を管理装置として機能させる。この運用管理プログラム32の管理対象装置は、サーバ12自体とサーバに接続されたスイッチ51およびルータ53である。
また、ドメインAのサーバ13では、OS(Operating System)24が動作し、OS24上で運用管理プログラム33が動作している。そして、このサーバ13にはストレージ55が接続されている。このサーバ13のOS24上で動作する運用管理プログラム33は、サーバ13を管理装置として機能させる。この運用管理プログラム33の管理対象装置は、サーバ13自体とサーバ13に接続されたストレージ55である。
ドメインAと同様にドメインBに含まれる3つのサーバ14〜16についても、サーバ14〜16上のVMホストプログラム32やOS25,26上でそれぞれ運用管理プログラム34〜36が動作し、サーバ14〜16を管理装置として機能させる。このため、サーバ14〜16、各サーバ上で動作する各種プログラム(VMホスト22、OS25,26、VMゲスト45〜48)、各サーバに接続されたハードウェア(スイッチ52、ルータ54、ストレージ56)は、対応するサーバ上で動作する運用管理プログラムによって管理される。
サーバ14〜16上の運用管理プログラム31〜36は、互いに通信し、オーバーレイネットワークを構築する。加えて、運用管理プログラム31〜36は、自らが属するドメイン内の他のノードについて情報を収集し、管理情報を作成することができる。なお、運用管理プログラム31〜36は、ドメインAとドメインBの双方からアクセス可能な端末1から取得することができる。
図4に示したように、運用管理プログラム31〜36は、管理を階層化することなく、自動的に自ドメインに属するノードの情報を取得することができる。図5は、図4に対する比較例であり、階層化した管理の説明図である。
図5に示したシステムでは、ドメインAを管理するサブマネージャ3とドメインBを管理するサブマネージャ4が設けられており、2つのサブマネージャ3,4を統合マネージャ2が管理している。
サブマネージャ3,4は、自らの担当するドメインに属する装置に対してSNMPなどを用いて状態監視ポーリングを行う。また、サブマネージャは、自らの担当するドメインに属する装置から、SNMPトラップなどのイベントを受信し情報を収集する。
具体的には、図5に示した構成では、ドメインAはサーバ11,12、スイッチ51、ルータ53、ストレージ55を含む。サーバ11上ではVMホストプログラム21が動作し、VMホストプログラム21上ではVMゲストプログラム41〜44が動作している。同様に、ドメインBは、サーバ14,15、スイッチ52、ルータ54、ストレージ56を含む。そして、サーバ14上ではVMホストプログラム22が動作し、VMホストプログラム15上ではVMゲストプログラム45〜48が動作している。
このように、管理を階層化した場合、階層ごとに異なる装置もしくはプログラムを用意することとなる。また、マネージャ、特に統合マネージャ2に負荷が集中するので、高価な高性能サーバを統合マネージャ2として使用することが求められる。加えて、統合マネージャ2がSPOF(Single Point of Failure)となり、統合マネージャ2がダウンするとシステム全体が停止するので、耐障害性の低下を抑えるため、統合マネージャ2をクラスタ構成で運用することが求められていた。
これに対し、図4に示した管理プログラム31〜36は同一のプログラムを各サーバに配布したものであり、統合マネージャ用、サブマネージャ用の区別がない。また、管理プログラムは、統合マネージャ用のコンピュータやサブマネージャ用のコンピュータを区別して設置することなく、すべての管理対象上で動作する。このため、マネージャに対してバックアップを準備し、マネージャの停止時に管理をバックアップ側に引き継ぐようにすることで、ネットワークシステムの管理における負荷を分散し、システムのスケーラビリティと信頼性を向上することができる。
図6は、サーバのハードウェアと管理プログラムの関係についての説明図である。管理プログラムpg10は、サーバ内部のHDD(Hard disk drive)p13に格納される。管理プログラムpg10は、オーバーレイネットワーク構築部としての動作を記述されたオーバーネットワーク構築プロセスpg11、管理対象検索部としての動作を記述された管理対象検索プロセスpg12、管理情報作成部としての動作を記述された管理情報作成プロセスpg13、生死監視部としての動作を記述された生死監視プロセスpg14、バックアップ処理部としての動作を記述されたバックアップ処理部pg15を含む。
サーバが起動すると、管理プログラムpg10はHDDp13から読み出され、メモリp12に展開される。そして、CPU(Central Processing Unit)p11がメモリに展開されたプログラムを順次実行することで、サーバを管理装置として機能させる。この時、管理装置におけるオーバーレイネットワークのインタフェースとしては、サーバの通信インタフェースp14を使用する。
図7は、オーバーレイネットワークの説明図である。管理装置もしくは管理プログラムは、起動するとオーバーレイネットワークを形成する。オーバーレイネットワーク構築部m11が、例えば、DHT(分散ハッシュテーブル)アルゴリズムのChordを用いた場合、図7に示したような環状のオーバーレイネットワークが形成される。
DHTでは、キー(Key)とバリュー(Value)のペアが、オーバーレイネットワークに参加する各ノードで分散して保持される。Chordの場合は、SHA(Secure Hash Algorithm)-1でハッシュした値をキーに用いる。各キーは自分のキーより大きい値のキーを持ち、管理プログラムが動作している最初のノードに格納される。
図7の例では、vmhost2のキーが1、domain1のキーが5、server1のキーが15、server2のキーが20、group1のキーが32、user1のキーが40、vmguest11のキーが55である。同様に、server3のキーが66、vmguest12のキーが70、vmhost3のキーが75、vmguest13のキーが85、vmguest14のキーが90である。そして、vmhost1のキーが100、switch1のキーが110、storage1のキーが115、vmguest21のキーが120である。
ここで、vmhost1〜3、server1〜3は、domain1に属し、管理プログラムが実行されたノードであり、図7において黒い円形記号で示している。また、domain1に属するvmguet、storage、swichなどについては、図7において二重円形記号で示している。加えて、図7では、domain2に属するノード(キーが4,33,36のノード)については、網掛けの円形記号で示している。
既に述べたように、キーとValueのペアは自分のキーより大きい値のキーを持ち、管理プログラムが動作している最初のノードに格納されるので、Key 40, 55 は、Key = 66 のノードに格納される。
また、Chordの場合、各ノードは、直前のノードと、直後のノード及び(自ノードkey+2^(x-1)) mod (2^k) (xは1からkの自然数、kはkeyのビット数) のノードの情報をルーティング情報として保持している。具体的には、1,2,4,8,16,32,64,128…というように離散したノードの情報を持つ。
これによって、Chord DHTでは、各ノードがKeyに対するValueを、Keyより大きい最初のKeyを持つノードに保持させ、更にKeyに対応するValueを、Keyより大きい最初のKeyを持つノードから取得することが可能になる。
図8は、DHT(分散ハッシュテーブル)の定義の具体例についての説明図である。このDHTは、図3のSANにおけるハッシュテーブルt1に相当する。
図8では、SHA−1でハッシュしたKeyと、Keyに対応づけられるValueを示している。
サーバについては、サーバ名をSHA-1でハッシュしてKeyとする。そして、サーバであることを示すタグ「server」、サーバ名、サーバ名から求めたkey、サーバが有するIPアドレスの一覧(IPリスト)、サーバが有するWWNの一覧(WWNリスト)、管理ノードとして機能しているかを示すmanager-flag、バックアップノードとして登録されているかを示すフラグであるsecondary-manage、サーバの属するドメインとドメインのキーのリスト、をValueとして有する。
VMホストについては、VMホスト名をSHA-1でハッシュしてKeyとする。そして、VMホストであることを示すタグ「vmhost」、VMホスト名、VMホスト名から求めたkey、VMホストのIPリスト、VMホストの属するドメインとドメインのキーのリスト、VMホスト上で動作するVMゲストのリスト、をValueとして有する。
VMゲストについては、VMゲスト名をSHA-1でハッシュしてKeyとする。そして、VMホストであることを示すタグ「vmguest」、VMゲスト名、VMゲスト名から求めたkey、VMゲストのIPリスト、VMゲストが動作しているVMホストの名前とkey、をValueとして有する。
スイッチについては、スイッチ名をSHA-1でハッシュしてKeyとする。そして、スイッチであることを示すタグ「switch」、スイッチ名、スイッチ名から求めたkey、スイッチのIPリスト、スイッチの属するドメインとドメインのキーのリスト、をValueとして有する。
ストレージについては、ストレージ名をSHA-1でハッシュしてKeyとする。そして、ストレージであることを示すタグ「storage」、ストレージ名、ストレージ名から求めたkey、ストレージのIPリスト、ストレージのWWNリスト、ストレージの属するドメインとドメインのキーのリスト、をValueとして有する。
ユーザについては、ユーザ名をSHA-1でハッシュしてKeyとする。そして、ユーザであることを示すタグ「user」、ユーザ名、ユーザ名から求めたkey、ユーザの属するグループ名とグループのkeyのリスト、をValueとして有する。
グループについては、グループ名をSHA-1でハッシュしてKeyとする。そして、グループであることを示すタグ「group」、グループ名、グループ名から求めたkey、グループに属するユーザ名とkeyのリスト、をValueとして有する。
ドメインについては、ドメイン名をSHA-1でハッシュしてKeyとする。そして、ドメインであることを示すタグ「domain」、ドメイン名、ドメイン名から求めたkey、ドメインの管理装置のキーのリスト、をValueとして有する。
図9は、図3に示したセルフノードテーブルt2の具体例である。セルフノードテーブルは、管理プログラムが動作するサーバ上のノード、すなわちサーバ自体、サーバ上で動作するVMホスト、VMゲストなどの情報を登録したテーブルである。図9は、vmguest11〜14とともに、vmhost1上で動作する管理プログラムが作成したセルフノードテーブルを示している。セルフノードテーブルには、種別、ノード名、key、IPアドレス、WWNの項目を有する。
図9の例では、種別がvmhost、ノード名がvmhost1.domain1.company.com、keyが100、IPアドレスが10.20.30.40、WWNが10:00:00:60:69:00:23:74のエントリが登録されている。また、種別がvmguest、ノード名がvmguest11.domain1.company.com、keyが55、IPアドレスが10.20.30.41、WWNがnullのエントリが登録されている。
同様に、種別がvmguest、ノード名がvmguest12.domain1.company.com、keyが70、IPアドレスが10.20.30.42、WWNがnullのエントリが登録されている。そして、種別がvmguest、ノード名がvmguest13.domain1.company.com、keyが85、IPアドレスが10.20.30.43、WWNがnullのエントリと、種別がvmguest、ノード名がvmguest14.domain1.company.com、keyが90、IPアドレスが10.20.30.44、WWNがnullのエントリが登録されている。
図10は、図3に示したドメインテーブルt3の具体例である。各管理装置や管理プログラムは、自ノードが属するドメインのドメイン名をSHA−1でハッシュしてkeyを求め、ドメインテーブルt3に登録する。また、ドメインテーブルt3には、ドメイン名とドメインのkeyの他、ドメインの管理を行なうマネージャのkeyを登録する。管理プログラムが動作するノードであれば、任意ノードがマネージャとしてノードの管理を行なうことができ、ドメイン内に複数のマネージャが存在してもよい。
図11は、図3に示したノード管理テーブルt4の具体例である。ノード管理テーブルt4は、ドメイン内のノードを管理するマネージャとして動作する管理装置や管理プログラムが作成する管理情報であり、自ノードと同一ドメインに属する全てのノードの情報である。
図11のノード管理テーブルt4は、図7に示したオーバーレイネットワークのうちdomain1を管理するマネージャ(Key100,vmhost1)が作成し、保持するテーブルを示している。
図11に示したノード管理テーブルt4は、種別、ノード名、key、Domain key、Manager Flag、Managed Flag、secondary-manager Key、生死監視フラグ、生死監視通知先の項目(カラム)を有する。Manager Flagは、そのノードがマネージャである場合にtrue、マネージャではない場合にfalseの値をとる。Managed Flagは、そのノードが管理されている場合にtrue、管理されていない場合にfalseの値をとる。secondary-manager Keyは、そのノードに対するバックアップノードのKeyを示す。生死監視フラグは、監視対象のノードについてtrue、監視対象ではないノードについてfalse、監視対象とならないものについてNULLの値をとる。生死監視通知先の項目は、自ノードが監視ノードとして動作する際に、そのノードの監視結果を通知すべき通知先のkeyを示す。
具体的には、図11に示したノード管理テーブルt4は、種別がvmhost、ノード名がvmhost2.domain1.company.com、Keyが1、Domain Keyが5、Manager Flagがfalse、Managed Flagがtrue、secondary-manager Keyがブランク、生死監視フラグがtrue、生死監視通知先がブランクのエントリを有する。
また、ノード管理テーブルt4は、種別がserver、ノード名がserver1.domain1.company.com、Keyが15、Domain Keyが5、Manager Flagがtrue、Managed Flagがtrue、生死監視フラグがfalse、secondary-manager Keyがブランク、生死監視通知先がブランクのエントリを有する。
また、ノード管理テーブルt4は、種別がserver、ノード名がserver2.domain1.company.com、Keyが20、Domain Keyが5、Manager Flagがfalse、Managed Flagがtrue、secondary-manager Keyがブランク、生死監視フラグがfalse、生死監視通知先がブランクのエントリを有する。
また、ノード管理テーブルt4は、種別がvmguest、ノード名がvmguest11.domain1.company.com、Keyが55、Domain Keyが5、Manager Flagがfalse、Managed Flagがtrue、secondary-manager Keyがブランク、生死監視フラグがNULL、生死監視通知先がブランク、のエントリを有する。
また、ノード管理テーブルt4は、種別がserver、ノード名がserver3.domain1.company.com、Keyが66、Domain Keyが5、Manager Flagがfalse、Managed Flagがtrue、secondary-manager Keyがブランク、生死監視フラグがfalse、生死監視通知先がブランク、のエントリを有する。
また、ノード管理テーブルt4は、種別がvmguest、ノード名がvmguest12.domain1.company.com、Keyが70、Domain Keyが5、Manager Flagがfalse、Managed Flagがtrue、secondary-manager Keyがブランク、生死監視フラグがNULL、生死監視通知先がブランク、のエントリを有する。
また、ノード管理テーブルt4は、種別がvmhost、ノード名がvmhost3.domain1.company.com、Keyが75、Domain Keyが5、Manager Flagがfalse、Managed Flagがtrue、secondary-manager Keyがブランク、生死監視フラグがfalse、生死監視通知先がブランク、のエントリを有する。
また、ノード管理テーブルt4は、種別がvmguest、ノード名がvmguest13.domain1.company.com、Keyが85、Domain Keyが5、Manager Flagがfalse、Managed Flagがtrue、secondary-manager Keyがブランク、生死監視フラグがNULL、生死監視通知先がブランク、のエントリを有する。
また、ノード管理テーブルt4は、種別がvmguest、ノード名がvmguest14.domain1.company.com、Keyが90、Domain Keyが5、Manager Flagがfalse、Managed Flagがtrue、secondary-manager Keyがブランク、生死監視フラグがNULL、生死監視通知先がブランク、のエントリを有する。
また、ノード管理テーブルt4は、種別がvmhost、ノード名がvmhost1.domain1.company.com、Keyが100、Domain Keyが5、Manager Flagがtrue、Managed Flagがtrue、secondary-manager Keyが1、生死監視フラグがNULL、生死監視通知先がブランク、のエントリを有する。
また、ノード管理テーブルt4は、種別がswitch、ノード名がswitch1.domain1.company.com、Keyが110、Domain Keyが5、Manager Flagがfalse、Managed Flagがtrue、secondary-manager Keyがブランク、生死監視フラグがNULL、生死監視通知先がブランク、のエントリを有する。
また、ノード管理テーブルt4は、種別がstorage、ノード名がstorage1.domain1.company.com、Keyが115、Domain Keyが5、Manager Flagがfalse、Managed Flagがtrue、secondary-manager Keyがブランク、生死監視フラグがNULL、生死監視通知先がブランク、のエントリを有する。
また、ノード管理テーブルt4は、種別がvmguest、ノード名がvmguest21.domain1.company.com、Keyが120、Domain Keyが5、Manager Flagがfalse、Managed Flagがtrue、secondary-manager Keyがブランク、生死監視フラグがNULL、生死監視通知先がブランク、のエントリを有する。
図11では、Key1,vmhost2を監視し、Key100,vmhost1のバックアップノードをKey1,vmhost2としている。したがって、Key100,vmhost1が停止したときには、Key100,vmhost1からKey1,vmhost2に管理が引き継がれる。また、Key1,vmhost2が停止した場合にはKey100,vmhost1は新たなバックアップノードを選択する。
図12は、図3に示したルーティングテーブルt5の具体例である。ルーティングテーブルt5は、各管理装置や管理プログラムがオーバーレイネットワークにおけるルーティングに用いるテーブルである。
図12に示した例では、ルーティングテーブルt5は、最終的な宛先である目的地のキーを示すdistance、目的地のノード名、目的地と通信する場合のルーティング先を示す宛先のキーであるDestination Key、ルーティング先のIPアドレスであるDestination IPの項目を有する。
図12は、キー100のノードが用いるルーティングテーブルの具体例である。図11のルーティングテーブルt5は、distanceが1、ノード名がvmhost1.domain1.company.com、Destination Keyが1、Destination IPがa1.b1.c1.d1、distanceが2、ノード名がvmhost2.domain1.company.com、Destination Keyが1、Destination IPがa1.b1.c1.d1の項目を有する。
また、ルーティングテーブルt5は、distanceが3、ノード名がvmhost2.domain1.company.com、Destination Keyが1、Destination IPがa1.b1.c1.d1
の項目を有する。
また、ルーティングテーブルt5は、distanceが5、ノード名がvmhost2.domain1.company.com、Destination Keyが1、Destination IPがa1.b1.c1.d1
の項目を有する。
また、ルーティングテーブルt5は、distanceが9、ノード名がvmhost2.domain1.company.com、Destination Keyが1、Destination IPがa1.b1.c1.d1
の項目を有する。
また、ルーティングテーブルt5は、distanceが17、ノード名がvmhost2.domain1.company.com、Destination Keyが1、Destination IPがa1.b1.c1.d1
の項目を有する。
また、ルーティングテーブルt5は、distanceが33、ノード名がnode1.domain2.company.com、Destination Keyが4、Destination IPがa4.b4.c4.d4の項目を有する。
また、ルーティングテーブルt5は、distanceが65、ノード名がnode3.domain2.company.com、Destination Keyが36、Destination IPがa36.b36.c36.d36の項目を有する。
このように、ルーティングテーブルt5は、ドメイン1に属するノード(key:1,2,3,5,9,17)が目的地である場合にはKey1(IPアドレス:a1.b1.c1.d1)にルーティングすることを規定している。また、ルーティングテーブルt5は、ドメイン1に属するノードkey:33が目的地である場合にはKey4(IPアドレス:a4.b4.c4.d4)にルーティングし、ドメイン2に属するノードkey:65が目的地である場合にはKey36(IPアドレス:a36.b36.c36.d36)にルーティングすることを規定している。
図13は、バックアップ処理部m40の処理動作を説明するフローチャートである。ノード選択部m41は、オーバーレイネットワークからノードを一つ選択し(S101)、マネージャと同一ドメインであるか否かを判定する(S102)。
選択したノードがマネージャと同一ドメインである場合(S102,Yes)、ノード選択部m41は、選択したノードのデータ領域に十分な容量があるかを判定する(S103)。
選択したノードのデータ領域に十分な容量がある場合(S103,Yes)、ノード選択部m41は、選択したノードの運用時間が閾値以上、すなわち選択したノードが閾値以上の時間連続して運用されているかを判定する(S104)。
選択したノードの運用時間が閾値以上である場合(S104,Yes)、ノード選択部m41は選択したノードをバックアップノードとする(S105)。選択したノードがマネージャと同一ドメインでない場合(S102,No)、選択したノードのデータ領域に十分な容量がない場合(S103,No)、運用時間が閾値に満たない場合(S104,No)、ノード選択部m41は、ステップS101に戻ってノードを選択し直す。具体的には、Key 1, 15, 20. というように順番に探す。
バックアップノードが決定した(S105)後、ノード選択部m41は、ハッシュテーブルt1を更新し(S106)、管理情報であるノード管理テーブルt4をバックアップノードに複製する(S107)。
生死監視部m30は、バックアップノードと相互に生死監視を開始し(S108)、バックアップノードがダウンした場合(S109,Yes)には、ステップS101に戻って新たにバックアップノードを選択する。
なお、バックアップノード側が管理ノードのダウンを検出した場合、バックアップノードの切り替え処理部m43によって、管理業務を自動的に引き継ぐ。元の管理ノードが故障から復旧した場合、バックアップノードから管理業務を呼び戻し、管理ノードに復帰すればよい。
図13の処理において、運用時間が閾値以上のノードが存在しない場合、他のノードよりも運用時間の長いノードをバックアップノードとする。運用時間が閾値未満のノードをバックアップノードとする際には、例えば運用時間が上位2つのノードをバックアップノードとしてもよい。このように複数のバックアップノードを設けることで、バックアップノードのうちいずれかが停止しても他のバックアップノードを使用可能であるので、信頼性を向上することができる。
また、管理ノードがダウンし、バックアップノードに管理業務が引き継がれると、バックアップノードは、更にバックアップノードのバックアップノードを選定する。そして、バックアップノードが管理業務を引き継いで一定期間後、元の管理ノードが復旧しない場合は、バックアップノードが管理マネージャに昇格し、バックアップノードのバックアップノードはバックアップノードにそれぞれ昇格する。したがって、所定時間経過後は元の管理ノードの復帰の有無に関わらずバックアップノードであったノードが管理ノードとして動作することとなる。
上述したように、本実施例にかかる管理装置、管理方法および管理プログラムは、オーバーレイネットワークのノードから、ノードの属する管理範囲、データ容量、および運用時間を指標として管理ノードのバックアップノードを選択する。そして、バックアップノードに管理情報を複製し、管理ノードが停止した場合にバックアップノードを管理ノードに切り替える。このため、ネットワークシステムの管理における負荷を分散し、スケーラビリティおよび信頼性を向上することができる。
N1〜4 ノード
m1 管理装置
m11 オーバーレイネットワーク構築部
m12 管理対象検索部
m13 管理情報作成部
m21 通信処理部
m22 ハッシュ処理部
m23 情報取得部
m24 通知部
m30 生死監視部
m31 購読申請部
m32 監視依頼部
m33 監視部
m34 判定部
m40 バックアップ処理部
m41 ノード選択部
m42 データ複製部
m43 切り替え処理部
t1 ハッシュテーブル
t2 セルフノードテーブル
t3 ドメインテーブル
t4 ノード管理テーブル
t5 ルーティングテーブル
p11 CPU
p12 メモリ
p13 HDD
p14 通信インタフェース
pg10 管理プログラム
pg11 オーバーレイネットワーク構築プロセス
pg12 管理対象検索プロセス
pg13 管理情報作成プロセス
pg14 生死監視プロセス
pg15 バックアップ処理プロセス

Claims (6)

  1. 複数のノードで構築されたオーバーレイネットワークに接続された管理ノード上で動作する管理装置であって、
    前記管理ノードが属する、前記オーバーレイネットワーク上のドメイン内の他のノードについて情報を収集し、管理情報を作成する管理情報作成部と、
    前記オーバーレイネットワーク上の他のノードから、当該ノードの属するドメインが前記管理ノードと同じであり、かつ、データ容量、および運用時間のうち少なくともいずれかを含む複数の指標に基づいて前記管理装置の管理業務を引き継いで当該管理装置として動作するバックアップノードを選択するノード選択部と、
    前記バックアップノードに前記管理情報を複製する複製部と、
    前記管理ノードが停止した場合に前記バックアップノードを管理ノードに切り替える切り替え処理部と、
    を備えたことを特徴とする管理装置。
  2. 前記ノード選択部は、前記運用時間が閾値を満たすノードが存在しない場合に、運用時間が他のノードよりも長いノードを複数前記バックアップノードとして選択することを特徴とする請求項1に記載の管理装置。
  3. 前記切り替え処理部によってバックアップノードから管理ノードに切り替えられたノードは、切り替えから所定時間内に元の管理ノードが復帰した場合には元の管理ノードを管理ノードに戻し、所定時間経過後は元の管理ノードの復帰の有無に関わらず管理ノードとして動作することを特徴とする請求項1に記載の管理装置。
  4. 前記切り替え処理部によってバックアップノードから管理ノードに切り替えられたノードは、自ノードのバックアップノードを選択することを特徴とする請求項2に記載の管理装置。
  5. 複数のノードで構築されたオーバーレイネットワークに接続された管理ノード上で動作する管理装置による管理方法であって、
    前記管理ノードが属する、前記オーバーレイネットワーク上のドメイン内の他のノードについて情報を収集し、管理情報を作成するステップと、
    前記オーバーレイネットワーク上の他のノードから、当該ノードの属するドメインが前記管理ノードと同じであり、かつ、データ容量、および運用時間のうち少なくともいずれかを含む複数の指標に基づいて前記管理装置の管理業務を引き継いで当該管理装置として動作するバックアップノードを選択するステップと、
    前記バックアップノードに前記管理情報を複製するステップと、
    前記管理ノードが停止した場合に前記バックアップノードを管理ノードに切り替えるステップと、
    を含んだことを特徴とする管理方法。
  6. 複数のノードで構築されたオーバーレイネットワークに接続された管理ノード上で動作する管理装置が有するコンピュータで実行される管理プログラムであって、
    前記管理ノードが属する、前記オーバーレイネットワーク上のドメイン内の他のノードについて情報を収集し、管理情報を作成する手順と、
    前記オーバーレイネットワーク上の他のノードから、当該ノードの属するドメインが前記管理ノードと同じであり、かつ、データ容量、および運用時間のうち少なくともいずれかを含む複数の指標に基づいて前記管理装置の管理業務を引き継いで当該管理装置として動作するバックアップノードを選択する手順と、
    前記バックアップノードに前記管理情報を複製する手順と、
    前記管理ノードが停止した場合に前記バックアップノードを管理ノードに切り替える手順と、
    前記コンピュータに実行させることを特徴とする管理プログラム。
JP2012554572A 2011-01-26 2011-01-26 管理装置、管理方法および管理プログラム Expired - Fee Related JP5741595B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/051517 WO2012101785A1 (ja) 2011-01-26 2011-01-26 管理装置、管理方法および管理プログラム

Publications (2)

Publication Number Publication Date
JPWO2012101785A1 JPWO2012101785A1 (ja) 2014-06-30
JP5741595B2 true JP5741595B2 (ja) 2015-07-01

Family

ID=46580390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012554572A Expired - Fee Related JP5741595B2 (ja) 2011-01-26 2011-01-26 管理装置、管理方法および管理プログラム

Country Status (4)

Country Link
US (1) US20130308442A1 (ja)
EP (1) EP2669808A4 (ja)
JP (1) JP5741595B2 (ja)
WO (1) WO2012101785A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8864216B2 (en) 2013-01-18 2014-10-21 Sabic Global Technologies B.V. Reinforced body in white and method of making and using the same
US9965363B2 (en) 2013-12-14 2018-05-08 Netapp, Inc. Techniques for LIF placement in SAN storage cluster synchronous disaster recovery
JP7462550B2 (ja) 2020-12-24 2024-04-05 株式会社日立製作所 通信監視対処装置、通信監視対処方法、及び通信監視対処システム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002215474A (ja) * 2001-01-15 2002-08-02 Fujitsu Ten Ltd ネットワークデータバックアップシステム
JP2003060715A (ja) * 2001-08-09 2003-02-28 Fujitsu Ltd Osiトンネルルーティング方法及びその装置
JP2004118689A (ja) * 2002-09-27 2004-04-15 Ricoh Co Ltd 監視システム、監視方法及びプログラム
JP2006323526A (ja) * 2005-05-17 2006-11-30 Fujitsu Ltd クラスタ管理プログラム、該プログラムを記録した記録媒体、クラスタ管理方法、ノード、およびクラスタ
JP2008210164A (ja) * 2007-02-27 2008-09-11 Fujitsu Ltd ジョブ管理装置、クラスタシステム、およびジョブ管理プログラム
JP2009086741A (ja) * 2007-09-27 2009-04-23 Hitachi Ltd 異種ノード混在の分散環境における分散処理制御方法、そのシステム及びそのプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1323040A4 (en) * 2000-09-08 2005-08-03 Goahead Software Inc SYSTEM AND METHOD FOR MANAGING CLUSTERS WITH MULTIPLE NODES
US7636038B1 (en) * 2003-02-25 2009-12-22 Purdue Research Foundation Fault-tolerant timeout communication protocol with sensor integration
US7630299B2 (en) * 2004-12-30 2009-12-08 Alcatel Lucent Retention of a stack address during primary master failover
US7535828B2 (en) * 2005-03-18 2009-05-19 Cisco Technology, Inc. Algorithm for backup PE selection
CN101860559B (zh) * 2009-04-08 2014-11-05 中兴通讯股份有限公司 基于对等网络的资源信息备份操作方法及对等网络
US8817638B2 (en) * 2009-07-24 2014-08-26 Broadcom Corporation Method and system for network communications utilizing shared scalable resources
US8848513B2 (en) * 2009-09-02 2014-09-30 Qualcomm Incorporated Seamless overlay connectivity using multi-homed overlay neighborhoods

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002215474A (ja) * 2001-01-15 2002-08-02 Fujitsu Ten Ltd ネットワークデータバックアップシステム
JP2003060715A (ja) * 2001-08-09 2003-02-28 Fujitsu Ltd Osiトンネルルーティング方法及びその装置
JP2004118689A (ja) * 2002-09-27 2004-04-15 Ricoh Co Ltd 監視システム、監視方法及びプログラム
JP2006323526A (ja) * 2005-05-17 2006-11-30 Fujitsu Ltd クラスタ管理プログラム、該プログラムを記録した記録媒体、クラスタ管理方法、ノード、およびクラスタ
JP2008210164A (ja) * 2007-02-27 2008-09-11 Fujitsu Ltd ジョブ管理装置、クラスタシステム、およびジョブ管理プログラム
JP2009086741A (ja) * 2007-09-27 2009-04-23 Hitachi Ltd 異種ノード混在の分散環境における分散処理制御方法、そのシステム及びそのプログラム

Also Published As

Publication number Publication date
JPWO2012101785A1 (ja) 2014-06-30
WO2012101785A1 (ja) 2012-08-02
EP2669808A1 (en) 2013-12-04
EP2669808A4 (en) 2016-07-13
US20130308442A1 (en) 2013-11-21

Similar Documents

Publication Publication Date Title
US10713134B2 (en) Distributed storage and replication system and method
TWI813743B (zh) 在網路路由環境中的獨立資料儲存空間
US20220131746A1 (en) Data center resource tracking
US8676951B2 (en) Traffic reduction method for distributed key-value store
CN109819004B (zh) 用于部署多活数据中心的方法和系统
CN106059791B (zh) 一种存储系统中业务的链路切换方法和存储设备
WO2014205847A1 (zh) 一种分区平衡子任务下发方法、装置与系统
WO2007110942A1 (ja) ネットワークシステムにおけるサーバ管理プログラム
JP5741595B2 (ja) 管理装置、管理方法および管理プログラム
JP5664662B2 (ja) 管理システム、管理装置、管理方法および管理プログラム
WO2012004872A1 (ja) 管理装置、管理プログラムおよび管理方法
EP3570169B1 (en) Method and system for processing device failure
JP5408359B2 (ja) 管理装置、管理プログラムおよび管理方法
US11095707B2 (en) Networking-based file share witness system
Fakhouri et al. Gulfstream-a system for dynamic topology management in multi-domain server farms
TWI839379B (zh) 在網路路由環境中的單節點和多節點資料儲存空間架構
JP2015215754A (ja) クラスタシステムおよびSplit−BrainSyndrome発生防止方法
KR101103366B1 (ko) 감시 에이전트 기반의 네트워크 도메인 감시 시스템
WO2016122495A1 (en) Network switching node with state machine replication
CN105490903A (zh) 一种基于总线模式的集群架构

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150413

R150 Certificate of patent or registration of utility model

Ref document number: 5741595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees