JPWO2011007394A1 - 障害の根本原因に対応した復旧方法を表す情報を出力する管理システム - Google Patents

障害の根本原因に対応した復旧方法を表す情報を出力する管理システム Download PDF

Info

Publication number
JPWO2011007394A1
JPWO2011007394A1 JP2011522628A JP2011522628A JPWO2011007394A1 JP WO2011007394 A1 JPWO2011007394 A1 JP WO2011007394A1 JP 2011522628 A JP2011522628 A JP 2011522628A JP 2011522628 A JP2011522628 A JP 2011522628A JP WO2011007394 A1 JPWO2011007394 A1 JP WO2011007394A1
Authority
JP
Japan
Prior art keywords
event
information
rule
meta
failure history
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011522628A
Other languages
English (en)
Other versions
JP5385982B2 (ja
Inventor
惇 伊藤
惇 伊藤
紅山 伸夫
伸夫 紅山
裕二 溝手
裕二 溝手
黒田 沢希
沢希 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2011007394A1 publication Critical patent/JPWO2011007394A1/ja
Application granted granted Critical
Publication of JP5385982B2 publication Critical patent/JP5385982B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/079Root cause analysis, i.e. error or fault diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0706Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
    • G06F11/0748Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment in a remote unit communicating with a single-box computer node experiencing an error/fault
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3055Monitoring arrangements for monitoring the status of the computing system or of the computing system component, e.g. monitoring if the computing system is on, off, available, not available
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/32Monitoring with visual or acoustical indication of the functioning of the machine
    • G06F11/324Display of status information
    • G06F11/327Alarm or error message display

Abstract

管理サーバは、複数のノード装置で発生しうるイベントについて、根本原因となる事象を特定するメタルールと、メタルールに対応させた障害復旧方法と、を有し、管理サーバが検知したイベントの根本原因となる原因イベントを表示すると共に、この原因イベントからの復旧方法を表示する。

Description

本発明は、障害からの復旧方法を表す情報の出力に関する。
昨今のインターネットビジネスの本格化に伴い、システムの障害によるサービスの停止が招く企業信用力の低下や機会損失の問題が大きくなってきている。そのため、障害から迅速に復旧することが望まれる。
復旧方法を特定することを支援するためのシステムとして、例えば、特許文献1に開示の障害履歴データベースシステムがある。システム管理者が、監視対象ノードにて発生した障害と実際に障害から復旧させた方法とを、障害履歴として、そのデータベースシステムに登録する。データベースシステムは、複数の障害履歴を保持する。監視対象ノードの管理者(以下、「システム管理者」と言うことがある)は、新たに障害が発生した場合、所望のキーワードを入力する。データベースシステムは、入力されたキーワードに適合する障害履歴を、複数の障害履歴から検索する。
一方、監視対象ノードの稼働状況を監視するために、監視システムがある。監視システムは、監視対象ノードの稼働状態の変化(例えば、ディスク装置に対する入出力(I/O)のエラー、及び、プロセッサのスループット低下)を、その監視対象ノードからイベントとして受け取る。システム管理者は、メッセージやパトランプを用いてそのイベントを受け取ることで、そのイベントの内容を知る。管理者は、そのイベントの内容から、その監視対象ノードの障害(例えば、サービスの停止や性能低下)を知り、その障害の根本原因を予測する。
また、障害の根本原因を予測する技術として、Root Cause Analysis(以後、RCAと呼ぶ)がある。監視システムは、イベント群と根本原因との組み合わせをルールとして予め保持しておき、イベントを受け取った場合、そのイベントを含んだルールから、そのイベントの根本原因を推測する。
特許文献2によれば、発生したイベントが既知の場合と未知の場合のそれぞれの場合について、不整合量が算出され、障害の根本原因の推測に、算出された不整合量が考慮される。
特許文献3によれば、監視対象ノード間の環境の関係性を表す情報が構築される。障害の根本原因の推測の際には、その情報を基に、或る監視対象ノードで発生した障害がどの監視対象ノードに影響を与えるかが特定される。
特開2009−43029号公報 特開2006−526842号公報 米国特許第7,478,404号明細書
Frederick Hayes−Roth, "Rule−Based systems", Communications of the ACM, Sept. 1985, page921−932
しかし、特許文献1乃至3のいずれの技術でも、システム管理者は、障害からの適切な復旧方法を迅速に特定することができない。
例えば、監視対象ノードが、スイッチAと、スイッチAに接続される通信インターフェース装置(通信I/F)を有するサーバAであり、サーバAが、スイッチAを介して、ストレージ装置に対してI/Oを行うようになっており、サーバAが有する通信I/F(例えばNIC(Network Interface Card))に障害が発生したとする。その障害により、サーバAのI/Oスループットが異常値に達した第1のイベントと、スイッチAのネットワークトラフィックが異常値に達した第2のイベントとが発生する。第1及び第2のイベントを含んだイベント群を監視システムが検知する。そのイベント群の内容が、システム管理者に送信される。この時、障害履歴データベースシステムには、同件は格納されていないが類件が格納されているとする「同件」とは、発生した障害(イベント群に相当する障害)と同じ障害を表す情報を含んだ障害履歴である。「類件」とは、発生した障害とは違う障害を表す情報を含んでいるが発生した障害からの復旧方法と同じ復旧方法を表す情報を含んでいる障害履歴である。
特許文献1によれば、障害履歴の検索には、システム管理者所望のキーワードが用いられる。そのため、キーワード次第では、目的とする障害履歴がヒットしない、または、無関係の障害履歴が多数ヒットする可能性がある。
特許文献2によれば、障害の根本原因を検索クエリとした場合、同件はヒットしても類件がヒットしない可能性がある。
特許文献3によれば、根本原因としての障害が発生した監視対象ノード、もしくは、その障害による影響を受ける監視対象ノードが検索クエリとされた場合、無関係の障害履歴が多数ヒットする可能性がある。
そこで、本発明の目的は、障害の根本原因に応じた適切な復旧方法をシステム管理者が迅速に特定できるようにすることにある。
管理サーバは、複数のノード装置で発生しうるイベントについて、根本原因となる事象を特定するメタルールと、メタルールに対応させた障害復旧方法と、を有し、管理サーバが検知したイベントの根本原因となる原因イベントを表示すると共に、この原因イベントからの復旧方法を表示する。なお、復旧方法は、管理サーバを利用する管理者が入力した、前述の複数のノード装置で発生して復旧させた時に用いた復旧方法に基づいて作成又は更新された情報であってもよい。
図1は、実施例1に係る計算機システムの構成を示すブロック図である。 図2は、管理サーバの構成を示すブロック図である。 図3は、表示用計算機の構成を示すブロック図である。 図4は、サーバ情報の構成を示すブロック図である。 図5は、スイッチ情報の構成を示すブロック図である。 図6は、ストレージ情報の構成を示すブロック図である。 図7は、トポロジ情報の構成を示すブロック図である。 図8は、メタRCAルール情報の構成を示すブロック図である。 図9は、展開RCAルール情報の構成を示すブロック図である。 図10は、イベント情報の構成を示すブロック図である。 図11は、障害分析コンテキストの構成を示すブロック図である。 図12Aは、障害履歴エントリの構成を示すブロック図である。 図12Bは、サーバ重み情報の構成を示すブロック図である。 図12Cは、スイッチ重み情報の構成を示すブロック図である。 図12Dは、ストレージ重み情報の構成を示すブロック図である。 図13は、展開RCAルールを作成するためのフロー図である。 図14は、根本原因候補とその確信度を決定するためのフロー図である。 図15は、障害分析コンテキストを作成するためのフロー図である。 図16は、根本原因を選択するためのフロー図である。 図17は、障害履歴を登録するためのフロー図である。 図18Aは、障害分析コンテキストのマッチングをするためのフロー図である。 図18Bは、図18Aのステップ1026の詳細を表すフロー図である。 図18Cは、図18Bのステップ1031の詳細を表すフロー図である。 図18Dは、図18Bのステップ1034の詳細を表すフロー図である。 図18Eは、障害分析コンテキストのマッチングの概要を示す図である。 図18Fは、図18Bのステップ1035の詳細を表すフロー図である。 図18Gは、障害分析コンテキストのマッチングの概要を示す図である。 図19は、候補/確信度画面の一例を示す。 図20は、障害履歴の検索結果画面の一例を示す。 図21は、障害履歴の登録画面の一例を示す。 図22Aは、実施例2で表示される、メタ復旧方法登録画面の一例を示す。 図22Bは、メタ復旧方法登録画面における表示領域e13の別の一例を示す。 図23は、実施例2で表示される候補/確信度画面の一例を示す。 図24Aは、マッチング度合比較画面の第1の例を示す。 図24Bは、マッチング度合比較画面の第2の例を示す。
以下に、本発明の幾つかの実施例を説明する。
<1−0:実施例1に係る計算機システム等の構成>。
図1は、本発明の実施例1に係る計算機システム1の構成に関するブロック図である。
計算機システム1は、管理サーバ10、表示用計算機20、監視対象ノード30を備える。なお、管理サーバ10、表示用計算機20、監視対象ノード30は、それぞれ一台ずつが図示されているが、何台備わっていてもよい。
監視対象ノード30は、管理サーバ10によって管理される装置である。なお、監視対象ノード20の一例としては、サーバ計算機、ストレージ装置(例えばRAID構成を有するディスクアレイ装置)、ネットワークスイッチ(例えば、FC(Fibre Channel)スイッチ)、ルータ)、プロキシーサーバ等が考えられるが、他の装置であってもよい。
管理サーバ10は、一つ以上の監視対象ノード30を管理する計算機である。
表示用計算機20は、管理サーバ10から出力された情報を表示するためのディスプレイ画面を有する計算機である。
管理サーバ10、表示用計算機20、監視対象ノード30は、ネットワーク50を介して相互に接続される。なお、管理サーバ10と表示用計算機20とを接続するネットワーク50と、管理サーバ10と監視対象ノード30を接続するネットワーク50は、同一のネットワークであるが、別々なネットワークであってもよい。
また、管理サーバ10と表示用計算機20は一体であってもよい。管理サーバ10を複数の計算機で構成し、管理サーバ10が有する機能をそれら複数の計算機が有しても良い。なお、以後の説明では、管理サーバ10と表示用計算機20を構成する一つ以上の計算機を「管理システム」と記載することがある。管理サーバ10が表示用情報を表示する場合は、管理計算機が管理システムである、また、管理サーバ10と表示用計算機20の組み合わせも管理システムである。
図2は、管理サーバ10の構成を示す。
管理サーバ10は、メモリ110、メモリインターフェース161、プロセッサ140及びネットワークインターフェース150を備える計算機である。メモリインターフェース161、プロセッサ140及びネットワークインターフェース150は、内部ネットワーク(例えばバス)160によって相互に接続される。
プロセッサ140は、メモリインターフェース161を介してメモリ110にアクセスする。プロセッサ140は、メモリ110に記憶されるプログラムを実行することによって、各種処理を行う。以後の説明では、「プログラム」を主語として説明を行う場合があるが、プログラムは、プロセッサ140によって実行されることで、定められた処理をメモリ110及びネットワークインターフェース150を用いながら行うため、プロセッサ140を主語とした説明としてもよい。また、プログラムを主語として開示された処理は、管理サーバ10等の計算機が行う処理としてもよい。また、プログラムの一部または全ては、専用ハードウェアによって実現されてもよい。
また、各種プログラムは、プログラムソース(例えば、プログラム配布サーバ、又は、コンピュータ読取可能な記憶メディア(例えば可搬型のメディア))から各計算機にインストールされてもよい。
メモリ110には、プロセッサ140によって実行されるプログラム、及び、プロセッサ140によって必要とされる情報等が記憶される。具体的には、例えば、メモリ110には、サーバ情報111、スイッチ情報112、ストレージ情報113、トポロジ情報114、メタRCAルール情報115、展開RCAルール情報116、イベント情報117、障害履歴情報119、トポロジ適用プログラム121、ルールマッチング解析プログラム122、生成プログラム123、コンテキストマッチング解析プログラム124、及び障害履歴管理プログラム125が記憶される。更に、メモリ110には、アプリケーションプログラム(以下、AP)131及びOS(Operating System)132が記憶される。
AP131は、各種処理を実現するプログラムである。例えば、AP117は、データベース管理機能又はWEBサーバ機能を提供する。OS132は、管理サーバ10の処理の全体を制御するプログラムである。
サーバ情報111は、一種の監視対象ノードであるサーバの構成情報を管理するための情報である。
スイッチ情報112は、一種の監視対象ノードであるスイッチの構成情報を管理するための情報である。
ストレージ情報113は、一種の監視対象ノードであるストレージ装置の構成情報を管理するための情報である。
トポロジ情報114は、監視対象ノードであるサーバ、スイッチ及びストレージの接続構成(トポロジ)の情報を管理するための情報である。
メタRCAルール情報115は、メタRCAルールを管理するための情報である。なお、メタRCAルールについては、後述の<1−1:用語定義>で詳細を説明する。
展開RCAルール情報116は、展開RCAルールを管理するための情報である。なお、展開RCAルールについては、後述の<1−1:用語定義>で詳細を説明する。
イベント情報117は、監視対象ノードで発生したイベントのイベントレコードを管理するための情報である。
障害履歴情報119は、一以上の障害履歴エントリで構成されている。一つの障害履歴エントリが、過去に発生した障害の原因を表す情報と、復旧方法を表す情報と、障害分析コンテキストとを含んでいる。少なくとも障害履歴情報119は、外部の記憶資源(例えば外部のストレージ装置)に格納されていても良い。その場合には、例えば、プロセッサ140は、ネットワークインターフェース150を介して障害履歴情報119にアクセスすることができる。
トポロジ適用プログラム121は、メタRCAルール情報115、サーバ情報111、スイッチ情報112、ストレージ情報113及びトポロジ情報114を用いて、展開RCAルール情報116を作成する。
ルールマッチング解析プログラム122は、展開RCAルール情報116とイベント情報117を用いて、イベント情報117と関連するメタRCAルール情報115と展開RCAルール情報116と確信度とを決定する。
生成プログラム123は、メタRCAルール情報115、展開RCAルール情報116、サーバ情報111、スイッチ情報112、ストレージ情報113及びトポロジ情報114を用いて、障害分析コンテキストを生成する。
コンテキストマッチング解析プログラム124は、生成された障害分析コンテキストと、各障害履歴エントリ内の障害分析コンテキストのマッチングを行う。
障害履歴管理プログラム125は、生成された障害分析コンテキストと、復旧方法を表す情報と、発生した障害の内容を表す情報とを含んだ障害分析コンテキストを生成し、障害分析コンテキストを、障害履歴情報119に含める。
ネットワークインターフェース150は、別の計算機(例えば監視対象ノード)とネットワーク50を介してデータの送受信を行う。
なお、メモリ110に格納された各種プログラムは、必ずしも別々なプログラムコードである必要は無く、一つ以上のプログラムコードが、プログラムの処理を実現してもよい。
また、メモリ110に代えて、他種の記憶資源(記憶装置)が採用されても良い。
また、管理サーバ10は、入出力装置を有してもよい。入出力装置の例としてはディスプレイとキーボードとポインタデバイスが考えられるが、これ以外の装置であってもよい。また、入出力装置の代替としてシリアルインターフェースやイーサーネットインターフェースを入出力装置として、当該インターフェースにディスプレイ又はキーボード又はポインタデバイスを有する表示用計算機を接続し、表示表情報を表示用計算機に送信したり、入力用情報を表示用計算機から受信することで、表示用計算機で表示を行ったり、入力を受け付けることで入出力装置での入力及び表示を代替してもよい。
図3は、表示用計算機20の構成を示す。
表示用計算機20は、メモリ210、プロセッサ240、ネットワークインターフェース250及び入出力装置260を有する(例えば、図2に示したようなメモリインタフェースは図示を省略している)。メモリ210、プロセッサ240、ネットワークインターフェース250及び入出力装置260は、内部ネットワーク270によって相互に接続される。
プロセッサ240は、メモリ210に記憶されているプログラムを実行することによって、各種処理を行う。
メモリ210には、プロセッサ240によって実行されるプログラム、及び、プロセッサ240によって必要とされる情報等が記憶される。具体的には、例えば、メモリ210には、画面表示プログラム211が記憶される。更に、メモリ210には、アプリケーションプログラム(以下、AP)221及びOS(Operating System)222が記憶される。AP221は、各種処理を実現するプログラムである。例えば、AP221は、WEBクライアント機能を提供する。OS222は、表示用計算機20の処理の全体を制御するプログラムである。
画面表示プログラム211は、入出力装置260、例えばディスプレイ装置に情報を表示するプログラムである。
ネットワークインターフェース250は、別の計算機(例えば管理サーバ10)とネットワーク50を介してデータの送受信を行う。
入出力装置260の例としてはディスプレイとキーボードとポインタデバイスが考えられるが、これ以外の装置であってもよい。また、入出力装置260の代替として、シリアルインターフェースやイーサーネットインターフェースが、入出力装置として、当該インターフェースにディスプレイ又はキーボード又はポインタデバイスを有する表示用計算機が接続されても良い。表示用計算機20が、表示用情報を管理サーバ10から受信したり、入力用情報を管理サーバ10に送信したりしても良い。
また、管理サーバ10が、第1及び第2の計算機を有し、第1の計算機が、トポロジ適用プログラム121、ルールマッチング解析プログラム122、及び生成プログラム123を実行し、第2の計算機が、コンテキストマッチング解析プログラム124及び障害履歴管理プログラム125を実行しても良い。この場合、サーバ情報111、スイッチ情報121、ストレージ情報113、トポロジ情報114、メタRCAルール情報115及び展開RCAルール情報116は、第1の計算機が有し、イベント情報117及び障害履歴情報119は、第2の計算機が有しても良い。
<1−1:用語定義>。
以下に、実施例の説明で用いる用語の意味を記す。
「イベント」は、監視対象ノード30で発生した稼働状態の変化の事象である。
「イベントレコード」は、イベントを特定するための情報である。イベントレコードは、例えば、イベントの種別を示す情報であるイベントタイプと、発生元の監視対象ノード30の識別子と、イベントの内容を表す情報と、イベントの発生日時を表す情報とを含む。一つのイベントにつき一つのイベントレコードがある。
「RCA」は、Root Cause Analysisの略であり、監視対象ノード(例えば、サーバ、スイッチ、ストレージ装置)のイベントレコードを基に、イベントの根本原因としての監視対象ノードを特定するための機能である。
「メタRCAルール」は、或る障害とその障害により発生が想定されるイベント群とを定義したルールである。RCAにより用いられる。メタRCAルールを用いることで、イベント群からその根本原因となる障害を導き出すことができる。メタRCAルールは、一以上の監視対象ノードで構成されるトポロジを表すトポロジ情報を含まない情報(メタ情報)である。
「展開RCAルール」は、メタRCAルールを監視対象ノード毎に展開したルールである。RCAにより用いられる。
「障害分析コンテキスト」は、障害を分析する際に用いられる情報である。障害分析コンテキストには、メタRCAルール情報115内のレコード、展開RCAルール情報116内のレコード、サーバ情報111内のレコード、スイッチ情報112内のレコード、ストレージ情報113内のレコード、及び、トポロジ情報114内のレコードが関連付けられている。詳細は、図11を参照して後に説明する。
<1−2:管理サーバが有する情報>。
以下、各種情報を説明するが、その際に、「識別子」、「名」、「ID」といった表現が用いられるが、これらは互いに置換が可能な識別情報である。
<1−2−1:サーバ情報>。
図4は、サーバ情報111を示す図である。
サーバ情報111は、一つのサーバにつき一つのレコード(以下、サーバレコード)を有するテーブルである。サーバレコードは、サーバID501、サーバ名502、サーバのベンダ503、サーバのIPアドレス504、サーバのOS505、及び、サーバの連続稼働時間506を属性値として有する一つのレコードである。以下、一つのサーバ(以下、図4の説明において「対象サーバ」と言う)を例に採り、情報要素501〜506を説明する。
サーバID501は、トポロジ適用プログラム121が監視対象ノード30である対象サーバに割り当てた識別子である。
サーバ名502は、対象サーバがもつコンピュータ名である。
サーバのベンダ503は、対象サーバがもつ製造元名である。
サーバのIPアドレス504は、ネットワーク上で対象サーバが割り当てられた識別子である。
サーバのOS505は、対象サーバにインストールされているOS名である。
サーバの連続稼働時間506は、対象サーバが最後に起動してから現在までの連続での稼働時間である。
なお、サーバ情報111は、サーバに関する属性値を有するのであれば、テーブル以外のデータ構造でもよく、上記に記した属性値以外の属性値を有しても良い。また、サーバ情報111は、サーバID501以外の少なくとも一つの属性値を有しなくてもよい。
<1−2−2:スイッチ情報>。
図5は、スイッチ情報112を示した図である。
スイッチ情報112は、一つのスイッチにつき一つのレコード(以下、スイッチレコード)を有するテーブルである。スイッチレコードは、スイッチID511、スイッチ名512、スイッチのベンダ513、スイッチのIPアドレス514、スイッチのタイプ515、及び、スイッチの連続稼働時間516を属性値とするレコードである。以下、一つのスイッチ(以下、図5の説明において「対象スイッチ」と言う)を例に採り、情報要素511〜516を説明する。
スイッチID511は、トポロジ適用プログラム121が監視対象ノード30である対象スイッチに割り当てた識別子である。
スイッチ名512は、対象スイッチがもつコンピュータ名である。
スイッチのベンダ513は、対象スイッチがもつ製造元名である。
スイッチのIPアドレス514は、ネットワーク上で対象スイッチが割り当てられた識別子である。
スイッチのタイプ515は、対象スイッチの機種名である。
スイッチの連続稼働時間516は、対象スイッチが最後に起動してから現在までの連続での稼働時間である。
なお、スイッチ情報112は、スイッチに関する属性値を有するのであれば、テーブル以外のデータ構造でもよく、上記に記した属性値以外の属性値を有しても良い。また、スイッチ情報112は、スイッチID511以外の少なくとも一つの属性値を有しなくても良い。
<1−2−3:ストレージ情報>。
図6は、ストレージ情報113を示した図である。
ストレージ情報113は、一つのストレージ装置につき一つのレコード(以下、ストレージレコード)を有するテーブルである。ストレージレコードは、ストレージID521、ストレージ名522、ストレージのベンダ523、ストレージのIPアドレス524、ストレージのファームウェア525、及び、ストレージの連続稼働時間526を属性値として有するレコードである。以下、一つのストレージ装置(以下、図6の説明において「対象ストレージ」と言う)を例に採り、情報要素521〜526を説明する。
ストレージID521は、トポロジ適用プログラム121が監視対象ノード30である対象ストレージに割り当てた識別子である。
ストレージ名522は、対象ストレージがもつコンピュータ名である。
ストレージのベンダ523は、対象ストレージがもつ製造元名である。
ストレージのIPアドレス524は、ネットワーク上で対象ストレージが割り当てられた識別子である。
ストレージのファームウェア525は、対象ストレージにインストールされているファームウェア名である。
ストレージの連続稼働時間526は、対象ストレージが最後に起動してから現在までの連続での稼働時間である。
なお、ストレージ情報113は、ストレージ装置に関する属性値を有するのであれば、テーブル以外のデータ構造でもよく、上記に記した属性値以外の属性値を有しても良い。また、ストレージ情報113は、ストレージID521以外の少なくとも一つの属性値を有しなくても良い。
<1−2−4:トポロジ情報>。
図7は、トポロジ情報114を示した図である。
トポロジ情報114は、一つのトポロジにつき一つのレコード(以下、トポロジレコード)を有するテーブルである。トポロジレコードは、トポロジID531、サーバID532、スイッチID533及びストレージID534を属性値とするレコードである。以下、一つのトポロジ(以下、図7の説明において「対象トポロジ」と言う)を例に採り、情報要素531〜534を説明する。
トポロジID531は、対象トポロジの識別子である。「トポロジ」とは、監視対象ノード30同士の接続形態、言い換えれば、監視対象ノード30の組合せである。具体的には、トポロジとして、監視対象ノードの種類と並びが定義されている。
サーバID532は、対象トポロジが有するサーバのサーバID501である。
スイッチID533は、対象トポロジが有するスイッチのスイッチID511である。
ストレージID534は、対象トポロジが有するストレージ装置のストレージID521である。
なお、トポロジ情報114は、監視対象ノード30の接続形態に関する属性値を有するのであれば、テーブル以外のデータ構造でもよく、上記に記した属性値以外の属性値を有しても良い。本実施例では、トポロジは、典型的には、サーバ(計算機)がスイッチ(ネットワークスイッチ)を介してストレージ装置に接続されている接続形態である。このようなトポロジによれば、サーバは、ストレージ装置から提供される論理ボリュームを指定したI/Oコマンド(ライトコマンド又はリードコマンド)を発行する。I/Oコマンドは、スイッチを介してストレージ装置に届く。ストレージ装置は、そのI/Oコマンドに従い、そのコマンドで指定されている論理ボリュームに対するI/Oを行う。
<1−2−5:メタRCAルール情報>。
図8は、メタRCAルール情報115を示した図である。
メタRCAルール情報115は、一つのメタRCAルールにつき一つのレコード(以下、メタRCAレコード)を有するテーブルである。メタRCAレコードは、メタRCAルールID541、サーバイベント542、スイッチイベント543、ストレージイベント544、原因ノード545及び原因内容546を属性値として有するレコードである。以下、一つのメタRCAルール(以下、図8の説明において「対象メタRCAルール」と言う)を例に採り、情報要素541〜546を説明する。
メタRCAルールID541は、ルールマッチング解析プログラム122が対象メタRCAルールに割り当てた識別子である。
サーバイベント542は、対象メタRCAルールがもつサーバでのイベントの内容を表す情報である。
スイッチイベント543は、対象メタRCAルールがもつスイッチでのイベントの内容を表す情報である。
ストレージイベント544は、対象メタRCAルールがもつストレージ装置でのイベントの内容を表す情報である。
原因ノード545は、対象メタRCAルールがもつイベントの根本原因であるノードの種類を表す情報である。
原因内容546は、対象メタRCAルールがもつイベントの根本原因の内容を表す情報である。原因内容546と前述の原因ノード545との組合せが、イベント群の根本原因を表す。
なお、メタRCAルール情報115は、メタRCAルールに関する属性値を有するのであれば、テーブル以外のデータ構造でもよく、上記に記した属性値以外の属性値を有してもよい。
<1−2−6:展開RCAルール情報>。
図9は、展開RCAルール情報116を示した図である。
展開RCAルール情報116は、一つの展開RCAルールにつき一つのレコード(以下、展開RCAレコード)を有するテーブルである。展開RCAレコードは、展開RCAルールID551、メタRCAルールID552、トポロジID553、原因ノードID554及び原因詳細555を属性値として有するレコードである。以下、一つの展開RCAルール(以下、図9の説明において「対象展開RCAルール」と言う)を例に採り、情報要素551〜555を説明する。
展開RCAルールID551は、ルールマッチング解析プログラム122が対象展開RCAルールに割り当てた識別子である。
メタRCAルールID552は、対象展開RCAルールが属するメタRCAルールがもつメタRCAルールID541である。
トポロジID553は、対象展開RCAルールが属するトポロジがもつトポロジID531である。
原因ノードID554は、対象展開RCAルールの根本原因となる監視対象ノード30を同定するためのサーバID501、スイッチID511又はストレージID521である。
原因詳細555は、対象展開RCAルールの根本原因の内容を表す原因内容546である。
なお、展開RCAルール情報116は、展開RCAルールに関する属性値を有するのであれば、テーブル以外のデータ構造でもよく、上記に記した属性値以外の属性値を有してもよい。
<1−2−7:イベント情報>。
図10は、イベント情報117を示した図である。
イベント情報117は、一つのイベントにつき一つのイベントレコードを有するテーブルである。イベントレコードは、イベントID561、イベントタイプ562、対象ノードタイプ563、対象ノードID564、イベント内容565、発生日時566及び状態567を属性値として有するレコードである。以下、一つのイベント(以下、図10の説明において「対象イベント」と言う)を例に採り、情報要素561〜567を説明する。
イベントID561は、ルールマッチング解析プログラム122が対象イベントのイベントレコードに割り当てた識別子である。
イベントタイプ562は、対象イベントの種類を表す情報である。イベントタイプ562の具体的な値として、例えば、「Critical」、「Warning」、「Information」、がある。
対象ノードタイプ563は、対象イベントの発生元である監視対象ノード30のノードの種類(例えば、サーバ、スイッチもしくはストレージ装置)を表す情報である。
対象ノードID564は、対象イベントの発生元である監視対象ノード30を表すサーバID501、スイッチID511又はストレージID521である。
イベント内容565は、対象イベントの内容を表す情報である。
発生日時566は、対象イベントの発生日時を表す情報である。
状態567は、対象イベントが解決済みか否かを表す情報である。
なお、イベント情報117は、イベントに関する属性値を有するのであれば、テーブル以外のデータ構造でもよく、上記に記した属性値以外の属性値を有してもよい。また、イベント情報117は、イベントID551、対象ノードID564、イベント内容565及び発生日時566以外の少なくとも一つの属性値を有しなくても良い。
<1−2−8:障害分析コンテキスト>。
図11は、障害分析コンテキスト120を示した図である。
障害分析コンテキスト120は、障害分析コンテキストID601、メタRCAルールID602、展開RCAルールID603、トポロジID604、サーバID605、スイッチID606及びストレージID607を属性値として有するデータである。
障害分析コンテキストID601は、生成プログラム123が障害分析コンテキスト120に割り当てた識別子である。
メタRCAルールID602は、この障害分析コンテキスト120に関連付けられたメタRCAルールを同定するためのメタRCAルールID541である。
展開RCAルールID603は、この障害分析コンテキスト120に関連付けられた展開RCAルールを同定するための展開RCAルールID551である。
トポロジID604は、この障害分析コンテキスト120に関連付けられたトポロジを同定するためのトポロジID531である。
サーバID605は、この障害分析コンテキスト120に関連付けられたサーバを同定するためのサーバID501である。
スイッチID606は、この障害分析コンテキスト120に関連付けられたスイッチを同定するためのスイッチID511である。
ストレージID607は、この障害分析コンテキスト120に関連付けられたストレージ装置を同定するためのストレージID521である。
なお、障害分析コンテキスト120は、上記に記した属性値以外の属性値を有しても良い。
<1−2−9:障害履歴情報>。
図12Aは、障害履歴情報119が有する障害履歴エントリ1191を示した図である。
障害履歴エントリ1191は、障害履歴ID701、メタRCAルールID702、展開RCAルールID703、トポロジID704、サーバID705、スイッチID706、ストレージID707、サーバ重みID708、スイッチ重みID709、ストレージ重みID710、原因711及び復旧方法712を属性値として有するデータである。
障害履歴ID701は、障害履歴管理プログラム125が障害履歴エントリ1191に割り当てた識別子である。
メタRCAルールID702は、この障害履歴エントリ1191に関連付けられたメタRCAルールを同定するためのメタRCAルールID541である。
展開RCAルールID703は、この障害履歴エントリ1191に関連付けられた展開RCAルールを同定するための展開RCAルールID551である。
トポロジID704は、この障害履歴エントリ1191に関連付けられたトポロジを同定するためのトポロジID531である。
サーバID705は、この障害履歴エントリ1191に関連付けられたサーバを同定するためのサーバID501である。
スイッチID706は、この障害履歴エントリ1191に関連付けられたスイッチを同定するためのスイッチID511である。
ストレージID707は、この障害履歴エントリ1191に関連付けられたストレージ装置を同定するためのストレージID521である。
サーバ重みID708は、この障害履歴エントリ1191に関連付けられたサーバ重みレコードを同定するためのサーバ重みID801(図12B参照)である。サーバ重みレコードは、サーバ重み情報800が有するレコードである。
スイッチ重みID709は、この障害履歴エントリ1191に関連付けられたスイッチ重みレコードを同定するためのスイッチ重みID811(図12C参照)である。スイッチ重みレコードは、スイッチ重み情報810が有するレコードである。
ストレージ重みID710は、この障害履歴エントリ1191に関連付けられたストレージ重みレコードを同定するためのストレージ重みID821(図12D参照)である。ストレージ重みレコードは、ストレージ重み情報820が有するレコードである。
原因711は、この障害履歴エントリ1191に対応した障害の原因を表す情報である。
復旧方法712は、この障害履歴エントリ1191に対応した障害からの復旧方法を表す情報である。
障害履歴エントリ1191が有するID702〜707は、障害分析コンテキスト120(図11参照)が有するID602〜607の複製である。つまり、前述したように、障害履歴エントリ1191は、障害分析コンテキスト120を有する。図12Aによれば、障害分析コンテキストID601は障害履歴エントリ1191に含まれていないが、そのID601がそのレコード1191に含まれても良い。
障害履歴情報119は、障害履歴に関する属性値を有するのであれば、上述のデータ構造以外のデータ構造でもよく、上記に記した属性値以外の属性値を有しても良い。また、障害履歴情報119は、サーバ重みID708、スイッチ重みID709及びストレージ重みID710を有していなくても良い。
<1−2−10:サーバ重み情報>。
図12Bは、サーバ重み情報800を示した図である。
サーバ重み情報800は、一つのサーバ重みにつき一つのレコード(サーバ重みレコード)を有するテーブルである。サーバ重みレコードは、サーバ重みID801、サーバのベンダ802、サーバのIPアドレス803、サーバのOS804、及び、サーバの連続稼働時間805を属性値として有するレコードである。以下、一つのサーバ重み(図12Bの説明において「対象サーバ重み」という)を例に採り、情報要素801〜805を説明する。
サーバ重みID801は、対象サーバ重みに割り当てられた識別子である。
サーバのベンダ802は、対象サーバ重みに属する一種の重みであり、サーバのベンダという項目をどれだけ重要視するかを表す値である。
サーバのIPアドレス803は、対象サーバ重みに属する一種の重みであり、サーバのIPアドレスという項目をどれだけ重要視するかを表す値である。
サーバのOS804は、対象サーバ重みに属する一種の重みであり、サーバのOSという項目をどれだけ重要視するかを表す値である。
サーバの連続稼働時間805は、対象サーバ重みに属する一種の重みであり、サーバの連続稼働時間という項目をどれだけ重要視するかを表すである。
以上の説明からわかるように、「サーバ重み」とは、サーバに関する複数種類の項目の重みで定義されている。
なお、サーバ重み情報800は、サーバ重みに関する属性値を有するのであれば、テーブル以外のデータ構造でもよく、上記に記した属性値以外の属性値も有しても良い。また、サーバ重み情報800は、サーバ重みID801以外の少なくとも一つの属性値を有しなくても良い。
<1−2−11:スイッチの重み情報>。
図12Cは、スイッチの重み情報810を示した図である。
スイッチ重み情報810は、一つのスイッチ重みにつき一つのレコード(スイッチ重みレコード)を有するテーブルである。スイッチ重みレコードは、スイッチ重みID811、スイッチのベンダ812、スイッチのIPアドレス813、スイッチのタイプ814、及び、スイッチの連続稼働時間815を属性値として有するレコードである。以下、一つのスイッチ重み(図12Cの説明において「対象スイッチ重み」という)を例に採り、情報要素811〜815を説明する。
スイッチ重みID811は、対象スイッチ重みに割り当てられた識別子である。
スイッチのベンダ812は、対象スイッチ重みに属する一種の重みであり、スイッチのベンダという項目をどれだけ重要視するかを表す値である。
スイッチのIPアドレス813は、対象スイッチ重みに属する一種の重みであり、スイッチのIPアドレスという項目をどれだけ重要視するかを表す値である。
スイッチのタイプ814は、対象スイッチ重みに属する一種の重みであり、スイッチのタイプという項目をどれだけ重要視するかを表す値である。
スイッチの連続稼働時間815は、対象スイッチ重みに属する一種の重みであり、スイッチの連続稼働時間という項目をどれだけ重要視するかを表すである。
以上の説明からわかるように、「スイッチ重み」とは、スイッチに関する複数種類の項目の重みで定義されている。
なお、スイッチ重み情報810は、スイッチ重みに関する属性値を有するのであれば、テーブル以外のデータ構造でもよく、上記に記した属性値以外の属性値も有しても良い。また、スイッチ重み情報810は、スイッチ重みID811以外の少なくとも一つの属性値を有しなくても良い。
<1−2−12:ストレージの重み情報>。
図12Dは、ストレージ重み情報820を示した図である。
ストレージ重み情報820は、一つのストレージ重みにつき一つのレコード(ストレージ重みレコード)を有するテーブルである。ストレージ重みレコードは、ストレージ重みID821、ストレージのベンダ822、ストレージのIPアドレス823、ストレージのファームウェア824、及び、ストレージの連続稼働時間825を属性値として有するレコードである。以下、一つのストレージ重み(図12Dの説明において「対象ストレージ重み」という)を例に採り、情報要素821〜825を説明する。
ストレージ重みID821は、対象ストレージ重みに割り当てられた識別子である。
ストレージのベンダ822は、対象ストレージ重みに属する一種の重みであり、ストレージのベンダという項目をどれだけ重要視するかを表す値である。
ストレージのIPアドレス823は、対象ストレージ重みに属する一種の重みであり、ストレージのIPアドレスという項目をどれだけ重要視するかを表す値である。
ストレージのファームウェア824は、対象ストレージ重みに属する一種の重みであり、ストレージのファームウェアという項目をどれだけ重要視するかを表す値である。
ストレージの連続稼働時間825は、対象ストレージ重みに属する一種の重みであり、ストレージの連続稼働時間という項目をどれだけ重要視するかを表すである。
以上の説明からわかるように、「ストレージ重み」とは、ストレージに関する複数種類の項目の重みで定義されている。
なお、ストレージ重み情報820は、ストレージ重みに関する属性値を有するのであれば、テーブル以外のデータ構造でもよく、上記に記した属性値以外の属性値も有しても良い。また、ストレージ重み情報820は、ストレージ重みID821以外の少なくとも一つの属性値を有しなくても良い。
前述したサーバ重み情報800、スイッチ重み情報810およびストレージ重み情報820が、例えば障害履歴情報に含まれている。
<1−2−13:各情報の抽象化>。
以下の説明では、サーバ、スイッチ及びストレージ装置で構成されたトポロジを一例として記載する。しかし、本発明は、そのようなトポロジに限らず他種のトポロジについても適用可能である。例えば、トポロジは、所定のネットワークサービスを提供するサービス提供ノード装置(一例がストレージ装置)と、その所定のネットワークサービスを利用するサービス利用ノード装置(一例がサーバ)が、監視対象ノードであればよい。そうした広い観点から考えると、各種情報は、以下の情報を有していれば良いことになる。
サーバ情報(図4参照)は、より抽象的には、サービス利用ノード装置情報である。サービス利用ノード装置情報は、以下の情報(a1)〜(a3):
(a1)サービス利用ノード装置のIPアドレス等のネットワーク識別子;
(a2)当該ノード装置のハードウェア又はソフトウェアの構成を表す情報;
(a3)設定内容を表す情報、
を含むことができる。
スイッチ情報(図5参照)は、より抽象的には、中継装置情報(または中継ノード装置情報)である。中継装置情報は、以下の情報(b1)及び(b2):
(b1)サービス利用ノード装置とサービス提供ノード装置との通信を仲介するノード装置(一例がスイッチ)のハードウェア又はソフトウェアの構成を表す情報;
(b2)設定内容を表す情報、
を含むことができる。
ストレージ情報(図6参照)は、より抽象的には、サービス提供ノード装置情報である。サービス提供ノード装置情報は、以下の情報(c1)〜(c3):
(c1)サービス提供ノード装置のIPアドレス等のネットワーク識別子;
(c2)当該ノード装置のハードウェア又はソフトウェアの構成を表す情報;
(c3)設定内容を表す情報、
を含むことができる。また、サービス提供ノード装置情報は、サービス利用ノード装置が提供するネットワークサービスの種別を表す情報等を含んでも良い。
トポロジ情報(図7参照)は、サービス利用ノード装置の識別子と当該サービス利用ノード装置が利用するサービス提供ノード装置の識別子との組(または対応関係)を表す情報を含むことができる。なお、サービス利用ノード装置と当該サービス利用ノード装置とが通信する際に一つ以上の中継装置を介するのであれば、それら一つ以上の中継装置の識別子がトポロジ情報に含まれても良い。
メタRCAルール情報(図8参照)は、管理サーバが監視対象とする各ネットワークサービスについて、以下の情報(d1)及び(d2):
(d1)サービス利用ノード装置で発生しうる第1のイベント(サービス利用ノード装置発生イベント)の種別と、サービス提供ノード装置(又は中継装置)で発生しうる第2のイベント(サービス提供ノード装置発生イベント)の種別との組み合わせを表す情報;
(d2)第1のイベントと第2のイベントとが発生した場合の原因と決定できる(または原因と推定される)サービス提供ノード装置又は中継装置で発生しうる原因(または原因の種別)を示す情報、
を含むことができる。
展開RCAルール情報(図9参照)は、ネットワークサービスを利用又は提供する各監視対象ノードについて、以下の情報(e1)〜(e3):
(e1)サービス利用ノード装置であるノード装置で発生しうる第1のイベントの種別及びサービス利用ノード装置の識別子と、サービス提供ノード装置(又は中継装置)で発生しうる第2のイベントの種別及びサービス提供ノード装置(又は中継装置)の識別子との組み合わせを表す情報;
(e2)第1のイベントと第2のイベントとが発生した場合の原因と決定できる(又は原因と推定される)サービス提供ノード装置(又は中継装置)の識別子;
(e3)当該サービス提供ノード装置(又は中継装置)で発生しうる原因(または原因の種別)を示す情報、
を含むことができる。
障害分析コンテキスト(図11参照)は、障害の根本原因を特定するために用いたメタRCAルールの識別子を含むことができる。なお、障害の根本原因を特定するために用いた展開RCAルールの識別子、トポロジの識別子又は監視対象ノードの識別子が含まれてもよい。
障害履歴エントリ(図12A参照)は、障害分析コンテキストの内容と、そのコンテキストに対応した障害からの復旧方法(例えば復旧手順)を表す情報とを含むことができる。なお、障害履歴エントリは、そのレコードが有する障害分析コンテキストのマッチング度を評価するための評価値、又は、評価値が記録された情報の識別子を含んでも良い。
サーバ重み情報(図12B参照)は、サービス利用ノード装置のハードウェア又はソフトウェア構成及び設定内容の要素に振り分ける、マッチング度を評価するための値を含むことができる。
スイッチ重み情報(図12C参照):中継装置のハードウェア又はソフトウェア構成及び設定内容の要素に振り分ける、マッチング度を評価するための値を含むことができる。
ストレージ重み情報(図12D参照)は、サービス提供ノード装置のハードウェア又はソフトウェア構成及び設定内容の要素に振り分ける、マッチング度を評価するための値を含むことができる。
<1−3:展開RCAルール作成>。
図13は、展開RCAルールを作成するフローを示す。
(ステップ1001)トポロジ適用プログラム121は、ネットワーク50を通じて、監視対象ノード30から情報を取得する。監視対象ノード30がサーバであれば、サーバ名、サーバのベンダ名、サーバのIPアドレス、サーバのOS名、及び、サーバの連続稼働時間を含んだ情報(以下、サーバ取得情報)が取得される。トポロジ適用プログラム121は、各監視対象ノード(各サーバ)から受信したサーバ取得情報に基づいてサーバ情報111を作成又は更新する。具体的には、例えば、トポロジ適用プログラム121は、以下の処理(A)及び(B):
(A)サーバ取得情報内の識別子がサーバ情報111に格納されていない場合、そのサーバ取得情報に対応した、サーバ情報111内のサーバレコード(以下、図13の説明において「対象サーバレコード」と言う)に対して、サーバID501(例えば、サーバ取得情報内の識別子)を割り振り、そのサーバID501を対象レコードに格納する;
(B)サーバ取得情報内のサーバ名502、ベンダ名503、IPアドレス504、OS名505及び連続稼働時間506を、対象サーバレコードに格納する、
を行う。
なお、サーバ取得情報のデータ構造は、サーバ情報111を更新できるのであれば、上記構造に限られない。また、予めサーバでないことが明らかな監視対象ノードについてはステップ1001が省略されてもよい。
(ステップ1002)トポロジ適用プログラム121は、ネットワーク50を通じて、監視対象ノード30から情報を取得する。監視対象ノード30がスイッチであれば、スイッチ名、スイッチのベンダ名、スイッチのIPアドレス、スイッチのタイプ、及び、スイッチの連続稼働時間を含んだ情報(以下、スイッチ取得情報)が取得される。トポロジ適用プログラム121は、各監視対象ノード(各スイッチ)から受信したスイッチ取得情報に基づいてスイッチ情報112を作成又は更新する。具体的には、例えば、トポロジ適用プログラム121は、以下の処理(A)及び(B):
(A)スイッチ取得情報内の識別子がスイッチ情報112に格納されていない場合、そのスイッチ取得情報に対応した、スイッチ情報112内のスイッチレコード(以下、図13の説明において「対象スイッチレコード」と言う)に対して、スイッチID511(例えば、スイッチ取得情報内の識別子)を割り振り、そのスイッチID511を対象スイッチレコードに格納する;
(B)スイッチ取得情報のスイッチ名512、ベンダ名513、IPアドレス514、タイプ515及び連続稼働時間516を、対象スイッチレコードに格納する、
を行う。
なお、スイッチ取得情報のデータ構造は、スイッチ情報112を更新できるのであれば、上記構造に限られない。また、予めスイッチでないことが明らかな監視対象ノードについてはステップ1002が省略されてもよい。
(ステップ1003)トポロジ適用プログラム121は、ネットワーク50を通じて、監視対象ノード30からから情報を取得する。監視対象ノード30がストレージ装置であれば、ストレージ名、ストレージのベンダ名、ストレージのIPアドレス、ストレージのファームウェア名、及び、ストレージの連続稼働時間を含んだ情報(以下、ストレージ取得情報)が取得される。トポロジ適用プログラム121は、各監視対象ノード(各ストレージ装置)から受信したストレージ取得情報に基づいてストレージ情報113を作成又は更新する。具体的には、例えば、トポロジ適用プログラム121は、以下の処理(A)及び(B):
(A)ストレージ取得情報内の識別子がストレージ情報113に格納されていない場合、そのストレージ取得情報に対応した、ストレージ情報113内のストレージレコード(以下、図13の説明において「対象ストレージレコード」と言う)に対して、ストレージID521(例えば、ストレージ取得情報内の識別子)を割り振り、そのストレージID521を対象ストレージレコードに格納する;
(B)ストレージ取得情報のストレージ名522、ベンダ名523、IPアドレス524、ファームウェア525及び連続稼働時間526を、対象ストレージレコードに格納する、
を行う。
なお、ストレージ取得情報のデータ構造は、ストレージ情報112を更新できるのであれば、上記構造に限られない。また、予めストレージでないことが明らかな監視対象ノードについてはステップ1003が省略されてもよい。
(ステップ1004)トポロジ適用プログラム121は、ネットワーク50を通じて、監視対象ノード30のトポロジ取得情報を受信する。トポロジ取得情報の一例として、スイッチのIDと、そのスイッチに接続されているサーバ及びストレージ装置のそれぞれのIDとを含む。具体的には、例えば、トポロジ適用プログラム121は、以下の処理(A)及び(B):
(A)トポロジ取得情報内の識別子がトポロジ情報114に格納されていない場合、そのトポロジ取得情報に対応した、トポロジ情報114内のトポロジレコード(以下、図13の説明において「対象トポロジレコード」と言う)に対して、トポロジID531(例えば、トポロジ取得情報内の識別子)を割り振り、そのトポロジID321を対象トポロジレコードに格納する;
(B)トポロジ取得情報内のスイッチID533、サーバID532及びストレージID534を、対象トポロジレコードに格納する、
を行う。
なお、トポロジ取得情報のデータ構造は、トポロジ情報114を更新できるのであれば、上記構造に限られない。また、予めスイッチ、サーバ及びストレージ装置でないことが明らかな監視対象ノードについてはステップ1004が省略されてもよい。また、トポロジレコードは、次のように更新されても良い。すなわち、各監視対象ノードから、どの監視対象ノードに直接接続されているかを表す接続先情報が取得され、且つ、サーバ又はストレージ装置から、どのサーバからどの論理ボリュームにアクセスされるかを表すパス情報が取得され、接続先情報及びパス情報を基に、対象トポロジレコードが更新されても良い。
(ステップ1005)トポロジ適用プログラム121は、トポロジ情報114とメタRCAルール情報115とに基づいて、展開RCAルール情報116を作成する。より具体的には、このプログラム121が、以下の処理(x)及び(y):
(x)トポロジ情報114内のトポロジID531とメタRCAルール情報115内のメタRCAルールID541との全ての組み合わせを作成する(例えば、2つのトポロジID531と3つのメタRCAルールID541がある場合、6つ(2×3=6)の組合せを作成する);
(y)各組み合わせについて、展開RCAルールID551を割り振り、且つ、展開RCAルールID551と、組合せを構成するトポロジID及びメタRCAルールIDとを、展開RCAレコード(展開RCAルール情報116内のレコード)に格納する、
を行う。なお、実際には利用されることのないストレージ装置とサーバの組み合わせを含んだトポロジのトポロジIDについては、上記(x)の処理は行われなくて良い。同様に、他の処理によって展開RCAルール情報が作成されてもよい。より抽象化して考えた場合、例えば、トポロジ適用プログラム121は、以下の(ステップA)〜(ステップD):
(ステップA)監視対象ノードから上記の各取得情報に含まれる少なくとも一つの値をノード取得情報として取得する;
(ステップB)ノード取得情報に基づいて、サービス利用ノード装置情報、サービス提供ノード装置情報、又は中継ノード装置情報を更新する;
(ステップC)トポロジ取得情報に基づいて、所定のネットワークサービスについてのサービス提供ノード装置の識別子と、当該ノード装置を利用するサービス利用ノード装置の識別子との対応を、トポロジ情報に含める;
(ステップD)トポロジ情報とメタRCAルール情報に基づいて、展開RCAルール情報を更新する;
を行うことができる。
なお、上記の例によれば、展開RCAルール情報の1レコードがメタRCAルール情報の1レコードから作成されるが、本発明はこれに限定されない。その一例としては多段推論がある。多段推論の場合、3段論法等を用いて複数のルールから新しいルールを導出することができる。この場合、展開RCAルール情報のメタRCAルールID以外に、実際に一つ以上のメタRCAルールのレコードとトポロジ情報とによって展開RCAルール情報が作成されればよい。複数のルールから新しいルールを導出する一例としては以下がある。
(第1のメタRCAルール)第1のネットワークサービス(例えばWWW(World Wide Web))について、サービス利用ノード装置で発生する第1の種別のイベント(以下、イベントA)とサービス提供ノード装置で発生する第2の種別のイベント(以下、イベントB)とを検知した場合、イベントAが発生する根本原因はイベントBの発生である。
(第2のメタRCAルール)第2のネットワークサービス(例えばDNS(Domain Name System))について、サービス利用ノード装置で発生する第3の種別のイベント(以下、イベントC)と、サービス提供ノード装置で発生する第4の種別のイベント(以下、イベントD)とを検知した場合、イベントCが発生する根本原因はイベントDの発生である。
(第1のトポロジ情報)第1のネットワークサービスについて、ノード装置Aがサービス利用ノード装置であり、ノード装置Bがサービス提供ノード装置である。
(第2のトポロジ情報)第2のネットワークサービスについて、ノード装置Bがサービス利用ノード装置であり、ノード装置Cがサービス提供ノード装置である。
(第3のトポロジ情報)ノード装置Bにおける第1のネットワークサービスは、第2のネットワークサービスを利用して提供する。
(生成される第1の展開RCAルール)ノード装置Aで発生したイベントAが検知され且つノード装置Bで発生したイベントBが検知された場合、ノード装置Aで発生したイベントAの根本原因は、ノード装置BでのイベントBの発生である。
(生成される第2の展開RCAルール)ノード装置Bで発生したイベントCが検知され且つノード装置Cで発生したイベントDが検知された場合、ノード装置Bで発生したイベントCの根本原因は、ノード装置CでのイベントDの発生である。
(生成される第3の展開RCAルール)ノード装置Aで発生したイベントAが検知され且つノード装置Cで発生したイベントDが検知された場合、ノード装置Aで発生したイベントAの根本原因は、ノード装置CでのイベントDの発生である。
なお、多段推論が用いられる場合、物理的な装置間(例えばノード間)の依存関係以外に、ネットワークサービス又は論理的な対象間の依存関係を表す情報も、トポロジ情報に含まれても良い。上記第3のトポロジ情報がその一例である。
また、図9の展開RCAルール情報では、メタRCAルールID552及びトポロジID553に基づいて、メタRCAルール情報115が表すメタRCAルールとトポロジ情報が表すトポロジとを参照しつつ、根本原因の特定が行われる。しかし、代替の処理として、メタRCAルール及びトポロジを基に展開されたルールを表す情報が、展開RCAルール情報に含まれても良い。この方式によれば、管理サーバ10のメモリ110の消費量は増加するものの、根本原因を特定する速度はより高速となる。ただし、展開RCAルールからメタRCAルールを特定する必要があるため、いずれにしても展開RCAルール情報にはメタRCAルールID552は必要である。
<1−4:イベント検知処理>。
図14は、イベントの検知からイベントの根本原因の特定までのフローを示す。本フローは一定時間毎(例えば10分毎)または単なる繰り返しで実行される。
(ステップ1011)プログラム122は、全ての監視対象ノード30に対して、イベントタイプ、対象ノードタイプ、対象ノードID、イベント内容、発生日時を含む情報であるイベントエントリを要求する。なお、イベントエントリに含まれる各情報要素は、以下の通りである:
(イベントタイプ)イベントエントリの属するイベントの種類(例えば、Critical、Warning、Information)を示す;
(対象ノードタイプ)発生したイベントの対象である監視対象ノード30のノードの種類(例えば、サーバ、スイッチもしくはストレージ装置)を示す;
(対象ノードID)イベントが発生した監視対象ノード30を示す識別子(サーバID501、スイッチID511又はストレージID521)である;
(イベント内容)発生したイベントの内容である;
(発生日時)イベントの発生日時である。
なお、イベントエントリは、ルールマッチング解析プログラム122からの要求を受けること無しに監視対象ノード30から送信されても良い。また、発生日時を表す情報は必ずしも含まれていなくても良い。その場合、発生日時に代えて、管理サーバ10が、イベントエントリを受信した日時を採用することができる。
(ステップ1012)ルールマッチング解析プログラム122は、ステップ1011で監視対象ノード30からイベントエントリを受信した場合、ステップ1013を行う。監視対象ノード30からイベントエントリを受信しなかった場合、ステップ1011が行われる。
(ステップ1013)ルールマッチング解析プログラム122は、イベントエントリに基づいてイベント情報117に情報を追加する。具体的には、例えば、プログラム122は、以下の処理(A)〜(C):
(A)新規のイベントID561を取得し、イベント情報117内のブランクのレコード(以下、ステップ1013の説明において「対象レコード」と言う)に、そのID561を格納する;
(B)対象レコードに、イベントエントリ内のイベントタイプ、対象ノードタイプ、対象ノードID、イベント内容及び発生日時を格納する;
(C)対象レコードに、状態567として、「未解決」という値を格納する、
を行う。
なお、イベントエントリは、イベント情報117のイベントレコード(イベント情報117内のレコード)を追加又は更新できるのであれば、他の値を含んでも良い。
(ステップ1014)ルールマッチング解析プログラム122は、「未解決」を表す状態567を含んだイベントレコードと、トポロジ情報114と、展開RCAルール情報116とを基に、「未解決」を表す状態567を含んだイベントレコードと関連する展開RCAレコード(展開RCAルール情報116内のレコード)を特定する。具体的には、例えば、ルールマッチング解析プログラム122は、以下の処理(A)〜(H):
(A)状態556が「未解決」のイベントレコードのうち、発生日時565が最も遅いイベントレコード(第1のイベントレコード)を特定する;
(B)直前のステップで特定された第1のイベントレコードを基に、一つ以上の第2のイベントレコードを特定する(第1のイベントレコード内の発生日時565と、第2のイベントレコード内の発生日時565との差は、所定の時間(例えば10分前後)以内である);
(C)上記(B)で得られた全ての第2のイベントレコード内の対象ノードタイプ563を参照し、それら第2のイベントレコード内の全ての対象ノードIDを基に、対象ノードタイプの異なる対象ノードIDで構成された全ての組み合わせ(以下、ノードIDセット)を作成する(例えば、4つのイベントレコードがあり、そのうちの2つがサーバA及びBに関するレコードであり、残りの2つがスイッチA及びBに関するレコードである場合、サーバAのID−スイッチAのID、サーバAのID−スイッチBのID、サーバBのID−スイッチAのID、及びサーバBのID−スイッチBのIDという4つのノードIDセットを作成する);
(D−1)上記(C)で得られたいずれのIDセットにも含まれない対象ノードIDを含んだ第2のイベントレコード(「未解決」を表す状態556を含んだイベントレコード)がある場合、その中で発生日時565が最も遅い第2のイベントエントリを特定し、その第2のイベントエントリを上記第1のイベントエントリとして上記(B)を実施する;
(D−2)上記(C)で得られたいずれのIDセットにも含まれない対象ノードIDを含んだ第2のイベントレコード(「未解決」を表す状態556を含んだイベントレコード)がない場合、次の処理(E)を実施する;
(E)上記(D−1)及び(D−2)までに得られた各ノードIDセットについて、以下の(条件E1)〜(条件E3)の全てに適合するトポロジレコード(トポロジ情報114のレコード):
(条件E1)ノードIDセット内のサーバの対象ノードIDと一致するサーバID532を有する;
(条件E2)そのノードIDセット内のスイッチの対象ノードIDと一致するスイッチID533を有する;
(条件E3)そのノードIDセット内のストレージ装置の対象ノードIDと一致するストレージID534を有する、
を探し、そのようなトポロジレコードが見つかれば、そのトポロジレコードが有するトポロジID531を抽出し、そのID531を、そのトポロジレコードに対応するノードIDセットに対応づける;
(F)上記(E)で得られた各ノードIDセット(条件E1〜E3に適合するトポロジレコードが特定されたノードIDセット)について、以下の(条件F1)〜(条件F3)の全てに適合するメタRCAレコード(メタRCAルール情報115のレコード):
(条件F1)イベントIDセット内のサーバの対象ノードIDを有するイベントレコード内のイベント内容564と一致するサーバイベント542を有する;
(条件F2)そのイベントIDセット内のスイッチの対象ノードIDを有するイベントレコード内のイベント内容564と一致するスイッチイベント543を有する;
(条件F3)そのイベントIDセット内のストレージ装置の対象ノードIDを有するイベントレコード内のイベント内容564と一致するストレージイベント544を有する、
を探し、そのようなメタRCAレコードが見つかれば、そのメタRCAレコードが有するメタRCAルールID541を抽出し、そのID541を、対応するノードIDセットに対応づける;
(G)上記(F)で得られた各ノードIDセット(メタRCAルールID541が対応付けられたセット)について、以下の処理(g1)〜(g4):
(g1)ノードIDセットに対応付けられたメタRCAルールID541を有するメタRCAレコードから原因ノード545を抽出する;
(g2)抽出された原因ノード545と一致する対象ノードタイプ563を有するイベントレコードを特定する;
(g3)特定されたイベントレコードから対象ノードID564を抽出する;
(g4)抽出された対象ノードID564を、上記(g1)でのノードIDセットに対応付ける、
を行う;
(H)下記(h1)〜(h3)の要素を有する展開RCAレコード(展開RCAルール情報116のレコード):
(h1)上記(E)で得られたトポロジID531と一致するトポロジID553;
(h2)上記(F)で得られたメタRCAルールID541と一致するメタRCAルールID552;
(h3)上記(G)で得られた対象ノードID564と一致する原因ノードID554、
を抽出する。
(ステップ1015)ルールマッチング解析プログラム122は、ステップ1014で得られた複数の展開RCAレコードを、メタRCAルールID552が一致するレコード同士でまとめる。これにより、メタRCAルールID552が同じ展開RCAレコードのグループが1又は複数個できる。
(ステップ1016)プログラム122は、ステップ1015で得られたグループに属する展開RCAルールを、原因ノードID554が一致するレコード同士でまとめる。これにより、メタRCAルールID552が同じ展開RCAレコードのグループにつき、原因ノードID554が同じ展開RCAレコードのサブグループが1又は複数個できる。原因ノードID554が示す監視対象ノード30が、根本原因候補である。
(ステップ1017)プログラム122は、ステップ1016で得られた根本原因候補の確からしさを確信度として算出する。確信度の算出方法として、例えば、原因ノードID554が一致する展開RCAルールレコードの数に基づく方法がある。例えば、各根本原因候補に対して、原因ノードID554が一致する展開RCAルールレコードの数に応じた確信度が割り振られる。原因ノードID554が一致する展開RCAルールレコードの数が多い根本原因候補に割り振られた確信度は、そのような展開RCAルールレコードの数が少ない根本原因候補に割り振られた確信度よりも高い。なお、確信度は他の算出方法でもよい。
<1−5:障害分析コンテキストの作成>。
図15は、障害分析コンテキストの作成のフロー図である。このフローは、例えばステップ1017の直後に開始される。
(ステップ1018)生成プログラム123は、障害分析コンテキスト118を作成する。具体的には、例えば、生成プログラム123は、以下の処理(A)〜(G):
(A)ステップ1015で得られたメタRCAルールID552を障害分析コンテキストに含める;
(B)ステップ1014で得られた1つ以上の展開RCAルールID551を有する1以上の展開RCAレコードのうちの、上記(A)で得られたメタRCAルールID552と一致するID552を有するレコードから展開RCAルールID551を抽出し、抽出したID551を障害分析コンテキストに含める;
(C)上記(B)で得られた展開RCAルールID551(603)と一致するID551を有する展開RCAレコードからトポロジID553を抽出し、そのID553を障害分析コンテキストに含める;
(D)上記(C)で得られたトポロジID553(605)と一致するID531を有するトポロジレコードからサーバID532を抽出し、そのID532を障害分析コンテキストに含める;
(E)上記(C)で得られたトポロジID553(605)と一致するID531を有するトポロジレコードからスイッチID533を抽出し、そのID533を障害分析コンテキストに含める;
(F)上記(C)で得られたトポロジID553(605)と一致するID531を有するトポロジレコードからストレージID534を抽出し、そのID534を障害分析コンテキストに含める;
(G)生成プログラム123が、障害分析コンテキストID601を割り振り、そのID601を障害分析コンテキストに含める、
を行う。障害分析コンテキスト118は、障害分析コンテキストID601とメタRCAルールID603だけ用いて作成されてもよい。
<1−6:根本原因の表示と選択>。
図16は、根本原因を選択のためのフローを示す。本フローは、例えばステップ1018の直後に開始される。
(ステップ1019)生成プログラム123は、以下の要素(a)〜(c)を含む第1の表示情報:
(a)ステップ1016での原因ノードID554と一致するサーバID501を有するサーバレコード内のサーバ名502、ステップ1016での原因ノードID554と一致するスイッチID511を有するスイッチレコード内のスイッチ名512、又は、ステップ1016での原因ノードID554と一致するストレージID521を有するストレージレコード内のストレージ名522;
(b)上記(a)での原因ノードID554に対応した展開RCAレコード(ステップ1015でまとめられた展開RCAレコード)における原因詳細555;
(c)上記(a)での原因ノードID554に対応した確信度(ステップ1017で得られた確信度)、
を、ネットワーク50を通じて表示用計算機20に送信する。
(ステップ1020)画面表示プログラム211は、ステップ1019で送信された第1の表示情報を受信する。
(ステップ1021)画面表示プログラム211は、ステップ1020で受信した第1の表示情報を入出力装置260(例えば、ディスプレイ装置)に表示する。
図19は、候補/確信度画面2010を示す。画面2010は、第1の表示情報の表示画面の一例である。
候補ID2011は、根本原因候補の識別子である。候補ID、例えば、表示プログラム211によって、各根本原因候補に割り振られる。
原因ノード名2012は、第1の表示情報に含まれている要素であり、根本原因候補(監視対象ノード30)のサーバ名502、スイッチ名512、もしくはストレージ名522である。
原因詳細2013は、第1の表示情報に含まれている原因詳細555である。
確信度2014は、第1の表示情報に含まれている確信度である。
再び図16の説明に戻る。
(ステップ1022)画面表示プログラム211は、入出力装置260(例えば、マウス)を用いてシステム管理者が選択した根本原因候補を同定するための情報(例えば原因ノードID)を、ネットワーク50を通じて管理サーバに送信する。
(ステップ1023)生成プログラム123は、ステップ1022で送信された情報を受信する。
(ステップ1024)生成プログラム123は、ステップ1023で受信した情報と対応する障害分析コンテキスト118を決定する。この障害分析コンテキスト118は、ステップ1018作成された障害分析コンテキストである。
<1−7:障害履歴の登録>。
図17は、障害の登録のフローを示す。障害履歴エントリが0件の場合、図16のフローの後、このフローが開始される。障害履歴エントリが1件以上ある場合、図16のフローの後、図18Aのフローを経た後、本フローが開始される。
(ステップ1040)表示用計算機20は、障害履歴の登録画面を表示する。
図21は、登録画面2030を示す。この画面2030は、障害履歴の登録画面の一例である。
根本原因2031は、ステップ1016での原因ノードIDに対応した根本原因候補(監視対象ノード30)を示すサーバ名502、スイッチ名512もしくはスイッチ名522である。
障害分析コンテキストID2032乃至ストレージID2038は、ステップ1016での原因ノードIDと対応する障害分析コンテキスト(ステップ1024で決定されたコンテキスト)内の障害分析コンテキストID601乃至ストレージID607である。ステップ1024から当該ステップまでの間に、図19に示した画面が閉じられてもよい。この場合、ステップ1024で得られた障害分析コンテキストを、図19の画面を閉じる前にメモリ等の記憶装置に記録しておき、当該ステップにおいて読み込む必要がある。
原因2039は、当該障害の原因の内容を、システム管理者が入出力装置260を用いて自然言語で登録するシステム管理者フォームである。
復旧方法2040は、当該障害からの復旧方法の内容を、システム管理者が入出力装置260を用いて自然言語で登録するシステム管理者フォームである。
システム管理者は、原因2039と復旧方法2040の欄を入力した後、登録ボタンを押すことで、メタRCAルールID2033乃至ストレージID2038、原因2039、復旧方法2040を、障害履歴管理プログラム125に送信する。
再び図17を参照する。
(ステップ1041)障害履歴管理プログラム125は、ステップ1040で送信されたメタRCAルールID2033乃至ストレージID2038、原因2039、復旧方法2040を受信する。
(ステップ1042)障害履歴管理プログラム125は、ステップ1041で受信したメタRCAルールID2033乃至ストレージID2038と、原因2039と、復旧方法2040とを、障害履歴エントリに登録する。プログラム125は、このレコードに、障害履歴ID701を割り振る。
(ステップ1043)障害履歴管理プログラム125は、サーバの重み情報800に新たなレコードを作成する。そのレコードのサーバのベンダ802乃至サーバの連続稼働時間805に初期値(例えば100)が代入され、そのレコードにサーバ重みIDが格納される。なお、初期値は各要素の重みを示すものであれば他の値でもよい。
(ステップ1044)障害履歴管理プログラム125は、スイッチの重み情報810に新たなレコードを作成する。そのレコードのスイッチのベンダ812乃至スイッチの連続稼働時間815に初期値(例えば100)が代入され、そのレコードにスイッチ重みIDが格納される。なお、初期値は各要素の重みを示すものであれば他の値でもよい。
(ステップ1045)障害履歴管理プログラム125は、ストレージの重み情報820に新たなレコードを作成する。そのレコードのストレージのベンダ822乃至ストレージの連続稼働時間825に初期値(例えば100)が代入され、そのレコードにストレージ重みIDが格納される。なお、初期値は各要素の重みを示すものであれば他の値でもよい。
ステップ1043乃至1045についての説明では、監視対象ノードの組み合わせとして、ホスト=スイッチ=ストレージが例として採用されている。しかし、本発明は、監視対象ノードのハードウェア又はソフトウェア構成と設定内容との、任意の要素にマッチング度を評価するための値、を含んでいればよい。そうした広い観点から考えると、ステップ1043乃至ステップ1045では、障害分析コンテキストがもつ監視対象ノードのハードウェア又はソフトウェア構成と設定内容との任意の要素に、障害分析コンテキストのマッチングのための評価値を割り振る処理があればよい。
<1−9:障害履歴の検索>。
図18Aは、障害履歴情報から同件及び/又は類件の障害履歴エントリを取得するフローである。
(ステップ1025)コンテキストマッチング解析プログラム124は、障害履歴エントリの件数が0件の場合、本フローを終了する。プログラム124は、障害履歴エントリの件数が1件以上の場合、ステップ1022を実行する。
(ステップ1026)プログラム124は、障害分析コンテキストを用いて障害履歴情報を検索する。ステップ1026の詳細は、後に図18Bを用いて説明する。
(ステップ1027)プログラム124は、ステップ1026で得られた検索結果の情報を表示用計算機20に送信する。なお、検索結果の情報には、例えば、障害履歴ID701、メタRCAルールID702、展開RCAルールID703、トポロジID704、サーバID705、スイッチID706、ストレージID707、サーバ重みID708、スイッチ重みID709、ストレージ重みID710、原因711、復旧方法712及びマッチング率が含まれる。しかし、後述する図20の表示が可能であれば、他の情報が送信されてもよい。
(ステップ1028)画面表示プログラム211(表示用計算機20)は、ステップ1027で送信された情報を受信し、入出力装置260(例えば、ディスプレイ装置)に表示する。その際、プログラム211は、マッチング率が高い情報を優先的に表示する(例えば、マッチング率の降順(高い順)に情報を表示する)。
図20は、ステップ1028で表示される検索結果画面2020を示す。この画面2020は、検索結果画面の一例である。
履歴IDは、ヒットした検索履歴に割り振られた識別子(例えば通し番号)である。
障害履歴ID2022は、ヒットした障害履歴エントリがもつ障害履歴ID701である。
障害履歴ノード名2023は、サーバレコード内のサーバ名502、スイッチレコード内のスイッチ名512、又は、ストレージレコード内のストレージ名522である。それらの要素502、522又は512を有するレコードは、原因ノードID554と一致するIDを有する。その原因ノードID554は、ヒットした障害履歴エントリがもつ展開RCAルールID703と一致する展開RCAルールID551を有する展開RCAレコード内にある。
原因2024は、ヒットした障害履歴エントリがもつ原因711である。
復旧方法2025は、ヒットした障害履歴エントリがもつ復旧方法712である。
マッチング率2026は、ステップ1027でコンテキストマッチング解析プログラム124より送信されたマッチング率を示す。このマッチング率の降順に検索結果が表示される。
検索結果画面には、図20に示した情報要素に代えて又は加えて、障害履歴の検索結果に関する他種の情報要素が表示されても良い。
システム管理者が、図20に示した画面における表から任意の行(障害履歴)を選択すると、選択された障害履歴が表す障害と今回発生した障害とを比較するための画面が表示される。
図24Aは、マッチング度合比較画面の第1の例を示す。
今回発生した障害に関する情報の詳細が表示領域e01に表示される。表示領域e01には、例えば、今回の障害に対応したメタRCAルールID541と、発生したイベントのノード名502、512もしくは522と、イベント内容565とが表示される。
選択された障害履歴の詳細が表示領域e02に表示される。表示領域e02には、障害履歴のメタRCAルールID541と、発生したイベントのノード名502、512もしくは522と、イベント内容565とが表示される。
表示領域e03には、今回の障害と障害履歴とのマッチング率2026が表示される。
表示領域e04には、障害履歴の復旧方法2025が表示される。
図24Aは、マッチング度合比較画面の第2の例を示す。
表示領域e05には、今回の障害に関して、イベント情報とトポロジ情報とノード情報に基づく図が表示される。図としては、ノード間の繋がりがどのようになっていてどのノードでどんなイベントが発生したかが表示された図である。具体的には、例えば、表示領域e05には、3つのブロックがあり、各ブロックは、いずれかのノードに対応しており、ブロック同士の繋がりは、トポロジ情報から特定されるトポロジに従っており、ブロック内に表示される文字列は、そのブロックに対応したノードのノード名と、そのノードで発生したイベント(障害)の内容とを表している。
表示領域e06には、障害履歴に関して、イベント情報とトポロジ情報とノード情報に基づく図が表示される。具体的には、例えば、表示領域e06には、3つのブロックが表示されているが、各ブロックは、表示領域e05と同様に、いずれかのノードに対応している。
表示領域e05に表示された情報と表示領域e06に表示された情報とのうち互いに一致する部分(メタRCAルールが一致する部分)が、破線で囲む等の方法で示される。これにより、システム管理者は、システム管理者が選択した障害履歴と今回の障害との差異を視覚的に把握できる。具体的には、今回発生した障害は、選択された障害履歴と比べて、ノード名「BOTAN」のノードでのIOエラーが生じていないことがわかる。
なお、マッチング度合比較画面には、システム管理者が今回の障害と障害履歴の比較を参照できるなら、他の値を表示してもよい。例えば、図24Bの各ブロック(いずれかのノードに対応したブロック)には、ノードタイプを表す情報が表示されても良い。
図18Bは、図18Aのステップ1026の詳細を示す。
(ステップ1031)コンテキストマッチング解析プログラム124は、ステップ1031の処理として、メタRCAルールマッチングを行う。ステップ1031の詳細は、後に図18Cを参照して説明する。
以下、図18Cが示すフローについて説明する。
(ステップ1101)コンテキストマッチング解析プログラム124は、特定の障害分析コンテキストを含んだ障害履歴エントリの検索要求を、障害履歴管理プログラム125に送信する。ここで、「特定の障害分析コンテキスト」とは、ステップ1024で得た障害分析コンテキスト119のメタRCAルールIDと等しいメタRCAルールIDをもつ障害分析コンテキストである。
(ステップ1102)障害履歴管理プログラム125は、ステップ1101で送信された検索要求を受信する。
(ステップ1103)障害履歴管理プログラム125は、ステップ1102で受けた検索要求に応答して、上記特定の障害分析コンテキストをもつ障害履歴エントリを検索する。プログラム125は、その検索結果を表す情報を、コンテキストマッチング解析プログラム124に送信する。送信される情報は、特定の障害分析コンテキストを含んだ障害履歴エントリに登録されている情報を含んでいる。
(ステップ1104)コンテキストマッチング解析プログラム124は、ステップ1103で送信された情報を受信する。
再び図18Bの説明に戻る。
(ステップ1033)コンテキストマッチング解析プログラム124は、ステップ1031で得た障害履歴エントリの数が第1の閾値(例えば10)を下回る場合、ステップ1034を実行する。一方、プログラム124は、ステップ1031で得られた障害履歴エントリの数が第2の閾値(例えば50)を上回る場合、ステップ1035を実行する。第2の閾値は、第1の閾値と同じかそれより大きい値である。ステップ1031で得られた障害履歴エントリが適切な数(例えば第1の閾値以上第2の閾値以下)の場合、本フローを終了する。
なお、前述した第1及び第2の閾値のうちの少なくとも一つは、システム管理者が任意に設定可能である。
(ステップ1034)プログラム124は、検索の条件を緩めることでステップ1031より多くの障害履歴エントリを得るための処理を行う。具体的には、図18Dに示す処理が行われる。検索クエリである障害分析コンテキストが複数のメタRCAルールをもつ場合(すなわち、展開RCAルールが、メタRCAルールの多段推論で成り立っている場合)、検索クエリと同じメタRCAルールを一つ以上持つ障害履歴エントリを全て得るようにする。
以下、図18Dが示すフローについて説明する。
(ステップ1111)コンテキストマッチング解析プログラム124は、検索元の障害分析コンテキスト(検索のキーとなる障害分析コンテキスト)119がもつ複数のメタRCAルールID602と等しいメタRCAルールID702をk個(kは自然数)以上もつ障害履歴エントリの検索要求を、障害履歴管理プログラム125に送信する。なお、kの値は、システム管理者が任意に設定できる。
(ステップ1112)障害履歴管理プログラム125は、ステップ1111で送信された検索要求を受信する。
(ステップ1113)プログラム125は、ステップ1112で受けた検索要求に応答して、検索を行なう。つまり、プログラム125は、検索元の障害分析コンテキスト119のメタRCAルールID602と等しいメタRCAルールID702をk個以上もつ障害履歴エントリに記録されている情報を送信する。例えば、k=2であり、且つ、図18Eに例示するように、互いに2つのメタRCAルールIDが一致している場合、図示の障害履歴エントリに記録されている情報が送信される。なお、検索元の障害分析コンテキスト119内のメタRCAルールID602と一致するメタRCAルールIDの数が多い障害履歴エントリから順に高いマッチング率が割り当てられ、その割り当てられたマッチング率を表す情報が、送信される情報に含まれてよい。つまり、この例では、検索元の障害分析コンテキスト119内のメタRCAルールID602と一致するメタRCAルールIDの数に基づいて、マッチング率が算出される。なお、マッチング率は、他の算出方式でもよい。
(ステップ1114)コンテキストマッチング解析プログラム124は、ステップ1113で送信された情報を受信する。なお、送信される情報の件数(検索ヒットとする障害履歴エントリの件数)は、適切な数(例えば後述の第1の数及び/又は第2の数)以下に抑えられても良い。
以上が、図18Bのステップ1034での検索についての説明である。なお、検索の方法としては、上述した方法に限らず、他の方法が採用されても良い。例えば、検索元の障害分析コンテキストもいずれの障害履歴エントリも一つのメタRCAルールIDを有している場合、検索元の障害分析コンテキスト内のメタRCAルールIDから同定されるメタRCAルール(以下、第1のメタRCAルール)と、障害履歴エントリ内のメタRCAルールIDから同定されるメタRCAルール(以下、第2のメタRCAルール)とが異なっていても、障害履歴管理プログラム125は、第1のメタRCAルールとのマッチング率がX%以上(Xは自然数)の第2のメタRCAルールのIDを有する障害履歴エントリを、検索ヒットの対象としても良い。ここでのマッチング率は、第1のメタRCAルールに属するイベント群と第2のメタRCAルールに属するイベント群との重複度合いに基づく。具体的には、例えば、第1のメタRCAルールに属するイベントの総数に対する重複したイベントの数の第1の割合と、第2のメタRCAルールに属するイベントの総数に対する重複したイベントの数の第2の割合とのうちの少なくとも一方を基に、マッチング率が算出される。図24Bの例によれば、表示領域e05に表示されている第1のメタRCAルールと、表示領域e06に表示されている第2のメタRCAルールは部分的に一致している。第1の割合は2/2(=1)であり、第2の割合は2/3である。これらのうちの少なくとも一つの割合を基に算出されるマッチング率が、上記X%以上であれば、表示領域e06に表示されている第2のメタRCAルールは検索ヒットとなる。なお、各メタRCAルールに属するイベントが何であるかは、メタRCAルール情報115を参照することにより、特定することができる。
再び、図18Bの説明に戻る。
(ステップ1035)コンテキストマッチング解析プログラム124は、図18Fに示す処理を行う。この処理では、ステップ1031で得られた検索結果に対して、マッチング率を評価することで、検索ヒットした複数の障害履歴エントリから、検索元の障害分析コンテキストと条件の近い障害履歴エントリを素早く得ることができるようにする。マッチング評価は、例えば、以下の(A)及び(B):
(A)検索元の障害分析コンテキストから特定される監視対象ノードハードウェア又はソフトウェア構成、及び設定内容の要素;
(B)障害履歴エントリから特定される監視対象ノードのハードウェア又はソフトウェア構成、及び設定内容の要素、
の互いの一致度を基に行われる。
以下、図18Fが示すフローを説明する。
(ステップ1121)コンテキストマッチング解析プログラム124は、ステップ1024で得た障害分析コンテキスト119のメタRCAルールID(第1のメタRCAルールのID)を含んだ検索要求を、障害履歴管理プログラム125に送信する。
(ステップ1122)プログラム125は、ステップ1101で送信された検索要求を受信する。
(ステップ1123)プログラム125は、ステップ1102で受けた検索要求に応答して検索を行い、コンテキストマッチング解析プログラム124に、第1のメタRCAルールIDと等しいメタRCAルールIDをもつ障害履歴エントリに記録されている情報を送信する。
(ステップ1124)コンテキストマッチング解析プログラム124は、ステップ1103で送信された情報を受信する。
(ステップ1125)プログラム124が、以下の処理(A)〜(D):
(A)検索元の障害分析コンテキスト内のIDから同定されるサーバレコード、スイッチレコード及びストレージレコードのうちの少なくとも一つのレコードと、ステップ1124で得た障害履歴エントリ内のIDから同定されるサーバレコード、スイッチレコード及びストレージレコードのうちの少なくとも一つのレコードとから、互いに一致する又は近似する値を抽出する(例えば、連続稼働時間については、誤差が3000以内であれば、互いに近似する値となる);
(B)上記(A)で得た各値に対応した各項目の重みを、障害履歴情報が有するサーバ重み情報800、スイッチ重み情報810及びストレージ重み情報820から抽出する;
(C)ステップ1124で得た障害履歴エントリ毎に、上記(B)で得た重みの累計値を算出する;
(D)ステップ1124で得た各障害履歴エントリに、重みの累計値に応じたマッチング率を割り当てる(例えば、重みの累計値が高い障害履歴エントリには高いマッチング率が割り当てられ、重みの累計値が低い障害履歴エントリには低いマッチング率が割り当てられる)、
を行う。なお、マッチング率の算出には、重みの累計値に代えて又は加えて、他の要素が参酌されてもよい。
(ステップ1126)プログラム124は、ステップ1125で得たマッチング率の降順に障害履歴エントリを並べ替える。この処理を行うことで、システム管理者は、今回発生した障害とマッチング率の高い障害履歴から順に参照することができる。
(ステップ1127)プログラム124は、ステップ1125の比較処理において、障害履歴情報がもつ情報800、810及び820のうち、ステップ1125で抽出された値の項目(以下、図18F及び図18Gの説明において「対象項目」と言う)に対応した重みを相対的に増加する。「相対的に増加する」とは、対象項目に対応した重みを増加することであっても良いし、非対象項目に対応した重みを減少することであっても良い。
(ステップ1128)プログラム124は、重みが変更された項目の識別情報(例えば名称)と更新後の重み(及び/又は変化量)とを含んだ更新要求を、障害履歴管理プログラム125に送信する。
(ステップ1129)障害履歴管理プログラム125は、上記更新要求に応じて、障害履歴情報内の情報800、810及び820のうちの少なくとも一つを更新する。つまり、ステップ1127で計算された重みを、障害履歴情報内の情報800、810及び820における対応するレコードに反映する。
図18Gを参照して、図18Fを参照して説明したフローの概要を説明する。
検索元の障害分析コンテキスト(又は検索クエリ)が、そのコンテキストから特定される展開RCAルール(又はトポロジ)に属する各ノード装置について、ノード装置のタイプ以外の各属性の重みを表す値を含んでいる。
そのコンテキストと第1の障害履歴エントリとの比較によれば、複数種類の属性のうち、ベンダとOSが一致している。このため、第1の障害履歴エントリについての累計値は、ベンダについての重み「50」とOSについての重み「80」との合計「130」となる。
一方、そのコンテキストと第2の障害履歴エントリとの比較によれば、複数種類の属性のうち、IPアドレスと連続稼働時間が一致している。このため、第2の障害履歴エントリについての累計値は、IPアドレスについての重み「20」と連続稼働時間「10」との合計「30」となる。
この結果、第1の障害履歴エントリの方が第2の障害履歴エントリよりも検索元の障害分析コンテキストとの類似度が高いということになる。
ステップ1125で、ベンダ、IPアドレス、OS及び連続稼働時間のいずれも抽出された場合、ステップ1127で、それらの属性の重みはより高い値とされる。なお、ステップ1125で抽出された値に対応した属性に代えて又は加えて、システム管理者から選択された復旧方法を表す情報を含んだ障害分析レコードが有する各値に対応した属性の重みがより高い値とされても良い。
システム管理者が、以上のようにして、今回発生した障害の復旧方法を、障害履歴情報から特定する。システム管理者は、今回発生した障害の復旧を終えた後、この事象を障害履歴として図17のフローを実施する。これにより、今回発生した障害に対応する障害分析コンテキストと、今回発生した障害の根本原因を表す情報と、今回採った復旧方法を表す情報とが対応付けられる。
図18Bのステップ1031で得られた情報を基に、ステップ1124以降が行われても良い。
以上が、実施例1についての説明である。
実施例1によれば、障害履歴エントリが、発生した障害の根本原因を表す情報と、その根本原因に応じた復旧方法を表す情報との他に、その発生した障害に対応する障害分析コンテキストを含む。障害分析コンテキストは、複数の原因/結果ルールのうちの、障害の根本原因の根拠となった原因/結果ルールを特定するための情報(以下、ルール特定情報)を含んだ情報である。原因/結果ルールは、以下の(x)及び(y):
(x)根本原因としての、ノード装置のタイプと発生したイベントの内容;
(y)結果としての、ノード装置のタイプと発生したイベントの内容(どのタイプのノード装置でどんなイベントが発生したか)、
の対応関係を表す。発生した障害に対応した障害分析コンテキストを含んだ検索クエリが、システム管理者から管理サーバに入力される。管理サーバは、その検索クエリに応答して、検索クエリが有する障害分析コンテキスト(第1の障害分析コンテキスト)と、障害履歴情報が有する各障害履歴エントリ内の障害分析コンテキスト(第2の障害分析コンテキスト)とを比較し、それにより、検索元の障害分析コンテキストと類似性の高い障害分析コンテキストを含んだ障害履歴エントリを特定する。管理サーバは、特定された第2の障害履歴エントリに登録されている情報(復旧方法を表す情報を含んだ情報)を表示する。これにより、システム管理者は、迅速に、発生した障害からの復旧方法を特定することができる。
また、発生した障害に対応した第1の障害分析コンテキストと、特定された復旧方法を表す情報とを含んだ新たな障害履歴エントリを登録することができる。この登録作業は、システム管理者が手動で行っても良いし、管理サーバが自動で行っても良い。後者の場合、例えば、管理サーバは、検索の際に使用された第1の障害分析コンテキストと、特定された根本原因を表す情報と、特定された復旧方法を表す情報とを含んだ障害履歴エントリを登録することができる。
また、第1の障害分析コンテキストと類似する第2の障害分析コンテキストを含んだ障害履歴エントリの検索の際、第1及び第2の障害分析コンテキスト内のルール特定情報を基に、どのタイプのノード装置でどんなイベントが発生したかを表す情報が特定される。つまり、ノード装置のタイプが互いに比較される。このため、同じ内容のイベントが発生したノード装置が違っていても、ノード装置のタイプが同じであれば、当該第2の障害分析コンテキストが第1の障害分析コンテキストに類似するということになる。従って、例えば、前回或るイベントがサーバAで発生し、今回は同イベントがサーバBで発生した場合、その前回の障害に対応する第2の障害分析コンテキストを含んだ障害履歴エントリが、検索ヒットの対象となる可能性がある。つまり、類件をヒットさせることができる。
また、実施例1の説明によれば、原則、第1の障害分析コンテキストから特定される原因/結果ルールと完全に一致する原因/結果ルールが関連付けられた第2の障害分析コンテキストを含んだ障害履歴エントリが、検索ヒットの対象となる。しかし、ヒットした障害履歴エントリの数が、第1の数よりも少ない場合、条件を緩和して再検索が行われる。具体的には、例えば、原因/結果ルール同士が所定の類似度(但し100%未満)以上に類似していれば、検索履歴レコードがヒットとなる。一方、ヒットした障害履歴エントリの数が、第1の数又は第1の数よりも大きい第2の数よりも多い場合、条件を厳しくして再検索が行われる。具体的には、例えば、ノード装置のタイプ以外の複数の属性のうちの或る程度の属性が一致している場合に(ノード装置同士が或る程度類似している場合に)、検索履歴レコードがヒットとなる。
<2−0:実施例2の概要>。
本発明の実施例2に係る管理システムは、復旧方法の手順をメタ化してメタ復旧方法として登録することを補助する機能と、メタ復旧方法をメタRCAルールに対応づける機能と、根本原因参照時にメタ復旧方法を併せて表示する機能とを有する。
実施例1では、管理システムが、過去に障害が発生したノードのIPアドレス等の識別子を表示し、システム管理者は、表示された復旧方法の情報を、今回障害が発生したノードに置き換えて作業を行う。
実施例2では、メタ復旧方法を用いることで、管理システムが、今回障害が発生したノードの識別子を用いた復旧方法を表示する。これにより、システム管理者は、根本原因参照時に、採り得る復旧方法の候補を特定することができる。
<2−1:実施例2における実施例1との構成の差異>
実施例1のメタRCAルール情報115(メタRCAレコード)に、メタ復旧方法(後述)を表す情報が対応づけられる。
実施例1のステップ1040において、障害履歴の登録画面(図21)に、メタ復旧方法登録画面(図22A)が追加され、メタ復旧方法を登録するステップが追加される。
実施例1のステップ1020において、根本原因候補リストと確信度画面(図19)に、メタ復旧方法を表す情報が追加される(図23)。
<2−2:用語定義>。
「メタ復旧方法」とは、管理システムが提供する有限の要素(オブジェクト)の組み合わせで定義される復旧方法である。メタ復旧方法は、特定のノードに依存しない方法であり、メタRCAルールと対応づけて登録することができる。復旧方法を定義できるなら情報の形式は問わない。本実施例では、一例として、メタ復旧方法を、一つ以上のArc、Branch及びCommandの3つの要素の組み合わせから定義されるとする。ちなみに、「Arc」は、BranchまたはCommand間の遷移を示す。「Branch」は、条件分岐を示す。「Command」は、処理を示す。
<2−3:メタ復旧方法の登録>。
メタ復旧方法の登録は、例えば、実施例1におけるステップ1040において障害履歴の登録情報を送信する直前のタイミングで行う。
図22Aは、メタ復旧方法登録画面の一例を示す。
表示領域e11には、Arc、Branch及びCommandのアイコンが設置されている。システム管理者は、いずれかのアイコンを表示領域e12にドラッグアンドドロップすることで、表示領域e12にアイコンを設置することができる。
図22Ae02は、メタ復旧方法を定義するための編集画面である。表示領域e01のアイコンを配置することで、メタ復旧方法の構成が定義できる。
表示領域e13は、表示領域e12に設置した各アイコンの詳細設定を実施するウィンドウである。本図ではBranchの設定画面の一例を示す。
表示領域e14は、当該アイコンの識別子を示す。
表示領域e15は、条件分岐における条件の対象を選択するフォームである。選択項目はシステム側が提供する有限の要素である。
表示領域e16は、条件分岐における条件の内容を選択するフォームである。選択項目はシステム側が提供する有限の要素である。
表示領域e17は、表示領域e16で定義した条件が真の場合の遷移先と、偽の場合の遷移先を定義する。
表示領域e18は、表示領域e16だけでは表現しきれない分岐の内容の詳細を入力するフォームである。該情報は、システム管理者による自然言語で登録される。
システム管理者は、当該画面にてメタ復旧方法の定義を終えたら表示領域e19の登録ボタンを押すことで登録が完了し、実施例1のステップ1140において登録するメタRCAルール情報に本メタ復旧方法を対応づける。
図23Bに示す表示領域e13は、表示領域e13がCommandの設定画面であった場合の一例を示す。
図23Bに示す表示領域e14は、当該アイコンの識別子を示す。
図23Bに示す表示領域e15は、処理の対象を選択するフォームである。選択項目はシステム側が提供する有限の要素である。
図23Bに示す表示領域e16は、処理の内容を選択するフォームである。選択項目はシステム側が提供する有限の要素である。
図23Bに示す表示領域e17は、表示領域e16だけでは表現しきれない処理の内容の詳細を入力するフォームである。該情報は、システム管理者による自然言語で登録される。
要するに、メタ復旧方法の定義では、復旧の開始から終了までにおけるオブジェクトの遷移の流れが定義される。具体的には、どのオブジェクト(条件分岐又は処理)からどのオブジェクトに遷移するかが定義される。
<2−4:メタ復旧方法の取得>。
メタ復旧方法の取得は、例えば、実施例1におけるステップ1015のメタRCAルールを抽出する直後に実施される。メタ復旧方法登録時にメタRCAルールに対応づけて登録したため、メタRCAルールが決定すれば、メタ復旧方法も決定されることになる。
実施例1におけるステップ1019で、メタ復旧方法も一緒に送信される。
実施例1におけるステップ1020で、根本原因と確信度の他に、メタ復旧方法も表示される。
図23は、実施例2で表示される候補/確信度画面の一例である。
実施例1の図19と比較して、得られた全てのメタ復旧方法の内、Commandの処理内容の累計を示した表である表示領域e21と、メタ復旧方法のCommandの処理一覧をリストアップした列である列e22が追加されている。
表示領域e21によれば、「サーバリブート7件、サーバリプレース2件、バックアップからのリカバリ2件」と表示されている。これにより、システム管理者は、採り得る復旧における処理のバリエーションを特定し易い。
列e22には、各根本原因に対応する復旧方法の概要が記載されている。これにより、システム管理者は、各根本原因に対応する復旧方法の概要を迅速に特定することができる。
以上、本発明の実施例2によれば、条件分岐(Branch)及び処置(Command)といった共通パーツを用いた一連のフローで定義されたメタ復旧方法が用意される。そして、イベント群と根本原因との組み合わせのメタRCAルールに、メタ復旧方法が関連付けられる。これにより、発生した障害の検出から復旧方法までを一つのルールとして定義できる。
<3−0:実施例3の概要>。
既存の一般的なルールベースシステムを用いた場合のデータ構造について具体例を示す。以下の記述は、実施例1に記載の各種情報の抽象化した場合の一つの具体例であるが、ルールベースシステムの場合は、時間的な条件など二つ以上の物理的又は論理的な対象間の関係以外の記述も可能である。
本実施例は、前述した非特許文献1の汎用的ルールベースシステムが適用された本発明の一実施例である。
非特許文献1によれば、ルールメモリとファクトメモリをルールベースシステム上にもつ汎用的ルールベースシステムが開示されている。ルールメモリは、特定の個体に依存せず記述された汎用ルールが格納されている。ファクトメモリは、特定の個体の具体的な情報が格納されている。
該ルールベースシステムは、該ルールと該情報を用いて、新しい事実を導出するシステムである。
<3−1:実施例3の具体的データ構造>。
非特許文献1を基に、ルールとして、Causality RuleとTopology Ruleを定義する。
Causality Ruleとは、イベントとその原因の関係を、特定トポロジに依存せず記述したルールである。具体的なCausality Ruleの例は以下の通りである。
C−RULE−100:
IF Server(X) & Storage(Y) & FC−Connected(x,y) & EventHappensOn(IO_ERROR, x, y, t1) & EventHappensOn(CTRL_FAIL, y, t2) & WithinTimeWindow(t1, t2, “10 minutes”)
THEN IdentifyRootCause(CTRL_FAIL, y)
Topology Ruleとは、ノードの接続状態を、特定トポロジに依存せず記述したルールである。具体的なTopology Ruleの例は以下の通りである。
T−RULE−200:
IF FC−connected(x,y)& FC−connect(z,y)
THEN FC−connected(x、z)。
x、yなどの小文字のアルファベットは変数を示す。IO_ERROR、“ServerA”は定数(特定のインスタンス)を示すリテラルとする。
トポロジ適用プログラム121は、Causality RuleとTopology Ruleをルールベースシステム上のルールメモリに格納する。
トポロジ適用プログラム121は、Toplogyルールを監視対象ノード30に適用することで、下記トポロジファクトを検出し、ルールベースシステム上のファクトメモリに格納する。
TF1: Serer(“ServerA”)
TF2: Storage(“StorageA”)
TF3: Switch(“SwitchA”)
TF4: FC−Connected(“ServerA”, “ABC”)
TF5: FC−Connected(“AMS1000”, “ABC”)。
ルールベースシステムは、Causality Ruleとトポロジファクトを組み合わせて、以下の例のようなインスタンスを作成する。
C−RULE−100−INSTANCE−1:
IF EventHappensOn(IO_ERROR, “ServerA”,t1) & EventHappensOn(CTRL_FAIL, “StorageA”,t2) & WithinTimeWindow(t1, t2, “10 minutes”)
THEN IdentifyRootCause(CTRL_FAIL, “StorageA”)。
C−RULE−100−INSTANCE−1もメモリ上に格納される。
トポロジ適用プログラム121が監視対象ノード30を監視しており,"ServerA"でIO_ERRORイベントと、“StorageA”でCTRL_FAILイベントが、イベント相関処理の時間幅内で発生したことを観測した場合、トポロジ適用プログラム121は,ルールベースシステムに対して、次のイベントファクトをメモリに格納する。
EF1:
EventHappensOn(IO_ERROR, "ServerA", "12:32:12 22009/03/10")
EF2:
EventHappensOn(CTRL_FAIL, "AMS1000", "12:32:10 22009/03/10")
EF3:
WithinTimeWindow("12:32:10 22009/03/10", "12:32:12
22009/03/10", "10 minutes")。
ルールベースシステムは、C−RULE−100−INSTANCE−1とイベントファクトから、IdentifyRootCause(CTRL_FAIL, “StorageA”)を導出し、これにより根本原因が特定できる。
上記の枠組みでは、
C−RULE−100−INSTANCE−1という中間形式が展開RCAルールであり、
C−RULE−100(Causality Rule)がメタRCAルールに対応し、"C−RULE−100"がメタRCAルールID541となる。
複数のCausality Ruleを用いて多段推論が行われる場合もあり,メタRCAルールは複数あってよい。
本実施例では、メモリの中を参照し、根本原因の導出に利用されたメタRCAルールと対応したCausality Ruleや、展開RCAルールと対応したインスタンスを取得し、障害分析コンテキストとして扱うことで、本発明の効果を得ることができる。
以上のように、一般的なルールベースシステムを適用することができる。なお、展開RCAルール情報のデータ構造として、以下のような格納形式が採用されてもよい。
(A)監視対象ノードで発生して管理システムが管理対象とする発生部位(含むノード装置)及びイベント内容を区別するイベントについて、全ての組み合わせパターンを格納する。
(B)(A)の組み合わせの中で根本原因を特定可能な組み合わせについては、根本原因とする発生部位(ノード装置を含む)及びイベント内容を対応させて格納する。
なお、対応する根本原因がない(A)の組み合わせの格納が省略されてもよい。
以上の説明により、本発明の一つの観点である、複数のノード装置と通信するインターフェースと、前記インターフェースを介して、前記複数のノード装置で発生するイベントを検知するプロセッサと、イベント情報と、メタルール情報と、障害履歴情報と、を格納する記憶資源と、前記複数のノード装置についての情報を表示する表示装置と、入力装置と、を備える管理システムについて:
*前記イベント情報は、前記発生したイベントの発生元ノード装置を特定する情報と、前記発生したイベントの種別と、を示すイベントエントリを含む。
*前記メタルール情報は、ノード装置で潜在的に発生する可能性のある潜在イベントの種別と、前記潜在イベントの種別に対応するイベントが発生した場合に根本原因と特定可能なイベントの種別とを示すメタルール、を含む。
*前記障害履歴情報は、復旧方法を示す情報及び前記復旧方法が対応する前記メタルールを識別する情報を含む障害履歴エントリ、を含む。
*前記プロセッサは:
(A)前記メタルール情報に基づき、前記イベント情報に格納した前記イベントエントリで特定される第一のイベントの根本原因である第一の原因イベントを特定し、前記第一の原因イベントの特定に用いた第一のメタルールを特定し;
(B)前記第一の原因イベントから復旧する方法である第一の復旧方法を、前記入力装置を介して受信し、前記第一の復旧方法に基づいて、前記障害履歴情報に前記第一のメタルールに対応する第一の障害履歴エントリを追加し;
(C)前記メタルール情報に基づき、前記イベント情報に格納した前記イベントエントリで特定される第二のイベントの根本原因である第二の原因イベントを特定し、第二の原因イベントの特定に用いた第二のメタルールを特定し;
(D)前記障害履歴情報に基づき、前記第二のメタルールに対応する所定の障害履歴エントリを特定する。
*前記表示装置は:
(X)前記第二の原因イベントに関する情報を、前記第二のイベントの根本原因として表示し;
(Y)前記所定の障害履歴エントリに基づき、前記第二の原因イベントからの復旧方法を表示する、
ことを特徴とした管理システムについて説明した。
なお、管理システムは、前記障害履歴エントリは復旧方法を適用したノード装置の識別子を含み、前記表示装置は:
(Z)前記所定の障害履歴エントリが示すノード装置の識別子を、前記(Y)の前記所定の障害履歴エントリが示す復旧方法を適用したノード装置の識別子として表示してもよい。
また、管理システムは、前記第一の原因イベントの発生元ノード装置と前記第二の原因イベントの発生元ノード装置は異なるノード装置の場合、前記表示装置は:
(a)前記(X)の前記第二の原因イベントに関する情報の表示として、前記第二の原因イベントの発生元ノード装置の識別子を含む情報を表示し、
(b)前記(Z)の前記所定の障害履歴エントリが示すノード装置の識別子の表示として、前記第一の原因イベントの発生元ノード装置の識別子を表示してもよい。
また、前記(D)の特定は:
(D1)前記第二のメタルールと同一のメタルールのを示す前記障害履歴エントリを選択し、
(D2)前記(D1)により選択された障害履歴エントリの数が第一の閾値未満の場合は、前記障害履歴エントリが対応するメタルールと、前記第二のメタルールとのマッチング率に基づいて前記所定の障害履歴エントリを特定し、
(D3)前記(D1)により選択された障害履歴エントリを前記所定の障害履歴エントリと特定してもよい。
また、前記記憶資源は、前記複数のノード装置の構成設定情報を格納し、前記障害履歴エントリは、前記複数のノード装置の当該エントリ作成時点に対応する過去の構成設定情報を含み、前記(D)の特定は:
(D4)前記(D1)により選択された障害履歴エントリの数が第二の閾値以上の場合は、前記障害履歴エントリに含まれる前記過去の構成設定情報と、前記構成設定情報とのマッチング率に基づいて、前記所定の障害履歴エントリを特定してもよい。
なお、上記(D4)は(D2)及び(D3)を前提としなくてもよい。また、前記記憶資源は、構成設定情報の項目についての重み値を示す、重み情報を格納し、前記(D4)の特定は、前記重み情報に基づいて行われてもよい。
また、前記(B)の第一の復旧方法は、前記第一の原因イベントの発生元ノード装置の識別子を含まない復旧方法であるメタ復旧方法であり、前記(Y)の前記第二の原因イベントからの復旧方法の表示は、前記メタ復旧方法と前記第二の原因イベントの発生元ノード装置の識別子との表示であってもよい。
記憶資源は、管理システムの中にあっても良いし外にあっても良い。中にある場合、記憶資源は、例えば、メモリである。外にある場合、記憶資源は、例えば、ストレージ装置(例えばディスクアレイ装置)である。
以上、本発明の幾つかの実施例を説明したが、これらは本発明の説明のための例示であって、本発明の範囲をこれらの実施例にのみ限定する趣旨ではない。本発明は、他の種々の形態でも実施することが可能である。
10:管理サーバ

Claims (15)

  1. 複数のノード装置と、
    前記複数のノード装置で発生するイベントを検知する管理システムと、
    を備える計算機システムであって、
    前記管理システムは、イベント情報と、メタルール情報と、障害履歴情報と、を格納し、
    前記イベント情報は、前記発生したイベントの発生元ノード装置を特定する情報と、前記発生したイベントの種別と、を示すイベントエントリを含み、
    前記メタルール情報は、ノード装置で潜在的に発生する可能性のある潜在イベントの種別と、前記潜在イベントの種別に対応するイベントが発生した場合に根本原因と特定可能なイベントの種別とを示すメタルール、を含み、
    前記障害履歴情報は、復旧方法を示す情報及び前記復旧方法が対応する前記メタルールを識別する情報を含む障害履歴エントリ、を含み、
    前記管理システムは:
    (A)前記メタルール情報に基づき、前記イベント情報に格納した前記イベントエントリで特定される第一のイベントの根本原因である第一の原因イベントを特定し、前記第一の原因イベントの特定に用いた第一のメタルールを特定し;
    (B)前記第一の原因イベントから復旧する方法である第一の復旧方法を、前記入力装置を介して受信し、前記第一の復旧方法に基づいて、前記障害履歴情報に前記第一のメタルールに対応する第一の障害履歴エントリを追加し;
    (C)前記メタルール情報に基づき、前記イベント情報に格納した前記イベントエントリで特定される第二のイベントの根本原因である第二の原因イベントを特定し、第二の原因イベントの特定に用いた第二のメタルールを特定し;
    (D)前記障害履歴情報に基づき、前記第二のメタルールに対応する所定の障害履歴エントリを特定し、
    (X)前記第二の原因イベントに関する情報を、前記第二のイベントの根本原因として表示し;
    (Y)前記所定の障害履歴エントリに基づき、前記第二の原因イベントからの復旧方法を表示する、
    ことを特徴とした計算機システム。
  2. 請求項1記載の計算機システムであって、
    前記障害履歴エントリは、復旧方法を適用したノード装置の識別子を含み、
    前記管理システムは:
    (Z)前記所定の障害履歴エントリが示すノード装置の識別子を、前記(Y)の前記所定の障害履歴エントリが示す復旧方法を適用したノード装置の識別子として表示する、
    ことを特徴とした計算機システム。
  3. 請求項2記載の計算機システムであって、
    前記第一のメタルールと前記第二のメタルールが同一の場合、前記(Y)の前記所定の障害履歴エントリが示す復旧方法は、前記第一の障害履歴エントリが示す第一の復旧方法であり、
    前記第一の原因イベントの発生元ノード装置と前記第二の原因イベントの発生元ノード装置は異なるノード装置の場合、前記管理システムは:
    (a)前記(X)の前記第二の原因イベントに関する情報の表示として、前記第二の原因イベントの発生元ノード装置の識別子を含む情報を表示し、
    (b)前記(Z)の前記所定の障害履歴エントリが示すノード装置の識別子の表示として、前記第一の原因イベントの発生元ノード装置の識別子を表示する、
    ことを特徴とした計算機システム。
  4. 請求項2記載の計算機システムであって、
    前記(D)の特定は:
    (D1)前記第二のメタルールと同一のメタルールを示す前記障害履歴エントリを選択し、
    (D2)前記(D1)により選択された障害履歴エントリの数が第一の閾値未満の場合は、前記障害履歴エントリが対応するメタルールと、前記第二のメタルールとのマッチング率に基づいて前記所定の障害履歴エントリを特定し、
    (D3)前記(D1)により選択された障害履歴エントリを前記所定の障害履歴エントリと特定する、
    ことを特徴とした計算機システム。
  5. 請求項4記載の計算機システムであって、
    前記記憶資源は、前記複数のノード装置の構成設定情報を格納し、
    前記障害履歴エントリは、前記複数のノード装置の当該エントリ作成時点に対応する過去の構成設定情報を含み、
    前記(D)の特定は:
    (D4)前記(D1)により選択された障害履歴エントリの数が第二の閾値以上の場合は、前記障害履歴エントリに含まれる前記過去の構成設定情報と、前記構成設定情報とのマッチング率に基づいて、前記所定の障害履歴エントリを特定する、
    ことを特徴とした計算機システム。
  6. 請求項5記載の計算機システムであって、
    前記記憶資源は、構成設定情報の項目についての重み値を示す重み情報を格納し、
    前記(D4)の特定は、前記重み情報に基づいて行われる、
    ことを特徴とした計算機システム。
  7. 請求項1記載の計算機システムであって、
    前記(B)の第一の復旧方法は、前記第一の原因イベントの発生元ノード装置の識別子を含まない復旧方法であるメタ復旧方法であり、
    前記(Y)の前記第二の原因イベントからの復旧方法の表示は、前記メタ復旧方法と前記第二の原因イベントの発生元ノード装置の識別子との表示である、
    ことを特徴とした計算機システム。
  8. 複数のノード装置と通信するインターフェースと、
    前記インターフェースを介して、前記複数のノード装置で発生するイベントを検知するプロセッサと、
    イベント情報と、メタルール情報と、障害履歴情報と、を格納する記憶資源と、
    前記複数のノード装置についての情報を表示する表示装置と、
    入力装置と、
    を備え、
    前記イベント情報は、前記発生したイベントの発生元ノード装置を特定する情報と、前記発生したイベントの種別と、を示すイベントエントリを含み、
    前記メタルール情報は、ノード装置で潜在的に発生する可能性のある潜在イベントの種別と、前記潜在イベントの種別に対応するイベントが発生した場合に根本原因と特定可能なイベントの種別とを示すメタルール、を含み、
    前記障害履歴情報は、復旧方法を示す情報及び前記復旧方法が対応する前記メタルールを識別する情報を含む障害履歴エントリ、を含み、
    前記プロセッサは:
    (A)前記メタルール情報に基づき、前記イベント情報に格納した前記イベントエントリで特定される第一のイベントの根本原因である第一の原因イベントを特定し、前記第一の原因イベントの特定に用いた第一のメタルールを特定し;
    (B)前記第一の原因イベントから復旧する方法である第一の復旧方法を、前記入力装置を介して受信し、前記第一の復旧方法に基づいて、前記障害履歴情報に前記第一のメタルールに対応する第一の障害履歴エントリを追加し;
    (C)前記メタルール情報に基づき、前記イベント情報に格納した前記イベントエントリで特定される第二のイベントの根本原因である第二の原因イベントを特定し、第二の原因イベントの特定に用いた第二のメタルールを特定し;
    (D)前記障害履歴情報に基づき、前記第二のメタルールに対応する所定の障害履歴エントリを特定し、
    前記表示装置は:
    (X)前記第二の原因イベントに関する情報を、前記第二のイベントの根本原因として表示し;
    (Y)前記所定の障害履歴エントリに基づき、前記第二の原因イベントからの復旧方法を表示する、
    ことを特徴とした管理システム。
  9. 請求項8記載の管理システムであって、
    前記障害履歴エントリは復旧方法を適用したノード装置の識別子を含み、
    前記表示装置は:
    (Z)前記所定の障害履歴エントリが示すノード装置の識別子を、前記(Y)の前記所定の障害履歴エントリが示す復旧方法を適用したノード装置の識別子として表示する、
    ことを特徴とした管理システム。
  10. 請求項9記載の管理システムであって、
    前記第一の原因イベントの発生元ノード装置と前記第二の原因イベントの発生元ノード装置は異なるノード装置の場合、前記表示装置は:
    (a)前記(X)の前記第二の原因イベントに関する情報の表示として、前記第二の原因イベントの発生元ノード装置の識別子を含む情報を表示し、
    (b)前記(Z)の前記所定の障害履歴エントリが示すノード装置の識別子の表示として、前記第一の原因イベントの発生元ノード装置の識別子を表示する、
    ことを特徴とした管理システム。
  11. 請求項9記載の管理システムであって、
    前記(D)の特定は:
    (D1)前記第二のメタルールと同一のメタルールのを示す前記障害履歴エントリを選択し、
    (D2)前記(D1)により選択された障害履歴エントリの数が第一の閾値未満の場合は、前記障害履歴エントリが対応するメタルールと、前記第二のメタルールとのマッチング率に基づいて前記所定の障害履歴エントリを特定し、
    (D3)前記(D1)により選択された障害履歴エントリを前記所定の障害履歴エントリと特定する、
    ことを特徴とした管理システム。
  12. 請求項11記載の管理システムであって、
    前記記憶資源は、前記複数のノード装置の構成設定情報を格納し、
    前記障害履歴エントリは、前記複数のノード装置の当該エントリ作成時点に対応する過去の構成設定情報を含み、
    前記(D)の特定は:
    (D4)前記(D1)により選択された障害履歴エントリの数が第二の閾値以上の場合は、前記障害履歴エントリに含まれる前記過去の構成設定情報と、前記構成設定情報とのマッチング率に基づいて、前記所定の障害履歴エントリを特定する、
    ことを特徴とした管理システム。
  13. 請求項12記載の管理システムであって、
    前記記憶資源は、構成設定情報の項目についての重み値を示す、重み情報を格納し、
    前記(D4)の特定は、前記重み情報に基づいて行われる、
    ことを特徴とした管理システム。
  14. 請求項8記載の管理システムであって、
    前記(B)の第一の復旧方法は、前記第一の原因イベントの発生元ノード装置の識別子を含まない復旧方法であるメタ復旧方法であり、
    前記(Y)の前記第二の原因イベントからの復旧方法の表示は、前記メタ復旧方法と前記第二の原因イベントの発生元ノード装置の識別子との表示である、
    ことを特徴とした管理システム。
  15. 複数のノード装置を管理する管理システムの管理方法であって、
    前記管理システムは、複数のノード装置で発生しうるイベントについて、根本原因となる事象を特定するメタルールと、メタルールに対応させた障害復旧方法と、を有し、
    前記管理システムは、管理サーバが検知したイベントの根本原因となる原因イベントと、前記原因イベントからの復旧方法と、を表示する。
    ことを特徴とした管理システムの管理方法。
JP2011522628A 2009-07-16 2009-07-16 障害の根本原因に対応した復旧方法を表す情報を出力する管理システム Expired - Fee Related JP5385982B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/003358 WO2011007394A1 (ja) 2009-07-16 2009-07-16 障害の根本原因に対応した復旧方法を表す情報を出力する管理システム

Publications (2)

Publication Number Publication Date
JPWO2011007394A1 true JPWO2011007394A1 (ja) 2012-12-20
JP5385982B2 JP5385982B2 (ja) 2014-01-08

Family

ID=43449016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011522628A Expired - Fee Related JP5385982B2 (ja) 2009-07-16 2009-07-16 障害の根本原因に対応した復旧方法を表す情報を出力する管理システム

Country Status (5)

Country Link
US (2) US8429453B2 (ja)
EP (1) EP2455863A4 (ja)
JP (1) JP5385982B2 (ja)
CN (1) CN102473129B (ja)
WO (1) WO2011007394A1 (ja)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2455863A4 (en) * 2009-07-16 2013-03-27 Hitachi Ltd MANAGEMENT SYSTEM FOR PROVIDING INFORMATION DESCRIBING A RECOVERY METHOD CORRESPONDING TO A FUNDAMENTAL CAUSE OF FAILURE
JP5419746B2 (ja) * 2010-02-23 2014-02-19 株式会社日立製作所 管理装置及び管理プログラム
US8451739B2 (en) 2010-04-15 2013-05-28 Silver Spring Networks, Inc. Method and system for detecting failures of network nodes
US8943364B2 (en) * 2010-04-30 2015-01-27 International Business Machines Corporation Appliance for storing, managing and analyzing problem determination artifacts
US8429455B2 (en) * 2010-07-16 2013-04-23 Hitachi, Ltd. Computer system management method and management system
US8572434B2 (en) 2010-09-29 2013-10-29 Sepaton, Inc. System health monitor
US8386850B2 (en) * 2010-09-29 2013-02-26 Sepaton, Inc. System health monitor
JP5678717B2 (ja) 2011-02-24 2015-03-04 富士通株式会社 監視装置、監視システムおよび監視方法
EP2674865A4 (en) * 2011-09-26 2016-06-01 Hitachi Ltd ADMINISTRATIVE COMPUTERS AND METHODS OF BASIC ANALYSIS
JP5751336B2 (ja) * 2011-10-18 2015-07-22 富士通株式会社 情報処理装置、時刻補正値決定方法、およびプログラム
CN103176873A (zh) * 2011-12-23 2013-06-26 鸿富锦精密工业(深圳)有限公司 计数卡
US8977886B2 (en) * 2012-02-14 2015-03-10 Alcatel Lucent Method and apparatus for rapid disaster recovery preparation in a cloud network
WO2013140608A1 (ja) * 2012-03-23 2013-09-26 株式会社日立製作所 イベントの根本原因の解析を支援する方法及びシステム
US8996532B2 (en) 2012-05-21 2015-03-31 International Business Machines Corporation Determining a cause of an incident based on text analytics of documents
WO2014001841A1 (en) * 2012-06-25 2014-01-03 Kni Műszaki Tanácsadó Kft. Methods of implementing a dynamic service-event management system
US9244800B2 (en) * 2012-09-03 2016-01-26 Hitachi, Ltd. Management system for managing computer system comprising multiple monitoring-target devices
EP2901303A4 (en) * 2012-09-25 2016-06-01 Moneydesktop Inc ROUTING AGGREGATION SOURCE
US20150242416A1 (en) * 2012-10-30 2015-08-27 Hitachi, Ltd. Management computer and rule generation method
US10274946B2 (en) * 2012-12-12 2019-04-30 Mitsubishi Electric Corporation Monitoring control apparatus and monitoring control method
US9628360B2 (en) 2013-03-15 2017-04-18 Hitachi, Ltd. Computer management system based on meta-rules
US9619314B2 (en) * 2013-04-05 2017-04-11 Hitachi, Ltd. Management system and management program
US10169122B2 (en) * 2013-04-29 2019-01-01 Moogsoft, Inc. Methods for decomposing events from managed infrastructures
CN103440174B (zh) * 2013-08-02 2016-05-25 杭州华为数字技术有限公司 一种错误信息处理方法、装置及应用该装置的电子设备
WO2015063889A1 (ja) 2013-10-30 2015-05-07 株式会社日立製作所 管理システム、プラン生成方法、およびプラン生成プログラム
US20150378805A1 (en) * 2013-11-29 2015-12-31 Hitachi, Ltd. Management system and method for supporting analysis of event root cause
CN104035849B (zh) * 2014-06-19 2017-02-15 浪潮电子信息产业股份有限公司 一种防止Rack机柜风扇管理失效的方法
DE112015006084T5 (de) * 2015-01-30 2017-10-12 Hitachi, Ltd. Systemverwaltungsvorrichtung und systemverwaltungssystem
JP5993052B2 (ja) * 2015-03-23 2016-09-14 株式会社日立製作所 複数の監視対象デバイスを有する計算機システムの管理を行う管理システム
US9692815B2 (en) 2015-11-12 2017-06-27 Mx Technologies, Inc. Distributed, decentralized data aggregation
US9830150B2 (en) 2015-12-04 2017-11-28 Google Llc Multi-functional execution lane for image processor
US10180869B2 (en) * 2016-02-16 2019-01-15 Microsoft Technology Licensing, Llc Automated ordering of computer system repair
CN105786635B (zh) * 2016-03-01 2018-10-12 国网江苏省电力公司电力科学研究院 一种面向故障敏感点动态检测的复杂事件处理系统及方法
US9922539B1 (en) * 2016-08-05 2018-03-20 Sprint Communications Company L.P. System and method of telecommunication network infrastructure alarms queuing and multi-threading
JP6885193B2 (ja) * 2017-05-12 2021-06-09 富士通株式会社 並列処理装置、ジョブ管理方法、およびジョブ管理プログラム
US10977154B2 (en) * 2018-08-03 2021-04-13 Dynatrace Llc Method and system for automatic real-time causality analysis of end user impacting system anomalies using causality rules and topological understanding of the system to effectively filter relevant monitoring data
US10282248B1 (en) * 2018-11-27 2019-05-07 Capital One Services, Llc Technology system auto-recovery and optimality engine and techniques
US10824528B2 (en) 2018-11-27 2020-11-03 Capital One Services, Llc Techniques and system for optimization driven by dynamic resilience
US11093319B2 (en) * 2019-05-29 2021-08-17 Microsoft Technology Licensing, Llc Automated recovery of webpage functionality
US11907087B2 (en) 2019-07-10 2024-02-20 International Business Machines Corporation Remote health monitoring in data replication environments
US11281694B2 (en) 2019-07-10 2022-03-22 International Business Machines Cormoration Remote data capture in data replication environments
US10686645B1 (en) 2019-10-09 2020-06-16 Capital One Services, Llc Scalable subscriptions for virtual collaborative workspaces
EP3823215A1 (en) * 2019-11-18 2021-05-19 Juniper Networks, Inc. Network model aware diagnosis of a network
CN113206749B (zh) 2020-01-31 2023-11-17 瞻博网络公司 网络事件的相关性的可编程诊断模型
CN113328872B (zh) * 2020-02-29 2023-03-28 华为技术有限公司 故障修复方法、装置和存储介质
US11765015B2 (en) * 2020-03-19 2023-09-19 Nippon Telegraph And Telephone Corporation Network management apparatus, method, and program
US11269711B2 (en) 2020-07-14 2022-03-08 Juniper Networks, Inc. Failure impact analysis of network events
US20220182278A1 (en) * 2020-12-07 2022-06-09 Citrix Systems, Inc. Systems and methods to determine root cause of connection failures
JP2022115316A (ja) * 2021-01-28 2022-08-09 株式会社日立製作所 ログ検索支援装置、及びログ検索支援方法

Family Cites Families (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3485999T2 (de) * 1983-09-28 1993-04-01 Hitachi Ltd Hochgeschwindigkeitverarbeitungssystem fuer rechneranlage.
US5261086A (en) * 1987-10-26 1993-11-09 Nec Corporation Performance analyzing and diagnosing system for computer systems
US5214653A (en) * 1990-10-22 1993-05-25 Harris Corporation Fault finder expert system
US5572670A (en) * 1994-01-10 1996-11-05 Storage Technology Corporation Bi-directional translator for diagnostic sensor data
US5557765A (en) * 1994-08-11 1996-09-17 Trusted Information Systems, Inc. System and method for data recovery
US6072777A (en) * 1996-06-28 2000-06-06 Mci Communications Corporation System and method for unreported root cause analysis
US6226659B1 (en) * 1996-09-16 2001-05-01 Oracle Corporation Method and apparatus for processing reports
US6173266B1 (en) * 1997-05-06 2001-01-09 Speechworks International, Inc. System and method for developing interactive speech applications
US7752024B2 (en) * 2000-05-05 2010-07-06 Computer Associates Think, Inc. Systems and methods for constructing multi-layer topological models of computer networks
US7500143B2 (en) * 2000-05-05 2009-03-03 Computer Associates Think, Inc. Systems and methods for managing and analyzing faults in computer networks
US20020171546A1 (en) * 2001-04-18 2002-11-21 Evans Thomas P. Universal, customizable security system for computers and other devices
JP2004535018A (ja) 2001-07-06 2004-11-18 コンピュータ アソシエイツ シンク,インコーポレイテッド システム及び企業事象の根本原因を相関付けし判定するための方法とシステム
US6792393B1 (en) * 2001-12-03 2004-09-14 At&T Corp. System and method for diagnosing computer system operational behavior
US20040153692A1 (en) * 2001-12-28 2004-08-05 O'brien Michael Method for managing faults it a computer system enviroment
US7194445B2 (en) * 2002-09-20 2007-03-20 Lenovo (Singapore) Pte. Ltd. Adaptive problem determination and recovery in a computer system
WO2004061681A1 (ja) * 2002-12-26 2004-07-22 Fujitsu Limited 運用管理方法および運用管理サーバ
WO2004090691A2 (en) 2003-03-31 2004-10-21 System Management Arts, Inc. Method and apparatus for system management using codebook correlation with symptom exclusion
US7254515B1 (en) * 2003-03-31 2007-08-07 Emc Corporation Method and apparatus for system management using codebook correlation with symptom exclusion
US20050091356A1 (en) * 2003-10-24 2005-04-28 Matthew Izzo Method and machine-readable medium for using matrices to automatically analyze network events and objects
JP2005165847A (ja) * 2003-12-04 2005-06-23 Fujitsu Ltd ポリシールールシナリオ制御装置及び制御方法
US7478404B1 (en) 2004-03-30 2009-01-13 Emc Corporation System and methods for event impact analysis
US7965620B2 (en) * 2004-05-25 2011-06-21 Telcordia Licensing Company, Llc Method, computer product and system for correlating events in a network
JP3826940B2 (ja) * 2004-06-02 2006-09-27 日本電気株式会社 障害復旧装置および障害復旧方法、マネージャ装置並びにプログラム
US20060112061A1 (en) * 2004-06-24 2006-05-25 Masurkar Vijay B Rule based engines for diagnosing grid-based computing systems
US7536370B2 (en) * 2004-06-24 2009-05-19 Sun Microsystems, Inc. Inferential diagnosing engines for grid-based computing systems
US7631222B2 (en) * 2004-08-23 2009-12-08 Cisco Technology, Inc. Method and apparatus for correlating events in a network
US7373552B2 (en) * 2004-09-30 2008-05-13 Siemens Aktiengesellschaft Model based diagnosis and repair for event logs
US7275017B2 (en) 2004-10-13 2007-09-25 Cisco Technology, Inc. Method and apparatus for generating diagnoses of network problems
US7788536B1 (en) * 2004-12-21 2010-08-31 Zenprise, Inc. Automated detection of problems in software application deployments
US7917814B2 (en) * 2005-04-08 2011-03-29 Hewlett-Packard Development Company, L.P. System and method of reporting error codes in an electronically controlled device
US7426654B2 (en) * 2005-04-14 2008-09-16 Verizon Business Global Llc Method and system for providing customer controlled notifications in a managed network services system
US7571150B2 (en) * 2005-04-15 2009-08-04 Microsoft Corporation Requesting, obtaining, and processing operational event feedback from customer data centers
JP4672722B2 (ja) * 2005-04-25 2011-04-20 富士通株式会社 ネットワーク設計処理装置,方法およびそのプログラム
US7949904B2 (en) * 2005-05-04 2011-05-24 Microsoft Corporation System and method for hardware error reporting and recovery
US8392236B2 (en) * 2005-05-13 2013-03-05 The Boeing Company Mobile network dynamic workflow exception handling system
JP2006338305A (ja) 2005-06-01 2006-12-14 Toshiba Corp 監視装置及び監視プログラム
JP4701148B2 (ja) * 2006-03-02 2011-06-15 アラクサラネットワークス株式会社 障害回復システム及びサーバ
US8284675B2 (en) * 2006-06-28 2012-10-09 Rockstar Bidco, L.P. Method and system for automated call troubleshooting and resolution
US8326969B1 (en) * 2006-06-28 2012-12-04 Emc Corporation Method and apparatus for providing scalability in resource management and analysis system- three way split architecture
JP4859558B2 (ja) * 2006-06-30 2012-01-25 株式会社日立製作所 コンピュータシステムの制御方法及びコンピュータシステム
US7924733B2 (en) * 2006-09-28 2011-04-12 Avaya Inc. Root cause analysis of network performance based on exculpation or inculpation sets
JP2008084242A (ja) * 2006-09-29 2008-04-10 Omron Corp データベース作成装置およびデータベース活用支援装置
US7872982B2 (en) * 2006-10-02 2011-01-18 International Business Machines Corporation Implementing an error log analysis model to facilitate faster problem isolation and repair
US20080140817A1 (en) * 2006-12-06 2008-06-12 Agarwal Manoj K System and method for performance problem localization
US7757117B2 (en) * 2007-04-17 2010-07-13 International Business Machines Corporation Method and apparatus for testing of enterprise systems
JP2009043029A (ja) 2007-08-09 2009-02-26 Hitachi Ltd 関連db作成装置
JP5193533B2 (ja) * 2007-09-04 2013-05-08 株式会社東芝 遠隔監視システム及び遠隔監視方法
US8421614B2 (en) * 2007-09-19 2013-04-16 International Business Machines Corporation Reliable redundant data communication through alternating current power distribution system
US7937623B2 (en) * 2007-10-19 2011-05-03 Oracle International Corporation Diagnosability system
US7788534B2 (en) * 2007-12-11 2010-08-31 International Business Machines Corporation Method for monitoring and managing a client device in a distributed autonomic computing environment
US8826077B2 (en) * 2007-12-28 2014-09-02 International Business Machines Corporation Defining a computer recovery process that matches the scope of outage including determining a root cause and performing escalated recovery operations
US20090172674A1 (en) * 2007-12-28 2009-07-02 International Business Machines Corporation Managing the computer collection of information in an information technology environment
US8341014B2 (en) * 2007-12-28 2012-12-25 International Business Machines Corporation Recovery segments for computer business applications
US20090210745A1 (en) * 2008-02-14 2009-08-20 Becker Sherilyn M Runtime Error Correlation Learning and Guided Automatic Recovery
US7835307B2 (en) * 2008-03-14 2010-11-16 International Business Machines Corporation Network discovery tool
US7870441B2 (en) * 2008-03-18 2011-01-11 International Business Machines Corporation Determining an underlying cause for errors detected in a data processing system
US8086905B2 (en) * 2008-05-27 2011-12-27 Hitachi, Ltd. Method of collecting information in system network
US7814369B2 (en) * 2008-06-12 2010-10-12 Honeywell International Inc. System and method for detecting combinations of perfomance indicators associated with a root cause
US8112378B2 (en) 2008-06-17 2012-02-07 Hitachi, Ltd. Methods and systems for performing root cause analysis
WO2010004544A1 (en) * 2008-07-08 2010-01-14 Technion - Research & Development Foundation Ltd Decision support system for project managers and associated method
US8310931B2 (en) * 2008-07-18 2012-11-13 International Business Machines Corporation Discovering network topology from routing information
US8370466B2 (en) * 2008-07-23 2013-02-05 International Business Machines Corporation Method and system for providing operator guidance in network and systems management
US7877636B2 (en) * 2008-08-28 2011-01-25 Honeywell International Inc. System and method for detecting temporal relationships uniquely associated with an underlying root cause
US7962472B2 (en) * 2008-09-29 2011-06-14 International Business Machines Corporation Self-optimizing algorithm for real-time problem resolution using historical data
JP5237034B2 (ja) * 2008-09-30 2013-07-17 株式会社日立製作所 イベント情報取得外のit装置を対象とする根本原因解析方法、装置、プログラム。
US8166351B2 (en) * 2008-10-21 2012-04-24 At&T Intellectual Property I, L.P. Filtering redundant events based on a statistical correlation between events
US7877642B2 (en) * 2008-10-22 2011-01-25 International Business Machines Corporation Automatic software fault diagnosis by exploiting application signatures
US7954010B2 (en) * 2008-12-12 2011-05-31 At&T Intellectual Property I, L.P. Methods and apparatus to detect an error condition in a communication network
US8055945B2 (en) * 2009-02-02 2011-11-08 International Business Machines Corporation Systems, methods and computer program products for remote error resolution reporting
US7979747B2 (en) * 2009-02-20 2011-07-12 International Business Machines Corporation Interactive problem resolution presented within the context of major observable application behaviors
EP2300920A1 (en) 2009-03-30 2011-03-30 Hitachi, Ltd. Method and apparatus for cause analysis involving configuration changes
US8527328B2 (en) * 2009-04-22 2013-09-03 Bank Of America Corporation Operational reliability index for the knowledge management system
US8381038B2 (en) * 2009-05-26 2013-02-19 Hitachi, Ltd. Management server and management system
EP2455863A4 (en) * 2009-07-16 2013-03-27 Hitachi Ltd MANAGEMENT SYSTEM FOR PROVIDING INFORMATION DESCRIBING A RECOVERY METHOD CORRESPONDING TO A FUNDAMENTAL CAUSE OF FAILURE

Also Published As

Publication number Publication date
US8429453B2 (en) 2013-04-23
CN102473129A (zh) 2012-05-23
CN102473129B (zh) 2015-12-02
US20130219225A1 (en) 2013-08-22
US9189319B2 (en) 2015-11-17
US20110264956A1 (en) 2011-10-27
EP2455863A1 (en) 2012-05-23
JP5385982B2 (ja) 2014-01-08
EP2455863A4 (en) 2013-03-27
WO2011007394A1 (ja) 2011-01-20

Similar Documents

Publication Publication Date Title
JP5385982B2 (ja) 障害の根本原因に対応した復旧方法を表す情報を出力する管理システム
US11614990B2 (en) Automatic correlation of dynamic system events within computing devices
US10467084B2 (en) Knowledge-based system for diagnosing errors in the execution of an operation
JP6208770B2 (ja) イベントの根本原因の解析を支援する管理システム及び方法
US9071535B2 (en) Comparing node states to detect anomalies
US8782039B2 (en) Generating a semantic graph relating information assets using feedback re-enforced search and navigation
US20120030346A1 (en) Method for inferring extent of impact of configuration change event on system failure
US8892705B2 (en) Information processing system, operation management method for computer systems, and program in a distributed network environment
US8751856B2 (en) Determining recovery time for interdependent resources in heterogeneous computing environment
US20140298112A1 (en) Detection method, storage medium, and detection device
JP6988304B2 (ja) 運用管理システム、監視サーバ、方法およびプログラム
US20110292834A1 (en) Maintaining Time Series Models for Information Technology System Parameters
US20150032776A1 (en) Cross-cutting event correlation
WO2006117833A1 (ja) 監視シミュレーション装置,方法およびそのプログラム
US20200073781A1 (en) Systems and methods of injecting fault tree analysis data into distributed tracing visualizations
JP6280862B2 (ja) イベント分析システムおよび方法
JP5514643B2 (ja) 障害原因判定ルール変化検知装置及びプログラム
WO2014068705A1 (ja) 監視システム及び監視プログラム
US20150242416A1 (en) Management computer and rule generation method
US20230325294A1 (en) Models for detecting and managing excessive log patterns
CN113037564B (zh) 一种网络故障诊断方法及装置
Kobayashi et al. amulog: A general log analysis framework for comparison and combination of diverse template generation methods
JP2018190205A (ja) 事業者間一括サービス管理装置および事業者間一括サービス管理方法
WO2013103008A1 (ja) 事象の原因を特定する情報システム、コンピュータ及び方法
WO2023105264A1 (en) Generating an ontology for representing a system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131004

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees