JP2013156764A - 制御システム及びログ配信方法 - Google Patents

制御システム及びログ配信方法 Download PDF

Info

Publication number
JP2013156764A
JP2013156764A JP2012015692A JP2012015692A JP2013156764A JP 2013156764 A JP2013156764 A JP 2013156764A JP 2012015692 A JP2012015692 A JP 2012015692A JP 2012015692 A JP2012015692 A JP 2012015692A JP 2013156764 A JP2013156764 A JP 2013156764A
Authority
JP
Japan
Prior art keywords
log
unit
cpu
arithmetic processing
storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012015692A
Other languages
English (en)
Other versions
JP5825120B2 (ja
Inventor
Takashi Higashiyama
崇 東山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012015692A priority Critical patent/JP5825120B2/ja
Priority to US13/673,096 priority patent/US20130198310A1/en
Priority to EP12193382.4A priority patent/EP2620874A1/en
Priority to KR1020120137284A priority patent/KR20130087357A/ko
Priority to CN2012105063050A priority patent/CN103226447A/zh
Publication of JP2013156764A publication Critical patent/JP2013156764A/ja
Application granted granted Critical
Publication of JP5825120B2 publication Critical patent/JP5825120B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0766Error or fault reporting or storing
    • G06F11/0781Error filtering or prioritizing based on a policy defined by the user or on a policy defined by a hardware/software module, e.g. according to a severity level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0706Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
    • G06F11/0721Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment within a central processing unit [CPU]
    • G06F11/0724Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment within a central processing unit [CPU] in a multiprocessor or a multi-core unit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0706Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
    • G06F11/0748Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment in a remote unit communicating with a single-box computer node experiencing an error/fault
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • G06F11/3476Data logging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Debugging And Monitoring (AREA)

Abstract

【課題】有用なログを失うことを防止すること。
【解決手段】演算処理装置と該演算処理装置のログを記憶する記憶部をそれぞれ有する制御装置を複数備える制御システムは、第1の生成部と、第2の生成部と、配信部と、を有する。第1の生成部は、各制御装置の記憶部に記憶された演算処理装置の複数のログを、制御システム内の演算処理装置の総数に基づいて決定されるログの容量の上限値の範囲内で、かつ、優先度に基づいた順序で格納して第1のログファイルを生成する。第2の生成部は、各演算処理装置における第1のログファイルを複数含んだ第2のログファイルを生成する。配信部は、該第2のログファイルを外部装置へ配信する。
【選択図】図2

Description

本発明は、制御システム及びログ配信方法に関する。
従来、ストレージ装置は、装置内の障害情報などのログをログファイルとして定期的に配信する定期ログ配信機能を有する場合がある。例えば、定期ログ配信機能を有するストレージ装置は、データを格納しているディスクなどの搭載部品の故障や故障の予兆を監視してログを採取し、採取したログからログファイルを生成する。そして、ストレージ装置は、ネットワークを介して、リモートサポートセンターと呼ばれる保守センターにログファイルを配信する。
図20を用いて、ストレージ装置が有する定期ログ配信機能について説明する。図20は、ストレージ装置が有する定期ログ配信機能の一例を示す図である。図20に示すストレージ装置910〜ストレージ装置930のそれぞれは、定期ログ配信機能を有しており、ネットワークを介してリモートサポートセンター900に接続される。なお、図20に示す例では、ストレージ装置910及びストレージ装置920は、定期ログ配信機能を有効に設定しており、ストレージ装置930は、定期ログ配信機能を無効に設定しているものとする。
ストレージ装置910は、ログを採取することで生成したログファイル940を1日ごとにリモートサポートセンター900に配信する。また、ストレージ装置920は、ログを採取することで生成したログファイル950を1週ごとにリモートサポートセンター900に配信する。そして、リモートサポートセンター900では、管理者が、ログファイルを解析することによって、ストレージ装置910〜ストレージ装置930の異常や故障の予兆を示す警告の有無を検出する。
次に、図21を用いて、ストレージ装置によるログ採取処理について説明する。図21は、ストレージ装置によるログ採取処理の一例を示す図である。図21に示すように、ストレージ装置910は、内部に8つのCM(Controller Module、以降、CMと記載する)#0〜CM#7を有する。また、各CMは、メインのCPU(Central Processing Unit)#0とサブのCPU#1とを有する。そして、各CPUは、障害情報となるログを管理する。
また、ストレージ装置910では、8つのCMのうち1つのCMがマスターCMに設定される。このマスターCMは、ストレージ装置全体を統括する役割を持っている。なお、図21に示す例では、CM#0がマスターCMである。そして、マスターCMであるCM#0において、メインのCPU#0は、定期的にログ採取処理を起動し、全CPUのログを採取してログファイルを生成し、リモートサポート機能を介してリモートサポートセンター900へログファイル940を配信する。なお、リモートサポート機能とは、CPUが有するリモートサポートセンターとの通信機能である。また、以下の説明では、マスターCMが有するメインのCPUをマスターCPUと称する。
次に、図22を用いて、ストレージ装置により生成されるログファイルのフォーマットを説明する。図22は、ストレージ装置により生成されるログファイルのフォーマットの一例を示す図である。マスターCPUは、図22に示すようにログファイルに、ログファイル自身のヘッダ部と、システム構成情報を含む構成情報とを格納する。そして、マスターCPUは、各メインのCPU#0から採取したログについて、CM番号の小さいものから順にログファイルに格納し、続いて、各サブのCPU#1から採取したログについて、CM番号の小さいものから順にログファイルに格納する。
また、マスターCPUは、各CPUのログには、管理しているログタイプ順でログを格納する。例えば、ログタイプは、(1)〜(21)で番号付けされており、障害情報として重要な順に並べられる。なお、ログタイプの(17)は欠番とする。
特開2010−152469号公報 特開2011−158966号公報 特開平6−324916号公報
しかしながら、上述した従来の技術では、有用なログを失う場合があるという課題がある。
具体的には、複数のストレージ装置からログファイルを受信するリモートサポートセンターは、リソースの都合上、各ストレージ装置から受信するログファイルのサイズを1ログ当たり1.44MBに制限する。また、リモートサポートセンターのリソースの都合上、1.44MBを増やすことはできない。
このためストレージ装置は、各CPUから取得したログ情報のうち、1.44MBを超えたログ部分を配信できない。例えば、ストレージ装置構成が2CM(4CPU)の場合でも、定期ログが1MBを超えるケースが多い。このため、ストレージ装置の構成が最大となる8CM(16CPU)の場合では、全CPUのログをログファイルに収めることは困難になる。
この結果、ストレージ装置は、フォーマットに指定される順序でログを格納した場合、CM番号の大きいCPUから採取したログやサブのCPU#1から採取したログをログファイルに格納できない可能性が高くなる。この場合、ログファイルに格納されないCPUのログは、全て失われる。
1つの側面では、有用なログを失うことを防止することができる制御システム及びログ配信方法を提供することを目的とする。
第1の案では、演算処理装置と該演算処理装置のログを記憶する記憶部をそれぞれ有する制御装置を複数備える制御システムである。制御システムは、各制御装置の記憶部に記憶された演算処理装置の複数のログを、制御システム内の演算処理装置の総数に基づいて決定されるログの容量の上限値の範囲内で、かつ、優先度に基づいた順序で格納して第1のログファイルを生成する。また、制御システムは、各演算処理装置における第1のログファイルを複数含んだ第2のログファイルを生成する。そして、制御システムは、該第2のログファイルを外部装置へ配信する。
有用なログを失うことを防止することができる。
図1は、実施例1に係るストレージ装置の構成を示すブロック図である。 図2は、実施例1に係るCMの構成を示すブロック図である。 図3は、ログフォーマットテーブルが記憶する情報の一例を示す図である。 図4は、実施例1に係るストレージ装置によるログファイル配信処理の処理手順を示すフローチャートである。 図5は、実施例2に係るCMの構成を示すブロック図である。 図6は、加点テーブルが記憶する情報の一例を示す図である。 図7は、事象に対する加点方法の一例を示す図である。 図8は、CM#2のCPU#1にディスク関連の事象が発生した場合の加点処理の動作の一例を示す図である。 図9は、CM#5をリブートさせた場合の加点処理の動作の一例を示す図である。 図10は、CM#7のCPU#0にRAIDグループ関連の事象が発生した場合の加点処理の動作の一例を示す図である。 図11は、事象に対する優先度変更対象となるログタイプの一例を示す図である。 図12は、変更部によるログフォーマットテーブルが規定する格納順序の変更処理の一例を示す図である。 図13は、第1の生成部により生成されるログファイルの一例を示す図である。 図14は、初期値に対する加点方法の一例を示す図である。 図15は、加点テーブルの集約結果の一例を示す図である。 図16は、上限値算出処理結果の一例を示す図である。 図17は、ログサイズ変更処理の一例を示す図である。 図18は、実施例2に係るストレージ装置による処理動作の一例を示す図である。 図19は、実施例2に係るストレージ装置によるログファイル配信処理の処理手順を示すフローチャートである。 図20は、ストレージ装置が有する定期ログ配信機能の一例を示す図である。 図21は、ストレージ装置によるログ採取処理の一例を示す図である。 図22は、ストレージ装置により生成されるログファイルのフォーマットの一例を示す図である。
以下に、本願の開示する制御システム及びログ配信方法の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
実施例1では、制御システムとしてストレージ装置を例に説明する。このストレージ装置は、CPUと該CPUのログを記憶する記憶部をそれぞれ有するCMを複数備える。例えば、ストレージ装置は、各CMの記憶部に記憶されたCPUの複数のログを、ストレージ装置内のCPUの総数に基づいて決定されるログの容量の上限値の範囲内で、かつ、優先度に基づいた順序で格納して第1のログファイルを生成する。また、ストレージ装置は、各CPUにおける第1のログファイルを複数含んだ第2のログファイルを生成する。そして、ストレージ装置は、該第2のログファイルをリモートサポートセンターへ配信する。
[実施例1に係るストレージ装置の構成]
図1は、実施例1に係るストレージ装置の構成を示すブロック図である。図1に示すように、ストレージ装置100は、FER(Front End Router)101とDE(Device Enclosure)102とDE103とDE104とDE105とBER(Back End Router)106とを有する。また、ストレージ装置100は、CM(Controller Module)110とCM120とCM130とCM140とCM150とCM160とCM170とCM180とを有する。なお、ストレージ装置100が有するCMの数は、複数であれば図示に限定されるものではない。また、ストレージ装置100が有するDEの数は図示に限定されるものではない。
また、ストレージ装置100は、図示しないメインフレームなどのホストとネットワークを介して接続される。また、ストレージ装置100は、図示しないリモートサポートセンターとネットワークを介して接続される。なお、リモートサポートセンターとは、ストレージ装置から配信されたログファイルを管理する保守センターである。
FER101は、ホストやリモートサポートセンターとのインターフェースを提供する。DE102は、図示しないディスクを有する。このディスクは、RAID(Redundant Arrays of Inexpensive Disks)を構成し、ユーザデータを記憶する。
BER106は、Exp(Expand)107とExp108とを有する。Exp107は、CM110〜CM180及びDE102及びDE103と接続し、CM110〜CM180とDE102及びDE103との間のデータのやり取りを中継する。また、Exp108は、CM110〜CM180及びDE104及びDE105と接続し、CM110〜CM180とDE104及びDE105との間のデータのやり取りを中継する。なお、BER106が有するExpの数は図示に限定されるものではない。
CM110〜CM180それぞれは、FER101を介してホストから受付けたDE102〜105に対するデータの入出力処理を、BER106を介して実行する。このようなCM110〜CM180それぞれは、図1に示すように2つの記憶部と2つのCPU(Central Processing Unit)とを有する。ここで、各CMにおいて、各記憶部は、CPUごとに設けられる。なお、各CMが有するCPUの数は、図示に限定されるものではない。
例えば、図1に示すように、CM110は、記憶部111と記憶部112とCPU113とCPU114とを有する。ここで、記憶部111は、CPU113用に設けられ、記憶部112は、CPU114用に設けられる。
同様に、CM120は、記憶部121と記憶部122とCPU123とCPU124とを有する。ここで、記憶部121は、CPU123用に設けられ、記憶部122は、CPU124用に設けられる。また、CM130は、記憶部131と記憶部132とCPU133とCPU134とを有する。ここで、記憶部131は、CPU133用に設けられ、記憶部132は、CPU134用に設けられる。また、CM140は、記憶部141と記憶部142とCPU143とCPU144とを有する。ここで、記憶部141は、CPU143用に設けられ、記憶部142は、CPU144用に設けられる。
また、CM150は、記憶部151と記憶部152とCPU153とCPU154とを有する。ここで、記憶部151は、CPU153用に設けられ、記憶部152は、CPU154用に設けられる。また、CM160は、記憶部161と記憶部162とCPU163とCPU164とを有する。ここで、記憶部161は、CPU163用に設けられ、記憶部162は、CPU164用に設けられる。
また、CM170は、記憶部171と記憶部172とCPU173とCPU174とを有する。ここで、記憶部171は、CPU173用に設けられ、記憶部172は、CPU174用に設けられる。また、CM180は、記憶部181と記憶部182とCPU183とCPU184とを有する。ここで、記憶部181は、CPU183用に設けられ、記憶部182は、CPU184用に設けられる。なお、CM110〜CM180が有する各CPUは、FER101を介してバスにより相互に通信可能に接続される。
ここで、各CMが有する2つのCPUのうち、一方はメインのCPUとして機能し、他方はサブのCPUとして機能する。ここで、サブのCPUとは、メインのCPUの処理負荷が高い場合に使用されるCPUである。
なお、以下では、CMに以下のようにCM番号を付与して適宜説明する。CM110には「CM#0」、CM120には「CM#1」、CM130には「CM#2」、CM140には「CM#3」、CM150には「CM#4」を付与する。同様に、CM160には「CM#5」、CM170には「CM#6」、CM180には「CM#7」を付与する。また、以下の説明では、CM110〜CM180が有するメインのCPUを「CPU#0」、サブのCPUを「CPU#1」と適宜表記する。
また、ストレージ装置100ではCM110〜CM180のうち、いずれか一つのCMが、マスターとして設定される。以下の説明では、CM110を「マスターCM」であるものとして説明する。そして、マスターCMが有するメインのCPUのことを「マスターCPU」と称するものとする。また、CM110〜CM180が有するCPUのうち、マスターCPU以外のCPUのことを「他のCPU」と称するものとする。なお、マスターCMはCM110に限定されるものではなく、他のCMに変更可能である。
このような複数のCMを有するストレージ装置100において、複数のCMが有するCPUそれぞれは、CPUごとに設けられる記憶部に該CPUのログを記憶させる。また、複数のCMが有するCPUそれぞれは、ログが格納される順序を規定するログフォーマットに基づいた順序で、複数のCMが有するCPUの数に基づいて決定されるログの容量の上限値以内まで、記憶部に記憶されるログを格納するログファイルを生成する。また、複数のCMが有するCPUの一つであるマスターCPUを除く他のCPUそれぞれは、更に、マスターCPUへログファイルを送信する。また、マスターCPUは、更に、ログファイルを他のCPUそれぞれから受信する。そして、マスターCPUは、生成したログファイルと他のCPUそれぞれから受信したログファイルとを含んだ全CPUのログファイルを生成する。続いて、マスターCPUは、全CPUのログファイルをリモートサポートセンターへ配信する。
このように、実施例1に係るストレージ装置100は、全CPU分のログファイルを含んだログファイルを生成することで、有用なログを失うことを防止することができる。
[実施例1に係るCMの機能構成]
次に、図2を用いて、実施例1に係るCM110〜CM180の機能構成について説明する。なお、ここでは、マスターCMであるCM110を例にする。図2は、実施例1に係るCMの構成を示すブロック図である。図2に示すように、実施例1に係るCM110は、記憶部111と記憶部112とCPU113とCPU114とを有する。
また、以下の説明では、CPU113をサブのCPUであるものとし、CPU114をメインのCPUであるものとする。CM110がマスターCMであるので、CPU113は、「他のCPU」であり、CPU114は「マスターCPU」である。またこの場合、CM120〜CM180が有するCPUはいずれも「他のCPU」である。このようなことから、CPU113を「他のCPU」の一例として「CPU300」と表記し、CPU114を「マスターCPU」の一例として「CPU400」と表記する。また、記憶部111及び記憶部112は、同様の情報を記憶するので、「記憶部200」と表記する。
記憶部200は、RAM(Random Access Memory)やSSD(Solid State Drive)などの半導体メモリ素子であり、ログ格納域201とログフォーマットテーブル202とを有する。ログ格納域201は、ログを格納する。
ログフォーマットテーブル202は、ログをログファイルとして格納する順序を示す情報を記憶する。図3を用いて、ログフォーマットテーブルが記憶する情報の一例を説明する。図3は、ログフォーマットテーブルが記憶する情報の一例を示す図である。
図3に示すように、ログフォーマットテーブル202は、ログファイルヘッダ202a、構成情報202b、各CPUから採取したログ202cの順序でログファイルに格納することを示す。
また、図3に示すように、ログフォーマットテーブル202は、各メインのCPU#0から採取したログについて、CM番号の小さいものから順にログファイルに格納することを示す。そして、ログフォーマットテーブル202は、各メインのCPU#0から採取したログに続いて、各サブのCPU#1から採取したログについて、CM番号の小さいものから順にログファイルに格納することを示す。
また、図3に示すように、各CPUから採取したログは、ログタイプ202dに示す順序で格納される。このログタイプは、(1)〜(21)で番号付けされており、障害情報として重要な順に並べられる。なお、ログタイプの(17)は欠番とする。
ここで、ログタイプ202dとして記憶される「DEGRADE(1)」には、装置の故障を示すログが格納される。また、ログタイプ202dとして記憶される「PANIC(2)」には、パニックを示すログが格納される。また、ログタイプ202dとして記憶される「ERROR(3)」には、ファームウェアのエラーなどを示すログが格納される。
また、ログタイプ202dとして記憶される「DEG_FACTOR(4)」には、装置の故障となる要因を示すログが格納される。また、ログタイプ202dとして記憶される「RECOVER_ERR(5)」には、復帰成功に対する情報更新失敗の通知の設定を示すログが格納される。また、ログタイプ202dとして記憶される「REBUILD_COPY(6)」には、RAID構成のコピーに関するログが格納される。また、ログタイプ202dとして記憶される「COPY(7)」には、RAID構成のコピーに関するログが格納される。
また、ログタイプ202dとして記憶される「ENVIROMENT(8)」には、電源やファンなどの状態を示すログが格納される。また、ログタイプ202dとして記憶される「POWER(9)」には、電源を監視し、電源オンの時間などを示すログが格納される。また、ログタイプ202dとして記憶される「OPERATION(10)」には、ストレージ装置に対して使用した機能を示すログが格納される。
また、ログタイプ202dとして記憶される「EVENT_CM(11)」には、CM関連のログが格納される。また、ログタイプ202dとして記憶される「EVENT_CA(12)」には、CA関連のログが格納される。また、ログタイプ202dとして記憶される「EVENT_MFCA(13)」には、MFCA関連のログが格納される。また、ログタイプ202dとして記憶される「EVENT_DI(14)」には、ディスク関連のログが格納される。
また、ログタイプ202dとして記憶される「EVENT_OTHER(15)」には、他のイベントのログが格納される。また、ログタイプ202dとして記憶される「EVENT_MMC(16)」には、CMのサービスを監視するMMC(Module Management Controller)に関するログが格納される。また、ログタイプ202dとして記憶される「FRU_INFO(18)」には、CMのサービスを監視するFRU(Field-Replaceable Unit))に関するログが格納される。
また、ログタイプ202dとして記憶される「SYSLOG(19)」には、LINUX(登録商標)上で動作するファームウェアとのやり取りを示すログが格納される。また、ログタイプ202dとして記憶される「EVENT_MSG(20)」には、障害を通知する機能に関するログが格納される。また、ログタイプ202dとして記憶される「OTHERS(21)」には、ログファイルには書込まれなかったログが存在することを示すログが格納される。
図2に戻り、CPU300は、記憶制御部301と第1の生成部302と送信部303とを有する。
記憶制御部301は、ログをログ格納域201に記憶させる。また、記憶制御部301は、ログに付与されているユニークなコードを監視することで、特定のログを監視する。
第1の生成部302は、ログフォーマットテーブル202に基づいた順序で、複数のCMが有するCPUの数に基づいて決定されるログの容量の上限値以内まで、ログ格納域201に記憶されるログを格納するログファイルを生成する。
また、各CPUのログの容量の上限値は、「(定期ログの制限値−ログヘッダのサイズ−構成情報のサイズ)/CPUの数」で決定される。ここで、定期ログの制限値が1ログ当たり1.44MBであるものとする。また、ログヘッダのサイズは固定値である。また、構成情報には、ストレージ装置が有するディスクやRAIDに関する情報などが含まれ、ストレージ装置ごとに固定値が設定される。すなわち、上限値は、ストレージ装置ごとに予め決定された値が設定される。なお、この定期ログの制限1.44MBは、ストレージ装置100において1457650バイトで管理されているものとする。
送信部303は、第1の生成部302により生成されたログファイルをマスターCPUであるCPU400へ送信する。
CPU400は、記憶制御部301と第1の生成部302と受信部401と第2の生成部402と配信部403とを有する。なお、ここでは、図2に示したCPU300が有する各部と同様の役割を果たす機能部については、同一符号を付すことにしてその詳細な説明を省略する。
受信部401は、ログファイルを他のCPUであるCPU300それぞれから受信する。
第2の生成部402は、自装置の第1の生成部302により生成されたログファイルと他のCPUであるCPU300それぞれから受信したログファイルとを含んだ全CPUのログファイルを生成する。
例えば、第2の生成部402は、ログフォーマットテーブル202に基づいた順序で、自装置の第1の生成部302により生成されたログファイルと他のCPUであるCPU300それぞれから受信したログファイルとを含んだ全CPUのログファイルを生成する。なお、第2の生成部402により生成されるログファイルを「全CPUのログファイル」と称し、第1の生成部302により生成されるログファイルと区別する。
配信部403は、第2の生成部402により生成された全CPUのログファイルをリモートサポートセンターへ配信する。
[実施例1に係るストレージ装置による処理の処理手順]
次に図4を用いて、実施例1に係るストレージ装置100によるログファイル配信処理の処理手順を説明する。図4は、実施例1に係るストレージ装置によるログファイル配信処理の処理手順を示すフローチャートである。
図4に示すように、マスターCPUであるCPU400は、定期ログ配信時間であると判定された場合(ステップS101、Yes)、ログファイルの取得を他のCPUであるCPU300に要求する(ステップS102)。
他のCPUであるCPU300において、第1の生成部302は、上限値までログをログファイルに格納する(ステップS103)。続いて、送信部303は、ログファイルをマスターCPUであるCPU400に送信する(ステップS104)。また、マスターCPUであるCPU400において、第1の生成部302は、上限値までログをログファイルに格納する(ステップS105)。
続いて、マスターCPUであるCPU400では、受信部401は、他のCPUであるCPU300からログファイルを受信する(ステップS106)。そして、第2の生成部402は、他のCPUであるCPU300から受信したログファイルと、生成したログファイルとを全て含んだ、全CPUのログファイルを生成する(ステップS107)。続いて、配信部403は、リモートサポートセンターへ全CPUのログファイルを配信する(ステップS108)。
[実施例1の効果]
上述してきたように、実施例1に係るストレージ装置100は、ストレージ装置100が有するCPUの数から決定されるログサイズの上限値以内のログファイルを各CPUから取得して、全CPUのログを含んだログファイルを生成する。この結果、実施例1に係るストレージ装置100は、重要なログを失うことを防止することができる。
ところで、ストレージ装置において、定期ログは毎日または、毎週の単位で配信する設定が可能である。この設定した期間内において、各CPUで発生しているログ流量は変動する。また、それぞれのCPUで発生している事象によってログ流量が変わる。
このようなことから、各CPUで均一なサイズの上限値を設定すると、例えば、あるCPUで事象が発生してログサイズが大きくなった場合には、ログが失われる可能性が高くなる。そこで、実施例2では、ストレージ装置において、CPUそれぞれで発生する事象に基づいて上限値をCPUごとに算出する場合を例に説明する。
[実施例2に係るストレージ装置の構成]
実施例2に係るストレージ装置の構成は、各CMが有するCPUの機能構成が一部異なる点を除いて、図1に示した実施例1に係るストレージ装置の構成と同様である。したがって、実施例2では、ストレージ装置100をストレージ装置100aとし、ストレージ装置100aが有する各CMをCM110a〜180aとして説明する。
[実施例2に係るCMの機能構成]
次に、図5を用いて、実施例2に係るCM110aの機能構成について説明する。図5は、実施例2に係るCMの構成を示すブロック図である。図5に示すように、実施例2に係るCM110aは、2つの記憶部500とCPU600とCPU700とを有する。ここで、記憶部500のうち一方は、CPU600用であり、他方は、CPU700用である。
記憶部500は、RAMやSSDなどの半導体メモリ素子であり、ログ格納域201と加点テーブル501とログフォーマットテーブル202とを有する。なお、ここでは、図2に示した各テーブルと同様の情報を記憶するテーブルについては、同一符号を付すことにしてその詳細な説明を省略する。
加点テーブル501は、CPUごとに発生した事象に対応付けて加点された点数の累積値を記憶する。なお、加点テーブル501が記憶する情報のフォーマットは、各CPUにおいて共通である。そして、事象が発生した場合、事象が発生したCPUの加点テーブル501において、事象とCPUとが対応付けて加点される。
図6を用いて、加点テーブルが記憶する情報の一例を説明する。図6は、加点テーブルが記憶する情報の一例を示す図である。図6に示すように、加点テーブル501は、発生した事象として「ディスク関連」、「RAIDグループ関連」、「CA関連」、「MFCA関連」、「CMリブート」のそれぞれに、「CPU」を対応付けて加点された点数の累積値を記憶する。
ここで、加点テーブル501が記憶する「ディスク関連」は、搭載するディスクに関する事象を示す。「RAIDグループ関連」は、ストレージ装置100a内に設定されているRAIDグループに関する事象を示す。
「CA関連」は、ストレージ装置100aの搭載部品であり、ホストとのインターフェースとなるCA(Channel Adapter)に関する事象を示す。「MFCA関連」は、ホストとのインターフェースとなるMFCA(Main Frame Channel Adapter)に関する事象を示す。なお、ストレージ装置がメインフレーム対応ではない場合、この「MFCA関連」は設定されない。「CMリブート」は、ソフトエラー発生により、CM自身がリブートする処理を示す。
図6に示す例では、CM#0のCPU#0において、ディスク関連の事象が発生し、累積値が5点であることを示す。
図5に戻り、CPU600は、記憶制御部601と加点部602と受信部603と変更部604と第1の生成部605と送信部606とを有する。
記憶制御部601は、ログをログ格納域201に記憶させる。また、記憶制御部601は、ログに付与されているユニークなコードを監視することで、特定のログを監視する。記憶制御部601は、特定のログをログ格納域に記憶させた場合、加点部602に事象が発生した旨を通知する。
加点部602は、CPUそれぞれで発生する事象に対して、該事象に対応付けて記録されるログに基づき加点する。図7を用いて、加点部602による事象に対する加点方法の一例を説明する。図7は、事象に対する加点方法の一例を示す図である。
図7に示すように加点部602は、「ディスク関連」の事象に対して、警告レベルである場合には2点を加点し、エラーレベルである場合には5点を加点する。また、加点部602は、「RAIDグループ関連」の事象に対して、警告レベルである場合には2点を加点し、エラーレベルである場合には5点を加点する。
また、加点部602は、「CA関連」の事象に対して、警告レベルである場合には2点を加点し、エラーレベルである場合には4点を加点する。また、加点部602は、「MFCA関連」の事象に対して、警告レベルである場合には2点を加点し、エラーレベルである場合には4点を加点する。
また、加点部602は、「CMリブート」の事象に対して、リブートするCMが有するメインのCPUに10点を加点し、リブートするCMが有するサブのCPUに5点を加点し、マスターCPUに5点を加点する。
次に、図8から図10を用いて、加点部602による加点処理の動作を説明する。図8は、CM#2のCPU#1にディスク関連の事象が発生した場合の加点処理の動作の一例を示す図である。なお、図8に示す例では、CM#2のCPU#1にディスク関連のエラーレベルの事象が発生した場合を説明する。CM#2のCPU#1が有する加点部602は、加点テーブル501の「CM#2CPU#1」に対応する「ディスク関連」にエラーレベルであることを示す「5」を加点する。
図9は、CM#5をリブートさせた場合の加点処理の動作の一例を示す図である。ここで、リブート発生時にはログが大量にとられるので、加点する点数が大きく設定される。図9に示すように、加点テーブル501の「CM#5CPU#0」に対応する「CMリブート」に「10」が加点され、「CM#5CPU#1」に対応する「CMリブート」に「5」が加点される。また、リブートを監視するマスターCPUもリブートするCMの組み込み処理等を行うので、加点テーブル501の「CM#0CPU#0」に対応する「CMリブート」に「5」が加点される。
なお、CM#5をリブートさせた場合、リブートを行うCM#5では加点処理を実行できない。このため、リブートさせた場合の加点処理は、マスターCPUが有する加点部602により実行される。すなわち、CMリブートの事象を検知するのはマスターCPUであるため、リブート時はマスターCPUの加点テーブル501が更新されることになる。
図10は、CM#7のCPU#0にRAIDグループ関連の事象が発生した場合の加点処理の動作の一例を示す図である。なお図10に示す例では、CM#7のCPU#0にRAIDグループ関連の警告レベルの事象が2回発生した場合を説明する。CM#7のCPU#0が有する加点部602は、加点テーブル501の「CM#7CPU#0」に対応する「RAIDグループ関連」に警告レベルであることを示す「2」を2回加点する。この結果、加点テーブル501における「CM#7CPU#0」に対応する「RAIDグループ関連」の累積値が4点となる。
図5に戻り、受信部603は、後述する算出部702により算出された上限値と後述する集計部701により集計された加点テーブルとをマスターCPUであるCPU700から受信する。受信部603は、集計部701により集計された加点テーブルを変更部604に出力する。また、受信部603は、算出部702により算出された上限値を第1の生成部605に出力する。
変更部604は、集計部701により集計された加点テーブルに基づいて、ログフォーマットテーブル202が規定する格納順序を変更する。図11を用いて、加点された結果と事象に対する優先度変更対象となるログタイプとの対応関係の一例を説明する。図11は、事象に対する優先度変更対象となるログタイプの一例を示す図である。
図11に示すように、変更部604は、加点テーブルの「CMリブート」とログタイプの「EVENT_CM(11)」とを対応付ける。また、変更部604は、加点テーブルの「CA関連」とログタイプの「EVENT_CA(12)」とを対応付ける。また、変更部604は、加点テーブルの「MFCA関連」とログタイプの「EVENT_MFCA(13)」とを対応付ける。また、変更部604は、加点テーブルの「ディスク関連」とログタイプの「EVENT_DI(14)」とを対応付ける。
次に、図12を用いて、変更部604によるログフォーマットテーブル202が規定する格納順序の変更処理について説明する。図12は、変更部によるログフォーマットテーブルが規定する格納順序の変更処理の一例を示す図である。
図12中の12aに示すように、加点テーブルには、いずれの事象に対しても加点されていないものとする。また、この場合、ログフォーマットテーブル202に規定される格納順序は、「EVENT_CM(11)」、「EVENT_CA(12)」、「EVENT_MFCA(13)」、「EVENT_DI(14)」の順であるとする。
次に、図12中の12aに示す状態から図12中の12bに示す状態に遷移した場合について説明する。12bに示す状態では、加点テーブルにおける「ディスク関連」の累積値が4点であり、他の事象の累積値が0点である。このため、変更部604は、累積値が最も高い「ディスク関連」に対応するログタイプの「EVENT_DI(14)」の格納順序を繰り上げる。すなわち、変更部604は、ログフォーマットテーブル202に規定される格納順序を、「EVENT_DI(14)」、「EVENT_CM(11)」、「EVENT_CA(12)」、「EVENT_MFCA(13)」の順に変更する。
次に、図12中の12aに示す状態から図12中の12cに示す状態に遷移した場合について説明する。12cに示す状態では、加点テーブルにおける「ディスク関連」の累積値が10点であり、「CA関連」の累積値が4点であり、これら以外の事象の累積値が0点である。このため、変更部604は、累積値が最も高い「ディスク関連」に対応するログタイプの「EVENT_DI(14)」及び「CA関連」に対応するログタイプの「EVENT_CA(12)」の格納順序を累積値の高い順で繰り上げる。すなわち、変更部604は、ログフォーマットテーブル202に規定される格納順序を、「EVENT_DI(14)」、「EVENT_CA(12)」、「EVENT_CM(11)」、「EVENT_MFCA(13)」の順に変更する。
変更部604は、変更結果を第1の生成部605に通知する。なお、変更部604は、変更が無い場合には、ログフォーマットテーブル202に規定される格納順序に変更が無い旨を第1の生成部605に通知する。
第1の生成部605は、ログが格納される順序を規定するログフォーマットに基づいた順序で、後述する算出部702により算出された上限値以内まで、ログ格納域201に記憶されるログを格納するログファイルを生成する。
ここで、第1の生成部605は、変更部604により変更された格納順序で、設定された上限値以内まで、ログ格納域201に記憶されるログを格納するログファイルを生成する。図13を用いて、第1の生成部605により生成されるログファイルの一例を説明する。図13は、第1の生成部により生成されるログファイルの一例を示す図である。なお、図13では、第1の生成部605は、図12中の12bの状態のログファイルを生成する場合を例に説明する。
図13に示すように、第1の生成部605は、「DEGRADE(1)」から「OPERATION(10)」までログフォーマットテーブル202に規定される順序でログを格納する。
続いて、第1の生成部605は、変更部604により変更された順序でログを格納する。すなわち、第1の生成部605は、「EVENT_DI(14)」、「EVENT_CM(11)」、「EVENT_CA(12)」、「EVENT_MFCA(13)」の順でログを格納する。なお、図13中の13aは、算出部702により算出された上限値であり、第1の生成部605は、この上限値までログを格納する。そして、第1の生成部605は、生成したログファイルを送信部606に出力する。
送信部606は、第1の生成部605により生成されたログファイルをマスターCPUであるCPU700へ送信する。
CPU700は、記憶制御部601と加点部602と集計部701と算出部702と送信部703と変更部604と第1の生成部605と受信部704と第2の生成部705と配信部706とを有する。なお、ここでは、図5に示すCPU600が有する各部と同様の役割を果たす機能部については、同一符号を付すことにしてその詳細な説明を省略する。
集計部701は、加点部602により加点された結果を、複数のCMが有するCPUそれぞれから取得して集計する。例えば、集計部701は、他のCPUから取得した加点テーブル501とCPU700が有する加点テーブル501における加点値を抽出し、各CPUに対して初期値を加点して各CPUの合計点数を集計した加点テーブルを生成する。
次に、図14を用いて、初期値に対する加点方法の一例を説明する。図14は、初期値に対する加点方法の一例を示す図である。図14に示すように、集計部701は、他のCPUに対する初期値として1日ごとに1点を加点する。すなわち、定期ログの設定が毎日である場合、集計部701は、初期値として1点を加点し、定期ログの設定が毎週である場合、集計部701は、初期値として7点を加点する。
また、集計部701は、マスターCPUに対する初期値として1日ごとに2点を加点する。すなわち、定期ログの設定が毎日である場合、集計部701は、初期値として2点を加点し、定期ログの設定が毎週である場合、集計部701は、初期値として14点を加点する。
図15を用いて、加点テーブルの集約結果の一例を説明する。図15は、加点テーブルの集約結果の一例を示す図である。なお、図15に示す例では、集計部701は、図8から図10に示した加点テーブルを集計する場合を説明する。
図15に示すように、集計部701は、「CM#0CPU#0」に対応する「CMリブート」から「5」、「CM#5CPU#0」に対応する「CMリブート」から「10」、「CM#7CPU#0」に対応する「RAIDグループ関連」から「4」を抽出する。また、集計部701は、「CM#2CPU#1」に対応する「ディスク関連」から「5」、「CM#5CPU#1」に対応する「CMリブート」から「5」を抽出する。
続いて、集計部701は、各CPUに初期値を設定する。例えば、図15に示すように、マスターCPUである「CM#0CPU#0」に初期値「14」、他のCPUに初期値「7」を設定する。そして、集計部701は、抽出した加点値の累積値に対して初期値を加算し合計値を各CPUそれぞれに集計する。このようにして、集計部701は、各CPUの加点テーブルを集計した加点テーブルを生成する。また、集計部701は、集計結果を送信部703に出力する。
なお、集計部701は、マスターCPUであるCPU700の処理や制御が多くなるので、マスターCPUに対して、初期値を加点して集計するようにしてもよい。例えば、集計部701は、マスターCPUに対して、初期値を10点加点する。
図5に戻り、算出部702は、CPUそれぞれで発生する事象に基づいて、上限値をCPUごとに算出する。例えば、算出部702は、集計部701による集計結果と、複数のCMが有するCPUの数とに基づいて、取得するログの容量の上限値をCPUごとに算出する。
具体的には、算出部702は、「(定期ログの制限値−ログヘッダのサイズ−構成情報のサイズ)×(各CPUの合計値/CPUすべての合計値)」から各CPUのログ容量の上限値を算出する。ここで、定期ログの制限値が1ログ当たり1.44MBであるものとする。また、ログヘッダのサイズは固定値である。また、構成情報には、ストレージ装置が有するディスクやRAIDに関する情報などが含まれ、ストレージ装置ごとに固定値が設定される。
図16を用いて、上限値算出処理の結果の一例を説明する。図16は、上限値算出処理の結果の一例を示す図である。なお、図16に示す例では、算出部702は、図15に示した集計後の加点テーブルを用いて、ログの容量の上限値をCPUごとに算出する場合を説明する。また、この定期ログの制限1.44MBは、ストレージ装置100aにおいて1457650(バイト)で管理されているものとする。また、ログヘッダのサイズは、500(バイト)であり、構成情報のサイズは300000(バイト)であるものとする。
算出部702は、集計後の加点テーブルを用いて、各CPUの合計値を集計しCPUすべての合計値「148」を算出する。そして、算出部702は、例えばCM#0のCPU#0に対するログサイズの上限値を、「(1457650(バイト)−500(バイト)−300000(バイト))×(19(点)/148(点))」から「148553(バイト)」であると算出する。
次に、図17を用いて、ログサイズ変更処理の一例を説明する。図17は、ログサイズ変更処理の一例を示す図である。図17中の17aは、いずれのCPUにも事象が発生していない場合の全CPUのログファイルを示す。また、図17中の17aは、全CPUのログファイルの容量を示し、1.44MBである。また、図17中の17bは、CM#0のCPU#0のログを格納する容量であり、例えば、136135バイトである。
図17中の17dは、CM#0のCPU#0にディスクエラーの事象が発生した場合の全CPUのログファイルを示す。また、図17中の17dは、全CPUのログファイルの容量を示し、1.44MBである。また、図17中の17cは、CM#0のCPU#0のログを格納する容量であり、例えば、177305バイトである。
このように、CM#0のCPU#0にディスクエラーの事象が発生することで、算出部702は、CM#0のCPU#0のログを136135バイトから177305バイトへ増加させる。なお、全CPUのログファイルの容量は変わらず1.44MBのままである。
送信部703は、算出部702により算出された上限値と後述する集計部701により集計された加点テーブルとを他のCPUであるCPU600に送信する。受信部704は、ログファイルを他のCPUであるCPU600それぞれから受信する。
第2の生成部705は、自装置の第1の生成部605により生成されたログファイルと他のCPUであるCPU600それぞれから受信したログファイルとを含んだ全CPUのログファイルをログフォーマットテーブル202に基づいた順序で生成する。なお、第2の生成部705により生成されるログファイルを「全CPUのログファイル」と称し、第1の生成部605により生成されるログファイルと区別する。
配信部706は、第2の生成部705により生成された全CPUのログファイルをリモートサポートセンターへ配信する。
[実施例2に係るストレージ装置による処理動作]
次に図18を用いて、実施例2に係るストレージ装置100aによる処理動作を説明する。図18は、実施例2に係るストレージ装置による処理動作の一例を示す図である。図18に示すように、マスターCPUであるCPU700及び他のCPUであるCPU600では、ログをログ格納域201に格納するログ格納処理を実行する(ステップS201〜ステップS203)。
また、マスターCPUであるCPU700または他のCPUであるCPU600で事象が発生した場合、事象に対して加点処理を行う。図18に示す例では、他のCPUであるCPU600では、加点テーブル501に加点する(ステップS204、ステップS205)。
そして、マスターCPUであるCPU700は、定期ログ配信時間であると判定した場合、CPUそれぞれから加点テーブルを取得する(ステップS206〜ステップS208)。続いて、マスターCPUであるCPU700は、加点テーブルを集計し、各CPUそれぞれのログサイズの上限値を算出する(ステップS209)。
[実施例2に係るストレージ装置による処理の処理手順]
次に図19を用いて、実施例2に係るストレージ装置100aによるログファイル配信処理の処理手順を説明する。図19は、実施例2に係るストレージ装置によるログファイル配信処理の処理手順を示すフローチャートである。
図19に示すように、マスターCPUであるCPU700において、集計部701は、定期ログ配信時間であると判定した場合(ステップS301、Yes)、加点テーブル501の取得を他のCPUに要求する(ステップS302)。
他のCPUであるCPU600において、加点部602は、加点テーブル501をマスターCPU700に送信する(ステップS303)。加点テーブル501をマスターCPU700に送信した後、加点部602は、加点テーブル501をクリアする(ステップS304)。
マスターCPUであるCPU700において、集計部701は、他のCPUから加点テーブル501を受信する(ステップS305)。また、集計部701は、記憶部500から加点テーブル501を読み出す(ステップS306)。そして、加点テーブル501を読み出した後、集計部701は、加点テーブル501をクリアする(ステップS307)。
集計部701は、加点テーブル501及び他のCPUから受信した加点テーブル501を集計する(ステップS308)。なお、集計部701は、集計結果を算出部702に出力する。続いて、算出部702は、集計結果と、演算処理装置の数とに基づいて、取得するログの容量の上限値を算出する(ステップS309)。算出部702は、集計結果と、算出した上限値とを他のCPUに送信する(ステップS310)。また、算出部702は、集計結果と、算出した上限値とを変更部604に出力する。
他のCPUであるCPU600において、変更部604は、集計結果と、上限値とを受信する(ステップS311)。そして、変更部604は、集計結果に基づいて優先度を変更する(ステップS312)。なお、変更部604は、変更した優先度と、上限値とを第1の生成部605に出力する。
第1の生成部605は、上限値までログをログファイルに格納する(ステップS313)。送信部606は、ログファイルをマスターCPU700に送信する(ステップS314)。
また、マスターCPUであるCPU700において、変更部604は、集計結果に基づいて優先度を変更する(ステップS315)。なお、変更部604は、変更した優先度と、上限値とを第1の生成部605に出力する。第1の生成部605は、上限値までログをログファイルに格納する(ステップS316)。
続いて、マスターCPUであるCPU700では、受信部704は、他のCPUであるCPU600からログファイルを受信する(ステップS317)。そして、第2の生成部705は、他のCPUであるCPU600から受信したログファイルと、自装置の第1の生成部605により生成したログファイルとを含んだ、全CPUのログファイルを生成する(ステップS318)。続いて、配信部706は、リモートサポートセンターへ全CPUのログファイルを配信する(ステップS319)。
[実施例2の効果]
上述してきたように、実施例2に係るストレージ装置100aは、CPUそれぞれで発生する事象に基づいて上限値をCPUごとに算出し、ログファイルを生成することができる。このため、あるCPUで事象が発生してログサイズが大きくなった場合でも、有用なログを失うことを防止できる。
また、実施例2に係るストレージ装置100aでは、加点テーブルは、定期ログ配信のログ採取処理開始後に各CPU上でクリアされる。このため、マスターCPUで集計した加点テーブルを各CPUでのログファイル作成時に送信する。そして、各CPUが、マスターCPUから受信した加点テーブルを元に格納順序の変更処理を行う。
例えば、実施例2に係るストレージ装置100aは、ログタイプでEVENT系の、EVENT_CM、EVENT_CA、EVENT_MFCA、EVENT_DIの4種類に関して、加点を踏まえ、格納順序を変更する。この結果、事象発生時にこれらEVENT系のログの数が増大しても、事象によってログ解析に有用となるEVENTのログを優先的に残すことができる。
なお、マスターCPU以外のCPUは、加点テーブルをマスターCPUに送信せずに、加点テーブルの合計値のみをマスターCPUに通知するようにしてもよい。
ところで、本発明は、上述した実施例以外にも、種々の異なる形態にて実施されてよい。そこで、実施例3では、本発明に含まれる他の実施例について説明する。
(システム構成等)
本実施例において説明した各処理のうち自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともできる。あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、制御手順、具体的名称については、特記する場合を除いて任意に変更することができる。
また、図示した記憶部が格納する情報は一例に過ぎず、必ずしも図示のごとく情報が格納される必要はない。また、各種の負荷や使用状況などに応じて、各実施例において説明した各処理の各ステップでの処理の順番を変更してもよい。例えば、図4に示すステップS103の処理とステップS105の処理とは同時に実行されても良い。
また、図示した各構成部は、機能概念的なものであり、必ずしも物理的に図示のごとく構成されていることを要しない。例えば、ストレージ装置100aが有するCPU600及びCPU700では、変更部604と第1の生成部605とが統合されてもよい。さらに、各装置にて行われる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
100 ストレージ装置
200 記憶部
201 ログ格納域
202 ログフォーマットテーブル
300、400 CPU
301 記憶制御部
302 第1の生成部
303 送信部
401 受信部
402 第2の生成部
403 配信部

Claims (5)

  1. 演算処理装置と該演算処理装置のログを記憶する記憶部をそれぞれ有する制御装置を複数備える制御システムにおいて、
    各制御装置の前記記憶部に記憶された前記演算処理装置の複数のログを、前記制御システム内の演算処理装置の総数に基づいて決定されるログの容量の上限値の範囲内で、かつ、優先度に基づいた順序で格納して第1のログファイルを生成する第1の生成部と、
    各演算処理装置における第1のログファイルを複数含んだ第2のログファイルを生成する第2の生成部と、
    該第2のログファイルを外部装置へ配信する配信部と、を有する
    ことを特徴とする制御システム。
  2. 前記演算処理装置それぞれで発生する事象に基づいて、前記上限値を演算処理装置ごとに算出する算出部と、
    算出した上限値を各制御装置内の演算処理装置に通知する通知部と、
    を有することを特徴とする請求項1に記載の制御システム。
  3. 前記演算処理装置は、
    それぞれで発生する事象に対して、該事象に対応付けて記録されるログに基づき加点する加点部と、
    前記加点部により加点された結果を取得して集計する集計部と、を有し、
    前記算出部は、前記集計部による集計結果と、前記制御システム内の演算処理装置の総数とに基づいて、取得するログの容量の上限値を演算処理装置ごとに算出する
    ことを特徴とする請求項2に記載の制御システム。
  4. 前記演算処理装置は、
    前記加点部により加点された結果に基づいて、前記優先度に規定された格納順序を変更する変更部を有し、
    前記第1の生成部は、前記ログの容量の上限値の範囲内で、かつ、前記変更部により変更された格納順序で、前記記憶部に記憶される複数のログを格納して第1のログファイルを生成する
    ことを特徴とする請求項3に記載の制御システム。
  5. 演算処理装置と該演算処理装置のログを記憶する記憶部をそれぞれ有する制御装置を複数備える制御システムが、
    各制御装置の前記記憶部に記憶された前記演算処理装置の複数のログを、前記制御システム内の演算処理装置の総数に基づいて決定されるログの容量の上限値の範囲内で、かつ、優先度に基づいた順序で格納して第1のログファイルを生成し、
    各演算処理装置における第1のログファイルを複数含んだ第2のログファイルを生成し、
    該第2のログファイルを外部装置へ配信する
    各処理を含んだことを特徴とするログ配信方法。
JP2012015692A 2012-01-27 2012-01-27 制御システム、演算処理装置及びログ配信方法 Expired - Fee Related JP5825120B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012015692A JP5825120B2 (ja) 2012-01-27 2012-01-27 制御システム、演算処理装置及びログ配信方法
US13/673,096 US20130198310A1 (en) 2012-01-27 2012-11-09 Control system and log delivery method
EP12193382.4A EP2620874A1 (en) 2012-01-27 2012-11-20 Multiprocessor system and log delivery method
KR1020120137284A KR20130087357A (ko) 2012-01-27 2012-11-29 제어 시스템 및 로그 배신 방법
CN2012105063050A CN103226447A (zh) 2012-01-27 2012-11-30 控制系统和日志递送方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012015692A JP5825120B2 (ja) 2012-01-27 2012-01-27 制御システム、演算処理装置及びログ配信方法

Publications (2)

Publication Number Publication Date
JP2013156764A true JP2013156764A (ja) 2013-08-15
JP5825120B2 JP5825120B2 (ja) 2015-12-02

Family

ID=47522260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012015692A Expired - Fee Related JP5825120B2 (ja) 2012-01-27 2012-01-27 制御システム、演算処理装置及びログ配信方法

Country Status (5)

Country Link
US (1) US20130198310A1 (ja)
EP (1) EP2620874A1 (ja)
JP (1) JP5825120B2 (ja)
KR (1) KR20130087357A (ja)
CN (1) CN103226447A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013128789A1 (ja) * 2012-03-02 2013-09-06 日本電気株式会社 キャパシティ管理支援装置、キャパシティ管理方法およびプログラム
CN103838659B (zh) * 2014-02-17 2017-09-01 大唐移动通信设备有限公司 一种系统日志的控制方法和装置
US10877834B2 (en) * 2018-11-14 2020-12-29 Arista Networks, Inc. Logging reboots of network devices
CN113721746A (zh) * 2021-08-04 2021-11-30 浙江大华技术股份有限公司 一种日志的存储方法及装置
US12045468B2 (en) 2021-11-12 2024-07-23 Samsung Electronics Co., Ltd. Storage devices configured to obtain data of external devices for debugging

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06324916A (ja) * 1993-05-10 1994-11-25 Hokuriku Nippon Denki Software Kk 障害情報ロギング方式
JP2001084195A (ja) * 1999-09-10 2001-03-30 Hitachi Ltd イベント制御手段を備えたネットワーク管理システム
US20090105982A1 (en) * 2007-10-19 2009-04-23 Oracle International Corporation Diagnosability system: flood control
JP2009151685A (ja) * 2007-12-21 2009-07-09 Fujitsu Ltd ディスクアレイ装置管理システム、ディスクアレイ装置、ディスクアレイ装置の制御方法および管理サーバ
US20090319621A1 (en) * 2008-06-24 2009-12-24 Barsness Eric L Message Flow Control in a Multi-Node Computer System
JP2010152469A (ja) * 2008-12-24 2010-07-08 Hitachi Electronics Service Co Ltd ログ収集処理監視システム
JP2011158966A (ja) * 2010-01-29 2011-08-18 Fujitsu Frontech Ltd 情報処理装置、情報処理方法、および情報処理プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5847972A (en) * 1993-09-24 1998-12-08 Eick; Stephen Gregory Method and apparatus for graphically analzying a log-file
GB0308137D0 (en) * 2003-04-09 2003-05-14 Ibm Method and apparatus for data logging
CN100361454C (zh) * 2005-04-27 2008-01-09 华为技术有限公司 一种网络管理服务器从网元设备获取日志信息的方法
US20070112970A1 (en) * 2005-11-15 2007-05-17 Fujitsu Limited Data communication server, data communication method, and program
US8381219B2 (en) * 2007-02-02 2013-02-19 International Business Machines Corporation Monitoring performance on workload scheduling systems
US8452761B2 (en) * 2007-10-24 2013-05-28 International Business Machines Corporation Apparatus for and method of implementing system log message ranking via system behavior analysis
JP5247230B2 (ja) * 2008-05-14 2013-07-24 キヤノン株式会社 画像形成装置及びその制御方法、並びにプログラム
US7542985B1 (en) * 2008-06-12 2009-06-02 International Business Machines Corporation System and method for log retrieval priority
US8453017B2 (en) * 2008-08-27 2013-05-28 Kyocera Document Solutions Inc. Electronic device saving selected error information and an error management system including such a device
US8037033B2 (en) * 2008-09-22 2011-10-11 Microsoft Corporation Log manager for aggregating data
US9384112B2 (en) * 2010-07-01 2016-07-05 Logrhythm, Inc. Log collection, structuring and processing

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06324916A (ja) * 1993-05-10 1994-11-25 Hokuriku Nippon Denki Software Kk 障害情報ロギング方式
JP2001084195A (ja) * 1999-09-10 2001-03-30 Hitachi Ltd イベント制御手段を備えたネットワーク管理システム
US20090105982A1 (en) * 2007-10-19 2009-04-23 Oracle International Corporation Diagnosability system: flood control
JP2009151685A (ja) * 2007-12-21 2009-07-09 Fujitsu Ltd ディスクアレイ装置管理システム、ディスクアレイ装置、ディスクアレイ装置の制御方法および管理サーバ
US20090319621A1 (en) * 2008-06-24 2009-12-24 Barsness Eric L Message Flow Control in a Multi-Node Computer System
JP2010152469A (ja) * 2008-12-24 2010-07-08 Hitachi Electronics Service Co Ltd ログ収集処理監視システム
JP2011158966A (ja) * 2010-01-29 2011-08-18 Fujitsu Frontech Ltd 情報処理装置、情報処理方法、および情報処理プログラム

Also Published As

Publication number Publication date
JP5825120B2 (ja) 2015-12-02
KR20130087357A (ko) 2013-08-06
EP2620874A1 (en) 2013-07-31
CN103226447A (zh) 2013-07-31
US20130198310A1 (en) 2013-08-01

Similar Documents

Publication Publication Date Title
JP5825120B2 (ja) 制御システム、演算処理装置及びログ配信方法
US8645769B2 (en) Operation management apparatus, operation management method, and program storage medium
JP4506520B2 (ja) 管理サーバ、メッセージの抽出方法、及び、プログラム
WO2012060824A1 (en) Solid-state disk (ssd) management
CN103201724A (zh) 在高可用性虚拟机环境中提供高可用性应用程序
US9747156B2 (en) Management system, plan generation method, plan generation program
JP2004206495A (ja) 管理システム、管理計算機、管理方法及びプログラム
CN107003926B (zh) 故障信息提供服务器、故障信息提供方法
US20240020017A1 (en) Monitoring method and apparatus for electronic device, and electronic device
JP6595861B2 (ja) 情報処理装置、ログ取得方法およびログ取得プログラム
JP2010250854A (ja) データベースの分散ロードのためのシステム、方法およびソフトウェア
US20170212815A1 (en) Virtualization substrate management device, virtualization substrate management system, virtualization substrate management method, and recording medium for recording virtualization substrate management program
CN112631866A (zh) 服务器硬件状态监控方法、装置、电子设备及介质
CN110795322A (zh) 服务监控方法、装置、计算机设备及存储介质
JP6040894B2 (ja) ログ生成装置、及びログ生成方法
CN102541722A (zh) 一种监控服务器内存的方法以及服务器内存监控系统
US9164825B2 (en) Computing unit, method of managing computing unit, and computing unit management program
CN103164171A (zh) 存储装置和命令执行控制方法
US20100083034A1 (en) Information processing apparatus and configuration control method
JP2014513344A (ja) ソフトウェア・オブジェクトをバックグラウンドで移動させる方法及び装置
CN113900855A (zh) 一种交换机异常状态的主动热启动方法、系统及装置
JP2010009258A (ja) ソフトウエアの異常検出装置
CN108874923B (zh) 虚拟物品分发方法、服务器及计算机可读存储介质
CN102436397A (zh) 一种基于windows服务控制器的系统自动运行方法
US20070130564A1 (en) Storage performance monitoring apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150623

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150928

R150 Certificate of patent or registration of utility model

Ref document number: 5825120

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees