WO2010032701A1 - 運用管理装置、運用管理方法、および運用管理プログラム - Google Patents

運用管理装置、運用管理方法、および運用管理プログラム Download PDF

Info

Publication number
WO2010032701A1
WO2010032701A1 PCT/JP2009/065990 JP2009065990W WO2010032701A1 WO 2010032701 A1 WO2010032701 A1 WO 2010032701A1 JP 2009065990 W JP2009065990 W JP 2009065990W WO 2010032701 A1 WO2010032701 A1 WO 2010032701A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
failure
performance
performance information
abnormality
Prior art date
Application number
PCT/JP2009/065990
Other languages
English (en)
French (fr)
Inventor
清志 加藤
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2010529747A priority Critical patent/JP5375829B2/ja
Priority to EP09814546.9A priority patent/EP2330510B1/en
Priority to US13/003,793 priority patent/US8700953B2/en
Priority to CN200980127693.8A priority patent/CN102099795B/zh
Publication of WO2010032701A1 publication Critical patent/WO2010032701A1/ja
Priority to US14/188,190 priority patent/US9507687B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0706Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
    • G06F11/0709Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment in a distributed system consisting of a plurality of standalone computer nodes, e.g. clusters, client-server systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0751Error or fault detection not based on redundancy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/0631Management of faults, events, alarms or notifications using root cause analysis; using analysis of correlation between notifications, alarms or events based on decision criteria, e.g. hierarchy, tree or time analysis
    • H04L41/064Management of faults, events, alarms or notifications using root cause analysis; using analysis of correlation between notifications, alarms or events based on decision criteria, e.g. hierarchy, tree or time analysis involving time analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/50Network service management, e.g. ensuring proper service fulfilment according to agreements
    • H04L41/5003Managing SLA; Interaction between SLA and QoS
    • H04L41/5009Determining service level performance parameters or violations of service level contracts, e.g. violations of agreed response time or mean time between failures [MTBF]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3438Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment monitoring of user actions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • G06F11/3495Performance evaluation by tracing or monitoring for systems

Definitions

  • the present invention relates to the operation of information and communication services such as web services and business services, and more particularly to the detection of the occurrence of a failure in the service and the identification of the cause.
  • an operation management device that detects the occurrence of a failure and identifies the cause in the operation of an information communication service such as a web service or a business service.
  • Patent Document 1 describes a technique of periodically measuring a response time of a web server or the like and notifying an administrator if the response time value does not satisfy a compensation value.
  • Patent Document 2 describes a technique for determining the similarity of changes between a plurality of different types of parameters such as fuel flow rate and vehicle body speed.
  • Patent Document 3 describes a technique of calculating a distribution moment of dissimilarity when a plurality of direction data is modeled, and determining that it is abnormal when it exceeds a threshold value.
  • Patent Document 4 describes a technique in which analysis information obtained by analyzing a log of a monitoring target computer is searched for a pattern similar to past analysis information, thereby predicting the occurrence of a failure.
  • Patent Document 5 describes a technique for displaying a state history of plant equipment that changes in time series in an easy-to-understand manner (by color coding or the like).
  • Patent Document 6 describes a failure information display device that displays the location and order of failures so that they can be visually recognized easily.
  • the strength of correlation between performance information is calculated based on the degree of change in performance information in order to appropriately detect the above-described performance degradation failure. It is possible to appropriately determine whether changes in information according to the passage of time are similar.
  • Patent Documents 1, 3 and 5 do not describe a technique that can easily present the location of the failure and its cause. Therefore, even if these documents are combined, it is not possible to obtain an operation management apparatus that easily presents the location and cause of a failure to an inexperienced administrator.
  • the purpose of the present invention is to provide an operation management that makes it possible to present an easy-to-understand location and cause of a failure even to an administrator who has little experience and does not accurately understand the configuration and behavior of the target system.
  • An apparatus, an operation management method, and an operation management program are provided.
  • the operation management apparatus obtains performance information for each of a plurality of types of performance items from one or more managed apparatuses constituting the system, and operates and manages the managed apparatus.
  • the management device has the first performance information indicating the time series change of the performance information related to at least the first element and the performance information related to the second element.
  • Information collecting means for collecting second performance information indicating a series change
  • correlation model generating means for deriving a correlation function between the first and second performance information and generating a correlation model based on the correlation function
  • a correlation change analysis means for determining whether or not the current first and second performance information acquired by the information collection means satisfies the relationship indicated by the correlation function within a certain error range, and a correlation change analysis
  • the stage determines that the first and second performance information does not satisfy the relationship indicated by the correlation function, the stage has failure period extracting means for extracting the period in the state as the failure period It is characterized by.
  • the operation management method obtains performance information for each of a plurality of types of performance items from one or more managed devices constituting the system, and operates and manages the managed devices.
  • the performance item or the managed device is an element
  • the first performance information indicating the time series change of the performance information related to at least the first element from the element and the performance information related to the second element
  • Current performance information is collected by collecting second performance information indicating a series change, deriving a correlation function between the first and second performance information, generating a correlation model based on the correlation function, It is determined whether or not the first and second performance information satisfy the relationship indicated by the correlation function within a certain error range, and the relationship indicated by the first and second performance information is indicated by the correlation function. In a state that does not meet If it is determined that that, and extracts a period which is the state as a failure period.
  • an operation management program obtains performance information for each of a plurality of types of performance items from one or a plurality of managed devices constituting the system, and operates and manages the managed device.
  • the performance item or managed device is an element in the computer that controls the management apparatus
  • the first performance information and the performance information related to the second element indicate a time-series change in performance information related to at least the first element from the element.
  • the procedure for determining whether the current first and second performance information acquired by the information collecting means satisfies the relationship indicated by the correlation function within a certain error range and the first and second characteristics Information when it is determined that the state does not satisfy the relationships shown by the correlation function characterized in that to execute a function of extracting a period which is the state as a failure period.
  • the present invention is configured to generate the correlation model from the performance information as described above and detect the period out of the correlation model as the failure period, it appropriately detects the occurrence of the failure, and further It becomes easy to identify the factors. As a result, the location of the failure and its cause can be presented to the administrator in an easy-to-understand manner.
  • FIG. 10 is a graph showing an example of an abnormality degree distribution calculated by an abnormality degree change information calculating unit and an abnormality degree distribution information calculating unit in the operation management apparatus (according to the fourth embodiment) shown in FIG.
  • FIG. 9 shows an example of a display screen presented by the manager interaction means to the manager in the operation management apparatus (according to the fourth embodiment) shown in FIG.
  • the operation management apparatus 100 acquires performance information for each of a plurality of types of performance items from one or more managed apparatuses (service execution means 101) constituting the system, and manages the managed apparatus.
  • a first performance information indicating a time-series change of performance information related to at least the first element from the element (service execution unit 101) and the first performance information and the first
  • a correlation model generation unit 107 for generating a correlation model based on the correlation function, and the current first and second performance information acquired by the information collection unit 103 are correlated.
  • Correlation change analysis means 109 for determining whether or not the relationship indicated by (1) is satisfied within a certain error range, and the correlation change analysis means 109 is a relationship in which the first and second performance information is indicated by a correlation function.
  • the failure period extracting unit 110 extracts the period in the state as the failure period.
  • the operation management apparatus 100 calculates statistical information about the degree of abnormality, which is the degree to which the first and second performance information deviates from the conversion function, during the failure period extracted by the failure period extraction unit 110 as abnormality degree change information.
  • a degree-of-abnormality change information calculation unit 111 calculates statistical information about the degree of abnormality, which is the degree to which the first and second performance information deviates from the conversion function, during the failure period extracted by the failure period extraction unit 110 as abnormality degree change information.
  • the operation management apparatus 100 classifies the performance information into a plurality of types and stores the performance classification information storage means 112 that stores the performance information as performance classification information, and the failure basis extraction from the performance classification information stored in the performance classification information storage means 112.
  • the degree-of-abnormality distribution information for calculating the degree-of-abnormality distribution information indicating the degree-of-abnormality distribution for each element of the performance information by extracting the performance information and the degree of abnormality included in the correlation changed within the failure period extracted by the means 110 And calculating means 113.
  • the embodiment of the present invention appropriately detects the occurrence of a failure, easily identifies the cause of the failure, and makes it easy for the administrator to identify the location of the failure and its cause. It is possible to present. Hereinafter, this will be described in more detail.
  • FIG. 1 is an explanatory diagram showing a configuration of an operation management apparatus 100 according to the first embodiment of the present invention.
  • the operation management apparatus 100 actually includes a control unit 114 that is a main body that executes a computer program including a CPU, a RAM, an OS, and the like.
  • the control unit 114 is composed of a CPU, and by causing the CPU to execute a program, on the software, the service execution unit 101, the information collection unit 103, the failure analysis unit 104, the administrator interaction unit 105, the countermeasure execution unit 106, the correlation A model generation unit 107 and a correlation change analysis unit 109 are realized.
  • the performance information storage means 102 and the correlation model storage means 108 are realized by a nonvolatile storage means such as a disk device provided in the operation management apparatus 100.
  • the performance information storage unit 102 and the correlation model storage unit 108 are also shown in the control unit 114 for easy understanding.
  • the control unit 114 includes an abnormality degree analysis unit 115 described later.
  • achieved on software was shown in figure, it is not restricted to this, You may implement
  • the service execution means 101 provides information communication services such as WEB services and business services.
  • the service execution means 101 may be singular or plural, and may be configured by a computer that is physically different from other elements of the operation management apparatus 100, or may be configured by the same computer.
  • the performance information storage unit 102 stores the performance information of each element of the service execution unit 101.
  • the information collecting unit 103 detects and outputs the performance information of the service execution unit 101 and an operation state such as an error message, and stores the performance information included in the operation state in the performance information storage unit 102.
  • the failure analysis unit 104 receives the outputs from the information collection unit 103 and the abnormality level analysis unit 115, performs failure analysis, and outputs the result to the administrator dialogue unit 105.
  • the administrator interaction unit 105 receives the result of the failure analysis output from the failure analysis unit 104, presents it to the administrator, and receives an input from the administrator.
  • the countermeasure execution unit 106 executes a process for handling a failure on the service execution unit 101 in accordance with an instruction from the administrator dialogue unit 105.
  • the correlation model generation unit 107 extracts the performance information for a certain period from the performance information storage unit 102, and derives a time series conversion function of the values of any two performance information values to thereby determine the overall operating state of the service execution unit 101. Generate a correlation model of The correlation model storage unit 108 stores the correlation model generated by the correlation model generation unit 107.
  • the correlation change analysis unit 109 receives newly detected performance information from the information collection unit 103, and the performance value included in the performance information is converted between the pieces of performance information of the correlation model stored in the correlation model storage unit 108. Analyzes whether the relationship indicated by the function is satisfied within a certain error range, and outputs the result.
  • FIG. 1 An operation management apparatus not equipped with the abnormality degree analysis unit 115 in the embodiment of the present invention is assumed as the comparative example.
  • the failure analysis unit 104 receives the outputs from the information collection unit 103 and the correlation change analysis unit 109, performs failure analysis, The result is output to the manager interaction means 105.
  • the administrator interaction unit 105 receives the result of the failure analysis output from the failure analysis unit 104, presents it to the administrator, and receives an input from the administrator.
  • the countermeasure execution unit 106 executes a process for handling a failure on the service execution unit 101 in accordance with an instruction from the administrator dialogue unit 105.
  • the information collection unit 103 detects the operating state of the service execution unit 101 and stores the detected information as performance information in the performance information storage unit 102. For example, when the WEB service is being executed by the service execution unit 101, the information collection unit 103 uses the CPU usage rate and the remaining memory capacity of each server that provides the WEB service as performance information of the service execution unit 101 for a certain period of time. Detect at intervals.
  • FIG. 15 is an explanatory diagram showing an example of the performance information 511 detected and stored by the information collecting unit 103 shown in FIG.
  • the performance information 511 acquired by the information collecting unit 103 includes, for example, “A.CPU”, “A.MEM”, and “B.CPU” as shown in FIG.
  • the item “A.CPU” indicates the value of the CPU usage rate of one server (service execution unit 101), and the value of 17:25 on October 5, 2007 is the value. 12.
  • values such as 15, 34, 63 are detected from 17:26 at intervals of 1 minute.
  • “A.MEM” detects the value of the remaining amount of memory of the same server
  • B.CPU detects the value of the CPU usage rate of another server at the same time.
  • the failure analysis means 104 performs failure analysis by a predetermined method.
  • the failure analysis unit 104 may detect the performance detected by the information collection unit 103, such as presenting a warning message to the administrator if the CPU usage (use?) Rate is equal to or greater than a certain value.
  • the failure analysis is performed by determining whether or not the load on a specific server (service execution unit 101) is high according to a determination condition such as a threshold value given in advance from the value of information.
  • the administrator interaction unit 105 presents the result of the failure analysis analyzed by the failure analysis unit 104 to the administrator, and when the administrator inputs an instruction for some countermeasure, the service execution unit 106 via the countermeasure execution unit 106
  • the coping command is executed on 101.
  • the administrator knows that the CPU load is high, and inputs a handling command for reducing the workload to the handling execution means 106 or a handling command for changing the configuration for load balancing.
  • a measure such as input to the execution means 106 can be performed.
  • the correlation model generation means 107 can detect a performance abnormality more accurately in such failure analysis.
  • the correlation model generation unit 107 creates a correlation model by deriving a conversion function between each piece of performance information. Accumulate in the accumulation means 108.
  • FIG. 16 is an explanatory diagram showing an example of the correlation model 521 created by the correlation model generation means 107.
  • “ ⁇ 0.6” and “100” are determined as the values of ⁇ and ⁇ of the conversion function, respectively, and the conversion function Is compared with the time series of the actual values of the performance information to be output, and the weight “0.88” of the conversion function is calculated from the conversion error that is the difference.
  • the correlation model generation unit 107 derives a conversion function between any two pieces of performance information, extracts a function having a constant weight as an effective correlation, and the entire service execution unit 101 as shown in FIG. A correlation model 521 of a typical operating state is generated.
  • the present invention is not limited to this example, and the conversion function derived by the correlation model generation unit 107 is an arbitrary one. What is necessary is just to convert the time series of two performance information values.
  • a known statistical method can be used for the calculation for regressing to such an expression.
  • the correlation change analysis unit 109 analyzes whether the performance information newly acquired from the information collection unit 103 matches the correlation shown in the correlation model generated by the correlation model generation unit 107. For example, when the correlation model generation unit 109 obtains the performance information 511 of the service execution unit 101 at the time of “2007/11/07 8:30” in the bottom row in the performance information 511 shown in FIG.
  • the conversion function described in the correlation model 521 shown in FIG. 16 is sequentially searched, and the conversion value calculated by using the conversion function from the performance information of the service execution unit 101 as the input and the performance information as the output are newly acquired.
  • the value is within a certain conversion error range, it is determined that the correlation is maintained, and when the value exceeds the conversion error range, it is determined that the correlation is broken.
  • Correlation change in the comparative example The means 109 repeats the above-described processing for all the conversion functions of the service execution means 101, and after determining the presence or absence of correlation change of all newly acquired performance information, Correlation change information including abnormality degree information indicating the degree of correlation change and abnormal element information indicating elements related to the correlation change is created and output to the failure analysis unit 104.
  • the failure analysis unit 104 receives this correlation change information, and presents it to the administrator as a possibility of failure via the administrator interaction unit 105 when the changed abnormality degree exceeds a predetermined value.
  • the administrator interaction means 105 in the operation management apparatus presents a display screen 541 as shown in FIG. 17 to the administrator.
  • the display screen 541 includes a correlation destruction number 541a indicating the degree of abnormality, a correlation diagram 541b indicating the abnormality location, a list 541c of elements having a large degree of abnormality, and the like. In this way, for example, it is possible to present to the administrator that there is a possibility of failure in the element “C.CPU” having a high degree of abnormality.
  • a correlation model is generated from the normal performance information with no failure, and the ratio of the detected performance information to the normal correlation model is calculated.
  • the occurrence of performance anomalies such as response deterioration is detected and the location is specified.
  • the presented information is information of an element (service execution unit 101) whose behavior is different from that of a normal time, and which element (service execution unit 101) is actually the cause
  • the administrator has to perform work to investigate the cause from this difference in behavior.
  • the administrator estimates the cause factor (service execution unit 101) from the collapse of the correlation after understanding the characteristics of the actually operating system. There was a need to do. Especially in a large-scale system such as a large-scale system that has many components and a complex behavior, the amount of knowledge required by the administrator becomes enormous, and there is a risk of erroneous handling due to lack of knowledge.
  • the first embodiment according to the present invention employs a configuration in which the control unit 114 is equipped with an abnormality degree analysis unit 115 as shown in FIG.
  • the abnormality level analysis unit 115 includes a failure period extraction unit 110, an abnormality level change information calculation unit 111, a performance classification information accumulation unit 112, and an abnormality level distribution information calculation unit 113.
  • the performance classification information accumulating unit 112 is realized by a nonvolatile storage unit such as a disk device, which is provided in the operation management apparatus 100 in advance.
  • the failure period extracting unit 110, the abnormality degree change information calculating unit 111, and the abnormality degree distribution information calculating unit 113 are realized on software by causing the CPU constituting the control unit 114 to execute a computer program. Note that the failure period extraction unit 110, the abnormality degree change information calculation unit 111, and the abnormality degree distribution information calculation unit 113 are realized on software, but the present invention is not limited to this, and these are constructed by a hardware configuration. It may be.
  • the failure period extraction unit 110 receives the correlation change information from the correlation change analysis unit 109, and extracts the failure period from the time series change of the degree of abnormality based on a predetermined threshold.
  • the failure period extraction unit 110 sets the start of the failure period as a time point when the abnormality level that can occur during normal operation changes to an abnormality level that can be determined as a failure, and ends the failure period as an abnormality level that can occur during normal operation. Is used for a certain period of time, the correlation change information received from the correlation change analysis means 109 is used to extract the failure period from the time series change of the degree of abnormality based on a predetermined threshold.
  • the abnormality level change information calculation unit 111 receives information on the failure period from the failure period extraction unit 110, and calculates abnormality level change information including statistical information such as the total degree of abnormality and maximum, minimum, and average values within the failure period. .
  • the performance classification information storage unit 112 stores performance classification information for classifying the performance information collected from the service execution unit 101 into a plurality of groups.
  • the abnormality degree distribution information calculation unit 113 receives the performance classification information from the performance classification information storage unit 112, extracts the performance information included in the correlation that has changed within the failure period and the degree of abnormality, and performs an abnormality for each group of the performance information. Abnormality distribution information indicating the distribution of degrees is calculated.
  • the failure analysis unit 104 includes, in addition to the information from the information collection unit 103, the abnormality degree change information from the abnormality degree change information calculation unit 111 and the abnormality degree distribution.
  • the abnormality distribution information from the information calculation unit 113 is received, and the failure of the service execution unit 101 is analyzed based on the information.
  • the administrator interaction unit 105 presents the abnormality level change information and the abnormality level distribution information for each failure period to the administrator.
  • FIG. 2 is a flowchart for explaining the operation of the correlation change analysis in the operation management apparatus 100 according to the first embodiment of the present invention shown in FIG.
  • the correlation model generation unit 107 Based on the performance information collected from the service execution unit 101 by the information collection unit 103, the correlation model generation unit 107 generates a correlation model (step S611). Further, when the information collection unit 103 collects performance information during operation, the correlation change analysis unit 109 analyzes whether or not the performance information matches the correlation shown in the correlation model, and detects an abnormality from the change in the correlation. The degree is calculated (step S612).
  • the operation of the operation management apparatus 100 according to the first embodiment of the present invention up to the above steps is the same as that of the comparative example described above. Next, a characteristic operation in the operation management apparatus 100 according to the first embodiment of the present invention will be described.
  • the failure period extraction unit 110 extracts a failure period from the time series of the degree of abnormality received from the correlation change analysis unit 109 (step S613).
  • the failure period extraction unit 110 extracts the failure period 1 and the failure period 2 from the graph 171a showing the time series change of the degree of abnormality. More specifically, the failure period extraction unit 110 uses two threshold values, a normal threshold value V1 indicating a boundary at which the degree of abnormality can be regarded as normal, and a failure threshold value V2 indicating a boundary at which the degree of abnormality indicates a failure.
  • the failure period 1 starts from the time when the degree of abnormality less than the normal threshold V1 changes to the degree of abnormality (correlation destruction) V3 greater than or equal to the failure threshold V2, and then ends when the degree of abnormality continues below the normal threshold V1 for a certain period , 2 are extracted.
  • the abnormality degree change information calculation unit 111 includes the failure periods 1 and 2 in the failure periods 1 and 2 extracted by the failure period extraction unit 110.
  • Abnormality degree change information is calculated (step S615), and the abnormality degree distribution information calculation unit 113 calculates distribution information of influence elements (service execution unit 101) in the failure periods 1 and 2 extracted by the failure period extraction unit 110. (Step S616).
  • Step S616 operations performed by the abnormality degree change information calculation unit 111 and the abnormality degree distribution information calculation unit 113 will be described in detail.
  • the performance classification information storage unit 112 stores the performance classification information 131 and a relationship diagram 161 for classifying the performance information of each server (service execution unit 101).
  • the performance classification information 131 and the performance classification information 131 illustrated in FIG. 3 are examples, and are not limited thereto. Various changes are made depending on the system that provides the service.
  • the seven servers “A” to “G” (service execution means 101) are servers of “Web (Web server)” as in the configuration of a general Web three-tier system. , “AP (application)” server and “DB (database)” server.
  • the performance classification information 131 the performance information of each server (service execution means 101) is classified into three groups according to the group classification classified in the relationship diagram 161.
  • the “Web” group (service execution unit 101) includes performance information “A. *”, “B. *”, and “C. *”.
  • “A. *” indicates all performance information of the server A (service execution unit 101) of the Web group.
  • “B. *” indicates all performance information of the server B (service execution unit 101) of the Web group.
  • “C. *” indicates all performance information of the server C (service execution unit 101) of the Web group.
  • the “AP” server group includes performance information “D. *” and “E. *”.
  • “D. *” indicates all performance information of the server D (service execution unit 101) of the AP group.
  • “E. *” indicates all performance information of the server E (service execution unit 101) of the AP group.
  • the “DB” server group includes performance information “F. *” and “G. *”.
  • “F. *” indicates all performance information of the server F (service execution unit 101) of the DB group.
  • “G. *” indicates all performance information of the server G (service execution unit 101) of the DB group.
  • the abnormality degree distribution information calculation unit 113 displays the performance information related to the correlation change in the failure periods 1 and 2 extracted by the failure period extraction unit 110 as a group of servers A to G. 4 and the distribution information of the degree of abnormality shown in the lower part of FIG.
  • a stacked graph 171b is generated for each failure period 1 and 2 and showing the degree of abnormality distribution of the partial elements in the failure periods 1 and 2.
  • the abnormality degree distribution information calculating unit 113 uses the majority of the correlation changes related to the “DB” group as the abnormality degree distribution information of the partial elements in the failure period 1, and then the “Web” group.
  • Abnormality distribution information is generated in which there are many correlation changes related to “AP” and there are few correlation changes related to the “AP” group.
  • the abnormality degree distribution information calculating means 113 has a correlation change regarding the “Web” group as the abnormality degree distribution information of the partial elements in the failure period 2, and a correlation change regarding the “AP” group and the “DB” group. Create a degree of anomaly distribution information.
  • the abnormality degree change information calculation unit 111 receives information from the failure period extraction unit 110 and extracts all elements in the failure periods 1 and 2 extracted by the failure period extraction unit 110.
  • the degree of abnormality of the “Web” group, “AP” group and “DB” group) is determined based on the statistical value, and the degree of abnormality of all elements in the failure periods 1 and 2 is calculated.
  • the width of the failure periods 1 and 2 handled by the abnormality degree change information calculation unit 111 and the abnormality degree distribution information calculation unit 113 is determined by the failure periods 1 and 2 extracted by the failure period extraction unit 110 based on the graph 171a.
  • the abnormality degree change information calculating unit 111 and the abnormality degree distribution information calculating unit 113 are determined.
  • the failure analysis means 104 receives the abnormality degree change information calculated by the abnormality degree change information calculation means 111 and the abnormality degree distribution information calculated by the abnormality degree distribution information calculation means 113, and based on these information, the service execution means 101 Are analyzed, and the analysis result is output to the manager interaction means 105.
  • the manager interaction unit 105 receives the analysis result of the failure analysis unit 104 and presents the analysis result to the manager (step S617).
  • FIG. 5 shows an example of the display screen 142 presented to the manager by the manager dialogue means 105.
  • the administrator interaction unit 105 displays the failure period extraction unit 110 on the abnormality degree graph 142 a that is a time series of the degree of abnormality output from the correlation change analysis unit 109 on the display screen 142.
  • the extracted failure period 1 to failure period 3 are displayed.
  • the administrator dialogue means 105 has the same time series as the abnormality degree graph 142a and the abnormality in each failure period 1 to 3 calculated by the abnormality degree distribution information calculation means 113.
  • the degree distribution 142b is displayed.
  • the time series change abnormality degree graph is not the graph shown in FIG. 4 but an abnormality degree graph 142a as shown in the upper part of FIG.
  • the failures in each failure period 1 to 3 are continuous with the same abnormality degree and period.
  • the failure in period 3 is shown with a similar waveform. Therefore, the failure analysis unit 104 analyzes the failure by directly outputting the result analyzed by the correlation change analysis unit 109 to the failure analysis unit 104 as in the comparative example, and the abnormality degree graph 142a shown in the upper part of FIG.
  • the administrator When the failure status is displayed to the administrator only, the administrator understands the failure in the failure period 1 to 3 as a series of failures, or the failure in the failure period 2 is a failure in the other failure periods 1 and 3 There is a high possibility that it is impossible to grasp an accurate failure by predicting a different state.
  • the failure period extracting unit 110, the abnormality degree change information calculating unit 111, and the abnormality degree distribution information calculating unit 113 are included.
  • the abnormality degree change information calculated by the abnormality degree change information calculation unit 111 and the abnormality degree distribution information calculated by the abnormality degree distribution information calculation unit 113 are received, and the operation state of the service execution unit 101 is analyzed based on the information. Then, the analysis result is transferred to the manager dialogue means 105. Therefore, referring to the abnormality degree distribution 142b shown in the lower part of FIG. 5, the abnormality degree change information calculated by the abnormality degree change information calculating unit 111 and the abnormality degree distribution information calculating unit 113 are calculated in the abnormality degree distribution 142a.
  • the administrator can generate a failure related to the “WEB” group in the failure period 2 and 3 after a failure related to the “DB” group occurs in the failure period 1. It can be understood that they occur continuously. For this reason, the administrator can grasp the situation more accurately based on the display of the abnormality degree distribution 142a shown in the lower part of FIG. 5, and can take appropriate measures. For example, the administrator checks in detail the failure status of the “DB” group that occurred in the first failure period 1 in order to investigate the cause, and details the contents of the failure in the failure periods 2 and 3 in order to investigate the influence range. It is possible to confirm.
  • the performance items or managed devices When acquiring performance information for each of multiple types of performance items from one or more managed devices that make up the system and managing the managed devices, if the performance items or managed devices are used as elements, At least the first performance information indicating the time series change of the performance information related to the first element and the second performance information indicating the time series change of the performance information related to the second element are collected by the information collecting means 103, and the correlation model is collected. A correlation function between the first and second performance information is derived using the generation unit 102 and a correlation model is generated based on the correlation function (FIG. 2: step S611), and the correlation change analysis unit 109 is used.
  • the collapse of the correlation is calculated from the performance information at the time of operation, and then the failure period is extracted from the time series change of the abnormal child using the failure period extraction unit 110.
  • the change information of the abnormality level within the failure period is calculated using the conversion information calculation unit 111 (step S615 in FIG. 2), and the influence factor (service execution unit) within the failure period is calculated using the abnormality degree distribution information calculation unit 113. 101) distribution information is calculated, and the degree of abnormality and the distribution of elements (service execution means 101) are presented to the administrator (step S617 in FIG. 2).
  • each of the above operation steps may be programmed to be executable by a computer, and may be executed by the operation management apparatus 100 which is a computer that directly executes each of the steps.
  • the failure period extraction unit 110 extracts the failure period from the time series change of the abnormality degree, and the abnormality degree change information calculation unit 111 and the abnormality degree distribution information calculation unit 113 perform correlation within the failure period. Change summary information is generated.
  • the administrator can accurately grasp an outline of which period is a failure and what kind of abnormality the failure is.
  • the failure period is specified based on the degree of coincidence with the correlation model indicating the correlation at the normal time, when the determination value is small (the degree of coincidence is high), the system In comparison with the case where only the threshold value for the performance information is used for determination, it is possible to clearly distinguish the abnormal period from the normal period.
  • the operation management apparatus 100 detects not only an abnormal value for each element but also an abnormality caused by a relationship with a performance value of another element having an input / output relationship such as a bottleneck. It becomes possible. Since it is possible to accurately present to the administrator which element is abnormal, it is possible for the administrator to reduce mistakes and take effective measures.
  • the abnormal distribution for each group has been described as an example of a stacked graph.
  • the present invention is not limited to this example, and other methods can be used as long as the breakdown of abnormal elements within the failure period can be presented. The same effect can be obtained even if is used.
  • the example of illustrating the failure period on the graph of the display screen has been described.
  • the present invention is not limited to this example, and a function of event analysis performed by the failure analysis unit 104 by issuing a message indicating failure start or end. Information presentation and countermeasures may be performed using the. Even in this case, by specifying the failure period from the correlation change, the effect that the performance failure can be specified accurately can be obtained.
  • the operation management apparatus 200 includes a failure analysis unit 104 that detects the occurrence of a failure from the first and second performance information, and a correlation model.
  • the apparatus further includes performance classification information generation means 216 that generates performance classification information by classifying performance information from the strength of correlation between performance information and the pattern of related elements.
  • the past failure information accumulation unit 214 that accumulates the history of failures analyzed by the failure analysis unit 104, and the abnormality degree change calculated by the abnormality degree change information calculation unit 111 for the information stored in the past failure information accumulation unit 214, respectively.
  • the abnormality degree distribution information calculated by the information and abnormality degree distribution information calculating means 113 there is a similar failure searching means 215 for searching for a trouble similar to the abnormality degree change information and abnormality degree distribution information.
  • the operation management apparatus 200 automatically generates a group of performance information and can perform a similar search, thereby eliminating the need for the administrator to create performance classification information. Can be reduced.
  • FIG. 6 is an explanatory diagram showing the configuration of the operation management apparatus 200 according to the second embodiment of the present invention.
  • the past failure information storage unit 214, the similar failure search unit 215, and the performance classification information generation unit 216 include an abnormality degree analysis unit 115. It is characterized by comprising. Since the failure analysis unit 104 is included in the operation management apparatus 100 according to the first embodiment, it is also included in the operation management apparatus 200.
  • the past failure information storage means 214 is realized by a nonvolatile storage means such as a disk device, which is provided in the operation management apparatus 200 in advance. Since the other constituent elements have the same operations and actions as the operation management apparatus 100 according to the first embodiment, the element names and reference numbers are all the same.
  • the past failure information accumulation unit 214 accumulates the history of failures analyzed by the failure analysis unit 104.
  • the similar fault search unit 215 receives the abnormal degree change information and the abnormal degree distribution information from the abnormal degree change information calculation unit 111 and the abnormal degree distribution information calculation unit 113, respectively, and searches for similar faults from the past fault information storage unit 214.
  • the performance classification information generation unit 216 reads the correlation model from the correlation model storage unit 108, classifies the performance information from the strength of the correlation between the performance information and the pattern of the relationship elements, and generates the performance classification information.
  • FIG. 7 is a flowchart showing the operation of the operation management apparatus 200 shown in FIG.
  • the operation of the operation management apparatus 200 according to the present embodiment newly includes step S622 and step S628 described below in addition to the operation of the operation management apparatus 100 according to the first embodiment shown in FIG.
  • the performance classification information generation unit 216 reads the correlation model from the correlation model storage unit 108, and the correlation strength between the performance information and The performance classification information is generated by classifying the performance information from the pattern of the related elements (step S622).
  • the performance classification information generation unit 216 performs the performance information of the service execution unit 101 by using a general classification method. If the performance information has a certain relationship, the performance classification information generation unit 216 determines the system configuration from the behavior. The performance information may be classified by estimating the group. For example, if the service execution unit 101 is a server group in which the load is distributed, in a situation where a certain amount of steady load is applied, each input and processing amount show an equal value. A relationship is generated. Further, when the service execution unit 101 has a flow of processing such as a “Web” server or an “AP” server, the relationship from the previous stage to the subsequent stage is clear in chronological order, but the reverse relationship becomes weak. The characteristics of this can be considered. In addition, there are inversion relations such as used memory and free memory, and summed values. The performance classification information generation unit 216 generates the performance information classification information of the service execution unit 101 in consideration of the information described above.
  • the performance classification information generated by the performance classification information generation unit 216 is used.
  • the abnormality degree distribution information calculation unit 113 calculates abnormality degree distribution information (step S627).
  • the similar failure searching unit 215 receives the abnormality degree change information calculated by the abnormality degree change information calculating unit 111 and the abnormality degree distribution information calculated by the abnormality degree distribution information calculating unit 113, and stores them in the past failure information accumulating unit 214. A case having a similar abnormality degree change or abnormality degree distribution is searched from the accumulated past trouble cases, and the contents are output (step S628).
  • the failure analysis unit 104 analyzes the failure based on the information searched by the similar failure search unit 215 and the information acquired by the information collection unit 103, and the analysis result is sent to the administrator dialogue unit 105 in this way. The failure content analyzed in this way is presented to the administrator (step S629).
  • the performance classification information generation unit 216 automatically generates a group of performance information of the service execution unit from the correlation included in the correlation model. The burden on the administrator who creates the performance classification information for classifying information can be greatly reduced.
  • the similar failure searching means 215 searches for past cases according to the extracted abnormality degree change and abnormality degree distribution in the failure period.
  • the general-purpose operation management apparatus uses an error message generated at the time of failure to search for a failure case, and in order to search for similar information of continuously changing information such as performance information, Processing with heavy processing load such as searching for a multidimensional state space is required.
  • key information for searching for past cases is generated as a failure period or abnormality distribution, a similarity search of performance information is performed without increasing the processing load. I can do things.
  • the operation management apparatus 300 uses, for each element (service execution unit 101), the classification information and the order information included in the correlation model and the performance information.
  • An abnormality distribution pattern that is assumed when a failure occurs in the element and spreads to other elements (service execution means 101) is predicted, and the abnormality distribution information is compared with the abnormality distribution pattern to determine which failure has occurred. It has a failure element estimation means 317 for estimating whether the element has occurred. With this configuration, the operation management apparatus 300 can accurately estimate the element in which an abnormality has occurred, thereby reducing handling errors and realizing more efficient handling.
  • FIG. 8 is an explanatory diagram showing the configuration of the operation management apparatus 300 according to the third embodiment of the present invention.
  • the operation management apparatus 300 includes a failure factor estimation unit 317 in the abnormality degree analysis unit 115.
  • the performance classification information stored in the performance classification information storage unit 112 newly holds order information indicating the processing order between groups in addition to the classification information indicating the group of performance information. Since the constituent elements other than these have the same operations and actions as those of the operation management apparatus 200 according to the second embodiment except for the points described below, the element names and reference numbers are all the same.
  • the failure element estimation unit 317 receives the classification information and the order information included in the correlation model and the performance classification information stored in the correlation model storage unit 108 and the performance classification information storage unit 112, and receives an element (service execution unit 101) in the system. ), The degree of abnormality distribution pattern assumed when each element becomes a failure and spreads to other elements (service execution means 101) is predicted. Furthermore, the abnormality degree distribution information is received from the abnormality degree distribution information calculation means 113 and compared with the abnormality degree distribution pattern predicted by itself, thereby estimating which element in the system is the failure.
  • the similar fault search means 215 newly has a function of searching for information including fault element information estimated by the fault element estimation means 317 when searching for past cases.
  • the fault analysis means 104 is a manager dialog means 105. A new function for presenting the analysis result to the administrator is provided.
  • FIG. 9 is a flowchart showing the operation of the operation management apparatus 300 shown in FIG.
  • the operation of the operation management apparatus 300 according to the present embodiment includes steps S633 and S639 described below in addition to the operation of the operation management apparatus 200 according to the second embodiment shown in FIG.
  • step S631 after the correlation model is generated (step S631) and the performance classification information is generated (step S632), the failure element estimation unit 317 and the correlation model read from the correlation model storage unit 108 The performance classification information read from the performance classification information accumulating unit 112 is compared, and for each element in the system, an abnormal degree distribution pattern assumed when each element becomes a failure is predicted (step S633).
  • FIG. 10 is an explanatory diagram showing an outline of the operation of the failure element estimation means 317 shown in FIG.
  • the abnormality degree pattern 331 shows an example of the abnormality degree distribution pattern estimated by the failure element estimation means 317.
  • the abnormality pattern 331 indicates which correlation is found when a correlation included in the correlation model is searched from the performance information as a failure element according to the processing order between groups when a certain element in the system becomes a failure. It is calculated in advance whether it will be destroyed.
  • the abnormality degree distribution has a large correlation change in the “Web” group having a large number of units, and a small correlation change in the other groups.
  • the abnormality degree distribution pattern when the servers of the “AP” group and the “DB” group are abnormal is predicted.
  • the failure element estimation means 317 displays the degree of abnormality.
  • the abnormality degree distribution information received from the distribution information calculation unit 113 is compared with the abnormality degree distribution pattern predicted in step S633 to estimate which element in the system is a failure (step S639).
  • the similar fault search means 215 searches past cases including the estimation result (step S640), and the fault analysis means 104 analyzes the fault contents analyzed in this way via the administrator dialogue means 105. Presented to the administrator (step S641).
  • FIG. 11 and 12 are explanatory diagrams showing examples of display screens 343 and 344 that are presented to the administrator by the failure analysis means 104 shown in FIG. 8 as described above. Similar to the display screen 142 of FIG. 5, the display screen 343 of FIG. 11 illustrates the abnormality degree graph 343 a, and the display screen 344 of FIG. 12 illustrates a stacked graph 344 a of the abnormality degree distribution.
  • the failure element estimation unit 317 predicts an abnormality level pattern when an element in the system becomes abnormal, and compares it with the calculated abnormality degree distribution information.
  • an estimation result as to which element is abnormal can be presented to the administrator.
  • the number of “AP” groups is small and the number of other groups is larger, so there is a risk that the administrator misidentifies the failure as another group.
  • the present embodiment by tracing the correlation according to the processing order, it is possible to present to the administrator an estimation result that the case of this distribution is a failure of the “AP” group. Thereby, it is possible to reduce coping errors and realize more efficient coping.
  • the operation management apparatus 400 according to the fourth embodiment of the present invention is an apparatus having the same configuration as that of the operation management apparatus 300 according to the third embodiment, and the failure period extraction means uses the failure period as the failure start period and the failure continuation period. Categorize into periods and failure termination periods By providing this configuration, the operation management apparatus 400 can accurately present the cause of the failure and its effect to the administrator.
  • the failure period extraction unit 110 newly adds a failure start period that continuously increases from a value that is less than or equal to the normal threshold to a value that is greater than or equal to the failure threshold, and a value that is less than or equal to the normal threshold after the failure start period. It has a function of dividing the failure period into a failure end period that lasts for a fixed number of times and a failure continuation period that is sandwiched between the failure start period and the failure end period. Furthermore, the abnormality degree change information calculation unit 111 and the abnormality degree distribution information calculation unit 113 have a new function of calculating abnormality degree change information and abnormality degree distribution information for each period.
  • FIG. 13 is a graph 472 showing an example of the abnormality degree distribution calculated by the abnormality degree change information calculating unit 111 and the abnormality degree distribution information calculating unit 113 in the operation management apparatus 400 described above.
  • the graph 472 includes a graph 472a indicating a time-series change in the degree of abnormality and a stacked graph 472b indicating the degree of abnormality distribution.
  • the abnormality period distribution is uniform in each of the failure period 1 and the failure period 2.
  • the failure period extracting unit 110 divides each failure period into three periods of a failure start period, a failure continuation period, and a failure end period.
  • the abnormality degree distribution information calculation unit 111 and the abnormality degree distribution information calculation unit 113 generate an abnormality degree distribution for each divided period.
  • FIG. 14 shows an example of a display screen 445 that the manager interaction means 105 presents to the administrator in the operation management apparatus 400 described above.
  • the distribution screen of failure 1 and failure 2 is divided into three stacked graphs with respect to the display screen 344 described in FIG. 12 in the third embodiment.
  • the failure 1 has a distribution with a lot of abnormalities in the “Web” group in the failure start period, and a distribution with a lot of abnormalities in the “DB” group in the failure continuation period.
  • the administrator can grasp what distribution is present when a failure occurs, and which range is affected thereafter.
  • an accurate distribution cannot be extracted unless the failure period ends, and when the failure continues for a long period of time, the distribution at the time of occurrence of the failure is the There is a problem that it becomes difficult to understand due to the influence of the distribution.
  • the distribution at the time of the failure and the distribution of the continuing period can be separated, so that it becomes possible to quickly grasp the contents of the failure when the failure occurs,
  • the cause (distribution at the time of occurrence) and the range of influence (distribution at the time of continuation) can be distinguished. Furthermore, it is possible to grasp the status of return to the normal state based on the distribution at the time of failure termination.
  • the present invention is an information processing apparatus that provides an information communication service such as a WEB service or a business service, and can be applied to an operation management apparatus that detects and localizes system performance degradation in the information processing apparatus. .
  • Performance classification information generation means 100, 200, 300, 400 Operation management apparatus 101 Service execution means 102 Performance information storage means 103 Information collection means 104 Failure analysis means 105 Administrator interaction means 106 Coping execution means 107 Correlation model generation means 108 Correlation model storage means 109 Correlation change analysis Means 110 Failure period extraction means 111 Abnormality change information calculation means 112 Performance classification information accumulation means 113 Abnormality distribution information calculation means 114 Control unit 115 Abnormality analysis part 131 Performance classification information 142 Display screen 142a Abnormality graph 142b Abnormality distribution 161 , 362 Relationship diagram 171 Abnormality distribution 171a, 171b Graph 214 Past failure information storage means 215 Similar failure search means 216 Performance classification information generation means 317 Failure element estimation means 331 Abnormality pattern 43,344,445 display screen 472,472A, lists 472b graph 511 the performance information 521 correlation model 541 display screen 541a largest element of the correlation destruction number 541b correlation diagram 541c abnormality degree

Abstract

【課題】障害発生箇所とその原因をわかりやすく提示することを可能とする運用管理装置等を提供する。 【解決手段】本発明に係る運用管理装置100は、被管理装置101から性能情報の時系列変化を示す第1および第2の性能情報とを収集する情報収集手段103と、第1および第2の性能情報の間の相関関数を導出し、この相関関数に基づいて相関モデルを生成する相関モデル生成手段107と、情報収集手段が取得した現在の第1および第2の性能情報が相関モデルの各々の性能情報間の変換関数で示された関係を一定の誤差範囲内で満たしているか否かを判定する相関変化分析手段109と、第1および第2の性能情報が相関モデルの変換関数で示された関係を満たしていない場合に、該状態である期間を障害期間として抽出する障害期間抽出手段110と、を有する。

Description

運用管理装置、運用管理方法、および運用管理プログラム
 本発明はウェブサービスや業務サービスといった情報通信サービスの運用に関し、特に当該サービスにおける障害の発生の検出とその原因の特定に関する。
 たとえばウェブサービスや業務サービスといった情報通信サービスの運用において、障害の発生を検出し、その原因を特定する運用管理装置が存在する。
 これに関連する技術文献として、次に示す各文献がある。特許文献1には、定期的にウェブサーバなどのレスポンスタイムを測定し、そのレスポンスタイムの値が補償値を満足しない場合は管理者に通知するという技術が記載されている。特許文献2には、燃料流量と車体速度などのように、異なる種類の複数のパラメータ間の変化の類似性を判断する技術が記載されている。特許文献3には、複数の方向データをモデル化した場合の相違度の分布モーメントを算出し、これが閾値を超えた場合に異常と判断するという技術が記載されている。
 特許文献4には、監視対象計算機のログを解析して得られた解析情報を、過去の解析情報と類似するパターンを検索して、それによって障害発生の予知を行うという技術が記載されている。特許文献5には、時系列的に変化するプラント設備機器の状態履歴をディスプレイに(色分けなどをして)わかりやすく表示するという技術が記載されている。特許文献6には、障害の発生箇所と発生順を視覚的に認識しやすく表示する障害情報表示装置が記載されている。
特開2002-099448号公報 特開2005-257416号公報 特開2006-048253号公報 特開2007-293393号公報 特開平06-175626号公報 特許第4089339号公報
 特許文献2の運用管理装置では、前述のような性能劣化障害を適切に検出するために、性能情報の変化度に基づいて性能情報間の相関関係の強さを算出するので、異なる種類の性能情報における時間の経過に応じた変化が類似するか否かを適切に判断することができる。
 しかしながら、特許文献2の運用管理装置では、崩れた相関関係の数や内容から実際に発生した障害を特定するためには、対象となるシステムの構成と挙動を正確に理解し、どのような障害でどう相関関係が崩れるのかを把握しておく必要がある。このため、管理者に多大な知識や経験が必要となるという問題があるとともに、理解不足から誤った分析結果を導出してしまう危険性があった。
 また、特許文献4および6の運用管理装置では、障害メッセージを障害の発生順や障害ユニットの実際の配置関係に応じて提示するので、障害箇所を視覚的に認識し易くして障害発生元の推測作業を軽減することができる。また、各種の性能情報を障害メッセージとあわせて時間軸上に表示することにより、過去の類似障害を探索する汎用の運用管理装置では、類似する障害の解析情報に基づいて障害発生を予測することができる。
 しかしながら、この従来の運用管理装置では、障害解析や過去事例探索において、障害メッセージやログ情報など障害時の情報として明確に切り出せる情報を用いる必要がある。正常/異常の区別なく時系列で連続する性能情報の場合は、その値や変化状態のみからどの部分が障害であるかを明確に切り出せないため、これらの視覚的表示や類似事例探索がうまく行えないという問題があった。
 残る特許文献1,3,5にも、障害発生箇所とその原因をわかりやすく提示することが可能である技術は記載されていない。従って、これらの各文献を組み合わせたとしても、経験が浅い管理者に対してわかりやすく障害発生箇所とその原因をわかりやすく提示する運用管理装置を得ることはできない。
 本発明の目的は、経験が浅く、対象となるシステムの構成と挙動を正確に理解していない管理者に対しても、障害発生箇所とその原因をわかりやすく提示することを可能とする運用管理装置、運用管理方法、および運用管理プログラムを提供することにある。
 上記目的を達成するため、本発明に係る運用管理装置は、システムを構成する単数または複数の被管理装置から複数種の性能種目毎の性能情報を取得して、被管理装置を運用管理する運用管理装置であって、性能種目又は被管理装置を要素とした場合に、要素から少なくとも第1の要素に関する性能情報の時系列変化を示す第1の性能情報および第2の要素に関する性能情報の時系列変化を示す第2の性能情報とを収集する情報収集手段と、第1および第2の性能情報の間の相関関数を導出し、この相関関数に基づいて相関モデルを生成する相関モデル生成手段と、情報収集手段が取得した現在の第1および第2の性能情報が相関関数で示された関係を一定の誤差範囲内で満たしているか否かを判定する相関変化分析手段と、相関変化分析手段が第1および第2の性能情報が相関関数で示された関係を満たしていない状態であると判定した場合に、該状態である期間を障害期間として抽出する障害期間抽出手段とを有することを特徴とする。
 上記目的を達成するため、本発明に係る運用管理方法は、システムを構成する単数または複数の被管理装置から複数種の性能種目毎の性能情報を取得して、被管理装置を運用管理する運用管理方法であって、性能種目又は被管理装置を要素とした場合に、要素から少なくとも第1の要素に関する性能情報の時系列変化を示す第1の性能情報および第2の要素に関する性能情報の時系列変化を示す第2の性能情報とを収集し、第1および第2の性能情報の間の相関関数を導出し、この相関関数に基づいて相関モデルを生成し、情報収集手段が取得した現在の第1および第2の性能情報が相関関数で示された関係を一定の誤差範囲内で満たしているか否かを判定し、第1および第2の性能情報が相関関数で示された関係を満たしていない状態であると判定された場合に、該状態である期間を障害期間として抽出することを特徴とする。
 上記目的を達成するため、本発明に係る運用管理プログラムは、システムを構成する単数または複数の被管理装置から複数種の性能種目毎の性能情報を取得して、被管理装置を運用管理する運用管理装置を制御するコンピュータに、性能種目又は被管理装置を要素とした場合に、要素から少なくとも第1の要素に関する性能情報の時系列変化を示す第1の性能情報および第2の要素に関する性能情報の時系列変化を示す第2の性能情報とを収集する機能と、第1および第2の性能情報の間の相関関数を導出する機能と、この相関関数に基づいて相関モデルを生成する機能と、情報収集手段が取得した現在の第1および第2の性能情報が相関関数で示された関係を一定の誤差範囲内で満たしているか否かを判定する手順と第1および第2の性能情報が相関関数で示された関係を満たしていない状態であると判定された場合に、該状態である期間を障害期間として抽出する機能とを実行させることを特徴とする。
 本発明は、上述したように性能情報から相関モデルを生成して、その相関モデルから外れた期間を障害期間として検出するように構成したので、障害の発生を適切に検出し、さらにその原因となる要因の特定も容易となる。これによって、管理者に対して障害発生箇所とその原因をわかりやすく提示することができる。
本発明の第1の実施形態に係る運用管理装置の構成を示す説明図である。 図1で示した運用管理装置の動作を示すフローチャートである。 性能分類情報蓄積手段に蓄積される性能分類情報、および各サーバの性能情報を分類する関係図の一例を示す説明図である。 異常度変化情報算出手段および異常度分布情報算出手段によって算出された異常度分布の一例を示すグラフである。 図1で示した管理者対話手段が管理者に提示する表示画面の例を示す。 本発明の第2の実施形態に係る運用管理装置の構成を示す説明図である。 図6で示した運用管理装置の動作を示すフローチャートである。 本発明の第3(および第4)の実施形態に係る運用管理装置の構成を示す説明図である。 図8で示した運用管理装置の動作を示すフローチャートである。 図8で示した障害要素推定手段の動作の概要を示す説明図である。 図8で示した障害分析手段が管理者に提示する表示画面の例を示す説明図である。 図8で示した障害分析手段が管理者に提示する別の表示画面の例を示す説明図である。 図8で示した(第4の実施形態に係る)運用管理装置で、異常度変化情報算出手段および異常度分布情報算出手段によって算出された異常度分布の一例を示すグラフである。 図8で示した(第4の実施形態に係る)運用管理装置で、管理者対話手段が管理者に提示する表示画面の例を示す。 図1に示した情報収集手段が検出して蓄積する性能情報の一例を示す説明図である。 図1に示した相関モデル生成手段が作成する相関モデルの一例を示す説明図である。 図1に示した管理者対話手段が管理者に提示する表示画面の例を示す説明図である。
(第1の実施形態)
 以下、本発明の実施形態の構成について添付図に基づいて説明する。
 最初に、本実施形態の基本的な内容について説明し、その後でより具体的な内容について説明する。
 本実施形態に係る運用管理装置100は、システムを構成する単数または複数の被管理装置(サービス実行手段101)から複数種の性能種目毎の性能情報を取得して、前記被管理装置を運用管理する運用管理装置であって、性能種目又は被管理装置を要素とした場合に、要素(サービス実行手段101)から少なくとも第1の要素に関する性能情報の時系列変化を示す第1の性能情報および第2の要素に関する性能情報の時系列変化を示す第2の性能情報とを収集する情報収集手段103と、前記情報収集手段103が収集した第1および第2の性能情報との間の相関関数を導出し、この相関関数に基づいて相関モデルを生成する相関モデル生成手段107と、前記情報収集手段103が取得した現在の第1および第2の性能情報が相関関数で示された関係を一定の誤差範囲内で満たしているか否かを判定する相関変化分析手段109と、前記相関変化分析手段109が第1および第2の性能情報が相関関数で示された関係を満たしていない状態であると判定した場合に、該状態である期間を障害期間として抽出する障害期間抽出手段110とを有する。
 また運用管理装置100は、障害期間抽出手段110の抽出した障害期間の間、第1および第2の性能情報が変換関数から外れた度合いである異常度についての統計情報を異常度変化情報として算出する異常度変化情報算出手段111を有する。
 また運用管理装置100は、性能情報を複数種類に分類し、性能分類情報として保存する性能分類情報蓄積手段112と、前記性能分類情報蓄積手段112に蓄積された性能分類情報から、前記障害基幹抽出手段110が抽出した障害期間内に変化した相関関係に含まれる性能情報とその異常度とを抽出して性能情報の要素毎の異常度の分布を示す異常度分布情報を算出する異常度分布情報算出手段113とを備える。
 この構成を備えることにより、本発明の実施形態は、障害の発生を適切に検出し、さらにその原因となる要因を容易に特定して、管理者に対して障害発生箇所とその原因をわかりやすく提示することが可能である。
 以下、これをより詳細に説明する。
 図1は、本発明の第1の実施形態に係る運用管理装置100の構成を示す説明図である。運用管理装置100は、実際にはCPU、RAM、OSなどによって構成されるコンピュータプログラムを実行する主体である制御部114を有する。
 制御部114はCPUから構成され、そのCPUにプログラムを実行させることにより、ソフトウェア上で、サービス実行手段101、情報収集手段103、障害分析手段104、管理者対話手段105、対処実行手段106、相関モデル生成手段107、相関変化分析手段109を実現している。また、運用管理装置100は、性能情報蓄積手段102および相関モデル蓄積手段108は、運用管理装置100が備えているディスク装置などのような不揮発性記憶手段によって実現される。図1ではわかりやすさのため、性能情報蓄積手段102および相関モデル蓄積手段108も制御部114内に表記する。また制御部114は、後述する異常度分析部115を備える。なお、制御部114の構成をソフトウェア上で実現した場合を図示したが、これに限られるものではなく、制御部114の構成をハードウェアの構成として実現してもよいものである。
 サービス実行手段101は、WEBサービスや業務サービスといった情報通信サービスを提供する。サービス実行手段101は単数でも複数でもよく、また運用管理装置100の他の要素とは物理的に別のコンピュータで構成されてもよいし、同一のコンピュータで構成されてもよい。性能情報蓄積手段102は、サービス実行手段101の各々の要素の性能情報を蓄積する。情報収集手段103は、サービス実行手段101の性能情報や異常メッセージなどの動作状態を検出して出力するとともに、動作状態に含まれる性能情報を性能情報蓄積手段102に蓄積する。
 障害分析手段104は、情報収集手段103および異常度分析部115からの出力を受け取って障害分析を行い、その結果を管理者対話手段105に出力する。管理者対話手段105は、障害分析手段104から出力される障害分析の結果を受け取って管理者に提示し、管理者からの入力を受け付ける。対処実行手段106は、管理者対話手段105からの指示に従って、サービス実行手段101上で障害の対処となる処理を実行する。
 相関モデル生成手段107は、性能情報蓄積手段102から一定期間の性能情報を取り出し、任意の2つの性能情報の値の時系列の変換関数を導出することでサービス実行手段101の全体的な稼動状態の相関モデルを生成する。相関モデル蓄積手段108は、相関モデル生成手段107が生成した相関モデルを蓄積する。
 相関変化分析手段109は、情報収集手段103から新たに検出された性能情報を受け取り、この性能情報に含まれる性能値が相関モデル蓄積手段108に蓄積される相関モデルの各々の性能情報間の変換関数で示された関係を一定の誤差範囲内で満たしているかを分析して、その結果を出力する。
 次に、本発明の実施形態に係る運用管理装置の特徴を明確にするため、本発明の実施形態に係る運用管理装置に対応する比較例を図1を用いて説明する。本発明の実施形態における異常度分析部115を装備しない運用管理装置を前記比較例として想定する。前記比較例の運用管理装置においては、前記異常度分析部115を装備していないため、障害分析手段104は、情報収集手段103および相関変化分析手段109からの出力を受け取って障害分析を行い、その結果を管理者対話手段105に出力することとなる。管理者対話手段105は、障害分析手段104から出力される障害分析の結果を受け取って管理者に提示し、管理者からの入力を受け付ける。対処実行手段106は、管理者対話手段105からの指示に従って、サービス実行手段101上で障害の対処となる処理を実行する。
 前記比較例に係る運用管理装置では、まず情報収集手段103がサービス実行手段101の動作状態を検出し、前記検出された情報を性能情報蓄積手段102に性能情報として蓄積する。例えば、前記情報収集手段103は、サービス実行手段101でWEBサービスが実行されている場合、WEBサービスを提供する各サーバのCPU使用率やメモリ残量を前記サービス実行手段101の性能情報として一定時間間隔で検出する。
 図15は、図1に示した情報収集手段103が検出して蓄積する性能情報511の一例を示す説明図である。前記情報収集手段103が取得する性能情報511には図15に示す様に、例えば「A.CPU」,「A.MEM」,「B.CPU」が含まれる。図15に示す性能情報511のうち項目「A.CPU」は、ある1つのサーバ(サービス実行手段101)のCPU使用率の値を示し、2007年10月5日の17時25分の値が12である。さらに1分間隔で17時26分から15、34、63というような値が検出されている。同様に、「A.MEM」は同じサーバのメモリ残量の値を、「B.CPU」は別のサーバのCPU使用率の値を、それぞれ同時刻に検出したものである。
 図1に示す様に、障害分析手段104は、予め決められた方法で障害分析を行う。一例を挙げると、前記障害分析手段104は、例えば、CPU利用(使用?)率が一定値以上であれば管理者に警告メッセージを提示するなどのように、情報収集手段103で検出された性能情報の値から、予め与えられた閾値などの判定条件に従って、特定のサーバ(サービス実行手段101)の負荷が高くなっているかどうかを判定することにより前記障害分析を行う。
 管理者対話手段105は、前記障害分析手段104が分析した障害分析の結果を管理者に提示し、管理者が何らかの対処を指示する入力を行った場合、対処実行手段106を介してサービス実行手段101上で対処コマンドを実行させる。例えば、管理者は、CPU負荷が高くなっていることを知って、業務量を減らす対処コマンドを前記対処実行手段106に入力したり、負荷分散を行うための構成変更を行う対処コマンドを前記対処実行手段106に入力する等の処置を行うことができる。このような情報収集、分析、対処の処理の繰り返しにより、サービス実行手段101の障害対処が継続して行われる。
 さらに、相関モデル生成手段107、相関モデル蓄積手段108、相関変化分析手段109によって、このような障害分析において、性能異常をより正確に検出することができる。
 図1に示した運用管理装置100が行う性能情報の相関変化の分析の動作を説明する。性能情報蓄積手段102に蓄積された図15で示した性能情報511に対して、相関モデル生成手段107は、各々の性能情報の間の変換関数を導出することによって相関モデルを作成し、相関モデル蓄積手段108に蓄積する。
 図16は、相関モデル生成手段107が作成する相関モデル521の一例を示す説明図である。図16に示す例では、前記相関モデル生成手段107は、例えば「A.CPU」を入力Xとし、「A.MEM」を出力Yとした場合の変換関数「Y=αX+β」を導出することで、図15に記述した性能情報511で示される値の時系列を参照して、前記変換関数のαとβの値として、それぞれ「-0.6」、「100」を決定し、前記変換関数で生成した値の時系列と、出力となる性能情報の実際の値の時系列とを比較し、その差分である変換誤差から前記変換関数の重み「0.88」を算出する。
 前記相関モデル生成手段107は、同様に任意の2つの性能情報間の変換関数を導出し、一定の重みを持つものを有効な相関として抽出し、図16に示す様なサービス実行手段101の全体的な稼働状態の相関モデル521を生成する。ここでは、前記変換関数を「Y=αX+β」という1次式とした場合を説明したが、この例に限定されるものではなく、前記相関モデル生成手段107が導出する前記変換関数は、任意の2つの性能情報の値の時系列を変換するものであれば良い。また、このような式に回帰させるための計算も、公知の統計学的手法を利用することができる。
 次に、相関変化分析手段109は、情報収集手段103から新たに取得した性能情報が、前記相関モデル生成手段107が生成した前記相関モデルに示される相関関係と一致しているかどうかを分析する。前記相関モデル生成手段109は、例えば、図15に示す性能情報511において、最下行にある「2007/11/07 8:30」という時点におけるサービス実行手段101の性能情報511を得た場合、図16に示す相関モデル521に記載された変換関数を順次探索し、入力であるサービス実行手段101の性能情報から変換関数を用いて算出した変換値と、出力となる性能情報の新たに取得された値が、一定の変換誤差の範囲内にある場合に相関が維持されていると判断し、変換誤差範囲を超えている場合には相関関係が崩れたものと判断する。
 前記比較例における相関変化前記手段109は、上述した処理を全ての入力であるサービス実行手段101の変換関数に対して繰り返し、新たに取得された全性能情報の相関変化の有無を判断した後、この相関変化の程度を示す異常度情報と相関変化に関係する要素を示す異常要素情報とを含む相関変化情報を作成して障害分析手段104に出力する。
 障害分析手段104は、この相関変化情報を受け取り、変化した異常度が予め規定された値を超えている場合には、管理者対話手段105を介して管理者に障害の可能性として提示する。
 前記比較例に係る運用管理装置における管理者対話手段105は図17に示す様な表示画面541を管理者に提示する。表示画面541には、異常度合いを示す相関破壊数541a、異常場所を示す相関関係図541b、異常度合いの大きい要素のリスト541cなどが含まれる。このようにして、例えば、異常度合いの大きい要素「C.CPU」に障害の可能性があることを管理者に提示することができる。
 以上説明したような比較例の運用管理装置では、障害の発生していない平常時の性能情報から相関モデルを生成し、検出された性能情報がこの平常時の相関モデルと変化した割合を算出することで、応答劣化などの性能異常の発生を検出し、場所を特定している。
 しかしながら、上述した比較例に係る運用管理装置では、提示される情報が平常時と挙動が異なっている要素(サービス実行手段101)の情報であり、実際にどの要素(サービス実行手段101)が原因で障害となっているのかを分析するためには、この挙動の違いから原因を追究する作業を管理者が行わなければならないという問題がある。
 上述した比較例に係る運用管理装置では、例えば負荷分散されたサーバ(サービス実行手段101)の1つが異常になった場合や、複数のサーバ(サービス実行手段101)が利用している共有ディスクが異常になった場合では、異常な要素(サービス実行手段101)は1つであるが、性能情報間の相関関係は広範に破壊される。また、WEB3層構成のシステムなど、一連の処理順序が存在するシステムでは、1つの要素(サービス実行手段101)に異常が発生した後、後段の要素(サービス実行手段101)に広範に処理異常が波及する場合がある。
 このため、上述した比較例に係る運用管理装置では、管理者は、実際に稼動しているシステムの特性を理解した上で、相関関係の崩れから原因となる要素(サービス実行手段101)を推定する必要があった。特に、大規模システムなど、構成要素が多く挙動が複雑なシステムにおいては、管理者に要求される知識量が膨大となるとともに、知識不足から誤った対処を行ってしまう危険性があった。
(実施形態1)
 そこで、本発明に係る実施形態1は、上述した比較例の問題を解決するため、図1に示す様に前記制御部114に異常度分析部115を装備するという構成を採っている。
 異常度分析部115は、障害期間抽出手段110と、異常度変化情報算出手段111と、性能分類情報蓄積手段112と、異常度分布情報算出手段113とを有している。このうち、性能分類情報蓄積手段112は、運用管理装置100が予め備える、ディスク装置などのような不揮発性記憶手段によって実現される。障害期間抽出手段110、異常度変化情報算出手段111、異常度分布情報算出手段113は、制御部114を構成するCPUにコンピュータプログラムを実行させることによりソフトウェア上で実現している。なお、障害期間抽出手段110、異常度変化情報算出手段111、異常度分布情報算出手段113をソフトウェア上で実現させているが、これに限られるものではなく、これらをハードウェアの構成により構築してもよいものである。
 障害期間抽出手段110は、相関変化分析手段109から相関変化情報を受け取り、予め定められた閾値に基づいて異常度の時系列変化から障害期間を抽出する。障害期間抽出手段110は、例えば、障害期間の開始を、正常運用時に発生しうる異常度から障害と判断できる異常度に変化する時点とし、障害期間の終了を、正常運用時に発生しうる異常度が一定時間継続した時点として、相関変化分析手段109から受け取った相関変化情報を用いて、予め定められた閾値に基づいて異常度の時系列変化から障害期間を抽出する。
 異常度変化情報算出手段111は、障害期間抽出手段110から障害期間の情報を受け取り、障害期間内の異常度の総計や最大、最小、平均値等の統計情報を含む異常度変化情報を算出する。性能分類情報蓄積手段112は、サービス実行手段101から収集された性能情報を複数のグループに分類する性能分類情報を蓄積する。
 異常度分布情報算出手段113は、性能分類情報蓄積手段112から性能分類情報を受け取り、障害期間内に変化した相関関係に含まれる性能情報とその異常度を抽出し、性能情報のグループ毎の異常度の分布を示す異常度分布情報を算出する。
 本発明の実施形態1における障害分析手段104は図1に示す様に、前記情報収集手段103からの情報に加えて、前記異常度変化情報算出手段111からの異常度変化情報と前記異常度分布情報算出手段113からの異常度分布情報とを受け取り、これらの情報に基づいてサービス実行手段101の障害を分析する。前記管理者対話手段105は、前記障害分析手段104からの分析結果に基づいて、障害期間毎の異常度変化情報と異常度分布情報を管理者に提示する。
 図2は、図1で示した本発明の実施形態1に係る運用管理装置100における相関変化分析の動作を説明するフローチャートである。情報収集手段103がサービス実行手段101から収集した性能情報に基づいて、相関モデル生成手段107が相関モデルを生成する(ステップS611)。さらに、情報収集手段103が運用時の性能情報を収集すると、相関変化分析手段109が、この性能情報が相関モデルに示される相関関係と一致しているかどうかを分析し、相関関係の変化から異常度を算出する(ステップS612)。
 以上のステップまでの本発明の実施形態1に係る運用管理装置100の動作は上述した比較例と同様である。
 次に、本発明の実施形態1に係る運用管理装置100における特徴的な動作について説明する。
 障害期間抽出手段110は、相関変化分析手段109から受け取った異常度の時系列から、障害期間を抽出する(ステップS613)。
 図4に示す例では、前記障害期間抽出手段110は、異常度の時系列変化を示すグラフ171aから障害期間1、障害期間2を抽出している。具体的に説明すると、前記障害期間抽出手段110は、異常度が正常とみなせる境界を示す正常閾値V1と、異常度が障害を表すとみなせる境界を示す障害閾値V2との2つの閾値を用い、正常閾値V1未満の異常度から障害閾値V2以上の異常度(相関破壊)V3に向けて変化した時点を開始とし、その後一定期間正常閾値V1未満の異常度が継続する時点を終了として障害期間1,2を抽出している。
 このように障害期間1,2が前記障害期間抽出手段110によって抽出された場合(ステップS614)、異常度変化情報算出手段111は、前記障害期間抽出手段110が抽出した障害期間1,2内の異常度変化情報を算出し(ステップS615)、異常度分布情報算出手段113は、前記障害期間抽出手段110が抽出した障害期間1,2内の影響要素(サービス実行手段101)の分布情報を算出する(ステップS616)。
 次に、前記異常度変化情報算出手段111及び前記異常度分布情報算出手段113が実行する動作について詳細に説明する。
 図3に示す様に、性能分類情報蓄積手段112は、性能分類情報131と、各サーバ(サービス実行手段101)の性能情報を分類する関係図161とを蓄積している。なお、図3に示す性能分類情報131と性能分類情報131は、一例を示すものであって、これに限られるものではない。サービスを提供するシステムなどによって種々変更されるものである。図3に示す関係図161では、一般的なWeb3層システムの構成と同様に、「A」~「G」の7台のサーバ(サービス実行手段101)が、「Web(ウェブサーバ)」のサーバ、「AP(アプリケーション)」のサーバ、「DB(データベース)」のサーバの3つの業務グループに分類している。性能分類情報131では、前記関係図161において分類したグループ分類に従って、各サーバ(サービス実行手段101)の性能情報を3つのグループに分類している。
 図3に示す例では、例えば「Web」グループ(サービス実行手段101)には、「A.*」,「B.*」,「C.*」の性能情報が含まれている。「A.*」は前記WebグループのサーバA(サービス実行手段101)の持つ全ての性能情報を示すものである。「B.*」は前記WebグループのサーバB(サービス実行手段101)の持つ全ての性能情報を示すものである。「C.*」は前記WebグループのサーバC(サービス実行手段101)の持つ全ての性能情報を示すものである。
 「AP」のサーバのグループには、「D.*」,「E.*」の性能情報が含まれている。「D.*」は前記APグループのサーバD(サービス実行手段101)の持つ全ての性能情報を示すものである。「E.*」は前記APグループのサーバE(サービス実行手段101)の持つ全ての性能情報を示すものである。
 「DB」のサーバのグループには、「F.*」,「G.*」の性能情報が含まれている。「F.*」は前記DBグループのサーバF(サービス実行手段101)の持つ全ての性能情報を示すものである。「G.*」は前記DBグループのサーバG(サービス実行手段101)の持つ全ての性能情報を示すものである。
 前記図3に示す性能分類情報131に従って、異常度分布情報算出手段113は、前記障害期間抽出手段110が抽出した障害期間1,2内の相関変化に関係する性能情報をサーバA~Gのグループに分類し、図4の下段に示す異常度の分布情報、すなわち、図4の下段に記載したグラフ171bの部分要素である「Web」グループ、「AP」グループ、「DB」グループの高さを前記障害期間1,2毎に決定し、前記障害期間1,2における部分要素の異常度分布を示す積み上げグラフ171bを生成する。
 図4の下段に示す例では、前記異常度分布情報算出手段113は、障害期間1における部分要素の異常度分布情報として、「DB」グループに関する相関変化が過半数を占め、次に「Web」グループに関する相関変化が多く、「AP」グループに関する相関変化が少数となっている異常度分布情報を生成する。また、前記異常度分布情報算出手段113は、障害期間2における部分要素の異常度分布情報として、「Web」グループに関する相関変化が大半を占め、「AP」グループおよび「DB」グループに関する相関変化が少数となっている異常度分布情報を作成する。
 図4の下段に示す例では、前記異常度変化情報算出手段111は、前記障害期間抽出手段110からの情報を受け取って、前記障害期間抽出手段110が抽出した障害期間1,2における全ての要素(「Web」グループ,「AP」グループ及び「DB」グループ)の異常度の高さを統計値に基づいて決定し、前記障害期間1,2における全ての要素の異常度を算出する。
 なお、前記異常度変化情報算出手段111及び前記異常度分布情報算出手段113が取り扱う障害期間1,2の幅は、前記障害期間抽出手段110がグラフ171aに基づいて抽出した障害期間1,2によって、前記異常度変化情報算出手段111及び前記異常度分布情報算出手段113が決定する。
 障害分析手段104は、前記異常度変化情報算出手段111が算出した異常度変化情報および前記異常度分布情報算出手段113が算出した異常度分布情報を受け取り、それらの情報に基づいてサービス実行手段101の運用状態を分析し、その分析結果を管理者対話手段105に出力する。前記管理者対話手段105は、前記障害分析手段104の分析結果を受け取り、その分析結果を管理者に提示する(ステップS617)。
 図5は、前記管理者対話手段105が管理者に提示する表示画面142の一例を示す。前記管理者対話手段105は図5の上段に示す様に、表示画面142上で、相関変化分析手段109が出力する異常度の時系列である異常度グラフ142a上に前記障害期間抽出手段110が抽出した障害期間1~障害期間3を表示する。更に、前記管理者対話手段105は図5の下段に示す様に、異常度グラフ142aと同一の時系列で、前記異常度分布情報算出手段113が算出したそれぞれの障害期間1~3での異常度分布142bを表示する。
 前記相関変化分析手段109が相関変化から異常度を分析した結果を示す時系列変化の異常度グラフが、図4に示すグラフではなく、図5の上段に示す様な異常度グラフ142aである場合、図5の上段に示す様な異常度グラフ152aの時系列変化では、それぞれの障害期間1~3における障害は同じような異常度と期間で連続しており、特に障害期間1の障害と障害期間3の障害とが類似した波形で示される。このため、比較例のように相関変化分析手段109が分析した結果を直接障害分析手段104に出力することにより、障害分析手段104で障害を分析して、図5の上段に示す異常度グラフ142aだけで障害状態を管理者に表示した場合には、管理者は、障害期間1~3の障害を一連の障害と理解したり、障害期間2だけの障害が他の障害期間1,3の障害と異なる状態と予測したりして、的確な障害を把握することができないという可能性が大きい。
 これに対して、本発明の実施形態1では上述した様に、障害期間抽出手段110と、異常度変化情報算出手段111と、異常度分布情報算出手段113とを有し、障害分析手段104は、前記異常度変化情報算出手段111が算出した異常度変化情報および前記異常度分布情報算出手段113が算出した異常度分布情報を受け取り、それらの情報に基づいてサービス実行手段101の運用状態を分析し、その分析結果を管理者対話手段105に受け渡す。
 したがって、図5の下段に示す異常度分布142bを参照すると、その異常度分布142aに、前記異常度変化情報算出手段111が算出した異常度変化情報と前記異常度分布情報算出手段113が算出した異常度分布情報とが積み上げグラフとして表示されるため、管理者は、障害期間1で「DB」グループに関係する障害が発生した後、障害期間2,3において「WEB」グループに関係する障害が連続して発生していることが理解できる。このため、管理者は、図5の下段に示す異常度分布142aの表示に基づいてより正確に状況を把握し、的確な対処を行うことができる。管理者は、例えば原因追求のために最初の障害期間1に発生した「DB」グループの障害状況を詳細に確認したり、影響範囲を調べるために障害期間2,3の障害の内容を詳細に確認したりといったことが可能となる。
 次に、上記の第1の実施形態の全体的な動作について説明する。システムを構成する単数または複数の被管理装置から複数種の性能種目毎の性能情報を取得して、被管理装置を運用管理する際、性能種目又は被管理装置を要素とした場合に、要素から少なくとも第1の要素に関する性能情報の時系列変化を示す第1の性能情報および第2の要素に関する性能情報の時系列変化を示す第2の性能情報とを情報収集手段103で収集し、相関モデル生成手段102を用いて、第1および第2の性能情報の間の相関関数を導出すると共に前記相関関数に基づいて相関モデルを生成し(図2:ステップS611)、相関変化分析手段109を用いて、運用時の性能情報から相関関係の崩れを算出し、次に障害期間抽出手段110を用いて異常児の時系列変化から障害期間を抽出し、障害期間が存在する場合、異常度変化情報算出手段111を用いて、障害期間内の異常度の変化情報を算出し(図2のステップS615)、異常度分布情報算出手段113を用いて、障害期間内の影響要素(サービス実行手段101)の分布情報を算出し、異常度合いと要素(サービス実行手段101)の分布とを管理者に提示する(図2のステップS617)。
 ここで、上記各動作ステップについては、これをコンピュータで実行可能にプログラム化し、これらを前記各ステップを直接実行するコンピュータである運用管理装置100に実行させるようにしてもよい。
 本実施の形態によれば、障害期間抽出手段110が、異常度の時系列変化から障害期間を抽出し、異常度変化情報算出手段111と異常度分布情報算出手段113によって、障害期間内の相関変化の概要情報が生成される。これにより、管理者は、どの期間が障害であるのかと、その障害がどのような異常なのかの概略を的確に把握することができる。
 本実施の形態に係る運用管理装置100では、正常時の相関関係を示す相関モデルとの一致度合いに基づいて障害期間を特定するため、判定値が小さい(一致度合いが高い)場合には、システム内での挙動が正常に戻ったことを示しており、性能情報に対する閾値のみで判定する場合と比べて、異常である期間と正常な期間を明確に区別することができる。
 さらに、本実施の形態に係る運用管理装置100では、個々の要素毎の異常値だけでなく、ボトルネックなど入出力の関係にある他の要素の性能値との関係に起因する異常を検出することが可能となる。どの要素に関する異常であるかを管理者に正確に提示することができるので、管理者はミスを低減し効率的な対処を行うことが可能となる。
 上記説明では、グループ毎の異常分布を積み上げグラフで提示する例で説明したが、その例に限定されるものではなく、障害期間内の異常要素の内訳を提示できるものであれば、他の方法を用いても同様の効果が得られるものである。また、表示画面のグラフに障害期間を図示する例で説明したが、その例に限定されるものではなく、障害開始や終了を示すメッセージを発行し、障害分析手段104で行われるイベント分析の機能を利用して情報提示や対処を行うものであっても良い。この場合においても、相関変化から障害期間を特定することで、正確に性能障害を特定できるという効果が得られるものである。
(第2の実施形態)
 本発明の第2の実施形態に係る運用管理装置200は、第1の実施形態に加えて、第1および第2の性能情報から障害の発生を検出する障害分析手段104と、相関モデルから、性能情報間の相関関係の強さおよび関係する要素のパターンから性能情報を分類して性能分類情報を生成する性能分類情報生成手段216をさらに有する。
 そして、障害分析手段104によって分析された障害の履歴を蓄積する過去障害情報蓄積手段214と、過去障害情報蓄積手段214に記憶された情報をそれぞれ異常度変化情報算出手段111が算出した異常度変化情報および異常度分布情報算出手段113が算出した異常度分布情報と比較して、これらの異常度変化情報および異常度分布情報と類似する障害を検索する類似障害探索手段215とを有する。
 この構成を備えることにより、運用管理装置200は、性能情報のグループを自動的に生成して、類似探索が可能となったことによって、管理者が性能分類情報を作成する必要がなくなり、その負荷を低減できる。
 以下、これをより詳細に説明する。図6は、本発明の第2の実施形態に係る運用管理装置200の構成を示す説明図である。図1で説明した第1の実施形態に係る運用管理装置100の構成に加えて、過去障害情報蓄積手段214と、類似障害探索手段215と、性能分類情報生成手段216とを異常度分析部115に含んで構成されることを特徴とする。障害分析手段104は第1の実施形態に係る運用管理装置100に含まれているので、運用管理装置200にも含まれる。
 このうち、過去障害情報蓄積手段214は、運用管理装置200が予め備える、ディスク装置などのような不揮発性記憶手段によって実現される。これら以外の構成要素は、第1の実施形態に係る運用管理装置100と共通の動作および作用を有するため、要素名および参照番号も全て同一とする。
 過去障害情報蓄積手段214は、障害分析手段104によって分析された障害の履歴を蓄積する。類似障害探索手段215は、異常度変化情報算出手段111および異常度分布情報算出手段113から各々異常度変化情報および異常度分布情報を受け取り、過去障害情報蓄積手段214から類似する障害を探索する。
 性能分類情報生成手段216は、相関モデル蓄積手段108から相関モデルを読み出し、性能情報間の相関関係の強さおよび関係要素のパターンから性能情報を分類して性能分類情報を生成する。
 図7は、図6で示した運用管理装置200の動作を示すフローチャートである。本実施形態に係る運用管理装置200の動作は、図2で示した第1の実施形態に係る運用管理装置100の動作に加えて、次に説明するステップS622とステップS628とを新たに含む。
 第1の実施形態と同様にして相関モデルが生成(ステップS621)された後、性能分類情報生成手段216は、相関モデル蓄積手段108から相関モデルを読み出し、性能情報間の相関関係の強さおよび関係要素のパターンから性能情報を分類して性能分類情報を生成する(ステップS622)。
 前記性能分類情報生成手段216は、サービス実行手段101の性能情報を一般的な分類の手法を用いて行うものであるが、前記性能情報が一定の関係を持つ場合に、その挙動からシステム構成のグループを推定して性能情報を分類するようにしてもよいものである。例えば前記サービス実行手段101が負荷分散されたサーバ群であれば、ある程度の定常負荷がかかる状況では、それぞれの入力と処理量が均等な値を示すため、前記サーバ群については、相互に強い相関関係が生成される。また、前記サービス実行手段101が「Web」サーバや「AP」サーバのように、処理に流れがある場合、時系列順に前段から後段への関係は明確であるものの、逆の関係が弱くなる等の特徴が考えられる。その他、使用メモリと空きメモリのような反転関係や合算値となるものなどがある。前記性能分類情報生成手段216は、上述した情報を考慮して、サービス実行手段101の性能情報分類情報を生成する。
 次に、第1の実施形態と同様にしてステップS623~626(図2のステップS612~615に相当)の処理が行われた後、前記性能分類情報生成手段216が生成した性能分類情報を用いて、異常度分布情報算出手段113は異常度分布情報を算出する(ステップS627)。
 さらに、類似障害探索手段215は、前記異常度変化情報算出手段111が算出した異常度変化情報および前記異常度分布情報算出手段113が算出した異常度分布情報を受け取り、過去障害情報蓄積手段214に蓄積されている過去の障害事例から、類似する異常度変化または異常度分布を持つ事例を探索し、その内容を出力する(ステップS628)。障害分析手段104は、前記類似障害探索手段215が検索した情報と情報収集手段103が取得した情報とに基づいて障害を分析し、その分析結果を管理者対話手段105を介して、このようにして解析された障害内容を管理者に提示する(ステップS629)。
 以上説明したように、本実施の形態によれば、性能分類情報生成手段216が相関モデルに含まれる相関関係からサービス実行手段の性能情報のグループを自動的に生成するため、サービス実行手段の性能情報を分類するための性能分類情報を作成する管理者の負担を大幅に低減させることができる。
 また、本実施の形態では、類似障害探索手段215が、抽出された障害期間の異常度変化と異常度分布に従って過去の事例を探索する。この場合、汎用の運用管理装置では、障害事例を探索するために障害時に発生したエラーメッセージ等を用いており、性能情報のような連続的に変化する情報の類似情報を探索するためには、多次元状態空間の探索などの処理負荷の大きい処理が必要であった。これに対して、本実施の形態では、過去事例を探索するためにキーとなる情報が障害期間や異常度分布として生成されるため、処理負荷を増大させることなく、性能情報の類似探索を行う事ができる。
(第3の実施の形態)
 本発明の第3の実施形態に係る運用管理装置300は、第2の実施形態に加えて、相関モデルおよび性能情報に含まれる分類情報と順序情報から、要素(サービス実行手段101)毎に、該要素に障害が発生して他の要素(サービス実行手段101)に波及する場合に想定される異常度分布パターンを予測し、異常度分布情報と異常度分布パターンとを比較して障害がどの要素において発生したかを推定する障害要素推定手段317を有する。
 この構成を備えることにより、運用管理装置300は、異常の発生した要素を正確に推定でき、これによって対処ミスを低減し、より効率的な対処を実現することができる。
 以下、これをより詳細に説明する。図8は、本発明の第3の実施形態に係る運用管理装置300の構成を示す説明図である。運用管理装置300は、図6で説明した第2の実施形態に係る運用管理装置200の構成に加えて、異常度分析部115に障害要素推定手段317を含んで構成される。また、性能分類情報蓄積手段112に蓄積される性能分類情報は、性能情報のグループを示す分類情報に加えて、グループ間の処理順序を示す順序情報を新たに保持する。これら以外の構成要素は、次に説明する点を除いて、第2の実施形態に係る運用管理装置200と共通の動作および作用を有するため、要素名および参照番号も全て同一とする。
 障害要素推定手段317は、相関モデル蓄積手段108および性能分類情報蓄積手段112に蓄積された相関モデルおよび性能分類情報に含まれる、分類情報と順序情報を受け取り、システム内の要素(サービス実行手段101)毎に、それぞれの要素が障害になって他の要素(サービス実行手段101)に波及する場合に想定される異常度分布パターンを予測する。さらに、異常度分布情報算出手段113から異常度分布情報を受け取り、自らが予測した異常度分布パターンと比較することにより、システム内のどの要素の障害であるかを推定する。
 類似障害探索手段215は、過去事例を探索する場合に、障害要素推定手段317が推定した障害要素の情報を含んで探索する機能を新たに有し、障害分析手段104は、管理者対話手段105を介して、その解析結果を管理者に提示する機能を新たに有する。
 図9は、図8で示した運用管理装置300の動作を示すフローチャートである。本実施形態に係る運用管理装置300の動作は、図7で示した第2の実施形態に係る運用管理装置200の動作に加えて、以下で説明するステップS633およびステップS639を含む。
 第2の実施形態と同様に、相関モデルが生成(ステップS631)され、性能分類情報が生成(ステップS632)された後、障害要素推定手段317は、相関モデル蓄積手段108から読み出した相関モデルと性能分類情報蓄積手段112から読み出した性能分類情報とを比較して、システム内の要素毎に、それぞれの要素が障害になった場合に想定される異常度分布パターンを予測する(ステップS633)。
 図10は、図8で示した障害要素推定手段317の動作の概要を示す説明図である。図10の関係図362では、図3の関係図151のグループ分類に加えて、各グループ間の処理順序を示す矢印が追加されている。異常度パターン331は、障害要素推定手段317が推定した異常度分布パターンの例を示す。異常度パターン331は、システム内のある要素が障害になった場合に、グループ間の処理順序に従って、障害要素となる性能情報から相関モデルに含まれる相関関係を探索した場合に、どの相関関係が破壊されるかを予め算出したものである。
 例えば、「Web」グループのサーバに異常があった場合、「Web」グループに含まれる他のサーバとの相関関係が破壊される。しかし、Webサーバが処理を行わない状況では、後段のAPサーバやDBサーバの入力がない状態となり、このため処理は行われないが、性能情報間の相関関係は正しく維持される。このため、異常度分布は、台数の多い「Web」グループの相関変化が多く、他のグループの相関変化は少なくなっている。「AP」グループや「DB」グループのサーバが異常な場合の異常度分布パターンも、これと同様に予測される。
 図9に戻って、次に、第2の実施形態と同様にしてステップS634~638(図7のステップS623~627に相当)の処理が行われた後、障害要素推定手段317は、異常度分布情報算出手段113から受け取った異常度分布情報と、ステップS633で予測した異常度分布パターンを比較して、システム内のどの要素の障害であるかを推定する(ステップS639)。
 この後、類似障害探索手段215は、この推定結果を含めて過去事例を探索し(ステップS640)、障害分析手段104が管理者対話手段105を介して、このようにして解析された障害内容を管理者に提示する(ステップS641)。
 図11および図12は、このようにして図8で示した障害分析手段104が管理者に提示する表示画面343および344の例を示す説明図である。図5の表示画面142と同様に、図11の表示画面343では異常度グラフ343aが図示され、図12の表示画面344では、異常度分布の積み上げグラフ344aが図示される。
 さらに、図11~12の表示画面343~344では、抽出された障害候補のリスト343bおよび344bが提示されている。この場合、表示画面344に示す障害1の異常度分布情報を、障害要素推定手段317が推定した図10の異常度パターン331と比較した結果、APサーバの障害であると推定し、その異常度変化情報の大きさから重要度が「大」であること、および、異常度が大きい要素である「AP.D.CPU」が異常要素であると推定されること、が提示されている。同様に、障害2は、重要度が「小」の「Web」グループの障害と推定されている。表示画面343および344では、類似障害の情報は省略されているが、これを障害候補の詳細情報として提示することもできる。
 以上説明したように、本実施の形態によれば、障害要素推定手段317が、システム内の要素が異常になった場合の異常度パターンを予測し、算出された異常度分布情報と比較することで、どの要素が異常であるかの推定結果を管理者に提示することができる。例えば、図12の障害1の分布では「AP」グループの数は少なく、他のグループの方が多いため、管理者が他のグループの障害と誤認する危険性がある。しかし、本実施の形態では、相関関係を処理順序に従って辿ることで、この分布となる場合が「AP」グループの障害であるとの推定結果を管理者に提示することができる。これにより、対処ミスを低減し、より効率的な対処を実現することができる。
(第4の実施形態)
 本発明の第4の実施形態に係る運用管理装置400は、第3の実施形態に係る運用管理装置300と同一の構成の装置で、障害期間抽出手段が、障害期間を障害開始期間、障害継続期間、および障害終了期間に分類する。
 この構成を備えることにより、運用管理装置400は、障害の原因とその影響について管理者に対して正確に提示することが可能となる。
 以下、これをより詳細に説明する。本発明の第4の実施形態に係る運用管理装置400の構成は、図8で説明した第3の実施形態に係る運用管理装置300の構成と同一であるので、図8の「300」を単純に「400」に読み替えることとして説明を継続する。しかしながら運用管理装置400では、障害期間抽出手段110が新たに、正常閾値以下の値から障害閾値以上の値に継続して増加する障害開始期間と、障害開始期間の後に、正常閾値以下の値が一定数だけ継続する障害終了期間と、障害開始期間と障害終了期間の挟まれた障害継続期間とに障害期間を分割する機能を有する。さらに、異常度変化情報算出手段111および異常度分布情報算出手段113が、それぞれの期間の異常度変化情報と異常度分布情報を算出する機能を新たに有する。
 図13は、上記の運用管理装置400で、異常度変化情報算出手段111および異常度分布情報算出手段113によって算出された異常度分布の一例を示すグラフ472である。グラフ472は、異常度の時系列変化を示すグラフ472aと、異常度分布を示す積み上げグラフ472bとからなる。第1の実施形態において図4を用いて説明した例では、障害期間1および障害期間2のそれぞれに一様な異常度分布となっている。
 これに対して図13で示す運用管理装置400の場合は、障害期間抽出手段110によって、それぞれの障害期間が障害開始期間、障害継続期間、障害終了期間の3つの期間に分割されている。また、異常度変化情報算出手段111と異常度分布情報算出手段113によって、分割された期間毎に異常度の分布が生成されている。
 図14は、上記の運用管理装置400で、管理者対話手段105が管理者に提示する表示画面445の例を示す。表示画面445は、第3の実施の形態において図12で説明した表示画面344に対して、障害1および障害2の分布画面が3つの積み上げグラフに分割されている。例えば、障害1では、障害開始期間では「Web」グループの異常が多い分布となり、障害継続期間では「DB」グループの異常が分布が多い分布となっている。これにより、管理者は、障害発生時にどのような分布となり、その後、どの範囲に影響があるのかを把握することができる。
 第3の実施の形態では、障害期間が終了しなければ正確な分布を抽出することができず、また、障害が長期に継続するような場合に、障害発生時の分布が、後続する異常の分布の影響を受けてわかりづらくなるという問題がある。これに対して、本実施の形態では、障害発生時の分布と、以降継続した期間の分布を分離することができるため、障害発生時に迅速に障害内容を把握することが可能となるとともに、障害原因(発生時の分布)と影響範囲(継続時の分布)を区別することができる。さらに、障害終了時の分布によって、正常状態への復帰の状況を把握することもできる。
 これまで本発明について図面に示した特定の実施形態をもって説明してきたが、本発明は図面に示した実施形態に限定されるものではなく、本発明の効果を奏する限り、これまで知られたいかなる構成であっても採用することができる。
 この出願は2008年9月18日に出願された日本出願特願2008-239068を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、WEBサービスや業務サービスといった情報通信サービスを提供する情報処理装置で、該情報処理装置の中でシステムの性能劣化を検知し、局所化する運用管理装置に対して適用することができる。
  100、200、300、400 運用管理装置
  101 サービス実行手段
  102 性能情報蓄積手段
  103 情報収集手段
  104 障害分析手段
  105 管理者対話手段
  106 対処実行手段
  107 相関モデル生成手段
  108 相関モデル蓄積手段
  109 相関変化分析手段
  110 障害期間抽出手段
  111 異常度変化情報算出手段
  112 性能分類情報蓄積手段
  113 異常度分布情報算出手段
  114 制御部
  115 異常度分析部
  131 性能分類情報
  142 表示画面
  142a 異常度グラフ
  142b 異常度分布
  161、362 関係図
  171 異常度分布
  171a、171b グラフ
  214 過去障害情報蓄積手段
  215 類似障害探索手段
  216 性能分類情報生成手段
  317 障害要素推定手段
  331 異常度パターン
  343、344、445 表示画面
  472、472a、472b グラフ
  511 性能情報
  521 相関モデル
  541 表示画面
  541a 相関破壊数
  541b 相関関係図
  541c 異常度合いの大きい要素のリスト

Claims (14)

  1.  システムを構成する単数または複数の被管理装置から複数種の性能種目毎の性能情報を取得して、前記被管理装置を運用管理する運用管理装置であって、
     前記性能種目または前記被管理装置を要素とした場合に、前記要素から少なくとも第1の要素に関する性能情報の時系列変化を示す第1の性能情報および第2の要素に関する性能情報の時系列変化を示す第2の性能情報とを収集する情報収集手段と、
     前記第1および第2の性能情報の間の相関関数を導出し、この相関関数に基づいて相関モデルを生成する相関モデル生成手段と、
     前記情報収集手段が取得した現在の前記第1および第2の性能情報が前記相関関数で示された関係を一定の誤差範囲内で満たしているか否かを判定する相関変化分析手段と、
     前記相関変化分析手段が前記第1および第2の性能情報が前記相関関数で示された関係を満たしていない状態であると判定した場合に、該状態である期間を障害期間として抽出する障害期間抽出手段とを有することを特徴とする運用管理装置。
  2.  前記障害期間抽出手段の抽出した障害期間の間、前記第1および第2の性能情報が前記相関関数から外れた度合いである異常度についての統計情報を異常度変化情報として算出する異常度変化情報算出手段を有することを特徴とする、請求項1に記載の運用管理装置。
  3.  前記性能情報を複数種類に分類し、性能分類情報として保存する性能分類情報蓄積手段と、
     前記性能分類情報蓄積手段に蓄積された性能分類情報から、前記障害期間内に変化した相関関係に含まれる前記性能情報とその異常度とを抽出して前記性能情報の前記要素毎の異常度の分布を示す異常度分布情報を算出する異常度分布情報算出手段とを有することを特徴とする、請求項2に記載の運用管理装置。
  4.  前記相関モデルから、前記性能情報間の相関関係の強さおよび関係する前記要素のパターンから前記性能情報を分類して性能分類情報を生成する性能分類情報生成手段を有することを特徴とする、請求項3に記載の運用管理装置。
  5.  前記第1および第2の性能情報から障害の発生を検出する障害分析手段と、
     前記障害分析手段によって分析された障害の履歴を蓄積する過去障害情報蓄積手段と、
     前記過去障害情報蓄積手段に記憶された情報を前記異常度変化情報および前記異常度分布情報と比較して、これらの異常度変化情報および異常度分布情報と類似する障害を検索する類似障害探索手段とを有することを特徴とする、請求項3に記載の運用管理装置。
  6.  前記相関モデルおよび前記性能情報に含まれる分類情報と順序情報から、前記要素毎に、該要素に障害が発生して他の要素に波及する場合に想定される異常度分布パターンを予測し、前記異常度分布情報と異常度分布パターンとを比較して前記障害がどの要素において発生したかを推定する障害要素推定手段を有することを特徴とする、請求項4に記載の運用管理装置。
  7.  前記障害期間抽出手段が、前記障害期間を障害開始期間、障害継続期間、および障害終了期間に分類することを特徴とする、請求項1ないし請求項6のうちいずれか1項に記載の運用管理装置。
  8.  システムを構成する単数または複数の被管理装置から複数種の性能種目毎の性能情報を取得して、前記被管理装置を運用管理する運用管理方法であって、
     前記性能種目又は前記被管理装置を要素とした場合に、前記要素から少なくとも第1の要素に関する性能情報の時系列変化を示す第1の性能情報および第2の要素に関する性能情報の時系列変化を示す第2の性能情報とを収集し、
     前記第1および第2の性能情報の間の相関関数を導出し、その相関関数に基づいて相関モデルを生成し、
     前記取得した前記第1および第2の性能情報が前記相関関数で示された関係を一定の誤差範囲内で満たしているか否かを判定し、
     前記第1および第2の性能情報が前記相関関数で示された関係を満たしていない状態であると判定された場合に、該状態である期間を障害期間として抽出することを特徴とする運用管理方法。
  9.  前記抽出した障害期間の間、前記第1および第2の性能情報が前記相関関数から外れた度合いである異常度についての統計情報を異常度変化情報として算出することを特徴とする、請求項8に記載の運用管理方法。
  10.  前記性能情報を複数種類に分類し、性能分類情報として保存し、
     前記性能分類情報から、前記障害期間内に変化した相関関係に含まれる前記性能情報とその異常度とを抽出して前記性能情報の前記要素毎の異常度の分布を示す異常度分布情報を算出することを特徴とする請求項9に記載の運用管理方法。
  11.  前記相関モデルから、前記性能情報間の相関関係の強さおよび関係する前記要素のパターンから前記性能情報を分類して性能分類情報を生成することを特徴とする請求項10に記載の運用管理方法。
  12.  記憶された過去の障害履歴情報を前記異常度変化情報および前記異常度分布情報と比較して、これらの異常度変化情報および異常度分布情報と類似する障害を検索することを特徴とする請求項10に記載の運用管理方法。
  13.  前記相関モデルおよび前記性能情報に含まれる分類情報と順序情報から、前記要素毎に、該要素に障害が発生して他の要素に波及する場合に想定される異常度分布パターンを予測し、前記異常度分布情報と異常度分布パターンとを比較して前記障害がどの要素において発生したかを推定することを特徴とする請求項11に記載の運用管理方法。
  14.  システムを構成する単数または複数の被管理装置から複数種の性能種目毎の性能情報を取得して、前記被管理装置を運用管理する運用管理装置を制御するコンピュータに、
     前記性能種目又は前記被管理装置を要素とした場合に、前記要素から少なくとも第1の要素に関する性能情報の時系列変化を示す第1の性能情報および第2の要素に関する性能情報の時系列変化を示す第2の性能情報とを収集する機能と、
     前記第1および第2の性能情報の間の相関関数を導出し、その相関関数に基づいて相関モデルを生成する機能と、
     前記情報収集手段が取得した現在の前記第1および第2の性能情報が前記相関関数で示された関係を一定の誤差範囲内で満たしているか否かを判定する機能と、
     前記第1および第2の性能情報が前記相関関数で示された関係を満たしていない状態であると判定された場合に、該状態である期間を障害期間として抽出する機能とを実行させることを特徴とする運用管理プログラム。
PCT/JP2009/065990 2008-09-18 2009-09-14 運用管理装置、運用管理方法、および運用管理プログラム WO2010032701A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010529747A JP5375829B2 (ja) 2008-09-18 2009-09-14 運用管理装置、運用管理方法、および運用管理プログラム
EP09814546.9A EP2330510B1 (en) 2008-09-18 2009-09-14 Operation management device, operation management method, and operation management program
US13/003,793 US8700953B2 (en) 2008-09-18 2009-09-14 Operation management device, operation management method, and operation management program
CN200980127693.8A CN102099795B (zh) 2008-09-18 2009-09-14 运用管理装置、运用管理方法和运用管理程序
US14/188,190 US9507687B2 (en) 2008-09-18 2014-02-24 Operation management device, operation management method, and operation management program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008239068 2008-09-18
JP2008-239068 2008-09-18

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/003,793 A-371-Of-International US8700953B2 (en) 2008-09-18 2009-09-14 Operation management device, operation management method, and operation management program
US14/188,190 Continuation US9507687B2 (en) 2008-09-18 2014-02-24 Operation management device, operation management method, and operation management program

Publications (1)

Publication Number Publication Date
WO2010032701A1 true WO2010032701A1 (ja) 2010-03-25

Family

ID=42039525

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/065990 WO2010032701A1 (ja) 2008-09-18 2009-09-14 運用管理装置、運用管理方法、および運用管理プログラム

Country Status (5)

Country Link
US (2) US8700953B2 (ja)
EP (1) EP2330510B1 (ja)
JP (1) JP5375829B2 (ja)
CN (1) CN102099795B (ja)
WO (1) WO2010032701A1 (ja)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011201336A (ja) * 2010-03-24 2011-10-13 Hitachi Ltd 移動体異常判断支援システム
WO2011155621A1 (ja) * 2010-06-07 2011-12-15 日本電気株式会社 障害検出装置、障害検出方法およびプログラム記録媒体
JP2012108708A (ja) * 2010-11-17 2012-06-07 Nec Corp 障害検知装置、情報処理方法、およびプログラム
WO2012086824A1 (ja) * 2010-12-20 2012-06-28 日本電気株式会社 運用管理装置、運用管理方法、及びプログラム
WO2012128388A1 (ja) * 2011-03-23 2012-09-27 日本電気株式会社 運用管理システム、運用管理方法、及びプログラム
JP2012190378A (ja) * 2011-03-14 2012-10-04 Kddi Corp サーバシステム
WO2013027562A1 (ja) * 2011-08-24 2013-02-28 日本電気株式会社 運用管理装置、運用管理方法、及びプログラム
WO2013136739A1 (ja) 2012-03-14 2013-09-19 日本電気株式会社 運用管理装置、運用管理方法、及び、プログラム
JP2014507727A (ja) * 2011-02-14 2014-03-27 インターナショナル・ビジネス・マシーンズ・コーポレーション パフォーマンス・メトリックを監視するためのコンピュータによって実施される方法、コンピュータ可読記憶媒体、およびシステム
JP2014132421A (ja) * 2013-01-07 2014-07-17 Fujitsu Ltd 分析方法、分析装置、及び分析プログラム
WO2014109112A1 (ja) * 2013-01-11 2014-07-17 株式会社日立製作所 情報処理システム監視装置、監視方法、及び監視プログラム
WO2014125796A1 (ja) 2013-02-18 2014-08-21 日本電気株式会社 システム分析装置、及び、システム分析方法
EP2884695A1 (en) 2013-12-16 2015-06-17 Hitachi, Ltd. Management server and control method for management server
JP2015153077A (ja) * 2014-02-13 2015-08-24 日本電信電話株式会社 監視機器情報分析装置及び方法及びプログラム
WO2015145664A1 (ja) * 2014-03-27 2015-10-01 株式会社日立製作所 リソース管理方法およびリソース管理システム
JP2015197850A (ja) * 2014-04-02 2015-11-09 三菱電機ビルテクノサービス株式会社 設備監視装置及びプログラム
JP2017523526A (ja) * 2014-07-30 2017-08-17 マイクロソフト テクノロジー ライセンシング,エルエルシー 分散システムにおける故障解析のための視覚ツール
WO2018122890A1 (ja) * 2016-12-27 2018-07-05 日本電気株式会社 ログ分析方法、システムおよびプログラム
US10069699B2 (en) 2015-02-26 2018-09-04 Nippon Telegraph And Telephone Corporation Monitoring device information analyzing device and method, and non-transitory storage medium storing program
JP2019191929A (ja) * 2018-04-25 2019-10-31 株式会社日立製作所 性能分析方法および管理計算機
US10977108B2 (en) 2017-01-18 2021-04-13 Fujitsu Limited Influence range specifying method, influence range specifying apparatus, and storage medium
CN114471408A (zh) * 2022-01-27 2022-05-13 广东天航动力科技有限公司 一种粉体材料生产用自动监控系统
JP7302908B1 (ja) 2022-02-21 2023-07-04 Necプラットフォームズ株式会社 運用管理システム、運用管理方法及び運用管理のためのコンピュータプログラム
JP7302439B2 (ja) 2019-10-30 2023-07-04 富士通株式会社 システム分析方法、およびシステム分析プログラム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5375829B2 (ja) * 2008-09-18 2013-12-25 日本電気株式会社 運用管理装置、運用管理方法、および運用管理プログラム
EP2228770B1 (de) * 2009-03-10 2012-08-01 Siemens Aktiengesellschaft Verfahren und Datenverarbeitungsgerät zur Erzeugung und zur Ausgabe eines mehrdimensionalen Diagramms mit mindestens zwei Graphen
US9513403B2 (en) * 2009-07-27 2016-12-06 Peck Labs, Inc Methods and systems for displaying customized icons
US8677191B2 (en) 2010-12-13 2014-03-18 Microsoft Corporation Early detection of failing computers
CN102609346B (zh) * 2012-01-16 2014-12-03 深信服网络科技(深圳)有限公司 基于业务操作的监控方法和装置
CN104137078B (zh) * 2012-01-23 2017-03-22 日本电气株式会社 操作管理设备、操作管理方法和程序
US9372786B1 (en) * 2012-06-13 2016-06-21 Amazon Technologies, Inc. Constructing state-transition functions for mobile devices
CN104798049B (zh) * 2012-11-20 2017-08-04 日本电气株式会社 操作管理装置和操作管理方法
US9761027B2 (en) 2012-12-07 2017-09-12 General Electric Company Methods and systems for integrated plot training
US20140160152A1 (en) * 2012-12-07 2014-06-12 General Electric Company Methods and systems for integrated plot training
JP6708203B2 (ja) 2015-03-17 2020-06-10 日本電気株式会社 情報処理装置、情報処理方法、及び、プログラム
FR3043223A1 (fr) 2015-11-02 2017-05-05 Bull Sas Mecanisme d'analyse de correlation lors de la degradation des performances d'une chaine applicative.
US11615273B2 (en) * 2016-01-27 2023-03-28 Nippon Telegraph And Telephone Corporation Creating apparatus, creating method, and creating program
CN107203450B (zh) * 2016-03-16 2020-06-02 伊姆西Ip控股有限责任公司 故障的分类方法和设备
JP6717067B2 (ja) * 2016-06-13 2020-07-01 富士通株式会社 対処履歴分析プログラム、方法、及び装置
JP2018066084A (ja) * 2016-10-19 2018-04-26 村田機械株式会社 紡績機械管理システム及び管理方法
EP3407273A1 (de) * 2017-05-22 2018-11-28 Siemens Aktiengesellschaft Verfahren und anordnung zur ermittlung eines anomalen zustands eines systems
US11294758B2 (en) * 2017-11-30 2022-04-05 Vmware, Inc. Automated methods and systems to classify and troubleshoot problems in information technology systems and services
JP2019200618A (ja) * 2018-05-16 2019-11-21 日本電信電話株式会社 作成装置、作成方法、および作成プログラム
CN108923952B (zh) * 2018-05-31 2021-11-30 北京百度网讯科技有限公司 基于服务监控指标的故障诊断方法、设备及存储介质
US20220121191A1 (en) * 2019-02-14 2022-04-21 Nec Corporation Time-series data processing method
US11221908B1 (en) * 2021-03-02 2022-01-11 International Business Machines Corporation Discovery of an inexplicit link between a change and an incident in a computing environment

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06175626A (ja) 1992-10-06 1994-06-24 Hitachi Ltd プラント監視制御装置及びプラント監視方法
JP2002099448A (ja) 2000-09-21 2002-04-05 Ntt Data Corp 性能監視装置、及びその方法
JP2005257416A (ja) 2004-03-10 2005-09-22 Internatl Business Mach Corp <Ibm> 診断装置、検出装置、制御方法、検出方法、プログラム、及び記録媒体
JP2006048253A (ja) 2004-08-02 2006-02-16 Internatl Business Mach Corp <Ibm> 異常検出装置、異常検出方法、異常検出プログラム、及び記録媒体
JP2006092358A (ja) * 2004-09-24 2006-04-06 Fujitsu Ltd トレースデータの採取方法、採取プログラム、およびその採取装置
JP2006146668A (ja) * 2004-11-22 2006-06-08 Ntt Data Corp 運用管理支援装置及び運用管理支援プログラム
JP2007207117A (ja) * 2006-02-03 2007-08-16 Ns Solutions Corp 性能監視装置、性能監視方法及びプログラム
JP2007272693A (ja) * 2006-03-31 2007-10-18 Fujitsu Ltd システム分析プログラム、システム分析方法およびシステム分析装置
JP2007293393A (ja) 2006-04-20 2007-11-08 Toshiba Corp 障害監視システムと方法、およびプログラム
JP2008059102A (ja) * 2006-08-30 2008-03-13 Fujitsu Ltd コンピュータ資源監視プログラム
JP4089339B2 (ja) 2002-07-31 2008-05-28 日本電気株式会社 障害情報表示装置及びプログラム
JP2008191849A (ja) * 2007-02-02 2008-08-21 Ns Solutions Corp 稼働管理装置、情報処理装置、稼働管理装置の制御方法、情報処理装置の制御方法及びプログラム
JP2008239068A (ja) 2007-03-28 2008-10-09 Denso Corp 緩衝装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7444263B2 (en) * 2002-07-01 2008-10-28 Opnet Technologies, Inc. Performance metric collection and automated analysis
US7668953B1 (en) * 2003-11-13 2010-02-23 Cisco Technology, Inc. Rule-based network management approaches
JP3922375B2 (ja) * 2004-01-30 2007-05-30 インターナショナル・ビジネス・マシーンズ・コーポレーション 異常検出システム及びその方法
US7424666B2 (en) * 2005-09-26 2008-09-09 Intel Corporation Method and apparatus to detect/manage faults in a system
US7590513B2 (en) * 2006-01-30 2009-09-15 Nec Laboratories America, Inc. Automated modeling and tracking of transaction flow dynamics for fault detection in complex systems
EP1895416B1 (en) * 2006-08-25 2011-07-06 Accenture Global Services Limited Data visualization for diagnosing computing systems
JP4413915B2 (ja) * 2006-12-13 2010-02-10 株式会社東芝 異常兆候検出装置および方法
US20080155336A1 (en) * 2006-12-20 2008-06-26 International Business Machines Corporation Method, system and program product for dynamically identifying components contributing to service degradation
US8250408B1 (en) * 2007-04-02 2012-08-21 Hewlett-Packard Development Company, L.P. System diagnosis
US8095830B1 (en) * 2007-04-03 2012-01-10 Hewlett-Packard Development Company, L.P. Diagnosis of system health with event logs
JP4990018B2 (ja) * 2007-04-25 2012-08-01 株式会社日立製作所 装置性能管理方法、装置性能管理システム、および管理プログラム
JP4872945B2 (ja) * 2008-02-25 2012-02-08 日本電気株式会社 運用管理装置、運用管理システム、情報処理方法、及び運用管理プログラム
JP4872944B2 (ja) * 2008-02-25 2012-02-08 日本電気株式会社 運用管理装置、運用管理システム、情報処理方法、及び運用管理プログラム
US8015454B1 (en) * 2008-06-02 2011-09-06 Quest Software, Inc. Computer systems and methods for predictive performance management of data transactions
US8230269B2 (en) * 2008-06-17 2012-07-24 Microsoft Corporation Monitoring data categorization and module-based health correlations
WO2010062435A1 (en) * 2008-09-04 2010-06-03 Telcordia Technologies, Inc. Computing diagnostic explanations of network faults from monitoring data
JP5375829B2 (ja) * 2008-09-18 2013-12-25 日本電気株式会社 運用管理装置、運用管理方法、および運用管理プログラム
US7934131B1 (en) * 2009-02-24 2011-04-26 Google Inc. Server farm diagnostic and status system
US8959401B2 (en) * 2009-10-15 2015-02-17 Nec Corporation System operations management apparatus, system operations management method and program storage medium
CN104205063B (zh) * 2012-03-14 2017-05-24 日本电气株式会社 操作管理装置、操作管理方法和程序

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06175626A (ja) 1992-10-06 1994-06-24 Hitachi Ltd プラント監視制御装置及びプラント監視方法
JP2002099448A (ja) 2000-09-21 2002-04-05 Ntt Data Corp 性能監視装置、及びその方法
JP4089339B2 (ja) 2002-07-31 2008-05-28 日本電気株式会社 障害情報表示装置及びプログラム
JP2005257416A (ja) 2004-03-10 2005-09-22 Internatl Business Mach Corp <Ibm> 診断装置、検出装置、制御方法、検出方法、プログラム、及び記録媒体
JP2006048253A (ja) 2004-08-02 2006-02-16 Internatl Business Mach Corp <Ibm> 異常検出装置、異常検出方法、異常検出プログラム、及び記録媒体
JP2006092358A (ja) * 2004-09-24 2006-04-06 Fujitsu Ltd トレースデータの採取方法、採取プログラム、およびその採取装置
JP2006146668A (ja) * 2004-11-22 2006-06-08 Ntt Data Corp 運用管理支援装置及び運用管理支援プログラム
JP2007207117A (ja) * 2006-02-03 2007-08-16 Ns Solutions Corp 性能監視装置、性能監視方法及びプログラム
JP2007272693A (ja) * 2006-03-31 2007-10-18 Fujitsu Ltd システム分析プログラム、システム分析方法およびシステム分析装置
JP2007293393A (ja) 2006-04-20 2007-11-08 Toshiba Corp 障害監視システムと方法、およびプログラム
JP2008059102A (ja) * 2006-08-30 2008-03-13 Fujitsu Ltd コンピュータ資源監視プログラム
JP2008191849A (ja) * 2007-02-02 2008-08-21 Ns Solutions Corp 稼働管理装置、情報処理装置、稼働管理装置の制御方法、情報処理装置の制御方法及びプログラム
JP2008239068A (ja) 2007-03-28 2008-10-09 Denso Corp 緩衝装置

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011201336A (ja) * 2010-03-24 2011-10-13 Hitachi Ltd 移動体異常判断支援システム
EP2579156A4 (en) * 2010-06-07 2015-08-12 Nec Corp DEVICE FOR DETECTING MALFUNCTIONS, METHOD FOR DETECTING OBSTACLES AND PROGRAMMING MEDIUM
JP5267736B2 (ja) * 2010-06-07 2013-08-21 日本電気株式会社 障害検出装置、障害検出方法およびプログラム記録媒体
US9529659B2 (en) 2010-06-07 2016-12-27 Nec Corporation Fault detection apparatus, a fault detection method and a program recording medium
CN103026344B (zh) * 2010-06-07 2015-09-09 日本电气株式会社 故障检测设备、故障检测方法和程序记录介质
WO2011155621A1 (ja) * 2010-06-07 2011-12-15 日本電気株式会社 障害検出装置、障害検出方法およびプログラム記録媒体
CN103026344A (zh) * 2010-06-07 2013-04-03 日本电气株式会社 故障检测设备、故障检测方法和程序记录介质
JP2012108708A (ja) * 2010-11-17 2012-06-07 Nec Corp 障害検知装置、情報処理方法、およびプログラム
WO2012086824A1 (ja) * 2010-12-20 2012-06-28 日本電気株式会社 運用管理装置、運用管理方法、及びプログラム
US8874963B2 (en) 2010-12-20 2014-10-28 Nec Corporation Operations management apparatus, operations management method and program thereof
EP2657843A4 (en) * 2010-12-20 2015-08-12 Nec Corp OPERATING MANAGEMENT DEVICE, OPERATING MANAGEMENT PROCESS AND PROGRAM THEREFOR
US10558544B2 (en) 2011-02-14 2020-02-11 International Business Machines Corporation Multiple modeling paradigm for predictive analytics
JP2014507727A (ja) * 2011-02-14 2014-03-27 インターナショナル・ビジネス・マシーンズ・コーポレーション パフォーマンス・メトリックを監視するためのコンピュータによって実施される方法、コンピュータ可読記憶媒体、およびシステム
US10558545B2 (en) 2011-02-14 2020-02-11 International Business Machines Corporation Multiple modeling paradigm for predictive analytics
JP2012190378A (ja) * 2011-03-14 2012-10-04 Kddi Corp サーバシステム
US9417940B2 (en) 2011-03-23 2016-08-16 Nec Corporation Operations management system, operations management method and program thereof
WO2012128388A1 (ja) * 2011-03-23 2012-09-27 日本電気株式会社 運用管理システム、運用管理方法、及びプログラム
JP5267748B2 (ja) * 2011-03-23 2013-08-21 日本電気株式会社 運用管理システム、運用管理方法、及びプログラム
US10430268B2 (en) 2011-03-23 2019-10-01 Nec Display Solutions, Ltd. Operations management system, operations management method and program thereof
JP5621937B2 (ja) * 2011-08-24 2014-11-12 日本電気株式会社 運用管理装置、運用管理方法、及びプログラム
JPWO2013027562A1 (ja) * 2011-08-24 2015-03-19 日本電気株式会社 運用管理装置、運用管理方法、及びプログラム
US9778972B2 (en) 2011-08-24 2017-10-03 Nec Corporation Operation management device, operation management method
WO2013027562A1 (ja) * 2011-08-24 2013-02-28 日本電気株式会社 運用管理装置、運用管理方法、及びプログラム
WO2013136739A1 (ja) 2012-03-14 2013-09-19 日本電気株式会社 運用管理装置、運用管理方法、及び、プログラム
JP2014132421A (ja) * 2013-01-07 2014-07-17 Fujitsu Ltd 分析方法、分析装置、及び分析プログラム
JP2014134987A (ja) * 2013-01-11 2014-07-24 Hitachi Ltd 情報処理システム監視装置、監視方法、及び監視プログラム
WO2014109112A1 (ja) * 2013-01-11 2014-07-17 株式会社日立製作所 情報処理システム監視装置、監視方法、及び監視プログラム
US9588833B2 (en) 2013-01-11 2017-03-07 Hitachi, Ltd. Information processing system monitoring apparatus, monitoring method, and monitoring program
WO2014125796A1 (ja) 2013-02-18 2014-08-21 日本電気株式会社 システム分析装置、及び、システム分析方法
EP2884695A1 (en) 2013-12-16 2015-06-17 Hitachi, Ltd. Management server and control method for management server
US9647910B2 (en) 2013-12-16 2017-05-09 Hitachi, Ltd. Management server and control method of the management server for managing a service system virtually built using connected components
JP2015153077A (ja) * 2014-02-13 2015-08-24 日本電信電話株式会社 監視機器情報分析装置及び方法及びプログラム
WO2015145664A1 (ja) * 2014-03-27 2015-10-01 株式会社日立製作所 リソース管理方法およびリソース管理システム
US9432256B2 (en) 2014-03-27 2016-08-30 Hitachi, Ltd. Resource management method and resource management system
JP2015197850A (ja) * 2014-04-02 2015-11-09 三菱電機ビルテクノサービス株式会社 設備監視装置及びプログラム
JP2017523526A (ja) * 2014-07-30 2017-08-17 マイクロソフト テクノロジー ライセンシング,エルエルシー 分散システムにおける故障解析のための視覚ツール
US10069699B2 (en) 2015-02-26 2018-09-04 Nippon Telegraph And Telephone Corporation Monitoring device information analyzing device and method, and non-transitory storage medium storing program
WO2018122890A1 (ja) * 2016-12-27 2018-07-05 日本電気株式会社 ログ分析方法、システムおよびプログラム
US10977108B2 (en) 2017-01-18 2021-04-13 Fujitsu Limited Influence range specifying method, influence range specifying apparatus, and storage medium
JP2019191929A (ja) * 2018-04-25 2019-10-31 株式会社日立製作所 性能分析方法および管理計算機
US10986006B2 (en) 2018-04-25 2021-04-20 Hitachi, Ltd. Performance analysis method and management computer
JP7302439B2 (ja) 2019-10-30 2023-07-04 富士通株式会社 システム分析方法、およびシステム分析プログラム
CN114471408A (zh) * 2022-01-27 2022-05-13 广东天航动力科技有限公司 一种粉体材料生产用自动监控系统
CN114471408B (zh) * 2022-01-27 2023-08-08 广东天航动力科技有限公司 一种粉体材料生产用自动监控系统
JP7302908B1 (ja) 2022-02-21 2023-07-04 Necプラットフォームズ株式会社 運用管理システム、運用管理方法及び運用管理のためのコンピュータプログラム

Also Published As

Publication number Publication date
JPWO2010032701A1 (ja) 2012-02-09
EP2330510A1 (en) 2011-06-08
EP2330510A4 (en) 2015-08-12
US20110161743A1 (en) 2011-06-30
US20140173363A1 (en) 2014-06-19
CN102099795B (zh) 2014-08-13
JP5375829B2 (ja) 2013-12-25
US9507687B2 (en) 2016-11-29
CN102099795A (zh) 2011-06-15
EP2330510B1 (en) 2019-12-25
US8700953B2 (en) 2014-04-15

Similar Documents

Publication Publication Date Title
JP5375829B2 (ja) 運用管理装置、運用管理方法、および運用管理プログラム
US10339457B2 (en) Application performance analyzer and corresponding method
US9389946B2 (en) Operation management apparatus, operation management method, and program
US9274869B2 (en) Apparatus, method and storage medium for fault cause extraction utilizing performance values
US10373065B2 (en) Generating database cluster health alerts using machine learning
JP5267736B2 (ja) 障害検出装置、障害検出方法およびプログラム記録媒体
WO2016147657A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体
WO2018073960A1 (ja) 表示方法、表示装置、および、プログラム
JP6183449B2 (ja) システム分析装置、及び、システム分析方法
WO2018073955A1 (ja) システム分析方法、システム分析装置、および、プログラム
JP2019082918A (ja) 監視対象選定装置、監視対象選定方法、およびプログラム
CN115237717A (zh) 一种微服务异常检测方法和系统
JP2005182647A (ja) 機器の異常検知装置
JPWO2019073512A1 (ja) システム分析方法、システム分析装置、および、プログラム
Ding et al. A data analytic engine towards self-management of cyber-physical systems
JP6973445B2 (ja) 表示方法、表示装置、および、プログラム
TWI824681B (zh) 裝置管理系統、裝置的障礙原因推測方法以及非暫時性地記憶程式的記憶媒體
CN117909113A (zh) 应用故障智能分析方法、装置、设备及存储介质

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980127693.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09814546

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2009814546

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13003793

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2010529747

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE