WO2011046228A1 - システム運用管理装置、システム運用管理方法、及びプログラム記憶媒体 - Google Patents

システム運用管理装置、システム運用管理方法、及びプログラム記憶媒体 Download PDF

Info

Publication number
WO2011046228A1
WO2011046228A1 PCT/JP2010/068527 JP2010068527W WO2011046228A1 WO 2011046228 A1 WO2011046228 A1 WO 2011046228A1 JP 2010068527 W JP2010068527 W JP 2010068527W WO 2011046228 A1 WO2011046228 A1 WO 2011046228A1
Authority
WO
WIPO (PCT)
Prior art keywords
correlation
analysis
performance information
correlation model
period
Prior art date
Application number
PCT/JP2010/068527
Other languages
English (en)
French (fr)
Inventor
清志 加藤
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to EP10823495.6A priority Critical patent/EP2490126B1/en
Priority to JP2011536206A priority patent/JPWO2011046228A1/ja
Priority to CN201080046517.4A priority patent/CN102576328B/zh
Priority to US13/133,718 priority patent/US8959401B2/en
Publication of WO2011046228A1 publication Critical patent/WO2011046228A1/ja
Priority to US14/589,255 priority patent/US9384079B2/en
Priority to US15/166,485 priority patent/US10496465B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/079Root cause analysis, i.e. error or fault diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0706Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
    • G06F11/0709Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment in a distributed system consisting of a plurality of standalone computer nodes, e.g. clusters, client-server systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0751Error or fault detection not based on redundancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0766Error or fault reporting or storing
    • G06F11/0787Storage of error reports, e.g. persistent data storage, storage using memory protection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3452Performance evaluation by statistical analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events

Definitions

  • the present invention relates to a system operation management apparatus, a system operation management method, and a program storage medium, and more particularly, to a system operation management apparatus, a system operation management method, and a program storage medium for determining an operation status of a managed system.
  • This system operation management device obtains data indicating the operating status of the hardware of the system to be managed (hereinafter referred to as performance information) online, and analyzes the performance information to analyze the failure on the system to be managed. And the contents thereof are displayed on a display unit (for example, a monitor) which is one element constituting the system operation management apparatus.
  • a display unit for example, a monitor
  • a method for determining the presence or absence of a failure described above a method for determining by setting a threshold value in advance in performance information, a measured value of performance information and a calculated value (theoretical value) of performance information in advance There is a method of determining by providing a reference range for the deviation.
  • the system automatically analyzes the combination of abnormal conditions and the like based on the information on the processing capacity collected from the managed system and estimates the rough problem and the cause of failure. It is important to accept management instructions after notifying the administrator.
  • the system operation management apparatus having the function of reducing the burden on the system administrator for managing the system and repairing the failure.
  • the related technologies are introduced below.
  • the technique disclosed in Japanese Patent Application Laid-Open No. 2004-062741 is a technique related to a failure information display apparatus that displays system failure information.
  • the technique disclosed in Japanese Patent Application Laid-Open No. 2005-257416 is a technique related to an apparatus for diagnosing the measurement target apparatus based on time-series information of parameters acquired from the measurement target apparatus. The technique appropriately detects a failure due to performance degradation of the measurement target device by calculating the strength of correlation between information of each parameter based on the degree of change of the time-series information of the parameter.
  • the technology disclosed in Japanese Patent Laid-Open No. 2006-024017 is a technology related to a system for predicting the capacity of computer resources. The technology compares the history of processing of system elements with the history of changes in performance information, thereby identifying the amount of load caused by a specific processing and analyzing the load at a future processing amount. According to the present technology, the behavior of the system can be specified when the relationship between the processing and the load can be grasped in advance.
  • the technique disclosed in Japanese Patent Laid-Open No. 2006-146668 is a technique related to an operation management support apparatus.
  • the technology acquires hardware operation status information such as a CPU from the managed system and information on the amount of access to the Web management server at a certain time interval, and obtains a correlation between a plurality of elements constituting the information, It is determined from the correlation whether or not the current system state is normal. According to the present technology, it is possible to more flexibly detect the degradation state of the system performance, and it is possible to present the cause and countermeasures of the degradation in detail.
  • the technique disclosed in Japanese Patent Application Laid-Open No. 2007-293393 is a technique related to a failure monitoring system that searches for past similar failures. The technology periodically acquires information related to various processing capabilities and displays the information on the time axis together with information related to failures that have occurred in the past.
  • the technique disclosed in Japanese Patent Laid-Open No. 10-074188 is a technique for a data learning apparatus.
  • the technology compares the learning target information acquired from the data management target device with the information related to the predicted value created in advance, and if the similarity between the two is below a predetermined standard, the acquired information is an exception. It is determined that the information is typical information.
  • the technique corrects the content of information related to the expected value based on the difference between the two. According to the present technology, by repeating these operations, it is possible to improve the accuracy of processing by the data management target device.
  • the techniques disclosed in the above-described patent documents have the following problems.
  • the technique disclosed in Japanese Patent Application Laid-Open No. 2004-062741 has a problem that although a system failure that actually occurs can be dealt with accurately and easily, prevention of a system failure that may occur in the future cannot be solved. Therefore, there is a problem that prevention of a future system failure is still a burdensome work for an inexperienced system administrator.
  • the technique disclosed in Japanese Patent Application Laid-Open No. 2005-257416 in order to identify a failure that actually occurred from the number and content of broken correlations, the configuration and behavior of the target system are accurately understood. It is necessary to keep. In other words, it is necessary to grasp what kind of failure occurs when the correlation is broken.
  • 2007-293393 if the content of the information to be analyzed is information that is continuous in time series without distinction between normal and abnormal, which part is determined only from its value and change It is not possible to clearly identify whether or not this is an obstacle. Therefore, in such a case, there is a problem that the system administrator or the like has to detect the faulty part based on his / her own experience, which imposes a great burden on the system administrator.
  • the system administrator needs to create information relating to the above-described predicted value. Since this creation requires a lot of experience, there is a problem that the system administrator is burdened with a lot of burden.
  • the present invention provides a system operation management apparatus, a system operation management method, and a program storage medium capable of solving the above-described problems and reducing the burden on the system administrator when assigning judgment criteria in future failure detection. With the goal.
  • the system operation management apparatus includes a performance information storage unit that stores performance information including a plurality of types of performance values in the system in time series, and the performance information in each of a plurality of periods having any of a plurality of attributes.
  • Model generation means for generating a correlation model including one or more correlations between performance values of different types stored in the storage means, the input performance information of the system, and a period during which the performance information was acquired
  • Analyzing means for detecting an abnormality of the performance information using the correlation model corresponding to the attribute.
  • performance information including a plurality of types of performance values in the system is stored in time series, and each of a plurality of periods having any of a plurality of attributes has different performance values of the above types.
  • a correlation model including one or more correlations is generated, and the performance information of the system that has been input and the correlation model corresponding to the attribute of the period in which the performance information was acquired are used to detect abnormalities in the performance information Perform detection.
  • the program recording medium of the present invention stores, in a computer, performance information including a plurality of types of performance values in the system in time series, and the performance values of the different types in each of a plurality of periods having any of a plurality of attributes. Generating a correlation model including one or more correlations between the performance information of the system and the correlation model corresponding to the attribute of the period in which the performance information was acquired.
  • the system operation management program that executes the process for detecting the abnormality is recorded.
  • the effect of the present invention is that the system operation management apparatus can greatly reduce the burden on the system administrator when assigning judgment criteria for future failure detection.
  • FIG. 20 is a block diagram showing a configuration as a premise of the system operation management apparatus according to the present invention.
  • the system operation management apparatus 101 manages the operating state of the customer service execution system 4.
  • the customer service execution system 4 receives information E desired by the customer through the telecommunication line and executes a service for providing the information to the customer.
  • the customer service execution system 4 is composed of one or more servers.
  • the customer service execution system 4 may be composed of a computer independent of the system operation management apparatus 101.
  • the system operation management apparatus 101 includes a performance information collection unit 11 and a performance information storage unit 12.
  • the performance information collection unit 11 periodically acquires performance information of a server constituting the customer service execution system 4 from the server.
  • the performance information storage unit 12 sequentially stores the performance information acquired by the performance information collection unit 11. Thereby, the performance information of the server which comprises the customer service execution system 4 can be preserve
  • the server performance information is constituted by a plurality of types of performance values obtained by specifically quantifying the states of various elements (for example, CPU and memory) that affect the operation of the server constituting the customer service execution system 4. Information.
  • FIG. 21 is an explanatory diagram showing an example of performance information of the system operation management apparatus shown in FIG.
  • FIG. 22 is an explanatory diagram showing an example of a state in which the performance information shown in FIG. 21 is accumulated and stored.
  • the performance information collection unit 11 acquires performance information as shown in FIG. 21, and the performance information storage unit 12 stores the performance information as shown in FIG.
  • the system operation management apparatus 101 includes a correlation model generation unit 16, an analysis model storage unit 17, and a correlation change analysis unit 18.
  • the correlation model generation unit 16 generates a correlation model of the operating state of the customer service execution system 4.
  • the analysis model storage unit 17 stores the correlation model generated by the correlation model generation unit 16.
  • the correlation change analysis unit 18 has a difference between the measured value of the performance value constituting the performance information and the calculated value of the conversion function applied to the correlation model stored in the analysis model storage unit 17 within a preset reference range. Judge whether or not there is and output the result. Thereby, the operating state of the customer service execution system 4 can be confirmed.
  • the correlation model generation unit 16 extracts time series data of performance information for a certain period stored in the performance information storage unit 12, and based on the time series data, performance values of any two types in the performance information. A correlation model is generated by deriving a conversion function between the two.
  • the system operation management apparatus 101 includes a failure analysis unit 13, an administrator dialogue unit 14, and a countermeasure execution unit 15.
  • the failure analysis unit 13 analyzes the presence / absence of a system failure in the customer service execution system 4 based on the analysis result of the correlation change analysis unit 18 on the performance information.
  • the administrator dialogue unit 14 displays the determination result to the outside, and from the outside, an instruction to improve the system abnormality with respect to the displayed content
  • the information related to this input is accepted.
  • the coping execution unit 15 receives the information related to the input, and the server constituting the customer service execution system 4 according to the content of the information related to the input Execute the process to deal with the system failure above.
  • the performance information collection unit 11 periodically accesses the server of the customer service execution system 4 and acquires the performance information. Then, the acquired performance information is stored in the performance information storage unit 12. In the embodiment of the present invention, the performance information collection unit 11 periodically acquires performance information and sequentially stores the performance information in the performance information storage unit 12. Next, the performance information storage unit 12 stores the performance information acquired by the performance information collection unit 11. As described above, the performance information storage unit 12 periodically and sequentially stores performance information.
  • the correlation model generation unit 16 receives the performance information stored in the performance information storage unit 12 for a preset acquisition period, selects any two types in the performance information, A conversion function (hereinafter referred to as a correlation function) for converting a time series of performance values of a type into a time series of performance values of the other type is derived. Further, the correlation model generation unit 16 derives the correlation function described above for all combinations of types, and generates a correlation model by combining the correlation functions obtained as a result. Further, the correlation model generation unit 16 stores the correlation model in the analysis model storage unit 17 after generating the above-described correlation model. The analysis model accumulating unit 17 stores the correlation model received from the correlation model generating unit 16.
  • a conversion function hereinafter referred to as a correlation function for converting a time series of performance values of a type into a time series of performance values of the other type is derived. Further, the correlation model generation unit 16 derives the correlation function described above for all combinations of types, and generates a correlation model by combining the correlation functions
  • the correlation change analysis unit 18 uses the other type of performance information obtained by substituting the performance value of one type into the correlation function described above for the performance information newly acquired by the performance information collection unit 11 for analysis.
  • the theoretical value (calculated value) of the performance value is compared with the actual value (actually measured value) of the performance value.
  • correlation change analysis it is determined whether the correlation between the two types of performance values is maintained by determining whether the difference between the two values is within a preset reference range (hereinafter referred to as correlation change analysis). I do.
  • the correlation change analysis unit 18 determines that the correlation between the performance values of both types is maintained normally.
  • the correlation change analysis unit 18 sends the analysis result to the failure analysis unit 13.
  • the failure analysis unit 13 determines whether or not there is a possibility of failure on the server constituting the customer service execution system 4 based on a preset method for the analysis result received from the correlation change analysis unit 18. The result of this determination is sent to the administrator dialogue unit 14.
  • the determination method include the following. As a first example, the failure analysis unit 13 confirms whether or not the number of correlations determined to be abnormal in the correlation change analysis result of the performance information is greater than a preset value.
  • FIG. 25 is a diagram showing an example of contents displayed on the administrator dialogue unit 14 of the system operation management apparatus 101 shown in FIG.
  • the administrator dialogue unit 14 displays the determination result as shown in a display screen 14A in FIG.
  • the manager dialogue unit 14 displays a number of charts so that the system administrator can easily grasp the determination result.
  • the screen display 14A will be further described.
  • the display screen 14A includes a correlation destruction number 14Aa indicating the degree of abnormality in the performance information analysis result, a correlation diagram 14Ab indicating the abnormality location, and a list 14Ac of elements having a large degree of abnormality.
  • the administrator dialogue unit 14 receives an input of an improvement command for the failure from the system administrator who has confirmed the content, and the information Is sent to the countermeasure execution unit 15.
  • the coping execution unit 15 executes a measure based on the failure improvement instruction input to the administrator dialogue unit 14 on the server of the customer service execution system 4. For example, when a command to reduce the amount of work is input from the administrator dialogue unit 14 because the load on a specific CPU is high, the coping execution unit 15 sends a response to the server of the customer service execution system 4 Take measures to reduce the workload. [Generate correlation model]
  • generation of the correlation model by the correlation model generation unit 16 described above will be described more specifically.
  • the correlation model generation unit 16 takes out the performance information stored in the performance information storage unit 12 and acquired in a certain period set in advance from the outside. Next, the correlation model generation unit 16 selects any two types in the performance information. Here, the correlation model generation unit 16 selects “A.CPU” (A.CPU usage rate) and “A.MEM” (A.remaining amount of memory) from the types in the performance information 12B of FIG. Let's proceed with the explanation. The correlation model generation unit 16 calculates a correlation function F for converting from a time series of performance values (input X) of “A.CPU” to a time series of performance values (output Y) of “A.MEM”.
  • the correlation model generation unit 16 can select a suitable function from various types of functions as the contents of the function F.
  • the correlation model generation unit 16 can compare the time series change of the performance value X of “A.MEM” of the performance information 12B with the time series change of the performance value Y of “A.MEM”, and can convert from X to Y.
  • “ ⁇ 0.6” is calculated as ⁇ and “100” is calculated as ⁇ as a result of the calculation.
  • the correlation model generation unit 16 performs the above operation for all combinations of the two types of performance information 12B. For example, when the performance information 12B is composed of performance values of five types, the correlation model generation unit 16 generates a correlation function F for 20 combinations obtained from these five types.
  • this correlation function F serves as a reference for checking the stability of the customer service execution system 4 to be managed, the performance acquired during the period when the customer service execution system 4 is stable (normal time). Created based on information.
  • FIG. 23 is an explanatory diagram showing an example of a correlation model of the system operation management apparatus shown in FIG.
  • the correlation model 17A shown in FIG. 23 includes a plurality of correlation functions based on combinations of two types.
  • the correlation change analysis performed by the correlation change analysis unit 18 will be described in more detail.
  • the performance information collection unit 11 uses the performance information 12Ba (performance information acquired at 8:30 on November 7, 2007) shown in the bottom row of 12B in FIG. 22 as performance information for analysis. The explanation is based on the premise that it has been acquired.
  • the correlation change analysis unit 18 When the correlation change analysis unit 18 receives the performance information 12Ba from the performance information collection unit 11, the correlation change analysis unit 18 accesses the analysis model storage unit 17 and extracts the correlation model stored therein, and the correlation function constituting this correlation model Among them, those suitable for the analysis of the performance information 12Ba are extracted. Specifically, the correlation change analysis unit 18 extracts a correlation function relating to all combinations of types in the performance information 12Ba. For example, when the types in the performance information 12Ba are “A.CPU”, “A.MEM”, and “B.CPU”, the correlation change analysis unit 18 performs the above-described “X” and “Y”.
  • the correlation change analysis unit 18 compares the calculated Y value (that is, the theoretical value of “A.MEM”) with the actual value (actually measured value) of “A.MEM” of the performance information. As a result of this comparison, if the difference between the theoretical value of “A.MEM” and the actual measurement value of “A.MEM” is confirmed to be within a preset reference range (within an allowable error range), The change analysis unit 18 determines that the correlation between the two types “A.CPU” and “A.MEM” related to the performance information 12Ba is maintained (that is, normal).
  • FIG. 24 is a flowchart showing the operation of the system operation management apparatus shown in FIG.
  • the performance information collection unit 11 periodically acquires performance information from the customer service execution unit 4 (step S101) and stores it in the performance information storage unit 12 (step S102).
  • the correlation model generation unit 16 acquires the performance information stored in the performance information storage unit 12 for a preset period, and generates a correlation model based on these (step S103).
  • the correlation model generated here is stored in the analysis model storage unit 17.
  • the correlation change analysis unit 18 acquires performance information to be analyzed from the performance information collection unit 11 (step S104).
  • the correlation change analysis unit 18 acquires a correlation model used for the correlation change analysis from the analysis model storage unit 17.
  • the correlation change analysis unit 18 performs a correlation change analysis on the performance information for analysis, and detects correlation destruction (step S105). After the correlation change analysis is completed, the correlation change analysis unit 18 sends the analysis result to the failure analysis unit 13.
  • the failure analysis unit 13 that has received the analysis result checks the number of correlations determined that the correlation in the analysis result is broken (the number of correlation destructions), and whether the number exceeds a preset criterion. It is confirmed whether or not (step S106). As a result of the confirmation, if the preset standard is exceeded (step S106 / Yes), the failure analysis unit 13 determines that there is a possibility of failure in the customer service execution system 4, and the detailed analysis content thereof Is sent to the administrator dialogue unit 14. On the other hand, if the preset reference is not exceeded (No in step S106), the steps after the step of acquiring the performance information for analysis in step S104 are repeated.
  • the administrator dialogue unit 14 that has received the detailed analysis content information from the failure analysis unit 13 displays that there is a possibility of failure in the customer service execution system 4 (step S107). Subsequently, when the system administrator who has confirmed the analysis result displayed on the administrator dialogue unit 14 inputs an improvement command for the failure to the administrator dialogue unit 14, the administrator dialogue unit 14 inputs the improvement command. This information is sent to the countermeasure execution unit 15 (step S108). Subsequently, when the information relating to the input of the improvement command is received, the countermeasure execution unit 15 executes an improvement measure for the customer service execution system 4 according to the content (step S109). Henceforth, the process after the process (step S104) of the analysis performance information acquisition operation is repeated.
  • FIG. 1 is a block diagram showing the configuration of the first embodiment of the system operation management apparatus of the present invention.
  • the system operation management apparatus 1 in the first exemplary embodiment of the present invention is similar to the system operation management apparatus 101 in FIG. Unit 12, correlation model generation unit 16, analysis model storage unit 17, correlation change analysis unit 18, failure analysis unit 13, administrator dialogue unit 14, and countermeasure execution unit 15.
  • the performance information collection unit 11 acquires performance information from the customer service execution system 4.
  • the performance information storage unit 12 stores the acquired performance information.
  • the correlation model generation unit 16 generates a correlation model based on the acquired performance information.
  • the analysis model storage unit 17 stores the generated correlation model.
  • the correlation change analysis unit 18 analyzes the abnormality of the performance information acquired using the correlation model.
  • the failure analysis unit 13 determines the abnormality of the customer service execution system 4 based on the analysis result by the correlation change analysis unit 18.
  • the administrator dialogue unit 14 outputs the determination result by the failure analysis unit 13.
  • the system operation management apparatus 1 includes an analysis schedule storage unit 19.
  • the analysis schedule accumulation unit 19 stores schedule information that is a schedule for switching the correlation model in accordance with the acquisition timing of the performance information for analysis during the above-described correlation change analysis.
  • the schedule information is created in advance by a system administrator.
  • the analysis schedule storage unit 19 is accessible from the correlation model generation unit 16 and the correlation change analysis unit 18. Thereby, based on the schedule information stored in this analysis schedule accumulation
  • the administrator interaction unit 14, the correlation model generation unit 16, and the correlation change analysis unit 18 in the first embodiment of the present invention have new functions in addition to the various functions described above. Hereinafter, these functions will be described.
  • the administrator interaction unit 14 receives an input of schedule information generated in advance externally and stores the input schedule information in the analysis schedule storage unit 19. 2, 3 and 4 are explanatory diagrams showing examples of schedule information in the first embodiment of the present invention. For example, in the schedule information 19A in FIG.
  • a schedule with the first priority representing weekly weekends and a schedule with the second priority representing daily are specified.
  • the schedule information 19A is applied in order of priority, and the analysis period is divided into two days of every Saturday and Sunday and other days of the week (Monday to Friday).
  • the schedule information 19B in FIG. 3 only the first priority schedule representing every day is designated.
  • the schedule information 19C in FIG. 4 the first priority schedule that is the last day of every month and a weekday, the second priority schedule that represents every weekend, and the third priority that represents every day. Schedule is specified.
  • the correlation model generation unit 16 When generating the correlation model, the correlation model generation unit 16 acquires performance information for a preset period from the performance information storage unit 12 and receives schedule information from the analysis schedule storage unit 19. And the correlation model production
  • the correlation model generation unit 16 acquires the schedule information 19A (FIG. 2) and generates a correlation model.
  • the correlation model generation unit 16 derives a correlation function based on the performance information acquired by the performance information collection unit 11 during the analysis period of the first priority, that is, Saturday and Sunday, and generates a correlation model based on this. .
  • the correlation model generation unit 16 calculates the correlation function based on the performance information acquired from Monday to Friday, which is the analysis period of the second priority, that is, the period obtained by removing the first priority period from every day.
  • a correlation model is generated based on the derivation.
  • the correlation model generation unit 16 stores all the generated correlation models for each analysis period in the analysis model storage unit 17 in association with each analysis period.
  • the model generation unit 30 includes the correlation model generation unit 16.
  • the analysis unit 31 includes a correlation change analysis unit 18 and a failure analysis unit 13.
  • the correlation change analysis unit 18 receives the performance information for analysis from the information collection unit 11 and extracts all of the correlation models generated based on the schedule information from the analysis model storage unit 17. Further, the correlation change analysis unit 18 acquires schedule information from the analysis schedule storage unit 19. Next, the correlation change analysis unit 18 confirms the acquisition date and time of the acquired performance information. As a confirmation method of the acquisition date and time at this time, for example, the correlation change analysis unit 18 may read the date and time information (see performance information 12A in FIG. 21) included in the performance information.
  • the correlation change analysis unit 18 determines whether or not the currently set correlation model is suitable for performing the correlation change analysis of the performance information acquired for analysis (that is, for generating this correlation model). Whether or not the acquisition timing of the used performance information is the same analysis period as the acquisition timing of the acquired performance information for analysis). As a result of the confirmation, if the correlation model is not suitable for use in the correlation change analysis, the correlation change analysis unit 18 extracts a correlation model suitable for analysis from the analysis model storage unit 17, and the correlation model is extracted. Change the setting to. At this time, if a correlation model suitable for analysis has not yet been generated, the correlation change analysis unit 18 sends information indicating that there is no correlation model suitable for analysis to the correlation model generation unit 16.
  • FIG. 5 is an explanatory diagram illustrating an example of a correlation change analysis result generation operation according to the first embodiment of this invention.
  • 18A of FIG. 5 shows the analysis result when the analysis period switching determination and the analysis execution operation are repeatedly executed as described above.
  • the analysis period is distinguished between a holiday (corresponding to the first priority schedule of the schedule information 19A of FIG. 2) and a weekday (corresponding to the second priority schedule of the schedule information 19A of FIG. 2).
  • the correlation model is generated and analyzed in each section.
  • the administrator dialogue unit 14 sends the schedule information input from the outside to the analysis schedule storage unit 19 and stores it (step S201, schedule information storage step). Further, the performance information collection unit 11 periodically acquires performance information from the server constituting the customer service execution system 4 (step S202, performance information acquisition step) and stores it in the performance information storage unit 12 (step S203, Performance information accumulation process). Next, the correlation model generation unit 16 acquires performance information for a certain period from the performance information storage unit 12.
  • the correlation model generation unit 16 acquires analysis schedule information from the analysis schedule storage unit 19.
  • the correlation model generation unit 16 generates a correlation model for each analysis period included in the acquired analysis schedule information (step S204, correlation model generation step), and associates each analysis period with the analysis model storage unit 17. save.
  • the correlation change analysis unit 18 acquires performance information for analysis from the performance information collection unit 11 (step S205, performance information acquisition process for analysis).
  • the correlation change analysis unit 18 acquires a correlation model for each period from the analysis model storage unit 17 and schedule information from the analysis schedule storage unit 19 (step S206, correlation model and schedule information acquisition step).
  • the correlation change analysis unit 18 confirms the acquisition date and time of the performance information to be analyzed, confirms whether or not the currently set correlation model is suitable for the analysis of the performance information, and the correlation model It is determined whether or not switching is necessary (step S207, analysis period selection step). That is, when the currently set correlation model is not suitable for the analysis of performance information, the correlation change analysis unit 18 determines to switch to the correlation model suitable for the analysis. On the other hand, when a correlation model suitable for analysis is already set, the correlation change analysis unit 18 determines that the correlation model is not switched. When it is determined in step S207 that the setting of the correlation model is to be switched (step S207 / Yes), the correlation analysis unit 18 checks whether a correlation model for the analysis period after the switching has already been generated.
  • Step S208 If it has not been generated yet (step S208 / No), the correlation analysis unit 18 transmits information to the correlation model generation unit 16 that the correlation model for the analysis period after switching has not been generated. Upon receipt of the information, the correlation model generation unit 16 replenishes and generates the correlation model (step S209, correlation model replenishment generation step) and stores it in the analysis model storage unit 17, and the completion of replenishment of the correlation model after switching is completed. Information to that effect is sent to the correlation change analysis unit 18. If the correlation model after the switching has already been generated (step S208 / Yes), the correlation change analysis unit 18 performs a correlation change analysis on the performance information using the correlation model (step S210, correlation). Change analysis process).
  • step S207 If it is determined in step S207 that the correlation model is not switched (No in step S207), the correlation change analysis unit 18 uses the correlation model for the currently set analysis period as it is to perform a correlation change analysis. (Step S210, correlation change analysis step). After the correlation change analysis is completed, the correlation change analysis unit 18 sends the analysis result to the failure analysis unit 13.
  • the failure analysis unit 13 that has received the analysis result checks whether or not the number of correlations determined to be abnormal in the correlation change analysis result of the performance information exceeds a predetermined value (step S211, failure analysis). Process). As a result of the confirmation, if it exceeds (Yes at Step S211), the failure analysis unit 13 sends information on the detailed content of the abnormality in the performance information to the administrator dialogue unit 14.
  • Step S211 when it does not exceed (No at Step S211), the steps after the analysis performance information acquisition step at Step S205 are repeated.
  • the administrator dialogue unit 14 receives the information related to the detailed contents of the abnormality of the performance information from the failure analysis unit 13, the administrator dialogue unit 14 displays that the customer service execution system 203 may have a failure based on the information ( Step S212, failure information output step).
  • Step S212 failure information output step.
  • the system administrator who has confirmed the analysis result displayed in the administrator dialogue unit 14 inputs an improvement instruction for the above-described system failure to the administrator dialogue unit 14, the administrator dialogue unit 14 Then, information related to the improvement command input is sent to the countermeasure execution unit 15 (step S213, improvement command information input step).
  • FIG. 26 is a block diagram showing a characteristic configuration of the first embodiment of the present invention.
  • the system operation management device 1 includes a performance information storage unit 12, a model generation unit 30, and an analysis unit 31.
  • the performance information storage unit 12 stores performance information including a plurality of types of performance values in the system in time series.
  • the model generation unit 30 generates a correlation model including one or more correlations between performance values of different types stored in the performance information storage unit 12 in each of a plurality of periods having any of a plurality of attributes.
  • the analysis unit 31 detects an abnormality in the performance information using the input system performance information and the correlation model corresponding to the attribute in the period when the performance information was acquired.
  • the correlation change analysis can be executed after appropriately selecting a suitable correlation model.
  • operation of the customer service execution system 4 can be managed with high accuracy.
  • the present invention by registering a business pattern as schedule information, creation and switching of models required for a combination of business patterns are automated, and the burden on the system administrator is reduced. It is greatly reduced.
  • the present invention is not limited to this example.
  • the same effect can be obtained by using another method that can specify the switching of the correlation model in the analysis period corresponding to the acquisition date and time of the performance information for analysis.
  • the correlation change analysis unit 18 determines whether to switch the correlation model.
  • the correlation model generation unit 16 may determine whether to switch the correlation model, or one of the correlation model generation unit 16 and the correlation change analysis unit 18 determines, The other may be controlled. Further, the correlation model generation unit 16 and the correlation change analysis unit 18 may jointly determine the analysis period. Regardless of which method is used, the system operation management apparatus 1 can provide the same effect as long as the analysis can be performed by switching the correlation model according to the acquisition date and time of the performance information for analysis.
  • FIG. 7 is a block diagram showing the configuration of the second embodiment of the system operation management apparatus of the present invention.
  • the system operation management apparatus 2 according to the second embodiment of the present invention is similar to the system operation management apparatus 1 according to the first embodiment described above.
  • the performance information collection unit 11 acquires performance information from the customer service execution system 4.
  • the performance information storage unit 12 stores the acquired performance information.
  • the correlation model generation unit 16 generates a correlation model based on the acquired performance information.
  • the analysis model storage unit 17 stores the generated correlation model.
  • the correlation change analysis unit 18 analyzes the abnormality of the performance information acquired using the correlation model.
  • the failure analysis unit 13 determines the abnormality of the customer service execution system 4 based on the analysis result by the correlation change analysis unit 18.
  • the administrator dialogue unit 14 outputs the determination result by the failure analysis unit 13.
  • the coping execution part 15 improves the service execution system 4 for customer based on the instruction
  • the analysis schedule accumulation unit 19 stores an analysis schedule. Further, as shown in FIG. 7, the system operation management apparatus 2 includes a regular model storage unit 20, a candidate information generation unit 21, and a correction candidate generation unit 22.
  • the regular model storage unit 20 stores the correlation model that the correlation model generation unit 16 periodically generates.
  • the candidate information generation unit 21 receives the correlation model from the regular model storage unit 20 and generates schedule candidate information that is a tentative schedule information from the fluctuation state of the contents of the correlation model.
  • the correction candidate generation unit 22 sequentially applies calendar information that is a calendar attribute to each analysis period in the schedule candidate information generated by the candidate information generation unit 21 (compare each analysis period with the calendar information, By extracting calendar attributes suitable for each analysis period), schedule information correction candidates are generated.
  • the regular model storage unit 20 is connected to the correlation model generation unit 16. Thereby, the regular model accumulation unit 20 can sequentially store the correlation models sequentially generated by the correlation model generation unit 16.
  • FIG. 8 is a block diagram illustrating a configuration of the candidate information generation unit 21 in the second exemplary embodiment of the present invention. As shown in FIG.
  • the candidate information generation unit 21 includes a common correlation determination unit 21a, a static element change point extraction unit 21b, a dynamic element similarity determination unit 21c, and a necessary model group extraction unit 21d.
  • the common correlation determination unit 21a extracts a common correlation between the correlation models created by the correlation model generation unit 16 during successive periods.
  • the static element change point extraction unit 21b extracts a time point at which the correlation model for performance information analysis is switched from the increase / decrease in the number of common correlations extracted by the common correlation determination unit 21a.
  • the dynamic element similarity determination unit 21c includes correlation similarities included in the correlation model of the new analysis period extracted by the static element change point extraction unit 21b and the correlation model used in the past analysis period. Confirm.
  • the necessary model group extraction unit 21d generates schedule candidate information based on each analysis period to which the correlation model is assigned by the static element change point extraction unit 21b and the dynamic element similarity determination unit 21c.
  • FIG. 11 is a block diagram showing a configuration of the correction candidate generation unit 22 in the second embodiment of the present invention.
  • the correction candidate generation unit 22 includes a calendar information storage unit 22a, a calendar characteristic determination unit 22b, and a correction candidate generation unit 22c.
  • the calendar information accumulating unit 22a stores information (hereinafter referred to as calendar information) related to calendar attributes such as day information and holiday information.
  • the calendar characteristic determination unit 22b receives the schedule candidate information from the necessary model group extraction unit 21d of the candidate information generation unit 21, and applies the calendar information stored in the calendar information storage unit 22a to the content of the schedule candidate information.
  • the characteristics of the date of each analysis period in the information (hereinafter, calendar characteristics) are determined.
  • the correction candidate generation unit 22c compares the calendar characteristics determined by the calendar characteristic determination unit 22b with the contents of the existing schedule information, and when there is a difference between them, the correction of the schedule information is performed based on the contents of the calendar characteristics. Generate candidates.
  • the correlation model generation unit 16 and the administrator interaction unit 14 have new functions in addition to the various functions described above. Hereinafter, these functions will be described.
  • the correlation model generation unit 16 generates a correlation model at a time interval set in advance from the outside. As a result, correlation models corresponding to various operational situations of the customer service execution system 4 can be obtained.
  • the administrator dialogue unit 14 acquires a schedule information correction candidate from the analysis schedule storage unit 19 and displays it. As a result, the generated schedule information plan can be presented to the system administrator, and the system administrator can be asked about whether or not the schedule information can be changed.
  • the model generation unit 30 includes a correlation model generation unit 16, a candidate information generation unit 21, and a correction candidate generation unit 22.
  • the analysis unit 31 includes a correlation change analysis unit 18 and a failure analysis unit 13.
  • the correlation model generation unit 16 creates a correlation model at a time interval set in advance from the outside (for each section).
  • the system administrator can set the content of “generate correlation model at 15:00 every day” in the time interval.
  • the length of the time interval (section) may be the same for each time interval (section) or may be different.
  • the sequentially generated correlation models are sequentially stored not in the analysis model storage unit 17 but in the regular model storage unit 20.
  • the common correlation determination unit 21a extracts a plurality of correlation models stored in the regular model accumulation unit 20. Then, among the extracted correlation models, those having continuous acquisition timings of the performance information that is the basis of generation are compared, and a common correlation (for example, a correlation function) is extracted. The common correlation determination unit 21a performs this operation for combinations of correlation models created in all consecutive periods. Next, the static element change point extraction unit 21b confirms a temporal change in the number of the common correlations for each common correlation extracted by the common correlation determination unit 21a. The confirmation operation of the change in the number of correlations over time by the static element change point extraction unit 21b will be described using a specific example.
  • the static element change point extraction unit 21b includes (a) the number of common correlations in the correlation model P and the correlation model Q, (b) the number of common correlations in the correlation model Q and the correlation model R, and (c) the correlation.
  • the number of common correlations in the model R and the correlation model S and (d) the number of common correlations in the correlation model S and the correlation model T are sequentially confirmed.
  • the static element change point extraction unit 21b increases the amount of change over time with respect to the change in the number of common correlations between the correlation models in the continuous period described above from the number set in advance from the outside.
  • the time point is determined as a time point (a division point of the analysis period) at which the correlation model for performance information analysis is switched. In this example, it is assumed that the above setting has the content that “the correlation model is switched when the change in the number of common correlations is 3 or more”.
  • the change amount is 1 from the combination (a) to the combination (b), and the change amount is 1 from the combination (b) to the above (c).
  • the amount of change is 3. Therefore, since the time point when the combination of (c) is changed to the combination of (d) matches the above setting, the static element change point extraction unit 21b is the time point when the correlation model is switched, that is, the analysis period. Judged as the division point. And the static element change point extraction part 21b divides
  • the dynamic element similarity determination unit 21c selects the latest one of the correlation models periodically generated by the correlation model generation unit 16 in the new analysis period set by the division of the analysis period described above. Assign temporarily. Furthermore, the dynamic element similarity determination unit 21c and the correlation model temporarily allocated before the analysis period is divided by the static element change point extraction unit 21b (from the division point). Correlation model assigned to each previous analysis period) is checked for similarity in content. As a result of the confirmation, when it is confirmed that the two are similar to each other exceeding a preset similarity criterion, the dynamic element similarity determination unit 21c, before the correlation model in the new analysis period is divided (Correlation model similar to the temporarily assigned correlation model among the correlation models assigned in the respective analysis periods before the dividing point).
  • FIG. 9 is an explanatory diagram illustrating an example of an operation for generating schedule candidate information according to the second embodiment of this invention.
  • 9A shows the division of the analysis period and the assignment of a new correlation model.
  • stage 1 (21b1) in FIG. 9 the section in which the performance information analysis has been performed by the correlation model A is divided, and a correlation model B is newly set.
  • the static element change point extraction unit 21b of the candidate information generation unit 21 finds a difference between the correlation models generated periodically, The analysis period is divided and the correlation model B, which is the latest periodic correlation model, is assigned to the period.
  • the static element change point extraction unit 21b sets a new analysis period in the same manner, and the latest periodic Correlation model C, which is a correlation model, is assigned.
  • the dynamic element similarity determination unit 21c of the candidate information generation unit 21 determines the similarity between the correlation model A and the correlation model C.
  • the dynamic element similarity determination unit 21c when it is determined that they are similar, the dynamic element similarity determination unit 21c, as shown in stage 3 (21c1) in FIG. Assign model A.
  • stage 3 Assign model A.
  • a large number of correlation models are generated by generating different analysis models for each analysis period even though the correlation models are similar between the set different analysis periods. Can prevent the situation of shortage.
  • the necessary model group extraction unit 21d combines the analysis periods to which the correlation model is assigned by the static element change point extraction unit 21b and the dynamic element similarity determination unit 21c into one, thereby obtaining the schedule candidate information. Generate.
  • FIG. 10 is an explanatory diagram illustrating an example of an operation of generating a correlation change analysis result in the second embodiment of the present invention.
  • 21B in FIG. 10 shows the analysis result of the correlation change in the second embodiment of the present invention.
  • each analysis period 1, For 2 and 3 correlation model A or B is assigned.
  • the analysis results using the correlation model A are A1 and A3, respectively.
  • each analysis result using the correlation model B is B2.
  • FIG. 12 is an explanatory diagram illustrating an example of a procedure for generating analysis schedule correction candidates according to the second embodiment of this invention.
  • the necessary model group extraction unit 21d sends the schedule candidate information 21d2 of FIG. 12 to the calendar characteristic determination unit 22b.
  • the calendar characteristic determination unit 22b receives the schedule candidate information from the necessary model group extraction unit 21d and acquires the calendar information from the calendar information storage unit 22a.
  • the calendar information is created in advance by the system administrator.
  • the calendar characteristic determining unit 22b compares the contents of the schedule candidate information with the calendar information, and sequentially applies the corresponding calendar information to each analysis period in the schedule candidate information. Thereby, calendar characteristics are determined.
  • the determination of the calendar characteristic by the calendar characteristic determination unit 22b described above will be further described with reference to FIG. As shown in FIG.
  • the schedule candidate information 21d2 for August 2009 received from the necessary model group extraction unit 21d is divided into three types of analysis periods A to C: Saturday and Sunday, Monday to Friday, and the last day of the month.
  • the calendar information 22a1 has calendar attributes such as “holiday” for Saturday and Sunday, “weekday” for Monday to Friday, and “end of month” for August 31, 2009.
  • the calendar characteristic determination unit 22b compares the schedule candidate information 21d2 with the calendar information 23a1, and extracts the attributes of the calendar information 23a1 suitable for each analysis period of the schedule candidate information 21d2 (generation procedure 21b1).
  • Calendar characteristic 22b2 is determined. By determining the calendar characteristics, the calendar attributes of each analysis period can be automatically specified without examining the contents of each analysis period of the schedule candidate information.
  • the correction candidate generation unit 22c receives calendar characteristics from the calendar characteristic determination unit 22b, and receives schedule information generated in advance by the system administrator from the analysis schedule storage unit 19. And the correction candidate production
  • FIG. 13 is an explanatory diagram showing an example of a procedure for generating correction candidates for an analysis schedule (continuation of FIG. 12) in the second embodiment of the present invention.
  • the function of generating the schedule information correction candidate by the schedule information generation unit 21c described above will be further described with reference to FIG. As shown in FIG.
  • the calendar characteristic determination unit 22 b generates a calendar characteristic 22 b 2 and the existing schedule information 19 B is stored in the analysis schedule storage unit 19.
  • the schedule information generation unit 22c generates the schedule correction candidate 22c2 by reflecting the calendar characteristic 22b2 in the schedule information. Thereby, even if the existing schedule information is not suitable, suitable schedule information can be obtained automatically.
  • the administrator dialogue unit 14 takes out the schedule information correction candidates from the analysis schedule storage unit 19 together with the schedule information generated in advance, and displays both on the same screen.
  • the administrator dialogue unit 14 displays the display screen 14B of FIG.
  • the manager interaction unit 14 displays both the schedule information generated in advance and the correction candidate of the schedule information side by side so that the contents can be easily compared.
  • the administrator interaction unit 14 simultaneously displays a correlation model (14Ba) and a list of necessary correlation models (14Bb) for each analysis period in the schedule information generated in advance and the schedule information correction candidates. This is because the difference between the schedule information generated in advance and the schedule information can be clarified by specifying the correlation model as a component.
  • the administrator dialogue unit 14 also displays an operation button 14Bc for changing the regular schedule information from the schedule information generated in advance to the schedule information correction candidate.
  • an operation button 14Bc for changing the regular schedule information from the schedule information generated in advance to the schedule information correction candidate.
  • FIG. 15 is a flowchart showing an operation of generating schedule candidate information in the second exemplary embodiment of the present invention.
  • the performance information collection unit 11 periodically acquires performance information from the server of the customer service execution system 3 and stores it in the performance information storage unit 12.
  • the correlation model generation unit 16 generates a correlation model at a time interval set in advance from the outside (FIG. 15: Step S301, correlation model periodic generation step).
  • the generated correlation models are sequentially stored in the regular model storage unit 20.
  • the common correlation determination unit 21 a of the candidate information generation 21 acquires a correlation model for a period set in advance from the outside from the regular model storage unit 20.
  • the common correlation determination unit 21a compares the generated correlation models among the obtained correlation models and extracts a correlation (correlation function or the like) common to both (FIG. 15). : Step S302, common correlation extracting step).
  • the static element change point extraction unit 21b confirms the change over time in the number of the above-described common correlations (FIG. 15: Step S303), and the change is within the reference range set in advance from the outside. (FIG. 15: Step S304).
  • the static element change point extraction unit 21b determines that the performance information should be analyzed using the same correlation model.
  • the static element change point extraction unit 21b is the time when the correlation model for correlation change analysis is switched.
  • the analysis period is divided (FIG. 15: Step S305, correlation model dividing step).
  • the dynamic element similarity determination unit 21c temporarily assigns the latest correlation model to the correlation model in the new analysis period by the static element change point extraction unit 21b.
  • Step S306 the contents of the correlation model assigned in the analysis period prior to the division point are compared with the contents of the latest correlation model (FIG. 15: step S306), and the degree of similarity between the two is confirmed (FIG. 15). : Step S307).
  • the dynamic element similarity determination unit 21c uses the correlation model for this new analysis period as a correlation model.
  • the correlation model before the dividing point is assigned (FIG. 15: Step S308, correlation model assignment step).
  • the dynamic element similarity determination unit 21c uses the above-described temporarily assigned correlation as the correlation model for the new analysis period. Assign a model.
  • the necessary model group extraction unit 21d constructs schedule candidate information based on each analysis period to which the correlation model is assigned by the static element change point extraction unit 21b and the dynamic element similarity determination unit 21c, and corrects the schedule candidate information.
  • the data is sent to the calendar characteristic determining unit 22b of the candidate generating unit 22 (FIG. 15: Step S309, candidate information generating / transmitting step).
  • FIG. 16 is a flowchart showing an operation of generating a schedule information correction candidate in the second embodiment of the present invention.
  • the calendar characteristic determination unit 22b receives schedule candidate information from the necessary model group extraction unit 21d (FIG. 16: step S310, candidate information acquisition step), and acquires calendar information from the calendar information storage unit 22a. Then, the calendar characteristic determining unit 22b compares the contents of the schedule candidate information with the contents of the calendar information, and determines the calendar characteristics by fitting the calendar information to each analysis period in the schedule candidate information (FIG. 16: Step). S311, calendar characteristic determination step).
  • the correction candidate generation unit 22c receives the calendar characteristics determined by the calendar characteristic determination unit 22b, and compares the contents of the calendar characteristics with the contents of schedule information that has already been generated (step S312 in FIG. 16). . As a result of this comparison, when it is confirmed that the contents of the calendar characteristics have changed from the contents of the schedule information that has already been created (step S313 / Yes), the correction candidate generation unit 22c is based on the calendar characteristics. Correction candidates for schedule information are generated and stored in the analysis schedule storage unit 19 (FIG. 16: step S314, correction candidate generation and storage step). Then, the manager dialogue unit 14 acquires the schedule information correction candidates from the schedule storage unit 19 and displays them externally (FIG. 16: step S315, correction candidate output step).
  • the correction candidate generation unit 22c when it is confirmed that the content of the calendar characteristic has not changed from the content of the existing schedule information (No in step S313), the correction candidate generation unit 22c generates a correction candidate for the schedule information do not do. Then, when a change to the schedule information is input from the outside to the administrator dialogue unit 14, the administrator dialogue unit 14 sends information related to the input to the analysis schedule storage unit 19 and is also used for the correlation change analysis. Change the schedule information to the contents of the correction candidates. Thereafter, the correlation change analysis unit 18 performs a correlation change analysis on the performance information acquired for analysis based on the generated schedule information. The subsequent steps are the same as those in the first embodiment described above.
  • the specific contents executed in each step described above may be programmed and executed by a computer.
  • the system operation management device 2 since the system operation management device 2 generates schedule information, the system administrator has little knowledge and experience, and it is difficult for the system administrator to generate schedule information by himself / herself. Even so, it is not necessary for the system administrator to accurately grasp each business pattern and generate schedule information one by one, and the burden can be greatly reduced.
  • the system operation management device 2 reads changes in the environment of the customer service execution system 4 from time to time, and generates schedule information in response to the changes.
  • the system operation management apparatus 2 when the correlation model to be switched is detected, the system operation management apparatus 2 creates a schedule information correction candidate and, as shown in the display screen 14B (FIG. 12), an existing schedule.
  • the information and the correction candidates are displayed side by side, and the schedule information is corrected in response to an input related to a schedule information correction command from a system administrator or the like.
  • the present invention is not limited to this example. For example, even if the system operation management device 2 automatically corrects the schedule within a certain range, plans a future schedule change upon receiving input from the system administrator, etc., or re-analyzes past performance data Good.
  • FIG. 17 is a block diagram showing the configuration of the third embodiment of the system operation management apparatus of the present invention.
  • the system operation management apparatus 3 according to the third embodiment of the present invention is similar to the system operation management apparatus 2 according to the second embodiment described above.
  • a unit 12, a correlation model generation unit 16, an analysis model storage unit 17, a correlation change analysis unit 18, a failure analysis unit 13, an administrator dialogue unit 14, and a countermeasure execution unit 15 are included.
  • the performance information collection unit 11 acquires performance information from the customer service execution system 4.
  • the performance information storage unit 12 stores the acquired performance information.
  • the correlation model generation unit 16 generates a correlation model based on the acquired performance information.
  • the analysis model storage unit 17 stores the generated correlation model.
  • the correlation change analysis unit 18 analyzes the abnormality of the performance information acquired using the correlation model.
  • the failure analysis unit 13 determines the abnormality of the customer service execution system 4 based on the analysis result by the correlation change analysis unit 18.
  • the administrator dialogue unit 14 outputs the determination result by the failure analysis unit 13.
  • the coping execution unit 15 improves the customer service execution system 4 based on the command. As shown in FIG.
  • the system operation management apparatus 3 is similar to the system operation management apparatus 2 according to the second embodiment described above.
  • a model storage unit 20, a candidate information generation unit 21, and a correction candidate generation unit 22 are included.
  • the analysis schedule accumulation unit 19 stores an analysis schedule.
  • the regular model storage unit 20 sequentially stores the correlation models periodically generated by the correlation model generation unit 16.
  • the candidate information generation unit 21 generates schedule candidate information that is a draft of schedule information based on the performance information stored in the regular model storage unit 20.
  • the correction candidate generator 22 generates a schedule information correction candidate by fitting a calendar attribute to the schedule candidate information.
  • the system operation management apparatus 3 includes an adapted model determination unit 23 as shown in FIG.
  • the matching model determination unit 23 compares the degree of abnormality to determine an order based on the degree of abnormality of each analysis result. Further, the correlation change analysis unit 18, the failure analysis unit 13, and the manager dialogue unit 14 have new functions in addition to the functions described above. Hereinafter, these functions will be described.
  • the correlation change analysis unit 18 not only performs correlation change analysis using the correlation model assigned in accordance with the schedule information, but also other performance information stored in the analysis model storage unit 17 for the performance information received from the performance information collection unit 11. Correlation change analysis is also performed using a correlation model.
  • the failure analysis unit 13 receives the analysis result using the other correlation model in addition to the analysis result using the correlation model assigned according to the schedule information from the matching model determination unit 23, performs the failure analysis, and The result is sent to the manager dialogue unit 14.
  • the administrator dialogue unit 14 displays the analysis result according to the schedule information received from the failure analysis unit 13 and the analysis result based on the other correlation model.
  • the administrator dialogue unit 14 receives an input indicating that the analysis result using the other correlation model is a regular analysis result, and the contents of the schedule information stored in the analysis schedule storage unit 19 are described above. Modify based on the contents of other correlation models.
  • the model generation unit 30 includes a correlation model generation unit 16, a candidate information generation unit 21, a correction candidate generation unit 22, and a matching model determination unit 23.
  • the analysis unit 31 includes a correlation change analysis unit 18 and a failure analysis unit 13.
  • the correlation change analysis unit 18 acquires performance information for analysis from the performance information collection unit 11, schedule information from the analysis schedule storage unit 19, and each correlation for the analysis period set in advance from the analysis model storage unit 17. Get the model. Next, the correlation change analysis unit 18 performs a correlation change analysis on the performance information for analysis using a correlation model assigned according to the schedule information. Further, the correlation change analysis unit 18 performs correlation change analysis using various correlation models acquired from the analysis model storage unit 17. Then, the correlation change analysis unit 18 sends all of the analysis results obtained by the above-described correlation change analysis to the matching model determination unit 23.
  • the matching model determination unit 23 compares the degree of abnormality (difference between the actual measurement value and the theoretical value) for all analysis results received from the correlation change analysis unit 18, and determines the rank of each analysis result.
  • the matching model determination unit 23 checks whether an analysis result having a lower degree of abnormality than the analysis result according to the schedule information is present in the analysis result using another correlation model. If there is such an analysis result as a result of the confirmation, the conformity model determination unit 23 determines an analysis result using the other correlation model as an alternative to the analysis result, and uses this as an alternative to the analysis result. Such a correlation model is determined as a fitting model. In addition, when there are a plurality of analysis results having a lower degree of abnormality than the analysis results according to the schedule information, the conforming model determination unit 23 determines the analysis result having the lowest degree of abnormality as an alternative to the analysis result. May be.
  • the conformity model determination unit 23 sends both the analysis result according to the schedule information and an alternative to the analysis result to the failure analysis unit 13.
  • a method for comparing the degree of abnormality of each analysis result by the adaptive model determination unit 23 for example, there is a method of judging from information on whether the degree of abnormality is constantly large or small.
  • an analysis result A3 that is one of the results of the performance information analysis by the correlation model A and an analysis result that is one of the results of the performance information analysis by the correlation model B
  • the analysis result B3 has a higher degree of abnormality than the analysis result A3 for a long time (FIGS.
  • the matching model determination unit 23 determines that the analysis result B3 is not a suitable analysis result. Since the analysis result A3 has a lower degree of abnormality than B3, the adaptive model determination unit 23 determines that the analysis result A3 is a better analysis result than B3. Therefore, in the case where the correlation model assigned according to the schedule information is model B, the analysis result is B3, and the analysis result A3 using the correlation model A exists as the analysis result by another correlation model, the matching model determination unit 22 determines the analysis result A3 as an alternative to the analysis result.
  • the failure analysis unit 13 receives both the analysis result according to the schedule information and the alternative from the adaptation model determination unit 23 when the alternative model determination unit 23 determines the alternative plan, and performs the analysis according to the schedule information.
  • FIG. 18 is an explanatory diagram illustrating an example of contents displayed by the administrator dialogue unit 14 in the third embodiment of the present invention.
  • the administrator dialogue unit 14 displays the display screen 14C of FIG.
  • This display screen 14C includes a current analysis result (analysis result according to schedule information) 14Ca indicating the degree of abnormality (difference between the actual measurement value and the theoretical value based on the correlation function).
  • the display screen 14C is used with the analysis result 14Cb of the analysis model in the analysis period in which the analysis result alternative exists among the above-described current analysis results, and the analysis result of the analysis result alternative.
  • the correlation model information 14Cc is included.
  • the display screen 14C includes an operation button 14Cd for adopting an analysis result alternative instead of the current analysis result as a regular analysis result.
  • the system administrator manages an improvement command corresponding to the degree of abnormality detected in the current analysis result (analysis result according to the schedule information) based on various information displayed on the display screen 14C. To the person interaction unit 14.
  • the system administrator can input a command to the administrator dialogue unit 14 to adopt the alternative analysis result instead of the current analysis result as the analysis result of the performance information as the regular analysis result (FIG. 18). Operation button 14Cd).
  • the administrator dialogue unit 14 determines the content of the current schedule information stored in the analysis schedule storage unit 19 based on the content of the conformance model. Revise (replace the correlation model corresponding to the analysis period in which the alternative was presented with a fitting model). Thereby, the accuracy of subsequent analysis results can be improved.
  • Other functions of the above-described units are the same as those in the second embodiment described above.
  • FIG. 19 is a flowchart showing the operation of the adaptive model determination unit 23 in the third embodiment of the present invention.
  • the steps for generating schedule information are the same as those in the second exemplary embodiment.
  • the correlation change analysis unit 18 acquires performance information for analysis from the performance information collection unit 11 and is set in advance among the correlation models stored from the analysis model storage unit 17. All of the correlation models for a given period.
  • the correlation change analysis unit 18 performs a correlation change analysis of the performance information using the correlation model assigned according to the schedule information (step S401, originally a model analysis step). Subsequently, the correlation change analysis unit 18 performs a correlation change analysis of the performance information using another correlation model acquired from the analysis model storage unit 17 (step S402, other model analysis step). Then, the correlation change analysis unit 18 sends all of the analysis results according to the schedule information and the analysis results using the other correlation models to the matching model determination unit 23. Next, the matching model determination unit 23 compares the analysis result according to the schedule information with the analysis result using the other correlation model (step S403, matching model determination step).
  • the matching model determination unit 23 determines whether the analysis result using the other correlation model is superior to the analysis result according to the schedule information (the degree of abnormality is low) (Yes in step S404).
  • the matching model determination unit 23 sets the other correlation model related to the alternative plan of the analysis result as the matching model, and sends the analysis result according to the schedule information and the alternative plan of the analysis result to the failure analysis unit 13.
  • the conforming model determination unit 23 performs only the analysis result according to the schedule information. Is sent to the failure analysis unit 13.
  • the failure analysis unit 13 receives the analysis results and alternatives according to the schedule information from the conformance model determination unit 23, performs the failure analysis, and then outputs the analysis results and alternatives according to the schedule information after the failure analysis. It is sent to the administrator dialogue unit 14.
  • the administrator dialogue unit 14 displays the contents of the analysis results and alternatives according to the schedule information received from the failure analysis unit 13 (step S405, alternative output process).
  • the administrator interaction unit 14 receives an input related to a countermeasure command by a system administrator or the like who has browsed the display content described above, and sends information related to the input to the countermeasure execution unit 15 (step S406).
  • step S407 schedule information correction step
  • step S407 schedule information correction step
  • the system operation management apparatus 3 can execute the correlation change analysis with high accuracy.
  • the reason is that the system operation management apparatus 3 outputs a correlation change analysis result using another correlation model that is not assigned in the schedule information, and even if a temporary operation pattern disruption occurs, the disorder has occurred.
  • the correlation change analysis result using the correlation model in the operation pattern can be applied as an alternative to the analysis result. For example, even if the work normally performed on the last day of the month is brought forward for some reason, according to the third embodiment, “If it is considered the last day of the month, it is normal. Can be presented together with the analysis result according to the schedule information. As described above, even when a sudden operation pattern difference occurs in the customer service execution system 4, the system operation management device 3 can present an appropriate analysis result to the system administrator.
  • the system operation management apparatus 3 can sequentially correct the contents of the schedule information stored in the analysis schedule storage unit 19 based on the contents of the applied model, it is always scheduled.
  • the content of information can be updated to the latest state, and an operation management environment that can deal with various system errors flexibly can be obtained. While the present invention has been described in the above embodiments, the present invention is not limited to the above embodiments. This application claims the priority on the basis of Japanese application Japanese Patent Application No. 2009-238747 for which it applied on October 15, 2009, and takes in those the indications of all here.
  • the system operation management apparatus, system operation management method, and program storage medium according to the present invention can be applied to an information processing apparatus that provides various information communication services such as Web services and business services as described above. Because this information processing device can detect system performance degradation, not only Internet mail-order sales devices and in-house information devices, but also many customers such as railway and aircraft seat reservation ticketing devices and movie theater automatic seat ticket purchasing devices. It can also be used for various devices that are expected to be flooded at a time.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Hardware Design (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Evolutionary Biology (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Strategic Management (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Resources & Organizations (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Debugging And Monitoring (AREA)

Abstract

 システム運用管理装置において、将来の障害検出における判断基準を付与するときのシステム管理者にとっての負担を軽減する。 システム運用管理装置1は、性能情報蓄積部12と、モデル生成部30と、分析部31とを含む。ここで、性能情報蓄積部12は、システムにおける複数種別の性能値を含む性能情報を時系列に格納する。モデル生成部30は、複数の属性のいずれかを有する複数の期間のそれぞれにおける、性能情報蓄積部12に格納された異なる種別の性能値間の相関関係を1以上含む相関モデルを生成する。分析部31は、入力されたシステムの性能情報と、当該性能情報が取得された期間の前記属性に対応する相関モデルとを用いて、当該性能情報の異常検出を行う。

Description

システム運用管理装置、システム運用管理方法、及びプログラム記憶媒体
 本発明は、システム運用管理装置、システム運用管理方法、及びプログラム記憶媒体に関し、特に管理対象のシステムの稼働状況を判定するシステム運用管理装置、システム運用管理方法、及びプログラム記憶媒体に関する。
 顧客を対象とするサービスの提供において、近年、インターネットを利用した通信販売のように、コンピュータによるシステム及び情報通信技術を利用したサービスが数多く存在する。このようなサービスを円滑に実行するには、コンピュータによるシステムが常に安定に稼動することが求められる。そのためには、当該コンピュータのシステムについての運用管理が不可欠である。
 しかし、このようなシステムの運用管理は、システム管理者により手作業で行われていた。そのため、システムが大規模化・複雑化するに伴い、システム管理者に求められる知識や経験が高度化すると共に、そのような知識や経験が少ないシステム管理者等による誤操作が、生ずることがあるという問題があった。
 このような問題点を回避するため、システムを構成するハードウェアの状態を一元的に監視し、制御するシステム運用管理装置が提供されている。このシステム運用管理装置は、管理対象となるシステムのハードウェアの稼働状態を表すデータ(以下、性能情報)をオンラインで取得し、その性能情報を分析した結果から管理の対象となるシステム上の障害の有無を判定すると共に、その内容をシステム運用管理装置を構成する一要素である表示部(例えば、モニタ)に表示する。ここで、上述した障害の有無を判定する手法の例としては、予め性能情報に閾値を設定して判定する手法や、性能情報の実測値と予め算出した性能情報の計算値(理論値)とのずれに基準範囲を設けて判定する手法がある。
 このシステム運用管理装置では、上述したように、モニタ等の表示部にシステム上の障害の有無に関する情報が表示される。そのため、もし障害がある旨が表示されたときは、その表示内容から障害の原因はメモリ容量の不足によるものであるか或いはCPU(Central Processing Unit)の過負荷によるものであるかというように、障害の改善のために、障害の原因を絞り込む必要がある。しかし、このような障害の原因の絞込み作業は、障害の発生に関与していそうな部分のシステム履歴やパラメータの調査を必要とすることから、その作業を担当するシステム管理者の経験と勘に頼る必要がある。よって、システム運用管理装置を操作するシステム管理者には、必然的に高いスキルが求められることとなる。同時に、システム運用管理システムを操作してのシステム障害の解決は、多くの時間的及び身体的負担をシステム管理者に強いる。
 よって、このシステム運用管理装置では、管理対象のシステムから収集した処理能力にかかる情報に基づいて、異常状態の組合せ等の分析を自動的に行い、大まかな問題点や障害原因を推定してシステム管理者に通知した上で、対処指令を受付けることが重要である。
 このように、システムの管理や障害の修繕にかかるシステム管理者の負担を軽減する機能を備えたシステム運用管理装置については、様々な関連技術が存在する。以下、それら関連技術を紹介する。
 特開2004−062741号公報に開示された技術は、システムの障害情報を表示する障害情報表示装置に関する技術である。その技術は、管理対象となるデータ処理システムの稼働状況を管理において、何らかの障害が発見された場合、当該障害の発生順や障害ユニットの実際の配置関係に応じた障害メッセージを外部に提示することにより、障害箇所を視覚的に認識し易くし、且つ障害発生元の推測作業を容易化し、システム管理者の負担を軽減する。
 特開2005−257416号公報に開示された技術は、測定対象装置から取得したパラメータの時系列情報に基づき、当該被測定対象装置を診断する装置に関する技術である。その技術は、パラメータの時系列情報の変化度に基づいて、各パラメータの情報間の相関関係の強さを算出することにより、測定対象装置の性能劣化による障害を適切に検出する。本技術によれば、異なるパラメータの情報の時系列変化が類似するか否かを適切に判断できる。
 特開2006−024017号公報に開示された技術は、コンピュータ資源の容量を予測するためのシステムに関する技術である。その技術は、システム要素の処理の履歴と性能情報の変化の履歴とを比較することにより、特定の処理に起因する負荷の量を特定すると共に、将来の処理量での負荷を分析する。本技術によれば、予め処理と負荷との関係が把握できている場合に、システムの挙動を特定できる。
 特開2006−146668号公報に開示された技術は、運用管理支援装置に関する技術である。その技術は、管理対象システムからCPU等のハードウェア稼働状況の情報やWeb管理サーバへのアクセス量の情報を一定の時間間隔で取得し、その情報を構成する複数の要素の相関関係を求め、その相関関係から現在のシステムの状態が正常か否かを判定する。本技術よれば、システムの性能の劣化の状況をより柔軟に検知できると共に、劣化の原因や対策を詳細に提示することが可能となる。
 特開2007−293393号公報に開示された技術は、過去の類似障害を探索する障害監視システムに関する技術である。その技術は、各種の処理能力にかかる情報を周期的に取得し、その情報を過去に起きた障害にかかる情報と併せて時間軸上に表示することにより、過去の障害発生時の解析情報と類似しているか否かに基づいて将来の障害発生を予測できる。
 特開平10−074188号公報に開示された技術は、データ学習装置についての技術である。その技術は、データ管理対象の装置から取得した学習対象となる情報と予め作成した予想値にかかる情報とを比較し、両者の類似度が所定の基準以下であるときは、取得した情報が例外的な情報であると判定する。加えて、その技術は、両者の差分に基づき予想値にかかる情報の内容を修正する。本技術によれば、これらの操作を繰返すことにより、データ管理対象の装置による処理の精度を向上できる。
 しかしながら、上述した各特許文献に開示された技術には、以下に述べる問題点があった。
 先ず、特開2004−062741号公報に開示された技術では、実際に発生したシステム障害に対する対処は的確且つ容易に行われるものの、将来起こり得るシステム障害の予防は解決されないという問題点がある。そのため、将来のシステム障害の予防は、経験の乏しいシステム管理者にとって、依然として負担の大きい作業であるという問題がある。
 次に、特開2005−257416号公報に開示された技術では、崩れた相関関係の数や内容から実際に発生した障害を特定するために、対象となるシステムの構成と挙動を正確に理解しておく必要がある。すなわち、どのように相関関係が崩れるとどのような障害が起こるのかを把握しておく必要がある。このため、システム管理者に、多大な経験や知識が求められると共に、本技術を実施するときに、多大な負担を強いるという問題がある。
 次に、特開2006−024017号公報に開示された技術では、予測対象のシステムが大規模であったり、他システムと連携する構成をとっている場合は、処理と負荷との関係が極めて複雑となり、正確な負荷の量を予測するためには、関係し得る全ての処理の履歴を収集して分析しなくてはならなかった。
 このため、当該分析において正確な予測をするには、データ収集及び分析の負荷が大きいため、当該分析に携わる者に、大きな負担を強いるという問題点がある。又、当該分析に携わる者は、極めて高度な知識を備えている必要があるという問題がある。
 次に、特開2006−146668号公報に開示された技術では、実際に起きたシステム異常に対する原因の解明及び改善処置は的確に行われるが、将来のシステム異常の発生についての予測については、現時点のシステムの状態の正常性の判定結果を基に、システム管理者等が自分で行わなければならない。そのため、システム管理者に、多くの経験が求められると共に、多くの負担を強いるという問題がある。
 次に、特開2007−293393号公報に開示された技術では、分析対象の情報の内容が正常異常の区別なく時系列で連続する情報である場合は、その値や変化状態のみから、どの部分が障害であるかを明確に切り出すことができない。よって、このような場合は、システム管理者等が、自らの経験を基に障害部分を検出しなければならず、システム管理者に、多大な負担を強いるという問題がある。
 次に、特開平10−074188号公報に開示された技術では、上述した予想値にかかる情報の作成は、システム管理者が自ら行う必要がある。この作成には多くの経験が求められるため、システム管理者に、多くの負担を強いるという問題がある。
 以上述べたように、従来の各関連技術では、システム管理者に、ある程度以上のスキルや経験が求められ、又、システム管理者等が被る負担も大きい。
 加えて、昨今においては、管理対象のシステムの内容が高度化・複雑化していく傾向にあるため、システム管理者が被る負担も今後更に増大していくことが予想される。
 [発明の目的]
 本発明は、上述の問題を解決し、将来の障害検出における判断基準を付与するときのシステム管理者にとっての負担を軽減できるシステム運用管理装置、システム運用管理方法、及びプログラム記憶媒体を提供することを目的とする。
 本発明のシステム運用管理装置は、システムにおける複数種別の性能値を含む性能情報を時系列に格納する性能情報蓄積手段と、複数の属性のいずれかを有する複数の期間のそれぞれにおける、前記性能情報蓄積手段に格納された異なる前記種別の性能値間の相関関係を1以上含む相関モデルを生成するモデル生成手段と、入力された前記システムの前記性能情報と、当該性能情報が取得された期間の前記属性に対応する前記相関モデルとを用いて、当該性能情報の異常検出を行う分析手段と、を含む。
 本発明のシステム運用管理方法は、システムにおける複数種別の性能値を含む性能情報を時系列に格納し、複数の属性のいずれかを有する複数の期間のそれぞれにおける、異なる前記種別の性能値間の相関関係を1以上含む相関モデルを生成し、入力された前記システムの前記性能情報と、当該性能情報が取得された期間の前記属性に対応する前記相関モデルとを用いて、当該性能情報の異常検出を行う。
 本発明のプログラム記録媒体は、コンピュータに、システムにおける複数種別の性能値を含む性能情報を時系列に格納し、複数の属性のいずれかを有する複数の期間のそれぞれにおける、異なる前記種別の性能値間の相関関係を1以上含む相関モデルを生成し、入力された前記システムの前記性能情報と、当該性能情報が取得された期間の前記属性に対応する前記相関モデルとを用いて、当該性能情報の異常検出を行う、処理を実行させるシステム運用管理プログラムを記録する。
 本発明の効果は、システム運用管理装置において、将来の障害検出における判断基準を付与するときのシステム管理者にとっての負担を大幅に軽減できることである。
本発明のシステム運用管理装置の第1の実施形態の構成を示すブロック図である。 本発明の第1の実施形態における、スケジュール情報の一例を示す説明図である。 本発明の第1の実施形態における、スケジュール情報の他の例を示す説明図である。 本発明の第1の実施形態における、スケジュール情報の他の例を示す説明図である。 本発明の第1の実施形態における、相関変化分析結果の生成動作の一例を示す説明図である。 本発明の第1の実施形態における、システム運用管理装置の動作を示すフローチャートである。 本発明のシステム運用管理装置の第2の実施形態の構成を示すブロック図である。 本発明の第2の実施形態における、候補情報生成部21の構成を示すブロック図である。 本発明の第2の実施形態における、スケジュール候補情報の生成動作の一例を示す説明図である。 本発明の第2の実施形態における、相関変化分析結果の生成動作の一例を示す説明図である。 本発明の第2の実施形態における、修正候補生成部22の構成を示すブロック図である。 本発明の第2の実施形態における、分析スケジュールの修正候補の生成手順の一例を示す説明図である。 本発明の第2の実施形態における、分析スケジュールの修正候補の生成手順の一例(図12の続き)を示す説明図である。 本発明の第2の実施形態における、管理者対話部14により表示される内容の一例を示す説明図である。 本発明の第2の実施形態における、スケジュール候補情報の生成の動作を示すフローチャートである。 本発明の第2の実施形態における、スケジュール情報の修正候補の生成の動作を示すフローチャートである。 本発明のシステム運用管理装置の第3の実施形態の構成を示すブロック図である。 本発明の第3の実施形態における、管理者対話部14により表示される内容の一例を示す説明図である。 本発明の第3の実施形態における、適合モデル判定部23による動作を示すフローチャートである。 本発明にかかるシステム運用管理装置の前提となる構成を示すブロック図である。 図20に示すシステム運用管理装置の性能情報の一例を示す説明図である。 図21に示す性能情報が蓄積して格納された状態の一例を示す説明図である。 図20に示すシステム運用管理装置の相関モデルの一例を示す説明図である。 図20に示すシステム運用管理装置の動作を示すフローチャートである。 図20に示すシステム運用管理装置の管理者対話部14により表示される内容の一例を示す説明図である。 本発明の第一の実施の形態の特徴的な構成を示すブロック図である。
 以下、本発明にかかるシステム運用管理装置の各実施形態を、図1乃至図26に基づいて説明する。
 [本発明の前提となるシステム運用管理装置]
 先ず、第1の実施形態についての説明の前に、本発明の前提となるシステム運用管理装置101について図20乃至図25に基づいて説明する。
 図20は、本発明にかかるシステム運用管理装置の前提となる構成を示すブロック図である。
 図20において、システム運用管理装置101は、顧客用サービス実行システム4の稼働状態を管理する。顧客用サービス実行システム4は、顧客が希望する情報Eを電気通信回線を通じて受け取ると共に、上記情報を顧客に提供するサービスを実行する。
 顧客用サービス実行システム4は、一又は二以上のサーバにより構成されている。この顧客用サービス実行システム4は、システム運用管理装置101とは独立したコンピュータで構成されていてもよい。
 システム運用管理装置101は、図20に示すように、性能情報収集部11と性能情報蓄積部12とを含む。ここで、性能情報収集部11は、顧客用サービス実行システム4を構成するサーバの性能情報を当該サーバから定期的に取得する。性能情報蓄積部12は、性能情報収集部11が取得した性能情報を順次格納する。これにより、顧客用サービス実行システム4を構成するサーバの性能情報を経時的に保存できる。
 ここで、サーバの性能情報とは、顧客用サービス実行システム4を構成するサーバの稼動を左右する各種要素(例えばCPU、メモリ)の状態を具体的に数値化した、複数種別の性能値により構成された情報である。性能値の具体例としては、CPU使用率やメモリ残量がある。
 図21は、図20に示すシステム運用管理装置の性能情報の一例を示す説明図である。また、図22は、図21に示す性能情報が蓄積して格納された状態の一例を示す説明図である。
 例えば、性能情報収集部11は、図21のような性能情報を取得し、性能情報蓄積部12は、図22のように性能情報を格納する。
 又、図20に示すように、システム運用管理装置101は、相関モデル生成部16と、分析用モデル蓄積部17と、相関変化分析部18とを含む。相関モデル生成部16は、顧客用サービス実行システム4の稼動状態の相関モデルを生成する。分析用モデル蓄積部17は、相関モデル生成部16により生成された相関モデルを格納する。相関変化分析部18は、性能情報を構成する性能値の実測値と分析用モデル蓄積部17に保存されている相関モデルにかかる変換関数による計算値との差が予め設定された基準範囲内にあるか否かを判断しその結果を出力する。これにより、顧客用サービス実行システム4の稼動状態を確認できる。ここで、相関モデル生成部16は、性能情報蓄積部12に格納された一定期間の性能情報の時系列データを取出し、この時系列データをもとに性能情報における任意の二つの種別の性能値の相互間の変換関数を導出することで、相関モデルを生成する。
 更に、図20に示すように、システム運用管理装置101は、障害分析部13と、管理者対話部14と、対処実行部15とを含む。障害分析部13は、性能情報に対する相関変化分析部18による分析結果を基に、顧客用サービス実行システム4について、システム障害の可能性の有無を分析する。管理者対話部14は、障害分析部13によりシステム障害の可能性があると判定されたときに、当該判定結果を外部に表示すると共に、表示した内容に対して外部から当該システム異常に対する改善指令が入力されたときにこの入力にかかる情報を受理する。対処実行部15は、管理者対話部14に改善指令が入力されたときに、入力にかかる情報を受取ると共に、当該入力にかかる情報の内容に応じて、顧客用サービス実行システム4を構成するサーバ上でシステム障害の対処となる処理を実行する。
 これにより、顧客用サービス実行システム4を構成するサーバの性能情報の異常を正確に検知できると共に、的確に対処できる。
 次に、システム運用管理装置101の各構成部について詳述する。
 性能情報収集部11は、定期的に顧客用サービス実行システム4のサーバにアクセスし、その性能情報を取得する。そして、取得した当該性能情報を性能情報蓄積部12に格納する。本発明の実施形態においては、この性能情報収集部11は定期的に性能情報を取得すると共に、性能情報蓄積部12に順次格納する。
 次に、性能情報蓄積部12は、性能情報収集部11により取得された性能情報を格納する。上述したように、この性能情報蓄積部12には性能情報が定期的に順次格納される。
 次に、相関モデル生成部16は、性能情報蓄積部12に格納された性能情報について、予め設定された取得期間にかかるものを受取り、これら性能情報における任意の二つの種別を選択し、一方の種別の性能値の時系列から他方の種別の性能値の時系列へと変換するための変換関数(以下、相関関数)を導出する。
 又、相関モデル生成部16は、種別の全ての組合せについて上述した相関関数を導出し、その結果得られた各相関関数を組合せることにより、相関モデルを生成する。
 更に、相関モデル生成部16は、上述した相関モデルを生成した後に、この相関モデルを分析用モデル蓄積部17に格納する。
 分析用モデル蓄積部17は、相関モデル生成部16から受取った相関モデルを格納する。
 次に、相関変化分析部18は、分析用として性能情報収集部11により新たに取得された性能情報について、先述の相関関数に一方の種別の性能値を代入することにより得られる他方の種別の性能値の理論値(計算値)と当該性能値の実際の値(実測値)とを比較する。その結果、両値の差が予め設定された基準範囲内であるか否かを判定することにより、両種別の性能値の相関関係が保たれているか否かの分析(以下、相関変化分析)を行う。
 相関変化分析部18は、上記差が基準範囲内であるときに、両種別の性能値の相関関係は正常に保たれていると判定する。この分析結果により、その処理能力にかかる情報を取得した時点における取得元のシステム、即ち顧客用サービス実行システム4を構成するサーバの稼働状況を確認できる。
 その後、相関変化分析部18は、当該分析結果を障害分析部13に送る。
 次に、障害分析部13は、相関変化分析部18から受取った分析結果について、予め設定された手法に基づいて顧客用サービス実行システム4を構成するサーバ上の障害の可能性の有無を判定し、この判定の結果を管理者対話部14に送る。
 ここで、上記判定の手法の一例としては、以下のようなものがある。
 一つ目の例として、障害分析部13が、当該性能情報の相関変化分析結果で異常であると判定された相関関係の数が、予め設定された値よりも多いか否かの確認を行い、多いと確認された場合に顧客用サービス実行システム4に障害の可能性があると判定する。
 又、二つ目の例として、異常であると判定された相関関係のうち、特定の要素(例えば、CPU使用率)に関する相関関係の数が予め設定された閾値以上である場合に限り、顧客用サービス実行システム4に障害の可能性があると判定する。
 次に、管理者対話部14は、障害分析部13から受取った障害の可能性の有無にかかる判定結果の内容を、図示しない出力部(例えば管理者対話部14に装備されているモニタ)から外部に表示用として出力する。
 図25は、図20に示すシステム運用管理装置101の管理者対話部14に表示される内容の一例を示す図である。
 例えば、管理者対話部14は、上記判定結果を図25の表示画面14Aのように表示する。この表示画面14Aに示すように、管理者対話部14は、システム管理者が判定結果を容易把握できるように、図表を多用して表示する。
 画面表示14Aについて更に説明する。表示画面14Aは、性能情報分析結果の異常度合いを示す相関破壊数14Aa、異常場所を示す相関関係図14Ab、及び異常度合いの大きい要素のリスト14Acを含む。このように表示することで、例えば、図25のように、C.CPUの異常度合いが大きい場合に、C.CPUに障害の可能性があることを的確にシステム管理者に伝えることができる。
 又、管理者対話部14は、障害分析の判定結果の表示(図25、表示画面14A)を行った後に、その内容を確認したシステム管理者から、障害に対する改善指令の入力を受け付け、その情報を対処実行部15へ送る。
 次に、対処実行部15は、管理者対話部14に入力された障害改善指令に基づく措置を顧客用サービス実行システム4のサーバに実行する。
 例えば、或る特定のCPUの負荷が高くなっているため業務量を減らす旨の指令が管理者対話部14より入力された場合は、対処実行部15は顧客用サービス実行システム4のサーバに対し業務量を減らすための措置を行う。
 [相関モデルの生成]
 ここで、上述した相関モデル生成部16による相関モデルの生成について、更に具体的に説明する。
 相関モデル生成部16は、性能情報蓄積部12に格納された性能情報の内で、予め外部より設定された一定の期間に取得されたものを取り出す。
 次に、相関モデル生成部16は、性能情報における任意の二つの種別を選択する。
 ここでは、相関モデル生成部16が、図22の性能情報12Bにおける種別の内、「A.CPU」(A.CPUの使用率)と「A.MEM」(A.メモリの残量)を選択したとして説明を進める。
 相関モデル生成部16は、「A.CPU」の性能値(入力X)の時系列から「A.MEM」の性能値(出力Y)の時系列へと変換する相関関数Fの算出を行う。
 ここで、本発明の実施形態では、相関モデル生成部16は、関数Fの内容として、様々な形式の関数の中から適したものを選択できる。ここでは、変換関数Fとして「Y=αX+β」形式の関数が選択されたとして説明を続ける。
 相関モデル生成部16は、性能情報12Bの「A.MEM」の性能値Xの時系列変化と「A.MEM」の性能値Yの時系列変化とを比較し、XからYへと変換できる式「Y=αX+β」のα及びβの値を算出する。ここでは、算出の結果、αとして「−0.6」、βとして「100」が算出されたとする。
 更に相関モデル生成部16は、Xを上述の相関関数「Y=−0.6X+100」で変換したYの値の時系列と実際のYの値の時系列とを比較して、その差分である変換誤差からこの相関関数の重み情報wを算出する。
 相関モデル生成部16は、以上の操作を性能情報12Bの二つの種別の全組合せについて実行する。例えば性能情報12Bが五つの種別の性能値から構成されている場合は、相関モデル生成部16は、これら五つの種別から得られる20通りの組合せについて相関関数Fを生成する。
 ここで、この相関関数Fは、管理対象となる顧客用サービス実行システム4の安定度をチェックする基準となるため、顧客用サービス実行システム4が安定している期間(平常時)に取得した性能情報を基に作成される。
 このようにして得られた種々の相関関数を相関モデル生成部16が一つに組合せることにより、相関モデルが生成される。
 図23は、図20に示すシステム運用管理装置の相関モデルの一例を示す説明図である。
 この図23に示した相関モデル17Aは、二つの種別の組合せによる複数の相関関数から構成されている。
 [相関変化分析]
 次に、上述した相関変化分析部18による相関変化分析について、更に具体的に説明する。
 ここでは、性能情報収集部11が、分析用の性能情報として、図22の12Bの最下段の行に示した性能情報(2007年11月7日8時30分に取得した性能情報)12Baを取得したという前提で説明をする。
 相関変化分析部18は、性能情報12Baを性能情報収集部11から受取ると、分析用モデル蓄積部17にアクセスして、ここに格納されている相関モデルを取出し、この相関モデルを構成する相関関数の中から性能情報12Baの分析に適したものを抽出する。
 具体的には、相関変化分析部18は、性能情報12Baにおける種別の全ての組合せにかかる相関関数を抽出する。例えば、性能情報12Baにおける種別が「A.CPU」、「A.MEM」、及び「B.CPU」の三つである場合は、相関変化分析部18は、上述した「X」と「Y」の組合せが、「A.CPU」と「A.MEM」、「A.MEM」と「B.CPU」、及び「A.CPU」と「B.CPU」、である相関関数を全て選択し抽出する。
 以降、種別の組合せが「A.CPU」と「A.MEM」である相関関数を抽出し、これに基づき相関変化分析を実行するケースについて説明を続ける。
 相関変化分析部18は、性能情報12Baについて、「A.CPU」の実測値を上記相関関数のXに代入し、Yの値を算出する。そして、相関変化分析部18は、算出されたYの値(即ち、「A.MEM」の理論値)と当該性能情報の「A.MEM」の実際の値(実測値)とを比較する。
 この比較の結果、「A.MEM」の理論値及び「A.MEM」の実測値との差が、予め設定された基準範囲内(許容誤差範囲内)であると確認された場合は、相関変化分析部18は、性能情報12Baにかかる二つの種別「A.CPU」と「A.MEM」については相関関係が保たれている(即ち、正常である)と判定する。
 一方、上述した差が、基準範囲外であると確認された場合は、相関変化分析部18は、性能情報12Baにかかる二つの種別「A.CPU」と「A.MEM」に関しては相関関係が崩れている(即ち、異常である)と判定する。
 [図20におけるシステム運用管理装置の動作]
 次に、システム運用管理装置101の動作について、以下図24に基づいて説明する。
 図24は、図20に示すシステム運用管理装置の動作を示すフローチャートである。
 性能情報収集部11が、顧客用サービス実行部4から性能情報を定期的に取得し(ステップS101)、性能情報蓄積部12に格納していく(ステップS102)。
 次いで、相関モデル生成部16が、性能情報蓄積部12に格納された性能情報の内の予め設定された期間にかかるものを取得し、これらに基づき相関モデルを生成する(ステップS103)。ここで生成された相関モデルは、分析用モデル蓄積部17に格納される。
 続いて、相関変化分析部18が、性能情報収集部11から、分析対象となる性能情報を取得する(ステップS104)。それと共に、相関変化分析部18は、分析用モデル蓄積部17から、相関変化分析に用いる相関モデルを取得する。
 続いて、相関変化分析部18が、分析用の性能情報について相関変化分析を行い、相関破壊を検出する(ステップS105)。
 この相関変化分析の終了後、相関変化分析部18は、分析結果を障害分析部13に送る。
 分析結果を受取った障害分析部13は、分析結果における相関関係が崩れていると判定された相関関係の数(相関破壊の数)をチェックし、その数が予め設定された基準を超えているか否かを確認する(ステップS106)。確認の結果、予め設定された基準を超えている場合は(ステップS106/イエス)、障害分析部13は、顧客用サービス実行システム4に障害の可能性があると判断し、その詳細な分析内容にかかる情報を管理者対話部14に送る。一方、予め設定された基準を超えていない場合は(ステップS106/ノー)、ステップS104の分析用性能情報の取得工程以降の工程が繰返される。
 詳細な分析内容にかかる情報を障害分析部13から受取った管理者対話部14は、この情報に基づき、顧客用サービス実行システム4に障害の可能性がある旨を表示する(ステップS107)。
 続いて、管理者対話部14にて表示された分析結果を確認したシステム管理者により、障害に対する改善指令が管理者対話部14に入力されると、管理者対話部14は、その改善指令入力にかかる情報を対処実行部15に送る(ステップS108)。
 続いて、対処実行部15は、改善指令入力にかかる情報を受取ると、その内容に従い顧客用サービス実行システム4に対して改善措置を実行する(ステップS109)。
 以降、分析用性能情報の取得操作の工程(ステップS104)以降の工程が繰返される。これによって、顧客用サービス実行システム4の状態の経時変化を確認できる。
 [第1の実施形態]
 次に、本発明の第1の実施形態の具体的内容を図1乃至図6に基づいて説明する。
 図1は、本発明のシステム運用管理装置の第1の実施形態の構成を示すブロック図である。
 ここで、図1に示すように、本発明の第1の実施形態におけるシステム運用管理装置1は、前述した図20におけるシステム運用管理装置101と同様に、性能情報収集部11と、性能情報蓄積部12と、相関モデル生成部16と、分析用モデル蓄積部17と、相関変化分析部18と、障害分析部13と、管理者対話部14と、対処実行部15とを含む。性能情報収集部11は、性能情報を顧客用サービス実行システム4から取得する。性能情報蓄積部12は、取得された性能情報を格納する。相関モデル生成部16は、取得された性能情報を基に相関モデルを生成する。分析用モデル蓄積部17は、生成された相関モデルを格納する。相関変化分析部18は、相関モデルを用いて取得した性能情報の異常性を分析する。障害分析部13は、相関変化分析部18による分析結果を基に顧客用サービス実行システム4の異常性を判断する。管理者対話部14は、障害分析部13による判断結果を出力する。対処実行部15は、管理者対話部14が出力した内容に対する改善指令の入力があったときに、その指令に基づき、顧客用サービス実行システム4の改善を行う。
 更に、システム運用管理装置1は、分析スケジュール蓄積部19を含む。分析スケジュール蓄積部19は、上述した相関変化分析時に、分析用の性能情報の取得時期に合せて相関モデルを切替えるためのスケジュールであるスケジュール情報を格納する。ここで、このスケジュール情報は、予めシステム管理者により作成される。
 分析スケジュール蓄積部19は相関モデル生成部16及び相関変化分析部18からアクセス可能である。これにより、この分析スケジュール蓄積部19に格納されたスケジュール情報に基づき、相関モデルを生成し、性能情報分析を実行できる。
 又、本発明の第1の実施形態における管理者対話部14、相関モデル生成部16、及び相関変化分析部18は、先述した各種機能に加え、更に新たな機能を有している。以下、それらの機能について説明する。
 管理者対話部14は、外部にて予め生成されたスケジュール情報の入力を受け付けると共に、入力されたスケジュール情報を分析スケジュール蓄積部19に格納する。
 図2、図3及び図4は、本発明の第1の実施形態における、スケジュール情報の例を示す説明図である。
 例えば図2におけるスケジュール情報19Aでは、毎週土日を表す1番目の優先度のスケジュールと、毎日を表す2番目の優先度のスケジュールが指定されている。このスケジュール情報19Aは、優先度順に適用され、分析期間は、毎週土日曜日と、それ以外の曜日(月曜日~金曜日)の2つに区別される。
 同様に、図3におけるスケジュール情報19Bでは、毎日を表わす1番目の優先度のスケジュールのみが指定されている。
 又、図4におけるスケジュール情報19Cでは、毎月の最終日で且つ平日である1番目の優先度のスケジュールと、毎週土日を表す2番目の優先度のスケジュールと、毎日を表す3番目の優先度のスケジュールとが指定されている。
 [相関モデルの生成]
 次に、本発明の第1の実施形態における相関モデル生成部16による相関モデルの生成について、更に説明する。
 相関モデル生成部16は、相関モデルの生成に当たり、性能情報蓄積部12から予め設定された期間にかかる性能情報を取得すると共に、分析スケジュール蓄積部19からスケジュール情報を受取る。そして、相関モデル生成部16は、性能情報を、当該性能情報の性能情報収集部11による取得時期について、スケジュール情報に定められた分析期間に従って区分けする。その後、相関モデル生成部16は、その区分けされた各々の性能情報群に基づいて、前述した手法により相関モデルを生成する。これにより、各分析期間における相関モデルが得られる。
 例えば、相関モデル生成部16がスケジュール情報19A(図2)を取得し、相関モデルを生成するケースを考える。
 先ず、相関モデル生成部16は、1番目の優先度の分析期間、即ち土日曜日に性能情報収集部11に取得された性能情報を基に相関関数を導出し、これに基づき相関モデルを生成する。
 次いで、相関モデル生成部16は、2番目の優先度の分析期間、即ち毎日から上記1番目の優先度の期間を除いた期間である月曜日~金曜日に取得された性能情報を基に相関関数を導出し、これに基づいて相関モデルを生成する。
 その後、相関モデル生成部16は、生成した各分析期間にかかる相関モデルの全てを、各分析期間に関連付けて、分析モデル蓄積部17に格納する。
 なお、本発明の第1の実施の形態においては、モデル生成部30が、相関モデル生成部16を含むものとする。また、分析部31が、相関変化分析部18と障害分析部13とを含むものとする。
 [相関変化分析]
 次に、本発明の第1の実施形態における相関変化分析部18による相関変化分析について、更に説明する。
 先ず、相関変化分析部18は、情報収集部11から分析用性能情報を受取ると共に、スケジュール情報に基づいて生成された相関モデルの全てを分析用モデル蓄積部17から取出す。更に、相関変化分析部18は、分析スケジュール蓄積部19からスケジュール情報を取得する。
 次いで、相関変化分析部18は、取得した性能情報の取得日時を確認する。このときの取得日時の確認手法として、例えば、当該性能情報の中に包含されている日時情報(図21の性能情報12A参照)を相関変化分析部18が読み取ってもよい。
 そして、相関変化分析部18は、現在設定されている相関モデルが、分析用として取得した性能情報の相関変化分析を行うのに適したものであるか否か(即ち、この相関モデルの生成に用いられた性能情報の取得時期が取得された分析用性能情報の取得時期と同じ分析期間であるか否か)を確認する。
 確認の結果、相関モデルが相関変化分析に用いるのに適さないものである場合は、相関変化分析部18は分析用モデル蓄積部17の中から分析に適した相関モデルを抽出し、その相関モデルに設定を切替える。
 このときに、もし分析に適した相関モデルがまだ生成されていない場合は、相関変化分析部18は、相関モデル生成部16に分析に適した相関モデルが存在しない旨の情報を送る。この情報を受取った相関モデル生成部16は、分析に適した相関モデルを補充生成し、分析用モデル蓄積部17に格納する。更に相関モデル生成部16は、相関モデルの生成が完了した旨の情報を相関変化分析部18へと送る。
 図5は、本発明の第1の実施形態における、相関変化分析結果の生成動作の一例を示す説明図である。
 図5の18Aは、上述のように、分析期間の切り替え判定と分析実行の動作が繰り返し実行された場合の、分析結果を示す。図5の18Aaでは、休日(図2のスケジュール情報19Aの1番目の優先度のスケジュールに相当)と平日(図2のスケジュール情報19Aの2番目の優先度のスケジュールに相当)で分析期間が区別されており、それぞれの区間で相関モデルが生成され分析が行われる。これらの分析結果を分析期間毎に抽出して合成することで、図5の18Abに示すような分析結果が得られる。
 この場合、平日には平日用相関モデルが利用され、休日には休日用相関モデルが利用されることで、それぞれの期間の稼動特性に応じた分析結果が提供される。このように、予め指定したスケジュール情報に従って自動的に相関モデルを切り替えて分析することで、管理者の負担を増加させずに高精度な分析結果が得られる。
 上記各部のその他の機能については、上述した図20におけるシステム運用管理装置101と同一である。
 [第1の実施形態の動作]
 次に、本発明の第1の実施形態におけるシステム運用管理装置1の動作について、以下図6に基づいて説明する。
 図6は、本発明の第1の実施形態における、システム運用管理装置の動作を示すフローチャートである。
 ここでは、全体的な動作の流れを明確にするために、上述した図20におけるシステム運用管理装置101の動作と重複するものについても言及する。
 管理者対話部14が、外部から入力されたスケジュール情報を分析スケジュール蓄積部19に送り、保存する(ステップS201、スケジュール情報格納工程)。
 又、性能情報収集部11が、顧客用サービス実行システム4を構成するサーバから定期的に性能情報を取得し(ステップS202、性能情報取得工程)、性能情報蓄積部12に保存する(ステップS203、性能情報蓄積工程)。
 次いで、相関モデル生成部16は、性能情報蓄積部12から一定期間の性能情報を取得する。更に、相関モデル生成部16は、分析スケジュール蓄積部19から分析スケジュール情報を取得する。
 次いで、相関モデル生成部16は、取得した分析スケジュール情報に含まれる分析期間毎に相関モデルを生成し(ステップS204、相関モデル生成工程)、各分析期間に関連付けて、分析用モデル蓄積部17に保存する。
 続いて、相関変化分析部18は、性能情報収集部11から分析用となる性能情報を取得する(ステップS205、分析用性能情報取得工程)。相関変化分析部18は、分析用モデル蓄積部17から各期間の相関モデルを、分析スケジュール蓄積部19からスケジュール情報を、それぞれ取得する(ステップS206、相関モデル及びスケジュール情報取得工程)。
 そして、相関変化分析部18は、分析対象となる性能情報の取得日時を確認し、現在設定されている相関モデルが当該性能情報の分析に適したものであるか否かを確認し、相関モデルの切替えが必要であるか否かを判定する(ステップS207、分析期間選択工程)。
 すなわち、現在設定されている相関モデルが性能情報の分析に適したものでない場合、相関変化分析部18は、当該分析に適した相関モデルへと切替えを行うと判定する。一方、分析に適した相関モデルが既に設定されている場合、相関変化分析部18は、相関モデルの切替えは行わないと判定する。
 ステップS207にて相関モデルの設定の切替えを行うと判定した場合(ステップS207/イエス)、相関関係分析部18は切替わった後の分析期間にかかる相関モデルが既に生成されているか否かを確認する(ステップS208)。もし未だ生成されていない場合は(ステップS208/ノー)、相関関係分析部18は切替えた後の分析期間にかかる相関モデルが生成されていない旨の情報を相関モデル生成部16に送信する。当該情報を受け取った相関モデル生成部16は、当該相関モデルを補充生成する(ステップS209、相関モデル補充生成工程)と共に分析用モデル蓄積部17に格納し、切替え後の相関モデルの補充生成終了の旨の情報を相関変化分析部18に送る。
 又、切替わった後の相関モデルが既に生成されている場合は(ステップS208/イエス)、相関変化分析部18は、当該相関モデルを用いて性能情報について相関変化分析を行う(ステップS210、相関変化分析工程)。
 又、ステップS207にて相関モデルの切替えを行わないと判定した場合は(ステップS207/ノー)、相関変化分析部18は、そのまま現在設定されている分析期間にかかる相関モデルを用いて相関変化分析を行う(ステップS210、相関変化分析工程)。
 相関変化分析の終了後、相関変化分析部18は、分析結果を障害分析部13に送る。
 分析結果を受取った障害分析部13は、当該性能情報の相関変化分析結果で異常と判定された相関関係数が予め規定された値を超えているか否かの確認を行う(ステップS211、障害分析工程)。確認の結果、超えている場合は(ステップS211/イエス)、障害分析部13は、当該性能情報における異常性の詳細内容の情報を管理者対話部14に送る。一方、超えていない場合は(ステップS211/ノー)、ステップS205の分析用性能情報取得工程以降の工程が繰返される。
 管理者対話部14は、性能情報の異常性の詳細内容にかかる情報を障害分析部13から受取ると、その情報に基づき、顧客用サービス実行システム203に障害の可能性がある旨を表示する(ステップS212、障害情報出力工程)。
 続いて、管理者対話部14にて表示された分析結果を確認したシステム管理者により、上述のシステムの障害についての改善指令が管理者対話部14に入力されると、管理者対話部14は、その改善指令入力にかかる情報を対処実行部15に送る(ステップS213、改善指令情報入力工程)。
 続いて、対処実行部15は、改善指令入力にかかる情報を管理者対話部14から受取ると、その情報の内容に従い顧客用サービス実行システム4に対して改善措置を実行する(ステップS214、システム改善工程)。
 これ以降、分析用性能情報の取得操作(ステップS205)以降の工程が繰返し実行される。これにより、顧客用サービス実行システム4の運用状態の変化を経時的に確認できる。
 ここで、上述した各工程で実行される具体的内容をプログラム化し、これをコンピュータに実行させるようにしてもよい。
 次に、本発明の第一の実施の特徴的な構成について説明する。図26は、本発明の第一の実施の形態の特徴的な構成を示すブロック図である。
 システム運用管理装置1は、性能情報蓄積部12と、モデル生成部30と、分析部31とを含む。
 ここで、性能情報蓄積部12は、システムにおける複数種別の性能値を含む性能情報を時系列に格納する。モデル生成部30は、複数の属性のいずれかを有する複数の期間のそれぞれにおける、性能情報蓄積部12に格納された異なる種別の性能値間の相関関係を1以上含む相関モデルを生成する。分析部31は、入力されたシステムの性能情報と、当該性能情報が取得された期間の前記属性に対応する相関モデルとを用いて、当該性能情報の異常検出を行う。
 [第1の実施形態の効果]
 本発明の第1の実施形態によれば、スケジュール情報を導入し、分析用性能情報の取得時と同じ分析期間に取得された性能情報に基づく相関モデルで相関変化分析を行うようにしたため、顧客用サービス実行システム4の環境が時々刻々変動するような場合であっても、好適な相関モデルを適宜選択した上で、相関変化分析を実行できる。これにより、高い精度で顧客用サービス実行システム4の運用を管理することができる。
 更に、本発明の第1の実施形態によれば、業務パターンをスケジュール情報として登録しておくことで、業務パターンの組み合わせで必要となるモデルの作成および切り替えが自動化され、システム管理者の負担が大幅に低減される。
 ここで、本発明はこの例に限定されるものではない。本発明では、分析用性能情報の取得日時に対応する分析期間の相関モデルの切り替えを指定できる他の方法を用いても、同様の効果を得ることが出来る。
 又、上述の説明では、相関モデルの切替えをするか否かの判定を相関変化分析部18が行う。しかしながら、本発明ではこの例に限定されるものではない。相関モデルの切替えをするか否かの判定を相関モデル生成部16が判定するようにしてもよいし、相関モデル生成部16と相関変化分析部18との内のどちらか一方が判定して、他方を制御してもよい。又、相関モデル生成部16と相関変化分析部18とが共同で分析期間の判定を行うようにしてもよい。
 以上何れの手法を採用しても、分析用性能情報の取得日時に応じて相関モデルを切り替えて分析を行えるものであれば、システム運用管理装置1は、同様の効果を提供できる。
 [第2の実施形態]
 次に、本発明にかかる運用管理システムの第2の実施形態について、図7乃至図16に基づいて説明する。
 図7は、本発明のシステム運用管理装置の第2の実施形態の構成を示すブロック図である。
 図7に示すように、本発明の第2の実施形態におけるシステム運用管理装置2は、前述した第1の実施形態におけるシステム運用管理装置1と同様に、性能情報収集部11と、性能情報蓄積部12と、相関モデル生成部16と、分析用モデル蓄積部17と、相関変化分析部18と、障害分析部13と、管理者対話部14と、対処実行部15と、分析スケジュール蓄積部19とを含む。性能情報収集部11は、性能情報を顧客用サービス実行システム4から取得する。性能情報蓄積部12は、取得された性能情報を格納する。相関モデル生成部16は、取得された性能情報を基に相関モデルを生成する。分析用モデル蓄積部17は、生成された相関モデルを格納する。相関変化分析部18は、相関モデルを用いて取得した性能情報の異常性を分析する。障害分析部13は、相関変化分析部18による分析結果を基に顧客用サービス実行システム4の異常性を判断する。管理者対話部14は、障害分析部13による判断結果を出力する。対処実行部15は、管理者対話部14が出力した内容に対する改善指令の入力があったときにその指令に基づき記顧客用サービス実行システム4の改善を行う。分析スケジュール蓄積部19は、分析スケジュールを格納する。
 更に、図7に示すように、このシステム運用管理装置2は、定期モデル蓄積部20と、候補情報生成部21と、修正候補生成部22とを含む。定期モデル蓄積部20は、相関モデル生成部16が定期的に生成した相関モデルを格納する。候補情報生成部21は、定期モデル蓄積部20から相関モデルを受取ると共に、それらの相関モデルの内容の変動状況からスケジュール情報の仮案であるスケジュール候補情報を生成する。修正候補生成部22は、候補情報生成部21により生成されたスケジュール候補情報における各分析期間に暦上の属性であるカレンダ情報を順次当て嵌めていく(各分析期間とカレンダ情報とを比較し、各分析期間に適合する暦上の属性を抽出する)ことにより、スケジュール情報の修正候補を生成する。
 図7に示すように、定期モデル蓄積部20は相関モデル生成部16に接続されている。これにより、定期モデル蓄積部20は、相関モデル生成部16にて順次生成された相関モデルを順次格納できる。
 図8は、本発明の第2の実施形態における、候補情報生成部21の構成を示すブロック図である。
 図8に示すように、候補情報生成部21は、共通相関判定部21a、静的要素変化点抽出部21b、動的要素類似度判定部21c、及び、必要モデル群抽出部21dを含む。共通相関判定部21aは、連続する期間に相関モデル生成部16により作成された相関モデル間の共通の相関関係を抽出する。静的要素変化点抽出部21bは、共通相関判定部21aにより抽出された共通する相関関係の数の増減から、性能情報分析のための相関モデルを切替える時点を抽出する。動的要素類似度判定部21cは、静的要素変化点抽出部21bにより抽出された新しい分析期間の相関モデルと、過去の分析期間で用いられた相関モデルと、に含まれる相関関係の類似度を確認する。必要モデル群抽出部21dは、静的要素変化点抽出部21b及び動的要素類似度判定部21cにより相関モデルが割り当てられた各分析期間を基に、スケジュール候補情報を生成する。
 図11は、本発明の第2の実施形態における、修正候補生成部22の構成を示すブロック図である。
 図11に示すように、修正候補生成部22は、カレンダ情報蓄積部22a、カレンダ特性判定部22b、及び、修正候補生成部22cを含む。カレンダ情報蓄積部22aは、曜日情報や祝日情報といった暦上の属性にかかる情報(以下、カレンダ情報)を保存する。カレンダ特性判定部22bは、候補情報生成部21の必要モデル群抽出部21dからスケジュール候補情報を受取ると共に、その内容にカレンダ情報蓄積部22aに保存されているカレンダ情報を当て嵌めることにより、スケジュール候補情報における各分析期間の日付の特性(以下、カレンダ特性)を決定する。修正候補生成部22cは、カレンダ特性判定部22bにより決定されたカレンダ特性を既存のスケジュール情報の内容と比較すると共に、両者に差異点が存在するときは、カレンダ特性の内容に基づきスケジュール情報の修正候補を生成する。
 又、本発明の第2の実施形態においては、相関モデル生成部16、及び管理者対話部14は、上述した各種機能に加え、更に新たな機能を有している。以下、それらの機能について説明する。
 相関モデル生成部16は、予め外部より設定された時間間隔で相関モデルを生成する。これにより、顧客用サービス実行システム4の様々な運用状況に対応した相関モデルを得ることができる。
 管理者対話部14は、スケジュール情報の修正候補を分析スケジュール蓄積部19から取得すると共に、それを表示する。これにより、生成したスケジュール情報案をシステム管理者に提示できると共に、スケジュール情報の変更の可否について、システム管理者の判断を仰ぐことができる。
 なお、本発明の第2の実施の形態においては、モデル生成部30が、相関モデル生成部16と、候補情報生成部21と、修正候補生成部22とを含むものとする。また、分析部31が、相関変化分析部18と障害分析部13とを含むものとする。
 [相関モデルの定期的生成]
 本発明の第2の実施形態における相関モデルの生成について、上述した第1の実施形態と異なる部分を中心に説明する。
 上述したように、相関モデル生成部16は予め外部より設定された時間間隔で(区間毎に)相関モデルを作成する。ここで、上記時間間隔の設定の一例として、システム管理者は、時間間隔に「毎日15時に相関モデルを生成する」という内容を設定できる。
 なお、上記時間間隔(区間)の長さは、時間間隔(区間)毎に同一の長さでもよいし、異なる長さでもよい。
 そして、順次生成された相関モデルは、分析用モデル蓄積部17ではなく、定期モデル蓄積部20に順次格納されていく。
 [スケジュール候補情報の生成]
 次に、上述した候補情報生成部21によるスケジュール候補情報の生成について、以下説明する。
 共通相関判定部21aは、定期モデル蓄積部20に格納されている複数の相関モデルを取出す。そして、取出した相関モデルの内で、生成の基となった性能情報の取得時期が連続しているもの同士を比較し、共通する相関関係(例えば、相関関数)を抽出していく。
 この操作を、共通相関判定部21aは、全ての連続する期間に作成された相関モデルの組合せについて行っていく。
 次に、静的要素変化点抽出部21bは、共通相関判定部21aにより抽出された各共通する相関関係について、その共通する相関関係の数の経時的変化を確認する。
 この静的要素変化点抽出部21bによる相関関係の数の経時的変化の確認操作について、具体例を用いて説明する。
 例として、連続している各期間p、q、r、s、tに、性能情報収集部11により取得された性能情報に基づいて相関モデル生成部16により生成された、相関モデルP、Q、R、S、Tが存在する事例を考える。
 静的要素変化点抽出部21bは、(a)相関モデルPと相関モデルQにおける共通する相関関係の数、(b)相関モデルQと相関モデルRにおける共通する相関関係の数、(c)相関モデルRと相関モデルSにおける共通する相関関係の数、(d)相関モデルSと相関モデルTにおける共通する相関関係の数を順次確認していく。
 静的要素変化点抽出部21bによる確認の結果、共通する相関関係の数が上記(a)の組合せでは3個、上記(b)の組合せでは2個、上記(c)の組合せでは3個、上記(d)の組合せでは0個であるものと仮定する。
 このとき、静的要素変化点抽出部21bは、上述した連続する期間の相関モデル間の共通する相関関係の数の経時的変化について、その変化量が予め外部より設定された数より多くなった時点を、性能情報分析のための相関モデルを切替える時点(分析期間の分割点)と判断する。
 本事例では、上記設定が、「共通する相関関係の数の変化が3以上となった時点で相関モデルを切替える」という内容であるものと仮定する。
 これにより、上述の事例においては、上記(a)の組合せから上記(b)の組合せでは変化量は1であり、上記(b)の組合せから上記(c)の組合せでは変化量は1であり、上記(c)の組合せから上記(d)の組合せでは変化量は3である。
 よって、上記(c)の組合せから上記(d)の組合せになる時点が上記設定に合致することになるため、静的要素変化点抽出部21bは、ここが相関モデルを切替える時点、即ち分析期間の分割点と判断する。そして、静的要素変化点抽出部21bは、この分割点にて分析期間を分割する。
 次に、動的要素類似度判定部21cは、上述した分析期間の分割によって設定される新しい分析期間に、相関モデル生成部16により定期的に生成されている相関モデルの内の最新のものを一時的に割り当てる。
 更に、動的要素類似度判定部21cは、上記一時的に割当てられた相関モデルと、分析期間が静的要素変化点抽出部21bにより分割される以前に割当てられていた相関モデル(分割点より前のそれぞれの分析期間に割り当てられている相関モデル)とについて、その内容の類似度を確認する。
 この確認の結果、予め設定された類似基準を超えて両者が類似していると確認されたときは、動的要素類似度判定部21cは、上記新しい分析期間における相関モデルを、分割される以前に割当てられていた相関モデル(分割点より前のそれぞれの分析期間に割り当てられている相関モデルのうち、上記一時的に割当てられた相関モデルと類似している相関モデル)に置き換える。
 ここで、上述した静的要素変化点抽出部21b及び動的要素類似度判定部21cによる分析期間の分割及び分析期間毎の相関モデルの割当てについて、図9に基づき更に説明する。
 図9は、本発明の第2の実施形態における、スケジュール候補情報の生成動作の一例を示す説明図である。
 この図9の21Aは、分析期間の分割と、新たな相関モデルの割り当てを示している。図9の段階1(21b1)では、相関モデルAにより性能情報分析がなされていた区間が分割されて、相関モデルBが新たに設定されている。この場合、まず相関モデルAで性能情報分析が実行されている状態で、候補情報生成部21の静的要素変化点抽出部21bが、定期的に生成された相関モデル間の差異を発見し、分析期間を分割するとともに、最新の定期相関モデルである相関モデルBをその期間に割り当てている。
 図9の段階2(21b2)では、このようにして相関モデルBを用いた分析が継続した後、同様にして、静的要素変化点抽出部21bが新たな分析期間を設定し、最新の定期相関モデルである相関モデルCを割り当てている。同時に、候補情報生成部21の動的要素類似度判定部21cは、相関モデルAと相関モデルCとの類似性を判定する。その結果、類似していると判断した場合は、動的要素類似度判定部21cは、図9の段階3(21c1)に示すように、新たな区間に対する相関モデルとして、相関モデルCではなく相関モデルAを割り当てる。
 これによって、設定された異なる分析期間の間で相関モデルが類似しているにもかかわらず、分析期間毎に異なる分析モデルが生成されることにより、相関モデルが大量に生成され、格納用メモリ容量が不足する事態を防ぐことができる。更には、格納用メモリ不足が原因でシステム運用管理装置2全体の動作速度の低下や、動作が不安定になる事態を防ぐことができる。
 次に、必要モデル群抽出部21dは、静的要素変化点抽出部21b及び動的要素類似度判定部21cにより相関モデルが割り当てられた各分析期間を一つにつなげることで、スケジュール候補情報を生成する。
 図10は、本発明の第2の実施形態における、相関変化分析結果の生成動作の一例を示す説明図である。
 ここで、図10の21Bは、本発明の第2の実施形態における相関変化の分析結果を示している。
 図10の21c2に示すように、静的要素変化点抽出部21b及び動的要素類似度判定部21cにより、上述した分析期間への相関モデルの割当て動作が行われることにより、各分析期間1、2及び3に対して、相関モデルA又はBが割当てられる。ここで、分析期間1、2及び3における分析結果の内、相関モデルAを用いた各分析結果をそれぞれA1及びA3とする。同様に、相関モデルBを用いた各分析結果をそれぞれB2とする。
 そして、図10の21d1に示すように、上述した分析結果A1、分析結果B2、分析結果A3が分析結果として生成される。
 必要モデル群抽出部21dは、スケジュール候補情報の各分析期間に割り当てられている相関モデルを分析用モデル蓄積手段20に蓄積し、スケジュール候補情報を修正候補生成手段22のカレンダ特性判定部22bに送る。
 図12は、本発明の第2の実施形態における、分析スケジュールの修正候補の生成手順の一例を示す説明図である。
 例えば、必要モデル群抽出部21dは、図12のスケジュール候補情報21d2をカレンダ特性判定部22bに送る。
 [スケジュール情報の修正候補の生成]
 カレンダ特性判定部22bは、必要モデル群抽出部21dからスケジュール候補情報を受取ると共に、カレンダ情報蓄積部22aからカレンダ情報を取得する。ここで、カレンダ情報は、予めシステム管理者により作成される。
 そして、カレンダ特性判定部22bは、スケジュール候補情報の内容とカレンダ情報とを比較し、スケジュール候補情報における各分析期間のそれぞれに、対応するカレンダ情報を順次当て嵌める。これにより、カレンダ特性が決定される。
 ここで、上述したカレンダ特性判定部22bによるカレンダ特性の決定について、図12に基づき更に説明する。
 図12に示すように、必要モデル群抽出部21dから受取った2009年8月のスケジュール候補情報21d2が、土・日曜日と月~金曜日と月末日という三種類の分析期間A~Cに分けられている事例を考える。この事例において、カレンダ情報22a1は、土・日曜日に対して「休日」、月~金曜日に対して「平日」、2009年8月31日に対して「月末日」という暦上の属性が設定されていると仮定する。
 このとき、カレンダ特性判定部22bは、スケジュール候補情報21d2とこのカレンダ情報23a1とを比較し、スケジュール候補情報21d2の各分析期間に適合するカレンダ情報23a1の属性を抽出する(生成手順21b1)。これにより、土・日曜日にかかる分析期間が「休日」、月~金曜日にかかる分析期間が「平日」、及び8月31日にかかる分析期間が「月末日」というように、それぞれの分析期間についてカレンダ特性22b2が決定される。
 上記カレンダ特性の決定により、スケジュール候補情報の各分析期間についてその内容を逐一調査せずとも、上記各分析期間の暦上の属性を自動的に特定することができる。
 次に、修正候補生成部22cは、カレンダ特性をカレンダ特性判定部22bから受取り、システム管理者により予め生成されたスケジュール情報を分析スケジュール蓄積部19から受取る。そして、修正候補生成部22cは、カレンダ特性と既に生成されたスケジュール情報について、その内容を比較する。
 この比較の結果、カレンダ特性が示す内容が予め生成されたスケジュール情報の内容から変化している場合は、スケジュール情報生成部22cは、カレンダ特性の内容を基にスケジュール情報の修正候補を生成する。そしてスケジュール情報生成部22cは、このスケジュール情報の修正候補を分析スケジュール蓄積部19に保存する。
 図13は、本発明の第2の実施形態における、分析スケジュールの修正候補の生成手順の一例(図12の続き)を示す説明図である。
 ここで、上述したスケジュール情報生成部21cによるスケジュール情報の修正候補の生成の機能について、図13に基づき更に説明する。
 図13に示すように、カレンダ特性判定部22bによりカレンダ特性22b2が生成され、分析スケジュール蓄積部19に既存のスケジュール情報19Bが保存されているものとする。
 両者を比較すると、カレンダ特性22b2の内容は、既存のスケジュール情報19Bの内容から、明らかに変化している(生成手順22c1)。よって、スケジュール情報生成部22cは、このカレンダ特性22b2をスケジュール情報に反映することにより、スケジュールの修正候補22c2を生成する。
 これにより、既存のスケジュール情報がたとえ好適でないものであっても、好適なスケジュール情報を自動的に得ることが出来る。
 [スケジュール情報の修正候補の表示]
 管理者対話部14は、分析スケジュール蓄積部19からスケジュール情報の修正候補を予め生成されたスケジュール情報と共に取出すと共に、両者を同一画面上に表示する。
 図14は、本発明の第2の実施形態における、管理者対話部14により表示される内容の一例を示す説明図である。
 例えば、管理者対話部14は、図14の表示画面14Bを表示する。
 この表示画面14Bに示すように、管理者対話部14は、予め生成されたスケジュール情報とスケジュール情報の修正候補の両者を、その内容を容易に比較できるように並べて表示する。
 又、管理者対話部14は、予め生成されたスケジュール情報とスケジュール情報の修正候補における、分析期間毎の相関モデル(14Ba)及び必要な相関モデルの一覧(14Bb)も同時に表示する。この理由は、構成要素である相関モデルを明示することにより、予め生成されたスケジュール情報とスケジュール情報との相違点を明確にできるからである。
 更に、管理者対話部14は、正規のスケジュール情報を、予め生成されたスケジュール情報からスケジュール情報の修正候補へ変更する為の操作ボタン14Bcも表示する。システム管理者がこの操作ボタン14Bcにより正規スケジュール情報の変更の旨を入力した場合、この入力にかかる情報が管理者対話部14から分析スケジュール蓄積部19へと送られ、スケジュール情報の修正候補の内容に基づき、予め生成されたスケジュール情報の内容が修正される。
 このように、システム管理者は、大まかな内容のスケジュール情報を予め生成し、システム運用管理装置2が、その内容を相関変化分析に適した内容へと修正を行うため、システム管理者のスケジュール情報生成時の負担を大幅に軽減できる。
 上記各部のその他の機能については、上述した第1の実施形態と同一である。
 [第2の実施形態の動作]
 次に、本発明の第2の実施形態におけるシステム運用管理装置2の動作について、上述した第1の実施形態と異なる部分を中心に、図15、図16に基づいて以下説明する。
 図15は、本発明の第2の実施形態における、スケジュール候補情報の生成の動作を示すフローチャートである。
 先ず、上述した第1の実施形態のシステム運用管理装置1と同様に、性能情報収集部11が、顧客用サービス実行システム3のサーバから定期的に性能情報を取得し、性能情報蓄積部12に順次格納する。
 次いで、相関モデル生成部16は、予め外部より設定された時間間隔で相関モデルを生成する(図15:ステップS301、相関モデル定期生成工程)。その後、生成された相関モデルを定期モデル蓄積部20に順次格納する。
 続いて、候補情報生成21の共通相関判定部21aが、予め外部より設定された期間分の相関モデルを定期モデル蓄積部20から取得する。そして、共通相関判定部21aは、取得したこれら相関モデルの内、生成された期間が連続する相関モデル同士を比較し、両者に共通する相関関係(相関関数等)を抽出していく(図15:ステップS302、共通相関関係抽出工程)。
 次に、静的要素変化点抽出部21bが、上述した共通する相関関係の数の経時的変化を確認し(図15:ステップS303)、その変化が予め外部より設定された基準範囲以内であるかを確認する(図15:ステップS304)。
 このとき、相関関数の数の変化が基準範囲以内であれば(ステップS304/イエス)、静的要素変化点抽出部21bは、同じ相関モデルを用いて性能情報の分析をすべきと判断する。一方、相関関数の数の変化が基準範囲を超えた場合は(ステップS304/ノー)、静的要素変化点抽出部21bは、その時点を相関変化分析のための相関モデルを切り替える時点であると判断し、この時点で分析期間を分割する(図15:ステップS305、相関モデル分割工程)。
 次に、動的要素類似度判定部21cは、静的要素変化点抽出部21bによる新しい分析期間における相関モデルに最新の相関モデルを一時的に割り当てる。その後、この分割点より前の分析期間に割当てられていた相関モデルの内容と前述の最新の相関モデルの内容とを比較し(図15:ステップS306)、両者の類似度を確認する(図15:ステップS307)。
 このとき、予め設定された基準範囲を超えて両者が類似しているものと確認されたときは(ステップS307/イエス)、動的要素類似度判定部21cは、この新しい分析期間の相関モデルとして、分割点より前の相関モデルを割り当てる(図15:ステップS308、相関モデル割当て工程)。一方、基準範囲以下の類似度であると確認されたときは(ステップS307/ノー)、動的要素類似度判定部21cは、この新しい分析期間の相関モデルとして、上述の一時的に割当てた相関モデルを割当てる。
 次に、必要モデル群抽出部21dは、静的要素変化点抽出部21b及び動的要素類似度判定部21cにより相関モデルが割り当てられた各分析期間を基に、スケジュール候補情報を構築し、修正候補生成部22のカレンダ特性判定部22bへ送る(図15:ステップS309、候補情報生成送信工程)。それと共に、必要モデル群抽出部21dは、スケジュール候補情報の各分析期間に割り当てられた各相関モデルを、各分析期間に関連付けて、分析用モデル蓄積部17に格納する。
 図16は、本発明の第2の実施形態における、スケジュール情報の修正候補の生成の動作を示すフローチャートである。
 次に、カレンダ特性判定部22bは、必要モデル群抽出部21dからスケジュール候補情報を受取り(図16:ステップS310、候補情報取得工程)、それと共にカレンダ情報蓄積部22aからカレンダ情報を取得する。そして、カレンダ特性判定部22bは、スケジュール候補情報の内容とカレンダ情報の内容とを比較すると共に、スケジュール候補情報における各分析期間にカレンダ情報を当て嵌めることでカレンダ特性を決定する(図16:ステップS311、カレンダ特性判定工程)。
 次に、修正候補生成部22cは、カレンダ特性判定部22bにより決定されたカレンダ特性を受取り、そのカレンダ特性の内容と既に生成されているスケジュール情報の内容とを比較する(図16:ステップS312)。
 この比較の結果、カレンダ特性の内容が、既に作成されているスケジュール情報の内容から変化していると確認されたときは(ステップS313/イエス)、修正候補生成部22cは、カレンダ特性を基にスケジュール情報の修正候補を生成し分析スケジュール蓄積部19に格納する(図16:ステップS314、修正候補生成格納工程)。そして、管理者対話部14は、このスケジュール情報の修正候補をスケジュール蓄積部19から取得し、外部に表示する(図16:ステップS315、修正候補出力工程)。一方、上記比較の結果、カレンダ特性の内容が既存のスケジュール情報の内容から変化していないと確認されたときは(ステップS313/ノー)、修正候補生成部22cは、スケジュール情報の修正候補を生成しない。
 そして、外部からスケジュール情報の変更の旨が管理者対話部14に入力された場合、管理者対話部14は、当該入力にかかる情報を分析スケジュール蓄積部19に送ると共に、相関変化分析に用いる正規のスケジュール情報を修正候補の内容に変更する。
 その後、相関変化分析部18は、分析用に取得された性能情報について、生成されたスケジュール情報に基づき相関変化分析を行う。
 これ以降の工程については、上述した第1の実施形態と同じである。
 ここで、上述した各工程で実行される具体的内容をプログラム化し、これをコンピュータに実行させるようにしてもよい。
 [第2の実施形態の効果]
 本発明の第2の実施形態によれば、システム運用管理装置2がスケジュール情報を生成するため、システム管理者の知識や経験が少なく、システム管理者がスケジュール情報を自ら生成することが困難な場合であっても、システム管理者は個々の業務パターンを正確に把握してスケジュール情報を逐一生成する必要がなく、その負担を大幅に軽減できる。
 又、本発明の第2の実施形態によれば、システム運用管理装置2が顧客用サービス実行システム4の環境の変化を時々刻々読み取り、それに合せて臨機応変にスケジュール情報を生成するため、業務パターンが不規則であるためにこの業務パターンをスケジュール情報として登録することが難しい場合であっても、顧客用サービス実行システム4の変化に応じた相関モデルを自動的且つ的確に割り当てることが可能であり、常に実際の利用形態に応じた精度の高い分析結果を提供できる。
 この効果が最も有効に働くケースとして、顧客用サービス実行システム4が複数部門で共通利用されるケースがある。
 このケースでは、当該システムの利用者が複数存在するため、その利用パターンが複雑になる。しかしながら、上述したように本発明の第2の実施形態では、必要となる相関モデルの生成及び切替えが自動化されるため、不適切なスケジュール設定による分析結果の精度の低下が起こらず、常に適切な分析結果が維持される。これにより、管理対象システムの性能劣化に対する対処効率が向上する。
 ここで、上述の説明では、システム運用管理装置2が、切り替えるべき相関モデルが検出された場合に、スケジュール情報の修正候補を作成すると共に、表示画面14B(図12)のように、既存のスケジュール情報と修正候補とを並べて表示し、システム管理者等のスケジュール情報の修正命令にかかる入力を受けて、スケジュール情報の修正を実行する。しかしながら、本発明はこの例に限定されるものではない。例えば、一定の範囲で、システム運用管理装置2がスケジュールを自動修正したり、システム管理者等の入力を受けて将来のスケジュール変更を計画したり、過去の性能データの分析を再実行してもよい。即ち、従来はシステム管理者が逐一生成しなければならなかったスケジュール情報をシステム運用管理装置が自動生成するものであれば、同様の効果が得られる。
 [第3の実施形態]
 次に、本発明に係る運用管理システムの第3の実施形態について、図17乃至図19に基づいて説明する。
 図17は、本発明のシステム運用管理装置の第3の実施形態の構成を示すブロック図である。
 図17に示すように、本発明の第3の実施形態におけるシステム運用管理装置3は、前述した第2の実施形態におけるシステム運用管理装置2と同様に、性能情報収集部11と、性能情報蓄積部12と、相関モデル生成部16と、分析用モデル蓄積部17と、相関変化分析部18と、障害分析部13と、管理者対話部14と、対処実行部15とを含む。性能情報収集部11は、性能情報を顧客用サービス実行システム4から取得する。性能情報蓄積部12は、取得された性能情報を格納する。相関モデル生成部16は、取得された性能情報を基に相関モデルを生成する。分析用モデル蓄積部17は、生成された相関モデルを格納する。相関変化分析部18は、相関モデルを用いて取得した性能情報の異常性を分析する。障害分析部13は、相関変化分析部18による分析結果を基に顧客用サービス実行システム4の異常性を判断する。管理者対話部14は、障害分析部13による判断結果を出力する。対処実行部15は、管理者対話部14が出力した内容に対する改善指令の入力があったときに、その指令に基づき記顧客用サービス実行システム4の改善を行う。
 又、図17に示すように、本発明の第3の実施形態におけるシステム運用管理装置3は、前述した第2の実施形態におけるシステム運用管理装置2と同様に、分析スケジュール蓄積部19と、定期モデル蓄積部20と、候補情報生成部21と、修正候補生成部22とを含む。分析スケジュール蓄積部19は、分析スケジュールを格納する。定期モデル蓄積部20は、相関モデル生成部16により定期的に生成された相関モデルを順次格納する。候補情報生成部21は、定期モデル蓄積部20に格納された性能情報を基にスケジュール情報の草案であるスケジュール候補情報を生成する。修正候補生成部22は、スケジュール候補情報に暦上の属性を当て嵌めることによりスケジュール情報の修正候補を生成する。
 更に、システム運用管理装置3は、図17に示すように、適合モデル判定部23を含む。適合モデル判定部23は、相関変化分析部18による相関変化分析の結果が複数ある場合に、それらの異常度の比較を行うことにより、各分析結果の異常度に基づく序列を決定する。
 又、相関変化分析部18、障害分析部13、及び管理者対話部14は、上述した各機能に加え、更に新たな機能を有している。以下、それらの機能について説明する。
 相関変化分析部18は、性能情報収集部11から受取った性能情報について、スケジュール情報に従って割り当てられた相関モデルを用いた相関変化分析だけではなく、分析用モデル蓄積部17に蓄積されている他の相関モデルを用いた相関変化分析も行う。
 障害分析部13は、適合モデル判定部23から、スケジュール情報に従って割り当てられた相関モデルを用いた分析結果に加えて、上記他の相関モデルを用いた分析結果も受取り、障害分析を行うと共に、その結果を管理者対話部14に送る。
 管理者対話部14は、障害分析部13から受取ったスケジュール情報に従った分析結果と上記他の相関モデルによる分析結果を併せて表示する。加えて、この管理者対話部14が、上記他の相関モデルを用いた分析結果を正規の分析結果とする旨の入力を受け、分析スケジュール蓄積部19に格納されているスケジュール情報の内容を上記他の相関モデルの内容に基づいて修正する。
 これにより、上述の第1及び第2の実施形態におけるスケジュール情報の内容について何らかの不具合があったとしても、他の相関モデルから好適な相関モデルを選んで相関変化分析に適用することにより、高精度の相関変化分析を実行できる。
 なお、本発明の第3の実施の形態においては、モデル生成部30が、相関モデル生成部16と、候補情報生成部21と、修正候補生成部22と、適合モデル判定部23とを含むものとする。また、分析部31が、相関変化分析部18と、障害分析部13とを含むものとする。
 本発明の第3の実施形態の内容について、上述した第1及び第2の実施形態と異なる部分を中心に、以下詳述する。
 相関変化分析部18は、性能情報収集部11から分析用の性能情報を取得すると共に、分析スケジュール蓄積部19からスケジュール情報を、分析用モデル蓄積部17から予め設定された分析期間にかかる各相関モデルを取得する。
 次に、相関変化分析部18は、分析用の性能情報について、スケジュール情報に従って割り当てられた相関モデルを用いて相関変化分析を行う。更に、相関変化分析部18は、分析用モデル蓄積部17から取得した各種相関モデルを用いて相関変化分析を行う。
 そして、相関変化分析部18は、上述の相関変化分析による分析結果の全てを適合モデル判定部23に送る。
 適合モデル判定部23は、相関変化分析部18から受取った全ての分析結果についてその異常度(実測値と理論値との差)を比較し、各分析結果の序列を決める。
 そして、適合モデル判定部23は、スケジュール情報に従った分析結果よりも異常度の低い分析結果が、他の相関モデルを用いた分析結果の中に存在するか否かを確認する。確認の結果、そのような分析結果が存在した場合は、適合モデル判定部23は、上記他の相関モデルを用いた分析結果を分析結果の代替案に決定すると共に、この分析結果の代替案にかかる相関モデルを適合モデルに決定する。なお、スケジュール情報に従った分析結果よりも異常度の低い分析結果が複数存在するときは、適合モデル判定部23は、その中で最も異常度の低い分析結果を分析結果の代替案に決定してもよい。
 最後に、適合モデル判定部23は、スケジュール情報に従った分析結果と分析結果の代替案の両者を障害分析部13に送る。
 ここで、適合モデル判定部23による各分析結果の異常度を比較する手法としては、例えば異常度が定常的に大きいか又は小さいかという情報から判断するという手法がある。
 その一具体例として、図10の21c2を参照に、相関モデルAで性能情報分析された結果の一つである分析結果A3と相関モデルBで性能情報分析された結果の一つである分析結果B3とを比較するケースを考える。
 両者を比較した結果、分析結果B3は、分析結果A3よりも異常度の高い状態が長時間継続している(図10、21c2)。よって、この場合、適合モデル判定部23は、分析結果B3は適した分析結果ではないという判定を行う。そして、分析結果A3の方がB3より異常度が定常的に小さいため、適合モデル判定部23は、分析結果A3の方がB3よりも適した分析結果であると判定する。
 よって、仮にスケジュール情報に従って割り当てられた相関モデルがモデルB、その分析結果がB3であり、他の相関モデルによる分析結果として相関モデルAを用いた分析結果A3が存在するケースでは、適合モデル判定部22は、分析結果A3を分析結果の代替案として決定する。
 障害分析部13は、適合モデル判定部23にて代替案が決定されたときは、この適合モデル判定部23からスケジュール情報に従った分析結果と代替案の両方を受取り、スケジュール情報に従った分析結果について上述した障害分析を行った後に、両者を管理者対話部14へと送る。
 管理者対話部14は、障害分析部13からスケジュール情報に従った分析結果と代替案が送られてきたときは、その両方を受取ると共に両者を同時に表示する。
 図18は、本発明の第3の実施形態における、管理者対話部14により表示される内容の一例を示す説明図である。
 例えば、管理者対話部14は、図18の表示画面14Cを表示する。
 この表示画面14Cは、異常度(実測値と相関関数による理論値との差)を示す現在の分析結果(スケジュール情報に従った分析結果)14Caを含む。また、表示画面14Cは、上述した現在の分析結果のうち分析結果の代替案が存在する分析期間における分析結果と使用した相関モデルの情報14Cb、及び、分析結果の代替案の分析結果と使用した相関モデルの情報14Ccを含む。さらに、表示画面14Cは、正規の分析結果として現在の分析結果の代わりに、分析結果の代替案の方を採用する為の操作ボタン14Cdを含む。
 これにより、システム管理者は、この表示画面14Cに表わされた各種情報を基に、現在の分析結果(スケジュール情報に従った分析結果)で検出されている異常度に応じた改善指令を管理者対話部14に入力できる。
 更に、システム管理者は、性能情報の分析結果として現在の分析結果ではなく分析結果の代替案を正規の分析結果として採用する旨の指令を管理者対話部14に入力することもできる(図18、操作ボタン14Cd)。
 加えて、分析結果の代替案を分析結果として採用した場合には、管理者対話部14は、分析スケジュール蓄積部19に格納されている現行のスケジュール情報の内容を、適合モデルの内容に基づいて修正する(代替案を提示した分析期間に対応する相関モデルを適合モデルにより置き換える)。これにより、以降の分析結果の精度を向上させることができる。
 上記各部のその他の機能については、上述した第2の実施形態と同一である。
 [第3の実施形態の動作]
 次に、本発明の第3の実施形態におけるシステム運用管理装置3の動作について、上述した第1及び第2の実施形態と異なる部分を中心に、図19に基づいて以下説明する。
 図19は、本発明の第3の実施形態における、適合モデル判定部23による動作を示すフローチャートである。
 本発明の第3の実施形態におけるシステム運用管理装置3の動作のうち、スケジュール情報を生成するための各工程は、第2の実施形態と同じである。
 続く相関変化分析の工程において、相関変化分析部18は、性能情報収集部11から分析用の性能情報を取得すると共に、分析用モデル蓄積部17から蓄積されている相関モデルの内の予め設定された期間にかかる相関モデルの全てを取得する。
 そして、相関変化分析部18は、スケジュール情報に従って割り当てられた相関モデルを用いて性能情報の相関変化分析を行う(ステップS401、本来モデル分析工程)。
 続いて、相関変化分析部18は、分析用モデル蓄積部17から取得した他の相関モデルを用いても性能情報の相関変化分析を行う(ステップS402、他モデル分析工程)。
 そして、相関変化分析部18は、スケジュール情報に従った分析結果と上記他の相関モデルを用いた分析結果の全てを適合モデル判定部23に送る。
 次に、適合モデル判定部23は、スケジュール情報に従った分析結果と上記他の相関モデルを用いた分析結果とを比較する(ステップS403、適合モデル判定工程)。
 その結果、上記他の相関モデルを用いた分析結果がスケジュール情報に従った分析結果よりも優れている(異常度が低い)ときは(ステップS404/イエス)、適合モデル判定部23は、当該他の相関モデルを用いた分析結果をスケジュール情報に従った分析結果の代替案とする。そして、適合モデル判定部23は、この分析結果の代替案にかかる当該他の相関モデルを適合モデルとすると共に、スケジュール情報に従った分析結果と分析結果の代替案を障害分析部13に送る。
 一方、上記他の相関モデルを用いた分析結果がスケジュール情報に従った分析結果よりも優れたものでないときは(ステップS404/ノー)、適合モデル判定部23は、スケジュール情報に従った分析結果のみを障害分析部13に送る。
 次いで、障害分析部13は、適合モデル判定部23からスケジュール情報に従った分析結果と代替案を受取り、障害分析を行った後、障害分析の終了したスケジュール情報に従った分析結果と代替案を管理者対話部14へ送る。
 次に、管理者対話部14は、障害分析部13から受取ったスケジュール情報に従った分析結果と代替案との内容を表示する(ステップS405、代替案出力工程)。
 そして、管理者対話部14は、上述の表示内容を閲覧したシステム管理者等による対処命令にかかる入力を受け付けると共に、その入力にかかる情報を対処実行部15に送る(ステップS406)。
 更に、管理者対話部14は、分析結果の代替案の方を正規のスケジュール情報として採用する旨の入力を受けたときは、分析スケジュール蓄積部19に格納されている現行のスケジュール情報を適合モデルの内容に基づき修正する(代替案を提示した分析期間に対応する相関モデルを適合モデルにより置き換える)(ステップS407、スケジュール情報修正工程)。
 これ以降、ステップS401以降の工程が、繰返し実行される。
 ここで、上述した各工程で実行される具体的内容をプログラム化し、これをコンピュータに実行させるようにしてもよい。
 [第3の実施形態の効果]
 本発明の第3の実施形態によれば、顧客用サービス実行システム4の運用パターンが時々刻々変化するようなケース(即ち、必ずしもスケジュール情報で設定したとおりに顧客用サービス実行システム4が運用されないケース)においても、システム運用管理装置3は、高い精度で相関変化分析を実行できる。その理由は、システム運用管理装置3が、スケジュール情報にて割当てられていない他の相関モデルを用いた相関変化分析結果を出力し、一時的な運用パターンの乱れが生じたとしても、その乱れた運用パターン時にかかる相関モデルを用いた相関変化分析結果を分析結果の代替案として適用できるからである。
 例えば、通常月末日に行われる業務が何らかの理由で前倒しされるようなことがあった場合であっても、本第3実施の形態によれば、「仮に月末日と見做せば正常である」といった分析結果の代替案を、スケジュール情報に従った分析結果と共に提示できる。このように、顧客用サービス実行システム4に突発的な運用パターンの違いが発生した場合にも、システム運用管理装置3は、適切な分析結果をシステム管理者に提示できる。
 更に、本発明の第3の実施形態によれば、システム運用管理装置3が、適用モデルの内容に基づき、分析スケジュール蓄積部19に格納されているスケジュール情報の内容を順次修正できるため、常にスケジュール情報の内容を最新の状態に更新でき、様々なシステムエラーに対して臨機応変に対処できる運用管理環境が得られる。
 以上、上記各実施形態にて本発明を説明したが、本発明は上記各実施形態に限定されるものではない。
 この出願は、2009年10月15日に出願された日本出願特願2009−238747を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明に係るシステム運用管理装置、システム運用管理方法、及びプログラム記憶媒体は、上述のようにWebサービスや業務サービスといった種々の情報通信サービスを提供する情報処理装置に適用できる。この情報処理装置内はシステムの性能劣化を検知できることから、インターネット通信販売装置や社内情報装置のみならず、鉄道や航空機の座席予約発券装置や映画館の自動座席券購入装置のように大勢の顧客による利用が一時に集中して殺到するケースが想定される各種装置にも利用可能である。
 1、2、3、101 システム運用管理装置
 4 顧客用サービス実行システム
11 性能情報収集部
12 性能情報蓄積部
13 障害分析部
14 管理者対話部
15 対処実行部
16 相関モデル生成部
17 分析用モデル蓄積部
18 相関変化分析部
19 分析スケジュール蓄積部
20 定期モデル蓄積部
21 候補情報生成部
21a 共通相関判定部
21b 静的要素変化点抽出部
21c 動的要素類似度判定部
21d 必要モデル群抽出部
22 修正候補生成部
22a カレンダ情報蓄積部
22b カレンダ特性判定部
22c 修正候補生成部
23 適合モデル判定部
30 モデル生成部
31 分析部

Claims (21)

  1.  システムにおける複数種別の性能値を含む性能情報を時系列に格納する性能情報蓄積手段と、
     複数の属性のいずれかを有する複数の期間のそれぞれにおける、前記性能情報蓄積手段に格納された異なる前記種別の性能値間の相関関係を1以上含む相関モデルを生成するモデル生成手段と、
     入力された前記システムの前記性能情報と、当該性能情報が取得された期間の前記属性に対応する前記相関モデルとを用いて、当該性能情報の異常検出を行う分析手段と、
    を含むシステム運用管理装置。
  2.  前記分析手段は、前記性能情報に前記相関モデルを適用することにより算出される前記相関関係の相関破壊の数をもとに、異常検出を行う
    請求項1に記載のシステム運用管理装置。
  3.  前記モデル生成手段は、前記性能情報蓄積手段に格納された所定期間の前記性能情報をもとに、前記所定期間に含まれる複数の区間毎の前記相関モデルを生成し、前記区間のそれぞれの前記相関モデルに含まれる前記相関関係の変化をもとに、1以上の前記区間から成る分析期間に対して前記相関モデルのいずれかを選択し、当該分析期間の前記属性を有する期間における前記相関モデルに設定する
    請求項2に記載のシステム運用管理装置。
  4.  前記モデル生成手段は、連続する2つの前記区間における前記相関モデルの間で共通する、前記相関関係の数の増減の度合が所定値以上の場合、前記所定期間を分割する分割点とし、前記分割点により分割された期間のそれぞれを前記分析期間とし、前記分析期間のそれぞれに対する前記相関モデルに、当該分析期間のいずれかの前記区間において生成された前記相関モデルを設定する
    請求項3に記載のシステム運用管理装置。
  5.  前記モデル生成手段は、前記分析期間に設定された前記相関モデルに含まれる前記相関関係と、前記分析期間以外の他の分析期間に設定された前記相関モデルに含まれる前記相関関係とが類似している場合、当該分析期間に設定された前記相関モデルに当該他の分析期間に設定された前記相関モデルを割り当てる
    請求項4に記載のシステム運用管理装置。
  6.  前記モデル生成手段は、前記複数の前記属性のそれぞれについて、前記性能情報蓄積手段に格納された当該属性を有する期間における前記性能情報を取得し、当該性能情報をもとに前記相関モデルを生成し、当該属性を有する期間における前記相関モデルに設定する
    請求項2に記載のシステム運用管理装置。
  7.  前記分析手段は、前記性能情報の異常検出を、当該性能情報が取得された期間の前記属性に対応する前記相関モデルと、当該相関モデル以外の他の相関モデルとを用いて行い、前記他の相関モデルを用いた異常検出についての異常の度合いが、当該性能情報が取得された期間の前記属性に対応する前記相関モデルを用いた異常検出についての異常の度合いよりも低い場合、当該他の相関モデルを当該属性を有する期間に対する適合モデルとして選択する
    請求項1乃至6のいずれかに記載のシステム運用管理装置。
  8.  システムにおける複数種別の性能値を含む性能情報を時系列に格納し、
     複数の属性のいずれかを有する複数の期間のそれぞれにおける、異なる前記種別の性能値間の相関関係を1以上含む相関モデルを生成し、
     入力された前記システムの前記性能情報と、当該性能情報が取得された期間の前記属性に対応する前記相関モデルとを用いて、当該性能情報の異常検出を行う、
    システム運用管理方法。
  9.  前記性能情報の異常検出を行う場合、前記性能情報に前記相関モデルを適用することにより算出される前記相関関係の相関破壊の数をもとに、異常検出を行う
    請求項8に記載のシステム運用管理方法。
  10.  前記複数の前記属性のそれぞれについて前記相関モデルを生成する場合、所定期間の前記性能情報をもとに、前記所定期間に含まれる複数の区間毎の前記相関モデルを生成し、前記区間のそれぞれの前記相関モデルに含まれる前記相関関係の変化をもとに、1以上の前記区間から成る分析期間に対して前記相関モデルのいずれかを選択し、当該分析期間の前記属性を有する期間における前記相関モデルに設定する
    請求項9に記載のシステム運用管理方法。
  11.  前記複数の前記属性のそれぞれについて前記相関モデルを生成する場合、連続する2つの前記区間における前記相関モデルの間で共通する、前記相関関係の数の増減の度合が所定値以上の場合、前記所定期間を分割する分割点とし、前記分割点により分割された期間のそれぞれを前記分析期間とし、前記分析期間のそれぞれに対する前記相関モデルに、当該分析期間のいずれかの前記区間において生成された前記相関モデルを設定する
    請求項10に記載のシステム運用管理方法。
  12.  前記複数の前記属性のそれぞれについて前記相関モデルを生成する場合、前記分析期間に設定された前記相関モデルに含まれる前記相関関係と、前記分析期間以外の他の分析期間に設定された前記相関モデルに含まれる前記相関関係とが類似している場合、当該分析期間に設定された前記相関モデルに当該他の分析期間に設定された前記相関モデルを割り当てる
    請求項11に記載のシステム運用管理方法。
  13.  前記複数の前記属性のそれぞれについて前記相関モデルを生成する場合、当該属性を有する期間における前記性能情報を取得し、当該性能情報をもとに前記相関モデルを生成し、当該属性を有する期間における前記相関モデルに設定する
    請求項9に記載のシステム運用管理方法。
  14.  前記性能情報の異常検出を行う場合、前記性能情報の異常検出を、当該性能情報が取得された期間の前記属性に対応する前記相関モデルと、当該相関モデル以外の他の相関モデルとを用いて行い、前記他の相関モデルを用いた異常検出についての異常の度合いが、当該性能情報が取得された期間の前記属性に対応する前記相関モデルを用いた異常検出についての異常の度合いよりも低い場合、当該他の相関モデルを当該属性を有する期間に対する適合モデルとして選択する
    請求項8乃至13のいずれかに記載のシステム運用管理方法。
  15.  コンピュータに、
     システムにおける複数種別の性能値を含む性能情報を時系列に格納し、
     複数の属性のいずれかを有する複数の期間のそれぞれにおける、異なる前記種別の性能値間の相関関係を1以上含む相関モデルを生成し、
     入力された前記システムの前記性能情報と、当該性能情報が取得された期間の前記属性に対応する前記相関モデルとを用いて、当該性能情報の異常検出を行う、
    処理を実行させるシステム運用管理プログラムを記録したプログラム記録媒体。
  16.  前記性能情報の異常検出を行う場合、前記性能情報に前記相関モデルを適用することにより算出される前記相関関係の相関破壊の数をもとに、異常検出を行う
    前記システム運用管理プログラムを記録した請求項15に記載のプログラム記録媒体。
  17.  前記複数の前記属性のそれぞれについて前記相関モデルを生成する場合、所定期間の前記性能情報をもとに、前記所定期間に含まれる複数の区間毎の前記相関モデルを生成し、前記区間のそれぞれの前記相関モデルに含まれる前記相関関係の変化をもとに、1以上の前記区間から成る分析期間に対して前記相関モデルのいずれかを選択し、当該分析期間の前記属性を有する期間における前記相関モデルに設定する
    前記システム運用管理プログラムを記録した請求項16に記載のプログラム記録媒体。
  18.  前記複数の前記属性のそれぞれについて前記相関モデルを生成する場合、連続する2つの前記区間における前記相関モデルの間で共通する、前記相関関係の数の増減の度合が所定値以上の場合、前記所定期間を分割する分割点とし、前記分割点により分割された期間のそれぞれを前記分析期間とし、前記分析期間のそれぞれに対する前記相関モデルに、当該分析期間のいずれかの前記区間において生成された前記相関モデルを設定する
    前記システム運用管理プログラムを記録した請求項17に記載のプログラム記録媒体。
  19.  前記複数の前記属性のそれぞれについて前記相関モデルを生成する場合、前記分析期間に設定された前記相関モデルに含まれる前記相関関係と、前記分析期間以外の他の分析期間に設定された前記相関モデルに含まれる前記相関関係とが類似している場合、当該分析期間に設定された前記相関モデルに当該他の分析期間に設定された前記相関モデルを割り当てる
    前記システム運用管理プログラムを記録した請求項18に記載のプログラム記録媒体。
  20.  前記複数の前記属性のそれぞれについて前記相関モデルを生成する場合、当該属性を有する期間における前記性能情報を取得し、当該性能情報をもとに前記相関モデルを生成し、当該属性を有する期間における前記相関モデルに設定する
    前記システム運用管理プログラムを記録した請求項16に記載のプログラム記録媒体。
  21.  前記性能情報の異常検出を行う場合、前記性能情報の異常検出を、当該性能情報が取得された期間の前記属性に対応する前記相関モデルと、当該相関モデル以外の他の相関モデルとを用いて行い、前記他の相関モデルを用いた異常検出についての異常の度合いが、当該性能情報が取得された期間の前記属性に対応する前記相関モデルを用いた異常検出についての異常の度合いよりも低い場合、当該他の相関モデルを当該属性を有する期間に対する適合モデルとして選択する
    前記システム運用管理プログラムを記録した請求項15乃至請求項20のいずれかに記載のプログラム記録媒体。
PCT/JP2010/068527 2009-10-15 2010-10-13 システム運用管理装置、システム運用管理方法、及びプログラム記憶媒体 WO2011046228A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP10823495.6A EP2490126B1 (en) 2009-10-15 2010-10-13 System operation management device, system operation management method, and program storage medium
JP2011536206A JPWO2011046228A1 (ja) 2009-10-15 2010-10-13 システム運用管理装置、システム運用管理方法、及びプログラム記憶媒体
CN201080046517.4A CN102576328B (zh) 2009-10-15 2010-10-13 系统操作管理装置、系统操作管理方法和程序存储介质
US13/133,718 US8959401B2 (en) 2009-10-15 2010-10-13 System operations management apparatus, system operations management method and program storage medium
US14/589,255 US9384079B2 (en) 2009-10-15 2015-01-05 System operations management apparatus, system operations management method and program storage medium
US15/166,485 US10496465B2 (en) 2009-10-15 2016-05-27 System operations management apparatus, system operations management method and program storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009238747 2009-10-15
JP2009-238747 2009-10-15

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/133,718 A-371-Of-International US8959401B2 (en) 2009-10-15 2010-10-13 System operations management apparatus, system operations management method and program storage medium
US14/589,255 Continuation US9384079B2 (en) 2009-10-15 2015-01-05 System operations management apparatus, system operations management method and program storage medium

Publications (1)

Publication Number Publication Date
WO2011046228A1 true WO2011046228A1 (ja) 2011-04-21

Family

ID=43876274

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/068527 WO2011046228A1 (ja) 2009-10-15 2010-10-13 システム運用管理装置、システム運用管理方法、及びプログラム記憶媒体

Country Status (5)

Country Link
US (3) US8959401B2 (ja)
EP (1) EP2490126B1 (ja)
JP (2) JPWO2011046228A1 (ja)
CN (1) CN102576328B (ja)
WO (1) WO2011046228A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014132421A (ja) * 2013-01-07 2014-07-17 Fujitsu Ltd 分析方法、分析装置、及び分析プログラム
WO2014184934A1 (ja) * 2013-05-16 2014-11-20 株式会社日立製作所 障害分析方法、障害分析システム及び記憶媒体
JP2015046133A (ja) * 2013-08-29 2015-03-12 日本電信電話株式会社 制御装置、計算資源管理方法及び計算資源管理プログラム
WO2016035338A1 (ja) * 2014-09-03 2016-03-10 日本電気株式会社 監視装置及びその監視方法、監視システム、並びにコンピュータ・プログラムが格納された記録媒体
JP2016091271A (ja) * 2014-11-04 2016-05-23 Kddi株式会社 通信品質予測装置及び通信品質予測プログラム
JP2016521402A (ja) * 2013-03-29 2016-07-21 キュムラス システムズ インコーポレイテッドCumulus Systems Incorporated データの編成及び高速検索
JP2017021497A (ja) * 2015-07-08 2017-01-26 株式会社東芝 負荷実績データ判別装置、負荷予測装置、負荷実績データ判別方法及び負荷予測方法
JP2021140675A (ja) * 2020-03-09 2021-09-16 株式会社日立製作所 性能分析装置、性能分析方法、及び性能分析プログラム
WO2024122344A1 (ja) * 2022-12-05 2024-06-13 株式会社日立製作所 サービスの品質低下に対する対策を決定する方法及びシステム

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102099795B (zh) * 2008-09-18 2014-08-13 日本电气株式会社 运用管理装置、运用管理方法和运用管理程序
US8880946B2 (en) * 2010-06-07 2014-11-04 Nec Corporation Fault detection apparatus, a fault detection method and a program recording medium
US8874963B2 (en) * 2010-12-20 2014-10-28 Nec Corporation Operations management apparatus, operations management method and program thereof
AU2012221821B2 (en) * 2011-02-24 2015-07-02 International Business Machines Corporation Network event management
US9665630B1 (en) * 2012-06-18 2017-05-30 EMC IP Holding Company LLC Techniques for providing storage hints for use in connection with data movement optimizations
US20140040447A1 (en) * 2012-07-31 2014-02-06 Hitachi, Ltd. Management system and program product
CN104798049B (zh) * 2012-11-20 2017-08-04 日本电气株式会社 操作管理装置和操作管理方法
US9063966B2 (en) * 2013-02-01 2015-06-23 International Business Machines Corporation Selective monitoring of archive and backup storage
JP6126891B2 (ja) * 2013-03-29 2017-05-10 富士通株式会社 検出方法、検出プログラム、および検出装置
EP3045889B1 (en) * 2013-09-09 2021-08-11 Nec Corporation Information processing system, information processing method, and program
US20160283304A1 (en) * 2013-12-20 2016-09-29 Hitachi, Ltd. Performance prediction method, performance prediction system and program
US9450833B2 (en) * 2014-03-26 2016-09-20 International Business Machines Corporation Predicting hardware failures in a server
JP6369089B2 (ja) * 2014-03-26 2018-08-08 セイコーエプソン株式会社 情報通信システム、情報処理装置および情報収集方法
EP3152697A4 (en) * 2014-06-09 2018-04-11 Northrop Grumman Systems Corporation System and method for real-time detection of anomalies in database usage
JP6387777B2 (ja) 2014-06-13 2018-09-12 富士通株式会社 評価プログラム、評価方法、および評価装置
WO2016038803A1 (ja) * 2014-09-11 2016-03-17 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体
JP6520083B2 (ja) * 2014-12-02 2019-05-29 株式会社リコー 情報処理システム、サーバシステム、情報処理装置、情報処理方法及びプログラム
WO2016143337A1 (ja) * 2015-03-11 2016-09-15 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体
CN104680329A (zh) * 2015-03-17 2015-06-03 中国农业银行股份有限公司 一种运维问题发生原因确定方法及装置
JP6627258B2 (ja) * 2015-05-18 2020-01-08 日本電気株式会社 システムモデル生成支援装置、システムモデル生成支援方法、及び、プログラム
JP6555061B2 (ja) * 2015-10-01 2019-08-07 富士通株式会社 クラスタリングプログラム、クラスタリング方法、および情報処理装置
JP6634919B2 (ja) * 2016-03-25 2020-01-22 日本電気株式会社 分析装置
US11327797B2 (en) 2016-05-09 2022-05-10 Oracle International Corporation Memory usage determination techniques
WO2017204307A1 (ja) 2016-05-27 2017-11-30 中部電力株式会社 システムモデル評価システム、運用管理システム、システムモデル評価方法及びプログラム
US11288161B2 (en) 2016-12-27 2022-03-29 Nec Corporation Anomaly detection method, system, and program
DE102018111892B4 (de) * 2017-05-22 2023-06-29 Okuma Corporation Betriebsüberwachungsvorrichtung und Steuerprogramm dafür
FR3098937B1 (fr) 2019-07-15 2021-10-08 Bull Sas Procédé d’analyse de consommation de ressource d’une infrastructure informatique, alerte et dimensionnement

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1074188A (ja) 1996-05-23 1998-03-17 Hitachi Ltd データ学習装置およびプラント制御装置
JP2001014295A (ja) * 1999-06-30 2001-01-19 Sumitomo Metal Ind Ltd データ予測方法、データ予測装置及び記録媒体
JP2004062741A (ja) 2002-07-31 2004-02-26 Nec Corp 障害情報表示装置及びプログラム
JP2005257416A (ja) 2004-03-10 2005-09-22 Internatl Business Mach Corp <Ibm> 診断装置、検出装置、制御方法、検出方法、プログラム、及び記録媒体
JP2005316808A (ja) * 2004-04-30 2005-11-10 Nec Software Chubu Ltd 性能監視装置および性能監視方法並びにプログラム
JP2006024017A (ja) 2004-07-08 2006-01-26 Internatl Business Mach Corp <Ibm> コンピュータ資源のキャパシティを予測するためのシステム、方法およびプログラム
JP2006146668A (ja) 2004-11-22 2006-06-08 Ntt Data Corp 運用管理支援装置及び運用管理支援プログラム
JP2007293393A (ja) 2006-04-20 2007-11-08 Toshiba Corp 障害監視システムと方法、およびプログラム
JP2008204040A (ja) * 2007-02-19 2008-09-04 Kddi Corp 携帯端末、プログラム及び携帯端末への表示画面制御方法
JP2009199534A (ja) * 2008-02-25 2009-09-03 Nec Corp 運用管理装置、運用管理システム、情報処理方法、及び運用管理プログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5528516A (en) * 1994-05-25 1996-06-18 System Management Arts, Inc. Apparatus and method for event correlation and problem reporting
JPH10224990A (ja) 1997-02-10 1998-08-21 Fuji Electric Co Ltd 電力需要量予測値補正方法
JP2001142746A (ja) 1999-11-11 2001-05-25 Nec Software Chubu Ltd 計算機システムの負荷監視装置
US7065566B2 (en) * 2001-03-30 2006-06-20 Tonic Software, Inc. System and method for business systems transactions and infrastructure management
AU2002360691A1 (en) * 2001-12-19 2003-07-09 Netuitive Inc. Method and system for analyzing and predicting the behavior of systems
JP2004086896A (ja) 2002-08-06 2004-03-18 Fuji Electric Holdings Co Ltd 適応的予測モデル構築方法及び適応的予測モデル構築システム
JP2004086897A (ja) 2002-08-06 2004-03-18 Fuji Electric Holdings Co Ltd モデル構築方法およびモデル構築システム
US8479057B2 (en) * 2002-11-04 2013-07-02 Riverbed Technology, Inc. Aggregator for connection based anomaly detection
US20040093193A1 (en) * 2002-11-13 2004-05-13 General Electric Company System statistical associate
JP3922375B2 (ja) * 2004-01-30 2007-05-30 インターナショナル・ビジネス・マシーンズ・コーポレーション 異常検出システム及びその方法
JP4661250B2 (ja) 2005-02-09 2011-03-30 富士電機ホールディングス株式会社 予測方法、予測装置および予測プログラム
US7802144B2 (en) * 2005-04-15 2010-09-21 Microsoft Corporation Model-based system monitoring
US8379538B2 (en) * 2005-06-22 2013-02-19 Hewlett-Packard Development Company, L.P. Model-driven monitoring architecture
US7246043B2 (en) * 2005-06-30 2007-07-17 Oracle International Corporation Graphical display and correlation of severity scores of system metrics
JP2009543233A (ja) * 2006-07-06 2009-12-03 アコリ ネットワークス,インコーポレイテッド アプリケーションシステムの負荷管理
US8095830B1 (en) * 2007-04-03 2012-01-10 Hewlett-Packard Development Company, L.P. Diagnosis of system health with event logs
JP4990018B2 (ja) * 2007-04-25 2012-08-01 株式会社日立製作所 装置性能管理方法、装置性能管理システム、および管理プログラム
US20090171718A1 (en) * 2008-01-02 2009-07-02 Verizon Services Corp. System and method for providing workforce and workload modeling
JP4872944B2 (ja) 2008-02-25 2012-02-08 日本電気株式会社 運用管理装置、運用管理システム、情報処理方法、及び運用管理プログラム
US8098585B2 (en) * 2008-05-21 2012-01-17 Nec Laboratories America, Inc. Ranking the importance of alerts for problem determination in large systems
US8230269B2 (en) * 2008-06-17 2012-07-24 Microsoft Corporation Monitoring data categorization and module-based health correlations
US8166351B2 (en) * 2008-10-21 2012-04-24 At&T Intellectual Property I, L.P. Filtering redundant events based on a statistical correlation between events
US8392760B2 (en) * 2009-10-14 2013-03-05 Microsoft Corporation Diagnosing abnormalities without application-specific knowledge

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1074188A (ja) 1996-05-23 1998-03-17 Hitachi Ltd データ学習装置およびプラント制御装置
JP2001014295A (ja) * 1999-06-30 2001-01-19 Sumitomo Metal Ind Ltd データ予測方法、データ予測装置及び記録媒体
JP2004062741A (ja) 2002-07-31 2004-02-26 Nec Corp 障害情報表示装置及びプログラム
JP2005257416A (ja) 2004-03-10 2005-09-22 Internatl Business Mach Corp <Ibm> 診断装置、検出装置、制御方法、検出方法、プログラム、及び記録媒体
JP2005316808A (ja) * 2004-04-30 2005-11-10 Nec Software Chubu Ltd 性能監視装置および性能監視方法並びにプログラム
JP2006024017A (ja) 2004-07-08 2006-01-26 Internatl Business Mach Corp <Ibm> コンピュータ資源のキャパシティを予測するためのシステム、方法およびプログラム
JP2006146668A (ja) 2004-11-22 2006-06-08 Ntt Data Corp 運用管理支援装置及び運用管理支援プログラム
JP2007293393A (ja) 2006-04-20 2007-11-08 Toshiba Corp 障害監視システムと方法、およびプログラム
JP2008204040A (ja) * 2007-02-19 2008-09-04 Kddi Corp 携帯端末、プログラム及び携帯端末への表示画面制御方法
JP2009199534A (ja) * 2008-02-25 2009-09-03 Nec Corp 運用管理装置、運用管理システム、情報処理方法、及び運用管理プログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014132421A (ja) * 2013-01-07 2014-07-17 Fujitsu Ltd 分析方法、分析装置、及び分析プログラム
JP2016521402A (ja) * 2013-03-29 2016-07-21 キュムラス システムズ インコーポレイテッドCumulus Systems Incorporated データの編成及び高速検索
WO2014184934A1 (ja) * 2013-05-16 2014-11-20 株式会社日立製作所 障害分析方法、障害分析システム及び記憶媒体
JP2015046133A (ja) * 2013-08-29 2015-03-12 日本電信電話株式会社 制御装置、計算資源管理方法及び計算資源管理プログラム
WO2016035338A1 (ja) * 2014-09-03 2016-03-10 日本電気株式会社 監視装置及びその監視方法、監視システム、並びにコンピュータ・プログラムが格納された記録媒体
JPWO2016035338A1 (ja) * 2014-09-03 2017-06-15 日本電気株式会社 監視装置及びその監視方法、監視システム、並びにコンピュータ・プログラムが格納された記録媒体
JP2016091271A (ja) * 2014-11-04 2016-05-23 Kddi株式会社 通信品質予測装置及び通信品質予測プログラム
JP2017021497A (ja) * 2015-07-08 2017-01-26 株式会社東芝 負荷実績データ判別装置、負荷予測装置、負荷実績データ判別方法及び負荷予測方法
JP2021140675A (ja) * 2020-03-09 2021-09-16 株式会社日立製作所 性能分析装置、性能分析方法、及び性能分析プログラム
JP7285798B2 (ja) 2020-03-09 2023-06-02 株式会社日立製作所 性能分析装置、性能分析方法、及び性能分析プログラム
WO2024122344A1 (ja) * 2022-12-05 2024-06-13 株式会社日立製作所 サービスの品質低下に対する対策を決定する方法及びシステム

Also Published As

Publication number Publication date
US8959401B2 (en) 2015-02-17
EP2490126B1 (en) 2020-08-26
EP2490126A4 (en) 2015-08-12
JPWO2011046228A1 (ja) 2013-03-07
EP2490126A1 (en) 2012-08-22
US20110246837A1 (en) 2011-10-06
JP5605476B2 (ja) 2014-10-15
JP2013229064A (ja) 2013-11-07
US20160274965A1 (en) 2016-09-22
US20150113329A1 (en) 2015-04-23
US10496465B2 (en) 2019-12-03
CN102576328B (zh) 2015-09-09
US9384079B2 (en) 2016-07-05
CN102576328A (zh) 2012-07-11

Similar Documents

Publication Publication Date Title
JP5605476B2 (ja) システム運用管理装置、システム運用管理方法、及びプログラム記憶媒体
JP5267736B2 (ja) 障害検出装置、障害検出方法およびプログラム記録媒体
US8249999B2 (en) Systems and method for costing of service proposals
JP4980581B2 (ja) 性能監視装置、性能監視方法及びプログラム
US8352867B2 (en) Predictive monitoring dashboard
JP2010526352A (ja) 統計的な分析を利用した性能障害管理システム及びその方法
EP3346205B1 (en) Inspection management system and inspection management method
US20120116827A1 (en) Plant analyzing system
CN103154904B (zh) 操作管理设备、操作管理方法和程序
CN113570277A (zh) 一种电力容量管理方法及装置
CN117408487A (zh) 一种充电站运行管理方法、系统、终端设备及存储介质
WO2008050323A2 (en) Method for measuring health status of complex systems
JP5200678B2 (ja) サービシステム、サービスシステム管理方法、及びプログラム
US20150073878A1 (en) Device to perform service contract analysis
US11556451B2 (en) Method for analyzing the resource consumption of a computing infrastructure, alert and sizing
JP6275542B2 (ja) 分析装置およびコンピュータプログラム
Kanoun A measurement-based framework for software reliability improvement
JP2023101205A (ja) 保全改善支援装置および保全改善支援方法
CN118625748A (zh) 智慧工厂信息化管理方法、计算机设备以及存储介质
CN117745110A (zh) 一种基于行为分析的智慧校园餐厅运行管控方法及系统
CN118735225A (zh) 一种基于多场景可视化产品资源智能调度协作云系统
JP2014049045A (ja) ジョブ管理システムにおける障害対応システム及びそのプログラム
White Development of a bottleneck detection method using real time data
EP1531413A1 (en) Systems and method for costing of service proposals

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080046517.4

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 13133718

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10823495

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011536206

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2010823495

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE