WO2014192054A1 - 監視項目選定方法及び装置並びに記憶媒体 - Google Patents

監視項目選定方法及び装置並びに記憶媒体 Download PDF

Info

Publication number
WO2014192054A1
WO2014192054A1 PCT/JP2013/064606 JP2013064606W WO2014192054A1 WO 2014192054 A1 WO2014192054 A1 WO 2014192054A1 JP 2013064606 W JP2013064606 W JP 2013064606W WO 2014192054 A1 WO2014192054 A1 WO 2014192054A1
Authority
WO
WIPO (PCT)
Prior art keywords
node
monitoring
resource
relationship
operation information
Prior art date
Application number
PCT/JP2013/064606
Other languages
English (en)
French (fr)
Inventor
将希 木村
隆宏 安井
憲宏 原
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2013/064606 priority Critical patent/WO2014192054A1/ja
Priority to US14/767,042 priority patent/US9960983B2/en
Publication of WO2014192054A1 publication Critical patent/WO2014192054A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0876Network utilisation, e.g. volume of load or congestion level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3055Monitoring arrangements for monitoring the status of the computing system or of the computing system component, e.g. monitoring if the computing system is on, off, available, not available
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0813Configuration setting characterised by the conditions triggering a change of settings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/085Retrieval of network configuration; Tracking network configuration history
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/02Capturing of monitoring data
    • H04L43/022Capturing of monitoring data by sampling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0823Errors, e.g. transmission errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0706Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
    • G06F11/0709Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment in a distributed system consisting of a plurality of standalone computer nodes, e.g. clusters, client-server systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/3006Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system is distributed, e.g. networked systems, clusters, multiprocessor systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/28Restricting access to network management systems or functions, e.g. using authorisation function to access network configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/02Network architectures or network communication protocols for network security for separating internal from external traffic, e.g. firewalls

Definitions

  • the present invention relates to a monitoring item selection method and apparatus and a storage medium, and is suitable for application to a monitoring system, for example.
  • Patent Document 1 discloses a method of defining a rule for generating a monitoring item in advance and automatically generating the monitoring item by applying the rule for each monitoring target device.
  • Patent Document 1 there is a problem that knowledge of a monitoring target is required to define a rule, and that it takes time and man-hours to define a rule.
  • the configuration-dependent rule needs to be updated after the configuration change, and there is a problem that it cannot cope with a frequent configuration change.
  • the monitoring item can be easily changed in accordance with the configuration change of the monitoring target device, it is considered that the operation and management for a system in which the configuration change is performed frequently can be simplified.
  • the present invention has been made in consideration of the above points, and intends to propose a monitoring item selection method, apparatus, and storage medium that can simplify the operation and management of a system that frequently changes its configuration.
  • the monitoring item selection method operation information regarding resources in the monitoring target device and nodes that operate on the monitoring target device and execute processing using the resource is obtained. Based on the first information acquired periodically or irregularly from the monitoring target device and the operation information acquired by the monitoring item selection device, the relationship between the nodes, and between the node and the resource A second step of extracting the relevance of the monitoring item selection device, the monitoring item selection device, the operation information, the extracted relevance between the nodes and the relevance between the nodes and the resources, and a predefined condition, And a third step of selecting a monitoring item for the monitoring target device.
  • the operation information regarding the resource in the monitoring target device and the node that operates on the monitoring target device and executes processing using the resource is periodically or irregularly transmitted from the monitoring target device.
  • the configuration grasping unit that extracts the relationship between the nodes and the relationship between the node and the resource, the operation information, and the extracted
  • a monitoring item selection unit that selects a monitoring item for the monitoring target device based on the relationship between the nodes, the relationship between the node and the resource, and a predefined condition is provided.
  • the first step of regularly or irregularly obtaining operation information related to the monitoring target device, the relationship between the nodes, and the relationship between the node and the resource based on the obtained operation information
  • a second step of extracting sex A third step of selecting the monitoring item for the monitoring target device based on the operation information, the extracted relationship between the nodes, the relationship between the node and the resource, and a predefined condition.
  • a program for executing a process including the above is stored in a storage medium.
  • the monitoring item selection method and apparatus and the storage medium of the present invention when changes are made to the relationship between nodes and the relationship between nodes and resources in the monitoring target device, it does not require manpower. Since new monitoring items are selected according to the relationship between the nodes after the change and the relationship between the nodes and the resources, the monitoring items can be easily changed when the configuration of the monitoring target device is changed.
  • FIG. It is a conceptual diagram which shows the structure of a monitoring location and item selection rule table. It is a conceptual diagram which shows the structure of the monitoring item table. It is a flowchart which shows the process sequence of an operation information transmission process. It is a flowchart which shows the process sequence of a monitoring item information reception process. It is a flowchart which shows the process sequence of the monitoring item selection whole process. It is a flowchart which shows the process sequence of an operation information update process.
  • reference numeral 1 denotes the overall monitoring system according to this embodiment.
  • the monitoring system 1 includes a plurality of monitoring target devices 2, a monitoring device 3, and a monitoring item selection device 4 that are connected to each other via a network 5.
  • the monitoring target device 2 is a computer such as a database server, an application server, or a client, for example. As shown in FIG. 2, a CPU (Central Processing Unit) 11, a memory 12, and a storage connected to each other via an internal bus 10. A device 13 and a network interface 14 are provided.
  • a CPU Central Processing Unit
  • the CPU 11 is a processor that controls the operation of the entire monitoring target device 2.
  • the memory 12 is composed of a volatile memory, for example, and is used for storing various programs and various data.
  • the storage device 13 is composed of a nonvolatile mass storage device such as a hard disk device. The programs and data stored in the storage device 13 are read out to the memory 12 when the monitoring target device 2 is started up or necessary, and the CPU 11 executes the programs read out to the memory 12 so that the monitoring target device 2 executes various programs. Processing is executed.
  • the network interface 14 is a physical interface that performs protocol conversion during communication with the monitoring device 3, the monitoring item selection device 4, or another communication device such as a client (not shown) via the network 5. Interface Card).
  • the network interface 14 includes one or more physical ports for connecting the monitoring target apparatus 2 to the network 5, and each of these ports 14 ⁇ / b> A has a unique address (hereinafter referred to as an IP (Internet Protocol) address). Is given).
  • IP Internet Protocol
  • the monitoring device 3 is a computer having a function of monitoring the operating state of each monitoring target device 2.
  • the monitoring device 3 collects operation information from each monitoring target device 2 via the network 5, and based on the collected operation information, the monitoring item selection device 4 as described later on the operating state of these monitoring target devices 2. Monitor the monitoring items notified from.
  • the monitoring item selection device 4 is a server device having a function of selecting a monitoring item of the monitoring target device 2 and notifying the monitoring device 3 of the selected monitoring item. As shown in FIG. And a CPU 21, a memory 22, a storage device 23, and a network interface 24 connected to each other.
  • the CPU 21 is a processor that controls operation of the entire monitoring item selection device 4.
  • the memory 22 is composed of a volatile memory, for example, and is used for storing various programs and various data.
  • the storage device 23 is composed of a nonvolatile mass storage device such as a hard disk device. The program and data stored in the storage device 23 are read into the memory 22 when the monitoring item selection device 4 is activated or necessary, and the CPU 21 executes the program read into the memory 22, whereby the monitoring item selection device 4. Various processes as described below are executed.
  • the network interface 24 is a physical interface that performs protocol conversion at the time of communication with the monitoring target device 2 and the monitoring device 3 via the network 5, and includes, for example, a NIC.
  • This monitoring item selection device 4 pays attention to the relationship between processes operating on the monitoring target device 2 and the relationship (access relationship) between processes and resources, and determines the starting node from the operating status of the monitoring target device 2
  • a monitoring item selection function for extracting each of the related nodes and the affected nodes and selecting a monitoring item of the monitoring target device 2 based on the extraction result is installed.
  • the starting node refers to a process that satisfies a condition defined in advance by the user
  • the related node refers to a process related to the starting node.
  • the origin node and the related node are communicating via the network 5, they are referred to as having a “direct relationship”.
  • a process communicating with a related node via the network 5 is also handled as a related node.
  • the relationship between a relationship node having a relationship with the related node and the starting node is referred to as an “indirect relationship”.
  • the impact node refers to a resource that affects the origin node and related nodes.
  • a process that uses the same resource as the starting node and the related node is referred to as “influences the starting node and the related node”, and such a process is an influence node of the starting node and the related node. It becomes.
  • the monitoring target device input / output unit 30 and the memory 12 of each monitoring target device 2 are stored as programs.
  • An operation information acquisition unit 31 is stored, and a monitoring item accumulation table 32 is stored as a table.
  • the monitoring target device input / output unit 30 is a program that executes command and data reception processing and transmission processing that are input and output via the network interface 14, and includes a reception unit 30A that performs reception processing and transmission that performs transmission processing. Part 30B.
  • the operation information acquisition unit 31 is a program having a function of collecting operation information of the self-monitoring target device 2.
  • the operation information acquisition unit 31 acquires necessary operation information from the process 33, OS (Operating System), hardware, or the like, and transmits the acquired operation information to the monitoring item selection device 4 periodically or irregularly.
  • the monitoring item accumulation table 32 is a table used for storing the monitoring items selected by the monitoring item selection device 4 on the monitoring target device 2 side.
  • the monitoring target device 2 collects operation information related to the monitoring items registered in the monitoring item accumulation table 32 and transmits it to the monitoring device 3.
  • the monitoring item accumulation table 32 includes a process ID column 32A, a resource column 32B, and an acquisition information column 32C.
  • the process ID column 32A stores the process ID of the process 33 operating in the self-monitoring target device 2
  • the resource column 32B stores the name of the resource used by the corresponding process 33.
  • the acquisition information column 32C stores the type of operation information to be acquired for the corresponding resource.
  • the memory 22 of the monitoring item selection device 4 stores a monitoring item selection device input / output unit 40, an operation information update unit 41, a configuration grasping unit 42, and a monitoring item selection unit 43 as programs.
  • the origin node condition table 44, the node operation information table 46 and resource access information table 47 constituting the operation information accumulation table 45, the inter-node direct relation table 49 and the inter-node reachability constituting the configuration table 48 A related table 50, a selection node table 52 that constitutes a monitoring item selection table 51, a monitoring location / item selection rule table 53, and a monitoring item table 54 are stored.
  • the monitoring item selection device input / output unit 40 is a program for executing reception processing and transmission processing of commands and data input / output via the network interface 24.
  • the monitoring item selection device input / output unit 40 executes transmission processing with the reception unit 40A for executing reception processing. It is comprised from the transmission part 40B.
  • the operation information update unit 41 has changed the configuration of the monitoring target process, resources, and the like of the monitoring target device 2 based on the operation information of the monitoring target device 2 periodically transmitted from each monitoring target device 2.
  • the program has a function of updating the node operation information table 46 and the resource access information table 47 accordingly.
  • the configuration grasping unit 42 is a program for grasping the configuration of the monitoring target device 2 and includes an inter-node relation extracting unit 55.
  • the inter-node relationship extraction unit 55 has a function of extracting the relationship between the updated processes 33 (FIG. 2) when the node operation information table 46 and the resource access information table 47 are updated by the operation information update unit 41. It is a program that has.
  • the inter-node relationship extraction unit 55 extracts the process 33 to be the starting node in the monitoring target device 2 after the configuration is changed and the relationship between the processes 33, and the inter-node direct relationship table 49 based on the extraction result. And the inter-node reachability relation table 50 is updated as necessary.
  • the monitoring item selection unit 43 includes a starting node search unit 56, a related node search unit 57, an influence node search unit 58, and a monitoring item generation unit 59.
  • the start node search unit 56 refers to the start node condition table 44 and searches for a start node to be added or deleted. This is a program having a function of searching for a process 33 to be newly set as a starting node and a process 33 that should not be set as a starting node.
  • the starting node search unit 56 updates the selected node table 52 as necessary based on the search result of the search.
  • the related node search unit 57 refers to the inter-node reachable relation table 50 and the selected node table 52, and searches for a related node to be added or deleted in accordance with the addition or deletion of the origin node search unit 56.
  • This program has a function of updating the selected node table 52 based on the result.
  • the influence node search unit 58 refers to the resource access information table 47 and the selection node table 52 to search for an influence node that should be added or deleted along with the addition or deletion of the origin node or the related node, and displays the search result. This is a program having a function of updating the selected node table 52 based on it.
  • the monitoring item generation unit 59 is a program having a function of generating (determining) a new monitoring item based on the updated selection node table 52 and the monitoring location / item selection rule table 53. New monitoring items generated by the monitoring item generation unit 59 are notified to each monitoring target device 2 via the network 5 by the transmission unit 40B of the monitoring item selection device input / output unit 40.
  • the starting node condition table 44 is a table used for managing the conditions of the process 33 (hereinafter referred to as starting node conditions) that should be set as the starting node set in advance by the user, and is shown in FIG. As described above, it is composed of a condition ID column 44A, an IP address column 44B, a port number column 44C, and a process name column 44D.
  • the condition ID column 44A stores an identifier (condition ID) unique to the starting node condition assigned to the corresponding starting node condition.
  • the IP address column 44B stores a specific identifier in the starting node condition. When it is specified that the process operating on the monitoring target apparatus 2 to which the IP address is assigned is to be the starting node, the IP address is stored.
  • the port number column 44C also includes a process 33 for performing communication via the port 14A (FIG. 2) having a specific port number on the monitoring target apparatus 2 to which the specific IP address is assigned in the corresponding start node condition. Port number is stored, and the process name field 44D specifies that a specific process 33 should be the starting node in the corresponding starting node condition. If so, the process name of the process 33 is stored.
  • the process 33 to be the start node is associated with a specific IP address, communicates via the port 14A with a specific port number, and / or is specified.
  • the IP address field 44B, the port number field 44C and / or the process name field 44D does not specify the IP address, port number and / or process name. (In FIG. 5, “arbitrary”) is stored.
  • the origin node condition “1” operates on the monitoring target device 2 to which the IP address “192.168.1.3” is assigned and passes through the port 14A having the port number “80”. It is shown that this is a condition that the process 33 that performs communication should be the starting node.
  • the node operation information table 46 is used to store and hold operation information related to each process 33 operating on the monitoring target device 2 among the operation information periodically transmitted from the monitoring target device 2 as described above.
  • the process ID column 46A, the process name column 46B, the IP address column 46C, the port number column 46D, the communication destination IP address column 46E, the communication destination port number column 46F, the operating host ID It consists of a field 46G and an update flag field 46H.
  • the process ID column 46A the identifier (process ID) of each process 33 operating on the monitoring target apparatus 2 is stored, and in the process name column 46B, the process name of the corresponding process 33 is stored.
  • the IP address column 46C stores the IP address of the monitoring target apparatus 2 on which the corresponding process 33 operates, and the port number column 46D stores the self-monitoring used when the corresponding process 33 communicates with the external device.
  • the port number of the port 14A (FIG. 2) in the target device 2 is stored.
  • the communication destination IP address column 46E when the corresponding process 33 is communicating with the process 33 operating on another monitoring target device 2, the monitoring target device 2 on which the communication destination process 33 is operating is displayed.
  • the IP address is stored, and the port number of the communication destination port 14A in the communication target monitoring target device 2 is stored in the communication destination port number column 46F.
  • the operating host ID column 46G stores the identifier (host ID) of the monitoring target apparatus 2 on which the corresponding process 33 is operating.
  • update flag column 46H a flag (update flag) indicating whether or not there has been a configuration change related to the corresponding process 33 is stored.
  • the update flag is set to “no change” when the configuration related to the corresponding process 33 is not changed, and the update flag is set to “no change” when the configuration related to the corresponding process 33 is changed.
  • “add” is set and the corresponding process 33 is deleted, “delete” is set. This update flag is used in the course of the process of updating the monitoring item table 54 and other tables when the configuration of the monitoring target apparatus 2 is changed.
  • the process 33 with the process ID “1” has the process name “database”, the host ID of the monitoring target device 2 on which the process 33 is operating is “1”, IP The address is “192.168.5.7”, the process operating on the monitored device 2 with the IP address “192.168.2.4” via the port 14A having the port number “5432” of the monitored device 2, and the monitoring It is shown that communication is performed via the port 14A having the port number “55555” in the target apparatus 2.
  • the resource access information table 47 is a table used for storing and holding operation information related to resources in the monitoring target device 2 among the operation information periodically transmitted from the monitoring target device 2 as described above. 7, the resource ID field 47A, the access process ID field 47B, the active host ID field 47C, the resource type field 47D, the resource name field 47E, and the update flag field 47F are configured.
  • the resource ID column 47A the identifier (resource ID) of the corresponding resource is stored, and in the access process ID column 47B, the process ID of the process 33 that accesses (uses that resource) is stored.
  • the host ID column 47C stores the host ID of the monitoring target apparatus 2 on which the corresponding resource is mounted, and the resource type column 47D stores the resource type (disk, network, CPU, memory, etc.). Is done.
  • the resource name column 47E stores the name of the corresponding resource (resource name), and the update flag column 47F stores an update flag similar to the update flag of the node operation information table 46.
  • the resource with the resource ID “1” has the resource name “/ dev / sda” mounted on the monitoring target device 2 with the host ID “1”. It is indicated that the “disk” is accessed by the process 33 to which the process ID “1” is assigned.
  • inter-node direct relation table 49 is a table used for managing whether or not there is a direct relation between the processes 33 respectively operating on the respective monitoring target apparatuses 2, and as shown in FIG.
  • the process IDs of all processes 33 operating in each monitoring target apparatus 2 are configured as a battle table format bitmap in which the process IDs are listed at the top row in the row direction and the leftmost end in the column direction, respectively.
  • a flag is stored in each column 49A of the inter-node direct relation table 49, and these flags are associated with the process 33 associated with the row including the column 49A and the column including the column 49A. If there is a direct association with the process 33, it is set to “1”, and if there is no direct association, it is set to “0”.
  • the process 33 with the process ID “1” is directly related to the process 33 with the process ID “3”, and the process 33 with the process ID “2” It is shown that there is no direct connection with the process 33.
  • the inter-node reachability relation table 50 is a table used for managing direct and indirect relations between the processes 33 respectively operating on the respective monitoring target devices 2. As shown in FIG. 9, the inter-node reachability relation table 50 includes a reachability relation field 50A and an update flag field 50B.
  • the reachable relation column 50A is configured as a bitmap having the same configuration as the inter-node direct relation table 49.
  • a flag is stored in each field 50AA of the reachable relation field 50A, and these flags are associated with a process 33 associated with a row including the field 50AA and a process 33 associated with a column including the field 50AA. Is set to “1” when it has a direct or indirect relationship, and is set to “0” when it has no direct or indirect relationship.
  • the update flag column 50B has a battle table format configuration similar to the reachability related column 50A.
  • An update flag is stored in each column 50BA of the update flag column 50B, and these update flags are associated with the process 33 and the process 33 associated with the row including the column 50BA as the resource configuration is changed. The value indicating whether or not the direct or indirect association with the process 33 associated with the column including the column 50BA has changed.
  • the process 33 with the process ID “1” is directly or indirectly related to the processes 33 with the process IDs “1”, “3”, and “5”. It is shown that the process 33 with the process ID “2” is directly or indirectly related only to the process 33 with the process ID “2”.
  • the selection node table 52 includes an origin node selection node table 52A shown in FIG. 10A, a related node selection node table 52B shown in FIG. 10B, and an influence node selection node shown in FIG. 10C. And a table 52C.
  • the starting node selection node table 52A is a table used for managing the process 33 selected as the starting node, and as shown in FIG. 10A, the process ID column 52AA, the matching condition ID column 52AB and a matching condition update flag column 52AC.
  • the process ID column 52AA stores the process ID of each process 33 selected as the starting node
  • the matching condition ID column 52AB stores the condition ID of the starting node condition (see FIG. 5) with which the corresponding process 33 matches. Is stored.
  • match condition update flag field 52AC a flag indicating whether or not the process 33 should be left as a starting node when the corresponding process 33 is changed (hereinafter referred to as a match condition update flag). ) Stored.
  • the match condition update flag is set to “no update” if the process 33 should be the starting node as it is, and is set to “delete” if the process 33 should no longer be the starting node. Is done.
  • the matching condition update flag is set to “add” when the process 33 is to be a new starting node. This match condition update flag is used in the process of updating the monitoring item table 54 and other tables in accordance with the change in the configuration of the monitoring target apparatus 2.
  • the related node selection node table 52B is a table used for managing the process 33 selected as the related node. As shown in FIG. 10B, the process ID column 52BA and the related node ID column 52BB are used. And a related node update flag column 52BC.
  • the process ID column 52BA stores the process ID of the process 33 selected as the starting node
  • the related node ID column 52BB stores the relationship of the corresponding starting node detected by the related node search unit 57 (FIG. 3).
  • a flag indicating whether or not the corresponding process 33 should be left as a related node (hereinafter referred to as a related node update flag). Stored) is stored.
  • the related node update flag is set to “no update” when the process 33 should be the related node as it is, and is set to “delete” when the process 33 should no longer be the related node. . Further, the related node update flag is set to “add” when the process 33 is to be a new related node. This related node update flag is used in the process of updating the monitoring item table 54 and other tables in accordance with the change of the configuration of the monitoring target device 2.
  • the process 33 with the process ID “3” is directly related to the process 33 with the process IDs “1”, “3”, and “5”. “Relation” with the process ID “5” is newly added.
  • the influence node selection node table 52C is a table used for managing the process 33 selected as the influence node. As shown in FIG. 10C, the process ID column 52CA, the related node ID column 52CB, It includes an influence node ID column 52CC and an influence node update flag column 52CD.
  • the affected node ID column 52CC stores the process ID of the process 33 selected as the affected node, and the related node ID column 52CC has a process 33 (access to the same resource as the affected node) as the related node of the affected node.
  • the process ID of the process 33) to be stored is stored.
  • the process ID column 52CA stores the process ID of the process 33 that is the starting node of the related node.
  • influence node update flag column 52CD when the configuration of the monitoring target device 2 is changed, a flag indicating whether or not the corresponding resource is still an influence node (hereinafter referred to as an influence node update flag). Is stored.
  • This influence node update flag is set to “no update” when the resource is still an influence node, and is set to “delete” when the resource is no longer an influence node. Further, the influence node update flag is set to “add” when the resource becomes a new influence node. This influence node update flag is used in the course of the process of updating the monitoring item table 54 and other tables in accordance with the change of the configuration of the monitoring target device 2.
  • the process with the process ID “2” is the process 33 with the process ID “3” as the starting node and the process ID with the process ID “5” as the related node. 33 is an influence node.
  • the monitoring location / item selection rule table 53 is a table used to store and hold a rule that defines a monitoring location / item for each predetermined resource (hereinafter referred to as a monitoring location / item selection rule). Yes, as shown in FIG. 11, it comprises a rule ID column 53A, a resource type column 53B, and an acquisition item column 53C.
  • the rule ID column 53A stores an identifier (rule ID) assigned to each monitoring location / item selection rule
  • the resource type column 53B indicates the type of resource that is the target of the monitoring location / item selection rule. (Disk, network, CPU, memory, etc.) are stored.
  • the acquisition item column 53C stores monitoring items defined in the corresponding monitoring location / item selection rule.
  • the monitoring location / item selection rule to which the rule ID “1” is assigned is a rule that should have “throughput of the target disk” as a monitoring item for “disk”. Has been.
  • the monitoring item table 54 is a table used for managing the monitoring target selected by the monitoring item generating unit 59, and as shown in FIG. 12, the monitoring item ID column 54A, the process ID column 54B, the active host ID.
  • the monitoring item ID column 54A stores an identifier (monitoring item ID) assigned to the corresponding monitoring item
  • the process ID column 54B stores the process ID of the process 33 related to the monitoring item.
  • the operating host ID column 54C stores the host ID of the monitoring target apparatus 2 on which the process 33 is operating.
  • the resource ID column 54D stores the resource ID of the resource that is the target of the monitoring item
  • the acquisition item column 54E stores an item for which operation information should be acquired for the resource.
  • the rule ID of the corresponding monitoring location / item selection rule among the monitoring location / item selection rules managed on the monitoring location / item selection rule table 53 is stored in the application rule ID column 54F.
  • the monitoring item update flag column 54G a flag indicating whether or not the corresponding monitoring item should be selected as the monitoring item as it is due to the configuration change of the corresponding monitoring target device 2 (hereinafter referred to as the monitoring item). Called an update flag).
  • the monitoring item update flag is set to “No update” when the monitoring item should be selected as a monitoring item as it is, and when the monitoring item should no longer be selected as a monitoring item. Is set to “delete”.
  • the monitoring item update flag is set to “added” when the monitoring item is newly generated (selected). This monitoring item node update flag is used in the course of the process of updating the monitoring item table 54 and other tables when the configuration of the monitoring target device 2 is changed.
  • the monitoring item with the monitoring item ID of “1” is the monitoring location / item selection rule to which the rule ID of “1” is applied, and the host ID of “1” is Monitors the “throughput” of the resource (in this case, “disk”) with the resource ID “1” accessed by the process 33 with the process ID “1” operating on the assigned monitoring target apparatus 2 It is shown that the items should be specified.
  • FIG. 13 shows operation information transmission processing executed by the operation information acquisition unit 31 (FIG. 2) of each monitoring target device 2. The processing procedure of is shown.
  • the operation information acquisition unit 31 periodically acquires operation information of the self-monitoring target device 2 and transmits it to the monitoring item selection device 4 according to the processing procedure shown in FIG.
  • the operation information acquisition unit 31 starts the operation information acquisition process illustrated in FIG. 13, first, a predetermined time or more has elapsed since the operation information of the self-monitoring target device 2 was first transmitted to the monitoring item selection device 4. It is determined whether or not (SP1).
  • the operation information acquisition unit 31 acquires necessary operation information from the process 33 (FIG. 2), OS, hardware, or the like when a predetermined time or more has elapsed since the operation information was transmitted to the monitoring item selection device 4 last time ( SP2), the acquired operation information is transmitted to the monitoring item selection device 4 via the transmission unit 30B (FIG. 2) of the monitoring target device input / output unit 30 (FIG. 2) (SP2). Thereafter, the operation information acquisition unit 31 returns to step SP1, and thereafter repeats the same processing.
  • FIG. 14 shows a processing procedure of monitoring item information reception processing executed by the receiving unit 30A of the monitoring target device input / output unit 30 of the monitoring target device 2.
  • the receiving unit 30A waits to receive the above-described monitoring item information transmitted from the monitoring item selection device 4 (SP10).
  • the monitoring item accumulation table 32 is based on the received monitoring item information. (FIG. 4) is updated (SP11). Thereafter, the receiving unit 30A returns to step SP10, and thereafter repeats the same processing.
  • FIG. 15 shows the flow of the entire monitoring item selection process executed in the monitoring item selection device 4. Show.
  • the monitoring item selection device 4 selects a monitoring item according to the flow of FIG. 15 and notifies the monitoring device 3 and the monitoring target device 2 of the selected monitoring item.
  • the monitoring item selection device 4 when the monitoring item selection device 4 is powered on, this entire monitoring item selection process is started, and the monitoring item selection device input / output unit 40 (FIG. 3) transmits operation information from the monitoring target device 2. Wait for it to come (SP20). And the monitoring item selection apparatus input / output part 40 will transfer the received operation information to the operation information update part 41 (FIG. 3), when operation information is transmitted from one of the monitoring object apparatuses 2 soon.
  • the operation information update unit 41 receives the operation information transferred from the monitoring item selection device input / output unit 40, based on the received operation information, the node operation information table 46 (FIG. 6) and resource of the operation information accumulation table 45 The access information table 47 (FIG. 7) is updated as necessary (SP21).
  • the inter-node relationship extraction unit 55 of the configuration grasping unit 42 refers to the node operation information table 46 and displays any update flag column 46H (FIG. 6) other than “no update” in the node operation information table 46. It is determined whether or not there is an entry (row) in which the update flag is stored (SP22).
  • the inter-node relation extraction unit 55 determines whether the inter-node direct relation table 49 (FIG. 8) and the inter-node of the configuration table 48 correspond to the update contents of the node operation information table 46 updated by the operation information update unit 41.
  • the reachability related table 50 (FIG. 9) is updated (SP23).
  • the monitoring item selection unit 43 performs an updated node operation information table 46 and resource access information table 47, a monitoring location / item selection rule table 53 (FIG. 11), an updated inter-node direct relation table 49 and a node.
  • a monitoring item to be monitored in the future is selected based on the inter-reached relation table 50, and the monitoring item table 54 (FIG. 12) is updated based on the selection result (SP24).
  • step SP24 the starting node search unit 56 of the monitoring item selection unit 43 searches for a process to be the starting node based on the node operation information table 46 and the starting node condition table 44, and based on the search result.
  • the starting node selection node table 52A (FIG. 10A) is updated as necessary.
  • the related node search unit 57 selects the related node for each start node detected by the start node search unit 56 based on the updated start node selection node table 52A and the updated internode reachable relationship table 50.
  • the related node selection node table 52B (FIG. 10B) is updated as necessary based on the search result.
  • the influence node search unit 58 searches for an influence node of the related node detected by the related node search unit 57 based on the updated related node selection node table 52B and the updated resource access information table 47, and performs a search. Based on the result, the influence node selection node table 52C (FIG. 10C) is updated.
  • the monitoring item generation unit 59 selects a monitoring item to be monitored thereafter, based on the updated related node selection node table 52B, the resource access information table 47, and the monitoring location / item selection rule table 53.
  • the monitoring item table 54 is updated based on the selection result.
  • the monitoring item selection device input / output unit 40 transmits information on the monitoring item registered in the monitoring item table 54 to the corresponding monitoring target device 2 (SP25), and further, the operation information update unit 41, the inter-node relation extraction.
  • Unit 55, origin node search unit 56, related node search unit 57, affected node search unit 58, and monitoring item generation unit 59 respectively correspond to node operation information table 46, resource access information table 47, and inter-node reachability related table 50.
  • the selected node table 52 and the monitoring item table 54 are updated (SP26).
  • step SP26 the operation information update unit 41 deletes the entry in which the update flag of the node operation information table 46 and the resource access information table 47 is set to “delete”, and sets the update flag to “add”. For the set entry, the update flag is updated to “no change”.
  • inter-node relation extraction unit 55 updates all the update flags set to “delete” or “add” in the update flag column 50B of the inter-node reachable relation table 50 to “no update”.
  • the origin node search unit 56, the related node search unit 57, and the influence node search unit 58 update the matching condition in the corresponding start node selection node table 52A, the related node selection node table 52B, or the influence node selection node table 52C. For entries whose flag, related node update flag or affected node update flag is set to “deleted” and for which the matching condition update flag, related node update flag or affected node update flag is set to “added” The matching condition update flag, the related node update flag, or the affected node update flag is updated to “no change”.
  • the monitoring item generation unit 59 deletes the entry in which the monitoring item update flag in the monitoring item table 54 is set to “delete”, and for the entry in which the monitoring item update flag is set to “add”, the monitoring item Update the update flag to “no change”.
  • monitoring item selection apparatus 4 will complete
  • FIG. 16 shows the operation information update process executed by the operation information update unit 41 (FIG. 3) in step SP21 of the monitoring item selection overall process (FIG. 15). A processing procedure is shown.
  • the operation information update unit 41 starts the operation information update process shown in FIG.
  • the node operation information table 46 is updated as necessary based on the transferred operation information (SP30).
  • the operation information update unit 41 extracts the host ID of the monitoring target apparatus 2 that has transmitted the operation information from the operation information, and the operation host ID that is the same as the extracted host ID is the operation host ID column 46G (FIG.
  • the following processing is executed for all entries in the node operation information table 46 stored in 6).
  • B) When there is no entry in which the information related to one process 33 included in the operation information completely matches the registration information, an entry is newly added to the node operation information table 46, and the process is added to the entry. 33 information is registered, and the update flag of the entry is set to “add”.
  • C For an entry that does not apply to either (A) or (B), the update flag is set to “delete”.
  • the process 33 operating on the monitored apparatus 2 is deleted or when the communication destination of the process 33 is changed, the information on the node operation information table 46 corresponding to the process 33 is displayed.
  • the update flag of the entry is set to “delete” and a new process 33 is activated on the monitored apparatus 2, an entry corresponding to the process 33 is added to the node operation information table 46. Then, the update flag of the entry is set to “add”.
  • the operation information update unit 41 updates the resource access information table 47 based on the operation information transferred at that time (SP31).
  • the operation information update unit 41 performs the following processing for all entries in the resource access information table 47 in which the same operation host ID as the host ID extracted from the operation information in step SP30 is stored in the operation host ID column. Execute.
  • A For an entry in which the information related to one resource included in the operation information and the registration information completely match, the update flag is set to “no update”.
  • B If there is no entry in which the information related to one resource included in the operation information completely matches the registration information, an entry is newly added to the resource access information table 47, and the resource Information is registered and the update flag of the entry is set to “add”.
  • C For an entry that does not apply to either (A) or (B), the update flag is set to “delete”.
  • the update flag of the entry on the resource access information table 47 corresponding to the resource is set to “deleted”, and the monitored device 2
  • an entry corresponding to the resource is added to the resource access information table 47, and the update flag of the entry is set to “add”.
  • the operation information update unit 41 ends this operation information update process.
  • FIG. 17 shows the inter-node relation extraction unit in step SP23 of the monitoring item selection overall processing (FIG. 15) described above.
  • ascertainment process performed by 55 (FIG. 3) is shown.
  • the inter-node relation extraction unit 55 periodically starts the configuration grasping process shown in FIG. 17. First, among the processes 33 registered in the node operation information table 46, the update flag is set to “added”. One process 33 (hereinafter referred to as an addition target process) 33 is selected (SP40).
  • the inter-node relation extraction unit 55 searches the node operation information table 46 for the process 33 that communicates with the addition target process selected in step SP40 via the network 5 (FIG. 1), and based on the search result.
  • the inter-node direct association table 49 is updated (SP41).
  • the inter-node relationship extraction unit 55 refers to the inter-node direct relationship table 46 updated in step SP41, and searches for the process 33 having a direct and indirect relationship with the addition target process 33 selected in step SP40.
  • the inter-node reachable association table 50 is updated based on the search result (SP42).
  • the inter-node relation extraction unit 55 determines whether or not the processing of step SP41 and step SP42 has been executed for all the addition target processes 33 registered in the node operation information table 46 (SP43). Then, if the internode relation extraction unit 55 obtains a negative result in this determination, it returns to step SP40, and thereafter repeats the processing of step SP40 to step SP43.
  • the inter-node relation extraction unit 55 eventually obtains a positive result in step SP43 by completing the processing of step SP41 and step SP42 for all the addition target processes 33 registered in the node operation information table 46.
  • a deletion target process one unprocessed process 33 (hereinafter referred to as a deletion target process) whose update flag is set to “delete” is selected (SP44).
  • the inter-node relationship extraction unit 55 searches the node operation information table 46 for the process 33 having a direct relationship with the deletion target process 33 selected in step SP44, and based on the search result, the inter-node direct relationship table 49 is updated (SP45).
  • inter-node relation extraction unit 55 uses the inter-node direct relation table 49 updated in step SP45 to search for a process 33 having a direct and indirect relation with the deletion target process 33 selected in step SP44. Then, the inter-node reachable relation table 50 is updated based on the search result (SP46).
  • the inter-node relation extracting unit 55 determines whether or not the processing of step SP45 and step SP46 has been executed for all the deletion target processes 33 registered in the node operation information table 46 (SP47). If the internode relation extractor 55 obtains a negative result in this determination, it returns to step S44P, and thereafter repeats the processing of step SP44 to step SP47.
  • step SP47 When the inter-node relation extraction unit 55 eventually obtains a positive result at step SP47 by completing the processing of step SP45 and step SP46 for all the deletion target processes 33 registered in the node operation information table 46, The configuration grasp process is terminated.
  • FIG. 18 shows the inter-node direct relation addition processing executed by the inter-node relation extraction unit 55 in step SP41 of the above-described configuration grasping process (FIG. 17). Show the procedure.
  • the inter-node relation extracting unit 55 starts the inter-node direct relation adding process shown in FIG. It is determined whether or not the addition target process 33 has been registered in the inter-node direct relation table 49 (SP50).
  • step SP52 if the node-to-node relationship extraction unit 55 obtains a positive result in this determination, it proceeds to step SP52.
  • the node-to-node relationship extraction unit 55 obtains a negative result in the determination at step SP50, it adds a row and a column corresponding to the target process 33 to be added to the node-to-node direct relationship table 49. All the columns 49A (FIG. 8) in the row and column are filled with “0” (SP51).
  • the inter-node relationship extracting unit 55 searches the node operation information table 46 for the process 33 communicating with the addition target process 33 that is the target at that time via the network 5 (SP52). Specifically, the inter-node relationship extraction unit 55 determines that the combination of the IP address and the port number of the target process 33 to be added at that time among the processes 33 registered in the node operation information table 46 is the communication destination IP address. The process 33 that matches the set of the IP address stored in the field 46E (FIG. 6) and the port number stored in the communication destination port number field 46F (FIG. 6) is searched.
  • the inter-node relation extracting unit 55 determines whether or not the corresponding process 33 has been detected as a result of the search in step SP52 (SP53). If the node-to-node relationship extracting unit 55 obtains a negative result in this determination, the node-to-node relationship extracting unit 55 ends the node-to-node relationship adding process and returns to the configuration grasping process.
  • the internode relation extraction unit 55 obtains a positive result in the determination at step SP53, all the processes 33 detected by the search at step SP52 are stored in the respective columns 49A of the internode direct relation table 49.
  • the flags a flag (X row Y) where a column corresponding to the process 33 (Y column) and a row corresponding to the target process 33 to be added (X row) at that time intersect. Column flag) is updated to "1" (SP54).
  • the inter-node relation extracting unit 55 ends the inter-node direct relation adding process and returns to the configuration grasping process.
  • the reachable matrix will be described.
  • the inter-node direct relation table 49 in FIG. Can be converted into an adjacency matrix X expressed by
  • the reachability matrix X ′ of this adjacency matrix X is given by As described above, a value obtained by adding the unit matrix I to the adjacency matrix X is raised to a power, and it can be obtained as a matrix that does not change no matter how much power is raised. However, matrix calculation is performed by pool calculation.
  • the reachable matrix X ′ of the adjacency matrix X in the equation (1) is expressed by the following equation: As a result of this calculation, Is required.
  • the i and j elements of X ′ of the reachability matrix represented by X ij ′ indicate whether or not the process i can be reached by tracing the items related to the process j.
  • the i and j elements are “1”, and when the process i cannot reach the process j (direct (If there is no indirect relationship), the i and j elements are “0”.
  • the inter-node direct relation table 49 updated by the above-described inter-node direct relation addition process (FIG. 18) is converted into an adjacency matrix, and the reachability matrix of the adjacency matrix is obtained.
  • the process 33 having a direct or indirect relationship with the addition target process 33 is detected, and the inter-node reachability related table 50 is updated based on the detection result.
  • FIG. 19 shows an example when the node ID of the process 33 to be added is “6”. Then, all the flags stored in each column 50AA in the row and column added to the reachability related column 50A are set to “0”, and each column 50BA in the row and column added to the update flag column 50B is set. All stored update flags are set to “no update”.
  • the part of the reachable relation column 50A of the internode reachable relation table 50 is Is converted into the adjacency matrix A expressed by the following formula, and the result of the direct association addition processing between nodes is reflected to obtain a matrix of the addition result obtained by adding the unit matrix.
  • each element of the X row Y column and the Y row X column in the adjacency matrix A of the equation (5) and the diagonal element are updated to “1”.
  • the expression (6) is an example in which the target process 33 to be added is communicating with the process 33 having the node ID “3” via the network 5.
  • the matrix A n is sequentially obtained by calculating A n ⁇ 1 ⁇ A for the matrix A, and the reachable matrix of the matrix A is obtained from the result.
  • the value of the matrix A 1 is And the matrix A 2 is given by And the matrix A 3 is given by Therefore, the reachable matrix of the matrix A can be obtained as a matrix represented by the equation (9).
  • a 0 is a unit matrix.
  • the reachability related column 50A of the internode reachability related table 50 is updated with this reachability matrix, and among the update flags of the update flag column 50B, each reachable related column 50A is updated.
  • the update flag corresponding to the element changed to “1” among the elements to “add” By changing the update flag corresponding to the element changed to “1” among the elements to “add”, the inter-node reachable relation table according to the processing result of the inter-node direct relation addition process described above with reference to FIG. 50 can be updated.
  • FIG. 21 shows a processing procedure of inter-node reachable association addition processing executed by the inter-node relationship extracting unit 55 in step SP42 of the configuration grasping processing (FIG. 17) according to the above principle.
  • step SP42 of the configuration grasping process the inter-node reachable association adding process shown in FIG. 21 is started. It is determined whether or not it has been registered in the association table 50 (SP60).
  • the inter-node relation extraction unit 55 adds the row and column of the addition target process 33 to the reachable relation column 50A of the inter-node reachability relation table 50, and stores the added row and column in each column 50AA. All the flags set to “0”, the row and column of the process 33 to be added are added to the update flag column 50B, and the update flag stored in each column 50BA in the added row and column is set. All are set to “no change” (SP61).
  • the inter-node relation extraction unit 55 creates an adjacency matrix A from the reachable relation column 50A of the inter-node reachability relation table 50 (SP62), and the X row Y column and the Y row X column of the created adjacency matrix A Each element and the diagonal element are updated to “1” (SP63).
  • the inter-node relationship extraction unit 55 calculates A n ⁇ 1 ⁇ A for the matrix A (SP64). Initially, n is set to “1”. The node between the associated extractor 55 determines the matrix A n obtained by the calculation in step SP64, whether the original and the matrix A n-1 matches (SP65).
  • inter-node relationship extraction unit 55 obtains a negative result in this determination, it increments the value of n by “1”, returns to step SP64, and thereafter repeats the loop of step SP64-step SP65-step SP64.
  • the node between the associated extractor 55 obtains a positive result at step SP65 by calculating the reachability matrix A n of the matrix A finally, column corresponds in reachability associated column 50A of the inter-node reachability relation table 50 50 AA the value of the stored flag is an element of "0", the respective elements of the value of the corresponding element of the reachability matrix a n is "1", stored in the corresponding field 50AA in reachability associated column 50A The flag being updated is updated to “1”. Further, the inter-node relation extraction unit 55 sets the flag of the reachable relation column 50A to “1” as described above among the update flags stored in the respective fields 50BA of the update flag field 50B of the inter-node reachable relation table 50. Each update flag corresponding to each column 50AA updated to “Add” is updated to “Add” (SP66).
  • the inter-node relation extraction unit 55 ends the inter-node reachable relation adding process and returns to the configuration grasping process.
  • FIG. 22 shows the inter-node direct relation deletion processing executed by the inter-node relation extraction unit 55 in step SP45 of the configuration grasping process (FIG. 17). The processing procedure of is shown.
  • the inter-node relation extracting unit 55 proceeds to step SP45 of the configuration grasping process, the inter-node direct relation deleting process shown in FIG. 22 is started.
  • the process 33 performing communication is searched on the node operation information table 46 (SP70).
  • the inter-node relationship extraction unit 55 determines that the combination of the IP address and port number of the deletion target process 33 that is the target among the processes 33 registered in the node operation information table 46 is the communication destination IP address.
  • the process 33 that matches the set of the IP address stored in the field 46E (FIG. 6) and the port number stored in the communication destination port number field 46F (FIG. 6) is searched.
  • the inter-node relation extraction unit 55 determines whether or not the corresponding process 33 has been detected by the search in step SP70 (SP71). If the node-to-node relationship extraction unit 55 obtains a negative result in this determination, the node-to-node relationship extracting unit 55 ends the node-to-node relationship deleting process and returns to the configuration grasping process.
  • a column 49A exists at a location where a column corresponding to the process 33 (referred to as Y column) and a row corresponding to the target process 33 to be added at that time (referred to as X row) intersect.
  • the flag (X row and Y column flag) stored in is updated to “0”.
  • the inter-node relation extracting unit 55 ends the inter-node direct relation adding process and returns to the configuration grasping process.
  • the inter-node direct association table 49 updated by the above-described inter-node direct association deletion processing is converted into an adjacency matrix, and the reachability matrix of the adjacency matrix is obtained, so that the deletion target process 33 is directly connected.
  • the process 33 having a direct or indirect relationship is detected, and the inter-node reachability related table 50 is updated based on the detection result.
  • the deletion of the process 33 since the deletion of the process 33 has an influence only in the group of the process 33 that is directly or indirectly related to the deletion target process 33, the deletion of the process 33 is limited to the affected group.
  • the computational complexity is reduced by recalculating the reachability matrix from the connection matrix that reflects.
  • FIG. 23 shows an example in which the process 33 with the process ID “3” is the deletion target process 33. Therefore, in this case, the set Z is given by Thus, it is a set of processes 33 having process IDs “1”, “3”, and “5”.
  • the adjacency matrix B is created only by the processes 33 belonging to the set Z of the internode direct relation table 49. Specifically, only the rows and columns of the process 33 with process IDs “1”, “3”, and “5” are extracted from the inter-node direct association table 49 to create an adjacency matrix B. Therefore, in the case of the example of FIG. It becomes.
  • the inter-node direct relation table 49 is used instead of the inter-node reachable relation table 50. This is because the calculated reachability association is not deleted, but only the affected direct association is recalculated and updated.
  • the matrix An is sequentially obtained by calculating A n ⁇ 1 ⁇ B for the matrix B, and the reachable matrix of the matrix B is obtained from the result.
  • the value of the matrix A 1 is the A 0 as a unit matrix, the following equation
  • the reachable matrix of the matrix B can be obtained as a matrix represented by the equation (13). Based on this reachability matrix, the process 33 that is directly or indirectly related to the addition target process 33 can be detected.
  • the reachability related column 50A of the internode reachability related table 50 is updated with this reachability matrix, and among the update flags of the update flag column 50B, the reachable related column 50A is updated.
  • the update flag stored in each field 50BA in the update flag field 50B corresponding to each field 50AA whose flag has been changed to “1” to “add” the direct inter-node described above with reference to FIG.
  • the inter-node reachable relation table 50 can be updated according to the processing result of the relation deletion process.
  • FIG. 26 shows a processing procedure of the inter-node reachable association deletion process executed by the inter-node relation extracting unit 55 in step SP46 of the configuration grasping process (FIG. 17) according to the above principle.
  • the inter-node relation extraction unit 55 starts the inter-node reachable relation deletion process shown in FIG. A set Z of processes 33 whose row value is “1” is created (SP80).
  • the inter-node relation extraction unit 55 creates the adjacency matrix B only by the processes 33 belonging to the set Z of the inter-node direct relation table 49 (SP81), and thereafter all the diagonal elements of the created adjacency matrix B are obtained. It is changed to “1” (SP82).
  • the inter-node relationship extraction unit 55 calculates A n ⁇ 1 ⁇ B for the adjacency matrix B (SP83). Initially, n is set to “1”. The node between the associated extractor 55 determines the matrix A n obtained in step SP83, whether the original and the matrix A n-1 matches (SP 84).
  • inter-node relation extraction unit 55 obtains a negative result in this determination, it increments the value of n by “1” and then returns to step SP83, and thereafter repeats the loop of step SP83-step SP84-step SP83.
  • the node between the associated extractor 55 eventually obtains a positive result at step SP84 by calculating the reachability matrix A n adjacency matrix B, and the value of reachability associated column within 50A of the inter-node reachability relation table 50 a flag of "1", the value of the corresponding element of the reachability matrix a n is for each flag of "0", and updates the value to "0".
  • the inter-node relationship extraction unit 55 also updates each update flag corresponding to each flag updated to “0” in the reachability-related column 50A among the update flags in the update flag column 50B of the inter-node reachable relationship table 50. Is updated to “delete” (SP85).
  • the inter-node relation extracting unit 55 ends the inter-node reachable relation deleting process and returns to the configuration grasping process.
  • FIG. 27 shows the monitoring item selection unit 43 in step SP24 of the entire monitoring item selection processing (FIG. 15) described above. Shows the flow of monitoring item selection processing executed in step 1.
  • the monitoring item selection unit 43 selects monitoring items according to the flow of FIG.
  • the monitoring item selection unit 43 starts this monitoring item selection process.
  • the process 33 to be the starting node is searched with reference to the information table 46 and the starting node condition table 44, and the starting node selection node table 52A (FIG. 10A) is updated based on the search result (SP90). .
  • the related node search unit 57 refers to the updated start node selection node table 52A and the inter-node reachable related table 50, and relates the process 33 to be the start node detected by the search in step SP90.
  • the node is searched, and the related node selection node table 52B (FIG. 10B) is updated based on the search result (SP91).
  • the affected node search unit 58 refers to the updated related node selection node table 52B and the resource access information table 47, and the origin node detected by the search at step SP90 and the relationship detected by the search at step SP91.
  • the node influence node is searched, and the influence node selection node table 52C (FIG. 10C) is updated based on the search result (SP92).
  • the monitoring item generation unit 59 selects a monitoring item to be monitored based on the processing results of the above-described steps SP90 to SP92, and updates the monitoring item table 54 based on the selection result (SP93).
  • FIG. 28 shows the procedure of the origin node search process executed by the origin node search unit 56 in step SP90 of the monitoring item selection process (FIG. 27) described above.
  • the start node search unit 56 starts the start node search process shown in FIG. 28, and first executes the processes of SP100 to SP105 to thereby select the start node selection node table.
  • the update flag of the process 33 that should no longer be the starting node due to the configuration change of the monitoring target device 2 is updated to “delete”.
  • the starting node search unit 56 selects one unprocessed process 33 whose update flag is set to “deleted” from among the processes 33 registered in the node operation information table 46 (SP100).
  • the starting node search unit 56 selects one unprocessed starting node condition among the starting node conditions registered in the starting node condition table 44 (FIG. 5) (SP101), and thereafter, step It is determined whether or not the process 33 selected in SP100 satisfies the starting node condition selected in step SP101 (SP102).
  • the origin node search unit 56 proceeds to step SP104 if it obtains a negative result in this determination, and updates the origin node selection node table 52A if it obtains an affirmative result (SP103). Specifically, the starting node search unit 56 matches the process ID stored in the process ID column 52AA of the entries in the starting node selection node table 52A with the process ID of the process 33 selected in step SP100, and The match condition update flag stored in the match condition update flag field 52AC of the entry whose match condition ID stored in the match condition ID field 52AB matches the condition node ID of the starting node condition selected in step SP101 is set to “delete”. change.
  • the starting node search unit 56 determines whether or not the processing of step SP101 to step SP103 has been executed for all starting node conditions registered in the starting node condition table 44 (SP104).
  • the origin node searching unit 56 returns to step SP101 when a negative result is obtained in this determination, and thereafter repeats the processing of step SP101 to step SP104.
  • step SP104 When the starting node search unit 56 eventually obtains a positive result in step SP104 by completing the processing of steps SP101 to SP103 for all starting node conditions registered in the starting node condition table 44, the node operation is started. It is determined whether or not the processing of step SP100 to step SP104 has been executed for all corresponding processes 33 registered in the information table 46 (SP105).
  • the origin node searching unit 56 returns to step SP100 when it obtains a negative result in this determination, and thereafter repeats the processing of step SP100 to step SP105.
  • the source node search unit 56 eventually obtains an affirmative result in step SP105 by completing the processing of step SP100 to step SP104 for all corresponding processes 33 registered in the node operation information table 46.
  • the process 33 to be a new starting node by registering the configuration of the monitoring target device 2 is registered in the starting node selection node table 52A, and its update flag is set to “add” To do.
  • the starting node search unit 56 first selects one unprocessed process 33 whose update flag is set to “add” from among the processes 33 registered in the node operation information table 46 (SP106). ).
  • the starting node search unit 56 selects one unprocessed starting node condition among the starting node conditions registered in the starting node condition table 44 (SP107), and then selects it in step SP106.
  • the process 33 determines whether or not the starting node condition selected in step SP107 is satisfied (SP108).
  • the origin node search unit 56 proceeds to step SP110 if a negative result is obtained in this determination, and updates the start node selection node table 52A if a positive result is obtained (SP109). Specifically, the starting node search unit 56 matches the process ID stored in the process ID column 52AA of the entries in the starting node selection node table 52A with the process ID of the process 33 selected in step SP106, and The match condition update flag stored in the match condition update flag field 52AC of the entry whose match condition ID stored in the match condition ID field 52AB matches the condition node ID of the starting node condition selected in step SP107 is set to “add”. change.
  • the starting node search unit 56 determines whether or not the processing of step SP107 to step SP109 has been executed for all starting node conditions registered in the starting node condition table 44 (SP110). If the result of this determination is negative, the originating node search unit 56 returns to step SP107, and thereafter repeats the processing of step SP107 to step SP110.
  • step SP110 When the starting node search unit 56 finally obtains a positive result at step SP110 by completing the processing of step SP107 to step SP109 for all the starting node conditions registered in the starting node condition table 44, the node operation is started. It is determined whether or not the processing of step SP106 to step SP110 has been executed for all corresponding processes 33 registered in the information table 46 (SP111).
  • the starting point node search unit 56 returns to step SP106 when it obtains a negative result in this determination, and thereafter repeats the processing of step SP106 to step SP111.
  • step SP111 when the origin node search unit 56 eventually obtains a positive result in step SP111 by completing the processing of step SP106 to step SP110 for all corresponding processes 33 registered in the node operation information table 46, this origin point search unit 56 The node search process is terminated.
  • FIG. 29 shows the processing procedure of the related node search process executed by the related node search unit 57 in step SP91 of the monitoring item selection process described above.
  • the related node search unit 57 starts the related node search process shown in FIG. 29.
  • the start node selection node table Among the processes 33 in which the match condition update flag on 52A or the update flag on the inter-node reachable relation table 50 is updated to “delete”, the related node selection node table 52B of the process 33 that should no longer be a related node
  • the related node update flag above is updated to “delete”.
  • the related node search unit 57 selects one unprocessed process 33 whose match condition update flag is set to “delete” from among the processes 33 registered in the starting node selection node table 52A. (SP120).
  • the related node search unit 57 sets the flag “1” on the entry (row) corresponding to the process 33 selected in step SP120 in the reachable relation column 50A of the internode reachable relation table 50 (FIG. 9).
  • the process 33 set to “” is detected.
  • the related node search unit 57 matches the process ID of the selected node table 52B for the related node among the detected processes 33 with the process ID of the process 33 selected in step SP120, and the related node ID is as described above.
  • the related node update flag of the process 33 that matches the process ID of the process 33 whose flag detected on the inter-node reachable relation table 50 is set to “1” is updated to “delete” (SP121).
  • the related node search unit 57 determines whether or not the processing of step SP120 and step SP121 has been completed for all the processes 33 for which the matching condition update flag is set to “deleted” on the starting node selection node table 52A. Is determined (SP122).
  • step SP120 If the related node search unit 57 obtains a negative result in this determination, it returns to step SP120, and thereafter repeats the processing of step SP120 to step SP122.
  • the related node searching unit 57 eventually executes the processing of step SP120 and step SP121 for all the processes 33 for which the matching condition update flag is set to “deleted” on the starting node selection node table 52A. If an affirmative result is obtained in SP122, a set of processes 33 in which the update flag is set to “delete” in the update flag column 50B of the inter-node reachability related table 50 (hereinafter, one is appropriately referred to as the first process 33 and the other as Is called a second process 33), one unprocessed set is selected (SP123).
  • the related node search unit 57 matches the process ID of the first process 33 of the set selected in step SP123 among the processes 33 registered in the related node selection node table 52B, and the step SP123.
  • the related node update flag of the process 33 in which the process ID of the second process 33 in the set selected in step 2 matches the related node ID is updated to “delete” (SP124).
  • the related node search unit 57 performs the processing of step SP123 and step SP124 for all the sets of processes 33 in which the update flag is set to “delete” in the update flag column 50B of the inter-node reachability related table 50. It is determined whether or not the execution has been completed (SP125).
  • step SP123 If the related node search unit 57 obtains a negative result in this determination, it returns to step SP123, and thereafter repeats the processing of step SP123 to step SP125.
  • step SP123 and step SP124 executes the processing of step SP123 and step SP124 for all the sets of processes 33 in which the update flag is set to “delete” in the update flag column 50B of the inter-node reachability related table 50. If an affirmative result is obtained in step SP125 as a result of the completion of processing, then by executing steps SP126 to SP131, the match condition update flag on the origin node selection node table 52A or the internode reachability related table 50 is displayed. The process 33 in which the update flag is set to “add” is registered in the related node selection node table 52B, and the related node update flag is set to “add”.
  • the related node search unit 57 selects one unprocessed process 33 whose match condition update flag is set to “add” from among the processes 33 registered in the starting node selection node table 52A. (SP126).
  • the related node search unit 57 sets the flag “1” on the entry (row) corresponding to the process 33 selected in step SP120 in the reachable relation column 50A of the internode reachable relation table 50 (FIG. 9). And the entry corresponding to each detected process 33 is added to the related node selection node table 52B (SP127). Specifically, the related node search unit 57 stores the process ID of the process 33 detected as described above in the related node ID field 52BB, and the process ID of the process 33 selected in step SP126 indicates the process ID field 52BA. And the entry in which “addition” is stored in the related node update flag column 52BC is added to the related node selection node table 52B.
  • the related node search unit 57 determines whether or not the processes of step SP126 and step SP127 have been executed for all processes 33 for which the matching condition update flag is set to “added” on the selection node table 52A for starting nodes. Is determined (SP128).
  • step SP126 If the related node search unit 57 obtains a negative result in this determination, it returns to step SP126, and thereafter repeats the processing of step SP126 to step SP128.
  • the related node search unit 57 eventually executes the processing of step SP126 and step SP127 for all the processes 33 for which the matching condition update flag is set to “delete” on the starting node selection node table 52A. If an affirmative result is obtained in SP128, a set of processes 33 in which the update flag is set to “add” in the update flag column 50B of the inter-node reachability related table 50 (hereinafter, one is the third process 33 and the other is appropriately) Is selected as a fourth process 33) (SP129).
  • the related node search unit 57 adds an entry corresponding to the group selected in step SP129 to the related node selection node table 52B (SP130). Specifically, the related node search unit 57 stores the process ID of the third process 33 in the process ID column 52BA, stores the process ID of the fourth process 33 in the related node ID column 52BB, and sets the related node update flag. An entry in which the related node update flag stored in the column 52BC is set to “add” is added to the related node selection node table 52B.
  • step SP129 and step SP130 executes the processing of step SP129 and step SP130 for all process sets in which the update flag is set to “add” in the update flag column 50B of the inter-node reachability related table 50. It is determined whether or not the processing has been completed (SP131).
  • step SP129 If the related node search unit 57 obtains a negative result in this determination, it returns to step SP129, and thereafter repeats the processing of step SP129 to step SP131.
  • step SP129 and step SP130 executes the processing of step SP129 and step SP130 for all the sets of processes 33 in which the update flag is set to “add” in the update flag column 50B of the internode reachable relation table 50. If a positive result is obtained in step SP131 by completing the process, the related node search process is terminated.
  • FIGS. 30A and 30B show the influence node search process executed by the influence node search unit 58 in step SP92 of the monitoring item selection process (FIG. 27) described above. A processing procedure is shown.
  • the influence node search unit 58 proceeds to step SP92 of the monitoring item selection process, the influence node search unit 58 starts the influence node search process shown in FIGS. 30A and 30B.
  • the influence node search unit 58 executes the processes of steps SP140 to SP153.
  • the influence node update flag on the influence node selection node table 52C of the process 33 that should no longer be a node is changed to “delete”.
  • step SP140 to step SP146 the influence node search unit 58 performs processing for the process 33 in which the related node update flag is set to “delete” in the related node selection node table 52B.
  • the influence node search unit 58 first selects a process ID of an unprocessed process 33 whose related node update flag is set to “deleted” from among the processes 33 registered in the related node selection node table 52B. One is selected (SP140).
  • the affected node search unit 58 selects which of the entries in the related node selection node table 52B has a process ID stored in the process ID column 52BA that matches the process ID of the process 33 selected in step SP140.
  • One unprocessed process ID stored in the related node ID column 52BB of the entry is selected (SP141).
  • the affected node search unit 58 selects one unprocessed resource whose process ID stored in the access process ID column 47B of the resource access information table 47 (FIG. 7) matches the process ID selected in step SP141. Select (SP142).
  • the affected node search unit 58 refers to the resource access information table 47 and searches for all processes 33 that access the resource selected in step SP142. Furthermore, the influence node search unit 58 matches the process ID stored in the process ID column 52CA with the process ID of the process 33 selected in step SP140 among the entries in the selection node table 52C for the influence node, and the related node ID column. Either of the process ID stored in 52CB matches the process ID of the process 33 selected in step SP141, and the process ID stored in the affected node ID column 52CC accesses the resource selected in step SP142.
  • the affected node update flag stored in the affected node update flag column 52CD of all entries that match the process ID of the process 33 is set to “delete” (SP143).
  • the affected node search unit 58 has completed the processing of step SP142 and step SP143 for all resources in which the process ID selected in step SP141 is stored in the access process ID column 47B of the resource access information table 47. It is determined whether or not (SP144).
  • step SP142 If the influence node search unit 58 obtains a negative result in this determination, it returns to step SP142, and thereafter repeats the processing of step SP142 to step SP144.
  • the influence node search unit 58 eventually executes the same process for all resources in which the process ID selected in step SP141 is stored in the access process ID column 47B of the resource access information table 47, and affirms in step SP144.
  • step SP141 If the influence node search unit 58 obtains a negative result in this determination, it returns to step SP141, and thereafter repeats the processing of step SP141 to step SP145.
  • the influence node search unit 58 eventually stores all the information stored in the related node ID field 52BB of any entry in which the process ID selected in step SP140 is stored in the process ID field 52CC of the related node selection node table 52B.
  • a positive result is obtained in step SP145 by completing the execution of the processing of step SP141 to step SP144 for the process ID of all the process IDs of all the processes for which the related node update flag of the related node selection node table 52B is set to “delete” It is determined whether or not the processing of step SP140 to step SP145 has been executed for the process ID (SP146).
  • step SP140 If the influence node search unit 58 obtains a negative result in this determination, it returns to step SP140, and thereafter repeats the processing of step SP140 to step SP146.
  • step SP140 the influence node search unit 58 eventually finishes executing the processing of step SP140 to step SP145 for the process IDs of all processes for which the related node update flag of the related node selection node table 52B is set to “delete”. If an affirmative result is obtained in step SP146, the process for each process 33 in which the related node update flag is set to “delete” on the related node selection node table 52B is ended.
  • step SP147 to step SP153 the influence node search unit 58 performs processing for the process 33 that uses the resource whose update flag is set to “delete” in the resource access information table 47.
  • the influence node search unit 58 selects the middle of the process 33 having the same process ID as the process ID stored in the access process ID column 47B of the entry whose update flag of the resource access information table 47 is set to “delete”.
  • One unprocessed process is selected from (SP147).
  • the affected node search unit 58 selects any of the entries in the related node selection node table 52B whose process ID stored in the process ID column 52BA matches the process ID of the process 33 selected in step SP147.
  • One unprocessed process ID stored in the related node ID column 52BB of the entry is selected (SP148).
  • the affected node search unit 58 selects one unprocessed resource whose process ID stored in the access process ID column 47B of the resource access information table 47 matches the process ID of the process selected in step SP148 ( SP149).
  • the affected node search unit 58 refers to the resource access information table 47 and searches for all processes 33 that access the resource selected in step SP149. Furthermore, the influence node search unit 58 matches the process ID stored in the process ID column 52CA with the process ID of the process 33 selected in step SP147 among the entries in the selection node table 52C for the influence node, and the related node ID column. Either of the process ID stored in 52CB matches the process ID of the process 33 selected in step SP148, and the process ID stored in the affected node ID column 52CC accesses the resource selected in step SP149.
  • the affected node update flag stored in the affected node update flag column 52CD of all entries that match the process ID of the process 33 is set to “delete” (SP150).
  • the influence node search unit 58 has executed the processing of step SP149 and step SP150 for all resources in which the process ID selected in step SP148 is stored in the access process ID column 47B of the resource access information table 47. It is determined whether or not (SP151).
  • step SP149 If the influence node search unit 58 obtains a negative result in this determination, it returns to step SP149, and thereafter repeats the processing of step SP149 to step SP150.
  • the influence node search unit 58 eventually performs the same processing for all resources in which the process ID selected in step SP148 is stored in the access process ID column 47B of the resource access information table 47, thereby affirming in step SP151.
  • step SP148 When the influence node search unit 58 obtains a negative result in this determination, it returns to step SP148, and thereafter repeats the processing of step SP148 to step SP152.
  • the influence node search unit 58 eventually stores all the information stored in the related node ID field 52BB of any entry in which the process ID selected in step SP147 is stored in the process ID field 52CC of the related node selection node table 52B.
  • the access process ID column 47B of each entry in which the update flag of the resource access information table 47 is set to “delete” It is determined whether or not the processing of step SP147 to step SP152 has been executed for all processes 33 having the same process ID as the process ID stored in (SP153).
  • step SP147 If the influence node search unit 58 obtains a negative result in this determination, it returns to step SP147, and thereafter repeats the processing of step SP147 to step SP153.
  • the influence node search unit 58 eventually adds all the processes 33 having the same process ID as the process ID stored in the access process ID column 47B of each entry in which the update flag of the resource access information table 47 is set to “delete”.
  • the processing for each process 33 using the resource whose update flag is set to “deleted” on the resource access information table 47 is performed. finish.
  • the influence node search unit 58 newly registers the necessary process 33 in the influence node selection node table 52C by executing the processing of step SP154 to step SP167.
  • step SP154 to step SP160 the influence node search unit 58 performs processing for the process 33 in which the update flag is set to “add” in the related node selection node table 52B.
  • step SP154 to step SP160 has the same processing contents as step SP140 to step SP146, except for the following (A) and (B), and the description thereof will be omitted here.
  • the process ID selected in step SP154 is the process ID of the unprocessed process 33 in which the related node update flag is set to “add” among the processes registered in the related node selection node table 52B. is there.
  • the resource access information table 47 is referred to search for all processes 33 that access the resource selected in step SP156.
  • the process ID of the process 33 selected in step SP154 is stored in the process ID column 52CA
  • the process ID of the process 33 selected in step SP155 is stored in the related node ID column 52CB.
  • the process ID of any process 33 that accesses the resource selected in SP156 is stored in the affected node ID column 52CC
  • the affected node update flag stored in the affected node update flag column 52CD is set to “add” Add an entry. Such an entry is added to the influence node selection node table 52C for all processes 33 that access the resource selected in step SP156.
  • step SP161 to step SP167 the influence node search unit 58 performs processing for the process 33 that uses the resource whose update flag is set to “add” in the resource access information table 47.
  • step SP161 to step SP167 is the same as that of step SP147 to step SP153 except for the following (A) and (B), and the description thereof is omitted here.
  • the process 33 selected in step SP161 has the same process ID as the process ID stored in the access process ID column 47B of the entry whose update flag of the resource access information table 47 is set to “add”. It is.
  • the resource access information table 47 is referred to search for all processes 33 that access the resource selected in step SP163.
  • process ID of the process 33 selected in step SP161 is stored in the process ID column 52CA in the selection node table 52C for influence nodes
  • process ID of the process 33 selected in step SP162 is stored in the related node ID column 52CB.
  • the process ID of any process 33 that accesses the resource selected in SP163 is stored in the affected node ID column 52CC, and the affected node update flag stored in the affected node update flag column 52CD is set to “add” Add an entry. Further, such an entry is added to the influence node selection node table 52C for all the processes 33 that access the resource selected in step SP163.
  • the influence node search unit 58 ends the influence node search process.
  • FIG. 31A and FIG. 31B are processing procedures for the monitoring item generation processing executed by the monitoring item generation unit 59 in step SP93 of the above-described monitoring item selection processing (FIG. 27). Indicates.
  • the monitoring item generation unit 59 When the monitoring item generation unit 59 proceeds to step SP93 of the monitoring item selection process, the monitoring item generation unit 59 starts the monitoring item generation process shown in FIGS. 31A and 31B, and first executes the processes of steps SP170 to SP185, thereby The process 33 in which the related node update flag or the affected node update flag is set to “deleted” on the node selection node table 52B or the affected node selected node table 52C, or the update flag is “deleted” on the resource access information table 47.
  • the monitoring item update flag on the monitoring item table 54 of the monitoring item that should no longer be the monitoring item among the monitoring items for the resource accessed by the process 33 that accesses the resource set to “” is changed to “delete”.
  • the monitoring item generation unit 59 sets the related node update flag or the affected node update flag to “deleted” in the related node selection node table 52B or the affected node selection node table 52C in steps SP170 to SP177.
  • the process 33 performs processing on the monitoring item of the resource accessed.
  • the monitoring item generation unit 59 sets the related node update flag or the affected node update flag to “deleted” in the process 33 registered in the related node selected node table 52B or the affected node selected node table 52C.
  • One unprocessed process 33 is selected (SP170).
  • the monitoring item generation unit 59 sets the resource accessed by the process 33 selected in step SP170 out of the resources registered in the resource access information table 47 (that is, the access process ID column 47B of the resource access information table 47).
  • One unprocessed resource is selected (SP171), which is a resource storing the process ID of the process 33 selected in SP170.
  • the monitoring item generator 59 selects one unprocessed monitoring point / item selection rule from the monitoring points / item selection rules registered in the monitoring point / item selection rule table 53 (FIG. 11) (SP172). It is determined whether or not the selected monitoring location / item selection rule is a rule for the resource selected in step SP171 (SP173). If the monitoring item generator 59 obtains a negative result in this determination, it proceeds to step SP175.
  • the process ID stored in the process ID column 54B is selected from the entries of the monitoring item table 54 (FIG. 12).
  • An entry whose rule ID matches the monitoring location / item selection rule ID of the monitoring location / item selection rule selected in step SP172 is detected, and the monitoring item update flag stored in the monitoring item update flag column 54G of the entry is set to “ Change to “delete” (SP174).
  • the monitoring item generation unit 59 determines whether or not the processing of step SP172 to step SP174 has been executed for all the monitoring location / item selection rules registered in the monitoring location / item selection rule table 53 (SP175). ).
  • the monitoring item generation unit 59 When the monitoring item generation unit 59 obtains a negative result in this determination, the monitoring item generation unit 59 returns to step SP172, and thereafter repeats the processing of step SP172 to step SP175.
  • the monitoring item generation unit 59 eventually obtains a positive result at step SP175 by completing the processing of step SP172 to step SP174 for all the monitoring points / item selection rules registered in the monitoring point / item selection rule table 53. Then, it is determined whether or not the processing in steps SP171 to SP175 has been executed for all resources accessed by the process 33 selected in step SP170 among the resources registered in the resource access information table 47 (SP176). .
  • the monitoring item generation unit 59 When the monitoring item generation unit 59 obtains a negative result in this determination, the monitoring item generation unit 59 returns to step SP171, and thereafter repeats the processing of step SP171 to step SP176.
  • step SP176 When the monitoring item generation unit 59 eventually obtains a positive result in step SP176 by completing the processing of step SP171 to step SP175 for all resources accessed by the process 33 selected in step SP170, it selects the related node selection node. It is determined whether or not the processing of step SP170 to step SP176 has been executed for all the processes 33 in which the related node update flag or the affected node update flag is set to “delete” in the table 52B or the affected node selection node table 52C. (SP177).
  • the monitoring item generation unit 59 When the monitoring item generation unit 59 obtains a negative result in this determination, it returns to step SP170, and thereafter repeats the processing of step SP170 to step SP177.
  • the monitoring item generation unit 59 eventually performs step SP170 for all processes 33 in which the related node update flag or the affected node update flag is set to “delete” in the related node selection node table 52B or the affected node selection node table 52C.
  • step SP177 When a positive result is obtained in step SP177 by completing the execution of the processing in step SP176, the related node update flag or the affected node update flag is set to “delete” in the related node selection node table 52B or the influence node selection node table 52C. The processing for each set process 33 is terminated.
  • step SP147 to step SP153 the monitoring item generation unit 59 performs processing for the monitoring item of each resource accessed by the process 33 that accesses the resource whose update flag is set to “deleted” in the resource access information table 47. Do.
  • the monitoring item generation unit 59 selects from among the processes 33 to which the process ID stored in the access process ID column 47B of the entry whose monitoring item update flag is set to “delete” in the resource access information table 47 is assigned.
  • One unprocessed process 33 is selected (SP178).
  • the monitoring item generation unit 59 sets the resource accessed by the process 33 selected in step SP178 among the resources registered in the resource access information table 47 (that is, the access item ID field 47B of the resource access information table 47).
  • One unprocessed resource is selected (SP179), which is a resource storing the process ID of the process 33 selected in SP178.
  • the monitoring item generator 59 selects one unprocessed monitoring point / item selection rule from the monitoring points / item selection rules registered in the monitoring point / item selection rule table 53 (FIG. 11) (SP180). ) It is determined whether or not the selected monitoring location / item selection rule is a rule for the resource selected in step SP179 (SP181). If the monitoring item generator 59 obtains a negative result in this determination, it proceeds to step SP183.
  • the process ID stored in the process ID column 54B is selected from the entries of the monitoring item table 54 (FIG. 12).
  • the resource ID stored in the resource ID column 54D matches the resource ID of the resource selected in step SP179, and is stored in the application rule ID column 54F
  • An entry whose rule ID matches the monitoring location / item selection rule ID of the monitoring location / item selection rule selected in step SP180 is detected, and the monitoring item update flag stored in the monitoring item update flag column 54G of the entry is set to “ Change to “delete” (SP182).
  • the monitoring item generation unit 59 determines whether or not the processing of Step SP180 to Step SP182 has been executed for all the monitoring locations / item selection rules registered in the monitoring location / item selection rule table 53 (SP183). ).
  • the monitoring item generation unit 59 When the monitoring item generation unit 59 obtains a negative result in this determination, it returns to step SP1802, and thereafter repeats the processing of step SP180 to step SP183.
  • the monitoring item generation unit 59 eventually obtains a positive result at step SP183 by completing the processing of step SP180 to step SP182 for all the monitoring points / item selection rules registered in the monitoring location / item selection rule table 53. Then, it is determined whether or not the processing in steps SP179 to SP183 has been executed for all resources accessed by the process 33 selected in step SP178 among the resources registered in the resource access information table 47 (SP184). .
  • the monitoring item generation unit 59 When the monitoring item generation unit 59 obtains a negative result in this determination, it returns to step SP179, and thereafter repeats the processing of step SP179 to step SP184.
  • step SP184 When the monitoring item generation unit 59 eventually obtains a positive result in step SP184 by completing the processing of step SP179 to step SP183 for all resources accessed by the process 33 selected in step SP178, it selects the related node selection node. It is determined whether or not the processing of step SP178 to step SP184 has been executed for all the processes 33 for which the related node update flag or the affected node update flag is set to “delete” in the table 52B or the affected node selection node table 52C. (SP185).
  • monitoring item generator 59 If the monitoring item generator 59 obtains a negative result in this determination, it returns to step SP178, and thereafter repeats the processing of step SP178 to step SP185.
  • the monitoring item generation unit 59 eventually performs step SP178 for all processes 33 in which the related node update flag or the affected node update flag is set to “delete” in the related node selected node table 52B or the affected node selected node table 52C.
  • step SP185 When a positive result is obtained in step SP185 by completing the execution of the processing in step SP184, the monitoring item of each resource accessed by the process 33 that accesses the resource whose update flag is set to “deleted” in the resource access information table 47 The process for is terminated.
  • the monitoring item generation unit 59 executes the processing of step SP186 to step SP201, so that the related node update flag or the affected node update flag is displayed on the related node selection node table 52B or the influence node selection node table 52C.
  • a monitoring item for the resource accessed by the process 33 set to “add” or the process 33 accessing the resource whose update flag is set to “delete” on the resource access information table 47 is newly added to the monitoring item table 54. sign up.
  • step SP186 to step SP193 the monitoring item generation unit 59 performs processing on the monitoring item of the resource accessed by the process 33 whose update flag is set to “add” in the related node selection node table 52B.
  • step SP186 is an unprocessed process in which the related node update flag or the affected node update flag is set to “added” on the related node selected node table 52B or the affected node selected node table 52C. 33.
  • step SP190 the process ID of the process 33 selected in step SP186 is stored in the process ID column 54B in the monitoring item table 54, and the resource ID of the resource selected in step SP187 is stored in the resource ID column 54D.
  • the monitoring location / item selection rule ID of the monitoring location / item selection rule selected in step SP188 is stored in the application rule ID column 54F, and the monitoring item update flag stored in the monitoring item update flag column 54G is set to “add”. Add the specified entry.
  • step SP194 to step SP201 the monitoring item generation unit 59 performs processing for the monitoring item of each resource accessed by the process 33 that accesses the resource whose update flag is set to “add” in the resource access information table 47. .
  • step SP194 to step SP201 is the same as that of step SP178 to step SP185 except for the following (A) and (B), and therefore the description thereof is omitted here.
  • the process 33 selected in step SP194 has the same process ID as the process ID stored in the access process ID column 47B of the entry whose update flag of the resource access information table 47 is set to “add”. It is.
  • step SP198 the process ID of the process 33 selected in step SP194 is stored in the process ID column 54B in the monitoring item table 54, and the resource ID of the resource selected in step SP195 is stored in the resource ID column 54D.
  • the monitoring location / item selection rule ID of the monitoring location / item selection rule selected in step SP196 is stored in the application rule ID column 54F, and the monitoring item update flag stored in the monitoring item update flag column 54G is set to “add”. Add the specified entry.
  • generation part 59 will complete
  • generation process if all the processes to step SP201 are completed.
  • the relationship between the processes 33 and the relationship between the processes 33 and resources are changed in the monitoring target device 2.
  • a new monitoring item is selected according to the relationship between the changed processes 33 and the relationship between the processes 33 and the resources without requiring manpower. It is possible to easily change the monitoring items accompanying the change. Therefore, according to the present monitoring system 1, it is possible to simplify the operation and management for a system in which the configuration is frequently changed.
  • an update flag is set for a location that has been updated when the operation information update unit 41, the configuration grasping unit 42, and the monitoring item selection unit 43 execute processing (
  • the update flag is set to “delete” or “add”), and in the next process, the process is performed only for the part where the update flag is set as the result of the previous process.
  • the amount of calculation seen from the whole process can be remarkably reduced. Therefore, according to the present monitoring system 1, the monitoring item selection process for the monitoring target device 2 can be shortened, and the monitoring item can be quickly changed in accordance with the configuration change of the monitoring target device 2.
  • the operation information update unit 41 as an operation information acquisition unit that acquires operation information related to resources and processes 33 in the monitoring target device 2 from the monitoring target device 2 is provided.
  • the operation information update unit 41 actively accesses each monitoring target device 2 periodically or irregularly.
  • the monitoring system 1 may be constructed so that operation information is acquired from these monitoring target devices 2.
  • the process 33 is applied as a node that operates on the monitoring target device 2 and executes processing using resources.
  • the present invention is not limited to this, In short, if an instance of an arbitrary unit that accesses a resource and its mutual relation can be derived from its operation status, various other instances such as threads, OS, and clusters are widely applied. Can do.
  • the present invention is not limited to this, and Alternatively, various other requirements other than these may be used as the starting node condition.
  • the case where the processes 33 communicate with each other via the network 5 has been described as having a direct relationship between the processes 33. Is not limited to this, for example, when the same shared memory is used, when the process 33 is in a parent-child relationship, when the processes 33 communicate with each other without going through the network 5, etc. There may be a direct link. Further, the presence or absence of direct association may be defined by combining a plurality of conditions.
  • a volatile storage medium for storing programs such as the operation information update unit 41, the configuration grasping unit 42, and the monitoring item selection unit 43 for realizing the monitoring item selection function according to this embodiment.
  • programs such as the operation information update unit 41, the configuration grasping unit 42, and the monitoring item selection unit 43 for realizing the monitoring item selection function according to this embodiment.
  • the present invention is not limited to this, and as a storage medium for storing these programs, for example, a CD (Compact Disc), a DVD (Digital Versatile) other than a volatile memory.
  • Discs, BDs (Blu-ray (registered trademark) Discs), disk-shaped storage media such as hard disk devices or magneto-optical disks, nonvolatile semiconductor memories, or other storage media can be widely applied.
  • the present invention can be widely applied to monitoring systems having various configurations.
  • Selection node table for related nodes 52C ... Selection node table for affected nodes, 53 ... Monitoring point / item selection route Table 54 — monitored item table, associated extractor between 55 ?? nodes, 56 ?? origin node search unit, 57 ?? relevant node search unit, 58 ?? affected node search unit, 59 ?? monitoring item generation unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Environmental & Geological Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

【課題】 頻繁に構成変更が行われるシステムに対する運用・管理を簡易化させ得る監視項目選定方法及び装置並びに記憶媒体を提案する。 【解決手段】 監視対象装置内のリソースと、当該監視対象装置上で稼働し、リソースを利用して処理を実行するノードとに関する稼働情報を当該監視対象装置から定期的又は不定期に取得し、取得した稼働情報に基づいて、ノード間の関連性、並びに、ノード及びリソース間の関連性を抽出し、稼働情報と、抽出したノード間の関連性及びノード及びリソース間の関連性と、予め定義された条件とに基づいて、監視対象装置に対する監視項目を選定するようにした。

Description

監視項目選定方法及び装置並びに記憶媒体
 本発明は、監視項目選定方法及び装置並びに記憶媒体に関し、例えば、監視システムに適用して好適なものである。
 システムを安定して稼働させるためには、システムの稼働状態を監視して、障害の予兆を検知することが重要である。障害予兆検知の精度を向上するためには、監視項目の粒度を細かく設定する(監視項目を増やす)必要があるが、一方で、予兆検知に必要な情報を取得することによるシステム負荷や予兆検知に必要な計算量を抑えるためには、監視項目を減らす必要があるというジレンマがある。このようなジレンマに対して、従来では、監視項目の粒度を細かくした後、重要なプロセスや障害の原因となり得るプロセスに監視項目を絞り対応している。
 予兆検知の精度向上のためには、構成に合わせて最適な監視項目を絞り込むことが理想的であるが、クラウド環境のように頻繁に構成が変わる場合、構成変更の度に手動で監視項目を絞り込むことは困難であり、この問題への対応が重要視されている。
 なお、特許文献1には、監視項目を生成するルールを事前に定義しておき、監視対象装置ごとにルールを適用して監視項目を自動で生成する方法が開示されている。
特開2008-033725号公報
 ところが、かかる特許文献1に開示された技術によると、ルールを定義するために監視対象の知識が必要であり、さらにルールを定義するために時間と工数を要する問題がある。また構成依存なルールは、構成変更後にルールを更新する必要があり、頻繁な構成変更に対応できないという問題もある。
 従って、例えば、監視対象装置の構成変更に伴って監視項目の変更を容易に行うことができれば、特に頻繁に構成変更が行われるシステムに対する運用・管理を簡易化させ得るものと考えられる。
 本発明は以上の点を考慮してなされたもので、頻繁に構成変更が行われるシステムに対する運用・管理を簡易化させ得る監視項目選定方法及び装置並びに記憶媒体を提案しようとするものである。
 かかる課題を解決するため本発明においては、監視項目選定方法において、監視対象装置内のリソースと、当該監視対象装置上で稼働し、前記リソースを利用して処理を実行するノードとに関する稼働情報を当該監視対象装置から定期的又は不定期に取得する第1のステップと、前記監視項目選定装置が、取得した前記稼働情報に基づいて、前記ノード間の関連性、並びに、前記ノード及び前記リソース間の関連性を抽出する第2のステップと、前記監視項目選定装置が、前記稼働情報と、抽出した前記ノード間の関連性及び前記ノード及び前記リソース間の関連性と、予め定義された条件とに基づいて、前記監視対象装置に対する監視項目を選定する第3のステップとを設けるようにした。
 また本発明においては、監視対象装置内のリソースと、当該監視対象装置上で稼働し、前記リソースを利用して処理を実行するノードとに関する稼働情報を当該監視対象装置から定期的又は不定期に取得する稼働情報取得と、取得した前記稼働情報に基づいて、前記ノード間の関連性、並びに、前記ノード及び前記リソース間の関連性を抽出する構成把握部と、前記稼働情報と、抽出された前記ノード間の関連性及び前記ノード及び前記リソース間の関連性と、予め定義された条件とに基づいて、前記監視対象装置に対する監視項目を選定する監視項目選定部とを設けるようにした。
 さらに本発明においては、監視対象装置に対する監視項目を選定する監視項目選定装置に、前記監視対象装置内のリソースと、当該監視対象装置上で稼働し、前記リソースを利用して処理を実行するノードとに関する稼働情報を当該監視対象装置から定期的又は不定期に取得する第1のステップと、取得した前記稼働情報に基づいて、前記ノード間の関連性、並びに、前記ノード及び前記リソース間の関連性を抽出する第2のステップと、
 前記稼働情報と、抽出した前記ノード間の関連性及び前記ノード及び前記リソース間の関連性と、予め定義された条件とに基づいて、前記監視対象装置に対する前記監視項目を選定する第3のステップとを備える処理を実行させるプログラムを記憶媒体に格納するようにした。
 かかる本発明の監視項目選定方法及び装置並びに記憶媒体によれば、監視対象装置においてノード間の関連性や、ノード及びリソース間の関連性に変更が加えられた場合に、人手を要することなく、変更後のノード間の関連性や、ノード及びリソース間の関連性に応じた新たな監視項目が選定されるため、監視対象装置の構成変更に伴う監視項目の変更を容易に行うことができる。
 本発明によれば、頻繁に構成変更が行われるシステムに対する運用・管理を簡易化させることができる。
本実施の形態による監視システムの全体構成を示すブロック図である。 監視対象装置の概略構成を示すブロック図である。 監視項目選定装置の概略構成を示すブロック図である。 監視項目蓄積テーブルの構成を示す概念図である。 起点ノード条件テーブルの構成を示す概念図である。 ノード稼働情報テーブルの構成を示す概念図である。 リソースアクセス情報テーブルの構成を示す概念図である。 ノード間直接関連テーブルの構成を示す概念図である。 ノード間可到達関連テーブルの構成を示す概念図である。 (A)は起点ノード用選定ノードテーブルの構成を示す概念図であり、(B)は関連ノード用選定ノードテーブルの構成を示す概念図であり、(C)は影響ノード用選定ノードテーブルの構成を示す概念図である。 監視箇所・項目選定ルールテーブルの構成を示す概念図である。 監視項目テーブルの構成を示す概念図である。 稼働情報送信処理の処理手順を示すフローチャートである。 監視項目情報受信処理の処理手順を示すフローチャートである。 監視項目選定全体処理の処理手順を示すフローチャートである。 稼働情報更新処理の処理手順を示すフローチャートである。 構成把握処理の処理手順を示すフローチャートである。 ノード間直接関連追加処理の処理手順を示すフローチャートである。 ノード間可到達関連追加処理の説明に供する概念図である。 ノード間可到達関連追加処理の説明に供する概念図である。 ノード間可到達関連追加処理の処理手順を示すフローチャートである。 ノード間直接関連削除処理の処理手順を示すフローチャートである。 ノード間可到達関連削除処理の説明に供する概念図である。 ノード間可到達関連削除処理の説明に供する概念図である。 ノード間可到達関連削除処理の説明に供する概念図である。 ノード間可到達関連削除処理の処理手順を示すフローチャートである。 監視項目選定処理の処理手順を示すフローチャートである。 起点ノード検索処理の処理手順を示すフローチャートである。 関連ノード検索処理の処理手順を示すフローチャートである。 影響ノード検索処理の処理手順を示すフローチャートである。 影響ノード検索処理の処理手順を示すフローチャートである。 監視項目生成処理の処理手順を示すフローチャートである。 監視項目生成処理の処理手順を示すフローチャートである。
 以下図面について、本発明の一実施の形態を詳述する。
(1)本実施の形態による監視システムの構成
 図1において、1は全体として本実施の形態による監視システムを示す。この監視システム1は、複数の監視対象装置2と、監視装置3と、監視項目選定装置4とがネットワーク5を介して相互に接続されて構成される。
 監視対象装置2は、例えばデータベースサーバやアプリケーションサーバ又はクライアントなどの計算機であり、図2に示すように、内部バス10を介して相互に接続されたCPU(Central Processing Unit)11、メモリ12、ストレージ装置13及びネットワークインタフェース14を備えて構成される。
 CPU11は、監視対象装置2全体の動作制御を司るプロセッサである。またメモリ12は、例えば揮発性メモリなどから構成され、各種プログラムや各種データを記憶するために利用される。ストレージ装置13は、例えばハードディスク装置等の不揮発性の大容量記憶デバイスから構成される。ストレージ装置13に格納されたプログラムやデータが監視対象装置2の起動時や必要時にメモリ12に読み出され、メモリ12に読み出されたプログラムをCPU11が実行することにより、監視対象装置2による各種処理が実行される。
 ネットワークインタフェース14は、ネットワーク5を介した監視装置3や、監視項目選定装置4、又は、図示しないクライアント等の他の通信機器との通信時におけるプロトコル変換を行う物理インタフェースであり、例えばNIC(Network Interface Card)などから構成される。ネットワークインタフェース14は、監視対象装置2をネットワーク5に接続するための物理的なポートを1又は複数備えており、これらポート14Aにそれぞれネットワーク5上で固有のアドレス(以下、IP(Internet Protocol)アドレスとする)が付与される。また各ポート14Aには、それぞれ固有のポート番号が付与されて管理される。
 監視装置3は、各監視対象装置2の稼働状態を監視する機能を有する計算機である。監視装置3は、ネットワーク5を介して各監視対象装置2から稼働情報をそれぞれ収集し、収集した稼働情報に基づいて、これら監視対象装置2の稼働状態について、後述のように監視項目選定装置4から通知される監視項目を監視する。
 一方、監視項目選定装置4は、監視対象装置2の監視項目を選定し、選定した監視項目を監視装置3に通知する機能を有するサーバ装置であり、図3に示すように、内部バス20を介して相互に接続されたCPU21、メモリ22、ストレージ装置23及びネットワークインタフェース24を備えて構成される。
 CPU21は、監視項目選定装置4全体の動作制御を司るプロセッサである。またメモリ22は、例えば揮発性メモリなどから構成され、各種プログラムや各種データを記憶するために利用される。ストレージ装置23は、例えばハードディスク装置等の不揮発性の大容量記憶デバイスから構成される。ストレージ装置23に格納されたプログラムやデータが監視項目選定装置4の起動時や必要時にメモリ22に読み出され、メモリ22に読み出されたプログラムをCPU21が実行することにより、監視項目選定装置4による後述のような各種処理が実行される。
 ネットワークインタフェース24は、ネットワーク5を介した監視対象装置2や監視装置3との通信時におけるプロトコル変換を行う物理インタフェースであり、例えばNICなどから構成される。
(2)監視項目選定機能
 次に、監視項目選定装置4に搭載された監視項目選定機能について説明する。本監視項目選定装置4は、監視対象装置2上で稼働するプロセス間の関連性と、プロセス及びリソース間の関連性(アクセス関係)とに着目して、監視対象装置2の稼働状況から起点ノード、関連ノード及び影響ノードをそれぞれ抽出し、抽出結果に基づいてその監視対象装置2の監視項目を選定する監視項目選定機能が搭載されている。
 ここで、起点ノードとは、予めユーザが定義した条件に当てはまるプロセスを指し、関連ノードとは、起点ノードと関連があるプロセスを指す。本実施の形態の場合、プロセスが起点ノードとネットワーク5を介して通信を行っている場合に「関連」があるとしており、そのようなプロセスがその起点ノードの関連ノードとなる。なお、以下においては、起点ノード及び関連ノードがネットワーク5を介して通信を行っている場合に、これら起点ノード及び関連ノードに「直接的な関連」があると呼ぶものとする。また本実施の形態においては、関連ノードとネットワーク5を介して通信を行っているプロセスも関連ノードとして取り扱う。以下においては、関連ノードと「関連」がある関連ノードと、起点ノードとの関係を「間接的な関連」と呼ぶものとする。
 また影響ノードとは、起点ノード及び関連ノードに影響を与えるリソースを指す。本実施の形態の場合、起点ノード及び関連ノードと同じリソースを利用しているプロセスを「起点ノード及び関連ノードに影響を与える」としており、そのようなプロセスがその起点ノード及び関連ノードの影響ノードとなる。
 以上のような本実施の形態による監視項目選定機能を実現するための手段として、図2に示すように、各監視対象装置2のメモリ12には、プログラムとして、監視対象装置入出力部30及び稼働情報取得部31が格納されると共に、テーブルとして、監視項目蓄積テーブル32が格納されている。
 監視対象装置入出力部30は、ネットワークインタフェース14を介して入出力するコマンド及びデータの受信処理や送信処理を実行するプログラムであり、受信処理を実行する受信部30Aと、送信処理を実行する送信部30Bとから構成される。
 また稼働情報取得部31は、自監視対象装置2の稼働情報を収集する機能を有するプログラムである。稼働情報取得部31は、プロセス33や、OS(Operating System)又はハードウェアなどから必要な稼働情報を取得し、取得した稼働情報を定期的又は不定期に監視項目選定装置4に送信する。
 監視項目蓄積テーブル32は、監視項目選定装置4により選定された監視項目を監視対象装置2側で記憶しておくために利用されるテーブルである。監視対象装置2は、この監視項目蓄積テーブル32に登録されている監視項目に関する稼働情報を収集して、監視装置3に送信する。
 この監視項目蓄積テーブル32は、図4に示すように、プロセスID欄32A、リソース欄32B及び取得情報欄32Cから構成される。このうちプロセスID欄32Aには、自監視対象装置2内で稼働するプロセス33のプロセスIDが格納され、リソース欄32Bには、対応するプロセス33が利用するリソースの名前が格納される。また取得情報欄32Cには、対応するリソースについて取得すべき稼働情報の種類が格納される。
 従って、図4の例の場合、例えば、「1」というプロセスIDが付与されたプロセス33が利用する「/dev/sda」というリソースの「スループット」を稼働情報として取得すべきことが示されている。
 一方、図3に示すように、監視項目選定装置4のメモリ22には、プログラムとして、監視項目選定装置入出力部40、稼働情報更新部41、構成把握部42及び監視項目選定部43が格納され、テーブルとして、起点ノード条件テーブル44と、稼働情報蓄積テーブル45を構成するノード稼働情報テーブル46及びリソースアクセス情報テーブル47と、構成テーブル48を構成するノード間直接関連テーブル49及びノード間可到達関連テーブル50と、監視項目選定テーブル51を構成する選定ノードテーブル52、監視箇所・項目選定ルールテーブル53及び監視項目テーブル54とが格納されている。
 監視項目選定装置入出力部40は、ネットワークインタフェース24を介して入出力するコマンド及びデータの受信処理や送信処理を実行するプログラムであり、受信処理を実行する受信部40Aと、送信処理を実行する送信部40Bとから構成される。
 稼働情報更新部41は、各監視対象装置2からそれぞれ定期的に送信されるその監視対象装置2の稼働情報に基づいて、監視対象装置2の監視対象のプロセスやリソース等の構成が変更された場合に、これに応じてノード稼働情報テーブル46やリソースアクセス情報テーブル47を更新する機能を有するプログラムである。
 構成把握部42は、監視対象装置2の構成を把握するためのプログラムであり、ノード間関連抽出部55を備える。ノード間関連抽出部55は、稼働情報更新部41によりノード稼働情報テーブル46やリソースアクセス情報テーブル47が更新された場合に、更新後の各プロセス33(図2)間の関連を抽出する機能を有するプログラムである。ノード間関連抽出部55は、構成が変更された後の監視対象装置2において起点ノードとすべきプロセス33や、各プロセス33間の関連を抽出し、抽出結果に基づいてノード間直接関連テーブル49やノード間可到達関連テーブル50を必要に応じて更新する。
 監視項目選定部43は、起点ノード検索部56、関連ノード検索部57、影響ノード検索部58及び監視項目生成部59を備えて構成される。
 起点ノード検索部56は、稼働情報更新部41によりノード稼働情報テーブル46が更新された場合に、起点ノード条件テーブル44を参照して、追加されるべき起点ノードや削除されるべき起点ノードを検索(新たに起点ノードとすべきプロセス33や起点ノードとすべきでなくなったプロセス33を検索)する機能を有するプログラムである。起点ノード検索部56は、かかる検索の検索結果に基づいて、選定ノードテーブル52を必要に応じて更新する。
 また関連ノード検索部57は、ノード間可到達関連テーブル50及び選定ノードテーブル52を参照して、起点ノード検索部56の追加又は削除に伴って追加又は削除されるべき関連ノードを検索し、検索結果に基づいて選定ノードテーブル52を更新する機能を有するプログラムである。
 さらに影響ノード検索部58は、リソースアクセス情報テーブル47及び選定ノードテーブル52を参照して、起点ノードや関連ノードの追加又は削除に伴って追加又は削除されるべき影響ノードを検索し、検索結果に基づいて選定ノードテーブル52を更新する機能を有するプログラムである。
 さらに監視項目生成部59は、更新された選定ノードテーブル52及び監視箇所・項目選定ルールテーブル53に基づいて新たな監視項目を生成(決定)する機能を有するプログラムである。この監視項目生成部59により生成された新たな監視項目が監視項目選定装置入出力部40の送信部40Bによりネットワーク5を介して各監視対象装置2にそれぞれ通知される。
 他方、起点ノード条件テーブル44は、予めユーザが設定した起点ノードとすべきプロセス33の条件(以下、これを起点ノード条件と呼ぶ)を管理するために利用されるテーブルであり、図5に示すように、条件ID欄44A、IPアドレス欄44B、ポート番号欄44C及びプロセス名欄44Dから構成される。
 そして条件ID欄44Aには、対応する起点ノード条件に対して付与されたその起点ノード条件に固有の識別子(条件ID)が格納され、IPアドレス欄44Bには、その起点ノード条件において、特定のIPアドレスが付与された監視対象装置2上で稼働するプロセスを起点ノードとすべきことが規定されている場合にそのIPアドレスが格納される。
 またポート番号欄44Cには、対応する起点ノード条件において、上述の特定のIPアドレスが付与された監視対象装置2上の特定のポート番号のポート14A(図2)を介して通信を行うプロセス33を起点ノードとすべきことが規定されている場合にそのポート番号が格納され、プロセス名欄44Dには、対応する起点ノード条件において、特定のプロセス33を起点ノードとすべきことが規定されている場合にそのプロセス33のプロセス名が格納される。
 なお、対応する起点ノード条件において、起点ノードとすべきプロセス33が、特定のIPアドレスと対応付けられていることや、特定のポート番号のポート14Aを介して通信を行うこと、及び又は、特定のプロセス名のプロセス33であることが規定されていない場合、IPアドレス欄44B、ポート番号欄44C及び又はプロセス名欄44Dには、そのIPアドレス、ポート番号及び又はプロセス名が特定されていないことを意味する情報(図5では「任意」)が格納される。
 従って、図5の例の場合、「1」という起点ノード条件は、「192.168.1.3」というIPアドレスが付与された監視対象装置2上で稼働し、「80」というポート番号のポート14Aを介して通信を行うプロセス33を起点ノードとすべき条件であることが示されている。
 ノード稼働情報テーブル46は、上述のように監視対象装置2から定期的に送信される稼働情報のうち、監視対象装置2上で稼働する各プロセス33に関連する稼働情報を記憶保持するために利用されるテーブルであり、図6に示すように、プロセスID欄46A、プロセス名欄46B、IPアドレス欄46C、ポート番号欄46D、通信先IPアドレス欄46E、通信先ポート番号欄46F、稼働ホストID欄46G及び更新フラグ欄46Hから構成される。
 そしてプロセスID欄46Aには、監視対象装置2上で稼働する各プロセス33の識別子(プロセスID)がそれぞれ格納され、プロセス名欄46Bには、対応するプロセス33のプロセス名が格納される。またIPアドレス欄46Cには、対応するプロセス33が稼働する監視対象装置2のIPアドレスが格納され、ポート番号欄46Dには、対応するプロセス33が外部装置と通信を行う際に利用する自監視対象装置2内のポート14A(図2)のポート番号が格納される。
 また通信先IPアドレス欄46Eには、対応するプロセス33が他の監視対象装置2上で稼働するプロセス33と通信を行っている場合に、その通信先のプロセス33が稼働する監視対象装置2のIPアドレスが格納され、通信先ポート番号欄46Fには、その通信先の監視対象装置2における通信先のポート14Aのポート番号が格納される。さらに稼働ホストID欄46Gには、対応するプロセス33が稼働している監視対象装置2の識別子(ホストID)が格納される。
 更新フラグ欄46Hには、対応するプロセス33に関連する構成変更があったか否かを表すフラグ(更新フラグ)が格納される。この場合、更新フラグは、対応するプロセス33に関連する構成に変更がなかった場合には「変更なし」に設定され、対応するプロセス33に関連する構成が変更された場合には更新フラグが「追加」に設定され、対応するプロセス33が削除された場合には「削除」に設定される。この更新フラグは、監視対象装置2の構成が変更された場合に、これに伴って監視項目テーブル54や他のテーブルを更新する処理の過程で利用される。
 従って、図6の例の場合、「1」というプロセスIDのプロセス33は、プロセス名が「database」であり、そのプロセス33が稼働している監視対象装置2のホストIDは「1」、IPアドレスは「192.168.5.7」であり、当該監視対象装置2の「5432」というポート番号のポート14Aを介してIPアドレスが「192.168.2.4」の監視対象装置2上で稼働するプロセスと、当該監視対象装置2内の「55555」というポート番号のポート14Aを介して通信を行っていることが示されている。
 リソースアクセス情報テーブル47は、上述のように監視対象装置2から定期的に送信される稼働情報のうち、当該監視対象装置2内のリソースに関する稼働情報を記憶保持するために利用されるテーブルであり、図7に示すように、リソースID欄47A、アクセスプロセスID欄47B、稼働ホストID欄47C、リソースタイプ欄47D、リソース名欄47E及び更新フラグ欄47Fから構成される。
 そしてリソースID欄47Aには、対応するリソースの識別子(リソースID)が格納され、アクセスプロセスID欄47Bには、そのリソースにアクセス(そのリソースを利用)するプロセス33のプロセスIDが格納される。また稼働ホストID欄47Cには、対応するリソースが搭載された監視対象装置2のホストIDが格納され、リソースタイプ欄47Dには、そのリソースのタイプ(ディスク、ネットワーク、CPU又はメモリなど)が格納される。さらにリソース名欄47Eには、対応するリソースの名称(リソース名)が格納され、更新フラグ欄47Fには、ノード稼働情報テーブル46の更新フラグと同様の更新フラグが格納される。
 従って、図7の例の場合、「1」というリソースIDが付与されたリソースは、「1」というホストIDが付与された監視対象装置2に搭載された「/dev/sda」というリソース名の「1」というプロセスIDが付与されたプロセス33がアクセスする「ディスク」であることが示されている。
 またノード間直接関連テーブル49は、各監視対象装置2上でそれぞれ稼働する各プロセス33間に直接的な関連があるか否かを管理するために利用されるテーブルであり、図8に示すように、各監視対象装置2内で稼働するすべてのプロセス33のプロセスIDが行方向の最上段及び列方向の最左端にそれぞれ列記された対戦表形式のビットマップとして構成される。
 そしてノード間直接関連テーブル49の各欄49Aにはそれぞれフラグが格納されると共に、これらフラグが、その欄49Aを含む行に対応付けられたプロセス33と、その欄49Aを含む列に対応付けられたプロセス33との間で直接的な関連がある場合には「1」に設定され、直接的な関連がない場合には「0」に設定される。
 従って、図8の例の場合、例えばプロセスIDが「1」のプロセス33は、プロセスIDが「3」のプロセス33と直接的な関連があり、プロセスIDが「2」のプロセス33はいずれのプロセス33とも直接的な関連がないことが示されている。
 ノード間可到達関連テーブル50は、各監視対象装置2上でそれぞれ稼働する各プロセス33間の直接的及び間接的な関連を管理するために利用されるテーブルである。このノード間可到達関連テーブル50は、図9に示すように、可到達関連欄50A及び更新フラグ欄50Bから構成される。
 可到達関連欄50Aは、ノード間直接関連テーブル49と同様の構成を有するビットマップとして構成されている。そして可到達関連欄50Aの各欄50AAにはそれぞれフラグが格納され、これらフラグが、その欄50AAを含む行に対応付けられたプロセス33と、その欄50AAを含む列に対応付けられたプロセス33とが、直接的又は間接的な関連を有する場合には「1」に設定され、直接的又は間接的な関連を有さない場合には「0」に設定される。
 また更新フラグ欄50Bも、可到達関連欄50Aと同様の対戦表形式の構成を有する。そして更新フラグ欄50Bの各欄50BAにはそれぞれ更新フラグが格納されると共に、これら更新フラグが、プロセス33やリソースの構成変更に伴って、その欄50BAを含む行に対応付けられたプロセス33と、その欄50BAを含む列に対応付けられたプロセス33との間の直接的又は間接的な関連に変更があったか否かを表す値に設定される。
 具体的には、その欄50BAを含む行に対応付けられたプロセス33と、その欄50BAを含む列に対応付けられたプロセス33との間の直接的又は間接的な関連に変更がない場合には、その欄50BAの更新フラグが「変更なし」に設定され、プロセス33やリソースの構成変更に伴って、これらのプロセス33間に新たな直接的又は間接的な関連ができた場合には、その欄50BAの更新フラグが「追加」に設定される。さらに、プロセス33やリソースの構成変更に伴って、その欄50BAを含む行に対応付けられたプロセス33と、その欄50BAを含む列に対応付けられたプロセス33との間の直接的又は間接的な関連がなくなった場合には、その欄50BAの更新フラグが「削除」に設定される。これらの更新フラグは、監視対象装置2の構成が変更された場合に、これに伴って監視項目テーブル54や他のテーブルを更新する処理の過程で利用される。
 従って、図9の例の場合、例えばプロセスIDが「1」のプロセス33は、プロセスIDが「1」、「3」及び「5」の各プロセス33との間に直接的又は間接的な関連があり、プロセスIDが「2」のプロセス33は、プロセスIDが「2」のプロセス33とのみ直接的又は間接的な関連があることが示されている。
 選定ノードテーブル52は、図10(A)に示す起点ノード用選定ノードテーブル52Aと、図10(B)に示す関連ノード用選定ノードテーブル52Bと、図10(C)に示す影響ノード用選定ノードテーブル52Cとから構成される。
 このうち起点ノード用選定ノードテーブル52Aは、起点ノードとして選定されたプロセス33を管理するために利用されるテーブルであり、図10(A)に示すように、プロセスID欄52AA、合致条件ID欄52AB及び合致条件更新フラグ欄52ACから構成される。
 そしてプロセスID欄52AAには、起点ノードに選定された各プロセス33のプロセスIDが格納され、合致条件ID欄52ABには、対応するプロセス33が合致する起点ノード条件(図5参照)の条件IDが格納される。
 また合致条件更新フラグ欄52ACには、対応するプロセス33に構成変更があった場合に、そのプロセス33をそのまま起点ノードとしておくべきか否かを表すフラグ(以下、これを合致条件更新フラグと呼ぶ)格納される。実際上、合致条件更新フラグは、そのプロセス33をそのまま起点ノードとすべき場合には「更新なし」に設定され、そのプロセス33が起点ノードとすべきでなくなった場合には「削除」に設定される。さらに合致条件更新フラグは、そのプロセス33を新たな起点ノードとすべき場合には「追加」に設定される。この合致条件更新フラグは、監視対象装置2の構成が変更された場合に、これに伴って監視項目テーブル54や他のテーブルを更新する処理の過程で利用される。
 従って、図10(A)の例の場合、「3」というプロセスIDのプロセス33は、「3」という起点ノード条件に合致した、新たに追加された起点ノードであることが示されている。
 また関連ノード用選定ノードテーブル52Bは、関連ノードとして選定されたプロセス33を管理するために利用されるテーブルであり、図10(B)に示すように、プロセスID欄52BA、関連ノードID欄52BB及び関連ノード更新フラグ欄52BCから構成される。
 そしてプロセスID欄52BAには、起点ノードに選定されたプロセス33のプロセスIDが格納され、関連ノードID欄52BBには、関連ノード検索部57(図3)により検出された対応する起点ノードの関連ノードとなるプロセス33のプロセスIDが格納される。
 また関連ノード更新フラグ欄52BCには、監視対象装置2の構成が変更された場合に、対応するプロセス33をそのまま関連ノードとしておくべきか否かを表すフラグ(以下、これを関連ノード更新フラグと呼ぶ)が格納される。この関連ノード更新フラグは、そのプロセス33をそのまま関連ノードとすべき場合には「更新なし」に設定され、そのプロセス33が関連ノードとすべきでなくなった場合には「削除」に設定される。さらに関連ノード更新フラグは、そのプロセス33が新たな関連ノードとすべき場合には「追加」に設定される。この関連ノード更新フラグは、監視対象装置2の構成が変更された場合に、これに伴って監視項目テーブル54や他のテーブルを更新する処理の過程で利用される。
 従って、図10(B)の例の場合、「3」というプロセスIDのプロセス33は、「1」、「3」、「5」というプロセスIDのプロセス33と直接的な関連があり、このうち「5」というプロセスIDとの「関連」は新たに追加されたものであることが示されている。
 影響ノード用選定ノードテーブル52Cは、影響ノードとして選定されたプロセス33を管理するために利用されるテーブルであり、図10(C)に示すように、プロセスID欄52CA、関連ノードID欄52CB、影響ノードID欄52CC及び影響ノード更新フラグ欄52CDから構成される。
 そして影響ノードID欄52CCには、影響ノードとして選定されたプロセス33のプロセスIDが格納され、関連ノードID欄52CCには、その影響ノードの関連ノードとなるプロセス33(影響ノードと同じリソースにアクセスするプロセス33)のプロセスIDが格納される。またプロセスID欄52CAには、その関連ノードの起点ノードとなるプロセス33のプロセスIDが格納される。
 さらに影響ノード更新フラグ欄52CDには、監視対象装置2の構成が変更された場合に、対応するリソースが依然として影響ノードであるか否かを表すフラグ(以下、これを影響ノード更新フラグと呼ぶ)が格納される。この影響ノード更新フラグは、そのリソースが依然として影響ノードである場合には「更新なし」に設定され、そのリソースが影響ノードでなくなった場合には「削除」に設定される。さらに影響ノード更新フラグは、そのリソースが新たに影響ノードとなった場合には「追加」に設定される。この影響ノード更新フラグは、監視対象装置2の構成が変更された場合に、これに伴って監視項目テーブル54や他のテーブルを更新する処理の過程で利用される。
 従って、図10(C)の例の場合、「2」というプロセスIDのプロセスが、起点ノードである「3」というプロセスIDのプロセス33と、その関連ノードである「5」というプロセスIDのプロセス33との影響ノードであることが示されている。
 監視箇所・項目選定ルールテーブル53は、予め定められたリソースごとの監視箇所・項目を定めたルール(以下、これを監視箇所・項目選定ルールと呼ぶ)を記憶保持するために利用されるテーブルであり、図11に示すように、ルールID欄53A、リソースタイプ欄53B及び取得項目欄53Cから構成される。
 そしてルールID欄53Aには、各監視箇所・項目選定ルールにそれぞれ付与された識別子(ルールID)が格納され、リソースタイプ欄53Bには、その監視箇所・項目選定ルールの対象となるリソースのタイプ(ディスク、ネットワーク、CPU又はメモリなど)が格納される。また取得項目欄53Cには、対応する監視箇所・項目選定ルールにおいて規定された監視項目が格納される。
 従って、図11の例の場合、「1」というルールIDが付与された監視箇所・項目選定ルールは、「ディスク」について、「対象ディスクのスループット」を監視項目とすべきルールであることが示されている。
 監視項目テーブル54は、監視項目生成部59により選定された監視対象を管理するために利用されるテーブルであり、図12に示すように、監視項目ID欄54A、プロセスID欄54B、稼働ホストID欄54C、リソースID欄54D、取得項目欄54E、適用ルールID欄54F及び監視項目更新フラグ欄54Gから構成される。
 そして監視項目ID欄54Aには、対応する監視項目に対して付与された識別子(監視項目ID)が格納され、プロセスID欄54Bには、その監視項目に関連するプロセス33のプロセスIDが格納される。また稼働ホストID欄54Cには、そのプロセス33が稼働する監視対象装置2のホストIDが格納される。
 またリソースID欄54Dには、その監視項目の対象となるリソースのリソースIDが格納され、取得項目欄54Eには、そのリソースについて稼働情報を取得すべき項目が格納される。さらに適用ルールID欄54Fには、監視箇所・項目選定ルールテーブル53上で管理されている監視箇所・項目選定ルールのうちの対応する監視箇所・項目選定ルールのルールIDが格納される。
 さらに監視項目更新フラグ欄54Gには、対応する監視対象装置2の構成変更に伴って、対応する監視項目をそのまま監視項目として選定しておくべきか否かを表すフラグ(以下、これを監視項目更新フラグと呼ぶ)が格納される。実際上、監視項目更新フラグは、その監視項目をそのまま監視項目として選定しておくべき場合には「更新なし」に設定され、その監視項目を監視項目として選定しておくべきでなくなった場合には「削除」に設定される。さらに監視項目更新フラグは、その監視項目が新たに生成(選定)されたものである場合には「追加」に設定される。この監視項目ノード更新フラグは、監視対象装置2の構成が変更された場合に、これに伴って監視項目テーブル54や他のテーブルを更新する処理の過程で利用される。
 従って、図12の例の場合、「1」という監視項目IDの監視項目は、「1」というルールIDが付与された監視箇所・項目選定ルールを適用したもので、「1」というホストIDが付与された監視対象装置2上で稼働する「1」というプロセスIDが付与されたプロセス33がアクセスする「1」というリソースIDが付与されたリソース(ここでは「ディスク」)の「スループット」を監視項目とすべきことが規定されていることが示されている。
(3)監視項目選定機能に関連する各種処理
 次に、かかる本実施の形態による監視項目選定機能に関連して実行される各種処理の内容について説明する。なお、以下においては、各種処理の処理主体を「プログラム(……部)」として説明するが、実際上はそのプログラムに基づいて監視対象装置2のCPU11(図2)や監視項目選定装置4のCPU21(図3)がその処理を実行することは言うまでもない。
(3-1)監視対象装置における各種処理
(3-1-1)稼働情報送信処理
 図13は、各監視対象装置2の稼働情報取得部31(図2)によりそれぞれ実行される稼働情報送信処理の処理手順を示す。稼働情報取得部31は、この図13に示す処理手順に従って、定期的に、自監視対象装置2の稼働情報を取得して監視項目選定装置4に送信する。
 実際上、稼働情報取得部31は、この図13に示す稼働情報取得処理を開始すると、まず、前回、自監視対象装置2の稼働情報を監視項目選定装置4に送信してから一定時間以上経過したか否かを判断する(SP1)。
 そして稼働情報取得部31は、前回、稼働情報を監視項目選定装置4に送信してから一定時間以上経過すると、プロセス33(図2)、OS又はハードウェアなどから必要な稼働情報を取得し(SP2)、取得した稼働情報を監視対象装置入出力部30(図2)の送信部30B(図2)を介して監視項目選定装置4に送信する(SP2)。この後、稼働情報取得部31は、ステップSP1に戻り、これ以降、同様の処理を繰り返す。
(3-1-2)監視項目情報受信処理
 図14は、監視対象装置2の監視対象装置入出力部30の受信部30Aにより実行される監視項目情報受信処理の処理手順を示す。
 受信部30Aは、監視項目選定装置4から送信される上述の監視項目情報を受信するのを待ち受け(SP10)、やがて監視項目情報を受信すると、受信した監視項目情報に基づいて監視項目蓄積テーブル32(図4)を更新する(SP11)。この後、受信部30Aは、ステップSP10に戻り、これ以降、同様の処理を繰り返す。
(3-2)監視項目選定装置における各種処理
(3-2-1)監視項目選定装置における処理の流れ
 一方、図15は、監視項目選定装置4において実行される監視項目選定全体処理の流れを示す。監視項目選定装置4は、この図15の流れに従って監視項目を選定し、選定した監視項目を監視装置3や監視対象装置2に通知する。
 実際上、監視項目選定装置4の電源が投入されると、この監視項目選定全体処理が開始され、監視項目選定装置入出力部40(図3)が、監視対象装置2から稼働情報が送信されてくるのを待ち受ける(SP20)。そして監視項目選定装置入出力部40は、やがていずれかの監視対象装置2から稼働情報が送信されてくると、受信した稼働情報を稼働情報更新部41(図3)に転送する。
 稼働情報更新部41は、監視項目選定装置入出力部40から転送される稼働情報を受信すると、受信した稼働情報に基づいて、稼働情報蓄積テーブル45のノード稼働情報テーブル46(図6)及びリソースアクセス情報テーブル47(図7)を必要に応じて更新する(SP21)。
 この後、構成把握部42のノード間関連抽出部55が、ノード稼働情報テーブル46を参照して、ノード稼働情報テーブル46のいずれかの更新フラグ欄46H(図6)に「更新なし」以外の更新フラグが格納されたエントリ(行)が存在するか否かを判定する(SP22)。
 この判断で肯定結果を得ることは、その稼働情報を送信してきた監視対象装置2にプロセス33に関する何らかの構成変更があったことを意味する。かくして、このときノード間関連抽出部55は、稼働情報更新部41により更新されたノード稼働情報テーブル46の更新内容に応じて、構成テーブル48のノード間直接関連テーブル49(図8)及びノード間可到達関連テーブル50(図9)を更新する(SP23)。
 続いて、監視項目選定部43が、更新後のノード稼働情報テーブル46及びリソースアクセス情報テーブル47と、監視箇所・項目選定ルールテーブル53(図11)、更新後のノード間直接関連テーブル49及びノード間可到達関連テーブル50とに基づいて、今後監視すべき監視項目を選定し、選定結果に基づいて監視項目テーブル54(図12)を更新する(SP24)。
 具体的に、このステップSP24では、監視項目選定部43の起点ノード検索部56が、ノード稼働情報テーブル46及び起点ノード条件テーブル44に基づいて起点ノードとすべきプロセスを検索し、検索結果に基づいて起点ノード用選定ノードテーブル52A(図10(A))を必要に応じて更新する。
 また関連ノード検索部57が、更新後の起点ノード用選定ノードテーブル52A及び更新後のノード間可到達関連テーブル50に基づいて、起点ノード検索部56により検出された起点ノードごとの関連ノードをそれぞれ検索し、検索結果に基づいて関連ノード用選定ノードテーブル52B(図10(B))を必要に応じて更新する。
 さらに影響ノード検索部58が、更新後の関連ノード用選定ノードテーブル52B及び更新後のリソースアクセス情報テーブル47に基づいて、関連ノード検索部57により検出された関連ノードの影響ノードを検索し、検索結果に基づいて、影響ノード用選定ノードテーブル52C(図10(C))を更新する。
 さらに、この後、監視項目生成部59が、更新後の関連ノード用選定ノードテーブル52B、リソースアクセス情報テーブル47及び監視箇所・項目選定ルールテーブル53に基づいて、その後監視すべき監視項目を選定し、選定結果に基づいて監視項目テーブル54を更新する。
 この後、監視項目選定装置入出力部40が、監視項目テーブル54に登録された監視項目に関する情報を対応する監視対象装置2に送信し(SP25)、さらに稼働情報更新部41、ノード間関連抽出部55、起点ノード検索部56、関連ノード検索部57、影響ノード検索部58及び監視項目生成部59が、それぞれ対応するノード稼働情報テーブル46、リソースアクセス情報テーブル47、ノード間可到達関連テーブル50、選定ノードテーブル52、監視項目テーブル54を更新する(SP26)。
 具体的に、ステップSP26において、稼働情報更新部41は、ノード稼働情報テーブル46及びリソースアクセス情報テーブル47の更新フラグが「削除」に設定されたエントリを削除すると共に、更新フラグが「追加」に設定されたエントリについては、当該更新フラグを「変更なし」に更新する。
 またノード間関連抽出部55は、ノード間可到達関連テーブル50の更新フラグ欄50B内の「削除」又は「追加」に設定されている更新フラグをすべて「更新なし」に更新する。
 さらに起点ノード検索部56、関連ノード検索部57及び影響ノード検索部58は、対応する起点ノード用選定ノードテーブル52A、関連ノード用選定ノードテーブル52B又は影響ノード用選定ノードテーブル52Cにおいて、合致条件更新フラグ、関連ノード更新フラグ又は影響ノード更新フラグが「削除」に設定されたエントリを削除すると共に、合致条件更新フラグ、関連ノード更新フラグ又は影響ノード更新フラグが「追加」に設定されたエントリについては、当該合致条件更新フラグ、関連ノード更新フラグ又は影響ノード更新フラグを「変更なし」に更新する。
 さらに監視項目生成部59は、監視項目テーブル54の監視項目更新フラグが「削除」に設定されたエントリを削除すると共に、監視項目更新フラグが「追加」に設定されたエントリについては、当該監視項目更新フラグを「変更なし」に更新する。
 そして監視項目選定装置4は、以上の一連の処理が完了すると、この監視項目選定全体処理を終了する。
(3-2-2)稼働情報更新部の処理
 図16は、上述した監視項目選定全体処理(図15)のステップSP21において稼働情報更新部41(図3)により実行される稼働情報更新処理の処理手順を示す。
 稼働情報更新部41は、いずれかの監視対象装置2から送信されてきた稼働情報が監視項目選定装置入出力部40から転送されると、この図16に示す稼働情報更新処理を開始し、まず、転送されてきた稼働情報に基づいてノード稼働情報テーブル46を必要に応じて更新する(SP30)。
 具体的に、稼働情報更新部41は、その稼働情報を送信してきた監視対象装置2のホストIDを当該稼働情報から抽出し、抽出したホストIDと同じ稼働ホストIDが稼働ホストID欄46G(図6)に格納されているノード稼働情報テーブル46のすべてのエントリについて、以下の処理を実行する。
(A)その稼働情報に含まれる1つのプロセス33に関する情報と、登録情報とが完全一致するエントリについては、更新フラグを「更新なし」に設定する。
(B)その稼働情報に含まれる1つのプロセス33に関する情報と、登録情報とが完全一致するエントリが存在しない場合には、ノード稼働情報テーブル46に新規にエントリを追加し、そのエントリにそのプロセス33の情報を登録すると共に、そのエントリの更新フラグを「追加」に設定する。
(C)上記(A)及び(B)のいずれにも当てはまらないエントリについては、更新フラグを「削除」に設定する。
 以上の処理により、かかる監視対象装置2上で稼働するプロセス33が削除された場合や、当該プロセス33の通信先に変更があった場合に、そのプロセス33に対応するノード稼働情報テーブル46上のエントリの更新フラグが「削除」に設定されると共に、かかる監視対象装置2上で新たなプロセス33が稼働するようになった場合に、そのプロセス33に対応するエントリがノード稼働情報テーブル46に追加され、そのエントリの更新フラグが「追加」に設定される。
 続いて、稼働情報更新部41は、そのとき転送されてきた稼働情報に基づいて、リソースアクセス情報テーブル47を更新する(SP31)。
 具体的に、稼働情報更新部41は、ステップSP30において稼働情報から抽出したホストIDと同じ稼働ホストIDが稼働ホストID欄に格納されているリソースアクセス情報テーブル47のすべてのエントリについて、以下の処理を実行する。
(A)その稼働情報に含まれる1つのリソースに関する情報と、登録情報とが完全一致するエントリについては、更新フラグを「更新なし」に設定する。
(B)その稼働情報に含まれる1つのリソースに関する情報と、登録情報とが完全一致するエントリが存在しない場合には、リソースアクセス情報テーブル47に新規にエントリを追加し、そのエントリにそのリソースの情報を登録すると共に、そのエントリの更新フラグを「追加」に設定する。
(C)上記(A)及び(B)のいずれにも当てはまらないエントリについては、更新フラグを「削除」に設定する。
 以上の処理により、かかる監視対象装置2のリソースが削除された場合に、そのリソースに対応するリソースアクセス情報テーブル47上のエントリの更新フラグが「削除」に設定されると共に、かかる監視対象装置2に新たなリソースが追加された場合には、そのリソースに対応するエントリがリソースアクセス情報テーブル47に追加され、そのエントリの更新フラグが「追加」に設定される。
 そして稼働情報更新部41は、この後、この稼働情報更新処理を終了する。
(3-2-3)構成把握部の処理
(3-2-3-1)構成把握処理
 一方、図17は、上述した監視項目選定全体処理(図15)のステップSP23においてノード間関連抽出部55(図3)により実行される構成把握処理の処理手順を示す。
 ノード間関連抽出部55は、定期的にこの図17に示す構成把握処理を開始し、まず、ノード稼働情報テーブル46に登録されたプロセス33のうち、更新フラグが「追加」に設定された未処理のプロセス(以下、これを追加対象プロセスと呼ぶ)33を1つ選択する(SP40)。
 続いて、ノード間関連抽出部55は、ステップSP40において選択した追加対象プロセスとネットワーク5(図1)を介して通信を行うプロセス33をノード稼働情報テーブル46上で検索し、検索結果に基づいてノード間直接関連テーブル49を更新する(SP41)。
 またノード間関連抽出部55は、ステップSP41で更新したノード間直接関連テーブル46を参照して、ステップSP40において選択した追加対象プロセス33と直接的及び間接的な関連を有するプロセス33を検索し、検索結果に基づいてノード間可到達関連テーブル50を更新する(SP42)。
 この後、ノード間関連抽出部55は、ノード稼働情報テーブル46に登録されているすべての追加対象プロセス33についてステップSP41及びステップSP42の処理を実行し終えたか否かを判断する(SP43)。そしてノード間関連抽出部55は、この判断で否定結果を得るとステップSP40に戻り、この後ステップSP40~ステップSP43の処理を繰り返す。
 そしてノード間関連抽出部55は、やがてノード稼働情報テーブル46に登録されているすべての追加対象プロセス33についてステップSP41及びステップSP42の処理を実行し終えることによりステップSP43で肯定結果を得ると、ノード稼働情報テーブル46に登録されたプロセスのうち、更新フラグが「削除」に設定された未処理のプロセス(以下、これを削除対象プロセスと呼ぶ)33を1つ選択する(SP44)。
 続いて、ノード間関連抽出部55は、ステップSP44において選択した削除対象プロセス33と直接的な関連を有するプロセス33をノード稼働情報テーブル46上で検索し、検索結果に基づいてノード間直接関連テーブル49を更新する(SP45)。
 またノード間関連抽出部55は、ステップSP45で更新したノード間直接関連テーブル49を利用して、ステップSP44において選択した削除対象プロセス33と直接的オ及び間接的な関連を有するプロセス33を検索し、検索結果に基づいてノード間可到達関連テーブル50を更新する(SP46)。
 この後、ノード間関連抽出部55は、ノード稼働情報テーブル46に登録されているすべての削除対象プロセス33についてステップSP45及びステップSP46の処理を実行し終えたか否かを判断する(SP47)。そしてノード間関連抽出部55は、この判断で否定結果を得るとステップS44Pに戻り、この後ステップSP44~ステップSP47の処理を繰り返す。
 そしてノード間関連抽出部55は、やがてノード稼働情報テーブル46に登録されているすべての削除対象プロセス33についてステップSP45及びステップSP46の処理を実行し終えることによりステップSP47で肯定結果を得ると、この構成把握処理を終了する。
(3-2-3-2)ノード間直接関連追加処理
 図18は、上述した構成把握処理(図17)のステップSP41においてノード間関連抽出部55により実行されるノード間直接関連追加処理の処理手順を示す。
 ノード間関連抽出部55は、構成把握処理のステップSP41に進むと、この図18に示すノード間直接関連追加処理を開始し、まず、ノード間直接関連テーブル49を参照して、そのとき対象としている追加対象プロセス33がノード間直接関連テーブル49に登録済みであるか否かを判断する(SP50)。
 そしてノード間関連抽出部55は、この判断で肯定結果を得るとステップSP52に進む。これに対してノード間関連抽出部55は、ステップSP50の判断で否定結果を得ると、ノード間直接関連テーブル49にそのとき対象としている追加対象プロセス33に対応する行及び列を追加し、追加した行及び列内のすべての欄49A(図8)を「0」で埋める(SP51)。
 続いて、ノード間関連抽出部55は、そのとき対象としている追加対象プロセス33とネットワーク5を介して通信を行っているプロセス33をノード稼働情報テーブル46上で検索する(SP52)。具体的に、ノード間関連抽出部55は、ノード稼働情報テーブル46に登録されているプロセス33のうち、そのとき対象としている追加対象プロセス33のIPアドレス及びポート番号の組が、通信先IPアドレス欄46E(図6)に格納されているIPアドレスと、通信先ポート番号欄46F(図6)に格納されているポート番号との組と一致するプロセス33を検索する。
 この後、ノード間関連抽出部55は、ステップSP52の検索の結果、該当するプロセス33を検出できたか否かを判断する(SP53)。そしてノード間関連抽出部55は、この判断で否定結果を得ると、このノード間関連追加処理を終了して構成把握処理に戻る。
 これに対してノード間関連抽出部55は、ステップSP53の判断で肯定結果を得ると、ステップSP52の検索により検出したすべてのプロセス33について、ノード間直接関連テーブル49の各欄49Aに格納された各フラグのうち、そのプロセス33に対応する列(Y列とする)と、そのとき対象としている追加対象プロセス33に対応する行(X行とする)とが交差する箇所のフラグ(X行Y列のフラグ)を「1」に更新する(SP54)。
 そしてノード間関連抽出部55は、この後、このノード間直接関連追加処理を終了して構成把握処理に戻る。
(3-2-3-3)ノード間可到達関連追加処理
 次に、構成把握処理(図17)のステップSP42においてノード間関連抽出部55により実行されるノード間直接関連追加処理を説明する。これに際して、まず、追加対象プロセス33と直接的又は間接的な関連を有するプロセス33の検出手法について説明する。
 最初に、可到達行列について説明する。例えば、図8のノード間直接関連テーブル49は、次式
Figure JPOXMLDOC01-appb-M000001
 
 
 で表される隣接行列Xに変換することができる。
 そして、この隣接行列Xの可到達行列X´は、次式
Figure JPOXMLDOC01-appb-M000002
 のように、隣接行列Xに単位行列Iを加算したものを累乗してゆき、いくら累乗しても変わらなくなった行列として求めることができる。ただし、行列の演算はプール演算で行うものとする。
 従って、(1)式の隣接行列Xの可到達行列X´は、次式
Figure JPOXMLDOC01-appb-M000003
 のように計算され、この結果として次式
Figure JPOXMLDOC01-appb-M000004
 と求められる。
 ここで、Xij´で表される可到達行列のX´のi,j要素は、プロセスiがプロセスjに関連があるもの同士を辿って到達可能であるか否かを表す。つまりプロセスiがプロセスjに到達可能な場合(直接的又は間接的な関連がある場合)には、かかるi,j要素は「1」となり、プロセスiがプロセスjに到達可能でない場合(直接的又は間接的な関連がない場合)には、かかるi,j要素は「0」となる。
 従って、(4)式より、プロセス1はプロセス1,3,5と直接的又は間接的な関連があり、プロセス2はプロセス2とのみ直接的又は間接的な関連があることが分かる。
 以上を踏まえ、本実施の形態においては、上述のノード間直接関連追加処理(図18)により更新されたノード間直接関連テーブル49を隣接行列に変換し、その隣接行列の可到達行列を求めることにより、追加対象プロセス33と直接的又は間接的な関連を有するプロセス33を検出し、検出結果に基づいてノード間可到達関連テーブル50を更新する。
 具体的には、例えば、そのとき対象としている追加対象プロセス33がノード間可到達関連テーブル50に登録済みでない場合、図19に示すように、ノード間可到達関連テーブル50の可到達関連欄50A及び更新フラグ欄50Bのそれぞれにその追加対象プロセス33と対応付けた行と列とを追加する。なお、図19は、追加対象プロセス33のノードIDが「6」の場合の例である。そして可到達関連欄50Aに追加した行及び列内の各欄50AAにそれぞれ格納されているフラグをすべて「0」に設定し、更新フラグ欄50Bに追加した行及び列内の各欄50BAにそれぞれ格納されている更新フラグをすべて「更新なし」に設定する。
 この後、ノード間可到達関連テーブル50の可到達関連欄50Aの部分を次式
Figure JPOXMLDOC01-appb-M000005
 
 
 で表される隣接行列Aに変換し、さらにノード間直接関連追加処理の処理結果を反映させた上で単位行列を加算した加算結果の行列とするため、次式
Figure JPOXMLDOC01-appb-M000006
 のように、(5)式の隣接行列AにおけるX行Y列及びY行X列の各要素と、対角要素とを「1」に更新する。なお、(6)式は、そのとき対象としている追加対象プロセス33が、「3」というノードIDのプロセス33とネットワーク5を介して通信している場合の例である。
 続いて、行列Aに対してAn-1×Aを計算することにより行列Aを順次求め、この結果から行列Aの可到達行列を求める。例えば、行列Aの値は、次式
Figure JPOXMLDOC01-appb-M000007
 
 であり、行列Aは、次式
Figure JPOXMLDOC01-appb-M000008
 
 であり、行列Aは、次式
Figure JPOXMLDOC01-appb-M000009
 であるため、行列Aの可到達行列は(9)式で表される行列として求めることができる。なお、(7)式において、Aは単位行列とする。そしてこの可到達行列に基づいて、追加対象プロセス33と直接的又は間接的な関連を有するプロセス33を検出することができる。
 従って、図20に示すように、ノード間可到達関連テーブル50の可到達関連欄50Aをこの可到達行列で更新し、さらに更新フラグ欄50Bの各更新フラグのうち、可到達関連欄50Aの各要素のうちの「1」に変更された要素に対応する更新フラグを「追加」に変更することにより、図18について上述したノード間直接関連追加処理の処理結果に応じてノード間可到達関連テーブル50を更新することができる。
 図21は、以上の原理に従って構成把握処理(図17)のステップSP42においてノード間関連抽出部55により実行されるノード間可到達関連追加処理の処理手順を示す。
 ノード間関連抽出部55は、構成把握処理のステップSP42に進むと、この図21に示すノード間可到達関連追加処理を開始し、まず、そのとき対象としている追加対象プロセス33がノード間可到達関連テーブル50に登録済みであるか否かを判断する(SP60)。
 続いて、ノード間関連抽出部55は、ノード間可到達関連テーブル50の可到達関連欄50Aに追加対象プロセス33の行及び列を追加し、追加した行及び列内の各欄50AAにそれぞれ格納されているフラグをすべて「0」に設定すると共に、更新フラグ欄50Bに追加対象プロセス33の行及び列を追加し、追加した行及び列内の各欄50BAにそれぞれ格納されている更新フラグをすべて「変更なし」に設定する(SP61)。
 次いで、ノード間関連抽出部55は、ノード間可到達関連テーブル50の可到達関連欄50Aから隣接行列Aを作成し(SP62)、作成した隣接行列AにおけるX行Y列及びY行X列の各要素と、対角要素とを「1」に更新する(SP63)。
 さらにノード間関連抽出部55は、行列Aに対してAn-1×Aを計算する(SP64)。なお、当初、nは「1」に設定される。そしてノード間関連抽出部55は、ステップSP64の演算により求めた行列Aと、元の行列An-1とが一致するか否かを判断する(SP65)。
 ノード間関連抽出部55は、この判断で否定結果を得ると、nの値を「1」増加させた後、ステップSP64に戻り、この後、ステップSP64-ステップSP65-ステップSP64のループを繰り返す。
 そしてノード間関連抽出部55は、やがて行列Aの可到達行列Aを算出することによりステップSP65で肯定結果を得ると、ノード間可到達関連テーブル50の可到達関連欄50Aにおいて対応する欄50AAに格納されたフラグの値が「0」の要素であって、可到達行列Aの対応する要素の値が「1」の各要素について、可到達関連欄50A内の対応する欄50AAに格納されているフラグを「1」に更新する。またノード間関連抽出部55は、ノード間可到達関連テーブル50の更新フラグ欄50Bの各欄50BAにそれぞれ格納された更新フラグのうち、上述のように可到達関連欄50Aのフラグを「1」に更新した各欄50AAとそれぞれ対応する各更新フラグを「追加」に更新する(SP66)。
 そしてノード間関連抽出部55は、この後、このノード間可到達関連追加処理を終了して構成把握処理に戻る。
(3-2-3-4)ノード間直接関連削除処理
 他方、図22は、上述した構成把握処理(図17)のステップSP45においてノード間関連抽出部55により実行されるノード間直接関連削除処理の処理手順を示す。
 ノード間関連抽出部55は、構成把握処理のステップSP45に進むと、この図22に示すノード間直接関連削除処理を開始し、まず、そのとき対象としている削除対象プロセス33とネットワーク5を介して通信を行っているプロセス33をノード稼働情報テーブル46上で検索する(SP70)。具体的に、ノード間関連抽出部55は、ノード稼働情報テーブル46に登録されているプロセス33のうち、そのとき対象としている削除対象プロセス33のIPアドレス及びポート番号の組が、通信先IPアドレス欄46E(図6)に格納されているIPアドレスと、通信先ポート番号欄46F(図6)に格納されているポート番号との組と一致するプロセス33を検索する。
 この後、ノード間関連抽出部55は、ステップSP70の検索により該当するプロセス33を検出できたか否かを判断する(SP71)。そしてノード間関連抽出部55は、この判断で否定結果を得ると、このノード間関連削除処理を終了して構成把握処理に戻る。
 これに対してノード間関連抽出部55は、ステップSP71の判断で肯定結果を得ると、ステップSP70の検索により検出したすべてのプロセス33について、ノード間直接関連テーブル49の各欄49Aにそれぞれ格納された各フラグのうち、そのプロセス33に対応する列(Y列とする)と、そのとき対象としている追加対象プロセス33に対応する行(X行とする)とが交差する箇所に存在する欄49Aに格納されているフラグ(X行Y列のフラグ)を「0」に更新する。
 そしてノード間関連抽出部55は、この後、このノード間直接関連追加処理を終了して構成把握処理に戻る。
(3-2-3-5)ノード間可到達関連削除処理
 次に、構成把握処理(図17)のステップSP46においてノード間関連抽出部55により実行されるノード間可到達関連削除処理を説明する。これに際して、まず、削除対象プロセス33と直接的又は間接的な関連があるプロセス33の検出手法について説明する。
 本実施の形態においては、上述のノード間直接関連削除処理により更新されたノード間直接関連テーブル49を隣接行列に変換し、その隣接行列の可到達行列を求めることにより、削除対象プロセス33と直接的又は間接的な関連があるプロセス33を検出し、検出結果に基づいてノード間可到達関連テーブル50を更新する。
 この場合において、プロセス33の削除は、削除対象プロセス33と直接的又は間接的な関連があるプロセス33のグループ内でしか影響がないため、影響のあるグループ内に限定して、削除対象プロセス33を反映した接続行列から、可到達行列を再計算することにより計算量を削減する。
 例えば、図23に示すように、まず、ノード間可到達関連テーブル50から、削除対象プロセス33の行が「1」のプロセスの集合Zを作成する。なお図23は、「3」というプロセスIDのプロセス33が削除対象プロセス33である場合の例である。従って、この場合、集合Zは、次式
Figure JPOXMLDOC01-appb-M000010
 のように、プロセスIDが「1」、「3」及び「5」の各プロセス33の集合ということになる。
 続いて、図24に示すように、ノード間直接関連テーブル49の集合Zに属するプロセス33のみで隣接行列Bを作成する。具体的には、ノード間直接関連テーブル49からプロセスIDが「1」、「3」及び「5」のプロセス33の行及び列だけを抜き取り、隣接行列Bを作成する。従って、図24の例の場合、隣接行列Bは、次式
Figure JPOXMLDOC01-appb-M000011
 
 となる。
 なお、プロセス33の削除の場合、ノード間可到達関連テーブル50でなく、ノード間直接関連テーブル49を用いる。これは、計算済みの可到達関連を削除するのではなく、影響する直接関連のみ可到達関連を再計算して更新するためである。
 次に、行列Bを、単位行列を加算した加算結果の行列とするため、次式
Figure JPOXMLDOC01-appb-M000012
 のように、(11)式の行列Bの対角成分をすべて「1」に更新する。
 さらに、行列Bに対してAn-1×Bを計算することにより行列Aを順次求め、この結果から行列Bの可到達行列を求める。例えば、行列Aの値は、Aを単位行列として、次式
Figure JPOXMLDOC01-appb-M000013
 
 であり、行列Aは、次式
Figure JPOXMLDOC01-appb-M000014
 
 であるため、行列Bの可到達行列は(13)式で表される行列として求めることができる。そしてこの可到達行列に基づいて、追加対象プロセス33と直接的又は間接的な関連があるプロセス33を検出することができる。
 従って、図25に示すように、ノード間可到達関連テーブル50の可到達関連欄50Aをこの可到達行列で更新し、さらに更新フラグ欄50Bの各更新フラグのうち、可到達関連欄50A内のフラグが「1」に変更された各欄50AAにそれぞれ対応する更新フラグ欄50B内の各欄50BAに格納されている更新フラグを「追加」に設定することにより、図22について上述したノード間直接関連削除処理の処理結果に応じてノード間可到達関連テーブル50を更新することができる。
 図26は、以上の原理に従って構成把握処理(図17)のステップSP46においてノード間関連抽出部55により実行されるノード間可到達関連削除処理の処理手順を示す。
 ノード間関連抽出部55は、構成把握処理のステップSP46に進むと、この図26に示すノード間可到達関連削除処理を開始し、まず、ノード間可到達関連テーブル50から、削除対象プロセス33の行の値が「1」のプロセス33の集合Zを作成する(SP80)。
 続いて、ノード間関連抽出部55は、ノード間直接関連テーブル49の集合Zに属するプロセス33のみで隣接行列Bを作成し(SP81)、この後、作成した隣接行列Bの対角要素をすべて「1」に変更する(SP82)。
 次いで、ノード間関連抽出部55は、隣接行列Bに対してAn-1×Bを計算する(SP83)。なお、当初、nは「1」に設定される。そしてノード間関連抽出部55は、ステップSP83において求めた行列Aと、元の行列An-1とが一致するか否かを判断する(SP84)。
 ノード間関連抽出部55は、この判断で否定結果を得ると、nの値を「1」増加させた後、ステップSP83に戻り、この後、ステップSP83-ステップSP84-ステップSP83のループを繰り返す。
 そしてノード間関連抽出部55は、やがて隣接行列Bの可到達行列Aを算出することによりステップSP84で肯定結果を得ると、ノード間可到達関連テーブル50の可到達関連欄50A内の値が「1」のフラグであって、可到達行列Aの対応する要素の値が「0」の各フラグについて、その値を「0」に更新する。またノード間関連抽出部55は、ノード間可到達関連テーブル50の更新フラグ欄50B内の各更新フラグのうち、可到達関連欄50Aの「0」に更新した各フラグとそれぞれ対応する各更新フラグを「削除」に更新する(SP85)。
 そしてノード間関連抽出部55は、この後、このノード間可到達関連削除処理を終了して構成把握処理に戻る。
(3-2-4)監視項目選定部の処理
(3-2-4-1)監視項目選定処理
 図27は、上述した監視項目選定全体処理(図15)のステップSP24において監視項目選定部43で実行される監視項目選定処理の流れを示す。監視項目選定部43は、この図27の流れに従って、監視項目を選定する。
 実際上、監視項目選定部43では、ノード間直接関連テーブル49やノード間可到達関連テーブル50が更新されると、この監視項目選定処理が開始され、まず、起点ノード検索部56が、ノード稼働情報テーブル46及び起点ノード条件テーブル44を参照して起点ノードとすべきプロセス33を検索し、検索結果に基づいて、起点ノード用選定ノードテーブル52A(図10(A))を更新する(SP90)。
 続いて、関連ノード検索部57が、更新された起点ノード用選定ノードテーブル52A及びノード間可到達関連テーブル50を参照して、ステップSP90の検索により検出された起点ノードとすべきプロセス33の関連ノードを検索し、検索結果に基づいて、関連ノード用選定ノードテーブル52B(図10(B))を更新する(SP91)。
 次いで、影響ノード検索部58が、更新された関連ノード用選定ノードテーブル52B及びリソースアクセス情報テーブル47を参照して、ステップSP90の検索により検出された起点ノード及びステップSP91の検索により検出された関連ノードの影響ノードを検索し、検索結果に基づいて、影響ノード用選定ノードテーブル52C(図10(C))を更新する(SP92)。
 さらに、監視項目生成部59が、上述のステップSP90~ステップSP92の処理結果に基づいて監視対象とすべき監視項目を選定し、選定結果に基づいて監視項目テーブル54を更新する(SP93)。
 そして監視項目選定部43では、ステップSP93までの処理が完了すると、この監視項目選定処理が終了する。
(3-2-4-2)起点ノード検索処理
 図28は、上述した監視項目選定処理(図27)のステップSP90において起点ノード検索部56により実行される起点ノード検索処理の処理手順を示す。
 起点ノード検索部56は、監視項目選定処理のステップSP90に進むと、この図28に示す起点ノード検索処理を開始し、まず、SP100~SP105の処理を実行することにより、起点ノード用選定ノードテーブル52Aに登録されている起点ノードとすべきプロセス33のうち、監視対象装置2の構成変更により起点ノードとすべきでなくなったプロセス33の更新フラグを「削除」に更新する。
 実際上、起点ノード検索部56は、ノード稼働情報テーブル46に登録されているプロセス33のうち、更新フラグが「削除」に設定されている未処理のプロセス33を1つ選択する(SP100)。
 続いて、起点ノード検索部56は、起点ノード条件テーブル44(図5)に登録されている各起点ノード条件のうちの未処理の起点ノード条件を1つの選択し(SP101)、この後、ステップSP100において選択したプロセス33が、ステップSP101において選択した起点ノード条件を満たすか否かを判断する(SP102)。
 起点ノード検索部56は、この判断で否定結果を得るとステップSP104に進み、これに対して肯定結果を得ると、起点ノード用選定ノードテーブル52Aを更新する(SP103)。具体的に、起点ノード検索部56は、起点ノード用選定ノードテーブル52Aのエントリのうち、プロセスID欄52AAに格納されたプロセスIDがステップSP100において選択したプロセス33のプロセスIDと一致し、かつ、合致条件ID欄52ABに格納された合致条件IDがステップSP101において選択した起点ノード条件の条件ノードIDと一致するエントリの合致条件更新フラグ欄52ACに格納されている合致条件更新フラグを「削除」に変更する。
 この後、起点ノード検索部56は、起点ノード条件テーブル44に登録されているすべての起点ノード条件について、ステップSP101~ステップSP103の処理を実行し終えたか否かを判断する(SP104)。
 起点ノード検索部56は、この判断で否定結果を得るとステップSP101に戻り、この後ステップSP101~ステップSP104の処理を繰り返す。
 そして起点ノード検索部56は、やがて起点ノード条件テーブル44に登録されているすべての起点ノード条件について、ステップSP101~ステップSP103の処理を実行し終えることによりステップSP104で肯定結果を得ると、ノード稼働情報テーブル46に登録されている該当するすべてのプロセス33についてステップSP100~ステップSP104の処理を実行し終えたか否かを判断する(SP105)。
 起点ノード検索部56は、この判断で否定結果を得るとステップSP100に戻り、この後ステップSP100~ステップSP105の処理を繰り返す。
 そして起点ノード検索部56は、やがてノード稼働情報テーブル46に登録されている該当するすべてのプロセス33についてステップSP100~ステップSP104の処理を実行し終えることによりステップSP105で肯定結果を得ると、この後、SP106~SP111の処理を実行することにより、監視対象装置2の構成変更により新たな起点ノードとすべきプロセス33を起点ノード用選定ノードテーブル52Aに登録し、その更新フラグを「追加」に設定する。
 実際上、起点ノード検索部56は、まず、ノード稼働情報テーブル46に登録されているプロセス33のうち、更新フラグが「追加」に設定されている未処理のプロセス33を1つ選択する(SP106)。
 続いて、起点ノード検索部56は、起点ノード条件テーブル44に登録されている各起点ノード条件のうちの未処理の起点ノード条件を1つの選択し(SP107)、この後、ステップSP106において選択したプロセス33が、ステップSP107において選択した起点ノード条件を満たすか否かを判断する(SP108)。
 起点ノード検索部56は、この判断で否定結果を得るとステップSP110に進み、これに対して肯定結果を得ると、起点ノード用選定ノードテーブル52Aを更新する(SP109)。具体的に、起点ノード検索部56は、起点ノード用選定ノードテーブル52Aのエントリのうち、プロセスID欄52AAに格納されたプロセスIDがステップSP106において選択したプロセス33のプロセスIDと一致し、かつ、合致条件ID欄52ABに格納された合致条件IDがステップSP107において選択した起点ノード条件の条件ノードIDと一致するエントリの合致条件更新フラグ欄52ACに格納されている合致条件更新フラグを「追加」に変更する。
 この後、起点ノード検索部56は、起点ノード条件テーブル44に登録されているすべての起点ノード条件について、ステップSP107~ステップSP109の処理を実行し終えたか否かを判断する(SP110)。そして起点ノード検索部56は、この判断で否定結果を得るとステップSP107に戻り、この後ステップSP107~ステップSP110の処理を繰り返す。
 そして起点ノード検索部56は、やがて起点ノード条件テーブル44に登録されているすべての起点ノード条件について、ステップSP107~ステップSP109の処理を実行し終えることによりステップSP110で肯定結果を得ると、ノード稼働情報テーブル46に登録されている該当するすべてのプロセス33についてステップSP106~ステップSP110の処理を実行し終えたか否かを判断する(SP111)。
 起点ノード検索部56は、この判断で否定結果を得るとステップSP106に戻り、この後ステップSP106~ステップSP111の処理を繰り返す。
 そして起点ノード検索部56は、やがてノード稼働情報テーブル46に登録されている該当するすべてのプロセス33についてステップSP106~ステップSP110の処理を実行し終えることによりステップSP111で肯定結果を得ると、この起点ノード検索処理を終了する。
(3-2-4-3)関連ノード検索処理
 一方、図29は、上述した監視項目選定処理のステップSP91において関連ノード検索部57により実行される関連ノード検索処理の処理手順を示す。
 関連ノード検索部57は、監視項目選定処理のステップSP91に進むと、この図29に示す関連ノード検索処理を開始し、まず、ステップSP120~ステップSP126を実行することにより、起点ノード用選定ノードテーブル52A上の合致条件更新フラグ又はノード間可到達関連テーブル50上の更新フラグが「削除」に更新されたプロセス33のうち、関連ノードとすべきでなくなったプロセス33の関連ノード用選定ノードテーブル52B上の関連ノード更新フラグを「削除」に更新する。
 実際上、関連ノード検索部57は、起点ノード用選定ノードテーブル52Aに登録されているプロセス33のうち、合致条件更新フラグが「削除」に設定されている未処理のプロセス33を1つ選択する(SP120)。
 続いて、関連ノード検索部57は、ノード間可到達関連テーブル50(図9)の可到達関連欄50Aにおいて、ステップSP120において選択したプロセス33に対応するエントリ(行)上でフラグが「1」に設定されているプロセス33を検出する。そして関連ノード検索部57は、検出したプロセス33のうち、関連ノード用選定ノードテーブル52BのプロセスIDがステップSP120において選択したプロセス33のプロセスIDと一致し、かつ、関連ノードIDが、上述のようにノード間可到達関連テーブル50上で検出したフラグが「1」に設定されているプロセス33のプロセスIDと一致するプロセス33の関連ノード更新フラグを「削除」に更新する(SP121)。
 次いで、関連ノード検索部57は、起点ノード用選定ノードテーブル52A上で合致条件更新フラグが「削除」に設定されているすべてのプロセス33についてステップSP120及びステップSP121の処理を実行し終えたか否かを判断する(SP122)。
 関連ノード検索部57は、この判断で否定結果を得るとステップSP120に戻り、この後、ステップSP120~ステップSP122の処理を繰り返す。
 そして関連ノード検索部57は、やがて起点ノード用選定ノードテーブル52A上で合致条件更新フラグが「削除」に設定されているすべてのプロセス33についてステップSP120及びステップSP121の処理を実行し終えることによりステップSP122で肯定結果を得ると、ノード間可到達関連テーブル50の更新フラグ欄50Bにおいて更新フラグが「削除」に設定されているプロセス33の組(以下、適宜、一方を第1のプロセス33、他方を第2のプロセス33と呼ぶ)の中から未処理の組を1つ選択する(SP123)。
 また関連ノード検索部57は、関連ノード用選定ノードテーブル52Bに登録されたプロセス33のうち、ステップSP123において選択した組の第1のプロセス33のプロセスIDがプロセスIDと一致し、かつ、ステップSP123において選択した組の第2のプロセス33のプロセスIDが関連ノードIDと一致するプロセス33の関連ノード更新フラグを「削除」に更新する(SP124)。
 この後、関連ノード検索部57は、ノード間可到達関連テーブル50の更新フラグ欄50Bにおいて更新フラグが「削除」に設定されているすべてのプロセス33の組について、ステップSP123及びステップSP124の処理を実行し終えたか否かを判断する(SP125)。
 関連ノード検索部57は、この判断で否定結果を得ると、ステップSP123に戻り、この後ステップSP123~ステップSP125の処理を繰り返す。
 そして関連ノード検索部57は、やがてノード間可到達関連テーブル50の更新フラグ欄50Bにおいて更新フラグが「削除」に設定されているすべてのプロセス33の組について、ステップSP123及びステップSP124の処理を実行し終えることによりステップSP125で肯定結果を得ると、この後、ステップSP126~ステップSP131を実行することにより、起点ノード用選定ノードテーブル52A上の合致条件更新フラグ又はノード間可到達関連テーブル50上の更新フラグが「追加」に設定されたプロセス33を関連ノード用選定ノードテーブル52Bに登録し、その関連ノード更新フラグを「追加」に設定する。
 実際上、関連ノード検索部57は、起点ノード用選定ノードテーブル52Aに登録されているプロセス33のうち、合致条件更新フラグが「追加」に設定されている未処理のプロセス33を1つ選択する(SP126)。
 続いて、関連ノード検索部57は、ノード間可到達関連テーブル50(図9)の可到達関連欄50Aにおいて、ステップSP120において選択したプロセス33に対応するエントリ(行)上でフラグが「1」に設定されているプロセス33を検出し、検出した各プロセス33に対応するエントリを関連ノード用選定ノードテーブル52Bに追加する(SP127)。具体的に、関連ノード検索部57は、上述のようにして検出したプロセス33について、そのプロセスIDが関連ノードID欄52BBに格納され、ステップSP126において選択したプロセス33のプロセスIDがプロセスID欄52BAに格納され、かつ、関連ノード更新フラグ欄52BCに「追加」が格納されたエントリを関連ノード用選定ノードテーブル52Bに追加する。
 次いで、関連ノード検索部57は、起点ノード用選定ノードテーブル52A上で合致条件更新フラグが「追加」に設定されているすべてのプロセス33についてステップSP126及びステップSP127の処理を実行し終えたか否かを判断する(SP128)。
 関連ノード検索部57は、この判断で否定結果を得るとステップSP126に戻り、この後、ステップSP126~ステップSP128の処理を繰り返す。
 そして関連ノード検索部57は、やがて起点ノード用選定ノードテーブル52A上で合致条件更新フラグが「削除」に設定されているすべてのプロセス33についてステップSP126及びステップSP127の処理を実行し終えることによりステップSP128で肯定結果を得ると、ノード間可到達関連テーブル50の更新フラグ欄50Bにおいて更新フラグが「追加」に設定されているプロセス33の組(以下、適宜、一方を第3のプロセス33、他方を第4のプロセス33と呼ぶ)の中から未処理の組を1つ選択する(SP129)。
 また関連ノード検索部57は、関連ノード用選定ノードテーブル52Bに、ステップSP129において選択した組に対応するエントリを追加する(SP130)。具体的に、関連ノード検索部57は、第3のプロセス33のプロセスIDがプロセスID欄52BAに格納され、第4のプロセス33のプロセスIDが関連ノードID欄52BBに格納され、関連ノード更新フラグ欄52BCに格納された関連ノード更新フラグが「追加」に設定されたエントリを関連ノード用選定ノードテーブル52Bに追加する。
 この後、関連ノード検索部57は、ノード間可到達関連テーブル50の更新フラグ欄50Bにおいて更新フラグが「追加」に設定されているすべてのプロセスの組について、ステップSP129及びステップSP130の処理を実行し終えたか否かを判断する(SP131)。
 関連ノード検索部57は、この判断で否定結果を得ると、ステップSP129に戻り、この後ステップSP129~ステップSP131の処理を繰り返す。
 そして関連ノード検索部57は、やがてノード間可到達関連テーブル50の更新フラグ欄50Bにおいて更新フラグが「追加」に設定されているすべてのプロセス33の組についてステップSP129及びステップSP130の処理を実行し終えることによりステップSP131で肯定結果を得ると、この関連ノード検索処理を終了する。
(3-2-4-4)影響ノード検索処理
 他方、図30A及び図30Bは、上述した監視項目選定処理(図27)のステップSP92において影響ノード検索部58により実行される影響ノード検索処理の処理手順を示す。
 影響ノード検索部58は、監視項目選定処理のステップSP92に進むと、この図30A及び図30Bに示す影響ノード検索処理を開始し、まず、ステップSP140~ステップSP153の処理を実行することにより、影響ノードとすべきでなくなったプロセス33の影響ノード用選定ノードテーブル52C上の影響ノード更新フラグを「削除」に変更する。
 実際上、影響ノード検索部58は、ステップSP140~ステップSP146において、関連ノード用選定ノードテーブル52Bで関連ノード更新フラグが「削除」に設定されたプロセス33に対する処理を行う。
 すなわち、影響ノード検索部58は、まず、関連ノード用選定ノードテーブル52Bに登録されているプロセス33のうち、関連ノード更新フラグが「削除」に設定されている未処理のプロセス33のプロセスIDを1つ選択する(SP140)。
 続いて、影響ノード検索部58は、関連ノード用選定ノードテーブル52Bのエントリの中から、プロセスID欄52BAに格納されているプロセスIDが、ステップSP140において選択したプロセス33のプロセスIDと一致するいずれかのエントリの関連ノードID欄52BBに格納されている未処理のプロセスIDを1つ選択する(SP141)。
 次いで、影響ノード検索部58は、リソースアクセス情報テーブル47(図7)のアクセスプロセスID欄47Bに格納されているプロセスIDが、ステップSP141で選択したプロセスIDと一致する未処理のリソースを1つ選択する(SP142)。
 そして、影響ノード検索部58は、リソースアクセス情報テーブル47を参照して、ステップSP142で選択したリソースにアクセスするプロセス33をすべて検索する。さらに影響ノード検索部58は、影響ノード用選定ノードテーブル52Cのエントリのうち、プロセスID欄52CAに格納されているプロセスIDがステップSP140において選択したプロセス33のプロセスIDと一致し、関連ノードID欄52CBに格納されているプロセスIDがステップSP141において選択したプロセス33のプロセスIDと一致し、かつ、影響ノードID欄52CCに格納されているプロセスIDがステップSP142で選択したリソースにアクセスするいずれかのプロセス33のプロセスIDと一致するすべてのエントリの影響ノード更新フラグ欄52CDに格納されている影響ノード更新フラグを「削除」に設定する(SP143)。
 この後、影響ノード検索部58は、リソースアクセス情報テーブル47のアクセスプロセスID欄47BにステップSP141において選択したプロセスIDが格納されているすべてのリソースについてステップSP142及びステップSP143の処理を実行し終えたか否かを判断する(SP144)。
 影響ノード検索部58は、この判断で否定結果を得るとステップSP142に戻り、この後ステップSP142~ステップSP144の処理を繰り返す。
 そして影響ノード検索部58は、やがてリソースアクセス情報テーブル47のアクセスプロセスID欄47BにステップSP141で選択したプロセスIDが格納されているすべてのリソースについて同様の処理を実行し終えることによりステップSP144で肯定結果を得ると、関連ノード用選定ノードテーブル52BのプロセスID欄52CAにステップSP140で選択したプロセスIDが格納されているいずれかのエントリの関連ノードID欄52CBに格納されているすべてのプロセスIDについて、ステップSP141~ステップSP144の処理を実行し終えたか否かを判断する(SP145)。
 影響ノード検索部58は、この判断で否定結果を得るとステップSP141に戻り、この後ステップSP141~ステップSP145の処理を繰り返す。
 そして影響ノード検索部58は、やがて関連ノード用選定ノードテーブル52BのプロセスID欄52CCにステップSP140で選択したプロセスIDが格納されているいずれかのエントリの関連ノードID欄52BBに格納されているすべてのプロセスIDについてステップSP141~ステップSP144の処理を実行し終えることによりステップSP145で肯定結果を得ると、関連ノード用選定ノードテーブル52Bの関連ノード更新フラグが「削除」に設定されたすべてのプロセスのプロセスIDについて、ステップSP140~ステップSP145の処理を実行し終えたか否かを判断する(SP146)。
 影響ノード検索部58は、この判断で否定結果を得るとステップSP140に戻り、この後ステップSP140~ステップSP146の処理を繰り返す。
 そして影響ノード検索部58は、やがて関連ノード用選定ノードテーブル52Bの関連ノード更新フラグが「削除」に設定されたすべてのプロセスのプロセスIDについて、ステップSP140~ステップSP145の処理を実行し終えることによりステップSP146で肯定結果を得ると、関連ノード用選定ノードテーブル52B上で関連ノード更新フラグが「削除」に設定された各プロセス33に対する処理を終了する。
 続いて、影響ノード検索部58は、ステップSP147~ステップSP153において、リソースアクセス情報テーブル47で更新フラグが「削除」に設定されたリソースを利用するプロセス33に対する処理を行う。
 すなわち、影響ノード検索部58は、リソースアクセス情報テーブル47の更新フラグが「削除」に設定されているエントリのアクセスプロセスID欄47Bに格納されているプロセスIDと同じプロセスIDをもつプロセス33の中から未処理の1つのプロセスを選択する(SP147)。
 続いて、影響ノード検索部58は、関連ノード用選定ノードテーブル52Bのエントリの中から、プロセスID欄52BAに格納されているプロセスIDが、ステップSP147において選択したプロセス33のプロセスIDと一致するいずれかのエントリの関連ノードID欄52BBに格納されている未処理のプロセスIDを1つ選択する(SP148)。
 次いで、影響ノード検索部58は、リソースアクセス情報テーブル47のアクセスプロセスID欄47Bに格納されたプロセスIDが、ステップSP148で選択したプロセスのプロセスIDと一致する未処理のリソースを1つ選択する(SP149)。
 そして、影響ノード検索部58は、リソースアクセス情報テーブル47を参照して、ステップSP149で選択したリソースにアクセスするプロセス33をすべて検索する。さらに影響ノード検索部58は、影響ノード用選定ノードテーブル52Cのエントリのうち、プロセスID欄52CAに格納されているプロセスIDがステップSP147において選択したプロセス33のプロセスIDと一致し、関連ノードID欄52CBに格納されているプロセスIDがステップSP148において選択したプロセス33のプロセスIDと一致し、かつ、影響ノードID欄52CCに格納されているプロセスIDがステップSP149で選択したリソースにアクセスするいずれかのプロセス33のプロセスIDと一致するすべてのエントリの影響ノード更新フラグ欄52CDに格納されている影響ノード更新フラグを「削除」に設定する(SP150)。
 この後、影響ノード検索部58は、リソースアクセス情報テーブル47のアクセスプロセスID欄47BにステップSP148において選択したプロセスIDが格納されているすべてのリソースについてステップSP149及びステップSP150の処理を実行し終えたか否かを判断する(SP151)。
 影響ノード検索部58は、この判断で否定結果を得るとステップSP149に戻り、この後、ステップSP149~ステップSP150の処理を繰り返す。
 そして影響ノード検索部58は、やがてリソースアクセス情報テーブル47のアクセスプロセスID欄47BにステップSP148で選択したプロセスIDが格納されているすべてのリソースについて同様の処理を実行し終えることによりステップSP151で肯定結果を得ると、関連ノード用選定ノードテーブル52BのプロセスID欄52CAにステップSP147で選択したプロセスIDが格納されているいずれかのエントリの関連ノードID欄52CBに格納されているすべてのプロセスIDについて、ステップSP148~ステップSP151の処理を実行し終えたか否かを判断する(SP152)。
 影響ノード検索部58は、この判断で否定結果を得るとステップSP148に戻り、この後、ステップSP148~ステップSP152の処理を繰り返す。
 そして影響ノード検索部58は、やがて関連ノード用選定ノードテーブル52BのプロセスID欄52CCにステップSP147で選択したプロセスIDが格納されているいずれかのエントリの関連ノードID欄52BBに格納されているすべてのプロセスIDについてステップSP148~ステップSP151の処理を実行し終えることによりステップSP152で肯定結果を得ると、リソースアクセス情報テーブル47の更新フラグが「削除」に設定された各エントリのアクセスプロセスID欄47Bに格納されたプロセスIDと同じプロセスIDをもつすべてのプロセス33について、ステップSP147~ステップSP152の処理を実行し終えたか否かを判断する(SP153)。
 影響ノード検索部58は、この判断で否定結果を得るとステップSP147に戻り、この後、ステップSP147~ステップSP153の処理を繰り返す。
 そして影響ノード検索部58は、やがてリリソースアクセス情報テーブル47の更新フラグが「削除」に設定された各エントリのアクセスプロセスID欄47Bに格納されたプロセスIDと同じプロセスIDをもつすべてのプロセス33についてステップSP147~ステップSP152の処理を実行し終えることによりステップSP153で肯定結果を得ると、リソースアクセス情報テーブル47上で更新フラグが「削除」に設定されたリソースを利用する各プロセス33に対する処理を終了する。
 続いて、影響ノード検索部58は、ステップSP154~ステップSP167の処理を実行することにより、必要なプロセス33を影響ノード用選定ノードテーブル52Cに新規に登録する。
 実際上、影響ノード検索部58は、ステップSP154~ステップSP160において、関連ノード用選定ノードテーブル52Bで更新フラグが「追加」に設定されたプロセス33に対する処理を行う。
 なお、このステップSP154~ステップSP160の処理は、以下の(A)及び(B)を除いてステップSP140~ステップSP146と同様の処理内容であるため、ここでの説明は省略する。
(A)ステップSP154において選択するプロセスIDが、関連ノード用選定ノードテーブル52Bに登録されているプロセスのうち、関連ノード更新フラグが「追加」に設定されている未処理のプロセス33のプロセスIDである。
(B)ステップSP157において、リソースアクセス情報テーブル47を参照して、ステップSP156で選択したリソースにアクセスするプロセス33をすべて検索する。さらに影響ノード用選定ノードテーブル52Cに、ステップSP154において選択したプロセス33のプロセスIDがプロセスID欄52CAに格納され、ステップSP155において選択したプロセス33のプロセスIDが関連ノードID欄52CBに格納され、ステップSP156で選択したリソースにアクセスするいずれかのプロセス33のプロセスIDが影響ノードID欄52CCに格納され、かつ、影響ノード更新フラグ欄52CDに格納された影響ノード更新フラグが「追加」に設定されたエントリを追加する。またこのようなエントリを、ステップSP156で選択したリソースにアクセスするすべてのプロセス33について、影響ノード用選定ノードテーブル52Cに追加する。
 次いで、影響ノード検索部58は、ステップSP161~ステップSP167において、リソースアクセス情報テーブル47で更新フラグが「追加」に設定されたリソースを利用するプロセス33に対する処理を行う。
 なお、ステップSP161~ステップSP167の処理は、以下の(A)及び(B)を除いてステップSP147~ステップSP153と同様の処理内容であるため、ここでの説明は省略する。
(A)ステップSP161において選択するプロセス33が、リソースアクセス情報テーブル47の更新フラグが「追加」に設定されているエントリのアクセスプロセスID欄47Bに格納されているプロセスIDと同じプロセスIDをもつプロセスである。
(B)ステップSP164において、リソースアクセス情報テーブル47を参照して、ステップSP163で選択したリソースにアクセスするプロセス33をすべて検索する。さらに影響ノード用選定ノードテーブル52Cに、ステップSP161において選択したプロセス33のプロセスIDがプロセスID欄52CAに格納され、ステップSP162において選択したプロセス33のプロセスIDが関連ノードID欄52CBに格納され、ステップSP163で選択したリソースにアクセスするいずれかのプロセス33のプロセスIDが影響ノードID欄52CCに格納され、かつ、影響ノード更新フラグ欄52CDに格納された影響ノード更新フラグが「追加」に設定されたエントリを追加する。またこのようなエントリを、ステップSP163で選択したリソースにアクセスするすべてのプロセス33について、影響ノード用選定ノードテーブル52Cに追加する。
 そして影響ノード検索部58は、ステップSP167までの処理をすべて完了すると、この影響ノード検索処理を終了する。
(3-2-4-5)監視項目生成処理
 図31A及び図31Bは、上述した監視項目選定処理(図27)のステップSP93において監視項目生成部59により実行される監視項目生成処理の処理手順を示す。
 監視項目生成部59は、監視項目選定処理のステップSP93に進むと、この図31A及び図31Bに示す監視項目生成処理を開始し、まず、ステップSP170~ステップSP185の処理を実行することにより、関連ノード用選定ノードテーブル52B若しくは影響ノード用選定ノードテーブル52C上で関連ノード更新フラグ又は影響ノード更新フラグが「削除」に設定されたプロセス33、又は、リソースアクセス情報テーブル47上で更新フラグが「削除」に設定されたリソースにアクセスするプロセス33がアクセスするリソースに対する監視項目のうち、監視項目とすべきでなくなった監視項目の監視項目テーブル54上の監視項目更新フラグを「削除」に変更する。
 実際上、監視項目生成部59は、ステップSP170~ステップSP177において、関連ノード用選定ノードテーブル52B又は影響ノード用選定ノードテーブル52Cで関連ノード更新フラグ又は影響ノード更新フラグが「削除」に設定されたプロセス33がアクセスするリソースの監視項目に対する処理を行う。
 すなわち、監視項目生成部59は、関連ノード用選定ノードテーブル52B又は影響ノード用選定ノードテーブル52Cに登録されているプロセス33のうち、関連ノード更新フラグ又は影響ノード更新フラグが「削除」に設定されている未処理のプロセス33を1つ選択する(SP170)。
 続いて、監視項目生成部59は、リソースアクセス情報テーブル47に登録されているリソースのうち、ステップSP170において選択したプロセス33がアクセスするリソース(つまりリソースアクセス情報テーブル47のアクセスプロセスID欄47BにステップSP170で選択したプロセス33のプロセスIDが格納されているリソース)であって未処理のリソースを1つ選択する(SP171)。
 次いで、監視項目生成部59は、監視箇所・項目選定ルールテーブル53(図11)に登録された監視箇所・項目選定ルールの中から未処理の1つの監視箇所・項目選定ルールを選択し(SP172)、選択した監視箇所・項目選定ルールが、ステップSP171において選択したリソースに対するルールであるか否かを判断する(SP173)。そして監視項目生成部59は、この判断で否定結果を得るとステップSP175に進む。
 これに対して、監視項目生成部59は、ステップSP173の判断で肯定結果を得ると、監視項目テーブル54(図12)のエントリの中から、プロセスID欄54Bに格納されているプロセスIDがステップSP170において選択したプロセス33のプロセスIDと一致し、リソースID欄54Dに格納されているリソースIDがステップSP171において選択したリソースのリソースIDと一致し、かつ、適用ルールID欄54Fに格納された適用ルールIDがステップSP172において選択した監視箇所・項目選定ルールの監視箇所・項目選定ルールIDと一致するエントリを検出し、そのエントリの監視項目更新フラグ欄54Gに格納されている監視項目更新フラグを「削除」に変更する(SP174)。
 この後、監視項目生成部59は、監視箇所・項目選定ルールテーブル53に登録されたすべての監視箇所・項目選定ルールについてステップSP172~ステップSP174の処理を実行し終えたか否かを判断する(SP175)。
 監視項目生成部59は、この判断で否定結果を得るとステップSP172に戻り、この後、ステップSP172~ステップSP175の処理を繰り返す。
 そして監視項目生成部59は、やがて監視箇所・項目選定ルールテーブル53に登録されたすべての監視箇所・項目選定ルールについてステップSP172~ステップSP174の処理を実行し終えることによりステップSP175で肯定結果を得ると、リソースアクセス情報テーブル47に登録されているリソースのうち、ステップSP170において選択したプロセス33がアクセスするすべてのリソースについてステップSP171~ステップSP175の処理を実行し終えたか否かを判断する(SP176)。
 監視項目生成部59は、この判断で否定結果を得るとステップSP171に戻り、この後、ステップSP171~ステップSP176の処理を繰り返す。
 そして監視項目生成部59は、やがてステップSP170において選択したプロセス33がアクセスするすべてのリソースについてステップSP171~ステップSP175の処理を実行し終えることによりステップSP176で肯定結果を得ると、関連ノード用選定ノードテーブル52B又は影響ノード用選定ノードテーブル52Cにおいて関連ノード更新フラグ又は影響ノード更新フラグが「削除」に設定されているすべてのプロセス33についてステップSP170~ステップSP176の処理を実行し終えたか否かを判断する(SP177)。
 監視項目生成部59は、この判断で否定結果を得ると、ステップSP170に戻り、この後、ステップSP170~ステップSP177の処理を繰り返す。
 そして監視項目生成部59は、やがて関連ノード用選定ノードテーブル52B又は影響ノード用選定ノードテーブル52Cにおいて関連ノード更新フラグ又は影響ノード更新フラグが「削除」に設定されているすべてのプロセス33についてステップSP170~ステップSP176の処理を実行し終えることによりステップSP177で肯定結果を得ると、関連ノード用選定ノードテーブル52B又は影響ノード用選定ノードテーブル52Cで関連ノード更新フラグ又は影響ノード更新フラグが「削除」に設定された各プロセス33に対する処理を終了する。
 続いて、監視項目生成部59は、ステップSP147~ステップSP153において、リソースアクセス情報テーブル47で更新フラグが「削除」に設定されたリソースにアクセスするプロセス33がアクセスする各リソースの監視項目に対する処理を行う。
 すなわち、監視項目生成部59は、リソースアクセス情報テーブル47で監視項目更新フラグが「削除」に設定されているエントリのアクセスプロセスID欄47Bに格納されたプロセスIDが付与されたプロセス33の中から未処理のプロセス33を1つの選択する(SP178)。
 続いて、監視項目生成部59は、リソースアクセス情報テーブル47に登録されているリソースのうち、ステップSP178において選択したプロセス33がアクセスするリソース(つまりリソースアクセス情報テーブル47のアクセスプロセスID欄47BにステップSP178で選択したプロセス33のプロセスIDが格納されているリソース)であって未処理のリソースを1つ選択する(SP179)。
 次いで、監視項目生成部59は、監視箇所・項目選定ルールテーブル53(図11)に登録された監視箇所・項目選定ルールの中から未処理の1つの監視箇所・項目選定ルールを選択し(SP180)、選択した監視箇所・項目選定ルールが、ステップSP179において選択したリソースに対するルールであるか否かを判断する(SP181)。そして監視項目生成部59は、この判断で否定結果を得るとステップSP183に進む。
 これに対して、監視項目生成部59は、ステップSP181の判断で肯定結果を得ると、監視項目テーブル54(図12)のエントリの中から、プロセスID欄54Bに格納されているプロセスIDがステップSP178において選択したプロセス33のプロセスIDと一致し、リソースID欄54Dに格納されているリソースIDがステップSP179において選択したリソースのリソースIDと一致し、かつ、適用ルールID欄54Fに格納された適用ルールIDがステップSP180において選択した監視箇所・項目選定ルールの監視箇所・項目選定ルールIDと一致するエントリを検出し、そのエントリの監視項目更新フラグ欄54Gに格納されている監視項目更新フラグを「削除」に変更する(SP182)。
 この後、監視項目生成部59は、監視箇所・項目選定ルールテーブル53に登録されたすべての監視箇所・項目選定ルールについてステップSP180~ステップSP182の処理を実行し終えたか否かを判断する(SP183)。
 監視項目生成部59は、この判断で否定結果を得るとステップSP1802に戻り、この後、ステップSP180~ステップSP183の処理を繰り返す。
 そして監視項目生成部59は、やがて監視箇所・項目選定ルールテーブル53に登録されたすべての監視箇所・項目選定ルールについてステップSP180~ステップSP182の処理を実行し終えることによりステップSP183で肯定結果を得ると、リソースアクセス情報テーブル47に登録されているリソースのうち、ステップSP178において選択したプロセス33がアクセスするすべてのリソースについてステップSP179~ステップSP183の処理を実行し終えたか否かを判断する(SP184)。
 監視項目生成部59は、この判断で否定結果を得るとステップSP179に戻り、この後、ステップSP179~ステップSP184の処理を繰り返す。
 そして監視項目生成部59は、やがてステップSP178において選択したプロセス33がアクセスするすべてのリソースについてステップSP179~ステップSP183の処理を実行し終えることによりステップSP184で肯定結果を得ると、関連ノード用選定ノードテーブル52B又は影響ノード用選定ノードテーブル52Cにおいて関連ノード更新フラグ又は影響ノード更新フラグが「削除」に設定されているすべてのプロセス33についてステップSP178~ステップSP184の処理を実行し終えたか否かを判断する(SP185)。
 監視項目生成部59は、この判断で否定結果を得ると、ステップSP178に戻り、この後、ステップSP178~ステップSP185の処理を繰り返す。
 そして監視項目生成部59は、やがて関連ノード用選定ノードテーブル52B又は影響ノード用選定ノードテーブル52Cにおいて関連ノード更新フラグ又は影響ノード更新フラグが「削除」に設定されているすべてのプロセス33についてステップSP178~ステップSP184の処理を実行し終えることによりステップSP185で肯定結果を得ると、リソースアクセス情報テーブル47で更新フラグが「削除」に設定されたリソースにアクセスするプロセス33がアクセスする各リソースの監視項目に対する処理を終了する。
 続いて、監視項目生成部59は、ステップSP186~ステップSP201の処理を実行することにより、関連ノード用選定ノードテーブル52B若しくは影響ノード用選定ノードテーブル52C上で関連ノード更新フラグ又は影響ノード更新フラグが「追加」に設定されたプロセス33、又は、リソースアクセス情報テーブル47上で更新フラグが「削除」に設定されたリソースにアクセスするプロセス33がアクセスするリソースに対する監視項目を監視項目テーブル54に新規に登録する。
 実際上、監視項目生成部59は、ステップSP186~ステップSP193において、関連ノード用選定ノードテーブル52Bで更新フラグが「追加」に設定されたプロセス33がアクセスするリソースの監視項目に対する処理を行う。
 なお、このステップSP186~ステップSP193の処理は、以下の(A)及び(B)を除いてステップSP170~ステップSP177と同様の処理内容であるため、ここでの説明は省略する。
(A)ステップSP186において選択するプロセスが、関連ノード用選定ノードテーブル52B若しくは影響ノード用選定ノードテーブル52C上で関連ノード更新フラグ又は影響ノード更新フラグが「追加」に設定されている未処理のプロセス33である。
(B)ステップSP190において、監視項目テーブル54に、ステップSP186において選択したプロセス33のプロセスIDがプロセスID欄54Bに格納され、ステップSP187において選択したリソースのリソースIDがリソースID欄54Dに格納され、ステップSP188において選択した監視箇所・項目選定ルールの監視箇所・項目選定ルールIDが適用ルールID欄54Fに格納され、かつ監視項目更新フラグ欄54Gに格納された監視項目更新フラグが「追加」に設定されたエントリを追加する。
 次いで、監視項目生成部59は、ステップSP194~ステップSP201において、リソースアクセス情報テーブル47で更新フラグが「追加」に設定されたリソースにアクセスするプロセス33がアクセスする各リソースの監視項目に対する処理を行う。
 なお、このステップSP194~ステップSP201の処理は、以下の(A)及び(B)を除いてステップSP178~ステップSP185と同様の処理内容であるため、ここでの説明は省略する。
(A)ステップSP194において選択するプロセス33が、リソースアクセス情報テーブル47の更新フラグが「追加」に設定されているエントリのアクセスプロセスID欄47Bに格納されているプロセスIDと同じプロセスIDをもつプロセスである。
(B)ステップSP198において、監視項目テーブル54に、ステップSP194において選択したプロセス33のプロセスIDがプロセスID欄54Bに格納され、ステップSP195において選択したリソースのリソースIDがリソースID欄54Dに格納され、ステップSP196において選択した監視箇所・項目選定ルールの監視箇所・項目選定ルールIDが適用ルールID欄54Fに格納され、かつ監視項目更新フラグ欄54Gに格納された監視項目更新フラグが「追加」に設定されたエントリを追加する。
 そして監視項目生成部59は、ステップSP201までの処理をすべて完了すると、この監視項目生成処理を終了する。
(4)本実施の形態の効果
 以上の構成を有する本実施の形態の監視システム1によれば、監視対象装置2においてプロセス33間の関連性や、プロセス33及びリソース間の関連性に変更が加えられた場合に、人手を要することなく、変更後のプロセス33間の関連性や、プロセス33及びリソース間の関連性に応じた新たな監視項目が選定されるため、監視対象装置2の構成変更に伴う監視項目の変更を容易に行うことができる。従って、本監視システム1によれば、頻繁に構成変更が行われるシステムに対する運用・管理を簡易化させることができる。
 また本監視システム1では、上述のように稼働情報更新部41や、構成把握部42及び監視項目選定部43が処理を実行した際に更新があった箇所に対して更新フラグを立てておき(更新フラグを「削除」又は「追加」に設定しておき)、次の処理では、前の処理の結果の更新フラグが立っている箇所だけを対象として処理を行うようにしているため、一連の処理全体から見た計算量を格段的に低減させることができる。従って、本監視システム1によれば、監視対象装置2に対する監視項目の選定処理を短時間化させることができ、監視対象装置2の構成変更に伴う監視項目の変更を迅速に行うことができる。
(5)他の実施の形態
 なお上述の実施の形態においては、監視対象装置2内のリソース及びプロセス33に関する稼働情報を監視対象装置2から取得する稼働情報取得部としての稼働情報更新部41が受動的に稼働情報を取得するようにした場合について述べたが、本発明はこれに限らず、かかる稼働情報更新部41が定期的又は不定期に能動的に各監視対象装置2にアクセスしてこれら監視対象装置2から稼働情報を取得するように監視システム1を構築するようにしてもよい。
 また上述の実施の形態においては、監視対象装置2上で稼働し、リソースを利用して処理を実行するノードとしてプロセス33を適用するようにした場合について述べが、本発明はこれに限らず、要は、リソースにアクセスする任意の単位のインスタンスであって、その稼働状況から相互の関連が導出できるものであれば、例えばスレッドや、OS又はクラスタなどのこの他種々のインスタンスを広く適用することができる。
 さらに上述の実施の形態においては、起点ノード条件としてIPアドレス、ポート番号及びプロセス名のみを適用するようにした場合について述べたが(図5参照)、本発明はこれに限らず、これらに加えて又はこれら以外のこの他種々の要件を起点ノード条件とするようにしてもよい。
 さらに上述の実施の形態においては、プロセス33同士がネットワーク5を介して通信を行っている場合にこれらのプロセス33間に直接的な関連があるとするようにした場合について述べたが、本発明はこれに限らず、例えば、同じ共有メモリを利用している場合や、プロセス33が親子関係にある場合、プロセス33同士がネットワーク5を介さない通信を行っている場合などにそのプロセス33間に直接的な関連があるとしてもよい。また複数の条件を組み合せて直接的な関連の有無を定義するようにしてもよい。
 さらに上述の実施の形態においては、本実施の形態による監視項目選定機能を実現するための稼働情報更新部41、構成把握部42及び監視項目選定部43等のプログラムを記憶する記憶媒体として揮発性メモリ22を適用するようにした場合について述べたが、本発明はこれに限らず、これらのプログラムを記憶する記憶媒体としては、揮発性メモリ以外の、例えばCD(Compact Disc)、DVD(Digital Versatile Disc)、BD(Blu-ray(登録商標)Disc)、ハードディスク装置若しくは光磁気ディスクなどのディスク状記憶媒体や、不揮発性の半導体メモリ又はこれ以外の記憶媒体を広く適用することができる。
 本発明は、種々の構成の監視システムに広く適用することができる。
 1……監視システム、2……監視対象装置、4……監視項目選定装置、11,21……CPU、31……稼働情報取得部、32……監視項目蓄積テーブル、33……プロセス、41……稼働情報更新部、42……構成把握部、43……監視項目選定部、44……起点ノード条件テーブル、45……稼働情報蓄積テーブル、46……ノード稼働情報テーブル、47……リソースアクセス情報テーブル、48……構成テーブル、49……ノード間直接関連テーブル、50……ノード間可到達関連テーブル、51……監視項目選定テーブル、52……選定ノードテーブル、52A……起点ノード用選定ノードテーブル、52B……関連ノード用選定ノードテーブル、52C……影響ノード用選定ノードテーブル、53……監視箇所・項目選定ルールテーブル、54……監視項目テーブル、55……ノード間関連抽出部、56……起点ノード検索部、57……関連ノード検索部、58……影響ノード検索部、59……監視項目生成部。

Claims (9)

  1.  監視対象装置内のリソースと、当該監視対象装置上で稼働し、前記リソースを利用して処理を実行するノードとに関する稼働情報を当該監視対象装置から定期的又は不定期に取得する第1のステップと、
     前記監視項目選定装置が、取得した前記稼働情報に基づいて、前記ノード間の関連性、並びに、前記ノード及び前記リソース間の関連性を抽出する第2のステップと、
     前記監視項目選定装置が、前記稼働情報と、抽出した前記ノード間の関連性及び前記ノード及び前記リソース間の関連性と、予め定義された条件とに基づいて、前記監視対象装置に対する監視項目を選定する第3のステップと
     を備えることを特徴とする監視項目選定方法。
  2.  前記第3のステップでは、
     前記条件を満たす前記ノードを起点ノードとして検出し、
     前記起点ノードと関連のあるノードを関連ノードとして抽出し、
     前記起点ノード及び前記関連ノードと関連性を有する前記リソースに対して、予め定められた前記リソースごとに取得すべき項目に関するルールを適用することにより前記監視項目を選定する
     ことを特徴とする請求項1に記載の監視項目選定方法。
  3.  前記第3のステップでは、
     前記起点ノード及び前記関連ノードがアクセスする前記リソースと同じリソースにアクセスする前記ノードを影響ノードとして抽出し、前記影響ノードと関連性を有する前記リソースに対して、予め定められた前記リソースごとに取得すべき項目に関するルールを適用することにより前記監視項目を選定する
     ことを特徴とする請求項2に記載の監視項目選定方法。
  4.  取得した前記稼働情報と、抽出した前記ノード間の関連性、並びに、抽出した前記ノード及び前記リソース間の関連性と、選定した前記監視項目とを記憶し、
     前記第1のステップでは、
     新たな前記稼働情報を取得した場合に、記憶している前記稼働情報のうちの更新があった箇所のみを更新し、
     前記第2のステップでは、
     記憶している前記稼働情報のうちの第1のステップで更新された箇所のみを対象として前記ノード間の関連性、並びに、前記ノード及び前記リソース間の関連性を抽出し、抽出結果に基づいて、記憶している前記ノード間の関連性、並びに、前記ノード及び前記リソース間の関連性を更新し、
     前記第3のステップでは、
     記憶している前記ノード間の関連性、並びに、前記ノード及び前記リソース間の関連性のうちの第2のステップで更新された箇所のみを対象として前記監視項目を選定し、選定結果に基づいて、記憶している前記監視項目を更新するようにして、前記監視対象装置に対する前記監視項目を選定する
     ことを特徴とする請求項1に記載の監視項目選定方法。
  5.  前記第2のステップでは、
     前記ノード間の関連性として、前記ノード間における通信関係を抽出し、
     前記ノード及び前記リソース間の関連性として、前記ノード及び前記リソース間のアクセス関係を抽出する
     ことを特徴とする請求項1に記載の監視項目選定方法。
  6.  前記第2のステップでは、
     前記稼働情報に基づいて、前記直接的な通信関係の有無を対戦表形式のビットマップにより管理し、
     当該ビットマップを接続行列に変換し、当該接続行列の可到達行列を算出することにより、前記ノード間における通信関係を抽出する
     ことを特徴とする請求項5に記載の監視項目選定方法。
  7.  前記ノードは、プロセスである
     ことを特徴とする請求項1に記載の監視項目選定方法。
  8.  監視対象装置内のリソースと、当該監視対象装置上で稼働し、前記リソースを利用して処理を実行するノードとに関する稼働情報を当該監視対象装置から定期的又は不定期に取得する稼働情報取得と、
     取得した前記稼働情報に基づいて、前記ノード間の関連性、並びに、前記ノード及び前記リソース間の関連性を抽出する構成把握部と、
     前記稼働情報と、抽出された前記ノード間の関連性及び前記ノード及び前記リソース間の関連性と、予め定義された条件とに基づいて、前記監視対象装置に対する監視項目を選定する監視項目選定部と
     を備えることを特徴とする監視項目選定装置。
  9.  監視対象装置に対する監視項目を選定する監視項目選定装置に、
     前記監視対象装置内のリソースと、当該監視対象装置上で稼働し、前記リソースを利用して処理を実行するノードとに関する稼働情報を当該監視対象装置から定期的又は不定期に取得する第1のステップと、
     取得した前記稼働情報に基づいて、前記ノード間の関連性、並びに、前記ノード及び前記リソース間の関連性を抽出する第2のステップと、
     前記稼働情報と、抽出した前記ノード間の関連性及び前記ノード及び前記リソース間の関連性と、予め定義された条件とに基づいて、前記監視対象装置に対する前記監視項目を選定する第3のステップと
     を備える処理を実行させるプログラムが格納された記憶媒体。
PCT/JP2013/064606 2013-05-27 2013-05-27 監視項目選定方法及び装置並びに記憶媒体 WO2014192054A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2013/064606 WO2014192054A1 (ja) 2013-05-27 2013-05-27 監視項目選定方法及び装置並びに記憶媒体
US14/767,042 US9960983B2 (en) 2013-05-27 2013-05-27 Monitoring item selection method and device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/064606 WO2014192054A1 (ja) 2013-05-27 2013-05-27 監視項目選定方法及び装置並びに記憶媒体

Publications (1)

Publication Number Publication Date
WO2014192054A1 true WO2014192054A1 (ja) 2014-12-04

Family

ID=51988136

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/064606 WO2014192054A1 (ja) 2013-05-27 2013-05-27 監視項目選定方法及び装置並びに記憶媒体

Country Status (2)

Country Link
US (1) US9960983B2 (ja)
WO (1) WO2014192054A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113923131A (zh) * 2021-09-10 2022-01-11 北京世纪互联宽带数据中心有限公司 一种监控信息确定方法、装置、计算设备及存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9813292B2 (en) * 2014-12-17 2017-11-07 Upguard, Inc. Network node policy generation and implementation
US10548125B2 (en) * 2015-09-15 2020-01-28 Huawei Technologies Co., Ltd. D2D resource allocation method, device, and system
CN108933691B (zh) * 2017-05-26 2021-09-07 华为技术有限公司 一种获取网络设备标准配置模板的方法和计算设备
JP7251259B2 (ja) * 2019-03-28 2023-04-04 富士通株式会社 運用管理装置、運用管理システム、および運用管理方法
CN113542048B (zh) * 2020-04-21 2022-07-01 中国移动通信集团贵州有限公司 哑资源监测方法、装置、电子设备和计算机可读存储介质
US11811802B2 (en) * 2020-08-21 2023-11-07 Microsoft Technology Licensing, Llc. Cloud security monitoring of applications in PaaS services

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000122879A (ja) * 1998-10-12 2000-04-28 Hitachi Ltd 計算機システムの性能モニタリング方法
JP2006018369A (ja) * 2004-06-30 2006-01-19 Hitachi Electronics Service Co Ltd システム改善支援システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003096669A2 (en) * 2002-05-10 2003-11-20 Reisman Richard R Method and apparatus for browsing using multiple coordinated device
US20070050777A1 (en) * 2003-06-09 2007-03-01 Hutchinson Thomas W Duration of alerts and scanning of large data stores
JP4661722B2 (ja) 2006-07-31 2011-03-30 日本電気株式会社 運用管理システム、監視装置、監視設定情報生成方法及びプログラム
US8570550B2 (en) * 2007-09-11 2013-10-29 Xerox Corporation Method and system for remote management of print devices
US9020769B2 (en) * 2009-01-26 2015-04-28 Geneva Cleantech Inc. Automatic detection of appliances
US8984598B2 (en) * 2012-06-27 2015-03-17 International Business Machines Corporation Web-based security proxy for computing system environment scanning
US20150236977A1 (en) * 2012-11-09 2015-08-20 Hitachi, Ltd. Management computer, computer system, and instance management method
US9176917B2 (en) * 2013-02-28 2015-11-03 Hewlett-Packard Development Company, L.P. SAS latency based routing

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000122879A (ja) * 1998-10-12 2000-04-28 Hitachi Ltd 計算機システムの性能モニタリング方法
JP2006018369A (ja) * 2004-06-30 2006-01-19 Hitachi Electronics Service Co Ltd システム改善支援システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113923131A (zh) * 2021-09-10 2022-01-11 北京世纪互联宽带数据中心有限公司 一种监控信息确定方法、装置、计算设备及存储介质
CN113923131B (zh) * 2021-09-10 2023-08-22 北京世纪互联宽带数据中心有限公司 一种监控信息确定方法、装置、计算设备及存储介质

Also Published As

Publication number Publication date
US9960983B2 (en) 2018-05-01
US20160006633A1 (en) 2016-01-07

Similar Documents

Publication Publication Date Title
WO2014192054A1 (ja) 監視項目選定方法及び装置並びに記憶媒体
CN107577427B (zh) 用于区块链系统的数据迁移方法、设备和存储介质
US8346743B2 (en) Configuring data collection rules in a data monitoring system
JP6134437B2 (ja) データ転送監視システム、データ転送監視方法、および拠点システム
JP5532150B2 (ja) 運用管理装置、運用管理方法、及びプログラム
JP5698429B2 (ja) 構成要素を管理するためのコンピュータ・システム、並びにその方法及びコンピュータ・プログラム
US8838679B2 (en) Providing state service for online application users
US10606709B1 (en) Method and system for intelligently load balancing database backup operations in information technology environments
US8417688B2 (en) Converting two-tier resource mapping to one-tier resource mapping
US9116808B2 (en) Method and system for determining device configuration settings
US20140089387A1 (en) Session-server affinity for clients that lack session identifiers
JP6760904B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP5907419B2 (ja) 分散処理システム、分散処理方法および分散処理プログラム
JP2018072958A5 (ja)
US11061736B2 (en) Multiple parallel reducer types in a single map-reduce job
US20140040479A1 (en) Method for a self organizing load balance in a cloud file server network
JP5239072B2 (ja) 構成要素を管理するためのコンピュータ・システム、並びにその方法及びコンピュータ・プログラム
JP6816511B2 (ja) セッション管理プログラム、セッション管理方法、情報処理装置、及び情報処理システム
US11218487B1 (en) Predictive entity resolution
US10114704B1 (en) Updating database records while maintaining accessible temporal history
JP5519832B1 (ja) 推薦システム、推薦サーバ、推薦方法および推薦プログラム
JP6155861B2 (ja) データ管理方法、データ管理プログラム、データ管理システム及びデータ管理装置
JP6083210B2 (ja) 認証情報管理システム、認証情報管理方法、認証情報管理プログラム、及び、検索システム
JP4051462B2 (ja) グリッドシステムにおけるデータ配布方法、グリッドシステム、グリッド仲介装置、グリッド仲介プログラム
WO2012039486A1 (ja) 構成管理装置、構成管理方法、及び構成管理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13885668

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14767042

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13885668

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP