WO2017213065A1 - サービス管理システム、サービス管理方法、および、記録媒体 - Google Patents

サービス管理システム、サービス管理方法、および、記録媒体 Download PDF

Info

Publication number
WO2017213065A1
WO2017213065A1 PCT/JP2017/020752 JP2017020752W WO2017213065A1 WO 2017213065 A1 WO2017213065 A1 WO 2017213065A1 JP 2017020752 W JP2017020752 W JP 2017020752W WO 2017213065 A1 WO2017213065 A1 WO 2017213065A1
Authority
WO
WIPO (PCT)
Prior art keywords
node
type
service
resource
appropriateness
Prior art date
Application number
PCT/JP2017/020752
Other languages
English (en)
French (fr)
Inventor
清一 小泉
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Publication of WO2017213065A1 publication Critical patent/WO2017213065A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]

Definitions

  • the present invention relates to a service management system and the like, and more particularly, to a service management system and the like that improves the configuration of the system by evaluating the behavior during operation of the system that provides the service.
  • a system that provides services via a network for terminals such as mobile phones and computers for example, a system that provides websites, video distribution sites, and business processing sites, is a combination of various server function modules and network modules. Is done.
  • the server function module is, for example, a Web server, an application server, or a database server.
  • the network function module is, for example, a router including a load balancer, a firewall, or a NAT (Network Address Translation) function.
  • a module that provides various server functions and network functions is referred to as a node.
  • the resource consumed varies depending on the type of node. Furthermore, when the business processed in the system that provides the service is different, the resources consumed are different even for the same type of node. For this reason, there is a possibility that a location that becomes a bottleneck is different for each node.
  • a server that performs a task of numerical data analysis becomes a bottleneck
  • a server that performs a task of moving image distribution becomes a bottleneck of a network control unit.
  • Patent Document 1 discloses an example of a service management system. This system sets a monetary cost for each intermediate state at the time of system configuration change, and automatically generates a system configuration that satisfies both budget constraints and service requirement constraints. Furthermore, this system improves the amount estimation accuracy by estimating the monetary cost in the intermediate state by reinforcement learning.
  • Patent Document 1 has a problem that once an inappropriate configuration is generated, the configuration is not corrected. In addition, this system has a problem that the configuration cannot be made to follow the change when the usage status of the system changes.
  • An object of the present invention is to provide a service management system, a service management method, and a recording medium for solving the above problems.
  • the service management system classifies the quality or quantity of a resource included in the node with respect to a node type representing a type of processing executed by the node from resource usage information of a plurality of nodes.
  • a bottleneck estimation means for determining the appropriateness of the resource type representing the service configuration, and when the node type is input, a service configuration derivation for selecting and outputting the resource type having the highest appropriateness with respect to the input node type Means.
  • the service management method is configured to classify the quality or quantity of resources provided in a node with respect to a node type representing a type of processing executed by the node from resource usage information of a plurality of nodes.
  • a node type representing a type of processing executed by the node from resource usage information of a plurality of nodes.
  • the service management program classifies the quality or quantity of resources provided in the node with respect to a node type representing a type of processing executed by the node from resource usage information of a plurality of nodes.
  • a bottleneck estimation process for determining the appropriateness of a resource type representing the service type, and, when the node type is input, a service configuration derivation that selects and outputs the resource type having the highest appropriateness for the input node type And causing the computer to execute the process.
  • the service management program may be stored in a recording medium.
  • the configuration of the system that executes the service can be improved according to the behavior during operation of the system that executes the service.
  • FIG. 1 shows the configuration of a service system 400 according to the first embodiment of the present invention.
  • FIG. 2 is a flowchart showing the operation of service configuration derivation.
  • FIG. 3 is a flowchart showing the operation of business pattern detection.
  • FIG. 4 is a flowchart illustrating an operation of weighting a derived tree based on bottleneck estimation.
  • FIG. 5 shows service requirements of the service providing system 206 input from the input device 300 and stored in the service requirement storage unit 110.
  • FIG. 6 shows derivation tree data stored in the derivation tree storage unit 111.
  • FIG. 7 shows the configuration of the resource allocation table.
  • FIG. 8 shows configuration information stored in the service configuration storage device 203.
  • FIG. 9 shows a document vector created by the business pattern detection unit 102.
  • FIG. 10 shows grouping information stored in the business pattern storage unit 112.
  • FIG. 11 shows a traffic information table for storing traffic information.
  • FIG. 12 shows a resource consumption table for storing resource consumption information.
  • FIG. 13 shows the structure of the evaluation table.
  • FIG. 14 shows a table of pattern masks stored in the pattern mask storage unit 113.
  • FIG. 15 is a configuration diagram of the computer apparatus 600.
  • FIG. 16 shows the configuration of a service management system 600 according to the second embodiment of the present invention.
  • FIG. 1 shows a configuration of a service system 400 according to the first embodiment of the present invention.
  • the service system 400 includes a service management system 100, a service execution device 200, a measurement device 201, a configuration change device 202, a service configuration storage device 203, a service measurement information storage device 204, and an input device 300.
  • the service execution device 200 includes a plurality of nodes 205.
  • the node 205 is, for example, a server computer or a network device.
  • the node 205 is a physical device connected to the interconnection in the service execution device 200, for example.
  • the node 205 may be a virtual device such as a virtual computer realized by the service execution device 200.
  • the plurality of nodes 205 are divided into one or more groups, and the nodes 205 in each group cooperate to constitute one service providing system 206.
  • Each service providing system 206 provides, for example, a banking service and a moving image distribution service via the Internet (not shown).
  • the measuring device 201 is connected to the service execution device 200.
  • the measuring device 201 acquires, for example, information on traffic, data processing time, and resources included in the node 205 from the node 205 configuring the service providing system 206 and stores the information in the service measurement information storage device 204.
  • the traffic is data that flows between the nodes 205 constituting the service providing system 206.
  • the resources of the node 205 are, for example, a processor, a memory, a disk device, an input / output controller, and a communication controller.
  • the configuration change device 202 is connected to the service execution device 200.
  • the configuration change device 202 acquires the configuration information of the service providing system 206 from the service configuration storage device 203, and changes the configuration of the node 205 included in the service providing system 206.
  • the configuration information of the service providing system 206 includes, for example, information related to the connection relationship between the nodes 205 and the type and amount of resources provided in each node 205.
  • the configuration change device 202 changes the connection relationship between the nodes 205 by controlling the interconnect of the service execution device 200, or increases / decreases resources provided by the node 205 using the configuration control function provided by the node 205. .
  • the configuration change device 202 may instruct the virtual computer monitor included in the service execution device 200 to change the configuration of the node 205 that is a virtual computer.
  • the service management system 100 analyzes the information collected by the measuring apparatus 201 to evaluate the appropriateness of the resources included in each node 205 and instructs the configuration changing apparatus 202 to change the configuration of the node 205 as necessary.
  • the service management system 100 includes a service configuration derivation unit 101, a business pattern detection unit 102, a bottleneck estimation unit 103, a service requirement storage unit 110, a derived tree storage unit 111, a business pattern storage unit 112, and a pattern mask storage unit 113. Prepare.
  • the service configuration deriving unit 101 generates the configuration of the service providing system 206 based on the pattern mask stored in the pattern mask storage unit 113.
  • the business pattern detection unit 102 analyzes the traffic information of the node 205, classifies the business pattern of the service providing system 206 to which the node 205 belongs, and stores it in the business pattern storage unit 112.
  • the bottleneck estimation unit 103 analyzes the bottleneck from the resource usage information of the node 205. Further, the bottleneck estimation unit 103 generates a pattern mask from the result of the analysis, the derived tree stored in the derived tree storage unit 111, and the business pattern information stored in the business pattern storage unit 112. To do.
  • the service management system 100 may be implemented by including a part or all of the service execution device 200, the measurement device 201, the configuration change device 202, the service configuration storage device 203, and the service measurement information storage device 204. good.
  • the service configuration deriving unit 101, the business pattern detecting unit 102, and the bottleneck estimating unit 103 are configured by logic circuits.
  • the service requirement storage unit 110, the derived tree storage unit 111, the business pattern storage unit 112, and the pattern mask storage unit 113 are configured by a storage device such as a semiconductor memory or a magnetic disk device.
  • the service management system 100 may be realized by the computer device 600.
  • FIG. 15 is a configuration diagram of the computer apparatus 600.
  • the computer device 600 includes a processor 610, a main storage unit 630, and an external storage device 620 that are connected to each other via a bus 640.
  • the processor 610 reads / writes data from / to the main storage unit 630 and the external storage device 620 via the bus 640. Further, the processor 610 executes a program 650 stored in the main storage unit 630. Note that the program 650 is initially stored in the external storage device 620, and the processor 610 may load the external storage device 620 from the external storage device 620 to the main storage unit 630 when the computer device 600 is initially set.
  • the main storage unit 630 is a semiconductor memory device.
  • the external storage device 620 is a storage device such as a disk device or a semiconductor storage device.
  • the processor 610 functions as, for example, the service configuration derivation unit 101, the business pattern detection unit 102, and the bottleneck estimation unit 103 by executing the program 650. That is, by executing the program 650, the processor 610 executes processing performed by, for example, the service configuration derivation unit 101, the business pattern detection unit 102, and the bottleneck estimation unit 103.
  • the main storage unit 630 or the external storage device 620 functions as the service requirement storage unit 110, the derived tree storage unit 111, the business pattern storage unit 112, and the pattern mask storage unit 113.
  • an input / output unit (not shown) of the service management system 100 receives a service requirement of the service providing system 206 newly generated from the input device 300 and stores it in the service requirement storage unit 110.
  • the service configuration deriving unit 101 reads out service requirements of the service providing system 206 from the service requirement storage unit 110, and further reads out derived tree data from the derived tree storage unit 111 (step A1 in FIG. 2).
  • the service requirement includes the node type of the node 205 constituting the service providing system 206 and information on the connection relationship.
  • the node type represents the type of processing executed by the node 205.
  • the node type is, for example, a banking application server, a weather analysis application server, a WEB server, a database server, a load balancer, or a firewall.
  • the node type may include information indicating the classification of the processing scale.
  • the node type may be a large database server or a small database server.
  • the derivation tree specifies a resource type that can be taken by the node 205 of the node type for each node type.
  • the resource type represents a classification of the amount and quality of the resource provided in the node 205.
  • the resource types are, for example, “4 cores of 10 GHz and 32 GB of memory” and “6 cores of 20 GHz and 128 GB of memory”.
  • the service configuration deriving unit 101 determines the resource type based on the derived tree for each node 205 constituting the service providing system 206 (step A4). Specify (step A5). At that time, based on the node type of the node 205, the service configuration deriving unit 101 randomly selects a resource type from the candidates indicated by the derived tree.
  • the service configuration deriving unit 101 adds the connection information between the nodes 205 for which the resource type has been specified to configure the service providing system 206, and stores the configuration information in the service configuration storage device 203 (step A6).
  • the configuration change device 202 reads the configuration information stored in the service configuration storage device 203, and constructs a service providing system 206 in which the node 205 including the resource specified by the configuration information is connected on the service execution device 200. And get it up and running.
  • the measuring device 201 measures, for each node 205 constituting the service providing system 206 in operation, traffic information and resource consumption information, which are data that the node 205 inputs and outputs via the network, Stored in the measurement information storage device 204.
  • the business pattern detection unit 102 reads traffic information about the first node 205 of the service providing system 206 from the service measurement information storage device 204 (step B1 in FIG. 3).
  • a main application server that characterizes the service providing system 206 is defined as the node type of the head node 205.
  • the business pattern detection unit 102 calculates data for determining the similarity between documents by using the set of traffic information read in step B1 as one document.
  • the business pattern detection unit 102 calculates a document vector using, for example, a vector space model algorithm (step B2).
  • the business pattern detection unit 102 calculates the similarity between this document vector and the document vector for another service providing system 206 of a known business pattern using, for example, an algorithm of cosine similarity (Step S102). B3).
  • the similarity is equal to or higher than a preset threshold value (Y in Step B4)
  • the business pattern detection unit 102 determines that the operating service providing system 206 has the same business pattern as the known business pattern.
  • the business pattern detection unit 102 uses information representing the service providing system 206 in operation as service information to be added to another service providing system 206 group of the known business pattern whose identity is determined.
  • the pattern is stored in the pattern storage unit 112 (step B6).
  • the business pattern detection unit 102 displays information indicating the new business pattern and the service providing system 206 as business information. It records in the pattern memory
  • the bottleneck estimating unit 103 uses the resource consumption table of the service measurement information storage device 204 to the service providing system 206 in operation, and uses resource usage information of each node such as a CPU (Central Processing Unit), a memory, Consumption information of each resource such as IOPS (Input / Output Per Second) and NW I / O (Network Input / Output) is extracted (step C1 in FIG. 4). Thereafter, the bottleneck estimation unit 103 analyzes the appropriateness of each resource, that is, the degree of tightness / surplus of each resource, from the consumption information for each node 205 (step C2).
  • resource usage information of each node such as a CPU (Central Processing Unit), a memory, Consumption information of each resource such as IOPS (Input / Output Per Second) and NW I / O (Network Input / Output) is extracted (step C1 in FIG. 4). Thereafter, the bottleneck estimation unit 103 analyzes the appropriateness of each resource, that is, the degree of tightness / surplus
  • the bottleneck estimation unit 103 quantifies the weight of the derived tree for each resource type based on the appropriateness level, and stores it in the pattern mask storage unit 113 (step C3). This weight is used to derive an optimal resource configuration that matches the business pattern of the node 205.
  • the bottleneck estimation unit 103 stores the sum of the stored value and the value quantified immediately before (Step C5). In this case, instead of storing the sum, the bottleneck estimation unit 103 may calculate and store a moving average of quantitative values of several generations, or may store the stored value as a value quantified immediately before. It may be replaced.
  • the bottleneck estimation unit 103 repeats this process for each node 205 to create a pattern mask in which the weight of the derived tree is changed for each business pattern, that is, a business pattern mask (for example, FIG. 14 described later) (step C6). ).
  • the service configuration deriving unit 101 reads out service requirements from the service requirement storage unit 110, and further reads out derived tree data from the derived tree storage unit 111 (step A1 in FIG. 2).
  • the service configuration deriving unit 101 reads the pattern mask from the pattern mask storage unit 113, assigns a weight to the derived tree (step A3), and increases the resource for each node 205.
  • a type is selected and assigned (step A5).
  • the service configuration deriving unit 101 assigns a resource type to each node 205 that configures the service providing system 206, and links these nodes 205 to derive new configuration information of the service providing system 206 (step). A6). Finally, the service configuration deriving unit 101 stores the newly derived configuration information in the service configuration storage device 203.
  • the configuration change device 202 reads the configuration information newly stored in the service configuration storage device 203, reconstructs and operates the service providing system 206 on the service execution device 200.
  • the bottleneck estimation unit 103 may include the derivation tree information in the pattern mask.
  • the service configuration deriving unit 101 does not need to refer to the derived tree in the configuration optimization (reconfiguration) processing of the service providing system 206.
  • the node 205 that is the target of the document similarity analysis of the business pattern detection unit 102 may be specified in, for example, system requirements for each service providing system 206.
  • the process related to the business pattern is unnecessary, and the business pattern detecting unit 102, The business pattern storage unit 112 is also unnecessary.
  • the service management system 100 improves the configuration of the service providing system 206 in accordance with the behavior of the service providing system 206 during operation. That is, the service management system 100 according to the present embodiment can reflect the driving performance, improve the configuration of the service providing system 206, and improve the provided service quality.
  • the reason is that the bottleneck estimation unit 103 assigns a weight for determining allocation of resources used to derive the configuration of the service providing system 206 based on the resource usage information after the service providing system 206 is operated. . This is because the service configuration deriving unit 101 reconfigures the service providing system 206 according to the weight.
  • FIG. 5 shows service requirements of the service providing system 206 input from the input device 300 and stored in the service requirement storage unit 110.
  • the service requirement of the service providing system 206 specifies how the nodes 205 are connected and the node type, but does not specify the quality or quantity of resources (eg, the number of CPU clocks or the number of cores).
  • FIG. 5 shows, for example, that the service providing system 206 called “Service1” has a node 205 whose node type is a load balancer connected to a node 205 whose node type is a firewall.
  • two nodes 205 whose node type is a Web server are connected to the load balancer, and the two nodes are a node 205 whose node type is an application server and a node type that is a DB (Data (Base) server. Indicates that the node 205 is connected.
  • DB Data (Base) server
  • FIG. 6 shows derivation tree data stored in the derivation tree storage unit 111.
  • This derived tree data indicates a resource type of a resource that can be given to the node 205 of the node type in association with the node type.
  • the resource types that can be taken by the node 205 whose node type is a firewall are CPU [Small], CPU [Medium], CPU [Large], RAM [Small], NW I / O [Small], and the like. Indicates any of them.
  • FIG. 7 shows a resource allocation table.
  • a node 205 with a resource type of CPU [Small] has two CPU cores, 1 GB of RAM (Random Access Memory), IOPS of 0.05 IOPS / GB, and NW I / O of 0.1. Given Gbps.
  • the resource allocation table may include information on the quality of resources, for example, the number of CPU and RAM cycles, volatile / nonvolatile distinction, and use protocol distinction.
  • the resource allocation table is stored in the derived tree storage unit 111 or the service configuration storage device 203, for example.
  • the configuration change device 202 may store the resource allocation table.
  • the service configuration deriving unit 101 reads the service requirements from the service requirement storage unit 110, reads the derived tree data from the derived tree storage unit 111, and then sends the resource pattern to the node 205 constituting the service providing system 206 based on the derived tree. Assign. At the time of deriving the configuration of the service providing system 206 for the first time, the service configuration deriving unit 101 randomly selects a resource type from among the candidates indicated by the derived tree data in FIG.
  • the service configuration deriving unit 101 concatenates the resource type assigned nodes 205, generates configuration information including the resource type and the connection information, and stores the configuration information in the service configuration storage device 203.
  • FIG. 8 shows configuration information stored in the service configuration storage device 203.
  • the configuration information includes information on the node type assigned to each node 205 in addition to the connection relationship and node type information of the node 205 of the service requirement shown in FIG.
  • FIG. 8 shows, for example, in the service providing system 206 “Service1”, the resource type NW I / O [Large] is used for the node 205 whose node type is the firewall, and the resource type CPU [Large is used for the node 205 whose node type is the load balancer. ] Is assigned.
  • the configuration change device 202 reads the configuration information newly stored in the service configuration storage device 203, controls the virtual machine monitor of the service execution device 200, for example, generates the configuration of the service providing system 206, and operates it. .
  • the measuring apparatus 201 measures traffic information (data input to the node 205 via the network and output from the node 205) and resource consumption information for each node 205 constituting the service providing system 206, and Stored in the service measurement information storage device 204.
  • FIG. 11 shows a traffic information table for storing traffic information.
  • the traffic information table stores which node 205 of which service providing system 206 inputs and outputs what message and when.
  • FIG. 12 shows a resource consumption table for storing resource consumption information.
  • the resource consumption table stores time-series information of usage rates of various resources in each node 205.
  • the various resources are, for example, CPU, RAM, IOPS, NW I / O.
  • the business pattern detection unit 102 extracts, for example, traffic information of the head node 205 of the service providing system 206 from the traffic information table of the service measurement information storage device 204. Next, the business pattern detection unit 102 calculates a document vector of the service providing system 206 by using a set of traffic information as one document and using an algorithm such as a vector space model.
  • FIG. 9 shows a document vector created by the business pattern detection unit 102.
  • the document vector in FIG. 9 can be obtained, for example, by calculating the appearance frequency of a plurality of words (terms) designated in advance for each term.
  • the business pattern detection unit 102 calculates the similarity between this document vector and the document vector of another service providing system 206 using an algorithm such as cosine similarity. If the similarity is equal to or greater than a predetermined threshold (eg, 0.8), the business pattern detection unit 102 determines that the business patterns of the two service providing systems 206 are the same. Then, the business pattern detection unit 102 groups the plurality of service providing systems 206 based on the business pattern, and stores information representing the grouping in the business pattern storage unit 112.
  • a predetermined threshold eg, 0.8
  • FIG. 10 shows grouping information stored in the business pattern storage unit 112. This information is stored in association with the identification information of the business pattern of the group and the identifier of the service providing system 206 belonging to the group.
  • FIG. 10 shows an example in which the business patterns of Service1 and Service23 are the same, and the business patterns of Service3, Service11, and Service18 are the same.
  • the bottleneck estimation unit 103 extracts resource consumption information of CPU, memory, IOPS, and network I / O as shown in FIG. 12 from the resource consumption table of the service measurement information storage device 204 for each node 205. Then, the bottleneck estimation unit 103 analyzes a resource usage state such as which type of resource is tight or excessive, and derives an optimum resource allocation configuration that matches the business pattern of the node 205. Calculate tree weights.
  • the bottleneck estimation unit 103 evaluates the resource allocation of the node 205, that is, the appropriateness of the specified resource pattern, based on the average value of various resource consumptions over a certain period.
  • the bottleneck estimation unit 103 evaluates the appropriateness using, for example, an evaluation table shown in FIG.
  • the evaluation table stores the evaluation value as the appropriateness level in association with the section of the average value of the resource consumption. This table gives a high degree of appropriateness to the appropriate range of usage, for example, about 50-80%, and for other ranges where the usage is too high (resource shortage) or too low (resource surplus) Give a low degree of suitability.
  • the bottleneck estimation unit 103 stores the average appropriateness of various resources in the pattern mask storage unit 113 as a resource type weight of the business pattern.
  • FIG. 14 shows a table of pattern masks (hereinafter also referred to as pattern masks) stored in the pattern mask storage unit 113.
  • the pattern mask stores a weight indicating the appropriateness of each resource type for a combination of a business pattern and a node type.
  • the combination of the node type and the resource type included in the pattern mask follows the combination given by the derivation tree.
  • the bottleneck estimation unit 103 stores, for example, the sum with the value.
  • the bottleneck estimation unit 103 creates a pattern mask by repeating this process for each node 205.
  • the service configuration deriving unit 101 receives the reconfiguration request for the service providing system 206 input from the input device 300, the service configuration deriving unit 101 reads the service requirements from the service requirement storage unit 110 and reads the business pattern data from the business pattern storage unit 112. Furthermore, the service configuration deriving unit 101 reads a pattern mask as shown in FIG. 14 from the pattern mask storage unit 113.
  • the service configuration deriving unit 101 selects, for each node 205 described in the service requirement, a resource pattern having the maximum weight for the business pattern and the node type. For example, the service configuration deriving unit 101 selects the resource type “NW I / O [Large]” having a weight of 12 in the case of the firewall of Service1 whose business pattern is Pattern1.
  • the service configuration deriving unit 101 assigns a resource type to each node 205 configuring the service providing system 206. After that, the service configuration deriving unit 101 concatenates the nodes 205 to which the resource type is assigned, and stores it in the service configuration storage device 203 as configuration information of the service providing system 206.
  • the configuration change device 202 reads the configuration of the service providing system 206 newly stored in the service configuration storage device 203, and constructs and operates the service providing system 206 on the service execution device 200.
  • FIG. 16 shows the configuration of a service management system 100a according to the second embodiment of the present invention.
  • the service management system 100a according to the present embodiment includes a bottleneck estimation unit 103 and a service configuration derivation unit 101.
  • the bottleneck estimator 103 uses a resource type that represents a classification of the quality or quantity of the resource included in the node 205 with respect to the node type that represents the type of processing executed by the node 205 from the resource usage information of the plurality of nodes 205. Determine the appropriateness.
  • the service configuration deriving unit 101 selects and outputs the resource type having the highest appropriateness for the input node type.
  • the service management system 100a can improve the configuration of the system according to the behavior of the service providing system 206 during operation.
  • the reason is that the bottleneck estimation unit 103 assigns a weight for determining a resource type indicating resource allocation used for deriving the configuration of the service providing system based on the resource usage information after the service providing system is operated. This is because the service configuration deriving unit 101 reconfigures the service providing system by selecting a resource type along the weight.
  • the present invention can be applied to an application such as an ICT (Information and Communication Technology) system that provides a service, which automatically improves the service configuration at the time of update and improves the service quality.
  • ICT Information and Communication Technology

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

サービスを実行するシステムの運転中の振る舞いに応じて、サービスを実行するシステムの構成を改善するサービス管理システム等を提供する。サービス管理システムは、複数のノードの資源の利用情報から、ノードが実行する処理の種別を表すノードタイプに対する、ノードが備えている資源の質若しくは量の区分を表すリソースタイプの適正度を判定するボトルネック推定手段と、ノードタイプが入力されると、入力されたノードタイプに対する適正度が最も高いリソースタイプを選択して出力するサービス構成導出手段と、を備える。

Description

サービス管理システム、サービス管理方法、および、記録媒体
 本発明はサービス管理システム等に関し、特に、サービスを提供するシステムの運転中の振る舞いを評価することで、当該システムの構成を改善するサービス管理システム等に関する。
 携帯電話やコンピュータ等の端末向けに、ネットワークを経由したサービスを提供するシステム、例えば、Webサイト、動画配信サイト、業務処理サイトを提供するシステムは、種々のサーバ機能モジュールとネットワークモジュールを組み合わせて構成される。サーバ機能モジュールは、例えば、Webサーバ、アプリケーションサーバ、あるいは、データベースサーバである。ネットワーク機能モジュールは、例えば、ロードバランサ、ファイアウォール、あるいは、NAT(Network Address Translation)機能を含むルータである。
 以降、各種サーバ機能やネットワーク機能を提供するモジュールのことをノードと呼称する。
 このとき、ノードの種類が異なれば消費されるリソースが異なる。さらに、サービスを提供するシステムで処理される業務が異なる場合、同じ種類のノードであっても消費されるリソースが異なる。このため、ボトルネックとなる箇所は、ノードごとに異なったものとなる可能性が有る。
 例えば、同じアプリケーションサーバであっても、数値データ分析という業務を行うサーバはプロセッサがボトルネックとなり、動画配信という業務を行うサーバはネットワーク制御部がボトルネックとなる。
 ノードのボトルネックが明らかになった場合、ボトルネックとなった資源を増強するように構成変更することが望ましい。
 特許文献1は、サービス管理システムの一例を開示している。このシステムは、システム構成変更時の中間状態毎に金銭コストを設定し、予算制約とサービス要件制約の両方を満たすシステム構成を自動生成する。さらに、このシステムは、中間状態の金銭コストを強化学習によって推定することで、金額見積精度を向上させている。
特開2015-191374号公報
 特許文献1が開示するシステムは、一旦不適切な構成を生成してしまうと、構成が修正されないという課題が有る。また、このシステムは、システムの使用状況が変化した場合に、構成をその変化に追従させることが出来ないという課題が有る。
 本発明は、上記課題を解決する為の、サービス管理システム、サービス管理方法、および、記録媒体を提供することを目的とする。
 本発明の1実施の形態のサービス管理システムは、複数のノードの資源の利用情報から、前記ノードが実行する処理の種別を表すノードタイプに対する、前記ノードが備えている資源の質若しくは量の区分を表すリソースタイプの適正度を判定するボトルネック推定手段と、前記ノードタイプが入力されると、入力された前記ノードタイプに対する前記適正度が最も高い前記リソースタイプを選択して出力するサービス構成導出手段と、を備える。
 本発明の1実施の形態のサービス管理方法は、複数のノードの資源の利用情報から、前記ノードが実行する処理の種別を表すノードタイプに対する、前記ノードが備えている資源の質若しくは量の区分を表すリソースタイプの適正度を判定し、前記ノードタイプが入力されると、入力された前記ノードタイプに対する前記適正度が最も高い前記リソースタイプを選択して出力する。
 本発明の1実施の形態のサービス管理プログラムは、複数のノードの資源の利用情報から、前記ノードが実行する処理の種別を表すノードタイプに対する、前記ノードが備えている資源の質若しくは量の区分を表すリソースタイプの適正度を判定するボトルネック推定処理と、前記ノードタイプが入力されると、入力された前記ノードタイプに対する前記適正度が最も高い前記リソースタイプを選択して出力するサービス構成導出処理と、をコンピュータに実行させる。サービス管理プログラムは記録媒体に格納されていてもよい。
 本発明にかかるサービス管理システムによると、サービスを実行するシステムの運転中の振る舞いに応じて、サービスを実行するシステムの構成を改善することができる。
図1は、本発明の第1の実施の形態にかかるサービスシステム400の構成を示す。 図2は、サービス構成導出の動作を示す流れ図である。 図3は、業務パターン検出の動作を示す流れ図である。 図4は、ボトルネック推定に基づいて導出木の重み付けを行う動作を示す流れ図である。 図5は、入力装置300から入力されてサービス要件記憶部110に格納された、サービス提供システム206のサービス要件を示す。 図6は、導出木記憶部111に格納されている導出木データを示す。 図7は、リソース割り当て表の構成を示す。 図8は、サービス構成記憶装置203に格納される構成情報を示す。 図9は、業務パターン検出部102が作成する文書ベクトルを示す。 図10は、業務パターン記憶部112に格納されるグループ分け情報を示す。 図11は、トラフィック情報を格納するトラフィック情報テーブルを示す。 図12は、リソース消費量情報を格納するリソース消費量テーブルを示す。 図13は、評価テーブルの構成を示す。 図14は、パターンマスク記憶部113に格納されているパターンマスクの表を示す。 図15は、コンピュータ装置600の構成図である。 図16は、本発明の第2の実施の形態にかかるサービス管理システム600の構成を示す。
 [第1の実施の形態] 
 [構成の説明]
 次に、発明を実施するための形態について図面を参照して詳細に説明する。
 図1は、本発明の第1の実施の形態にかかるサービスシステム400の構成を示す。サービスシステム400は、サービス管理システム100、サービス実行装置200、測定装置201、構成変更装置202、サービス構成記憶装置203、サービス測定情報記憶装置204、および、入力装置300を含む。
 サービス実行装置200は、複数のノード205を包含する。ノード205は、例えば、サーバコンピュータ、ネットワーク装置である。ノード205は、例えば、サービス実行装置200内のインターコネクションに接続された物理的な装置である。ノード205は、サービス実行装置200によって実現されている仮想コンピュータのような仮想的な装置であっても良い。
 複数のノード205は、1以上のグループに分割されており、各グループ内のノード205は、協働して1つのサービス提供システム206を構成している。各サービス提供システム206は、例えば、図示しないインターネットを経由して、バンキングサービスや、動画配信サービスを提供している。
 測定装置201は、サービス実行装置200と接続されている。測定装置201は、サービス提供システム206を構成するノード205から、例えば、トラフィック、データ処理時間、および、ノード205が備えるリソースに関する情報を取得し、サービス測定情報記憶装置204に格納する。ここで、トラフィックは、サービス提供システム206を構成するノード205間を流れるデータである。ここで、ノード205のリソースは、例えば、プロセッサ、メモリ、ディスク装置、入出力コントローラ、通信コントローラ、である。
 構成変更装置202は、サービス実行装置200と接続されている。構成変更装置202は、サービス提供システム206の構成情報をサービス構成記憶装置203から取得して、サービス提供システム206が包含するノード205の構成変更を行う。サービス提供システム206の構成情報は、例えば、ノード205間の接続関係、および、各ノード205が備えるリソースの種類や量に関する情報を含む。
 構成変更装置202は、例えば、サービス実行装置200のインターコネクトを制御してノード205間の接続関係を変更したり、ノード205が備える構成制御機能を用いてノード205が備えるリソースの増減を行ったりする。構成変更装置202は、サービス実行装置200が備える仮想計算機モニタに対して、仮想計算機であるノード205の構成変更を指示しても良い。
 サービス管理システム100は、測定装置201が収集した情報を解析して各ノード205が備えるリソースの適正度を評価し、必要に応じて、構成変更装置202にノード205の構成変更を指示する。
 サービス管理システム100は、サービス構成導出部101、業務パターン検出部102、ボトルネック推定部103、サービス要件記憶部110、導出木記憶部111、業務パターン記憶部112、および、パターンマスク記憶部113を備える。
 サービス構成導出部101は、パターンマスク記憶部113に記憶されているパターンマスクに基づいて、サービス提供システム206の構成を生成する。業務パターン検出部102は、ノード205のトラフィック情報を解析して、ノード205が属するサービス提供システム206の業務パターンを分類して、業務パターン記憶部112に格納する。ボトルネック推定部103は、ノード205のリソース使用情報からボトルネックを解析する。更に、ボトルネック推定部103は、その解析の結果と、導出木記憶部111内に格納されている導出木と、業務パターン記憶部112に格納されている業務パターン情報と、からパターンマスクを生成する。
 サービス管理システム100は、サービス実行装置200、測定装置201、構成変更装置202、サービス構成記憶装置203、および、サービス測定情報記憶装置204の一部、または、全てを包含して実装されていても良い。
 ここで、サービス構成導出部101、業務パターン検出部102、および、ボトルネック推定部103は、論理回路で構成される。サービス要件記憶部110、導出木記憶部111、業務パターン記憶部112、および、パターンマスク記憶部113は、記憶装置、例えば、半導体メモリ、磁気ディクス装置で構成される。
 なお、サービス管理システム100は、コンピュータ装置600により実現されても良い。図15は、コンピュータ装置600の構成図である。コンピュータ装置600は、バス640で相互に接続された、プロセッサ610、主記憶部630、および、外部記憶装置620を備える。プロセッサ610は、バス640を経由して、主記憶部630、および、外部記憶装置620に対してデータの読み書きを行う。また、プロセッサ610は、主記憶部630に格納されているプログラム650を実行する。なお、プログラム650は、当初外部記憶装置620に格納されており、コンピュータ装置600の初期設定時に、プロセッサ610が外部記憶装置620から主記憶部630にロードしても良い。
 ここで、主記憶部630は半導体メモリ装置である。外部記憶装置620はディスク装置、または、半導体記憶装置等の記憶装置である。
 プロセッサ610は、プログラム650を実行することにより、例えば、サービス構成導出部101、業務パターン検出部102、および、ボトルネック推定部103として機能する。すなわち、プロセッサ610は、プログラム650を実行することにより、例えば、サービス構成導出部101、業務パターン検出部102、および、ボトルネック推定部103が行う処理を実行する。主記憶部630または、外部記憶装置620は、サービス要件記憶部110、導出木記憶部111、業務パターン記憶部112、および、パターンマスク記憶部113はとして機能する。
 [動作の説明]
 次に、図2、図3、および、図4のフローチャートを参照して、サービスシステム400の全体の動作について詳細に説明する。
 <初期サービス構成導出>
 まず、サービス管理システム100の入出力部(図示されず)は、入力装置300から新規に生成するサービス提供システム206のサービス要件を受け取り、サービス要件記憶部110に格納する。サービス構成導出部101は、サービス要件記憶部110からサービス提供システム206のサービス要件を読み出し、さらに導出木記憶部111から導出木データを読み出す(図2のステップA1)。
 サービス要件は、サービス提供システム206を構成するノード205のノードタイプ、および、接続関係の情報を包含する。ここで、ノードタイプは、ノード205が実行する処理の種別を表す。ノードタイプは、例えば、バンキングアプリケーションサーバ、気象解析アプリケーションサーバ、WEBサーバ、データベースサーバ、ロードバランサ、ファイアウォールである。ノードタイプは、処理の規模の分類を表す情報を含んでいても良い。ノードタイプは、大規模データベースサーバ、小規模データベースサーバであっても良い。
 導出木は、ノードタイプごとに、当該ノードタイプのノード205が取り得るリソースタイプを指定している。リソースタイプは、ノード205が備えるリソースの量や質の区分を表す。リソースタイプは、例えば、『10GHzのコア4個と、32GBのメモリ』、『20GHzのコア6個と、128GBのメモリ』である。
 初回のサービス提供システム206の構成を導出する時(ステップA2でY)、サービス構成導出部101は、サービス提供システム206を構成するノード205ごとに(ステップA4)、導出木を基にリソースタイプを指定する(ステップA5)。その際、サービス構成導出部101は、ノード205のノードタイプに基づいて、導出木が示す候補の中からリソースタイプを、ランダムに選択する。
 そして、サービス構成導出部101は、リソースタイプ指定済みのノード205間の連結情報を付加してサービス提供システム206の構成とし、その構成情報をサービス構成記憶装置203に格納する(ステップA6)。
 その後、構成変更装置202は、サービス構成記憶装置203に格納された構成情報を読み出し、サービス実行装置200上に、構成情報で指定されたリソースを備えるノード205が連結されたサービス提供システム206を構築し、稼働させる。
 <業務パターン検出>
 測定装置201は、稼働中のサービス提供システム206を構成するノード205毎に、当該ノード205がネットワークを経由して入出力するデータであるトラフィックの情報と、リソース消費量の情報を測定し、サービス測定情報記憶装置204に格納する。
 業務パターン検出部102は、サービス測定情報記憶装置204よりサービス提供システム206の先頭のノード205についてのトラフィック情報を読み出す(図3のステップB1)。ここで、サービス提供システム206のサービス要件において、先頭ノード205のノードタイプとしてサービス提供システム206を特徴付けるような主なアプリケーションサーバが定義されているものとする。
 業務パターン検出部102は、ステップB1で読み出されたトラフィック情報の集合を1つの文書として、文書間の類似度を判断する為のデータを算出する。業務パターン検出部102は、例えば、ベクトル空間モデルのアルゴリズムを用いて、文書ベクトルを算出する(ステップB2)。
 次いで、業務パターン検出部102は、この文書ベクトルと、既知の業務パターンの他のサービス提供システム206について文書ベクトルとの間の類似度を、例えば、コサイン類似度のアルゴリズムを用いて算出する(ステップB3)。その類似度が、あらかじめ設定された閾値以上の場合(ステップB4でY)、業務パターン検出部102は、稼働中のサービス提供システム206は、既知の業務パターンと同じ業務パターンをもつと判定する。そして、業務パターン検出部102は、稼働中のサービス提供システム206を表わす情報を、同一性を判定された既知の業務パターンの他のサービス提供システム206のグループに追加するべきサービスの情報として、業務パターン記憶部112に格納する(ステップB6)。
 類似度が閾値より小さくて、類似する既知の業務パターンが無いと判断される場合(ステップB4でN)、業務パターン検出部102は、新規業務パターンとサービス提供システム206とを表わす情報を、業務パターン記憶部112に記録する(ステップB5)。
 <ボトルネック推定に基づく導出木重み付け>
 ボトルネック推定部103は、稼働中のサービス提供システム206に対し、サービス測定情報記憶装置204のリソース消費量テーブルを用いて、各ノードのリソース使用情報、例えば、CPU(Central Processing Unit)、メモリ、IOPS(Input / Output Per Second)、NW I/O(Network Input / Output)といった各リソースの消費量情報を取り出す(図4のステップC1)。その後、ボトルネック推定部103は、ノード205毎に(ステップC2)、消費量情報から各リソースの適正度、即ち、各リソースの逼迫・余剰の度合いを解析する。更に、ボトルネック推定部103は、適正度に基づいて導出木の重みをリソースタイプ毎に定量化し、パターンマスク記憶部113に格納する(ステップC3)。この重みは、ノード205の業務パターンに合う最適なリソース構成を導出する為に用いられる。
 既に重みの値が格納されていた場合(ステップC4でN)、ボトルネック推定部103は、格納されていた値と直前に定量化した値との和を格納する(ステップC5)。この場合、ボトルネック推定部103は、和を格納する代わりに、何世代かの定量値の移動平均を計算して格納しても良いし、格納されていた値を直前に定量化した値で置換しても良い。
 ボトルネック推定部103は、この処理をノード205ごとに繰り返すことにより、業務パターン毎に導出木の重み付けを変更したパターンマスク、即ち、業務パターンマスク(例えば後述する図14)を作成する(ステップC6)。
 <サービス提供システム206の構成最適化(再構成)>
 サービス管理システム100の入出力部(図示されず)は、入力装置300からサービス提供システム206の再構成要求を受け取ると、サービス構成導出部101に渡す。
 サービス構成導出部101は、サービス要件記憶部110からサービス要件を読み出し、さらに導出木記憶部111から導出木データを読み出す(図2のステップA1)。
 再構成である場合(ステップA2でN)、サービス構成導出部101は、パターンマスク記憶部113よりパターンマスクを読み出し、導出木に重みを付け(ステップA3)、ノード205毎に重みのより大きいリソースタイプを選択して割り当てる(ステップA5)。
 これを繰り返して、サービス構成導出部101は、サービス提供システム206を構成するノード205ごとにリソースタイプを割り当て、それらのノード205を連結してサービス提供システム206の新たな構成情報を導出する(ステップA6)。最後に、サービス構成導出部101は、新たに導出した構成情報をサービス構成記憶装置203に格納する。
 構成変更装置202は、新たにサービス構成記憶装置203に格納された構成情報を読み出し、サービス実行装置200上にサービス提供システム206を再構築し、稼働させる。
 <変形例>
 なお、図4のボトルネック推定に基づく導出木重み付けの処理において、ボトルネック推定部103は、パターンマスクに、導出木の情報を包含させても良い。この場合、サービス構成導出部101は、サービス提供システム206の構成最適化(再構成)の処理において導出木を参照する必要はない。
 業務パターン検出部102の文書類似度解析の対象となるノード205は、サービス提供システム206毎に、例えば、システム要件内に指定されていても良い。
 また、サービス提供システム206の業務パターンが同一であると知られている場合、あるいは、サービス提供システム206が1つしか存在しない場合、業務パターンにかかわる処理は不要であり、業務パターン検出部102、業務パターン記憶部112も不要となる。
 [効果の説明]
 本実施の形態のサービス管理システム100は、サービス提供システム206の運転中の振る舞いに応じて、サービス提供システム206の構成を改善する。すなわち、本実施の形態のサービス管理システム100は、運転実績を反映させて、サービス提供システム206の構成を改善し、提供するサービス品質を向上させることができる。
 その理由は、ボトルネック推定部103が、サービス提供システム206の稼働後のリソース使用情報を基に、サービス提供システム206の構成の導出に使用するリソースの割り当て決定の為の重みを付けるからである。そして、サービス構成導出部101がその重みに沿って、サービス提供システム206を再構成するからである。
 [具体的データに基づく動作説明]
 次に、具体的なデータを用いて、本実施形態のサービス管理システム100の動作を説明する。
 <初期サービス構成導出>
 図5は、入力装置300から入力されてサービス要件記憶部110に格納された、サービス提供システム206のサービス要件を示す。サービス提供システム206のサービス要件は、ノード205のつながり方や、ノードタイプは指定しているが、リソースの質や量(例:CPUクロック数やコア数)は指定していない。
 図5は、例えば、”Service1”というサービス提供システム206は、ノードタイプがファイアウォールであるノード205に、ノードタイプがロードバランサであるノード205が接続されていることを示す。図5はさらに、当該ロードバランサにノードタイプがWebサーバであるノード205が2台接続され、その2台にはノードタイプがアプリケーションサーバであるノード205とノードタイプがDB(Data Base)サーバであるノード205が接続されていることを示す。
 図6は、導出木記憶部111に格納されている導出木データを示す。この導出木データは、ノードタイプに関連付けて、当該ノードタイプのノード205に与え得る資源のリソースタイプを示す。図6は、例えば、ノードタイプがファイアウォールであるノード205が取り得るリソースタイプは、CPU[Small]、CPU[Medium]、CPU[Large]、RAM[Small]、NW I/O[Small]などのうちの何れかであることを示す。
 なお、リソースタイプごとに、具体的にどのリソースがどれだけノード205に与えられるかは、リソース割り当て表で予め決められている。図7は、リソース割り当て表を示す。図7によれば、例えば、リソースタイプがCPU[Small]であるノード205には、CPUコアが2個、RAM(Random Access Memory)が1GB、IOPSが0.05IOPS/GB、NW I/Oが 0.1 Gbps与えられる。なお、リソース割り当て表には、リソースの質、例えば、CPUやRAMのサイクル数、揮発/不揮発の区別、使用プロトコルの区別に関する情報を含んでいても良い。
 リソース割り当て表は、例えば、導出木記憶部111、または、サービス構成記憶装置203に格納されている。あるいは、リソース割り当て表は、構成変更装置202が記憶していても良い。
 サービス構成導出部101は、サービス要件記憶部110からサービス要件を読み出し、導出木記憶部111から導出木データを読み出し、その後、サービス提供システム206を構成するノード205に、導出木を基にリソースパターンを割り当てる。初回のサービス提供システム206の構成の導出時、サービス構成導出部101は、ノード205のノードタイプに対して、図6の導出木データが示す候補の中からリソースタイプをランダムに選択する。
 そして、サービス構成導出部101は、リソースタイプ割当済みのノード205を連結し、リソースタイプ及び連結情報を含む構成情報を生成し、サービス構成記憶装置203に格納する。
 図8は、サービス構成記憶装置203に格納される構成情報を示す。構成情報は、図5に示したサービス要件のノード205の接続関係、ノードタイプ情報に加え、各ノード205に割当てられたノードタイプの情報を含む。図8は、例えば、サービス提供システム206”Service1”において、ノードタイプがファイアウォールのノード205にはリソースタイプNW I/O[Large]が、ノードタイプがロードバランサのノード205にはリソースタイプCPU[Large]が割り当てられたことを示す。
 構成変更装置202は、新たにサービス構成記憶装置203に格納された構成情報を読み出し、例えば、サービス実行装置200の仮想計算機モニタを制御して、サービス提供システム206の構成を生成して、稼働させる。
 <業務パターン検出>
 測定装置201は、サービス提供システム206を構成するノード205毎に、トラフィック情報(ネットワークを経由してノード205に入力・ノード205から出力されるデータ)と、リソース消費量情報を測定し、それぞれをサービス測定情報記憶装置204に格納する。
 図11は、トラフィック情報を格納するトラフィック情報テーブルを示す。トラフィック情報テーブルは、どのサービス提供システム206のどのノード205がどのようなメッセージを、いつ入出力したかを記憶している。
 図12は、リソース消費量情報を格納するリソース消費量テーブルを示す。リソース消費量テーブルは、各ノード205における各種資源の使用率の時系列情報を記憶している。各種資源は、例えば、CPU、RAM、IOPS、NW I/Oである。
 業務パターン検出部102は、サービス測定情報記憶装置204のトラフィック情報テーブルより、サービス提供システム206の、例えば、先頭ノード205のトラフィック情報を取り出す。次いで、業務パターン検出部102は、トラフィック情報の集合を1つの文書として、ベクトル空間モデル等のアルゴリズムを用いて、サービス提供システム206の文書ベクトルを算出する。
 図9は、業務パターン検出部102が作成する文書ベクトルを示す。図9の文書ベクトルは、例えば、予め指定された複数の単語(ターム)の文書内の出現頻度を、ターム毎に算出することで得られる。
 業務パターン検出部102は、この文書ベクトルと、他のサービス提供システム206の文書ベクトルの類似度をコサイン類似度等のアルゴリズムを用いて算出する。そして、その類似度が所定閾値(例:0.8)以上の場合、業務パターン検出部102は、2つのサービス提供システム206の業務パターンは同一であると判定する。そして、業務パターン検出部102は、業務パターンに基づいて、複数のサービス提供システム206をグループ分けし、そのグループ分けを表わす情報を業務パターン記憶部112に格納する。
 図10は、業務パターン記憶部112に格納されるグループ分け情報を示す。この情報は、グループの業務パターンの識別情報と、グループに属するサービス提供システム206の識別子を関連付けて記憶している。図10は、Service1とService23の業務パターンが同一であり、Service3、Service11、Service18の業務パターンが同一である例を示している。
 <ボトルネック推定に基づく導出木重み付け>
 ボトルネック推定部103は、サービス測定情報記憶装置204のリソース消費量テーブルより図12に示すようなCPU、メモリ、IOPS、ネットワークI/Oのリソース消費量情報をノード205毎に取り出す。そして、ボトルネック推定部103は、どのタイプのリソースが逼迫しているか、余り過ぎているかというリソース利用状態を解析し、ノード205の業務パターンにあった最適なリソース配分構成を導出できるような導出木の重み付けを算出する。
 ボトルネック推定部103は、一定期間の各種リソース消費量の平均値をもとに、ノード205のリソース割当、すなわち、指定されているリソースパターンの適正度を評価する。
 この時、ボトルネック推定部103は、例えば、図13に示す評価テーブルを用いて、適正度を評価する。評価テーブルは、リソース消費量の平均値の区間に関連付けて評価値を適正度として格納している。このテーブルは、使用率の適正範囲、例えば、50-80%程度に対して高い適正度を与え、それ以外の使用率が高すぎる範囲(リソース不足)、または低すぎる範囲(リソース余剰)に対して低い適正度を与える。
 ボトルネック推定部103は、各種リソースの適正度の平均を、業務パターンのリソースタイプの重みとして、パターンマスク記憶部113に格納する。
 図14は、パターンマスク記憶部113に格納されているパターンマスクの表(以下、パターンマスクとも称呼する)を示す。パターンマスクは、業務パターンとノードタイプの組み合わせに対する、各リソースタイプの適正度を示す重みを記憶する。ここで、パターンマスクが包含する、ノードタイプとリソースタイプの組み合わせは、導出木で与えられた組み合わせに従っている。
 ボトルネック推定部103は、パターンマスクに、既に重みが格納されている場合は、例えば、その値との和を格納する。ボトルネック推定部103は、この処理をノード205ごとに繰り返すことにより、パターンマスクを作成する。
 <サービス提供システム206の構成最適化(再構成)>
 サービス構成導出部101は、入力装置300より入力されたサービス提供システム206の再構成要求を受け取ると、サービス要件記憶部110からサービス要件を読み出し、業務パターン記憶部112から業務パターンデータを読み出す。さらに、サービス構成導出部101は、パターンマスク記憶部113より、図14に示すようなパターンマスクを読み出す。
 そして、サービス構成導出部101は、サービス要件に記述されている各ノード205について、業務パターンとノードタイプに対して、重みが最大となるリソースパターンを選択する。サービス構成導出部101は、例えば、業務パターンがPattern1であるService1のファイアウォールの場合、重みが12であるリソースタイプ”NW I/O[Large]”を選択する。
 これを繰り返すことで、サービス構成導出部101は、サービス提供システム206を構成するノード205ごとにリソースタイプを割り当てる。その後、サービス構成導出部101は、リソースタイプが割り当てられたノード205を連結して、サービス提供システム206の構成情報とし、サービス構成記憶装置203に格納する。
 構成変更装置202は、新たにサービス構成記憶装置203に格納されたサービス提供システム206の構成を読み出し、サービス実行装置200上にサービス提供システム206を構築し、稼働させる。
 以上により、具体的データに基づく、本実施形態のサービス管理システム100の動作の説明を終了する。この効果については上述した通りである。
 [第2の実施形態]
 図16は、本発明の第2の実施の形態にかかるサービス管理システム100aの構成を示す。本実施の形態にかかるサービス管理システム100aは、ボトルネック推定部103と、サービス構成導出部101を備える。
 ボトルネック推定部103は、複数のノード205のリソースの利用情報から、ノード205が実行する処理の種別を表すノードタイプに対する、ノード205が備えているリソースの質若しくは量の区分を表すリソースタイプの適正度を判定する。
 サービス構成導出部101は、ノードタイプが入力されると、入力されたノードタイプに対する適正度が最も高いリソースタイプを選択して出力する。
 本実施形態に係るサービス管理システム100aは、サービス提供システム206の運転中の振る舞いに応じて、当該システムの構成を改善することができる。
 その理由は、ボトルネック推定部103が、サービス提供システム稼働後のリソース使用情報を基に、サービス提供システムの構成導出に使用するリソース割り当てを示すリソースタイプ決定の為の重みを付けるからである。そして、サービス構成導出部101がその重みに沿って、リソースタイプを選択してサービス提供システムを再構成するからである。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は2016年6月9日に出願された日本出願特願2016-115368基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、サービスを提供するICT(Information and Communication Technology)システムにおいて、更新時に自動でサービス構成を改善し、サービス品質を向上させるといった用途に適用できる。
 100  サービス管理システム
 101  サービス構成導出部
 102  業務パターン検出部
 103  ボトルネック推定部
 110  サービス要件記憶部
 111  導出木記憶部
 112  業務パターン記憶部
 113  パターンマスク記憶部
 200  サービス実行装置
 201  測定装置
 202  構成変更装置
 203  サービス構成記憶装置
 204  サービス測定情報記憶装置
 205  ノード
 206  サービス提供システム
 300  入力装置
 400  サービスシステム
 600  コンピュータ装置
 610  プロセッサ
 620  外部記憶装置
 630  主記憶部
 640  バス
 650  プログラム

Claims (10)

  1.  複数のノードの資源の利用情報から、前記ノードが実行する処理の種別を表すノードタイプに対する、前記ノードが備えている資源の質若しくは量の区分を表すリソースタイプの適正度を判定するボトルネック推定手段と、
     前記ノードタイプが入力されると、入力された前記ノードタイプに対する前記適正度が最も高い前記リソースタイプを選択して出力するサービス構成導出手段と、を備えるサービス管理システム。
  2.  前記ノードに与えられた前記資源を、当該ノードの前記ノードタイプを入力された前記サービス構成導出手段が出力した前記リソースタイプに従って変更する構成変更手段を、さらに備える請求項1のサービス管理システム。
  3.  前記複数のノードが構成する複数のシステムについて、前記システムに属する前記ノードのトラフィック情報の類似度に基づいて、前記システムの業務パターンを判別する業務パターン検出手段を、さらに備え、
     前記ボトルネック解析手段は、前記業務パターンと前記ノードタイプの組み合わせに対する前記リソースタイプの前記適正度を決定し、
     前記サービス構成導出手段は、前記業務パターンと前記ノードタイプの組み合わせを入力されると、入力された前記組み合わせに対する前記適正度が最も高い前記リソースタイプを選択して出力する、請求項1乃至2の何れか1項のサービス管理システム。
  4.  前記業務パターン検出手段は、前記トラフィック情報内に含まれる所定の単語の出現頻度に基づいて、前記トラフィック情報の前記類似度を決定する、請求項3のサービス管理システム。
  5.  前記ノードタイプに関連付けて、当該ノードタイプの前記ノードに与え得る前記資源の前記リソースタイプを記憶する導出木を格納する導出木記憶手段と、
     パターンマスク記憶手段と、をさらに備え、
     前記ボトルネック解析手段は、前記導出木で関連付けられた前記ノードタイプと前記リソースタイプの組み合わせに関連付けて、前記業務パターンと決定した前記適正度をパターンマスク記憶手段に記憶し、
     前記サービス構成導出手段は、前記業務パターンと前記ノードタイプの組み合わせを入力されると、入力された前記組み合わせに対して前記適正度が最も高い前記リソースタイプを前記パターンマスク記憶手段から選択して出力する、請求項3乃至4の何れか1項のサービス管理システム。
  6.  前記ノードタイプは、ファイアウォール、ロードバランサ、ウェブサーバ、アプロケーションサーバ、または、データベースサーバの何れかを包含し、
     前記リソースタイプは、前記ノードが備える、プロセッサ能力、記憶能力、入出力能力、または、通信能力の何れかを表し、
     前記ボトルネック推定手段は、前記ノードが備えている前記資源の一定期間の使用率が、所定の適正範囲内に有る場合に、前記適正範囲内に無い場合より高い前記適正度を決定する請求項1乃至5の何れか1項のサービス管理システム。
  7.  複数のノードの資源の利用情報から、前記ノードが実行する処理の種別を表すノードタイプに対する、前記ノードが備えている資源の質若しくは量の区分を表すリソースタイプの適正度を判定し、
     前記ノードタイプが入力されると、入力された前記ノードタイプに対する前記適正度が最も高い前記リソースタイプを選択して出力する、サービス管理方法。
  8.  前記ノードに与えられた前記資源を、当該ノードの前記ノードタイプに対して選択された前記リソースタイプに従って変更する、請求項7のサービス管理方法。
  9.  前記複数のノードが構成する複数のシステムについて、前記システムに属する前記ノードのトラフィック情報の類似度に基づいて、前記システムの業務パターンを判別し、
     前記業務パターンと前記ノードタイプの組み合わせに対する前記リソースタイプの前記適正度を決定し、
     前記業務パターンと前記ノードタイプの組み合わせを入力されると、入力された前記組み合わせに対する前記適正度が最も高い前記リソースタイプを選択して出力する、請求項7乃至8の何れか1項のサービス管理方法。
  10.  複数のノードの資源の利用情報から、前記ノードが実行する処理の種別を表すノードタイプに対する、前記ノードが備えている資源の質若しくは量の区分を表すリソースタイプの適正度を判定するボトルネック推定処理と、
     前記ノードタイプが入力されると、入力された前記ノードタイプに対する前記適正度が最も高い前記リソースタイプを選択して出力するサービス構成導出処理と、をコンピュータに実行させるサービス管理プログラムを格納する記憶媒体。
PCT/JP2017/020752 2016-06-09 2017-06-05 サービス管理システム、サービス管理方法、および、記録媒体 WO2017213065A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016115368 2016-06-09
JP2016-115368 2016-06-09

Publications (1)

Publication Number Publication Date
WO2017213065A1 true WO2017213065A1 (ja) 2017-12-14

Family

ID=60577920

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/020752 WO2017213065A1 (ja) 2016-06-09 2017-06-05 サービス管理システム、サービス管理方法、および、記録媒体

Country Status (1)

Country Link
WO (1) WO2017213065A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109948996A (zh) * 2019-01-28 2019-06-28 平安科技(深圳)有限公司 审批流程可视化展示方法、装置及计算机设备、存储介质
WO2023246106A1 (en) * 2022-06-20 2023-12-28 Zhejiang Dahua Technology Co., Ltd. Methods and devices for information transmission

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046372A (ja) * 2002-07-09 2004-02-12 Nippon Telegr & Teleph Corp <Ntt> 分散処理システム、リソース割当方法およびプログラムならびにリソース割当プログラムが記録された記録媒体
JP2011128706A (ja) * 2009-12-15 2011-06-30 Fujitsu Ltd 仮想計算機割当資源管理プログラム、仮想計算機割当資源管理装置および仮想計算機割当資源管理方法
US20130263091A1 (en) * 2012-03-31 2013-10-03 Bmc Software, Inc. Self-evolving computing service template translation
WO2016038857A1 (ja) * 2014-09-09 2016-03-17 日本電気株式会社 スケール数推定装置、スケール数管理システム、スケール数推定方法、スケール数管理方法、および、記憶媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046372A (ja) * 2002-07-09 2004-02-12 Nippon Telegr & Teleph Corp <Ntt> 分散処理システム、リソース割当方法およびプログラムならびにリソース割当プログラムが記録された記録媒体
JP2011128706A (ja) * 2009-12-15 2011-06-30 Fujitsu Ltd 仮想計算機割当資源管理プログラム、仮想計算機割当資源管理装置および仮想計算機割当資源管理方法
US20130263091A1 (en) * 2012-03-31 2013-10-03 Bmc Software, Inc. Self-evolving computing service template translation
WO2016038857A1 (ja) * 2014-09-09 2016-03-17 日本電気株式会社 スケール数推定装置、スケール数管理システム、スケール数推定方法、スケール数管理方法、および、記憶媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109948996A (zh) * 2019-01-28 2019-06-28 平安科技(深圳)有限公司 审批流程可视化展示方法、装置及计算机设备、存储介质
WO2023246106A1 (en) * 2022-06-20 2023-12-28 Zhejiang Dahua Technology Co., Ltd. Methods and devices for information transmission

Similar Documents

Publication Publication Date Title
CN112153700B (zh) 一种网络切片资源管理方法及设备
US11233710B2 (en) System and method for applying machine learning algorithms to compute health scores for workload scheduling
Ghanbari et al. Resource allocation mechanisms and approaches on the Internet of Things
CN113315700B (zh) 算力资源调度方法、装置和存储介质
CN108475207B (zh) 云应用的联合自动缩放
US11751067B2 (en) Performance assurance and optimization for GAA and PAL devices in a CBRS network for private enterprise environment
Sandhu et al. Scheduling of big data applications on distributed cloud based on QoS parameters
CN105704255B (zh) 一种基于遗传算法的服务器负载均衡方法
Huang et al. Scalable orchestration of service function chains in NFV-enabled networks: A federated reinforcement learning approach
US9740534B2 (en) System for controlling resources, control pattern generation apparatus, control apparatus, method for controlling resources and program
Kim et al. Multi-agent reinforcement learning-based resource management for end-to-end network slicing
CN117632361A (zh) 一种资源调度方法、装置及相关设备
Filiposka et al. Community-based VM placement framework
Benedetti et al. Reinforcement learning applicability for resource-based auto-scaling in serverless edge applications
Rahmani et al. Burst‐aware virtual machine migration for improving performance in the cloud
WO2017213065A1 (ja) サービス管理システム、サービス管理方法、および、記録媒体
Banerjee et al. Game theoretic conflict resolution mechanism for cognitive autonomous networks
Sadegh et al. A two-phase virtual machine placement policy for data-intensive applications in cloud
CN114205317A (zh) 基于sdn与nfv的服务功能链sfc资源分配方法及电子设备
CN103825963B (zh) 虚拟服务迁移方法
Zheng et al. An RBF neural network–based dynamic virtual network embedding algorithm
CN114978913B (zh) 一种基于切链的服务功能链跨域部署方法及系统
Sufiev et al. DCF: Dynamic cluster flow architecture for SDN control plane
CN112783673A (zh) 一种调用链的确定方法、装置、计算机设备及存储介质
Teixeira et al. Virtual network allocation (SDN) in cloud computing using evolutionary algorithm

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17810242

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17810242

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP