WO2019159875A1 - 配置構成装置、および、配置構成方法 - Google Patents

配置構成装置、および、配置構成方法 Download PDF

Info

Publication number
WO2019159875A1
WO2019159875A1 PCT/JP2019/004801 JP2019004801W WO2019159875A1 WO 2019159875 A1 WO2019159875 A1 WO 2019159875A1 JP 2019004801 W JP2019004801 W JP 2019004801W WO 2019159875 A1 WO2019159875 A1 WO 2019159875A1
Authority
WO
WIPO (PCT)
Prior art keywords
resource
placement
destination
arrangement
area
Prior art date
Application number
PCT/JP2019/004801
Other languages
English (en)
French (fr)
Inventor
浩亮 坂田
求 中島
裕司 副島
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Publication of WO2019159875A1 publication Critical patent/WO2019159875A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]

Definitions

  • the present invention relates to an arrangement configuration apparatus and an arrangement configuration method.
  • VMs virtual machines
  • SDN Software-Defined Networking
  • VNF Virtualized Network Function
  • Patent Document 1 describes an apparatus that manages VNF as a network service. When a network service is requested to be generated asynchronously by a plurality of operators, this apparatus performs arbitration so as to avoid redundant allocation of resources for operating the network service to a plurality of operators.
  • SLA Service Level Agreement
  • FIG. 11 is an explanatory diagram showing VMs allocated to each area.
  • the “arrangement destination area” is an area where the VM is arranged.
  • the placement destination area of VM1 is “area A”
  • the placement destination area of VM3 is “area B”.
  • “Arrangement destination resources” are computer resources and communication resources used by VMs arranged in the arrangement destination area for operation.
  • the placement resources of the VM 1 are computer resources of a physical server existing in the area A and communication resources of a network connected to the physical server.
  • FIG. 12 is an explanatory diagram illustrating a process of releasing a VM relocation destination from the state of FIG. It is assumed that a failure has occurred in the placement destination resource of the VM 3 in the area B (x mark). It is assumed that area C can provide the same placement destination resource as the placement destination resource in area B, but area D cannot provide the same placement destination resource. At this time, the VM 5 operating in the area C is rearranged in the area D, thereby freeing the placement destination resource in the area C.
  • FIG. 13 is an explanatory diagram showing a process of relocating a VM from a state shown in FIG. 11 to a resource vacated as a relocation destination.
  • the VM 3 in the area B is rearranged in the area C where the placement destination resource is vacated in FIG.
  • VM 3 can recover in area C and resume operation.
  • the suspension period of the VM 3 becomes long, so that the SLA from the viewpoint of the recovery time of the VM 3 is not satisfied.
  • FIG. 14 is an explanatory diagram showing VMs allocated to each area by distinguishing usage resource requirements.
  • “Used resource requirement” is determined for each VM, and indicates the type and amount of resources required for the VM to execute. For example, in FIG. 14, VMs (VM1, VM3) surrounded by thin lines have a first resource usage requirement that operates even with a small number of resources. On the other hand, the VM (VM2, VM4) surrounded by a thick line has a second use resource requirement for operating with more resources than the VM surrounded by a thin line.
  • the “providable resource” is a resource that each area can provide to operate the VM.
  • the area X having resources that can be provided that satisfies the first use resource requirement but does not satisfy the second use resource requirement is surrounded by a thin line.
  • the area Y having the resources that can be provided that satisfies both the first use resource requirement and the second use resource requirement is surrounded by a thick line.
  • the main object of the present invention is to shorten the interruption time of a service even if a problem occurs in an operational physical resource with respect to a service constructed by a virtualization technology.
  • the arrangement configuration apparatus of the present invention has the following characteristics.
  • the present invention includes an arrangement target receiving unit that receives an arrangement request specifying a virtual function unit to be arranged in which the use resource requirement is defined, A resource data management unit that manages, as resource data, resources that can be provided to operate the virtual function unit, collected from each area that is a candidate for placement of the virtual function unit; Based on the resource data of the resource data management unit, a candidate set of areas satisfying the used resource requirement of the virtual function unit is extracted, and one area belonging to the extracted candidate set is set as a placement destination area and extracted A placement destination calculation unit that calculates placement configuration data using one or more areas belonging to the candidate set as a spare placement destination area; According to the arrangement configuration data, the virtual function unit is arranged in the arrangement destination resource of the arrangement destination area and the spare arrangement destination resource of the virtual function unit is secured in the spare arrangement destination area. And a placement control unit that performs control so that the virtual function unit is rearranged from the placement destination resource to the spare placement destination resource
  • a spare placement destination resource as a rearrangement destination of the virtual function unit is prepared in advance before a failure occurs. Therefore, when a failure occurs, the process of searching for the relocation destination of the virtual function unit is omitted, and the interruption of the service provided by the virtual function unit is shortened by immediately relocating the virtual function unit to the reserve allocation destination resource. be able to.
  • the placement destination calculation unit selects an area with the fewest resources that can be provided from the candidate set as the placement destination area of the virtual function unit, and selects the spare placement destination area from the candidate set. An area that matches a predetermined policy is selected as the spare placement destination area of the virtual function unit.
  • the placement destination calculation unit selects the same area as the placement destination area as the spare placement destination area according to the predetermined policy,
  • the placement control unit rearranges the virtual function unit in the spare placement destination resource secured in the same area as the failed placement destination resource in the placement destination area.
  • Virtual function units can be arranged and rearranged.
  • the placement destination calculation unit selects, as the spare placement destination area, an area different from the placement destination area according to the predetermined policy.
  • the placement control unit rearranges the virtual function unit in the spare placement destination resource secured in an area different from the failed placement destination resource in the placement destination area.
  • an area where the virtual function unit different from the virtual function unit to be arranged is already operating in accordance with the predetermined policy is determined in the virtual function unit to be arranged by the placement destination calculating unit. It is selected as a preliminary arrangement destination area.
  • the placement configuration data is changed based on the use resource requirement after the change.
  • the placement control unit controls the placement control unit to update the placement destination resource and the spare placement destination resource of the virtual function unit based on the recalculated placement configuration data. It is characterized by making it.
  • the service interruption time can be shortened even if a problem occurs in the physical resource in operation for the service constructed by the virtualization technology.
  • FIG. 9 is an explanatory diagram when a failure occurs in a resource on a VM from the state of FIG. 8. It is explanatory drawing which shows the condition where the area X made into the rearrangement destination from the state of FIG. 9 cannot be used. It is explanatory drawing which shows VM allocated to each area.
  • FIG. 12 is an explanatory diagram illustrating processing for clearing a VM relocation destination from the state of FIG. 11.
  • FIG. 12 is an explanatory diagram illustrating processing for rearranging VMs to resources that are vacant as a rearrangement destination from the state of FIG. 11; It is explanatory drawing which shows VM allocated to each area, distinguishing use resource requirements. It is explanatory drawing when VM with a low use resource requirement is rearranged from the state of FIG. It is explanatory drawing when VM with a high use resource requirement is rearranged from the state of FIG.
  • FIG. 1 is an explanatory diagram showing placement destination resources and spare placement destination resources allocated to each area.
  • Preliminary placement destination area refers to an area (prior to the occurrence of a failure) that becomes a new placement destination area when a VM placed in the placement destination area becomes difficult to operate due to a failure or the like. Evacuation site).
  • the “spare placement destination resource” is a resource secured in the spare placement destination area for use by a VM that is rearranged after a failure occurs.
  • the use resource requirement is, for example, a requirement defined by SLA.
  • a new placement destination resource for each placement target VM and a spare placement destination resource for rearrangement in preparation for a future failure are provided.
  • the main feature is that the arrangement is ensured in combination.
  • the reserve placement destination resource of VM2 is also prepared in area B
  • the reserve placement destination resources of VM1 and VM2 are prepared in area B (denoted as “VM1 & 2” in the figure).
  • the spare placement destination areas of VMs 3 and 4 having high use resource requirements are area D having a large number of spare placement destination resources (indicated as “VM3 & 4” in the figure). That is, in consideration of the VM usage resource requirements, not only the placement destination area but also the spare placement destination area is determined.
  • FIG. 2 is an explanatory diagram showing a process of rearranging the VM1 on the allocation destination resource from the state of FIG. 1 to the spare allocation destination resource.
  • FIG. 3 is an explanatory diagram showing the recalculation processing of the spare allocation destination resource from the state of FIG.
  • the VM2 surrounded by the thin line in FIG. 1 has a low use resource requirement, but the VM2 surrounded by a thick line in FIG. 3 is changed to one having a high use resource requirement.
  • the placement configuration is flexibly recalculated so that the reserve placement destination resource is changed from area B to area D (indicated as “VM2 & 3 & 4” in the figure). You can also
  • FIG. 4 is a configuration diagram of the resource management system.
  • the resource management system is configured by connecting an NW management system 21, an NW collection system 22, an NW control system 23, a resource providing system 24, and a service management apparatus (arrangement configuration apparatus) 1 via a network.
  • NW is an abbreviation for network.
  • the service management device 1 is configured as a computer having a CPU (Central Processing Unit), a memory, storage means (storage unit) such as a hard disk, and a network interface.
  • the CPU executes a program (also referred to as an application or its abbreviated application) read on the memory, thereby operating a control unit (control means) configured by each processing unit.
  • a program also referred to as an application or its abbreviated application
  • the resource providing system 24 is a computer that provides resources (arrangement destination resources, spare allocation destination resources) for operating virtual function units such as the VM and VNF described with reference to FIGS. 1 to 3 in order to provide services.
  • Environment physical server, physical network device.
  • One or more physical servers are grouped as one area.
  • the NW collection system 22 measures the available resources for each resource of the resource providing system 24.
  • the providable resource is a combination of one or a plurality of specifications exemplified below.
  • CPU specifications number of cores, number of clocks, etc.
  • -Memory specifications transfer speed, storage capacity, etc.
  • Network specifications network quality indicators such as communication bandwidth, delay, packet loss rate
  • the NW control system 23 reflects the arrangement configuration data illustrated in FIGS. 1 to 3 for each resource of the resource providing system 24, thereby allocating the virtual function unit to the allocation destination resource, and the spare allocation destination. Allocate the relocation destination of the virtual function part to the resource.
  • the NW management system 21 is a system for allowing an administrator to input various requests to the resource providing system 24 via the service management apparatus 1. The various requests are, for example, an arrangement request for newly arranging a virtual function unit or a relocation request for relocating a virtual function unit that has already been arranged when a failure occurs.
  • the NW management system 21, the NW collection system 22, and the NW control system 23 described above operate as an orchestrator for automating the setting and management of the resource providing system 24.
  • the service management apparatus 1 includes an arrangement target receiving unit 11, an arrangement configuration data management unit 12, a resource data management unit 13, an arrangement destination calculation unit 14, a policy data management unit 15, and an arrangement control unit 16. Composed.
  • the placement target accepting unit 11 accepts a placement request including the used resource requirement for the virtual function unit (VM, VNF) that is the placement target (also accepts a use resource requirement change request shown in FIG. 3).
  • the resource usage requirement is expressed using the above-mentioned various specifications as a provisionable resource collected by the NW collection system 22, and is notified as, for example, a parameter in a VM catalog or a VNF catalog.
  • the resource data management unit 13 manages each available resource of the resource providing system 24 collected by the NW collection system 22.
  • the placement destination calculation unit 14 collates the use resource requirements received by the placement target reception unit 11 with the available resources managed by the resource data management unit 13, thereby providing a placement destination area and a spare area that can provide the use resource requirements.
  • the placement destination area is calculated as placement configuration data.
  • the arrangement configuration data management unit 12 manages arrangement configuration data that is a calculation result of the arrangement destination calculation unit 14.
  • the placement control unit 16 causes the NW control system 23 to control the placement destination resource and the spare placement destination resource according to the placement configuration data managed by the resource data management unit 13.
  • the policy data management unit 15 receives and holds various policies (area selection policy, resource reservation policy) used for calculation by the placement destination calculation unit 14 from the administrator via the NW management system 21.
  • the area selection policy will be described later with reference to FIG. 6, and the resource securing policy will be described below.
  • FIG. 5 is an explanatory diagram showing processing of the placement destination calculation unit 14.
  • the placement destination calculation unit 14 sets only the area C having 5M or more available resources as a candidate set for the VM2. In this way, the placement destination calculation unit 14 matches the resource requirement for each VM or VNF with the available resources for each area (or for each physical server in the area) with specification information such as communication quality.
  • FIG. 6 is a table showing an example of the arrangement configuration data management unit 12.
  • the placement destination calculation unit 14 creates placement configuration data in which a placement destination area and a spare placement destination area are selected from a candidate set of areas.
  • the “area selection policy” stored in the policy data management unit 15 is a policy for determining how to select the placement destination area and the spare placement destination area from the candidate set.
  • the area selection policy is exemplified below.
  • Policy 1 Select a placement destination area with the fewest available resources from the candidate set, exclude the placement destination area, and select one or more spare placement destination areas in the order of the few available resources. Thereby, since VMs are concentrated and arranged in a specific area, it is possible to reduce inefficient resource operation in which excessive resources that are not normally used are always provided.
  • Policy 2 The spare placement destination area and the placement destination area are selected as the same area. That is, the physical server of the placement destination resource and the physical server of the spare placement destination resource belong to the same area.
  • Policy 3 The spare placement destination area and the placement destination area are selected as different areas.
  • Policy 4 The same area as the area where another VM is already operating (arrangement destination area for another VM) is selected from the current candidate set as a spare arrangement destination area.
  • Policy 5 Preferentially select an area having an available resource with low power consumption from the candidate set.
  • FIG. 7 is a sequence diagram showing processing of the resource management system.
  • S11 to S17 an arrangement process for the first VM-A will be described.
  • the placement target accepting unit 11 accepts a VM-A placement request from the NW management system 21.
  • the use resource requirement of the VM-A that is the allocation target is described as a parameter in the VNF catalog that “uses a communication band of 3M [bps]”.
  • FIG. 7 only the communication band is used as an example of the use resource requirement. However, this is only simplified for easy understanding, and the use resource requirement is limited to only one specification of the communication band. It is not a thing.
  • the usage resource requirements are also expressed by a single specification of CPU specifications, memory specifications, and network specifications, or a combination of multiple types of specifications.
  • the resource data management unit 13 requests available resources from the servers in each of the areas A to C via the NW collection system 22 in order to search for the placement destination of the VM-A in S11.
  • Each server responds to the resource data management unit 13 with a resource that can be provided (such as a measurement result of the current specification).
  • a resource that can be provided such as a measurement result of the current specification.
  • the resource that can be provided in area A is 10M (S12)
  • the resource that can be provided in area B is 5M (S13)
  • the resource that can be provided in area C is 1M (S14).
  • the placement target accepting unit 11 accepts a VM-B placement request from the NW management system 21.
  • the usage resource requirement of the VM-B that is the allocation target is described as a parameter in the VNF catalog that “uses 1M [bps] of communication band”.
  • the resource data management unit 13 requests a resource that can be provided to the servers in the areas A to C via the NW collection system 22 in order to search for the placement destination of the VM-B in S21.
  • Each server responds to the resource data management unit 13 with its own resource that can be provided.
  • the resource that can be provided in the area A is 10M in S12.
  • a response of 7M is returned in S22.
  • the resource that can be provided in area B is 5M in S13.
  • a response of 2M is returned in S23.
  • the resources that can be provided in area C are returned as 1M in S24 as in S14.
  • a combination of a placement destination resource and a spare placement destination resource is prepared in advance for each VM in association with each other, and a spare placement destination area that satisfies the usage resource requirement is secured in advance before a failure occurs.
  • the VM in which a failure has occurred in the placement destination resource is quickly relocated to the spare placement destination resource, and thus can satisfy the failure recovery time defined in the SLA.
  • the VM relocation processing from the current equipment resource usage status to the optimal allocation configuration it is possible to reduce the time required for recovery after a failure and to reduce the service interruption time due to the failure. .
  • S32 is a case where a VM-B spare placement destination resource exists on the server in the failed area B.
  • the VM-B is currently operating on the allocation resource of the area C (S26), and has not been directly damaged by the failure of the area B.
  • the placement destination calculation unit 14 extracts a set of areas that can provide the used resource requirement as a candidate set (FIG. 5). Then, the placement destination calculation unit 14 selects a combination of the placement destination area and the spare placement destination area from the candidate set area (FIG. 6). As a result, even if the placement destination resource fails, another spare placement destination resource that satisfies the resource requirement is already prepared, so the VM and VNF can be quickly relocated to shorten the service interruption time. it can.
  • the arrangement configuration data (arrangement destination area and spare arrangement destination area) created by the arrangement destination calculation unit 14 has been described focusing on the “area” of the resource providing system 24.
  • the arrangement configuration data created by the arrangement destination calculation unit 14 will be described focusing on individual “servers” provided by the resource providing system 24. In this description, it is read as follows. Replace “area candidate set” with “server candidate set”.
  • the server candidate set is a set of servers of the resource providing system 24 that satisfies the usage resource requirements of the placement target virtual function unit received by the placement target receiving unit 11. ⁇ Replace “placement destination area” with “placement destination server”.
  • the placement destination server is a server that is the placement destination of the virtual function unit to be placed in the placement configuration data created by the placement destination calculation unit 14. -Replace "spare placement destination area" with “spare placement destination server”.
  • the spare placement destination server is a server that becomes a rearrangement destination when the placement destination server fails in the placement configuration data created by the placement destination calculation unit 14.
  • the processes of S11 to S17 in FIG. 7 are replaced as follows by the above replacement.
  • the placement target receiving unit 11 receives a placement target virtual function unit for which the use resource requirement is defined as a placement request.
  • the resource data management unit 13 requests each server of the resource providing system 24 for available resources via the NW collection system 22 in order to search for the placement destination of the virtual function unit received in S11. .
  • the placement destination calculation unit 14 extracts, as a candidate set, a set of servers in which the available resources of each server responded in S12 to S14 satisfy the use resource requirement of S11.
  • the placement destination calculation unit 14 selects, from the extracted candidate set of servers, for example, a placement destination server with the fewest available resources and a spare placement destination server with the second smallest available resources. Create placement configuration data.
  • the placement control unit 16 places the virtual function unit received in S11 in the placement destination resource of the placement destination server in S15 (S16), and reserves the spare placement destination resource in the spare placement destination server in S15 (S17).
  • redundancy technology using hot spare is illustrated as a physical layer implementation.
  • the hot spare can obtain the same effect.
  • costs such as facility introduction costs and maintenance costs are required. It is only necessary to prepare a hot spare for a virtual machine on a physical machine for that physical machine.
  • a hot spare is prepared extensively from end to end, which requires a large cost.
  • FIG. 8 is an explanatory diagram showing VMs allocated to each area. No VM is currently assigned to area X, and it is prepared as a hot spare.
  • FIG. 9 is an explanatory diagram when a failure occurs in a resource on the VM from the state of FIG. Assume that a failure occurs in the VM 3 in the area B (x mark). Therefore, an attempt is made to rearrange the VM 3 in the area X.
  • FIG. 10 is an explanatory diagram showing a situation in which the area X which is the relocation destination from the state of FIG. 9 cannot be used. It is also possible that the physical server prepared as a hot spare in area X was actually broken. This is because the hot spare does not normally operate, so the sleep state becomes longer and the operation check may be neglected.
  • the NW collection system 22 collects resources that can actually be provided in S12 to S14 in FIG. As a result, it is possible to prepare an operable reserve destination resource. Furthermore, as shown in FIG. 3, the service management apparatus 1 according to the present embodiment can flexibly cope with changes in the usage resource requirements. On the other hand, since the hot spare performs redundancy as a hardware resource, when the usage resource requirement is changed, a large cost is required to reconstruct the redundant configuration.
  • the arrangement configuration data according to the present invention has been described with the four VMs and four areas shown in FIG. 1, but is not limited to the number and configuration of these.
  • hardware resources of a general computer can be realized by a program that operates as each unit of the service management apparatus 1.
  • the program can be distributed via a communication line, or can be recorded on a recording medium such as a CD-ROM for distribution.
  • Service management device (configuration component device) DESCRIPTION OF SYMBOLS 11 Placement object reception part 12 Placement configuration data management part 13 Resource data management part 14 Placement destination calculation part 15 Policy data management part 16 Placement control part 21 NW management system 22 NW collection system 23 NW control system 24 Resource provision system

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Hardware Redundancy (AREA)

Abstract

【課題】仮想化技術で構築されたサービスに対して、動作上の物理リソースに問題が発生しても、サービスの中断時間を短縮すること。 【解決手段】サービス管理装置1は、リソースデータ管理部13のリソースデータをもとに、VMの使用リソース要件を満たすエリアの候補集合を抽出し、その抽出した候補集合に属する1つのエリアを配置先エリアとし、抽出した候補集合に属する1つ以上のエリアを予備配置先エリアとする配置先計算部14と、配置先計算部14の計算結果に従って、VMを配置先エリアの配置先リソースに配置するとともに予備配置先エリアにVMの予備配置先リソースを確保し、その配置後の配置先リソースの故障発生時には、配置先リソースから予備配置先リソースにVMを再配置する配置制御部16とを有する。

Description

配置構成装置、および、配置構成方法
 本発明は、配置構成装置、および、配置構成方法に関する。
 1台の物理マシン上に、複数の仮想マシン(VM:Virtual Machine)を動作させることにより、物理マシンの細かい設定作業の負担を軽減させるとともに、マシン構成を柔軟に変更できる。このようなサーバ仮想化技術と同様に、ネットワーク機能も物理デバイスに依存しないように仮想化する試みが行われている。
 SDN(Software-Defined Networking)は、ソフトウェア技術によりネットワークを仮想化する技術であり、VMに相当するような仮想化されたネットワーク機能は、VNF(Virtualized Network Function)と呼ばれる。これにより、ネットワークの運用管理を効率化することができる。
 特許文献1には、VNFをネットワークサービスとして管理する装置が記載されている。この装置は、複数のオペレータから非同期にネットワークサービスが生成要求されるときに、ネットワークサービスを動作させるリソースを複数のオペレータに重複して割り当てることを回避するように調停する。
特開2017-143452号公報
 SDNの浸透により、データセンタやクラウドなどでもVNFの採用が増えている。このような商用利用においては、仮想技術であっても、従来の物理リソースを提供するときと同等のSLA(Service Level Agreement)が求められることもある。例えば、物理リソースに故障が発生したとしても、その復旧するまでにサービスを中断する時間の許容時間がSLAとして求められる。
 一方、特許文献1などの従来の仮想化技術では、リソースの利用効率を最適化するなどの故障が発生しない状況での配置最適化は行われていた。しかし、故障が発生してから復旧するまでの中断時間を最小化するという観点での最適化は考慮されていない。
 以下、図11~図16を参照して、サービスの中断時間のSLAを満たすときの問題を詳細に説明する。以下では、SLAを遵守する対象の仮想化技術をVMとして例示するが、VNFの場合も同様である。
 図11は、各エリアに割り当てられているVMを示す説明図である。
 「配置先エリア」とは、VMが配置される先のエリアである。例えば、VM1の配置先エリアは「エリアA」であり、VM3の配置先エリアは「エリアB」である。
 「配置先リソース」とは、配置先エリア内で配置されたVMが動作のために使用する計算機資源や通信資源である。例えば、VM1の配置先リソースは、エリアA内に存在する物理サーバの計算機資源と、その物理サーバに接続されるネットワークの通信資源である。
 図12は、図11の状態からVMの再配置先を空ける処理を示す説明図である。
 エリアB内のVM3の配置先リソースに故障が発生したとする(×印)。エリアCはエリアB内の配置先リソースと同等の配置先リソースを提供できるが、エリアDは同等の配置先リソースを提供できないとする。
 このとき、エリアCで稼働中のVM5をエリアDに再配置することで、エリアC内の配置先リソースを空けておく。
 図13は、図11の状態から再配置先として空いたリソースにVMを再配置する処理を示す説明図である。
 エリアB内のVM3は、図12で配置先リソースを空けておいたエリアC内に再配置される。これにより、VM3はエリアBで配置先リソースに故障が発生した後でも、エリアCで復旧して稼働を再開することができる。
 しかし、故障が発生した後に再配置先を準備するような事後的な対応では、VM3の中断期間が長期化してしまうので、VM3の復旧時間の観点でのSLAを満たさなくなってしまう。
 図14は、使用リソース要件を区別して、各エリアに割り当てられているVMを示す説明図である。
 「使用リソース要件」は、VMごとに定められており、VMが実行するのに要するリソースの種類や分量を示す。例えば、図14では細線で囲まれたVM(VM1,VM3)は、少ないリソースでも動作する第1使用リソース要件が定められている。一方、太線で囲まれたVM(VM2,VM4)は、細線で囲まれたVMよりも多いリソースで動作する第2使用リソース要件が定められている。
 「提供可能リソース」は、各エリアがVMを動作させるために提供することができるリソースである。
 例えば、第1使用リソース要件を満たすが第2使用リソース要件を満たさない程度の提供可能リソースを有するエリアXは、細線で囲まれている。一方、第1使用リソース要件も第2使用リソース要件も満たす程度の提供可能リソースを有するエリアYは、太線で囲まれている。
 図15は、図14の状態から使用リソース要件が低いVMを再配置したときの説明図である。VM1は第1使用リソース要件(少ないリソース)で動作するので、提供可能リソースも少ない予備配置先エリア=エリアX内に再配置される。
 図16は、図14の状態から使用リソース要件が高いVMを再配置したときの説明図である。VM2は第2使用リソース要件(多いリソース)で動作するので、提供可能リソースも多い予備配置先エリア=エリアY内に再配置される。
 このように、図14~図16では使用リソース要件を考慮して予備配置先エリアを決定する必要がある。つまり、故障が発生した後に再配置先を用意するときに、使用リソース要件も考慮する場合にはさらに中断時間が長期化してしまう。
 そこで、本発明は、仮想化技術で構築されたサービスに対して、動作上の物理リソースに問題が発生しても、サービスの中断時間を短縮することを、主な課題とする。
 前記課題を解決するために、本発明の配置構成装置は、以下の特徴を有する。
 本発明は、使用リソース要件が規定された配置対象の仮想機能部を指定した配置要求を受け付ける配置対象受付部と、
 前記仮想機能部の配置先の候補となる各エリアから収集された、前記仮想機能部を稼働させるために提供可能なリソースをリソースデータとして管理するリソースデータ管理部と、
 前記リソースデータ管理部のリソースデータをもとに、前記仮想機能部の前記使用リソース要件を満たすエリアの候補集合を抽出し、その抽出した前記候補集合に属する1つのエリアを配置先エリアとし、抽出した前記候補集合に属する1つ以上のエリアを予備配置先エリアとした配置構成データを計算する配置先計算部と、
 前記配置構成データに従って、前記仮想機能部を前記配置先エリアの配置先リソースに配置するとともに前記予備配置先エリアに前記仮想機能部の予備配置先リソースを確保し、
 その配置後の前記配置先リソースの故障発生時には、前記配置先リソースから前記予備配置先リソースに前記仮想機能部を再配置するように制御する配置制御部とを有することを特徴とする。
 これにより、故障発生の前でも故障発生の後でも、使用リソース要件を満たすリソース上で仮想機能部を稼働させることができる。そして、あらかじめ仮想機能部の再配置先としての予備配置先リソースが、故障発生前に用意されている。よって、故障発生時には、仮想機能部の再配置先を検索する処理を省略し、ただちに仮想機能部を予備配置先リソースに再配置させることで、仮想機能部が提供するサービスの中断時間を短縮することができる。
 本発明は、前記配置先計算部が、前記候補集合から提供可能リソースが最も少ないエリアを前記仮想機能部の前記配置先エリアとして選択し、前記候補集合から前記予備配置先エリアを選択するための所定のポリシに合致するエリアを前記仮想機能部の前記予備配置先エリアとして選択することを特徴とする。
 これにより、1つのエリアに仮想機能部が集中して配置されるので、リソースの利用効率を高めることができる。なお、他の配置済みの仮想機能部にリソースを使用されることで、残った提供可能リソースが少ないエリアほど、多くの仮想機能部が配置済みである傾向にある。
 本発明は、前記配置先計算部が、前記所定のポリシに従って、前記配置先エリアと同じエリアを前記予備配置先エリアとして選択し、
 前記配置制御部が、前記配置先エリア内の故障した前記配置先リソースと同じエリア内に確保されている前記予備配置先リソースに、前記仮想機能部を再配置することを特徴とする。
 これにより、他のエリアでは満たせないような厳しい使用リソース要件が指定された仮想機能部であっても、その厳しい使用リソース要件を満たす程度に提供可能なリソースが豊富なエリア内に集中して、仮想機能部を配置および再配置することができる。
 本発明は、前記配置先計算部が、前記所定のポリシに従って、前記配置先エリアと異なるエリアを前記予備配置先エリアとして選択し、
 前記配置制御部が、前記配置先エリア内の故障した前記配置先リソースと異なるエリア内に確保されている前記予備配置先リソースに、前記仮想機能部を再配置することを特徴とする。
 これにより、配置先エリアだけでなく他のエリアまで予備配置先エリアの選択肢が広がることで、保有するすべてのサーバリソースを有効に活用して予備配置先エリアを確保できる。
 本発明は、前記配置先計算部が、前記所定のポリシに従って、配置対象の前記仮想機能部とは別の前記仮想機能部がすでに稼働しているエリアを、配置対象の前記仮想機能部における前記予備配置先エリアとして選択することを特徴とする。
 これにより、稼働中の仮想機能部と、別の仮想機能部用の予備配置先リソースとが同じエリア内に混在する。よって、予備配置先リソースだけしか存在しないエリアが減ることで、遊休状態のリソースを過剰に常時備えておくような非効率なリソース運用を減らすことができる。
 本発明は、前記配置対象受付部が、すでに配置された前記仮想機能部についての前記使用リソース要件が変更された旨を受け付けると、変更後の前記使用リソース要件に基づいて、前記配置構成データを前記配置先計算部に再計算させるとともに、その再計算された前記配置構成データに基づいて、前記仮想機能部の前記配置先リソースおよび前記予備配置先リソースを更新するように前記配置制御部に制御させることを特徴とする。
 これにより、使用リソース要件が低い状態で配置された仮想機能部に対して、新たに事業間の契約により使用リソース要件を引き上げるような、変化するSLAに応じた柔軟なネットワーク運用が可能となる。
 本発明によれば、仮想化技術で構築されたサービスに対して、動作上の物理リソースに問題が発生しても、サービスの中断時間を短縮することができる。
本実施形態に係わる各エリアに割り当てられている配置先リソースおよび予備配置先リソースを示す説明図である。 本実施形態に係わる図1の状態から配置先リソース上のVM1を予備配置先リソースに再配置する処理を示す説明図である。 本実施形態に係わる図1の状態から予備配置先リソースの再計算処理を示す説明図である。 本実施形態に係わるリソース管理システムの構成図である。 本実施形態に係わる配置先計算部の処理を示す説明図である。 本実施形態に係わる配置構成データ管理部の一例を示すテーブルである。 本実施形態に係わるリソース管理システムの処理を示すシーケンス図である。 各エリアに割り当てられているVMを示す説明図である。 図8の状態からVM上のリソースに故障が発生したときの説明図である。 図9の状態から再配置先としたエリアXが利用不可能である状況を示す説明図である。 各エリアに割り当てられているVMを示す説明図である。 図11の状態からVMの再配置先を空ける処理を示す説明図である。 図11の状態から再配置先として空いたリソースにVMを再配置する処理を示す説明図である。 使用リソース要件を区別して、各エリアに割り当てられているVMを示す説明図である。 図14の状態から使用リソース要件が低いVMを再配置したときの説明図である。 図14の状態から使用リソース要件が高いVMを再配置したときの説明図である。
 以下、本発明の一実施形態について、図面を参照して詳細に説明する。
 まず、本発明の概要について、図1~図3を参照して説明する。
 図1は、各エリアに割り当てられている配置先リソースおよび予備配置先リソースを示す説明図である。
 「予備配置先エリア」とは、配置先エリア内で配置されたVMが故障発生などにより稼働が困難になったときに、新たな配置先エリアとなるように故障発生前に指定されたエリア(避難場所)である。
 「予備配置先リソース」とは、故障発生後に再配置されたVMが使用するために、予備配置先エリア内に確保されたリソースである。例えば、図1では、図14と同様に、使用リソース要件が高いVM3,4と、予備配置先リソースが多い予備配置先エリア=エリアDとを太線で囲んでいる。なお、使用リソース要件は、例えば、SLAで規定された要件である。
 ここで、本実施形態では、故障が発生する前のVMの配置段階において、配置対象のVMごとに新規の配置先リソースと、将来の故障に備えて再配置するときの予備配置先リソースとを組み合わせて確保しておくように配置構成することを、主な特徴とする。
 例えば、VM1の配置先リソースは配置先エリア=エリアAに用意されるとともに、そのVM1の予備配置先リソースは予備配置先エリア=エリアBに用意される。同様に、VM2の予備配置先リソースもエリアBに用意されるので、エリアBには、VM1とVM2それぞれの予備配置先リソースが用意される(図では「VM1&2」と表記)。
 一方、使用リソース要件が高いVM3,4の予備配置先エリアは、予備配置先リソースが多いエリアDである(図では「VM3&4」と表記)。つまり、VMの使用リソース要件を考慮して、配置先エリアだけでなく予備配置先エリアについても決定される。
 図2は、図1の状態から配置先リソース上のVM1を予備配置先リソースに再配置する処理を示す説明図である。VM1の配置先エリアで配置先リソースに故障が発生すると、図1であらかじめ用意しておいた予備配置先エリアにVM1を迅速に再配置できる。
 つまり、故障した後に予備配置先リソースを探索するような図11~図13の方式に比べ、故障する前に予備配置先リソースを確保しておく図1~図3の方式は、サービスの中断時間を短縮することができる。
 図3は、図1の状態から予備配置先リソースの再計算処理を示す説明図である。図1の細線で囲まれたVM2は使用リソース要件が低かったが、図3において太線で囲まれたVM2は使用リソース要件が高いものに変更されたとする。
 このように、使用リソース要件がVMの配置後に変更されたとしても、予備配置先リソースをエリアBからエリアDに変更するように(図では「VM2&3&4」と表記)、配置構成を柔軟に再計算することもできる。
 図4は、リソース管理システムの構成図である。リソース管理システムは、NW管理システム21と、NW収集システム22と、NW制御システム23と、リソース提供システム24と、サービス管理装置(配置構成装置)1とがネットワークで接続されて構成される。NWはネットワークの略である。
 サービス管理装置1は、CPU(Central Processing Unit)と、メモリと、ハードディスクなどの記憶手段(記憶部)と、ネットワークインタフェースとを有するコンピュータとして構成される。
 このコンピュータは、CPUが、メモリ上に読み込んだプログラム(アプリケーションや、その略のアプリとも呼ばれる)を実行することにより、各処理部により構成される制御部(制御手段)を動作させる。
 リソース提供システム24は、サービスを提供するために、図1~図3で説明したVMや、VNFなどの仮想機能部を動作させるためのリソース(配置先リソース、予備配置先リソース)を提供する計算機環境(物理サーバ、物理ネットワークデバイス)である。1つ以上の物理サーバは、1つのエリアとしてグループ化されている。
 NW収集システム22は、リソース提供システム24の各リソースに対して、提供可能リソースを測定する。提供可能リソースは、以下に例示するスペックを1つまたは複数組み合わせたものである。
 ・CPUのスペック(コア数、クロック数などの計算能力)
 ・メモリのスペック(転送速度、記憶容量など)
 ・ネットワークのスペック(通信帯域、遅延、パケットロス率などのネットワークの品質指標)
 NW制御システム23は、リソース提供システム24の各リソースに対して、図1~図3に例示したような配置構成データを反映させることで、配置先リソースに仮想機能部を配置し、予備配置先リソースに仮想機能部の再配置先を確保する。
 NW管理システム21は、サービス管理装置1を介してリソース提供システム24への各種要求を管理者に入力させるためのシステムである。各種要求とは、例えば、仮想機能部を新規に配置させるための配置要求や、すでに配置された仮想機能部を故障時に再配置させるための再配置要求である。
 以上説明したNW管理システム21、NW収集システム22、および、NW制御システム23は、リソース提供システム24の設定や管理を自動化するためのオーケストレータとして動作する。
 サービス管理装置1は、配置対象受付部11と、配置構成データ管理部12と、リソースデータ管理部13と、配置先計算部14と、ポリシデータ管理部15と、配置制御部16とを含めて構成される。
 配置対象受付部11は、配置対象である仮想機能部(VM、VNF)について、その使用リソース要件を含めた配置要求を受け付ける(図3で示した使用リソース要件の変更要求も受け付ける)。なお、使用リソース要件は、NW収集システム22が収集する提供可能リソースとして前記した各種のスペックを用いて表現され、例えば、VMのカタログやVNFのカタログ内のパラメータとして通知される。
 リソースデータ管理部13は、NW収集システム22が収集したリソース提供システム24の各提供可能リソースを管理する。
 配置先計算部14は、配置対象受付部11が受け付けた使用リソース要件と、リソースデータ管理部13が管理する提供可能リソースとを照合することで、使用リソース要件を提供可能な配置先エリアと予備配置先エリアとを配置構成データとして計算する。
 配置構成データ管理部12は、配置先計算部14の計算結果である配置構成データを管理する。
 配置制御部16は、リソースデータ管理部13が管理する配置構成データに従って、配置先リソースおよび予備配置先リソースをNW制御システム23に制御させる。
 ポリシデータ管理部15は、配置先計算部14の計算に用いられる各種ポリシ(エリア選択ポリシ、リソース確保ポリシ)を、NW管理システム21を介して管理者から受け付けて保持する。エリア選択ポリシは図6で後記し、以下はリソース確保ポリシを説明する。
 同じ予備配置先エリアに複数のVMの予備配置先リソースが確保されていた場合、予備配置先エリアに確保される予備配置先リソースの総量は、例えば、以下のリソース確保ポリシに従って計算される。例えば、同じ予備配置先エリアに、第1VM用の予備配置先リソース=3M([bps]の通信帯域)と、第2VM用の予備配置先リソース=2Mとが確保されていたとする。
 (1)リソース確保ポリシ=「リソース効率優先」の場合、予備配置先リソースの総量=max(3,2)=3Mとする(関数maxは引数の最大値を返す)。これにより、同じ予備配置先エリア内に確保された予備配置先リソースのうち、いずれか1つのVMが故障しても、そのVMについて確実に復旧することができる。
 (2)リソース確保ポリシ=「耐障害性優先」の場合、予備配置先リソースの総量=groupmax({3,2},1)+groupmax({3,2},2)=5Mとする。関数groupmax(M,N)はM集合のうち、N番目に大きい数を抽出する。
 これにより、甚大災害時などのN重故障が発生した場合でも、同じ予備配置先エリア内に予備配置先リソースを確保しておいたN個のVMを、同時に回復させることができる。なお、前記の「予備配置先リソースの総量」の式は、「予備配置先リソースの総量=groupmax(M,1)+groupmax(M,2)+…+groupmax(M,N)」と一般化できる。
 図5は、配置先計算部14の処理を示す説明図である。前記したように、配置先計算部14は、使用リソース要件を提供可能な配置先エリアと予備配置先エリアとを配置構成データとして計算する。このため、配置先計算部14は、使用リソース要件を提供可能なエリアの集合を候補集合として抽出しておく。
 例えば、提供可能リソース=3MのエリアAと、提供可能リソース=2MのエリアBと、提供可能リソース=10MのエリアCとがリソースデータ管理部13に登録されている。そして、配置対象受付部11は、使用リソース要件=2MのVM1と、使用リソース要件=5MのVM2とを配置要求として受け付けたとする。
 配置先計算部14は、VM1については2M以上の提供可能リソースを有するエリアA,B,Cを候補集合とする。一方、配置先計算部14は、VM2については5M以上の提供可能リソースを有するエリアCだけを候補集合とする。このように、配置先計算部14は、VMやVNFごとの使用リソース要件と、エリアごとの(またはエリア内の物理サーバごとの)提供可能リソースとを通信品質などのスペック情報でマッチングする。
 図6は、配置構成データ管理部12の一例を示すテーブルである。配置先計算部14は、図5で説明したようにエリアの候補集合から、配置先エリアと予備配置先エリアとを選択した配置構成データを作成する。
 VM1については3つのエリアA,B,Cをメンバとする候補集合から、配置先エリア=エリアAと、予備配置先エリア=エリアBとが選択されている。VM2については、4つのエリアA,B,Cをメンバとする候補集合から、配置先エリア=エリアAと、予備配置先エリア=エリアB,Cとが選択されている。
 なお、選択する予備配置先エリアの数は、管理者が指定した冗長度によって決定される。例えば、冗長度が2の場合には、2つのエリア(=1つの配置先エリア+1つの予備配置先エリア)とし、冗長度が3の場合には、3つのエリア(=1つの配置先エリア+2つの予備配置先エリア)とする。
 また、VM4のように、そもそも候補集合のメンバが1つのエリアしか存在しないときには配置先エリアだけ決定する。
 ここで、ポリシデータ管理部15に格納される「エリア選択ポリシ」とは、候補集合からどのように配置先エリアや予備配置先エリアを選択するかを決定するためのポリシである。以下にエリア選択ポリシを例示する。
 (ポリシ1)候補集合から提供可能リソースが最も少ない配置先エリアを選択し、その配置先エリアを除外して、提供可能リソースが少ない順に1つ以上の予備配置先エリアを選択する。これにより、特定のエリアにVMが集中して配置されるので、通常時には使用されない提供可能リソースを過剰に常時備えておくような非効率なリソース運用を減らすことができる。
 (ポリシ2)予備配置先エリアと配置先エリアとを同じエリアとして選択する。つまり、配置先リソースの物理サーバと、予備配置先リソースの物理サーバとは同じエリアに属する。
 (ポリシ3)予備配置先エリアと配置先エリアとを異なるエリアとして選択する。
 (ポリシ4)他のVMがすでに稼働しているエリア(他のVMにとっての配置先エリア)と同じエリアを、今回の候補集合から予備配置先エリアとして選択する。
 (ポリシ5)候補集合から消費電力が少ない提供可能リソースを有するエリアを優先的に選択する。
 図7は、リソース管理システムの処理を示すシーケンス図である。
 まず、S11~S17では、1つめのVM-Aについての配置処理を説明する。
 S11において、配置対象受付部11は、VM-Aの配置要求をNW管理システム21から受け付ける。この配置要求には、配置対象であるVM-Aの使用リソース要件が「通信帯域を3M[bps]使用する」ことがVNFカタログ内のパラメータとして記載されている。
 なお、図7では、使用リソース要件の一例として通信帯域だけを用いたが、これは説明をわかりやすくするために簡素化しただけであり、使用リソース要件が通信帯域という1つのスペックだけに限定したものではない。NW収集システム22が収集する提供可能リソースとして説明したように、使用リソース要件も、CPUのスペック、メモリのスペック、ネットワークのスペックを単体で、または、複数種類のスペックを組み合わせて表現される。
 S12~S14において、リソースデータ管理部13は、S11のVM-Aの配置先を探すために、NW収集システム22を介して各エリアA~Cのサーバに対して提供可能リソースを要求する。
 各サーバは、自身の提供可能リソース(現時点でのスペックの測定結果など)をリソースデータ管理部13に応答する。ここでは、エリアAの提供可能リソースが10M(S12)、エリアBの提供可能リソースが5M(S13)、エリアCの提供可能リソースが1M(S14)であったとする。
 S15において、配置先計算部14は、S12~S14で応答された各提供可能リソースが、VM-Aの(S11の)使用リソース要件を満たしているか否かを判定する。ここでは、3M以上のリソースを有するエリアA,Bは使用リソース要件を満たし、エリアCは使用リソース要件を満たさないと判断された。
 そして、配置先計算部14は、VM-Aの候補集合から、提供可能リソースが1番少ない配置先エリア=エリアBと、提供可能リソースが2番目に少ない予備配置先エリア=エリアAとを選択する旨の配置構成データを作成する。
 S16において、配置制御部16は、配置構成データに従って、配置先リソース=3M分を使用するVM-AをエリアBに配置し(S16)、VM-Aの予備配置先リソース=3M分をエリアAに確保する。
 次に、S21~S27では、2つめのVM-Bについての配置処理を説明する。
 S21において、配置対象受付部11は、VM-Bの配置要求をNW管理システム21から受け付ける。この配置要求には、配置対象であるVM-Bの使用リソース要件が「通信帯域を1M[bps]使用する」ことがVNFカタログ内のパラメータとして記載されている。
 S22~S24において、リソースデータ管理部13は、S21のVM-Bの配置先を探すために、NW収集システム22を介して各エリアA~Cのサーバに対して提供可能リソースを要求する。各サーバは、自身の提供可能リソースをリソースデータ管理部13に応答する。
 エリアAの提供可能リソースは、S12では10Mであったが、S17で確保された予備配置先リソース=3M分だけ減少した結果、S22では7Mとして応答される。
 エリアBの提供可能リソースは、S13では5Mであったが、S16で使用された配置先リソース=3M分だけ減少した結果、S23では2Mとして応答される。
 エリアCの提供可能リソースは、S14と同様に、S24でも1Mとして応答される。
 S25において、配置先計算部14は、S22~S24で応答された各提供可能リソースが、VM-Bの(S21の)使用リソース要件を満たしているか否かを判定する。ここでは、1M以上のリソースを有するすべてのエリアA,B,Cが使用リソース要件を満たす。
 そして、配置先計算部14は、VM-Bの候補集合から、提供可能リソースが1番少ない配置先エリア=エリアCと、提供可能リソースが2番目に少ない予備配置先エリア=エリアBとを選択する旨の配置構成データを作成する。
 配置制御部16は、この配置構成データに従って、エリアCの配置先リソースにVM-Bを配置し(S26)、エリアBにVM-Bの予備配置先リソースを確保する(S27)。
 ここで、エリアBのサーバに故障が発生したとする(S30)。この故障によりエリアBでの以降のVMの稼働が困難となる。そこで、エリアBのサーバは、自身で稼働させていたVMを他のエリアに退避(再配置)させる。S16で配置されたVM-Aが該当するので、エリアBのサーバは、配置制御部16からの制御指示に従い、S17で確保された予備配置先エリア=エリアAの予備配置先リソースであるサーバに、VM-Aを再配置する(S31)。
 このように、あらかじめVMごとに配置先リソースと予備配置先リソースとの組み合わせが対応づけられて用意されており、使用リソース要件を満たす予備配置先エリアが故障発生前にあらかじめ確保されている。これにより、配置先リソースで故障が発生したVMは、予備配置先リソースへの再配置が迅速に実行されるので、SLAに定義された故障回復時間を満たすことができる。
 つまり、現状の設備リソース利用状況から最適配置構成にするまでのVMの再配置処理を事前に準備しておくことで、故障後の復旧にかかる時間を削減でき、故障によるサービス遮断時間を短縮できる。
 ところで、S32では、故障したエリアBのサーバ上にVM-Bの予備配置先リソースが存在していた場合である。この場合、VM-Bは現時点ではエリアCの配置先リソースで稼働しており(S26)、エリアBの故障の直接の被害は受けていない。しかし、将来的にエリアCでも故障が発生したときには、VM-Bの予備配置先リソースが存在しないことになる。
 よって、S32のような場合では、配置先計算部14は、配置構成データを再計算した結果としてVM-Bの新たな予備配置先エリア=エリアAを求め、故障したエリアBの予備配置先リソースを、稼働中のエリアAの予備配置先リソースへと変更することが望ましい。
 以上説明した本実施形態では、配置先計算部14は、使用リソース要件を提供可能なエリアの集合を候補集合として抽出しておく(図5)。そして、配置先計算部14は、候補集合のエリアから、配置先エリアと予備配置先エリアとを組み合わせて選択する(図6)。
 これにより、配置先リソースが故障した場合でも、使用リソース要件を満たす別の予備配置先リソースがすでに用意されているので、迅速にVMやVNFを再配置することで、サービスの中断時間を短縮化できる。
 前記の実施形態では、リソース提供システム24の「エリア」に着目して、配置先計算部14が作成する配置構成データ(配置先エリアと予備配置先エリア)について説明した。以下では、他の実施形態として、リソース提供システム24が提供する個々の「サーバ」に着目して、配置先計算部14が作成する配置構成データについて説明する。この説明では、以下のように読み替える。
 ・「エリアの候補集合」を「サーバの候補集合」に読み替える。サーバの候補集合とは、配置対象受付部11が受け付けた配置対象の仮想機能部の使用リソース要件を満たす、リソース提供システム24のサーバの集合である。
 ・「配置先エリア」を「配置先サーバ」に読み替える。配置先サーバとは、配置先計算部14が作成する配置構成データにおいて、配置対象の仮想機能部の配置先となるサーバである。
 ・「予備配置先エリア」を「予備配置先サーバ」に読み替える。予備配置先サーバとは、配置先計算部14が作成する配置構成データにおいて、配置先サーバの故障時において再配置先となるサーバである。
 例えば、図7のS11~S17の各処理は、前記の読み替えにより、以下のように置き換わる。
 S11において、配置対象受付部11は、使用リソース要件が規定された配置対象の仮想機能部を、配置要求として受け付ける。
 S12~S14において、リソースデータ管理部13は、S11で受け付けた仮想機能部の配置先を探すために、NW収集システム22を介してリソース提供システム24の各サーバに対して提供可能リソースを要求する。
 S15において、配置先計算部14は、S12~S14で応答された各サーバの提供可能リソースが、S11の使用リソース要件を満たすようなサーバの集合を、候補集合として抽出する。
 そして、配置先計算部14は、抽出されたサーバの候補集合から、例えば、提供可能リソースが1番少ない配置先サーバと、提供可能リソースが2番目に少ない予備配置先サーバとを選択する旨の配置構成データを作成する。
 配置制御部16は、S11で受け付けた仮想機能部をS15の配置先サーバの配置先リソースに配置し(S16)、その予備配置先リソースをS15の予備配置先サーバに確保する(S17)。
 以下では、比較例として、物理層の実装としてホットスペアによる冗長化技術を例示する。中断時間を最小化するという観点では、ホットスペアも同等の効果を得ることができる。しかし、サービス中断時間のSLAに合わせてホットスペアのための予備設備を構築するには、設備の導入費用や維持費用などのコストがかかってしまう。なお、物理マシン上の仮想マシンに対してホットスペアを用意するのは、その物理マシン1台を対象とするだけで済む。しかし、物理ネットワーク上の仮想ネットワーク機能に対しては、エンドツーエンドで広範囲にホットスペアを用意することとなり、大きなコストがかかる。
 図8は、各エリアに割り当てられているVMを示す説明図である。エリアXには、現時点ではどのVMも割り当てられておらず、ホットスペアとして用意されている。
 図9は、図8の状態からVM上のリソースに故障が発生したときの説明図である。エリアB内のVM3に故障が発生したとする(×印)。そこで、エリアXにVM3を再配置しようとする。
 図10は、図9の状態から再配置先としたエリアXが利用不可能である状況を示す説明図である。エリアX内にホットスペアとして用意していた物理サーバが実は壊れていたということも起こりうる。なぜなら、ホットスペアでは通常時には動作を行わないため、休眠状態が長くなってしまい、稼働チェックが疎かになることもあるためである。
 一方、本実施形態においては、図7のS12~S14などでNW収集システム22が実際に提供可能リソースを収集することで、予備配置先リソースの稼働状況も随時チェックされる。これにより、動作可能な予備配置先リソースを用意できる。
 さらに、本実施形態のサービス管理装置1では、図3に示したように、使用リソース要件の変更にも柔軟に対応可能である。一方で、ホットスペアではハードウェアリソースとして冗長化を行うため、使用リソース要件の変更が発生したときには、冗長化構成を再構築するために大きなコストがかかってしまう。
 なお、本実施形態においては、本発明に係る配置構成データとして、図1に示す4つのVMと、4つのエリアとで説明したが、これらの個数や構成に限定されない。また、本発明では、一般的なコンピュータのハードウェア資源を、サービス管理装置1の各手段として動作させるプログラムによって実現することができる。そして、このプログラムは、通信回線を介して配布したり、CD-ROM等の記録媒体に記録して配布したりすることも可能である。
 1   サービス管理装置(配置構成装置)
 11  配置対象受付部
 12  配置構成データ管理部
 13  リソースデータ管理部
 14  配置先計算部
 15  ポリシデータ管理部
 16  配置制御部
 21  NW管理システム
 22  NW収集システム
 23  NW制御システム
 24  リソース提供システム

Claims (8)

  1.  使用リソース要件が規定された配置対象の仮想機能部を指定した配置要求を受け付ける配置対象受付部と、
     前記仮想機能部の配置先の候補となる各エリアから収集された、前記仮想機能部を稼働させるために提供可能なリソースをリソースデータとして管理するリソースデータ管理部と、
     前記リソースデータ管理部のリソースデータをもとに、前記仮想機能部の前記使用リソース要件を満たすエリアの候補集合を抽出し、その抽出した前記候補集合に属する1つのエリアを配置先エリアとし、抽出した前記候補集合に属する1つ以上のエリアを予備配置先エリアとした配置構成データを計算する配置先計算部と、
     前記配置構成データに従って、前記仮想機能部を前記配置先エリアの配置先リソースに配置するとともに前記予備配置先エリアに前記仮想機能部の予備配置先リソースを確保し、
     その配置後の前記配置先リソースの故障発生時には、前記配置先リソースから前記予備配置先リソースに前記仮想機能部を再配置するように制御する配置制御部とを有することを特徴とする
     配置構成装置。
  2.  前記配置先計算部は、前記候補集合から提供可能リソースが最も少ないエリアを前記仮想機能部の前記配置先エリアとして選択し、前記候補集合から前記予備配置先エリアを選択するための所定のポリシに合致するエリアを前記仮想機能部の前記予備配置先エリアとして選択することを特徴とする
     請求項1に記載の配置構成装置。
  3.  前記配置先計算部は、前記所定のポリシに従って、前記配置先エリアと同じエリアを前記予備配置先エリアとして選択し、
     前記配置制御部は、前記配置先エリア内の故障した前記配置先リソースと同じエリア内に確保されている前記予備配置先リソースに、前記仮想機能部を再配置することを特徴とする
     請求項2に記載の配置構成装置。
  4.  前記配置先計算部は、前記所定のポリシに従って、前記配置先エリアと異なるエリアを前記予備配置先エリアとして選択し、
     前記配置制御部は、前記配置先エリア内の故障した前記配置先リソースと異なるエリア内に確保されている前記予備配置先リソースに、前記仮想機能部を再配置することを特徴とする
     請求項2に記載の配置構成装置。
  5.  前記配置先計算部は、前記所定のポリシに従って、配置対象の前記仮想機能部とは別の前記仮想機能部がすでに稼働しているエリアを、配置対象の前記仮想機能部における前記予備配置先エリアとして選択することを特徴とする
     請求項2に記載の配置構成装置。
  6.  前記配置対象受付部は、すでに配置された前記仮想機能部についての前記使用リソース要件が変更された旨を受け付けると、変更後の前記使用リソース要件に基づいて、前記配置構成データを前記配置先計算部に再計算させるとともに、その再計算された前記配置構成データに基づいて、前記仮想機能部の前記配置先リソースおよび前記予備配置先リソースを更新するように前記配置制御部に制御させることを特徴とする
     請求項1に記載の配置構成装置。
  7.  使用リソース要件が規定された配置対象の仮想機能部を指定した配置要求を受け付ける配置対象受付部と、
     前記仮想機能部の配置先の候補となる各サーバから収集された、前記仮想機能部を稼働させるために提供可能なリソースをリソースデータとして管理するリソースデータ管理部と、
     前記リソースデータ管理部のリソースデータをもとに、前記仮想機能部の前記使用リソース要件を満たすサーバの候補集合を抽出し、その抽出した前記候補集合に属する1つのサーバを配置先サーバとし、抽出した前記候補集合に属する1つ以上のサーバを予備配置先サーバとした配置構成データを計算する配置先計算部と、
     前記配置構成データに従って、前記仮想機能部を前記配置先サーバの配置先リソースに配置するとともに前記予備配置先サーバに前記仮想機能部の予備配置先リソースを確保し、
     その配置後の前記配置先リソースの故障発生時には、前記配置先リソースから前記予備配置先リソースに前記仮想機能部を再配置するように制御する配置制御部とを有することを特徴とする
     配置構成装置。
  8.  配置対象受付部と、リソースデータ管理部と、配置先計算部と、配置制御部とを有する配置構成装置により実行される配置構成方法であって、
     前記配置対象受付部は、使用リソース要件が規定された配置対象の仮想機能部を指定した配置要求を受け付け、
     前記リソースデータ管理部は、前記仮想機能部の配置先の候補となる各エリアから収集された、前記仮想機能部を稼働させるために提供可能なリソースをリソースデータとして管理し、
     前記配置先計算部は、前記リソースデータ管理部のリソースデータをもとに、前記仮想機能部の前記使用リソース要件を満たすエリアの候補集合を抽出し、その抽出した前記候補集合に属する1つのエリアを配置先エリアとし、抽出した前記候補集合に属する1つ以上のエリアを予備配置先エリアとした配置構成データを計算し、
     前記配置制御部は、
     前記配置構成データに従って、前記仮想機能部を前記配置先エリアの配置先リソースに配置するとともに前記予備配置先エリアに前記仮想機能部の予備配置先リソースを確保し、
     その配置後の前記配置先リソースの故障発生時には、前記配置先リソースから前記予備配置先リソースに前記仮想機能部を再配置するように制御することを特徴とする
     配置構成方法。
PCT/JP2019/004801 2018-02-13 2019-02-12 配置構成装置、および、配置構成方法 WO2019159875A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018022689A JP2019139533A (ja) 2018-02-13 2018-02-13 配置構成装置、および、配置構成方法
JP2018-022689 2018-02-13

Publications (1)

Publication Number Publication Date
WO2019159875A1 true WO2019159875A1 (ja) 2019-08-22

Family

ID=67618531

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/004801 WO2019159875A1 (ja) 2018-02-13 2019-02-12 配置構成装置、および、配置構成方法

Country Status (2)

Country Link
JP (1) JP2019139533A (ja)
WO (1) WO2019159875A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111045790A (zh) * 2019-12-13 2020-04-21 北京奇艺世纪科技有限公司 虚拟机部署方法及装置
WO2023187980A1 (ja) * 2022-03-29 2023-10-05 日本電気株式会社 アプリケーション配信装置、アプリケーション配信方法、およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014075027A (ja) * 2012-10-04 2014-04-24 Nippon Telegr & Teleph Corp <Ntt> 仮想マシン配置装置および仮想マシン配置方法
JP2016171411A (ja) * 2015-03-12 2016-09-23 株式会社日立製作所 統合制御システム及びネットワークとデータセンタの制御方法
JP2016192086A (ja) * 2015-03-31 2016-11-10 みずほ情報総研株式会社 リソース管理システム及びリソース管理方法
JP2017033117A (ja) * 2015-07-30 2017-02-09 日本電信電話株式会社 クラスタ内リソース管理システム、クラスタ内リソース管理方法、管理サーバ及びプログラム
JP2017156894A (ja) * 2016-02-29 2017-09-07 富士通株式会社 仮想マシン管理装置、システム、および仮想マシン管理方法
JP2018013859A (ja) * 2016-07-19 2018-01-25 富士通株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014075027A (ja) * 2012-10-04 2014-04-24 Nippon Telegr & Teleph Corp <Ntt> 仮想マシン配置装置および仮想マシン配置方法
JP2016171411A (ja) * 2015-03-12 2016-09-23 株式会社日立製作所 統合制御システム及びネットワークとデータセンタの制御方法
JP2016192086A (ja) * 2015-03-31 2016-11-10 みずほ情報総研株式会社 リソース管理システム及びリソース管理方法
JP2017033117A (ja) * 2015-07-30 2017-02-09 日本電信電話株式会社 クラスタ内リソース管理システム、クラスタ内リソース管理方法、管理サーバ及びプログラム
JP2017156894A (ja) * 2016-02-29 2017-09-07 富士通株式会社 仮想マシン管理装置、システム、および仮想マシン管理方法
JP2018013859A (ja) * 2016-07-19 2018-01-25 富士通株式会社 情報処理装置、情報処理方法、およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111045790A (zh) * 2019-12-13 2020-04-21 北京奇艺世纪科技有限公司 虚拟机部署方法及装置
WO2023187980A1 (ja) * 2022-03-29 2023-10-05 日本電気株式会社 アプリケーション配信装置、アプリケーション配信方法、およびプログラム

Also Published As

Publication number Publication date
JP2019139533A (ja) 2019-08-22

Similar Documents

Publication Publication Date Title
US10628273B2 (en) Node system, server apparatus, scaling control method, and program
JP4519098B2 (ja) 計算機の管理方法、計算機システム、及び管理プログラム
US20150277955A1 (en) System and method for controlling virtual-machine migrations based on processor usage rates and traffic amounts
JP6729399B2 (ja) システム、仮想化制御装置、仮想化制御装置の制御方法及びプログラム
CN111399970B (zh) 一种预留资源管理方法、装置和存储介质
US20180018197A1 (en) Virtual Machine Resource Allocation Method and Apparatus
US11169840B2 (en) High availability for virtual network functions
US10911529B2 (en) Independent groups of virtual network function components
US11669360B2 (en) Seamless virtual standard switch to virtual distributed switch migration for hyper-converged infrastructure
WO2016030973A1 (ja) マルチテナントリソース調停方法
JP2015522876A (ja) クラウドベースアプリケーションの単一障害点の排除のための、方法および装置
JPWO2015146374A1 (ja) 仮想化資源管理ノード及び仮想マシン移行方法
US20210149699A1 (en) Dynamic Flavor Allocation
EP3280094B1 (en) Disaster recovery method, device, and system
US11385972B2 (en) Virtual-machine-specific failover protection
WO2019159875A1 (ja) 配置構成装置、および、配置構成方法
JP6010975B2 (ja) ジョブ管理装置、ジョブ管理方法、及びプログラム
JPWO2018180613A1 (ja) 仮想ネットワークシステム、vim、仮想ネットワーク制御方法、および記録媒体
WO2016121879A1 (ja) 仮想化制御装置、配置先選択方法及びプログラム
JP2013186644A (ja) サービスオーダーシステム、サービスオーダー装置、サービスオーダー方法、及びサービスオーダープログラム
CN108737144B (zh) 资源管理的方法和设备
JP2016220126A (ja) ネットワーク処理システム、ネットワークシステムの管理方法及び通信装置
WO2017098591A1 (ja) 計算機及びストレージ装置を有するシステム、及びシステムの制御方法
WO2020022018A1 (ja) リソース割当装置、リソース管理システム、および、リソース割当プログラム
JP5732893B2 (ja) リソース管理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19753919

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19753919

Country of ref document: EP

Kind code of ref document: A1