WO2017082185A1 - リソース割当装置及びリソース割当方法 - Google Patents

リソース割当装置及びリソース割当方法 Download PDF

Info

Publication number
WO2017082185A1
WO2017082185A1 PCT/JP2016/082918 JP2016082918W WO2017082185A1 WO 2017082185 A1 WO2017082185 A1 WO 2017082185A1 JP 2016082918 W JP2016082918 W JP 2016082918W WO 2017082185 A1 WO2017082185 A1 WO 2017082185A1
Authority
WO
WIPO (PCT)
Prior art keywords
resource
resources
use request
service
physical network
Prior art date
Application number
PCT/JP2016/082918
Other languages
English (en)
French (fr)
Inventor
小林 正裕
土屋 利明
龍太郎 松村
木村 卓巳
則武 克誌
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to US15/760,282 priority Critical patent/US10660069B2/en
Priority to JP2017550299A priority patent/JP6470426B2/ja
Publication of WO2017082185A1 publication Critical patent/WO2017082185A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/72Admission control; Resource allocation using reservation actions during connection setup
    • H04L47/724Admission control; Resource allocation using reservation actions during connection setup at intermediate nodes, e.g. resource reservation protocol [RSVP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/04Wireless resource allocation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W40/00Communication routing or communication path finding
    • H04W40/02Communication route or path selection, e.g. power-based or shortest path routing
    • H04W40/04Communication route or path selection, e.g. power-based or shortest path routing based on wireless node resources

Definitions

  • the present invention relates to a resource allocation device and a resource allocation method.
  • the application range of virtualization technology extends not only to the field of cloud computing but also to the field of communication networks.
  • flexible network control by application of virtualization technology is incorporated as a concept.
  • a service function of a communication carrier that has been conventionally realized by dedicated hardware such as a router or a gateway is provided as software on a general-purpose server by NFV (Network Function Virtualization) technology. Therefore, the service function can be executed on any server existing on the network.
  • the service functions can be freely combined by transferring the user's packet flow to the specified service function in the specified order by SFC (Service Function Chaining) technology.
  • SFC Service Function Chaining
  • a network operator who operates and manages a communication network allocates its network resources to a service based on a request from a service provider.
  • VNE Virtual Network Embedding
  • the VNE problem is a problem in which a given physical network is modeled as a weighted undirected graph, and physical network resources are allocated so as to satisfy the requirements of each service.
  • the physical network includes a forwarding node represented by a router, a service node that executes a service function, and a link that connects these nodes. It is assumed that the service nodes are not present at the aggregation base as in the cloud but are scattered in the network.
  • the link bandwidth between transfer nodes, the CPU, memory, storage, etc. of the service node are often considered.
  • the request conditions for each service include the transfer bandwidth, the upper limit of transfer delay, the type and order of service functions that pass through, and the like. The above-described physical resource allocation is performed so that the required condition is satisfied.
  • Non-Patent Document 1 and Non-Patent Document 2 although the parameters to be considered are different, the object is to minimize the physical resources to be allocated.
  • Patent Document 1 services are preferentially assigned to network links / servers with a large amount of residual resources (light load), and equalization of the overall resource allocation is achieved.
  • Non-Patent Document 1 Non-Patent Document 2, and Patent Document 1
  • the aim is to minimize or equalize resources to be allocated, but this does not necessarily lead to maximization of the number of services that can be provided.
  • the conventional technology may fragment the remaining resources. Fragmentation of remaining resources refers to a situation in which usable resources are scattered and continuous resources cannot be secured for new service requests, such as computer memory fragmentation. In such a situation, although there is a surplus in the total amount of remaining resources, resources cannot be allocated to the new service, and the resource usage rate decreases. In particular, when the amount of resources to be allocated is minimized, resource consumption on a specific route tends to increase, and fragmentation is likely to occur. By equalizing the resources to be allocated, fragmentation can be prevented to some extent, but the allocation is not always optimal.
  • the present invention has been made in view of the above points, and an object of the present invention is to enable allocation of resources that can accommodate many services in a physical network by avoiding physical resource fragmentation. .
  • the resource allocation apparatus has already received another physical network resource request in response to a request for using the physical network resource in which one of a plurality of nodes constituting the physical network is designated as an end point.
  • a search unit that searches for candidate paths that can allocate the resource amount related to the use requests between the end points, and for each searched candidate path,
  • a calculation unit that calculates the maximum number of routes that can be assigned between endpoints related to the use request, and the maximum value
  • a selection unit that selects a candidate route having the maximum sum of
  • FIG. 1 is a diagram for explaining an outline of an embodiment of the present invention.
  • the physical network includes a forwarding node, a service node that executes a service function, and a link that connects the nodes.
  • the forwarding node is, for example, a router.
  • the service node is, for example, one or more server computers.
  • the physical network resources allocated to the service are divided into two types: transfer resources and server resources.
  • the transfer system resource mainly refers to a resource of a link between transfer nodes, and specifically, a transfer band set for each link is considered. In addition to the transfer band, a transfer delay is set for each link.
  • the server system resource refers to a service node resource. Specifically, a CPU, a memory capacity, a storage capacity, and the like are considered.
  • a transfer bandwidth necessary for providing the service, an upper limit of transfer delay, a service function, and the like are set as required conditions.
  • the start point and end point of the service may be different for each user.
  • the assigned route should be different between a user in Tokyo and a user in Okinawa. Therefore, in addition to service request conditions, for each service user, a node in which any node pair of a plurality of nodes constituting a physical network is designated as an end point (start point and end point) is referred to as a “virtual path”. Call. Either the transfer node or the service node is selected as the start point and the end point.
  • Resource allocation is performed in units of virtual paths. Requests for assigning resources to virtual paths arrive sequentially, and physical resources are assigned each time. In the present embodiment, in response to a resource allocation request to a virtual path that arrives in time series, resource allocation is performed so as to prevent resource fragmentation and improve utilization efficiency.
  • FIG. 2 is a diagram showing an example of a system configuration in the embodiment of the present invention.
  • the system in the present embodiment includes a resource allocation device 10, a plurality of forwarding nodes R (R 1 to R 7 ), and a plurality of service nodes S (S 1 to S 3 ). Including.
  • Each transfer node R has a function such as SDN (Software Defined Network) that can control a traffic transfer path in software, and the resource allocation apparatus 10 controls the transfer path.
  • SDN Software Defined Network
  • Each service node S can execute a software service function in common, and each service function can be executed by any service node S.
  • the resource allocation device 10 manages which service node S executes each service function. Such management can be realized using general NFV (Network Function Virtualization), SFC (Service Function Chaining), and the like.
  • FIG. 3 is a diagram illustrating a hardware configuration example of the resource allocation device according to the embodiment of the present invention.
  • the resource allocation device 10 in FIG. 3 includes a drive device 100, an auxiliary storage device 102, a memory device 103, a CPU 104, an interface device 105, and the like that are connected to each other via a bus B.
  • a program for realizing processing in the resource allocation device 10 is provided by a recording medium 101 such as a CD-ROM.
  • a recording medium 101 such as a CD-ROM.
  • the program is installed from the recording medium 101 to the auxiliary storage device 102 via the drive device 100.
  • the program need not be installed from the recording medium 101 and may be downloaded from another computer via a network.
  • the auxiliary storage device 102 stores the installed program and also stores necessary files and data.
  • the memory device 103 reads the program from the auxiliary storage device 102 and stores it when there is an instruction to start the program.
  • the CPU 104 executes a function related to the resource allocation device 10 in accordance with a program stored in the memory device 103.
  • the interface device 105 is used as an interface for connecting to a network.
  • FIG. 4 is a diagram illustrating a functional configuration example of the resource allocation device according to the embodiment of the present invention.
  • the resource allocation device 10 includes a service input unit 11, a resource allocation unit 12, a network path control unit 13, a service function control unit 14, and the like. Each of these units is realized by processing that one or more programs installed in the resource allocation device 10 cause the CPU 104 to execute.
  • the resource allocation device 10 also uses databases such as the service function DB 15, the facility information DB 16, and the resource allocation DB 17. Each of these databases can be realized by using, for example, a storage device that can be connected to the auxiliary storage device 102 or the resource allocation device 10 via a network.
  • the service input unit 11 receives an input of a request condition for a virtual path for newly allocating resources from an operator of a service provider.
  • the resource allocation unit 12 allocates resources to the virtual path based on the new virtual path requirement conditions and the information stored in the service function DB 15, the facility information DB 16, and the resource allocation DB 17, respectively.
  • the resource allocation result is shown as a resource allocation route.
  • the resource allocation route is “user ⁇ R1 ⁇ R2 ⁇ S1 (function A) ⁇ R2 ⁇ R5 ⁇ R7 ⁇ S2 (function C) ⁇ R7 ⁇ Internet”.
  • the resource assignment unit 12 instructs the network route control unit 13 and the service function control unit 14 to perform resource assignment based on the resource assignment route.
  • the resource allocation unit 12 includes a residual network generation unit 121, a candidate route search unit 122, a capacity calculation unit 123, a route selection unit 124, and the like.
  • the network route control unit 13 controls the route of the forwarding node R based on the resource allocation route.
  • the service function control unit 14 controls the service node based on the resource allocation path.
  • the network route control unit 13 and the service function control unit 14 execute processing in cooperation, and according to the route assigned to each virtual path, control the transfer route and the execution node of the service function to allocate physical resources. Do.
  • the service function DB 15 stores a resource amount (for example, function A: CPU 2 core, memory 1 GB, storage 10 GB, etc.) consumed by execution of the service function for each service function.
  • the facility information DB 16 includes physical network information (connection information between the transfer node R and the service node S (topology information), transfer bandwidth and transfer delay of each link, and server capacity (number of CPU cores, memory capacity, storage capacity, etc.) ) Etc.) are stored.
  • the resource allocation DB 17 stores resource information allocated to the existing virtual path for each of the transfer resource (link) and the server resource (service node S). For example, for the transfer resource, information indicating the allocated bandwidth is stored. For the resource of the server system resource, information indicating the allocated server capacity is stored.
  • FIG. 5 is a sequence diagram for explaining an example of a processing procedure executed by the resource allocation device.
  • the service input unit 11 requests the resource allocation unit 12 to allocate a resource based on the request condition (step S101).
  • the request condition specifies a transfer bandwidth, a transfer delay, a service function, and the like necessary for providing the service.
  • the virtual path specifies the service start point and end point for each service user.
  • the resource allocation unit 12 reads necessary information from each DB in response to the request. From the service function DB 15, the amount of resources (CPU core number, memory capacity, storage capacity, etc.) consumed by executing the service function specified in the request condition is acquired (steps S103 and S104). Information on the physical network (connection information between the transfer node R and the service node S (topology information), transfer bandwidth and transfer delay of each link, server capacity, etc.) is acquired from the facility information DB 16 (steps S105 and S106). ). From the resource allocation DB 17, resource information that has already been allocated to an existing virtual path is acquired (steps S107 and S108).
  • the resource allocation unit 12 calculates a resource allocation route based on the virtual path request condition and information acquired from each DB (step S109). Subsequently, the resource allocation unit 12 instructs the network path control unit 13 and the service function control unit 14 to allocate resources based on the calculated allocation route (steps S110 and S111).
  • the network route control unit 13 makes settings for the transfer node R related to the resource allocation route (step S112). Specifically, route setting (routing setting) for forming the resource allocation route is performed for the forwarding node R.
  • the service function control unit 14 performs setting for the service node S related to the resource allocation path (step S113). For example, a setting for enabling the service function to be provided to the service node S (for example, activation of the service function) is performed.
  • the resource allocation unit 12 also updates the contents of the resource allocation DB 17 based on the resource allocation path (step S114). For example, the transfer bandwidth of the link related to the resource allocation path decreases, and the server capacity of the service node S related to the resource allocation path decreases.
  • step S109 details of step S109 will be described.
  • the path that the resource allocation unit 12 allocates to the new virtual path is selected so as to prevent resource fragmentation as much as possible and maximize the amount of remaining resources that can be used.
  • service capacity the total number of virtual paths that can be allocated to resources in each existing service.
  • An allocation route is selected. That is, a route that is not used by other services as much as possible is selected as an assigned route for a new virtual path. As a result, it becomes possible to secure as many continuous resources as possible as a whole service, and the expected value of the number of accommodated services in the future can be made larger than that of the prior art.
  • FIG. 6 is a flowchart for explaining an example of a processing procedure of resource allocation calculation.
  • step S201 when resource allocation to the new virtual path is requested from the service input unit 11, the residual network generation unit 121 reads necessary information from each DB (step S202).
  • step S202 The contents of step S202 are as described in steps S103 to S108 of FIG.
  • the residual network generation unit 121 generates a weighted undirected graph G (hereinafter referred to as “network G”) based on the topology information of the physical network acquired from the facility information DB 16 (step S203).
  • a transfer delay acquired for each link from the facility information DB 16 is given to each edge in the network G as a weight. Further, the capacity constraint (transfer bandwidth) acquired for each link from the facility information DB 16 is also set for each edge.
  • the residual network generation unit 121 subtracts, from the network G, the resource capacity allocated to the existing virtual path (virtual path that arrives before the new virtual path arrives and is using the resource). (Hereinafter referred to as “residual network G ⁇ ”) is generated (step S204). That is, the residual network G - is a network showing a state in which the allocated resources were removed from the network G to the existing virtual path.
  • the allocated resource amount can be specified based on information acquired from the resource allocation DB 17.
  • the candidate route search unit 122 searches all the candidate routes A that satisfy the requirements of the virtual path in the residual network G ⁇ (step S205). That is, all the routes to which the resource amount related to the request condition can be allocated are searched as candidate routes A between the start point and the end point (between the end points) of the virtual path.
  • the search for the candidate route A can be performed by using a known algorithm.
  • the candidate route search unit 122 determines whether the number of candidate routes A
  • the resource allocation unit 12 determines whether or not
  • the resource allocation unit 12 selects an optimum route from the candidate routes A in steps S209 and S210.
  • the service capacity v (G) in the network G is defined.
  • the service capacity is a scale indicating how much an existing service can be accommodated in a certain network G.
  • the service capacity of the entire network is defined by the sum of the capacity v s (G, s) for each service s.
  • v g (G) ⁇ s ⁇ S v s (G, s)
  • S is a set of existing services provided on the network G.
  • the individual service capacity v s (G, s) is defined as a value obtained by multiplying the maximum number of virtual paths that can be accommodated for a certain service s by the weight of the service s in the network G.
  • v s (G, s) ⁇ (x, y) ⁇ Ns w x, y, s ⁇ maxpass (G, x, y, s)
  • Ns is a set of virtual paths (start point, end point) in the service s.
  • maxpass (G, x, y, s) is the maximum number of virtual paths that can be accommodated between the start point x and the end point y of a certain virtual path in the service s.
  • the maximum number of virtual paths can be obtained by solving a well-known problem called a maximum flow problem.
  • the maximum number of paths that can be accommodated between the start point and end point of the virtual path is the maximum number of virtual paths.
  • the number of routes that can be accommodated differs depending on the route allocation method between the start point and the end point, but the number of routes in the allocation method that has the maximum accommodated route among all allocation methods is the maximum virtual path. Is a number. w x, y, and s are weights according to the importance of services and routes.
  • step S209 the housing calculating section 123, for each candidate route A ⁇ A, residual network G - was generated for the residual network G a- when the allocated resources according to candidate path a, the residual network G
  • the capacity v g (G a ⁇ ) for a ⁇ is calculated. That is, for all candidate paths a, residual network G - in a state where resources are allocated to the candidate routes in a, housing of v g (G a-) is calculated.
  • the residual network G a- relates accommodated degree v g (G a-) is the sum of the housing of for each existing virtual paths in the residual network G a- v s (G a-, s).
  • step S209 for each candidate path a, each existing for virtual path accommodating degree v s (G a-, s) is calculated, and further, each housing of v s (G a-, s) are summed Thus, the capacity v g (G a ⁇ ) is calculated.
  • the route selection unit 124 selects a candidate route a having the maximum capacity v g (G a ⁇ ) as a resource allocation route (step S210).
  • a candidate route a having the maximum capacity v g (G a ⁇ ) is selected.
  • QoS Quality of Service
  • FIG. 7 is a diagram for explaining a specific example of the embodiment of the present invention.
  • a simple physical network G is given as shown on the left side of FIG.
  • the request conditions for each service are as follows: for service 1, request transfer bandwidth: 1 Gbps, request transfer delay: 30 ms, via service function: A, for service 2, request transfer bandwidth: 3 Gbps, request Assume that transfer delay: 15 ms, route service function: B, service 3, request transfer bandwidth: 2 Gbps, request transfer delay: 10 ms, route service function: C.
  • the amount of resources consumed by the execution of each service function is as follows: function A is CPU 1 core, memory 1 GB, storage 100 GB, function B is CPU 2 core, memory 2 GB, storage 200 GB, and function C is CPU 3 core, memory 3 GB, storage. Suppose that it is 300 GB.
  • the contents of the virtual path request conditions are as shown in Table T1, and resource allocation requests regarding the virtual paths of the services 1, 2, and 3 arrive repeatedly.
  • the allocation candidate routes of the virtual path 4 are the six routes in Table T2.
  • the candidate route with the smallest resource usage is selected from the candidate routes. If there are a plurality of candidate routes, the one with the shorter transfer delay is selected.
  • candidate routes are selected so that the usage rates of all resources are equal (the usage rate distribution is minimized).
  • the shorter transfer delay is selected as in the resource usage minimization algorithm.
  • the number of assignable virtual paths is compared when resources are allocated in order from virtual path 1 in Table T1. If resource allocation fails in the middle, the allocation to the virtual path is abandoned, and the resource allocation to the next virtual path is performed. Therefore, under this condition, the maximum number of allocated virtual paths is nine.
  • FIG. 9 is a diagram showing a resource allocation result by the resource usage minimization algorithm.
  • FIG. 10 is a diagram illustrating a resource allocation result by the resource usage rate equalization algorithm.
  • FIG. 11 is a diagram illustrating a resource allocation result according to the algorithm of the present embodiment.
  • the resource usage minimization algorithm is 7, the resource usage rate equalization algorithm is 7, and the algorithm of this embodiment is 9; It turns out that the form is the best.
  • the resource usage amount minimization algorithm is 74.7%
  • the resource usage rate equalization algorithm is 77.3%
  • this embodiment is 100%.
  • the average transfer delay per path is as follows: the resource usage minimization algorithm: 10.3 ms, the resource usage rate equalization algorithm: 13.1 ms, and the present embodiment: 13.3 ms. It can be seen that this form allocates a circuitous route than the prior art.
  • this embodiment has many by deliberately assigning a detour route that is not used by other services to a virtual path with a long request transfer delay, and easily passing a virtual path with a short request transfer delay. It can be seen that the virtual path can be accommodated.
  • the resource usage minimization algorithm or the resource usage rate equalization algorithm is used, the resource is allocated according to each purpose without considering the above, and resource fragmentation occurs. There is a virtual path that cannot be accommodated. Specifically, since a resource on the shortest path between R 1 and R 4 has been allocated to a virtual path (service 2, service 3) with a large request transfer delay, a virtual path with a short request transfer delay Resources are no longer allocated to (Service 1).
  • the maximum number of virtual paths for which resources are successfully allocated is always the maximum of 9, and stable results can be derived regardless of conditions. It is. Note that when other algorithms are used, the number of virtual paths allocated varies depending on the order.
  • the present embodiment when allocating a physical resource to a virtual network service, it is possible to allocate a resource so as to prevent resource fragmentation as much as possible and maximize the amount of available remaining resources. It becomes. That is, it is possible to allocate resources such that physical network resource fragmentation is avoided. For example, the expected value of the number of accommodated services in the future can be maximized, and the number of accommodated services can be made larger than in the prior art. As a result, the network operator can improve the investment efficiency of facilities.
  • the service request or virtual path is an example of a physical network resource use request.
  • the candidate route search unit 122 is an example of a search unit.
  • the capacity calculation unit 123 is an example of a calculation unit.
  • the route selection unit 124 is an example of a selection unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

リソース割当装置は、物理ネットワークを構成する複数のノードのうちのいずれかのノード対が端点として指定された、前記物理ネットワークのリソースの使用要求に応じ、既に他の使用要求に割り当て済みのリソースを前記物理ネットワークから除いた状態において、前記端点間で前記使用要求に係るリソース量を割り当て可能な候補経路を探索する探索部と、探索された各候補経路について、当該候補経路にリソースが割り当てられた状態において、既にリソースが割り当てられた既存の各使用要求について、当該使用要求に係る端点間に割り当て可能な経路数の最大値を計算する計算部と、前記最大値の総和が最大である候補経路を選択する選択部と、を有することで、物理ネットワークのリソースのフラグメントを回避して多くのサービスを物理ネットワークに収容できるようなリソースの割り当てを可能とする。

Description

リソース割当装置及びリソース割当方法
 本発明は、リソース割当装置及びリソース割当方法に関する。
 仮想化技術の進展に伴い、仮想化技術の適用範囲はクラウドコンピューティングの分野のみならず、通信ネットワークの分野にも及んでいる。例えば、第5世代移動体通信網では、仮想化技術の適用による柔軟なネットワーク制御がコンセプトとして盛り込まれている。通信ネットワークにおける仮想化では、NFV(Network Functions Virtualization)技術により、従来はルータやゲートウェイなど専用ハードウェアで実現されていた通信事業者のサービス機能が、汎用サーバ上のソフトウェアとして提供される。そのため、サービス機能は、ネットワーク上に存在するいずれのサーバにおいても実行が可能となる。また、SFC(Service Function Chaining)技術により、ユーザのパケットフローを指定されたサービス機能に指定された順序で転送することで、サービス機能を自由に組み合わせることが可能である。これらの仮想化技術を活用することにより、サービス提供事業者は、通信ネットワーク上で予め用意されたネットワークリソースとサービス機能とを自由に活用することで、柔軟なサービス提供を行うことができる。
 これに対して、通信ネットワークを運用管理するネットワーク事業者は、サービス提供事業者からの要求に基づき、自社のネットワークリソースをサービスへ割り当てる。ネットワーク事業者にとっては、設備の投資効率を上げるため、投資済みの物理ネットワークリソースに対して、可能な限り多くのサービスを収容することが重要となる。
 要求されたサービスへの物理ネットワークリソースの割り当ては、VNE(Virtual Network Embedding)問題と呼ばれ、近年多くの研究が報告されている(例えば、非特許文献1、非特許文献2、及び特許文献1等)。VNE問題は、与えられた物理ネットワークを重み付き無向グラフとしてモデル化し、各サービスの要求を満たすように物理ネットワークリソースを割り当てる問題である。物理ネットワークは、ルータに代表される転送ノードと、サービス機能を実行するサービスノードと、それら各ノードを接続するリンクとから構成される。サービスノードは、クラウドのように集約拠点に存在するのではなく、ネットワーク中に散在しているものとする。リソースの割り当てポリシは、様々なものが提案されているが、最も多く用いられるのが、リソース使用量の最小化である。割り当てる物理リソースについては、転送ノード間のリンク帯域、サービスノードのCPU、メモリ、ストレージ等が考慮される場合が多い。各サービスの要求条件としては、転送帯域、転送遅延の上限、経由するサービス機能の種類と順番等がある。要求条件が満たされるように前述の物理リソースの割り当てが行われる。
 非特許文献1及び非特許文献2においては、考慮されるパラメータは異なるものの、割り当てる物理リソースを最小化することが目的とされている。特許文献1においては、残余リソースが多い(負荷が軽い)ネットワークリンク/サーバに対して、サービスが優先的に割り当てられるようにされており、全体のリソース割り当ての均等化が図られている。
特開2014-171056号公報
M. Yu et al., "Rethinking Virtual Network Embedding: Substrate Support for path Splitting and Migration", ACM SIGCOMM Computer Communication Review, Vol. 38, No. 2, pp. 17-29, 2008. M. Chowdhury et al., "Vineyard: Virtual network embedding algorithms with coordinated node and link mapping," IEEE/ACM Trans. Networking, vol. 20, no. 1, pp. 206-219, 2012.
 非特許文献1及び非特許文献2、並びに特許文献1に示される従来技術においては、割り当てるリソースの最小化又は均等化を目指しているが、必ずしも提供可能なサービス数の最大化につながらない。何故ならば、従来技術は、残リソースがフラグメント化する可能性があるためである。残リソースのフラグメント化とは、コンピュータメモリのフラグメント化のように、使用可能なリソースが散在し、新規のサービス要求に対して連続したリソースを確保できない状況をいう。このような状況では、残リソース量の総量には余裕が有るにもかかわらず、新規サービスに対してリソース割り当てができず、リソース使用率が低下してしまう。特に、割り当てるリソース量を最小化した場合、特定の経路上のリソース消費量が多くなる傾向にあり、フラグメントが起こりやすい。割り当てるリソースを均等化することによって、フラグメントをある程度防げるが、必ずしも最適な割り当てになるとは限らない。
 コンピュータメモリでは、フラグメントが起こった場合に使用中のリソースを再配置することで、利用可能な空き領域を増やすことが可能であり、仮想ネットワークにおいても同様の検討が行われている。但し、仮想ネットワークにおけるリソースの再配置は、ネットワークサービスの一時的な中断につながる可能性があるため、なるべく再配置を行わないでリソースが配置されることが望まれている。
 本発明は、上記の点に鑑みてなされたものであって、物理ネットワークのリソースのフラグメントを回避して多くのサービスを物理ネットワークに収容できるようなリソースの割り当てを可能とすることを目的とする。
 そこで上記課題を解決するため、リソース割当装置は、物理ネットワークを構成する複数のノードのうちのいずれかのノード対が端点として指定された、前記物理ネットワークのリソースの使用要求に応じ、既に他の使用要求に割り当て済みのリソースを前記物理ネットワークから除いた状態において、前記端点間で前記使用要求に係るリソース量を割り当て可能な候補経路を探索する探索部と、探索された各候補経路について、当該候補経路にリソースが割り当てられた状態において、既にリソースが割り当てられた既存の各使用要求について、当該使用要求に係る端点間に割り当て可能な経路数の最大値を計算する計算部と、前記最大値の総和が最大である候補経路を選択する選択部と、を有する。
 物理ネットワークのリソースのフラグメントを回避して多くのサービスを物理ネットワークに収容できるようなリソースの割り当てを可能とすることができる。
本発明の実施の形態の概要を説明するための図である。 本発明の実施の形態におけるシステム構成例を示す図である。 本発明の実施の形態におけるリソース割当装置のハードウェア構成例を示す図である。 本発明の実施の形態におけるリソース割当装置の機能構成例を示す図である。 リソース割当装置が実行する処理手順の一例を説明するためのシーケンス図である。 リソースの割り当て計算の処理手順の一例を説明するためのフローチャートである。 本発明の実施の形態の具体例を説明するための図である。 残余ネットワークにおいて仮想パス4へのリソースの割り当て例を示す図である。 リソース使用量最小化アルゴリズムによるリソース割り当て結果を示す図である。 リソース使用率均等化アルゴリズムによるリソース割り当て結果を示す図である。 本実施の形態のアルゴリズムによるリソース割り当て結果を示す図である。
 以下、図面に基づいて本発明の実施の形態を説明する。図1は、本発明の実施の形態の概要を説明するための図である。本実施の形態では、単一の物理ネットワーク上で複数のサービスを提供する状況が想定される。図1の下方に示されるように、物理ネットワークは、転送ノードと、サービス機能を実行するサービスノードと、各ノードを接続するリンクとから構成される。転送ノードは、例えば、ルータである。サービスノードは、例えば、1以上のサーバコンピュータである。
 サービスに対して割り当てられる物理ネットワークのリソースは、転送系リソースとサーバ系リソースとの2つに分けられる。転送系リソースは、主に、転送ノード間のリンクのリソースを指し、具体的にはリンク毎に設定されている転送帯域等が考慮される。各リンクには、転送帯域の他に転送遅延が設定されている。サーバ系リソースは、サービスノードのリソースを指し、具体的にはCPU、メモリ容量、及びストレージ容量等が考慮される。
 一方で、図1の上方に示されるように、各サービスには、要求条件として、サービスの提供に必要な転送帯域、転送遅延の上限、サービス機能等が設定されている。同じサービスでも、ユーザ毎にサービスの始点と終点とが異なる可能性がある。例えば、東京のユーザと沖縄のユーザとでは、割り当てられる経路が異なるはずである。そこで、サービスの要求条件に加え、サービスのユーザ毎に、物理ネットワークを構成する複数のノードのうちのいずれかのノード対が端点(始点及び終点)として指定されたものを、「仮想パス」と呼ぶ。始点及び終点には、転送ノード又はサービスノードのいずれかが選択される。リソースの割り当ては、仮想パス単位で行われる。仮想パスへのリソースの割り当て要求は、順次到着し、その都度、物理リソースが割り当てられる。本実施の形態においては、時系列で到着する仮想パスへのリソース割り当て要求に対して、リソースのフラグメントを防いで、利用効率が向上するようにリソース割り当てが行われる。
 図2は、本発明の実施の形態におけるシステム構成例を示す図である。図2に示されるように、本実施の形態におけるシステムは、リソース割当装置10と、複数の転送ノードR(R~R)と、複数のサービスノードS(S~S)とを含む。
 各転送ノードRは、SDN(Software Defined Network)等、ソフトウェア的にトラヒックの転送経路を制御できる機能を具備しており、リソース割当装置10によって転送経路が制御される。
 各サービスノードSは、ソフトウェア化されたサービス機能を共通で実行可能であり、各サービス機能は、いずれのサービスノードSでも実行可能である。各サービス機能をいずれのサービスノードSが実行するかについての管理は、リソース割当装置10によって行われる。このような管理は、一般的なNFV(Network Functions Virtualization)やSFC(Service Function Chaining)等を利用して実現可能である。
 図3は、本発明の実施の形態におけるリソース割当装置のハードウェア構成例を示す図である。図3のリソース割当装置10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、及びインタフェース装置105等を有する。
 リソース割当装置10での処理を実現するプログラムは、CD-ROM等の記録媒体101によって提供される。プログラムを記憶した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
 メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従ってリソース割当装置10に係る機能を実行する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。
 図4は、本発明の実施の形態におけるリソース割当装置の機能構成例を示す図である。図4において、リソース割当装置10は、サービス入力部11、リソース割当部12、ネットワーク経路制御部13、及びサービス機能制御部14等を有する。これら各部は、リソース割当装置10にインストールされた1以上のプログラムが、CPU104に実行させる処理により実現される。リソース割当装置10は、また、サービス機能DB15、設備情報DB16、及びリソース割当DB17等のデータベースを利用する。これら各データベースは、例えば、補助記憶装置102、又はリソース割当装置10にネットワークを介して接続可能な記憶装置等を用いて実現可能である。
 サービス入力部11は、サービス提供事業者のオペレータから、新規にリソースを割り当てる仮想パスの要求条件の入力を受け付ける。
 リソース割当部12は、新規の仮想パスの要求条件と、サービス機能DB15、設備情報DB16、及びリソース割当DB17のそれぞれに格納されている情報とに基づいて、仮想パスへのリソースの割り当てを行う。リソースの割り当て結果は、リソース割り当て経路として示される。図2の仮想パス1の例であれば、リソース割り当て経路は、「ユーザ⇒R1⇒R2⇒S1(機能A)⇒R2⇒R5⇒R7⇒S2(機能C)⇒R7⇒インターネット」である。リソース割当部12は、リソース割り当て経路に基づくリソース割り当てを、ネットワーク経路制御部13及びサービス機能制御部14へ指示する。なお、リソース割当部12は、残余ネットワーク生成部121、候補経路探索部122、収容度計算部123、及び経路選択部124等を含む。
 ネットワーク経路制御部13は、リソース割り当て経路に基づいて、転送ノードRの経路を制御する。サービス機能制御部14は、リソース割り当て経路に基づいて、サービスノードを制御する。ネットワーク経路制御部13とサービス機能制御部14とは連携して処理を実行し、各仮想パスに割り当てられた経路に従い、転送経路とサービス機能の実行ノードを制御することで、物理リソースの割り当てを行う。
 サービス機能DB15には、サービス機能ごとに、当該サービス機能の実行により消費されるリソース量(例えば、機能A:CPU2コア、メモリ1GB、ストレージ10GBな等)が格納されている。設備情報DB16には、物理ネットワークの情報(転送ノードR及びサービスノードS間の接続情報(トポロジ情報)、各リンクの転送帯域及び転送遅延、並びにサーバ容量(CPUコア数、メモリ容量、ストレージ容量等)等)が格納されている。リソース割当DB17には、転送系リソース(リンク)とサーバ系リソース(サービスノードS)とのそれぞれについて、既存の仮想パスに対して割り当て済みのリソース情報が格納されている。例えば、転送系リソースについては、割り当て済みの帯域を示す情報が格納される。サーバ系リソースのリソースについては、割り当て済みのサーバ容量を示す情報が格納される。
 以下、リソース割当装置10が実行する処理手順について説明する。図5は、リソース割当装置が実行する処理手順の一例を説明するためのシーケンス図である。
 サービス入力部11は、例えば、サービス提供事業者のオペレータから新規の仮想パスに関する要求条件の入力を受け付けると(ステップS101)、当該要求条件に基づくリソースの割り当てを、リソース割当部12に要求する(ステップS102)。なお、要求条件には、サービスの提供に必要な転送帯域、転送遅延、サービス機能等が指定されている。また、仮想パスには、サービスのユーザ毎のサービスの始点と終点とが指定されている。
 リソース割当部12は、当該要求に応じ、各DBから必要な情報を読み出す。サービス機能DB15からは、要求条件に指定されているサービス機能の実行により消費されるリソース量(CPUコア数、メモリ容量、ストレージ容量等)が取得される(ステップS103、S104)。設備情報DB16からは、物理ネットワークの情報(転送ノードR及びサービスノードS間の接続情報(トポロジ情報)、各リンクの転送帯域及び転送遅延、並びにサーバ容量等)が取得される(ステップS105、S106)。リソース割当DB17からは、既存の仮想パスに対して割り当て済みのリソース情報が取得される(ステップS107、S108)。
 続いて、リソース割当部12は、仮想パスの要求条件と、各DBから取得された情報とに基づいて、リソース割り当て経路を計算する(ステップS109)。続いて、リソース割当部12は、計算された割り当て経路に基づくリソースの割り当てを、ネットワーク経路制御部13及びサービス機能制御部14のそれぞれに対して指示する(ステップS110、S111)。
 ネットワーク経路制御部13は、リソース割り当て経路に係る転送ノードRに対して設定を行う(ステップS112)。具体的には、当該転送ノードRに対して、当該リソース割り当て経路が形成されるための経路設定(ルーティング設定)が行われる。また、サービス機能制御部14は、リソース割り当て経路に係るサービスノードSに対して設定を行う(ステップS113)。例えば、当該サービスノードSに対して、サービス機能を提供可能とするための設定(例えば、サービス機能の起動等)が行われる。リソース割当部12は、また、リソース割り当て経路に基づいて、リソース割当DB17の内容を更新する(ステップS114)。例えば、リソース割り当て経路に係るリンクの転送帯域が減少し、リソース割り当て経路に係るサービスノードSのサーバ容量が減少する。
 続いて、ステップS109の詳細について説明する。
 リソース割当部12が新規の仮想パスに割り当てる経路は、リソースのフラグメントを極力防ぎ、利用可能な残リソース量を最大化するように選定される。具体的には、新規仮想パスにリソースを割り当てた後の物理ネットワークにおいて、既存の各サービスにおけるリソース割り当て可能な仮想パス数の合計(以下、「サービス収容度」という。)が最大になるように割り当て経路が選定される。すなわち、新規の仮想パスに対する割り当て経路として、他サービスが極力利用しない経路が選択される。その結果、サービス全体として利用可能な連続したリソースを、なるべく多く確保できるようになり、将来における収容サービス数の期待値を、従来技術よりも大きくできる。
 図6は、リソースの割り当て計算の処理手順の一例を説明するためのフローチャートである。
 ステップS201において、サービス入力部11から新規仮想パスへのリソース割り当が要求されると、残余ネットワーク生成部121は、各DBから必要な情報を読み出す(ステップS202)。ステップS202の内容は、図5のステップS103~S108において説明した通りである。
 続いて、残余ネットワーク生成部121は、設備情報DB16から取得された物理ネットワークのトポロジ情報に基づいて、重み付き無向グラフG(以下、「ネットワークG」という。)を生成する(ステップS203)。ネットワークGにおける各エッジには、設備情報DB16から各リンクについて取得された転送遅延が重みとして付与される。また、設備情報DB16から各リンクについて取得された容量制約(転送帯域)も各エッジに設定される。
 続いて、残余ネットワーク生成部121は、既存の仮想パス(新規仮想パスの到着前に到着し、リソースを使用中の仮想パス)に割り当て済みのリソース容量を、ネットワークGから差し引いた仮想的なネットワーク(以下、「残余ネットワークG」という。)を生成する(ステップS204)。すなわち、残余ネットワークGは、既存の仮想パスに割り当て済みのリソースをネットワークGから除いた状態を示すネットワークである。なお、割り当て済みのリソース量は、リソース割当DB17から取得された情報に基づいて特定可能である。
 続いて、候補経路探索部122は、仮想パスの要求条件を満たす全ての候補経路Aを残余ネットワークGにおいて探索する(ステップS205)。すなわち、仮想パスの始点及び終点間(端点間)において、当該要求条件に係るリソース量を割り当て可能な全ての経路が候補経路Aとして探索される。なお、候補経路Aの探索は、公知のアルゴリズムを用いることによって行うことが可能である。
 続いて、候補経路探索部122は、候補経路Aの数|A|が0であるか否かを判定する(ステップS206)。|A|が0である場合(ステップS206でYes)、割り当て可能な経路が無いため、割り当ては失敗となる。
 |A|が1以上である場合(ステップS206でNo)、リソース割当部12は、|A|が1であるか否かを判定する(ステップS207)。|A|が1である場合(ステップS207でYes)、リソース割当部12は、探索された1つの候補経路を、リソース割り当て経路として選択する(ステップS208)。
 一方、|A|が2以上である場合(ステップS207でNo)、リソース割当部12は、ステップS209及びS210において、候補経路Aの中から最適な経路の選択を行う。
 ここで、ネットワークGにおけるサービス収容度v(G)を定義する。サービスの収容度とは、或るネットワークGに対して、どれだけ既存サービスを収容できるのかを示す尺度である。ネットワーク全体のサービス収容度は、各サービスsに対する収容度v(G,s)の総和で定義する。
(G)=Σs∈S(G,s)
 ここで、Sは、ネットワークG上で提供されている既存サービスの集合である。サービス個別の収容度v(G,s)は、ネットワークGにおいて、或るサービスsについて収容可能な最大仮想パス数にサービスsの重みを乗じた値として定義される。
(G,s)=Σ(x,y)∈Nsx,y,s×maxpass(G,x,y,s)
 ここで、Nsは、サービスsにおける仮想パスの(始点、終点)の集合である。maxpass(G,x,y,s)は、サービスsにおける、或る仮想パスの始点xと終点yとの間に収容可能な最大仮想パス数である。最大仮想パス数は、最大流問題と呼ばれる、よく知られた問題を解くことにより求めることができる。例えば、或るサービスsの仮想パスが1つであれば、当該仮想パスの始点と終点との間に収容可能な経路数の最大値が最大仮想パス数である。当該始点と終点との間には、経路の割り当て方法によって、収容可能な経路数が異なるが、全ての割り当て方法のうち、収容可能な経路が最大となる割り当て方法における経路数が、最大仮想パス数である。wx,y,sは、サービスや経路の重要度に応じた重みである。
 ステップS209において、収容度計算部123は、候補経路a∈Aごとに、残余ネットワークGに対して、候補経路aにしたがってリソースを割り当てた場合の残余ネットワークGa-を生成し、残余ネットワークGa-に関する収容度v(Ga-)を計算する。すなわち、全ての候補経路aに対して、残余ネットワークGにおいて当該候補経路aにリソースが割り当てられた状態において、収容度v(Ga-)が計算される。なお、残余ネットワークGa-に関する収容度v(Ga-)は、残余ネットワークGa-における既存の各仮想パスについての収容度v(Ga-,s)の総和である。したがって、ステップS209では、候補経路aごとに、各既存の仮想パスについて収容度v(Ga-,s)が計算され、更に、各収容度v(Ga-,s)が合計されて、収容度v(Ga-)が計算される。
 続いて、経路選択部124は、収容度v(Ga-)が最大となる候補経路aを、リソース割り当て経路として選択する(ステップS210)。v(Ga-)の値が等しい候補経路aが複数存在する場合、QoS(Quality of Service)を重視するのであれば、仮想パスの転送遅延が最小となる候補経路aが選択され、リソース消費量を重視するのであれば、経路長が最小となる候補経路aが選択されてもよい。
 続いて、本実施の形態の具体例について説明する。図7は、本発明の実施の形態の具体例を説明するための図である。
 図7の左側に示されるようにシンプルな物理ネットワークGが与えられているものとする。サービス(サービス番号)は3種類あり、各サービスの要求条件は、サービス1について、要求転送帯域:1Gbps、要求転送遅延:30ms、経由サービス機能:A、サービス2について、要求転送帯域:3Gbps、要求転送遅延:15ms、経由サービス機能:B、サービス3について、要求転送帯域:2Gbps、要求転送遅延:10ms、経由サービス機能:Cであるとする。各サービス機能の実行によって消費されるリソース量は、機能Aは、CPU1コア・メモリ1GB・ストレージ100GB、機能Bは、CPU2コア・メモリ2GB・ストレージ200GB、機能Cは、CPU3コア・メモリ3GB・ストレージ300GBであるとする。仮想パスの要求条件の内容は表T1の通りであり、サービス1、2、3の仮想パスに関するリソースの割り当て要求が繰り返し順番に到着するものする。
 なお、表T1において、Noが1~3である仮想パスについては、既にリソースが割当済みであるとする。
 アルゴリズムの実行例として、仮想パス4(表T1においてNoが4である仮想パス)にリソースを割り当てる場合について説明する。既存の仮想パスに割り当てられたリソースを物理ネットワークGから差し引いた残余ネットワークG'は、図8のようになる。残余ネットワークG'において、仮想パス4の割り当て候補経路は、表T2の6経路である。それぞれについてサービス収容度v(Ga-)(重みwx,y,sは、全て1とする)を計算すると、サービス収容度v(Ga-)が最大となる候補経路は、a=4の候補経路4である。したがって、この場合、候補経路4が、仮想パス4に対するリソース割り当て経路として選択される。
 次に、図7に示したネットワーク条件において、リソース使用量最小化アルゴリズム及びリソース使用率均等化アルゴリズムと、本実施の形態のアルゴリズムとによる、割り当て可能な仮想パス数を比較する。
 リソース使用量最小化アルゴリズムにおいては、候補経路のうち、リソース使用量が最小となる候補経路が選択される。候補経路が複数存在する場合は、転送遅延の短い方が選択される。
 リソース使用率均等化アルゴリズムにおいては、全てのリソースの使用率が均等になる(使用率の分散が最小となる)ように候補経路が選択される。候補経路が複数存在する場合は、リソース使用量最小化アルゴリズムと同様に、転送遅延の短い方が選択される。
 上記の3つのアルゴリズムにおいて、表T1の仮想パス1から順にリソース割り当てを行った場合の、割り当可能な仮想パス数を比較する。途中でリソース割り当てが失敗した場合、その仮想パスへの割り当ては諦め、次の仮想パスへのリソース割り当てを行うものとする。そのため、本条件下では、割り当てられる仮想パスの最大数は9本である。
 図9は、リソース使用量最小化アルゴリズムによるリソース割り当て結果を示す図である。図10は、リソース使用率均等化アルゴリズムによるリソース割り当て結果を示す図である。図11は、本実施の形態のアルゴリズムによるリソース割り当て結果を示す図である。
 各アルゴリズムによってリソースの割り当てに成功した仮想パス数を比較すると、リソース使用量最小化アルゴリズム:7本、リソース使用率均等化アルゴリズム:7本、本実施の形態のアルゴリズム:9本となり、本実施の形態が一番優れていることが分かる。ネットワークリソース消費率に関しても、リソース使用量最小化アルゴリズム:74.7%、リソース使用率均等化アルゴリズム:77.3%、本実施の形態:100%となり、本実施の形態は、有効にリソースを活用できている。一方で、パス1本あたりの平均転送遅延は、リソース使用量最小化アルゴリズム:10.3ms、リソース使用率均等化アルゴリズム:13.1ms、本実施の形態:13.3msとなっており、本実施の形態は従来技術よりも遠回りの経路を割り当てていることが分かる。
 上記の結果より、本実施の形態は、要求転送遅延が長い仮想パスに対して他サービスが利用しない遠回りの経路を意図的に割り当て、要求転送遅延が短い仮想パスを通し易くすることで、多くの仮想パスを収容できていることが分かる。一方で、リソース使用量最小化アルゴリズム又はリソース使用率均等化アルゴリズムを利用した場合は、上記の考慮はせず、それぞれの目的に応じてリソースが割り当てられるため、リソースのフラグメントが発生してしまい、収容できない仮想パスが存在している。具体的には、要求転送遅延の大きい仮想パス(サービス2、サービス3)に対して、R-R間の最短経路上にあるリソースが割り当てられてしまったため、要求転送遅延の短い仮想パス(サービス1)にリソースが割り当てられなくなってしまっている。
 仮想パスの要求順序が変化したとしても、本実施の形態を利用すると、リソースの割り当てに成功する仮想パス数は、常に最大の9本であり、条件によらず安定した結果を導き出すことが可能である。なお、他のアルゴリズムを利用した場合は、順序によって割り当てられる仮想パス数が変動する。
 上述したように、本実施の形態によれば、仮想ネットワークのサービスへの物理リソースの割り当ての際に、リソースのフラグメントを極力防ぎ、利用可能な残リソース量を最大化するようなリソース割り当てが可能となる。すなわち、物理ネットワークのリソースのフラグメントが回避されるようなリソースの割り当てを可能とすることができる。例えば、将来における収容サービス数の期待値を最大化することができ、収容サービス数を従来技術より大きくすることができる。その結果、ネットワーク事業者は、設備の投資効率を向上させることが可能となる。
 なお、本実施の形態において、サービス要求又は仮想パスは、物理ネットワークのリソースの使用要求の一例である。候補経路探索部122は、探索部の一例である。収容度計算部123は、計算部の一例である。経路選択部124は、選択部の一例である。
 以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
 本出願は、2015年11月13日に出願された日本国特許出願第2015-222640号に基づきその優先権を主張するものであり、同日本国特許出願の全内容を参照することにより本願に援用する。
10     リソース割当装置
11     サービス入力部
12     リソース割当部
13     ネットワーク経路制御部
14     サービス機能制御部
15     サービス機能DB
16     設備情報DB
17     リソース割当DB
100    ドライブ装置
101    記録媒体
102    補助記憶装置
103    メモリ装置
104    CPU
105    インタフェース装置
121    残余ネットワーク生成部
122    候補経路探索部
123    収容度計算部
124    経路選択部
B      バス

Claims (4)

  1.  物理ネットワークを構成する複数のノードのうちのいずれかのノード対が端点として指定された、前記物理ネットワークのリソースの使用要求に応じ、既に他の使用要求に割り当て済みのリソースを前記物理ネットワークから除いた状態において、前記端点間で前記使用要求に係るリソース量を割り当て可能な候補経路を探索する探索部と、
     探索された各候補経路について、当該候補経路にリソースが割り当てられた状態において、既にリソースが割り当てられた既存の各使用要求について、当該使用要求に係る端点間に割り当て可能な経路数の最大値を計算する計算部と、
     前記最大値の総和が最大である候補経路を選択する選択部と、
    を有することを特徴とするリソース割当装置。
  2.  前記計算部は、既にリソースが割り当てられた既存の各使用要求について、当該使用要求に係る端点間に割り当て可能な経路数の最大値に、当該使用要求に対する重みを乗じた値を計算し、
     前記選択部は、前記値の総和が最大である候補経路を選択する、
    ことを特徴とする請求項1記載のリソース割当装置。
  3.  物理ネットワークを構成する複数のノードのうちのいずれかのノード対が端点として指定された、前記物理ネットワークのリソースの使用要求に応じ、既に他の使用要求に割り当て済みのリソースを前記物理ネットワークから除いた状態において、前記端点間で前記使用要求に係るリソース量を割り当て可能な候補経路を探索する探索手順と、
     探索された各候補経路について、当該候補経路にリソースが割り当てられた状態において、既にリソースが割り当てられた既存の各使用要求について、当該使用要求に係る端点間に割り当て可能な経路数の最大値を計算する計算手順と、
     前記最大値の総和が最大である候補経路を選択する選択手順と、
    をコンピュータが実行することを特徴とするリソース割当方法。
  4.  前記計算手順は、既にリソースが割り当てられた既存の各使用要求について、当該使用要求に係る端点間に割り当て可能な経路数の最大値に、当該使用要求に対する重みを乗じた値を計算し、
     前記選択手順は、前記値の総和が最大である候補経路を選択する、
    ことを特徴とする請求項3記載のリソース割当方法。
PCT/JP2016/082918 2015-11-13 2016-11-07 リソース割当装置及びリソース割当方法 WO2017082185A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/760,282 US10660069B2 (en) 2015-11-13 2016-11-07 Resource allocation device and resource allocation method
JP2017550299A JP6470426B2 (ja) 2015-11-13 2016-11-07 リソース割当装置及びリソース割当方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-222640 2015-11-13
JP2015222640 2015-11-13

Publications (1)

Publication Number Publication Date
WO2017082185A1 true WO2017082185A1 (ja) 2017-05-18

Family

ID=58695343

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/082918 WO2017082185A1 (ja) 2015-11-13 2016-11-07 リソース割当装置及びリソース割当方法

Country Status (3)

Country Link
US (1) US10660069B2 (ja)
JP (1) JP6470426B2 (ja)
WO (1) WO2017082185A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109995871A (zh) * 2019-04-09 2019-07-09 苏州浪潮智能科技有限公司 一种Pod调度方法及装置
WO2021229657A1 (ja) * 2020-05-11 2021-11-18 日本電信電話株式会社 パケット転送システム及び経路設定方法
WO2022091171A1 (ja) * 2020-10-26 2022-05-05 日本電信電話株式会社 マクロフロー生成装置、マクロフロー生成方法及びプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10635493B2 (en) * 2017-11-14 2020-04-28 Salesforce.Com, Inc. Computing resource allocation based on number of items in a queue and configurable list of computing resource allocation steps
JP7371686B2 (ja) 2019-06-05 2023-10-31 日本電信電話株式会社 要求通信品質推定装置、要求通信品質推定方法、及びプログラム
CN111193604B (zh) * 2019-08-23 2021-08-17 腾讯科技(深圳)有限公司 虚拟网络功能链的部署方法、装置、设备及存储介质
CN112565082B (zh) * 2020-12-25 2022-06-17 鹏城实验室 基于混合网络的服务链映射方法、智能终端及存储介质
CN113742089B (zh) * 2021-11-04 2022-02-18 苏州浪潮智能科技有限公司 异构资源中神经网络计算任务的分配方法、装置和设备
US11606249B1 (en) * 2022-01-19 2023-03-14 Dell Products L.P. System and method for communication management in distributed system
CN115314394B (zh) * 2022-06-30 2023-06-20 国网河南省电力公司信息通信公司 一种面向智能电网的资源分配方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020018264A1 (en) * 2000-07-06 2002-02-14 Kodialam Muralidharan S. Dynamic path routing with service level guarantees in optical networks
US20030214938A1 (en) * 2002-03-21 2003-11-20 Jindal Deepak Kumar Method for routing of label switched paths (LSPS) through an internet supporting multi-protocol label switching (MPLS) technology
US20040228323A1 (en) * 2003-05-15 2004-11-18 Swarup Acharya Route precomputation method and apparatus for bandwidth guaranteed traffic
JP2007074564A (ja) * 2005-09-08 2007-03-22 Oki Electric Ind Co Ltd ネットワーク経路設定方法及び無線局
JP2011004294A (ja) * 2009-06-22 2011-01-06 Nippon Telegr & Teleph Corp <Ntt> ネットワークトポロジ設計装置、ネットワークトポロジ設計方法、およびプログラム
WO2014119724A1 (ja) * 2013-02-01 2014-08-07 日本電信電話株式会社 高信頼パス収容設計装置及び方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6580721B1 (en) * 1998-08-11 2003-06-17 Nortel Networks Limited Routing and rate control in a universal transfer mode network
US20040042398A1 (en) * 2002-02-28 2004-03-04 Seriqa Networks Method and apparatus for reducing traffic congestion by preventing allocation of the occupied portion of the link capacity and for protecting a switch from congestion by preventing allocation on some of its links
US7280481B2 (en) * 2002-10-10 2007-10-09 Guangyi David Rong Shortest path search method “Midway”
US8670396B2 (en) * 2009-09-29 2014-03-11 Qualcomm Incorporated Uplink control channel resource allocation for transmit diversity
US8370473B2 (en) * 2009-12-16 2013-02-05 International Business Machines Corporation Live multi-hop VM remote-migration over long distance
JP5523599B1 (ja) 2013-03-01 2014-06-18 日本電信電話株式会社 ネットワークシステムの資源管理システムおよび方法
EP3160201B1 (en) * 2014-06-20 2019-03-27 LG Electronics Inc. Method for determining resource for device-to-device (d2d) communication in wireless communication system and apparatus therefor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020018264A1 (en) * 2000-07-06 2002-02-14 Kodialam Muralidharan S. Dynamic path routing with service level guarantees in optical networks
US20030214938A1 (en) * 2002-03-21 2003-11-20 Jindal Deepak Kumar Method for routing of label switched paths (LSPS) through an internet supporting multi-protocol label switching (MPLS) technology
US20040228323A1 (en) * 2003-05-15 2004-11-18 Swarup Acharya Route precomputation method and apparatus for bandwidth guaranteed traffic
JP2007074564A (ja) * 2005-09-08 2007-03-22 Oki Electric Ind Co Ltd ネットワーク経路設定方法及び無線局
JP2011004294A (ja) * 2009-06-22 2011-01-06 Nippon Telegr & Teleph Corp <Ntt> ネットワークトポロジ設計装置、ネットワークトポロジ設計方法、およびプログラム
WO2014119724A1 (ja) * 2013-02-01 2014-08-07 日本電信電話株式会社 高信頼パス収容設計装置及び方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KOUSHIK, K. ET AL.: "Minimum interference routing of bandwidth guaranteed tunnels with MPLS traffic engineering applications", IEEE JOURNAL ON SELECTED AREAS IN COMMUNICATIONS, 18 December 2000 (2000-12-18), pages 2566 - 2579, XP011450154 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109995871A (zh) * 2019-04-09 2019-07-09 苏州浪潮智能科技有限公司 一种Pod调度方法及装置
WO2021229657A1 (ja) * 2020-05-11 2021-11-18 日本電信電話株式会社 パケット転送システム及び経路設定方法
JP7460930B2 (ja) 2020-05-11 2024-04-03 日本電信電話株式会社 パケット転送システム及び経路設定方法
WO2022091171A1 (ja) * 2020-10-26 2022-05-05 日本電信電話株式会社 マクロフロー生成装置、マクロフロー生成方法及びプログラム
JP7473004B2 (ja) 2020-10-26 2024-04-23 日本電信電話株式会社 マクロフロー生成装置、マクロフロー生成方法及びプログラム

Also Published As

Publication number Publication date
JP6470426B2 (ja) 2019-02-13
US20180279261A1 (en) 2018-09-27
JPWO2017082185A1 (ja) 2018-07-26
US10660069B2 (en) 2020-05-19

Similar Documents

Publication Publication Date Title
JP6470426B2 (ja) リソース割当装置及びリソース割当方法
EP2965468B1 (en) Network bandwidth allocation in multi-tenancy cloud computing networks
US9158586B2 (en) Systems and methods for managing cloud computing resources
EP3281359B1 (en) Application driven and adaptive unified resource management for data centers with multi-resource schedulable unit (mrsu)
JP2014522036A (ja) クラウド環境内で仮想リソースを割り当てるための方法および装置
Sharkh et al. A resource scheduling model for cloud computing data centers
JP6275263B2 (ja) 大規模データセンターネットワークのためのトラフィック工学
Gvozdiev et al. On low-latency-capable topologies, and their impact on the design of intra-domain routing
Botero et al. A novel paths algebra-based strategy to flexibly solve the link mapping stage of VNE problems
JP6586237B2 (ja) リソース割当装置及びリソース割当方法
CN111698114B (zh) 利用出口对等工程的约束优化来确定和实现优化流量规划
Yang et al. Heuristic scheduling algorithms for allocation of virtualized network and computing resources
JP6131203B2 (ja) 装置選択ネットワークシステム、装置選択サーバおよびプログラム
Lin et al. Column generation based service function chaining embedding in multi-domain networks
Zu et al. Resource aware chaining and adaptive capacity scaling for service function chains in distributed cloud network
CN114697256A (zh) 基于集中式控制器的动态网络带宽分配与管理
JP6389811B2 (ja) 物理リソース割当装置、物理リソース割当方法、及びプログラム
WO2018018135A1 (en) System and method for joint embedding and backup provisioning in virtual networks
JP6586228B2 (ja) 経路計算制御装置及び経路計算制御方法
CN114466059B (zh) 一种向移动边缘计算系统提供可靠服务功能链的方法
JP6511006B2 (ja) リソース割当管理装置および割当て先サーバ決定方法
Hoshino et al. An on-line algorithm to determine the location of the server in a server migration service
CN113938390B (zh) 一种基于物理网络节点资源适配的网络组件动态部署方法
CN117544513B (zh) 基于雾资源的新型物联网定制化服务提供方法及装置
JP6946937B2 (ja) ネットワーク制御装置、アドレス設計方法およびアドレス設計プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16864146

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017550299

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15760282

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16864146

Country of ref document: EP

Kind code of ref document: A1