JP6435050B2 - Resource management in cloud systems - Google Patents

Resource management in cloud systems Download PDF

Info

Publication number
JP6435050B2
JP6435050B2 JP2017529726A JP2017529726A JP6435050B2 JP 6435050 B2 JP6435050 B2 JP 6435050B2 JP 2017529726 A JP2017529726 A JP 2017529726A JP 2017529726 A JP2017529726 A JP 2017529726A JP 6435050 B2 JP6435050 B2 JP 6435050B2
Authority
JP
Japan
Prior art keywords
virtual
tenant
affinity
resources
resource
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017529726A
Other languages
Japanese (ja)
Other versions
JP2018503897A (en
Inventor
ヴォルフガング キエス,
ヴォルフガング キエス,
マルケス, ホアン トリアイ
マルケス, ホアン トリアイ
ルカ, シュエリ アン−デ
ルカ, シュエリ アン−デ
カパロス, ダヴィド ペレス
カパロス, ダヴィド ペレス
アシック カーン,
アシック カーン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JP2018503897A publication Critical patent/JP2018503897A/en
Application granted granted Critical
Publication of JP6435050B2 publication Critical patent/JP6435050B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/72Admission control; Resource allocation using reservation actions during connection setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/80Actions related to the user profile or the type of traffic
    • H04L47/805QOS or priority aware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • H04L67/1074Peer-to-peer [P2P] networks for supporting data block transmission mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45583Memory management, e.g. access or allocation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45595Network integration; Enabling network access in virtual machine instances

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Stored Programmes (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本技術は、複数の物理及び/又はソフトウェアリソースのうち、ある物理及び/又はソフトウェアリソースに、少なくとも1つの仮想リソースを割り振るための方法及び装置に関する。特に、本技術は、電気通信クラウドシステムにおけるリソース管理のためのテナントアフィニティに関する。   The present technology relates to a method and apparatus for allocating at least one virtual resource to a certain physical and / or software resource among a plurality of physical and / or software resources. In particular, the present technology relates to tenant affinity for resource management in a telecommunications cloud system.

ネットワーク機能仮想化(NFV:Network Functions Virtualization)は、通信サービスを提供するための手法である。NFVは、事業者のネットワークにおける現在のネットワーク機能(たとえば、ファイアウォール、DPI、サービングゲートウェイ、...)を専用ハードウェアから汎用ITインフラストラクチャに移動するために、ITからの仮想化及び自動化技法を適用する。これらの変形されたネットワーク機能は、「仮想ネットワーク機能」(VNF:Virtual Network Function)として知られている。VNFは、1つ又は複数の仮想機械(VM)及び仮想ネットワークから成ることができ、それらが合わさってネットワーク機能を実現する。これらのVM及び仮想ネットワークは一般的に、本発明において仮想化リソースと呼ばれる。   Network function virtualization (NFV) is a technique for providing a communication service. NFV uses virtualization and automation techniques from IT to move current network functions (eg, firewalls, DPIs, serving gateways,...) In an operator's network from dedicated hardware to a general-purpose IT infrastructure. Apply. These modified network functions are known as “virtual network functions” (VNFs). A VNF can consist of one or more virtual machines (VMs) and a virtual network, which together provide a network function. These VMs and virtual networks are generally referred to as virtualized resources in the present invention.

本発明によって対処される問題のうちの1つは、リソースの物理クラスタ化に起因するデータセンターにおけるリソースの浪費である。この文脈における「物理クラスタ化」は、特定のベンダー(本明細書内で「テナント」とも呼ばれる)からのアプリケーションソフトウェアに計算及び記憶リソースの既定のセットが排他的に割り当てられることを意味する。したがって、別のベンダーからのアプリケーションソフトウェアはこれらのリソースを、使用されていない場合でも使用することができない。そのような「物理クラスタ化」には、2つの主な理由がある。
A.セキュリティ:ベンダー(テナント)は、自身のVMが他のベンダー(テナント)からの他のVMと共有物理又はハイパーバイザソフトウェアリソース上にコロケートされることを、たとえば、ハイパーバイザ又はVMのバグを利用して競合ベンダーからのVMからのトラフィックを傍受する可能性によるセキュリティ上の理由で、望まないことがある。
B.パフォーマンス:ベンダー(テナント)は、自身のVNF(ひいては、基礎をなすVM)のパフォーマンスが予測可能であることを保証することを望んでおり、そのため、第2のベンダーからのVMの機能不全は、第1のベンダーからのVMに影響を与える可能性がある。ベンダーが、自身のVMが障害に直面したときに障害理由を追跡し分析することも容易である。
One of the problems addressed by the present invention is the waste of resources in the data center due to physical clustering of resources. “Physical clustering” in this context means that a predetermined set of computing and storage resources is exclusively assigned to application software from a particular vendor (also referred to herein as “tenant”). Therefore, application software from another vendor cannot use these resources even when not in use. There are two main reasons for such “physical clustering”.
A. Security: Vendors (tenants) use their VMs to be collocated on shared physical or hypervisor software resources with other VMs from other vendors (tenants), for example using a hypervisor or VM bug. This may not be desirable for security reasons due to the possibility of intercepting traffic from VMs from competing vendors.
B. Performance: Vendors (tenants) want to ensure that the performance of their VNFs (and hence the underlying VMs) is predictable, so a VM malfunction from a second vendor is May affect VMs from the first vendor. It is also easy for vendors to track and analyze the reason for failure when their VM faces a failure.

「物理クラスタ化」は、2つの主な問題につながり得る。
1.データセンターのリソースの浪費:リソースクラスタの事前プロビジョニングは、特に事前プロビジョニングが、後にテナントの実際の要件と合致しなくなるような不適切な方法で行われる場合に、リソースの浪費につながり得る。具体的には、リソースのそのようなクラスタにおけるリソースの実際の使用は、トラフィック負荷、障害などの多様な要因により動的に変わることがある。
2.ベンダー/テナント要件へのより強い依存:データセンターにおけるリソースの物理クラスタ化は依然として、VNFソフトウェアの獲得をインフラストラクチャハードウェアに結び付ける。そのような行動は、物理/ハードウェアリソース上で実行されているアプリケーションソフトウェアから当該リソースを抽出することを目的とする仮想化を導入する当初の動機のうちの1つに大きく反する。
“Physical clustering” can lead to two main problems.
1. Data center resource waste: Pre-provisioning of resource clusters can lead to resource waste, especially if the pre-provisioning is done in an inappropriate manner that later does not meet the tenant's actual requirements. Specifically, the actual use of resources in such a cluster of resources may change dynamically due to various factors such as traffic load, failures, and the like.
2. Stronger reliance on vendor / tenant requirements: Physical clustering of resources in the data center still ties VNF software acquisition to infrastructure hardware. Such behavior is largely contrary to one of the original motivations for introducing virtualization aimed at extracting such resources from application software running on physical / hardware resources.

本開示を通じて、「ソフトウェア」という用語は、次のうちの1つを指す。第一に、異なるテナントによって共有されることがある、システムインフラストラクチャの一部であるソフトウェア、たとえば、ハイパーバイザソフトウェアの形態によるソフトウェア、第二に、アプリケーション又はサービスの機能、具体的にはネットワーク機能を実行するためにテナントによって提供されるソフトウェア。必要な場合、また文脈から別途明らかではない場合、用語の2つの別個の使用を区別するために、「ハイパーバイザソフトウェア」、「アプリケーションソフトウェア」、又は、「VNFソフトウェア」への明示的な言及が行われる。   Throughout this disclosure, the term “software” refers to one of the following: First, software that is part of the system infrastructure that may be shared by different tenants, eg software in the form of hypervisor software, second, application or service functionality, specifically network functionality Software provided by the tenant to run. An explicit reference to “hypervisor software”, “application software”, or “VNF software” is used to distinguish the two distinct uses of the term when necessary and not otherwise apparent from the context. Done.

図2は、上記で概説した物理クラスタ化問題の一例を示している。4つの異なるクラスタが作成され、それぞれのベンダー(テナント)、すなわち、T−A、T−B、T−C及びT−Dに割り当てられる。この図はまた、どのようにしてVMがいくつかの物理ホスト(サーバ)に割り振られるかと、トラフィック負荷などに応じて、どのようにして物理クラスタ化が各クラスタ内のリソースの浪費につながり得るかとを示している。基本的に、共有された可能性があるデータセンターにおけるリソースのプールは、ここでは、異なるクラスタに断片化されており、クラスタの所有者/ユーザ以外のベンダー/テナントへのリソースの割振りが妨げられている。   FIG. 2 shows an example of the physical clustering problem outlined above. Four different clusters are created and assigned to each vendor (tenant), ie TA, TB, TC and TD. This figure also shows how VMs are allocated to several physical hosts (servers) and how physical clustering can lead to waste of resources within each cluster, depending on traffic load etc. Is shown. Basically, the pool of resources in the data center that may have been shared is now fragmented into different clusters, preventing allocation of resources to vendors / tenants other than the cluster owner / user. ing.

データセンターのリソースクラスタ化の領域には、上記の問題に対処しようと試みるいくつかの既存の技術がある。1つの手法は、VMwareのVSphere 5.5であり、これはオンライン(http://pubs.vmware.com/vsphere-55/topic/com.vmware.ICbase/PDF/vsphere-esxi-vcenter-server-55-resource-management-guide.pdf)で入手可能な「vSphere ESXi Vcenter server resource management guide」の中で説明されている。VSphereにより、次のようないくつかのタイプのアフィニティを定義することができる。
・CPUアフィニティ:CPUアフィニティは、マルチプロセッサシステムにおける利用可能なプロセッサのサブセットへのVMの割当てを制約するために使用される、つまり、プロセッサへのVMの配置の制約を指定する。
・VMアフィニティ:VM間アフィニティルールは、個々のVM間のアフィニティ(又はアンチアフィニティ)を指定するために使用される、つまり、選択された個々のVMが同じホスト上で実行されるべきか、それとも別個の物理ホスト(サーバ)上で維持されるべきかを指定する。
・VMホストアフィニティ:VMホストアフィニティルールは、選択されたVM分散型リソーススケジューラ(DRS:Distributed Resource Scheduler)グループの要素が、指定されたホストDRSグループの要素上で実行できるかどうかを指定する。VMホストアフィニティルールは、以下の構成要素を含む。a)1つのVM DRSグループ、b)1つのホストDRSグループ、並びにc)ルールが必須(must)であるか、それとも推奨(should)であるか、及びルールがアフィニティ(実行される)を表すか、それともアンチアフィニティ(実行されない)を表すかの指定。
In the area of data cluster resource clustering, there are several existing technologies that attempt to address the above problems. One approach is VMware's VSphere 5.5, which is online (http://pubs.vmware.com/vsphere-55/topic/com.vmware.ICbase/PDF/vsphere-esxi-vcenter-server- 55-resource-management-guide.pdf), described in “vSphere ESXi Vserver server resource management guide”. With VSphere, several types of affinity can be defined:
CPU affinity: CPU affinity is used to constrain the allocation of VMs to a subset of available processors in a multiprocessor system, ie, it specifies constraints on the placement of VMs on a processor.
VM affinity: Inter-VM affinity rules are used to specify affinity (or anti-affinity) between individual VMs, ie whether selected individual VMs should be run on the same host or Specifies whether to be maintained on a separate physical host (server).
VM Host Affinity: The VM Host Affinity Rule specifies whether the elements of the selected VM Distributed Resource Scheduler (DRS) group can be executed on the elements of the specified Host DRS Group. The VM host affinity rule includes the following components. a) one VM DRS group, b) one host DRS group, and c) whether the rule is mandatory or recommended, and whether the rule represents affinity (executed) , Or whether to represent anti-affinity (not executed).

最後のタイプのアフィニティ(すなわち、VMホストアフィニティ)は、データセンターにおけるリソースを区分し、図2に示すもののようなリソースクラスタを作成するために使用されるものである。特定の物理ホスト(ホストDRSグループ)のこれらのクラスタは次いで、テナント(VM DRSグループ)に割り当てられ得る。だが、そのような作成がオフラインで(事前に計画されて)前もって行われて、VM割振り要求を受信する、つまり、割振りはあらかじめすでに指定されている。したがって、それは、リソース浪費の問題を解決しない。図2及び他の図におけるデータセンタースキーマは、物理サーバごとに4つの仮想機械(VM)を指定する。この構成は、説明のために選択されており、実際の実施形態では変わり得る、つまり、物理サーバごとに1つ又は複数の仮想機械があり得る。上記で概説したリソースクラスタの事前計画及び割振りの欠点に加えて、アフィニティルールの指定及び維持は、異なる要件を伴う多様な作業負荷を有する多数のテナントを抱えたデータセンター構成では特に、非常に複雑で大きな労力を要することがある。
アフィニティグループを宣言し、そのようなアフィニティグループに基づいてデータ項目及び計算リソースを割り振ることに基づく同様の手法は、米国特許第8577892 B2号においてPeiraultらによって説明されている。この手法の基本的な考えは、計算リソースをアフィニティグループに関連付けることができ、そのようなアフィニティグループを地理的領域又はいくつかのデータセンターに関連付けることができるというものである。データ項目及び計算リソースは、アフィニティグループに関連付けられ、次いで、そのような関連付けられたアフィニティグループに基づいて割り振られ得る。この解決策は、VMwareがそのDRSクラスタを介してサポートするものと非常に似ている。
The last type of affinity (ie, VM host affinity) is used to partition resources in the data center and create a resource cluster such as that shown in FIG. These clusters of a particular physical host (host DRS group) can then be assigned to a tenant (VM DRS group). However, such creation is done off-line (pre-planned) in advance and receives a VM allocation request, that is, the allocation is already specified in advance. Therefore, it does not solve the problem of resource waste. The data center schema in FIG. 2 and other figures specifies four virtual machines (VMs) for each physical server. This configuration has been selected for explanation and may vary in actual embodiments, i.e. there may be one or more virtual machines per physical server. In addition to the shortcomings of resource cluster pre-planning and allocation outlined above, the specification and maintenance of affinity rules is very complex, especially in data center configurations with a large number of tenants with diverse workloads with different requirements. Can be labor intensive.
A similar approach based on declaring affinity groups and allocating data items and computational resources based on such affinity groups is described by Peirart et al. In US Pat. No. 8,578,789 B2. The basic idea of this approach is that computational resources can be associated with affinity groups, and such affinity groups can be associated with geographic regions or several data centers. Data items and computational resources can be associated with affinity groups and then allocated based on such associated affinity groups. This solution is very similar to what VMware supports through its DRS cluster.

別の手法は、米国特許第8402139B2号においてFerrisらによって提示されており、クラウド管理システムであり得るマッチングシステムが、データセンターにおける物理ホスト又はサーバであり得る利用可能なクラウド機器に関する情報を収集し、これらの機器を、ユーザに要求されたサービスとマッチングする。そのような要求されたサービスは、いくつかのVM上に配備されたアプリケーションである。マッチングシステムはリソースを追跡し管理することもできるので、ユーザは特定の権利を有することができ、割り当てられたリソースはユーザに利用可能となる。だが、米国特許第8402139 B2号は、他のテナント要求と比較して、表された必要なアフィニティに基づいてリソースを割り振る問題を解決していない。   Another approach is presented by Ferris et al. In US Pat. No. 8,402,139 B2, where a matching system, which can be a cloud management system, collects information about available cloud devices that can be physical hosts or servers in a data center, These devices are matched with the service requested by the user. Such requested services are applications deployed on several VMs. Since the matching system can also track and manage resources, the user can have certain rights and the allocated resources are made available to the user. However, US Pat. No. 8,402,139 B2 does not solve the problem of allocating resources based on the required affinity expressed compared to other tenant requests.

別の手法は、ACM International Conference on Measurement and Modeling of Computer Systems (SIGMETRICS 2013)において「Defragmenting the Cloud Using Demand−based Resource Allocation」の中でG. Shanamuganathanらによって説明されている。著者は、顧客によって購入された大量のリソースをそのVMの間で、個々の需要並びに他のテナント指定の制御、たとえば、予約、制限及び優先度に基づいて動的に割り振る2つのアルゴリズムを提案している。提案された分散型二分探索(DBS:Distributed Binary Search)アルゴリズムは、集中型のVMwareのDRSリソースマネージャのアルゴリズムと合致するが、分散型環境で機能している。また、他の提案されたアルゴリズム、Base+Proportional Excess(BPX)は、完全に非同期である。この解決策の主な相違として、本明細書で開示する技術に関係する、クラウド/データセンターリソースのデフラグを可能にするが、この場合、割振りは、VM負荷及び顧客による要求で表されるVMの負荷優先度に基づく。したがって、この解決策は明示的なテナント間アフィニティ情報を考慮しない。   Another approach is described in “Defragmenting the Cloud Usage Demand-Gothed-Residence Resource.” In ACM International Conference on Measurement and Modeling of Computer Systems (SIGMETRICS 2013) As described by Shanamuganathan et al. The author proposes two algorithms that dynamically allocate a large amount of resources purchased by customers between their VMs based on individual demands and other tenant-specified controls such as reservations, limits and priorities. ing. The proposed distributed binary search (DBS) algorithm is consistent with the centralized VMware DRS resource manager algorithm, but is functioning in a distributed environment. Another proposed algorithm, Base + Proportional Exceed (BPX), is completely asynchronous. The main difference in this solution is that it allows defragmentation of cloud / data center resources related to the technology disclosed herein, in which case the allocation is a VM represented by the VM load and customer demand. Based on load priority. Therefore, this solution does not consider explicit inter-tenant affinity information.

リソースがアフィニティグループに基づいて割り振られるとき、前述の手法はすべて、リソースグループがあらかじめ事前計画された方法で割り振られることを必要とする。   When resources are allocated based on affinity groups, all of the above approaches require that resource groups be allocated in a pre-planned manner.

米国特許第8402139B2号U.S. Pat. No. 8,402,139 B2

“vSphere ESXi Vcenter server resource management guide”、http://pubs.vmware.com/vsphere-55/topic/com.vmware.ICbase/PDF/vsphere-esxi-vcenter-server-55-resource-management-guide.pdf“VSphere ESXi Vcenter server resource management guide”, http://pubs.vmware.com/vsphere-55/topic/com.vmware.ICbase/PDF/vsphere-esxi-vcenter-server-55-resource-management-guide. pdf “Defragmenting the Cloud Using Demand−based Resource Allocation”、著作G. Shanamuganathanら、ACM International Conference on Measurement and Modeling of Computer Systems (SIGMETRICS 2013)“Defragmenting the Cloud Using Demand-based Resource Allocation”, work G.R. Shanamuganathan et al., ACM International Conference on Measurement and Modeling of Computer Systems (SIGMETRICS 2013)

一実施形態によれば、仮想化リソース管理エンジンによって、複数の物理及び/又はソフトウェアリソースのうち、ある物理及び/又はソフトウェアリソースに、少なくとも1つの仮想リソースを割り振る方法であって、
上記少なくとも1つの仮想リソースを要求している第1のテナントを識別するために使用される情報を取得するステップと、
上記要求された仮想リソースが、上記第1のテナントとは異なる別のテナントの1つ又は複数の仮想リソースと同じ物理及び/又はソフトウェアリソース上にコロケートされ得るかどうかを指定する、リソース割振り要求のパラメータとしてのアフィニティ情報を取得するステップと、
アフィニティ情報に基づいて少なくとも1つの仮想リソースを割り振るステップと
を含む方法が提供される。
According to one embodiment, a method of allocating at least one virtual resource to a certain physical and / or software resource among a plurality of physical and / or software resources by a virtual resource management engine, comprising:
Obtaining information used to identify a first tenant requesting the at least one virtual resource;
A resource allocation request that specifies whether the requested virtual resource can be co-located on the same physical and / or software resource as one or more virtual resources of another tenant different from the first tenant Obtaining affinity information as a parameter;
Allocating at least one virtual resource based on the affinity information.

この方法は、物理及びハイパーバイザソフトウェアリソースを事前に計画する必要及び/又はテナント(ベンダー)に事前に割り振る必要なしに、データセンターにおけるリソースが割り振られ得るという効果及び利点を有する。そのような事前割振りがなければ、リソースのプールがテナントの間で統計的に共有されるので、データセンターにおいて必要とされるリソースが少なくなる一方で、同時に、割振りを決定するときに、異なるテナントの仮想機械の配置に対する制約を表すアフィニティ情報が考慮される。したがって、図4に示すように、インフラストラクチャリソース及び資本支出の節約が可能であり、同時に、必要なリソースの量が減ることで運用コストも減る。   This method has the advantage and advantage that resources in the data center can be allocated without having to plan physical and hypervisor software resources in advance and / or without having to pre-allocate to tenants (vendors). Without such pre-allocation, the resource pool is statistically shared among tenants, so fewer resources are required in the data center, while at the same time, when determining allocations, different tenants Affinity information representing constraints on the placement of virtual machines is considered. Therefore, as shown in FIG. 4, it is possible to save infrastructure resources and capital expenditure, and at the same time, the operation cost is reduced by reducing the amount of necessary resources.

上記アフィニティ情報に基づく少なくとも1つの仮想リソースの割振りは、テナントによるリソースの断片化が回避されるという効果及び利点を有する。これは、他のパラメータ又はリソース能力、たとえば、リソースのタイプ(何らかの特定のハードウェアアクセラレーションがいくつかのホストで可能である場合)、リソースの品質、弾力性レベルなどに基づいてそのような断片化を実行するためのさらなる柔軟性をもたらす。   Allocation of at least one virtual resource based on the affinity information has the effect and advantage that resource fragmentation by the tenant is avoided. This may be based on other parameters or resource capabilities, such as resource type (if any specific hardware acceleration is possible on some hosts), resource quality, elasticity level, etc. Provides more flexibility to implement.

一実施形態では、本方法は、複数の物理及びソフトウェアリソースへの仮想リソースの現在の割振りに関係する情報を取得するための中間ステップを含む。   In one embodiment, the method includes an intermediate step for obtaining information related to the current allocation of virtual resources to a plurality of physical and software resources.

これは、より動的な方法で実行時に、アフィニティ情報が考慮されて、データセンターにおけるリソースが割り振られ得るという効果及び利点を有する。   This has the advantage and advantage that at run time in a more dynamic manner, affinity information can be considered and resources in the data center can be allocated.

一実施形態では、仮想化リソース管理エンジンは、データセンター又はクラウドインフラストラクチャにおける仮想、物理及びソフトウェアリソースの仮想化インフラストラクチャ管理を担当するエンティティの一部である。   In one embodiment, the virtualization resource management engine is part of an entity responsible for virtual infrastructure management of virtual, physical and software resources in a data center or cloud infrastructure.

これは、仮想化インフラストラクチャの管理者、たとえば、ネットワーク事業者が、データセンターにおける計算、記憶及びネットワークリソースを、配備されるソフトウェアのベンダーによる実装から分離することを可能にするという効果及び利点を有する。特に、アプリケーションソフトウェアの実装は、特定のクラウド環境に配備されているときに、アフィニティ制約を設定及び実施する方法を考慮する必要がない。仮想化インフラストラクチャ管理を担当するエンティティは、たとえば、NFVアーキテクチャフレームワーク(Architectural Framework)におけるVIMであり得る。   This has the benefit and advantage of enabling virtualization infrastructure administrators, eg, network operators, to separate the computing, storage and network resources in the data center from the implementation by the vendor of the deployed software. Have. In particular, application software implementations do not need to consider how to set and enforce affinity constraints when deployed in a specific cloud environment. The entity responsible for virtual infrastructure management can be, for example, a VIM in the NFV Architecture Framework.

一実施形態では、第1のテナントを識別するために使用される情報及びアフィニティ情報のシグナリングエンティティは、仮想ネットワーク機能の管理を担当するエンティティである。   In one embodiment, the information and affinity information signaling entity used to identify the first tenant is the entity responsible for managing the virtual network functions.

これは、仮想ネットワーク機能の管理を担当するエンティティを制御するテナント(ベンダー)が、VNFの配備/運用のケースごとに、そのようなVNF及び対応する仮想化リソースが、他のテナントの仮想化リソースとコロケートされるかどうかの点で、どのように配備されるべきかを決定することを可能にするという効果及び利点を有する。仮想ネットワーク機能の管理を担当するエンティティは、たとえば、NFVアーキテクチャフレームワークにおけるVNFMであり得る。   This is because a tenant (vendor) that controls an entity in charge of management of a virtual network function, for each VNF deployment / operation case, such a VNF and a corresponding virtualization resource are the virtualization resources of other tenants. And has the effect and advantage of making it possible to determine how it should be deployed in terms of whether it is collocated. The entity responsible for managing the virtual network function may be, for example, a VNFM in the NFV architecture framework.

一実施形態では、シグナリングは、リソース及び仮想ネットワーク機能の編成を担当するエンティティを通じて転送される。   In one embodiment, signaling is forwarded through an entity responsible for organizing resources and virtual network functions.

これは、ベンダー及びネットワーク事業者が、データセンターにおけるトラフィック負荷、自身のVNFの優先度、並びに/又は追加のネットワークサービス及びリソースポリシー制約のような、リソース及び仮想ネットワーク機能の編成を担当するエンティティによって部分的に決定される、異なる状況下で異なるVNFプロビジョニング戦略を持つことを可能にするという効果及び利点を有する。リソース及び仮想ネットワーク機能の編成を担当するエンティティは、たとえば、NFVアーキテクチャフレームワークにおけるNFVOであり得る。   This is due to the entity responsible for the organization of resources and virtual network functions, such as the traffic load in the data center, the priority of their VNFs, and / or additional network services and resource policy constraints. Partly determined, has the effect and advantage of allowing having different VNF provisioning strategies under different circumstances. The entity responsible for organizing resources and virtual network functions may be, for example, an NFVO in the NFV architecture framework.

一実施形態では、本方法は、第1のテナントを識別するために受信された情報に基づいてアフィニティ情報を発見するための中間ステップを含む。   In one embodiment, the method includes an intermediate step for finding affinity information based on the information received to identify the first tenant.

これは、アフィニティ情報が明示的に指定され送信される必要はないが、第1のテナントの識別情報に基づいて判断されるという点で効果及び利点を有する。これは、シグナリングプロトコルをより効率的にし、そのテナント(ベンダー)以外のエンティティが特定のテナントのアフィニティ情報を判断することを可能にする。   This has the advantage and advantage in that the affinity information need not be explicitly specified and transmitted, but is determined based on the identification information of the first tenant. This makes the signaling protocol more efficient and allows entities other than that tenant (vendor) to determine a particular tenant's affinity information.

一実施形態では、本方法は、第1のテナントを識別するために受信された情報に基づいてアフィニティ情報を発見するための中間ステップを含み、第1のテナントを識別するために使用される情報のシグナリングエンティティが、仮想ネットワーク機能の管理を担当するエンティティであり、第1のテナントを識別するために使用される情報に基づくアフィニティに関係する情報の発見が、リソース及び仮想ネットワーク機能の編成を担当するエンティティによって実行され、第1のテナントを識別するために使用される情報及びアフィニティに関係する情報のシグナリングが、リソース及び仮想ネットワーク機能の編成を担当するエンティティによって実行される。   In one embodiment, the method includes an intermediate step for discovering affinity information based on information received to identify the first tenant, and the information used to identify the first tenant. The signaling entity is responsible for managing the virtual network functions, and the discovery of information related to affinity based on the information used to identify the first tenant is responsible for organizing resources and virtual network functions Signaling of information related to affinity and information used to identify the first tenant and performed by the entity responsible for organizing the resources and virtual network functions.

この実施形態は、次のようないくつかの効果及び利点を実現する。仮想ネットワーク機能の管理を担当するエンティティを制御するテナント(ベンダー)が、VNFの配備/運用のケースごとに、そのようなVNF及び対応する仮想化リソースが、他のテナントの仮想化リソースとコロケートされるかどうかの点で、どのように配備されるべきかを決定することが可能になる。さらにベンダー及びネットワーク事業者が、データセンターにおけるトラフィック負荷、自身のVNFの優先度、並びに/又は追加のネットワークサービス及びリソースポリシー制約のような、異なる状況下で異なるVNFプロビジョニング戦略を持つことができる。最後に、シグナリングプロトコルがより効率的になり得、そのテナント(ベンダー)以外のエンティティが特定のテナントのアフィニティ情報を判断することを可能にする。   This embodiment realizes several effects and advantages as follows. For each VNF deployment / operation case, a tenant (vendor) that controls an entity responsible for managing virtual network functions, such VNFs and corresponding virtualization resources are collocated with virtualization resources of other tenants. In terms of whether or not it should be deployed. In addition, vendors and network operators can have different VNF provisioning strategies under different circumstances, such as traffic load in the data center, their VNF priority, and / or additional network service and resource policy constraints. Finally, the signaling protocol can be more efficient, allowing entities other than that tenant (vendor) to determine a particular tenant's affinity information.

一実施形態では、アフィニティに関係する情報は、ポリシーの一部であり、アフィニティ情報は、ポリシーのセットアッププロセスの一部としてシグナリングされる。   In one embodiment, the information related to affinity is part of the policy, and the affinity information is signaled as part of the policy setup process.

これは、仮想ネットワーク機能の管理を担当するエンティティが、そのようなリソース割振りのためにリソース要件及びVNFのタイプ又はクラスのみを指定する必要があるリソース割振り要求を直接発信することができるという効果及び利点を有する。次いで、VIMは、そのような情報を、ポリシーに含まれる情報とマッピングし、それに応じてリソース割振りを発信する。したがって、シグナリングはより効率的になり得る。   This has the effect that the entity responsible for managing the virtual network function can directly issue a resource allocation request that only needs to specify the resource requirements and the VNF type or class for such resource allocation, and Have advantages. The VIM then maps such information with the information contained in the policy and sends a resource allocation accordingly. Thus, signaling can be more efficient.

一実施形態では、複数の物理及び/又はソフトウェアリソースのうち、ある物理及び/又はソフトウェアリソースに、上記少なくとも1つの仮想リソースを割り振るプロセスは、管理動作の一部であり、管理動作が、仮想化配備の第1のインスタンス化、又は既存の仮想化配備の仮想化リソースの全面的若しくは部分的なスケールアウト、移動若しくは回復を含むことが好ましい。   In one embodiment, the process of allocating the at least one virtual resource to a certain physical and / or software resource among a plurality of physical and / or software resources is part of the management operation, and the management operation is virtualized. It preferably includes a first instantiation of the deployment, or a full or partial scale-out, migration or recovery of the virtualization resources of an existing virtualized deployment.

これは、割振り方法が他の管理動作においても効果的であるので、管理動作が発生したときに割振り方法の前述の効果及び利益が維持されるという効果及び利点を有する。   This has the advantage and advantage that the aforementioned effects and benefits of the allocation method are maintained when the management operation occurs, since the allocation method is also effective in other management operations.

一実施形態では、少なくとも1つの仮想リソースは、ハイパーバイザ上で実行される仮想機械(VM)若しくはオペレーティングシステム上で実行される仮想アプリケーションコンテナ、又は記憶用の仮想ディスクドライブである。   In one embodiment, the at least one virtual resource is a virtual machine (VM) running on a hypervisor or a virtual application container running on an operating system, or a virtual disk drive for storage.

これは、データセンターにおいて一般に利用可能なコンピュータハードウェア及びソフトウェアシステム及びインフラストラクチャに本方法が適用可能であるという効果及び利点を有する。   This has the advantage and advantage that the method is applicable to computer hardware and software systems and infrastructure generally available in the data center.

一実施形態では、仮想リソースの割振りは仮想化配備のために行われ、仮想化配備が仮想ネットワーク機能(VNF)である。   In one embodiment, the allocation of virtual resources is performed for virtualized deployment, where the virtualized deployment is a virtual network function (VNF).

これは、電気通信クラウドにおける仮想ネットワーク機能のためにリソースを割り振るために本方法が適用可能であるという効果及び利点を有する。   This has the advantage and advantage that the method can be applied to allocate resources for virtual network functions in a telecommunications cloud.

一実施形態では、アフィニティ情報は、特定のテナントに対するアンチアフィニティ、特定のテナントに対するアフィニティ、計算、記憶若しくはネットワークの負荷が大きい仮想リソースに対するアフィニティのうちの1つ又は複数を含むことが好ましい、異なる割振りケースを対象とする複数の値を取ることができる。   In one embodiment, the affinity information preferably includes one or more of anti-affinity for a specific tenant, affinity for a specific tenant, affinities for virtual resources that are computationally intensive, storage or network intensive, and different allocations. Multiple values can be taken for the case.

これは、アフィニティ情報がベンダーの一部若しくは全部に対するアフィニティ若しくはアンチアフィニティを表すことができ、又はアフィニティ情報が、いくつかの能力を有する仮想化リソースをコロケートするためにアフィニティ若しくはアンチアフィニティを表すことができるという効果及び利点を有する。   This is because the affinity information can represent affinity or anti-affinity for some or all of the vendors, or the affinity information can represent affinity or anti-affinity to colocate a virtualized resource with several capabilities. It has the effect and advantage of being able to.

一実施形態によれば、仮想化リソース管理エンジンによって、複数の物理及び/又はソフトウェアリソースのうち、ある物理及び/又はソフトウェアリソースに、少なくとも1つの仮想リソースを割り振るための装置であって、要求された仮想リソースが、第1のテナントとは異なる別のテナントの1つ又は複数の仮想リソースと同じ物理及び/又はソフトウェアリソース上にコロケートされ得るかどうかを指定する、リソース割振り要求のパラメータとしてのアフィニティ情報を取得するためのモジュールと、
アフィニティ情報に基づいて少なくとも1つの仮想リソースを割り振るように設計されたモジュールと、
を備える装置が提供される。
According to one embodiment, an apparatus for allocating at least one virtual resource to a certain physical and / or software resource among a plurality of physical and / or software resources by a virtualized resource management engine, which is required. A resource allocation request parameter that specifies whether the virtual resource can be co-located on the same physical and / or software resource as one or more virtual resources of another tenant different from the first tenant A module for obtaining information,
A module designed to allocate at least one virtual resource based on affinity information;
An apparatus comprising:

別の実施形態によれば、本装置は、複数の物理及びソフトウェアリソースへの仮想リソースの現在の割振りに関係する情報を取得するためのモジュールをさらに備える。   According to another embodiment, the apparatus further comprises a module for obtaining information related to a current allocation of virtual resources to a plurality of physical and software resources.

別の実施形態によれば、本装置は、上記アフィニティ情報に基づいて上記少なくとも1つの仮想リソースを割り振るためのモジュールをさらに備える。   According to another embodiment, the apparatus further comprises a module for allocating the at least one virtual resource based on the affinity information.

本装置の実施形態によって実現される効果及び利点は、上記で詳細に説明した方法の実施形態の効果及び利点に対応する。   The effects and advantages realized by the apparatus embodiments correspond to the effects and advantages of the method embodiments described in detail above.

ネットワーク機能仮想化のためのアーキテクチャフレームワーク、特に、ETSI NFV E2Eアーキテクチャフレームワークの機能ビルディングブロックによるアーキテクチャの概要を示す図である。FIG. 2 is a diagram showing an overview of an architecture framework for network function virtualization, in particular, an architecture with function building blocks of an ETSI NFV E2E architecture framework. データセンターの概念的スキーマ及び物理クラスタ化問題の一例を示す図である。FIG. 3 illustrates an example of a data center conceptual schema and physical clustering problem. テナントアフィニティの使用の一例及びVMアフィニティルールとともにテナントアフィニティを使用したときの効果を示す図である。It is a figure which shows the effect when using an example of tenant affinity, and tenant affinity with a VM affinity rule. DRSクラスタに基づく従来技術によるデータセンターの概念的スキーム及びテナント間アフィニティ値に基づく一実施形態による割振りを伴うデータセンターの概念的スキームを示す図である。FIG. 2 illustrates a conceptual scheme of a data center according to the prior art based on a DRS cluster and a conceptual scheme of a data center with allocation according to one embodiment based on inter-tenant affinity values. テナント間アフィニティ値が「1」である、テナントアフィニティ情報に基づいて仮想化リソースを割り振るための方法の一実施形態を示す図である。It is a figure which shows one Embodiment of the method for allocating a virtual resource based on tenant affinity information whose affinity value between tenants is "1". テナント間アフィニティ値が「0」である、テナントアフィニティ情報に基づいて仮想化リソースを割り振るための方法の一実施形態を示す図である。It is a figure which shows one Embodiment of the method for allocating a virtual resource based on tenant affinity information whose affinity value between tenants is "0". テナントアフィニティ情報に基づいて仮想化リソースを割り振るための方法の第1の例示的な実施形態を実行したときの、NFVアーキテクチャフレームワークの機能ブロック間のシグナリング及び情報フローを示す図である。FIG. 3 illustrates signaling and information flow between functional blocks of the NFV architecture framework when performing a first exemplary embodiment of a method for allocating virtualized resources based on tenant affinity information. テナントアフィニティ情報に基づいて仮想化リソースを割り振るための方法の第2の例示的な実施形態を実行したときの、NFVアーキテクチャフレームワークの機能ブロック間のシグナリング及び情報フローを示す図である。FIG. 6 illustrates signaling and information flow between functional blocks of the NFV architecture framework when performing a second exemplary embodiment of a method for allocating virtualized resources based on tenant affinity information. テナントアフィニティ情報に基づいて仮想化リソースを割り振るための方法の第3の例示的な実施形態を実行したときの、NFVアーキテクチャフレームワークの機能ブロック間のシグナリング及び情報フローを示す図である。FIG. 7 illustrates signaling and information flow between functional blocks of the NFV architecture framework when performing a third exemplary embodiment of a method for allocating virtualized resources based on tenant affinity information. テナントアフィニティ情報に基づいて仮想化リソースを割り振るための方法の第4の例示的な実施形態を実行したときの、NFVアーキテクチャフレームワークの機能ブロック間のシグナリング及び情報フローを示す図である。FIG. 7 illustrates signaling and information flow between functional blocks of the NFV architecture framework when performing a fourth exemplary embodiment of a method for allocating virtualized resources based on tenant affinity information.

最初に、説明で使用するいくつかの用語を、以下の略語リストで定義する。
CMS クラウド管理システム
DRS 分散型リソーススケジューラ
NFV ネットワーク機能仮想化
NFVI NFVインフラストラクチャ
NFVO NFVオーケストレータ
VIM 仮想インフラストラクチャマネージャ
VNF 仮想ネットワーク機能
VNFM VNFマネージャ
First, some terms used in the description are defined in the following abbreviation list.
CMS Cloud Management System DRS Distributed Resource Scheduler NFV Network Function Virtualization NFVI NFV Infrastructure NFVO NFV Orchestrator VIM Virtual Infrastructure Manager VNF Virtual Network Function VNFM VNF Manager

NFVの仕様は、欧州電気通信標準化機構(ETSI:European Telecommunications Standards Institute)におけるIndustry Specification Group(ISG)によって推進されている。ETSI NFVは、事業者のネットワークの仮想化によってもたらされる新しい機能ブロック及び参照点に焦点を当てたNFVアーキテクチャフレームワークを定義している。NFVアーキテクチャフレームワークの概要は、図1に示されている。   The NFV specification is being promoted by the Industry Specification Group (ISG) at the European Telecommunications Standards Institute (ETSI). The ETSI NFV defines an NFV architecture framework that focuses on new functional blocks and reference points brought about by the virtualization of the operator's network. An overview of the NFV architecture framework is shown in FIG.

NFVアーキテクチャフレームワークは、機能ブロック及びそのような機能ブロッの間の参照点を表している。機能の分割及び宣言された参照点は、マルチベンダエコシステムにおけるVNF101の管理及び編成をサポートする。具体的には、フレームワークは、基礎をなすインフラストラクチャからVNFソフトウェアが確実に分離され得るように、必要な機能分割を行う。このシナリオでは、VNFベンダー及び実装者が、たとえば、モバイルネットワーク事業者のような、別のエンティティによって管理される可能性が高いインフラストラクチャを使用するときに、実際のテナントになる。このインフラストラクチャは、1つ又は複数のデータセンターに配置された計算、記憶及びネットワークリソースから成る。インフラストラクチャはまた、共有されるようになっており、仮想化技法を使用することによって、いくつかのVMが割り振られ、単一の物理サーバ上で実行され得る。   The NFV architecture framework represents functional blocks and reference points between such functional blocks. Functional partitioning and declared reference points support management and organization of VNFs 101 in a multi-vendor ecosystem. Specifically, the framework performs the necessary functional partitioning to ensure that the VNF software can be separated from the underlying infrastructure. In this scenario, VNF vendors and implementers become real tenants when using infrastructure that is likely to be managed by another entity, for example, a mobile network operator. This infrastructure consists of computational, storage and network resources located in one or more data centers. The infrastructure is also becoming shared and by using virtualization techniques several VMs can be allocated and run on a single physical server.

説明全体にわたって、「ベンダー」という用語と「テナント」という用語とは互換的に使用される。   Throughout the description, the terms “vendor” and “tenant” are used interchangeably.

本明細書で開示する技術は、図1に示すNFVアーキテクチャフレームワークの以下の機能ブロックを主に扱う。
・NFVインフラストラクチャ及びソフトウェアリソースの編成及び管理を担当し、NFVI上でネットワークサービスを実現するNFVオーケストレータ(NFVO)102。ネットワークサービスは、1つ又は複数のVNFの集合によって実現される。
・VNFライフサイクル管理(たとえば、VNFのインスタンス化、更新、照会、スケーリング、終了)を担当するVNFマネージャ(VNFM)103。
・NFVI計算、記憶及びネットワークリソースを制御及び管理する仮想化インフラストラクチャマネージャ(VIM)104。クラウドベースのNFVIの場合、VIMは、クラウド管理システム(CMS)として実装され得る。
・仮想化リソースが割り振られる計算、記憶及びネットワークリソースのセットを備えるNFVインフラストラクチャ(NFVI)105。
The technology disclosed in this specification mainly deals with the following functional blocks of the NFV architecture framework shown in FIG.
An NFV orchestrator (NFVO) 102 responsible for organizing and managing NFV infrastructure and software resources and realizing network services over NFVI. Network services are realized by a collection of one or more VNFs.
A VNF manager (VNFM) 103 responsible for VNF lifecycle management (eg, VNF instantiation, update, query, scaling, termination).
A virtualization infrastructure manager (VIM) 104 that controls and manages NFVI computation, storage and network resources. For cloud-based NFVI, the VIM can be implemented as a cloud management system (CMS).
An NFV infrastructure (NFVI) 105 comprising a set of computational, storage and network resources to which virtualized resources are allocated.

NFVOが大域リソース割振りを行う一方で、VNFMは、VIM(たとえば、CMS)と直接対話して、VNFの配備及び管理の一部として仮想化リソースの管理を要求することができる。そのような対話に関する一例は、配備されたVNFのための容量拡大であり、この拡大は、VNFに次に追加される追加のVMをVNFMがCMSに要求することから成り得る。   While NFVO performs global resource allocation, VNFM can interact directly with VIM (eg, CMS) to request management of virtualized resources as part of VNF deployment and management. One example for such an interaction is a capacity extension for deployed VNFs, which may consist of the VNFM requesting additional VMs from the VMS that are then added to the VNF.

本開示の教示は、NFVアーキテクチャフレームワークの文脈における以下の問題に取り組む。特定のリソース要件をそれぞれ有する異なるベンダーからVNFが来るマルチベンダーVNFシナリオを仮定すると、リソースの物理クラスタ化が回避され得ることで、異なるベンダーの間でリソースを共有することによる統計的利得の改善を保証することを、どのようにして確実にできるかについて述べる。
以下では、本発明の実施形態について説明する。
The teachings of this disclosure address the following issues in the context of the NFV architecture framework. Assuming a multi-vendor VNF scenario where VNFs come from different vendors, each with specific resource requirements, physical clustering of resources can be avoided, improving statistical gain by sharing resources among different vendors. Describe how you can be assured.
Hereinafter, embodiments of the present invention will be described.

本明細書で開示する技術は、テナント/ベンダー情報に基づいて明示的なアフィニティルールを宣言することに基づく。そのような情報を宣言することによって、仮想化リソースマネージャエンジン(クラウド管理システムの一部、又はVIMの一部)は、データセンターにおける物理及びソフトウェアリソースの区分を事前に計画する必要なく、仮想化配備(たとえば、VNF)の一部として仮想化リソース(たとえば、VM)を割り振ることができる。   The technology disclosed herein is based on declaring explicit affinity rules based on tenant / vendor information. By declaring such information, the virtualized resource manager engine (part of the cloud management system, or part of the VIM) can be virtualized without having to plan in advance the division of physical and software resources in the data center. Virtualized resources (eg, VMs) can be allocated as part of a deployment (eg, VNF).

この解決策は、以下に焦点を当てる。
・NFVアーキテクチャフレームワークの機能ブロックを伴うインターフェース上のテナントアフィニティに関するパラメータ。
・テナントアフィニティ情報に基づくリソース割振りのための方法。
This solution focuses on:
• Parameters related to tenant affinity on the interface with the functional blocks of the NFV architecture framework.
-A method for resource allocation based on tenant affinity information.

請求項ではアフィニティ情報と呼ばれるテナントアフィニティパラメータは、テナント(ベンダー)によって要求された仮想化リソースが、他のテナント(ベンダー)からの他の仮想化リソースと同じ物理及び/又はソフトウェアリソース上にコロケートされ得るかどうかの情報を与える。テナントアフィニティは、最新技術で知られている他のアフィニティパラメータ、たとえば、VMwareのDRSによって提供されるような背景セクションで説明したものとは異なるパラメータである。図3は、一実施形態によるテナントアフィニティパラメータと、テナントアフィニティ情報の使用が、最新技術で使用されるVMアフィニティ情報(すなわち、上記で定義したVM間アフィニティ)と相補関係にある様子とを説明し示している。このVMアフィニティ情報は、サーバではなく、選択されたVMの間のアフィニティのみを指す。ここで、VMアフィニティ=0は、新しい選択されたVMを同じサーバ上に割り振ることができないことを意味し、VMアフィニティ=1は、選択されたVMを同じサーバ上に割り振らなければならないことを意味する。この例では、テナント「C」の仮想リソース(VM)C3及びC4は、VMアフィニティ=0を有する選択されたVMであり、「VMアフィニティ=0」情報を利用する間にサーバ1及び2に割り振られている(ケース301)。したがって、C3及びC4は、異なるサーバ(サーバ1及びサーバ2)に割り振られている。ただし、「テナントアフィニティ=1」情報がさらに考慮されるときには、これは、テナントの新しいVMの各々が、このテナントのVMのみが割り振られているサーバ又はVMがまだ割り振られていないサーバに割り振られなければならないことを意味する。したがって、図3の右手側に示すように、割振りがサーバ2及び3に対して実行され(ケース302)、これらのサーバは、同じテナントCによってのみ使用される(サーバ2を指す)か、又はまったく使用されておらず、したがって完全に利用可能である(サーバ3を指す)。   In the claims, the tenant affinity parameter, called affinity information, indicates that the virtualized resource requested by the tenant (vendor) is collocated on the same physical and / or software resources as other virtualized resources from other tenants (vendors). Give information on whether to get. Tenant affinity is a different parameter than that described in the background section as provided by other affinity parameters known in the state of the art, for example, VMware DRS. FIG. 3 illustrates a tenant affinity parameter according to one embodiment and how tenant affinity information usage is complementary to the VM affinity information used in the latest technology (ie, the VM affinity defined above). Show. This VM affinity information refers only to the affinity between the selected VMs, not the server. Here, VM affinity = 0 means that the new selected VM cannot be allocated on the same server, and VM affinity = 1 means that the selected VM must be allocated on the same server. To do. In this example, virtual resources (VM) C3 and C4 of tenant “C” are selected VMs having VM affinity = 0 and are allocated to servers 1 and 2 while using “VM affinity = 0” information. (Case 301). Therefore, C3 and C4 are allocated to different servers (server 1 and server 2). However, when the “tenant affinity = 1” information is further considered, this means that each of the tenant's new VMs is allocated to a server to which only this tenant's VM is allocated or a server that has not yet been allocated a VM. It means you have to. Thus, as shown on the right hand side of FIG. 3, an allocation is performed for servers 2 and 3 (case 302) and these servers are only used by the same tenant C (pointing to server 2), or It is not used at all and is therefore fully available (pointing to server 3).

図3は、2つの選択されたVMのみを有する一例を示しているが、割り振られるべき3つ以上の選択されたVMにも同じ原理を適用できることを、当業者は理解されよう。   Although FIG. 3 shows an example with only two selected VMs, those skilled in the art will appreciate that the same principles can be applied to more than two selected VMs to be allocated.

図4は、従来技術(DRSクラスタに基づく)と本開示による技術とを比較している。図の左手側は、上述の「物理クラスタ化」手法を示している。右手側は、テナントアフィニティパラメータを使用する一例を示している。この場合、「1」のアフィニティ値は、リソースをテナント間で共有できず、したがって、この値を有する仮想化リソースが、同じテナントからの他の仮想化リソースとのみサーバを共有できることを意味する。さらに、「0」のアフィニティ値を有する仮想化リソースも存在し、この値は、他のテナントからの仮想化リソースとサーバを共有できることを意味する。   FIG. 4 compares the prior art (based on DRS clusters) with the technique according to the present disclosure. The left hand side of the figure shows the “physical clustering” technique described above. The right hand side shows an example using the tenant affinity parameter. In this case, an affinity value of “1” means that the resource cannot be shared among tenants, and thus a virtual resource having this value can share a server only with other virtual resources from the same tenant. Furthermore, there is a virtual resource having an affinity value of “0”, which means that the server can be shared with virtual resources from other tenants.

この基本的な考えを使用するいくつかの実施形態が可能であり、それらのいくつかについて、以下で詳述する。   Several embodiments are possible using this basic idea, some of which are detailed below.

本明細書で説明し、請求項で指定するこの技術は、以下の利点を有する。
・物理及びソフトウェアリソースを事前に計画する必要及びテナント(ベンダー)に事前に割り振る必要なしに、より動的な方法で実行時にデータセンターにおけるリソースを割り振ることを可能にする。リソースのプールがテナントの間で統計的に共有されるので、データセンターにおいて必要とされるリソースが少なくなる。したがって、図4に示すように、リソース及び資本支出の節約が可能であり、このことは、同時に、必要なリソースの量が減ることで運用コストを減らすことができることを意味する。
・テナントによるリソースの断片化を回避する。これは、他のパラメータ又はリソース能力、たとえば、リソースのタイプ(何らかの特定のハードウェアアクセラレーションがいくつかのホストで可能である場合)、リソースの品質、弾力性レベルなどに基づいてそのような断片化を実行するためのさらなる柔軟性をもたらす。
・仮想化インフラストラクチャの管理者(この場合、ネットワーク事業者)が、データセンターにおける計算、記憶及びネットワークリソースを、VNFソフトウェアのベンダーによる実装から分離することを可能にする。
・テナント(ベンダー)が、VNFの配備/運用のケースごとに、そのようなVNF及び対応する仮想化リソースが、他のテナントの仮想化リソースとコロケートされるかどうかの点で、どのように配備されるべきかを決定することを可能にする。これは、ベンダーが、データセンターにおけるトラフィック負荷、自身のVNFの優先度、並びに/又は追加のネットワークサービス及びリソースポリシー制約のような、異なる状況下で異なるVNFプロビジョニング戦略を持つことを可能にする。
This technique described herein and specified in the claims has the following advantages.
-Allows resources in the data center to be allocated at runtime in a more dynamic way without the need to plan physical and software resources in advance and pre-allocate to tenants (vendors). Since resource pools are statistically shared among tenants, fewer resources are required in the data center. Therefore, as shown in FIG. 4, resource and capital expenditures can be saved, which means that the operation cost can be reduced by reducing the amount of necessary resources at the same time.
-Avoid resource fragmentation by tenants. This may be based on other parameters or resource capabilities, such as resource type (if any specific hardware acceleration is possible on some hosts), resource quality, elasticity level, etc. Provides more flexibility to implement.
Enables the virtualization infrastructure administrator (in this case, the network operator) to separate the computation, storage and network resources in the data center from the VNF software vendor implementation.
How a tenant (vendor) deploys for each VNF deployment / operation case in terms of whether such VNFs and corresponding virtualized resources are collocated with other tenant virtualized resources Allows you to decide what should be done. This allows vendors to have different VNF provisioning strategies under different circumstances, such as traffic load in the data center, their VNF priority, and / or additional network service and resource policy constraints.

以下では、テナントアフィニティ情報に基づいて仮想化リソースを割り振るための方法について説明する。   Hereinafter, a method for allocating virtual resources based on tenant affinity information will be described.

図5は、テナント間アフィニティ値が「1」である一例を示している。これは、VMを他のテナントからのVMとコロケートできないことを意味する。   FIG. 5 shows an example in which the inter-tenant affinity value is “1”. This means that the VM cannot be collocated with VMs from other tenants.

図6は、テナント間アフィニティ値が「0」である一例を示している。そのような例では、要求は、VMを割り振り、他のテナントからのVMとコロケートすることができるよう求めるものである。   FIG. 6 shows an example in which the inter-tenant affinity value is “0”. In such an example, the request is to allocate a VM and be able to co-locate with VMs from other tenants.

図5及び図6に示す方法は、以下の4つの主要なステップを含む。   The method shown in FIGS. 5 and 6 includes the following four main steps.

1.ステップ1(S501):1つ又は複数の仮想化リソース(簡単にするために、そのようなリソースが仮想機械、VMであると想定される)を割り振るよう求める要求が実行される。そのような要求は、そのような要求を発信しているテナントを識別する情報(パラメータ)と、仮想化リソースごとのテナントアフィニティ値とを含む。   1. Step 1 (S501): A request is made to allocate one or more virtualized resources (for simplicity, such resources are assumed to be virtual machines, VMs). Such a request includes information (parameter) for identifying a tenant that has transmitted such a request, and a tenant affinity value for each virtualization resource.

2.ステップ2(S502):仮想化リソース管理エンジン511が、ステップ1の要求からの入力情報を収集する。さらに、データセンターにおける共有物理及びソフトウェアリソースのプール上の仮想化リソースの現在の配置に関する(記憶されたか、又は別のエンティティから取り出された)追加の情報を収集することができる。この追加情報は、(「サーバid」パラメータ521によって識別される)識別された物理ホストごとに、図5及び図6の例とともに示す表における少なくとも以下の情報要素を含む。
a.使用アフィニティ522(現在のホスト/サーバがどのように使用されるか):これは、ステップ1でシグナリングされたテナントアフィニティパラメータに対応するが、ここでは、現在の物理ホストを他のテナントと共有できる(使用アフィニティ「0」)か、それとも当該テナント専用である(使用アフィニティ「1」)かを識別する。
b.そのようなリソースを使用する1つ又は複数のテナント(使用テナントid523)、及び
c.仮想化リソース(たとえば、VM)の識別子(vm−id524):この物理ホスト上でインスタンス化された仮想機械のリスト。
2. Step 2 (S502): The virtualization resource management engine 511 collects input information from the request in Step 1. In addition, additional information (stored or retrieved from another entity) regarding the current placement of virtualized resources on the pool of shared physical and software resources in the data center can be collected. This additional information includes at least the following information elements in the tables shown with the examples of FIGS. 5 and 6 for each identified physical host (identified by the “server id” parameter 521).
a. Use Affinity 522 (how the current host / server is used): This corresponds to the tenant affinity parameter signaled in step 1, but here the current physical host can be shared with other tenants (Use affinity “0”) or dedicated to the tenant (use affinity “1”).
b. One or more tenants using such resources (used tenant id 523), and c. Virtualization resource (eg, VM) identifier (vm-id 524): A list of virtual machines instantiated on this physical host.

3.ステップ3(S503):仮想化リソース管理エンジンは、そのリソース及びテナントアフィニティ要件を使用する物理ホスト(サーバ)を発見する。   3. Step 3 (S503): The virtualization resource management engine discovers a physical host (server) that uses the resource and tenant affinity requirements.

4.ステップ4(S504):仮想化リソース管理エンジンは、データセンター(クラウドインフラストラクチャ)512における仮想化リソース(たとえば、VM)を割り振るための、選択されたサーバ/ホストのためのハイパーバイザ又は仮想機械マネージャ向けの割振り要求を発信する。   4). Step 4 (S504): The virtualization resource management engine assigns a hypervisor or virtual machine manager for the selected server / host to allocate a virtualization resource (eg, VM) in the data center (cloud infrastructure) 512 Send an allocation request for.

いくつかの実施形態は、テナントアフィニティ情報とともに要求を発信し処理する者に基づいて、またそのような情報が処理される方法に基づいて、たとえば、
・インターフェース上の実際のリソース要求に基づいて、又は
・リソースの実際の予約にリソース要求をマッピングすることによって(注:この場合、予約は論理的であり、たとえば、vCPUの数、仮想メモリなど、つまり、物理ホストの予約ではなく割当量の点でより大きいものである)、又は
・ポリシーをセットアップし使用することによって
可能である。
Some embodiments may be based on the person issuing and processing the request with the tenant affinity information and based on how such information is processed, for example,
Based on actual resource requests on the interface or by mapping resource requests to actual reservations of resources (Note: in this case, reservations are logical, eg number of vCPUs, virtual memory, etc. That is, it is larger in terms of quota rather than physical host reservation), or by setting up and using policies.

図7〜図10は、それぞれ実施形態1〜実施形態4として以下で説明する、テナントアフィニティ情報に基づいて仮想化リソースを割り振るための方法の例示的な実施形態を実行したときの、NFVアーキテクチャフレームワークの機能ブロック間の例示的な情報フローを示している。   FIGS. 7-10 show NFV architecture frames when performing an exemplary embodiment of a method for allocating virtualization resources based on tenant affinity information, respectively described below as Embodiments 1-4. 2 shows an exemplary information flow between functional blocks of a work.

実施形態A〜実施形態Dと呼ばれる他の可能な実施形態は、仮想化配備(たとえば、VNF)をスケールアウトするなどのリソース管理動作中、又は仮想化リソースの部分的若しくは全面的移動中、又は仮想化配備の部分的若しくは全面的回復中に本発明を利用することを含む。また、テナントアフィニティパラメータは、今まで例として使用されてきた「0」及び「1」の2進値のうちの1つを保持するだけではなく、3つ以上の値を有するセットからの値も保持するように拡張され得る。これらの実施形態はすべて、以下のセクションで要約し説明する。   Other possible embodiments, referred to as Embodiments A through D, are during resource management operations such as scaling out a virtualized deployment (eg, VNF), or during partial or full movement of virtualized resources, or Including utilizing the present invention during partial or full recovery of a virtualized deployment. In addition, the tenant affinity parameter not only holds one of the binary values “0” and “1” that have been used as an example so far, but also includes values from sets having more than two values. Can be extended to hold. All these embodiments are summarized and described in the following sections.

実施形態1〜4の第1のセットは、リソース割振り要求手順中の本発明の使用を対象とする。   The first set of embodiments 1-4 is directed to the use of the present invention during a resource allocation request procedure.

実施形態1は、上記の文章を通じて例として使用されてきた主要な基本的実施形態である。ここで、リソース割振り要求は、(特定のリソース要件、及び場合によっては予約情報のような)既存のパラメータに加えて、本開示で提示されるようなテナントの識別(テナントid)及び要求された仮想化リソースごとのテナントアフィニティを含む。この場合、ステップS701のように、リソース要求はVNFMによって行われ、VIMに対して発信される。テナントアフィニティのマッピング及びリソースの選択中におけるそのような要件の処理が、VIMによって実現される。実施形態1による一連のステップ及び機能ブロック間のシグナリングは、図7に示されている。   Embodiment 1 is the main basic embodiment that has been used as an example throughout the above text. Here, the resource allocation request is requested in addition to existing parameters (such as specific resource requirements and possibly reservation information), as well as the tenant identification (tenant id) as presented in this disclosure Includes tenant affinity for each virtualized resource. In this case, as in step S701, the resource request is made by the VNFM and transmitted to the VIM. The handling of such requirements during tenant affinity mapping and resource selection is realized by VIM. The sequence of steps and signaling between functional blocks according to Embodiment 1 is shown in FIG.

実施形態2は、同じく割振り要求の一部としてのテナントアフィニティ及びテナントidのシグナリングを目的とする別の実施形態であるが、この場合には、実施形態1で概説したようにVNFMとVIMとの間で直接的に行われる代わりに、(ステップS801及びS802に示すように)NFVOを通じて間接的に行われる。テナントアフィニティ情報は依然としてVNFMによってシグナリングされる。このプロセス中、NFVOは、VNFMによるリソース要求を特定の予約にマッピングすることもできる。実施形態2による一連のステップ及び機能ブロック間のシグナリングは、図8に示されている。   The second embodiment is another embodiment which is also aimed at the tenant affinity and tenant id signaling as part of the allocation request. In this case, as outlined in the first embodiment, the VNFM and the VIM Instead of being done directly between, it is done indirectly through NFVO (as shown in steps S801 and S802). Tenant affinity information is still signaled by VNFM. During this process, the NFVO can also map resource requests by the VNFM to specific reservations. The sequence of steps and signaling between functional blocks according to Embodiment 2 is shown in FIG.

実施形態3は、すべての情報がVNFMからシグナリングされる必要があるとは限らないという点で、実施形態2とは異なる。情報の一部はむしろ、VNFMからのリソース要求からのテナントidをマッピングするNFVOによって導出される。ここでのNFVOは、テナントアフィニティ情報を導出することを可能にする内部情報を維持する。NFVOは、VNFMによるリソース要求を特定の予約にマッピングすることもできる。次いで、NFVOは、実施形態2と同様に(ステップS902のように)VIMへのリソース割振り要求のシグナリングに進むことができる。実施形態3による一連のステップ及び機能ブロック間のシグナリングは、図9に示されている。   The third embodiment differs from the second embodiment in that not all information needs to be signaled from the VNFM. Rather, some of the information is derived by the NFVO that maps the tenant id from the resource request from the VNFM. The NFVO here maintains internal information that allows tenant affinity information to be derived. NFVO can also map VNFM resource requests to specific reservations. The NFVO can then proceed to signaling a resource allocation request to the VIM as in Embodiment 2 (as in step S902). The sequence of steps and signaling between functional blocks according to Embodiment 3 is shown in FIG.

実施形態4:この場合、テナントアフィニティ情報のシグナリングは、ポリシー作成プロセスの一部である。図10に示すこの例示的な場合、NFVOは、「ポリシー作成」の発信側であり、VIMは、そのようなポリシーを維持するエンティティである。そのようなポリシー作成要求(ステップS1001)は、そのようなアフィニティ配置要件に従うべきテナントからのテナント識別子(テナントid)、テナントアフィニティパラメータ、及びVNFのクラス又はクラスのリスト([vnfクラス])に関する情報を含む。パラメータ表記は、値のうちの1つ又は値のリストが指定され得ることを示すために角括弧“[“ ”]”を使用する。VIMは、割振り決定を行うために後に使用できるそのような情報を記憶する。ポリシーが作成されると、別の第3の要素、たとえば、VNFMが、そのようなリソース割振りのためにリソース要件及びVNFのタイプ又はクラス(vnfクラス)のみを指定する必要があるリソース割振り要求(ステップS1003)を直接発信することができる。次いで、VIMは、そのような情報を、ポリシーに含まれる情報とマッピングし、それに応じてリソース割振りを決定する。   Embodiment 4: In this case, tenant affinity information signaling is part of the policy creation process. In this illustrative case shown in FIG. 10, NFVO is the “policy creation” originator and VIM is the entity that maintains such a policy. Such a policy creation request (step S1001) includes information on a tenant identifier (tenant id), a tenant affinity parameter, and a VNF class or a class list ([vnf class]) from a tenant that should follow such affinity placement requirements. including. The parameter notation uses square brackets “[“ ”]” to indicate that one of the values or a list of values can be specified. The VIM stores such information that can be used later to make allocation decisions. When a policy is created, another third element, for example, a resource allocation request (for example, VNFM needs to specify only resource requirements and VNF type or class (vnf class) for such resource allocation. Step S1003) can be transmitted directly. The VIM then maps such information with the information contained in the policy and determines resource allocation accordingly.

実施形態の第2のセットは、VNFの容量をスケーリングすること、又はVNFの仮想機械をある物理ホストから、そのようなテナントアフィニティが使用され得る別の物理ホストに部分的若しくは全面的に移動すること、又はVNFを部分的若しくは全面的に回復することのような、異なるタイプのリソース動作に関係する。したがって、これらの実施形態は、実施形態の第1のセットに直交する。第1のセットは、NFVアーキテクチャフレームワーク内の異なる機能ブロックを通じてテナントアフィニティ関連情報が渡されるのをサポートするためのシグナリング手順を実装する異なる方法について説明しており、第2のセットは、サポートされ得る仮想化リソース上の異なる動作について説明している。したがって、実施形態の両方のセットからの実施形態の特徴は結合され得る。   The second set of embodiments scales the capacity of the VNF or moves a VNF virtual machine from one physical host to another physical host where such tenant affinity can be used. Or different types of resource operations, such as partially or fully recovering VNFs. Accordingly, these embodiments are orthogonal to the first set of embodiments. The first set describes different ways to implement signaling procedures to support passing tenant affinity related information through different functional blocks within the NFV architecture framework, and the second set is supported Different operations on the virtualized resource to be obtained are described. Thus, features of embodiments from both sets of embodiments can be combined.

実施形態Aは、VNF(仮想化配備)の新しいインスタンス化プロセス中に実際の仮想化リソース割振り要求の一部としてテナントアフィニティ情報を使用する。これは、これまで本明細書において使用してきた例である。   Embodiment A uses tenant affinity information as part of the actual virtual resource allocation request during a new instantiation process of VNF (virtualized deployment). This is an example that has been used heretofore.

実施形態Bでは、VNFが、たとえば、さらなる仮想機械をこのVNFに追加することによってスケールアウトされるべきであると想定される。したがって、このスケールアウト手順も新しいリソースの割振りを必要とし、そのようなリソースの適切なインスタンス化を確実にするためにテナントアフィニティ情報が使用される。そのような場合、そのようなVNF、又は既存のものの拡張、たとえば、既存の仮想化リソース(VM)へのさらなるvCPU若しくは仮想メモリの割振りの一部として、新しい仮想化リソースが要求され得る。VNFの容量が減らされるスケールイン手順もテナントアフィニティ情報を必要とする可能性があることに留意されたい。例として、どのVMを最初に除去すべきかをVIMが決定したい場合、又はスケールイン後のリソース統合の後のVMが移動すべきである場合(以下の実施形態Cで説明する)がある。   In embodiment B, it is assumed that the VNF should be scaled out, for example, by adding additional virtual machines to this VNF. Therefore, this scale-out procedure also requires new resource allocation and tenant affinity information is used to ensure proper instantiation of such resources. In such cases, new virtualized resources may be required as part of such VNFs or extensions of existing ones, eg, allocation of additional vCPUs or virtual memory to existing virtualized resources (VMs). Note that a scale-in procedure in which the capacity of the VNF is reduced may also require tenant affinity information. Examples are when the VIM wants to determine which VM to remove first, or when the VM after resource consolidation after scale-in should move (described in embodiment C below).

実施形態Cは、移動シナリオ、つまり、VNF全体又はVNFの一部がデータセンター内又はデータセンター間で異なるサーバに移動すべきであることを想定している。これは、データセンターにおいて一般に使用される標準的な仮想機械移動技術により実現可能である。ここで、テナントアフィニティ情報は、どのサーバにVNFのVMを移動できるか又はできないかを判断するために使用される。   Embodiment C assumes a migration scenario, i.e., the entire VNF or part of the VNF should move to different servers within or between data centers. This can be achieved by standard virtual machine movement techniques commonly used in data centers. Here, the tenant affinity information is used to determine to which server the VM of the VNF can or cannot be moved.

実施形態Dは、VNF全体又はVNFの一部に関する、VNFの仮想化リソース回復(障害回復)を対象とする。ここでの例は、新しいサーバに再配備される必要があるVNFのいくつかのVMの障害である。この場合にはまた、テナントアフィニティ情報は、そのような再配備に適した候補サーバを判断するために使用される。   Embodiment D is directed to VNF virtualization resource recovery (failure recovery) for the entire VNF or part of the VNF. An example here is the failure of several VMs in VNF that need to be redeployed to a new server. Also in this case, tenant affinity information is used to determine candidate servers suitable for such redeployment.

最後に、実施形態I〜IIIの第3のセットでは、テナントアフィニティパラメータの可能な値は、可変的である。値は、今まで説明したように2進数であるか、又は既定の値セットからの異なる値を取る。   Finally, in the third set of embodiments I-III, the possible values of the tenant affinity parameter are variable. The value is binary as described so far, or takes a different value from a predefined set of values.

実施形態Iでは、テナントアフィニティパラメータは、仮想化リソースが他のテナントからの仮想化リソースとコロケートできるかどうかを決定する2進値である。パラメータが「0」に等しい場合、仮想化リソースは、他のテナントからの他の仮想化リソースと、データセンターにおける共有物理及びソフトウェアリソース上にコロケートでき、このパラメータが「1」に等しい場合、仮想化リソースは、他のテナントからの仮想化リソースとコロケートできない。これは、上記の文章で説明してきた実施形態である。   In embodiment I, the tenant affinity parameter is a binary value that determines whether the virtualized resource can be collocated with virtualized resources from other tenants. If the parameter is equal to “0”, the virtualized resource can be collocated on the shared physical and software resources in the data center with other virtualized resources from other tenants, and if this parameter is equal to “1” Virtualized resources cannot be co-located with virtualized resources from other tenants. This is the embodiment described in the above text.

実施形態IIでは、テナントアフィニティパラメータは、値セットからの値を取ることができ、異なる値が、テナント(ベンダー)の一部又は全部に対するアフィニティ又はアンチアフィニティへの情報を示す。たとえば、
・テナントアフィニティ=A:グループAの任意のテナント(ベンダー)に対するアフィニティ。
・テナントアフィニティ=B:テナントid=Xとは異なる任意のテナント(ベンダー)に対するアフィニティ。
・テナントアフィニティ=C:テナントid=Yに対してではなくテナントid=Zに対するアフィニティ。
・その他。
In embodiment II, the tenant affinity parameter can take a value from a value set, with different values indicating information on affinity or anti-affinity for some or all of the tenants (vendors). For example,
Tenant affinity = A: affinity for an arbitrary tenant (vendor) in group A.
Tenant affinity = B: affinity for any tenant (vendor) different from tenant id = X.
Tenant affinity = C: affinity for tenant id = Z rather than for tenant id = Y.
・ Others.

実施形態IIIでは、テナントアフィニティパラメータは、3つ以上の値を有する値セットからの値を取ることができ、異なる値が、いくつかの能力を有するコロケートされた仮想化リソースに対するアフィニティ又はアンチアフィニティへの情報を示す。たとえば、
・テナントアフィニティ=M:他のテナントからの計算負荷が大きいVMに対するアンチアフィニティ。
・テナントアフィニティ=N:他のテナントからの入出力データの多いVMに対するアンチアフィニティ。
・その他。
In embodiment III, the tenant affinity parameter can take a value from a value set with more than two values, with different values to affinity or anti-affinity for a collocated virtualized resource with several capabilities. Information. For example,
Tenant affinity = M: Anti-affinity for VMs that have a heavy calculation load from other tenants.
Tenant affinity = N: Anti-affinity for VMs with a lot of input / output data from other tenants.
・ Others.

本発明の実施形態に関して説明した方法、要素、ユニット及び装置は、ハードウェアにおいて、ソフトウェアにおいて、又はその両方の組合せとして実装され得ることが、当業者には直ちに明らかになろう。特に、本発明の実施形態及び本発明の実施形態に関して説明したモジュールの要素が、コンピュータ上で実行されているか、又はマイクロプロセッサによって実行されている1つ又は複数のコンピュータプログラムによって実装され得ることが理解されよう。本発明を実装する任意の装置は、特に、ネットワークエンティティとして動作するコンピューティングデバイスの形態をとることができる。   It will be readily apparent to those skilled in the art that the methods, elements, units, and devices described with respect to the embodiments of the invention may be implemented in hardware, software, or a combination of both. In particular, the embodiments of the invention and the elements of the modules described with respect to the embodiments of the invention may be implemented by one or more computer programs being executed on a computer or executed by a microprocessor. It will be understood. Any apparatus that implements the present invention may particularly take the form of a computing device operating as a network entity.

Claims (14)

仮想化リソース管理エンジン(511)によって、複数の物理及び/又はソフトウェアリソース(105)のうち、ある物理及び/又はソフトウェアリソースに、少なくとも1つの仮想リソースを割り振る方法であって、
前記仮想化リソース管理エンジンが、前記少なくとも1つの仮想リソースを要求している第1のテナントを識別するために使用される識別情報を取得するステップと、
前記要求された仮想リソースが、取得された前記識別情報により識別される前記第1のテナントとは異なる別のテナントの1つ又は複数の仮想リソースと同じ物理及び/又はソフトウェアリソース上にコロケートされ得るかどうかを指定する、リソース割振り要求のパラメータとしてのアフィニティ情報を、前記仮想化リソース管理エンジンが取得するステップと、
前記仮想化リソース管理エンジンが、取得された前記アフィニティ情報に基づいて前記少なくとも1つの仮想リソースを割り振るステップと、
を含む方法。
A method of allocating at least one virtual resource to a certain physical and / or software resource among a plurality of physical and / or software resources (105) by a virtual resource management engine (511),
The virtualization resource management engine obtaining identification information used to identify a first tenant requesting the at least one virtual resource;
The requested virtual resource may be collocated on the same physical and / or software resources as one or more virtual resources of another tenant different from the first tenant identified by the acquired identification information The virtual resource management engine obtains affinity information as a parameter of a resource allocation request that specifies whether or not;
The virtual resource management engine allocates the at least one virtual resource based on the acquired affinity information;
Including methods.
前記複数の物理及びソフトウェアリソースへの仮想リソースの現在の割振りに関係する情報を取得するためのステップ、
を含む、請求項1に記載の方法。
Obtaining information related to a current allocation of virtual resources to the plurality of physical and software resources;
The method of claim 1 comprising:
前記仮想化リソース管理エンジンが、データセンター又はクラウドインフラストラクチャ(512)における仮想、物理及びソフトウェアリソースの仮想化インフラストラクチャ管理を担当するエンティティ(104)の一部である、請求項1又は2に記載の方法。   The virtual resource management engine is part of an entity (104) responsible for virtual infrastructure management of virtual, physical and software resources in a data center or cloud infrastructure (512). the method of. 前記第1のテナントを識別するために使用される識別情報及び前記アフィニティ情報のシグナリングエンティティが、仮想ネットワーク機能の管理を担当するエンティティ(103)である、請求項1〜3のいずれか一項に記載の方法。 The identification information used to identify the first tenant and the signaling entity of the affinity information are entities (103) responsible for managing virtual network functions according to any one of claims 1-3. The method described. シグナリングが、リソース及び仮想ネットワーク機能の編成を担当するエンティティ(102)を通じて転送される、請求項1〜4のいずれか一項に記載の方法。   The method according to any of the preceding claims, wherein the signaling is transferred through an entity (102) responsible for organizing resources and virtual network functions. 前記第1のテナントを識別するために受信された識別情報に基づいて前記アフィニティ情報を発見するための中間ステップ、
を含む、請求項1〜5のいずれか一項に記載の方法。
An intermediate step for discovering the affinity information based on the identification information received to identify the first tenant;
The method according to claim 1, comprising:
前記第1のテナントを識別するために使用される識別情報のシグナリングエンティティが、仮想ネットワーク機能の管理を担当するエンティティであり、
前記第1のテナントを識別するために使用される識別情報に基づく前記アフィニティ情報の発見が、リソース及び仮想ネットワーク機能の編成を担当するエンティティによって実行され、
前記第1のテナントを識別するために使用される識別情報及び前記アフィニティ情報のシグナリングが、リソース及び仮想ネットワーク機能の編成を担当するエンティティによって実行される、請求項6に記載の方法。
The identity signaling entity used to identify the first tenant is an entity responsible for managing virtual network functions;
The discovery of the affinity information based on identification information used to identify the first tenant is performed by an entity responsible for organizing resources and virtual network functions;
The method of claim 6, wherein the identification information used to identify the first tenant and the signaling of the affinity information is performed by an entity responsible for organizing resources and virtual network functions.
前記アフィニティ情報が、ポリシーの一部であり、前記アフィニティ情報が、前記ポリシーのセットアッププロセスの一部としてシグナリングされる、請求項1〜7のいずれか一項に記載の方法。   The method according to claim 1, wherein the affinity information is part of a policy, and the affinity information is signaled as part of the policy setup process. 前記複数の物理及び/又はソフトウェアリソースのうち、ある物理及び/又はソフトウェアリソースに、前記少なくとも1つの仮想リソースを割り振るプロセスが、管理動作の一部であり、
前記管理動作は、
仮想化配備の第1のインスタンス化、又は、
既存の仮想化配備の仮想化リソースの全面的若しくは部分的なスケールアウト、移動、若しくは、回復、
を含む、請求項1〜8のいずれか一項に記載の方法。
A process of allocating the at least one virtual resource to a certain physical and / or software resource among the plurality of physical and / or software resources is part of a management operation;
The management operation is as follows:
A first instantiation of a virtualized deployment, or
Full or partial scale-out, migration, or recovery of virtualization resources in an existing virtualization deployment,
The method according to claim 1, comprising:
前記少なくとも1つの仮想リソースが、
ハイパーバイザ上で実行される仮想機械、
オペレーティングシステム上で実行される仮想アプリケーションコンテナ、又は、
記憶用の仮想ディスクドライブである、
請求項1〜9のいずれか一項に記載の方法。
The at least one virtual resource is
A virtual machine running on the hypervisor,
A virtual application container running on the operating system, or
A virtual disk drive for storage,
The method according to any one of claims 1 to 9.
仮想リソースの割振りが仮想化配備のために行われ、前記仮想化配備が仮想ネットワーク機能である、請求項1〜10のいずれか一項に記載の方法。   The method according to any one of claims 1 to 10, wherein the allocation of virtual resources is performed for virtualized deployment, and the virtualized deployment is a virtual network function. 前記アフィニティ情報が、異なる割振りケースを対象とする複数の値を取ることができ、前記割振りケースは、特定のテナントに対するアンチアフィニティ、特定のテナントに対するアフィニティ、計算、記憶若しくはネットワークの負荷が大きい仮想リソースに対するアフィニティ、
のうちの1つ又は複数を含む、
請求項1〜11のいずれか一項に記載の方法。
The affinity information can take a plurality of values for different allocation cases, and the allocation case is a virtual resource with a large load on the anti-affinity for a specific tenant, affinity for a specific tenant, calculation, storage or network Affinity for,
Including one or more of
The method according to claim 1.
仮想化リソース管理エンジン(511)によって、複数の物理及び/又はソフトウェアリソース(105)のうち、ある物理及び/又はソフトウェアリソースに、少なくとも1つの仮想リソースを割り振るための装置であって、
前記少なくとも1つの仮想リソースを要求している第1のテナントを識別するために使用される識別情報を取得するためのモジュールと、
前記要求された仮想リソースが、取得された前記識別情報により識別される前記第1のテナントとは異なる別のテナントの1つ又は複数の仮想リソースと同じ物理及び/又はソフトウェアリソース上にコロケートされ得るかどうかを指定する、リソース割振り要求のパラメータとしてのアフィニティ情報を取得するためのモジュールと、
取得された前記アフィニティ情報に基づいて前記少なくとも1つの仮想リソースを割り振るように設計されたモジュールと、
を備える装置。
An apparatus for allocating at least one virtual resource to a certain physical and / or software resource among a plurality of physical and / or software resources (105) by a virtual resource management engine (511),
A module for obtaining identification information used to identify a first tenant requesting the at least one virtual resource;
The requested virtual resource may be collocated on the same physical and / or software resources as one or more virtual resources of another tenant different from the first tenant identified by the acquired identification information A module for acquiring affinity information as a parameter for resource allocation request,
A module designed to allocate the at least one virtual resource based on the acquired affinity information;
A device comprising:
コンピュータに、請求項1〜12のいずれか一項に記載の方法を実行させるためのコンピュータプログラム。 The computer program for making a computer perform the method as described in any one of Claims 1-12.
JP2017529726A 2014-12-29 2015-12-29 Resource management in cloud systems Active JP6435050B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14200452.2 2014-12-29
EP14200452.2A EP3040860A1 (en) 2014-12-29 2014-12-29 Resource management in cloud systems
PCT/EP2015/081333 WO2016107862A1 (en) 2014-12-29 2015-12-29 Resource management in cloud systems

Publications (2)

Publication Number Publication Date
JP2018503897A JP2018503897A (en) 2018-02-08
JP6435050B2 true JP6435050B2 (en) 2018-12-05

Family

ID=52272943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017529726A Active JP6435050B2 (en) 2014-12-29 2015-12-29 Resource management in cloud systems

Country Status (5)

Country Link
US (1) US20170371717A1 (en)
EP (1) EP3040860A1 (en)
JP (1) JP6435050B2 (en)
CN (1) CN107113192A (en)
WO (1) WO2016107862A1 (en)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10938900B1 (en) * 2015-12-18 2021-03-02 EMC IP Holding Company LLC Software defined storage defragmentation
US10642896B2 (en) 2016-02-05 2020-05-05 Sas Institute Inc. Handling of data sets during execution of task routines of multiple languages
US10795935B2 (en) 2016-02-05 2020-10-06 Sas Institute Inc. Automated generation of job flow definitions
US10650046B2 (en) 2016-02-05 2020-05-12 Sas Institute Inc. Many task computing with distributed file system
US10650045B2 (en) 2016-02-05 2020-05-12 Sas Institute Inc. Staged training of neural networks for improved time series prediction performance
JP6680901B2 (en) * 2016-04-08 2020-04-15 華為技術有限公司Huawei Technologies Co.,Ltd. Management method and device
US10243878B2 (en) * 2016-06-16 2019-03-26 Cisco Technology, Inc. Fog computing network resource partitioning
US11042417B2 (en) 2016-08-10 2021-06-22 Nec Corporation Method for managing computational resources of a data center using a single performance metric for management decisions
CN106648462B (en) * 2016-11-21 2019-10-25 华为技术有限公司 Date storage method and device
CN108123924B (en) * 2016-11-30 2021-02-12 中兴通讯股份有限公司 Resource management method and system
CN108234536A (en) * 2016-12-14 2018-06-29 中国电信股份有限公司 Virtual resource allocation method and cloud pipe platform
USD898059S1 (en) 2017-02-06 2020-10-06 Sas Institute Inc. Display screen or portion thereof with graphical user interface
US10200463B2 (en) * 2017-05-22 2019-02-05 At&T Intellectual Property I, L.P. Systems and methods to improve the performance of a network by more efficient virtual network resource allocation
US10728132B2 (en) * 2017-06-01 2020-07-28 Hewlett Packard Enterprise Development Lp Network affinity index increase
USD898060S1 (en) 2017-06-05 2020-10-06 Sas Institute Inc. Display screen or portion thereof with graphical user interface
US10768963B2 (en) * 2017-07-31 2020-09-08 Hewlett Packard Enterprise Development Lp Virtual network functions allocation in a datacenter based on extinction factor
CN107766001B (en) * 2017-10-18 2021-05-25 成都索贝数码科技股份有限公司 Storage quota method based on user group
CN110098946B (en) * 2018-01-31 2021-09-03 华为技术有限公司 Method and device for deploying virtualized network element equipment
US11048538B2 (en) * 2018-02-26 2021-06-29 Amazon Technologies, Inc. Autonomous cell-based control plane for scalable virtualized computing
US11297622B1 (en) 2018-06-25 2022-04-05 At&T Intellectual Property I, L.P. Dynamic hierarchical reserved resource allocation
US11327780B2 (en) * 2018-09-18 2022-05-10 Vmware, Inc. Network-efficient isolation environment redistribution
US10958730B2 (en) * 2018-09-28 2021-03-23 Hewlett Packard Enterprise Development Lp Mapping virtual network functions
CN109460298A (en) * 2018-11-01 2019-03-12 云宏信息科技股份有限公司 A kind of data processing method and device
CN111355602B (en) * 2018-12-21 2021-11-30 华为技术有限公司 Resource object management method and device
CN109783196B (en) * 2019-01-17 2021-03-12 新华三信息安全技术有限公司 Virtual machine migration method and device
US11431572B2 (en) 2019-03-14 2022-08-30 Telefonaktiebolaget Lm Ericsson (Publ) Semantic detection and resolution of conflicts and redundancies in network function virtualization policies
US11057306B2 (en) * 2019-03-14 2021-07-06 Intel Corporation Traffic overload protection of virtual network functions
US11507408B1 (en) * 2020-01-21 2022-11-22 Amazon Technologies, Inc. Locked virtual machines for high availability workloads
JP2021149808A (en) 2020-03-23 2021-09-27 富士通株式会社 CPU status display method and CPU status display program
US11611517B2 (en) * 2020-05-29 2023-03-21 Equinix, Inc. Tenant-driven dynamic resource allocation for virtual network functions
CN113918268A (en) * 2020-07-07 2022-01-11 华为技术有限公司 Multi-tenant management method and device
US11627472B2 (en) 2020-12-10 2023-04-11 Amazon Technologies, Inc. Automated deployment of radio-based networks
US11886315B2 (en) * 2020-12-10 2024-01-30 Amazon Technologies, Inc. Managing computing capacity in radio-based networks
US11601348B2 (en) 2020-12-10 2023-03-07 Amazon Technologies, Inc. Managing radio-based private networks
US11729091B2 (en) 2020-12-10 2023-08-15 Amazon Technologies, Inc. Highly available data-processing network functions for radio-based networks
US11711727B1 (en) 2021-03-16 2023-07-25 Amazon Technologies, Inc. Provisioning radio-based networks on demand
US11895508B1 (en) 2021-03-18 2024-02-06 Amazon Technologies, Inc. Demand-based allocation of ephemeral radio-based network resources
US11838273B2 (en) 2021-03-29 2023-12-05 Amazon Technologies, Inc. Extending cloud-based virtual private networks to radio-based networks
CN115967712A (en) * 2021-05-12 2023-04-14 华为云计算技术有限公司 Cloud service deployment method of cloud platform and related equipment thereof
US11743953B2 (en) 2021-05-26 2023-08-29 Amazon Technologies, Inc. Distributed user plane functions for radio-based networks
KR102613365B1 (en) * 2021-12-09 2023-12-13 국민대학교산학협력단 Apparatus and method for determining ai-based cloud service server
WO2023191830A1 (en) * 2022-04-01 2023-10-05 Altiostar Networks, Inc. Scaling subscriber handling capacity and throughput in a cloud native radio access network

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205209A (en) * 2009-03-06 2010-09-16 Hitachi Ltd Management computer, computer system, and physical resource allocating method
US9712402B2 (en) * 2012-10-10 2017-07-18 Alcatel Lucent Method and apparatus for automated deployment of geographically distributed applications within a cloud
US9621425B2 (en) * 2013-03-27 2017-04-11 Telefonaktiebolaget L M Ericsson Method and system to allocate bandwidth for heterogeneous bandwidth request in cloud computing networks
CN203219314U (en) * 2013-04-15 2013-09-25 四川省电力公司信息通信公司 Cloud data center resource pool management control system
CN103412792B (en) * 2013-07-18 2015-06-10 成都国科海博信息技术股份有限公司 Dynamic task scheduling method and device under cloud computing platform environment
CN103593229B (en) * 2013-11-26 2016-06-15 西安工程大学 Integrated and United Dispatching framework and the dispatching method of isomery cloud operating system
CN104142864A (en) * 2014-08-07 2014-11-12 浪潮电子信息产业股份有限公司 Multi-tenant performance isolation framework based on virtualization technology

Also Published As

Publication number Publication date
CN107113192A (en) 2017-08-29
WO2016107862A1 (en) 2016-07-07
US20170371717A1 (en) 2017-12-28
JP2018503897A (en) 2018-02-08
EP3040860A1 (en) 2016-07-06

Similar Documents

Publication Publication Date Title
JP6435050B2 (en) Resource management in cloud systems
US8863138B2 (en) Application service performance in cloud computing
EP3469478B1 (en) Server computer management system for supporting highly available virtual desktops of multiple different tenants
US9183016B2 (en) Adaptive task scheduling of Hadoop in a virtualized environment
CN110741352B (en) Virtual network function management system, virtual network function management method and computer readable storage device
US11650856B2 (en) Federated operator for edge computing network
US9329906B2 (en) Virtual machine mobility using resource pools
US11710206B2 (en) Session coordination for auto-scaled virtualized graphics processing
JP2016133964A (en) Computation resource allocation method and system
JP2016170669A (en) Load distribution function deployment method, load distribution function deployment device, and load distribution function deployment program
US20150372935A1 (en) System and method for migration of active resources
CN113939803B (en) Managing computing resource placement as a service for a dedicated host
US20220035626A1 (en) Cloud-independent node upgrade
US20200394071A1 (en) Systems and methods for cluster resource balancing in a hyper-converged infrastructure
US11726816B2 (en) Scheduling workloads on a common set of resources by multiple schedulers operating independently
US20200241910A1 (en) Methods and apparatus for rack nesting in virtualized server systems
US11650848B2 (en) Allocating resources for network function virtualization
JP6207463B2 (en) Abstraction method and resource management method of server performance in IT system
US10025626B2 (en) Routing job submissions between disparate compute environments
US10552195B2 (en) Migration of virtual infrastructures
Aluvalu et al. Performance evaluation of clustering algorithms for dynamic VM allocation in cloud computing
KR20140102989A (en) Registration system and method for virtual desktop service of client that has multiple user accounts
US20230224205A1 (en) Hardware resource management for management appliances running on a shared cluster of hosts
KR20120072059A (en) System and method for controlling resource in virtualized network
US20210124605A1 (en) Method and apparatus for workload volatility management in cloud computing

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181109

R150 Certificate of patent or registration of utility model

Ref document number: 6435050

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250