WO2023053381A1 - 管理システム、管理装置、及び管理方法 - Google Patents

管理システム、管理装置、及び管理方法 Download PDF

Info

Publication number
WO2023053381A1
WO2023053381A1 PCT/JP2021/036232 JP2021036232W WO2023053381A1 WO 2023053381 A1 WO2023053381 A1 WO 2023053381A1 JP 2021036232 W JP2021036232 W JP 2021036232W WO 2023053381 A1 WO2023053381 A1 WO 2023053381A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual node
data
data center
data centers
deploying
Prior art date
Application number
PCT/JP2021/036232
Other languages
English (en)
French (fr)
Inventor
翔平 馬場
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/036232 priority Critical patent/WO2023053381A1/ja
Priority to JP2023550940A priority patent/JPWO2023053381A1/ja
Publication of WO2023053381A1 publication Critical patent/WO2023053381A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/40Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities

Definitions

  • the present disclosure relates to a management system, management device, and management method.
  • Patent Document 1 describes the configuration of a resource allocation system that maps a virtual network to a physical infrastructure so as to meet the reliability expectations for services and achieve optimal utilization of reliable resources. disclosed.
  • the resource allocation system disclosed in Patent Document 1 performs virtual network mapping according to a specific management policy for all hardware that constitutes the physical infrastructure. As such, when the physical infrastructure is divided into multiple administrative domains, the resource allocation system may not be able to map virtual networks across domains.
  • An object of the present disclosure is to provide a management system, a management device, and a management method capable of mapping a virtual network across domains in view of the above-described problems.
  • a management system includes first management means for managing a plurality of first data centers included in a first area; second management means for managing a plurality of second data centers included in the area; and based on communication performance information between the first data center and the second data center, a data center candidate for deploying the first virtual node and a data center candidate for deploying the second virtual node from among the plurality of second data centers; the first management means identifies the first data center where the first virtual node is to be deployed based on the candidate for deploying the first virtual node; 2 management means identifies the second data center where the second virtual node is to be deployed, based on the candidate for deploying the second virtual node.
  • a management device includes a plurality of first data centers included in a first area and a plurality of second data included in a second area in a range different from the first area. At least one of the first data centers that is a candidate for deploying the first virtual node from among the plurality of first data centers based on communication performance information between the centers; a selection unit that selects at least one of the second data centers that is a candidate for deploying the second virtual node from among the two data centers; to a second management means for managing a plurality of said second data centers; a communication unit that transmits information about at least one of the second data centers that are candidates for deploying the second virtual node.
  • a management method includes a plurality of first data centers included in a first area and a plurality of the second data centers included in a second area in a range different from the first area. at least one said first data center that is a candidate for deploying a first virtual node from said plurality of said first data centers based on communication performance information between said data centers; selecting at least one second data center as a candidate for deploying the second virtual node from among the plurality of second data centers, and selecting the second data center as a candidate based on the communication performance information; identifying the first data center in which the first virtual node is deployed from among the at least one first data center, and selecting at least one of the second data centers as candidates based on the communication performance information; from among the data centers, the second data center where the second virtual node is deployed is specified.
  • FIG. 1 is a configuration diagram of a management system according to Embodiment 1;
  • FIG. 1 is a configuration diagram of a management device according to Embodiment 1;
  • FIG. 1 is a configuration diagram of a management device according to Embodiment 1;
  • FIG. 7 is a diagram showing the flow of processing for identifying a data center where virtual nodes are deployed in the management system according to the first embodiment;
  • 1 is a configuration diagram of a management system according to a second embodiment;
  • FIG. 1 is a configuration diagram of a virtualization management system according to a second embodiment;
  • FIG. 11 is a configuration diagram of an Edge Orchestrator according to a second embodiment;
  • FIG. 2 is a configuration diagram of an E2E Orchestrator according to a second embodiment;
  • FIG. 10 is a diagram illustrating collection of performance information according to the second embodiment;
  • FIG. FIG. 10 is a diagram showing the flow of management processing of performance information according to the second embodiment;
  • FIG. 11 is a diagram showing the flow of environmental status management processing according to the second embodiment;
  • FIG. 10 is a diagram showing a flow of extraction processing of data center pairs that are candidates for deploying virtual nodes according to the second embodiment;
  • FIG. 10 is a diagram showing the flow of processing for determining a data center where virtual nodes are deployed according to the second embodiment;
  • 4 is a configuration diagram of an Orchestrator according to each embodiment;
  • the management system of FIG. 1 has management means 11 that manages a plurality of data centers (DC: Data Centers) 12 included in an area 10 . Furthermore, the management system of FIG. 1 has management means 21 that manages a plurality of data centers 22 included in area 20 . Furthermore, the management system of FIG. 1 has management means 110 . Management means 110 communicates with management means 11 and management means 21 . Area 20 manages a data center 22 included in an area of a different range than area 10 .
  • DC Data Centers
  • area 10 and area 20 may each be a city-based area or a prefecture-based area, where area 10 is a city-based area and area 20 is a prefecture-based area including a plurality of cities. may be That is, area 10 and area 20 may not include an overlapping area, part of area 10 may overlap area 20 , or all of area 10 may be included in area 20 .
  • An area may also be referred to as a domain or cloud.
  • FIG. 1 shows that the management means 11 exists within the area 10
  • the management means 11 is arranged outside the area 10 and manages the plurality of data centers 12 existing within the area 10 .
  • the management means 21 may similarly be arranged outside the area 20 and manage a plurality of data centers 22 existing within the area 20 .
  • the management means 11, management means 21, and management means 110 may be computer devices in which processing is executed by a processor executing a program stored in memory.
  • the management means 11 may be a single computer device or a single server device.
  • the management unit 11 may be a computer device group in which a plurality of computer devices operate in cooperation or a server device group in which a plurality of server devices operate in cooperation.
  • the management means 110 and management means 21 may also have the same configuration as the management means 11 .
  • the management means 11 is a software resource included in a management system or management server that manages the entire network, and is a software resource allocated to manage a plurality of data centers 12 existing within the area 10. good too.
  • the management means 21 is a software resource included in a management system or management server that manages the entire network, and may be a software resource allocated to manage a plurality of data centers 22 existing within the area 20.
  • the management means 110 may be a software resource included in a management system or management server that manages the entire network.
  • the data center 12 and the data center 22 may be computer devices in which processing is executed by a processor executing a program stored in memory. Data center 12 and data center 22 may be loaded with software to perform various functions. Each of the data center 12 and the data center 22 may be a single computer device, or may be a computer device group in which a plurality of computer devices operate in cooperation. Each of the data center 12 and the data center 22 may be a single server device, or may be a group of server devices.
  • the management means 110 may manage performance information regarding data centers.
  • Performance information may be referred to as communication performance information.
  • the performance information is, for example, the transmission rate or communication band of data transmitted between data centers in the same area, or the transmission rate or communication band of data transmitted between the data centers 12 and 22. There may be.
  • the performance information may also be the time required for data to reach the other data center 12 or data center 22 from one data center 12, data fluctuations, and the like. The time it takes for data to arrive from one data center 12 to the other data center 12 or data center 22 may be referred to as transmission time or delay time.
  • the performance information may also be statistical information, such as an average, of the time required for a plurality of data to arrive from one data center 12 to the other data center 12 or data center 22 .
  • the management means 110 may collect performance information from the management means 11 and the management means 21 and further analyze it. Also, the management means 110 may send a message instructing the management means 11 and the data center 12 to transmit measurement data and measure performance information, for example. So far, an example in which the data center 12 is the data transmission source has been described, but the same applies when the data center 22 is the data transmission source.
  • the management means 110 selects at least one data center 12 as a candidate for deploying a virtual node based on performance information between data centers belonging to different areas, that is, between the data centers 12 and 22 . Further, the management means 110 selects at least one data center 22 as a candidate for deploying the virtual node based on the performance information regarding the data centers 12 and 22 . The management means 110 notifies the management means 11 of information on the data center 12 selected as a candidate for deploying the virtual node, and notifies the data center 12 of information on the data center 22 selected as a candidate for deploying the virtual node. .
  • management means 110 may specify the area in which the virtual node is deployed, for example area 10 or area 20, according to the function of the deployed virtual node. Furthermore, the management means 110 may specify the area in which the virtual node is to be deployed according to the functions and service requirements of the virtual node to be deployed. Service requirements may be defined, for example, transmission time or delay time.
  • the management means 11 may, for example, manage the environmental conditions of multiple data centers 12 .
  • the environmental conditions may be, for example, the failure frequency of each data center 12 or the power consumption of each data center 12 .
  • the management means 11 may collect at least one of failure frequency and power consumption from each data center 12 and may further analyze it.
  • the management means 11 may manage what virtual nodes are currently assigned in each data center 12 in order to specify the data center 12 to which virtual nodes are assigned. Allocating may be translated as deploying. In addition, the management means 11 may manage free areas of software resources in each data center 12 .
  • a virtual node may be, for example, a virtualized network function.
  • a virtual node may include all the functions that a certain physical node has, or may include a part of all the functions that a certain physical node has.
  • the management means 21 may also manage information necessary for allocating the environmental conditions and virtual nodes to the data centers 22 regarding the plurality of data centers 22 .
  • the management means 11 selects a data center 12 to deploy a virtual node from at least one data center 12 selected as a candidate based on performance information between each data center 12 and each data center 22. Identify. Identifying may be translated as determining.
  • the management means 21 also selects at least one data center 22 selected as a candidate based on the performance information between each data center 12 and each data center 22, the data center where the virtual node is deployed. 22 are identified.
  • the data center 12 candidates and data center 22 candidates selected based on the performance information may be, for example, the data centers 12 and 22 whose performance information satisfies predetermined requirements.
  • the data center 12 and the data center 22 whose performance information satisfies the predetermined requirement may be, for example, the data center 12 and the data center 22 that realize a transmission time shorter than the predetermined time.
  • the management means 11 and the data center 12 transmit the generated performance information to the management means 110 .
  • the management means 110 transmits measurement data to the data center 12 or the data center 22 via the management means 11 and 21. may be generated by specifying Alternatively, the performance information between each data center 12 and each data center 22 is generated by each data center periodically transmitting measurement data without being instructed by the management means 110. may
  • the management means 110 selects at least one pair of data centers 12 and 22 for which the transmission time of measurement data is shorter than a predetermined time. You may select one data center pair.
  • the management unit 11 may specify one data center from among the data centers included in the selected pair and deploy the virtual node to the specified data center 12 .
  • the management means 21 may specify the data center where the virtual node is to be deployed from the notified pair of data centers 22 .
  • the management device 15 includes a DC management unit 16 and an identification unit 17 .
  • the DC management unit 16 manages multiple data centers 12 .
  • the DC management unit 16 manages information necessary for allocating environmental conditions and virtual nodes to the data centers 12 regarding the plurality of data centers 12 .
  • the specifying unit 17 selects a data center 12 to deploy a virtual node from at least one data center 12 selected as a candidate based on performance information between each data center 12 and each data center 22. Identify.
  • the management means 21 is also configured by a device similar to the management device 15 .
  • the management device 150 has a selection section 160 and a communication section 170 .
  • the selection unit 160 selects at least one data center as a candidate for deploying a virtual node for each of the areas 10 and 20 based on performance information between data centers.
  • the communication unit 170 transmits information about at least one data center 12 that is a candidate for deploying a virtual node to the management means 11, and transmits information about at least one data center 22 that is a candidate for deploying a virtual node to the management means 21. Send.
  • the management unit 110 selects data centers that are candidates for deploying virtual nodes based on performance information (S1). Specifically, the management means 110 selects at least one or more data centers 12 as candidates for deploying virtual nodes from among the plurality of data centers 12 included in the area 10 . Furthermore, the management means 110 selects at least one or more data centers 22 as candidates for deploying virtual nodes from among the plurality of data centers 22 included in the area 20 .
  • management means 110 notifies management means 11 of data centers 12 that are candidates for deploying virtual nodes (S2).
  • management means 110 notifies management means 21 of data centers 22 that are candidates for deploying virtual nodes (S3).
  • the management means 110 may execute steps S2 and S3 at substantially the same timing, or may execute step S2 after step S3.
  • the management means 11 identifies the data center 12 where the virtual node is to be deployed from among at least one data center 12 which is a candidate for deploying the virtual node (S4). Similarly to the management means 11, the management means 21 also identifies the data center 22 to deploy the virtual node from at least one data center 22 that is a candidate for deploying the virtual node (S5).
  • Management means 11 deploys virtual nodes to data center 12 in area 10
  • management means 21 deploys virtual nodes to data center 22 in area 20 .
  • a management unit that manages each area can deploy virtual nodes to a plurality of data centers belonging to different areas, so virtual nodes can be deployed across areas.
  • the management system of FIG. 5 has Edge Cloud 30, Edge Cloud 31, Regional Cloud 40, Regional Cloud 41, Core Cloud 50, and Cell sites 60-62.
  • Edge Cloud 30, Edge Cloud 31, Regional Cloud 40, Regional Cloud 41, and Core Cloud 50 correspond to Area 10 and Area 20 in FIG.
  • FIG. 5 an example in which the areas 10 and 20 of FIG. 1 have a hierarchical structure will be described.
  • Cell sites 60 to 62 may be communication areas managed by base stations used for mobile communication, for example.
  • a base station may be called eNB (evolved Node B) or gNB, for example.
  • a base station may also be called an NR, an NR entity, or the like.
  • the numbers of Edge Clouds, Regional Clouds, Core Clouds, and Cell sites are not limited to the numbers shown in FIG.
  • the Edge Clouds 30 and 31 relay data transmitted between Cell sites.
  • Edge Cloud 30 transmits data received from Cell site 60 to Cell site 61 or Cell site 62 .
  • the Edge Cloud 30 transmits the data received from the Cell site 60 to the Regional Cloud 40 in order to relay it to the Cell site under the Edge Cloud 31 .
  • Edge Cloud 30 and Edge Cloud 31 may be provided for each specific region, for example.
  • the Edge Clouds 30 and 41 accommodate devices (for example, DU (RAN Distributed Unit) or CU (RAN Control/Centralized Unit)) connected to a large number of Cell Sites (base station radio equipment (RU: Remote Radio Unit)).
  • DU Radio Distributed Unit
  • CU Radio Equipment
  • Regional Clouds 40 and 41 relay data transmitted between Edge Cloud 30, Edge Cloud 31, and other Edge Clouds.
  • Core Cloud 50 relays data transmitted between Regional Cloud 40, Regional Cloud 41, and other Regional Clouds.
  • Regional Clouds 40 and 41 are the next connecting sites of Edge Cloud.
  • CUs that are relative to DUs deployed in the Edge Cloud will be deployed in the Regional Cloud.
  • Core Cloud 50 is the next connecting site for Regional Cloud.
  • Core Cloud generally accommodates core network applications such as 5GC (5th Generation Core) and EPC (Evolved Packet Core).
  • 5GC Fifth Generation Core
  • EPC Evolution Packet Core
  • the Regional Cloud 40 is an upper cloud of the Edge Cloud 30 and the Edge Cloud 31, and the Core Cloud 50 may be called an upper cloud of the Regional Cloud 40 and the Regional Cloud 41.
  • An upper cloud may be referred to as an upper domain.
  • Regional Cloud 40 and Regional Cloud 41 are lower clouds of Core Cloud 50
  • Edge Cloud 30 and Edge Cloud 31 may be referred to as lower clouds of Regional Cloud 40 and Regional Cloud 41.
  • a subordinate cloud may be referred to as a subordinate domain.
  • Edge Cloud 30, Edge Cloud 31, Regional Cloud 40, and Regional Cloud 41 transmit data to a higher cloud or a higher domain when transmitting data to a data center in a cloud or domain different from each cloud or domain. That is, the upper cloud relays communication between the lower clouds.
  • the virtualization management system of FIG. 6 has Edge Orchestrator 35, MANO (Management and Orchestration) 36, Regional Orchestrator 45, MANO 46, Core Orchestrator 55, Core Orchestrator 55, and E2E Orchestrator 70.
  • the E2E Orchestrator 70 corresponds to the management means 110 in FIG.
  • Edge Orchestrator 35, Regional Orchestrator 45, and Core Orchestrator 55 correspond to management means 11 and management means 21 in FIG.
  • Edge Orchestrators 35, 45, 55, MANOs 36, 46, 56, and E2E Orchestrator 70 may be computer devices that operate by having their processors execute programs stored in memory.
  • the Edge Orchestrators 35, 45, 55, the MANOs 36, 46, 56, and the E2E Orchestrator 70 may be a group of computer devices.
  • MANO 36 constructs a virtualization system using multiple data centers included in Edge Cloud 30, for example, in order to optimize the dynamic deployment of network functions.
  • Edge Orchestrator 35 manages Edge Cloud 30 and analyzes Edge Cloud 30 .
  • Regional Orchestrator 45 , MANO 46 , Core Orchestrator 55 and MANO 56 also perform similar functions and processes as Edge Orchestrator 35 and MANO 36 .
  • Edge Cloud 31 and Regional Cloud 41 are omitted in FIG. 6, Edge Orchestrator and MANO are associated with Edge Cloud 31, and Regional Orchestrator and MANO are associated with Regional Cloud 41. .
  • the Edge Orchestrator 35 and the MANO 36 are shown as different devices or components in FIG.
  • MANO 36 may have Edge Orchestrator 35, VNFM (Virtual Network Function Manager), and VIM (Virtualized Infrastructure Manager).
  • the VIM is in charge of operational management of the physical resources of the data center included in the Edge Cloud 30 and the virtual resources on the data center.
  • the VNFM manages the resource requirements of the VNFs and manages the lifecycle of the VNFs.
  • VNF is a group of virtualized network functions running on NFVI.
  • NFVI Network Functions Virtualization Infrastructure
  • a system including Edge Orchestrator 35 and MANO 36 may be referred to as NFV architecture.
  • the E2E Orchestrator 70 collects and analyzes the data necessary for deploying VNFs across clouds or domains. Data required for deployment of VNFs may be performance information between data centers, for example.
  • the virtualization management system in FIG. 6, for example, deploys RAN (Radio Access Network) components across clouds.
  • RAN components include RU (Remote Radio Unit), DU (RAN Distributed Unit), and CU (RAN Control/Centralized Unit).
  • the RU processes radio frequency (Radio Frequency) signals.
  • RUs are mainly deployed in Cell sites 60-62.
  • An RU may be configured by an antenna, for example.
  • DUs and CUs are deployed in clouds determined according to service requirements or slice requirements (hereinafter referred to as service requirements). Also, for VNFs other than DU and CU, clouds to be deployed are determined according to slice requirements, VNF functions, and requirements required for VNFs.
  • a CU is a device that connects to a core network device, and a DU is deployed between the RU and the CU.
  • the CU mainly processes packet data and the like, and the DU processes lower layer data than the CU.
  • service requirements are defined as eMBB (enhanced Mobile Broadband), URLLC (Ultra Reliable and Low Latency Communications), and mMTC (massive Machine Type Communication).
  • CU and DU may be deployed in Edge Cloud 30 and Edge Cloud 31 when executing a service that satisfies URLLC with the strictest delay conditions.
  • the transmission distance between the CU and DU is shortened, and the delay time associated with data transmission can be shortened.
  • DU when executing a service that satisfies eMBB that defines a high-speed, large-capacity communication service, DU may be deployed in Edge Cloud 30 and Edge Cloud 31, and CU may be deployed in Regional Cloud 40 and Regional Cloud 41.
  • DU when executing a service that satisfies mMTC that defines a communication service between a large number of simultaneously connected terminals, DU may be deployed in Edge Cloud 30 and Edge Cloud 31, and CU may be deployed in Core Cloud 50. Specifically, the CUs may be deployed at locations distant from the Edge Cloud in order from services with stricter delay requirements. Also, like CU, DU may be flexibly deployed in Edge Cloud 30, Regional Cloud 40, and Core Cloud 50 according to service requirements.
  • DU and CU when DU and CU are deployed as virtual nodes or virtual machines in Edge Cloud, Regional Cloud, and Core Cloud, DU and CU may be referred to as vDU and vCU.
  • the Edge Orchestrator 35 has an NSSMF (Network Slice Subnet Management Function) 37 and an MDAF (Management Data Analytics Function) 38.
  • NSSMF 37 and MDAF 38 may be referred to as NSSMF entity 37 and MDAF entity 38, for example.
  • the NSSMF 37 collects and manages information such as failure information and power consumption as the environmental status of the data centers included in the target cloud.
  • the NSSMF 37 may be rephrased as a management unit.
  • the target cloud is Edge Cloud 30, for example.
  • a target cloud managed by the NSSMF 37 may also be referred to as a network subnet slice.
  • a network subnet slice is created by subdividing a network slice.
  • the NSSMF 37 may collect and manage environmental conditions for each data center.
  • the fault information is divided into, for example, software and hardware fault information.
  • a failure alarm indicating a software failure in the data center may be sent from the data center to the NSSMF via an EMS (Element Management System), for example.
  • EMS Element Management System
  • EMS manages VNFs, for example.
  • the EMS may manage one data center, may manage data centers included in one cloud, or may manage each data center included in a plurality of clouds.
  • failure alarms and power consumption indicating data center hardware failures may be sent to the NSSMF via the VIM.
  • the MDAF 38 may analyze the environmental conditions collected by the NSSMF 37 and identify or select the data center with the best environmental condition from among the data center candidates for deploying the vCU or vDU.
  • the MDAF 38 may be rephrased as a specific part.
  • Data center candidates may be notified from the E2E Orchestrator 70, which will be described later.
  • the environmental condition for example, the number of failure alarms or the number of physical failures whose severity indicating the level of failure is Minor or higher may be used.
  • At least one of the above-mentioned information may be used as the environmental condition.
  • the MDAF 38 scores the environmental status for each standard, and calculates the total score as the value of the environmental status.
  • the fewer the number of failure alarms and the number of physical failures the higher the score.
  • the information on power the smaller the value, the higher the score may be.
  • a higher score indicates better quality, and the MDAF 38 may identify data centers with higher scores.
  • Physical failures may include, for example, server power outages due to power shortages, or network failures due to fiber optic cable failures.
  • the power consumption rate may be a value obtained by multiplying 100 by a value obtained by dividing the total amount of power supply by the amount of power consumption.
  • the E2E Orchestrator 70 has CSMF (Communication Service Management Function) 71 , NSMF (Network Slice Management Function) 72 and MDAF 73 .
  • CSMF 71 and NSMF 72 may also be referred to as CSMF entity 71 and NSMF entity 72 .
  • the CSMF 71 manages communication services. For example, the CSMF 71 may manage data transmitted as the user plane. Furthermore, the CSMF 71 receives a vCU and vDU deployment request from an operator who operates the E2E Orchestrator 70 . Specifically, the CSMF 71 receives a deployment request from the operator via an input interface such as a touch panel, keyboard, microphone, or the like. The deployment request may include information regarding service requirements. Information on service requirements may indicate eMBB, URLLC, or mMTC, and may also include data transmission time between vCU and vDU.
  • the NSMF 72 collects and manages performance information between data centers across multiple clouds.
  • the performance information collected by the NSMF 72 will now be described with reference to FIG. FIG. 9 shows that Cell site 60 includes multiple RUs including RU_1 to RU_4. Numbers 1 to 4 are identification information for identifying RUs.
  • Edge Cloud 30 includes multiple DCs including DC (Data Center)_E1 to DC_E4, Regional Cloud 40 includes multiple DCs including DC_R1 to DC_R3, and Core Cloud 50 includes DC_C1 and DC_C2. It shows that multiple DCs are involved.
  • E1-E4, R1-R3, and C1-C2 are identification information for identifying DCs, respectively.
  • the NSMF 72 collects information about the data transmission time on the transmission path between DC_E1 and each DC included in the Regional Cloud 40.
  • the NSMF 72 may collect data transmission times for all combinations of each DC included in the Edge Cloud 30 and each DC included in the Regional Cloud 40 .
  • the NSMF 72 may collect data transmission times for some of all combinations of each DC included in the Edge Cloud 30 and each DC included in the Regional Cloud 40 .
  • the NSMF 72 may similarly collect data transmission times between the DCs included in the Regional Cloud 40 and the DCs included in the Core Cloud 50 between the Regional Cloud 40 and the Core Cloud 50. Furthermore, the NSMF 72 may collect data transmission times between each RU included in the Cell site 60 and each DC included in the Edge Cloud 30 .
  • the NSMF 72 may determine the DC that transmits the measurement data and the DC that is the destination of the measurement data, and instruct the DC that transmits the measurement data to transmit the measurement data. Furthermore, the NSMF 72 may collect information about the transmission time of the measurement data from the DC that received the measurement data. For example, the DC that transmits the measurement data may set the transmission time in the measurement data, and the DC that receives the measurement data may specify the time at which the measurement data was received. The DC that receives the measurement data may specify the transmission time of the measurement data by subtracting the time set in the measurement data from the time the measurement data is received.
  • the MDAF 73 analyzes the performance information collected by the NSMF 72, such as information on transmission time, to identify data centers that meet the service requirements. For example, assume that DU is deployed in Edge Cloud 30 and CU is deployed in Regional Cloud 40 when executing a service that satisfies eMBB that defines high-speed, large-capacity communication services. In addition, as a service requirement of eMBB, it is assumed that the transmission time for data transmission between vCU and vDU is defined as, for example, 1 msec (millisecond). In this case, the MDAF 73 extracts a pair of data centers in which the measurement data transmission time between the data center included in the Edge Cloud 30 and the data center included in the Regional Cloud 40 is 1 msec or less. MDAF 73 may extract multiple pairs. That is, the MDAF 73 extracts data center candidates for deploying vCUs and vDUs.
  • the MDAF 73 transmits the identification information of the candidate data centers to the Edge Orchestrator 35 and Regional Orchestrator 45 of the Edge Cloud and Regional Cloud having data centers included in the extracted pair.
  • the EMS transmits performance information about the data center managed by the EMS to the NSMF 72 (S11).
  • EMS transmits performance information between data centers to NSMF 72 .
  • the performance information between data centers may be, for example, the transmission time of measurement data transmitted between data centers. It is also assumed that the performance information includes information identifying the data center that is the transmission source of the measured data and the data center that is the transmission destination of the measured data.
  • the EMS may acquire performance information from the data center that has received the measurement data and specified the transmission time, and transmit the acquired performance information to the NSMF 72 .
  • FIG. 10 shows that one EMS notifies the NSMF 72 of the performance information, a plurality of EMSs transmit the performance information to the NSMF 72 .
  • the EMS may also send performance information to the NSMF 72 as a response to the request message received from the NSMF 72. Furthermore, when the EMS receives a request message requesting performance information between specific data centers from the NSMF 72, even if the EMS having the performance information between the specified specific data centers responds to the NSMF 72 with the performance information. good.
  • the MDAF 73 transmits a performance information request message to the NSMF 72 in order to acquire performance information from the NSMF 72 (S12).
  • the NSMF 72 sends a performance information response message including the performance information to the MDAF 73 in order to send the performance information to the MDAF 73 (S13).
  • MDAF 73 may periodically send a performance information request message and obtain performance information from NSMF 72 .
  • the MDAF 73 may transmit a performance information request message at arbitrary timing and acquire performance information from the NSMF 72 .
  • the MDAF 73 updates the managed learning model using the acquired performance information (S14).
  • the learning model is used to output data center candidates for deploying virtual nodes.
  • the learning model may output at least one candidate for a pair of data centers on which virtual nodes are to be deployed when a type of cloud on which virtual nodes are to be deployed is input.
  • the type of cloud may be, for example, information identifying Edge Cloud, Regional Cloud, or Core Cloud.
  • the learning model uses the performance information to output data center pair candidates. For example, the learning model extracts data center pair candidates that satisfy the transmission time requirements included in the service requirements.
  • the VNF transmits a software environment status notification message to the NSSMF 37 via EMS in order to notify the NSSMF 37 of the environment status regarding software (Software: SW) (S21).
  • the environment status related to software includes, for example, software failure information.
  • a VNF is, for example, a function of a virtual node deployed in a data center within Edge Cloud 30 .
  • the VNF notifies the NSSMF 37 included in the Edge Orchestrator 35 that manages the Edge Cloud 30 of the software-related environmental status.
  • NFVI sends a hardware environmental status notification to the NSSMF 37 via VIM in order to notify the NSSMF 37 of the hardware (HW)-related environmental status (S22).
  • Environmental conditions related to hardware include hardware failure information and power information.
  • NFVI is deployed in the data center within the Edge Cloud 30 and is the basis for handling physical resources such as storage as virtual resources. NFVI notifies the NSSMF 37 included in the Edge Orchestrator 35 that manages the Edge Cloud 30 of the hardware-related environmental status.
  • the VNF and NFVI each send the environmental status to the NSSMF 37 when they detect a failure or the like. Therefore, the order of steps S21 and S22 may be reversed from that shown in FIG.
  • the MDAF 38 transmits an environmental status request message to the NSSMF 37 in order to acquire the environmental status from the NSSMF 37 (S23).
  • the NSSMF 37 sends an environment status response message including the environment status to the MDAF 38 in order to send the performance information to the MDAF 38 (S24).
  • the MDAF 38 may periodically send environmental status request messages and obtain environmental status from the NSSMF 37 .
  • the NSSMF 37 may transmit an environment status request message at any timing and acquire the environment status from the NSSMF 37 .
  • the MDAF 38 updates the managed learning model using the acquired environmental conditions (S25).
  • the learning model is used to output the data center where the virtual node is deployed from among the candidate data centers.
  • the learning model may output the data center where the virtual node is to be deployed when candidates for the data center where the virtual node is to be deployed are input.
  • the learning model uses environmental conditions to identify data centers.
  • the learning model identifies the optimal data center according to criteria regarding environmental conditions.
  • the optimal data center may be, for example, the data center with the highest availability or reliability.
  • the CSMF 71 receives a virtual node deployment request from an operator who operates the E2E Orchestrator 70 (S31).
  • the deployment request may include information regarding service area, service requirements. For example, assume that eMBB is specified as a service requirement, and that the transmission time between vCU and vDU is 1 msec or less.
  • the CSMF 71 sends a configuration notification message to the NSMF 72, including configuration information indicating the configuration of the service provision area and the deployment of vCUs and vDUs that satisfy the specified service requirements (S32). For example, it is assumed that each of eMBB, URLCC, and mMTC and the cloud type in which vCU and vDU are deployed are determined in advance. For example, if eMBB is specified, it may be specified that vDU is deployed in Edge Cloud and vCU is deployed in Regional Cloud. Here, since eMBB is specified as a service requirement, CSMF 71 transmits to NSMF 72 a configuration notification message indicating that vDU is deployed in Edge Cloud and vCU is deployed in Regional Cloud.
  • the NSMF 72 sends a DC inquiry notification message containing the configuration of the service providing area and virtual node deployment to the MDAF 73 (S33).
  • the MDAF 73 extracts a virtual node, that is, a pair of data centers where vCU and vDU are deployed (S34). For example, MDAF 73 may determine the closest Edge Cloud to the area it serves. In this case, the MDAF 73 extracts candidate data center pairs using the transmission times between the data centers included in the determined Edge Cloud and the data centers included in each of the plurality of Regional Clouds.
  • the MDAF 73 uses the learning model described with reference to FIG. 10 to extract candidate data center pairs.
  • the MDAF 73 sends a DC response message containing information about the candidate data center pair to the NSMF 72 (S35).
  • the NSMF 72 sends to the NSSMF 37 a candidate DC notification message containing information about data centers that are candidates for deploying virtual nodes (S41). Specifically, the NSMF 72 notifies the NSSMF 37 of information about at least one data center included in the Edge Cloud 30 among the data centers included in the pair of data centers that are candidates for deploying the virtual node. Also shown in FIG. 13 is NSMF 72 sending a candidate DC notification message to NSSMF 37 . However, in practice, the NSMF 72 also notifies the NSSMF included in the Regional Orchestrator of the Regional Cloud of information regarding at least one data center included in the Regional Cloud.
  • the NSSMF 37 transmits to the MDAF 38 a DC inquiry message containing information about data centers that are candidates for deploying the virtual nodes, in order to obtain information about the data centers where the virtual nodes are deployed (S42).
  • the MDAF 38 determines a data center to deploy the virtual node from among the candidate data centers (S43). Specifically, the MDAF 38 determines a data center from among the candidate data centers using environmental conditions regarding each data center. The MDAF 38 uses the learning model described with reference to FIG. 11 to determine data centers where virtual nodes are deployed.
  • the MDAF 38 sends a DC response message containing information on the determined data center to the NSSMF 37 (S44).
  • the NSSMF 37 sends a virtual node setting instruction message including information on the determined data center to the MANO 36 in order to set the virtual node in the determined data center (S45).
  • the MANO 36 sets the VNF, which is vDU, in the data center included in the virtual node setting instruction message.
  • MANO associated with the Regional Orchestrator also sets up VNFs that are vCUs in the data center determined in the Regional Orchestrator.
  • the E2E Orchestrator 70 extracts data center candidates for deploying virtual nodes across clouds based on data transmission times between clouds. Further, the Edge Cloud 30, Regional Cloud 40, and Core Cloud 50 determine the data center in which the virtual node is to be deployed based on the environmental conditions from among the data center candidates notified from the E2E Orchestrator 70. This makes it possible to deploy virtual nodes across clouds. Furthermore, by determining the data center according to the performance information and environmental conditions, it is possible to determine the data center that satisfies the service requirements. Furthermore, the Edge Orchestrator 35, the Regional Orchestrator 45, and the Core Orchestrator 55 can distribute the processing load by specifying or determining the data center in which the virtual node is deployed. In other words, the processing load on each of the Edge Orchestrator 35, the Regional Orchestrator 45, and the Core Orchestrator 55 can be reduced compared to the case where one Orchestrator identifies all data centers where virtual nodes are deployed.
  • Modification of Embodiment 2 A modification of the processing for identifying the data center where the virtual node is deployed will be described.
  • the second embodiment an example has been described in which each of the Edge Orchestrator and the Regional Orchestrator identifies the data center in which the virtual node is to be deployed according to the environmental conditions.
  • the E2E Orchestrator 70 identifies the data center where the virtual node is deployed, and the Edge Orchestrator and the Regional Orchestrator 45 deploy the virtual node to the data center identified by the E2E Orchestrator 70 .
  • the MDAF 38 included in the Edge Orchestrator 35 may rank the multiple data center candidates notified from the NSMF 72 based on the environmental conditions. Further, the Edge Orchestrator 35 transmits to the NSMF 72 information indicating the order set for each of the plurality of data center candidates. Similarly, the MDAF included in the Regional Orchestrator 45 may also set the ranking to the plurality of data center candidates notified from the NSMF 72 based on the environmental conditions. Further, the Regional Orchestrator 45 transmits to the NSMF 72 information indicating the order set for each of the plurality of data center candidates.
  • the NSMF 72 transmits to the MDAF 73 information indicating the order set for each of the multiple data center candidates received from the Edge Orchestrator 35 and the Regional Orchestrator 45 .
  • the MDAF 73 identifies one of the multiple pairs of the data center included in the Edge Cloud 30 and the data center included in the Regional Cloud 40 extracted in step S34 of FIG. For example, the MDAF 73 may identify a pair of data centers where transmission time will be longer than other pairs, but considering environmental conditions, high availability can be expected. Alternatively, the MDAF 73 may identify a data center of a pair whose transmission time is shorter than that of other pairs, although availability considering environmental conditions is shorter.
  • the MDAF 73 may output the identified data center pair to the NSMF 72, and the NSMF 72 may transmit the identified data center identification information to the NSSMF 37 included in the Edge Orchestrator 35 and the NSSMF included in the Regional Orchestrator 45.
  • the E2E Orchestrator 70 can determine, for each pair of data centers extracted from the performance information, a data center in which vDU is deployed in Edge Cloud 30 and a data center in which vCU is deployed in Regional Cloud 40. .
  • the Orchestrator of each cloud identifies the data center in which to deploy the virtual node based on the environmental conditions
  • the identified data center may differ from the data center pair extracted in MDAF73. In this case, performance information between identified data centers may not meet the service requirements.
  • the MDAF 73 considers the order set based on the environmental conditions and further identifies the data centers in pair units extracted based on the performance information. It is possible to reduce the possibility of identification.
  • FIG. 14 is a block diagram showing a configuration example of the Edge Orchestrator 35, the Regional Orchestrator 45, the Core Orchestrator 55, and the E2E Orchestrator 70 (hereinafter referred to as the Edge Orchestrator 35, etc.).
  • the Edge Orchestrator 35 and the like include a network interface 1201, a processor 1202, and a memory 1203.
  • FIG. Network interface 1201 may be used to communicate with other network nodes.
  • Network interface 1201 may include, for example, an IEEE 802.3 series compliant network interface card (NIC).
  • NIC network interface card
  • the processor 1202 reads and executes software (computer program) from the memory 1203 to perform the processing of the Edge Orchestrator 35 and the like described using the flowcharts in the above embodiments.
  • Processor 1202 may be, for example, a microprocessor, MPU, or CPU.
  • Processor 1202 may include multiple processors.
  • the memory 1203 is composed of a combination of volatile memory and non-volatile memory.
  • Memory 1203 may include storage remotely located from processor 1202 .
  • the processor 1202 may access the memory 1203 via an I/O (Input/Output) interface (not shown).
  • I/O Input/Output
  • memory 1203 is used to store software modules.
  • the processor 1202 can perform processing such as the Edge Orchestrator 35 described in the above embodiments by reading and executing these software modules from the memory 1203 .
  • each of the processors included in the Edge Orchestrator 35 and the like in the above-described embodiments executes one or more programs containing instructions for causing the computer to execute the algorithms described with reference to the drawings. Execute.
  • the program includes instructions (or software code) that, when read into a computer, cause the computer to perform one or more of the functions described in the embodiments.
  • the program may be stored in a non-transitory computer-readable medium or tangible storage medium.
  • computer readable media or tangible storage media may include random-access memory (RAM), read-only memory (ROM), flash memory, solid-state drives (SSD) or other memory technology, CDs - ROM, digital versatile disc (DVD), Blu-ray disc or other optical disc storage, magnetic cassette, magnetic tape, magnetic disc storage or other magnetic storage device.
  • the program may be transmitted on a transitory computer-readable medium or communication medium.
  • transitory computer readable media or communication media include electrical, optical, acoustic, or other forms of propagated signals.
  • first management means for managing a plurality of first data centers included in a first area
  • second management means for managing a plurality of second data centers included in a second area different in range from the first area
  • a data center candidate for deploying a first virtual node from among the plurality of first data centers based on communication performance information between the first data center and the second data center
  • a third management means for selecting a data center candidate for deploying the second virtual node from among the second data centers of the first management means, Identifying the first data center for deploying the first virtual node based on the candidate for deploying the first virtual node
  • the second management means is A management system that identifies the second data center for deploying the second virtual node based on the candidates for deploying the second virtual node.
  • the communication performance information is 2.
  • the management system of Claim 1 wherein transmission time of data transmitted between each said first data center and each said second data center.
  • the first management means is identifying the first data center where the first virtual node is to be deployed based on environmental conditions in the plurality of first data centers;
  • the second management means is 3.
  • the management system according to appendix 1 or 2 wherein the second data center for deploying the second virtual node is identified based on environmental conditions in a plurality of the second data centers.
  • the environmental conditions are 4.
  • the management system of Clause 3 wherein the management system indicates failure frequency or power consumption at each of the first data centers or each of the second data centers.
  • the third management means is 5.
  • Management system as described. (Appendix 6)
  • the first virtual node is a DU (Distributed Unit) that performs baseband processing, 6.
  • the management system according to any one of attachments 1 to 5, wherein the second virtual node is a CU (Central Unit) that processes data in a layer higher than the layer handled by the DU.
  • the communication performance information is 8.
  • the selection unit 9 The management device according to appendix 7 or 8, which specifies an area in which the first virtual node and the second virtual node are to be deployed according to the functions of the first virtual node and the second virtual node.
  • the first virtual node is a DU (Distributed Unit) that performs baseband processing, 10.
  • DU Distributed Unit
  • the communication performance information is 12. The management method of claim 11, wherein the transmission time of data transmitted between each said first data center and each said second data center.
  • (Appendix 13) When identifying the first data center, identifying the first data center where the first virtual node is to be deployed based on environmental conditions in the plurality of first data centers; When identifying the second data center, 13.
  • the management method according to appendix 11 or 12, wherein the second data center in which the second virtual node is deployed is specified based on environmental conditions in a plurality of the second data centers.
  • the environmental conditions are 14. The management method of claim 13, wherein failure frequency or power consumption at each said first data center or at each said second data center is indicated.
  • the first virtual node and the second virtual node are selected according to the functions of the first virtual node and the second virtual node. 15. The management method according to any one of appendices 11 to 14, wherein an area for deploying nodes is specified.
  • the first virtual node is a DU (Distributed Unit) that performs baseband processing, 16.
  • the communication performance information is 18. The management method of claim 17, wherein the transmission time of data transmitted between each said first data center and each said second data center.
  • Appendix 19 When selecting the first data center and the second data center, 19.
  • the management method according to any one of appendices 17 and 18, wherein an area in which the virtual node is to be deployed is specified according to the function of the virtual node.
  • the first virtual node is a DU (Distributed Unit) that performs baseband processing, 20.
  • DU Distributed Unit
  • Management Means 10 Area 11 Management Means 12 Data Center 15 Management Apparatus 16 DC Management Unit 17 Identification Unit 20 Area 21 Management Means 22 Data Center 30 Edge Cloud 31 Edge Cloud 35 Edge Orchestrator 36 MANO 37 NSSMF 38 MDAF 40 Regional Clouds 41 Regional Cloud 45 Regional Orchestrators 46 MANO 50 Core Cloud 55 Core Orchestrator 56 MANO 60 cell sites 61 cell sites 62 cell sites 70 E2E Orchestrator 71 CSMF 72 NSMF 73 MDAF 110 Management means 150 Management device 160 Selection unit 170 Communication unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

ドメインにまたがった仮想ネットワークのマッピングを行うことができる管理システム、管理装置、管理方法、及び非一時的なコンピュータ可読媒体を提供することを目的とする。管理システムは、第1のエリアに含まれる複数のデータセンタ(12)を管理する管理手段(11)と、第2のエリアに含まれる複数のデータセンタ(22)を管理する管理手段(21)と、データセンタ間の通信性能情報に基づいて、第1の仮想ノードを配備するデータセンタ候補と、第2の仮想ノードを配備するデータセンタ候補と、を選択する管理手段(110)と、を備え管理手段(11)は、第1の仮想ノードを配備する候補に基づいて、第1の仮想ノードを配備するデータセンタ(12)を特定し、管理手段(21)は、第2の仮想ノードを配備する候補に基づいて、第2の仮想ノードを配備するデータセンタを特定する。

Description

管理システム、管理装置、及び管理方法
 本開示は、管理システム、管理装置、及び管理方法に関する。
 現在、コアネットワークを構成する装置の仮想化が検討されている。今後、さらに、5G(5th Generation)ネットワークの普及に備え、O-RAN(Open Radio Access Network) AllianceにおけるRANコンポーネントの仮想化が進められることが期待される。
 特許文献1には、サービスに対して期待される信頼度を満たし、信頼性のあるリソースの最適な利用を達成するように、仮想ネットワークの物理インフラストラクチャへのマッピングを行うリソース割り当てシステムの構成が開示されている。
特表2020-504552号公報
 特許文献1に開示されているリソース割り当てシステムは、物理インフラストラクチャを構成する全てのハードウェアを対象として、特定の管理ポリシーに従って仮想ネットワークのマッピングを行っている。そのため、物理インフラストラクチャが複数の管理ドメインに分割された場合に、リソース割り当てシステムは、ドメインにまたがった仮想ネットワークのマッピングを行うことができない可能性がある。
 本開示の目的は、上述した課題を鑑み、ドメインにまたがった仮想ネットワークのマッピングを行うことができる管理システム、管理装置、及び管理方法を提供することにある。
 本開示の第1の態様にかかる管理システムは、第1のエリアに含まれる複数の第1のデータセンタを管理する第1の管理手段と、前記第1のエリアとは異なる範囲の第2のエリアに含まれる複数の第2のデータセンタを管理する第2の管理手段と、前記第1のデータセンタと前記第2のデータセンタとの間の通信性能情報に基づいて、複数の前記第1のデータセンタの中から、第1の仮想ノードを配備するデータセンタ候補と、複数の前記第2のデータセンタの中から、第2の仮想ノードを配備するデータセンタ候補と、を選択する第3の管理手段と、を備え前記第1の管理手段は、前記第1の仮想ノードを配備する候補に基づいて、前記第1の仮想ノードを配備する前記第1のデータセンタを特定し、前記第2の管理手段は、前記第2の仮想ノードを配備する候補に基づいて、前記第2の仮想ノードを配備する前記第2のデータセンタを特定する。
 本開示の第2の態様にかかる管理装置は、第1のエリアに含まれる複数の第1のデータセンタと第1のエリアとは異なる範囲の第2のエリアに含まれる複数の第2のデータセンタとの間の通信性能情報に基づいて、複数の前記第1のデータセンタの中から、第1の仮想ノードを配備する候補となる少なくとも1つの前記第1のデータセンタと、複数の前記第2のデータセンタの中から、第2の仮想ノードを配備する候補となる少なくとも1つの前記第2のデータセンタと、を選択する選択部と、複数の前記第1のデータセンタを管理する第1の管理手段へ、前記第1の仮想ノードを配備する候補となる少なくとも1つの前記第1のデータセンタに関する情報を送信し、複数の前記第2のデータセンタを管理する第2の管理手段へ、前記第2の仮想ノードを配備する候補となる少なくとも1つの前記第2のデータセンタに関する情報を送信する通信部と、を備える。
 本開示の第3の態様にかかる管理方法は、第1のエリアに含まれる複数の第1のデータセンタと前記第1のエリアとは異なる範囲の第2のエリアに含まれる複数の前記第2のデータセンタとの間の通信性能情報に基づいて、前記複数の前記第1のデータセンタの中から、第1の仮想ノードを配備する候補となる少なくとも1つの前記第1のデータセンタと、前記複数の前記第2のデータセンタの中から、第2の仮想ノードを配備する候補となる少なくとも1つの前記第2のデータセンタと、を選択し、前記通信性能情報に基づいて候補として選択された少なくとも1つの前記第1のデータセンタの中から、前記第1の仮想ノードを配備する前記第1のデータセンタを特定し、前記通信性能情報に基づいて候補として選択された少なくとも1つの前記第2のデータセンタの中から、前記第2の仮想ノードを配備する前記第2のデータセンタを特定する。
 本開示により、ドメインにまたがった仮想ネットワークのマッピングを行うことができる管理システム、管理装置、及び管理方法を提供することができる。
実施の形態1にかかる管理システムの構成図である。 実施の形態1にかかる管理装置の構成図である。 実施の形態1にかかる管理装置の構成図である。 実施の形態1にかかる管理システムにおける仮想ノードを配備するデータセンタの特定処理の流れを示す図である。 実施の形態2にかかる管理システムの構成図である。 実施の形態2にかかる仮想化管理システムの構成図である。 実施の形態2にかかるEdge Orchestratorの構成図である。 実施の形態2にかかるE2E Orchestratorの構成図である。 実施の形態2にかかる性能情報の収集を説明する図である。 実施の形態2にかかる性能情報の管理処理の流れを示す図である。 実施の形態2にかかる環境状況の管理処理の流れを示す図である。 実施の形態2にかかる仮想ノードを配備する候補となるデータセンタのペアの抽出処理の流れを示す図である。 実施の形態2にかかる仮想ノードを配備するデータセンタの決定処理の流れを示す図である。 それぞれの実施の形態にかかるOrchestratorの構成図である。
 (実施の形態1)
 以下、図面を参照して本発明の実施の形態について説明する。図1を用いて実施の形態1にかかる管理システムの構成例について説明する。図1の管理システムは、エリア10に含まれる複数のデータセンタ(DC: Data Center)12を管理する管理手段11を有している。さらに、図1の管理システムは、エリア20に含まれる複数のデータセンタ22を管理する管理手段21を有している。さらに、図1の管理システムは、管理手段110を有している。管理手段110は、管理手段11及び管理手段21と通信する。エリア20は、エリア10とは異なる範囲のエリアに含まれるデータセンタ22を管理する。例えば、エリア10及びエリア20は、それぞれが市単位のエリアもしくは県単位のエリアであってもよく、エリア10は、市単位のエリアであり、エリア20は、複数の市を含む県単位のエリアであってもよい。つまり、エリア10とエリア20とは重複したエリアを含まなくてもよく、エリア10の一部がエリア20と重複してもよく、もしくは、エリア10の全てがエリア20に含まれてもよい。また、エリアは、ドメインもしくはクラウドと称されてもよい。
 図1においては、管理手段11がエリア10内に存在することが示されているが、管理手段11は、エリア10の外に配置され、エリア10内に存在する複数のデータセンタ12を管理してもよい。さらに、管理手段21も同様に、エリア20の外に配置され、エリア20内に存在する複数のデータセンタ22を管理してもよい。
 管理手段11、管理手段21、及び管理手段110は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるコンピュータ装置であってもよい。例えば、管理手段11は、単一のコンピュータ装置もしくは単一のサーバ装置であってもよい。または、管理手段11は、複数のコンピュータ装置が連携して動作するコンピュータ装置群もしくは複数のサーバ装置が連携して動作するサーバ装置群であってもよい。管理手段110及び管理手段21も管理手段11と同様の構成であってもよい。もしくは、管理手段11は、ネットワーク全体を管理する管理システムもしくは管理サーバに含まれるソフトウェアリソースであって、エリア10内に存在する複数のデータセンタ12を管理するために割り当てられたソフトウェアリソースであってもよい。管理手段21は、ネットワーク全体を管理する管理システムもしくは管理サーバに含まれるソフトウェアリソースであって、エリア20内に存在する複数のデータセンタ22を管理するために割り当てられたソフトウェアリソースであってもよい。管理手段110は、ネットワーク全体を管理する管理システムもしくは管理サーバに含まれるソフトウェアリソースであってもよい。
 データセンタ12及びデータセンタ22は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるコンピュータ装置であってもよい。データセンタ12及びデータセンタ22は、ソフトウェアが搭載されることによってさまざまな機能を実行し得る。データセンタ12及びデータセンタ22のそれぞれは、単一のコンピュータ装置であってもよく、複数のコンピュータ装置が連携して動作するコンピュータ装置群であってもよい。データセンタ12及びデータセンタ22は、それぞれ単一のサーバ装置であってもよく、サーバ装置群であってもよい。
 管理手段110は、データセンタ間に関する性能情報を管理してもよい。性能情報は、通信性能情報と称されてもよい。性能情報は、例えば、同一エリア内のデータセンタ間において伝送されるデータの送信レートもしくは通信帯域、もしくは、データセンタ12と、データセンタ22との間において伝送されるデータの送信レートもしくは通信帯域であってもよい。また、性能情報は、一方のデータセンタ12から、他方のデータセンタ12もしくはデータセンタ22へデータが到達するまでに要する時間、データのゆらぎ、等であってもよい。一方のデータセンタ12から他方のデータセンタ12もしくはデータセンタ22へデータが到達するまでに要する時間は、伝送時間もしくは遅延時間と称されてもよい。また、性能情報は、複数のデータが一方のデータセンタ12から他方のデータセンタ12もしくはデータセンタ22へデータが到達するまでに要する時間の統計情報、例えば、平均であってもよい。管理手段110は、管理手段11及び管理手段21から性能情報を収集し、さらに分析してもよい。また、管理手段110は、例えば、管理手段11及びデータセンタ12に対して、測定用のデータを伝送し性能情報を測定するように指示するメッセージを送信してもよい。ここまで、データセンタ12がデータの送信元である例について説明したが、データセンタ22がデータの送信元である場合も同様である。
 管理手段110は、異なるエリアに属するデータセンタ間、つまり、データセンタ12とデータセンタ22とに関する性能情報に基づいて、仮想ノードを配備する候補となる少なくとも一つのデータセンタ12を選択する。さらに、管理手段110は、データセンタ12とデータセンタ22とに関する性能情報に基づいて、仮想ノードを配備する候補となる少なくとも一つのデータセンタ22を選択する。管理手段110は、管理手段11へ、仮想ノードを配備する候補として選択したデータセンタ12に関する情報を通知し、データセンタ12へ、仮想ノードを配備する候補として選択したデータセンタ22に関する情報を通知する。
 また、管理手段110は、配備する仮想ノードの機能に応じて、仮想ノードを配備するエリア、例えば、エリア10もしくはエリア20を特定してもよい。さらに、管理手段110は、配備する仮想ノードの機能及びサービス要件に応じて、仮想ノードを配備するエリアを特定してもよい。サービス要件として、例えば、伝送時間もしくは遅延時間等が定められてもよい。
 管理手段11は、例えば、複数のデータセンタ12の環境状況を管理してもよい。環境状況は、例えば、それぞれのデータセンタ12の障害頻度であってもよく、それぞれのデータセンタ12の電力消費量であってもよい。管理手段11は、それぞれのデータセンタ12から、障害頻度及び電力消費量の少なくとも一つを収集し、さらに分析してもよい。
 さらに、管理手段11は、仮想ノードを割り当てるデータセンタ12を特定するために、それぞれのデータセンタ12において現在どのような仮想ノードが割り当てられているかを管理してもよい。割り当てる、とは、配備すると言い換えられてもよい。また、管理手段11は、それぞれのデータセンタ12におけるソフトウェアリソースの空き領域を管理してもよい。仮想ノードは、たとえば、仮想化されたネットワーク機能であってもよい。仮想ノードは、ある物理ノードが有するすべての機能を含んでもよく、ある物理ノードが有する全ての機能のうち一部の機能を含んでもよい。
 管理手段21も、管理手段11と同様に、複数のデータセンタ22に関する環境状況、仮想ノードをデータセンタ22へ割り当てるために必要な情報を管理してもよい。
 管理手段11は、それぞれのデータセンタ12と、それぞれのデータセンタ22との間の性能情報に基づいて候補として選択された少なくとも1つのデータセンタ12の中から、仮想ノードを配備するデータセンタ12を特定する。特定するとは、決定すると言い換えられてもよい。
 さらに、管理手段21も、それぞれのデータセンタ12と、それぞれのデータセンタ22との間の性能情報に基づいて候補として選択された少なくとも1つのデータセンタ22の中から、仮想ノードを配備するデータセンタ22を特定する。
 性能情報に基づいて選択されるデータセンタ12の候補及びデータセンタ22の候補は、例えば、性能情報が所定の要件を満たすデータセンタ12及びデータセンタ22であってもよい。性能情報が所定の要件を満たすデータセンタ12及びデータセンタ22は、例えば、所定の時間よりも短い伝送時間を実現するデータセンタ12及びデータセンタ22であってもよい。
 それぞれのデータセンタ12と、それぞれのデータセンタ22との間の性能情報は、例えば、管理手段11がそれぞれのデータセンタ12からそれぞれのデータセンタ22へ測定用のデータを送信することを指示することによって生成されてもよい。管理手段11は、それぞれのデータセンタ12から得られた測定用データの送信結果等から性能情報を生成し、管理手段21は、それぞれのデータセンタ22から得られた測定用データの受信結果等から性能情報を生成してもよい。管理手段11及びデータセンタ12は、生成した性能情報を管理手段110へ送信する。
 それぞれのデータセンタ12とそれぞれのデータセンタ22との間の性能情報は、管理手段110が管理手段11及び管理手段21を介して、データセンタ12もしくはデータセンタ22へ測定用のデータを送信することを指示することによって生成されてもよい。もしくは、それぞれのデータセンタ12と、それぞれのデータセンタ22との間の性能情報は、管理手段110から指示されることなくそれぞれのデータセンタが定期的に測定用のデータを送信することによって生成されてもよい。
 管理手段110は、例えば、複数のデータセンタ12のいずれかと、複数のデータセンタ22のいずれかとを組み合わせた複数のペアのうち、測定用のデータの伝送時間が所定の時間よりも短くなる少なくとも1つのデータセンタのペアを選択してもよい。この場合に、管理手段11は、選択されたペアに含まれるデータセンタの中から一つのデータセンタを特定し、特定したデータセンタ12へ、仮想ノードを配備してもよい。管理手段21は、通知されたデータセンタ22のペアの中から仮想ノードを配備するデータセンタを特定してもよい。
 ここで、図2を用いて、管理手段11の構成例について説明する。ここでは、管理手段11が、一つの装置として管理装置15によって構成される例について説明する。管理装置15は、DC管理部16及び特定部17を備える。DC管理部16は、複数のデータセンタ12を管理する。例えば、DC管理部16は、複数のデータセンタ12に関する環境状況、仮想ノードをデータセンタ12へ割り当てるために必要な情報を管理する。特定部17は、それぞれのデータセンタ12と、それぞれのデータセンタ22との間の性能情報に基づいて候補として選択された少なくとも1つのデータセンタ12の中から、仮想ノードを配備するデータセンタ12を特定する。管理手段21も管理手段11と同様に、管理装置15と同様の装置によって構成される。
 続いて、図3を用いて、管理手段110の構成例について説明する。ここでは、管理手段110が、一つの装置として管理装置150によって構成される例について説明する。管理装置150は、選択部160及び通信部170を有している。選択部160は、データセンタ間の性能情報に基づいて、エリア10及びエリア20毎に、仮想ノードを配備する候補となる少なくとも一つのデータセンタを選択する。通信部170は、仮想ノードを配備する候補となる少なくとも一つのデータセンタ12に関する情報を管理手段11へ送信し、仮想ノードを配備する候補となる少なくとも一つのデータセンタ22に関する情報を管理手段21へ送信する。
 続いて、図4を用いて、管理システムにおける仮想ノードを配備するデータセンタの特定処理の流れについて説明する。はじめに、管理手段110は、性能情報に基づいて、仮想ノードを配備する候補となるデータセンタを選択する(S1)。具体的には、管理手段110は、エリア10に含まれる複数のデータセンタ12の中から、仮想ノードを配備する候補となる少なくとも1以上のデータセンタ12を選択する。さらに、管理手段110は、エリア20に含まれる複数のデータセンタ22の中から、仮想ノードを配備する候補となる少なくとも1以上のデータセンタ22を選択する。
 次に、管理手段110は、管理手段11へ、仮想ノードを配備する候補となるデータセンタ12を通知する(S2)。次に、管理手段110は、管理手段21へ、仮想ノードを配備する候補となるデータセンタ22を通知する(S3)。管理手段110は、ステップS2及びS3を実質的に同じタイミングにおいて実行してもよく、ステップS3の後にステップS2を実行してもよい。
 次に、管理手段11は、仮想ノードを配備する候補となる少なくとも1つのデータセンタ12の中から、仮想ノードを配備するデータセンタ12を特定する(S4)。管理手段11と同様に、管理手段21も、仮想ノードを配備する候補となる少なくとも1つのデータセンタ22の中から、仮想ノードを配備するデータセンタ22を特定する(S5)。
 以上説明したように、図1の管理システムは、エリア10に含まれる複数のデータセンタを管理する管理手段11を有し、エリア20に含まれる複数のデータセンタを管理する管理手段21を有する。管理手段11は、エリア10内のデータセンタ12へ仮想ノードを配備し、管理手段21は、エリア20内のデータセンタ22へ仮想ノードを配備する。これによって、例えば、異なるエリアに属する複数のデータセンタに対して、それぞれのエリアを管理する管理手段が仮想ノードを配備することができるため、エリアをまたがった仮想ノードの配備を行うことができる。
 (実施の形態2)
 続いて、図5を用いて実施の形態2にかかる管理システムの構成例について説明する。図5の管理システムは、Edge Cloud30、Edge Cloud31、Regional Cloud40、Regional Cloud 41、Core Cloud50、及びCell site60~62を有している。Edge Cloud30、Edge Cloud31、Regional Cloud40、Regional Cloud 41、及びCore Cloud50は、図1のエリア10及びエリア20に相当する。図5においては、図1のエリア10及びエリア20が階層構造となっている例について説明する。Cell site60~62は、例えば、移動通信に用いられる基地局が管理する通信エリアであってもよい。基地局は、例えば、eNB(evolved Node B)もしくはgNBと称されてもよい。また、基地局は、NRもしくはNRエンティティ等と称されてもよい。また、Edge Cloud、Regional Cloud、Core Cloud、及びCell siteの数は、図5に示される数に限定されない。
 Edge Cloud30及び31は、Cell site間において伝送されるデータを中継する。例えば、Edge Cloud 30は、Cell site60から受信したデータをCell site61もしくはCell site62へ送信する。または、Edge Cloud30は、Cell site60から受信したデータを、Edge Cloud31配下のCell siteへ中継するために、Regional Cloud40へ送信する。Edge Cloud30及びEdge Cloud31は、例えば、特定の地域ごとに設けられてもよい。Edge Cloud30及び41は、多数のCell Site(基地局の無線装置(RU:Remote Radio Unit))が繋がる装置(例えば、DU(RAN Distributed Unit)もしくはCU(RAN Control/Centralized Unit))を収容している。
 Regional Cloud40及び41は、Edge Cloud30、Edge Cloud31、及び他のEdge Cloud間において伝送されるデータを中継する。Core Cloud50は、Regional Cloud40、Regional Cloud41、及び他のRegional Cloud間において伝送されるデータを中継する。Regional Cloud40及び41は、Edge Cloudの次の接続サイトである。スライス要件によっては、Edge Cloudに配備されたDUに相対するCUがRegional Cloudに配備される。Core Cloud50は、Regional Cloudの次の接続サイトである。Core Cloudは、一般的に5GC(5th Generation Core)やEPC(Evolved Packet Core)などコアネットワーク系のアプリケーションを収容する。Edge Cloud、Regional Cloud、及びCore Cloudに配備される機能の配置は、ベンダによって異なってもよい。
 Regional Cloud 40は、Edge Cloud 30及びEdge Cloud 31の上位クラウドであり、Core Cloud 50は、Regional Cloud 40及びRegional Cloud 41の上位クラウドと称されてもよい。上位クラウドは、上位ドメインと称されてもよい。また、Regional Cloud 40及びRegional Cloud 41は、Core Cloud 50の下位クラウドであり、Edge Cloud 30及びEdge Cloud 31は、Regional Cloud 40及びRegional Cloud 41の下位クラウドと称されてもよい。下位クラウドは、下位ドメインと称されてもよい。Edge Cloud30、Edge Cloud31、Regional Cloud40、Regional Cloud 41は、それぞれのクラウドもしくはそれぞれのドメインとは異なるクラウドもしくはドメインのデータセンタへデータを伝送する場合、上位クラウドもしくは上位ドメインへデータを伝送する。つまり、上位クラウドは、下位クラウド間の通信を中継する。
 続いて、図6を用いて仮想化システムを構築するための仮想化管理システムについて説明する。図6の仮想化管理システムは、Edge Orchestrator35、MANO(Management and Orchestration)36、Regional Orchestrator45、MANO46、Core Orchestrator55、Core Orchestrator55、及びE2E Orchestrator70を有している。E2E Orchestrator 70は、図1の管理手段110に相当する。Edge Orchestrator 35、Regional Orchestrator 45、及びCore Orchestrator 55は、図1の管理手段11及び管理手段21に相当する。Edge Orchestrator35、45、55、MANO36、46、56、及びE2E Orchestrator70は、プロセッサがメモリに格納されたプログラムを実行することによって動作するコンピュータ装置であってもよい。また、Edge Orchestrator35、45、55、MANO36、46、56、及びE2E Orchestrator70は、コンピュータ装置群であってもよい。
 MANO36は、ネットワーク機能の動的な配備を最適化するために、例えば、Edge Cloud30に含まれる複数のデータセンタを用いた仮想化システムを構築する。Edge Orchestrator 35は、Edge Cloud30の管理及びEdge Cloud30に関する分析を行う。Regional Orchestrator45、MANO46、Core Orchestrator55、及びMANO56も、Edge Orchestrator35及びMANO36と同様の機能及び処理を実行する。また、図6には、Edge Cloud31、Regional Cloud41の記載が省略されているが、Edge Cloud31にもEdge Orchestrator及びMANOが関連付けられており、Regional Cloud41にもRegional Orchestrator及びMANOが関連付けられているとする。
 図6においては、Edge Orchestrator35とMANO36とが異なる装置もしくはコンポーネントとして示されているが、例えば、Edge Orchestrator35は、MANO36を構成するコンポーネントであってもよい。例えば、MANO36は、Edge Orchestrator35、VNFM(Virtual Network Function Manager)、及びVIM(Virtualised Infrastructure Manager)を有してもよい。VIMは、Edge Cloud30に含まれるデータセンタの物理リソース及びデータセンタ上の仮想リソースの運用管理を担う。VNFMは、VNFが必要とするリソース要件の管理及びVNFのライフサイクル管理を行う。VNFは、NFVI上において動作する仮想化されたネットワーク機能群である。NFVI(Network Functions Virtualization Infrastructure)は、ストレージ等の物理リソースを、仮想リソースとして扱うための基盤である。NFVIは、データセンタに含まれる。Edge Orchestrator35及びMANO36を含むシステムを、NFVアーキテクチャと称してもよい。
 E2E Orchestrator70は、クラウドもしくはドメインを跨いだVNFの配備に必要なデータの収集及び分析を行う。VNFの配備に必要なデータは、例えば、データセンタ間の性能情報であってもよい。
 図6の仮想化管理システムは、例えば、RAN(Radio Access Network)コンポーネントを、クラウドを跨いで配備する。RANコンポーネントは、RU(Remote Radio Unit)、DU(RAN Distributed Unit)、及びCU(RAN Control/Centralized Unit)を含む。RUは、無線周波数(Radio Frequency)の信号を処理する。RUは、主にCell site60~62に配備される。RUは、例えばアンテナによって構成されてもよい。DU及びCUは、サービス要件もしくはスライス要件(以下、サービス要件とする)に従って配備されるクラウドが決定される。また、DU及びCU以外のVNFについても、スライス要件、VNFの機能及びVNFに求められる要件に従って配備されるクラウドが決定される。
 DU及びCUは、ベースバンド処理を行う装置もしくは機能ブロックである。CUは、コアネットワーク装置に接続する装置であり、DUは、RUとCUとの間に配備される。CUは、主にパケットデータ等の処理を行い、DUは、CUよりも下位レイヤのデータに関する処理を行う。
 例えば、サービス要件は、eMBB(enhanced Mobile Broadband)、URLLC(Ultra Reliable and Low Latency Communications)、mMTC(massive Machine Type Communication)として定められている。例えば、もっとも遅延条件の厳しいURLLCを満たすサービスを実行する場合には、CU及びDUが、Edge Cloud30及びEdge Cloud31に配備されてもよい。これにより、CUとDUとの間の伝送距離が短くなり、データ伝送に関する遅延時間を短くすることができる。また、高速大容量の通信サービスを規定するeMBBを満たすサービスを実行する場合にはDUがEdge Cloud30及びEdge Cloud31に配備され、CUがRegional Cloud40及びRegional Cloud41に配備されてもよい。さらに、同時接続された多数の端末間の通信サービスを規定するmMTCを満たすサービスを実行する場合には、DUがEdge Cloud30及びEdge Cloud31に配備され、CUがCore Cloud50に配備されてもよい。具体的には、遅延要件が厳しいサービスから順番に、CUがEdge Cloudから離れた位置に配備されていってもよい。また、DUもCUと同様に、Edge Cloud30、Regional Cloud40、及びCore Cloud50においてサービス要件に応じて柔軟に配備されてもよい。
 また、DU及びCUが、Edge Cloud、Regional Cloud、及びCore Cloudに仮想ノードもしくは仮想マシンとして配備される場合、DU及びCUは、vDU及びvCUと称されてもよい。
 続いて、図7を用いてEdge Orchestrator35の構成例について説明する。なお、Regional Orchestrator45及びCore Orchestrator55もEdge Orchestrator35と同様の構成であるため、Regional Orchestrator45及びCore Orchestrator55に関する詳細な構成例の説明について省略する。
 Edge Orchestrator35は、NSSMF(Network Slice Subnet Management Function)37及びMDAF(Management Data Analytics Function)38を有している。NSSMF37及びMDAF38は、例えば、NSSMFエンティティ37及びMDAFエンティティ38と称されてもよい。
 NSSMF37は、対象クラウドに含まれるデータセンタ群の環境状況として、障害情報と電力消費量などの情報を収集して管理する。NSSMF37は、管理部と言い換えられてもよい。対象クラウドは、例えば、Edge Cloud30とする。また、NSSMF37が管理する対象クラウドは、ネットワークサブネットスライスと称されてもよい。ネットワークサブネットスライスは、ネットワークスライスをさらに分割することによって作成される。
 例えば、NSSMF37は、データセンタ毎の環境状況を収集して管理してもよい。障害情報は、例えば、ソフトウェア及びハードウェアの障害情報に分けられる。データセンタのソフトウェアの障害を示す障害アラームは、例えば、データセンタからEMS(Element Management System)を経由してNSSMFへ送信されてもよい。EMSは、例えば、VNFを管理している。EMSは、例えば、一つのデータセンタを管理してもよく、一つのクラウドに含まれるデータセンタを管理してもよく、複数のクラウドに含まれるそれぞれのデータセンタを管理してもよい。また、データセンタのハードウェアの障害を示す障害アラーム及び電力消費量は、VIMを経由してNSSMFへ送信されてもよい。
 MDAF38は、NSSMF37が収集した環境状況を分析して、vCUもしくはvDUを配備するデータセンタの候補の中から、環境状況が最も良いデータセンタを特定もしくは選定してもよい。MDAF38は特定部と言い換えられてもよい。データセンタの候補は、後に説明するE2E Orchestrator70から通知されてもよい。環境状況として、例えば、障害のレベルを示すセベリティ(severity)がMinor以上の障害アラーム件数もしくは物理的な障害件数が用いられてもよい。または、環境状況として、データセンタにおける1日当たりの電力消費率、1週間当たりの停電発生率、停電時間、1日当たりのサーバもしくはストレージ等の発熱量の平均値、1日当たりのラックごとの電力消費量もしくは発熱量の平均値等が用いられてもよい。環境状況は、これまでに上げた情報の少なくとも1つが用いられれば良い。例えば、MDAF38は、環境状況として、障害アラーム件数、物理的な障害件数、電力に関する情報のうち少なくとも1つの基準を用いる場合、それぞれの基準毎に環境状況を点数化し、合計点数を環境状況の値としてもよい。例えば、障害アラーム件数及び物理的な障害件数は、件数が少ないほど点数が高くなってもよい。電力に関する情報についてもそれぞれの値が小さくなるほど点数が高くなってもよい。それぞれの点数を合計した環境状況の値は、点数が高くなるほど品質が良いことを示し、MDAF38は、点数が高いデータセンタを特定してもよい。
 物理的な障害は、例えば、電力不足によるサーバの電源断、もしくは、光ファイバーケーブル故障によるネットワーク障害等が含まれてもよい。電力消費率は、電力供給のトータル量を電力消費量で除算した値に100を乗算した値であってもよい。
 続いて、図8を用いてE2E Orchestrator70の構成例について説明する。E2E Orchestrator70は、CSMF(Communication Service Management Function)71、NSMF(Network Slice Management Function)72、及びMDAF73を有している。CSMF71及びNSMF72は、CSMFエンティティ71及びNSMFエンティティ72と称されてもよい。
 CSMF71は、通信サービスを管理する。例えば、CSMF71は、ユーザプレーンとして伝送されるデータを管理してもよい。さらに、CSMF71は、E2E Orchestrator70を操作する操作者から、vCU及びvDUの配備要求を受け付ける。具体的には、CSMF71は、タッチパネル、キーボード、マイク、等の入力インタフェースを介して、操作者から配備要求を受け付ける。配備要求には、サービス要件に関する情報が含まれてもよい。サービス要件に関する情報は、eMBB、URLLC、もしくはmMTCが示され、さらに、vCUとvDUとの間におけるデータの伝送時間が含められてもよい。
 NSMF72は、複数のクラウドを跨いだデータセンタ間の性能情報を収集して管理する。ここで、図9を用いてNSMF72が収集する性能情報について説明する。図9は、Cell site60に、RU_1~RU_4を含む複数のRUが含まれていることを示している。数字1~4は、RUを識別する識別情報である。さらに、Edge Cloud30に、DC(Data Center:データセンタ)_E1~DC_E4を含む複数のDCが含まれ、Regional Cloud40に、DC_R1~DC_R3を含む複数のDCが含まれ、Core Cloud50にDC_C1及びDC_C2を含む複数のDCが含まれることを示している。E1~E4、R1~R3、C1~C2は、それぞれDCを識別する識別情報である。
 例えば、NSMF72は、DC_E1と、Regional Cloud40に含まれるそれぞれのDCとの間の伝送路におけるデータの伝送時間に関する情報を収集する。NSMF72は、Edge Cloud30に含まれるそれぞれのDCと、Regional Cloud40に含まれるそれぞれのDCとの全ての組み合わせのデータの伝送時間を収集してもよい。もしくは、NSMF72は、Edge Cloud30に含まれるそれぞれのDCと、Regional Cloud40に含まれるそれぞれのDCとの全ての組み合わせのうち一部の組み合わせにおけるデータの伝送時間を収集してもよい。
 NSMF72は、Regional Cloud40とCore Cloud50との間においても同様に、Regional Cloud40に含まれるDCと、Core Cloud50に含まれるDCとの間におけるデータの伝送時間を収集してもよい。さらに、NSMF72は、Cell site60に含まれるそれぞれのRUと、Edge Cloud30に含まれるそれぞれのDCとの間におけるデータの伝送時間を収集してもよい。
 例えば、NSMF72は、測定用データを送信するDCと、測定用データの宛先となるDCとを決定し、測定用データを送信するDCへ、測定用データの送信を指示してもよい。さらに、NSMF72は、測定用データを受信したDCから、測定用データの伝送時間に関する情報を収集してもよい。例えば、測定用データを送信するDCは、送信する時間を測定用データに設定し、測定用データを受信するDCは、測定用データを受信した時刻を特定してもよい。測定用データを受信するDCは、測定用データを受信した時刻から、測定用データに設定されている時刻を減算することによって、測定用データの伝送時間を特定してもよい。
 MDAF73は、NSMF72において収集された性能情報、例えば、伝送時間に関する情報、を分析してサービス要件を満たしたデータセンタを特定する。例えば、高速大容量の通信サービスを規定するeMBBを満たすサービスを実行する場合に、DUがEdge Cloud 30に配備され、CUがRegional Cloud40に配備されるとする。また、eMBBのサービス要件として、vCUとvDUとの間のデータ伝送に関する伝送時間が、例えば、1msecc(ミリ秒)等と定められているとする。この場合、MDAF73は、Edge Cloud30に含まれるデータセンタとRegional Cloud40に含まれるデータセンタとの間における測定用データの伝送時間が1msec以下となるデータセンタのペアを抽出する。MDAF73は、複数のペアを抽出してもよい。つまり、MDAF73は、vCU及びvDUを配備するデータセンタの候補を抽出する。
 MDAF73は、抽出したペアに含まれるデータセンタを有するEdge Cloud及びRegional CloudのEdge Orchestrator35及びRegional Orchestrator45へ、候補となるデータセンタの識別情報を送信する。
 続いて、図10を用いて、性能情報の管理処理の流れについて説明する。はじめに、EMSから、EMSが管理するデータセンタに関する性能情報をNSMF72へ送信する(S11)。EMSは、データセンタ間の性能情報をNSMF72へ送信する。データセンタ間の性能情報は、例えば、データセンタ間において伝送される測定用データの伝送時間であってもよい。また、性能情報には、測定データの送信元のデータセンタと、測定データの送信先のデータセンタとを識別する情報も含まれているとする。
 例えば、EMSは、測定用データを受信し伝送時間を特定したデータセンタから性能情報を取得し、取得した性能情報をNSMF72へ送信してもよい。また、図10においては、一つのEMSがNSMF72へ性能情報を通知していることを示しているが、複数のEMSが、性能情報をNSMF72へ送信する。
 また、EMSは、NSMF72から受信した要求メッセージに対する応答として、性能情報をNSMF72へ送信してもよい。さらに、EMSは、NSMF72から特定のデータセンタ間の性能情報を要求する要求メッセージを受信した場合、指定された特定のデータセンタ間の性能情報を有するEMSが、NSMF72へ性能情報を応答してもよい。
 次に、MDAF73は、NSMF72から性能情報を取得するために、性能情報要求メッセージをNSMF72へ送信する(S12)。次に、NSMF72は、性能情報をMDAF73へ送信するために、性能情報を含む性能情報応答メッセージをMDAF73へ送信する(S13)。MDAF73は、定期的に性能情報要求メッセージを送信し、NSMF72から性能情報を取得してもよい。もしくは、MDAF73は、任意のタイミングに性能情報要求メッセージを送信し、NSMF72から性能情報を取得してもよい。
 次に、MDAF73は、取得した性能情報を用いて、管理している学習モデルを更新する(S14)。学習モデルは、仮想ノードを配備するデータセンタの候補を出力するために用いられる。例えば、学習モデルは、仮想ノードを配備するクラウドの種別が入力された場合に、仮想ノードを配備するデータセンタのペアの少なくとも一つの候補を出力してもよい。クラウドの種別は、例えば、Edge Cloud、Regional Cloud、もしくはCore Cloudを識別する情報であってもよい。学習モデルは、性能情報を用いてデータセンタのペアの候補を出力する。例えば、学習モデルは、サービス要件に含まれる伝送時間の要件を満たすデータセンタのペアの候補を抽出する。
 続いて、図11を用いて、環境状況の管理処理の流れについて説明する。はじめに、VNFは、NSSMF37へソフトウェア(Software:SW)に関する環境状況を通知するために、EMSを介して、NSSMF37へソフトウェア環境状況通知メッセージを送信する(S21)。ソフトウェアに関する環境状況には、例えば、ソフトウェアの障害情報が含まれる。VNFは、例えば、Edge Cloud30内のデータセンタに配備された仮想ノードの機能である。VNFは、Edge Cloud30を管理するEdge Orchestrator35に含まれるNSSMF37へ、ソフトウェアに関する環境状況を通知する。
 次に、NFVIは、NSSMF37へハードウェア(Hardware:HW)に関する環境状況を通知するために、VIMを介してNSSMF37へハードウェア環境状況通知を送信する(S22)。ハードウェアに関する環境状況には、ハードウェアの障害情報及び電力に関する情報を含む。NFVIは、Edge Cloud30内のデータセンタに配備され、ストレージ等の物理リソースを、仮想リソースとして扱うための基盤である。NFVIは、Edge Cloud30を管理するEdge Orchestrator35に含まれるNSSMF37へ、ハードウェアに関する環境状況を通知する。
 VNF及びNFVIは、それぞれ障害等を検知した場合に環境状況をNSSMF37へ送信する。そのため、ステップS21及びS22の順番は、図11に示されている順番と逆になってもよい。
 次に、MDAF38は、NSSMF37から環境状況を取得するために、環境状況要求メッセージをNSSMF37へ送信する(S23)。次に、NSSMF37は、性能情報をMDAF38へ送信するために、環境状況を含む環境状況応答メッセージをMDAF38へ送信する(S24)。MDAF38は、定期的に環境状況要求メッセージを送信し、NSSMF37から環境状況を取得してもよい。もしくは、NSSMF37は、任意のタイミングに環境状況要求メッセージを送信し、NSSMF37から環境状況を取得してもよい。
 次に、MDAF38は、取得した環境状況を用いて、管理している学習モデルを更新する(S25)。学習モデルは、候補となるデータセンタのなかから、仮想ノードを配備するデータセンタを出力するために用いられる。例えば、学習モデルは、仮想ノードを配備するデータセンタの候補が入力された場合に、仮想ノードを配備するデータセンタを出力してもよい。学習モデルは、環境状況を用いてデータセンタを特定する。例えば、学習モデルは、環境状況に関する基準に従って、最適なデータセンタを特定する。最適なデータセンタは、例えば、もっとも可用性もしくは信頼性の高いデータセンタであってもよい。
 続いて、図12を用いて仮想ノードを配備する候補となるデータセンタのペアの抽出処理の流れについて説明する。はじめに、CSMF71は、E2E Orchestrator70を操作する操作者から、仮想ノードの配備要求を受け付ける(S31)。例えば、配備要求には、サービスを提供するエリア、サービス要件に関する情報が含まれてもよい。例えば、サービス要件として、eMBBが指定されており、vCUとvDUとの間の伝送時間が1msec以下であることが指定されているとする。
 次に、CSMF71は、サービスを提供するエリアと、指定されたサービス要件を満たすvCU及びvDUの配備の構成を示す構成情報と、を含む構成通知メッセージをNSMF72へ送信する(S32)。例えば、eMBB、URLCC、及びmMTCのそれぞれと、vCU及びvDUが配備されるクラウド種別とが予め定められているとする。例えば、eMBBが指定された場合、vDUがEdge Cloudに配備され、vCUがRegional Cloudに配備されると定められていてもよい。ここでは、CSMF71は、サービス要件としてeMBBが指定されたため、vDUがEdge Cloudに配備され、vCUがRegional Cloudに配備されることを示す構成通知メッセージをNSMF72へ送信する。
 次に、NSMF72は、サービスを提供するエリア及び仮想ノードの配備の構成を含むDC問い合わせ通知メッセージをMDAF73へ送信する(S33)。MDAF73は、仮想ノード、つまり、vCU及びvDUが配備されるデータセンタのペアを抽出する(S34)。例えば、MDAF73は、サービスを提供するエリアに最も近いEdge Cloudを決定してもよい。この場合、MDAF73は、決定したEdge Cloudに含まれるデータセンタと、複数のRegional Cloudのそれぞれに含まれるデータセンタとの間の伝送時間を用いて候補となるデータセンタのペアを抽出する。MDAF73は、図10において説明した学習モデルを用いて、候補となるデータセンタのペアを抽出する。
 次に、MDAF73は、候補となるデータセンタのペアに関する情報を含むDC応答メッセージをNSMF72へ送信する(S35)。
 続いて、図13を用いて、仮想ノードを配備するデータセンタの決定処理の流れについて説明する。ここでは、図12において説明した、仮想ノードを配備する候補となるデータセンタのペアに関する情報が、NSMF72に通知されていることを前提とする。
 はじめに、NSMF72は、仮想ノードを配備する候補となるデータセンタに関する情報を含む候補DC通知メッセージをNSSMF37へ送信する(S41)。具体的には、NSMF72は、仮想ノードを配備する候補となるデータセンタのペアに含まれるデータセンタのうち、Edge Cloud30に含まれる少なくとも1つのデータセンタに関する情報をNSSMF37へ通知する。また、図13には、NSMF72がNSSMF37へ候補DC通知メッセージを送信することが示されている。しかし、実際には、NSMF72は、Regional CloudのRegional Orchestratorに含まれるNSSMFにも、Regional Cloudに含まれる少なくとも1つのデータセンタに関する情報を通知する。
 次に、NSSMF37は、仮想ノードを配備するデータセンタに関する情報を取得するために、仮想ノードを配備する候補となるデータセンタに関する情報を含むDC問い合わせメッセージをMDAF38へ送信する(S42)。
 次に、MDAF38は、候補となるデータセンタの中から仮想ノードを配備するデータセンタを決定する(S43)。具体的には、MDAF38は、候補となるデータセンタの中から、それぞれのデータセンタに関する環境状況を用いてデータセンタを決定する。MDAF38は、図11において説明した学習モデルを用いて仮想ノードを配備するデータセンタを決定する。
 次に、MDAF38は、決定したデータセンタに関する情報を含むDC応答メッセージをNSSMF37へ送信する(S44)。次に、NSSMF37は、決定したデータセンタに仮想ノードを設定させるために、決定したデータセンタに関する情報を含む仮想ノード設定指示メッセージをMANO36へ送信する(S45)。MANO36は、仮想ノード設定指示メッセージに含まれるデータセンタに、vDUであるVNFを設定する。また、Regional Orchestratorと関連付けられているMANOも、Regional Orchestratorにおいて決定されたデータセンタにvCUであるVNFを設定する。
 以上説明したように、E2E Orchestrator70は、クラウド間におけるデータの伝送時間に基づいて仮想ノードを配備するデータセンタの候補をクラウドにまたがって抽出する。さらに、Edge Cloud30、Regional Cloud40、及びCore Cloud50は、E2E Orchestrator70から通知されたデータセンタの候補の中から環境状況に基づいて、仮想ノードを配備するデータセンタを決定する。これにより、クラウドをまたがった仮想ノードの配備を実現することができる。さらに、性能情報及び環境状況に従ってデータセンタが決定されることによって、サービス要件を満たすデータセンタを決定することができる。さらに、Edge Orchestrator35、Regional Orchestrator45、及びCore Orchestrator55のそれぞれが仮想ノードを配備するデータセンタを特定もしくは決定することによって、処理の負荷を分散することができる。つまり、1つのOrchestratorが仮想ノードを配備する全てのデータセンタを特定する場合と比較して、Edge Orchestrator35、Regional Orchestrator45、及びCore Orchestrator55のそれぞれの処理の負荷を抑えることができる。
 (実施の形態2の変形例)
 仮想ノードを配備するデータセンタを特定するための処理の変形例について説明する。実施の形態2においては、Edge Orchestrator及びRegional Orchestratorのそれぞれが、環境状況に従って、仮想ノードを配備するデータセンタを特定する例について説明した。以下の変形例においては、E2E Orchestrator70が仮想ノードを配備するデータセンタを特定し、Edge Orchestrator及びRegional Orchestrator45は、E2E Orchestrator70において特定されたデータセンタへ、仮想ノードを配備すること、について説明する。
 Edge Orchestrator35に含まれるMDAF38は、環境状況に基づいて、NSMF72から通知された複数のデータセンタの候補に順位を設定してもよい。さらに、Edge Orchestrator35は、複数のデータセンタの候補のそれぞれに設定された順位を示す情報を、NSMF72へ送信する。また、Regional Orchestrator45に含まれるMDAFも同様に、環境状況に基づいて、NSMF72から通知された複数のデータセンタの候補に順位を設定してもよい。さらに、Regional Orchestrator45は、複数のデータセンタの候補のそれぞれに設定された順位を示す情報を、NSMF72へ送信する。
 NSMF72は、Edge Orchestrator35及びRegional Orchestrator45から受信した複数のデータセンタの候補のそれぞれに設定された順位を示す情報をMDAF73へ送信する。
 MDAF73は、図12のステップS34において抽出された、Edge Cloud30に含まれるデータセンタと、Regional Cloud40に含まれるデータセンタとの複数のペアの内、いずれかのペアを特定する。例えば、MDAF73は、伝送時間は、他のペアよりも長くなるものの、環境状況を考慮すると、高可用性を期待できるペアのデータセンタを特定してもよい。もしくは、MDAF73は、環境状況を考慮した可用性については他のペアよりも短くなるものの、伝送時間が短くなるペアのデータセンタを特定してもよい。
 MDAF73は、特定したデータセンタのペアをNSMF72へ出力し、NSMF72が、Edge Orchestrator35に含まれるNSSMF37、及びRegional Orchestrator45に含まれるNSSMFへ、特定されたデータセンタの識別情報を送信してもよい。
 以上説明したように、E2E Orchestrator70は、性能情報によって抽出されたデータセンタのペア単位に、Edge Cloud30においてvDUを配備させるデータセンタと、Regional Cloud40においてvCUを配備させるデータセンタとを決定することができる。
 例えば、それぞれのクラウドのOrchestratorが環境状況に基づいて仮想ノードを配備するデータセンタを特定した場合、特定されたデータセンタが、MDAF73において抽出されたデータセンタのペアと異なる場合もある。この場合、特定されたデータセンタ間の性能情報が、サービス要件を満たさない可能性もある。
 本変形例においては、MDAF73が、環境状況に基づいて設定された順位を考慮し、さらに、性能情報に基づいて抽出されたペア単位にデータセンタを特定するため、サービス要件を満たさないデータセンタを特定する可能性を低くすることができる。
 図14は、Edge Orchestrator35、Regional Orchestrator45、Core Orchestrator55、E2E Orchestrator70(以下、Edge Orchestrator35等とする)の構成例を示すブロック図である。図14を参照すると、Edge Orchestrator35等は、ネットワークインタフェース1201、プロセッサ1202、及びメモリ1203を含む。ネットワークインタフェース1201は、他のネットワークノードと通信するために使用されてもよい。ネットワークインタフェース1201は、例えば、IEEE 802.3 seriesに準拠したネットワークインタフェースカード(NIC)を含んでもよい。
 プロセッサ1202は、メモリ1203からソフトウェア(コンピュータプログラム)を読み出して実行することで、上述の実施形態においてフローチャートを用いて説明されたEdge Orchestrator35等の処理を行う。プロセッサ1202は、例えば、マイクロプロセッサ、MPU、又はCPUであってもよい。プロセッサ1202は、複数のプロセッサを含んでもよい。
 メモリ1203は、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ1203は、プロセッサ1202から離れて配置されたストレージを含んでもよい。この場合、プロセッサ1202は、図示されていないI/O(Input/Output)インタフェースを介してメモリ1203にアクセスしてもよい。
 図14の例では、メモリ1203は、ソフトウェアモジュール群を格納するために使用される。プロセッサ1202は、これらのソフトウェアモジュール群をメモリ1203から読み出して実行することで、上述の実施形態において説明されたEdge Orchestrator35等の処理を行うことができる。
 図14を用いて説明したように、上述の実施形態におけるEdge Orchestrator35等が有するプロセッサの各々は、図面を用いて説明されたアルゴリズムをコンピュータに行わせるための命令群を含む1又は複数のプログラムを実行する。
 上述の例において、プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
 なお、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 第1のエリアに含まれる複数の第1のデータセンタを管理する第1の管理手段と、
 前記第1のエリアとは異なる範囲の第2のエリアに含まれる複数の第2のデータセンタを管理する第2の管理手段と、
 前記第1のデータセンタと前記第2のデータセンタとの間の通信性能情報に基づいて、複数の前記第1のデータセンタの中から、第1の仮想ノードを配備するデータセンタ候補と、複数の前記第2のデータセンタの中から、第2の仮想ノードを配備するデータセンタ候補と、を選択する第3の管理手段と、を備え
 前記第1の管理手段は、
 前記第1の仮想ノードを配備する候補に基づいて、前記第1の仮想ノードを配備する前記第1のデータセンタを特定し、
 前記第2の管理手段は、
 前記第2の仮想ノードを配備する候補に基づいて、前記第2の仮想ノードを配備する前記第2のデータセンタを特定する、管理システム。
 (付記2)
 前記通信性能情報は、
 それぞれの前記第1のデータセンタとそれぞれの前記第2のデータセンタとの間において伝送されるデータの伝送時間である、付記1に記載の管理システム。
 (付記3)
 前記第1の管理手段は、
 複数の前記第1のデータセンタにおける環境状況に基づいて、前記第1の仮想ノードを配備する前記第1のデータセンタを特定し、
 前記第2の管理手段は、
 複数の前記第2のデータセンタにおける環境状況に基づいて、前記第2の仮想ノードを配備する前記第2のデータセンタを特定する、付記1又は2に記載の管理システム。
 (付記4)
 前記環境状況は、
 それぞれの前記第1のデータセンタもしくはそれぞれの前記第2のデータセンタにおける障害頻度もしくは電力消費量を示す、付記3に記載の管理システム。
 (付記5)
 前記第3の管理手段は、
 前記第1の仮想ノード及び前記第2の仮想ノードの機能に応じて、前記第1の仮想ノード及び前記第2の仮想ノードを配備するエリアを特定する、付記1乃至4のいずれか1項に記載の管理システム。
 (付記6)
 前記第1の仮想ノードは、ベースバンド処理を行うDU(Distributed Unit)であり、
 前記第2の仮想ノードは、前記DUが扱うレイヤより上位レイヤのデータを処理するCU(Central Unit)である、付記1乃至5のいずれか1項に記載の管理システム。
 (付記7)
 第1のエリアに含まれる複数の第1のデータセンタと第1のエリアとは異なる範囲の第2のエリアに含まれる複数の第2のデータセンタとの間の通信性能情報に基づいて、複数の前記第1のデータセンタの中から、第1の仮想ノードを配備する候補となる少なくとも1つの前記第1のデータセンタと、複数の前記第2のデータセンタの中から、第2の仮想ノードを配備する候補となる少なくとも1つの前記第2のデータセンタと、を選択する選択部と、
 複数の前記第1のデータセンタを管理する第1の管理手段へ、前記第1の仮想ノードを配備する候補となる少なくとも1つの前記第1のデータセンタに関する情報を送信し、複数の前記第2のデータセンタを管理する第2の管理手段へ、前記第2の仮想ノードを配備する候補となる少なくとも1つの前記第2のデータセンタに関する情報を送信する通信部と、を備える管理装置。
 (付記8)
 前記通信性能情報は、
 それぞれの前記第1のデータセンタとそれぞれの前記第2のデータセンタとの間において伝送されるデータの伝送時間である、付記7に記載の管理装置。
 (付記9)
 前記選択部は、
 前記第1の仮想ノード及び前記第2の仮想ノードの機能に応じて、前記第1の仮想ノード及び前記第2の仮想ノードを配備するエリアを特定する、付記7又は8に記載の管理装置。
 (付記10)
 前記第1の仮想ノードは、ベースバンド処理を行うDU(Distributed Unit)であり、
 前記第2の仮想ノードは、前記DUが扱うレイヤより上位レイヤのデータを処理するCU(Central Unit)である、付記7乃至9のいずれか1項に記載の管理装置。
 (付記11)
 第1のエリアに含まれる複数の第1のデータセンタと前記第1のエリアとは異なる範囲の第2のエリアに含まれる複数の第2のデータセンタとの間の通信性能情報に基づいて、前記複数の前記第1のデータセンタの中から、第1の仮想ノードを配備する候補となる少なくとも1つの前記第1のデータセンタと、前記複数の前記第2のデータセンタの中から、第2の仮想ノードを配備する候補となる少なくとも1つの前記第2のデータセンタと、を選択し、
 前記通信性能情報に基づいて候補として選択された少なくとも1つの前記第1のデータセンタの中から、前記第1の仮想ノードを配備する前記第1のデータセンタを特定し、
 前記通信性能情報に基づいて候補として選択された少なくとも1つの前記第2のデータセンタの中から、前記第2の仮想ノードを配備する前記第2のデータセンタを特定する、管理方法。
 (付記12)
 前記通信性能情報は、
 それぞれの前記第1のデータセンタとそれぞれの前記第2のデータセンタとの間において伝送されるデータの伝送時間である、付記11に記載の管理方法。
 (付記13)
 前記第1のデータセンタを特定する際に、
 複数の前記第1のデータセンタにおける環境状況に基づいて、前記第1の仮想ノードを配備する前記第1のデータセンタを特定し、
 前記第2のデータセンタを特定する際に、
 複数の前記第2のデータセンタにおける環境状況に基づいて、前記第2の仮想ノードを配備する前記第2のデータセンタを特定する、付記11又は12に記載の管理方法。
 (付記14)
 前記環境状況は、
 それぞれの前記第1のデータセンタもしくはそれぞれの前記第2のデータセンタにおける障害頻度もしくは電力消費量を示す、付記13に記載の管理方法。
 (付記15)
 前記第1のデータセンタ及び前記第2のデータセンタを選択する際に、前記第1の仮想ノード及び前記第2の仮想ノードの機能に応じて、前記第1の仮想ノード及び前記第2の仮想ノードを配備するエリアを特定する、付記11乃至14のいずれか1項に記載の管理方法。
 (付記16)
 前記第1の仮想ノードは、ベースバンド処理を行うDU(Distributed Unit)であり、
 前記第2の仮想ノードは、前記DUが扱うレイヤより上位レイヤのデータを処理するCU(Central Unit)である、付記11乃至15のいずれか1項に記載の管理方法。
 (付記17)
 第1のエリアに含まれる複数の第1のデータセンタと第1のエリアとは異なる範囲の第2のエリアに含まれる複数の第2のデータセンタとの間の通信性能情報に基づいて、複数の前記第1のデータセンタの中から、第1の仮想ノードを配備する候補となる少なくとも1つの前記第1のデータセンタと、複数の前記第2のデータセンタの中から、第2の仮想ノードを配備する候補となる少なくとも1つの前記第2のデータセンタと、を選択し、
 複数の前記第1のデータセンタを管理する第1の管理手段へ、前記第1の仮想ノードを配備する候補となる少なくとも1つの前記第1のデータセンタに関する情報を送信し、複数の前記第2のデータセンタを管理する第2の管理手段へ、前記第2の仮想ノードを配備する候補となる少なくとも1つの前記第2のデータセンタに関する情報を送信する、管理方法。
 (付記18)
 前記通信性能情報は、
 それぞれの前記第1のデータセンタとそれぞれの前記第2のデータセンタとの間において伝送されるデータの伝送時間である、付記17に記載の管理方法。
 (付記19)
 前記第1のデータセンタ及び前記第2のデータセンタを選択する際に、
 仮想ノードの機能に応じて、前記仮想ノードを配備するエリアを特定する、付記17又は18のいずれか1項に記載の管理方法。
 (付記20)
 前記第1の仮想ノードは、ベースバンド処理を行うDU(Distributed Unit)であり、
 前記第2の仮想ノードは、前記DUが扱うレイヤより上位レイヤのデータを処理するCU(Central Unit)である、付記17乃至19のいずれか1項に記載の管理方法。
 なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
 10 エリア
 11 管理手段
 12 データセンタ
 15 管理装置
 16 DC管理部
 17 特定部
 20 エリア
 21 管理手段
 22 データセンタ
 30 Edge Cloud
 31 Edge Cloud
 35 Edge Orchestrator
 36 MANO
 37 NSSMF
 38 MDAF
 40 Regional Cloud
 41 Regional Cloud
 45 Regional Orchestrator
 46 MANO
 50 Core Cloud
 55 Core Orchestrator
 56 MANO
 60 Cell site
 61 Cell site
 62 Cell site
 70 E2E Orchestrator
 71 CSMF
 72 NSMF
 73 MDAF
 110 管理手段
 150 管理装置
 160 選択部
 170 通信部

Claims (20)

  1.  第1のエリアに含まれる複数の第1のデータセンタを管理する第1の管理手段と、
     前記第1のエリアとは異なる範囲の第2のエリアに含まれる複数の第2のデータセンタを管理する第2の管理手段と、
     前記第1のデータセンタと前記第2のデータセンタとの間の通信性能情報に基づいて、複数の前記第1のデータセンタの中から、第1の仮想ノードを配備するデータセンタ候補と、複数の前記第2のデータセンタの中から、第2の仮想ノードを配備するデータセンタ候補と、を選択する第3の管理手段と、を備え
     前記第1の管理手段は、
     前記第1の仮想ノードを配備する候補に基づいて、前記第1の仮想ノードを配備する前記第1のデータセンタを特定し、
     前記第2の管理手段は、
     前記第2の仮想ノードを配備する候補に基づいて、前記第2の仮想ノードを配備する前記第2のデータセンタを特定する、管理システム。
  2.  前記通信性能情報は、
     それぞれの前記第1のデータセンタとそれぞれの前記第2のデータセンタとの間において伝送されるデータの伝送時間である、請求項1に記載の管理システム。
  3.  前記第1の管理手段は、
     複数の前記第1のデータセンタにおける環境状況に基づいて、前記第1の仮想ノードを配備する前記第1のデータセンタを特定し、
     前記第2の管理手段は、
     複数の前記第2のデータセンタにおける環境状況に基づいて、前記第2の仮想ノードを配備する前記第2のデータセンタを特定する、請求項1又は2に記載の管理システム。
  4.  前記環境状況は、
     それぞれの前記第1のデータセンタもしくはそれぞれの前記第2のデータセンタにおける障害頻度もしくは電力消費量を示す、請求項3に記載の管理システム。
  5.  前記第3の管理手段は、
     前記第1の仮想ノード及び前記第2の仮想ノードの機能に応じて、前記第1の仮想ノード及び前記第2の仮想ノードを配備するエリアを特定する、請求項1乃至4のいずれか1項に記載の管理システム。
  6.  前記第1の仮想ノードは、ベースバンド処理を行うDU(Distributed Unit)であり、
     前記第2の仮想ノードは、前記DUが扱うレイヤより上位レイヤのデータを処理するCU(Central Unit)である、請求項1乃至5のいずれか1項に記載の管理システム。
  7.  第1のエリアに含まれる複数の第1のデータセンタと第1のエリアとは異なる範囲の第2のエリアに含まれる複数の第2のデータセンタとの間の通信性能情報に基づいて、複数の前記第1のデータセンタの中から、第1の仮想ノードを配備する候補となる少なくとも1つの前記第1のデータセンタと、複数の前記第2のデータセンタの中から、第2の仮想ノードを配備する候補となる少なくとも1つの前記第2のデータセンタと、を選択する選択部と、
     複数の前記第1のデータセンタを管理する第1の管理手段へ、前記第1の仮想ノードを配備する候補となる少なくとも1つの前記第1のデータセンタに関する情報を送信し、複数の前記第2のデータセンタを管理する第2の管理手段へ、前記第2の仮想ノードを配備する候補となる少なくとも1つの前記第2のデータセンタに関する情報を送信する通信部と、を備える管理装置。
  8.  前記通信性能情報は、
     それぞれの前記第1のデータセンタとそれぞれの前記第2のデータセンタとの間において伝送されるデータの伝送時間である、請求項7に記載の管理装置。
  9.  前記選択部は、
     前記第1の仮想ノード及び前記第2の仮想ノードの機能に応じて、前記第1の仮想ノード及び前記第2の仮想ノードを配備するエリアを特定する、請求項7又は8に記載の管理装置。
  10.  前記第1の仮想ノードは、ベースバンド処理を行うDU(Distributed Unit)であり、
     前記第2の仮想ノードは、前記DUが扱うレイヤより上位レイヤのデータを処理するCU(Central Unit)である、請求項7乃至9のいずれか1項に記載の管理装置。
  11.  第1のエリアに含まれる複数の第1のデータセンタと前記第1のエリアとは異なる範囲の第2のエリアに含まれる複数の第2のデータセンタとの間の通信性能情報に基づいて、前記複数の前記第1のデータセンタの中から、第1の仮想ノードを配備する候補となる少なくとも1つの前記第1のデータセンタと、前記複数の前記第2のデータセンタの中から、第2の仮想ノードを配備する候補となる少なくとも1つの前記第2のデータセンタと、を選択し、
     前記通信性能情報に基づいて候補として選択された少なくとも1つの前記第1のデータセンタの中から、前記第1の仮想ノードを配備する前記第1のデータセンタを特定し、
     前記通信性能情報に基づいて候補として選択された少なくとも1つの前記第2のデータセンタの中から、前記第2の仮想ノードを配備する前記第2のデータセンタを特定する、管理方法。
  12.  前記通信性能情報は、
     それぞれの前記第1のデータセンタとそれぞれの前記第2のデータセンタとの間において伝送されるデータの伝送時間である、請求項11に記載の管理方法。
  13.  前記第1のデータセンタを特定する際に、
     複数の前記第1のデータセンタにおける環境状況に基づいて、前記第1の仮想ノードを配備する前記第1のデータセンタを特定し、
     前記第2のデータセンタを特定する際に、
     複数の前記第2のデータセンタにおける環境状況に基づいて、前記第2の仮想ノードを配備する前記第2のデータセンタを特定する、請求項11又は12に記載の管理方法。
  14.  前記環境状況は、
     それぞれの前記第1のデータセンタもしくはそれぞれの前記第2のデータセンタにおける障害頻度もしくは電力消費量を示す、請求項13に記載の管理方法。
  15.  前記第1のデータセンタ及び前記第2のデータセンタを選択する際に、前記第1の仮想ノード及び前記第2の仮想ノードの機能に応じて、前記第1の仮想ノード及び前記第2の仮想ノードを配備するエリアを特定する、請求項11乃至14のいずれか1項に記載の管理方法。
  16.  前記第1の仮想ノードは、ベースバンド処理を行うDU(Distributed Unit)であり、
     前記第2の仮想ノードは、前記DUが扱うレイヤより上位レイヤのデータを処理するCU(Central Unit)である、請求項11乃至15のいずれか1項に記載の管理方法。
  17.  第1のエリアに含まれる複数の第1のデータセンタと第1のエリアとは異なる範囲の第2のエリアに含まれる複数の第2のデータセンタとの間の通信性能情報に基づいて、複数の前記第1のデータセンタの中から、第1の仮想ノードを配備する候補となる少なくとも1つの前記第1のデータセンタと、複数の前記第2のデータセンタの中から、第2の仮想ノードを配備する候補となる少なくとも1つの前記第2のデータセンタと、を選択し、
     複数の前記第1のデータセンタを管理する第1の管理手段へ、前記第1の仮想ノードを配備する候補となる少なくとも1つの前記第1のデータセンタに関する情報を送信し、複数の前記第2のデータセンタを管理する第2の管理手段へ、前記第2の仮想ノードを配備する候補となる少なくとも1つの前記第2のデータセンタに関する情報を送信する、管理方法。
  18.  前記通信性能情報は、
     それぞれの前記第1のデータセンタとそれぞれの前記第2のデータセンタとの間において伝送されるデータの伝送時間である、請求項17に記載の管理方法。
  19.  前記第1のデータセンタ及び前記第2のデータセンタを選択する際に、
     仮想ノードの機能に応じて、前記仮想ノードを配備するエリアを特定する、請求項17又は18のいずれか1項に記載の管理方法。
  20.  前記第1の仮想ノードは、ベースバンド処理を行うDU(Distributed Unit)であり、
     前記第2の仮想ノードは、前記DUが扱うレイヤより上位レイヤのデータを処理するCU(Central Unit)である、請求項17乃至19のいずれか1項に記載の管理方法。
PCT/JP2021/036232 2021-09-30 2021-09-30 管理システム、管理装置、及び管理方法 WO2023053381A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/036232 WO2023053381A1 (ja) 2021-09-30 2021-09-30 管理システム、管理装置、及び管理方法
JP2023550940A JPWO2023053381A1 (ja) 2021-09-30 2021-09-30

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/036232 WO2023053381A1 (ja) 2021-09-30 2021-09-30 管理システム、管理装置、及び管理方法

Publications (1)

Publication Number Publication Date
WO2023053381A1 true WO2023053381A1 (ja) 2023-04-06

Family

ID=85781605

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/036232 WO2023053381A1 (ja) 2021-09-30 2021-09-30 管理システム、管理装置、及び管理方法

Country Status (2)

Country Link
JP (1) JPWO2023053381A1 (ja)
WO (1) WO2023053381A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015194949A (ja) * 2014-03-31 2015-11-05 株式会社Nttドコモ 管理システム及び管理方法
CN108400998A (zh) * 2017-02-07 2018-08-14 华为技术有限公司 一种部署vnf的方法和系统
CN111092743A (zh) * 2018-10-24 2020-05-01 中国移动通信有限公司研究院 一种虚拟链路监控方法、装置和存储介质
US20210132980A1 (en) * 2019-11-04 2021-05-06 Vmware, Inc. Multi-site virtual infrastructure orchestration of network service in hybrid cloud environments

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015194949A (ja) * 2014-03-31 2015-11-05 株式会社Nttドコモ 管理システム及び管理方法
CN108400998A (zh) * 2017-02-07 2018-08-14 华为技术有限公司 一种部署vnf的方法和系统
CN111092743A (zh) * 2018-10-24 2020-05-01 中国移动通信有限公司研究院 一种虚拟链路监控方法、装置和存储介质
US20210132980A1 (en) * 2019-11-04 2021-05-06 Vmware, Inc. Multi-site virtual infrastructure orchestration of network service in hybrid cloud environments

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YU TSUKAMOTO, HARUHISA HIRAYAMA, SHINOBU NAMBA, KOSA NISHIMURA: "Demonstration of Two-Level Scheduling for RAN Slicing in Multi-CU/DU Architecture", IEICE TECHNICAL REPORT, vol. 119, no. 101, 1 January 2019 (2019-01-01), JP , pages 133 - 136, XP009536157, ISSN: 2432-6380 *

Also Published As

Publication number Publication date
JPWO2023053381A1 (ja) 2023-04-06

Similar Documents

Publication Publication Date Title
US10481935B2 (en) Management system, overall management node, and management method for managing virtualization resources in a mobile communication network
Singh et al. Machine-learning-based prediction for resource (re) allocation in optical data center networks
Yao et al. On fast and coordinated data backup in geo-distributed optical inter-datacenter networks
US10481953B2 (en) Management system, virtual communication-function management node, and management method for managing virtualization resources in a mobile communication network
CN102084340B (zh) 用于虚拟机的流量转发
US10404616B2 (en) Virtual resource automatic selection system and method
EP3793206B1 (en) Physical optical network virtualization mapping method and apparatus, and controller and storage medium
US10887019B2 (en) Multi-layer system optimization
CN110580198A (zh) OpenStack计算节点自适应切换为控制节点的方法及装置
WO2023053381A1 (ja) 管理システム、管理装置、及び管理方法
Di Cicco et al. Optimization over time of reliable 5G-RAN with network function migrations
Bruschi et al. Validation of IaaS-based technologies for 5G-ready applications deployment
US10784963B2 (en) Multi-layer system capacity planning
Overbeck et al. Design of a 5G Network Slicing Architecture for Mixed-Critical Services in Cellular Energy Systems
Skorin-Kapov et al. Scheduled virtual topology design under periodic traffic in transparent optical networks
Zanzi et al. Latency-driven network slices orchestration
CN115361388B (zh) 一种边缘云计算系统中的资源调度方法及装置
WO2021251212A1 (ja) 仮想化リソース配備装置、仮想化リソース配備方法及び非一時的なコンピュータ可読媒体
Tzanakaki et al. Wireless and wired network convergence in support of cloud and mobile cloud services: The CONTENT Approach
US20240098565A1 (en) Reconfiguring control plane in open radio access networks
US20240015790A1 (en) System and method of enabling a self organizing network in open ran
WO2023058135A1 (ja) ロケーション決定システム及びロケーション決定方法
CN114666233B (zh) 一种网络资源的请求方法及其相关设备
CN114697219B (zh) 网络控制方法、直播网络的控制方法、设备及系统
WO2023058133A1 (ja) アクション実行システム及びその制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21959416

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023550940

Country of ref document: JP