WO2023157200A1 - スケーリング制御システム及びスケーリング制御方法 - Google Patents

スケーリング制御システム及びスケーリング制御方法 Download PDF

Info

Publication number
WO2023157200A1
WO2023157200A1 PCT/JP2022/006488 JP2022006488W WO2023157200A1 WO 2023157200 A1 WO2023157200 A1 WO 2023157200A1 JP 2022006488 W JP2022006488 W JP 2022006488W WO 2023157200 A1 WO2023157200 A1 WO 2023157200A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
scale
service
providing means
service providing
Prior art date
Application number
PCT/JP2022/006488
Other languages
English (en)
French (fr)
Inventor
真也 北
Original Assignee
楽天モバイル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 楽天モバイル株式会社 filed Critical 楽天モバイル株式会社
Priority to PCT/JP2022/006488 priority Critical patent/WO2023157200A1/ja
Publication of WO2023157200A1 publication Critical patent/WO2023157200A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0896Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
    • H04L41/0897Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities by horizontal or vertical scaling of resources, or by migrating entities, e.g. virtual resources or entities

Definitions

  • the present invention relates to a scaling control system and a scaling control method.
  • VNF Virtualized Network Function
  • Patent Document 1 describes scaling out and scaling in of a virtual network according to a schedule based on the schedule of events such as concerts.
  • Patent Document 2 describes that a lifecycle such as scale-out or scale-in is executed when the current date and time correspond to the specified date and time of the registered lifecycle execution conditions.
  • the present invention has been made in view of the above circumstances, and one of its objects is to provide a scaling control system capable of timely scaling-in a service providing means after scaling-out of the service providing means;
  • An object of the present invention is to provide a scaling control method.
  • a scaling control system includes scale-out means for executing scale-out of service providing means for providing communication services, and The scale-out in the future is executed based on the actual value of the utilization status of the communication service independent of the scale of the service providing means and the scale of the service providing means before the scale-out is started.
  • a calculating means for calculating an index value indicating the usage status of the communication service depending on the scale of the service providing means in a previous situation;
  • a scale-in means for initiating scale-in of the service providing means.
  • the actual value of the usage status of the communication service that does not depend on the scale of the service providing means is a performance value that indicates the total processing load that needs to be processed by the service providing means.
  • the actual value of the usage status of the communication service that does not depend on the scale of the service providing means is at least one actual value of the total throughput of the communication service or the total number of users of the communication service. There may be.
  • the index value indicating the usage status of the communication service dependent on the scale of the service providing means is a performance index value indicating service quality of the communication service.
  • the index value indicating the usage status of the communication service that depends on the scale of the service providing means may be an average throughput per UE (User Equipment) in the area covered by the communication service.
  • the scale-in means determines that a combination of the calculated index value and the actual value of the usage status of the communication service indicated by the index value satisfies a predetermined condition. In response, scale-in of the service providing means is initiated.
  • the scale-out means scales out a UPF (User Plane Function) included in the service provision means, and the scale of the service provision means is included in the service provision means. is the number of UPFs.
  • UPF User Plane Function
  • the scaling control method comprises the steps of: performing scale-out of a service providing means for providing a communication service; The provision of the service in a situation before the scale-out is executed in the future based on the actual value of the utilization status of the communication service that is not used and the scale of the service provision means before the scale-out is started. calculating an index value indicating the usage status of the communication service depending on the scale of the means; and starting scaling-in of the service providing means in response to the calculated index value satisfying a predetermined condition. and a step.
  • FIG. 1 is a diagram schematically showing an example of network services according to one embodiment of the present invention
  • FIG. It is a figure which shows an example of the association between the elements built in the communication system which concerns on one Embodiment of this invention.
  • 1 is a functional block diagram showing an example of functions implemented in a platform system according to one embodiment of the present invention
  • FIG. 4 is a diagram showing an example of the data structure of physical inventory data
  • FIG. 4 is a diagram showing an example of time-series total processing load amount data
  • FIG. 4 is a diagram schematically showing an example of a learned machine learning model
  • FIG. 4 is a diagram schematically showing an example of learning of a machine learning model
  • It is a figure which shows an example of prediction result data.
  • It is a figure which shows an example of prediction result data.
  • FIG. 4 is a flow chart showing an example of the flow of processing performed by the platform system according to one embodiment of the present invention
  • FIG. 1 and 2 are diagrams showing an example of a communication system 1 according to an embodiment of the present invention.
  • FIG. 1 is a diagram focusing on the locations of the data centers included in the communication system 1.
  • FIG. 2 is a diagram focusing on various computer systems implemented in a group of data centers included in the communication system 1. As shown in FIG.
  • the data centers included in the communication system 1 are classified into a central data center 10, regional data centers 12, and edge data centers 14.
  • central data centers 10 are distributed within the area covered by the communication system 1 (for example, within Japan).
  • dozens of regional data centers 12 are distributed within the area covered by the communication system 1 .
  • the area covered by the communication system 1 is all over Japan, one or two regional data centers 12 may be arranged in each prefecture.
  • each of the edge data centers 14 can communicate with a communication facility 18 having an antenna 16 .
  • Communication facility 18 may include computers, such as server computers.
  • a communication facility 18 according to this embodiment performs wireless communication with a UE (User Equipment) 20 via an antenna 16 .
  • a communication facility 18 having an antenna 16 is provided with, for example, an RU (Radio Unit), which will be described later.
  • a plurality of servers are arranged in each of the central data center 10, the regional data center 12, and the edge data center 14 according to this embodiment.
  • the central data center 10, the regional data center 12, and the edge data center 14 can communicate with each other. Also, the central data centers 10, the regional data centers 12, and the edge data centers 14 can communicate with each other.
  • the communication system 1 includes a platform system 30, multiple radio access networks (RAN) 32, multiple core network systems 34, and multiple UEs 20.
  • Core network system 34, RAN 32, and UE 20 cooperate with each other to realize a mobile communication network.
  • the RAN 32 is a computer system equipped with an antenna 16, which corresponds to eNB (eNodeB) in 4G and gNB (NR base station) in 5G.
  • the RAN 32 according to this embodiment is mainly implemented by a group of servers and communication equipment 18 located in the edge data center 14 .
  • part of the RAN 32 for example, vDU (virtual distributed unit) and vCU (virtual central unit) in 4G, DU (distributed unit) and CU (central unit) in 5G
  • vDU virtual distributed unit
  • vCU virtual central unit
  • DU distributed unit
  • CU central unit
  • the core network system 34 is an EPC (Evolved Packet Core) in the 4th generation mobile communication system (hereinafter referred to as 4G) and a 5G core (5GC) in the 5th generation mobile communication system (hereinafter referred to as 5G). This is the corresponding system.
  • the core network system 34 according to this embodiment is mainly implemented by a group of servers arranged in the central data center 10 and the regional data centers 12 .
  • the platform system 30 is configured on a cloud platform, for example, and includes a processor 30a, a storage unit 30b, and a communication unit 30c, as shown in FIG.
  • the processor 30 a is a program-controlled device such as a microprocessor that operates according to programs installed in the platform system 30 .
  • the storage unit 30b is, for example, a storage element such as ROM or RAM, a solid state drive (SSD), a hard disk drive (HDD), or the like.
  • the storage unit 30b stores programs and the like executed by the processor 30a.
  • the communication unit 30c is, for example, a communication interface such as a NIC or a wireless LAN module. Note that SDN (Software-Defined Networking) may be implemented in the communication unit 30c.
  • the communication unit 30 c exchanges data with the RAN 32 and the core network system 34 .
  • the platform system 30 is implemented by a group of servers located in the central data center 10. Note that the platform system 30 may be implemented by a group of servers arranged in the regional data center 12 .
  • the requested network service is built in the RAN 32 or the core network system 34 . Then, the constructed network service is provided to the purchaser.
  • NS network service
  • network services such as voice communication services and data communication services are provided to purchasers who are MVNOs (Mobile Virtual Network Operators).
  • the voice communication service and data communication service provided by this embodiment are ultimately for the customer (end user) for the purchaser (MVNO in the above example) who uses the UE 20 shown in FIGS. will be provided.
  • the end user is able to perform voice and data communications with other users via RAN 32 and core network system 34 .
  • the end user UE 20 can access a data network such as the Internet via the RAN 32 and the core network system 34 .
  • IoT services may be provided to end users who use robot arms, connected cars, and the like.
  • an end user who uses a robot arm or a connected car may be the purchaser of the network service according to this embodiment.
  • a container-type application execution environment such as Docker is installed in the servers located in the central data center 10, the regional data center 12, and the edge data center 14. You can now deploy and run containers on your server.
  • a cluster Kernetes cluster
  • a container management tool such as Kubernetes may be constructed. Then, the processors on the constructed cluster may execute container-type applications.
  • the network service provided to the purchaser in this embodiment is composed of one or more functional units (eg, network function (NF)).
  • the functional unit is implemented by a CNF (Containerized Network Function), which is a container-based functional unit.
  • CNF Containerized Network Function
  • the functional units according to the present embodiment may correspond to network nodes.
  • FIG. 3 is a diagram schematically showing an example of network services in operation corresponding to an example of "service providing means for providing communication services" described in the claims.
  • the network services shown in FIG. 3 are subsystems of the communication system 1 .
  • the network service shown in FIG. 3 includes NFs such as multiple RUs 40, multiple DUs 42, multiple CUs 44, and multiple UPFs (User Plane Functions) 46 as software elements.
  • NFs such as multiple RUs 40, multiple DUs 42, multiple CUs 44, and multiple UPFs (User Plane Functions) 46 as software elements.
  • the network service includes other software elements such as AMF (Access and Mobility Management Function) and SMF (Session Management Function), but descriptions of these elements are omitted.
  • Network services are implemented on computer resources (hardware elements) such as multiple servers.
  • multiple RUs 40, multiple DUs 42, multiple CUs 44, and multiple UPFs 46 shown in FIG. 3 belong to one end-to-end network slice.
  • FIG. 4 is a diagram schematically showing an example of associations between elements constructed in the communication system 1 in this embodiment.
  • NS network services
  • NF network functions
  • CNFCs Containerized Network Function Components
  • pods and containers have a hierarchical structure.
  • An NS corresponds to a network service composed of multiple NFs, for example, as shown in FIG.
  • the NS may correspond to granularity elements such as 5GC, EPC, 5G RAN (gNB), 4G RAN (eNB), and the like.
  • NF corresponds to granular elements such as DU42, CU44, UPF46, etc. in 5G.
  • NF corresponds to a granularity factor such as AMF and SMF.
  • NF corresponds to granular elements such as MME (Mobility Management Entity), HSS (Home Subscriber Server), S-GW (Serving Gateway), vDU, and vCU.
  • MME Mobility Management Entity
  • HSS Home Subscriber Server
  • S-GW Serving Gateway
  • vDU Visitor Gateway
  • vCU vCU.
  • one NS includes one or more NFs. That is, one or more NFs are subordinate to one NS.
  • CNFC corresponds to granular elements such as DU mgmt and DU Processing.
  • a CNFC may be a microservice deployed as one or more containers on a server.
  • a CNFC may be a microservice that provides some of the functionality of DU 42, CU 44, and so on.
  • a CNFC may also be a microservice that provides some of the functions of UPF 46, AMF, SMF, etc.
  • one NF includes one or more CNFCs. That is, one or more CNFCs are subordinate to one NF.
  • a pod refers to the smallest unit for managing Docker containers in Kubernetes.
  • one CNFC includes one or more pods. That is, one or more pods are subordinate to one CNFC.
  • one pod contains one or more containers. That is, one or more containers are subordinate to one pod.
  • network slices (NSI) and network slice subnet instances (NSSI) have a hierarchical structure.
  • the NSI can also be said to be an end-to-end virtual circuit spanning multiple domains (eg, from RAN 32 to core network system 34).
  • the NSI may be a slice for high-speed large-capacity communication (e.g., eMBB), a slice for high-reliability and low-delay communication (e.g., URLLC), or a slice for connection of a large number of terminals (e.g., mMTC). good.
  • the NSSI can also be said to be a single domain virtual circuit that is a division of the NSI.
  • the NSSI may be a slice of the RAN domain, a slice of the Mobile Back Haul (MBH) domain, or a slice of the core network domain.
  • MMH Mobile Back Haul
  • one NSI includes one or more NSSIs. That is, one or more NSSIs are subordinate to one NSI. Note that in this embodiment, multiple NSIs may share the same NSSI.
  • NSSI and NS generally have a many-to-many relationship.
  • one NF can belong to one or more network slices.
  • NSSAI Network Slice Selection Assistance Information
  • S-NSSAI Sub Network Slice Selection Assist Information
  • S-NSSAI is information associated with a network slice. Note that the NF may not belong to any network slice.
  • FIG. 5 is a functional block diagram showing an example of functions implemented in the platform system 30 according to this embodiment. Note that the platform system 30 according to the present embodiment does not need to implement all the functions shown in FIG. 5, and functions other than the functions shown in FIG. 5 may be installed.
  • the platform system 30 functionally includes, for example, an operation support system (OSS) unit 50, an orchestration (E2EO: End-to-End-Orchestration) unit 52, a service A catalog storage unit 54, an AI/big data processing unit 56, a monitoring function unit 58, an SDN controller 60, a configuration management unit 62, a container management unit 64, and a repository unit 66 are included.
  • the OSS section 50 includes an inventory database 70 , a ticket management section 72 , a failure management section 74 and a performance management section 76 .
  • the E2EO unit 52 includes a policy manager unit 80, a slice manager unit 82, and a life cycle management unit 84. These elements are mainly implemented by a processor 30a, a storage unit 30b, and a communication unit 30c.
  • the above functions may be implemented by causing the processor 30a to execute a program containing instructions corresponding to the above functions, installed in the platform system 30, which is a computer.
  • This program may be supplied to the platform system 30 via computer-readable information storage media such as optical discs, magnetic discs, magnetic tapes, magneto-optical discs, and flash memory, or via the Internet.
  • the above functions may be implemented by circuit blocks, memories, and other LSIs. Also, those skilled in the art will understand that the above functions can be realized in various forms by hardware alone, software alone, or a combination thereof.
  • the container management unit 64 executes container lifecycle management, including container construction such as container deployment and configuration.
  • the platform system 30 may include a plurality of container management units 64 .
  • a container management tool such as Kubernetes and a package manager such as Helm may be installed in each of the plurality of container management units 64 .
  • each of the plurality of container management units 64 may execute container construction such as container deployment on a server group (Kubernetes cluster) associated with the container management unit 64 .
  • the container management unit 64 need not be included in the platform system 30.
  • the container management unit 64 is provided in, for example, a server managed by the container management unit 64 (that is, the RAN 32 or the core network system 34), or a server attached to the server managed by the container management unit 64. may be
  • the repository unit 66 stores, for example, container images of containers included in functional unit groups (for example, NF groups) that implement network services.
  • functional unit groups for example, NF groups
  • the inventory database 70 is, for example, a database that stores inventory information about multiple servers located in the RAN 32 and the core network system 34 managed by the platform system 30 in this embodiment.
  • the inventory database 70 stores inventory data including physical inventory data and logical inventory data.
  • the inventory data indicates the configuration of the element group included in the communication system 1 and the current state of association between the elements.
  • the inventory data also indicates the status of resources managed by the platform system 30 (for example, resource usage status).
  • FIG. 6 is a diagram showing an example of the data structure of physical inventory data.
  • the physical inventory data shown in FIG. 6 are associated with one server.
  • the physical inventory data shown in FIG. 6 includes, for example, server IDs, location data, building data, floor data, rack data, spec data, network data, operating container ID list, cluster IDs, and the like.
  • the server ID included in the physical inventory data is, for example, the identifier of the server associated with the physical inventory data.
  • the location data included in the physical inventory data is, for example, data indicating the location of the server associated with the physical inventory data (for example, the address of the location).
  • the building data included in the physical inventory data is, for example, data indicating the building (eg building name) where the server associated with the physical inventory data is located.
  • the floor number data included in the physical inventory data is, for example, data indicating the floor number on which the server associated with the physical inventory data is located.
  • the rack data included in the physical inventory data is, for example, the identifier of the rack in which the server associated with the physical inventory data is located.
  • the spec data included in the physical inventory data is data that indicates the specs of the server, such as the number of cores, memory capacity, hard disk capacity, etc. of the server associated with the physical inventory data.
  • the network data included in the physical inventory data is, for example, data indicating the NICs provided in the server associated with the physical inventory data, the number of ports provided in the NICs, the port ID of each port, and the like.
  • the active container ID list included in the physical inventory data is, for example, data indicating a list of instance identifiers (container IDs) of one or more containers operating on the server associated with the physical inventory data.
  • the cluster ID included in the physical inventory data is, for example, the identifier of the cluster (for example, the Kubernetes cluster) to which the server associated with the physical inventory data belongs.
  • the logical inventory data includes topology data indicating the current state of association between elements as shown in FIG. 4 for multiple elements included in the communication system 1 .
  • logical inventory data includes topology data that includes the identifier of a certain NS and the identifiers of one or more NFs under the NS.
  • the logical inventory data includes topology data including an identifier of a network slice and identifiers of one or more NFs belonging to the network slice.
  • the inventory data may indicate the current situation such as geographical relationships and topological relationships between elements included in the communication system 1 .
  • the inventory data described above includes location data indicating the location at which the elements included in the communication system 1 are operating, ie, the current locations of the elements included in the communication system 1 . From this, it can be said that the above-mentioned inventory data shows the current status of geographical relationships between elements (for example, geographical proximity between elements).
  • the logical inventory data may include NSI data, which is data indicating attributes such as the identifier of the network slice instance and the type of the network slice.
  • the logical inventory data may also include NSSI data, which is data indicating attributes such as the identifier of the instance of the network slice subnet and the type of the network slice.
  • the logical inventory data may include NS data, which is data indicating attributes such as the identifier of the NS instance and the type of the NS.
  • the logical inventory data may include NF data indicating attributes such as the identifier of the instance of the NF and the type of the NF.
  • the logical inventory data may include CNFC data indicating attributes such as the identifier of the CNFC instance and the type of the CNFC.
  • the logical inventory data may include pod data indicating attributes such as the identifier of the pod instance included in the CNFC and the type of the pod.
  • the logical inventory data may include container data indicating attributes such as the container ID of the instance of the container included in the pod and the type of the container.
  • a container instance is associated with a server on which the container instance is running by the container ID of the container data included in the logical inventory data and the container ID included in the operating container ID list included in the physical inventory data.
  • container data may include data indicating the IP address of the container corresponding to the container data.
  • CNFC data may include data indicating the IP address and host name of the CNFC indicated by the CNFC data.
  • the logical inventory data may include data indicating NSSAIs including one or more S-NSSAIs set in each NF.
  • the inventory database 70 cooperates with the container management unit 64 so that the status of resources can be properly grasped. Then, the inventory database 70 appropriately updates the inventory data stored in the inventory database 70 based on the latest resource status. Further, for example, actions such as construction of new elements included in the communication system 1, configuration change of elements included in the communication system 1, scaling of elements included in the communication system 1, and replacement of elements included in the communication system 1 are performed. In response to being executed, the inventory database 70 updates the inventory data stored in the inventory database 70 .
  • the service catalog storage unit 54 stores, for example, service catalog data in this embodiment.
  • the service catalog data may include, for example, service template data that indicates the logic used by the lifecycle management unit 84.
  • This service template data includes information necessary for constructing a network service.
  • the service template data includes information defining NS, NF, and CNFC, and information indicating the correspondence between NS-NF-CNFC.
  • the service template data includes workflow scripts for constructing network services.
  • the service catalog data may include information on thresholds (for example, thresholds for anomaly detection) that are used by the policy manager unit 80 and compared with the calculated performance index values.
  • the service catalog data may include, for example, slice template data that indicates the logic used by the slice manager unit 82.
  • Slice template data contains the information necessary to perform instantiation of network slices.
  • the slice template data includes "Generic Network Slice Template” information defined by the GSMA (GSM Association) ("GSM” is a registered trademark). Specifically, the slice template data includes network slice template data (NST), network slice subnet template data (NSST), and network service template data. The slice template data also includes information indicating the hierarchical configuration of these elements as shown in FIG.
  • the lifecycle management unit 84 builds a new network service for which a purchase request has been made, in response to a purchase request for an NS from a purchaser.
  • the lifecycle management unit 84 may execute a workflow script associated with the purchased network service in response to a purchase request. By executing this workflow script, the lifecycle management unit 84 may instruct the container management unit 64 to deploy the container included in the new network service to be purchased. Then, the container management unit 64 may acquire the container image of the container from the repository unit 66 and deploy the container corresponding to the container image to the server.
  • the life cycle management unit 84 executes scaling and replacement of elements included in the communication system 1, for example.
  • the lifecycle management unit 84 may output a container deployment instruction or a container deletion instruction to the container management unit 64 .
  • the container management unit 64 may execute processes such as container deployment and container deletion according to the instructions.
  • the life cycle management unit 84 can perform scaling and replacement that the Kubernetes of the container management unit 64 cannot handle.
  • the life cycle management unit 84 may output configuration management instructions to the configuration management unit 62 for newly constructed element groups and existing elements to which new settings are input. Then, the configuration management unit 62 may perform configuration management such as setting according to the configuration management instruction.
  • the lifecycle management unit 84 may output to the SDN controller 60 an instruction to create a communication path between two IP addresses associated with the two IP addresses.
  • the slice manager unit 82 instantiates a network slice, for example, in this embodiment.
  • the slice manager unit 82 instantiates network slices by, for example, executing logic indicated by slice templates stored in the service catalog storage unit 54 .
  • the slice manager unit 82 includes, for example, NSMF (Network Slice Management Function) and NSSMF (Network Slice Sub-network Management Function) functions described in the 3GPP specification "TS28 533".
  • NSMF Network Slice Management Function
  • NSSMF Network Slice Sub-network Management Function
  • NSMF is a function that creates and manages network slices and provides management of NSIs.
  • NSSMF is a function that creates and manages network slice subnets that form part of a network slice, and provides management of NSSI.
  • the slice manager unit 82 may output to the configuration management unit 62 configuration management instructions related to instantiation of network slices. Then, the configuration management unit 62 may perform configuration management such as setting according to the configuration management instruction.
  • the slice manager unit 82 may output to the SDN controller 60 an instruction to create a communication path between two IP addresses associated with the two IP addresses.
  • the configuration management unit 62 executes configuration management such as setting of element groups such as NFs according to configuration management instructions received from the lifecycle management unit 84 and the slice manager unit 82, for example.
  • the SDN controller 60 creates a communication path between two IP addresses associated with a communication path creation instruction received from the lifecycle management unit 84 or the slice manager unit 82.
  • the SDN controller 60 may use segment routing technology (for example, SRv6 (segment routing IPv6)) to construct NSIs and NSSIs for aggregation routers, servers, etc. that exist between communication paths. .
  • segment routing technology for example, SRv6 (segment routing IPv6)
  • the SDN controller 60 issues a command to set a common VLAN (Virtual Local Area Network) to a plurality of NFs to be set, and a command to allocate the bandwidth and priority indicated by the setting information to the VLAN.
  • VLAN Virtual Local Area Network
  • the SDN controller 60 may change the upper limit of the bandwidth that can be used for communication between two IP addresses without constructing a network slice.
  • the monitoring function unit 58 monitors the elements included in the communication system 1 according to a given management policy.
  • the monitoring function unit 58 may monitor the elements according to a monitoring policy specified by the purchaser when purchasing the network service, for example.
  • the monitoring function unit 58 performs monitoring at various levels such as, for example, the slice level, NS level, NF level, CNFC level, hardware level such as servers, etc. in this embodiment.
  • the monitoring function unit 58 may set a module that outputs metric data to hardware such as a server or the elements shown in FIG. 4 so that monitoring can be performed at the various levels described above.
  • the NF may output metric data indicating measurable (specifiable) metrics in the NF to the monitoring function unit 58 .
  • the server may output to the monitoring function unit 58 metric data indicating metrics related to hardware measurable (identifiable) in the server.
  • the monitoring function unit 58 may deploy a sidecar container on the server that aggregates metric data indicating metrics output from multiple containers in units of CNFCs (microservices).
  • This sidecar container may contain agents called exporters.
  • the monitoring function unit 58 may use the Prometheus mechanism to repeatedly execute the process of acquiring metric data aggregated for each microservice from the sidecar container at given monitoring intervals.
  • the monitoring function unit 58 for example, "TS 28.552, Management and orchestration; 5G performance measurements” or “TS 28.554, Management and orchestration; 5G end to end Key Performance Indicators (KPI)" values may be monitored. Then, the monitoring function unit 58 may acquire metric data indicating the monitored performance index value.
  • KPI Key Performance Indicators
  • the monitoring function unit 58 acquires the above-described metric data, it outputs the metric data to the AI/big data processing unit 56 .
  • the monitoring function unit 58 receives the alert notification described above, it outputs the notification to the AI/big data processing unit 56 .
  • the AI/big data processing unit 56 accumulates, for example, metric data and alert notifications output from the monitoring function unit 58 in this embodiment. Further, in the present embodiment, for example, a learned machine learning model is stored in advance in the AI/big data processing unit 56 .
  • the AI/big data processing unit 56 for example, based on the accumulated metric data and the above-described machine learning model, for example, future prediction processing of the usage status and service quality of the communication system 1 Perform estimation processing such as The AI/big data processing unit 56 may generate estimation result data indicating the result of the estimation process.
  • the performance management unit 76 calculates a performance index value (for example, KPI) based on metrics indicated by these metric data, based on a plurality of metric data.
  • the performance management unit 76 calculates performance index values (for example, performance index values related to end-to-end network slices) that are comprehensive evaluations of multiple types of metrics that cannot be calculated from single metric data. good too.
  • the performance management unit 76 may generate comprehensive performance index value data indicating a performance index value that is a comprehensive evaluation.
  • the performance management unit 76 may acquire the metric data from the monitoring function unit 58 via the AI/big data processing unit 56 as shown in FIG. good too. Also, the performance management unit 76 may calculate a performance index value based on the estimation result data described above.
  • the fault management unit 74 for example, based on at least one of the above-described metric data, the above-described alert notification, the above-described estimation result data, and the above-described comprehensive performance index value data, Detect failure occurrence.
  • the failure management unit 74 may, for example, detect the occurrence of a failure that cannot be detected from single metric data or single alert notification, based on predetermined logic.
  • the failure manager 74 may generate detected failure data indicating the detected failure.
  • failure management unit 74 may acquire metric data and alert notifications directly from the monitoring function unit 58 or through the AI/big data processing unit 56 and the performance management unit 76 . Further, the failure management unit 74 may acquire the estimation result data directly from the AI/big data processing unit 56 or through the performance management unit 76 .
  • the policy manager unit 80 stores at least one of the above-described metric data, the above-described alert notification, the above-described estimation result data, the above-described comprehensive performance index value data, and the above-described detection failure data. Based on this, a predetermined determination process is executed.
  • the policy manager section 80 may execute an action according to the result of the determination process described above. For example, the policy manager section 80 may output a network slice construction instruction to the slice manager section 82 . In addition, the policy manager section 80 may output to the life cycle management section 84 instructions such as construction of new elements, scaling and replacement of elements.
  • the ticket management unit 72 generates a ticket indicating the content to be notified to the administrator of the communication system 1 .
  • the ticket management unit 72 may generate a ticket indicating the contents of the occurred failure data.
  • the ticket management unit 72 may generate a ticket indicating the values of the performance index value data and the metric data.
  • the ticket management section 72 may generate a ticket indicating the determination result by the policy manager section 80 .
  • the ticket management unit 72 notifies the administrator of the communication system 1 of the generated ticket.
  • the ticket management unit 72 may send an e-mail attached with the generated ticket to the e-mail address of the administrator of the communication system 1 .
  • the network service shown in FIG. 3 after the network service shown in FIG. 3 has been scaled out, such as scaling out the UPF 46 shown in FIG. 3, the network service can be scaled in at appropriate times.
  • the network service corresponds to an example of service providing means for providing communication services.
  • the monitoring function unit 58 monitors network services in operation illustrated in FIG.
  • the monitoring function unit 58 monitors the usage status of the communication service provided by the network service, independent of the state of the network service (for example, the number of UPFs 46 included in the network service).
  • the monitoring function unit 58 monitors the total processing load that needs to be processed by the network service as an example of the usage status of the communication service provided by the network service that does not depend on the state of the network service. good. More specifically, for example, at least one of the total throughput of the communication service or the total number of users (total number of subscribers) of the communication service may be monitored.
  • the monitoring function unit 58 also monitors the usage status of the communication service provided by the network service, which depends on the state of the network service (for example, the number of UPFs 46 included in the network service).
  • the monitoring function unit 58 may monitor the performance index value indicating the service quality of the communication service as an example of the usage status of the communication service provided by the network service, which depends on the state of the network service. More specifically, for example, the average throughput per UE (UE 20) in the area covered by the communication service is monitored.
  • the usage status of the communication service provided by the network service that does not depend on the status of the network service will be referred to as the status-independent usage status.
  • the usage status of the communication service provided by the network service which depends on the status of the network service, is called a status-dependent usage status.
  • the monitoring function unit 58 monitors the total throughput of the communication service and the total number of users of the communication service (total number of subscribers) as the state-independent usage status. Also, the monitoring function unit 58 monitors the average throughput per UE (UE 20) in the area covered by the communication service as the state-dependent usage status.
  • the metric data indicating the performance index values monitored by the monitoring function unit 58 is accumulated in the AI/big data processing unit 56 as described above.
  • FIG. 7 is a diagram showing an example of time-series total processing load data, which is part of the metric data accumulated in the AI/big data processing unit 56 .
  • FIG. 7 shows an example in which metric data is obtained at 15-minute intervals, metric data need not be obtained at 15-minute intervals.
  • the total processing load data shown in FIG. 7 includes time stamp data, total throughput data, and total user number data.
  • the time stamp data included in the total processing load data indicates the specific date and time of the performance index value indicated in the total processing load data.
  • the total throughput data included in the total processing load amount data indicates the total throughput specified at the specified date and time.
  • the total number of users data included in the total processing load data includes the total number of users who are using the communication service provided by the network service shown in FIG. number of subscribers) are shown.
  • the AI/big data processing unit 56 determines the current or future state Calculates an index value that indicates the state-dependent usage status before the is changed.
  • the actual value of the state-independent usage status may be an actual value that indicates the total amount of processing load that needs to be processed by the network service. More specifically, for example, the performance value may be the performance value of at least one of the total throughput of the communication service and the total number of users of the communication service.
  • the index value indicating the state-dependent usage may be a performance index value indicating the service quality of the communication service. More specifically, for example, the index value may be the average throughput per UE (UE 20) in the area covered by the communication service.
  • FIG. 8 is a diagram schematically showing an example of a learned machine learning model 90 stored in the AI/big data processing unit 56. As shown in FIG. The machine learning model 90 shown in FIG. 8 outputs estimation result data according to input of input data.
  • the input data includes, for example, a predetermined number of input usage data and state data indicating the state of network services.
  • the input data includes three pieces of input usage data, but the number of pieces of input usage data included in the input data is not limited to three.
  • the input data includes input usage data indicating the most recent three specific results of state-independent usage.
  • input usage data corresponding to the latest, one previous to latest, and two previous to latest specific results are input usage data (1), input usage data (2), and input usage data (2), respectively. It is expressed as data (3).
  • Input usage data includes, for example, total throughput data and total number of users data.
  • the specific date and time (that is, the latest specific date and time) of the usage status of the communication service associated with the input usage status data (1) will be referred to as the reference date and time.
  • the input data includes state data.
  • the status data indicates, for example, the status of the network services shown in FIG.
  • the state data indicates the number of UPFs 46 included in the network service.
  • the number of UPFs 46 indicated by the state data may or may not be the number of UPFs 46 included in the network service at the timing when the state-independent usage state is specified.
  • the estimation result data includes a predetermined number of estimated usage data.
  • the estimation result data includes three pieces of estimated usage data, but the number of pieces of estimated usage data included in the input data is not limited to three.
  • estimated usage data included in the estimation result data indicate estimated index values indicating state-dependent usage at different timings.
  • estimated usage data includes estimated average throughput data that indicates an estimated average throughput.
  • the value indicated by the estimated usage data output in response to the input of input data assumes the state indicated by the state data included in the input data. For example, if the value of the state data included in the input data is 3, an estimated average indicating an estimated average throughput when three UPFs 46 are included in the network service according to the input of the input data. Throughput data is output. Also, for example, if the value of the state data included in the input data is 4, an estimate indicating the estimated value of the average throughput when four UPFs 46 are included in the network service according to the input of the input data. Average throughput data is output.
  • FIG. 8 shows estimated usage data including estimated average throughput data indicating an estimated average throughput for a first predetermined time after the reference date and time (for example, 15 minutes after the reference date and time).
  • Estimated usage data including estimated average throughput data indicating an estimated average throughput at a second predetermined time after the reference date and time (for example, 30 minutes after the reference date and time) is estimated usage data (2) is expressed.
  • Estimated usage data including estimated average throughput data indicating an estimated average throughput at a third predetermined time after the reference date and time (for example, 45 minutes after the reference date and time) is estimated usage data (3) is expressed.
  • FIG. 9 is a diagram showing an example of learning of the machine learning model 90 shown in FIG.
  • learning is performed in advance using a plurality of training data.
  • This learning data includes, for example, learning input data and teacher data.
  • the learning input data includes the same number of learning input usage data as the number of input usage data included in the above-described input data.
  • the learning input data also includes learning state data indicating the number of UPFs 64, for example.
  • the teacher data includes the same number of teacher usage data as the estimated usage data included in the estimation result data.
  • learning input usage data (1) included in certain training data includes total throughput data and total number of users data measured on a certain date and time.
  • the learning input usage data (2) included in the training data includes the total throughput data and the total number of users data in the measurement immediately before the measurement on the date and time.
  • the learning input usage data (3) included in the training data includes the total throughput data and the total number of users in the measurement two measurements before the measurement on the date and time.
  • the teacher usage data (1) included in the training data includes average throughput data indicating the average throughput value 15 minutes after the date and time. Further, the teacher usage data (2) included in the training data includes average throughput data indicating the average throughput value 30 minutes after the date and time. Further, the teacher usage data (3) included in the training data includes average throughput data indicating the average throughput value 45 minutes after the date and time.
  • the training data includes learning state data indicating the number of UPFs 46 that are prerequisites for calculating the average throughput indicated by the teacher usage data included in the training data.
  • the machine learning model 90 outputs estimation result data according to the input of the learning input data included in the training data.
  • the estimation result data includes a predetermined number (for example, three) of estimated usage status data.
  • an error compare result
  • the values of the parameters of the machine learning model 90 are updated, for example, by error back propagation.
  • learning of the machine learning model 90 is executed by executing the above processing for a plurality of training data.
  • the training data described above may be generated, for example, based on the data indicating the monitoring results of the total throughput, the total number of users, and the average throughput accumulated in the AI/big data processing unit 56. Further, the training data described above may be manually created by an operator or the like of the communication system 1 based on empirical rules.
  • the machine learning model 90 may be a neural network or a machine learning model other than the neural network.
  • the AI/big data processing unit 56 generates prediction result data illustrated in FIGS. 10 to 12 based on the estimation result data output by the learned machine learning model 90 shown in FIG.
  • the prediction result data includes, for example, reference date/time data, UPF number data, and multiple pieces of average throughput prediction result data.
  • the average throughput prediction result data is associated with prediction target date and time data.
  • the learned machine learning model 90 outputs estimation result data according to the input of input data.
  • the value of the reference date and time data is set to the reference date and time in the estimation described above, that is, the date and time when the total throughput and the total number of users indicated by the input usage data (1) included in the input data were specified. be.
  • the value of the state data included in the input data is set as the value of the UPF number data.
  • the average throughput prediction result data indicates the predicted value of the average throughput at the date and time indicated by the prediction target date and time data associated with the average throughput prediction result data. That is, the value of the estimated usage data (1) included in the estimation result data described above is set as the value of the first average throughput prediction result data. Then, the value of the estimated usage data (2) included in the estimation result data described above is set as the value of the second average throughput prediction result data. Then, the value of the estimated usage data (3) included in the estimation result data described above is set as the value of the third average throughput prediction result data.
  • the average throughput prediction result data corresponding to the estimated usage data (1) is associated with the prediction target date and time data indicating the date and time 15 minutes after the reference date and time.
  • the average throughput prediction result data corresponding to the estimated usage data (2) is associated with the prediction target date and time data indicating the date and time 30 minutes after the reference date and time.
  • the average throughput prediction result data corresponding to the estimated usage data (3) is associated with the prediction target date and time data indicating the date and time 45 minutes after the reference date and time.
  • the number of default UPFs 46 included in the network service is predetermined.
  • This predetermined number of default UPFs 46 is called a reference number.
  • the reference number may be the minimum number of UPFs 46 included in the network service. In the following description, it is assumed that the reference number is 3, for example.
  • prediction result data is generated based on the input data in which 3 is set as the value of the state data described above.
  • FIG. 10 shows prediction result data generated based on input data whose reference date and time is December 1, 2021, 9:00.
  • the input usage data (1) included in the input data includes, for example, the total throughput data with a value of x1 (102) and the total number of users with a value of x2 (102) shown in FIG. data and
  • the input usage data (2) included in the input data includes, for example, total throughput data with a value of x1 (101) and total number of users data with a value of x2 (101) shown in FIG. included.
  • the input usage data (3) included in the input data includes, for example, total throughput data with a value of x1 (100) and total user number data with a value of x2 (100) shown in FIG. and are included.
  • the input data includes state data with a value of 3.
  • estimated usage data (1) having a value of y1_3 (103) and estimated usage data (2) having a value of y2_3 (103) are obtained from the learned machine learning model 90 in response to the input of the input data.
  • prediction result data shown in FIG. 10 is generated.
  • the average throughput is estimated in each of three estimations for one certain date and time. For example, for 9:45, the average throughput is estimated in each of three estimations with reference dates and times of 9:00, 9:15, and 9:30.
  • the AI/big data processing unit 56 uses a calculation formula (function) for calculating the value of the estimation result data based on the value of the input data, or a combination of the input data value and the estimation result data.
  • a table in which values are associated with each other may be stored.
  • the AI/big data processing unit 56 may generate a predetermined number of estimated usage data based on the above-described input data, calculation formulas (functions), and tables. Then, prediction result data may be generated based on the estimated usage data generated in this manner.
  • the policy manager unit 80 determines whether or not to scale out the service providing means based on the prediction result data. Then, in response to the determination to scale out the service providing means, the platform system 30 scales out the service providing means.
  • scale-out conditions the conditions for scaling out the UPF 46 included in the network service. That is, when the scale-out condition is satisfied, it is determined that the UPF 46 included in the network service is to be scaled out.
  • the scale-out condition may be a condition related to one or more prediction result data.
  • the scale-out condition may be a condition that "the value of at least one average throughput prediction result data included in one prediction result data is equal to or less than a predetermined value".
  • the scale-out condition may be a condition that "all three average throughput prediction result data values for one certain date and time are equal to or less than a predetermined value”.
  • the scale-out condition may be a condition that "the sum of the values obtained by subtracting the value of the average throughput prediction result data from a predetermined reference value for one date and time is equal to or greater than a predetermined value”. Note that these scale-out conditions are merely examples, and the scale-out conditions are not limited to these conditions.
  • the policy manager unit 80, the lifecycle management unit 84, the container management unit 64, and the configuration management unit 62 execute scale-out of the UPF 46. It may take several tens of minutes from the start of the scale-out of the UPF 46 until it is completed.
  • the AI/big data processing unit 56 calculates the current Alternatively, in the future, an index value indicating the state-dependent usage situation before the state is changed is calculated.
  • the AI/big data processing unit 56 calculates the actual value of the usage status of the communication service that does not depend on the scale of the service providing means at the timing after the scale-out is at least partially completed, and and the scale of the service providing means, an index value may be calculated that indicates the usage status of the communication service that depends on the scale of the service providing means in the situation before scale-out is executed in the future.
  • the communication service usage that does not depend on the scale of the service providing means corresponds to the state-independent usage
  • the communication service usage that depends on the scale of the service providing means corresponds to the state-dependent usage
  • the number of UPFs 46 included in the network service corresponds to the scale of the service providing means.
  • the AI/big data processing unit 56 After the scale-out is at least partially completed, the AI/big data processing unit 56 generates not only the prediction result data based on the input data in which the number of UPFs 46 after scale-out is set as the value of the state data, but also the scale-out data. Prediction result data is generated based on the input data in which the number of UPFs 46 before out is set as the value of the state data.
  • Prediction result data may be generated based on the set input data.
  • the prediction result data shown in FIG. 11 and the prediction result data shown in FIG. 12 are generated based on the input data whose reference date and time is 10:00 on December 1, 2021.
  • the input usage data (1) included in the input data for generating the prediction result data shown in FIG. is x2(106) and the total number of users data.
  • the input usage data (2) included in the input data includes, for example, total throughput data with a value of x1 (105) and total user number data with a value of x2 (105) shown in FIG. included.
  • the input usage data (3) included in the input data includes, for example, total throughput data with a value of x1 (104) and total user number data with a value of x2 (104) shown in FIG. and are included.
  • the input data includes state data with a value of 4.
  • estimated usage data (1) with a value of y1_4 (107) and estimated usage data (2) with a value of y2_4 (108) are obtained from the learned machine learning model 90 according to the input of the input data.
  • prediction result data shown in FIG. 11 is generated.
  • Input usage data (2) included in the input data for generating the prediction result data shown in FIG. 12 includes the input usage data included in the input data for generating the prediction result data shown in FIG. It contains the same data as (2).
  • Input usage data (3) included in the input data for generating the prediction result data shown in FIG. 12 includes the input usage data included in the input data for generating the prediction result data shown in FIG. It contains the same data as (3).
  • the input data includes state data with a value of 3.
  • estimated usage data (1) with a value of y1_3 (107) and estimated usage data (2) with a value of y2_3 (108) are obtained from the learned machine learning model 90 in response to the input of the input data.
  • prediction result data shown in FIG. 12 is generated.
  • the policy manager unit 80 determines whether or not the scale-out condition is satisfied based on one or a plurality of pieces of prediction result data whose UPF number data value is 4. judge.
  • the policy manager 80, lifecycle manager 84, container manager 64, and configuration manager 62 start further scaling out the UPF 46.
  • the policy manager unit 80 determines the state-dependent usage status in the future before the scale-out of the service providing means is executed based on one or a plurality of prediction result data in which the value of the UPF number data is 3. It is determined whether or not the index value indicating satisfies a predetermined condition. This condition is hereinafter referred to as a scale-in condition.
  • the policy manager unit 80, the lifecycle management unit 84, the container management unit 64, and the configuration management unit 62 start scaling in the UPF 46. It may take several tens of minutes from the start of the scale-in of the UPF 46 until it is completed.
  • a scale-in condition may be a condition related to one or more prediction result data.
  • the scale-in condition may be a condition that "at least one value of average throughput prediction result data included in one prediction result data is equal to or greater than a predetermined value".
  • the scale-in condition may be a condition that "all three average throughput prediction result data values for one certain date and time are equal to or greater than a predetermined value”.
  • the scale-in condition may be a condition that "the sum of the values obtained by subtracting the average throughput prediction result data value from a predetermined reference value for one certain date and time is equal to or less than a predetermined value”. Note that these scale-in conditions are merely examples, and the scale-in conditions are not limited to these conditions.
  • the monitoring function unit 58 acquires metric data as appropriate (for example, at 15-minute intervals). Then, the AI/big data processing unit 56 accumulates the metric data acquired by the monitoring function unit 58 .
  • the AI/big data processing unit 56 monitors the arrival of a predetermined determination timing (S101).
  • the determination timing arrives at intervals of 15 minutes.
  • the acquisition of new metric data is used as a trigger to execute the processing shown in S102 to S108.
  • the metric data acquisition timing and determination timing may be the same or different.
  • the metric data acquisition interval and the determination timing interval may be the same or different.
  • the AI/big data processing unit 56 When the judgment timing arrives, the AI/big data processing unit 56 generates input data based on the accumulated metric data (S102).
  • the number of UPFs 46 included in the network service is the reference number, one piece of input data is generated.
  • the number of UPFs 46 included in the network service is not the reference number, a plurality of pieces of input data each associated with a number equal to or greater than the reference number and equal to or less than the current number of UPFs 46 is generated.
  • the AI/big data processing unit 56 inputs the input data generated in the process shown in S102 to the machine learning model 90, and acquires the estimation result data output from the machine learning model 90 according to the input ( S103).
  • the process shown in S103 is executed for each of the input data generated in the process shown in S102.
  • the AI/big data processing unit 56 generates prediction result data based on the estimation result data acquired in the process shown in S103 (S104).
  • the process shown in S104 is executed for each estimation result data acquired in the process shown in S103.
  • the policy manager unit 80 determines whether or not the prediction result data generated by the processing shown in S104 satisfies the scale-out condition (S105). Here, for example, it may be determined whether or not the prediction result data associated with the current number of UPFs 46 satisfies the scale-out condition.
  • the policy manager unit 80 performs the prediction generated in the process shown in S104. It is determined whether or not the result data satisfies the scale-in condition (S107). Here, for example, it may be determined whether or not the prediction result data associated with the reference number satisfies the scale-in condition. Alternatively, it may be determined whether prediction result data associated with a number different from the current number of UPFs 46 (for example, a number smaller by 1 than the current number of UPFs 46) satisfies the scale-in condition.
  • the policy manager unit 80, lifecycle management unit 84, container management unit 64, and configuration management unit 62 scale-in the UPF 46 (S108). ) and returns to the process shown in S101.
  • scale-out does not need to increase the number of UPFs 46 by one at a time, and scale-out may be performed such that the number of UPFs 46 is increased by a plurality at a time. Also, the scale-in does not need to reduce the number of UPFs 46 by one at a time, and scale-in may be performed such that the number of UPFs 46 is reduced by a plurality of times.
  • the scale-out of the service providing means is at least partially completed, based on the scale of the service providing means before the scale-out is started, in a future situation before the scale-out is executed An index value indicating the usage status of the communication service depending on the scale of the service providing means is calculated. Then, when the index value calculated in this way satisfies a predetermined condition, the scale-in of the service providing means is started. In this way, by determining whether or not to start scaling-in using future index values calculated based on a scale different from the current situation, according to the present embodiment, the service providing means scale-in can be executed in a timely manner.
  • the policy manager unit 80 determines whether or not the combination of the calculated index value and the actual value of the usage status of the communication service indicated by the index value satisfies a predetermined condition. may Then, the platform system 30 may start scaling in the service providing means when the combination satisfies a predetermined condition.
  • the monitoring function unit 58 acquires metric data indicating average throughput. Then, the difference between the average throughput indicated by the metric data acquired by the monitoring function unit 58 and the average throughput included in the prediction result data for a certain date and time may be specified.
  • the condition that "the specified difference is greater than a predetermined value" may be the scale-in condition described above. By doing so, it is possible to determine whether or not to execute scale-in based on the comparison between the actual value and the predicted value.
  • the AI/big data processing unit 56 may include a plurality of learned machine learning models 90 each associated with a time period such as day of the week, month, season, and the like. Then, prediction result data may be generated using a learned machine learning model 90 associated with the period to which the reference date and time belong.
  • the functional units according to this embodiment are not limited to those shown in FIG.
  • the functional unit according to the present embodiment may be a network node such as DU, AMF (Access and Mobility Management Function), SMF (Session Management Function).
  • the functional unit according to this embodiment does not have to be the NF in 5G.
  • functional units according to the present embodiment include eNodeB, vDU, vCU, P-GW (Packet Data Network Gateway), S-GW (Serving Gateway), MME (Mobility Management Entity), HSS (Home Subscriber Server), etc. , 4G.
  • the functional unit according to the present embodiment is not CNF but VNF (Virtual Machine) based functional unit using hypervisor type or host type virtualization technology. good.
  • the functional units according to the present embodiment need not be implemented by software, and may be implemented by hardware such as electronic circuits. Also, the functional units according to the present embodiment may be implemented by a combination of electronic circuits and software.

Abstract

ネットワークサービスのスケールアウトが実行された後に、当該ネットワークサービスのスケールインを適時に実行できるスケーリング制御システム及びスケーリング制御方法を提供する。AI・ビッグデータ処理部(56)は、スケールアウトが少なくとも部分的に完了した後のタイミングにおけるネットワークサービスのスケールに依存しない通信サービスの利用状況の実績値と、スケールアウトが開始される前のネットワークサービスのスケールと、に基づいて、将来におけるスケールアウトが実行される前の状況でのネットワークサービスのスケールに依存する通信サービスの利用状況を示す指標値を算出する。ポリシーマネージャ部(80)、ライフサイクル管理部(84)、コンテナ管理部(64)、及び、構成管理部(62)は、算出される指標値が所定の条件を満たしたことに応じて、ネットワークサービスのスケールインを開始する。

Description

スケーリング制御システム及びスケーリング制御方法
 本発明は、スケーリング制御システム及びスケーリング制御方法に関する。
 VNF(Virtualized Network Function)などといった、通信サービスを提供するサービス提供手段のスケールアウトやスケールインを、スケジュールに従って実行する技術が存在する。
 このような技術の一例として、特許文献1には、コンサート等のイベントの開催予定に基づいたスケジュールに従って、仮想ネットワークのスケールアウト、及び、スケールインを実施することが記載されている。
 また、特許文献2には、現在の日時が登録されているライフサイクル実行条件の指定日時等に該当する場合に、スケールアウトやスケールインなどのライフサイクルを実行することが記載されている。
特開2017-173894号公報 国際公開第2017/170470号
 特許文献1に記載の技術では、スケールインをするタイミングについてのスケジュールが予め組まれている。そのため、稼働度合が高い状況が想定よりも長く続いているとしても、あるいは、稼働度合が高い状況が想定よりも早く終わったとしても、スケールインのタイミングを柔軟に変更できない。
 特許文献2に記載の技術においても同様に、スケールインのタイミングを柔軟に変更できない。
 本発明は上記実情に鑑みてなされたものであって、その目的の一つは、サービス提供手段のスケールアウトが実行された後に、当該サービス提供手段のスケールインを適時に実行できるスケーリング制御システム及びスケーリング制御方法を提供することにある。
 上記課題を解決するために、本発明に係るスケーリング制御システムは、通信サービスを提供するサービス提供手段のスケールアウトを実行するスケールアウト手段と、前記スケールアウトが少なくとも部分的に完了した後のタイミングにおける前記サービス提供手段のスケールに依存しない前記通信サービスの利用状況の実績値と、前記スケールアウトが開始される前の前記サービス提供手段のスケールと、に基づいて、将来における前記スケールアウトが実行される前の状況での前記サービス提供手段のスケールに依存する前記通信サービスの利用状況を示す指標値を算出する算出手段と、算出される前記指標値が所定の条件を満たしたことに応じて、前記サービス提供手段のスケールインを開始するスケールイン手段と、を含む。
 本発明の一態様では、前記サービス提供手段のスケールに依存しない前記通信サービスの利用状況の実績値は、前記サービス提供手段で処理する必要がある総処理負荷量を示す実績値である。
 この態様では、前記サービス提供手段のスケールに依存しない前記通信サービスの利用状況の実績値は、前記通信サービスの総スループット、又は、前記通信サービスの総利用者数のうちの少なくとも一方の実績値であってもよい。
 また、本発明の一態様では、前記サービス提供手段のスケールに依存する前記通信サービスの利用状況を示す指標値は、前記通信サービスのサービス品質を示す性能指標値である。
 この態様では、前記サービス提供手段のスケールに依存する前記通信サービスの利用状況を示す指標値は、前記通信サービスがカバーするエリアでのUE(User Equipment)1つあたりの平均スループットであってもよい。
 また、本発明の一態様では、前記スケールイン手段は、算出される前記指標値と、当該指標値が示す前記通信サービスの利用状況の実績値と、の組合せが所定の条件を満たしたことに応じて、前記サービス提供手段のスケールインを開始する。
 また、本発明の一態様では、前記スケールアウト手段は、前記サービス提供手段に含まれるUPF(User Plane Function)のスケールアウトを実行し、前記サービス提供手段のスケールは、前記サービス提供手段に含まれるUPFの数である。
 また、本発明に係るスケーリング制御方法は、通信サービスを提供するサービス提供手段のスケールアウトを実行するステップと、前記スケールアウトが少なくとも部分的に完了した後のタイミングにおける前記サービス提供手段のスケールに依存しない前記通信サービスの利用状況の実績値と、前記スケールアウトが開始される前の前記サービス提供手段のスケールと、に基づいて、将来における前記スケールアウトが実行される前の状況での前記サービス提供手段のスケールに依存する前記通信サービスの利用状況を示す指標値を算出するステップと、算出される前記指標値が所定の条件を満たしたことに応じて、前記サービス提供手段のスケールインを開始するステップと、を含む。
本発明の一実施形態に係る通信システムの一例を示す図である。 本発明の一実施形態に係る通信システムの一例を示す図である。 本発明の一実施形態に係るネットワークサービスの一例を模式的に示す図である。 本発明の一実施形態に係る通信システムに構築される要素間の関連付けの一例を示す図である。 本発明の一実施形態に係るプラットフォームシステムで実装される機能の一例を示す機能ブロック図である。 物理インベントリデータのデータ構造の一例を示す図である。 時系列の総処理負荷量データの一例を示す図である。 学習済の機械学習モデルの一例を模式的に示す図である。 機械学習モデルの学習の一例を模式的に示す図である。 予測結果データの一例を示す図である。 予測結果データの一例を示す図である。 予測結果データの一例を示す図である。 本発明の一実施形態に係るプラットフォームシステムで行われる処理の流れの一例を示すフロー図である。
 以下、本発明の一実施形態について図面に基づき詳細に説明する。
 図1及び図2は、本発明の一実施形態に係る通信システム1の一例を示す図である。図1は、通信システム1に含まれるデータセンタ群のロケーションに着目した図となっている。図2は、通信システム1に含まれるデータセンタ群で実装されている各種のコンピュータシステムに着目した図となっている。
 図1に示すように、通信システム1に含まれるデータセンタ群は、セントラルデータセンタ10、リージョナルデータセンタ12、エッジデータセンタ14に分類される。
 セントラルデータセンタ10は、例えば、通信システム1がカバーするエリア内(例えば、日本国内)に分散して数個配置されている。
 リージョナルデータセンタ12は、例えば、通信システム1がカバーするエリア内に分散して数十個配置されている。例えば、通信システム1がカバーするエリアが日本国内全域である場合に、リージョナルデータセンタ12が、各都道府県に1~2個ずつ配置されてもよい。
 エッジデータセンタ14は、例えば、通信システム1がカバーするエリア内に分散して数千個配置される。また、エッジデータセンタ14のそれぞれは、アンテナ16を備えた通信設備18と通信可能となっている。ここで図1に示すように、1つのエッジデータセンタ14が数個の通信設備18と通信可能になっていてもよい。通信設備18は、サーバコンピュータなどのコンピュータを含んでいてもよい。本実施形態に係る通信設備18は、アンテナ16を介してUE(User Equipment)20との間で無線通信を行う。アンテナ16を備えた通信設備18には、例えば、後述のRU(Radio Unit)が設けられている。
 本実施形態に係るセントラルデータセンタ10、リージョナルデータセンタ12、エッジデータセンタ14には、それぞれ、複数のサーバが配置されている。
 本実施形態では例えば、セントラルデータセンタ10、リージョナルデータセンタ12、エッジデータセンタ14は、互いに通信可能となっている。また、セントラルデータセンタ10同士、リージョナルデータセンタ12同士、エッジデータセンタ14同士も互いに通信可能になっている。
 図2に示すように、本実施形態に係る通信システム1には、プラットフォームシステム30、複数の無線アクセスネットワーク(RAN)32、複数のコアネットワークシステム34、複数のUE20が含まれている。コアネットワークシステム34、RAN32、UE20は、互いに連携して、移動通信ネットワークを実現する。
 RAN32は、4GにおけるeNB(eNodeB)や、5GにおけるgNB(NR基地局)に相当する、アンテナ16を備えたコンピュータシステムである。本実施形態に係るRAN32は、主に、エッジデータセンタ14に配置されているサーバ群及び通信設備18によって実装される。なお、RAN32の一部(例えば、4GにおけるvDU(virtual Distributed Unit)やvCU(virtual Central Unit)、5GにおけるDU(Distributed Unit)やCU(Central Unit))は、エッジデータセンタ14ではなく、セントラルデータセンタ10やリージョナルデータセンタ12で実装されてもよい。
 コアネットワークシステム34は、第4世代移動通信システム(以下、4Gと呼ぶ。)におけるEPC(Evolved Packet Core)や、第5世代移動通信システム(以下、5Gと呼ぶ。)における5Gコア(5GC)に相当するシステムである。本実施形態に係るコアネットワークシステム34は、主に、セントラルデータセンタ10やリージョナルデータセンタ12に配置されているサーバ群によって実装される。
 本実施形態に係るプラットフォームシステム30は、例えば、クラウド基盤上に構成されており、図2に示すように、プロセッサ30a、記憶部30b、通信部30c、が含まれる。プロセッサ30aは、プラットフォームシステム30にインストールされるプログラムに従って動作するマイクロプロセッサ等のプログラム制御デバイスである。記憶部30bは、例えばROMやRAM等の記憶素子や、ソリッドステートドライブ(SSD)、ハードディスクドライブ(HDD)などである。記憶部30bには、プロセッサ30aによって実行されるプログラムなどが記憶される。通信部30cは、例えば、NICや無線LANモジュールなどといった通信インタフェースである。なお、通信部30cにおいて、SDN(Software-Defined Networking)が実装されていてもよい。通信部30cは、RAN32、コアネットワークシステム34、との間でデータを授受する。
 本実施形態では、プラットフォームシステム30は、セントラルデータセンタ10に配置されているサーバ群によって実装されている。なお、プラットフォームシステム30が、リージョナルデータセンタ12に配置されているサーバ群によって実装されていてもよい。
 本実施形態では例えば、購入者によるネットワークサービス(NS)の購入要求に応じて、購入要求がされたネットワークサービスがRAN32やコアネットワークシステム34に構築される。そして、構築されたネットワークサービスが購入者に提供される。
 例えば、MVNO(Mobile Virtual Network Operator)である購入者に、音声通信サービスやデータ通信サービス等のネットワークサービスが提供される。本実施形態によって提供される音声通信サービスやデータ通信サービスは、図1及び図2に示すUE20を利用する、購入者(上述の例ではMVNO)にとっての顧客(エンドユーザ)に対して最終的に提供されることとなる。当該エンドユーザは、RAN32やコアネットワークシステム34を介して他のユーザとの間で音声通信やデータ通信を行うことが可能である。また、当該エンドユーザのUE20は、RAN32やコアネットワークシステム34を介してインターネット等のデータネットワークにアクセスできるようになっている。
 また、本実施形態において、ロボットアームやコネクテッドカーなどを利用するエンドユーザに対して、IoTサービスが提供されても構わない。そして、この場合において、例えば、ロボットアームやコネクテッドカーなどを利用するエンドユーザが本実施形態に係るネットワークサービスの購入者となっても構わない。
 本実施形態では、セントラルデータセンタ10、リージョナルデータセンタ12、及び、エッジデータセンタ14に配置されているサーバには、ドッカー(Docker)などのコンテナ型のアプリケーション実行環境がインストールされており、これらのサーバにコンテナをデプロイして稼働させることができるようになっている。これらのサーバにおいて、クバネテス(Kubernetes)等のコンテナ管理ツールによって管理されるクラスタ(クバネテスクラスタ)が構築されていてもよい。そして、構築されたクラスタ上のプロセッサがコンテナ型のアプリケーションを実行してもよい。
 そして本実施形態において購入者に提供されるネットワークサービスは、1又は複数の機能ユニット(例えば、ネットワークファンクション(NF))から構成される。本実施形態では、当該機能ユニットは、コンテナベースの機能ユニットであるCNF(Containerized Network Function)によって実装される。また、本実施形態に係る機能ユニットは、ネットワークノードに相当するものであってもよい。
 図3は、請求の範囲に記載の「通信サービスを提供するサービス提供手段」の一例に相当する稼働中のネットワークサービスの一例を模式的に示す図である。図3に示すネットワークサービスは、通信システム1のサブシステムである。
 図3に示すネットワークサービスには、複数のRU40、複数のDU42、複数のCU44、及び、複数のUPF(User Plane Function)46などのNFがソフトウェア要素として含まれている。なお、当該ネットワークサービスには、AMF(Access and Mobility Management Function)や、SMF(Session Management Function)などといった他のソフトウェア要素も含まれるが、これらの要素については記載を省略する。また、ネットワークサービスは、複数のサーバ等のコンピュータリソース(ハードウェア要素)上に実装されている。
 そして、本実施形態では例えば、図3に示すネットワークサービスによって、あるエリアにおける通信サービスが提供される。
 そして、本実施形態では、図3に示す複数のRU40、複数のDU42、複数のCU44、及び、複数のUPF46が、1つのエンド・ツー・エンドのネットワークスライスに所属していることとする。
 図4は、本実施形態において通信システム1に構築される要素間の関連付けの一例を模式的に示す図である。
 図4に示すように、ネットワークサービス(NS)、ネットワークファンクション(NF)、CNFC(Containerized Network Function Component)、pod、及び、コンテナは、階層構成となっている。
 NSは、例えば、図3に示すような、複数のNFから構成されるネットワークサービスに相当する。ここで、NSが、例えば、5GC、EPC、5GのRAN(gNB)、4GのRAN(eNB)、などの粒度の要素に相当するものであってもよい。
 NFは、5Gでは、例えば、DU42、CU44、UPF46、などの粒度の要素に相当する。また、NFは、AMF、SMFなどの粒度の要素に相当する。また、NFは、4Gでは、例えば、MME(Mobility Management Entity)、HSS(Home Subscriber Server)、S-GW(Serving Gateway)、vDU、vCUなどの粒度の要素に相当する。本実施形態では例えば、1つのNSには、1又は複数のNFが含まれる。すなわち、1又は複数のNFが、1つのNSの配下にあることとなる。
 CNFCは、例えば、DU mgmtやDU Processingなどの粒度の要素に相当する。CNFCは、1つ以上のコンテナとしてサーバにデプロイされるマイクロサービスであってもよい。例えば、あるCNFCは、DU42、CU44等の機能のうち一部の機能を提供するマイクロサービスであってもよい。また、あるCNFCは、UPF46、AMF、SMF等の機能のうちの一部の機能を提供するマイクロサービスであってもよい。本実施形態では例えば、1つのNFには、1又は複数のCNFCが含まれる。すなわち、1又は複数のCNFCが、1つのNFの配下にあることとなる。
 podは、例えば、クバネテスでドッカーコンテナを管理するための最小単位を指す。本実施形態では例えば、1つのCNFCには、1又は複数のpodが含まれる。すなわち、1又は複数のpodが、1つのCNFCの配下にあることとなる。
 そして、本実施形態では例えば、1つのpodには、1又は複数のコンテナが含まれる。すなわち、1又は複数のコンテナが、1つのpodの配下にあることとなる。
 また、図4に示すように、ネットワークスライス(NSI)とネットワークスライスサブネットインスタンス(NSSI)とは階層構成となっている。
 NSIは、複数ドメイン(例えばRAN32からコアネットワークシステム34)に跨るエンド・ツー・エンドの仮想回線とも言える。NSIは、高速大容量通信用のスライス(例えば、eMBB)、高信頼度かつ低遅延通信用のスライス(例えば、URLLC)、又は、大量端末の接続用のスライス(例えば、mMTC)であってもよい。NSSIは、NSIを分割した単一ドメインの仮想回線とも言える。NSSIは、RANドメインのスライス、MBH(Mobile Back Haul)ドメインのスライス、又は、コアネットワークドメインのスライスであってもよい。
 本実施形態では例えば、1つのNSIには、1又は複数のNSSIが含まれる。すなわち、1又は複数のNSSIが、1つのNSIの配下にあることとなる。なお、本実施形態において、複数のNSIが同じNSSIを共有してもよい。
 また、図4に示すように、NSSIとNSとは、一般的には、多対多の関係となる。
 また、本実施形態では例えば、1つのNFは、1又は複数のネットワークスライスに所属できるようになっている。具体的には例えば、1つのNFには、1又は複数のS-NSSAI(Sub Network Slice Selection Assist Information)を含むNSSAI(Network Slice Selection Assistance Information)を設定できるようになっている。ここで、S-NSSAIは、ネットワークスライスに対応付けられる情報である。なお、NFが、ネットワークスライスに所属していなくてもよい。
 図5は、本実施形態に係るプラットフォームシステム30で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係るプラットフォームシステム30で、図5に示す機能のすべてが実装される必要はなく、また、図5に示す機能以外の機能が実装されていても構わない。
 図5に示すように、本実施形態に係るプラットフォームシステム30には、機能的には例えば、オペレーションサポートシステム(OSS)部50、オーケストレーション(E2EO:End-to-End-Orchestration)部52、サービスカタログ記憶部54、AI・ビッグデータ処理部56、監視機能部58、SDNコントローラ60、構成管理部62、コンテナ管理部64、リポジトリ部66、が含まれている。そして、OSS部50には、インベントリデータベース70、チケット管理部72、障害管理部74、性能管理部76、が含まれている。そして、E2EO部52には、ポリシーマネージャ部80、スライスマネージャ部82、ライフサイクル管理部84、が含まれている。これらの要素は、プロセッサ30a、記憶部30b、及び、通信部30cを主として実装される。
 以上の機能は、コンピュータであるプラットフォームシステム30にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ30aで実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してプラットフォームシステム30に供給されてもよい。また、以上の機能が、回路ブロック、メモリ、その他のLSIで実装されてもよい。また、以上の機能が、ハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところである。
 コンテナ管理部64には、本実施形態では例えば、コンテナのデプロイや設定などといったコンテナの構築を含む、コンテナのライフサイクル管理を実行する。
 ここで、本実施形態に係るプラットフォームシステム30に、複数のコンテナ管理部64が含まれていてもよい。そして、複数のコンテナ管理部64のそれぞれには、クバネテス等のコンテナ管理ツール、及び、ヘルム(Helm)等のパッケージマネージャがインストールされていてもよい。そして、複数のコンテナ管理部64は、それぞれ、当該コンテナ管理部64に対応付けられるサーバ群(クバネテスクラスタ)に対して、コンテナのデプロイ等のコンテナの構築を実行してもよい。
 なお、コンテナ管理部64は、プラットフォームシステム30に含まれている必要はない。コンテナ管理部64は、例えば、当該コンテナ管理部64によって管理されるサーバ(すなわち、RAN32やコアネットワークシステム34)、あるいは、当該コンテナ管理部64によって管理されるサーバに併設されているサーバに設けられていてもよい。
 リポジトリ部66は、本実施形態では例えば、ネットワークサービスを実現する機能ユニット群(例えば、NF群)に含まれるコンテナのコンテナイメージを記憶する。
 インベントリデータベース70は、本実施形態では例えば、プラットフォームシステム30で管理されている、RAN32やコアネットワークシステム34に配置されている複数のサーバについてのインベントリ情報が格納されたデータベースである。
 本実施形態では例えば、インベントリデータベース70には、物理インベントリデータ、及び、論理インベントリデータを含む、インベントリデータが記憶されている。インベントリデータには、通信システム1に含まれる要素群の構成や要素間の関連付けの現況が示されている。また、インベントリデータには、プラットフォームシステム30で管理されているリソースの状況(例えば、リソースの使用状況)が示されている。
 図6は、物理インベントリデータのデータ構造の一例を示す図である。図6に示す物理インベントリデータは、1つのサーバに対応付けられる。図6に示す物理インベントリデータには、例えば、サーバID、ロケーションデータ、建物データ、階数データ、ラックデータ、スペックデータ、ネットワークデータ、稼働コンテナIDリスト、クラスタID、などが含まれる。
 物理インベントリデータに含まれるサーバIDは、例えば、当該物理インベントリデータに対応付けられるサーバの識別子である。
 物理インベントリデータに含まれるロケーションデータは、例えば、当該物理インベントリデータに対応付けられるサーバのロケーション(例えばロケーションの住所)を示すデータである。
 物理インベントリデータに含まれる建物データは、例えば、当該物理インベントリデータに対応付けられるサーバが配置されている建物(例えば建物名)を示すデータである。
 物理インベントリデータに含まれる階数データは、例えば、当該物理インベントリデータに対応付けられるサーバが配置されている階数を示すデータである。
 物理インベントリデータに含まれるラックデータは、例えば、当該物理インベントリデータに対応付けられるサーバが配置されているラックの識別子である。
 物理インベントリデータに含まれるスペックデータは、例えば、当該物理インベントリデータに対応付けられるサーバのコア数、メモリ容量、ハードディスク容量、などといった、当該サーバのスペックを示すデータである。
 物理インベントリデータに含まれるネットワークデータは、例えば、当該物理インベントリデータに対応付けられるサーバが備えるNICや当該NICが備えるポート数、各ポートのポートIDなどを示すデータである。
 物理インベントリデータに含まれる稼働コンテナIDリストは、例えば、当該物理インベントリデータに対応付けられるサーバで稼働する1又は複数のコンテナのインスタンスの識別子(コンテナID)のリストを示すデータである。
 物理インベントリデータに含まれるクラスタIDは、例えば、当該物理インベントリデータに対応付けられるサーバが所属するクラスタ(例えば、クバネテスクラスタ)の識別子である。
 そして、論理インベントリデータには、通信システム1に含まれる複数の要素についての、図4に示されているような要素間の関連付けの現況を示すトポロジーデータが含まれている。例えば、論理インベントリデータには、あるNSの識別子と当該NSの配下にある1又は複数のNFの識別子とを含むトポロジーデータが含まれる。また、例えば、論理インベントリデータには、あるネットワークスライスの識別子と当該ネットワークスライスに所属する1又は複数のNFの識別子とを含むトポロジーデータが含まれる。
 また、インベントリデータに、通信システム1に含まれる要素間の地理的な関係やトポロジー的な関係などの現況が示されていてもよい。上述のインベントリデータには、通信システム1に含まれる要素が稼働しているロケーション、すなわち、通信システム1に含まれる要素の現在のロケーションを示すロケーションデータが含まれている。このことから、上述のインベントリデータには、要素間の地理的な関係(例えば、要素間の地理的な近さ)の現況が示されていると言える。
 また、論理インベントリデータに、ネットワークスライスのインスタンスの識別子や当該ネットワークスライスの種類等の属性を示すデータであるNSIデータが含まれていてもよい。また、論理インベントリデータに、ネットワークスライスサブネットのインスタンスの識別子や当該ネットワークスライスの種類等の属性を示すデータであるNSSIデータが含まれていてもよい。
 また、論理インベントリデータに、NSのインスタンスの識別子や当該NSの種類等の属性を示すデータであるNSデータが含まれていてもよい。また、論理インベントリデータに、NFのインスタンスの識別子や当該NFの種類等の属性を示すNFデータが含まれていてもよい。また、論理インベントリデータに、CNFCのインスタンスの識別子や当該CNFCの種類等の属性を示すCNFCデータが含まれていてもよい。また、論理インベントリデータに、CNFCに含まれるpodのインスタンスの識別子や当該podの種類等の属性を示すpodデータが含まれていてもよい。また、論理インベントリデータに、podに含まれるコンテナのインスタンスのコンテナIDや当該コンテナの種類等の属性を示すコンテナデータが含まれていてもよい。
 論理インベントリデータに含まれるコンテナデータのコンテナIDと、物理インベントリデータに含まれる稼働コンテナIDリストに含まれるコンテナIDと、によって、コンテナのインスタンスと、当該コンテナのインスタンスが稼働しているサーバとが関連付けられることとなる。
 また、ホスト名やIPアドレスなどの各種の属性を示すデータが論理インベントリデータに含まれる上述のデータに設定されていても構わない。例えば、コンテナデータに、当該コンテナデータに対応するコンテナのIPアドレスを示すデータが含まれていてもよい。また、例えば、CNFCデータに、当該CNFCデータが示すCNFCのIPアドレス及びホスト名を示すデータが含まれていてもよい。
 また、論理インベントリデータに、各NFに設定されている、1又は複数のS-NSSAIを含むNSSAIを示すデータが含まれていてもよい。
 また、インベントリデータベース70は、コンテナ管理部64と連携して、リソースの状況を適宜把握できるようになっている。そして、インベントリデータベース70は、リソースの最新の状況に基づいて、インベントリデータベース70に記憶されているインベントリデータを適宜更新する。
 また、例えば、通信システム1に含まれる新規要素の構築、通信システム1に含まれる要素の構成変更、通信システム1に含まれる要素のスケーリング、通信システム1に含まれる要素のリプレース、などのアクションが実行されることに応じて、インベントリデータベース70は、インベントリデータベース70に記憶されているインベントリデータを更新する。
 サービスカタログ記憶部54は、本実施形態では例えば、サービスカタログデータを記憶する。
 サービスカタログデータには、例えば、ライフサイクル管理部84によって利用されるロジックを示すサービステンプレートデータが含まれていてもよい。このサービステンプレートデータには、ネットワークサービスを構築するために必要な情報が含まれる。具体的には例えば、サービステンプレートデータは、NS、NF及びCNFCを定義する情報と、NS-NF-CNFCの対応関係を示す情報を含む。また、例えば、サービステンプレートデータは、ネットワークサービスを構築するためのワークフローのスクリプトを含む。
 また、サービスカタログデータに、ポリシーマネージャ部80によって利用される、算出された性能指標値と比較する閾値(例えば異常検出用閾値)に関する情報が含まれていてもよい。
 また、サービスカタログデータに、例えば、スライスマネージャ部82によって利用されるロジックを示すスライステンプレートデータが含まれていてもよい。スライステンプレートデータには、ネットワークスライスのインスタンス化を実行するために必要な情報が含まれる。
 スライステンプレートデータは、GSMA(GSM Association)(「GSM」は登録商標)が定める「Generic Network Slice Template」の情報を含む。具体的には、スライステンプレートデータは、ネットワークスライスのテンプレートデータ(NST)、ネットワークスライスサブネットのテンプレートデータ(NSST)、ネットワークサービスのテンプレートデータを含む。また、スライステンプレートデータは、図4に示したような、これらの要素の階層構成を示す情報を含む。
 ライフサイクル管理部84は、本実施形態では例えば、購入者によるNSの購入要求に応じて、購入要求がされた新たなネットワークサービスを構築する。
 ライフサイクル管理部84は、例えば、購入要求に応じて、購入されるネットワークサービスに対応付けられるワークフローのスクリプトを実行してもよい。そして、このワークフローのスクリプトを実行することで、ライフサイクル管理部84は、コンテナ管理部64に、購入される新たなネットワークサービスに含まれるコンテナのデプロイを指示してもよい。そして、コンテナ管理部64は、当該コンテナのコンテナイメージをリポジトリ部66から取得して、当該コンテナイメージに対応するコンテナを、サーバにデプロイしてもよい。
 また、ライフサイクル管理部84は、本実施形態では例えば、通信システム1に含まれる要素のスケーリングやリプレースを実行する。ここで、ライフサイクル管理部84は、コンテナのデプロイ指示や削除指示をコンテナ管理部64に出力してもよい。そして、コンテナ管理部64が、当該指示に従った、コンテナのデプロイやコンテナの削除等の処理を実行してもよい。本実施形態ではライフサイクル管理部84によって、コンテナ管理部64のクバネテスでは対応できないようなスケーリングやリプレースを実行できるようになっている。
 また、ライフサイクル管理部84が、新規に構築される要素群や、新たな設定が投入される既設の要素に対する、構成管理指示を構成管理部62に出力してもよい。そして、構成管理部62が、当該構成管理指示に従った設定等の構成管理を実行してもよい。
 また、ライフサイクル管理部84は、SDNコントローラ60に、2つのIPアドレスに関連付けられた、これら2つのIPアドレス間の通信経路の作成指示を出力してもよい。
 スライスマネージャ部82は、本実施形態では例えば、ネットワークスライスのインスタンス化を実行する。スライスマネージャ部82は、本実施形態では例えば、サービスカタログ記憶部54に記憶されているスライステンプレートが示すロジックを実行することで、ネットワークスライスのインスタンス化を実行する。
 スライスマネージャ部82は、例えば、3GPPの仕様書「TS28 533」に記載される、NSMF(Network Slice Management Function)と、NSSMF(Network Slice Sub-network Management Function)の機能を含んで構成される。NSMFは、ネットワークスライスを生成し、管理する機能であり、NSIのマネジメントを提供する。NSSMFは、ネットワークスライスの一部を構成するネットワークスライスサブネットを生成し、管理する機能であり、NSSIのマネジメントを提供する。
 ここで、スライスマネージャ部82が、ネットワークスライスのインスタンス化に関係する構成管理指示を構成管理部62に出力してもよい。そして、構成管理部62が、当該構成管理指示に従った設定等の構成管理を実行してもよい。
 また、スライスマネージャ部82は、SDNコントローラ60に、2つのIPアドレスに関連付けられた、これら2つのIPアドレス間の通信経路の作成指示を出力してもよい。
 構成管理部62は、本実施形態では例えば、ライフサイクル管理部84やスライスマネージャ部82から受け付ける構成管理指示に従って、NF等の要素群の設定等の構成管理を実行する。
 SDNコントローラ60は、本実施形態では例えば、ライフサイクル管理部84又はスライスマネージャ部82から受け付ける通信経路の作成指示に従って、当該作成指示に関連付けられている2つのIPアドレス間の通信経路を作成する。
 ここで例えば、SDNコントローラ60は、セグメントルーティング技術(例えばSRv6(セグメントルーティングIPv6))を用いて、通信経路間に存在するアグリゲーションルータや、サーバなどに対して、NSIやNSSIを構築してもよい。また、SDNコントローラ60は、複数の設定対象のNFに対して、共通のVLAN(Virtual Local Area Network)を設定するコマンド、及び、当該VLANに設定情報が示す帯域幅や優先度を割り当てるコマンドを発行することにより、それら複数の設定対象のNFにわたるNSI及びNSSIを生成してもよい。
 なお、SDNコントローラ60は、ネットワークスライスを構築することなく、2つのIPアドレス間の通信で利用可能な帯域幅の上限の変更などを実行してもよい。
 監視機能部58は、本実施形態では例えば、通信システム1に含まれる要素群を、所与の管理ポリシーに従って監視する。ここで、監視機能部58は、例えば、ネットワークサービスの購入の際に購入者によって指定される監視ポリシーに従って、要素群を監視してもよい。
 監視機能部58は、本実施形態では例えば、スライスのレベル、NSのレベル、NFのレベル、CNFCのレベル、サーバ等のハードウェアのレベル、などといった、様々なレベルでの監視を実行する。
 監視機能部58は、例えば、上述の様々なレベルでの監視が行えるよう、メトリックデータを出力するモジュールをサーバ等のハードウェアや図4に示されている要素に設定してもよい。ここで例えば、NFが、当該NFにおいて測定可能(特定可能)なメトリックを示すメトリックデータを監視機能部58に出力するようにしてもよい。また、サーバが、当該サーバにおいて測定可能(特定可能)なハードウェアに関するメトリックを示すメトリックデータを監視機能部58に出力するようにしてもよい。
 また、例えば、監視機能部58は、サーバに、複数のコンテナから出力されたメトリックを示すメトリックデータをCNFC(マイクロサービス)単位に集計するサイドカーコンテナをデプロイしてもよい。このサイドカーコンテナは、エクスポーターと呼ばれるエージェントを含んでもよい。監視機能部58は、プロメテウス(Prometheus)の仕組みを利用して、マイクロサービス単位に集計されたメトリックデータをサイドカーコンテナから取得する処理を、所与の監視間隔で繰り返し実行してもよい。
 監視機能部58は、例えば、「TS 28.552, Management and orchestration; 5G performance measurements」または「TS 28.554, Management and orchestration; 5G end to end Key Performance Indicators (KPI)」に記載された性能指標についての性能指標値を監視してもよい。そして、監視機能部58は、監視される性能指標値を示すメトリックデータを取得してもよい。
 そして、監視機能部58は、例えば、上述のメトリックデータを取得すると、当該メトリックデータをAI・ビッグデータ処理部56に出力する。
 また、通信システム1に含まれるネットワークスライス、NS、NF、CNFC等の要素や、サーバ等のハードウェアは、監視機能部58に、各種のアラートの通知(例えば、障害の発生をトリガとしたアラートの通知)を行う。
 そして、監視機能部58は、例えば、上述のアラートの通知を受け付けると、当該通知をAI・ビッグデータ処理部56に出力する。
 AI・ビッグデータ処理部56は、本実施形態では例えば、監視機能部58から出力されるメトリックデータやアラートの通知を蓄積する。また、AI・ビッグデータ処理部56には、本実施形態では例えば、学習済の機械学習モデルが予め記憶されている。
 そして、AI・ビッグデータ処理部56は、本実施形態では例えば、蓄積されるメトリックデータと、上述の機械学習モデルと、に基づいて、例えば、通信システム1の利用状況やサービス品質の将来予測処理などの推定処理を実行する。AI・ビッグデータ処理部56は、推定処理の結果を示す推定結果データを生成してもよい。
 性能管理部76は、本実施形態では例えば、複数のメトリックデータに基づいて、これらのメトリックデータが示すメトリックに基づく性能指標値(例えば、KPI)を算出する。性能管理部76は、単一のメトリックデータからは算出できない、複数の種類のメトリックの総合評価である性能指標値(例えば、エンド・ツー・エンドのネットワークスライスに係る性能指標値)を算出してもよい。性能管理部76は、総合評価である性能指標値を示す総合性能指標値データを生成してもよい。
 なお、性能管理部76は、メトリックデータを、図5に示すように監視機能部58からAI・ビッグデータ処理部56を経由して取得してもよいし、監視機能部58から直接取得してもよい。また、性能管理部76は、上述の推定結果データに基づいて、性能指標値を算出してもよい。
 障害管理部74は、本実施形態では例えば、上述のメトリックデータ、上述のアラートの通知、上述の推定結果データ、上述の総合性能指標値データのうちの少なくともいずれかに基づいて、通信システム1における障害の発生を検出する。障害管理部74は、例えば、所定のロジックに基づいて、単一のメトリックデータや単一のアラートの通知からでは検出できないような障害の発生を検出してもよい。障害管理部74は、検出された障害を示す検出障害データを生成してもよい。
 なお、障害管理部74は、メトリックデータやアラートの通知を、監視機能部58から直接取得してもよいし、AI・ビッグデータ処理部56や性能管理部76を介して取得してもよい。また、障害管理部74は、推定結果データを、AI・ビッグデータ処理部56から直接取得してもよいし、性能管理部76を介して取得してもよい。
 ポリシーマネージャ部80は、本実施形態では例えば、上述のメトリックデータ、上述のアラートの通知、上述の推定結果データ、上述の総合性能指標値データ、上述の検出障害データ、のうちの少なくともいずれかに基づいて、所定の判定処理を実行する。
 そして、ポリシーマネージャ部80は、上述の判定処理の結果に応じたアクションを実行してもよい。例えば、ポリシーマネージャ部80は、スライスマネージャ82部にネットワークスライスの構築指示を出力してもよい。また、ポリシーマネージャ部80は、新規要素の構築、要素のスケーリングやリプレース、などの指示をライフサイクル管理部84に出力してもよい。
 チケット管理部72は、本実施形態では例えば、通信システム1の管理者に通知すべき内容が示されたチケットを生成する。チケット管理部72は、発生障害データの内容を示すチケットを生成してもよい。また、チケット管理部72は、性能指標値データやメトリックデータの値を示すチケットを生成してもよい。また、チケット管理部72は、ポリシーマネージャ部80による判定結果を示すチケットを生成してもよい。
 そして、チケット管理部72は、生成されたチケットを、通信システム1の管理者に通知する。チケット管理部72は、例えば、生成されたチケットが添付された電子メールを、通信システム1の管理者の電子メールアドレスに宛てて送信してもよい。
 本実施形態では、図3に示すUPF46のスケールアウトなどといった、図3に示すネットワークサービスのスケールアウトが実行された後に、当該ネットワークサービスのスケールインを適時に実行できる。なお、上述のように、当該ネットワークサービスは、通信サービスを提供するサービス提供手段の一例に相当する。
 以下、本実施形態に係るプラットフォームシステム30で実行される、スケールインの実行に係る処理について、さらに説明する。
 本実施形態では例えば、監視機能部58は、図3に例示されている稼働中のネットワークサービスを監視する。
 監視機能部58は、本実施形態では例えば、ネットワークサービスの状態(例えば、ネットワークサービスに含まれるUPF46の数)に依存しない、当該ネットワークサービスが提供する通信サービスの利用状況を監視する。ここで、監視機能部58は、ネットワークサービスの状態に依存しない、当該ネットワークサービスが提供する通信サービスの利用状況の一例として、当該ネットワークサービスで処理する必要がある総処理負荷量を監視してもよい。より具体的には例えば、当該通信サービスの総スループット、又は、当該通信サービスの総利用者数(総サブスクライバ数)のうちの少なくとも一方が監視されてもよい。
 また、監視機能部58は、本実施形態では例えば、ネットワークサービスの状態(例えば、ネットワークサービスに含まれるUPF46の数)に依存する、当該ネットワークサービスが提供する通信サービスの利用状況も監視する。ここで、監視機能部58は、ネットワークサービスの状態に依存する、当該ネットワークサービスが提供する通信サービスの利用状況の一例として、当該通信サービスのサービス品質を示す性能指標値を監視してもよい。より具体的には例えば、当該通信サービスがカバーするエリアでのUE(UE20)1つあたりの平均スループットを監視する。
 以下、ネットワークサービスの状態に依存しない、当該ネットワークサービスが提供する通信サービスの利用状況を、状態非依存利用状況と呼ぶこととする。また、ネットワークサービスの状態に依存する、当該ネットワークサービスが提供する通信サービスの利用状況を、状態依存利用状況と呼ぶこととする。
 以下の説明では一例として、監視機能部58は、状態非依存利用状況として、当該通信サービスの総スループット、及び、当該通信サービスの総利用者数(総サブスクライバ数)を監視することとする。また、監視機能部58は、状態依存利用状況として、当該通信サービスがカバーするエリアでのUE(UE20)1つあたりの平均スループットを監視することとする。
 そして、本実施形態では、上述のように、監視機能部58によって監視される上述の性能指標値を示すメトリックデータが、AI・ビッグデータ処理部56に蓄積される。
 図7は、AI・ビッグデータ処理部56に蓄積されるメトリックデータの一部である、時系列の総処理負荷量データの一例を示す図である。なお、図7では、15分間隔でメトリックデータの取得が行われる場合における一例が示されているが、メトリックデータの取得は15分間隔で行われる必要はない。
 図7に示す総処理負荷量データには、タイムスタンプデータ、総スループットデータ、総利用者数データ、が含まれている。総処理負荷量データに含まれるタイムスタンプデータには、当該総処理負荷量データに示されている性能指標値の特定日時が示されている。当該総処理負荷量データに含まれる総スループットデータには、当該特定日時に特定された総スループットが示されている。当該総処理負荷量データに含まれる総利用者数データには、当該特定日時に特定された、図3に示されているネットワークサービスが提供する通信サービスを利用中である総利用者数(総サブスクライバ数)が示されている。
 そして、AI・ビッグデータ処理部56は、状態の変更後のタイミングにおける状態非依存利用状況の実績値と、状態の変更前における当該ネットワークサービスの状態と、に基づいて、現在又は将来における、状態が変更される前の状況での状態依存利用状況を示す指標値を算出する。
 ここで、上述のように、状態非依存利用状況の実績値は、当該ネットワークサービスで処理する必要がある総処理負荷量を示す実績値であってもよい。より具体的には例えば、当該実績値は、当該通信サービスの総スループット、又は、通信サービスの総利用者数のうちの少なくとも一方の実績値であってもよい。
 また、状態依存利用状況を示す指標値は、通信サービスのサービス品質を示す性能指標値であってもよい。より具体的には例えば、当該指標値は、当該通信サービスがカバーするエリアでのUE(UE20)1つあたりの平均スループットであってもよい。
 ここで、AI・ビッグデータ処理部56による、現在又は将来における、状態が変更される前の状況での状態依存利用状況を示す指標値の算出の一例について説明する。
 図8は、AI・ビッグデータ処理部56に記憶される、学習済の機械学習モデル90の一例を模式的に示す図である。図8に示されている機械学習モデル90は、入力データの入力に応じて、推定結果データを出力する。
 図8に示すように、入力データには、例えば、所定数の入力利用状況データと、ネットワークサービスの状態を示す状態データと、が含まれる。以下の説明では、入力データには、3個の入力利用状況データが含まれることとするが、入力データに含まれる入力利用状況データの数は3個に限定されない。
 図8の例では、入力データに、状態非依存利用状況についての、直近3回の特定結果を示す入力利用状況データが含まれている。図8では、最新、最新の1つ前、最新の2つ前の特定結果に相当する入力利用状況データが、それぞれ、入力利用状況データ(1)、入力利用状況データ(2)、入力利用状況データ(3)と表現されている。入力利用状況データには、例えば、総スループットデータと総利用者数データとが含まれる。
 以下、入力利用状況データ(1)に対応付けられる、通信サービスの利用状況の特定日時(すなわち、最新の特定日時)を、基準日時と呼ぶこととする。
 また、図8に示すように、入力データには、状態データが含まれる。状態データには、例えば、図3に示すネットワークサービスの状態が示されている。以下の説明では、状態データには、当該ネットワークサービスに含まれるUPF46の数が示されていることとする。なお、状態データが示すUPF46の数は、状態非依存利用状況を特定したタイミングにおいて、ネットワークサービスに含まれているUPF46の数であってもよいし、なくてもよい。
 そして、図8の例では、推定結果データには、所定数の推定利用状況データが含まれている。以下の説明では、推定結果データには、3個の推定利用状況データが含まれることとするが、入力データに含まれる推定利用状況データの数は3個に限定されない。
 推定結果データに含まれる複数の推定利用状況データには、それぞれ、互いに異なるタイミングにおける、状態依存利用状況を示す指標値の推定値が示される。以下の説明では、推定利用状況データには、平均スループットの推定値を示す推定平均スループットデータが含まれることとする。
 入力データの入力に応じて出力される推定利用状況データが示す値は、当該入力データに含まれる状態データが示す状態を前提とした値となる。例えば、入力データに含まれる状態データの値が3である場合は、当該入力データの入力に応じて、ネットワークサービスに3個のUPF46が含まれている場合における平均スループットの推定値を示す推定平均スループットデータが出力される。また例えば、入力データに含まれる状態データの値が4である場合は、当該入力データの入力に応じて、ネットワークサービスに4個のUPF46が含まれている場合における平均スループットの推定値を示す推定平均スループットデータが出力される。
 図8には、基準日時から第1の所定時間だけ後(例えば、基準日時の15分後)における、平均スループットの推定値を示す推定平均スループットデータを含む推定利用状況データが、推定利用状況データ(1)と表現されている。また、基準日時から第2の所定時間だけ後(例えば、基準日時の30分後)における、平均スループットの推定値を示す推定平均スループットデータを含む推定利用状況データが、推定利用状況データ(2)と表現されている。また、基準日時から第3の所定時間だけ後(例えば、基準日時の45分後)における、平均スループットの推定値を示す推定平均スループットデータを含む推定利用状況データが、推定利用状況データ(3)と表現されている。
 図9は、図8に示す機械学習モデル90の学習の一例を示す図である。機械学習モデル90に対しては、例えば、予め、複数の訓練データによる学習が予め実行される。この学習データには、例えば、学習入力データと教師データとが含まれる。
 そして、図9に示すように、学習入力データには、上述の入力データに含まれる入力利用状況データの数と同じ数の、学習入力利用状況データが含まれている。また、学習入力データには、例えば、UPF64の数を示す学習状態データが含まれている。
 また、図9に示すように、教師データには、上述の推定結果データに含まれる推定利用状況データの数と同じ数の、教師利用状況データが含まれている。
 本実施形態では例えば、ある訓練データに含まれる学習入力利用状況データ(1)には、ある日時での測定における総スループットデータと総利用者数データとが含まれる。そして、当該訓練データに含まれる学習入力利用状況データ(2)には、当該日時での測定の直前の測定における総スループットデータと総利用者数データとが含まれる。また、当該訓練データに含まれる学習入力利用状況データ(3)には、当該日時での測定の2つ前の測定における総スループットデータと総利用者数データとが含まれる。
 そして、当該訓練データに含まれる教師利用状況データ(1)には、当該日時の15分後における平均スループットの値を示す平均スループットデータが含まれる。また、当該訓練データに含まれる教師利用状況データ(2)には、当該日時の30分後における平均スループットの値を示す平均スループットデータが含まれる。また、当該訓練データに含まれる教師利用状況データ(3)には、当該日時の45分後における平均スループットの値を示す平均スループットデータが含まれる。
 そして、当該訓練データには、当該訓練データに含まれる教師利用状況データが示す平均スループットの算出における前提となるUPF46の数を示す学習状態データが含まれる。
 そして、機械学習モデル90は、訓練データに含まれる学習入力データの入力に応じて、推定結果データを出力する。当該推定結果データには、所定数(例えば、3個)の推定利用状況データが含まれる。そして、訓練データに含まれる学習入力データの入力に応じて出力される推定結果データと、当該訓練データに含まれる教師データと、の誤差(比較結果)が特定される。そして特定される誤差に基づいて、例えば誤差逆伝搬法により、機械学習モデル90のパラメータの値が更新される。そして、以上の処理が複数の訓練データについて実行されることで、機械学習モデル90の学習が実行される。
 上述の訓練データは、例えば、AI・ビッグデータ処理部56に蓄積された、総スループット、総利用者数、平均スループットの監視結果を示すデータに基づいて生成されたものであってもよい。また、上述の訓練データは、通信システム1のオペレータ等が経験則に基づいて手作業で作成したものであってもよい。
 なお、機械学習モデル90の実装は特に問わない。例えば、機械学習モデル90が、ニューラルネットワークであってもよいし、ニューラルネットワーク以外の機械学習モデルであってもよい。
 そして、AI・ビッグデータ処理部56は、図8に示す学習済の機械学習モデル90が出力する推定結果データに基づいて、図10~図12に例示されている、予測結果データを生成する。
 図10~図12に示すように、予測結果データには、例えば、基準日時データ、UPF数データ、複数の平均スループット予測結果データが含まれる。平均スループット予測結果データには、予測対象日時データが関連付けられている。
 例えば、上述のように、学習済の機械学習モデル90が、入力データの入力に応じて、推定結果データを出力したとする。
 この場合、基準日時データの値には、上述の推定における基準日時、すなわち、当該入力データに含まれる入力利用状況データ(1)が示す総スループット及び総利用者数が特定された日時が設定される。
 そして、UPF数データの値には、例えば、当該入力データに含まれる状態データの値が設定される。
 そして、平均スループット予測結果データには、当該平均スループット予測結果データに関連付けられている予測対象日時データが示す日時における、平均スループットの予測値が示される。すなわち、上述の推定結果データに含まれる、推定利用状況データ(1)の値が、1つめの平均スループット予測結果データの値として設定される。そして、上述の推定結果データに含まれる、推定利用状況データ(2)の値が、2つめの平均スループット予測結果データの値として設定される。そして、上述の推定結果データに含まれる、推定利用状況データ(3)の値が、3つめの平均スループット予測結果データの値として設定される。
 そして、推定利用状況データ(1)に対応する平均スループット予測結果データには、基準日時の15分後の日時を示す予測対象日時データが関連付けられる。また、推定利用状況データ(2)に対応する平均スループット予測結果データには、基準日時の30分後の日時を示す予測対象日時データが関連付けられる。また、推定利用状況データ(3)に対応する平均スループット予測結果データには、基準日時の45分後の日時を示す予測対象日時データが関連付けられる。
 本実施形態では例えば、ネットワークサービスに含まれるデフォルトのUPF46の数が予め定められている。この予め定められているデフォルトのUPF46の数を、基準数と呼ぶこととする。なお、基準数は、ネットワークサービスに含まれるUPF46の最小数であってもよい。以下の説明では、例えば、基準数は3であることとする。
 この場合、上述の状態データの値として3が設定された入力データに基づいて、予測結果データが生成される。
 図10には、基準日時が2021年12月1日9時である入力データに基づいて生成される予測結果データが示されている。
 この場合、当該入力データに含まれる入力利用状況データ(1)には、例えば、図7に示す、値がx1(102)である総スループットデータと値がx2(102)である総利用者数データとが含まれる。当該入力データに含まれる入力利用状況データ(2)には、例えば、図7に示す、値がx1(101)である総スループットデータと値がx2(101)である総利用者数データとが含まれる。そして、当該入力データに含まれる入力利用状況データ(3)には、例えば、図7に示す、値がx1(100)である総スループットデータと値がx2(100)である総利用者数データとが含まれる。
 そして、当該入力データには、値が3である状態データが含まれる。
 そして、当該入力データの入力に応じて学習済の機械学習モデル90から、値がy1_3(103)である推定利用状況データ(1)と、値がy2_3(103)である推定利用状況データ(2)と、値がy3_3(103)である推定利用状況データ(3)と、を含む推定結果データが出力される。そしてこの推定結果データに基づいて、図10に示す予測結果データが生成される。
 上述の例では、例えば、1つのある日時について、3回の推定のそれぞれにおいて、平均スループットが推定されることとなる。例えば、9時45分について、基準日時が9時、9時15分、9時30分である3回の推定のそれぞれにおいて、平均スループットが推定されることとなる。
 なお、AI・ビッグデータ処理部56が、機械学習モデル90の代わりに、入力データの値に基づいて推定結果データの値を算出する計算式(関数)や、入力データの値と推定結果データの値とを対応付けたテーブルを記憶してもよい。そして、AI・ビッグデータ処理部56が、上述の入力データと、計算式(関数)やテーブルと、に基づいて、所定数の推定利用状況データを生成してもよい。そして、このようにして生成される推定利用状況データに基づいて、予測結果データが生成されるようにしてもよい。
 そして、ポリシーマネージャ部80は、本実施形態では例えば、予測結果データに基づいて、サービス提供手段のスケールアウトを実行するか否かを判定する。そして、サービス提供手段のスケールアウトを実行するとの判定がされることに応じて、プラットフォームシステム30は、サービス提供手段のスケールアウトを実行する。
 ここでは例えば、ネットワークサービスに含まれるUPF46をスケールアウトするか否かが判定される。以下、ネットワークサービスに含まれるUPF46をスケールアウトする条件を、スケールアウト条件と呼ぶこととする。すなわち、スケールアウト条件を満たす場合に、ネットワークサービスに含まれるUPF46をスケールアウトするとの判定がされる。
 スケールアウト条件は、1又は複数の予測結果データに係る条件であってもよい。例えば、スケールアウト条件が、「1つの予測結果データに含まれる少なくとも1つの平均スループット予測結果データの値が所定値以下である」との条件であってもよい。また、スケールアウト条件が、「1つのある日時についての平均スループット予測結果データの値が3回とも所定値以下である」との条件であってもよい。また、スケールアウト条件が、「1つのある日時についての、所定の基準値から平均スループット予測結果データの値を引いた値の合計が所定値以上である」との条件であってもよい。なお、これらのスケールアウト条件はあくまでも一例であり、スケールアウト条件は、これらの条件に限定されるものではない。
 そして、スケールアウト条件を満たすと、ポリシーマネージャ部80、ライフサイクル管理部84、コンテナ管理部64、及び、構成管理部62が、UPF46のスケールアウトを実行する。なお、UPF46のスケールアウトが開始されてから完了するまでに、数十分かかることがある。
 そして、上述のように、AI・ビッグデータ処理部56は、状態の変更後のタイミングにおける状態非依存利用状況の実績値と、状態の変更前における当該ネットワークサービスの状態と、に基づいて、現在又は将来における、状態が変更される前の状況での状態依存利用状況を示す指標値を算出する。
 ここで、AI・ビッグデータ処理部56は、スケールアウトが少なくとも部分的に完了した後のタイミングにおけるサービス提供手段のスケールに依存しない通信サービスの利用状況の実績値と、スケールアウトが開始される前のサービス提供手段のスケールと、に基づいて、将来におけるスケールアウトが実行される前の状況でのサービス提供手段のスケールに依存する通信サービスの利用状況を示す指標値を算出してもよい。
 この場合、サービス提供手段のスケールに依存しない通信サービスの利用状況が、状態非依存利用状況に相当し、サービス提供手段のスケールに依存する通信サービスの利用状況が、状態依存利用状況に相当する。また、ネットワークサービスに含まれるUPF46の数が、サービス提供手段のスケールに相当する。
 例えば、AI・ビッグデータ処理部56は、スケールアウトが少なくとも部分的に完了した後に、スケールアウト後のUPF46の数が状態データの値として設定された入力データに基づく予測結果データだけでなく、スケールアウト前のUPF46の数が状態データの値として設定された入力データに基づく予測結果データを生成する。ここで、スケールアウトが完了した後に、スケールアウト後のUPF46の数が状態データの値として設定された入力データに基づく予測結果データだけでなく、スケールアウト前のUPF46の数が状態データの値として設定された入力データに基づく予測結果データが生成されてもよい。
 例えば、スケールアウトによって、UPF46の数が3から4に増加したとする。そして、2021年12月1日10時には、スケールアウトが完了していたとする。
 この場合、基準日時が2021年12月1日10時である入力データに基づいて、図11に示す予測結果データと、図12に示す予測結果データと、が生成されることとなる。
 この場合、図11に示す予測結果データを生成するための入力データに含まれる入力利用状況データ(1)には、例えば、図7に示す、値がx1(106)である総スループットデータと値がx2(106)である総利用者数データとが含まれる。当該入力データに含まれる入力利用状況データ(2)には、例えば、図7に示す、値がx1(105)である総スループットデータと値がx2(105)である総利用者数データとが含まれる。そして、当該入力データに含まれる入力利用状況データ(3)には、例えば、図7に示す、値がx1(104)である総スループットデータと値がx2(104)である総利用者数データとが含まれる。
 そして、当該入力データには、値が4である状態データが含まれる。
 そして、当該入力データの入力に応じて学習済の機械学習モデル90から、値がy1_4(107)である推定利用状況データ(1)と、値がy2_4(108)である推定利用状況データ(2)と、値がy3_4(109)である推定利用状況データ(3)と、を含む推定結果データが出力される。そしてこの推定結果データに基づいて、図11に示す予測結果データが生成される。
 そして、図12に示す予測結果データを生成するための入力データに含まれる入力利用状況データ(1)には、図11に示す予測結果データを生成するための入力データに含まれる入力利用状況データ(1)と同じデータが含まれる。また、図12に示す予測結果データを生成するための入力データに含まれる入力利用状況データ(2)には、図11に示す予測結果データを生成するための入力データに含まれる入力利用状況データ(2)と同じデータが含まれる。また、図12に示す予測結果データを生成するための入力データに含まれる入力利用状況データ(3)には、図11に示す予測結果データを生成するための入力データに含まれる入力利用状況データ(3)と同じデータが含まれる。
 そして、当該入力データには、値が3である状態データが含まれる。
 そして、当該入力データの入力に応じて学習済の機械学習モデル90から、値がy1_3(107)である推定利用状況データ(1)と、値がy2_3(108)である推定利用状況データ(2)と、値がy3_3(109)である推定利用状況データ(3)と、を含む推定結果データが出力される。そしてこの推定結果データに基づいて、図12に示す予測結果データが生成される。
 そして、図10を参照した上述の説明と同様にして、ポリシーマネージャ部80は、UPF数データの値が4である1又は複数の予測結果データに基づいて、スケールアウト条件を満たすか否かを判定する。そして、スケールアウト条件を満たすと、ポリシーマネージャ部80、ライフサイクル管理部84、コンテナ管理部64、及び、構成管理部62が、UPF46のさらなるスケールアウトを開始する。
 また、ポリシーマネージャ部80は、UPF数データの値が3である1又は複数の予測結果データに基づいて、将来における、サービス提供手段のスケールアウトが実行される前の状況での状態依存利用状況を示す指標値が所定の条件を満たすか否かを判定する。以下、当該条件をスケールイン条件と呼ぶこととする。
 そして、スケールイン条件を満たすと、ポリシーマネージャ部80、ライフサイクル管理部84、コンテナ管理部64、及び、構成管理部62が、UPF46のスケールインを開始する。なお、UPF46のスケールインが開始されてから完了するまでに、数十分かかることがある。
 スケールイン条件は、1又は複数の予測結果データに係る条件であってもよい。例えば、スケールイン条件が、「1つの予測結果データに含まれる少なくとも1つの平均スループット予測結果データの値が所定値以上である」との条件であってもよい。また、スケールイン条件が、「1つのある日時についての平均スループット予測結果データの値が3回とも所定値以上である」との条件であってもよい。また、スケールイン条件が、「1つのある日時についての、所定の基準値から平均スループット予測結果データの値を引いた値の合計が所定値以下である」との条件であってもよい。なお、これらのスケールイン条件はあくまでも一例であり、スケールイン条件は、これらの条件に限定されるものではない。
 ここで、本実施形態に係るプラットフォームシステム30で行われる処理の流れの一例を、図13に例示するフロー図を参照しながら説明する。
 本処理例では、監視機能部58が、適宜(例えば、15分間隔で)、メトリックデータを取得する。そして、AI・ビッグデータ処理部56が、監視機能部58が取得するメトリックデータを蓄積する。
 そして、AI・ビッグデータ処理部56が、所定の判定タイミングの到来を監視している(S101)。本実施形態は例えば、判定タイミングは、15分間隔で到来する。本処理例では、新たなメトリックデータの取得をトリガとして、S102~S108に示す処理で実行されることとする。なお、メトリックデータの取得タイミングと判定タイミングとは、同じであってもよいし異なっていてもよい。また、メトリックデータの取得間隔と判定タイミングの間隔とは、同じであってもよいし異なっていてもよい。
 判定タイミングが到来すると、AI・ビッグデータ処理部56が、蓄積されたメトリックデータに基づいて、入力データを生成する(S102)。ここで、ネットワークサービスに含まれるUPF46の数が基準数である場合には、1つの入力データが生成される。ネットワークサービスに含まれるUPF46の数が基準数でない場合には、基準数以上現在のUPF46の数以下の数にそれぞれ対応付けられる複数の入力データが生成される。
 そして、AI・ビッグデータ処理部56が、S102に示す処理で生成された入力データを機械学習モデル90に入力し、当該入力に応じて機械学習モデル90から出力される推定結果データを取得する(S103)。S103に示す処理は、S102に示す処理で生成された入力データのそれぞれに対して実行される。
 そして、AI・ビッグデータ処理部56が、S103に示す処理で取得された推定結果データに基づいて、予測結果データを生成する(S104)。S104に示す処理は、S103に示す処理で取得された推定結果データのそれぞれに対して実行される。
 そして、ポリシーマネージャ部80が、S104に示す処理で生成された予測結果データがスケールアウト条件を満たすか否かを判定する(S105)。ここでは例えば、現在のUPF46の数に対応付けられる予測結果データがスケールアウト条件を満たすか否かが判定されてもよい。
 S105に示す処理で、スケールアウト条件を満たすと判定された場合は(S105:Y)、ポリシーマネージャ部80、ライフサイクル管理部84、コンテナ管理部64、及び、構成管理部62が、UPF46のスケールアウトを実行する(S106)。
 S105に示す処理で、スケールアウト条件を満たさないと判定された場合(S105:N)、又は、S106に示す処理が終了した場合は、ポリシーマネージャ部80が、S104に示す処理で生成された予測結果データがスケールイン条件を満たすか否かを判定する(S107)。ここでは例えば、基準数に対応付けられる予測結果データがスケールイン条件を満たすか否かが判定されてもよい。あるいは、現在のUPF46の数とは異なる数(例えば、現在のUPF46の数より1だけ小さい数)に対応付けられる予測結果データがスケールイン条件を満たすか否かが判定されてもよい。
 スケールイン条件を満たすと判定された場合は(S107:Y)、ポリシーマネージャ部80、ライフサイクル管理部84、コンテナ管理部64、及び、構成管理部62が、UPF46のスケールインを実行する(S108)して、S101に示す処理に戻る。
 また、S107に示す処理で、スケールイン条件を満たさないと判定された場合も(S107:N)、S101に示す処理に戻る。
 なお、UPF46の数が基準数である場合は、S108及びS109に示す処理は実行されない。この場合は、S107に示す処理の実行後、又は、S106に示す処理でスケールアウト条件を満たさないことが確認された場合は、S101に示す処理に戻る。
 また、S102に示す処理において、ネットワークサービスに含まれるUPF46の数が基準数でない場合に、基準数に対応付けられる入力データと現在のUPF46の数に対応付けられる入力データ(すなわち、2つの入力データ)が生成されるようにしてもよい。
 なお、スケールアウトによってUPF46が一度に1つだけ増える必要はなく、UPF46の数が一度に複数増えるようなスケールアウトが実行されてもよい。また、スケールインによってUPF46が一度に1つだけ減る必要はなく、UPF46の数が一度に複数減るようなスケールインが実行されてもよい。
 本実施形態では、サービス提供手段のスケールアウトが少なくとも部分的に完了した後に、スケールアウトが開始される前のサービス提供手段のスケールに基づいて、将来における、スケールアウトが実行される前の状況でのサービス提供手段のスケールに依存する通信サービスの利用状況を示す指標値が算出される。そして、このようにして算出される指標値が所定の条件を満たしたことに応じて、サービス提供手段のスケールインが開始される。このように、現況とは異なるスケールに基づいて算出される将来における指標値を用いてスケールインを開始するか否かが判定されるようにすることで、本実施形態によれば、サービス提供手段のスケールインを適時に実行できることとなる。
 また、本実施形態において、ポリシーマネージャ部80は、算出される指標値と、当該指標値が示す通信サービスの利用状況の実績値と、の組合せが、所定の条件を満たすか否かを判定してもよい。そして、プラットフォームシステム30は、当該組合せが所定の条件を満たしたことに応じて、サービス提供手段のスケールインを開始してもよい。
 上述のように本実施形態では、監視機能部58が、平均スループットを示すメトリックデータを取得する。そして、ある日時についての、監視機能部58が取得するメトリックデータが示す平均スループットと、予測結果データに含まれる平均スループットと、の差が特定されてもよい。そして、「特定される差が所定値よりも大きい」という条件が、上述のスケールイン条件であってもよい。このようにすることで、実績値と予測値との比較に基づく、スケールインを実行するか否かの判定が可能となる。
 なお、本発明は上述の実施形態に限定されるものではない。
 例えば、AI・ビッグデータ処理部56が、曜日別、月別、季節別、などといった、それぞれが時期に対応付けられる複数の学習済の機械学習モデル90を含んでいてもよい。そして、基準日時が属する時期に対応付けられる学習済の機械学習モデル90を用いて、予測結果データが生成されるようにしてもよい。
 また、本実施形態に係る機能ユニットは図3に示したものには限定されない。例えば、本実施形態に係る機能ユニットが、DU、AMF(Access and Mobility Management Function)、SMF(Session Management Function)などといったネットワークノードであっても構わない。
 また、本実施形態に係る機能ユニットは、5GにおけるNFである必要はない。例えば、本実施形態に係る機能ユニットが、eNodeB、vDU、vCU、P-GW(Packet Data Network Gateway)、S-GW(Serving Gateway)、MME(Mobility Management Entity)、HSS(Home Subscriber Server)などといった、4Gにおけるネットワークノードであっても構わない。
 また、本実施形態に係る機能ユニットが、CNFでなく、ハイパーバイザ型やホスト型の仮想化技術を用いた、VM(Virtual Machine)ベースの機能ユニットであるVNF(Virtualized Network Function)であってもよい。また、本実施形態に係る機能ユニットがソフトウェアによって実装されている必要はなく、電子回路等のハードウェアによって実装されていてもよい。また、本実施形態に係る機能ユニットが、電子回路とソフトウェアとの組合せによって実装されていてもよい。

Claims (8)

  1.  通信サービスを提供するサービス提供手段のスケールアウトを実行するスケールアウト手段と、
     前記スケールアウトが少なくとも部分的に完了した後のタイミングにおける前記サービス提供手段のスケールに依存しない前記通信サービスの利用状況の実績値と、前記スケールアウトが開始される前の前記サービス提供手段のスケールと、に基づいて、将来における前記スケールアウトが実行される前の状況での前記サービス提供手段のスケールに依存する前記通信サービスの利用状況を示す指標値を算出する算出手段と、
     算出される前記指標値が所定の条件を満たしたことに応じて、前記サービス提供手段のスケールインを開始するスケールイン手段と、
     を含むことを特徴とするスケーリング制御システム。
  2.  前記サービス提供手段のスケールに依存しない前記通信サービスの利用状況の実績値は、前記サービス提供手段で処理する必要がある総処理負荷量を示す実績値である、
     ことを特徴とする請求項1に記載のスケーリング制御システム。
  3.  前記サービス提供手段のスケールに依存しない前記通信サービスの利用状況の実績値は、前記通信サービスの総スループット、又は、前記通信サービスの総利用者数のうちの少なくとも一方の実績値である、
     ことを特徴とする請求項2に記載のスケーリング制御システム。
  4.  前記サービス提供手段のスケールに依存する前記通信サービスの利用状況を示す指標値は、前記通信サービスのサービス品質を示す性能指標値である、
     ことを特徴とする請求項1から3のいずれか一項に記載のスケーリング制御システム。
  5.  前記サービス提供手段のスケールに依存する前記通信サービスの利用状況を示す指標値は、前記通信サービスがカバーするエリアでのUE(User Equipment)1つあたりの平均スループットである、
     ことを特徴とする請求項4に記載のスケーリング制御システム。
  6.  前記スケールイン手段は、算出される前記指標値と、当該指標値が示す前記通信サービスの利用状況の実績値と、の組合せが所定の条件を満たしたことに応じて、前記サービス提供手段のスケールインを開始する、
     ことを特徴とする請求項1から5のいずれか一項に記載のスケーリング制御システム。
  7.  前記スケールアウト手段は、前記サービス提供手段に含まれるUPF(User Plane Function)のスケールアウトを実行し、
     前記サービス提供手段のスケールは、前記サービス提供手段に含まれるUPFの数である、
     ことを特徴とする請求項1から6のいずれか一項に記載のスケーリング制御システム。
  8.  通信サービスを提供するサービス提供手段のスケールアウトを実行するステップと、
     前記スケールアウトが少なくとも部分的に完了した後のタイミングにおける前記サービス提供手段のスケールに依存しない前記通信サービスの利用状況の実績値と、前記スケールアウトが開始される前の前記サービス提供手段のスケールと、に基づいて、将来における前記スケールアウトが実行される前の状況での前記サービス提供手段のスケールに依存する前記通信サービスの利用状況を示す指標値を算出するステップと、
     算出される前記指標値が所定の条件を満たしたことに応じて、前記サービス提供手段のスケールインを開始するステップと、
     を含むことを特徴とするスケーリング制御方法。
PCT/JP2022/006488 2022-02-17 2022-02-17 スケーリング制御システム及びスケーリング制御方法 WO2023157200A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/006488 WO2023157200A1 (ja) 2022-02-17 2022-02-17 スケーリング制御システム及びスケーリング制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/006488 WO2023157200A1 (ja) 2022-02-17 2022-02-17 スケーリング制御システム及びスケーリング制御方法

Publications (1)

Publication Number Publication Date
WO2023157200A1 true WO2023157200A1 (ja) 2023-08-24

Family

ID=87577929

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/006488 WO2023157200A1 (ja) 2022-02-17 2022-02-17 スケーリング制御システム及びスケーリング制御方法

Country Status (1)

Country Link
WO (1) WO2023157200A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016220126A (ja) * 2015-05-25 2016-12-22 株式会社日立製作所 ネットワーク処理システム、ネットワークシステムの管理方法及び通信装置
JP2017173894A (ja) * 2016-03-18 2017-09-28 株式会社日立製作所 オーケストレーションサーバ、オーケストレーション方法、およびオーケストレーションプログラム
US20200382975A1 (en) * 2019-05-28 2020-12-03 Samsung Electronics Co., Ltd. Method and apparatus for performing radio access network function

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016220126A (ja) * 2015-05-25 2016-12-22 株式会社日立製作所 ネットワーク処理システム、ネットワークシステムの管理方法及び通信装置
JP2017173894A (ja) * 2016-03-18 2017-09-28 株式会社日立製作所 オーケストレーションサーバ、オーケストレーション方法、およびオーケストレーションプログラム
US20200382975A1 (en) * 2019-05-28 2020-12-03 Samsung Electronics Co., Ltd. Method and apparatus for performing radio access network function

Similar Documents

Publication Publication Date Title
US10481953B2 (en) Management system, virtual communication-function management node, and management method for managing virtualization resources in a mobile communication network
US9588815B1 (en) Architecture for data collection and event management supporting automation in service provider cloud environments
EP3857820B1 (en) Device and method for managing a service related to multiple network slices
US20160328258A1 (en) Management system, overall management node, and management method
US20230043362A1 (en) Computer system and network slice management method
Papagianni et al. 5Growth: AI-driven 5G for Automation in Vertical Industries
US20150172130A1 (en) System and method for managing data center services
Kafle et al. Adaptive virtual network slices for diverse IoT services
WO2023157200A1 (ja) スケーリング制御システム及びスケーリング制御方法
WO2023157199A1 (ja) 妥当性検証システム及び妥当性検証方法
WO2023218663A1 (ja) 実行基盤決定システム及び実行基盤決定方法
WO2023218664A1 (ja) リプレースシステム及びリプレース方法
WO2023188187A1 (ja) 通信経路決定システム及び通信経路決定方法
WO2024069948A1 (ja) 通信システムに含まれるハードウェアリソースの管理
WO2023188186A1 (ja) 通信経路決定システム及び通信経路決定方法
WO2023233471A1 (ja) ネットワークの異常の原因推定
WO2023233470A1 (ja) ネットワークの異常の原因推定
WO2023188185A1 (ja) 配置システム及び配置方法
WO2024069949A1 (ja) 通信システムに含まれるハードウェアリソースの管理
WO2024004102A1 (ja) キューに格納されている性能指標値データに基づく通信システムの状態判定
WO2024047774A1 (ja) 通信システムに係る所与の予測目的で用いられる機械学習モデルの決定
WO2024047775A1 (ja) 通信システムに係る所与の予測目的で用いられる機械学習モデルの決定
WO2024024106A1 (ja) ネットワーク負荷の予測開始タイミングの制御
WO2023058137A1 (ja) アクション実行システム及びその制御方法
WO2023058133A1 (ja) アクション実行システム及びその制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22927102

Country of ref document: EP

Kind code of ref document: A1