WO2024111757A1 - 계층 그래프를 이용한 네트워크 관리모델 학습 방법 및 장치 - Google Patents

계층 그래프를 이용한 네트워크 관리모델 학습 방법 및 장치 Download PDF

Info

Publication number
WO2024111757A1
WO2024111757A1 PCT/KR2023/003069 KR2023003069W WO2024111757A1 WO 2024111757 A1 WO2024111757 A1 WO 2024111757A1 KR 2023003069 W KR2023003069 W KR 2023003069W WO 2024111757 A1 WO2024111757 A1 WO 2024111757A1
Authority
WO
WIPO (PCT)
Prior art keywords
graph
network
learning
information
node
Prior art date
Application number
PCT/KR2023/003069
Other languages
English (en)
French (fr)
Inventor
김희곤
홍원기
유재형
Original Assignee
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포항공과대학교 산학협력단 filed Critical 포항공과대학교 산학협력단
Publication of WO2024111757A1 publication Critical patent/WO2024111757A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/12Discovery or management of network topologies
    • H04L41/122Discovery or management of network topologies of virtualised topologies, e.g. software-defined networks [SDN] or network function virtualisation [NFV]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/147Network analysis or design for predicting network behaviour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/22Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks comprising specially adapted graphical user interfaces [GUI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/40Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition

Definitions

  • the technology described below relates to a method and device for managing a network using a hierarchical graph.
  • Network Virtualization technology refers to a technology that allows multiple users to create virtual networks and use them independently on a publicly used physical network infrastructure.
  • Network virtualization can be realized using various technologies, but recently, much research has been conducted to realize network virtualization technology using the software defined networking (SDN: Software Defined Networking) paradigm.
  • SDN Software Defined Networking
  • Software-defined networking is a step forward from the existing hardware-based networking method and allows network managers to program the network itself. Based on this, it provides agility, elasticity, flexibility, etc. in a dynamic network environment. can be provided as an advantage.
  • conventional network management defines various conditions of the network using linear programming (ILP: Integer Linear Programming) to derive a linear equation that optimizes the network, but has the problem of taking too much time for calculation.
  • ILP Integer Linear Programming
  • the purpose of the present invention to solve the above problems is to stratify and subdivide the network environment using a hierarchical graph learning structure and perform network management using machine learning.
  • a network management model learning method and device using a hierarchical graph includes the steps of a model learning device receiving input of physical network information, service information, and virtual network deployment information; generating, by the model learning device, a network graph based on the physical network information; After the model learning device divides a plurality of nodes in the network graph into a plurality of sets, generating a hierarchical graph by compressing the nodes belonging to each set into one node for each of the sets; learning, by the model learning device, a network management model based on the hierarchical graph, the service information, and the virtual network deployment information; Including, wherein the learning step repeats the learning process for each of the nodes of the hierarchical graph, and the learning process decompresses one node of the nodes of the hierarchical graph to decompress the node of the hierarchical graph.
  • Generating a learning graph consisting of a subgraph created by decompressing, nodes remaining except for one node in the hierarchical graph, and links between the subgraph and the remaining nodes; Modifying the service information to correspond to the generated learning graph; learning the network management model using the learning graph and the modified service information as input values and the virtual network deployment information as labeling values; Includes.
  • the technology described below allows efficient management of network data using a graph model or graph neural network.
  • the technology described below stratifies and subdivides the size of the network subject to management, thereby reducing network management to a regional level. Accordingly, the network management model is automatically learned and an optimized network management system is pursued.
  • the technology described below uses a hierarchical graph learning structure to reduce the difficulty of existing complex network management problems to a level that machine learning can quickly understand, enabling optimal network resource management in a short time.
  • the technology described below prevents deterioration of machine learning performance by verifying data validity problems that may occur in the graph layering and subdivision steps.
  • Figure 1 shows the process by which a model learning device learns a network management model.
  • Figure 2 shows one embodiment of a network management model.
  • Figures 3A, 3B, and 3C show examples of graph compression and partial decompression according to some embodiments.
  • Figure 4 shows an example of a network graph compression process.
  • Figure 5 shows the structure of the model learning device.
  • first, second, A, B, etc. may be used to describe various components, but the components are not limited by the terms, and are only used for the purpose of distinguishing one component from other components. It is used only as For example, a first component may be named a second component without departing from the scope of the technology described below, and similarly, the second component may also be named a first component.
  • the term and/or includes any of a plurality of related stated items or a combination of a plurality of related stated items.
  • each component is responsible for. That is, two or more components, which will be described below, may be combined into one component, or one component may be divided into two or more components for more detailed functions.
  • each of the components described below may additionally perform some or all of the functions handled by other components, and some of the main functions handled by each component may be performed by other components. Of course, it can also be carried out in full charge.
  • each process that makes up the method may occur in a different order from the specified order unless a specific order is clearly stated in the context. That is, each process may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the opposite order.
  • a graph may refer to a data structure that shows relationships between connected objects.
  • a graph may include nodes and edges.
  • An edge can also be called a link.
  • network graph may mean expressing a network as a graph.
  • a hierarchical graph may mean a graph that compresses a network graph.
  • a virtual network function may mean providing specific network functions in a virtual network environment.
  • types of virtual network functions may include firewall, proxy, intrusion detection system (IDS), NAT (Network Address Translation), and WANO (Wide Area Network optimizer).
  • service function chain may mean connecting VNFs in order to provide network services.
  • Figure 1 shows the process by which the model learning device 100 learns a network management model.
  • the model learning device 100 can receive physical network information, service information, and virtual network deployment information.
  • the model learning device 100 may generate a network graph based on the physical network information.
  • the model learning apparatus 100 divides a plurality of nodes in the network graph into a plurality of sets, and then compresses the nodes belonging to each set into one node for each of the sets to generate a hierarchical graph.
  • the model learning device 100 may learn a network management model based on the hierarchical graph, the service information, and the virtual network deployment information.
  • the learning step may repeat the learning process for each node of the hierarchical graph.
  • the learning process includes generating a learning graph by decompressing one node among the nodes of the hierarchical graph; Modifying the service information to correspond to the generated learning graph; learning the network management model using the learning graph and the modified service information as input values and the virtual network deployment information as labeling values; may include.
  • the learning graph may be composed of a subgraph created by decompressing any one node of the hierarchical graph, nodes remaining except for one node of the hierarchical graph, and links between the subgraph and the nodes. You can.
  • model learning device 100 can pre-process the collected input information.
  • model learning device 100 can check the learning suitability of the learning data.
  • the network management device can manage the network using the network management model learned by the model learning device 100.
  • the network management device can receive physical network information and service information.
  • the network management device can input the received physical network information and service information into the network management model.
  • the network management device can output information for managing the network based on the value output by the network management model. In other words, the network management device can deploy virtual network functions in the network according to service requests.
  • model learning device 100 learns a virtual network management model
  • the physical network information, service information, and virtual network function information received by the model learning device 100 may include information necessary for learning a network management model.
  • Physical network information, service information, and virtual network function information may include information about collection time. That is, physical network information, service information, and virtual network function information may be information collected continuously according to collection time.
  • Physical network information may include resource information.
  • physical network information may include information such as the number of CPU cores of a node, the maximum allowable bandwidth of the node, the maximum allowable bandwidth of the link, the delay time of the link, the node's IDLE, and peak power consumption.
  • Physical network information may include topology information.
  • physical network information may include information such as the number of nodes in the topology, the number of links in the topology, and the structure of the topology.
  • Service information includes other information in the service request.
  • service information may include information such as the origin node of the traffic, the destination node of the traffic, the required bandwidth of the traffic, the maximum allowable delay time of the traffic, the cost of the service, and the service type.
  • the virtual network deployment information may include the location of the virtual network functions deployed in the network according to the service information and the number of virtual network functions deployed in the network according to the service information.
  • the virtual network placement information is based on the service request information, considering the number of CPU cores required by the virtual network function, installation cost, etc., and the optimal virtual network function placement location and instances of the virtual network function placed on each node of the network. Quantity information may be included.
  • the virtual network function information may include information about the results of deploying the virtual network function to each server by considering installation costs, energy costs, traffic costs, and costs due to service delays according to service requests.
  • the virtual network deployment information includes information about the type of virtual network function, the number of CPU cores required for the virtual network function, the processing capacity required for the virtual network function, and the processing delay of the virtual network function. It may be.
  • Types of virtual network functions include at least one of firewall, proxy, intrusion detection system (IDS), network address translation (NAT), and WANO (Wide Area Network Optimizer). It may be.
  • IDS intrusion detection system
  • NAT network address translation
  • WANO Wide Area Network Optimizer
  • Virtual network deployment information can be used as labeling data to learn a network management model.
  • the virtual network deployment information may include the results of analyzing physical network information and service information using a linear programming (Integer Linear Programming, ILP) model or heuristics.
  • ILP Intelligent Linear Programming
  • the model learning device 100 can pre-process the input information.
  • the model learning device 100 can encode input information.
  • the input information can be converted so that the network management model can learn.
  • the categorical data can be changed to numeric data so that the network management model can learn.
  • the model learning device 100 can normalize the collected information. This is because numerical data may have different sizes depending on its type.
  • collected data can be processed so that the mean is 0 and the variance is 1.
  • the units can be unified.
  • the model learning device 100 can generate a network graph based on the collected physical network information. In other words, the model learning device 100 can express physical network information using a graph.
  • the generated network graph may include multiple nodes and edges.
  • Each node in the network graph may represent a server. Or, it may represent a device for communication.
  • Each edge of the network graph may represent a connection between each server.
  • the model learning device 100 can express a graph based on three matrices.
  • the three matrices may include node matrices, edge matrices, and adjacency matrices.
  • the node matrix may be a matrix containing feature data about the nodes of the graph.
  • the node matrix may include information such as the number of CPU cores, storage capacity, and power consumption of each node. Accordingly, the node matrix may be a matrix of (number of nodes)
  • the edge matrix may be a matrix containing feature data about the edges of the graph.
  • the edge matrix may include information about the maximum bandwidth, available bandwidth, and delay of each link. Accordingly, the edge matrix may be (number of nodes)
  • An adjacency matrix may be a matrix that contains information about how nodes in a graph are connected to each other.
  • the adjacency matrix can have a size of (number of nodes)
  • the adjacency matrix can be expressed as a sparse matrix based on whether each node is connected. For example, if each node is connected, it can be expressed as 1, and if it is not connected, it can be expressed as 0.
  • the model learning device 100 can compress the generated graph.
  • the network graph can be stratified and subdivided through graph compression.
  • a compressed graph can be called a hierarchical graph.
  • the model learning device 100 divides a plurality of nodes in a network graph into a plurality of sets (or clusters) and then compresses the nodes belonging to each set into one node for each of the sets to create a hierarchical graph.
  • Graph compression can be performed based on various criteria.
  • graph compression classifies multiple nodes into one group based on correlation between nodes, network characteristics, specific data, or physical distance, and then compresses the graph by making the nodes in each group into one node. You can.
  • graph compression may be performed for all nodes or only for some nodes.
  • the administrator can set in advance what criteria the model learning device 100 will use to compress the graph.
  • the node matrix, edge matrix, and adjacency matrix of the graph may change. Specific examples of this are described below.
  • Graph compression can be performed using a compression model.
  • the compression model may be a model implemented as a graph neural network model.
  • the compression model may be a compression model that receives a graph in advance and compresses the graph.
  • Graph compression can be performed multiple times. For example, if the scale of the graph is large, you can first classify it broadly and perform compression, then subdivide the nodes in each compressed graph again and compress them again. However, it does not necessarily have to be performed multiple times and can only be performed once.
  • Graph compression can be performed multiple times, bottom-up. However, it does not necessarily have to proceed from the bottom up. For example, it may be carried out in a lower-end manner.
  • the model learning device 100 can check whether the hierarchical graph has been well created.
  • the model learning device 100 can check the learning suitability of the compressed graph.
  • the learning suitability test may refer to a test that determines whether the compressed graph is suitable for learning a network management model.
  • the learning suitability test may refer to the process of checking whether different virtual network functions placed on different nodes in the network graph are placed on one node in the learning graph due to network graph compression.
  • firewall one of the virtual network functions
  • proxy one of the virtual network functions
  • node 2 with few CPU cores.
  • nodes 1 and 2 may be compressed to become one node. If you train a network management model using this hierarchical graph, the management model may learn incorrectly. This is because firewalls must be placed on nodes with many CPU cores, and proxies must be placed on nodes with few CPU cores, and this information may disappear due to compression.
  • the model learning device 100 may perform a learning suitability check and, if there is a node that is inappropriate for training the network management model, decompress the node.
  • model learning device 100 may not compress nodes containing such data from the beginning.
  • the model learning device 100 can decompress some nodes of the hierarchical graph.
  • a hierarchical graph with some nodes decompressed can also be called a learning graph. This is because the hierarchical graph with some nodes decompressed can be used to learn a network management model.
  • the model learning device 100 can select a specific node in the hierarchical graph and then decompress the selected node. The model learning device 100 may continue to decompress until no additional compression nodes exist in the decompressed node.
  • Decompression of a hierarchical graph can only be performed for some nodes.
  • the learning graph may be composed of a subgraph created by decompressing one node of the hierarchical graph, nodes remaining except for one node of the hierarchical graph, and links between the subgraph and the remaining nodes. .
  • the model learning apparatus 100 can generate a plurality of decompressed hierarchical graphs from one hierarchical graph.
  • the first layer graph decompresses A
  • the second layer graph decompresses B
  • the third layer graph decompresses C.
  • a fourth layer graph can be created by decompressing A and B, a fifth layer graph by decompressing A and C, and a sixth layer graph by decompressing B and C.
  • the first to sixth layer graphs created in this way become learning graphs and can be used to train a network management model.
  • the learning step may be a process of decompressing and learning all nodes of the hierarchical graph.
  • a partially restored hierarchical graph may have relatively less information than a network graph. Therefore, the model learning device 100 can relatively quickly learn a network management model using the partially restored hierarchical graph.
  • the adjacency matrix can be expressed as a 14 x 14 sparse matrix.
  • the amount of information in the learning data can be relatively increased.
  • the adjacency matrix of a partially restored hierarchical graph can be expressed as a 6 If a partially restored hierarchical graph is used, the amount of information in the learning data may be relatively small.
  • a partially restored hierarchical graph may have relatively more information than a hierarchical graph. Accordingly, the model learning device 100 can relatively accurately learn a network management model using the partially restored hierarchical graph.
  • model learning device 100 may modify the service information to correspond to a partially decompressed hierarchical graph. Specific examples are described below.
  • the model learning device 100 may generate learning data based on the learning graph, modified service information, and virtual network deployment information.
  • a network management model can be trained using the learning graph, modified service information, and virtual network deployment information.
  • Learning data may include information about the placement location and number of virtual network functions deployed on the physical network according to service requests.
  • the partially uncompressed layer graph and modified service information can become input variables, and some of the virtual network function information can be labeling data.
  • the model learning device 100 can learn a network management model using learning data.
  • the network management model may be a model that receives network graph information and service information as input and outputs information on the optimal placement and number of virtual network functions.
  • the network management model may be a model implemented using an artificial neural network.
  • Figure 2 shows an example of a network management model according to some embodiments.
  • the network management model may include GNN (Graph neural network).
  • GNN can receive graph information as input and analyze it.
  • Graph information may include information about node matrices, edge matrices, and adjacency matrices.
  • the network management model may include a Feed Forward network (FNN).
  • FNN can receive and analyze modified service information.
  • the modified service information may include information in which various information about the service is expressed as one vector.
  • FNN can share learning parameters (weight sharing).
  • Service information and physical network information may be paired. In other words, there may be service information and network information for each service requested by the user.
  • the network management model can be analyzed by concatenating the results output from GNN and FNN.
  • the network management model can input the combined information into two additional FNNs.
  • the network management model can generate the final result by inputting the output values of two FNNs into a fully connected layer (FCN). Based on the final result, the network management model can output information on how many specific types of virtual network functions should be installed on all servers according to the input service information and physical network information.
  • FCN fully connected layer
  • model learning device 100 compresses a network graph.
  • Figures 3A, 3B, and 3C show examples of graph compression and partial decompression according to some embodiments.
  • FIGS 3A, 3B, and 3C show the graph shape, adjacency matrix, and service information according to the network graph, hierarchical graph, and learning graph.
  • FIG. 1 A of Figures 3A, 3B, and 3C is information about the network graph.
  • (B) of Figures 3A, 3B and 3C are information about the hierarchical graph.
  • (C) of Figures 3A, 3B, and 3C are information about the learning graph.
  • Figure 3a shows each graph.
  • Figure 3b shows the adjacency matrix for each graph.
  • Figure 3c shows service information according to each graph.
  • the model learning device 100 can generate a network graph based on physical network information.
  • Figure 3a (A) shows the network graph.
  • a network graph can have a total of 9 nodes and 13 edges connecting the nodes.
  • Each node may represent a server capable of distributing virtual network functions.
  • the model learning device 100 can compress the network graph into three nodes.
  • Figure 3a (B) shows a hierarchical graph.
  • Nodes 1 to 3 can be compressed into one to become node A.
  • Nodes 4 to 7 can be compressed to become node B.
  • Nodes 8 and 9 can be compressed to become node C.
  • the model learning device 100 can modify service information to correspond to the hierarchical graph.
  • the information on the departure node and arrival node can be modified to correspond to the hierarchical graph.
  • the model learning device 100 can decompress a portion of the hierarchical graph. In other words, a learning graph can be created.
  • Figure 3A (C) shows the learning graph.
  • Node A of the hierarchical graph can be decompressed.
  • the adjacency matrix of a graph can be expressed as a sparse matrix. That is, if the node is connected, it can be expressed as 1, and if it is not connected, it can be expressed as 0.
  • the adjacency matrix of the network graph before compression has a sparse matrix of 9
  • the adjacency matrix of the hierarchical graph has a sparse matrix of 3 x 3 (B in Figure 3b).
  • the adjacency matrix of the learning graph has a sparse matrix of 5
  • the adjacency matrix of the learning graph (C in Figure 3b) has relatively less information than the adjacency matrix of the network graph (A in Figure 3b). Accordingly, the model learning device 100 can learn the network management model faster when using the learning graph than when using the network graph.
  • the adjacency matrix of the learning graph (C in Figure 3b) has relatively more information than the adjacency matrix of the hierarchical graph (B in Figure 3b). Accordingly, the model learning device 100 can accurately learn the network management model when using the learning graph rather than when using the adjacency matrix of the hierarchical graph.
  • the previous explanation used an adjacency matrix as an example, but it is not necessarily limited to the case of an adjacency matrix. In other words, the previous explanation can also be applied to node matrices and edge matrices.
  • Figure 4 shows an example of compression of a graph according to some embodiments.
  • (A) is a network graph.
  • (B) is a hierarchical graph created by compressing once.
  • (C) shows the hierarchical graph compressed twice.
  • the model learning device 100 can perform compression only on some nodes of the network graph.
  • Nodes 2, 3, 6, 8, 9, 10, 11, and 12 were compressed into one node, becoming node A.
  • Nodes 7, 13, 14, and 15 were compressed into one node, becoming Node B.
  • nodes 1, 4, 5, 9, and 16 were not compressed.
  • the model learning device 100 can repeatedly compress the network graph.
  • Node A and Node B were compressed again to become Node C.
  • Figure 5 shows the configuration of a model learning device.
  • the model learning device 500 in FIG. 5 is the same as the model learning device 100 in FIG. 1.
  • the model learning device 500 may be physically implemented in various forms such as a PC, laptop, smart device, server, or data processing chipset.
  • the model learning device 500 includes an input device 510, a storage device 520, It may include an arithmetic device 530 and an output device 540.
  • the input device 510 may include an interface device (keyboard, mouse, touch screen, etc.) that receives certain commands or data.
  • the input device 510 may include a component that receives information through a separate storage device (USB, CD, hard disk, etc.).
  • the input device 510 may receive input data through a separate measuring device or through a separate DB.
  • the input device 510 can receive physical network information, service information, and virtual network deployment function information.
  • the storage device 520 can store information input through the input device 510.
  • the storage device 520 can store information generated during calculation by the computing device 530. That is, the storage device 520 may include memory.
  • the storage device 520 can store the results calculated by the computing device.
  • the storage device 520 can store information output by the output device.
  • the computing unit 530 may perform a network management model learning method using a hierarchical graph.
  • the computing device 530 may generate a network graph based on the physical network information.
  • the arithmetic unit 530 may divide a plurality of nodes in the network graph into a plurality of sets, and then compress the nodes belonging to each set into one node for each of the sets to create a hierarchical graph.
  • the computing device 530 may learn a network management model based on the hierarchical graph, the service information, and the virtual network deployment information.
  • the computing unit 530 may repeat the learning process for each of all nodes of the hierarchical graph.
  • the output device 540 may be a device that outputs certain information.
  • the output device 540 may output interfaces, input data, analysis results, etc. required for data processing.
  • the output device 540 may be physically implemented in various forms, such as a display, a document output device, etc.
  • the network management model may also be composed of an input device 510, a storage device 520, an arithmetic device 530, and an output device 540.
  • the network management model learning method using a hierarchical graph can be implemented as a program (or application) that includes an executable algorithm that can be executed on a computer.
  • the program may be stored and provided in a temporary or non-transitory computer readable medium.
  • a non-transitory readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as registers, caches, and memories.
  • the various applications or programs described above include CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM (read-only memory), PROM (programmable read only memory), and EPROM (Erasable PROM, EPROM).
  • EEPROM Electrically EPROM
  • Temporarily readable media include Static RAM (SRAM), Dynamic RAM (DRAM), Synchronous DRAM (SDRAM), Double Data Rate SDRAM (DDR SDRAM), and Enhanced SDRAM (Enhanced RAM). It refers to various types of RAM, such as SDRAM (ESDRAM), synchronous DRAM (Synclink DRAM, SLDRAM), and Direct Rambus RAM (DRRAM).
  • SRAM Static RAM
  • DRAM Dynamic RAM
  • SDRAM Synchronous DRAM
  • DDR SDRAM Double Data Rate SDRAM
  • Enhanced SDRAM Enhanced SDRAM
  • ESDRAM synchronous DRAM
  • SLDRAM synchronous DRAM
  • DRRAM Direct Rambus RAM

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

계층 그래프를 이용한 네트워크 관리 모델 학습 방법은 모델 학습장치가 물리적 네트워크 정보, 서비스 정보 및 가상 네트워크 배치 정보를 입력 받는 단계; 상기 모델 학습장치가 상기 물리적 네트워크 정보를 기초로 네트워크 그래프를 생성하는 단계; 상기 모델 학습장치가 상기 네트워크 그래프의 복수개의 노드를 복수개의 집합으로 나눈 뒤, 상기 모든 집합 각각에 대하여 각 집합에 속한 노드를 하나의 노드로 압축해 계층 그래프를 생성하는 단계; 상기 모델 학습장치가 상기 계층 그래프, 상기 서비스 정보 및 상기 가상 네트워크 배치 정보를 기초로 네트워크 관리 모델을 학습하는 단계; 를 포함한다.

Description

계층 그래프를 이용한 네트워크 관리모델 학습 방법 및 장치
이하 설명하는 기술은 계층 그래프를 이용해서 네트워크를 관리하는 방법 및 장치에 대한 것이다.
본 출원은 2022년 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원을 받아 수행된 연구결과이다(과제번호 : 2018-0-00749-005, 과제고유번호 : 1711152960, 과제명: 인공지능 기반 가상 네트워크 관리기술 개발) (과제번호 : 2017-0-01633-006, 과제고유번호: 1711152520, 과제명 : 인터넷 인프라 시스템 기술 개발 및 전문 인력 양성)
네트워크 가상화(Network Virtualization) 기술은 공용으로 사용되는 물리 네트워크 인프라 상에서 복수의 사용자가 가상 네트워크를 생성하여 독립적으로 사용할 수 있게 하는 기술을 지칭한다.
네트워크 가상화는 다양한 기술로 실현할 수 있으나, 최근에는 소프트웨어 정의 네트워킹 (SDN: Software Defined Networking) 패러다임을 활용하여 네트워크 가상화 기술을 실현하려는 연구가 많이 진행되고 있다.
소프트웨어 정의 네트워킹은 기존의 하드웨어 기반의 네트워킹 방식에서 진일보하여 네트워크를 관리자가 네트워크 자체를 프로그래밍 할 수 있게 하며, 이를 바탕으로 동적인 네트워크 환경에서 민첩성 (Agility), 탄력성 (Elasticity), 유연성 (Flexibility) 등을 장점으로 제공할 수 있다.
종래 네트워크 관리는 관리자가 전문적인 지식을 바탕으로 진행되어 왔다. 그러나 이러한 관리방법은 인력 확보에 큰 비용이 소모되며, 네트워크가 복잡 해질수록 난이도가 어려워지는 문제점이 있었다.
특히 종래의 네트워크 관리는 선형계획법(ILP: Integer Linear Programming)으로 네트워크의 여러 조건들을 정의하여 네트워크를 최적화하는 선형식을 도출해내지만, 계산에 너무 많은 시간을 소요하는 문제가 있다.
이 문제를 해결하기 위해 최근에는 네트워크 관리에 기계학습 기술을 도입하여 빠른 시간 내에 네트워크를 최적화하는 시도가 많이 이루어지고 있다.
이와 관련된 종래 기술로는 한국 공개특허공보 10-2015-0125511가 있었다.
기계학습의 본질은 통계 데이터의 학습을 통해 특정 시스템을 모방하는 행위라고 볼 수 있다. 따라서, 기계학습의 성공여부는 통계 데이터의 품질과 학습 모델의 이해력, 학습되는 시스템의 복잡도에 의존한다.
현재 종래의 기계학습을 적용한 네트워크 관리 기술들은 네트워크 데이터를 효과적으로 처리하여 사용하고 있지 않으며, 네트워크 관리 특화 모델이 아닌 보편적인 모델을 사용하고 있다.
또한, 네트워크 규모의 증가로 인해 관리 시스템의 복잡도가 계속하여 증가되고 있어 기계학습의 학습 난이도가 증가되고 있다.
상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 계층 그래프 학습 구조를 이용하여 네트워크 환경을 계층화 및 소분하고 기계 학습을 이용하여 네트워크 관리를 수행하는 것이다.
계층 그래프를 이용한 네트워크 관리 모델 학습 방법 및 장치는 모델 학습장치가 물리적 네트워크 정보, 서비스 정보 및 가상 네트워크 배치 정보를 입력 받는 단계; 상기 모델 학습장치가 상기 물리적 네트워크 정보를 기초로 네트워크 그래프를 생성하는 단계; 상기 모델 학습장치가 상기 네트워크 그래프의 복수개의 노드를 복수개의 집합으로 나눈 뒤, 상기 모든 집합 각각에 대하여 각 집합에 속한 노드를 하나의 노드로 압축해 계층 그래프를 생성하는 단계; 상기 모델 학습장치가 상기 계층 그래프, 상기 서비스 정보 및 상기 가상 네트워크 배치 정보를 기초로 네트워크 관리 모델을 학습하는 단계; 를 포함하되 상기 학습하는 단계는 상기 계층 그래프의 전체 노드들 각각에 대하여 학습과정을 반복하고 상기 학습과정은 상기 계층 그래프의 노드 중 하나의 노드를 압축 해제하여 상기 계층 그래프 중 상기 어느 하나의 노드를 압축 해제하여 생성된 서브 그래프, 상기 계층 그래프 중 상기 어느 하나의 노드를 제외한 나머지 노드들 및 상기 서브 그래프와 상기 나머지 노드들 사이의 링크로 구성되는 학습 그래프를 생성하는 단계; 상기 생성된 학습 그래프에 대응되도록 상기 서비스 정보를 수정하는 단계; 상기 학습 그래프 및 상기 수정된 서비스 정보를 입력 값으로 하고, 상기 가상 네트워크 배치 정보를 라벨링 값으로 하여 상기 네트워크 관리 모델을 학습하는 단계; 를 포함한다.
이하 설명하는 기술은 그래프 모델 혹은 그래프 신경망을 이용하여 네트워크 데이터를 효율적으로 관리할 수 있게 해준다.
이하 설명하는 기술은 관리 대상이 되는 네트워크의 규모를 계층화 및 소분화 하여 네트워크 관리를 지역적으로 축소한다. 이에 네트워크 관리모델이 자동으로 학습되게 하며 최적화된 네트워크 관리 시스템을 추구한다.
이하 설명하는 기술은 계층 그래프 학습 구조를 이용하는 것으로 기존의 복잡한 네트워크 관리 문제의 난이도를 기계학습이 빠르게 이해할 수 있는 수준으로 낮추어 빠른 시간에 최적의 네트워크 자원 관리가 가능하게 한다.
이하 설명하는 기술은 그래프 계층화 및 소분화 단계에서 발생할 수 있는 데이터 유효성 문제를 검증하는 것으로 기계 학습 성능의 저하를 방지한다.
도1은 모델 학습장치가 네트워크 관리모델을 학습하는 과정을 보여준다.
도2는 네트워크 관리모델의 일 실시예를 보여준다.
도3a, 도3b 및 도3c는 몇몇 실시예에 따른 그래프 압축 및 일부 해제에 따른 예를 보여준다.
도4는 네트워크 그래프 압축과정의 일 실시예를 보여준다.
도5는 모델 학습장치의 구조에 대해 보여준다.
이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있다. 명세서의 도면에 이하 설명하는 기술의 특정 실시 형태가 기재될 수 있다. 그러나, 이는 이하 설명하는 기술의 설명을 위한 것이며 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니다. 따라서 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물이 이하 설명하는 기술에 포함하는 것으로 이해되어야 한다.
다양한 구성요소들을 설명하기 위해서 제1, 제2 A, B 등의 용어가 사용될 수 있다. 하지만 상기 용어는 단지 하나의 구성요소를 다른 구성요소들과 구별하기 위해서 사용될 뿐, 상기 용어로 해당 구성요소들을 한정하려고 하는 것이 아니다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어 들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또 라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설시된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요 소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.
도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기 능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이 하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전 부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에의 해 전담되어 수행될 수도 있음은 물론이다.
또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
이하 설명하는 기술에서 그래프는 연결되어 있는 객체간의 관계를 보여주는 자료구조를 의미할 수 있다. 그래프는 노드(Node) 및 엣지(Edge)를 포함할 수 있다. 엣지는 링크(Link)라고 할 수도 있다.
이하 설명하는 기술에서 네트워크 그래프는 네트워크를 그래프로 표현할 것을 의미할 수 있다.
이하 설명하는 기술에서 계층 그래프란 네트워크 그래프를 압축한 그래프를 의미할 수 있다.
이하 설명하는 기술에서 가상 네트워크 기능(Virtual Network Function, VNF)는 가상 네트워크 환경에서 특정 네트워크 기능들을 제공하는 것을 의미할 수 있다. 예를 들어 가상 네트워크 기능의 종류에는 방화벽(Firewall), 프록시(Proxy), 침입감지 시스템(Intrusion Detection System, IDS), NAT(Network Address Translation), WANO(Wide Area Network optimizer)가 있을 수 있다.
이하 설명하는 기술에서 서비스 기능 체인(Service Function Chain, SFC)이란 네트워크 서비스 제공을 위하여 VNF들을 순서대로 연결하는 것을 의미할 수 있다.
이하 모델 학습장치(100)가 네트워크 관리모델을 학습시키는 전체적인 과정을 설명한다.
도1은 모델 학습장치(100)가 네트워크 관리모델을 학습시키는 과정을 보여준다.
모델 학습장치(100)는 물리적 네트워크 정보, 서비스 정보 및 가상 네트워크 배치 정보를 입력 받을 수 있다. 모델 학습장치(100)는 상기 물리적 네트워크 정보를 기초로 네트워크 그래프를 생성할 수 있다. 모델 학습장치(100)는 상기 네트워크 그래프의 복수개의 노드를 복수개의 집합으로 나눈 뒤, 상기 모든 집합 각각에 대하여 각 집합에 속한 노드를 하나의 노드로 압축해 계층 그래프를 생성할 수 있다. 모델 학습장치(100)는 상기 모델 학습장치가 상기 계층 그래프, 상기 서비스 정보 및 상기 가상 네트워크 배치 정보를 기초로 네트워크 관리 모델을 학습할 수 있다.
학습하는 단계는 상기 계층 그래프의 전체 노드들 각각에 대하여 학습과정을 반복할 수 있다.
상기 학습과정은 계층 그래프의 노드 중 하나의 노드를 압축 해제하여 학습 그래프를 생성하는 단계; 상기 생성된 학습 그래프에 대응되도록 상기 서비스 정보를 수정하는 단계; 상기 학습 그래프 및 상기 수정된 서비스 정보를 입력 값으로 하고, 상기 가상 네트워크 배치 정보를 라벨링 값으로 하여 상기 네트워크 관리 모델을 학습하는 단계; 를 포함할 수 있다.
상기 학습그래프는 상기 계층 그래프 중 상기 어느 하나의 노드를 압축 해제하여 생성된 서브 그래프, 상기 계층 그래프 중 상기 어느 하나의 노드를 제외한 나머지 노드들 및 상기 서브 그래프와 상기 노드들 사이의 링크로 구성될 수 있다.
또한 모델 학습장치(100)는 수집된 입력 받은 정보를 전 처리(pre-processing) 할 수 있다.
또한 모델 학습장치(100)는 학습데이터의 학습 적합성을 검사할 수 있다.
네트워크 관리 장치는 모델 학습장치(100)가 학습시킨 네트워크 관리모델을 이용해 네트워크를 관리할 수 있다.
네트워크 관리 장치는 물리적 네트워크 정보 및 서비스정보를 입력 받을 수 있다. 네트워크 관리 장치는 입력 받은 물리적 네트워크 정보 및 서비스 정보를 네트워크 관리모델에 입력할 수 있다. 네트워크 관리장치는 네트워크 관리모델이 출력하는 값을 기초로 네트워크를 관리하는 정보를 출력할 수 있다. 즉 네트워크 관리 장치는 서비스 요청에 따라 네트워크에 가상 네트워크 기능을 배치시킬 수 있다.
이하 모델 학습장치(100)가 가상 네트워크 관리모델을 학습시키는 구체적인 과정을 설명한다.
모델 학습장치(100)가 입력 받은 물리적 네트워크 정보, 서비스 정보 및 가상 네트워크 기능 정보는 네트워크 관리모델을 학습시키는데 필요한 정보를 포함할 수 있다.
물리적 네트워크 정보, 서비스 정보 및 가상 네트워크 기능 정보는 수집시간에 대한 정보를 포함할 수 있다. 즉 물리적 네트워크 정보, 서비스 정보 및 가상 네트워크 기능 정보는 수집시간에 따라 연속적으로 수집된 정보 일 수 있다.
물리적 네트워크 정보는 자원정보를 포함할 수 있다. 예를 들어 물리적 네트워크 정보는 노드의 CPU core 수, 노드의 최대 허용 대역폭, 링크의 최대 허용 대역폭, 링크의 지연시간, 노드의 IDLE, Peak 전력소모량 등의 정보를 포함할 수 있다.
물리적 네트워크 정보는 토폴로지 정보를 포함할 수 있다. 예를 들어 물리적 네트워크 정보는 토폴로지 내 노드의 개수, 토폴로지 내 링크의 개수, 토폴로지의 구조 등의 정보가 포함할 수 있다.
서비스 정보는 서비스 요청에 다른 정보를 포함한다. 예를 들어 서비스 정보는 트래픽의 출발 노드, 트래픽의 도착 노드, 트래픽의 요구 대역폭, 트래픽의 최대 허용 지연시간, 서비스의 비용, 서비스 타입 등의 정보를 포함할 수 있다.
가상 네트워크 배치 정보는 서비스 정보에 따라 네트워크에 배치된 가상 네트워크 기능의 위치 및 서비스 정보에 따라 네트워크에 배치된 가상 네트워크 기능의 수가 포함되어 있을 수 있다.
예를 들어 가상 네트워크 배치 정보는 서비스 요청 정보에 따라 가상 네트워크 기능에서 요구하는 CPU코어의 수 설치비용 등을 고려하여 네트워크 각 노드들에 배치된 최적의 가상 네트워크 기능 배치 위치 및 가상 네트워크 기능의 인스턴스의 개수 정보가 포함되어 있을 수 있다.
다시 말하면 가상 네트워크 기능 정보는 서비스 요청에 따라 설치비용, 에너지 비용, 트래픽 비용, 서비스 딜레이로 인한 비용을 고려하여 각 서버에 가상 네트워크 기능을 배치한 결과에 대한 정보를 포함할 수 있다.
더 나아가 가상 네트워크 배치 정보에는 가상 네트워크 기능의 종류, 가상 네트워크 기능에 필요한 CPU 코어의 수, 가상 네트워크 기능에 필요한 처리 용량(Processing Capacity) 및 가상네트워크 기능의 처리 딜레이(Processing Delay)에 대한 정보가 포함되어 있을 수 있다.
가상 네트워크 기능의 종류에는 방화벽(Firewall), 프록시(Proxy), 침입감지시스템(Intrusion Detection System, IDS), 네트워크 주소변환(Network address Translation, NAT) 및 WANO(Wide Area Network Optimizer) 중 적어도 하나를 포함되어 있을 수 있다.
가상 네트워크 배치 정보는 네트워크 관리모델을 학습시키기 위해서 라벨링 데이터가 될 수 있다.
가상 네트워크 배치 정보는 물리적 네트워크 정보 및 서비스 정보를 선형계획법(Integer Linear Programming, ILP) 모델 또는 휴리스틱(Heuristics)으로 분석한 결과를 포함할 수 있다.
모델 학습장치(100)는 입력 받은 정보를 전 처리(Pre-processing) 할 수 있다.
모델 학습장치(100)는 입력된 정보를 인코딩 할 수 있다. 즉 입력 받은 정보를 네트워크 관리모델이 학습할 수 있도록 변환할 수 있다.
예를 들어 입력 받은 정보에 범주형 데이터가 포함되어 있는 경우, 네트워크 관리모델이 학습할 수 있도록 범주형 데이터를 수치형 데이터로 변경할 수 있다.
모델 학습장치(100)는 수집된 정보를 정규화 할 수 있다. 이는 수치적 데이터는 그 종류에 따라 크기가 서로 다를 수 있기 때문이다.
예를 들어 수집된 데이터를 평균이 0 분산이 1이 되도록 처리할 수 있다. 또는 서로 다른 단위를 가지는 데이터가 있는 경우 단위를 통일할 수 있다.
모델 학습장치(100)는 수집된 물리적 네트워크 정보를 기초로 네트워크 그래프를 생성할 수 있다. 다시 말하면 모델 학습장치(100)는 그래프를 이용하여 물리 네트워크 정보를 표현할 수 있다.
생성된 네트워크 그래프는 복수개의 노드 및 엣지를 포함할 수 있다.
네트워크 그래프의 각 노드는 서버를 표현한 것일 수도 있다. 또는 통신을 하기 위한 장치를 표현할 것일 수 있다.
네트워크 그래프의 각 엣지는 각 서버를 연결한 것을 표현한 것일 수 있다.
모델 학습장치(100)는 3가지 행렬을 기초로 그래프를 표현할 수 있다. 3가지 행렬은 노드 행렬, 엣지 행렬 및 인접 행렬을 포함할 수 있다.
노드 행렬은 그래프의 노드에 대한 특징 데이터를 가지고 있는 행렬일 수 있다. 예를 들어 노드 행렬은 각 노드들의 CPU core의 수, 저장용량, 전력소모량 등의 정보를 포함할 수 있다. 이에 노드 행렬은 (노드 수) X (노드 특징 수)인 행렬일 수 있다.
엣지 행렬은 그래프의 엣지에 대한 특징 데이터를 가지고 있는 행렬 일 수 있다. 예를 들어 엣지 행렬은 각 링크의 최대 허용 대역폭(maximum bandwidth), 가용 허용대역폭(available bandwidth) 및 지연시간(delay)에 대한 정보를 포함할 수 있다. 이에 엣지 행렬은 (노드 수) X (노드 수) X (엣지의 특징 수) 일 수 있다.
인접 행렬은 그래프의 노드들이 서로 어떻게 연결되어 있는지에 대한 정보를 가지고 있는 행렬 일 수 있다. 인접행렬은 (노드 수) X (노드 수)의 크기를 가질 수 있다.
인접행렬은 각 노드가 연결되었는지를 기준으로 희소행렬로 표현될 수 있다. 예를 들어 각 노드가 연결이 되어 있다면 1, 연결이 되어 있지 않다면 0으로 표현될 수 있다.
모델 학습장치(100)는 생성된 그래프를 압축할 수 있다. 즉 네트워크 그래프는 그래프 압축을 통하여 계층화 및 소분화 될 수 있다.
압축된 그래프는 계층 그래프라고 부를 수 있다.
모델 학습장치(100)는 네트워크 그래프의 복수개의 노드를 복수개의 집합(또는 클러스트)으로 나눈 뒤, 상기 모든 집합 각각에 대하여 각 집합에 속한 노드를 하나의 노드로 압축해 계층 그래프를 만들 수 있다.
그래프 압축은 다양한 기준으로 진행될 수 있다.
예를 들어 그래프 압축은 노드 사이의 연관관계, 네트워크 특징, 특정 데이터 또는 물리적 거리를 기준으로 여러 개의 노드를 하나의 그룹으로 분류한 뒤, 각 그룹에 속한 노드를 하나의 노드로 만들어 그래프 압축을 진행할 수 있다.
위 기준에 따라 그래프 압축은 모든 노드에 대해 진행되거나 일부 노드에 대해서만 진행될 수도 있다. 관리자는 모델 학습장치(100)가 어떤 기준을 이용해서 그래프를 압축시킬 것인지 미리 설정해 놓을 수 있다.
그래프가 압축된 경우 그래프의 노드 행렬, 엣지 행렬 및 인접행렬은 변할 수 있다. 이에 대한 구체적인 실시예는 아래에서 설명한다.
그래프 압축은 압축모델을 이용하여 진행될 수 있다. 압축모델은 그래프 신경망 모델로 구현된 모델일 수 있다. 압축모델은 사전에 그래프를 입력 받아 그래프를 압축하도록 된 압축모델일 수 있다.
그래프 압축은 여러번 수행될 수 있다. 예를 들어 그래프의 규모가 크다면 먼저 크게 분류하여 압축을 수행한 뒤, 각 압축된 그래프내의 노드를 다시 세분화하여 다시 압축할 수 있다. 하지만 반드시 여러 번 수행되어야 하는 것은 아니며 1번만 수행될 수 있다.
그래프 압축은 상향식으로 여러 번 수행될 수 있다. 하지만 반드시 상향식으로 진행되어야 하는 것은 아니다. 예를 들어 하양식으로 진행될 수도 있다.
모델 학습장치(100)는 계층 그래프가 잘 생성되었는지 검사할 수 있다.
모델 학습장치(100)는 압축된 그래프의 학습 적합성 검사를 할 수 있다.
학습 적합성 검사는 압축된 그래프가 네트워크 관리모델을 학습하는데 적합한지 판단하는 검사를 의미할 수 있다.
학습 적합검사는 네트워크 그래프에서는 서로 다른 노드에 배치된 서로 다른 가상 네트워크 기능이 네트워크 그래프 압축으로 인하여 학습 그래프에서는 하나의 노드로 배치된 경우가 있는지 검사하는 과정을 의미할 수 있다.
학습 적합성 검사의 예를 들면 다음과 같다.
서비스 요청에 따라 CPU Core 가 많은 1번 노드에 가상 네트워크 기능 중 하나인 방화벽(Fire wall)이 설치되고, CPU Core가 적은 2번 노드에 가상 네트워크 기능 중 하나인 프록시(proxy)가 설치될 수 되었다. 그래프의 압축에 따라 1번 노드 및 2번 노드는 압축되어 하나의 노드가 될 수 있다. 이러한 계층 그래프를 이용해 네트워크 관리모델을 학습시키는 경우 관리모델이 잘못된 학습을 할 수 있다. 왜냐하면 방화벽은 CPU core가 많은 노드에 배치되어야 하고, 프록시는 CPU core가 적은 노드에 배치되어야 하는데 이러한 정보가 압축으로 인하여 사라질 수 있기 때문이다.
모델 학습장치(100)는 학습 적합성 검사를 수행한 뒤 네트워크 관리모델을 학습시키는데 부적절한 노드가 있으면, 해당 노드의 압축을 해제할 수 있다.
또는 모델 학습장치(100)는 처음부터 이러한 데이터를 포함하는 노드는 압축하지 않을 수 있다.
모델 학습장치(100)는 계층 그래프의 일부 노드의 압축을 해제할 수 있다.
일부 노드의 압축이 해제된 계층 그래프는 학습그래프라고 부를 수도 있다. 왜냐하면 일부 노드의 압축이 해제된 계층 그래프는 네트워크 관리모델의 학습에 이용될 수 있기 때문이다.
모델 학습장치(100)는 계층 그래프에서 특정 노드를 선택한 뒤, 선택한 노드의 압축을 해제할 수 있다. 모델 학습장치(100)는 해제된 노드에 추가적인 압축 노드가 존재하지 않을 때까지 계속해서 압축을 해제할 수 있다.
계층 그래프의 압축 해제는 일부 노드에 대해서만 진행될 수 있다.
학습 그래프는 계층 그래프 중 어느 하나의 노드를 압축 해제하여 생성된 서브 그래프, 상기 계층 그래프 중 상기 어느 하나의 노드를 제외한 나머지 노드들 및 상기 서브 그래프와 상기 나머지 노드들 사이의 링크로 구성될 수 있다.
모델 학습장치(100)가 하나의 계층 그래프로부터 복수개의 압축 해제된 계층 그래프를 생성할 수 있다.
예를 들어 계층 그래프가 3개의 노드(A, B, C)를 가지고 있는 경우 A의 압축을 해제한 제1 계층 그래프, B의 압축을 해제한 제2 계층 그래프, C의 압축을 해제한 제3 계층 그래프를 만들 수 있다. 또는 A및 B의 압축을 해제한 제4 계층 그래프, A 및 C의 압축을 해제한 제5 계층 그래프 B 및 C의 압축을 해제한 제6 계층 그래프를 만들 수 있다. 이렇게 만들어진 제1 내지 제6 계층 그래프는 학습그래프가 되어 네트워크 관리모델을 학습시키는데 이용될 수 있다.
다시 말하면 학습하는 단계는 계층 그래프의 전체 노드들 각각에 대하여 압축이 해제되어 학습하는 과정일 수 있다.
일부가 복원된 계층 그래프는 네트워크 그래프보다 상대적으로 적은 정보를 가질 수 있다. 따라서 모델 학습장치(100)는 일부가 복원된 계층 그래프를 이용해서 상대적으로 빠르게 네트워크 관리모델을 학습시킬 수 있다.
예를 들어 네트워크 그래프의 노드가 14개라면 인접 행렬은 14 X 14의 희소행렬(Sparse Matrix)로 표현될 수 있다. 네트워크 그래프를 이용하면 학습데이터의 정보량이 상대적으로 많아질 수 있다. 반면 일부가 복원된 계층 그래프의 인접 행렬은 6 X 6의 희소행렬로 표현될 수 있다. 일부가 복원된 계층 그래프를 이용하면 학습데이터의 정보량이 상대적으로 적어질 수 있다.
일부가 복원된 계층 그래프는 계층 그래프보다 상대적으로 많은 정보를 가질 수 있다. 이에 모델 학습장치(100)는 일부가 복원된 계층 그래프를 이용해서 상대적으로 정확하게 네트워크 관리모델을 학습시킬 수 있다.
한편 모델 학습장치(100)는 일부가 압축 해제된 계층 그래프에 대응되도록 서비스 정보를 수정할 수 있다. 구체적인 실시예는 이하에서 설명한다.
모델 학습장치(100)는 학습 그래프, 수정된 서비스 정보 및 가상 네트워크 배치 정보를 기초로 학습데이터를 생성할 수 있다. 다시 말하면 학습 그래프, 수정된 서비스 정보 및 가상 네트워크 배치 정보를 이용해 네트워크 관리모델을 학습시킬 수 있다.
학습데이터는 서비스 요청에 따라 물리적 네트워크에 배치한 가상 네트워크 기능의 배치 위치 및 개수에 대한 정보를 포함할 수 있다.
즉 일부가 압축 해제된 계층 그래프 및 수정된 서비스 정보는 입력 변수가 되고 가상 네트워크 기능 정보 중 일부는 라벨링 데이터가 될 수 있다.
모델 학습장치(100)는 학습데이터를 이용해서 네트워크 관리모델을 학습시킬 수 있다.
네트워크 관리모델은 네트워크 그래프 정보 및 서비스 정보를 입력 받아 최적의 가상 네트워크 기능의 배치 및 수에 대한 정보를 출력하는 모델일 수 있다.
네트워크 관리모델은 인공신경망을 이용해 구현된 모델일 수 있다.
도2는 몇몇 실시예에 따른 네트워크 관리모델의 예를 보여준다.
네트워크 관리모델은 GNN(Graph neural network)을 포함할 수 있다. GNN은 그래프 정보를 입력 받아 분석할 수 있다. 그래프 정보는 노드 행렬, 엣지행렬 및 인접행렬에 대한 정보가 포함되어 있을 수 있다.
네트워크 관리모델은 FNN(Feed Forward network)을 포함할 수 있다. FNN는 수정된 서비스 정보를 입력 받아 분석할 수 있다. 수정된 서비스 정보는 서비스에 대한 여러가지 정보가 하나의 벡터로 표현된 정보를 포함할 수 있다. FNN은 학습 파라미터를 공유(Weight sharing)할 수 있다.
서비스 정보와 물리적 네트워크 정보는 페어로 이루어질 수 있다. 즉 사용자가 요구하는 서비스마다 서비스 정보 및 네트워크 정보가 있을 수 있다.
네트워크 관리모델은 GNN 및 FNN에서 출력한 결과를 결합(Concatenation)하여 분석할 수 있다. 네트워크 관리모델은 결합된 정보를 2개의 추가 FNN에 입력할 수 있다. 네트워크 관리모델은 2개의 FNN의 출력값을 완전 연결 계층(Fully Connected layer, FCN)에 입력하여 최종 결과값을 생성할 수 있다. 네트워크 관리모델은 최종 결과값을 기초로 입력받은 서비스정보 및 물리적 네트워크 정보에 따른 모든 서버들에 특정 타입의 가상 네트워크 기능 을 몇 개 설치해야 하는지에 대한 정보를 출력할 수 있다.
이하 모델 학습장치(100)가 네트워크 그래프를 압축한 실시예에 대해 살펴본다.
도3a, 도3b 및 도3c는 몇몇 실시예에 따른 그래프 압축 및 일부 해제에 따른 예를 보여준다.
도3a, 도3b 및 도3c의 (A) 내지 (C)는 네트워크 그래프, 계층 그래프, 학습 그래프에 따른 그래프의 형상, 인접행렬, 서비스 정보를 보여준다.
도3a, 도3b 및 도3c의 (A)는 네트워크 그래프에 대한 정보이다. 도3a, 도3b 및 도3c의 (B)는 계층 그래프에 대한 정보이다. 도3a, 도3b 및 도3c의 (C)는 학습 그래프에 대한 정보이다.
도3a는 각 그래프를 보여준다. 도3b는 각 그래프에 따른 인접행렬을 보여준다. 도3c는 각 그래프에 따른 서비스 정보를 보여준다.
모델 학습장치(100)는 물리적 네트워크 정보를 기초로 네트워크 그래프를 생성할 수 있다.
도3a (A)는 네트워크 그래프를 보여준다.
네트워크 그래프는 총 9개의 노드와 노드들을 연결하는 13개의 엣지를 가질 수 있다. 각각의 노드는 가상 네트워크 기능을 배포할 수 있는 서버를 표현할 것일 수 있다.
모델 학습장치(100)는 네트워크 그래프를 3개의 노드로 압축할 수 있다.
도3a (B)는 계층 그래프를 보여준다.
노드 1내지 3은 하나로 압축되어 노드 A가 될 수 있다. 노드 4내지 7은 압축되어 노드 B가 될 수 있다. 노드 8 및 9는 압축되어 노드 C가 될 수 있다.
모델 학습장치(100)는 계층 그래프에 대응되도록 서비스 정보를 수정할 수 있다.
도3c의 (B)에서 볼 수 있듯이 서비스 정보는 계층 그래프에 대응되도록 출발 노드 및 도착 노드의 정보가 수정될 수 있다.
모델 학습장치(100)는 계층 그래프 일부의 압축을 해제할 수 있다. 즉 학습 그래프를 생성할 수 있다.
도3a의 (C)는 학습 그래프를 보여준다.
계층 그래프의 노드 A는 압축 해제될 수 있다.
도3c의 (C)에서 볼 수 있듯이 서비스 정보는 학습 그래프에 대응되도록 첫번째, 두번째 서비스 정보의 출발 및 도착 노드가 일부 수정되었다.
그래프의 인접행렬은 희소행렬로 표현될 수 있다. 즉 노드가 연결이 되어 있으면 1, 연결이 되지 않으면 0으로 표현될 수 있다.
압축되기 전 네트워크 그래프의 인접행렬은 9 X 9의 희소행렬을 가진다(도3b의 A). 계층 그래프의 인접행렬은 3 X 3의 희소행렬을 가진다(도3b의 B). 학습 그래프의 인접행렬은 5 X 5의 희소행렬을 가진다(도3b의 C).
학습 그래프(도3b의 C)의 인접행렬은 네트워크 그래프(도3b의 A)의 인접행렬보다 상대적으로 적은 정보량을 가진다. 이에 모델 학습장치(100)가 네트워크 그래프를 이용할 때 보다 학습 그래프를 이용할 때, 네트워크 관리모델을 빠르게 학습시킬 수 있다.
학습 그래프(도3b의 C)의 인접행렬은 계층 그래프(도3b의 B)의 인접행렬보다 상대적으로 많은 정보량을 가진다. 이에 모델 학습장치(100)가 계층 그래프의 인접행렬을 이용할 때 보다 학습 그래프를 이용할 때, 네트워크 관리모델을 정확하게 학습시킬 수 있다.
앞선 설명은 인접행렬을 예로 이용했으나, 반드시 인접행렬의 경우에만 한정되지 아니한다. 즉 앞선 설명은 노드행렬 및 엣지행렬도 마찬가지로 적용될 수 있다.
도4는 몇몇 실시예에 따른 그래프의 압축의 일 예를 보여준다.
(A)는 네트워크 그래프이다. (B)는 1회 압축되어 만들어진 계층 그래프이다. (C)는 2회 압축된 계층 그래프를 보여준다.
모델 학습장치(100)는 네트워크 그래프의 일부 노드에 대해서만 압축을 진행할 수 있다.
노드2, 3, 6, 8, 9, 10, 11 및 12는 하나의 노드로 압축되어 노드 A가 되었다. 노드 7, 13, 14 및 15는 하나의 노드로 압축되어 노드 B가 되었다. 반면 노드 1, 4, 5, 9, 16은 압축이 진행되지 아니하였다.
모델 학습장치(100)는 네트워크 그래프를 반복하여 압축할 수 있다.
노드 A와 노드 B는 다시 압축되어 노드 C가 되었다.
이하 모델 학습장치의 구성에 대해 살펴본다.
도5는 모델 학습장치의 구성에 대하여 도시한 것이다. 도5의 모델 학습장치(500)는 도1의 모델 학습장치(100)와 동일하다.
모델 학습장치(500)는 PC, 노트북, 스마트기기, 서버, 또는 데이터처리 전용 칩셋 등과 물리적으로 다양한 형태로 구현될 수도 있다 모델 학습장치(500)는 입력장치(510), 저장장치(520), 연산장치(530), 출력장치(540)를 포함할 수 있다.
입력장치(510)는 일정한 명령 또는 데이터를 입력 받는 인터페이스 장치(키보드, 마우스, 터치스크린 등)를 포함할 수도 있다. 입력장치(510)는 별도의 저장장치(USB, CD, 하드디스크 등)을 통하여 정보를 입력 받는 구성을 포함할 수도 있다. 입력장치(510)는 입력 받는 데이터를 별도의 측정장치를 통하여 입력 받거나, 별도의 DB을 통하여 입력 받을 수도 있다.
입력장치(510)는 물리적 네트워크 정보, 서비스 정보 및 가상 네트워크 배치 기능 정보를 입력 받을 수 있다.
저장장치(520)는 입력장치(510)을 통해 입력 받은 정보를 저장할 수 있다. 저장장치(520)는 연산장치(530)가 연산하는 과정에서 생성되는 정보를 저장할 수 있다. 즉 저장장치(520)는 메모리를 포함할 수 있다. 저장장치(520)는 연산장치가 계산한 결과를 저장할 수 있다. 저장장치(520)는 출력장치가 출력하는 정보를 저장할 수 있다.
연산장치(530)는 계층 그래프를 이용한 네트워크 관리 모델 학습 방법을 수행할 수 있다. 연산장치(530)는 상기 물리적 네트워크 정보를 기초로 네트워크 그래프를 생성할 수 있다. 연산장치(530)는 상기 네트워크 그래프의 복수개의 노드를 복수개의 집합으로 나눈 뒤, 상기 모든 집합 각각에 대하여 각 집합에 속한 노드를 하나의 노드로 압축해 계층 그래프를 생성할 수 있다. 연산장치(530)는 상기 계층 그래프, 상기 서비스 정보 및 상기 가상 네트워크 배치 정보를 기초로 네트워크 관리 모델을 학습할 수 있다. 연산장치(530)는 상기 계층 그래프의 전체 노드들 각각에 대하여 학습과정을 반복할 수 있다.
출력장치(540)는 일정한 정보를 출력하는 장치가 될 수도 있다. 출력장치(540)은 데이터 과정에 필요한 인터페이스, 입력된 데이터, 분석결과 등을 출력할 수도 있다. 출력장치(540)은 디스플레이, 문서를 출력하는 장치, 등과 같이 물리적으로 다양한 형태로 구현될 수도 있다.
네트워크 관리모델도 학습 장치와 마찬가지로 입력장치(510), 저장장치(520), 연산장치(530) 및 출력장치(540)로 구성될 수 있다.
또한, 상술한 바와 같이 계층 그래프를 이용한 네트워크 관리모델 학습방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램(또는 어플리케이션)으로 구현될 수 있다. 상기 프로그램은 일시적 또는 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM (read-only memory), PROM (programmable read only memory), EPROM(Erasable PROM, EPROM) 또는 EEPROM(Electrically EPROM) 또는 플래시 메모리 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
일시적 판독 가능 매체는 스태틱 램(Static RAM,SRAM), 다이내믹 램(Dynamic RAM,DRAM), 싱크로너스 디램 (Synchronous DRAM,SDRAM), 2배속 SDRAM(Double Data Rate SDRAM,DDR SDRAM), 증강형 SDRAM(Enhanced SDRAM,ESDRAM), 동기화 DRAM(Synclink DRAM,SLDRAM) 및 직접 램버스 램(Direct Rambus RAM,DRRAM) 과 같은 다양한 RAM을 의미한다.
본 실시예 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시예는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.

Claims (14)

  1. 모델 학습장치가 물리적 네트워크 정보, 서비스 정보 및 가상 네트워크 배치 정보를 입력 받는 단계;
    상기 모델 학습장치가 상기 물리적 네트워크 정보를 기초로 네트워크 그래프를 생성하는 단계;
    상기 모델 학습장치가 상기 네트워크 그래프의 복수개의 노드를 복수개의 집합으로 나눈 뒤, 상기 모든 집합 각각에 대하여 각 집합에 속한 노드를 하나의 노드로 압축해 계층 그래프를 생성하는 단계; 및
    상기 모델 학습장치가 상기 계층 그래프, 상기 서비스 정보 및 상기 가상 네트워크 배치 정보를 이용하여 네트워크 관리모델을 학습하는 단계; 를 포함하되,
    상기 학습하는 단계는 상기 계층 그래프의 전체 노드들 각각에 대하여 학습과정을 반복하고 ,
    상기 학습과정은
    상기 계층 그래프의 노드 중 하나의 노드를 압축 해제하여 상기 계층 그래프 중 상기 어느 하나의 노드를 압축 해제하여 생성된 서브 그래프, 상기 계층 그래프 중 상기 어느 하나의 노드를 제외한 나머지 노드들 및 상기 서브 그래프와 상기 나머지 노드들 사이의 링크로 구성되는 학습 그래프를 생성하는 단계;
    상기 생성된 학습 그래프에 대응되도록 상기 서비스 정보를 수정하는 단계;
    상기 학습 그래프 및 상기 수정된 서비스 정보를 입력 값으로 하고, 상기 가상 네트워크 배치 정보를 라벨링 값으로 하여 상기 네트워크 관리 모델을 학습하는 단계; 를 포함하는,
    계층 그래프를 이용한 네트워크 관리모델 학습 방법.
  2. 제1항에 있어서,
    상기 모델 학습장치가 상기 학습 그래프에서 상기 네트워크 관리모델 학습에 적합하지 않는 노드가 있는지 검사하는 단계;
    상기 모델 학습장치가 상기 검사의 결과를 기초로 상기 네트워크 관리모델 학습에 적합하지 않는 상기 학습 그래프의 노드의 압축을 해제하는 단계; 를 더 포함하되,
    상기 네트워크 관리모델 학습에 적합하지 않는 노드는
    상기 네트워크 그래프에서 서로 다른 노드에 배치된 서로 다른 가상 네트워크 기능이 상기 네트워크 그래프 압축으로 인하여 상기 학습 그래프에서는 하나의 노드로 배치된 경우, 상기 서로 다른 가상 네트워크 기능이 배치된 상기 학습 그래프의 하나의 노드인 ,
    계층 그래프를 이용한 네트워크 관리모델 학습 방법.
  3. 제1항에 있어서,
    상기 모델 학습장치가 상기 물리적 네트워크 정보, 상기 서비스 정보 및 상기 가상 네트워크 배치 정보를 전 처리(pre-processing) 하는 단계를 더 포함하되
    상기 전처리는 상기 물리적 네트워크 정보, 상기 서비스 정보 및 상기 가상 네트워크 배치 정보를 수치화 또는 정규화 하는 것을 포함하는,
    계층 그래프를 이용한 네트워크 관리모델 학습 방법.
  4. 제1항에 있어서,
    상기 물리적 네트워크 정보는 노드의 CPU 코어의 수, 노드의 최대 허용 대역폭, 노드의 IDLE, 노드의 전력소모량, 링크의 지연시간, 토폴로지 내 노드의 개수, 토폴로지 내 링크의 개수 및 토폴로지의 구조 중 적어도 하나를 포함하는,
    계층 그래프를 이용한 네트워크 관리모델 학습 방법.
  5. 제1항에 있어서,
    상기 서비스 정보는 트래픽의 출발지 노드, 트래픽의 도착지 노드, 트래픽의 요구 대역폭, 트래픽의 최대 허용 지연 시간, 서비스의 비용 및 서비스 타입 중 적어도 하나를 포함하는
    계층 그래프를 이용한 네트워크 관리모델 학습 방법.
  6. 제1항에 있어서
    상기 네트워크 배치 정보는
    상기 서비스 정보에 따라 상기 네트워크에 배치된 가상 네트워크 기능(Virtual Network Function, VNF)의 위치 및 상기 서비스 정보 따라 상기 네트워크에 배치된 가상 네트워크 기능의 수에 대한 정보를 포함하는
    계층 그래프를 이용한 네트워크 관리모델 학습 방법.
  7. 제1항에 있어서,
    상기 가상 네트워크 기능은
    방화벽(Firewall), 프록시(Proxy), 침입감지시스템(Intrusion Detection System, IDS), 네트워크 주소변환(Network address Translation, NAT) 및 WANO(Wide Area Network Optimizer) 중 적어도 하나를 포함하는,
    계층 그래프를 이용한 네트워크 관리모델 학습 방법.
  8. 제1항에 있어서
    상기 가상 네트워크 배치 정보는
    상기 물리적 네트워크 정보 및 상기 서비스 정보를 선형계획법(Integer Linear Programming, ILP) 모델을 이용해서 분석한 결과를 포함하는
    계층 그래프를 이용한 네트워크 관리모델 학습 방법.
  9. 제1항에 있어서
    상기 가상 네트워크 배치 정보는
    상기 물리적 네트워크 정보 및 상기 서비스 정보를 휴리스틱 모델을 이용해서 분석한 결과를 포함하는
    계층 그래프를 이용한 네트워크 관리모델 학습 방법.
  10. 제1항에 있어서,
    상기 계층 그래프를 생성하는 단계는
    사전에 그래프를 압축하도록 학습된 그래프 압축 모델을 이용하여 상기 계층 그래프를 생성하는 단계를 포함하는,
    계층 그래프를 이용한 네트워크 관리모델 학습 방법.
  11. 제1항에 있어서,
    상기 계층 그래프는 상기 네트워크 그래프가 복수회 압축 되여 생성된 그래프인 계층 그래프를 이용한 그래프 신경망 네트워크 모델 학습 방법.
  12. 제1항에 있어서,
    상기 네트워크 관리모델은 그래프 신경망(Graph Neural Network, GNN) 및 순전파 신경망(Feed Forward Network, FNN)을 포함하는,
    계층 그래프를 이용한 네트워크 관리모델 학습 방법.
  13. 물리적 네트워크 정보, 서비스 정보 및 가상 네트워크 배치 정보를 입력 받는 입력장치;
    상기 물리적 네트워크 정보를 기초로 네트워크 그래프를 생성하고, 상기 네트워크 그래프의 복수개의 노드를 복수개의 집합으로 나눈 뒤, 상기 모든 집합 각각에 대하여 각 집합에 속한 노드를 하나의 노드로 압축해 계층 그래프를 생성하고, 상기 계층 그래프, 상기 서비스 정보 및 상기 가상 네트워크 배치 정보를 기초로 네트워크 관리 모델을 학습하는 연산장치; 및
    상기 네트워크 관리 모델을 저장하는 저장장치; 를 포함하되
    상기 네트워크 관리모델을 학습하는 것은 상기 계층 그래프의 전체 노드들 각각에 대하여 학습과정을 반복하는 것이고,
    상기 학습과정은
    상기 계층 그래프의 노드 중 하나의 노드를 압축 해제하여 상기 계층 그래프 중 상기 어느 하나의 노드를 압축 해제하여 생성된 서브 그래프, 상기 계층 그래프 중 상기 어느 하나의 노드를 제외한 나머지 노드들 및 상기 서브 그래프와 상기 나머지 노드들 사이의 링크로 구성되는 학습 그래프를 생성하는 한 뒤, 상기 생성된 학습 그래프에 대응되도록 상기 서비스 정보를 수정하고, 상기 학습 그래프 및 상기 수정된 서비스 정보를 입력 값으로 하고, 상기 가상 네트워크 배치 정보를 라벨링 값으로 하여 상기 네트워크 관리 모델을 학습하는 것을 포함하는
    계층 그래프를 이용한 네트워크 관리모델 학습 장치.
  14. 네트워크 관리장치가 네트워크 관리모델을 이용해서 네트워크를 관리하는 방법에 있어서
    상기 네트워크 관리모델은 상기 제1항 내지 12항의 학습방법으로 학습된 모델인
    네트워크 관리 방법.
PCT/KR2023/003069 2022-11-21 2023-03-07 계층 그래프를 이용한 네트워크 관리모델 학습 방법 및 장치 WO2024111757A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220156009A KR20240074198A (ko) 2022-11-21 2022-11-21 계층 그래프를 이용한 네트워크 관리모델 학습 방법 및 장치
KR10-2022-0156009 2022-11-21

Publications (1)

Publication Number Publication Date
WO2024111757A1 true WO2024111757A1 (ko) 2024-05-30

Family

ID=91196407

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/003069 WO2024111757A1 (ko) 2022-11-21 2023-03-07 계층 그래프를 이용한 네트워크 관리모델 학습 방법 및 장치

Country Status (2)

Country Link
KR (1) KR20240074198A (ko)
WO (1) WO2024111757A1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220044094A1 (en) * 2019-10-25 2022-02-10 Tencent Technology (Shenzhen) Company Limited Method and apparatus for constructing network structure optimizer, and computer-readable storage medium
KR20220124106A (ko) * 2021-03-02 2022-09-13 포항공과대학교 산학협력단 그래프 신경망 기반 가상 네트워크 관리 방법 및 장치

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101660584B1 (ko) 2014-04-30 2016-09-27 한국과학기술원 그래프 압축 처리 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220044094A1 (en) * 2019-10-25 2022-02-10 Tencent Technology (Shenzhen) Company Limited Method and apparatus for constructing network structure optimizer, and computer-readable storage medium
KR20220124106A (ko) * 2021-03-02 2022-09-13 포항공과대학교 산학협력단 그래프 신경망 기반 가상 네트워크 관리 방법 및 장치

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AHMED, MUHAMMAD EJAZ ET AL.: "Graph Compression by Identifying Recurring Subgraphs", PROCEEDINGS OF THE 2017 SPRING ACADEMIC CONFERENCE, vol. 24, no. 1, April 2017 (2017-04-01) *
GUO TING; ZHU XINGQUAN; WANG YANG; CHEN FANG: "Graph Compression Networks", 2021 IEEE INTERNATIONAL CONFERENCE ON BIG DATA (BIG DATA), IEEE, 15 December 2021 (2021-12-15), pages 1030 - 1036, XP034065542, DOI: 10.1109/BigData52589.2021.9671652 *
QIN KYLE K. KAI.QIN2@RMIT.EDU.AU; SALIM FLORA D. FLORA.SALIM@RMIT.EDU.AU; REN YONGLI YONGLI.REN@RMIT.EDU.AU; SHAO WEI WEI.SHAO@RMI: "G-CREWE: Graph CompREssion With Embedding for Network Alignment", PROCEEDINGS OF THE 29TH ACM INTERNATIONAL CONFERENCE ON INFORMATION & KNOWLEDGE MANAGEMENT, ACMPUB27, NEW YORK, NY, USA, 19 October 2020 (2020-10-19) - 23 October 2020 (2020-10-23), New York, NY, USA, pages 1255 - 1264, XP058706998, ISBN: 978-1-4503-6859-9, DOI: 10.1145/3340531.3411924 *

Also Published As

Publication number Publication date
KR20240074198A (ko) 2024-05-28

Similar Documents

Publication Publication Date Title
WO2020022639A1 (ko) 딥러닝 기반의 가치 평가 방법 및 그 장치
WO2017030252A1 (ko) 컨테이너 이미지 보안 검사 방법 및 그 장치
WO2023287064A1 (ko) 이상 데이터 자동 검출 및 자동 라벨링 기술을 이용한 학습 데이터베이스 구축 방법 및 시스템
WO2012050252A1 (ko) 분류기의 동적 결합에 의한 대용량 분류기 자동 생성 시스템 및 방법
WO2022260254A1 (ko) 전이학습을 통한 적응형 모델 기반의 온 디바이스 안드로이드 악성코드 탐지 방법, 이를 수행하기 위한 기록 매체 및 장치
WO2021215551A1 (ko) 블록체인 기반의 전자 연구노트 검증 방법 및 이를 이용한 전자 연구노트 관리 장치
WO2021040354A1 (ko) 신경망을 이용한 데이터 처리 방법
WO2021215620A1 (ko) 시맨틱 온톨로지를 이용한 도메인특화 이미지캡션 자동 생성 장치 및 방법
WO2019031783A1 (en) ON-DEMAND FUNCTION SUPPLY SYSTEM (FAAS), AND METHOD OF OPERATING THE SYSTEM
WO2020119069A1 (zh) 基于自编码神经网络的文本生成方法、装置、终端及介质
WO2019039757A1 (ko) 훈련 데이터를 생성하는 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램
WO2019054613A1 (ko) 바이너리 파일에 기초하여 오픈소스 소프트웨어 패키지를 식별하는 방법 및 시스템
WO2018105804A1 (ko) Bpm 기반의 iot diy 시스템 및 이의 구현방법
WO2021107449A1 (ko) 음역 전환 신조어를 이용한 지식 그래프 기반 마케팅 정보 분석 서비스 제공 방법 및 그 장치
WO2022146050A1 (ko) 우울증 진단을 위한 인공지능 연합학습 방법 및 시스템
WO2020114184A1 (zh) 联合建模方法、装置、设备以及计算机可读存储介质
WO2024111757A1 (ko) 계층 그래프를 이용한 네트워크 관리모델 학습 방법 및 장치
WO2021075742A1 (ko) 딥러닝 기반의 가치 평가 방법 및 그 장치
WO2021107445A1 (ko) 지식 그래프 및 국가별 음역 전환 기반 신조어 정보 서비스 제공 방법 및 그 장치
WO2018080009A1 (en) Electronic apparatus for recording debugging information and control method thereof
WO2023115968A1 (zh) 用户端识别违规数据的方法、设备、介质及程序产品
WO2016186326A1 (ko) 검색어 리스트 제공 장치 및 이를 이용한 방법
WO2019103223A1 (ko) 데이터 입출력 포화 검출 장치 및 방법
WO2022050477A1 (ko) 클라우드 기반 딥러닝 작업의 수행시간 예측 시스템 및 방법
CN113452810A (zh) 一种流量分类方法、装置、设备和介质