WO2019190095A1 - 네트워크 기능 가상화 환경에서 네트워크 자원 관리를 위한 장치 및 방법 - Google Patents

네트워크 기능 가상화 환경에서 네트워크 자원 관리를 위한 장치 및 방법 Download PDF

Info

Publication number
WO2019190095A1
WO2019190095A1 PCT/KR2019/003083 KR2019003083W WO2019190095A1 WO 2019190095 A1 WO2019190095 A1 WO 2019190095A1 KR 2019003083 W KR2019003083 W KR 2019003083W WO 2019190095 A1 WO2019190095 A1 WO 2019190095A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual
compute node
server device
information
virtual compute
Prior art date
Application number
PCT/KR2019/003083
Other languages
English (en)
French (fr)
Inventor
송보현
안태형
윤일국
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US17/043,619 priority Critical patent/US12112186B2/en
Priority to EP19777190.0A priority patent/EP3761563A4/en
Publication of WO2019190095A1 publication Critical patent/WO2019190095A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/069Management of faults, events, alarms or notifications using logs of notifications; Post-processing of notifications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/06Management of faults, events, alarms or notifications
    • H04L41/0654Management of faults, events, alarms or notifications using network fault recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0893Assignment of logical groups to network elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/34Signalling channels for network management communication
    • H04L41/342Signalling channels for network management communication between virtual entities, e.g. orchestrators, SDN or NFV entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/40Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0876Network utilisation, e.g. volume of load or congestion level
    • H04L43/0888Throughput
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L61/00Network arrangements, protocols or services for addressing or naming
    • H04L61/09Mapping addresses
    • H04L61/25Mapping addresses of the same type
    • H04L61/2503Translation of Internet protocol [IP] addresses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45591Monitoring or debugging support
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45595Network integration; Enabling network access in virtual machine instances

Definitions

  • the present disclosure generally relates to a network function virtualization (NFV) environment, and more particularly to an apparatus and method for network resource management in an NFV environment.
  • NFV network function virtualization
  • a 5G communication system or a pre-5G communication system is called a Beyond 4G Network communication system or a Long Term Evolution (LTE) system (Post LTE) system.
  • LTE Long Term Evolution
  • 5G communication systems are being considered for implementation in the ultra-high frequency (mmWave) band (e.g., in the 28 Giga (28 GHz) or 60 Giga (60 GHz) band).
  • mmWave ultra-high frequency
  • Array antenna, analog beam-forming, and large scale antenna techniques are discussed.
  • 5G communication system has evolved small cells, advanced small cells, cloud radio access network (cloud RAN), ultra-dense network (ultra-dense network) , Device to device communication (D2D), wireless backhaul, moving network, cooperative communication, coordinated multi-points (CoMP), and interference cancellation
  • cloud RAN cloud radio access network
  • ultra-dense network ultra-dense network
  • D2D Device to device communication
  • wireless backhaul moving network
  • cooperative communication coordinated multi-points (CoMP), and interference cancellation
  • FQAM Hybrid Frequency Shift Keying and Quadrature Amplitude Modulation
  • SWSC sliding window superposition coding
  • ACM Advanced Coding Modulation
  • FBMC Filter Bank Multi Carrier
  • NOMA Non Orthogonal Multiple Access
  • SCMA Spar Code Multiple Access
  • NFV Network function virtualization
  • NFV Network function virtualization
  • the present disclosure provides an apparatus and method for network resource management in a network function virtualization (NFV) environment.
  • NFV network function virtualization
  • the present disclosure also provides an apparatus and method for associating physical layer information and virtual layer information in an NFV environment.
  • the present disclosure provides an apparatus and method for providing notification of information on a virtual layer associated with a function failure and information on a physical layer corresponding to the information on the virtual layer when a network function failure occurs.
  • a method of operating a control device in a network function virtualization (NFV) environment may include: determining a virtual compute node corresponding to a server device; Identifying physical layer information related to a device, virtual layer information related to the virtual compute node, and displaying the physical layer information and the virtual layer information.
  • NFV network function virtualization
  • a method of operating a physical infrastructure manager (PIM) device in an NFV environment may include at least one virtual compute node from a virtual infrastructure manager (VIM) device. receiving identification information including an identifier of a compute node, determining an identification key for at least one server device corresponding to the at least one virtual compute node based on the identification information, and And transmitting an identification key for at least one server device to the control device.
  • PIM physical infrastructure manager
  • VIP virtual infrastructure manager
  • the control device may determine a virtual compute node corresponding to a server device, determine physical layer information related to the server device, and the virtual compute node. And a control unit for identifying related virtual layer information, and a display unit for displaying the physical layer information and the virtual layer information.
  • the PIM device receives identification information including an identifier of at least one virtual compute node from a virtual infrastructure manger (VIM) device. And a controller configured to determine an identification key for at least one server device corresponding to the at least one virtual compute node, based on the identification information.
  • the communication unit transmits an identification key for the at least one server device to a control device.
  • an apparatus and method may include information about a virtual layer associated with a functional failure when a network function failure occurs in a network function virtualization (NFV) environment, and a physical corresponding to the information of the virtual layer.
  • NFV network function virtualization
  • FIG. 1 illustrates a network function virtualization (NFV) environment according to various embodiments of the present disclosure.
  • NFV network function virtualization
  • FIG. 2 illustrates a hierarchical diagram of nodes managed by a control device in an NFV environment according to various embodiments of the present disclosure.
  • FIG 3 illustrates a configuration of a control device in an NFV environment according to various embodiments of the present disclosure.
  • PIM physical infrastructure manager
  • 5A and 5B illustrate connections between nodes displayed on a control device in a NFV environment and connections associated with nodes in which a malfunction has occurred, according to various embodiments of the present disclosure.
  • FIG. 6 is a diagram illustrating a functional failure and mapping between nodes in an NFV environment according to various embodiments of the present disclosure.
  • FIG. 7 is a flowchart illustrating a control device in an NFV environment according to various embodiments of the present disclosure.
  • FIG. 8 is a flowchart illustrating a control device for determining a virtual compute node corresponding to a server device in an NFV environment according to various embodiments of the present disclosure.
  • FIG. 9 is a flowchart illustrating a PIM device in an NFV environment according to various embodiments of the present disclosure.
  • FIG. 10 illustrates a signal flow between nodes for determining a virtual compute node corresponding to a server device in an NFV environment according to various embodiments of the present disclosure.
  • FIG. 11 illustrates locations of data centers (DCs) managed by a control device in an NFV environment according to various embodiments of the present disclosure.
  • FIG. 12 illustrates racks included in a data center in an NFV environment according to various embodiments of the present disclosure.
  • FIG. 13 is a diagram illustrating physical layer information and virtual layer information about a rack in an NFV environment according to various embodiments of the present disclosure.
  • FIG. 14 illustrates physical layer information and virtual layer information for a server device in an NFV environment according to various embodiments of the present disclosure.
  • FIG. 16 illustrates a list of virtualized network functions (VNFs) on service in an NFV environment according to various embodiments of the present disclosure.
  • VNFs virtualized network functions
  • FIG. 17 illustrates a topology of deployed VNFs in an NFV environment according to various embodiments of the present disclosure.
  • 18A and 18D illustrate scenarios for responding to a functional disorder in an NFV environment according to various embodiments of the present disclosure.
  • 19A and 19B illustrate a scenario for managing a quality of service (QoS) in an NFV environment according to various embodiments of the present disclosure.
  • QoS quality of service
  • the present disclosure relates to an apparatus and method for network resource management in a network function virtualization (NFV) environment. Specifically, the present disclosure associates physical layer information with virtual layer information in an NFV environment, and provides information about a virtual layer and information related to a virtual layer when a network function malfunction occurs. A technique for providing notification about information of a physical layer corresponding to the information will be described.
  • NFV network function virtualization
  • 'NFV' means virtualizing network equipment that performs network functions.
  • Virtualization means abstracting hardware resources (eg computing resources, memory resources, network resources).
  • hardware resources owned by network equipment eg, general purpose server devices
  • network equipment eg, general purpose server devices
  • network equipment eg, general purpose server devices
  • 'NFV environment' refers to an environment, a network and / or a system in which network functions are performed in a virtualized network device.
  • VNF Virtualized network function
  • a 'virtual machine' refers to a virtual logical entity that performs a unit VNF.
  • Physical layer' refers to a hardware resource, a structure of physical nodes and / or physical nodes using the hardware resource.
  • the 'virtual layer' refers to virtualized resources, virtual nodes using the virtualized resources, and / or functions performed using the virtualized resources.
  • Virtual compute node' refers to a virtual logical entity that can create / delete, change, control or manage a VM.
  • One virtual compute node may operate in one server device and may correspond to one server device.
  • FIG. 1 illustrates an NFV environment 100 according to various embodiments of the present disclosure.
  • the NFV environment 100 includes an operation support system (OSS) / business support system (BSS) 110, a VNF 120, an NFV infrastructure 130, an NFV orchestrator device 141, a VNF manager and a VNFM.
  • OSS operation support system
  • BSS business support system
  • VNF 120 an NFV infrastructure 130
  • NFV orchestrator device 141 an NFV orchestrator device 141
  • VNF manager and a VNFM )
  • Device (s) 142 virtual infrastructure manager (VIM) device (s) 143
  • PIM physical infrastructure manager
  • the OSS / BSS 110 can manage communication equipment and the NFV environment 100.
  • the OSS / BSS 110 may support the operator's network operations and the provision and maintenance of customer services, or support billing for customers, customer relationship management, and call center business automation.
  • the VNF 120 may include VNF instances 121-1, 121-2, and 121-3, and may further include element management systems (EMS) 122-1, 122-2, and 122-3 corresponding to each of them. have.
  • the VNF may be a function of a virtualized core network equipment.
  • the VNF may be a function of a virtualized mobility management entity (MME) or may be a function of a virtualized service gateway (S-GW).
  • MME virtualized mobility management entity
  • S-GW virtualized service gateway
  • NFVI 130 provides hardware resources 139 (e.g., computing hardware 135, storage hardware 136, and network hardware 137), virtual layer 134, and virtualized resources 138 (e.g., virtual computing 131, virtual storage 132, and virtual network 133). It may include. In FIG. 1, the virtual layer 134 and the virtualized resource 138 are separated, but the virtual layer 134 may include the virtualized resource 138.
  • hardware resources 139 e.g., computing hardware 135, storage hardware 136, and network hardware 137
  • virtual layer 134 e.g., virtual computing 131, virtual storage 132, and virtual network 133. It may include.
  • virtual layer 134 and the virtualized resource 138 are separated, but the virtual layer 134 may include the virtualized resource 138.
  • the NFVO device 141 may control and / or manage the NFV environment 100.
  • NFVO device 141 can control VNFM device 142 to manage VNF 120
  • VIM device 143 can control virtual layer 134 and / LEH to manage virtualized resources 138
  • NFV device 141 can manage PIM.
  • the device 144 may be controlled to manage the hardware resource 139.
  • the NFVO device 141 may communicate with the VNFM device 142, the VIM device 142, and the PIM device 143, and may exchange data.
  • the NFVO device 141 may include a user interface (UI) for providing the received data to the user.
  • UI user interface
  • the 'NFVO device' may be referred to as an 'NFV environment control device', 'control device', or 'NFVO'.
  • the VNFM device 142 manages the VNF 120 built in the NFV environment 100 and may communicate with the VIM device 143 to generate virtualized resources for the VNF 120. For example, the VNFM device 142 may create and / or delete a VNF, or change, control or manage the VNF. The VNFM device 142 may transmit information about the VNF 120 to the NFVO device 141. According to various embodiments of the present disclosure, the 'VNFM device' may be briefly referred to as 'VNFM'.
  • the VIM device 143 may manage the virtual layer 134 and / or the virtualized resource 138.
  • the VIM device 143 may receive a request from the NFVO device 141 and / or the VNFM device 142 to allocate a virtual resource for the VNF 120 and / or the virtual layer 134.
  • the VIM device 143 may provide the NFVO device 141 and / or the PIM device 144 with information about the virtual layer 134 and / or the virtualized resource 138.
  • the 'VIM device' may be referred to simply as 'VIM'.
  • the PIM device 144 may manage the physical layer and / or hardware resource 139.
  • the PIM device 144 may provide the NFVO device 141 with information about the physical layer and / or hardware resource 139.
  • the PIM device 144 may receive information about the virtual layer 134 and / or virtualized resources from the VIM device 143.
  • the 'PIM device' may be referred to simply as 'PIM'.
  • the description 150 may provide service information, VNF information, and information on infrastructure to at least one of an NFVO device 141, a VNFM device 142, a VIM device 143, and a PIM device 144.
  • the NFVO environment 100 may include a plurality of VNFM devices including the VNFM device 142, a plurality of VIM devices including the VIM device 143, and a plurality of PIM devices including the PIM device 144.
  • Each of the plurality of VNFM devices may perform the same function as the VNFM device 142, and each of the plurality of VIM devices may perform the same function as the VIM device 143, and each of the plurality of PIM devices is the same as the PIM device 144. Function can be performed.
  • the NFVO device 141 may manage a plurality of data centers (DCs), and each data center may include one PIM device, one or more VIM devices, and one or more VNFM devices. .
  • DCs data centers
  • the NFVO device 141 may include VNFM devices, VIM devices, and / or PIM devices included in the plurality of DCs.
  • VNFM devices e.g., VNFM device (s), VIM device (s), PIM device (s)
  • FIG. 2 a hierarchical structure of nodes (eg, VNFM device (s), VIM device (s), PIM device (s)) managed by NFVO device 141 is described.
  • FIG. 2 illustrates a hierarchical diagram 200 of nodes managed by a control device in an NFV environment according to various embodiments of the present disclosure.
  • the hierarchical diagram 200 may be displayed on the NFVO device 141.
  • the NFVO 141 may manage the PIM group 210, the VIM group 220, and the VNFM group 230.
  • the PIM group 210 may include a plurality of PIM devices PIM201, PIM39, PIM86, PIM_MNM, and PIM_SIZING. Since one PIM device and one DC correspond, each PIM may represent a physical infrastructure of a DC corresponding to each PIM.
  • the DC corresponding to PIM 201 may include floor f1, floor f1 may include room room1, room room1 may include rack rack1, and rack rack1 may be a shelf.
  • shelf0 may include a plurality of slots, and the shelf0 may include a plurality of slots slot0, slot1, slot21, and slot 23.
  • a rack means a collection of server devices, switches and / or depots
  • a shelf means one of the rack's partitions (eg horizontal partitions)
  • a slot means one of the shelf's partitions (eg vertical partitions).
  • Server devices, switches or storage can be arranged in one slot.
  • the server device nova1 may be disposed in slot0
  • the server device nova2 may be disposed in slot2
  • the switch switch21 may be disposed in slot21
  • the storage storage1 may be disposed in slot 23.
  • expressions such as 'nova1' and 'nova2' may be an identifier of the server device or a host name.
  • a floor, a room, a rack, a shelf and / or a slot may indicate a location of a device.
  • the location of server device nova1 may be represented by f1-room1-rack1-shelf0-slot0 of PIM201
  • the location of server device nova2 may be represented by f1-room1-rack1-shelf0-slot2 of PIM201.
  • the location of the physical device may be represented by at least one or a combination of identifiers, floors, rooms, racks, shelves and slots of the PIM.
  • VIM group 220 may include a VIM device VIM242.
  • VIM242 may include a plurality of virtual compute nodes nova1, nova2, nova3 and nova4.
  • the expression such as 'nova1', 'nova2', 'nova3' or 'nova4' may be an identifier of the virtual compute node or may be a host name.
  • At least one VM may operate at each of the plurality of virtual compute nodes.
  • the plurality of VMs VNF_YJ_TEST_NS_VECA0, VNF_YJ_TEST_NS_VIVA0, VNF_YJ_TEST_NS_VOMA0, VNF_YJ_TEST_NS_VOMA1, testtree_VOMA1, and treetest_VOMA1 may operate.
  • VNFM group 230 may include a plurality of VNFM devices VNFM_ETSI and VNFM_local.
  • VNFM_ETSI may control and / or manage a VNF called EDIT_ETSI_VNF.
  • EDIT_ESTI_VNF may include a plurality of VNF components (VNF components, VNFCs) EDIT_ETSI_VNF_VECA0, EDIT_ETSI_VNF_VIVA0, EDIT_ETSI_VNF_VOMA0 and EDIT_ETSI_VNF_VOMA1.
  • the number and / or name of nodes shown in the hierarchical diagram 200 are exemplary and various variations are possible.
  • the VIM group 220 may include a plurality of VIM devices including the VIM 242fmf.
  • FIG. 3 illustrates a configuration of a control device in an NFV environment according to various embodiments of the present disclosure.
  • the configuration illustrated in FIG. 3 may be understood as a configuration of the NFVO device 141.
  • the terms ' ⁇ ', ' ⁇ ', etc. used below mean a unit for processing at least one function or operation, which may be implemented by hardware or software, or a combination of hardware and software.
  • control device may include a communicator 310, a storage 320, a controller 330, a display 340, and an input device 350.
  • the communication unit 310 provides an interface for communicating with other nodes in the network. That is, the communication unit 310 converts a bit string transmitted from a server to another node, for example, a base station, a core network, an authentication server, etc. into a physical signal, and converts a physical signal received from another node into a bit string. That is, the communication unit 310 may transmit and receive a signal. Accordingly, the communication unit 310 may be referred to as a modem, a transmitter, a receiver, or a transceiver. In this case, the communication unit 310 enables the control device to communicate with other devices or systems via a backhaul connection (eg, a wired backhaul or a wireless backhaul) or over a network.
  • a backhaul connection eg, a wired backhaul or a wireless backhaul
  • the storage unit 320 stores data such as a basic program, an application program, and setting information for operating the server.
  • the storage 320 may store information indicating a correspondence relationship between the server device and the virtual compute node.
  • the correspondence relationship between the server device and the virtual compute node may be represented by a mapping table, and the storage 320 may store the mapping table.
  • the storage 320 provides the stored data according to a request of the controller 330.
  • the controller 330 controls the overall operations of the control device. For example, the controller 330 transmits and receives a signal through the communication unit 310. In addition, the controller 330 records and reads data in the storage 320. To this end, the controller 330 may include at least one processor.
  • the controller 330 determines a virtual compute node corresponding to the server device, identifies physical layer information related to the server device and virtual layer information related to the virtual compute node, and displays 340 the physical layer information. And virtual layer information.
  • the controller 330 may control the server to perform operations according to various embodiments described below.
  • the display 340 may display a screen including an image, graphics, text, and the like.
  • display 340 may be comprised of a liquid crystal, a light emitting diode display, or other material.
  • the display 340 may display a screen corresponding to the data received through the controller 330.
  • the display 340 may include a touch screen for sensing a user input.
  • the input device 350 may receive an input from a user.
  • the input device 350 may include an input interface.
  • the input received through the input device 350 may be processed by the controller 330 and then transmitted to the display 340, the storage 320, and the communicator 310. In this way, information corresponding to the input received through the input device 350 may be displayed on the display 340, transmitted to another device through the communication unit 310, or stored in the storage unit 330.
  • FIG. 4 illustrates a configuration of a PIM device in an NFV environment according to various embodiments of the present disclosure.
  • the configuration illustrated in FIG. 4 may be understood as the configuration of the PIM device 144.
  • the terms ' ⁇ ', ' ⁇ ', etc. used below mean a unit for processing at least one function or operation, which may be implemented by hardware or software, or a combination of hardware and software.
  • the PIM device may include a communication unit 410, a storage unit 420, and a control unit 430.
  • the communication unit 410 provides an interface for communicating with other nodes in the network. That is, the communication unit 410 converts a bit string transmitted from a server to another node, for example, a base station, a core network, an authentication server, etc. into a physical signal, and converts a physical signal received from another node into a bit string. That is, the communication unit 410 may transmit and receive a signal. Accordingly, the communication unit 310 may be referred to as a modem, a transmitter, a receiver, or a transceiver. In this case, the communication unit 410 allows the control device to communicate with other devices or systems via a backhaul connection (eg, a wired backhaul or a wireless backhaul) or over a network.
  • a backhaul connection eg, a wired backhaul or a wireless backhaul
  • the storage unit 420 stores data such as a basic program, an application program, and setting information for operating the server.
  • the storage unit 420 may store identification keys for each of the plurality of server devices managed by the PIM device.
  • the storage unit 420 provides the stored data at the request of the controller 430.
  • the controller 430 controls overall operations of the control device. For example, the controller 430 transmits and receives a signal through the communication unit 410. In addition, the controller 430 records and reads data in the storage 420. To this end, the controller 430 may include at least one processor.
  • the controller 430 controls the communication unit 410 to receive identification information including an identifier of at least one virtual compute node from the VIM device, and corresponds to at least one virtual compute node based on the identification information. Determine an identification key for at least one server device, and control the communication unit 410 to transmit the identification key for the at least one server device to the control device.
  • the controller 430 may control the server to perform operations according to various embodiments described below.
  • 5A and 5B illustrate connections between nodes displayed on a control device in a NFV environment and connections associated with nodes in which a malfunction has occurred, according to various embodiments of the present disclosure.
  • the control device may display the connection relationship between nodes and nodes in the NFV environment through the UI 500.
  • the NFVO device 141 may display NFVO device 141, a VNFM device 142, a VIM device 143, and a PIM device 144, which are nodes in an NFV environment, and may display a connection relationship between each node.
  • a connection relationship between each node is represented by a line, indicating that the nodes can exchange data.
  • the NFVO device 141 may display an object that each node manages and / or controls.
  • NFVO device 141 is a VNF 120 controlled and / or managed by VNFM device 142, a virtual resource 138 controlled and / or managed by VIM device 143, and a hardware resource 139 controlled and / or managed by PIM device 144.
  • VNF 120 and the virtual resource 138 belong to the virtual layer
  • the hardware resource 139 belongs to the physical layer.
  • UI 500 the correspondence between management entities and management objects is indicated by connecting lines.
  • the NFVO device 141 may display information indicating that a functional failure has occurred in the NFV environment.
  • the NFVO device 141 may detect a malfunction and may display information indicating a node associated with the malfunction. For example, when a functional failure associated with the VIM device 143 (eg, communication disruption between the NFVO device 141 and the VIM device 143) is detected, as shown in FIG. 5B, the NFVO device 141 is connected to the NFVO device 141 and the VIM. A line connecting the device 143 may be displayed differently from other lines, indicating that a function failure associated with the VIM device 143 occurs.
  • the VNFM device 142, the VIM device 143, and / or the PIM device 144 provide an alarm to the NFVO device 141 when a malfunction occurs, so that the NFVO device 141 indicates a node associated with the malfunction. Information can be displayed.
  • the NFVO device 141 may monitor whether a function failure related to each node occurs, and display information indicating a node related to the function failure when a function failure occurs. In this case, the NFVO device 141 may detect a function failure for each node and display information related to the function failure without receiving a notification of a function failure from the VNFM device 142, the VIM device 143, and / or the PIM device 144.
  • the NFVO device 141 may display information indicating the type of the functional disorder in addition to the information indicating the node related to the functional disorder through the UI 500. For example, when a functional failure 'VM status error' related to the VIM device 143 occurs, the NFVO device 141 may display a message 'VM status error' through the UI 500.
  • FIG. 6 is a diagram illustrating a functional failure and mapping between nodes in an NFV environment according to various embodiments of the present disclosure.
  • the NFVO device 141 may receive a notification of a functional failure or monitor the functional failure to detect a functional failure associated with each node (eg, VNFM devices 142, VIM 143, and PIM 144). Accordingly, the NFVO device 141 may map the detected functional disorder to a node associated with the functional disorder.
  • a functional failure associated with each node eg, VNFM devices 142, VIM 143, and PIM 144.
  • the NFVO device 141 may identify a detailed element of each node due to the detected malfunction. For example, if the NFVO device 141 detects a malfunction associated with the VNFM device 142, the NFVO device 141 functions among the detailed elements managed by the VNFM 142 (including EMS 611, EMS 621, VNF 613, and VNF 623). VNF 623 may be identified due to the disorder. As another example, when the NFVO device 141 detects a malfunction associated with VIM 143, when the NFVO device 141 detects a malfunction associated with VIM device 143, the NFVO device 141 is a detailed element managed by VIM device 143 (VM 615).
  • the NFVO device 141 may be identified as the VM 615 caused by the functional failure.
  • the NFVO device 141 detects a malfunction associated with the PIM device 144, the NFVO device 141 is a server that is attributable to a failure of the details managed by the PIM device 144 (including the switch 630 and the server device 640). The device 640 may be identified. As described above, the NFVO device 141 may identify a detailed element of each node due to the malfunction and map the malfunction to the identified detailed element.
  • each node associated with a functional disorder may identify a detail element due to a malfunction, and may provide information about the identified detail element to the NFVO device 141.
  • the NFVO device 141 may control each node so that each node identifies a detailed element due to a malfunction.
  • the NFVO device 141 may identify detailed elements of the virtual layer due to the functional failure.
  • the NFVO device 141 may examine the identified detailed elements to solve the functional disorder, or display information indicating the type of the functional disorder and the identified detailed elements.
  • the functional failure occurring in the virtual layer may not be eliminated. For example, if the physical port corresponding to the VM 615 (for example, the physical port of the server device 640) is down, a malfunction may occur due to the VM 615, but even if the VM 615 is checked, the physical port is down If this is not resolved, the dysfunction may not be resolved.
  • a malfunction occurring in the virtual layer may be related to the physical layer, and thus even if the NFVO device 141 and / or the user examines the virtual layer, the malfunction may not be resolved unless the cause of the physical layer is resolved.
  • a malfunction in the physical layer may be related to the virtual layer, and thus even if the NFVO device 141 and / or the user inspects the physical layer, the malfunction may not be resolved unless the cause of the virtual layer is resolved.
  • various embodiments of the present disclosure provide an apparatus and a method for associating physical layer information with virtual layer information.
  • the NFVO device 141 may display the interworking physical layer information and the virtual layer information together.
  • the NFVO device 141 may display virtual layer information related to the VM 615 and physical layer information related to the server device 640 corresponding to the VM 615.
  • the NFVO device 141 may display the physical layer information related to the malfunction and the virtual layer information related to the malfunction. Accordingly, the NFVO device 141 and / or the user can easily identify the physical layer element and the virtual layer element due to the malfunction and quickly solve the malfunction.
  • FIG. 7 a detailed method for displaying both physical layer information and virtual layer information will be described.
  • 7 is a flowchart illustrating a control device in an NFV environment according to various embodiments of the present disclosure. 7 illustrates an operation of the NFVO device 141.
  • the control device determines a virtual compute node corresponding to a server device.
  • the interworking of the physical layer information and the virtual layer information may include a plurality of virtual compute nodes managed by a VIM device (eg, the VIM device 143) and a plurality of server devices managed by a PIM device (eg, the PIM device 144) in an NFV environment.
  • the control device may determine a virtual compute node corresponding to each of the plurality of server devices among the plurality of virtual compute nodes. A detailed method of determining the virtual compute node corresponding to the server device is described in more detail in FIG. 8.
  • the control device identifies the physical layer information associated with the server device and the virtual layer information associated with the virtual compute node.
  • the physical layer information may include at least one of a host name of the server device, a location of the server device, and at least one physical port disposed in the server device.
  • the virtual layer information includes the host name of the virtual compute node, the identifier or list of VM (s) running on the virtual compute node, the identifier or list of VNF (s) performed by the VM, and the VIM that manages the virtual compute node. It may include at least one of an identifier for the device, information about the VNFM device for managing the VNF (s).
  • the control device displays physical layer information and virtual layer information.
  • the control device may display the VM operating on the virtual compute node as virtual layer information associated with the virtual compute node, and display the physical port of the server device corresponding to the VM as physical layer information associated with the server device. can do.
  • the control device can display the correspondence between the VM and the physical port corresponding to the VM.
  • 8 is a flowchart illustrating a control device for determining a virtual compute node corresponding to a server device in an NFV environment according to various embodiments of the present disclosure. 8 illustrates an operation of the NFVO device 141.
  • the control device determines an identification key for the virtual compute node based on the identification information received from the VIM device.
  • the identification key may also be referred to as a host key.
  • the identification information may include at least one of an identifier of the virtual compute node and at least one user identifier for the VIM device.
  • the identifier of the virtual compute node may be referred to as the host name of the virtual compute node.
  • the user identifier for the VIM device may be referred to as a universally unique identifier (UUID) or tenant identifier.
  • UUID universally unique identifier
  • the control device may determine an identification key for the virtual compute node based on the identifier of the virtual compute node.
  • control device may determine the identification key for the virtual compute node by combining the identifier of the virtual compute node and at least one user identifier for the VIM device.
  • control device may hash an identifier of the virtual compute node and at least one user identifier for the VIM device to determine an identification key for the virtual compute node.
  • the hashing function SHA224 can be used for hashing.
  • step 803 the control device receives an identification key for the server device from the PIM device.
  • the identification information of step 801 may also be transmitted from the VIM device to the PIM device, and the PIM device may determine an identification key for the server device based on the identification information.
  • a specific method for the PIM device to determine an identification key for the server device is described in greater detail below in FIG. 10.
  • the control device determines a virtual compute node corresponding to the server device based on matching of the identification key for the virtual compute node and the identification key for the server device. If the identification key for the virtual compute node and the identification key for the server device match, the control device may determine that the virtual compute node and the server device correspond. If the identification key for the virtual compute node and the identification key for the server device do not match, the control device determines that the virtual compute node and the server device do not correspond, and the identification key of the server device is determined by another virtual compute node. The corresponding virtual compute node may be determined by matching with the identification key of.
  • 9 is a flowchart illustrating a PIM device in an NFV environment according to various embodiments of the present disclosure. 9 illustrates the operation of the PIM device 144.
  • the PIM device receives identification information including an identifier of at least one virtual compute node from the VIM device.
  • the identification information may comprise a list of virtual compute node (s) or a list of identifier (s) of the virtual compute node (s).
  • the list of virtual compute node (s) or the list of identifier (s) of the virtual compute node (s) may be referred to as a hypervisor list or compute node list.
  • the identification information may further include a list of user identifier (s) of the VIM device.
  • the list of user identifier (s) of the VIM device may be referred to as a tenant list.
  • the PIM device may transmit a message for requesting the identification information to the VIM device to receive the identification information from the VIM device.
  • the PIM device determines an identification key for at least one server device corresponding to the at least one virtual compute node based on the identification information.
  • the PIM device may determine a server device corresponding to each of the virtual compute nodes.
  • the PIM device may determine the server device corresponding to the virtual compute node based on matching of the IP address of the virtual compute node with the IP address of the server device.
  • the PIM device may determine that a server device having the same IP address as the IP address of each virtual compute node corresponds to each virtual compute node.
  • the PIM device may determine a server device corresponding to the virtual compute node based on matching of the host name of the virtual compute node and the host name of the server device.
  • the PIM device may determine that a server device having the same host name as the host name of each virtual compute node corresponds to each virtual compute node.
  • the PIM device may use an IP address and a host name to determine a server device corresponding to each virtual compute node. For example, when the PIM device cannot determine a server device corresponding to each virtual compute node only by using an IP address, the PIM device may supplementally use a host name. In addition, when the PIM device cannot determine the server device corresponding to each virtual compute node only by the host name, the PIM device may supplementally use the IP address.
  • the PIM device may determine a server device corresponding to the virtual compute node based on matching of the host name and IP address of the virtual compute node with the host name and IP address of the server device. In other words, the PIM device may determine that a server device having the same IP address and host name as the IP address and host name of each virtual compute node corresponds to each virtual compute node. According to an embodiment of the present disclosure, the PIM device may determine an identification key for each server device based on an identifier of a virtual compute node corresponding to each server device. As another example, the PIM device may determine an identification key for each server device by combining the identifier of the virtual compute node corresponding to each server device and the user identifier of the VIM device.
  • the PIM device may hash an identifier of a virtual compute node corresponding to each server device and a user identifier of the VIM device to determine an identification key for each server device.
  • the hashing function SHA224 can be used for hashing.
  • the PIM device transmits an identification key for at least one server device to the control device.
  • the control device based on matching of the identification key for the at least one server device received from the PIM device and the identification key for the at least one virtual compute node received from the VIM device, the virtual compute corresponding to each server device.
  • the node can be determined.
  • 10 illustrates a signal flow between nodes for determining a virtual compute node corresponding to a server device in an NFV environment according to various embodiments of the present disclosure. 10 illustrates signal flow between NFVO device 141, VIM device 143, and PIM device 144.
  • the PIM device 144 transmits a message requesting identification information to the VIM device 143.
  • the message requesting the identification information may be transmitted in a procedure for installing the PIM device 144.
  • the VIM device 143 transmits identification information to the PIM device 144 in response to the identification information request.
  • the identification information may include a list (or hypervisor list) of virtual compute nodes managed by the VIM device 143 and / or a list (or tenant list) of at least one user identifier of the VIM device 143.
  • the PIM device 144 determines an identification key for each server device based on an identifier of a virtual compute node corresponding to each of the server devices managed by the PIM device 144. To this end, the PIM device 144 may match the virtual compute nodes with server devices having the same IP address and / or the same host name to determine the virtual compute node corresponding to each server device. According to one embodiment, the number of server devices may be greater than the number of virtual compute nodes, in which case there is no corresponding virtual compute node for some server device (s) among the server devices managed by PIM device 144. You can not.
  • the PIM device 144 may determine an identification key for each server device based on an identifier of a virtual compute node corresponding to each of the server devices managed by the PIM device 144 and at least one user identifier of the VIM device 143. Can be. In this case, when the number of user identifiers of the VIM device 143 is plural, a plurality of identification keys for each server device may also be determined. For example, the number of user identifiers of the VIM device 143 and the number of identification keys for each server device may be the same.
  • the PIM device 144 combines or hashes an identifier of a virtual compute node corresponding to each of the server devices managed by the PIM device 144 and at least one user identifier of the VIM device 143, thereby identifying an identification key for each server device. Can be determined.
  • the hashing function SHA224 can be used for hashing.
  • the PIM device 144 transmits identification keys for the server devices to the NFVO device 141. Identification keys for the server devices may be sent in the procedure for registering the PIM device 144.
  • the VIM device 143 transmits identification information to the NFVO device 141.
  • the identification information transmitted in step 1009 may be the same as the identification information transmitted in step 1003.
  • the VIM device 143 may transmit identification information to the NFVO device 141 in a procedure for registering a VIM device.
  • the NFVO device 141 determines an identification key for each virtual compute node based on the identifier of each of the virtual compute nodes managed by the VIM device 143.
  • the NFVO device 141 may determine an identification key for each virtual compute node based on an identifier of each of the virtual compute nodes managed by the VIM device 143 and at least one user identifier of the VIM device 143.
  • the number of user identifiers of the VIM device 143 is plural, a plurality of identification keys for each virtual compute node may also be determined.
  • the number of user identifiers of the VIM device 143 and the number of identification keys for each virtual compute node may be the same.
  • the NFVO device 141 may combine or hash an identifier of each of the virtual compute nodes and at least one user identifier of the VIM device 143 to determine an identification key for each virtual compute node.
  • the hashing function SHA224 can be used for hashing.
  • the NFVO device 141 determines a pair of virtual compute node and server device with which the identification keys match.
  • the NFVO device 141 may determine a pair of a virtual compute node and a server device to which identification keys match among a plurality of virtual compute nodes managed by the VIM device 143 and a plurality of server devices managed by the PIM device 144. . If multiple identification keys exist for each virtual compute node and each server device, at least some of the identification keys must match or all identification keys must match to determine that the server device and the virtual compute node correspond to each other. May be required.
  • the NFVO device 141 may determine a virtual compute node corresponding to each of the server devices managed by the PIM device 144 based on matching of identification keys. Alternatively, the NFVO device 141 may determine a server device corresponding to each of the virtual compute nodes managed by the VIM device 143 based on matching of identification keys.
  • Steps 1001 to 1007 may be performed during the procedure for installing the PIM and / or the procedure for registering the PIM.
  • step 1009 may be performed during the procedure for registering the VIM.
  • the PIM installation and / or registration procedure is shown to be performed before the VIM registration procedure, but this is exemplary and the PIM installation and / or registration procedure may be performed after the VIM registration procedure.
  • FIG. 11 illustrates locations of data centers (DCs) managed by a control device in an NFV environment according to various embodiments of the present disclosure.
  • the NFVO device 141 may display location information of DCs 1111, 1113, and 1115 managed by the NFVO device 141 based on geographic information system (GIS) information through the UI 1100.
  • the NFVO device 141 may display information of data centers and / or PIM devices (eg, PIM86, PIM_SIZING, PIM201, PIM39, PIM_SIM, and PIM_MNM) managed by the NFVO device 141 in the area 1110 of the UI 1100.
  • the NFVO device 141 may receive an input for selecting at least one of the DCs 1111, 1113, and 1115 through the UI 1100.
  • the NFVO device 141 may be configured to inform the user about the selected DC 1113 and / or the PIM device (eg, PIM_SIM) corresponding to the selected DC 1113 through the area 1120 of the UI 1100.
  • Information can be displayed. For example, as shown, information indicating that the DC 1113 is configured in one layer, includes 70 racks, and includes 786 server devices in the region 1120 may be displayed.
  • FIG. 12 illustrates racks included in a data center in an NFV environment according to various embodiments of the present disclosure.
  • the rack is shown to have the form of a square pillar, but this is exemplary and various modifications may be made to the shape of the rack.
  • the NFVO device 141 may display a plurality of racks including the rack 1210 through the UI 1200.
  • the plurality of racks displayed through the UI 1200 may be racks included in a room of a floor in a data center.
  • the arrangement of the racks displayed through the UI 1200 may correspond to the actual arrangement of the racks in the data center.
  • the NFVO device 141 may receive an input for selecting at least one of the plurality of racks displayed through the UI 1200. For example, when the rack 1210 is selected according to the received input, the NFVO device 141 may display information about the selected rack 1210 as shown in FIG. 13 below.
  • FIG. 13 is a diagram illustrating physical layer information and virtual layer information about a rack in an NFV environment according to various embodiments of the present disclosure.
  • the NFVO device 141 may display physical layer information 1320 related to the selected rack 1210 and virtual layer information 1330 related to the rack 1210 according to an input received through the UI 1300.
  • the physical layer information 1320 may include information related to server devices, switches and / or storages included in the rack 1210.
  • the physical layer information 1320 may include information indicating that the rack 1210 includes 27 servers, does not include a storage and a switch, and includes one chassis.
  • the virtual layer information 1330 may include information related to virtual compute nodes corresponding to server devices included in the rack 1210.
  • the virtual layer information 1330 includes a list of VNFs (eg, vGW_TEST) performed by virtual compute nodes corresponding to server devices included in the rack 1210, and a VNFM device (eg, VNFM_2) that manages the VNFs.
  • VNFM_2 a VNFM device that manages the VNFs.
  • VIM eg, VIM242
  • the NFVO device 141 may display basic information of the DC including the rack 1210 in the area 1310 of the UI 1300.
  • NFVO device 141 has a PIM device corresponding to DC including rack 1210 in area 1310, PIM_SIM, DC includes VIM devices VIM242 and VIM_gtest, and DC includes VNFM devices VNFM1_2, VNFM_LOCAL_3_0, and VNFM_2. Indication information can be displayed.
  • FIG. 14 illustrates physical layer information and virtual layer information for a server device in an NFV environment according to various embodiments of the present disclosure.
  • the NFVO device 141 may display a rack including the server device 1440 in the area 1410 of the UI 1400. In area 1410, the relative position of the server device 1440 in the rack may be displayed.
  • the NFVO device 141 is a VM that operates on the server device 1440 through the UI 1400, the physical ports (eg, physical ports 1441, 1443, 1445) included in the server device 1440, and the virtual compute node corresponding to the server device 1440. 1421, 1422, 1423, 1424, 1425, 1426, and 1427.
  • the NFVO device 141 is connected to the VMs 1421, 1422, 1423, 1424, 1425, 1426, and 1427 via physnet1 1431, phsynet3 1435 connected to the VMs 1421, 1423, 1424, and 1427, and not connected to the VM.
  • physnet refers to a network layer mapped to a physical port in a virtual layer.
  • at least one physical port may correspond to one physnet
  • at least one physnet may correspond to one physical port.
  • the physnet1 1431 may correspond to the physical port 1443
  • the physnet2 1433 may correspond to the physical port 1445
  • the physnet3 1435 may correspond to the physical port 1441.
  • the NFVO device 141 may display the connection relationship between the VM and the physnet, may display the correspondence between the physnet, and the physical port, and thus may display the correspondence between the VM and the physical port.
  • NFVO device 141 may indicate that VMs 1421, 1422, 1423, 1424, 1425, 1426, and 1427 correspond to physical port 1443 via physnet1 1431, and VMs 1421, 1423, 1424, and 1427 are physnet3. It may be indicated through 1435 that it corresponds to the physical port 1441.
  • the NFVO device 141 and / or the user can easily identify the physical port corresponding to the failed VM, a server device including the physical port, and a switch connected to the physical port. As a result, dysfunction can be resolved quickly. Specific scenarios for responding to a functional disorder are described in more detail in FIGS. 18A and 18D below.
  • the NFVO device 141 may display information about the server device 1440 in the area 1450 of the UI 1400.
  • the information displayed in the area 1450 may include physical layer information related to the server device 1440 and virtual layer information related to a virtual compute node corresponding to the server device 1440.
  • NFVO device 141 is physical layer information related to server device 1440 in zone 1450 that is the location of server device 1440 (for example, rack41-shelf1-slot0), the identifier or host name of server device 1440, for example, com.samsung.
  • the NFVO device 141 is virtual layer information related to the virtual compute node corresponding to the server device 1440 in the area 1450, and an identifier or host name (eg, nova1) of the virtual compute node and a list of VMs operating in the virtual compute node. , A list of VNFs performed by the VMs, a VNFM device managing the VNFs, and a VIM device managing the virtual compute node may be displayed.
  • the NFVO device 141 may display the virtual layer information related to the functional failure and the physical layer information related to the functional failure together. For example, when a malfunction occurs in the VM 1421, the NFVO device 141 provides information indicating that a malfunction occurs in the VM 1421 through the UI 1400, and information indicating a physical port 1441 and a physical port 1443 corresponding to the VM 1421. I can display it.
  • the NFVO device 141 is a server device including virtual layer information related to a failed VM 1421 and physical layer information related to the physical port 1441 and the physical port 1443 corresponding to the VM 1421 (eg, a physical port 1441 and a physical port 1443). Information about 1440, information about a switch connected to each of the physical port 1441 and the physical port 1443).
  • FIG. 15 illustrates detailed information of a virtual machine (VM) in an NFV environment according to various embodiments of the present disclosure.
  • VM virtual machine
  • the NFVO device 141 may display a rack including the server device 1540 in the area 1510 of the UI 1500. In area 1510, the relative position of the server device 1540 in the rack may be displayed.
  • the NFVO device 141 is a VM that operates on the server device 1540, the physical ports (eg, physical ports 1541, 1543, 1545) included in the server device 1540, and the virtual compute node corresponding to the server device 1540 through the UI 1500. 1521, 1522, 1523, 1524, 1525, 1526, and 1527.
  • the NFVO device 141 may display physnet1 1531 connected to VMs 1521, 1522, 1523, 1524, 1525, 1526, and 1527, physnet2 1533 not connected to the VM, and physnet3 1535 connected to the VMs 1523 and 1524.
  • Physnet1 1531 may correspond to physical port 1543
  • phsynet2 1533 may correspond to physical port 1545
  • physnet3 1535 may correspond to physical port 1541.
  • the NFVO device 141 may display the relationship between the VM and the physnet, may display the correspondence between the physnet and the physical port, and thus may display the correspondence between the VM and the physical port. For example, NFVO device 141 may indicate that VMs 1521, 1522, 1523, 1524, 1525, 1526, and 1527 correspond to physical port 1543 via phsynet1 1531, and VMs 1523 and 1524 may be physically connected via physnet3 1535. It may indicate that it corresponds to the port 1541.
  • the NFVO device 141 may receive an input for selecting a VM through the UI 1500. For example, when the VM 1523 is selected according to the received input, the NFVO device 141 may display information about the VM 1523 in the area 1550 of the UI 1500. For example, NFVO device 141 is located in zone 1550 where server device 1540 includes physical port 1541 and physical port 1543 corresponding to VM 1523, such as rack41-shelf0-slot2, and the virtual compute on which VM 1523 operates.
  • the identifier or host name of the node e.g. nova4
  • the identifier or host name of the server 1540 e.g.
  • the VIM device that manages the VM 1523 the VNFM that manages the VNF that the VM 1523 performs, and the VM 1523 At least one IP address assigned to the VM, the amount of physical and / or virtual computing resources allocated to the VM 1523 (eg, the number of physical and / or virtual cores, the size of the physical and / or virtual memory), and the VM 1523.
  • the size and name of the allocated physical and / or virtual storage, and VM 1523 may indicate at least one of the location of the external storage.
  • VNF 16 illustrates a list of VNFs that are on service in an NFV environment according to various embodiments of the present disclosure.
  • the NFVO device 141 may display information on VNFs in service through the UI 1600.
  • the NFVO device 141 may indicate that the VNFs in service are vMMERest, KTvMME122, and KTvMME123_Flavor, and may display information about respective VNFs.
  • NFVO device 141 is information about a VNFM device that manages each VNF (may be referred to as 'target VNFM'), and information about a VIM device that manages a VM on which each VNF is performed (as 'target VIM').
  • Tenants with specific privileges for each VNF, package name for each VNF, scale option for each VNF, scale mode for each VNF, and each VNF At least one of flavor information about a VNF, a job status of each VNF, a VNF protocol for each VNF, and a time at which each VNF is generated may be displayed.
  • FIG. 17 illustrates a topology of deployed VNFs in an NFV environment according to various embodiments of the present disclosure.
  • the NFVO device 141 displays a list of VNFs in service in the area 1710 of the UI 1700 and a hierarchical structure of the VNFMs managing the VNFs.
  • NFVO device 141 displays the topology of the VNFs deployed in the NFV environment.
  • the NFVO device 141 displays an arrangement of VNFs in service in the area 1720 and a connection relationship between the VNFs.
  • VNFs connected by lines in an area 1720 may exchange data or control information with each other.
  • the NFVO device 141 may receive an input for selecting at least one of the VNFs displayed in the area 1720 through the UI 1700.
  • the NFVO device 141 may display information about the VNF selected according to the input received in the area 1730.
  • the VNFO device 141 is the identifier of the VNFM device managing the selected VNF in area 1730, the package name of the selected VNF, the flavor information for the selected VNF, the scale option and / or scale mode for the selected VNF, and the behavior of the selected VNF.
  • At least one of a status, a status of the selected VNF, and whether an auto scale policy is set for the selected VNF may be displayed.
  • FIGS. 18A-18D illustrate scenarios for responding to a functional disorder in an NFV environment according to various embodiments of the present disclosure.
  • the check for resolving the malfunction starts from examining the virtual layer 1820.
  • NFVO device 141 first detects a malfunction in VM 1810. The NFVO device 141 then checks the virtual layer 1820. When a problem is identified in the service of the virtual layer 1820, the NFVO device 141 may perform an operation to solve the problem or may notify the UI that the check for the virtual layer 1820 is necessary.
  • NFVO device 141 first detects a malfunction in VM 1810. The NFVO device 141 then checks the virtual layer 1820. If a problem is not identified in the service of the virtual layer 1820, the NFVO device 141 may check whether a functional failure occurs in the physical port of the server device 1830 and / or the server device 1830 linked to the virtual layer 1820. If a functional failure is identified in the physical port of the server device 1830 and / or the server device 1830, the NFVO device 141 may inform the UI that the check of the server device 1830 is necessary.
  • NFVO device 141 first detects a malfunction in VM 1810. The NFVO device 141 then checks the virtual layer 1820. If a problem is not identified in the service of the virtual layer 1820, the NFVO device 141 may check whether a functional failure occurs in the physical port of the server device 1830 and / or the server device 1830 linked to the virtual layer 1820. If a malfunction is not identified at the physical port of the server device 1830 and / or the server device 1830, the NFVO device 141 may check whether a malfunction occurs at the port of the switch 1840 and / or switch 1840 connected to the physical port of the server device 1830. . If a malfunction is identified in the switch 1840 and / or the port of the switch 1840, the NFVO device 141 may inform the UI that the check for the port of the switch 1840 and / or the switch 1840 is required.
  • NFVO device 141 first detects a malfunction in VM 1810. The NFVO device 141 then checks the virtual layer 1820. If a problem is not identified in the service of the virtual layer 1820, the NFVO device 141 may check whether a functional failure occurs in the physical port of the server device 1830 and / or the server device 1830 linked to the virtual layer 1820. If a malfunction is not identified at the physical port of the server device 1830 and / or the server device 1830, the NFVO device 141 may check whether a malfunction occurs at the port of the switch 1840 and / or switch 1840 connected to the physical port of the server device 1830. .
  • the NFVO device 141 determines that there is no malfunction for the infrastructure and services, and informs the UI that it needs to check the software running on the VM. Can be.
  • interworking between physical layer information and virtual layer information may be used to manage quality of service (QoS) in an NFV environment.
  • QoS quality of service
  • FIGS. 19A and 19B a scenario for managing QoS is described in FIGS. 19A and 19B.
  • 19A and 19B illustrate a scenario for managing QoS in an NFV environment according to various embodiments of the present disclosure.
  • the traffic usage of the VM1 1910 is 7Gps, which is 70% of the maximum available traffic usage
  • the traffic usage of the VM2 1920 is 6Gbps, which is 60% of the maximum available traffic usage.
  • the NFVO device 141 may detect this traffic overload and may instruct the user to change the setting of the virtual network 1930 through the UI. For example, if the configuration of the virtual network 1930 is changed so that the virtual network 1930 corresponds to another physical port in addition to the physical port 1940 (which can support link speeds above 3 Gbps), the physical ports can support link speeds above 13 Gbps. The traffic overload occurring between the virtual network 1930 and the physical port 1940 can be eliminated.
  • the traffic usage of the VM1 1910 is 7Gps, which is 70% of the maximum available traffic usage
  • the traffic usage of the VM2 1920 is 6Gbps, which is 60% of the maximum available traffic usage.
  • the NFVO device 141 may detect such a malfunction and may notify the UI that the operation of the physical port 1 1941 is stopped.
  • the NFVO device 141 controls to stop the operation of one of the VM1 1910 and VM2 1920 without notification, so that one VM It can be controlled to operate normally and automatically eliminate the possibility of malfunction.
  • the NFVO device 141 may perform a preset operation to eliminate a possibility of malfunction. For example, if physical port 1 1941 goes down, NFVO device 141 changes the virtual compute node that manages VM2 1920 (in this case, VM2 1920 is different from physical port 1 1941 and physical port 2 1943). Address the port) to eliminate the possibility of a malfunction, or notify VM2 1920 of information about a malfunction and / or a potential failure (e.g., information indicating that the physical port corresponding to the VM2 1920 has stopped working). For example, the VM2 1920 can perform a failover (eg temporarily reduce traffic usage) and eliminate the possibility of a malfunction.
  • a failover eg temporarily reduce traffic usage
  • a computer-readable storage medium for storing one or more programs (software modules) may be provided.
  • One or more programs stored in a computer readable storage medium are configured for execution by one or more processors in an electronic device.
  • One or more programs include instructions that cause an electronic device to execute methods in accordance with embodiments described in the claims or specifications of this disclosure.
  • Such programs may include random access memory, non-volatile memory including flash memory, read only memory (ROM), and electrically erasable programmable ROM. (electrically erasable programmable read only memory (EEPROM), magnetic disc storage device, compact disc-ROM (CD-ROM), digital versatile discs (DVDs) or other forms It can be stored in an optical storage device, a magnetic cassette. Or, it may be stored in a memory composed of some or all of these combinations. In addition, each configuration memory may be included in plural.
  • non-volatile memory including flash memory, read only memory (ROM), and electrically erasable programmable ROM.
  • EEPROM electrically erasable programmable read only memory
  • CD-ROM compact disc-ROM
  • DVDs digital versatile discs
  • It can be stored in an optical storage device, a magnetic cassette. Or, it may be stored in a memory composed of some or all of these combinations.
  • each configuration memory may be included in plural.
  • the program may be configured through a communication network composed of a communication network such as the Internet, an intranet, a local area network, a wide area network, or a storage area network, or a combination thereof. It may be stored in an attachable storage device that is accessible. Such a storage device may be connected to a device that performs an embodiment of the present disclosure through an external port. In addition, a separate storage device on a communication network may be connected to a device that performs an embodiment of the present disclosure.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Computer And Data Communications (AREA)

Abstract

본 개시(disclosure)는 본 개시는 LTE(Long Term Evolution)와 같은 4G(4th generation) 통신 시스템 이후 보다 높은 데이터 전송률을 지원하기 위한 5G(5th generation) 또는 pre-5G 통신 시스템에 관련된 것이다. 본 개시의 다양한 실시 예들에 따른 네트워크 기능 가상화(network function virtualization, NFV) 환경에서 제어 장치의 동작 방법은, 서버 장치에 대응하는 가상 컴퓨트 노드(virtual compute node)를 결정하는 과정과, 상기 서버 장치와 관련된 물리 계층 정보와, 상기 가상 컴퓨트 노드와 관련된 가상 계층 정보를 식별하는 과정과, 상기 물리 계층 정보 및 상기 가상 계층 정보를 표시하는 과정을 포함한다. 따라서, 본 개시의 다양한 실시 예들은 사용자가 기능 장애를 초래하는 가상 계층 요소 및/또는 물리 계층 요소를 용이하게 식별하고, 기능 장애가 신속하게 해소될 수 있게 한다.

Description

네트워크 기능 가상화 환경에서 네트워크 자원 관리를 위한 장치 및 방법
본 개시(disclosure)는 일반적으로 네트워크 기능 가상화(network function virtualization, NFV) 환경에 관한 것으로, 보다 구체적으로 NFV 환경에서 네트워크 자원 관리를 위한 장치 및 방법에 관한 것이다.
4G(4th generation) 통신 시스템 상용화 이후 증가 추세에 있는 무선 데이터 트래픽 수요를 충족시키기 위해, 개선된 5G(5th generation) 통신 시스템 또는 pre-5G 통신 시스템을 개발하기 위한 노력이 이루어지고 있다. 이러한 이유로, 5G 통신 시스템 또는 pre-5G 통신 시스템은 4G 네트워크 이후(Beyond 4G Network) 통신 시스템 또는 LTE(Long Term Evolution) 시스템 이후(Post LTE) 시스템이라 불리어지고 있다.
높은 데이터 전송률을 달성하기 위해, 5G 통신 시스템은 초고주파(mmWave) 대역(예를 들어, 28기가(28GHz) 또는 60기가(60GHz) 대역과 같은)에서의 구현이 고려되고 있다. 초고주파 대역에서의 전파의 경로손실 완화 및 전파의 전달 거리를 증가시키기 위해, 5G 통신 시스템에서는 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO), 전차원 다중입출력(Full Dimensional MIMO, FD-MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 및 대규모 안테나(large scale antenna) 기술들이 논의되고 있다.
또한 시스템의 네트워크 개선을 위해, 5G 통신 시스템에서는 진화된 소형 셀, 개선된 소형 셀(advanced small cell), 클라우드 무선 액세스 네트워크(cloud radio access network, cloud RAN), 초고밀도 네트워크(ultra-dense network), 기기 간 통신(Device to Device communication, D2D), 무선 백홀(wireless backhaul), 이동 네트워크(moving network), 협력 통신(cooperative communication), CoMP(Coordinated Multi-Points), 및 수신 간섭제거(interference cancellation) 등의 기술 개발이 이루어지고 있다.
이 밖에도, 5G 시스템에서는 진보된 코딩 변조(Advanced Coding Modulation, ACM) 방식인 FQAM(Hybrid Frequency Shift Keying and Quadrature Amplitude Modulation) 및 SWSC(Sliding Window Superposition Coding)과, 진보된 접속 기술인 FBMC(Filter Bank Multi Carrier), NOMA(Non Orthogonal Multiple Access), 및 SCMA(Sparse Code Multiple Access) 등이 개발되고 있다.
네트워크 기능 가상화(network function virtualization, NFV) 기술은 최근 급증하는 데이터 트래픽을 원활히 처리하기 위한 하나의 해결책이 될 수 있다. NFV는 네트워크 기능을 수행하는 네트워크 장비를 가상화하고, 범용 서버 장치가 추상화 및/또는 공유된 하드웨어 자원 중 일부를 이용하여 네트워크 기능을 수행하도록 하는 기술을 의미한다. NFV 환경에서, 네트워크 장비의 효율성 향상과, 서비스 및/또는 서비스 변화에 대한 신속한 대응이 요구되므로, 네트워크 기능 장애(malfunction)에 대한 관리가 중요(critical)하고, 기능 장애와 관련된 적절한 네트워크 자원 관리가 요구될 수 있다.
상술한 바와 같은 논의를 바탕으로, 본 개시(disclosure)는, 네트워크 기능 가상화(network function virtualization, NFV) 환경에서 네트워크 자원 관리를 위한 장치 및 방법을 제공한다.
또한, 본 개시는, NFV 환경에서 물리 계층(physical layer) 정보와 가상 계층(virtual layer) 정보를 연동(associate)시키기 위한 장치 및 방법을 제공한다.
또한, 본 개시는 네트워크 기능 장애(malfunction) 발생시 기능 장애와 관련된 가상 계층의 정보와, 가상 계층의 정보에 대응하는 물리 계층의 정보에 대한 알림을 제공하기 위한 장치 및 방법을 제공한다.
본 개시의 다양한 실시 예들에 따르면, 네트워크 기능 가상화(network function virtualization, NFV) 환경에서 제어 장치의 동작 방법은, 서버 장치에 대응하는 가상 컴퓨트 노드(virtual compute node)를 결정하는 과정과, 상기 서버 장치와 관련된 물리 계층 정보와, 상기 가상 컴퓨트 노드와 관련된 가상 계층 정보를 식별하는 과정과, 상기 물리 계층 정보 및 상기 가상 계층 정보를 표시하는 과정을 포함한다.
본 개시의 다양한 실시 예들에 따르면, NFV 환경에서 물리 인프라 관리자(physical infrastructure manager, PIM) 장치의 동작 방법은, 가상 인프라 관리자(virtual infrastructure manger, VIM) 장치로부터, 적어도 하나의 가상 컴퓨트 노드(virtual compute node)의 식별자를 포함하는 식별 정보를 수신하는 과정과, 상기 식별 정보에 기반하여, 상기 적어도 하나의 가상 컴퓨트 노드에 대응하는 적어도 하나의 서버 장치에 대한 식별 키를 결정하는 과정과, 상기 적어도 하나의 서버 장치에 대한 식별 키를 제어 장치로 송신하는 과정을 포함한다.
본 개시의 다양한 실시 예들에 따르면, NFV 환경에서 제어 장치는, 서버 장치에 대응하는 가상 컴퓨트 노드(virtual compute node)를 결정하고, 상기 서버 장치와 관련된 물리 계층 정보와, 상기 가상 컴퓨트 노드와 관련된 가상 계층 정보를 식별하는 제어부와, 상기 물리 계층 정보 및 상기 가상 계층 정보를 표시하는 표시부를 포함한다.
본 개시의 다양한 실시 예들에 따르면, NFV 환경에서 PIM 장치는, 가상 인프라 관리자(virtual infrastructure manger, VIM) 장치로부터, 적어도 하나의 가상 컴퓨트 노드(virtual compute node)의 식별자를 포함하는 식별 정보를 수신하는 통신부와, 상기 식별 정보에 기반하여, 상기 적어도 하나의 가상 컴퓨트 노드에 대응하는 적어도 하나의 서버 장치에 대한 식별 키를 결정하는 제어부를 포함한다. 상기 통신부는, 상기 적어도 하나의 서버 장치에 대한 식별 키를 제어 장치로 송신한다.
본 개시의 다양한 실시 예들에 따른 장치 및 방법은, 네트워크 기능 가상화(network function virtualization, NFV) 환경에서 네트워크 기능 장애(malfunction) 발생시 기능 장애와 관련된 가상 계층의 정보와, 가상 계층의 정보에 대응하는 물리 계층의 정보에 대한 알림을 제공함으로써, 사용자가 기능 장애를 초래하는 가상 계층 요소 및/또는 물리 계층 요소를 용이하게 식별하고, 기능 장애가 신속하게 해소될 수 있게 한다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 개시의 다양한 실시 예들에 따른 네트워크 기능 가상화(network function virtualization, NFV) 환경을 도시한다.
도 2는 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 제어 장치가 관리하는 노드들의 계층적 다이어그램을 도시한다.
도 3은 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 제어 장치의 구성을 도시한다.
도 4는 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 물리 인프라 관리자(physical infrastructure manager, PIM) 장치의 구성을 도시한다.
도 5a 및 도 5b는 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 제어 장치에 표시되는 노드들간 연결 및 기능 장애가 발생한 노드와 관련된 연결을 도시한다.
도 6은 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 기능 장애와 노드들간 매핑(mapping)을 도시한다.
도 7은 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 제어 장치의 흐름도를 도시한다.
도 8은 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 서버 장치에 대응하는 가상 컴퓨트 노드를 결정하기 위한 제어 장치의 흐름도를 도시한다.
도 9는 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 PIM 장치의 흐름도를 도시한다.
도 10은 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 서버 장치에 대응하는 가상 컴퓨트 노드를 결정하기 위한 노드들간 신호 흐름을 도시한다.
도 11은 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 제어 장치가 관리하는 데이터 센터(data center, DC)들의 위치를 도시한다.
도 12는 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 데이터 센터에 포함된 랙(rack)들을 도시한다.
도 13은 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 랙에 대한 물리 계층 정보 및 가상 계층 정보를 도시한다.
도 14는 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 서버 장치에 대한 물리 계층 정보 및 가상 계층 정보를 도시한다.
도 15는 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 가상 머신(virtual machine, VM)의 세부 정보를 도시한다.
도 16은 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 서비스 중인(on service) 가상 네트워크 기능(virtualized network function, VNF)들의 리스트를 도시한다.
도 17은 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 배치(deploy)된 VNF들의 토폴로지(topology)를 도시한다.
도 18a 및 도 18d는 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 기능 장애에 대응하기 위한 시나리오를 도시한다.
도 19a 및 도 19b는 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 서비스의 품질(quality of service, QoS)을 관리하기 위한 시나리오를 도시한다.
본 개시에서 사용되는 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 개시에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 개시에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 개시에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 개시에서 정의된 용어일지라도 본 개시의 실시 예들을 배제하도록 해석될 수 없다.
이하에서 설명되는 본 개시의 다양한 실시 예들에서는 하드웨어적인 접근 방법을 예시로서 설명한다. 하지만, 본 개시의 다양한 실시 예들에서는 하드웨어와 소프트웨어를 모두 사용하는 기술을 포함하고 있으므로, 본 개시의 다양한 실시 예들이 소프트웨어 기반의 접근 방법을 제외하는 것은 아니다.
이하 본 개시는 네트워크 기능 가상화(network function virtualization, NFV) 환경에서 네트워크 자원 관리를 위한 장치 및 방법에 관한 것이다. 구체적으로, 본 개시는 NFV 환경에서 물리 계층(physical layer) 정보와 가상 계층(virtual layer) 정보를 연동(associate)시키고, 네트워크 기능 장애(malfunction) 발생시 기능 장애와 관련된 가상 계층의 정보와 가상 계층의 정보에 대응하는 물리 계층의 정보에 대한 알림을 제공하기 위한 기술을 설명한다.
이하, 본 개시에서 사용되는 용어의 정의는 하기와 같다.
'NFV'는 네트워크 기능을 수행하는 네트워크 장비를 가상화하는 것을 의미한다.
'가상화'는 하드웨어 자원(예: 컴퓨팅 자원, 메모리 자원, 네트워크 자원)을 추상화하는 것을 의미한다. 가상화에 의해, 네트워크 장비(예: 범용 서버 장치)들이 가지는 하드웨어 자원들은 추상화 및/또는 공유되고, 전체 하드웨어 자원들 중 일부가 특정 네트워크 기능을 수행하기 위해 사용된다. 예를 들어, 가상화에 따라 하나의 네트워크 장비에서 복수의 네트워크 기능들이 수행될 수 있다.
'NFV 환경'은 가상화된 네트워크 장비에서 네트워크 기능이 수행되는 환경, 네트워크 및/또는 시스템을 의미한다.
'가상 네트워크 기능(virtualized network function, VNF)'은 NFV 환경에서 수행되는 네트워크 기능을 의미한다.
'가상 머신(virtual machine, VM)'은 단위 VNF를 수행하는 가상의 논리적 주체를 의미한다.
'물리 계층(physical layer)'은 하드웨어 자원, 하드웨어 자원을 사용하는 물리적 노드들 및/또는 물리적 노드들의 구조를 의미한다.
'가상 계층(virtual layer)'은 가상화된 자원, 가상화된 자원을 사용하는 가상 노드들 및/또는 가상화된 자원을 사용하여 수행되는 기능을 의미한다.
'가상 컴퓨트 노드(virtual compute node)'는 VM을 생성/삭제하거나, 변경, 제어 또는 관리할 수 있는 가상의 논리적 주체를 의미한다. 하나의 가상 컴퓨트 노드는 하나의 서버 장치에서 동작할 수 있고, 하나의 서버 장치에 대응할 수 있다.
이하 설명에서 사용되는 네트워크 객체(network entity)들을 지칭하는 용어, 장치의 구성 요소를 지칭하는 용어 등은 설명의 편의를 위해 예시된 것이다. 따라서, 본 개시가 후술되는 용어들에 한정되는 것은 아니며, 동등한 기술적 의미를 가지는 다른 용어가 사용될 수 있다.
도 1은 본 개시의 다양한 실시 예들에 따른 NFV 환경 100을 도시한다.
도 1을 참고하면, NFV 환경 100은 OSS(operation support system)/BSS(business support system) 110, VNF 120, NFVI(NFV infrastructure) 130, NFVO(NFV orchestrator) 장치 141, VNF 관리자(VNF manager, VNFM) 장치(들) 142, 가상 인프라 관리자(virtual infrastructure manager, VIM) 장치(들) 143, 물리 인프라 관리자(physical infrastructure manager, PIM) 장치 144 및 디스크립션(description) 150을 포함할 수 있다.
OSS/BSS 110은 통신 장비와 NFV 환경 100을 관리할 수 있다. 예를 들어, OSS/BSS 110은 사업자의 망 운영과 고객 서비스의 제공 및 유지를 지원하거나 고객에 대한 과금(billing), 고객 관계 관리, 및 콜 센터 업무 자동화를 지원할 수 있다.
VNF 120은 VNF 인스턴스들 121-1, 121-2, 121-3을 포함할 수 있으며, 이들 각각에 대응되는 EMS(element management system) 122-1, 122-2, 122-3을 추가적으로 포함할 수 있다. 일부 실시 예들에서, VNF는 가상화된 코어 네트워크 장비의 기능일 수 있다. 예를 들어, VNF은 가상화된 MME(mobility management entity)의 기능일 수 있고, 또는 가상화된 S-GW(service gateway)의 기능일 수 있다.
NFVI 130은 하드웨어 자원 139(예: 컴퓨팅 하드웨어 135, 스토리지 하드웨어 136, 및 네트워크 하드웨어 137)와, 가상 계층 134, 및 가상화된 자원 138(예: 가상 컴퓨팅 131, 가상 스토리지 132, 및 가상 네트워크 133)을 포함할 수 있다. 도 1에서, 가상 계층 134 및 가상화된 자원 138이 분리되었으나(separated), 가상 계층 134는 가상화된 자원 138을 포함할 수 있다.
NFVO 장치 141은 NFV 환경 100을 제어 및/또는 관리할 수 있다. 예를 들어, NFVO 장치 141은 VNFM 장치 142를 제어하여 VNF 120을 관리할 수 있고, VIM 장치 143을 제어하여 가상 계층 134 및/LEH는 가상화된 자원 138을 관리할 수 있고, NFV 장치 141은 PIM 장치 144를 제어하여 하드웨어 자원 139를 관리할 수 있다. 이를 위해, NFVO 장치 141은 VNFM 장치 142, VIM 장치 142 및 PIM 장치 143과 통신할 수 있고, 데이터를 주고 받을 수 있다. 또한, NFVO 장치 141은 수신된 데이터를 사용자에게 제공하기 위한 사용자 인터페이스(user interface, UI)를 포함할 수 있다. 본 개시의 다양한 실시 예들에 따르면, 'NFVO 장치'는 'NFV 환경 제어 장치', '제어 장치', 또는 'NFVO'로 지칭될 수 있다.
VNFM 장치 142는 NFV 환경 100에 구축된 VNF 120을 관리하며, VNF 120을 위한 가상화된 자원을 생성하기 위하여 VIM 장치 143과 통신할 수 있다. 예를 들어, VNFM 장치 142는 VNF를 생성 및/또는 삭제하거나, VNF를 변경, 제어 또는 관리할 수 있다. VNFM 장치 142는 VNF 120에 관한 정보를 NFVO 장치 141로 송신할 수 있다. 본 개시의 다양한 실시 예들에 따르면, 'VNFM 장치'는 간략히 'VNFM'으로 지칭될 수 있다.
VIM 장치 143은 가상 계층 134 및/또는 가상화된 자원 138을 관리할 수 있다. VIM 장치 143은 VNF 120 및/또는 가상 계층 134에 대한 가상 자원을 할당하기 위한 요청을 NFVO 장치 141 및/또는 VNFM 장치 142로부터 수신할 수 있다. VIM 장치 143은 가상 계층 134 및/또는 가상화된 자원 138에 관한 정보를 NFVO 장치 141 및/또는 PIM 장치 144로 제공할 수 있다. 'VIM 장치'는 간략히 'VIM'으로 지칭될 수 있다.
PIM 장치 144는 물리 계층 및/또는 하드웨어 자원 139를 관리할 수 있다. PIM 장치 144는 물리 계층 및/또는 하드웨어 자원 139에 관한 정보를 NFVO 장치 141로 제공할 수 있다. 본 개시의 다양한 실시 예들에 따르면, PIM 장치 144는 가상 계층 134 및/또는 가상화된 자원에 관한 정보를 VIM 장치 143으로부터 수신할 수 있다. 'PIM 장치'는 간략히 'PIM'으로 지칭될 수 있다.
디스크립션 150은 서비스 정보, VNF 정보 및 인프라에 대한 정보를 NFVO 장치 141, VNFM 장치 142, VIM 장치 143 및 PIM 장치 144 중 적어도 하나로 제공할 수 있다.
NFVO 환경 100은 VNFM 장치 142를 포함하는 복수의 VNFM 장치들과, VIM 장치 143을 포함하는 복수의 VIM 장치들과, PIM 장치 144를 포함하는 복수의 PIM 장치들을 포함할 수 있다. 각각의 복수의 VNFM 장치들은 VNFM 장치 142와 동일한 기능을 수행할 수 있고, 각각의 복수의 VIM 장치들은 VIM 장치 143과 동일한 기능을 수행할 수 있고, 각각의 복수의 PIM 장치들은 PIM 장치 144와 동일한 기능을 수행할 수 있다. NFVO 장치 141은 복수의 데이터 센터(data center, DC)들을 관리할 수 있고, 각 데이터 센터는 하나의 PIM 장치와, 하나 또는 그 이상의 VIM 장치들과, 하나 또는 그 이상의 VNFM 장치들을 포함할 수 있다. NFVO 장치 141은 복수의 DC들에 포함된 VNFM 장치들, VIM 장치들 및/또는 PIM 장치들을 포함할 수 있다. 이하 도 2에서, NFVO 장치 141이 관리하는 노드들(예: VNFM 장치(들), VIM 장치(들), PIM 장치(들))의 계층적 구조가 설명된다.
도 2는 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 제어 장치가 관리하는 노드들의 계층적 다이어그램 200을 도시한다. 계층적 다이어그램 200은 NFVO 장치 141에 표시될 수 있다. 도 2를 참고하면, NFVO 141은 PIM 그룹 210, VIM 그룹 220 및 VNFM 그룹 230을 관리할 수 있다.
PIM 그룹 210은 복수의 PIM 장치들 PIM201, PIM39, PIM86, PIM_MNM 및 PIM_SIZING을 포함할 수 있다. 하나의 PIM 장치와 하나의 DC가 대응하므로, 각 PIM은 각 PIM에 대응하는 DC의 물리적 인프라(physical infrastructure)를 나타낼 수 있다. 예를 들어, PIM 201에 대응하는 DC는 층 f1을 포함할 수 있고, 층 f1은 방 room1을 포함할 수 있고, 방 room1은 랙(rack) rack1을 포함할 수 있고, 랙 rack1은 쉘프(shelf) shelf0를 포함할 수 있고, shelf0는 복수의 슬롯들 slot0, slot1, slot21 및 slot 23을 포함할 수 있다. 여기에서, 랙은 서버 장치, 스위치 및/또는 저장소들의 집합을 의미하고, 쉘프는 랙의 파티션(예: 수평 파티션)들 중 하나를 의미하고, 슬롯은 쉘프의 파티션(예: 수직 파티션)들 중 하나를 의미한다. 하나의 슬롯에 서버 장치, 스위치 또는 저장소가 배치될 수 있다. 예를 들어, slot0에 서버 장치 nova1이 배치될 수 있고, slot2에 서버 장치 nova2가 배치될 수 있고, slot21에 스위치 switch21이 배치될 수 있고, 슬롯 23에 저장소 storage1이 배치될 수 있다. 여기에서, 'nova1', 'nova2'와 같은 표현은 서버 장치의 식별자(identifier)이거나, 호스트 네임(host name)일 수 있다.
본 개시의 다양한 실시 예들에 따르면, 층, 방, 랙, 쉘프 및/또는 슬롯은 장치의 위치(location)을 나타낼 수 있다. 예를 들어, 서버 장치 nova1의 위치는 PIM201의 f1-room1-rack1-shelf0-slot0로 표현될 수 있고, 서버 장치 nova2의 위치는 PIM201의 f1-room1-rack1-shelf0-slot2로 표현될 수 있다. 다시 말해서, 물리적 장치의 위치는 PIM의 식별자, 층, 방, 랙, 쉘프 및 슬롯 중 적어도 하나 또는 조합으로 표현될 수 있다.
VIM 그룹 220은 VIM 장치 VIM242를 포함할 수 있다. VIM242는 복수의 가상 컴퓨트 노드들 nova1, nova2, nova3 및 nova4를 포함할 수 있다. 여기에서, 'nova1', 'nova2', 'nova3' 또는 'nova4'와 같은 표현은 가상 컴퓨트 노드의 식별자이거나, 호스트 네임일 수 있다. 각각의 복수의 가상 컴퓨트 노드들에서 적어도 하나의 VM이 동작할 수 있다. 예를 들어, 가상 컴퓨트 노드 nova1에서, 복수의 VM들 VNF_YJ_TEST_NS_VECA0, VNF_YJ_TEST_NS_VIVA0, VNF_YJ_TEST_NS_VOMA0, VNF_YJ_TEST_NS_VOMA1, testtree_VOMA1 및 treetest_VOMA1이 동작할 수 있다.
VNFM 그룹 230은 복수의 VNFM 장치들 VNFM_ETSI 및 VNFM_local을 포함할 수 있다. 예를 들어, VNFM_ETSI는 EDIT_ETSI_VNF라는 VNF를 제어 및/또는 관리할 수 있다. EDIT_ESTI_VNF는 복수의 VNF 구성요소(VNF components, VNFC)들 EDIT_ETSI_VNF_VECA0, EDIT_ETSI_VNF_VIVA0, EDIT_ETSI_VNF_VOMA0 및 EDIT_ETSI_VNF_VOMA1을 포함할 수 있다.
도 2에서, 계층적 다이어그램 200에 도시된 노드들의 수 및/또는 이름은 예시적인 것이고, 다양한 변형이 가능하다. 예를 들어, VIM 그룹 220은 VIM 242fmf 포함하여 복수의 VIM 장치들을 포함할 수 있다.
도 3은 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 제어 장치의 구성을 도시한다. 도 3에 예시된 구성은 NFVO 장치 141의 구성으로 이해될 수 있다. 이하 사용되는 '~부', '~기' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어, 또는, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
도 3을 참고하면, 제어 장치는 통신부 310, 저장부 320, 제어부 330, 디스플레이 340 및 입력 장치 350을 포함할 수 있다.
통신부 310은 네트워크 내 다른 노드들과 통신을 수행하기 위한 인터페이스를 제공한다. 즉, 통신부 310은 서버에서 다른 노드, 예를 들어, 기지국, 코어 망, 인증 서버 등으로 송신되는 비트열을 물리적 신호로 변환하고, 다른 노드로부터 수신되는 물리적 신호를 비트열로 변환한다. 즉, 통신부 310은 신호를 송신 및 수신할 수 있다. 이에 따라, 통신부 310은 모뎀(modem), 송신부, 수신부 또는 송수신부(transceiver)로 지칭될 수 있다. 이때, 통신부 310은 제어 장치가 백홀 연결(예: 유선 백홀 또는 무선 백홀)을 거쳐 또는 네트워크를 거쳐 다른 장치들 또는 시스템과 통신할 수 있도록 한다.
저장부 320은 서버의 동작을 위한 기본 프로그램, 응용 프로그램, 설정 정보 등의 데이터를 저장한다. 특히, 저장부 320은 서버 장치 및 가상 컴퓨트 노드간 대응 관계를 지시하는 정보를 저장할 수 있다. 예를 들어, 서버 장치 및 가상 컴퓨트 노드간 대응 관계는 매핑 테이블(mapping table)로 표현될 수 있고, 저장부 320은 매핑 테이블을 저장할 수 있다. 그리고, 저장부 320은 제어부 330의 요청에 따라 저장된 데이터를 제공한다.
제어부 330은 제어 장치의 전반적인 동작들을 제어한다. 예를 들어, 제어부 330은 통신부 310를 통해 신호를 송수신한다. 또한, 제어부 330은 저장부 320에 데이터를 기록하고, 읽는다. 이를 위해, 제어부 330은 적어도 하나의 프로세서(processor)를 포함할 수 있다.
다양한 실시 예들에 따라, 제어부 330은 서버 장치에 대응하는 가상 컴퓨트 노드를 결정하고, 서버 장치와 관련된 물리 계층 정보와, 가상 컴퓨트 노드와 관련된 가상 계층 정보를 식별하고, 디스플레이 340이 물리 계층 정보 및 가상 계층 정보를 표시하도록 제어할 수 있다. 예를 들어, 제어부 330은 서버가 후술하는 다양한 실시 예들에 따른 동작들을 수행하도록 제어할 수 있다.
디스플레이 340은 이미지, 그래픽, 텍스트 등을 포함하는 화면을 표시할 수 있다. 예를 들어, 디스플레이 340은 액정(liquid crystal), 발광 다이오드(light emitting diode) 디스플레이 또는 다른 소재로 구성될 수 있다. 디스플레이 340은 제어부 330을 통해 수신된 데이터에 대응하는 화면을 표시할 수 있다. 또한, 디스플레이 340은 사용자의 입력을 감지하기 위한 터치 스크린을 포함할 수 있다.
입력 장치 350은 사용자로부터 입력을 수신할 수 있다. 이를 위해, 입력 장치 350은 입력 인터페이스를 포함할 수 있다. 입력 장치 350를 통해 수신된 입력은 제어부 330에서 처리된 후, 디스플레이 340, 저장부 320 및 통신부 310으로 송신될 수 있다. 이를 통해, 입력 장치 350를 통해 수신된 입력에 대응하는 정보가 디스플레이 340에 표시되거나, 통신부 310를 통해 다른 장치로 송신되거나, 저장부 330에 저장될 수 있다.
도 4는 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 PIM장치의 구성을 도시한다. 도 4에 예시된 구성은 PIM 장치 144의 구성으로 이해될 수 있다. 이하 사용되는 '~부', '~기' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어, 또는, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
도 4을 참고하면, PIM 장치는 통신부 410, 저장부 420, 제어부 430를 포함할 수 있다.
통신부 410은 네트워크 내 다른 노드들과 통신을 수행하기 위한 인터페이스를 제공한다. 즉, 통신부 410은 서버에서 다른 노드, 예를 들어, 기지국, 코어 망, 인증 서버 등으로 송신되는 비트열을 물리적 신호로 변환하고, 다른 노드로부터 수신되는 물리적 신호를 비트열로 변환한다. 즉, 통신부 410은 신호를 송신 및 수신할 수 있다. 이에 따라, 통신부 310은 모뎀(modem), 송신부, 수신부 또는 송수신부(transceiver)로 지칭될 수 있다. 이때, 통신부 410은 제어 장치가 백홀 연결(예: 유선 백홀 또는 무선 백홀)을 거쳐 또는 네트워크를 거쳐 다른 장치들 또는 시스템과 통신할 수 있도록 한다.
저장부 420은 서버의 동작을 위한 기본 프로그램, 응용 프로그램, 설정 정보 등의 데이터를 저장한다. 특히, 저장부 420은 PIM 장치에 의해 관리되는 복수의 서버 장치들 각각에 대한 식별 키를 저장할 수 있다. 그리고, 저장부 420은 제어부 430의 요청에 따라 저장된 데이터를 제공한다.
제어부 430은 제어 장치의 전반적인 동작들을 제어한다. 예를 들어, 제어부 430은 통신부 410를 통해 신호를 송수신한다. 또한, 제어부 430은 저장부 420에 데이터를 기록하고, 읽는다. 이를 위해, 제어부 430은 적어도 하나의 프로세서(processor)를 포함할 수 있다.
다양한 실시 예들에 따라, 제어부 430은 통신부 410이 VIM 장치로부터, 적어도 하나의 가상 컴퓨트 노드의 식별자를 포함하는 식별 정보를 수신하도록 제어하고, 식별 정보에 기반하여 적어도 하나의 가상 컴퓨트 노드에 대응하는 적어도 하나의 서버 장치에 대한 식별 키를 결정하고, 통신부 410이 적어도 하나의 서버 장치에 대한 식별 키를 제어 장치로 송신하도록 제어할 수 있다. 예를 들어, 제어부 430은 서버가 후술하는 다양한 실시 예들에 따른 동작들을 수행하도록 제어할 수 있다.
도 5a 및 도 5b는 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 제어 장치에 표시되는 노드들간 연결 및 기능 장애가 발생한 노드와 관련된 연결을 도시한다.
도 5a 및 도 5b를 참고하면, 제어 장치(예: NFVO 장치 141)는 UI 500을 통해 NFV 환경의 노드들 및 노드들간 연결 관계를 표시할 수 있다. 예를 들어, NFVO 장치 141은 NFV 환경의 노드들인 NFVO 장치 141, VNFM 장치 142, VIM 장치 143 및 PIM 장치 144를 표시할 수 있고, 각각의 노드들간 연결 관계를 표시할 수 있다. 도 5b에서 각각의 노드들간 연결 관계는 선(line)으로 표현되었으며, 해당 노드들이 데이터를 주고 받을 수 있음을 나타낸다. 또한, NFVO 장치 141은 각각의 노드들이 관리 및/또는 제어하는 객체(object)를 표시할 수 있다. 예를 들어, NFVO 장치 141은 VNFM 장치 142가 제어 및/또는 관리하는 VNF 120과, VIM 장치 143이 제어 및/또는 관리하는 가상 자원 138과, PIM 장치 144가 제어 및/도는 관리하는 하드웨어 자원 139를 표시할 수 있다. 여기에서, VNF 120 및 가상 자원 138은 가상 계층에 속하고, 하드웨어 자원 139는 물리 계층에 속한다. UI 500에서, 관리 주체와 관리 객체간 대응 관계는 연결 선으로 표시되었다.
본 개시의 다양한 실시 예들에 따르면, NFVO 장치 141은 NFV 환경에서 기능 장애가 발생하였음을 나타내는 정보를 표시할 수 있다. NFVO 장치 141은 기능 장애를 검출할 수 있고, 기능 장애와 관련된 노드를 지시하는 정보를 표시할 수 있다. 예를 들어, 도 5b에 도시된 것과 같이 VIM 장치 143과 관련된 기능 장애(예: NFVO 장치 141과 VIM 장치 143간 통신 장애(communication disruption))가 검출된 경우, NFVO 장치 141은 NFVO 장치 141과 VIM 장치 143을 연결하는 선을 다른 선들과 다르게 표시하여, VIM 장치 143과 관련된 기능 장애가 발생하였음을 나타낼 수 있다.
NFV 환경에서 발생할 수 있는 기능 장애들의 종류 및 기능 장애와 관련된 노드들의 분류는 하기의 <표 1>과 같다.
Figure PCTKR2019003083-appb-I000001
<표 1>에서, 각 노드와 관련된 기능 장애들의 종류는 예시적인 것이고, 각 노드에 대해 다른 종류의 기능 장애가 발생할 수 있다.
예를 들어, VNFM 장치 142, VIM 장치 143 및/또는 PIM 장치 144는 기능 장애가 발생한 경우, 기능 장애에 대한 알림(alarm)을 NFVO 장치 141로 제공하여 NFVO 장치 141가 기능 장애와 관련된 노드를 지시하는 정보를 표시하게 할 수 있다. 다른 예로, NFVO 장치 141은 각 노드에 관련된 기능 장애가 발생하는지 여부를 모니터(monitor)할 수 있고, 기능 장애가 발생한 경우 기능 장애와 관련된 노드를 지시하는 정보를 표시할 수 있다. 이 경우, NFVO 장치 141은 VNFM 장치 142, VIM 장치 143 및/또는 PIM 장치 144로부터 기능 장애에 대한 알림을 수신함 없이 각 노드에 대한 기능 장애를 검출하고, 기능 장애와 관련된 정보를 표시할 수 있다.
도시되지 아니하였으나, NFVO 장치 141은 UI 500을 통해 기능 장애와 관련된 노드를 지시하는 정보에 더하여, 기능 장애의 종류를 지시하는 정보를 표시할 수 있다. 예를 들어, VIM 장치 143과 관련된 기능 장애 'VM 상태 오류'가 발생한 경우, NFVO 장치 141은 UI 500을 통해 'VM 상태 오류'라는 메시지를 함께 표시할 수 있다.
도 6은 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 기능 장애와 노드들간 매핑(mapping)을 도시한다.
NFVO 장치 141은 기능 장애에 대한 알림을 수신하거나, 기능 장애를 모니터하여, 각각의 노드들(예: VNFM 장치 142, VIM 143 및 PIM 144)과 관련된 기능 장애를 검출할 수 있다. 이에 따라, NFVO 장치 141은 검출된 기능 장애를, 기능 장애와 관련된 노드에 매핑할 수 있다.
나아가, NFVO 장치 141은 검출된 기능 장애가 기인하는 각 노드의 세부 요소(detailed element)를 식별할 수 있다. 예를 들어, NFVO 장치 141이 VNFM 장치 142와 관련된 기능 장애를 검출한 경우, NFVO 장치 141은 VNFM 142가 관리하는 세부 요소들(EMS 611, EMS 621, VNF 613, VNF 623을 포함함) 중 기능 장애가 기인하는 VNF 623을 식별할 수 있다. 다른 예로, NFVO 장치 141이 VIM 143과 관련된 기능 장애를 검출한 경우, NFVO 장치 141은 VIM 장치 143과 관련된 기능 장애를 검출한 경우, NFVO 장치 141은 VIM 장치 143이 관리하는 세부 요소들(VM 615, VM 625를 포함함) 중 기능 장애가 기인하는 VM 615를 식별할 수 있다. 또 다른 예로, NFVO 장치 141이 PIM 장치 144와 관련된 기능 장애를 검출한 경우, NFVO 장치 141은 PIM 장치 144가 관리하는 세부 요소들(스위치 630 및 서버 장치 640을 포함함) 중 기능 장애가 기인하는 서버 장치 640을 식별할 수 있다. 상술한 것과 같이, NFVO 장치 141은 기능 장애가 기인하는 각 노드의 세부 요소를 식별하고, 기능 장애를 식별된 세부 요소에 매핑할 수 있다.
본 개시의 다양한 실시 예들에 따르면, 기능 장애와 관련된 각 노드가 기능 장애가 기인하는 세부 요소를 식별할 수 있고, 식별된 세부 요소에 관한 정보를 NFVO 장치 141에 제공할 수 있다. 이를 위해, NFVO 장치 141은 각 노드를 제어하여, 각 노드가 기능 장애가 기인하는 세부 요소를 식별하게 할 수 있다.
가상 계층에서 기능 장애가 발생한 경우, NFVO 장치 141은 기능 장애가 기인하는 가상 계층의 세부 요소를 식별할 수 있다. NFVO 장치 141은 식별된 세부 요소를 검사(examine)하여 기능 장애를 해소하거나, 기능 장애의 종류 및 식별된 세부 요소를 지시하는 정보를 표시할 수 있다. 그러나, 가상 계층의 세부 요소를 충분히 검사하더라도, 가상 계층에서 발생한 기능 장애가 해소되지 아니할 수 있다. 예를 들어, VM 615에 대응하는 물리 포트(예: 서버 장치 640의 물리 포트)가 작동 중지된 경우, VM 615로부터 기인하는 기능 장애가 발생할 수 있으나, VM 615를 검사하더라도 물리 포트가 작동 중지된 원인이 해소되지 않는 한 기능 장애가 해소되지 아니할 수 있다. 다시 말해서, 가상 계층에서 발생한 기능 장애는 물리 계층과 관련될 수 있고, 따라서 NFVO 장치 141 및/또는 사용자가 가상 계층을 검사하더라도 물리 계층의 원인이 해소되지 않는 한 기능 장애가 해소되지 아니할 수 있다. 반대로, 물리 계층에서 발생한 기능 장애는 가상 계층과 관련될 수 있고, 따라서 NFVO 장치 141 및/또는 사용자가 물리 계층을 검사하더라도 가상 계층의 원인이 해소되지 않는 한 기능 장애가 해소되지 아니할 수 있다.
따라서, 본 개시의 다양한 실시 예들은 물리 계층 정보와 가상 계층 정보를 연동(associate)시키기 위한 장치 및 방법을 제공한다. 물리 계층 정보와 가상 계층 정보를 연동시킴으로써, NFVO 장치 141은 연동된 물리 계층 정보 및 가상 계층 정보를 함께 표시할 수 있다. 예를 들어, NFVO 장치 141은 VM 615와 관련된 가상 계층 정보와, VM 615에 대응하는 서버 장치 640과 관련된 물리 계층 정보를 함께 표시할 수 있다. 더하여, NFVO 장치 141은 기능 장애 검출시 기능 장애와 관련된 물리 계층 정보와, 기능 장애와 관련된 가상 계층 정보를 함께 표시할 수 있다. 따라서, NFVO 장치 141 및/또는 사용자는 기능 장애가 기인하는 물리 계층 요소 및 가상 계층 요소를 용이하게 식별하고, 기능 장애를 신속하게 해소할 수 있다.
이하 도 7에서, 물리 계층 정보와 가상 계층 정보를 함께 표시하기 위한 구체적인 방법이 설명된다.
도 7은 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 제어 장치의 흐름도를 도시한다. 도 7은 NFVO 장치 141의 동작을 예시한다.
도 7을 참고하면, 701 단계에서, 제어 장치는 서버 장치에 대응하는 가상 컴퓨트 노드를 결정한다. 물리 계층 정보와 가상 계층 정보의 연동은 NFV 환경에서 VIM 장치(예: VIM 장치 143)가 관리하는 복수의 가상 컴퓨트 노드들과 PIM 장치(예: PIM 장치 144)가 관리하는 복수의 서버 장치들 중에서 서로 대응하는 가상 컴퓨트 노드 및 서버 장치의 쌍을 결정하는 것으로부터 시작(starts from)할 수 있다. 다시 말해서, 제어 장치는 복수의 가상 컴퓨트 노드들 중 각각의 복수의 서버 장치들에 대응하는 가상 컴퓨트 노드를 결정할 수 있다. 서버 장치에 대응하는 가상 컴퓨트 노드를 결정하는 구체적인 방법은 도 8에서 보다 상세히 설명된다.
703 단계에서, 제어 장치는 서버 장치와 관련된 물리 계층 정보 및 가상 컴퓨트 노드와 관련된 가상 계층 정보를 식별한다. 물리 계층 정보는 서버 장치의 호스트 네임(host name), 서버 장치의 위치, 서버 장치에 배치된 적어도 하나의 물리 포트 중 적어도 하나를 포함할 수 있다. 가상 계층 정보는 가상 컴퓨트 노드의 호스트 네임, 가상 컴퓨트 노드에서 동작하는 VM(들)의 식별자 또는 리스트, VM에 의해 수행되는 VNF(들)의 식별자 또는 리스트, 가상 컴퓨트 노드를 관리하는 VIM 장치에 관한 식별자, VNF(들)을 관리하는 VNFM 장치에 관한 정보 중 적어도 하나를 포함할 수 있다.
705 단계에서, 제어 장치는 물리 계층 정보 및 가상 계층 정보를 표시한다. 예를 들어, 제어 장치는 가상 컴퓨트 노드와 관련된 가상 계층 정보로서 가상 컴퓨트 노드에서 동작하는 VM을 표시할 수 있고, 서버 장치와 관련된 물리 계층 정보로서 VM에 대응하는 서버 장치의 물리 포트를 표시할 수 있다. 나아가, 제어 장치는 VM과 VM에 대응하는 물리 포트간 대응 관계를 표시할 수 있다.
도 8은 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 서버 장치에 대응하는 가상 컴퓨트 노드를 결정하기 위한 제어 장치의 흐름도를 도시한다. 도 8은 NFVO 장치 141의 동작을 예시한다.
도 8을 참고하면, 801 단계에서, 제어 장치는 VIM 장치로부터 수신된 식별 정보에 기반하여, 가상 컴퓨트 노드에 대한 식별 키를 결정한다. 식별 키는 호스트 키(host key)로도 지칭될 수 있다. 식별 정보는 가상 컴퓨트 노드의 식별자 및 VIM장치에 대한 적어도 하나의 사용자 식별자 중 적어도 하나를 포함할 수 있다. 가상 컴퓨트 노드의 식별자는 가상 컴퓨트 노드의 호스트 네임으로 지칭될 수 있다. VIM 장치에 대한 사용자 식별자는 범용 고유 식별자(universally unique identifier, UUID) 또는 테넌트 식별자(tenant identifier)로 지칭될 수 있다. 예를 들어, 제어 장치는 가상 컴퓨트 노드의 식별자에 기반하여 가상 컴퓨트 노드에 대한 식별 키를 결정할 수 있다. 다른 예로, 제어 장치는 가상 컴퓨트 노드의 식별자와 VIM 장치에 대한 적어도 하나의 사용자 식별자를 조합하여 가상 컴퓨트 노드에 대한 식별 키를 결정할 수 있다. 다른 예로, 제어 장치는 가상 컴퓨트 노드의 식별자와 VIM 장치에 대한 적어도 하나의 사용자 식별자를 해싱(hashing)하여 가상 컴퓨트 노드에 대한 식별 키를 결정할 수 있다. 여기에서, 해싱을 위해 해싱 함수 SHA224가 사용될 수 있다.
803 단계에서, 제어 장치는 PIM 장치로부터 서버 장치에 대한 식별 키를 수신한다. 801 단계의 식별 정보는 VIM 장치로부터 PIM 장치로도 송신될 수 있으며, PIM 장치는 식별 정보에 기반하여 서버 장치에 대한 식별 키를 결정할 수 있다. PIM 장치가 서버 장치에 대한 식별 키를 결정하는 구체적인 방법은 이하 도 10에서 보다 상세히 설명된다.
805 단계에서, 제어 장치는 가상 컴퓨트 노드에 대한 식별 키와 서버 장치에 대한 식별 키의 매칭에 기반하여, 서버 장치에 대응하는 가상 컴퓨트 노드를 결정한다. 가상 컴퓨트 노드에 대한 식별 키와 서버 장치에 대한 식별 키가 매칭할 경우, 제어 장치는 가상 컴퓨트 노드와 서버 장치가 대응하는 것으로 결정할 수 있다. 가상 컴퓨트 노드에 대한 식별 키와 서버 장치에 대한 식별 키가 매칭하지 않을 경우, 제어 장치는 가상 컴퓨트 노드와 서버 장치가 대응하지 않는 것으로 결정하고, 서버 장치의 식별 키를 다른 가상 컴퓨트 노드의 식별 키와 매칭하여 대응되는 가상 컴퓨트 노드를 결정할 수 있다.
도 9는 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 PIM 장치의 흐름도를 도시한다. 도 9는 PIM 장치 144의 동작을 예시한다.
도 9를 참고하면, 901 단계에서, PIM 장치는 VIM 장치로부터, 적어도 하나의 가상 컴퓨트 노드의 식별자를 포함하는 식별 정보를 수신한다. 식별 정보는 가상 컴퓨트 노드(들)의 리스트 또는 가상 컴퓨트 노드(들)의 식별자(들)의 리스트를 포함할 수 있다. 가상 컴퓨트 노드(들)의 리스트 또는 가상 컴퓨트 노드(들)의 식별자(들)의 리스트는 하이퍼바이저(hypervisor) 리스트 또는 컴퓨트 노드 리스트로 지칭될 수 있다. 식별 정보는 VIM 장치의 사용자 식별자(들)의 리스트를 더 포함할 수 있다. VIM 장치의 사용자 식별자(들)의 리스트는 테넌트 리스트로 지칭될 수 있다. PIM 장치는 VIM 장치로부터 식별 정보를 수신하기 위해, VIM 장치로 식별 정보를 요청하기 위한 메시지를 송신할 수 있다.
903 단계에서, PIM 장치는 식별 정보에 기반하여, 적어도 하나의 가상 컴퓨트 노드에 대응하는 적어도 하나의 서버 장치에 대한 식별 키를 결정한다. 이를 위해, PIM 장치는 가상 컴퓨트 노드들 각각에 대응하는 서버 장치를 결정할 수 있다. PIM 장치는 가상 컴퓨트 노드의 IP(internet protocol) 주소와 서버 장치의 IP 주소의 매칭에 기반하여, 가상 컴퓨트 노드에 대응하는 서버 장치를 결정할 수 있다. 다시 말해서, PIM 장치는 각 가상 컴퓨트 노드의 IP 주소와 동일한 IP 주소를 가지는 서버 장치가 각 가상 컴퓨트 노드에 대응하는 것으로 결정할 수 있다. 다른 예로, PIM 장치는 가상 컴퓨트 노드의 호스트 네임과 서버 장치의 호스트 네임의 매칭에 기반하여, 가상 컴퓨트 노드에 대응하는 서버 장치를 결정할 수 있다. 다시 말해서, PIM 장치는 각 가상 컴퓨트 노드의 호스트 네임과 동일한 호스트 네임을 가지는 서버 장치가 각 가상 컴퓨트 노드에 대응하는 것으로 결정할 수 있다. 다른 예로, PIM 장치는 각 가상 컴퓨트 노드에 대응하는 서버 장치를 결정하기 위해, IP 주소 및 호스트 네임을 사용할 수 있다. 예를 들어, PIM 장치는 IP 주소만으로 각 가상 컴퓨트 노드에 대응하는 서버 장치를 결정할 수 없는 경우, 호스트 네임을 보완적으로 사용할 수 있다. 또한, PIM 장치는 호스트 네임만으로 각 가상 컴퓨트 노드에 대응하는 서버 장치를 결정할 수 없는 경우, IP 주소를 보완적으로 사용할 수 있다. 또한, PIM 장치는 가상 컴퓨트 노드의 호스트 네임 및 IP 주소와 서버 장치의 호스트 네임 및 IP 주소의 매칭에 기반하여, 가상 컴퓨트 노드에 대응하는 서버 장치를 결정할 수 있다. 다시 말해서, PIM 장치는 각 가상 컴퓨트 노드의 IP 주소 및 호스트 네임과 동일한 IP 주소 및 호스트 네임을 가지는 서버 장치가 각 가상 컴퓨트 노드에 대응하는 것으로 결정할 수 있다. 일 실시 예에 따라, PIM 장치는 각 서버 장치에 대응하는 가상 컴퓨트 노드의 식별자에 기반하여, 각 서버 장치에 대한 식별 키를 결정할 수 있다. 다른 예로, PIM 장치는 각 서버 장치에 대응하는 가상 컴퓨트 노드의 식별자와 VIM 장치의 사용자 식별자를 조합하여, 각 서버 장치에 대한 식별 키를 결정할 수 있다. 다른 예로, PIM 장치는 각 서버 장치에 대응하는 가상 컴퓨트 노드의 식별자와 VIM 장치의 사용자 식별자를 해싱하여, 각 서버 장치에 대한 식별 키를 결정할 수 있다. 여기에서, 해싱을 위해 해싱 함수 SHA224가 사용될 수 있다.
905 단계에서, PIM 장치는 적어도 하나의 서버 장치에 대한 식별 키를 제어 장치로 송신한다. 제어 장치는 PIM 장치로부터 수신된 적어도 하나의 서버 장치에 대한 식별 키와, VIM 장치로부터 수신된 적어도 하나의 가상 컴퓨트 노드에 대한 식별 키의 매칭에 기반하여, 각 서버 장치에 대응하는 가상 컴퓨트 노드를 결정할 수 있다.
도 10은 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 서버 장치에 대응하는 가상 컴퓨트 노드를 결정하기 위한 노드들간 신호 흐름을 도시한다. 도 10은 NFVO 장치 141, VIM 장치 143 및 PIM 장치 144간 신호 흐름을 도시한다.
도 10을 참고하면, 1001 단계에서, PIM 장치 144는 VIM 장치 143으로 식별 정보를 요청하는 메시지를 송신한다. 식별 정보를 요청하는 메시지는 PIM 장치 144를 설치(install)하기 위한 절차에서 송신될 수 있다.
1003 단계에서, VIM 장치 143은 식별 정보 요청에 대한 응답으로, PIM 장치 144로 식별 정보를 송신한다. 식별 정보는 VIM 장치 143이 관리하는 가상 컴퓨트 노드들의 리스트(또는, 하이퍼바이저 리스트) 및/또는 VIM 장치 143의 적어도 하나의 사용자 식별자의 리스트(또는, 테넌트 리스트)를 포함할 수 있다.
1005 단계에서, PIM 장치 144는 PIM 장치 144가 관리하는 서버 장치들 각각에 대응하는 가상 컴퓨트 노드의 식별자에 기반하여, 각 서버 장치에 대한 식별 키를 결정한다. 이를 위해, PIM 장치 144는 동일한 IP 주소 및/또는 동일한 호스트 네임을 가지는 서버 장치들과 가상 컴퓨트 노드들을 매칭시켜, 각 서버 장치에 대응하는 가상 컴퓨트 노드를 결정할 수 있다. 일 실시 예에 따라, 서버 장치들의 수가 가상 컴퓨트 노드들의 수보다 많을 수 있으며, 이 경우 PIM 장치 144가 관리하는 서버 장치들 중 일부 서버 장치(들)에 대해서는 대응하는 가상 컴퓨트 노드가 존재하지 아니할 수 있다. 다른 예로, PIM 장치 144는 PIM 장치 144가 관리하는 서버 장치들 각각에 대응하는 가상 컴퓨트 노드의 식별자와, VIM 장치 143의 적어도 하나의 사용자 식별자에 기반하여, 각 서버 장치에 대한 식별 키를 결정할 수 있다. 이 경우, VIM 장치 143의 사용자 식별자들의 수가 복수인 경우, 각 서버 장치에 대한 식별 키 또한 복수 개로 결정될 수 있다. 예를 들어, VIM 장치 143의 사용자 식별자들의 수와 각 서버 장치에 대한 식별 키들의 수는 동일할 수 있다. 다른 예로, PIM 장치 144는 PIM 장치 144가 관리하는 서버 장치들 각각에 대응하는 가상 컴퓨트 노드의 식별자와, VIM 장치 143의 적어도 하나의 사용자 식별자를 조합 또는 해싱하여, 각 서버 장치에 대한 식별 키를 결정할 수 있다. 여기에서, 해싱을 위해 해싱 함수 SHA224가 사용될 수 있다.
1007 단계에서, PIM 장치 144는 NFVO 장치 141로 서버 장치들에 대한 식별 키들을 송신한다. 서버 장치들에 대한 식별 키들은 PIM 장치 144를 등록하기 위한 절차에서 송신될 수 있다.
1009 단계에서, VIM 장치 143은 NFVO 장치 141로 식별 정보를 송신한다. 1009 단계에서 송신되는 식별 정보는 1003 단계에서 송신되는 식별 정보와 동일할 수 있다. VIM 장치 143은 VIM 장치를 등록하기 위한 절차에서 NFVO 장치 141로 식별 정보를 송신할 수 있다.
1011 단계에서, NFVO 장치 141은 VIM 장치 143이 관리하는 가상 컴퓨트 노드들 각각의 식별자에 기반하여, 각 가상 컴퓨트 노드에 대한 식별 키를 결정한다. 다른 예로, NFVO 장치 141은 VIM 장치 143이 관리하는 가상 컴퓨트 노드들 각각의 식별자와 VIM 장치 143의 적어도 하나의 사용자 식별자에 기반하여, 각 가상 컴퓨트 노드에 대한 식별 키를 결정할 수 있다. 이 경우, VIM 장치 143의 사용자 식별자들의 수가 복수인 경우, 각 가상 컴퓨트 노드에 대한 식별 키 또한 복수 개로 결정될 수 있다. 예를 들어, VIM 장치 143의 사용자 식별자들의 수와 각 가상 컴퓨트 노드에 대한 식별 키들의 수는 동일할 수 있다. 다른 예로, NFVO 장치 141은 가상 컴퓨트 노드들 각각의 식별자와, VIM 장치 143의 적어도 하나의 사용자 식별자를 조합 또는 해싱하여, 각 가상 컴퓨트 노드에 대한 식별 키를 결정할 수 있다. 여기에서, 해싱을 위해 해싱 함수 SHA224가 사용될 수 있다.
1013 단계에서, NFVO 장치 141은 식별 키들이 매칭하는 가상 컴퓨트 노드 및 서버 장치의 쌍을 결정한다. NFVO 장치 141은 VIM 장치 143이 관리하는 복수의 가상 컴퓨트 노드들과, PIM 장치 144가 관리하는 복수의 서버 장치들 중에서, 식별 키들이 매칭하는 가상 컴퓨트 노드 및 서버 장치의 쌍을 결정할 수 있다. 복수의 식별 키들이 각 가상 컴퓨트 노드 및 각 서버 장치에 대해 존재할 경우, 서버 장치 및 가상 컴퓨트 노드가 서로 대응되는 것으로 결정되기 위해 식별 키들 중 적어도 일부가 일치하거나, 모든 식별 키들이 일치할 것이 요구될 수 있다. NFVO 장치 141은 식별 키들의 매칭에 기반하여, PIM 장치 144가 관리하는 서버 장치들 각각에 대응하는 가상 컴퓨트 노드를 결정할 수 있다. 또는, NFVO 장치 141은 식별 키들의 매칭에 기반하여, VIM 장치 143이 관리하는 가상 컴퓨트 노드들 각각에 대응하는 서버 장치를 결정할 수 있다.
1001 단계 내지 1007 단계는 PIM을 설치하기 위한 절차 및/또는 PIM을 등록하기 위한 절차 동안 수행될 수 있다. 또한, 1009 단계는 VIM을 등록하기 위한 절차 동안 수행될 수 있다. 도 10에서, PIM 설치 및/또는 등록 절차가 VIM 등록 절차보다 먼저 수행되는 것으로 도시되었으나, 이는 예시적인 것이고, PIM 설치 및/또는 등록 절차가 VIM 등록 절차 이후에 수행될 수도 있다.
도 11은 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 제어 장치가 관리하는 데이터 센터(data center, DC)들의 위치를 도시한다.
도 11을 참고하면, NFVO 장치 141은 UI 1100을 통해 GIS(geographic information system) 정보에 기반하여 NFVO 장치 141이 관리하는 DC들 1111, 1113 및 1115의 위치 정보를 표시할 수 있다. NFVO 장치 141은 UI 1100의 영역 1110에서 NFVO 장치 141이 관리하는 데이터 센터들 및/또는 PIM 장치들(예: PIM86, PIM_SIZING, PIM201, PIM39, PIM_SIM, PIM_MNM)의 정보를 표시할 수 있다. NFVO 장치 141은 UI 1100을 통해 DC들 1111, 1113 및 1115 중 적어도 하나를 선택하기 위한 입력을 수신할 수 있다. 예를 들어, 수신된 입력에 따라 DC 1113이 선택된 경우, NFVO 장치 141은 UI 1100의 영역 1120을 통해 선택된 DC 1113에 관한 정보 및/또는 선택된 DC 1113에 대응하는 PIM 장치(예: PIM_SIM)에 관한 정보를 표시할 수 있다. 예를 들어, 도시된 것과 같이, 영역 1120에서 DC 1113은 한 층으로 구성되고, 70개의 랙들을 포함하며, 786개의 서버 장치들을 포함함을 지시하는 정보가 표시될 수 있다.
도 12는 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 데이터 센터에 포함된 랙(rack)들을 도시한다. 도 12에서, 랙은 사각 기둥의 형태를 가지는 것으로 도시되었으나, 이는 예시적인 것이고, 랙의 형태에 대해 다양한 변형이 가능하다.
도 12를 참고하면, NFVO 장치 141은 UI 1200을 통해 랙 1210을 포함하는 복수의 랙들을 표시할 수 있다. UI 1200을 통해 표시된 복수의 랙들은 데이터 센터 내 한 층의 방에 포함된 랙들일 수 있다. UI 1200을 통해 표시된 랙들의 배치 형태는 데이터 센터 내 랙들의 실제 배치 형태에 대응할 수 있다. NFVO 장치 141은 UI 1200을 통해 표시된 복수의 랙들 중 적어도 하나를 선택하기 위한 입력을 수신할 수 있다. 예를 들어, 수신된 입력에 따라 랙 1210이 선택된 경우, NFVO 장치 141은 하기의 도 13 도시된 것과 같이 선택된 랙 1210에 관한 정보를 표시할 수 있다.
도 13은 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 랙에 대한 물리 계층 정보 및 가상 계층 정보를 도시한다.
도 13을 참고하면, NFVO 장치 141은 UI 1300을 통해 수신된 입력에 따라 선택된 랙 1210과 관련된 물리 계층 정보 1320과, 랙 1210과 관련된 가상 계층 정보 1330을 표시할 수 있다.
물리 계층 정보 1320은 랙 1210에 포함된 서버 장치들, 스위치들 및/또는 저장소들과 관련된 정보를 포함할 수 있다. 예를 들어, 물리 계층 정보 1320은 랙 1210이 27개의 서버들을 포함하고, 저장소 및 스위치를 포함하지 아니하고, 하나의 섀시(chassis)를 포함함을 지시하는 정보를 포함할 수 있다.
가상 계층 정보 1330은 랙 1210에 포함된 서버 장치들에 대응하는 가상 컴퓨트 노드들과 관련된 정보를 포함할 수 있다. 예를 들어, 가상 계층 정보 1330은 랙 1210에 포함된 서버 장치들에 대응하는 가상 컴퓨트 노드들에 의해 수행되는 VNF들의 리스트(예: vGW_TEST)와, VNF들을 관리하는 VNFM 장치(예: VNFM_2)와, 컴퓨트 노드들을 관리하는 VIM 장치(예: VIM242)에 관한 정보를 포함할 수 있다.
또한, NFVO 장치 141은 UI 1300의 영역 1310에서 랙 1210을 포함하는 DC의 기본적인 정보를 표시할 수 있다. 예를 들어, NFVO 장치 141은 영역 1310에서 랙 1210을 포함하는 DC에 대응하는 PIM 장치가 PIM_SIM이고, DC가 VIM 장치 VIM242 및 VIM_gtest를 포함하고, DC가 VNFM 장치 VNFM1_2, VNFM_LOCAL_3_0 및 VNFM_2를 포함함을 지시하는 정보를 표시할 수 있다.
도 14는 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 서버 장치에 대한 물리 계층 정보 및 가상 계층 정보를 도시한다.
도 14를 참고하면, NFVO 장치 141은 UI 1400의 영역 1410에서 서버 장치 1440을 포함하는 랙을 표시할 수 있다. 영역 1410에서, 랙에서 서버 장치 1440의 상대적인 위치가 표시될 수 있다.
NFVO 장치 141은 UI 1400을 통해 서버 장치 1440와, 서버 장치 1440에 포함된 물리 포트들(예: 물리 포트들 1441, 1443, 1445)과, 서버 장치 1440에 대응하는 가상 컴퓨트 노드에서 동작하는 VM들 1421, 1422, 1423, 1424, 1425, 1426 및 1427을 표시할 수 있다. 또한, NFVO 장치 141은 UI 1400을 통해 VM들 1421, 1422, 1423, 1424, 1425, 1426 및 1427와 연결된 physnet1 1431과, VM들 1421, 1423, 1424 및 1427과 연결된 phsynet3 1435와, VM과 연결되지 아니한 physnet2를 표시할 수 있다. 본 개시에서, physnet(예: physnet1 1431, physnet2 1433, physnet3 1435)은 가상 계층에서 물리 포트에 매핑되는 네트워크 계층을 의미한다. 예를 들어, 하나의 physnet에 적어도 하나의 물리 포트가 대응될 수 있고, 하나의 물리 포트에 적어도 하나의 physnet이 대응될 수 있다. 도 14에 도시된 것과 같이, physnet1 1431은 물리 포트 1443에 대응되고, physnet2 1433은 물리 포트 1445에 대응되고, physnet3 1435은 물리 포트 1441에 대응될 수 있다.
본 개시의 다양한 실시 예들에 따르면, NFVO 장치 141은 VM과 physnet간 연결 관계를 표시할 수 있고, physnet과 물리 포트간 대응 관계를 표시할 수 있고, 따라서 VM과 물리 포트간 대응 관계를 표시할 수 있다. 예를 들어, NFVO 장치 141은 VM들 1421, 1422, 1423, 1424, 1425, 1426 및 1427이 physnet1 1431을 통해 물리 포트 1443과 대응됨을 표시할 수 있고, VM들 1421, 1423, 1424 및 1427이 physnet3 1435를 통해 물리 포트 1441과 대응됨을 표시할 수 있다. 따라서, VM에 대한 기능 장애가 발생한 경우, NFVO 장치 141 및/또는 사용자는 기능 장애가 발생한 VM에 대응하는 물리 포트와, 물리 포트를 포함하는 서버 장치와, 물리 포트에 연결된 스위치를 용이하게 식별할 수 있고, 기능 장애가 신속하게 해소될 수 있다. 기능 장애에 대응하기 위한 구체적인 시나리오는 하기의 도 18a 및 도 18d에서 보다 상세히 설명된다.
NFVO 장치 141은 UI 1400의 영역 1450에서 서버 장치 1440에 관한 정보를 표시할 수 있다. 영역 1450에서 표시되는 정보는 서버 장치 1440와 관련된 물리 계층 정보와, 서버 장치 1440에 대응하는 가상 컴퓨트 노드와 관련된 가상 계층 정보를 포함할 수 있다. 예를 들어, NFVO 장치 141은 영역 1450에서 서버 장치 1440과 관련된 물리 계층 정보로서 서버 장치 1440의 위치(예: rack41-shelf1-slot0), 서버 장치 1440의 식별자 또는 호스트 네임(예: com.samsung.nova1), 서버 장치 1440에 포함된 CPU 및 코어들의 수, 서버 장치 1440에 포함된 메모리 및 디스크의 크기, 서버 장치 1440에 포함된 디스크들의 수, 서버 장치 1440의 상태 정보(예: health, performance, resource) 중 적어도 하나를 표시할 수 있다. 또한, NFVO 장치 141은 영역 1450에서 서버 장치 1440에 대응하는 가상 컴퓨트 노드와 관련된 가상 계층 정보로서 가상 컴퓨트 노드의 식별자 또는 호스트 네임(예: nova1), 가상 컴퓨트 노드에서 동작하는 VM들의 리스트, VM들에 의해 수행되는 VNF들의 리스트, VNF들을 관리하는 VNFM 장치, 가상 컴퓨트 노드를 관리하는 VIM 장치 중 적어도 하나를 표시할 수 있다.
도시되지 아니하였으나, NFVO 장치 141은 기능 장애가 검출된 경우 기능 장애와 관련된 가상 계층 정보와, 기능 장애와 관련된 물리 계층 정보를 함께 표시할 수 있다. 예를 들어, VM 1421에서 기능 장애가 발생한 경우, NFVO 장치 141은 UI 1400을 통해 VM 1421에서 기능 장애가 발생하였음을 지시하는 정보와, VM 1421에 대응하는 물리 포트 1441 및 물리 포트 1443을 지시하는 정보를 표시할 수 있다. 더하여, NFVO 장치 141은 기능 장애가 발생한 VM 1421에 관련된 가상 계층 정보와, VM 1421에 대응하는 물리 포트 1441 및 물리 포트 1443과 관련된 물리 계층 정보(예: 물리 포트 1441 및 물리 포트 1443을 포함하는 서버 장치 1440에 관한 정보, 각각의 물리 포트 1441 및 물리 포트 1443과 연결된 스위치에 관한 정보)를 표시할 수 있다.
도 15는 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 가상 머신(virtual machine, VM)의 세부 정보를 도시한다.
도 15를 참고하면, NFVO 장치 141은 UI 1500의 영역 1510에서 서버 장치 1540을 포함하는 랙을 표시할 수 있다. 영역 1510에서, 랙에서 서버 장치 1540의 상대적인 위치가 표시될 수 있다.
NFVO 장치 141은 UI 1500을 통해 서버 장치 1540과, 서버 장치 1540에 포함된 물리 포트들(예: 물리 포트들 1541, 1543, 1545)과, 서버 장치 1540에 대응하는 가상 컴퓨트 노드에서 동작하는 VM들 1521, 1522, 1523, 1524, 1525, 1526 및 1527을 표시할 수 있다. 또한, NFVO 장치 141은 VM들 1521, 1522, 1523, 1524, 1525, 1526 및 1527과 연결된 physnet1 1531과, VM이 연결되지 아니한 physnet2 1533과, VM들 1523 및 1524가 연결된 physnet3 1535를 표시할 수 있다. Physnet1 1531은 물리 포트 1543에 대응되고, phsynet2 1533은 물리 포트 1545에 대응되고, physnet3 1535는 물리 포트 1541에 대응될 수 있다.
NFVO 장치 141은 VM과 physnet간 결 관계를 표시할 수 있고, physnet과 물리 포트간 대응 관계를 표시할 수 있고, 따라서 VM과 물리 포트간 대응 관계를 표시할 수 있다. 예를 들어, NFVO 장치 141은 VM들 1521, 1522, 1523, 1524, 1525, 1526 및 1527이 phsynet1 1531을 통해 물리 포트 1543에 대응됨을 표시할 수 있고, VM들 1523 및 1524가 physnet3 1535를 통해 물리 포트 1541에 대응됨을 표시할 수 있다.
NFVO 장치 141은 UI 1500을 통해 VM을 선택하기 위한 입력을 수신할 수 있다. 예를 들어, 수신된 입력에 따라 VM 1523이 선택된 경우, NFVO 장치 141은 UI 1500의 영역 1550에서 VM 1523에 관한 정보를 표시할 수 있다. 예를 들어, NFVO 장치 141은 영역 1550에서 VM 1523에 대응하는 물리 포트 1541 및 물리 포트 1543을 포함하는 서버 장치 1540의 위치(예: rack41-shelf0-slot2)와, VM 1523이 동작하는 가상 컴퓨트 노드의 식별자 또는 호스트 네임(예: nova4)과, 서버 1540의 식별자 또는 호스트 네임(예: nova401)과, VM 1523을 관리하는 VIM 장치와, VM 1523이 수행하는 VNF를 관리하는 VNFM과, VM 1523에 할당된 적어도 하나의 IP 주소와, VM 1523에 할당된 물리 및/또는 가상 컴퓨팅 자원의 양(예: 물리 및/또는 가상 코어들의 수, 물리 및/또는 가상 메모리의 크기)과, VM 1523에 할당된 물리 및/또는 가상 저장소의 크기 및 이름, VM 1523이 외장 저장소를 사용할 경우 외장 저장소의 위치 중 적어도 하나를 표시할 수 있다.
도 16은 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 서비스 중인(on service) VNF들의 리스트를 도시한다.
도 16을 참고하면, NFVO 장치 141은 UI 1600을 통해 서비스 중인 VNF들에 대한 정보를 표시할 수 있다. 예를 들어, NFVO 장치 141은 서비스 중인 VNF들이 vMMERest, KTvMME122 및 KTvMME123_Flavor임을 표시할 수 있고, 각각의 VNF들에 대한 정보를 표시할 수 있다. 예를 들어, NFVO 장치 141은 각 VNF를 관리하는 VNFM 장치에 관한 정보('target VNFM'로 지칭될 수 있음), 각 VNF가 수행되는 VM을 관리하는 VIM 장치에 관한 정보('target VIM'로 지칭될 수 있음), 각 VNF에 대한 특정 권한을 가진 테넌트, 각 VNF의 패키지 이름(package name), 각 VNF에 대한 스케일 옵션(scale option), 각 VNF에 대한 스케일 모드(scale mode), 각 VNF에 대한 플레이버(flavor) 정보, 각 VNF의 동작 상태(job status), 각 VNF에 대한 VNF 프로토콜, 각 VNF가 생성된 시간 중 적어도 하나를 표시할 수 있다.
도 17은 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 배치(deploy)된 VNF들의 토폴로지(topology)를 도시한다.
도 17을 참고하면, NFVO 장치 141은 UI 1700의 영역 1710에서 서비스 중인 VNF들의 리스트와, VNF들을 관리하는 VNFM의 계층적 구조를 표시한다.
영역 1720에서, NFVO 장치 141은 NFV 환경에 배치된 VNF들의 토폴로지를 표시한다. 보다 상세하게, NFVO 장치 141은 영역 1720에서 서비스 중인 VNF들의 배치와, VNF들간 연결 관계를 표시한다. 영역 1720에서 선으로 연결된 VNF들은 서로 데이터 또는 제어 정보를 주고 받을 수 있다.
NFVO 장치 141은 UI 1700을 통해 영역 1720에 표시된 VNF들 중 적어도 하나를 선택하기 위한 입력을 수신할 수 있다. NFVO 장치 141은 영역 1730에서 수신된 입력에 따라 선택된 VNF에 관한 정보를 표시할 수 있다. 예를 들어, VNFO 장치 141은 영역 1730에서 선택된 VNF를 관리하는 VNFM 장치의 식별자, 선택된 VNF의 패키지 이름, 선택된 VNF에 대한 플레이버 정보, 선택된 VNF에 대한 스케일 옵션 및/또는 스케일 모드, 선택된 VNF의 동작 상태, 선택된 VNF의 상태 및 선택된 VNF에 대해 자동 스케일 정책(auto scale policy)이 설정되었는지 여부 중 적어도 하나를 표시할 수 있다.
도 18a 및 도 18d는 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 기능 장애에 대응하기 위한 시나리오를 도시한다. 도 18a 내지 도 18d에서, 기능 장애가 발생하는 원인에 관계 없이 VM 1810에서 기능 장애가 검출되므로, 기능 장애를 해소하기 위한 검사는 가상 계층 1820을 검사하는 것으로부터 시작(starts from)한다.
도 18a를 참고하면, 기능 장애의 원인이 가상 계층 1820에 있음이 가정된다. NFVO 장치 141은 먼저 VM 1810에서 기능 장애를 검출한다. 그 후, NFVO 장치 141은 가상 계층 1820을 검사한다. 가상 계층 1820의 서비스에서 문제가 식별된 경우, NFVO 장치 141은 문제를 해소하기 위한 동작을 수행하거나, UI를 통해 가상 계층 1820에 대한 점검이 필요함을 알릴 수 있다.
도 18b를 참고하면, 기능 장애의 원인이 서버 장치 1830에 있음이 가정된다. NFVO 장치 141은 먼저 VM 1810에서 기능 장애를 검출한다. 그 후, NFVO 장치 141은 가상 계층 1820을 검사한다. 가상 계층 1820의 서비스에서 문제가 식별되지 아니한 경우, NFVO 장치141은 가상 계층 1820과 연동된 서버 장치 1830 및/또는 서버 장치 1830의 물리 포트에서 기능 장애가 발생하는지 검사할 수 있다. 서버 장치 1830 및/또는 서버 장치 1830의 물리 포트에서 기능 장애가 식별된 경우, NFVO 장치 141은 UI를 통해 서버 장치 1830에 대한 점검이 필요함을 알릴 수 있다.
도 18c를 참고하면, 기능 장애의 원인이 스위치 1840에 있음이 가정된다. NFVO 장치 141은 먼저 VM 1810에서 기능 장애를 검출한다. 그 후, NFVO 장치 141은 가상 계층 1820을 검사한다. 가상 계층 1820의 서비스에서 문제가 식별되지 아니한 경우, NFVO 장치 141은 가상 계층 1820과 연동된 서버 장치 1830 및/또는 서버 장치 1830의 물리 포트에서 기능 장애가 발생하는지 검사할 수 있다. 서버 장치 1830 및/또는 서버 장치 1830의 물리 포트에서 기능 장애가 식별되지 아니한 경우, NFVO 장치 141은 서버 장치 1830의 물리 포트와 연결된 스위치 1840 및/또는 스위치 1840의 포트에서 기능 장애가 발생하는지 검사할 수 있다. 스위치 1840 및/또는 스위치 1840의 포트에서 기능 장애가 식별된 경우, NFVO 장치 141은 UI를 통해 스위치 1840 및/또는 스위치 1840의 포트에 대한 점검이 필요함을 알릴 수 있다.
도 18d를 참고하면, 기능 장애의 원인이 VM 1810에서 동작하는 소프트웨어에 있음이 가정된다. NFVO 장치 141은 먼저 VM 1810에서 기능 장애를 검출한다. 그 후, NFVO 장치 141은 가상 계층 1820을 검사한다. 가상 계층 1820의 서비스에서 문제가 식별되지 아니한 경우, NFVO 장치 141은 가상 계층 1820과 연동된 서버 장치 1830 및/또는 서버 장치 1830의 물리 포트에서 기능 장애가 발생하는지 검사할 수 있다. 서버 장치 1830 및/또는 서버 장치 1830의 물리 포트에서 기능 장애가 식별되지 아니한 경우, NFVO 장치 141은 서버 장치 1830의 물리 포트와 연결된 스위치 1840 및/또는 스위치 1840의 포트에서 기능 장애가 발생하는지 검사할 수 있다. 스위치 1840 및/또는 스위치 1840의 포트에서 기능 장애가 식별되지 아니한 경우, NFVO 장치 141은 인프라 및 서비스에 대한 기능 장애가 존재하지 않음을 결정하고, UI를 통해 VM에서 동작하는 소프트웨어에 대한 점검이 필요함을 알릴 수 있다.
본 개시의 다양한 실시 예들에 따르면, 물리 계층 정보와 가상 계층 정보간의 연동은 NFV 환경에서 서비스 품질(quality of service, QoS)를 관리하는데 사용될 수 있다. 이하, QoS를 관리하기 위한 시나리오가 도 19a 및 도 19b에서 설명된다.
도 19a 및 도 19b는 본 개시의 다양한 실시 예들에 따른 NFV 환경에서 QoS를 관리하기 위한 시나리오를 도시한다.
도 19a를 참고하면, VM1 1910의 트래픽 사용량은 최대 가용 트래픽 사용량의 70%인 7Gps이고, VM2 1920의 트래픽 사용량은 최대 가용 트래픽 사용량의 60%인 6Gbps이다. VM1 1910 및 VM2 1920은 가상 네트워크 1930(예: physnet)을 통해 물리 포트 1940에 대응될 수 있다. 그러나, 물리 포트 1940에서 지원 가능한 링크 속도가 10Gbps일 경우, 물리 포트 1940은 VM1 1910의 트래픽 사용량(=7Gbps) 및 VM2 1920의 트래픽 사용량(=6Gbps)의 합인 13Gbps를 지원할 수 없으므로, 가상 네트워크 1930 및 물리 포트 1940 사이에서 트래픽 과부하가 발생할 수 있다. NFVO 장치 141은 이러한 트래픽 과부하를 검출할 수 있고, UI를 통해 가상 네트워크 1930의 설정을 변경하도록 지시할 수 있다. 예를 들어, 가상 네트워크 1930이 물리 포트 1940에 더하여 다른 물리 포트(3Gbps 이상의 링크 속도를 지원할 수 있는)에 대응하도록 가상 네트워크 1930의 설정이 변경될 경우, 물리 포트들은 13Gbps 이상의 링크 속도를 지원할 수 있으므로, 가상 네트워크 1930 및 물리 포트 1940 사이에서 발생한 트래픽 과부하가 해소될 수 있다.
도 19b를 참고하면, VM1 1910의 트래픽 사용량은 최대 가용 트래픽 사용량의 70%인 7Gps이고, VM2 1920의 트래픽 사용량은 최대 가용 트래픽 사용량의 60%인 6Gbps이다. VM1 1910 및 VM2 1920은 가상 네트워크 1930(예: physnet)을 통해 물리 포트1 1941 및 물리 포트 2 1943에 대응될 수 있다. 즉, 물리 포트1 1941 및 물리 포트 2 1943이 정상적으로 동작할 경우 물리 포트1 1941 및 물리 포트 2 1943은 20Gbps의 링크 속도를 지원할 수 있고, VM1 1910의 트래픽 사용량(=7Gbps) 및 VM2 1920의 트래픽 사용량(=6Gbps)의 합인 13Gbps를 지원할 수 있다. 그러나, 물리 포트 1 1941에 기능 장애(예: NICPortLinkDown)가 발생하여 물리 포트 1 1941의 작동이 중지될 경우, 물리 포트 2 1943만으로는 VM1 1910의 트래픽 사용량(=7Gbps) 및 VM2 1920의 트래픽 사용량(=6Gbps)의 합인 13Gbps를 지원할 수 없으므로, 기능 장애가 발생할 수 있다. NFVO 장치 141은 이러한 기능 장애를 검출할 수 있고, UI를 통해 물리 포트 1 1941의 작동이 중지되었음을 알릴 수 있다. 다른 예로, NFVO 장치 141이 물리 포트 1 1941의 작동이 중지되었음을 검출한 경우, NFVO 장치 141은 알림 없이(without notification), VM1 1910 및 VM2 1920 중 하나의 작동이 정지하도록 제어하여, 하나의 VM은 정상적으로 작동하도록 제어하고, 자동적으로 기능 장애 가능성을 해소할 수 있다. 다른 예로, NFVO 장치 141이 물리 포트 1 1941 의 작동이 중지되었음을 검출한 경우, NFVO 장치 141는 미리 설정된 동작을 수행하여 기능 장애 가능성을 해소 할 수 있다. 예를 들어, 물리 포트 1 1941의 작동이 중지된 경우, NFVO 장치 141은 VM2 1920을 관리하는 가상 컴퓨트 노드를 변경(이 경우, VM2 1920은 물리 포트 1 1941 및 물리 포트 2 1943과는 상이한 물리 포트에 대응할 수 있다)하여 기능 장애 가능성을 해소하거나, VM2 1920에 기능 장애 및/또는 기능 장애 가능성에 관한 정보(예: VM2 1920에 대응하는 물리 포트의 작동이 중지되었음을 지시하는 정보)를 통지하여, VM2 1920이 기능 장애 극복(failover, 예: 트래픽 사용량을 일시적으로 줄임)을 수행하고, 기능 장애 가능성을 해소하게 할 수 있다.
본 개시의 청구항 또는 명세서에 기재된 실시 예들에 따른 방법들은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합의 형태로 구현될(implemented) 수 있다.
소프트웨어로 구현하는 경우, 하나 이상의 프로그램(소프트웨어 모듈)을 저장하는 컴퓨터 판독 가능 저장 매체가 제공될 수 있다. 컴퓨터 판독 가능 저장 매체에 저장되는 하나 이상의 프로그램은, 전자 장치(device) 내의 하나 이상의 프로세서에 의해 실행 가능하도록 구성된다(configured for execution). 하나 이상의 프로그램은, 전자 장치로 하여금 본 개시의 청구항 또는 명세서에 기재된 실시 예들에 따른 방법들을 실행하게 하는 명령어(instructions)를 포함한다.
이러한 프로그램(소프트웨어 모듈, 소프트웨어)은 랜덤 액세스 메모리 (random access memory), 플래시(flash) 메모리를 포함하는 불휘발성(non-volatile) 메모리, 롬(read only memory, ROM), 전기적 삭제가능 프로그램가능 롬(electrically erasable programmable read only memory, EEPROM), 자기 디스크 저장 장치(magnetic disc storage device), 컴팩트 디스크 롬(compact disc-ROM, CD-ROM), 디지털 다목적 디스크(digital versatile discs, DVDs) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)에 저장될 수 있다. 또는, 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다.
또한, 프로그램은 인터넷(Internet), 인트라넷(Intranet), LAN(local area network), WAN(wide area network), 또는 SAN(storage area network)과 같은 통신 네트워크, 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근(access)할 수 있는 부착 가능한(attachable) 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트를 통하여 본 개시의 실시 예를 수행하는 장치에 접속할 수 있다. 또한, 통신 네트워크상의 별도의 저장장치가 본 개시의 실시 예를 수행하는 장치에 접속할 수도 있다.
상술한 본 개시의 구체적인 실시 예들에서, 개시에 포함되는 구성 요소는 제시된 구체적인 실시 예에 따라 단수 또는 복수로 표현되었다. 그러나, 단수 또는 복수의 표현은 설명의 편의를 위해 제시한 상황에 적합하게 선택된 것으로서, 본 개시가 단수 또는 복수의 구성 요소에 제한되는 것은 아니며, 복수로 표현된 구성 요소라 하더라도 단수로 구성되거나, 단수로 표현된 구성 요소라 하더라도 복수로 구성될 수 있다.
한편 본 개시의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (15)

  1. 네트워크 기능 가상화(network function virtualization, NFV) 환경에서 제어 장치의 동작 방법에 있어서,
    서버 장치에 대응하는 가상 컴퓨트 노드(virtual compute node)를 결정하는 과정과,
    상기 서버 장치와 관련된 물리 계층 정보와, 상기 가상 컴퓨트 노드와 관련된 가상 계층 정보를 식별하는 과정과,
    상기 물리 계층 정보 및 상기 가상 계층 정보를 표시하는 과정을 포함하는 방법.
  2. 청구항 1에 있어서, 상기 물리 계층 정보는, 상기 서버 장치의 호스트 네임(hostname), 상기 서버 장치의 위치, 상기 서버 장치에 배치된 적어도 하나의 물리 포트 중 적어도 하나를 포함하고,
    상기 가상 계층 정보는, 상기 가상 컴퓨트 노드의 호스트 네임, 상기 가상 컴퓨트 노드에서 동작하는 적어도 하나의 가상 머신(virtual machine, VM)에 관한 정보, 상기 적어도 하나의 VM에 의해 수행되는 적어도 하나의 가상 네트워크 기능(virtual network function, VNF)에 관한 정보, 상기 가상 컴퓨트 노드를 관리하는 가상 인프라 관리자(virtual infrastructure manger, VIM) 장치에 관한 정보, 상기 적어도 하나의 VNF를 관리하는 VNF 관리자(VNF manger, VNFM) 장치에 관한 정보 중 적어도 하나를 포함하는 방법.
  3. 청구항 2에 있어서, 상기 적어도 하나의 VM 중 VM과, 상기 적어도 하나의 물리 포트 중 상기 VM에 대응하는 물리 포트간 대응 관계를 표시하는 과정을 더 포함하는 방법.
  4. 청구항 2에 있어서, 상기 적어도 하나의 VM 중 VM을 선택하기 위한 입력을 수신하는 과정과,
    상기 입력에 대응하여, 상기 선택된 VM의 세부 정보를 표시하는 과정을 더 포함하고,
    상기 VM의 세부 정보는, 상기 VM이 동작하는 상기 가상 컴퓨트 노드의 호스트 네임, 상기 가상 컴퓨트 노드에 대응하는 상기 서버 장치의 호스트 네임, 상기 VM의 식별자, 상기 VM에서 수행되는 VNF의 식별자, 상기 VM과 관련된 적어도 하나의 IP(internet protocol) 주소, 상기 VM에 할당된 가상 자원의 크기, 상기 VM과 관련된 저장소의 위치 중 적어도 하나를 포함하는 방법.
  5. 청구항 1에 있어서, 상기 서버 장치를 포함하는 서버 장치들의 그룹에 대응하는 가상 컴퓨트 노드들을 결정하는 과정과,
    상기 서버 장치들의 그룹을 선택하기 위한 입력을 수신함에 대응하여, 상기 서버 장치들의 그룹과 관련된 물리 계층 정보 및 상기 가상 컴퓨트 노드들과 관련된 가상 계층 정보를 표시하는 과정을 더 포함하는 방법.
  6. 청구항 1에 있어서, 상기 가상 컴퓨트 노드에서 동작하는 적어도 하나의 가상 머신(virtual machine, VM)에 대한 기능 장애(malfunction)를 검출하는 과정과,
    상기 물리 계층 정보에서 상기 기능 장애와 관련된 제1 정보와, 상기 가상 계층 정보에서 상기 기능 장애와 관련된 제2 정보를 지시하는 정보를 표시하는 과정을 포함하는 방법.
  7. 청구항 1에 있어서, 상기 서버 장치에 대응하는 가상 컴퓨트 노드를 결정하는 과정은,
    가상 인프라 관리자(virtual infrastructure manager, VIM) 장치로부터 수신된 식별 정보에 기반하여, 상기 가상 컴퓨트 노드에 대한 식별 키를 결정하는 과정과,
    물리 인프라 관리자(physical infrastructure manager, PIM) 장치로부터 상기 서버 장치에 대한 식별 키를 수신하는 과정과,
    상기 가상 컴퓨트 노드에 대한 식별 키와 상기 서버 장치에 대한 식별 키의 매칭(matching)에 기반하여, 상기 서버 장치에 대응하는 상기 가상 컴퓨트 노드를 결정하는 과정을 포함하고,
    상기 서버 장치에 대한 식별 키는, 상기 PIM에 의해 상기 식별 정보에 기반하여 결정되는 방법.
  8. 청구항 7에 있어서, 상기 식별 정보는, 상기 가상 컴퓨트 노드의 식별자, 및 상기 VIM의 사용자 식별자 중 적어도 하나를 포함하는 방법.
  9. 청구항 8에 있어서, 상기 식별 정보는, 상기 가상 컴퓨트 노드의 식별자 및 상기 VIM의 사용자 식별자를 포함하고,
    상기 가상 컴퓨트 노드에 대한 식별 키를 결정하는 과정은, 상기 가상 컴퓨트 노드의 식별자와 상기 VIM의 사용자 식별자를 해싱(hashing)하는 과정을 포함하고,
    상기 해싱의 결과는, 상기 가상 컴퓨트 노드에 대한 식별 키인 방법.
  10. 네트워크 기능 가상화(network function virtualization, NFV) 환경에서 물리 인프라 관리자(physical infrastructure manager, PIM) 장치의 동작 방법에 있어서,
    가상 인프라 관리자(virtual infrastructure manger, VIM) 장치로부터, 적어도 하나의 가상 컴퓨트 노드(virtual compute node)의 식별자를 포함하는 식별 정보를 수신하는 과정과,
    상기 식별 정보에 기반하여, 상기 적어도 하나의 가상 컴퓨트 노드에 대응하는 적어도 하나의 서버 장치에 대한 식별 키를 결정하는 과정과,
    상기 적어도 하나의 서버 장치에 대한 식별 키를 제어 장치로 송신하는 과정을 포함하는 방법.
  11. 청구항 10에 있어서, 상기 VIM으로, 상기 식별 정보를 요청하기 위한 메시지를 송신하는 과정을 더 포함하는 방법.
  12. 청구항 10에 있어서, 상기 적어도 하나의 컴퓨트 노드와 관련된 IP(internet protocol) 주소와 상기 적어도 하나의 서버 장치와 관련된 IP주소의 매칭(matching)에 기반하여, 상기 적어도 하나의 컴퓨트 노드에 대응하는 상기 적어도 하나의 서버 장치를 결정하는 과정을 포함하는 방법.
  13. 청구항 10에 있어서, 상기 식별 정보는, 상기 VIM의 사용자 식별자를 더 포함하고,
    상기 적어도 하나의 서버 장치에 대한 식별 키를 결정하는 과정은, 상기 적어도 하나의 가상 컴퓨트 노드의 식별자와 상기 VIM의 사용자 식별자를 해싱(hashing)하는 과정을 포함하고,
    상기 해싱의 결과는, 상기 적어도 하나의 서버 장치에 대한 식별 키인 방법.
  14. 청구항 1 내지 9 중 어느 한 항의 방법을 구현하도록 설정된, 네트워크 기능 가상화(network function virtualization, NFV) 환경에서 제어 장치.
  15. 청구항 10 내지 13 중 어느 한 항의 방법을 구현하도록 설정된, 네트워크 기능 가상화(network function virtualization, NFV) 환경에서 물리 인프라 관리자(physical infrastructure manager, PIM) 장치.
PCT/KR2019/003083 2018-03-30 2019-03-18 네트워크 기능 가상화 환경에서 네트워크 자원 관리를 위한 장치 및 방법 WO2019190095A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/043,619 US12112186B2 (en) 2018-03-30 2019-03-18 Device and method for network resource management in network function virtualization environment
EP19777190.0A EP3761563A4 (en) 2018-03-30 2019-03-18 DEVICE AND METHOD FOR MANAGING NETWORK RESOURCES IN A NETWORK FUNCTION VIRTUALIZATION ENVIRONMENT

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180037297A KR102500137B1 (ko) 2018-03-30 2018-03-30 네트워크 기능 가상화 환경에서 네트워크 자원 관리를 위한 장치 및 방법
KR10-2018-0037297 2018-03-30

Publications (1)

Publication Number Publication Date
WO2019190095A1 true WO2019190095A1 (ko) 2019-10-03

Family

ID=68062311

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/003083 WO2019190095A1 (ko) 2018-03-30 2019-03-18 네트워크 기능 가상화 환경에서 네트워크 자원 관리를 위한 장치 및 방법

Country Status (4)

Country Link
US (1) US12112186B2 (ko)
EP (1) EP3761563A4 (ko)
KR (1) KR102500137B1 (ko)
WO (1) WO2019190095A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102480415B1 (ko) * 2017-11-23 2022-12-23 삼성전자주식회사 클라우드 서비스를 제공하는 적어도 하나의 클라우드 서버의 컴퓨팅 자원들을 관리하는 전자 장치 및 방법
CN113596891B (zh) * 2021-07-28 2023-07-14 中国联合网络通信集团有限公司 故障定位方法、装置、服务器、存储介质及系统
CN115242688B (zh) * 2022-07-27 2024-06-14 郑州浪潮数据技术有限公司 一种网络故障检测方法、装置以及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120072058A (ko) * 2010-12-23 2012-07-03 한국전자통신연구원 가상 노드 식별 장치 및 방법
KR20150105421A (ko) * 2013-01-11 2015-09-16 후아웨이 테크놀러지 컴퍼니 리미티드 네트워크 장치에 대한 네트워크 기능 가상화
US20160373474A1 (en) * 2015-06-16 2016-12-22 Intel Corporation Technologies for secure personalization of a security monitoring virtual network function
KR20170099702A (ko) * 2016-02-24 2017-09-01 한국전자통신연구원 Nfv 시스템 및 vnfm 관리 방법
KR20170121714A (ko) * 2016-04-25 2017-11-02 주식회사 케이티 Vnf 라이선스 관리 기능을 가진 nfvo 및 이를 이용한 vnf 라이선스 관리 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6732170B2 (en) * 1996-02-13 2004-05-04 Hitachi, Ltd. Network managing method, medium and system
US20040210623A1 (en) * 2003-03-06 2004-10-21 Aamer Hydrie Virtual network topology generation
CN102857363B (zh) * 2012-05-04 2016-04-20 运软网络科技(上海)有限公司 一种虚拟网络的自主管理系统和方法
EP3322125B1 (en) 2013-09-30 2019-11-13 Huawei Technologies Co., Ltd. Fault management in a virtualized infrastructure
US9767197B1 (en) 2014-08-20 2017-09-19 Vmware, Inc. Datacenter operations using search and analytics
CN106533935B (zh) * 2015-09-14 2019-07-12 华为技术有限公司 一种在云计算系统中获取业务链信息的方法和装置
CN107800556B (zh) * 2016-09-06 2022-04-29 中兴通讯股份有限公司 界面生成系统、钻取服务层装置、数据发送方法
US10318335B1 (en) * 2017-11-22 2019-06-11 Verizon Patent And Licensing Inc. Self-managed virtual networks and services

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120072058A (ko) * 2010-12-23 2012-07-03 한국전자통신연구원 가상 노드 식별 장치 및 방법
KR20150105421A (ko) * 2013-01-11 2015-09-16 후아웨이 테크놀러지 컴퍼니 리미티드 네트워크 장치에 대한 네트워크 기능 가상화
US20160373474A1 (en) * 2015-06-16 2016-12-22 Intel Corporation Technologies for secure personalization of a security monitoring virtual network function
KR20170099702A (ko) * 2016-02-24 2017-09-01 한국전자통신연구원 Nfv 시스템 및 vnfm 관리 방법
KR20170121714A (ko) * 2016-04-25 2017-11-02 주식회사 케이티 Vnf 라이선스 관리 기능을 가진 nfvo 및 이를 이용한 vnf 라이선스 관리 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3761563A4 *

Also Published As

Publication number Publication date
KR20190114495A (ko) 2019-10-10
US12112186B2 (en) 2024-10-08
EP3761563A4 (en) 2021-07-07
KR102500137B1 (ko) 2023-02-15
EP3761563A1 (en) 2021-01-06
US20210019173A1 (en) 2021-01-21

Similar Documents

Publication Publication Date Title
CN110865867B (zh) 应用拓扑关系发现的方法、装置和系统
JP5458308B2 (ja) 仮想計算機システム、仮想計算機システムの監視方法及びネットワーク装置
US10999312B2 (en) Systems and methods for protecting a service mesh from external attacks on exposed software vulnerabilities
EP3358806B1 (en) Method, device and server for service migration during software upgrade under nfv architecture
WO2019190095A1 (ko) 네트워크 기능 가상화 환경에서 네트워크 자원 관리를 위한 장치 및 방법
TWI612786B (zh) 節點管理系統、節點管理方法與電腦可讀取儲存裝置
CN114946166A (zh) 在包括云边缘位置的异构计算环境中的动态资源移动
US8856585B2 (en) Hardware failure mitigation
EP3422642A1 (en) Vlan tagging in a virtual environment
CN103595801B (zh) 一种云计算系统及其虚拟机实时监控方法
Li et al. Mobile edge computing platform deployment in 4G {LTE} networks: A middlebox approach
WO2019132314A1 (ko) 무선 통신 시스템에서 네트워크 기능 가상화를 위한 장치 및 방법
CN109802855B (zh) 一种故障定位方法及装置
JP5980725B2 (ja) ネットワーク装置、中継管理方法、中継管理プログラムおよび通信システム
CN106982244B (zh) 在云网络环境下实现动态流量的报文镜像的方法和装置
WO2014069827A1 (en) System and method for providing data analysis service in a cloud environment
EP3806395B1 (en) Virtual network function (vnf) deployment method and apparatus
WO2020077832A1 (zh) 云桌面的访问方法、装置、设备及存储介质
WO2021125502A1 (ko) 컨테이너 기반의 클라우드 서비스 제공 시스템 및 그 방법
WO2018008933A1 (ko) 단일 인터넷 회선을 이용한 가상 cpe 서비스 제공 방법 및 네트워크 펑션 가상화 클라우드
Guay et al. Early experiences with live migration of SR-IOV enabled InfiniBand
JP2014230216A (ja) ネットワーク装置、中継管理方法、中継管理プログラムおよび通信システム
US11831610B2 (en) System and method for using private native security groups and private native firewall policy rules in a public cloud
WO2022196853A1 (ko) 분산 시스템의 데이터 처리 방법 및 이를 위한 전자 장치
WO2018101736A1 (ko) 가상머신의 마이그레이션을 수행하기 위한 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19777190

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019777190

Country of ref document: EP

Effective date: 20200930