WO2023120813A1 - 네트워크 엣지간 상호 모니터링을 통한 서버리스 컴퓨팅 방법 및 장치 - Google Patents

네트워크 엣지간 상호 모니터링을 통한 서버리스 컴퓨팅 방법 및 장치 Download PDF

Info

Publication number
WO2023120813A1
WO2023120813A1 PCT/KR2022/002717 KR2022002717W WO2023120813A1 WO 2023120813 A1 WO2023120813 A1 WO 2023120813A1 KR 2022002717 W KR2022002717 W KR 2022002717W WO 2023120813 A1 WO2023120813 A1 WO 2023120813A1
Authority
WO
WIPO (PCT)
Prior art keywords
event
network edge
network
response signal
serverless computing
Prior art date
Application number
PCT/KR2022/002717
Other languages
English (en)
French (fr)
Inventor
김영한
조재은
Original Assignee
숭실대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220004957A external-priority patent/KR20230097915A/ko
Application filed by 숭실대학교산학협력단 filed Critical 숭실대학교산학협력단
Publication of WO2023120813A1 publication Critical patent/WO2023120813A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/562Brokering proxy services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/59Providing operational support to end devices by off-loading in the network or by emulation, e.g. when they are unavailable

Definitions

  • the present specification relates to a serverless computing method and apparatus, and more particularly, to a serverless computing method and apparatus using mutual monitoring between network edges.
  • Multi-access Edge Computing provides cloud computing capabilities and IT service environments at the network edge to application developers and content providers. It moves traffic and service computing from a centralized cloud to the edge of the network, bringing it closer to the end user, significantly reducing latency.
  • the MEC system has advantages such as resolving privacy concerns due to centralization of cloud computing and strengthening security by localizing data, but it has relatively fewer resources than central large-capacity data sensors, so it can be operated virtualization
  • the application has limitations.
  • FIG. 1 is a block diagram of a conventional MEC system.
  • a conventional MEC system 10 is largely composed of an MEC host 11 and an MEC manager 12.
  • the MEC host 11 consists of a virtual infrastructure and a multi-access edge platform (MEP).
  • the virtual infrastructure supports the execution of applications by providing computing, storage, network resources, etc. It provides an environment for discovering, using, and providing services, which are essential functions for operation.
  • the MEC manager 12 consists of a host-level manager and a system-level manager, and the host-level manager MEPM (Multi-access Edge Platform Manager) manages the application life cycle, traffic rules, DNS configuration, etc.
  • MEPM Multi-access Edge Platform Manager
  • MEO Multi-access Edge Orchestrator
  • the manager of the level maintains and manages the entire MEC system centrally. In other words, MEO is a high-level manager that can coordinate among multiple MEPMs.
  • the MEC system since the MEC system has a centralized structure, it takes a long time to make a related decision when an application needs to be relocated due to a terminal movement or the like.
  • FIG. 2 is a flowchart illustrating an application redeployment process of a conventional MEC system.
  • the final relocation decision is made in MEPM, which is host level management (S20).
  • the MEPM sends a relocation request to the MEO (S21), and the MEO selects an MEC host based on conditions such as available services, resources, and latency among multiple MEC hosts, and then sends an application instantiation request to the MEPM of the selected MEC host. (S22).
  • An object of the present specification is to provide a serverless computing method and apparatus capable of reducing application relocation time through communication between network edges without using a central control unit (MEO).
  • MEO central control unit
  • an object of the present specification is to provide a serverless computing method and apparatus capable of supplementing insufficient resources of a network edge by operating a specific application only when there is a request.
  • a serverless computing method includes monitoring an event occurring in the second network edge by an event handler of a first network edge, and when an event occurs, an event of the second network edge.
  • a generating module (Event Publisher) generating an event response signal through filtering of the event, an event delivery module (Event Broker) of a second network edge transmitting the event response signal to an event handler of the first network edge and scaling the application by an autoscaler at the first network edge based on the event response signal.
  • the second network edge detects an event occurring at each network edge through mutual monitoring with the first network edge.
  • the serverless computing method checks the resources of the second network edge before transmitting the event response signal, and if the remaining resources of the second network edge are greater than or equal to a preset reference value, the event response signal is checked.
  • the transmission module further includes transmitting the event response signal to an event handler of the second network edge.
  • a central control device Multi-access Edge Orchestrator, MEO
  • MEO Multi-access Edge Orchestrator
  • a serverless computing device includes one or more processors that execute instructions, and the one or more processors generate an event handler of the first network edge at the second network edge. monitoring an event that occurs, generating an event response signal through filtering of the event by an event generation module (Event Publisher) of the second network edge when the event occurs, an event forwarding module of the second network edge ( An event broker) transmits the event response signal to an event handler of the first network edge, and an autoscaler scales an application at the first network edge based on the event response signal.
  • Event Publisher event generation module
  • An event broker transmits the event response signal to an event handler of the first network edge
  • an autoscaler scales an application at the first network edge based on the event response signal.
  • the second network edge detects an event occurring at each network edge through cross-monitoring with the first network edge.
  • the serverless computing device checks the resources of the second network edge before transmitting the event response signal, and if the remaining resources of the second network edge are greater than or equal to a preset reference value, the serverless computing device checks the resources of the second network edge.
  • the event delivery module further performs a step of transmitting the event response signal to an event handler of the second network edge.
  • a multi-access edge orchestrator (MEO) controlling the first network edge and the second network edge is A step of grouping some of the network edges according to preset criteria is further performed.
  • MEO multi-access edge orchestrator
  • the serverless computing method and apparatus can reduce application relocation time through communication between network edges without using a central control device.
  • serverless computing method and apparatus may compensate for insufficient resources of a network edge by operating a specific application only when there is a request.
  • FIG. 1 is a block diagram of a conventional MEC system.
  • FIG. 2 is a flowchart illustrating an application redeployment process of a conventional MEC system.
  • FIG. 3 is a configuration diagram of a serverless computing device according to an embodiment of the present specification.
  • FIG. 4 is a diagram showing a grouped network edge in one embodiment of the present specification.
  • FIG. 5 is a diagram illustrating an operation flow of a serverless computing device according to an embodiment of the present specification.
  • FIG. 6 is a flowchart of a serverless computing method according to an embodiment of the present specification.
  • first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.
  • the terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.
  • FIG. 3 is a configuration diagram of a serverless computing device according to an embodiment of the present specification
  • FIG. 4 is a diagram showing a network edge grouped in an embodiment of the present specification
  • FIG. 5 is a diagram according to an embodiment of the present specification. It is a diagram showing the operation flow of a serverless computing device
  • FIG. 6 is a flowchart of a serverless computing method according to an embodiment of the present specification.
  • a first network edge 100a which is one of a plurality of network edges 100, includes a second network edge 100b, which is a network edge adjacent to the first network edge 100a. and communicate with each other through serverless computing.
  • the first network edge 100a and the second network edge 100b may be plural.
  • Each of the first network edge 100a and the second network edge 100b includes an MEC host 110 and an MEC host manager 120 therein. That is, the first network edge 100a includes the MEC host 110a and the MEC host manager 120a therein, and the second network edge 100b includes the MEC host 110b and the MEC host manager 120b therein. includes
  • the MEC host 110 includes a virtual infrastructure (not shown) and an MEC platform (not shown) therein, and directly launches (scales) the application 111 using the MEC platform.
  • the MEC host manager 120 controls the operation of the MEC host 110 as a host level manager, and one MEC host manager 120 can control a plurality of MEC hosts 110 .
  • Each MEC host manager 120 includes an event handler 121, an event publisher 122, an event broker 123, and an autoscaler 124.
  • the first network edge 100a includes an event handler 121a, an event generating module 122a, an event delivery module 123a, and an auto scaler 124a
  • the second network edge 100b includes an event handler ( 121b), an event generating module 122b, an event delivery module 123b, and an auto scaler 124b.
  • the event handler 121 monitors an event occurring at an adjacent network edge or receives a generated event response signal. That is, the event handler 121a of the first network edge 100a monitors an event occurring in the second network edge 100b and transmits the monitoring result to the second network edge 100b. Then, the event handler 121a receives the event response signal generated from the second network edge 100b.
  • the event may be an event according to generation of a specific service execution request signal.
  • the event generating module 122 When an event occurs, the event generating module 122 generates an event corresponding signal through filtering.
  • the event response signal may be a control signal that performs scaling for a specific application.
  • filtering means a process of determining which application the event has occurred, and through this filtering, the event generating module 122 selects a first network edge 100a among a plurality of first network edges 100a. It is possible to determine whether or not to transmit an event response signal.
  • the event generation module 122 includes a first network edge 100a to transmit a corresponding event response signal to a first network edge 100a having an application executing a specific service among a plurality of first network edges 100a. can be determined by
  • the event delivery module 123 transmits an event response signal to an adjacent network edge. That is, the event transmission module 123b of the second network edge 100b transmits an event response signal to the event handler 121a of the first network edge 100a.
  • the event delivery module 123 may transmit an event response signal only to the group of second network edges 100b grouped by the subscriber determination module 210 to be described later. To this end, the event delivery module 123 may perform a pre-registration procedure by the subscriber determination module 210 before transmitting an event corresponding signal.
  • the auto scaler 124 scales the application based on the event response signal. Specifically, the auto scaler 124 scales the application 111 of the MEC host 110 corresponding to the event response signal through a control command.
  • the serverless computing device is a central control device (Multi-access Edge Orchestrator, MEO, 200) are included.
  • MEO Multi-access Edge Orchestrator
  • the central control device 200 may include a subscriber decision module 210, and the subscriber decision module 210 selects subscribers according to preset criteria for some of the first network edges 100a. You can group by deciding.
  • the subscriber is a group of first network edges 100a grouped by the subscriber determination module 210, and a predetermined criterion is, for example, n first network edges 100a closest to the second network edge 100b. , or may be a first network edge excluding a specific first network edge among the first network edges 100a adjacent to the second network edge 100b.
  • Zone B when the second network edge is Zone B among multiple network edges of Zone A, Zone B, Zone C, Zone D, and Zone E, Zone A and Zone C are closest to Zone B.
  • the two network edges may be the first network edge.
  • only Zone C may be the first network edge.
  • the subscriber determination module 210 groups the first network edges 100b through subscriber determination, thereby simplifying the number of first network edges 100b transmitting event response signals and reducing application relocation time. there is.
  • the subscriber determination module 210 transfers the pre-grouped subscriber list of the first network edge 100a to the event delivery module of the second network edge 100b.
  • the event handler 121a of the first network edge 100a transmits the monitoring result of the second network edge 100b according to the occurrence of the event to the event generating module 122b of the second network edge 100b
  • the 2 The event generation module (Event Publisher) of the network edge generates an event response signal.
  • the event generation module 122b may determine whether to transmit the event response signal to which first network edge 100a among the first network edges 100a included in the subscriber list through filtering before generating the event response signal. there is.
  • the auto scaler 124a scales the application at the first network edge 100a, thereby scaling the first network edge 121a.
  • the MEC host of the edge 100a may execute the requested service.
  • the event forwarding module 123b may check the resources of the second network edge 100b.
  • the event delivery module 123b may transmit an event response signal to the event handler 121a of the first network edge 100a.
  • the event delivery module 123b may transmit an event response signal to the event handler 121b of the second network edge 100b.
  • the event forwarding module 123b determines that resources are insufficient at the corresponding network edge, and the event response signal causes the application to scale at the first network edge 100a.
  • the corresponding network edge determines that the resources are sufficient and performs flexible application relocation by scaling the application itself at the second network edge 100b. do.
  • the serverless computing device of the present specification detects events occurring at each network edge through mutual monitoring of the second network edge and the first network edge, so that the application relocation request is not transmitted through the central control unit. , efficient application redeployment can be performed using serverless computing.
  • serverless computing device of the present specification may utilize scarce resources of the network edge more efficiently by scaling an application corresponding to a specific event only when a specific event occurs, instead of constantly executing all services.

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

본 명세서는 서버리스 컴퓨팅 방법 및 장치에 관한 것으로 보다 상세하게는 네트워크 엣지간 상호 모니터링을 이용한 서버리스 컴퓨팅 방법 및 장치에 관한 것이다. 본 명세서의 일 실시예에 따른 서버리스스 컴퓨팅 방법은 제1 네트워크 엣지의 이벤트 핸들러(Event Handler)가 상기 제2 네트워크 엣지에서 발생하는 이벤트를 모니터링하는 단계, 이벤트가 발생하면, 제2 네트워크 엣지의 이벤트 생성 모듈(Event Publisher)이 상기 이벤트에 대한 필터링을 통해 이벤트 대응 신호를 생성하는 단계, 제2 네트워크 엣지의 이벤트 전달 모듈(Event Broker)이 상기 제1 네트워크 엣지의 이벤트 핸들러로 상기 이벤트 대응 신호를 전송하는 단계 및 이벤트 대응 신호에 기초하여 상기 제1 네트워크 엣지에서 오토 스케일러(Autoscaler)가 애플리케이션을 스케일링하는 단계를 포함한다.

Description

네트워크 엣지간 상호 모니터링을 통한 서버리스 컴퓨팅 방법 및 장치
본 명세서는 서버리스 컴퓨팅 방법 및 장치에 관한 것으로 보다 상세하게는 네트워크 엣지간 상호 모니터링을 이용한 서버리스 컴퓨팅 방법 및 장치에 관한 것이다.
MEC(Multi-access Edge Computing)은 네트워크 엣지의 클라우드 컴퓨팅 기능과 IT 서비스 환경을 애플리케이션 개발자와 콘텐츠 공급자에게 제공한다. 트래픽 및 서비스 컴퓨팅을 중앙 집중식 클라우드에서 네트워크 엣지로 이동시켜 최종 사용자와 더 가깝게 만들어 지연 시간을 현저히 감소시킨다.
이와 같이, MEC 시스템은 데이터를 지역화함으로써 클라우드 컴퓨팅의 중앙 집중화로 인한 프라이버시 우려를 해소하고 보안을 강화하는 등의 장점이 있지만, 중앙의 대용량 데이터 센서보다 상대적으로 적은 자원을 가지고 있어 구동할 수 있는 가상화 애플리케이션에 한계가 있다.
도 1은 종래의 MEC 시스템의 블록도이다.
도면을 참조하면, 종래의 MEC 시스템(10)은 크게 MEC 호스트(11)와 MEC 관리자(12)로 구성된다.
MEC 호스트(11)는 가상 인프라와 MEP(Multi-access Edge Platform)로 구성되며, 가상 인프라는 애플리케이션을 구동하기 위한 컴퓨팅, 저장소, 네트워크 자원 등을 제공하여 애플리케이션의 실행을 지원하고, MEP는 애플리케이션이 동작하기 위한 필수적인 기능인 서비스를 발견, 이용 및 제공하기 위한 환경을 제공한다.
MEC 관리자(12)는 호스트 레벨의 관리자와 시스템 레벨의 관리자로 구성되며, 호스트 레벨의 관리자인 MEPM(Multi-access Edge Platform Manager)은 애플리케이션의 라이프사이클과 트래픽 규칙, DNS 구성 등을 관리하고, 시스템 레벨의 관리자인 MEO(Multi-access Edge Orchestrator)는 중앙에서 MEC 시스템 전체를 유지 및 관리한다. 즉, MEO는 여러 MEPM 간의 조정을 할 수 있는 상위 레벨의 관리자이다.
한편, MEC 시스템은 중앙집중식 구조를 띄고 있어 단말기 이동 등의 이유로 애플리케이션의 재배치가 필요한 경우, 관련된 결정을 내리는 데 시간이 오래 걸린다.
도 2는 종래 MEC 시스템의 애플리케이션 재배치 과정을 나타낸 순서도이다.
도면을 참조하면, 앱 또는 MEP에서 사전 재배치 결정을 내리면, host level management인 MEPM에서 최종 재배치 결정을 내린다(S20).
이후, MEPM은 재배치 리퀘스트를 MEO로 보내고 (S21), MEO는 다수의 MEC 호스트 중 가용 서비스 및 자원, 지연 시간 등의 조건에 기반한 MEC 호스트를 선택한 후 선택된 MEC 호스트의 MEPM으로 애플리케이션 인스턴스화 리퀘스트를 전송한다(S22).
마지막으로, MEP에서는 MEC 호스트에 애플리케이션 인스턴스를 생성한다(S23).
이와 같이 종래의 MEC 시스템은 MEO를 통해 애플리케이션 재배치 과정을 수행하기 때문에 재배치 프로세스를 처리하는 데 상당한 시간이 소요된다. 따라서 사용자 단말의 이동성이 높은 경우 재배치만 시도하다가 서비스 실행에 실패할 가능성이 존재하는 문제점이 있다.
본 명세서의 목적은 중앙 제어 장치(MEO)를 이용하지 않고 네트워크 엣지간 통신을 통해 애플리케이션의 재배치 시간을 단축할 수 있는 서버리스 컴퓨팅 방법 및 장치를 제공하는 것이다.
또한, 본 명세서의 목적은 요청이 있는 경우에만 특정 애플리케이션을 동작시켜 네트워크 엣지의 부족한 리소스를 보완할 수 있는 서버리스 컴퓨팅 방법 및 장치를 제공하는 것이다.
본 명세서의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 명세서의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 명세서의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 명세서의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
본 명세서의 일 실시예에 따른 서버리스 컴퓨팅 방법은 제1 네트워크 엣지의 이벤트 핸들러(Event Handler)가 상기 제2 네트워크 엣지에서 발생하는 이벤트를 모니터링하는 단계, 이벤트가 발생하면, 제2 네트워크 엣지의 이벤트 생성 모듈(Event Publisher)이 상기 이벤트에 대한 필터링을 통해 이벤트 대응 신호를 생성하는 단계, 제2 네트워크 엣지의 이벤트 전달 모듈(Event Broker)이 상기 제1 네트워크 엣지의 이벤트 핸들러로 상기 이벤트 대응 신호를 전송하는 단계 및 이벤트 대응 신호에 기초하여 상기 제1 네트워크 엣지에서 오토 스케일러(Autoscaler)가 애플리케이션을 스케일링하는 단계를 포함한다.
또한, 본 명세서의 일 실시예에서 제2 네트워크 엣지는 제1 네트워크 엣지와의 상호 모니터링을 통해 각각의 네트워크 엣지에서 발생하는 이벤트를 감지한다.
또한, 본 명세서의 일 실시예에 따른 서버리스 컴퓨팅 방법은 이벤트 대응 신호를 전송하는 단계 이전에 제2 네트워크 엣지의 리소스를 확인하고, 상기 제2 네트워크 엣지의 잔여 리소스가 미리 설정된 기준치 이상이면 상기 이벤트 전달 모듈이 상기 이벤트 대응 신호를 상기 제2 네트워크 엣지의 이벤트 핸들러로 전송하는 단계를 더 포함한다.
본 명세서의 일 실시예에 따른 서버리스 컴퓨팅 방법은 모니터링하는 단계 이전에, 제1 네트워크 엣지 및 상기 제2 네트워크 엣지를 제어하는 중앙 제어 장치(Multi-access Edge Orchestrator, MEO)가 상기 제1 네트워크 엣지 중 일부를 미리 설정된 기준에 따라 그루핑하는 단계를 포함한다.
본 명세서의 일 실시예에 따른 서버리스 컴퓨팅 장치는 명령어를 실행하는 하나 이상의 프로세서를 포함하고, 상기 하나 이상의 프로세서는, 상기 제1 네트워크 엣지의 이벤트 핸들러(Event Handler)가 상기 제2 네트워크 엣지에서 발생하는 이벤트를 모니터링하는 단계, 상기 이벤트가 발생하면, 제2 네트워크 엣지의 이벤트 생성 모듈(Event Publisher)이 상기 이벤트에 대한 필터링을 통해 이벤트 대응 신호를 생성하는 단계, 제2 네트워크 엣지의 이벤트 전달 모듈(Event Broker)이 상기 제1 네트워크 엣지의 이벤트 핸들러로 상기 이벤트 대응 신호를 전송하는 단계 및 이벤트 대응 신호에 기초하여 상기 제1 네트워크 엣지에서 오토 스케일러(Autoscaler)가 애플리케이션을 스케일링하는 단계를 수행한다.
또한, 본 명세서의 일 실시예에서 제2 네트워크 엣지는 제1 네트워크 엣지와의 상호 모니터링(Cross-monitoring)을 통해 각각의 네트워크 엣지에서 발생하는 이벤트를 감지한다.
또한, 본 명세서의 일 실시예에 따른 서버리스 컴퓨팅 장치는 이벤트 대응 신호를 전송하는 단계 이전에, 제2 네트워크 엣지의 리소스를 확인하고, 상기 제2 네트워크 엣지의 잔여 리소스가 미리 설정된 기준치 이상이면 상기 이벤트 전달 모듈이 상기 이벤트 대응 신호를 상기 제2 네트워크 엣지의 이벤트 핸들러로 전송하는 단계를 더 수행한다.
또한, 본 명세서의 일 실시예에 따른 서버리스 컴퓨팅 장치는 모니터링하는 단계 이전에, 제1 네트워크 엣지 및 상기 제2 네트워크 엣지를 제어하는 중앙 제어 장치(Multi-access Edge Orchestrator, MEO)가 상기 제1 네트워크 엣지 중 일부를 미리 설정된 기준에 따라 그루핑하는 단계를 더 수행한다.
본 명세서의 일 실시예에 따른 서버리스 컴퓨팅 방법 및 장치는 중앙 제어 장치를 이용하지 않고 네트워크 엣지간 통신을 통해 애플리케이션의 재배치 시간을 단축할 수 있다.
또한, 본 명세서의 일 실시예에 따른 서버리스 컴퓨팅 방법 및 장치는 요청이 있는 경우에만 특정 애플리케이션을 동작시켜 네트워크 엣지의 부족한 리소스를 보완할 수 있다.
도 1은 종래의 MEC 시스템의 블록도이다.
도 2는 종래 MEC 시스템의 애플리케이션 재배치 과정을 나타낸 순서도이다.
도 3은 본 명세서의 일 실시예에 따른 서버리스 컴퓨팅 장치의 구성도이다.
도 4는 본 명세서의 일 실시예에서 그루핑된 네트워크 엣지를 나타낸 도면이다.
도 5는 본 명세서의 일 실시예에 따른 서버리스 컴퓨팅 장치의 동작 흐름을 나타낸 도면이다.
도 6은 본 명세서의 일 실시예에 따른 서버리스 컴퓨팅 방법의 순서도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조 부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명한다.
도 3은 본 명세서의 일 실시예에 따른 서버리스 컴퓨팅 장치의 구성도이고, 도 4는 본 명세서의 일 실시예에서 그루핑된 네트워크 엣지를 나타낸 도면이고, 도 5는 본 명세서의 일 실시예에 따른 서버리스 컴퓨팅 장치의 동작 흐름을 나타낸 도면이고, 도 6은 본 명세서의 일 실시예에 따른 서버리스 컴퓨팅 방법의 순서도이다.
도 3을 참조하면, 분산 배치된 클라우드 서버로써, 다수의 네트워크 엣지(100) 중 하나인 제1 네트워크 엣지(100a)는 제1 네트워크 엣지(100a)와 인접한 네트워크 엣지인 제2 네트워크 엣지(100b)와 서버리스 컴퓨팅을 통해 서로 통신한다. 이때, 제1 네트워크 엣지(100a) 및 제2 네트워크 엣지(100b)는 복수일 수 있다.
제1 네트워크 엣지(100a)와 제2 네트워크 엣지(100b) 각각은 내부에 MEC 호스트(110) 및 MEC 호스트 관리자(120)를 포함한다. 즉, 제1 네트워크 엣지(100a)는 내부에 MEC 호스트(110a) 및 MEC 호스트 관리자(120a)를 포함하고, 제2 네트워크 엣지(100b)는 내부에 MEC 호스트(110b) 및 MEC 호스트 관리자(120b)를 포함한다.
MEC 호스트(110)는 내부에 가상 인프라(미도시) 및 MEC 플랫폼(미도시)을 포함하며, MEC 플랫폼을 이용하여 애플리케이션(111)을 직접 런칭(스케일링)한다.
MEC 호스트 관리자(120)는 호스트 레벨의 관리자로써 MEC 호스트(110)의 동작을 제어하며, 하나의 MEC 호스트 관리자(120)는 다수의 MEC 호스트(110)를 제어할 수 있다.
각각의 MEC 호스트 관리자(120)는 이벤트 핸들러(Event Handler, 121), 이벤트 생성 모듈(Event Publisher, 122), 이벤트 전달 모듈(Event Broker, 123), 오토 스케일러(Autoscaler, 124)를 포함한다.
즉, 제1 네트워크 엣지(100a)는 이벤트 핸들러(121a), 이벤트 생성 모듈(122a), 이벤트 전달 모듈(123a), 오토 스케일러(124a)를 포함하고, 제2 네트워크 엣지(100b)는 이벤트 핸들러(121b), 이벤트 생성 모듈(122b), 이벤트 전달 모듈(123b), 오토 스케일러(124b)를 각각 포함한다.
이벤트 핸들러(121)는 인접한 네트워크 엣지에서 발생하는 이벤트를 모니터링하거나, 생성된 이벤트 대응 신호를 수신한다. 즉, 제1 네트워크 엣지(100a)의 이벤트 핸들러(121a)는 제2 네트워크 엣지(100b)에서 발생하는 이벤트를 모니터링하고, 모니터링 결과를 제2 네트워크 엣지(100b)에 전송한다. 이후, 이벤트 핸들러(121a)는 제2 네트워크 엣지(100b)에서 생성된 이벤트 대응 신호를 수신한다. 여기서 이벤트는 특정 서비스 실행 요청 신호 발생에 따른 이벤트일 수 있다.
이벤트 생성 모듈(122)은 이벤트가 발생하면, 필터링을 통해 이벤트 대응 신호를 생성한다. 여기서, 이벤트 대응 신호는 특정 애플리케이션에 대하여 스케일링을 수행하는 제어 신호일 수 있다. 또한, 필터링은 발생한 이벤트가 어떠한 애플리케이션에 대한 이벤트인지를 판단하는 과정을 의미하며, 이러한 필터링을 통해 이벤트 생성 모듈(122)은 다수의 제1 네트워크 엣지(100a) 중 어느 제1 네트워크 엣지(100a)로 이벤트 대응 신호를 전송할지 여부를 결정할 수 있다.
예컨대, 이벤트 생성 모듈(122)은 다수의 제1 네트워크 엣지(100a) 중 특정 서비스를 실행하는 애플리케이션을 구비한 제1 네트워크 엣지(100a)에 대하여 해당 이벤트 대응 신호를 전송할 제1 네트워크 엣지(100a)로 결정할 수 있다.
또한, 이벤트 대응 신호를 전송할 네트워크 엣지를 결정할 때에는 네트워크 엣지에서 과도한 트래픽이 발생하는지 여부 및 리소스가 부족한지 여부 등이 고려될 수 있다.
이벤트 전달 모듈(123)은 인접한 네트워크 엣지로 이벤트 대응 신호를 전송한다. 즉, 제2 네트워크 엣지(100b)의 이벤트 전달 모듈(123b)은 제1 네트워크 엣지(100a)의 이벤트 핸들러(121a)로 이벤트 대응 신호를 전송한다.
일 실시예에서, 이벤트 전달 모듈(123)은 후술할 구독자 결정 모듈(210)에 의해 그루핑된 제2 네트워크 엣지(100b)의 그룹에만 이벤트 대응 신호를 전송할 수 있다. 이를 위해, 이벤트 전달 모듈(123)은 이벤트 대응 신호 전송 전, 구독자 결정 모듈(210)에 의한 사전 등록 절차를 수행할 수 있다.
오토 스케일러(124)는 이벤트 대응 신호에 기초하여 애플리케이션을 스케일링한다. 구체적으로, 오토 스케일러(124)는 제어 명령을 통해 이벤트 대응 신호에 대응되는 MEC 호스트(110)의 애플리케이션(111)을 스케일링한다.
한편, 본 명세서의 일 실시예에서, 서버리스 컴퓨팅 장치는 시스템 레벨의 관리자로써 제1 네트워크 엣지(100a) 및 제2 네트워크 엣지(100b)를 제어하는 중앙 제어 장치(Multi-access Edge Orchestrator, MEO, 200)를 포함한다.
또한, 중앙 제어 장치(200)는 구독자 결정 모듈(Subscriber Decision Module, 210)을 포함할 수 있고, 구독자 결정 모듈(210)은 제1 네트워크 엣지(100a) 중 일부에 대하여 미리 설정된 기준에 따라 구독자를 결정함으로써 그루핑할 수 있다.
여기서, 구독자는 구독자 결정 모듈(210)에 의해 그루핑된 제1 네트워크 엣지(100a)의 그룹으로써, 미리 설정된 기준은 예컨대, 제2 네트워크 엣지(100b)와 가장 인접한 n개의 제1 네트워크 엣지(100a)이거나, 제2 네트워크 엣지(100b)와 인접한 제1 네트워크 엣지(100a) 중 특정 제1 네트워크 엣지를 제외한 제1 네트워크 엣지일 수 있다.
즉, 도 4에 도시된 바와 같이, Zone A, Zone B, Zone C, Zone D, Zone E의 다수의 네트워크 엣지에서 제2 네트워크 엣지가 Zone B인 경우, Zone B와 가장 인접한 Zone A 및 Zone C 2개의 네트워크 엣지가 제1 네트워크 엣지가 될 수 있다. 이때, Zone A에 특정 이벤트 발생시 런칭되는 애플리케이션이 존재하지 않고, Zone C에 특정 이벤트 발생시 런칭되는 애플리케이션이 존재하는 경우 Zone C만이 제1 네트워크 엣지가 될 수 있다.
이와 같이, 구독자 결정 모듈(210)은 구독자 결정을 통해 제1 네트워크 엣지(100b)를 그루핑함으로써, 이벤트 대응 신호를 전송하는 제1 네트워크 엣지(100b)의 개수를 간소화하고 애플리케이션 재배치 시간을 단축시킬 수 있다.
도 5를 참조하면, 구독자 결정 모듈(210)은 사전에 그루핑된 제1 네트워크 엣지(100a)인 구독자 리스트를 제2 네트워크 엣지(100b)의 이벤트 전달 모듈로 전달한다.
이후, 제1 네트워크 엣지(100a)의 이벤트 핸들러(121a)가 이벤트 발생에 따른 제2 네트워크 엣지(100b)의 모니터링 결과를 제2 네트워크 엣지(100b)의 이벤트 생성 모듈(122b)에 전송하면, 제2 네트워크 엣지의 이벤트 생성 모듈(Event Publisher)이 이벤트 대응 신호를 생성한다.
이때, 이벤트 생성 모듈(122b)은 이벤트 대응 신호 생성 전, 필터링을 통해 구독자 리스트에 포함된 제1 네트워크 엣지(100a) 중 어느 제1 네트워크 엣지(100a)로 이벤트 대응 신호를 전송할지 여부를 결정할 수 있다.
이벤트 전달 모듈(123b)이 제1 네트워크 엣지(100a)의 이벤트 핸들러(121a)로 이벤트 대응 신호를 전송하면, 제1 네트워크 엣지(100a)에서 오토 스케일러(124a)는 애플리케이션을 스케일링함으로써, 제1 네트워크 엣지(100a)의 MEC 호스트에서 요청된 서비스를 실행할 수 있다.
한편 본 명세서의 일 실시예에서 도 6을 참조하면, 이벤트 대응 신호를 전송하기 이전에 이벤트 전달 모듈(123b)은 제2 네트워크 엣지(100b)의 리소스를 확인할 수 있다.
만약, 제2 네트워크 엣지(100b)의 잔여 리소스가 미리 설정된 기준치 미만이면 이벤트 전달 모듈(123b)은 이벤트 대응 신호를 제1 네트워크 엣지(100a)의 이벤트 핸들러(121a)로 전송할 수 있다.
이와 반대로, 제2 네트워크 엣지(100b)의 잔여 리소스가 미리 설정된 기준치 이상이면 이벤트 전달 모듈(123b)은 이벤트 대응 신호를 제2 네트워크 엣지(100b)의 이벤트 핸들러(121b)로 전송할 수 있다.
즉, 이벤트 전달 모듈(123b)은 제2 네트워크 엣지(100b)의 잔여 리소스가 미리 설정된 기준치 미만이면 해당 네트워크 엣지에서 리소스가 부족하다고 판단하여 제1 네트워크 엣지(100a)에서 애플리케이션이 스케일링하도록 이벤트 대응 신호를 전송하지만, 제2 네트워크 엣지(100b)의 잔여 리소스가 미리 설정된 기준치 이상이면 해당 네트워크 엣지에서 리소스가 충분하다고 판단하여 제2 네트워크 엣지(100b)에서 자체적으로 애플리케이션을 스케일링함으로써 유동적인 애플리케이션 재배치를 수행한다.
이와 같이, 본 명세서의 서버리스 컴퓨팅 장치는 제2 네트워크 엣지와 제1 네트워크 엣지의 상호 모니터링을 통해 각각의 네트워크 엣지에서 발생하는 이벤트를 감지함으로써, 중앙 제어 장치를 통해 애플리케이션 재배치 리퀘스트를 전송 받지 않고서도, 서버리스 컴퓨팅을 이용한 효율적인 애플리케이션 재배치를 수행할 수 있다.
또한, 본 명세서의 서버리스 컴퓨팅 장치는 모든 서비스를 상시적으로 실행하는 것이 아니라 특정 이벤트가 발생하는 경우에만 해당 이벤트에 대응되는 애플리케이션을 스케일링함으로써 네트워크 엣지의 부족한 리소스를 보다 효율적으로 활용할 수 있다.
이상과 같이 본 발명에 대해서 예시한 도면을 참조로 하여 설명하였으나, 본 명세서에 개시된 실시 예와 도면에 의해 본 발명이 한정되는 것은 아니며, 본 발명의 기술 사상의 범위 내에서 통상의 기술자에 의해 다양한 변형이 이루어질 수 있음은 자명하다. 아울러 앞서 본 발명의 실시 예를 설명하면서 본 발명의 구성에 따른 작용 효과를 명시적으로 기재하여 설명하지 않았을지라도, 해당 구성에 의해 예측 가능한 효과 또한 인정되어야 함은 당연하다.

Claims (8)

  1. 제1 네트워크 엣지 및 상기 제1 네트워크 엣지와 인접한 제2 네트워크 엣지간 서버리스 컴퓨팅 방법에 있어서,
    상기 제1 네트워크 엣지의 이벤트 핸들러(Event Handler)가 상기 제2 네트워크 엣지에서 발생하는 이벤트를 모니터링하는 단계;
    상기 이벤트가 발생하면, 제2 네트워크 엣지의 이벤트 생성 모듈(Event Publisher)이 상기 이벤트에 대한 필터링을 통해 이벤트 대응 신호를 생성하는 단계;
    제2 네트워크 엣지의 이벤트 전달 모듈(Event Broker)이 상기 제1 네트워크 엣지의 이벤트 핸들러로 상기 이벤트 대응 신호를 전송하는 단계; 및
    상기 이벤트 대응 신호에 기초하여 상기 제1 네트워크 엣지에서 오토 스케일러(Autoscaler)가 애플리케이션을 스케일링하는 단계를 포함하는
    서버리스 컴퓨팅 방법.
  2. 제1항에 있어서,
    상기 제2 네트워크 엣지는
    상기 제1 네트워크 엣지와의 상호 모니터링을 통해 각각의 네트워크 엣지에서 발생하는 이벤트를 감지하는
    서버리스 컴퓨팅 방법.
  3. 제1항에 있어서,
    상기 이벤트 대응 신호를 전송하는 단계 이전에,
    상기 제2 네트워크 엣지의 리소스를 확인하고, 상기 제2 네트워크 엣지의 잔여 리소스가 미리 설정된 기준치 이상이면 상기 이벤트 전달 모듈이 상기 이벤트 대응 신호를 상기 제2 네트워크 엣지의 이벤트 핸들러로 전송하는 단계를 더 포함하는
    서버리스 컴퓨팅 방법.
  4. 제1항에 있어서,
    상기 모니터링하는 단계 이전에,
    상기 제1 네트워크 엣지 및 상기 제2 네트워크 엣지를 제어하는 중앙 제어 장치(Multi-access Edge Orchestrator, MEO)가 상기 제1 네트워크 엣지 중 일부를 미리 설정된 기준에 따라 그루핑하는 단계를 포함하는
    서버리스 컴퓨팅 방법.
  5. 제1 네트워크 엣지 및 상기 제1 네트워크 엣지와 인접한 제2 네트워크 엣지간 서버리스 컴퓨팅 장치에 있어서,
    명령어를 실행하는 하나 이상의 프로세서를 포함하고,
    상기 하나 이상의 프로세서는,
    상기 제1 네트워크 엣지의 이벤트 핸들러(Event Handler)가 상기 제2 네트워크 엣지에서 발생하는 이벤트를 모니터링하는 단계;
    상기 이벤트가 발생하면, 제2 네트워크 엣지의 이벤트 생성 모듈(Event Publisher)이 상기 이벤트에 대한 필터링을 통해 이벤트 대응 신호를 생성하는 단계;
    제2 네트워크 엣지의 이벤트 전달 모듈(Event Broker)이 상기 제1 네트워크 엣지의 이벤트 핸들러로 상기 이벤트 대응 신호를 전송하는 단계; 및
    상기 이벤트 대응 신호에 기초하여 상기 제1 네트워크 엣지에서 오토 스케일러(Autoscaler)가 애플리케이션을 스케일링하는 단계를 수행하는
    서버리스 컴퓨팅 장치.
  6. 제5항에 있어서,
    상기 제2 네트워크 엣지는
    상기 제1 네트워크 엣지와의 상호 모니터링을 통해 각각의 네트워크 엣지에서 발생하는 이벤트를 감지하는
    서버리스 컴퓨팅 장치.
  7. 제5항에 있어서,
    상기 이벤트 대응 신호를 전송하는 단계 이전에,
    상기 제2 네트워크 엣지의 리소스를 확인하고, 상기 제2 네트워크 엣지의 잔여 리소스가 미리 설정된 기준치 이상이면 상기 이벤트 전달 모듈이 상기 이벤트 대응 신호를 상기 제2 네트워크 엣지의 이벤트 핸들러로 전송하는 단계를 더 수행하는
    서버리스 컴퓨팅 장치.
  8. 제5항에 있어서,
    상기 모니터링하는 단계 이전에,
    상기 제1 네트워크 엣지 및 상기 제2 네트워크 엣지를 제어하는 중앙 제어 장치(Multi-access Edge Orchestrator, MEO)가 상기 제1 네트워크 엣지 중 일부를 미리 설정된 기준에 따라 그루핑하는 단계를 더 수행하는
    서버리스 컴퓨팅 장치.
PCT/KR2022/002717 2021-12-24 2022-02-24 네트워크 엣지간 상호 모니터링을 통한 서버리스 컴퓨팅 방법 및 장치 WO2023120813A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20210187073 2021-12-24
KR10-2021-0187073 2021-12-24
KR1020220004957A KR20230097915A (ko) 2021-12-24 2022-01-13 네트워크 엣지간 상호 모니터링을 통한 서버리스 컴퓨팅 방법 및 장치
KR10-2022-0004957 2022-01-13

Publications (1)

Publication Number Publication Date
WO2023120813A1 true WO2023120813A1 (ko) 2023-06-29

Family

ID=86903102

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/002717 WO2023120813A1 (ko) 2021-12-24 2022-02-24 네트워크 엣지간 상호 모니터링을 통한 서버리스 컴퓨팅 방법 및 장치

Country Status (1)

Country Link
WO (1) WO2023120813A1 (ko)

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
ASLANPOUR MOHAMMAD S., TOOSI ADEL N., CICCONETTI CLAUDIO, JAVADI BAHMAN, SBARSKI PETER, TAIBI DAVIDE, ASSUNCAO MARCOS, GILL SUKHPA: "Serverless Edge Computing: Vision and Challenges", 2021 AUSTRALASIAN COMPUTER SCIENCE WEEK MULTICONFERENCE, ACM, NEW YORK, NY, USA, 1 February 2021 (2021-02-01) - 5 February 2021 (2021-02-05), New York, NY, USA, pages 1 - 10, XP093074045, ISBN: 978-1-4503-8956-3, DOI: 10.1145/3437378.3444367 *
BARESI LUCIANO, QUATTROCCHI GIOVANNI: "PAPS: A Serverless Platform for Edge Computing Infrastructures", FRONTIERS IN SUSTAINABLE CITIES, vol. 3, 690660, 1 July 2021 (2021-07-01), XP093074049, DOI: 10.3389/frsc.2021.690660 *
BENEDETTI PRISCILLA, FEMMINELLA MAURO, REALI GIANLUCA, STEENHAUT KRIS: "Experimental Analysis of the Application of Serverless Computing to IoT Platforms", SENSORS, vol. 21, no. 3, 30 January 2021 (2021-01-30), pages 928, XP093074047, DOI: 10.3390/s21030928 *
HOSSEIN SHAFIEI; AHMAD KHONSARI; PAYAM MOUSAVI: "Serverless Computing: A Survey of Opportunities, Challenges and Applications", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 4 June 2021 (2021-06-04), 201 Olin Library Cornell University Ithaca, NY 14853 , XP081974370 *
RAZIN FARHAN HUSSAIN, MOHSEN AMINI SALEHI, SEMIARI OMID: "Serverless Edge Computing for Green Oil and Gas Industry", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, ARXIV.ORG, ITHACA, 11 May 2019 (2019-05-11), Ithaca, XP093074060, Retrieved from the Internet <URL:https://arxiv.org/pdf/1905.04460.pdf> [retrieved on 20230816] *

Similar Documents

Publication Publication Date Title
WO2012086916A1 (ko) 클라우드 컴퓨팅 시스템 및 클라우드 컴퓨팅 시스템에서의 트래픽 분산 방법 및 제어 방법
WO2012141404A1 (ko) 분산 저장 시스템의 복제 서버 장치 및 복제본 생성 방법
US5551035A (en) Method and apparatus for inter-object communication in an object-oriented program controlled system
WO2019198885A1 (ko) 블록체인 기반의 다수의 서비스 노드를 사용하는 탈중앙화 서비스 플랫폼
WO2012086918A2 (ko) 오브젝트를 복수 개의 데이터 노드들의 위치에 기반하여 분산 저장하는 분산 저장 시스템 및 그 위치 기반 분산 저장 방법 및 컴퓨터에 의하여 독출 가능한 저장 매체
WO2012067431A2 (en) Resource distribution apparatus and method in cloud computing
WO2011053038A2 (ko) 교착 상태의 방지를 위한 데이터 처리 방법 및 시스템
WO2012121482A2 (ko) 클라우드 스토리지 시스템의 데이터 암호화 처리 장치 및 방법
WO2013025081A1 (ko) 단말 및 그 단말에서 어플리케이션 수행 방법
WO2022097772A1 (ko) Api 요청 처리 시스템
WO2013176342A1 (ko) 사용자단말과 외부장치 간 연결 시스템 및 방법
WO2014142498A1 (ko) 컴퓨팅 스케줄링 방법 및 시스템
WO2013176431A1 (ko) 단말을 서버에 할당하고 단말로의 효율적인 메시징을 위한 시스템 및 방법
EP0405829A2 (en) Object oriented software system architecture
WO2013027922A1 (ko) 클라우드 컴퓨팅 시스템의 압축 이미지 파일 관리 장치 및 방법
WO2023120813A1 (ko) 네트워크 엣지간 상호 모니터링을 통한 서버리스 컴퓨팅 방법 및 장치
WO2020222407A1 (ko) 머신 러닝 플랫폼 관리 시스템 및 방법
WO2018182065A1 (ko) M2m 시스템에서 다중 리소스 구독 연관 방법
WO2013085089A1 (ko) M2m 클라우드 환경에서 통신망 자원 활용 방법 및 그 시스템
WO2018221996A1 (ko) 클라우드계정을 이용한 서비스내부데이터 저장방법 및 프로그램
WO2013122359A1 (ko) 네트워크 부하 저감 기능이 구비된 무선단말장치와 무선단말장치에서의 네트워크 부하 저감 방법과 기록매체
WO2021020746A1 (ko) 가상 머신 관리 장치 및 방법
WO2023120830A1 (ko) 확장된 컨테이너 인프라 기반 nfv 인프라 시스템
WO2018088588A1 (ko) 호스트를 기반으로 한 클라우드 컴퓨팅 환경에서의 취약점 분석 시스템 및 방법
WO2020138747A1 (ko) 초소형의 일회용 IoT 서비스 인프라 운용 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 18011690

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22911453

Country of ref document: EP

Kind code of ref document: A1