KR102385087B1 - Method for latency minimization in a fuzzy-based mobile edge orchestrator and system using same - Google Patents

Method for latency minimization in a fuzzy-based mobile edge orchestrator and system using same Download PDF

Info

Publication number
KR102385087B1
KR102385087B1 KR1020200186102A KR20200186102A KR102385087B1 KR 102385087 B1 KR102385087 B1 KR 102385087B1 KR 1020200186102 A KR1020200186102 A KR 1020200186102A KR 20200186102 A KR20200186102 A KR 20200186102A KR 102385087 B1 KR102385087 B1 KR 102385087B1
Authority
KR
South Korea
Prior art keywords
edge
fuzzy
server
delay
cloud
Prior art date
Application number
KR1020200186102A
Other languages
Korean (ko)
Inventor
허의남
김명섭
반 둥 응우엔
김서현
트롱 칸 트란
Original Assignee
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경희대학교 산학협력단 filed Critical 경희대학교 산학협력단
Priority to KR1020200186102A priority Critical patent/KR102385087B1/en
Application granted granted Critical
Publication of KR102385087B1 publication Critical patent/KR102385087B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/02Computing arrangements based on specific mathematical models using fuzzy logic
    • G06N7/023Learning or tuning the parameters of a fuzzy system
    • H04L67/2861
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45595Network integration; Enabling network access in virtual machine instances

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Algebra (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

According to an embodiment of the present invention, a mobile edge orchestrator for minimizing latency comprises: a fuzzification unit that generates a fuzzy result value based on a plurality of fuzzy rules; an aggregating unit that determines a manner in which the fuzzy result value is coupled in a fuzzy rule group; a fuzzy inference unit including a de-fuzzification unit that generates a de-fuzzification result value (ω); and a target determination unit for determining a target server for offloading a job based on the de-fuzzification result value (ω) outputted from the de-fuzzification unit.

Description

퍼지 기반 MEO에서의 지연 최소화 방법 및 이를 이용하는 시스템{Method for latency minimization in a fuzzy-based mobile edge orchestrator and system using same}Method for latency minimization in a fuzzy-based mobile edge orchestrator and system using same}

본 발명의 개념에 따른 실시 예는 퍼지 기반 모바일 엣지 오케스트레이터(MEO)에서의 지연 최소화 방법 및 이를 이용하는 시스템에 관한 것으로, 특히, 퍼지 기반 모바일 엣지 오케스트레이터(MEO)에서 관리하는 작업(task)의 지연을 최소화하는 타겟 서버를 결정하는 방법 및 이를 이용하는 시스템 관한 것이다.An embodiment according to the concept of the present invention relates to a method for minimizing delay in a fuzzy-based mobile edge orchestrator (MEO) and a system using the same, and in particular, to a task managed by a fuzzy-based mobile edge orchestrator (MEO) A method of determining a target server that minimizes delay and a system using the same.

최근 5G 기술은 비디오 스트리밍 분석, 증강 현실(AR), 사물 인터넷(IoT), 차량 인터넷(IoV, Internet of Vehicles), 자율 주행 등 새롭고 다양한 어플리케이션을 발전시키고 있다. 이런 어플리케이션들의 특징으로는 방대한 데이터를 생성한다는 점과 사용자가 이동하는 동안에도 실시간 처리 혹은 그에 준하는 처리 속도를 요구한다는 점이 있다.Recently, 5G technology is developing new and diverse applications such as video streaming analysis, augmented reality (AR), Internet of Things (IoT), Internet of Vehicles (IoV), and autonomous driving. Characteristics of these applications are that they generate vast amounts of data and require real-time processing or equivalent processing speed while the user is moving.

처리 속도와 배터리 수명이 제한적인 일반적인 모바일 기기들은 컴퓨팅 집약적이고 지연에 민감한 어플리케이션들을 지원하기에 한계가 있다. 그리하여 이러한 어플리케이션이나 작업들은 컴퓨팅 오프로딩과 향상된 통신 인프라에 의존하여 사용자의 서비스를 제공함으로써 서비스 품질(QoS)을 향상시킬 수 있다.Typical mobile devices with limited processing speed and battery life have limitations in supporting compute-intensive and latency-sensitive applications. Thus, these applications or tasks can improve quality of service (QoS) by providing users' services by relying on computing offloading and improved communication infrastructure.

클라우드 컴퓨팅은 WAN(Wide Area Network)을 통해 모바일 사용자를 위한 다양한 서비스와 데이터 집약적인 분석을 제공하지만 급격하게 증가한 IoT 어플리케이션 데이터는 WAN 트래픽 용량을 관리함에 있어 이슈가 된다. 게다가 클라우드 컴퓨팅 작업이 중앙 집중적이고 원격으로 동작하기 때문에 상황에 맞는 서비스를 지원하기 힘들다는 단점이 있다.Cloud computing provides various services and data-intensive analysis for mobile users through a wide area network (WAN), but the rapidly increasing IoT application data becomes an issue in managing WAN traffic capacity. In addition, since cloud computing operations are centralized and operated remotely, it is difficult to support services tailored to the situation.

이러한 과제들을 해결하기 위해 분산된 리소스를 활용하여 시기적절하고 상황에 맞는 서비스를 제공하는 엣지 컴퓨팅이 대두되고 있다. 기지국(Base Station, BS)에 설치된 엣지 서버는 계산이 필요한 컴퓨팅을 대체할 순 있지만 엣지 컴퓨팅의 제한된 컴퓨팅 리소스로는 모든 디바이스를 지원할 순 없어 선별하는 과정이 필요하다.To solve these challenges, edge computing that utilizes distributed resources to provide timely and contextual services is emerging. An edge server installed in a base station (BS) can replace computing that requires computation, but the limited computing resources of edge computing cannot support all devices, so a selection process is required.

문제점을 개선하기 위해 본 명세서에서는 디바이스, 엣지 서버, 클라우드는 계층적인 IoT 아키텍처를 형성한다. 모바일 엣지 오케스트레이션(Mobile Edge Orchestration, MEO)은 어플리케이션 배치를 컨트롤하여 어플리케이션의 요구 사항을 충족하는 역할을 수행한다. 네트워크 상태 정보와 어플리케이션의 요구사항을 이용하여 MEO는 어플리케이션을 처리할 모바일 엣지 서버를 결정한다. In order to improve the problem, in this specification, a device, an edge server, and a cloud form a hierarchical IoT architecture. Mobile Edge Orchestration (MEO) plays a role in meeting application requirements by controlling application deployment. Using network state information and application requirements, MEO decides which mobile edge server to handle the application.

분석 및 저장을 위해 데이터를 압축하고 클라우드로 업로드하는 작업이 포함된 컴퓨팅 집약적인 애플리케이션에서 대량의 데이터를 처리해야하는 경우, 많은 연구에서 엣지 클라우드에서 부분적으로 작업을 오프로딩하는 방법을 고려하였다.When large amounts of data need to be processed in compute-intensive applications that involve compressing and uploading data to the cloud for analysis and storage, many studies have considered partially offloading the work from the edge cloud.

IoT 시스템 또한 엣지 컴퓨팅 시스템이 동적인 요청 흐름들을 효율적으로 처리할 수 있도록 설계하는 것이 필요하다. 일반적인 IoT 어플리케이션들은 논리적으로 독립적이고 시기 적절한 상황에 맞는 프로세스를 제공하는 분할된 어플리케이션들(마이크로서비스)로 구성된다.The IoT system also needs to be designed so that the edge computing system can efficiently process dynamic request flows. Typical IoT applications consist of partitioned applications (microservices) that provide logically independent and timely, contextual processes.

예를 들어 증강 현실 어플리케이션의 경우, 비디오 렌더러가 로컬에서 실행되는 동안 계산 집약적인 구성 요소들 (트레이서, 매퍼 및 오브젝트 인식)은 IoT 디바이스에서 엣지 서버로 오프로딩 가능하다.For augmented reality applications, for example, computationally intensive components (tracers, mappers and object recognition) can be offloaded from the IoT device to the edge server while the video renderer is running locally.

이러한 작업들은 BS에서 사용자들의 채널 정보, 비트당 로컬 컴퓨팅 에너지 소모량 그리고 피드백을 통해 얻어질 수 있는 모든 유저의 입력 데이터 크기를 정확하게 알 수 있다고 가정한다. 이 정보들을 사용하여 BS는 오프로딩이 필요한 사용자를 선택한 뒤 모바일 에너지 소비량의 최소 가중치 합계나 모든 사용자의 최소 시스템 지연을 기준으로 오프로딩할 데이터 크기를 결정한다.These tasks assume that the BS can accurately know the channel information of users, the amount of local computing energy consumed per bit, and the size of input data of all users that can be obtained through feedback. Using this information, the BS selects the users who need offloading and then determines the size of data to offload based on the minimum weighted sum of mobile energy consumption or the minimum system delay of all users.

그러나 예기치 않은 부하 변동 (예: VM의 CPU 사용률이 VM에서 실행되는 작업에 따라 빈번하게 변경됨) 하에서는 분할된 작업을 처리할 엣지 서버를 결정하기 어려울 수 있다. 본 명세서에서는 이를 해결하기 위해 리소스 정보를 사용하고 어플리케이션 요구 사항을 맞출 수 있는 작업에 대한 최적의 분할 비율을 제안한다.However, under unpredictable load fluctuations (e.g., a VM's CPU utilization frequently changes depending on the tasks running on the VM), it can be difficult to determine which edge server to handle partitioned tasks. To solve this problem, this specification uses resource information and proposes an optimal split ratio for a task that can meet application requirements.

본 발명이 이루고자 하는 기술적인 과제는 계층적인 구조를 지닌 IoT 클라우드 환경에서 오프로딩을 수행하는 작업(task)의 지연을 최소화하는 방법 및 이를 이용하는 시스템을 제공하는 것이다.An object of the present invention is to provide a method for minimizing the delay of an offloading task in an IoT cloud environment having a hierarchical structure and a system using the same.

또한, 계층적인 구조를 지닌 IoT 클라우드 환경에서 오프로딩을 수행하는 작업 실행에 적합한 엣지 서버를 선택하고, 최적화된 작업 분할이 가능한 방법 및 이를 이용하는 시스템을 제공하는 것이다.Another object of the present invention is to provide a method for selecting an edge server suitable for executing offloading tasks in an IoT cloud environment with a hierarchical structure, and for optimally dividing tasks and providing a system using the same.

상기와 같은 과제를 해결하기 위한 본 발명의 실시예에 따른 본 발명의 실시예에 따른 지연을 최소화(latency minimization)하는 모바일 엣지 오케스트레이터(mobile edge orchestrator)는 복수의 퍼지 규칙(Fuzzy rule)을 기반으로 퍼지 결과 값을 생성하는 퍼지화부, 퍼지 결과 값이 퍼지 규칙 집합 내에서 결합되는 방식을 결정하는 집계부, 및 디퍼지 결과 값(ω)을 생성하는 디퍼지화부를 포함하는 퍼지추론부, 그리고 디퍼지화부에서 출력된 디퍼지 결과 값(ω)을 기준으로 작업을 오프로딩할 타겟 서버를 결정하는 타겟결정부를 포함한다.A mobile edge orchestrator for minimizing delay according to an embodiment of the present invention according to an embodiment of the present invention for solving the above problems is based on a plurality of fuzzy rules A fuzzy inference unit comprising a fuzzy unit generating a fuzzy result value with and a target determination unit that determines a target server to offload a job based on the defuzzification result value (ω) output from the fuzzing unit.

발명의 실시예에 따른 모바일 엣지 오케스트레이터(mobile edge orchestrator)에서의 지연 최소화(latency minimization) 방법은 복수의 퍼지 규칙(Fuzzy rule)을 기반으로 퍼지 결과(Fuzzy decision)를 생성하는 퍼지 단계, 복수의 퍼지 규칙의 결과가 규칙 집합 내에서 결합되는 방식을 결정하는 집계 단계, 디파지파이어를 수행하여 디퍼지 결과 값(ω)을 생성하는 디퍼지 단계, 및 디퍼지 결과 값(ω)을 기준으로 작업을 오프로딩할 타겟 서버를 결정하는 타겟 결정 단계를 포함한다.A method of latency minimization in a mobile edge orchestrator according to an embodiment of the present invention is a fuzzy step of generating a fuzzy decision based on a plurality of fuzzy rules, a plurality of An aggregation phase that determines how the results of a fuzzy rule are combined within a rule set, a defragment phase that performs a defragifier to produce a defragmentation result value (ω), and an operation based on the defudge result value (ω). and a target determining step of determining a target server from which to offload.

본 발명의 일 실시예에 따르면, MEO에서 관리하는 각 작업의 지연을 최소화하는 효과가 있다.According to an embodiment of the present invention, there is an effect of minimizing the delay of each task managed by the MEO.

또한, 본 발명의 일 실시예에 따르면, 수집된 리소스 정보와 어플리케이션 요구 사항을 활용하여 오프로딩 작업에 대한 최적의 작업 분할 비율을 찾을 수 있다.In addition, according to an embodiment of the present invention, it is possible to find an optimal task division ratio for the offloading task by utilizing the collected resource information and application requirements.

도 1은 일 실시예에 의한 모바일 엣지 클라우드 시스템의 개략도이다.
도 2는 일 실시예에 의한 모바일 엣지 오케스트레이터 모듈의 블록도이다.
도 3은 일 실시예에 의한 모바일 엣지 오케스트레이터 모듈에서의 퍼지 논리 아키텍처 및 작업 분할 전략의 일 예를 나타낸 도면이다.
도 4는 일 실시예에 의한 모바일 엣지 오케스트레이터 모듈에서 사용하는 멤버십 함수를 도시한다.
도 5는 일 실시예에 의한 모바일 엣지 오케스트레이터 모듈에서의 중앙 디퍼지파이어의 일 예를 도시한다.
도 6은 일 실시예에 의한 모바일 엣지 클라우드 시스템에서의 퍼지 기반 모바일 엣지 오케스트레이션을 이용한 모바일 엣지 컴퓨팅 방법을 설명하기 위한 순서도이다.
도 7은 일 실시예에 의한 퍼지 기반 모바일 엣지 오케스트레이션을 이용한 타겟 서버 결정 방법을 설명하기 위한 순서도이다.
1 is a schematic diagram of a mobile edge cloud system according to an embodiment.
2 is a block diagram of a mobile edge orchestrator module according to an embodiment.
3 is a diagram illustrating an example of a fuzzy logic architecture and task partitioning strategy in a mobile edge orchestrator module according to an embodiment.
4 illustrates a membership function used in a mobile edge orchestrator module according to an embodiment.
5 shows an example of a central defragifier in a mobile edge orchestrator module according to an embodiment.
6 is a flowchart illustrating a mobile edge computing method using fuzzy-based mobile edge orchestration in a mobile edge cloud system according to an embodiment.
7 is a flowchart illustrating a method for determining a target server using fuzzy-based mobile edge orchestration according to an embodiment.

상술한 본 발명의 특징 및 효과는 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. The features and effects of the present invention described above will become more apparent through the following detailed description in relation to the accompanying drawings, whereby those of ordinary skill in the art to which the present invention pertains can easily implement the technical idea of the present invention. will be able

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 구체적으로 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and will be described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. shouldn't

이하의 설명에서 사용되는 구성요소에 대한 접미사 모듈, 블록 및 부는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. The suffix module, block, and part for the components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves.

이하, 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 당해 분야에 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 설명한다. 하기에서 본 발명의 실시 예를 설명함에 있어, 관련된 공지의 기능 또는 공지의 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement them. In the following description of embodiments of the present invention, if it is determined that a detailed description of a related known function or a known configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

이하에서는, 본 발명에 따른 모바일 엣지 오케스트레이션(Mobile Edge Orchestration, MEO)를 사용하는 모바일 엣지 클라우드 시스템(Mobile Edge Cloud System)에 대하여 설명한다. Hereinafter, a mobile edge cloud system using a mobile edge orchestration (MEO) according to the present invention will be described.

도 1은 일실시예에 의한 모바일 엣지 클라우드 시스템(10)의 개략도이다. 엣지 오케스트레이터(100)를 사용하는 모바일 엣지 클라우드 시스템(10)은 디바이스(200), 엣지 서버(300), 클라우드 서버(400)를 통합하여 계층적 IoT 아키텍처를 형성할 수 있다. 1 is a schematic diagram of a mobile edge cloud system 10 according to an embodiment. The mobile edge cloud system 10 using the edge orchestrator 100 may form a hierarchical IoT architecture by integrating the device 200 , the edge server 300 , and the cloud server 400 .

모바일 엣지 클라우드 시스템(10)은 배포된 모바일 엣지 서버, 서버별 가용 서비스 및 가용 리소스, 인스턴스화된 어플리케이션, 네트워크 토폴로지 등의 정보를 관리하기 위하여 엣지 오케스트레이터(Edge orchestrator, 100)를 사용할 수 있다.The mobile edge cloud system 10 may use an edge orchestrator 100 to manage information such as distributed mobile edge servers, available services and available resources for each server, instantiated applications, and network topologies.

상기 디바이스(200)는 모바일 사용자의 장치로 웨어러블, 가상 현실 스트리밍, 모바일 소셜 미디어 등 모바일 사용자의 어플리케이션을 포함하며 범용적인 계산 능력과 지속적인 데이터 처리가 필요한 장치일 수 있다.The device 200 is a device of a mobile user, and includes mobile user applications such as wearables, virtual reality streaming, and mobile social media, and may be a device that requires general-purpose computational capability and continuous data processing.

디바이스(200)는, 예를 들어, 셀룰러 폰, 스마트 폰, 태블릿 피씨, 두부 장착형 디스플레이(HMD, Head Mounted Display) 장치, 스마트 시계, 데스크톱 컴퓨터, 랩톱 컴퓨터, 디지털 텔레비전, 셋톱 박스, 내비게이션 장치, 개인용 디지털 보조기(PDA, Personal Digital Assistant), 휴대용 게임기, 인공 지능 음향 재생 장치 및/또는 이외 부호의 입력 및 수정이 가능한 다양한 장치 중 적어도 하나를 포함할 수 있다.The device 200 may be, for example, a cellular phone, a smart phone, a tablet PC, a Head Mounted Display (HMD) device, a smart watch, a desktop computer, a laptop computer, a digital television, a set-top box, a navigation device, a personal use device. It may include at least one of a digital assistant (PDA, Personal Digital Assistant), a portable game machine, an artificial intelligence sound reproducing device, and/or various devices capable of inputting and modifying other codes.

상기 엣지 서버(Edge server, 300)는 모바일 디바이스(200) 근처의 데이터 처리 및 분석을 위해 컴퓨팅 능력 및 스토리지를 갖춘 서버로서 클라우드 서버(400) 및 모바일 사용자 사이에서의 중개자 역할을 수행한다. 클라우드 서버(400)보다 상대적으로 사용자(디바이스) 가까이에 위치해 있어 엣지 컴퓨팅(Edge computing)을 통해 보다 나은 서비스의 품질(QoS)울 제공할 수 있다. The edge server 300 serves as an intermediary between the cloud server 400 and the mobile user as a server equipped with computing power and storage for data processing and analysis near the mobile device 200 . Since it is located relatively closer to the user (device) than the cloud server 400 , it is possible to provide better quality of service (QoS) through edge computing.

상기 클라우드 서버(Cloud server, 400)는 WAN(Wide area network)을 사용하는 모바일 유저(Mobile user)들의 동적 서비스와 데이터 분석을 제공할 수 있다. 클라우드 컴퓨팅(Cloud computing)은 클라우드 서버 또는 여러 원격 서버들을 사용하여 중앙 집중식 계산과 스토리지(storage) 서비스를 제공한다. 사용자들은 가상화된 서버를 사용하여 원격 스토리지와 컴퓨팅 시설을 이용할 수 있다. 클라우드 서버에 저장된 데이터는 모바일 단말의 컴퓨팅 성능과 스토리지 용량에 상관없이 언제 어디서든 검색할 수 있다.The cloud server 400 may provide dynamic services and data analysis of mobile users using a wide area network (WAN). Cloud computing uses a cloud server or multiple remote servers to provide centralized computation and storage services. Users can use virtualized servers to access remote storage and computing facilities. Data stored in the cloud server can be retrieved anytime, anywhere, regardless of the computing power and storage capacity of the mobile terminal.

이때, WAN은 LAN (Local-Area Network) 또는 클라우드 서버(400)와 통신하는 기타 네트워크일 수 있다.In this case, the WAN may be a local-area network (LAN) or other network communicating with the cloud server 400 .

이하 도 2 및 도 3을 참조하여, 본 발명에 따른 퍼지 기반 모바일 엣지 오케스트레이터(Mobile Edge Orchestrator, MEO)에 대하여 설명한다. Hereinafter, a fuzzy-based mobile edge orchestrator (MEO) according to the present invention will be described with reference to FIGS. 2 and 3 .

도 2는 일 실시예에 따른 모바일 엣지 오케스트레이터(또는 모바일 엣지 오케스트레이션 모듈, 100)의 블록도이다. 본 발명에 따른 모바일 엣지 오케스트레이터(100)는 퍼지추론부(110) 및 타겟결정부(140)를 포함하며, 퍼지추론부(110)는 퍼지화부(111), 집계부(112), 디퍼지화부(113)를 포함할 수 있다. 2 is a block diagram of a mobile edge orchestrator (or mobile edge orchestration module) 100 according to an embodiment. The mobile edge orchestrator 100 according to the present invention includes a fuzzy inference unit 110 and a target determiner 140, and the fuzzy inference unit 110 includes a fuzzy unit 111, an aggregator 112, and a defuzz It may include a fire unit 113 .

도 3은 본 발명에 따른 모바일 엣지 오케스트레이터(100)에서의 퍼지 논리 아키텍처 및 작업 분할 전략의 일 실시예를 도시한다.3 shows one embodiment of a fuzzy logic architecture and task partitioning strategy in a mobile edge orchestrator 100 in accordance with the present invention.

모바일 엣지 오케스트레이션 모듈(100)은 어플리케이션 배치를 컨트롤하여 어플리케이션의 요구 사항을 충족하는 역할을 수행한다. 네트워크 상태 정보와 어플리케이션의 요구사항을 이용하여 모바일 엣지 오케스트레이터(100)는 어플리케이션을 처리할 타겟 서버(target server)를 결정할 수 있다.The mobile edge orchestration module 100 performs a role of satisfying application requirements by controlling application deployment. The mobile edge orchestrator 100 may determine a target server to process the application by using the network state information and application requirements.

구체적으로, 퍼지 논리 기반 MEO는 네트워크 리소스 및 통신의 상태를 인식하며, 해당 정보를 입력 변수로 하여 작업의 대상(타겟) 서버를 탐색한다. 입력 변수는 다음과 같다.Specifically, the fuzzy logic-based MEO recognizes the state of network resources and communication, and searches for the target (target) server of the job by using the corresponding information as an input variable. The input variables are as follows.

Figure 112020142688937-pat00001
Figure 112020142688937-pat00001

여기서 w는 각각 WAN 대역폭, l은 수신 작업 길이, v는 엣지 서버의 VM 사용률 및 d는 관련 작업의 지연 민감도를 나타낸다. 작업 길이 l은 작업 실행 시간을 계산하는데 사용하며, 작업의 지연 민감도 d는 네트워크 상태 또는 서버 활용 수준으로 인해 작업이 더 긴 실행 시간에 대해 허용되는 것을 보여준다. w 및 v는 네트워크 및 리소스 정보에 의해 결정된다. WAN 통신 대기 시간(WAN communication latency)의 경우 네트워크 정체(network congestion)는 작업이 클라우드 서버로 오프로드 되는 시기에 대한 w의 중요한 지표이다. VM 활용도 v는 엣지 서버의 잔여 계산 용량에 대한 정보를 제공한다. v가 임계 값 수준보다 크면 엣지 서버가 혼잡한 것으로 간주할 수 있다.where w is the WAN bandwidth, l is the length of the receive operation, v is the VM utilization rate of the edge server, and d is the delay sensitivity of the related operation. The job length l is used to calculate the job execution time, and the delay sensitivity d of the job shows that the job is tolerated for a longer execution time due to network conditions or server utilization level. w and v are determined by network and resource information. In the case of WAN communication latency, network congestion is an important indicator of w for when tasks are offloaded to the cloud server. VM utilization v provides information on the remaining compute capacity of the edge server. If v is greater than the threshold level, the edge server can consider it congested.

MEO의 퍼지추론부(110)는 상기 입력 변수에 따라 퍼지화부(111) 및 디퍼지화부(113)에서 사용하는 멤버십 함수(membership functions)를 설정할 수 있다. 예를 들어, MEO의 퍼지추론부(110)는 4 개의 입력 변수에 따라 퍼지화 및 디퍼지화 단계에서 사용되는 4 개의 멤버십 함수를 설정할 수 있다.The fuzzy inference unit 110 of the MEO may set membership functions used by the fuzzy unit 111 and the defuzzifier 113 according to the input variable. For example, the fuzzy inference unit 110 of the MEO may set four membership functions used in the fuzzy and defuzzy steps according to four input variables.

도 4는 일 실시예에 따른 모바일 엣지 오케스트레이터 모듈(100)에서 사용하는 멤버십 함수를 도시한다. 도 4를 참고하면, w, l, d의 언어 변수(linguistic variables)는 낮음 (L), 중간 (M) 및 높음 (H)이고, v의 언어 변수는 가벼움 (L), 일반 (N) 및 무거움 (H)이다. 4 illustrates a membership function used by the mobile edge orchestrator module 100 according to an embodiment. 4 , the linguistic variables of w, l, and d are low (L), medium (M), and high (H), and the linguistic variables of v are light (L), normal (N) and is heaviness (H).

상기 퍼지화부(111)는 수학식 1의 멤버십 함수(membership functions 또는, fuzzification function)를 사용하여 등급을 각 언어 용어(linguistic term)에 연결하여 선명한 값(crisp value)을 퍼지 값(fuzzy value)으로 변환할 수 있다.The fuzzy unit 111 connects the grade to each linguistic term using the membership function or fuzzification function of Equation 1 to convert a crisp value into a fuzzy value. can be converted

수학식 1Equation 1

Figure 112020142688937-pat00002
Figure 112020142688937-pat00002

상기 퍼지화부(111)는 퍼지 규칙(Fuzzy rule)을 기반으로 하여 각각의 퍼지 규칙에 따라 선정된 퍼지 결과(Fuzzy decision) 값을 생성할 수 있다. 상기 퍼지 규칙은 조건과 결론이 있는 If and then 규칙으로 정의할 수 있다. 최적의 퍼지 규칙을 정하기 위해 계산적인 실험을 반복하여 상대적으로 나은 퍼지 규칙을 사용한다. The fuzzy unit 111 may generate a fuzzy decision value selected according to each fuzzy rule based on the fuzzy rule. The fuzzy rule may be defined as an If and then rule having a condition and a conclusion. In order to determine the optimal fuzzy rule, computational experiments are repeated and a relatively better fuzzy rule is used.

상기 퍼지화부(111)는 싱글톤 퍼지화기일 수 있다.The purge unit 111 may be a singleton purge unit.

상기 집계부(112)는 퍼지 규칙의 수에 따라 최소(min) 최대(max) 함수를 사용하여 복수의 퍼지 규칙의 퍼지 결과가 퍼지 규칙 집합 내에서 결합되는 방식을 결정한다. 이때, 퍼지 규칙의 수는, 예를 들어, 퍼지화부에서 3개의 언어 용어가 있는 4개의 멤버십 함수를 사용하는 경우 81(=34)일 수 있다.The aggregation unit 112 determines a method in which fuzzy results of a plurality of fuzzy rules are combined in a fuzzy rule set by using a min (min) max (max) function according to the number of fuzzy rules. In this case, the number of fuzzy rules may be, for example, 81 (=3 4 ) when the fuzzy unit uses four membership functions having three language terms.

구체적으로 다음의 수학식 2 내지 3를 이용하여 엣지 서버 또는 클라우드 서버를 선택하기 위한 퍼지 값(fuzzy value)을 계산한다.Specifically, a fuzzy value for selecting an edge server or a cloud server is calculated using Equations 2 to 3 below.

수학식 2Equation 2

Figure 112020142688937-pat00003
Figure 112020142688937-pat00003

수학식 3Equation 3

Figure 112020142688937-pat00004
Figure 112020142688937-pat00004

집계 및 활성화 단계는 다음의 수학식 4 내지 5을 이용한다.The aggregation and activation steps use the following Equations 4 to 5.

수학식 4Equation 4

Figure 112020142688937-pat00005
Figure 112020142688937-pat00005

수학식 5Equation 5

Figure 112020142688937-pat00006
Figure 112020142688937-pat00006

여기서 x, y, z, v는 퍼지 추론 시스템(a fuzzy inference system)을 위한 선명한 입력 매개 변수(the crisp input parameters)입니다.where x, y, z, v are the crisp input parameters for a fuzzy inference system.

상기 디퍼지화부(113)는 디퍼지 결과 값을 생성한다. 디퍼지화부(113)는 μedge 및 μcloud를 기반으로 선명한 출력 값(a crisp output value, ω)을 계산할 수 있다. 상기 디퍼지화부(113)는 추론을 계산하기 위한 중앙 디퍼지파이어(a centroid defuzzifier)일 수 있다.The defragmentation unit 113 generates a defragmentation result value. The defuzzification unit 113 may calculate a crisp output value (ω) based on μ edge and μ cloud . The defuzzifier 113 may be a centroid defuzzifier for calculating inference.

도 5는 본 발명에 따른 중앙 디퍼지파이어의 일 실시예를 도시한다. 도 5를 참고하면, MEO는 커브(curve) 아래 영역의 무게 중심(the center of gravity, COG)을 반환하는 중심 디퍼지파이어(a centroid defuzzifier)를 이용한다.5 shows an embodiment of a central defuzzifier according to the present invention. Referring to FIG. 5 , the MEO uses a centroid defuzzifier that returns the center of gravity (COG) of an area under a curve.

선명한 출력 값(ω)은 아래의 수학식 6를 이용하여 연산된다.The sharp output value ω is calculated using Equation 6 below.

수학식 6Equation 6

Figure 112020142688937-pat00007
Figure 112020142688937-pat00007

상기 타겟결정부(140)는 상기 디퍼지화부(113)에서 디퍼지파이어 후 출력된 값으로 작업을 분할하고, 분할된 작업을 어떤 엣지 서버(300) 또는 클라우드 서버(400)에 오프로딩할 것인지 작업을 오프로딩할 타겟을 결정한다.The target determination unit 140 divides the job by the value output after the defragmentation in the defragmentation unit 113, and decides which edge server 300 or cloud server 400 to offload the divided job to. Decide which target to offload work to.

예를 들어, MEO의 타겟결정부(140)는 작업을 엣지 서버에서 처리해야 하는지 아니면 엣지 서버와 클라우드 서버에서 공동으로 처리해야하는지 여부를 결정할 수 있다.For example, the target determination unit 140 of the MEO may determine whether the task should be processed by the edge server or jointly processed by the edge server and the cloud server.

다시 말해, MEO의 타겟결정부(140)는 상기 선명한 출력 값(ω)에 따라 오프 로딩 결정을 내릴 수 있다. 예를 들어, ω가 50보다 크면 작업이 클라우드 서버로 오프로드되고, 그렇지 않으면 엣지 서버에서 실행될 수 있다.In other words, the target determination unit 140 of the MEO may make an offloading decision according to the clear output value ω. For example, if ω is greater than 50, the job will be offloaded to the cloud server, otherwise it may run on the edge server.

또한, 모바일 엣지 오케스트레이터(100, MEO)는 MEO에서 관리하는 각 작업의 지연을 최소화하여 최적의 작업 분할 비율(optimal task splitting ratio)을 찾는 것을 목표로 한다. In addition, the mobile edge orchestrator 100 (MEO) aims to find an optimal task splitting ratio by minimizing the delay of each task managed by the MEO.

MEO가 관리하는 각 작업의 지연을 최소화하기 위하여, 최적화 문제는 다음과 같이 공식화 될 수 있다.In order to minimize the delay of each task managed by the MEO, the optimization problem can be formulated as follows.

수학식 7Equation 7

Figure 112020142688937-pat00008
Figure 112020142688937-pat00008

여기서,

Figure 112020142688937-pat00009
는 i번째 디바이스에서 작업의 전체 지연(delay)을 의미하며, 다음의 식을 이용하여 연산된다.here,
Figure 112020142688937-pat00009
is the total delay of the task in the i-th device, and is calculated using the following equation.

수학식 8Equation 8

Figure 112020142688937-pat00010
Figure 112020142688937-pat00010

Figure 112020142688937-pat00011
는 모바일 디바이스에서의 전송 지연,
Figure 112020142688937-pat00012
는 엣지 서버의 계산 지연,
Figure 112020142688937-pat00013
는 엣지-클라우드 전송 지연, 그리고
Figure 112020142688937-pat00014
는 클라우드 서버의 계산 지연을 나타낸다.
Figure 112020142688937-pat00011
is the transmission delay on the mobile device,
Figure 112020142688937-pat00012
is the computational delay of the edge server,
Figure 112020142688937-pat00013
is the edge-to-cloud transmission delay, and
Figure 112020142688937-pat00014
represents the computational delay of the cloud server.

구체적으로, 모바일 디바이스에서의 전송 지연(

Figure 112020142688937-pat00015
)은 i번째 디바이스(사용자)가 계산 작업을 j번째 엣지 노드로 오프로드하기 위한 평균 전송 지연으로 아래의 수학식 9를 이용하여 연산된다.Specifically, the transmission delay in the mobile device (
Figure 112020142688937-pat00015
) is the average transmission delay for the i-th device (user) to offload the calculation task to the j-th edge node, and is calculated using Equation 9 below.

수학식 9 Equation 9

Figure 112020142688937-pat00016
Figure 112020142688937-pat00016

여기서 T는 시분할 다중 액세스(time division multiple access, TDMA) 프레임의 길이를 나타내고 R은 업로드에 대한 평균 데이터율(the average data rate)이다. 평균 데이터율 R을 사용하여 작업 오프 로딩(task offloading)의 시간 스케일(time scale)과 매칭되는 평균 전송 지연(the average transmission delay)을 계산할 수 있다.

Figure 112020142688937-pat00017
는 작업 길이(task length)를 나타내며 지수 분포 랜덤 변수로 추정될 수 있다.where T represents the length of a time division multiple access (TDMA) frame and R is the average data rate for upload. The average data rate R can be used to calculate the average transmission delay matching the time scale of task offloading.
Figure 112020142688937-pat00017
represents the task length and can be estimated as an exponentially distributed random variable.

엣지 서버의 계산 지연(

Figure 112020142688937-pat00018
)은 아래의 수학식 10를 이용하여 연산된다.Edge server computational delay (
Figure 112020142688937-pat00018
) is calculated using Equation 10 below.

수학식 10 Equation 10

Figure 112020142688937-pat00019
Figure 112020142688937-pat00019

Figure 112020142688937-pat00020
는 GIPS(giga-instructions per second)에서 j 번째 엣지 노드가 i번째 장치에 할당하는 계산 리소스를 나타내고,
Figure 112020142688937-pat00021
는 작업 분할 비율(the task-splitting ratio)로, 엣지 서버에서 실행되는 데이터 부분을 나타내며,
Figure 112020142688937-pat00022
는 해당 작업의 1 비트 데이터를 계산하는 데 필요한 CPU 사이클 수를 나타낸다.
Figure 112020142688937-pat00020
denotes the computational resources allocated to the i-th device by the j-th edge node in giga-instructions per second (GIPS),
Figure 112020142688937-pat00021
is the task-splitting ratio, representing the portion of data running on the edge server,
Figure 112020142688937-pat00022
represents the number of CPU cycles required to compute one bit of data for that task.

도 1에서 모든 엣지 노드들은 WAN을 통해 클라우드 서버와 연결되며, 모든 엣지 노드들은 MEC(Mobile Edge Computing) 서버에서 지리적으로 클라우드 서버에 이르는 넓은 영역을 커버한다. 고속 WAN(the high-speed WANs)은 최소 전송 시간(minimal transmission time)을 가지며 데이터 손실률은 고려하지 않기 때문에, 장거리 WAN의 경우 엣지-클라우드 전송 지연은 전파 시간(the propagation time,

Figure 112020142688937-pat00023
)에 의해 결정될 수 있다 In FIG. 1 , all edge nodes are connected to a cloud server through a WAN, and all edge nodes cover a wide area geographically from a mobile edge computing (MEC) server to a cloud server. Because the high-speed WANs have minimal transmission time and do not account for data loss rates, edge-to-cloud transmission delays for long-distance WANs depend on the propagation time (the propagation time,
Figure 112020142688937-pat00023
) can be determined by

클라우드 서버의 계산 지연(

Figure 112020142688937-pat00024
)은 아래의 수학식 11를 이용하여 연산된다.Cloud server computational delay (
Figure 112020142688937-pat00024
) is calculated using Equation 11 below.

수학식 11 Equation 11

Figure 112020142688937-pat00025
Figure 112020142688937-pat00025

엣지 노드로부터 작업을 수신하면, MEO는 해당 작업에 클라우드 서버의 사용 가능한 계산 리소스를 할당한다. 이때, MEO는 병렬 컴퓨팅(parallel computing)을 위해 네트워크 정보를 사용하고 작업 요구 사항과 매칭하여 해당 작업에 계산 리소스를 할당할 수 있다. 여기서,

Figure 112020142688937-pat00026
는 GIPS(giga-instructions per second)에서 i번째 장치에 대하여 클라우드 서버에서 제공하는 클라우드 계산 리소스(the cloud computation resources)를 나타낸다.Upon receiving a task from the edge node, the MEO allocates the available computational resources of the cloud server to the task. At this time, the MEO can use the network information for parallel computing and allocate computational resources to the task by matching it with the task requirements. here,
Figure 112020142688937-pat00026
represents the cloud computation resources provided by the cloud server for the i-th device in giga-instructions per second (GIPS).

수학식 7b는 작업에 필요한 계산 리소스가 j번째 엣지 서버(Bj)가 VM(Virtual Machine)에서 제공하는 최대 CPU 리소스를 초과하지 않아야 함을 의미한다. Equation 7b means that the computational resource required for the job should not exceed the maximum CPU resource provided by the virtual machine (VM) by the j-th edge server (Bj).

수학식 7c에서 작업 분할 비율(

Figure 112020142688937-pat00027
)이 1이면 작업을 클라우드 서버(400)로 오프로드하지 않고 엣지 서버(300)에서 처리하며, 작업 분할 비율(
Figure 112020142688937-pat00028
)이 0이면 작업을 모두 클라우드 서버(400)로 오프로드하는 것을 의미한다.In Equation 7c, the task split ratio (
Figure 112020142688937-pat00027
) is 1, the job is processed on the edge server 300 without offloading to the cloud server 400, and the job split ratio (
Figure 112020142688937-pat00028
) is 0, it means that all jobs are offloaded to the cloud server 400 .

최적의 작업 분할 비율(

Figure 112020142688937-pat00029
)은 다음의 수학식 12을 이용하여 연산된다.Optimal work split ratio (
Figure 112020142688937-pat00029
) is calculated using Equation 12 below.

수학식 12Equation 12

Figure 112020142688937-pat00030
Figure 112020142688937-pat00030

Figure 112020142688937-pat00031
는 엣지 서버 집합에서 최대 CPU 리소스가 있는 j번째 엣지 서버를 나타낸다.
Figure 112020142688937-pat00031
represents the jth edge server with the maximum CPU resource in the edge server set.

엣지 서버의 계산 지연(

Figure 112020142688937-pat00032
)이 엣지 클라우드의 전송 지연(
Figure 112020142688937-pat00033
)보다 작으면 최적 작업 분할 비율(
Figure 112020142688937-pat00034
)은 1보다 커진다. 즉, 모든 작업이 엣지 노드와 연결되며, 클라우드 서버(400)로 오프로드하지 않고 엣지 서버(300)에서 처리된다.Edge server computational delay (
Figure 112020142688937-pat00032
) is the edge cloud's transmission delay (
Figure 112020142688937-pat00033
) is less than the optimal task split ratio (
Figure 112020142688937-pat00034
) is greater than 1. That is, all tasks are connected to the edge node and are processed by the edge server 300 without being offloaded to the cloud server 400 .

또한, 최적의 작업 분할 비율(

Figure 112020142688937-pat00035
)에 따라 MEO는 최적화 제약 조건(the optimization constraints)을 충족하는 적절한 엣지 서버를 선택하기 위해 어플리케이션 요구사항과 네트워킹 리소스를 활용할 수 있다.In addition, the optimal task split ratio (
Figure 112020142688937-pat00035
), the MEO can utilize application requirements and networking resources to select an appropriate edge server that meets the optimization constraints.

이하에서는, 본 발명에 따른 모바일 엣지 클라우드 시스템(Mobile Edge Cloud System)에서의 모바일 엣지 오케스트레이션(Mobile Edge Orchestration, MEO)를 이용한 모바일 엣지 컴퓨팅(Mobile Edge Computing) 방법에 대하여 설명한다. Hereinafter, a mobile edge computing method using mobile edge orchestration (MEO) in a mobile edge cloud system according to the present invention will be described.

도 6은 본 발명의 실시예에 따른 모바일 엣지 오케스트레이션(MEO)을 이용한 모바일 엣지 컴퓨팅(Mobile Edge Computing) 방법의 순서도이다.6 is a flowchart of a mobile edge computing method using mobile edge orchestration (MEO) according to an embodiment of the present invention.

먼저, 각각의 디바이스(200)는 무선 채널을 통해 연결된 엣지 노드(edge node)에 애플리케이션 프로필(application profile)을 직접 보낼 수 있다. 모바일 엣지 오케스트레이션 모듈(100)은 MAN(Metropolitan Area Network)에서 애플리케이션 정보를 수신하고 업데이트할 수 있다(S110). First, each device 200 may directly send an application profile to an edge node connected through a wireless channel. The mobile edge orchestration module 100 may receive and update application information from a Metropolitan Area Network (MAN) (S110).

다음, MEO(100)는 퍼지 기반 접근 방식을 사용하여 타겟 서버를 선택할 수 있다(S120). 이때, 리소스 정보를 사용하여 애플리케이션 요구 사항과 일치시킴으로써 이를 수행할 수 있다. 클라우드 서버가 엣지 서버와 공동으로 작업을 처리하는 경우 MEO는 해당 작업에 대한 최적의 작업 분할 비율을 결정한다(S130). Next, the MEO 100 may select a target server using a fuzzy-based approach (S120). You can do this by using the resource information to match your application requirements. When the cloud server processes a job jointly with the edge server, the MEO determines the optimal job split ratio for the job (S130).

다음, MEO(100)의 결정에 따라 각 디바이스(200)는 작업을 엣지 서버(300) 또는 클라우드 서버(400)로 오프로드한다(S140).Next, each device 200 according to the determination of the MEO 100 offloads the job to the edge server 300 or the cloud server 400 (S140).

엣지 서버(300) 또는 클라우드 서버(400)는 계산 결과를 각 디바이스(200)로 다시 전송한다(S150).The edge server 300 or the cloud server 400 transmits the calculation result back to each device 200 (S150).

이하 도 7을 참조하여, 본 발명에 따른 모바일 엣지 오케스트레이션(Mobile Edge Orchestration, MEO)을 이용한 지연을 최소화 하는 타겟 서버 결정 방법에 대하여 설명한다. Hereinafter, with reference to FIG. 7 , a method for determining a target server for minimizing delay using mobile edge orchestration (MEO) according to the present invention will be described.

도 7은 본 발명의 실시예에 따른 모바일 엣지 오케스트레이션(MEO)을 이용한 지연 시간 최소화 방법 및 이를 이용한 타겟 서버 결정 방법의 순서도이다.7 is a flowchart illustrating a method for minimizing delay time using mobile edge orchestration (MEO) and a method for determining a target server using the same according to an embodiment of the present invention.

퍼지 논리 기반 MEO는 네트워크 리소스 및 통신의 상태를 인식하며, 해당 정보를 입력 변수로 하여 작업의 대상 서버를 탐색한다. Fuzzy logic-based MEO recognizes the state of network resources and communication, and uses that information as an input variable to discover the target server for the job.

MEO는 입력 변수에 따라 퍼지화부 및 디퍼지화부에서 사용하는 멤버십 함수(membership functions)를 설정한다(S210). The MEO sets membership functions used by the fuzzy unit and the defuzzifier according to the input variable (S210).

MEO의 퍼지화부는 상기 멤버십 함수(membership functions 또는, fuzzification function)를 사용하여 등급을 각 언어 용어(linguistic term)에 연결하여 선명한 값(crisp value)을 퍼지 값(fuzzy value)으로 변환할 수 있다.The fuzzy unit of the MEO may convert a crisp value into a fuzzy value by connecting the rating to each linguistic term using the membership functions or fuzzification function.

MEO의 퍼지화부는 퍼지 규칙(Fuzzy rule)을 기반으로 하여 각각의 퍼지 규칙에 따라 선정된 퍼지 결과(Fuzzy decision)를 생성할 수 한다(S220). 상기 퍼지 규칙은 조건과 결론이 있는 If and then 규칙으로 정의할 수 있다. 최적의 규칙을 정하기 위해 계산적인 실험을 반복하여 상대적으로 나은 퍼지 규칙을 사용한다.The fuzzy unit of the MEO may generate a fuzzy decision selected according to each fuzzy rule based on the fuzzy rule (S220). The fuzzy rule may be defined as an If and then rule having a condition and a conclusion. In order to determine the optimal rule, we repeat the computational experiment and use a relatively better fuzzy rule.

MEO의 집계부는 퍼지 규칙의 수에 따라 최소(min) 최대(max) 함수를 사용하여 복수의 퍼지 규칙의 퍼지 결과가 퍼지 규칙 집합 내에서 결합되는 방식을 결정한다(S230). The aggregation unit of the MEO determines a method in which fuzzy results of a plurality of fuzzy rules are combined in a fuzzy rule set by using a min (min) max (max) function according to the number of fuzzy rules (S230).

MEO의 디퍼지화부는 디퍼지 결과 값(ω)을 생성한다. 디퍼지화부는 μedge 및 μcloud를 기반으로 선명한 출력 값(a crisp output value, ω)을 계산할 수 있다. 상기 디퍼지화부는 추론을 계산하기 위한 중앙 디퍼지파이어(a centroid defuzzifier)일 수 있다.The defuzzification unit of the MEO generates a defragmentation result value ω. The defuzzifier may calculate a crisp output value (ω) based on μ edge and μ cloud . The defuzzifier may be a centroid defuzzifier for calculating inferences.

MEO의 타겟결정부는 상기 디퍼지화부에서 디퍼지파이어 후 출력된 값(ω)으로 작업을 분할하고, 분할된 작업을 어떤 엣지 서버 또는 클라우드 서버에서 오프로딩할 것인지 작업을 오프로딩할 타겟을 결정한다(S250). 예를 들어, MEO의 타겟결정부는 작업을 엣지 서버에서 처리해야 하는지 아니면 엣지 서버와 클라우드 서버에서 공동으로 처리해야하는지 여부를 결정할 수 있다.The target determination unit of the MEO divides the job by the value (ω) output after the defuzzification in the defuzzification unit, and decides which edge server or cloud server to offload the divided job from, the target to offload the job from (S250). For example, the MEO's target determiner can decide whether a task should be processed on an edge server or jointly on an edge server and a cloud server.

이상에서는 본 발명에 따른 퍼지 기법을 이용한 퍼지추론부 및 타겟결정부를 포함하며 지연을 최소화(latency minimization)하는 모바일 엣지 오케스트레이터 그리고 모바일 엣지 오케스트레이터, 디바이스, 엣지 서버, 및 클라우드 서버를 포함하며 지연을 최소화하는 모바일 엣지 클라우드 시스템의 여러 실시예에 대하여 설명하였다. 또한, 이를 이용한 퍼지 기반의 지연 최소화 방법의 여러 실시예에 대하여 설명하였다.In the above, it includes a fuzzy inference unit and a target determination unit using a fuzzy technique according to the present invention, and includes a mobile edge orchestrator and mobile edge orchestrator that minimizes delay (latency minimization), a device, an edge server, and a cloud server. Various embodiments of the mobile edge cloud system to be minimized have been described. In addition, various embodiments of a fuzzy-based delay minimization method using the same have been described.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 구체적으로 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and will be described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능뿐만 아니라 각각의 구성 요소들에 대한 설계 및 파라미터 최적화는 별도의 소프트웨어 모듈로도 구현될 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리에 저장되고, 제어부(controller) 또는 프로세서(processor)에 의해 실행될 수 있다.According to the software implementation, not only the procedures and functions described in this specification but also the design and parameter optimization for each component may be implemented as a separate software module. The software code may be implemented as a software application written in a suitable programming language. The software code may be stored in a memory and executed by a controller or a processor.

Claims (16)

복수의 퍼지 규칙(Fuzzy rule)을 기반으로 퍼지 결과 값을 생성하는 퍼지화부,
상기 퍼지 결과 값이 퍼지 규칙 집합 내에서 결합되는 방식을 결정하는 집계부, 및
디퍼지 결과 값(ω)을 생성하는 디퍼지화부를 포함하는 퍼지추론부, 그리고
디퍼지화부에서 출력된 상기 디퍼지 결과 값(ω)을 기준으로 작업을 오프로딩할 타겟 서버를 결정하는 타겟결정부를 포함하며,
상기 타겟 서버는 엣지 서버 또는 클라우드 서버를 포함하는,
지연을 최소화(latency minimization)하고,
상기 지연은 아래의 수학식을 이용하여 연산하는 것을 특징으로 하는,
지연을 최소화(latency minimization)하는 모바일 엣지 오케스트레이터(mobile edge orchestrator).
Figure 112022028141891-pat00036

(여기서,
Figure 112022028141891-pat00037
는 i번째 디바이스에서 작업의 전체 지연(delay)을 의미하며,
Figure 112022028141891-pat00038
는 모바일 디바이스에서의 전송 지연,
Figure 112022028141891-pat00039
는 엣지 서버의 계산 지연,
Figure 112022028141891-pat00040
는 엣지-클라우드 전송 지연, 그리고
Figure 112022028141891-pat00041
는 클라우드 서버의 계산 지연을 나타냄)
A fuzzy unit that generates a fuzzy result value based on a plurality of fuzzy rules;
an aggregator that determines how the fuzzy result values are combined in a fuzzy rule set; and
A fuzzy inference unit comprising a defuzzification unit generating a defragmentation result value ω, and
and a target determination unit that determines a target server to offload a job based on the defragmentation result value (ω) output from the defragmentation unit,
The target server includes an edge server or a cloud server,
latency minimization,
The delay is characterized in that it is calculated using the following equation,
A mobile edge orchestrator for latency minimization.
Figure 112022028141891-pat00036

(here,
Figure 112022028141891-pat00037
is the total delay of the operation on the i-th device,
Figure 112022028141891-pat00038
is the transmission delay on the mobile device,
Figure 112022028141891-pat00039
is the computational delay of the edge server,
Figure 112022028141891-pat00040
is the edge-to-cloud transmission delay, and
Figure 112022028141891-pat00041
represents the computational delay of the cloud server)
삭제delete 제1항에 있어서,
상기 타겟결정부는 상기 타겟 서버가 상기 엣지 서버 및 상기 클라우드 서버를 포함하는 경우,
어플리케이션 요구사항과 네트워킹 리소스를 활용하여 최적의 작업 분할 비율를 더 계산하는 것을 특징으로 하며,
상기 최적의 작업 분할 비율은 아래의 수학식을 이용하여 연산하는,
지연을 최소화(latency minimization)하는 모바일 엣지 오케스트레이터(mobile edge orchestrator).
Figure 112020142688937-pat00042

(여기서,
Figure 112020142688937-pat00043
는 j 번째 엣지 노드가 i번째 장치에 할당하는 계산 리소스,
Figure 112020142688937-pat00044
는 i번째 장치에 대하여 클라우드 서버에서 제공하는 클라우드 계산 리소스,
Figure 112020142688937-pat00045
는 엣지-클라우드 전송 지연,
Figure 112020142688937-pat00046
는 작업 길이,
Figure 112020142688937-pat00047
는 해당 작업의 1 비트 데이터를 계산하는 데 필요한 CPU 사이클 수,
Figure 112020142688937-pat00048
는 엣지-클라우드 전송 지연, 그리고
Figure 112020142688937-pat00049
는 엣지 서버 집합에서 최대 CPU 리소스가 있는 j번째 엣지 서버를 나타냄)
According to claim 1,
When the target determiner includes the target server includes the edge server and the cloud server,
It is characterized by further calculating the optimal work split ratio by utilizing the application requirements and networking resources,
The optimal work division ratio is calculated using the following equation,
A mobile edge orchestrator for latency minimization.
Figure 112020142688937-pat00042

(here,
Figure 112020142688937-pat00043
is the computational resource allocated to the i-th device by the j-th edge node,
Figure 112020142688937-pat00044
is the cloud computing resource provided by the cloud server for the i-th device,
Figure 112020142688937-pat00045
is the edge-to-cloud transmission delay,
Figure 112020142688937-pat00046
is the working length,
Figure 112020142688937-pat00047
is the number of CPU cycles required to compute 1-bit data for that operation,
Figure 112020142688937-pat00048
is the edge-to-cloud transmission delay, and
Figure 112020142688937-pat00049
represents the jth edge server with the maximum CPU resource in the edge server set)
제3항에 있어서,
상기 퍼지추론부는 WAN 대역폭, 작업의 길이, 엣지 서버의 VM(vitual machine) 사용률, 및 작업의 지연 민감도 중 적어도 하나 이상을 입력 변수로 하는
지연을 최소화(latency minimization)하는 모바일 엣지 오케스트레이터(mobile edge orchestrator).
4. The method of claim 3,
The fuzzy inference unit uses at least one of WAN bandwidth, job length, edge server virtual machine (VM) usage rate, and job delay sensitivity as input variables.
A mobile edge orchestrator for latency minimization.
제 4항에 있어서,
상기 퍼지추론부는 상기 입력 변수에 따라 상기 퍼지화부 및 상기 디퍼지화부에서 사용하는 멤버십 함수(membership functions)를 설정하는 것을 특징으로 하는
지연을 최소화(latency minimization)하는 모바일 엣지 오케스트레이터(mobile edge orchestrator).
5. The method of claim 4,
wherein the fuzzy inference unit sets membership functions used by the fuzzy unit and the defuzzifier according to the input variable
A mobile edge orchestrator for latency minimization.
삭제delete 퍼지추론부 및 타겟결정부로 이루어진 모바일 엣지 오케스트레이터(mobile edge orchestrator)에서의 지연 최소화(latency minimization) 방법으로,
상기 퍼지추론부가 복수의 퍼지 규칙(Fuzzy rule)을 기반으로 퍼지 결과(Fuzzy decision)를 생성하는 퍼지 단계;
상기 퍼지추론부가 복수의 퍼지 규칙의 결과가 규칙 집합 내에서 결합되는 방식을 결정하는 집계 단계;
상기 퍼지추론부가 디파지파이어를 수행하여 디퍼지 결과 값(ω)을 생성하는 디퍼지 단계; 및
상기 타겟결정부가 상기 디퍼지 단계에서 생성된 상기 디퍼지 결과 값(ω)을 기준으로 작업을 오프로딩할 타겟 서버를 결정하는 타겟 결정 단계;를 포함하며
상기 타겟 서버는 작업의 지연을 최소화하는 서버로 엣지 서버 또는 클라우드 서버를 포함하고,
상기 지연은 아래의 수학식을 이용하여 연산하는 것을 특징으로 하는,
MEO에서의 지연 최소화(latency minimization) 방법.
Figure 112022028141891-pat00050

(여기서,
Figure 112022028141891-pat00051
는 i번째 디바이스에서 작업의 전체 지연(delay)을 의미하며,
Figure 112022028141891-pat00052
는 모바일 디바이스에서의 전송 지연,
Figure 112022028141891-pat00053
는 엣지 서버의 계산 지연,
Figure 112022028141891-pat00054
는 엣지-클라우드 전송 지연, 그리고
Figure 112022028141891-pat00055
는 클라우드 서버의 계산 지연을 나타냄)
As a latency minimization method in a mobile edge orchestrator consisting of a fuzzy inference unit and a target determination unit,
a fuzzy step in which the fuzzy inference unit generates a fuzzy decision based on a plurality of fuzzy rules;
an aggregation step in which the fuzzy inference unit determines how results of a plurality of fuzzy rules are combined in a rule set;
a defragmentation step of generating a defuzz result value (ω) by the fuzzy inference unit performing a defragfire; and
a target determination step of determining, by the target determination unit, a target server from which to offload a job based on the deferging result value (ω) generated in the defragmentation step; and
The target server includes an edge server or a cloud server as a server that minimizes operation delay,
The delay is characterized in that it is calculated using the following equation,
A method of latency minimization in MEO.
Figure 112022028141891-pat00050

(here,
Figure 112022028141891-pat00051
is the total delay of the operation on the i-th device,
Figure 112022028141891-pat00052
is the transmission delay on the mobile device,
Figure 112022028141891-pat00053
is the computational delay of the edge server,
Figure 112022028141891-pat00054
is the edge-to-cloud transmission delay, and
Figure 112022028141891-pat00055
represents the computational delay of the cloud server)
삭제delete 제7항에 있어서,
상기 타겟 서버가 상기 엣지 서버 및 상기 클라우드 서버를 포함하는 경우,
어플리케이션 요구사항과 네트워킹 리소스를 활용하여 최적의 작업 분할 비율를 더 계산하는 것을 특징으로 하며,
상기 최적의 작업 분할 비율은 아래의 수학식을 이용하여 연산하는,
MEO에서의 지연 최소화(latency minimization) 방법.
Figure 112020142688937-pat00056

(여기서,
Figure 112020142688937-pat00057
는 j 번째 엣지 노드가 i번째 장치에 할당하는 계산 리소스,
Figure 112020142688937-pat00058
는 i번째 장치에 대하여 클라우드 서버에서 제공하는 클라우드 계산 리소스,
Figure 112020142688937-pat00059
는 엣지-클라우드 전송 지연,
Figure 112020142688937-pat00060
는 작업 길이,
Figure 112020142688937-pat00061
는 해당 작업의 1 비트 데이터를 계산하는 데 필요한 CPU 사이클 수,
Figure 112020142688937-pat00062
는 엣지-클라우드 전송 지연, 그리고
Figure 112020142688937-pat00063
는 엣지 서버 집합에서 최대 CPU 리소스가 있는 j번째 엣지 서버를 나타냄)
8. The method of claim 7,
When the target server includes the edge server and the cloud server,
It is characterized by further calculating the optimal work split ratio by utilizing the application requirements and networking resources,
The optimal work division ratio is calculated using the following equation,
A method of latency minimization in MEO.
Figure 112020142688937-pat00056

(here,
Figure 112020142688937-pat00057
is the computational resource allocated to the i-th device by the j-th edge node,
Figure 112020142688937-pat00058
is the cloud computing resource provided by the cloud server for the i-th device,
Figure 112020142688937-pat00059
is the edge-to-cloud transmission delay,
Figure 112020142688937-pat00060
is the working length,
Figure 112020142688937-pat00061
is the number of CPU cycles required to compute 1-bit data for that operation,
Figure 112020142688937-pat00062
is the edge-to-cloud transmission delay, and
Figure 112020142688937-pat00063
represents the jth edge server with the maximum CPU resource in the edge server set)
제9항에 있어서,
상기 퍼지추론부는 WAN 대역폭, 작업의 길이, 엣지 서버의 VM(vitual machine) 사용률, 및 작업의 지연 민감도 중 적어도 하나 이상을 입력 변수로 하는
MEO에서의 지연 최소화(latency minimization) 방법.
10. The method of claim 9,
The fuzzy inference unit uses at least one of WAN bandwidth, job length, edge server virtual machine (VM) usage rate, and job delay sensitivity as input variables.
A method of latency minimization in MEO.
제10항에 있어서,
상기 퍼지추론부는 상기 입력 변수에 따라 상기 퍼지 단계 및 상기 디퍼지 단계에서 사용하는 멤버십 함수(membership functions)를 설정하는 것을 특징으로 하는
MEO에서의 지연 최소화(latency minimization) 방법.
11. The method of claim 10,
The fuzzy inference unit sets membership functions used in the fuzzy step and the defuzz step according to the input variable.
A method of latency minimization in MEO.
삭제delete 모바일 엣지 오케스트레이션 모듈,
사용자 디바이스,
데이터 처리 및 분석을 위해 컴퓨팅 능력 및 스토리지를 갖춘 엣지 서버, 및
클라우드 서버를 포함하며,
상기 모바일 엣지 오케스트레이션 모듈은
복수의 퍼지 규칙(Fuzzy rule)을 기반으로 퍼지 결과 값을 생성하는 퍼지화부,
상기 퍼지 결과 값이 퍼지 규칙 집합 내에서 결합되는 방식을 결정하는 집계부, 및
디퍼지 결과 값(ω)을 생성하는 디퍼지화부를 포함하는 퍼지추론부, 그리고
디퍼지화부에서 출력된 상기 디퍼지 결과 값(ω)을 기준으로 작업을 오프로딩할 타겟 서버를 결정하는 타겟결정부를 포함하며,
상기 타겟 서버는 엣지 서버 또는 클라우드 서버를 포함하는,
지연을 최소화(latency minimization)하고,
상기 지연은 아래의 수학식을 이용하여 연산하는 것을 특징으로 하는,
지연을 최소화(latency minimization)하는 모바일 엣지 클라우드 시스템.
Figure 112022028141891-pat00064

(여기서,
Figure 112022028141891-pat00065
는 i번째 디바이스에서 작업의 전체 지연(delay)을 의미하며,
Figure 112022028141891-pat00066
는 모바일 디바이스에서의 전송 지연,
Figure 112022028141891-pat00067
는 엣지 서버의 계산 지연,
Figure 112022028141891-pat00068
는 엣지-클라우드 전송 지연, 그리고
Figure 112022028141891-pat00069
는 클라우드 서버의 계산 지연을 나타냄)
mobile edge orchestration module,
user device,
Edge servers with computing power and storage for data processing and analysis; and
including cloud servers;
The mobile edge orchestration module
A fuzzy unit that generates a fuzzy result value based on a plurality of fuzzy rules;
an aggregator that determines how the fuzzy result values are combined in a fuzzy rule set; and
A fuzzy inference unit comprising a defuzzification unit generating a defragmentation result value ω, and
and a target determination unit that determines a target server to offload a job based on the defragmentation result value (ω) output from the defragmentation unit,
The target server includes an edge server or a cloud server,
latency minimization,
The delay is characterized in that it is calculated using the following equation,
A mobile edge cloud system that minimizes latency.
Figure 112022028141891-pat00064

(here,
Figure 112022028141891-pat00065
is the total delay of the operation on the i-th device,
Figure 112022028141891-pat00066
is the transmission delay on the mobile device,
Figure 112022028141891-pat00067
is the computational delay of the edge server,
Figure 112022028141891-pat00068
is the edge-to-cloud transmission delay, and
Figure 112022028141891-pat00069
represents the computational delay of the cloud server)
삭제delete 삭제delete 삭제delete
KR1020200186102A 2020-12-29 2020-12-29 Method for latency minimization in a fuzzy-based mobile edge orchestrator and system using same KR102385087B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200186102A KR102385087B1 (en) 2020-12-29 2020-12-29 Method for latency minimization in a fuzzy-based mobile edge orchestrator and system using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200186102A KR102385087B1 (en) 2020-12-29 2020-12-29 Method for latency minimization in a fuzzy-based mobile edge orchestrator and system using same

Publications (1)

Publication Number Publication Date
KR102385087B1 true KR102385087B1 (en) 2022-04-12

Family

ID=81187844

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200186102A KR102385087B1 (en) 2020-12-29 2020-12-29 Method for latency minimization in a fuzzy-based mobile edge orchestrator and system using same

Country Status (1)

Country Link
KR (1) KR102385087B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115665160A (en) * 2022-10-14 2023-01-31 四川轻化工大学 Multi-access edge computing system and method for electric power safety tool
CN117152135A (en) * 2023-10-30 2023-12-01 济宁市市政园林养护中心 Road construction crack defect evaluation and detection method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190078453A (en) * 2017-12-26 2019-07-04 경희대학교 산학협력단 Migration System and Method by Fuzzy Value Rebalance in Distributed Cloud Environment

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190078453A (en) * 2017-12-26 2019-07-04 경희대학교 산학협력단 Migration System and Method by Fuzzy Value Rebalance in Distributed Cloud Environment

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115665160A (en) * 2022-10-14 2023-01-31 四川轻化工大学 Multi-access edge computing system and method for electric power safety tool
CN115665160B (en) * 2022-10-14 2024-02-20 四川轻化工大学 Multi-access edge computing system and method for electric power safety tools
CN117152135A (en) * 2023-10-30 2023-12-01 济宁市市政园林养护中心 Road construction crack defect evaluation and detection method
CN117152135B (en) * 2023-10-30 2024-01-23 济宁市市政园林养护中心 Road construction crack defect evaluation and detection method

Similar Documents

Publication Publication Date Title
Zhang et al. A new task offloading algorithm in edge computing
KR102385087B1 (en) Method for latency minimization in a fuzzy-based mobile edge orchestrator and system using same
Ali et al. A deep learning approach for mobility-aware and energy-efficient resource allocation in MEC
Yang et al. Deep reinforcement learning in cache-aided MEC networks
Huang et al. Deadline-aware task offloading with partially-observable deep reinforcement learning for multi-access edge computing
CN113542376A (en) Task unloading method based on energy consumption and time delay weighting
Wang et al. Optimization for computational offloading in multi-access edge computing: A deep reinforcement learning scheme
Raju et al. Delay and energy aware task scheduling mechanism for fog-enabled IoT applications: A reinforcement learning approach
Nguyen et al. Flexible computation offloading in a fuzzy-based mobile edge orchestrator for IoT applications
Li et al. DQN-enabled content caching and quantum ant colony-based computation offloading in MEC
Hu et al. Dynamic task offloading in MEC-enabled IoT networks: A hybrid DDPG-D3QN approach
Hsu et al. Mobility-aware QoS promotion and load balancing in MEC-based vehicular networks: A deep learning approach
Heidarpour et al. Soft actor–critic-based computation offloading in multiuser MEC-enabled IoT—a lifetime maximization perspective
Khanh et al. Fuzzy‐Based Mobile Edge Orchestrators in Heterogeneous IoT Environments: An Online Workload Balancing Approach
Li Optimization of task offloading problem based on simulated annealing algorithm in MEC
Zhang et al. BiLSTM-based federated learning computation offloading and resource allocation algorithm in MEC
CN113452625B (en) Deep reinforcement learning-based unloading scheduling and resource allocation method
Li et al. Dependency-aware task offloading based on deep reinforcement learning in mobile edge computing networks
Mo et al. Computation offloading and resource management for energy and cost trade-offs with deep reinforcement learning in mobile edge computing
Chai et al. A dynamic queuing model based distributed task offloading algorithm using deep reinforcement learning in mobile edge computing
Farimani et al. Deadline-aware task offloading in vehicular networks using deep reinforcement learning
Liang et al. A two-stage replica management mechanism for latency-aware applications in multi-access edge computing
Saranya et al. An efficient computational offloading framework using HAA optimization-based deep reinforcement learning in edge-based cloud computing architecture
Wu et al. A New Heuristic Computation Offloading Method Based on Cache‐Assisted Model
Xu et al. Fair resource allocation based on deep reinforcement learning in fog networks

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant