KR102235622B1 - Method and Apparatus for Cooperative Edge Caching in IoT Environment - Google Patents

Method and Apparatus for Cooperative Edge Caching in IoT Environment Download PDF

Info

Publication number
KR102235622B1
KR102235622B1 KR1020200163933A KR20200163933A KR102235622B1 KR 102235622 B1 KR102235622 B1 KR 102235622B1 KR 1020200163933 A KR1020200163933 A KR 1020200163933A KR 20200163933 A KR20200163933 A KR 20200163933A KR 102235622 B1 KR102235622 B1 KR 102235622B1
Authority
KR
South Korea
Prior art keywords
edge
caching
edge server
cluster
server
Prior art date
Application number
KR1020200163933A
Other languages
Korean (ko)
Inventor
이수경
김창경
김태영
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020200163933A priority Critical patent/KR102235622B1/en
Application granted granted Critical
Publication of KR102235622B1 publication Critical patent/KR102235622B1/en

Links

Images

Classifications

    • H04L67/2842
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/568Storing data temporarily at an intermediate stage, e.g. caching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • H04L67/2823
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/289Intermediate processing functionally located close to the data consumer application, e.g. in same machine, in same home or in same sub-network
    • H04L67/325
    • H04L67/327
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/565Conversion or adaptation of application format or content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • H04L67/62Establishing a time schedule for servicing the requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • H04L67/63Routing a service request depending on the request content or context

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

Disclosed are a cooperative edge caching method in an IoT environment and a device therefor. According to an embodiment of the present invention, the cooperative edge caching method comprises: an information obtaining step of obtaining request record information from an edge server; a clustering processing step of generating at least one cluster including at least one edge server based on the request record information; and a caching processing step of performing a caching process so that the content for which a caching request of a preset level or higher occurs based on the request record information is stored in the at least one edge server.

Description

IoT 환경에서의 협력 에지 캐싱 방법 및 그를 위한 장치{Method and Apparatus for Cooperative Edge Caching in IoT Environment}[Method and Apparatus for Cooperative Edge Caching in IoT Environment}

본 발명은 IoT 환경에서 대규모 캐싱 요청을 고려하여 콘텐츠 전송 시간을 최소화하기 위한 협력 에지 캐싱 방법 및 그를 위한 장치에 관한 것이다.The present invention relates to a cooperative edge caching method and apparatus for minimizing content transmission time in consideration of a large-scale caching request in an IoT environment.

이 부분에 기술된 내용은 단순히 본 발명의 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section merely provides background information on the embodiments of the present invention and does not constitute the prior art.

종래 기술 중 IoT 환경에서 Edge server를 활용하여 콘텐츠 전송 효율을 향상시키기 위하여 다양한 연구가 진행되고 있다. 이러한 에지 서버에 대한 기술은 한국등록특허 제10-1546199호에 기재되어 있다.Among the prior art, various studies are being conducted to improve the efficiency of content transmission by using an edge server in an IoT environment. A technology for such an edge server is described in Korean Patent Registration No. 10-1546199.

종래의 IoT 환경 시스템에서는 최적화된 협력 캐싱 환경에서 콘텐츠 제공 서비스를 하기 위해 협력 캐싱 방법을 제안하였다. 제안한 기술은 콘텐츠 정보, 네트워크 정보 및 캐싱 서버 저장 용량 정보를 수집하는 단계, 상기 정보들을 활용하여, 협력 캐싱 설정 정보를 생성하는 단계 그리고 해당 정보를 캐싱 서버로 전송하는 단계로 이루어져 있다.In the conventional IoT environment system, a cooperative caching method is proposed to provide a content providing service in an optimized cooperative caching environment. The proposed technology consists of collecting content information, network information, and caching server storage capacity information, generating cooperative caching setting information using the information, and transmitting the information to the caching server.

종래의 IoT 환경 시스템에서는 네트워크 정보 와 콘텐츠 정보에 따라 복수의 캐싱 서버가 콘텐츠를 사용자 장치로 전송함으로써 콘텐츠 전송 속도와 네트워크 트래픽을 감소시키는 것을 목표로 한다. In the conventional IoT environment system, a plurality of caching servers transmit content to a user device according to network information and content information, thereby reducing the content transmission speed and network traffic.

종래의 IoT 환경 시스템에서는 저장 용량이 C인 캐싱 서버의 스토리지를 스토리지 분할 계수 (λ)에 따라 두개의 영역으로 분할한다. 제1 영역에는 인기 있는 콘텐츠가 저장되고, 제2영역에는 인기도가 낮거나 최근에 사용자로부터 액세스된 콘텐츠가 저장된다. 캐싱할 콘텐츠와 업데이트 주기는 네트워크 크기(M), 네트워크 링크 용량(r), 사용자 장치 및 캐싱 서버의 전송 패킷 크기(lreq), 캐싱 서버 및 콘텐츠 서비스 제공자의 응답 패킷 크기(lres), 콘텐츠 전달 네트워크에 연결된 사용자 장치 개수(S), 콘텐츠의 개수(Ng) 와 크기 (l) 에 따라 결정된다. 이러한 정보들을 사용하여 콘텐츠 다운로드 시간 이 최소값이 되는 협력 캐싱을 설정한다.In a conventional IoT environment system, the storage of a caching server with a storage capacity of C is divided into two regions according to the storage partitioning factor (λ). Popular content is stored in the first area, and content that is not popular or recently accessed by a user is stored in the second area. The content to be cached and the update period are network size (M), network link capacity (r), transmission packet size of user devices and caching server (l req ), response packet size of caching server and content service provider (l res ), content It is determined according to the number of user devices connected to the delivery network (S), the number of contents (N g ) and the size (l). This information is used to set up cooperative caching that minimizes the content download time.

다만, 종래의 IoT 환경 시스템에서는 협력 캐싱 환경에서 콘텐츠 다운로드 시간을 최소화하는 방법을 제시하였으나, IoT 환경에서의 캐싱 요청이 크게 늘어났을 때 전송 효율이 현저히 감소된다는 문제점이 있다. 이에, 이러한 문제점을 해결하기 위한 기술이 필요하다.However, in the conventional IoT environment system, a method of minimizing the content download time in a cooperative caching environment has been proposed, but there is a problem that transmission efficiency is significantly reduced when the caching request in the IoT environment is greatly increased. Accordingly, there is a need for a technology to solve this problem.

본 발명은 대규모 캐싱 요청을 만족시키기 위해 협력 에지 서버(edge server)를 사용하는 기법에 관한 것으로 캐싱 콘텐츠 전송 효율을 향상시키기 위한 IoT 환경에서의 협력 에지 캐싱 방법 및 그를 위한 장치를 제공하는 데 주된 목적이 있다.The present invention relates to a technique of using a cooperative edge server to satisfy a large-scale caching request. The main object of the present invention is to provide a cooperative edge caching method in an IoT environment for improving caching content transmission efficiency and an apparatus therefor. There is this.

본 발명의 일 측면에 의하면, 상기 목적을 달성하기 위한 협력 에지 캐싱 방법은, 에지 서버로부터 요청 기록 정보를 획득하는 정보 획득 단계; 상기 요청 기록 정보를 기반으로 적어도 하나의 에지 서버를 포함하는 적어도 하나의 클러스터를 생성하는 클러스터링 처리 단계; 및 상기 요청 기록 정보를 기반으로 기 설정된 기준 이상의 캐싱 요청이 발생하는 콘텐츠를 적어도 하나의 에지 서버에 저장되도록 캐싱 처리를 수행하는 캐싱 처리 단계를 포함할 수 있다. According to an aspect of the present invention, a cooperative edge caching method for achieving the above object includes: an information acquisition step of obtaining request record information from an edge server; A clustering processing step of creating at least one cluster including at least one edge server based on the request record information; And a caching processing step of performing a caching process to store content in which a caching request exceeding a preset criterion occurs based on the request record information in at least one edge server.

또한, 본 발명의 다른 측면에 의하면, 상기 목적을 달성하기 위한 코어 서버는, 에지 서버로부터 요청 기록 정보를 획득하는 정보 획득부; 상기 요청 기록 정보를 기반으로 적어도 하나의 에지 서버를 포함하는 적어도 하나의 클러스터를 생성하는 클러스터링 처리부; 및 상기 요청 기록 정보를 기반으로 기 설정된 기준 이상의 캐싱 요청이 발생하는 콘텐츠를 적어도 하나의 에지 서버에 저장되도록 캐싱 처리를 수행하는 캐싱 처리부를 포함할 수 있다. In addition, according to another aspect of the present invention, a core server for achieving the above object includes: an information acquisition unit for acquiring request record information from an edge server; A clustering processor for generating at least one cluster including at least one edge server based on the request record information; And a caching processing unit that performs caching so that content in which a caching request greater than or equal to a preset criterion occurs based on the request record information is stored in at least one edge server.

이상에서 설명한 바와 같이, 본 발명은 대규모 콘텐츠 요청을 분산시키고, 최종적으로 캐싱 콘텐츠 가져오는 콘텐츠 전송 시간을 줄일 수 있다는 효과가 있다. As described above, the present invention has the effect of distributing large-scale content requests and reducing a content transmission time for finally fetching caching content.

또한, 본 발명은 IoT 기기와 유동 인구가 많은 도심 지역에서도 안정적인 콘텐츠 전송 시간을 보장함을 통해 시간 민감성 IoT-어플리케이션의 안전성과 사용자들의 경험 만족도를 상승시킬 수 있는 효과가 있다.In addition, the present invention has the effect of increasing the safety of time-sensitive IoT-applications and user experience satisfaction by ensuring a stable content transmission time even in an urban area with a large IoT device and a large floating population.

도 1은 본 발명의 실시예에 따른 협력 에지 캐싱 네트워크 시스템을 개략적으로 나타낸 블록 구성도이다.
도 2는 본 발명의 실시예에 따른 협력 에지 처리장치를 개략적으로 나타낸 블록 구성도이다.
도 3은 본 발명의 실시예에 따른 클러스터링 처리 동작을 설명하기 위한 도면이다.
도 4는 본 발명의 실시예에 따른 협력 에지 처리 방법의 클러스터링 동작을 설명하기 위한 순서도이다.
도 5는 본 발명의 실시예에 따른 캐싱 처리 동작을 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 협력 에지 처리 방법의 캐싱 동작을 설명하기 위한 순서도이다.
도 7은 본 발명의 실시예에 따른 협력 에지 처리에 따른 콘텐츠 전송 시간을 나타낸 예시도이다.
1 is a block diagram schematically showing a cooperative edge caching network system according to an embodiment of the present invention.
2 is a block diagram schematically showing a cooperative edge processing apparatus according to an embodiment of the present invention.
3 is a diagram for explaining a clustering processing operation according to an embodiment of the present invention.
4 is a flowchart illustrating a clustering operation of a cooperative edge processing method according to an embodiment of the present invention.
5 is a diagram for explaining a caching processing operation according to an embodiment of the present invention.
6 is a flowchart illustrating a caching operation of a cooperative edge processing method according to an embodiment of the present invention.
7 is an exemplary diagram showing a content transmission time according to cooperative edge processing according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다. 이하에서는 도면들을 참조하여 본 발명에서 제안하는 IoT(Internet of Things) 환경에서의 협력 에지 캐싱 방법 및 그를 위한 장치에 대해 자세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, a preferred embodiment of the present invention will be described below, but the technical idea of the present invention is not limited or limited thereto, and may be modified and variously implemented by a person skilled in the art. Hereinafter, a cooperative edge caching method in an Internet of Things (IoT) environment proposed by the present invention and an apparatus therefor will be described in detail with reference to the drawings.

본 발명은 IoT 환경에서 발생하는 대규모 캐싱 요청을 만족시키기 위해 협력 에지 서버(edge server)를 사용하는 기법에 관한 것으로 캐싱 콘텐츠 전송 효율을 향상시키는 것을 목표로 한다. 특히, 본 발명은 에지 서버들이 가지고 있는 컴퓨터 자원의 한계를 극복하기 위한 클러스터링 기법과 그리고 콘텐츠의 인기도(popularity)와 요청 (request) 수요에 맞는 콘텐츠를 여러 에지 서버에 저장하는 캐싱 알고리즘을 사용함으로써 하나의 에지 서버에 집중되어 생기는 대기 시간 문제와 이로 인한 지연 시간 발생 문제를 해결하기 위한 것이다.The present invention relates to a technique using a cooperative edge server to satisfy a large-scale caching request occurring in an IoT environment, and aims to improve caching content transmission efficiency. In particular, the present invention is one by using a clustering technique to overcome the limitations of computer resources of edge servers and a caching algorithm that stores content that meets the popularity and request demands of content in several edge servers. It is to solve the problem of latency caused by concentration on the edge server of the network and the problem of delay time caused by it.

본 발명이 적용될 수 있는 기본환경은 IoT 에서의 무선 통신일 수 있으며, 무선 통신 시스템에는 IoT 센서, 기기, 그리고 스마트폰/태블릿과 같은 사용자 디바이스 등을 포함할 수 있다. 본 발명은 특히, 이러한 디바이스들이 많이 몰려 있는 도심 지역과 같은 곳에서 적용될 경우 큰 효과를 나타낼 수 있다. The basic environment to which the present invention can be applied may be wireless communication in IoT, and the wireless communication system may include an IoT sensor, a device, and a user device such as a smartphone/tablet. In particular, the present invention can have a great effect when applied in a place such as an urban area where a lot of these devices are concentrated.

도 1은 본 발명의 실시예에 따른 협력 에지 캐싱 네트워크 시스템을 개략적으로 나타낸 블록 구성도이다.1 is a block diagram schematically showing a cooperative edge caching network system according to an embodiment of the present invention.

본 실시예에 따른 협력 에지 캐싱 네트워크 시스템(10)은 코어 서버(100), 에지 서버(110) 및 사용자 단말기(120)을 포함하여 구성된다. 도 1의 협력 에지 캐싱 네트워크 시스템(10)은 일 실시예에 따른 것으로서, 도 1에 도시된 모든 블록이 필수 구성요소는 아니며, 다른 실시예에서 협력 에지 캐싱 네트워크 시스템(10)에 포함된 일부 블록이 추가, 변경 또는 삭제될 수 있다. The cooperative edge caching network system 10 according to this embodiment is configured to include a core server 100, an edge server 110, and a user terminal 120. The cooperative edge caching network system 10 of FIG. 1 is according to an embodiment, and not all blocks shown in FIG. 1 are essential components, and some blocks included in the cooperative edge caching network system 10 in other embodiments These may be added, changed or deleted.

협력 에지 캐싱 네트워크 시스템(10)의 협력 에지 캐싱의 콘텐츠 전송 시간 최적화 기술을 제안하며, IoT 와 에지 서버 환경 시스템에 관한 것이다. A cooperative edge caching network system 10 proposes a content transmission time optimization technology for cooperative edge caching, and relates to an IoT and edge server environment system.

본 발명의 실시예에 따른 에지 서버(110)는 에지 서버 요소 중 하나로써 클라우드 보다 사용자 단말기(120)에 가까이 위치하여 캐싱을 수행하는 서버를 의미한다. 에지 서버(110)는 에지 서버는 클라우드보다는 현저히 낮은 컴퓨터 자원을 가지고 있다. The edge server 110 according to an embodiment of the present invention refers to a server that is located closer to the user terminal 120 than the cloud as one of the edge server elements and performs caching. Edge server 110, the edge server has significantly lower computer resources than the cloud.

본 발명의 실시예에 따른 코어 서버(Core Sever, 100)는 이러한 에지 서버들을 지역적으로 관리하는 서버로서, 클러스터 처리 및 캐싱 처리에 대한 알고리즘을 수행한다. The core server 100 according to an embodiment of the present invention is a server that locally manages these edge servers and performs algorithms for cluster processing and caching processing.

IoT 환경의 협력 에지 캐싱 네트워크 시스템(10)에서는 무수히 많은 사용자 단말기(120)로부터 캐싱 요청이 들어오게 된다. 그렇게 될 경우, 하나의 에지 서버에 많은 캐싱 요청이 쌓이게 되어 대기 지연시간을 증가시키고 최종적으로 콘텐츠 전송 시간이 느려지게 될 수 있다. In the cooperative edge caching network system 10 in the IoT environment, caching requests come from a myriad of user terminals 120. In such a case, a large number of caching requests may be accumulated in one edge server, increasing the waiting delay time, and finally reducing the content transmission time.

본 발명의 협력 에지 캐싱 네트워크 시스템(10)에서는 이러한 문제를 해결하기 위하여 다수의 에지 서버(110)가 서로 협력을 통해 여러 개의 콘텐츠를 캐싱하여 사용자 단말기(120)에 제공하도록 한다. 사용자 단말기(120)는 가장 인접한 에지 서버(110))가 속한 클러스터로부터 콘텐츠를 요청할 수 있다. In the cooperative edge caching network system 10 of the present invention, in order to solve this problem, a plurality of edge servers 110 cooperate with each other to cache a plurality of contents and provide them to the user terminal 120. The user terminal 120 may request content from a cluster to which the nearest edge server 110 belongs.

협력 에지 서버로 들어오는 무수히 많은 캐싱 요청에 대응하기 위하여 코어 서버(100)는 다음과 같은 알고리즘을 수행한다. In order to respond to a myriad of caching requests coming to the cooperative edge server, the core server 100 performs the following algorithm.

코어 서버(100)는 에지 서버(110)의 평균 전송시간에 따른 클러스터링 (Clustering)을 처리한다. The core server 100 processes clustering according to the average transmission time of the edge server 110.

코어 서버(100)는 콘텐츠를 요청하는 사용자 단말기(120)가 과도하게 멀리 떨어져 있는 에지 서버(110)로부터 콘텐츠를 가져오는 것을 방지하고, 코어 서버(100)의 지역 내에서 에지 서버(110)의 저장공간을 효율적으로 사용하기 위해 지역 내의 에지 서버(110)들을 클러스터링 한다.The core server 100 prevents the user terminal 120 requesting the content from fetching the content from the edge server 110 that is excessively far away, and In order to efficiently use the storage space, the edge servers 110 in the region are clustered.

또한, 코어 서버(100)는 콘텐츠의 도착률에 따른 콘텐츠 캐싱을 처리한다. In addition, the core server 100 processes content caching according to the content arrival rate.

코어 서버(100)는 지역 내의 에지 서버(110)들로부터의 캐싱 기록(Cache History)을 기초로 하여 콘텐츠(j)가 클러스터 내의 복수의 에지 서버(120)들 중 하나의 에지 서버(i)에 저장되었을 때 변화되는 대기 지연 시간(

Figure 112020128950797-pat00001
)을 계산하고, 변화되는 대기 지연 시간(
Figure 112020128950797-pat00002
)을 캐싱을 처리하는데 사용한다. The core server 100 is based on the caching history from the edge servers 110 in the region, and the content j is transferred to one edge server i among the plurality of edge servers 120 in the cluster. Wait delay time that changes when saved (
Figure 112020128950797-pat00001
), and the varying latency delay (
Figure 112020128950797-pat00002
) Is used to handle caching.

코어 서버(100)에서, 변화되는 대기 지연 시간(

Figure 112020128950797-pat00003
)은 에지 서버(110)의 도착률, 콘텐츠의 인기도, 클러스터내에 저장된 콘텐츠의 수 등에 따라 결정될 수 있다. 코어 서버(100)에서, 에지 서버(110)들의 저장 공간 효율을 위하여 추가적인 캐싱이 콘텐츠 전송 시간을 일정시간 tcl 이상만큼 감소시킬 수 없을 때 캐싱은 중단된다.In the core server 100, the waiting delay time (
Figure 112020128950797-pat00003
) May be determined according to the arrival rate of the edge server 110, the popularity of the content, the number of content stored in the cluster, and the like. In the core server 100, caching is stopped when additional caching cannot reduce the content transmission time by more than a predetermined time t cl for the storage space efficiency of the edge servers 110.

도 2는 본 발명의 실시예에 따른 협력 에지 처리장치를 개략적으로 나타낸 블록 구성도이다.2 is a block diagram schematically showing a cooperative edge processing apparatus according to an embodiment of the present invention.

본 실시예에 따른 협력 에지 처리장치(200)는 정보 획득부(210), 클러스터링 처리부(220) 및 캐싱 처리부(230)를 포함한다. 도 2의 협력 에지 처리장치(200)는 일 실시예에 따른 것으로서, 도 2에 도시된 모든 블록이 필수 구성요소는 아니며, 다른 실시예에서 협력 에지 처리장치(200)에 포함된 일부 블록이 추가, 변경 또는 삭제될 수 있다. The cooperative edge processing apparatus 200 according to the present embodiment includes an information acquisition unit 210, a clustering processing unit 220, and a caching processing unit 230. The cooperative edge processing apparatus 200 of FIG. 2 is according to an embodiment, and not all blocks shown in FIG. 2 are essential components, and some blocks included in the cooperative edge processing apparatus 200 are added in other embodiments. , May be changed or deleted.

협력 에지 처리장치(200)는 협력 에지 서버의 동작을 제어하는 동작을 수행한다. 여기서, 협력 에지 처리장치(200)는 클러스터링 처리 및 캐싱 처리를 통해 협력 에지 서버의 동작을 제어한다. The cooperative edge processing apparatus 200 performs an operation of controlling the operation of the cooperative edge server. Here, the cooperative edge processing apparatus 200 controls the operation of the cooperative edge server through clustering processing and caching processing.

도 2에서, 협력 에지 처리장치(200)는 코어 서버(100)와 별도의 장치인 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 코어 서버(100)와 동일한 장치 또는 코어 서버(100)에 포함된 일부 구성요소로 구현될 수 있다. 이하, 협력 에지 처리장치(200)에 포함된 구성요소에 대해 설명하도록 한다. In FIG. 2, the cooperative edge processing device 200 is described as being a separate device from the core server 100, but is not necessarily limited thereto, and is included in the same device as the core server 100 or the core server 100. It can be implemented with some components. Hereinafter, components included in the cooperative edge processing apparatus 200 will be described.

정보 획득부(210)는 에지 서버로부터 요청 기록 정보를 획득한다. The information acquisition unit 210 acquires request record information from the edge server.

정보 획득부(210)는 코어 서버의 바운더리(기 설정된 지역) 내의 에지 서버 들로부터 사용자 단말기의 요청 기록(Requests History), 캐싱 기록(Cache History) 등을 포함하는 요청 기록 정보를 수신한다. The information acquisition unit 210 receives request record information including a request history, a cache history, and the like of a user terminal from edge servers within a boundary (a preset area) of the core server.

요청 기록 정보에는 사용자 단말기와 에지 서버 간의 전송 지연 시간(Transmission Delay,tc,bc)과 어떠한 콘텐츠가 요청되었는지 등에 대한 정보가 포함된다. 또한, 요청 기록 정보에는 콘텐츠의 인기도(pj), 클러스터 내에 저장되어 있는 콘텐츠의 수(Yj) 및 클러스터의 도착률(λ)을 등에 대한 정보가 포함될 수 있다. The request record information includes information on the transmission delay time (Transmission Delay, t c, bc ) between the user terminal and the edge server and what content has been requested. In addition, the request record information may include information on the popularity of the content (p j ), the number of contents stored in the cluster (Y j ), and the arrival rate of the cluster (λ).

클러스터링 처리부(220)는 요청 기록 정보를 기반으로 적어도 하나의 에지 서버를 포함하는 적어도 하나의 클러스터를 생성하는 동작을 수행한다. The clustering processing unit 220 performs an operation of generating at least one cluster including at least one edge server based on the request record information.

클러스터링 처리부(220)는 복수의 에지 서버 중 하나의 제1 에지 서버를 선택하여 클러스터를 생성한다. The clustering processing unit 220 creates a cluster by selecting one of the plurality of edge servers.

이후, 클러스터링 처리부(220)는 제1 에지 서버와 연결된 제2 에지 서버를 선택한다. 여기서, 클러스터링 처리부(220)는 제1 에지 서버와 연결된 복수의 에지 서버 중 상기 제1 에지 서버와 한 개의 홉(Hop)으로 연결된 제2 에지 서버를 선택한다. Thereafter, the clustering processor 220 selects a second edge server connected to the first edge server. Here, the clustering processor 220 selects a second edge server connected to the first edge server by one hop from among a plurality of edge servers connected to the first edge server.

이후, 클러스터링 처리부(220)는 제2 에지 서버를 기 설정된 클러스터 추가 조건과 비교하고, 클러스터 추가 조건을 만족하는 경우 제2 에지 서버를 클러스터에 추가한다. Thereafter, the clustering processor 220 compares the second edge server with a preset cluster addition condition, and when the cluster addition condition is satisfied, adds the second edge server to the cluster.

클러스터링 처리부(220)는 제1 조건 및 제2 조건을 포함하는 클러스터 추가 조건을 기반으로 제2 에지 서버를 클러스터에 추가할지 여부를 결정한다. 구체적으로, 클러스터링 처리부(220)는 제2 에지 서버가 다른 클러스터에 속하지 않아야 한다는 제1 조건 및 제2 에지 서버에 캐시 히트(hit) 되었을 때의 시간이 캐시 미스(miss) 되었을 때의 시간보다 기 설정된 일정 시간(tcl) 만큼의 차이가 발생하여야 한다는 제2 조건을 포함하는 클러스터 추가 조건을 만족하는 경우에만 제2 에지 서버를 클러스터에 추가한다. The clustering processor 220 determines whether to add the second edge server to the cluster based on the cluster addition condition including the first condition and the second condition. Specifically, the clustering processing unit 220 determines that the first condition that the second edge server does not belong to another cluster and the time when a cache hit is made to the second edge server is longer than the time when a cache miss occurs. The second edge server is added to the cluster only when the cluster addition condition including the second condition that a difference by a set predetermined time (t cl) is satisfied is satisfied.

한편, 클러스터링 처리부(220)는 복수의 에지 서버 각각이 소정의 클러스터에 속하게 될 때까지 제1 에지 서버를 선택하는 동작, 제2 에지 서버를 선택하는 동작, 클러스터 추가 조건에 따라 클러스터에 에지 서버를 추가하는 동작을 반복하여 수행한다. On the other hand, the clustering processing unit 220 selects the first edge server until each of the plurality of edge servers belongs to a predetermined cluster, the operation of selecting the second edge server, and the edge server in the cluster according to the cluster addition condition. Repeatedly perform the adding operation.

이하, 클러스터링을 처리하는 과정을 자세히 설명하도록 한다. Hereinafter, a process of processing clustering will be described in detail.

각 에지 서버는 자신에게 들어오는 요청(requests)을 기록한다. 요청 기록에는 사용자와 에지 서버 간의 전송 지연 시간(Transmission Delay)과 어떠한 콘텐츠가 요청되었는지가 포함된다. Each edge server records incoming requests to itself. The request record includes the transmission delay between the user and the edge server and what content was requested.

코어 서버는 에지 서버로부터 전달받은 요청 기록을 통해 각 에지 서버에서 히트(hit) 되었을 때의 지연 시간(Thit=tc,bc+tbc,c)을 계산할 수 있다. 코어 서버는 계산된 Thit 들을 기반으로 다음과 같은 클러스터링 과정을 수행한다. 여기서, tc,bc 및 tbc,c는 에지 서버와 사용자 단말기 간의 전송 지연 시간을 의미한다. The core server can calculate the delay time (T hit = t c,bc +t bc,c ) when hit from each edge server through the request record received from the edge server. Core server is the calculated T hit Based on these, the following clustering process is performed. Where, t c,bc And t bc,c denotes a transmission delay time between the edge server and the user terminal.

(1) 코어 서버는 먼저 자신의 지역에 속하는 에지 서버 중 하나를 선택하여 클러스터를 생성한다. (1) The core server first selects one of the edge servers belonging to its region and creates a cluster.

(2) 코어 서버는 그 다음 선택된 에지 서버와 한 개의 홉(hop)으로 연결된 에지 서버(i)를 선택하고 다음 두 가지 조건이 만족할 경우 해당 에지 서버를 클러스터에 추가한다. (2) The core server then selects the edge server (i) connected to the selected edge server by one hop, and adds the edge server to the cluster when the following two conditions are satisfied.

조건 1: i는 다른 클러스터에 속하지 않아 있어야 한다. Condition 1: i must not belong to another cluster.

조건 2: Thit + tcl < Tmiss Condition 2: T hit + t cl < T miss

Tmiss 는 캐시 미스가 발생하여 클라우드로부터 콘텐츠를 받아왔을 때의 전송 지연 시간을 의미하며 서로 너무 멀리 떨어진 에지 서버끼리 클러스터가 되는 것을 방지하기 위하여 캐시 히트 되었을 때의 시간이 캐시 미스 되었을 때 보다 일정 시간 tcl만큼의 차이가 발생하였을 때만 에지 서버(i)를 클러스터에 추가한다. 여기서, tcl은 클러스터의 크기를 결정하기 위한 threshold일 수 있다. T miss Refers to the transmission delay time when a cache miss occurs and content is received from the cloud.In order to prevent edge servers that are too far apart from each other from becoming a cluster, the time when the cache hit is compared to when the cache miss occurs, t cl The edge server (i) is added to the cluster only when the difference occurs. Here, t cl may be a threshold for determining the size of the cluster.

(3) 코어 서버는 (1) 내지 (2) 과정에서 클러스터에 추가되는 에지 서버가 없을 때까지 반복한다. 코어 서버는 모든 에지 서버가 클러스터에 속 하게 될 때까지 (1)로 돌아가 클러스터링 과정을 반복한다.(3) The core server repeats steps (1) to (2) until there is no edge server added to the cluster. The core server returns to (1) and repeats the clustering process until all edge servers belong to the cluster.

캐싱 처리부(230)는 요청 기록 정보를 기반으로 기 설정된 기준 이상의 캐싱 요청이 발생하는 콘텐츠를 적어도 하나의 에지 서버에 저장되도록 캐싱 처리를 수행한다. The caching processing unit 230 performs caching so that content in which a caching request exceeding a preset criterion occurs based on the request record information is stored in at least one edge server.

캐싱 처리부(230)는 복수의 에지 서버 각각에 대하여 상기 콘텐츠를 저장했을 때의 변화되는 변화 대기시간(

Figure 112020128950797-pat00004
)을 산출한다. The caching processing unit 230 changes the change waiting time when the content is stored for each of the plurality of edge servers (
Figure 112020128950797-pat00004
) Is calculated.

캐싱 처리부(230)는 요청 기록 정보에 포함된 콘텐츠의 인기도(pj), 클러스터 내에 저장되어 있는 콘텐츠의 수(Yj) 및 클러스터의 도착률(λ)을 사용하여 상기 콘텐츠를 상기 에지 서버에 캐싱하였을 때 변경되는 요청 도착률(arrival rate, Δλi)를 산출한다. 이후, 캐싱 처리부(230)는 콘텐츠의 크기(bj), 사용자 단말기와 에지 서버 사이의 대역폭(rj), 에지 서버에서의 상기 콘텐츠의 도착률(wi,j)을 사용해 에지 서버의 전체 서비스 시간(total service time)를 산출하고, 변경되는 요청 도착률과 상기 에지 서버의 전체 서비스 시간을 사용하여 상기 변화되는 변화 대기시간(

Figure 112020128950797-pat00005
)을 산출한다. The caching processing unit 230 caches the content in the edge server using the popularity of the content included in the request record information (p j ), the number of contents stored in the cluster (Y j ), and the arrival rate of the cluster (λ). Calculate the request arrival rate (Δλ i ) that changes when Thereafter, the caching processing unit 230 uses the size of the content (b j ), the bandwidth between the user terminal and the edge server (r j ), and the arrival rate of the content at the edge server (w i, j ). Calculate the total service time, and use the changed request arrival rate and the total service time of the edge server.
Figure 112020128950797-pat00005
) Is calculated.

이후, 캐싱 처리부(230)는 복수의 에지 서버 각각에 대한 상기 변화 대기시간을 기반으로 클러스터 각각의 평균 대기시간(Tw)을 산출한다. Thereafter, the caching processing unit 230 calculates an average waiting time (T w ) of each cluster based on the change waiting time for each of the plurality of edge servers.

이후, 캐싱 처리부(230)는 클러스터 중 가장 낮은 평균 대기시간(Tw)의 클러스터를 선택하고, 클러스터 내에 포함된 복수의 에지 서버 중 하나의 에지 서버에 콘텐츠의 조합을 선정하여 콘텐츠가 저장되도록 캐싱을 수행한다. 여기서, 캐싱 처리부(230)는 에지 서버의 콘텐츠를 캐싱하기 위한 저장 공간을 확인하고, 저장 공간이 있는 경우 해당 에지 서버에 콘텐츠가 저장되도록 캐싱을 수행한다. Thereafter, the caching processing unit 230 selects a cluster with the lowest average waiting time (T w ) among the clusters, selects a combination of contents on one edge server among a plurality of edge servers included in the cluster, and caches the contents to be stored. Perform. Here, the caching processing unit 230 checks a storage space for caching the content of the edge server, and if there is a storage space, caching is performed so that the content is stored in the corresponding edge server.

한편, 캐싱 처리부(230)는 저장공간으로 인해 콘텐츠를 저장할 수 없는 경우, 클러스터 내에서 에지 서버 다음으로 대기 시간이 낮은 다른 에지 서버와 콘텐츠를 조합하여 다른 에지 서버에 콘텐츠가 저장되도록 캐싱을 수행한다. On the other hand, when the content cannot be stored due to the storage space, the caching processing unit 230 performs caching so that the content is stored in another edge server by combining the content with another edge server with a lower waiting time after the edge server in the cluster. .

이하, 캐싱을 처리하는 과정을 자세히 설명하도록 한다. Hereinafter, a process of processing caching will be described in detail.

코어 서버는 클러스터링 이후, 대규모 캐싱 요청으로 인해 발생하는 대기시간을 줄이기 위하여 수요가 많은 콘텐츠를 1 개 이상의 에지 서버에 저장하는 캐싱 알고리즘을 수행한다. After clustering, the core server performs a caching algorithm that stores high-demand content in one or more edge servers in order to reduce the waiting time caused by large-scale caching requests.

이를 위해서는 코어 서버는 먼저 새로운 콘텐츠(j)를 에지 서버(i)에 캐싱 하였을때 변경되는 요청 도착률(arrival rate)을 계산한다. 여기서, 요청 도착률(arrival rate)은 콘텐츠(j)의 인기도(pj), 클러스터 내에 저장되어 있는 콘텐츠(j)의 수(Yj), 클러스터의 도착률(λ)을 사용하여 계산될 수 있다. 요청 도착률(arrival rate)은 [수학식 1]에 의해 계산될 수 있다. [수학식 1]의 변수들은 클러스터링 처리 이전 과정에서 받은 요청 기록을 통하여 얻을 수 있다. For this, the core server first calculates a request arrival rate that is changed when the new content j is cached in the edge server i. Here, the request arrival rate may be calculated using the popularity (p j ) of the content (j), the number of contents (j) stored in the cluster (Y j ), and the arrival rate of the cluster (λ). The request arrival rate can be calculated by [Equation 1]. The variables in [Equation 1] can be obtained through the request record received in the process prior to the clustering process.

Figure 112020128950797-pat00006
Figure 112020128950797-pat00006

또한, 코어 서버는 콘텐츠의 크기(bj), 사용자 단말기와 에지 서버 사이의 대역폭(ri), 에지 서버에서의 콘텐츠의 도착률(wi,j)을 사용하여 에지 서버(i)의 전체 서비스 시간(total service time)를 계산한다. 여기서, 서비스 시간(total service time)은 [수학식 2]를 통해 계산될 수 있다. In addition, the core server uses the size of the content (b j ), the bandwidth between the user terminal and the edge server (r i ), and the arrival rate of the content at the edge server (w i, j ) to provide the entire service of the edge server (i). Calculate the total service time. Here, the total service time may be calculated through [Equation 2].

Figure 112020128950797-pat00007
Figure 112020128950797-pat00007

마지막으로, 코어 서버는 [수학식 1]에서 유도된 변경된 도착률을 통해 변경된 후의 도착률(

Figure 112020128950797-pat00008
)을 얻을 수 있으며, 변경된 후의 도착률(
Figure 112020128950797-pat00009
)와 [수학식 2]를 사용하여 콘텐츠 복제본이 클러스터에 하나 추가되었을 때 변화되는 대기시간(waiting time,
Figure 112020128950797-pat00010
)을 산출할 수 있다. 여기서, 코어 서버는 [수학식 3]을 통해 변화되는 대기시간(
Figure 112020128950797-pat00011
)을 산출할 수 있다. Finally, the core server uses the changed arrival rate derived from [Equation 1], and the arrival rate after the change (
Figure 112020128950797-pat00008
), and the arrival rate after the change (
Figure 112020128950797-pat00009
) And [Equation 2] to change the waiting time when one content replica is added to the cluster.
Figure 112020128950797-pat00010
) Can be calculated. Here, the core server is the waiting time changed through [Equation 3] (
Figure 112020128950797-pat00011
) Can be calculated.

Figure 112020128950797-pat00012
Figure 112020128950797-pat00012

[수학식 3]에서 λi는 변경 되기 전의 도착률을 의미한다. In [Equation 3], λ i means the arrival rate before change.

코어 서버는 [수학식 3]을 통해 얻은 변화되는 대기시간을 통하여, 대기시간의 변화가 가장 클 때의 콘텐츠(j)와 에지 서버(i)를 선택하여 캐싱을 수행한다. The core server performs caching by selecting the content (j) and the edge server (i) when the change of the waiting time is the greatest through the changed waiting time obtained through [Equation 3].

코어 서버는 [수학식 3]의 수식을 바탕으로, 캐싱 과정을 수행한다. The core server performs a caching process based on the equation of [Equation 3].

우선 코어 서버는 모든 에지 서버(i)와 콘텐츠(j)에 대하여, 콘텐츠(j)를 에지 서버(i)에 저장했을 때의 각 에지 서버(i)들의 변화되는 대기시간(

Figure 112020128950797-pat00013
)들을 산출하고, 이에 따른 클러스터의 평균 대기시간(Tw)을 산출한다. First, for all the edge servers (i) and content (j), the core server has the varying latency of each edge server (i) when the content (j) is stored in the edge server (i) (
Figure 112020128950797-pat00013
) Are calculated, and the average waiting time (T w ) of the cluster is calculated accordingly.

이때, 코어 서버는 가장 낮은 평균 대기시간(Tw)을 유도하는 에지 서버(i) 및 콘텐츠(j)를 선택한 후에, 에지 서버(i)에 콘텐츠(j)를 저장할 수 있을 만큼의 공간이 있는지 여부를 확인한다. At this time, the core server selects the edge server (i) and content (j) that induces the lowest average latency (T w ), and then checks whether the edge server (i) has enough space to store the content (j). Check whether or not.

코어 서버는 에지 서버(i)에 콘텐츠(j)를 저장할 수 있을 만큼의 공간이 있을 경우 콘텐츠(j)를 에지 서버(i)에 저장한다. 코어 서버는 만약 에지 서버(i)에 콘텐츠(j)를 저장할 공간이 없을 경우, 차선의 다른 에지 서버 및 콘텐츠(j)의 조합을 선택한다. 차선의 다른 에지 서버는 클러스터 내에서 에지 서버(i) 다음으로 가장 낮은 평균 대기시간(Tw)을 유도하는 에지 서버일 수 있다. The core server stores the content j in the edge server i when there is enough space to store the content j in the edge server i. If there is no space to store the content j on the edge server i, the core server selects the next best combination of the edge server and content j. The second-best edge server may be an edge server that induces the lowest average latency (T w ) after the edge server (i) in the cluster.

만약, 코어 서버는 모든 조합에 대해서 콘텐츠(j)를 에지 서버에 저장할 수 없을 경우, 캐싱 과정을 중단한다. 즉, 코어 서버는 클러스터 내의 모든 에지 서버의 저장 공간으로 인해 캐싱이 중단될 때까지 최선의 에지 서버(i) 및 콘텐츠(j)의 조합을 선택하여 캐싱을 수행한다.If the core server cannot store the contents j in the edge server for all combinations, the caching process is stopped. That is, the core server performs caching by selecting the best combination of the edge server (i) and content (j) until caching is stopped due to the storage space of all edge servers in the cluster.

도 3은 본 발명의 실시예에 따른 클러스터링 처리 동작을 설명하기 위한 도면이다.3 is a diagram for explaining a clustering processing operation according to an embodiment of the present invention.

도 3을 참고하면, 코어 서버(100)는 에지 서버(110)들로부터 에지 서버(110)와 사용자 단말기(120)들 간의 지연시간(Thit)의 정보를 받고 이를 기반으로 클러스터링을 수행한다. Referring to FIG. 3, the core server 100 receives information of a delay time (T hit ) between the edge server 110 and the user terminals 120 from the edge servers 110 and performs clustering based on the information.

코어 서버(100)는 클러스터링 과정 시 하나의 에지 서버(120)를 선택하여 클러스터(310)를 생성한 후 클러스터에 1-hop으로 연결된 에지 서버 중 Thit + tcl < Tmiss 를 만족하는 에지 서버(120)들을 클러스터(310)에 추가한다. During the clustering process, the core server 100 selects one edge server 120 to create the cluster 310, and then the edge server that satisfies T hit + t cl < T miss among the edge servers connected to the cluster by 1-hop. Add 120 to the cluster 310.

만약, 코어 서버(100)는 만족되는 에지 서버가 없을 경우 하나의 에지 서버를 선택하는 과정으로 돌아가 다른 에지 서버를 선택하고, 선택된 다른 에지 서버들을 클러스터(310)에 추가하는 동작을 반복하여 수행한다. If there is no edge server satisfied, the core server 100 returns to the process of selecting one edge server, selects another edge server, and repeats the operation of adding the selected other edge servers to the cluster 310. .

도 4는 본 발명의 실시예에 따른 협력 에지 처리 방법의 클러스터링 동작을 설명하기 위한 순서도이다.4 is a flowchart illustrating a clustering operation of a cooperative edge processing method according to an embodiment of the present invention.

코어 서버(100)는 자신의 지역에 속하는 에지 서버 중 하나를 선택하여 클러스터(v)를 생성한다(S410).The core server 100 creates a cluster (v) by selecting one of the edge servers belonging to its region (S410).

코어 서버(100)는 그 다음 선택된 에지 서버와 한 개의 홉(hop)으로 연결된 에지 서버(i)를 선택한다(S420).The core server 100 then selects the edge server i connected to the selected edge server by one hop (S420).

코어 서버(100)는 에지 서버(i)가 다른 클러스터에 속하지 않는지 여부를 확인한다(S430).The core server 100 checks whether the edge server i does not belong to another cluster (S430).

코어 서버(100)는 에지 서버(i)가 다른 클러스터에 속하지 않으면, 캐시 미스가 발생하여 클라우드로부터 콘텐츠를 받아왔을 때의 전송 지연 시간과 캐시 히트 되었을 때의 지연 시간을 비교하여 일정 시간 tcl 만큼의 차이가 발생하는지 여부를 확인한다(S440, S450).If the edge server (i) does not belong to another cluster, the core server 100 compares the transmission delay time when the content is received from the cloud due to a cache miss and the delay time when the cache hits, and a predetermined time t cl It is checked whether there is a difference by as much as (S440, S450).

코어 서버(100)는 캐시 미스가 발생하여 클라우드로부터 콘텐츠를 받아왔을 때의 전송 지연 시간과 캐시 히트 되었을 때의 지연 시간을 비교하여 일정 시간 tcl만큼의 차이가 발생하였을 때만 에지 서버(i)를 클러스터(v)에 추가한다(S460).The core server 100 compares the transmission delay time when the content is received from the cloud due to a cache miss and the delay time when the cache hits, and only when a difference by a certain amount of time t cl occurs. It is added to the cluster (v) (S460).

코어 서버(100)는 클러스터에 추가되는 에지 서버가 없을 때까지 단계 S420 내지 S460을 반복하여 수행한다(S470). The core server 100 repeats steps S420 to S460 until there is no edge server added to the cluster (S470).

도 4에서는 각 단계를 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 4에 기재된 단계를 변경하여 실행하거나 하나 이상의 단계를 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 4는 시계열적인 순서로 한정되는 것은 아니다.In FIG. 4, it is described that each step is sequentially executed, but is not limited thereto. In other words, since it may be applicable to changing and executing the steps illustrated in FIG. 4 or executing one or more steps in parallel, FIG. 4 is not limited to a time-series order.

도 4에 기재된 본 실시예에 따른 협력 에지 처리 방법은 애플리케이션(또는 프로그램)으로 구현되고 단말장치(또는 컴퓨터)로 읽을 수 있는 기록매체에 기록될 수 있다. 본 실시예에 따른 협력 에지 처리 방법을 구현하기 위한 애플리케이션(또는 프로그램)이 기록되고 단말장치(또는 컴퓨터)가 읽을 수 있는 기록매체는 컴퓨팅 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치 또는 매체를 포함한다.The cooperative edge processing method according to the present embodiment illustrated in FIG. 4 may be implemented as an application (or program) and recorded on a recording medium that can be read by a terminal device (or computer). An application (or program) for implementing the cooperative edge processing method according to the present embodiment is recorded, and the recording medium that can be read by the terminal device (or computer) is all types of recording devices that store data that can be read by the computing system. Or media.

도 5는 본 발명의 실시예에 따른 캐싱 처리 동작을 설명하기 위한 도면이다.5 is a diagram for explaining a caching processing operation according to an embodiment of the present invention.

도 5을 참고하면, 각 에지 서버(110)는 사용자 단말기(120)로부터 자신들에게 들어온 캐싱 요청에 대한 캐싱 기록(Cache History)을 가지고 있다. 캐싱 기록에는 어떠한 데이터가 얼마나 요청되어 있는지 등에 대한 정보가 포함되어 있다. Referring to FIG. 5, each edge server 110 has a caching record (Cache History) of a caching request received from the user terminal 120 to them. The caching record contains information about what data is requested and how much.

코어 서버(100)는 각 에지 서버(110)로부터 캐싱 기록을 받아 각 에지 서버의 요청 도착률(λi), 서비스 시간 (

Figure 112020128950797-pat00014
), 데이터의 인기도 등을 계산할 수 있다. 이 때, 코어 서버(100)는
Figure 112020128950797-pat00015
를 이용하여 콘텐츠(j)에 대한 인기도를 계산할 수 있다. The core server 100 receives the caching record from each edge server 110 and receives the request arrival rate (λ i ) of each edge server, and the service time (
Figure 112020128950797-pat00014
), the popularity of the data, etc. can be calculated. At this time, the core server 100
Figure 112020128950797-pat00015
The popularity of the content j can be calculated using.

코어 서버(100)는 계산된 도착률과, 서비스 시간, 인기도 등을 이용하여 [수학식 1] 및 [수학식 2]를 유도할 수 있으며, 최종적으로 [수학식 3]을 유도하여 [수학식 3]의 결과값(변화되는 대기시간)이 가장 클 때의 에지 서버(i) 및 콘텐츠(j)를 선택하여 캐싱을 수행한다.The core server 100 can derive [Equation 1] and [Equation 2] using the calculated arrival rate, service time, and popularity, and finally derive [Equation 3] to [Equation 3]. ], the edge server (i) and content (j) are selected and caching is performed when the result value (changing waiting time) is the largest.

도 6은 본 발명의 실시예에 따른 협력 에지 처리 방법의 캐싱 동작을 설명하기 위한 순서도이다.6 is a flowchart illustrating a caching operation of a cooperative edge processing method according to an embodiment of the present invention.

코어 서버(100)는 모든 에지 서버(i)와 콘텐츠(j)에 대하여, 콘텐츠(j)를 에지 서버(i)에 저장했을 때의 각 에지 서버(i)들의 변화되는 대기시간(

Figure 112020128950797-pat00016
)들을 산출한다(S610).The core server 100 for all of the edge servers (i) and content (j), when the content (j) is stored in the edge server (i), the varying latency of each edge server (i) (
Figure 112020128950797-pat00016
) Are calculated (S610).

코어 서버(100)는 각 에지 서버(i)들의 변화되는 대기시간(

Figure 112020128950797-pat00017
)들을 기반으로 클러스터의 평균 대기시간(Tw)을 산출하고, 가장 낮은 평균 대기시간(Tw)을 유도하는 에지 서버(i) 및 콘텐츠(j)를 선택한다(S620).The core server 100 has the varying latency of each edge server (i) (
Figure 112020128950797-pat00017
), the average waiting time (T w ) of the cluster is calculated, and the edge server (i) and the content (j) that induce the lowest average waiting time (T w) are selected (S620).

코어 서버(100)는 에지 서버(i)에 콘텐츠(j)를 저장할 수 있을 만큼의 공간이 있는지 여부를 확인한다(S630). The core server 100 checks whether there is enough space in the edge server i to store the content j (S630).

코어 서버(100)는 에지 서버(i)에 콘텐츠(j)를 저장할 수 있을 만큼의 공간이 있을 경우 콘텐츠(j)를 에지 서버(i)에 저장하여 캐싱을 수행한다(S640).If there is enough space in the edge server i to store the content j, the core server 100 stores the content j in the edge server i and performs caching (S640).

코어 서버(100)는 에지 서버(i)에 콘텐츠(j)를 저장할 공간이 없을 경우, 차선의 다른 에지 서버 및 콘텐츠(j)의 조합을 선택하거나, 모든 조합에 대해서 콘텐츠(j)를 에지 서버에 저장할 수 없을 경우, 캐싱 과정을 중단한다(S650).If there is no space to store the content (j) in the edge server (i), the core server 100 selects a combination of another edge server and the content (j) of the next best position, or selects the content (j) for all combinations. If it is not possible to store in, the caching process is stopped (S650).

도 6에서는 각 단계를 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 6에 기재된 단계를 변경하여 실행하거나 하나 이상의 단계를 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 6은 시계열적인 순서로 한정되는 것은 아니다.In FIG. 6, it is described that each step is sequentially executed, but is not limited thereto. In other words, since it is possible to change and execute the steps illustrated in FIG. 6 or execute one or more steps in parallel, FIG. 6 is not limited to a time-series order.

도 6에 기재된 본 실시예에 따른 협력 에지 처리 방법은 애플리케이션(또는 프로그램)으로 구현되고 단말장치(또는 컴퓨터)로 읽을 수 있는 기록매체에 기록될 수 있다. 본 실시예에 따른 협력 에지 처리 방법을 구현하기 위한 애플리케이션(또는 프로그램)이 기록되고 단말장치(또는 컴퓨터)가 읽을 수 있는 기록매체는 컴퓨팅 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치 또는 매체를 포함한다.The cooperative edge processing method according to the present embodiment illustrated in FIG. 6 may be implemented as an application (or program) and recorded on a recording medium that can be read by a terminal device (or computer). An application (or program) for implementing the cooperative edge processing method according to the present embodiment is recorded, and the recording medium that can be read by the terminal device (or computer) is all types of recording devices that store data that can be read by the computing system. Or media.

도 7은 본 발명의 실시예에 따른 협력 에지 처리에 따른 콘텐츠 전송 시간을 나타낸 예시도이다.7 is an exemplary diagram showing a content transmission time according to cooperative edge processing according to an embodiment of the present invention.

본 발명에 따른 협력 에지 캐싱 네트워크 시스템(10)에서 제안한 에지 서버 클러스터링과 변화되는 대기시간에 따른 콘텐츠 캐싱 방법 효과를 확인하기 위하여 보이기 위하여 시뮬레이션을 수행하였고 그 결과로 대조군으로 사용된 콘텐츠를 하나의 에지 서버에 저장하는 캐싱 보다 콘텐츠 전송 지연 시간이 줄어드는 것을 확인하였다. Simulation was performed to show the effect of the content caching method according to the edge server clustering and the varying waiting time proposed by the cooperative edge caching network system 10 according to the present invention. It was confirmed that the delay time for content transmission was reduced compared to caching stored in the server.

협력 에지 캐싱 네트워크 시스템(10)에서 제안한 협력 캐싱 알고리즘을 통해 대기시간을 최소화하는 콘텐츠 캐싱 방법을 평가하기 위하여 에지 서버에 도착하는 초당 캐싱 요청 횟수(λ)를 달리하여 콘텐츠 전송 지연 시간을 측정하였다. In order to evaluate a content caching method that minimizes latency through the cooperative caching algorithm proposed by the cooperative edge caching network system 10, the content transmission delay time was measured by varying the number of caching requests per second (λ) arriving at the edge server.

도 7은 캐싱 요청 횟수에 따른 각 알고리즘 별 콘텐츠 전송지연 시간을 나타낸 것이다. 7 shows the content transmission delay time for each algorithm according to the number of caching requests.

종래의 original로 표기한 알고리즘에 비하여 본 발명에서 제안한 proposed로 표기한 알고리즘을 사용했을 때 모든 구간에서 더 낮은 콘텐츠 전송 지연시간을 보여주는 것을 확인할 수 있다. Compared to the conventional algorithm marked as original, it can be seen that when the algorithm marked as proposed in the present invention is used, a lower content transmission delay time is shown in all sections.

도 7에서는 추가적으로 지프(Zipf) 변수의 정도를 0.3(도 7의 (a)), 0.7(도 7의 (b)), 1.0(도 7의 (c))으로 다르게 주어지는 상황에서 지연 시간을 비교하였다. 도 7의 결과에서 지프(zipf) 변수가 증가함에 따라 캐싱 콘텐츠 전송 시간은 증가하며 모든 지프(zipf) 변수 변화 구간에서 제안한 기술이 종래 기술보다 낮은 콘텐츠 전송 시간으로 콘텐츠를 전송하는 것을 확인할 수 있다. In FIG. 7, the delay time is compared in situations where the degree of the Zipf variable is additionally given differently as 0.3 (Fig. 7 (a)), 0.7 (Fig. 7 (b)), and 1.0 (Fig. 7 (c)). I did. In the result of FIG. 7, as the zipf variable increases, the caching content transmission time increases, and it can be seen that the proposed technology transmits the content at a lower content transmission time than the prior art in all zipf variable change intervals.

이상의 설명은 본 발명의 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 실시예들은 본 발명의 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the embodiments of the present invention, and those of ordinary skill in the technical field to which the embodiments of the present invention belong to, various modifications and modifications without departing from the essential characteristics of the embodiments of the present invention. Transformation will be possible. Accordingly, the embodiments of the present invention are not intended to limit the technical idea of the embodiment of the present invention, but to explain the technical idea, and the scope of the technical idea of the embodiment of the present invention is not limited by these embodiments. The scope of protection of the embodiments of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the rights of the embodiments of the present invention.

10: 협력 에지 캐싱 네트워크 시스템
100: 코어 서버 110: 에지 서버
120: 사용자 단말기
200: 협력 에지 처리장치
210: 정보 획득부 220: 클러스터링 처리부
230: 캐싱 처리부
10: cooperative edge caching network system
100: core server 110: edge server
120: user terminal
200: cooperative edge processing device
210: information acquisition unit 220: clustering processing unit
230: caching processing unit

Claims (11)

코어 서버에서 협력 에지를 캐싱하는 방법에 있어서,
에지 서버로부터 요청 기록 정보를 획득하는 정보 획득 단계;
상기 요청 기록 정보를 기반으로 적어도 하나의 에지 서버를 포함하는 적어도 하나의 클러스터를 생성하는 클러스터링 처리 단계; 및
상기 요청 기록 정보를 기반으로 기 설정된 기준 이상의 캐싱 요청이 발생하는 콘텐츠를 적어도 하나의 에지 서버에 저장되도록 캐싱 처리를 수행하는 캐싱 처리 단계
를 포함하는 것을 특징으로 하는 협력 에지 캐싱 방법.
In the method of caching the cooperating edge in the core server,
An information acquisition step of obtaining request record information from an edge server;
A clustering processing step of creating at least one cluster including at least one edge server based on the request record information; And
A caching processing step of performing a caching process so that content in which a caching request exceeding a preset criterion occurs based on the request record information is stored in at least one edge server
Collaborative edge caching method comprising a.
제1항에 있어서,
상기 클러스터링 처리 단계는,
복수의 에지 서버 중 하나의 제1 에지 서버를 선택하여 클러스터를 생성하는 제1 에지 서버 선택 단계;
상기 제1 에지 서버와 연결된 제2 에지 서버를 선택하는 제2 에지 서버 선택단계; 및
상기 제2 에지 서버를 기 설정된 클러스터 추가 조건과 비교하고, 상기 클러스터 추가 조건을 만족하는 경우 상기 제2 에지 서버를 상기 클러스터에 추가하는 클러스터 추가 단계
를 포함하는 것을 특징으로 하는 협력 에지 캐싱 방법.
The method of claim 1,
The clustering processing step,
A first edge server selection step of selecting one of a plurality of edge servers to create a cluster;
A second edge server selection step of selecting a second edge server connected to the first edge server; And
Cluster adding step of comparing the second edge server with a preset cluster addition condition, and adding the second edge server to the cluster when the cluster addition condition is satisfied
Collaborative edge caching method comprising a.
제2항에 있어서,
상기 제2 에지 서버 선택단계는,
상기 제1 에지 서버와 연결된 복수의 에지 서버 중 상기 제1 에지 서버와 한 개의 홉(Hop)으로 연결된 상기 제2 에지 서버를 선택하는 것을 특징으로 하는 협력 에지 캐싱 방법.
The method of claim 2,
The second edge server selection step,
Collaborative edge caching method, characterized in that selecting the second edge server connected to the first edge server and one hop from among a plurality of edge servers connected to the first edge server.
제2항에 있어서,
상기 클러스터 추가 단계는,
상기 제2 에지 서버가 다른 클러스터에 속하지 않아야 한다는 제1 조건 및 상기 제2 에지 서버에 캐시 히트(hit) 되었을 때의 시간이 캐시 미스(miss) 되었을 때의 시간보다 기 설정된 일정 시간(tcl) 만큼의 차이가 발생하여야 한다는 제2 조건을 포함하는 상기 클러스터 추가 조건을 만족하는 경우에만 상기 제2 에지 서버를 상기 클러스터에 추가하는 것을 특징으로 하는 협력 에지 캐싱 방법.
The method of claim 2,
The cluster addition step,
The first condition that the second edge server does not belong to another cluster and a predetermined time (t cl ) when the time when a cache hit is made to the second edge server is a time when a cache miss occurs (t cl) And adding the second edge server to the cluster only when the cluster addition condition including a second condition that a difference must occur by as much as is satisfied.
제4항에 있어서,
상기 클러스터링 처리 단계는,
상기 복수의 에지 서버 각각이 소정의 클러스터에 속하게 될 때까지 상기 제1 에지 서버 선택 단계, 상기 제2 에지 서버 선택단계 및 상기 클러스터 추가 단계를 반복하여 수행하는 것을 특징으로 하는 협력 에지 캐싱 방법.
The method of claim 4,
The clustering processing step,
The cooperative edge caching method, characterized in that repeatedly performing the first edge server selection step, the second edge server selection step, and the cluster addition step until each of the plurality of edge servers belongs to a predetermined cluster.
제1항에 있어서,
상기 캐싱 처리 단계는,
복수의 에지 서버 각각에 대하여 상기 콘텐츠를 저장했을 때의 변화되는 변화 대기시간(
Figure 112020128950797-pat00018
)을 산출하는 변화 대기시간 산출 단계;
복수의 에지 서버 각각에 대한 상기 변화 대기시간을 기반으로 클러스터 각각의 평균 대기시간(Tw)을 산출하는 평균 대기시간 산출 단계;
상기 클러스터 중 가장 낮은 평균 대기시간(Tw)의 클러스터를 선택하고, 상기 클러스터 내에 포함된 복수의 에지 서버 중 하나의 에지 서버에 상기 콘텐츠의 조합을 선정하여 상기 콘텐츠가 저장되도록 캐싱을 수행하는 캐싱 수행 단계
를 포함하는 것을 특징으로 하는 협력 에지 캐싱 방법.
The method of claim 1,
The caching processing step,
Change waiting time when the above content is stored for each of the plurality of edge servers (
Figure 112020128950797-pat00018
A change waiting time calculation step of calculating );
An average waiting time calculation step of calculating an average waiting time (T w ) of each cluster based on the change waiting time for each of a plurality of edge servers;
Caching to perform caching so that the content is stored by selecting a cluster with the lowest average waiting time (T w ) among the clusters, selecting a combination of the content on one edge server among a plurality of edge servers included in the cluster Steps to perform
Collaborative edge caching method comprising a.
제6항에 있어서,
상기 변화 대기시간 산출 단계는,
상기 콘텐츠의 인기도(pj), 클러스터 내에 저장되어 있는 콘텐츠의 수(Yj) 및 클러스터의 도착률(λ)을 사용하여 상기 콘텐츠를 상기 에지 서버에 캐싱하였을 때 변경되는 요청 도착률(arrival rate, Δλi)를 산출하는 단계;
상기 콘텐츠의 크기(bj), 사용자 단말기와 에지 서버 사이의 대역폭(rj), 에지 서버에서의 상기 콘텐츠의 도착률(wi,j)을 사용해 에지 서버의 전체 서비스 시간(total service time)를 산출하는 단계; 및
변경되는 요청 도착률과 상기 에지 서버의 전체 서비스 시간을 사용하여 상기 변화되는 변화 대기시간(
Figure 112020128950797-pat00019
)을 산출하는 단계
를 포함하는 것을 특징으로 하는 협력 에지 캐싱 방법.
The method of claim 6,
The step of calculating the waiting time for change,
Using the popularity of the content (p j ), the number of contents stored in the cluster (Y j ), and the arrival rate of the cluster (λ), the request arrival rate that is changed when the content is cached in the edge server (Δλ) calculating i );
The total service time of the edge server is calculated using the size of the content (b j ), the bandwidth between the user terminal and the edge server (r j ), and the arrival rate of the content at the edge server (w i,j ). Calculating; And
Using the changed request arrival rate and the total service time of the edge server, the changed waiting time (
Figure 112020128950797-pat00019
Steps to calculate)
Collaborative edge caching method comprising a.
제6항에 있어서,
상기 캐싱 수행 단계는,
상기 에지 서버의 상기 콘텐츠를 캐싱하기 위한 저장 공간을 확인하고, 상기 저장 공간이 있는 경우 상기 콘텐츠를 저장하되,
상기 저장공간으로 인해 상기 콘텐츠를 저장할 수 없는 경우, 상기 클러스터 내에서 상기 에지 서버 다음으로 상기 대기 시간이 낮은 다른 에지 서버와 상기 콘텐츠를 조합하여 상기 콘텐츠가 상기 다른 에지 서버에 저장되도록 캐싱을 수행하는 것을 특징으로 하는 협력 에지 캐싱 방법.
The method of claim 6,
The step of performing the caching,
Check the storage space for caching the content of the edge server, and if there is the storage space, store the content,
When the content cannot be stored due to the storage space, caching is performed so that the content is stored in the other edge server by combining the content with another edge server having a lower waiting time after the edge server in the cluster. Collaborative edge caching method, characterized in that.
협력 에지 캐싱 네트워크에서 복수의 에지 서버와 연동하는 코어 서버에 있어서,
에지 서버로부터 요청 기록 정보를 획득하는 정보 획득부;
상기 요청 기록 정보를 기반으로 적어도 하나의 에지 서버를 포함하는 적어도 하나의 클러스터를 생성하는 클러스터링 처리부; 및
상기 요청 기록 정보를 기반으로 기 설정된 기준 이상의 캐싱 요청이 발생하는 콘텐츠를 적어도 하나의 에지 서버에 저장되도록 캐싱 처리를 수행하는 캐싱 처리부
를 포함하는 것을 특징으로 하는 코어 서버.
In a core server interworking with a plurality of edge servers in a cooperative edge caching network,
An information acquisition unit that acquires request record information from an edge server;
A clustering processor for generating at least one cluster including at least one edge server based on the request record information; And
A caching processing unit that performs caching so that content in which a caching request exceeding a preset criterion occurs based on the request record information is stored in at least one edge server.
Core server comprising a.
제9항에 있어서,
상기 클러스터링 처리부는,
복수의 에지 서버 중 하나의 제1 에지 서버를 선택하여 클러스터를 생성하고, 상기 제1 에지 서버와 연결된 제2 에지 서버를 선택하며,
상기 제2 에지 서버를 기 설정된 클러스터 추가 조건과 비교하고, 상기 클러스터 추가 조건을 만족하는 경우 상기 제2 에지 서버를 상기 클러스터에 추가하는 것을 특징으로 하는 코어 서버.
The method of claim 9,
The clustering processing unit,
Selecting one of the plurality of edge servers to create a cluster, and selecting a second edge server connected to the first edge server,
And comparing the second edge server with a preset cluster addition condition, and adding the second edge server to the cluster when the cluster addition condition is satisfied.
제9항에 있어서,
상기 캐싱 처리부는,
복수의 에지 서버 각각에 대하여 상기 콘텐츠를 저장했을 때의 변화되는 변화 대기시간(
Figure 112020128950797-pat00020
)을 산출하고, 복수의 에지 서버 각각에 대한 상기 변화 대기시간을 기반으로 클러스터 각각의 평균 대기시간(Tw)을 산출하며,
상기 클러스터 중 가장 낮은 평균 대기시간(Tw)의 클러스터를 선택하고, 상기 클러스터 내에 포함된 복수의 에지 서버 중 하나의 에지 서버에 상기 콘텐츠의 조합을 선정하여 상기 콘텐츠가 저장되도록 캐싱을 수행하는 것을 특징으로 하는 코어 서버.
The method of claim 9,
The caching processing unit,
Change waiting time when the above content is stored for each of the plurality of edge servers
Figure 112020128950797-pat00020
), and calculates the average waiting time (T w ) of each cluster based on the change waiting time for each of the plurality of edge servers,
Selecting a cluster with the lowest average waiting time (T w ) among the clusters, selecting a combination of the contents in one of a plurality of edge servers included in the cluster, and performing caching so that the contents are stored. Core server characterized by.
KR1020200163933A 2020-11-30 2020-11-30 Method and Apparatus for Cooperative Edge Caching in IoT Environment KR102235622B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200163933A KR102235622B1 (en) 2020-11-30 2020-11-30 Method and Apparatus for Cooperative Edge Caching in IoT Environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200163933A KR102235622B1 (en) 2020-11-30 2020-11-30 Method and Apparatus for Cooperative Edge Caching in IoT Environment

Publications (1)

Publication Number Publication Date
KR102235622B1 true KR102235622B1 (en) 2021-04-01

Family

ID=75441677

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200163933A KR102235622B1 (en) 2020-11-30 2020-11-30 Method and Apparatus for Cooperative Edge Caching in IoT Environment

Country Status (1)

Country Link
KR (1) KR102235622B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11949754B1 (en) 2022-10-13 2024-04-02 Foundation Of Soongsil University-Industry Cooperation Content caching optimization system and method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110002808A (en) * 2009-07-02 2011-01-10 (주)에임투지 Cooperative cache method and contents providing method and using request proportion apparatus
KR101529602B1 (en) * 2013-01-07 2015-06-18 한국과학기술원 Cache server, system for providing of the content and method forreplacement of the content
KR101546199B1 (en) * 2014-12-09 2015-08-21 연세대학교 산학협력단 Cooperative Caching Method on Contents Delivery Network, Content Service Server and Caching Server
KR101924165B1 (en) * 2016-12-26 2018-12-03 한국과학기술원 Efficient Content Replacement Controller in Cooperative Caching Systems and method thereof
KR102161161B1 (en) * 2015-09-11 2020-09-29 아마존 테크놀로지스, 인크. System, method and computer-readable storage medium for customizable event-triggered computation at edge locations

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110002808A (en) * 2009-07-02 2011-01-10 (주)에임투지 Cooperative cache method and contents providing method and using request proportion apparatus
KR101529602B1 (en) * 2013-01-07 2015-06-18 한국과학기술원 Cache server, system for providing of the content and method forreplacement of the content
KR101546199B1 (en) * 2014-12-09 2015-08-21 연세대학교 산학협력단 Cooperative Caching Method on Contents Delivery Network, Content Service Server and Caching Server
KR102161161B1 (en) * 2015-09-11 2020-09-29 아마존 테크놀로지스, 인크. System, method and computer-readable storage medium for customizable event-triggered computation at edge locations
KR101924165B1 (en) * 2016-12-26 2018-12-03 한국과학기술원 Efficient Content Replacement Controller in Cooperative Caching Systems and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11949754B1 (en) 2022-10-13 2024-04-02 Foundation Of Soongsil University-Industry Cooperation Content caching optimization system and method

Similar Documents

Publication Publication Date Title
EP2704402B1 (en) Method and node for distributing electronic content in a content distribution network
EP2791815B1 (en) Application-driven cdn pre-caching
CN101860550B (en) Streaming media system accelerating method based on router cache
US9967361B2 (en) Physical location influenced caching
CN109600437B (en) Downloading method of streaming media resource and cache server
KR100734629B1 (en) Fractional caching method and adaptive content transmission method using the same
CN109905480B (en) Probabilistic cache content placement method based on content centrality
RU2571732C2 (en) Control device and method of controlling network streaming of video data to network user device
EP3456029B1 (en) Network node and method of receiving an http-message
JP2011525312A (en) Method and apparatus for prefetching data in a mobile network environment using edge data storage
WO2012072049A1 (en) Method and device for cooperating cache
WO2017025052A1 (en) Resource caching method and device
CN107197359B (en) Video file caching method and device
CN110809167B (en) Video playing method and device, electronic equipment and storage medium
US9521064B2 (en) Cooperative caching method and apparatus for mobile communication system
CN108541025B (en) Wireless heterogeneous network-oriented base station and D2D common caching method
JP2003085032A (en) Self-organizing cache method and cache server capable of utilizing the method
KR102235622B1 (en) Method and Apparatus for Cooperative Edge Caching in IoT Environment
CN112672227B (en) Service processing method, device, node and storage medium based on edge node
EP3274844B1 (en) Hierarchical cost based caching for online media
JP5192506B2 (en) File cache management method, apparatus, and program
CN113382053B (en) Content active pushing method based on node semi-local centrality and content popularity
WO2017097368A1 (en) System and method for efficient caching in the access network
CN110012071B (en) Caching method and device for Internet of things
CN109361928B (en) Information center network system and video transmission method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant