KR20180077905A - Hybrid Content Caching Method and System - Google Patents

Hybrid Content Caching Method and System Download PDF

Info

Publication number
KR20180077905A
KR20180077905A KR1020160182766A KR20160182766A KR20180077905A KR 20180077905 A KR20180077905 A KR 20180077905A KR 1020160182766 A KR1020160182766 A KR 1020160182766A KR 20160182766 A KR20160182766 A KR 20160182766A KR 20180077905 A KR20180077905 A KR 20180077905A
Authority
KR
South Korea
Prior art keywords
content
caching
data
contents
cached
Prior art date
Application number
KR1020160182766A
Other languages
Korean (ko)
Other versions
KR101885144B1 (en
Inventor
정송
김영진
곽정호
이동훈
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020160182766A priority Critical patent/KR101885144B1/en
Publication of KR20180077905A publication Critical patent/KR20180077905A/en
Application granted granted Critical
Publication of KR101885144B1 publication Critical patent/KR101885144B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/568Storing data temporarily at an intermediate stage, e.g. caching
    • H04L67/2842
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L49/00Packet switching elements
    • H04L49/30Peripheral units, e.g. input or output ports
    • H04L49/3045Virtual queuing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/10Flow control between communication endpoints
    • H04W28/14Flow control between communication endpoints using intermediate storage

Abstract

According to an embodiment of the present invention, provided are a hybrid content caching method and system, capable of effectively using a limited caching capacity resource in order to reduce end-to-end service time delay in a hierarchical cellular network including a plurality of user terminals, a plurality of base stations, a plurality of cloud units, and a plurality of content servers. The hybrid content caching method includes a content request receiving step, a virtual que generating step, a caching target calculating step, and a caching target deciding step.

Description

하이브리드 콘텐츠 캐싱 방법 및 시스템{Hybrid Content Caching Method and System}[0001] Hybrid Content Caching Method and System [

본 발명의 일 실시예는 하이브리드 콘텐츠 캐싱 방법 및 시스템에 관한 것이다.One embodiment of the present invention relates to a hybrid content caching method and system.

이하에 기술되는 내용은 단순히 본 발명에 따른 일 실시예와 관련되는 배경 정보만을 제공할 뿐 종래기술을 구성하는 것이 아니다.The following description merely provides background information related to an embodiment of the present invention and does not constitute the prior art.

최근, 다양한 스마트 기기의 보급, 사물통신(Internet of Things)의 폭발적인 성장, 증강 현실(augmented reality) 및 홀로그램(hologram) 등의 등장으로 인해 모바일 트래픽이 폭증하고 있다. 이에 따라, 코어 네트워크(core network)와 연결되는 백홀(backhaul) 및 엣지 네트워크(edge network)와 연결되는 프론트홀(fronthaul)에서의 과부하 문제가 심각한 문제로 대두되고 있다.Recently, mobile traffic is increasing due to the spread of various smart devices, explosive growth of the Internet of Things, augmented reality and hologram. Accordingly, a problem of overload in a backhaul connected to a core network and a fronthaul connected to an edge network is becoming a serious problem.

캐싱(caching)이란 사용자들이 많이 찾는 콘텐츠를 사용자와 물리적으로 가까운 거리에 저장해 두는 기술로, 콘텐츠 전송에 걸리는 시간지연을 감소시킬 뿐만 아니라, 백홀·프론트홀의 부하를 줄일 수 있는 장점을 지닌다.Caching is a technology that stores contents that users often find at a physical distance from the user. It reduces the time delay for content transmission and reduces the load on the backhaul and front holes.

한편, 과부하 문제를 해결할 수 있는 대책으로 엣지 컴퓨팅·캐싱 및 분산 SON(self-organizing network)과 같은 엣지 중심 네트워크(edge-centric network)와 클라우드 컴퓨팅·캐싱, C-RAN(cloud-RAN; cloud-radio access network) 및 SDN(software defined network)과 같은 클라우드 중심 네트워크(cloud-centric network)의 두 가지 유형의 네트워크가 제안되어 왔다.In order to solve the overload problem, edge-centric network such as edge computing caching and distributed self-organizing network, cloud computing caching, cloud-RAN (cloud-RAN) two types of networks have been proposed: a radio access network (RAN) and a cloud-centric network (SDN).

도 1은 계층적 네트워크에서의 콘텐츠 캐싱 시스템의 개념도이다.1 is a conceptual diagram of a content caching system in a hierarchical network;

캐싱을 사용자와 가까운 쪽인 기지국에 하면, 서비스 시간지연을 더욱 크게 감소시킬 수 있는 장점이 있지만, 이 캐싱은 해당 기지국을 지나는 트래픽에만 적용되기 때문에 소수의 사용자에게만 효과적이다. 캐싱을 사용자와는 상대적으로 먼 클라우드 유닛에 하면, 많은 사용자의 서비스 시간지연을 감소시킬 수는 있지만, 캐싱의 위치가 기지국에서보다는 멀기 때문에 서비스 시간지연의 감소폭은 상대적으로 적다. 즉, 서비스 시간지연과 수혜받는 사용자의 숫자 사이에는 상충하는 부분이 있다.The caching is effective only for a small number of users because the caching is applied only to the traffic passing through the base station. If the caching is performed in a cloud unit relatively far from the user, the service time delay of many users can be reduced, but the decrease in the service time delay is relatively small because the location of the caching is farther from the base station. That is, there is a conflict between the service time delay and the number of beneficiaries.

캐싱의 위치에 따른 상충 관계 때문에, 최근에는 이 두 방식을 유연하게 적용하는 하이브리드 네트워크 운영 방식이 제안되고 있다.Due to the trade-off of the location of caching, a hybrid network operating method that flexibly applies these two methods has recently been proposed.

계층적 구조를 갖는 셀룰러 네트워크(cellular network) 즉, 계층적 셀룰러 네트워크는 네트워크 환경에 맞춰 캐싱 위치를 적응적으로 결정할 수 있다는 장점을 지닌다. 계층적 셀룰러 네트워크에서의 서로 다른 계층에 존재하는 모든 노드가 캐싱 기능을 수행할 수 있지만, 콘텐츠들은 물리적으로 서로 다른 장소에 분포하며, 노드들이 캐싱할 수 있는 콘텐츠 양에는 제한이 있다.A cellular network having a hierarchical structure, that is, a hierarchical cellular network, has an advantage in that a caching position can be adaptively determined according to a network environment. Although all nodes in different layers in a hierarchical cellular network can perform a caching function, the contents are physically distributed in different places, and there is a limit to the amount of content that nodes can cache.

종래의 캐싱 시스템들은 콘텐츠의 인기도(popularity) 정보를 콘텐츠 사업자로부터 획득하여 인기도 정보에 기초하여 캐싱할 콘텐츠를 결정한다. 그러나 기지국과 클라우드 유닛을 연결하는 프론트홀, 클라우드 유닛과 코어 네트워크를 연결하는 백홀 및 기지국과 사용자 사이의 무선 링크 각각의 상태는 시간 및 공간에 따라 동적으로 변화하는 특성을 보인다.Conventional caching systems acquire popularity information of a content from a content provider and determine a content to be cached based on the popularity information. However, the state of each of the wireless links between the base station and the user, the backhaul connecting the cloud unit and the core network, and the base station and the user are dynamically changed according to time and space.

덧붙여, 클라우드 유닛의 캐싱과 기지국의 캐싱은 서로의 캐싱 조건에 영향을 미치기 때문에 인기도 정보에 기초하여 캐싱 조건을 결정하는 것은 더욱 어렵다.In addition, since the caching of the cloud unit and the caching of the base station affect each other's caching conditions, it is more difficult to determine the caching conditions based on the popularity information.

따라서, 네트워크를 통해 실제 전송되는 패킷을 식별하고, 네트워크 환경의 시공간적인 제약사항을 모두 고려하여 최적의 캐싱 조건을 결정할 수 있는 콘텐츠 캐싱 방법 및 시스템이 필요하다.Accordingly, there is a need for a content caching method and system that can identify packets that are actually transmitted over a network, and determine optimal caching conditions in consideration of both time and space constraints of the network environment.

본 발명의 일 실시예는 서비스 지연시간을 감소시키고 백홀 및 프론트홀에서의 트래픽 과부하를 경감할 수 있는 하이브리드 콘텐츠 캐싱 방법 및 시스템을 제공하는 데에 주된 목적이 있다.An embodiment of the present invention provides a hybrid content caching method and system capable of reducing service delay time and alleviating traffic overload in a backhaul and a front hall.

본 발명의 일 실시예에 따르면, 복수의 사용자 단말기, 복수의 기지국, 복수의 클라우드 유닛(cloud unit) 및 복수의 콘텐츠 서버(content server)를 포함하는 계층적 셀룰러 네트워크(hierarchical cellular network)에서 종단간(end-to-end) 시간지연을 감소시키기 위한 시스템을 이용한 캐싱(caching) 방법에 있어서, 상기 복수의 사용자 단말기 중 적어도 하나의 사용자 단말기로부터 요청(request) 신호를 수신하는 과정; 상기 계층적 셀룰러 네트워크에서 송수신되는 데이터 패킷(data packet)의 헤더를 분석하여 상기 요청 신호에 대응되는 콘텐츠를 식별하고, 콘텐츠 별 가상 큐(virtual queue)를 생성하는 가상 큐 생성 과정; 상기 가상 큐에 기초하여, 상기 복수의 클라우드 유닛에 캐싱할 제 1 콘텐츠 집합을 산출하는 캐싱 대상 산출 과정; 및 상기 제 1 콘텐츠 집합에 기초하여, 상기 복수의 기지국에 캐싱할 제 2 콘텐츠 집합을 산출하는 캐싱 대상 확정 과정을 포함하는 것을 특징으로 하는 하이브리드 콘텐츠 캐싱 방법을 제공한다.According to an embodiment of the present invention, there is provided a method for providing end-to-end communication in a hierarchical cellular network including a plurality of user terminals, a plurality of base stations, a plurality of cloud units and a plurality of content servers, A caching method using a system for reducing an end-to-end time delay, the method comprising: receiving a request signal from at least one user terminal of the plurality of user terminals; A virtual queue generation process of analyzing a header of a data packet transmitted and received in the hierarchical cellular network to identify a content corresponding to the request signal and generating a virtual queue for each content; A caching object calculation step of calculating a first set of contents to be cached in the plurality of cloud units based on the virtual queue; And a caching subject determination step of calculating a second set of contents to be cached to the plurality of base stations based on the first set of contents.

본 발명의 일 실시예에 따르면, 각각이 데이터 노드인 복수의 사용자 단말기, 복수의 기지국, 복수의 클라우드 유닛(cloud unit) 및 복수의 콘텐츠 서버(content server)를 포함하는 계층적 이동통신 네트워크(hierarchical mobile network)에서 종단간(end-to-end) 시간지연을 감소시키기 위한 시스템에 있어서, 상기 계층적 이동통신 네트워크에서 송수신되는 콘텐츠 데이터의 일부 또는 전부를 수신하는 데이터 수신부; 상기 콘텐츠 데이터의 헤더를 분석하여 상기 콘텐츠 데이터의 송수신에 관여하는 데이터 노드에서의 데이터량, 전송률 및 전송거리를 식별하는 데이터 식별부; 상기 데이터량, 상기 전송률 및 상기 전송거리에 기초하여 상기 데이터의 송수신에 관여하는 데이터 노드에서의 가상 큐를 생성하는 가상 큐 생성부; 및 상기 가상 큐에 기초하여 캐싱할 대상 콘텐츠를 산출하는 캐싱 대상 산출부를 포함하는 것을 특징으로 하는 하이브리드 콘텐츠 캐싱 시스템을 제공한다.According to an embodiment of the present invention there is provided a hierarchical mobile communication system comprising a plurality of user terminals, each of which is a data node, a plurality of base stations, a plurality of cloud units and a plurality of content servers, A system for reducing an end-to-end time delay in a mobile network, the system comprising: a data receiver for receiving part or all of content data transmitted and received in the hierarchical mobile communication network; A data identification unit for analyzing a header of the content data and identifying a data amount, a transmission rate, and a transmission distance at a data node involved in transmission / reception of the content data; A virtual queue generation unit for generating a virtual queue at a data node involved in transmission / reception of the data based on the data amount, the transmission rate, and the transmission distance; And a caching object calculating unit for calculating a content to be cached based on the virtual queue.

본 발명의 일 실시예에 따르면, 네트워크 환경에 따라 적응적으로 콘텐츠 캐싱을 결정할 수 있는 하이브리드 콘텐츠 캐싱 방법 및 시스템을 제공할 수 있는 효과가 있다.According to an embodiment of the present invention, there is provided an effect of providing a hybrid content caching method and system capable of adaptively determining content caching according to a network environment.

본 발명에 따른 일 실시예의 다른 측면에 의하면, 계층적 셀룰러 네트워크에서 콘텐츠 전송의 종단간(end-to-end) 지연을 감소시킬 수 있는 효과가 있다.According to another aspect of an embodiment of the present invention, there is an effect of reducing the end-to-end delay of content transmission in a hierarchical cellular network.

본 발명에 따른 일 실시예의 또 다른 측면에 의하면, 계층적 셀룰러 네트워크에 포함된 백홀 및 프론트홀에서의 트래픽 과부하를 완화할 수 있는 효과가 있다.According to another aspect of the present invention, there is an effect of mitigating traffic overload in backhaul and front holes included in a hierarchical cellular network.

도 1은 계층적 네트워크에서의 콘텐츠 캐싱 시스템의 개념도이다.
도 2는 본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 시스템을 설명하기 위한 계층적 셀룰러 네트워크 환경을 도시한다.
도 3은 본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 시스템에 적용되는 가상 큐 모델(virtual queue model)을 도시한다.
도 4는 본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 시스템의 개념도이다.
도 5는 본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 방법의 흐름도이다.
도 6a는 본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 방법을 적용하여 계산한 캐싱용량에 대한 평균 가상 큐의 시간평균 길이(average virtual queue backlog)를 나타낸 그래프이다.
도 6b는 본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 방법을 적용하여 계산한 캐싱용량에 대한 백홀 부하 경감 비율(backhaul load reduction ratio)을 나타낸 그래프이다.
도 6c는 본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 방법을 적용하여 계산한 캐싱용량에 대한 프론트홀 부하 경감 비율(fronthaul load reduction ratio)을 나타낸 그래프이다.
도 6d는 본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 방법을 적용하여 계산한 도착 용량(average request arrival)의 변화에 따른 평균 가상 큐의 시간평균 길이(average virtual queue backlog)를 나타낸 그래프이다.
1 is a conceptual diagram of a content caching system in a hierarchical network;
2 illustrates a hierarchical cellular network environment for illustrating a hybrid content caching system in accordance with an embodiment of the present invention.
FIG. 3 illustrates a virtual queue model applied to a hybrid content caching system according to an embodiment of the present invention.
4 is a conceptual diagram of a hybrid content caching system according to an embodiment of the present invention.
5 is a flowchart of a hybrid content caching method according to an embodiment of the present invention.
FIG. 6A is a graph illustrating an average virtual queue backlog for a caching capacity calculated by applying the hybrid content caching method according to an exemplary embodiment of the present invention. Referring to FIG.
6B is a graph illustrating a backhaul load reduction ratio of a caching capacity calculated by applying the hybrid content caching method according to an embodiment of the present invention.
6C is a graph illustrating a front hole load reduction ratio with respect to a caching capacity calculated by applying the hybrid content caching method according to an embodiment of the present invention.
FIG. 6D is a graph illustrating an average virtual queue backlog according to a variation of an average request arrival calculated by applying the hybrid content caching method according to an exemplary embodiment of the present invention. Referring to FIG.

이하, 본 발명의 일 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한 본 발명의 일 실시예를 설명함에 있어서 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 일 실시예의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that, in the drawings, like reference numerals are used to denote like elements in the drawings, even if they are shown in different drawings. In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

본 발명에 따른 실시예의 구성요소를 설명하는 데 있어서 제 1, 제 2, ⅰ), ⅱ), a), b) 등의 부호를 사용할 수 있다. 이러한 부호는 그 구성요소를 다른 구성요소와 구별하기 위한 것일 뿐, 그 부호에 의해 해당 구성요소의 본질 또는 차례 또는 순서 등이 한정되지 않는다. 또한 명세서에서 어떤 부분이 어떤 구성요소를 '포함' 또는 '구비'한다고 할 때, 이는 명시적으로 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.The first, second, i), ii), a), b), etc. may be used in describing the components of the embodiment according to the present invention. Such a code is intended to distinguish the constituent element from other constituent elements, and the nature of the constituent element, the order or the order of the constituent element is not limited by the code. It is also to be understood that when an element is referred to as being "comprising" or "comprising", it should be understood that it does not exclude other elements unless explicitly stated to the contrary, do.

이하, 첨부도면을 참조하여 본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 방법 및 시스템을 설명하면 다음과 같다.Hereinafter, a method and system for hybrid content caching according to an embodiment of the present invention will be described with reference to the accompanying drawings.

도 2는 본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 시스템을 설명하기 위한 계층적 셀룰러 네트워크 환경을 도시한다. 여기에서 '셀룰러'라는 용어를 사용했지만, 이는 '이동통신'을 의미한다.2 illustrates a hierarchical cellular network environment for illustrating a hybrid content caching system in accordance with an embodiment of the present invention. We use the term 'cellular' here, but it means 'mobile communication'.

계층적 셀룰러 네트워크 환경은 복수의 콘텐츠 서버(210), 복수의 클라우드 유닛(220), 복수의 기지국(230) 및 복수의 최종 사용자 단말기(240)를 포함한다.The hierarchical cellular network environment includes a plurality of content servers 210, a plurality of cloud units 220, a plurality of base stations 230, and a plurality of end user terminals 240.

복수의 콘텐츠 서버(210)는 코어 네트워크(core network)를 형성하며, 다양한 장소에 분포하여 캐싱을 적용하기 이전에 콘텐츠 데이터(이하 '콘텐츠 데이터' 및 '콘텐츠'를 혼용)를 저장하고 있는 서버이다.The plurality of content servers 210 form a core network and are servers that store content data (hereinafter referred to as "content data" and "content" mixedly) before distributing at various places and applying caching .

복수의 클라우드 유닛(220)은 엣지 네트워크(edge network)를 형성하는 복수의 기지국(230)을 그룹 단위로 관리하며 네트워크의 상황에 맞춰 콘텐츠를 임시로 저장할 수 있다.The plurality of cloud units 220 manages a plurality of base stations 230 forming an edge network on a group basis and can temporarily store contents according to the situation of the network.

복수의 기지국(230)은 복수의 최종 사용자 단말기(240)의 요청을 수신하고 그 요청에 대응되는 응답을 송신한다.A plurality of base stations 230 receives a request from a plurality of end user terminals 240 and transmits a response corresponding to the request.

통상적으로, 복수의 콘텐츠 서버(210)와 복수의 클라우드 유닛(220) 사이를 연결하는 데이터 전송 경로를 백홀로 정의하고, 복수의 클라우드 유닛(220)과 복수의 기지국(230) 사이를 연결하는 데이터 전송 경로를 프론트홀로 정의한다.Typically, a data transmission path connecting a plurality of content servers 210 and a plurality of cloud units 220 is defined as a backhaul, and data connecting between a plurality of cloud units 220 and a plurality of base stations 230 Defines the transmission path as the front hole.

복수의 클라우드 유닛(220) 또는 복수의 기지국(230)은 네트워크의 상황에 따라 콘텐츠를 저장하여 백홀을 거치지 않고 복수의 최종 사용자 단말기(240)에게 콘텐츠를 전달할 수 있다.The plurality of cloud units 220 or the plurality of base stations 230 may store contents according to the network conditions and deliver the contents to the plurality of end user terminals 240 without going through the backhaul.

콘텐츠 집합 F = {1,...,F}를 가정한다. 여기서, 각 콘텐츠 파일 f의 크기는 s ∈ S이다. 각 콘텐츠 파일은 여러 개의 청크(chunk)로 분할된다. 또한, 콘텐츠 파일은 그 파일에 해당하는 모든 청크가 성공적으로 전송되지 않더라도 목적지에서 복구될 수 있다.Assume the content set F = {1, ..., F}. Here, the size of each content file f is s? S. Each content file is divided into several chunks. Also, the content file can be recovered at the destination even if all chunks corresponding to that file are not successfully transmitted.

도 3은 본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 시스템에 적용되는 가상 큐 모델(virtual queue model)을 도시한다.FIG. 3 illustrates a virtual queue model applied to a hybrid content caching system according to an embodiment of the present invention.

콘텐츠 집합 F에 속하는 개별 콘텐츠 f는 각각 복수의 콘텐츠 서버(210)에 저장되어 있으며, 물리적으로 다양한 장소에 분포한다.Individual contents f belonging to the content set F are stored in a plurality of content servers 210, and are physically distributed in various places.

셀룰러 네트워크는 복수의 기지국(230)을 묶어 관리하는 클라우드 유닛의 집합 E와 기지국의 집합 N을 포함한다. 클라우드 유닛 e ∈ε에서 연결되는 기지국의 집합을 Ne로 정의한다. 기지국 ne와 클라우드 유닛 e는 각각

Figure pat00001
Figure pat00002
만큼의 캐싱용량을 갖는다. 일반적으로 클라우드 유닛이 기지국보다 더 큰 캐싱용량을 갖는다 (
Figure pat00003
<
Figure pat00004
).The cellular network includes a set E of cloud units and a set N of base stations that group and manage a plurality of base stations 230. We define N e as the set of base stations to be connected in the cloud unit e ∈ε. The base station n e and the cloud unit e are
Figure pat00001
And
Figure pat00002
Of caching capacity. Generally, a cloud unit has a larger caching capacity than a base station (
Figure pat00003
<
Figure pat00004
).

본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 시스템은 단위 시간인 타임슬롯(time slot)에 기초하며 (t = 0, 1, ......), 매 타임슬롯 t마다 각 기지국 ne에 연결된 최종 사용자 단말기로부터

Figure pat00005
만큼에 해당하는 콘텐츠 f의 서비스 요청이 들어온다.Hybrid content caching system in accordance with one embodiment of the present invention in a unit time of a time slot (time slot) of each base station and each n e (t = 0, 1, ...... ), every time slot t based on From connected end-user terminals
Figure pat00005
The service request of the content f corresponding to the number of the content f comes in.

제어할 변수는 클라우드 유닛과 기지국에 캐싱할 콘텐츠이다. 캐싱 지시자(caching indicator)는 타임슬롯 t에 콘텐츠 f를 기지국 ne 또는 클라우드 유닛 e에서 캐싱하는 경우에는 1, 그렇지 않은 경우에는 0이다. 캐싱 지시자는 수학식 1로 정의된다. The variables to control are the content to be cached in the cloud unit and base station. The caching indicator is 1 if the content f is cached in base station n e or cloud unit e in timeslot t, 0 otherwise. The caching indicator is defined by Equation (1).

Figure pat00006
Figure pat00006

기지국과 클라우드 유닛의 캐싱용량에 대한 제약사항은 각각 수학식 2와 수학식 3과 같다.The restrictions on the caching capacity of the base station and the cloud unit are expressed by Equations (2) and (3), respectively.

Figure pat00007
Figure pat00007

Figure pat00008
Figure pat00008

설명의 편의를 위해 캐싱 지시자 I를 수학식 4의 벡터 P로도 표현할 것이다.For convenience of explanation, the caching indicator I will also be expressed as a vector P in Equation (4).

Figure pat00009
Figure pat00009

여기서,

Figure pat00010
는 클라우드 유닛 e에 캐싱되는 콘텐츠의 집합을 나타내고,
Figure pat00011
는 기지국 ne에 캐싱되는 콘텐츠의 집합을 나타내며 수학식 5를 이용하여 P를 구할 수 있다.here,
Figure pat00010
Represents a set of content cached in the cloud unit e,
Figure pat00011
Represents the set of contents cached at the base station n e and P can be obtained using Equation (5).

Figure pat00012
Figure pat00012

콘텐츠 f가 사용자로부터 요청이 되면, 해당 기지국, 클라우드 유닛, 콘텐츠 서버 중 콘텐츠 f를 보유한 위치 중 가장 가까운 곳으로부터 전송이 시작되며, 이는 I에 기초하여 결정된다.When the content f is requested by the user, the transmission starts from the closest one of the positions of the corresponding base station, the cloud unit, and the content server holding the content f, and is determined based on I.

예를 들어, 콘텐츠가 어느 곳에도 캐싱되어 있지 않으면, 해당 콘텐츠 서버로부터 전송이 시작되고, 다른 곳에는 캐싱되어 있지 않고, 클라우드 유닛에만 캐싱되어 있다면, 콘텐츠의 전송은 클라우드 유닛에서 시작된다. 여기서, 클라우드 유닛이 소스 노드가 된다.For example, if the content is not cached anywhere, the transfer of content starts in the cloud unit, if the transfer starts from that content server, is not cached elsewhere, and is only cached in the cloud unit. Here, the cloud unit becomes the source node.

복수의 콘텐츠 서버, 클라우드 유닛, 기지국 및 최종 사용자 단말기 각각은 소스 노드(source node) 또는 목적지 노드(destination node)가 될 수 있다. 소스 노드는 데이터 전송이 시작되는 노드이며, 목적지 노드는 데이터 전송이 끝나는 노드이다.Each of a plurality of content servers, a cloud unit, a base station, and an end user terminal may be a source node or a destination node. The source node is the node where the data transfer starts, and the destination node is the node where the data transfer ends.

백홀, 프론트홀 및 기지국의 무선 채널은 시간에 따라 변화하기 때문에, 타임슬롯마다 전송할 수 있는 콘텐츠의 양도 다르다. Since the wireless channels of the backhaul, the front hall, and the base station vary with time, the amount of content that can be transmitted per time slot also differs.

소스 노드가 기지국인 경우, 타임슬롯 t 동안

Figure pat00013
만큼의 데이터를 전송할 수 있고, 소스 노드가 클라우드 유닛인 경우, 타임슬롯 t 동안
Figure pat00014
만큼의 데이터를 전송할 수 있다. 콘텐츠가 캐싱되어 있지 않거나, 콘텐츠를 요청한 사용자의 위치가 콘텐츠 서버와 가장 가까운 경우, 즉, 소스 노드가 콘텐츠 서버인 경우, 타임슬롯 t 동안
Figure pat00015
만큼의 데이터를 전송할 수 있다.If the source node is a base station,
Figure pat00013
, And if the source node is a cloud unit,
Figure pat00014
Of data can be transmitted. If the content is not cached, or if the location of the user requesting the content is closest to the content server, i.e., the source node is a content server,
Figure pat00015
Of data can be transmitted.

타임슬롯 t 동안 콘텐츠 f와 기지국 ne에 대하여 콘텐츠 요청과 서비스 양을 반영하기 위해, 기지국마다 |f|개의 가상 큐를 수학식 6으로 정의한다.In order to reflect the content request and the service amount for the content f and the base station n e during the time slot t, the virtual queue of | f |

Figure pat00016
Figure pat00016

여기서,

Figure pat00017
는 수학식 7로 나타낼 수 있다.here,
Figure pat00017
Can be expressed by Equation (7).

Figure pat00018
Figure pat00018

이 값은 캐싱 지시자 I에 의해 결정되며, 기지국 ne에서 콘텐츠 f가 서비스되는 양을 의미한다. 각각의 기지국 및 클라우드 유닛은 자신을 통해 처리되는 패킷의 헤더 분석을 통해 서비스되는 콘텐츠를 식별할 수 있다. 여기서, 가상 큐의 시간평균 길이(average virtual queue backlog)는 해당 기지국에서 해당 콘텐츠를 서비스하는 평균 종단간 시간지연(average end-to-end delay)을 반영한다.This value is determined by the caching indicator I and means the amount at which the content f is served by the base station n e . Each base station and cloud unit can identify the content being served through a header analysis of the packets being processed through it. Here, the average virtual queue backlog reflects the average end-to-end delay of serving the corresponding content in the corresponding base station.

도 4는 본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 시스템의 개념도이다.4 is a conceptual diagram of a hybrid content caching system according to an embodiment of the present invention.

하이브리드 콘텐츠 캐싱 시스템(400)은 하이브리드 콘텐츠 캐싱 시스템(400)은 데이터 수신부(410), 데이터 식별부(420), 가상 큐 생성부(430), 캐싱 대상 산출부(440) 및 캐싱 대상 확정부(450)를 포함한다. 여기서, 각각의 구성요소들은 콘텐츠와 복수의 최종 사용자 단말기(240) 사이의 경로 상에 구성될 수도 있고, 복수의 클라우드 유닛(220) 또는 복수의 기지국(230)에 소프트웨어 또는 하드웨어의 형태로 구현될 수도 있다.The hybrid content caching system 400 includes a data receiving unit 410, a data identifying unit 420, a virtual queue generating unit 430, a caching target calculating unit 440, and a caching target determining unit 450). Here, each of the components may be configured on the path between the content and the plurality of end user terminals 240, and may be implemented in the form of software or hardware in the plurality of cloud units 220 or the plurality of base stations 230 It is possible.

데이터 수신부(410)는 콘텐츠 데이터를 다양한 장소에 위치한 콘텐츠 서버로부터 인터넷을 통해 수신한다. 데이터 수신부(410)는 네트워크 통해 복수의 최종 사용자 단말기와 직간접적으로 연결되어 있는 복수의 클라우드 유닛(220)과 복수의 기지국(230)에서 송수신되는 데이터를 수신한다.The data receiving unit 410 receives the content data from the content server located at various places via the Internet. The data receiving unit 410 receives data transmitted and received from a plurality of cloud units 220 and a plurality of base stations 230 directly or indirectly connected to a plurality of end user terminals through a network.

데이터 수신부(410)는 복수의 클라우드 유닛(220) 및 복수의 기지국(230) 각각에 설치되어 개별 클라우드 유닛과 개별 기지국으로부터 송수신되는 데이터를 수신할 수 있다.The data receiving unit 410 is installed in each of the plurality of cloud units 220 and the plurality of base stations 230 and can receive data transmitted and received from individual cloud units and individual base stations.

또한, 데이터 수신부(410)는 별도의 네트워크를 통해 연결된 장소에 설치되어 복수의 클라우드 유닛(220) 및 복수의 기지국(230)에서 송수신되는 데이터에 대한 정보만을 수신하도록 구성될 수도 있다.The data receiving unit 410 may be configured to receive information on data transmitted and received by a plurality of cloud units 220 and a plurality of base stations 230 installed in a location connected via a separate network.

데이터 식별부(420)는 데이터 수신부(410)로부터 수신한 데이터 패킷의 헤더를 분석하여 데이터의 내용을 식별하고, 제공된 트래픽을 예상한다. 여기서, 데이터 식별부(420)는 다음을 가정한다. 첫째, 같은 콘텐츠 서버로부터 최종 사용자 단말기로 전송되는 콘텐츠 데이터는 유사한 데이터 전송률(data rate)을 갖는다. 둘째, 콘텐츠 서버와 대응되는 기지국 사이의 물리적 거리는 콘텐츠 서버와 최종 사용자 단말기 사이의 데이터 전송률과 유사한 관계를 지닌다.The data identifying unit 420 analyzes the header of the data packet received from the data receiving unit 410, identifies the contents of the data, and estimates the provided traffic. Here, the data identification unit 420 assumes the following. First, the content data transmitted from the same content server to the end user terminal has a similar data rate. Second, the physical distance between the content server and the corresponding base station has a similar relationship to the data rate between the content server and the end user terminal.

가상 큐 생성부(430)는 데이터 식별부(420)에서 식별한 내용을 바탕으로 가상 큐 정보를 생성한다. 가상 큐 정보는 기지국에서 전송할 수 있는 콘텐츠 전송량(320), 콘텐츠 서버에서 전송할 수 있는 콘텐츠 전송량(330), 클라우드 유닛에서 전송할 수 있는 콘텐츠 전송량(340), 클라우드 유닛의 캐싱용량 및 기지국의 캐싱용량 중 적어도 하나 이상의 값을 포함한다.The virtual queue creation unit 430 creates virtual queue information based on the contents identified by the data identification unit 420. [ The virtual queue information includes a content transmission amount 320 that can be transmitted from the base station, a content transmission amount 330 that can be transmitted from the content server 330, a content transmission amount 340 that can be transmitted from the cloud unit, a caching capacity of the cloud unit, And at least one value.

캐싱 대상 산출부(440)는 하이브리드 캐싱 알고리즘(hybrid caching algorithm)에 따라 타임슬롯마다 클라우드 유닛과 기지국에 캐싱할 콘텐츠의 집합을 결정한다. 하이브리드 캐싱 알고리즘은 타임슬롯마다 가상 큐들의 길이와 서비스 속도의 곱들의 합을 최대화하기 위한 수학식 8과 같은 Max-Weight 형태를 갖는다.The caching subject calculation unit 440 determines a set of contents to be cached in the cloud unit and the base station for each time slot according to a hybrid caching algorithm. The hybrid caching algorithm has a Max-Weight type as shown in Equation (8) for maximizing the sum of the products of the length of the virtual queues and the service speed for each time slot.

Figure pat00019
Figure pat00019

수학식 8은 수학식 2와 수학식 3의 조건 하에서 유효하다.Equation (8) is valid under the conditions of Equations (2) and (3).

그러나 수학식 8을 하이브리드 캐싱 알고리즘이 적용된 시스템에서 푸는 것은 NP-hard(non-deterministic polynomial-time hard)이기 때문에, 다항식 시간(polynomial time) 내에 풀 수 있는 알고리즘은 존재하지 않는다.However, since solving Equation (8) is NP-hard (non-deterministic polynomial-time hard) in the system to which the hybrid caching algorithm is applied, there is no algorithm that can solve in polynomial time.

따라서 다항식 시간 내에 해를 구할 수 있으면서도 일정 수준 이상의 최적 성능을 보장할 수 있는 준최적 알고리즘(suboptimal algorithm)을 이용한다.Therefore, we use a suboptimal algorithm that can obtain a solution within a polynomial time but still guarantee a certain level of optimal performance.

캐싱 대상 산출부(440)는 자신의 캐싱 결정에 따라 연결된 기지국들이 하이브리드 콘텐츠 캐싱 알고리즘을 따를 것이라는 가정 하에 캐싱 대상을 산출한다. 여기서, 캐싱 대상은 기지국 및 클라우드 유닛에 캐싱할 콘텐츠의 집합을 의미한다.The caching subject calculating unit 440 calculates a caching subject on the assumption that the connected base stations will follow the hybrid content caching algorithm in accordance with the caching decision of the caching subject. Here, the caching target means a set of contents to be cached in the base station and the cloud unit.

클라우드 유닛의 캐싱 상황에 따라 기지국들의 캐싱 방식이 바뀌기 때문에 캐싱 대상 산출부(440)는 Max-Weight 문제를 최대화하는 캐싱 조건을 찾기 위해 클라우드 유닛에서 가능한 캐싱의 모든 경우의 수를 찾아야 한다.Since the caching scheme of the base stations is changed according to the caching status of the cloud unit, the caching target calculator 440 must find the number of all cases of caching available in the cloud unit to find the caching condition that maximizes the Max-Weight problem.

그러나 이 방식으로는 캐싱 대상 산출부(440)가 다항식 시간 이내에 모든 경우의 수를 찾을 수 없기 때문에, 캐싱의 경우의 수를 대폭적으로 줄일 필요가 있다.However, in this method, since the caching subject calculation unit 440 can not find the number of all cases within the polynomial time, the number of cases of caching needs to be greatly reduced.

캐싱 대상 산출부(440)는 클라우드 유닛이 2개 이하의 콘텐츠를 캐싱하는 경우의 수를 고려하여 캐싱할 콘텐츠의 집합인 제 1 콘텐츠 집합을 산출한다.The caching subject calculating unit 440 calculates a first set of contents which is a set of contents to be cached in consideration of the number of cases in which the cloud unit caches two or less contents.

그 이후, 캐싱 대상 산출부(440)는 클라우드 유닛이 3개의 콘텐츠만을 캐싱하는 경우의 수를 고려하여 캐싱할 콘텐츠의 집합인 제 2 콘텐츠 집합을 산출하고, 3개의 콘텐츠만을 캐싱하는 경우의 수에서 탐욕 알고리즘(greedy algorithm)을 이용하여 캐싱 콘텐츠를 하나씩 반복적으로 추출한다.Thereafter, the caching subject calculating unit 440 calculates a second set of contents, which is a set of contents to be cached in consideration of the number of cases in which the cloud unit only caches three contents, Caching contents are extracted one by one using greedy algorithm.

캐싱 대상 확정부(450)는 캐싱 대상 산출부(440)가 계산한 두 결과를 비교하여 더 나은 캐싱을 선택한다.The caching subject determiner 450 compares two results calculated by the caching subject calculating unit 440 to select better caching.

즉, 캐싱 대상 확정부(450)는 캐싱 대상 산출부(440)가 산출한 제 1 콘텐츠 집합과 제 2 콘텐츠 집합 중에서 캐싱에 유리한 집합을 선택한다.That is, the caching subject determiner 450 selects a set that is advantageous for caching among the first content set and the second content set calculated by the caching subject calculating unit 440.

캐싱 대상 산출부(440)는 기지국에 대해서도 유사한 방법으로 캐싱할 콘텐츠를 산출한다.The caching subject calculation unit 440 also calculates the content to be cached for the base station in a similar manner.

캐싱 대상 산출부(440)는 특정 기지국의 캐싱용량이 최대로 채워질 때까지 (1) 수학식 9을 계산한 결과가 가장 큰 f를 찾고, (2) 그 값을 수학식 10에 추가하고, (3) F에서 f를 제거하는 과정을 반복하여, 최종적으로 캐싱 대상 콘텐츠를 선정한다.The caching subject calculating unit 440 finds (1) the largest result of calculation of Equation (9) until (2) maximizes the caching capacity of a particular base station, (2) adds the value to Equation (10) 3) Repeat the process of removing f from F to finally select the content to be cached.

Figure pat00020
Figure pat00020

Figure pat00021
Figure pat00021

도 5는 본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 방법의 흐름도이다.5 is a flowchart of a hybrid content caching method according to an embodiment of the present invention.

데이터 수신부(410)는 가상 큐, 콘텐츠 서버에서 전송할 수 있는 콘텐츠 전송량(330), 클라우드 유닛에서 전송할 수 있는 콘텐츠 전송량(340), 클라우드 유닛의 캐싱용량 및 기지국의 캐싱용량 중 적어도 하나의 값을 입력값으로 수신한다(S510).The data receiving unit 410 receives at least one of a virtual queue, a content transmission amount 330 that can be transmitted from the content server, a content transmission amount 340 that can be transmitted from the cloud unit, a caching capacity of the cloud unit, (S510).

데이터 식별부(420)는 데이터 수신부(410)로부터 수신한 데이터 패킷의 헤더를 분석하여 데이터의 내용을 식별하고, 제공된 트래픽을 예상한다. 여기서, 데이터 식별부(420)는 다음을 가정한다. 첫째, 같은 콘텐츠 서버로부터 최종 사용자 단말기로 전송되는 콘텐츠 데이터는 유사한 데이터 전송률(data rate)을 갖는다. 둘째, 콘텐츠 서버와 대응되는 기지국 사이의 물리적 거리는 콘텐츠 서버와 최종 사용자 단말기 사이의 데이터 전송률과 유사한 관계를 지닌다.The data identifying unit 420 analyzes the header of the data packet received from the data receiving unit 410, identifies the contents of the data, and estimates the provided traffic. Here, the data identification unit 420 assumes the following. First, the content data transmitted from the same content server to the end user terminal has a similar data rate. Second, the physical distance between the content server and the corresponding base station has a similar relationship to the data rate between the content server and the end user terminal.

데이터 산출부(430)는 클라우드 유닛이 2개 이하의 콘텐츠를 캐싱하는 경우의 수를 고려하여 캐싱할 콘텐츠의 집합인 제 1 콘텐츠 집합을 산출한다(S520).The data calculating unit 430 calculates a first set of contents which is a set of contents to be cached in consideration of the number of cases in which the cloud unit caches two or less contents (S520).

기지국이 하이브리드 캐싱 알고리즘을 따를 때, 데이터 산출부(430)는 각각의 클라우드 유닛의 캐싱(Pe)에 대하여 수학식 11을 최대화하는 클라우드 유닛의 캐싱(Pe)를 찾고, 이를

Figure pat00022
으로 지정한다(S530).When the base station follow the hybrid caching algorithms, data calculation unit 430 finds the cache (P e) of the cloud unit that maximizes equation (11) with respect to caching (P e) of each cloud unit, which
Figure pat00022
(S530).

Figure pat00023
Figure pat00023

캐싱 대상 산출부(440)는 클라우드 유닛이 3개의 콘텐츠만을 캐싱하는 경우의 수를 고려하여 캐싱할 콘텐츠의 집합인 제 2 콘텐츠 집합을 산출하고, q번째 캐싱 방법을

Figure pat00024
로 지정한다(S540).The caching subject calculating unit 440 calculates a second set of contents which is a set of contents to be cached in consideration of the number of cases in which the cloud unit only caches three contents,
Figure pat00024
(S540).

캐싱 대상 산출부(440)는

Figure pat00025
Figure pat00026
Figure pat00027
Figure pat00028
로 초기화한다(S550).The caching subject calculation unit 440
Figure pat00025
To
Figure pat00026
in
Figure pat00027
To
Figure pat00028
(S550).

캐싱 대상 산출부(440)는 기지국이 하이브리드 캐싱 알고리즘을 따를 때,

Figure pat00029
Figure pat00030
를 계산하고,
Figure pat00031
를 만족하는 f*를 찾는다(S562).When the base station follows the hybrid caching algorithm,
Figure pat00029
And
Figure pat00030
Lt; / RTI &gt;
Figure pat00031
Look for f * (S562) satisfying.

Figure pat00032
Figure pat00032

수학식 12를 만족하면,

Figure pat00033
에 f*를 추가하고, 그렇지 않으면
Figure pat00034
에서 f*를 제거한다(S564).If the expression (12) is satisfied,
Figure pat00033
F * &lt; / RTI &gt;
Figure pat00034
Removes the f * (S564) in the.

캐싱 대상 산출부(440)는 모든 q에 대하여

Figure pat00035
를 최대화하는
Figure pat00036
를 찾고, 찾은 값을
Figure pat00037
로 지정한다(S566).The caching subject calculation unit 440 calculates
Figure pat00035
To maximize
Figure pat00036
And find the value
Figure pat00037
(S566).

캐싱 대상 확정부(450)는 수학식 13이 만족하는지를 판단한다(S568).The caching subject determination unit 450 determines whether the expression (13) is satisfied (S568).

Figure pat00038
Figure pat00038

캐싱 대상 확정부(450)는 S568 과정의 결과, 수학식 13이 만족되지 않으면, 수학식 14가 만족하는지를 판단한다(S570).The caching subject determiner 450 determines whether the expression (14) is satisfied (S570) if the expression (13) is not satisfied as a result of S568.

Figure pat00039
Figure pat00039

S570 과정의 결과, 수학식 14가 만족되면, 클라우드 유닛 e에 캐싱해야 할 콘텐츠는

Figure pat00040
가 되고, 그렇지 않으면 클라우드 유닛 e에 캐싱해야 할 콘텐츠는
Figure pat00041
가 된다.As a result of the step S570, when the expression (14) is satisfied, the content to be cached in the cloud unit e
Figure pat00040
, Otherwise the content to be cached in cloud unit e is
Figure pat00041
.

본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 방법의 성능을 검증하기 위하여 실제 환경을 가정한 트레이스에 기초한 시뮬레이션을 수행하였다.In order to verify the performance of the hybrid content caching method according to an embodiment of the present invention, a simulation based on a trace based on a real environment is performed.

콘텐츠의 크기와 평균 전송 속도는 YouTube에서 제공한 콘텐츠 데이터 셋을 사용하였다. YouTube에서 제공한 콘텐츠 데이터 셋은 콘텐츠 서버와 목적지의 IP 주소(IP address), 콘텐츠 서버와 목적지 사이의 평균 전송 속도 및 요청한 콘텐츠의 유형 정보를 포함한다. 총 18750개의 콘텐츠 중 100개를 임의로 선정하여 시뮬레이션에 사용하였다.We used the content data set provided by YouTube for the size of the content and the average transmission speed. The content data set provided by YouTube includes the IP address of the content server and the destination, the average transmission speed between the content server and the destination, and the type information of the requested content. 100 of 18750 contents were randomly selected and used for simulation.

시나리오는 총 4개의 클라우드 유닛과 클라우드 유닛 당 3개의 기지국을 포함하며, 최종 사용자 단말기는 기지국 당 20명이다.The scenario includes a total of four cloud units and three base stations per cloud unit, and the end user terminals are 20 per base station.

타임슬롯의 크기는 30분이고, 각 기지국은 라운드 로빈 스케줄링(round robin scheduling)을 따르도록 설정되었다.The size of the timeslot is 30 minutes and each base station is set to follow round robin scheduling.

콘텐츠 서비스 요청은 타임슬롯마다 베르누이 프로세스를 따르며, 임의로 최종 사용자 단말기에게 할당된다.The content service request follows the Bernoulli process for each time slot and is optionally assigned to the end user terminal.

콘텐츠를 이루는 최소 청크(chunk) 단위는 6 kB이며, 클라우드 유닛의 캐싱용량은 전체 콘텐츠의 50%로 설정하고, 기지국의 캐싱용량은 전체 콘텐츠의 10~20%로 설정하였다.The minimum chunk unit of the content is 6 kB. The caching capacity of the cloud unit is set to 50% of the entire contents. The caching capacity of the base station is set to 10 to 20% of the entire contents.

성능 분석을 위한 지표는 가상 큐의 시간평균 길이(average virtual queue backlog)와 프론트홀/백홀 부하 경감 비율(fronthaul/backhaul load reduction ratio)이다. 가상 큐의 시간평균 길이는 종단간 시간지연을 나타내는 지표이다. 프론트홀/백홀 부하 경감 비율은 캐싱을 전혀 이용하지 않은 경우에 대하여 프론트홀/백홀을 통해 흐르는 트래픽 양의 감소 비율을 나타낸다.Indicators for performance analysis are the average virtual queue backlog and the front hole / backhaul load reduction ratio (fronthaul / backhaul load reduction ratio). The time-averaged length of the virtual queue is an indicator of end-to-end time delay. The front hole / backhaul load reduction ratio represents the reduction rate of the amount of traffic flowing through the front hole / backhaul when no caching is used at all.

비교 알고리즘의 유형과 동작 방식은 표 1에 나타내었다.Table 1 shows the types and operation methods of the comparison algorithm.

알고리즘algorithm 동작 방식How it works Exhaustive searchExhaustive search 모든 경우의 수를 비교해 최적의값을 찾아내는 알고리즘An algorithm that compares the number of all cases to find the optimal value IGA(independent greedy algorithm)The IGA (independent greedy algorithm) 기지국 캐싱과 클라우드 유닛 캐싱을 서로 독립적으로 탐욕 알고리즘에 따라 찾아내는 알고리즘Algorithm to find base station caching and cloud unit caching independently of each other according to greed algorithm DGA(downward greedy algorithm)The downward greedy algorithm (DGA) 클라우드 유닛 캐싱을 독립적으로 탐욕 알고리즘에 따라 먼저 결정하고, 이에 따라 기지국 캐싱을 탐욕 알고리즘에 따라 찾아내는 알고리즘Algorithm that first determines cloud unit caching independently according to greedy algorithm, and then finds base station caching according to greedy algorithm UGA(uownward greedy algorithm)Uownward greedy algorithm (UGA) 기지국 캐싱을 독립적으로 탐욕 알고리즘에 따라 먼저 결정하고, 이에 따라 클라우드 유닛을 탐욕 알고리즘에 따라 찾아내는 알고리즘An algorithm that first determines base station caching independently according to the greedy algorithm, and then finds the cloud unit according to the greedy algorithm RHCA(reduced HCA)RHCA (reduced HCA) HCA의 복잡도를 낮춘 알고리즘Algorithm that reduces the complexity of HCA

도 6a는 본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 방법을 적용하여 계산한 캐싱용량에 대한 평균 가상 큐의 시간평균 길이(average virtual queue backlog)를 나타낸 그래프이다.FIG. 6A is a graph illustrating an average virtual queue backlog for a caching capacity calculated by applying the hybrid content caching method according to an exemplary embodiment of the present invention. Referring to FIG.

본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 방법을 이용하여 얻은 가상 큐의 시간평균 길이는 완전 탐색(exhaustive search)를 이용하여 얻은 가상 큐의 시간평균 길이의 99.8%로 완전 탐색의 성능과 거의 유사한 성능을 보이는 것을 확인할 수 있다. 복잡도를 줄인 하이브리드 콘텐츠 캐싱 방법(RHCA)을 이용해 구한 가상 큐의 시간평균 길이는 완전 탐색을 이용하여 얻은 가상 큐의 시간평균 길이 값의 99.6%로 RHCA 또한 완전 탐색에 거의 근접한 성능을 나타내었다.The time average length of the virtual queue obtained using the hybrid content caching method according to an exemplary embodiment of the present invention is approximately 99.8% of the time average length of the virtual queue obtained using the exhaustive search, Performance. The time average length of the virtual queue obtained using the Hybrid Content Caching Method (RHCA) with reduced complexity was 99.6% of the time average length value of the virtual queue obtained using the full search.

도 6b는 본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 방법을 적용하여 계산한 캐싱용량에 대한 백홀 부하 경감 비율(backhaul load reduction ratio)을 나타낸 그래프이다.6B is a graph illustrating a backhaul load reduction ratio of a caching capacity calculated by applying the hybrid content caching method according to an embodiment of the present invention.

모든 방법에 대하여, 백홀 부하 경감 비율은 캐싱용량이 증가함에 따라 증가한다. IGA의 백홀 부하 경감 비율이 가장 낮으며 완전 탐색의 경우 백홀 부하 경감 비율이 가장 높다. 하이브리드 콘텐츠 캐싱 방법을 이용한 경우, 백홀의 부하 감소는 최소 90%를 달성할 수 있었다. 복잡도를 줄인 하이브리드 콘텐츠 캐싱 방법의 백홀 부하 경감 비율이 그 다음으로 좋은 것으로 나타났으며, 하향 탐욕 알고리즘을 이용한 경우의 백홀 부하 경감 비율이 비교 대상들 중에서는 가장 낮은 것으로 나타났다.For all methods, the backhaul load reduction rate increases as the caching capacity increases. IGA has the lowest rate of backhaul load reduction and full search has the highest backhaul load reduction rate. When using the hybrid content caching method, the load reduction of the backhaul was at least 90%. The backhaul load reduction ratio of the hybrid content caching method with reduced complexity is the next best, and the backhole load reduction ratio using the downhill greedy algorithm is the lowest among the comparison objects.

도 6c는 본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 방법을 적용하여 계산한 캐싱용량에 대한 프론트홀 부하 경감 비율(fronthaul load reduction ratio)을 나타낸 그래프이다.6C is a graph illustrating a front hole load reduction ratio with respect to a caching capacity calculated by applying the hybrid content caching method according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 방법을 이용한 경우, 프론트홀의 부하 감소는 최소 40%를 달성할 수 있었다. RHCA의 복잡도가 하이브리드 콘텐츠 캐싱 방법에 비해 훨씬 낮은 것을 감안하면, RHCA의 성능이 하이브리드 콘텐츠 캐싱 방법의 성능과 거의 유사하다는 것은 주목할 만한 결과이다.In the case of using the hybrid content caching method according to an embodiment of the present invention, the load reduction of the front hole can be achieved at least 40%. Considering that the complexity of RHCA is much lower than that of hybrid content caching, it is noteworthy that the performance of RHCA is nearly similar to that of the hybrid content caching method.

도 6d는 본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 방법을 적용하여 계산한 평균 콘텐츠 요청률(average contents request rate)의 변화에 따른 평균 가상 큐의 시간평균 길이(average virtual queue backlog)를 나타낸 그래프이다.FIG. 6D is a graph illustrating average virtual queue backlog according to a change in average contents request rate calculated by applying the hybrid content caching method according to an embodiment of the present invention. to be.

단위 시간 당 콘텐츠 서비스 요청의 양을 증가시키면서 가상 큐의 시간평균 길이를 측정한 결과, 하이브리드 콘텐츠 캐싱 방법이 다른 비교 대상 알고리즘에 비하여 낮은 값을 갖는 것으로 나타났으며 이것은 본 발명의 일 실시예에 따른 하이브리드 콘텐츠 캐싱 방법의 종단간 콘텐츠 서비스 시간지연의 감소에 효과적임을 증명하는 것이다.As a result of measuring the time-averaged length of the virtual queue while increasing the amount of content service requests per unit time, the hybrid content caching method has a lower value than the other comparison algorithm, It is proved to be effective in reducing the end-to-end content service time delay of the hybrid content caching method.

도 5에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 5에 기재된 과정을 변경하여 실행하거나 하나 이상의 과정을 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 은 시계열적인 순서로 한정되는 것은 아니다.In FIG. 5, it is described that each process is sequentially executed, but it is not limited thereto. In other words, the present invention is not limited to the time-series order, since it is possible to change the process described in FIG. 5 and execute one or more processes in parallel.

한편, 도 5에 도시된 흐름도의 각 단계는 컴퓨터로 읽을 수 있는 기록매체(computer-readable recording medium)에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 즉, 컴퓨터가 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, each step of the flowchart shown in FIG. 5 can be implemented as a computer-readable code in a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. That is, a computer-readable recording medium includes a magnetic storage medium (e.g., ROM, floppy disk, hard disk, etc.), an optical reading medium (e.g., CD ROM, And the like). In addition, the computer-readable recording medium may be distributed over a network-connected computer system so that computer-readable code can be stored and executed in a distributed manner.

이상의 설명은 본 발명에 따른 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명에 따른 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 따른 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명에 따른 일 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명에 따른 일 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the following claims. Modifications and variations will be possible. Therefore, the embodiments according to the present invention are not intended to limit the scope of the technical idea of the present embodiment, but are intended to be illustrative, and the scope of the technical idea of the present embodiment is not limited by these embodiments. The scope of protection of an embodiment according to the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be interpreted as being included in the scope of the embodiment of the present invention.

110, 210: 콘텐츠 서버(content server)
120, 220: 클라우드 유닛(cloud unit)
130, 230: 기지국(base station)
140, 240: 최종 사용자(end user) 단말기
310: 최종 사용자 단말기에 의해 요청된 데이터량
320: 기지국에서 전송할 수 있는 콘텐츠 전송량
330: 콘텐츠 서버에서 전송할 수 있는 콘텐츠 전송량
340: 클라우드 유닛에서 전송할 수 있는 콘텐츠 전송량
400: 하이브리드 콘텐츠 캐싱 시스템
110, 210: a content server,
120, 220: cloud unit (cloud unit)
130 and 230: a base station,
140, 240: end user terminal
310: Amount of data requested by the end user terminal
320: Amount of content transmitted from the base station
330: The amount of content that can be transferred from the content server
340: The amount of content that can be transferred from the cloud unit
400: Hybrid Content Caching System

Claims (13)

복수의 사용자 단말기, 복수의 기지국, 복수의 클라우드 유닛(cloud unit) 및 복수의 콘텐츠 서버(content server)를 포함하는 계층적 이동통신 네트워크(hierarchical mobile network)에서 종단간(end-to-end) 시간지연을 감소시키기 위한 시스템을 이용한 캐싱(caching) 방법에 있어서,
상기 복수의 사용자 단말기 중 적어도 하나의 사용자 단말기로부터 콘텐츠 요청(request) 신호를 수신하는 과정;
상기 계층적 이동통신 네트워크에서 송수신되는 데이터 패킷(data packet)의 헤더를 분석하여 상기 콘텐츠 요청 신호에 대응되는 콘텐츠를 식별하고, 콘텐츠 별 가상 큐(virtual queue)를 생성하는 가상 큐 생성 과정;
상기 가상 큐에 기초하여, 상기 복수의 클라우드 유닛에 캐싱할 제 1 콘텐츠 집합을 산출하는 캐싱 대상 산출 과정; 및
상기 제 1 콘텐츠 집합에 기초하여, 상기 복수의 기지국에 캐싱할 제 2 콘텐츠 집합을 산출하는 캐싱 대상 확정 과정
을 포함하는 것을 특징으로 하는 하이브리드 콘텐츠 캐싱 방법.
To-end time in a hierarchical mobile network including a plurality of user terminals, a plurality of base stations, a plurality of cloud units, and a plurality of content servers. A caching method using a system for reducing delay, the method comprising:
Receiving a content request signal from at least one of the plurality of user terminals;
A virtual queue generation step of analyzing a header of a data packet transmitted and received in the hierarchical mobile communication network to identify a content corresponding to the content request signal and generating a virtual queue for each content;
A caching object calculation step of calculating a first set of contents to be cached in the plurality of cloud units based on the virtual queue; And
A caching subject confirmation step of calculating a second set of contents to be cached to the plurality of base stations based on the first set of contents;
The method comprising the steps of:
제 1 항에 있어서,
상기 콘텐츠 요청 신호가 수신되면, 상기 콘텐츠 요청 신호에 대응되는 콘텐츠가 캐싱되어 있는지를 판단하는 콘텐츠 캐싱 판단 과정을 추가로 포함하는 것을 특징으로 하는 하이브리드 콘텐츠 캐싱 방법.
The method according to claim 1,
Further comprising a content caching determination process for determining whether a content corresponding to the content request signal is cached when the content request signal is received.
제 2 항에 있어서,
상기 콘텐츠 캐싱 판단 과정의 결과, 상기 콘텐츠 요청 신호에 대응되는 콘텐츠가 어느 곳에도 캐싱되어 있지 않으면, 상기 복수의 콘텐츠 서버로부터 상기 콘텐츠를 상기 적어도 하나의 사용자 단말기로 전송하는 직접 전송 과정을 포함하는 것을 특징으로 하는 하이브리드 콘텐츠 캐싱 방법.
3. The method of claim 2,
And a direct transmission process of transmitting the content from the plurality of content servers to the at least one user terminal if the content corresponding to the content request signal is not cached anywhere as a result of the content caching determination process A method of caching hybrid content.
제 1 항에 있어서,
상기 캐싱 대상 산출 과정은,
캐싱의 경우의 수를 감소시키는 과정을 포함하는 것을 특징으로 하는 하이브리드 콘텐츠 캐싱 방법.
The method according to claim 1,
The caching subject calculation process includes:
And decreasing the number of cases in the case of caching.
제 4 항에 있어서,
상기 캐싱 대상 산출 과정은,
상기 콘텐츠의 개수를 2개 이하로만 캐싱하는 경우의 수를 고려하는 제 1 대상 산출 과정을 포함하는 것을 특징으로 하는 하이브리드 콘텐츠 캐싱 방법.
5. The method of claim 4,
The caching subject calculation process includes:
And a first object calculation step of considering a number of cases in which the number of contents is cached only to two or less.
제 5 항에 있어서,
상기 캐싱 대상 식별 과정은,
상기 콘텐츠의 개수를 3개만 캐싱하는 경우의 수에서 탐욕 알고리즘(greedy algorithm)에 따라 상기 콘텐츠를 하나씩 반복적으로 추출하는 제 2 대상 산출 과정을 포함하는 것을 특징으로 하는 하이브리드 콘텐츠 캐싱 방법.
6. The method of claim 5,
The caching object identification process includes:
And a second object calculation step of repeatedly extracting the contents one by one according to a greedy algorithm in the case of caching only the number of the contents.
제 6 항에 있어서,
상기 캐싱 대상 확정 과정은,
상기 제 1 대상 산출 과정과 상기 제 2 대상 산출 과정을 통해 산출된 두 가상 큐의 시간평균 길이(average virtual queue backlog)를 비교하여 작은 값을 선택하는 과정을 포함하는 것을 특징으로 하는 하이브리드 콘텐츠 캐싱 방법.
The method according to claim 6,
The caching target determining process includes:
And selecting a smaller value by comparing the average virtual queue backlog of the two virtual queues calculated through the first object calculation process and the second object calculation process .
제 1 항에 있어서,
상기 캐싱 대상 산출 과정은,
상기 가상 큐의 길이와 서비스 속도를 곱한 값들의 합을 최대화하는 과정을 포함하는 것을 특징으로 하는 하이브리드 콘텐츠 캐싱 방법.
The method according to claim 1,
The caching subject calculation process includes:
And maximizing a sum of values obtained by multiplying the virtual queue length by a service rate.
제 1 항에 있어서,
상기 제 1 콘텐츠 집합을 정한 이후에, 상기 제 2 콘텐츠 집합을 정하는 과정을 포함하는 것을 특징으로 하는 하이브리드 콘텐츠 캐싱 방법.
The method according to claim 1,
And determining the second set of content after determining the first set of content.
제 9 항에 있어서,
상기 캐싱 대상 확정 과정은,
상기 적어도 하나의 기지국의 캐싱용량이 최대로 찰 때까지, 탐욕 알고리즘(greedy algorithm)을 이용하여 상기 콘텐츠의 집합을 산출하는 과정을 포함하는 것을 특징으로 하는 하이브리드 콘텐츠 캐싱 방법.
10. The method of claim 9,
The caching target determining process includes:
And calculating a set of the content using a greedy algorithm until a caching capacity of the at least one base station is maximized.
각각이 데이터 노드인 복수의 사용자 단말기, 복수의 기지국, 복수의 클라우드 유닛(cloud unit) 및 복수의 콘텐츠 서버(content server)를 포함하는 계층적 이동통신 네트워크(hierarchical mobile network)에서 종단간(end-to-end) 시간지연을 감소시키기 위한 시스템에 있어서,
상기 계층적 이동통신 네트워크에서 송수신되는 콘텐츠 데이터의 일부 또는 전부를 수신하는 데이터 수신부;
상기 콘텐츠 데이터의 헤더를 분석하여 상기 콘텐츠 데이터의 송수신에 관여하는 데이터 노드에서의 데이터량, 전송률 및 전송거리를 식별하는 데이터 식별부;
상기 데이터량, 상기 전송률 및 상기 전송거리에 기초하여 상기 데이터의 송수신에 관여하는 데이터 노드에서의 가상 큐를 생성하는 가상 큐 생성부; 및
상기 가상 큐에 기초하여 캐싱할 대상 콘텐츠를 산출하는 캐싱 대상 산출부
를 포함하는 것을 특징으로 하는 하이브리드 콘텐츠 캐싱 시스템.
An end-to-end service in a hierarchical mobile network comprising a plurality of user terminals, each of which is a data node, a plurality of base stations, a plurality of cloud units and a plurality of content servers, to-end time delay, the system comprising:
A data receiving unit for receiving a part or all of contents data transmitted and received in the hierarchical mobile communication network;
A data identification unit for analyzing a header of the content data and identifying a data amount, a transmission rate, and a transmission distance at a data node involved in transmission / reception of the content data;
A virtual queue generation unit for generating a virtual queue at a data node involved in transmission / reception of the data based on the data amount, the transmission rate, and the transmission distance; And
A caching target calculating unit for calculating a content to be cached based on the virtual queue,
Wherein the hybrid content caching system comprises:
제 11 항에 있어서,
상기 캐싱 대상 산출부는,
상기 캐싱할 대상 콘텐츠의 개수를 2개 이하로만 고려하는 경우의 수에 기초하여 제 1 캐싱 대상 콘텐츠를 산출하고, 상기 캐싱할 대상 콘텐츠의 개수를 3개인 경우만을 고려하는 경우의 수에 기초하여 제 2 캐싱 대상 콘텐츠를 산출하는 것을 특징으로 하는 하이브리드 콘텐츠 캐싱 시스템.
12. The method of claim 11,
The caching-
Based on the number of cases in which the number of contents to be cached is considered to be two or less, the first caching subject content is calculated, and based on the number of cases in which the number of contents to be cached is three, 2 &lt; / RTI &gt; content to be cached.
제 12 항에 있어서,
상기 제 1 캐싱 대상 콘텐츠와 상기 제 2 캐싱 대상 콘텐츠를 적용하여 산출된 두 가상 큐의 시간평균 길이를 비교하여 작은 값을 선택하는 것을 특징으로 하는 하이브리드 콘텐츠 캐싱 시스템.
13. The method of claim 12,
Wherein a smaller value is selected by comparing a time average length of two virtual queues calculated by applying the first caching subject content and the second caching subject content.
KR1020160182766A 2016-12-29 2016-12-29 Hybrid Content Caching Method and System KR101885144B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160182766A KR101885144B1 (en) 2016-12-29 2016-12-29 Hybrid Content Caching Method and System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160182766A KR101885144B1 (en) 2016-12-29 2016-12-29 Hybrid Content Caching Method and System

Publications (2)

Publication Number Publication Date
KR20180077905A true KR20180077905A (en) 2018-07-09
KR101885144B1 KR101885144B1 (en) 2018-08-03

Family

ID=62919251

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160182766A KR101885144B1 (en) 2016-12-29 2016-12-29 Hybrid Content Caching Method and System

Country Status (1)

Country Link
KR (1) KR101885144B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160092390A (en) * 2015-01-27 2016-08-04 한국전자통신연구원 Local Network System Based on Mobile Small Base Station and Method for Providing Service using the Same
KR20160144812A (en) * 2015-06-09 2016-12-19 에스케이텔레콤 주식회사 Method for caching processing of mmt packet and apparatus for the same, mthod for generating of mmt packet and apparatus for the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160092390A (en) * 2015-01-27 2016-08-04 한국전자통신연구원 Local Network System Based on Mobile Small Base Station and Method for Providing Service using the Same
KR20160144812A (en) * 2015-06-09 2016-12-19 에스케이텔레콤 주식회사 Method for caching processing of mmt packet and apparatus for the same, mthod for generating of mmt packet and apparatus for the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문, 그리디 알고리즘을 이용한 다중유사도 기반 추천시스템, 한국정보과학회 학술발표논문집, 2015.12. 공개 *

Also Published As

Publication number Publication date
KR101885144B1 (en) 2018-08-03

Similar Documents

Publication Publication Date Title
JP6560351B2 (en) System and method for deploying a virtual serving gateway for mobility management
Elbamby et al. Proactive edge computing in latency-constrained fog networks
EP2704402B1 (en) Method and node for distributing electronic content in a content distribution network
US9013990B2 (en) Communication apparatus and method of content router to control traffic transmission rate in content-centric network (CCN), and content router
US10708377B2 (en) Communication control device, communication control method, and non-transitory computer readable medium
CN102056333A (en) WAP (wireless application protocol) gateway, service processing method thereof and WAP proxy server
CN109995836B (en) Cache decision method and device
CN110621040B (en) Method and system for realizing multipath parallel transmission communication
CN107005834B (en) Data processing method and device
WO2015076705A1 (en) Controlling the transmission of a video data stream over a network to a network user device
Miao et al. Performance modelling of preemption-based packet scheduling for data plane in software defined networks
CN106993014A (en) The method of adjustment of cache contents, apparatus and system
CN112737940B (en) Data transmission method and device
CN105009520A (en) Method for delivering content in communication network and apparatus therefor
CN113692753A (en) Network device and method for searching edge service implemented in network device
US10439947B2 (en) Method and apparatus for providing deadline-based segmentation for video traffic
Pu Pro^NDN: MCDM-Based Interest Forwarding and Cooperative Data Caching for Named Data Networking
KR101885144B1 (en) Hybrid Content Caching Method and System
Abbasi et al. An intelligent method for reducing the overhead of analysing big data flows in Openflow switch
WO2023125380A1 (en) Data management method and corresponding apparatus
CN115412482B (en) Calculation force routing method and device, electronic equipment and storage medium
CN114024917B (en) Method, device, equipment and storage medium for guaranteeing internet service bandwidth
US20190190856A1 (en) Methods and Apparatus for Shared Buffer Allocation in a Transport Node
US10652159B2 (en) Mobile packet data rate control based on radio load and other measures
CN113518046A (en) Message forwarding method and frame type switching equipment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant