KR102163214B1 - CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 기법 - Google Patents

CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 기법 Download PDF

Info

Publication number
KR102163214B1
KR102163214B1 KR1020190063684A KR20190063684A KR102163214B1 KR 102163214 B1 KR102163214 B1 KR 102163214B1 KR 1020190063684 A KR1020190063684 A KR 1020190063684A KR 20190063684 A KR20190063684 A KR 20190063684A KR 102163214 B1 KR102163214 B1 KR 102163214B1
Authority
KR
South Korea
Prior art keywords
small cell
content
users
cell base
base station
Prior art date
Application number
KR1020190063684A
Other languages
English (en)
Inventor
박홍식
최준균
박지용
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020190063684A priority Critical patent/KR102163214B1/ko
Priority to CN201910864461.6A priority patent/CN112020081A/zh
Application granted granted Critical
Publication of KR102163214B1 publication Critical patent/KR102163214B1/ko

Links

Images

Classifications

    • H04L67/2842
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/568Storing data temporarily at an intermediate stage, e.g. caching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/022Site diversity; Macro-diversity
    • H04B7/024Co-operative use of antennas of several sites, e.g. in co-ordinated multipoint or co-operative multiple-input multiple-output [MIMO] systems
    • H04L67/2823
    • H04L67/2838
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/565Conversion or adaptation of application format or content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/567Integrating service provisioning from a plurality of service providers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/08Access point devices
    • H04W88/10Access point devices adapted for operation in multiple networks, e.g. multi-mode access points

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 방법 및 장치가 제시된다. 본 발명에서 제안하는 CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 방법은 사용자마다 하나의 커뮤니티를 갖는 스몰 셀 네트워크 내의 사용자들 및 스몰 셀 기지국들을 포함하는 레이팅(rating) 기반의 스몰 셀 네트워크를 형성하는 단계, CNMF 계산부를 통해 커뮤니티 기반의 음수 미포함 행렬 분해(Community-aware NMF; CNMF)를 수행하여 사용자들의 컨텐츠 요청 확률을 계산하는 단계 및 각 스몰 셀 기지국들이 사용자들에 대해 계산된 컨텐츠 요청 확률을 전달 받아 비교하여 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는 단계를 포함한다.

Description

CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 기법{Machine Learning based proactive caching in CoMP-enabled small cell networks}
본 발명은 CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 방법 및 장치에 관한 것이다.
스몰 셀 네트워크는 짧은 커버리지, 작은 전송파워, 적은 비용으로 기존의 매크로 셀룰러 네트워크에 스몰 셀 기지국을 배치하는 것으로 매크로 셀과 스몰 셀이 혼재된 이종망을 의미한다.
5G로 진화하면서 망 용량을 늘리기 위해 스몰 셀 기지국의 배치가 급격하게 증가하고 있으며, 사용자와 근접한 스몰 셀 기지국 또는 매크로 셀 기지국에 망 기능 및 서비스 제공을 위한 엣지 컴퓨팅에 대한 관심이 증가하고 있다.
특히, 엣지 컴퓨팅에서의 가장 큰 관심 중 하나는 능동 캐싱이다. 능동 캐싱이란, 사용자가 어떤 컨텐츠를 요청할 것인지 미리 예측하고 컨텐츠를 요청하기 전에 미리 가져다 놓는 것을 의미한다.
스몰 셀 네트워크에서의 능동 캐싱을 위한 설계 원칙으로는 캐시 사이즈, 스몰 셀 기지국 배치 밀도 등과 같은 시스템 규격, 채널 상태나 사용자 이동성과 같은 망 환경, 컨텐츠 배치나 컨텐츠 업데이트 같은 캐싱 전략, 그리고 캐싱된 컨텐츠를 어떻게 전송할 것인지에 관한 전송 전략이 있다.
하지만, 스몰 셀 네트워크에서의 능동 캐싱은 기존의 매크로 셀룰러 네트워크나 유선 네트워크의 캐싱보다 다음과 같은 어려운 점이 있다.
스몰 셀의 사이즈가 작아지고 기지국에 관련되어있는 사용자 수가 제한되어 컨텐츠 요청 히스토리 정보에 대한 충분한 수집이 어렵기 때문에 스몰 셀 기지국 내 사용자들의 컨텐츠 인기도를 예측하기 어렵다. 또한, 스몰 셀 기지국 간 컨텐츠 인기도가 서로 달라서 스몰 셀 기지국 별로 컨텐츠 인기도를 예측하는 것이 필요하다.
또한, 스토리지의 가격이 낮아지면서 스몰 셀 기지국에 충분한 스토리지 용량을 제공할 수 있다고 하더라도 컨텐츠 프로바이더가 제공하는 컨텐츠의 양이 너무 방대하기 때문에 전부 캐싱하기에는 어려움이 있다.
본 발명이 이루고자 하는 기술적 과제는 기존의 음수 미포함 행렬 분해(Non-negative Matrix Factorization; NMF)를 활용하여 새롭게 커뮤니티 기반의 음수 미포함 행렬 분해(Community-aware NMF; CNMF)를 제안하여 컨텐츠 인기도를 예측하기 위한 방법 및 장치를 제공하는데 있다. 또한, 캐시 사이즈의 한계를 해결하기 위해 주변 스몰 셀 기지국에 캐싱된 컨텐츠를 활용할 수 있도록 CoMP 기반의 협력 캐싱 기법을 제안한다.
일 측면에 있어서, 본 발명에서 제안하는 CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 방법은 사용자마다 하나의 커뮤니티를 갖는 스몰 셀 네트워크 내의 사용자들 및 스몰 셀 기지국들을 포함하는 레이팅(rating) 기반의 스몰 셀 네트워크를 형성하는 단계, CNMF 계산부를 통해 커뮤니티 기반의 음수 미포함 행렬 분해(Community-aware NMF; CNMF)를 수행하여 사용자들의 컨텐츠 요청 확률을 계산하는 단계 및 각 스몰 셀 기지국들이 사용자들에 대해 계산된 컨텐츠 요청 확률을 전달 받아 비교하여 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는 단계를 포함한다.
스몰 셀 기지국은 캐싱 기능을 갖고, 현재 스몰 셀 기지국에 연결되어 있는 사용자 집합인 관련 사용자 세트, 주변 스몰 셀 기지국에 연결되어 있지만 스몰 셀 기지국의 커버리지 안에 있어 협력 통신이 가능한 사용자 집합인 협력 관련 사용자 세트, 각 사용자의 커뮤니티 정보를 갖는다.
CNMF 계산부를 통해 커뮤니티 기반의 음수 미포함 행렬 분해를 수행하여 사용자들의 컨텐츠 요청 확률을 계산하는 단계는 모바일 코어단에 CRPL(Content Request Probability Learning) 서버가 존재하여 해당 서버에서 커뮤니티 기반의 음수 미포함 행렬 분해를 수행하여 사용자들의 컨텐츠 요청확률을 계산한다.
CNMF 계산부를 통해 커뮤니티 기반의 음수 미포함 행렬 분해를 수행하여 사용자들의 컨텐츠 요청 확률을 계산하는 단계는 특정 사용자에게로 바이어스된 캐싱이 발생되지 않도록 CNMF 계산부를 통해 음수 미포함 행렬 분해(Non-negative Matrix Factorization; NMF)에 사용자의 커뮤니티 정보와 컨텐츠 요청 히스토리를 추가하여 사용자의 컨텐츠 요청 확률을 예측한다.
컨텐츠의 레이팅 정보를 컨텐츠 요청 확률로 변환하여 예측하기 위해 사용자의 정규화된 소셜 커뮤니티 사이즈와 스몰 셀 기지국에서의 각 컨텐츠에 대한 요청 히스토리 정보를 이용한다.
각 스몰 셀 기지국들이 사용자들에 대해 계산된 컨텐츠 요청 확률을 전달 받아 비교하여 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는 단계는 캐싱 사이즈의 한계를 해결하기 위해 주변 스몰 셀 기지국에 캐싱된 컨텐츠를 활용할 수 있도록 CoMP(Coordinated Multi Point) 방식을 이용하여 스몰 셀 노드에 캐싱할 컨텐츠를 결정한다.
각 스몰 셀 기지국들이 사용자들에 대해 계산된 컨텐츠 요청 확률을 전달 받아 비교하여 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는 단계는 계산된 각 사용자들의 컨텐츠 요청 확률에 기초하여 CoMP 기반 컨텐츠 배치부를 통해 스몰 셀 기지국에서 자신의 캐시 사이즈만큼 캐싱할 컨텐츠를 결정한다.
각 스몰 셀 기지국들이 사용자들에 대해 계산된 컨텐츠 요청 확률을 전달 받아 비교하여 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는 단계는 스몰 셀 기지국들은 자신의 관련 사용자 세트와 협력 관련 사용자 세트에 속한 사용자들의 컨텐츠 요청 확률을 전달 받아, 각각의 세트를 미리 정해진 기준에 따라 분류하고, CNMF 기반 예측 캐싱 알고리즘의 우선 순위 비교 규칙을 통해 스몰 셀 노드에 캐싱할 컨텐츠를 결정한다.
협력 통신이 가능한 스몰 셀 기지국 내에서 미리 정해진 기준에 따라 분류된 세트 중 인기 컨텐츠에 대해 중복 캐싱 되어 공동 전송(Joint Transmission)을 통해 컨텐츠를 전송하고, 인기 컨텐츠에 대해 중복 캐싱 되어 공동 전송을 통해 전송된 후, 나머지 컨텐츠들에 대해 컨텐츠 요청 확률에 기초한 컨텐츠 다양성 기반 캐싱을 수행하고 동적 포인트 선택(Dynamic Point Selection)을 통해 컨텐츠를 전송한다.
또 다른 일 측면에 있어서, 본 발명에서 제안하는 CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 장치는 커뮤니티 기반의 음수 미포함 행렬 분해(Community-aware NMF; CNMF)를 수행하여 사용자들의 컨텐츠 요청 확률을 계산하는 CNMF 계산부 및 각 스몰 셀 기지국들이 사용자들에 대해 계산된 컨텐츠 요청 확률을 전달 받아 비교하여 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는 CoMP 기반 컨텐츠 배치부를 포함한다.
본 발명의 실시예들에 따르면 기존의 휴리스틱한 알고리즘에 비해 기계학습 기법을 활용함으로써 컨텐츠 히트율이 향상될 수 있다. 또한, CoMP를 활용하여 캐싱할 컨텐츠를 결정함으로써 컨텐츠의 전송 지연이 감소하고, 스몰 셀이 밀집하게 배치될수록 컨텐츠 히트율이 증가할 수 있다.
도 1은 본 발명의 일 실시예에 따른 시스템 모델을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 CNMF 계산부를 통해 커뮤니티 기반의 음수 미포함 행렬 분해를 수행하여 사용자들의 컨텐츠 요청 확률을 계산하는 과정을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는 과정을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 따른 CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 장치의 구성을 나타내는 도면이다.
도 6은 종래기술과 본 발명의 일 실시예에 따른 컨텐츠 히트율과 컨텐츠 전송 지연 측면에서의 성능을 비교하는 그래프이다.
도 7은 종래기술과 본 발명의 일 실시예에 따른 캐싱 기법의 성능을 비교하는 그래프이다.
본 발명은 CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 기법에 관한 것으로, 음수 미포함 행렬 분해(Non-negative Matrix Factorization; NMF), 소셜 커뮤니티 정보, 컨텐츠 요청 히스토리 정보를 이용하여 사용자의 컨텐츠 요청 확률을 계산하고 이를 기반으로 사용자와 근접하게 위치한 스몰 셀 노드에 미리 캐싱한다. 이때, 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는 방식은 예측한 사용자의 컨텐츠 요청 확률 정보와 스몰 셀 노드 간의 협력 통신 방식(Coordinated Multipoint; CoMP)를 고려하여 결정한다. 이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 시스템 모델을 설명하기 위한 도면이다.
도 1을 참고하면, 스몰 셀 네트워크 내의 사용자들(U1, U2, U3)은 레이팅(rating) 기반의 소셜 네트워크를 형성하고 있고 사용자마다 하나의 커뮤니티(community)를 가진다.
스몰 셀 기지국(110)은 캐싱 기능을 갖고 관련 사용자 세트(associated user set)(현재 스몰 셀 기지국에 연결되어 있는 사용자 집합), 협력 관련 사용자 세트(cooperatively associated user set)(주변 스몰 셀 기지국에 연결되어 있지만 스몰 셀 기지국의 커버리지 안에 있어 협력 통신이 가능한 사용자 집합), 각 사용자의 커뮤니티 정보를 가진다. 또한, 스몰 셀 기지국(110)은 CNMF(Community-aware NMF; CNMF) 기반 예측 캐싱 알고리즘(111)을 포함하고 있다.
본 발명의 실시예에 따른 5G 모바일 코어단에 CRPL(Content Request Probability Learning) 서버(120)가 존재하며, 해당 서버는 컨텐츠 배치부(130)로부터 받은 요청에 따라 커뮤니티 기반의 음수 미포함 행렬 분해(Community-aware NMF; CNMF)(121)를 수행하여 사용자들의 컨텐츠 요청 확률을 계산한다.
각 스몰 셀 기지국들은 자신의 관련 사용자 세트(associated user set) 및 협력 관련 사용자 세트(cooperatively associated user set)에 속한 사용자들의 컨텐츠 요청 확률을 전달 받아 이를 비교하여 어떤 컨텐츠를 캐싱할 것인지 결정한다.
도 2는 본 발명의 일 실시예에 따른 CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 방법을 설명하기 위한 흐름도이다.
제안하는 CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 방법은 사용자마다 하나의 커뮤니티를 갖는 스몰 셀 네트워크 내의 사용자들 및 스몰 셀 기지국들을 포함하는 레이팅(rating) 기반의 스몰 셀 네트워크를 형성하는 단계(210), CNMF 계산부를 통해 커뮤니티 기반의 음수 미포함 행렬 분해(Community-aware NMF; CNMF)를 수행하여 사용자들의 컨텐츠 요청 확률을 계산하는 단계(220) 및 각 스몰 셀 기지국들이 사용자들에 대해 계산된 컨텐츠 요청 확률을 전달 받아 비교하여 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는 단계(230)를 포함한다.
단계(210)에서, 사용자마다 하나의 커뮤니티를 갖는 스몰 셀 네트워크 내의 사용자들 및 스몰 셀 기지국들을 포함하는 레이팅(rating) 기반의 스몰 셀 네트워크를 형성한다.
여기서, 스몰 셀 기지국은 캐싱 기능을 갖고, 현재 스몰 셀 기지국에 연결되어 있는 사용자 집합인 관련 사용자 세트, 주변 스몰 셀 기지국에 연결되어 있지만 스몰 셀 기지국의 커버리지 안에 있어 협력 통신이 가능한 사용자 집합인 협력 관련 사용자 세트, 각 사용자의 커뮤니티 정보를 갖는다.
단계(220)에서, CNMF 계산부를 통해 커뮤니티 기반의 음수 미포함 행렬 분해(Community-aware NMF; CNMF)를 수행하여 사용자들의 컨텐츠 요청 확률을 계산한다.
본 발명의 실시예에 따르면, 모바일 코어단에 CRPL(Content Request Probability Learning) 서버가 존재하여 해당 서버에서 커뮤니티 기반의 음수 미포함 행렬 분해를 수행하여 사용자들의 컨텐츠 요청확률을 계산한다. 도 3을 참조하여 컨텐츠 요청 확률을 계산하는 과정을 더욱 상세히 설명한다.
도 3은 본 발명의 일 실시예에 따른 CNMF 계산부를 통해 커뮤니티 기반의 음수 미포함 행렬 분해를 수행하여 사용자들의 컨텐츠 요청 확률을 계산하는 과정을 설명하기 위한 도면이다.
기존의 NMF에서 컨텐츠 레이팅 값만 가지고 캐싱했을 경우, 특정 사용자에게로 바이어스된 캐싱이 발생할 수 있다. 따라서 본 발명에서 제안하는 CNMF는 특정 사용자에게로 바이어스된 캐싱이 발생되지 않도록 CNMF 계산부를 통해 컨텐츠의 레이팅 행렬(310)에 대해 음수 미포함 행렬 분해(Non-negative Matrix Factorization; NMF)(320)을 수행하고, 여기에 각 컨텐츠에 대한 요청 히스토리 정보(331)와 정규화된 소셜 커뮤니티 사이즈(normalized social community size)(332)를 추가하여 사용자의 컨텐츠 요청 확률 행렬(340)을 예측한다.
컨텐츠의 레이팅 행렬(310)을 컨텐츠 요청 확률 행렬(340)로 변환하여 예측하기 위해 사용자의 스몰 셀 기지국에서의 각 컨텐츠에 대한 요청 히스토리 정보(331)와 정규화된 소셜 커뮤니티 사이즈(332)를 이용한다.
같은 소셜 커뮤니티를 가진 사용자들은 비슷한 컨텐츠를 소비할 가능성이 크기 때문에 스몰 셀 기지국에 같은 커뮤니티를 가진 사용자들에게 바이어스를 줌으로써 기존의 바이어스된 캐싱을 해결하면서 동시에 로컬 컨텐츠 인기도(local content popularity)를 반영할 수 있다.
컨텐츠 요청 히스토리 정보 역시 표본의 수가 적지만, 그 자체로 스몰 셀 기지국의 로컬 컨텐츠 인기도를 나타내는 값이기 때문에 사용자들의 컨텐츠 요청 확률을 예측하는데 활용할 수 있다.
컨텐츠의 레이팅 행렬(310)을 컨텐츠 요청 확률 행렬(340)로 변환하는 식은 다음과 같다:
Figure 112019055613363-pat00001
여기서,
Figure 112019055613363-pat00002
는 사용자 u의 컨텐츠 i에 대한 레이팅 값,
Figure 112019055613363-pat00003
는 사용자 u의 컨텐츠 i에 대한 요청 확률, R은 컨텐츠 rating 행렬, P는 컨텐츠 요청 확률 행렬,
Figure 112019055613363-pat00004
Figure 112019055613363-pat00005
의 중간값이다.
이를 이용하여 컨텐츠 요청 확률을 예측하는 모델은 다음과 같이 나타낼 수 있다:
Figure 112019055613363-pat00006
이고,
Figure 112019055613363-pat00007
이다.
Figure 112019055613363-pat00008
는 사용자 u의 컨텐츠 i에 대한 예측된 요청 확률,
Figure 112019055613363-pat00009
는 컨텐츠 i에 대한 요청 히스토리,
Figure 112019055613363-pat00010
는 컨텐츠 i에 대한 가중치(weight).
Figure 112019055613363-pat00011
는 사용자 u에 대한 정규화된 소셜 커뮤니티 사이즈,
Figure 112019055613363-pat00012
는 사용자 u가 속한 커뮤니티의 멤버 수,
Figure 112019055613363-pat00013
는 사용자 u가 속한 스몰 셀 기지국에 연결되어 있는 사용자 수,
Figure 112019055613363-pat00014
는 튜닝 파라미터,
Figure 112019055613363-pat00015
는 오버피팅을 막기 위한 정규화 파라미터이다.
컨텐츠 요청 확률 학습 및 예측 과정에 있어서, 확률적 경사 하강 알고리즘(Stochastic gradient descent algorithm)에 의해 다음과 같이 컨텐츠 요청 확률이 학습될 수 있다.
Figure 112019055613363-pat00016
Figure 112019055613363-pat00017
Figure 112019055613363-pat00018
Figure 112019055613363-pat00019
다시 도 2를 참조하면, 단계(230)에서 각 스몰 셀 기지국들이 사용자들에 대해 계산된 컨텐츠 요청 확률을 전달 받아 비교하여 스몰 셀 노드에 캐싱할 컨텐츠를 결정한다.
도 4는 본 발명의 일 실시예에 따른 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는 과정을 설명하기 위한 도면이다.
CNMF로 계산된 각 사용자들의 컨텐츠 요청 확률을 기반으로 스몰 셀 기지국에서 자신의 캐시 사이즈만큼 캐싱할 컨텐츠를 결정한다. 스몰 셀 기지국들은 자신의 관련 사용자 세트(associated user set)와 협력 관련 사용자 세트(cooperatively associated user set)에 속한 사용자들의 컨텐츠 요청 확률을 전달 받는다. 각각의 세트를 높은 인기 세트(very popular set), 중간 인기 세트(moderately popular set), 낮은 인기 세트(less popular set)로 나누고 도 4의 알고리즘1(algorithm1)의 우선 순위 비교 규칙을 통해 캐싱 컨텐츠를 결정한다.
여기서,
Figure 112019055613363-pat00020
는 관련 사용자 세트에 대한 예측된 컨텐츠 요청 행렬,
Figure 112019055613363-pat00021
은 협력 관련 사용자 세트에 대한 예측된 컨텐츠 요청 행렬,
Figure 112019055613363-pat00022
은 캐시 사이즈,
Figure 112019055613363-pat00023
는 컨텐츠 수,
Figure 112019055613363-pat00024
Figure 112019055613363-pat00025
의 내림차순 하여 캐시 사이즈 M 만큼 걸러낸 집합,
Figure 112019055613363-pat00026
Figure 112019055613363-pat00027
의 내림차순 하여 캐시 사이즈 M 만큼 걸러낸 집합,
Figure 112019055613363-pat00028
는 높은 인기 컨텐츠 집합,
Figure 112019055613363-pat00029
는 중간 인기 컨텐츠 집합,
Figure 112019055613363-pat00030
는 낮은 인기 컨텐츠 집합이다.
CoMP 협력 세트(다시 말해, 협력 통신을 수행할 수 있는 스몰 셀 기지국 집합)내에 인기 있는 컨텐츠에 대해서 중복 캐싱 되어 공동 전송(Joint Transmission)을 통해 컨텐츠가 전송된다. 이후, 나머지 컨텐츠들에 대해서도 컨텐츠 요청 확률을 기반으로 컨텐츠 다양성 기반 캐싱이 수행되어 동적 포인트 선택(Dynamic Point Selection)을 통해 컨텐츠가 전송된다. 이때, CoMP 협력 세트가 사용자 요청 시마다 갱신되고 무선 자원 스케줄링 단위가 아닌 사용자 요청 단위로 공동 전송이나 동적 포인트 선택이 수행되면 CoMP 기반의 능동 캐싱 성능이 극대화 될 수 있다.
도 5는 본 발명의 일 실시예에 따른 따른 CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 장치의 구성을 나타내는 도면이다.
제안하는 CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 장치(500)는 CNMF 계산부(510) 및 CoMP 기반 컨텐츠 배치부(520)를 포함한다.
CNMF 계산부(510)를 통해 커뮤니티 기반의 음수 미포함 행렬 분해(Community-aware NMF; CNMF)를 수행하여 사용자들의 컨텐츠 요청 확률을 계산한다.
여기서, 스몰 셀 기지국은 캐싱 기능을 갖고, 현재 스몰 셀 기지국에 연결되어 있는 사용자 집합인 관련 사용자 세트, 주변 스몰 셀 기지국에 연결되어 있지만 스몰 셀 기지국의 커버리지 안에 있어 협력 통신이 가능한 사용자 집합인 협력 관련 사용자 세트, 각 사용자의 커뮤니티 정보를 갖는다.
본 발명의 실시예에 따르면, 모바일 코어단에 CRPL(Content Request Probability Learning) 서버가 존재하여 해당 서버에서 커뮤니티 기반의 음수 미포함 행렬 분해를 수행하여 사용자들의 컨텐츠 요청확률을 계산한다.
기존의 NMF에서 컨텐츠 레이팅 값만 가지고 캐싱했을 경우, 특정 사용자에게로 바이어스된 캐싱이 발생할 수 있다. 따라서 본 발명에서 제안하는 CNMF는 특정 사용자에게로 바이어스된 캐싱이 발생되지 않도록 CNMF 계산부를 통해 컨텐츠의 레이팅 행렬에 대해 음수 미포함 행렬 분해(Non-negative Matrix Factorization; NMF)(320)을 수행하고, 여기에 각 컨텐츠에 대한 요청 히스토리 정보(331)와 정규화된 소셜 커뮤니티 사이즈(normalized social community size)(332)를 추가하여 사용자의 컨텐츠 요청 확률 행렬을 예측한다.
컨텐츠의 레이팅 행렬을 컨텐츠 요청 확률 행렬로 변환하여 예측하기 위해 사용자의 스몰 셀 기지국에서의 각 컨텐츠에 대한 요청 히스토리 정보와 정규화된 소셜 커뮤니티 사이즈를 이용한다.
같은 소셜 커뮤니티를 가진 사용자들은 비슷한 컨텐츠를 소비할 가능성이 크기 때문에 스몰 셀 기지국에 같은 커뮤니티를 가진 사용자들에게 바이어스를 줌으로써 기존의 바이어스된 캐싱을 해결하면서 동시에 로컬 컨텐츠 인기도를 반영할 수 있다.
컨텐츠 요청 히스토리 정보 역시 표본의 수가 적지만, 그 자체로 스몰 셀 기지국의 로컬 컨텐츠 인기를 나타내는 값이기 때문에 사용자들의 컨텐츠 요청 확률을 예측하는데 활용할 수 있다.
CoMP 기반 컨텐츠 배치부(520)는 각 스몰 셀 기지국들이 사용자들에 대해 계산된 컨텐츠 요청 확률을 전달 받아 비교하여 스몰 셀 노드에 캐싱할 컨텐츠를 결정한다.
스몰 셀 기지국들은 자신의 관련 사용자 세트와 협력 관련 사용자 세트에 속한 사용자들의 컨텐츠 요청 확률을 전달 받는다. 각각의 세트를 높은 인기 세트, 중간 인기 세트, 낮은 인기 세트로 나누고 도 4의 알고리즘1의 우선 순위 비교 규칙을 통해 캐싱 컨텐츠를 결정한다.
CoMP 협력 세트(다시 말해, 협력 통신을 수행할 수 있는 스몰 셀 기지국 집합)내에 인기 있는 컨텐츠에 대해서 중복 캐싱 되어 공동 전송을 통해 컨텐츠가 전송된다. 이후, 나머지 컨텐츠들에 대해서도 컨텐츠 요청 확률을 기반으로 다양성 기반 캐싱이 수행되어 동적 포인트 선택을 통해 컨텐츠가 전송된다.
종래기술에 따른 NMF 기반의 캐싱, MPC(Most Popular Content) + LCD(Least Content Diversity) 기반의 캐싱을 본 발명에서 제안한 CNMF 기반의 캐싱과 성능 비교하였다. 실측 데이터를 위해 MovieLens 데이터 셋을 활용하였고, 9,000 컨텐츠에 대한 700명의 사용자들로부터 100,000 레이팅을 적용하였다. 트레이닝 세트는 0.7*R이고, 테스트 세트는 0.3*R이며, 시뮬레이션 파라미터는 다음과 같다:
Figure 112019055613363-pat00031
도 6은 종래기술과 본 발명의 일 실시예에 따른 컨텐츠 히트율과 컨텐츠 전송 지연 측면에서의 성능을 비교하는 그래프이다.
도 6을 참조하면, 컨텐츠 히트율과 컨텐츠 전송 지연 측면에서 성능이 크게 개선된 것을 알 수 있다. 캐시 사이즈가 작아지게 되면 기존의 기계학습 기반의 캐싱 알고리즘이 휴리스틱한 알고리즘 보다 더 낮은 성능을 보이기도 하지만 본 발명에서 제안하는 캐싱 기법은 이러한 문제점을 해결할 수 있다.
도 7은 종래기술과 본 발명의 일 실시예에 따른 캐싱 기법의 성능을 비교하는 그래프이다.
CoMP가 있는 환경과 없는 환경에서 본 발명에서 제안한 캐싱 기법의 성능을 비교하였을 때도 성능이 크게 향상됨을 알 수 있었다. 특히, 스몰 셀 기지국 밀도가 증가하면 성능 향상의 정도가 더 증가한다는 것을 알 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다.  또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.  이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다.  예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다.  또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.  소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다.  소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.  상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.  상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.  컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.  프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다.  예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 사용자마다 하나의 커뮤니티를 갖는 스몰 셀 네트워크 내의 사용자들 및 스몰 셀 기지국들을 포함하는 레이팅(rating) 기반의 스몰 셀 네트워크를 형성하는 단계;
    CNMF 계산부를 통해 커뮤니티 기반의 음수 미포함 행렬 분해(Community-aware NMF; CNMF)를 수행하여 사용자들의 컨텐츠 요청 확률을 계산하는 단계; 및
    각 스몰 셀 기지국들이 사용자들에 대해 계산된 컨텐츠 요청 확률을 전달 받아 비교하여 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는 단계
    를 포함하는 능동 캐싱 방법.
  2. 제1항에 있어서,
    스몰 셀 기지국은 캐싱 기능을 갖고, 현재 스몰 셀 기지국에 연결되어 있는 사용자 집합인 관련 사용자 세트, 주변 스몰 셀 기지국에 연결되어 있지만 스몰 셀 기지국의 커버리지 안에 있어 협력 통신이 가능한 사용자 집합인 협력 관련 사용자 세트, 각 사용자의 커뮤니티 정보를 갖는
    능동 캐싱 방법.
  3. 제1항에 있어서,
    CNMF 계산부를 통해 커뮤니티 기반의 음수 미포함 행렬 분해를 수행하여 사용자들의 컨텐츠 요청 확률을 계산하는 단계는,
    모바일 코어단에 CRPL(Content Request Probability Learning) 서버가 존재하여 해당 서버에서 커뮤니티 기반의 음수 미포함 행렬 분해를 수행하여 사용자들의 컨텐츠 요청확률을 계산하는
    능동 캐싱 방법.
  4. 제1항에 있어서,
    CNMF 계산부를 통해 커뮤니티 기반의 음수 미포함 행렬 분해를 수행하여 사용자들의 컨텐츠 요청 확률을 계산하는 단계는,
    특정 사용자에게로 바이어스된 캐싱이 발생되지 않도록 CNMF 계산부를 통해 음수 미포함 행렬 분해(Non-negative Matrix Factorization; NMF)에 사용자의 커뮤니티 정보와 컨텐츠 요청 히스토리를 추가하여 사용자의 컨텐츠 요청 확률을 예측하는
    능동 캐싱 방법.
  5. 제4항에 있어서,
    컨텐츠의 레이팅 정보를 컨텐츠 요청 확률로 변환하여 예측하기 위해 사용자의 정규화된 소셜 커뮤니티 사이즈와 스몰 셀 기지국에서의 각 컨텐츠에 대한 요청 히스토리 정보를 이용하는
    능동 캐싱 방법.
  6. 제1항에 있어서,
    각 스몰 셀 기지국들이 사용자들에 대해 계산된 컨텐츠 요청 확률을 전달 받아 비교하여 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는 단계는,
    캐싱 사이즈의 한계를 해결하기 위해 주변 스몰 셀 기지국에 캐싱된 컨텐츠를 활용할 수 있도록 CoMP(Coordinated Multi Point) 방식을 이용하여 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는
    능동 캐싱 방법.
  7. 제1항에 있어서,
    각 스몰 셀 기지국들이 사용자들에 대해 계산된 컨텐츠 요청 확률을 전달 받아 비교하여 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는 단계는,
    계산된 각 사용자들의 컨텐츠 요청 확률에 기초하여 CoMP 기반 컨텐츠 배치부를 통해 스몰 셀 기지국에서 자신의 캐시 사이즈만큼 캐싱할 컨텐츠를 결정하는
    능동 캐싱 방법.
  8. 제1항에 있어서,
    각 스몰 셀 기지국들이 사용자들에 대해 계산된 컨텐츠 요청 확률을 전달 받아 비교하여 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는 단계는,
    스몰 셀 기지국들은 자신의 관련 사용자 세트와 협력 관련 사용자 세트에 속한 사용자들의 컨텐츠 요청 확률을 전달 받아, 각각의 세트를 미리 정해진 기준에 따라 분류하고, CNMF 기반 예측 캐싱 알고리즘의 우선 순위 비교 규칙을 통해 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는
    능동 캐싱 방법.
  9. 제8항에 있어서,
    협력 통신이 가능한 스몰 셀 기지국 내에서 미리 정해진 기준에 따라 분류된 세트 중 인기 컨텐츠에 대해 중복 캐싱 되어 공동 전송(Joint Transmission)을 통해 컨텐츠를 전송하는
    능동 캐싱 방법.
  10. 제9항에 있어서,
    인기 컨텐츠에 대해 중복 캐싱 되어 공동 전송을 통해 전송된 후, 나머지 컨텐츠들에 대해 컨텐츠 요청 확률에 기초한 다양성 기반 캐싱을 수행하고 동적 포인트 선택을 통해 컨텐츠를 전송하는
    능동 캐싱 방법.
  11. 커뮤니티 기반의 음수 미포함 행렬 분해(Community-aware NMF; CNMF)를 수행하여 사용자들의 컨텐츠 요청 확률을 계산하는 CNMF 계산부; 및
    각 스몰 셀 기지국들이 사용자들에 대해 계산된 컨텐츠 요청 확률을 전달 받아 비교하여 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는 CoMP 기반 컨텐츠 배치부
    를 포함하는 능동 캐싱 장치.
  12. 제11항에 있어서,
    사용자마다 하나의 커뮤니티를 갖는 스몰 셀 네트워크 내의 사용자들 및 스몰 셀 기지국들을 포함하는 레이팅(rating) 기반의 스몰 셀 네트워크를 형성하고, 스몰 셀 기지국은 캐싱 기능을 갖고, 현재 스몰 셀 기지국에 연결되어 있는 사용자 집합인 관련 사용자 세트, 주변 스몰 셀 기지국에 연결되어 있지만 스몰 셀 기지국의 커버리지 안에 있어 협력 통신이 가능한 사용자 집합인 협력 관련 사용자 세트, 각 사용자의 커뮤니티 정보를 갖는
    능동 캐싱 장치.
  13. 제11항에 있어서,
    CNMF 계산부는,
    모바일 코어단에 CRPL(Content Request Probability Learning) 서버가 존재하여 해당 서버에서 커뮤니티 기반의 음수 미포함 행렬 분해를 수행하여 사용자들의 컨텐츠 요청확률을 계산하는
    능동 캐싱 장치.
  14. 제11항에 있어서,
    CNMF 계산부는,
    특정 사용자에게로 바이어스된 캐싱이 발생되지 않도록 CNMF 계산부를 통해 음수 미포함 행렬 분해(Non-negative Matrix Factorization; NMF)에 사용자의 커뮤니티 정보와 컨텐츠 요청 히스토리를 추가하여 사용자의 컨텐츠 요청 확률을 예측하는
    능동 캐싱 장치.
  15. 제14항에 있어서,
    컨텐츠의 레이팅 정보를 컨텐츠 요청 확률로 변환하여 예측하기 위해 사용자의 정규화된 소셜 커뮤니티 사이즈와 스몰 셀 기지국에서의 각 컨텐츠에 대한 요청 히스토리 정보를 이용하는
    능동 캐싱 장치.
  16. 제11항에 있어서,
    CoMP 기반 컨텐츠 배치부는,
    캐싱 사이즈의 한계를 해결하기 위해 주변 스몰 셀 기지국에 캐싱된 컨텐츠를 활용할 수 있도록 CoMP(Coordinated Multi Point) 방식을 이용하여 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는
    능동 캐싱 장치.
  17. 제11항에 있어서,
    CoMP 기반 컨텐츠 배치부는,
    계산된 각 사용자들의 컨텐츠 요청 확률에 기초하여 CoMP 기반 컨텐츠 배치부를 통해 스몰 셀 기지국에서 자신의 캐시 사이즈만큼 캐싱할 컨텐츠를 결정하는
    능동 캐싱 장치.
  18. 제11항에 있어서,
    CoMP 기반 컨텐츠 배치부는,
    스몰 셀 기지국들은 자신의 관련 사용자 세트와 협력 관련 사용자 세트에 속한 사용자들의 컨텐츠 요청 확률을 전달 받아, 각각의 세트를 미리 정해진 기준에 따라 분류하고, CNMF 기반 예측 캐싱 알고리즘의 우선 순위 비교 규칙을 통해 스몰 셀 노드에 캐싱할 컨텐츠를 결정하는
    능동 캐싱 장치.
  19. 제18항에 있어서,
    협력 통신이 가능한 스몰 셀 기지국 내에서 미리 정해진 기준에 따라 분류된 세트 중 인기 컨텐츠에 대해 중복 캐싱 되어 공동 전송(Joint Transmission)을 통해 컨텐츠를 전송하는
    능동 캐싱 장치.
  20. 제19항에 있어서,
    인기 컨텐츠에 대해 중복 캐싱 되어 공동 전송을 통해 전송된 후, 나머지 컨텐츠들에 대해 컨텐츠 요청 확률에 기초한 다양성 기반 캐싱을 수행하고 동적 포인트 선택을 통해 컨텐츠를 전송하는
    능동 캐싱 장치.
KR1020190063684A 2019-05-30 2019-05-30 CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 기법 KR102163214B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190063684A KR102163214B1 (ko) 2019-05-30 2019-05-30 CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 기법
CN201910864461.6A CN112020081A (zh) 2019-05-30 2019-09-12 在基于多点协作的小蜂窝网络中利用机器学习的主动缓存方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190063684A KR102163214B1 (ko) 2019-05-30 2019-05-30 CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 기법

Publications (1)

Publication Number Publication Date
KR102163214B1 true KR102163214B1 (ko) 2020-10-08

Family

ID=72897408

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190063684A KR102163214B1 (ko) 2019-05-30 2019-05-30 CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 기법

Country Status (2)

Country Link
KR (1) KR102163214B1 (ko)
CN (1) CN112020081A (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140067881A (ko) * 2012-11-26 2014-06-05 삼성전자주식회사 컨텐츠 중심 네트워크에서 컨텐츠 소유자 및 노드의 패킷 전송 방법
KR20180043613A (ko) * 2016-10-20 2018-04-30 에스케이텔레콤 주식회사 효율적인 컨텐츠 전송을 위한 네트워크 캐싱 제어방법 및 그를 위한 장치
KR20180112266A (ko) * 2017-04-03 2018-10-12 한국전자통신연구원 네트워크 캐싱 장치 및 방법

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2397911C (en) * 2000-01-19 2007-05-08 Kline & Walker, Llc Protected accountable primary focal node interface
US9043329B1 (en) * 2013-12-19 2015-05-26 Banjo, Inc. Dynamic event detection system and method
US10291737B2 (en) * 2014-08-08 2019-05-14 Facebook, Inc. Identifying and caching content for offline use
US20170289593A1 (en) * 2014-09-24 2017-10-05 Interdigital Patent Holdings, Inc. Method and system for creating a pre-fetching list for managed caching in small cell networks
US10474965B2 (en) * 2016-03-09 2019-11-12 Verizon Digital Media Services Inc. Methods and systems for advanced content cacheability determination
CN108416374B (zh) * 2018-02-13 2020-07-31 中国科学院西安光学精密机械研究所 基于判别正交子空间约束的非负矩阵分解方法
CN108600365B (zh) * 2018-04-20 2020-05-22 西安交通大学 一种基于排序学习的无线异构网络缓存方法
CN108833352B (zh) * 2018-05-17 2020-08-11 北京邮电大学 一种缓存方法及系统
CN109413694B (zh) * 2018-09-10 2020-02-18 北京邮电大学 一种基于内容流行度预测的小小区缓存方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140067881A (ko) * 2012-11-26 2014-06-05 삼성전자주식회사 컨텐츠 중심 네트워크에서 컨텐츠 소유자 및 노드의 패킷 전송 방법
KR20180043613A (ko) * 2016-10-20 2018-04-30 에스케이텔레콤 주식회사 효율적인 컨텐츠 전송을 위한 네트워크 캐싱 제어방법 및 그를 위한 장치
KR20180112266A (ko) * 2017-04-03 2018-10-12 한국전자통신연구원 네트워크 캐싱 장치 및 방법

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Cooperative Online Caching in Small Cell Networks with Limited Cache Size and Unknown Content Popularity(IEEE, Chen-Tai Yen ET AL, 2018.04.30.) *
D2D caching vs. small cell caching: Where to cache content in a wireless network?(Zheng Chen ET AL, 2016.07.06.) *
Distributed cache-aware CoMP transmission scheme in dense small cell networks with limited backhaul(Ronghui Hou ET AL, 2019.04.15.) *

Also Published As

Publication number Publication date
CN112020081A (zh) 2020-12-01

Similar Documents

Publication Publication Date Title
Li et al. Collaborative cache allocation and task scheduling for data-intensive applications in edge computing environment
Deng et al. Composition-driven IoT service provisioning in distributed edges
US8005654B2 (en) Method, apparatus and computer program product for intelligent workload control of distributed storage
WO2016161677A1 (zh) 一种业务卸载方法及系统
KR102470712B1 (ko) 피처 엔지니어링 오케스트레이션 방법 및 장치
WO2019129169A1 (zh) 用于无线通信的电子设备和方法以及计算机可读存储介质
US20220386136A1 (en) Facilitating heterogeneous network analysis and resource planning for advanced networks
Li et al. Deployment of edge servers in 5G cellular networks
Li et al. Collaborative caching strategy based on optimization of latency and energy consumption in MEC
Li et al. Load balancing edge server placement method with QoS requirements in wireless metropolitan area networks
KR101924628B1 (ko) 트래픽 오프로딩을 제어하기 위한 장치 및 방법
Li et al. DQN-enabled content caching and quantum ant colony-based computation offloading in MEC
Dao et al. Mobile cloudization storytelling: Current issues from an optimization perspective
Malazi et al. Distributed service placement and workload orchestration in a multi-access edge computing environment
Peng et al. Joint optimisation for time consumption and energy consumption of multi‐application and load balancing of cloudlets in mobile edge computing
Durga et al. Context-aware adaptive resource provisioning for mobile clients in intra-cloud environment
KR102163214B1 (ko) CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 기법
US11622322B1 (en) Systems and methods for providing satellite backhaul management over terrestrial fiber
Yong Load balancing strategy for medical big data based on low delay cloud network
Jiang et al. A Task Offloading Method with Edge for 5G‐Envisioned Cyber‐Physical‐Social Systems
CN113709817A (zh) 多基站多服务器场景下的任务卸载和资源调度方法及装置
Zhao et al. Power system low delay resource scheduling model based on edge computing node
Lei et al. Deep deterministic policy gradient-based edge caching: An inherent performance tradeoff
Zhang et al. Deploying GIS services into the edge: A study from performance evaluation and optimization viewpoint
Zheng et al. Delay-optimized offloading for mobile cloud computing services in heterogenous networks

Legal Events

Date Code Title Description
GRNT Written decision to grant