CN112020081A - 在基于多点协作的小蜂窝网络中利用机器学习的主动缓存方法 - Google Patents

在基于多点协作的小蜂窝网络中利用机器学习的主动缓存方法 Download PDF

Info

Publication number
CN112020081A
CN112020081A CN201910864461.6A CN201910864461A CN112020081A CN 112020081 A CN112020081 A CN 112020081A CN 201910864461 A CN201910864461 A CN 201910864461A CN 112020081 A CN112020081 A CN 112020081A
Authority
CN
China
Prior art keywords
content
user
community
small cell
content request
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910864461.6A
Other languages
English (en)
Inventor
朴弘植
崔埈均
朴智用
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Korea Advanced Institute of Science and Technology KAIST
Original Assignee
Korea Advanced Institute of Science and Technology KAIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Korea Advanced Institute of Science and Technology KAIST filed Critical Korea Advanced Institute of Science and Technology KAIST
Publication of CN112020081A publication Critical patent/CN112020081A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/568Storing data temporarily at an intermediate stage, e.g. caching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/022Site diversity; Macro-diversity
    • H04B7/024Co-operative use of antennas of several sites, e.g. in co-ordinated multipoint or co-operative multiple-input multiple-output [MIMO] systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/565Conversion or adaptation of application format or content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/567Integrating service provisioning from a plurality of service providers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/08Access point devices
    • H04W88/10Access point devices adapted for operation in multiple networks, e.g. multi-mode access points

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明公开在基于多点协作的小蜂窝网络中利用机器学习的主动缓存方法及装置。本发明中提出的在基于多点协作的小蜂窝网络中利用机器学习的主动缓存方法包括:形成将每个用户均具有一个社区的小蜂窝网络内的用户及小型基站包括在内的基于等级的小蜂窝网络的步骤;通过社区意识非负矩阵分解计算部执行社区意识非负矩阵分解来计算用户的内容请求概率的步骤;以及各个小型基站接收并比较针对用户计算的内容请求概率来确定所要向小蜂窝节点缓存的内容的步骤。

Description

在基于多点协作的小蜂窝网络中利用机器学习的主动缓存 方法
技术领域
本发明涉及在基于多点协作(CoMP)的小蜂窝网络中利用机器学习的主动缓存方法及装置。
背景技术
小蜂窝网络以覆盖范围短、传输功率小、费用少的优点来在现有的宏蜂窝网络配置小型基站而成,意味着宏蜂窝和小蜂窝共存的双重网。
在发展5G的过程中,为了增加网容量,小型基站的配置急剧增加,并对于用于向与用户相邻的小型基站或宏蜂窝基站提供网功能及服务的边缘计算的关注正在增加。
尤其,边缘计算中的最大重点之一为主动缓存。主动缓存为事先预测用户将请求什么内容,并在请求内容之前事先查询。
作为小蜂窝网络中的主动缓存用设计原则,具有缓存规模、小型基站配置密度等的系统规格,信道状态或用户移动性的网环境,内容配置或内容更新等的缓存战略,以及与以何种方式传输所缓存的内容相关的传输战略。
但是,相比于以往的宏蜂窝网络或有线网络的缓存,小蜂窝网络中的主动缓存具有如下的问题。
由于小蜂窝的规模变小且与基站建立关联的用户数量有限,难以充分地收集内容请求历史信息,因此,难以预测小型基站内的用户的内容热门度。并且,小型基站之间的内容热门度互不相同,导致需要按照小型基站预测内容热门度。
并且,即便随着存储器的价格下降而能够向小型基站提供充足的存储器容量,但内容提供者所提供的内容的量太庞大,因此,难以全部缓存。
发明内容
本发明所要实现的技术目的在于,提供利用以往的非负矩阵分解(Non-negativeMatrix Factorization;NMF)提出新的社区意识非负矩阵分解(Community-aware NMF;CNMF)来预测内容热门度的方法及装置。并且,为了解决缓存规模的局限性,提出基于多点协作(CoMP)的协同缓存方法,以便利用在周围小型基站缓存的内容。
在一实施方式中,本发明中提出的利用基于多点协作(CoMP)的小蜂窝网络中的机器学习的主动缓存方法包括:形成将每个用户均具有一个社区的小蜂窝网络内的用户及小型基站包括在内的基于等级(rating)的小蜂窝网络的步骤;通过社区意识非负矩阵分解(CNMF)计算部执行社区意识非负矩阵分解(Community-aware NMF;CNMF)来计算用户的内容请求概率的步骤;以及各个小型基站接收并比较针对用户计算的内容请求概率来确定所要向小蜂窝节点缓存的内容的步骤。
小型基站具有缓存功能,并具有相关用户集、协同相关用户集、各个用户的社区信息,上述相关用户集为与当前小型基站相联接的用户集,上述协同相关用户集为与周围小型基站相联接并因位于小型基站的覆盖范围内而能够进行协同通信的用户集。
在通过社区意识非负矩阵分解(CNMF)计算部执行社区意识非负矩阵分解来计算用户的内容请求概率的步骤中,移动核心端存在内容请求概率学习(CRPL,ContentRequest Probability Learning)服务器,因此,在相应服务器中执行社区意识非负矩阵分解来计算用户的内容请求概率。
在通过社区意识非负矩阵分解(CNMF)计算部执行社区意识非负矩阵分解来计算用户的内容请求概率的步骤中,通过社区意识非负矩阵分解(CNMF)计算部向非负矩阵分解(Non-negative Matrix Factorization;NMF)添加用户的社区信息和内容请求历史来预测用户的内容请求概率,以防止发生偏向于特定用户的缓存。
通过利用用户的规范化社交社区规模和与小型基站中的各个内容有关的请求历史信息,以此将内容的等级信息转换为内容请求概率来进行预测。
在各个小型基站接收并比较针对用户计算的内容请求概率来确定所要向小蜂窝节点缓存的内容的步骤中,以能够利用在周围小型基站缓存的内容的方式利用多点协作(CoMP,Coordinated Multi Point)方式来确定所要向小蜂窝节点缓存的内容,从而解决缓存规模的局限性。
在各个小型基站接收并比较针对用户计算的内容请求概率来确定所要向小蜂窝节点缓存的内容的步骤中,根据所计算的各个用户的内容请求概率并通过基于多点协作(CoMP)的内容配置部,在小型基站中确定与自身缓存规模相当的所要缓存的内容。
在各个小型基站接收并比较针对用户计算的内容请求概率来确定所要向小蜂窝节点缓存的内容的步骤中,小型基站接收自身相关用户集和协同相关用户集中所属用户的内容请求概率,来根据预定的基准对各个集进行分类,通过基于社区意识非负矩阵分解(CNMF)的预测缓存算法的优先顺序比较规则来确定所要向小蜂窝节点缓存的内容。
在能够协同通信的小型基站内,在根据预定的基准分类的集中,对于热门内容重复缓存并通过联合传输(Joint Transmission)来传输内容,在对于热门内容重复缓存并通过联合传输来传输后,对于剩余内容,根据内容请求概率执行以多样性为基础的缓存,通过动态点选择(Dynamic Point Selection)来传输内容。
在另一实施方式中,本发明中提出的在基于多点协作(CoMP)的小蜂窝网络中利用机器学习的主动缓存装置包括:社区意识非负矩阵分解(CNMF)计算部,通过执行社区意识非负矩阵分解(Community-aware NMF;CNMF)来计算用户的内容请求概率;以及基于多点协作(CoMP)的内容配置部,使各个小型基站接收并比较针对用户计算的内容请求概率来确定所要向小蜂窝节点缓存的内容。
根据本发明的实施例,相比于以往的启发式算法,可通过利用机器学习方法来提高内容命中率。并且,通过利用多点协作(CoMP)来确定所要缓存的内容,从而以能够减少内容的传输延迟并使小蜂窝密集地配置的方式增加内容命中率。
附图说明
图1为用于说明本发明一实施例的系统模型的图。
图2为用于说明本发明一实施例的在基于多点协作(CoMP)的小蜂窝网络中利用机器学习的主动缓存方法的流程图。
图3为用于说明通过本发明一实施例的社区意识非负矩阵分解(CNMF)计算部执行社区意识非负矩阵分解来计算用户的内容请求概率的步骤的图。
图4为用于说明本发明一实施例的确定所要向小蜂窝节点缓存的内容的图。
图5为示出本发明一实施例的在基于多点协作(CoMP)的小蜂窝网络中利用机器学习的主动缓存装置的结构的图。
图6为用于比较现有技术与本发明一实施例在内容命中率和内容传输延迟方面的性能的曲线图。
图7a至图7c为用于比较现有技术与本发明一实施例的缓存方法之间的性能的曲线图。
具体实施方式
本发明涉及在基于多点协作(CoMP)的小蜂窝网络中利用机器学习的主动缓存方法,利用非负矩阵分解(Non-negative Matrix Factorization;NMF)、社交社区信息、内容请求历史信息计算用户的内容请求概率,根据上述用户的内容请求概率事先在与用户相邻的小蜂窝节点缓存。在此情况下,确定所要向小蜂窝节点缓存的内容的方式通过考虑所预测的用户的内容请求概率信息与小蜂窝节点之间的协同通信方式(CoordinatedMultipoint;CoMP)来确定。以下,参照附图详细说明本发明的实施例。
图1为用于说明本发明一实施例的系统模型的图。
参照图1,小蜂窝网络内的用户U1、U2、U3形成基于等级(rating)的社交网络,每个用户具有一个社区(community)。
小型基站110具有缓存功能,并具有相关用户集(associated user set)(与当前小型基站相联接的用户集)、协同相关用户集(cooperatively associated user set)(与周围小型基站相联接并位于小型基站的覆盖范围内而能够进行协同通信的用户集)、各个用户的社区信息。并且,小型基站110包括基于社区意识非负矩阵分解(Community-awareNMF;CNMF)的预测缓存算法111。
在本发明实施例的5G移动核心端存在内容请求概率学习(CRPL,Content RequestProbability Learning)服务器120,相应服务器根据从内容配置部130接收的请求,执行社区意识非负矩阵分解121(Community-aware NMF;CNMF),来计算用户的内容请求概率。
各个小型基站接收并比较自身相关用户集(associated user set)及协同相关用户集(cooperatively associated user set)中所述用户的内容请求概率,来确定所要缓存的内容。
图2为用于说明本发明一实施例的在基于多点协作(CoMP)的小蜂窝网络中利用机器学习的主动缓存方法的流程图。
所提出的在基于多点协作(CoMP)的小蜂窝网络中利用机器学习的主动缓存方法包括:步骤210,形成将每个用户均具有一个社区的小蜂窝网络内的用户及小型基站包括在内的基于等级(rating)的小蜂窝网络的步骤;步骤220,通过社区意识非负矩阵分解(CNMF)计算部执行社区意识非负矩阵分解(Community-aware NMF;CNMF)来计算用户的内容请求概率;以及步骤230,各个小型基站接收并比较针对用户计算的内容请求概率来确定所要向小蜂窝节点缓存的内容。
在步骤210中,形成将每个用户均具有一个社区的小蜂窝网络内的用户及小型基站包括在内的基于等级(rating)的小蜂窝网络。
其中,小型基站具有缓存功能,并具有相关用户集、协同相关用户集、各个用户的社区信息,上述相关用户集为与当前小型基站相联接的用户集,上述协同相关用户集为与周围小型基站相联接并因位于小型基站的覆盖范围内而能够进行协同通信的用户集。
在步骤220中,通过社区意识非负矩阵分解(CNMF)计算部执行社区意识非负矩阵分解(Community-aware NMF;CNMF)来计算用户的内容请求概率。
根据本发明的实施例,在移动核心端存在内容请求概率学习(CRPL,ContentRequest Probability Learning)服务器,因此,在相应服务器中执行社区意识非负矩阵分解来计算用户的内容请求概率。参照图3,更加详细说明计算内容请求概率的步骤。
图3为用于说明通过本发明一实施例的社区意识非负矩阵分解(CNMF)计算部执行社区意识非负矩阵分解来计算用户的内容请求概率的步骤的图。
在以往的非负矩阵分解(NMF)中仅利用内容等级缓存的情况下,可能发生偏向于特定用户的缓存。因此,在本发明中提出的社区意识非负矩阵分解(CNMF)中,通过社区意识非负矩阵分解(CNMF)计算部对于内容的等级矩阵310执行非负矩阵分解320(Non-negativeMatrix Factorization;NMF),以防止发生偏向于特定用户的缓存,对此添加与各个内容有关的请求历史信息331和规范化社交社区规模332(normalized social community size)来预测用户的内容请求概率矩阵340。
本发明利用与用户的小型基站中的各个内容有关的请求历史信息331和规范化社交社区规模332,以此将内容的等级矩阵310转换为内容请求概率矩阵340来进行预测。
具有相同社交社区的用户消费相似内容的可能性大,因此,可通过偏向于在小型基站中具有相同社区的用户来解决以往所偏向的缓存,同时,可反映本地内容热门度(local content popularity)。
内容请求历史信息的标本数量也少,但是其本身表示小型基站的本地内容热门度,因此,可用于预测用户的内容请求概率。
将内容的等级矩阵310转换为内容请求概率矩阵340的式如下:
Figure BDA0002200849270000061
其中,rui为与用户u的内容i有关的等级,pui为与用户u的内容i有关的请求概率,R为内容等级(rating)矩阵,P为内容请求概率矩阵,
Figure BDA0002200849270000062
为rui的中间值。
利用上述转换式来预测内容请求概率的模型如下:
Figure BDA0002200849270000063
以及
Figure BDA0002200849270000064
Figure BDA0002200849270000065
为与用户u的内容i有关的所预测的请求概率,ni为与内容i有关的请求历史,ωi为与内容i有关的加权值(weight)。bu为与用户u有关的规范化社交社区规模,n(su)为用户u所属社区的成员数,n(ua)为与用户u所属小型基站相联接的用户数,α,β为调优参数,θ为用于防止过度拟合的正规化参数。
在学习及预测内容请求概率的过程中,可通过随机梯度下降算法(Stochasticgradient descent algorithm)以如下方式学习内容请求概率。
Figure BDA0002200849270000066
Figure BDA0002200849270000067
xuk←xuk+δ(ωieuiyki-θxuk)
yki←yki+δ(ωieuixuk-θyki)
Figure BDA0002200849270000071
再次参照图2,在步骤230中,各个小型基站接收并比较针对用户计算的内容请求概率,来确定所要向小蜂窝节点缓存的内容。
图4为用于说明本发明一实施例的确定所要向小蜂窝节点缓存的内容的图。
根据通过社区意识非负矩阵分解(CNMF)计算的各个用户的内容请求概率,在小型基站中确定与自身缓存规模相当的所要缓存的内容。小型基站接收属于自身相关用户集(associated user set)和协同相关用户集(cooperatively associated user set)的用户的内容请求概率。将各个集分为高热门集(very popular set)、中热门集(moderatelypopular set)、低热门集(less popular set),并通过图4中的算法1(algorithm1)的优先顺序比较规则确定缓存内容。
其中,
Figure BDA0002200849270000072
为与相关用户集有关的所预测的内容请求矩阵,
Figure BDA0002200849270000073
为与协同相关用户集有关的所预测的内容请求矩阵,M为缓存规模,C为内容数,PcA为从
Figure BDA0002200849270000074
的降序中过滤相当于缓存规模M的集,PcN为从
Figure BDA0002200849270000075
的降序中过滤相当于缓存规模M的集,VP为高热门内容集,MP为中热门内容集,LP为低热门内容集。
对于多点协作(CoMP)协同集(换言之,可执行协同通信的小型基站集)内的热门内容重复缓存并通过联合传输(Joint Transmission)传输内容。之后,对于剩余内容,根据内容请求概率执行以内容多样性为基础的缓存,通过动态点选择(Dynamic PointSelection)传输内容。在此情况下,多点协作(CoMP)协同集在每当用户请求时更新,若以用户请求单位执行联合传输或动态点选择,而不是以无线资源调度单位执行联合传输或动态点选择,则可使基于多点协作(CoMP)的主动缓存性能最大化。
图5为示出本发明一实施例的在基于多点协作(CoMP)的小蜂窝网络中利用机器学习的主动缓存装置的结构的图。
本发明所提出的在基于多点协作(CoMP)的小蜂窝网络中利用机器学习的主动缓存装置500包括社区意识非负矩阵分解(CNMF)计算部510及基于多点协作(CoMP)的内容配置部520。
通过社区意识非负矩阵分解(CNMF)计算部510执行社区意识非负矩阵分解(Community-aware NMF;CNMF)来计算用户的内容请求概率。
其中,小型基站具有缓存功能,并具有相关用户集、协同相关用户集、各个用户的社区信息,上述相关用户集为与当前小型基站相联接的用户集,上述协同相关用户集为与周围小型基站相联接并因位于小型基站的覆盖范围内而能够进行协同通信的用户集。
根据本发明的实施例,在移动核心端存在内容请求概率学习(CRPL,ContentRequest Probability Learning)服务器,因此,在相应服务器中执行社区意识非负矩阵分解来计算用户的内容请求概率。
在以往的非负矩阵分解(NMF)中仅利用内容等级缓存的情况下,可能发生偏向于特定用户的缓存。因此,在本发明中提出的社区意识非负矩阵分解(CNMF)中,通过社区意识非负矩阵分解(CNMF)计算部对于内容的等级矩阵执行非负矩阵分解320(Non-negativeMatrix Factorization;NMF),以防止发生偏向于特定用户的缓存,对此添加与各个内容有关的请求历史信息331和规范化社交社区规模332(normalized social community size)来预测用户的内容请求概率矩阵。
本发明利用与用户的小型基站中的各个内容有关的请求历史信息和规范化社交社区规模,以此将内容的等级矩阵转换为内容请求概率矩阵来进行预测。
具有相同社交社区的用户消费相似内容的可能性大,因此,可通过偏向于在小型基站中具有相同社区的用户来解决以往所偏向的缓存,同时,可反映本地内容热门度。
内容请求历史信息的标本数量也少,但是其本身表示小型基站的本地内容热门度,因此,可用于预测用户的内容请求概率。
在基于多点协作(CoMP)的内容配置部520中,各个小型基站接收并比较针对用户计算的内容请求概率来确定所要向小蜂窝节点缓存的内容。
各个小型基站接收自身相关用户集和协同相关用户集中所属用户的内容请求概率。将各个集分为高热门集、中热门集、低热门集,并通过图4的算法1的优先顺序比较规则确定缓存内容。
对于多点协作(CoMP)协同集(换言之,可执行协同通信的小型基站集)内的热门内容重复缓存并通过联合传输内容。之后,对于剩余内容,根据内容请求概率执行以多样性为基础的缓存,通过动态点选择传输内容。
比较现有技术的基于非负矩阵分解(NMF)的缓存、基于最热门内容(MPC,MostPopular Content)+最小内容多样性(LCD,Least Content Diversity)的缓存与本发明中提出的基于社区意识非负矩阵分解(CNMF)的缓存的性能。为了实际数据,利用了MovieLens数据集,从与9000内容有关的700名用户适用100000等级。训练集为0.7*R,测试集为0.3*R,仿真参数如下:
Figure BDA0002200849270000091
图6为用于比较现有技术与本发明一实施例在内容命中率和内容传输延迟方面的性能的曲线图。
参照图6可知,明显改善内容命中率和内容传输延迟的性能。若缓存规模变小,则以往的基于机器学习的缓存算法的性能小于启发式算法的性能,但是,本发明中提出的缓存方法可解决这种问题。
图7a至图7c为用于比较现有技术与本发明一实施例的缓存方法之间的性能的曲线图。
可知,当在具有多点协作(CoMP)的环境和没有多点协作(CoMP)的环境中比较本发明中提出的缓存方法的性能时,也明显提高性能。尤其,可知,若小型基站的密度增加,则进一步提高性能提高的程度。
在上述内容中说明的装置可由硬件结构要素、软件结构要素和/或硬件结构要素及软件结构要素的组合来实现。例如,如同处理器、控制器、算术逻辑单元(ALU,arithmeticlogic unit)、数字信号处理器(digital signal processor)、微型计算机、现场可编程阵列(FPA,field programmable array)、可编程逻辑单元(PLU,programmable logic unit)、微型处理器或执行并响应指令(instruction)的任何装置,在实施例中说明的装置及结构要素可利用一个以上的通用计算机或特殊目的计算机实现。处理装置可执行操作系统(OS)及在上述操作系统上执行的一个以上的应用程序。并且,处理装置还可响应软件的执行来访问、存储、操作、处理及生成数据。为了便于理解,以使用一个处理装置的情况进行说明,只要是本技术领域的普通技术人员就可理解,处理装置可包括多个处理要素(processingelement)和/或多个类型的处理要素。例如,处理装置可包括多个处理器或一个处理器及一个控制器。并且,还可包括如同并联处理器(parallel processor)的其他处理结构(processing configuration)。
软件可包括计算机程序(computer program)、代码(code)、指令(instruction)或它们中的一种以上的组合,能够以按所需方式进行工作的方式构成处理装置或者以独立或结合性(collectively)的方式对处理装置传递指令。为了通过处理装置解释或向处理装置提供指令或数据,软件和/或数据可在任何类型的机械、结构要素(component)、物理装置、虚拟装置(virtual equipment)、计算机存储介质或装置具体化(embody)。软件可分散在通过网络联接的计算机系统上来以分散的方法储存或执行。软件及数据可存储于一个以上的计算机可读记录介质。
实施例的方法以能够通过各种计算机单元执行的程序指令形态实现来记录于计算机可读介质。上述计算机可读介质可单独或组合性地包括程序指令、数据文件、数据结构等。记录于上述介质的程序指令可为为了实施例而特别设计并构成的,也可以是计算机软件领域的普通技术人员所公知并使用的。计算机可读记录介质可包括硬盘、软盘及磁带等的磁介质(magnetic media),CD-ROM、DVD等的光记录介质(optical media),软盘(floptical disk)等的磁光介质(magneto-optical media)及只读储存器(ROM)、随机存取储存器(RAM)、闪存等的以储存并执行程序指令的方式特别构成的硬件装置。程序指令不仅包括通过编译器制造的机器代码,还包括通过使用解释器等来在计算机执行的高级语言代码。
如上所述,通过限定的实施例和附图来对实施例进行了说明,只要是本技术领域的普通技术人员,就可通过上述记载来进行各种修改及变形。例如,所说明的技术以与所说明的方法不同的顺序执行和/或所说明的系统、结构、装置、电路等的结构要素以与所说明的方法不同的形态结合或组合,或者,即使被其他结构要素或等同技术方案代替或取代也可实现适当的结果。
因此,其他实例、其他实施例及与发明要求保护范围等同范围内的方案也属于发明要求保护范围。

Claims (10)

1.一种主动缓存方法,其特征在于,包括:
形成将每个用户均具有一个社区的小蜂窝网络内的用户及小型基站包括在内的基于等级的小蜂窝网络的步骤;
通过社区意识非负矩阵分解计算部执行社区意识非负矩阵分解来计算用户的内容请求概率的步骤;以及
各个小型基站接收并比较针对用户计算的内容请求概率来确定所要向小蜂窝节点缓存的内容的步骤。
2.根据权利要求1所述的主动缓存方法,其特征在于,小型基站具有缓存功能,并具有相关用户集、协同相关用户集、各个用户的社区信息,上述相关用户集为与当前小型基站相联接的用户集,上述协同相关用户集为与周围小型基站相联接并因位于小型基站的覆盖范围内而能够进行协同通信的用户集。
3.根据权利要求1所述的主动缓存方法,其特征在于,在通过社区意识非负矩阵分解计算部执行社区意识非负矩阵分解来计算用户的内容请求概率的步骤中,在移动核心端存在内容请求概率学习服务器,因此,在相应服务器中执行社区意识非负矩阵分解来计算用户的内容请求概率。
4.根据权利要求1所述的主动缓存方法,其特征在于,在通过社区意识非负矩阵分解计算部执行社区意识非负矩阵分解来计算用户的内容请求概率的步骤中,通过社区意识非负矩阵分解计算部向非负矩阵分解添加用户的社区信息和内容请求历史来预测用户的内容请求概率,以防止发生偏向于特定用户的缓存。
5.根据权利要求4所述的主动缓存方法,其特征在于,通过利用用户的规范化社交社区规模和与小型基站中的各个内容有关的请求历史信息,以此将内容的等级信息转换为内容请求概率来进行预测。
6.根据权利要求1所述的主动缓存方法,其特征在于,在各个小型基站接收并比较针对用户计算的内容请求概率来确定所要向小蜂窝节点缓存的内容的步骤中,以能够利用在周围小型基站缓存的内容的方式利用多点协作方式来确定所要向小蜂窝节点缓存的内容,从而解决缓存规模的局限性。
7.根据权利要求1所述的主动缓存方法,其特征在于,在各个小型基站接收并比较针对用户计算的内容请求概率来确定所要向小蜂窝节点缓存的内容的步骤中,根据所计算的各个用户的内容请求概率并通过基于多点协作的内容配置部,在小型基站中确定与自身缓存规模相当的所要缓存的内容。
8.根据权利要求1所述的主动缓存方法,其特征在于,在各个小型基站接收并比较针对用户计算的内容请求概率来确定所要向小蜂窝节点缓存的内容的步骤中,小型基站接收自身相关用户集和协同相关用户集中所属用户的内容请求概率,来根据预定的基准对各个集进行分类,通过基于社区意识非负矩阵分解的预测缓存算法的优先顺序比较规则来确定所要向小蜂窝节点缓存的内容。
9.根据权利要求8所述的主动缓存方法,其特征在于,在能够协同通信的小型基站内,在根据预定的基准分类的集中,对于热门内容重复缓存并通过联合传输来传输内容。
10.根据权利要求9所述的主动缓存方法,其特征在于,在对于热门内容重复缓存并通过联合传输来传输后,对于剩余内容,根据内容请求概率执行以多样性为基础的缓存,通过动态点选择来传输内容。
CN201910864461.6A 2019-05-30 2019-09-12 在基于多点协作的小蜂窝网络中利用机器学习的主动缓存方法 Pending CN112020081A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0063684 2019-05-30
KR1020190063684A KR102163214B1 (ko) 2019-05-30 2019-05-30 CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 기법

Publications (1)

Publication Number Publication Date
CN112020081A true CN112020081A (zh) 2020-12-01

Family

ID=72897408

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910864461.6A Pending CN112020081A (zh) 2019-05-30 2019-09-12 在基于多点协作的小蜂窝网络中利用机器学习的主动缓存方法

Country Status (2)

Country Link
KR (1) KR102163214B1 (zh)
CN (1) CN112020081A (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001054044A1 (en) * 2000-01-19 2001-07-26 Kline & Walker, Llc Protected accountable primary focal node interface
US9043329B1 (en) * 2013-12-19 2015-05-26 Banjo, Inc. Dynamic event detection system and method
US20160044127A1 (en) * 2014-08-08 2016-02-11 Facebook, Inc. Identifying and caching content for offline use
WO2016049333A1 (en) * 2014-09-24 2016-03-31 Interdigital Patent Holdings, Inc. Method and system for creating a pre-fetching list for managed caching in small cell networks
US20170262767A1 (en) * 2016-03-09 2017-09-14 Verizon Digital Media Services Inc. Methods and systems for advanced content cacheability determination
CN108416374A (zh) * 2018-02-13 2018-08-17 中国科学院西安光学精密机械研究所 基于判别正交子空间约束的非负矩阵分解方法
CN108600365A (zh) * 2018-04-20 2018-09-28 西安交通大学 一种基于排序学习的无线异构网络缓存方法
CN108833352A (zh) * 2018-05-17 2018-11-16 北京邮电大学 一种缓存方法及系统
CN109413694A (zh) * 2018-09-10 2019-03-01 北京邮电大学 一种基于内容流行度预测的小小区缓存方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102100710B1 (ko) * 2012-11-26 2020-04-16 삼성전자주식회사 컨텐츠 중심 네트워크에서 컨텐츠 소유자 및 노드의 패킷 전송 방법
KR102083524B1 (ko) * 2016-10-20 2020-03-02 에스케이 텔레콤주식회사 효율적인 컨텐츠 전송을 위한 네트워크 캐싱 제어방법 및 그를 위한 장치
KR20180112266A (ko) * 2017-04-03 2018-10-12 한국전자통신연구원 네트워크 캐싱 장치 및 방법

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001054044A1 (en) * 2000-01-19 2001-07-26 Kline & Walker, Llc Protected accountable primary focal node interface
US9043329B1 (en) * 2013-12-19 2015-05-26 Banjo, Inc. Dynamic event detection system and method
US20160044127A1 (en) * 2014-08-08 2016-02-11 Facebook, Inc. Identifying and caching content for offline use
WO2016049333A1 (en) * 2014-09-24 2016-03-31 Interdigital Patent Holdings, Inc. Method and system for creating a pre-fetching list for managed caching in small cell networks
US20170262767A1 (en) * 2016-03-09 2017-09-14 Verizon Digital Media Services Inc. Methods and systems for advanced content cacheability determination
CN108416374A (zh) * 2018-02-13 2018-08-17 中国科学院西安光学精密机械研究所 基于判别正交子空间约束的非负矩阵分解方法
CN108600365A (zh) * 2018-04-20 2018-09-28 西安交通大学 一种基于排序学习的无线异构网络缓存方法
CN108833352A (zh) * 2018-05-17 2018-11-16 北京邮电大学 一种缓存方法及系统
CN109413694A (zh) * 2018-09-10 2019-03-01 北京邮电大学 一种基于内容流行度预测的小小区缓存方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JUNSEOP AHN等: "A Novel Proactive Caching Strategy With Community-Aware Learning in CoMP-Enabled Small-Cell Networks", 《IEEE COMMUNICATIONS LETTERS (VOLUME: 22, ISSUE: 9, SEPTEMBER 2018)》, pages 1 - 5 *
RONGHUI HOU ET AL: "Distributed cache-aware CoMP transmission scheme in dense small cell networks with limited backhaul", 《COMPUTER COMMUNICATIONS》 *

Also Published As

Publication number Publication date
KR102163214B1 (ko) 2020-10-08

Similar Documents

Publication Publication Date Title
Li et al. Collaborative cache allocation and task scheduling for data-intensive applications in edge computing environment
Elgendy et al. Joint computation offloading and task caching for multi-user and multi-task MEC systems: reinforcement learning-based algorithms
Deng et al. Composition-driven IoT service provisioning in distributed edges
Zhao et al. Collaborative edge caching in context-aware device-to-device networks
US8005654B2 (en) Method, apparatus and computer program product for intelligent workload control of distributed storage
Chinnappan et al. Complexity–consistency trade‐off in multi‐attribute decision making for vertical handover in heterogeneous wireless networks
Zeng et al. Smart caching based on user behavior for mobile edge computing
Li et al. Method of resource estimation based on QoS in edge computing
US20220261591A1 (en) Data processing method and apparatus
US20220386136A1 (en) Facilitating heterogeneous network analysis and resource planning for advanced networks
Gu et al. Robust weighted SVD-type latent factor models for rating prediction
Tang et al. EICache: A learning-based intelligent caching strategy in mobile edge computing
Somesula et al. Deadline-aware caching using echo state network integrated fuzzy logic for mobile edge networks
Zhang A computing allocation strategy for Internet of things’ resources based on edge computing
KR101924628B1 (ko) 트래픽 오프로딩을 제어하기 위한 장치 및 방법
Liu et al. Immune optimization algorithm for solving vertical handoff decision problem in heterogeneous wireless network
Li et al. Neighborhood search-based job scheduling for IoT big data real-time processing in distributed edge-cloud computing environment
Peng et al. Joint optimisation for time consumption and energy consumption of multi‐application and load balancing of cloudlets in mobile edge computing
Anoop et al. Exploitation whale optimization based optimal offloading approach and topology optimization in a mobile ad hoc cloud environment
CN112020081A (zh) 在基于多点协作的小蜂窝网络中利用机器学习的主动缓存方法
US20100153085A1 (en) Method, Apparatus and Computer Program Product for Providing Predictor Nodes for Context Models
Mefgouda et al. New network interface selection based on MADM and multi-objective whale optimization algorithm in heterogeneous wireless networks
KR102590112B1 (ko) 사물인터넷 환경에서 분산 머신 러닝 학습을 위한 코딩 및 인센티브 기반 메커니즘
Nagasundari et al. Enhancement of the dynamic computation-offloading service selection framework in mobile cloud environment
Chunlin et al. Location-aware interest-related micro-cloud topology construction and bacteria foraging-based offloading strategy

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination