CN115017435A - 确定缓存资源的方法及装置、非易失性存储介质、处理器 - Google Patents

确定缓存资源的方法及装置、非易失性存储介质、处理器 Download PDF

Info

Publication number
CN115017435A
CN115017435A CN202210741822.XA CN202210741822A CN115017435A CN 115017435 A CN115017435 A CN 115017435A CN 202210741822 A CN202210741822 A CN 202210741822A CN 115017435 A CN115017435 A CN 115017435A
Authority
CN
China
Prior art keywords
resource
determining
target object
resources
popularity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210741822.XA
Other languages
English (en)
Inventor
沈鸿
李斌
池淼
刘磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Telecom Corp Ltd
Original Assignee
China Telecom Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Telecom Corp Ltd filed Critical China Telecom Corp Ltd
Priority to CN202210741822.XA priority Critical patent/CN115017435A/zh
Publication of CN115017435A publication Critical patent/CN115017435A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/957Browsing optimisation, e.g. caching or content distillation
    • G06F16/9574Browsing optimisation, e.g. caching or content distillation of access to content, e.g. by caching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本申请公开了一种确定缓存资源的方法及装置、非易失性存储介质、处理器。其中,该方法包括:确定算力网络中可请求的资源,并获取目标对象请求资源的第一信息,其中,第一信息包括:目标对象请求的资源的名称,目标对象请求资源的时刻以及目标对象在时刻接入的基站;根据第一信息预测资源的流行度,其中,资源的流行度为每个资源被目标对象请求的概率;确定目标对象接入的基站的算力资源的存储空间,其中,算力资源是算力基站中具有数据处理能力的资源;根据资源的流行度和存储空间确定是否缓存资源。本申请解决了由于预缓存资源的受欢迎程度受用户的移动性影响而发生动态变化造成的现有技术中预缓存资源命中率降低的技术问题。

Description

确定缓存资源的方法及装置、非易失性存储介质、处理器
技术领域
本申请涉及机器学习和边缘计算技术领域,尤其涉及联邦学习领域,具体而言,涉及一种确定缓存资源的方法及装置、非易失性存储介质、处理器。
背景技术
随着移动通信技术的发展,移动设备到基站之间超高带宽,超高延迟的接入使得移动设备访问网络资源的瓶颈来到了网络服务器以及网络带宽。在边缘端对网络资源进行预缓存则是突破这一瓶颈的有效方法。然而,对于不同用户,其对网络资源的偏好不同,用户的偏好可能与许多因素有关,如性别、年龄和职业等。另外,用户所处的位置、时间以及设备的类型也会影响用户的偏好。因此,预缓存的网络资源的受欢迎程度受到用户的移动性而发生动态变化,导致预缓存资源的命中率降低。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本申请实施例提供了一种确定缓存资源的方法及装置、非易失性存储介质、处理器,以至少解决由于预缓存资源的受欢迎程度受用户的移动性影响而发生动态变化造成的现有技术中预缓存资源命中率降低的技术问题。
根据本申请实施例的一个方面,提供了一种确定缓存资源的方法,包括:确定算力网络中可请求的资源,并获取目标对象请求资源的第一信息,其中,第一信息包括:目标对象请求的资源的名称,目标对象请求资源的时刻以及目标对象在该时刻接入的基站;根据第一信息预测资源的流行度,其中,上述资源的流行度为每个资源被目标对象请求的概率;确定目标对象接入的基站的算力资源的存储空间,其中,算力资源是算力基站中具有数据处理能力的资源;根据资源的流行度和存储空间确定是否缓存资源。
可选地,根据第一信息预测资源的流行度,包括:预测已知资源的第一流行度,其中,已知资源为第一信息指示的资源;预测未知资源的第二流行度,其中,未知资源为第一信息未指示的资源。
可选地,预测已知资源的第一流行度,包括:预测目标对象在目标时间段内的运动轨迹信息,输出第一预测结果,其中,运动轨迹信息中包括目标对象在目标时间段内请求资源的时刻以及目标对象在上述时刻接入的基站;预测目标对象在目标时间段内请求的资源的名称,输出第二预测结果;根据第一预测结果与第二预测结果预测第一流行度。
可选地,通过以下方法输出第一预测结果,包括:根据第一信息,通过第一预设算法输出第一预测结果。
可选地,通过以下方法输出第二预测结果,包括:获取目标对象的第二信息,其中,第二信息包括以下至少之一资源信息:目标对象的检索记录,目标对象的购物记录和目标对象的浏览记录;根据第二信息通过第一预设算法确定目标对象在基站中的特征向量;根据第一信息和特征向量将第一预设算法的第一参数修正为第二参数,并将第二参数上传至基站;确定基站中的多个第二参数以及基站中多个目标对象对应的多个第一权重,并确定由各个第二参数和各个第一权重的第一乘积得到的第一算术和;确定算力网络中多个基站的多个第一算术和,确定多个基站对应的多个第二权重,并确定由多个第一算术和与多个第二权重的第二乘积得到的第二算术和,并根据第二算术和确定第二预设算法,通过第二预设算法输出第二预测结果。
可选地,预测未知资源的第二流行度,包括:获取目标对象在目标时间段内请求资源的第一集合,第一集合均为已知资源;获取目标对象在目标时间段内请求资源的第二集合,第二集合包括未知资源;根据第一集合和第二集合预测未知资源的第二流行度。
可选地,根据资源的流行度和存储空间确定是否缓存资源,包括:确定资源的流行度的平均值,并将平均值按照从小到大的顺序排序,得到平均值的排序结果;根据平均值的排序结果,确定第一数量的可请求的资源;确定第一数量的可请求的资源中每个资源的大小,根据每个资源的大小确定可请求的资源的大小的第三算术和,其中,第三算术和小于存储空间;确定基站中可请求的资源的数量为第二数量,如果第二数量小于第一数量,确定缓存资源;如果第二数量大于或者等于第一数量,拒绝缓存资源。
根据本申请实施例的另一方面,还提供了一种确定缓存资源的装置,该装置包括:第一确定模块,用于确定算力网络中可请求的资源,并获取目标对象请求资源的第一信息,其中,第一信息包括:目标对象请求的资源的名称,目标对象请求资源的时刻以及目标对象在时刻接入的基站;预测模块,用于根据第一信息预测资源的流行度,其中,资源的流行度为每个资源被目标对象请求的概率;第二确定模块,用于确定目标对象接入的基站的算力资源的存储空间,其中,算力资源是算力网络中具有数据处理能力的资源;第三确定模块,用于根据资源的流行度和存储空间确定是否缓存资源。
根据本申请实施例的另一方面,还提供了一种非易失性存储介质,上述非易失性存储介质包括存储的程序,其中,在程序运行时控制非易失性存储介质所在设备执行上述确定缓存资源的方法。
根据本申请实施例的另一方面,还提供了一种处理器,该处理器用于运行存储在存储器中的程序,其中,程序运行时执行上述确定缓存资源的方法。
在本申请实施例中,采用确定算力网络中可请求的资源,并获取目标对象请求资源的第一信息,其中,第一信息包括:目标对象请求的资源的名称,目标对象请求资源的时刻以及目标对象在时刻接入的基站;根据第一信息预测资源的流行度,其中,资源的流行度为每个资源被目标对象请求的概率;确定目标对象接入的基站的算力资源的存储空间,其中,算力资源是算力基站中具有数据处理能力的资源;根据资源的流行度和存储空间确定是否缓存资源的方式,通过对预测目标对象的运动轨迹和目标对象请求的资源进行预测,根据预测的结果预测资源的流行度,并利用预测得到的资源流行度和目标用户所处于的基站对网络资源进行分配的方法,达到根据目标对象的偏好为其分配缓存资源的目的,从而实现了提高缓存资源的命中率,从而提高目标对象访问网络资源的速度的技术效果,进而解决了由于预缓存资源的受欢迎程度受用户的移动性影响而发生动态变化造成的现有技术中预缓存资源命中率降低技术问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的一种确定缓存资源的方法的流程图;
图2是根据相关技术的一种长短时记忆神经网络算法的示意图;
图3是根据本申请实施例的训练预测用户的请求信息的模型的示意图;
图4是根据本申请实施例的确定缓存资源的装置的结构图;
图5是根据本申请实施例的预测用户行为并确定资源预缓存方法的原理图;
图6是根据本实施例的预测用户行为并确定资源预缓存方法的流程图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本申请实施例,提供了一种确定缓存资源的方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图1是根据本申请实施例提供的一种确定缓存资源的方法的流程图,如图1所示,该方法包括如下步骤:
步骤S102,确定算力网络中可请求的资源,并获取目标对象请求资源的第一信息,其中,第一信息包括:目标对象请求的资源的名称,目标对象请求资源的时刻以及目标对象在时刻接入的基站。
本申请实施例提供了一种根据网络中用户(即目标对象)的偏好,确定其对应的网络边缘端(如边缘服务器,基站,各级网关以及路由器等)的预缓存资源的方法。根据步骤S102提供的方法,首先获取基站本地中保存的用户请求网络资源的历史请求信息(即第一信息),包括用户请求的资源的名称,用户请求资源的时间以及用户请求资源时所在的基站。
步骤S104,根据第一信息预测资源的流行度,其中,资源的流行度为每个资源被目标对象请求的概率。
根据步骤S104提供的方法,在通过步骤S102获得上述用户的历史请求信息后,以请求信息为基础预测用户对上述网络资源的欢迎程度(即流行度)。
步骤S106,确定目标对象接入的基站的算力资源的存储空间,其中,算力资源是算力基站中具有数据处理能力的资源。
根据本申请实施例提供的方法,预测资源的流行度之后需要对其进行分配;分配之前,需要通过步骤S106获取用户接入的基站中算力资源的存储空间,由此可以得知该基站处理信息的能力,其中,上述算力资源为具有处理网络信息能力(例如,可以计算哈希函数)的资源。
步骤S108,根据资源的流行度和存储空间确定是否缓存资源。
步骤S108执行资源分配的流程,以经过上述步骤得到的资源的流行度和算力资源的存储空间作为基础数据,确定用户的基站要缓存的资源。
通过上述步骤,提供了一种基于联邦学习(Federated Learning)和用户行为预测的资源预缓存方法,该方法利用联邦学习分别对用户移动轨迹和用户访问资源进行预测,再根据预缓存决策算法得到最优的预缓存策略,其中,用户访问网络资源的记录与用户接入基站的记录都只留在基站本地,可以实现在保证用户隐私安全的前提下提高预缓存资源的命中率,进而提高用户访问网路资源的速度,同时有效利用了边缘的存储空间。
根据本申请一个可选的实施例,根据第一信息预测资源的流行度,包括以下:预测已知资源的第一流行度,其中,已知资源为第一信息指示的资源;预测未知资源的第二流行度,其中,未知资源为第一信息未指示的资源。
本申请实施例提供的方法不仅可以预测上述历史请求信息中包含的资源(即已知资源)的流行度,还可以预测上述历史请求信息中不包含的资源(即未知资源)的流行度。本申请实施例提供的方法充分利用了每个用户的偏好(即用户的特殊性)与用户的运动轨迹(即时空分布特性),输入用户终端的预测结果(即对用户请求信息进行预测的预测结果)与用户实时位置就能得到当前的资源的流行度及其分配在哪一个基站(即空间分布),如果用户的实时位置替换为对用户位置进行预测的预测结果,能够预测到未来一段时间的资源的流行度。根据资源的流行度对算力网络中的存储资源进行优化就可以降低用户对网络资源请求的时延,并减轻网络负担。
根据本申请另一个可选的实施例,预测已知资源的第一流行度,通过以下方法实现:预测目标对象在目标时间段内的运动轨迹信息,输出第一预测结果,其中,运动轨迹信息中包括目标对象在目标时间段内请求资源的时刻以及目标对象在上述时刻接入的基站;预测目标对象在目标时间段内请求的资源的名称,输出第二预测结果;根据第一预测结果与第二预测结果预测第一流行度。
在本申请提供的方法中,预测已知资源的流行度(即第一流行度)需要以上述用户的历史请求信息为基础,分别预测用户在未来一段时间的运动轨迹和请求信息,并根据预测运动轨迹的结果和预测请求信息的结果预测资源的流行度。结合上述实施例,为了在保证用户隐私的前提下对用户位置与访问的资源进行预测,本优选的实施例采用联邦学习的方法预测用户在未来一段时间的运动轨迹和请求信息。具体地,需要在用户的终端训练两个模型,一个用来预测用户自身的运动轨迹,一个用来预测用户将要请求的资源。
根据本申请再一个可选的实施例,通过以下方法输出第一预测结果,包括:根据第一信息,通过第一预设算法输出第一预测结果。
本实施例利用了深度神经网络(即第一预设算法)中的长短时记忆神经网络(LongShort Term Memory networks,LSTM)算法,将上述算法作为预测用户运动轨迹的模型,根据用户历史的移动轨迹(即上述历史请求信息)训练上述预测用户运动轨迹的模型,对用户自身的运动轨迹进行预测比较简单不需要进行联邦学习,只需要将训练好的模型下载到本地即可用于预测的用户的运动轨迹。具体的,本实施例用以下的公式来表示用户的运动轨迹:
traj={(p1,t1),(p2,t2),...,(pn,tn)}
其中,traj表示运动轨迹,ti表示用户请求资源的时刻,
Figure BDA0003718280820000061
ti<ti+1,pi表示该时刻用户所接入的基站,图2是长短时记忆神经网络算法的示意图,将运动轨迹输入到图2所示的长短时记忆神经网络(Long Short Term Memory networks,LSTM)算法中t的位置,以获得运动轨迹的预测结果,图2对应的公式如下:
ft=δ(Wf·[xt,ht-1]+bf)
it=δ(Wi·[xt,ht-1]+bi)
ot=δ(Wo·[xt,ht-1]+bo)
Ct=it·tanh(Wff·[xt,ht-1]+bf)+ft·Ct-1
ht=ot·tanh(Ct)
对于LSTM,它的输入是一个向量,输出是一个实数向量;其中,[xt,ht-1]表示把两个向量连接成一个更长的向量,C是隐藏层增加的状态,称为单元状态,h表示隐藏层的一个状态。如图2所示,xt,ht-1Ct-1是LSTM的三个输入,其中,xt表示当前时刻网络的输出值,ht-1表示LSTM上一时刻的输出值,Ct-1表示上一时刻的单元状态;ht和Ct是LSTM的两个输出,其中,ht是LSTM当前时刻的输出值,Ct是LSTM当前时刻的单元状态。it,ft和ot是LSTM的三个“门”,其本质上是一层全连接层。其中,ft是遗忘门,是根据遗忘门的权重矩阵Wf,[xt,ht-1]以及遗忘门的偏置bf通过δ激活函数确定的;it是输入门,是根据输入门的权重矩阵Wi,[xt,ht-1]以及输入门的偏置bi通过δ激活函数确定的;ot是输出门,是根据输出门的权重矩阵Wo,[xt,ht -1]以及输出门的偏置bo通过δ激活函数确定的。对于LSTM,其最终输出ht由输出门ot和当前时刻的单元状态Ct通过双曲正切函数tanh共同决定。
根据本申请又一个可选的实施例,通过以下方法输出第二预测结果,包括以下步骤:获取目标对象的第二信息,其中,第二信息包括以下至少之一资源信息:目标对象的检索记录,目标对象的购物记录和目标对象的浏览记录;根据第二信息通过第一预设算法确定目标对象在基站中的特征向量;根据第一信息和特征向量将第一预设算法的第一参数修正为第二参数,并将第二参数上传至基站;确定基站中的多个第二参数以及基站中多个目标对象对应的多个第一权重,并确定由各个第二参数和各个第一权重的第一乘积得到的第一算术和;确定算力网络中多个基站的多个第一算术和,确定多个基站对应的多个第二权重,并确定由多个第一算术和与多个第二权重的第二乘积得到的第二算术和,并根据第二算术和确定第二预设算法,通过第二预设算法输出第二预测结果。
预测资源的流行度,还需要确定预测目标对象的请求的方法,即上述实施例提到的用于预测用户将要请求的资源的模型。本实施例提供了一种优选的训练上述用于预测用户将要请求的资源的模型的方法。因为用户的喜好、位置、时间都会影响用户请求的资源,因此用于训练用户请求资源预测模型的数据应该包含用户特征向量,以及上第一信息,在本实施例中,我们将其表示为(C,pi,ti,ki),其中,C是用户特征向量,ti和pi分别是用户请求资源的时刻和该时刻用户的位置(即用户接入的基站),ki是用户具体请求的资源的相关信息,包括资源的名称,资源的大小等。用户特征向量可以通过将用户隐私数据(即第二信息)如浏览记录、搜索记录、网上购物记录等输入自编码器(即第一预设算法)得到,其中,自编码器是深度神经网络中的一类人工神经网络,可以实现将输入信息作为学习目标,对输入的信息进行表征学习的功能。将上述(C,pi,ti,ki)输入深度神经网络,获得该用户对各种资源的偏好程度预测。具体训练采用联邦学习的方式。
图3是根据本实施例提供的一种训练预测用户的请求信息的模型示意图,如图所示,每一轮训练中,每个用户终端先利用自身数据集即上述的用户隐私数据对深度神经网络进行训练,利用公式
Figure BDA0003718280820000071
将第一算法的第一参数ω1修正为第二参数ω2,其中,Fk1)是通过加权平均法对每个客户端上的损失函数计算出来的;再将训练之后的模型第二参数ω2上传至所接入的基站,并在基站利用公式
Figure BDA0003718280820000072
Figure BDA0003718280820000073
对第二参数ω2进行局部聚合,其中ρi为第i个用户的权重(即第一权重),ωi为第i个用户的训练结果ω2(即第二参数),得到第一算术和ω3,最后在网络中将各个基站的ω3再继续通过
Figure BDA0003718280820000074
聚合得到第二算术和ω4,并得到新模型,其中,ωi为第i个基站的训练结果ω3。最后再将上述新模型分发给各个用户终端(即客户端),上述新模型即用于预测用户的请求信息的模型(即预测目标对象的请求的方法)。
基于上述实施例获得的用于预测用户的请求信息的模型和用于预测用户自身的运动轨迹的模型对用户自身的请求资源和位置进行预测,输出第一预测结果和第二预测结果,并根据上述第一预测结果和第二预测结果预测各个已知资源的流行程度(即第一流行度)。例如,基站Bj获取用户对自身位置预测和请求资源预测结果之后可以根据公式
Figure BDA0003718280820000081
得到未来一段时间各个已知资源K的流行程度,其中,Pk为资源K的流行度,Rik为每个用户pi请求已知资源K的可能性,|{Ui|pi=Bj}|表示接入的基站为Bj的用户pi的集合Ui
根据本申请一些可选的实施例,预测未知资源的第二流行度,包括以下步骤:获取目标对象在目标时间段内请求资源的第一集合,第一集合均为已知资源;获取目标对象在目标时间段内请求资源的第二集合,第二集合包括未知资源;根据第一集合和第二集合预测未知资源的第二流行度。
如上述可选的实施例中提到的,本申请提供的方法还可以预测未知资源的流行度(即第二流行度)。本实施例提供了一种优选的用于预测未知资源的流行度的方法,在本实施例中,将已知资源的集合记为K,未知资源记为x,对于可能出现的新资源
Figure BDA0003718280820000082
的流行度,无法利用上述实施例中提到的方法进行预测;根据基本常识,历史请求信息相似的用户,其偏好资源的重合度较高,即在历史请求相似的用户中,如果一部分用户请求了某个新资源x,则其他用户也大概率会请求这个新资源x,因此可以利用协同过滤的方法去估计新资源的受欢迎程度(即第二流行度),具体方法如下:
首先通过公式
Figure BDA0003718280820000083
计算用户之间的杰卡德相似系数J(Ui,Uj),其中Ui表示用户i,,Uj表示用户j,Ki为某一段确定时间内用户i请求资源的集合(即第一集合),Kj为某一段确定时间内用户j请求资源的集合,Kj中包含未知资源x。
S表示请求了未知资源的用户的集合,当一部分用户US请求了某个不在已知资源集合K中的资源x时,其他用户请求该资源的可能性表示为Rix=maxj∈SJ(Ui,Uj),则基站可以计算出包含新资源x之后的Pk。并在后续步骤中根据新的Pk进行未知资源的预缓存决策。
在本申请提供的实施例中,得到资源的流行度(包括第一流行度和第二流行度),根据第一信息预测资源的流行度之后,确定缓存资源的方法还包括:对流行度进行归一化处理。对该资源的流行度通过公式
Figure BDA0003718280820000084
对获得的流行度进行归一化处理,得到各个资源的权重,其中,Pky为每个资源K的权重,Pk为资源集合K1中每个资源K的流行度。
根据本申请又一些可选的实施例,根据资源的流行度和存储空间确定是否缓存资源,通过以下方法实现:确定资源的流行度的平均值,并将平均值按照从小到大的顺序排序,得到平均值的排序结果;根据平均值的排序结果,确定第一数量的可请求的资源;确定第一数量的可请求的资源中每个资源的大小,根据每个资源的大小确定可请求的资源的大小的第三算术和,其中,第三算术和小于存储空间;确定基站中可请求的资源的数量为第二数量,如果第二数量小于第一数量,确定缓存资源;如果第二数量大于或者等于第一数量,拒绝缓存资源。
结合本申请上述实施例,获得资源的流行度之后,需要对该资源进行分配。在本实施例中,提供了一种优选的对资源分配的方法(即资源预存储决策)。根据本实施例提供的方法,将得到资源流行度Pk及其空间分布之后根据以下公式对算力网络存储资源进行分配,具体分配的方法如下:
首先根据不同的网络情况确定合适的ft1与ft2,使得优化任务符合当前的网络情况。其中,ft1和ft2是关于资源K的函数,ft1为算力网络到用户的传输开销,与具体请求的资源大小mk有关,ft2则是从互联网上请求资源所需的开销;ft1和ft2均可以定义为请求资源时的传输延迟。一般情况下ft1<<ft2且ft1(mk)与ft2(mk)都是单调增函数,因此,可以通过以下步骤求解:
步骤一:确定资源的流行度的平均值,并将平均值按照从小到大的顺序排序,得到平均值的排序结果。
例如,求解接入当前算力资源的用户的Pk的平均值并对上述平均值排序;
步骤二:根据平均值的排序结果,确定第一数量的可请求的资源;确定第一数量的可请求的资源中每个资源的大小,根据每个资源的大小确定可请求的资源的大小的第三算术和,其中,第三算术和表示上述所有可请求资源所占的字节数,第三算术和小于存储空间。
例如,在
Figure BDA0003718280820000091
的约束下,按照从小到大的顺序从排序后的Pk中取尽可能多的前L项,使得
Figure BDA0003718280820000092
得到的L即为ft1(mk)和ft2(mk)的最优解,其中,mk为第K个资源的大小,Mi为算力资源Si的存储空间,Dik是算力资源Si是否缓存资源K的决策,需要说明的是,若因为特殊情况ft1与ft2不满足上述条件,则需要在可行域中搜索最优的解,可用启发算法如粒子群算法等方法。但绝大多数情况下ft1与ft2都满足上述条件。
步骤三:确定基站中可请求的资源的数量为第二数量,如果第二数量小于第一数量,确定缓存资源;如果第二数量大于或者等于第一数量,拒绝缓存资源。
例如,结合步骤二中优化问题的解(即ft1、ft2的解)根据以下公式分别对各个基站进行资源缓存决策,
Figure BDA0003718280820000101
其中Ni为分配到基站Bi的用户数,Pkij为分配到Bi的第j个用户对各个资源请求的概率分布。根据Dik的值确定是否缓存该资源,若Dik的值为1则缓存该资源,否则若Dik的值为0,则不缓存该资源。
图4为根据本实施例的一种确定缓存资源的装置的结构图,如图4所示,该装置包括:
第一确定模块40,用于确定算力网络中可请求的资源,并获取目标对象请求资源的第一信息,其中,第一信息包括:目标对象请求的资源的名称,目标对象请求资源的时刻以及目标对象在时刻接入的基站;
预测模块42,用于根据第一信息预测资源的流行度,其中,资源的流行度为每个资源被目标对象请求的概率;
第二确定模块44,用于确定目标对象接入的基站的算力资源的存储空间,其中,算力资源是算力网络中具有数据处理能力的资源;
第三确定模块46,用于根据资源的流行度和存储空间确定是否缓存资源。
需要说明的是,图4所示实施例的优选实施方式可以参见图1所示实施例的相关描述,此处不再赘述。
图5是根据本实施例的一种预测用户行为,并根据上述预测的结果确定资源预缓存方法的原理图,如图5所示,假设在网络中有K个数据资源,记为
Figure BDA0003718280820000102
这些资源是所有用户都可能请求的,这些资源流行度记为(Pk)K×1,其本质是所有用户对这些资源的请求的概率分布。这个概率分布表征了整个算力网络中所有用户共同的兴趣。获得某一区域内的(Pk)K×1,就能在这一区域的算力节点中缓存这些资源以减少对互联网中这些资源的访问并降低用户数据请求延迟。利用联合学习的方法,针对每一个用户进行分析,预测每一个用户对各个资源的请求情况,再结合用户位置预测,综合分析即可得到各个区域各个时间的(Pk)K×1分布,并以此为依据优化算力网络中资源缓存策略,使得整个网络的资源缓存实时处于最优状态。
图6是根据本实施例的一种预测用户行为,并根据上述预测的结果确定资源预缓存方法的流程图,如图6所示,该方法包括以下步骤:收集用户历史访问信息;利用历史数据计算用户相似度;如果某个用户访问了新的网络资源,利用其他用户与该用户相似度估计其他用户对新资源的偏好程度;并更新资源预缓存决策。
通过执行上述流程,利用联邦学习的方法分别对用户移动轨迹和用户访问资源进行预测,再根据预缓存决策算法得到最优的预缓存策略;并且对于不属于历史访问信息的资源,利用协同过滤的方法,实时处理新资源,预测新资源的流行程度并以此作为资源预缓存的依据实时调整缓存决策,该方法既考虑了用户可能的请求也分析了用户的移动轨迹,将资源缓存在最合适的位置,能够在保证用户隐私安全的前提下提高用户访问网路资源的速度。
本申请实施例还提供了一种非易失性存储介质,非易失性存储介质包括存储的程序,其中,在程序运行时控制非易失性存储介质所在设备执行以上的确定缓存资源的方法。
上述非易失性存储介质用于存储执行以下功能的程序:确定算力网络中可请求的资源,并获取目标对象请求资源的第一信息,其中,第一信息包括:目标对象请求的资源的名称,目标对象请求资源的时刻以及目标对象在时刻接入的基站;根据第一信息预测资源的流行度,其中,资源的流行度为每个资源被目标对象请求的概率;确定目标对象接入的基站的算力资源的存储空间,其中,算力资源是算力基站中具有数据处理能力的资源;根据资源的流行度和存储空间确定是否缓存资源。
本申请实施例还提供了一种处理器,处理器用于运行存储在存储器中的程序,其中,程序运行时执行以上的确定缓存资源的方法。
上述处理器用于运行执行以下功能的程序:确定算力网络中可请求的资源,并获取目标对象请求资源的第一信息,其中,第一信息包括:目标对象请求的资源的名称,目标对象请求资源的时刻以及目标对象在时刻接入的基站;根据第一信息预测资源的流行度,其中,资源的流行度为每个资源被目标对象请求的概率;确定目标对象接入的基站的算力资源的存储空间,其中,算力资源是算力基站中具有数据处理能力的资源;根据资源的流行度和存储空间确定是否缓存资源。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对相关技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

Claims (10)

1.一种确定缓存资源的方法,其特征在于,包括:
确定算力网络中可请求的资源,并获取目标对象请求所述资源的第一信息,其中,所述第一信息包括:所述目标对象请求的所述资源的名称,所述目标对象请求所述资源的时刻以及所述目标对象在所述时刻接入的基站;
根据所述第一信息预测所述资源的流行度,其中,所述资源的流行度为每个所述资源被所述目标对象请求的概率;
确定所述目标对象接入的所述基站的算力资源的存储空间,其中,所述算力资源是所述算力网络中具有数据处理能力的资源;
根据所述资源的流行度和所述存储空间确定是否缓存所述资源。
2.根据权利要求1所述的方法,其特征在于,根据所述第一信息预测所述资源的流行度,包括:
预测已知资源的第一流行度,其中,所述已知资源为所述第一信息指示的资源;
预测未知资源的第二流行度,其中,所述未知资源为所述第一信息未指示的资源。
3.根据权利要求2所述的方法,其特征在于,预测已知资源的第一流行度,包括:
预测所述目标对象在目标时间段内的运动轨迹信息,输出第一预测结果,其中,所述运动轨迹信息中包括所述目标对象在所述目标时间段内请求所述资源的时刻以及所述目标对象在所述时刻接入的基站;
预测所述目标对象在所述目标时间段内请求的所述资源的名称,输出第二预测结果;
根据所述第一预测结果与所述第二预测结果预测所述第一流行度。
4.根据权利要求3所述的方法,其特征在于,通过以下方法输出所述第一预测结果包括:
根据所述第一信息,通过第一预设算法输出所述第一预测结果。
5.根据权利要求4所述的方法,其特征在于,通过以下方法输出所述第二预测结果,包括:
获取所述目标对象的第二信息,其中,所述第二信息包括以下至少之一资源信息:所述目标对象的检索记录,所述目标对象的购物记录和所述目标对象的浏览记录;
根据所述第二信息通过所述第一预设算法确定所述目标对象在所述基站中的特征向量;
根据所述第一信息和所述特征向量将所述第一预设算法的第一参数修正为第二参数,并将所述第二参数上传至所述基站;
确定所述基站中的多个所述第二参数以及所述基站中多个目标对象对应的多个第一权重,并确定由各个所述第二参数和各个所述第一权重的第一乘积得到的第一算术和;
确定所述算力网络中多个所述基站的多个第一算术和,确定多个所述基站对应的多个第二权重,并确定由多个所述第一算术和与多个所述第二权重的第二乘积得到的第二算术和,并根据所述第二算术和确定第二预设算法,通过所述第二预设算法输出所述第二预测结果。
6.根据权利要求3所述的方法,其特征在于,预测未知资源的第二流行度,包括:
获取所述目标对象在所述目标时间段内请求所述资源的第一集合,所述第一集合均为所述已知资源;
获取所述目标对象在所述目标时间段内请求所述资源的第二集合,所述第二集合包括所述未知资源;
根据所述第一集合和所述第二集合预测所述未知资源的第二流行度。
7.根据权利要求1所述的方法,其特征在于,根据所述资源的流行度和所述存储空间确定是否缓存所述资源,包括:
确定所述资源的流行度的平均值,并将所述平均值按照从小到大的顺序排序,得到所述平均值的排序结果;
根据所述平均值的排序结果,确定第一数量的可请求的资源;
确定所述第一数量的可请求的资源中每个资源的大小,根据所述每个资源的大小确定所述可请求的资源的大小的第三算术和,其中,所述第三算术和小于所述存储空间;
确定所述基站中可请求的资源的数量为第二数量,如果所述第二数量小于所述第一数量,确定缓存所述资源;
如果所述第二数量大于或者等于所述第一数量,拒绝缓存所述资源。
8.一种确定缓存资源的装置,其特征在于,包括:
第一确定模块,用于确定算力网络中可请求的资源,并获取目标对象请求所述资源的第一信息,其中,所述第一信息包括:所述目标对象请求的所述资源的名称,所述目标对象请求所述资源的时刻以及所述目标对象在所述时刻接入的基站;
预测模块,用于根据所述第一信息预测所述资源的流行度,其中,所述资源的流行度为每个所述资源被所述目标对象请求的概率;
第二确定模块,用于确定所述目标对象接入的所述基站的算力资源的存储空间,其中,所述算力资源是所述算力网络中具有数据处理能力的资源;
第三确定模块,用于根据所述资源的流行度和所述存储空间确定是否缓存所述资源。
9.一种非易失性存储介质,其特征在于,所述非易失性存储介质包括存储的程序,其中,在所述程序运行时控制所述非易失性存储介质所在设备执行权利要求1至7中任意一项所述的确定缓存资源的方法。
10.一种处理器,其特征在于,所述处理器用于运行存储在存储器中的程序,其中,所述程序运行时执行权利要求1至7中任意一项所述的确定缓存资源的方法。
CN202210741822.XA 2022-06-28 2022-06-28 确定缓存资源的方法及装置、非易失性存储介质、处理器 Pending CN115017435A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210741822.XA CN115017435A (zh) 2022-06-28 2022-06-28 确定缓存资源的方法及装置、非易失性存储介质、处理器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210741822.XA CN115017435A (zh) 2022-06-28 2022-06-28 确定缓存资源的方法及装置、非易失性存储介质、处理器

Publications (1)

Publication Number Publication Date
CN115017435A true CN115017435A (zh) 2022-09-06

Family

ID=83076579

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210741822.XA Pending CN115017435A (zh) 2022-06-28 2022-06-28 确定缓存资源的方法及装置、非易失性存储介质、处理器

Country Status (1)

Country Link
CN (1) CN115017435A (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015044107A1 (en) * 2013-09-27 2015-04-02 Alcatel Lucent Method for caching
US20150312367A1 (en) * 2014-04-25 2015-10-29 Nec Europe Ltd. Efficient caching in content delivery networks based on popularity predictions
CN106875027A (zh) * 2016-06-06 2017-06-20 阿里巴巴集团控股有限公司 资源请求值的预测方法及装置、交易量的预测方法
CN109951875A (zh) * 2019-02-22 2019-06-28 广州大学 基于内容流行度预测的缓存方法、装置、设备和介质
US20200274894A1 (en) * 2019-02-27 2020-08-27 Microsoft Technology Licensing, Llc Anomaly scoring using collaborative filtering
US10795900B1 (en) * 2015-11-11 2020-10-06 Twitter, Inc. Real time analyses using common features
CN111935784A (zh) * 2020-08-12 2020-11-13 重庆邮电大学 一种雾计算网络中基于联邦学习的内容缓存方法
CN113283948A (zh) * 2021-07-14 2021-08-20 腾讯科技(深圳)有限公司 预测模型的生成方法、装置、设备和可读介质
CN114021770A (zh) * 2021-09-14 2022-02-08 北京邮电大学 网络资源优化方法、装置、电子设备及存储介质
CN114297099A (zh) * 2021-12-29 2022-04-08 中国电信股份有限公司 数据缓存优化方法及装置、非易失性存储介质、电子设备
CN114401532A (zh) * 2022-01-24 2022-04-26 天津大学 算力网络中基于贡献感知的网内池化资源分配优化方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015044107A1 (en) * 2013-09-27 2015-04-02 Alcatel Lucent Method for caching
US20150312367A1 (en) * 2014-04-25 2015-10-29 Nec Europe Ltd. Efficient caching in content delivery networks based on popularity predictions
US10795900B1 (en) * 2015-11-11 2020-10-06 Twitter, Inc. Real time analyses using common features
CN106875027A (zh) * 2016-06-06 2017-06-20 阿里巴巴集团控股有限公司 资源请求值的预测方法及装置、交易量的预测方法
CN109951875A (zh) * 2019-02-22 2019-06-28 广州大学 基于内容流行度预测的缓存方法、装置、设备和介质
US20200274894A1 (en) * 2019-02-27 2020-08-27 Microsoft Technology Licensing, Llc Anomaly scoring using collaborative filtering
CN111935784A (zh) * 2020-08-12 2020-11-13 重庆邮电大学 一种雾计算网络中基于联邦学习的内容缓存方法
CN113283948A (zh) * 2021-07-14 2021-08-20 腾讯科技(深圳)有限公司 预测模型的生成方法、装置、设备和可读介质
CN114021770A (zh) * 2021-09-14 2022-02-08 北京邮电大学 网络资源优化方法、装置、电子设备及存储介质
CN114297099A (zh) * 2021-12-29 2022-04-08 中国电信股份有限公司 数据缓存优化方法及装置、非易失性存储介质、电子设备
CN114401532A (zh) * 2022-01-24 2022-04-26 天津大学 算力网络中基于贡献感知的网内池化资源分配优化方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
余国清;周兰蓉;罗可;: "移动通信中网络个性化服务信息提取仿真", 计算机仿真, no. 12, 15 December 2016 (2016-12-15), pages 290 - 293 *
赵政, 张钢, 杨洁, 王松, 舒炎泰: "Web智能代理的预取技术和缓存技术", 天津大学学报(自然科学与工程技术版), no. 05, 25 May 2001 (2001-05-25), pages 4 - 8 *

Similar Documents

Publication Publication Date Title
Elgendy et al. Joint computation offloading and task caching for multi-user and multi-task MEC systems: reinforcement learning-based algorithms
Yu et al. Mobility-aware proactive edge caching for connected vehicles using federated learning
Yu et al. Federated learning based proactive content caching in edge computing
He et al. QoE-driven content-centric caching with deep reinforcement learning in edge-enabled IoT
CN110213627B (zh) 一种基于多小区用户移动性的流媒体缓存分配方法
CN109982104B (zh) 移动边缘计算中移动感知的视频预取与缓存替换决策方法
Zhang et al. Toward edge-assisted video content intelligent caching with long short-term memory learning
CN111049903B (zh) 一种基于应用感知预测的边缘网络负载分配算法
CN113315978B (zh) 一种基于联邦学习的协作式在线视频边缘缓存方法
CN114553963B (zh) 移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法
CN111491331B (zh) 一种雾计算网络中基于迁移学习的网络感知自适应缓存方法
Jiang et al. A novel caching policy with content popularity prediction and user preference learning in fog-RAN
CN115767596A (zh) 边缘计算中面向用户移动性与偏好的边缘协同缓存方法
CN116126130A (zh) 一种可信边缘服务器的选择与能耗优化的任务卸载方法
CN111488528A (zh) 内容缓存管理方法及装置、电子设备
Jiang et al. Federated learning-based content popularity prediction in fog radio access networks
CN107370807B (zh) 基于透明服务平台数据访问的服务端及其缓存优化方法
CN115017435A (zh) 确定缓存资源的方法及装置、非易失性存储介质、处理器
CN115129888A (zh) 一种基于网络边缘知识图谱的主动内容缓存方法
Xu et al. An incremental learning based edge caching system: From modeling to evaluation
Chakraborty et al. R2-d2d: A novel deep learning based content-caching framework for d2d networks
Sakr et al. Meta-reinforcement learning for edge caching in vehicular networks
Tao et al. Content popularity prediction in fog-rans: A bayesian learning approach
Wu et al. Proactive Caching With Distributed Deep Reinforcement Learning in 6 G Cloud-Edge Collaboration Computing
CN111901394A (zh) 一种联合考虑用户偏好及活跃程度的移动边缘缓存的方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination