CN116828052A - 一种基于边缘计算的数据智能协同缓存方法 - Google Patents
一种基于边缘计算的数据智能协同缓存方法 Download PDFInfo
- Publication number
- CN116828052A CN116828052A CN202310838016.9A CN202310838016A CN116828052A CN 116828052 A CN116828052 A CN 116828052A CN 202310838016 A CN202310838016 A CN 202310838016A CN 116828052 A CN116828052 A CN 116828052A
- Authority
- CN
- China
- Prior art keywords
- content
- caching
- user
- sen
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000004364 calculation method Methods 0.000 title claims abstract description 7
- 238000013528 artificial neural network Methods 0.000 claims abstract description 4
- 241000854291 Dianthus carthusianorum Species 0.000 claims description 11
- 238000012384 transportation and delivery Methods 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 239000013307 optical fiber Substances 0.000 claims description 2
- 238000012549 training Methods 0.000 abstract description 8
- 238000010295 mobile communication Methods 0.000 abstract description 2
- 206010051747 multiple endocrine neoplasia Diseases 0.000 description 22
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000003139 buffering effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 238000006116 polymerization reaction Methods 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/56—Provisioning of proxy services
- H04L67/568—Storing data temporarily at an intermediate stage, e.g. caching
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1097—Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/56—Provisioning of proxy services
- H04L67/568—Storing data temporarily at an intermediate stage, e.g. caching
- H04L67/5682—Policies or rules for updating, deleting or replacing the stored data
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本发明涉及一种基于边缘计算的数据智能协同缓存方法,属于移动通信技术领域。首先,用户根据上下文信息完成簇群选择,使得同一簇群中的用户具有相似内容偏好,由于簇群间用户不相交,提出了基于享乐联盟博弈的用户分簇算法;其次,基于分层联邦学习,用户建立深度神经网络DNN训练本地模型并上传至边缘网络层中的MEN和SEN,通过分层联邦学习优化内容缓存放置位置策略;最后,在边缘网络引入内容缓存价值协助SEN进行短期内容更新,基于当前的缓存状态与用户内容输出估计偏好,最大化协同联盟整体内容缓存价值,从而减少缓存冗余。本发明在保证模型精度的前提下,有效提高缓存命中率,降低内容获取时延。
Description
技术领域
本发明属于移动通信技术领域,涉及一种基于边缘计算的数据智能协同缓存方法。
背景技术
随着物联网和通信技术的快速发展,爆发式的终端用户智能需求日益增加,移动流量呈现几倍增长;同时伴随物联网应用的提出,用户拥有大量选择,对内容请求时延要求也越来越高,但是目前这种激增的智能业务量导致用户获取内容时间持续增加,从而给用户本地和中心服务器间回程链路带来巨大压力。因此,边缘缓存的研究已成为无线通信领域最热门的研究课题之一。通过采用机器学习的方法预测内容流行度,将热门内容提前缓存到边缘网络,能有效的将通信、计算、储存能力扩展到网络边缘,减少回程链路拥堵和请求延迟,提高用户体验感。但现有的学习方式主要是集中式学习模式,要求用户将私有信息上传到集中式服务器,存在隐私泄露问题,分布式学习模式是解决这一问题的关键。
边缘计算(Edge Computing)是一种对云计算概念的延伸,它主要使用的是边缘网络中的设备,数据传递具有极低时延。其网络模型是一种分层模型,常用于时延敏感和分布式的应用程序和服务中,由位于智能终端设备和集中云服务器之间的EN组成。EN具有上下文感知能力并支持公共数据管理和通信系统,它们可以被组织成集群,一方面为用户和中央云提供垂直服务,另一方面为其他EN提供水平服务。SEN和MEN组成的边缘网络是具有一定的处理能力和缓存能力,从而可以提前缓存热门内容,提高用户体验感。
联邦学习(Federated Learning)是一种分布式的学习模式,由谷歌在2016年提出,是学术界与工业界广泛认可的未来分布式网络架构的主要方向。其中,参与FL的用户在本地训练一个单一的机器学习模型,通过交换模型参数而非用户私有数据的情况下训练高质量模型,从而避免与中心服务器共享数据的通信安全问题与用户隐私问题,同时,也可以实现边缘神经感知和多维资源智能协调管理。在引入FL的边缘缓存网络中,由于现有的边缘缓存方法大多是边缘服务器基于内容流行度和缓存能力单独缓存内容,没有考虑边缘网络下不同边缘服务器协同缓存,导致多个边缘服务器无效缓存相同内容,产生缓存冗余,因此如何根据边缘协同缓存实现安全且低时延的内容获取是值得考虑的问题。
发明内容
有鉴于此,本发明的目的在于提供一种基于边缘计算的数据智能协同缓存方法,该方法联合优化无人机轨迹,通信资源分配,通信调度以最大化系统最小链路平均吞吐量。
为达到上述目的,本发明提供如下技术方案:
第一方面,通过用户的上下文信息与簇群特征相似度,优化用户分簇方案,同时根据输出内容偏好优化边缘协同缓存和长短期内容缓存方案,该方法包括以下步骤:
S1:基于享乐联盟博弈的用户分簇方案;
S2:基于深度神经网络的本地内容偏好估计;
S3:基于分层联邦学习的优化内容缓存位置策略;
S4:基于内容缓存价值的边缘协同缓存。
第二方面,本发明实施例在步骤S1中,提出一种基于享乐联盟博弈的用户分簇方案。建立一种云-边-端三层网络模型:1)用户端,包括智能手机、私人电脑、智能终端等;2)EN端,包括SEN、MEN;3)云端,包括云服务器。边缘服务器部署在边缘节点,拥有丰富的计算、缓存资源,可以为关联用户提供数据处理、内容缓存等服务。
在网络场景中,EN可以获取用户的地理信息与基本特征,统称为上下文信息。具有相似上下文信息的用户通常具有相似的内容偏好。本发明中,通过分析用户的上下文信息,用户将选择加入簇群偏好更接近的簇,使得每个SEN关联的用户尽可能拥有相似的内容偏好,从而能为多数用户服务,提高簇群缓存性能。
用户ud初始上下文信息为A=(ad,j)D'×J,其中,D'为联盟下用户总数,J为上下文信息维度。采用线性函数归一化方法将上下文信息用B=(bd,j)D'×J表示,此外,再进行压缩,以消除冗余和噪声。协方差矩阵可以反应各个特征之间的相关性,通过奇异值分解得到Δ=P∑VT,其中∑=diag(σ1,σ1,...,σJ),λ为Δ的特征值,取出前p个最大特征值对应的特征向量[p1,p2,...,pp],形成矩阵H,最终得到用户的上下文信息为zd=HTbd=(zd,j)J×1,d∈D'。
用户可与一个或多个SEN建立联系,send={s1,...,sH'}为用户ud可连接的SEN集合。首先,选取||send||=1的用户建立初始簇群集;其次,根据余弦相似度表示用户与簇群的特征相似度,选出当前簇群的簇头;最后,选取||seni||>1的未关联用户ui,加入与簇头特征相似度最高的簇群,完成一个用户关联后,更新簇群集与簇头,再次进行用户选择,直到所有用户关联完成。
第三方面,本发明实施例在步骤S2中,提出一种基于深度神经网络的本地内容偏好估计方法。用户的DNN训练模型是由输入、隐藏、输出三层组成,用户ud大量的历史请求数据记录作为训练样本,表示为χd={(hf,yd,f),f∈F},其中,hf=[hf,1,hf,2,...,hf,N]表示内容cf的N维特征;yd,f表示用户ud对内容cf的预期偏好。采用Sigmoid函数作为隐藏层的激活函数f(z)=1/(1+e-z),DNN模型的输出为用户ud对内容cf的输出估计偏好,即qd,f=f(hf,wd)。
第四方面,本发明实施例在步骤S3中,提出一种基于分层联邦学习的优化内容缓存位置方法。用户本地维护一个DNN网络模型,并利用历史请求数据完成模型训练与输出偏好估计,每次迭代,用户上传本地模型到边缘网络层。同时更好的为用户服务,将边缘网络划分为多个协同联盟,每个协同联盟包括一个MEN和多个SEN,节点之间通过光纤相互连接,而中心服务器通过回程链路将内容提前分配给边缘节点。其中,MEN维护协同联盟全局缓存信息表并定期更新,帮助用户快速锁定目标内容,并且每I次本地迭代后,根据SEN上传边缘模型预测全局内容流行度,完成MEN全局内容缓存更新;SEN间不交换缓存信息已确保隐私安全,每次本地迭代后,根据用户上传模型预测内容缓存价值,完成边缘模型内容缓存更新,并且上传缓存信息到MEN,协助全局缓存状态信息表更新。
第五方面,本发明实施例在步骤S4中,提出一种基于边缘计算的数据智能协同缓存方法。边缘协同缓存实现对边缘网络缓存资源的高效利用,解决单一边缘节点仅根据内容流行度缓存内容产生的缓存冗余问题,提高缓存性能。缓存价值为该SEN未缓存与缓存该内容的平均交付时延差,为实现内容获取时延最小化,即使联盟中的整体缓存价值最大化。
本发明的有益效果在于:在边缘缓存前,根据用户上下文信息完成簇群选择,使得每个簇群用户具有相似内容偏好,边缘服务器为尽可能多的用户服务,引入内容缓存价值,并从协同联盟的角度出发,考虑内容流行度、内容大小、交付时延等因素,最大化整体缓存价值,减少缓存冗余,从而降低内容获取时延,提高缓存命中率。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为边缘网络中云-边-端三层网络架构图;
图2为基于联邦学习的协同边缘缓存系统实施图;
图3为基于联邦学习的协同边缘缓存执行流程图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
图1示出了本发明实施所涉及的通信系统的一种可能结构示意图。如图1所示,该网络考虑三层网络,包括用户层、边缘网络层、中心云层。边缘网络层包括SEN、MEN两类边缘节点服务器,具有一定的数据处理与内容缓存能力,中心云层包括中心服务器,缓存所有用户所需内容。用户集合表示为U={u1,u2,...,ud,...,uD},SEN集合为S={s1,s2,...,sk,...,sK},SEN对应的缓存容量为φk,MEN集合表示为:M={m1,m2,...,ml,...,mL},MEN的缓存容量为云端缓存所有的内容,内容集合表示为C={c1,c2,...,cf,...,cF},内容大小为οf。为方便表示,发明中ud与d,sk与k,cf与f含义相同。
1.内容交付模型
不同协同联盟中的节点不交换信息以确保用户隐私。图1中将EN端划分了不同的协同联盟,每个协同联盟中包含一个MEN和多个SEN,且同一协同联盟中MEN与所有SEN建立连接,收集信息,并定期更新全局内容缓存信息表。
第t次迭代时,MEN的缓存信息表表示为X=(xk,f)(K+1)×F,其中
xk,f为二元变量,表示SENsk中是否缓存内容cf。考虑到内容获取时延是影响用户体验感的最关键问题之一,选择内容交付延迟作为评估系统的指标,用户由以下三步获取内容:
第一步,用户向关联SEN发起内容请求,如果关联SEN已经缓存目标内容,直接将内容发送给用户,否则,进入第二步。关联SENsk和用户ud间传递内容cf时延表示为:
其中,Bk,d表示SENsk和用户ud间的传输带宽,表示SENsk的传输功耗,/>表示SENsk和用户ud间的信道增益,N0表示高斯白噪声的功率。
第二步,关联SEN向MEN发起请求,MEN检查协同联盟缓存信息表,判定协同联盟中是否缓存目标内容,如果已经缓存,内容获取时延最小的EN发送目标内容给关联SEN,否则进入第三步。SENsk和si或ml间传递内容cf时延可由下式计算:
其中,表示协同联盟中关联SEN传输内容时延最小的EN。
第三步,云端将目标内容发送给关联SEN,云端获取目标内容的时延为τ1。
则系统平均内容交付时延可表示为:
此外:
其中,为两元变量,当/>时表示用户ud请求内容cf,Ω表示系统用于请求总次数。
2.用户簇群选择问题
图1中用户端的用户可与一个或多个EN端的SEN建立联系,send={s1,...,sk,...}表示用户ud可连接SEN集合。首先,初始化簇群关联用户,当||send||=1,用户与对应SEN关联,建立初始联盟l簇群集其中,Uk={u1,u2,...,ud,...}表示SEN sk关联的用户。其次,选出当前簇头,用户对比本身与可连接簇头的特征相似度,选择加入簇群特征更高的簇。
1)簇头的选取:
当前簇群集Sl,簇群Uk中用户ud,ud'之间的特征相似度可用余弦相似度表示为则用户ud与簇群Uk间的相似度/>表示为ud与簇内每个用户之间的相似度之和。
单个用户与簇群的相似度越高,意味着该用户特征可更好的代表簇群特征。由此簇头为
2)用户簇群选择
当||seni||>1,未关联用户ui加入相似度最高的簇群,完成一个用户关联后,更新簇群集与簇头,再次进行用户选择,直到所有用户关联完成。
3.分层联邦学习过程
分层联邦学习由UE-EN端两层网络协同完成,图2所示基于联邦学习的协同边缘缓存方案的系统实施图,其整个系统实施过程分为以下几个步骤:
1)分簇:基于用户间特征相似度,分析用户的身份特征,对用户进行分簇;
2)训练本地模型:用户根据本地数据样本集训练本地模型参数,同时得到内容输出偏好估计;
3)UE上传本地模型:每次本地迭代后,用户上传更新本地模型到关联SEN,SEN聚合本地模型更新边缘模型,关联用户下载更新后的边缘模型继续训练。用户基于梯度下降算法更新本地模型,表示为:
其中,η表示学习率,表示第mI次本地迭代,用户ud在样本集Dd下的损失函数;
4)SEN聚合本地模型:SEN聚合本地模型,并基于本地模型预测内容缓存价值,完成SEN短期内容协同缓存;
5)SEN-MEN协同完成内容缓存:每I本地迭代后,MEN聚合同一联盟中SEN上传的边缘模型,更新全局模型,第(m+1) I次本地迭代后全局模型表示为:
其中,Sl={s1,s2,...,sk,...},表示协同联盟l下覆盖SEN集合;表示SEN sk在(k+1)I次迭代的边缘模型。
6)用户下载全局模型;用户下载全局模型后,继续进行本地训练,并重复上述步骤,最终使得全局模型收敛。
4.SEN协同缓存策略
现有的基于内容流行度的缓存方法多为EN缓存最流行内容,以换取最大缓存性能。然而,没有考虑边缘服务器间的协同缓存。如果EN只选择缓存本地高流行度内容,导致联盟中的多个SEN可能重复缓存相同内容,从而导致缓存冗余。
1)缓存价值
为优化SEN协同缓存策略,引入了一个新指标:缓存价值,即SEN中不缓存与缓存内容的平均交付时延差。
用户基于当前缓存状态与内容估计偏好,从协同联盟l中请求内容cf时,平均交付时延为:
不同缓存策略下,协同联盟中用户请求内容cf获得的平均时延为:
其中缓存策略由内容缓存价值决定,缓存价值的获取有两个情况:
情况一:
如果SENsk未缓存内容cf,假设SENsk缓存内容cf后,此时τ'd,f=τd,f(xk,f=1)。
情况二:
如果SENsk已缓存内容cf,假设在SENsk移出内容cf后,此时τ'd,f=τd,f(xk,f=0)
最后,SENsk缓存内容cf的缓存价值为V(k,f):
V(k,f)=|Tl,f-Tl',f|
2)动态规划
基于内容缓存价值,为实现预期内容获取时延最小化,即联盟中的整体缓存价值最大化,优化问题表示为:
constains:
c1:
c2:
其中,约束条件C1表示SEN缓存容量约束,约束条件C2表示SEN内容缓存放置约束。
为解决这一问题,提出了一种基于动态编程的算法,该算法将整个决策过程分为几个单一阶段,并逐一解决。以t+1次迭代为例:
第一步:初始化,t次迭代后全局内容缓存信息表作为初始缓存列表集,同一联盟中SEN集作为初始SEN集;
第二步:SEN根据0-1背包算法分别求取各自整体内容缓存价值,以及对应的缓存列表;
第三步:将最大整体内容缓存价值的SEN对应的缓存列表确定为t+1次迭代该SEN的缓存列表,更新缓存列表集与SEN集
第四步:若SEN为空,t+1次迭代的全局内容缓存信息表更新为当前缓存列表集,否则,重复步骤二、三。
5.系统流程
图3所示是基于联邦学习的边缘缓存方案执行流程图,具体执行步骤如下:
S501:算法初始化;
S502:SEN在离散的时间段内监测其覆盖范围内的用户集合;
S503:基于用户上下文信息完成用户簇群选择;
S504-S507:用户发起内容请求,基于全局缓存状态表,可通过三种方式(关联SEN、边缘协同联盟、云端)获取内容;
S504:用户向关联SEN发送内容请求;
S505:如果关联SEN已经缓存目标内容,用户直接从关联SEN中获取内容;
S506:关联SEN未缓存目标内容,用户向协同联盟发送目标内容请求,
S507:若协同联盟已缓存目标内容,用户从协同联盟中时延最小的EN获取目标内容,否则直接从云端获取;
S508:用户从关联SEN下载边缘模型,并利用历史请求数据进行本地模型训练;
S509-512:SEN短期内容缓存更新;
S509:每次本地迭代后,用户上传本地模型参数与用户活跃度到关联SEN;
S510:SEN端聚合用户本地模型形成边缘模型;
S511:SEN根据用户上传模型预测内容缓存价值,并基于0-1背包动态规划,完成短期内容缓存更新;
S512:SEN上传缓存信息到MEN,协助全局缓存状态表更新;
S513-515:MEN长期内容缓存更新;
S513:每I次本地迭代后,SEN上传边缘模型与用户活跃度到MEN;
S514:MEN基于边缘模型聚合全局模型,预测全局内容流行度,完成MEN长期内容缓存更新;
S515:MEN全局缓存状态表更新
S516:全局模型收敛,此时为最终的缓存决策,若为达到全局精度,重复S502~512;
S517:算法结束,输出最优结果。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (8)
1.一种基于边缘计算的数据智能协同缓存方法,其特征在于:该方法包括以下步骤:
S1:基于享乐联盟博弈的用户分簇方案;
S2:基于深度神经网络的本地内容偏好估计;
S3:基于分层联邦学习的优化内容缓存位置策略;
S4:基于内容缓存价值的边缘协同缓存。
2.根据权利要求1所述的一种基于边缘计算的数据智能协同缓存方法,其特征在于:所述S1中,采用云-边-端三层网络架构在用户端实现基于享乐联盟博弈的用户分簇方案;具有相似上下文信息的用户具有相似内容偏好,将用户初始上下文信息进行归一化、压缩处理,得到用户特征矩阵;EN根据用户的地理信息与基本身份特征分析用户特性,使用户加入簇群特征更接近的簇。
3.根据权利要求2所述的一种基于边缘计算的数据智能协同缓存方法,其特征在于:所述S1中,首先初始化簇群关联用户;其次,基于簇群用户间特征相似度选取簇头;最后,未关联用户基于簇头特征相似度与用户对簇群的偏好完成簇群选择。
4.根据权利要求3所述的一种基于边缘计算的数据智能协同缓存方法,其特征在于:所述S2中,在用户端建立DNN模型,用户利用历史请求数据和内容的N维特征,训练本地模型参数同时得到内容输出偏好估计。
5.根据权利要求4所述的一种基于边缘计算的数据智能协同缓存方法,其特征在于:所述S3中,MEN与SEN共同构建边缘网络;将边缘网络划分为多个协同联盟,每个协同联盟包括一个MEN和多个SEN,节点间通过光纤相互连接。
6.根据权利要求5所述的一种基于边缘计算的数据智能协同缓存方法,其特征在于:所述S3中,每次迭代,用户上传本地模型到关联SEN,SEN基于本地模型预测内容缓存价值,完成SEN短期内容协同缓存;每I次迭代,SEN上传边缘模型到关联MEN,MEN基于边缘模型预测全局内容流行度,由大到小完成MEN全局内容缓存。
7.根据权利要求6所述的一种基于边缘计算的数据智能协同缓存方法,其特征在于:所述S4中,在边缘网络引入内容缓存价值,基于当前的缓存状态与用户内容输出估计偏好,内容在SEN中的缓存价值即为该SEN缓存与未缓存该内容的平均交付时延差。
8.根据权利要求7所述的一种基于边缘计算的数据智能协同缓存方法,其特征在于:所述S4中,基于内容缓存价值的边缘协同缓存最大化协同联盟整体内容缓存价值,从而最小化内容获取时延;考虑内容大小、内容缓存价值、SEN缓存能力,将其解耦为单个SEN子优化问题,并通过动态规划策略求解。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310838016.9A CN116828052A (zh) | 2023-07-10 | 2023-07-10 | 一种基于边缘计算的数据智能协同缓存方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310838016.9A CN116828052A (zh) | 2023-07-10 | 2023-07-10 | 一种基于边缘计算的数据智能协同缓存方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116828052A true CN116828052A (zh) | 2023-09-29 |
Family
ID=88140766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310838016.9A Pending CN116828052A (zh) | 2023-07-10 | 2023-07-10 | 一种基于边缘计算的数据智能协同缓存方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116828052A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117808129A (zh) * | 2024-02-29 | 2024-04-02 | 浪潮电子信息产业股份有限公司 | 一种异构分布式学习方法、装置、设备、系统及介质 |
-
2023
- 2023-07-10 CN CN202310838016.9A patent/CN116828052A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117808129A (zh) * | 2024-02-29 | 2024-04-02 | 浪潮电子信息产业股份有限公司 | 一种异构分布式学习方法、装置、设备、系统及介质 |
CN117808129B (zh) * | 2024-02-29 | 2024-05-24 | 浪潮电子信息产业股份有限公司 | 一种异构分布式学习方法、装置、设备、系统及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xia et al. | A survey of federated learning for edge computing: Research problems and solutions | |
Brik et al. | Federated learning for UAVs-enabled wireless networks: Use cases, challenges, and open problems | |
Zhang et al. | Proactive caching for vehicular multi-view 3D video streaming via deep reinforcement learning | |
Zhang et al. | PSAC: Proactive sequence-aware content caching via deep learning at the network edge | |
Yu et al. | Privacy-preserving federated deep learning for cooperative hierarchical caching in fog computing | |
Wang et al. | Multimodal semantic communication accelerated bidirectional caching for 6G MEC | |
CN116828052A (zh) | 一种基于边缘计算的数据智能协同缓存方法 | |
Zhou et al. | Edge computation offloading with content caching in 6G-enabled IoV | |
CN113873534B (zh) | 一种雾计算中区块链协助的联邦学习主动内容缓存方法 | |
Cassará et al. | Federated feature selection for cyber-physical systems of systems | |
Huang et al. | Dynamic compression ratio selection for edge inference systems with hard deadlines | |
CN113918829A (zh) | 一种雾计算网络中基于联邦学习的内容缓存和推荐方法 | |
Xu et al. | Decentralized machine learning through experience-driven method in edge networks | |
Khanal et al. | Route-based proactive content caching using self-attention in hierarchical federated learning | |
CN116149838A (zh) | 云边端融合的隐私增强联邦学习系统 | |
Jiang et al. | A reinforcement learning-based computing offloading and resource allocation scheme in F-RAN | |
Wu et al. | Data transmission scheme based on node model training and time division multiple access with IoT in opportunistic social networks | |
AbdulRahman et al. | Adaptive upgrade of client resources for improving the quality of federated learning model | |
Liu et al. | Rendered tile reuse scheme based on FoV prediction for MEC-assisted wireless VR service | |
Uddin et al. | Federated learning via disentangled information bottleneck | |
Mestoukirdi et al. | User-centric federated learning | |
Liu et al. | Multi-agent federated reinforcement learning strategy for mobile virtual reality delivery networks | |
Xie et al. | Backscatter-aided hybrid data offloading for mobile edge computing via deep reinforcement learning | |
Liu et al. | FedSSC: Joint client selection and resource management for communication-efficient federated vehicular networks | |
Huang et al. | Service reservation and pricing for green metaverses: A Stackelberg game approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |