CN113918829A - 一种雾计算网络中基于联邦学习的内容缓存和推荐方法 - Google Patents

一种雾计算网络中基于联邦学习的内容缓存和推荐方法 Download PDF

Info

Publication number
CN113918829A
CN113918829A CN202111184953.4A CN202111184953A CN113918829A CN 113918829 A CN113918829 A CN 113918829A CN 202111184953 A CN202111184953 A CN 202111184953A CN 113918829 A CN113918829 A CN 113918829A
Authority
CN
China
Prior art keywords
content
ids
caching
recommendation
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111184953.4A
Other languages
English (en)
Inventor
黄晓舸
王凡
陈志�
陈前斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202111184953.4A priority Critical patent/CN113918829A/zh
Publication of CN113918829A publication Critical patent/CN113918829A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9536Search customisation based on social or collaborative filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明涉及一种雾计算网络中基于联邦学习的内容缓存和推荐方法,属于通信技术领域。本网络中,每个雾节点FN将缓存具有高流行度的内容,同时物联网设备ID,作为联邦学习的客户端,可本地缓存部分内容,并利用本地数据对模型参数进行训练,避免IDs私密信息的直接上传。由于ID端有限的存储资源和固有的用户需求模式,内容缓存增益有限。IDs可通过D2D协作链路获取内容,也可通过FN或云端获取内容,为了提高ID端缓存效用,利用邻近算法KNN找到邻居IDs并向目标ID推荐缓存内容,目标ID根据内容评分高低进行缓存;为提高缓存命中率,FN将建立个性化的内容推荐列表,通过主动内容推荐来追踪用户需求,降低内容获取时延。

Description

一种雾计算网络中基于联邦学习的内容缓存和推荐方法
技术领域
本发明属于通信技术领域,涉及一种雾计算网络中基于联邦学习的内容缓存和推荐方法。
背景技术
随着物联网和通信技术的发展,下一代物联网设备数量呈爆炸式增长,移动流量也是几倍的增加,伴随着越来越多新应用的提出,用户拥有大量的选择,对内容请求时延要求也越来越高,但是目前这种激增的移动业务量正在导致用户获取内容时间持续增加,从而给本地基站和互联网的回程链路带来巨大压力。因此,边缘缓存的研究已成为无线通信领域最热门的研究课题之一,基于内容流行度,可以将热门内容缓存在离用户较近的雾节点或用户本地,可以有效减少网络链路拥塞和请求延迟,从而提高用户的服务质量QoS。
在近几年中,雾计算FC是一种新型的边缘计算网络框架,通过将计算和存储功能推向网络边缘,更接近用户,实现将云计算扩展到网络边缘来支持日益增长的多媒体服务需求,相比云计算,雾节点FN之间的分布式边缘缓存可以有效减少网络流量和服务延迟,因为它将流行内容放置在FN中而不是远程云中。但由于FN有限的覆盖范围与缓存资源,需要协作缓存方案来决定哪些内容受欢迎以及如何缓存它们,例如先进先出FIFO、最近最少使用LRU,端到端D2D协作缓存,这些方法通常会在中央服务器上收集和分析来自物联网设备ID的数据,以预测缓存的内容流行度,这将消耗大量的通信带宽,同时会引发严重的隐私问题。
为解决上述问题,联邦学习FL被认为是一种有效的方法,FL是一个去中心化的框架,利用分布在物联网设备上的训练数据协作学习模型,以提高通信效率。基本上,IDs通过本地数据更新本地模型参数,FN端聚合上传的更新模型参数完成全局模型参数的更新,来学习一个共享的训练模型。
发明内容
有鉴于此,本发明的目的在于提供一种雾计算网络中基于联邦学习的内容缓存和推荐方法。
为达到上述目的,本发明提供如下技术方案:
一种雾计算网络中基于联邦学习的内容缓存和推荐方法,法包括以下步骤:
S1:基于IDs的D2D协作模型;
S2:基于深度神经网络的本地内容缓存模型;
S3:基于联邦学习的主动缓存算法;
S4:基于IDs的个性化内容推荐算法;
在步骤S1中,建立IDs间的D2D通信连接,可以减轻FN和云端的流量负担。D2D协作模型主要考虑两个因素,即IDs之间物理链路质量和社交强度。
(1)物理链路质量从以下两个方面考虑:首先,D2D接触时间需超过内容传输时间;其次,建立D2D连接的IDs需满足其传输速率需求。
D2D接触时间Tcom表示ID u和v从建立连接到连接断开的时间,假定服从指数分布。Ru,v表示ID u和v通过D2D链路的传输速率,表示为:
Figure BDA0003298758600000021
其中,Bu,v表示ID u分配给ID v的传输带宽,pv表示ID v的传输功耗,Hu,v表示ID u和v之间的信道增益,Hu,i表示ID u和其它ID i之间的信道增益,δ2表示高斯白噪声的功率。
Tu,v,c表示ID u和v通过D2D链路对内容c的传输时间,表示为:
Figure BDA0003298758600000022
其中sc表示为内容c的大小,为保证内容成功获取,接触时间需超过内容传输时间,其概率表示为:
Figure BDA0003298758600000023
此外,考虑到IDs请求不同内容的传输速率需求不同,通过Logistic函数表示满足传输速率需求的概率:
Figure BDA0003298758600000024
其中,Rc,th表示内容c的传输速率需求,τ表示该逻辑函数的斜率参数。
(2)为了建立稳定的D2D连接,社交强度需要同时考虑IDs间的兴趣相似度、接触强度和社交强度。
ID u对内容c的偏好表示为qu,c,|qu,c-qv,c|≤Δ认为ID u和v对内容c有相同的偏好,其中Δ取较小正数。引入二进制变量φu,v,c表示ID u和v的对内容c的兴趣相似度:
Figure BDA0003298758600000025
则ID u和v的兴趣相似度表示为:
Figure BDA0003298758600000031
IDs之间接触历史强度也是衡量社交强度的重要因素。t时刻IDs的接触强度表示为
Figure BDA0003298758600000032
ρ和z是控制参数,因此,在时刻tnow,ID u和v之间的归一化接触强度表示为:
Figure BDA0003298758600000033
其中,ku,v,表示ID u和v的接触次数,
Figure BDA0003298758600000034
表示ID u和v的接触时间。此外,ξu,v∈[0,1]表示ID u和v的社交关系,综上ID u与v社交强度为:
Eu,v=φu,vι1+Iu,vι2u,vι3
其中ι1,ι2,ι3∈[0,1],ι123=1是可调的超参数,表示ID u和v社交强度权重。
进一步,在步骤S2中,IDs的DNN训练模型是由输入层、隐藏层、输出层组成,IDs中大量的历史请求数据记录作为训练样本,表示为
Figure BDA0003298758600000035
其中xc=[xc,1,xc,2,...,xc,N]T,表示内容c的N维特征;
Figure BDA0003298758600000036
表示ID u第t轮通信对内容c的评分(偏好程度)。采用Sigmoid函数作为隐藏层的激活函数,即
Figure BDA0003298758600000037
其中
Figure BDA0003298758600000038
k表示DNN模型的第k层;DNN模型的期望输出是ID u对内容c的偏好预测值,即
Figure BDA0003298758600000039
在IDs本地训练过程,第t轮全局聚合中的第ι轮局部训练,DNN模型参数更新表示为:
Figure BDA00032987586000000310
其中η表示学习率,
Figure BDA00032987586000000311
分别表示局部模型参数梯度的指数移动均值和平方:
Figure BDA00032987586000000312
Figure BDA00032987586000000313
其中,b1,b2∈[0,1)表示当前时刻的指数衰减估计值,
Figure BDA00032987586000000314
Figure BDA00032987586000000315
偏置校正估计。
则模型交叉熵损失函数表示为:
Figure BDA00032987586000000316
DNN模型训练的目标是最小化损失函数,即
Figure BDA00032987586000000317
基于训练好的DNN模型,通过KNN检索的方法,将邻居IDs推荐的内容作为目标ID的DNN模型的输入,在缓存容量限制的条件下主动缓存内容偏好大的内容。
进一步,在步骤S3中,IDs上传
Figure BDA00032987586000000318
的同时上传
Figure BDA00032987586000000319
表示ID u在时间段[t-T0+1,t]对内容的请求次数,在FN端ID u的活跃级别表示为:
Figure BDA0003298758600000041
FN端进行模型聚合,表示为:
Figure BDA0003298758600000042
当FL训练达到全局精度,FN根据聚合的全局模型预测内容流行度,并在缓存容量的限制下缓存流行度较高的内容。
进一步,在步骤S4中,更新ID u的推荐列表与当前的缓存状态以及候选推荐列表有关,提出基于模拟退火算法(SA)的个性化用户推荐算法可避免局部最优,达到全局最优,其中SA中的状态转换概率由Metropolis算法表示,通过反复执行Metropolis算法求得组合优化问题的最优解。基于Metropolis准则,ID u推荐列表Ru更新为Ru′的状态转换概率表示为:
Figure BDA0003298758600000043
其中Bc是常数,ΔTu表示Ru与Ru′两种组合的推荐内容获取总时延差,表示为:
ΔTu=Tu(Ru′)-Tu(Ru)(ΔTu>0)
Figure BDA0003298758600000044
表示ID u当前推荐内容获取最小总时延,表示为:
Figure BDA0003298758600000045
随着迭代次数的增加,
Figure BDA0003298758600000046
下降,当Tu(Ru′)>Tu(Ru),ΔTu越大,hu(Ru,Ru′)越小,即更新推荐列表的概率越小,则达到足够大的迭代次数时,可认为此时更新推荐列表的概率几乎为零,获得最优推荐列表。
推荐列表更新步骤如下:
步骤1:根据ID u的估计偏好与用户实时请求规律确定推荐列表候选项Mu,并设置最大的迭代次数Tmax,其中
Figure BDA0003298758600000047
步骤2:当迭代次数t<Tmax时,随意挑选内容i′∈Mu\Ru,将推荐列表Ru中逐一内容替换,则Ru′=Ru\{i}∪{i′};
步骤3:以hu(Ru,Ru′)的概率将推荐列表更新为Ru′;
步骤4:更新
Figure BDA0003298758600000048
Ru=Ru′,重复步骤2。
本发明的有益效果在于:本发明面对缓存资源的限制,FN端与ID端可以分别依据内容流行度与ID对内容的偏好缓存内容,同时,为提高ID对低时延内容的请求概率,设计了一种基于IDs的个性化内容推荐方案,根据用户的实时行为推荐有吸引力的内容,提高用户的满意度,降低内容获取时延,提高缓存命中率。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为雾计算网络中基于FL的内容缓存模型。
图2为基于FL的协作内容缓存和推荐算法流程图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
图1网络拓扑图是由云-雾-IoT组成的三层网络。FN配备了一定的缓存资源,并通过移动网络运营(Mobile Network Operator,MNO)中心连接到云端。IDs配备有支持智能无线通信场景中离线学习的AI芯片组,并具有一定的计算资源和缓存资源。FN集合表示为M={1,2,...,m,...,M},缓存空间表示为
Figure BDA0003298758600000051
IDs集合表示为U={1,2,...,m...,U},缓存空间表示为
Figure BDA0003298758600000052
其中
Figure BDA0003298758600000053
云端提供的内容表示为C={1,2,...,c,...,C},内容c大小表示为sc。实际场景中,不同类型的内容大小不同,且对应不同的QoS需求。IDs首先在本地进行内容的获取,获取内容失败后通过D2D链接在邻居IDs处获取信息,或向FN和云端获取信息。
1.缓存模型
FN根据缓存容量,将定期预测内容流行度以更新主动缓存方案。内容流行度取决于IDs的个人偏好和活跃程度,表示为p={p1,p2,...,pc,...,pc},
Figure BDA0003298758600000061
其中,pc表示FN覆盖范围内IDs请求内容c的概率。ID u对内容c的偏好表示为qu,c∈[0,1],且满足
Figure BDA0003298758600000062
考虑到活跃级别高的IDs请求内容的频率更高,IDs的活跃级别表示为α={α1,α2,...,αu,...,αu}其中αu∈[0,1],表示ID u请求内容的概率,满足
Figure BDA0003298758600000063
在实际场景中,随着IDs不断发起内容请求,内容流行度会动态变化,缓存内容也将定期更新。由于FN缓存空间有限,优先缓存内容流行度高的内容。FN端缓存决策表示为ψm,c∈{0,1},表示FN m是否缓存内容c。当ID u向FN m请求内容c时,且ψm,c=1,则FN m缓存命中;当ψm,c=0,FN m将比较内容c和其它缓存内容的流行度,考虑是否将内容c缓存,以便IDs下次获取内容。
2.推荐模型
2.1推荐模型
基于传统的内容协同过滤推荐算法(CF),给IDs推荐低时延且有吸引力的内容,IDu推荐内容与本身的内容偏好、获取内容的时延和实时行为有关。通常情况下,用ID u与内容c间的余弦相似度表示ID u对内容c的估计偏好程度,与内容特征向量和用户特征向量有关,表示为:
Figure BDA0003298758600000064
内容通过N维特征表示,su,c越大说明ID u对内容c的偏好程度越大,请求概率越大,eu,n∈[0,1],n∈{1,2,...,N}为用户特征向量,表示ID u对特征n的偏好程度;hc,n∈[0,1],n∈{1,2,...,N}为内容特征向量,表示内容c与特征n的相关程度。
Figure BDA0003298758600000065
表示ID u对内容c的归一化偏好程度。引入用户的忍耐阈值ku,当pu,c>ku时成为推荐候选项,由此可得初始候选推荐列表,再根据ID u实时行为得到更新的候选推荐列表Mu。由于移动设备的屏幕大小有限,推荐的内容都是在当前缓存状态下最小化时延的内容组合,从而得到ID u的最终推荐列表Ru
2.2内容请求模型
基于推荐模型向IDs推荐内容,一般情况下会增加IDs对推荐内容的请求概率,IDu对推荐内容c的请求概率受到内容偏好和推荐列表顺序的影响。利用Zipf分布描述推荐列表顺序对ID u请求内容c的影响,表示为:
Figure BDA0003298758600000071
其中βu是第u个用户的分配系数,R是推荐列表的内容个数,Zu,c和Luci都是二元变量。Zu,c=1表示内容c在ID u的推荐列表中,而Luci=1则表示内容c在ID u推荐列表中的第i位,所有元素Zu,c构成推荐策略矩阵ZU×C
推荐列表中内容偏好对ID u请求内容c的影响表示为:
Figure BDA0003298758600000072
则ID u对推荐列表中内容c的请求概率表示为:
prec(u,c)=pListRec(u,c)·pPrefRec(u,c)
用户可接受或拒绝推荐内容,用γu表示接受推荐列表概率,γu与ID u接受推荐的历史概率pArec(u)、成功请求推荐内容pRrec(u)概率和推荐内容偏好偏差有关。其中,ID u推荐内容偏好的偏差又称为偏好失真Du
Figure BDA0003298758600000073
Figure BDA0003298758600000074
Figure BDA0003298758600000075
其中ωuci∈{0,1},ωuci=1表示第c个内容是ID u初始偏好列表中第i个内容项,按降序排列。则:
γu=f1pArec(u,c)+f2pRrec(u,c)+f3(1-Du)
其中f1,f2,f3∈[0,1],f1+f2+f3=1是可调的超参数,表示γu相关参数的强度权重。则用户u对内容f的请求概率为:
preq(u,c)=γu·prec(u,c)+(1-γu)pu,c
3.通信模型
内容的缓存放置决策表示为ψc={Ψu,c,Ψm,c,Ψcloud,c}。其中,Ψu,c,Ψm,c,Ψcloud,c∈{0,1},分别表示内容c缓存在ID端、FN端或云端,
Figure BDA0003298758600000081
是IDu的最大缓存容量,同样
Figure BDA0003298758600000082
是FNm的最大缓存容量;内容c的缓存交付决策表示为Θc={θu,0,c,θu,v,c,θn,m,c,θu,cloud,c}。其中θu,0,c,θu,v,c,θu,m,c,θu,cloud,c∈{0,1},分别表示ID u从本地、D2D链路、FNm或云端获取内容c。内容交付的前提是设备已经缓存了对应内容,且满足θu,0,cu,v,cu,m,cu,cloud,c=1。
用户先考虑本地是否缓存请求内容,ID u在本地获取内容的时延忽略不计;当θu,0,c=0时,ID u考虑从ID v获取内容c的时延,表示为:
Figure BDA0003298758600000083
Figure BDA0003298758600000084
ou,v表示ID u和v的连接参数,Γ1为社交强度门限,Γ2,Γ3为物理链路质量门限。
当θu,0,c=0,θu,v,c=0时,ID u考虑从FN m获取内容c的传输速率和时延分别表示为:
Figure BDA0003298758600000085
Figure BDA0003298758600000086
其中,Bu,m,表示FN m分配给ID u的传输带宽,Pm表示FN m的传输功率,Hu,v表示FNm和ID u之间的信道增益。
当θu,0,c=0,θu,v,c=0,θu,m,c=0时,ID u只能从云端获取请求内容,这里假定所有IDs从云端获取内容的时间相等,且Tcloud>>Tu,v,c,Tu,m,c
4建立优化缓存方案:
Figure BDA0003298758600000087
S.t.C1:Eu,v≥Γ1
C2:pr(Tcom>Tu,v,c)≥Γ2
C3:PrQos≥Γ3
C4:
Figure BDA0003298758600000088
C5:
Figure BDA0003298758600000089
C6:ou,v∈{0,1}
C7:
Figure BDA0003298758600000091
C8:Ψu,c,Ψm,c,Ψcloud,c∈{0,1}
C9:θu,0,c,θu,v,c,θu,m,c,θu,cloud,c∈{0,1}
C10:θu,0,cu,v,cu,m,cu,cloud,c=1
其中Ψ表示缓存放置决策,Θ表示缓存交付决策。限制条件C1,C2,C3表示D2D协作模型中要建立稳定链接需要满足的约束条件,限制条件C4,C5分别表示ID端与FN端的缓存容量约束,限制条件C6,C7表示D2D连接约束,即IDs通过D2D连接最多从一个关联ID获取内容。限制条件C8,C9,C10表示缓存放置和交付决策约束,即内容不可分割,且只能通过自身缓存、D2D用户缓存、FN缓存或云端的一种路径获取内容。
为减小IDs获取信息的时延,并且避免大量信息上传带来的信息泄露与安全风险,引入FL分布式框架在服务器端学习全局参数,IDs与服务器共享本地训练的局部模型参数,而无需上传本地数据。
图2为雾计算网络中基于联邦学习的内容缓存和推荐方案,具体步骤如下:
步骤201:算法初始化。
步骤202:FN设置信息监测周期,在离散的时间段内监测其覆盖范围内的IDs集合,IDs从FN处下载全局模型和用户个性化推荐列表。
步骤203:IDs进行内容请求,其IDs请求模型随推荐列表的更新而更新。
步骤204:建立IDs的D2D链接,当ou,v=1,建立ID u与v连接,如同时有多个ID中具有所需内容,则向距离较近的ID获取内容。
步骤205:根据IDs的历史请求信息,通过离线用户偏好学习算法得到局部模型参数w。
步骤206:基于KNN检索得到邻居用户,邻居用户进行缓存内容推荐。
步骤207:将邻居用户推荐的内容作为目标ID的输入,ID端根据内容评分缓存内容。
步骤208:在ID本地达到局部精度,则停止局部模型训练,否则重复步骤203~步骤207。
步骤209:基于k均值的梯度压缩算法将ID端聚类量化后的重要梯度上传到FN,并上传IDs的内容请求数和特征偏好。
步骤210:FN端计算上传的IDs活跃度。
步骤211:FN聚合上传的IDs的局部模型参数。
步骤212:在线流行度预测算法,FN端根据内容流行度缓存内容。
步骤213:基于用户的特征偏好与内容的特征偏好,根据实时请求行为,FN端为IDs建立个性化的推荐列表。
步骤214:FN端达到全局精度,此时为最终缓存决策,若未达到全局精度则重复步骤202~213。
步骤215:算法结束,输出优化结果。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (6)

1.一种雾计算网络中基于联邦学习的内容缓存和推荐方法,其特征在于:该方法包括以下步骤:
S1:基于IDs的D2D协作模型;
S2:基于深度神经网络的本地内容缓存模型;
S3:基于联邦学习的主动缓存算法;
S4:基于IDs的个性化内容推荐算法。
2.根据权利要求1所述的一种雾计算网络中基于联邦学习的内容缓存和推荐方法,其特征在于:在所述S1中,根据IDs之间的物理链路质量和社交强度,建立稳定的D2D连接;在社交强度中考虑IDs之间的兴趣相似度,接触强度和社会信任度,在物理链路质量中考虑D2D接触时间和IDs的服务质量QoS需求;当社交强度大于社交强度门限,物理链路质量大于物理链路质量门限,建立D2D连接并共享内容。
3.根据权利要求2所述的一种雾计算网络中基于联邦学习的内容缓存和推荐方法,其特征在于:在所述S2中,在ID端建立深度神经网络DNN模型,利用历史数据和内容N维特征xc∈[0,1],训练本地模型参数W同时得到内容偏好,并基于KNN邻近算法找到目标ID的M个邻居IDs进行缓存内容推荐,考虑IDs的职业与年龄,将其推荐的内容作为目标ID的DNN输入,根据目标ID的内容评分进行ID端内容缓存。
4.根据权利要求3所述的一种雾计算网络中基于联邦学习的内容缓存和推荐方法,其特征在于:在所述S3中,联邦学习FL是一个分布式框架,在用户本地更新模型参数并在服务器端进行全局模型聚合,无需上传本地数据,避免用户隐私泄露,同时降低通信带宽需求;在FN端聚合IDs上传的模型参数,并基于用户的活跃度,聚合全局模型,基于在线流行度预测算法缓存最受欢迎的内容;为进一步降低通信开销,提出基于K均值的压缩算法,对上传的模型参数进行压缩。
5.根据权利要求4所述的一种雾计算网络中基于联邦学习的内容缓存和推荐方法,其特征在于:在所述S3中,K均值的梯度压缩算法由两个步骤组成:首先将上传的模型梯度根据梯度值大小划分,当梯度值大于0为重要梯度,当梯度值略等于0,则为次要梯度;其次,将重要梯度进行聚类,利用同一梯度集合中的平均值得到第j个簇的质心值,来近似其梯度,且ID只上传质心值,以减少通信流量。
6.根据权利要求5所述的一种雾计算网络中基于联邦学习的内容缓存和推荐方法,其特征在于:在所述S4中,在FN端,引入ID的忍耐阈值,当ID对内容的偏好大于忍耐阈值时,成为推荐列表的候选项,再考虑ID在t时隙内的请求内容差异度Δ,即各请求内容偏好的方差,假如Δ大于限定值时,表示用户更愿意请求不相似的内容,候选列表将去掉与t时隙请求内容相似的内容;假如Δ小于一个限定值时,候选列表将去掉初级候选项中与t时隙请求内容不相似的内容,再基于最优推荐算法获得个性化推荐列表;同时在ID端,ID接受推荐列表的概率由先前接受推荐的概率、成功请求推荐内容的概率和推荐用户偏好的偏差确定。
CN202111184953.4A 2021-10-12 2021-10-12 一种雾计算网络中基于联邦学习的内容缓存和推荐方法 Pending CN113918829A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111184953.4A CN113918829A (zh) 2021-10-12 2021-10-12 一种雾计算网络中基于联邦学习的内容缓存和推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111184953.4A CN113918829A (zh) 2021-10-12 2021-10-12 一种雾计算网络中基于联邦学习的内容缓存和推荐方法

Publications (1)

Publication Number Publication Date
CN113918829A true CN113918829A (zh) 2022-01-11

Family

ID=79239281

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111184953.4A Pending CN113918829A (zh) 2021-10-12 2021-10-12 一种雾计算网络中基于联邦学习的内容缓存和推荐方法

Country Status (1)

Country Link
CN (1) CN113918829A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115510297A (zh) * 2022-09-26 2022-12-23 深圳致星科技有限公司 隐私计算、隐私数据和联邦学习的数据管理方法
CN116155991A (zh) * 2023-01-30 2023-05-23 杭州滨电信息技术有限公司 一种基于深度强化学习的边缘内容缓存与推荐方法及系统
CN117808129A (zh) * 2024-02-29 2024-04-02 浪潮电子信息产业股份有限公司 一种异构分布式学习方法、装置、设备、系统及介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115510297A (zh) * 2022-09-26 2022-12-23 深圳致星科技有限公司 隐私计算、隐私数据和联邦学习的数据管理方法
CN115510297B (zh) * 2022-09-26 2023-05-16 深圳致星科技有限公司 隐私计算、隐私数据和联邦学习的数据管理方法
CN116155991A (zh) * 2023-01-30 2023-05-23 杭州滨电信息技术有限公司 一种基于深度强化学习的边缘内容缓存与推荐方法及系统
CN116155991B (zh) * 2023-01-30 2023-10-10 杭州滨电信息技术有限公司 一种基于深度强化学习的边缘内容缓存与推荐方法及系统
CN117808129A (zh) * 2024-02-29 2024-04-02 浪潮电子信息产业股份有限公司 一种异构分布式学习方法、装置、设备、系统及介质
CN117808129B (zh) * 2024-02-29 2024-05-24 浪潮电子信息产业股份有限公司 一种异构分布式学习方法、装置、设备、系统及介质

Similar Documents

Publication Publication Date Title
Zhong et al. Deep reinforcement learning-based edge caching in wireless networks
Zhong et al. A deep reinforcement learning-based framework for content caching
CN113918829A (zh) 一种雾计算网络中基于联邦学习的内容缓存和推荐方法
WO2023168824A1 (zh) 一种基于联邦学习的移动边缘缓存优化方法
WO2021253835A1 (zh) 一种基于用户偏好预测的异构网络缓存决策方法
CN110113190A (zh) 一种移动边缘计算场景中卸载时延优化方法
CN114143891A (zh) 移动边缘网络中基于fdql的多维资源协同优化方法
CN111865826A (zh) 一种基于联邦学习的主动内容缓存方法
CN107708152B (zh) 异构蜂窝网络的任务卸载方法
CN114553963B (zh) 移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法
CN114390057B (zh) Mec环境下基于强化学习的多接口自适应数据卸载方法
CN111491331B (zh) 一种雾计算网络中基于迁移学习的网络感知自适应缓存方法
CN115293358A (zh) 一种面向物联网的分簇联邦多任务学习方法及装置
Majidi et al. Hfdrl: An intelligent dynamic cooperate cashing method based on hierarchical federated deep reinforcement learning in edge-enabled iot
Zhao et al. Mobility-aware and interest-predicted caching strategy based on IoT data freshness in D2D networks
CN116233926A (zh) 一种基于移动边缘计算的任务卸载及服务缓存联合优化方法
Jiang et al. Federated learning-based content popularity prediction in fog radio access networks
CN116321307A (zh) 一种无蜂窝网络中基于深度强化学习的双向缓存放置方法
CN114374949A (zh) 一种车联网中基于信息新鲜度优化的功率控制机制
CN117459112A (zh) 基于图卷积网络的leo卫星网络中的移动边缘缓存方法及设备
CN116828052A (zh) 一种基于边缘计算的数据智能协同缓存方法
CN116155991A (zh) 一种基于深度强化学习的边缘内容缓存与推荐方法及系统
CN111901394B (zh) 一种联合考虑用户偏好及活跃程度的移动边缘缓存的方法及系统
CN115904731A (zh) 一种边缘协作式副本放置方法
Zhao et al. Adaptive content placement in edge networks based on hybrid user preference learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination