CN115696296B - 一种基于社区发现和加权联邦学习的主动边缘缓存方法 - Google Patents
一种基于社区发现和加权联邦学习的主动边缘缓存方法 Download PDFInfo
- Publication number
- CN115696296B CN115696296B CN202211310238.5A CN202211310238A CN115696296B CN 115696296 B CN115696296 B CN 115696296B CN 202211310238 A CN202211310238 A CN 202211310238A CN 115696296 B CN115696296 B CN 115696296B
- Authority
- CN
- China
- Prior art keywords
- user
- content
- different
- users
- weighted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000013135 deep learning Methods 0.000 claims abstract description 50
- 230000005540 biological transmission Effects 0.000 claims abstract description 22
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 18
- 238000009826 distribution Methods 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims description 27
- 238000004891 communication Methods 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000004220 aggregation Methods 0.000 claims description 15
- 230000002776 aggregation Effects 0.000 claims description 15
- 238000003860 storage Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 230000003139 buffering effect Effects 0.000 claims description 8
- 230000015654 memory Effects 0.000 claims description 8
- 230000002457 bidirectional effect Effects 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 4
- 238000012163 sequencing technique Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 claims description 2
- 230000006403 short-term memory Effects 0.000 claims description 2
- 230000007787 long-term memory Effects 0.000 claims 1
- 238000000638 solvent extraction Methods 0.000 claims 1
- 238000004458 analytical method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 238000010977 unit operation Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 206010044565 Tremor Diseases 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/12—Discovery or management of network topologies
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0893—Assignment of logical groups to network elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/147—Network analysis or design for predicting network behaviour
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/22—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks comprising specially adapted graphical user interfaces [GUI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/16—Threshold monitoring
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W76/00—Connection management
- H04W76/10—Connection setup
- H04W76/14—Direct-mode setup
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/08—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
- H04L43/0852—Delays
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Information Transfer Between Computers (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明涉及一种基于社区发现和加权联邦学习的主动边缘缓存方法,用于选择最佳的缓存用户,制定最优的缓存策略。首先提出一种基于社区发现的用户分组方法,根据用户移动性和社交属性将用户分成不同用户组,随后在每个用户组内计算不同用户的重要程度并选择重要度最高的用户作为缓存节点提供内容分发服务。在此基础上,提出一种基于注意力加权联邦学习的内容流行度预测框架,将注意力加权联邦学习机制与深度学习算法相结合来预测用户未来对不同内容的偏好程度,提高内容流行度预测精度的同时解决了用户隐私泄露的问题。最后,根据预测结果在被选择的缓存用户上缓存热点内容,以实现降低网络传输时延的同时减少网络运营成本的目标。
Description
技术领域
本发明属于无线通信和人工智能技术领域,具体涉及一种基于社区发现和加权联邦学习的主动边缘缓存方法,可用于D2D辅助无线通信网络中缓存资源的智能管理与规划。
背景技术
随着无线移动通信以及物联网技术的普及与发展,无线数据流量呈现爆炸式增长。然而,由于无线通信资源有限,如此急剧增长的数据流量将使得移动通信网络拥塞,进而导致用户请求内容的传输时延增加。亟需引入先进的网络传输技术,以保障各种新型业务的低时延需求。边缘缓存作为一种新兴网络技术,可将用户感兴趣的热点内容提前存储在网络边缘,从而减少通信链路的负载压力,大大降低内容的传输时延。
根据缓存位置的不同,现有的边缘缓存方案可分为:基站缓存和用户缓存。相较于基站缓存来说,用户缓存可将热点内容存储在距离用户更近的终端,并通过设备与设备(Device-to-Device,D2D)之间的直连通信进行内容传输,从而进一步降低内容的传输时延。因此,用户缓存被工业界与学术界认为是保障业务低时延需求的重要技术手段之一。
但是,对于用户缓存来说,租用所有的用户终端作为缓存节点降低内容传输时延的同时却带来高额的运营成本。如何最优化选择用户终端作为缓存节点实现运营成本和内容传输时延之间的折中成为设计用户缓存策略有待解决的关键问题之一。
此外,由于所选用户终端的存储能力通常是有限的,在终端上缓存所有的内容是不可行的。需预测未来用户对不同内容的喜好程度以设计相应的缓存策略。然而,目前基于集中学习的内容流行度预测方法需将用户个人数据发送至中心服务器进行模型训练,带来了严重的用户隐私泄露问题。如此一来,如何在所选用户终端上放置热点内容的同时保障用户隐私安全成为另一个亟待解决的关键问题。
发明内容
针对现有技术的不足,本发明提出了一种基于社区发现和加权联邦学习的主动边缘缓存方法,用于选择最佳的缓存用户并制定最优的用户缓存策略,以实现运营成本和内容传输时延之间的最优化折中。
本发明首先提出一种基于社区发现的用户分组方法,根据用户的移动性和社交属性将用户分成不同的用户组,随后,在每个用户组内计算不同用户的重要程度并选择重要度最高的用户作为缓存节点来提供内容分发服务。在此基础上,本发明提出一种基于注意力加权联邦学习的内容流行度预测框架,将注意力加权联邦学习机制与深度学习(DeepLearning,DL)模型相结合预测未来用户对不同内容的偏好程度;该框架在提高内容流行度预测精度的同时解决了用户隐私泄露的问题。最后,在缓存用户选择与内容流行度预测的基础上制定最优缓存策略,以降低网络传输时延的同时减少网络运营成本。
发明概述:
本发明提出一种基于社区发现和加权联邦学习的主动边缘缓存方法。在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组,并在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务;考虑到不同用户的活跃程度以及终端计算能力的异构性,设计基于注意力加权联邦学习的内容流行度预测框架来训练DL模型,随后利用训练好的DL模型预测下一时刻用户的内容偏好以缓存热点内容在被选择用户上。本发明将最热点内容缓存到最优的被选用户上,可大大降低网络传输时延的同时减少网络运营成本。
本发明的技术方案为:
一种基于社区发现和加权联邦学习的主动边缘缓存方法,包括:
在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组;
在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务;
基于注意力加权联邦学习的内容流行度预测框架来训练DL模型,随后利用训练好的DL模型预测下一时刻用户的内容偏好以缓存热点内容在被选择用户上。
根据本发明优选的,在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组,包括:
(1)获得不同用户之间的物理距离,同时获取不同用户之间的社交关系;根据不同用户之间的物理距离与社交关系,构建D2D内容分享图其中,/>为用户节点,ε表示用户与用户之间是否建立D2D通信链路进行内容传输,当ε=1时表示建立D2D通信链路;即:当基站内用户u与用户v之间的物理距离小于通信距离阈值,且两用户间存在社交关系时,用户u与用户v建立D2D通信链路进行内容传输,此时εu,v=1;否则,εu,v=0;
根据本发明优选的,利用Louvain社区发现算法将用户分成不同的用户组,包括:
B、依次把每个节点分配到其邻居节点所在社区,并计算分配前、后的模块度变化ΔQ,并记录ΔQ最大的那个邻居节点maxΔQ,如果maxΔQ>0,则把该节点分配ΔQ最大的那个邻居节点所在的社区,否则保持不变;ΔQ的计算公式如式(I)所示:
式(I)中,m=∑εu,v是D2D内容分享图中所有边权重之和;Au,v=∑εu,v,是社区/>内所有节点之间边权重之和;/>表示社区/>与其他社区之间连接边的权重之和;/>是节点u移入到社区/>中后所有节点之间边权重之和;a(u)是与节点u连接的所有边的权重之和;
C、重复步骤B,直到所有节点的所属社区不再变化;
D、将在同一个社区的节点压缩成一个新节点,社区内节点之间边权重转化为新节点的边权重,社区间的边权重转化为新节点间的边权重;
根据本发明优选的,在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务,包括:
(3)在每个用户组中,首先,计算每个用户的中心度Bu,Bu的计算公式如式(II)所示:
式(II)中,Gi,j表示D2D内容分享图中所有用户间最短路径的链接数目,gi,j(u)是Gi,j中经过用户u的链接数目;
然后,根据不同用户设备的存储能力得到不同用户的缓存能力Su;
最后,根据中心度Bu和缓存能力Su计算不同用户组内不同用户的重要程度Vu=γ×Bu+(1-γ)×Su,其中,γ是分配给中心度Bu和缓存能力Su的权值,取值在0到1之间;
(4)在不同用户组中,根据不同用户的重要程度Vu对用户进行排序,并挑选重要程度最高的用户作为每个用户组中的用户缓存节点;
(5)在选择缓存节点后,根据用户组中不同内容的流行度来选择热点内容在被选用户上缓存。
根据本发明优选的,采用注意力加权联邦学习框架来训练内容流行度深度学习预测模型即DL模型,包括:
(6)选择用户终端参与内容流行度深度学习预测模型的训练过程,利用本地记录的用户历史内容请求数据来训练内容流行度深度学习预测模型;当内容流行度深度学习预测模型在不同用户终端训练完后,将被传输至基站进行模型聚合;
(7)在模型聚合过程中,基站根据用户的活跃度及终端计算能力,给不同用户终端的内容流行度深度学习预测模型即本地模型赋予不同的权重,权重的计算公式如式(III)、式(IV)所示:
式(III)、式(IV)中,表示被选用户终端u在第r+1次联邦训练过程中的活跃度,/>为被选终端u在时间窗[r-ρ;r]之间对不同内容请求数量;/>表示表示被选用户终端u在第r+1次联邦训练过程中的计算能力,/>表示所选终端u计算能力在第r+1次联邦过程中可以执行的本地训练次数,log()为对数计算,max{e}是本地训练最大次数的最大值;
权重计算完成后,对不同本地模型进行加权聚合,得到全局的内容流行度深度学习预测模型,加权聚合的公式如式(V)、式(VI)所示:
式(V)、式(VI)中,和/>是基站聚合后内容流行度深度学习预测模型的权重和偏置参数;/>和/>为被选用户终端u在本地训练后获得的本地模型权重和偏置参数;/>和/>为公式(III)、式(IV)计算得到的用户终端u训练的本地模型的权重。
根据本发明优选的,步骤(4)中选择的缓存用户使用得到的内容流行度深度学习预测模型预测下一时刻用户对不同内容的偏好来缓存热点内容,包括:
(8)在不同用户组内,步骤(4)中选择的缓存用户将本地记录的前ρ个时间窗内对不同内容的请求数据输入到训练好的内容流行度深度学习预测模型中,输出下一时刻用户对不同内容的偏好/>随后根据预测结果计算不同内容在被选缓存用户中的缓存概率,计算过程如式(VII)所示:
(9)利用排序算法对缓存概率进行排序,并选择概率最高的前S个内容在被选用户终端进行缓存。
根据本发明优选的,内容流行度深度学习预测模型为双向长短时记忆网络模型。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现基于社区发现和加权联邦学习的主动边缘缓存方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现基于社区发现和加权联邦学习的主动边缘缓存方法的步骤。
本发明的有益效果为:
本发明通过选择最优的缓存用户与制定最佳的用户缓存策略,可大大降低网络传输时延,减少网络的运营成本,同时采用加权联邦学习架构进行内容流行度预测,有效解决了用户隐私泄露的问题。本发明可应用于蜂窝网、车联网、工业互联网等通信场景中对存储资源进行智能管理与规划,以满足不同垂直领域中各种新型业务应用的低时延通信需求。
附图说明
图1是本发明主动边缘缓存方法的运行系统的框图;
图2是本发明构建D2D内容分享图的流程示意图;
图3是本发明利用Louvain社区发现算法对用户分组的流程示意图;
图4是本发明基于加权联邦学习框架训练内容流行度预测模型的示意图;
图5是本发明在基站端对不同本地模型进行加权聚合的流程示意图;
图6是本发明采用的基于BiLSTM的内容流行度深度学习预测模型框图;
图7是本发明基于加权联邦学习框架的内容流行度深度学习预测模型的性能分析图;
图8(a)是本发明所提基于社区发现和加权联邦学习的主动边缘缓存方法在不同缓存能力下时延性能分析图;
图8(b)是本发明所提基于社区发现和加权联邦学习的主动边缘缓存方法在不同缓存能力下单位运营成本系统增益分析图。
具体实施方式
下面结合说明书附图和实施例对本发明作进一步限定,但不限于此。
实施例1
一种基于社区发现和加权联邦学习的主动边缘缓存方法,包括:
在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组;
在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务;
基于注意力加权联邦学习的内容流行度预测框架来训练DL模型,随后利用训练好的DL模型预测下一时刻用户的内容偏好以缓存热点内容在被选择用户上。
实施例2
根据实施例1所述的一种基于社区发现和加权联邦学习的主动边缘缓存方法,其区别在于:
如图1所示,主动边缘缓存方法的运行系统包括一个基站、U个用户,其中,每个用户都具有一定的内容存储能力且每个用户根据个人喜好从内容库中请求内容。为了避免重复的内容下载请求造成的网络阻塞,降低内容下载时延,运营商将租用部分用户终端作为缓存节点提供缓存服务。为了选择最佳的缓存用户,放置最优的热点内容,本发明提出主动边缘缓存方法,以降低网络传输时延的同时减少网络运营成本。
在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组,包括:
(1)利用GPS等手段获得不同用户之间的物理距离,同时从微博、微信、抖音等社交平台获取不同用户之间的社交关系;根据不同用户之间的物理距离与社交关系,构建D2D内容分享图其中,/>为用户节点,ε表示用户与用户之间是否建立D2D通信链路进行内容传输,当ε=1时表示建立D2D通信链路;具体构建流程如图2所示,即:当基站内用户u与用户v之间的物理距离小于通信距离阈值,该通信距离阈值通常由用户终端发射功率决定,发射功率越大通信传输距离越大,且两用户间存在社交关系时,存在社交关系即两用户经常联系或在同一社交圈内,用户u与用户v建立D2D通信链路进行内容传输,此时εu,v=1;否则,εu,v=0;
(2)基于构建的D2D内容分享图利用Louvain社区发现算法将用户分成不同的用户组/>本发明用于用户分组的方法不局限于Louvain算法还可以是Kernighan-Lin、Newman and Girvan等图分割算法用于用户分组。
利用Louvain社区发现算法将用户分成不同的用户组,如图3所示,包括:
B、依次把每个节点分配到其邻居节点所在社区,并计算分配前、后的模块度变化ΔQ,并记录ΔQ最大的那个邻居节点maxΔQ,如果maxΔQ>0,则把该节点分配ΔQ最大的那个邻居节点所在的社区,否则保持不变;ΔQ的计算公式如式(I)所示:
式(I)中,m=∑εu,v是D2D内容分享图中所有边权重之和;Au,v=∑εu,v;是社区/>内所有节点之间边权重之和;/>表示社区/>与其他社区之间连接边的权重之和;/>是节点u移入到社区/>中后所有节点之间边权重之和;a(u)是与节点u连接的所有边的权重之和;
C、重复步骤B,直到所有节点的所属社区不再变化;
D、将在同一个社区的节点压缩成一个新节点,社区内节点之间边权重转化为新节点的边权重,社区间的边权重转化为新节点间的边权重;
在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务,包括:
(3)在每个用户组中,首先,计算每个用户的中心度Bu,Bu的计算公式如式(II)所示:
式(II)中,Gi,j表示D2D内容分享图中所有用户间最短路径的链接数目,gi,j(u)是Gi,j中经过用户u的链接数目;
然后,根据不同用户设备的存储能力得到不同用户的缓存能力Su;缓存能力Su即用户手机等终端固有的存储空间大小;
最后,根据中心度Bu和缓存能力Su计算不同用户组内不同用户的重要程度Vu=γ×Bu+(1-γ)×Su,其中,γ是分配给中心度Bu和缓存能力Su的权值,取值在0到1之间;
(4)在不同用户组中,根据不同用户的重要程度Vu对用户进行排序,并挑选重要程度最高的用户作为每个用户组中的用户缓存节点;
(5)在选择缓存节点后,根据用户组中不同内容的流行度来选择热点内容在被选用户上缓存。
不同用户组中不同内容的流行度将通过深度学习模型进行预测,而本发明将采用注意力加权联邦学习框架来训练内容流行度深度学习预测模型即DL模型,包括:
(6)按一定比例选择用户终端参与内容流行度深度学习预测模型的训练过程,所选用户终端的多少由当前通信环境决定,当通信资源较空闲时,可选较多的用户终端参与联邦训练;用户终端被选择后,利用本地记录的用户历史内容请求数据来训练内容流行度深度学习预测模型;当内容流行度深度学习预测模型在不同用户终端训练完后,将被传输至基站进行模型聚合;整个过程如图4所示。
(7)在模型聚合过程中,基站根据用户的活跃度及终端计算能力,给不同用户终端的内容流行度深度学习预测模型即本地模型赋予不同的权重(如图5所示),权重的计算公式如式(III)、式(IV)所示:
式(III)、式(IV)中,表示被选用户终端u在第r+1次联邦训练过程中的活跃度,/>为被选终端u在时间窗[r-ρ;r]之间对不同内容请求数量;/>表示表示被选用户终端u在第r+1次联邦训练过程中的计算能力,/>表示所选终端u计算能力在第r+1次联邦过程中可以执行的本地训练次数,log()为对数计算,max{e}是本地训练最大次数的最大值;
权重计算完成后,对不同本地模型进行加权聚合,得到全局的内容流行度深度学习预测模型,加权聚合的公式如式(V)、式(VI)所示:
式(V)、式(VI)中,和/>是基站聚合后内容流行度深度学习预测模型的权重和偏置参数;/>和/>为被选用户终端u在本地训练后获得的本地模型权重和偏置参数;/>和/>为公式(III)、式(IV)计算得到的用户终端u训练的本地模型的权重。
当利用上述加权联邦框架训练好内容流行度深度学习预测模型后,步骤(4)中选择的缓存用户使用得到的内容流行度深度学习预测模型预测下一时刻用户对不同内容的偏好来缓存热点内容,包括:
(8)在不同用户组内,步骤(4)中选择的缓存用户将本地记录的前ρ个时间窗内对不同内容的请求数据输入到训练好的内容流行度深度学习预测模型中,输出下一时刻用户对不同内容的偏好/>随后根据预测结果计算不同内容在被选缓存用户中的缓存概率,计算过程如式(VII)所示:
(9)当计算出不同内容在被选缓存用户中的缓存概率后,利用排序算法对缓存概率进行排序,并选择概率最高的前S(S为被选缓存用户的可以存储的内容数目)个内容在被选用户终端进行缓存,以实现降低网络传输时延的同时减少网络运营成本的目的。
本发明所选用的内容流行度深度学习预测模型为双向长短时记忆网络模型(Bidirectional Long Short-term Memory,BiLSTM),模型结构如图6所示。预测模型不局限于使用双向长短时记忆网络,卷积神经网络、图神经网络等深度学习网络模型均可以。
图7是本实施例基于加权联邦学习框架的内容流行度深度学习预测模型的性能分析图;其中,横坐标为不同的请求内容的索引,轴坐标为用户对不同内容的请求次数。图7中AWFL为所提基于加权联邦学习框架的内容流行度模型的预测值,Groud True为真实值,可以看出本发明AWFL方法可以精准地预测用户未来对不同内容的请求。本实施例所提出的加权联邦学习与双向长短时记忆网络结合方法,可以很好的拟合用户对不同内容的喜好程度。
图8(a)是本实施例所提基于社区发现和加权联邦学习的主动边缘缓存方法在不同缓存能力下时延性能分析图;其中,横坐标表示不同用户终端可缓存内容数量,纵坐标为内容下载时延,其中CAFLPC为本发明所提基于社区发现和加权联邦学习的主动边缘缓存方法;图8(a)可以证明所提CAFLPC方法在不同缓存能力下相较于其他方法均可以很好地降低内容下载时延且接近最优策略性能。
图8(b)是本实施例所提基于社区发现和加权联邦学习的主动边缘缓存方法在不同缓存能力下单位运营成本系统增益分析图。其中,横坐标表示不同用户终端可缓存内容数量,纵坐标为单位运营成本系统增益;图8(b)可以证明所提CAFLPC方法相较于其他方法在单位成本下可以减少更多的内容下载时延,即所提方法可达到降低网络传输时延的同时减少网络运营成本的目的。
实施例3
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现基于社区发现和加权联邦学习的主动边缘缓存方法的步骤。
实施例4
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现基于社区发现和加权联邦学习的主动边缘缓存方法的步骤。
Claims (6)
1.一种基于社区发现和加权联邦学习的主动边缘缓存方法,其特征在于,包括:
在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组;
在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务;
基于注意力加权联邦学习的内容流行度预测框架来训练DL模型,随后利用训练好的DL模型预测下一时刻用户的内容偏好以缓存热点内容在被选择用户上;
在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组,包括:
(1)获得不同用户之间的物理距离,同时获取不同用户之间的社交关系;根据不同用户之间的物理距离与社交关系,构建D2D内容分享图其中,/>为用户节点,ε表示用户与用户之间是否建立D2D通信链路进行内容传输,当ε=1时表示建立D2D通信链路;即:当基站内用户u与用户v之间的物理距离小于通信距离阈值,且两用户间存在社交关系时,用户u与用户v建立D2D通信链路进行内容传输,此时εu,v=1;否则,εu,v=0;
在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务,包括:
(3)在每个用户组中,首先,计算每个用户的中心度Bu,Bu的计算公式如式(II)所示:
式(II)中,Gi,j表示D2D内容分享图中所有用户间最短路径的链接数目,gi,j(u)是Gi,j中经过用户u的链接数目;
然后,根据不同用户设备的存储能力得到不同用户的缓存能力Su;
最后,根据中心度Bu和缓存能力Su计算不同用户组内不同用户的重要程度Vu=γ×Bu+(1-γ)×Su,其中,γ是分配给中心度Bu和缓存能力Su的权值,取值在0到1之间;
(4)在不同用户组中,根据不同用户的重要程度Vu对用户进行排序,并挑选重要程度最高的用户作为每个用户组中的用户缓存节点;
(5)在选择缓存节点后,根据用户组中不同内容的流行度来选择热点内容在被选用户上缓存;
采用注意力加权联邦学习框架来训练内容流行度深度学习预测模型即DL模型,包括:
(6)选择用户终端参与内容流行度深度学习预测模型的训练过程,利用本地记录的用户历史内容请求数据来训练内容流行度深度学习预测模型;当内容流行度深度学习预测模型在不同用户终端训练完后,将被传输至基站进行模型聚合;
(7)在模型聚合过程中,基站根据用户的活跃度及终端计算能力,给不同用户终端的内容流行度深度学习预测模型即本地模型赋予不同的权重,权重的计算公式如式(III)、式(IV)所示:
式(III)、式(IV)中,表示被选用户终端u在第r+1次联邦训练过程中的活跃度,为被选终端u在时间窗[r-ρ;r]之间对不同内容请求数量;/>表示被选用户终端u在第r+1次联邦训练过程中的计算能力,/>表示所选终端u计算能力在第r+1次联邦过程中可以执行的本地训练次数,log()为对数计算,max{e}是本地训练最大次数的最大值;
权重计算完成后,对不同本地模型进行加权聚合,得到全局的内容流行度深度学习预测模型,加权聚合的公式如式(V)、式(VI)所示:
式(V)、式(VI)中,和/>是基站聚合后内容流行度深度学习预测模型的权重和偏置参数;/>和/>为被选用户终端u在本地训练后获得的本地模型权重和偏置参数;和/>为公式(III)、式(IV)计算得到的用户终端u训练的本地模型的权重;
步骤(4)中选择的缓存用户使用得到的内容流行度深度学习预测模型预测下一时刻用户对不同内容的偏好来缓存热点内容,包括:
(8)在不同用户组内,步骤(4)中选择的缓存用户将本地记录的前ρ个时间窗内对不同内容的请求数据输入到训练好的内容流行度深度学习预测模型中,输出下一时刻用户对不同内容的偏好/>随后根据预测结果计算不同内容在被选缓存用户中的缓存概率,计算过程如式(VII)所示:
(9)利用排序算法对缓存概率进行排序,并选择概率最高的前S个内容在被选用户终端进行缓存。
3.根据权利要求1所述的一种基于社区发现和加权联邦学习的主动边缘缓存方法,其特征在于,利用Louvain社区发现算法将用户分成不同的用户组,包括:
B、依次把每个节点分配到其邻居节点所在社区,并计算分配前、后的模块度变化ΔQ,并记录ΔQ最大的那个邻居节点maxΔQ,如果maxΔQ>0,则把该节点分配ΔQ最大的那个邻居节点所在的社区,否则保持不变;ΔQ的计算公式如式(I)所示:
式(I)中,m=∑εu,v是D2D内容分享图中所有边权重之和;是社区/>内所有节点之间边权重之和;/>表示社区/>与其他社区之间连接边的权重之和;/>是节点u移入到社区/>中后所有节点之间边权重之和;a(u)是与节点u连接的所有边的权重之和;
C、重复步骤B,直到所有节点的所属社区不再变化;
D、将在同一个社区的节点压缩成一个新节点,社区内节点之间边权重转化为新节点的边权重,社区间的边权重转化为新节点间的边权重;
4.根据权利要求1-3任一所述的一种基于社区发现和加权联邦学习的主动边缘缓存方法,其特征在于,内容流行度深度学习预测模型为双向长短时记忆网络模型。
5.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1-4任一所述基于社区发现和加权联邦学习的主动边缘缓存方法的步骤。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-4任一所述基于社区发现和加权联邦学习的主动边缘缓存方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211310238.5A CN115696296B (zh) | 2022-10-25 | 2022-10-25 | 一种基于社区发现和加权联邦学习的主动边缘缓存方法 |
US18/327,574 US11943114B1 (en) | 2022-10-25 | 2023-06-01 | Active edge caching method based on community discovery and weighted federated learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211310238.5A CN115696296B (zh) | 2022-10-25 | 2022-10-25 | 一种基于社区发现和加权联邦学习的主动边缘缓存方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115696296A CN115696296A (zh) | 2023-02-03 |
CN115696296B true CN115696296B (zh) | 2023-07-07 |
Family
ID=85099619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211310238.5A Active CN115696296B (zh) | 2022-10-25 | 2022-10-25 | 一种基于社区发现和加权联邦学习的主动边缘缓存方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11943114B1 (zh) |
CN (1) | CN115696296B (zh) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3022708B1 (en) * | 2013-07-19 | 2018-03-28 | Opanga Networks, Inc. | Content source discovery |
US10298713B2 (en) * | 2015-03-30 | 2019-05-21 | Huawei Technologies Co., Ltd. | Distributed content discovery for in-network caching |
CN111865826B (zh) * | 2020-07-02 | 2022-01-04 | 大连理工大学 | 一种基于联邦学习的主动内容缓存方法 |
US20210144202A1 (en) * | 2020-11-13 | 2021-05-13 | Christian Maciocco | Extended peer-to-peer (p2p) with edge networking |
CN113315978B (zh) * | 2021-05-13 | 2022-03-15 | 江南大学 | 一种基于联邦学习的协作式在线视频边缘缓存方法 |
CN114205791A (zh) * | 2021-12-13 | 2022-03-18 | 西安电子科技大学 | 一种基于深度q学习的社交感知d2d协同缓存方法 |
CN114595632A (zh) * | 2022-03-07 | 2022-06-07 | 北京工业大学 | 一种基于联邦学习的移动边缘缓存优化方法 |
-
2022
- 2022-10-25 CN CN202211310238.5A patent/CN115696296B/zh active Active
-
2023
- 2023-06-01 US US18/327,574 patent/US11943114B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11943114B1 (en) | 2024-03-26 |
CN115696296A (zh) | 2023-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112218337B (zh) | 一种移动边缘计算中的缓存策略决策方法 | |
Wang et al. | A novel reputation-aware client selection scheme for federated learning within mobile environments | |
Yu et al. | Privacy-preserving federated deep learning for cooperative hierarchical caching in fog computing | |
CN109104464B (zh) | 一种边缘计算环境下面向协同存储的分布式数据更新方法 | |
Zhang et al. | Joint optimization of cooperative edge caching and radio resource allocation in 5G-enabled massive IoT networks | |
CN112540845B (zh) | 一种基于移动边缘计算的协作系统及方法 | |
Li et al. | Method of resource estimation based on QoS in edge computing | |
Miao et al. | Intelligent task caching in edge cloud via bandit learning | |
CN113255004A (zh) | 一种安全且高效的联邦学习内容缓存方法 | |
Li et al. | Learning-based delay-aware caching in wireless D2D caching networks | |
CN114553963A (zh) | 移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法 | |
Mou et al. | LSTM for mobility based content popularity prediction in wireless caching networks | |
Lan et al. | Deep reinforcement learning for computation offloading and caching in fog-based vehicular networks | |
Negara et al. | Caching and machine learning integration methods on named data network: A survey | |
CN116321307A (zh) | 一种无蜂窝网络中基于深度强化学习的双向缓存放置方法 | |
Wu et al. | Data transmission scheme based on node model training and time division multiple access with IoT in opportunistic social networks | |
Wu et al. | Social-aware graph-based collaborative caching in edge-user networks | |
CN113993168A (zh) | 一种雾无线接入网中基于多智能体强化学习的协作缓存方法 | |
Li et al. | Collaborative optimization of edge-cloud computation offloading in internet of vehicles | |
Feng et al. | Proactive content caching scheme in urban vehicular networks | |
CN115696296B (zh) | 一种基于社区发现和加权联邦学习的主动边缘缓存方法 | |
Li et al. | A novel cooperative cache policy for wireless networks | |
CN115499876A (zh) | Msde场景下基于dqn算法的计算卸载策略 | |
Chakraborty et al. | R2-d2d: A novel deep learning based content-caching framework for d2d networks | |
Khanal et al. | Proactive content caching at self-driving car using federated learning with edge cloud |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |