CN115696296B - 一种基于社区发现和加权联邦学习的主动边缘缓存方法 - Google Patents

一种基于社区发现和加权联邦学习的主动边缘缓存方法 Download PDF

Info

Publication number
CN115696296B
CN115696296B CN202211310238.5A CN202211310238A CN115696296B CN 115696296 B CN115696296 B CN 115696296B CN 202211310238 A CN202211310238 A CN 202211310238A CN 115696296 B CN115696296 B CN 115696296B
Authority
CN
China
Prior art keywords
user
content
different
users
weighted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211310238.5A
Other languages
English (en)
Other versions
CN115696296A (zh
Inventor
张海霞
李东阳
袁东风
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN202211310238.5A priority Critical patent/CN115696296B/zh
Publication of CN115696296A publication Critical patent/CN115696296A/zh
Priority to US18/327,574 priority patent/US11943114B1/en
Application granted granted Critical
Publication of CN115696296B publication Critical patent/CN115696296B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/12Discovery or management of network topologies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0893Assignment of logical groups to network elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/145Network analysis or design involving simulating, designing, planning or modelling of a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/147Network analysis or design for predicting network behaviour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/22Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks comprising specially adapted graphical user interfaces [GUI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/16Threshold monitoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W76/00Connection management
    • H04W76/10Connection setup
    • H04W76/14Direct-mode setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0852Delays
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明涉及一种基于社区发现和加权联邦学习的主动边缘缓存方法,用于选择最佳的缓存用户,制定最优的缓存策略。首先提出一种基于社区发现的用户分组方法,根据用户移动性和社交属性将用户分成不同用户组,随后在每个用户组内计算不同用户的重要程度并选择重要度最高的用户作为缓存节点提供内容分发服务。在此基础上,提出一种基于注意力加权联邦学习的内容流行度预测框架,将注意力加权联邦学习机制与深度学习算法相结合来预测用户未来对不同内容的偏好程度,提高内容流行度预测精度的同时解决了用户隐私泄露的问题。最后,根据预测结果在被选择的缓存用户上缓存热点内容,以实现降低网络传输时延的同时减少网络运营成本的目标。

Description

一种基于社区发现和加权联邦学习的主动边缘缓存方法
技术领域
本发明属于无线通信和人工智能技术领域,具体涉及一种基于社区发现和加权联邦学习的主动边缘缓存方法,可用于D2D辅助无线通信网络中缓存资源的智能管理与规划。
背景技术
随着无线移动通信以及物联网技术的普及与发展,无线数据流量呈现爆炸式增长。然而,由于无线通信资源有限,如此急剧增长的数据流量将使得移动通信网络拥塞,进而导致用户请求内容的传输时延增加。亟需引入先进的网络传输技术,以保障各种新型业务的低时延需求。边缘缓存作为一种新兴网络技术,可将用户感兴趣的热点内容提前存储在网络边缘,从而减少通信链路的负载压力,大大降低内容的传输时延。
根据缓存位置的不同,现有的边缘缓存方案可分为:基站缓存和用户缓存。相较于基站缓存来说,用户缓存可将热点内容存储在距离用户更近的终端,并通过设备与设备(Device-to-Device,D2D)之间的直连通信进行内容传输,从而进一步降低内容的传输时延。因此,用户缓存被工业界与学术界认为是保障业务低时延需求的重要技术手段之一。
但是,对于用户缓存来说,租用所有的用户终端作为缓存节点降低内容传输时延的同时却带来高额的运营成本。如何最优化选择用户终端作为缓存节点实现运营成本和内容传输时延之间的折中成为设计用户缓存策略有待解决的关键问题之一。
此外,由于所选用户终端的存储能力通常是有限的,在终端上缓存所有的内容是不可行的。需预测未来用户对不同内容的喜好程度以设计相应的缓存策略。然而,目前基于集中学习的内容流行度预测方法需将用户个人数据发送至中心服务器进行模型训练,带来了严重的用户隐私泄露问题。如此一来,如何在所选用户终端上放置热点内容的同时保障用户隐私安全成为另一个亟待解决的关键问题。
发明内容
针对现有技术的不足,本发明提出了一种基于社区发现和加权联邦学习的主动边缘缓存方法,用于选择最佳的缓存用户并制定最优的用户缓存策略,以实现运营成本和内容传输时延之间的最优化折中。
本发明首先提出一种基于社区发现的用户分组方法,根据用户的移动性和社交属性将用户分成不同的用户组,随后,在每个用户组内计算不同用户的重要程度并选择重要度最高的用户作为缓存节点来提供内容分发服务。在此基础上,本发明提出一种基于注意力加权联邦学习的内容流行度预测框架,将注意力加权联邦学习机制与深度学习(DeepLearning,DL)模型相结合预测未来用户对不同内容的偏好程度;该框架在提高内容流行度预测精度的同时解决了用户隐私泄露的问题。最后,在缓存用户选择与内容流行度预测的基础上制定最优缓存策略,以降低网络传输时延的同时减少网络运营成本。
发明概述:
本发明提出一种基于社区发现和加权联邦学习的主动边缘缓存方法。在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组,并在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务;考虑到不同用户的活跃程度以及终端计算能力的异构性,设计基于注意力加权联邦学习的内容流行度预测框架来训练DL模型,随后利用训练好的DL模型预测下一时刻用户的内容偏好以缓存热点内容在被选择用户上。本发明将最热点内容缓存到最优的被选用户上,可大大降低网络传输时延的同时减少网络运营成本。
本发明的技术方案为:
一种基于社区发现和加权联邦学习的主动边缘缓存方法,包括:
在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组;
在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务;
基于注意力加权联邦学习的内容流行度预测框架来训练DL模型,随后利用训练好的DL模型预测下一时刻用户的内容偏好以缓存热点内容在被选择用户上。
根据本发明优选的,所述主动边缘缓存方法的运行系统包括一个基站、U个用户,其中,每个用户都具有内容存储能力且每个用户根据个人喜好从内容库
Figure SMS_1
中请求内容。
根据本发明优选的,在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组,包括:
(1)获得不同用户之间的物理距离,同时获取不同用户之间的社交关系;根据不同用户之间的物理距离与社交关系,构建D2D内容分享图
Figure SMS_2
其中,/>
Figure SMS_3
为用户节点,ε表示用户与用户之间是否建立D2D通信链路进行内容传输,当ε=1时表示建立D2D通信链路;即:当基站内用户u与用户v之间的物理距离小于通信距离阈值,且两用户间存在社交关系时,用户u与用户v建立D2D通信链路进行内容传输,此时εu,v=1;否则,εu,v=0;
(2)基于构建的D2D内容分享图
Figure SMS_4
将用户分成不同的用户组
Figure SMS_5
根据本发明优选的,利用Louvain社区发现算法将用户分成不同的用户组,包括:
A、将D2D内容分享图
Figure SMS_6
中的每个节点看成一个独立的社区;
B、依次把每个节点分配到其邻居节点所在社区,并计算分配前、后的模块度变化ΔQ,并记录ΔQ最大的那个邻居节点maxΔQ,如果maxΔQ>0,则把该节点分配ΔQ最大的那个邻居节点所在的社区,否则保持不变;ΔQ的计算公式如式(I)所示:
Figure SMS_7
式(I)中,m=∑εu,v是D2D内容分享图
Figure SMS_8
中所有边权重之和;Au,v=∑εu,v
Figure SMS_9
是社区/>
Figure SMS_10
内所有节点之间边权重之和;/>
Figure SMS_11
表示社区/>
Figure SMS_12
与其他社区之间连接边的权重之和;/>
Figure SMS_13
是节点u移入到社区/>
Figure SMS_14
中后所有节点之间边权重之和;a(u)是与节点u连接的所有边的权重之和;
C、重复步骤B,直到所有节点的所属社区不再变化;
D、将在同一个社区的节点压缩成一个新节点,社区内节点之间边权重转化为新节点的边权重,社区间的边权重转化为新节点间的边权重;
E、重复步骤A-D,直到整个D2D内容分享图
Figure SMS_15
的模块度不再发生变化。
根据本发明优选的,在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务,包括:
(3)在每个用户组中,首先,计算每个用户的中心度Bu,Bu的计算公式如式(II)所示:
Figure SMS_16
式(II)中,Gi,j表示D2D内容分享图中所有用户间最短路径的链接数目,gi,j(u)是Gi,j中经过用户u的链接数目;
然后,根据不同用户设备的存储能力得到不同用户的缓存能力Su
最后,根据中心度Bu和缓存能力Su计算不同用户组内不同用户的重要程度Vu=γ×Bu+(1-γ)×Su,其中,γ是分配给中心度Bu和缓存能力Su的权值,取值在0到1之间;
(4)在不同用户组中,根据不同用户的重要程度Vu对用户进行排序,并挑选重要程度最高的用户作为每个用户组中的用户缓存节点;
(5)在选择缓存节点后,根据用户组中不同内容的流行度来选择热点内容在被选用户上缓存。
根据本发明优选的,采用注意力加权联邦学习框架来训练内容流行度深度学习预测模型即DL模型,包括:
(6)选择用户终端参与内容流行度深度学习预测模型的训练过程,利用本地记录的用户历史内容请求数据来训练内容流行度深度学习预测模型;当内容流行度深度学习预测模型在不同用户终端训练完后,将被传输至基站进行模型聚合;
(7)在模型聚合过程中,基站根据用户的活跃度及终端计算能力,给不同用户终端的内容流行度深度学习预测模型即本地模型赋予不同的权重,权重的计算公式如式(III)、式(IV)所示:
Figure SMS_17
Figure SMS_18
式(III)、式(IV)中,
Figure SMS_19
表示被选用户终端u在第r+1次联邦训练过程中的活跃度,/>
Figure SMS_20
为被选终端u在时间窗[r-ρ;r]之间对不同内容请求数量;/>
Figure SMS_21
表示表示被选用户终端u在第r+1次联邦训练过程中的计算能力,/>
Figure SMS_22
表示所选终端u计算能力在第r+1次联邦过程中可以执行的本地训练次数,log()为对数计算,max{e}是本地训练最大次数的最大值;
权重计算完成后,对不同本地模型进行加权聚合,得到全局的内容流行度深度学习预测模型,加权聚合的公式如式(V)、式(VI)所示:
Figure SMS_23
Figure SMS_24
式(V)、式(VI)中,
Figure SMS_25
和/>
Figure SMS_26
是基站聚合后内容流行度深度学习预测模型的权重和偏置参数;/>
Figure SMS_27
和/>
Figure SMS_28
为被选用户终端u在本地训练后获得的本地模型权重和偏置参数;/>
Figure SMS_29
和/>
Figure SMS_30
为公式(III)、式(IV)计算得到的用户终端u训练的本地模型的权重。
根据本发明优选的,步骤(4)中选择的缓存用户使用得到的内容流行度深度学习预测模型预测下一时刻用户对不同内容的偏好来缓存热点内容,包括:
(8)在不同用户组内,步骤(4)中选择的缓存用户将本地记录的前ρ个时间窗内对不同内容的请求数据
Figure SMS_31
输入到训练好的内容流行度深度学习预测模型中,输出下一时刻用户对不同内容的偏好/>
Figure SMS_32
随后根据预测结果计算不同内容在被选缓存用户中的缓存概率,计算过程如式(VII)所示:
Figure SMS_33
式(VII)中,
Figure SMS_34
表示内容f在下一时刻被缓存的概率,/>
Figure SMS_35
为下一时刻用户对内容f的偏好,/>
Figure SMS_36
为用户对所有内容偏好之和;
(9)利用排序算法对缓存概率进行排序,并选择概率最高的前S个内容在被选用户终端进行缓存。
根据本发明优选的,内容流行度深度学习预测模型为双向长短时记忆网络模型。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现基于社区发现和加权联邦学习的主动边缘缓存方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现基于社区发现和加权联邦学习的主动边缘缓存方法的步骤。
本发明的有益效果为:
本发明通过选择最优的缓存用户与制定最佳的用户缓存策略,可大大降低网络传输时延,减少网络的运营成本,同时采用加权联邦学习架构进行内容流行度预测,有效解决了用户隐私泄露的问题。本发明可应用于蜂窝网、车联网、工业互联网等通信场景中对存储资源进行智能管理与规划,以满足不同垂直领域中各种新型业务应用的低时延通信需求。
附图说明
图1是本发明主动边缘缓存方法的运行系统的框图;
图2是本发明构建D2D内容分享图的流程示意图;
图3是本发明利用Louvain社区发现算法对用户分组的流程示意图;
图4是本发明基于加权联邦学习框架训练内容流行度预测模型的示意图;
图5是本发明在基站端对不同本地模型进行加权聚合的流程示意图;
图6是本发明采用的基于BiLSTM的内容流行度深度学习预测模型框图;
图7是本发明基于加权联邦学习框架的内容流行度深度学习预测模型的性能分析图;
图8(a)是本发明所提基于社区发现和加权联邦学习的主动边缘缓存方法在不同缓存能力下时延性能分析图;
图8(b)是本发明所提基于社区发现和加权联邦学习的主动边缘缓存方法在不同缓存能力下单位运营成本系统增益分析图。
具体实施方式
下面结合说明书附图和实施例对本发明作进一步限定,但不限于此。
实施例1
一种基于社区发现和加权联邦学习的主动边缘缓存方法,包括:
在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组;
在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务;
基于注意力加权联邦学习的内容流行度预测框架来训练DL模型,随后利用训练好的DL模型预测下一时刻用户的内容偏好以缓存热点内容在被选择用户上。
实施例2
根据实施例1所述的一种基于社区发现和加权联邦学习的主动边缘缓存方法,其区别在于:
如图1所示,主动边缘缓存方法的运行系统包括一个基站、U个用户,其中,每个用户都具有一定的内容存储能力且每个用户根据个人喜好从内容库
Figure SMS_37
中请求内容。为了避免重复的内容下载请求造成的网络阻塞,降低内容下载时延,运营商将租用部分用户终端作为缓存节点提供缓存服务。为了选择最佳的缓存用户,放置最优的热点内容,本发明提出主动边缘缓存方法,以降低网络传输时延的同时减少网络运营成本。
在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组,包括:
(1)利用GPS等手段获得不同用户之间的物理距离,同时从微博、微信、抖音等社交平台获取不同用户之间的社交关系;根据不同用户之间的物理距离与社交关系,构建D2D内容分享图
Figure SMS_38
其中,/>
Figure SMS_39
为用户节点,ε表示用户与用户之间是否建立D2D通信链路进行内容传输,当ε=1时表示建立D2D通信链路;具体构建流程如图2所示,即:当基站内用户u与用户v之间的物理距离小于通信距离阈值,该通信距离阈值通常由用户终端发射功率决定,发射功率越大通信传输距离越大,且两用户间存在社交关系时,存在社交关系即两用户经常联系或在同一社交圈内,用户u与用户v建立D2D通信链路进行内容传输,此时εu,v=1;否则,εu,v=0;
(2)基于构建的D2D内容分享图
Figure SMS_40
利用Louvain社区发现算法将用户分成不同的用户组/>
Figure SMS_41
本发明用于用户分组的方法不局限于Louvain算法还可以是Kernighan-Lin、Newman and Girvan等图分割算法用于用户分组。
利用Louvain社区发现算法将用户分成不同的用户组,如图3所示,包括:
A、将D2D内容分享图
Figure SMS_42
中的每个节点看成一个独立的社区;
B、依次把每个节点分配到其邻居节点所在社区,并计算分配前、后的模块度变化ΔQ,并记录ΔQ最大的那个邻居节点maxΔQ,如果maxΔQ>0,则把该节点分配ΔQ最大的那个邻居节点所在的社区,否则保持不变;ΔQ的计算公式如式(I)所示:
Figure SMS_43
式(I)中,m=∑εu,v是D2D内容分享图
Figure SMS_44
中所有边权重之和;Au,v=∑εu,v
Figure SMS_45
是社区/>
Figure SMS_46
内所有节点之间边权重之和;/>
Figure SMS_47
表示社区/>
Figure SMS_48
与其他社区之间连接边的权重之和;/>
Figure SMS_49
是节点u移入到社区/>
Figure SMS_50
中后所有节点之间边权重之和;a(u)是与节点u连接的所有边的权重之和;
C、重复步骤B,直到所有节点的所属社区不再变化;
D、将在同一个社区的节点压缩成一个新节点,社区内节点之间边权重转化为新节点的边权重,社区间的边权重转化为新节点间的边权重;
E、重复步骤A-D,直到整个D2D内容分享图
Figure SMS_51
的模块度不再发生变化。
在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务,包括:
(3)在每个用户组中,首先,计算每个用户的中心度Bu,Bu的计算公式如式(II)所示:
Figure SMS_52
式(II)中,Gi,j表示D2D内容分享图中所有用户间最短路径的链接数目,gi,j(u)是Gi,j中经过用户u的链接数目;
然后,根据不同用户设备的存储能力得到不同用户的缓存能力Su;缓存能力Su即用户手机等终端固有的存储空间大小;
最后,根据中心度Bu和缓存能力Su计算不同用户组内不同用户的重要程度Vu=γ×Bu+(1-γ)×Su,其中,γ是分配给中心度Bu和缓存能力Su的权值,取值在0到1之间;
(4)在不同用户组中,根据不同用户的重要程度Vu对用户进行排序,并挑选重要程度最高的用户作为每个用户组中的用户缓存节点;
(5)在选择缓存节点后,根据用户组中不同内容的流行度来选择热点内容在被选用户上缓存。
不同用户组中不同内容的流行度将通过深度学习模型进行预测,而本发明将采用注意力加权联邦学习框架来训练内容流行度深度学习预测模型即DL模型,包括:
(6)按一定比例选择用户终端参与内容流行度深度学习预测模型的训练过程,所选用户终端的多少由当前通信环境决定,当通信资源较空闲时,可选较多的用户终端参与联邦训练;用户终端被选择后,利用本地记录的用户历史内容请求数据来训练内容流行度深度学习预测模型;当内容流行度深度学习预测模型在不同用户终端训练完后,将被传输至基站进行模型聚合;整个过程如图4所示。
(7)在模型聚合过程中,基站根据用户的活跃度及终端计算能力,给不同用户终端的内容流行度深度学习预测模型即本地模型赋予不同的权重(如图5所示),权重的计算公式如式(III)、式(IV)所示:
Figure SMS_53
Figure SMS_54
式(III)、式(IV)中,
Figure SMS_55
表示被选用户终端u在第r+1次联邦训练过程中的活跃度,/>
Figure SMS_56
为被选终端u在时间窗[r-ρ;r]之间对不同内容请求数量;/>
Figure SMS_57
表示表示被选用户终端u在第r+1次联邦训练过程中的计算能力,/>
Figure SMS_58
表示所选终端u计算能力在第r+1次联邦过程中可以执行的本地训练次数,log()为对数计算,max{e}是本地训练最大次数的最大值;
权重计算完成后,对不同本地模型进行加权聚合,得到全局的内容流行度深度学习预测模型,加权聚合的公式如式(V)、式(VI)所示:
Figure SMS_59
Figure SMS_60
式(V)、式(VI)中,
Figure SMS_61
和/>
Figure SMS_62
是基站聚合后内容流行度深度学习预测模型的权重和偏置参数;/>
Figure SMS_63
和/>
Figure SMS_64
为被选用户终端u在本地训练后获得的本地模型权重和偏置参数;/>
Figure SMS_65
和/>
Figure SMS_66
为公式(III)、式(IV)计算得到的用户终端u训练的本地模型的权重。
当利用上述加权联邦框架训练好内容流行度深度学习预测模型后,步骤(4)中选择的缓存用户使用得到的内容流行度深度学习预测模型预测下一时刻用户对不同内容的偏好来缓存热点内容,包括:
(8)在不同用户组内,步骤(4)中选择的缓存用户将本地记录的前ρ个时间窗内对不同内容的请求数据
Figure SMS_67
输入到训练好的内容流行度深度学习预测模型中,输出下一时刻用户对不同内容的偏好/>
Figure SMS_68
随后根据预测结果计算不同内容在被选缓存用户中的缓存概率,计算过程如式(VII)所示:
Figure SMS_69
式(VII)中,
Figure SMS_70
表示内容f在下一时刻被缓存的概率,/>
Figure SMS_71
为下一时刻用户对内容f的偏好,/>
Figure SMS_72
为用户对所有内容偏好之和;
(9)当计算出不同内容在被选缓存用户中的缓存概率后,利用排序算法对缓存概率进行排序,并选择概率最高的前S(S为被选缓存用户的可以存储的内容数目)个内容在被选用户终端进行缓存,以实现降低网络传输时延的同时减少网络运营成本的目的。
本发明所选用的内容流行度深度学习预测模型为双向长短时记忆网络模型(Bidirectional Long Short-term Memory,BiLSTM),模型结构如图6所示。预测模型不局限于使用双向长短时记忆网络,卷积神经网络、图神经网络等深度学习网络模型均可以。
图7是本实施例基于加权联邦学习框架的内容流行度深度学习预测模型的性能分析图;其中,横坐标为不同的请求内容的索引,轴坐标为用户对不同内容的请求次数。图7中AWFL为所提基于加权联邦学习框架的内容流行度模型的预测值,Groud True为真实值,可以看出本发明AWFL方法可以精准地预测用户未来对不同内容的请求。本实施例所提出的加权联邦学习与双向长短时记忆网络结合方法,可以很好的拟合用户对不同内容的喜好程度。
图8(a)是本实施例所提基于社区发现和加权联邦学习的主动边缘缓存方法在不同缓存能力下时延性能分析图;其中,横坐标表示不同用户终端可缓存内容数量,纵坐标为内容下载时延,其中CAFLPC为本发明所提基于社区发现和加权联邦学习的主动边缘缓存方法;图8(a)可以证明所提CAFLPC方法在不同缓存能力下相较于其他方法均可以很好地降低内容下载时延且接近最优策略性能。
图8(b)是本实施例所提基于社区发现和加权联邦学习的主动边缘缓存方法在不同缓存能力下单位运营成本系统增益分析图。其中,横坐标表示不同用户终端可缓存内容数量,纵坐标为单位运营成本系统增益;图8(b)可以证明所提CAFLPC方法相较于其他方法在单位成本下可以减少更多的内容下载时延,即所提方法可达到降低网络传输时延的同时减少网络运营成本的目的。
实施例3
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现基于社区发现和加权联邦学习的主动边缘缓存方法的步骤。
实施例4
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现基于社区发现和加权联邦学习的主动边缘缓存方法的步骤。

Claims (6)

1.一种基于社区发现和加权联邦学习的主动边缘缓存方法,其特征在于,包括:
在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组;
在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务;
基于注意力加权联邦学习的内容流行度预测框架来训练DL模型,随后利用训练好的DL模型预测下一时刻用户的内容偏好以缓存热点内容在被选择用户上;
在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组,包括:
(1)获得不同用户之间的物理距离,同时获取不同用户之间的社交关系;根据不同用户之间的物理距离与社交关系,构建D2D内容分享图
Figure QLYQS_1
其中,/>
Figure QLYQS_2
为用户节点,ε表示用户与用户之间是否建立D2D通信链路进行内容传输,当ε=1时表示建立D2D通信链路;即:当基站内用户u与用户v之间的物理距离小于通信距离阈值,且两用户间存在社交关系时,用户u与用户v建立D2D通信链路进行内容传输,此时εu,v=1;否则,εu,v=0;
(2)基于构建的D2D内容分享图
Figure QLYQS_3
将用户分成不同的用户组
Figure QLYQS_4
在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务,包括:
(3)在每个用户组中,首先,计算每个用户的中心度Bu,Bu的计算公式如式(II)所示:
Figure QLYQS_5
式(II)中,Gi,j表示D2D内容分享图中所有用户间最短路径的链接数目,gi,j(u)是Gi,j中经过用户u的链接数目;
然后,根据不同用户设备的存储能力得到不同用户的缓存能力Su
最后,根据中心度Bu和缓存能力Su计算不同用户组内不同用户的重要程度Vu=γ×Bu+(1-γ)×Su,其中,γ是分配给中心度Bu和缓存能力Su的权值,取值在0到1之间;
(4)在不同用户组中,根据不同用户的重要程度Vu对用户进行排序,并挑选重要程度最高的用户作为每个用户组中的用户缓存节点;
(5)在选择缓存节点后,根据用户组中不同内容的流行度来选择热点内容在被选用户上缓存;
采用注意力加权联邦学习框架来训练内容流行度深度学习预测模型即DL模型,包括:
(6)选择用户终端参与内容流行度深度学习预测模型的训练过程,利用本地记录的用户历史内容请求数据来训练内容流行度深度学习预测模型;当内容流行度深度学习预测模型在不同用户终端训练完后,将被传输至基站进行模型聚合;
(7)在模型聚合过程中,基站根据用户的活跃度及终端计算能力,给不同用户终端的内容流行度深度学习预测模型即本地模型赋予不同的权重,权重的计算公式如式(III)、式(IV)所示:
Figure QLYQS_6
Figure QLYQS_7
式(III)、式(IV)中,
Figure QLYQS_8
表示被选用户终端u在第r+1次联邦训练过程中的活跃度,
Figure QLYQS_9
为被选终端u在时间窗[r-ρ;r]之间对不同内容请求数量;/>
Figure QLYQS_10
表示被选用户终端u在第r+1次联邦训练过程中的计算能力,/>
Figure QLYQS_11
表示所选终端u计算能力在第r+1次联邦过程中可以执行的本地训练次数,log()为对数计算,max{e}是本地训练最大次数的最大值;
权重计算完成后,对不同本地模型进行加权聚合,得到全局的内容流行度深度学习预测模型,加权聚合的公式如式(V)、式(VI)所示:
Figure QLYQS_12
Figure QLYQS_13
式(V)、式(VI)中,
Figure QLYQS_14
和/>
Figure QLYQS_15
是基站聚合后内容流行度深度学习预测模型的权重和偏置参数;/>
Figure QLYQS_16
和/>
Figure QLYQS_17
为被选用户终端u在本地训练后获得的本地模型权重和偏置参数;
Figure QLYQS_18
和/>
Figure QLYQS_19
为公式(III)、式(IV)计算得到的用户终端u训练的本地模型的权重;
步骤(4)中选择的缓存用户使用得到的内容流行度深度学习预测模型预测下一时刻用户对不同内容的偏好来缓存热点内容,包括:
(8)在不同用户组内,步骤(4)中选择的缓存用户将本地记录的前ρ个时间窗内对不同内容的请求数据
Figure QLYQS_20
输入到训练好的内容流行度深度学习预测模型中,输出下一时刻用户对不同内容的偏好/>
Figure QLYQS_21
随后根据预测结果计算不同内容在被选缓存用户中的缓存概率,计算过程如式(VII)所示:
Figure QLYQS_22
式(VII)中,
Figure QLYQS_23
表示内容f在下一时刻被缓存的概率,/>
Figure QLYQS_24
为下一时刻用户对内容f的偏好,/>
Figure QLYQS_25
为用户对所有内容偏好之和;
(9)利用排序算法对缓存概率进行排序,并选择概率最高的前S个内容在被选用户终端进行缓存。
2.根据权利要求1所述的一种基于社区发现和加权联邦学习的主动边缘缓存方法,其特征在于,所述主动边缘缓存方法的运行系统包括一个基站、U个用户,其中,每个用户都具有内容存储能力且每个用户根据个人喜好从内容库
Figure QLYQS_26
中请求内容。
3.根据权利要求1所述的一种基于社区发现和加权联邦学习的主动边缘缓存方法,其特征在于,利用Louvain社区发现算法将用户分成不同的用户组,包括:
A、将D2D内容分享图
Figure QLYQS_27
中的每个节点看成一个独立的社区;
B、依次把每个节点分配到其邻居节点所在社区,并计算分配前、后的模块度变化ΔQ,并记录ΔQ最大的那个邻居节点maxΔQ,如果maxΔQ>0,则把该节点分配ΔQ最大的那个邻居节点所在的社区,否则保持不变;ΔQ的计算公式如式(I)所示:
Figure QLYQS_28
式(I)中,m=∑εu,v是D2D内容分享图
Figure QLYQS_29
中所有边权重之和;
Figure QLYQS_30
是社区/>
Figure QLYQS_31
内所有节点之间边权重之和;/>
Figure QLYQS_32
表示社区/>
Figure QLYQS_33
与其他社区之间连接边的权重之和;/>
Figure QLYQS_34
是节点u移入到社区/>
Figure QLYQS_35
中后所有节点之间边权重之和;a(u)是与节点u连接的所有边的权重之和;
C、重复步骤B,直到所有节点的所属社区不再变化;
D、将在同一个社区的节点压缩成一个新节点,社区内节点之间边权重转化为新节点的边权重,社区间的边权重转化为新节点间的边权重;
E、重复步骤A-D,直到整个D2D内容分享图
Figure QLYQS_36
的模块度不再发生变化。
4.根据权利要求1-3任一所述的一种基于社区发现和加权联邦学习的主动边缘缓存方法,其特征在于,内容流行度深度学习预测模型为双向长短时记忆网络模型。
5.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1-4任一所述基于社区发现和加权联邦学习的主动边缘缓存方法的步骤。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-4任一所述基于社区发现和加权联邦学习的主动边缘缓存方法的步骤。
CN202211310238.5A 2022-10-25 2022-10-25 一种基于社区发现和加权联邦学习的主动边缘缓存方法 Active CN115696296B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202211310238.5A CN115696296B (zh) 2022-10-25 2022-10-25 一种基于社区发现和加权联邦学习的主动边缘缓存方法
US18/327,574 US11943114B1 (en) 2022-10-25 2023-06-01 Active edge caching method based on community discovery and weighted federated learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211310238.5A CN115696296B (zh) 2022-10-25 2022-10-25 一种基于社区发现和加权联邦学习的主动边缘缓存方法

Publications (2)

Publication Number Publication Date
CN115696296A CN115696296A (zh) 2023-02-03
CN115696296B true CN115696296B (zh) 2023-07-07

Family

ID=85099619

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211310238.5A Active CN115696296B (zh) 2022-10-25 2022-10-25 一种基于社区发现和加权联邦学习的主动边缘缓存方法

Country Status (2)

Country Link
US (1) US11943114B1 (zh)
CN (1) CN115696296B (zh)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3022708B1 (en) * 2013-07-19 2018-03-28 Opanga Networks, Inc. Content source discovery
US10298713B2 (en) * 2015-03-30 2019-05-21 Huawei Technologies Co., Ltd. Distributed content discovery for in-network caching
CN111865826B (zh) * 2020-07-02 2022-01-04 大连理工大学 一种基于联邦学习的主动内容缓存方法
US20210144202A1 (en) * 2020-11-13 2021-05-13 Christian Maciocco Extended peer-to-peer (p2p) with edge networking
CN113315978B (zh) * 2021-05-13 2022-03-15 江南大学 一种基于联邦学习的协作式在线视频边缘缓存方法
CN114205791A (zh) * 2021-12-13 2022-03-18 西安电子科技大学 一种基于深度q学习的社交感知d2d协同缓存方法
CN114595632A (zh) * 2022-03-07 2022-06-07 北京工业大学 一种基于联邦学习的移动边缘缓存优化方法

Also Published As

Publication number Publication date
US11943114B1 (en) 2024-03-26
CN115696296A (zh) 2023-02-03

Similar Documents

Publication Publication Date Title
CN112218337B (zh) 一种移动边缘计算中的缓存策略决策方法
Wang et al. A novel reputation-aware client selection scheme for federated learning within mobile environments
Yu et al. Privacy-preserving federated deep learning for cooperative hierarchical caching in fog computing
CN109104464B (zh) 一种边缘计算环境下面向协同存储的分布式数据更新方法
Zhang et al. Joint optimization of cooperative edge caching and radio resource allocation in 5G-enabled massive IoT networks
CN112540845B (zh) 一种基于移动边缘计算的协作系统及方法
Li et al. Method of resource estimation based on QoS in edge computing
Miao et al. Intelligent task caching in edge cloud via bandit learning
CN113255004A (zh) 一种安全且高效的联邦学习内容缓存方法
Li et al. Learning-based delay-aware caching in wireless D2D caching networks
CN114553963A (zh) 移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法
Mou et al. LSTM for mobility based content popularity prediction in wireless caching networks
Lan et al. Deep reinforcement learning for computation offloading and caching in fog-based vehicular networks
Negara et al. Caching and machine learning integration methods on named data network: A survey
CN116321307A (zh) 一种无蜂窝网络中基于深度强化学习的双向缓存放置方法
Wu et al. Data transmission scheme based on node model training and time division multiple access with IoT in opportunistic social networks
Wu et al. Social-aware graph-based collaborative caching in edge-user networks
CN113993168A (zh) 一种雾无线接入网中基于多智能体强化学习的协作缓存方法
Li et al. Collaborative optimization of edge-cloud computation offloading in internet of vehicles
Feng et al. Proactive content caching scheme in urban vehicular networks
CN115696296B (zh) 一种基于社区发现和加权联邦学习的主动边缘缓存方法
Li et al. A novel cooperative cache policy for wireless networks
CN115499876A (zh) Msde场景下基于dqn算法的计算卸载策略
Chakraborty et al. R2-d2d: A novel deep learning based content-caching framework for d2d networks
Khanal et al. Proactive content caching at self-driving car using federated learning with edge cloud

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant