CN115696296A - 一种基于社区发现和加权联邦学习的主动边缘缓存方法 - Google Patents

一种基于社区发现和加权联邦学习的主动边缘缓存方法 Download PDF

Info

Publication number
CN115696296A
CN115696296A CN202211310238.5A CN202211310238A CN115696296A CN 115696296 A CN115696296 A CN 115696296A CN 202211310238 A CN202211310238 A CN 202211310238A CN 115696296 A CN115696296 A CN 115696296A
Authority
CN
China
Prior art keywords
user
content
users
different
weighted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211310238.5A
Other languages
English (en)
Other versions
CN115696296B (zh
Inventor
张海霞
李东阳
袁东风
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN202211310238.5A priority Critical patent/CN115696296B/zh
Publication of CN115696296A publication Critical patent/CN115696296A/zh
Priority to US18/327,574 priority patent/US11943114B1/en
Application granted granted Critical
Publication of CN115696296B publication Critical patent/CN115696296B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/12Discovery or management of network topologies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0893Assignment of logical groups to network elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/145Network analysis or design involving simulating, designing, planning or modelling of a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/147Network analysis or design for predicting network behaviour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/22Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks comprising specially adapted graphical user interfaces [GUI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/16Threshold monitoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W76/00Connection management
    • H04W76/10Connection setup
    • H04W76/14Direct-mode setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0852Delays
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及一种基于社区发现和加权联邦学习的主动边缘缓存方法,用于选择最佳的缓存用户,制定最优的缓存策略。首先提出一种基于社区发现的用户分组方法,根据用户移动性和社交属性将用户分成不同用户组,随后在每个用户组内计算不同用户的重要程度并选择重要度最高的用户作为缓存节点提供内容分发服务。在此基础上,提出一种基于注意力加权联邦学习的内容流行度预测框架,将注意力加权联邦学习机制与深度学习算法相结合来预测用户未来对不同内容的偏好程度,提高内容流行度预测精度的同时解决了用户隐私泄露的问题。最后,根据预测结果在被选择的缓存用户上缓存热点内容,以实现降低网络传输时延的同时减少网络运营成本的目标。

Description

一种基于社区发现和加权联邦学习的主动边缘缓存方法
技术领域
本发明属于无线通信和人工智能技术领域,具体涉及一种基于社区发现和加权联邦学习的主动边缘缓存方法,可用于D2D辅助无线通信网络中缓存资源的智能管理与规划。
背景技术
随着无线移动通信以及物联网技术的普及与发展,无线数据流量呈现爆炸式增长。然而,由于无线通信资源有限,如此急剧增长的数据流量将使得移动通信网络拥塞,进而导致用户请求内容的传输时延增加。亟需引入先进的网络传输技术,以保障各种新型业务的低时延需求。边缘缓存作为一种新兴网络技术,可将用户感兴趣的热点内容提前存储在网络边缘,从而减少通信链路的负载压力,大大降低内容的传输时延。
根据缓存位置的不同,现有的边缘缓存方案可分为:基站缓存和用户缓存。相较于基站缓存来说,用户缓存可将热点内容存储在距离用户更近的终端,并通过设备与设备(Device-to-Device,D2D)之间的直连通信进行内容传输,从而进一步降低内容的传输时延。因此,用户缓存被工业界与学术界认为是保障业务低时延需求的重要技术手段之一。
但是,对于用户缓存来说,租用所有的用户终端作为缓存节点降低内容传输时延的同时却带来高额的运营成本。如何最优化选择用户终端作为缓存节点实现运营成本和内容传输时延之间的折中成为设计用户缓存策略有待解决的关键问题之一。
此外,由于所选用户终端的存储能力通常是有限的,在终端上缓存所有的内容是不可行的。需预测未来用户对不同内容的喜好程度以设计相应的缓存策略。然而,目前基于集中学习的内容流行度预测方法需将用户个人数据发送至中心服务器进行模型训练,带来了严重的用户隐私泄露问题。如此一来,如何在所选用户终端上放置热点内容的同时保障用户隐私安全成为另一个亟待解决的关键问题。
发明内容
针对现有技术的不足,本发明提出了一种基于社区发现和加权联邦学习的主动边缘缓存方法,用于选择最佳的缓存用户并制定最优的用户缓存策略,以实现运营成本和内容传输时延之间的最优化折中。
本发明首先提出一种基于社区发现的用户分组方法,根据用户的移动性和社交属性将用户分成不同的用户组,随后,在每个用户组内计算不同用户的重要程度并选择重要度最高的用户作为缓存节点来提供内容分发服务。在此基础上,本发明提出一种基于注意力加权联邦学习的内容流行度预测框架,将注意力加权联邦学习机制与深度学习(DeepLearning,DL)模型相结合预测未来用户对不同内容的偏好程度;该框架在提高内容流行度预测精度的同时解决了用户隐私泄露的问题。最后,在缓存用户选择与内容流行度预测的基础上制定最优缓存策略,以降低网络传输时延的同时减少网络运营成本。
发明概述:
本发明提出一种基于社区发现和加权联邦学习的主动边缘缓存方法。在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组,并在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务;考虑到不同用户的活跃程度以及终端计算能力的异构性,设计基于注意力加权联邦学习的内容流行度预测框架来训练DL模型,随后利用训练好的DL模型预测下一时刻用户的内容偏好以缓存热点内容在被选择用户上。本发明将最热点内容缓存到最优的被选用户上,可大大降低网络传输时延的同时减少网络运营成本。
本发明的技术方案为:
一种基于社区发现和加权联邦学习的主动边缘缓存方法,包括:
在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组;
在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务;
基于注意力加权联邦学习的内容流行度预测框架来训练DL模型,随后利用训练好的DL模型预测下一时刻用户的内容偏好以缓存热点内容在被选择用户上。
根据本发明优选的,所述主动边缘缓存方法的运行系统包括一个基站、U个用户,其中,每个用户都具有内容存储能力且每个用户根据个人喜好从内容库
Figure BDA0003906871610000021
中请求内容。
根据本发明优选的,在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组,包括:
(1)获得不同用户之间的物理距离,同时获取不同用户之间的社交关系;根据不同用户之间的物理距离与社交关系,构建D2D内容分享图
Figure BDA0003906871610000022
其中,
Figure BDA0003906871610000023
为用户节点,ε表示用户与用户之间是否建立D2D通信链路进行内容传输,当ε=1时表示建立D2D通信链路;即:当基站内用户u与用户v之间的物理距离小于通信距离阈值,且两用户间存在社交关系时,用户u与用户v建立D2D通信链路进行内容传输,此时εu,v=1;否则,εu,v=0;
(2)基于构建的D2D内容分享图
Figure BDA0003906871610000024
将用户分成不同的用户组
Figure BDA0003906871610000025
根据本发明优选的,利用Louvain社区发现算法将用户分成不同的用户组,包括:
A、将D2D内容分享图
Figure BDA0003906871610000031
中的每个节点看成一个独立的社区;
B、依次把每个节点分配到其邻居节点所在社区,并计算分配前、后的模块度变化ΔQ,并记录ΔQ最大的那个邻居节点maxΔQ,如果maxΔQ>0,则把该节点分配ΔQ最大的那个邻居节点所在的社区,否则保持不变;ΔQ的计算公式如式(I)所示:
Figure BDA0003906871610000032
式(I)中,m=∑εu;v是D2D内容分享图
Figure BDA0003906871610000033
中所有边权重之和;Au,v=∑εu,v
Figure BDA0003906871610000034
是社区
Figure BDA0003906871610000035
内所有节点之间边权重之和;
Figure BDA00039068716100000311
表示社区
Figure BDA0003906871610000036
与其他社区之间连接边的权重之和;
Figure BDA0003906871610000037
是节点u移入到社区
Figure BDA0003906871610000038
中后所有节点之间边权重之和;a(u)是与节点u连接的所有边的权重之和;
C、重复步骤B,直到所有节点的所属社区不再变化;
D、将在同一个社区的节点压缩成一个新节点,社区内节点之间边权重转化为新节点的边权重,社区间的边权重转化为新节点间的边权重;
E、重复步骤A-D,直到整个D2D内容分享图
Figure BDA00039068716100000310
的模块度不再发生变化。
根据本发明优选的,在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务,包括:
(3)在每个用户组中,首先,计算每个用户的中心度Bu,Bu的计算公式如式(II)所示:
Figure BDA0003906871610000039
式(II)中,Gi;j表示D2D内容分享图中所有用户间最短路径的链接数目,gi,j(u)是Gi,j中经过用户u的链接数目;
然后,根据不同用户设备的存储能力得到不同用户的缓存能力Su
最后,根据中心度Bu和缓存能力Su计算不同用户组内不同用户的重要程度Vu=γ×Bu+(1-γ)×Su,其中,γ是分配给中心度Bu和缓存能力Su的权值,取值在0到1之间;
(4)在不同用户组中,根据不同用户的重要程度Vu对用户进行排序,并挑选重要程度最高的用户作为每个用户组中的用户缓存节点;
(5)在选择缓存节点后,根据用户组中不同内容的流行度来选择热点内容在被选用户上缓存。
根据本发明优选的,采用注意力加权联邦学习框架来训练内容流行度深度学习预测模型即DL模型,包括:
(6)选择用户终端参与内容流行度深度学习预测模型的训练过程,利用本地记录的用户历史内容请求数据来训练内容流行度深度学习预测模型;当内容流行度深度学习预测模型在不同用户终端训练完后,将被传输至基站进行模型聚合;
(7)在模型聚合过程中,基站根据用户的活跃度及终端计算能力,给不同用户终端的内容流行度深度学习预测模型即本地模型赋予不同的权重,权重的计算公式如式(III)、式(IV)所示:
Figure BDA0003906871610000041
Figure BDA0003906871610000042
式(III)、式(IV)中,
Figure BDA0003906871610000043
表示被选用户终端u在第r+1次联邦训练过程中的活跃度,
Figure BDA0003906871610000044
为被选终端u在时间窗[r-ρ;r]之间对不同内容请求数量;
Figure BDA0003906871610000045
表示表示被选用户终端u在第r+1次联邦训练过程中的计算能力,
Figure BDA0003906871610000046
表示所选终端u计算能力在第r+1次联邦过程中可以执行的本地训练次数,log()为对数计算,max{e}是本地训练最大次数的最大值;
权重计算完成后,对不同本地模型进行加权聚合,得到全局的内容流行度深度学习预测模型,加权聚合的公式如式(V)、式(VI)所示:
Figure BDA0003906871610000047
Figure BDA0003906871610000048
式(V)、式(VI)中,
Figure BDA0003906871610000049
Figure BDA00039068716100000410
是基站聚合后内容流行度深度学习预测模型的权重和偏置参数;
Figure BDA00039068716100000411
Figure BDA00039068716100000412
为被选用户终端u在本地训练后获得的本地模型权重和偏置参数;
Figure BDA00039068716100000413
Figure BDA00039068716100000414
为公式(III)、式(IV)计算得到的用户终端u训练的本地模型的权重。
根据本发明优选的,步骤(4)中选择的缓存用户使用得到的内容流行度深度学习预测模型预测下一时刻用户对不同内容的偏好来缓存热点内容,包括:
(8)在不同用户组内,步骤(4)中选择的缓存用户将本地记录的前ρ个时间窗内对不同内容的请求数据
Figure BDA0003906871610000051
输入到训练好的内容流行度深度学习预测模型中,输出下一时刻用户对不同内容的偏好
Figure BDA0003906871610000052
随后根据预测结果计算不同内容在被选缓存用户中的缓存概率,计算过程如式(VII)所示:
Figure BDA0003906871610000053
式(VII)中,
Figure BDA0003906871610000054
表示内容f在下一时刻被缓存的概率,
Figure BDA0003906871610000055
为下一时刻用户对内容f的偏好,
Figure BDA0003906871610000056
为用户对所有内容偏好之和;
(9)利用排序算法对缓存概率进行排序,并选择概率最高的前S个内容在被选用户终端进行缓存。
根据本发明优选的,内容流行度深度学习预测模型为双向长短时记忆网络模型。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现基于社区发现和加权联邦学习的主动边缘缓存方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现基于社区发现和加权联邦学习的主动边缘缓存方法的步骤。
本发明的有益效果为:
本发明通过选择最优的缓存用户与制定最佳的用户缓存策略,可大大降低网络传输时延,减少网络的运营成本,同时采用加权联邦学习架构进行内容流行度预测,有效解决了用户隐私泄露的问题。本发明可应用于蜂窝网、车联网、工业互联网等通信场景中对存储资源进行智能管理与规划,以满足不同垂直领域中各种新型业务应用的低时延通信需求。
附图说明
图1是本发明主动边缘缓存方法的运行系统的框图;
图2是本发明构建D2D内容分享图的流程示意图;
图3是本发明利用Louvain社区发现算法对用户分组的流程示意图;
图4是本发明基于加权联邦学习框架训练内容流行度预测模型的示意图;
图5是本发明在基站端对不同本地模型进行加权聚合的流程示意图;
图6是本发明采用的基于BiLSTM的内容流行度深度学习预测模型框图;
图7是本发明基于加权联邦学习框架的内容流行度深度学习预测模型的性能分析图;
图8(a)是本发明所提基于社区发现和加权联邦学习的主动边缘缓存方法在不同缓存能力下时延性能分析图;
图8(b)是本发明所提基于社区发现和加权联邦学习的主动边缘缓存方法在不同缓存能力下单位运营成本系统增益分析图。
具体实施方式
下面结合说明书附图和实施例对本发明作进一步限定,但不限于此。
实施例1
一种基于社区发现和加权联邦学习的主动边缘缓存方法,包括:
在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组;
在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务;
基于注意力加权联邦学习的内容流行度预测框架来训练DL模型,随后利用训练好的DL模型预测下一时刻用户的内容偏好以缓存热点内容在被选择用户上。
实施例2
根据实施例1所述的一种基于社区发现和加权联邦学习的主动边缘缓存方法,其区别在于:
如图1所示,主动边缘缓存方法的运行系统包括一个基站、U个用户,其中,每个用户都具有一定的内容存储能力且每个用户根据个人喜好从内容库
Figure BDA0003906871610000061
中请求内容。为了避免重复的内容下载请求造成的网络阻塞,降低内容下载时延,运营商将租用部分用户终端作为缓存节点提供缓存服务。为了选择最佳的缓存用户,放置最优的热点内容,本发明提出主动边缘缓存方法,以降低网络传输时延的同时减少网络运营成本。
在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组,包括:
(1)利用GPS等手段获得不同用户之间的物理距离,同时从微博、微信、抖音等社交平台获取不同用户之间的社交关系;根据不同用户之间的物理距离与社交关系,构建D2D内容分享图
Figure BDA0003906871610000062
其中,
Figure BDA0003906871610000063
为用户节点,ε表示用户与用户之间是否建立D2D通信链路进行内容传输,当ε=1时表示建立D2D通信链路;具体构建流程如图2所示,即:当基站内用户u与用户v之间的物理距离小于通信距离阈值,该通信距离阈值通常由用户终端发射功率决定,发射功率越大通信传输距离越大,且两用户间存在社交关系时,存在社交关系即两用户经常联系或在同一社交圈内,用户u与用户v建立D2D通信链路进行内容传输,此时εu;v=1;否则,εu;v=0;
(2)基于构建的D2D内容分享图
Figure BDA0003906871610000071
利用Louvain社区发现算法将用户分成不同的用户组
Figure BDA0003906871610000072
本发明用于用户分组的方法不局限于Louvain算法还可以是Kernighan-Lin、Newman and Girvan等图分割算法用于用户分组。
利用Louvain社区发现算法将用户分成不同的用户组,如图3所示,包括:
A、将D2D内容分享图
Figure BDA0003906871610000073
中的每个节点看成一个独立的社区;
B、依次把每个节点分配到其邻居节点所在社区,并计算分配前、后的模块度变化ΔQ,并记录ΔQ最大的那个邻居节点maxΔQ,如果maxΔQ>0,则把该节点分配ΔQ最大的那个邻居节点所在的社区,否则保持不变;ΔQ的计算公式如式(I)所示:
Figure BDA0003906871610000074
式(I)中,m=∑εu,v是D2D内容分享图
Figure BDA0003906871610000075
中所有边权重之和;Au;v=∑εu;v
Figure BDA0003906871610000076
是社区
Figure BDA0003906871610000077
内所有节点之间边权重之和;
Figure BDA0003906871610000078
表示社区
Figure BDA0003906871610000079
与其他社区之间连接边的权重之和;
Figure BDA00039068716100000710
是节点u移入到社区
Figure BDA00039068716100000711
中后所有节点之间边权重之和;a(u)是与节点u连接的所有边的权重之和;
C、重复步骤B,直到所有节点的所属社区不再变化;
D、将在同一个社区的节点压缩成一个新节点,社区内节点之间边权重转化为新节点的边权重,社区间的边权重转化为新节点间的边权重;
E、重复步骤A-D,直到整个D2D内容分享图
Figure BDA00039068716100000713
的模块度不再发生变化。
在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务,包括:
(3)在每个用户组中,首先,计算每个用户的中心度Bu,Bu的计算公式如式(II)所示:
Figure BDA00039068716100000712
式(II)中,Gi,j表示D2D内容分享图中所有用户间最短路径的链接数目,gi;j(u)是Gi,j中经过用户u的链接数目;
然后,根据不同用户设备的存储能力得到不同用户的缓存能力Su;缓存能力Su即用户手机等终端固有的存储空间大小;
最后,根据中心度Bu和缓存能力Su计算不同用户组内不同用户的重要程度Vu=γ×Bu+(1-γ)×Su,其中,γ是分配给中心度Bu和缓存能力Su的权值,取值在0到1之间;
(4)在不同用户组中,根据不同用户的重要程度Vu对用户进行排序,并挑选重要程度最高的用户作为每个用户组中的用户缓存节点;
(5)在选择缓存节点后,根据用户组中不同内容的流行度来选择热点内容在被选用户上缓存。
不同用户组中不同内容的流行度将通过深度学习模型进行预测,而本发明将采用注意力加权联邦学习框架来训练内容流行度深度学习预测模型即DL模型,包括:
(6)按一定比例选择用户终端参与内容流行度深度学习预测模型的训练过程,所选用户终端的多少由当前通信环境决定,当通信资源较空闲时,可选较多的用户终端参与联邦训练;用户终端被选择后,利用本地记录的用户历史内容请求数据来训练内容流行度深度学习预测模型;当内容流行度深度学习预测模型在不同用户终端训练完后,将被传输至基站进行模型聚合;整个过程如图4所示。
(7)在模型聚合过程中,基站根据用户的活跃度及终端计算能力,给不同用户终端的内容流行度深度学习预测模型即本地模型赋予不同的权重(如图5所示),权重的计算公式如式(III)、式(IV)所示:
Figure BDA0003906871610000081
Figure BDA0003906871610000082
式(III)、式(IV)中,
Figure BDA0003906871610000083
表示被选用户终端u在第r+1次联邦训练过程中的活跃度,
Figure BDA0003906871610000084
为被选终端u在时间窗[r-ρ;r]之间对不同内容请求数量;
Figure BDA0003906871610000085
表示表示被选用户终端u在第r+1次联邦训练过程中的计算能力,
Figure BDA0003906871610000086
表示所选终端u计算能力在第r+1次联邦过程中可以执行的本地训练次数,log()为对数计算,max{e}是本地训练最大次数的最大值;
权重计算完成后,对不同本地模型进行加权聚合,得到全局的内容流行度深度学习预测模型,加权聚合的公式如式(V)、式(VI)所示:
Figure BDA0003906871610000091
Figure BDA0003906871610000092
式(V)、式(VI)中,
Figure BDA0003906871610000093
Figure BDA0003906871610000094
是基站聚合后内容流行度深度学习预测模型的权重和偏置参数;
Figure BDA0003906871610000095
Figure BDA0003906871610000096
为被选用户终端u在本地训练后获得的本地模型权重和偏置参数;
Figure BDA0003906871610000097
Figure BDA0003906871610000098
为公式(III)、式(IV)计算得到的用户终端u训练的本地模型的权重。
当利用上述加权联邦框架训练好内容流行度深度学习预测模型后,步骤(4)中选择的缓存用户使用得到的内容流行度深度学习预测模型预测下一时刻用户对不同内容的偏好来缓存热点内容,包括:
(8)在不同用户组内,步骤(4)中选择的缓存用户将本地记录的前ρ个时间窗内对不同内容的请求数据
Figure BDA0003906871610000099
输入到训练好的内容流行度深度学习预测模型中,输出下一时刻用户对不同内容的偏好
Figure BDA00039068716100000910
随后根据预测结果计算不同内容在被选缓存用户中的缓存概率,计算过程如式(VII)所示:
Figure BDA00039068716100000911
式(VII)中,
Figure BDA00039068716100000912
表示内容f在下一时刻被缓存的概率,
Figure BDA00039068716100000913
为下一时刻用户对内容f的偏好,
Figure BDA00039068716100000914
为用户对所有内容偏好之和;
(9)当计算出不同内容在被选缓存用户中的缓存概率后,利用排序算法对缓存概率进行排序,并选择概率最高的前S(S为被选缓存用户的可以存储的内容数目)个内容在被选用户终端进行缓存,以实现降低网络传输时延的同时减少网络运营成本的目的。
本发明所选用的内容流行度深度学习预测模型为双向长短时记忆网络模型(Bidirectional Long Short-term Memory,BiLSTM),模型结构如图6所示。预测模型不局限于使用双向长短时记忆网络,卷积神经网络、图神经网络等深度学习网络模型均可以。
图7是本实施例基于加权联邦学习框架的内容流行度深度学习预测模型的性能分析图;其中,横坐标为不同的请求内容的索引,轴坐标为用户对不同内容的请求次数。图7中AWFL为所提基于加权联邦学习框架的内容流行度模型的预测值,Groud True为真实值,可以看出本发明AWFL方法可以精准地预测用户未来对不同内容的请求。本实施例所提出的加权联邦学习与双向长短时记忆网络结合方法,可以很好的拟合用户对不同内容的喜好程度。
图8(a)是本实施例所提基于社区发现和加权联邦学习的主动边缘缓存方法在不同缓存能力下时延性能分析图;其中,横坐标表示不同用户终端可缓存内容数量,纵坐标为内容下载时延,其中CAFLPC为本发明所提基于社区发现和加权联邦学习的主动边缘缓存方法;图8(a)可以证明所提CAFLPC方法在不同缓存能力下相较于其他方法均可以很好地降低内容下载时延且接近最优策略性能。
图8(b)是本实施例所提基于社区发现和加权联邦学习的主动边缘缓存方法在不同缓存能力下单位运营成本系统增益分析图。其中,横坐标表示不同用户终端可缓存内容数量,纵坐标为单位运营成本系统增益;图8(b)可以证明所提CAFLPC方法相较于其他方法在单位成本下可以减少更多的内容下载时延,即所提方法可达到降低网络传输时延的同时减少网络运营成本的目的。
实施例3
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现基于社区发现和加权联邦学习的主动边缘缓存方法的步骤。
实施例4
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现基于社区发现和加权联邦学习的主动边缘缓存方法的步骤。

Claims (10)

1.一种基于社区发现和加权联邦学习的主动边缘缓存方法,其特征在于,包括:
在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组;
在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务;
基于注意力加权联邦学习的内容流行度预测框架来训练DL模型,随后利用训练好的DL模型预测下一时刻用户的内容偏好以缓存热点内容在被选择用户上。
2.根据权利要求1所述的一种基于社区发现和加权联邦学习的主动边缘缓存方法,其特征在于,所述主动边缘缓存方法的运行系统包括一个基站、U个用户,其中,每个用户都具有内容存储能力且每个用户根据个人喜好从内容库
Figure FDA0003906871600000011
中请求内容。
3.根据权利要求1所述的一种基于社区发现和加权联邦学习的主动边缘缓存方法,其特征在于,在一个基站服务范围内,利用社区发现算法将用户聚成不同的用户组,包括:
(1)获得不同用户之间的物理距离,同时获取不同用户之间的社交关系;根据不同用户之间的物理距离与社交关系,构建D2D内容分享图
Figure FDA0003906871600000012
其中,
Figure FDA0003906871600000013
为用户节点,ε表示用户与用户之间是否建立D2D通信链路进行内容传输,当ε=1时表示建立D2D通信链路;即:当基站内用户u与用户v之间的物理距离小于通信距离阈值,且两用户间存在社交关系时,用户u与用户v建立D2D通信链路进行内容传输,此时εu;v=1;否则,εu,v=0;
(2)基于构建的D2D内容分享图
Figure FDA0003906871600000014
将用户分成不同的用户组
Figure FDA0003906871600000015
4.根据权利要求1所述的一种基于社区发现和加权联邦学习的主动边缘缓存方法,其特征在于,利用Louvain社区发现算法将用户分成不同的用户组,包括:
A、将D2D内容分享图
Figure FDA0003906871600000016
中的每个节点看成一个独立的社区;
B、依次把每个节点分配到其邻居节点所在社区,并计算分配前、后的模块度变化ΔQ,并记录ΔQ最大的那个邻居节点maxΔQ,如果maxΔQ>0,则把该节点分配ΔQ最大的那个邻居节点所在的社区,否则保持不变;ΔQ的计算公式如式(I)所示:
Figure FDA0003906871600000021
式(I)中,m=∑εu;v是D2D内容分享图
Figure FDA0003906871600000022
中所有边权重之和;
Figure FDA0003906871600000023
是社区
Figure FDA0003906871600000024
内所有节点之间边权重之和;
Figure FDA0003906871600000025
表示社区
Figure FDA0003906871600000026
与其他社区之间连接边的权重之和;
Figure FDA0003906871600000027
节点u移入到社区
Figure FDA0003906871600000028
中后所有节点之间边权重之和;a(u)是与节点u连接的所有边的权重之和;
C、重复步骤B,直到所有节点的所属社区不再变化;
D、将在同一个社区的节点压缩成一个新节点,社区内节点之间边权重转化为新节点的边权重,社区间的边权重转化为新节点间的边权重;
E、重复步骤A-D,直到整个D2D内容分享图
Figure FDA0003906871600000029
的模块度不再发生变化。
5.根据权利要求1所述的一种基于社区发现和加权联邦学习的主动边缘缓存方法,其特征在于,在每个用户组内选择最重要用户作为缓存节点来提供内容分发服务,包括:
(3)在每个用户组中,首先,计算每个用户的中心度Bu,Bu的计算公式如式(II)所示:
Figure FDA00039068716000000210
式(II)中,Gi,j表示D2D内容分享图中所有用户间最短路径的链接数目,gi,j(u)是Gi,j中经过用户u的链接数目;
然后,根据不同用户设备的存储能力得到不同用户的缓存能力Su
最后,根据中心度Bu和缓存能力Su计算不同用户组内不同用户的重要程度Vu=γ×Bu+(1-γ)×Su,其中,γ是分配给中心度Bu和缓存能力Su的权值,取值在0到1之间;
(4)在不同用户组中,根据不同用户的重要程度Vu对用户进行排序,并挑选重要程度最高的用户作为每个用户组中的用户缓存节点;
(5)在选择缓存节点后,根据用户组中不同内容的流行度来选择热点内容在被选用户上缓存。
6.根据权利要求1所述的一种基于社区发现和加权联邦学习的主动边缘缓存方法,其特征在于,采用注意力加权联邦学习框架来训练内容流行度深度学习预测模型即DL模型,包括:
(6)选择用户终端参与内容流行度深度学习预测模型的训练过程,利用本地记录的用户历史内容请求数据来训练内容流行度深度学习预测模型;当内容流行度深度学习预测模型在不同用户终端训练完后,将被传输至基站进行模型聚合;
(7)在模型聚合过程中,基站根据用户的活跃度及终端计算能力,给不同用户终端的内容流行度深度学习预测模型即本地模型赋予不同的权重,权重的计算公式如式(III)、式(IV)所示:
Figure FDA0003906871600000031
Figure FDA0003906871600000032
式(III)、式(IV)中,
Figure FDA0003906871600000033
表示被选用户终端u在第r+1次联邦训练过程中的活跃度,
Figure FDA0003906871600000034
为被选终端u在时间窗[r-ρ;r]之间对不同内容请求数量;
Figure FDA0003906871600000035
表示表示被选用户终端u在第r+1次联邦训练过程中的计算能力,
Figure FDA0003906871600000036
表示所选终端u计算能力在第r+1次联邦过程中可以执行的本地训练次数,log()为对数计算,max{e}是本地训练最大次数的最大值;
权重计算完成后,对不同本地模型进行加权聚合,得到全局的内容流行度深度学习预测模型,加权聚合的公式如式(V)、式(VI)所示:
Figure FDA0003906871600000037
Figure FDA0003906871600000038
式(V)、式(VI)中,
Figure FDA0003906871600000039
Figure FDA00039068716000000310
是基站聚合后内容流行度深度学习预测模型的权重和偏置参数;
Figure FDA00039068716000000311
Figure FDA00039068716000000312
为被选用户终端u在本地训练后获得的本地模型权重和偏置参数;
Figure FDA00039068716000000313
Figure FDA00039068716000000314
为公式(III)、式(IV)计算得到的用户终端u训练的本地模型的权重。
7.根据权利要求5所述的一种基于社区发现和加权联邦学习的主动边缘缓存方法,其特征在于,步骤(4)中选择的缓存用户使用得到的内容流行度深度学习预测模型预测下一时刻用户对不同内容的偏好来缓存热点内容,包括:
(8)在不同用户组内,步骤(4)中选择的缓存用户将本地记录的前ρ个时间窗内对不同内容的请求数据
Figure FDA0003906871600000041
输入到训练好的内容流行度深度学习预测模型中,输出下一时刻用户对不同内容的偏好
Figure FDA0003906871600000042
随后根据预测结果计算不同内容在被选缓存用户中的缓存概率,计算过程如式(VII)所示:
Figure FDA0003906871600000043
式(VII)中,
Figure FDA0003906871600000044
表示内容f在下一时刻被缓存的概率,
Figure FDA0003906871600000045
为下一时刻用户对内容f的偏好,
Figure FDA0003906871600000046
为用户对所有内容偏好之和;
(9)利用排序算法对缓存概率进行排序,并选择概率最高的前
Figure FDA0003906871600000047
个内容在被选用户终端进行缓存。
8.根据权利要求1-7任一所述的一种基于社区发现和加权联邦学习的主动边缘缓存方法,其特征在于,内容流行度深度学习预测模型为双向长短时记忆网络模型。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1-8任一所述基于社区发现和加权联邦学习的主动边缘缓存方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-8任一所述基于社区发现和加权联邦学习的主动边缘缓存方法的步骤。
CN202211310238.5A 2022-10-25 2022-10-25 一种基于社区发现和加权联邦学习的主动边缘缓存方法 Active CN115696296B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202211310238.5A CN115696296B (zh) 2022-10-25 2022-10-25 一种基于社区发现和加权联邦学习的主动边缘缓存方法
US18/327,574 US11943114B1 (en) 2022-10-25 2023-06-01 Active edge caching method based on community discovery and weighted federated learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211310238.5A CN115696296B (zh) 2022-10-25 2022-10-25 一种基于社区发现和加权联邦学习的主动边缘缓存方法

Publications (2)

Publication Number Publication Date
CN115696296A true CN115696296A (zh) 2023-02-03
CN115696296B CN115696296B (zh) 2023-07-07

Family

ID=85099619

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211310238.5A Active CN115696296B (zh) 2022-10-25 2022-10-25 一种基于社区发现和加权联邦学习的主动边缘缓存方法

Country Status (2)

Country Link
US (1) US11943114B1 (zh)
CN (1) CN115696296B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111865826A (zh) * 2020-07-02 2020-10-30 大连理工大学 一种基于联邦学习的主动内容缓存方法
CN113315978A (zh) * 2021-05-13 2021-08-27 江南大学 一种基于联邦学习的协作式在线视频边缘缓存方法
CN114205791A (zh) * 2021-12-13 2022-03-18 西安电子科技大学 一种基于深度q学习的社交感知d2d协同缓存方法
CN114595632A (zh) * 2022-03-07 2022-06-07 北京工业大学 一种基于联邦学习的移动边缘缓存优化方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3022708B1 (en) * 2013-07-19 2018-03-28 Opanga Networks, Inc. Content source discovery
US10298713B2 (en) * 2015-03-30 2019-05-21 Huawei Technologies Co., Ltd. Distributed content discovery for in-network caching
US20210144202A1 (en) * 2020-11-13 2021-05-13 Christian Maciocco Extended peer-to-peer (p2p) with edge networking

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111865826A (zh) * 2020-07-02 2020-10-30 大连理工大学 一种基于联邦学习的主动内容缓存方法
CN113315978A (zh) * 2021-05-13 2021-08-27 江南大学 一种基于联邦学习的协作式在线视频边缘缓存方法
CN114205791A (zh) * 2021-12-13 2022-03-18 西安电子科技大学 一种基于深度q学习的社交感知d2d协同缓存方法
CN114595632A (zh) * 2022-03-07 2022-06-07 北京工业大学 一种基于联邦学习的移动边缘缓存优化方法

Also Published As

Publication number Publication date
US11943114B1 (en) 2024-03-26
CN115696296B (zh) 2023-07-07

Similar Documents

Publication Publication Date Title
Zhou et al. When collaboration hugs intelligence: Content delivery over ultra-dense networks
CN111865826B (zh) 一种基于联邦学习的主动内容缓存方法
Yu et al. Privacy-preserving federated deep learning for cooperative hierarchical caching in fog computing
Sheraz et al. Artificial intelligence for wireless caching: Schemes, performance, and challenges
CN112020103A (zh) 一种移动边缘云中的内容缓存部署方法
CN108876646B (zh) 一种基于节点社交特性的d2d缓存方法
CN112540845B (zh) 一种基于移动边缘计算的协作系统及方法
CN111491331B (zh) 一种雾计算网络中基于迁移学习的网络感知自适应缓存方法
CN114553963B (zh) 移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法
Sun et al. Federated deep reinforcement learning for recommendation-enabled edge caching in mobile edge-cloud computing networks
Negara et al. Caching and machine learning integration methods on named data network: A survey
Jiang et al. Federated learning-based content popularity prediction in fog radio access networks
CN116455768A (zh) 面向全局时延优化的云边端协同cnn推理方法及系统
Li et al. CVC: A collaborative video caching framework based on federated learning at the edge
CN116321307A (zh) 一种无蜂窝网络中基于深度强化学习的双向缓存放置方法
Wu et al. Social-aware graph-based collaborative caching in edge-user networks
Wu et al. Data transmission scheme based on node model training and time division multiple access with IoT in opportunistic social networks
Ren et al. Incentivized social-aware proactive device caching with user preference prediction
CN116155991B (zh) 一种基于深度强化学习的边缘内容缓存与推荐方法及系统
Li et al. A novel cooperative cache policy for wireless networks
CN115696296B (zh) 一种基于社区发现和加权联邦学习的主动边缘缓存方法
CN115499876A (zh) Msde场景下基于dqn算法的计算卸载策略
Chakraborty et al. R2-d2d: A novel deep learning based content-caching framework for d2d networks
Yu Application of mobile edge computing technology in civil aviation express marketing
CN111901394A (zh) 一种联合考虑用户偏好及活跃程度的移动边缘缓存的方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant