CN115643176A - 社交车联网去中心化协作缓存方法 - Google Patents

社交车联网去中心化协作缓存方法 Download PDF

Info

Publication number
CN115643176A
CN115643176A CN202210169308.3A CN202210169308A CN115643176A CN 115643176 A CN115643176 A CN 115643176A CN 202210169308 A CN202210169308 A CN 202210169308A CN 115643176 A CN115643176 A CN 115643176A
Authority
CN
China
Prior art keywords
vehicle
road side
content
side unit
cache
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210169308.3A
Other languages
English (en)
Inventor
吴红海
樊奕铮
邢玲
马华红
郑国强
冀保峰
张高远
谢萍
金继冲
王白冰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan University of Science and Technology
Original Assignee
Henan University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Henan University of Science and Technology filed Critical Henan University of Science and Technology
Priority to CN202210169308.3A priority Critical patent/CN115643176A/zh
Publication of CN115643176A publication Critical patent/CN115643176A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种社交车联网去中心化协作缓存方法,将社交车联网中的路侧单元和智能车辆作为缓存节点,采用DQN模型来构建去中心化协作缓存模型,其中DQN模型的状态设置为缓存和请求状态,动作设置为内容请求处理动作,同时设计对应的奖励函数,通过联邦学习对缓存模型进行训练,然后每个车辆根据缓存模型确定当前的缓存策略。本发明将社交车联网中的路侧单元和智能车辆作为缓存节点,采用DQN模型来构建去中心化协作缓存模型,实现去中心化协作缓存,提高社交车联网的缓存能力。

Description

社交车联网去中心化协作缓存方法
技术领域
本发明属于社交车联网技术领域,更为具体地讲,涉及一种社交车联网去中心化协作缓存方法。
背景技术
近年来,随着车辆保有量的快速增长,车联网凭借其综合优势以及巨大的潜力成为了研究与开发的热点,物联网和人工智慧技术的普及为智慧交通系统的发展奠定了基础。同时,汽车行业的蓬勃发展不仅实现了车辆的自动驾驶,也促进了许多新兴的应用和服务,从用户自定义的车载娱乐信息到保证车辆安全的相关应用。这些应用和服务可能需要大量的计算、通信和存储资源,对服务响应延时和网络带宽有着比较严格的要求。智慧车辆配备的车载单元使车辆具有计算和存储能力,并且可以通过C-V2X、LTE-V或IEEE802.11p技术与路边基础设施、行人和其他车辆进行通信。因此,面对智慧车辆的涌现而产生的大规模数据对车联网的网络性能和车辆用户能耗的影响,日益增长的计算密集型和延迟敏感的车辆应用对智慧交通的迫切需求,如何提高社交车联网的缓存能力是其中一个重要方面。
发明内容
本发明的目的在于克服现有技术的不足,提供一种社交车联网去中心化协作缓存方法,将社交车联网中的路侧单元和智能车辆作为缓存节点,采用DQN模型来构建去中心化协作缓存模型,实现去中心化协作缓存,提高社交车联网的缓存能力。
为了实现上述发明目的,本发明社交车联网去中心化协作缓存方法包括以下步骤:
S1:构建DQN模型作为去中心化协作缓存模型,DQN模型的参数设置如下:
记社交车联网中路侧单元RSU的数量N,记第n个路侧单元为RSUn,n=1,2,…,N;获取社交车联网中车辆数量M,记第m个车辆为Vm,m=1,2,…,M;获取云数据中心的内容数量K,记第k个内容的数据大小为Fk,k=1,2,…,K;
DQN模型的状态设置为缓存和请求状态
Figure BDA0003516854900000021
其中
Figure BDA0003516854900000022
表示附近车辆在时隙t时的缓存状态,其中
Figure BDA0003516854900000023
表示时隙t时当前车辆附近范围内是否有车辆在本地已缓存第k个内容,
Figure BDA0003516854900000024
表示时隙t时当前车辆附近范围内有车辆在本地已缓存第k个内容,
Figure BDA0003516854900000025
表示时隙t时当前车辆附近范围内没有车辆在本地已缓存第k个内容,
Figure BDA0003516854900000026
表示路侧单元RSUn在时隙t时的缓存状态,
Figure BDA0003516854900000027
表示时隙t时路侧单元RSUn是否已缓存第k个内容,
Figure BDA0003516854900000028
表示路侧单元RSUn在时隙t时未缓存第k个内容,
Figure BDA0003516854900000029
表示路侧单元RSUn在时隙t时已缓存第k个内容;
Figure BDA00035168549000000210
表示当前车辆在时隙t时的请求状态,
Figure BDA00035168549000000211
表示当前车辆在时隙t时是否发起了第k个内容的请求,
Figure BDA00035168549000000212
表示已发起,
Figure BDA00035168549000000213
表示未发起,在Dt中,仅有一个
Figure BDA00035168549000000214
DQN模型的动作设置为内容请求处理动作At={At,sever,At,update},其中,
Figure BDA00035168549000000215
表示在时隙t时的服务节点选择动作,即当前车辆所在的路侧单元
Figure BDA00035168549000000216
决定由哪个节点处理当前车辆的内容请求,At,sever中最多仅有一个元素为1,其余元素为0,当
Figure BDA00035168549000000217
表示由当前车辆附近范围内的车辆处理当前车辆的内容请求,当
Figure BDA00035168549000000218
表示由路侧单元RSUn处理当前车辆的内容请求,当
Figure BDA00035168549000000219
表示由云数据中心处理当前车辆的内容请求;
Figure BDA00035168549000000220
表示当前车辆所在的路侧单元
Figure BDA00035168549000000221
的缓存更新动作,其中
Figure BDA00035168549000000222
表示路侧单元
Figure BDA00035168549000000223
中的第k个内容会被当前车辆所请求的内容替换,
Figure BDA00035168549000000224
表示路侧单元
Figure BDA00035168549000000225
中的第k个内容不进行改变,缓存更新时需要满足有限缓存容量限制;
DQN模型的奖励函数R(St,At)设置如下:
Figure BDA00035168549000000226
其中,Pt,k表示第k个内容的流行度,其表达式如下:
Figure BDA00035168549000000227
其中,
Figure BDA0003516854900000031
表示第t-1个时隙时所有车辆对第k个内容的请求次数;
dv表示当前车辆从其他缓存车辆获取内容的延迟,dc表示当前车辆从路侧单元
Figure BDA0003516854900000032
获取内容的延时,dr表示路侧单元之间的合作传输延时,dcd表示路侧单元和云数据中心之间的传输延时;ε1、ε2、ε3、ε4表示预设的权重,ε1234=1,0<ε1<ε2<<ε3<ε4
S2:将步骤S1构建的缓存模型布置到社交车联网的各个路侧单元,再由各个路侧单元下发至各个车辆;
S3:车辆根据本地数据对缓存模型进行训练,将训练好的缓存模型参数上报至对应的路侧单元;
S4:各个路侧单元为其覆盖范围内各个车辆设置权重,对各个车辆上报的缓存模型参数进行聚合,得到缓存模型的全局聚合参数;
S5:各个路侧单元判断去中心化协作缓存模型的全局聚合参数是否收敛,如果未收敛,进入步骤S6,否则去中心化协作缓存模型训练结束,进入步骤S7;
S6:路侧单元将当前的全局聚合参数下发至其覆盖范围内各个车辆,然后返回步骤S3;
S7:路侧单元将当前的全局聚合参数下发至其覆盖范围内各个车辆,每个车辆根据当前数据设置状态输入至去中心化协作缓存模型,将得到的动作作为当前车辆在本时隙的缓存策略。
本发明社交车联网去中心化协作缓存方法,将社交车联网中的路侧单元和智能车辆作为缓存节点,采用DQN模型来构建去中心化协作缓存模型,其中DQN模型的状态设置为缓存和请求状态,动作设置为内容请求处理动作,同时设计对应的奖励函数,通过联邦学习对缓存模型进行训练,然后每个车辆根据缓存模型确定当前的缓存策略。
本发明具有以下有益效果:
1)本发明针对社交车辆网络去中心化协同缓存所存在的问题,将缓存替换过程建模为马尔科夫决策过程,引入了内容流行度,使得模型更加合理;
2)本发明在DQN模型构建时考虑了各个设备之间的时延关系,确保车辆在请求内容时的处理设备可以在给定的时间限制内实现所需的数据交付比例;
3)基于联邦深度强化学习的协作缓存算法使车辆能够合作学习共享模型,保留原始数据在车辆本地,提升安全性和时效;
4)本发明可以有效降低平均内容访问延迟、提高内容请求成功率,通过协作缓存降低了整体的资源消耗。
附图说明
图1是本发明社交车联网去中心化协作缓存方法的具体实施方式流程图。
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
实施例
图1是本发明社交车联网去中心化协作缓存方法的具体实施方式流程图。
如图1所示,本发明社交车联网去中心化协作缓存方法的具体步骤包括:
S101:构建去中心化协作缓存模型:
本发明中,基于社交车联网中车辆间的社会关系,采用DQN(Deep Q Network)模型来构建去中心化协作缓存模型。首先获取社交车联网中的设备数据:获取社交车联网中路侧单元RSU的数量N,记第n个路侧单元为RSUn,n=1,2,…,N。获取社交车联网中车辆数量M,记第m个车辆为Vm,m=1,2,…,M。获取云数据中心的内容数量K,记第k个内容的数据大小为Fk,k=1,2,…,K。
接下来获取社交车联网中的延时数据,当前车辆从其他缓存车辆获取内容的延时dv,当前车辆从所属路侧单元RSUn*获取内容的延时dc,路侧单元之间的合作传输延时dr,路侧单元和云数据中心之间的传输延时dcd。其中,由于车辆是运动的,因此延时dv和延时dc是可变的,可以通过周期性的实时测试得到。本实施例中,为了使延时dv更加准确,通过车辆之间的接触概率确定延时dv,其具体方法为:
记和当前车辆同属一个路侧单元
Figure BDA0003516854900000041
的车辆集合为φ,首先统计获取路侧单元
Figure BDA0003516854900000042
覆盖范围内上一时隙(即第t-1个时隙)中车辆之间的接触概率
Figure BDA0003516854900000043
本实施例中接触概率
Figure BDA0003516854900000044
采用文献“Gao W,Li Q,Zhao B,et al.Social-Aware Multicast in Disruption-Tolerant Networks[J].IEEE/ACM Transactions on Networking,2012,20(5):1553-1566.”中的方法获取。当前车辆从其他缓存车辆获取内容的延时dv的计算公式如下:
Figure BDA0003516854900000051
其中,
Figure BDA0003516854900000052
表示车辆集合φ中车辆Vm′中是否缓存第k个内容的标识,
Figure BDA0003516854900000053
表示已缓存,
Figure BDA0003516854900000054
表示未缓存,
Figure BDA0003516854900000055
表示车辆集合φ中缓存了第k个内容的车辆数量,|φ|表示车辆集合φ中的车辆数量,r表示车辆之间的通信速率。
接下来需要构建内容流行度模型,现有的大多数研究中都假设车辆边缘网络中的内容流行度服从Zipf分布,然而这一假设不完全适用于车辆边缘网络中,因为智慧车辆的快速移动会不断的对不同的路边单元RSU请求服务,导致实际的内容访问热度也会不断的动态变化。因此本发明中定义了一个全局内容请求率,来构建更切实际的内容流行度模型:
Figure BDA0003516854900000056
其中,Pt,k表示第k个内容的流行度,t表示时隙,t=1,2,…,
Figure BDA0003516854900000057
表示第t-1个时隙时所有车辆对第k个内容的请求次数,t=1时
Figure BDA0003516854900000058
本发明中将每个车辆的缓存替换过程建模为马尔可夫决策过程,将DQN模型的状态设置为缓存和请求状态
Figure BDA0003516854900000059
其中
Figure BDA00035168549000000510
表示附近车辆在时隙t时的缓存状态,其中
Figure BDA00035168549000000511
表示时隙t时当前车辆附近范围内是否有车辆在本地已缓存第k个内容,
Figure BDA00035168549000000512
表示时隙t时当前车辆附近范围内有车辆在本地已缓存第k个内容,
Figure BDA00035168549000000513
表示时隙t时当前车辆附近范围内没有车辆在本地已缓存第k个内容,附近范围的具体参数可以根据实际情况进行设置,例如以当前车辆为圆心、半径为预设值的圆形区域。
Figure BDA00035168549000000514
表示路侧单元RSUn在时隙t时的缓存状态,
Figure BDA00035168549000000515
表示时隙t时路侧单元RSUn是否已缓存第k个内容,
Figure BDA00035168549000000516
表示路侧单元RSUn在时隙t时未缓存第k个内容,
Figure BDA00035168549000000517
表示路侧单元RSUn在时隙t时已缓存第k个内容。
Figure BDA00035168549000000518
表示当前车辆在时隙t时的请求状态,
Figure BDA00035168549000000519
表示当前车辆在时隙t时是否发起了第k个内容的请求,
Figure BDA00035168549000000520
表示已发起,
Figure BDA00035168549000000521
表示未发起,在Dt中,仅有一个
Figure BDA00035168549000000522
即在1个时隙中车辆只能对一个内容发起缓存请求。
为了适应动态环境中的持续变化,本发明设置,路侧单元可以选择替换哪些内容,并决定在哪里处理请求,即可以决定内容请求是由协同车辆、本地路侧单元RSU、协同路侧RSU或云数据中心中的哪个设备进行处理。因此,本发明中将DQN模型的动作设置为内容请求处理动作At={At,sever,At,update},其中,
Figure BDA0003516854900000061
表示在时隙t时的服务节点选择动作,即当前车辆所在的路侧单元
Figure BDA0003516854900000062
决定由哪个节点处理当前车辆的内容请求,At,sever中最多仅有一个元素为1,其余元素为0,即一个车辆的请求最多只能由一个设备进行处理,当
Figure BDA0003516854900000063
表示由当前车辆附近范围内的车辆处理当前车辆的内容请求,当
Figure BDA0003516854900000064
表示由路侧单元RSUn处理当前车辆的内容请求,当
Figure BDA0003516854900000065
表示由云数据中心处理当前车辆的内容请求。当n=n*,即表示由本地路侧单元处理,当n≠n*,即表示由协作路侧单元处理。由于路侧单元RSU的存储能力有限,无法避免缓存容量满载的问题。因此,当前路侧单元
Figure BDA0003516854900000066
处理车辆的请求时,需要考虑本地是否已缓存车辆请求内容,没有缓存则需要选择已缓存的某个内容替换为车辆请求的内容。因此,本发明设置动作
Figure BDA0003516854900000067
表示当前车辆所在的路侧单元
Figure BDA0003516854900000068
的缓存更新动作,其中
Figure BDA0003516854900000069
表示路侧单元
Figure BDA00035168549000000610
中的第k个内容会被当前车辆所请求的内容替换,
Figure BDA00035168549000000611
表示路侧单元
Figure BDA00035168549000000612
中的第k个内容不进行改变,缓存更新时需要满足有限缓存容量限制。
就奖励函数而言,本发明中使用负指数分布的概率密度函数对系统奖励函数进行归一化,奖励函数R(St,At)的表达式如下:
Figure BDA00035168549000000613
其中,e表示自然常数,ε1、ε2、ε3、ε4表示预设的权重,ε1234=1,0<ε1<ε2<<ε3<ε4
S102:缓存模型布置:
将步骤S101构建的缓存模型布置到社交车联网的各个路侧单元,再由各个路侧单元下发至各个车辆。
S103:缓存模型本地训练:
车辆根据本地数据对缓存模型进行训练,将训练好的缓存模型参数上报至对应的路侧单元。
车辆进行本地训练时的损失函数可以根据需要自行设置,本实施例中采用梯度下降算法进行缓存模型的参数更新。DQN模型是一种常用的学习模型,其具体训练过程在此不再赘述。
S104:缓存模型参数聚合:
各个路侧单元为其覆盖范围内各个车辆设置权重,对各个车辆上报的缓存模型参数进行聚合,得到缓存模型的全局聚合参数。
本实施例中,为了使得全局聚合参数更加合理有效,权重采用注意力机制获取,具体方法如下:
各个车辆Vm在上报缓存模型参数的同时一并上报其在本轮训练缓存模型时评价指标,包括平均奖励
Figure BDA0003516854900000071
平均损失
Figure BDA0003516854900000072
车辆自身资源Um、内容请求成功率Hm,车辆自身资源Um是一个向量,包含若干预设资源项的值。路侧单元将各个车辆的评价指标向量
Figure BDA0003516854900000073
作为注意力机制中的键项,将对应缓存模型的参数作为注意力机制中的值项,将查询项定义为
Figure BDA0003516854900000074
然后将车辆Vm对应的注意力权值ωm作为模型参数聚合时的权重,注意力权值ωm的表达式如下:
Figure BDA0003516854900000075
其中d表示评价指标向量的维度,softmax()为归一化指数函数。
采用注意力机制来确定各个车辆的权重,可以兼顾各个车辆的实际情况,保证不同车辆间的公平性,使得全局模型参数更加合理有效,提高收敛速度。
S105:各个路侧单元判断去中心化协作缓存模型的全局聚合参数是否收敛,如果未收敛,进入步骤S106,否则去中心化协作缓存模型训练结束,进入步骤S107;
S106:全局聚合参数下发:
路侧单元将当前的全局聚合参数下发至其覆盖范围内各个车辆,然后返回步骤S103。
S107:确定缓存策略:
路侧单元将当前的全局聚合参数下发至其覆盖范围内各个车辆,每个车辆根据当前数据设置状态输入至去中心化协作缓存模型,将得到的动作作为当前车辆在本时隙的缓存策略。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (3)

1.一种社交车联网去中心化协作缓存方法,其特征在于,包括以下步骤:
S1:构建DQN模型作为去中心化协作缓存模型,DQN模型的参数设置如下:
记社交车联网中路侧单元RSU的数量N,记第n个路侧单元为RSUn,n=1,2,…,N;获取社交车联网中车辆数量M,记第m个车辆为Vm,m=1,2,…,M;获取云数据中心的内容数量K,记第k个内容的数据大小为Fk,k=1,2,…,K;
DQN模型的状态设置为缓存和请求状态
Figure FDA0003516854890000011
其中
Figure FDA0003516854890000012
表示附近车辆在时隙t时的缓存状态,其中
Figure FDA0003516854890000013
表示时隙t时当前车辆附近范围内是否有车辆在本地已缓存第k个内容,
Figure FDA0003516854890000014
表示时隙t时当前车辆附近范围内有车辆在本地已缓存第k个内容,
Figure FDA0003516854890000015
表示时隙t时当前车辆附近范围内没有车辆在本地已缓存第k个内容,
Figure FDA0003516854890000016
表示路侧单元RSUn在时隙t时的缓存状态,
Figure FDA0003516854890000017
表示时隙t时路侧单元RSUn是否已缓存第k个内容,
Figure FDA0003516854890000018
表示路侧单元RSUn在时隙t时未缓存第k个内容,
Figure FDA0003516854890000019
表示路侧单元RSUn在时隙t时已缓存第k个内容;
Figure FDA00035168548900000110
表示当前车辆在时隙t时的请求状态,
Figure FDA00035168548900000111
表示当前车辆在时隙t时是否发起了第k个内容的请求,
Figure FDA00035168548900000112
表示已发起,
Figure FDA00035168548900000113
表示未发起,在Dt中,仅有一个
Figure FDA00035168548900000114
DQN模型的动作设置为内容请求处理动作At={At,sever,At,update},其中,
Figure FDA00035168548900000115
表示在时隙t时的服务节点选择动作,即当前车辆所在的路侧单元
Figure FDA00035168548900000122
决定由哪个节点处理当前车辆的内容请求,At,sever中最多仅有一个元素为1,其余元素为0,当
Figure FDA00035168548900000116
表示由当前车辆附近范围内的车辆处理当前车辆的内容请求,当
Figure FDA00035168548900000117
表示由路侧单元RSUn处理当前车辆的内容请求,当
Figure FDA00035168548900000118
表示由云数据中心处理当前车辆的内容请求;
Figure FDA00035168548900000119
表示当前车辆所在的路侧单元
Figure FDA00035168548900000123
的缓存更新动作,其中
Figure FDA00035168548900000120
表示路侧单元
Figure FDA00035168548900000124
中的第k个内容会被当前车辆所请求的内容替换,
Figure FDA00035168548900000121
表示路侧单元
Figure FDA00035168548900000125
中的第k个内容不进行改变,缓存更新时需要满足有限缓存容量限制;
DQN模型的奖励函数R(St,At)设置如下:
Figure FDA0003516854890000021
其中,Pt,k表示第k个内容的流行度,其表达式如下:
Figure FDA0003516854890000022
其中,
Figure FDA0003516854890000023
表示第t-1个时隙时所有车辆对第k个内容的请求次数;
dv表示当前车辆从其他缓存车辆获取内容的延迟,dc表示当前车辆从路侧单元RSUn*获取内容的延时,dr表示路侧单元之间的合作传输延时,dcd表示路侧单元和云数据中心之间的传输延时;ε1、ε2、ε3、ε4表示预设的权重,ε1234=1,0<ε1<ε2<<ε3<ε4
S2:将步骤S1构建的缓存模型布置到社交车联网的各个路侧单元,再由各个路侧单元下发至各个车辆;
S3:车辆根据本地数据对缓存模型进行训练,将训练好的缓存模型参数上报至对应的路侧单元;
S4:各个路侧单元为其覆盖范围内各个车辆设置权重,对各个车辆上报的缓存模型参数进行聚合,得到缓存模型的全局聚合参数;
S5:各个路侧单元判断去中心化协作缓存模型的全局聚合参数是否收敛,如果未收敛,进入步骤S6,否则去中心化协作缓存模型训练结束,进入步骤S7;
S6:路侧单元将当前的全局聚合参数下发至其覆盖范围内各个车辆,然后返回步骤S3;
S7:路侧单元将当前的全局聚合参数下发至其覆盖范围内各个车辆,每个车辆根据当前数据设置状态输入至去中心化协作缓存模型,将得到的动作作为当前车辆在本时隙的缓存策略。
2.根据权利要求1所述的去中心化协作缓存方法,其特征在于,所述步骤S1中当前车辆从其他缓存车辆获取内容的延迟dv采用如下方法确定:
和当前车辆同属一个路侧单元
Figure FDA0003516854890000026
的车辆集合为φ,首先统计获取路侧单元
Figure FDA0003516854890000025
覆盖范围内上一时隙中车辆之间的接触概率
Figure FDA0003516854890000024
采用如下公式计算得到延迟dv
Figure FDA0003516854890000031
其中,
Figure FDA0003516854890000032
表示车辆集合φ中车辆Vm′中是否缓存第k个内容的标识,
Figure FDA0003516854890000033
表示已缓存,
Figure FDA0003516854890000034
表示未缓存,
Figure FDA0003516854890000035
表示车辆集合φ中缓存了第k个内容的车辆数量,|φ|表示车辆集合φ中的车辆数量,r表示车辆之间的通信速率。
3.根据权利要求1所述的去中心化协作缓存方法,其特征在于,所述步骤S4中权重采用注意力机制确定,具体方法如下:
各个车辆Vm在上报缓存模型参数的同时一并上报其在本轮训练缓存模型时评价指标,包括平均奖励
Figure FDA0003516854890000036
平均损失
Figure FDA0003516854890000037
车辆自身资源Um、内容请求成功率Hm,车辆自身资源Um是一个向量,包含若干预设资源项的值;路侧单元将接收到的各个车辆的评价指标向量
Figure FDA0003516854890000038
作为注意力机制中的键项,将对应缓存模型的参数作为注意力机制中的值项,将查询项定义为
Figure FDA0003516854890000039
然后将车辆Vm对应的注意力权值ωm作为模型参数聚合时的权重,注意力权值ωm的表达式如下:
Figure FDA00035168548900000310
其中d表示评价指标向量的维度,softmax()为归一化指数函数。
CN202210169308.3A 2022-02-23 2022-02-23 社交车联网去中心化协作缓存方法 Pending CN115643176A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210169308.3A CN115643176A (zh) 2022-02-23 2022-02-23 社交车联网去中心化协作缓存方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210169308.3A CN115643176A (zh) 2022-02-23 2022-02-23 社交车联网去中心化协作缓存方法

Publications (1)

Publication Number Publication Date
CN115643176A true CN115643176A (zh) 2023-01-24

Family

ID=84939936

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210169308.3A Pending CN115643176A (zh) 2022-02-23 2022-02-23 社交车联网去中心化协作缓存方法

Country Status (1)

Country Link
CN (1) CN115643176A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117979259A (zh) * 2024-04-01 2024-05-03 华东交通大学 一种移动边缘协作缓存的异步联邦深度学习方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117979259A (zh) * 2024-04-01 2024-05-03 华东交通大学 一种移动边缘协作缓存的异步联邦深度学习方法及系统

Similar Documents

Publication Publication Date Title
CN113094982B (zh) 一种基于多智能体深度强化学习的车联网边缘缓存方法
CN112995950B (zh) 一种车联网中基于深度强化学习的资源联合分配方法
CN113055488B (zh) 多层联邦深度强化学习的车辆边缘协作缓存方法及系统
Zhang et al. Computing resource allocation scheme of IOV using deep reinforcement learning in edge computing environment
CN113905354B (zh) 一种基于区域内容流行度的车载网络内容传递方法及系统
CN112565377B (zh) 车联网中一种面向用户服务体验的内容分级优化缓存方法
CN113158544B (zh) 车载内容中心网络下基于联邦学习的边缘预缓存策略
CN114374741B (zh) Mec环境下基于强化学习的动态分组车联网缓存方法
CN115297170A (zh) 一种基于异步联邦和深度强化学习的协作边缘缓存方法
CN115297171A (zh) 一种蜂窝车联网分级决策的边缘计算卸载方法及系统
CN114374949B (zh) 一种车联网中基于信息新鲜度优化的功率控制机制
Xing et al. Deep reinforcement learning for cooperative edge caching in vehicular networks
CN112203258A (zh) 一种高速公路自由流状态下的车联网缓存部署方法
CN116782296A (zh) 一种基于数字孪生的车联网边缘计算卸载多目标决策方法
Ouyang Task offloading algorithm of vehicle edge computing environment based on Dueling-DQN
Ge et al. Interference aware service migration in vehicular fog computing
Li et al. Collaborative optimization of edge-cloud computation offloading in internet of vehicles
Jiang et al. Asynchronous federated and reinforcement learning for mobility-aware edge caching in IoVs
US20230156262A1 (en) Content delivery method and system through in-vehicle nrtwork based on regional content popularity
CN114979145B (zh) 一种车联网中集成感知、通信与缓存的内容分发方法
CN115643176A (zh) 社交车联网去中心化协作缓存方法
Lyu et al. Service-driven resource management in vehicular networks based on deep reinforcement learning
CN116017348A (zh) 一种基于5g通信的大数据云计算实时分发运维系统及方法
Wu et al. Social-Aware Decentralized Cooperative Caching for Internet of Vehicles
Huo et al. Cooperative caching scheme based on Hawkes popularity prediction in vehicular networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination