CN117938957A - 基于联邦深度学习的边缘缓存优化方法 - Google Patents

基于联邦深度学习的边缘缓存优化方法 Download PDF

Info

Publication number
CN117938957A
CN117938957A CN202410333477.5A CN202410333477A CN117938957A CN 117938957 A CN117938957 A CN 117938957A CN 202410333477 A CN202410333477 A CN 202410333477A CN 117938957 A CN117938957 A CN 117938957A
Authority
CN
China
Prior art keywords
text
picture
federal
vector
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410333477.5A
Other languages
English (en)
Other versions
CN117938957B (zh
Inventor
冯为嘉
左心宇
田怡
张偌嘉
朱逸宸
樊越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jingwei Technology Tianjin Co ltd
Original Assignee
Jingwei Technology Tianjin Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jingwei Technology Tianjin Co ltd filed Critical Jingwei Technology Tianjin Co ltd
Priority to CN202410333477.5A priority Critical patent/CN117938957B/zh
Publication of CN117938957A publication Critical patent/CN117938957A/zh
Application granted granted Critical
Publication of CN117938957B publication Critical patent/CN117938957B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

本发明提供了一种基于联邦深度学习的边缘缓存优化方法,涉及深度强化学习算法,包括:本地缓存服务器接收基站发送的深度强化学习模型参数进行模型更新,以便本地深度强化学习模型与基站和云服务器共同进行多轮次的联邦深度强化训练,期间,本地缓存服务器接收终端设备的请求内容,计算请求内容的模态度得分,以便基站收集并上传模态度得分和通过多轮次训练后得到的深度学习网络模型参数至云服务器;云服务器根据模态度得分计算每一个本地缓存服务器的聚合权重;云服务器根据聚合权重进行内容的缓存分配。本发明通过对多模态数据进行特征融合,进而进行边缘缓存,减少网络资源消耗。

Description

基于联邦深度学习的边缘缓存优化方法
技术领域
本发明涉及深度强化学习算法技术领域,具体而言,涉及一种基于联邦深度学习的边缘缓存优化方法。
背景技术
在现代计算机系统技术环境中,联邦学习和深度强化学习在处理大规模分布式数据时发挥着重要作用。联邦学习,作为一种分布式机器学习方法,允许多个设备共同训练一个模型,同时保证数据的本地化处理和数据隐私的保护。深度强化学习,结合了深度学习的特征提取能力和强化学习的决策优化能力,是解决复杂决策问题的关键技术。边缘缓存是一种新兴的技术,是一种分布式网络框架,其中数据和应用服务提供商将服务器的处理能力转移到尽可能靠近最终用户的地方,旨在通过在网络边缘存储内容来减轻中心服务器的负载和降低延迟,这在需要快速响应和大量数据交换的场景中尤其重要。在实现本发明的过程中,申请人发现:传统的边缘缓存机制局限于为同构内容类型设计缓存算法,主要关注单模态数据,忽略了对多种模态数据处理的现实需求,无法对其进行有效处理,这些传统策略无法充分捕捉多模态数据的细微差别,导致性能和用户体验不理想。
发明内容
本发明旨在至少解决现有技术或相关技术中存在的技术问题之一,公开了一种基于联邦深度学习的边缘缓存优化方法,通过多模态数据特征融合,进行边缘缓存,减少网络资源消耗。
本发明的第一方面公开了一种基于联邦深度学习的边缘缓存优化方法,包括:本地缓存服务器接收基站发送的深度强化学习模型参数进行模型更新,以便本地深度强化学习模型与所述基站和云服务器共同进行多轮次的联邦深度强化训练,期间,本地缓存服务器接收终端设备的请求内容,计算请求内容的模态度得分,以便基站收集并上传模态度得分和通过多轮次训练后得到的深度学习网络模型参数至云服务器;云服务器根据模态度得分计算每一个本地缓存服务器的聚合权重;云服务器根据聚合权重进行内容的缓存分配;其中,计算请求内容的模态度得分的步骤具体包括:接收请求内容,请求内容为多模态数据,至少包括图片数据和文本数据;根据多模态数据生成嵌入向量;通过快速卷积模型对输入的多个文本向量和图片向量进行一维最大池化卷积,分别得到图片张量和文本张量;将图片张量数据和文本张量数据输入至神经网络模型,以获取图片特征和文本特征;将文本向量和图片向量通过一个与LeakyReLU耦合的共享全连接层投射到同一语义空间内,得到图片向量的对齐表示以及文本向量的对齐表示;根据图片向量的对齐表示以及文本向量的对齐表示得到变分后验的表示,之后通过学习Kullback-Leibler散度来计算歧义评分,将平均Kullback-Leibler散度作为不同模态的模态度评分;通过计算文本对图片的交互向量以及图片对文本的交互向量,最终将单模态特征和多模态特征在模态度的引导下自适应链接,以形成模态度得分。
在该技术方案中,对多模态数据进行多模态融合从而形成模态度得分,进而指导服务器的缓存分配策略。多模态数据融合主要包括如下步骤:模态对齐:利用LeakyReLU把不同模态下的特征嵌入表达到一个统一的语义空间中;模态融合:利用Kullback-Leibler(KL)散度进行相似度度量,然后从系统的角度进行求和平均,最终利用平均KL散度求得系统内任意内容的模态度得分。具体地,模态对齐是通过使用LeakyReLU激活函数来实现的,该函数用于将不同模态的特征嵌入和表达到统一的语义空间中。这种嵌入过程可确保特征(无论其原始模态如何)以保留其语义意义的方式表示,同时促进模态间兼容性。对齐后,利用KL散度进行模态融合,以定量评估对齐特征之间的相似性。融合过程涉及通过求和与平均对特征进行系统聚合,特别关注系统的整体视角。此过程的最终结果是计算平均KL散度,从而得出系统内任何给定内容的模态度得分。
根据本发明公开的基于联邦深度学习的边缘缓存优化方法,优选地,生成嵌入向量的步骤,具体包括:采用Google发布的BERT模型以及ResNet模型对多模态数据进行处理,以获取嵌入向量。
根据本发明公开的基于联邦深度学习的边缘缓存优化方法,优选地,还包括:基站将深度强化学习模型参数传递给本地缓存服务器后,本地缓存服务器使用收到的参数对自身的深度强化学习模型和数据进行训练,然后进行联邦学习对终端设备的深度强化学习模型和基站内的深度强化学习模型进行升级。
根据本发明公开的基于联邦深度学习的边缘缓存优化方法,优选地,联邦深度强化训练基于FedAvg联邦学习算法进行训练。
根据本发明公开的基于联邦深度学习的边缘缓存优化方法,优选地,深度强化学习模型为DQN深度强化学习模型。
根据本发明公开的基于联邦深度学习的边缘缓存优化方法,优选地,终端设备为用户设备,包括可穿戴设备、手机、平板电脑和个人计算机。
本发明的有益效果至少包括:通过本发明可以在边缘缓存场景中,应用多模态特征融合结合联邦深度强化学习提供了一个高度先进和有效的解决方案。通过多模态特征融合,系统能够综合不同类型的数据(如图像、音频、文本等),从而获得更丰富、更准确的环境理解和用户行为预测。联邦学习确保这些数据在本地处理,保护用户隐私,而深度强化学习则用于优化边缘缓存策略,如智能决定哪些数据应被缓存或移除,以提高缓存效率和降低访问延迟。这种集成方法使得边缘缓存系统不仅更加智能和响应迅速,同时也对用户数据的隐私性和系统的整体安全性更加敏感和尊重。
附图说明
图1示出了根据本发明的一个实施例的基于联邦深度学习的边缘缓存优化方法的流程示意图。
图2示出了根据本发明的一个实施例的基于联邦深度学习的边缘缓存优化方法的多模态数据融合的具体实施方式示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明并不限于下面公开的具体实施例的限制。
如图1所示,根据本发明的一个实施例,公开了一种基于联邦深度学习的边缘缓存优化方法,包括:S101,模型更新:本地缓存服务器接收基站发送的深度强化学习模型参数进行本地模型更新;S102,基于联邦学习算法进行网络模型训练并计算和上传多模态数据的模态度得分:本地深度强化学习模型与基站和云服务器共同进行多轮次的联邦深度强化训练,期间,本地缓存服务器接收终端设备的请求内容,计算请求内容的模态度得分,以便基站收集并上传模态度得分和通过多轮次训练后得到的深度学习网络模型参数至云服务器,其中,计算请求内容的模态度得分的步骤具体包括:接收请求内容,请求内容为多模态数据,至少包括图片数据和文本数据;根据多模态数据生成嵌入向量;通过快速卷积模型对输入的多个文本向量和图片向量进行一维最大池化卷积,分别得到图片张量和文本张量;将图片张量数据和文本张量数据输入至神经网络模型,以获取图片特征和文本特征;将文本向量和图片向量通过一个与LeakyReLU耦合的共享全连接层投射到同一语义空间内,得到图片向量的对齐表示以及文本向量的对齐表示;根据图片向量的对齐表示以及文本向量的对齐表示得到变分后验的表示,之后通过学习Kullback-Leibler散度来计算歧义评分,将平均Kullback-Leibler散度作为不同模态的模态度评分;通过计算文本对图片的交互向量以及图片对文本的交互向量,最终将单模态特征和多模态特征在模态度的引导下自适应链接,以形成模态度得分;S103,计算本地缓存服务器的聚合权重:云服务器根据模态度得分计算每一个本地缓存服务器的聚合权重;S104,缓存分配:云服务器根据聚合权重进行内容的缓存分配。
在该实施例中,对多模态数据进行多模态融合从而形成模态度得分,进而指导服务器的缓存分配策略。多模态数据融合主要包括如下步骤:模态对齐:利用LeakyReLU把不同模态下的特征嵌入表达到一个统一的语义空间中;模态融合:利用Kullback-Leibler(KL)散度进行相似度度量,然后从系统的角度进行求和平均,最终利用平均KL散度求得系统内任意内容的模态度得分。具体地,模态对齐是通过使用LeakyReLU激活函数来实现的,该函数用于将不同模态的特征嵌入和表达到统一的语义空间中。这种嵌入过程可确保特征(无论其原始模态如何)以保留其语义意义的方式表示,同时促进模态间兼容性。对齐后,利用KL散度进行模态融合,以定量评估对齐特征之间的相似性。融合过程涉及通过求和与平均对特征进行系统聚合,特别关注系统的整体视角。此过程的最终结果是计算平均KL散度,从而得出系统内任何给定内容的模态度得分。
根据上述实施例,优选地,对多模态数据进行特征融合以形成模态度得分的过程具体包括:
I,对于输入的多个文本向量和图片向量,首先通过一个激活函数为ReLU函数的 FastCNN快速卷积模型,对其进行一维最大池化卷积,分别得到图片和文本的tensor张量
II,将步骤I得到的Tensor张量喂给一个激活函数为ReLU的神经网络,通过该神经网络分别得到图片特征和文本特征。
III,将文本向量和图片向量通过一个与LeakyReLU耦合的共享全连接层投射到同一语义空间内,得到图片向量和文本向量的对齐表示。
IV,对对齐文本和图片表示,先得到变分后验的表示,然后通过学习Kullback-Leibler(KL)散度来计算歧义评分。之后将平均KL散度作为不同模态的模糊性评分。
V,通过计算分别得到文本对图片的交互向量和图片对文本的交互向量,最终将单模态和多模态特征在模态度的引导下自适应链接。
步骤III中的共享全连接层计算图片向量和文本向量的对齐表示的公式为:
其中,为对齐后的表示,为对齐后的特征 维度,为共享层的可学习参数。
步骤IV中的变分后验的计算公式为:
其中,µ为均值,为方差。
KL散度的计算公式为:
其中,表示KL散度计算,平均KL散度被用作不同模态的不确定性评分
步骤V中的计算文本-图片交互向量的计算公式为:
其中,⊕表示向量的连接,softmax为归一化激活函数,[·]T表示矩阵转置,⊗表示外积,W2∈R1×de,b2∈R1×de为可学习参数。
步骤V中的单模态和多模态特征的自适应连接的计算公式为:
根据上述实施例,优选地,步骤S102中生成嵌入向量的步骤具体包括:采用Google发布的BERT模型以及ResNet模型对多模态数据进行处理,以获取嵌入向量。
根据上述实施例,优选地,步骤S102所进行的深度学习训练遵循Action-Value函 数。其计算公式如下:
但是由于连续的动作空间无法直接获得,我们应用深度神经网络对其进 行近似,并通过使用存储在回放内存缓冲区中的历史经验来更新参数。这样,可以得到
因此,Q函数的迭代公式可以表示为:
其中,α∈[0,1)是引入的参数,是评估网络的参数,为目标网络的参数。利用 两个网络来减少行动选择和模型训练之间的相关性。我们采用梯度下降(GD)方法来更新参 数。梯度下降公式如下:
其中,的小批量数据;
然后就可以得到我们的参数更新公式:
其中,为学习率。
根据上述实施例,优选地,步骤S103中,聚合权重的计算公式为:
其中,为时间t中基站的缓存内容,为衡量本地基站中缓存内容的多模态得 分的引入参数。
根据上述实施例,优选地,还包括:基站将深度强化学习模型参数传递给本地缓存服务器后,本地缓存服务器使用收到的参数对自身的深度强化学习模型和数据进行训练,然后进行联邦学习对终端设备的深度强化学习模型和基站内的深度强化学习模型进行升级。
根据上述实施例,优选地,联邦深度强化训练基于FedAvg联邦学习算法进行训练。
根据上述实施例,优选地,深度强化学习模型为DQN深度强化学习模型。
根据上述实施例,优选地,终端设备为用户设备,包括手机、平板电脑和个人计算机。
如图2所示,根据本发明的又一个实施例公开了多模态特征模态度融合过程的具体实施情况:数据输入模块1是各种用户设备,如平板电脑、手机等。数据处理模块2是采用的Google发布的BERT模型和ResNet系列模型。编码模块3具有两个耦合了ReLU激活函数的卷积神经网络,分别对图片和文本进行编码。其中文本编码的输入为128维,输出为128维。图片编码的输入为512维,输出为128维。单模态特征提取模块4具有两个耦合了ReLU激活函数的卷积神经网络,分别提取得到图片和文本的特征向量,输入均为128维,输出均为16维。多模态数据相似性模块5为两个耦合了ReLU激活函数的卷积神经网络模块。输入均为128维,输出均为64维。多模态跨模态相似性模块6中具有三个操作:PyTorch中的softmax函数实例,自适应最大池化操作和耦合了ReLU激活函数的神经网络模块。模态度学习模块7通过计算文本样本和图片样本间的KL散度以及他们的平均散度来得到文本和图片间的模态度度量。多模态特征模态度融合模块8利用模态度学习模块7得到的模态度度量,对文本特征、图片特征以及相似性模块6得到的相似性进行加权表示,组成文本、图像和相关特征的最终级联特征表示。
多模态数据的特征融合方法包括如下步骤:
S1,数据输入模块1收集数据,如图片、文本等;
S2,将收集到的图片、文本通过数据处理模块2来分别得到图片和文本的嵌入向量;
S3,将步骤S2中得到的嵌入向量作为全连接层的输入,通过编码模块3得到嵌入向量的编码;
S4,将步骤S3得到的编码输入到单模态特征提取模块4中,得到图片和文本的特征向量;
S5,将步骤S2得到的嵌入向量输入到多模态数据相似性模块5中去,得到图片和文本之间的相似性;
S6,将步骤S5得到的相似性输入到多模态跨模态相关性模块6中,得到文本和图像间的跨模态相关性;
S7,将步骤S6中的跨模态相关性输入到模态度学习模块7中,得到文本和图像之间的模态度;
S8,将步骤S7得到的模态度输入到多模态特征模态度融合模块8,得到多模态特征模态度融合矩阵。
根据本发明的又一个实施例还公开了联邦深度学习算法的实施过程,包括:基站将联邦深度强化学习模型发送给本地缓存服务器:当本地缓存服务器收到基站发送的联邦深度强化学习模型后,用户设备会对自己的深度强化学习模型与基站和本地缓存服务器进行多轮次的联邦深度强化训练;用户设备输入请求内容;本地多模态特征模态度融合模块在收到用户设备的请求内容后,会对该请求内容进行处理,得到用户设备的请求内容的模态度得分(即上述实施例的多模态数据的特征融合的结果);基站收集模态度得分,同时会将模态度得分和通过多轮次训练后得到的深度学习网络模型参数一并发送给云服务器;云服务器在收到基站发送的相关信息后,云服务器会根据训练评估指标来计算每个本地缓存服务器的权重;云服务器根据权重,分别将不同的内容发送给对应权重最高的本地缓存服务器。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于联邦深度学习的边缘缓存优化方法,其特征在于,包括:
本地缓存服务器接收基站发送的深度强化学习模型参数进行模型更新,以便本地深度强化学习模型与所述基站和云服务器共同进行多轮次的联邦深度强化训练,期间,所述本地缓存服务器接收终端设备的请求内容,计算所述请求内容的模态度得分,以便所述基站收集并上传所述模态度得分和通过多轮次训练后得到的深度学习网络模型参数至所述云服务器;
所述云服务器根据所述模态度得分计算每一个本地缓存服务器的聚合权重;
所述云服务器根据所述聚合权重进行内容的缓存分配;
其中,计算所述请求内容的模态度得分的步骤具体包括:
接收请求内容,所述请求内容为多模态数据,至少包括图片数据和文本数据;
根据所述多模态数据生成嵌入向量;
通过快速卷积模型对输入的多个文本向量和图片向量进行一维最大池化卷积,分别得到图片张量和文本张量;
将图片张量数据和文本张量数据输入至神经网络模型,以获取图片特征和文本特征;
将文本向量和图片向量通过一个与LeakyReLU耦合的共享全连接层投射到同一语义空间内,得到图片向量的对齐表示以及文本向量的对齐表示;
根据所述图片向量的对齐表示以及所述文本向量的对齐表示得到变分后验的表示,之后通过学习Kullback-Leibler散度来计算歧义评分,将平均Kullback-Leibler散度作为不同模态的模态度评分;
通过计算文本对图片的交互向量以及图片对文本的交互向量,最终将单模态特征和多模态特征在模态度的引导下自适应链接,以形成所述模态度得分。
2.根据权利要求1所述的基于联邦深度学习的边缘缓存优化方法,其特征在于,生成所述嵌入向量的步骤,具体包括:
采用Google发布的BERT模型以及ResNet模型对所述多模态数据进行处理,以获取所述嵌入向量。
3.根据权利要求1所述的基于联邦深度学习的边缘缓存优化方法,其特征在于,还包括:所述基站将深度强化学习模型参数传递给所述本地缓存服务器后,所述本地缓存服务器使用收到的参数对自身的深度强化学习模型和数据进行训练,然后进行联邦学习对终端设备的深度强化学习模型和基站内的深度强化学习模型进行升级。
4.根据权利要求1所述的基于联邦深度学习的边缘缓存优化方法,其特征在于,所述联邦深度强化训练基于FedAvg联邦学习算法进行训练。
5.根据权利要求1所述的基于联邦深度学习的边缘缓存优化方法,其特征在于,所述深度强化学习模型为DQN深度强化学习模型。
6.根据权利要求1所述的基于联邦深度学习的边缘缓存优化方法,其特征在于,所述终端设备为用户设备,包括穿戴式设备、手机、平板电脑和个人计算机。
CN202410333477.5A 2024-03-22 2024-03-22 基于联邦深度学习的边缘缓存优化方法 Active CN117938957B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410333477.5A CN117938957B (zh) 2024-03-22 2024-03-22 基于联邦深度学习的边缘缓存优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410333477.5A CN117938957B (zh) 2024-03-22 2024-03-22 基于联邦深度学习的边缘缓存优化方法

Publications (2)

Publication Number Publication Date
CN117938957A true CN117938957A (zh) 2024-04-26
CN117938957B CN117938957B (zh) 2024-06-14

Family

ID=90752395

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410333477.5A Active CN117938957B (zh) 2024-03-22 2024-03-22 基于联邦深度学习的边缘缓存优化方法

Country Status (1)

Country Link
CN (1) CN117938957B (zh)

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200372369A1 (en) * 2019-05-22 2020-11-26 Royal Bank Of Canada System and method for machine learning architecture for partially-observed multimodal data
CN113055488A (zh) * 2021-03-23 2021-06-29 重庆邮电大学 多层联邦深度强化学习的车辆边缘协作缓存方法及系统
CN113642700A (zh) * 2021-07-05 2021-11-12 湖南师范大学 基于联邦学习和边缘计算的跨平台多模态舆情分析方法
CN114564882A (zh) * 2022-01-29 2022-05-31 内蒙古工业大学 基于离散事件的边缘深度学习模拟器的构建与应用
CN115376031A (zh) * 2022-10-24 2022-11-22 江西省科学院能源研究所 基于联邦自适应学习的公路无人机巡检数据处理方法
CN115454608A (zh) * 2022-09-28 2022-12-09 广州大学 基于权值散度和更新增量的联邦学习客户端调度方法
CN115731441A (zh) * 2022-11-29 2023-03-03 浙江大学 基于数据跨模态迁移学习的目标检测和姿态估计方法
CN116362345A (zh) * 2023-02-20 2023-06-30 江南大学 基于多智能体强化学习和联邦学习的边缘缓存方法及系统
CN116562365A (zh) * 2023-04-30 2023-08-08 天津大学 面向隐私保护的深度量化联邦学习方法
WO2023168824A1 (zh) * 2022-03-07 2023-09-14 北京工业大学 一种基于联邦学习的移动边缘缓存优化方法
CN116843016A (zh) * 2023-05-22 2023-10-03 重庆大学 一种移动边缘计算网络下基于强化学习的联邦学习方法、系统及介质
CN117151616A (zh) * 2023-07-20 2023-12-01 重庆移通学院 一种基于联邦学习的高校精准资助系统及方法
CN117499484A (zh) * 2023-10-30 2024-02-02 重庆邮电大学 一种基于深度强化学习的边缘缓存替换方法
CN117540106A (zh) * 2024-01-09 2024-02-09 湖南工商大学 一种多模态数据隐私保护的社交活动推荐方法及设备
CN117669699A (zh) * 2023-11-28 2024-03-08 山东大学 一种工业物联网场景下面向数字孪生的语义信息联邦学习方法及系统

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200372369A1 (en) * 2019-05-22 2020-11-26 Royal Bank Of Canada System and method for machine learning architecture for partially-observed multimodal data
CN113055488A (zh) * 2021-03-23 2021-06-29 重庆邮电大学 多层联邦深度强化学习的车辆边缘协作缓存方法及系统
CN113642700A (zh) * 2021-07-05 2021-11-12 湖南师范大学 基于联邦学习和边缘计算的跨平台多模态舆情分析方法
CN114564882A (zh) * 2022-01-29 2022-05-31 内蒙古工业大学 基于离散事件的边缘深度学习模拟器的构建与应用
WO2023168824A1 (zh) * 2022-03-07 2023-09-14 北京工业大学 一种基于联邦学习的移动边缘缓存优化方法
CN115454608A (zh) * 2022-09-28 2022-12-09 广州大学 基于权值散度和更新增量的联邦学习客户端调度方法
CN115376031A (zh) * 2022-10-24 2022-11-22 江西省科学院能源研究所 基于联邦自适应学习的公路无人机巡检数据处理方法
CN115731441A (zh) * 2022-11-29 2023-03-03 浙江大学 基于数据跨模态迁移学习的目标检测和姿态估计方法
CN116362345A (zh) * 2023-02-20 2023-06-30 江南大学 基于多智能体强化学习和联邦学习的边缘缓存方法及系统
CN116562365A (zh) * 2023-04-30 2023-08-08 天津大学 面向隐私保护的深度量化联邦学习方法
CN116843016A (zh) * 2023-05-22 2023-10-03 重庆大学 一种移动边缘计算网络下基于强化学习的联邦学习方法、系统及介质
CN117151616A (zh) * 2023-07-20 2023-12-01 重庆移通学院 一种基于联邦学习的高校精准资助系统及方法
CN117499484A (zh) * 2023-10-30 2024-02-02 重庆邮电大学 一种基于深度强化学习的边缘缓存替换方法
CN117669699A (zh) * 2023-11-28 2024-03-08 山东大学 一种工业物联网场景下面向数字孪生的语义信息联邦学习方法及系统
CN117540106A (zh) * 2024-01-09 2024-02-09 湖南工商大学 一种多模态数据隐私保护的社交活动推荐方法及设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘志成;韩溢文;沈仕浩;宋金铎;王晓飞;: "边缘计算和深度学习之间的交融", 自动化博览, no. 02, 15 February 2020 (2020-02-15) *
宋旭鸣;沈逸飞;石远明;: "基于深度学习的智能移动边缘网络缓存", 中国科学院大学学报, no. 01, 15 January 2020 (2020-01-15) *

Also Published As

Publication number Publication date
CN117938957B (zh) 2024-06-14

Similar Documents

Publication Publication Date Title
CN110119467B (zh) 一种基于会话的项目推荐方法、装置、设备及存储介质
Zhang et al. PSAC: Proactive sequence-aware content caching via deep learning at the network edge
CN111368993B (zh) 一种数据处理方法及相关设备
Wang et al. Data-augmentation-based cellular traffic prediction in edge-computing-enabled smart city
CN111324774A (zh) 一种视频去重方法和装置
CN111339818B (zh) 一种人脸多属性识别系统
CN110110045B (zh) 一种检索相似文本的方法、装置以及存储介质
CN111709398A (zh) 一种图像识别的方法、图像识别模型的训练方法及装置
CN112395979A (zh) 基于图像的健康状态识别方法、装置、设备及存储介质
WO2024041479A1 (zh) 一种数据处理方法及其装置
CN114550053A (zh) 一种交通事故定责方法、装置、计算机设备及存储介质
CN112232889A (zh) 一种用户兴趣画像扩展方法、装置、设备及存储介质
KR20190083127A (ko) 단말 클러스터 내 이미지를 이용하여 컨볼루션 뉴럴 네트워크 모델을 학습시키기 위한 시스템 및 방법
WO2021169366A1 (zh) 数据增强方法和装置
CN114580794B (zh) 数据处理方法、装置、程序产品、计算机设备和介质
CN110717405B (zh) 人脸特征点定位方法、装置、介质及电子设备
CN110991279B (zh) 文档图像分析与识别方法及系统
CN115510186A (zh) 基于意图识别的即时问答方法、装置、设备及存储介质
CN113128526B (zh) 图像识别方法、装置、电子设备和计算机可读存储介质
HajiAkhondi-Meybodi et al. Vit-cat: Parallel vision transformers with cross attention fusion for popularity prediction in mec networks
He et al. On-device deep multi-task inference via multi-task zipping
CN113791909A (zh) 服务器容量调整方法、装置、计算机设备及存储介质
CN116186295B (zh) 基于注意力的知识图谱链接预测方法、装置、设备及介质
CN117938957B (zh) 基于联邦深度学习的边缘缓存优化方法
CN112434746A (zh) 基于层次化迁移学习的预标注方法及其相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant