CN115686868B - 一种基于联邦哈希学习的面向跨节点多模态检索方法 - Google Patents
一种基于联邦哈希学习的面向跨节点多模态检索方法 Download PDFInfo
- Publication number
- CN115686868B CN115686868B CN202211692053.5A CN202211692053A CN115686868B CN 115686868 B CN115686868 B CN 115686868B CN 202211692053 A CN202211692053 A CN 202211692053A CN 115686868 B CN115686868 B CN 115686868B
- Authority
- CN
- China
- Prior art keywords
- data
- edge node
- hash
- cloud center
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于联邦哈希学习的面向跨节点多模态检索方法,通过云中心服务器向各边缘节点下发深度哈希模型,并接收各边缘节点训练模型后上传的模型参数,再由云中心服务器对参数进行融合更新后,再下发到各边缘节点继续循环训练直至得到最终模型。训练完成后,云中心服务器根据待检索数据来基于最终模型生成待检索哈希码,然后计算待检索哈希码与存储的哈希码之间的汉明距离,再以距离最小的哈希码对应的原始数据位置信息来提供原始数据检索结果,本发明通过将联邦学习运用到哈希的检索方法中,可以实现多边缘节点数据跨模态的高效检索。
Description
技术领域
本发明涉及大数据计算领域,具体涉及一种基于联邦哈希学习的面向跨节点多模态检索方法。
背景技术
在大数据时代下,社交媒体中不同模态数据的呈现爆炸式的增长趋势,用户不再满足于单一模态数据间的相似性检索,而更多的关注于跨模态数据间相互检索,如以文搜图、以图搜文等。
哈希的检索方法作为一种近似最近邻的检索方法,因其对大规模数据具有存储消耗低、检索速度快等优点,已被广泛用于图像检索、视频检索、跨模态检索等领域。传统的哈希学习方法随着使用过程中数据量呈指数形式的增长态势,会带来高额的传输消耗、巨大的中心计算负载压力和边缘节点日益增长的复杂计算模型,同时企业、学校或者政府部门都拥有各自的“小数据”,因其具备潜在价值,无法直接共享,使得数据孤岛日益严重。在数据孤岛、计算能力和法律条例的约束下,实现数据互联互通、资源共享和社会总体数据价值的充分利用成为现代信息处理领域新难题。而联邦学习作为数据隐私保护的重要解决方法,可以在“数据可用不可见”的情况下进行数据联合训练、联合更新,建立高效且合法的分布式机器学习模型,但边缘节点感知的数据通常包括众多模态类型,不同模态的数据之间的异构性和语义鸿沟,使得难以进行跨模态检索和建立统一的训练模型,此外在原始数据不可访问的前提下,不同边缘节点无法通过传递模型参数来互相利用其它边缘节点蕴含的数据潜在知识;目前主流的联邦学习架构中,缺乏对复杂异构数据的有效建模方法,如何利用多模态数据中蕴含的潜在依赖关系,使得不同边缘节点数据表征和知识进行融合交互,提高计算和检索性能,仍然是当前分布式联邦学习研究的一大难题。
发明内容
为了解决目前不同边缘节点存在数据异构、维度不同、多粒度等复杂特性,导致无法建立一个统一模型的技术问题。本发明提供一种将联邦学习运用到哈希的检索方法中,从而实现跨多个边缘节点数据的多模态高效检索的方法。
为了实现上述目的,本发明的技术方案是:
一种基于联邦哈希学习的面向跨节点多模态检索方法,包括:
步骤一,云中心服务器向各边缘节点下发初始化的深度哈希模型;
步骤二,云中心服务器收集各边缘节点训练一次深度哈希模型后更新的深度哈希模型参数,并对其中倒数第二层的全连接参数进行融合更新,从而获得一个统一的云中心全局参数;然后云中心服务器将云中心全局参数下发至各边缘节点来更新深度哈希模型参数,并继续循环以上过程直至达到训练停止条件,云中心服务器将最终的云中心全局参数下发至各边缘节点进行最终更新;其中各边缘节点是基于各自的更新目标函数来对深度哈希模型进行训练;
步骤三,云中心服务器接收各边缘节点所生成的哈希码以及对应的原始数据位置信息,并进行存储;其中哈希码是由各边缘节点基于最终更新后的深度哈希模型生成的;
步骤四,云中心服务器根据待检索数据,基于最终的云中心全局参数来以深度哈希模型生成待检索哈希码,然后计算待检索哈希码与存储的哈希码之间的汉明距离,然后以距离最小的哈希码对应的原始数据位置信息来提供原始数据检索结果。
所述的方法,所述的步骤二中,云中心全局参数是通过下式获取:
其中
O t 表示云中心全局参数,
M表示选择参与联邦学习的边缘节点,
t表示第
t轮参数更新,表示第
m个边缘节点的深度哈希模型第
t轮更新的倒数第二层全连接参数,表示第
m个边缘节点的倒数第二层全连接参数对云中心全局参数的贡献度。
所述的方法,的取值范围为0-1之间,通过下式获取:
其中
n m 为第
m个节点样本数量,
l m 为第
m个边缘节点中数据的类别总数。
所述的方法,所述的步骤二中,云中心服务器将云中心全局参数下发至各边缘节点来更新深度哈希模型参数时,各边缘节点是基于以下方式来进行更新:
,
其中为模型的初始训练后参数,为更新速率参数。
所述的方法,所述的步骤二中,更新目标函数为:
其中
L为更新目标函数,
L 1为映射函数,
L 2为数据相似度函数,
L 3为不变特性函数,和为平衡参数。
所述的方法,映射函数
L 1为:
其中表示第
k个边缘节点的数据表征矩阵,,
i={1,2,3,...,
c},表示第
k个边缘节点中第
i种模态的第
j个数据的表征矩阵,
c表示边缘节点中每个数据的模态总数;
n k 表示第
k个边缘节点中的数据数量;Y k 表示第
k个边缘节点中数据的标签信息,,,
l k 表示第
k个边缘节点数据的类别总数;
V为映射参数,
F为Frobenius范数。
所述的方法,数据相似度函数L2为:
,
其中,,,
S ij 表示第
i个样本和第
j个样本间是否存在共同标签,
S ij =1表示二个样本存在共同标签,
S ij =0表示二个样本不存在共同标签。
所述的方法,不变特性函数L3为:
,
其中
U i 表示第
i种不同数据模态的数据表征矩阵,
U j 表示第
j种不同数据模态的数据表征矩阵,
n k 表示第
k个边缘节点中的数据数量,
F为Frobenius范数。
所述的方法,所述的步骤二中,训练停止条件为深度哈希模型收敛或达到预设的训练次数。
所述的方法,所述的步骤四中,待检索哈希码与存储的哈希码之间的汉明距离,是以待检索哈希码与云中心存储的哈希码进行异或计算获得的;以距离最小的哈希码对应的原始数据位置信息来提供原始数据检索结果,是根据汉明距离对哈希码进行排序,获得距离最小的多个哈希码,根据哈希码对应的原始数据位置信息返回多条原始数据。
本发明的技术效果在于,可以充分利用优势边缘节点(数据量大或样本类别多)潜在的丰富知识,实现多边缘节点跨模态数据的高效检索。并通过建立全局公共子空间减少了通信开销,同时保证了边缘节点的数据隐私。
附图说明
图1为本发明实施例的架构示意图;其中①表示云中心服务器下发模型;②表示边缘节点本地模型训练;③表示云中心全局模型参数聚合;④表示边缘节点模型参数更新。
图2为本发明实施例的流程框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1、图2。首先,在本实施例中,将
K个边缘节点定义为,对应边缘节点的数据定义为,其中,表示第
k个边缘节点含有
n k 个样本数,每一个数据含有
c个模态。标签信息定义为,其中,
l k 表示第
k个边缘节点数据的类别总数。
然后基于以下步骤实现基于联邦哈希学习的面向跨节点多模态检索方法:
S1.云中心服务器向各边缘节点下发初始化的深度哈希模型。
云中心服务器初始化深度哈希模型,然后向
M K 下发深度哈希模型。
S2.云中心服务器收集各边缘节点训练一次深度哈希模型后更新的深度哈希模型参数。
其中边缘节点的训练包括:
对于第
k个边缘节点哈希模型,设计
c个模态表征编码器分别对应
c种不同的数据模态。通过表征编码器生成的数据表征矩阵定义为:
,
i={1,2,3,...,
c},
其中表示第
i种模态的第
j个数据的表征矩阵。
然后对于边缘节点训练时所采用的更新目标函数来说:
首先,作为不同模态数据都存在一个公共的语义空间,即标签语义空间中,换言之,通过映射函数将不同模态数据表征映射到标签语义信息,
其中表示第
k个边缘节点的数据表征矩阵,,
i={1,2,3,...,
c},表示第
k个边缘节点中第
i种模态的第
j个数据的表征矩阵,
c表示边缘节点中每个数据的模态总数。
n k 表示第
k个边缘节点中的数据数量。Y k 表示第
k个边缘节点中数据的标签信息,,,
l k 表示第
k个边缘节点数据的类别总数。
V为映射参数,
F为Frobenius范数。其中映射参数
V是根据实际情况计算获取,即取目标函数L最小,神经网络会随机一个初始值,然后进行迭代优化,最后确定这个映射参数。
其次,不同模态的相似数据样本对距离应该更近,而不同模态的不相似样本对距离应该更远,通过对相似度信息保证这一规则,即,
其中,,,
S ij 表示第
i个样本和第
j个样本间是否存在共同标签,
S ij =1表示二个样本存在共同标签,
S ij =0表示二个样本不存在共同标签。
最后,不同模态数据存在模态内不变特性,即,
其中
U i 表示第
i种不同数据模态的数据表征矩阵,
U j 表示第
j种不同数据模态的数据表征矩阵,
n k 表示第k个边缘节点中的数据数量,
F为Frobenius范数。
综上可得,边缘节点参数的更新目标函数为,
L= L 1+ L 2+ L 3
其中,和为平衡参数,通过实验来确定最优取值。
S3. 云中心服务器基于从各边缘节点收集的不同深度哈希模型参数,对其中倒数第二层的全连接参数进行融合更新,从而获得一个统一的云中心全局参数。
为避免模型训练过程中模型参数进行更新和分发导致大量通信开销,本实施例是利用每个边缘节点模型计算后的跨模态数据子空间进行知识转移和参数更新。其中云中心服务器收集每个边缘节点深度哈希模型的倒数第二层融合特征(看作是公共子空间),然后利用全部边缘节点的公共子空间生成一个具有全局一致性的潜在公共子空间,这里的公共子空间可以看作是将不同模态的数据从各自的特征空间映射到同一个子空间。本实施例中,数据是存放在各个客户端的,不直接传输数据,所以在云端需要构建所有客户端数据统一即具有全局一致性的公共子空间,而潜在指的是数据的潜在特征。
,
其中
O t 表示云中心全局参数,
M表示选择参与联邦学习的边缘节点,
t表示第
t轮参数更新,表示第
m个边缘节点的深度哈希模型第
t轮更新的倒数第二层全连接参数,表示第
m个边缘节点的公共子空间对全局公共子空间的贡献度。
本实施例所采用的贡献度,是考虑到由于边缘节点的参数贡献度对应整个模型的性能影响至关重要,但某个边缘节点的样本数或总类别数越多,那么其对于聚合参数的贡献度越大,因此边缘节点参数贡献度应该与边缘节点的样本数及类别总数成正比关系。同时还为了平滑贡献度值,防止出现“赢者通吃”效应,本实施例将贡献度限制在(0,1)之间,即,
,
其中
n m 为第
m个节点样本数量,
l m 为第
m个边缘节点中数据的类别总数。
S4. 云中心服务器将云中心全局参数下发至各边缘节点来更新深度哈希模型参数。
在各边缘节点进行参数更新时,本实施例中基于残差网络的参数训练思想,提出一个残差参数平滑过程,从而利用边缘节点本地的参数增强全局参数对边缘节点本地模型的稳定性与鲁棒性。具体是:各边缘节点首先记录模型的初始训练后参数。然后每个边缘节点模型上传第t轮更新的参数至云中心服务器,在云中心服务器在下发云中心全局参数
O t 后,各边缘节点的模型参数通过以下策略进行更新,
,
其中为更新速率参数。
S5. 重复S2-S4直到模型收敛或达到预设迭代次数,云中心服务器将最终的云中心全局参数下发至各边缘节点进行最终更新。
重复上述的各边缘节点训练本地深度哈希模型、云中心服务器收集并融合更新云中心全局参数、更新各边缘节点深度哈希模型参数的步骤,直到模型收敛或达到预设迭代次数。最终目的是在云中心服务器生成一个基于最终的云中心全局参数的全局统一的深度哈希模型,然后云中心服务器再将最终的云中心全局参数发送至各边缘节点,各边缘节点更新后得到各边缘节点相对统一的深度哈希模型。
S6. 云中心服务器接收各边缘节点所生成的哈希码以及对应的原始数据位置信息,并进行存储。
在完成S5后,各边缘节点的私有数据通过训练完成的深度哈希模型,生成二进制哈希码,再将二进制哈希码上传至云中心,云中心存储这些二进制哈希码以及对应的原始数据位置信息,成为一个数据索引库。其中哈希码用来计算汉明距离,原始数据位置信息用来获取原始数据。原始数据位置信息包括原始数据来自于哪个边缘节点(可以用边缘节点IP来表示),以及原始数据在数据库中的ID,来定位到每一条哈希码和对应的原始数据。
所有的哈希码产生都是由最后训练完成的深度哈希模型生成的。因为目的是做检索,要保证全局的一致,不能让各个节点持有个性化的参数。
S7. 跨节点多模态检索。
云中心服务器根据待检索数据,基于最终的云中心全局参数来以深度哈希模型生成待检索哈希码,然后计算待检索哈希码与存储的哈希码之间的汉明距离,然后以距离最小的哈希码对应的原始数据位置信息来提供原始数据检索结果。即将待检索哈希码与云中心存储的哈希码进行异或计算,得到哈希码的汉明距离,根据汉明距离对哈希码进行排序,获得距离最小的若干哈希码,也即与待检索数据最接近的对应数据,最后根据哈希码对应的原始数据位置信息返回若干条原始数据。
本发明可以应用于云服务中心来与各种具有不同类型数据存储的边缘节点进行检索的情况,比如说,各政府部门拥有大规模的跨网络、跨模态数据,由于数据安全和隐私保护的原因,不能将全部的数据直接进行共享。因此,需要对多源异构数据的语义特征进行提取,建立面向大规模多源数据隐私安全的多模态检索方法,以满足可疑行人识别、可疑车辆追踪、突发事件预判等大规模多源数据分析需求。
以上所述仅为本发明的优选实施例,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于联邦哈希学习的面向跨节点多模态检索方法,其特征在于,包括:
步骤一,云中心服务器向各边缘节点下发初始化的深度哈希模型;
步骤二,云中心服务器收集各边缘节点训练一次深度哈希模型后更新的深度哈希模型参数,并对其中倒数第二层的全连接参数进行融合更新,从而获得一个统一的云中心全局参数;然后云中心服务器将云中心全局参数下发至各边缘节点来更新深度哈希模型参数,并继续循环以上过程直至达到训练停止条件,云中心服务器将最终的云中心全局参数下发至各边缘节点进行最终更新;其中各边缘节点是基于各自的更新目标函数来对深度哈希模型进行训练;
步骤三,云中心服务器接收各边缘节点所生成的哈希码以及对应的原始数据位置信息,并进行存储;其中哈希码是由各边缘节点基于最终更新后的深度哈希模型生成的;
步骤四,云中心服务器根据待检索数据,基于最终的云中心全局参数来以深度哈希模型生成待检索哈希码,然后计算待检索哈希码与存储的哈希码之间的汉明距离,然后以距离最小的哈希码对应的原始数据位置信息来提供原始数据检索结果;
所述的步骤二中,云中心全局参数是通过下式获取:
4.根据权利要求1所述的方法,其特征在于,所述的步骤二中,更新目标函数为:
L=L1+αL2+βL3
其中L为更新目标函数,L1为映射函数,L2为数据相似度函数,L3为不变特性函数,α和β为平衡参数。
8.根据权利要求1所述的方法,其特征在于,所述的步骤二中,训练停止条件为深度哈希模型收敛或达到预设的训练次数。
9.根据权利要求1所述的方法,其特征在于,所述的步骤四中,待检索哈希码与存储的哈希码之间的汉明距离,是以待检索哈希码与云中心存储的哈希码进行异或计算获得的;以距离最小的哈希码对应的原始数据位置信息来提供原始数据检索结果,是根据汉明距离对哈希码进行排序,获得距离最小的多个哈希码,根据哈希码对应的原始数据位置信息返回多条原始数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211692053.5A CN115686868B (zh) | 2022-12-28 | 2022-12-28 | 一种基于联邦哈希学习的面向跨节点多模态检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211692053.5A CN115686868B (zh) | 2022-12-28 | 2022-12-28 | 一种基于联邦哈希学习的面向跨节点多模态检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115686868A CN115686868A (zh) | 2023-02-03 |
CN115686868B true CN115686868B (zh) | 2023-04-07 |
Family
ID=85055305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211692053.5A Active CN115686868B (zh) | 2022-12-28 | 2022-12-28 | 一种基于联邦哈希学习的面向跨节点多模态检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115686868B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115829028B (zh) * | 2023-02-14 | 2023-04-18 | 电子科技大学 | 一种多模态联邦学习任务处理方法及系统 |
CN116244484B (zh) * | 2023-05-11 | 2023-08-08 | 山东大学 | 一种面向不平衡数据的联邦跨模态检索方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107885764A (zh) * | 2017-09-21 | 2018-04-06 | 银江股份有限公司 | 基于多任务深度学习快速哈希车辆检索方法 |
WO2022104540A1 (zh) * | 2020-11-17 | 2022-05-27 | 深圳大学 | 一种跨模态哈希检索方法、终端设备及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109376256B (zh) * | 2018-09-29 | 2021-03-26 | 京东方科技集团股份有限公司 | 图像搜索方法及装置 |
CN110188223B (zh) * | 2019-06-06 | 2022-10-04 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及计算机设备 |
CN113159095B (zh) * | 2021-01-30 | 2024-04-30 | 华为技术有限公司 | 一种训练模型的方法、图像检索的方法以及装置 |
CN112925940B (zh) * | 2021-03-04 | 2022-07-01 | 浙江中设天合科技有限公司 | 一种相似图像检索方法、装置、计算机设备及存储介质 |
CN115168336A (zh) * | 2022-05-13 | 2022-10-11 | 清华大学 | 一种基于多个客户端的跨机构哈希检索方法及装置 |
-
2022
- 2022-12-28 CN CN202211692053.5A patent/CN115686868B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107885764A (zh) * | 2017-09-21 | 2018-04-06 | 银江股份有限公司 | 基于多任务深度学习快速哈希车辆检索方法 |
WO2022104540A1 (zh) * | 2020-11-17 | 2022-05-27 | 深圳大学 | 一种跨模态哈希检索方法、终端设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN115686868A (zh) | 2023-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115686868B (zh) | 一种基于联邦哈希学习的面向跨节点多模态检索方法 | |
CN109299284B (zh) | 一种基于结构信息与文本描述的知识图谱表示学习方法 | |
CN113177132B (zh) | 基于联合语义矩阵的深度跨模态哈希的图像检索方法 | |
CN112861967B (zh) | 基于异构图神经网络的社交网络异常用户检测方法及设备 | |
CN111881350B (zh) | 一种基于混合图结构化建模的推荐方法与系统 | |
CN113095439A (zh) | 基于注意力机制的异构图嵌入学习方法 | |
CN112016601B (zh) | 基于知识图谱增强小样本视觉分类的网络模型构建方法 | |
WO2022120997A1 (zh) | 一种分布式slam系统及其学习方法 | |
WO2023071626A1 (zh) | 一种联邦学习方法、装置、设备、存储介质及产品 | |
CN110390352A (zh) | 一种基于相似性哈希的图像暗数据价值评估方法 | |
CN113191530B (zh) | 一种具有隐私保护的区块链节点可靠性预测方法及系统 | |
CN113313170A (zh) | 基于人工智能的全时全域训练大数据平台 | |
CN113886598A (zh) | 一种基于联邦学习的知识图谱表示方法 | |
Bharti et al. | Clustering‐based resource discovery on Internet‐of‐Things | |
CN115757857A (zh) | 一种水下三维跨模态联合检索方法、存储介质和电子设备 | |
CN115761408A (zh) | 一种基于知识蒸馏的联邦域适应方法及系统 | |
CN113228059A (zh) | 面向跨网络的表示学习算法 | |
WO2020147259A1 (zh) | 一种用户画像方法、装置、可读存储介质及终端设备 | |
CN113946871A (zh) | 隐私保护数据记录集成方法、系统和计算机可读存储介质 | |
CN104090885A (zh) | 一种基于局部拷贝检测的多视角视频对象检索系统及方法 | |
CN107741943B (zh) | 一种结合实体图像的知识表示学习方法及服务器 | |
CN115204436A (zh) | 检测业务指标异常原因的方法、装置、设备及介质 | |
CN116958624A (zh) | 指定材质的识别方法、装置、设备、介质及程序产品 | |
CN113297500B (zh) | 一种社交网络孤立节点链接预测方法 | |
CN115600642A (zh) | 一种面向流媒体基于邻居信任聚合的去中心化联邦学习方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |