CN116127340B - 联邦谱聚类方法、装置及电子设备 - Google Patents

联邦谱聚类方法、装置及电子设备 Download PDF

Info

Publication number
CN116127340B
CN116127340B CN202211733988.3A CN202211733988A CN116127340B CN 116127340 B CN116127340 B CN 116127340B CN 202211733988 A CN202211733988 A CN 202211733988A CN 116127340 B CN116127340 B CN 116127340B
Authority
CN
China
Prior art keywords
round
matrix
local
client
global
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211733988.3A
Other languages
English (en)
Other versions
CN116127340A (zh
Inventor
樊继聪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Research Institute of Big Data SRIBD
Original Assignee
Shenzhen Research Institute of Big Data SRIBD
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Research Institute of Big Data SRIBD filed Critical Shenzhen Research Institute of Big Data SRIBD
Priority to CN202211733988.3A priority Critical patent/CN116127340B/zh
Publication of CN116127340A publication Critical patent/CN116127340A/zh
Application granted granted Critical
Publication of CN116127340B publication Critical patent/CN116127340B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开实施例公开了一种联邦谱聚类方法、装置及电子设备,该方法包括:中央服务器将第s‑1轮全局字典矩阵广播给参与第s轮联邦学习的各客户端,以便各客户端基于第s‑1轮全局字典矩阵更新第s轮本地字典矩阵和第s轮本地系数矩阵,然后根据各客户端的第s轮本地字典矩阵确定第s轮全局字典矩阵,直至s达到预设的最大训练次数或第s轮全局字典矩阵收敛;此时,再根据相应客户端的最后轮次本地字典矩阵和最后轮次本地系数矩阵,得到最后轮次全局字典矩阵和最后轮次全局系数矩阵,并将据此构建的相似度矩阵进行谱聚类得到谱聚类的结果,并将谱聚类的结果广播给各客户端。该技术方案可以提高联邦谱聚类算法的安全性和有效性。

Description

联邦谱聚类方法、装置及电子设备
技术领域
本公开涉及数据处理技术领域,具体涉及一种联邦谱聚类方法、装置及电子设备。
背景技术
谱聚类是一种非常有效的聚类算法,广泛应用于各种数据分析任务中。谱聚类算法需要将数据存储在一个计算节点(或设备)或者需要进行数据传输以构造数据点之间的相似度矩阵,因此不能保护数据隐私,不能满足很多应用场景的需求。为解决该问题,若干研究者提出了联邦谱聚类算法。目前联邦谱聚类算法主要基于谱聚类的分布式算法,通过特征分解与对齐的方法来保证传输信息的安全性,并尽可能避免用户本地数据泄露。现有的联邦谱聚类算法的实现步骤主要为:
1、任意选取一个客户端作为中心节点,对中心节点的本地数据做谱聚类得到对应的特征向量,对得到的特征向量做K-means聚类,得到中心节点中的各数据点以及对应的特征向量,随机选取本地数据中的一个数据点Di,将数据点Di及与之对应的特征向量Vi广播给其它客户端;
2、其它客户端接收到中心节点广播的数据点Di和特征向量Vi,并将该数据点Di与自己的本地数据结合进行奇异值分解,得到一组特征向量;在特征向量的每一维,将新计算的一组特征向量与被广播的特征向量Vi进行符号对齐,在对这些特征向量进行符号对齐之后,对其进行K-means聚类得到局部类簇中心,并将所得局部类簇中心回传给中心节点。
3、中心节点对得到的其他客户端发送的所有局部类簇中心再次进行K-means聚类得到全局类簇中心,并将得到的全局类簇中心广播给其他全部客户端,以使他们能够在本地对新到的数据点进行聚类。
通过上述步骤可以看到,现有的方案需要随机选取一个客户端作为数据集结的中心节点,仅利用了该中心节点的一个数据点及其特征向量,完成分布式存储数据的特征向量对齐,最大限度保证了用户数据不出本地。然而,上述方法仍然需要暴露中心节点的至少一个数据点给其它所有客户端,使得该联邦谱聚类的数据安全性无法得到保障,而且上述方法使用奇异值分解(SVD,Singular Value Decomposition)和K-means方法构建联邦谱聚类的模型,没有显式地构建所需的相似度矩阵,与谱聚类方法有较大差异,使得该联邦谱聚类的有效性也无法得到保障。因此,如何破解现有的联邦谱聚类算法存在的安全性和有效性问题成为行业亟待解决的难题。
发明内容
为了解决相关技术中的问题,本公开实施例提供一种联邦谱聚类方法、装置及电子设备。
第一方面,本公开实施例中提供了一种联邦谱聚类方法。
具体地,所述联邦谱聚类方法,包括:
获取第0轮全局字典矩阵;
将第s-1轮全局字典矩阵广播给参与第s轮联邦学习的各客户端,以便所述各客户端基于所述第s-1轮全局字典矩阵更新各客户端的第s轮本地字典矩阵和第s轮本地系数矩阵,其中,所述s取值为1、2、3、……;
接收各客户端发送的所述各客户端的第s轮本地字典矩阵,并根据所述各客户端的第s轮本地字典矩阵确定第s轮全局字典矩阵,直至所述s达到预设的最大训练次数或所述第s轮全局字典矩阵收敛;
从参与最后一轮联邦学习的各客户端中获取最后轮次本地字典矩阵,从全部客户端中获取各客户端的最后轮次本地系数矩阵;
根据各最后轮次本地字典矩阵计算得到最后轮次全局字典矩阵,根据各最后轮次本地系数矩阵计算得到最后轮次全局系数矩阵;
根据所述最后轮次全局字典矩阵和最后轮次全局系数矩阵构建相似度矩阵;
根据所述相似度矩阵进行谱聚类得到谱聚类的结果,并将所述谱聚类的结果广播给各客户端。
第二方面,本公开实施例中提供了一种联邦谱聚类方法,包括:
接收中央服务器发送的第s-1轮全局字典矩阵;
根据所述第s-1轮全局字典矩阵,更新所述客户端的第s轮本地字典矩阵和第s轮本地系数矩阵;
将所述客户端的第s轮本地字典矩阵发送给所述中央服务器,以便所述中央服务器根据所述各客户端的第s轮本地字典矩阵,确定第s轮全局字典矩阵;
在所述s达到预设的最大训练次数或第s轮全局字典矩阵收敛,停止更新本地字典矩阵和本地系数矩阵,将所述客户端的最后轮次本地字典矩阵和最后轮次本地系数矩阵发送给中央服务器,以便所述中央服务器据此计算的最后轮次全局字典矩阵和最后轮次全局系数矩阵构建相似度矩阵,并将根据所述相似度矩阵进行谱聚类得到的谱聚类的结果广播给所述客户端;
接收所述中央服务器发送的所述谱聚类的结果,并根据所述谱聚类的结果对所述客户端内的本地数据进行谱聚类。
第三方面,本公开实施例中提供了一种联邦谱聚类装置。
具体地,所述联邦谱聚类装置,包括:
第一获取模块,被配置为获取第0轮全局字典矩阵;
第一广播模块,被配置为将第s-1轮全局字典矩阵广播给参与第s轮联邦学习的各客户端,以便所述各客户端基于所述第s-1轮全局字典矩阵更新各客户端的第s轮本地字典矩阵和第s轮本地系数矩阵,其中,所述s取值为1、2、3、……;
确定模块,被配置为接收各客户端发送的所述各客户端的第s轮本地字典矩阵,并根据所述各客户端的第s轮本地字典矩阵确定第s轮全局字典矩阵,直至所述s达到预设的最大训练次数或所述第s轮全局字典矩阵收敛;
第二获取模块,被配置为从参与最后一轮联邦学习的各客户端中获取最后轮次本地字典矩阵,从全部客户端中获取各客户端的最后轮次本地系数矩阵;
第三获取模块,被配置为根据各最后轮次本地字典矩阵计算得到最后轮次全局字典矩阵,根据各最后轮次本地系数矩阵计算得到最后轮次全局系数矩阵;
构建模块,被配置为根据所述最后轮次全局字典矩阵和最后轮次全局系数矩阵构建相似度矩阵;
第二广播模块,被配置为根据所述相似度矩阵进行谱聚类得到谱聚类的结果,并将所述谱聚类的结果广播给各客户端。
第四方面,本公开实施例中提供了一种联邦谱聚类装置,包括:
第一接收模块,被配置为接收中央服务器发送的第s-1轮全局字典矩阵;
更新模块,被配置为根据所述第s-1轮全局字典矩阵,更新所述客户端的第s轮本地字典矩阵和第s轮本地系数矩阵;
第一发送模块,被配置为将所述客户端的第s轮本地字典矩阵发送给所述中央服务器,以便所述中央服务器根据所述各客户端的第s轮本地字典矩阵,确定第s轮全局字典矩阵;
第二发送模块,被配置为在所述s达到预设的最大训练次数或第s轮全局字典矩阵收敛,停止更新本地字典矩阵和本地系数矩阵,将所述客户端的最后轮次本地字典矩阵和最后轮次本地系数矩阵发送给中央服务器,以便所述中央服务器据此计算的最后轮次全局字典矩阵和最后轮次全局系数矩阵构建相似度矩阵,并将根据所述相似度矩阵进行谱聚类得到的谱聚类的结果广播给所述客户端;;
第二接收模块,被配置为接收所述中央服务器发送的所述谱聚类的结果,并根据所述谱聚类的结果对所述客户端内的本地数据进行谱聚类。
第五方面,本公开实施例提供了一种电子设备,包括存储器和处理器,其中,所述存储器用于存储一条或多条计算机指令,其中,所述一条或多条计算机指令被所述处理器执行以实现如第一方面或第二方面中任一项所述的方法。
第六方面,本公开实施例中提供了一种计算机可读存储介质,其上存储有计算机指令,该计算机指令被处理器执行时实现如第一方面或第二方面中任一项所述的方法。
第七方面,本公开实施例中提供了一种计算机程序产品,包括计算机指令,该计算机指令被处理器执行时实现如第一方面或第二方面中任一项所述的方法步骤。
根据本公开实施例提供的技术方案,避免了客户端向中央服务器或其它客户端直接传输本地源数据,确保了源数据不离开本地,提高联邦谱聚类算法的安全性,同时还构建了一个近似的相似度矩阵,使用该相似度矩阵进行谱聚类,保证了联邦谱聚类算法的有效性,如此提高了联邦谱聚类算法的安全性和有效性。
另外,还可以对相似度矩阵进行稀疏化,使用该稀疏化的相似度矩阵执行谱聚类,可以降低计算复杂度,使得计算速度更快,谱聚类的效果也更好。
另外,在本地数据中加上噪音数据进行本地字典矩阵和本地系数矩阵的计算,可以有效避免根据本地系数矩阵和本地字典矩阵逆向推理出本地数据,避免本地数据由于逆向推理而泄露,进一步提高了本地数据的安全性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
结合附图,通过以下非限制性实施方式的详细描述,本公开的其它特征、目的和优点将变得更加明显。在附图中:
图1示出根据本公开的实施例的联邦谱聚类方法的流程图;
图2示出根据本公开的实施例的联邦谱聚类方法的流程图;
图3示出根据本公开一实施方式的联邦谱聚类方法的整体流程示意图
图4示出根据本公开的实施例的联邦谱聚类装置的结构框图;
图5示出根据本公开的实施例的联邦谱聚类装置的结构框图;
图6示出根据本公开的实施例的电子设备的结构框图;
图7示出适于用来实现根据本公开实施例的方法的计算机系统的结构示意图。
具体实施方式
下文中,将参考附图详细描述本公开的示例性实施例,以使本领域技术人员可容易地实现它们。此外,为了清楚起见,在附图中省略了与描述示例性实施例无关的部分。
在本公开中,应理解,诸如“包括”或“具有”等的术语旨在指示本说明书中所公开的特征、数字、步骤、行为、部件、部分或其组合的存在,并且不欲排除一个或多个其他特征、数字、步骤、行为、部件、部分或其组合存在或被添加的可能性。
另外还需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
在本公开中,对用户信息或用户数据的获取均为经用户授权、确认,或由用户主动选择的操作。
图1示出根据本公开的实施例的联邦谱聚类方法的流程图。如图1所示,所述联邦谱聚类方法包括以下步骤S101-S107:
在步骤S101中,获取第0轮全局字典矩阵;
在步骤S102中,将第s-1轮全局字典矩阵广播给参与第s轮联邦学习的各客户端,以便所述各客户端基于所述第s-1轮的全局字典矩阵更新各客户端的第s轮本地字典矩阵和第s轮本地系数矩阵,其中,所述s取值为1、2、3、……;
在步骤S103中,根据所述各客户端的第s轮本地字典矩阵,确定第s轮全局字典矩阵,直至所述s达到预设的最大训练次数或所述第s轮全局字典矩阵收敛;
在步骤S104中,从参与最后一轮联邦学习的各客户端中获取最后轮次本地字典矩阵,从全部客户端中获取各客户端的最后轮次本地系数矩阵;
在步骤S105中,根据各最后轮次本地字典矩阵计算得到最后轮次全局字典矩阵,根据各最后轮次本地系数矩阵计算得到最后轮次全局系数矩阵;
在步骤S106中,根据所述最后轮次全局字典矩阵和最后轮次全局系数矩阵构建相似度矩阵;
在步骤S107中,根据所述相似度矩阵进行谱聚类得到谱聚类的结果,并将所述谱聚类的结果广播给所述客户端。
在一种可能的实施方式中,该联邦谱聚类方法适用于可执行联邦谱聚类的计算机、计算设备、服务器、服务器集群等设备,该设备可以记为中央服务器。
在一种可能的实施方式中,该第0轮全局字典矩阵是中央服务器随机生成的,可以记为Z0,可以将第s-1轮全局字典矩阵记为Zs-1,所述s取值为1、2、3、……,当s=1时,Zs-1=Z0
在一种可能的实施方式中,假设共有P个客户端,其中客户端p的本地数据记为Xp,p可以取值为1,2,……,P。
在一种可能的实施方式中,中央服务器可以循环执行步骤S102和步骤S103,将上一轮全局字典矩阵广播给参与本轮联邦学习的各客户端,各客户端如客户端p可以基于所述第s-1轮全局字典矩阵Zs-1更新客户端p的第s轮本地字典矩阵和第s轮本地系数矩阵客户端p可以将更新的客户端p的第s轮本地字典矩阵/>返回给中央服务器,这样中央服务器就可以根据所述各客户端的第s轮本地字典矩阵确定第s轮全局字典矩阵,如此,循环执行步骤S102和步骤S103,就可以由第s-1轮全局字典矩阵Zs-1得到第s轮全局字典矩阵Zs,其中最初始s=1时,第s-1轮全局字典矩阵为Z0
这里需要说明的是,参与每轮联邦学习的客户端可以是不同的,中央服务器仅将广播给参与本轮联邦学习的个客户端。
在一种可能的实施方式中,中央服务器循环执行步骤S102和步骤S103,可以在所述s达到预设的最大训练次数S,或者得到的第s轮全局字典矩阵收敛时,停止循环。这里若第s轮及其之前连续几轮全局字典矩阵的波动极小,在预定的波动范围内,则第s轮全局字典矩阵收敛。
在一种可能的实施方式中,中央服务器在停止循环后,可以从参与最后一轮联邦学习的各客户端中获取最后轮次本地字典矩阵,从全部P个客户端中获取各客户端的最后轮次本地系数矩阵,这里需要说明的是,这P个客户端中可能仅有一部分是参与最后一轮联邦学习的客户端,剩余部分的客户端未参与最后一轮联邦学习,这些未参与最后一轮联邦学习的客户端的最后轮次本地系数矩阵就是该客户端最后一次参与联邦学习时更新的本地系数矩阵,也即该客户端中最新的本地系数矩阵。
在一种可能的实施方式中,中央服务器可以对各客户端的最后轮次本地字典矩阵进行平均得到最后轮次全局字典矩阵Z,对各最后轮次本地系数矩阵按列进行聚合得到最后轮次全局系数矩阵C,可以使用该最后轮次全局字典矩阵和最后轮次全局系数矩阵构建相似度矩阵根据所述相似度矩阵/>进行谱聚类:/>其中,K为预定的需要聚类的类别数量;就可以得到谱聚类的结果,中央服务器可以将所述谱聚类的结果广播给各客户端,这样,各客户端就可以根据该谱聚类的结果对本地数据进行谱聚类。
本实施方式提供的联邦谱聚类方法避免了客户端向中央服务器或其它客户端直接传输本地源数据,确保了源数据不离开本地,提高联邦谱聚类算法的安全性,同时还构建了一个近似的相似度矩阵,使用该相似度矩阵进行谱聚类,保证了联邦谱聚类算法的有效性,如此提高了联邦谱聚类算法的安全性和有效性。
在一种可能的实施方式中,上述联邦谱聚类方法中,所述根据所述相似度矩阵进行谱聚类得到谱聚类的结果,可以实现为以下步骤:
对所述相似度矩阵做稀疏化处理,得到稀疏化的相似度矩阵;
基于所述稀疏化的相似度矩阵执行谱聚类,得到谱聚类的结果。
在该实施方式中,可以利用K近邻算法对相似度矩阵做稀疏化处理,得到稀疏化的相似度矩阵;基于所述稀疏化的相似度矩阵执行谱聚类,得到谱聚类的结果,使用该稀疏化的相似度矩阵执行谱聚类,可以降低计算复杂度,使得计算速度更快,谱聚类的效果也更好。
在一种可能的实施方式中,上述联邦谱聚类方法中,所述根据所述各客户端的第s轮本地字典矩阵,确定第s轮全局字典矩阵,包括:
对所述各客户端的第s轮本地字典矩阵进行平均,得到第s轮全局字典矩阵。
在该实施方式中,可以按照以下直接求平均值的公式计算第s轮全局字典矩阵Zs
其中,As表示参与第s轮联邦学习的客户端集合,表示As中的客户端数量,/>为客户端p的第s轮本地字典矩阵。
在一种可能的实施方式中,上述联邦谱聚类方法中,所述根据所述最后轮次全局字典矩阵和最后轮次全局系数矩阵构建相似度矩阵,包括:
按照以下公式构建相似度矩阵
其中,C为最后轮次全局系数矩阵,Z为最后轮次全局字典矩阵,为核函数,CT表示C的转置。
图2示出根据本公开的实施例的联邦谱聚类方法的流程图。如图2所示,所述联邦谱聚类方法包括以下步骤S201-S205:
在步骤S201中,接收中央服务器发送的第s-1轮全局字典矩阵;
在步骤S202中,根据所述第s-1轮全局字典矩阵,更新所述客户端的第s轮本地字典矩阵和第s轮本地系数矩阵;
在步骤S203中,将所述客户端的第s轮本地字典矩阵发送给所述中央服务器,以便所述中央服务器根据各客户端的第s轮本地字典矩阵,确定第s轮全局字典矩阵;
在步骤S204中,在所述s达到预设的最大训练次数或第s轮全局字典矩阵收敛时,停止更新本地字典矩阵和本地系数矩阵,将所述客户端的最后轮次本地字典矩阵和最后轮次本地系数矩阵发送给中央服务器,以便所述中央服务器据此计算的最后轮次全局字典矩阵和最后轮次全局系数矩阵构建相似度矩阵,并将根据所述相似度矩阵进行谱聚类得到的谱聚类的结果广播给所述客户端;
在步骤S205中,接收所述中央服务器发送的所述谱聚类的结果,并根据所述谱聚类的结果对所述客户端内的本地数据进行谱聚类。
在一种可能的实施方式中,该联邦谱聚类方法适用于可执行联邦谱聚类的计算机、计算设备、智能终端等客户端。
在一种可能的实施方式中,客户端可以接收中央服务器发送的第s-1轮全局字典矩阵,然后基于第s-1轮全局字典矩阵,更新所述客户端的第s轮本地字典矩阵和第s轮本地系数矩阵,然后将所述客户端的第s轮本地字典矩阵发送给所述中央服务器,这样,所述中央服务器就可以根据各客户端的第s轮本地字典矩阵,确定第s轮全局字典矩阵,并继续将第s轮全局字典矩阵广播给各参与联邦学习的客户端,使客户端继续更新客户端的本地字典矩阵和本地系数矩阵,直至所述s达到预设的最大训练次数或第s轮全局字典矩阵收敛。此时,该客户端可以将最后轮次本地字典矩阵和最后轮次本地系数矩阵发送给中央服务器。
在一种可能的实施方式中,中央服务器可以按照上述实施方式中所述的方法,根据参与最后一轮联邦学习的各客户端的最后轮次本地字典矩阵,计算得到最后轮次全局字典矩阵,根据全部客户端的最后轮次本地系数矩阵计算得到最后轮次全局系数矩阵,然后根据最后轮次全局字典矩阵和最后轮次全局系数矩阵构建相似度矩阵,并根据所述相似度矩阵进行谱聚类得到谱聚类的结果,进而将该谱聚类结果广播给所述客户端,该客户端接收到该谱聚类的结果后,就可以按照该谱聚类结果对该客户端内的本地数据进行谱聚类。
本实施方式提供的联邦谱聚类方法避免了客户端向中央服务器或其它客户端直接传输本地源数据,确保了源数据不离开本地,提高联邦谱聚类算法的安全性,同时还构建了一个近似的相似度矩阵,使用该相似度矩阵进行谱聚类,保证了联邦谱聚类算法的有效性,如此提高了联邦谱聚类算法的安全性和有效性。
在一种可能的实施方式中,上述联邦谱聚类方法中,所述根据所述第s-1轮全局字典矩阵,更新所述客户端的第s轮本地字典矩阵和第s轮本地系数矩阵,包括:
按照以下公式计算第s轮本地系数矩阵
按照以下公式计算第s轮本地字典矩阵
其中,为核函数,Id为单位矩阵,λ为常数,/>为客户端p接收到的第s-1轮全局字典矩阵,Xp包括客户端p的本地数据,ηs为大于0的常数,fp(·,·)是客户端p的本地目标函数,/>为求fp(·,·)关于/>的梯度,‖.‖F为F范数,φ为核函数诱导的特征映射函数;t为梯度迭代次数,当t达到预定迭代次数Q时,/>
在该实施方式中,客户端p接收到的第s-1轮全局字典矩阵后,将该/>记为然后上述的计算公式从t=1开始迭代计算/>直至迭代次数达到预定迭代次数Q得到/>此时,就可以得到/>
在一种可能的实施方式中,所述Xp包括客户端p的本地数据和噪音数据。
在该实施方式中,客户端p可以随机生成噪音数据Ep,在客户端p的本地数据上加上噪音数据生成Xp,这样客户端p在使用该Xp计算最后一轮本地系数矩阵和各轮本地字典矩阵发送给中央服务器时,可以有效避免根据最后一轮本地系数矩阵和各轮本地字典矩阵逆向推理出本地数据,避免本地数据被逆向推理而泄露,进一步提高了本地数据的安全性。
图3示出根据本公开一实施方式的联邦谱聚类方法的整体流程示意图。如图3所示,中央服务器301可以将第s-1轮全局字典矩阵Zs-1广播给参与第s轮联邦学习的P个客户端-客户端1,……,客户端p……,客户端P;各客户端基于所述第s-1轮全局字典矩阵Zs-1更新各客户端的第s轮本地字典矩阵和第s轮本地系数矩阵,如客户端p基于所述第s-1轮全局字典矩阵Zs-1更新各客户端的第s轮本地字典矩阵和第s轮本地系数矩阵/>中央服务器301接收各客户端发送的所述各客户端的第s轮本地字典矩阵,并根据所述各客户端的第s轮本地字典矩阵确定第s轮全局字典矩阵,直至所述s达到预设的最大训练次数或所述第s轮全局字典矩阵收敛;中央服务器301可以从各客户端获取各客户端的最后轮次本地字典矩阵和最后轮次本地系数矩阵即本地相关矩阵;然后,根据所述各客户端的本地相关矩阵即最后轮次本地字典矩阵和最后轮次本地系数矩阵,得到最后轮次全局字典矩阵和最后轮次全局系数矩阵;根据所述最后轮次全局字典矩阵和最后轮次全局系数矩阵构建相似度矩阵;根据所述相似度矩阵进行谱聚类得到谱聚类的结果,最后,中央服务器301将所述谱聚类的结果广播给各客户端。
图4示出根据本公开的实施例的联邦谱聚类装置的结构框图。其中,该装置可以通过软件、硬件或者两者的结合实现成为电子设备的部分或者全部。如图4所示,所述联邦谱聚类装置包括:
第一获取模块401,被配置为获取第0轮全局字典矩阵;
第一广播模块402,被配置为将第s-1轮全局字典矩阵广播给参与第s轮联邦学习的各客户端,以便所述各客户端基于所述第s-1轮全局字典矩阵更新各客户端的第s轮本地字典矩阵和第s轮本地系数矩阵,其中,所述s取值为1、2、3、……;
确定模块403,被配置为接收各客户端发送的所述各客户端的第s轮本地字典矩阵,并根据所述各客户端的第s轮本地字典矩阵确定第s轮全局字典矩阵,直至所述s达到预设的最大训练次数或所述第s轮全局字典矩阵收敛;
第二获取模块404,被配置为从参与最后一轮联邦学习的各客户端中获取最后轮次本地字典矩阵,从全部客户端中获取各客户端的最后轮次本地系数矩阵;
第三获取模块405,被配置为根据各最后轮次本地字典矩阵计算得到最后轮次全局字典矩阵,根据各最后轮次本地系数矩阵计算得到最后轮次全局系数矩阵;
构建模块406,被配置为根据所述最后轮次全局字典矩阵和最后轮次全局系数矩阵构建相似度矩阵;
第二广播模块407,被配置为根据所述相似度矩阵进行谱聚类得到谱聚类的结果,并将所述谱聚类的结果广播给各客户端。
在一种可能的实施方式中,所述第二广播模块407中根据所述相似度矩阵进行谱聚类得到谱聚类的结果的部分被配置为:
对所述相似度矩阵做稀疏化处理,得到稀疏化的相似度矩阵;
基于所述稀疏化的相似度矩阵执行谱聚类,得到谱聚类的结果。
在一种可能的实施方式中,所述确定模块403被配置为:
对所述各客户端的第s轮本地字典矩阵进行平均,得到第s轮全局字典矩阵。
在一种可能的实施方式中,所述构建模块406被配置为:
按照以下公式构建相似度矩阵
其中,C为最后轮次全局系数矩阵,Z为最后轮次全局字典矩阵,为核函数。
图5示出根据本公开的实施例的联邦谱聚类装置的结构框图。其中,该装置可以通过软件、硬件或者两者的结合实现成为电子设备的部分或者全部。如图5所示,所述联邦谱聚类装置包括:
第一接收模块501,被配置为接收中央服务器发送的第s-1轮全局字典矩阵;
更新模块502,被配置为根据所述第s-1轮全局字典矩阵,更新所述客户端的第s轮本地字典矩阵和第s轮本地系数矩阵;
第一发送模块503,被配置为将所述客户端的第s轮本地字典矩阵发送给所述中央服务器,以便所述中央服务器根据所述各客户端的第s轮本地字典矩阵,确定第s轮全局字典矩阵;
第二发送模块504,被配置为在所述s达到预设的最大训练次数或第s轮全局字典矩阵收敛,停止更新本地字典矩阵和本地系数矩阵,将所述客户端的最后轮次本地字典矩阵和最后轮次本地系数矩阵发送给中央服务器,以便所述中央服务器据此计算的最后轮次全局字典矩阵和最后轮次全局系数矩阵构建相似度矩阵,并将根据所述相似度矩阵进行谱聚类得到的谱聚类的结果广播给所述客户端;;
第二接收模块505,被配置为接收所述中央服务器发送的所述谱聚类的结果,并根据所述谱聚类的结果对所述客户端内的本地数据进行谱聚类。
在一种可能的实施方式中,所述更新模块502被配置为:
按照以下公式计算第s轮本地系数矩阵
按照以下公式计算第s轮本地字典矩阵
其中,为核函数,Id为单位矩阵,λ为常数,/>为客户端p接收到的第s-1轮全局字典矩阵,Xp包括客户端p的本地数据,ηs为大于0的常数,fp(·,·)是客户端p的本地目标函数,/>为求fp(·,·)关于/>的梯度,‖.‖F为F范数,φ为核函数诱导的特征映射函数;t为梯度迭代次数,当t达到预定迭代次数Q时,/>
在一种可能的实施方式中,所述Xp包括客户端p的本地数据和噪音数据。
本装置实施方式中提及的技术术语和技术特征相同或相似,对于本装置中涉及的技术术语和技术特征的解释和说明可参考上述方法实施方式的解释的说明,此处不再赘述。
本公开还公开了一种电子设备,图6示出根据本公开的实施例的电子设备的结构框图。
如图6所示,所述电子设备600包括存储器601和处理器602,其中,存储器601用于存储一条或多条计算机指令,其中,所述一条或多条计算机指令被所述处理器602执行以实现根据本公开的实施例的方法。
图7示出适于用来实现根据本公开实施例的方法的计算机系统的结构示意图。
如图7所示,计算机系统700包括处理单元701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行上述实施例中的各种处理。在RAM 703中,还存储有计算机系统700操作所需的各种程序和数据。处理单元701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
以下部件连接至I/O接口705:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。其中,所述处理单元701可实现为CPU、GPU、TPU、FPGA、NPU等处理单元。
特别地,根据本公开的实施例,上文描述的方法可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括计算机指令,该计算机指令被处理器执行时实现上文所述的方法步骤。在这样的实施例中,该计算机程序产品可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元或模块可以通过软件的方式实现,也可以通过可编程硬件的方式来实现。所描述的单元或模块也可以设置在处理器中,这些单元或模块的名称在某种情况下并不构成对该单元或模块本身的限定。
作为另一方面,本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中电子设备或计算机系统中所包含的计算机可读存储介质;也可以是单独存在,未装配入设备中的计算机可读存储介质。计算机可读存储介质存储有一个或者一个以上程序,所述程序被一个或者一个以上的处理器用来执行描述于本公开的方法。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (7)

1.一种联邦谱聚类方法,其特征在于,应用于中央服务器,所述方法包括:
获取第0轮全局字典矩阵;
将第s-1轮全局字典矩阵广播给参与第s轮联邦学习的各客户端,以便所述各客户端基于所述第s-1轮全局字典矩阵更新各客户端的第s轮本地字典矩阵和第s轮本地系数矩阵,其中,所述s取值为从1开始的正整数;
接收各客户端发送的所述各客户端的第s轮本地字典矩阵,并根据所述各客户端的第s轮本地字典矩阵确定第s轮全局字典矩阵,直至所述s达到预设的最大训练次数或所述第s轮全局字典矩阵收敛;
从参与最后一轮联邦学习的各客户端中获取最后轮次本地字典矩阵,从全部客户端中获取各客户端的最后轮次本地系数矩阵;
根据各最后轮次本地字典矩阵计算得到最后轮次全局字典矩阵,根据各最后轮次本地系数矩阵计算得到最后轮次全局系数矩阵;
根据所述最后轮次全局字典矩阵和最后轮次全局系数矩阵构建相似度矩阵;
根据所述相似度矩阵进行谱聚类得到谱聚类的结果,并将所述谱聚类的结果广播给各客户端;
其中,所述各客户端基于所述第s-1轮全局字典矩阵更新各客户端的第s轮本地字典矩阵和第s轮本地系数矩阵,包括:
客户端p随机生成噪音数据,并在客户端p的本地数据上加上所述噪音数据生成Xp;
按照以下公式计算第s轮本地系数矩阵
按照以下公式计算第s轮本地字典矩阵
其中,为核函数,Id为单位矩阵,λ为常数,/>为客户端p接收到的第s-1轮全局字典矩阵,ηs为大于0的常数,fp(·,·)是客户端p的本地目标函数,/>为求fp(·,·)关于/>的梯度,/> ‖.‖F为F范数,φ为核函数诱导的特征映射函数;t为梯度迭代次数,当t达到预定迭代次数Q时,
所述根据所述最后轮次全局字典矩阵和最后轮次全局系数矩阵构建相似度矩阵,包括:
按照以下公式构建相似度矩阵
其中,C为最后轮次全局系数矩阵,Z为最后轮次全局字典矩阵,为核函数。
2.根据权利要求1所述的方法,其特征在于,所述根据所述相似度矩阵进行谱聚类得到谱聚类的结果,包括:
对所述相似度矩阵做稀疏化处理,得到稀疏化的相似度矩阵;
基于所述稀疏化的相似度矩阵执行谱聚类,得到谱聚类的结果。
3.根据权利要求1所述的方法,其特征在于,所述根据所述各客户端的第s轮本地字典矩阵,确定第s轮全局字典矩阵,包括:
对所述各客户端的第s轮本地字典矩阵进行平均,得到第s轮全局字典矩阵。
4.一种联邦谱聚类方法,其特征在于,应用于客户端,所述方法包括:
接收中央服务器发送的第s-1轮全局字典矩阵,其中,所述s取值为从1开始的正整数;
根据所述第s-1轮全局字典矩阵,更新所述客户端的第s轮本地字典矩阵和第s轮本地系数矩阵;
将所述客户端的第s轮本地字典矩阵发送给所述中央服务器,以便所述中央服务器根据各客户端的第s轮本地字典矩阵,确定第s轮全局字典矩阵;
在所述s达到预设的最大训练次数或第s轮全局字典矩阵收敛,停止更新本地字典矩阵和本地系数矩阵,将所述客户端的最后轮次本地字典矩阵和最后轮次本地系数矩阵发送给中央服务器,以便所述中央服务器据此计算的最后轮次全局字典矩阵和最后轮次全局系数矩阵构建相似度矩阵,并将根据所述相似度矩阵进行谱聚类得到的谱聚类的结果广播给所述客户端,所述相似度矩阵为:/>C为最后轮次全局系数矩阵,Z为最后轮次全局字典矩阵,/>为核函数;
接收所述中央服务器发送的所述谱聚类的结果,并根据所述谱聚类的结果对所述客户端内的本地数据进行谱聚类;
其中,所述根据所述第s-1轮全局字典矩阵,更新所述客户端的第s轮本地字典矩阵和第s轮本地系数矩阵,包括:
随机生成噪音数据,并在所述客户端的本地数据上加上所述噪音数据生成Xp;
按照以下公式计算第s轮本地系数矩阵
按照以下公式计算第s轮本地字典矩阵
其中,为核函数,Id为单位矩阵,λ为常数,/>为客户端p接收到的第s-1轮全局字典矩阵,ηs为大于0的常数,fp(·,·)是客户端p的本地目标函数,/>为求fp(·,·)关于/>的梯度,/> ‖.‖F为F范数,φ为核函数诱导的特征映射函数;t为梯度迭代次数,当t达到预定迭代次数Q时,
5.一种联邦谱聚类装置,其特征在于,应用于中央服务器,所述装置包括:
第一获取模块,被配置为获取第0轮全局字典矩阵;
第一广播模块,被配置为将第s-1轮全局字典矩阵广播给参与第s轮联邦学习的各客户端,以便所述各客户端基于所述第s-1轮全局字典矩阵更新各客户端的第s轮本地字典矩阵和第s轮本地系数矩阵,其中,所述s取值从1开始的正整数;
确定模块,被配置为接收各客户端发送的所述各客户端的第s轮本地字典矩阵,并根据所述各客户端的第s轮本地字典矩阵确定第s轮全局字典矩阵,直至所述s达到预设的最大训练次数或所述第s轮全局字典矩阵收敛;
第二获取模块,被配置为从参与最后一轮联邦学习的各客户端中获取最后轮次本地字典矩阵,从全部客户端中获取各客户端的最后轮次本地系数矩阵;
第三获取模块,被配置为根据各最后轮次本地字典矩阵计算得到最后轮次全局字典矩阵,根据各最后轮次本地系数矩阵计算得到最后轮次全局系数矩阵;
构建模块,被配置为根据所述最后轮次全局字典矩阵和最后轮次全局系数矩阵构建相似度矩阵;
第二广播模块,被配置为根据所述相似度矩阵进行谱聚类得到谱聚类的结果,并将所述谱聚类的结果广播给各客户端;
其中,所述各客户端基于所述第s-1轮全局字典矩阵更新各客户端的第s轮本地字典矩阵和第s轮本地系数矩阵,包括:
客户端p随机生成噪音数据,并在客户端p的本地数据上加上所述噪音数据生成Xp;
按照以下公式计算第s轮本地系数矩阵
按照以下公式计算第s轮本地字典矩阵
其中,为核函数,Id为单位矩阵,λ为常数,/>为客户端p接收到的第s-1轮全局字典矩阵,Xp包括客户端p的本地数据和噪音数据,ηs为大于0的常数,fp(·,·)是客户端p的本地目标函数,/>为求fp(·,·)关于/>的梯度,‖.‖F为F范数,φ为核函数诱导的特征映射函数;t为梯度迭代次数,当t达到预定迭代次数Q时,/>
所述根据所述最后轮次全局字典矩阵和最后轮次全局系数矩阵构建相似度矩阵,包括:
按照以下公式构建相似度矩阵
其中,C为最后轮次全局系数矩阵,Z为最后轮次全局字典矩阵,为核函数。
6.一种联邦谱聚类装置,其特征在于,应用于客户端,所述装置包括:
第一接收模块,被配置为接收中央服务器发送的第s-1轮全局字典矩阵,其中,所述s取值为从1开始的正整数;
更新模块,被配置为根据所述第s-1轮全局字典矩阵,更新所述客户端的第s轮本地字典矩阵和第s轮本地系数矩阵;
第一发送模块,被配置为将所述客户端的第s轮本地字典矩阵发送给所述中央服务器,以便所述中央服务器根据各客户端的第s轮本地字典矩阵,确定第s轮全局字典矩阵;
第二发送模块,被配置为在所述s达到预设的最大训练次数或第s轮全局字典矩阵收敛,停止更新本地字典矩阵和本地系数矩阵,将所述客户端的最后轮次本地字典矩阵和最后轮次本地系数矩阵发送给中央服务器,以便所述中央服务器据此计算的最后轮次全局字典矩阵和最后轮次全局系数矩阵构建相似度矩阵,并将根据所述相似度矩阵进行谱聚类得到的谱聚类的结果广播给所述客户端;所述相似度矩阵为:/>C为最后轮次全局系数矩阵,Z为最后轮次全局字典矩阵,/>为核函数;
第二接收模块,被配置为接收所述中央服务器发送的所述谱聚类的结果,并根据所述谱聚类的结果对所述客户端内的本地数据进行谱聚类;
其中,所述根据所述第s-1轮全局字典矩阵,更新所述客户端的第s轮本地字典矩阵和第s轮本地系数矩阵,包括:
随机生成噪音数据,并在所述客户端的本地数据上加上所述噪音数据生成Xp;
按照以下公式计算第s轮本地系数矩阵
按照以下公式计算第s轮本地字典矩阵
其中,为核函数,Id为单位矩阵,λ为常数,/>为客户端p接收到的第s-1轮全局字典矩阵,Xp包括客户端p的本地数据,ηs为大于0的常数,fp(·,·)是客户端p的本地目标函数,/>为求fp(·,·)关于/>的梯度,‖.‖F为F范数,φ为核函数诱导的特征映射函数;t为梯度迭代次数,当t达到预定迭代次数Q时,/>
7.一种电子设备,包括存储器和处理器,其特征在于,所述存储器用于存储一条或多条计算机指令,所述一条或多条计算机指令被所述处理器执行以实现权利要求1至4任一项所述的方法步骤。
CN202211733988.3A 2022-12-22 2022-12-22 联邦谱聚类方法、装置及电子设备 Active CN116127340B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211733988.3A CN116127340B (zh) 2022-12-22 2022-12-22 联邦谱聚类方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211733988.3A CN116127340B (zh) 2022-12-22 2022-12-22 联邦谱聚类方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN116127340A CN116127340A (zh) 2023-05-16
CN116127340B true CN116127340B (zh) 2024-05-10

Family

ID=86307445

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211733988.3A Active CN116127340B (zh) 2022-12-22 2022-12-22 联邦谱聚类方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN116127340B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117130794B (zh) * 2023-10-27 2024-02-06 之江实验室 联邦学习的客户端选择方法、装置和计算机存储介质
CN118378722B (zh) * 2024-06-21 2024-09-24 中南大学 一种面向数据多元异质场景下的聚类联邦学习方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111598335A (zh) * 2020-05-15 2020-08-28 长春理工大学 一种基于改进谱聚类算法的交通区域划分方法
CN113516252A (zh) * 2021-01-05 2021-10-19 腾讯科技(深圳)有限公司 联邦学习方法、装置、设备及存储介质
CN114758784A (zh) * 2022-03-29 2022-07-15 南京理工大学 一种基于聚类算法分配联邦学习中参与者权重的方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019070887A1 (en) * 2017-10-03 2019-04-11 The Brigham And Women's Hospital, Inc. RESEARCH SYSTEM FOR BIOSIGNATURE EXTRACTION AND DISCOVERY OF BIOMARKERS
EP3970074A1 (en) * 2019-05-16 2022-03-23 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Concepts for federated learning, client classification and training data similarity measurement

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111598335A (zh) * 2020-05-15 2020-08-28 长春理工大学 一种基于改进谱聚类算法的交通区域划分方法
CN113516252A (zh) * 2021-01-05 2021-10-19 腾讯科技(深圳)有限公司 联邦学习方法、装置、设备及存储介质
CN114758784A (zh) * 2022-03-29 2022-07-15 南京理工大学 一种基于聚类算法分配联邦学习中参与者权重的方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Federated Learning approach for Spectral Clustering;Elena Hern´andez-Pereira etal.;ESANN 2021 proceedings, European Symposium on Artificial Neural Networks, Computational Intelligence and Machine Learning;20211031;423-429 *
Federated Multi-View Spectral Clustering;HONGTAO WANG etal.;IEEE Access;20201109;第8卷;2022249-202259 *
基于联邦学习的船舶 AIS 轨迹谱聚类算法研究;吕国华等;计算机应用研究;20220131;第39卷(第1期);70-89 *

Also Published As

Publication number Publication date
CN116127340A (zh) 2023-05-16

Similar Documents

Publication Publication Date Title
CN116127340B (zh) 联邦谱聚类方法、装置及电子设备
US20230036702A1 (en) Federated mixture models
US20200065672A1 (en) Systems and Methods for Providing Reinforcement Learning in a Deep Learning System
US11797864B2 (en) Systems and methods for conditional generative models
CN113221183B (zh) 实现隐私保护的多方协同更新模型的方法、装置及系统
CN109063041B (zh) 关系网络图嵌入的方法及装置
WO2023036184A1 (en) Methods and systems for quantifying client contribution in federated learning
JP7397212B2 (ja) コンテンツ配信における情報に対するアクセスを保護するためのセキュアなmpcおよびベクトル計算の使用
JP7361928B2 (ja) 勾配ブースティングを介したプライバシーを守る機械学習
CN110659394B (zh) 基于双向邻近度的推荐方法
US11843587B2 (en) Systems and methods for tree-based model inference using multi-party computation
Wu et al. Attentive evolutionary generative adversarial network
US20220108194A1 (en) Private split client-server inferencing
EP4320556A1 (en) Privacy-aware pruning in machine learning
Idrissi et al. Fedbs: Learning on non-iid data in federated learning using batch normalization
CN114330673A (zh) 一种对业务预测模型进行多方联合训练的方法及装置
CN118171702A (zh) 一种基于多模型联合学习的神经网络量化方法
CN112307243A (zh) 用于检索图像的方法和装置
Xiao et al. Field-wise embedding size search via structural hard auxiliary mask pruning for click-through rate prediction
CN114662148A (zh) 一种保护隐私的多方联合训练方法及装置
CN117851650B (zh) 一种基于用户群和强化学习的项目推荐方法、系统和设备
CN113569136B (zh) 视频推荐方法、装置、电子设备及存储介质
CN118246521A (zh) 一种面向联邦学习的模型遗忘系统及方法
CN114626434B (zh) 特征提取模型的训练方法以及对象数据处理方法
CN117173750B (zh) 生物信息处理方法、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant