CN115796310A - 信息推荐及模型训练方法、装置、设备和存储介质 - Google Patents
信息推荐及模型训练方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN115796310A CN115796310A CN202211393989.8A CN202211393989A CN115796310A CN 115796310 A CN115796310 A CN 115796310A CN 202211393989 A CN202211393989 A CN 202211393989A CN 115796310 A CN115796310 A CN 115796310A
- Authority
- CN
- China
- Prior art keywords
- information
- client
- cluster
- local
- initial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供了一种信息推荐及模型训练方法、装置、设备和存储介质,涉及计算机技术领域,具体涉及联邦学习、深度学习、智能推荐、信息安全等技术领域。信息推荐模型的训练方法包括:基于至少一个客户端的局部密度,对所述至少一个客户端进行聚类处理,以获得至少一个簇;针对所述至少一个簇中单个簇,执行第一预设次数的迭代过程,以确定所述单个簇的最终全局信息;针对所述单个簇,将所述单个簇的最终全局信息发送至所述单个簇包括的客户端,以使所述客户端基于所述最终全局信息确定本地部署的信息推荐模型的最终模型参数。本公开可以提高信息推荐准确度。
Description
技术领域
本公开涉及计算机技术领域,具体涉及联邦学习、深度学习、智能推荐、信息安全等技术领域,尤其涉及一种信息推荐及模型训练方法、装置、设备和存储介质。
背景技术
联邦学习(Federated Learning,FL)是一种新兴的人工智能基础技术,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算节点之间开展高效率的机器学习。推荐系统(recommendationsystem,RS)利用用户的各种知识和数据生成个性化推荐结果,推荐系统可以基于推荐模型实现。
基于联邦学习如何提高信息推荐准确度是需要解决的问题。
发明内容
本公开提供了一种信息推荐及模型训练方法、装置、设备和存储介质。
根据本公开的一方面,提供了一种信息推荐模型的训练方法,包括:基于至少一个客户端的局部密度,对所述至少一个客户端进行聚类处理,以获得至少一个簇;针对所述至少一个簇中单个簇,执行第一预设次数的迭代过程,以确定所述单个簇的最终全局信息;针对所述单个簇,将所述单个簇的最终全局信息发送至所述单个簇包括的客户端,以使所述客户端基于所述最终全局信息确定本地部署的信息推荐模型的最终模型参数。
根据本公开的另一方面,提供了一种信息推荐模型的训练方法,包括:接收服务端发送的最终全局信息;其中,所述最终全局信息是至少一个簇中自身客户端所属的簇的最终全局信息,所述至少一个簇是所述服务端基于至少一个客户端的局部密度,对所述至少一个客户端进行聚类处理后获得的;基于所述最终全局信息,确定本地部署的信息推荐模型的最终模型参数。
根据本公开的另一方面,提供了一种信息推荐方法,包括:获取第一对象的第一对象信息和至少一个第二对象的第二对象信息;采用信息推荐模型,对所述第一对象信息和所述第二对象信息进行处理,以获得第一语义特征和第二语义特征;确定所述第一语义特征和所述第二语义特征之间的相似度;基于所述相似度,在所述至少一个第二对象中确定推荐信息,并展示给所述第一对象;其中,所述信息推荐模型采用如上述任一方面的任一项所述的训练方法获得。
根据本公开的另一方面,提供了一种信息推荐模型的训练装置,包括:聚类模块,用于基于至少一个客户端的局部密度,对所述至少一个客户端进行聚类处理,以获得至少一个簇;聚合模块,用于针对所述至少一个簇中单个簇,执行第一预设次数的迭代过程,以确定所述单个簇的最终全局信息;发送模块,用于针对所述单个簇,将所述单个簇的最终全局信息发送至所述单个簇包括的客户端,以使所述客户端基于所述最终全局信息确定本地部署的信息推荐模型的最终模型参数。
根据本公开的另一方面,提供了一种信息推荐模型的训练装置,包括:接收模块,用于接收服务端发送的最终全局信息;其中,所述最终全局信息是至少一个簇中自身客户端所属的簇的最终全局信息,所述至少一个簇是所述服务端基于至少一个客户端的局部密度,对所述至少一个客户端进行聚类处理后获得的;确定模块,用于基于所述最终全局信息,确定本地部署的信息推荐模型的最终模型参数。
根据本公开的另一方面,提供了一种信息推荐装置,包括:获取模块,用于获取第一对象的第一对象信息和至少一个第二对象的第二对象信息;提取模块,用于采用信息推荐模型,对所述第一对象信息和所述第二对象信息进行处理,以获得第一语义特征和第二语义特征;确定模块,用于确定所述第一语义特征和所述第二语义特征之间的相似度;展示模块,用于基于所述相似度,在所述至少一个第二对象中确定推荐信息,并展示给所述第一对象;其中,所述信息推荐模型采用如上述任一方面任一项所述的训练方法获得。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上述任一方面的任一项所述的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据上述任一方面的任一项所述的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据上述任一方面的任一项所述的方法。
根据本公开的技术方案,可以提高信息推荐的准确度。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的示意图;
图2是根据本公开第二实施例的示意图;
图3是根据本公开实施例提供的应用场景的示意图;
图4是根据本公开实施例提供的信息推荐模型的结构示意图;
图5是根据本公开第三实施例的示意图;
图6是根据本公开实施例提供的获取局部信息的流程示意图;
图7是根据本公开第四实施例的示意图;
图8是根据本公开第五实施例的示意图;
图9是根据本公开第六实施例的示意图;
图10是根据本公开第七实施例的示意图;
图11是用来实现本公开实施例的信息推荐模型的训练方法或信息推荐方法的电子设备的示意图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
联邦学习可以分为横向联邦学习和纵向联邦学习。横向联邦学习也称为基于样本的联邦学习,其在不同用户(客户端)上的样本重叠较少,但特征相同;纵向联邦学习也称为基于特征的联邦学习,其在不同用户(客户端)上的样本重叠较多,但特征不同。
具体到推荐领域,以针对用户推荐广告为例,横向联邦学习在每个客户端上可以均部署信息推荐模型,信息推荐模型的输入包括用户信息和广告信息,且用户信息和广告信息在不同的客户端上具有相同的特征,例如,在不同的客户端上,用户信息均包括年龄、性别等相同特征的信息,广告信息均包括类型、点击率等相同特征的信息。
纵向联邦学习的不同客户端提供不同样本,例如客户端A提供用户信息,客户端B提供广告信息。
本公开实施例主要针对基于横向联邦学习训练信息推荐模型。
图1是根据本公开第一实施例的示意图,本实施例提供一种信息推荐模型的训练方法,该方法包括:
101、基于至少一个客户端的局部密度,对所述至少一个客户端进行聚类处理,以获得至少一个簇。
102、针对所述至少一个簇中单个簇,执行第一预设次数的迭代过程,以确定所述单个簇的最终全局信息。
103、针对所述单个簇,将所述单个簇的最终全局信息发送至所述单个簇包括的客户端,以使所述客户端基于所述最终全局信息确定本地部署的信息推荐模型的最终模型参数。
其中,本实施例可以应用在信息推荐领域,例如为用户推荐广告。
本实施例的信息推荐模型可以是基于横向联邦学习训练的。
横向联邦学习的整体系统可以包括客户端和服务端,本实施例可以应用在服务端。
客户端是指参与横向联邦学习的客户端,例如,共有N(N为正整数)个客户端参与横向联邦学习,则可以基于这N个客户端中每个客户端的局部密度,对N个客户端进行聚类处理。
对N个客户端进行聚类处理后,可以将其聚类为K(K为正整数)个簇,每个簇内包括至少一个客户端,例如,针对某个簇,其内包括P(P为正整数,且小于或等于N)个客户端。不同簇包括的客户端的数量可以相同或不同。
若簇是多个,单个簇是指多个簇中的各个簇;若簇是一个,则单个簇是指该一个簇。
每次迭代时,在单个簇内,可以选择M(M为正整数,且小于或等于对应簇内的P)个客户端,对选择的M个客户端的局部信息进行聚合处理,以获得对应次的全局信息。不同簇选择的客户端的数量相同或不同。
本实施例中,对客户端进行聚类处理时,是基于客户端的局部密度进行聚类(clustering)处理,例如采用密度峰值聚类(Density Peaks Clustering,DPC)算法进行聚类处理。
相应的推荐算法可以称为基于密度峰值聚类的横向联邦推荐算法(DensityPeaks Horizontal Federated Recommender,DPHFR)。
相比于k-means聚类算法,基于DPC算法进行聚类,无需提前设置簇的数量,适用于处理任何形状的数据集,从而提高普适性。
客户端的局部密度可以基于客户端的初始局部信息计算。
单个客户端上获得的用于计算模型参数的相关信息可以称为局部信息,服务端对局部信息进行聚合(aggregating)处理后的信息可以称为全局信息。
用于计算模型参数的相关信息例如可以包括:模型参数(如包括权重值w和偏置值b),或者,梯度信息。
以上述的相关信息是模型参数,且模型参数是权重值w为例,则针对每个客户端,可以基于每个客户端上的初始权重值确定对应的局部密度,再基于局部密度将N个客户端划分为K个簇。
在单个簇内,可以执行第一预设次数的迭代过程,第一预设次数例如用T(T为正整数)表示,每次迭代过程后可以获得单个簇的本次全局信息,将最后一次(即第T次)得到的全局信息作为单个簇的最终全局信息。
不同簇之间的处理过程可以是并行执行的,即并行执行K组迭代过程,每组迭代过程包括T次。
获得单个簇的最终全局信息后,可以将其发送至对应簇包括的P(小于等于上述的N,且大于等于对应簇内的M)个客户端,这P个客户端可以基于最终全局信息获得最终模型参数。例如,最终全局信息是最终模型参数时,客户端可以将接收的最终全局模型参数作为本地部署的信息推荐模型的最终模型参数;或者,模型信息是梯度信息时,可以基于最终的全局梯度信息,采用反向传播(Back Propagation,BP)算法计算本地部署的信息推荐模型的最终模型参数。
在横向联邦学习中,不同客户端可能是非独立同分布(Non-IndependentIdentically Distribution,Non-IID)的,如果直接对局部信息进行聚合处理,会影响模型精度。
而本实施例中,通过聚类处理,可以将相似的客户端聚为同一簇,每个簇内的客户端可以认为是符合IID的,因此在每个簇内的聚合处理,是对相似的客户端的模型信息进行聚合处理,可以提高模型精度。另外,基于局部密度进行聚类,适用于各种形状的数据分布,提高普适性。
上述以服务端的执行为例进行了说明,客户端的执行流程可以如下。
图2是根据本公开第二实施例的示意图,本实施例提供一种信息推荐模型的训练方法,该方法包括:
201、接收服务端发送的最终全局信息;其中,所述最终全局信息是至少一个簇中自身客户端所属的簇的最终全局信息,所述至少一个簇是所述服务端基于至少一个客户端的局部密度,对所述至少一个客户端进行聚类处理后获得的。
202、基于所述最终全局信息,确定本地部署的信息推荐模型的最终模型参数。
其中,本实施例可以应用在信息推荐领域,例如为用户推荐广告。
本实施例的信息推荐模型可以是基于横向联邦学习训练的。
横向联邦学习的整体系统可以包括客户端和服务端,本实施例可以应用在客户端。
假设参与横向联邦学习的客户端为N个,每个客户端中均部署信息推荐模型,服务端会将N个客户端分为K个簇,并确定每个簇的最终全局信息,并将每个簇的最终全局信息发送至对应簇包括的客户端上。
客户端接收到服务端发送的最终全局信息后,可以基于最终全局信息确定本地部署的信息推荐模型的最终模型参数。
其中,上述的全局信息可以是全局模型参数,或者全局梯度信息。若全局信息是全局模型参数,则客户端可以将接收的全局模型参数作为本地部署的信息推荐模型的最终模型参数;或者,若全局信息是全局梯度信息,则客户端可以基于接收的全局梯度信息计算最终模型参数。
本实施例中,基于服务端发送的最终全局信息确定本地部署的信息推荐模型的最终模型参数,可以基于横向联邦学习获得信息推荐模型;并且由于服务端进行了聚类处理,可以提高模型的准确度;另外基于局部密度进行聚类处理,可以提高普适性。
一些实施例中,客户端还可以执行:
接收所述服务端发送的初始全局信息;
基于所述初始全局信息,执行第二预设次数的迭代过程,以获得自身客户端的初始局部信息;
将所述初始局部信息发送至所述服务端,以使所述服务端基于所述初始局部信息确定所述局部密度。
关于客户端的本地训练过程可以具体参见后续实施例。
本实施例中,客户端通过本地训练过程可以获得初始局部信息,并将初始局部信息发送至服务端,可以为服务端提供聚类的基础数据,提高聚类处理的准确度,进而提高模型的准确度。
为了更好地理解本公开实施例,下面对本公开实施例适用的应用场景进行说明。
如图3所示,横向联邦学习的整体架构可以包括客户端(用客户端301a~301N表示)和服务端。客户端可以部署在用户终端上,服务端可以部署在服务器上,用户终端可以为个人电脑(Personal Computer)、笔记本电脑、移动设备(如手机)等,服务器可以是本地服务器或者云端服务器,可以是集中式服务器或者分布式服务器。
横向联邦学习场景下,单个客户端上均部署信息推荐模型,并且不同客户端采用的本地样本具有相同的特征。
信息推荐模型是深度神经网络模型,以其是基于深度网络的语义模型(DeepStructured Semantic Model,DSSM)为例。
如图4所示,DSSM可以包括输入层、表示层和匹配层。
输入层用于将输入信息转换为输入特征,例如,将用户信息转换为用户输入特征,将广告信息转换为广告输入特征。
以用户侧为例,广告侧可以参照执行。输入层可以采用编码模块对用户信息进行编码,以获得编码特征,之后基于编码特征获得输入特征。
其中,若用户信息是多种类别,如图4所示,以用户信息包括用户稠密特征信息和用户稀疏特征信息为例,不同类别的用户信息可以采用不同的编码方式,如针对用户稠密特征信息可以采用one-hot编码,针对用户稀疏特征信息可以采用嵌入(embedding)编码。关于采用的具体信息可以根据实际需要选择,例如,选择年龄段信息(儿童、青年、中年、或者、老年)作为用户稠密特征信息,选择省份信息作为用户稀疏信息。由于应用在横向联邦学习中,不同客户端选择的用户信息的特征需要是相同的,即均选择年龄段信息和省份信息。
若用户信息是一个类别,则可以将编码特征作为输入特征。或者,若用户信息是多个类别,如上述的两个类别,可以将两个类别对应的编码特征进行特征拼接后,作为输入特征。特征拼接例如是一个特征是[0,1],另一个特征是[1,1],则拼接后特征是[0,1,1,1]。
表示层用于将输入特征转换为语义特征(或称为嵌入特征),例如,将用户输入特征转换为用户嵌入特征(user embedding),将广告输入特征转换为广告嵌入特征(adembedding)。
以用户侧为例,广告侧可以参照执行。表示层可以包括两个全连接层和一个用户嵌入层,经过这些层的处理,可以将用户输入特征转换为用户嵌入特征。
匹配层用于计算用户嵌入特征与广告嵌入特征的相似度,例如可以采用余弦(cos)或其他方式计算相似度。
另外,在训练阶段,计算出的相似度可以称为预测相似度,之后可以基于预测相似度和真实相似度(可以预先标注)构建损失函数,如二分类损失函数,进而基于损失函数训练模型。
训练模型时,具体是调整模型参数,直至达到预设结束条件,将达到预设结束条件时的模型参数作为最终模型参数。预设结束条件例如是预设的迭代次数,或者满足预设收敛条件等。
调整模型参数时,具体可以是调整表示层(包括两个全连接层和一个嵌入层)的模型参数,或者,也可以是调整表示层和输入层的模型参数。
DSSM是一种双塔模型,可以采用两个独立网络分别获得用户嵌入特征(userembedding)和广告嵌入特征(ad embedding)。
以调整表示层的模型参数为例,可以具体是调整用户侧的表示层的模型参数,以及广告侧的表示层的模型参数。
获得最终模型参数后,可以将具有最终模型参数的模型用于推理阶段,以为用户推荐信息。
在推理阶段,以推荐的信息是广告为例,可以基于计算出的相似度获得最终推荐的广告,例如,数据库内存储多个候选广告,可以基于用户嵌入特征和广告嵌入特征,计算用户与每个候选广告之间的相似度,之后选择相似度最高(或较高的预设个数)的广告作为最终推荐的广告。
结合上述的应用场景,本公开还提供一种信息推荐模型的训练方法。
图5是根据本公开第三实施例的示意图,本实施例提供一种信息推荐模型的训练方法,该方法包括:
501、服务端,获取至少一个客户端中单个客户端的初始局部信息。
其中,服务端可以将预设的初始全局信息发送至所述客户端;客户端基于所述初始全局信息获得初始局部信息;服务端接收所述客户端发送的所述初始局部信息。
其中,以相关信息是模型参数,且模型参数是权重值w为例,则服务端可以预设初始权重值,比如随机生成初始权重值w0,之后,将初始权重值w0发送至单个客户端。
客户端可以将初始权重值作为初始值,采用本地样本对本地部署的信息推荐模型进行训练,以获得初始局部信息。
关于客户端的本地训练过程可以参见图6所示的实施例。
初始局部信息可以表示为:
w={w1,w2,…wN}
其中,w是初始局部信息的集合;
wi是第i个客户端的初始局部信息,1≤i≤N
N是客户端的数量。
由于多个客户端之间的数据分布可能差异较大,本实施例中,服务端将初始全局信息发送至客户端,客户端基于初始全局信息获得初始局部信息,可以在客户端进行充分的本地学习后,服务端再基于客户端本地学习后获得的初始局部信息进行聚类等处理,提高模型精度。
502、服务端,基于所述初始局部信息确定所述客户端的局部密度,并基于所述局部密度,对所述至少一个客户端进行聚类处理,以获得至少一个簇。
其中,局部密度是DPC算法引入的定义。
DPC算法基于两个基本假设:1)簇中心(密度峰值点)的局部密度大于围绕它的邻居的局部密度;2)不同簇中心之间的距离相对较远。
为了找到同时满足这两个条件的簇中心,该算法引入了局部密度的定义。
传统的DPC算法中,每个数据点(如客户端)的局部密度的计算公式是:
其中,ρi是第i个数据点的局部密度;
d(i,j)是第i个数据点与第j个数据点之间的距离;
dc是预设的截断距离;
χ(·)是逻辑判断函数,若(·)<0,χ(·)=1,否则χ(·)=0
针对局部密度:
与通常的DPC计算局部密度不同的是,本实施例中引入指数函数和归一化函数。具体可以包括:采用预设的指数函数和归一化函数,对所述初始局部信息进行处理,以确定所述局部密度。
具体计算公式可以是:
其中,ρi是第i(1≤i≤N)个客户端的局部密度,即归一化后的密度;
ρi'是归一化前的密度;
d(i,j)是第i个客户端与第j个客户端对应的两个数据点之间的距离,可以基于两个客户端之间的初始局部信息(wi,wj)计算;
dc是截断距离,为预设值;
ρ'min是ρi'中的最小值,ρ'max是ρi'中的最大值;
e是指数函数。
本实施例中,基于指数函数和归一化函数确定局部密度,可以增加局部密度取值的多样性,减小算法在小数据集上受到大的统计误差的影响,提高稳健性。
聚类中心点也可以称为簇中心,基于局部密度进行聚类时,聚类中心点是密度峰值点。
针对聚类中心点:
与通常DPC算法中人工指定聚类中心点不同的是,本实施例中可以基于局部密度自动确定聚类中心点。
具体可以包括:基于所述局部密度,确定局部密度阈值;基于所述初始局部信息,确定跟随距离阈值;基于所述局部密度阈值和所述跟随距离阈值,确定所述聚类中心点。
具体计算公式可以包括:
C={ρi|ρi≥ρc且δi≥δc,i=1,2,...,N}
其中,ρc是局部密度阈值;
δc是跟随距离阈值;
δi是第i个客户端的跟随距离;
d(i,j)是第i个客户端与第j个客户端对应的两个数据点之间的距离,可以基于两个客户端之间的初始局部信息(wi,wj)计算;
λ,β是预设值,N是客户端的数量;
C是聚类中心点的集合,满足C所示条件的ρi对应的数据点即为聚类中心点。
获得局部密度和聚类中心点后,可以基于局部密度和聚类中心点获得单个簇。
其中,可以将每个客户端作为一个数据点,每个数据点的分配原则是,将其分配到其最近邻且局部密度比其局部密度大的聚类中心点所在的簇。
通常的DPC算法中人工指定聚类中心点,无法很好地应用在复杂数据集中,而本实施例中,通过基于局部密度确定聚类中心点,可以自动确定聚类中心点,从而可以有效应对复杂数据场景。
服务端进行聚类处理后,可以针对所述至少一个簇中单个簇,执行第一预设次数的迭代过程,以确定所述单个簇的最终全局信息。
单个簇之间可以并行执行。
在单个簇内部,可以执行:
针对所述单个簇,在所述单个簇内选择预设个数的客户端,并获取选择的客户端的本次局部信息;
针对所述单个簇,对所述选择的客户端的本次局部信息进行聚合处理,以获得所述单个簇的本次全局信息;
重复执行上述处理,直至达到所述第一预设次数,以确定所述单个簇的最终全局信息。
例如,第一预设次数可以用T表示,则针对第t(1≤t≤T)次,可以执行:
503、在单个簇内,选择预设个数的客户端,并获取选择的客户端的第t次的局部信息。
其中,可以随机选择预设个数的客户端。
服务端可以将上一次全局信息发送至对应簇内选择的客户端,选择的客户端可以将接收的上一次全局信息作为初始值,采用本地样本对本地部署的信息推荐模型进行训练,以获得本地局部信息,并将本地局部信息发送至服务端。
关于客户端的本地训练过程可以参见图6所示的实施例。
本实施例中,在每次聚合处理时,先触发选择的客户端进行本地训练,以获得更新后的局部信息,可以提高全局信息的准确度,进而提高模型精度。
504、在单个簇内,对所述选择的客户端的第t次的局部信息进行聚合处理,以获得单个簇的第t次的全局信息。
上述的503-504可以执行T次。
其中,聚合处理可以是对选择的客户端的本次局部信息进行加权求和(Fedavg)或者最优化(Fedopt)等操作,以加权求和为例,其计算公式可以是:
其中,wt是第t的全局信息;
M是选择的客户端的数量;
ni是选择的第i个客户端上的样本数量;
n是选择的客户端上的所有样本的总量。
505、在单个簇内,将第T次的全局信息作为单个簇的最终全局信息。
本实施例中,通过多次的聚合处理,可以提高最终全局信息的准确度,进而提高模型精度。
506、针对所述单个簇,将所述单个簇的最终全局信息发送至所述单个簇包括的客户端。
507、所述单个簇包括的客户端,基于所述最终全局信息确定本地部署的信息推荐模型的最终模型参数。
假设K=2,即包括第一簇和第二簇,另外,假设客户端包括A~E,且,A和B属于第一簇,C、D、E属于第二簇,第一簇的最终全局信息用第一全局信息表示,第二簇的最终全局信息用第二全局信息表示,则将第一全局信息发送至第一簇内的客户端,即A和B;将第二全局信息发送至第二簇内的客户端,即C、D和E。
客户端接收到服务端发送的最终全局信息后,可以基于最终全局信息确定本地部署的信息推荐模型的最终模型参数。
其中,上述的全局信息可以是全局模型参数,或者全局梯度信息。若全局信息是全局模型参数,则客户端可以将接收的全局模型参数作为本地部署的信息推荐模型的最终模型参数;或者,若全局信息是全局梯度信息,则客户端可以基于接收的全局梯度信息计算最终模型参数。
以客户端A为例,且假设全局信息是权重值w,则客户端A可以将接收的最终权重值w*作为客户端A本地部署的信息推荐模型的最终模型参数。
针对客户端的本地训练过程,如图6所示,以服务端获取第t次的局部信息为例,可以包括:
601、服务端,将第(t-1)次的全局信息发送至进行本地训练的客户端。
其中,本实施例中适用于上述的获取初始局部信息(可以认为t=0)的过程,也适用于T次迭代过程中获取第t(1≤t≤T)次的局部信息的过程。相应地,若t=0,则进行本地训练的客户端是指N个客户端中的每个客户端,若1≤t≤T,则进行本地训练的客户端是指单个簇内选择的客户端。
全局信息的初始值可以是随机生成的,比如随机生成的w0。
进行本地训练的客户端,可以将第(t-1)次的全局信息作为初始值,执行第二预设次数的迭代过程,以获得第t次的局部信息。
其中,客户端在本地训练时,可以采用本地样本(如用户信息样本和广告信息样本)对本地部署的信息推荐模型进行训练。
例如,第一预设次数可以用E表示,则针对第j(1≤j≤E)次,可以执行:
602、基于第(j-1)次的局部信息,获得第j次的局部信息。
603、将达到第二预设次数(第E次)的局部信息,作为第t次的局部信息。
其中,局部信息的初始值(第0次的局部信息)是服务端发送的第(t-1)次的全局信息。
以信息是模型参数(w和b)为例,可以执行E次的迭代过程,将最终(第E次后)获得的w和b作为第t次的局部信息。
以权重值w为例,偏置值b可以参照执行,每次迭代时的更新公式可以是:
其中,w'是更新后的权重值,如是第(j-1)次的局部信息;
w是更新前的权重值,如是第j次的局部信息;
η是学习率,可设置;
可以理解是,训练时还可以基于批大小对样本进行分批训练等处理。
604、进行本地训练的客户端,将第t次的局部信息发送至服务端。
之后,服务端可以基于第t次的局部信息获得第t次的全局信息。
上述实施例描述了模型训练过程,通过上述的训练过程,参与横向联邦学习的客户端可以获得本地部署的信息推荐模型,基于该信息推荐模型可以进行信息推荐。
图7是根据本公开第四实施例的示意图,本实施例提供一种信息推荐方法,包括:
701、获取第一对象的第一对象信息和至少一个第二对象的第二对象信息。
其中,第一对象例如为用户,第二对象例如为广告,相应地,第一对象信息例如为用户信息,第二对象信息例如为广告信息。
进一步地,参见图4,用户信息可以包括用户稠密特征信息和用户稀疏特征信息;广告信息可以包括广告稠密特征信息和广告稀疏特征信息。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
702、采用信息推荐模型,对所述第一对象信息和所述第二对象信息进行处理,以获得第一语义特征和第二语义特征。
其中,可以采用图4的输入层和表示层对上述的用户信息和广告信息进行处理后,以分别获得对应的用户嵌入特征(第一语义特征)和广告嵌入特征(第二语义特征)。
其中,信息推荐模型可以采用上述实施例所示的训练方式生成。
703、确定所述第一语义特征和所述第二语义特征之间的相似度。
其中,可以采用余弦函数等方式计算相似度。
704、基于所述相似度,在所述至少一个第二对象中确定推荐信息,并展示给所述第一对象。
例如,选择相似度最大(或较大的预设个数)的广告信息作为最终推荐给用户的推荐信息。
由于上述的训练方式可以获得更为精准的模型,本实施例采用该模型可以提高信息推荐的准确度。
图8是根据本公开第五实施例的示意图,本实施例提供一种信息推荐模型的训练装置,该装置800包括:聚类模块801、聚合模块802和发送模块803。
聚类模块801用于基于至少一个客户端的局部密度,对所述至少一个客户端进行聚类处理,以获得至少一个簇;
聚合模块802用于针对所述至少一个簇中单个簇,执行第一预设次数的迭代过程,以确定所述单个簇的最终全局信息;
发送模块803用于针对所述单个簇,将所述单个簇的最终全局信息发送至所述单个簇包括的客户端,以使所述客户端基于所述最终全局信息确定本地部署的信息推荐模型的最终模型参数。
本实施例中,通过聚类处理,可以将相似的客户端聚为同一簇,每个簇内的客户端可以认为是符合IID的,因此在每个簇内的聚合处理,是对相似的客户端的模型信息进行聚合处理,可以提高模型精度。另外,基于局部密度进行聚类,适用于各种形状的数据分布,提高普适性。
一些实施例中,所述聚类模块801进一步用于:
基于所述局部密度,确定聚类中心点;
基于所述局部密度和所述聚类中心点,对所述至少一个第一客户端进行聚类处理,以获得至少一个簇。
本实施例中,通常的DPC算法中人工指定聚类中心点,无法很好地应用在复杂数据集中,而本实施例中,通过基于局部密度确定聚类中心点,可以自动确定聚类中心点,从而可以有效应对复杂数据场景。
一些实施例中,该装置800还包括:
确定模块,用于将预设的初始全局信息发送至所述客户端,所述客户端用于基于所述初始全局信息获得初始局部信息;接收所述客户端发送的所述初始局部信息;以及,基于所述初始局部信息,确定所述局部密度。
由于多个客户端之间的数据分布可能差异较大,本实施例中,服务端将初始全局信息发送至客户端,客户端基于初始全局信息获得初始局部信息,可以在客户端进行充分的本地学习后,服务端再基于客户端本地学习后获得的初始局部信息进行聚类等处理,提高模型精度。
一些实施例中,所述确定模块进一步用于:
采用预设的指数函数和归一化函数,对所述初始局部信息进行处理,以确定所述局部密度。
本实施例中,基于指数函数和归一化函数确定局部密度,可以增加局部密度取值的多样性,减小算法在小数据集上受到大的统计误差的影响,提高稳健性。
一些实施例中,所述聚合模块802进一步用于:
针对所述单个簇,在所述单个簇内选择预设个数的客户端,并获取选择的客户端的本次局部信息;
针对所述单个簇,对所述选择的客户端的本次局部信息进行聚合处理,以获得所述单个簇的本次全局信息;
重复执行上述处理,直至达到所述第一预设次数,以确定所述单个簇的最终全局信息。
本实施例中,通过多次的聚合处理,可以提高最终全局信息的准确度,进而提高模型精度。
一些实施例中,所述聚合模块802进一步用于:
将所述单个簇的上一次全局信息,发送至所述选择的客户端,以使所述选择的客户端基于所述上一次全局信息获得本次局部信息;
接收所述选择的客户端发送的所述本次局部信息。
本实施例中,在每次聚合处理之后,先触发选择的客户端进行本地训练,以获得更新后的局部信息,可以提高全局信息的准确度,进而提高模型精度。
图9是根据本公开第六实施例的示意图,本实施例提供一种信息推荐模型的训练装置,该装置900包括:接收模块901和确定模块902。
接收模块901用于接收服务端发送的最终全局信息;其中,所述最终全局信息是至少一个簇中自身客户端所属的簇的最终全局信息,所述至少一个簇是所述服务端基于至少一个客户端的局部密度,对所述至少一个客户端进行聚类处理后获得的;
确定模块902用于基于所述最终全局信息,确定本地部署的信息推荐模型的最终模型参数。
本实施例中,基于服务端发送的最终全局信息确定本地部署的信息推荐模型的最终模型参数,可以基于横向联邦学习获得信息推荐模型;并且由于服务端进行了聚类处理,可以提高模型的准确度;另外基于局部密度进行聚类处理,可以提高普适性。
一些实施例中,该装置900还包括:
处理模块,用于接收所述服务端发送的初始全局信息;基于所述初始全局信息,执行第二预设次数的迭代过程,以获得自身客户端的初始局部信息;以及,将所述初始局部信息发送至所述服务端,以使所述服务端基于所述初始局部信息确定所述局部密度。
本实施例中,客户端通过本地训练过程可以获得初始局部信息,并将初始局部信息发送至服务端,可以为服务端提供聚类的基础数据,提高聚类处理的准确度,进而提高模型的准确度。
图10是根据本公开第七实施例的示意图,本实施例提供一种信息推荐装置,该装置1000包括:获取模块1001、提取模块1002、确定模块1003和展示模块1004。
获取模块1001用于获取第一对象的第一对象信息和至少一个第二对象的第二对象信息;
提取模块1002用于采用信息推荐模型,对所述第一对象信息和所述第二对象信息进行处理,以获得第一语义特征和第二语义特征;
确定模块1003用于确定所述第一语义特征和所述第二语义特征之间的相似度;
展示模块1004,用于基于所述相似度,在所述至少一个第二对象中确定推荐信息,并展示给所述第一对象;
其中,所述信息推荐模型采用上述实施例中的相关训练方法获得。
由于上述的训练方式可以获得更为精准的模型,本实施例采用该模型可以提高信息推荐的准确度。
可以理解的是,本公开实施例中,不同实施例中的相同或相似内容可以相互参考。
可以理解的是,本公开实施例中的“第一”、“第二”等只是用于区分,不表示重要程度高低、时序先后等。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图11示出了可以用来实施本公开的实施例的示例电子设备1100的示意性框图。电子设备1100旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备1100还可以表示各种形式的移动装置,诸如,个人数字助理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图11所示,电子设备1100包括计算单元1101,其可以根据存储在只读存储器(ROM)1102中的计算机程序或者从存储单元1108加载到随机访问存储器(RAM)1103中的计算机程序,来执行各种适当的动作和处理。在RAM 1103中,还可存储电子设备1100操作所需的各种程序和数据。计算单元1101、ROM 1102以及RAM 1103通过总线1104彼此相连。输入/输出(I/O)接口1105也连接至总线1104。
电子设备1100中的多个部件连接至I/O接口1105,包括:输入单元1106,例如键盘、鼠标等;输出单元1107,例如各种类型的显示器、扬声器等;存储单元1108,例如磁盘、光盘等;以及通信单元1109,例如网卡、调制解调器、无线通信收发机等。通信单元1109允许电子设备1100通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1101可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1101的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1101执行上文所描述的单个方法和处理,例如信息推荐及模型训练方法。例如,在一些实施例中,信息推荐及模型训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1108。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1102和/或通信单元1109而被载入和/或安装到电子设备1100上。当计算机程序加载到RAM 1103并由计算单元1101执行时,可以执行上文描述的信息推荐及模型训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元1101可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行信息推荐及模型训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程检索装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (21)
1.一种信息推荐模型的训练方法,包括:
基于至少一个客户端的局部密度,对所述至少一个客户端进行聚类处理,以获得至少一个簇;
针对所述至少一个簇中单个簇,执行第一预设次数的迭代过程,以确定所述单个簇的最终全局信息;
针对所述单个簇,将所述单个簇的最终全局信息发送至所述单个簇包括的客户端,以使所述客户端基于所述最终全局信息确定本地部署的信息推荐模型的最终模型参数。
2.根据权利要求1所述的方法,其中,所述基于至少一个客户端的局部密度,对所述至少一个客户端进行聚类处理,以获得至少一个簇,包括:
基于所述局部密度,确定聚类中心点;
基于所述局部密度和所述聚类中心点,对所述至少一个客户端进行聚类处理,以获得至少一个簇。
3.根据权利要求2所述的方法,还包括:
将预设的初始全局信息发送至所述客户端,以使所述客户端基于所述初始全局信息获得初始局部信息;
接收所述客户端发送的所述初始局部信息;
基于所述初始局部信息,确定所述局部密度。
4.根据权利要求3所述的方法,其中,所述基于所述初始局部信息,确定所述局部密度,包括:
采用预设的指数函数和归一化函数,对所述初始局部信息进行处理,以确定所述局部密度。
5.根据权利要求1所述的方法,其中,所述针对所述至少一个簇中单个簇,执行第一预设次数的迭代过程,以确定所述单个簇的最终全局信息,包括:
针对所述单个簇,在所述单个簇内选择预设个数的客户端,并获取选择的客户端的本次局部信息;
针对所述单个簇,对所述选择的客户端的本次局部信息进行聚合处理,以获得所述单个簇的本次全局信息;
重复执行上述处理,直至达到所述第一预设次数,以确定所述单个簇的最终全局信息。
6.根据权利要求5所述的方法,其中,所述获取选择的客户端的本次局部信息,包括:
将所述单个簇的上一次全局信息,发送至所述选择的客户端,以使所述选择的客户端基于所述上一次全局信息获得本次局部信息;
接收所述选择的客户端发送的所述本次局部信息。
7.一种信息推荐模型的训练方法,包括:
接收服务端发送的最终全局信息;其中,所述最终全局信息是至少一个簇中自身客户端所属的簇的最终全局信息,所述至少一个簇是所述服务端基于至少一个客户端的局部密度,对所述至少一个客户端进行聚类处理后获得的;
基于所述最终全局信息,确定本地部署的信息推荐模型的最终模型参数。
8.根据权利要求7所述的方法,还包括:
接收所述服务端发送的初始全局信息;
基于所述初始全局信息,执行第二预设次数的迭代过程,以获得自身客户端的初始局部信息;
将所述初始局部信息发送至所述服务端,以使所述服务端基于所述初始局部信息确定所述局部密度。
9.一种信息推荐方法,包括:
获取第一对象的第一对象信息和至少一个第二对象的第二对象信息;
采用信息推荐模型,对所述第一对象信息和所述第二对象信息进行处理,以获得第一语义特征和第二语义特征;
确定所述第一语义特征和所述第二语义特征之间的相似度;
基于所述相似度,在所述至少一个第二对象中确定推荐信息,并展示给所述第一对象;
其中,所述信息推荐模型采用如权利要求1-8任一项所述的训练方法获得。
10.一种信息推荐模型的训练装置,包括:
聚类模块,用于基于至少一个客户端的局部密度,对所述至少一个客户端进行聚类处理,以获得至少一个簇;
聚合模块,用于针对所述至少一个簇中单个簇,执行第一预设次数的迭代过程,以确定所述单个簇的最终全局信息;
发送模块,用于针对所述单个簇,将所述单个簇的最终全局信息发送至所述单个簇包括的客户端,以使所述客户端基于所述最终全局信息确定本地部署的信息推荐模型的最终模型参数。
11.根据权利要求10所述的装置,其中,所述聚类模块进一步用于:
基于所述局部密度,确定聚类中心点;
基于所述局部密度和所述聚类中心点,对所述至少一个第一客户端进行聚类处理,以获得至少一个簇。
12.根据权利要求11所述的装置,还包括:
确定模块,用于将预设的初始全局信息发送至所述客户端,所述客户端用于基于所述初始全局信息获得初始局部信息;接收所述客户端发送的所述初始局部信息;以及,基于所述初始局部信息,确定所述局部密度。
13.根据权利要求12所述的装置,其中,所述确定模块进一步用于:
采用预设的指数函数和归一化函数,对所述初始局部信息进行处理,以确定所述局部密度。
14.根据权利要求10所述的装置,其中,所述聚合模块进一步用于:
针对所述单个簇,在所述单个簇内选择预设个数的客户端,并获取选择的客户端的本次局部信息;
针对所述单个簇,对所述选择的客户端的本次局部信息进行聚合处理,以获得所述单个簇的本次全局信息;
重复执行上述处理,直至达到所述第一预设次数,以确定所述单个簇的最终全局信息。
15.根据权利要求14所述的装置,其中,所述聚合模块进一步用于:
将所述单个簇的上一次全局信息,发送至所述选择的客户端,以使所述选择的客户端基于所述上一次全局信息获得本次局部信息;
接收所述选择的客户端发送的所述本次局部信息。
16.一种信息推荐模型的训练装置,包括:
接收模块,用于接收服务端发送的最终全局信息;其中,所述最终全局信息是至少一个簇中自身客户端所属的簇的最终全局信息,所述至少一个簇是所述服务端基于至少一个客户端的局部密度,对所述至少一个客户端进行聚类处理后获得的;
确定模块,用于基于所述最终全局信息,确定本地部署的信息推荐模型的最终模型参数。
17.根据权利要求16所述的装置,还包括:
处理模块,用于接收所述服务端发送的初始全局信息;基于所述初始全局信息,执行第二预设次数的迭代过程,以获得自身客户端的初始局部信息;以及,将所述初始局部信息发送至所述服务端,以使所述服务端基于所述初始局部信息确定所述局部密度。
18.一种信息推荐装置,包括:
获取模块,用于获取第一对象的第一对象信息和至少一个第二对象的第二对象信息;
提取模块,用于采用信息推荐模型,对所述第一对象信息和所述第二对象信息进行处理,以获得第一语义特征和第二语义特征;
确定模块,用于确定所述第一语义特征和所述第二语义特征之间的相似度;
展示模块,用于基于所述相似度,在所述至少一个第二对象中确定推荐信息,并展示给所述第一对象;
其中,所述信息推荐模型采用如权利要求1-8任一项所述的训练方法获得。
19.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-9中任一项所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-9中任一项所述的方法。
21.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211393989.8A CN115796310A (zh) | 2022-11-08 | 2022-11-08 | 信息推荐及模型训练方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211393989.8A CN115796310A (zh) | 2022-11-08 | 2022-11-08 | 信息推荐及模型训练方法、装置、设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115796310A true CN115796310A (zh) | 2023-03-14 |
Family
ID=85436168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211393989.8A Pending CN115796310A (zh) | 2022-11-08 | 2022-11-08 | 信息推荐及模型训练方法、装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115796310A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116226540A (zh) * | 2023-05-09 | 2023-06-06 | 浙江大学 | 一种基于用户兴趣域的端到端联邦个性化推荐方法和系统 |
CN116991587A (zh) * | 2023-08-14 | 2023-11-03 | 北京百度网讯科技有限公司 | 联邦学习中的设备调度方法及装置 |
CN117077817A (zh) * | 2023-10-13 | 2023-11-17 | 之江实验室 | 一种基于标签分布的个性化联邦学习模型训练方法及装置 |
-
2022
- 2022-11-08 CN CN202211393989.8A patent/CN115796310A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116226540A (zh) * | 2023-05-09 | 2023-06-06 | 浙江大学 | 一种基于用户兴趣域的端到端联邦个性化推荐方法和系统 |
CN116226540B (zh) * | 2023-05-09 | 2023-09-26 | 浙江大学 | 一种基于用户兴趣域的端到端联邦个性化推荐方法和系统 |
CN116991587A (zh) * | 2023-08-14 | 2023-11-03 | 北京百度网讯科技有限公司 | 联邦学习中的设备调度方法及装置 |
CN116991587B (zh) * | 2023-08-14 | 2024-04-12 | 北京百度网讯科技有限公司 | 联邦学习中的设备调度方法及装置 |
CN117077817A (zh) * | 2023-10-13 | 2023-11-17 | 之江实验室 | 一种基于标签分布的个性化联邦学习模型训练方法及装置 |
CN117077817B (zh) * | 2023-10-13 | 2024-01-30 | 之江实验室 | 一种基于标签分布的个性化联邦学习模型训练方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115796310A (zh) | 信息推荐及模型训练方法、装置、设备和存储介质 | |
CN111966904B (zh) | 基于多用户画像模型的信息推荐方法和相关装置 | |
CN112765477B (zh) | 信息处理、信息推荐的方法和装置、电子设备和存储介质 | |
CN114494784A (zh) | 深度学习模型的训练方法、图像处理方法和对象识别方法 | |
US20230186607A1 (en) | Multi-task identification method, training method, electronic device, and storage medium | |
CN112580733A (zh) | 分类模型的训练方法、装置、设备以及存储介质 | |
CN111861596A (zh) | 一种文本分类方法和装置 | |
CN116029391A (zh) | 基于联邦学习的模型训练方法、预测方法、装置 | |
CN113837260A (zh) | 模型训练方法、对象匹配方法、装置及电子设备 | |
CN114821063A (zh) | 语义分割模型的生成方法及装置、图像的处理方法 | |
CN114528916A (zh) | 样本聚类处理方法、装置、设备及存储介质 | |
CN114037059A (zh) | 预训练模型、模型的生成方法、数据处理方法及装置 | |
CN113947700A (zh) | 模型确定方法、装置、电子设备和存储器 | |
CN115905648B (zh) | 基于高斯混合模型的用户群和金融用户群分析方法及装置 | |
CN114707638A (zh) | 模型训练、对象识别方法及装置、设备、介质和产品 | |
CN113806541A (zh) | 情感分类的方法和情感分类模型的训练方法、装置 | |
CN114169418A (zh) | 标签推荐模型训练方法及装置、标签获取方法及装置 | |
CN114117248A (zh) | 数据处理方法、装置及电子设备 | |
CN113361402B (zh) | 识别模型的训练方法、确定准确率的方法、装置和设备 | |
CN114547448B (zh) | 数据处理、模型训练方法、装置、设备、存储介质及程序 | |
CN115034511A (zh) | 企业生命周期确定方法、装置、电子设备及介质 | |
CN115455260A (zh) | 数据生成方法、装置及电子设备 | |
CN113902957A (zh) | 图像生成方法、模型的训练方法、装置、电子设备及介质 | |
CN114724003A (zh) | 图像特征提取模型的训练方法、图像检索方法及装置 | |
CN116188063A (zh) | 客群创建方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |