CN113762532B - 联邦学习模型的训练方法、装置、电子设备和存储介质 - Google Patents
联邦学习模型的训练方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN113762532B CN113762532B CN202110721446.3A CN202110721446A CN113762532B CN 113762532 B CN113762532 B CN 113762532B CN 202110721446 A CN202110721446 A CN 202110721446A CN 113762532 B CN113762532 B CN 113762532B
- Authority
- CN
- China
- Prior art keywords
- model
- training
- scores
- generation
- models
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 356
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000012545 processing Methods 0.000 claims description 30
- 125000004122 cyclic group Chemical group 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 12
- 238000004891 communication Methods 0.000 abstract description 17
- 230000006870 function Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000003062 neural network model Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000003066 decision tree Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本申请提出一种联邦学习模型的训练方法、装置、电子设备和存储介质,其中,该方法包括:与业务方服务器进行样本对齐;获取多个生成模型,并分别获取多个生成模型的当前样本;从多个生成模型的当前样本中分别获取多个生成模型的对齐样本;将多个生成模型的对齐样本分别输入至对应的具有初始生成模型参数的生成模型,以得到每个生成模型对应的模型分数,并发送至业务方服务器;以及接收业务方服务器发送的每个生成模型对应的模型训练分数,并根据模型训练分数对多个生成模型进行训练。由此,能够使业务方服务器与数据提供方服务器之间的联合训练更加高效,同时减轻了通信负担,且无需依赖密码学,降低了计算复杂度。
Description
技术领域
本申请涉及数据处理技术领域,尤其涉及一种联邦学习模型的训练方法、装置、电子设备和存储介质。
背景技术
联邦学习首先由谷歌提出,主要思想是基于分布在多个设备上的数据集构建机器学习模型,同时防止数据泄漏。
然而,当前较为流行的联邦学习技术均是结合密码学,针对建模过程中需要传输的敏感信息进行加密,以较为成熟的联邦学习框架为例,该框架中提供了多种联邦下的机器学习算法:决策树,深度神经网络,逻辑回归等,这些算法的实现均依赖于安全多方计算及密码学的各种方法,导致通信负担大,建模时间长,以及有较强的密码学壁垒,对于算法的优化造成了一定阻碍。
发明内容
本申请第一方面实施例提出一种联邦学习模型的训练方法,能够使业务方服务器与数据提供方服务器之间的联合训练更加高效,同时减轻了通信负担,且无需依赖密码学,降低了计算复杂度。
本申请第二方面实施例提出一种联邦学习模型的训练方法。
本申请第三方面实施例提出一种联邦学习模型的训练装置。
本申请第四方面实施例提出一种联邦学习模型的训练装置。
本申请第五方面实施例提出一种电子设备。
本申请第六方面实施例提出一种计算机可读存储介质。
本申请第一方面实施例提出了一种联邦学习模型的训练方法,包括:
与业务方服务器进行样本对齐;
获取多个生成模型,并分别获取所述多个生成模型的当前样本;
从所述多个生成模型的当前样本中分别获取所述多个生成模型的对齐样本;
将所述多个生成模型的对齐样本分别输入至对应的具有初始生成模型参数的所述生成模型,以得到每个所述生成模型对应的模型分数,并发送至所述业务方服务器;以及
接收所述业务方服务器发送的所述每个生成模型对应的模型训练分数,并根据所述模型训练分数对所述多个生成模型进行训练。
根据本申请实施例的联邦学习模型的训练方法,首先与业务方服务器进行样本对齐,并获取多个生成模型,以及分别获取多个生成模型的当前样本,然后从多个生成模型的当前样本中分别获取多个生成模型的对齐样本,并将多个生成模型的对齐样本分别输入至对应的具有初始生成模型参数的生成模型,以得到每个生成模型对应的模型分数,并发送至业务方服务器,最后接收业务方服务器发送的每个生成模型对应的模型训练分数,并根据模型训练分数对多个生成模型进行训练。由此,能够使业务方服务器与数据提供方服务器之间的联合训练更加高效,同时减轻了通信负担,且无需依赖密码学,降低了计算复杂度。
另外,根据本申请上述实施例的联邦学习模型的训练方法还可以具有如下附加的技术特征:
在本申请的一个实施例中,所述分别获取所述多个生成模型的当前样本之后,还包括:
分别获取所述多个生成模型的多个生成模型参数;
分别根据所述多个生成模型参数和对应的所述生成模型,对所述当前样本进行处理,以生成多个样本分数,并发送至所述业务方服务器;
接收所述业务方服务器发送的所述多个生成模型的初始样本分数,并根据所述多个生成模型的初始样本分数,确定所述多个生成模型的初始生成模型参数。
在本申请的一个实施例中,所述根据所述模型训练分数对所述多个生成模型进行训练包括:
根据所述模型训练分数,分别对所述多个生成模型的初始生成模型参数进行优化,以生成所述多个生成模型的优化生成模型参数。
在本申请的一个实施例中,所述根据所述多个生成模型的初始样本分数,确定所述多个生成模型的初始生成模型参数包括:
根据多个生成模型的初始样本分数,从所述多个生成模型的多个生成模型参数中选取所述每个生成模型对应的初始生成模型参数。
在本申请的一个实施例中,所述生成模型为参数化模型。
本申请第二方面实施例提出了一种联邦学习模型的训练方法,包括:
与数据提供方服务器进行样本对齐;
获取协同模型;
接收所述数据提供方服务器发送的每个生成模型对应的模型分数,并根据所述模型分数对所述协同模型进行循环训练,以得到所述协同模型的协同模型参数;以及
根据所述协同模型参数、所述协同模型和预设策略,对所述模型分数进行处理,以得到所述每个生成模型对应的模型训练分数,并发送至所述数据提供方服务器。
根据本申请实施例的联邦学习模型的训练方法,首先与数据提供方服务器进行样本对齐,并获取协同模型,以及接收数据提供方服务器发送的每个生成模型对应的模型分数,然后根据模型分数对协同模型进行循环训练,以得到协同模型的协同模型参数,最后根据协同模型参数、协同模型和预设策略,对模型分数进行处理,以得到每个生成模型对应的模型训练分数,并发送至数据提供方服务器。由此,能够使业务方服务器与数据提供方服务器之间的联合训练更加高效,同时减轻了通信负担,且无需依赖密码学,降低了计算复杂度。
另外,根据本申请上述实施例的联邦学习模型的训练方法还可以具有如下附加的技术特征:
在本申请的一个实施例中,所述获取协同模型之后,还包括:
接收所述数据提供方服务器发送的多个样本分数,并分别获取所述多个样本分数对应的标签;
根据所述标签从所述多个样本分数中分别选取多个生成模型的初始样本分数,并发送至所述数据提供方服务器。
在本申请的一个实施例中,所述根据所述模型分数对协同模型进行循环训练,以得到所述协同模型的协同模型参数包括:
获取所述协同模型训练标签;
将所述模型分数输入至所述协同模型以生成预测的训练模型分数;
根据所述预测的训练模型分数和所述训练标签生成损失值,并根据所述损失值对协同模型进行第一次训练;
在完成所述第一次训练之后,将所述模型分数作为所述完成所述第一次训练之后的协同模型的输入以进行第二次训练,直至训练的次数达到预设次数;
在所述训练的次数达到所述预设次数之后,从完成训练的协同模型中获取所述协同模型参数。
在本申请的一个实施例中,所述预设策略包括基于反事实推理生成的训练策略。
在本申请的一个实施例中,通过以下步骤获取第i个所述生成模型对应的模型训练分数,其中,i为正整数:
将所述模型分数中所述第i个生成模型对应的模型分数删除或置空,以得到目标模型分数集;
将所述目标模型分数集输入至所述协同模型以生成预测的分数;
计算所述训练标签与所述预测的分数之间的差值,以得到所述第i个生成模型对应的模型训练分数。
在本申请的一个实施例中,所述协同模型为参数化模型。
本申请第三方面实施例提出了一种联邦学习模型的训练装置,包括:
对齐模块,用于与业务方服务器进行样本对齐;
第一获取模块,用于获取多个生成模型,并分别获取所述多个生成模型的当前样本;
第二获取模块,用于从所述多个生成模型的当前样本中分别获取所述多个生成模型的对齐样本;
处理模块,用于将所述多个生成模型的对齐样本分别输入至对应的具有初始生成模型参数的所述生成模型,以得到每个所述生成模型对应的模型分数,并发送至所述业务方服务器;以及
训练模块,用于接收所述业务方服务器发送的所述每个生成模型对应的模型训练分数,并根据所述模型训练分数对所述多个生成模型进行训练。
本申请实施例的联邦学习模型的训练装置,首先通过对齐模块与业务方服务器进行样本对齐,并通过第一获取模块获取多个生成模型,并分别获取多个生成模型的当前样本,以及通过第二获取模块从多个生成模型的当前样本中分别获取多个生成模型的对齐样本,然后通过处理模块将多个生成模型的对齐样本分别输入至对应的具有初始生成模型参数的生成模型,以得到每个生成模型对应的模型分数,并发送至业务方服务器,最后通过训练模块接收业务方服务器发送的每个生成模型对应的模型训练分数,并根据模型训练分数对多个生成模型进行训练。由此,能够使业务方服务器与数据提供方服务器之间的联合训练更加高效,同时减轻了通信负担,且无需依赖密码学,降低了计算复杂度。
另外,根据本申请上述实施例的联邦学习模型的训练装置还可以具有如下附加的技术特征:
在本申请的一个实施例中,上述联邦学习模型的训练装置还包括:
第三获取模块,用于分别获取所述多个生成模型的多个生成模型参数;
生成模块,用于分别根据所述多个生成模型参数和对应的所述生成模型,对所述当前样本进行处理,以生成多个样本分数,并发送至所述业务方服务器;
确定模块,用于接收所述业务方服务器发送的所述多个生成模型的初始样本分数,并根据所述多个生成模型的初始样本分数,确定所述多个生成模型的初始生成模型参数。
在本申请的一个实施例中,所述训练模块,具体用于:
根据所述模型训练分数,分别对所述多个生成模型的初始生成模型参数进行优化,以生成所述多个生成模型的优化生成模型参数。
在本申请的一个实施例中,所述确定模块,具体用于:
根据多个生成模型的初始样本分数,从所述多个生成模型的多个生成模型参数中选取所述每个生成模型对应的初始生成模型参数。
在本申请的一个实施例中,所述生成模型为参数化模型。
本申请第四方面实施例提出了一种联邦学习模型的训练装置,包括:
对齐模块,用于与数据提供方服务器进行样本对齐;
第一获取模块,用于获取协同模型;
循环训练模块,用于接收所述数据提供方服务器发送的每个生成模型对应的模型分数,并根据所述模型分数对所述协同模型进行循环训练,以得到所述协同模型的协同模型参数;以及
处理模块,用于根据所述协同模型参数、所述协同模型和预设策略,对所述模型分数进行处理,以得到所述每个生成模型对应的模型训练分数,并发送至所述数据提供方服务器。
本申请实施例的联邦学习模型的训练装置,首先通过对齐模块与数据提供方服务器进行样本对齐,并通过第一获取模块获取协同模型,然后通过循环训练模块接收数据提供方服务器发送的每个生成模型对应的模型分数,并根据模型分数对协同模型进行循环训练,以得到协同模型的协同模型参数,最后通过处理模块根据协同模型参数、协同模型和预设策略,对模型分数进行处理,以得到每个生成模型对应的模型训练分数,并发送至数据提供方服务器。由此,能够使业务方服务器与数据提供方服务器之间的联合训练更加高效,同时减轻了通信负担,且无需依赖密码学,降低了计算复杂度。
另外,根据本申请上述实施例的联邦学习模型的训练装置还可以具有如下附加的技术特征:
在本申请的一个实施例中,上述联邦学习模型的训练装置还包括:
第二获取模块,用于接收所述数据提供方服务器发送的多个样本分数,并分别获取所述多个样本分数对应的标签;
选取模块,用于根据所述标签从所述多个样本分数中分别选取多个生成模型的初始样本分数,并发送至所述数据提供方服务器。
在本申请的一个实施例中,所述循环训练,具体用于:
获取所述协同模型训练标签;
将所述模型分数输入至所述协同模型以生成预测的训练模型分数;
根据所述预测的训练模型分数和所述训练标签生成损失值,并根据所述损失值对协同模型进行第一次训练;
在完成所述第一次训练之后,将所述模型分数作为所述完成所述第一次训练之后的协同模型的输入以进行第二次训练,直至训练的次数达到预设次数;
在所述训练的次数达到所述预设次数之后,从完成训练的协同模型中获取所述协同模型参数。
在本申请的一个实施例中,所述预设策略包括基于反事实推理生成的训练策略。
在本申请的一个实施例中,所述处理模块通过以下步骤获取第i个所述生成模型对应的模型训练分数,其中,i为正整数:
将所述模型分数中所述第i个生成模型对应的模型分数删除或置空,以得到目标模型分数集;
将所述目标模型分数集输入至所述协同模型以生成预测的分数;
计算所述训练标签与所述预测的分数之间的差值,以得到所述第i个生成模型对应的模型训练分数。
在本申请的一个实施例中,所述协同模型为参数化模型。
本申请第五方面实施例提出了一种电子设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如前述第一方面实施例或第二方面实施例所述的联邦学习模型的训练方法。
本申请实施例的电子设备,通过处理器执行存储在存储器上的计算机程序,能够使业务方服务器与数据提供方服务器之间的联合训练更加高效,同时减轻了通信负担,且无需依赖密码学,降低了计算复杂度。
本申请第六方面实施例提出了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时,实现如前述第一方面实施例或第二方面实施例所述的联邦学习模型的训练方法。
本申请实施例的计算机可读存储介质,通过存储计算机程序并被处理器执行,能够使业务方服务器与数据提供方服务器之间的联合训练更加高效,同时减轻了通信负担,且无需依赖密码学,降低了计算复杂度。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本申请一个实施例的联邦学习模型的训练方法的流程示意图;
图2为根据本申请具体实施例的业务方服务器和数据提供方服务器之间的交互示意图;
图3为根据本申请另一个实施例的联邦学习模型的训练方法的流程示意图;
图4为根据本申请具体实施例的生成模型损失示意图;
图5为根据本申请具体实施例的协同模型损失示意图;
图6为根据本申请另一个实施例的联邦学习模型的训练方法的流程示意图;
图7为根据本申请一个实施例的联邦学习模型的训练装置的方框示意图;
图8为根据本申请另一个实施例的联邦学习模型的训练装置的方框示意图;以及
图9为根据本申请一个实施例的电子设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参照附图描述本申请实施例的联邦学习模型的训练方法、装置、电子设备和存储介质。
本申请实施例提供的联邦学习模型的训练方法,可以由电子设备来执行,该电子设备可为PC(Personal Computer,个人计算机)电脑、平板电脑或服务器等,此处不做任何限定。
在本申请实施例中,电子设备中可以设置有处理组件、存储组件和驱动组件。可选的,该驱动组件和处理组件可以集成设置,该存储组件可以存储操作系统、应用程序或其他程序模块,该处理组件通过执行存储组件中存储的应用程序来实现本申请实施例提供的联邦学习模型的训练方法。
图1为根据本申请一个实施例的联邦学习模型的训练方法的流程示意图。
本申请实施例的联邦学习模型的训练方法,还可由本申请实施例提供的联邦学习模型的训练装置执行,该装置可配置于电子设备中,以实现与业务方服务器进行样本对齐,并获取多个生成模型,以及分别获取多个生成模型的当前样本,然后从多个生成模型的当前样本中分别获取多个生成模型的对齐样本,并将多个生成模型的对齐样本分别输入至对应的具有初始生成模型参数的生成模型,以得到每个生成模型对应的模型分数,并发送至业务方服务器,以及接收业务方服务器发送的每个生成模型对应的模型训练分数,并根据模型训练分数对多个生成模型进行训练,从而使业务方服务器与数据提供方服务器之间的联合训练更加高效。
作为一种可能的情况,本申请实施例的联邦学习模型的训练方法还可以在服务器端执行,服务器可以为云服务器,可以在云端执行该联邦学习模型的训练方法。
如图1所示,该联邦学习模型的训练方法,可包括:
步骤101,与业务方服务器进行样本对齐。
在本申请实施例中,数据提供方(即,数据提供方服务器)可通过预设的方法与业务方服务器进行样本对齐。其中,预设的方法可根据实际情况进行标定。例如,由于合作方的用户群体并非完全重合,可利用基于加密的用户样本对齐技术(方法),在业务方和数据提供方均不公开各自数据的前提下确认双方的共有用户,并且不暴露不互相重叠的用户。
需要说明的是,该实施例中所描述样本对齐也可以是指,数据提供方法服务器与业务方服务器进行样本位置的对齐,以便于进行精确的样本传输。另外,在进行样本对齐的过程中,可建立业务方和数据提供方服务器之间的通信通道(信道),且可对该通信通道进行加密。
步骤102,获取多个生成模型,并分别获取多个生成模型的当前样本。其中,生成模型可为参数化模型,例如,决策树模型、神经网络模型等。
需要说明的是,该实施例中所描述的生成模型的数量可根据合作方的数量进行标定,即一个合作方对应一个生成模型,并且该生成模型可为决策树模型、神经网络模型等参数化模型。另外,数据提供方服务器中多个合作方的生成模型可统一为同一种参数化模型。
在本申请实施例中,当前样本的数量可为多个,其中,当前样本的获取途径也可为多个,例如,当前样本可由相关人员直接提供,也可以是直接获取联邦学习模型工作过程中的输入数据,并可进行一定的加工生成当前样本。
具体地,参见图2,数据提供方服务器在完成与业务方服务器的样本对齐之后,数据提供方服务器可从自身的存储空间中获取n个生成模型,和该n个生成模型的当前样本。其中,n可为大于1的正整数。
需要说明的是,该实施例中所描述的存储空间不仅限于基于实体的存储空间,例如,硬盘,上述存储空间还可以是连接数据提供方服务器的云存储空间。
在本申请的实施例中,当数据提供方服务器和业务方服务器之间完成样本对齐之后,业务方服务器也可从自身的存储空间中获取协同模型,且该协同模型可为参数化模型。
进一步地,在本申请的一个实施例中,如图3所示,分别获取多个生成模型的当前样本之后,可还包括:
步骤301,分别获取多个生成模型的多个生成模型参数。
需要说明的是,该实施例中所描述的多个生成模型参数可以是相关人员根据需求指定的,其中,多个生成模型参数中的一个生成模型参数可包括至少一个参数数据,且一个生成模型可具有一个生成模型参数。
在本申请实施例中,相关人员可根据需求为每个生成模型指定多个生成模型参数,并将其预先存储在数据提供方服务器的存储空间中,以便于数据提供方服务器调用。
步骤302,分别根据多个生成模型参数和对应的生成模型,对当前样本进行处理,以生成多个样本分数,并发送至业务方服务器。
具体地,参见图2,数据提供方服务器在获取到n个生成模型和该n个生成模型的当前样本之后,还可继续从自身的存储空间中分别获取n个生成模型的多个生成模型参数,并将每个生成模型对应的(多个)当前样本分别输入至对应的具有不同生成模型参数的生成模型中,从而通过n个生成模型基于不同的生成模型参数输出多个样本分数,将该多个样本分数发送至业务方服务器。
进一步地,在本申请实施例中,业务方服务器可接收数据提供方服务器发送的多个样本分数,并分别获取多个样本分数对应的标签,以及根据标签从多个样本分数中分别选取多个生成模型的初始样本分数,并发送至数据提供方服务器。
需要说明的是,该实施例中所描述的标签可为上述当前样本对应的标签,该标签可预选存储在业务方服务器的存储空间中以便于后续的调用。
具体地,参见图2,业务方服务器在接收到数据提供方服务器发送的多个样本分数之后,可根据该多个样本分数,从自身的存储空间中分别获取多个样本分数对应的标签,并根据该标签从多个样本分数中分别选取n个生成模型的初始样本分数,即根据该标签从每个生成模型对应的多个样本分数中,确定每个生成模型最优的样本分数,并将其作为初始样本分数。然后,业务方服务器将n个生成模型的初始样本分数发送至数据提供方服务器。
步骤303,接收业务方服务器发送的多个生成模型的初始样本分数,并根据多个生成模型的初始样本分数,确定多个生成模型的初始生成模型参数。
为了清楚说明上一实施例,在本申请的一个实施例中,根据多个生成模型的初始样本分数,确定多个生成模型的初始生成模型参数可包括:根据多个生成模型的初始样本分数,从多个生成模型的多个生成模型参数中选取每个生成模型对应的初始生成模型参数。
需要说明的是,该实施例中所描述的数据提供方服务器在生成样本分数时,同时可生成样本分数和对应的生成模型参数的对应关系表,并将其进行暂存。
具体地,参见图2,数据提供方服务器在接收到业务方服务器发送的n个生成模型的初始样本分数之后,可根据暂存的样本分数和对应的生成模型参数的对应关系表,以及n个生成模型的初始样本分数,从n个生成模型的多个生成模型参数中选取每个生成模型对应的初始生成模型参数。由此,每个生成模型各自具有了初始生成模型参数,从而提升后续训练的稳定性和训练效果。
步骤103,从多个生成模型的当前样本中分别获取多个生成模型的对齐样本。
在本申请实施例中,每个生成模型对应的对齐样本可为多个。
步骤104,将多个生成模型的对齐样本分别输入至对应的具有初始生成模型参数的生成模型,以得到每个生成模型对应的模型分数,并发送至业务方服务器。
具体地,参见图2,数据提供方服务器在得到每个生成模型对应的初始生成模型参数之后,可从n个生成模型的当前样本中分别获取n个生成模型的对齐样本。即每个生成模型对应的m个对齐样本,其中,m可为正整数。然后数据提供方服务器可将n个生成模型的对齐样本分别输入至对应的具有初始生成模型参数的生成模型,从而通过每个具有初始生成模型参数的生成模型,得到(输出)每个生成模型对应的m个模型分数,由此数据提供方服务器可得到n*m个模型分数。再然后数据提供方服务器可将该n*m个模型分数发送至业务方服务器。
在本申请实施例中,业务方服务器可接收数据提供方服务器发送的每个生成模型对应的模型分数,并根据模型分数对协同模型进行循环训练,以得到协同模型的协同模型参数,以及根据协同模型参数、协同模型和预设策略,对模型分数进行处理,以得到每个生成模型对应的模型训练分数,并发送至数据提供方服务器,其中,预设策略可根据实际情况进行标定。
其中,根据模型分数对协同模型进行循环训练,以得到协同模型的协同模型参数可包括:获取协同模型训练标签;将模型分数输入至协同模型以生成预测的训练模型分数;根据预测的训练模型分数和训练标签生成损失值,并根据损失值对协同模型进行第一次训练;在完成第一次训练之后,将模型分数作为完成第一次训练之后的协同模型的输入以进行第二次训练,直至训练的次数达到预设次数;在训练的次数达到预设次数之后,从完成训练的协同模型中获取协同模型参数,其中,预设次数可根据实际情况进行标定。
需要说明的是,上述实施例中所描述的协同模型可为参数化模型,例如,决策树模型、神经网络模型等。
具体地,参见图2,业务方服务器在接收到数据提供方服务器发送的n*m个模型分数(每个生成模型对应的模型分数)之后,可先从自身的存储空间中获取协同模型的训练标签,然后可将该n*m个模型分数输入至该协同模型,从而通过该协同模型对该n*m个模型分数进行处理,以生成(输出)预测的训练模型分数。然后业务方服务器可根据预测的训练模型分数和训练标签生成损失值,并根据该损失值对协同模型进行第一次训练。
在完成第一次训练之后,业务方服务器还可将上述的n*m个模型分数作为完成第一次训练之后的协同模型的输入再次输入至该协同模型,从而通过该协同模型再次对该n*m个模型分数进行处理,以生成(输出)预测的训练模型分数,并再次根据该预测的训练模型分数和上述训练标签生成损失值,以及根据该损失值对协同模型进行第二次训练。业务方服务器可重复执行上述的训练过程,直至训练的次数达到预设次数。在训练的次数达到预设次数之后,业务方服务器可从完成训练的协同模型中获取协同模型参数。
最后,业务方服务器可根据协同模型参数、协同模型和预设策略,对模型分数进行处理,以得到每个生成模型对应的模型训练分数,并将该每个生成模型对应的模型训练分数发送至数据提供方服务器。
为了清楚说明上一实施例,在本申请的一个实施例中,上述的预设策略可包括基于反事实推理生成的训练策略。
进一步地,在本申请实施例中,可通过以下步骤获取第i个生成模型对应的模型训练分数,其中,i为正整数:将模型分数中第i个生成模型对应的模型分数删除或置空,以得到目标模型分数集,并将目标模型分数集输入至协同模型以生成预测的分数,以及计算训练标签与预测的分数之间的差值,以得到第i个生成模型对应的模型训练分数。
需要说明的是,上述实施例中所描述的业务方服务器可根据实际情况,确定将模型分数中第i个生成模型对应的模型分数删除,还是置空。
具体地,业务方服务器在从完成训练的协同模型中获取协同模型参数之后,假设在没有第i个生成模型的情况下,其余生成模型输出分数xCOi(即,目标模型分数集)经过协同模型拟合得到值YCOi(即,预测的分数),而训练标签Y(协同模型的训练标签)与其的差值应当为第i个生成模型更新需要的方向,更新目标Ylabel_i=Y-Ycoi,即Ylabel_i可为第i个生成模型对应的模型训练分数。其中,i可为小于等于上述n的正整数。通过上述的方式可以得到每个生成模型对应的模型训练分数,并将其发送至数据提供方服务器。
需要说明的是,协同模型保留训练得到的协同模型参数θ和标签(即,训练标签),采用反事实推理的思想训练数据提供方服务器中的诸多生成模型,使得生成模型在已有的规则和标签情况下,得到更好的模型分数Xco(即,每个生成模型对应的模型分数)。反事实推理是指对过去已经发生的事实进行否定而重新表征,以建构一种可能性假设的想法。该模型分数Xco在协同模型参数θ非线性变换后会生成更接近标签的拟合值(即,协同模型输出的结果)。在协同生成网络框架下反事实推理的使用细节如下:拥有n个生成模型的数据提供方服务器,可输出由所有生成模型输出分数组合而成的Xco作为协同模型当下的输入。
其中,若希望得到第i个生成模型更新需要的标签,即协同模型指引该生成模型的变化方向xi,则可以假设在没有第i个生成模型的情况下,其余生成模型输出分数xcoi经过协同模型拟合得到值Ycoi,而训练标签Y与其的差值应当为第i个生成模型更新需要的方向,更新目标Ylabel_i=Y-Ycoi。
进一步地,每个生成器都经过反事实推理思想的指引后完成自身参数(模型参数)的更新,并可重复上述的步骤S101至S105进行下一轮的训练,应说明的是,本申请并不需要在上述的每一轮的训练中都获取新的协同模型参数,可以每隔几轮获取(更新)一次协同模型的协同模型参数,此处不做任何限定。
步骤105,接收业务方服务器发送的每个生成模型对应的模型训练分数,并根据模型训练分数对多个生成模型进行训练。
为了清楚说明上一实施例,在本申请的一个实施例中,根据模型训练分数对多个生成模型进行训练可包括根据模型训练分数,分别对多个生成模型的初始生成模型参数进行优化,以生成多个生成模型的优化生成模型参数。
具体地,参见图2,数据提供方服务器在接收到业务方服务器发送的每个生成模型对应的模型训练分数之后,可根据该模型训练分数,分别对n个生成模型的初始生成模型参数进行优化,以生成n个生成模型的优化生成模型参数。
进一步地,在本申请实施例中,在完成上述的训练,多个生成模型和协同模型稳定后,可采用梯度提升(Boosting)的思想对多个生成模型和协同模型进行加强训练,从而进一步提升多个生成模型和协同模型的稳定性。
更进一步地,在本申请实施例中,在多个生成模型和协同模型训练完成之后,如果需要对数据进行推理,则需要各方利用训练好每轮梯度提升(Boosting)的生成模型同时生成分数,传输到对应Boosting轮次的协同模型,协同模型整合Boosting各轮得分,最终得将各个Boosting轮次协同模型整合得到的分数求和,再经过Sigmioid函数(S型生长曲线)将其投影至(0,1)区间,最终得到该用户的标签。
其中,值得注意的是,以上的框架(协同生成网络框架)将真实标签(即,上述的训练标签)0,1看做二分类问题,因而从损失函数到每轮Boosting的目标都体现了分类问题的特点。从另一个角度看待标签0,1,可以认为是0,1标签是概率值,此时0和1不再是二分类的标签信息而是极端的概率值0和1,因而整个框架便可以看做是为了解决一个回归问题。相应地,可以使用MSE(Mean Square Error,均方误差)函数用于计算拟合值和真实值的差距,每轮Boosting的目标可以直接使用作为新的标签,/>可为目前每轮Boosting拟合值的直接相加。在技术应用实例中,本申请可将进一步展示分类框架与回归框架在具体实例上的表现。
在本申请实施例中,本申请的训练数据和预测数据可均采用的是某真实数据集,特征维数203维,我们模拟真实联邦下的三方建模,将数据集划分为5维,11维,185维。训练数据样本量为168948,预测数据样本量为168948。按照方案的设定进行模拟,将数据按照特征维度大致等分为三份模拟三方协同建模的场景。
由于本申请中的生成模型理论上可以采用任何机器学习模型(如树模型、神经网络模型等),本示例采用了其中DNN(Deep Neural Networks,神经网络模型)模型同时作为生成模型和协同模型,用来生成各方分数并协同训练。生成模型和协同模型神经网络都可采用结构为[X,3,4,5,Y]的网络生成协同分及进行协同,生成模型的隐含层激活函数选择ReLu函数(线性整流函数),第一轮Boosting输出函数选择Sigmoid函数,其余轮Boosting由于训练目标是残差,因而选择全连接层,不使用激活函数,协同模型隐含层的设置可与生成模型相同。
具体地,参见下述表格1中的本申请训练完成的协同生成网络框架在跨时间样本(OOT数据集上的效果(KS,即Kolmogorov-Smirnov值):
表格1
其中,每种方法我们分别训练五次,从两个框架在OOT(Out Of Time,指的是跨时间样本)数据集上的表现可以发现,协同生成网络框架KS普遍高于原始的协同提升框架,且表现稳定,均值为20.06,方差为1.62。而现有流行建模方法SecureBoost算法在此OOT数据集上KS为27.6,本方案效果接近相关技术,且计算时间为相关技术的六分之一。
具体观察生成模型和协同模型的损失图像,发现三个生成模型的损失曲线参见图4,可以看到大体趋势相同,但每一轮提升过程中都存在一段时间的震荡协同,生成模型在每一轮Boosting后由震荡趋于稳定说明了生成模型在协同模型的指引下逐渐达到平衡状态;得到协同模型的损失曲线参见图5,可以看到每一轮Boosting中协同模型都由于坐标交替训练损失稳定下降,这说明了本申请训练的有效性。
综上,根据本申请实施例的联邦学习模型的训练方法,首先与业务方服务器进行样本对齐,并获取多个生成模型,以及分别获取多个生成模型的当前样本,然后从多个生成模型的当前样本中分别获取多个生成模型的对齐样本,并将多个生成模型的对齐样本分别输入至对应的具有初始生成模型参数的生成模型,以得到每个生成模型对应的模型分数,并发送至业务方服务器,最后接收业务方服务器发送的每个生成模型对应的模型训练分数,并根据模型训练分数对多个生成模型进行训练。由此,能够使业务方服务器与数据提供方服务器之间的联合训练更加高效,同时减轻了通信负担,且无需依赖密码学,降低了计算复杂度。
图6为根据本申请另一个实施例的联邦学习模型的训练方法的流程示意图。
本申请实施例的联邦学习模型的训练方法,还可由本申请实施例提供的联邦学习模型的训练装置行,该装置可配置于电子设备中,以实现与数据提供方服务器进行样本对齐,并获取协同模型,以及接收数据提供方服务器发送的每个生成模型对应的模型分数,然后根据模型分数对协同模型进行循环训练,以得到协同模型的协同模型参数,以及根据协同模型参数、协同模型和预设策略,对模型分数进行处理,以得到每个生成模型对应的模型训练分数,并发送至数据提供方服务器,从而能够使业务方服务器与数据提供方服务器之间的联合训练更加高效。
作为一种可能的情况,本申请实施例的联邦学习模型的训练方法还可以在服务器端执行,服务器可以为云服务器,可以在云端执行该联邦学习模型的训练方法。
如图6所示,该联邦学习模型的训练方法,可包括:
步骤601,与数据提供方服务器进行样本对齐。
步骤602,获取协同模型。
步骤603,接收数据提供方服务器发送的每个生成模型对应的模型分数,并根据模型分数对协同模型进行循环训练,以得到协同模型的协同模型参数。
步骤604,根据协同模型参数、协同模型和预设策略,对模型分数进行处理,以得到每个生成模型对应的模型训练分数,并发送至数据提供方服务器。
在本申请的一个实施例中,获取协同模型之后,还包括:接收数据提供方服务器发送的多个样本分数,并分别获取多个样本分数对应的标签;根据标签从多个样本分数中分别选取多个生成模型的初始样本分数,并发送至数据提供方服务器。
在本申请的一个实施例中,根据模型分数对协同模型进行循环训练,以得到协同模型的协同模型参数包括:获取协同模型的训练标签;将模型分数输入至协同模型以生成预测的训练模型分数;根据预测的训练模型分数和训练标签生成损失值,并根据损失值对协同模型进行第一次训练;在完成第一次训练之后,将模型分数作为完成第一次训练之后的协同模型的输入以进行第二次训练,直至训练的次数达到预设次数;在训练的次数达到预设次数之后,从完成训练的协同模型中获取协同模型参数。
在本申请的一个实施例中,预设策略包括基于反事实推理生成的训练策略。
在本申请的一个实施例中,通过以下步骤获取第i个生成模型对应的模型训练分数,其中,i为正整数:将模型分数中第i个生成模型对应的模型分数删除或置空,以得到目标模型分数集;将目标模型分数集输入至协同模型以生成预测的分数;计算训练标签与预测的分数之间的差值,以得到第i个生成模型对应的模型训练分数。
在本申请的一个实施例中,协同模型为参数化模型。
需要说明的是,本申请实施例的联邦学习模型的训练方法中未披露的细节,请参照本申请图1至5实施例的联邦学习模型的训练方法中所披露的细节,具体这里不再赘述。
综上,根据本申请实施例的联邦学习模型的训练方法,首先与数据提供方服务器进行样本对齐,并获取协同模型,以及接收数据提供方服务器发送的每个生成模型对应的模型分数,然后根据模型分数对协同模型进行循环训练,以得到协同模型的协同模型参数,最后根据协同模型参数、协同模型和预设策略,对模型分数进行处理,以得到每个生成模型对应的模型训练分数,并发送至数据提供方服务器。由此,能够使业务方服务器与数据提供方服务器之间的联合训练更加高效,同时减轻了通信负担,且无需依赖密码学,降低了计算复杂度。
图7为根据本申请一个实施例的联邦学习模型的训练装置的方框示意图。
本申请实施例的联邦学习模型的训练装置,可配置于电子设备中,以实现与业务方服务器进行样本对齐,并获取多个生成模型,以及分别获取多个生成模型的当前样本,然后从多个生成模型的当前样本中分别获取多个生成模型的对齐样本,并将多个生成模型的对齐样本分别输入至对应的具有初始生成模型参数的生成模型,以得到每个生成模型对应的模型分数,并发送至业务方服务器,以及接收业务方服务器发送的每个生成模型对应的模型训练分数,并根据模型训练分数对多个生成模型进行训练,从而使业务方服务器与数据提供方服务器之间的联合训练更加高效。
如图7所示,该联邦学习模型的训练装置700,可包括:对齐模块710、第一获取模块720、第二获取模块730、处理模块740、训练模块750。
其中,对齐模块710用于与业务方服务器进行样本对齐。
第一获取模块720用于获取多个生成模型,并分别获取多个生成模型的当前样本。
第二获取模块730用于从多个生成模型的当前样本中分别获取多个生成模型的对齐样本。
处理模块740用于将多个生成模型的对齐样本分别输入至对应的具有初始生成模型参数的生成模型,以得到每个生成模型对应的模型分数,并发送至业务方服务器。
训练模块750用于接收业务方服务器发送的每个生成模型对应的模型训练分数,并根据模型训练分数对多个生成模型进行训练。
在本申请的一个实施例中,如图7所示,该联邦学习模型的训练装置700还可包括:第三获取模块760、生成模块770和确定模块780。
其中,第三获取模块760用于分别获取多个生成模型的多个生成模型参数。
生成模块770用于分别根据多个生成模型参数和对应的生成模型,对当前样本进行处理,以生成多个样本分数,并发送至业务方服务器。
确定模块780用于接收业务方服务器发送的多个生成模型的初始样本分数,并根据多个生成模型的初始样本分数,确定多个生成模型的初始生成模型参数。
在本申请的一个实施例中,训练模块750具体用于:根据模型训练分数,分别对多个生成模型的初始生成模型参数进行优化,以生成多个生成模型的优化生成模型参数。
在本申请的一个实施例中,确定模块780具体用于:根据多个生成模型的初始样本分数,从多个生成模型的多个生成模型参数中选取每个生成模型对应的初始生成模型参数。
在本申请的一个实施例中,生成模型为参数化模型。
需要说明的是,本申请实施例的联邦学习模型的训练装置中未披露的细节,请参照本申请图1至图5实施例的联邦学习模型的训练方法中所披露的细节,具体这里不再赘述。
综上,本申请实施例的联邦学习模型的训练装置,首先通过对齐模块与业务方服务器进行样本对齐,并通过第一获取模块获取多个生成模型,并分别获取多个生成模型的当前样本,以及通过第二获取模块从多个生成模型的当前样本中分别获取多个生成模型的对齐样本,然后通过处理模块将多个生成模型的对齐样本分别输入至对应的具有初始生成模型参数的生成模型,以得到每个生成模型对应的模型分数,并发送至业务方服务器,最后通过训练模块接收业务方服务器发送的每个生成模型对应的模型训练分数,并根据模型训练分数对多个生成模型进行训练。由此,能够使业务方服务器与数据提供方服务器之间的联合训练更加高效,同时减轻了通信负担,且无需依赖密码学,降低了计算复杂度。
图8为根据本申请另一个实施例的联邦学习模型的训练装置的方框示意图。
本申请实施例的联邦学习模型的训练装置,可配置于电子设备中,以实现与数据提供方服务器进行样本对齐,并获取协同模型,以及接收数据提供方服务器发送的每个生成模型对应的模型分数,然后根据模型分数对协同模型进行循环训练,以得到协同模型的协同模型参数,以及根据协同模型参数、协同模型和预设策略,对模型分数进行处理,以得到每个生成模型对应的模型训练分数,并发送至数据提供方服务器,从而能够使业务方服务器与数据提供方服务器之间的联合训练更加高效。
如图8所示,该联邦学习模型的训练装置800,可包括:对齐模块810、第一获取模块820、循环训练模块830和处理模块840。
其中,对齐模块810用于与数据提供方服务器进行样本对齐。
第一获取模块820用于获取协同模型。
循环训练模块830用于接收数据提供方服务器发送的每个生成模型对应的模型分数,并根据模型分数对协同模型进行循环训练,以得到协同模型的协同模型参数。
处理模块840用于根据协同模型参数、协同模型和预设策略,对模型分数进行处理,以得到每个生成模型对应的模型训练分数,并发送至数据提供方服务器。
在本申请的一个实施例中,如图8所示,该联邦学习模型的训练装置800还可包括:第二获取模块850和选取模块860。
其中,第二获取模块850用于接收数据提供方服务器发送的多个样本分数,并分别获取多个样本分数对应的标签。
选取模块860用于根据标签从多个样本分数中分别选取多个生成模型的初始样本分数,并发送至数据提供方服务器。
在本申请的一个实施例中,循环训练模块830具体用于:获取协同模型的训练标签;将模型分数输入至协同模型以生成预测的训练模型分数;根据预测的训练模型分数和训练标签生成损失值,并根据损失值对协同模型进行第一次训练;在完成第一次训练之后,将模型分数作为完成第一次训练之后的协同模型的输入以进行第二次训练,直至训练的次数达到预设次数;在训练的次数达到预设次数之后,从完成训练的协同模型中获取协同模型参数。
在本申请的一个实施例中,预设策略包括基于反事实推理生成的训练策略。
在本申请的一个实施例中,处理模块840通过以下步骤获取第i个生成模型对应的模型训练分数,其中,i为正整数:将模型分数中第i个生成模型对应的模型分数删除或置空,以得到目标模型分数集;将目标模型分数集输入至协同模型以生成预测的分数;计算训练标签与预测的分数之间的差值,以得到第i个生成模型对应的模型训练分数。
在本申请的一个实施例中,协同模型为参数化模型。
需要说明的是,本申请实施例的联邦学习模型的训练装置中未披露的细节,请参照本申请图1至图5实施例的联邦学习模型的训练方法中所披露的细节,具体这里不再赘述。
综上,本申请实施例的联邦学习模型的训练装置,首先通过对齐模块与数据提供方服务器进行样本对齐,并通过第一获取模块获取协同模型,然后通过循环训练模块接收数据提供方服务器发送的每个生成模型对应的模型分数,并根据模型分数对协同模型进行循环训练,以得到协同模型的协同模型参数,最后通过处理模块根据协同模型参数、协同模型和预设策略,对模型分数进行处理,以得到每个生成模型对应的模型训练分数,并发送至数据提供方服务器。由此,能够使业务方服务器与数据提供方服务器之间的联合训练更加高效,同时减轻了通信负担,且无需依赖密码学,降低了计算复杂度。
为了实现上述实施例,如图9所述,本发明还提出一种电子设备900,包括存储器910、处理器920及存储在存储器910上并可在处理器920上运行的计算机程序,处理器920执行程序,以实现本申请前述实施例提出的联邦学习模型的训练方法。
本申请实施例的电子设备,通过处理器执行存储在存储器上的计算机程序,能够使业务方服务器与数据提供方服务器之间的联合训练更加高效,同时减轻了通信负担,且无需依赖密码学,降低了计算复杂度。
为了实现上述实施例,本发明还提出一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行,以实现本申请前述实施例提出的联邦学习模型的训练方法。
本申请实施例的计算机可读存储介质,通过存储计算机程序并被处理器执行,能够使业务方服务器与数据提供方服务器之间的联合训练更加高效,同时减轻了通信负担,且无需依赖密码学,降低了计算复杂度。
在本说明书的描述中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (20)
1.一种联邦学习模型的训练方法,其特征在于,包括:
与业务方服务器进行样本对齐;
获取多个生成模型,并分别获取所述多个生成模型的当前样本;
从所述多个生成模型的当前样本中分别获取所述多个生成模型的对齐样本;
将所述多个生成模型的对齐样本分别输入至对应的具有初始生成模型参数的所述生成模型,以得到每个所述生成模型对应的模型分数,并发送至所述业务方服务器;以及
接收所述业务方服务器发送的所述每个生成模型对应的模型训练分数,并根据所述模型训练分数对所述多个生成模型进行训练;
所述分别获取所述多个生成模型的当前样本之后,还包括:
分别获取所述多个生成模型的多个生成模型参数;
分别根据所述多个生成模型参数和对应的所述生成模型,对所述当前样本进行处理,以生成多个样本分数,并发送至所述业务方服务器;
接收所述业务方服务器发送的所述多个生成模型的初始样本分数,并根据所述多个生成模型的初始样本分数,确定所述多个生成模型的初始生成模型参数。
2.如权利要求1所述的联邦学习模型的训练方法,其特征在于,所述根据所述模型训练分数对所述多个生成模型进行训练包括:
根据所述模型训练分数,分别对所述多个生成模型的初始生成模型参数进行优化,以生成所述多个生成模型的优化生成模型参数。
3.如权利要求1所述的联邦学习模型的训练方法,其特征在于,所述根据所述多个生成模型的初始样本分数,确定所述多个生成模型的初始生成模型参数包括:
根据多个生成模型的初始样本分数,从所述多个生成模型的多个生成模型参数中选取所述每个生成模型对应的初始生成模型参数。
4.如权利要求1-3中任一项所述的联邦学习模型的训练方法,其特征在于,其中,所述生成模型为参数化模型。
5.一种联邦学习模型的训练方法,其特征在于,包括:
与数据提供方服务器进行样本对齐;
获取协同模型;
接收所述数据提供方服务器发送的每个生成模型对应的模型分数,并根据所述模型分数对所述协同模型进行循环训练,以得到所述协同模型的协同模型参数;以及
根据所述协同模型参数、所述协同模型和预设策略,对所述模型分数进行处理,以得到所述每个生成模型对应的模型训练分数,并发送至所述数据提供方服务器;
所述预设策略包括基于反事实推理生成的训练策略;
获取第i个生成模型对应的模型训练分数,其中,i为正整数,包括:
将所述模型分数中第i个生成模型对应的模型分数删除或置空,以得到目标模型分数集;
将所述目标模型分数集输入至所述协同模型以生成预测的分数;
计算训练标签与所述预测的分数之间的差值,以得到第i个生成模型对应的模型训练分数。
6.如权利要求5所述的联邦学习模型的训练方法,其特征在于,所述获取协同模型之后,还包括:
接收所述数据提供方服务器发送的多个样本分数,并分别获取所述多个样本分数对应的标签;
根据所述标签从所述多个样本分数中分别选取多个生成模型的初始样本分数,并发送至所述数据提供方服务器。
7.如权利要求5所述的联邦学习模型的训练方法,其特征在于,所述根据所述模型分数对协同模型进行循环训练,以得到所述协同模型的协同模型参数包括:
获取所述协同模型的训练标签;
将所述模型分数输入至所述协同模型以生成预测的训练模型分数;
根据所述预测的训练模型分数和所述训练标签生成损失值,并根据所述损失值对协同模型进行第一次训练;
在完成所述第一次训练之后,将所述模型分数作为所述完成所述第一次训练之后的协同模型的输入以进行第二次训练,直至训练的次数达到预设次数;
在所述训练的次数达到所述预设次数之后,从完成训练的协同模型中获取所述协同模型参数。
8.如权利要求5所述的联邦学习模型的训练方法,其特征在于,其中,所述预设策略包括基于反事实推理生成的训练策略。
9.如权利要求5-8中任一项所述的联邦学习模型的训练方法,其特征在于,其中,所述协同模型为参数化模型。
10.一种联邦学习模型的训练装置,其特征在于,包括:
对齐模块,用于与业务方服务器进行样本对齐;
第一获取模块,用于获取多个生成模型,并分别获取所述多个生成模型的当前样本;
第二获取模块,用于从所述多个生成模型的当前样本中分别获取所述多个生成模型的对齐样本;
处理模块,用于将所述多个生成模型的对齐样本分别输入至对应的具有初始生成模型参数的所述生成模型,以得到每个所述生成模型对应的模型分数,并发送至所述业务方服务器;以及
训练模块,用于接收所述业务方服务器发送的所述每个生成模型对应的模型训练分数,并根据所述模型训练分数对所述多个生成模型进行训练;
第三获取模块,用于分别获取所述多个生成模型的多个生成模型参数;
生成模块,用于分别根据所述多个生成模型参数和对应的所述生成模型,对所述当前样本进行处理,以生成多个样本分数,并发送至所述业务方服务器;
确定模块,用于接收所述业务方服务器发送的所述多个生成模型的初始样本分数,并根据所述多个生成模型的初始样本分数,确定所述多个生成模型的初始生成模型参数。
11.如权利要求10所述的联邦学习模型的训练装置,其特征在于,所述训练模块,具体用于:
根据所述模型训练分数,分别对所述多个生成模型的初始生成模型参数进行优化,以生成所述多个生成模型的优化生成模型参数。
12.如权利要求10所述的联邦学习模型的训练装置,其特征在于,所述确定模块,具体用于:
根据多个生成模型的初始样本分数,从所述多个生成模型的多个生成模型参数中选取所述每个生成模型对应的初始生成模型参数。
13.如权利要求10-12中任一项所述的联邦学习模型的训练装置,其特征在于,其中,所述生成模型为参数化模型。
14.一种联邦学习模型的训练装置,其特征在于,包括:
对齐模块,用于与数据提供方服务器进行样本对齐;
第一获取模块,用于获取协同模型;
循环训练模块,用于接收所述数据提供方服务器发送的每个生成模型对应的模型分数,并根据所述模型分数对所述协同模型进行循环训练,以得到所述协同模型的协同模型参数;以及
处理模块,用于根据所述协同模型参数、所述协同模型和预设策略,对所述模型分数进行处理,以得到所述每个生成模型对应的模型训练分数,并发送至所述数据提供方服务器;
所述预设策略包括基于反事实推理生成的训练策略;
所述处理模块通过以下步骤获取第i个所述生成模型对应的模型训练分数,其中,i为正整数:
将所述模型分数中第i个生成模型对应的模型分数删除或置空,以得到目标模型分数集;
将所述目标模型分数集输入至所述协同模型以生成预测的分数;
计算训练标签与所述预测的分数之间的差值,以得到第i个生成模型对应的模型训练分数。
15.如权利要求14所述的联邦学习模型的训练装置,其特征在于,还包括:
第二获取模块,用于接收所述数据提供方服务器发送的多个样本分数,并分别获取所述多个样本分数对应的标签;
选取模块,用于根据所述标签从所述多个样本分数中分别选取多个生成模型的初始样本分数,并发送至所述数据提供方服务器。
16.如权利要求14所述的联邦学习模型的训练装置,其特征在于,所述循环训练模块,具体用于:
获取所述协同模型的训练标签;
将所述模型分数输入至所述协同模型以生成预测的训练模型分数;
根据所述预测的训练模型分数和所述训练标签生成损失值,并根据所述损失值对协同模型进行第一次训练;
在完成所述第一次训练之后,将所述模型分数作为所述完成所述第一次训练之后的协同模型的输入以进行第二次训练,直至训练的次数达到预设次数;
在所述训练的次数达到所述预设次数之后,从完成训练的协同模型中获取所述协同模型参数。
17.如权利要求14所述的联邦学习模型的训练装置,其特征在于,其中,所述预设策略包括基于反事实推理生成的训练策略。
18.如权利要求14-17中任一项所述的联邦学习模型的训练装置,其特征在于,其中,所述协同模型为参数化模型。
19.一种电子设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如权利要求1-4或权利要求5-9中任一项所述的联邦学习模型的训练方法。
20.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-4或权利要求5-9中任一项所述的联邦学习模型的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110721446.3A CN113762532B (zh) | 2021-06-28 | 2021-06-28 | 联邦学习模型的训练方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110721446.3A CN113762532B (zh) | 2021-06-28 | 2021-06-28 | 联邦学习模型的训练方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113762532A CN113762532A (zh) | 2021-12-07 |
CN113762532B true CN113762532B (zh) | 2024-04-05 |
Family
ID=78787503
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110721446.3A Active CN113762532B (zh) | 2021-06-28 | 2021-06-28 | 联邦学习模型的训练方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113762532B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190103090A (ko) * | 2019-08-15 | 2019-09-04 | 엘지전자 주식회사 | 연합학습(Federated learning)을 통한 단말의 POI 데이터를 생성하는 모델의 학습방법 및 이를 위한 장치 |
KR20190103088A (ko) * | 2019-08-15 | 2019-09-04 | 엘지전자 주식회사 | 연합학습을 통한 단말의 명함을 인식하는 방법 및 이를 위한 장치 |
CN110633806A (zh) * | 2019-10-21 | 2019-12-31 | 深圳前海微众银行股份有限公司 | 纵向联邦学习系统优化方法、装置、设备及可读存储介质 |
CN111178538A (zh) * | 2019-12-17 | 2020-05-19 | 杭州睿信数据科技有限公司 | 垂直数据的联邦学习方法及装置 |
CN111737749A (zh) * | 2020-06-28 | 2020-10-02 | 南方电网科学研究院有限责任公司 | 基于联邦学习的计量装置告警预测方法及设备 |
CN112766514A (zh) * | 2021-01-22 | 2021-05-07 | 支付宝(杭州)信息技术有限公司 | 一种联合训练机器学习模型的方法、系统及装置 |
CN112926747A (zh) * | 2021-03-25 | 2021-06-08 | 支付宝(杭州)信息技术有限公司 | 优化业务模型的方法及装置 |
WO2021121106A1 (zh) * | 2019-12-20 | 2021-06-24 | 深圳前海微众银行股份有限公司 | 基于联邦学习的个性化推荐方法、装置、设备及介质 |
-
2021
- 2021-06-28 CN CN202110721446.3A patent/CN113762532B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190103090A (ko) * | 2019-08-15 | 2019-09-04 | 엘지전자 주식회사 | 연합학습(Federated learning)을 통한 단말의 POI 데이터를 생성하는 모델의 학습방법 및 이를 위한 장치 |
KR20190103088A (ko) * | 2019-08-15 | 2019-09-04 | 엘지전자 주식회사 | 연합학습을 통한 단말의 명함을 인식하는 방법 및 이를 위한 장치 |
CN110633806A (zh) * | 2019-10-21 | 2019-12-31 | 深圳前海微众银行股份有限公司 | 纵向联邦学习系统优化方法、装置、设备及可读存储介质 |
CN111178538A (zh) * | 2019-12-17 | 2020-05-19 | 杭州睿信数据科技有限公司 | 垂直数据的联邦学习方法及装置 |
WO2021121106A1 (zh) * | 2019-12-20 | 2021-06-24 | 深圳前海微众银行股份有限公司 | 基于联邦学习的个性化推荐方法、装置、设备及介质 |
CN111737749A (zh) * | 2020-06-28 | 2020-10-02 | 南方电网科学研究院有限责任公司 | 基于联邦学习的计量装置告警预测方法及设备 |
CN112766514A (zh) * | 2021-01-22 | 2021-05-07 | 支付宝(杭州)信息技术有限公司 | 一种联合训练机器学习模型的方法、系统及装置 |
CN112926747A (zh) * | 2021-03-25 | 2021-06-08 | 支付宝(杭州)信息技术有限公司 | 优化业务模型的方法及装置 |
Non-Patent Citations (1)
Title |
---|
联邦学习在保险行业的应用研究;王春凯;冯键;;保险职业学院学报(01);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113762532A (zh) | 2021-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109165725B (zh) | 基于迁移学习的神经网络联邦建模方法、设备及存储介质 | |
CN110782044A (zh) | 多方联合训练图神经网络的方法及装置 | |
CN112329073A (zh) | 分布式数据处理方法、装置、计算机设备及存储介质 | |
JP7066665B2 (ja) | 人工ソーシャルネットワークを運用するためのシステム及び方法 | |
CN113505882B (zh) | 基于联邦神经网络模型的数据处理方法、相关设备及介质 | |
CN112862001A (zh) | 一种隐私保护下的去中心化数据建模方法 | |
CN115064020B (zh) | 基于数字孪生技术的智慧教学方法、系统及存储介质 | |
KR102311787B1 (ko) | Ai 모델의 성능 저하 방지를 위한 ai 모델 관리 장치 및 그 방법 | |
CN113947211A (zh) | 联邦学习模型的训练方法、装置、电子设备和存储介质 | |
Liu et al. | Deep generative model and its applications in efficient wireless network management: A tutorial and case study | |
Zhu et al. | Neural cryptography based on the topology evolving neural networks | |
Ahmed et al. | Deep reinforcement learning for multi-agent interaction | |
CN113762532B (zh) | 联邦学习模型的训练方法、装置、电子设备和存储介质 | |
Lotfi et al. | Semantic Information Marketing in The Metaverse: A Learning-Based Contract Theory Framework | |
CN110175283B (zh) | 一种推荐模型的生成方法及装置 | |
CN109977998B (zh) | 信息处理方法及装置、存储介质和电子装置 | |
Andersen et al. | Increasing sample efficiency in deep reinforcement learning using generative environment modelling | |
CN116843016A (zh) | 一种移动边缘计算网络下基于强化学习的联邦学习方法、系统及介质 | |
CN115204374A (zh) | 基于分割神经网络的联邦学习及预测的系统、方法和设备 | |
CN115130568A (zh) | 支持多参与方的纵向联邦Softmax回归方法及系统 | |
CN113704776A (zh) | 基于联邦学习的机器学习方法 | |
CN112836767A (zh) | 联邦建模方法、装置、设备、存储介质及程序产品 | |
CN116192662B (zh) | 基于业务行为预测与确定性网络关联模型及推荐方法 | |
KR102507654B1 (ko) | 적대적 생성 신경망을 이용한 영상처리 시스템 및 이를 이용한 이미지간 변환방법 | |
CN111767411B (zh) | 知识图谱表示学习优化方法、设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |