CN114707660A - 联邦模型的训练方法及装置、存储介质、电子设备 - Google Patents
联邦模型的训练方法及装置、存储介质、电子设备 Download PDFInfo
- Publication number
- CN114707660A CN114707660A CN202210365333.9A CN202210365333A CN114707660A CN 114707660 A CN114707660 A CN 114707660A CN 202210365333 A CN202210365333 A CN 202210365333A CN 114707660 A CN114707660 A CN 114707660A
- Authority
- CN
- China
- Prior art keywords
- model
- model parameter
- trained
- federal
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 98
- 238000000034 method Methods 0.000 title claims abstract description 82
- 239000011159 matrix material Substances 0.000 claims abstract description 83
- 230000006870 function Effects 0.000 claims description 24
- 238000004364 calculation method Methods 0.000 claims description 21
- 238000013527 convolutional neural network Methods 0.000 claims description 8
- 238000007477 logistic regression Methods 0.000 claims description 8
- 238000003066 decision tree Methods 0.000 claims description 7
- 230000004931 aggregating effect Effects 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 125000004122 cyclic group Chemical group 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 abstract description 4
- 238000004891 communication Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 230000002776 aggregation Effects 0.000 description 7
- 238000004220 aggregation Methods 0.000 description 7
- 238000012546 transfer Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000006116 polymerization reaction Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Mathematical Optimization (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本公开是关于一种联邦模型的训练方法及装置、存储介质、电子设备,涉及机器学习技术领域,该方法包括:对设置于服务器端的待训练的联邦模型进行初始化,得到第一模型参数,并将第一模型参数发送至终端设备;接收终端设备发送的第二原始模型参数,并根据第二原始模型参数计算第一拟牛顿矩阵;基于第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化,得到第三模型参数;将第三模型参数发送至终端设备,以使得终端设备根据第三模型参数对终端设备端设置的待训练的联邦模型中包括的第二原始模型参数进行更新,得到训练完成的联邦模型。本公开提高了联邦模型的训练效率。
Description
技术领域
本公开实施例涉及机器学习技术领域,具体而言,涉及一种联邦模型的训练方法、联邦模型的训练装置、计算机可读存储介质以及电子设备。
背景技术
联邦学习能够在保护用户隐私的前提下,完成基于分散存储数据的机器学习模型的训练。
在现有的联邦模型的训练任务中,客户端需要将本地模型发送给服务端;然后服务端再根据接收到的所有客户端的模型,进行模型聚合,最后将聚合后的模型发送给客户端;进而通过重复上述过程直到模型收敛或达到最大迭代论数。
但是,由于联邦模型本身的数据量较大,使得服务端和客户端存在较高的通讯负载,导致联邦模型的训练效率较低。
因此,需要提供一种新的联邦模型的训练方法及装置。
需要说明的是,在上述背景技术部分发明的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种联邦模型的训练方法、联邦模型的训练装置、计算机可读存储介质以及电子设备,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的模型的训练效率较低的问题。
根据本公开的一个方面,提供一种联邦模型的训练方法,配置于服务器端,所述联邦模型的训练方法包括:
对设置于服务器端的待训练的联邦模型进行初始化,得到第一模型参数,并将所述第一模型参数发送至终端设备;
接收终端设备发送的利用所述第一模型参数对设置于终端设备端的待训练的联邦模型进行迭代训练后得到的第二原始模型参数,并根据所述第二原始模型参数计算第一拟牛顿矩阵;
基于所述第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化,得到第三模型参数;
将所述第三模型参数发送至所述终端设备,以使得所述终端设备根据所述第三模型参数对所述终端设备端设置的待训练的联邦模型中包括的第二原始模型参数进行更新,得到训练完成的联邦模型。
在本公开的一种示例性实施例中,根据所述第二原始模型参数计算第一拟牛顿矩阵,包括:
对第二原始模型参数进行聚合,得到第二目标模型参数,并根据所述第二原始模型参数以及第二目标模型参数,构建当前全局梯度;
根据所述当前全局梯度以及与所述当前全局梯度对应的上一轮的全局梯度,构建第一中间变量;
根据所述第二原始模型参数以及与所述第二原始模型参数对应的上一轮的原始模型参数,构建第二中间变量,并根据所述第一中间变量以及第二中间变量,计算所述第一拟牛顿矩阵。
在本公开的一种示例性实施例中,根据所述第二原始模型参数以及第二目标模型参数,构建当前全局梯度,包括:
计算与各所述终端设备对应的第二原始模型参数以及第二目标模型参数之间的第一差值,得到与各所述终端设备对应的第一损失函数;
根据所述第一损失函数以及设置于该终端设备端的待训练的联邦模型的第一学习率,计算该终端设备的当前局部梯度;
根据各所述终端设备所具有的权重值以及与各所述终端设备对应的当前局部梯度,计算所述当前全局梯度。
在本公开的一种示例性实施例中,基于所述第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化,得到第三模型参数,包括:
计算服务器端设置的待训练的联邦模型的第二学习率以及终端设备端设置的待训练的联邦模型的第一学习率之间的第一比值;
基于所述第一比值、第二原始模型参数以及第二目标模型参数之间的第一差值以及第一拟牛顿矩阵,计算所述第三模型参数。
在本公开的一种示例性实施例中,所述待训练的联邦模型包括逻辑回归模型、决策树模型、卷积神经网络模型、循环神经网络模型中的一种或多种。
根据本公开的一个方面,提供一种联邦模型的训练方法,配置于终端设备端,所述联邦模型的训练方法包括:
接收服务器端发送的第一模型参数;其中,所述第一模型参数是服务器对设置于服务器端的待训练的联邦模型进行初始化得到的;
利用所述第一模型参数对设置于终端设备端的待训练的联邦模型进行迭代训练,得到第二原始模型参数,并将所述第二原始模型参数发送至服务器端,以使得所述服务器端根据所述第二原始模型参数计算第一拟牛顿矩阵;
接收所述服务器端发送的利用所述第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化得到的第三模型参数,并利用所述第三模型参数对所述第二原始模型参数进行更新,得到训练完成的联邦模型。
在本公开的一种示例性实施例中,利用所述第一模型参数对设置于终端设备端的待训练的联邦模型进行迭代训练,得到第二原始模型参数,包括:
利用所述第一模型参数对设置于终端设备端的待训练的联邦模型中包括的第一当前参数进行更新,并将所述终端设备端中包括的本地数据输入至参数更新后的待训练的联邦模型中,得到第一数据预测结果;
根据所述第一数据预测结果以及所述本地数据的第一标注结果构建第二损失函数;
基于所述第二损失函数对所述参数更新后的待训练的联邦模型进行迭代训练,得到所述第二原始模型参数。
根据本公开的一个方面,提供一种联邦模型的训练装置,配置于服务器端,所述联邦模型的训练装置包括:
第一初始化模块,用于对设置于服务器端的待训练的联邦模型进行初始化,得到第一模型参数,并将所述第一模型参数发送至终端设备;
第一拟牛顿矩阵计算模块,用于接收终端设备发送的利用所述第一模型参数对设置于终端设备端的待训练的联邦模型进行迭代训练后得到的第二原始模型参数,并根据所述第二原始模型参数计算第一拟牛顿矩阵;
第三模型参数计算模块,用于基于所述第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化,得到第三模型参数;
模型训练模块,用于将所述第三模型参数发送至所述终端设备,以使得所述终端设备根据所述第三模型参数对所述终端设备端设置的待训练的联邦模型中包括的第二原始模型参数进行更新,得到训练完成的联邦模型。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的联邦模型的训练方法。
根据本公开的一个方面,提供一种电子设备,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的联邦模型的训练方法。
本公开实施例提供的一种联邦模型的训练方法,一方面,由于在联邦模型的训练过程中,服务器端与终端设备端仅需要对模型参数进行交传递,无需对模型本身进行传递,进而避免了现有技术中由于服务端和客户端存在较高的通讯负载,导致联邦模型的训练效率较低的问题,提高了联邦模型的训练效率;另一方面,由于在对第一模型参数进行计算的过程中,是根据第二原始模型参数计算第一拟牛顿矩阵;再基于第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化,得到的,并不是直接基于第二原始模型参数来进行计算的,进而可以避免各客户端所具有的客户数据不同进而使得第三模型参数不稳定导致训练完成的联邦模型不稳定的问题,提高了第三模型参数的精确度,进而提高了训练完成的联邦模型的精确度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出根据本公开示例实施例的一种配置于服务器端的联邦模型的训练方法的流程图。
图2示意性示出根据本公开示例实施例的一种联邦模型的训练系统的框图。
图3示意性示出根据本公开示例实施例的一种根据所述第二原始模型参数计算第一拟牛顿矩阵的方法流程图。
图4示意性示出根据本公开示例实施例的一种配置于终端设备端的联邦模型的训练方法的流程图。
图5示意性示出根据本公开示例实施例的一种基于服务器端与终端设备端互相交互的联邦模型的训练方法的流程图。
图6示意性示出根据本公开示例实施例的一种基于服务器端与终端设备端互相交互的联邦模型的训练方法的场景示例图。
图7示意性示出根据本公开示例实施例的一种配置于服务器端的联邦模型的训练装置的框图。
图8示意性示出根据本公开示例实施例的一种配置于终端设备端的联邦模型的训练装置的框图。
图9示意性示出根据本公开示例实施例的一种用于实现上述联邦模型的训练方法的电子设备。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
在当前的联邦学习研究和实践中,可以通过如下方式实现:联邦平均算法,以及在联邦平均算法基础上改进的系列方法,其主要解决真实场景中数据源的异质性和降低客户端与服务端的通讯负载。在该系列方法中,通常包含一个服务端和多个客户端;其中,服务端可以用于提供算力和网络通讯服务,服务端能够跟所有的客户端建立网络连接,对系统的稳定性要求较高;客户端提供原始数据、部分算力和网络通讯服务,客户端通常只与服务端进行通信。在具体的对联邦模型进行训练的过程中,所有的客户端基于初始化的全局模型和本地数据,在本地更新模型,然后将本地模型发送给服务端;服务端根据接收到的所有模型,进行模型聚合,然后将聚合后的模型发送给客户端—重复该过程直到模型收敛或达到最大迭代论数。但是,由于联邦模型本身所具有的数据量较大,因此还是会存在通讯负载的问题。
并且,由于在对联邦模型进行训练的过程中,需要分别构建全局模型和本地模型、优化本地模型的损失函数和优化全局模型的聚合方法进行联邦模型的训练;例如,如联邦平均算法只是单纯地所有的本地模型求平均,未考虑每个本地模型的倾向性;在FedNL中,采用牛顿法进行优化的联邦建模方法,需要在客户端计算损失函数的二阶导数,以及与服务端之间频繁进行通讯,这对客户端的算力和网络通讯能力都提出了更高的要求。
基于此,本示例实施方式中首先提供了一种联邦模型的训练方法,该方法可以运行于服务器、服务器集群或云服务器等;当然,本领域技术人员也可以根据需求在其他平台运行本公开的方法,本示例性实施例中对此不做特殊限定。参考图1所示,该联邦模型的训练方法可以包括以下步骤:
步骤S110.对设置于服务器端的待训练的联邦模型进行初始化,得到第一模型参数,并将所述第一模型参数发送至终端设备;
步骤S120.接收终端设备发送的利用所述第一模型参数对设置于终端设备端的待训练的联邦模型进行迭代训练后得到的第二原始模型参数,并根据所述第二原始模型参数计算第一拟牛顿矩阵;
步骤S130.基于所述第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化,得到第三模型参数;
步骤S140.将所述第三模型参数发送至所述终端设备,以使得所述终端设备根据所述第三模型参数对所述终端设备端设置的待训练的联邦模型中包括的第二原始模型参数进行更新,得到训练完成的联邦模型。
上述联邦模型的训练方法中,一方面,由于在联邦模型的训练过程中,服务器端与终端设备端仅需要对模型参数进行交传递,无需对模型本身进行传递,进而避免了现有技术中由于服务端和客户端存在较高的通讯负载,导致联邦模型的训练效率较低的问题,提高了联邦模型的训练效率;另一方面,由于在对第一模型参数进行计算的过程中,是根据第二原始模型参数计算第一拟牛顿矩阵;再基于第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化,得到的,并不是直接基于第二原始模型参数来进行计算的,进而可以避免各客户端所具有的客户数据不同进而使得第三模型参数不稳定导致训练完成的联邦模型不稳定的问题,提高了第三模型参数的精确度,进而提高了训练完成的联邦模型的精确度。
以下,将结合附图对本公开示例实施例联邦模型的训练方法进行详细的解释以及说明。
首先,对本公开示例实施例的联邦模型的训练系统进行解释以及说明。具体的,参考图2所示,该联邦模型的训练系统中可以包括终端设备210以及服务器220,终端设备可以通过有线或者无线网络与服务器通信连接。并且,该终端设备可以包括多个,例如第一终端设备、第二终端设备、…、第N终端设备等等,在实际应用过程中,可以根据需要设置对应的终端设备的数量,本示例对此不做特殊限制。其中,终端设备用于根据服务器发送的模型参数以及本地数据集对设置于本地的待训练的联邦模型进行训练,得到对应的模型参数;服务器用于根据终端设备发送的模型参数计算拟牛顿矩阵,并基于拟牛顿矩阵计算更新后的模型参数,以使得终端设备可以根据更新后的模型参数对设置于其本地的待训练的联邦模型进行训练,进而得到训练完成的联邦模型。此处需要补充说明的是,在传统的方法中,是通过黑塞矩阵(Hessian Matrix,也可以被称为海森矩阵、海瑟矩阵、海塞矩阵等等)来计算更新后的模型参数的;但是,相较于拟牛顿矩阵来说,黑塞矩阵的计算难度以及复杂度都较高,会给服务器带来巨大的计算压力;因此,本公开示例实施例通过利用拟牛顿矩阵来替代黑塞矩阵,进而可以在保证精确度的基础上减少服务器的计算量,进而达到提高联邦模型的训练效率的目的。
其次,在本公开示例实施例所提供的一种联邦模型的训练方法中:
在步骤S110中,对设置于服务器端的待训练的联邦模型进行初始化,得到第一模型参数,并将所述第一模型参数发送至终端设备。
具体的,当需要对某一待训练的联邦模型进行联合优化时,可以对设置于服务器端的待训练的联邦模型进行初始化处理,进而得到该待训练的联邦模型中包括的初始化模型参数,也即第一模型参数X0,再将该第一模型参数发送至各个终端设备;其中,各终端设备端也设置有待训练的联邦模型,设置于服务器端的待训练的联邦模型与设置于终端设备端的待训练的联邦模型,具有相同的模型深度;并且,该待训练的联邦模型可以包括逻辑回归(Logistic Regression,LR)模型、决策树(Decision Tree)模型、卷积神经网络(Convolutional Neural Networks,CNN)模型、循环神经网络(Recurrent NeuralNetwork,RNN)模型等等,当然也可以包括其他类型的网络模型,本示例对此不做特殊限制。
在步骤S120中,接收终端设备发送的利用所述第一模型参数对设置于终端设备端的待训练的联邦模型进行迭代训练后得到的第二原始模型参数,并根据所述第二原始模型参数计算第一拟牛顿矩阵。
在本示例实施例中,首先,接收终端设备发送的利用第一模型参数对设置于终端设备端的待训练的联邦模型进行迭代续联后得到的第二原始模型参数。具体的,第二原始模型参数是通过如下方式得到的:当终端设备接收到服务器端发送的第一模型参数以后,可以基于该第一模型参数以及本地数据集对设置于其本地的待训练的联邦模型进行参数更新,得到上述第二原始模型参数。
其次,当接收到上述第二原始模型参数以后,即可根据该第二原始模型参数计算第一拟牛顿矩阵。具体的,参考图3所示,第一拟牛顿矩阵的具体计算方法可以包括以下步骤:
步骤S310,对第二原始模型参数进行聚合,得到第二目标模型参数,并根据所述第二原始模型参数以及第二目标模型参数,构建当前全局梯度。
在本示例实施例中,首先,对第二原始模型参数进行聚合,得到第二目标模型参数;具体的,在对第二原始模型参数进行聚合的过程中,可以采用平均聚合的方式进行聚合,也可以采用加权聚合的方式进行聚合,本示例对此不做特殊限制;其中,在采用加权聚合的方式进行聚合时,可以根据设置于各终端设备端的待训练的联邦模型的权重以及该终端设备发送的第二原始模型参数,来计算第二目标模型参数;其中,该终端设备端的待训练的联邦模型的权重,可以根据该终端设备端所具有的本地数据集在整个待训练的联邦模型所需要的总数据集中所占的权重来决定,当然也可以采用其他的方法进行决定,本示例对此不做特殊限定。
其次,当得到第二目标模型参数以后,即可根据所述第二原始模型参数以及第二目标模型参数,构建当前全局梯度。具体的,当前全局梯度可以通过如下方式得到:首先,计算与各所述终端设备对应的第二原始模型参数以及第二目标模型参数之间的第一差值,得到与各所述终端设备对应的第一损失函数;其次,根据所述第一损失函数以及设置于该终端设备端的待训练的联邦模型的第一学习率,计算该终端设备的当前局部梯度;最后,根据各所述终端设备所具有的权重值以及与各所述终端设备对应的当前局部梯度,计算所述当前全局梯度。
具体的,与各终端设备对应的第二原始模型参数可以通过表示,与各终端设备对应的第一损失函数例如可以是:其中,υk为第二目标模型参数,各终端设备的当前局部梯度为:其中,为设置于各终端设备端的待训练的联邦模型的第一学习率,该第一学习率可以相同,也可以不同,本示例对此不做特殊限制;进一步的,当前全局梯度可以如下公式(1)所示:
其中,wi为各各终端设备所具有的权重值,该权重值可以相同也可以不同,N表示终端设备的数量。此处需要补充说明的是,当各第一学习率且各权重值相同时,上述公式(1)也可以写成如下公式(2):
此处需要补充说明的是,本公开示例实施例通过学习率以及第一损失函数来计算当前全局梯度,而不是采用一阶求导或者二阶求导的方式来计算全局梯度,可以大大的减少全局梯度的计算量,进而减少服务器的计算负担,进而提高待训练的联邦模型的训练效率。
步骤S320,根据所述当前全局梯度以及与所述当前全局梯度对应的上一轮的全局梯度,构建第一中间变量。
yk-1=g(Xk)-g(Xk-1); 公式(3)
其中,yk-1为第一中间变量,g(Xk)中的g,表示gradient(斜率或者倾斜度),中的f表示梯度向量;g(Xk)为当前全局梯度,g(Xk-1)为与当前全局梯度对应的上一轮的全局梯度,k表示第k轮,k-1表示第k轮的上一轮。
步骤S330,根据所述第二原始模型参数以及与所述第二原始模型参数对应的上一轮的原始模型参数,构建第二中间变量,并根据所述第一中间变量以及第二中间变量,计算所述第一拟牛顿矩阵。
具体的,第二中间变量可以如下公式(4)所示:
Sk-1=Xk-Xk-1; 公式(4)
其中,Sk-1为第二中间变量,Xk为第二原始模型参数,也即当前轮的原始模型参数,Xk-1为上一轮的原始模型参数。此处需要补充说明的是,由于终端设备可以包括多个,因此在对第二中间变量进行计算的过程中,可以分别对各终端设备的当前轮的原始模型参数以及上一轮的原始模型参数进行差值运算,最后再将得到的差值运算加起来即可得到上述第二中间变量。
进一步的,当得到第二中间变量以后,即可根据第一中间变量以及第二中间变量计算第一拟牛顿矩阵。其中,第一拟牛顿矩阵具体可以如下公式(5)所示:
其中,Bk为第k轮的第一拟牛顿矩阵,Bk-1为第k-1轮的第一拟牛顿矩阵。
在步骤S130中,基于所述第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化,得到第三模型参数。
在本示例实施例中,首先,计算服务器端设置的待训练的联邦模型的第二学习率以及终端设备端设置的待训练的联邦模型的第一学习率之间的第一比值;其次,基于所述第一比值、第二原始模型参数以及第二目标模型参数之间的第一差值以及第一拟牛顿矩阵,计算所述第三模型参数。
具体的,第三模型参数的具体计算公式可以如下公式(6)所示:
其中,Xk+1为第三模型参数,以及与第k轮对应的第k+1轮的参数,I为单位矩阵,ηk第二学习率,αk,τ为第一学习率,τ表示局部更新的频率,也即在各个终端设备端更新的频率。
在步骤S140中,将所述第三模型参数发送至所述终端设备,以使得所述终端设备根据所述第三模型参数对所述终端设备端设置的待训练的联邦模型中包括的第二原始模型参数进行更新,得到训练完成的联邦模型。
具体的,当得到第三模型参数以后,即可将该第三模型参数发送至各终端设备,进而使得各终端设备可以根据该第三模型参数对设置在终端设备端的待训练模型中包括的第二原始模型参数进行更新,进而得到训练完成的联邦模型。此处需要补充说明的是,在得到训练完成的联邦模型之前,还需要判断该联邦模型是否收敛或者是否达到最大迭代轮数;若满足其中任一条件,则停止训练;若均不满足,则重复步骤S120-步骤S140,直至满足上述任一条件为止。
以下,对为什么可以利用第一拟牛顿矩阵代替黑塞矩阵进行解释以及说明。具体的,首先,构建目标函数在当前Xk的二次模型:
进一步的,根据BFGS方法可以得到:Hk≈Bk;
基于此可以得知,可以通过第一拟牛顿矩阵替代黑塞矩阵;同时,由于黑塞矩阵为损失函数的二阶导数,具体可以如下公式(8)所示:
其中,即为黑塞矩阵,其具体的计算难度过大,极大的加剧了服务器的计算负担,同时也需要浪费大量的时间进行计算;通过利用第一拟牛顿矩阵替代黑塞矩阵,由于无需计算二阶导数,进而可以极大的减少服务器的计算量,并节省计算时间,进而可以进一步的提高模型的训练效率;同时,由于第一拟牛顿矩阵可以等同于黑塞矩阵,进而可以在减少计算量的同时,确保最终得到的第三模型参数的准确率,进而可以确保待训练的联邦模型的准确率。
本示例实施例还提供了配置于终端设备端的联邦模型的训练方法。具体的,参考图4所示,该联邦模型的训练方法可以包括以下步骤:
步骤S410,接收服务器端发送的第一模型参数;其中,所述第一模型参数是服务器对设置于服务器端的待训练的联邦模型进行初始化得到的。
具体的,可以接收服务器端发送的第一模型参数,该第一模型参数X0是服务器通过对设置于其本地的待训练的联邦模型进行初始化处理得到的;其中,各终端设备端所设置的待训练的联邦模型,与设置于服务器端的待训练的联邦模型具有相同的模型深度。
步骤S420,利用所述第一模型参数对设置于终端设备端的待训练的联邦模型进行迭代训练,得到第二原始模型参数,并将所述第二原始模型参数发送至服务器端,以使得所述服务器端根据所述第二原始模型参数计算第一拟牛顿矩阵。
在本示例实施例中,首先,利用第一模型参数对设置于终端设备端的待训练的联邦模型进行迭代训练,得到第二原始模型参数。具体的,可以通过如下方式实现:首先,利用所述第一模型参数对设置于终端设备端的待训练的联邦模型中包括的第一当前参数进行更新,并将所述终端设备端中包括的本地数据输入至参数更新后的待训练的联邦模型中,得到第一数据预测结果;其次,根据所述第一数据预测结果以及所述本地数据的第一标注结果构建第二损失函数;进一步的,基于所述第二损失函数对所述参数更新后的待训练的联邦模型进行迭代训练,得到所述第二原始模型参数。其中,该第二损失函数可以根据该待训练的联邦模型所述的模型类别进行确定,本示例对此不做特殊限制。
步骤S430,接收所述服务器端发送的利用所述第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化得到的第三模型参数,并利用所述第三模型参数对所述第二原始模型参数进行更新,得到训练完成的联邦模型。
在图4所示出的联邦模型的训练方法中,一方面,由于在联邦模型的训练过程中,服务器端与终端设备端仅需要对模型参数进行交传递,无需对模型本身进行传递,进而避免了现有技术中由于服务端和客户端存在较高的通讯负载,导致联邦模型的训练效率较低的问题,提高了联邦模型的训练效率;另一方面,由于在对第一模型参数进行计算的过程中,是根据第二原始模型参数计算第一拟牛顿矩阵;再基于第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化,得到的,并不是直接基于第二原始模型参数来进行计算的,进而可以避免各客户端所具有的客户数据不同进而使得第三模型参数不稳定导致训练完成的联邦模型不稳定的问题,提高了第三模型参数的精确度,进而提高了训练完成的联邦模型的精确度。
以下,结合图5以及图6对本公开示例实施例中所涉及到的联邦模型的训练方法进行进一步的解释以及说明。具体的,参考图5所示,该联邦模型的训练方法可以包括以下步骤:
步骤S501,服务器端对待训练的联邦模型(601)进行初始化,得到第一模型参数;
步骤S502,服务器将该第一模型参数发送至各客户端;
步骤S503,终端设备根据该第一模型参数以及设置在本地的数据集,利用梯度下降法对设置在本地的待训练的联邦模型(602)进行训练,得到第二原始模型参数;
步骤S504,终端设备将第二原始模型参数发送至服务器;
步骤S505,服务器根据第二原始模型参数计算第一拟牛顿矩阵,并根据第一拟牛顿矩阵计算第三模型参数;
步骤S506,服务器将第三模型参数发送至终端设备;
步骤S507,终端设备根据第三模型参数对第二原始模型参数进行更新,得到训练完成的联邦模型。
以下,以联邦模型为用户分类模型为例,对该训练完成的联邦模型的具体应用过程进行解释以及说明。具体的,首先,可以获取待识别用户的第一用户特征;其中,该第一用户特征可以是该历史用户的用户画像特征以及该历史用户的相关行为特征;具体的,用户画像特征是根据用户的人口学特征、网络浏览内容、消费内容、社交活动等信息抽象而出的一些特征,包括但不限于:性别、年龄、学历、价格敏感度、地理位置、职业、家庭结构;相关行为特征包括但不限于:在目标品牌或品类(如品牌:苹果,品类:手机)下的浏览、加购物车、点击、购买等行为(可能是序列,也可能是统计次数)等等。然后,可以将第一用户特征输入至训练完成的联邦模型中,得到该历史用户的预测分数;其中,该训练完成的联邦模型可以逻辑回归模型,也可以是深度神经网络学习模型(CNN或者RNN)或者有监督的机器学习模型等等;其次,当得到预测分数以后,即可根据该预测分数对用户进行分类。
以下,对联邦模型在医疗场景中的具体应用过程进行解释以及说明。具体的,首先,可以获取待分类患者的用户画像特征以及医疗数据特征;其中,用户画像特征可以包括该患者的属性信息(例如,姓名、性别、年龄、职业、行程轨迹等等),医疗数据特征可以包括该患者的电子病历信息、用药信息、影像信息等等;然后,可以将该用户画像特征以及医疗数据特征输入至训练完成的联邦模型中,得到该待分类患者的预测结果,进而可以根据该预测结果确定该待分类患者是否属于确诊患者,或者属于哪个类型的患者等等。此处需要补充说明的是,上述训练完成的联邦模型,也可以用在图像识别、特征提取以及自然语言处理等各个不同的场景中,本示例对此不做特殊限制。
本公开示例实施例还提供了一种联邦模型的训练装置,配置于服务器端。参考图7所示,该联邦模型的训练装置可以包括第一初始化模块710、第一拟牛顿矩阵计算模块720、第三模型参数计算模块730以及模型训练模块740。其中:
第一初始化模块710,可以用于对设置于服务器端的待训练的联邦模型进行初始化,得到第一模型参数,并将所述第一模型参数发送至终端设备;
第一拟牛顿矩阵计算模块720,可以用于接收终端设备发送的利用所述第一模型参数对设置于终端设备端的待训练的联邦模型进行迭代训练后得到的第二原始模型参数,并根据所述第二原始模型参数计算第一拟牛顿矩阵;
第三模型参数计算模块730,可以用于基于所述第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化,得到第三模型参数;
模型训练模块740,可以用于将所述第三模型参数发送至所述终端设备,以使得所述终端设备根据所述第三模型参数对所述终端设备端设置的待训练的联邦模型中包括的第二原始模型参数进行更新,得到训练完成的联邦模型。
在本公开的一种示例性实施例中,根据所述第二原始模型参数计算第一拟牛顿矩阵,包括:
对第二原始模型参数进行聚合,得到第二目标模型参数,并根据所述第二原始模型参数以及第二目标模型参数,构建当前全局梯度;
根据所述当前全局梯度以及与所述当前全局梯度对应的上一轮的全局梯度,构建第一中间变量;
根据所述第二原始模型参数以及与所述第二原始模型参数对应的上一轮的原始模型参数,构建第二中间变量,并根据所述第一中间变量以及第二中间变量,计算所述第一拟牛顿矩阵。
在本公开的一种示例性实施例中,根据所述第二原始模型参数以及第二目标模型参数,构建当前全局梯度,包括:
计算与各所述终端设备对应的第二原始模型参数以及第二目标模型参数之间的第一差值,得到与各所述终端设备对应的第一损失函数;
根据所述第一损失函数以及设置于该终端设备端的待训练的联邦模型的第一学习率,计算该终端设备的当前局部梯度;
根据各所述终端设备所具有的权重值以及与各所述终端设备对应的当前局部梯度,计算所述当前全局梯度。
在本公开的一种示例性实施例中,基于所述第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化,得到第三模型参数,包括:
计算服务器端设置的待训练的联邦模型的第二学习率以及终端设备端设置的待训练的联邦模型的第一学习率之间的第一比值;
基于所述第一比值、第二原始模型参数以及第二目标模型参数之间的第一差值以及第一拟牛顿矩阵,计算所述第三模型参数。
在本公开的一种示例性实施例中,所述待训练的联邦模型包括逻辑回归模型、决策树模型、卷积神经网络模型、循环神经网络模型中的一种或多种。
本公开示例实施例还提供了另一种联邦模型的训练装置,配置于终端设备端。参考图8所示,该联邦模型的训练装置可以包括第一模型参数接收模块810、第二原始模型参数计算模块820以及第二原始模型参数更新模块830。其中:
第一模型参数接收模块810,可以用于接收服务器端发送的第一模型参数;其中,所述第一模型参数是服务器对设置于服务器端的待训练的联邦模型进行初始化得到的;
第二原始模型参数计算模块820,可以用于利用所述第一模型参数对设置于终端设备端的待训练的联邦模型进行迭代训练,得到第二原始模型参数,并将所述第二原始模型参数发送至服务器端,以使得所述服务器端根据所述第二原始模型参数计算第一拟牛顿矩阵;
第二原始模型参数更新模块830,可以用于接收所述服务器端发送的利用所述第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化得到的第三模型参数,并利用所述第三模型参数对所述第二原始模型参数进行更新,得到训练完成的联邦模型。
在本公开的一种示例性实施例中,利用所述第一模型参数对设置于终端设备端的待训练的联邦模型进行迭代训练,得到第二原始模型参数,包括:
利用所述第一模型参数对设置于终端设备端的待训练的联邦模型中包括的第一当前参数进行更新,并将所述终端设备端中包括的本地数据输入至参数更新后的待训练的联邦模型中,得到第一数据预测结果;
根据所述第一数据预测结果以及所述本地数据的第一标注结果构建第二损失函数;
基于所述第二损失函数对所述参数更新后的待训练的联邦模型进行迭代训练,得到所述第二原始模型参数。
上述联邦模型的训练装置中各模块的具体细节已经在对应的联邦模型的训练方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图9来描述根据本公开的这种实施方式的电子设备900。图9显示的电子设备900仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图9所示,电子设备900以通用计算设备的形式表现。电子设备900的组件可以包括但不限于:上述至少一个处理单元910、上述至少一个存储单元920、连接不同系统组件(包括存储单元920和处理单元910)的总线930以及显示单元940。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元910执行,使得所述处理单元910执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元910可以执行如图1中所示的步骤S110:对设置于服务器端的待训练的联邦模型进行初始化,得到第一模型参数,并将所述第一模型参数发送至终端设备;步骤S120:接收终端设备发送的利用所述第一模型参数对设置于终端设备端的待训练的联邦模型进行迭代训练后得到的第二原始模型参数,并根据所述第二原始模型参数计算第一拟牛顿矩阵;步骤S130:基于所述第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化,得到第三模型参数;步骤S140:将所述第三模型参数发送至所述终端设备,以使得所述终端设备根据所述第三模型参数对所述终端设备端设置的待训练的联邦模型中包括的第二原始模型参数进行更新,得到训练完成的联邦模型。
又例如,所述处理单元910可以执行如图4中所示的步骤S410:接收服务器端发送的第一模型参数;其中,所述第一模型参数是服务器对设置于服务器端的待训练的联邦模型进行初始化得到的;步骤S420:利用所述第一模型参数对设置于终端设备端的待训练的联邦模型进行迭代训练,得到第二原始模型参数,并将所述第二原始模型参数发送至服务器端,以使得所述服务器端根据所述第二原始模型参数计算第一拟牛顿矩阵;步骤S430:接收所述服务器端发送的利用所述第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化得到的第三模型参数,并利用所述第三模型参数对所述第二原始模型参数进行更新,得到训练完成的联邦模型。
存储单元920可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)9201和/或高速缓存存储单元9202,还可以进一步包括只读存储单元(ROM)9203。
存储单元920还可以包括具有一组(至少一个)程序模块9205的程序/实用工具9204,这样的程序模块9205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线930可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备900也可以与一个或多个外部设备1000(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备900交互的设备通信,和/或与使得该电子设备900能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口950进行。并且,电子设备900还可以通过网络适配器960与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器960通过总线930与电子设备900的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备900使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
根据本公开的实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里发明的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未发明的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
Claims (10)
1.一种联邦模型的训练方法,其特征在于,配置于服务器端,所述联邦模型的训练方法包括:
对设置于服务器端的待训练的联邦模型进行初始化,得到第一模型参数,并将所述第一模型参数发送至终端设备;
接收终端设备发送的利用所述第一模型参数对设置于终端设备端的待训练的联邦模型进行迭代训练后得到的第二原始模型参数,并根据所述第二原始模型参数计算第一拟牛顿矩阵;
基于所述第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化,得到第三模型参数;
将所述第三模型参数发送至所述终端设备,以使得所述终端设备根据所述第三模型参数对所述终端设备端设置的待训练的联邦模型中包括的第二原始模型参数进行更新,得到训练完成的联邦模型。
2.根据权利要求1所述的联邦模型的训练方法,其特征在于,根据所述第二原始模型参数计算第一拟牛顿矩阵,包括:
对第二原始模型参数进行聚合,得到第二目标模型参数,并根据所述第二原始模型参数以及第二目标模型参数,构建当前全局梯度;
根据所述当前全局梯度以及与所述当前全局梯度对应的上一轮的全局梯度,构建第一中间变量;
根据所述第二原始模型参数以及与所述第二原始模型参数对应的上一轮的原始模型参数,构建第二中间变量,并根据所述第一中间变量以及第二中间变量,计算所述第一拟牛顿矩阵。
3.根据权利要求2所述的联邦模型的训练方法,其特征在于,根据所述第二原始模型参数以及第二目标模型参数,构建当前全局梯度,包括:
计算与各所述终端设备对应的第二原始模型参数以及第二目标模型参数之间的第一差值,得到与各所述终端设备对应的第一损失函数;
根据所述第一损失函数以及设置于该终端设备端的待训练的联邦模型的第一学习率,计算该终端设备的当前局部梯度;
根据各所述终端设备所具有的权重值以及与各所述终端设备对应的当前局部梯度,计算所述当前全局梯度。
4.根据权利要求1所述的联邦模型的训练方法,其特征在于,基于所述第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化,得到第三模型参数,包括:
计算服务器端设置的待训练的联邦模型的第二学习率以及终端设备端设置的待训练的联邦模型的第一学习率之间的第一比值;
基于所述第一比值、第二原始模型参数以及第二目标模型参数之间的第一差值以及第一拟牛顿矩阵,计算所述第三模型参数。
5.根据权利要求1-4任一项所述的联邦模型的训练方法,其特征在于,所述待训练的联邦模型包括逻辑回归模型、决策树模型、卷积神经网络模型、循环神经网络模型中的一种或多种。
6.一种联邦模型的训练方法,其特征在于,配置于终端设备端,所述联邦模型的训练方法包括:
接收服务器端发送的第一模型参数;其中,所述第一模型参数是服务器对设置于服务器端的待训练的联邦模型进行初始化得到的;
利用所述第一模型参数对设置于终端设备端的待训练的联邦模型进行迭代训练,得到第二原始模型参数,并将所述第二原始模型参数发送至服务器端,以使得所述服务器端根据所述第二原始模型参数计算第一拟牛顿矩阵;
接收所述服务器端发送的利用所述第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化得到的第三模型参数,并利用所述第三模型参数对所述第二原始模型参数进行更新,得到训练完成的联邦模型。
7.根据权利要求6所述的联邦模型的训练方法,其特征在于,利用所述第一模型参数对设置于终端设备端的待训练的联邦模型进行迭代训练,得到第二原始模型参数,包括:
利用所述第一模型参数对设置于终端设备端的待训练的联邦模型中包括的第一当前参数进行更新,并将所述终端设备端中包括的本地数据输入至参数更新后的待训练的联邦模型中,得到第一数据预测结果;
根据所述第一数据预测结果以及所述本地数据的第一标注结果构建第二损失函数;
基于所述第二损失函数对所述参数更新后的待训练的联邦模型进行迭代训练,得到所述第二原始模型参数。
8.一种联邦模型的训练装置,其特征在于,配置于服务器端,所述联邦模型的训练装置包括:
第一初始化模块,用于对设置于服务器端的待训练的联邦模型进行初始化,得到第一模型参数,并将所述第一模型参数发送至终端设备;
第一拟牛顿矩阵计算模块,用于接收终端设备发送的利用所述第一模型参数对设置于终端设备端的待训练的联邦模型进行迭代训练后得到的第二原始模型参数,并根据所述第二原始模型参数计算第一拟牛顿矩阵;
第三模型参数计算模块,用于基于所述第一拟牛顿矩阵对设置于服务器端的待训练的联邦模型中包括的第一模型参数进行优化,得到第三模型参数;
模型训练模块,用于将所述第三模型参数发送至所述终端设备,以使得所述终端设备根据所述第三模型参数对所述终端设备端设置的待训练的联邦模型中包括的第二原始模型参数进行更新,得到训练完成的联邦模型。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7任一项所述的联邦模型的训练方法。
10.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-7任一项所述的联邦模型的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210365333.9A CN114707660A (zh) | 2022-04-07 | 2022-04-07 | 联邦模型的训练方法及装置、存储介质、电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210365333.9A CN114707660A (zh) | 2022-04-07 | 2022-04-07 | 联邦模型的训练方法及装置、存储介质、电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114707660A true CN114707660A (zh) | 2022-07-05 |
Family
ID=82172329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210365333.9A Pending CN114707660A (zh) | 2022-04-07 | 2022-04-07 | 联邦模型的训练方法及装置、存储介质、电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114707660A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116187433A (zh) * | 2023-04-28 | 2023-05-30 | 蓝象智联(杭州)科技有限公司 | 基于秘密分享的联邦拟牛顿训练方法、装置及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021092980A1 (zh) * | 2019-11-14 | 2021-05-20 | 深圳前海微众银行股份有限公司 | 纵向联邦学习优化方法、装置、设备及存储介质 |
CN112862011A (zh) * | 2021-03-31 | 2021-05-28 | 中国工商银行股份有限公司 | 基于联邦学习的模型训练方法、装置及联邦学习系统 |
CN113011602A (zh) * | 2021-03-03 | 2021-06-22 | 中国科学技术大学苏州高等研究院 | 一种联邦模型训练方法、装置、电子设备和存储介质 |
CN114118442A (zh) * | 2021-11-24 | 2022-03-01 | 中国电信股份有限公司 | 基于纵向联邦学习的模型训练方法、系统、设备及介质 |
-
2022
- 2022-04-07 CN CN202210365333.9A patent/CN114707660A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021092980A1 (zh) * | 2019-11-14 | 2021-05-20 | 深圳前海微众银行股份有限公司 | 纵向联邦学习优化方法、装置、设备及存储介质 |
CN113011602A (zh) * | 2021-03-03 | 2021-06-22 | 中国科学技术大学苏州高等研究院 | 一种联邦模型训练方法、装置、电子设备和存储介质 |
CN112862011A (zh) * | 2021-03-31 | 2021-05-28 | 中国工商银行股份有限公司 | 基于联邦学习的模型训练方法、装置及联邦学习系统 |
CN114118442A (zh) * | 2021-11-24 | 2022-03-01 | 中国电信股份有限公司 | 基于纵向联邦学习的模型训练方法、系统、设备及介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116187433A (zh) * | 2023-04-28 | 2023-05-30 | 蓝象智联(杭州)科技有限公司 | 基于秘密分享的联邦拟牛顿训练方法、装置及存储介质 |
CN116187433B (zh) * | 2023-04-28 | 2023-09-29 | 蓝象智联(杭州)科技有限公司 | 基于秘密分享的联邦拟牛顿训练方法、装置及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210174264A1 (en) | Training tree-based machine-learning modeling algorithms for predicting outputs and generating explanatory data | |
CN112353402B (zh) | 心电信号分类模型的训练方法、心电信号分类方法及装置 | |
CN112085172B (zh) | 图神经网络的训练方法及装置 | |
WO2023065859A1 (zh) | 物品推荐方法、装置及存储介质 | |
CN110796484B (zh) | 客户活跃程度预测模型的构建方法、装置及其应用方法 | |
CN113570064A (zh) | 利用复合机器学习模型来执行预测的方法及系统 | |
CN112418292B (zh) | 一种图像质量评价的方法、装置、计算机设备及存储介质 | |
CN112085615A (zh) | 图神经网络的训练方法及装置 | |
CN111338897A (zh) | 应用主机中异常节点的识别方法、监测设备和电子设备 | |
CN112214775A (zh) | 对图数据的注入式攻击方法、装置、介质及电子设备 | |
CN114494784A (zh) | 深度学习模型的训练方法、图像处理方法和对象识别方法 | |
CN114065863A (zh) | 联邦学习的方法、装置、系统、电子设备及存储介质 | |
CN110390014A (zh) | 一种主题挖掘方法、装置及存储介质 | |
CN111461757B (zh) | 信息处理方法及装置、计算机存储介质、电子设备 | |
CN114707660A (zh) | 联邦模型的训练方法及装置、存储介质、电子设备 | |
CN115600691A (zh) | 联邦学习中的客户端选择方法、系统、装置和存储介质 | |
CN109272165B (zh) | 注册概率预估方法、装置、存储介质及电子设备 | |
CN110348581B (zh) | 用户特征群中用户特征寻优方法、装置、介质及电子设备 | |
CN112949433A (zh) | 视频分类模型的生成方法、装置、设备和存储介质 | |
CN112801685A (zh) | 信息推送方法、装置、计算机设备及存储介质 | |
CN111957053A (zh) | 游戏玩家匹配方法、装置、存储介质与电子设备 | |
CN115758211B (zh) | 文本信息分类方法、装置、电子设备和存储介质 | |
AU2018214157A1 (en) | A novel multiclass architecture for experience targeting using bayesian approach | |
CN114169906B (zh) | 电子券推送方法、装置 | |
CN114330576A (zh) | 模型处理方法、装置、图像识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |