CN112668016B - 一种模型训练方法、装置和电子设备 - Google Patents
一种模型训练方法、装置和电子设备 Download PDFInfo
- Publication number
- CN112668016B CN112668016B CN202010002915.1A CN202010002915A CN112668016B CN 112668016 B CN112668016 B CN 112668016B CN 202010002915 A CN202010002915 A CN 202010002915A CN 112668016 B CN112668016 B CN 112668016B
- Authority
- CN
- China
- Prior art keywords
- model
- training
- trained
- ciphertext
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 348
- 238000000034 method Methods 0.000 title claims abstract description 79
- 238000004364 calculation method Methods 0.000 claims abstract description 97
- 230000008569 process Effects 0.000 claims description 26
- 230000010354 integration Effects 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 8
- 238000012216 screening Methods 0.000 claims description 7
- 239000013074 reference sample Substances 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 13
- 238000004590 computer program Methods 0.000 description 12
- 238000010130 dispersion processing Methods 0.000 description 7
- 230000003993 interaction Effects 0.000 description 7
- 239000012634 fragment Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000012550 audit Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明实施例提供了一种模型训练方法、装置和电子设备,其中,所述的方法包括:接收模型需求方上传的模型训练需求信息和数据提供方上传的训练数据,其中,所述训练数据为密文;依据所述模型训练需求信息,确定待训练模型;基于多方安全计算协议,依据所述训练数据和模型训练需求信息对所述待训练模型进行基于密文的训练,确定所述待训练模型的目标模型参数,所述目标模型参数为密文;将所述目标模型参数返回至所述模型需求方;进而不仅能够保证模型需求方的数据安全和数据提供方的数据安全;且还能够在保证数据提供方数据安全的同时,有效的提高了模型训练结果的准确性。
Description
技术领域
本发明涉及数据处理领域,特别是涉及一种模型训练方法、装置和电子设备。
背景技术
随着科学技术的不断发展,解决各种不同问题的模型不断的被设计出来,使得模型被广泛的应用于各个领域;如数据挖掘领域、人工智能领域等等。其中,模型在被使用之前,需要采用训练数据来对其进行训练。
在实际应用中,模型训练所需的训练数据往往分布在多个数据提供方;为了提高模型的性能,需要采用各方的训练数据对模型进行训练;以在更大规模、更高质量的数据集上进行模型的训练。
现有技术中,一种模型训练的方法是由模型需求方对模型进行训练;即模型需求方从各个数据提供方收集明文数据,然后采用收集的明文数据对模型进行训练。但这种方式会将数据提供方的训练数据泄露给模型需求方,无法保证数据提供方提供的训练数据安全。另一种模型训练的方法是由数据提供方对模型进行训练,即各数据提供方采用各自的数据上进行训练,然后在每轮训练结束后将模型参数同步给模型需求方。但是这种方式会将模型需求方模型泄露给各数据提供方,无法保证模型需求方模型的安全。
发明内容
本发明实施例提供一种模型训练方法,以保证模型训练过程中的数据安全。
相应的,本发明实施例还提供了一种模型训练装置和电子设备,用以保证上述方法的实现及应用。
为了解决上述问题,本发明实施例公开了一种模型训练方法,具体包括:接收模型需求方上传的模型训练需求信息和数据提供方上传的训练数据,其中,所述训练数据为密文;依据所述模型训练需求信息,确定待训练模型;基于多方安全计算协议,依据所述训练数据和模型训练需求信息对所述待训练模型进行基于密文的训练,确定所述待训练模型的目标模型参数,所述目标模型参数为密文;将所述目标模型参数返回至所述模型需求方。
可选地,所述模型训练需求信息包括结束条件;所述依据所述训练数据和模型训练需求信息对所述待训练模型进行基于密文的训练,确定所述待训练模型的目标模型参数,包括:采用所述训练数据对所述待训练模型进行密文训练;基于密文判断训练后的待训练模型是否满足结束条件;确定训练后的待训练模型满足结束条件时,获取所述待训练模型的当前模型参数并将所述当前模型参数确定为目标模型参数;确定训练后的待训练模型不满足结束条件时,执行所述采用所述训练数据对所述待训练模型进行密文训练的步骤。
可选地,所述基于密文判断训练后的待训练模型是否满足结束条件,包括:基于密文判断训练后所述待训练模型的迭代次数是否达到迭代次数阈值;或,基于密文判断本次训练后待训练模型的模型参数与上一次训练后待训练模型的模型参数的差异信息是否小于差异阈值;或,基于密文判断训练后的待训练模型预测误差是否小于误差阈值。
可选地,所述采用所述训练数据对所述待训练模型进行密文训练,包括:将所述训练数据输入所述待训练模型进行基于密文的前向计算,输出预测结果;依据所述预测结果对所述待训练模型的模型参数进行基于密文的调整。
可选地,所述模型训练需求信息包括初始模型参数,所述初始模型参数为密文;在所述依据所述模型训练需求信息,确定待训练模型之后,所述的方法还包括:采用所述初始模型参数,对所述待训练模型进行初始化。
可选地,所述数据提供方包括多个,在所述依据所述模型训练需求信息,确定待训练模型之后,所述的方法还包括:对各数据提供方上传的训练数据进行整合处理;所述整合处理包括以下至少一种:特征提取、特征筛选和数据对齐。
本发明实施例还公开了一种模型训练装置,具体包括:数据接收模块,用于接收模型需求方上传的模型训练需求信息和数据提供方上传的训练数据,其中,所述训练数据为密文;模型确定模块,用于依据所述模型训练需求信息,确定待训练模型;模型训练模块,用于基于多方安全计算协议,依据所述训练数据和模型训练需求信息对所述待训练模型进行基于密文的训练,确定所述待训练模型的目标模型参数,所述目标模型参数为密文;数据返回模块,用于将所述目标模型参数返回至所述模型需求方。
可选地,所述模型训练需求信息包括结束条件;所述模型训练模块,包括:密文训练子模块,用于采用所述训练数据对所述待训练模型进行密文训练;结束条件判断子模块,用于基于密文判断训练后的待训练模型是否满足结束条件;参数确定子模块,用于确定训练后的待训练模型满足结束条件时,获取所述待训练模型的当前模型参数并将所述当前模型参数确定为目标模型参数;调用子模块,用于确定训练后的待训练模型不满足结束条件时,调用所述密文训练子模块执行所述采用所述训练数据对所述待训练模型进行密文训练的步骤。
可选地,所述结束条件判断子模块,用于基于密文判断训练后所述待训练模型的迭代次数是否达到迭代次数阈值;或,基于密文判断本次训练后待训练模型的模型参数与上一次训练后待训练模型的模型参数的差异信息是否小于差异阈值;或,基于密文判断训练后的待训练模型预测误差是否小于误差阈值。
可选地,所述密文训练子模块,用于将所述训练数据输入所述待训练模型进行基于密文的前向计算,输出预测结果;依据所述预测结果对所述待训练模型的模型参数进行基于密文的调整。
可选地,所述模型训练需求信息包括初始模型参数,所述初始模型参数为密文;所述的装置还包括:初始化模块,用于在所述依据所述模型训练需求信息,确定待训练模型之后,采用所述初始模型参数,对所述待训练模型进行初始化。
可选地,所述数据提供方包括多个,所述的装置还包括:数据整合模块,用于在所述依据所述模型训练需求信息,确定待训练模型之后,对各数据提供方上传的训练数据进行整合处理;所述整合处理包括以下至少一种:特征提取、特征筛选和数据对齐。
本发明实施例还公开了一种可读介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如本发明实施例中一个或多个所述的模型训练方法。
本发明实施例还公开了一种电子设备,包括:一个或多个处理器;和其上存储有指令的一个或多个可读介质,当由所述一个或多个处理器执行时,使得所述电子设备执行如上述本发明实施例中一个或多个所述的模型训练方法。
与现有技术相比,本发明实施例包括以下优点:
本发明实施例中,可以接收模型需求方上传的模型训练需求信息和数据提供方上传的训练数据;其中,所述训练数据为密文,进而保证数据提供方的数据安全;然后再基于多方安全计算协议,依据所述训练数据和模型训练需求信息对所述待训练模型进行基于密文的训练,确定所述待训练模型的目标模型参数并将所述目标模型参数返回至所述模型需求方;其中,确定的所述目标模型参数为密文;进而能够保证模型需求方的数据安全。
另外,本发明方案由于模型训练过程采用数据的密文进行,因此可以基于多个数据提供方的多个维度的数据进行训练,在保证数据提供方数据安全的同时,有效提升了模型训练结果的准确性。
附图说明
图1是本发明的一种模型训练系统实施例的结构框图;
图2是本发明的一种模型训练方法实施例的步骤流程图;
图3是本发明的一种基于多方安全计算协议进行密文计算方法实施例的步骤流程图;
图4是本发明的一种模型训练方法可选实施例的步骤流程图;
图5是本发明的一种模型训练装置实施例的结构框图;
图6是本发明的一种模型训练装置可选实施例的结构框图;
图7示意性地示出了用于执行根据本发明的方法的电子设备的框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
参照图1,示出了本发明的一种模型训练系统实施例的结构框图。
所述模型训练系统可以包括模型需求方、数据提供方和密文计算平台。其中,所述模型需求方可以为一个或多个,所述数据提供方也可以为一个或多个,具体可以按照需求确定,本发明实施例对此不作限制;其中图1中示出了两个数据提供方和一个模型需求方。所述模型需求方在作为模型需求方的同时,也可以作为数据提供方。所述密文计算平台可以部署在所有数据提供方和模型需求方中的一方,也可以分布式地部署在所有数据提供方和模型需求方中的多方,还可以独立于所有数据提供方和模型需求方进行部署;本发明实施例对此不作限制。其中,所述密文计算平台可以基于多方安全计算协议进行密文计算,所述密文计算可以包括纯密文运算,以及明文和密文的混合运算。且密文计算平台由所有数据提供方和模型需求方中的多方共同管理;在密文计算平台进行密文计算过程中,任何一方都无法单独对数据进行解密,以保证数据安全。
本发明实施例提供的一种模型训练的方法应用于密文计算平台中,由密文计算平台完成模型的训练。
参照图2,示出了本发明的一种模型训练方法实施例的步骤流程图,具体可以包括如下步骤:
步骤202、接收模型需求方上传的模型训练需求信息和数据提供方上传的训练数据,其中,所述训练数据为密文。
本发明实施例中,可以预先由模型需求方依据自身的模型训练需求,生成对应的模型训练需求信息;并将所述模型训练需求信息上传至密文计算平台。以及由数据提供方基于所述模型训练需求信息确定模型训练所需的训练数据,将所述训练数据进行加密后上传至密文计算平台;进而能够使得数据提供方的训练数据不被模型需求方获取,保证了数据提供方提供的训练数据的安全。其中,数据提供方对数据的加密方法和密文计算平台的密文计算方法保持一致,包括但不限于:混淆电路、秘密分享和同态加密。
进而密文计算平台可以接收模型需求方上传的模型训练需求信息,以及数据提供方上传的训练数据;然后可以使用训练数据对模型需求方上传的模型训练需求信息对应的模型进行训练。
步骤204、依据所述模型训练需求信息,确定待训练模型。
步骤206、基于多方安全计算协议,依据所述训练数据和模型训练需求信息对所述待训练模型进行基于密文的训练,确定所述待训练模型的目标模型参数,所述目标模型参数为密文。
步骤208、将所述目标模型参数返回至所述模型需求方。
本发明实施例中,密文计算平台可以先依据所述模型训练需求信息,确定所述模型需求方所需训练的模型,后续可以称为待训练模型;然后再依据所述训练数据和模型训练需求信息,对所述待训练模型进行训练。
本发明实施例中,密文计算平台可以基于多方安全计算协议,依据密文训练数据和模型训练需求信息,对所述待训练模型进行基于密文的训练,不断调整模型的模型参数;其中,模型参数为密文。待训练结束后,可以获取所述待训练模型的模型参数,并将训练结束后获取的模型参数确定为目标模型参数。然后可以将所述目标模型参数返回至所述模型需求方;进而能够保证模型需求方的模型参数不被数据提供方获取,保证了模型需求方模型参数的安全。
模型需求方获取密文的目标模型参数后,可以对所述目标模型参数进行解密,并采用解密后的目标模型参数对自身的待训练模型的模型参数进行更新,得到训练后的模型;然后可以使用该训练后的模型进行数据的处理。
综上,本发明实施例中,可以接收模型需求方上传的模型训练需求信息和数据提供方上传的训练数据;其中,所述训练数据为密文,进而保证数据提供方的数据安全;然后再基于多方安全计算协议,依据所述训练数据和模型训练需求信息对所述待训练模型进行基于密文的训练,确定所述待训练模型的目标模型参数并将所述目标模型参数返回至所述模型需求方;其中,确定的所述目标模型参数为密文;进而能够保证模型需求方的数据安全。
另外,本发明方案由于模型训练过程采用数据的密文进行,因此可以基于多个数据提供方的多个维度的数据进行训练,在保证数据提供方数据安全的同时,有效提升了模型训练结果的准确性。
以下对所述密文计算平台基于多方安全计算协议,对所述待训练模型进行基于密文的训练进行说明。
可以参照图3,示出了本发明的一种基于多方安全计算协议进行密文计算方法实施例的步骤流程图。可以包括如下步骤:
步骤302、密文计算平台确定计算任务和对应的计算数据。
步骤304、基于多方安全计算协议生成所述计算任务对应的多方计算指令,将所述多方计算指令和计算数据发送至密文计算平台中的计算引擎。
本发明的一个可选实施例中,密文计算平台在对待训练模型进行训练的过程中需要进行多次计算;其中,在每进行一次计算时,可以生成该次计算对应的计算任务,然后调用密文计算平台中的计算引擎对所述计算任务对应的计算数据进行处理。
其中,密文计算平台可以按照预先构建的对应各计算任务的多方安全计算协议,预先将计算任务转换成所述多方计算指令;然后将多方计算指令和对应的计算数据发送至计算引擎。
其中,所述多方安全计算协议为指示并调度计算引擎中各计算节点执行对应计算任务的多方计算的过程,其包括但不限于:描述加法、减法、乘法或除法等数学计算的计算任务的多方计算执行过程,描述逻辑和、或、非、异或、比较等逻辑计算的计算任务的多方计算执行过程,描述秘密传输的多方计算执行过程等。其中,所述多方计算指令包括:为采用多方计算的方式执行计算任务而指示计算引擎中各计算节点进行本地计算的指令,计算节点之间执行数据交互的指令,获取计算数据的指令,生成随机数的指令等。所述多方计算指令还可以包含指示计算节点执行本地计算和数据交互的计算角色的指令。所述多方计算指令可以由计算机程序语言来描述,或者由机器语言来描述。
然后计算引擎可以基于所述多方计算指令对对应的计算数据进行处理。
步骤306、计算引擎获取多方计算指令和计算数据。
其中,所述计算引擎可以包括多个计算节点,通过多个计算节点的协同计算来实现对计算任务对应计算数据的处理;计算引擎包含的计算节点的数量可以按照需求设置如4个,本发明实施例对此不作限制。
在一些示例中,计算引擎的各计算节点可以获取计算任务的完整的多方计算指令,即获取包含有每个计算节点执行的计算指令。为此,为使每个计算节点协同执行,所述步骤包括:各计算节点获取所述多方计算指令及计算角色;以供各计算节点按照所分别获取的计算角色执行所述多方计算指令。其中,所述计算角色用于标记所述多方计算指令中各执行本地计算的计算节点,以及标记所述多方计算指令中执行计算节点之间的交互时数据发送方和数据接收方等。
在又一些示例中,计算引擎的各计算节点分别获取所述多方计算指令中对应本地执行的计算指令。其中,所述本地执行的计算指令包含用于执行本地计算的指令,为执行数据交互而发出本地存储的数据的指令,为执行数据交互而将所接收的数据存储本地的指令,获取经处理的输入数据的指令,生成随机数的指令等。例如,所述多方计算指令包含计算节点S1执行生成随机数r12的指令P1,计算节点Sa执行生成随机数rab的指令Pa等,则计算节点S1获取指令P1,计算节点Sa获取指令Pa。
为执行计算任务,所述计算引擎中各计算节点还获取对应的计算数据。本发明实施例中,所述计算任务对应的计算数据可以包括明文和/或密文。若所述计算数据为训练数据的密文部分,则所述计算数据可以是由数据提供方基于计算引擎执行多方计算所需的随机分散处理方式对训练数据进行随机分散处理得到的。本发明的一个可选实施例中,所述随机分散处理方式可以包括:随机产生至少一个私密数据,按照所产生的私密数据将输入数据进行分散处理。一种示例中,所述随机分散处理方式包括:随机产生两个私密数据x1和x'1,基于所述私密数据x1和x'1将输入数据X分散成{x1,x'1,x2,x'2,xa,x'a,xb,x'b};其中,x2=X-x1=xa,x1=xb,x'2=X-x'1=x'b,x'1=x'a。若所述计算数据为训练过程中产生的数据,则所述计算数据可以是由密文计算引擎基于计算引擎执行多方计算所需的随机分散处理方式对训练数据进行随机分散处理得到的。其中,数据提供方随机分散处理的方式和密文计算平台随机分散处理的方式可以一致。
其中,当所述计算数据为密文时,每个节点获取的计算数据为计算数据的至少一个密文分片,计算数据的所有的密文分片可以组成计算数据的明文。例如上述示例中数据X的密文为{x1,x'1,x2,x'2,xa,x'a,xb,x'b};若计算节点为4个,每个计算节点获取的计算数据的密文分片可以为{x1,x'1},{x2,x'2},{xa,x'a}和{xb,x'b}。当所述计算数据为明文时,每个节点获取的计算数据可以为计算数据的本身。当计算数据包括明文和密文,计算节点获取的计算数据可以为明文和密文的至少一个密文分片。例如,所述计算数据包括A1和A2,其中,A1为密文,被随机分散为{a1,a2},,A2为明文部分。计算节点1获取的计算数据可以为a1和A2,计算节点2获取的计算数据可以为a2和A2。
步骤308、按照所述多方计算指令,所述计算引擎中至少部分计算节点分别对各自所获取的计算数据进行本地计算,和/或将本地计算所产生的中间数据进行交互,得到经由各计算节点分别持有的计算结果。
其中,根据计算任务,所述多方计算指令可指示部分计算节点仅执行本地计算,并得到计算结果。在一些示例中,所述多方计算指令包含基于计算任务中具有同态性的计算而生成的指令;按照所述多方计算指令,所述计算引擎中的计算节点执行本地计算并得到相应的计算结果。其中,所述同态性表示可具有一个封闭的具有结合律的运算,例如,加法计算等。在利用所述计算引擎执行加法计算时,多方计算指令可指示两个计算节点执行计算数据A1和A2的加法计算,并得到各自持有的计算结果。密文计算平台可通过获取该两个计算节点的计算结果得到A1+A2的处理结果。
在又一些示例中,多方计算指令包含指令计算节点分别对各自所获取的计算数据组进行本地计算的指令,以及将本地计算所产生的中间数据进行交互的指令。在一些具体示例中,多方计算指令可对应计算任务中所涉及的每个计算。在又一些具体示例中,所述多方计算指令包含基于计算任务中多个计算之间的关联关系而设置的指令。其中,所述多个计算之间的关联关系包括但不限于:计算优先级关系、计算同态性、计算可同步性、计算所需的计算数据的随机分散处理方式等。根据所述关联关系,所述密文计算平台或计算引擎优化了各计算节点的本地计算和数据交互,由此各计算节点按照优化后的多方计算指令执行本地计算的指令,以及计算节点执行数据交互的指令。例如,计算任务中包含(X+Y)×Z,多方计算指令包含:指示两个计算节点执行本地计算得到对应(X+Y)多方计算的指令,指示该两个计算节点将各自持有的对应(X+Y)多方计算的计算结果作为中间数据,并进行随机分散处理的指令,指示多个计算节点执行对应(X+Y)×Z多方计算的指令等。
步骤310、密文计算平台依据各计算节点分别持有的计算结果,确定所述计算任务对应的处理结果。
在计算引擎得到对应计算任务的计算结果后,密文计算平台可以从所述多个计算节点中选取部分计算节点所持有的计算结果用于生成一处理结果;其中,所述处理结果为所述计算任务对计算数据进行处理的处理结果。
参照图4,示出了本发明的一种模型训练方法可选实施例的步骤流程图,具体可以包括如下步骤:
步骤402、接收模型需求方上传的模型训练需求信息和数据提供方上传的训练数据,其中,所述训练数据为密文。
本发明实施例中,在模型需求方提交模型训练需求信息后,可以由所有数据提供方审核;在所有数据提供方审核通过后,才将对应的训练数据进行加密并上传至密文计算平台,由密文计算平台进行模型训练。所述审核可以包括对数据提供方所需提供的训练数据的使用安全性的审核,例如所需提供的训练数据的用途、应用场景、运算类型等等。其中,每个数据提供方可以对其所需提供的训练数据中的一部分数据进行加密,此时该数据提供方上传的训练数据中包括密文和明文。当然,每个数据提供方也可以对其所需提供的训练数据中的全部数据进行加密,此时该数据提供方上传的训练数据均为密文;本发明实施例对此不作限制。
本发明实施例中,所述模型需求方上传的模型训练需求可以包括多种信息,如模型标识、初始模型参数和结束条件。其中,所述模型标识可以用于唯一标识模型;所述初始模型参数可以是指模型参数的初始值,所述初始模型参数为密文;所述结束条件可以是指结束对模型训练的条件,可以按照需求设置,本发明实施例对此不作限制。
步骤404、依据所述模型训练需求信息,确定待训练模型。
本发明实施例中,密文计算平台可以从所述模型训练需求信息中获取模型标识;然后查找所述模型标识对应的模型,并将所述模型标识对应的模型确定为待训练模型。
步骤406、采用初始模型参数,对所述待训练模型进行初始化。
本发明实施例中,在确定待训练模型后,可以先采用初始模型参数,对待训练模型进行初始化;然后再对初始化后的待训练模型进行基于密文的训练。
本发明实施例中,所述初始模型参数可以是由模型需求方指定;当模型需求方未指定初始模型参数时,所述初始模型参数可以为密文计算平台指定的预设值。因此,密文计算平台可以从模型训练需求信息中查找初始模型参数;当从模型训练需求信息中查找到初始模型参数时,可以采用查找到的初始模型参数初始化待训练模型。当从模型训练需求信息中未查找到初始模型参数时,可以采用密文计算平台中指定的预设值初始化待训练模型。
步骤408、对各数据提供方上传的训练数据进行整合处理。
本发明实施例中,在进行模型训练之前,可以对各数据提供方上传的训练数据进行整合处理;以便于后续采用训练数据对待训练模型进行训练。其中,所述整合处理包括以下至少一种:特征提取、特征筛选和数据对齐。所述特征提取可以是指对已有的一些信息进行加工后提取需要的信息。所述特征筛选可以是指过滤掉不需要的信息。所述对齐是将多个域的数据进行匹配对齐;例如,训练数据包括三个域,一个表示姓名的域,一个表示年龄的域,一个表示职位的域;每个域中均包含不同的用户在这个域内的信息。由于三个域中同一个人对应信息的位置可能是不同的,为了便于后续训练,可以将每个人在不同域中对应信息的位置对应起来;这个过程可以称为对齐过程。
步骤410、基于多方安全协议,采用所述训练数据对所述待训练模型进行密文训练。
本发明实施例中,所述训练数据可以包括M组,可以将M组训练数据划分为N个批次,然后每次采用一个批次的训练数据,对所述待训练模型进行密文训练。其中,所述N和M为正整数,每个批次可以包括至少一组训练数据。其中,每次采用一个批次的训练数据对待训练模型进行训练的过程如下:
子步骤22、将所述训练数据输入所述待训练模型进行基于密文的前向计算,输出预测结果。
子步骤24、依据所述预测结果对所述待训练模型的模型参数进行基于密文的调整。
本发明实施例中,每组训练数据可以包括训练样本和参考样本;可以将该批次的各组训练数据中的训练样本,输入至述待训练模型进行基于密文的前向计算,得到对应的预测结果。然后可以将所述预测结果与该批次各组训练数据中的参考样本进行密文比对,依据比对结果对所述待训练模型的模型参数进行基于密文的调整。
其中,每采用一个批次的训练数据对待训练模型进行训练后,可以执行步骤412,判断是否结束对待训练模型的训练。
步骤412、基于密文判断训练后的待训练模型是否满足结束条件。
其中,确定训练后的待训练模型满足结束条件时,可以执行步骤414;确定训练后的待训练模型不满足结束条件时,可以执行步骤410,即采用下一个批次的训练数据对待训练模型进行训练。
本发明的一个示例中,所述结束条件可以为迭代次数超过迭代次数阈值;其中,所述迭代次数阈值可以按照需求设置,本发明实施例对此不作限制。则基于密文判断训练后的待训练模型是否满足结束条件的一种方式可以是:基于密文判断训练后所述待训练模型的迭代次数是否达到迭代次数阈值。其中,待训练模型的一个批次的训练,可以称为待训练模型的一次迭代;因此可以依据用于训练待训练模型的训练数据对应批次的数量,确定训练后待训练模型的迭代次数。当确定训练后所述待训练模型的迭代次数达到迭代次数阈值时,可以确定待训练模型满足结束条件;当确定训练后所述待训练模型的迭代次数未达到迭代次数阈值时,可以确定待训练模型不满足结束条件。
其中,可以生成用于执行减法计算的计算任务,所述减法计算可以是(训练后所述待训练模型的迭代次数-迭代次数阈值),也可以是(迭代次数阈值-训练后所述待训练模型的迭代次数);本发明实施例对此不作限制,所述减法任务对应的计算数据可以为训练后所述待训练模型的迭代次数和迭代次数阈值;然后将减法计算和对应的计算数据(训练后所述待训练模型的迭代次数和迭代次数阈值)发送至计算引擎,由计算引擎完成训练后所述待训练模型的迭代次数和迭代次数阈值的减法计算。然后密文计算平台依据计算引擎的计算结果,判断训练后所述待训练模型的迭代次数是否达到迭代次数阈值。例如,计算任务为:(训练后所述待训练模型的迭代次数-迭代次数阈值)的减法计算,则当训练后所述待训练模型的迭代次数大于或等于迭代次数阈值时,计算结果为1的密文,当训练后所述待训练模型的迭代次数小于迭代次数阈值时,计算结果为0的密文。密文计算平台可以对计算结果进行解密,若解密结果为1,则确定训练后所述待训练模型的迭代次数达到迭代次数阈值;若解密结果为0,则确定训练后所述待训练模型的迭代次数未达到迭代次数阈值。
本发明的一个示例中,所述结束条件可以为相邻两次迭代之间模型参数的参数差异信息小于差异阈值;其中,所述差异阈值可以按照需求设置。则基于密文判断训练后的待训练模型是否满足结束条件的一种方式可以是:判断本次训练后待训练模型的模型参数与上一次训练后待训练模型的模型参数的参数差异信息是否小于差异阈值。当确定本次训练后待训练模型的模型参数与上一次训练后待训练模型的模型参数的参数差异信息小于差异阈值时,可以确定待训练模型满足结束条件;当确定本次训练后待训练模型的模型参数与上一次训练后待训练模型的模型参数的参数差异信息大于或等于差异阈值时,可以确定待训练模型不满足结束条件。其中,所述相邻两次迭代之间模型参数的参数差异信息可以采用相邻两次迭代之间模型参数之间的距离表示;所述距离可以采用欧式距离度量,可以采用其他距离度量,本发明实施例对此不作限制。
类似的,可以生成用于执行减法计算的计算任务,所述减法计算可以是(本次训练后待训练模型的模型参数与上一次训练后待训练模型的模型参数的参数差异信息-差异阈值);也可以是(差异阈值-本次训练后待训练模型的模型参数与上一次训练后待训练模型的模型参数的参数差异信息),本发明实施例对此不作限制。所述减法任务对应的计算数据可以为本次训练后待训练模型的模型参数、上一次训练后待训练模型的模型参数和差异阈值。然后将减法计算和对应的计算数据(本次训练后待训练模型的模型参数、上一次训练后待训练模型的模型参数和差异阈值)发送至计算引擎,由计算引擎完成本次训练后待训练模型的模型参数与上一次训练后待训练模型的模型参数的参数差异信息和差异阈值的减法计算。然后密文计算平台依据计算引擎的计算结果,判断本次训练后待训练模型的模型参数与上一次训练后待训练模型的模型参数的参数差异信息是否小于差异阈值;这里与上述类似,在此不再赘述。
本发明的一个示例中,所述结束条件可以为相邻两次迭代之间模型预测误差的误差差异信息小于误差阈值;其中,所述误差阈值可以按照需求设置。则基于密文判断训练后的待训练模型是否满足结束条件的一种方式可以是:判断相邻两次迭代之间待训练模型预测误差的误差差异信息是否小于误差阈值。当确定相邻两次迭代之间待训练模型预测误差的误差差异信息小于误差阈值时,可以确定待训练模型满足结束条件;当确定相邻两次迭代之间待训练模型预测误差的误差差异信息大于或等于误差阈值时,可以确定待训练模型不满足结束条件。
类似的,可以生成用于执行减法计算的计算任务,所述减法任务可以是(相邻两次迭代之间待训练模型预测误差的误差差异信息-误差阈值),也可以是(误差阈值-相邻两次迭代之间待训练模型预测误差的误差差异信息);本发明实施例对此不作限制。对应的计算数据可以为训练后所述待训练模型的预测误差和误差阈值。然后将减法计算和对应的计算数据(相邻两次迭代之间待训练模型预测误差的误差差异信息和误差阈值)发送至计算引擎,由计算引擎完成相邻两次迭代之间待训练模型预测误差的误差差异信息和误差阈值的减法计算。然后密文计算平台依据计算引擎的计算结果,判断训练后的待训练模型预测误差是否小于误差阈值。这里与上述类似,在此不再赘述。
步骤414、获取所述待训练模型的当前模型参数并将所述当前模型参数确定为目标模型参数。
当确定训练后的待训练模型满足结束条件时,可以结束对待训练模型的训练;此时可以获取所述待训练模型的当前模型参数并将所述当前模型参数确定为目标模型参数。
步骤416、将所述目标模型参数返回至所述模型需求方。
综上,本发明实施例中,可以接收模型需求方上传的模型训练需求信息和数据提供方上传的训练数据;其中,所述训练数据为密文,进而保证数据提供方的数据安全;然后再基于多方安全计算协议,依据所述训练数据和模型训练需求信息对所述待训练模型进行基于密文的训练,确定所述待训练模型的目标模型参数并将所述目标模型参数返回至所述模型需求方;其中,确定的所述目标模型参数为密文;进而能够保证模型需求方的数据安全。
其次,本发明实施例中,所述模型训练需求信息包括结束条件,所述依据所述训练数据和模型训练需求信息对所述待训练模型进行基于密文的训练,确定所述待训练模型的目标模型参数,包括:采用所述训练数据对所述待训练模型进行密文训练;基于密文判断训练后的待训练模型是否满足结束条件;确定训练后的待训练模型满足结束条件时,获取所述待训练模型的当前模型参数并将所述当前模型参数确定为目标模型参数;确定训练后的待训练模型不满足结束条件时,执行所述采用所述训练数据对所述待训练模型进行密文训练的步骤;进而根据模型需求方针对模型训练的结束条件,确定是否结束对模型的训练,能够更好的满足模型需求方对模型的需求。
进一步,本发明实施例中,在所述依据所述模型训练需求信息,确定待训练模型之后,可以采用所述初始模型参数,对所述待训练模型进行初始化;进而基于一定的基础对待训练模型进行训练,节约了模型训练的时间,提高了模型训练的效率。
再次,本发明实施例中,在所述依据所述模型训练需求信息,确定待训练模型之后,可以对各数据提供方上传的训练数据进行整合处理;所述整合处理包括以下至少一种:特征提取、特征筛选和数据对齐,进而能够便于后续的模型训练,提高模型训练的效率。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
参照图5,示出了本发明一种模型训练装置实施例的结构框图,具体可以包括如下模块:
数据接收模块502,用于接收模型需求方上传的模型训练需求信息和数据提供方上传的训练数据,其中,所述训练数据为密文;
模型确定模块504,用于依据所述模型训练需求信息,确定待训练模型;
模型训练模块506,用于基于多方安全计算协议,依据所述训练数据和模型训练需求信息对所述待训练模型进行基于密文的训练,确定所述待训练模型的目标模型参数,所述目标模型参数为密文;
数据返回模块508,用于将所述目标模型参数返回至所述模型需求方。
参照图6,示出了本发明一种模型训练装置可选实施例的结构框图。
本发明一个可选实施例中,所述模型训练需求信息包括结束条件;所述模型训练模块506,包括:
密文训练子模块5062,用于采用所述训练数据对所述待训练模型进行密文训练;
结束条件判断子模块5064,用于基于密文判断训练后的待训练模型是否满足结束条件;
参数确定子模块5066,用于确定训练后的待训练模型满足结束条件时,获取所述待训练模型的当前模型参数并将所述当前模型参数确定为目标模型参数;
调用子模块5068,用于确定训练后的待训练模型不满足结束条件时,调用所述密文训练子模块执行所述采用所述训练数据对所述待训练模型进行密文训练的步骤。
本发明一个可选实施例中,所述结束条件判断子模块5064,用于基于密文判断训练后所述待训练模型的迭代次数是否达到迭代次数阈值;或,基于密文判断本次训练后待训练模型的模型参数与上一次训练后待训练模型的模型参数的差异信息是否小于差异阈值;或,基于密文判断训练后的待训练模型预测误差是否小于误差阈值。
本发明一个可选实施例中,所述密文训练子模块5062,用于将所述训练数据输入所述待训练模型进行基于密文的前向计算,输出预测结果;依据所述预测结果对所述待训练模型的模型参数进行基于密文的调整。
本发明一个可选实施例中,所述模型训练需求信息包括初始模型参数,所述初始模型参数为密文;所述的装置还包括:
初始化模块510,用于在所述依据所述模型训练需求信息,确定待训练模型之后,采用所述初始模型参数,对所述待训练模型进行初始化。
本发明一个可选实施例中,所述数据提供方包括多个,所述的装置还包括:
数据整合模块512,用于在所述依据所述模型训练需求信息,确定待训练模型之后,对各数据提供方上传的训练数据进行整合处理;所述整合处理包括以下至少一种:特征提取、特征筛选和数据对齐。
综上,本发明实施例中,可以接收模型需求方上传的模型训练需求信息和数据提供方上传的训练数据;其中,所述训练数据为密文,进而保证数据提供方的数据安全;然后再基于多方安全计算协议,依据所述训练数据和模型训练需求信息对所述待训练模型进行基于密文的训练,确定所述待训练模型的目标模型参数并将所述目标模型参数返回至所述模型需求方;其中,确定的所述目标模型参数为密文;进而能够保证模型需求方的数据安全。
另外,本发明方案由于模型训练过程采用数据的密文进行,因此可以基于多个数据提供方的多个维度的数据进行训练,在保证数据提供方数据安全的同时,有效提升了模型训练结果的准确性。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本发明实施例还提供了一种可读介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如本发明实施例中一个或多个所述的模型训练方法。
本发明实施例还提供了一种电子设备,包括:一个或多个处理器;和其上存储有指令的一个或多个可读介质,当由所述一个或多个处理器执行时,使得所述电子设备执行如上述本发明实施例中一个或多个所述的模型训练方法。
本发明实施例一个示例中提供了一种电子设备,例如服务器,图7示出了可以实现根据本发明的服务器,例如管理服务器、存储服务器、应用服务器、云控服务、服务器集群等。该服务器传统上包括处理器710和以存储器720形式的计算机程序产品或者计算机可读介质。存储器720可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。存储器720具有用于执行上述方法中的任何方法步骤的程序代码731的存储空间730。例如,用于程序代码的存储空间730可以包括分别用于实现上面的方法中的各种步骤的各个程序代码731。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。这些计算机程序产品包括诸如硬盘,紧致盘(CD)、存储卡或者软盘之类的程序代码载体。这样的计算机程序产品通常为便携式或者固定存储单元。该存储单元可以具有与图7的服务器中的存储器720类似布置的存储段、存储空间等。程序代码可以例如以适当形式进行压缩。通常,存储单元包括计算机可读代码,即可以由例如诸如710之类的处理器读取的代码,这些代码当由服务器运行时,导致该服务器执行上面所描述的方法中的各个步骤。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本发明所提供的一种模型训练方法、一种模型训练装置和一种电子设备,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种模型训练方法,其特征在于,包括:
接收模型需求方上传的模型训练需求信息和数据提供方上传的训练数据,其中,所述训练数据为密文;
依据所述模型训练需求信息,确定待训练模型;
基于多方安全计算协议,依据所述训练数据和模型训练需求信息对所述待训练模型进行基于密文的训练,确定所述待训练模型的目标模型参数,所述目标模型参数为密文;
将所述目标模型参数返回至所述模型需求方;
其中,所述模型训练需求信息包括结束条件;所述依据所述训练数据和模型训练需求信息对所述待训练模型进行基于密文的训练,确定所述待训练模型的目标模型参数,包括:
采用所述训练数据对所述待训练模型进行密文训练;
基于密文判断训练后的待训练模型是否满足结束条件;
确定训练后的待训练模型满足结束条件时,获取所述待训练模型的当前模型参数并将所述当前模型参数确定为目标模型参数;
确定训练后的待训练模型不满足结束条件时,执行所述采用所述训练数据对所述待训练模型进行密文训练的步骤;
其中,所述基于密文判断训练后的待训练模型是否满足结束条件,包括:
基于密文判断训练后所述待训练模型的迭代次数是否达到迭代次数阈值;或,
基于密文判断本次训练后待训练模型的模型参数与上一次训练后待训练模型的模型参数的差异信息是否小于差异阈值;或,
基于密文判断训练后的待训练模型预测误差是否小于误差阈值;
其中,所述采用所述训练数据对所述待训练模型进行密文训练,包括:
将所述训练数据输入所述待训练模型进行基于密文的前向计算,输出预测结果;
将所述预测结果与训练数据中的参考样本进行密文比对,依据所述预测结果对所述待训练模型的模型参数进行基于密文的调整。
2.根据权利要求1所述的方法,其特征在于,所述模型训练需求信息包括初始模型参数,所述初始模型参数为密文;在所述依据所述模型训练需求信息,确定待训练模型之后,所述的方法还包括:
采用所述初始模型参数,对所述待训练模型进行初始化。
3.根据权利要求1所述的方法,其特征在于,所述数据提供方包括多个,在所述依据所述模型训练需求信息,确定待训练模型之后,所述的方法还包括:
对各数据提供方上传的训练数据进行整合处理;
所述整合处理包括以下至少一种:特征提取、特征筛选和数据对齐。
4.一种模型训练装置,其特征在于,包括:
数据接收模块,用于接收模型需求方上传的模型训练需求信息和数据提供方上传的训练数据,其中,所述训练数据为密文;
模型确定模块,用于依据所述模型训练需求信息,确定待训练模型;
模型训练模块,用于基于多方安全计算协议,依据所述训练数据和模型训练需求信息对所述待训练模型进行基于密文的训练,确定所述待训练模型的目标模型参数,所述目标模型参数为密文;
数据返回模块,用于将所述目标模型参数返回至所述模型需求方;
其中,所述模型训练需求信息包括结束条件;所述模型训练模块,包括:
密文训练子模块,用于采用所述训练数据对所述待训练模型进行密文训练;
结束条件判断子模块,用于基于密文判断训练后的待训练模型是否满足结束条件;
参数确定子模块,用于确定训练后的待训练模型满足结束条件时,获取所述待训练模型的当前模型参数并将所述当前模型参数确定为目标模型参数;
调用子模块,用于确定训练后的待训练模型不满足结束条件时,调用所述密文训练子模块执行所述采用所述训练数据对所述待训练模型进行密文训练的步骤;
其中,所述结束条件判断子模块,用于基于密文判断训练后所述待训练模型的迭代次数是否达到迭代次数阈值;或,基于密文判断本次训练后待训练模型的模型参数与上一次训练后待训练模型的模型参数的差异信息是否小于差异阈值;或,基于密文判断训练后的待训练模型预测误差是否小于误差阈值;
其中,所述密文训练子模块,用于:
将所述训练数据输入所述待训练模型进行基于密文的前向计算,输出预测结果;
将所述预测结果与训练数据中的参考样本进行密文比对,依据所述预测结果对所述待训练模型的模型参数进行基于密文的调整。
5.根据权利要求4所述的装置,其特征在于,所述模型训练需求信息包括初始模型参数,所述初始模型参数为密文;所述的装置还包括:
初始化模块,用于在所述依据所述模型训练需求信息,确定待训练模型之后,采用所述初始模型参数,对所述待训练模型进行初始化。
6.根据权利要求4所述的装置,其特征在于,所述数据提供方包括多个,所述的装置还包括:
数据整合模块,用于在所述依据所述模型训练需求信息,确定待训练模型之后,对各数据提供方上传的训练数据进行整合处理;所述整合处理包括以下至少一种:特征提取、特征筛选和数据对齐。
7.一种存储介质,其特征在于,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如方法权利要求1-3任一项所述的模型训练方法。
8.一种电子设备,其特征在于,包括:
一个或多个处理器;和
其上存储有指令的一个或多个可读介质,当由所述一个或多个处理器执行时,使得所述电子设备执行如权利要求1-3任一项所述的模型训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010002915.1A CN112668016B (zh) | 2020-01-02 | 2020-01-02 | 一种模型训练方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010002915.1A CN112668016B (zh) | 2020-01-02 | 2020-01-02 | 一种模型训练方法、装置和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112668016A CN112668016A (zh) | 2021-04-16 |
CN112668016B true CN112668016B (zh) | 2023-12-08 |
Family
ID=75402727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010002915.1A Active CN112668016B (zh) | 2020-01-02 | 2020-01-02 | 一种模型训练方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112668016B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113033717B (zh) * | 2021-05-26 | 2021-08-31 | 华控清交信息科技(北京)有限公司 | 一种模型生成方法、装置以及用于模型生成的装置 |
CN116561787A (zh) * | 2023-07-04 | 2023-08-08 | 北京数牍科技有限公司 | 视觉图像分类模型的训练方法、装置及电子设备 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106022360A (zh) * | 2016-05-11 | 2016-10-12 | 蒋林智 | 一种统计学习中基于密文的数据二分类方法 |
CN108520181A (zh) * | 2018-03-26 | 2018-09-11 | 联想(北京)有限公司 | 数据模型训练方法和装置 |
CN109284313A (zh) * | 2018-08-10 | 2019-01-29 | 深圳前海微众银行股份有限公司 | 基于半监督学习的联邦建模方法、设备及可读存储介质 |
CN109309652A (zh) * | 2017-07-28 | 2019-02-05 | 阿里巴巴集团控股有限公司 | 一种训练模型的方法及装置 |
CN109635462A (zh) * | 2018-12-17 | 2019-04-16 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数训练方法、装置、设备及介质 |
CN109687952A (zh) * | 2018-11-16 | 2019-04-26 | 创新奇智(重庆)科技有限公司 | 数据处理方法及其装置、电子装置及存储介质 |
CN109840591A (zh) * | 2017-11-29 | 2019-06-04 | 华为技术有限公司 | 模型训练系统、方法和存储介质 |
CN109992979A (zh) * | 2019-03-15 | 2019-07-09 | 暨南大学 | 一种岭回归训练方法、计算设备、介质 |
CN110162981A (zh) * | 2019-04-18 | 2019-08-23 | 阿里巴巴集团控股有限公司 | 数据处理方法及装置 |
CN110210233A (zh) * | 2019-04-19 | 2019-09-06 | 平安科技(深圳)有限公司 | 预测模型的联合构建方法、装置、存储介质及计算机设备 |
CN110443067A (zh) * | 2019-07-30 | 2019-11-12 | 卓尔智联(武汉)研究院有限公司 | 基于隐私保护的联邦建模装置、方法及可读存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3203679A1 (en) * | 2016-02-04 | 2017-08-09 | ABB Schweiz AG | Machine learning based on homomorphic encryption |
US10755172B2 (en) * | 2016-06-22 | 2020-08-25 | Massachusetts Institute Of Technology | Secure training of multi-party deep neural network |
-
2020
- 2020-01-02 CN CN202010002915.1A patent/CN112668016B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106022360A (zh) * | 2016-05-11 | 2016-10-12 | 蒋林智 | 一种统计学习中基于密文的数据二分类方法 |
CN109309652A (zh) * | 2017-07-28 | 2019-02-05 | 阿里巴巴集团控股有限公司 | 一种训练模型的方法及装置 |
CN109840591A (zh) * | 2017-11-29 | 2019-06-04 | 华为技术有限公司 | 模型训练系统、方法和存储介质 |
CN108520181A (zh) * | 2018-03-26 | 2018-09-11 | 联想(北京)有限公司 | 数据模型训练方法和装置 |
CN109284313A (zh) * | 2018-08-10 | 2019-01-29 | 深圳前海微众银行股份有限公司 | 基于半监督学习的联邦建模方法、设备及可读存储介质 |
CN109687952A (zh) * | 2018-11-16 | 2019-04-26 | 创新奇智(重庆)科技有限公司 | 数据处理方法及其装置、电子装置及存储介质 |
CN109635462A (zh) * | 2018-12-17 | 2019-04-16 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数训练方法、装置、设备及介质 |
CN109992979A (zh) * | 2019-03-15 | 2019-07-09 | 暨南大学 | 一种岭回归训练方法、计算设备、介质 |
CN110162981A (zh) * | 2019-04-18 | 2019-08-23 | 阿里巴巴集团控股有限公司 | 数据处理方法及装置 |
CN110210233A (zh) * | 2019-04-19 | 2019-09-06 | 平安科技(深圳)有限公司 | 预测模型的联合构建方法、装置、存储介质及计算机设备 |
CN110443067A (zh) * | 2019-07-30 | 2019-11-12 | 卓尔智联(武汉)研究院有限公司 | 基于隐私保护的联邦建模装置、方法及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112668016A (zh) | 2021-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210158216A1 (en) | Method and system for federated learning | |
CN112182644B (zh) | 一种数据处理方法、装置和电子设备 | |
US11902413B2 (en) | Secure machine learning analytics using homomorphic encryption | |
Giacomelli et al. | Privacy-preserving ridge regression with only linearly-homomorphic encryption | |
WO2020015478A1 (zh) | 基于模型的预测方法和装置 | |
CN110414567B (zh) | 数据处理方法、装置和电子设备 | |
CN110427969B (zh) | 数据处理方法、装置和电子设备 | |
CN111428887B (zh) | 一种基于多个计算节点的模型训练控制方法、装置及系统 | |
CN112668016B (zh) | 一种模型训练方法、装置和电子设备 | |
CN112464155B (zh) | 一种数据处理方法、多方安全计算系统和电子设备 | |
CN111915019A (zh) | 联邦学习方法、系统、计算机设备和存储介质 | |
CN112668748B (zh) | 一种预测方法、装置和电子设备 | |
CN112926064A (zh) | 一种模型训练方法及装置、数据处理系统和电子设备 | |
CN112905187A (zh) | 编译方法、装置、电子设备及存储介质 | |
CN116561787A (zh) | 视觉图像分类模型的训练方法、装置及电子设备 | |
CN113438237B (zh) | 数据安全协同计算方法及系统 | |
CN112668038A (zh) | 一种模型训练方法、装置和电子设备 | |
CN111914281B (zh) | 基于区块链和同态加密的贝叶斯模型训练方法及装置 | |
CN111010283B (zh) | 用于生成信息的方法和装置 | |
CN112668037B (zh) | 一种模型训练方法、装置和电子设备 | |
CN113094735B (zh) | 隐私模型训练的方法 | |
CN112395623B (zh) | 一种数据处理方法、装置和电子设备 | |
CN112182593A (zh) | 一种数据处理方法、装置和电子设备 | |
CN117034000B (zh) | 纵向联邦学习的建模方法、装置、存储介质以及电子设备 | |
CN112395624B (zh) | 一种数据处理方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |