CN109284313A - 基于半监督学习的联邦建模方法、设备及可读存储介质 - Google Patents

基于半监督学习的联邦建模方法、设备及可读存储介质 Download PDF

Info

Publication number
CN109284313A
CN109284313A CN201810913118.1A CN201810913118A CN109284313A CN 109284313 A CN109284313 A CN 109284313A CN 201810913118 A CN201810913118 A CN 201810913118A CN 109284313 A CN109284313 A CN 109284313A
Authority
CN
China
Prior art keywords
terminal
sample data
sample
mark
semi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810913118.1A
Other languages
English (en)
Other versions
CN109284313B (zh
Inventor
刘洋
杨强
陈天健
范涛
成柯葳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WeBank Co Ltd
Original Assignee
WeBank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WeBank Co Ltd filed Critical WeBank Co Ltd
Priority to CN201810913118.1A priority Critical patent/CN109284313B/zh
Publication of CN109284313A publication Critical patent/CN109284313A/zh
Application granted granted Critical
Publication of CN109284313B publication Critical patent/CN109284313B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于半监督学习的联邦建模方法、设备及可读存储介质,包括:第一终端依据第二终端发送的初始模型参数对样本数据执行标注操作,以将样本数据划分为标注的样本数据和未标注的样本数据;第一终端和第二终端依据各自标注的样本数据对初始化后的待训练模型的模型参数进行联合训练迭代,直至初始化后的待训练模型收敛;依据收敛时的模型参数,对未标注的样本数据执行标注操作,并在标注操作完成之后,计算未标注样本比例,且确定未标注样本比例是否小于或等于预设阈值;若未标注样本比例小于或等于预设阈值,则以当前模型参数建立模型,否则继续执行联合训练迭代和样本标注操作。本发明能够提高各方样本数据的利用率。

Description

基于半监督学习的联邦建模方法、设备及可读存储介质
技术领域
本发明涉及联合学习的技术领域,尤其涉及一种基于半监督学习的联邦建模方法、设备及可读存储介质。
背景技术
随着机器学习的快速发展,机器学习可应用于各个领域,如数据挖掘、计算机视觉、自然语言处理、生物特征识别、医学诊断、检测信用卡欺诈、证券市场分析和DNA序列测序等。机器学习包括学习部分和执行部分,学习部分利用样本数据修改系统的知识库,以增进系统执行部分完成任务的效能,执行部分根据知识库完成任务,同时把获得的信息反馈给学习部分。
目前,由于各方的样本数据具有密切联系,如果机器学习仅使用一方的样本数据,则学习得到的模型不准确,为解决上述问题,通过联合各方的样本数据,应用逻辑回归或决策树等单层简单模型进行机器学习。然而,目前的联合学习主要依托于双方均拥有标注的样本数据,无法使用无标注的样本数据进行联合训练,导致样本数据无法得到有效利用。
因此,如何提高各方样本数据的的利用率是目前亟待解决的问题。
发明内容
本发明的主要目的在于提供一种基于半监督学习的联邦建模方法、设备及可读存储介质,旨在提高各方样本数据的的利用率。
为实现上述目的,本发明提供一种基于半监督学习的联邦建模方法,所述基于半监督学习的联邦建模方法包括以下步骤:
第一终端接收第二终端发送的初始模型参数,并依据所述初始模型参数对样本数据执行标注操作,以将所述样本数据划分为标注的样本数据和未标注的样本数据,其中,所述初始模型参数由所述第二终端依据存储在所述第二终端中的标注的样本数据对待训练模型进行训练迭代得到;
所述第一终端和所述第二终端依据各自标注的样本数据对初始化后的待训练模型的模型参数进行联合训练迭代,直至初始化后的待训练模型收敛;
所述第一终端依据收敛时的模型参数,对未标注的样本数据执行标注操作,并在标注操作完成之后,计算未标注样本比例;
确定所述未标注样本比例是否小于或等于预设阈值;
若所述未标注样本比例小于或等于预设阈值,则以当前模型参数建立模型,否则执行步骤:所述第一终端和所述第二终端依据各自标注的样本数据对初始化后的待训练模型的模型参数进行联合训练迭代,直至初始化后的待训练模型收敛。
进一步地,依据所述初始模型参数对样本数据执行标注操作的步骤包括:
依据所述初始模型参数对样本数据进行预测,得到样本预测结果;
依据所述样本预测结果,对所述样本数据执行标注操作。
进一步地,所述计算未标注样本比例的步骤包括:
统计所述样本数据中未标记的本地样本的个数,记为未标注样本数,并统计所述样本数据的总样本数;
用所述未标注样本数除以所述总样本数,得到未标注样本比例。
进一步地,所述第一终端和所述第二终端依据各自标注的样本数据对初始化后的待训练模型的模型参数进行联合训练迭代,直至初始化后的待训练模型收敛的步骤包括:
所述第一终端依据存储在所述第一终端本地的标注的样本数据对初始化后的待训练模型的模型参数进行训练迭代,得到加密的第一损失值和第一梯度值;
接收所述第二终端发送的加密的第二损失值和第二梯度值,其中,所述第二终端依据存储在所述第二终端本地的标注的样本数据对初始化后的待训练模型的模型参数进行训练迭代,得到加密的第二损失值和第二梯度值;
依据加密的第一损失值和第二损失值,计算加密的第三损失值,并依据加密的第一梯度值和第二梯度值,计算加密的第三梯度值;
将加密的第三损失值和第三梯度值传输至第三终端,其中,所述第三终端对加密的第三损失值和第三梯度值进行解密,并依据解密的第三损失值,确定待训练模型是否收敛,若待训练模型收敛,则将收敛时的模型参数发送给所述第一终端,否则将解密的第三损失值发送至所述第一终端和所述第二终端,以更新所述第一终端和所述第二终端的本地梯度,并继续执行联合训练迭代,直至待训练模型收敛。
进一步地,所述第三终端依据解密的第三损失值,确定待训练模型是否收敛的步骤包括:
所述第三终端获取前一次所述第一终端发送的加密的历史损失值,并对加密的历史损失值进行解密;
计算解密的第三损失值与历史损失值之间的差值,并判断所述差值是否小于或等于预设差值;
若所述差值小于或等于预设差值,则确定待训练模型收敛,否则确定待训练模型未收敛。
进一步地,所述基于半监督学习的联邦建模方法还包括:
所述第三终端产生一组公有密钥和私有密钥,并将所述公有密钥传输至所述第一终端和所述第二终端,由所述第一终端和所述第二终端分别存储所述公有密钥。
进一步地,所述第一终端依据存储在所述第一终端本地的标注的样本数据对初始化后的待训练模型的模型参数进行训练迭代,得到加密的第一损失值和第一梯度值的步骤包括:
所述第一终端依据存储在所述第一终端本地的标注的样本数据对初始化后的待训练模型的模型参数进行训练迭代,得到第一损失值和第二梯度值;
依据预存的公有密钥对所述第一损失值和所述第二梯度值进行同态加密,得到加密的第一损失值和第一梯度值。
进一步地,所述基于半监督学习的联邦建模方法还包括:
所述第一终端接收所述第三终端发送的解密的第三梯度值,并依据解密的第三梯度值更新所述第一终端的本地梯度;
所述第二终端接收所述第三终端发送的解密的第三梯度值,并依据解密的第三梯度值更新所述第二终端的本地梯度。
此外,为实现上述目的,本发明还提供一种基于半监督学习的联邦建模设备,所述基于半监督学习的联邦建模设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于半监督学习的联邦建模程序,所述基于半监督学习的联邦建模程序被所述处理器执行时实现如上所述的基于半监督学习的联邦建模方法的步骤。
本发明还提供一种可读存储介质,所述可读存储介质上存储有基于半监督学习的联邦建模程序,所述基于半监督学习的联邦建模程序被处理器执行时实现如上所述的基于半监督学习的联邦建模方法的步骤。
本发明提供一种基于半监督学习的联邦建模方法、设备及可读存储介质,本发明对于两方样本数据,一方的样本数据有标注,另一方的样本数据未标注,一方将通过有标注的样本数据训练得到的初始模型参数发送给另一方,另一方依据该初始模型参数对未标注的样本数据执行标注操作,以将样本数据划分为标注的样本数据和未标注的样本数据,并结合双方标注的样本数据,执行联合训练操作,得到新的模型参数,然后按照新的模型参数对未标注的样本数据执行标注操作,并在标注操作完成之后,计算未标注样本比例,如果未标注样本比例小于预设阈值,则以当前模型参数建立模型,否则继续执行联合训练操作和样本标注操作,通过上述方式,可在一方样本数据有标注的情况下,联合另一方无标注的样本数据进行联合训练建立模型,有效的提高各方样本数据的利用率。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的设备结构示意图;
图2为本发明基于半监督学习的联邦建模方法第一实施例的流程示意图;
图3为本发明基于半监督学习的联邦建模方法第二实施例的流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,图1是本发明实施例方案涉及的硬件运行环境的设备结构示意图。
本发明实施例基于半监督学习的联邦建模设备可以是PC,也可以是智能手机、平板电脑、便携计算机等具有显示功能的可移动式终端设备。
如图1所示,该基于半监督学习的联邦建模设备可以包括:处理器1001,例如CPU,通信总线1002,用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选的用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的基于半监督学习的联邦建模设备结构并不构成对基于半监督学习的联邦建模设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及基于半监督学习的联邦建模程序。
在图1所示的基于半监督学习的联邦建模设备中,网络接口1004主要用于连接后台服务器,与后台服务器进行数据通信;用户接口1003主要用于连接客户端(用户端),与客户端进行数据通信;而处理器1001可以用于调用存储器1005中存储的基于半监督学习的联邦建模程序,并执行以下步骤:
第一终端接收第二终端发送的初始模型参数,并依据所述初始模型参数对样本数据执行标注操作,以将所述样本数据划分为标注的样本数据和未标注的样本数据,其中,所述初始模型参数由所述第二终端依据存储在所述第二终端中的标注的样本数据对待训练模型进行训练迭代得到;
所述第一终端和所述第二终端依据各自标注的样本数据对初始化后的待训练模型的模型参数进行联合训练迭代,直至初始化后的待训练模型收敛;
所述第一终端依据收敛时的模型参数,对未标注的样本数据执行标注操作,并在标注操作完成之后,计算未标注样本比例;
确定所述未标注样本比例是否小于或等于预设阈值;
若所述未标注样本比例小于或等于预设阈值,则以当前模型参数建立模型,否则执行步骤:所述第一终端和所述第二终端依据各自标注的样本数据对初始化后的待训练模型的模型参数进行联合训练迭代,直至初始化后的待训练模型收敛。
进一步地,处理器1001可以用于调用存储器1005中存储的基于半监督学习的联邦建模程序,还执行以下步骤:
依据所述初始模型参数对样本数据进行预测,得到样本预测结果;
依据所述样本预测结果,对所述样本数据执行标注操作。
进一步地,处理器1001可以用于调用存储器1005中存储的基于半监督学习的联邦建模程序,还执行以下步骤:
统计所述样本数据中未标记的本地样本的个数,记为未标注样本数,并统计所述样本数据的总样本数;
用所述未标注样本数除以所述总样本数,得到未标注样本比例。
进一步地,处理器1001可以用于调用存储器1005中存储的基于半监督学习的联邦建模程序,还执行以下步骤:
所述第一终端依据存储在所述第一终端本地的标注的样本数据对初始化后的待训练模型的模型参数进行训练迭代,得到加密的第一损失值和第一梯度值;
接收所述第二终端发送的加密的第二损失值和第二梯度值,其中,所述第二终端依据存储在所述第二终端本地的标注的样本数据对初始化后的待训练模型的模型参数进行训练迭代,得到加密的第二损失值和第二梯度值;
依据加密的第一损失值和第二损失值,计算加密的第三损失值,并依据加密的第一梯度值和第二梯度值,计算加密的第三梯度值;
将加密的第三损失值和第三梯度值传输至第三终端,由所述第三终端对加密的第三损失值和第三梯度值进行解密,并依据解密的第三损失值,确定待训练模型是否收敛,若待训练模型收敛,则将收敛时的模型参数发送给所述第一终端,否则将解密的第三损失值发送至所述第一终端和所述第二终端,以更新所述第一终端和所述第二终端的本地梯度,并继续执行联合训练迭代,直至待训练模型收敛。
进一步地,处理器1001可以用于调用存储器1005中存储的基于半监督学习的联邦建模程序,还执行以下步骤:
所述第三终端获取前一次所述第一终端发送的加密的历史损失值,并对加密的历史损失值进行解密;
计算解密的第三损失值与历史损失值之间的差值,并判断所述差值是否小于或等于预设差值;
若所述差值小于或等于预设差值,则确定待训练模型收敛,否则确定待训练模型未收敛。
进一步地,处理器1001可以用于调用存储器1005中存储的基于半监督学习的联邦建模程序,还执行以下步骤:
所述第三终端产生一组公有密钥和私有密钥,并将所述公有密钥传输至所述第一终端和所述第二终端,由所述第一终端和所述第二终端分别存储所述公有密钥。
进一步地,处理器1001可以用于调用存储器1005中存储的基于半监督学习的联邦建模程序,还执行以下步骤:
所述第一终端依据存储在所述第一终端本地的标注的样本数据对初始化后的待训练模型的模型参数进行训练迭代,得到第一损失值和第二梯度值;
依据预存的公有密钥对所述第一损失值和所述第二梯度值进行同态加密,得到加密的第一损失值和第一梯度值。
进一步地,处理器1001可以用于调用存储器1005中存储的基于半监督学习的联邦建模程序,还执行以下步骤:
所述第一终端接收所述第三终端发送的解密的第三梯度值,并依据解密的第三梯度值更新所述第一终端的本地梯度;
所述第二终端接收所述第三终端发送的解密的第三梯度值,并依据解密的第三梯度值更新所述第二终端的本地梯度。
本发明基于半监督学习的联邦建模设备的具体实施例与下述基于半监督学习的联邦建模方法的各具体实施例基本相同,在此不作赘述。
参照图2,图2为本发明基于半监督学习的联邦建模方法第一实施例的流程示意图。
步骤S101,第一终端接收第二终端发送的初始模型参数,并依据初始模型参数对样本数据执行标注操作,以将所述样本数据划分为标注的样本数据和未标注的样本数据;
本实施例中,本发明可联合多方样本数据进行联合训练,以下以联合两方样本数据为例进行解释说明,其中,一方样本数据为未标注的样本数据,存储于第一终端,另一方样本数据为已标注样本数据,存储于第二终端,且第一终端与第二终端连接,可传输数据。其中,第二终端依据已标注样本数据对待训练模型进行训练得到初始模型参数,并将该初始模型参数发送给第一终端。需要说明的是,第二终端采用的待训练模型包括但不限于逻辑回归模型、决策树模型和神经网络模型,也可由本领域技术人员基于实际情况选择,本实施例对此不作具体限定。具体实施中,第二终端中存储的已标注样本数据可以是多方已标注数据的联合,也可以仅为一方已标注样本数据,本实施对此不作具体限定。如果第二终端中存储的已标注样本数据为一方已标注样本数据,则仅依据一方已标注样本数据对待训练模型进行训练得到初始模型参数,而如果第二终端存储的已标注样本数据是多方已标注数据的联合,可需要联合多方已标注数据,采用联合训练的方式对待训练模型进行训练得到初始模型参数。
下面以联合两方已标注样本数据为例进行说明,引入协助方,协助方将待训练模型参数经同态加密后,发送至双方,双方均依据各自的已标注样本数据对加密的待训练模型参数进行训练,计算双方各自的加密的梯度和损失代价,且双方将各自的加密的梯度和损失代价均发送回协助方,由协助方对双方加密的梯度和损失代价进行汇总求和,得到加密的总梯度和总损失代价,并对加密的总梯度和总损失代价进行解密,然后依据解密后的总损失代价确定模型是否收敛,如果模型已收敛或者达到最大迭代次数,则输出初始模型参数,否则协助方依据解密后的总梯度更新待训练模型参数,并继续执行训练。
本实施例中,第一终端接收第二终端发送的初始模型参数,并依据该初始模型参数对样本数据执行标注操作,得到标注的样本数据和未标注的样本数据。具体地,第一终端依据初始模型参数,对样本数据进行预测,得到样本预测结果,即将样本数据输入以初始模型参数建立的预测模型中,并将该预测模型的输出结果作为样本预测结果,然后依据该样本预测结果,对该样本数据进行标注操作,以将样本数据划分为标注的样本数据和未标注的样本数据,即从样本预测结果中读取样本数据的标注值,将该标注值匹配给对应的样本数据,在预测结果中的标注值均匹配到样本数据之后,将样本数据划分为标注的样本数据和未标注的样本数据。
步骤S102,第一终端和第二终端依据各自标注的样本数据对初始化后的待训练模型的模型参数进行联合训练迭代,直至初始化后的待训练模型收敛;
本实施例中,第一终端对样本数据执行标注操作将样本数据划分为标注的样本数据和未标注的样本数据之后,第一终端和第二终端依据各自标注的样本数据对初始化后的待训练模型的模型参数进行联合训练迭代,直至初始化后的待训练模型收敛。
具体地,第一终端依据标注的样本数据对初始化后的待训练模型的模型参数进行训练,并计算第一梯度和第一损失代价,且将第一梯度和第一损失代价传输至第三终端,第二终端依据已标注样本数据对初始化后的待训练模型的模型参数进行训练,并计算第二梯度和第二损失代价,然后将第二梯度和第二损失代价传输至第三终端,第三终端接收第一梯度、第一损失代价、第二梯度和第二损失代价,依据第一梯度和第二梯度计算总梯度,以及依据第一损失代价和第二损失代价计算总损失代价,然后依据总损失代价和前一次的总损失代价,判断待训练模型是否收敛,若待训练模型收敛,则向第一终端和第二终端发送训练停止指令,并将收敛时的模型参数发送给第一终端,否则将该总梯度发送给第一终端和第二终端,由第一终端和第二终端更新各自的本地梯度,并继续执行联合训练迭代直至待训练模型收敛。需要说明的是,总损失代价和总梯度的计算也可以由第一终端或第二终端完成,本实施例对此不作具体限定。
步骤S103,依据收敛时的训练模型参数,对未标注的样本数据执行标注操作,并在标注操作完成之后,计算未标注样本比例;
步骤S104,确定未标注样本比例是否小于或等于预设阈值;
本实施例中,第一终端在初始化后的待训练模型收敛之后,依据收敛时的模型参数,对未标注的样本数据执行标注操作,即将未标注的样本数据输入以该联合训练模型参数建立的模型中,并将该模型的输出作为样本预存结果,然后依据该样本预测结果对未标注的样本数据执行标注操作,然后依据标注结果,计算未标注样本比例,且确定该未标注样本比例是否小于预设阈值,如果该未标注样本比例小于或等于预设阈值,则需要停止执行联合训练操作和样本标注操作,如果该未标注样本比例大于预设阈值,则需要继续执行联合训练迭代操作和样本标注操作。具体地,在标注操作完成之后,第一终端统计样本数据中未标记的本地样本的个数,记为未标注样本数,并统计该样本数据总样本数,然后用该未标注样本数除以该总样本数,得到未标注样本比例。需要说明的是,上述预设阈值可由本领域技术人员基于实际情况进行设置,本实施例对此不作具体限定。
步骤S105,若未标注样本比例小于或等于预设阈值,则以当前模型参数建立模型,否则执行步骤S102,即第一终端和第二终端依据各自标注的样本数据对初始化后的待训练模型的模型参数进行联合训练迭代,直至初始化后的待训练模型收敛。
本实施例中,如果该未标注样本比例小于或等于预设阈值,则第一终端以当前模型参数建立模型,并停止执行联合训练操作和样本标注操作,如果该未标注样本比例大于预设阈值,则执行步骤S102,即第一终端和第二终端依据各自标注的样本数据对初始化后的待训练模型的模型参数进行联合训练迭代,直至初始化后的待训练模型收敛。
具体实施中,如果未标注样本比例小于或等于预设阈值,则继续执行预设次数的联合训练迭代操作和样本标注操作,并记录每一次样本标注操作的标注样本个数,即在一样本标注操作中标注的样本个数,然后确定每一次样本标注操作的标注样本个数是否均为0,如果每一次样本标注操作的标注样本个数均为0,则停止执行联合训练操作和样本标注操作,并以当前模型参数建立模型,如果存在一样本标注操作的标注样本个数不为0,则继续执行联合训练操作和样本标注操作。
同理,如果未标注样本比例大于预设阈值,则继续执行预设次数的联合训练迭代操作和样本标注操作,并记录每一次样本标注操作的标注样本个数,然后确定每一次样本标注操作的标注样本个数是否均为0,如果每一次样本标注操作的标注样本个数均为0,则停止执行联合训练操作和样本标注操作,并以当前模型参数建立模型,如果存在一样本标注操作的标注样本个数不为0,则继续执行联合训练操作和样本标注操作。
本实施例中,本发明对于两方样本数据,一方的样本数据有标注,另一方的样本数据未标注,一方将通过有标注的样本数据训练得到的初始模型参数发送给另一方,另一方依据该初始模型参数对未标注的样本数据执行标注操作,得到标注的样本数据和未标注的样本数据,并结合双方标注的样本数据,执行联合训练操作,得到新的模型参数,然后按照新的模型参数对未标注的样本数据执行标注操作,并在标注操作完成之后,计算未标注样本比例,如果未标注样本比例小于预设阈值,则以当前模型参数建立模型,否则继续执行联合训练操作和样本标注操作,通过上述方式,可在一方样本数据有标注的情况下,联合另一方无标注的样本数据进行联合训练建立模型,有效的提高各方样本数据的利用率。
进一步地,参照图3,基于上述第一实施,提出了本发明基于半监督学习的联邦建模方法的第二实施例,与前述实施例的区别在于,步骤S103包括:
步骤S1021,第一终端依据存储在第一终端本地的标注的样本数据对初始化后的待训练模型的模型参数进行训练迭代,得到加密的第一损失值和第一梯度值;
本实施例中,第一终端依据存储在第一终端本地的标注的样本数据对初始化后的待训练模型的模型参数进行训练迭代,得到加密的第一损失值和第一梯度值,即将标注的样本数据输入以待训练参数建立的待训练模型中,对待训练模型中的待训练参数进行训练,每一次迭代结束后,计算待训练模型的第一损失值和第一梯度值,并依据预存的公有密钥对第一损失值和第一梯度值进行同态加密,得到加密的第一损失值和第一梯度值。
步骤S1022,接收第二终端发送的加密的第二损失值和第二梯度值;
本实施例中,第一终端接收第二终端发送的加密的第二损失值和第二梯度值,其中,第二终端依据存储在第二终端本地的标注的样本数据对初始化后的待训练模型的模型参数进行训练迭代,得到加密的第二损失值和第二梯度值,及将标注的样本数据输入以待训练参数建立的待训练模型中,对待训练模型中的待训练参数进行训练,每一次迭代结束后,计算待训练模型的第二损失值和第二梯度值,并依据预存的公有密钥对第二损失值和第二梯度值进行同态加密,得到加密的第二损失值和第二梯度值,且将将经同态加密后的第二损失值和第二梯度值发送至第一终端。
步骤S1023,依据加密的第一损失值和第二损失值,计算加密的第三损失值,并依据加密的第一梯度值和第二梯度值,计算加密的第三梯度值;
本实施例中,第一终端依据加密的第一损失值和第二损失值,计算加密的第三损失值,即计算待训练模型的总损失值,具体为将加密的第一损失值和第二损失值相加得到加密的第三损失值,并依据加密的第一梯度值和第二梯度值,计算加密的第三梯度值,即计算待训练模型的总梯度值,具体为将加密的第一梯度值和第二梯度值相加得到加密的第三损失值。需要说明的是,第三损失值和第三损失值的计算也可以由第二终端或第三终端完成,本实施例对此不作具体限定。
步骤S1024,将加密的第三损失值和第三梯度值传输至第三终端。
本实施例中,第一终端将加密的第三损失值和第三梯度值传输至第三终端,其中,第三终端对加密的第三损失值和第三梯度值进行解密,并依据解密的第三损失值,确定待训练模型是否收敛,,则将收敛时的模型参数发送给第一终端,否则将解密的第三损失值发送至第一终端和第二终端,以更新所述第一终端和所述第二终端的本地梯度,并继续执行联合训练迭代,直至待训练模型收敛。其中,第一终端接收第三终端发送的解密的第三梯度值,并依据解密的第三梯度值更新第一终端的本地梯度,第二终端接收第三终端发送的解密的第三梯度值,并依据解密的第三梯度值更新第二终端的本地梯度。
具体地,第三终端获取前一次第一终端发送的加密的历史损失值,并对加密的历史损失值进行解密,然后计算解密的第三损失值与历史损失值之间的差值,且判断该差值是否小于或等于预设差值,如果该差值小于或等于预设差值,则确定待训练模型收敛,如果该差值大于预设差值,则确定待训练模型未收敛。需要说明的是,上述预设差值可由本领域技术人员基于实际情况进行设置,本实施例对此不作具体限定。
本实施例中,本发明将一方的经标注的样数据得到的梯度值和损失值经同态加密后传输给另一方,联合双方标注的样本数据,执行联合训练操作,能够有效的保证联合训练过程中双方数据的私密性。
此外,本发明实施例还提出一种可读存储介质,所述可读存储介质上存储有基于半监督学习的联邦建模程序,所述基于半监督学习的联邦建模程序被处理器执行时,执行以下步骤:
第一终端接收第二终端发送的初始模型参数,并依据所述初始模型参数对样本数据执行标注操作,以将所述样本数据划分为标注的样本数据和未标注的样本数据,其中,所述初始模型参数由所述第二终端依据存储在所述第二终端中的标注的样本数据对待训练模型进行训练迭代得到;
所述第一终端和所述第二终端依据各自标注的样本数据对初始化后的待训练模型的模型参数进行联合训练迭代,直至初始化后的待训练模型收敛;
所述第一终端依据收敛时的模型参数,对未标注的样本数据执行标注操作,并在标注操作完成之后,计算未标注样本比例,且确定所述未标注样本比例是否小于或等于预设阈值;
若所述未标注样本比例小于或等于预设阈值,则以当前模型参数建立模型,否则执行步骤:所述第一终端和所述第二终端依据各自标注的样本数据对初始化后的待训练模型的模型参数进行联合训练迭代,直至初始化后的待训练模型收敛。
进一步地,所述基于半监督学习的联邦建模程序被处理器执行时,还执行以下步骤:
依据所述初始模型参数对样本数据进行预测,得到样本预测结果;
依据所述样本预测结果,对所述样本数据执行标注操作。
进一步地,所述基于半监督学习的联邦建模程序被处理器执行时,还执行以下步骤:
统计所述样本数据中未标记的本地样本的个数,记为未标注样本数,并统计所述样本数据的总样本数;
用所述未标注样本数除以所述总样本数,得到未标注样本比例。
进一步地,所述基于半监督学习的联邦建模程序被处理器执行时,还执行以下步骤:
所述第一终端依据存储在所述第一终端本地的标注的样本数据对初始化后的待训练模型的模型参数进行训练迭代,得到加密的第一损失值和第一梯度值;
接收所述第二终端发送的加密的第二损失值和第二梯度值,其中,所述第二终端依据存储在所述第二终端本地的标注的样本数据对初始化后的待训练模型的模型参数进行训练迭代,得到加密的第二损失值和第二梯度值;
依据加密的第一损失值和第二损失值,计算加密的第三损失值,并依据加密的第一梯度值和第二梯度值,计算加密的第三梯度值;
将加密的第三损失值和第三梯度值传输至第三终端,由所述第三终端对加密的第三损失值和第三梯度值进行解密,并依据解密的第三损失值,确定待训练模型是否收敛,若待训练模型收敛,则将收敛时的模型参数发送给所述第一终端,否则将解密的第三损失值发送至所述第一终端和所述第二终端,以更新所述第一终端和所述第二终端的本地梯度,并继续执行联合训练迭代,直至待训练模型收敛。
进一步地,所述基于半监督学习的联邦建模程序被处理器执行时,还执行以下步骤:
所述第三终端获取前一次所述第一终端发送的加密的历史损失值,并对加密的历史损失值进行解密;
计算解密的第三损失值与历史损失值之间的差值,并判断所述差值是否小于或等于预设差值;
若所述差值小于或等于预设差值,则确定待训练模型收敛,否则确定待训练模型未收敛。
进一步地,所述基于半监督学习的联邦建模程序被处理器执行时,还执行以下步骤:
所述第三终端产生一组公有密钥和私有密钥,并将所述公有密钥传输至所述第一终端和所述第二终端,由所述第一终端和所述第二终端分别存储所述公有密钥。
进一步地,所述基于半监督学习的联邦建模程序被处理器执行时,还执行以下步骤:
所述第一终端依据存储在所述第一终端本地的标注的样本数据对初始化后的待训练模型的模型参数进行训练迭代,得到第一损失值和第二梯度值;
依据预存的公有密钥对所述第一损失值和所述第二梯度值进行同态加密,得到加密的第一损失值和第一梯度值。
进一步地,所述基于半监督学习的联邦建模程序被处理器执行时,还执行以下步骤:
所述第一终端接收所述第三终端发送的解密的第三梯度值,并依据解密的第三梯度值更新所述第一终端的本地梯度;
所述第二终端接收所述第三终端发送的解密的第三梯度值,并依据解密的第三梯度值更新所述第二终端的本地梯度。
本发明可读存储介质的具体实施例与上述基于半监督学习的联邦建模方法各实施例基本相同,在此不作赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种基于半监督学习的联邦建模方法,其特征在于,所述基于半监督学习的联邦建模方法包括以下步骤:
第一终端接收第二终端发送的初始模型参数,并依据所述初始模型参数对样本数据执行标注操作,以将所述样本数据划分为标注的样本数据和未标注的样本数据,其中,所述初始模型参数由所述第二终端依据存储在所述第二终端中的标注的样本数据对待训练模型进行训练迭代得到;
所述第一终端和所述第二终端依据各自标注的样本数据对初始化后的待训练模型的模型参数进行联合训练迭代,直至初始化后的待训练模型收敛;
所述第一终端依据收敛时的模型参数,对未标注的样本数据执行标注操作,并在标注操作完成之后,计算未标注样本比例;
确定所述未标注样本比例是否小于或等于预设阈值;
若所述未标注样本比例小于或等于预设阈值,则以当前模型参数建立模型,否则执行步骤:所述第一终端和所述第二终端依据各自标注的样本数据对初始化后的待训练模型的模型参数进行联合训练迭代,直至初始化后的待训练模型收敛。
2.如权利要求1所述的基于半监督学习的联邦建模方法,其特征在于,依据所述初始模型参数对样本数据执行标注操作的步骤包括:
依据所述初始模型参数对样本数据进行预测,得到样本预测结果;
依据所述样本预测结果,对所述样本数据执行标注操作。
3.如权利要求1所述的基于半监督学习的联邦建模方法,其特征在于,所述计算未标注样本比例的步骤包括:
统计所述样本数据中未标记的本地样本的个数,记为未标注样本数,并统计所述样本数据的总样本数;
用所述未标注样本数除以所述总样本数,得到未标注样本比例。
4.如权利要求1-3中任一项所述的基于半监督学习的联邦建模方法,其特征在于,所述第一终端和所述第二终端依据各自标注的样本数据对初始化后的待训练模型的模型参数进行联合训练迭代,直至初始化后的待训练模型收敛的步骤包括:
所述第一终端依据存储在所述第一终端本地的标注的样本数据对初始化后的待训练模型的模型参数进行训练迭代,得到加密的第一损失值和第一梯度值;
接收所述第二终端发送的加密的第二损失值和第二梯度值,其中,所述第二终端依据存储在所述第二终端本地的标注的样本数据对初始化后的待训练模型的模型参数进行训练迭代,得到加密的第二损失值和第二梯度值;
依据加密的第一损失值和第二损失值,计算加密的第三损失值,并依据加密的第一梯度值和第二梯度值,计算加密的第三梯度值;
将加密的第三损失值和第三梯度值传输至第三终端,其中,所述第三终端对加密的第三损失值和第三梯度值进行解密,并依据解密的第三损失值,确定待训练模型是否收敛,若待训练模型收敛,则将收敛时的模型参数发送给所述第一终端,否则将解密的第三损失值发送至所述第一终端和所述第二终端,以更新所述第一终端和所述第二终端的本地梯度,并继续执行联合训练迭代,直至待训练模型收敛。
5.如权利要求4所述的基于半监督学习的联邦建模方法,其特征在于,所述第三终端依据解密的第三损失值,确定待训练模型是否收敛的步骤包括:
所述第三终端获取前一次所述第一终端发送的加密的历史损失值,并对加密的历史损失值进行解密;
计算解密的第三损失值与历史损失值之间的差值,并判断所述差值是否小于或等于预设差值;
若所述差值小于或等于预设差值,则确定待训练模型收敛,否则确定待训练模型未收敛。
6.如权利要求4所述的基于半监督学习的联邦建模方法,其特征在于,所述基于半监督学习的联邦建模方法还包括:
所述第三终端产生一组公有密钥和私有密钥,并将所述公有密钥传输至所述第一终端和所述第二终端,由所述第一终端和所述第二终端分别存储所述公有密钥。
7.如权利要求6所述的基于半监督学习的联邦建模方法,其特征在于,所述第一终端依据存储在所述第一终端本地的标注的样本数据对初始化后的待训练模型的模型参数进行训练迭代,得到加密的第一损失值和第一梯度值的步骤包括:
所述第一终端依据存储在所述第一终端本地的标注的样本数据对初始化后的待训练模型的模型参数进行训练迭代,得到第一损失值和第二梯度值;
依据预存的公有密钥对所述第一损失值和所述第二梯度值进行同态加密,得到加密的第一损失值和第一梯度值。
8.如权利要求4所述的基于半监督学习的联邦建模方法,其特征在于,所述基于半监督学习的联邦建模方法还包括:
所述第一终端接收所述第三终端发送的解密的第三梯度值,并依据解密的第三梯度值更新所述第一终端的本地梯度;
所述第二终端接收所述第三终端发送的解密的第三梯度值,并依据解密的第三梯度值更新所述第二终端的本地梯度。
9.一种基于半监督学习的联邦建模设备,其特征在于,所述基于半监督学习的联邦建模设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于半监督学习的联邦建模程序,所述基于半监督学习的联邦建模程序被所述处理器执行时实现如权利要求1至8中任一项所述的基于半监督学习的联邦建模方法的步骤。
10.一种可读存储介质,其特征在于,所述可读存储介质上存储有基于半监督学习的联邦建模程序,所述基于半监督学习的联邦建模程序被处理器执行时实现如权利要求1至8中任一项所述的基于半监督学习的联邦建模方法的步骤。
CN201810913118.1A 2018-08-10 2018-08-10 基于半监督学习的联邦建模方法、设备及可读存储介质 Active CN109284313B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810913118.1A CN109284313B (zh) 2018-08-10 2018-08-10 基于半监督学习的联邦建模方法、设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810913118.1A CN109284313B (zh) 2018-08-10 2018-08-10 基于半监督学习的联邦建模方法、设备及可读存储介质

Publications (2)

Publication Number Publication Date
CN109284313A true CN109284313A (zh) 2019-01-29
CN109284313B CN109284313B (zh) 2021-08-27

Family

ID=65183177

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810913118.1A Active CN109284313B (zh) 2018-08-10 2018-08-10 基于半监督学习的联邦建模方法、设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN109284313B (zh)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871702A (zh) * 2019-02-18 2019-06-11 深圳前海微众银行股份有限公司 联邦模型训练方法、系统、设备及计算机可读存储介质
CN110162981A (zh) * 2019-04-18 2019-08-23 阿里巴巴集团控股有限公司 数据处理方法及装置
CN110263908A (zh) * 2019-06-20 2019-09-20 深圳前海微众银行股份有限公司 联邦学习模型训练方法、设备、系统及存储介质
CN110276449A (zh) * 2019-06-24 2019-09-24 深圳前海微众银行股份有限公司 一种无监督学习方法及装置
CN110288094A (zh) * 2019-06-10 2019-09-27 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法及装置
CN110443799A (zh) * 2019-08-15 2019-11-12 重庆金山医疗技术研究院有限公司 病灶检测识别模型的建立系统
CN110688419A (zh) * 2019-10-09 2020-01-14 京东城市(南京)科技有限公司 一种联邦建模系统和联邦建模方法
CN110797124A (zh) * 2019-10-30 2020-02-14 腾讯科技(深圳)有限公司 一种模型多端协同训练方法、医疗风险预测方法和装置
CN111291897A (zh) * 2020-02-10 2020-06-16 深圳前海微众银行股份有限公司 基于半监督的横向联邦学习优化方法、设备及存储介质
CN111738359A (zh) * 2020-07-24 2020-10-02 支付宝(杭州)信息技术有限公司 一种两方决策树训练方法和系统
US10846413B2 (en) 2019-04-18 2020-11-24 Advanced New Technologies Co., Ltd. Data processing method and device
CN112068866A (zh) * 2020-09-29 2020-12-11 支付宝(杭州)信息技术有限公司 更新业务模型的方法及装置
CN112085206A (zh) * 2019-06-13 2020-12-15 北京百度网讯科技有限公司 联合逻辑回归建模方法、装置以及终端
CN112200218A (zh) * 2020-09-10 2021-01-08 浙江大华技术股份有限公司 一种模型训练方法、装置及电子设备
CN112289448A (zh) * 2020-11-06 2021-01-29 新智数字科技有限公司 一种基于联合学习的健康风险预测方法和装置
CN112329072A (zh) * 2020-12-31 2021-02-05 支付宝(杭州)信息技术有限公司 一种基于安全多方计算的模型联合训练方法
WO2021022707A1 (zh) * 2019-08-06 2021-02-11 深圳前海微众银行股份有限公司 一种混合联邦学习方法及架构
CN112617855A (zh) * 2020-12-31 2021-04-09 平安科技(深圳)有限公司 基于联邦学习的心电图分析方法、装置及相关设备
CN112668016A (zh) * 2020-01-02 2021-04-16 华控清交信息科技(北京)有限公司 一种模型训练方法、装置和电子设备
CN112825247A (zh) * 2019-11-19 2021-05-21 北京搜狗科技发展有限公司 一种数据处理方法、装置和电子设备
CN113408747A (zh) * 2021-06-28 2021-09-17 淮安集略科技有限公司 模型参数更新方法、装置、计算机可读介质及电子设备
CN113554476A (zh) * 2020-04-23 2021-10-26 京东数字科技控股有限公司 信用度预测模型的训练方法、系统、电子设备及存储介质
CN113726979A (zh) * 2021-07-31 2021-11-30 浪潮电子信息产业股份有限公司 一种图片加密方法、解密方法、加密系统及相关装置
CN114429223A (zh) * 2022-01-26 2022-05-03 上海富数科技有限公司 异构模型建立方法及装置
CN116108491A (zh) * 2023-04-04 2023-05-12 杭州海康威视数字技术股份有限公司 基于半监督联邦学习的数据泄露预警方法、装置及系统
CN116151370A (zh) * 2023-04-24 2023-05-23 西南石油大学 一种模型参数优化选择系统
CN117910539A (zh) * 2024-03-19 2024-04-19 电子科技大学 一种基于异构半监督联邦学习的家庭特征识别方法
CN117910539B (zh) * 2024-03-19 2024-05-31 电子科技大学 一种基于异构半监督联邦学习的家庭特征识别方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103136361A (zh) * 2013-03-07 2013-06-05 陈一飞 一种生物文本中蛋白质相互关系的半监督抽取方法
CN103778782A (zh) * 2014-02-20 2014-05-07 银江股份有限公司 一种基于半监督机器学习的交通状态划分方法
CN105760932A (zh) * 2016-02-17 2016-07-13 北京物思创想科技有限公司 数据交换方法、数据交换装置及计算装置
CN106209457A (zh) * 2016-07-14 2016-12-07 北京工业大学 应对智能家居环境中旁路攻击的隐私保护方法及系统
CN106295697A (zh) * 2016-08-10 2017-01-04 广东工业大学 一种基于半监督的迁移学习分类方法
CN107169573A (zh) * 2017-05-05 2017-09-15 第四范式(北京)技术有限公司 利用复合机器学习模型来执行预测的方法及系统
CN107978373A (zh) * 2017-11-23 2018-05-01 吉林大学 一种基于共训练的半监督生物医学事件抽取方法
US10002029B1 (en) * 2016-02-05 2018-06-19 Sas Institute Inc. Automated transfer of neural network definitions among federated areas

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103136361A (zh) * 2013-03-07 2013-06-05 陈一飞 一种生物文本中蛋白质相互关系的半监督抽取方法
CN103778782A (zh) * 2014-02-20 2014-05-07 银江股份有限公司 一种基于半监督机器学习的交通状态划分方法
US10002029B1 (en) * 2016-02-05 2018-06-19 Sas Institute Inc. Automated transfer of neural network definitions among federated areas
CN105760932A (zh) * 2016-02-17 2016-07-13 北京物思创想科技有限公司 数据交换方法、数据交换装置及计算装置
CN106209457A (zh) * 2016-07-14 2016-12-07 北京工业大学 应对智能家居环境中旁路攻击的隐私保护方法及系统
CN106295697A (zh) * 2016-08-10 2017-01-04 广东工业大学 一种基于半监督的迁移学习分类方法
CN107169573A (zh) * 2017-05-05 2017-09-15 第四范式(北京)技术有限公司 利用复合机器学习模型来执行预测的方法及系统
CN107978373A (zh) * 2017-11-23 2018-05-01 吉林大学 一种基于共训练的半监督生物医学事件抽取方法

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871702A (zh) * 2019-02-18 2019-06-11 深圳前海微众银行股份有限公司 联邦模型训练方法、系统、设备及计算机可读存储介质
US10846413B2 (en) 2019-04-18 2020-11-24 Advanced New Technologies Co., Ltd. Data processing method and device
CN110162981A (zh) * 2019-04-18 2019-08-23 阿里巴巴集团控股有限公司 数据处理方法及装置
US11074352B2 (en) 2019-04-18 2021-07-27 Advanced New Technologies Co., Ltd. Data processing method and device
US11281784B2 (en) 2019-04-18 2022-03-22 Advanced New Technologies Co., Ltd. Data processing method and device
CN110288094A (zh) * 2019-06-10 2019-09-27 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法及装置
CN110288094B (zh) * 2019-06-10 2020-12-18 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法及装置
CN112085206A (zh) * 2019-06-13 2020-12-15 北京百度网讯科技有限公司 联合逻辑回归建模方法、装置以及终端
CN112085206B (zh) * 2019-06-13 2024-04-09 北京百度网讯科技有限公司 联合逻辑回归建模方法、装置以及终端
CN110263908B (zh) * 2019-06-20 2024-04-02 深圳前海微众银行股份有限公司 联邦学习模型训练方法、设备、系统及存储介质
CN110263908A (zh) * 2019-06-20 2019-09-20 深圳前海微众银行股份有限公司 联邦学习模型训练方法、设备、系统及存储介质
CN110276449A (zh) * 2019-06-24 2019-09-24 深圳前海微众银行股份有限公司 一种无监督学习方法及装置
WO2021022707A1 (zh) * 2019-08-06 2021-02-11 深圳前海微众银行股份有限公司 一种混合联邦学习方法及架构
CN110443799A (zh) * 2019-08-15 2019-11-12 重庆金山医疗技术研究院有限公司 病灶检测识别模型的建立系统
CN110688419A (zh) * 2019-10-09 2020-01-14 京东城市(南京)科技有限公司 一种联邦建模系统和联邦建模方法
CN110797124B (zh) * 2019-10-30 2024-04-12 腾讯科技(深圳)有限公司 一种模型多端协同训练方法、医疗风险预测方法和装置
CN110797124A (zh) * 2019-10-30 2020-02-14 腾讯科技(深圳)有限公司 一种模型多端协同训练方法、医疗风险预测方法和装置
CN112825247A (zh) * 2019-11-19 2021-05-21 北京搜狗科技发展有限公司 一种数据处理方法、装置和电子设备
CN112668016A (zh) * 2020-01-02 2021-04-16 华控清交信息科技(北京)有限公司 一种模型训练方法、装置和电子设备
CN112668016B (zh) * 2020-01-02 2023-12-08 华控清交信息科技(北京)有限公司 一种模型训练方法、装置和电子设备
CN111291897A (zh) * 2020-02-10 2020-06-16 深圳前海微众银行股份有限公司 基于半监督的横向联邦学习优化方法、设备及存储介质
CN113554476B (zh) * 2020-04-23 2024-04-19 京东科技控股股份有限公司 信用度预测模型的训练方法、系统、电子设备及存储介质
CN113554476A (zh) * 2020-04-23 2021-10-26 京东数字科技控股有限公司 信用度预测模型的训练方法、系统、电子设备及存储介质
CN111738359A (zh) * 2020-07-24 2020-10-02 支付宝(杭州)信息技术有限公司 一种两方决策树训练方法和系统
CN112200218A (zh) * 2020-09-10 2021-01-08 浙江大华技术股份有限公司 一种模型训练方法、装置及电子设备
CN112200218B (zh) * 2020-09-10 2023-06-20 浙江大华技术股份有限公司 一种模型训练方法、装置及电子设备
CN112068866A (zh) * 2020-09-29 2020-12-11 支付宝(杭州)信息技术有限公司 更新业务模型的方法及装置
CN112289448A (zh) * 2020-11-06 2021-01-29 新智数字科技有限公司 一种基于联合学习的健康风险预测方法和装置
CN112329072B (zh) * 2020-12-31 2021-03-30 支付宝(杭州)信息技术有限公司 一种基于安全多方计算的模型联合训练方法
CN112329072A (zh) * 2020-12-31 2021-02-05 支付宝(杭州)信息技术有限公司 一种基于安全多方计算的模型联合训练方法
CN112617855A (zh) * 2020-12-31 2021-04-09 平安科技(深圳)有限公司 基于联邦学习的心电图分析方法、装置及相关设备
CN113408747A (zh) * 2021-06-28 2021-09-17 淮安集略科技有限公司 模型参数更新方法、装置、计算机可读介质及电子设备
CN113726979A (zh) * 2021-07-31 2021-11-30 浪潮电子信息产业股份有限公司 一种图片加密方法、解密方法、加密系统及相关装置
CN113726979B (zh) * 2021-07-31 2024-04-26 浪潮电子信息产业股份有限公司 一种图片加密方法、解密方法、加密系统及相关装置
CN114429223B (zh) * 2022-01-26 2023-11-07 上海富数科技有限公司 异构模型建立方法及装置
CN114429223A (zh) * 2022-01-26 2022-05-03 上海富数科技有限公司 异构模型建立方法及装置
CN116108491B (zh) * 2023-04-04 2024-03-22 杭州海康威视数字技术股份有限公司 基于半监督联邦学习的数据泄露预警方法、装置及系统
CN116108491A (zh) * 2023-04-04 2023-05-12 杭州海康威视数字技术股份有限公司 基于半监督联邦学习的数据泄露预警方法、装置及系统
CN116151370A (zh) * 2023-04-24 2023-05-23 西南石油大学 一种模型参数优化选择系统
CN117910539A (zh) * 2024-03-19 2024-04-19 电子科技大学 一种基于异构半监督联邦学习的家庭特征识别方法
CN117910539B (zh) * 2024-03-19 2024-05-31 电子科技大学 一种基于异构半监督联邦学习的家庭特征识别方法

Also Published As

Publication number Publication date
CN109284313B (zh) 2021-08-27

Similar Documents

Publication Publication Date Title
CN109284313A (zh) 基于半监督学习的联邦建模方法、设备及可读存储介质
Naidu et al. A Robust medical data sharing application with a collaborative hypothesis and Elastic net regression model
US11947680B2 (en) Model parameter training method, terminal, and system based on federation learning, and medium
JP7095140B2 (ja) 特徴抽出に基くマルチモデルトレーニング方法及び装置、電子機器と媒体
CN110288094B (zh) 基于联邦学习的模型参数训练方法及装置
CN113159327B (zh) 基于联邦学习系统的模型训练方法、装置、电子设备
CN109002861B (zh) 联邦建模方法、设备及存储介质
CN108428132B (zh) 欺诈交易识别方法、装置、服务器及存储介质
CN110189192A (zh) 一种信息推荐模型的生成方法及装置
CN109165515A (zh) 基于联邦学习的模型参数获取方法、系统及可读存储介质
CN110399742A (zh) 一种联邦迁移学习模型的训练、预测方法及装置
CN111814985A (zh) 联邦学习网络下的模型训练方法及其相关设备
CN109325584A (zh) 基于神经网络的联邦建模方法、设备及可读存储介质
WO2021128679A1 (zh) 基于数据决策的测试数据生成方法、装置、计算机设备
Devaraj et al. An efficient framework for secure image archival and retrieval system using multiple secret share creation scheme
CN110969264B (zh) 模型训练方法、分布式预测方法及其系统
CN113812114A (zh) 同态加密
CN112529101B (zh) 分类模型的训练方法、装置、电子设备及存储介质
CN108038413A (zh) 欺诈可能性分析方法、装置及存储介质
CN107273979A (zh) 基于服务级别来执行机器学习预测的方法及系统
CN112488163A (zh) 一种异常账号的识别方法、装置、计算机设备及存储介质
CN112381000A (zh) 基于联邦学习的人脸识别方法、装置、设备及存储介质
CN114168988A (zh) 一种联邦学习模型聚合方法及电子装置
Paguada et al. Controlling the deep learning-based side-channel analysis: A way to leverage from heuristics
CN102982288B (zh) 在便携式终端中执行数据的加密和解密的设备和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant