CN112016632A - 模型联合训练方法、装置、设备和存储介质 - Google Patents

模型联合训练方法、装置、设备和存储介质 Download PDF

Info

Publication number
CN112016632A
CN112016632A CN202011025747.4A CN202011025747A CN112016632A CN 112016632 A CN112016632 A CN 112016632A CN 202011025747 A CN202011025747 A CN 202011025747A CN 112016632 A CN112016632 A CN 112016632A
Authority
CN
China
Prior art keywords
party
model
gradient
information
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011025747.4A
Other languages
English (en)
Other versions
CN112016632B (zh
Inventor
宋传园
冯智
吕亮亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202011025747.4A priority Critical patent/CN112016632B/zh
Publication of CN112016632A publication Critical patent/CN112016632A/zh
Priority to KR1020210031824A priority patent/KR20220041707A/ko
Priority to JP2021039046A priority patent/JP7280303B2/ja
Priority to US17/210,216 priority patent/US20210209515A1/en
Priority to EP21164246.7A priority patent/EP3896599A3/en
Application granted granted Critical
Publication of CN112016632B publication Critical patent/CN112016632B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/008Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols involving homomorphic encryption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/06Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols the encryption apparatus using shift registers or memories for block-wise or stream coding, e.g. DES systems or RC4; Hash functions; Pseudorandom sequence generators
    • H04L9/0618Block ciphers, i.e. encrypting groups of characters of a plain text message using fixed encryption transformation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Bioethics (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Machine Translation (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种模型联合训练方法、装置、设备和存储介质,涉及人工智能技术领域。具体实现方案为:采用第一样本量的第一方训练样本对待训练的第一方模型进行训练,得到第一方特征梯度信息;从第二方获取第二方特征梯度信息和第二样本量信息;其中,第二方特征梯度信息由第二方采用第二样本量的第二方训练样本对待训练的第二方模型进行训练得到;根据第一方特征梯度信息、第二方特征梯度信息、第一样本量信息和第二样本量信息确定模型联合梯度信息,以及根据模型联合梯度信息,更新第一方模型和第二方模型。本申请实施例能够根据训练双方的梯度和样本量确定出适用于双方模型更新的模型联合梯度信息,从而极大的提高了模型联合训练的效率。

Description

模型联合训练方法、装置、设备和存储介质
技术领域
本申请涉及计算机技术领域,尤其人工智能技术,具体涉及一种模型联合训练方法、装置、设备和存储介质。
背景技术
在数据膨胀的当今社会,海量数据中的蕴含价值日益凸显,如何有效的挖掘海量数据中的有效信息已成为各个领域面临的重要问题。由于海量数据被分散在各个平台中,因此,在进行数据挖掘时需要将海量信息进行整合在一起训练机器模型;其中,逻辑回归模型是一种强大的机器学习工具,可用于对数据进行有效分类。
但是,数据是被分散积累在各个企业平台中的,由于各企业平台的隐私合规等政策,导致这些数据无法进行合并以实现联合训练。
发明内容
本公开提供了一种用于模型联合训练的方法、装置、设备以及存储介质。
根据本公开的一方面,提供了一种模型联合训练方法,包括:
采用第一样本量的第一方训练样本对待训练的第一方模型进行训练,得到第一方特征梯度信息;
从第二方获取第二方特征梯度信息和第二样本量信息;其中,所述第二方特征梯度信息由所述第二方采用第二样本量的第二方训练样本对待训练的第二方模型进行训练得到;
根据所述第一方特征梯度信息、所述第二方特征梯度信息、第一样本量信息和所述第二样本量信息确定模型联合梯度信息,以及根据所述模型联合梯度信息,更新所述第一方模型和所述第二方模型。
根据本公开的另一方面,提供了一种模型联合训练方法,包括:
采用第二样本量的第二方训练样本对待训练的第二方模型进行训练,得到第二方特征梯度信息;
向第一方发送第二样本量信息和所述第二方特征梯度信息,用于指示第一方执行如下:采用第一样本量的第一方训练样本对待训练的第一方模型进行训练,得到第一方特征梯度信息;根据所述第一方特征梯度信息、所述第二方特征梯度信息、第一样本量信息和所述第二样本量信息确定模型联合梯度信息,以及根据所述模型联合梯度信息,更新所述第一方模型和所述第二方模型。
根据本公开的又一方面,提供了一种模型联合训练装置,包括:
信息确定模块,用于采用第一样本量的第一方训练样本对待训练的第一方模型进行训练,得到第一方特征梯度信息;
信息获取模块,用于从第二方获取第二方特征梯度信息和第二样本量信息;其中,所述第二方特征梯度信息由所述第二方采用第二样本量的第二方训练样本对待训练的第二方模型进行训练得到;
模型更新模块,用于根据所述第一方特征梯度信息、所述第二方特征梯度信息、第一样本量信息和所述第二样本量信息确定模型联合梯度信息,以及根据所述模型联合梯度信息,更新所述第一方模型和所述第二方模型。
根据本公开的又一方面,提供了一种模型联合训练装置,包括:
信息确定模块,用于采用第二样本量的第二方训练样本对待训练的第二方模型进行训练,得到第二方特征梯度信息;
信息发送模块,用于向第一方发送第二样本量信息和所述第二方特征梯度信息,用于指示第一方执行如下:采用第一样本量的第一方训练样本对待训练的第一方模型进行训练,得到第一方特征梯度信息;根据所述第一方特征梯度信息、所述第二方特征梯度信息、第一样本量信息和所述第二样本量信息确定模型联合梯度信息,以及根据所述模型联合梯度信息,更新所述第一方模型和所述第二方模型。
根据本公开的又一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请任意实施例所提供的模型联合训练方法。
根据本公开的又一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行本申请任意实施例所提供的模型联合训练方法。
根据本申请的技术提高了模型联合训练的安全性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请实施例提供的一种模型联合训练方法的示意图;
图2是根据本申请实施例提供的另一种模型联合训练方法的示意图;
图3是根据本申请实施例提供的又一种模型联合训练方法的示意图;
图4是根据本申请实施例提供的再一种模型联合训练方法的示意图;
图5是根据本申请实施例提供的一种模型联合训练装置的示意图;
图6是根据本申请实施例提供的另一种模型联合训练装置的示意图;
图7是用来实现本申请实施例的模型联合训练方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本申请实施例提供的一种模型联合训练方法的示意图,本申请实施例可适用于高效实现模型联合训练的情况。该方法可由一种模型联合训练装置来执行,该装置可采用硬件和/或软件的方式来实现,可配置于电子设备中。该方法具体包括如下:
S110、采用第一样本量的第一方训练样本对待训练的第一方模型进行训练,得到第一方特征梯度信息。
在本申请实施例中,第一方和第二方可以进行联合训练,需要说明的是,本申请实施例对模型联合训练的参与方数量不做具体限定,例如也可以是至少三方参与。第一样本量为第一方训练样本的样本数量,可以是随机抽取的样本数量,也可以是全部的样本数量;待训练的第一方模型为模型联合训练的一个参与方所训练的机器学习模型,例如逻辑回归模型;第一方特征梯度信息为模型联合训练的第一方基于第一方训练样本计算得到的第一梯度。
具体的,第一方可以计算第一方模型的训练参数和第一样本量的第一方训练样本的乘积;根据该乘积和标签向量计算第一方训练样本的残差;根据第一方训练样本的残差和第一方训练样本的乘积得到第一方特征梯度信息;其中,标签向量是根据第一方训练样本的标签值构建得到。
S120、从第二方获取第二方特征梯度信息和第二样本量信息;其中,第二方特征梯度信息由第二方采用第二样本量的第二方训练样本对待训练的第二方模型进行训练得到。
在本申请实施例中,第二样本量信息为第二样本量的特征信息,可以是第二样本量明文或者第二样本量密文。第二样本量为第二方训练样本的样本数量,可以是随机抽取的样本数量,也可以是全部的样本数量。在本实施例中,第一方和第二方的特征维度相同,且第一方和第二方中的每一个特征维度对应一个梯度和,因此,第一方和第二方的梯度和个数是相同的。需要说明的是,本申请实施例对第一方模型和第二方模型的网络结构不作具体限定。
具体的,第二方确定第二方特征梯度信息可包括:计算第二方模型的训练参数和第二样本量的第二方训练样本的乘积;根据该乘积和标签向量计算第二方训练样本的残差;根据第二方训练样本的残差和第二方训练样本的乘积得到第二方特征梯度信息;其中,标签向量是根据第二方训练样本的标签值构建得到。
其中,第二方模型的训练参数和第一方模型的训练参数可以相同,以及第一方模型和第二方模型可以相同。具体的,可以是第一方将确定的待训练的第一方模型和训练参数发送给第二方,并作为第二方中待训练的第二方模型和第二方模型的训练参数。
S130、根据第一方特征梯度信息、第二方特征梯度信息、第一样本量信息和第二样本量信息确定模型联合梯度信息,以及根据模型联合梯度信息,更新第一方模型和第二方模型。
在本申请实施例中,模型联合梯度信息是基于第一方的梯度和样本量,以及第二方的梯度和样本量联合计算得到,以使得第一方和第二方根据模型联合梯度信息分别对第一方模型和第二方模型进行高效更新。
具体的,根据第一方特征梯度信息、第二方特征梯度信息、第一样本量信息和第二样本量信息确定模型联合梯度信息,可根据如下公式确定。
Figure BDA0002702069680000051
其中,gradi为模型联合梯度信息;gradAi为第一方特征梯度信息;gradBi为第二方特征梯度信息;line_A为第一样本量信息;line_B为第二样本量信息;i为第一方训练样本;n为第一样本量个数。
在更新双方模型的过程中,以更新第一方模型为例,根据模型联合梯度信息更新第一方模型后,第一方需要计算更新后的第一方模型的目标函数,并判断该目标函数是否满足收敛条件;若满足,则更新后的第一方模型为第一方经过模型联合训练得到的最终模型;若不是,则需要进行迭代计算,重新计算一个新的第一方特征梯度信息,并从第二方获取新的第二方特征梯度信息和新的第二样本量信息;以根据新的第一方特征梯度信息、新的第二方特征梯度信息、新的第一样本量信息和新的第二样本量信息确定新的模型联合梯度信息,直至根据新的模型联合梯度信息确定的目标函数满足收敛条件,则结束迭代,得到模型联合训练的最终模型。
本实施例的技术方案,第一方采用第一样本量的第一方训练样本对待训练的第一方模型进行训练,得到第一方特征梯度信息;从第二方获取第二方特征梯度信息和第二样本量信息;并根据第一方特征梯度信息、第二方特征梯度信息、第一样本量信息和第二样本量信息确定模型联合梯度信息,以及根据模型联合梯度信息,更新第一方模型和第二方模型。本申请实施例能够根据训练双方的梯度和样本量确定出适用于双方模型更新的模型联合梯度信息,从而极大的提高了模型联合训练的效率。
本申请实施例还提供了模型联合训练方法一个优选实施方式,能够进一步提高模型联合训练的训练效率。图2是根据本申请实施例提供的另一种模型联合训练方法的流程示意图。具体包括如下:
S210、采用第一样本量的第一方训练样本对待训练的第一方模型进行训练,得到第一方特征梯度信息。
S220、从第二方获取第二方特征梯度信息和第二样本量信息;其中,第二方特征梯度信息由第二方采用第二样本量的第二方训练样本对待训练的第二方模型进行训练得到。
S230、根据第一方特征梯度明文、第二方特征梯度明文、第一样本量明文和第二样本量明文,确定模型联合梯度明文。
在本申请实施例中,第一方特征梯度明文为第一方计算出的且未进行加密操作的第一方特征梯度信息;第二方特征梯度明文为第二方计算出的且未进行加密操作的第二方特征梯度信息;第一样本量明文为第一方训练数据的第一样本量信息,例如第一样本量line_A;第二样本量明文为第二方训练数据的第二样本量信息,例如第二样本量line_B。本实施例根据未加密的第一方的梯度和样本量以及第二方梯度和样本量,计算模型联合梯度明文,能够进一步提高模型联合训练的训练效率,从而快速有效的确定出第一方模型和第二方模型。
S240、根据模型联合梯度明文更新第一方模型。
在本申请实施例中,第一方数据在计算出用于更新模型的模型联合梯度明文后,在更新第一方模型的过程中,需要先验证模型联合梯度明文是否可用;具体的,根据模型联合梯度明文更新第一方模型,并计算第一方模型的目标函数;判断目标函数是否满足收敛条件,即确定更新后的第一方模型是否合格;若目标函数满足收敛条件,则确认第一方模型为模型联合训练的最终模型;若否,则需要进行迭代计算,直至目标函数满足收敛条件。
S250、向第二方发送模型联合梯度明文,用于指示第二方根据模型联合梯度明文更新第二方模型。
在本申请实施例中,第一方在计算得到模型联合梯度明文后,为了保证第二方能够及时准确的更新第二方模型,则需要将模型联合梯度明文发送给第二方,以使得第二方可以根据模型联合梯度明文更新第二方模型。
在上述实施例的基础上,可选的,第一方训练样本由第一方从第一方样本数据中随机抽样得到,且将随机抽取的样本数量作为第一样本量;第二方训练样本由第二方从第二方样本数据中随机抽样得到,且将随机抽取的样本数量作为第二样本量。
在本申请实施例中,第一方训练样本和第二方训练样本采用随机抽取的方式,即表明第一样本量和第二样本量是随机数,则不容易被推算出;使得在计算模型联合梯度明文时,随机选择一部分训练样本进行模型联合梯度明文的计算,使得计算方(例如第一方)无法获知参与方(例如第二方)具体的样本量,也就无法反推出参与方的原始数据信息,从而有效解决在训练过程中参与方数据被泄漏的问题,极大的保护了参与方数据的安全性。
在上述实施例的基础上,可选的,第一方训练样本与第二方训练样本的数据结构相同。
在本申请实施例中,示例性的,第一方和第二方都有样本数据Qa和Qb集合,且两个样本的维度相同,都是D,样本数量分别为Sa和Sb;将两方的数据按行横向融合以最大程度扩充数据的样本量,则扩充后的样本数量为Sa+Sb。在同一维度下的数据,具有相同的维度特征,但并不会在模型联合训练过程中产生较大程度上的数据误差;本实施例通过选取第一方和第二方在水平维度下的融合数据,实现对模型联合训练的样本量的有效扩充。
在上述实施例的基础上,可选的,本实施例方法还包括:
通过安全求交协议,确定第一方样本数据与第二方样本数据之间的共同特征维度;
基于共同特征维度,确定第一方训练样本和第二方训练样本。
在本申请实施例中,第一方和第二方的数据集合较大,可能维度较多,使用统一的维度命名方式,对维度进行命名,并使用安全求交协议获取两方相同的维度的集合。两方最终获得交集的维度信息,而不会获取其他维度信息。其中,安全求交协议是双方预先建立的确定共同维度的传输协议,可以通过该协议保证确定维度过程中的安全隐私性;例如,安全求交协议可以是基于OT实现的隐私集合求交协议,该协议允许参与者在秘密集合上做交集操作,且不会泄露交集以外的信息。本实施例根据安全求交协议,能够安全准确的识别出双方共同维度下的训练样本。
本申请实施例还提供了模型联合训练方法一个优选实施方式,能够安全有效的确定出模型联合梯度信息。图3是根据本申请实施例提供的又一种模型联合训练方法的流程示意图。具体包括如下:
S310、采用第一样本量的第一方训练样本对待训练的第一方模型进行训练,得到第一方特征梯度信息。
S320、从第二方获取第二方特征梯度信息和第二样本量信息;其中,第二方特征梯度信息由第二方采用第二样本量的第二方训练样本对待训练的第二方模型进行训练得到。
S330、根据第一方特征梯度密文、第二方特征梯度密文、第一样本量密文和第二样本量密文确定模型联合梯度密文;其中,第一方特征梯度密文和第一样本量密文由第一方采用从第二方获取的第一同态加密密钥分别对第一方特征梯度明文和第一样本量明文进行加密得到;第二方特征梯度密文和第二样本量密文由第二方采用第一同态加密密钥分别对第二方特征梯度明文和第二样本量明文进行加密得到。
在本申请实施例中,为了保证数据在传输过程中的安全性,第二方在将梯度和样本量数据传输给第一方时,需要对传输的数据进行加密操作,以防止传输过程中的数据被篡改,导致安全隐患的问题。其中,第二方加密所使用的第一同态加密密钥由第二方生成,同时也生成第二同态加密密钥,即对应第一同态加密密钥的解密密钥;具体的,在本实施例中,第一方可以将第一方模型和模型参数发送给第二方,作为第二方的第二方模型和模型参数;相应的,第二方可以根据第一方发送第一方模型和模型参数的时间戳生成非对称密钥,即第一同态加密密钥和第二同态加密密钥;并将第一同态加密密钥发送给第一方,以使得第一方对处理数据进行加密,从而有效保证数据传输的安全性。
S340、向第二方发送模型联合梯度密文,用于指示第二方执行如下:采用第二同态加密密钥对模型联合梯度密文进行解密得到模型联合梯度明文;根据模型联合梯度明文更新第二方模型。
在本申请实施例中,第一方计算出模型联合梯度密文时,由于模型联合梯度密文中包含第二方的加密数据,因此,需要将模型联合梯度密文发送给第二方进行解密;本实施例中第一方根据第二方加密的梯度和样本量,以及其梯度和样本量计算模型联合梯度密文,在计算过程中第一方并不知道第二方梯度和样本量的参与数据,从而在充分利用到第二方数据的同时还能保证其不被窃取。
S350、从第二方获取模型联合梯度明文,且根据模型联合梯度明文更新第一方模型。
在本申请实施例中,第一方从第二方获取到的模型联合梯度明文是无加密数据的,第一方可直接根据该模型联合梯度明文对第一方模型进行更新;在更新的过程中,需参考第一方模型的目标函数,并判断其是否满足收敛条件,以此确定第一方模型是否更新完毕。
在本申请实施例中,仅是通过模型联合训练的参与双方来计算模型联合梯度信息的计算并分别更新双方模型,期间并不需要引入第三方来计算模型联合梯度信息,从而有效提高了模型的训练效率;本实施例中的双方提供的数据结构类似,属于同一行业才基于不同用户量的联合建模。
图4是根据本申请实施例提供的再一种模型联合训练方法的示意图,本申请实施例可适用于向模型需求方发送模型训练数据以实现模型联合训练的情况。该方法可由一种模型联合训练装置来执行,该装置可采用硬件和/或软件的方式来实现,可配置于电子设备中。该方法具体包括如下:
S410、采用第二样本量的第二方训练样本对待训练的第二方模型进行训练,得到第二方特征梯度信息。
在本申请实施例中,第二样本量为第二方训练样本的样本数量,可以是随机抽取的样本数量,也可以是全部的样本数量;待训练的第二方模型是参与模型联合训练的第二方用于训练的本地模型,可以是机器学习模型中的逻辑回归模型;第二方特征梯度信息为第二方计算出的梯度。
具体的,第二方在确定第二方特征梯度信息时,可包括:计算第二方模型的训练参数和第二样本量的第二方训练样本的乘积;其中,第二方模型的训练参数可以是从第一方获取的第一方模型的训练参数;根据上述乘积和标签向量计算第二方训练样本的残差;其中,标签向量是根据第二方训练样本的标签值构建得到;根据第二方训练样本的残差和第二方训练样本的乘积得到第二方特征梯度信息。
S420、向第一方发送第二样本量信息和第二方特征梯度信息,用于指示第一方执行如下:采用第一样本量的第一方训练样本对待训练的第一方模型进行训练,得到第一方特征梯度信息;根据第一方特征梯度信息、第二方特征梯度信息、第一样本量信息和第二样本量信息确定模型联合梯度信息,以及根据模型联合梯度信息,更新第一方模型和第二方模型。
在本实施例中,第一方在计算模型联合梯度信息时,需要结合第二方的梯度和样本量,则第二方需要将计算模型联合梯度信息的梯度和样本量发送给第一方,从而有效实现模型联合梯度信息的确定。
本实施例的技术方案,第二方采用第二样本量的第二方训练样本对待训练的第二方模型进行训练,得到第二方特征梯度信息;向第一方发送第二样本量信息和第二方特征梯度信息,以使得第一方确定出模型联合梯度信息。本申请实施例中第二方将梯度和样本量发送给第一方,使得第一方能够结合第二方的梯度和样本量有效计算出模型联合梯度信息,从而实现双方模型的有效更新。
在上述实施例的基础上,可选的,第一方训练样本由第一方从第一方样本数据中随机抽样得到,且将随机抽取的样本数量作为第一样本量;第二方训练样本由第二方从第二方样本数据中随机抽样得到,且将随机抽取的样本数量作为第二样本量。
在本申请实施例中,第一方训练样本和第二方训练样本采用随机抽取的方式,即表明第一样本量和第二样本量是随机数,则不容易被推算出;使得在计算模型联合梯度明文时,随机选择一部分训练样本进行模型联合梯度明文的计算,使得计算方(例如第一方)无法获知参与方(例如第二方)具体的样本量,也就无法反推出参与方的原始数据信息,从而有效解决在训练过程中参与方数据被泄漏的问题,极大的保护了参与方数据的安全性。
在上述实施例的基础上,可选的,向第一方发送第二样本量信息和第二方特征梯度信息,包括:
向第一方发送第二样本量明文和第二方特征梯度明文,用于指示第一方执行如下:根据第一方特征梯度明文、第二方特征梯度明文、第一样本量明文和第二样本量明文,确定模型联合梯度明文;根据模型联合梯度明文更新第一方模型;
从第一方获取模型联合梯度明文,且根据模型联合梯度明文更新第二方模型。
在本申请实施例中,第二方直接向第一方发送未进行加密处理的第二方特征梯度信息(第二方特征梯度明文)和第二样本量信息(第一样本量明文);其中,第二样本量明文为第二方中第二方训练数据的第二样本量信息,例如第二方训练数据的跟行数。本实施例中的第二方直接将未经过加密处理的梯度和样本量发送给第一方,能够有效提高数据的传输效率;同时,由于第一方的第二样本量明文是经过随机抽取得到的,因此,第一方在计算模型联合梯度信息时无法反推出第二方的任何信息,从而有效保证第二方的信息安全。
在上述实施例的基础上,可选的,本实施例方法还包括:确定第一同态加密密钥和第二同态加密密钥,且向第一方发送第一同态加密密钥;
其中,向第一方发送第二样本量信息和第二方特征梯度信息,包括:
向第一方发送第二样本量密文和第二方特征梯度密文,用于指示第一方执行如下:根据第一方特征梯度密文、第二方特征梯度密文、第一样本量密文和第二样本量密文确定模型联合梯度密文;其中,第一方特征梯度密文和第一样本量密文由第一方采用第一同态加密密钥分别对第一方特征梯度明文和第一样本量明文进行加密得到;第二方特征梯度密文和第二样本量密文由第二方采用第一同态加密密钥分别对第二方特征梯度明文和第二样本量明文进行加密得到;
从第一方获取模型联合梯度密文,采用第二同态加密密钥对模型联合梯度密文进行解密得到模型联合梯度明文,且根据模型联合梯度明文更新第二方模型;
向第一方发送模型联合梯度明文,用于指示第一方根据模型联合梯度明文更新第一方模型。
在本申请实施例中,对数据进行加密的加密方式采用非对称加密,密钥包括加密密钥(第一同态加密密钥)和解密密钥(第二同态加密密钥);密钥由第二方生成;本实施例中的第一方是无法获取第二同态加密密钥的,因此,本实施例采用非对称加密的方式,能够有效保证数据处理过程中的数据完整性。
第二方在向第一方发送梯度和样本量前,需要使用第一同态加密密钥进行加密,得到梯度密文和样本量密文再发送,能够防止数据被随意篡改的问题;第一方在计算出模型联合梯度信息后,需要采用第一同态加密密钥将模型联合梯度信息进行加密,得到模型联合梯度密文再发送给第二方,以使得第二方对模型联合梯度密文进行解密,得到用于更新双方模型的模型联合梯度明文;这样,在计算模型联合梯度明文的过程中,能够保证计算过程不被任何一方修改;保证参与方数据安全性的前提下,充分利用参与方数据实现模型联合训练。
在上述实施例的基础上,可选的,第一方训练样本与第二方训练样本的数据结构相同。
在本申请实施例中,示例性的,第一方和第二方都有样本数据Qa和Qb集合,且两个样本的维度相同,都是D,样本数量分别为Sa和Sb;将两方的数据按行横向融合以最大程度扩充数据的样本量,则扩充后的样本数量为Sa+Sb。在同一维度下的数据,具有相同的维度特征,但并不会在模型联合训练过程中产生较大程度上的数据误差;本实施例通过选取第一方和第二方在水平维度下的融合数据,实现对模型联合训练的样本量的有效扩充。
图5根据本申请实施例提供的一种模型联合训练装置的示意图,本实施例可适用于高效进行联合模型训练的情况,该装置配置于电子设备中,可实现本申请任意实施例所述的模型联合训练方法。模型联合训练装置500具体包括如下:
信息确定模块510,用于采用第一样本量的第一方训练样本对待训练的第一方模型进行训练,得到第一方特征梯度信息;
信息获取模块520,用于从第二方获取第二方特征梯度信息和第二样本量信息;其中,所述第二方特征梯度信息由所述第二方采用第二样本量的第二方训练样本对待训练的第二方模型进行训练得到;
模型更新模块530,用于根据所述第一方特征梯度信息、所述第二方特征梯度信息、第一样本量信息和所述第二样本量信息确定模型联合梯度信息,以及根据所述模型联合梯度信息,更新所述第一方模型和所述第二方模型。
在上述实施例的基础上,可选的,所述第一方训练样本由第一方从第一方样本数据中随机抽样得到,且将随机抽取的样本数量作为所述第一样本量;所述第二方训练样本由所述第二方从第二方样本数据中随机抽样得到,且将随机抽取的样本数量作为所述第二样本量,
在上述实施例的基础上,可选的,模型更新模块530,具体用于:
根据第一方特征梯度明文、第二方特征梯度明文、第一样本量明文和第二样本量明文,确定模型联合梯度明文;
根据所述模型联合梯度明文更新所述第一方模型;
向所述第二方发送所述模型联合梯度明文,用于指示所述第二方根据所述模型联合梯度明文更新所述第二方模型。
在上述实施例的基础上,可选的,模型更新模块530,还具体用于:
根据第一方特征梯度密文、第二方特征梯度密文、第一样本量密文和第二样本量密文确定模型联合梯度密文;其中,所述第一方特征梯度密文和所述第一样本量密文由第一方采用从所述第二方获取的第一同态加密密钥分别对第一方特征梯度明文和第一样本量明文进行加密得到;所述第二方特征梯度密文和所述第二样本量密文由所述第二方采用所述第一同态加密密钥分别对第二方特征梯度明文和第二样本量明文进行加密得到;
向所述第二方发送所述模型联合梯度密文,用于指示所述第二方执行如下:采用第二同态加密密钥对所述模型联合梯度密文进行解密得到模型联合梯度明文;根据所述模型联合梯度明文更新所述第二方模型;
从所述第二方获取模型联合梯度明文,且根据所述模型联合梯度明文更新所述第一方模型。
在上述实施例的基础上,可选的,所述第一方训练样本与所述第二方训练样本的数据结构相同。
在上述实施例的基础上,可选的,本实施例装置还包括:
维度确定模块,用于通过安全求交协议,确定第一方样本数据与第二方样本数据之间的共同特征维度。
训练样本确定模块,用于基于所述共同特征维度,确定所述第一方训练样本和所述第二方训练样本。
本实施例的技术方案,能够根据训练双方的梯度和样本量确定出适用于双方模型更新的模型联合梯度信息,从而极大的提高了模型联合训练的效率。
图6根据本申请实施例提供的另一种模型联合训练装置的示意图,本实施例可适用于向模型需求方发送模型训练数据以实现模型联合训练情况,该装置配置于电子设备中,可实现本申请任意实施例所述的模型联合训练方法。模型联合训练装置600具体包括如下:
信息确定模块610,用于采用第二样本量的第二方训练样本对待训练的第二方模型进行训练,得到第二方特征梯度信息;
信息发送模块620,用于向第一方发送第二样本量信息和所述第二方特征梯度信息,用于指示第一方执行如下:采用第一样本量的第一方训练样本对待训练的第一方模型进行训练,得到第一方特征梯度信息;根据所述第一方特征梯度信息、所述第二方特征梯度信息、第一样本量信息和所述第二样本量信息确定模型联合梯度信息,以及根据所述模型联合梯度信息,更新所述第一方模型和所述第二方模型。
在上述实施例的基础上,可选的,所述第一方训练样本由所述第一方从第一方样本数据中随机抽样得到,且将随机抽取的样本数量作为所述第一样本量;所述第二方训练样本由所述第二方从第二方样本数据中随机抽样得到,且将随机抽取的样本数量作为所述第二样本量。
在上述实施例的基础上,可选的,信息发送模块620,具体用于:
向第一方发送第二样本量明文和第二方特征梯度明文,用于指示所述第一方执行如下:根据第一方特征梯度明文、所述第二方特征梯度明文、第一样本量明文和所述第二样本量明文,确定模型联合梯度明文;根据所述模型联合梯度明文更新所述第一方模型;
从第一方获取所述模型联合梯度明文,且根据所述模型联合梯度明文更新所述第二方模型。
在上述实施例的基础上,可选的,本实施例装置还包括:
加密密钥确定模块,用于确定第一同态加密密钥和第二同态加密密钥,且向所述第一方发送所述第一同态加密密钥;
其中,信息发送模块620,还具体用于:
向所述第一方发送第二样本量密文和第二方特征梯度密文,用于指示所述第一方执行如下:根据第一方特征梯度密文、所述第二方特征梯度密文、第一样本量密文和所述第二样本量密文确定模型联合梯度密文;其中,所述第一方特征梯度密文和所述第一样本量密文由所述第一方采用所述第一同态加密密钥分别对第一方特征梯度明文和第一样本量明文进行加密得到;所述第二方特征梯度密文和所述第二样本量密文由所述第二方采用所述第一同态加密密钥分别对第二方特征梯度明文和第二样本量明文进行加密得到;
从所述第一方获取所述模型联合梯度密文,采用所述第二同态加密密钥对所述模型联合梯度密文进行解密得到模型联合梯度明文,且根据所述模型联合梯度明文更新所述第二方模型;
向第一方发送所述模型联合梯度明文,用于指示所述第一方根据所述模型联合梯度明文更新所述第一方模型。
在上述实施例的基础上,可选的,所述第一方训练样本与所述第二方训练样本的数据结构相同。
本实施例的技术方案,第二方将梯度和样本量发送给第一方,使得第一方能够结合第二方的梯度和样本量有效计算出模型联合梯度信息,从而实现双方模型的有效更新。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图7所示,是根据本申请实施例的模型联合训练方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图7所示,该电子设备包括:一个或多个处理器701、存储器702,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图7中以一个处理器701为例。
存储器702即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的模型联合训练方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的模型联合训练方法。
存储器702作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的模型联合训练方法对应的程序指令/模块。处理器701通过运行存储在存储器702中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的模型联合训练方法。
存储器702可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据模型联合训练的电子设备的使用所创建的数据等。此外,存储器702可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器702可选包括相对于处理器701远程设置的存储器,这些远程存储器可以通过网络连接至模型联合训练的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
模型联合训练方法的电子设备还可以包括:输入装置703和输出装置704。处理器701、存储器702、输入装置703和输出装置704可以通过总线或者其他方式连接,图7中以通过总线连接为例。
输入装置703可接收输入的数字或字符信息,以及产生与模型联合训练的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置704可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
根据本申请实施例的技术方案,能够根据训练双方的梯度和样本量确定出适用于双方模型更新的模型联合梯度信息,从而极大的提高了模型联合训练的效率。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (15)

1.一种模型联合训练方法,包括:
采用第一样本量的第一方训练样本对待训练的第一方模型进行训练,得到第一方特征梯度信息;
从第二方获取第二方特征梯度信息和第二样本量信息;其中,所述第二方特征梯度信息由所述第二方采用第二样本量的第二方训练样本对待训练的第二方模型进行训练得到;
根据所述第一方特征梯度信息、所述第二方特征梯度信息、第一样本量信息和所述第二样本量信息确定模型联合梯度信息,以及根据所述模型联合梯度信息,更新所述第一方模型和所述第二方模型。
2.根据权利要求1所述的方法,其中,所述第一方训练样本由第一方从第一方样本数据中随机抽样得到,且将随机抽取的样本数量作为所述第一样本量;所述第二方训练样本由所述第二方从第二方样本数据中随机抽样得到,且将随机抽取的样本数量作为所述第二样本量。
3.根据权利要求1或2所述的方法,其中,所述根据所述第一方特征梯度信息、所述第二方特征梯度信息、第一样本量信息和所述第二样本量信息确定模型联合梯度信息,以及根据所述模型联合梯度信息,更新所述第一方模型和所述第二方模型,包括:
根据第一方特征梯度明文、第二方特征梯度明文、第一样本量明文和第二样本量明文,确定模型联合梯度明文;
根据所述模型联合梯度明文更新所述第一方模型;
向所述第二方发送所述模型联合梯度明文,用于指示所述第二方根据所述模型联合梯度明文更新所述第二方模型。
4.根据权利要求1所述的方法,其中,所述根据所述第一方特征梯度信息、所述第二方特征梯度信息、第一样本量信息和所述第二样本量信息确定模型联合梯度信息,以及根据所述模型联合梯度信息,更新所述第一方模型和所述第二方模型,包括:
根据第一方特征梯度密文、第二方特征梯度密文、第一样本量密文和第二样本量密文确定模型联合梯度密文;其中,所述第一方特征梯度密文和所述第一样本量密文由第一方采用从所述第二方获取的第一同态加密密钥分别对第一方特征梯度明文和第一样本量明文进行加密得到;所述第二方特征梯度密文和所述第二样本量密文由所述第二方采用所述第一同态加密密钥分别对第二方特征梯度明文和第二样本量明文进行加密得到;
向所述第二方发送所述模型联合梯度密文,用于指示所述第二方执行如下:采用第二同态加密密钥对所述模型联合梯度密文进行解密得到模型联合梯度明文;根据所述模型联合梯度明文更新所述第二方模型;
从所述第二方获取模型联合梯度明文,且根据所述模型联合梯度明文更新所述第一方模型。
5.根据权利要求1所述的方法,其中,所述第一方训练样本与所述第二方训练样本的数据结构相同。
6.根据权利要求5所述的方法,还包括:
通过安全求交协议,确定第一方样本数据与第二方样本数据之间的共同特征维度;
基于所述共同特征维度,确定所述第一方训练样本和所述第二方训练样本。
7.一种模型联合训练方法,包括:
采用第二样本量的第二方训练样本对待训练的第二方模型进行训练,得到第二方特征梯度信息;
向第一方发送第二样本量信息和所述第二方特征梯度信息,用于指示第一方执行如下:采用第一样本量的第一方训练样本对待训练的第一方模型进行训练,得到第一方特征梯度信息;根据所述第一方特征梯度信息、所述第二方特征梯度信息、第一样本量信息和所述第二样本量信息确定模型联合梯度信息,以及根据所述模型联合梯度信息,更新所述第一方模型和所述第二方模型。
8.根据权利要求7所述的方法,其中,所述第一方训练样本由所述第一方从第一方样本数据中随机抽样得到,且将随机抽取的样本数量作为所述第一样本量;所述第二方训练样本由所述第二方从第二方样本数据中随机抽样得到,且将随机抽取的样本数量作为所述第二样本量。
9.根据权利要求7或8所述的方法,其中,所述向第一方发送第二样本量信息和所述第二方特征梯度信息,包括:
向第一方发送第二样本量明文和第二方特征梯度明文,用于指示所述第一方执行如下:根据第一方特征梯度明文、所述第二方特征梯度明文、第一样本量明文和所述第二样本量明文,确定模型联合梯度明文;根据所述模型联合梯度明文更新所述第一方模型;
从第一方获取所述模型联合梯度明文,且根据所述模型联合梯度明文更新所述第二方模型。
10.根据权利要求7所述的方法,还包括:确定第一同态加密密钥和第二同态加密密钥,且向所述第一方发送所述第一同态加密密钥;
其中,所述向第一方发送第二样本量信息和所述第二方特征梯度信息,包括:
向所述第一方发送第二样本量密文和第二方特征梯度密文,用于指示所述第一方执行如下:根据第一方特征梯度密文、所述第二方特征梯度密文、第一样本量密文和所述第二样本量密文确定模型联合梯度密文;其中,所述第一方特征梯度密文和所述第一样本量密文由所述第一方采用所述第一同态加密密钥分别对第一方特征梯度明文和第一样本量明文进行加密得到;所述第二方特征梯度密文和所述第二样本量密文由所述第二方采用所述第一同态加密密钥分别对第二方特征梯度明文和第二样本量明文进行加密得到;
从所述第一方获取所述模型联合梯度密文,采用所述第二同态加密密钥对所述模型联合梯度密文进行解密得到模型联合梯度明文,且根据所述模型联合梯度明文更新所述第二方模型;
向第一方发送所述模型联合梯度明文,用于指示所述第一方根据所述模型联合梯度明文更新所述第一方模型。
11.根据权利要求7所述的方法,其中,所述第一方训练样本与所述第二方训练样本的数据结构相同。
12.一种模型联合训练装置,包括:
信息确定模块,用于采用第一样本量的第一方训练样本对待训练的第一方模型进行训练,得到第一方特征梯度信息;
信息获取模块,用于从第二方获取第二方特征梯度信息和第二样本量信息;其中,所述第二方特征梯度信息由所述第二方采用第二样本量的第二方训练样本对待训练的第二方模型进行训练得到;
模型更新模块,用于根据所述第一方特征梯度信息、所述第二方特征梯度信息、第一样本量信息和所述第二样本量信息确定模型联合梯度信息,以及根据所述模型联合梯度信息,更新所述第一方模型和所述第二方模型。
13.一种模型联合训练装置,包括:
信息确定模块,用于采用第二样本量的第二方训练样本对待训练的第二方模型进行训练,得到第二方特征梯度信息;
信息发送模块,用于向第一方发送第二样本量信息和所述第二方特征梯度信息,用于指示第一方执行如下:采用第一样本量的第一方训练样本对待训练的第一方模型进行训练,得到第一方特征梯度信息;根据所述第一方特征梯度信息、所述第二方特征梯度信息、第一样本量信息和所述第二样本量信息确定模型联合梯度信息,以及根据所述模型联合梯度信息,更新所述第一方模型和所述第二方模型。
14.一种电子设备,其中,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的方法;或者执行权利要求7-11中任一项所述的方法。
15.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-6中任一项所述的方法;或者执行权利要求7-11中任一项所述的方法。
CN202011025747.4A 2020-09-25 2020-09-25 模型联合训练方法、装置、设备和存储介质 Active CN112016632B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202011025747.4A CN112016632B (zh) 2020-09-25 2020-09-25 模型联合训练方法、装置、设备和存储介质
KR1020210031824A KR20220041707A (ko) 2020-09-25 2021-03-11 모델 연합 트레이닝 방법, 장치, 기기 및 저장 매체
JP2021039046A JP7280303B2 (ja) 2020-09-25 2021-03-11 モデル連合訓練方法、装置、電子機器、記憶媒体並びにコンピュータプログラム
US17/210,216 US20210209515A1 (en) 2020-09-25 2021-03-23 Joint training method and apparatus for models, device and storage medium
EP21164246.7A EP3896599A3 (en) 2020-09-25 2021-03-23 Joint training method and apparatus for models, device and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011025747.4A CN112016632B (zh) 2020-09-25 2020-09-25 模型联合训练方法、装置、设备和存储介质

Publications (2)

Publication Number Publication Date
CN112016632A true CN112016632A (zh) 2020-12-01
CN112016632B CN112016632B (zh) 2024-04-26

Family

ID=73527527

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011025747.4A Active CN112016632B (zh) 2020-09-25 2020-09-25 模型联合训练方法、装置、设备和存储介质

Country Status (5)

Country Link
US (1) US20210209515A1 (zh)
EP (1) EP3896599A3 (zh)
JP (1) JP7280303B2 (zh)
KR (1) KR20220041707A (zh)
CN (1) CN112016632B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113722738A (zh) * 2021-09-02 2021-11-30 脸萌有限公司 数据保护方法、装置、介质及电子设备
CN114611131A (zh) * 2022-05-10 2022-06-10 支付宝(杭州)信息技术有限公司 保护隐私的确定共有数据的方法、装置和系统
WO2022141841A1 (zh) * 2020-12-29 2022-07-07 平安科技(深圳)有限公司 联邦学习的过程中模型参数的处理方法、装置及相关设备

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102557639B1 (ko) * 2021-04-20 2023-07-19 성신여자대학교 연구 산학협력단 인공지능 학습장치 및 인공지능 학습장치의 동작방법
WO2023097602A1 (zh) * 2021-12-02 2023-06-08 东莞理工学院 协同训练数据属性的推断方法、装置、设备及存储介质
CN114595835B (zh) * 2022-05-07 2022-07-22 腾讯科技(深圳)有限公司 基于联邦学习的模型训练方法及装置、设备、存储介质
CN115021985B (zh) * 2022-05-23 2023-06-16 北京融数联智科技有限公司 一种无需第三方参与的逻辑回归模型训练方法及系统
CN115098885B (zh) * 2022-07-28 2022-11-04 清华大学 数据处理方法、系统及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170310643A1 (en) * 2014-10-24 2017-10-26 National Ict Australia Limited Gradients over distributed datasets
CN109165725A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于迁移学习的神经网络联邦建模方法、设备及存储介质
CN109325584A (zh) * 2018-08-10 2019-02-12 深圳前海微众银行股份有限公司 基于神经网络的联邦建模方法、设备及可读存储介质
CN109886417A (zh) * 2019-03-01 2019-06-14 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法、装置、设备及介质
CN111428887A (zh) * 2020-03-19 2020-07-17 腾讯云计算(北京)有限责任公司 一种基于多个计算节点的模型训练控制方法、装置及系统
CN111523686A (zh) * 2020-04-23 2020-08-11 支付宝(杭州)信息技术有限公司 一种模型联合训练的方法和系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111461215B (zh) * 2020-03-31 2021-06-29 支付宝(杭州)信息技术有限公司 业务模型的多方联合训练方法、装置、系统及设备
CN111177768A (zh) * 2020-04-10 2020-05-19 支付宝(杭州)信息技术有限公司 保护数据隐私的双方联合训练业务预测模型的方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170310643A1 (en) * 2014-10-24 2017-10-26 National Ict Australia Limited Gradients over distributed datasets
CN109165725A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于迁移学习的神经网络联邦建模方法、设备及存储介质
CN109325584A (zh) * 2018-08-10 2019-02-12 深圳前海微众银行股份有限公司 基于神经网络的联邦建模方法、设备及可读存储介质
CN109886417A (zh) * 2019-03-01 2019-06-14 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法、装置、设备及介质
CN111428887A (zh) * 2020-03-19 2020-07-17 腾讯云计算(北京)有限责任公司 一种基于多个计算节点的模型训练控制方法、装置及系统
CN111523686A (zh) * 2020-04-23 2020-08-11 支付宝(杭州)信息技术有限公司 一种模型联合训练的方法和系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JIANG, JINGYAN等: "Decentralised federated learning with adaptive partial gradient aggregation", 《CAAI TRANSACTIONS ON INTELLIGENCE TECHNOLOGY》, vol. 5, 1 September 2020 (2020-09-01), XP006092502, DOI: 10.1049/trit.2020.0082 *
周俊;方国英;吴楠;: "联邦学习安全与隐私保护研究综述", 西华大学学报(自然科学版), no. 04, 10 July 2020 (2020-07-10) *
陈国润;母美荣;张蕊;孙丹;钱栋军;: "基于联邦学习的通信诈骗识别模型的实现", 电信科学, no. 1, 30 April 2020 (2020-04-30) *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022141841A1 (zh) * 2020-12-29 2022-07-07 平安科技(深圳)有限公司 联邦学习的过程中模型参数的处理方法、装置及相关设备
CN113722738A (zh) * 2021-09-02 2021-11-30 脸萌有限公司 数据保护方法、装置、介质及电子设备
CN113722738B (zh) * 2021-09-02 2023-08-08 脸萌有限公司 数据保护方法、装置、介质及电子设备
CN114611131A (zh) * 2022-05-10 2022-06-10 支付宝(杭州)信息技术有限公司 保护隐私的确定共有数据的方法、装置和系统

Also Published As

Publication number Publication date
JP7280303B2 (ja) 2023-05-23
EP3896599A2 (en) 2021-10-20
CN112016632B (zh) 2024-04-26
US20210209515A1 (en) 2021-07-08
KR20220041707A (ko) 2022-04-01
EP3896599A3 (en) 2022-02-16
JP2022054386A (ja) 2022-04-06

Similar Documents

Publication Publication Date Title
CN112016632B (zh) 模型联合训练方法、装置、设备和存储介质
CN111460429B (zh) 基于可信执行环境的任务处理方法、装置、设备和介质
CN111931207A (zh) 获得隐私集合交集的方法、装置、设备及存储介质
CN111934872B (zh) 密钥处理方法、装置、电子设备以及存储介质
CN112016110B (zh) 用于存储数据的方法、装置、设备以及存储介质
CN111310204B (zh) 数据处理的方法及装置
CN111565109A (zh) 一种区块链的密钥处理方法、装置、设备和介质
US20210209417A1 (en) Method and apparatus for generating shared encoder
CN110909372A (zh) 数据处理方法、装置、设备和介质
CN114186256B (zh) 神经网络模型的训练方法、装置、设备和存储介质
CN111464297B (zh) 基于区块链的事务处理方法、装置、电子设备和介质
CN113762328A (zh) 基于联邦学习的模型训练方法、装置、设备以及存储介质
EP3855382A1 (en) Method, apparatus, medium and program for performing review based on blockchain
CN114239820A (zh) 纵向联邦学习模型的训练方法、装置和计算机设备
CN114444106B (zh) 相关系数获取方法、装置、电子设备和存储介质
CN113449872B (zh) 基于联邦学习的参数处理方法、装置和系统
CN112565225B (zh) 用于数据发送的方法、装置、电子设备及可读存储介质
CN111459672B (zh) 基于区块链网络的事务处理方法、装置、设备及介质
CN116405199A (zh) 基于ntru算法和sm2算法的加密方法、装置、设备和介质
CN113722739B (zh) 梯度提升树模型的生成方法、装置、电子设备和存储介质
CN112598251A (zh) 分类模型预测结果的处理方法、装置、设备和存储介质
CN112598139B (zh) 类别编码方法、装置、设备、存储介质及程序产品
CN111371557A (zh) 区块链数据处理方法、装置、电子设备及介质
CN114186669B (zh) 神经网络模型的训练方法、装置、设备和存储介质
CN111339571A (zh) 一种区块链密钥管理方法、装置、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant