CN112598127B - 联邦学习模型训练方法和装置、电子设备、介质和产品 - Google Patents

联邦学习模型训练方法和装置、电子设备、介质和产品 Download PDF

Info

Publication number
CN112598127B
CN112598127B CN202011487362.XA CN202011487362A CN112598127B CN 112598127 B CN112598127 B CN 112598127B CN 202011487362 A CN202011487362 A CN 202011487362A CN 112598127 B CN112598127 B CN 112598127B
Authority
CN
China
Prior art keywords
gradient
scaling factor
network model
neural network
federal learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011487362.XA
Other languages
English (en)
Other versions
CN112598127A (zh
Inventor
蒋精华
洪爵
何恺
杨青友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202011487362.XA priority Critical patent/CN112598127B/zh
Publication of CN112598127A publication Critical patent/CN112598127A/zh
Application granted granted Critical
Publication of CN112598127B publication Critical patent/CN112598127B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开提供了一种联邦学习模型训练方法、装置、电子设备、计算机可读存储介质和计算机程序产品,涉及人工智能技术领域,尤其涉及深度学习、云计算领域。实现方案为:初始化梯度伸缩因子和该梯度伸缩因子的倒数;在联邦学习的至少一个神经网络模型反向传播开始之前,将反向传播的梯度值乘以该梯度伸缩因子以进行反向传播;以及在使用优化器将梯度值更新到神经网络模型对应的参数之前,将该梯度值乘以该梯度伸缩因子的倒数。

Description

联邦学习模型训练方法和装置、电子设备、介质和产品
技术领域
本公开涉及人工智能技术领域,尤其涉及深度学习、云计算,具体涉及一种联邦学习模型训练方法、装置、电子设备、计算机可读存储介质和计算机程序产品。
背景技术
云计算(cloud computing),指的是通过网络接入弹性可扩展的共享物理或虚拟资源池,资源可以包括服务器、操作系统、网络、软件、应用和存储设备等,并可以以按需、自服务的方式对资源进行部署和管理的技术体系。通过云计算技术,可以为人工智能、区块链等技术应用、模型训练提供高效强大的数据处理能力。
近年来,机器学习技术得到飞速的发展,在信息识别、推荐引擎、金融信贷等领域都取得了出色的应用效果,大量实验结果证明机器学习模型有着良好的鲁棒性和泛化性。在通过推荐引擎进行广告业务的投放时,为丰富训练数据的多样性,人们希望能够融合多方企业间的数据进行推荐引擎的训练。因此,基于安全多方计算技术的联邦学习系统应运而生。由于推荐引擎所涉及的用户信息以及推荐内容的信息量巨大,为了提升计算性能,训练过程中所涉及的数据、参数和中间结果等,通常可以使用定点数表示法(fixed-point)。即,约定机器中所有数据的小数点位置是固定不变的,比如64位数据中,使用前48位表示整数部分、后16位表示小数部分。使用定点数表示法虽然可以提升模型训练过程中的计算性能,但是表示数据的范围和精度受限,甚至在梯度反向传播时,可能会产生梯度消失的现象,势必会影响模型训练的精度,进而影响推荐引擎的用户使用效果,无法满足广告商需求。
在此部分中描述的方法不一定是之前已经设想到或采用的方法。除非另有指明,否则不应假定此部分中描述的任何方法仅因其包括在此部分中就被认为是现有技术。类似地,除非另有指明,否则此部分中提及的问题不应认为在任何现有技术中已被公认。
发明内容
本公开提供了一种提升联邦学习定点数训练精度的方法、装置、电子设备、计算机可读存储介质和计算机程序产品。
根据本公开的一方面,提供了一种联邦学习模型训练方法,包括:初始化梯度伸缩因子和该梯度伸缩因子的倒数;在联邦学习的至少一个神经网络模型反向传播开始之前,将反向传播的梯度值乘以该梯度伸缩因子以进行反向传播;以及在使用优化器将梯度值更新到神经网络模型对应的参数之前,将该梯度值乘以该梯度伸缩因子的倒数。
根据本公开的另一方面,提供了一种联邦学习模型训练装置,包括:初始化单元,配置为初始化梯度伸缩因子和所述梯度伸缩因子的倒数;第一计算单元,配置为在联邦学习的至少一个神经网络模型反向传播开始之前,将所述反向传播的梯度值乘以所述梯度伸缩因子以进行反向传播;以及第二计算单元,配置为在使用优化器将所述梯度值更新到所述神经网络模型对应的参数之前,将所述梯度值乘以所述梯度伸缩因子的倒数。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行联邦学习模型训练方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行联邦学习模型训练方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被处理器执行时实现联邦学习模型训练方法。
根据本公开的一个或多个实施例,可以有效地缓解了联邦学习模型训练过程中的梯度消失/训练精度下降问题。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图示例性地示出了实施例并且构成说明书的一部分,与说明书的文字描述一起用于讲解实施例的示例性实施方式。所示出的实施例仅出于例示的目的,并不限制权利要求的范围。在所有附图中,相同的附图标记指代类似但不一定相同的要素。
图1示出了根据本公开的实施例的可以在其中实施本文描述的各种方法的示例性神经网络模型的示意图;
图2示出了根据本公开的实施例的联邦学习模型训练方法的流程图;
图3示出了在图1中所示的神经网络模型反向传播中应用图2所示方法的示意图;
图4示出了根据本公开的实施例的联邦学习模型训练装置的结构框图;
图5示出了根据本公开的另一个实施例的联邦学习模型训练装置的结构框图;以及
图6示出了能够用于实现本公开的实施例的示例性电子设备的结构框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在本公开中,除非另有说明,否则使用术语“第一”、“第二”等来描述各种要素不意图限定这些要素的位置关系、时序关系或重要性关系,这种术语只是用于将一个元件与另一元件区分开。在一些示例中,第一要素和第二要素可以指向该要素的同一实例,而在某些情况下,基于上下文的描述,它们也可以指代不同实例。
在本公开中对各种所述示例的描述中所使用的术语只是为了描述特定示例的目的,而并非旨在进行限制。除非上下文另外明确地表明,如果不特意限定要素的数量,则该要素可以是一个也可以是多个。此外,本公开中所使用的术语“和/或”涵盖所列出的项目中的任何一个以及全部可能的组合方式。
在推荐引擎的场景下,需综合利用用户的行为、属性,对象的属性、内容、分类,以及用户之间的社交关系等等,挖掘用户的喜好和需求,主动向用户推荐其感兴趣或者需要的对象。能够加以利用的用户数据的丰富性和多样性也决定了该推荐引擎的推荐效果。具体地,在例如广告推荐场景中,随着互联网广告行业的蓬勃发展,广告主对相应指标的要求也水涨船高。在其投放的主体公司仅有与自身业务相关的数据或仅有相关推荐结果情况下,广告的点击率(CTR)、转化率等难以得到有效提升。如何在满足数据保密要求的条件下,有效综合多合作方的交叉特征以训练相关模型成为提高点击率(CTR)、转化率等的关键。
为了在满足用户隐私保护、数据安全和政府法规要求的情况下,进行多公司数据联合分析/建模,基于安全多方计算(MPC)技术的联邦学习系统应运而生。安全多方计算技术允许多个公司数据所有者在互不信任的情况下进行协同计算,输出计算结果,并保证任何一方均无法得到除应得的计算结果之外的其他任何信息。因此,联邦学习在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。
在训练推荐引擎相关模型的机器学习过程中,包含前向传播和反向传播。前向传播也可以看作是预测/推理过程:在推荐引擎的场景下,给定用户样本的行为数据作为输入数据,经过一系列前向计算,推导出用户是否点击广告的预测值。反向传播根据预测值和实际值之前的偏差,采用链式法则依次计算神经网络模型各层的梯度,然后更新前向计算过程中的模型参数。如图1中的三层网络模型为例,该网络模型主要包含三层:输入层110、隐藏层120、输出层130,训练数据包括输入的用户样本的行为数据x以及用户点击广告的标签数据y。模型训练的目的就是通过不断调整、更新神经网络模型中的参数w(反向传播),使得行为数据x经过神经网络模型计算以后输出的用户是否点击广告的预测值(前向传播)尽可能地接近标签数据y。
在前向传播过程中,首先初始化参数w(比如均匀分布、高斯分布)。对于输入数据x,计算z=w*x,再计算即得到了对于用户特征x的预测值,从而可以进一步计算预测值/>和真实值y之间的差距loss。在示例中,该差距值可以采用方差公式计算:
在反向传播过程中,更新神经网络模型的权重参数w。以图1中的三层网络模型为例,根据链式法则,参数w的梯度 根据梯度/>即使用对应的优化器(例如SGD)来更新相应的参数w:/>其中η为学习速率。实际应用过程中,在反向传播过程中,首先计算/>再计算/>再计算/>
从而可以看出,在基于多合作方的交叉特征训练相关模型以提高点击率(CTR)、转化率的场景下,在基于链式法则的反向传播过程中使用定点数表示法时,如果中间某一计算过程的导数比较小时,则会导致梯度在前向传播时发生梯度损失、甚至消失。而在联邦学习系统中,因为训练数据、参数和梯度数据都是密文的,导致无法直接判断梯度是否损失/消失。
为缓解联邦学习中的因为采用定点数表示法而导致的梯度损失/消失问题,相关技术中通常采用两种方式:(1)增加表示梯度的位数,例如采用从64位数据表示梯度增加到128位数据;(2)表示梯度的整体位数不变,但减少表示整数的位数,增加表示小数的位数。但增加表示梯度的位数,这样会大大降低整体联邦学习的模型训练和预测性能,更加无法提高点击率等以满足广告主对相应指标要求逐渐增长的需求;减少表示整数部分的位数,增加表示小数部分的位数,缩小了联邦学习中数据的表示范围,增加了数据溢出的风险,可能会导致训练模型出错。这样,更加不能实现提高点击率(CTR)、转化率等需求。同时,还降低了神经网络模型在硬件上的运行速度和训练精度。
因此,根据本公开的实施例提供了一种联邦学习模型训练方法200,如图2所示,包括:初始化梯度伸缩因子和梯度伸缩因子的倒数(步骤210);在联邦学习的至少一个神经网络模型反向传播开始之前,将反向传播的梯度值乘以梯度伸缩因子以进行反向传播(步骤220);以及在使用优化器将该梯度值更新到神经网络模型对应的参数之前,将该梯度值乘以该梯度伸缩因子的倒数(步骤230)。
根据本公开实施例中的模型训练方法可以有效地缓解了联邦学习模型训练过程中的梯度消失/训练精度下降问题。
在联邦学习模型训练过程中,将多个数据合作方之间共同的用户样本的行为数据以及该用户样本是否点击广告的标签数据输入到神经网络模型的输入层110,在与模型参数计算后经过一个或多个隐藏层120的传输,在输出层130输出基于该共同的用户样本的行为数据所得到的用户是否点击广告的预测值。从而,可以基于该预测值与输入的该用户样本是否点击广告的标签数据之间的差距反向传播以更新模型的参数。
在一些实施例中,方法200还包括:在反向传播开始之前,将梯度伸缩因子和该梯度伸缩因子的倒数通过加密算法进行加密,以使得将反向传播的梯度值乘以该加密后的梯度伸缩因子进行反向传播,并在将该乘以过加密后的梯度伸缩因子的梯度值更新到神经网络模型对应的参数之前,将该梯度值乘以加密后的梯度伸缩因子的倒数。在示例中,该梯度伸缩因子的加密算法与联邦学习模型训练所应用的加密算法相同。从而,进一步保证了数据的安全性。
在一些示例中,在联邦学习模型训练的反向传播开始之前,初始化梯度伸缩因子grad_factor,然后将该梯度伸缩因子grad_factor转换成密文形式gfc=Enc(grad_factor)。图3示出了在图1中所示的神经网络模型反向传播中应用图2所示方法的示意图。在图3所示的示例中,包括输入层310、隐藏层320、输出层330。在反向传播开始时,将预测值与输入的该用户样本是否点击广告的标签数据之间的差距loss乘以密文形式的梯度伸缩因子gfc。在反向传播的整个过程中,该梯度伸缩因子一直存在,这样,即使在反向传播过程中的某一计算步骤中的梯度值比较小,通过梯度伸缩因子的作用,其发生梯度损失或消失的概率将大大降低。从而,在反向传播过程中会保留更多的梯度精度,使得更精确的梯度可以继续向前传播。最后,相当于所有的梯度都扩大了grad_factor倍。在使用优化器(比如SGD)将对应的梯度更新到对应的参数时,再乘以梯度伸缩因子的倒数密文gfci=Enc(1/grad_factor),使得参数的更新和原来保持一致。这样就减缓了因为密文定点数表示导致梯度反向传播过程中的梯度消失/损失的问题。从而进一步提升了模型的训练精度和训练性能,进一步满足了广告主对于提高广告点击率(CTR)、转化率的需求。
根据一些实施例,该梯度伸缩因子至少大于1。例如,该梯度伸缩因子可以为5、10、20…100等。根据相应的广告业务场景,可以在确保数据无溢出风险的情况下选择较大的梯度伸缩因子,以进一步降低梯度反向传播过程中的梯度消失/损失的风险,提升模型的训练精度和训练性能。
在将梯度伸缩因子和该梯度伸缩因子的倒数通过加密算法进行加密以进行反向传播的一些示例中,该梯度伸缩因子可以选择为大于1的整数。
在一些实施例中,类似地,在某些可能的场景下,还可以相应地调整梯度伸缩因子的数值大小(小于1)以用来降低梯度的溢出风险。
根据一些实施例,该加密算法与联邦学习模型训练所应用的加密算法相同。根据一些实施例,所述加密算法包括以下中的一个:同态加密算法、秘密分片技术。在所述加密算法为同态加密算法的示例中,由训练发起者基于加密算法初始化公钥和私钥,私钥留在本地用于解密,公钥可以发送到数据提供方,以使得数据合作方之间按照相同加密算法对要传输的数据进行加密,这样数据训练者接收到数据后就可用私钥进行解密。
根据一些实施例,所述至少一个神经网络模型至少为三层网络模型。网络模型的层数越多,可能发生梯度消失/损失的风险越高。通过本公开的方法,可以有效地降低梯度反向传播过程中的梯度消失/损失的风险,以提升模型的训练精度和训练性能,从而进一步提升推荐引擎的推荐准确度。
根据本公开的实施例,如图4所示,还提供了一种联邦学习模型训练装置400,包括:初始化单元410,配置为初始化梯度伸缩因子和所述梯度伸缩因子的倒数;第一计算单元420,配置为在联邦学习的至少一个神经网络模型反向传播开始之前,将所述反向传播的梯度值乘以所述梯度伸缩因子以进行反向传播;以及第二计算单元430,配置为在使用优化器将所述梯度值更新到所述神经网络模型对应的参数之前,将所述梯度值乘以所述梯度伸缩因子的倒数。
根据一些实施例,如图5所示,还提供了一种联邦学习模型训练装置500,包括:初始化单元510,配置为初始化梯度伸缩因子和梯度伸缩因子的倒数;加密单元520,配置为将梯度伸缩因子和梯度伸缩因子的倒数通过加密算法进行加密;第一计算单元530,配置为在联邦学习的至少一个神经网络模型反向传播开始之前,将所述反向传播的梯度值乘以所述加密后的梯度伸缩因子以进行反向传播;以及第二计算单元540,配置为在使用优化器将所述梯度值更新到所述神经网络模型对应的参数之前,将所述梯度值乘以所述加密后的梯度伸缩因子的倒数。
在示例中,所述加密算法与所述联邦学习模型训练所应用的加密算法相同。
根据一些实施例,所述梯度伸缩因子至少大于1。
根据一些实施例,所述加密算法包括以下中的一个:同态加密算法、秘密分片技术。
根据一些实施例,所述至少一个神经网络模型至少为三层网络模型。
这里,联邦学习模型训练装置400的上述各单元410~430的操作分别与前面描述的步骤210~230的操作类似,在此不再赘述。
根据本公开的实施例,还提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行联邦学习模型训练方法。
根据本公开的实施例,还提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行联邦学习模型训练方法。
根据本公开的实施例,还提供了一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被处理器执行时实现联邦学习模型训练方法。
参考图6,现将描述可以作为本公开的服务器或客户端的电子设备600的结构框图,其是可以应用于本公开的各方面的硬件设备的示例。电子设备旨在表示各种形式的数字电子的计算机设备,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606、输出单元607、存储单元608以及通信单元609。输入单元606可以是能向设备600输入信息的任何类型的设备,输入单元606可以接收输入的数字或字符信息,以及产生与电子设备的用户设置和/或功能控制有关的键信号输入,并且可以包括但不限于鼠标、键盘、触摸屏、轨迹板、轨迹球、操作杆、麦克风和/或遥控器。输出单元607可以是能呈现信息的任何类型的设备,并且可以包括但不限于显示器、扬声器、视频/音频输出终端、振动器和/或打印机。存储单元608可以包括但不限于磁盘、光盘。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据,并且可以包括但不限于调制解调器、网卡、红外通信设备、无线通信收发机和/或芯片组,例如蓝牙TM设备、1302.11设备、WiFi设备、WiMax设备、蜂窝通信设备和/或类似物。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如方法200。例如,在一些实施例中,方法200可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM603并由计算单元601执行时,可以执行上文描述的方法200的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法200。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行、也可以顺序地或以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
虽然已经参照附图描述了本公开的实施例或示例,但应理解,上述的方法、系统和设备仅仅是示例性的实施例或示例,本发明的范围并不由这些实施例或示例限制,而是仅由授权后的权利要求书及其等同范围来限定。实施例或示例中的各种要素可以被省略或者可由其等同要素替代。此外,可以通过不同于本公开中描述的次序来执行各步骤。进一步地,可以以各种方式组合实施例或示例中的各种要素。重要的是随着技术的演进,在此描述的很多要素可以由本公开之后出现的等同要素进行替换。

Claims (10)

1.一种用于广告推荐的联邦学习模型训练方法,包括:
初始化梯度伸缩因子和所述梯度伸缩因子的倒数,其中所述梯度伸缩因子至少大于1;
将多个数据合作方之间共同的用户样本的行为数据以及该用户样本是否点击广告的标签数据输入至少一个神经网络模型中,以获得用户是否点击广告的预测值;
在联邦学习的至少一个神经网络模型反向传播开始之前,将所述反向传播的梯度值乘以所述梯度伸缩因子以进行反向传播,其中所述梯度值基于所述用户是否点击广告的预测值与输入的该用户样本是否点击广告的标签数据之间的差距确定;以及
在使用优化器将所述梯度值更新到所述神经网络模型对应的参数之前,将所述梯度值乘以所述梯度伸缩因子的倒数。
2.根据权利要求1所述的方法,还包括:
在反向传播开始之前,将所述梯度伸缩因子和所述梯度伸缩因子的倒数通过加密算法进行加密,以使得将所述反向传播的梯度值乘以所述加密后的梯度伸缩因子进行反向传播,并在将所述梯度值更新到所述神经网络模型对应的参数之前,将所述梯度值乘以所述加密后的梯度伸缩因子的倒数,
其中,所述加密算法与所述联邦学习模型训练所应用的加密算法相同。
3.根据权利要求2所述的方法,其中,所述加密算法包括以下中的一个:同态加密算法、秘密分片技术。
4.根据权利要求1所述的方法,其中,所述至少一个神经网络模型至少为三层网络模型。
5.一种用于广告推荐的联邦学习模型训练装置,包括:
初始化单元,配置为初始化梯度伸缩因子和所述梯度伸缩因子的倒数,其中所述梯度伸缩因子至少大于1;
用于将多个数据合作方之间共同的用户样本的行为数据以及该用户样本是否点击广告的标签数据输入至少一个神经网络模型中、以获得用户是否点击广告的预测值的单元;
第一计算单元,配置为在联邦学习的至少一个神经网络模型反向传播开始之前,将所述反向传播的梯度值乘以所述梯度伸缩因子以进行反向传播,其中所述梯度值基于所述用户是否点击广告的预测值与输入的该用户样本是否点击广告的标签数据之间的差距确定;以及
第二计算单元,配置为在使用优化器将所述梯度值更新到所述神经网络模型对应的参数之前,将所述梯度值乘以所述梯度伸缩因子的倒数。
6.根据权利要求5所述的装置,还包括加密单元,配置为:
在反向传播开始之前,将所述梯度伸缩因子和所述梯度伸缩因子的倒数通过加密算法进行加密,以使得将所述反向传播的梯度值乘以所述加密后的梯度伸缩因子进行反向传播,并在将所述梯度值更新到所述神经网络模型对应的参数之前,将所述梯度值乘以所述加密后的梯度伸缩因子的倒数,
其中,所述加密算法与所述联邦学习模型训练所应用的加密算法相同。
7.根据权利要求6所述的装置,其中,所述加密算法包括以下中的一个:同态加密算法、秘密分片技术。
8.根据权利要求5所述的装置,其中,所述至少一个神经网络模型至少为三层网络模型。
9.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-4中任一项所述的方法。
CN202011487362.XA 2020-12-16 2020-12-16 联邦学习模型训练方法和装置、电子设备、介质和产品 Active CN112598127B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011487362.XA CN112598127B (zh) 2020-12-16 2020-12-16 联邦学习模型训练方法和装置、电子设备、介质和产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011487362.XA CN112598127B (zh) 2020-12-16 2020-12-16 联邦学习模型训练方法和装置、电子设备、介质和产品

Publications (2)

Publication Number Publication Date
CN112598127A CN112598127A (zh) 2021-04-02
CN112598127B true CN112598127B (zh) 2023-07-25

Family

ID=75196575

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011487362.XA Active CN112598127B (zh) 2020-12-16 2020-12-16 联邦学习模型训练方法和装置、电子设备、介质和产品

Country Status (1)

Country Link
CN (1) CN112598127B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114125070B (zh) * 2021-11-10 2023-06-13 深圳大学 一种量化压缩的通信方法、系统、电子装置及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110110229A (zh) * 2019-04-25 2019-08-09 深圳前海微众银行股份有限公司 一种信息推荐方法及装置
CN111079977A (zh) * 2019-11-18 2020-04-28 中国矿业大学 基于svd算法的异构联邦学习矿井电磁辐射趋势跟踪方法
CN111507481A (zh) * 2020-04-17 2020-08-07 腾讯科技(深圳)有限公司 一种联邦学习系统
CN111553483A (zh) * 2020-04-30 2020-08-18 同盾控股有限公司 基于梯度压缩的联邦学习的方法、装置及系统
CN111768008A (zh) * 2020-06-30 2020-10-13 平安科技(深圳)有限公司 联邦学习方法、装置、设备和存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190103088A (ko) * 2019-08-15 2019-09-04 엘지전자 주식회사 연합학습을 통한 단말의 명함을 인식하는 방법 및 이를 위한 장치
US10924460B2 (en) * 2019-12-13 2021-02-16 TripleBlind, Inc. Systems and methods for dividing filters in neural networks for private data computations

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110110229A (zh) * 2019-04-25 2019-08-09 深圳前海微众银行股份有限公司 一种信息推荐方法及装置
CN111079977A (zh) * 2019-11-18 2020-04-28 中国矿业大学 基于svd算法的异构联邦学习矿井电磁辐射趋势跟踪方法
CN111507481A (zh) * 2020-04-17 2020-08-07 腾讯科技(深圳)有限公司 一种联邦学习系统
CN111553483A (zh) * 2020-04-30 2020-08-18 同盾控股有限公司 基于梯度压缩的联邦学习的方法、装置及系统
CN111768008A (zh) * 2020-06-30 2020-10-13 平安科技(深圳)有限公司 联邦学习方法、装置、设备和存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
联邦学习模型在涉密数据处理中的应用;贾延延;张昭;冯键;王春凯;;中国电子科学研究院学报(第01期);47-53 *

Also Published As

Publication number Publication date
CN112598127A (zh) 2021-04-02

Similar Documents

Publication Publication Date Title
US10855455B2 (en) Distributed multi-party security model training framework for privacy protection
US10600006B1 (en) Logistic regression modeling scheme using secrete sharing
WO2022089256A1 (zh) 联邦神经网络模型的训练方法、装置、设备、计算机程序产品及计算机可读存储介质
WO2021103901A1 (zh) 基于多方安全计算的神经网络模型训练及预测方法、装置
US11176469B2 (en) Model training methods, apparatuses, and systems
US11520899B2 (en) System and method for machine learning architecture with adversarial attack defense
KR20220041704A (ko) 특징 추출에 기반한 다중 모델 훈련 방법 및 시스템, 전자 장치 및 매체
CN113505882B (zh) 基于联邦神经网络模型的数据处理方法、相关设备及介质
CN113221183B (zh) 实现隐私保护的多方协同更新模型的方法、装置及系统
CN112132270B (zh) 基于隐私保护的神经网络模型训练方法、装置及系统
US11410081B2 (en) Machine learning with differently masked data in secure multi-party computing
Zhang et al. An efficient federated learning scheme with differential privacy in mobile edge computing
CN111144576A (zh) 模型训练方法、装置和电子设备
WO2023040429A1 (zh) 用于联邦特征工程的数据处理方法、装置、设备以及介质
CN114186256B (zh) 神经网络模型的训练方法、装置、设备和存储介质
CN111310204A (zh) 数据处理的方法及装置
CN114611008B (zh) 基于联邦学习的用户服务策略确定方法、装置及电子设备
CN106407381A (zh) 一种基于人工智能的推送信息的方法和装置
CN111475838A (zh) 基于深度神经网络的图数据匿名方法、装置、存储介质
CN114036398A (zh) 内容推荐和排序模型训练方法、装置、设备以及存储介质
US20220269952A1 (en) Method of training prediction model, prediction method, electronic device and medium
CN115150063A (zh) 模型加密的方法、装置及电子设备
CN112598127B (zh) 联邦学习模型训练方法和装置、电子设备、介质和产品
CN114978484A (zh) 用于保护隐私的数据处理方法、装置和计算机设备
CN112511361B (zh) 模型训练方法、装置和计算设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant