CN113378198B - 一种保护用户标识的模型的联邦训练系统、方法及装置 - Google Patents
一种保护用户标识的模型的联邦训练系统、方法及装置 Download PDFInfo
- Publication number
- CN113378198B CN113378198B CN202110705937.9A CN202110705937A CN113378198B CN 113378198 B CN113378198 B CN 113378198B CN 202110705937 A CN202110705937 A CN 202110705937A CN 113378198 B CN113378198 B CN 113378198B
- Authority
- CN
- China
- Prior art keywords
- sample
- gradient
- training
- user information
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 424
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000012544 monitoring process Methods 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 42
- 238000012806 monitoring device Methods 0.000 claims description 38
- 238000004364 calculation method Methods 0.000 claims description 28
- 238000004891 communication Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 14
- 230000000694 effects Effects 0.000 abstract description 5
- 239000000047 product Substances 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 239000003999 initiator Substances 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 238000007477 logistic regression Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 239000013065 commercial product Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Bioethics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明实施例提供了一种保护用户标识的模型的联邦训练系统、方法及装置,系统包括第一训练设备、第二训练设备以及监管设备,第一训练设备获取第一用户信息样本,将真实样本的数量发送监管设备,第一用户信息样本包括真实样本和混淆样本;将混淆样本在加密前向梯度中对应的值设置为0,得到调整后的加密前向梯度;第二训练设备根据调整后的加密前向梯度计算第二样本梯度;监管设备基于真实样本的数量、计算得到第一调整梯度和第二调整梯度;按照第一调整梯度调整第一模型参数;按照第二调整梯度调整第二模型参数。在真实样本中加入混淆样本,将混淆样本在加密前向梯度中的值设置为0,实现不影响模型训练效果的同时,提高用户信息安全性的目的。
Description
技术领域
本发明涉及模型训练技术领域,特别是涉及一种保护用户标识的模型的联邦训练系统、方法及装置。
背景技术
模型的联邦训练即为两个数据提供方利用自身具备的数据共同对模型训练的模型训练方式,其应用非常广泛。例如,在银行、保险等金融机构与外部数据合作方进行模型的联邦训练等。
在模型的联邦训练过程中,首先两个数据提供方之间要根据样本标识进行样本的对齐,再基于对齐的样本开展模型训练。现有的方式是模型训练发起方和外部数据合作方通过隐私保护求交技术(Private Set Intersection)进行样本标识的对齐,进而实现样本的对齐,这种方式外部数据合作方会得到交集的样本标识,造成模型训练发起方的样本标识信息泄漏。
由于样本标识一般均是用户的一些比较隐私的信息,例如,银行或保险等金融机构中样本标识一般是客户的身份证或手机号等隐私信息。那么便可能存在用户信息被泄露的风险。
发明内容
本发明实施例的目的在于提供一种保护用户标识的联邦模型训练系统、方法及装置,以在不影响模型训练效果的同时,提高用户信息的安全性。具体技术方案如下:
第一方面,本发明实施例提供了一种保护用户标识的模型的联邦训练系统,所述系统包括第一训练设备、第二训练设备以及监管设备,其中:
所述第一训练设备,用于获取第一用户信息样本,将所述第一用户信息样本的样本标识发送至所述第二训练设备,并将真实样本的数量发送所述监管设备,其中,所述第一用户信息样本包括所述真实样本和混淆样本,所述样本标识为用户身份信息;
所述第二训练设备,用于在接收到所述样本标识后,基于所述样本标识进行样本对齐,得到每个所述第一用户信息样本对应的第二用户信息样本;基于当前自身模型部分的第二模型参数以及目标公钥计算第二用户信息样本对应的第二加密值,并将所述第二加密值发送至所述第一训练设备;
所述第一训练设备,还用于基于当前自身模型部分的第一模型参数以及所述目标公钥计算第一用户信息样本对应的第一加密值,基于所述第一加密值和所述第二加密值计算得到加密前向梯度,并将所述混淆样本在所述加密前向梯度中对应的值设置为0,得到调整后的加密前向梯度;根据所述调整后的加密前向梯度计算所述第一用户信息样本对应的第一样本梯度,并将所述加密前向梯度发送至所述第二训练设备,将所述第一样本梯度发送至所述监管设备;
所述第二训练设备,还用于根据所述调整后的加密前向梯度计算所述第二用户信息样本对应的第二样本梯度,并将所述第二样本梯度发送至所述监管设备;
所述监管设备,还用于基于所述真实样本的数量、预设学习率以及所述第一样本梯度,计算得到第一调整梯度,基于所述真实样本的数量、所述预设学习率以及所述第二样本梯度,计算得到第二调整梯度,将所述第一调整梯度和所述第二样本梯度分别发送至所述第一训练设备和所述第二训练设备;
所述第一训练设备,还用于按照所述第一调整梯度调整所述第一模型参数;
所述第二训练设备,还用于按照所述第二调整梯度调整所述第二模型参数。
可选的,所述第一训练设备,还用于基于所述第一用户信息样本对应的标签,计算预设损失函数的加密值,将所述预设损失函数的加密值发送至所述监管设备;
所述监管设备,还用于对所述加密值进行解密,得到所述预设损失函数的值,并基于所述预设损失函数的值,确定模型是否收敛,如果未收敛,发送继续训练指令至所述第一训练设备及所述第二训练设备;
所述第一训练设备,还用于在接收到所述继续训练指令后,返回执行基于当前自身模型部分的第一模型参数以及目标公钥计算第一用户信息样本对应的第一加密值,直到所述模型收敛;
所述第二训练设备,还用于在接收到所述继续训练指令后,返回执行基于当前自身模型部分的第二模型参数以及所述目标公钥计算第二用户信息样本对应的第二加密值,直到所述模型收敛。
可选的,所述监管设备,还用于如果所述模型收敛,发送停止训练指令至所述第一训练设备及所述第二训练设备;
所述第一训练设备,还用于在接收到所述停止训练指令后,停止训练;
所述第二训练设备,还用于在接收到所述停止训练指令后,停止训练。
可选的,所述监管设备,还用于在接收到所述真实样本的数量后,生成所述目标公钥和目标私钥,并将所述目标公钥分别发送至所述第一训练设备和所述第二训练设备。
可选的,所述监管设备,具体用于基于所述目标私钥对所述第一样本梯度及所述第一样本梯度进行解密,得到解密后的第一样本梯度及解密后的第二样本梯度;基于所述真实样本的数量、预设学习率以及所述解密后的第一样本梯度,计算得到第一调整梯度,基于所述真实样本的数量、所述预设学习率以及所述解密后的第二样本梯度,计算得到第二调整梯度。
第二方面,本发明实施例提供了一种保护用户标识的模型的联邦训练方法,应用于保护用户标识的模型的联邦训练系统中的第一训练设备,所述系统还包括第二训练设备以及监管设备,所述方法包括:
获取第一用户信息样本,将真实样本的数量发送所述监管设备,并将所述第一用户信息样本的样本标识发送至所述第二训练设备,以使所述第二训练设备在接收到所述样本标识后,基于所述样本标识进行样本对齐,得到每个所述第一用户信息样本对应的第二用户信息样本,并基于当前自身模型部分的第二模型参数以及目标公钥计算第二用户信息样本对应的第二加密值,将所述第二加密值发送至所述第一训练设备,其中,所述第一用户信息样本包括所述真实样本和混淆样本,所述样本标识为用户身份信息;
基于当前自身模型部分的第一模型参数以及所述目标公钥计算第一用户信息样本对应的第一加密值;
基于所述第一加密值和所述第二加密值计算得到加密前向梯度,并将所述混淆样本在所述加密前向梯度中对应的值设置为0,得到调整后的加密前向梯度;
根据所述调整后的加密前向梯度计算所述第一用户信息样本对应的第一样本梯度,并将所述加密前向梯度发送至所述第二训练设备,以使第二训练设备根据所述调整后的加密前向梯度计算所述第二用户信息样本对应的第二样本梯度,并将所述第二样本梯度发送至所述监管设备;
将所述第一样本梯度发送至所述监管设备,以使所述监管设备基于所述真实样本的数量、预设学习率以及所述第一样本梯度,计算得到第一调整梯度,基于所述真实样本的数量、所述预设学习率以及所述第二样本梯度,计算得到第二调整梯度,将所述第一调整梯度和所述第二样本梯度分别发送至所述第一训练设备和所述第二训练设备,以使所述第二训练设备按照所述第二调整梯度调整所述第二模型参数;
接收所述第一调整梯度,并按照所述第一调整梯度调整所述第一模型参数。
可选的,所述方法还包括:
基于所述第一用户信息样本对应的标签,计算预设损失函数的加密值,将所述预设损失函数的加密值发送至所述监管设备,以使所述监管设备对所述加密值进行解密,得到所述预设损失函数的值,并基于所述预设损失函数的值,确定模型是否收敛,如果未收敛,发送继续训练指令至所述第一训练设备及所述第二训练设备,以使所述第二训练设备在接收到所述继续训练指令后,返回执行基于当前自身模型部分的第二模型参数以及目标公钥计算第二用户信息样本对应的第二加密值,直到所述模型收敛;
在接收到所述继续训练指令后,返回执行基于当前自身模型部分的第一模型参数以及所述目标公钥计算第一用户信息样本对应的第一加密值,直到所述模型收敛。
第三方面,本发明实施例提供了一种保护用户标识的模型的联邦训练装置,应用于保护用户标识的模型的联邦训练系统中的第一训练设备,所述系统还包括第二训练设备以及监管设备,所述装置包括:
样本对齐模块,用于获取第一用户信息样本,将真实样本的数量发送所述监管设备,并将所述第一用户信息样本的样本标识发送至所述第二训练设备,以使所述第二训练设备在接收到所述样本标识后,基于所述样本标识进行样本对齐,得到每个所述第一用户信息样本对应的第二用户信息样本,并基于当前自身模型部分的第二模型参数以及目标公钥计算第二用户信息样本对应的第二加密值,将所述第二加密值发送至所述第一训练设备,其中,所述第一用户信息样本包括所述真实样本和混淆样本,所述样本标识为用户身份信息;
加密值计算模块,用于基于当前自身模型部分的第一模型参数以及所述目标公钥计算第一用户信息样本对应的第一加密值;
前向梯度计算模块,用于基于所述第一加密值和所述第二加密值计算得到加密前向梯度,并将所述混淆样本在所述加密前向梯度中对应的值设置为0,得到调整后的加密前向梯度;
样本梯度计算模块,用于根据所述调整后的加密前向梯度计算所述第一用户信息样本对应的第一样本梯度,并将所述加密前向梯度发送至所述第二训练设备,以使第二训练设备根据所述调整后的加密前向梯度计算所述第二用户信息样本对应的第二样本梯度,并将所述第二样本梯度发送至所述监管设备;
调整梯度确定模块,用于将所述第一样本梯度发送至所述监管设备,以使所述监管设备基于所述真实样本的数量、预设学习率以及所述第一样本梯度,计算得到第一调整梯度,基于所述真实样本的数量、所述预设学习率以及所述第二样本梯度,计算得到第二调整梯度,将所述第一调整梯度和所述第二样本梯度分别发送至所述第一训练设备和所述第二训练设备,以使所述第二训练设备按照所述第二调整梯度调整所述第二模型参数;
参数调整模块,用于接收所述第一调整梯度,并按照所述第一调整梯度调整所述第一模型参数。
第四方面,本发明实施例提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述第二方面所述的方法步骤。
第五方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述第二方面所述的方法步骤。
本发明实施例有益效果:
本发明实施例提供的方案中,模型的联邦训练系统中的第一训练设备获取第一用户信息样本,将第一用户信息样本的样本标识发送至第二训练设备,并将真实样本的数量所述监管设备,其中,第一用户信息样本包括真实样本和混淆样本,样本标识为用户身份信息;第二训练设备在接收到样本标识后,基于样本标识进行样本对齐,得到每个第一用户信息样本对应的第二用户信息样本;基于当前自身模型部分的第二模型参数以及目标公钥计算第二用户信息样本对应的第二加密值,并将第二加密值发送至第一训练设备;第一训练设备基于当前自身模型部分的第一模型参数以及目标公钥计算第一用户信息样本对应的第一加密值,基于第一加密值和第二加密值计算得到加密前向梯度,并将混淆样本在加密前向梯度中对应的值设置为0,得到调整后的加密前向梯度;根据调整后的加密前向梯度计算第一用户信息样本对应的第一样本梯度,并将加密前向梯度发送至第二训练设备,将第一样本梯度发送至监管设备;第二训练设备根据调整后的加密前向梯度计算第二用户信息样本对应的第二样本梯度,并将第二样本梯度发送至监管设备;监管设备基于真实样本的数量、预设学习率以及第一样本梯度,计算得到第一调整梯度,基于真实样本的数量、预设学习率以及第二样本梯度,计算得到第二调整梯度,将第一调整梯度和第二样本梯度分别发送至第一训练设备和第二训练设备;进而,第一训练设备按照第一调整梯度调整所述第一模型参数;第二训练设备按照第二调整梯度调整第二模型参数。
由于第一训练设备在真实样本中加入了混淆样本,这样第二训练设备在基于样本标识进行样本对齐时并不能知晓哪些是真实样本,哪些是混淆样本,保护了用户隐私,提高用户信息的安全性,同时,由于第一训练设备将混淆样本在加密前向梯度中对应的值设置为0,消除了混淆样本对于计算加密前向梯度的影响,监管设备基于真实样本的数量计算得到第一调整梯度和第二调整梯度,消除了混淆样本对于计算第一调整梯度和第二调整梯度的影响,从而保证了模型训练的准确性,实现了不影响模型训练效果的同时,提高用户信息的安全性的目的。当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明实施例所提供的一种保护用户标识的模型的联邦训练系统的结构示意图;
图2为基于图1所示实施例的模型联邦训练方式的一种信令交互图;
图3为本发明实施例所提供的一种保护用户标识的模型的联邦训练方法的流程图;
图4为基于图3所示实施例的模型收敛的确定方式的一种流程图;
图5为本发明实施例所提供的一种保护用户标识的模型的联邦训练装置的结构示意图;
图6为本发明实施例所提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。本领域普通技术人员基于本发明所获得的所有其他实施例,都属于本发明保护的范围。
在模型的联邦训练系统中,通常所存储的数据具有标签的一方作为发起方会主动发起模型训练任务,另一方作为数据提供方补充数据维度。例如,银行通常是具有标签的一方,可以主动发起模型训练任务,数据源机构可以作为数据提供方,提供更多维度的数据参与模型训练。
在模型的联邦训练过程中,数据提供方和发起方需要进行样本对齐,发起方需要将样本的样本标识发送给数据提供方,由于样本标识一般均是用户的一些比较隐私的信息,例如,银行或保险等金融机构中样本标识一般是客户的身份证或手机号等隐私信息,那么便可能存在用户信息被泄露的风险。
为了解决该问题,本发明实施例提供了一种保护用户标识的模型的联邦训练系统、方法、装置、电子设备、计算机可读存储介质以及计算机程序产品。下面首先对本发明实施例所提供的一种保护用户标识的模型的联邦训练系统进行介绍。
如图1所示,一种保护用户标识的模型的联邦训练系统,所述系统包括第一训练设备110、第二训练设备120以及监管设备130,其中:
所述第一训练设备110,用于获取第一用户信息样本,将所述第一用户信息样本的样本标识发送至所述第二训练设备,并将真实样本的数量发送所述监管设备130;
其中,所述第一用户信息样本包括所述真实样本和混淆样本,所述样本标识为用户身份信息。
所述第二训练设备120,用于在接收到所述样本标识后,基于所述样本标识进行样本对齐,得到每个所述第一用户信息样本对应的第二用户信息样本;基于当前自身模型部分的第二模型参数以及目标公钥计算第二用户信息样本对应的第二加密值,并将所述第二加密值发送至所述第一训练设备110;
所述第一训练设备110,还用于基于当前自身模型部分的第一模型参数以及所述目标公钥计算第一用户信息样本对应的第一加密值,基于所述第一加密值和所述第二加密值计算得到加密前向梯度,并将所述混淆样本在所述加密前向梯度中对应的值设置为0,得到调整后的加密前向梯度;根据所述调整后的加密前向梯度计算所述第一用户信息样本对应的第一样本梯度,并将所述加密前向梯度发送至所述第二训练设备120,将所述第一样本梯度发送至所述监管设备130;
所述第二训练设备120,还用于根据所述调整后的加密前向梯度计算所述第二用户信息样本对应的第二样本梯度,并将所述第二样本梯度发送至所述监管设备130;
所述监管设备130,还用于基于所述真实样本的数量、预设学习率以及所述第一样本梯度,计算得到第一调整梯度,基于所述真实样本的数量、所述预设学习率以及所述第二样本梯度,计算得到第二调整梯度,将所述第一调整梯度和所述第二样本梯度分别发送至所述第一训练设备110和所述第二训练设备120;
所述第一训练设备110,还用于按照所述第一调整梯度调整所述第一模型参数;
所述第二训练设备120,还用于按照所述第二调整梯度调整所述第二模型参数。
可见,本发明实施例提供的方案中,模型的联邦训练系统中的第一训练设备获取第一用户信息样本,将第一用户信息样本的样本标识发送至第二训练设备,并将真实样本的数量所述监管设备,其中,第一用户信息样本包括真实样本和混淆样本,样本标识为用户身份信息;第二训练设备在接收到样本标识后,基于样本标识进行样本对齐,得到每个第一用户信息样本对应的第二用户信息样本;基于当前自身模型部分的第二模型参数以及目标公钥计算第二用户信息样本对应的第二加密值,并将第二加密值发送至第一训练设备;第一训练设备基于当前自身模型部分的第一模型参数以及目标公钥计算第一用户信息样本对应的第一加密值,基于第一加密值和第二加密值计算得到加密前向梯度,并将混淆样本在加密前向梯度中对应的值设置为0,得到调整后的加密前向梯度;根据调整后的加密前向梯度计算第一用户信息样本对应的第一样本梯度,并将加密前向梯度发送至第二训练设备,将第一样本梯度发送至监管设备;第二训练设备根据调整后的加密前向梯度计算第二用户信息样本对应的第二样本梯度,并将第二样本梯度发送至监管设备;监管设备基于真实样本的数量、预设学习率以及第一样本梯度,计算得到第一调整梯度,基于真实样本的数量、预设学习率以及第二样本梯度,计算得到第二调整梯度,将第一调整梯度和第二样本梯度分别发送至第一训练设备和第二训练设备;进而,第一训练设备按照第一调整梯度调整所述第一模型参数;第二训练设备按照第二调整梯度调整第二模型参数。
由于第一训练设备在真实样本中加入了混淆样本,这样第二训练设备在基于样本标识进行样本对齐时并不能知晓哪些是真实样本,哪些是混淆样本,保护了用户隐私,提高用户信息的安全性,同时,由于第一训练设备将混淆样本在加密前向梯度中对应的值设置为0,消除了混淆样本对于计算加密前向梯度的影响,监管设备基于真实样本的数量计算得到第一调整梯度和第二调整梯度,消除了混淆样本对于计算第一调整梯度和第二调整梯度的影响,从而保证了模型训练的准确性,实现了不影响模型训练效果的同时,提高用户信息的安全性的目的。
上述第一训练设备即为上述发起方所对应的设备,第二训练设备即为上述数据提供方所对应的设备。第一训练设备存储有具有标签的用户信息,第二训练设备存储有不同于该用户信息的其他维度的数据。例如,银行和电商平台合作进行模型的联邦训练,银行所对应的第一训练设备中存储的用户信息可以如下表所示:
用户身份信息 | 业务 | 存款类型 | 信用卡类型 | 标签 |
用户身份信息1 | 业务A | 定期 | 类型a | 标签1 |
用户身份信息2 | 业务B | 活期 | 类型b | 标签2 |
… | … | … | … | … |
用户身份信息200 | 业务N | 定期 | 类型n | 标签200 |
电商平台对应的第二训练设备中存储的用户信息可以如下表所示:
用户身份信息 | 购买商品 | 商品类型 |
用户身份信息1 | 商品S1 | 日用品 |
用户身份信息2 | 商品S2 | 服饰 |
… | … | … |
用户身份信息150 | 商品S150 | 书籍 |
在需要进行模型的联邦训练时,第一训练设备可以获取第一用户信息样本,并将第一用户信息样本的样本标识发送至第二训练设备,其中,第一用户信息样本可以包括真实样本和混淆样本。真实样本即为参与模型训练的用户信息样本,混淆样本则为实际上并不参与模型训练的用户信息样本。样本标识可以为用户身份信息。
例如,第一训练设备可以获取上表中的样本标识为用户身份信息1-用户身份信息100的100个用户信息作为真实样本,同时加入样本标识为用户身份信息101-用户身份信息120的20个用户信息作为混淆样本。进而,可以将样本标识:用户身份信息1-用户身份信息120发送至第二训练设备。
在进行模型的联邦训练时,可以采用线性回归算法、逻辑回归算法、泊松回归算法等,在此不做具体限定。
第二训练设备接收到上述第一用户信息样本的样本标识后,可以基于样本标识进行样本对齐,得到每个第一用户信息样本对应的第二用户信息样本。其中,样本对齐即为将样本标识相同的用户信息进行关联。由于第一用户信息样本包括混淆样本,所以第二用户信息样本中也是包括实际不需要参与模型训练的样本的,但是第二训练设备并不知晓哪些是混淆样本。
例如,电商平台对应的第二训练设备接收到第一训练设备发送的样本标识:用户身份信息1-用户身份信息120后,可以按照样本标识进行样本对齐,得到每个第一用户信息样本对应的第二用户信息样本,如下:
其中,样本标识为用户身份信息101-用户身份信息120的第一用户信息样本是不需要参与模型训练的混淆样本,所以其对应的第二用户信息样本也是不需要参与模型训练的,但是第二训练设备并不知晓哪些样本是参与模型训练的,哪些样本是不参与模型训练的,起到了保护用户隐私,提高用户信息的安全性的作用。
确定了上述第二用户信息样本后,第二训练设备可以基于当前自身模型部分的第二模型参数以及目标公钥计算第二用户信息样本对应的第二加密值。得到上述第二加密值后,第二训练设备可以将第二加密值发送至第一训练设备。其中,该目标公钥可以为监管设备生成并发送至第二训练设备的。
第二训练设备的当前自身模型部分的第二模型参数即为当前时刻第二训练设备所存在的第二用户信息样本对应的权重,每迭代训练一次,该权重均会进行调整,如果当前为第一次迭代,那么第二模型参数即为默认参数。
在一种实施方式中,第二训练设备可以计算当前自身模型部分的第二模型参数与第二用户信息样本的乘积,进而采用目标公钥对该乘积进行加密,得到第二用户信息样本对应的第二加密值。
例如,第二训练设备可以计算进而采用目标公钥uB进行加密,得到第二用户信息样本对应的第二加密值[[uB]]。其中,为第i个第二用户信息样本,为第i个第二用户信息样本对应的权重,i∈D,D为第二用户信息样本的数量。
第一训练设备在获取第一用户信息样本后,可以基于当前自身模型部分的第一模型参数以及目标公钥计算第一用户信息样本对应的第一加密值。第一训练设备的当前自身模型部分的第一模型参数即为当前时刻第一训练设备所存在的第一用户信息样本对应的权重,每迭代训练一次,该权重均会进行调整,如果当前为第一次迭代,那么第一模型参数即为默认参数。
在一种实施方式中,第一训练设备可以计算当前自身模型部分的第一模型参数与第一用户信息样本的乘积,然后将该乘积与预先获取的截距项相加,进而采用目标公钥对得到的加和进行加密,得到第一用户信息样本对应的第一加密值。其中,截距项可以实际采用的训练算法确定,在此不做具体限定。
例如,第一训练设备可以计算进而采用目标公钥uA进行加密,得到第一用户信息样本对应的第一加密值[[uA]]。其中,为第i个第一用户信息样本,为第i个第一用户信息样本对应的权重,i∈D,D为第一用户信息样本的数量,与第二用户信息样本的数量相同。
第一训练设备接收到第二训练设备发送的第二加密值后,可以基于第一加密值和第二加密值计算得到加密前向梯度。作为一种实施方式,第一训练设备可以将第一加密值和第二加密值进行加和得到和值,然后基于该和值以及第一用户信息样本对应的标签计算得到加密前向梯度。
例如,在纵向逻辑回归算法中,第一训练设备可以按照以下公式计算得到加密前向梯度:
[[gradforward]]=[[0.25([[uA]]+[[uB]])-0.5ytabel]]
其中,[[gradforward]|即为加密前向梯度,ytabel为第一用户信息样本对应的标签。
由于[[uA]]包括了混淆样本对应的数据,所以会[[gradforward]]也会包括混淆样本对应值,如果基于该加密前向梯度进行模型参数调整,会影响模型的准确度,所以第一训练设备可以将混淆样本在加密前向梯度中对应的值设置为0,从而得到调整后的加密前向梯度。
由于将混淆样本在加密前向梯度中对应的值设置为0,所以得到调整后的加密前向梯度中也就不包括混淆样本对应值了,可以保证混淆样本不对模型参数调整造成影响,从而保证模型的准确度。
在一种实施方式中,如果用户信息是一些文字信息,无法直接参与计算,那么在发明中,可以将各个用户信息样本包括的各项用户信息转换成对应向量进行表示,方便进行计算。
如果前向梯度采用向量表示,那么第一训练设备可以将混淆样本在该向量中对应的元素设置为0,例如,前向梯度为一个120×1的列向量,其中,第101-120个第一用户信息样本为混淆样本,那么第一训练设备便可以将该列向量中的第101-120个元素设置为0。
得到调整后的加密前向梯度后,第一训练设备可以将调整后的加密前向梯度发送至第二训练设备,并且可以根据该调整后的加密前向梯度计算第一用户信息样本对应的第一样本梯度。得到该第一样本梯度后,第一训练设备可以将加密前向梯度发送至监管设备。
第二训练设备接收到调整后的加密前向梯度,可以根据调整后的加密前向梯度计算第二用户信息样本对应的第二样本梯度,并将第二样本梯度发送至监管设备。
监管设备接收到上述第一样本梯度和第二样本梯度后,可以基于上述真实样本的数量、预设学习率以及第一样本梯度,计算得到第一调整梯度。并基于真实样本的数量、预设学习率以及第二样本梯度,计算得到第二调整梯度。
作为一种实施方式,监管设备可以按照以下公式计算得到第一调整梯度:
同理的,监管设备可以按照以下公式计算得到第二调整梯度:
其中,ηgradA即为第一调整梯度,ηgradB即为第二调整梯度,n为真实样本的数量,η为预设学习率。
计算得到第一调整梯度和第二样本梯度后,监管设备可以将第一调整梯度发送至第一训练设备,并将第二样本梯度发送至第二训练设备。进而,第一训练设备可以按照该第一调整梯度调整第一模型参数,第二训练设备可以按照该第二调整梯度调整第二模型参数。
在一种实施方式中,第一训练设备可以按照公式wA=wA′-ηgradA调整第一模型参数;第二训练设备可以按照公式wB=wB′-ηgradB调整第二模型参数。其中,wA′为当前时刻的第一模型参数,wA为调整后的第一模型参数,wB′为当前时刻的第二模型参数,wB为调整后的第二模型参数。
按照上述方式进行迭代,直到模型收敛便可以完成联邦训练,得到可以应用于实际场景的模型。其中,该模型可以用于确定某项业务的目标用户、确定用户所喜好商品、确定某种商品的目标用户等,在此不做具体限定。
作为本发明实施例的一种实施方式,上述第一训练设备,还可以用于基于所述第一用户信息样本对应的标签,计算预设损失函数的加密值,将所述预设损失函数的加密值发送至所述监管设备。
为了确定当前模型是否收敛,第一训练设备可以基于第一用户信息样本对应的标签,计算预设损失函数的加密值。在一种实施方式中,为了方便第一训练设备确定预设损失函数的加密值,第二训练设备在发送第二加密值至第一训练设备的同时,还可以发送用于计算预设损失函数的值的第三加密值至第一训练设备。
在纵向逻辑回归算法中,第三加密值可以为上述uB的平方值的加密值,也就是说,第二训练设备可以计算uB 2,并采用目标公钥对其进行加密,得到第三加密值[[uB 2]]。进而第一训练设备便可以按照以下公式计算得到预设损失函数的加密值:
loss=log2-0.5ytabel[[uA+uB]]+0.125[[uA 2+uB 2+2uAuB]]
监管设备接收到上述预设损失函数的加密值后,可以对该加密值进行解密,得到解密后的预设损失函数的值,并基于预设损失函数的值,确定模型是否收敛。作为一种实施方式,如果该预设损失函数的值小于预设阈值,则可以认为模型已经收敛;如果该预设损失函数的值不小于预设阈值,则说明模型还未收敛,需要继续进行训练。
所以,如果模型未收敛,监管设备可以发送继续训练指令至第一训练设备及第二训练设备。第一训练设备在接收到该继续训练指令后,便可以返回执行上述基于当前自身模型部分的第一模型参数以及目标公钥计算第一用户信息样本对应的第一加密值的操作,直到模型收敛。
同样的,第二训练设备在接收到继续训练指令后,也可以返回执行上述基于当前自身模型部分的第二模型参数以及所述目标公钥计算第二用户信息样本对应的第二加密值的操作,与第一训练设备继续对模型进行联邦训练,直到模型收敛。
由于预设损失函数的值可能为一个加密值,所以在这种情况下,监控设备还可以对该预设损失函数的值进行解密,进而根据解密得到的数值确定模型是否收敛。
可见,在本实施例中,第一训练设备、第二训练设备以及监管设备可以互相配合以确定模型是否收敛,进而在模型未收敛的情况下,进行迭代训练,直到模型收敛,从而保证可以获得准确度高的模型。
作为本发明实施例的一种实施方式,上述监管设备还可以用于如果模型收敛,发送停止训练指令至第一训练设备及第二训练设备。如果模型已经收敛,那么说明该模型已经可以输出准确度足够高的结果,所以此时便不需要再继续进行训练了,那么监管设备则可以发送停止训练指令至第一训练设备及第二训练设备。
第一训练设备在接收到停止训练指令后,便可以停止训练。第二训练设备在接收到停止训练指令后,也可以停止训练。
可见,在本实施例中,在模型已经收敛的情况下,监管设备可以通过发送停止指令至第一训练设备及第二训练设备,来告知第一训练设备及第二训练设备模型已经收敛,从而结束模型的联邦训练,获得准确度高的模型。
作为本发明实施例的一种实施方式,上述监管设备还可以用于在接收到所述真实样本的数量后,生成所述目标公钥和目标私钥,并将所述目标公钥分别发送至所述第一训练设备和所述第二训练设备。
为了提高用户信息的安全性,监管设备在接收到第一训练设备发送的真实样本的数量后,可以生成目标公钥和目标私钥,并将目标公钥分别发送至第一训练设备和第二训练设备。
这样,第一训练设备、第二训练设备和监管设备之间便可以传输基于目标公钥进行加密的数据,以防止用户信息泄露。监管设备可以利用目标私钥对加密的数据进行解密,得到原始的明文数据,可以保证模型训练的准确性。
其中,监管设备生成目标公钥和目标私钥的具体方式可以为数据加密处理领域的任一秘钥生成方式,在此不做具体限定和说明。
可见,在本实施例中,监管设备可以在接收到真实样本的数量后,生成目标公钥和目标私钥,并将目标公钥分别发送至第一训练设备和第二训练设备。这样,可以避免用户信息在传输过程中泄露,进一步提高用户信息的安全性。
作为本发明实施例的一种实施方式,上述监管设备具体可以用于基于所述目标私钥对所述第一样本梯度及所述第一样本梯度进行解密,得到解密后的第一样本梯度及解密后的第二样本梯度;基于所述真实样本的数量、预设学习率以及所述解密后的第一样本梯度,计算得到第一调整梯度,基于所述真实样本的数量、所述预设学习率以及所述解密后的第二样本梯度,计算得到第二调整梯度。
由于第一调整梯度是第一训练设备基于加密前向梯度计算得到的,所以一般来说,第一调整梯度也是加密数据。同理的,第二调整梯度一般也是加密数据。
所以监管设备可以基于上述目标私钥对第一样本梯度及第一样本梯度进行解密,得到解密后的第一样本梯度及解密后的第二样本梯度,进而基于真实样本的数量、预设学习率以及解密后的第一样本梯度,计算得到第一调整梯度。并基于真实样本的数量、预设学习率以及解密后的第二样本梯度,计算得到第二调整梯度。
可见,在本实施例中,监管设备可以基于目标私钥对第一样本梯度及第一样本梯度进行解密,得到解密后的第一样本梯度及解密后的第二样本梯度,进而基于解密后的第一样本梯度,计算得到第一调整梯度,基于解密后的第二样本梯度,计算得到第二调整梯度。可以保证得到准确的第一调整梯度和第二调整梯度。
下面结合图2所示的保护用户标识的模型联邦训练过程中各设备的信令交互图,对基于本发明实施例所提供的保护用户标识的模型的联邦训练系统的训练方式进行举例介绍。如图2所示,保护用户标识的模型的联邦训练系统可以包括第一训练设备、第二训练设备以及监管设备,基于该模型的联邦训练系统的训练方式可以包括以下步骤:
S201,第一训练设备获取第一用户信息样本;
其中,第一用户信息样本包括真实样本和混淆样本,样本标识为用户身份信息。
S202,第一训练设备将第一用户信息样本的样本标识发送至第二训练设备;
S203,第一训练设备将真实样本的数量发送监管设备;
S204,第二训练设备基于样本标识进行样本对齐,得到每个第一用户信息样本对应的第二用户信息样本;
S205,监管设备生成目标公钥和目标私钥;
S206,监管设备将目标公钥分别发送至第一训练设备和第二训练设备;
S207,第一训练设备基于当前自身模型部分的第一模型参数以及目标公钥计算第一用户信息样本对应的第一加密值;
S208,第二训练设备基于当前自身模型部分的第二模型参数以及目标公钥计算第二用户信息样本对应的第二加密值;
S209,第二训练设备将第二加密值发送至第一训练设备;
S210,第一训练设备基于第一加密值和第二加密值计算得到加密前向梯度,并将混淆样本在加密前向梯度中对应的值设置为0,得到调整后的加密前向梯度,根据调整后的加密前向梯度计算第一用户信息样本对应的第一样本梯度;
S211,第一训练设备将加密前向梯度发送至第二训练设备;
S212,第一训练设备将第一样本梯度发送至监管设备;
S213,第二训练设备根据调整后的加密前向梯度计算第二用户信息样本对应的第二样本梯度;
S214,第二训练设备将第二样本梯度发送至监管设备;
S215,监管设备基于目标私钥对第一样本梯度及第一样本梯度进行解密,得到解密后的第一样本梯度及解密后的第二样本梯度;基于真实样本的数量、预设学习率以及解密后的第一样本梯度,计算得到第一调整梯度,基于真实样本的数量、预设学习率以及解密后的第二样本梯度,计算得到第二调整梯度;
S216,监管设备将第一调整梯度和第二样本梯度分别发送至第一训练设备和第二训练设备;
S217,第一训练设备按照第一调整梯度调整第一模型参数;基于第一用户信息样本对应的标签,计算预设损失函数的值;
S218,第一训练设备将预设损失函数的值发送至监管设备;
S219,第二训练设备按照第二调整梯度调整第二模型参数;
S220,监管设备基于预设损失函数的值,确定模型是否收敛;
S221,监管设备发送处理指令至第一训练设备及第二训练设备;
其中,处理指令可以为上述继续训练指令或停止训练指令。
S222,第一训练设备根据处理指令停止训练或继续进行训练;
S223,第二训练设备根据处理指令停止训练或继续进行训练。
可见,基于本发明实施例所提供的模型的联邦训练系统的训练方式中,由于第一训练设备在真实样本中加入了混淆样本,这样第二训练设备在基于样本标识进行样本对齐时并不能知晓哪些是真实样本,哪些是混淆样本,保护了用户隐私,提高用户信息的安全性,同时,由于第一训练设备将混淆样本在加密前向梯度中对应的值设置为0,消除了混淆样本对于计算加密前向梯度的影响,监管设备基于真实样本的数量计算得到第一调整梯度和第二调整梯度,消除了混淆样本对于计算第一调整梯度和第二调整梯度的影响,从而保证了模型训练的准确性,实现了不影响模型训练效果的同时,提高用户信息的安全性的目的。
相应于上述保护用户标识的模型的联邦训练系统,本发明实施例还提供了一种保护用户标识的模型的联邦训练方法,下面对本发明实施例所提供的一种保护用户标识的模型的联邦训练方法进行介绍。
如图3所示,一种保护用户标识的模型的联邦训练方法,应用于保护用户标识的模型的联邦训练系统中的第一训练设备,所述系统还包括第二训练设备以及监管设备,所述方法包括:
S301,获取第一用户信息样本,将真实样本的数量发送所述监管设备,并将所述第一用户信息样本的样本标识发送至所述第二训练设备,以使所述第二训练设备在接收到所述样本标识后,基于所述样本标识进行样本对齐,得到每个所述第一用户信息样本对应的第二用户信息样本,并基于当前自身模型部分的第二模型参数以及目标公钥计算第二用户信息样本对应的第二加密值,将所述第二加密值发送至所述第一训练设备;
其中,所述第一用户信息样本包括所述真实样本和混淆样本,所述样本标识为用户身份信息。
S302,基于当前自身模型部分的第一模型参数以及所述目标公钥计算第一用户信息样本对应的第一加密值;
S303,基于所述第一加密值和所述第二加密值计算得到加密前向梯度,并将所述混淆样本在所述加密前向梯度中对应的值设置为0,得到调整后的加密前向梯度;
S304,根据所述调整后的加密前向梯度计算所述第一用户信息样本对应的第一样本梯度,并将所述加密前向梯度发送至所述第二训练设备,以使第二训练设备根据所述调整后的加密前向梯度计算所述第二用户信息样本对应的第二样本梯度,并将所述第二样本梯度发送至所述监管设备;
S305,将所述第一样本梯度发送至所述监管设备,以使所述监管设备基于所述真实样本的数量、预设学习率以及所述第一样本梯度,计算得到第一调整梯度,基于所述真实样本的数量、所述预设学习率以及所述第二样本梯度,计算得到第二调整梯度,将所述第一调整梯度和所述第二样本梯度分别发送至所述第一训练设备和所述第二训练设备,以使所述第二训练设备按照所述第二调整梯度调整所述第二模型参数;
S306,接收所述第一调整梯度,并按照所述第一调整梯度调整所述第一模型参数。
可见,本发明实施例提供的方案中,由于第一训练设备在真实样本中加入了混淆样本,这样第二训练设备在基于样本标识进行样本对齐时并不能知晓哪些是真实样本,哪些是混淆样本,保护了用户隐私,提高用户信息的安全性,同时,由于第一训练设备将混淆样本在加密前向梯度中对应的值设置为0,消除了混淆样本对于计算加密前向梯度的影响,监管设备基于真实样本的数量计算得到第一调整梯度和第二调整梯度,消除了混淆样本对于计算第一调整梯度和第二调整梯度的影响,从而保证了模型训练的准确性,实现了不影响模型训练效果的同时,提高用户信息的安全性的目的。
作为本发明实施例的一种实施方式,如图4所示,上述方法还可以包括:
S401,基于第一用户信息样本对应的标签,计算预设损失函数的加密值,将预设损失函数的加密值发送至监管设备,以使监管设备对加密值进行解密,得到预设损失函数的值,并基于预设损失函数的值,确定模型是否收敛,如果未收敛,发送继续训练指令至所述第一训练设备及所述第二训练设备,以使所述第二训练设备在接收到所述继续训练指令后,返回执行基于当前自身模型部分的第二模型参数以及目标公钥计算第二用户信息样本对应的第二加密值,直到所述模型收敛;
S402,在接收到所述继续训练指令后,返回执行基于当前自身模型部分的第一模型参数以及所述目标公钥计算第一用户信息样本对应的第一加密值,直到所述模型收敛。
作为本发明实施例的一种实施方式,上述方法还可以包括:
在接收到停止训练指令后,停止训练。
其中,所述停止训练指令为所述监管设备在确定所述模型收敛时发送至所述第一训练设备的。
相应于上述保护用户标识的模型的联邦训练方法,本发明实施例还提供了一种保护用户标识的模型的联邦训练装置,下面对本发明实施例所提供的一种保护用户标识的模型的联邦训练装置进行介绍。
如图5所示,一种保护用户标识的模型的联邦训练装置,应用于保护用户标识的模型的联邦训练系统中的第一训练设备,所述系统还包括第二训练设备以及监管设备,所述装置包括:
样本对齐模块510,用于获取第一用户信息样本,将真实样本的数量发送所述监管设备,并将所述第一用户信息样本的样本标识发送至所述第二训练设备,以使所述第二训练设备在接收到所述样本标识后,基于所述样本标识进行样本对齐,得到每个所述第一用户信息样本对应的第二用户信息样本,并基于当前自身模型部分的第二模型参数以及目标公钥计算第二用户信息样本对应的第二加密值,将所述第二加密值发送至所述第一训练设备;
其中,所述第一用户信息样本包括所述真实样本和混淆样本,所述样本标识为用户身份信息。
加密值计算模块520,用于基于当前自身模型部分的第一模型参数以及所述目标公钥计算第一用户信息样本对应的第一加密值;
前向梯度计算模块530,用于基于所述第一加密值和所述第二加密值计算得到加密前向梯度,并将所述混淆样本在所述加密前向梯度中对应的值设置为0,得到调整后的加密前向梯度;
样本梯度计算模块540,用于根据所述调整后的加密前向梯度计算所述第一用户信息样本对应的第一样本梯度,并将所述加密前向梯度发送至所述第二训练设备,以使第二训练设备根据所述调整后的加密前向梯度计算所述第二用户信息样本对应的第二样本梯度,并将所述第二样本梯度发送至所述监管设备;
调整梯度确定模块550,用于将所述第一样本梯度发送至所述监管设备,以使所述监管设备基于所述真实样本的数量、预设学习率以及所述第一样本梯度,计算得到第一调整梯度,基于所述真实样本的数量、所述预设学习率以及所述第二样本梯度,计算得到第二调整梯度,将所述第一调整梯度和所述第二样本梯度分别发送至所述第一训练设备和所述第二训练设备,以使所述第二训练设备按照所述第二调整梯度调整所述第二模型参数;
参数调整模块560,用于接收所述第一调整梯度,并按照所述第一调整梯度调整所述第一模型参数。
可见,本发明实施例提供的方案中,由于第一训练设备在真实样本中加入了混淆样本,这样第二训练设备在基于样本标识进行样本对齐时并不能知晓哪些是真实样本,哪些是混淆样本,保护了用户隐私,提高用户信息的安全性,同时,由于第一训练设备将混淆样本在加密前向梯度中对应的值设置为0,消除了混淆样本对于计算加密前向梯度的影响,监管设备基于真实样本的数量计算得到第一调整梯度和第二调整梯度,消除了混淆样本对于计算第一调整梯度和第二调整梯度的影响,从而保证了模型训练的准确性,实现了不影响模型训练效果的同时,提高用户信息的安全性的目的。
作为本发明实施例的一种实施方式,上述装置还可以包括:
损失函数计算模块,用于基于所述第一用户信息样本对应的标签,计算预设损失函数的加密值,将所述预设损失函数的加密值发送至所述监管设备,以使所述监管设备对所述加密值进行解密,得到所述预设损失函数的值,并基于所述预设损失函数的值,确定模型是否收敛,如果未收敛,发送继续训练指令至所述第一训练设备及所述第二训练设备,以使所述第二训练设备在接收到所述继续训练指令后,返回执行基于当前自身模型部分的第二模型参数以及目标公钥计算第二用户信息样本对应的第二加密值,直到所述模型收敛;
继续训练模块,用于在接收到所述继续训练指令后,返回执行基于当前自身模型部分的第一模型参数以及所述目标公钥计算第一用户信息样本对应的第一加密值,直到所述模型收敛。
作为本发明实施例的一种实施方式,上述装置还可以包括:
停止训练模块,用于在接收到停止训练指令后,停止训练。
其中,所述停止训练指令为所述监管设备在确定所述模型收敛时发送至所述第一训练设备的。
本发明实施例还提供了一种电子设备,如图6所示,包括处理器601、通信接口602、存储器603和通信总线604,其中,处理器601,通信接口602,存储器603通过通信总线604完成相互间的通信,
存储器603,用于存放计算机程序;
处理器601,用于执行存储器603上所存放的程序时,实现上述任一实施例所述的模型的联邦训练方法步骤。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一模型的联邦训练方法的步骤。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一模型的联邦训练方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于方法、装置、电子设备、计算机可读存储介质以及计算程序产品实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (10)
1.一种保护用户标识的模型的联邦训练系统,其特征在于,所述系统包括第一训练设备、第二训练设备以及监管设备,其中:
所述第一训练设备,用于获取第一用户信息样本,将所述第一用户信息样本的样本标识发送至所述第二训练设备,并将真实样本的数量发送所述监管设备,其中,所述第一用户信息样本包括所述真实样本和混淆样本,所述样本标识为用户身份信息;
所述第二训练设备,用于在接收到所述样本标识后,基于所述样本标识进行样本对齐,得到每个所述第一用户信息样本对应的第二用户信息样本;将当前自身模型部分的第二模型参数与所述第二用户信息样本的乘积用目标公钥进行加密,得到所述第二用户信息样本对应的第二加密值,并将所述第二加密值发送至所述第一训练设备;
所述第一训练设备,还用于计算当前自身模型部分的第一模型参数与所述第一用户样本信息的乘积,采用所述目标公钥对所述乘积与预先获取的截距项相加得到的加和进行加密,得到所述第一用户信息样本对应的第一加密值,将所述第一加密值和所述第二加密值相加,得到和值,基于所述和值与所述第一用户信息样本对应的标签计算得到加密前向梯度,并将所述混淆样本在所述加密前向梯度中对应的值设置为0,得到调整后的加密前向梯度;将所述调整后的加密前向梯度与所述第一用户信息样本的乘积,作为所述第一用户信息样本对应的第一样本梯度,并将所述加密前向梯度发送至所述第二训练设备,将所述第一样本梯度发送至所述监管设备;
所述第二训练设备,还用于将所述调整后的加密前向梯度与所述第二用户信息样本的乘积,作为所述第二用户信息样本对应的第二样本梯度,并将所述第二样本梯度发送至所述监管设备;
所述监管设备,还用于基于所述真实样本的数量、预设学习率以及所述第一样本梯度,计算得到第一调整梯度,基于所述真实样本的数量、所述预设学习率以及所述第二样本梯度,计算得到第二调整梯度,将所述第一调整梯度和所述第二样本梯度分别发送至所述第一训练设备和所述第二训练设备;
所述第一训练设备,还用于按照所述第一调整梯度调整所述第一模型参数;
所述第二训练设备,还用于按照所述第二调整梯度调整所述第二模型参数。
2.根据权利要求1所述的系统,其特征在于,
所述第一训练设备,还用于基于所述第一用户信息样本对应的标签,计算预设损失函数的加密值,将所述预设损失函数的加密值发送至所述监管设备;
所述监管设备,还用于对所述加密值进行解密,得到所述预设损失函数的值,并基于所述预设损失函数的值,确定模型是否收敛,如果未收敛,发送继续训练指令至所述第一训练设备及所述第二训练设备;
所述第一训练设备,还用于在接收到所述继续训练指令后,返回执行基于当前自身模型部分的第一模型参数以及目标公钥计算第一用户信息样本对应的第一加密值,直到所述模型收敛;
所述第二训练设备,还用于在接收到所述继续训练指令后,返回执行基于当前自身模型部分的第二模型参数以及所述目标公钥计算第二用户信息样本对应的第二加密值,直到所述模型收敛。
3.根据权利要求2所述的系统,其特征在于,
所述监管设备,还用于如果所述模型收敛,发送停止训练指令至所述第一训练设备及所述第二训练设备;
所述第一训练设备,还用于在接收到所述停止训练指令后,停止训练;
所述第二训练设备,还用于在接收到所述停止训练指令后,停止训练。
4.根据权利要求1-3任一项所述的系统,其特征在于,
所述监管设备,还用于在接收到所述真实样本的数量后,生成所述目标公钥和目标私钥,并将所述目标公钥分别发送至所述第一训练设备和所述第二训练设备。
5.根据权利要求4所述的系统,其特征在于,
所述监管设备,具体用于基于所述目标私钥对所述第一样本梯度及所述第一样本梯度进行解密,得到解密后的第一样本梯度及解密后的第二样本梯度;基于所述真实样本的数量、预设学习率以及所述解密后的第一样本梯度,计算得到第一调整梯度,基于所述真实样本的数量、所述预设学习率以及所述解密后的第二样本梯度,计算得到第二调整梯度。
6.一种保护用户标识的模型的联邦训练方法,其特征在于,应用于保护用户标识的模型的联邦训练系统中的第一训练设备,所述系统还包括第二训练设备以及监管设备,所述方法包括:
获取第一用户信息样本,将真实样本的数量发送所述监管设备,并将所述第一用户信息样本的样本标识发送至所述第二训练设备,以使所述第二训练设备在接收到所述样本标识后,基于所述样本标识进行样本对齐,得到每个所述第一用户信息样本对应的第二用户信息样本,并将当前自身模型部分的第二模型参数与所述第二用户信息样本的乘积用目标公钥进行加密,得到所述第二用户信息样本对应的第二加密值,将所述第二加密值发送至所述第一训练设备,其中,所述第一用户信息样本包括所述真实样本和混淆样本,所述样本标识为用户身份信息;
计算当前自身模型部分的第一模型参数与所述第一用户样本信息的乘积,采用所述目标公钥对所述乘积与预先获取的截距项相加得到的加和进行加密,得到所述第一用户信息样本对应的第一加密值;
将所述第一加密值和所述第二加密值相加,得到和值,基于所述和值与所述第一用户信息样本对应的标签计算得到加密前向梯度,并将所述混淆样本在所述加密前向梯度中对应的值设置为0,得到调整后的加密前向梯度;
将所述调整后的加密前向梯度与所述第一用户信息样本的乘积,作为所述第一用户信息样本对应的第一样本梯度,并将所述加密前向梯度发送至所述第二训练设备,以使第二训练设备将所述调整后的加密前向梯度与所述第二用户信息样本的乘积,作为所述第二用户信息样本对应的第二样本梯度,并将所述第二样本梯度发送至所述监管设备;
将所述第一样本梯度发送至所述监管设备,以使所述监管设备基于所述真实样本的数量、预设学习率以及所述第一样本梯度,计算得到第一调整梯度,基于所述真实样本的数量、所述预设学习率以及所述第二样本梯度,计算得到第二调整梯度,将所述第一调整梯度和所述第二样本梯度分别发送至所述第一训练设备和所述第二训练设备,以使所述第二训练设备按照所述第二调整梯度调整所述第二模型参数;
接收所述第一调整梯度,并按照所述第一调整梯度调整所述第一模型参数。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
基于所述第一用户信息样本对应的标签,计算预设损失函数的加密值,将所述预设损失函数的加密值发送至所述监管设备,以使所述监管设备对所述加密值进行解密,得到所述预设损失函数的值,并基于所述预设损失函数的值,确定模型是否收敛,如果未收敛,发送继续训练指令至所述第一训练设备及所述第二训练设备,以使所述第二训练设备在接收到所述继续训练指令后,返回执行基于当前自身模型部分的第二模型参数以及目标公钥计算第二用户信息样本对应的第二加密值,直到所述模型收敛;
在接收到所述继续训练指令后,返回执行基于当前自身模型部分的第一模型参数以及所述目标公钥计算第一用户信息样本对应的第一加密值,直到所述模型收敛。
8.一种保护用户标识的模型的联邦训练装置,其特征在于,应用于保护用户标识的模型的联邦训练系统中的第一训练设备,所述系统还包括第二训练设备以及监管设备,所述装置包括:
样本对齐模块,用于获取第一用户信息样本,将真实样本的数量发送所述监管设备,并将所述第一用户信息样本的样本标识发送至所述第二训练设备,以使所述第二训练设备在接收到所述样本标识后,基于所述样本标识进行样本对齐,得到每个所述第一用户信息样本对应的第二用户信息样本,并将当前自身模型部分的第二模型参数与所述第二用户信息样本的乘积用目标公钥进行加密,得到所述第二用户信息样本对应的第二加密值,将所述第二加密值发送至所述第一训练设备,其中,所述第一用户信息样本包括所述真实样本和混淆样本,所述样本标识为用户身份信息;
加密值计算模块,用于计算当前自身模型部分的第一模型参数与所述第一用户样本信息的乘积,采用所述目标公钥对所述乘积与预先获取的截距项相加得到的加和进行加密,得到所述第一用户信息样本对应的第一加密值;
前向梯度计算模块,用于将所述第一加密值和所述第二加密值相加,得到和值,基于所述和值与所述第一用户信息样本对应的标签计算得到加密前向梯度,并将所述混淆样本在所述加密前向梯度中对应的值设置为0,得到调整后的加密前向梯度;
样本梯度计算模块,用于将所述调整后的加密前向梯度与所述第一用户信息样本的乘积,作为所述第一用户信息样本对应的第一样本梯度,并将所述加密前向梯度发送至所述第二训练设备,以使第二训练设备将所述调整后的加密前向梯度与所述第二用户信息样本的乘积,作为所述第二用户信息样本对应的第二样本梯度,并将所述第二样本梯度发送至所述监管设备;
调整梯度确定模块,用于将所述第一样本梯度发送至所述监管设备,以使所述监管设备基于所述真实样本的数量、预设学习率以及所述第一样本梯度,计算得到第一调整梯度,基于所述真实样本的数量、所述预设学习率以及所述第二样本梯度,计算得到第二调整梯度,将所述第一调整梯度和所述第二样本梯度分别发送至所述第一训练设备和所述第二训练设备,以使所述第二训练设备按照所述第二调整梯度调整所述第二模型参数;
参数调整模块,用于接收所述第一调整梯度,并按照所述第一调整梯度调整所述第一模型参数。
9.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求6或7所述的方法步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求6或7所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110705937.9A CN113378198B (zh) | 2021-06-24 | 2021-06-24 | 一种保护用户标识的模型的联邦训练系统、方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110705937.9A CN113378198B (zh) | 2021-06-24 | 2021-06-24 | 一种保护用户标识的模型的联邦训练系统、方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113378198A CN113378198A (zh) | 2021-09-10 |
CN113378198B true CN113378198B (zh) | 2022-04-15 |
Family
ID=77578942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110705937.9A Active CN113378198B (zh) | 2021-06-24 | 2021-06-24 | 一种保护用户标识的模型的联邦训练系统、方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113378198B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109165515A (zh) * | 2018-08-10 | 2019-01-08 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数获取方法、系统及可读存储介质 |
CN110276210A (zh) * | 2019-06-12 | 2019-09-24 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数的确定方法及装置 |
CN112347500A (zh) * | 2021-01-11 | 2021-02-09 | 腾讯科技(深圳)有限公司 | 分布式系统的机器学习方法、装置、系统、设备及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109635462A (zh) * | 2018-12-17 | 2019-04-16 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数训练方法、装置、设备及介质 |
CN109886417B (zh) * | 2019-03-01 | 2024-05-03 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数训练方法、装置、设备及介质 |
CN111046433B (zh) * | 2019-12-13 | 2021-03-05 | 支付宝(杭州)信息技术有限公司 | 一种基于联邦学习的模型训练方法 |
CN111783139B (zh) * | 2020-06-29 | 2024-07-19 | 京东科技控股股份有限公司 | 联邦学习分类树构建方法、模型构建方法,及终端设备 |
CN112199702B (zh) * | 2020-10-16 | 2024-07-26 | 鹏城实验室 | 一种基于联邦学习的隐私保护方法、存储介质及系统 |
CN112149171B (zh) * | 2020-10-27 | 2021-07-09 | 腾讯科技(深圳)有限公司 | 联邦神经网络模型的训练方法、装置、设备及存储介质 |
CN112288100B (zh) * | 2020-12-29 | 2021-08-03 | 支付宝(杭州)信息技术有限公司 | 一种基于联邦学习进行模型参数更新的方法、系统及装置 |
CN112926073A (zh) * | 2021-03-17 | 2021-06-08 | 深圳前海微众银行股份有限公司 | 联邦学习建模优化方法、设备、介质及计算机程序产品 |
-
2021
- 2021-06-24 CN CN202110705937.9A patent/CN113378198B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109165515A (zh) * | 2018-08-10 | 2019-01-08 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数获取方法、系统及可读存储介质 |
CN110276210A (zh) * | 2019-06-12 | 2019-09-24 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数的确定方法及装置 |
CN112347500A (zh) * | 2021-01-11 | 2021-02-09 | 腾讯科技(深圳)有限公司 | 分布式系统的机器学习方法、装置、系统、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113378198A (zh) | 2021-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110245510B (zh) | 用于预测信息的方法和装置 | |
US20200244435A1 (en) | Homomorphic computations on encrypted data within a distributed computing environment | |
US11694169B2 (en) | System and method for rendering virtual currency related services | |
EP3520319B1 (en) | Distributed electronic record and transaction history | |
US10547444B2 (en) | Cloud encryption key broker apparatuses, methods and systems | |
CN113516256B (zh) | 基于秘密共享、同态加密的无第三方联邦学习方法及系统 | |
CN112182595A (zh) | 基于联邦学习的模型训练方法及装置 | |
US11088834B2 (en) | System for privacy-preserving monetization of big data and method for using the same | |
US20240211937A1 (en) | System and method for securing crypto-asset transactions | |
CN111464499A (zh) | 电子仓单溯源方法、装置、计算机设备及存储介质 | |
WO2021114922A1 (zh) | 多方联合训练针对IoT机具的风险评估模型的方法及装置 | |
CN113748440A (zh) | 安全多方计算归因 | |
CN112199709A (zh) | 基于多方的隐私数据联合训练模型的方法和装置 | |
US11488156B2 (en) | Confidential asset transaction system | |
CN113240461B (zh) | 基于纵向联邦学习的潜在客户的识别方法、系统及介质 | |
US20230088625A1 (en) | Operation method of blockchain remittance service system, and electronic wallet for remittance | |
CN112600830B (zh) | 业务数据处理方法、装置、电子设备及存储介质 | |
CN113722744A (zh) | 用于联邦特征工程的数据处理方法、装置、设备以及介质 | |
KR20190046486A (ko) | 블록체인 기반의 가상화폐 처리 시스템 및 방법 | |
CN113569263A (zh) | 跨私域数据的安全处理方法、装置及电子设备 | |
CN114186256A (zh) | 神经网络模型的训练方法、装置、设备和存储介质 | |
US11133926B2 (en) | Attribute-based key management system | |
CN111861462B (zh) | 基于区块链的金融产品交易方法及装置 | |
CN117077816A (zh) | 联邦模型的训练方法及系统 | |
CN113378198B (zh) | 一种保护用户标识的模型的联邦训练系统、方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |