CN112464287A - 基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法 - Google Patents
基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法 Download PDFInfo
- Publication number
- CN112464287A CN112464287A CN202011451287.1A CN202011451287A CN112464287A CN 112464287 A CN112464287 A CN 112464287A CN 202011451287 A CN202011451287 A CN 202011451287A CN 112464287 A CN112464287 A CN 112464287A
- Authority
- CN
- China
- Prior art keywords
- order gradient
- vector
- participant
- col
- tree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000012549 training Methods 0.000 title claims abstract description 33
- 238000013507 mapping Methods 0.000 claims abstract description 14
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 239000013598 vector Substances 0.000 claims description 201
- 239000012634 fragment Substances 0.000 claims description 106
- 239000011159 matrix material Substances 0.000 claims description 42
- 238000013467 fragmentation Methods 0.000 claims description 25
- 238000006062 fragmentation reaction Methods 0.000 claims description 25
- 238000004364 calculation method Methods 0.000 claims description 21
- 238000005192 partition Methods 0.000 claims description 20
- 238000003066 decision tree Methods 0.000 claims description 14
- 230000001186 cumulative effect Effects 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 5
- 239000000523 sample Substances 0.000 claims 21
- 230000011218 segmentation Effects 0.000 claims 2
- 239000012468 concentrated sample Substances 0.000 claims 1
- 230000003252 repetitive effect Effects 0.000 claims 1
- 238000007792 addition Methods 0.000 description 22
- 238000010801 machine learning Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000000638 solvent extraction Methods 0.000 description 2
- 238000011410 subtraction method Methods 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Bioethics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Storage Device Security (AREA)
Abstract
本发明涉及一种基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法,包括多个参与方与一个协调方,所述参与方和协调方对本地存储的特征信息数据进行预处理操作和值映射操作得到隐私保护后的数据,每个参与方结合隐私保护后的数据,与云端服务器通过分布式协同完成模型的训练,得到全局预测树模型,将待预测的数据处理后输入到全局预测树模型进行预测,得到目标安全预测结果。与现有技术相比,本发明具有提高多方协作用户隐私的安全性、在保障各自信息数据安全的同时提升模型的预测能力等优点。
Description
技术领域
本发明涉及安全预测技术领域,尤其是涉及一种基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法。
背景技术
近年来,由于机器学习的广泛应用,基于机器学习或者深度学习的方法应用于多个技术领域并且取得了巨大的成功。在进行数据协作时同样存在对机器学习的运用,但是在多方协作进行预测时,存在传递的个人数据隐私会泄露的情况。联邦学习(Federatedmachine learning/Federated Learning),是指一种机器学习框架,能有效帮助多个节点(可以代表个人或机构)在满足数据隐私保护的要求下,联合训练机器学习或者深度学习模型。
数据隐私保护是通过联邦学习来实现的,其中联邦学习的设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。
联邦学习适用于两个数据集共享相同的样本ID空间但特征空间不同的情况。纵向联邦学习是聚合这些不同特征并以保护隐私的方式计算训练损失和梯度的过程,以利用双方的数据共同构建模型。
XGBoost(极端梯度提升树)的英文全称是eXtreme Gradient Boosting,是2014年2月诞生的专注于梯度提升算法的机器学习函数库,因其优良的学习效果以及高效的训练速度而获得广泛的关注。
发明内容
本发明的目的就是为了克服上述现有技术存在的多方协作进行预测时传递的个人数据隐私存在泄露的缺陷而提供一种基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法。
本发明的目的可以通过以下技术方案来实现:
一种基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法,包括多个参与方与一个协调方,所述参与方和协调方对本地存储的特征信息数据进行预处理操作和值映射操作得到隐私保护后的数据,每个参与方结合隐私保护后的数据,与云端服务器通过分布式协同完成模型的训练,得到全局预测树模型,将待预测的数据处理后输入到全局预测树模型进行预测,得到目标安全预测结果。
所述参与方的类型包括第一参与方,所述第一参与方持有样本集中各样本的一个或一个以上特征的特征值及样本标签值。
所述训练预测模型的具体步骤为:
S1:第一参与方设定构建树的初始数量t=1、初始深度d=1、正则化参数λ与最大深度dmax,利用秘密共享拆分产生{λ}i,将所有设定的参数分发至所有参与方i,为每个拥有numi个特征的参与方i产生随机不重复的numi个特征编号索引,由持有标签的第一参与方利用当前模型预测结果向量和样本标签向量y计算得到一阶梯度向量G和二阶梯度向量H,并产生初始的全1指示向量S,分别进行秘密共享拆分,对于总共N个参与方,拆分为N份一阶梯度向量分片{G}i、二阶梯度向量分片{H}i和指示向量分片{S}i,并分别分发至所有参与方i,i=1,…N;
S2:每个参与方i收到{G}i,{H}i、{S}i后,计算自身拥有的一阶梯度和的第i分片{SG}i与二阶梯度和的第i分片{SH}i,并利用秘密共享方法,直接计算各特征下各分组分别对应分裂增益的第i分片,对于XGBoost算法,在某个树节点时,对于该节点具有的所有数据一阶梯度和SG、二阶梯度和SH、正则项λ,未分裂增益表示为:
每个参与方i使用秘密共享加、减、乘、除操作,利用第j个特征第k个分组得到分裂增益值{<Lsplit>}j,k:
其中公式中为秘密共享乘法,为秘密共享加法,为秘密共享除法,为秘密共享减法,{<Lsplit>}j,k表示分裂增益值,{SGLi}为收到的一阶梯度分片,{SGLi}为利用拆分后的一阶梯度得到分支节点左子树的一阶梯度,{SGRi}为利用拆分后的一阶梯度得到分支节点右子树的一阶梯度,{SH}为收到的二阶梯度分片,{SHl}为利用拆分后的二阶梯度得到分支节点左子树的二阶梯度,{SHr}为利用拆分后的二阶梯度得到分支节点右子树的二阶梯度,{λi}表示超参数λ的第i分片;
秘密共享算法为一种将一份数据θ拆分为多份分片{θ}i,不同参与方i对各自的分片进行同类型、同步骤的计算生成{θ′}i,在计算结束后通过加法合并,产生数据且θ′等同于对θ执行同类型、同步骤计算后的结果,对分裂增益的计算使用了秘密共享加、减、乘、除计算;通过协调方确定最大分裂增益及所属的特征、分组与是否进行划分,当进行划分时,若选中的特征属于参与方i′,生成划分后的左子树指示向量SL与右子树指示向量SR,所述SL与SR分别指示根据所述最大分裂增益对应特征及分组对所述样本集进行划分得到的左子集与右子集中样本,左子集与左子树对应,右子集与右子树对应;将所述SL与SR通过秘密共享拆分为N个分片{SL}i与{SR}i,i=1,…,N,并分发至参与方i;每个参与方i利用接收的{SL}i、{SR}i与自身拥有的指示向量分片{S}i计算样本集被划分到左子树后的左子树一阶梯度向量分片{SGL}i与二阶梯度向量分片{SHL}i,计算样本集被划分到右子树后的右子树一阶梯度向量分片{SGR}i与二阶梯度向量分片{SHR}i,使用{SGL}i、{SHL}i、{SL}i递归进行步骤S2构建左子树,使用{SGR}i、{SHR}i、{SR}i递归进行步骤S2构建右子树,并设定深度d=d+1,若不进行划分或到达树停止条件d=dmax,每个参与方i利用秘密共享加、乘、除法计算决策树上当前叶子节点σ的权值的第i分片其中,{SG}i为拆分后的一阶梯度分片,{SH}i为拆分后的二阶梯度分片,{λ}i表示预设系数分片;
S3:对于每一条数据样本xp,每个参与方i利用所持有部分特征的样本计算当前第t棵树的预测结果累加至前t-1棵树的结果中,产生t棵树对于数据样本xp的综合预测结果其中表示第q棵树对第p条数据样本xp的预测结果,表示中第p个元素,对于一共M条数据样本,遍历p=1,…,M产生完整的
S4:增加树的数量t=t+1,迭代步骤S1-S3,直到构建完毕t=T棵决策树。
进一步地,步骤S1、S2、S3使用的秘密共享算法为一种将一份数据θ拆分为多份分片{θ}i,不同参与方i对各自的分片进行同类型、同步骤的计算生成{θ′}i,在计算结束后通过加法合并,产生数据且θ′等同于对θ执行同类型、同步骤计算后的结果,所涉及的具体计算包括:
a.秘密共享拆分
对于1维数据θ,参与方i进行秘密共享拆分时,对于一共N个参与方,生成N-1个随机数,并将这N-1个随机数指定为分片{θ}i′,i′≠i,供参与方i′使用,而参与方i生成自己的数据分片{θ}i=θ-∑i′{θ}i′;
b.秘密共享加法
对于一维的分片数据{θA}1,…,{θA}N与{θB}1,…,{θB}N,每个参与方i利用持有的{θA}i与{θB}i可直接使用普通的加法计算{θA}i+{θB}i={θ′}i,故为叙述方便,直接使用普通加法阐述;
c.秘密共享减法
对于一维的分片数据{θA}1,…,{θA}N与{θB}1,…,{θB}N,每个参与方i利用持有的{θA}i与{θB}i可直接使用普通的减法计算{θA}i-{θB}i={θ′}i,故为叙述方便,直接使用普通减法阐述;
d.秘密共享乘法
对于一维的分片数据{θA}1,…,{θA}N与{θB}1,…,{θB}N,每个参与方i持的{θA}i与{θB}i,首先利用协调方生成一维变量a,b,c=a*b,通过秘密共享拆分为{a}1,…,{a}N、{b}1,…,{b}N与{c}1,…,{c}N并发送给每个参与方i,每个参与方i收到{a}i,{b}i,{c}i并计算{e}i={θA}i-{a}i与{f}i={θB}i-{b}i,发送至第一参与方,第一参与方计算与发送给所有参与方,第一参与方计算得到{θ′}1,其他参与方i计算得到{θ′}i,最终秘密共享乘法表示为:
e.秘密共享除法
对于一维的分片数据{θA}1,…,{θA}N与{θB}1,…,{θB}N,如需进行两数相除运算,先运算得到除数的倒数,再通过新定义的乘法操作,进行被除数与除数的倒数相乘,得到最终结果。本专利采用迭代法得到除数的倒数,迭代过程使用的乘法运算皆为秘密共享乘法运算。选定一个整数K,使得10K-1<max{{θB}1,…,{θB}N}<10K,设X0=10-K,利用公式XT·(2-θB·XT)进行迭代,得到的结果即为除数的倒数。再利用秘密共享乘法操作,得到秘密共享除法的结果。
对于以上步骤,均可从一维数据推广至多维数据。
进一步地,所述步骤S1具体包括:
第一参与方设定构建树的初始数量t=1、初始深度d=1、正则化参数λ与最大深度dmax,利用秘密共享拆分产生{λ}i,将所有设定的参数分发至所有参与方i,对于每个拥有numi个特征的参与方i,协调方统计参与方的特征总数numfeature=∑i=1numi,产生元素为[1,2,…,numfeature]的数组,为每个参与方i随机分配numi个打乱顺序的数组元素,各参与方之间得到的数组元素不重合,各参与方建立乱序数组元素j到自身拥有特征编号的一对一映射map(j)并在己方进行记录存储;
所有参与方计算自身拥有样本特征中最大的特征取值数量kselfmax,并发送给协调方,协调方确定全体参与方最大的特征取值数量kmax=max kselfmax并广播至所有参与方;
从持有标签数据的第一参与方启动,各参与方使用同一种损失函数l(·),第一参与方利用模型预测结果向量和标签值向量y计算一阶梯度向量二阶梯度向量与初始的全1指示向量S,每一条数据xp的初始预测结果当t=1时为0,否则表示为已有的t-1棵树的预测权重和对于总共N个参与方,将G、H、S秘密共享拆分为N份一阶梯度向量分片{G}i、二阶梯度向量分片{H}i和指示向量分片{S}i,i=1,…N,并分发至参与方i;
进一步地,步骤S2具体包括:
每个参与方i收到一阶梯度向量第i分片{G}i、二阶梯度向量第i分片{H}i和指示向量第i分片{S}i后,计算自身拥有的一阶梯度和的第i分片{SG}i与二阶梯度和的第i分片{SH}i,{SG}i与{SH}i分别通过参与方i拥有的{G}i和{H}i分别对向量元素求和得到;
每个参与方i利用自身拥有的一阶梯度向量分片与二阶梯度向量分片,计算自己所有特征所有划分区间下的一阶梯度和分片矩阵BGi与二阶梯度和分片矩阵BHi;
对于特征j,每个参与方i初始化记录左子树累积一阶梯度分片的变量SGLi与记录右子树累积二阶梯度分片的变量SHLi;
每个参与方i遍历划分区间数量k,计算左子树累积一阶梯度分片为:
计算左子树累积二阶梯度分片为:
同理可计算右子树累积一阶梯度分片SGRi与二阶梯度分片SHRi:
SGRi=SGi-SGLi
SHRi=SHi-SHLi
每个参与方i使用秘密共享加、减、乘、除操作,利用第j个特征第k个分组得到分裂增益值:
其中,为秘密共享乘法,为秘密共享加法,为秘密共享除法,为秘密共享减法,{<Lsplit>}j,k表示分裂增益值,{SGLi}为收到的一阶梯度分片,{SGLi}为利用拆分后的一阶梯度得到分支节点左子树的一阶梯度,{SGRi}为利用拆分后的一阶梯度得到分支节点右子树的一阶梯度,{SH}为收到的二阶梯度分片,{SHl}为利用拆分后的二阶梯度得到分支节点左子树的二阶梯度,{SHr}为利用拆分后的二阶梯度得到分支节点右子树的二阶梯度,{λi}表示超参数λ的第i分片;
每个参与方i利用得到的分裂增益值,计算不同特征j的不同取值区间k之间的分裂增益差值,通过协调方比较以确定最大分裂增益对应的挑选特征p与取值区间q;
各参与方将最大分裂增益分片处理后发送到协调方,协调方对合成的最大增益进行正负判断,如果为正值,将符号向量设为1;如果为负值,将符号向量设为-1;如果为0,设为0;
当符号变量为1时,对于特征p,当第i′个参与方拥有特征p时,设置一个记录样本落入特征划分后左子树的M维向量SL,取出第q个取值区间(leftq,rightq),令样本集中样本特征p取值valuep满足valuep<rightq的SL位置取值为1,其余位置取值为0,设置一个记录样本落入特征划分后右子树的M维向量即对SL取反,对于总共N个参与方,将SL与SR通过秘密共享拆分为N个分片{SL}i与{SR}i,i=1,…,i′,…,N,并分发至参与方i;
每个参与方i接收{SL}i与{SR}i,重新计算自身拥有的左子树指示向量分片{SL}i与右子树指示向量分片{SR}i:
{SL}i={S}i⊙{SL}i
{SR}i={S}i⊙{SR}i
{GL}i={G}i⊙{SL}i
{GR}i={G}i⊙{SR}i
计算自身拥有的落入左子树样本的二阶梯度向量分片{HL}i与落入右子树样本的二阶梯度向量分片{HR}i:
{HL}i={H}i⊙{SL}i
{HR}i={H}i⊙{SR}i
对于每个参与方i,设定{GL}i、{HL}i和{SL}i为左子树使用的一阶梯度向量分片、二阶梯度向量分片与指示向量分片,设定{GR}i、{HR}i和{SR}i为右子树使用的一阶梯度向量分片、二阶梯度向量分片与指示向量分片;
当树的深度达到设定限度或符号变量不为1时,利用秘密共享加、乘、除法计算叶子结点权重值其中,表示利用拆分后的一阶梯度分片、二阶梯度分片计算得到的叶节点权重,{SG}i为拆分后的一阶梯度分片,{SH}i为拆分后的二阶梯度分片,{λ}i表示预设系数分片;
递归执行步骤,完成一棵XGBoost决策树模型的构建;
每个参与方i利用自身拥有的一阶梯度向量分片与二阶梯度向量分片,计算自己所有特征所有划分区间下的一阶梯度和分片矩阵BGi与二阶梯度和分片矩阵BHi具体包括:
所有参与方i初始化记录区间一阶梯度和分片的numfeature*kmax维矩阵{BG}i与记录区间二阶梯度和分片的numfeature*kmax维矩阵{BH}i;
对于特征j,j=1,2,…,numfeature,当第i′个参与方拥有特征编号j时,利用特征索引,将j映射至参与方i′所拥有的自身特征map(j)中,统计该特征拥有的所有划分取值并记录取值的数量kj;
参与方i′设置一个记录样本落入特征7划分的kmax*M维矩阵Matrixindex,M为样本个数,对于第j号特征,遍历其拥有的取值区间kj,取出第k个取值区间(leftk,rightk),设定一个维度M*1的全0向量S′,令参与方i′样本集中样本特征map(j)取值valuemap(j)满足leftk<valuemap(j)≤rightk的S′位置取值为1,记录Matrixindex第k行向量Matrixindex[k,:]=S′T,S′T为S′的转置向量,待划分遍历结束后,对于总共N个参与方,参与方i′将Matrixindex通过秘密共享拆分为N个分片{Matrixindex}i,并分发至所有参与方i,i=1,…,i′,…,N;
参与方i接收{Matrixindex}i,对第j号特征,遍历k直至最大取值区间数量kmax,计算一阶梯度和分片{BG}i[j,k]与二阶梯度和分片{BH}i[j,k]:
{BG}i[j,k]=sum({Matrixindex}i[k,:]⊙{G}i)
{BH}i[j,k]=sum({Matrixindex}i[k,:]⊙{H}i)
其中,[k,:]表示选取矩阵的第k行所有元素,式中sum(v)表示对向量v的元素求和;
遍历特征数量j,使所有参与方i完成{BG}i和{BH}i的计算;
每个参与方i利用得到的分裂增益值,计算不同特征j的不同取值区间k之间的分裂增益差值,通过协调方比较以确定最大分裂增益对应的挑选特征p与取值区间q,具体包括:
对于特征j,每个参与方i取出该特征的增益分片Lsplit[j,:],其中[j,:]表示选取矩阵的第j行所有元素,设定当前参与比对的初始划分索引列表向量col=[1,2,…,kmax],记录其长度为Rcol,设定初始各特征划分索引列表向量colselected;
计算上述向量分片的隔位计算结果:
设定空列表new_col,遍历col_nominator,若元素位r非负,则将col[r*2]这个索引加入new_col中,否则将col[r*2+1]这个索引加入new_col中,遍历完毕后若col长度为奇数,将col最后一位添加至new_col,接下来协调方向所有参与方广播new_col,参与方令col=new_col;
当col长度大于1时,迭代直到col的长度变为1,取出col中的唯一元素col[0],记录colselected[j]=col[0];
遍历所有特征j,得到每一个特征的挑选划分位置,组合为完整的特征划分索引列表向量colselected,设定当前参与比对的初始当前划分索引列表向量row=[1,2,…,numfeature],记录其长度为Rrow;
计算向量分片的隔位计算结果:
row_nominator[r]
=Lsplit[row[r],colselected[row[r]]]-Lsplit[row[r+1],colselected[row[r]]]
设定空列表new_row,遍历row_nominator,若元素位r非负,则将row[r*2]这个索引加入new_row中,否则将row[r*2+1]这个索引加入new_row中,遍历完毕后若row长度为奇数,将row最后一位添加至new_row,接下来协调方向所有参与方广播new_row,参与方令row=new_row;
当row长度大于1时,迭代直到row的长度变为1,取出该元素,记录为j_best,所有参与方得到挑选后的最好特征j_best与该特征最佳划分位置colselected[jbest];
各参与方将最大分裂增益分片处理后发送到协调方,协调方对合成的最大增益进行正负判断具体包括:
对于指定的最大分裂增益特征p与划分区间q,每个参与方i计算自身的分裂增益分片Lspliti:
协调方将sign向所有参与方广播,所有参与方接收该值为当前确立的符号变量;
进一步地,步骤S3具体包括:
对于第T′棵树treeT′,每个参与方i对于待预测数据样本data,使用所持有部分特征的datai根据本地树模型进行叶子节点预测,其中对于每个树节点,若其划分信息为datai中拥有的特征,则根据该特征与取值进行左(右)子树划分并继续预测,设置未进入的分支子树全部叶子结点标志位为0,若划分信息非datai中拥有的特征,则沿着该树节点的所有左右子树进行预测,直到找到确定datai归属的叶节点,设置标志位为1,最终每个参与方i得到该树预测datai产生的所有叶子节点标志位并按叶子节点排列顺序拼接为标志向量indexi,同时按照相同顺序拼接δ个叶子权重为结果向量
每个参与方i将indexi进行秘密共享拆分,分为{indexi}i′,i′=1,…,i,…,N发送给参与方i′;
每个参与方i′接收到参与方i发来的标志向量分片{indexi}i′,计算所有向量分片的按位累乘向量{index}i′={index1}i′⊙{index2}i′⊙…⊙{indexN}i′,并计算该标志向量分片与自身的权值分片的按位乘结果{vresult}i′={index}i′⊙{vw}i′;
与现有技术相比,本发明具有以下有益效果:
本发明中标签的参与方利用当前模型预测结果与标签值计算一阶、二阶梯度向量与指示向量,各参与方通过秘密共享与协调方协助,构建基于XGBoost算法的决策树模型,经过参与方共同协作,确定待训练数据的预测结果,通过迭代完成多棵决策树模型的构建,获得完整的无损安全多方预测模型,通过秘密共享算法进行拆分和加减乘除的操作,提高了多方协作用户隐私的安全性。
附图说明
图1为本发明的流程示意图;
图2为本发明模型训练过程的流程示意图;
图3为本发明模型训练过程的通信流图;
图4为本发明实施例中多方树模型及其对应的等效模型示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例一
一种基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法,包括多个参与方与一个协调方,所述参与方和协调方对本地存储的特征信息数据进行预处理操作和值映射操作得到隐私保护后的数据,每个参与方结合隐私保护后的数据,与云端服务器通过分布式协同完成模型的训练,得到全局预测树模型,将待预测的数据处理后输入到全局预测树模型进行预测,得到目标安全预测结果。
本发明中,“多方”可以表示至少两方,例如可以是两方、三方或者三方以上。本实施例中,多方为三方进行描述。
本实施例中,计算节点0表示协调方,计算节点1表示有标签的参与方,其余计算节点为普通参与方。在本地,评判的标准是准确率、召回率(正确率=提取出的正确信息条数/提取出的信息条数,召回率=提取出的正确信息条数/样本中的信息条数)。经过实验,多方训练模型的准确率与召回率与单机训练模型无差。
本发明主要关注于当各个参与方的用户群体重叠较多,数据特征重叠较少的情况下,取出用户群体相同、数据特征不同的那一部分进行联合机器学习,记录有相同的客户群体,然而由于机构的性质不同,数据特征基本不重叠。为了利用尽可能多的数据训练一个科学的模型,可以将相应的机构作为参与方,进行协同训练如图4所示。
在实施例中由于多方中运算的皆为分片数据,分片之间运算采用秘密共享的加、减、乘、除操作。本发明使用了一种名为秘密共享的多方协作算法,为一种将一份数据θ拆分为多份分片{θ}i,不同参与方i对各自的分片进行同类型、同步骤的计算生成{θ′}i,在计算结束后通过加法合并,产生数据且θ′等同于对θ执行同类型、同步骤计算后的结果,所涉及的具体计算包括:
a.秘密共享拆分
对于一维数据θ,参与方i进行秘密共享拆分时,对于一共N个参与方,生成N-1个随机数,并将这N-1个随机数指定为分片{θ}i′,i′≠i,供参与方i′使用,而参与方i生成自己的数据分片{θ}i=θ-∑i′{θ}i′;
b.秘密共享加法
对于一维的分片数据{θA}1,…,{θA}N与{θB}1,…,{θB}N,每个参与方i利用持有的{θA}i与{θB}i可直接使用普通的加法计算{θA}i+{θB}i={θ′}i,故为叙述方便,直接使用普通加法阐述;
c.秘密共享减法
对于一维的分片数据{θA}1,…,{θA}N与{θB}1,…,{θB}N,每个参与方i利用持有的{θA}i与{θB}i可直接使用普通的减法计算{θA}i-{θB}i={θ′}i,故为叙述方便,直接使用普通减法阐述;
d.秘密共享乘法
对于一维的分片数据{θA}1,…,{θA}N与{θB}1,…,{θB}N,每个参与方i持的{θA}i与{θB}i,首先利用协调方生成一维变量a,b,c=a*b,通过秘密共享拆分为{a}1,…,{a}N、{b}1,…,{b}N与{c}1,…,{c}N并发送给每个参与方i,每个参与方i收到{a}i,{b}i,{c}i并计算{e}i={θA}i-{a}i与{f}i={θB}i-{b}i,发送至第一参与方,第一参与方计算与发送给所有参与方,第一参与方计算得到{θ′}1,其他参与方i计算得到{θ′}i,最终秘密共享乘法表示为:
e.秘密共享除法
对于一维的分片数据{θA}1,…,{θA}N与{θB}1,…,{θB}N,如需进行两数相除运算,先运算得到除数的倒数,再通过新定义的乘法操作,进行被除数与除数的倒数相乘,得到最终结果。本专利采用迭代法得到除数的倒数,迭代过程使用的乘法运算皆为秘密共享乘法运算。选定一个整数K,使得10K-1<max{{θB}1,…,{θB}N}<10K,设X0=10-K,利用公式XT·(2-θB·XT)进行迭代,得到的结果即为除数的倒数。再利用秘密共享乘法操作,得到秘密共享除法的结果。
对于以上步骤,均可从一维数据推广至多维数据。
本发明主要流程如图2和图3所示,本实施例中,使用来自UCI Machine LearningRepository的Iris数据集,选取其中类别标签为0与1的两类共100条数据,包含sepallength、sepal width、pedal length、pedal width四个特征,将四个特征中的sepallength与pedal length分配给第一参与方,sepal width分配至参与方2,pedal width分配至参与方3,所有参与方均将80%的数据样本当作训练集,剩余的20%当作测试集。
如图1所示,训练预测模型的具体步骤为:
S1:设定t=1,产生初始建树参数与特征索引,计算产生梯度向量与指示向量分片,具体包括:
S1-1:设定初始建树参数与特征索引:
第一参与方设定构建树的初始数量t=1、初始深度d=1、正则化参数λ与最大深度dmax,本实施例设定λ=1,dmax=4,对于总共N=3个参与方,计算{λ}i=1/3,分发至所有参与方i,对于每个拥有numi个特征的参与方i,协调方统计参与方的特征总数numfeature=∑i= 1numi,产生元素为[1,2,…,numfeature]的数组,为每个参与方i随机分配numi个打乱顺序的数组元素,各参与方之间得到的数组元素不重合,各参与方建立乱序数组元素j到自身拥有特征编号的一对一映射map(j)并在己方进行记录存储,例如对于拥有第一个特征sepallength与第三个特征pedal length的第一参与方,这两个特征在其本地通过编号0与1进行访问,而第一参与方被分配到索引2与0,其建立映射0=map(2)与1=map(0),在后续迭代中对于特征索引号2,第一参与方拥有该特征索引号,通过映射转换为自己特征集中对应的特征编号0,从而访问该特征;
S1-2:确定最大特征取值数量:
所有参与方计算自身拥有样本特征中最大的特征取值数量kselfmax,并发送给协调方,协调方确定全体参与方最大的特征取值数量kmax=maxkselfmax并广播至所有参与方;
S1-3:计算产生梯度向量与指示向量分片:
从持有标签数据的第一参与方启动,各参与方使用同一种损失函数l(·),在实施例中选用平方损失函数MSE,即第一参与方利用模型预测结果向量和标签值向量y计算一阶梯度向量二阶梯度向量与初始的全1指示向量S,每一条数据xp的初始预测结果当t=1时为0,否则表示为已有的t-1棵树的预测权重和对于总共N个参与方,将G、H、S秘密共享拆分为N份一阶梯度向量分片{G}i、二阶梯度向量分片{H}i和指示向量分片{S}i,i=1,…N,并分发至参与方i;
S2:多方共同构建第t棵基于XGBoost算法的决策树:
每个参与方i收到{G}i,{H}i和{S}i后,计算自身拥有的一阶梯度和的第i分片{SG}i与二阶梯度和的第i分片{SH}i,并利用秘密共享方法,计算各特征下各分组分别对应分裂增益的第i分片,通过协调方确定最大分裂增益及所属的特征、分组与是否进行划分,当进行划分时,若选中的特征属于参与方i′,生成划分后的左子树指示向量SL与右子树指示向量SR,所述SL与SR分别指示根据所述最大分裂增益对应特征及分组对所述样本集进行划分得到的左子集与右子集中样本,左子集、右子集分别与左子树、右子树对应,具体如下:
S2-1:每个参与方收到一阶梯度向量第分片、二阶梯度向量第分片和指示向量第分片后,计算自身拥有的一阶梯度和的第分片与二阶梯度和的第分片,与分别通过参与方拥有的和分别对向量元素求和得到;
S2-:2:所有参与方i初始化记录区间一阶梯度和分片的nunfeature*kmax维矩阵{BG}i与记录区间二阶梯度和分片的numfeature*kmax维矩阵{BH}i;
对于特征j,j=1,2,…,numfeature,当第i′个参与方拥有特征编号j时,利用步骤S1-1所述的特征索引,将j映射至参与方i′所拥有的自身特征map(j)中,统计该特征拥有的所有划分取值并记录取值的数量kj;
参与方i′设置一个记录样本落入特征划分的kmax*M维矩阵Matrixindex,M为样本个数,对于第j号特征,遍历其拥有的取值区间kj,取出第k个取值区间(leftk,rightk),设定一个维度M*1的全0向量S′,令参与方i′样本集中样本特征map(j)取值valuemap(j)满足leftk<valuemap(j)≤rightk的S′位置取值为1,记录Matrixindex第k行向量Matrixindex[k,:]=S′T,S′T为S′的转置向量,待划分遍历结束后,对于总共N个参与方,参与方i′将Matrixindex通过秘密共享拆分为N个分片{Matrixindex}i,并分发至所有参与方i,i=1,…,i′,…,N;
参与方i接收{Matrixindex}i,对第j号特征,遍历k直至最大取值区间数量kmax,计算一阶梯度和分片{BG}i[j,k]与二阶梯度和分片{BH}i[j,k]:
{BG}i[j,k]=sum({Matrixindex}i[k,:]⊙{G}i)
{BH}i[j,k]=sum({Matrixindex}i[k,:]⊙{H}i)
其中[k,:]表示选取矩阵的第k行所有元素,式中sum(v)表示对向量v的元素求和;
遍历特征数量j,使所有参与方i完成{BG}i和{BH}i的计算;
S2-3:对于特征j,每个参与方i初始化记录左子树累积一阶梯度分片的变量SGLi与记录右子树累积二阶梯度分片的变量SHLi;
S2-4:实施例每个参与方i遍历划分区间数量k,计算左子树累积一阶梯度分片为:
计算左子树累积二阶梯度分片为:
同理可计算右子树累积一阶梯度分片SGRi与二阶梯度分片SHRi:
SGRi=SGi-SGLi
SHRi=SHi-SHLi
S2-5:实施例每个参与方i使用秘密共享加、减、乘、除操作,利用第j个特征第k个分组得到分裂增益值{<Lsplit>}j,k:
其中公式中为秘密共享乘法,为秘密共享加法,为秘密共享除法,为秘密共享减法,{<Lsplit>}j,k表示分裂增益值,{SGLi}为收到的一阶梯度分片,{SGLi}为利用拆分后的一阶梯度得到分支节点左子树的一阶梯度,{SGRi}为利用拆分后的一阶梯度得到分支节点右子树的一阶梯度,{SH}为收到的二阶梯度分片,{SHl}为利用拆分后的二阶梯度得到分支节点左子树的二阶梯度,{SHr}为利用拆分后的二阶梯度得到分支节点右子树的二阶梯度,{λi}表示超参数λ的第i分片;
S2-6:对于特征j,每个参与方i取出该特征的增益分片:
Lsplit[j,:]
其中[j,:]表示选取矩阵的第j行所有元素,设定当前参与比对的初始划分索引列表向量col=[1,2,…,kmax],记录其长度为Rcol,设定初始各特征划分索引列表向量colselected;
计算向量分片的隔位计算结果:
设定空列表new_col,遍历col_nominator,若元素位r非负,则将col[r*2]这个索引加入new_col中,否则将col[r*2+1]这个索引加入new_col中,遍历完毕后若col长度为奇数,将col最后一位添加至new_col,接下来协调方向所有参与方广播new_col,参与方令col=new_col;
当col长度大于1时,迭代直到col的长度变为1,取出col中的唯一元素col[0],记录colselected[j]=col[0];
遍历所有特征j,得到每一个特征的挑选划分位置,组合为完整的特征划分索引列表向量colselected,设定当前参与比对的初始当前划分索引列表向量row=[1,2,…,numfeature],记录其长度为Rrow;
计算向量分片的隔位计算结果:
row_nominator[r]
=Lsplit[row[r],colselected[row[r]]]-Lsplit[row[r+1],colselected[row[r]]]
设定空列表new_row,遍历row_nominator,若元素位r非负,则将row[r*2]这个索引加入new_row中,否则将row[r*2+1]这个索引加入new_row中,遍历完毕后若row长度为奇数,将row最后一位添加至new_row,接下来协调方向所有参与方广播new_row,参与方令row=new_row;
当row长度大于1时,迭代直到row的长度变为1,取出该元素,记录为j_best,所有参与方得到挑选后的最好特征j_best与该特征最佳划分位置colselected[jbest];
S2-7:对于指定的最大分裂增益特征p与划分区间q,每个参与方i计算自身的分裂增益分片Lspliti:
协调方将sign向所有参与方广播,所有参与方接收该值为当前确立的符号变量;
S2-8:符号变量为1时,对于特征p,当第i′个参与方拥有特征p时,设置一个记录样本落入特征划分后左子树的M维向量SL,取出第q个取值区间(leftq,rightq),令样本集中样本特征p取值valuep满足valuep<rightq的SL位置取值为1,其余位置取值为0,设置一个记录样本落入特征划分后右子树的M维向量即对SL取反,对于总共N个参与方,将SL与SR通过秘密共享拆分为N个分片{SL}i与{SR}i,i=1,…,i′,…,N,并分发至参与方i;
S2-9:实施例中每个参与方i接收{SL}i与{SR}i,重新计算自身拥有的左子树指示向量分片{SL}i与右子树指示向量分片{SR}i:
{SL}i={S}i⊙{SL}i
{SR}i={S}i⊙{SR}i
{GL}i={G}i⊙{SL}i
{GR}i={G}i⊙{SR}i
计算自身拥有的落入左子树样本的二阶梯度向量分片{HL}i与落入右子树样本的二阶梯度向量分片{HR}i:
{HL}i={H}i⊙{SL}i
{HR}i={H}i⊙{SR}i
S2-10:对于每个参与方i,设定{GL}i、{HL}i和{SL}i为左子树使用的一阶梯度向量分片、二阶梯度向量分片与指示向量分片,设定{GR}i、{HR}i和{SR}i为右子树使用的一阶梯度向量分片、二阶梯度向量分片与指示向量分片;
S2-11:当树模型的深度达到设定限度或符号变量不为1时,利用秘密共享加、乘、除法计算叶子结点权重值其中,表示利用拆分后的一阶梯度分片、二阶梯度分片计算得到的叶节点权重,{SG}i为拆分后的一阶梯度分片,{SH}i为拆分后的二阶梯度分片,{λ}i表示预设系数分片;
S2-12:递归执行上述步骤,完成一棵XGBoost决策树模型的构建;
S3:本地结果预测:
对于第t棵树treet,每个参与方i对于数据样本xp,使用所持有部分特征的根据本地树模型进行叶子节点预测,其中对于每个树节点,若其划分信息为中拥有的特征,则根据该特征与取值进行左(右)子树划分并继续预测,设置未进入的分支子树全部叶子结点标志位为0,若划分信息非中拥有的特征,则沿着该树节点的所有左右子树进行预测,直到找到确定归属的叶节点,设置标志位为1,最终每个参与方i得到该树预测产生所有叶子节点σ,σ=1,2,…,δ的标志位并按叶子节点σ的决策树结构顺序拼接为标志向量indexi,同时按照相同顺序拼接δ个叶子权重为结果向量例如图4所示,三个参与方对于某数据样本,均可在本地确定出其对应的标志向量,同时各参与方均拥有结果向量分片这里第一参与方持有特征-划分对(j1,k1)与(j4,k4),参与方2持有特征-划分对(j2,k2),参与方3持有特征-划分对(j3,k3),三棵决策树等价于数据储存于单机时进行训练得到的一棵含有完整划分信息的决策树,而第一参与方至3分别根据自己的已知信息进行样本划分,当含有划分信息时选定左或右子树,否则对左右子树均作搜寻,最终分别给出某数据样本的归属标志向量(1,1,1,0,0)、(0,0,1,1,1)与(0,1,1,0,0),具体包括:
S3-1:标志向量拆分与传播:
每个参与方i将indexi进行秘密共享拆分,分为{indexi}i′,发送给所有参与方i′,i′=1,…,i,…,N;
S3-2:所有参与方计算各自的预测结果分片:
每个参与方i′接收到参与方i发来的标志向量分片{indexi}i′,计算所有向量分片的按位累乘向量{index}i′={index1}i′⊙{index2}i′⊙…⊙{indexN}i′,并计算该标志向量分片与自身的权值分片的按位乘结果{vresult}i′={index}i′⊙{vw}i′;
S3-3:合并预测结果分片:
S3-4:计算所有样本预测结果:
S4:迭代增加训练轮次,完成所有决策树构建:
增加树的数量t=t+1,迭代步骤S1-S3,直到构建完毕t=T棵决策树模型。
此外,需要说明的是,本说明书中所描述的具体实施例子,所取名称可以不同,本说明书中所描述的以上内容仅仅是对本发明结构所做的举例说明。凡依据本发明构思的构造、特征及原理所做的等效变化或者简单变化,均包括于本发明的保护范围内。本发明所属技术领域的技术人员可以对所描述的具体实例做各种各样的修改或补充或采用类似的方法,只要不偏离本发明的结构或者超越本权利要求书所定义的范围,均应属于本发明的保护范围。
Claims (10)
1.一种基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法,其特征在于,包括多个参与方与一个协调方,所述参与方和协调方对本地存储的特征信息数据进行预处理操作和值映射操作得到隐私保护后的数据,每个参与方结合隐私保护后的数据,与云端服务器通过分布式协同完成模型的训练,得到全局预测树模型,将待预测的数据处理后输入到全局预测树模型进行预测,得到目标安全预测结果。
2.根据权利要求1所述的一种基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法,其特征在于,所述参与方的类型包括第一参与方,所述第一参与方持有样本集中各样本的一个或一个以上特征的特征值及样本标签值。
3.根据权利要求2所述的一种基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法,其特征在于,所述训练预测模型的具体步骤为:
S1:第一参与方设定构建树的初始数量、初始深度、正则化参数与最大深度,将正则化参数秘密共享拆分,将所有设定的参数发至所有参与方,为每个拥有相应数量特征的参与方产生随机不重复的特征编号索引,由持有标签的第一参与方利用当前模型预测结果向量和样本标签向量计算得到一阶梯度向量和二阶梯度向量,并产生初始的全1指示向量,分别进行秘密共享拆分,对于每个参与方,拆分为相应数量的一阶梯度向量分片、二阶梯度向量分片和指示向量分片,并分别分发至所有参与方;
S2:每个参与方收到所述一阶梯度向量分片、二阶梯度向量分片和指示向量分片后,计算自身拥有的一阶梯度和的分片与二阶梯度和的分片,并利用秘密共享方法,直接计算各特征下各分组分别对应分裂增益的分片,对于XGBoost算法,在某个树节点时,对于该节点具有的所有数据一阶梯度和、二阶梯度和和正则项,计算未分裂增益,具体如下:
其中,SG为一阶梯度和,SH为二阶梯度和,λ为正则项;
每个参与方i使用秘密共享加、减、乘、除操作,利用第j个特征第k个分组得到分裂增益值{<Lsplit>}j,k:
其中,为秘密共享乘法,为秘密共享加法,为秘密共享除法,为秘密共享减法,{<Lsplit>}j,k表示分裂增益值,{SGLi}为收到的一阶梯度分片,{SGLi}为利用拆分后的一阶梯度得到分支节点左子树的一阶梯度,{SGRi}为利用拆分后的一阶梯度得到分支节点右子树的一阶梯度,{SH}为收到的二阶梯度分片,{SHl}为利用拆分后的二阶梯度得到分支节点左子树的二阶梯度,{SHr}为利用拆分后的二阶梯度得到分支节点右子树的二阶梯度,{λi}表示超参数λ的第i分片;
S3:对于每一条数据样本,每个参与方利用所持有部分特征的样本,计算当前树模型的预测结果,累加至已经生成的树模型的结果中,产生多种树模型对于数据样本的综合预测结果,遍历数据样本,产生完整的预测结果;
S4:增加树的数量,迭代步骤S1-S3,直到构建完毕目标数量的树模型。
4.根据权利要求3所述的一种基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法,其特征在于,所述秘密共享算法包括秘密共享拆分、秘密共享加法、秘密共享减法、秘密共享乘法和秘密共享除法。
5.根据权利要求3所述的一种基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法,其特征在于,所述步骤S1具体包括:
S1-1:第一参与方设定构建树模型的初始数量、初始深度、正则化参数与最大深度,将正则化参数秘密共享拆分,将所有设定的参数发至所有参与方,对于每个拥有相应数量特征的参与方,协调方统计参与方的特征总数,产生元素为相应数量的数组,为每个参与方随机分配相应数量的打乱顺序的数组元素,各参与方之间得到的数组元素不重合,各参与方建立乱序数组元素到自身拥有特征编号的一对一映射并在己方进行记录存储;
S1-2:所有参与方计算自身拥有样本特征中最大的特征取值数量,并发送给协调方,协调方确定全体参与方最大的特征取值数量并广播至所有参与方;
S1-3:从持有标签数据的所述第一参与方启动,各参与方使用同一种损失函数,第一参与方利用模型预测结果向量和标签值向量计算一阶梯度向量、二阶梯度向量与初始的全1指示向量,每一条数据的初始预测结果,对于每个参与方,将一阶梯度向量、二阶梯度向量和指示向量经秘密共享算法拆分为多份一阶梯度向量分片、二阶梯度向量分片和指示向量分片,并分发至相应的参与方。
6.根据权利要求3所述的一种基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法,其特征在于,所述步骤S2具体包括:
S2-1:每个参与方收到一阶梯度向量分片、二阶梯度向量分片和指示向量分片后,计算自身拥有的一阶梯度和的分片与二阶梯度和的分片;
S2-2:每个参与方利用自身拥有的一阶梯度向量分片与二阶梯度向量分片,计算自己所有特征所有划分区间下的一阶梯度和分片矩阵与二阶梯度和分片矩阵;
S2-3:根据计算得到的特征,每个参与方初始化记录左子树累积一阶梯度分片的变量与记录右子树累积二阶梯度分片的变量;
S2-4:每个参与方遍历划分区间数量,计算左子树累积一阶梯度分片为:
计算左子树累积二阶梯度分片为:
同理计算右子树累积一阶梯度分片SGRi与二阶梯度分片SHRi:
SGRi=SGi-SGLi
SHRi=SHi-SHLi
其中,SGRi为右子树累积一阶梯度分片,SHRi为右子树累积二阶梯度分片,SGi为一阶梯度和分片,SHi为二阶梯度和分片;
S2-5:对于XGBoost算法,在某个树节点时,对于该节点具有的所有数据一阶梯度和、二阶梯度和和正则项,计算未分裂增益,具体如下:
其中,SG为一阶梯度和,SH为二阶梯度和,λ为正则项;
每个参与方使用秘密共享算法,利用相应特征及其分组得到分裂增益值:
其中,为秘密共享乘法,为秘密共享加法,为秘密共享除法,为秘密共享减法,{<Lsplit>}j,k表示分裂增益值,{SGLi}为收到的一阶梯度分片,{SGLi}为利用拆分后的一阶梯度得到分支节点左子树的一阶梯度,{SGRi}为利用拆分后的一阶梯度得到分支节点右子树的一阶梯度,{SH}为收到的二阶梯度分片,{SHl}为利用拆分后的二阶梯度得到分支节点左子树的二阶梯度,{SHr}为利用拆分后的二阶梯度得到分支节点右子树的二阶梯度,{λi}表示超参数λ的第i分片;
S2-6:每个参与方利用步骤S2-5得到的分裂增益值,计算每个特征的取值区间之间的分裂增益差值,通过协调方比来较以确定最大分裂增益对应的挑选特征与取值区间;
S2-7:各参与方将最大分裂增益分片处理后发送到协调方,协调方对合成的最大增益进行正负判断,如果为正值,将符号向量设为1;如果为负值,将符号向量设为-1;如果为0,设为0;
S2-8:当符号变量为1时,对于每个参与方拥有特征,设置一个记录样本落入特征划分后左子树的多维向量,取出目标取值区间,令样本集中样本特征的取值满足特定位置的取值为1,其余位置取值为0,设置一个记录样本落入特征划分后右子树的多维向量,对于全部参与方,将左子树指示向量与右子树指示向量通过秘密共享拆分为多个分片并分发至每个参与方;
S2-9:每个参与方接收左子树指示向量与右子树指示向量的分片,重新计算自身拥有的左子树指示向量分片与右子树指示向量分片:
{SL}i={S}i⊙{SL}i
{SR}i={S}i⊙{SR}i
其中,{SL}i为左子树指示向量分片,{SR}i为右子树指示向量分片,⊙表示向量的同位置元素之间执行秘密共享乘法得到一个维度相同的向量,计算自身拥有的落入左子树样本的一阶梯度向量分片与落入右子树样本的一阶梯度向量分片:
{GL}i={G}i⊙{SL}i
{GR}i={G}i⊙{SR}i
其中,{GL}i为落入左子树样本的一阶梯度向量分片,{GR}i为落入右子树样本的一阶梯度向量分片;
计算自身拥有的落入左子树样本的二阶梯度向量分片与落入右子树样本的二阶梯度向量分片:
{HL}i={H}i⊙{SL}i
{HR}i={H}i⊙{SR}i
其中,{HL}i为落入左子树样本的二阶梯度向量分片,{HR}i为落入右子树样本的二阶梯度向量分片;
S2-10:对于每个参与方,设定左子树使用的一阶梯度向量分片、二阶梯度向量分片与指示向量分片,并设定右子树使用的一阶梯度向量分片、二阶梯度向量分片与指示向量分片;
S2-11:当树模型的深度达到设定限度或符号变量不为1时,每个参与方利用秘密共享算法来计算决策树上当前叶子节点的权值分片;
S2-12:递归执行步骤S2-1至步骤S2-11,完成一棵XGBoost树模型的构建。
7.根据权利要求6所述的一种基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法,其特征在于,所述步骤S2-2具体包括:
S2-2-1:所有参与方初始化记录区间一阶梯度和分片的多维矩阵与二阶梯度和分片的多维矩阵;
S2-2-2:对于拥有特征编号的参与方,利用步骤S1-1所述的特征编号索引,将特征映射至参与方所拥有的自身特征地图中,统计该特征拥有的所有划分取值并记录取值的数量;
S2-2-3:参与方设置一个记录样本落入特征划分的多维矩阵,对于相应排列序号的特征,遍历其拥有的取值区间,取出相应的取值区间,设定一个目标维度的全0列向量,令参与方样本的集中样本特征的取值满足预设位置取值为1,记录相应的行向量,待划分遍历结束后,对于全部的参与方,将所述行向量通过秘密共享算法拆分为多个分片,并分发至所有参与方;
S2-2-4:参与方接收行向量分片,对第j号特征,遍历k直至最大取值区间数量kmax,计算一阶梯度和分片{BG}i[j,k]与二阶梯度和分片{BH}i[j,k]:
{BG}i[j,k]=sum({Matrixindex}i[k,:]⊙{G}i)
{BH}i[j,k]=sum({Matrixindex}i[k,:]⊙{H}i)
其中,{BG}i[j,k]为一阶梯度和分片,{BH}i[j,k]为二阶梯度和分片,[k,:]表示选取矩阵的第k行所有元素,sum(v)表示对向量v的元素求和;
S2-2-5:遍历全部的特征数量,执行S2-3-2至S2-3-4,使所有参与方完成一阶梯度和分片与二阶梯度和分片的计算。
8.根据权利要求6所述的一种基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法,其特征在于,所述步骤S2-6具体包括:
S2-6-1:对于特征j,每个参与方i取出该特征的增益分片:
Lsplit[j,:]
其中[j,:]表示选取矩阵的第j行所有元素,设定当前参与比对的初始划分索引列表向量col=[1,2,…,kmax],记录其长度为Rcol,设定初始各特征划分索引列表向量colselected;
S2-6-2:计算S2-6-1中向量分片的隔位计算结果:
S2-6-3:设定空列表new_col,遍历col_nominator,若元素位r非负,则将col[r*2]这个索引加入new_col中,否则将col[r*2+1]这个索引加入new_col中,遍历完毕后若col长度为奇数,将col最后一位添加至new_col,接下来协调方向所有参与方广播new_col,参与方令col=new_col;
S2-6-4:当col长度大于1时,迭代步骤S2-6-2到S2-6-3直到col的长度变为1,取出col中的唯一元素col[0],记录colselected[j]=col[0];
S2-6-5:遍历所有特征j,迭代步骤S2-6-1至S2-6-4,得到每一个特征的挑选划分位置,组合为完整的特征划分索引列表向量colselected,设定当前参与比对的初始当前划分索引列表向量row=[1,2,…,numfeature],记录其长度为Rrow;
S2-6-6:计算S2-6-1中向量分片的隔位计算结果:
row_nominator[r]
=Lsplit[row[r],colselected[row[r]]]-Lsplit[row[r+1],colselected[row[r]]]
S2-6-7:设定空列表new_row,遍历row_nominator,若元素位r非负,则将row[r*2]这个索引加入new_row中,否则将row[r*2+1]这个索引加入new_row中,遍历完毕后若row长度为奇数,将row最后一位添加至new_row,接下来协调方向所有参与方广播new_row,参与方令row=new_row;
S2-6-8:当row长度大于1时,迭代步骤S2-6-6到S2-6-7直到row的长度变为1,取出该元素,记录为j_best,所有参与方得到挑选后的最好特征j_best与该特征最佳划分位置colselected[jbest]。
10.根据权利要求3所述的一种基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法,其特征在于,所述步骤S3具体包括:
S3-1:每个参与方对于数据样本,使用所持有部分特征,根据本地树模型进行叶子节点预测,其中对于每个树节点,根据其划分信息进行预测,设置未进入的分支子树全部叶子节点标志位为0,若划分信息非数据样本中拥有的特征,则沿着该树节点的所有左右子树进行预测,直到找到确定特征归属的叶节点,设置标志位为1,最终每个参与方得到该树预测特征产生所有叶子节点的标志位并按叶子节点的联合决策树结构顺序拼接为标志向量,同时按照相同顺序拼接多个叶子权重为结果向量;
S3-2:每个参与方将标志向量进行秘密共享拆分,发送给所有参与方;
S3-3:每个参与方接收到其他参与方发来的标志向量分片,计算所有向量分片的按位累乘向量分片,并计算该按位累乘向量分片与自身的权值分片的按位乘结果;
S3-4:每个参与方根据所述按位乘结果进行元素求和并将结果发送至第一参与方,第一参与方接收并计算预测结果;
S3-5:遍历所有数据样本,计算相应的预测结果组合而成的预测结果向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011451287.1A CN112464287B (zh) | 2020-12-12 | 2020-12-12 | 基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011451287.1A CN112464287B (zh) | 2020-12-12 | 2020-12-12 | 基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112464287A true CN112464287A (zh) | 2021-03-09 |
CN112464287B CN112464287B (zh) | 2022-07-05 |
Family
ID=74800702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011451287.1A Active CN112464287B (zh) | 2020-12-12 | 2020-12-12 | 基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112464287B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113037489A (zh) * | 2021-05-25 | 2021-06-25 | 北京百度网讯科技有限公司 | 数据处理方法、装置、设备和存储介质 |
CN113222175A (zh) * | 2021-04-29 | 2021-08-06 | 深圳前海微众银行股份有限公司 | 信息处理方法及系统 |
CN113407988A (zh) * | 2021-05-26 | 2021-09-17 | 支付宝(杭州)信息技术有限公司 | 控制通信量的确定业务数据特征有效值的方法及装置 |
CN113674843A (zh) * | 2021-07-08 | 2021-11-19 | 浙江一山智慧医疗研究有限公司 | 医疗费用预测的方法、装置、系统、电子装置和存储介质 |
CN114091624A (zh) * | 2022-01-18 | 2022-02-25 | 蓝象智联(杭州)科技有限公司 | 一种无第三方的联邦梯度提升决策树模型训练方法 |
CN114186694A (zh) * | 2021-11-16 | 2022-03-15 | 浙江大学 | 一种高效安全,低通信的纵向联邦学习方法 |
CN114282256A (zh) * | 2022-03-04 | 2022-04-05 | 支付宝(杭州)信息技术有限公司 | 一种基于秘密分享的排序打乱方法和恢复方法 |
CN114282688A (zh) * | 2022-03-02 | 2022-04-05 | 支付宝(杭州)信息技术有限公司 | 一种两方决策树训练方法和系统 |
CN114338017A (zh) * | 2022-03-04 | 2022-04-12 | 支付宝(杭州)信息技术有限公司 | 一种基于秘密分享的排序方法和系统 |
CN114362948A (zh) * | 2022-03-17 | 2022-04-15 | 蓝象智联(杭州)科技有限公司 | 一种高效的联邦衍生特征逻辑回归建模方法 |
CN114662156A (zh) * | 2022-05-25 | 2022-06-24 | 蓝象智联(杭州)科技有限公司 | 一种基于匿名化数据的纵向逻辑回归建模方法 |
CN115396101A (zh) * | 2022-10-26 | 2022-11-25 | 华控清交信息科技(北京)有限公司 | 一种基于秘密分享的不经意打乱方法和系统 |
WO2022247620A1 (zh) * | 2021-05-24 | 2022-12-01 | 支付宝(杭州)信息技术有限公司 | 保护隐私的确定业务数据特征有效值的方法及装置 |
CN115630711A (zh) * | 2022-12-19 | 2023-01-20 | 华控清交信息科技(北京)有限公司 | 一种训练XGBoost模型的方法和多方安全计算平台 |
WO2023029944A1 (zh) * | 2021-08-30 | 2023-03-09 | 华为云计算技术有限公司 | 联邦学习的方法和装置 |
CN116738494A (zh) * | 2023-08-16 | 2023-09-12 | 北京瑞莱智慧科技有限公司 | 基于秘密分享的多方安全计算的模型训练方法和装置 |
CN116886271A (zh) * | 2023-09-07 | 2023-10-13 | 蓝象智联(杭州)科技有限公司 | 一种用于纵向联邦XGboost模型训练的梯度聚合方法 |
CN117093903A (zh) * | 2023-10-19 | 2023-11-21 | 中国科学技术大学 | 一种纵向联邦学习场景中标签推理攻击方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109165683A (zh) * | 2018-08-10 | 2019-01-08 | 深圳前海微众银行股份有限公司 | 基于联邦训练的样本预测方法、装置及存储介质 |
CN110990871A (zh) * | 2019-11-29 | 2020-04-10 | 腾讯云计算(北京)有限责任公司 | 基于人工智能的机器学习模型训练方法、预测方法及装置 |
US20200125739A1 (en) * | 2018-10-19 | 2020-04-23 | International Business Machines Corporation | Distributed learning preserving model security |
CN111241567A (zh) * | 2020-01-16 | 2020-06-05 | 深圳前海微众银行股份有限公司 | 基于秘密共享的纵向联邦学习方法、系统及存储介质 |
CN111626886A (zh) * | 2020-07-30 | 2020-09-04 | 工保科技(浙江)有限公司 | 基于多方协作的工程履约保证保险风险识别方法与平台 |
CN111695697A (zh) * | 2020-06-12 | 2020-09-22 | 深圳前海微众银行股份有限公司 | 多方联合决策树构建方法、设备及可读存储介质 |
CN111737756A (zh) * | 2020-07-31 | 2020-10-02 | 支付宝(杭州)信息技术有限公司 | 经由两个数据拥有方进行的xgb模型预测方法、装置及系统 |
CN111782550A (zh) * | 2020-07-31 | 2020-10-16 | 支付宝(杭州)信息技术有限公司 | 基于用户隐私保护训练指标预测模型的方法及装置 |
CN111832074A (zh) * | 2020-07-14 | 2020-10-27 | 西安电子科技大学 | 基于spdz安全多方计算的安全验证协作学习方法及系统 |
CN111860829A (zh) * | 2020-06-19 | 2020-10-30 | 光之树(北京)科技有限公司 | 联邦学习模型的训练方法及装置 |
-
2020
- 2020-12-12 CN CN202011451287.1A patent/CN112464287B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109165683A (zh) * | 2018-08-10 | 2019-01-08 | 深圳前海微众银行股份有限公司 | 基于联邦训练的样本预测方法、装置及存储介质 |
US20200125739A1 (en) * | 2018-10-19 | 2020-04-23 | International Business Machines Corporation | Distributed learning preserving model security |
CN110990871A (zh) * | 2019-11-29 | 2020-04-10 | 腾讯云计算(北京)有限责任公司 | 基于人工智能的机器学习模型训练方法、预测方法及装置 |
CN111241567A (zh) * | 2020-01-16 | 2020-06-05 | 深圳前海微众银行股份有限公司 | 基于秘密共享的纵向联邦学习方法、系统及存储介质 |
CN111695697A (zh) * | 2020-06-12 | 2020-09-22 | 深圳前海微众银行股份有限公司 | 多方联合决策树构建方法、设备及可读存储介质 |
CN111860829A (zh) * | 2020-06-19 | 2020-10-30 | 光之树(北京)科技有限公司 | 联邦学习模型的训练方法及装置 |
CN111832074A (zh) * | 2020-07-14 | 2020-10-27 | 西安电子科技大学 | 基于spdz安全多方计算的安全验证协作学习方法及系统 |
CN111626886A (zh) * | 2020-07-30 | 2020-09-04 | 工保科技(浙江)有限公司 | 基于多方协作的工程履约保证保险风险识别方法与平台 |
CN111737756A (zh) * | 2020-07-31 | 2020-10-02 | 支付宝(杭州)信息技术有限公司 | 经由两个数据拥有方进行的xgb模型预测方法、装置及系统 |
CN111782550A (zh) * | 2020-07-31 | 2020-10-16 | 支付宝(杭州)信息技术有限公司 | 基于用户隐私保护训练指标预测模型的方法及装置 |
Non-Patent Citations (1)
Title |
---|
陈兵: "联邦学习安全与隐私保护综述", 《南京航空航天大学学报》 * |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113222175A (zh) * | 2021-04-29 | 2021-08-06 | 深圳前海微众银行股份有限公司 | 信息处理方法及系统 |
CN113222175B (zh) * | 2021-04-29 | 2023-04-18 | 深圳前海微众银行股份有限公司 | 信息处理方法及系统 |
WO2022247620A1 (zh) * | 2021-05-24 | 2022-12-01 | 支付宝(杭州)信息技术有限公司 | 保护隐私的确定业务数据特征有效值的方法及装置 |
CN113037489A (zh) * | 2021-05-25 | 2021-06-25 | 北京百度网讯科技有限公司 | 数据处理方法、装置、设备和存储介质 |
CN113407988A (zh) * | 2021-05-26 | 2021-09-17 | 支付宝(杭州)信息技术有限公司 | 控制通信量的确定业务数据特征有效值的方法及装置 |
CN113674843A (zh) * | 2021-07-08 | 2021-11-19 | 浙江一山智慧医疗研究有限公司 | 医疗费用预测的方法、装置、系统、电子装置和存储介质 |
WO2023029944A1 (zh) * | 2021-08-30 | 2023-03-09 | 华为云计算技术有限公司 | 联邦学习的方法和装置 |
CN114186694A (zh) * | 2021-11-16 | 2022-03-15 | 浙江大学 | 一种高效安全,低通信的纵向联邦学习方法 |
CN114186694B (zh) * | 2021-11-16 | 2024-06-11 | 浙江大学 | 一种高效安全,低通信的纵向联邦学习方法 |
CN114091624A (zh) * | 2022-01-18 | 2022-02-25 | 蓝象智联(杭州)科技有限公司 | 一种无第三方的联邦梯度提升决策树模型训练方法 |
CN114091624B (zh) * | 2022-01-18 | 2022-04-26 | 蓝象智联(杭州)科技有限公司 | 一种无第三方的联邦梯度提升决策树模型训练方法 |
CN114282688A (zh) * | 2022-03-02 | 2022-04-05 | 支付宝(杭州)信息技术有限公司 | 一种两方决策树训练方法和系统 |
CN114282688B (zh) * | 2022-03-02 | 2022-06-03 | 支付宝(杭州)信息技术有限公司 | 一种两方决策树训练方法和系统 |
CN114338017B (zh) * | 2022-03-04 | 2022-06-10 | 支付宝(杭州)信息技术有限公司 | 一种基于秘密分享的排序方法和系统 |
CN114282256A (zh) * | 2022-03-04 | 2022-04-05 | 支付宝(杭州)信息技术有限公司 | 一种基于秘密分享的排序打乱方法和恢复方法 |
CN114338017A (zh) * | 2022-03-04 | 2022-04-12 | 支付宝(杭州)信息技术有限公司 | 一种基于秘密分享的排序方法和系统 |
CN114362948A (zh) * | 2022-03-17 | 2022-04-15 | 蓝象智联(杭州)科技有限公司 | 一种高效的联邦衍生特征逻辑回归建模方法 |
CN114362948B (zh) * | 2022-03-17 | 2022-07-12 | 蓝象智联(杭州)科技有限公司 | 一种联邦衍生特征逻辑回归建模方法 |
CN114662156A (zh) * | 2022-05-25 | 2022-06-24 | 蓝象智联(杭州)科技有限公司 | 一种基于匿名化数据的纵向逻辑回归建模方法 |
CN114662156B (zh) * | 2022-05-25 | 2022-09-06 | 蓝象智联(杭州)科技有限公司 | 一种基于匿名化数据的纵向逻辑回归建模方法 |
CN115396101A (zh) * | 2022-10-26 | 2022-11-25 | 华控清交信息科技(北京)有限公司 | 一种基于秘密分享的不经意打乱方法和系统 |
CN115396101B (zh) * | 2022-10-26 | 2022-12-27 | 华控清交信息科技(北京)有限公司 | 一种基于秘密分享的不经意打乱方法和系统 |
CN115630711A (zh) * | 2022-12-19 | 2023-01-20 | 华控清交信息科技(北京)有限公司 | 一种训练XGBoost模型的方法和多方安全计算平台 |
CN116738494A (zh) * | 2023-08-16 | 2023-09-12 | 北京瑞莱智慧科技有限公司 | 基于秘密分享的多方安全计算的模型训练方法和装置 |
CN116738494B (zh) * | 2023-08-16 | 2023-11-14 | 北京瑞莱智慧科技有限公司 | 基于秘密分享的多方安全计算的模型训练方法和装置 |
CN116886271A (zh) * | 2023-09-07 | 2023-10-13 | 蓝象智联(杭州)科技有限公司 | 一种用于纵向联邦XGboost模型训练的梯度聚合方法 |
CN116886271B (zh) * | 2023-09-07 | 2023-11-21 | 蓝象智联(杭州)科技有限公司 | 一种用于纵向联邦XGboost模型训练的梯度聚合方法 |
CN117093903A (zh) * | 2023-10-19 | 2023-11-21 | 中国科学技术大学 | 一种纵向联邦学习场景中标签推理攻击方法 |
CN117093903B (zh) * | 2023-10-19 | 2024-03-29 | 中国科学技术大学 | 一种纵向联邦学习场景中标签推理攻击方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112464287B (zh) | 2022-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112464287B (zh) | 基于秘密共享与联邦学习的多方XGBoost安全预测模型训练方法 | |
CN112700031B (zh) | 一种保护多方数据隐私的XGBoost预测模型训练方法 | |
CN112364908A (zh) | 一种面向决策树的纵向联邦学习方法 | |
Liu et al. | Detecting community structure in complex networks using simulated annealing with k-means algorithms | |
CN114841374B (zh) | 一种基于随机贪心算法的横向联邦梯度提升树优化方法 | |
CN114580663A (zh) | 面向数据非独立同分布场景的联邦学习方法及系统 | |
Singh et al. | Genetic algorithm for solving multiple traveling salesmen problem using a new crossover and population generation | |
CN113222181B (zh) | 一种面向k-means聚类算法的联邦学习方法 | |
CN113065143A (zh) | 基于区块链的工业数据安全共享 | |
CN113722987A (zh) | 联邦学习模型的训练方法、装置、电子设备和存储介质 | |
CN110399549A (zh) | 一种面向用户兴趣调和相似度的协同过滤方法 | |
US20230281517A1 (en) | Efficient, secure and low-communication vertical federated learning method | |
CN111985623A (zh) | 基于最大化互信息和图神经网络的属性图群组发现方法 | |
CN115659807A (zh) | 一种基于贝叶斯优化模型融合算法对人才表现预测的方法 | |
CN111460277B (zh) | 一种基于移动社交网络树状传输路径的个性化推荐方法 | |
CN114003744A (zh) | 基于卷积神经网络和向量同态加密的图像检索方法及系统 | |
CN116386899A (zh) | 基于图学习的药物疾病关联关系预测方法及相关设备 | |
CN116957112A (zh) | 联合模型的训练方法、装置、设备及存储介质 | |
CN116975778A (zh) | 一种基于信息级联的社交网络信息传播影响力预测方法 | |
CN117078312B (zh) | 一种基于人工智能的广告投放管理方法及系统 | |
CN117236465A (zh) | 一种基于信息熵的联邦决策树信息量度量方法 | |
CN116975018A (zh) | 一种数据处理方法、装置、计算机设备以及可读存储介质 | |
US20220188649A1 (en) | Decision tree-oriented vertical federated learning method | |
Bandyapadhyay et al. | Near-optimal clustering in the k-machine model | |
CN113448876A (zh) | 一种业务测试方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |