CN116186769A - 基于隐私计算的纵向联邦XGBoost特征衍生方法及相关设备 - Google Patents
基于隐私计算的纵向联邦XGBoost特征衍生方法及相关设备 Download PDFInfo
- Publication number
- CN116186769A CN116186769A CN202310105019.1A CN202310105019A CN116186769A CN 116186769 A CN116186769 A CN 116186769A CN 202310105019 A CN202310105019 A CN 202310105019A CN 116186769 A CN116186769 A CN 116186769A
- Authority
- CN
- China
- Prior art keywords
- federal learning
- federal
- xgboost
- initiator
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Bioethics (AREA)
- Computer Hardware Design (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Computer Security & Cryptography (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种基于隐私计算的纵向联邦XGBoost特征衍生方法、装置、电子设备及计算机可读存储介质,涉及计算机技术领域。该方法包括:获取基于隐私计算的联邦学习方法训练得到的XGBoost模型;基于XGBoost模型对待输入至逻辑回归LR模型的目标特征数据进行衍生,得到目标特征数据的衍生特征数据。本公开利用XGBoost模型生成逻辑回归LR模型的衍生特征数据,能够快速为LR模型生成大量新的衍生特征数据,提高了特征衍生的效率,降低了计算复杂度。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及一种基于隐私计算的纵向联邦XGBoost特征衍生方法、装置、电子设备及计算机可读存储介质。
背景技术
为了提升LR(Logistic Regression,逻辑回归)模型的预测效果,在进行LR模型训练时,往往需要大量的特征数据,而实际场景中,由于数据来源受限,只能获得少量的特征数据,需要利用该部分少量的特征数据进行数据衍生,从而获得足量的满足模型训练要求的特征数据。
目前,相关技术中主要依靠人工经验通过特征筛选、特征组合等方式来构建衍生特征数据,不仅耗时耗力,且对模型预测效果提升的意义并不十分明显。当然也可通过FM(Factorization Machines,因子分解机)、FFM(Field-aware Factorization Machine,场感知因子分解机)进行特征交叉,从原始特征数据中得到新的衍生特征数据,但FM和FFM只能做二阶的特征交叉,若要提升特征交叉的维度,则存在计算复杂度过高的问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供一种基于隐私计算的纵向联邦XGBoost特征衍生方法、装置、电子设备及计算机可读存储介质,至少在一定程度上克服相关技术中提供的特征衍生方法存在耗时耗力和计算复杂度过高的技术问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供了一种基于隐私计算的纵向联邦XGBoost特征衍生方法,该方法包括:获取基于隐私计算的联邦学习方法训练得到的XGBoost模型;基于所述XGBoost模型对待输入至逻辑回归LR模型的目标特征数据进行衍生,得到所述目标特征数据的衍生特征数据。
在一些实施例中,在获取基于隐私计算的联邦学习方法训练得到的XGBoost模型之前,所述方法还包括:基于隐私计算的联邦学习方法,对联邦学习发起方和联邦学习参与方提供的样本数据进行训练,得到满足预设条件的XGBoost模型,其中,所述联邦学习发起方拥有每个样本的标签和第一特征数据,所述联邦学习参与方拥有每个样本的第二特征数据。
在一些实施例中,基于隐私计算的联邦学习方法,对联邦学习发起方和联邦学习参与方提供的样本数据进行训练,得到满足预设条件的XGBoost模型,包括:联邦学习发起方计算每个样本的一阶导数和二阶导数;联邦学习发起方将一阶导数集合和二阶导数集合发送给联邦学习参与方,其中,所述一阶导数集合中包含所有样本的一阶导数,所述二阶导数集合中包含所有样本的二阶导数;联邦学习参与方根据接收到的一阶导数集合和二阶导数集合,生成XGBoost模型的候选分裂点信息;联邦学习参与方将生成的候选分裂点信息,返回给联邦学习发起方;联邦学习发起方根据联邦学习参与方返回的候选分裂点信息,确定XGBoost模型的最优分裂点信息;联邦学习发起方将XGBoost模型的最优分裂点信息,发送给联邦学习参与方。
在一些实施例中,在联邦学习发起方将一阶导数集合和二阶导数集合发送给联邦学习参与方之前,所述方法还包括:联邦学习发起方使用同态加密技术对一阶导数集合和二阶导数集合进行加密;其中,所述联邦学习发起方将一阶导数集合和二阶导数集合发送给联邦学习参与方包括:联邦学习发起方将加密后的一阶导数集合和二阶导数集合,发送给联邦学习参与方;所述联邦学习参与方根据接收到的一阶导数集合和二阶导数集合,生成XGBoost模型的候选分裂点信息包括:联邦学习参与方根据加密后的一阶导数集合和二阶导数集合,生成XGBoost模型的候选分裂点信息。
在一些实施例中,在联邦学习参与方将生成的候选分裂点信息,返回给联邦学习发起方之前,所述方法还包括:联邦学习参与方使用同态加密技术对生成的候选分裂点信息进行加密;其中,所述联邦学习参与方将生成的候选分裂点信息,返回给联邦学习发起方包括:联邦学习参与方将加密后的候选分裂点信息发送给联邦学习发起方;所述联邦学习发起方根据联邦学习参与方返回的候选分裂点信息,确定XGBoost模型的最优分裂点信息包括:联邦学习发起方根据联邦学习参与方返回的加密后的候选分裂点信息,确定XGBoost模型的最优分裂点信息。
在一些实施例中,在基于隐私计算的联邦学习方法,对联邦学习发起方和联邦学习参与方提供的样本数据进行训练之前,所述方法还包括:基于FLEX协议对联邦学习发起方与联邦学习参与方的样本数据进行对齐处理。
在一些实施例中,基于所述XGBoost模型对待输入至逻辑回归LR模型的目标特征数据进行衍生,得到所述目标特征数据的衍生特征数据之后,所述方法还包括:将所述目标特征数据对应的衍生特征数据输入至逻辑回归LR模型,得到所述目标特征数据对应的预测结果。
根据本公开的另一个方面,还提供了一种基于隐私计算的纵向联邦XGBoost特征衍生装置,该装置包括:模型获取模块,用于获取基于隐私计算的联邦学习方法训练得到的XGBoost模型;特征衍生模块,用于基于所述XGBoost模型对待输入至逻辑回归LR模型的目标特征数据进行衍生,得到所述目标特征数据的衍生特征数据。
在一些实施例中,所述装置还包括:模型训练模块,用于基于隐私计算的联邦学习方法,对联邦学习发起方和联邦学习参与方提供的样本数据进行训练,得到满足预设条件的XGBoost模型,其中,所述联邦学习发起方拥有每个样本的标签和第一特征数据,所述联邦学习参与方拥有每个样本的第二特征数据。
在一些实施例中,所述模型训练模块包括:联邦学习发起方数据处理单元和联邦学习参与方数据处理单元;其中,所述联邦学习发起方数据处理单元用于:联邦学习发起方计算每个样本的一阶导数和二阶导数,发送给联邦学习参与方,其中,所述一阶导数集合中包含所有样本的一阶导数,所述二阶导数集合中包含所有样本的二阶导数;所述联邦学习参与方数据处理单元用于联邦学习参与方根据接收到的一阶导数集合和二阶导数集合,生成XGBoost模型的候选分裂点信息,返回给联邦学习发起方;其中,所述联邦学习发起方数据处理单元还用于联邦学习发起方根据联邦学习参与方返回的候选分裂点信息,确定XGBoost模型的最优分裂点信息,发送给联邦学习参与方。
在一些实施例中,所述联邦学习发起方数据处理单元还用于联邦学习发起方使用同态加密技术对一阶导数集合和二阶导数集合进行加密,并将加密后的一阶导数集合和二阶导数集合,发送给联邦学习参与方,以联邦学习参与方根据加密后的一阶导数集合和二阶导数集合,生成XGBoost模型的候选分裂点信息,发送给联邦学习发起方。
在一些实施例中,所述联邦学习参与方数据处理单元用于联邦学习参与方使用同态加密技术对生成的候选分裂点信息进行加密,并将加密后的候选分裂点信息发送给联邦学习发起方,以使联邦学习发起方根据联邦学习参与方返回的加密后的候选分裂点信息,确定XGBoost模型的最优分裂点信息,发送给联邦学习参与方。
在一些实施例中,所述装置还包括:数据预处理模块,用于基于FLEX协议对联邦学习发起方与联邦学习参与方的样本数据进行对齐处理。
在一些实施例中,所述装置还包括:LR模型预测模块,用于将所述目标特征数据对应的衍生特征数据输入至逻辑回归LR模型,得到所述目标特征数据对应的预测结果。
根据本公开的另一个方面,还提供了一种电子设备,该电子设备包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的基于隐私计算的纵向联邦XGBoost特征衍生方法。
根据本公开的另一个方面,还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的基于隐私计算的纵向联邦XGBoost特征衍生方法。
根据本公开的另一个方面,还提供了一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现上述任意一项的基于隐私计算的纵向联邦XGBoost特征衍生方法。
本公开的实施例中提供的基于隐私计算的纵向联邦XGBoost特征衍生方法、装置、电子设备及计算机可读存储介质,基于隐私计算的联邦学习方法训练得到XGBoost模型,进而利用该XGBoost模型对待输入至LR模型的目标特征数据进行特征衍生,能够快速为LR模型生成大量新的衍生特征数据,提高了特征衍生的效率,降低了计算复杂度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开实施例中一种应用系统架构示意图;
图2示出本公开实施例中一种基于隐私计算的纵向联邦XGBoost特征衍生方法流程图;
图3示出本公开实施例中另一种基于隐私计算的纵向联邦XGBoost特征衍生方法流程图;
图4示出本公开实施例中一种XGBoost模型训练流程图;
图5示出本公开实施例中又一种XGBoost模型训练流程图;
图6示出本公开实施例中一种基于隐私计算的纵向联邦XGBoost特征衍生装置示意图;
图7示出本公开实施例中另一种基于隐私计算的纵向联邦XGBoost特征衍生装置示意图;
图8示出本公开实施例中一种电子设备的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
为便于理解,在介绍本公开实施例之前,首先对本公开实施例中涉及到的几个名词进行解释如下:
LR:Logistic Regression,逻辑回归,是一种用于解决分类问题的机器学习方法。
FM:Factorization Machines,因子分解机,是一种基于矩阵分解的机器学习算法,旨在解决大规模稀疏数据下的特征组合问题。
FFM:Field-aware Factorization Machine,场感知因子分解机,。
GBDT:Gradient Boost Decision Tree,梯度提升决策树,是一种Boosting算法,Boosting算法的核心思想是:利用前一次迭代的误差更新训练集的权重,矫正前一次迭代被错误分类的样本,下一次迭代会将重心放在上一次分错的样本上。
XGBoost:eXtreme Gradient Boosting,极端梯度提升,通过梯度提升的方式串行训练多棵决策树,从而实现对于模型精度的提升。
FLEX:Federated Learning Exchange,联邦学习交互,是一种开源的用于联邦学习的数据安全交换协议,该协议约定了联邦学习过程中各参与方之间交换数据的顺序,以及在交换前后采用的数据加解密方法。只要各参与方能够遵守这些约定,就可以安全地加入到联邦学习过程中以提供数据或使用联邦服务,无需担心数据隐私会有泄漏风险。
下面结合附图,对本公开实施例的具体实施方式进行详细说明。
图1示出了可以应用本公开实施例中基于隐私计算的纵向联邦XGBoost特征衍生方法的示例性应用系统架构示意图。如图1所示,该系统架构可包括:逻辑回归LR模型数据处理方设备10、联邦学习发起方设备20以及联邦学习参与方设备30。
需要说明的是,本公开实施例中的逻辑回归LR模型数据处理方设备10是指位于逻辑回归LR模型数据处理方法一侧的设备;联邦学习发起方设备20是指位于联邦学习发起方一侧的设备;联邦学习参与方设备30是指位于联邦学习参与方一侧的设备;这些设备可以是终端,也可以是服务器,当本公开实施例中的这些设备为服务器时,服务器可以与终端通过有线网络或无线网络通信。
本公开实施例中的逻辑回归LR模型数据处理方设备10、联邦学习发起方设备20以及联邦学习参与方设备30之间也可以通过有线网络或无线网络通信。
可选地,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(Hyper Text Mark-up Language,HTML)、可扩展标记语言(ExtensibleMarkupLanguage,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(Secure Socket Layer,SSL)、传输层安全(Transport Layer Security,TLS)、虚拟专用网络(Virtual Private Network,VPN)、网际协议安全(InternetProtocolSecurity,IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
本公开实施例中的终端可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机、台式计算机、可穿戴设备、增强现实设备、虚拟现实设备等。可选地,不同的终端中安装的应用程序的客户端是相同的,或基于不同操作系统的同一类型应用程序的客户端。基于终端平台的不同,该应用程序的客户端的具体形态也可以不同,比如,该应用程序客户端可以是手机客户端、PC客户端等。
本公开实施例中的服务器可以是提供各种服务的服务器,例如对用户利用终端所进行操作的装置提供支持的后台管理服务器。后台管理服务器可以对接收到的请求等数据进行分析等处理,并将处理结果反馈给终端。
可选地,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。
本领域技术人员可以知晓,图1中的逻辑回归LR模型数据处理方设备10、联邦学习发起方设备20以及联邦学习参与方设备30的数量仅仅是示意性的,根据实际需要,可以具有任意数目的逻辑回归LR模型数据处理方设备10、联邦学习发起方设备20以及联邦学习参与方设备30。本公开实施例对此不作限定。
在上述系统架构下,本公开实施例中提供了一种基于隐私计算的纵向联邦XGBoost特征衍生方法,原则上,该方法可以由任意具备计算处理能力的电子设备执行。
在一些实施例中,本公开实施例中提供的基于隐私计算的纵向联邦XGBoost特征衍生方法可以由上述系统架构的逻辑回归LR模型数据处理方设备10执行;在另一些实施例中,本公开实施例中提供的基于隐私计算的纵向联邦XGBoost特征衍生方法可以由上述系统架构中的逻辑回归LR模型数据处理方设备10和联邦学习发起方设备20以及联邦学习参与方设备30通过交互的方式来实现。
图2示出本公开实施例中一种基于隐私计算的纵向联邦XGBoost特征衍生方法流程图,如图2所示,本公开实施例中提供的基于隐私计算的纵向联邦XGBoost特征衍生方法包括如下步骤:
S202,获取基于隐私计算的联邦学习方法训练得到的XGBoost模型。
需要说明的是,本公开实施例中的XGBoost模型(多个决策树进行线性组合得到的一个集成模型)是一个根据原始特征数据构建新特征数据的特征衍生模型。XGBoost算法是GBDT算法(泛指所有的梯度提升树算法)的变种,具有可扩展性强、可大规模并行等优点,因而,将XGBoost模型用于逻辑回归LR模型的特征衍生,可快速、高效获得逻辑回归LR模型的衍生特征数据。
在具体实施时,XGBoost模型可提供一个接口,输入样本特征X(样本数量为n_sample)和用于预测的决策树的棵数n_trees,可返回一个[n_sample,n_trees]的矩阵,该矩阵的每一行代表一个样本,每一列代表一棵树,该矩阵中元素的值代表相应样本在相应树的所在节点的编号。假设训练好的XGBoost模型共有四棵树,输入某一个样本后,返回值[1,0,3,2]可代表该样本在第一颗树的第一个叶子节点,在第三棵树的第三个叶子节点,在第四棵树的第二个叶子节点。本公开实施例中,将决策树的生成过程理解为自动进行多维度特征组合与特征筛选的过程,从而利用训练好的XGBoost模型实现逻辑回归LR模型的特征衍生。
在本公开实施例中,基于隐私计算的联邦学习方法训练得到用于逻辑回归LR模型特征衍生的XGBoost模型,可以在不泄露各个数据提供方原始数据的情况下,充分利用各个数据提供方提供的数据进行联合机器学习,从而得到准确的特征衍生模型。
S204,基于XGBoost模型对待输入至逻辑回归LR模型的目标特征数据进行衍生,得到目标特征数据的衍生特征数据。
需要说明的是,本公开实施例中的逻辑回归LR模型是一种分类模型,可以应用于医学、工业、电子商务等多个领域的数据分类,例如,在医学领域,可基于患者的各种特征数据(如年龄、性别、体重指数、血液检查结果等)预测患者是否会发生某种疾病(如糖尿病、冠心病等);在工业领域,根据系统或产品的各种特征数据(如运行时长、运行速率等)预测系统或产品是否会发生故障;在电子商务领域,根据客户的各种特征数据(如历史购买某些产品的记录信息、点击或浏览某个产品的记录信息等),预测客户是否会购买某个产品等。
本公开实施例中的目标特征数据可以是待输入至逻辑回归LR模型的原始特征数据(数据维度较少),本公开实施例中的衍生特征数据是将目标特征数据输入到预先训练好的XGBoost模型后生成的新的特征数据(数据维度较多,原则上可以达到任意维度)。在利用逻辑回归LR模型进行数据分类预测时,目标特征数据的数据维度较少,本公开实施例中,利用XGBoost模型生成目标特征数据的衍生特征数据,进而再将目标特征数据和衍生特征数据输入至LR模型,能够大大提升LR模型的预测效果。
在一些实施例中,如图3所示,在基于XGBoost模型对待输入至逻辑回归LR模型的目标特征数据进行衍生,得到目标特征数据的衍生特征数据之后,本公开实施例提供的基于隐私计算的纵向联邦XGBoost特征衍生方法还可包括如下步骤:
S206,将目标特征数据和目标特征数据对应的衍生特征数据输入至逻辑回归LR模型,得到目标特征数据对应的预测结果。
通过上述实施例,将利用XGBoost模型生成的衍生特征数据和目标特征数据一起输入至逻辑回归LR模型,能够大大提升逻辑回归LR模型的模型预测效果。
需要注意的是,本公开实施例中XGBoost模型的训练与逻辑回归LR模型的预测是独立分开执行的步骤,因而,不存在将逻辑回归LR模型的梯度回传到XGBoost模型的问题。
在一些实施例中,如图3所示,在获取基于隐私计算的联邦学习方法训练得到的XGBoost模型之前,本公开实施例提供的基于隐私计算的纵向联邦XGBoost特征衍生方法还可包括如下步骤:
S200,基于隐私计算的联邦学习方法,对联邦学习发起方和联邦学习参与方提供的样本数据进行训练,得到满足预设条件的XGBoost模型,其中,联邦学习发起方拥有每个样本的标签和第一特征数据,联邦学习参与方拥有每个样本的第二特征数据。
需要说明的是,本公开实施例中的联邦学习发起方是指提供样本特征数据和样本标签数据的数据提供方;本公开实施例中的联邦学习参与方是指仅提供样本特征数据的数据提供方,可以是一个或多个。
联邦学习发起方与联邦学习参与方提供的样本特征数据可能是样本不同维度的特征数据。例如,某个用户在保险公司和银行机构中具有不同维度的特征数据,为了实现对该用户某项服务或产品的推荐,需要根据该用户多个维度的特征数据进行分类预测,而保险公司和银行机构可能都不想共享各自系统的用户数据。本公开实施例中,基于隐私计算的联邦学习方法,对各个数据提供方的样本数据进行XGBoost模型训练,能够得到一个比较准确的特征衍生模型。
需要注意的是,为了使得联邦学习发起方与联邦学习参与方的样本数据实现样本对齐,在基于隐私计算的联邦学习方法对联邦学习发起方和联邦学习参与方提供的样本数据进行训练之前,本公开实施例提供的基于隐私计算的纵向联邦XGBoost特征衍生方法还可包括如下步骤:基于FLEX协议对联邦学习发起方与联邦学习参与方的样本数据进行对齐处理。利用FLEX协议实现样本数据对齐,能够确保联邦学习各参与方的数据安全。
由于本公开实施例中的XGBoost模型是跨特征联邦学习训练得到的,在跨特征联邦学习场景中,联邦学习发起方拥有标签数据和特征数据,联邦学习参与方仅拥有特征数据,为了完成决策树的构建,需要在所有的联邦学习参与方中找出最佳分裂点,也即需要基于每个样本的一阶导数gi和二阶导数hi计算出决策树中每个节点对应特征的分裂增益,然后找到最大分裂增益。由于联邦学习参与方没有标签数据,无法单独计算每个样本的一阶导数gi和二阶导数hi,因此无法独立计算分裂增益。
可见,为了实现XGBoost模型的训练,需要为各个联邦学习参与方计算分裂增益;这便需要联邦学习发起方将每个样本的一阶导数和二阶导数发送给联邦学习参与方,以便联邦学习参与方确定候选分裂点信息,并返回给联邦学习发起方,使得联邦学习发起方确定最优分裂点信息。
具体地,本公开实施例中在训练XGBoost模型时,如图4所示,可以重复执行下述步骤以得到满足预设条件的XGBoost模型:
S402,联邦学习发起方计算每个样本的一阶导数和二阶导数。
需要说明的是,XGBoost模型是由k个模型组成的一个加法模型,假设第t次迭代训练的树模型为ft(xi),则有
在具体实施时,可根据残差公式计算每个样本的一阶导数和二阶导数。在一个实施例中,残差公式表示如下:
一阶导数gi计算公式如下:
二阶导数hi计算公式如下:
其中,
S404,联邦学习发起方将一阶导数集合和二阶导数集合发送给联邦学习参与方。
需要说明的是,一阶导数集合中包含所有样本的一阶导数,二阶导数集合中包含所有样本的二阶导数;其中,一阶导数集合和二阶导数集合分别表示如下:
一阶导数集合:
{gi}=∑igi (5)
二阶导数集合:
{hi}=∑ihi (6)
S406,联邦学习参与方根据接收到的一阶导数集合和二阶导数集合,生成XGBoost模型的候选分裂点信息。
定义节点上的样本集合为,表示将样本映射到叶子节点上的索引函数,
其中,Gj和Hj是前次得到的结果,其值可视为常数,则只有最后一棵树的叶子节点wj不确定,将目标函数对wj求一阶导数,并令其等于0,则可求得叶子节点j对应的权重为:
目标函数可简化为:
其中,T表示叶子节点的数目;wj表示叶子节点的权重,γ系统默认为0,一般无需修改,在节点分裂时,只有分裂后损失函数的值下降了,才会分裂这个节点,γ指定了这个节点分裂所需的最小损失函数。选择合适的分裂点,使得目标函数最小;λ默认值0,用于控制XGBoost的正则化部分。
S408,联邦学习参与方将生成的候选分裂点信息,返回给联邦学习发起方。
每个联邦学习参与方在本地计算所有特征的所有可能分裂点,并选择增益最大的特征作为分裂特征,将该特征的最佳分裂点确定为候选分裂点,发送给联邦学习发起方。
对于每一次分裂,原来的一个叶子节点会继续分裂成左右两个叶子节点,原叶子节点中的样本数据会根据判断规则分别进入左右两个节点中,每新分裂一个节点后,需要检测这次分裂是否会给损失函数带来增益,对于一个节点的分裂来说,分裂增益计算公式如下:
其中,Gain表示每个节点对应的分裂增益,GL表示分裂后左节点的一阶导数集合,HL表示分裂后左节点的二阶导数集合,GR表示分裂后右节点的一阶导数集合,HR表示分裂后右节点的二阶导数集合。
S410,联邦学习发起方根据联邦学习参与方返回的候选分裂点信息,确定XGBoost模型的最优分裂点信息。
在具体实施时,联邦学习发起方综合所有联邦学习参与方返回的候选分裂点信息,找出最大分裂增益的分裂点,作为全局最优分裂点。
S412,联邦学习发起方将XGBoost模型的最优分裂点信息,发送给联邦学习参与方。
通过上述实施例,可利用联邦学习发起方和多个联邦学习参与方提供的样本数据进行XGBoost模型的训练。
为了保护联邦学习发起方的数据(每个样本的一阶导数和二阶导数)不被联邦学习参与方获知,也为了保护联邦学习参与方的数据(候选分裂点信息)不被联邦学习发起方获知,实现基于隐私计算的联邦学习,在一些实施例中,如图5所示,本公开实施例中提供的方法还可通过如下步骤来实现XGBoost模型的训练:
S502,联邦学习发起方计算每个样本的一阶导数和二阶导数;
S504,联邦学习发起方使用同态加密技术对一阶导数集合和二阶导数集合进行加密,其中,一阶导数集合中包含所有样本的一阶导数,二阶导数集合中包含所有样本的二阶导数;
S506,联邦学习发起方将加密后的一阶导数集合和二阶导数集合,发送给联邦学习参与方;
S508,联邦学习参与方根据加密后的一阶导数集合和二阶导数集合,生成XGBoost模型的候选分裂点信息;
S510,联邦学习参与方使用同态加密技术对生成的候选分裂点信息进行加密;
S512,联邦学习参与方将加密后的候选分裂点信息发送给联邦学习发起方;
S514,联邦学习发起方根据联邦学习参与方返回的加密后的候选分裂点信息,确定XGBoost模型的最优分裂点信息;
S516,联邦学习发起方将XGBoost模型的最优分裂点信息,发送给联邦学习参与方。
需要说明的是,同态加密是一种允许在加密之后的密文上直接进行计算,且计算结果解密后和明文的计算结果一致的加密算法。
本公开实施例中,在联邦学习发起方向联邦学习参与方发送一阶导数集合和二阶导数集合之前,使用同态加密技术对一阶导数集合和二阶导数集合进行加密,使得联邦学习参与方只能获知一阶导数集合和二阶导数集合的加密结果,提高了联邦学习发起方的数据安全性;在联邦学习参与方向联邦学习发起方发送候选分裂点信息之前,使用同态加密技术对候选分裂点信息进行加密,使得联邦学习发起方只能获知候选分裂点信息的加密结果,提高了联邦学习参与方的数据安全性。
以训练第t棵树为例,对XGBoost模型的训练过程进行详细说明如下:
假设联邦学习的发起方P1和参与方Pi已经通过FLEX协议完成对齐。由任意一方配置好训练参数叶子权重惩罚正则项λ和叶子树惩罚正则项γ,模型的总棵数T,学习率η,树的最大深度D,并同步给其他参与方。发起方P1准备好所有样本的本方特征数据和标签数据,参与方Pi准备好所有样本的本方特征数据。对当前训练树的棵数t初始化为1,树的当前深度d初始化为1,初始化每个样本xi的预测值为0.5。
1)发起方P1根据残差公式计算每个样本对应的一阶导数gi和二阶导数hi,以所有样本对应的一阶导数集合{gi}=∑igi和二阶导数集合{hi}=∑ihi作为参数,调用FLEX协议中的HE-GB-FT子协议1(联邦学习中拥有梯度的一方将梯度加密传给另一方),参与方Pi得到所有样本经同态加密后的密文一阶导数集合{[gi]}和密文二阶导数集合{[hi]}。
2)参与方Pi遍历当前树的所有非叶子节点,将所有进入该节点的样本根据特征类别和特征值进行划分,并且得到对应的候选分裂点信息b(i),其中,b(1)为明文,b(2)为密文。在具体实施时,对每个叶节点枚举所有的可用特征;针对每个特征,将属于该节点的训练样本根据该特征值进行升序排列,通过线性扫描的方式来决定该特征的最佳分裂点,并记录该特征的分裂增益;选择增益最大的特征作为分裂特征,再用该特征的最佳分裂点作为分裂位置。
3)参与方Pi以候选分裂点信息b(o)为参数,调用HE-GB-FT子协议2(联邦学习中没有梯度的一方,根据本方特征数据计算梯度累积,密文传输给有标签的一方,然后有标签一方解密,计算最优切分点),参与方Po同时得到该节点是否可分裂。若该节点可分裂,参与方P1得到该节点的最优分裂点信息,当且仅当分裂位置位于参与方Pi时,参与方Pi才得到该节点的最优分裂点信息。
4)根据该节点的分裂信息划分样本到左右子节点;若该节点不可进行分裂或者该节点到达树最大深度D,则将该节点标记为叶子节点,计算该节点的权重w。
5)重复执行上述步骤2)至4),直到当前树中无非叶子节点。
6)参与方P1通过如下公式计算所有样本对应的预测值并存储:
XGBoost跨特征联邦训练的算法伪码如下:
“参与方P1初始化树模型:
fort=1,2,…,T:
while当前树中有非叶子节点:
对于进入每个节点的样本,将所有样本根据特征类别和特征值进行划分,并且得到对应的候选分裂点信息;
参与方Pi根据其候选分裂点信息执行HE-GB-FT协议中的子协议2,得到该节点j是否可进行分裂和最优分裂点信息;
若该节点分裂,根据最优分裂点信息划分样本到左右子节点;
若该节点不分裂,或者该节点到达最大深度D,则标记该节点为叶子节点并通过如下公式获取叶子节点j的权重:
其中,wj表示叶子节点j的权重,Gj表示映射为叶子节点j的所有输入样本的一阶导数gi之和,Hj表示映射为叶子节点j的所有输入样本的二阶导数hi之和;
end
end”
基于同一发明构思,本公开实施例中还提供了一种基于隐私计算的纵向联邦XGBoost特征衍生装置,如下面的实施例所述。由于该装置实施例解决问题的原理与上述方法实施例相似,因此该装置实施例的实施可以参见上述方法实施例的实施,重复之处不再赘述。
图6示出本公开实施例中一种基于隐私计算的纵向联邦XGBoost特征衍生装置示意图,如图6所示,该装置包括:模型获取模块61和特征衍生模块62。
其中,模型获取模块61,用于获取基于隐私计算的联邦学习方法训练得到的XGBoost模型;特征衍生模块62,用于基于XGBoost模型对待输入至逻辑回归LR模型的目标特征数据进行衍生,得到目标特征数据的衍生特征数据。
在一些实施例中,如图7所示,本公开实施例中提供的基于隐私计算的纵向联邦XGBoost特征衍生装置还可包括:模型训练模块60,用于基于隐私计算的联邦学习方法,对联邦学习发起方和联邦学习参与方提供的样本数据进行训练,得到满足预设条件的XGBoost模型,其中,联邦学习发起方拥有每个样本的标签和第一特征数据,联邦学习参与方拥有每个样本的第二特征数据。
在一些实施例中,如图7所示,模型训练模块60可包括:联邦学习发起方数据处理单元601和联邦学习参与方数据处理单元602;其中,联邦学习发起方数据处理单元601用于联邦学习发起方计算每个样本的一阶导数和二阶导数,发送给联邦学习参与方;联邦学习参与方数据处理单元602用于联邦学习参与方根据接收到的一阶导数集合和二阶导数集合,生成XGBoost模型的候选分裂点信息,返回给联邦学习发起方;其中,联邦学习发起方数据处理单元601还用于联邦学习发起方根据联邦学习参与方返回的候选分裂点信息,确定XGBoost模型的最优分裂点信息,发送给联邦学习参与方。
在一些实施例中,联邦学习发起方数据处理单元601还用于联邦学习发起方使用同态加密技术对一阶导数集合和二阶导数集合进行加密,并将加密后的一阶导数集合和二阶导数集合,发送给联邦学习参与方,以联邦学习参与方根据加密后的一阶导数集合和二阶导数集合,生成XGBoost模型的候选分裂点信息,发送给联邦学习发起方。
在一些实施例中,联邦学习参与方数据处理单元602用于联邦学习参与方使用同态加密技术对生成的候选分裂点信息进行加密,并将加密后的候选分裂点信息发送给联邦学习发起方,以使联邦学习发起方根据联邦学习参与方返回的加密后的候选分裂点信息,确定XGBoost模型的最优分裂点信息,发送给联邦学习参与方。
在一些实施例中,如图7所示,本公开实施例中提供的基于隐私计算的纵向联邦XGBoost特征衍生装置还可包括:LR模型预测模块63,用于将目标特征数据和目标特征数据对应的衍生特征数据输入至逻辑回归LR模型,得到目标特征数据对应的预测结果。
在一些实施例中,如图7所示,本公开实施例中提供的基于隐私计算的纵向联邦XGBoost特征衍生装置还可包括:数据预处理模块64,用于基于FLEX协议对联邦学习发起方与联邦学习参与方的样本数据进行对齐处理。
此处需要说明的是,上述各个模块或单元与对应的步骤所实现的示例和应用场景相同,但不限于上述方法实施例所公开的内容。需要说明的是,上述模块或单元可作为装置的一部分可以在诸如一组计算机可执行指令的计算机系统中执行。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图8来描述根据本公开的这种实施方式的电子设备800。图8显示的电子设备800仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800以通用计算设备的形式表现。电子设备800的组件可以包括但不限于:上述至少一个处理单元810、上述至少一个存储单元820、连接不同系统组件(包括存储单元820和处理单元810)的总线830。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元810执行,使得所述处理单元810执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元810可以执行上述方法实施例的如下步骤:获取基于隐私计算的联邦学习方法训练得到的XGBoost模型;基于XGBoost模型对待输入至逻辑回归LR模型的目标特征数据进行衍生,得到目标特征数据的衍生特征数据。
存储单元820可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)8201和/或高速缓存存储单元8202,还可以进一步包括只读存储单元(ROM)8203。
存储单元820还可以包括具有一组(至少一个)程序模块8205的程序/实用工具8204,这样的程序模块8205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线830可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备800也可以与一个或多个外部设备840(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备800交互的设备通信,和/或与使得该电子设备800能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口850进行。并且,电子设备800还可以通过网络适配器860与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器860通过总线830与电子设备800的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备800使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机程序产品,该计算机程序产品包括:计算机程序,所述计算机程序被处理器执行时实现上述的基于隐私计算的纵向联邦XGBoost特征衍生方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质可以是可读信号介质或者可读存储介质。其上存储有能够实现本公开上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端上运行时,所述程序代码用于使所述终端执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
本公开中的计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开中,计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可选地,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
在具体实施时,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
Claims (10)
1.一种基于隐私计算的纵向联邦XGBoost特征衍生方法,其特征在于,包括:
获取基于隐私计算的联邦学习方法训练得到的XGBoost模型;
基于所述XGBoost模型对待输入至逻辑回归LR模型的目标特征数据进行衍生,得到所述目标特征数据的衍生特征数据。
2.根据权利要求1所述的基于隐私计算的纵向联邦XGBoost特征衍生方法,其特征在于,在获取基于隐私计算的联邦学习方法训练得到的XGBoost模型之前,所述方法还包括:
基于隐私计算的联邦学习方法,对联邦学习发起方和联邦学习参与方提供的样本数据进行训练,得到满足预设条件的XGBoost模型,其中,所述联邦学习发起方拥有每个样本的标签和第一特征数据,所述联邦学习参与方拥有每个样本的第二特征数据。
3.根据权利要求2所述的基于隐私计算的纵向联邦XGBoost特征衍生方法,其特征在于,基于隐私计算的联邦学习方法,对联邦学习发起方和联邦学习参与方提供的样本数据进行训练,得到满足预设条件的XGBoost模型,包括:
联邦学习发起方计算每个样本的一阶导数和二阶导数;
联邦学习发起方将一阶导数集合和二阶导数集合发送给联邦学习参与方;
联邦学习参与方根据接收到的一阶导数集合和二阶导数集合,生成XGBoost模型的候选分裂点信息;
联邦学习参与方将生成的候选分裂点信息,返回给联邦学习发起方;
联邦学习发起方根据联邦学习参与方返回的候选分裂点信息,确定XGBoost模型的最优分裂点信息;
联邦学习发起方将XGBoost模型的最优分裂点信息,发送给联邦学习参与方。
4.根据权利要求3所述的基于隐私计算的纵向联邦XGBoost特征衍生方法,其特征在于,在联邦学习发起方将一阶导数集合和二阶导数集合发送给联邦学习参与方之前,所述方法还包括:
联邦学习发起方使用同态加密技术对一阶导数集合和二阶导数集合进行加密;
其中,所述联邦学习发起方将一阶导数集合和二阶导数集合发送给联邦学习参与方包括:联邦学习发起方将加密后的一阶导数集合和二阶导数集合,发送给联邦学习参与方;
所述联邦学习参与方根据接收到的一阶导数集合和二阶导数集合,生成XGBoost模型的候选分裂点信息包括:联邦学习参与方根据加密后的一阶导数集合和二阶导数集合,生成XGBoost模型的候选分裂点信息。
5.根据权利要求3所述的基于隐私计算的纵向联邦XGBoost特征衍生方法,其特征在于,在联邦学习参与方将生成的候选分裂点信息,返回给联邦学习发起方之前,所述方法还包括:
联邦学习参与方使用同态加密技术对生成的候选分裂点信息进行加密;
其中,所述联邦学习参与方将生成的候选分裂点信息,返回给联邦学习发起方包括:联邦学习参与方将加密后的候选分裂点信息发送给联邦学习发起方;
所述联邦学习发起方根据联邦学习参与方返回的候选分裂点信息,确定XGBoost模型的最优分裂点信息包括:联邦学习发起方根据联邦学习参与方返回的加密后的候选分裂点信息,确定XGBoost模型的最优分裂点信息。
6.根据权利要求2所述的基于隐私计算的纵向联邦XGBoost特征衍生方法,其特征在于,在基于隐私计算的联邦学习方法,对联邦学习发起方和联邦学习参与方提供的样本数据进行训练之前,所述方法还包括:
基于FLEX协议对联邦学习发起方与联邦学习参与方的样本数据进行对齐处理。
7.根据权利要求1至6中任意一项所述的基于隐私计算的纵向联邦XGBoost特征衍生方法,其特征在于,基于所述XGBoost模型对待输入至逻辑回归LR模型的目标特征数据进行衍生,得到所述目标特征数据的衍生特征数据之后,所述方法还包括:
将所述目标特征数据和所述目标特征数据对应的衍生特征数据输入至逻辑回归LR模型,得到所述目标特征数据对应的预测结果。
8.一种基于隐私计算的纵向联邦XGBoost特征衍生装置,其特征在于,包括:
模型获取模块,用于获取基于隐私计算的联邦学习方法训练得到的XGBoost模型;
特征衍生模块,用于基于所述XGBoost模型对待输入至逻辑回归LR模型的目标特征数据进行衍生,得到所述目标特征数据的衍生特征数据。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~7中任意一项所述的基于隐私计算的纵向联邦XGBoost特征衍生方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~7中任意一项所述的基于隐私计算的纵向联邦XGBoost特征衍生方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310105019.1A CN116186769A (zh) | 2023-01-19 | 2023-01-19 | 基于隐私计算的纵向联邦XGBoost特征衍生方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310105019.1A CN116186769A (zh) | 2023-01-19 | 2023-01-19 | 基于隐私计算的纵向联邦XGBoost特征衍生方法及相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116186769A true CN116186769A (zh) | 2023-05-30 |
Family
ID=86447247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310105019.1A Pending CN116186769A (zh) | 2023-01-19 | 2023-01-19 | 基于隐私计算的纵向联邦XGBoost特征衍生方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116186769A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116843371A (zh) * | 2023-09-01 | 2023-10-03 | 彩讯科技股份有限公司 | 营销推广方法、装置、设备和计算机可读存储介质 |
CN117675411A (zh) * | 2024-01-31 | 2024-03-08 | 智慧眼科技股份有限公司 | 一种基于纵向XGBoost算法的全局模型获取方法及系统 |
-
2023
- 2023-01-19 CN CN202310105019.1A patent/CN116186769A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116843371A (zh) * | 2023-09-01 | 2023-10-03 | 彩讯科技股份有限公司 | 营销推广方法、装置、设备和计算机可读存储介质 |
CN116843371B (zh) * | 2023-09-01 | 2023-12-05 | 彩讯科技股份有限公司 | 营销推广方法、装置、设备和计算机可读存储介质 |
CN117675411A (zh) * | 2024-01-31 | 2024-03-08 | 智慧眼科技股份有限公司 | 一种基于纵向XGBoost算法的全局模型获取方法及系统 |
CN117675411B (zh) * | 2024-01-31 | 2024-04-26 | 智慧眼科技股份有限公司 | 一种基于纵向XGBoost算法的全局模型获取方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113159327B (zh) | 基于联邦学习系统的模型训练方法、装置、电子设备 | |
WO2022089256A1 (zh) | 联邦神经网络模型的训练方法、装置、设备、计算机程序产品及计算机可读存储介质 | |
JP7208952B2 (ja) | 対話モデルを生成するための方法及び装置 | |
US20230039182A1 (en) | Method, apparatus, computer device, storage medium, and program product for processing data | |
CN112733967B (zh) | 联邦学习的模型训练方法、装置、设备及存储介质 | |
US20220230071A1 (en) | Method and device for constructing decision tree | |
CN116186769A (zh) | 基于隐私计算的纵向联邦XGBoost特征衍生方法及相关设备 | |
US11423325B2 (en) | Regression for metric dataset | |
Moncada-Torres et al. | VANTAGE6: an open source priVAcy preserviNg federaTed leArninG infrastructurE for Secure Insight eXchange | |
CN110610093B (zh) | 用于在参数数据集中进行分布式训练的方法、系统和介质 | |
CN112347500B (zh) | 分布式系统的机器学习方法、装置、系统、设备及存储介质 | |
KR20200145641A (ko) | 정보 생성 방법 및 장치 | |
WO2023174036A1 (zh) | 联邦学习模型训练方法、电子设备及存储介质 | |
CN114330125A (zh) | 基于知识蒸馏的联合学习训练方法、装置、设备及介质 | |
CN113051586B (zh) | 联邦建模系统及方法、联邦模型预测方法、介质、设备 | |
CN113254716B (zh) | 视频片段检索方法、装置、电子设备和可读存储介质 | |
US11120198B2 (en) | Method and system for generating and submitting a petition | |
CN113221153B (zh) | 图神经网络训练方法、装置、计算设备及存储介质 | |
US11991156B2 (en) | Systems and methods for secure averaging of models for federated learning and blind learning using secure multi-party computation | |
CN112000988A (zh) | 因子分解机回归模型构建方法、设备及可读存储介质 | |
WO2021121295A1 (zh) | 基于进化树的模拟生物教学方法以及装置 | |
CN113435537B (zh) | 基于Soft GBDT的跨特征联邦学习方法、预测方法 | |
WO2022156468A1 (zh) | 模型数据处理方法、装置、电子设备以及计算机可读介质 | |
CN115345279A (zh) | 多指标异常检测方法、装置、电子设备及存储介质 | |
CN113609397A (zh) | 用于推送信息的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |