CN112365001B - 模型的生成方法、装置和服务器 - Google Patents
模型的生成方法、装置和服务器 Download PDFInfo
- Publication number
- CN112365001B CN112365001B CN202011251129.1A CN202011251129A CN112365001B CN 112365001 B CN112365001 B CN 112365001B CN 202011251129 A CN202011251129 A CN 202011251129A CN 112365001 B CN112365001 B CN 112365001B
- Authority
- CN
- China
- Prior art keywords
- model
- data
- sample data
- server
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 99
- 238000012549 training Methods 0.000 claims abstract description 209
- 238000012545 processing Methods 0.000 claims abstract description 114
- 230000000977 initiatory effect Effects 0.000 claims description 15
- 238000012512 characterization method Methods 0.000 claims description 11
- 238000007477 logistic regression Methods 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000012216 screening Methods 0.000 claims description 9
- 238000003062 neural network model Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 230000003993 interaction Effects 0.000 description 21
- 238000004891 communication Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000002452 interceptive effect Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本说明书提供了模型的生成方法、装置和服务器。在人工智能领域,第二服务器可以预先利用所持有的第二样本数据训练得到对应不同模型类型的多个中间模型;在需要联合建模时,第一服务器可以发起携带有所需要的模型类型的标识信息的模型训练请求,并接收第二服务器基于该模型训练请求所反馈的匹配的中间模型;再根据预设的处理规则,利用匹配的中间模型处理所持有的第一样本数据,得到对应的中间数据;组合第一样本数据和中间数据得到综合了第一样本数据和第二样本数据的数据特征的训练数据,再利用上述训练数据训练目标模型。从而可以降低联合建模时数据方的数据遭到泄露的风险,能安全、高效地利用双方各自拥有的样本数据训练得到目标模型。
Description
技术领域
本说明书属于人工智能技术领域,尤其涉及模型的生成方法、装置和服务器。
背景技术
在许多涉及人工智能的应用场景(例如,银行客户的交易风险检测场景等)中,不同的数据方往往分别持有不同的样本数据。例如,A银行持有B城客户的信贷数据,C银行持有D城客户的信贷数据。
有时,为了训练得到符合要求的模型,常常需要持有不同样本数据的多个数据方合作,以便能够同时利用不同的数据方所各自持有的样本数据进行联合建模,得到覆盖范围较好、准确率较高的模型。但是,基于现有方法在进行联合建模时可能会泄露数据方所持有的样本数据,对参与联合建模的数据方的数据安全造成威胁。此外,由于不同数据方之间还会存在差异,使得在进行联合建模时往往还需要另外部署与参与联合建模的多个数据方都匹配的交互平台,导致还会存在部署成本高、效率较低的问题。
针对上述问题,目前尚未提出有效的解决方案。
发明内容
本说明书提供了一种模型的生成方法、装置和服务器,以降低联合建模时数据方所持有的数据遭到泄露的风险,能够安全、高效地利用双方各自拥有的样本数据训练得到目标模型。
本说明书提供的一种模型的生成方法,应用于第一服务器,包括:
发起模型训练请求;其中,所述模型训练请求携带有模型类型的标识信息,所述第一服务器持有第一样本数据;
接收第二服务器基于所述模型训练请求所反馈的匹配的中间模型;其中,所述第二服务器持有第二样本数据,所述第二服务器预先利用所述第二样本数据训练得到对应不同模型类型的多个中间模型;
根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据;
根据所述第一样本数据和所述中间数据,得到训练数据;
利用所述训练数据,在本地进行模型训练,以得到目标模型。
在一个实施例中,所述模型类型包括以下至少之一:逻辑回归类模型、梯度提升类模型、神经网络类模型。
在一个实施例中,在所述匹配的中间模型包括逻辑回归类模型的情况下,所述根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据,包括:
根据与所述逻辑回归类模型相匹配的预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到对应的预测概率;
将所述预测概率,确定为与所述第一样本数据对应的中间数据。
在一个实施例中,在所述匹配的中间模型包括梯度提升类模型的情况下,所述根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据,包括:
根据与所述梯度提升类模型相匹配的预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,确定出对应的预测结果,以及预测概率;
对所述预测结果进行编码处理,得到对应的编码结果;
将所述编码结果、所述预测概率,确定为与所述第一样本数据对应的中间数据。
在一个实施例中,在所述匹配的中间模型包括神经网络类模型的情况下,所述根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据,包括:
根据与所述神经网络类模型相匹配的预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,并提取经所述中间模型中的全连层输出的特征表征数据,以及中间模型输出的预测概率;
将所述特征表征数据、所述预测概率,确定为与所述第一样本数据对应的中间数据。
在一个实施例中,根据所述第一样本数据和所述中间数据,得到训练数据,包括:
将相互的对应的中间数据与第一样本数据进行组合,作为一组训练数据。
在一个实施例中,在发起模型训练请求之前,所述方法还包括:
接收第二服务器发送的模型信息列表;其中,所述模型信息列表包含有与中间模型的模型类型对应的标识信息,所述第二服务器根据预先训练得到的多个中间模型的模型类型生成所述模型信息列表;
根据所述模型信息列表,以及待生成的目标模型,生成所述模型训练请求。
在一个实施例中,在接收第二服务器发送的模型信息列表之后,所述方法还包括:
在确定所述模型信息列表不包含有目标类型的标识信息的情况下,生成中间模型训练请求;其中,所述中间模型训练请求携带有的目标类型的标识信息;
向所述第二服务器发送所述中间模型训练请求,以使得所述第二服务器在线利用第二样本数据训练生成所述目标类型的中间模型。
在一个实施例中,所述方法还包括:
接收来自终端设备的数据处理请求;
根据所述数据处理请求,确定出所述待生成的目标模型。
在一个实施例中,所述处理请求携带有待处理的目标业务数据;相应的,在利用所述训练数据,在本地进行模型训练,以得到目标模型之后,所述方法还包括:
利用所述目标模型处理所述目标业务数据,得到对应的目标结果;
将所述目标结果发送至终端设备。
在一个实施例中,所述目标业务数据包括:待测的目标用户预设时间段内的交易记录;相应的,所述目标结果包括:待测的目标用户存在信用风险的概率值。
在一个实施例中,在发起模型训练请求之后,所述方法还包括:
以第一样本数据作为输入,与以匹配的中间模型作为输入的第二服务器进行安全多方计算,以得到与所述第一样本数据对应的中间数据。
本说明书还提供一种模型的生成方法,应用于第二服务器,包括:
接收模型训练请求;其中,所述模型训练请求携带有模型类型的标识信息,所述第二服务器持有第二样本数据;
响应所述模型训练请求,从预先利用所述第二样本数据训练得到的多个中间模型中,筛选出与所述模型类型的标识信息匹配的中间模型,作为匹配的中间模型;
将所述匹配的中间模型发送至第一服务器;其中,所述第一服务器持有第一样本数据,所述第一服务器用于根据所述中间模型和所述第一样本数据训练目标模型。
在一个实施例中,将所述匹配的中间模型发送至第一服务器,包括:
加密所述匹配的中间模型,得到匹配的中间模型的密文数据;
将所述匹配的中间模型的密文数据发送至第一服务器。
本说明书提供了一种模型的生成装置,包括:
发起模块,用于发起模型训练请求;其中,所述模型训练请求携带有模型类型的标识信息,所述第一服务器持有第一样本数据;
接收模块,用于接收第二服务器基于所述模型训练请求所反馈的匹配的中间模型;其中,所述第二服务器持有第二样本数据,所述第二服务器预先利用所述第二样本数据训练得到对应不同模型类型的多个中间模型;
处理模块,用于根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据;
组合模块,用于根据所述第一样本数据和所述中间数据,得到训练数据;
训练模块,用于利用所述训练数据,在本地进行模型训练,以得到目标模型。
本说明书还提供了一种模型的生成装置,包括:
接收模块,用于接收模型训练请求;其中,所述模型训练请求携带有模型类型的标识信息,所述第二服务器持有第二样本数据;
筛选模块,用于响应所述模型训练请求,从预先利用所述第二样本数据训练得到的多个中间模型中,筛选出与所述模型类型的标识信息匹配的中间模型,作为匹配的中间模型;
发送模块,用于将所述匹配的中间模型发送至第一服务器;其中,所述第一服务器持有第一样本数据,所述第一服务器用于根据所述中间模型和所述第一样本数据训练目标模型。
本说明书提供了一种服务器,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现上述模型的生成方法的相关步骤。
本说明书还提供了一种计算机可读存储介质,其上存储有计算机指令,所述指令被执行时实现上述模型的生成方法的相关步骤。
本说明书提供的一种模型的生成方法、装置和服务器,基于该方法,第二服务器可以预先利用所持有的第二样本数据训练得到对应不同模型类型的多个中间模型;在需要联合建模时,第一服务器可以发起携带有所需要的模型类型的标识信息的模型训练请求,并接收第二服务器基于该模型训练请求所反馈的匹配的中间模型;进而第一服务器可以根据预设的处理规则,利用匹配的中间模型处理所持有的第一样本数据,得到对应的中间数据;并通过组合第一样本数据和中间数据,得到综合了第一样本数据和第二样本数据的数据特征的训练数据,再利用上述训练数据在第一服务器本地训练得到所需要的目标模型。从而可以避免联合建模时服务器之间交互传输基于各自所持有的样本数据所直接得到的相关数据,有效地降低了参与联合建模的数据方所持有的样本数据遭到泄露的风险,保护数据方的数据隐私,能够安全、高效地利用双方所各自拥有的样本数据进行联合训练,得到所需要的目标模型。
附图说明
为了更清楚地说明本说明书实施例,下面将对实施例中所需要使用的附图作简单地介绍,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是应用本说明书实施例提供的模型的生成方法的处理系统的结构组成的一个实施例的示意图;
图2是本说明书的一个实施例提供的模型的生成方法的流程示意图;
图3是在一个场景示例中,应用本说明书实施例提供的模型的生成方法的一种实施例的示意图;
图4是本说明书的一个实施例提供的模型的生成方法的流程示意图;
图5是本说明书的一个实施例提供的服务器的结构组成示意图;
图6是本说明书的一个实施例提供的模型的生成装置的结构组成示意图;
图7是在一个场景示例中,应用本说明书实施例提供的模型的生成方法的一种实施例的示意图;
图8是在一个场景示例中,应用本说明书实施例提供的模型的生成方法的一种实施例的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。
考虑到人工智能领域中基于现有的联合建模方法(例如,联邦学习等),参与联合建模的数据方往往需要将基于己方所持有的样本数据直接得到的相关数据发送给对方,以便可以同时利用双方所各自持有的样本数据来进行联合建模。但基于上述方法,对方或者第三方根据上述交互传输的相关数据,相对能够较容易地反推出所对应的样本数据,进而会使得在联合建模的过程中对己方所持有的数据信息造成泄露,导致难以有效地保护数据方的数据隐私。此外,基于上述方法,往往需要先根据参与联合建模的两个数据方的具体特点,设计并建立对应的交互平台、交互协议等;进而才能基于上述交互平台、交互协议进行具体的联合建模。这样势必会增加联合建模的成本,影响联合建模的建模效率。
针对产生上述问题的根本原因,本说明书考虑可以摒弃以往在进行联合建模时所采用的交互方式,而是引入一种全新的交互方式来进行联合建模。具体的,持有第二样本数据的第二服务器可以预先利用第二样本数据训练得到对应不同模型类型的多个中间模型(一种程序代码而不是基于样本数据直接得到的相关数据)。在需要联合建模时,第一服务器可以发起携带有所需要的模型类型的标识信息的模型训练请求,并接收第二服务器基于该模型训练请求所反馈的匹配的中间模型。进而第一服务器可以根据预设的处理规则,利用匹配的中间模型处理所持有的第一样本数据,得到对应的中间数据;并组合第一样本数据和中间数据得到综合了第一样本数据和第二样本数据的数据特征的训练数据;再利用上述训练数据训练目标模型。通过采用上述交互方式来进行联合建模,可以避免联合建模时服务器之间直接交互传输基于各自所持有的样本数据所直接得到的相关数据,而是交互中间模型这种相对更难反推出样本数据的程序代码,从而可以有效地降低了参与联合建模的数据方所持有的样本数据遭到泄露的风险,保护数据方的数据隐私;同时,也能更好地兼容不同的数据方的具体特点,不需要再单独为参与联合建模的数据方重新设计相应的交互平台、交互协议,可以有效地降低了训练成本,提高了训练效率。因此能够安全、高效地利用双方所各自拥有的样本数据进行联合训练,得到所需要的目标模型。
基于上述考虑,本说明书实施例提供一种模型的生成方法。该方法具体可以应用于包含有第一服务器和第二服务器的处理系统中。具体可以参阅图1所示。第一服务器和第二服务器之间可以通过有线或无线的方式相连,以进行相应的数据交互。
其中,上述第一服务器具体可以理解为部署于第一数据方一侧的服务器,持有第一样本数据。上述第二服务器具体可以理解为部署于第二数据方一侧的服务器,持有第二样本数据。
在本实施例中,所述第一服务器、第二服务器具体可以包括一种应用于业务平台一侧,能够实现数据传输、数据处理等功能的后台服务器。具体的,所述第一服务器、第二服务器例如可以为一个具有数据运算、存储功能以及网络交互功能的电子设备。或者,所述第一服务器、第二服务器也可以为运行于该电子设备中,为数据处理、存储和网络交互提供支持的软件程序。在本实施例中,并不具体限定所述第一服务器、第二服务器所包含的服务器的数量。所述第一服务器、第二服务器具体可以为一个服务器,也可以为几个服务器,或者,由若干服务器形成的服务器集群。
具体实施前,第二服务器可以预先利用己方所持有的第二样本数据训练并保存对应不同模型类型的多个中间模型。
具体实施时,第一服务器在需要进行联合建模时,可以发起模型训练请求。其中,该模型训练请求可以携带有模型类型的标识信息。
第二服务器接收并响应该模型训练请求,根据模型类型的标识信息,从多个中间模型中筛选出匹配的中间模型,并将该匹配的中间模型发送至第一服务器。
第一服务器接收匹配的中间模型,并根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据。
第一服务器可以根据所述第一样本数据和所述中间数据,通过组合等方式,得到同时综合了第一样本数据和第二样本数据的数据特点训练数据;进而可以利用上述训练数据,在第一服务器本地进行模型训练,以得到目标模型。
通过上述方式,在联合建模时,第二服务器不需要将基于所持有的第二样本数据直接得到的相关数据发送给第一服务器,同时也不需要针对第一服务器、第二服务器的具体特点单独设计部署相匹配的训练交互平台、交互协议等,从而能够有效地保护参与联合建模的数据方的数据隐私,同时降低建模成本,提高建模效率,安全、高效地利用双方所各自拥有的样本数据进行联合训练,得到所需要的目标模型。
参阅图2所示,本说明书实施例提供了一种模型的生成方法。其中,该方法具体应用于第一服务器一侧。具体实施时,该方法可以包括以下内容。
S201:发起模型训练请求;其中,所述模型训练请求携带有模型类型的标识信息,所述第一服务器持有第一样本数据。
S202:接收第二服务器基于所述模型训练请求所反馈的匹配的中间模型;其中,所述第二服务器持有第二样本数据,所述第二服务器预先利用所述第二样本数据训练得到对应不同模型类型的多个中间模型。
S203:根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据。
S204:根据所述第一样本数据和所述中间数据,得到训练数据。
S205:利用所述训练数据,在本地进行模型训练,以得到目标模型。
通过上述实施例可以在联合建模时,第二服务器不需要将基于所持有的第二样本数据直接得到的相关数据发送给第一服务器,同时也不需要针对第一服务器、第二服务器的具体特点单独设计部署相匹配的训练交互平台、交互协议等,从而能够有效地保护参与联合建模的数据方的数据隐私,同时也能降低建模成本,提高建模效率。
在一个实施例中,上述模型训练请求具体可以用于请求与第二服务器合作,以联合训练目标模型。其中,上述目标模型具体可以理解为待通过联合训练所生成的模型。上述模型类型的标识信息具体可以理解为用于指示所需要的中间模型的模型类型的标识信息。
在一个实施例中,上述模型类型具体可以包括以下至少之一:逻辑回归(LR)类模型、梯度提升(GBDT)类模型、神经网络(DNN)类模型等。当然,上述所列举的模型类型只是一种示意性说明。具体实施时,根据具体情况和处理需求,还可以包括其他的模型类型。对此,本说明书不作限定。
通过上述实施例可以根据具体情况和处理需要,支持用户使用不同类型的模型,来构建得到满足多样化要求的目标模型。
在一个实施例中,在第一服务器需要利用第二服务器所持有的第二样本数据进行联合建模来训练目标模型时,第一服务器可以生成上述携带有模型类型的标识信息的模型训练请求;并将该模型训练请求发送至第二服务器。
在一个实施例中,上述第一服务器具体可以持有第一数据方所拥有的第一样本数据,上述第二服务器具体可以持有第二数据方所拥有的第二样本数据。其中,上述第一样本数据和第二样本数据可以是对应不同数据对象的特征数据。
具体的,例如,在信用风险检测场景中,上述第一样本数据具体可以是第一组用户的在某一个历史时间段(例如,最近一个月)的交易记录,而上述第二样本数据具体可以是第二组用户在同一个历史时间段的交易记录。在疾病检测场景中,上述第一样本数据具体可以是某一地区的用户的体检数据,而上述第二样本数据具体可以是另一地区的用户的体检数据等。当然,上述所列举的第一样本数据、第二样本数据只是一种示意性说明。具体实施时,根据具体的应用场景,上述第一样本数据、第二样本数据还可以包括其他类型的特征数据。对此,本说明书不作限定。
在一个实施例中,具体实施前,第二服务器可以预先利用己方所持有的第二样本数据训练得到对应不同模型类型的多个中间模型,并在第二服务器一侧保存上述多个中间模型。其中,上述中间模型具体可以理解为一种利用第二样本数据对初始的基础模型进行一定程度的训练后所得到模型。需要指出的是上述中间模型是一种程序代码,相对的,通过上述中间模型很难反推出所使用的样本数据。
在一个实施例中,第二服务器在按照上述方式训练得到多个中间模型后,还可以生成对应的模型信息列表。其中,该模型信息列表具体可以包含有与中间模型的模型类型对应的标识信息。进一步,第二服务器可以将上述模型信息列表发送至第一服务器,以便第一服务器可以基于上述模型信息列表确定出用于训练目标模型的中间模型的模型类型。
在一个实施例中,第一服务器可以根据待生成的目标模型的模型类型,确定出所需要的中间模型的模型类型。具体的,例如,待生成的目标模型的模型类型为逻辑回归类模型,可以确定所需要的中间模型的模型类型也为逻辑回归类模型。
在一个实施例中,第一服务器可以根据具体的应用场景,以及所要执行的数据处理具体特点,确定出待生成的目标模型的模型类型。
在一个实施例中,在发起模型训练请求之前,所述方法具体实施时,还可以包括以下内容:接收第二服务器发送的模型信息列表;其中,所述模型信息列表包含有与中间模型的模型类型对应的标识信息,所述第二服务器根据预先训练得到的多个中间模型的模型类型生成所述模型信息列表;根据所述模型信息列表,以及待生成的目标模型,生成所述模型训练请求。
通过上述实施例,第一服务器可以根据第二服务器所提供的模型信息列表,从第二服务器当前已有的多种不同模型类型的中间模型中筛选出所需要中间模型。
在一个实施例中,在接收第二服务器发送的模型信息列表之后,所述方法具体实施时,还可以包括以下内容:在确定所述模型信息列表不包含有目标类型的标识信息的情况下,生成中间模型训练请求;其中,所述中间模型训练请求携带有的目标类型的标识信息;向所述第二服务器发送所述中间模型训练请求,以使得所述第二服务器在线利用第二样本数据训练生成所述目标类型的中间模型。
在本实施例中,在第一服务器根据第二服务器所提供的模型信息列表发现第二服务器预先训练得到的多个中间模型没有所需要的目标类型的中间模型的情况下,可以按照上述向第二服务器发送中间模型训练请求。第二服务器可以接收并响应该中间模型训练请求,在线利用第二样本数据训练训练得到第一服务器所需要的目标类型的中间模型,并反馈给第一服务器。
通过上述实施例,在第一服务器根据模型信息列表从第二服务器当前已有的中间模型中没有找所需要的模型的情况下,还可以通过向第二服务器发送对应的中间模型训练请求,以触发第二服务器临时训练得到第一服务器所需要的中间模型,从而可以满足更多样化的训练要求。
在一个实施例中,第二服务器可以响应所接收到的模型训练请求,根据该模型训练请求所携带的模型类型的标识信息,从预先训练得到的多个中间模型中筛选出模型类型与模型类型的标识对应的中间模型,作为匹配的中间模型;并将该中间模型反馈给第一服务器。这样,第二服务器可以不需要直接将基于所持有的第二样本数据直接得到的相关数据传输给第一服务器,降低了第二样本数据遭到泄露的风险,保护了第二服务器一侧的数据隐私。
在一个实施例中,第二服务器在确定出匹配的中间模型后,可以先对该匹配的中间模型进行加密处理,得到对应的匹配的中间模型的密文数据;再将匹配的中间模型的密文数据发送个第一服务器,从而可以进一步降低数据信息遭到泄露的风险,更好地保护了联合建模过程中的数据安全。
在一个实施例中,第一服务器可以根据预设的处理规则,利用基于第二样本数据得到匹配的中间模型处理所持有的第一样本数据,得到与第一样本数据对应的中间数据。
在本实施例中,上述中间数据具体可以理解为一种利用中间模型处理第一样本数据所得到的特征数据。其中,由于上述中间模型是基于第二样本数据得到的,因此通过上述方式处理得到的中间数据不但会包含有第一样本数据的数据特征,还会同时包含有第二样本数据的数据特征。即,上述中间数据综合有第一样本数据和第二样本数据两种不同的样本数据的数据特点。
在一个实施例中,考虑到不同模型类型在训练过程中的差异,上述预设的处理规则具体可以包括与不同模型类型相匹配的多个处理规则。具体的,上述预设的处理规则可以包括:与逻辑回归类模型相匹配的预设的处理规则、与梯度提示类模型相匹配的预设的处理规则、与神经网络类模型相匹配的预设的处理规则等。具体实施时,针对不同模型类型的中间模型,第一服务器可以采用相匹配的预设的处理规则,来利用第一样本数据和中间模型进行相应处理,以得到所需要的不同类型的中间数据。
在一个实施例中,在所述匹配的中间模型包括逻辑回归类模型的情况下,所述根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据,具体实施时,可以包括以下内容。
S1:根据与所述逻辑回归类模型相匹配的预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到对应的预测概率;
S2:将所述预测概率,确定为与所述第一样本数据对应的中间数据。
通过上述实施例,可以通过确定并利用与逻辑回归类模型相匹配的预设的处理规则处理第一样本数据,以得到对于该模型类型的中间模型效果相对更好的中间数据。
具体的,例如,一个匹配的中间模型可以表示为以下算式:其中,p表示为中间模型的预测概率(即中间模型的模型输出),w、b分别表示为中间模型的第一模型参数和第二模型参数,x表示为中间模型的模型输入。
第一服务器所持有的其中一个第一样本数据x可以表示为以下形式:x=(b1,b2,b3……)。其中,上述b1,b2,b3……具体可以表示第一样本数据中具体特征值。例如,交易金额、交易时间、交易的标的物等。
具体处理时,第一服务器可以将上述第一样本数据x输入至匹配的中间模型中,得到对应的模型输出,即预测概率p。并将该预测概率p确定为与第一样本数据x对应的中间数据。
在一个实施例中,在所述匹配的中间模型包括梯度提升类模型的情况下,所述根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据,具体实施时,可以包括以下内容。
S1:根据与所述梯度提升类模型相匹配的预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,确定出对应的预测结果,以及预测概率;
S2:对所述预测结果进行编码处理,得到对应的编码结果;
S3:将所述编码结果、所述预测概率,确定为与所述第一样本数据对应的中间数据。
具体的,例如,第一服务器所接收的匹配的中间模型可以参阅图3所示。第一服务器所持有的其中一个第一样本数据x可以表示为以下形式:x=(b1,b2,b3……)。
通过上述实施例,可以通过确定并利用与梯度提升类模型相匹配的预设的处理规则处理第一样本数据,以得到对于该模型类型的中间模型效果相对更好的中间数据。
具体处理时,第一服务器可以将上述第一样本数据x输入至匹配的中间模型中,并运行该匹配的中间模型。该匹配的中间模型在运行时,会遍历第一样本数据中的各个特征值;在完成对上述各个特征值的遍历后,可以确定出对应的预测结果,即命中基于该中间模型的树中标签为y1、y2的两个节点中,作为模型输出。同时,该模型还会输出命中上述标签为y1、y2的两个节点的预测概率p。
考虑到上述预测结果往往不是数值型的,第一服务器可以根据该所命中的标签为y1、y2的两个节点的位置,对该预测结果进行编码处理,得到对应的编码值。可以参阅图3所示。将所命中的标签为y1的节点位置所对应的编码值[1,0,0],与所命中的标签为y2的节点位置所对应的编码值[0,1]进行组合,得到与该预测结果对应的编码结果,记为[1,0,0,0,1]。
进而可以将上述编码结果[1,0,0,0,1]和预测概率p两个数据作为与第一样本数据对应的中间数据。
在一个实施例中,在所述匹配的中间模型包括神经网络类模型的情况下,所述根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据,具体实施时,可以包括以下内容。
S1:根据与所述神经网络类模型相匹配的预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,并提取经所述中间模型中的全连层输出的特征表征数据,以及中间模型输出的预测概率;
S2:将所述特征表征数据、所述预测概率,确定为与所述第一样本数据对应的中间数据。
通过上述实施例,可以通过确定并利用与神经网络类模型相匹配的预设的处理规则处理第一样本数据,以得到对于该模型类型的中间模型效果相对更好的中间数据。
具体的,例如,匹配的中间模型具体可以是一种包含有多个网络层的神经网络模型。第一服务器所持有的其中一个第一样本数据x可以表示为以下形式:x=(b1,b2,b3……)。
具体处理时,第一服务器可以将上述第一样本数据x输入至匹配的中间模型中,并运行该匹配的中间模型。该匹配的中间模型在运行时,会先利用匹配的中间模型中的全连接层提取出特征表征数据,可以记为(c1,c2,c3……cn)。再将上述特征表征数据输入至下一层网络层进行处理,以最终完成对第一样本数据x的处理,输出预测概率p。
第一服务可以通过预先设置在匹配的中间模型中的全连接层的数据接口,导出匹配的中间模型在处理第一样本数据x的过程中生成的特征表征数据(c1,c2,c3……cn)。
进而可以将上述特征表征数据(c1,c2,c3……cn)和预测概率p两个数据作为与第一样本数据对应的中间数据。
在一个实施例中,具体实施时,根据第一样本数据和中间数据,通过组合,得到对应的训练数据。这样得到的训练数据能够较为全面、有效地综合第一样本数据和第二样本数据的数据特征。
在一个实施例中,上述根据所述第一样本数据和所述中间数据,得到训练数据,具体实施时,可以包括:将相互的对应的中间数据与第一样本数据进行组合,作为一组训练数据。从而可以得到同时兼顾了第一样本数据的数据特征和第二样本数据的数据特征,覆盖性更广、效果更好的训练数据。
具体的,例如,在匹配的中间模型为逻辑回归类模型的情况下,与第一样本数据x=(b1,b2,b3……)对应的中间数据为p。第一服务器可以将p作为所对应的第一样本数据中最后一位的特征数值,与第一样本数据x进行组合,得到以下所示的一组训练数据(b1,b2,b3……,p)。
在匹配的中间模型为梯度提升类模型的情况下,与第一样本数据x=(b1,b2,b3……)对应的中间数据为编码结果[1,0,0,0,1]和预测概率p。第一服务器可以将上述[1,0,0,0,1]和p,分别作为所对应的第一样本数据中的最后二位、最后一位的特征数值,与第一样本数据x进行组合,得到以下所示的一组训练数据(b1,b2,b3……,1,0,0,0,1,p)。
在匹配的中间模型为神经网络类模型的情况下,与第一样本数据x=(b1,b2,b3……)对应的中间数据为特征表征数据(c1,c2,c3……cn)和预测概率p。第一服务器可以将(c1,c2,c3……cn)和p,分别作为所对应的第一样本数据中的最后二位、最后一位的特征数值,与第一样本数据x进行组合,得到以下所示的一组训练数据(b1,b2,b3……,c1,c2,c3……cn,1,0,0,0,1,p)。
通过上述方式,第一服务器和第二服务器不需要相互传输各自所持有的样本数据,第一服务器就能够得到较好地综合了第一样本数据和第二样本数据的数据特征的训练数据。进而,第一服务器可以直接在本地利用上述训练数据进行模型训练,得到所需要的目标模型。
在本实施例中,第二服务器可以预先利用所持有的第二样本数据训练得到对应不同模型类型的多个中间模型;在需要联合建模时,第一服务器可以发起携带有所需要的模型类型的标识信息的模型训练请求,并接收第二服务器基于该模型训练请求所反馈的匹配的中间模型;进而可以根据预设的处理规则,利用匹配的中间模型处理所持有的第一样本数据,得到对应的中间数据;组合第一样本数据和中间数据得到综合了第一样本数据和第二样本数据的数据特征的训练数据,再利用上述训练数据训练目标模型。从而可以避免联合建模时服务器之间直接交互传输基于各自所持有的样本数据得到的相关数据,降低了对方或者其他第三方基于上述相关数据反推出所对应的样本数据的风险,从而有效地降低了参与联合建模的数据方所持有的样本数据遭到泄露的风险,保护数据方的数据隐私,能够更安全、高效地利用双方所各自拥有的样本数据进行联合训练,得到所需要的目标模型。
在一个实施例中,所述方法具体实施时,还可以包括以下内容:接收来自终端设备的数据处理请求;根据所述数据处理请求,确定出所述待生成的目标模型。
这样可以根据用户通过终端设备发送的数据处理请求,确定并生成用户所需要的目标模型,满足用户的定制化需求。
在本实施例中,上述终端设备具体可以理解为一种布设于用户(或者使用者)一侧的,能够实现数据采集、数据传输等功能的前端设备。具体的,所述终端设备例如可以为台式电脑、平板电脑、笔记本电脑、智能手机等电子设备。或者,所述终端设备也可以为能够运行于上述电子设备中的软件应用。例如,可以是在手机上运行的某APP等。
在本实施例中,用户(例如,银行的分析人员等)在需要请求第一服务器执行关于目标业务数据的数据处理时,可以通过终端设备生成携带有目标业务数据的数据处理请求,并将该数据处理请求发送至第一服务器。第一服务器可以根据所接收到的数据处理请求,以及所携带的目标业务数据,确定出所需要的用于执行关于该目标业务数据的数据处理的待生成的目标模型。进而可以根据上述待生成的目标模型,确定出所需要的中间模型的模型类型,并生成对应模型训练请求。
在一个实施例中,所述处理请求具体可以携带有待处理的目标业务数据;相应的,在利用所述训练数据,在本地进行模型训练,以得到目标模型之后,所述方法具体实施时还可以包括以下内容:利用所述目标模型处理所述目标业务数据,得到对应的目标结果;将所述目标结果发送至终端设备。
这样可以及时地利用上述目标模型处理目标业务数据,得到用户所需要的目标结果,并及时地通过终端设备向用户反馈该目标结果,提高了用户的使用体验。
在本实施例中,第一服务器在通过利用第一样本数据和第二样本数据训练得到符合要求的目标模型后,可以将目标业务数据作为模型输入,输入至目标模型,并运行该目标模型,得到对应的模型输出,作为所述目标结果。
在一个实施例中,所述目标业务数据具体可以包括:待测的目标用户预设时间段内的交易记录;相应的,所述目标结果具体包括:待测的目标用户存在信用风险的概率值。
通过上述实施例,可以根据诸如银行的用户的信用风险检测场景等场景的具体要求,及时、准确地预测出目标用户存在信用风险的概率值。
具体的,例如,在银行的用户的信用风险检测场景中,当前银行的分析人员想要判断某个目标用户是否存在信用风险。这时可以通过终端设备获取该目标用户预设时间段内的交易记录作为目标业务数据,进而可以通过终端设备生成并向第一服务器发送携带有该目标业务数据的数据处理请求。
第一服务器可以响应该数据处理请求,采用本说明书提供的模型的生成方法,与第二服务器合作,利用双方所各自拥有样本数据训练得到能够基于用户的交易记录预测用户的信用风险的目标模型。
进一步,第一服务器可以利用该目标模型处理目标用户预设时间段内的交易记录,得到该目标用户存在信用风险的概率值,作为目标结果。最后将该目标结果通过终端设备反馈给银行的分析人员。
银行的分析人员可以根据所反馈的信用风险的概率值,确定目标用户是否存在信用风险;并在确定该目标用户存在信用风险的情况,对该目标用户设置相应的风险标记。
在一个实施例中,为了能够更好地保护参与联合建模的数据方的数据安全,在发起模型训练请求之后,所述方法具体实施时,还可以包括以下内容:以第一样本数据作为输入,与以匹配的中间模型作为输入的第二服务器进行安全多方计算,以得到与所述第一样本数据对应的中间数据。
通过上述实施例,可以进一步降低联合建模过程中数据方所持有的数据信息遭到泄露的风险,更有效地保护数据安全。
在本实施例中,第二服务器在根据所接收到的模型训练请求,确定出匹配的中间模型之后,可以不直接将上述匹配的中间模型发送至第一服务器。而是可以以匹配的中间模型作为输入,与以第一样本数据作为输入的第一服务器合作进行多方安全计算(MPC),第一服务器可以得到对应的计算结果,即所需要的中间数据。这样可以进一步降低第二服务器的数据信息遭到泄露的风险,进一步保护了数据隐私安全。
在一个实施例中,在第一服务器发起模型训练请求之后,第一服务器可以将所持有的第一样本数据进行同态加密,得到同态加密后的第一样本数据,再将同态加密后的第一样本数据发送至第二服务器。
第二服务器在根据所述模型训练请求确定出匹配的中间模型后,可以在第二服务器一侧,利用匹配的中间模型处理上述同态加密后的第一样本数据,得到对应的同态加密后的中间数据,再将同态加密后的中间数据反馈给第一服务器。
基于同态加密的理论,第一服务器可以根据上述同态加密后的中间数据,通过相应的解密处理,得到所需要的中间数据。进而可以利用上述中间数据在第一服务器本地训练得到对应的目标模型。
通过上述实施例,可以进一步降低联合建模过程中数据方所持有的数据信息遭到泄露的风险,更有效地保护数据安全。
参阅图4所示,本说明书实施例还提供了一种模型的生成方法。该方法具体可以应用于第二服务器一侧。其中,该方法具体实施时,可以包括以下内容。
S401:接收模型训练请求;其中,所述模型训练请求携带有模型类型的标识信息,所述第二服务器持有第二样本数据。
S402:响应所述模型训练请求,从预先利用所述第二样本数据训练得到的多个中间模型中,筛选出与所述模型类型的标识信息匹配的中间模型,作为匹配的中间模型。
S403:将所述匹配的中间模型发送至第一服务器;其中,所述第一服务器持有第一样本数据,所述第一服务器用于根据所述中间模型和所述第一样本数据训练目标模型。
通过上述实施例可以在联合建模时,第二服务器不需要将基于所持有的第二样本数据直接得到的相关数据发送给第一服务器,同时也不需要针对第一服务器、第二服务器的具体特点单独设计部署相匹配的训练交互平台、交互协议等,从而能够有效地保护参与联合建模的数据方的数据隐私,同时也能降低建模成本,提高建模效率。
在一个实施例中,第二服务器除了可以预先利用所持有的第二样本数据针对不同模型类型训练出多个中间模型外。还可以进一步,针对同一个模型类采用不同的训练规则或训练参数,训练多个不同版本的模型。
相应的,第一服务器所发起的模型训练请求中除了携带有模型类型的标识信息外,还可以携带有所需要的中间模型的版本号。
进而第二服务器可以根据模型类型的标识信息找到与该标识信息匹配的属于同一模型类型的多个中间模型;再根据版本号从上述同一模型类型的多个中间模型中确定出匹配的中间模型。从而可以得到更加精细、满足更多样化要求的中间模型。
在一个实施例中,上述将所述匹配的中间模型发送至第一服务器,具体实施时,可以包括:加密所述匹配的中间模型,得到匹配的中间模型的密文数据;将所述匹配的中间模型的密文数据发送至第一服务器。
在本实施例中,第二服务器在将所述匹配的中间模型发送至第一服务器之前,可以生成一组相互对应的公钥和私钥,并将公钥发送给第一服务器。
第二服务器可以利用私钥加密上述匹配的中间模型,得到匹配的中间模型的密文数据;再将上述匹配的中间模型的密文数据发送至第一服务器。
第一服务器在接收到上述匹配的中间模型的密文数据后,可以利用公钥进行解密处理,得到匹配的中间模型。
通过上述实施例,可以降低中间模型由于被第三方窃取而遭到泄露的风险,进一步降低联合建模过程中数据方所持有的数据信息遭到泄露的风险。
通过本说明书实施例提供的模型的生成方法,可以避免联合建模时服务器之间直接交互传输基于各自所持有的样本数据所直接得到的相关数据,有效地降低了参与联合建模的数据方所持有的样本数据遭到泄露的风险,保护数据方的数据隐私,能够安全、高效地利用双方所各自拥有的样本数据进行联合训练,得到所需要的目标模型。
本说明书实施例还提供一种服务器,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器具体实施时可以根据指令执行以下步骤:发起模型训练请求;其中,所述模型训练请求携带有模型类型的标识信息,所述第一服务器持有第一样本数据;接收第二服务器基于所述模型训练请求所反馈的匹配的中间模型;其中,所述第二服务器持有第二样本数据,所述第二服务器预先利用所述第二样本数据训练得到对应不同模型类型的多个中间模型;根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据;根据所述第一样本数据和所述中间数据,得到训练数据;利用所述训练数据,在本地进行模型训练,以得到目标模型。
为了能够更加准确地完成上述指令,参阅图5所示,本说明书实施例还提供了另一种具体的服务器,其中,所述服务器包括网络通信端口501、处理器502以及存储器503,上述结构通过内部线缆相连,以便各个结构可以进行具体的数据交互。
其中,所述网络通信端口501,具体可以用于发起模型训练请求;其中,所述模型训练请求携带有模型类型的标识信息,所述第一服务器持有第一样本数据;以及接收第二服务器基于所述模型训练请求所反馈的匹配的中间模型;其中,所述第二服务器持有第二样本数据,所述第二服务器预先利用所述第二样本数据训练得到对应不同模型类型的多个中间模型。
所述处理器502,具体可以用于根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据;根据所述第一样本数据和所述中间数据,得到训练数据;利用所述训练数据,在本地进行模型训练,以得到目标模型。
所述存储器503,具体可以用于存储相应的指令程序。
在本实施例中,所述网络通信端口501可以是与不同的通信协议进行绑定,从而可以发送或接收不同数据的虚拟端口。例如,所述网络通信端口可以是负责进行web数据通信的端口,也可以是负责进行FTP数据通信的端口,还可以是负责进行邮件数据通信的端口。此外,所述网络通信端口还可以是实体的通信接口或者通信芯片。例如,其可以为无线移动网络通信芯片,如GSM、CDMA等;其还可以为Wifi芯片;其还可以为蓝牙芯片。
在本实施例中,所述处理器502可以按任何适当的方式实现。例如,处理器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式等等。本说明书并不作限定。
在本实施例中,所述存储器503可以包括多个层次,在数字系统中,只要能保存二进制数据的都可以是存储器;在集成电路中,一个没有实物形式的具有存储功能的电路也叫存储器,如RAM、FIFO等;在系统中,具有实物形式的存储设备也叫存储器,如内存条、TF卡等。
本说明书实施例还提供一种服务器,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器具体实施时可以根据指令执行以下步骤:接收模型训练请求;其中,所述模型训练请求携带有模型类型的标识信息,所述第二服务器持有第二样本数据;响应所述模型训练请求,从预先利用所述第二样本数据训练得到的多个中间模型中,筛选出与所述模型类型的标识信息匹配的中间模型,作为匹配的中间模型;将所述匹配的中间模型发送至第一服务器;其中,所述第一服务器持有第一样本数据,所述第一服务器用于根据所述中间模型和所述第一样本数据训练目标模型。
本说明书实施例还提供了一种基于上述模型的生成方法的计算机存储介质,所述计算机存储介质存储有计算机程序指令,在所述计算机程序指令被执行时实现:发起模型训练请求;其中,所述模型训练请求携带有模型类型的标识信息,所述第一服务器持有第一样本数据;接收第二服务器基于所述模型训练请求所反馈的匹配的中间模型;其中,所述第二服务器持有第二样本数据,所述第二服务器预先利用所述第二样本数据训练得到对应不同模型类型的多个中间模型;根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据;根据所述第一样本数据和所述中间数据,得到训练数据;利用所述训练数据,在本地进行模型训练,以得到目标模型。
在本实施例中,上述存储介质包括但不限于随机存取存储器(Random AccessMemory,RAM)、只读存储器(Read-Only Memory,ROM)、缓存(Cache)、硬盘(Hard DiskDrive,HDD)或者存储卡(Memory Card)。所述存储器可以用于存储计算机程序指令。网络通信单元可以是依照通信协议规定的标准设置的,用于进行网络连接通信的接口。
在本实施例中,该计算机存储介质存储的程序指令具体实现的功能和效果,可以与其它实施方式对照解释,在此不再赘述。
参阅图6所示,在软件层面上,本说明书实施例还提供了一种模型的生成装置,该装置具体可以包括以下的结构模块。
发起模块601,具体可以用于发起模型训练请求;其中,所述模型训练请求携带有模型类型的标识信息,所述第一服务器持有第一样本数据;
接收模块602,具体可以用于接收第二服务器基于所述模型训练请求所反馈的匹配的中间模型;其中,所述第二服务器持有第二样本数据,所述第二服务器预先利用所述第二样本数据训练得到对应不同模型类型的多个中间模型;
处理模块603,具体可以用于根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据;
组合模块604,具体可以用于根据所述第一样本数据和所述中间数据,得到训练数据;
训练模块605,具体可以用于利用所述训练数据,在本地进行模型训练,以得到目标模型。
需要说明的是,上述实施例阐明的单元、装置或模块等,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本说明书时可以把各模块的功能在同一个或多个软件和/或硬件中实现,也可以将实现同一功能的模块由多个子模块或子单元的组合实现等。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
本说明书还提供了另一种模型的生成装置,具体可以包括以下的结构模块:接收模块,具体可以用于接收模型训练请求;其中,所述模型训练请求携带有模型类型的标识信息,所述第二服务器持有第二样本数据;筛选模块,具体可以用于响应所述模型训练请求,从预先利用所述第二样本数据训练得到的多个中间模型中,筛选出与所述模型类型的标识信息匹配的中间模型,作为匹配的中间模型;发送模块,具体可以用于将所述匹配的中间模型发送至第一服务器;其中,所述第一服务器持有第一样本数据,所述第一服务器用于根据所述中间模型和所述第一样本数据训练目标模型。
由上可见,通过本说明书实施例提供的模型的生成装置,可以避免联合建模时服务器之间直接交互传输基于各自所持有的样本数据直接得到的相关数据,有效地降低了参与联合建模的数据方所持有的样本数据遭到泄露的风险,保护数据方的数据隐私,能够安全、高效地利用双方所各自拥有的样本数据进行联合训练,得到所需要的目标模型。
在一个具体的场景示例中,可以应用本说明书所提供的模型的生成方法来进行同业机器学习联合建模。具体过程可以参阅以下内容。
具体应用时,可以参阅图7所示。以A、B双方进行说明。其中,B方(对应第一服务器)需求为利用A方数据在同样场景中提升自身模型效果,A方(对应第二服务器)需求为在不泄露本方数据的前提下协助B方联合建模。
参阅图7所示。所使用的装置具体可以包括:A方多分类器上传模块1、调用A方分类器获取结果模块2、A方结果(例如中间数据)与B方特征(例如第一样本数据)组合进行特征工程模块3、B方模型训练模块4、B方模型上线推理模块5、通信模块6、日志记录模块7、报表模块8,任务控制模块9。
具体实施时,A方多分类器上传模块1,负责A方多个分类器模型(例如对应不同模型类型的中间模型)上传和引入功能,例如A根据具体场景使用A方数据(例如第二样本数据)及不同超参下训练了LR(逻辑回归)、GBDT(梯度提升树)、DNN(神经网络)等多个模型,A方与B方约定模型名字和模型版本号后上传。
调用A方分类器获取结果模块2,B方读取A方模型,并将B方每一条样本数据通过所调用A方分类器运行得相应的多个运行结果及中间结果并落地保存。具体的,可以根据模型类型分多种情况处理。
进一步,可以将A方结果与B方特征组合进行特征工程模块3,读取B方数据和A方分类器多个结果,通过特征组合的方式进行特征工程并保存特征工程生成的数据。
B方模型训练模块4,使用模块3生成的数据,调用机器学习算法进行模型训练。
B方模型上线推理模块5,使用模块4生成的模型,转化为服务,支持实时或批量调用。
上述通信模块6,具体可以用于负责A,B方分类器上传、模型名称、版本约定等报文交互和通知。
上述日志记录模块7,具体可以用于负责记录日志并调用任务控制模块判断下一步流程。
上述报表模块8,具体可以用于负责根据日志记录模块7记录的日志明细,进行分析汇总并导出报表。
上述任务控制模块9,具体可以用于负责控制联合建模的执行流程、支持在整体框架内个性化配置具体流程。
参阅图8所示,具体应用上述装置进行同业机器学习联合建模时,执行流程可以包括如下内容。
步骤S801:A方上传分类器,并发送报文通知B方分类器个数\名称\版本等。
步骤S802:B放接受到A方上传完毕的通知,根据分类器名称和版本引入对应分类器,并使用B方数据调用。
步骤S803:使用B方原有数据和A方分类器结果数据进行特征工程,生成大宽表。
步骤S804:使用上述宽表,选择机器学习算法进行模型训练。
步骤S805:将上一步生成的模型部署上线。
通过上述方式进行联合建模,可以减少系统异构带来的部署成本,提升不泄露数据前提下多方合作建模的执行效率。
通过上述场景示例,验证了本说明书提供的模型的生成方法确实可以避免联合建模时服务器之间直接交互传输基于各自所持有的样本数据直接得到的相关数据,有效地降低了参与联合建模的数据方所持有的样本数据遭到泄露的风险,降低训练成本,能够安全、高效地利用双方所各自拥有的样本数据进行联合训练,得到所需要的目标模型。
虽然本说明书提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的手段可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或客户端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境,甚至为分布式数据处理环境)。术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、产品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、产品或者设备所固有的要素。在没有更多限制的情况下,并不排除在包括所述要素的过程、方法、产品或者设备中还存在另外的相同或等同要素。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内部包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构、类等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
通过以上的实施例的描述可知,本领域的技术人员可以清楚地了解到本说明书可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本说明书的技术方案本质上可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,移动终端,服务器,或者网络设备等)执行本说明书各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例采用递进的方式描述,各个实施例之间相同或相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。本说明书可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。
虽然通过实施例描绘了本说明书,本领域普通技术人员知道,本说明书有许多变形和变化而不脱离本说明书的精神,希望所附的权利要求包括这些变形和变化而不脱离本说明书的精神。
Claims (18)
1.一种模型的生成方法,应用于第一服务器,其特征在于,包括:
发起模型训练请求;其中,所述模型训练请求携带有模型类型的标识信息,所述第一服务器持有第一样本数据;
接收第二服务器基于所述模型训练请求所反馈的匹配的中间模型;其中,所述第二服务器持有第二样本数据,所述第二服务器预先利用所述第二样本数据训练得到对应不同模型类型的多个中间模型;
根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据;
根据所述第一样本数据和所述中间数据,得到训练数据;
利用所述训练数据,在本地进行模型训练,以得到目标模型。
2.根据权利要求1所述的方法,其特征在于,所述模型类型包括以下至少之一:逻辑回归类模型、梯度提升类模型、神经网络类模型。
3.根据权利要求2所述的方法,其特征在于,在所述匹配的中间模型包括逻辑回归类模型的情况下,所述根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据,包括:
根据与所述逻辑回归类模型相匹配的预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到对应的预测概率;
将所述预测概率,确定为与所述第一样本数据对应的中间数据。
4.根据权利要求2所述的方法,其特征在于,在所述匹配的中间模型包括梯度提升类模型的情况下,所述根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据,包括:
根据与所述梯度提升类模型相匹配的预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,以确定出对应的预测结果,以及预测概率;
对所述预测结果进行编码处理,得到对应的编码结果;
将所述编码结果、所述预测概率,确定为与所述第一样本数据对应的中间数据。
5.根据权利要求2所述的方法,其特征在于,在所述匹配的中间模型包括神经网络类模型的情况下,所述根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据,包括:
根据与所述神经网络类模型相匹配的预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,并提取经所述中间模型中的全连层输出的特征表征数据,以及中间模型输出的预测概率;
将所述特征表征数据、所述预测概率,确定为与所述第一样本数据对应的中间数据。
6.根据权利要求1所述的方法,其特征在于,根据所述第一样本数据和所述中间数据,得到训练数据,包括:
将相互的对应的中间数据与第一样本数据进行组合,作为一组训练数据。
7.根据权利要求1所述的方法,其特征在于,在发起模型训练请求之前,所述方法还包括:
接收第二服务器发送的模型信息列表;其中,所述模型信息列表包含有与中间模型的模型类型对应的标识信息,所述第二服务器根据预先训练得到的多个中间模型的模型类型生成所述模型信息列表;
根据所述模型信息列表,以及待生成的目标模型,生成所述模型训练请求。
8.根据权利要求7所述的方法,其特征在于,在接收第二服务器发送的模型信息列表之后,所述方法还包括:
在确定所述模型信息列表不包含有目标类型的标识信息的情况下,生成中间模型训练请求;其中,所述中间模型训练请求携带有的目标类型的标识信息;
向所述第二服务器发送所述中间模型训练请求,以使得所述第二服务器在线利用第二样本数据训练生成所述目标类型的中间模型。
9.根据权利要求7所述的方法,其特征在于,所述方法还包括:
接收来自终端设备的数据处理请求;
根据所述数据处理请求,确定出所述待生成的目标模型。
10.根据权利要求9所述的方法,其特征在于,所述处理请求携带有待处理的目标业务数据;相应的,在利用所述训练数据,在本地进行模型训练,以得到目标模型之后,所述方法还包括:
利用所述目标模型处理所述目标业务数据,得到对应的目标结果;
将所述目标结果发送至终端设备。
11.根据权利要求10所述的方法,其特征在于,所述目标业务数据包括:待测的目标用户预设时间段内的交易记录;相应的,所述目标结果包括:待测的目标用户存在信用风险的概率值。
12.根据权利要求1所述的方法,其特征在于,在发起模型训练请求之后,所述方法还包括:
以第一样本数据作为输入,与以匹配的中间模型作为输入的第二服务器进行安全多方计算,以得到与所述第一样本数据对应的中间数据。
13.一种模型的生成方法,应用于第二服务器,其特征在于,包括:
接收模型训练请求;其中,所述模型训练请求携带有模型类型的标识信息,所述第二服务器持有第二样本数据;
响应所述模型训练请求,从预先利用所述第二样本数据训练得到的多个中间模型中,筛选出与所述模型类型的标识信息匹配的中间模型,作为匹配的中间模型;
将所述匹配的中间模型发送至第一服务器;其中,所述第一服务器持有第一样本数据,所述第一服务器用于根据预设处理规则,利用匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据;根据所述第一样本数据和所述中间数据,得到训练数;利用所述训练数据,在本地进行模型训练,得到目标模型据。
14.根据权利要求13所述的方法,其特征在于,将所述匹配的中间模型发送至第一服务器,包括:
加密所述匹配的中间模型,得到匹配的中间模型的密文数据;
将所述匹配的中间模型的密文数据发送至第一服务器。
15.一种模型的生成装置,其特征在于,包括:
发起模块,用于发起模型训练请求;其中,所述模型训练请求携带有模型类型的标识信息,第一服务器持有第一样本数据;
接收模块,用于接收第二服务器基于所述模型训练请求所反馈的匹配的中间模型;其中,所述第二服务器持有第二样本数据,所述第二服务器预先利用所述第二样本数据训练得到对应不同模型类型的多个中间模型;
处理模块,用于根据预设的处理规则,利用所述匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据;
组合模块,用于根据所述第一样本数据和所述中间数据,得到训练数据;
训练模块,用于利用所述训练数据,在本地进行模型训练,以得到目标模型。
16.一种模型的生成装置,其特征在于,包括:
接收模块,用于接收模型训练请求;其中,所述模型训练请求携带有模型类型的标识信息,第二服务器持有第二样本数据;
筛选模块,用于响应所述模型训练请求,从预先利用所述第二样本数据训练得到的多个中间模型中,筛选出与所述模型类型的标识信息匹配的中间模型,作为匹配的中间模型;
发送模块,用于将所述匹配的中间模型发送至第一服务器;其中,所述第一服务器持有第一样本数据,所述第一服务器用于根据预设处理规则,利用匹配的中间模型处理所述第一样本数据,得到与所述第一样本数据对应的中间数据;根据所述第一样本数据和所述中间数据,得到训练数;利用所述训练数据,在本地进行模型训练,得到目标模型据。
17.一种服务器,其特征在于,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现权利要求1至12,或13至14中任一项所述方法的步骤。
18.一种计算机可读存储介质,其特征在于,其上存储有计算机指令,所述指令被执行时实现权利要求1至12,或13至14中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011251129.1A CN112365001B (zh) | 2020-11-11 | 2020-11-11 | 模型的生成方法、装置和服务器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011251129.1A CN112365001B (zh) | 2020-11-11 | 2020-11-11 | 模型的生成方法、装置和服务器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112365001A CN112365001A (zh) | 2021-02-12 |
CN112365001B true CN112365001B (zh) | 2023-12-19 |
Family
ID=74514291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011251129.1A Active CN112365001B (zh) | 2020-11-11 | 2020-11-11 | 模型的生成方法、装置和服务器 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112365001B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113067881A (zh) * | 2021-03-29 | 2021-07-02 | 北京百度网讯科技有限公司 | 数据交互方法、装置、电子设备及计算机可读存储介质 |
CN114116051B (zh) * | 2021-11-17 | 2024-03-22 | 招联消费金融股份有限公司 | 基于神经网络模型的处理方法、装置、设备和存储介质 |
CN114117944B (zh) * | 2022-01-26 | 2022-04-22 | 苏州浪潮智能科技有限公司 | 一种模型更新方法、装置、设备及可读存储介质 |
CN114638376B (zh) * | 2022-03-25 | 2024-06-04 | 支付宝(杭州)信息技术有限公司 | 一种复合样本场景中的多方联合模型训练方法及装置 |
CN115611393B (zh) * | 2022-11-07 | 2023-04-07 | 中节能晶和智慧城市科技(浙江)有限公司 | 一种多端协同的多水厂混凝剂投放方法和系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948807A (zh) * | 2019-03-14 | 2019-06-28 | 腾讯科技(深圳)有限公司 | 一种主动学习方法及装置 |
CN111428008A (zh) * | 2020-06-11 | 2020-07-17 | 北京百度网讯科技有限公司 | 用于训练模型的方法、装置、设备以及存储介质 |
-
2020
- 2020-11-11 CN CN202011251129.1A patent/CN112365001B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948807A (zh) * | 2019-03-14 | 2019-06-28 | 腾讯科技(深圳)有限公司 | 一种主动学习方法及装置 |
CN111428008A (zh) * | 2020-06-11 | 2020-07-17 | 北京百度网讯科技有限公司 | 用于训练模型的方法、装置、设备以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112365001A (zh) | 2021-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112365001B (zh) | 模型的生成方法、装置和服务器 | |
CN112132198B (zh) | 数据处理方法、装置、系统和服务器 | |
EP3819855A1 (en) | Cross-block chain interaction method and system, computer device, and storage medium | |
CN113542228B (zh) | 基于联邦学习的数据传输方法、装置以及可读存储介质 | |
CN105337928B (zh) | 用户身份识别方法、安全保护问题生成方法及装置 | |
CN110458559B (zh) | 交易数据处理方法、装置、服务器和存储介质 | |
CN107295069A (zh) | 数据备份方法、装置、存储介质及服务器 | |
CN109815051A (zh) | 区块链的数据处理方法和系统 | |
Mohammad et al. | Machine learning with big data analytics for cloud security | |
CN111488372A (zh) | 一种数据处理方法、设备及存储介质 | |
US11057392B2 (en) | Data security method utilizing mesh network dynamic scoring | |
CN110866265A (zh) | 一种基于区块链的数据存储方法、设备及存储介质 | |
Althati et al. | Scalable Machine Learning Solutions for Heterogeneous Data in Distributed Data Platform | |
CN111931189A (zh) | Api接口转用风险检测方法、装置和api服务系统 | |
CN111259382A (zh) | 恶意行为识别方法、装置、系统和存储介质 | |
CN115296794A (zh) | 基于区块链的密钥管理方法及装置 | |
US10462223B2 (en) | Method and system for data communication | |
CN113254989B (zh) | 目标数据的融合方法、装置和服务器 | |
CN112749780B (zh) | 数据的处理方法、装置及设备 | |
CN114493850A (zh) | 基于人工智能的在线公证方法、系统及存储介质 | |
CN113987574A (zh) | 一种区块链私密交易方法、装置、设备及可读存储介质 | |
CN110717078A (zh) | 美容院店务数据监控方法、装置、设备及介质 | |
CN113094745B (zh) | 基于隐私保护的数据变换方法、装置和服务器 | |
CN110808978A (zh) | 实名认证方法以及装置 | |
Jain et al. | Four-Factor Authentication with Emerging Cybersecurity for Mobile Transactions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |