CN114580689A - 业务预测方法、装置、设备、存储介质及程序产品 - Google Patents

业务预测方法、装置、设备、存储介质及程序产品 Download PDF

Info

Publication number
CN114580689A
CN114580689A CN202011378503.4A CN202011378503A CN114580689A CN 114580689 A CN114580689 A CN 114580689A CN 202011378503 A CN202011378503 A CN 202011378503A CN 114580689 A CN114580689 A CN 114580689A
Authority
CN
China
Prior art keywords
federal
prediction
participant
request
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011378503.4A
Other languages
English (en)
Inventor
林文珍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WeBank Co Ltd
Original Assignee
WeBank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WeBank Co Ltd filed Critical WeBank Co Ltd
Priority to CN202011378503.4A priority Critical patent/CN114580689A/zh
Publication of CN114580689A publication Critical patent/CN114580689A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Operations Research (AREA)
  • Data Mining & Analysis (AREA)
  • Tourism & Hospitality (AREA)
  • Game Theory and Decision Science (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种业务预测方法、装置、设备、存储介质及程序产品,该方法包括:在接收到用户端发送的携带有业务参数的业务预测请求时,确定业务预测请求中联邦模型标识对应的第一联邦参与方及各第二联邦参与方;从业务预测请求中获取样本信息,并生成携带有预测所需的业务参数的模型预测请求;将模型预测请求发送至第一联邦参与方,以供第一联邦参与方基于联邦模型预测请求,联合各第二联邦参与方生成对应的联邦预测结果,由此与现有技术采用将样本数据直接交给模型服务提供方进行处理相比,本发明采用只需提供带有业务参数的请求,即可通过服务器将请求转发给各联邦参与方来获得联邦预测结果,克服了现有技术中的数据隐私泄露缺陷,从根源上解决了隐私安全问题。

Description

业务预测方法、装置、设备、存储介质及程序产品
技术领域
本发明涉及机器学习计算技术领域,尤其涉及一种业务预测方法、装置、设备、存储介质及程序产品。
背景技术
用户在基于API方式的在线接口调用成品模型服务之前,需要评估该成品模型服务对业务的提升是否有帮助,再决定是否在线调用接入使用,目前用户在对成品模型服务进行评估时,用户将需要预测样本交给成品模型服务的提供方,以由提供方找到该成品模型服务对应的联邦模型成品,并将基于联邦模型成品获得的预测样本的预测结果返回给用户,在此过程中,即使用户交给成品模型服务的提供方的预测样本进行了加密处理,还是存在数据隐私泄露风险。
发明内容
本发明提供一种业务预测方法、装置、设备、存储介质及程序产品,旨在提高目前用户进行成品模型服务评估时用户数据的安全性。
为实现上述目的,本发明提供一种业务预测方法,应用于服务器,所述业务预测方法包括:
在接收到用户端发送的携带有业务参数的业务预测请求时,确定所述业务预测请求中联邦模型标识对应的第一联邦参与方及各第二联邦参与方,其中,所述业务参数包括联邦模型标识和样本信息其中,所述业务参数包括联邦模型标识和样本信息;
从所述业务预测请求中获取样本信息,并生成携带有预测所需的业务参数的模型预测请求;
将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果,并反馈至所述用户端。
优选地,所述从所述业务预测请求中获取样本信息,并生成携带有预测所需的业务参数的模型预测请求的步骤包括:
从所述业务预测请求中获取样本信息,生成携带有所述样本信息的样本id求交请求;
将所述样本id求交请求发送至所述第一联邦参与方,以通过所述第一联邦参与方获得所述样本信息对应的目标交集样本id,并生成携带有预测所需的业务参数的模型预测请求。
优选地,所述将所述样本id求交请求发送至所述第一联邦参与方,以通过所述第一联邦参与方获得所述业务参数对应的目标交集样本id的步骤包括:
将所述样本id求交请求发送至所述第一联邦参与方,其中,所述第一联邦参与方接收到所述样本id求交请求时,从所述样本id求交请求中获取样本信息,并与各所述第二联邦参与方进行样本id求交处理,获得目标交集样本id。
优选地,所述从所述业务预测请求中获取样本信息,生成携带有所述样本信息的样本id求交请求的步骤,还包括:
从所述业务预测请求中获取样本信息;
对所述样本信息进行预处理,并生成携带有预处理后的样本信息的样本id求交请求。
优选地,所述将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果,并反馈至所述用户端的步骤包括:
将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果,并将所述联邦预测结果进行私密存储,并反馈私密存储信息;
将所述私密存储信息发送至所述用户端,以供所述用户端获取所述联邦预测结果。
优选地,所述将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果的步骤包括:
将所述模型预测请求发送至所述第一联邦参与方,以使所述第一联邦参与方在接收到所述模型预测请求时,从将所述模型预测请求转发至各所述第二联邦参与方,以通过所述第一联邦参与方及各所述第二联邦参与方的本地联邦模型生成所述模型预测请求对应的半边预测结果,并由所述第一联邦参与方汇聚各所述半边预测结果,以获得联邦预测结果。
优选地,所述将所述模型预测请求发送至所述第一联邦参与方的步骤之前,还包括:
发送模型训练请求至所述第一联邦参与方,以使所述第一联邦参与方在接收到所述模型训练请求时,联合各所述第二联邦参与方对各自本地模型参数进行更新,以获取第一联邦参与方及各所述第二联邦参与方的本地联邦模型。
此外,为实现上述目的,本发明还提供一种业务预测装置,所述业务预测装置包括:
接收模块,用于在接收到用户端发送的携带有业务参数的业务预测请求时,确定所述业务预测请求对应的第一联邦参与方及各第二联邦参与方,其中,所述业务参数包括联邦模型标识和样本信息;
获取模块,用于从所述业务预测请求中获取样本信息,并生成携带有预测所需的业务参数的模型预测请求;
计算模块,用于将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果,并反馈至所述用户端。
此外,为实现上述目的,本发明还提供一种业务预测设备,所述业务预测设备包括处理器,存储器以及存储在所述存储器中的业务预测程序,所述业务预测程序被所述处理器运行时,实现如上所述的业务预测方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机存储介质,所述计算机存储介质上存储有业务预测程序,所述业务预测程序被处理器运行时实现如上所述业务预测方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器运行时实现如上所述业务预测方法的步骤。
相比现有技术,本发明提供了一种业务预测方法,通过在接收到用户端发送的携带有业务参数的业务预测请求时,确定所述业务预测请求对应的第一联邦参与方及各第二联邦参与方;从所述业务预测请求中获取样本信息,并生成携带有预测所需的业务参数的模型预测请求;将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果,并反馈至所述用户端,由此,与现有技术中采用用户将用户数据直接交给模型服务提供方进行模型预测处理相比,本发明采用用户只需向服务器提供带有业务参数的请求,即可通过服务器将请求转发给各联邦参与方,来获得联邦预测结果,克服了现有技术中的用户直接将加密数据提供给成品模型服务的提供方处理时存在数据隐私泄露缺陷,从而从根源上解决了合作过程中的隐私安全问题,提高了数据安全性。
附图说明
图1是本发明各实施例涉及的业务预测设备的硬件结构示意图;
图2是本发明业务预测方法第一实施例的流程示意图;
图3是本发明业务预测方法一实施例的用户端、产品平台及联邦参与方之间的数据交互一示意图;
图4是本发明业务预测方法第二实施例的流程示意图;
图5是本发明业务预测装置一实施例的功能模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例主要涉及的业务预测设备是指能够实现网络连接的网络连接设备,所述业务预测设备可以是服务器、云平台等。
参照图1,图1是本发明各实施例涉及的业务预测设备的硬件结构示意图。本发明实施例中,业务预测设备可以包括处理器1001(例如中央处理器Central ProcessingUnit、CPU),通信总线1002,输入端口1003,输出端口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信;输入端口1003用于数据输入;输出端口1004用于数据输出,存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器,存储器1005可选的还可以是独立于前述处理器1001的存储装置。本领域技术人员可以理解,图1中示出的硬件结构并不构成对本发明的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
继续参照图1,图1中作为一种可读存储介质的存储器1005可以包括操作系统、网络通信模块、应用程序模块以及业务预测程序。在图1中,网络通信模块主要用于连接服务器,与服务器进行数据通信;而处理器1001可以调用存储器1005中存储的业务预测程序,并执行如下操作:
在接收到用户端发送的携带有业务参数的业务预测请求时,确定所述业务预测请求中联邦模型标识对应的第一联邦参与方及各第二联邦参与方,其中,所述业务参数包括联邦模型标识和样本信息;
从所述业务预测请求中获取样本信息,并生成携带有预测所需的业务参数的模型预测请求;
将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果,并反馈至所述用户端。
进一步地,处理器1001还可以用于调用存储器1005中存储的业务预测程序,并执行以下步骤:
从所述业务预测请求中获取样本信息,生成携带有所述样本信息的样本id求交请求;
将所述样本id求交请求发送至所述第一联邦参与方,以通过所述第一联邦参与方获得目标交集样本id,并生成携带有预测所需的业务参数的模型预测请求。
进一步地,处理器1001还可以用于调用存储器1005中存储的业务预测程序,并执行以下步骤:
将所述样本id求交请求发送至所述第一联邦参与方,其中,所述第一联邦参与方接收到所述样本id求交请求时,从所述样本id求交请求中获取样本信息,并与各所述第二联邦参与方进行样本id求交处理,获得目标交集样本id。
进一步地,处理器1001还可以用于调用存储器1005中存储的业务预测程序,并执行以下步骤:
从所述业务预测请求中获取样本信息;
对所述样本信息进行预处理,并生成携带有预处理后的样本信息的样本id求交请求。
进一步地,处理器1001还可以用于调用存储器1005中存储的业务预测程序,并执行以下步骤:
将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果,并将所述联邦预测结果进行私密存储,并反馈私密存储信息;
将所述私密存储信息发送至所述用户端,以供所述用户端获取所述联邦预测结果。
进一步地,处理器1001还可以用于调用存储器1005中存储的业务预测程序,并执行以下步骤:
将所述模型预测请求发送至所述第一联邦参与方,以使所述第一联邦参与方在接收到所述模型预测请求时,从所述模型预测请求中获取样本信息,并将所述模型预测请求转发至各所述第二联邦参与方,以通过所述第一联邦参与方及各所述第二联邦参与方的本地联邦模型生成所述模型预测请求对应的半边预测结果,并由所述第一联邦参与方汇聚各所述半边预测结果,以获得联邦预测结果。
进一步地,处理器1001还可以用于调用存储器1005中存储的业务预测程序,并执行以下步骤:
发送模型训练请求至所述第一联邦参与方,以使所述第一联邦参与方在接收到所述模型训练请求时,联合各所述第二联邦参与方对各自本地模型参数进行更新,以获取第一联邦参与方及各所述第二联邦参与方的本地联邦模型。
基于图1所示的硬件结构,本发明第一实施例提供了一种业务预测方法。
参照图2,图2为本发明业务预测方法第一实施例的流程示意图。
本发明实施例提供了业务预测方法的实施例,需要说明的是,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。具体地,本实施例业务预测方法包括:
步骤S10:在接收到用户端发送的携带有业务参数的业务预测请求时,确定所述业务预测请求中联邦模型标识对应的第一联邦参与方及各第二联邦参与方,其中,所述业务参数包括联邦模型标识和样本信息;
需要说明的是,本发明提出的业务预测方法应用于服务器,具体而言,在实际应用中,该服务器上部署有一产品平台,该产品平台可用于响应用户端发起的请求,包括在线请求及离线请求,本实施例对请求类型不做限制,例如该产品平台设有一离线预测接口,当用户基于该离线预测接口向服务器发送业务离线预测请求,服务器即可基于该业务离线预测请求调用相应的联邦模型进行处理。
且在一些实施例中,为了避免数据隐私泄露,本发明中样本数据不经由服务器直接进行处理,具体而言,用户端可向服务器发送携带有业务参数的业务预测请求,具体而言,业务参数包括联邦模型标识和样本信息,其中,样本信息可包括样本名称、id、代号或样本存储地址等,以供服务器或联邦参与方通过样本信息获取样本数据,或样本信息可直接包括样本数据,即用户端直接向服务器发送携带有加密样本数据的业务预测请求,具体不做限制,进一步地,用户端在向服务器发送的业务预测请求时,还可基于业务预测请求同步携带联邦模型信息,例如联邦模型标识,以供发服务器根据联邦模型标识定位到具体的联邦模型,并找到参与联邦构建该联邦模型的发送联邦请求的参与方及提供数据的其他各参与方,具体地,本实施例中将发送联邦请求的参与方作为第一联邦参与方,将提供数据的其他各参与方作为第二联邦参与方。例如,当接收到用户端发送的客户信用风险预测请求时,对客户信用风险预测请求进行解析,获得使用银行A和互联网公司B的客户数据进行客户信用风险预测的业务预测需求信息,其中,银行A和互联网公司B存在部分重合的用户,A包含客户上网行为等特征信息。B包含客户的存贷情况等特征信息及特征标签,因此本实施例中为了确保用户数据隐私安全,将银行A和互联网公司B作为联邦学习的两个参与者,以在不暴露对方各自的客户数据情况下进行客户信用风险预测。
此外,值得一提的是,本实施例中可接收用户端发送的至少一个业务预测请求,当接收到用户端发送的多个不同的业务预测请求时,分别确定各个业务预测请求对应的第一联邦参与方及各所述第二联邦参与方,并且并行执行各个业务预测请求,有效提高预测效率。
步骤S20:从所述业务预测请求中获取样本信息,并生成携带有预测所需的业务参数的模型预测请求;
值得一提的是,在本实施例中上述的业务预测请求为post请求,即用户端发送过来的业务预测请求包括请求方式post及请求参数(即请求头及请求体),其中,请求体中包括加密后的样本信息,一般包括模型所需的样本数据、样本名称、id或样本存储地址等,例如设备号或者手机号等,具体而言,在实际用于中,接收到用户端发送的业务预测请求之后,对业务预测请求进行解析,以从业务预测请求的请求体中获得加密后的业务参数,并生成携带有预测所需的业务参数的模型预测请求。
步骤S30:将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果,并反馈至所述用户端。
具体而言,在实际应用中,每一个联邦模型的参与方都会分配一个唯一的partid,并存储于partid路由表中,当确定业务预测请求匹配的第一联邦参与方,并生成携带有样本信息的模型预测请求之后,在partid路由表中查找第一联邦参与方的partid,并基于第一联邦参与方的partid将模型预测请求发送至第一联邦参与方。
且容易理解的是,本实施例中,第一联邦参与方在接收到模型预测请求后,利用第一联邦参与方的第一本地半边联邦模型对样本信息进行计算,进一步需要说明的是,第一联邦参与方在接收到模型预测请求后,可先判断能否直接查找到参与联邦构建该联邦模型的其他各第二联邦参与方,若第一联邦参与方可直接查找到参与联邦构建该联邦模型的其他各第二联邦参与方,则第一联邦参与方直接将模型预测请求转发至各第二联邦参与方,以联合各第二联邦参与方生成样本信息对应的联邦预测结果,进一步地,当第一联邦参与方查找不到参与联邦构建该联邦模型的其他各第二联邦参与方时,可向服务器发送转发请求,以通过服务器将模型预测请求转发至各第二联邦参与方,或者通过第一联邦参与方与第二联邦参与方之间的协调方将将模型预测请求转发至各第二联邦参与方,本实施例对此不作限制。
进一步地,为了提高数据安全性,可选地,用户端直接向服务器发送基于公钥加密后的样本信息及相应的私钥,基于服务器将私钥发送至业务预测请求对应的第一联邦参与方及各第二联邦参与方,以使第一联邦参与方及各第二联邦参与方对在与服务器之间交互的信息进行加解密,进而提高用户端与服务器之间进行数据交互时,数据的私密安全性。
在一些实施例中,步骤S30之前还包括以下步骤:
发送模型训练请求至所述第一联邦参与方,以使所述第一联邦参与方在接收到所述模型训练请求时,联合各所述第二联邦参与方对各自本地模型参数进行更新,以获取所述第一联邦参与方的第一本地半边联邦模型及所述各所述第二联邦参与方的第二本地半边联邦模型。
具体的,第一联邦参与方在接收到模型训练请求时,由于第一联邦参与方和各所述第二联邦参与方的用户群体不同,因此,需先基于用户加密的用户id对齐来确保双方不需要暴露各自的原始数据便可以对齐共同用户,例如采用预设多方交集算法对第一联邦参与方和各所述第二联邦参与方的进行交集处理,获得共同用户id,在获得共同用户id之后,第一联邦参与方和各所述第二联邦参与方利用共同用户id的样本数据来协同训练,进而获得各自的本地半边联邦模型,可选地,基于同态加密算法对第一联邦参与方和各所述第二联邦参与方进行协同训练,其中,同态加密算法包括部分同态加密算法(PHE)、些许同态加密算法(SHE)和全同态加密算法(FHE),本实施例对比不作限制。
为了便于理解,本实施例采用部分同态加密算法对步骤S300举例进行具体说明。
例如,服务器发送模型训练请求至第一联邦参与方,第一联邦参与方对模型训练请求进行解析,以获取训练样本数据,其中,训练样本数据由加密样本数据a和加密样本数据b,其中,加密样本数据a包括部分特征数据,加密样本数据b包括部分特征数据及标签数据,第一联邦参与方拥有加密样本数据a的密钥A,各所述第二联邦参与方用于加密样本数据b的密钥B,第一联邦参与方对模型训练请求进行解析,以获取加密样本数据a和加密样本数据b,第一联邦参与方基于密钥A对加密样本数据a进行解密,获取解密样本数据a,
并发送携带有加密样本数据b的训练请求至各所述第二联邦参与方,以供各所述第二联邦参与方利用密钥B对加密样本数据a进行解密,获取解密样本数据b,第一联邦参与方及各所述第二联邦参与方在获取各自的样本数据之后,采用预设多方交集算法对第一联邦参与方和各所述第二联邦参与方的样本数据进行交集处理,获得共同用户id,在获得公用id之后,获的各自解密样本数据对应的对齐数据,接着借助第三方协作者进行加密训练,即第三方协作者把公钥分发给第一联邦参与方和各所述第二联邦参与方,以供第一联邦参与方和各所述第二联邦参与方以加密形式交互计算梯度的中间结果,第一联邦参与方和各所述第二联邦参与方分别基于加密的梯度值进行计算,同时各所述第二联邦参与方根据其标签数据计算损失,并把这些结果汇总给第三方协作者,第三方协作者通过汇总结果计算总梯度并将其解密;第三方协作者将解密后的梯度分别回传给第一联邦参与方和各所述第二联邦参与方;第一联邦参与方和各所述第二联邦参与方根据梯度更新各自模型的参数,以获得各自的本地半边联邦模型。
此外,为了便于理解,本实施例给出一种将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果,并反馈至所述用户端的具体实现方案,具体如下:
将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果,并将所述联邦预测结果进行私密存储,并反馈私密存储信息;
将所述私密存储信息发送至所述用户端,以供所述用户端获取所述联邦预测结果。
应当理解地,在一些实施例中,用户在通过对第三方进行模型预测时,用户不能直接获取预测结果,需要经过服务提供方测试后返回预测结果,此过程中存在数据隐私泄露缺陷,进一步地,用户与服务提供方之间需要依赖信任,因此本实施例中,为了克服了现有技术中的数据隐私泄露缺陷,提高数据可靠性,本实施例中,当通过第一联邦参与方获得样本信息的目标预测结果之后,第一联邦参与方无需将目标预测结果返回至服务器,以由服务器将目标预测结果发给用户端,具体地,第一联邦参与方获得样本信息的目标预测结果之后,将目标预测结果直接加密上传至私密安全存储中,比如将目标预测结果直接加密上传至区块链存储节点中,并生成目标预测结果相应的存储信息,比如存储节点信息等,接着生成携带有目标预测结果的存储信息的模型预测完成反馈消息,服务器在接收到第一联邦参与方发送的模型预测完成反馈消息时,从模型预测结束反馈消息中获取目标预测结果的存储信息,生成携带有存储信息的业务预测完成反馈消息,并将业务预测完成反馈消息发送至所述用户端,以供用户端直接从私密安全存储中获取目标预测结果,此过程中,目标预测结果不会经由服务器,服务器只获知各个请求执行的状态,进而克服了现有技术中用户不能直接获取预测结果,需要经过服务提供方测试后返回预测结果的数据隐私泄露缺陷。
此外,为了便于理解,本实施例给出一种将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果的具体实现方案,具体如下:
将所述模型预测请求发送至所述第一联邦参与方,以使所述第一联邦参与方在接收到所述模型预测请求时,将所述模型预测请求转发至各所述第二联邦参与方,以通过所述第一联邦参与方及各所述第二联邦参与方的本地联邦模型生成所述模型预测请求对应的半边预测结果,并由所述第一联邦参与方汇聚各所述半边预测结果,以获得联邦预测结果。
具体而言,样本信息包括样本名称或id等,第一联邦参与方在接收到模型预测请求后,获取模型预测请求中的样本名称或id等,接着获取联邦学习时该样本信息所需要的样本特征信息,并进行初略地特征规范化处理等预处理,并由第一联邦参与方的本地联邦模型输出预处理后的样本特征信息对应的第一半边预测结果,进一步地,第一联邦参与方在接收到模型预测请求后,可先判断能否直接查找到参与联邦构建该联邦模型的其他各第二联邦参与方,若第一联邦参与方可直接查找到参与联邦构建该联邦模型的其他各第二联邦参与方,则第一联邦参与方直接将模型预测请求转发至各第二联邦参与方,以联合各第二联邦参与方生成样本信息对应的联邦预测结果,进一步地,当第一联邦参与方查找不到参与联邦构建该联邦模型的其他各第二联邦参与方时,可向服务器发送转发请求,以通过服务器将模型预测请求转发至各第二联邦参与方,或者通过第一联邦参与方与第二联邦参与方之间的协调方将将模型预测请求转发至各第二联邦参与方,其中,各第二联邦参与方在获取到模型预测请求后,基于各第二联邦参与方的本地联邦模型获得模型预测请求对应的第二半边预测结果,此具体操作步骤同上述第一联邦参与方,在此不再赘述。
进一步地,各第二联邦参与方在获得第二半边预测结果之后,将第二半边预测结果返回至第一联邦参与方,由第一联邦参与方汇聚各半边预测结果,获得联邦预测结果。
且值得注意的是,本实施例中,在对待预测样本进行处理时,用户端无需直接将待预测样本交给服务器进行模型预测处理,而是只需向服务器发送一携带有样本信息的业务预测请求,服务器在接收到样本信息的业务预测请求后,仅需将业务预测请求拆分并发送至第一联邦参与方,以使第一联邦参与方联合各所述第二联邦参与方分别在本地进行模型预测,在预测过程中,彼此不暴露各自的模型及样本数据,进而提高了合作过程中的隐私安全。例如,参考图3,用户端在向部署在服务器上的产品平台发送携带有样本信息的业务预测请求(即x请求)后,产品平台将业务预测请求拆分成样本id求交请求(即m请求)和模型预测请求(即n请求)发送至第一联邦参与方A,其中,样本id求交请求指代求取第一联邦参与方A与各第二联邦参与方之间的共同样本id交集请求,可以理解地,由于第一联邦参与方和各第二联邦参与方的用户群体不同,因此,需先基于用户id对齐来确保双方不需要暴露各自的原始数据便可以对齐共同用户,第一联邦参与方A分步执行样本id求交请求(即m请求)和模型预测请求(即n请求),并向产品平台反馈各个步骤的执行结构状态,进一步地,在第一联邦参与方A将获取到的预测结果存储至私密安全存储处,以供用户直接从私密安全存储中获取预测结果,在用户端、服务器与联邦模型方之间的处理过程中,服务器没有直接接触用户端提供的样本数据,仅仅只是接收请求、转发请求及向用户端反馈预测结果状态,由第一联邦参与方及服务方分别在本地进行模型预测,克服了现有技术中用户端将用户数据直接交给模型服务提供方进行模型预测处理的数据隐私泄露缺陷,从而从根源上解决了隐私安全问题,提高了数据安全性。
应当理解的是,以上仅为举例说明,对本发明的技术方案并不构成任何限制,本领域的技术人员在实际应用中可以基于需要进行设置,此处不再一一列举。
相较于现有的采用将用户数据直接交给模型服务提供方进行模型预测处理相比,本方法实施例通过在接收到用户端发送的携带有业务参数的业务预测请求时,确定所述业务预测请求对应的第一联邦参与方及各第二联邦参与方,其中,所述业务参数包括联邦模型标识和样本信息;从所述业务预测请求中获取样本信息,并生成携带有预测所需的业务参数的模型预测请求;将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果,并反馈至所述用户端,由此,与现有技术中采用用户将用户数据直接交给模型服务提供方进行模型预测处理相比,本发明采用用户只需向服务器提供带有业务参数的请求,即可通过服务器将请求转发给各联邦参与方,来获得联邦预测结果,克服了现有技术中的用户直接将加密数据提供给成品模型服务的提供方处理时存在数据隐私泄露缺陷,从而从根源上解决了合作过程中的隐私安全问题,提高了数据安全性。
进一步地,基于本发明业务预测方法的第一实施例,提出本发明业务预测方法第二实施例。
参照图4,图4为本发明业务预测方法第二实施例的流程示意图;
所述业务预测方法第二实施例与所述业务预测方法第一实施例的区别在于,所述从所述业务预测请求中获取业务参数,并生成携带有所述业务参数的模型预测请求的步骤包括:
步骤S201:从所述业务预测请求中提取获取样本信息,生成携带有所述业务参数的样本id求交请求;
步骤S202:将所述样本id求交请求发送至所述第一联邦参与方,以通过所述第一联邦参与方获得所述业务参数对应的目标交集样本id,并生成携带有预测所需的业务参数的模型预测请求。
容易理解的是,当多个参与者之间的样本id重叠较多,而两方数据特征重叠较少时,例如,同一地区的银行和电商的共同的客户数据,则需要找出参与者拥有的共同的样本,并联合多个参与者的共同样本的不同数据特征进行联邦学习,增多训练样本的特征维度,以使多个参与者之间的联邦学习存在意义。
因此本实施例中,在接收到用户端发送的携带有样本信息的业务预测请求时,将业务预测请求拆分成样本id求交请求及模型预测请求,其中,本实施例中,样本id求交请求指代求取第一联邦参与方与各第二联邦参与方之间的共同样本id交集请求,可以理解地,由于第一联邦参与方和各第二联邦参与方的用户群体不同,因此,需先基于用户id对齐来确保双方不需要暴露各自的原始数据便可以对齐共同用户,即先基于样本id求交请求获取第一联邦参与方与各第二联邦参与方的共同样本id,接着在利用第一联邦参与方和各所述第二联邦参与方的各自本地半边联邦模型对共同样本id进行计算。
此外,为了便于理解,本实施例给出一种将所述样本id求交请求发送至所述第一联邦参与方,以通过所述第一联邦参与方获得所述样本信息对应的目标交集样本id的具体实现方案,该具体方案具体如下:
将所述样本id求交请求发送至所述第一联邦参与方,其中,所述第一联邦参与方接收到所述样本id求交请求时,从所述样本id求交请求中提取业务参数,并与各所述第二联邦参与方进行样本id求交处理,获得目标交集样本id。
容易理解的是,本实施例中,为了避免数据隐私泄露,第一联邦参与方与各第二联邦参与方在安全联邦网络内基于预设多方交集算法对第一联邦参与方的接收到的样本id求交请求中的样本信息对应的样本id和各第二联邦参与方的本地用户id进行样本id求交处理,以获取第一联邦参与方与各所述第二联邦参与方共有的目标交集样本id。
此外,在一些实施例中,用户端提供的样本数据中可能存在空白样本id数据,或空格符等其他形式残缺的样本数据,或者用户端提供的样本数据格式等与联邦模型的数据格式不同,因此为了提高样本数据的精准度,本实施还给出了一种将所述样本id求交请求发送至所述第一联邦参与方,以通过所述第一联邦参与方获得所述样本信息对应的目标交集样本id的具体实现方案,该具体方案具体如下:
首先从所述业务预测请求中提取样本信息;
接着对所述样本信息进行预处理,并生成携带有预处理后的样本信息的样本id求交请求。
容易理解的是,用户端提供的样本数据中可能存在空白样本id数据,或空格符等其他形式残缺的样本数据,或者用户端提供的样本数据格式等与联邦模型的数据格式不同,因此本实施例中,在接收到用户端发送的携带有样本信息的业务预测请求后,从请求中获取样本信息,具体地,获取样本数据,,例如样本id,接着删除样本id中的空白样本id数据,或空格符等其他形式残缺的样本数据,在删除残缺的样本数据之后,确定当前联邦模型匹配的数据格式,并相应调整样本id的数据格式。
相较于现有的用户采用脚本或其他手动分步骤进行预测相比,本方法实施例通过从所述业务预测请求中获取样本信息,生成携带有所述样本信息的样本id求交请求;将所述样本id求交请求发送至所述第一联邦参与方,以通过所述第一联邦参与方获得所述样本信息对应的目标交集样本id;并生成携带有预测所需的业务参数的模型预测请求,由此基于服务器解析请求,将请求自动拆分成样本id求交请求与模型预测请求,简化了用户操作,进而提高了模型预测效率。
此外,本实施例还提供一种业务预测装置。参照图5,图5为本发明业务预测装置第一实施例的功能模块示意图。
本实施例中,所述业务预测装置为虚拟装置,存储于图1所示的业务预测设备的存储器1005中,以实现业务预测程序的所有功能:用于在接收到用户端发送的携带有业务参数的业务预测请求时,确定所述业务预测请求中联邦模型标识对应的第一联邦参与方及各第二联邦参与方,其中,所述业务参数包括联邦模型标识和样本信息;用于从所述业务预测请求中获取样本信息,并生成携带有预测所需的业务参数的模型预测请求;用于将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果,并反馈至所述用户端。
具体地,参照图4,所述业务预测装置包括:
确定模块10,用于在接收到用户端发送的携带有业务参数的业务预测请求时,确定所述业务预测请求中联邦模型标识对应的第一联邦参与方及各第二联邦参与方,其中,所述业务参数包括联邦模型标识和样本信息;
获取模块20,用于从所述业务预测请求中获取样本信息,并生成携带有预测所需的业务参数的模型预测请求;
计算模块30,用于将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果,并反馈至所述用户端。
本实施例提供的业务预测装置,通过在接收到用户端发送的携带有业务参数的业务预测请求时,确定业务预测请求中联邦模型标识对应的第一联邦参与方及各第二联邦参与方;从业务预测请求中获取样本信息,并生成携带有预测所需的业务参数的模型预测请求;将模型预测请求发送至第一联邦参与方,以供第一联邦参与方基于联邦模型预测请求,联合各第二联邦参与方生成对应的联邦预测结果,由此,与现有技术中采用用户将用户数据直接交给模型服务提供方进行模型预测处理相比,本发明采用用户只需向服务器提供带有业务参数的请求,即可通过服务器将请求转发给各联邦参与方,来获得联邦预测结果,克服了现有技术中的用户直接将加密数据提供给成品模型服务的提供方处理时存在数据隐私泄露缺陷,从而从根源上解决了合作过程中的隐私安全问题,提高了数据安全性。
此外,本发明实施例还提供一种计算机存储介质,所述计算机存储介质上存储有业务预测程序,所述业务预测程序被处理器运行时实现如上所述业务预测方法的步骤,此处不再赘述。
此外,本发明实施例还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器运行时实现如上所述业务预测方法的步骤,此处不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备执行本发明各个实施例所述的方法。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (11)

1.一种业务预测方法,其特征在于,应用于服务器,所述业务预测方法包括:
在接收到用户端发送的携带有业务参数的业务预测请求时,确定所述业务预测请求中联邦模型标识对应的第一联邦参与方及各第二联邦参与方,其中,所述业务参数包括联邦模型标识和样本信息;
从所述业务预测请求中获取样本信息,并生成携带有预测所需的业务参数的模型预测请求;
将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果,并反馈至所述用户端。
2.根据权利要求1所述的业务预测方法,其特征在于,所述从所述业务预测请求中获取样本信息,并生成携带有预测所需的业务参数的模型预测请求的步骤包括:
从所述业务预测请求中获取样本信息,生成携带有所述样本信息的样本id求交请求;
将所述样本id求交请求发送至所述第一联邦参与方,以通过所述第一联邦参与方获得目标交集样本id,并生成携带有预测所需的业务参数的模型预测请求。
3.根据权利要求2所述的业务预测方法,其特征在于,所述将所述样本id求交请求发送至所述第一联邦参与方,以通过所述第一联邦参与方获得目标交集样本id的步骤包括:
将所述样本id求交请求发送至所述第一联邦参与方,其中,所述第一联邦参与方接收到所述样本id求交请求时,从所述样本id求交请求中获取样本信息,并与各所述第二联邦参与方进行样本id求交处理,获得目标交集样本id。
4.根据权利要求2所述的业务预测方法,其特征在于,所述从所述业务预测请求中获取样本信息,生成携带有所述样本信息的样本id求交请求的步骤,还包括:
从所述业务预测请求中获取样本信息;
对所述样本信息进行预处理,并生成携带有预处理后的样本信息的样本id求交请求。
5.根据权利要求1所述的业务预测方法,其特征在于,所述将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果,并反馈至所述用户端的步骤包括:
将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果,并将所述联邦预测结果进行私密存储,并反馈私密存储信息;
将所述私密存储信息发送至所述用户端,以供所述用户端获取所述联邦预测结果。
6.根据权利要求5所述的业务预测方法,其特征在于,所述将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果的步骤包括:
将所述模型预测请求发送至所述第一联邦参与方,以使所述第一联邦参与方在接收到所述模型预测请求时,并将所述模型预测请求转发至各所述第二联邦参与方,以通过所述第一联邦参与方及各所述第二联邦参与方的本地联邦模型生成所述模型预测请求对应的半边预测结果,并由所述第一联邦参与方汇聚各所述半边预测结果,以获得联邦预测结果。
7.根据权利要求1至6任一项所述的业务预测方法,其特征在于,所述将所述模型预测请求发送至所述第一联邦参与方的步骤之前,还包括:
发送模型训练请求至所述第一联邦参与方,以使所述第一联邦参与方在接收到所述模型训练请求时,联合各所述第二联邦参与方对各自本地模型参数进行更新,以获取第一联邦参与方及各所述第二联邦参与方的本地联邦模型。
8.一种业务预测装置,其特征在于,所述业务预测装置包括:
接收模块,用于在接收到用户端发送的携带有业务参数的业务预测请求时,确定所述业务预测请求中联邦模型标识对应的第一联邦参与方及各第二联邦参与方,其中,所述业务参数包括联邦模型标识和样本信息;
获取模块,用于从所述业务预测请求中获取样本信息,并生成携带有预测所需的业务参数的模型预测请求;
计算模块,用于将所述模型预测请求发送至所述第一联邦参与方,以供所述第一联邦参与方基于所述联邦模型预测请求,联合各所述第二联邦参与方生成所述模型预测请求对应的联邦预测结果,并反馈至所述用户端。
9.一种业务预测设备,其特征在于,所述业务预测设备包括处理器,存储器以及存储在所述存储器中的业务预测程序,所述业务预测程序被所述处理器运行时,实现如权利要求1-7中任一项所述的业务预测方法的步骤。
10.一种计算机存储介质,其特征在于,所述计算机存储介质上存储有业务预测程序,所述业务预测程序被处理器运行时实现如权利要求1-7中任一项所述业务预测方法的步骤。
11.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器运行时实现如权利要求1-7中任一项所述业务预测方法的步骤。
CN202011378503.4A 2020-11-30 2020-11-30 业务预测方法、装置、设备、存储介质及程序产品 Pending CN114580689A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011378503.4A CN114580689A (zh) 2020-11-30 2020-11-30 业务预测方法、装置、设备、存储介质及程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011378503.4A CN114580689A (zh) 2020-11-30 2020-11-30 业务预测方法、装置、设备、存储介质及程序产品

Publications (1)

Publication Number Publication Date
CN114580689A true CN114580689A (zh) 2022-06-03

Family

ID=81767834

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011378503.4A Pending CN114580689A (zh) 2020-11-30 2020-11-30 业务预测方法、装置、设备、存储介质及程序产品

Country Status (1)

Country Link
CN (1) CN114580689A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115879650A (zh) * 2023-02-21 2023-03-31 北京航空航天大学 基于区块链多态分离可信的多任务联合预测方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115879650A (zh) * 2023-02-21 2023-03-31 北京航空航天大学 基于区块链多态分离可信的多任务联合预测方法及系统

Similar Documents

Publication Publication Date Title
US10880732B2 (en) Authentication of phone caller identity
CN108123800B (zh) 密钥管理方法、装置、计算机设备及存储介质
CN110377239B (zh) 数据签名方法、装置、服务器、系统及存储介质
CN109190409B (zh) 记录信息传播路径的方法、装置、设备及可读存储介质
CN111447133B (zh) 消息传输方法和装置、存储介质及电子装置
CN110519268B (zh) 基于区块链的投票方法、装置、设备、系统及存储介质
CN111224834B (zh) 模拟测试方法、装置、服务器及存储介质
CN112600830B (zh) 业务数据处理方法、装置、电子设备及存储介质
CN112347488B (zh) 订单信息处理方法及装置、设备及存储介质
CN114841697A (zh) 基于区块链的电子合同链上存证、签署和查证系统及方法
CN113190724B (zh) 用户银行信息的查询方法、移动终端及服务器
CN108768928A (zh) 一种信息获取方法、终端及服务器
CN111597060B (zh) 数据调用方法、装置、计算机设备和存储介质
CN107196918A (zh) 一种匹配数据的方法和装置
CN114580689A (zh) 业务预测方法、装置、设备、存储介质及程序产品
US9727894B2 (en) Aggregator system having a platform for engaging mobile device users
US10432740B2 (en) Method and apparatus for accessing OTT application and pushing message by server
CN116170759A (zh) 一种基于微信的局域网访问方法及系统
CN112583602B (zh) 信息码数据传输方法、装置、系统、计算机设备和介质
CN113626848A (zh) 样本数据生成方法、装置、电子设备及计算机可读介质
US7844267B2 (en) Server for providing access by a communication terminal to a communication processing service
CN112200654A (zh) 服务方法、客户端、系统、电子设备及可读存储介质
CN117272394B (zh) 债券市场数据共享方法及装置、存储介质及电子设备
CN115860745B (zh) 免密支付签约方法、网关设备和存储介质
CN116578275A (zh) 处理请求的方法、装置、电子设备和计算机可读介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination