CN111340453A - 联邦学习开发方法、装置、设备及存储介质 - Google Patents

联邦学习开发方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN111340453A
CN111340453A CN202010133912.1A CN202010133912A CN111340453A CN 111340453 A CN111340453 A CN 111340453A CN 202010133912 A CN202010133912 A CN 202010133912A CN 111340453 A CN111340453 A CN 111340453A
Authority
CN
China
Prior art keywords
participant
evaluation
model
participants
development
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010133912.1A
Other languages
English (en)
Inventor
魏文斌
范涛
唐明超
陈天健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WeBank Co Ltd
Original Assignee
WeBank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WeBank Co Ltd filed Critical WeBank Co Ltd
Priority to CN202010133912.1A priority Critical patent/CN111340453A/zh
Publication of CN111340453A publication Critical patent/CN111340453A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/101Collaborative creation, e.g. joint development of products or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/58Random or pseudo-random number generators
    • G06F7/588Random number generators, i.e. based on natural stochastic processes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Hardware Design (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及金融科技领域,公开一种联邦学习开发方法、装置、设备及存储介质,所述联邦学习开发方法包括:若检测到工业开发需求,则确定所述工业开发需求中的多个参与方,并根据所述工业开发需求确定第一评估模型和预设评估条件;其中,不同工业开发需求对应不同第一评估模型和不同预设评估条件;根据所述多个参与方生成各参与方的随机数,并基于各参与方的本地数据和随机数,对第一评估模型进行融合评估处理,以获得融合评估值;根据所述预设评估条件和所述融合评估值,对所述第一评估模型进行联邦学习训练,得到第二评估模型。本发明简化了横向联邦学习算法的开发流程,降低了算法开发工作量,提升了算法开发效率。

Description

联邦学习开发方法、装置、设备及存储介质
技术领域
本发明涉及金融科技技术领域,尤其涉及一种联邦学习开发方法、装置、设备及存储介质。
背景技术
随着计算机技术的发展,越来越多的技术(大数据、分布式、区块链Blockchain、人工智能等)应用在金融领域,传统金融工业正在逐步向金融科技(Fintech)转变,但由于金融行业的安全性、实时性要求,也对技术提出了更高的要求。
开发一个能应用于实际生产环境的横向联邦学习算法需要大量的开发资源,不同算法的开发也需要大量的开发成本,每一个算法有各自对应的开发流程,这使得开发人员需要针对各个算法进行单独定制开发,其开发流程繁琐复杂,每一次开发过程都无法应用到其他开发过程中,缺少扩展性和灵活性,使得开发流程过于繁琐冗长,大大增加了算法开发工作量,降低了算法开发效率。
发明内容
本发明的主要目的在于提供一种联邦学习开发方法、装置、设备及存储介质,旨在简化横向联邦学习算法的开发流程,降低算法开发工作量,提升算法开发效率。
为实现上述目的,本发明实施例提供一种联邦学习开发方法,所述联邦学习开发方法包括:
若检测到工业开发需求,则确定所述工业开发需求中的多个参与方,并根据所述工业开发需求确定第一评估模型和预设评估条件;其中,不同工业开发需求对应不同第一评估模型和不同预设评估条件;
根据所述多个参与方生成各参与方的随机数,并基于各参与方的本地数据和随机数,对第一评估模型进行融合评估处理,以获得融合评估值;
根据所述预设评估条件和所述融合评估值,对所述第一评估模型进行联邦学习训练,得到第二评估模型。
可选地,所述根据所述预设评估条件和所述融合评估值,对所述第一评估模型进行联邦学习训练,得到第二评估模型的步骤包括:
若融合评估值未达到所述预设评估条件,则对所述第一评估模型进行联邦学习训练,并重复对所述第一评估模型进行融合评估处理的步骤;
若融合评估值达到所述预设评估条件,则将所述第一评估模型确定为第二评估模型。
可选地,所述根据所述多个参与方生成各参与方的随机数的步骤包括:
根据所述多个参与方生成各参与方中两两参与方之间的共同密钥,并将各共同密钥发送至所述各共同密钥对应的参与方;
根据各参与方和各参与方对应的共同密钥,生成各共同密钥对应的两两参与方之间的随机数。
可选地,所述根据所述多个参与方生成各参与方中两两参与方之间的共同密钥的步骤包括:
根据各参与方生成DH公钥,并将所述DH公钥广播至各参与方;
根据各参与方和各参与方接收的DH公钥,计算各参与方对应的私钥,并将各参与方的私钥加密,得到各参与方的加密密文,并将各加密密文广播至各参与方;
根据各参与方和各参与方的加密密文,计算各参与方中两两参与方之间的共同密钥。
可选地,所述若融合评估值未达到所述预设评估条件,则对所述第一评估模型进行联邦学习训练的步骤包括:
若所述融合评估值未达到预设评估条件,则根据各参与方的本地数据对第一评估模型进行训练处理,以获得各参与方的本地训练模型参数,以及所述各本地训练模型的权重因子;
根据各参与方的随机数和权重因子,对各参与方的本地训练模型参数进行加密,以获得各参与方的加密模型参数;
对各参与方的加密模型参数进行聚合平均处理,并基于聚合平均后的模型参数对所述第一评估模型进行更新。
可选地,所述对各参与方的加密模型参数进行聚合平均处理,并基于聚合平均后的模型参数对所述第一评估模型进行更新的步骤包括:
将各参与方的加密模型参数进行聚合处理,生成聚合模型参数;
将各参与方的权重因子进行聚合处理,生成聚合权重因子;
根据聚合模型参数和聚合权重因子进行模型参数平均处理,并基于聚合平均处理后的模型参数对所述第一评估模型进行更新。
可选地,所述根据各参与方的随机数和权重因子,对各参与方的本地训练模型参数进行加密,以获得各参与方的加密模型参数的步骤包括:
根据各参与方、各参与方的本地训练模型参数以及权重因子,生成各参与方的初始模型参数;
根据各参与方和各参与方的随机数生成各参与方的随机模型参数;
获取各参与方的标识号,并根据各参与方对应的标识号确定各参与方的初始模型参数的加密方式;
若加密方式为相加方式,则将各参与方的所述初始模型参数和随机模型参数进行相加处理,获得各参与方的第一模型参数;
若加密方式为相减方式,则将各参与方的所述初始模型参数和随机模型参数进行相减处理,获得各参与方的第二模型参数;
将各参与方的第一模型参数或第二模型参数确认为各参与方的加密模型参数。
本发明还提供一种联邦学习开发装置,所述联邦学习开发装置包括:
确定模块,用于若检测到工业开发需求,则确定所述工业开发需求中的多个参与方,并根据所述工业开发需求确定第一评估模型和预设评估条件;其中,不同工业开发需求对应不同第一评估模型和不同预设评估条件;
处理模块,用于根据所述多个参与方生成各参与方的随机数,并基于各参与方的本地数据和随机数,对第一评估模型进行融合评估处理,以获得融合评估值;
训练模块,用于根据所述预设评估条件和所述融合评估值,对所述第一评估模型进行联邦学习训练,得到第二评估模型。
可选地,所述训练模块包括:
训练子模块,用于若融合评估值未达到所述预设评估条件,则对所述第一评估模型进行联邦学习训练,并重复对所述第一评估模型进行融合评估处理的步骤;
确定子模块,用于若融合评估值达到所述预设评估条件,则将所述第一评估模型确定为第二评估模型。
可选地,所述处理模块包括:
共同密钥子模块,用于根据所述多个参与方生成各参与方中两两参与方之间的共同密钥,并将各共同密钥发送至所述各共同密钥对应的参与方;
随机数子模块,用于根据各参与方和各参与方对应的共同密钥,生成各共同密钥对应的两两参与方之间的随机数。
可选地,所述共同密钥子模块的步骤包括:
生成单元,用于根据各参与方生成DH公钥,并将所述DH公钥广播至各参与方;
加密单元,用于根据各参与方和各参与方接收的DH公钥,计算各参与方对应的私钥,并将各参与方的私钥加密,得到各参与方的加密密文,并将各加密密文广播至各参与方;
共同密钥单元,用于根据各参与方和各参与方的加密密文,计算各参与方中两两参与方之间的共同密钥。
可选地,所述训练子模块包括:
训练单元,用于若所述融合评估值未达到预设评估条件,则根据各参与方的本地数据对第一评估模型进行训练处理,以获得各参与方的本地训练模型参数,以及所述各本地训练模型的权重因子;
加密单元,用于根据各参与方的随机数和权重因子,对各参与方的本地训练模型参数进行加密,以获得各参与方的加密模型参数;
聚合平均单元,用于对各参与方的加密模型参数进行聚合平均处理,并基于聚合平均后的模型参数对所述第一评估模型进行更新。
可选地,所聚合平均单元包括:
第一聚合子单元,用于将各参与方的加密模型参数进行聚合处理,生成聚合模型参数;
第二聚合子单元,用于将各参与方的权重因子进行聚合处理,生成聚合权重因子;
平均子单元,用于根据聚合模型参数和聚合权重因子进行模型参数平均处理,并基于聚合平均处理后的模型参数对所述第一评估模型进行更新。
可选地,所述加密单元包括:
初始模型子单元,用于根据各参与方、各参与方的本地训练模型参数以及权重因子,生成各参与方的初始模型参数;
随机模型子单元,用于根据各参与方和各参与方的随机数生成各参与方的随机模型参数;
确定子单元,用于获取各参与方的标识号,并根据各参与方对应的标识号确定各参与方的初始模型参数的加密方式;
相加子单元,用于若加密方式为相加方式,则将各参与方的所述初始模型参数和随机模型参数进行相加处理,获得各参与方的第一模型参数;
相减子单元,用于若加密方式为相减方式,则将各参与方的所述初始模型参数和随机模型参数进行相减处理,获得各参与方的第二模型参数;
确认子单元,用于将各参与方的第一模型参数或第二模型参数确认为各参与方的加密模型参数。
此外,为实现上述目的,本发明还提供一种设备,所述设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的联邦学习开发程序,其中:
所述联邦学习开发程序被所述处理器执行时实现如上所述的联邦学习开发方法的步骤。
此外,为实现上述目的,本发明还提供计算机存储介质;
所述计算机存储介质上存储有联邦学习开发程序,所述联邦学习开发程序被处理器执行时实现如上述的联邦学习开发方法的步骤。
本发明若检测到工业开发需求,则确定所述工业开发需求中的多个参与方,并根据所述工业开发需求确定第一评估模型和预设评估条件;其中,不同工业开发需求对应不同第一评估模型和不同预设评估条件;根据所述多个参与方生成各参与方的随机数,并基于各参与方的本地数据和随机数,对第一评估模型进行融合评估处理,以获得融合评估值;根据所述预设评估条件和所述融合评估值,对所述第一评估模型进行联邦学习训练,得到第二评估模型。本发明封装了不同算法中的共同应用步骤,以形成横向联邦学习的算法框架,并设置了不同参与方本地数据融合评估的停止条件,从而实现了各参与方数据的融合评估步骤的自我迭代,完善了联邦学习开发框架的自动化,极大地简化了横向联邦学习算法的开发流程,降低了算法开发工作量,提升了算法开发效率。
附图说明
图1为本发明实施例方案涉及的硬件运行环境的设备结构示意图;
图2为本发明联邦学习开发方法一实施例的流程示意图;
图3为本发明联邦学习开发方法一实施例中uuid生成的示意图;
图4为本发明联邦学习开发方法一实施例中DH密钥交换的示意图;
图5为本发明联邦学习开发方法一实施例中随机数生成器的示意图;
图6为本发明联邦学习开发方法一实施例中本地模型评估的示意图;
图7为本发明联邦学习开发方法一实施例中本地模型训练的示意图。
本发明目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,图1是本发明实施例方案涉及的硬件运行环境的设备结构示意图。
本发明实施例设备可以是PC机或服务器设备。
如图1所示,该设备可以包括:处理器1001,例如CPU,网络接口1004,用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的设备结构并不构成对设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及联邦学习开发程序。
在图1所示的设备中,网络接口1004主要用于连接后台服务器,与后台服务器进行数据通信;用户接口1003主要用于连接客户端(用户端),与客户端进行数据通信;而处理器1001可以用于调用存储器1005中存储的联邦学习开发程序,并执行下述联邦学习开发方法各个实施例中的操作。
本发明实施例方案的主要思路是:本发明若检测到工业开发需求,则确定所述工业开发需求中的多个参与方,并根据所述工业开发需求确定第一评估模型和预设评估条件;其中,不同工业开发需求对应不同第一评估模型和不同预设评估条件;根据所述多个参与方生成各参与方的随机数,并基于各参与方的本地数据和随机数,对第一评估模型进行融合评估处理,以获得融合评估值;根据所述预设评估条件和所述融合评估值,对所述第一评估模型进行联邦学习训练,得到第二评估模型。本发明封装了不同算法中的共同应用步骤,以形成横向联邦学习的算法框架,并设置了不同参与方本地数据融合评估的停止条件,从而实现了各参与方数据的融合评估步骤的自我迭代,完善了联邦学习开发框架的自动化,极大地简化了横向联邦学习算法的开发流程,降低了算法开发工作量,提升了算法开发效率。
本发明实施例考虑到,由于现有技术中,开发一个能应用于实际生产环境的横向联邦学习算法需要大量的开发资源,不同算法的开发也需要大量的开发成本,每一个算法有各自对应的开发流程,这使得开发人员需要针对各个算法进行单独定制开发,其开发流程繁琐复杂,每一次开发过程都无法应用到其他开发过程中,缺少扩展性和灵活性,使得开发流程过于繁琐冗长,大大增加了算法开发工作量,降低了算法开发效率。
本发明提供一种解决方案,封装不同算法中的共同应用步骤,形成横向联邦学习的算法框架,并设置了不同参与方本地数据融合评估的停止条件,从而实现了各参与方数据的融合评估步骤的自我迭代,完善了联邦学习开发框架的自动化,极大地简化了横向联邦学习算法的开发流程,降低了算法开发工作量,提升了算法开发效率。
基于上述硬件结构,提出本发明联邦学习开发方法实施例。
本发明属于金融科技领域(Fintech),本发明提供一种联邦学习开发方法,
在联邦学习开发方法一实施例中,参照图2,所述联邦学习开发方法包括:
步骤S10,若检测到工业开发需求,则确定所述工业开发需求中的多个参与方,并根据所述工业开发需求确定第一评估模型和预设评估条件;其中,不同工业开发需求对应不同第一评估模型和不同预设评估条件;
步骤S20,根据所述多个参与方生成各参与方的随机数,并基于各参与方的本地数据和随机数,对第一评估模型进行融合评估处理,以获得融合评估值;
步骤S30,根据所述预设评估条件和所述融合评估值,对所述第一评估模型进行联邦学习训练,得到第二评估模型。
该联邦学习开发方法可应用于设备上,具体内容如下:
步骤S10,若检测到工业开发需求,则确定所述工业开发需求中的多个参与方,并根据所述工业开发需求确定第一评估模型和预设评估条件;其中,不同工业开发需求对应不同第一评估模型和不同预设评估条件;
所述工业开发需求指的是本发明中联邦学习算法开发的项目需求,本发明工业开发需求中指定了多个参与方,参与方的数量大于2,每个参与方持有各自的带标签的数据;各方持有的数据具有同样的结构,即有同样的特征;存在非可信但遵守协议的中心节点,中心节点本身不持有数据,作为模型聚合和信息交互的中间人;现在需要利用多个参与方的数据联合训练一个模型,同时在过程中任何参与方的私有模型不被其他参与方及中心节点获取,从而保护参与方数据的安全。为方便理解,在本发明实施例行为的举例中,参与方以Client代替,而中心节点以Server代替。
本实施例中存在随机加密器,所述随机加密器用于各参与方的uuid生成,密钥交换和随机数生成。
可理解的是,uuid生成指的是系统为每个参与方分配的具有唯一性的uuid_{i}作为标识。
密钥交换指的是将每个参与方与其他参与方进行一一密钥交换。随机数生成指的是将两两参与方之间的密钥转换为随机数,加强密钥的安全可靠性。预设评估条件指的是各参与方进行需求开发过程,对数据进行训练的迭代参照条件,代表着当开发程度达到该条件时,开发流程结束的停止条件。第一评估模型是中心节点(Server)中保存的预设模型,该模型用于评估各参与方(Client)的数据可用性。可以理解的时,第一评估模型为工业开发需求中指定的训练对象,预设评估条件为工业开发需求中指定的训练条件。
参照图3,图3为本发明联邦学习开发方法一实施例中uuid生成的示意图,uuid是唯一标识当前的参与方的标识性数据。因此uuid的生成过程中需要判断各个参与方所代表Client是否有uuid冲突,若冲突,则重新生成uuid,并匹配至对应的Client。通过uuid的生成匹配,使得各个Client具有各自的uuid标识号,从而方便系统识别各个Client。例如将系统中的各个Client命名为Client 1,Client 2,Client 3......Client i等等。
进一步地,预设评估条件可以根据实际的工业开发需求而进行调整。假设当前的工业开发需求为开发一套大型客户贷款预测模型算法,那么则需要确定客户的年龄、社保、公积金、贷款历史等等数据,以对各种数据进行预测推导。假设本次工业开发需求要求所开发的算法必须具有高并发性能的属性,以避免在面对庞大的客户数据计算量,发生系统宕机或数据处理异常的情况发生。因此根据工业开发需求所确定的数据计算量,需要所述大型贷款预测模型算法的并发性能需要达到当前工业开发需求所能够使用的范围。
具体地,在获取到工业开发需求之后,本实施例将对工业开发需求进行分析,以确定该工业开发需求的算法功能性,例如性能并发性,页面渲染程度,算法安全性,数据隐私性等等。在本实施例中,可根据工业开发需求的算法功能性确定性能达标条件,将性能达标条件确认为预设评估条件,以用于算法开发过程中是否达到性能达标条件的重要参考值。例如假设预设评估条件“算法评估值大于85%的安全评判单位”,那么在融合评估值达到预设评估条件时,即融合评估值大于85%的安全评判单位时,输出第一评估模型,反之则为未达到预设评估条件,需要进行进一步迭代处理,直到融合评估值德语85%的安全评判单位。
步骤S20,根据所述多个参与方生成各参与方的随机数,并基于各参与方的本地数据和随机数,对第一评估模型进行融合评估处理,以获得融合评估值;
本实施例将所有参与方的本地数据提供至第一预估模型,由第一预估模型根据收集到的多方数据进行融合处理,以获得一个融合评估值。
为方便理解,以下将通过一个例子进行解释说明:
参照图6,图6为本发明联邦学习开发方法一实施例中本地模型评估的示意图;本实施例中,Server中保存有第一评估模型M_{t-1},系统获取到第一评估模型以及各个Client各自的本地数据,并将每个Client中各自的本地数据作为输入参数,输入到第一评估模型中,以供第一评估模型进行融合评估处理。可以理解的是,所述融合评估处理可根据实际的开发需求进行定制,在本实施例中并不固定,通过开发需求中的权重偏向而具有一定的倾向趋势。在本实施例中,融合评估处理作为一种根据开发需求的变化而变化的执行处理步骤,在此不做赘述,关键在于通过融合评估处理获得的融合评估值。
具体地,所述根据所述多个参与方生成各参与方的随机数的步骤包括:
步骤A1,根据所述多个参与方生成各参与方中两两参与方之间的共同密钥,并将各共同密钥发送至所述各共同密钥对应的参与方;
所述密钥交换是利用DH密钥交换技术,实现任意两个参与方(ci,cj)之间持有共同的一份私钥(P_{i,j}=P_{j,i})。在本实施例中每个参与方需要与其他参与方分别生成两两参与方之间的共同密钥,以保障拥有共同密钥的两个参与方之间的数据不被其他参与方所获取,具有一定的数据安全性。
具体地,所述根据所述多个参与方生成各参与方中两两参与方之间的共同密钥的步骤包括:
步骤A11,根据各参与方生成DH公钥,并将所述DH公钥广播至各参与方;
步骤A12,根据各参与方和各参与方接收的DH公钥,计算各参与方对应的私钥,并将各参与方的私钥加密,得到各参与方的加密密文,并将各加密密文广播至各参与方;
步骤A13,根据各参与方和各参与方的加密密文,计算各参与方中两两参与方之间的共同密钥。
为方便理解,参照图4,图4为本发明联邦学习开发方法一实施例中DH密钥交换的示意图;本实施例将根据以上步骤结合以下举例说明DH密钥交换的具体步骤:
步骤1:Server生成DH公钥(a,n),并将所述DH公钥广播给其他Client;
步骤2:每个Client根据DH公钥生成本地私钥(随机数r),计算私钥加密密文并发送给Server;
步骤3:Server收集所有Client的私钥加密密文,形成密文列表,并将密文列表广播给所有Client;
步骤4:每个Client收到密文列表,并通过列表中私钥加密密文,计算该Client与其他各个Client在对应的私钥加密密文中的共同密钥。
根据以上步骤,使得每个Client都能分别与其他任一个Client形成两两Client之间的共同密钥。例如当前有Client 1,从广播中获取到DH公钥,根据DH公钥生成Client 1的本地私钥,Client 1将本地私钥进行加密生成Client 1加密密文,发送给Server,Server得到Client 1,Client 2,......Client n等多个Client的加密密文后,整理形成密文列表,Server将密文列表广播发送给所有Client。Client 1在获取到密文列表后,提取出Client2,Client 3,......Client n等多个Client的加密密文后,基于Client 1加密密文和Client 2生成Client 1和Client 2之间的共同密钥12,同理可获取到Client 1和Client 3之间的共同密钥13,......以及Client 1和Client n之间的共同密钥1n。以此类推,Client2可获得Client 2和Client 1之间的共同密钥12,Client 2和Client 3之间的共同密钥23......Client 2和Client n之间的共同密钥2n。
因此,每个Client能获得与所有各个Client两两之间的共同密钥,该过程即为共同密钥的生成,每个Client(ci),均持有共同密钥{P_{i,1},...,P{i,i-1},P_{i,i+1},...,P_{i,N}}。
步骤A2,根据各参与方和各参与方对应的共同密钥,生成各共同密钥对应的两两参与方之间的随机数。
参照图5,图5为本发明联邦学习开发方法一实施例中随机数生成器的示意图;在获取到每个参与方,即每个Client(ci)的共同密钥数据之后,根据每个Client(ci)的共同密钥{P_{i,1},...,P{i,i-1},P_{i,i+1},...,P_{i,N}},将所述各个Client(ci)的共同密钥作为随机数种子,初始化MT19937种子,以生成各个Client(ci)的随机数生成器,从而得到各Client(ci)的随机数RS_{i}={R_{i,1},...,R{i,i-1},R_{i,i+1},...,R_{i,N}}。假设当前Client 1有共同密钥12,共同密钥13和共同密钥14,Client 2有共同密钥12,共同密钥23,共同密钥24,则通过随机数生成器,将Client 1的共同密钥12转化为随机数12,共同密钥13转化为随机数13,共同密钥14转化为随机数14。
步骤S30,根据所述预设评估条件和所述融合评估值,对所述第一评估模型进行联邦学习训练,得到第二评估模型。
本实施例中,所述联邦学习训练根据预设评估条件实时调整迭代训练的次数,而融合评估值是预设评估条件的判断参照参数。根据预设评估条件和融合评估值对所述第一评估模型进行联邦学习训练,可获取到联邦学习训练的结果,从而得到第二评估模型。
具体地,所述根据所述预设评估条件和所述融合评估值,对所述第一评估模型进行联邦学习训练,得到第二评估模型的步骤包括:
步骤B1,若融合评估值未达到所述预设评估条件,则对所述第一评估模型进行联邦学习训练,并重复对所述第一评估模型进行融合评估处理的步骤;
当融合评估值未达到预设评估条件时,证明当前算法开发并未结束,需要进行新的开发流程。此时,系统将根据参与方的本地数据和随机数继续对第一评估模型进行联邦学习训练处理,从而实现算法迭代训练。联邦学习训练处理具体体现为训练处理和加密处理,由于存在多个参与方,因此训练处理和加密处理是将各个参与方对应的本地数据和随机数作为训练参数和加密参数,分别作为第一评估模型的训练样本数据,以完成训练和加密,获得新的第一评估模型。所获取到的新的第一评估模型将继续确认为下一轮算法开发的评估模型,由各参与方的本地数据进行再一次的融合评估处理,如此循环迭代执行,直到融合评估值达到预设评估条件,形成第二评估模型,即证明算法开发的最终模型效果符合实际开发需求。
因此,本发明实施例中,第一评估模型的最初始模型再通过多个参与方的第一轮融合评估处理后得到融合评估值1对应的第一评估模型1,在融合评估值1未达到预设评估条件时,根据各参与方进行本地数据对所述第一评估模型1进行第二轮融合评估处理,得到融合评估值2对应的第一评估模型2,再进行预设评估条件的判断,直到存在一个融合评估值n以及对应的第一评估模型n,在确定融合评估值n达到预设评估条件时,迭代结束,并将第一评估模型n确认为最终开发训练完成对应的第二评估模型。
具体地,所述若融合评估值未达到所述预设评估条件,则对所述第一评估模型进行联邦学习训练的步骤包括:
步骤B11,若所述融合评估值未达到预设评估条件,则根据各参与方的本地数据对第一评估模型进行训练处理,以获得各参与方的本地训练模型参数,以及所述各本地训练模型的权重因子;
步骤B12,根据各参与方的随机数和权重因子,对各参与方的本地训练模型参数进行加密,以获得各参与方的加密模型参数;
若所述融合评估值未达到预设评估条件,证明当前的算法开发效果未达到开发需求。参照图7,图7为本发明联邦学习开发方法一实施例中本地模型训练的示意图。此时,将根据各参与方的本地数据对第一评估模型进行训练,例如Client 1基于其对应的本地数据对第一评估模型进行数据训练,得到Client 1的本地训练模型参数M_{t1},而Client 2基于其对应的本地数据对第一平模型进行数据训练,得到Client 2的本地训练模型参数M_{t2},即Clinet n具有本地训练模型参数M_{tn},依次类推,即可获取到所有参与方的本地训练模型参数为:{M_{t1},M_{t2},......M_{tn}}。并且,本地训练模型参数M_{tn}中存在一个根据自身数据生成一个权重因子,该权重因子代表了本地训练模型参数M_{tn}在各参与方的Client所有本地训练模型中所占比重。
获取到各本地训练模型参数和权重因子后,基于各参与方的随机数和权重因子,对各参与方的本地训练模型参数进行加密,得到各个参与方的加密模型参数。
具体地,所述根据各参与方的随机数和权重因子,对各参与方的本地训练模型参数进行加密,以获得各参与方的加密模型参数的步骤包括:
步骤B121,根据各参与方、各参与方的本地训练模型参数以及权重因子,生成各参与方的初始模型参数;
步骤B122,根据各参与方和各参与方的随机数生成各参与方的随机模型参数;
步骤B123,获取各参与方的标识号,并根据各参与方对应的标识号确定各参与方的初始模型参数的加密方式;
步骤B124,若加密方式为相加方式,则将各参与方的所述初始模型参数和随机模型参数进行相加处理,获得各参与方的第一模型参数;
步骤B125,若加密方式为相减方式,则将各参与方的所述初始模型参数和随机模型参数进行相减处理,获得各参与方的第二模型参数;
步骤B126,将各参与方的第一模型参数或第二模型参数确认为各参与方的加密模型参数。
具体地,为方便理解,以下将通过举例进行解释说明:
通过本地训练模型参数M_{t},权重因子w_{t}和随机数RS_{i}进行加密,加密规则如下:
针对每个本地训练模型参数,由本地训练模型参数和权重因子,生成该参与方的初始模型参数,公式为:TM_{t}=M_{t}*w_{t}。从而得到各Client的初始模型参数。
获取每个Client的随机模型参数GenRands(r),GenRands(r)为利用该Client的随机数,经过随机数生成器r生成的与本地训练模型参数M_{t}一样结构的随机模型参数。
针对每个初始模型参数对应的参与方的标识号uuid,设置j,i,n,对每个0<j<n,j不等于i:
依次取所有Client中的任意两个Client,分别设置为Client i和Client j。如果uuid_i<uuid_j,则确定Client i的初始模型参数和随机模型参数为相加方式,此时通过以下公式进行相加处理:TM_{t}=TM_{t}+GenRands(R_{i,j}),所述TM_{t}即为第一模型参数;反之,则确定Client i的初始模型参数和随机模型参数为相减方式,此时通过以下公式进行相减处理:TM_{t}=TM_{t}–GenRands(R_{i,j}),所述TM_{t}即为第二模型参数。
获取到第一模型参数或第二模型参数之后,该第一模型参数或第二模型参数即为当前Client i的加密模型参数,其公式为:EM_{t}=TM_{t}。
步骤B13,对各参与方的加密模型参数进行聚合平均处理,并基于聚合平均后的模型参数对所述第一评估模型进行更新。
具体地,所述对各参与方的加密模型参数进行聚合平均处理,并基于聚合平均后的模型参数对所述第一评估模型进行更新的步骤包括:
获取到各参与方的加密模型参数之后,系统将收集各个参与方的加密模型参数,并将所有加密模型参数进行聚合平均处理,即将所有加密模型参数的数据进行汇总后进行平均,以达到各个参与方的平均水准,从而得到第二评估模型。
步骤B131,将各参与方的加密模型参数进行聚合处理,生成聚合模型参数;
步骤B132,将各参与方的权重因子进行聚合处理,生成聚合权重因子;
步骤B133,根据聚合模型参数和聚合权重因子进行模型参数平均处理,并基于聚合平均处理后的模型参数对所述第一评估模型进行更新。
为方便理解,本实施例将根据以上步骤结合以下举例说明参与方(即Client)聚合平均处理的实现流程:
每个Client将加密模型参数EM_{t}发送至Server,Server收集所有Client的加密模型,得到加密模型参数集合{EM_{t1},EM_{t2},......EM_{tn}}。同时,Server手机所有Client的权重因子,得到权重因子集合{w_{t1},w_{t2},......w_{tn}}。
Sever将各个加密模型参数集合中的模型数据进行聚合处理,即将各个Clinet的加密模型参数进行数据汇总,得到一个聚合模型参数SEM_{t}。同时,Sever将各个加密模型参数的权重因子进行聚合处理,即将各个Clinet的加密模型参数进行数据汇总,得到一个聚合权重因子sw_{t}。
根据聚合模型参数SEM_{t}和聚合权重因子sw_{t},执行模型平均处理,计算获得第二评估模型参数M_{t},所述M_{t}=SEM_{t}/sw_{t}。
可以理解的是,当前的第二评估模型M_{t}将作为步骤S20中的第一评估模型,以便迭代执行获得新的融合评估值,并经过预设评估条件的判断分支,从而实现模型的循环训练,直至融合评估值达到预设评估条件。
根据以上方案可知,本发明实施例中,封装了上述算法的大部分流程,以Procedure类的形式提供上述流程中所有多方之间的通信、加密、聚合的过程。用户只需要实现参与方端本地模型训练和模型评估的逻辑,即可自定义一个横向联邦算法。框架的细节对用户透明,用户仅需要关心自己设计的非联邦算法,联邦化的细节均由框架完成。
步骤B2,若融合评估值达到所述预设评估条件,则将所述第一评估模型确定为第二评估模型。
所述融合评估值代表了当前Client本地数据与第一评估模型的融合程度,即融合评估值能够代表当前算法开发与开发需求的契合度,融合程度越高,契合度越高,说明算法开发越符合开发需求。Server将根据收到的评估值判断是否停止并完成算法的开发流程。本实施例中设置了预设评估条件,所述预设评估条件用于确定融合评估值是否达标,若融合评估值达到了预设评估条件,证明当前所开发的算法符合开发需求;反之则不符合开发需求,需要进一步进行训练融合开发。
具体地,各个Client将融合评估值发送至Server,由Server收集所有融合评估值并进行预设评估条件判断。若融合评估值达到预设评估条件,代表当前的第一评估模型能够满足所有Client的应用需求,此时保留所述第一评估模型为第二评估模型并输出,该第二评估模型即为本次算法开发的最终结果。
本发明若检测到工业开发需求,则确定所述工业开发需求中的多个参与方,并根据所述工业开发需求确定第一评估模型和预设评估条件;其中,不同工业开发需求对应不同第一评估模型和不同预设评估条件;根据所述多个参与方生成各参与方的随机数,并基于各参与方的本地数据和随机数,对第一评估模型进行融合评估处理,以获得融合评估值;根据所述预设评估条件和所述融合评估值,对所述第一评估模型进行联邦学习训练,得到第二评估模型。本发明封装了不同算法中的共同应用步骤,以形成横向联邦学习的算法框架,并设置了不同参与方本地数据融合评估的停止条件,从而实现了各参与方数据的融合评估步骤的自我迭代,完善了联邦学习开发框架的自动化,极大地简化了横向联邦学习算法的开发流程,降低了算法开发工作量,提升了算法开发效率。
此外,本发明实施例还提出一种联邦学习开发装置,所述联邦学习开发装置包括:
确定模块,用于若检测到工业开发需求,则确定所述工业开发需求中的多个参与方,并根据所述工业开发需求确定第一评估模型和预设评估条件;其中,不同工业开发需求对应不同第一评估模型和不同预设评估条件;
处理模块,用于根据所述多个参与方生成各参与方的随机数,并基于各参与方的本地数据和随机数,对第一评估模型进行融合评估处理,以获得融合评估值;
训练模块,用于根据所述预设评估条件和所述融合评估值,对所述第一评估模型进行联邦学习训练,得到第二评估模型。
可选地,所述训练模块包括:
训练子模块,用于若融合评估值未达到所述预设评估条件,则对所述第一评估模型进行联邦学习训练,并重复对所述第一评估模型进行融合评估处理的步骤;
确定子模块,用于若融合评估值达到所述预设评估条件,则将所述第一评估模型确定为第二评估模型。
可选地,所述处理模块包括:
共同密钥子模块,用于根据所述多个参与方生成各参与方中两两参与方之间的共同密钥,并将各共同密钥发送至所述各共同密钥对应的参与方;
随机数子模块,用于根据各参与方和各参与方对应的共同密钥,生成各共同密钥对应的两两参与方之间的随机数。
可选地,所述共同密钥子模块的步骤包括:
生成单元,用于根据各参与方生成DH公钥,并将所述DH公钥广播至各参与方;
加密单元,用于根据各参与方和各参与方接收的DH公钥,计算各参与方对应的私钥,并将各参与方的私钥加密,得到各参与方的加密密文,并将各加密密文广播至各参与方;
共同密钥单元,用于根据各参与方和各参与方的加密密文,计算各参与方中两两参与方之间的共同密钥。
可选地,所述训练子模块包括:
训练单元,用于若所述融合评估值未达到预设评估条件,则根据各参与方的本地数据对第一评估模型进行训练处理,以获得各参与方的本地训练模型参数,以及所述各本地训练模型的权重因子;
加密单元,用于根据各参与方的随机数和权重因子,对各参与方的本地训练模型参数进行加密,以获得各参与方的加密模型参数;
聚合平均单元,用于对各参与方的加密模型参数进行聚合平均处理,并基于聚合平均后的模型参数对所述第一评估模型进行更新。
可选地,所聚合平均单元包括:
第一聚合子单元,用于将各参与方的加密模型参数进行聚合处理,生成聚合模型参数;
第二聚合子单元,用于将各参与方的权重因子进行聚合处理,生成聚合权重因子;
平均子单元,用于根据聚合模型参数和聚合权重因子进行模型参数平均处理,并基于聚合平均处理后的模型参数对所述第一评估模型进行更新。
可选地,所述加密单元包括:
初始模型子单元,用于根据各参与方、各参与方的本地训练模型参数以及权重因子,生成各参与方的初始模型参数;
随机模型子单元,用于根据各参与方和各参与方的随机数生成各参与方的随机模型参数;
确定子单元,用于获取各参与方的标识号,并根据各参与方对应的标识号确定各参与方的初始模型参数的加密方式;
相加子单元,用于若加密方式为相加方式,则将各参与方的所述初始模型参数和随机模型参数进行相加处理,获得各参与方的第一模型参数;
相减子单元,用于若加密方式为相减方式,则将各参与方的所述初始模型参数和随机模型参数进行相减处理,获得各参与方的第二模型参数;
确认子单元,用于将各参与方的第一模型参数或第二模型参数确认为各参与方的加密模型参数。
此外,本发明实施例还提出一种设备,设备包括:存储器109、处理器110及存储在存储器109上并可在处理器110上运行的联邦学习开发程序,所述联邦学习开发程序被处理器110执行时实现上述的联邦学习开发方法各实施例的步骤。
此外,本发明还提供了一种计算机存储介质,所述计算机存储介质存储有一个或者一个以上程序,所述一个或者一个以上程序还可被一个或者一个以上的处理器执行以用于实现上述联邦学习开发方法各实施例的步骤。
本发明设备及存储介质(即计算机存储介质)的具体实施方式的拓展内容与上述联邦学习开发方法各实施例基本相同,在此不做赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。

Claims (10)

1.一种联邦学习开发方法,其特征在于,所述联邦学习开发方法包括:
若检测到工业开发需求,则确定所述工业开发需求中的多个参与方,并根据所述工业开发需求确定第一评估模型和预设评估条件;其中,不同工业开发需求对应不同第一评估模型和不同预设评估条件;
根据所述多个参与方生成各参与方的随机数,并基于各参与方的本地数据和随机数,对第一评估模型进行融合评估处理,以获得融合评估值;
根据所述预设评估条件和所述融合评估值,对所述第一评估模型进行联邦学习训练,得到第二评估模型。
2.如权利要求1所述的联邦学习开发方法,其特征在于,所述根据所述预设评估条件和所述融合评估值,对所述第一评估模型进行联邦学习训练,得到第二评估模型的步骤包括:
若融合评估值未达到所述预设评估条件,则对所述第一评估模型进行联邦学习训练,并重复对所述第一评估模型进行融合评估处理的步骤;
若融合评估值达到所述预设评估条件,则将所述第一评估模型确定为第二评估模型。
3.如权利要求1所述的联邦学习开发方法,其特征在于,所述根据所述多个参与方生成各参与方的随机数的步骤包括:
根据所述多个参与方生成各参与方中两两参与方之间的共同密钥,并将各共同密钥发送至所述各共同密钥对应的参与方;
根据各参与方和各参与方对应的共同密钥,生成各共同密钥对应的两两参与方之间的随机数。
4.如权利要求3所述的联邦学习开发方法,其特征在于,所述根据所述多个参与方生成各参与方中两两参与方之间的共同密钥的步骤包括:
根据各参与方生成DH公钥,并将所述DH公钥广播至各参与方;
根据各参与方和各参与方接收的DH公钥,计算各参与方对应的私钥,并将各参与方的私钥加密,得到各参与方的加密密文,并将各加密密文广播至各参与方;
根据各参与方和各参与方的加密密文,计算各参与方中两两参与方之间的共同密钥。
5.如权利要求1所述的联邦学习开发方法,其特征在于,所述若融合评估值未达到所述预设评估条件,则对所述第一评估模型进行联邦学习训练的步骤包括:
若所述融合评估值未达到预设评估条件,则根据各参与方的本地数据对第一评估模型进行训练处理,以获得各参与方的本地训练模型参数,以及所述各本地训练模型的权重因子;
根据各参与方的随机数和权重因子,对各参与方的本地训练模型参数进行加密,以获得各参与方的加密模型参数;
对各参与方的加密模型参数进行聚合平均处理,并基于聚合平均后的模型参数对所述第一评估模型进行更新。
6.如权利要求5所述的联邦学习开发方法,其特征在于,所述对各参与方的加密模型参数进行聚合平均处理,并基于聚合平均后的模型参数对所述第一评估模型进行更新的步骤包括:
将各参与方的加密模型参数进行聚合处理,生成聚合模型参数;
将各参与方的权重因子进行聚合处理,生成聚合权重因子;
根据聚合模型参数和聚合权重因子进行模型参数平均处理,并基于聚合平均处理后的模型参数对所述第一评估模型进行更新。
7.如权利要求1-6任一项所述的联邦学习开发方法,其特征在于,所述根据各参与方的随机数和权重因子,对各参与方的本地训练模型参数进行加密,以获得各参与方的加密模型参数的步骤包括:
根据各参与方、各参与方的本地训练模型参数以及权重因子,生成各参与方的初始模型参数;
根据各参与方和各参与方的随机数生成各参与方的随机模型参数;
获取各参与方的标识号,并根据各参与方对应的标识号确定各参与方的初始模型参数的加密方式;
若加密方式为相加方式,则将各参与方的所述初始模型参数和随机模型参数进行相加处理,获得各参与方的第一模型参数;
若加密方式为相减方式,则将各参与方的所述初始模型参数和随机模型参数进行相减处理,获得各参与方的第二模型参数;
将各参与方的第一模型参数或第二模型参数确认为各参与方的加密模型参数。
8.一种联邦学习开发装置,其特征在于,所述联邦学习开发装置包括:
确定模块,用于若检测到工业开发需求,则确定所述工业开发需求中的多个参与方,并根据所述工业开发需求确定第一评估模型和预设评估条件;其中,不同工业开发需求对应不同第一评估模型和不同预设评估条件;
处理模块,用于根据所述多个参与方生成各参与方的随机数,并基于各参与方的本地数据和随机数,对第一评估模型进行融合评估处理,以获得融合评估值;
训练模块,用于根据所述预设评估条件和所述融合评估值,对所述第一评估模型进行联邦学习训练,得到第二评估模型。
9.一种设备,其特征在于,所述设备包括:存储器、处理器及存储在所述存储器上并可在处理器上运行的联邦学习开发程序,所述联邦学习开发程序被所述处理器执行时实现如权利要求1至7中任一项所述的联邦学习开发方法的步骤。
10.一种存储介质,其特征在于,所述存储介质上存储有联邦学习开发程序,所述联邦学习开发程序被处理器执行时实现如权利要求1至7中任一项所述的联邦学习开发方法的步骤。
CN202010133912.1A 2020-02-28 2020-02-28 联邦学习开发方法、装置、设备及存储介质 Pending CN111340453A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010133912.1A CN111340453A (zh) 2020-02-28 2020-02-28 联邦学习开发方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010133912.1A CN111340453A (zh) 2020-02-28 2020-02-28 联邦学习开发方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN111340453A true CN111340453A (zh) 2020-06-26

Family

ID=71179734

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010133912.1A Pending CN111340453A (zh) 2020-02-28 2020-02-28 联邦学习开发方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN111340453A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111935168A (zh) * 2020-08-19 2020-11-13 四川大学 面向工业信息物理系统的入侵检测模型建立方法
CN112132198A (zh) * 2020-09-16 2020-12-25 建信金融科技有限责任公司 数据处理方法、装置、系统和服务器
CN112231309A (zh) * 2020-10-14 2021-01-15 深圳前海微众银行股份有限公司 纵向联邦数据统计的去重方法、装置、终端设备及介质
CN112784994A (zh) * 2020-12-31 2021-05-11 浙江大学 基于区块链的联邦学习数据参与方贡献值计算和激励方法
CN113283185A (zh) * 2021-07-23 2021-08-20 平安科技(深圳)有限公司 联邦模型训练、客户画像方法、装置、设备及介质
CN114021464A (zh) * 2021-11-09 2022-02-08 京东科技信息技术有限公司 数据处理方法、装置和存储介质
CN114564746A (zh) * 2022-02-28 2022-05-31 浙江大学 基于客户端权重评价的联邦学习方法和系统
CN116415978A (zh) * 2023-04-15 2023-07-11 广州芳禾数据有限公司 基于联邦学习和多方计算的文旅消费数据分析方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190227980A1 (en) * 2018-01-22 2019-07-25 Google Llc Training User-Level Differentially Private Machine-Learned Models
CN110263908A (zh) * 2019-06-20 2019-09-20 深圳前海微众银行股份有限公司 联邦学习模型训练方法、设备、系统及存储介质
CN110263936A (zh) * 2019-06-14 2019-09-20 深圳前海微众银行股份有限公司 横向联邦学习方法、装置、设备及计算机存储介质
CN110572253A (zh) * 2019-09-16 2019-12-13 济南大学 一种联邦学习训练数据隐私性增强方法及系统
CN110674528A (zh) * 2019-09-20 2020-01-10 深圳前海微众银行股份有限公司 联邦学习隐私数据处理方法、设备、系统及存储介质
CN110719158A (zh) * 2019-09-11 2020-01-21 南京航空航天大学 基于联合学习的边缘计算隐私保护系统及保护方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190227980A1 (en) * 2018-01-22 2019-07-25 Google Llc Training User-Level Differentially Private Machine-Learned Models
CN110263936A (zh) * 2019-06-14 2019-09-20 深圳前海微众银行股份有限公司 横向联邦学习方法、装置、设备及计算机存储介质
CN110263908A (zh) * 2019-06-20 2019-09-20 深圳前海微众银行股份有限公司 联邦学习模型训练方法、设备、系统及存储介质
CN110719158A (zh) * 2019-09-11 2020-01-21 南京航空航天大学 基于联合学习的边缘计算隐私保护系统及保护方法
CN110572253A (zh) * 2019-09-16 2019-12-13 济南大学 一种联邦学习训练数据隐私性增强方法及系统
CN110674528A (zh) * 2019-09-20 2020-01-10 深圳前海微众银行股份有限公司 联邦学习隐私数据处理方法、设备、系统及存储介质

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111935168A (zh) * 2020-08-19 2020-11-13 四川大学 面向工业信息物理系统的入侵检测模型建立方法
CN112132198A (zh) * 2020-09-16 2020-12-25 建信金融科技有限责任公司 数据处理方法、装置、系统和服务器
CN112132198B (zh) * 2020-09-16 2021-06-04 建信金融科技有限责任公司 数据处理方法、装置、系统和服务器
CN112231309A (zh) * 2020-10-14 2021-01-15 深圳前海微众银行股份有限公司 纵向联邦数据统计的去重方法、装置、终端设备及介质
CN112231309B (zh) * 2020-10-14 2024-05-07 深圳前海微众银行股份有限公司 纵向联邦数据统计的去重方法、装置、终端设备及介质
CN112784994B (zh) * 2020-12-31 2023-03-03 浙江大学 基于区块链的联邦学习数据参与方贡献值计算和激励方法
CN112784994A (zh) * 2020-12-31 2021-05-11 浙江大学 基于区块链的联邦学习数据参与方贡献值计算和激励方法
CN113283185A (zh) * 2021-07-23 2021-08-20 平安科技(深圳)有限公司 联邦模型训练、客户画像方法、装置、设备及介质
CN114021464A (zh) * 2021-11-09 2022-02-08 京东科技信息技术有限公司 数据处理方法、装置和存储介质
CN114564746A (zh) * 2022-02-28 2022-05-31 浙江大学 基于客户端权重评价的联邦学习方法和系统
CN114564746B (zh) * 2022-02-28 2024-05-14 浙江大学 基于客户端权重评价的联邦学习方法和系统
CN116415978A (zh) * 2023-04-15 2023-07-11 广州芳禾数据有限公司 基于联邦学习和多方计算的文旅消费数据分析方法和装置
CN116415978B (zh) * 2023-04-15 2024-03-22 广州芳禾数据有限公司 基于联邦学习和多方计算的文旅消费数据分析方法和装置

Similar Documents

Publication Publication Date Title
CN111340453A (zh) 联邦学习开发方法、装置、设备及存储介质
US11902413B2 (en) Secure machine learning analytics using homomorphic encryption
CN109981641B (zh) 一种基于区块链技术的安全发布订阅系统及发布订阅方法
CN113159327B (zh) 基于联邦学习系统的模型训练方法、装置、电子设备
CN110428058B (zh) 联邦学习模型训练方法、装置、终端设备及存储介质
CN111898137A (zh) 一种联邦学习的隐私数据处理方法、设备及系统
CN114401079B (zh) 多方联合信息价值计算方法、相关设备及存储介质
CN110874648A (zh) 联邦模型的训练方法、系统和电子设备
CN113127916A (zh) 数据集合处理方法、数据处理方法、装置及存储介质
CN111340247A (zh) 纵向联邦学习系统优化方法、设备及可读存储介质
CN112347500A (zh) 分布式系统的机器学习方法、装置、系统、设备及存储介质
CN113505882A (zh) 基于联邦神经网络模型的数据处理方法、相关设备及介质
CN112001500A (zh) 基于纵向联邦学习系统的模型训练方法、设备及存储介质
CN112631550A (zh) 区块链随机数生成方法、装置、设备及计算机存储介质
CN114691167A (zh) 机器学习模型更新的方法和装置
CN113541946B (zh) 一种多方安全计算方法、装置及电子设备
WO2022213965A1 (zh) 用于控制带宽的多方联合数据处理方法及装置
CN112765642A (zh) 数据处理方法、数据处理装置、电子设备及介质
CN107196918B (zh) 一种匹配数据的方法和装置
Koch et al. KRAKEN: a privacy-preserving data market for authentic data
JP7422892B2 (ja) 分類の正確さを改善するための機械学習モデリングデータの処理
CN110990790A (zh) 一种数据处理方法及设备
CN114168295A (zh) 混合架构系统及基于历史任务效果的任务调度方法
CN114579857A (zh) 基于区块链的对象推荐方法、装置及系统
CN110874481A (zh) 一种基于gbdt模型的预测方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination