CN111222646B - 联邦学习机制的设计方法、装置和存储介质 - Google Patents
联邦学习机制的设计方法、装置和存储介质 Download PDFInfo
- Publication number
- CN111222646B CN111222646B CN201911264303.3A CN201911264303A CN111222646B CN 111222646 B CN111222646 B CN 111222646B CN 201911264303 A CN201911264303 A CN 201911264303A CN 111222646 B CN111222646 B CN 111222646B
- Authority
- CN
- China
- Prior art keywords
- data
- loss function
- participant
- training
- optimal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
Abstract
本发明公开了一种联邦学习机制的设计方法。该方法包括:配置预设计算图;获取可选优化目标;根据所述可选优化目标为所述预设计算图配置损失函数,获取配置有损失函数的计算图;获取数据有效性先验分布数据和参与者类型先验分布数据;根据所述数据有效性先验分布数据和所述参与者类型先验分布数据生成随机训练数据;根据所述随机训练数据训练所述配置有损失函数的计算图,得到最优的训练参数;根据所述最优的训练参数和所述预设计算图,获得联邦学习机制。本发明还公开了一种联邦学习机制的设计装置及计算机可读存储介质。本发明能够实现提高联邦学习机制计算的便捷性。
Description
技术领域
本发明涉及机制设计领域,尤其涉及一种联邦学习机制的设计方法、装 置和计算机可读存储介质。
背景技术
联邦学习(federated learning)又名联邦机器学习,是一个机器学习框架, 能有效帮助多个机构在满足用户隐私保护、数据安全和政府法规的要求下, 进行数据使用和机器学习建模。联邦学习允许多个数据提供者联合建模,能 够解决数据孤岛化的问题。目前,联邦学习需要设计一个激励机制,即确定 出一个最优的社会选择函数,用于在满足机制中关于激励相容、个体理性、 预算平衡、社会福利最大化和公平等各项要求的前提下,对不同的数据提供 者提供不同经济激励。
但是目前,现有技术中,联邦学习激励机制的设计过程,即最优的社会 选择函数的确定过程,还是依赖于资深机制设计专家的经验和直觉,这样不 仅会造成设计结果不够准确,还需要一定的人力脑力劳动,具有局限性。
发明内容
本发明的主要目的在于提供一种联邦学习机制的设计方法、装置和计算 机可读存储介质,旨在实现提高联邦学习机制计算的便捷性。
为实现上述目的,本发明提供一种联邦学习机制的设计方法,所述联邦 学习机制的设计方法包括以下步骤:
配置预设计算图;
获取可选优化目标;
根据所述可选优化目标为所述预设计算图配置损失函数,获取配置有损 失函数的计算图;
获取数据有效性先验分布数据和参与者类型先验分布数据;
根据所述数据有效性先验分布数据和所述参与者类型先验分布数据生成 随机训练数据;
根据所述随机训练数据训练所述配置有损失函数的计算图,得到最优的 训练参数;
根据所述最优的训练参数和所述预设计算图,获得联邦学习机制。
可选地,所述可选优化目标包括个体理性、预算平衡和公平中的一种或 者多种。
可选地,所述预设计算图包括代表基础VCG支付的节点、代表调整支付 的节点、代表FVCG支付的节点、代表数据有效性的节点、代表参与者类型 的节点、代表社会福利的节点、代表损失函数的节点、代表子损失函数的节 点、和代表可观测量的节点中的一种或者多种。
可选地,所述可选优化目标包括多个可选优化子目标数据,所述根据所 述可选优化目标为所述预设计算图配置损失函数,获取配置有损失函数的计 算图的步骤包括:
根据所述可选优化子目标数据配置子损失函数;
根据所述子损失函数配置计算图中的损失函数,得到配置有损失函数的 计算图。
可选地,所述配置预设计算图的步骤包括:
在预设计算图中配置神经网络,将神经网络的输出节点作为代表调整支 付的节点。
可选地,所述根据所述随机训练数据训练所述配置有损失函数的计算图, 得到最优的训练参数的步骤包括:
根据所述随机训练数据计算所述配置有损失函数的计算图中的基础VCG 支付结果;
根据所述随机训练数据计算所述配置有损失函数的计算图中的调整支付 结果;
根据所述基础VCG支付结果和所述调整支付结果,得到所述最优的训练 参数。
可选地,所述根据所述随机训练数据计算所述配置有损失函数的计算图 中的基础VCG支付结果的步骤包括:
根据所述随机训练数据,计算最优的每个参与者提供的数据的接受程度;
根据所述最优的每个参与者提供的数据的接受程度,计算包括所有参与 者的第一最优社会福利和不包括任一第一参与者的第二最优社会福利;
根据所述包括所有参与者的第一最优社会福利和不包括任一第一参与者 的第二最优社会福利和所述随机训练数据中的第一参与者提供数据的成本数 据,计算第一参与者的基础VCG支付。
可选地,所述根据所述最优的每个参与者提供的数据的接受程度,计算 包括所有参与者的第一最优社会福利和不包括任一第一参与者的第二最优社 会福利的步骤包括:
根据所述最优的每个参与者提供的数据的接受程度,利用预设的社会福 利函数计算包括所有参与者的第一最优社会福利和不包括任一第一参与者的 第二最优社会福利。
可选地,所述根据所述随机训练数据计算所述配置有损失函数的计算图 中的调整支付结果的步骤包括:
获取所述随机训练数据中的数据有效性和参与者类型两种数据信息;
对所述随机训练数据中的数据有效性和/或参与者类型两种数据信息利用 所述神经网络进行前向传播,计算所述配置有损失函数的计算图中的调整支 付结果。
可选地,所述根据所述基础VCG支付结果和所述调整支付结果,得到所 述最优的训练参数的步骤包括:
根据所述基础VCG支付结果和所述调整支付结果计算损失函数的样本值;
训练所述配置有损失函数的计算图,获取使得所述配置有损失函数的计 算图中的损失函数的样本值的加总值最小化的训练参数;
将所述使得损失函数的训练样本值的加总值最小化的训练参数作为最优 的训练参数。
可选地,所述训练所述配置有损失函数的计算图,获取使得所述配置有 损失函数的计算图中的损失函数的样本值的加总值最小化的训练参数的步骤 包括:
采用反向传播算法训练所述配置有损失函数的计算图,获取所述使得配 置有损失函数的计算图中的损失函数的样本值的加总值最小化的训练参数。
可选地,所述训练所述配置有损失函数的计算图,获取使得所述配置有 损失函数的计算图中的损失函数的样本值的加总值最小化的训练参数的步骤 包括:
采用无监督学习算法训练所述配置有损失函数的计算图,获取使得所述 配置有损失函数的计算图中的损失函数的样本值的加总值最小化的训练参数。
可选地,所述联邦学习机制的设计方法还包括以下步骤:
获取参与者的数据有效性和参与者类型两种数据信息;
根据所述数据有效性和/或参与者类型两种数据信息利用所述联邦学习机 制进行计算,确定所述数据有效性和/或参与者类型两种数据信息所对应的支 付结果。
此外,为实现上述目的,本发明还提供一种联邦学习机制的设计装置, 所述联邦学习机制的设计装置包括:存储器、处理器及存储在所述存储器上 并可在所述处理器上运行的联邦学习机制的设计程序,所述联邦学习机制的 设计程序被所述处理器执行时实现如上所述的联邦学习机制的设计方法的步 骤。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述 计算机可读存储介质上存储有联邦学习机制的设计程序,所述联邦学习机制 的设计程序被处理器执行时实现上述的联邦学习机制的设计方法的步骤。
本发明提供一种联邦学习机制的设计方法、装置和计算机存储介质。在 该方法中,配置预设计算图;获取可选优化目标;根据所述可选优化目标为 所述预设计算图配置损失函数,获取配置有损失函数的计算图;获取数据有 效性先验分布数据和参与者类型先验分布数据;根据所述数据有效性先验分 布数据和所述参与者类型先验分布数据生成随机训练数据;根据所述随机训 练数据训练所述配置有损失函数的计算图,得到最优的训练参数;根据所述 最优的训练参数和所述预设计算图,获得联邦学习机制。通过上述方式,本发明基于神经网络,将联邦学习激励机制设计转化成为一个神经网络优化问 题,可以使用神经网络训练方法来训练这个用于联邦学习激励机制设计的神 经网络,以得到最优的联邦学习激励机制,使得计算机领域从业者可以在不 需要具有较多经验的情况下能够设计个性化的联邦学习激励机制,简化联邦 学习激励机制设计的复杂度,同时保证了联邦学习机制中激励相容、个体理 性、预算平衡、社会福利最大化、公平等机制设计目标。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的装置结构示意图;
图2为本发明联邦学习机制的设计方法第一实施例的流程示意图;
图3为本发明联邦学习机制的设计方法第二实施例的流程示意图;
图4为本发明联邦学习机制的设计方法第三实施例的流程示意图;
图5为本发明联邦学习机制的设计方法第四实施例的流程示意图;
图6为本发明联邦学习机制的设计方法第五实施例的流程示意图;
图7为本发明联邦学习机制的设计方法第六实施例的流程示意图;
图8为本发明联邦学习机制的设计方法第七实施例的流程示意图;
图9为本发明联邦学习机制的设计方法第八实施例的流程示意图;
图10为本发明联邦学习机制的设计方法第一实施例预设计算图的节点模 块示意图;
图11为本发明联邦学习机制的设计方法第一实施例预设计算图的节点连 接关系示意图;
图12为本发明联邦学习机制的设计方法第一实施例计算效果示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步 说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限 定本发明。
如图1所示,图1是本发明实施例方案涉及的硬件运行环境的装置结构 示意图。
本发明实施例终端可以是PC,也可以是智能手机、平板电脑、便携计算 机等具有数据处理功能的终端设备。
如图1所示,该终端可以包括:处理器1001,例如CPU,网络接口1004, 用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实 现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输 入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接 口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如 WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器 (non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立 于前述处理器1001的存储装置。
可选地,终端还可以包括摄像头、RF(Radio Frequency,射频)电路, 传感器、音频电路、Wi-Fi模块等等。其中,传感器比如光传感器、运动传感 器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器, 其中,环境光传感器可根据环境光线的明暗来调节显示屏的亮度,接近传感 器可在移动终端移动到耳边时,关闭显示屏和/或背光。作为运动传感器的一 种,重力加速度传感器可检测各个方向上(一般为三轴)加速度的大小,静 止时可检测出重力的大小及方向,可用于识别移动终端姿态的应用(比如横 竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、 敲击)等;当然,移动终端还可配置陀螺仪、气压计、湿度计、温度计、红 外线传感器等其他传感器,在此不再赘述。
本领域技术人员可以理解,图1中示出的终端结构并不构成对终端的限 定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部 件布置。
如图1所示,作为一种计算机存储介质的存储器1005中可以包括操作系 统、网络通信模块、用户接口模块以及联邦学习机制的设计程序。
在图1所示的终端中,网络接口1004主要用于连接后台服务器,与后台 服务器进行数据通信;用户接口1003主要用于连接客户端(用户端),与客 户端进行数据通信;而处理器1001可以用于调用存储器1005中存储的联邦 学习机制的设计程序,并执行以下操作:
配置预设计算图;
获取可选优化目标;
根据所述可选优化目标为所述预设计算图配置损失函数,获取配置有损 失函数的计算图;
获取数据有效性先验分布数据和参与者类型先验分布数据;
根据所述数据有效性先验分布数据和所述参与者类型先验分布数据生成 随机训练数据;
根据所述随机训练数据训练所述配置有损失函数的计算图,得到最优的 训练参数;
根据所述最优的训练参数和所述预设计算图,获得联邦学习机制。
进一步地,处理器1001可以调用存储器1005中存储的联邦学习机制的 设计程序,还执行以下操作:
所述可选优化目标包括个体理性、预算平衡和公平中的一种或者多种。
进一步地,处理器1001可以调用存储器1005中存储的联邦学习机制的 设计程序,还执行以下操作:
所述预设计算图包括代表基础VCG支付的节点、代表调整支付的节点、 代表FVCG支付的节点、代表数据有效性的节点、代表参与者类型的节点、 代表社会福利的节点、代表损失函数的节点、代表子损失函数的节点、和代 表可观测量的节点中的一种或者多种。
进一步地,处理器1001可以调用存储器1005中存储的联邦学习机制的 设计程序,还执行以下操作:
所述可选优化目标包括多个可选优化子目标数据,所述根据所述可选优 化目标为所述预设计算图配置损失函数,获取配置有损失函数的计算图的步 骤包括:
根据所述可选优化子目标数据配置子损失函数;
根据所述子损失函数配置计算图中的损失函数,得到配置有损失函数的 计算图。
进一步地,处理器1001可以调用存储器1005中存储的联邦学习机制的 设计程序,还执行以下操作:
所述配置预设计算图的步骤包括:
在预设计算图中配置神经网络,将神经网络的输出节点作为代表调整支 付的节点。
进一步地,处理器1001可以调用存储器1005中存储的联邦学习机制的 设计程序,还执行以下操作:
所述根据所述随机训练数据训练所述配置有损失函数的计算图,得到最 优的训练参数的步骤包括:
根据所述随机训练数据计算所述配置有损失函数的计算图中的基础VCG 支付结果;
根据所述随机训练数据计算所述配置有损失函数的计算图中的调整支付 结果;
根据所述基础VCG支付结果和所述调整支付结果,得到所述最优的训练 参数。
进一步地,处理器1001可以调用存储器1005中存储的联邦学习机制的 设计程序,还执行以下操作:
所述根据所述随机训练数据计算所述配置有损失函数的计算图中的基础 VCG支付结果的步骤包括:
根据所述随机训练数据,计算最优的每个参与者提供的数据的接受程度;
根据所述最优的每个参与者提供的数据的接受程度,计算包括所有参与 者的第一最优社会福利和不包括任一第一参与者的第二最优社会福利;
根据所述包括所有参与者的第一最优社会福利和不包括任一第一参与者 的第二最优社会福利和所述随机训练数据中的第一参与者提供数据的成本数 据,计算第一参与者的基础VCG支付。
进一步地,处理器1001可以调用存储器1005中存储的联邦学习机制的 设计程序,还执行以下操作:
所述根据所述最优的每个参与者提供的数据的接受程度,计算包括所有 参与者的第一最优社会福利和不包括任一第一参与者的第二最优社会福利的 步骤包括:
根据所述最优的每个参与者提供的数据的接受程度,利用预设的社会福 利函数计算包括所有参与者的第一最优社会福利和不包括任一第一参与者的 第二最优社会福利。
进一步地,处理器1001可以调用存储器1005中存储的联邦学习机制的 设计程序,还执行以下操作:
所述根据所述随机训练数据计算所述配置有损失函数的计算图中的调整 支付结果的步骤包括:
获取所述随机训练数据中的数据有效性和参与者类型两种数据信息;
对所述随机训练数据中的数据有效性和/或参与者类型两种数据信息利用 所述神经网络进行前向传播,计算所述配置有损失函数的计算图中的调整支 付结果。
进一步地,处理器1001可以调用存储器1005中存储的联邦学习机制的 设计程序,还执行以下操作:
所述根据所述基础VCG支付结果和所述调整支付结果,得到所述最优的 训练参数的步骤包括:
根据所述基础VCG支付结果和所述调整支付结果计算损失函数的样本值;
训练所述配置有损失函数的计算图,获取使得所述配置有损失函数的计 算图中的损失函数的样本值的加总值最小化的训练参数;
将所述使得损失函数的训练样本值的加总值最小化的训练参数作为最优 的训练参数。
进一步地,处理器1001可以调用存储器1005中存储的联邦学习机制的 设计程序,还执行以下操作:
所述训练所述配置有损失函数的计算图,获取使得所述配置有损失函数 的计算图中的损失函数的样本值的加总值最小化的训练参数的步骤包括:
采用反向传播算法训练所述配置有损失函数的计算图,获取所述使得配 置有损失函数的计算图中的损失函数的样本值的加总值最小化的训练参数。
进一步地,处理器1001可以调用存储器1005中存储的联邦学习机制的 设计程序,还执行以下操作:
所述训练所述配置有损失函数的计算图,获取使得所述配置有损失函数 的计算图中的损失函数的样本值的加总值最小化的训练参数的步骤包括:
采用无监督学习算法训练所述配置有损失函数的计算图,获取使得所述 配置有损失函数的计算图中的损失函数的样本值的加总值最小化的训练参数。
进一步地,处理器1001可以调用存储器1005中存储的联邦学习机制的 设计程序,还执行以下操作:
所述联邦学习机制的设计方法还包括以下步骤:
获取参与者的数据有效性和参与者类型两种数据信息;
根据所述数据有效性和/或参与者类型两种数据信息利用所述联邦学习机 制进行计算,确定所述数据有效性和/或参与者类型两种数据信息所对应的支 付结果。
本发明联邦学习机制的设计设备的具体实施例与下述联邦学习机制的设 计方法各实施例基本相同,在此不作赘述。
参照图2,图2为本发明联邦学习机制的设计方法第一实施例的流程示意 图,所述联邦学习机制的设计方法包括:
步骤S100,配置预设计算图;
在本实施例中,先配置预设计算图。
具体地,本实施例中的预设计算图是指系统预置的一个计算模型,具体 见图10,预设计算图包括有代表基础VCG支付的节点、代表调整支付的节点、 代表FVCG支付的节点、代表数据有效性的节点、代表参与者类型的节点、 代表社会福利的节点、代表损失函数的节点、代表子损失函数的节点、代表 可观测量的节点中的一种或者多种。进一步地,参见图11,计算图的节点关 系示意图。节点τ(516)代表基础VCG支付;节点h(513)和节点g(514)代表调整支付;节点p(515)代表FVCG支付;节点q(512)代表数据有效 性;节点γ(511)代表参与者类型;节点S*(518)和S-1*(517)代表社会 福利;节点Loss1(533)、Loss2(531)、Loss3(532)、LOSS(540)代表损 失函数。在所述计算图中,节点h的第i个元素hi仅依赖于节点q除第i个元 素以外的其他元素q-i,以及节点γ除第i个元素以外的其他元素γ-i;节点g 的第i个元素gi仅依赖于节点q的第i个元素qi。例如,节点h的第1个元素 h1仅依赖于节点q除第1个元素以外的其他元素q-1,以及节点γ除第1个元 素以外的其他元素γ-1,这些计算关系在图中用连接线551-556示意性示出。 所述代表FVCG支付的节点被配置为代表基础VCG支付的节点和代表调整支 付的节点之和。例如,在图中,所述代表FVCG支付的节点p(515)被配置 为代表基础VCG支付的节点τ(516)和代表调整支付的节点节点h(513)和 节点g(514)之和。进一步地,在所述计算图中还加入代表所述第一最优社 会福利和第二最优社会福利的节点。例如,在所述计算图中加入代表所述第 一最优社会福利的节点S*(518)和代表第二最优社会福利的节点S-i*(517)。
所述预设计算图中包括一个或多个子神经网络,所述子神经网络的输入 节点是代表数据有效性的节点和代表参与者类型的节点,所述子神经网络的 输出节点是代表调整支付的节点。
所述子神经网络包括一个或多个所述预设计算图的节点,这些节点称为 神经元,神经元之间由特殊的计算关系相连接。例如,神经元Out和其依赖 的神经元In之间的计算关系可以是Out=σ(W*In+b),其中,将W称为权重,b 称为偏置,函数σ称为激活函数。例如,函数σ可以是sigmoid函数。关于神 经网络的配置有许多公开资料,在此不再赘述。
所述计算图中包括一个或多个子神经网络(520-523),分别代表节点h和 节点g的每个元素和其所依赖的其他节点的元素之间的计算关系。例如,所述 子神经网络520的输入节点是代表数据有效性的节点q中除第1个元素以外的 其他元素q-1,以及代表参与者类型的节点γ中除第1个元素以外的其他元素 γ-1,所述子神经网络的输出节点是代表调整支付的节点h的第1个元素h1。 应理解,在该实施例的计算图中,可以用子神经网络520替换连接线551-556 所代表的计算关系。
所述计算图还可以包括代表可观测量的节点,子神经网络的输入节点还 可以所述代表可观测量的节点。例如,可以在图中加入代表可观测量的节点, 所述子神经网络520的输入节点还可以所述代表该可观测量的节点。
步骤S200,获取可选优化目标;
在本实施例中,获取可选优化目标,具体地,可选优化目标可以包括个 体理性、预算平衡、以及公平中的一者或多者。对于联邦学习激励机制,个 体理性(individualrationality)是指,每个参与者参与联邦学习得到的净效用 不为负;预算平衡(budgetbalance)是指联邦收入不低于对所有参与者的支 付总和;公平(fairness)是指计划者定义的不公平函数达到最小。在本实施 例中,所述可选优化目标可以通过人机交互界面(例如,图形用户界面)确 定获得,也可以通过其他方式确定获得。进一步地,在本实施例中,对于每 个可选优化目标,需要指定该可选优化目标的具体形式。例如,如果选择公 平作为可选优化目标,则要求确定不公平函数的具体形式等。在本实施例中, 步骤100与步骤200之间没有先后顺序。
步骤S300,根据所述可选优化目标为所述预设计算图配置损失函数,获 取配置有损失函数的计算图;
在本实施例中,在获得可选优化目标后,可以根据所述可选优化目标对 所述预设计算图进行配置,获取配置有损失函数的计算图。
在本实施例中,根据所述可选优化目标为所述预设计算图配置损失函数, 获取配置有损失函数的计算图,可以通过可选优化目标中的可选优化子目标 如公平去对应地配置计算图中的子损失函数节点,然后,将所有子损失函数 节点配置完成,即完成了对预设计算图的配置过程,获得配置有损失函数的 计算图。当然,根据可选优化目标对预设计算图的配置过程,还可以通过其 他方式进行。
步骤S400,获取数据有效性先验分布数据和参与者类型先验分布数据;
数据有效性先验分布数据和参与者类型先验分布数据为预设知道的,通 过联邦学习中的参加者获得。即参与者类型是指参与者提供数据的成本函数 所依赖的一个或一组变量。参与者类型是参与者的私有信息,计划者事前并 不知道,仅知道参与者类型的先验分布为Δ(γ)。参与者i(i∈N)的类型记为γi,所 有参与者的类型记为γ。当数据提供者i提供且被接受的数据质量参数qiηi一定 时(ηi代表对参与者i提供的数据的接受程度),γi越高表示其提供数据的成本 越高。
步骤S500,根据所述数据有效性先验分布数据和所述参与者类型先验分 布数据生成随机训练数据;
在获取数据有效性先验分布数据和参与者类型先验分布数据后,根据数 据有效性和参与者类型的先验分布随机生成训练数据。例如,对于数据有效 性q代表的随机变量,可以根据q的先验分布Δ(q)来随机产生节点q对应的训练 数据;对于参与者类型γ可以根据γ的先验分布Δ(γ)来随机产生节点γ对应的训 练数据。所述随机产生训练数据可以通过任意程序设计语言内置的随机数生 成器实现。明确起见,记本步骤产生的训练数据总数为T,其中第t条数据用 右上标t表示,例如,关于数据有效性q的第t条数据记为qt,根据第t条数 据计算的损失函数LOSS的值记为LOSSt。在本实施例中,步骤300与步骤500 之间没有先后顺序。
步骤S600,根据所述随机训练数据训练所述配置有损失函数的计算图, 得到最优的训练参数;
在获取随机训练数据后,根据所述随机训练数据训练所述配置有损失函 数的计算图,得到最优的训练参数。具体地,即为使用所述训练数据最优化 所述计算图中的参数,以使得所述损失函数关于训练数据最小化。而最小化 时的计算图中的参数为最优的训练参数。
步骤S700,根据所述最优的训练参数和所述预设计算图,获得联邦学习 机制。
在获取最优的训练参数和预设计算图,通过构建,即获得设计好的联邦 学习机制。具体而言,先将预设计算图中的训练参数设置为所述最优的训练 参数。对于任何给定的数据有效性和/或参与者类型的具体值,分别将其传给 图11的预设计算图中的节点q(512)和节点γ(511)。另外,可以计算与之 对应的基础VCG支付,并将其传给所述预设计算图中的节点τ(516)。在对 预设计算图执行前向传播算法,计算得到节点p(515)的值。节点p(515) 的值即为对各个参与者的支付结果。这种通过数据有效性和/或参与者类型的 具体值计算对各个参与者的支付结果的映射函数即为联邦学习机制。
本发明方法中的联邦学习机制具有较准确的计算效果,见图12,根据参 与者类型和数据有效性数据,可以通过联邦学习机制计算出对参与者的支付 结果。图12中绘出了与所有可能的参与者类型和数据有效性数据对应的对参 与者的支付结果,故而,图12也是联邦学习机制的一种数值表示形式。
本发明提供一种联邦学习机制的设计方法、装置和计算机存储介质。在 该方法中,配置预设计算图;获取可选优化目标;根据所述可选优化目标为 所述预设计算图配置损失函数,获取配置有损失函数的计算图;获取数据有 效性先验分布数据和参与者类型先验分布数据;根据所述数据有效性先验分 布数据和所述参与者类型先验分布数据生成随机训练数据;根据所述随机训 练数据训练所述配置有损失函数的计算图,得到最优的训练参数;根据所述 最优的训练参数和所述预设计算图,获得联邦学习机制。通过上述方式,本发明基于神经网络,将联邦学习激励机制设计转化成为一个神经网络优化问 题,可以使用神经网络训练方法来训练这个用于联邦学习激励机制设计的神 经网络,以得到最优的联邦学习激励机制,使得计算机领域从业者可以在不 需要具有较多经验的情况下能够设计个性化的联邦学习激励机制,简化联邦 学习激励机制设计的复杂度,同时保证了联邦学习机制中激励相容、个体理 性、预算平衡、社会福利最大化、公平等机制设计目标。
请参阅图3,图3为本发明联邦学习机制的设计方法第二实施例的流程示 意图。
基于上述实施例,本实施例中,步骤S300包括:
步骤S310,根据所述可选优化子目标数据配置子损失函数;
在本实施例中,所述可选优化目标包括多个可选优化子目标数据,如个体 理性、预算平衡、以及公平。根据可选优化目标对预设计算图进行配置,即 根据可选优化目标配置所述计算图中代表损失函数的节点,可以通过根据每 一项可选优化目标配置代表子损失函数的节点,例如,根据可选优化目标个 体理性,可以按如下公式配置计算图中代表子损失函数的节点Loss2(531)中 的子损失函数,以获得该节点与计算图中其他节点的计算关系:
其中,hi代表节点h的第i个元素,gi代表节点g的第i个元素。
例如,根据可选优化目标预算平衡,可以按如下公式配置计算代表子损 失函数的节点Loss3(532)中的子损失函数,以获得该节点与计算图中其他节 点的计算关系:
例如,根据可选优化目标公平,可以按如下公式配置计算代表子损失函 数的节点Loss1(533)中的子损失函数,以获得该节点与计算图中其他节点的 计算关系:
Loss1=ω(p,(q,γ))
其中,ω是计划者定义的不公平函数,p是计算图中代表FVCG支付的节点。
这样,每一个可选优化子目标数据都可以配置为一个子损失函数,根据 子损失函数可以配置计算图中的对应的子损失函数节点。
步骤S320,根据所述子损失函数配置计算图中的损失函数,得到配置有 损失函数的计算图。
在配置计算图中的对应的子损失函数节点之后,可以根据对应于所有可 选优化目标(即个体理性、预算平衡、公平)的子损失函数对应的节点Loss1 (533)、Loss2(531)、Loss3(532)配置所述代表损失函数的节点LOSS(540) 中的损失函数,以获得该节点的计算关系:
这样,每个子损失函数通过一定的计算关系可以得到损失函数,就可以 得到配置有损失函数的计算图。
请参阅图4,图4为本发明联邦学习机制的设计方法第三实施例的流程示 意图。
基于上述实施例,本实施例中,步骤S100包括:
步骤S110,在预设计算图中配置神经网络,将神经网络的输出节点作为 代表调整支付的节点。
在本实施例中,所述计算图中包括一个或多个子神经网络,所述子神经 网络的输入节点是代表数据有效性的节点和代表参与者类型的节点,所述子 神经网络的输出节点是代表调整支付的节点。所述子神经网络包括一个或多 个所述计算图的节点,这些节点称为神经元,神经元之间由特殊的计算关系 相连接。例如,神经元Out和其依赖的神经元In之间的计算关系可以是Out=σ(W ×In+b),其中,将W称为权重,b称为偏置,函数称为激活函数。例如,函数 可以是sigmoid函数。
请参阅图5,图5为本发明联邦学习机制的设计方法第四实施例的流程示 意图。
基于上述实施例,本实施例中,步骤S600包括:
步骤S610,根据所述随机训练数据计算所述配置有损失函数的计算图中 的基础VCG支付结果;
在本实施例中,所述随机训练数据包括数据有效性q和参与者类型γ,根 据数据有效性q和参与者类型γ可以计算基础VCG支付τ。计算基础VCG支付 τ可以先计算最优的每个参与者提供的数据的接受程度,再根据所述最优的每 个参与者提供的数据的接受程度,计算包括所有参与者的第一最优社会福利 和不包括任一第一参与者的第二最优社会福利,最后,根据所述包括所有参 与者的第一最优社会福利和不包括任一第一参与者的第二最优社会福利和所 述随机训练数据中的第一参与者提供数据的成本数据,计算第一参与者的基 础VCG支付。
步骤S620,根据所述随机训练数据计算所述配置有损失函数的计算图中 的调整支付结果;
计算基础VCG支付后,还可以根据所述随机训练数据利用预设计算图中 的神经网络,训练得到所述配置有损失函数的计算图中的调整支付结果。所 述随机训练数据包括数据有效性q和参与者类型γ。根据数据有效性q和参与者 类型γ,前向传播预设计算图中的神经网络520~523,即可以计算得到计算图 中的调整支付结果。
步骤S630,根据所述基础VCG支付结果和所述调整支付结果,得到所 述最优的训练参数。
在获得基础VCG支付结果和所述调整支付结果后,在通过计算图,得到 最优的训练参数。即使得所述损失函数关于训练数据的样本值的加总值最小 化。
请参阅图6,图6为本发明联邦学习机制的设计方法第五实施例的流程示 意图。
基于上述实施例,本实施例中,步骤S610包括:
步骤S611,根据所述随机训练数据,计算最优的每个参与者提供的数据 的接受程度;
在本实施例中,先根据随机训练数据计算最优的每个参与者提供的数据 的接受程度,具体地,通过参与者提供的数据的有效性q和参与者报告的类型 γ计算其所对应的基础VCG支付τ的方法。
可以证明,在FVCG中,如果参与者是理性的,那么参与者提供的数据 的有效性q应等于参与者实际拥有的数据的有效性,参与者报告的类型γ应等 于参与者真实的类型,
对于参数q和γ,可以按照以下公式计算最优的对每个参与者提供的数据 的接受程度η*:
步骤S612,根据所述最优的每个参与者提供的数据的接受程度,计算包 括所有参与者的第一最优社会福利和不包括任一第一参与者的第二最优社会 福利;
在获得最优的每个参与者提供的数据的接受程度后,根据所述最优的每 个参与者提供的数据的接受程度,计算包括所有参与者的第一最优社会福利 和不包括任一第一参与者的第二最优社会福利,具体地,利用以下公式计算 包括所有参与者的第一最优社会福利,以及计算不包括某个第一参与者的第 二最优社会福利。
例如,对于参数q和γ,可以按照如下公式计算包括所有参与者的第一 最优社会福利S*(q,η):
根据不同的对于联邦收入函数和成本函数的设定,η*和S*(q,γ)的计算方法也不同。例如,将联邦收入函数及将 成本函数设置为ci(qiηi,γi)=γiqiηi,可以通过如下算法计算η*和S*。其中该算法 的输入是数据有效性参数和参与者类型。
进一步地,在本实施例中,利用如下公式计算不包括某个第一参与者的 第二最优社会福利S-i*(q-i,γ-i),其中q-i和γ-i分别是不包括某个第一参与者i 的其他参与者的真实数据有效性参数和真实类型参数。在该实施例中,为了 计算S-i*(q-i,γ-i),只需要将q-i和γ-i作为算法的输入,此时该算法的输出即包 括S-i*(q-i,γ-i)。对于n个参与者中的每个参与者,都可以计算相应的第二最 优社会福利S-i*(q-i,γ-i),i=1,...,n,这n个第二最优社会福利构成的向量记为 S-*(q,γ)=(S-1*(q-1,γ-1),…,S-n*(q-n,γ-n))。
进一步地,步骤S612可以包括如下步骤:
步骤S010,根据所述最优的每个参与者提供的数据的接受程度,计算包 括所有参与者的第一最优社会福利和不包括任一第一参与者的第二最优社会 福利。
所述计算基础VCG支付包括根据设定的社会福利函数计算所述第一最优 社会福利和第二最优社会福利。
在上面的实施例中,社会福利函数被设定为:
此种社会福利函数的设定也称为社会剩余,是联邦作为一个整体的收入 减去联邦作为一个整体的成本产生的剩余。在其他实施例中,社会福利函数此时社会福利最大化被具体化为联邦收入最大化。以根据设 定的社会福利函数计算所述第一最优社会福利S*(q,γ)和第二最 优社会福利S-i*(q-i,γ-i),i=1,…,n。
这样,就获得包括所有参与者的第一最优社会福利和不包括任一第一参 与者的第二最优社会福利。
步骤S613,根据所述包括所有参与者的第一最优社会福利和不包括任一 第一参与者的第二最优社会福利和所述随机训练数据中的第一参与者提供数 据的成本数据,计算第一参与者的基础VCG支付。
在获得包括所有参与者的第一最优社会福利和不包括任一第一参与者的 第二最优社会福利后,就可以根据第一最优社会福利、第二最优社会福利、 以及所述第一参与者提供数据的成本计算对所述第一参与者的基础VCG支付。
根据第一最优社会福利S*(q,γ)、第二最优社会福利S-i*(q-i,γ-i)、以及所 述第一参与者提供数据的成本根据如下公式计算对所述第一参与者 的基础VCG支付τi,最后,就得到基 础VCG支付结果。
请参阅图7,图7为本发明联邦学习机制的设计方法第六实施例的流程示 意图。
基于上述实施例,本实施例中,步骤S620包括:
步骤S621,获取所述随机训练数据中的数据有效性和参与者类型两种数 据信息;
在本实施例中,根据所述随机训练数据利用预设计算图中的神经网络, 训练得到所述配置有损失函数的计算图中的调整支付结果,可以先获取所述 随机训练数据中的数据有效性和参与者类型两种数据信息。数据有效性和参 与者类型为计算图的输入数据。
步骤S622,对所述随机训练数据中的数据有效性和/或参与者类型两种数 据信息利用所述神经网络进行前向传播,计算所述配置有损失函数的计算图 中的调整支付结果。
在获得数据有效性和参与者类型两种数据信息后,对所述随机训练数据 中的数据有效性和/或参与者类型两种数据信息利用所述神经网络进行前向传 播,计算所述配置有损失函数的计算图中的调整支付结果。计算图中的子神 经网络,所述子神经网络以代表数据有效性的节点和代表参与者类型的节点 为输入节点、并以代表调整支付的节点为输出节点;以及根据所述子神经网 络、参与者实际提供的数据有效性、参与者实际报告的类型计算调整支付。
请参阅图8,图8为本发明联邦学习机制的设计方法第七实施例的流程示 意图。
基于上述实施例,本实施例中,步骤S630包括:
步骤S631,根据所述基础VCG支付结果和所述调整支付结果计算损失 函数的样本值;
在本实施例中,根据所述基础VCG支付结果和所述调整支付结果计算损 失函数的样本值;所述损失函数关于训练数据最小化是指使得通过每一条训 练数据计算出的损失函数的样本值的某种加总最小化,例如,可以按平均值 加总损失函数的样本值,即
当然,还可以通过其他方式加总根据随机产生的训练数据计算的所述损 失函数的样本值,例如,可以计算根据随机产生的样本计算的所述损失函数 的所有的样本值中的最大者,并不断更新可训练参数的值以最小化所述损失 函数的所有的样本值中的最大者。
步骤S632,训练所述配置有损失函数的计算图,获取使得所述配置有损 失函数的计算图中的损失函数的样本值的加总值最小化的训练参数;
本实施例中,记所有可训练参数的集合为PAR,在一个实施例中,可以 采用梯度下降法(gradient descent)最优化所述计算图中的参数。梯度下降法的 每一步通过下述公式更新参数的值:
其中,α是一个系统设定的超参数,称为学习率,例如可以取为0.01或 0.001。
进一步地,步骤S632可以包括如下步骤:
步骤S020,采用反向传播算法训练所述配置有损失函数的计算图,获取 所述使得配置有损失函数的计算图中的损失函数的样本值的加总值最小化的 训练参数。
使用所述训练数据最优化所述计算图中的参数还包括使用反向传播算法 计算所述损失函数关于所述参数的梯度。例如,可以通过反向传播 (backpropagation)算法计算。反向传播算法在大部分关于深度学习的参考书 中都有详细描述,在此不再赘述。
进一步地,步骤S632可以包括如下步骤:
步骤S030,采用无监督学习算法训练所述配置有损失函数的计算图,获 取使得所述配置有损失函数的计算图中的损失函数的样本值的加总值最小化 的训练参数。
使用所述训练数据最优化所述计算图中的参数还包括使用无监督学习算 法最优化所述计算图中的参数。例如,由于训练样本是随机产生的,不涉及 任何人工标注过程,故而该算法是使用无监督学习算法最优化所述计算图中 的参数。
除了梯度下降法外,还可以通过其他任何的神经网络训练算法最优化所 述计算图中的参数。该等神经网络训练算法例如可以包括Adam算法、随机 梯度下降法(stochastic gradient descent)、动量梯度下降法(momentum gradient descent)、小批量梯度下降法(mini-batch gradient descent)等。该等神经网络训 练算法在关于神经网络的公开材料中都有详细描述,在此不在赘述。
步骤S633,将所述使得损失函数的训练样本值的加总值最小化的训练参 数作为最优的训练参数。
在获得损失函数最小化的训练参数后,将损失函数的样本值的加总值AverageLoss最小化的训练参数定义为最优的训练参数,即我们需要的最优的 训练参数。
请参阅图9,图9为本发明联邦学习机制的设计方法第八实施例的流程示 意图。
基于上述实施例,本实施例中,还包括如下步骤:
步骤S800,获取参与者的数据有效性和参与者类型两种数据信息;
在本实施例中,在获得联邦学习机制后,还可以通过联邦学习机制自动 计算对于不同参与者的支付。为此,需要先获得需要计算的参与者的数据有 效性和参与者类型两种数据信息。
步骤S900,根据所述数据有效性和/或参与者类型两种数据信息利用所述 联邦学习机制进行计算,确定所述数据有效性和/或参与者类型两种数据信息 所对应的支付结果。
在获得参与者的数据有效性和参与者类型两种数据信息后,可以根据所 述计算图、最优化的所述计算图中的参数、参与者实际提供的数据有效性、 和参与者实际报告的类型计算对参与者的FVCG支付。即通过设计训练好的 联邦学习机制进行计算。具体地,根据计算图中的参数、参与者参与者实际 提供的数据有效性的值、和参与者实际报告的类型γ的值计算对参与者的 FVCG支付。将q的值和γ的值分别赋给所述神经网络的输入节点q(512)和γ (551),前向传播得到节点p(515)的值,该节点p的值即为对参与者的FVCG 支付。即所述计算对参与者的FVCG支付包括:取出所述计算图中的子神经 网络,所述子神经网络以代表数据有效性的节点和/或代表参与者类型的节点 为输入节点、并以代表调整支付的节点为输出节点;以及根据所述子神经网 络、参与者实际提供的数据有效性、参与者实际报告的类型计算调整支付。
例如,取出所述计算图11中的子神经网络所述子神经网络以代表 数据有效性的节点q和代表参与者类型的节点γ为输入节点、并以代表调整支 付的节点为输出节点h的子神经网络;以及根据所述子神经网络参与者 实际提供的数据有效性q的值、参与者实际报告的类型γ的值计算调整支付h1的 值。以及,取出所述计算图中的子神经网络所述子神经网络以代表数 据有效性的节点q为输入节点、并以代表调整支付的节点g为输出节点的子神 经网络;以及根据所述子神经网络参与者实际提供的数据有效性q的值 计算调整支付g1的值。
当然,所述计算对参与者的FVCG支付还包括:根据计算的基础VCG支 付和计算的调整支付计算对参与者的FVCG支付。例如,根据S101计算的基 础VCG支付τ1和上述计算的调整VCG支付h1的值和g1的值计算对参与者的 FVCG支付p1的值。例如,可以按如下公式计算p1的值:
p1=τ1+h1+g1。
最后,根据所述数据有效性和/或参与者类型两种数据信息利用所述联邦 学习机制进行计算,确定所述数据有效性和/或参与者类型两种数据信息所对 应的支付结果。具体而言,先将预设计算图中的训练参数设置为所述最优的 训练参数。对于任何给定的数据有效性和/或参与者类型的具体值,分别将其 传给预设计算图中代表数据有效性的节点和代表参与者类型的节点。另外, 可以计算与之对应的基础VCG支付,并将其传给所述预设计算图中代表基础 VCG支付的节点。再对预设计算图执行前向传播算法,计算得到代表FVCG支付的节点的值,将其作为对各个参与者的支付结果。这种通过数据有效性 和/或参与者类型的具体值计算对各个参与者的支付结果的映射函数即为联邦 学习机制。
此外,本发明实施例还提出一种计算机可读存储介质。
本发明计算机可读存储介质上存储有联邦学习机制的设计程序,所述联 邦学习机制的设计程序被处理器执行时实现如上所述的联邦学习机制的设计 方法的步骤。
其中,在所述处理器上运行的联邦学习机制的设计程序被执行时所实现 的方法可参照本发明联邦学习机制的设计方法各个实施例,此处不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在 涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系 统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括 为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下, 由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物 品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述 实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通 过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的 技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体 现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、 磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机, 服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是 利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间 接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (15)
1.一种联邦学习机制的设计方法,其特征在于,所述联邦学习机制的设计方法包括以下步骤:
配置预设计算图;
获取可选优化目标;
根据所述可选优化目标为所述预设计算图配置损失函数,获取配置有损失函数的计算图;
获取数据有效性先验分布数据和参与者类型先验分布数据;
根据所述数据有效性先验分布数据和所述参与者类型先验分布数据生成随机训练数据;
根据所述随机训练数据训练所述配置有损失函数的计算图,得到最优的训练参数,其中,根据所述随机训练数据,计算最优的每个参与者提供的数据的接受程度,所述随机训练数据包括数据有效性和参与者类型,所述计算最优的每个参与者提供的数据的接受程度的公式为,其中,为被接受的数据的联邦收入,为参与者i被接受的数据对参与者i造成的成本,根据所述最优的每个参与者提供的数据的接受程度,计算包括所有参与者的第一最优社会福利和不包括任一第一参与者的第二最优社会福利,根据所述所有参与者的第一最优社会福利和不包括任一第一参与者的第二最优社会福利以及所述配置有损失函数的计算图,得到最优的训练参数;
根据所述最优的训练参数和所述预设计算图,获得联邦学习机制。
2.如权利要求1所述的联邦学习机制的设计方法,其特征在于,所述可选优化目标包括个体理性、预算平衡和公平中的一种或者多种。
3.如权利要求1所述的联邦学习机制的设计方法,其特征在于,所述预设计算图包括代表基础VCG支付的节点、代表调整支付的节点、代表FVCG支付的节点、代表数据有效性的节点、代表参与者类型的节点、代表社会福利的节点、代表损失函数的节点、代表子损失函数的节点和代表可观测量的节点中的一种或者多种。
4.如权利要求1所述的联邦学习机制的设计方法,其特征在于,所述可选优化目标包括多个可选优化子目标数据,所述根据所述可选优化目标为所述预设计算图配置损失函数,获取配置有损失函数的计算图的步骤包括:
根据所述可选优化子目标数据配置子损失函数;
根据所述子损失函数配置计算图中的损失函数,得到配置有损失函数的计算图。
5.如权利要求3所述的联邦学习机制的设计方法,其特征在于,所述配置预设计算图的步骤包括:
在预设计算图中配置神经网络,将神经网络的输出节点作为代表调整支付的节点。
6.如权利要求3所述的联邦学习机制的设计方法,其特征在于,所述根据所述随机训练数据训练所述配置有损失函数的计算图,得到最优的训练参数的步骤包括:
根据所述随机训练数据计算所述配置有损失函数的计算图中的基础VCG支付结果;
根据所述随机训练数据计算所述配置有损失函数的计算图中的调整支付结果;
根据所述基础VCG支付结果和所述调整支付结果,得到所述最优的训练参数。
7.如权利要求6所述的联邦学习机制的设计方法,其特征在于,所述根据所述随机训练数据计算所述配置有损失函数的计算图中的基础VCG支付结果的步骤包括:
根据所述随机训练数据,计算最优的每个参与者提供的数据的接受程度;
根据所述最优的每个参与者提供的数据的接受程度,计算包括所有参与者的第一最优社会福利和不包括任一第一参与者的第二最优社会福利;
根据所述包括所有参与者的第一最优社会福利和不包括任一第一参与者的第二最优社会福利和所述随机训练数据中的第一参与者提供数据的成本数据,计算第一参与者的基础VCG支付。
8.如权利要求7所述的联邦学习机制的设计方法,其特征在于,所述根据所述最优的每个参与者提供的数据的接受程度,计算包括所有参与者的第一最优社会福利和不包括任一第一参与者的第二最优社会福利的步骤包括:
根据所述最优的每个参与者提供的数据的接受程度,利用预设的社会福利函数计算包括所有参与者的第一最优社会福利和不包括任一第一参与者的第二最优社会福利。
9.如权利要求6所述的联邦学习机制的设计方法,其特征在于,所述根据所述随机训练数据计算所述配置有损失函数的计算图中的调整支付结果的步骤包括:
获取所述随机训练数据中的数据有效性和参与者类型两种数据信息;
对所述随机训练数据中的数据有效性和/或参与者类型两种数据信息利用神经网络进行前向传播,计算所述配置有损失函数的计算图中的调整支付结果。
10.如权利要求6所述的联邦学习机制的设计方法,其特征在于,所述根据所述基础VCG支付结果和所述调整支付结果,得到所述最优的训练参数的步骤包括:
根据所述基础VCG支付结果和所述调整支付结果计算损失函数的样本值;
训练所述配置有损失函数的计算图,获取使得所述配置有损失函数的计算图中的损失函数的样本值的加总值最小化的训练参数;
将所述使得损失函数的训练样本值的加总值最小化的训练参数作为最优的训练参数。
11.如权利要求10所述的联邦学习机制的设计方法,其特征在于,所述训练所述配置有损失函数的计算图,获取使得所述配置有损失函数的计算图中的损失函数的样本值的加总值最小化的训练参数的步骤包括:
采用反向传播算法训练所述配置有损失函数的计算图,获取所述使得配置有损失函数的计算图中的损失函数的样本值的加总值最小化的训练参数。
12.如权利要求10所述的联邦学习机制的设计方法,其特征在于,所述训练所述配置有损失函数的计算图,获取使得所述配置有损失函数的计算图中的损失函数的样本值的加总值最小化的训练参数的步骤包括:
采用无监督学习算法训练所述配置有损失函数的计算图,获取使得所述配置有损失函数的计算图中的损失函数的样本值的加总值最小化的训练参数。
13.如权利要求1所述的联邦学习机制的设计方法,其特征在于,所述联邦学习机制的设计方法还包括以下步骤:
获取参与者的数据有效性和参与者类型两种数据信息;
根据所述数据有效性和/或参与者类型两种数据信息利用所述联邦学习机制进行计算,确定所述数据有效性和/或参与者类型两种数据信息所对应的支付结果。
14.一种联邦学习机制的设计装置,其特征在于,所述联邦学习机制的设计装置包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的联邦学习机制的设计程序,所述联邦学习机制的设计程序被所述处理器执行时实现如权利要求1至13中任一项所述联邦学习机制的设计方法的步骤。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有联邦学习机制的设计程序,所述联邦学习机制的设计程序被处理器执行时实现如权利要求1至13中任一项所述联邦学习机制的设计方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911264303.3A CN111222646B (zh) | 2019-12-11 | 2019-12-11 | 联邦学习机制的设计方法、装置和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911264303.3A CN111222646B (zh) | 2019-12-11 | 2019-12-11 | 联邦学习机制的设计方法、装置和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111222646A CN111222646A (zh) | 2020-06-02 |
CN111222646B true CN111222646B (zh) | 2021-07-30 |
Family
ID=70811116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911264303.3A Active CN111222646B (zh) | 2019-12-11 | 2019-12-11 | 联邦学习机制的设计方法、装置和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111222646B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111681298A (zh) * | 2020-06-08 | 2020-09-18 | 南开大学 | 一种基于多特征残差网络的压缩感知图像重建方法 |
CN111695701B (zh) * | 2020-06-12 | 2021-08-13 | 上海富数科技有限公司 | 基于联邦学习实现数据集构建处理的系统及其构建生成方法 |
CN111898764A (zh) * | 2020-06-23 | 2020-11-06 | 华为技术有限公司 | 联邦学习的方法、装置和芯片 |
CN111754000B (zh) * | 2020-06-24 | 2022-10-14 | 清华大学 | 质量感知的边缘智能联邦学习方法及系统 |
CN112329947A (zh) * | 2020-10-28 | 2021-02-05 | 广州中国科学院软件应用技术研究所 | 一种基于差分进化的联邦学习激励方法和系统 |
CN113160021B (zh) * | 2021-03-18 | 2022-04-12 | 天津中科物联科技有限公司 | 一种基于多源异构数据联邦学习的安全生产预警系统 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104537393B (zh) * | 2015-01-04 | 2018-01-16 | 大连理工大学 | 一种基于多分辨率卷积神经网络的交通标志识别方法 |
US10270599B2 (en) * | 2017-04-27 | 2019-04-23 | Factom, Inc. | Data reproducibility using blockchains |
CN107369154B (zh) * | 2017-07-19 | 2020-05-05 | 电子科技大学 | 图像的检测装置 |
CN109325395A (zh) * | 2018-04-28 | 2019-02-12 | 二十世纪空间技术应用股份有限公司 | 图像的识别方法、卷积神经网络模型的训练方法及装置 |
CN109165725B (zh) * | 2018-08-10 | 2022-03-29 | 深圳前海微众银行股份有限公司 | 基于迁移学习的神经网络联邦建模方法、设备及存储介质 |
CN109410917B (zh) * | 2018-09-26 | 2021-11-16 | 河海大学常州校区 | 基于改进型胶囊网络的语音数据分类方法 |
CN109167695B (zh) * | 2018-10-26 | 2021-12-28 | 深圳前海微众银行股份有限公司 | 基于联邦学习的联盟网络构建方法、设备及可读存储介质 |
CN109711529B (zh) * | 2018-11-13 | 2022-11-08 | 中山大学 | 一种基于值迭代网络的跨领域联邦学习模型及方法 |
CN109543744B (zh) * | 2018-11-19 | 2022-10-14 | 南京邮电大学 | 一种基于龙芯派的多类别深度学习图像识别方法及其应用 |
CN109492420B (zh) * | 2018-12-28 | 2021-07-20 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数训练方法、终端、系统及介质 |
CN109948918B (zh) * | 2019-03-08 | 2021-04-20 | 北京交通大学 | 属地应急众储物资的综合分配方法 |
CN110263936B (zh) * | 2019-06-14 | 2023-04-07 | 深圳前海微众银行股份有限公司 | 横向联邦学习方法、装置、设备及计算机存储介质 |
CN110443063B (zh) * | 2019-06-26 | 2023-03-28 | 电子科技大学 | 自适性保护隐私的联邦深度学习的方法 |
CN110363305B (zh) * | 2019-07-17 | 2023-09-26 | 深圳前海微众银行股份有限公司 | 联邦学习方法、系统、终端设备及存储介质 |
CN110399742B (zh) * | 2019-07-29 | 2020-12-18 | 深圳前海微众银行股份有限公司 | 一种联邦迁移学习模型的训练、预测方法及装置 |
CN110490738A (zh) * | 2019-08-06 | 2019-11-22 | 深圳前海微众银行股份有限公司 | 一种混合联邦学习方法及架构 |
CN110490335A (zh) * | 2019-08-07 | 2019-11-22 | 深圳前海微众银行股份有限公司 | 一种计算参与者贡献率的方法及装置 |
KR20190103088A (ko) * | 2019-08-15 | 2019-09-04 | 엘지전자 주식회사 | 연합학습을 통한 단말의 명함을 인식하는 방법 및 이를 위한 장치 |
-
2019
- 2019-12-11 CN CN201911264303.3A patent/CN111222646B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111222646A (zh) | 2020-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111222646B (zh) | 联邦学习机制的设计方法、装置和存储介质 | |
CN109902222B (zh) | 一种推荐方法及装置 | |
CN109767301B (zh) | 推荐方法及系统、计算机装置、计算机可读存储介质 | |
EP3819827A1 (en) | Machine learning device and method | |
CN105897616B (zh) | 一种资源分配的方法及服务器 | |
CN110232471A (zh) | 一种降水传感网节点布局优化方法及装置 | |
CN109359762A (zh) | 风险预测模型生成方法、风险预测方法、装置及服务器 | |
CN116249991A (zh) | 一种神经网络蒸馏方法以及装置 | |
Killiches et al. | A D-vine copula-based model for repeated measurements extending linear mixed models with homogeneous correlation structure | |
Londhe et al. | Modelling stage–discharge relationship using data-driven techniques | |
KR20240016176A (ko) | 온라인 광고 컨텐트 플랫폼을 제공하기 위한 시스템 | |
CN116578875A (zh) | 基于多行为的点击预测模型训练方法及装置 | |
CN115238909A (zh) | 一种基于联邦学习的数据价值评估方法及其相关设备 | |
Dutta et al. | An improved grey wolf optimization algorithm for liquid flow control system | |
CN113723995A (zh) | 一种确定营销任务的方法和装置 | |
CN116910373A (zh) | 房源推荐方法、装置、电子设备及存储介质 | |
CN116843022A (zh) | 一种数据处理方法及相关装置 | |
Braik et al. | Enhanced whale optimization algorithm-based modeling and simulation analysis for industrial system parameter identification | |
KR102485874B1 (ko) | 전문가 시스템을 이용한 ar 서비스 시스템 및 이를 이용한 서비스 방법 | |
CN112950218A (zh) | 一种业务风险评估方法、装置、计算机设备和存储介质 | |
CN112465117A (zh) | 合约生成模型构建方法、装置、设备及存储介质 | |
CN111241582B (zh) | 数据隐私保护方法、装置及计算机可读存储介质 | |
CN110168601A (zh) | 通过分析校正模式的影像校正方法及系统 | |
JP6982672B1 (ja) | プログラム、方法、情報処理装置及びシステム | |
CN111127106B (zh) | 一种广告投放控制方法及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |