CN113112026A - 一种联邦学习模型优化方法及装置 - Google Patents

一种联邦学习模型优化方法及装置 Download PDF

Info

Publication number
CN113112026A
CN113112026A CN202110362763.0A CN202110362763A CN113112026A CN 113112026 A CN113112026 A CN 113112026A CN 202110362763 A CN202110362763 A CN 202110362763A CN 113112026 A CN113112026 A CN 113112026A
Authority
CN
China
Prior art keywords
model
local
initial fusion
data
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110362763.0A
Other languages
English (en)
Other versions
CN113112026B (zh
Inventor
李明春
丁晓强
单洪政
徐震南
李如辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiaxun Feihong Beijing Intelligent Technology Research Institute Co ltd
Original Assignee
Jiaxun Feihong Beijing Intelligent Technology Research Institute Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiaxun Feihong Beijing Intelligent Technology Research Institute Co ltd filed Critical Jiaxun Feihong Beijing Intelligent Technology Research Institute Co ltd
Priority to CN202110362763.0A priority Critical patent/CN113112026B/zh
Publication of CN113112026A publication Critical patent/CN113112026A/zh
Application granted granted Critical
Publication of CN113112026B publication Critical patent/CN113112026B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Bioethics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种联邦学习模型优化方法及装置。该方法包括:将各个数据终端的本地模型依次分别与由联邦学习模型参数得到的第一模型进行模型融合,生成相应的初始融合模型,并根据模型融合中得到的每个初始融合模型的模型性能测试结果,确定每个初始融合模型分别对于各个数据终端的权重值后,进行综合处理,得到各个初始融合模型的综合权重值后进行排序,将设定数量的排序在前的初始融合模型在主服务端进行模型融合,得到更新后的联邦学习模型,实现在联邦学习训练过程中,使得各个数据终端的本地模型减少对用户数据的访问,同时有效、快速的建立联邦学习模型,进而有利于保护用户隐私数据的安全。

Description

一种联邦学习模型优化方法及装置
技术领域
本发明涉及一种联邦学习模型优化方法,同时也涉及相应的联邦学习模型优化装置,属于深度学习技术领域。
背景技术
联邦学习(Federated Learning)作为一种创新的建模机制,可以提供一个机器学习框架,针对来自多方的数据训练统一模型而又不损害这些数据的隐私和安全性。因此,将联邦学习应用到销售、金融和许多其他行业中,可以解决这些行业不能直接聚合数据,训练诸如知识产权,隐私保护和数据安全之类因素导致的机器学习模型的问题。
专利号为ZL 202011044286.5的发明专利公开了一种基于联邦学习进行模型参数更新的方法及系统,可用于机器学习过程中的隐私数据保护,该方法由参与方中的任一训练成员实现;该方法虽然实现了训练成员上传模型数据元素的传输比例随迭代次数的增加而减少,可以有效减少模型参数的传输量,同时了保证模型的准确性以及收敛过程的稳定性;根据各训练成员的训练样本数量确定在各训练成员的模型数据在聚合模型数据中的占比,可以进一步提高模型的准确性。但是,该方法对用户数据的访问量依然较大,无法满足有效、快速的建立联邦学习模型的需求。
发明内容
本发明所要解决的首要技术问题在于提供一种联邦学习模型优化方法。
本发明所要解决的另一技术问题在于提供一种联邦学习模型优化装置。
为了实现上述目的,本发明采用下述技术方案:
根据本发明实施例的第一方面,提供一种联邦学习模型优化方法,包括如下步骤:
建立参与联邦学习的各个数据终端的智能体,以根据获取的本地训练数据得到各个数据终端的本地模型参数,根据获取的预设长度存储队列中的实时本地训练数据进行强化学习训练,得到各个数据终端的本地模型;
从各个智能体中任意选择一个作为协调智能体,接收余下智能体发送的所述本地模型参数和所述本地模型,对所述本地模型参数综合处理后,得到联邦学习模型参数,并根据所述联邦学习模型参数得到第一模型;
采用主服务端将各个数据终端的本地模型依次分别与所述第一模型进行模型融合,生成相应的初始融合模型,并记录模型融合中的测试指标,得到每个初始融合模型的模型性能测试结果;
主服务端根据各个初始融合模型的模型性能测试结果,结合所述本地模型参数,确定每个初始融合模型分别对于各个数据终端的权重值;
对每个初始融合模型分别对于各个数据终端的权重值进行综合处理,得到各个所述初始融合模型的综合权重值后进行排序,将设定数量的排序在前的初始融合模型在主服务端进行模型融合,得到联邦学习模型。
其中较优地,参与联邦学习的多个数据终端各自选择信任的服务端建立智能体。
其中较优地,所述智能体建立通信网络,并选择共同信任的,且是所述智能体所在服务端以外的服务端作为联邦学习的主服务端。
其中较优地,所述协调智能体对各个数据终端的本地模型参数综合处理时,将各个所述本地模型参数进行去重处理,得到联邦学习模型参数。
其中较优地,所述测试指标包括初始融合模型对所述联邦学习模型参数中的不同模型参数的支持强度;
每个初始融合模型对应生成一个关于联邦学习模型参数的数组,作为模型性能测试结果。
其中较优地,每个所述初始融合模型分别对于各个所述数据终端的权重值为从相应的初始融合模型的模型性能测试结果中,提取各个所述数据终端的本地模型参数的支持强度后,分别对应进行加权平均得到的简单权重值。
其中较优地,从本地训练数据的数据量、连接设备数和采集数据质量分值中选择至少一个权重选项,与每个初始融合模型对于各个数据终端的简单权重值,逐一进行加权平均,得到每个初始融合模型分别对于各个数据终端的权重值。
其中较优地,对于单个初始融合模型分别对于各个数据终端的权重值进行综合时,将所述初始融合模型对于各个数据终端的权重值进行相加,得到所述初始融合模型的综合权重值。
根据本发明实施例的第二方面,提供一种联邦学习模型优化装置,其特征在于包括处理器和存储器,所述处理器读取所述存储器中的计算机程序或指令,用于执行以下操作:
建立参与联邦学习的各个数据终端的智能体,以根据获取的本地训练数据得到各个数据终端的本地模型参数,根据获取的预设长度存储队列中的实时本地训练数据进行强化学习训练,得到各个数据终端的本地模型;
从各个智能体中任意选择一个作为协调智能体,接收余下智能体发送的所述本地模型参数和所述本地模型,对所述本地模型参数综合处理后,得到联邦学习模型参数,并根据所述联邦学习模型参数得到第一模型;
采用主服务端将各个数据终端的本地模型依次分别与所述第一模型进行模型融合,生成相应的初始融合模型,并记录模型融合中的测试指标,得到每个初始融合模型的模型性能测试结果;
主服务端根据各个初始融合模型的模型性能测试结果,结合所述本地模型参数,确定每个初始融合模型分别对于各个数据终端的权重值;
对每个初始融合模型分别对于各个数据终端的权重值进行综合处理,得到各个所述初始融合模型的综合权重值后进行排序,将设定数量的排序在前的初始融合模型在主服务端进行模型融合,得到联邦学习模型。
本发明所提供的联邦学习模型优化方法及装置将各个数据终端的本地模型依次分别与由联邦学习模型参数得到的第一模型进行模型融合,生成相应的初始融合模型,并根据模型融合中得到的每个初始融合模型的模型性能测试结果,确定每个初始融合模型分别对于各个数据终端的权重值后,进行综合并排序,将设定数量的排序在前的初始融合模型在主服务端进行模型融合,得到更新后的联邦学习模型,实现在联邦学习训练过程中,使得各个数据终端的本地模型减少对用户数据的访问,同时有效、快速的建立联邦学习模型,进而有利于保护用户隐私数据的安全。
附图说明
图1为本发明实施例提供的联邦学习模型优化方法的流程图;
图2为本发明实施例提供的联邦学习模型优化装置的结构示意图。
具体实施方式
下面结合附图和具体实施例对本发明的技术内容做进一步的详细说明。
如图1所示,本发明实施例提供了联邦学习模型优化方法,包括如下步骤:
步骤S1、建立参与联邦学习的各个数据终端的智能体,根据获取的本地训练数据得到各个数据终端的本地模型参数,根据获取的预设长度存储队列中的实时本地训练数据进行强化学习训练,得到各个数据终端的本地模型。
在本发明中,数据终端是指数据提供方使用的自有服务器,智能体是指数据处理架构,其数据的初始来源为训练数据。
参与联邦学习的多个数据终端各自选择信任的服务端(服务器)建立智能体,即智能体在另一个服务端上建立,占据该服务端的全部或部分资源。通过智能体接收相应数据终端发送的本地训练数据和预设长度存储队列中的实时本地训练数据,并根据该本地训练数据得到各个数据终端的本地模型参数,根据预设长度存储队列中的实时本地训练数据进行强化学习训练,得到各个数据终端的本地模型。其中,本地训练数据为相应的数据终端意愿公开的数据,是数据终端的所有数据或者部分数据。
在本发明的一个实施例中,假设数据终端为A、B、C、D、E F和G这几个,对应选择的智能体为A1、B1、C1、D1、E1、F1和G1,那么,智能体A1从数据终端A处获取本地训练数据和预设长度存储队列中的实时本地训练数据;同理,其他智能体从各自数据终端获取到对应的本地训练数据和预设长度存储队列中的实时本地训练数据。
在智能体A1-G1中,会根据对应的数据终端A-G发送的本地训练数据,得到各个数据终端的本地模型参数;通过还会根据对应的数据终端A-G发送的预设长度存储队列中的实时本地训练数据进行强化学习训练,得到各个数据终端的本地模型,分别对应的是A2、B2、C2、D2、E2、F2和G2。
所有智能体建立通信网络,并选择共同信任的,且是智能体所在服务端以外的服务端作为联邦学习的主服务端。
在本发明中,通过一个建立的通信网络,使得智能体A1-G1之间可以进行相互沟通;并且,各个智能体A1-G1会选择共同信任的,且是智能体A1-G1所在服务端以外的第三服务端M作为联邦学习的主服务端。
步骤S2、从各个智能体中任意选择一个作为协调智能体,接收余下智能体发送的对应数据终端的本地模型参数和本地模型,对本地模型参数综合处理后,得到联邦学习模型参数,并根据该联邦学习模型参数得到第一模型。
从智能体A1-G1中任意选择一个智能体作为协调智能体,例如选择智能体B1作为协调智能体,余下各智能体将对应数据终端的本地模型参数和本地模型A2、C2、D2、E2、F2和G2发送到智能体B1,智能体B1对各个数据终端的本地模型参数综合处理得到联邦学习模型参数,即将各个数据终端的本地模型参数综合在一起进行去重处理,得到联邦学习模型参数,该联邦学习模型参数包含的模型参数各不相同。智能体B1根据联邦学习模型参数建立第一模型,进行后续处理。
步骤S3、采用联邦学习的主服务端将各个数据终端的本地模型依次分别与第一模型进行模型融合,生成相应的初始融合模型,并记录模型融合中的测试指标,得到每个初始融合模型的模型性能测试结果。
采用联邦学习的主服务端M接收协调智能体发送的联邦学习模型参数、第一模型、各个数据终端的本地模型参数和本地模型;在主服务端M处,将第一模型分别与各个本地模型A2-G2进行模型融合,生成的初始融合模型依次为A3、B3、C3、D3、E3、F3和G3,然后针对这些初始融合模型,记录融合过程中的测试指标,针对联邦学习模型参数中的不同模型参数,比如模型参数包括a、b、c、d....等等,判断对于模型参数的支持强度。
其中,测试指标包括初始融合模型对联邦学习模型参数中的不同模型参数的预测准确率,预测准确率也可以称为支持强度,每个初始融合模型对应生成一个关于联邦学习模型参数的数组,作为模型性能测试结果。
例如,初始融合模型A3对于联邦学习模型参数中的不同模型参数a、b、c、d...的支持强度依次为a1H、b1H、c1H、d1H...数据形成为数组。同理,初始融合模型B3对于联邦学习模型参数中的不同模型参数a、b、c、d...的支持强度依次为a1I、b1I、c1I、d1I...数据形成为数组。同样,将初始融合模型C3、D3、E3、F3和G3依次进行相应处理,得到各个初始融合模型对应生成的一个关于联邦学习模型参数的数组。
这样,得到初始融合模型A3-G3相应的关于联邦学习模型参数的数组,每个数组是对应初始融合模型的模型性能测试结果。
步骤S4、主服务端根据各个初始融合模型的模型性能测试结果,结合各个本地模型参数,确定每个初始融合模型分别对于各个数据终端的权重值。
每个初始融合模型分别对于各个数据终端的权重值可以为从相应的初始融合模型的模型性能测试结果中,提取各个数据终端的本地模型参数的支持强度后,分别对应进行加权平均得到的简单权重值。
例如,对于第一个初始融合模型A3来说,数据终端A的本地模型A2的模型参数涉及有a、b、c,从该数据终端A的初始融合模型A3中,提取出这三项参数的支持强度a1H、b1H、c1H后,进行加权平均,得到初始融合模型A3对于本地模型A2的第一权重值A3A2。
数据终端B的本地模型B2的模型参数涉及有a、b、d,从该数据终端A的初始融合模型A3中,提取出这三项参数的支持强度a1H、b1H、d1H后,进行加权平均,得到初始融合模型A3对于本地模型B2的第二权重值A3B2。
这样,初始融合模型A3,对于各个数据终端的权重值依次为:A3A2、A3B2、A3C2、A3D2、A3E2、A3F2和A3G2;
那么,初始融合模型B3,对于各个数据终端的的权重值依次为:B3A2、B3B2、B3C2、B3D2、B3E2、B3F2和B3G2;以此类推,可以得到每个初始融合模型分别对于各个数据终端的权重值。
由于在实际操作中,考虑每个初始融合模型分别对于各个数据终端的权重值时,还包括本地训练数据的数据量X、本地训练数据的连接设备数Y和本地训练数据的采集数据质量分值Z。根据用户的实际需求,从本地训练数据的数据量X、连接设备数Y和采集数据质量分值Z中选择至少一个权重选项,与每个初始融合模型对于各个数据终端的简单权重值,逐一进行加权平均,得到每个初始融合模型分别对于各个数据终端的权重值。
例如,选择从本地训练数据的数据量X、连接设备数Y和采集数据质量分值Z时,第一个初始融合模型A3,对于各个数据终端的权重值依次为:A3A2XYZ、A3B2XYZ、A3C2XYZ、A3D2XYZ、A3E2XYZ、A3F2XYZ和A3G2XYZ。
那么,第二个初始融合模型B3,对于各个数据终端的权重值依次为:B3A2XYZ、B3B2XYZ、B3C2XYZ、B3D2XYZ、B3E2XYZ、B3F2XYZ和B3G2XYZ;以此类推,可以得到每个初始融合模型分别对于各个数据终端的权重值。
步骤S5、对每个初始融合模型分别对于各个数据终端的权重值进行综合处理,得到各个初始融合模型的综合权重值后进行排序,将设定数量的排序在前的初始融合模型在主服务端进行模型融合,得到联邦学习模型。
对于单个初始融合模型分别对于各个数据终端的权重值进行综合处理时,将该初始融合模型对于各个数据终端的权重值进行相加,得到该初始融合模型的综合权重值。
将每个初始融合模型的综合权重值按照权重值由高到低进行排序,将设定数量的排序在前的初始融合模型在主服务端进行模型融合,得到联邦学习模型。其中,综合权重值排序在前的初始融合模型的数量不超过数据终端的1/K数量,其中K为经验值,优选3-5之间,最优选为4。
例如,第一个初始融合模型A3将其对于各个数据终端的权重值进行相加,以简单权重值为例:初始融合模型A3的综合权重值A4=A3A2+A3B2+A3C2+A3D2+A3E2+A3F2+A3G2。同理,依次得到其他初始融合模型对应的综合权重值分别为:B4、C4、D4、E4、F4和G4。
根据初始融合模型对应的综合权重值,按照高到低的原则,将多个初始融合模型进行排序,选取设定数量的排序在前的初始融合模型在主服务端M进行模型融合,得到最终的联邦学习模型N。例如,初始融合模型的排序是F4、A4、D4、C4、G4、E4、B4,那么,假定设定数量的初始融合模型选取前两个,则将两个初始融合模型F3和A3进行进一步的融合,得到最终融合模型,即为联邦学习模型。
此外,如图2所示,本发明实施例还提供一种联邦学习模型优化装置,包括处理器32和存储器31,还可以根据实际需要进一步包括通信组件、传感器组件、电源组件、多媒体组件及输入/输出接口。其中,存储器、通信组件、传感器组件、电源组件、多媒体组件及输入/输出接口均与该处理器32连接。前已述及,存储器31可以是静态随机存取存储器(SRAM)、电可擦除可编程只读存储器(EEPROM)、可擦除可编程只读存储器(EPROM)、可编程只读存储器(PROM)、只读存储器(ROM)、磁存储器、快闪存储器等;处理器32可以是中央处理器(CPU)、图形处理器(GPU)、现场可编程逻辑门阵列(FPGA)、专用集成电路(ASIC)、数字信号处理(DSP)芯片等。其它通信组件、传感器组件、电源组件、多媒体组件等均可以采用现有智能手机中的通用部件实现,在此就不具体说明了。
另外,本发明实施例提供的联邦学习模型优化装置,包括处理器32和存储器31,处理器32读取所述存储器31中的计算机程序或指令,用于执行以下操作:
建立参与联邦学习的各个数据终端的智能体,根据获取的本地训练数据得到各个数据终端的本地模型参数,根据获取的预设长度存储队列中的实时本地训练数据进行强化学习训练,得到各个数据终端的本地模型。
从各个智能体中任意选择一个作为协调智能体,接收余下智能体发送的对应数据终端的本地模型参数和本地模型,对本地模型参数综合处理后,得到联邦学习模型参数,并根据该联邦学习模型参数得到第一模型。
采用联邦学习的主服务端将各个数据终端的本地模型依次分别与第一模型进行模型融合,生成相应的初始融合模型,并记录模型融合中的测试指标,得到每个初始融合模型的模型性能测试结果。
主服务端根据各个初始融合模型的模型性能测试结果,结合各个本地模型参数,确定每个初始融合模型分别对于各个数据终端的权重值。
对每个初始融合模型分别对于各个数据终端的权重值进行综合并排序,将设定数量的排序在前的初始融合模型在主服务端进行模型融合,得到联邦学习模型。
另外,本发明实施例还提供一种计算机可读存储介质,所述可读存储介质上存储有指令,当其在计算机上运行时,使得所述计算机执行如上述图1所述的联邦学习模型优化方法,此处不再赘述其具体实现方式。
另外,本发明实施例还提供一种包含指令的计算机程序产品,当其在计算机上运行时,使得所述计算机执行如上述图1所述的联邦学习模型优化方法,此处不再赘述其具体实现方式。
本发明所提供的联邦学习模型优化方法及装置将各个数据终端的本地模型依次分别与由联邦学习模型参数得到的第一模型进行模型融合,生成相应的初始融合模型,并根据模型融合中得到的每个初始融合模型的模型性能测试结果,确定每个初始融合模型分别对于各个数据终端的权重值后,进行综合并排序,将设定数量的排序在前的初始融合模型在主服务端进行模型融合,得到更新后的联邦学习模型,实现在联邦学习训练过程中,使得各个数据终端的本地模型减少对用户数据的访问,同时有效、快速的建立联邦学习模型,进而有利于保护用户隐私数据的安全。
以上对本发明所提供的联邦学习模型优化方法及装置进行了详细的说明。对本领域的一般技术人员而言,在不背离本发明实质内容的前提下对它所做的任何显而易见的改动,都将属于本发明专利权的保护范围。

Claims (9)

1.一种联邦学习模型优化方法,其特征在于包括如下步骤:
建立参与联邦学习的各个数据终端的智能体,以根据获取的本地训练数据得到各个数据终端的本地模型参数,根据获取的预设长度存储队列中的实时本地训练数据进行强化学习训练,得到各个数据终端的本地模型;
从各个智能体中任意选择一个作为协调智能体,接收余下智能体发送的所述本地模型参数和所述本地模型,对所述本地模型参数综合处理后,得到联邦学习模型参数,并根据所述联邦学习模型参数得到第一模型;
采用主服务端将各个数据终端的本地模型依次分别与所述第一模型进行模型融合,生成相应的初始融合模型,并记录模型融合中的测试指标,得到每个初始融合模型的模型性能测试结果;
主服务端根据各个初始融合模型的模型性能测试结果,结合所述本地模型参数,确定每个初始融合模型分别对于各个数据终端的权重值;
对每个初始融合模型分别对于各个数据终端的权重值进行综合处理,得到各个所述初始融合模型的综合权重值后进行排序,将设定数量的排序在前的初始融合模型在主服务端进行模型融合,得到联邦学习模型。
2.如权利要求1所述的联邦学习模型优化方法,其特征在于:
参与联邦学习的多个数据终端各自选择信任的服务端建立智能体。
3.如权利要求1所述的联邦学习模型优化方法,其特征在于:
所述智能体建立通信网络,并选择共同信任的,且是所述智能体所在服务端以外的服务端作为联邦学习的主服务端。
4.如权利要求1所述的联邦学习模型优化方法,其特征在于:
所述协调智能体对各个数据终端的本地模型参数综合处理时,将各个所述本地模型参数进行去重处理,得到联邦学习模型参数。
5.如权利要求1所述的联邦学习模型优化方法,其特征在于:
所述测试指标包括初始融合模型对所述联邦学习模型参数中的不同模型参数的支持强度;
每个初始融合模型对应生成一个关于联邦学习模型参数的数组,作为模型性能测试结果。
6.如权利要求1所述的联邦学习模型优化方法,其特征在于:
每个所述初始融合模型分别对于各个所述数据终端的权重值为从相应的初始融合模型的模型性能测试结果中,提取各个所述数据终端的本地模型参数的支持强度后,分别对应进行加权平均得到的简单权重值。
7.如权利要求6所述的联邦学习模型优化方法,其特征在于:
从本地训练数据的数据量、连接设备数和采集数据质量分值中选择至少一个权重选项,与每个初始融合模型对于各个数据终端的简单权重值,逐一进行加权平均,得到每个初始融合模型分别对于各个数据终端的权重值。
8.如权利要求1所述的联邦学习模型优化方法,其特征在于:
对于单个初始融合模型分别对于各个数据终端的权重值进行综合处理时,将所述初始融合模型对于各个数据终端的权重值进行相加,得到所述初始融合模型的综合权重值。
9.一种联邦学习模型优化装置,其特征在于包括处理器和存储器,所述处理器读取所述存储器中的计算机程序或指令,用于执行以下操作:
建立参与联邦学习的各个数据终端的智能体,以根据获取的本地训练数据得到各个数据终端的本地模型参数,根据获取的预设长度存储队列中的实时本地训练数据进行强化学习训练,得到各个数据终端的本地模型;
从各个智能体中任意选择一个作为协调智能体,接收余下智能体发送的所述本地模型参数和所述本地模型,对所述本地模型参数综合处理后,得到联邦学习模型参数,并根据所述联邦学习模型参数得到第一模型;
采用主服务端将各个数据终端的本地模型依次分别与所述第一模型进行模型融合,生成相应的初始融合模型,并记录模型融合中的测试指标,得到每个初始融合模型的模型性能测试结果;
主服务端根据各个初始融合模型的模型性能测试结果,结合所述本地模型参数,确定每个初始融合模型分别对于各个数据终端的权重值;
对每个初始融合模型分别对于各个数据终端的权重值进行综合处理,得到各个所述初始融合模型的综合权重值后进行排序,将设定数量的排序在前的初始融合模型在主服务端进行模型融合,得到联邦学习模型。
CN202110362763.0A 2021-04-02 2021-04-02 一种联邦学习模型优化方法及装置 Active CN113112026B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110362763.0A CN113112026B (zh) 2021-04-02 2021-04-02 一种联邦学习模型优化方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110362763.0A CN113112026B (zh) 2021-04-02 2021-04-02 一种联邦学习模型优化方法及装置

Publications (2)

Publication Number Publication Date
CN113112026A true CN113112026A (zh) 2021-07-13
CN113112026B CN113112026B (zh) 2024-05-28

Family

ID=76713884

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110362763.0A Active CN113112026B (zh) 2021-04-02 2021-04-02 一种联邦学习模型优化方法及装置

Country Status (1)

Country Link
CN (1) CN113112026B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113673696A (zh) * 2021-08-20 2021-11-19 山东鲁软数字科技有限公司 一种基于强化联邦学习的电力行业起重作业违章检测方法
CN114913402A (zh) * 2022-07-18 2022-08-16 深圳比特微电子科技有限公司 一种深度学习模型的融合方法、装置
WO2023028907A1 (en) * 2021-09-01 2023-03-09 Qualcomm Incorporated Techniques for using relay averaging in federated learning

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110782042A (zh) * 2019-10-29 2020-02-11 深圳前海微众银行股份有限公司 横向联邦和纵向联邦联合方法、装置、设备及介质
CN111027086A (zh) * 2019-12-16 2020-04-17 支付宝(杭州)信息技术有限公司 一种私有数据保护方法和系统
CN111091200A (zh) * 2019-12-20 2020-05-01 深圳前海微众银行股份有限公司 训练模型的更新方法、系统、智能体、服务器及存储介质
CN111222647A (zh) * 2020-01-09 2020-06-02 深圳前海微众银行股份有限公司 联邦学习系统优化方法、装置、设备及存储介质
CN111275207A (zh) * 2020-02-10 2020-06-12 深圳前海微众银行股份有限公司 基于半监督的横向联邦学习优化方法、设备及存储介质
CN111291897A (zh) * 2020-02-10 2020-06-16 深圳前海微众银行股份有限公司 基于半监督的横向联邦学习优化方法、设备及存储介质
WO2021022707A1 (zh) * 2019-08-06 2021-02-11 深圳前海微众银行股份有限公司 一种混合联邦学习方法及架构

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021022707A1 (zh) * 2019-08-06 2021-02-11 深圳前海微众银行股份有限公司 一种混合联邦学习方法及架构
CN110782042A (zh) * 2019-10-29 2020-02-11 深圳前海微众银行股份有限公司 横向联邦和纵向联邦联合方法、装置、设备及介质
CN111027086A (zh) * 2019-12-16 2020-04-17 支付宝(杭州)信息技术有限公司 一种私有数据保护方法和系统
CN111091200A (zh) * 2019-12-20 2020-05-01 深圳前海微众银行股份有限公司 训练模型的更新方法、系统、智能体、服务器及存储介质
CN111222647A (zh) * 2020-01-09 2020-06-02 深圳前海微众银行股份有限公司 联邦学习系统优化方法、装置、设备及存储介质
CN111275207A (zh) * 2020-02-10 2020-06-12 深圳前海微众银行股份有限公司 基于半监督的横向联邦学习优化方法、设备及存储介质
CN111291897A (zh) * 2020-02-10 2020-06-16 深圳前海微众银行股份有限公司 基于半监督的横向联邦学习优化方法、设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
R. YU ET AL.: "Toward Resource-Efficient Federated Learning in Mobile Edge Computing", 《IEEE NETWORK》, vol. 35, no. 1, pages 148 - 155, XP011838015, DOI: 10.1109/MNET.011.2000295 *
王健宗等: "联邦学习算法综述", 《大数据》, vol. 6, no. 06, pages 64 - 82 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113673696A (zh) * 2021-08-20 2021-11-19 山东鲁软数字科技有限公司 一种基于强化联邦学习的电力行业起重作业违章检测方法
CN113673696B (zh) * 2021-08-20 2024-03-22 山东鲁软数字科技有限公司 一种基于强化联邦学习的电力行业起重作业违章检测方法
WO2023028907A1 (en) * 2021-09-01 2023-03-09 Qualcomm Incorporated Techniques for using relay averaging in federated learning
CN114913402A (zh) * 2022-07-18 2022-08-16 深圳比特微电子科技有限公司 一种深度学习模型的融合方法、装置
CN114913402B (zh) * 2022-07-18 2022-10-18 深圳比特微电子科技有限公司 一种深度学习模型的融合方法、装置

Also Published As

Publication number Publication date
CN113112026B (zh) 2024-05-28

Similar Documents

Publication Publication Date Title
CN113112026A (zh) 一种联邦学习模型优化方法及装置
Hegeman et al. Toward optimal bounds in the congested clique: Graph connectivity and MST
CN108090208A (zh) 融合数据处理方法及装置
CN108683663B (zh) 一种网络安全态势的评估方法及装置
WO2019019649A1 (zh) 投资组合产品的生成方法、装置、存储介质和计算机设备
CN103593799B (zh) 自然人信息设置方法、系统及相应的好友推荐方法、系统
CN110852882B (zh) 用于区块链网络的分组共识方法、装置、设备和介质
CN109146447A (zh) 区块链透明分片方法、装置及系统
CN113536081B (zh) 基于人工智能的数据中心数据管理方法及系统
CN110751543A (zh) 一种多方综合评估的招标方法、系统及终端设备
CN110838031A (zh) 一种基于ABtest的数据运营方法和装置
CN109976999B (zh) 测试用例覆盖率的度量方法和度量装置
CN109460412A (zh) 数据聚合方法、装置、设备及存储介质
CN111507479B (zh) 特征分箱方法、装置、设备及计算机可读存储介质
EP3878138B1 (en) Dimensioning network services (ns)
KR102555607B1 (ko) 데이터 주석 방법, 장치, 기기, 저장매체 및 컴퓨터 프로그램
CN112508199A (zh) 针对跨特征联邦学习的特征选择方法、装置及相关设备
CN104052679A (zh) 网络流量的负载均衡方法和装置
CN110098959B (zh) 工控协议交互行为的建模方法、装置、系统及存储介质
Wang et al. Determining delay bounds for a chain of virtual network functions using network calculus
CN113438237B (zh) 数据安全协同计算方法及系统
CN108470251B (zh) 基于平均互信息的社区划分质量评价方法及系统
WO2024099308A1 (zh) 一种密码子序列优化方法、装置、计算机设备及存储介质
CN110334018A (zh) 一种大数据导入方法以及相关设备
CN113992668B (zh) 基于多并发的信息实时传输方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant