CN117010534B - 一种基于环形知识蒸馏和元联邦学习的动态模型训练方法、系统及设备 - Google Patents

一种基于环形知识蒸馏和元联邦学习的动态模型训练方法、系统及设备 Download PDF

Info

Publication number
CN117010534B
CN117010534B CN202311259462.0A CN202311259462A CN117010534B CN 117010534 B CN117010534 B CN 117010534B CN 202311259462 A CN202311259462 A CN 202311259462A CN 117010534 B CN117010534 B CN 117010534B
Authority
CN
China
Prior art keywords
model
meta
federal
reverberation
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311259462.0A
Other languages
English (en)
Other versions
CN117010534A (zh
Inventor
何昆仑
孙宇慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chinese PLA General Hospital
Original Assignee
Chinese PLA General Hospital
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chinese PLA General Hospital filed Critical Chinese PLA General Hospital
Priority to CN202311259462.0A priority Critical patent/CN117010534B/zh
Publication of CN117010534A publication Critical patent/CN117010534A/zh
Application granted granted Critical
Publication of CN117010534B publication Critical patent/CN117010534B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请涉及智能医疗领域,具体涉及一种基于环形知识蒸馏和元联邦学习的动态模型训练方法、系统及设备。所述元联邦学习包括M个元联邦,一个元联邦由一个中央服务器和N个客户端组成,训练好的全局模型作为教师模型m1,所述M个元联邦中的下一个元联邦作为学生模型m1,所述学生模型m1通过知识蒸馏学习所述教师模型m1的参数进行更新得到教师模型m2,所述教师模型m2通过知识蒸馏将参数传给下一个学生模型mn,重复此步骤,直至所述教师模型m1转变为学习模型,形成环形架构。本申请在保证数据隐私的同时,能有效地进行数据分析和模型训练,具有很好临床价值。

Description

一种基于环形知识蒸馏和元联邦学习的动态模型训练方法、 系统及设备
技术领域
本申请涉及智能医疗领域,具体涉及一种基于环形知识蒸馏和元联邦学习的动态模型训练方法、系统、设备、计算机可读存储介质。
背景技术
随着信息技术和医学领域的迅速发展,数据量不断增加,带来了新的机会和挑战。医学数据,如患者病例、检测报告和医学图像等,涉及多个部门和机构,如医院、疗养机构和居民。然而,由于数据隐私和安全性的问题,数据通常不能直接共享。联邦学习作为一种新兴的机器学习方法,可以在不暴露原始数据的情况下,允许多个机构或者个体合作训练模型,这为医学数据的利用带来了新的可能。但是,现有的联邦学习方法大多是在单一的联邦体系中进行的,即使多个机构或者个体之间存在异构和分布差异的数据,它们也很难适应多个不同的联邦体系。例如,医院、疗养机构和居家用户可能有不同的数据收集方法、数据格式和数据分布。此外,不同的机构或个体可能有不同的数据处理能力、计算资源和网络连接。
发明内容
针对上述问题,本申请提出一种基于环形知识蒸馏和元联邦学习的动态模型训练方法,所述元联邦学习包括M个元联邦, 一个元联邦由一个中央服务器和N个客户端组成,M、N为大于等于1的自然数,所述方法具体包括:
所述N个客户端分别从所述中央服务器中获取初始全局模型,将本地数据输至所述初始全局模型中训练得到N个本地模型;
所述N个本地模型将模型参数输至中央服务器,所述中央服务器聚合所述模型参数并更新得到更新后的全局模型;
重复上述步骤直至训练结束得到训练好的全局模型;
所述训练好的全局模型作为教师模型m1,所述M个元联邦中的下一个元联邦作为学生模型m1,所述学生模型m1通过知识蒸馏学习所述教师模型m1的参数进行更新得到教师模型m2,所述教师模型m2通过知识蒸馏将参数传给下一个学生模型mn,重复此步骤,直至所述教师模型m1转变为学习模型,形成环形架构;其中,任意学习模型通过蒸馏得到参数后更新全局模型并传输至N个客户端中进行训练得到训练好的全局模型。
进一步,为所述M个元联邦中每一个成员分配一个动态标识,根据所述动态标识为联邦成员进行分类和分级得到不同类别的元联邦和不同层级的元联邦,其中,所述动态标识是通过联邦成员的属性及行为特征计算得到的。
进一步,所述动态标识的公式表示为:
其中,为联邦成员的动态标识,为多维特性函数,为第个联邦成 员的多维特性参数。
所述联邦成员之间通过对模型进行知识蒸馏来交换参数信息,所述参数信息的数据存储与访问机制分为共性知识积累阶段和个性化阶段两种形式;所述共性知识积累阶段是通过为每个数据块分配动态的量子密钥,同时建立数据间的关系图谱,当数据被修改或访问时,密钥会动态调整,关联数据会发生调整;所述个性化阶段与共性知识积累阶段方法相同,但模型会直接被传输至下一个元联邦,不会经过N个客户端训练的过程。
进一步,数据块被访问或修改时,所述量子密钥进行动态调整的公式为:
其中,生态系数、量子熵为
所述关系图谱对调整的数据进行处理的公式为:
其中,平衡因子,当超出预定的阈值,则需要对数据进行调整。
所有所述元联邦的模型公式可表示为:
其中,是元联邦的数量,是联邦模型k的权重参数,是联邦模型k的样本数 量,是全局模型的权重更新。
所述本地模型采用基于回响优化算法的神经网络进行训练,通过声波的回响行为优化神经网络的权重与偏置,所述权重与偏置的调整相当于声波的传播和反射,依据每一层的总回响评估当前所述权重与偏置是否需要调整。
进一步,所述总回响是网络层所有神经元回响值的加权和,具体公式为:
其中,是第i个和第k个神经元之间的连接权重;为在第k个神经元上的回响 值;为第i个神经元的回响评估值。
所述基于回响优化算法的神经网络中采用回响序列更新回响值,所述回响序列中包括当前迭代的回响值与过去迭代的回响值,通过计算权重更新回响值。
所述基于回响优化算法的神经网络中采用回响衰减机制调整回响强度,所述回响衰减机制在迭代次数的增加时降低回响的强度。
所述元联邦通过活化能障碍表示所述联邦成员之间模型同步的困难度,所述活化能障碍是指一个模型转移到另一个模型需要的能量,当两个模型的所述活化能障碍小时,所述模型同步快,反之,则慢。
进一步,所述活化能障碍的具体公式为:
其中,表示联邦体和联邦体之间的活化能障碍,分别代表联邦体的模型权重;是一个调节参数。
进一步,对所述模型同步后进行模型评估,所述模型评估的策略表示为:
其中,是模型的整体评估得分,是联邦体在其数据上使用权重的 模型损失,是联邦体的总数。
本申请的目的在于提高一种基于环形知识蒸馏和元联邦学习的动态模型训练系统,所述元联邦学习包括M个元联邦, 一个元联邦由一个中央服务器和N个客户端组成,M、N为大于等于1的自然数,所述系统具体包括:
元联邦模块:包括本地训练模块、中心聚合模块、模型存储模块;
本地训练模块:所述N个客户端分别从所述中央服务器中获取初始全局模型,将本地数据输至所述初始全局模型中训练得到N个本地模型;
中心聚合模块:所述N个本地模型将模型参数输至中央服务器,所述中央服务器聚合所述模型参数并更新得到更新后的全局模型;
模型存储模块:重复上述步骤直至训练结束得到训练好的全局模型;
模型蒸馏模块:所述训练好的全局模型作为教师模型m1,所述M个元联邦中的下一个元联邦作为学生模型m1,所述学生模型m1通过知识蒸馏学习所述教师模型m1的参数进行更新得到教师模型m2,所述教师模型m2通过知识蒸馏将参数传给下一个学生模型mn,重复此步骤,直至所述教师模型m1转变为学习模型,形成环形架构;其中,任意学习模型通过蒸馏得到的参数后更新全局模型并传输至N个客户端中进行训练得到训练好的全局模型。
本申请的目的在于提供一种基于环形知识蒸馏和元联邦学习的动态模型训练设备,包括存储器与处理器,所述存储器用于存储程序指令;所述处理器用于调用程序指令,当程序指令被执行时实现任意一项上述的一种基于环形知识蒸馏和元联邦学习的动态模型训练方法。
本申请的目的在于提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现任意一项上述的一种基于环形知识蒸馏和元联邦学习的动态模型训练方法。
本申请的优势:
1本申请采用嵌套式的联邦学习结构允许知识在各子联邦内部快速传播,并在主联邦中进行整合,从而实现高效的知识共享,使得不同的医疗实体(如医院、疗养机构和居民)可以在各自的子联邦中进行协同学习,再在上一级联邦中共享学习结果,具有多个医疗实体之间能够高效地共享知识而不损失数据的局部性特点。
2本申请采用环形知识蒸馏对多级联邦学习结构中进行参数信息的交换与传递,使得模型能够有效学习多个实体之间的信息,提高整体模型的数据分析能力和数据处理能力,提升了模型的性能。
3本申请采用量子密钥管理策略为数据提供了强大的保护,为数据块分配动态的量子密钥,并在数据被访问或修改时动态调整,提高了数据的安全性,确保数据在传输和存储过程中的安全。
4本申请采用动态标识和分层结构,联邦成员通过其属性和行为特征被动态地分组到不同的层级,以实现更精细化的管理和数据交互。
5本申请提出数据生态平衡,当数据被访问或修改时,不仅调整与之直接关联的数据,还考虑整个数据生态的平衡,以维护数据间的连贯性和完整性。
6在大量、复杂的医学数据,如何有效地优化模型的问题,本申请提出一种基于回响优化算法的神经网络模型,核心回响优化算法结合了声学原理和神经网络,使得模型能够根据不同的数据和环境自适应地进行学习,为模型的自适应学习提供了新的路径。
7本申请在进行联邦学习时,为了确保多个实体之间的模型权重同步不会引起模型过度扰动,提出一种权重同步策略,当两个联邦体的模型差异时,权重同步速度会自适应调整,确保不会因为权重更新过快而导致模型的过度扰动,确保模型的稳定性。
8本申请提出一种模型评估策略,在每次跨联邦同步后进行模型的评估,确保整体的学习效果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获取其他的附图。
图1为本发明实施例提供的一种基于环形知识蒸馏和元联邦学习的动态模型训练方法流程示意图;
图2为本发明实施例提供的一种基于环形知识蒸馏和元联邦学习的动态模型训练系统示意图;
图3为本发明实施例提供的一种基于环形知识蒸馏和元联邦学习的动态模型训练设备示意图;
图4为本发明实施例提供的元联邦的工作架构示意图;
图5为本发明实施例提供的元联邦信息交换示意图;
图6为本发明实施例提供的一个元联邦的工作架构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
在本发明的说明书和权利要求书及上述附图中的描述的一些流程中,包含了按照特定顺序出现的多个操作,但是应该清楚了解,这些操作可以不按照其在本文中出现的顺序来执行或并行执行,操作的序号如S101、S102等,仅仅是用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作可以按顺序执行或并行执行。需要说明的是,本文中的“第一”、“第二”等描述,是用于区分不同的消息、设备、模块等,不代表先后顺序,也不限定“第一”和“第二”是不同的类型。
图1本发明实施例提供的一种基于环形知识蒸馏和元联邦学习的动态模型训练方法示意图,具体包括:
S101:所述N个客户端分别从所述中央服务器中获取初始全局模型,将本地数据输至所述初始全局模型中训练得到N个本地模型;所述N个本地模型将模型参数输至中央服务器,所述中央服务器聚合所述模型参数并更新得到更新后的全局模型;重复上述步骤直至训练结束得到训练好的全局模型;
在一个实施例中,联邦学习是一种新兴的机器学习技术,它是一种分布式学习方法,旨在训练多方参与的模型,而不需要集中所有数据到一个中心节点。联邦学习通过将模型训练分散在多个本地设备上来实现这一目标,每个设备仅使用本地数据进行训练,然后将训练结果聚合到一个全局模型中。联邦学习技术具有以下几个特点。1、参与联邦学习的原始数据都保留在本地客户端,与中心服务器交互的只是模型更新信息。2、联邦学习的参与方联合训练出的模型权重将被各方共享。3、联邦学习最终的模型精度与集中式机器学习相似。4、联邦学习参与方的训练数据质量越高,全局模型精度越高。
在一个实施例中,神经网络优化算法的功能,是通过改善训练方式,来最小化(或最大化)损失函数,常用的优化算法包括Jaya算法、遗传算法、模拟退火算法、粒子群算法、蚁群算法、帝国竞争算法、元启发式算法。
在一个实施例中,本地模型训练使用的神经网络算法包括:朴素贝叶斯、支持向量机、随机森林、极限学习机、卷积神经网络、循环神经网络、图卷积神经网络。
在一个实施例中,所述本地模型采用基于回响优化算法的神经网络进行训练,通过声波的回响行为优化神经网络的权重与偏置,所述权重与偏置的调整相当于声波的传播和反射,依据每一层的总回响评估当前所述权重与偏置是否需要调整。
在一个实施例中,所述总回响是网络层所有神经元回响值的加权和,具体公式为:
其中,是第i个和第k个神经元之间的连接权重;为在第k个神经元上的回响 值;为第i个神经元的回响评估值。
在一个实施例中,所述基于回响优化算法的神经网络中采用回响序列更新回响值,所述回响序列中包括当前迭代的回响值与过去迭代的回响值,通过计算权重更新回响值。
在一个实施例中,所述基于回响优化算法的神经网络中采用回响衰减机制调整回响强度,所述回响衰减机制在迭代次数的增加时降低回响的强度。
在一个具体实施例中,每个联邦模型是由多个本地模型利用本地数据进行联邦学习训练得到,如图6所示,一个服务器对应多个本地,服务器向各个本地传送模型及模型参数,各本地依据本地数据训练本地模型,再将本地模型上传至服务器。联邦学习允许多个用户同时训练一个机器学习模型,在训练过程中并不需要上传任何私有的数据到服务器。本地用户负责训练本地数据得到本地模型,中心服务器负责加权聚合用户上传的本地模型数据从而得到全局模型。
最后,经过多轮迭代后得到一个趋近于集中式机器学习结果的模型,同时还能解决传统机器学习源数据聚合带来的隐私泄露问题。
在一个具体实施例中,各客户端模型在聚合节点时,通过全局模型修正本地训练 的损失。在每一轮通信过程中,随机选择一定比例节点,更新本地模型得到新的,服 务器整合节点得到新的全局模型。服务器的聚合公式可以表示为:
其中,是各参与节点训练数据的数量,且
在一个具体实施例中,本发明基于联邦学习实现医学数据分类,各客户端构建一 种基于联邦学习的框架并融合神经网络模型。具体的,各节点首先从服务器下载全局模型并更新本地模型进行训练;进一步地,各节点在达到预定的本地训练次数时,将模型参 数上传至服务器;进一步地,服务器随机抽取节点并将节点按照一定比例聚合;进一步地, 更新全局模型,并重复上述步骤直至训练结束。其中,输入参与联邦学习的个节点,服 务器迭代轮数,客户端节点迭代轮数,当前轮数,当前的全局模型;联邦学习后的全 局模型为
在一个具体实施例中,本地模型为基于核心回响优化算法神经网络模型,借鉴声波的回响行为对神经网络的权重和偏置进行优化。在神经网络中,每一层的节点和连接可以被视为一种“声学”环境,其中权重和偏置调整可以看作是“声波”在这个环境中的传播和反射。
在本地模型神经网络训练过程中,首先进行初始化回响场操作,即对于每一个权重和偏置,赋予一个初始“声波”值,可以表示为:
其中,是一个预设的常量,用于初始化声波值;为第i个和第j个神经元之 间的权重;为第i个神经元的偏置;为预设的常量,用于根据权重和偏置的初始值初 始化声波值。
进一步地,在每个网络层中定义一个“回响场”,初始化为零。
进一步地,当数据输入网络时,这些声波值会根据输入数据的特性被激活。每一个 激活的声波会在其所在的网络层产生一个回响,这个回响会被传播到其它的权重和偏置。 当数据输入网络时,激活值的计算方式可以表示为:
其中,是激活函数;为第i个神经元的激活值;为第j个神经元的激活值。
根据激活值,回响值的计算方式可以表示为:
其中,是一个预设的常量,表示激活值与声波值的混合比例;为在第i个神经元 上的回响值,是神经元的激活值和其偏置上的声波值的加权和;为预设的常量,代表激活 值和声波值的混合比例,决定回响值是如何计算的;为表示在偏置上的声波值。
进一步地,当回响传播到其他权重和偏置时,它们会反射或被吸收。反射的声波会返回到它的原始位置,并与其他反射的声波相互干涉。吸收的声波会改变该权重或偏置的值。回响值的反射和吸收分别可以表示为:
其中,是一个预设的常量,表示回响值的反射比例;为分别代表第 i个神经元上的回响值的反射部分和吸收部分。
进一步地,根据每个网络层的总回响值评估当前的权重和偏置配置的“好坏”。若 某个网络层的回响值超过一个预设的阈值,则认为该层的权重和偏置需要调整。回响评估 值是网络层中所有神经元的回响值的加权和,由以下公式计算:
其中,是第i个和第k个神经元之间的连接权重;为在第k个神经元上的回响 值;为第i个神经元的回响评估值,表示网络层中所有神经元的回响值的加权和。
在一个具体实施例中,本发明引入回响时序深度的概念,不仅考虑当前迭代的回响值,还要考虑过去几个迭代的回响值,形成一个回响序列。具体的,每当网络完成一次前向传播,更新神经元的回响历史的方式可以表示为:
其中,T表示之前的迭代的次数;为第i个神经元在时刻t的回响值;为第i个 神经元的回响历史序列,长度为T。
进一步地,使用权重矩阵来考虑历史回响值对当前回响值的贡献,其计算 方式可以表示为:
其中,表示第次迭代时的权重。
进一步地,为了确保历史回响值有合适的影响,更新时序权重矩阵的方式可以表示为:
其中,是一个介于0和1之间的常数,代表历史回响值对权重更新的影响程度。
进一步地,对于那些需要调整的权重和偏置,使用回响评估值进行微调。如果回响值是正的,则增加权重或偏置的值;如果是负的,则减少。权重和偏置的优化方式可以表示为:
其中,是学习率,由人为预设。
重复上述流程,直到网络达到预定的性能或迭代次数。
在一个具体实施例中,为防止网络陷入局部最优,引入回响衰减机制。随着迭代次数的增加,回响的强度会逐渐减小,使得网络更容易跳出局部最优。随着迭代次数的增加,调整回响强度的方式可以表示为:
其中,是回响衰减率,是迭代次数;为回响衰减率,由人为预设,表示每次迭代 后回响的衰减幅度。
S102: 所述训练好的全局模型作为教师模型m1,所述M个元联邦中的下一个元联邦作为学生模型m1,所述学生模型m1通过知识蒸馏学习所述教师模型m1的参数进行更新得到教师模型m2,所述教师模型m2通过知识蒸馏将参数传给下一个学生模型mn,重复此步骤,直至所述教师模型m1转变为学习模型,形成环形架构;其中,任意学习模型通过蒸馏得到参数后更新全局模型并传输至N个客户端中进行训练得到训练好的全局模型。
在一个实施例中,知识蒸馏(Knowledge Distillation,简记为 KD)是一种经典的模型压缩方法,核心思想是通过引导轻量化的学生模型“模仿”性能更好、结构更复杂的教师模型(或多模型的 ensemble),在不改变学生模型结构的情况下提高其性能。
在一个实施例中,本发明是训练方案包括:
1使用环形知识蒸馏+元联邦学习架构进行训练,其中元联邦中各本地模型训练使用神经网络进行训练;
2使用联邦学习架构进行训练,其中本地模型使用基于回响优化算法的神经网络进行训练;
3使用环形知识蒸馏+元联邦学习架构进行训练,其中本地模型使用基于回响优化算法的神经网络进行训练。
在一个实施例中,为所述M个元联邦中每一个成员分配一个动态标识,根据所述动态标识为联邦成员进行分类和分级得到不同类别的元联邦和不同层级的元联邦,其中,所述动态标识是通过联邦成员的属性及行为特征计算得到的。
在一个实施例中,所述动态标识的公式表示为:
其中,为联邦成员的动态标识,为多维特性函数,为第个联邦成 员的多维特性参数。
在一个实施例中,所述联邦成员之间通过对模型进行知识蒸馏来交换参数信息,所述参数信息的数据存储与访问机制分为共性知识积累阶段和个性化阶段两种形式;所述共性知识积累阶段是通过为每个数据块分配动态的量子密钥,同时建立数据间的关系图谱,当数据被修改或访问时,密钥会动态调整,关联数据会发生调整;所述个性化阶段与共性知识积累阶段方法相同,但模型会直接被传输至下一个元联邦,不会经过N个客户端训练的过程。
在一个实施例中,数据块被访问或修改时,所述量子密钥进行动态调整的公式为:
其中,生态系数、量子熵为
在一个实施例中,所述关系图谱对调整的数据进行处理的公式为:
其中,平衡因子,当超出预定的阈值,则需要对数据进行调整。
在一个实施例中,所有所述元联邦的模型公式可表示为:
其中,是元联邦的数量,是联邦模型k的权重参数,是联邦模型k的样本数 量,是全局模型的权重更新。
在一个实施例中,所述元联邦通过活化能障碍表示所述联邦成员之间模型同步的困难度,所述活化能障碍是指一个模型转移到另一个模型需要的能量,当两个模型的所述活化能障碍小时,所述模型同步快,反之,则慢。
在一个实施例中,所述活化能障碍的具体公式为:
其中,表示联邦体和联邦体之间的活化能障碍,分别代表联邦体的模型权重;是一个调节参数。
在一个实施例中,对所述模型同步后进行模型评估,所述模型评估的策略表示为:
其中,是模型的整体评估得分,是联邦体在其数据上使用权重的 模型损失,是联邦体的总数。
在一个具体实施例中,本发明在不同的联邦之间,构建模型以充分利用所有联邦体的异构数据进行学习建模。具体的,如图4所示,一定数量的客户端组成单个联邦即元联邦,不同的元联邦则足够独立、不存在中央服务器,并且元联邦之间数据存在差异。
在一个具体实施例中,本发明为每个联邦成员分配一个动态标识,然后根据多维参数空间将成员分为不同的类别,该标识是基于联邦成员的属性和行为特征计算出来的。标识符的公式可以表示为:
其中,为联邦成员的动态标识。为多维特性函数,为第个联邦成 员的多维特性参数,包括但不限于网络拓扑结构特性、数据分布特性等。
进一步地,根据每个联邦成员的多维参数空间对其进行分类,可以表示为:
其中,为第个联邦成员的分类;为分类函数,其根据网络拓扑结构特性、数据分 布特性等进行分类;为第个联邦成员和第个联邦成员之间的关系向量,表示联邦成员 之间的关联性。
进一步地,联邦成员根据其属性和行为特征被分组到不同的层级,不同层级的组织结构可以使用以下公式表示:
其中,为第个联邦成员所处的层次,为基于联邦成员的分类类别的层级划分 函数;为权重因子,其基于第个联邦成员的关键属性来调整其在联邦结构中的位置。
在一个具体实施例中,在各联邦成员之间的数据存储与访问机制中,联邦成员之间的传播过程分为两个阶段,如图5所示,即共性知识积累阶段和个性化阶段,在这两个阶段中,模型依次在联邦端传递,通过知识蒸馏进行自适应的信息交换。
在第一阶段,即共性知识积累阶段,各联邦体按顺序进行训练,即前一个联邦端模型担任下一个联邦端模型的老师,共性知识积累阶段持续数轮,以确保每个联邦的共性知识被完全提取。共性知识积累阶段为每个数据块分配动态变化的量子密钥,当数据需要被访问或修改时,该密钥会进行动态调整。同时,建立数据间的依赖关系图谱,当某个数据被访问或更改时,需要对与之关联的其他数据进行相应的调整,以保持整体数据生态的平衡。
在第二阶段,即个性化阶段也以相同的方式进行训练,但模型在没有经过本地训练的情况下被发送到下一个联邦,防止因本地过分训练丢失共性知识。
各联邦成员的模型训练完成后,采用基于环形知识蒸馏的策略,将模型的知识将从一个联邦传递到下一个,然后以此类推传递,直到返回原始的联邦,形成一个完整的循环。
具体的,设所有联邦模型为:
其中,是元联邦的数量,是联邦模型k的权重参数,是联邦模型k的样本数 量,是全局模型的权重更新。
在一个具体实施例中,在环形知识蒸馏过程中,让上一联邦模型充当教师模型,并将其知识蒸馏到了下一模型(即学生模型)中。全局模型周期性地向各个设备发送其模型参数及日志,每个设备上的学生模型使用知识蒸馏损失函数进行训练,损失函数可以表示为:
其中,是交叉熵损失;是知识蒸馏损失,通常为教师和学生模型输出概率的 KL散度;是一个权重参数;是一个温度参数,用于软化概率分布。
可以表示为:
其中,是学生模型的输出,是教师模型的输出,是温度参数。
进一步地,学生模型在本地数据上进行训练,然后将权重更新发送回中央服务器,中央服务器使用所有学生模型的权重更新来更新全局模型。
在一个具体实施例中,本发明引入“活化能障碍”的概念来表示各联邦成员间模型同步的困难度。具体的,活化能障碍表示从一个联邦体的模型转移到另一个联邦体的模型所需的“能量”。定义活化能障碍为:
其中,表示联邦体和联邦体之间的活化能障碍,分别代表联邦体的模型权重;是一个调节参数,用于调整活化能障碍的大小。
进一步地,在各联邦成员之间进行模型和日志共享时,跨联邦的权重进行同步,基于活化能障碍的概念,权重同步策略可以表示为:
其中,是联邦体更新后的模型权重,是权重同步的学习率,是一个 衰减因子,表示活化能障碍对模型同步的影响。
基于此,当两个联邦体的模型非常相似时(活化能障碍较小),其权重同步会更快;反之,当两个联邦体的模型差异很大时,权重的同步会比较慢,从而避免过度扰动。
在一个具体实施例中,为了确保整体的学习效果,在每次跨联邦同步后进行模型的评估。评估策略可以表示为:
其中,是模型的整体评估得分,是联邦体在其数据上使用权重的 模型损失,是联邦体的总数。
图2本发明实施例提供的一种基于环形知识蒸馏和元联邦学习的动态模型训练系统示意图,所述元联邦学习包括M个元联邦, 一个元联邦由一个中央服务器和N个客户端组成,M、N为大于等于1的自然数,具体包括:
元联邦模块:包括本地训练模块、中心聚合模块、模型存储模块;
本地训练模块:所述N个客户端分别从所述中央服务器中获取初始全局模型,将本地数据输至所述初始全局模型中训练得到N个本地模型;
中心聚合模块:所述N个本地模型将模型参数输至中央服务器,所述中央服务器聚合所述模型参数并更新得到更新后的全局模型;
模型存储模块:重复上述步骤直至训练结束得到训练好的全局模型;
模型蒸馏模块:所述训练好的全局模型作为教师模型m1,所述M个元联邦中的下一个元联邦作为学生模型m1,所述学生模型m1通过知识蒸馏学习所述教师模型m1的参数进行更新得到教师模型m2,所述教师模型m2通过知识蒸馏将参数传给下一个学生模型mn,重复此步骤,直至所述教师模型m1转变为学习模型,形成环形架构;其中,任意学习模型通过蒸馏得到的参数后更新全局模型并传输至N个客户端中进行训练得到训练好的全局模型。
图3本发明实施例提供的一种基于环形知识蒸馏和元联邦学习的动态模型训练设备示意图,具体包括:
存储器和处理器;所述存储器用于存储程序指令;所述处理器用于调用程序指令,当程序指令被执行时任意一项上述的一种基于环形知识蒸馏和元联邦学习的动态模型训练方法。
一种计算机可读存储介质,所述计算机可读存储介质存储计算机程序,所述计算机程序被处理器执行时任意一项上述的一种基于环形知识蒸馏和元联邦学习的动态模型训练方法。
本验证实施例的验证结果表明,为适应症分配固有权重相对于默认设置来说可以改善本方法的性能。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,Random AccessMemory)、磁盘或光盘等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的介质存储可以是只读存储器,磁盘或光盘等。
以上对本发明所提供的一种计算机设备进行了详细介绍,对于本领域的一般技术人员,依据本发明实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (15)

1.一种基于环形知识蒸馏和元联邦学习的动态模型训练方法,其特征在于,所述元联邦学习包括M个元联邦, 一个元联邦由一个中央服务器和N个客户端组成,M、N为大于1的自然数,所述方法具体包括:
所述N个客户端分别从所述中央服务器中获取初始全局模型,将本地医学数据输至所述初始全局模型中训练得到N个本地模型;
所述N个本地模型将模型参数输至中央服务器,所述中央服务器聚合所述模型参数并更新得到更新后的全局模型;
重复上述步骤直至训练结束得到训练好的全局模型;
所述训练好的全局模型作为教师模型m1,所述M个元联邦中的下一个元联邦作为学生模型s1,所述学生模型s1通过知识蒸馏学习所述教师模型m1的参数进行更新得到教师模型m2,所述教师模型m2通过知识蒸馏将参数传给下一个学生模型sn,重复此步骤,直至所述教师模型m1转变为学习模型,形成环形架构;其中,任意学习模型通过蒸馏得到参数后更新全局模型并传输至N个客户端中进行训练得到训练好的全局模型;
所述元联邦通过活化能障碍表示联邦成员之间模型同步的困难度,所述活化能障碍是指一个模型转移到另一个模型需要的能量,当两个模型的所述活化能障碍小时,所述模型同步快,反之,则慢; 所述活化能障碍的具体公式为:
其中,表示联邦体/>和联邦体/>之间的活化能障碍,/>和/>分别代表联邦体/>和/>的模型权重;/>是一个调节参数。
2.根据权利要求1所述的基于环形知识蒸馏和元联邦学习的动态模型训练方法,其特征在于,为所述M个元联邦中每一个成员分配一个动态标识,根据所述动态标识为联邦成员进行分类和分级得到不同类别的元联邦和不同层级的元联邦,其中,所述动态标识是通过联邦成员的属性及行为特征计算得到的。
3.根据权利要求2所述的基于环形知识蒸馏和元联邦学习的动态模型训练方法,其特征在于,所述动态标识的公式表示为:
其中,为联邦成员/>的动态标识,/>为多维特性函数,/>为第/>个联邦成员的多维特性参数。
4.根据权利要求2所述的基于环形知识蒸馏和元联邦学习的动态模型训练方法,其特征在于,所述联邦成员之间通过对模型进行知识蒸馏来交换参数信息,所述参数信息的数据存储与访问机制分为共性知识积累阶段和个性化阶段两种形式;所述共性知识积累阶段是通过为每个数据块分配动态的量子密钥,同时建立数据间的关系图谱,当数据被修改或访问时,密钥会动态调整,关联数据会发生调整;所述个性化阶段与共性知识积累阶段方法相同,但模型会直接被传输至下一个元联邦,不会经过N个客户端训练的过程。
5.根据权利要求4所述的基于环形知识蒸馏和元联邦学习的动态模型训练方法,其特征在于,数据块被访问或修改时,所述量子密钥进行动态调整的公式为:
其中,生态系数、量子熵为/>原始密钥/>和调整后的秘钥为/>
6.根据权利要求4所述的基于环形知识蒸馏和元联邦学习的动态模型训练方法,其特征在于,所述关系图谱对调整的数据进行处理的公式为:
其中,生态系数、量子熵为/>,平衡因子/>,当/>超出预定的阈值/>,则需要对数据进行调整。
7.根据权利要求1所述的基于环形知识蒸馏和元联邦学习的动态模型训练方法,其特征在于,所有所述元联邦的模型公式表示为:
其中,是元联邦的数量,/>是联邦模型k的权重参数,/>是联邦模型k的样本数量,是全局模型的权重更新。
8.根据权利要求1所述的基于环形知识蒸馏和元联邦学习的动态模型训练方法,其特征在于,所述本地模型采用基于回响优化算法的神经网络进行训练,通过声波的回响行为优化神经网络的权重与偏置,所述权重与偏置的调整相当于声波的传播和反射,依据每一层的总回响评估当前所述权重与偏置是否需要调整。
9.根据权利要求8所述的基于环形知识蒸馏和元联邦学习的动态模型训练方法,其特征在于,所述总回响是网络层所有神经元回响值的加权和,具体公式为:
其中,是第i个和第k个神经元之间的连接权重;/>为在第k个神经元上的回响值;/>为第i个神经元的回响评估值。
10.根据权利要求8所述的基于环形知识蒸馏和元联邦学习的动态模型训练方法,其特征在于,所述基于回响优化算法的神经网络中采用回响序列更新回响值,所述回响序列中包括当前迭代的回响值与过去迭代的回响值,通过计算权重更新回响值。
11.根据权利要求8所述的基于环形知识蒸馏和元联邦学习的动态模型训练方法,其特征在于,所述基于回响优化算法的神经网络中采用回响衰减机制调整回响强度,所述回响衰减机制在迭代次数的增加时降低回响的强度。
12.根据权利要求1所述的基于环形知识蒸馏和元联邦学习的动态模型训练方法,其特征在于,对所述模型同步后进行模型评估,所述模型评估的策略表示为:
其中,是模型的整体评估得分,/>是联邦体/>在其数据上使用权重/>的模型损失,/>是联邦体的总数。
13.一种基于环形知识蒸馏和元联邦学习的动态模型训练系统,其特征在于,所述元联邦学习包括M个元联邦, 一个元联邦由一个中央服务器和N个客户端组成,M、N为大于1的自然数,所述系统具体包括:
元联邦模块:包括本地训练模块、中心聚合模块、模型存储模块;
本地训练模块:所述N个客户端分别从所述中央服务器中获取初始全局模型,将本地医学数据输至所述初始全局模型中训练得到N个本地模型;
中心聚合模块:所述N个本地模型将模型参数输至中央服务器,所述中央服务器聚合所述模型参数并更新得到更新后的全局模型;
模型存储模块:重复上述步骤直至训练结束得到训练好的全局模型;
模型蒸馏模块:所述训练好的全局模型作为教师模型m1,所述M个元联邦中的下一个元联邦作为学生模型s1,所述学生模型s1通过知识蒸馏学习所述教师模型m1的参数进行更新得到教师模型m2,所述教师模型m2通过知识蒸馏将参数传给下一个学生模型sn,重复此步骤,直至所述教师模型m1转变为学习模型,形成环形架构;其中,任意学习模型通过蒸馏得到的参数后更新全局模型并传输至N个客户端中进行训练得到训练好的全局模型;
所述元联邦通过活化能障碍表示联邦成员之间模型同步的困难度,所述活化能障碍是指一个模型转移到另一个模型需要的能量,当两个模型的所述活化能障碍小时,所述模型同步快,反之,则慢; 所述活化能障碍的具体公式为:
其中,表示联邦体/>和联邦体/>之间的活化能障碍,/>和/>分别代表联邦体/>和/>的模型权重;/>是一个调节参数。
14.一种基于环形知识蒸馏和元联邦学习的动态模型训练设备,其特征在于,包括:存储器与处理器,所述存储器用于存储程序指令;所述处理器用于调用程序指令,当程序指令被执行时实现权利要求1-12任意一项所述的一种基于环形知识蒸馏和元联邦学习的动态模型训练方法。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-12任意一项所述的一种基于环形知识蒸馏和元联邦学习的动态模型训练方法。
CN202311259462.0A 2023-09-27 2023-09-27 一种基于环形知识蒸馏和元联邦学习的动态模型训练方法、系统及设备 Active CN117010534B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311259462.0A CN117010534B (zh) 2023-09-27 2023-09-27 一种基于环形知识蒸馏和元联邦学习的动态模型训练方法、系统及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311259462.0A CN117010534B (zh) 2023-09-27 2023-09-27 一种基于环形知识蒸馏和元联邦学习的动态模型训练方法、系统及设备

Publications (2)

Publication Number Publication Date
CN117010534A CN117010534A (zh) 2023-11-07
CN117010534B true CN117010534B (zh) 2024-01-30

Family

ID=88569369

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311259462.0A Active CN117010534B (zh) 2023-09-27 2023-09-27 一种基于环形知识蒸馏和元联邦学习的动态模型训练方法、系统及设备

Country Status (1)

Country Link
CN (1) CN117010534B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117668622B (zh) * 2024-02-01 2024-05-10 山东能源数智云科技有限公司 设备故障诊断模型的训练方法、故障诊断方法及装置
CN118410860B (zh) * 2024-07-03 2024-09-24 杭州海康威视数字技术股份有限公司 联邦学习环境下高效的知识编辑方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114429219A (zh) * 2021-12-09 2022-05-03 之江实验室 一种面向长尾异构数据的联邦学习方法
CN116681144A (zh) * 2023-06-09 2023-09-01 安徽师范大学 基于动态自适应知识蒸馏的联邦学习模型聚合方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109492420B (zh) * 2018-12-28 2021-07-20 深圳前海微众银行股份有限公司 基于联邦学习的模型参数训练方法、终端、系统及介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114429219A (zh) * 2021-12-09 2022-05-03 之江实验室 一种面向长尾异构数据的联邦学习方法
CN116681144A (zh) * 2023-06-09 2023-09-01 安徽师范大学 基于动态自适应知识蒸馏的联邦学习模型聚合方法

Also Published As

Publication number Publication date
CN117010534A (zh) 2023-11-07

Similar Documents

Publication Publication Date Title
CN117010534B (zh) 一种基于环形知识蒸馏和元联邦学习的动态模型训练方法、系统及设备
Lu et al. Differentially private asynchronous federated learning for mobile edge computing in urban informatics
CN113052334B (zh) 一种联邦学习实现方法、系统、终端设备及可读存储介质
Chen et al. Fedgraph: Federated graph learning with intelligent sampling
CN106651030B (zh) 一种改进的rbf神经网络热点话题用户参与行为预测方法
CN102075352B (zh) 一种网络用户行为预测的方法和装置
He et al. Three-stage Stackelberg game enabled clustered federated learning in heterogeneous UAV swarms
Li et al. Application of deep neural network and deep reinforcement learning in wireless communication
CN113408209A (zh) 跨样本联邦分类建模方法及装置、存储介质、电子设备
Sun et al. Accelerating convergence of federated learning in MEC with dynamic community
CN117236421B (zh) 一种基于联邦知识蒸馏的大模型训练方法
CN114091667A (zh) 一种面向非独立同分布数据的联邦互学习模型训练方法
CN113254719B (zh) 一种基于地位理论的在线社交网络信息传播方法
CN115587633A (zh) 一种基于参数分层的个性化联邦学习方法
Gilbert et al. Emerging artificial societies through learning
CN116362329A (zh) 一种融合参数优化的集群联邦学习方法及设备
Hao et al. Waffle: Weight anonymized factorization for federated learning
CN116362327A (zh) 一种模型训练方法、系统及电子设备
Wang Analysis of bank credit risk evaluation model based on BP neural network
Zhang et al. FedSL: A Communication Efficient Federated Learning With Split Layer Aggregation
Chen et al. Enhanced hybrid hierarchical federated edge learning over heterogeneous networks
Luo et al. Communication-Efficient Federated Learning with Adaptive Aggregation for Heterogeneous Client-Edge-Cloud Network
Souza et al. Experience sharing between cooperative reinforcement learning agents
JP7382045B1 (ja) ネストされた連合学習によるマルチエージェント自己組織化デマンドレスポンス方法及びシステム
CN115936110B (zh) 一种缓解异构性问题的联邦学习方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant