CN112836822B - 基于宽度学习的联邦学习策略优化方法和装置 - Google Patents

基于宽度学习的联邦学习策略优化方法和装置 Download PDF

Info

Publication number
CN112836822B
CN112836822B CN202110220275.6A CN202110220275A CN112836822B CN 112836822 B CN112836822 B CN 112836822B CN 202110220275 A CN202110220275 A CN 202110220275A CN 112836822 B CN112836822 B CN 112836822B
Authority
CN
China
Prior art keywords
learning
feature
width
width learning
learning network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110220275.6A
Other languages
English (en)
Other versions
CN112836822A (zh
Inventor
陈晋音
张龙源
吴长安
刘涛
李荣昌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202110220275.6A priority Critical patent/CN112836822B/zh
Publication of CN112836822A publication Critical patent/CN112836822A/zh
Application granted granted Critical
Publication of CN112836822B publication Critical patent/CN112836822B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于宽度学习的联邦学习策略优化方法和装置,包括:(1)对边缘端的本地模型进行模型初始化,同时在服务器端部署宽度学习网络;(2)对本地模型进行预训练,采用主动学习策略筛选出信息熵含量前n大的n个较优特征向量上传至服务器端;(3)服务器端以n个较优特征向量作为宽度学习网络的输入数据,获得输出宽度学习网络对输出数据的预测置信度,并根据预测置信度更新宽度学习网络的参数,同时返回预测置信度至边缘端;(4)边缘端利用返回的预测置信度更新本地模型的参数;(5)迭代(2)~(4),参数确定的本地模型作为特征提取器,参数确定的宽度学习网络作为分类器,组成联邦学习模型,以提高模型的训练速度。

Description

基于宽度学习的联邦学习策略优化方法和装置
技术领域
本发明属于面向联邦学习的领域,具体涉及一种基于宽度学习的联邦学习策略优化方法和装置。
背景技术
联邦学习是一种机器学习设置,其中多个边缘端在中央服务器或服务提供商的协调下协作解决机器学习问题。移动电话、可穿戴设备和自动驾驶汽车等远程设备构成的现代网络每天都会生成大量数据。联邦学习涉及到直接在这些设备上训练统计模型,并引入了新的统计和系统挑战,需要从根本上背离为数据中心环境中的分布式优化而设计的标准方法。联邦学习,它允许多方在不共享数据的情况下协同训练模型。类似于中心化并行优化,联邦学习允许边缘端执行大部分计算,中心参数服务器使用用户设备返回的下降方向更新模型参数。
每个客户的原始数据都存储在本地,不进行交换或转移;相反,权重更新是狭义的更新,以包含针对特定学习任务所需的最少信息。在数据最小化服务中,尽可能早地执行聚合。
从统计的角度来看,每个设备以一种不相同和异构的方式收集数据,并且每个设备上的数据点的数量也可能存在显著差异。因此,联邦优化方法必须以一种稳健的方式设计,以便在处理异构统计数据时证明收敛性。从系统的角度来看,网络的规模和高昂的通信成本对联邦优化方法施加了两个额外的约束:(1)代价较高的网络优化和(2)高昂的通信成本。在参与方面,在每一轮通信中,建议的方法应该只需要少量的设备是活跃的。
有研究人员基于上述的联邦平均算法,提出新的聚合方法:研究者认为在数据非独立同分布条件下,更新的模型应该与下发的模型之间更相似。研究者通过限制本地数据更新模型的次数来限制模型间的相似度,最终实现了:(1)在模型训练方面,保证可以聚合的前提下,降低了通信轮数,也因此降低了通信代价。(2)对非独立同分布进行理论分析,分析其收敛困难的原因是在一个数据集上更新次数过多。
联邦学习可以借鉴分布式学习中处理非独立同分布的数据—稀疏化方法:选择单个模型中参数更新最大的k个值(最大的k个值最能代表数据更新的方向)。最终实现两个目标:(1)模型压缩,采用重要参数对模型进行更新(2)采用少量参数可以提升数据的安全性,避免因参数数据泄露边缘端信息。
发明内容
鉴于联邦学习通信成本高、数据异质性等问题导致模型收敛速度慢,同时鉴于训练好的联邦模型的无法进行参数优化修改或需要大量时间进行微调训练,以导致训练模型的代价高的问题,本发明提供了一种基于宽度学习的联邦学习策略优化方法,以提高模型的训练速度,以提高训练系统的效能。
本发明的技术方案为:
第一方面,一种基于宽度学习的联邦学习策略优化方法,包括以下步骤:
(1)对边缘端的本地模型进行模型初始化,同时在服务器端部署宽度学习网络,其中,宽度学习网络包括特征节点组成的特征层和增强节点组成的增强层以及全连接层;
(2)采用本地数据集对本地模型进行预训练,同时采用主动学习策略筛选出信息熵含量前n大的n个较优特征向量上传至服务器端;
(3)服务器端以n个较优特征向量作为宽度学习网络的输入数据,获得输出宽度学习网络对输出数据的预测置信度,并根据预测置信度更新宽度学习网络的参数,同时返回预测置信度至边缘端;
(4)边缘端利用返回的预测置信度更新本地模型的参数;
(5)重复迭代步骤(2)~步骤(4),直到达到迭代终止条件,参数确定的本地模型作为特征提取器,参数确定的宽度学习网络作为分类器,组成联邦学习模型。
第二方面,一种基于宽度学习的联邦学习策略优化装置,包括计算机存储器、计算机处理器以及存储在所述计算机存储器中并可在所述计算机处理器上执行的计算机程序,所述计算机处理器执行所述计算机程序时实现上述基于宽度学习的联邦学习策略优化方法。
与现有技术相比,本发明具有的有益效果至少包括:
1)利用宽度学习来将模型训练分为边缘端的用于特征提取器的本地模型的训练以及服务器端的用作分类器的宽度学习网络的训练,在训练过程中,利用宽度学习的快速拟合来减小服务器端模型的训练时间,提升训练效果,与此同时,利用联邦学习训练多个用作特征提取器的本地模型,让宽度学习的训练集更加多元化,提升模型的鲁棒性。2)在边缘端的特征向量上传到服务器端前,利用半监督学习的方式选取使得模型训练最快或者对模型训练帮助最大的一部分数据集,可以使得宽度学习收敛更快。3)在服务器端将训练分为两个阶段,第一阶段进行模型的粗粒度特征学习阶段,第二阶段进行模型的细粒度特征学习阶段,以此来加快模型训练,提升模型训练效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动前提下,还可以根据这些附图获得其他附图。
图1是本发明提供实施例的基于宽度学习的联邦学习策略优化方法的流程图;
图2是本发明实施例提供的联邦学习策略优化方法的原理框图;
图3是本发明实施例提供的宽度学习的训练初期的网络图;
图4是本发明实施例提供的宽度学习的训练中期的网络图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
联邦学习存在的异质性问题以及训练效率问题:在构建数据集时操作不当,过多选取某一类数据进行训练,或者数据集内数据质量差,使得生成的模型效果较差。联邦学习的数据异质性原因:样本量不足、少量设备活跃(某一类或者某几类样本较多)、数据非独立同分布(联邦学习的聚合算法虽然在non-IID条件下可以使用,但是理论证明不足)。
基于此种情况,实施例提供了一种基于宽度学习的联邦学习策略优化方法,利用宽度学习来优化联邦学习的生成策略。首先,利用主动学习等半监督学习方法,对每个边缘端存在的数据集进行查询,再根据不同的选择策略来根据不同情况进行数据集的选取(最小loss选取,最大信息熵选取);其次搭建宽度学习框架,并根据宽度学习的进度设置不同的特征层以及强化层,并更新模型权重,以最大化的使用宽度学习的优势,也就是可以通过添加较少的特征节点来进行模型的升级;最后将边缘端上传的数据特征的置信度返回至边缘端,用来让边缘端的数据进行更新。
图1是本发明提供实施例的基于宽度学习的联邦学习策略优化方法的流程图。图2是本发明实施例提供的联邦学习策略优化方法的原理框图。如图1和图2所示,实施例提供的基于宽度学习的联邦学习策略优化方法,包括以下步骤:
步骤1,初始化
初始化包括对边缘端的本地模型进行模型初始化和在服务器端部署宽度学习网络。
在对边缘端的本地模型进行模型初始化时,需要确定训练总轮次E,本地数据集,参与联邦学习的本地模型个数M。每轮参与训练的设备数K(K≤M)。将需要训练的每个特征提取器作为本地模型发送给每个边缘端。
服务器端部署的宽度学习网络作为分类器,主要包括宽度学习网络包括特征节点组成的特征层和增强节点组成的增强层以及全连接层。部署宽度学习网络时,还需要确定宽度学习的特征节点个数和增强节点个数。
步骤2,采用本地数据集对本地模型进行预训练。
具体地,将本地数据集输入至边缘端的本地模型中,生成特征向量。
步骤3,采用主动学习策略筛选出信息熵含量前n大的n个较优特征向量上传至服务器端。
实施例中,采用公式(1)筛选获得信息熵含量前n大的n个较优特征向量
其中,k为边缘端和本地模型的索引,Xk、Yk分别表示第k个边缘端的样本数据集和对应的样本标签集,xi、yi分别表示第i个样本数据和对应的样本标签,L1(yi,xi)表示计算xi与yi距离的2范数。公式(1)可以理解为通过增加一个标注的样本信息熵含量最大,多次循环,选取n个最优特征向量作为上传的特征向量上传至服务器端。
步骤4,服务器端以n个较优特征向量作为宽度学习网络的输入数据,获得输出宽度学习网络对输出数据的预测置信度。
具体地,服务器端依据n个较优特征向量进行宽度学习的训练初期,也就是当循环训练次数小于等于总循环训练次数,即t≤E/2时,宽度学习的过程为:
Hm=ξ(ZNWmm),m=1,2,...,M (3)
其中,Ws、βs分别表示宽度学习网络中特征节点的权重参数和偏置参数,Zs表示第s个特征节点的输出,表示特征节点的激活函数,ZN表示N个特征节点的输出的拼接矩阵,作为特征节点的输入,Wm、βm分别表示宽度学习网络中增强节点的权重参数和偏置参数,Hm表示第m个增强节点的输出,ξ(·)表示增强节点的激活函数,HM表示M个增强节点的输出的拼接矩阵,符号∣表示拼接操作,ZN∣HM表示矩阵ZN与矩阵HM的拼接矩阵,W是全连接层的权重,Y表示宽度学习网络输出的预测置信度矩阵,其维度与分类类别数相同。
服务器端依据n个较优特征向量进行宽度学习的训练中期,也就是当循环训练次数大于总循环训练次数,即t>E/2时,宽度学习的过程为:
Hm=ξ(ZN+pWmm),m=M+1,...,M+q (6)
其中,p为特征层增加的特征节点的个数,其输入为较优特征向量Ws、βs分别表示宽度学习网络中特征节点的权重参数和偏置参数,Zs表示第s个特征节点的输出,/>表示特征节点的激活函数,ZN+p表示N+p个特征节点的输出的拼接矩阵,作为特征节点的输入,Wm、βm分别表示宽度学习网络中增强节点的权重参数和偏置参数,Hm表示第m个增强节点的输出,ξ(·)表示增强节点的激活函数,q为增强层增加的增强节点的个数,HM+q表示M+q个增强节点的输出的拼接矩阵,符号∣表示拼接操作,ZN+p∣HM+q表示矩阵ZN+p与矩阵HM+q的拼接矩阵,W是全连接层的权重,Y表示宽度学习网络输出的预测置信度矩阵,其维度与分类类别数相同。
步骤5,根据预测置信度更新宽度学习网络的参数。
实施例中,采用公式(8)更新宽度学习网络的参数:
其中,表示属于特征向量/>的第i个特征向量对应的标签yi与预测置信度Yi之间的交叉熵损失函数,η表示宽度学习网络的学习率,/>表示第t轮更新网络学习网络的模型参数,/>表示第t+1轮更新网络学习网络的模型参数,K表示本地模型的总个数。
步骤6,边缘端利用返回的预测置信度更新本地模型的参数。
实施例中,采用公式(9)来更新本地模型的参数;
其中,表示属于特征向量/>的第i个特征向量对应的标签yi与预测置信度Yi之间的交叉熵损失函数,/>表示特征向量的个数,/>表示函数相对于/>求导,即损失函数梯度,/>表示第t轮第k个本地模型参数。
步骤7,重复步骤2-6,直到到达总轮数E,参数确定的本地模型作为特征提取器,参数确定的宽度学习网络作为分类器,组成联邦学习模型。
实施例提供了一种基于宽度学习的联邦学习策略优化装置,包括计算机存储器、计算机处理器以及存储在所述计算机存储器中并可在所述计算机处理器上执行的计算机程序,所述计算机处理器执行所述计算机程序时实现上述基于宽度学习的联邦学习策略优化方法。
在实际应用中,处理器可以由基站服务器的中央处理器(CPU)、微处理器(MPU)、数字信号处理器(DSP)、或现场可编程门阵列(FPGA)等实现。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于宽度学习的联邦学习策略优化方法,其特征在于,包括以下步骤:
(1)对包括移动电话、可穿戴设备或自动驾驶汽车的远程设备边缘端的本地模型进行模型初始化,同时在服务器端部署宽度学习网络,其中,宽度学习网络包括特征节点组成的特征层和增强节点组成的增强层以及全连接层;
(2)采用本地数据集对本地模型进行预训练,同时采用主动学习策略筛选出信息熵含量前n大的n个较优特征向量上传至服务器端,其中:
采用公式(1)筛选获得信息熵含量前n大的n个较优特征向量
其中,k为边缘端和本地模型的索引,Xk、Yk分别表示第k个边缘端的样本数据集和对应的样本标签集,xi、yi分别表示第i个样本数据和对应的样本标签,L1(yi,xi)表示计算xi与yi距离的2范数;
(3)服务器端以n个较优特征向量作为宽度学习网络的输入数据,获得输出宽度学习网络对输出数据的预测置信度,并根据预测置信度更新宽度学习网络的参数,同时返回预测置信度至边缘端,其中:
服务器端依据n个较优特征向量进行宽度学习的训练初期,也就是当循环训练次数小于等于总循环训练次数时,宽度学习的过程为:
Hm=ξ(ZNWmm),m=1,2,…,M (3)
其中,Ws、βs分别表示宽度学习网络中特征节点的权重参数和偏置参数,Zs表示第s个特征节点的输出,表示特征节点的激活函数,ZN表示N个特征节点的输出的拼接矩阵,作为特征节点的输入,Wm、βm分别表示宽度学习网络中增强节点的权重参数和偏置参数,Hm表示第m个增强节点的输出,ξ(·)表示增强节点的激活函数,HM表示M个增强节点的输出的拼接矩阵,符号∣表示拼接操作,ZN∣HM表示矩阵ZN与矩阵HM的拼接矩阵,W是全连接层的权重,Y表示宽度学习网络输出的预测置信度矩阵,其维度与分类类别数相同;
服务器端依据n个较优特征向量进行宽度学习的训练中期,也就是当循环训练次数大于总循环训练次数时,宽度学习的过程为:
Hm=ξ(ZN+pWmm),m=M+1,…,M+q (6)
其中,p为特征层增加的特征节点的个数,其输入为较优特征向量Ws、βs分别表示宽度学习网络中特征节点的权重参数和偏置参数,Zs表示第s个特征节点的输出,/>表示特征节点的激活函数,ZN+p表示N+p个特征节点的输出的拼接矩阵,作为特征节点的输入,Wm、βm分别表示宽度学习网络中增强节点的权重参数和偏置参数,Hm表示第m个增强节点的输出,ξ(·)表示增强节点的激活函数,q为增强层增加的增强节点的个数,HM+q表示M+q个增强节点的输出的拼接矩阵,符号∣表示拼接操作,ZN+p∣HM+q表示矩阵ZN+p与矩阵HM+q的拼接矩阵,W是全连接层的权重,Y表示宽度学习网络输出的预测置信度矩阵,其维度与分类类别数相同;
(4)边缘端利用返回的预测置信度更新本地模型的参数;
(5)重复迭代步骤(2)~步骤(4),直到达到迭代终止条件,参数确定的本地模型作为特征提取器,参数确定的宽度学习网络作为分类器,组成联邦学习模型。
2.如权利要求1所述的基于宽度学习的联邦学习策略优化方法,其特征在于,采用公式(8)更新宽度学习网络的参数:
其中,表示属于特征向量/>的第i个特征向量对应的标签yi与预测置信度Yi之间的交叉熵损失函数,η表示宽度学习网络的学习率,/>表示第t轮更新网络学习网络的模型参数,/>表示第t+1轮更新网络学习网络的模型参数,K表示本地模型的总个数。
3.如权利要求1所述的基于宽度学习的联邦学习策略优化方法,其特征在于,采用公式(9)来更新本地模型的参数;
其中,表示属于特征向量/>的第i个特征向量对应的标签yi与预测置信度Yi之间的交叉熵损失函数,/>表示特征向量的个数,/>表示函数/>相对于/>求导,即损失函数梯度,/>表示第t轮第k个本地模型参数。
4.如权利要求1所述的基于宽度学习的联邦学习策略优化方法,其特征在于,对边缘端的本地模型进行模型初始化时,需要确定训练总轮次,本地数据集,初始化宽度学习的特征节点个数和增强节点个数,参与联邦学习的本地模型个数。
5.一种基于宽度学习的联邦学习策略优化装置,包括计算机存储器、计算机处理器以及存储在所述计算机存储器中并可在所述计算机处理器上执行的计算机程序,其特征在于,所述计算机处理器执行所述计算机程序时实现权利要求1~4任一项所述的基于宽度学习的联邦学习策略优化方法。
CN202110220275.6A 2021-02-26 2021-02-26 基于宽度学习的联邦学习策略优化方法和装置 Active CN112836822B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110220275.6A CN112836822B (zh) 2021-02-26 2021-02-26 基于宽度学习的联邦学习策略优化方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110220275.6A CN112836822B (zh) 2021-02-26 2021-02-26 基于宽度学习的联邦学习策略优化方法和装置

Publications (2)

Publication Number Publication Date
CN112836822A CN112836822A (zh) 2021-05-25
CN112836822B true CN112836822B (zh) 2024-05-28

Family

ID=75933933

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110220275.6A Active CN112836822B (zh) 2021-02-26 2021-02-26 基于宽度学习的联邦学习策略优化方法和装置

Country Status (1)

Country Link
CN (1) CN112836822B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113518007B (zh) * 2021-07-06 2022-09-20 华东师范大学 一种基于联邦学习的多物联网设备异构模型高效互学习方法
CN113378993B (zh) * 2021-07-09 2023-01-10 深圳前海微众银行股份有限公司 基于人工智能的分类方法、装置、设备及存储介质
CN116894485B (zh) * 2023-07-11 2024-07-30 广东工业大学 一种基于隐私保护的增量宽度学习系统及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102238555A (zh) * 2011-07-18 2011-11-09 南京邮电大学 认知无线电中基于协作学习的多用户动态频谱接入方法
CN111754000A (zh) * 2020-06-24 2020-10-09 清华大学 质量感知的边缘智能联邦学习方法及系统
CN112116012A (zh) * 2020-09-23 2020-12-22 大连海事大学 一种基于深度学习的手指静脉即时注册、识别方法及系统
CN112348201A (zh) * 2020-11-11 2021-02-09 扬州大学 一种基于联邦深度强化学习的自动驾驶群车的智能决策实现方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11313950B2 (en) * 2019-01-15 2022-04-26 Image Sensing Systems, Inc. Machine learning based highway radar vehicle classification across multiple lanes and speeds

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102238555A (zh) * 2011-07-18 2011-11-09 南京邮电大学 认知无线电中基于协作学习的多用户动态频谱接入方法
CN111754000A (zh) * 2020-06-24 2020-10-09 清华大学 质量感知的边缘智能联邦学习方法及系统
CN112116012A (zh) * 2020-09-23 2020-12-22 大连海事大学 一种基于深度学习的手指静脉即时注册、识别方法及系统
CN112348201A (zh) * 2020-11-11 2021-02-09 扬州大学 一种基于联邦深度强化学习的自动驾驶群车的智能决策实现方法

Also Published As

Publication number Publication date
CN112836822A (zh) 2021-05-25

Similar Documents

Publication Publication Date Title
CN112836822B (zh) 基于宽度学习的联邦学习策略优化方法和装置
Kim et al. Dynamic clustering in federated learning
Shi et al. Machine learning for large-scale optimization in 6g wireless networks
CN110968426B (zh) 一种基于在线学习的边云协同k均值聚类的模型优化方法
CN110324170B (zh) 数据分析设备、多模型共决策系统及方法
CN112153616B (zh) 一种基于深度学习的毫米波通信系统中的功率控制方法
CN110113288B (zh) 一种基于机器学习的ofdm解调器的设计和解调方法
EP4143752A1 (en) Methods and apparatuses for federated learning
CN113222179A (zh) 一种基于模型稀疏化与权重量化的联邦学习模型压缩方法
CN109474388B (zh) 基于改进梯度投影法的低复杂度mimo-noma系统信号检测方法
Balakrishnan et al. Resource management and fairness for federated learning over wireless edge networks
CN112910811B (zh) 基于联合学习的噪声水平未知条件下的盲调制识别方法和装置
CN110263236B (zh) 基于动态多视图学习模型的社交网络用户多标签分类方法
TWI756438B (zh) 用於無線通訊的電子設備和方法
CN116523079A (zh) 一种基于强化学习联邦学习优化方法及系统
CN112287990A (zh) 一种基于在线学习的边云协同支持向量机的模型优化方法
CN115829027A (zh) 一种基于对比学习的联邦学习稀疏训练方法及系统
CN115169575A (zh) 个性化联邦学习方法、电子设备及计算机可读存储介质
CN113011448B (zh) 一种基于迁移学习的多用户下行信道估计方法及装置
CN113516163B (zh) 基于网络剪枝的车辆分类模型压缩方法、装置及存储介质
Zhang et al. Federated multi-task learning with non-stationary heterogeneous data
CN113660674B (zh) 一种智能实现网络构建和网络优化的方法
Omondi et al. Variational autoencoder-enhanced deep neural network-based detection for MIMO systems
Mohammad et al. Optimal task allocation for mobile edge learning with global training time constraints
CN115640845A (zh) 基于生成对抗网络的图神经网络少数类别样本生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant