CN112734032A - 一种用于横向联邦学习的优化方法 - Google Patents
一种用于横向联邦学习的优化方法 Download PDFInfo
- Publication number
- CN112734032A CN112734032A CN202011635450.XA CN202011635450A CN112734032A CN 112734032 A CN112734032 A CN 112734032A CN 202011635450 A CN202011635450 A CN 202011635450A CN 112734032 A CN112734032 A CN 112734032A
- Authority
- CN
- China
- Prior art keywords
- data
- client
- federal learning
- smote
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000005457 optimization Methods 0.000 title claims abstract description 21
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000012545 processing Methods 0.000 claims abstract description 6
- 238000011156 evaluation Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 claims 1
- 238000002474 experimental method Methods 0.000 description 20
- 230000000694 effects Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000013467 fragmentation Methods 0.000 description 1
- 238000006062 fragmentation reaction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000001617 migratory effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明属于联邦学习以及大数据技术领域,具体涉及一种用于横向联邦学习的优化方法,包括以下步骤:S1、客户端采集数据,并对数据进行预处理;S2、通过SMOTE‑Non‑IID模型处理客户端的数据;S3、通过横向联邦学习中的客户端‑服务器架构,结合数据生成环境,进行SMOTE‑Non‑IID模型训练;S4、得到SMOTE‑Non‑IID的优化模型,通过预测以得到评估结果;本发明每个客户端采用SMOTE算法合成数据,同时接收来自其他客户端的合成数据,有效处理联邦学习中数据异构性问题,能够保证较高预测准确率。
Description
技术领域
本发明属于联邦学习以及大数据技术领域,具体涉及一种用于横向联邦学习的优化方法。
背景技术
在人工智能应用过程中,企业以及其他组织很难获取大量优质数据用于AI模型效果提升。不同组织之间出于利益考量往往不提供各自数据进行聚合,导致数据以孤岛形式存在;同时国内外监管环境也在逐步加强数据管理,陆续出台相关隐私保护政策。因此未来在不同组织之间进行数据的整合工作将是十分有挑战性的,如何在遵守更为严格隐私保护条例下解决数据碎片化和数据隔离的问题是当前人工智能研究者和实践者面临的首要挑战。
为了解决目前存在的数据孤岛以及隐私保护问题,学者们开始使用联邦学习的方法来对AI模型效果进行提升,力求在保证数据隐私安全及合法合规的基础上实现共同建模,提升AI模型效果。根据每个参与共同建模的企业(参与方)数据分布的不同,联邦学习分为:横向联邦学习、纵向联邦学习以及联邦迁移学习。其中横向联邦学习适用于业态相同但触达客户不同,即特征重叠多、用户重叠少的场景,比如不同地区的银行间,它们的业务相似(特征相似)但用户不同(样本不同)。
然而,横向联邦学习参与方来源数据复杂,很难保证独立同分布这一条件,而现有横向联邦学习优化方法基于数据独立同分布假设前提,往往不能获得预期的效果。为此,有必要对其进行改进,以克服实际应用中的不足。
发明内容
基于现有技术中存在的上述缺点和不足,本发明的目的之一是至少解决现有技术中存在的上述问题之一或多个,换言之,本发明的目的之一是提供满足前述需求之一或多个的一种用于横向联邦学习的优化方法。
为了达到上述发明目的,本发明采用以下技术方案:
一种用于横向联邦学习的优化方法,包括以下步骤:
S1、客户端采集数据,并对数据进行预处理;
S2、通过SMOTE-Non-IID模型处理客户端的数据;
S3、通过横向联邦学习中的客户端-服务器架构,结合数据生成环境,进行SMOTE-Non-IID模型训练;
S4、得到SMOTE-Non-IID的优化模型,通过预测以得到评估结果。
作为优选方案,所述步骤S1中,通过采集特征相似、样本不同的来源数据,模拟现实场景中业态相似、触达客户不同的客户端,并对数据进行归一化预处理。
作为优选方案,所述步骤S2包括:
S2-1、将客户端按照标签进行分类,使得客户端数量等于标签数量,以使每个客户端有且仅有一个标签;
S2-2、数个客户端分别使用SMOTE算法生成合成数据,并将合成数据传递给服务器,由服务器将合成数据分配给各个客户端,以实现IID分布。
作为优选方案,所述SMOTE算法具体包括:
S2-2-1:对于少数类中的每一个样本,以欧氏距离为标准计算得到少数类样本集中所有样本的距离,得到其k近邻;
S2-2-2:根据样本不平衡比例设置采样倍率N,对于每一个少数类样本x,从其k近邻中随机选取若干个样本,假设选择的近邻为xn;
S2-2-3:对于每一个随机选出的近邻xn,分别与原样本构建新的样本。
作为优选方案,所述步骤S3具体包括:
S3-1、通过神经网络初始化,以得到初始模型参数,并将初始模型参数发给客户端;
S3-2、客户端本地更新模型参数;
S3-3、客户端将更新模型参数通过加法同态加密后,将已加密模型参数以及相关损失发送给服务器;
S3-4、服务器对收到的模型参数解密后进行聚合;
S3-5、服务器检查损失函数是否收敛或者是否达到最大训练轮次;若是,则服务器给各客户端发信号,使其全部停止模型训练;若不是,则返回S3-2;
S3-6、服务器将聚合后的模型参数发送给所有客户端。
作为优选方案,所述步骤S3-2包括:
S3-2-2:随机选取一个批次数据,前馈计算每一层的净输入值z(l)和激活值a(l),直到最后一层;
S3-2-3:计算输出层输出O与训练数据样本实际输出Y之间交叉熵损失函数,定义损失函数为:
其中y∈{0,1}C为标签y对应的one-hot向量表示.
S3-2-4:反向传播计算每一层的误差δ(l);根据链式法则,第l层的误差项为:
其中⊙是向量的点积运算符,表示每个元素相乘
S3-2-5:计算梯度;
S3-2-6:本地更新模型参数;
本发明与现有技术相比,有益效果是:
1、本发明利用SMOTE算法结合横向联邦学习,将横向联邦学习中参与方的数据处理为IID分布,采用典型的横向联邦学习系统的客户-服务器架构,结合上述生成的数据环境进行SMOTE-Non-IID模型训练,最终得到SMOTE-Non-IID优化模型评估结果。
2、本发明的每个客户端(即参与方)采用SMOTE算法合成数据,同时接收来自其他客户端的合成数据,能够有效处理联邦学习中数据异构性问题,帮助业态相似但触达用户不同的企业之间应用横向联邦学习进行模型共建与效果提升,有助于推进横向联邦学习商业落地应用。
3、本发明通过生成的数据集并采用加法同态加密的模型平均算法与服务器开展横向联邦学习,强调在模型训练期间保护数据隐私,利于更好应对愈发严格的用户隐私与数据安全的监管环境。
附图说明
图1是本发明实施例的实验1(IID)与实验2(Non-IID)的架构示例图;
图2是本发明实施例的实验3(SMOTE-Non-IID)的架构示例图。
具体实施方式
为了更清楚地说明本发明实施例,下面将对照附图说明本发明的具体实施方式。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,并获得其他的实施方式。
实施例:
本实施例提供一种用于横向联邦学习的优化方法,具体包括以下步骤:
S1:采集特征相似但样本不同的来源数据,模拟现实场景中业态相似、触达客户不同的参与方的数据状态,并对数据进行归一化预处理;
S2:基于SMOTE-Non-IID模型策略处理各个客户端(参与方)本地数据的非独立同分布(Non-Idependently and Identically Distributed,Non-IID)的数据异构性;
S2-1:将处理后的数据根据标签分类,将客户端按照数据标签进行分类,使得客户端的数量等于数据的标签数,同时保证每个客户端有且仅有一个标签;
S2-2:每个客户端使用SMOTE算法生成合成数据,并将这些数据传递给服务器(协调方),最后由服务器将这些合成数据分配给各个客户端,保证IID分布;
其中,SMOTE算法的基本思想是对少数类样本进行分析并根据少数类样本人工合成新样本添加到数据集中,具体步骤如下:
S2-2-1:对于少数类中的每一个样本,以欧氏距离为标准计算它到少数类样本集中所有样本的距离,得到其k近邻;
S2-2-2:根据样本不平衡比例设置一个采样比例以确定采样倍率N,对于每一个少数类样本x,从其k近邻中随机选择若干个样本,假设选择的近邻为xn;
S2-2-3:对于每一个随机选出的近邻xn,分别与原样本按照如下的公式构建新的样本;
S3:采用典型的横向联邦学习系统的客户-服务器架构,使用加法同态加密的模型平均算法,结合上述生成的数据集进行SMOTE-Non-IID模型训练,具体步骤如下:
S3-1:神经网络初始化,给定训练数据样本集(X,Y),给定输入层节点数M、输出层节点数N,初始化参数W,给定学习率η,给定神经元激活函数f(·);给定每一轮中进行计算的参与方的占比ρ,每一轮中每一个参与方在本地数据集进行训练的步骤数S,参与方更新时使用的mini-batch(最小批量)的大小M;
BP神经网络采用单隐层结构,选取迭代次数S为5,给定学习率η为0.1,初始权重值和阈值均为0~1之间的随机数;参与方的个数K,激活函数为Sigmoid函数。初始化模型参数w0,并将原始的模型参数w0广播给所有的参与方;
S3-2:参与方本地更新模型参数;
S3-2-2:随机选取一个批次数据,前馈计算每一层的净输入值z(l)和激活值a(l),直到最后一层;(l表示神经网络的层数)
S3-2-3:计算输出层输出O与训练数据样本实际输出Y之间交叉熵损失函数,定义损失函数为:
其中y∈{0,1}C为标签y对应的one-hot向量表示.
S3-2-4:反向传播计算每一层的误差δ(l);根据链式法则,第l层的误差项为:
其中⊙是向量的点积运算符,表示每个元素相乘
S3-2-5:计算梯度;
S3-2-6:本地更新模型参数;
S4、得到SMOTE-Non-IID的优化模型,通过预测以得到评估结果。
S4-1:进行实验1与实验2的数据处理,实验1将数据进行混洗后平均分配给10个客户端,实验2将数据按照标签进行分类后,客户端依据数据标签进行分类,并保证客户端的数量等于数据标签数且每个客户端仅有一种标签;
S4-2:实验3按照权利要求2所述方法步骤进行设计,随后三种实验中的每个客户端与服务器采用加法同态加密的模型平均算法进行横向联邦学习,得到实验结果。
S4-3:分别对new、iri、gla、Zoo四个数据集实施三种策略。
SMOTE(Synthetic Minority Oversampling Technique)算法是基于随机过采样算法的一种改进方案,由于随机过采样采取简单复制样本的策略来增加少数类样本容易产生模型过拟合的问题,而SMOTE算法的基本思想是对少数类样本进行分析后人工合成新样本添加到数据集中,可有效避免模型过拟合。
Non-IID(Non-Independent and identically distributed)在统计学中指变量之间非独立或非同分布,在联邦学习中一般指各个客户端所含数据样本不符合同分布条件。
基于SMOTE-Non-IID模型策略处理数据异构性为:数据根据标签分类后,将客户端按照数据标签进行分类,使得客户端的数量等于数据的标签数,同时保证每个客户端有且仅有一个标签;每个客户端使用SMOTE算法生成合成数据,并将这些数据传递给服务器,最后由服务器将这些合成数据分配给各个客户端,保证IID分布。
实验验证:
为了验证本发明优化方法的性能,设计了三组实验进行对比:
实验1设定参与方的数据满足IID(即独立同分布)条件,将数据进行混洗后平均分配给10个客户端,且设定客户端(即参与方)与服务器(即协调方)进行横向联邦学习;
实验2设定参与方的数据满足Non-IID(即非独立同分布)条件,将客户端按照数据标签进行分类,使得客户端的数量等于数据的标签数,并保证每个客户端有且仅有一种标签,同时设定各客户端与服务器进行横向联邦学习;
实验3模型首先将数据按照实验2的方法分配给各客户端,随后每个客户端使用SMOTE算法合成数据,且设定每个客户端接收来自其他客户端的所有合成数据并保证IID分布,随后每个客户端与服务器进行横向联邦学习。
其中,实验1与实验2的架构如图1所示,实验3的架构如图2所示。
IID、Non-IID、SMOTE-Non-IID三种实验的预测准确率,分别对new、iri、gla、Zoo四个数据集实施三种策略,结果如下表1所示。
表1 IID、Non-IID、SMOTE-Non-IID三种实验的预测准确率
以上结果表明,本发明的SMOTE-Non-IID模型策略预测准确率远高于数据Non-IID(即非独立同分布)设定的模型预测准确率,一度接近数据IID(即独立同分布)设定的模型实验结果;由于横向联邦学习上的参与方数据来源很难保证独立同分布这一假设条件,现实中的数据往往更为复杂,而本发明在处理数据异构性问题的前提下仍然能够保证较高预测准确率,因此,本发明为企业应用横向联邦学习共建模型落地应用做出一定贡献。
以上所述仅是对本发明的优选实施例及原理进行了详细说明,对本领域的普通技术人员而言,依据本发明提供的思想,在具体实施方式上会有改变之处,而这些改变也应视为本发明的保护范围。
Claims (6)
1.一种用于横向联邦学习的优化方法,其特征在于,包括以下步骤:
S1、客户端采集数据,并对数据进行预处理;
S2、通过SMOTE-Non-IID模型处理客户端的数据;
S3、通过横向联邦学习中的客户端-服务器架构,结合数据生成环境,进行SMOTE-Non-IID模型训练;
S4、得到SMOTE-Non-IID的优化模型,通过预测以得到评估结果。
2.根据权利要求1所述的一种用于横向联邦学习的优化方法,其特征在于,所述步骤S1中,通过采集特征相似、样本不同的来源数据,模拟现实场景中业态相似、触达客户不同的客户端,并对数据进行归一化预处理。
3.根据权利要求1所述的一种用于横向联邦学习的优化方法,其特征在于,所述步骤S2包括:
S2-1、将客户端按照标签进行分类,使得客户端数量等于标签数量,以使每个客户端有且仅有一个标签;
S2-2、数个客户端分别使用SMOTE算法生成合成数据,并将合成数据传递给服务器,由服务器将合成数据分配给各个客户端,以实现IID分布。
4.根据权利要求3所述的一种用于横向联邦学习的优化方法,其特征在于,所述SMOTE算法具体包括:
S2-2-1:对于少数类中的每一个样本,以欧氏距离为标准计算得到少数类样本集中所有样本的距离,得到其k近邻;
S2-2-2:根据样本不平衡比例设置采样倍率N,对于每一个少数类样本x,从其k近邻中随机选取若干个样本,假设选择的近邻为xn;
S2-2-3:对于每一个随机选出的近邻xn,分别与原样本构建新的样本。
5.根据权利要求1所述的一种用于横向联邦学习的优化方法,其特征在于,所述步骤S3具体包括:
S3-1、通过神经网络初始化,以得到初始模型参数,并将初始模型参数发给客户端;
S3-2、客户端本地更新模型参数;
S3-3、客户端将更新模型参数通过加法同态加密后,将已加密模型参数以及相关损失发送给服务器;
S3-4、服务器对收到的模型参数解密后进行聚合;
S3-5、服务器检查损失函数是否收敛或者是否达到最大训练轮次;若是,则服务器给各客户端发信号,使其全部停止模型训练;若不是,则返回S3-2;
S3-6、服务器将聚合后的模型参数发送给所有客户端。
6.根据权利要求5所述的一种用于横向联邦学习的优化方法,其特征在于,所述步骤S3-2包括:
S3-2-2:随机选取一个批次数据,前馈计算每一层的净输入值z(l)和激活值a(l),直到最后一层;
S3-2-3:计算输出层输出O与训练数据样本实际输出Y之间交叉熵损失函数,定义损失函数为:
其中y∈{0,1}C为标签y对应的one-hot向量表示.
S3-2-4:反向传播计算每一层的误差δ(l);根据链式法则,第l层的误差项为:
其中⊙是向量的点积运算符,表示每个元素相乘
S3-2-5:计算梯度;
S3-2-6:本地更新模型参数;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011635450.XA CN112734032A (zh) | 2020-12-31 | 2020-12-31 | 一种用于横向联邦学习的优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011635450.XA CN112734032A (zh) | 2020-12-31 | 2020-12-31 | 一种用于横向联邦学习的优化方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112734032A true CN112734032A (zh) | 2021-04-30 |
Family
ID=75608784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011635450.XA Pending CN112734032A (zh) | 2020-12-31 | 2020-12-31 | 一种用于横向联邦学习的优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112734032A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113033712A (zh) * | 2021-05-21 | 2021-06-25 | 华中科技大学 | 一种基于联邦学习的多用户协同训练人流统计方法及系统 |
CN113255002A (zh) * | 2021-06-09 | 2021-08-13 | 北京航空航天大学 | 一种保护多方隐私的联邦k近邻查询方法 |
CN113657607A (zh) * | 2021-08-05 | 2021-11-16 | 浙江大学 | 一种面向联邦学习的连续学习方法 |
CN113792856A (zh) * | 2021-09-09 | 2021-12-14 | 电子科技大学 | 基于vae医疗保健联邦学习框架的确定方法 |
CN113792324A (zh) * | 2021-11-16 | 2021-12-14 | 聊城高新生物技术有限公司 | 基于联邦学习的农产品数据交互方法、装置及电子设备 |
CN114401154A (zh) * | 2022-03-24 | 2022-04-26 | 华控清交信息科技(北京)有限公司 | 一种数据处理方法、装置、密文计算引擎和用于数据处理的装置 |
CN114530028A (zh) * | 2022-02-14 | 2022-05-24 | 大连理工大学 | 一种基于LoRa通信与联邦学习的校园学生智能手环监控系统及方法 |
CN114564731A (zh) * | 2022-02-28 | 2022-05-31 | 大连理工大学 | 基于横向联邦学习的智能风电场风况预测方法 |
CN115526313A (zh) * | 2022-10-11 | 2022-12-27 | 南京邮电大学 | 基于预测精度的跨域异质联邦学习架构运行效率评测方法 |
CN115775010A (zh) * | 2022-11-23 | 2023-03-10 | 国网江苏省电力有限公司信息通信分公司 | 基于横向联邦学习的电力数据共享方法 |
CN114564731B (zh) * | 2022-02-28 | 2024-06-04 | 大连理工大学 | 基于横向联邦学习的智能风电场风况预测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112052942A (zh) * | 2020-09-18 | 2020-12-08 | 支付宝(杭州)信息技术有限公司 | 神经网络模型训练方法、装置及系统 |
CN112052938A (zh) * | 2020-08-14 | 2020-12-08 | 同盾控股有限公司 | 基于知识联邦的多端模型压缩方法、任务预测方法、装置及电子设备 |
-
2020
- 2020-12-31 CN CN202011635450.XA patent/CN112734032A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112052938A (zh) * | 2020-08-14 | 2020-12-08 | 同盾控股有限公司 | 基于知识联邦的多端模型压缩方法、任务预测方法、装置及电子设备 |
CN112052942A (zh) * | 2020-09-18 | 2020-12-08 | 支付宝(杭州)信息技术有限公司 | 神经网络模型训练方法、装置及系统 |
Non-Patent Citations (2)
Title |
---|
做大饼馅儿的韭菜: ""深度学习之2——反向传播算法"", 《HTTPS://ZHUANLAN.ZHIHU.COM/P/68612830》, 5 November 2020 (2020-11-05), pages 1 - 5 * |
冀汶莉等: ""面向不平衡数据集的煤矿监测系统异常数据识别方法"", 《工矿自动化》, 13 January 2020 (2020-01-13), pages 1 - 8 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113033712B (zh) * | 2021-05-21 | 2021-09-14 | 华中科技大学 | 一种基于联邦学习的多用户协同训练人流统计方法及系统 |
CN113033712A (zh) * | 2021-05-21 | 2021-06-25 | 华中科技大学 | 一种基于联邦学习的多用户协同训练人流统计方法及系统 |
CN113255002A (zh) * | 2021-06-09 | 2021-08-13 | 北京航空航天大学 | 一种保护多方隐私的联邦k近邻查询方法 |
CN113255002B (zh) * | 2021-06-09 | 2022-07-15 | 北京航空航天大学 | 一种保护多方隐私的联邦k近邻查询方法 |
CN113657607A (zh) * | 2021-08-05 | 2021-11-16 | 浙江大学 | 一种面向联邦学习的连续学习方法 |
CN113657607B (zh) * | 2021-08-05 | 2024-03-22 | 浙江大学 | 一种面向联邦学习的连续学习方法 |
CN113792856B (zh) * | 2021-09-09 | 2022-06-10 | 电子科技大学 | 基于vae医疗保健联邦学习框架的确定方法 |
CN113792856A (zh) * | 2021-09-09 | 2021-12-14 | 电子科技大学 | 基于vae医疗保健联邦学习框架的确定方法 |
CN113792324A (zh) * | 2021-11-16 | 2021-12-14 | 聊城高新生物技术有限公司 | 基于联邦学习的农产品数据交互方法、装置及电子设备 |
CN113792324B (zh) * | 2021-11-16 | 2022-04-05 | 聊城高新生物技术有限公司 | 基于联邦学习的农产品数据交互方法、装置及电子设备 |
CN114530028A (zh) * | 2022-02-14 | 2022-05-24 | 大连理工大学 | 一种基于LoRa通信与联邦学习的校园学生智能手环监控系统及方法 |
CN114530028B (zh) * | 2022-02-14 | 2023-04-25 | 大连理工大学 | 一种基于LoRa通信与联邦学习的校园学生智能手环监控系统及方法 |
CN114564731A (zh) * | 2022-02-28 | 2022-05-31 | 大连理工大学 | 基于横向联邦学习的智能风电场风况预测方法 |
CN114564731B (zh) * | 2022-02-28 | 2024-06-04 | 大连理工大学 | 基于横向联邦学习的智能风电场风况预测方法 |
CN114401154A (zh) * | 2022-03-24 | 2022-04-26 | 华控清交信息科技(北京)有限公司 | 一种数据处理方法、装置、密文计算引擎和用于数据处理的装置 |
CN115526313A (zh) * | 2022-10-11 | 2022-12-27 | 南京邮电大学 | 基于预测精度的跨域异质联邦学习架构运行效率评测方法 |
CN115526313B (zh) * | 2022-10-11 | 2023-10-24 | 南京邮电大学 | 基于预测精度的跨域异质联邦学习架构运行效率评测方法 |
CN115775010A (zh) * | 2022-11-23 | 2023-03-10 | 国网江苏省电力有限公司信息通信分公司 | 基于横向联邦学习的电力数据共享方法 |
CN115775010B (zh) * | 2022-11-23 | 2024-03-19 | 国网江苏省电力有限公司信息通信分公司 | 基于横向联邦学习的电力数据共享方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112734032A (zh) | 一种用于横向联邦学习的优化方法 | |
Chen et al. | Convergence time optimization for federated learning over wireless networks | |
Zhu et al. | From federated learning to federated neural architecture search: a survey | |
Zhu et al. | Real-time federated evolutionary neural architecture search | |
Jiang et al. | Stacked autoencoder-based deep reinforcement learning for online resource scheduling in large-scale MEC networks | |
Mao et al. | Towards a trust prediction framework for cloud services based on PSO-driven neural network | |
CN115102763B (zh) | 基于可信联邦学习多域DDoS攻击检测方法与装置 | |
CN113159329B (zh) | 模型训练方法、装置、设备及存储介质 | |
CN113065974B (zh) | 一种基于动态网络表示学习的链路预测方法 | |
CN112906903A (zh) | 网络安全风险预测方法、装置、存储介质及计算机设备 | |
CN115907001A (zh) | 基于知识蒸馏的联邦图学习方法及自动驾驶方法 | |
CN116227632A (zh) | 用于客户端异构和数据异构场景的联邦学习方法和装置 | |
Pan et al. | Privacy-Preserving Multi-Granular Federated Neural Architecture Search–A General Framework | |
Malmir et al. | Optimization of data mining with evolutionary algorithms for cloud computing application | |
CN117033997A (zh) | 数据切分方法、装置、电子设备和介质 | |
CN116187469A (zh) | 一种基于联邦蒸馏学习框架的客户端成员推理攻击方法 | |
Wu et al. | Model-heterogeneous Federated Learning with Partial Model Training | |
CN115374479A (zh) | 一种非独立同分布数据场景下的联邦学习隐私保护方法 | |
Zhang et al. | A dynamic clustering algorithm based on PSO and its application in fuzzy identification | |
Alfred | Short-term time series modelling forecasting using genetic algorithm | |
Suresh et al. | Federated Graph Representation Learning using Self-Supervision | |
Tian et al. | The comprehensive contributions of endpoint degree and coreness in link prediction | |
Su et al. | An Enhancing Semi-Supervised Federated Learning Framework for Internet of Vehicles | |
CN115270964A (zh) | 一种基于改进联邦学习算法的恶意流量分类方法 | |
Ajiboye et al. | Ensemble Autoregressive Neural Network (ARNN) Model for Spectrum Occupancy Prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |