CN112734032A - 一种用于横向联邦学习的优化方法 - Google Patents

一种用于横向联邦学习的优化方法 Download PDF

Info

Publication number
CN112734032A
CN112734032A CN202011635450.XA CN202011635450A CN112734032A CN 112734032 A CN112734032 A CN 112734032A CN 202011635450 A CN202011635450 A CN 202011635450A CN 112734032 A CN112734032 A CN 112734032A
Authority
CN
China
Prior art keywords
data
client
federal learning
smote
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011635450.XA
Other languages
English (en)
Inventor
张忠良
程慧慧
陈琼
雒兴刚
蔡灵莎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202011635450.XA priority Critical patent/CN112734032A/zh
Publication of CN112734032A publication Critical patent/CN112734032A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明属于联邦学习以及大数据技术领域,具体涉及一种用于横向联邦学习的优化方法,包括以下步骤:S1、客户端采集数据,并对数据进行预处理;S2、通过SMOTE‑Non‑IID模型处理客户端的数据;S3、通过横向联邦学习中的客户端‑服务器架构,结合数据生成环境,进行SMOTE‑Non‑IID模型训练;S4、得到SMOTE‑Non‑IID的优化模型,通过预测以得到评估结果;本发明每个客户端采用SMOTE算法合成数据,同时接收来自其他客户端的合成数据,有效处理联邦学习中数据异构性问题,能够保证较高预测准确率。

Description

一种用于横向联邦学习的优化方法
技术领域
本发明属于联邦学习以及大数据技术领域,具体涉及一种用于横向联邦学习的优化方法。
背景技术
在人工智能应用过程中,企业以及其他组织很难获取大量优质数据用于AI模型效果提升。不同组织之间出于利益考量往往不提供各自数据进行聚合,导致数据以孤岛形式存在;同时国内外监管环境也在逐步加强数据管理,陆续出台相关隐私保护政策。因此未来在不同组织之间进行数据的整合工作将是十分有挑战性的,如何在遵守更为严格隐私保护条例下解决数据碎片化和数据隔离的问题是当前人工智能研究者和实践者面临的首要挑战。
为了解决目前存在的数据孤岛以及隐私保护问题,学者们开始使用联邦学习的方法来对AI模型效果进行提升,力求在保证数据隐私安全及合法合规的基础上实现共同建模,提升AI模型效果。根据每个参与共同建模的企业(参与方)数据分布的不同,联邦学习分为:横向联邦学习、纵向联邦学习以及联邦迁移学习。其中横向联邦学习适用于业态相同但触达客户不同,即特征重叠多、用户重叠少的场景,比如不同地区的银行间,它们的业务相似(特征相似)但用户不同(样本不同)。
然而,横向联邦学习参与方来源数据复杂,很难保证独立同分布这一条件,而现有横向联邦学习优化方法基于数据独立同分布假设前提,往往不能获得预期的效果。为此,有必要对其进行改进,以克服实际应用中的不足。
发明内容
基于现有技术中存在的上述缺点和不足,本发明的目的之一是至少解决现有技术中存在的上述问题之一或多个,换言之,本发明的目的之一是提供满足前述需求之一或多个的一种用于横向联邦学习的优化方法。
为了达到上述发明目的,本发明采用以下技术方案:
一种用于横向联邦学习的优化方法,包括以下步骤:
S1、客户端采集数据,并对数据进行预处理;
S2、通过SMOTE-Non-IID模型处理客户端的数据;
S3、通过横向联邦学习中的客户端-服务器架构,结合数据生成环境,进行SMOTE-Non-IID模型训练;
S4、得到SMOTE-Non-IID的优化模型,通过预测以得到评估结果。
作为优选方案,所述步骤S1中,通过采集特征相似、样本不同的来源数据,模拟现实场景中业态相似、触达客户不同的客户端,并对数据进行归一化预处理。
作为优选方案,所述步骤S2包括:
S2-1、将客户端按照标签进行分类,使得客户端数量等于标签数量,以使每个客户端有且仅有一个标签;
S2-2、数个客户端分别使用SMOTE算法生成合成数据,并将合成数据传递给服务器,由服务器将合成数据分配给各个客户端,以实现IID分布。
作为优选方案,所述SMOTE算法具体包括:
S2-2-1:对于少数类中的每一个样本,以欧氏距离为标准计算得到少数类样本集中所有样本的距离,得到其k近邻;
S2-2-2:根据样本不平衡比例设置采样倍率N,对于每一个少数类样本x,从其k近邻中随机选取若干个样本,假设选择的近邻为xn;
S2-2-3:对于每一个随机选出的近邻xn,分别与原样本构建新的样本。
作为优选方案,所述步骤S3具体包括:
S3-1、通过神经网络初始化,以得到初始模型参数,并将初始模型参数发给客户端;
S3-2、客户端本地更新模型参数;
S3-3、客户端将更新模型参数通过加法同态加密后,将已加密模型参数以及相关损失发送给服务器;
S3-4、服务器对收到的模型参数解密后进行聚合;
S3-5、服务器检查损失函数是否收敛或者是否达到最大训练轮次;若是,则服务器给各客户端发信号,使其全部停止模型训练;若不是,则返回S3-2;
S3-6、服务器将聚合后的模型参数发送给所有客户端。
作为优选方案,所述步骤S3-2包括:
S3-2-1:客户端从服务器获得最新的模型参数,即设
Figure BDA0002876155010000031
同时随机地将数据集划分为批量M的大小;
S3-2-2:随机选取一个批次数据,前馈计算每一层的净输入值z(l)和激活值a(l),直到最后一层;
S3-2-3:计算输出层输出O与训练数据样本实际输出Y之间交叉熵损失函数,定义损失函数为:
Figure BDA0002876155010000032
其中y∈{0,1}C为标签y对应的one-hot向量表示.
S3-2-4:反向传播计算每一层的误差δ(l);根据链式法则,第l层的误差项为:
Figure BDA0002876155010000033
其中⊙是向量的点积运算符,表示每个元素相乘
S3-2-5:计算梯度;
Figure BDA0002876155010000041
S3-2-6:本地更新模型参数;
Figure BDA0002876155010000042
本发明与现有技术相比,有益效果是:
1、本发明利用SMOTE算法结合横向联邦学习,将横向联邦学习中参与方的数据处理为IID分布,采用典型的横向联邦学习系统的客户-服务器架构,结合上述生成的数据环境进行SMOTE-Non-IID模型训练,最终得到SMOTE-Non-IID优化模型评估结果。
2、本发明的每个客户端(即参与方)采用SMOTE算法合成数据,同时接收来自其他客户端的合成数据,能够有效处理联邦学习中数据异构性问题,帮助业态相似但触达用户不同的企业之间应用横向联邦学习进行模型共建与效果提升,有助于推进横向联邦学习商业落地应用。
3、本发明通过生成的数据集并采用加法同态加密的模型平均算法与服务器开展横向联邦学习,强调在模型训练期间保护数据隐私,利于更好应对愈发严格的用户隐私与数据安全的监管环境。
附图说明
图1是本发明实施例的实验1(IID)与实验2(Non-IID)的架构示例图;
图2是本发明实施例的实验3(SMOTE-Non-IID)的架构示例图。
具体实施方式
为了更清楚地说明本发明实施例,下面将对照附图说明本发明的具体实施方式。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,并获得其他的实施方式。
实施例:
本实施例提供一种用于横向联邦学习的优化方法,具体包括以下步骤:
S1:采集特征相似但样本不同的来源数据,模拟现实场景中业态相似、触达客户不同的参与方的数据状态,并对数据进行归一化预处理;
S2:基于SMOTE-Non-IID模型策略处理各个客户端(参与方)本地数据的非独立同分布(Non-Idependently and Identically Distributed,Non-IID)的数据异构性;
S2-1:将处理后的数据根据标签分类,将客户端按照数据标签进行分类,使得客户端的数量等于数据的标签数,同时保证每个客户端有且仅有一个标签;
S2-2:每个客户端使用SMOTE算法生成合成数据,并将这些数据传递给服务器(协调方),最后由服务器将这些合成数据分配给各个客户端,保证IID分布;
其中,SMOTE算法的基本思想是对少数类样本进行分析并根据少数类样本人工合成新样本添加到数据集中,具体步骤如下:
S2-2-1:对于少数类中的每一个样本,以欧氏距离为标准计算它到少数类样本集中所有样本的距离,得到其k近邻;
S2-2-2:根据样本不平衡比例设置一个采样比例以确定采样倍率N,对于每一个少数类样本x,从其k近邻中随机选择若干个样本,假设选择的近邻为xn;
S2-2-3:对于每一个随机选出的近邻xn,分别与原样本按照如下的公式构建新的样本;
Figure BDA0002876155010000051
S3:采用典型的横向联邦学习系统的客户-服务器架构,使用加法同态加密的模型平均算法,结合上述生成的数据集进行SMOTE-Non-IID模型训练,具体步骤如下:
S3-1:神经网络初始化,给定训练数据样本集(X,Y),给定输入层节点数M、输出层节点数N,初始化参数W,给定学习率η,给定神经元激活函数f(·);给定每一轮中进行计算的参与方的占比ρ,每一轮中每一个参与方在本地数据集进行训练的步骤数S,参与方更新时使用的mini-batch(最小批量)的大小M;
BP神经网络采用单隐层结构,选取迭代次数S为5,给定学习率η为0.1,初始权重值和阈值均为0~1之间的随机数;参与方的个数K,激活函数为Sigmoid函数。初始化模型参数w0,并将原始的模型参数w0广播给所有的参与方;
S3-2:参与方本地更新模型参数;
S3-2-1:参与方从服务器获得最新的模型参数,即设
Figure BDA0002876155010000061
同时随机地将数据集划分为批量M的大小;
S3-2-2:随机选取一个批次数据,前馈计算每一层的净输入值z(l)和激活值a(l),直到最后一层;(l表示神经网络的层数)
S3-2-3:计算输出层输出O与训练数据样本实际输出Y之间交叉熵损失函数,定义损失函数为:
Figure BDA0002876155010000062
其中y∈{0,1}C为标签y对应的one-hot向量表示.
S3-2-4:反向传播计算每一层的误差δ(l);根据链式法则,第l层的误差项为:
Figure BDA0002876155010000071
其中⊙是向量的点积运算符,表示每个元素相乘
S3-2-5:计算梯度;
Figure BDA0002876155010000072
S3-2-6:本地更新模型参数;
Figure BDA0002876155010000073
S3-3:参与方获得本地模型参数更新后,在
Figure BDA0002876155010000074
上执行加法同态加密以得到
Figure BDA0002876155010000075
和相关损失
Figure BDA0002876155010000076
发送给协调方。(对于k∈Ct的参与方,t表示全局模型更新轮次)
S3-4:协调方对收到的模型参数解密后进行聚合,即对收到的模型进行加权平均:
Figure BDA0002876155010000077
S3-5:协调方检查损失函数
Figure BDA0002876155010000078
是否收敛或者是否达到最大训练轮次,若是,则协调方给各参与方发信号,使其全部停止模型训练;若不是,则返回S3-2;
步骤3-6:协调方将聚合后的模型参数
Figure BDA0002876155010000079
发送给所有参与方。
S4、得到SMOTE-Non-IID的优化模型,通过预测以得到评估结果。
S4-1:进行实验1与实验2的数据处理,实验1将数据进行混洗后平均分配给10个客户端,实验2将数据按照标签进行分类后,客户端依据数据标签进行分类,并保证客户端的数量等于数据标签数且每个客户端仅有一种标签;
S4-2:实验3按照权利要求2所述方法步骤进行设计,随后三种实验中的每个客户端与服务器采用加法同态加密的模型平均算法进行横向联邦学习,得到实验结果。
S4-3:分别对new、iri、gla、Zoo四个数据集实施三种策略。
SMOTE(Synthetic Minority Oversampling Technique)算法是基于随机过采样算法的一种改进方案,由于随机过采样采取简单复制样本的策略来增加少数类样本容易产生模型过拟合的问题,而SMOTE算法的基本思想是对少数类样本进行分析后人工合成新样本添加到数据集中,可有效避免模型过拟合。
Non-IID(Non-Independent and identically distributed)在统计学中指变量之间非独立或非同分布,在联邦学习中一般指各个客户端所含数据样本不符合同分布条件。
基于SMOTE-Non-IID模型策略处理数据异构性为:数据根据标签分类后,将客户端按照数据标签进行分类,使得客户端的数量等于数据的标签数,同时保证每个客户端有且仅有一个标签;每个客户端使用SMOTE算法生成合成数据,并将这些数据传递给服务器,最后由服务器将这些合成数据分配给各个客户端,保证IID分布。
实验验证:
为了验证本发明优化方法的性能,设计了三组实验进行对比:
实验1设定参与方的数据满足IID(即独立同分布)条件,将数据进行混洗后平均分配给10个客户端,且设定客户端(即参与方)与服务器(即协调方)进行横向联邦学习;
实验2设定参与方的数据满足Non-IID(即非独立同分布)条件,将客户端按照数据标签进行分类,使得客户端的数量等于数据的标签数,并保证每个客户端有且仅有一种标签,同时设定各客户端与服务器进行横向联邦学习;
实验3模型首先将数据按照实验2的方法分配给各客户端,随后每个客户端使用SMOTE算法合成数据,且设定每个客户端接收来自其他客户端的所有合成数据并保证IID分布,随后每个客户端与服务器进行横向联邦学习。
其中,实验1与实验2的架构如图1所示,实验3的架构如图2所示。
IID、Non-IID、SMOTE-Non-IID三种实验的预测准确率,分别对new、iri、gla、Zoo四个数据集实施三种策略,结果如下表1所示。
表1 IID、Non-IID、SMOTE-Non-IID三种实验的预测准确率
Figure BDA0002876155010000091
以上结果表明,本发明的SMOTE-Non-IID模型策略预测准确率远高于数据Non-IID(即非独立同分布)设定的模型预测准确率,一度接近数据IID(即独立同分布)设定的模型实验结果;由于横向联邦学习上的参与方数据来源很难保证独立同分布这一假设条件,现实中的数据往往更为复杂,而本发明在处理数据异构性问题的前提下仍然能够保证较高预测准确率,因此,本发明为企业应用横向联邦学习共建模型落地应用做出一定贡献。
以上所述仅是对本发明的优选实施例及原理进行了详细说明,对本领域的普通技术人员而言,依据本发明提供的思想,在具体实施方式上会有改变之处,而这些改变也应视为本发明的保护范围。

Claims (6)

1.一种用于横向联邦学习的优化方法,其特征在于,包括以下步骤:
S1、客户端采集数据,并对数据进行预处理;
S2、通过SMOTE-Non-IID模型处理客户端的数据;
S3、通过横向联邦学习中的客户端-服务器架构,结合数据生成环境,进行SMOTE-Non-IID模型训练;
S4、得到SMOTE-Non-IID的优化模型,通过预测以得到评估结果。
2.根据权利要求1所述的一种用于横向联邦学习的优化方法,其特征在于,所述步骤S1中,通过采集特征相似、样本不同的来源数据,模拟现实场景中业态相似、触达客户不同的客户端,并对数据进行归一化预处理。
3.根据权利要求1所述的一种用于横向联邦学习的优化方法,其特征在于,所述步骤S2包括:
S2-1、将客户端按照标签进行分类,使得客户端数量等于标签数量,以使每个客户端有且仅有一个标签;
S2-2、数个客户端分别使用SMOTE算法生成合成数据,并将合成数据传递给服务器,由服务器将合成数据分配给各个客户端,以实现IID分布。
4.根据权利要求3所述的一种用于横向联邦学习的优化方法,其特征在于,所述SMOTE算法具体包括:
S2-2-1:对于少数类中的每一个样本,以欧氏距离为标准计算得到少数类样本集中所有样本的距离,得到其k近邻;
S2-2-2:根据样本不平衡比例设置采样倍率N,对于每一个少数类样本x,从其k近邻中随机选取若干个样本,假设选择的近邻为xn;
S2-2-3:对于每一个随机选出的近邻xn,分别与原样本构建新的样本。
5.根据权利要求1所述的一种用于横向联邦学习的优化方法,其特征在于,所述步骤S3具体包括:
S3-1、通过神经网络初始化,以得到初始模型参数,并将初始模型参数发给客户端;
S3-2、客户端本地更新模型参数;
S3-3、客户端将更新模型参数通过加法同态加密后,将已加密模型参数以及相关损失发送给服务器;
S3-4、服务器对收到的模型参数解密后进行聚合;
S3-5、服务器检查损失函数是否收敛或者是否达到最大训练轮次;若是,则服务器给各客户端发信号,使其全部停止模型训练;若不是,则返回S3-2;
S3-6、服务器将聚合后的模型参数发送给所有客户端。
6.根据权利要求5所述的一种用于横向联邦学习的优化方法,其特征在于,所述步骤S3-2包括:
S3-2-1:客户端从服务器获得最新的模型参数,即设
Figure FDA0002876148000000023
同时随机地将数据集划分为批量M的大小;
S3-2-2:随机选取一个批次数据,前馈计算每一层的净输入值z(l)和激活值a(l),直到最后一层;
S3-2-3:计算输出层输出O与训练数据样本实际输出Y之间交叉熵损失函数,定义损失函数为:
Figure FDA0002876148000000021
其中y∈{0,1}C为标签y对应的one-hot向量表示.
S3-2-4:反向传播计算每一层的误差δ(l);根据链式法则,第l层的误差项为:
Figure FDA0002876148000000022
其中⊙是向量的点积运算符,表示每个元素相乘
S3-2-5:计算梯度;
Figure FDA0002876148000000031
S3-2-6:本地更新模型参数;
Figure FDA0002876148000000032
CN202011635450.XA 2020-12-31 2020-12-31 一种用于横向联邦学习的优化方法 Pending CN112734032A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011635450.XA CN112734032A (zh) 2020-12-31 2020-12-31 一种用于横向联邦学习的优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011635450.XA CN112734032A (zh) 2020-12-31 2020-12-31 一种用于横向联邦学习的优化方法

Publications (1)

Publication Number Publication Date
CN112734032A true CN112734032A (zh) 2021-04-30

Family

ID=75608784

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011635450.XA Pending CN112734032A (zh) 2020-12-31 2020-12-31 一种用于横向联邦学习的优化方法

Country Status (1)

Country Link
CN (1) CN112734032A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113033712A (zh) * 2021-05-21 2021-06-25 华中科技大学 一种基于联邦学习的多用户协同训练人流统计方法及系统
CN113255002A (zh) * 2021-06-09 2021-08-13 北京航空航天大学 一种保护多方隐私的联邦k近邻查询方法
CN113657607A (zh) * 2021-08-05 2021-11-16 浙江大学 一种面向联邦学习的连续学习方法
CN113792856A (zh) * 2021-09-09 2021-12-14 电子科技大学 基于vae医疗保健联邦学习框架的确定方法
CN113792324A (zh) * 2021-11-16 2021-12-14 聊城高新生物技术有限公司 基于联邦学习的农产品数据交互方法、装置及电子设备
CN114401154A (zh) * 2022-03-24 2022-04-26 华控清交信息科技(北京)有限公司 一种数据处理方法、装置、密文计算引擎和用于数据处理的装置
CN114530028A (zh) * 2022-02-14 2022-05-24 大连理工大学 一种基于LoRa通信与联邦学习的校园学生智能手环监控系统及方法
CN114564731A (zh) * 2022-02-28 2022-05-31 大连理工大学 基于横向联邦学习的智能风电场风况预测方法
CN115526313A (zh) * 2022-10-11 2022-12-27 南京邮电大学 基于预测精度的跨域异质联邦学习架构运行效率评测方法
CN115775010A (zh) * 2022-11-23 2023-03-10 国网江苏省电力有限公司信息通信分公司 基于横向联邦学习的电力数据共享方法
CN114564731B (zh) * 2022-02-28 2024-06-04 大连理工大学 基于横向联邦学习的智能风电场风况预测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112052942A (zh) * 2020-09-18 2020-12-08 支付宝(杭州)信息技术有限公司 神经网络模型训练方法、装置及系统
CN112052938A (zh) * 2020-08-14 2020-12-08 同盾控股有限公司 基于知识联邦的多端模型压缩方法、任务预测方法、装置及电子设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112052938A (zh) * 2020-08-14 2020-12-08 同盾控股有限公司 基于知识联邦的多端模型压缩方法、任务预测方法、装置及电子设备
CN112052942A (zh) * 2020-09-18 2020-12-08 支付宝(杭州)信息技术有限公司 神经网络模型训练方法、装置及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
做大饼馅儿的韭菜: ""深度学习之2——反向传播算法"", 《HTTPS://ZHUANLAN.ZHIHU.COM/P/68612830》, 5 November 2020 (2020-11-05), pages 1 - 5 *
冀汶莉等: ""面向不平衡数据集的煤矿监测系统异常数据识别方法"", 《工矿自动化》, 13 January 2020 (2020-01-13), pages 1 - 8 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113033712B (zh) * 2021-05-21 2021-09-14 华中科技大学 一种基于联邦学习的多用户协同训练人流统计方法及系统
CN113033712A (zh) * 2021-05-21 2021-06-25 华中科技大学 一种基于联邦学习的多用户协同训练人流统计方法及系统
CN113255002A (zh) * 2021-06-09 2021-08-13 北京航空航天大学 一种保护多方隐私的联邦k近邻查询方法
CN113255002B (zh) * 2021-06-09 2022-07-15 北京航空航天大学 一种保护多方隐私的联邦k近邻查询方法
CN113657607A (zh) * 2021-08-05 2021-11-16 浙江大学 一种面向联邦学习的连续学习方法
CN113657607B (zh) * 2021-08-05 2024-03-22 浙江大学 一种面向联邦学习的连续学习方法
CN113792856B (zh) * 2021-09-09 2022-06-10 电子科技大学 基于vae医疗保健联邦学习框架的确定方法
CN113792856A (zh) * 2021-09-09 2021-12-14 电子科技大学 基于vae医疗保健联邦学习框架的确定方法
CN113792324A (zh) * 2021-11-16 2021-12-14 聊城高新生物技术有限公司 基于联邦学习的农产品数据交互方法、装置及电子设备
CN113792324B (zh) * 2021-11-16 2022-04-05 聊城高新生物技术有限公司 基于联邦学习的农产品数据交互方法、装置及电子设备
CN114530028A (zh) * 2022-02-14 2022-05-24 大连理工大学 一种基于LoRa通信与联邦学习的校园学生智能手环监控系统及方法
CN114530028B (zh) * 2022-02-14 2023-04-25 大连理工大学 一种基于LoRa通信与联邦学习的校园学生智能手环监控系统及方法
CN114564731A (zh) * 2022-02-28 2022-05-31 大连理工大学 基于横向联邦学习的智能风电场风况预测方法
CN114564731B (zh) * 2022-02-28 2024-06-04 大连理工大学 基于横向联邦学习的智能风电场风况预测方法
CN114401154A (zh) * 2022-03-24 2022-04-26 华控清交信息科技(北京)有限公司 一种数据处理方法、装置、密文计算引擎和用于数据处理的装置
CN115526313A (zh) * 2022-10-11 2022-12-27 南京邮电大学 基于预测精度的跨域异质联邦学习架构运行效率评测方法
CN115526313B (zh) * 2022-10-11 2023-10-24 南京邮电大学 基于预测精度的跨域异质联邦学习架构运行效率评测方法
CN115775010A (zh) * 2022-11-23 2023-03-10 国网江苏省电力有限公司信息通信分公司 基于横向联邦学习的电力数据共享方法
CN115775010B (zh) * 2022-11-23 2024-03-19 国网江苏省电力有限公司信息通信分公司 基于横向联邦学习的电力数据共享方法

Similar Documents

Publication Publication Date Title
CN112734032A (zh) 一种用于横向联邦学习的优化方法
Chen et al. Convergence time optimization for federated learning over wireless networks
Zhu et al. From federated learning to federated neural architecture search: a survey
Zhu et al. Real-time federated evolutionary neural architecture search
Jiang et al. Stacked autoencoder-based deep reinforcement learning for online resource scheduling in large-scale MEC networks
Mao et al. Towards a trust prediction framework for cloud services based on PSO-driven neural network
CN115102763B (zh) 基于可信联邦学习多域DDoS攻击检测方法与装置
CN113159329B (zh) 模型训练方法、装置、设备及存储介质
CN113065974B (zh) 一种基于动态网络表示学习的链路预测方法
CN112906903A (zh) 网络安全风险预测方法、装置、存储介质及计算机设备
CN115907001A (zh) 基于知识蒸馏的联邦图学习方法及自动驾驶方法
CN116227632A (zh) 用于客户端异构和数据异构场景的联邦学习方法和装置
Pan et al. Privacy-Preserving Multi-Granular Federated Neural Architecture Search–A General Framework
Malmir et al. Optimization of data mining with evolutionary algorithms for cloud computing application
CN117033997A (zh) 数据切分方法、装置、电子设备和介质
CN116187469A (zh) 一种基于联邦蒸馏学习框架的客户端成员推理攻击方法
Wu et al. Model-heterogeneous Federated Learning with Partial Model Training
CN115374479A (zh) 一种非独立同分布数据场景下的联邦学习隐私保护方法
Zhang et al. A dynamic clustering algorithm based on PSO and its application in fuzzy identification
Alfred Short-term time series modelling forecasting using genetic algorithm
Suresh et al. Federated Graph Representation Learning using Self-Supervision
Tian et al. The comprehensive contributions of endpoint degree and coreness in link prediction
Su et al. An Enhancing Semi-Supervised Federated Learning Framework for Internet of Vehicles
CN115270964A (zh) 一种基于改进联邦学习算法的恶意流量分类方法
Ajiboye et al. Ensemble Autoregressive Neural Network (ARNN) Model for Spectrum Occupancy Prediction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination