CN117113113A - 基于聚类联邦学习算法的数据隐私保护方法及系统 - Google Patents
基于聚类联邦学习算法的数据隐私保护方法及系统 Download PDFInfo
- Publication number
- CN117113113A CN117113113A CN202311003606.6A CN202311003606A CN117113113A CN 117113113 A CN117113113 A CN 117113113A CN 202311003606 A CN202311003606 A CN 202311003606A CN 117113113 A CN117113113 A CN 117113113A
- Authority
- CN
- China
- Prior art keywords
- data
- clients
- central server
- client
- cluster
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000009826 distribution Methods 0.000 claims abstract description 33
- 239000011159 matrix material Substances 0.000 claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 17
- 239000013598 vector Substances 0.000 claims description 24
- 230000002776 aggregation Effects 0.000 claims description 8
- 238000004220 aggregation Methods 0.000 claims description 8
- 238000000354 decomposition reaction Methods 0.000 claims description 6
- 230000008485 antagonism Effects 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 abstract description 4
- 238000004891 communication Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 5
- 238000002372 labelling Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供一种基于聚类联邦学习算法的数据隐私保护方法及系统,该方法包括:S101、将数据分发至各个客户端;S102、每个客户端利用分发到的数据,合成与真实数据具有相似分布的合成数据,将合成数据添加到当前客户端的原始数据中得到混合数据集;S103、基于混合数据集构建相似性矩阵,相似性矩阵的每一项都表示混合数据集对子之间的相似性;S104、中央服务器根据相似性矩阵对客户端进行聚类,将拥有相似分布的客户端划分到相同簇中;S105、每个簇作为局部模型进行参数更新,中央服务器根据局部模型参数更新对全局模型参数进行更新;S106、重复执行步骤S105,直至满足设定的性能指标、训练时长或次数,本发明可以降低数据隐私泄露的风险,并降低通信和计算开销。
Description
技术领域
本发明涉及数据隐私保护技术领域,尤其涉及一种基于聚类联邦学习算法的非独立同分布数据的隐私保护方法及系统。
背景技术
联邦学习是一种分布式的机器学习方法,允许在多个设备或服务器之间共享模型更新而不共享原始数据。它是一种保护隐私的方式,因为训练过程中将局部模型参数上传至中央服务器而不是原始数据。联邦学习中的数据传输和共享可能存在安全和隐私风险。攻击者可能尝试截获和分析模型参数、推理结果或其他交换的信息,从而导致隐私泄露。此外,恶意参与方可能试图通过监视数据和模型来获取敏感信息。确保联邦学习系统的安全性和隐私性仍然是一个复杂的问题。以下是一些可能导致隐私泄露的原因:
1)不完全可信的参与方:在联邦学习中,参与方可能是不同的设备、个人或组织。如果有参与方不是完全可信的,他们可能会试图通过监视或记录数据来获取敏感信息。这可能导致隐私泄露。
2)模型推理攻击:当参与方接收到更新的全局模型时,他们需要根据自己的本地数据进行模型推理。这些推理过程可能受到侧信道攻击,攻击者可以通过分析模型的输出来获取有关输入数据的信息,从而导致隐私泄露。
3)共享模型参数:在联邦学习中,参与方通过共享模型参数来更新全局模型。如果这些模型参数在传输或共享过程中被拦截,攻击者可能能够通过分析模型参数来获取一些敏感信息。
4)数据重建:尽管在联邦学习中不会共享原始数据,但攻击者可能通过分析多个局部模型的更新或推理结果来重建原始数据。这种数据重建攻击可能导致隐私泄露。
由于参与方的数据通常是分布式和非独立同分布的,联邦学习可能面临数据偏差的问题。这意味着在某些参与方的数据分布上训练的模型在其他参与方上的泛化性能可能下降。数据偏差会导致模型在全局范围内的性能受到限制。联邦学习中存在非独立同分布(Non-IID)数据的原因可以归结为以下几个方面:
1)分布式数据来源:联邦学习涉及多个参与方,这些参与方可以是不同的设备、个人或组织。每个参与方收集的数据通常反映了其自身的使用模式、偏好和特征,因此这些数据在分布上可能存在差异。
2)数据的本地特征:参与方的本地数据可能具有不同的特征分布。例如,如果联邦学习应用于医疗领域,每个医疗机构可能关注不同的疾病类型或患者人群,导致其本地数据的特征分布不同。
3)数据采样方式:在联邦学习中,参与方通常会从本地数据中进行采样以构建训练集。不同参与方的采样方式可能不同,导致数据的非独立性。例如,某些参与方可能倾向于选择特定类型的样本,而其他参与方则有不同的采样策略。
4)数据标记和质量差异:参与方在进行数据标记和数据清洗时可能存在差异。例如,不同参与方可能使用不同的标签规范或标注方法,或者在数据清洗过程中应用不同的策略。这些差异可能导致数据集之间的标记和质量差异,进而影响模型的训练和泛化能力。
由于这些原因,联邦学习中的数据通常是非独立同分布的。这使得在模型聚合和更新过程中需要采取特定的策略和算法来处理这些差异,以确保全局模型能够充分利用各参与方的数据,并在不同数据分布上取得良好的性能。
发明内容
鉴于此,本发明的目的在于提供一种基于聚类联邦学习算法的数据隐私保护方法及系统,以解决联邦学习安全和隐私风险方面的隐患,及其数据偏差和非独立同分布问题。
为实现上述发明目的,本发明第一方面提供一种基于聚类联邦学习算法的数据隐私保护方法,所述方法应用于隐私保护系统,所述隐私保护系统包括若干个客户端和中央服务器,所述客户端与中央服务器信号相连,所述方法包括以下步骤:
S101、将数据分发至各个客户端;
S102、每个客户端利用分发到的数据,合成与真实数据具有相似分布的合成数据,将合成数据添加到当前客户端的原始数据中得到混合数据集;
S103、基于混合数据集构建相似性矩阵,相似性矩阵的每一项都表示混合数据集对子之间的相似性;
S104、中央服务器根据相似性矩阵对客户端进行聚类,将拥有相似分布的客户端划分到相同簇中;
S105、每个簇作为局部模型进行参数更新,中央服务器根据局部模型参数更新对全局模型参数进行更新;
S106、重复执行步骤S105,直至满足设定的性能指标、训练时长或次数。
进一步的,步骤S102中,每个客户端利用分配到的数据,使用生成式对抗网络(GAN)算法,进行合成数据的合成。
进一步的,步骤S103中,在每个混合数据集上使用截断奇异值分解来获取一个可计算处理的向量集用以表示数据特征,基于向量集中的特征向量,利用余弦公式计算得到向量间的夹角,并由此构建相似性矩阵。
进一步的,所述步骤S105具体包括以下步骤:
S201、每个簇中的客户端利用本地数据进行训练,每个簇计算本簇内所有客户端的参数更新作为当前簇的更新,将更新内容上传到中央服务器;
S202、中央服务器接收所有簇上传的局部模型更新消息,根据聚合规则得到当前迭代轮次的全局模型更新,将更新后的全局模型参数广播到所有簇中的客户端。
本发明第二方面提供一种基于聚类联邦学习算法的数据隐私保护系统,所述系统包括数据分发模块、若干个客户端和中央服务器,所述客户端与中央服务器信号相连,
所述数据分发模块用于将数据分发到各个客户端;
所述客户端用于利用分发到的数据,合成与真实数据具有相似分布的合成数据,将合成数据添加到当前客户端的原始数据中得到混合数据集,基于混合数据集构建相似性矩阵,相似性矩阵的每一项都表示混合数据集对子之间的相似性;
所述中央服务器用于根据相似性矩阵对客户端进行聚类,将拥有相似分布的客户端划分到相同簇中,每个簇被配置为作为局部模型进行参数更新,中央服务器根据局部模型参数更新对全局模型参数进行更新,直至满足设定的性能指标、训练时长或次数。
进一步的,所述客户端具体用于利用分配到的数据,使用生成式对抗网络(GAN)算法,进行合成数据的合成。
进一步的,所述客户端具体用于在每个混合数据集上使用截断奇异值分解来获取一个可计算处理的向量集用以表示数据特征,基于向量集中的特征向量,利用余弦公式计算得到向量间的夹角,并由此构建相似性矩阵。
进一步的,每个簇中的客户端被配置为利用本地数据进行训练,每个簇被具体配置为计算本簇内所有客户端的参数更新作为当前簇的更新,将更新内容上传到中央服务器;
中央服务器具体用于接收所有簇上传的局部模型更新消息,根据聚合规则得到当前迭代轮次的全局模型更新,将更新后的全局模型参数广播到所有簇中的客户端。
与现有技术相比,本发明的有益效果是:
本发明提供的一种基于聚类联邦学习算法的数据隐私保护方法及系统,在原始数据中添加合成数据以提高隐私性,根据客户端数据集的分布相似性构建相似性矩阵,在保证拥有相似数据分布的客户端被划分到相同的簇内的同时,极大地提高了联邦学习模型的准确率和安全性,降低了数据隐私泄露的风险。每次运行时仅需计算一次相似性矩阵,且无需预先设定簇数,本发明可以根据客户端数据集实际情况形成最佳的簇数,相比传统的联邦学习聚类算法,大大降低了通信和计算开销。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的优选实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种基于聚类联邦学习算法的数据隐私保护方法整体流程示意图。
图2是本发明实施例提供的客户端生成合成数据流程示意图。
图3是本发明实施例提供的相似性矩阵构建流程示意图。
图4是本发明实施例提供的客户端聚类流程示意图。
图5是本发明实施例提供的簇内训练流程示意图。
图6是本发明实施例提供的中央服务器运行过程示意图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所列举实施例只用于解释本发明,并非用于限定本发明的范围。
参照图1,本实施例提供一种基于聚类联邦学习算法的数据隐私保护方法,所述方法应用于隐私保护系统,所述隐私保护系统包括若干个客户端和中央服务器,所述客户端与中央服务器信号相连,所述方法包括以下步骤:
S101、将数据分发至各个客户端。
S102、每个客户端利用分发到的数据,合成与真实数据具有相似分布的合成数据,将合成数据添加到当前客户端的原始数据中得到混合数据集。
参照图2,作为一种优选的示例,每个客户端利用分配到的数据,使用生成式对抗网络(GAN)算法,进行合成数据的合成。
S103、基于混合数据集构建相似性矩阵,相似性矩阵的每一项都表示混合数据集对子之间的相似性。
参照图3,步骤S103中,在每个混合数据集上使用截断奇异值分解来获取一个可计算处理的向量集用以表示数据特征,基于向量集中的特征向量,利用余弦公式计算得到向量间的夹角,并由此构建相似性矩阵。
S104、中央服务器根据相似性矩阵对客户端进行聚类,将拥有相似分布的客户端划分到相同簇中,如图4所示。
S105、每个簇作为局部模型进行参数更新,中央服务器根据局部模型参数更新对全局模型参数进行更新。
参照图5和图6,步骤S105具体包括以下步骤:
S201、每个簇中的客户端利用本地数据进行训练,每个簇计算本簇内所有客户端的参数更新作为当前簇的更新,将更新内容上传到中央服务器。
S202、中央服务器接收所有簇上传的局部模型更新消息,根据聚合规则得到当前迭代轮次的全局模型更新,将更新后的全局模型参数广播到所有簇中的客户端。
S106、重复执行步骤S105,直至满足设定的性能指标、训练时长或次数。
为了分析本实施例所提出方法的有效性,将方法与传统联邦学习以及现有最先进的联邦学习进行了对比,包括如下算法:FedAvg、FedProx、FedNova、Scaffold、SOLO、LG、Per-FedAvg、IFCA、CFL、PACFL。方案准确率如表1所示。
其中,实验环境为中央服务器1个,客户端100个,每次实验训练200轮次。使用四个数据集:CIFAR-100、CIFAR-10、FMNIST和SVHN,在数据集CIFAR-100上使用残差神经网络ResNet-9,而在数据集CIFAR-10、FMNIST和SVHN上使用卷积神经网络LeNet-5。使用20%的非独立同分布标签倾斜来模拟非独立同分布式数据场景,将数据集中可用标签总数的20%随机分配给客户端,随后根据每个客户端分配到的标签随机分配样本。表中数据为3次实验的模型准确率均值。
表1
通过实验结果可知,本实施例所提供的方法比现有联邦学习方法的性能更好。
本实施例所提供的方法为解决联邦学习安全和隐私风险方面的隐患,针对传统联邦学习中客户端使用本地数据进行模型训练的过程,设计了一种在原始真实数据中添加具有相同分布的合成数据共同参与客户端本地训练的方案。使用生成式对抗网络生成具有相似分布的合成数据,可以有效防御攻击者通过模型推理、数据重建等手段对联邦学习进行攻击。在联邦学习共享模型参数的过程中,即便攻击者获取了模型参数,也无法通过分析模型参数来获取本地客户端原始真实数据中的敏感信息。
同时,所述方法为应对数据偏差和非独立同分布问题,针对传统联邦学习聚合本地客户端局部模型参数的过程,设计了一种根据客户端数据集相似性进行聚类,并以聚类后形成的簇为单位上传模型更新的联邦学习聚合规则。根据每个客户端数据集的分布相似性,构建相似性矩阵,将拥有相似数据分布的客户端划分的到相同的簇中。每轮迭代更新,以簇为单位将局部模型参数更新上传至中央服务器。中央服务器根据每个簇中所拥有的客户端数量,为每个簇分配权重,并对所有簇上传的局部更新进行加权运算,以获取当前迭代的全局模型更新。该方法有效提升了联邦学习在非独立同分布数据场景下的模型性能,降低联邦学习的通信和计算开销的同时,提升了模型的泛化能力。
基于与前述方法实施例相同的发明构思,本发明另一实施例提供一种基于聚类联邦学习算法的数据隐私保护系统。
所述系统包括数据分发模块、若干个客户端和中央服务器,所述客户端与中央服务器信号相连。
所述数据分发模块用于将数据分发到各个客户端。
所述客户端用于利用分发到的数据,合成与真实数据具有相似分布的合成数据,将合成数据添加到当前客户端的原始数据中得到混合数据集,基于混合数据集构建相似性矩阵,相似性矩阵的每一项都表示混合数据集对子之间的相似性。
所述中央服务器用于根据相似性矩阵对客户端进行聚类,将拥有相似分布的客户端划分到相同簇中,每个簇被配置为作为局部模型进行参数更新,中央服务器根据局部模型参数更新对全局模型参数进行更新,直至满足设定的性能指标、训练时长或次数。
作为一种优选的示例,所述客户端具体用于利用分配到的数据,使用生成式对抗网络(GAN)算法,进行合成数据的合成。
同时,客户端还具体用于在每个混合数据集上使用截断奇异值分解来获取一个可计算处理的向量集用以表示数据特征,基于向量集中的特征向量,利用余弦公式计算得到向量间的夹角,并由此构建相似性矩阵。
在完成客户端的聚类后,每个簇中的客户端被配置为利用本地数据进行训练,每个簇被具体配置为计算本簇内所有客户端的参数更新作为当前簇的更新,将更新内容上传到中央服务器。
中央服务器具体用于接收所有簇上传的局部模型更新消息,根据聚合规则得到当前迭代轮次的全局模型更新,将更新后的全局模型参数广播到所有簇中的客户端。
所述系统与前述方法实施例基于相同的发明构思,用于执行前述方法实施例,其工作原理和技术效果均可以参照前述方法实施例。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于聚类联邦学习算法的数据隐私保护方法,其特征在于,所述方法应用于隐私保护系统,所述隐私保护系统包括若干个客户端和中央服务器,所述客户端与中央服务器信号相连,所述方法包括以下步骤:
S101、将数据分发至各个客户端;
S102、每个客户端利用分发到的数据,合成与真实数据具有相似分布的合成数据,将合成数据添加到当前客户端的原始数据中得到混合数据集;
S103、基于混合数据集构建相似性矩阵,相似性矩阵的每一项都表示混合数据集对子之间的相似性;
S104、中央服务器根据相似性矩阵对客户端进行聚类,将拥有相似分布的客户端划分到相同簇中;
S105、每个簇作为局部模型进行参数更新,中央服务器根据局部模型参数更新对全局模型参数进行更新;
S106、重复执行步骤S105,直至满足设定的性能指标、训练时长或次数。
2.根据权利要求1所述的一种基于聚类联邦学习算法的数据隐私保护方法,其特征在于,步骤S102中,每个客户端利用分配到的数据,使用生成式对抗网络(GAN)算法,进行合成数据的合成。
3.根据权利要求1所述的一种基于聚类联邦学习算法的数据隐私保护方法,其特征在于,步骤S103中,在每个混合数据集上使用截断奇异值分解来获取一个可计算处理的向量集用以表示数据特征,基于向量集中的特征向量,利用余弦公式计算得到向量间的夹角,并由此构建相似性矩阵。
4.根据权利要求1所述的一种基于聚类联邦学习算法的数据隐私保护方法,其特征在于,所述步骤S105具体包括以下步骤:
S201、每个簇中的客户端利用本地数据进行训练,每个簇计算本簇内所有客户端的参数更新作为当前簇的更新,将更新内容上传到中央服务器;
S202、中央服务器接收所有簇上传的局部模型更新消息,根据聚合规则得到当前迭代轮次的全局模型更新,将更新后的全局模型参数广播到所有簇中的客户端。
5.一种基于聚类联邦学习算法的数据隐私保护系统,其特征在于,所述系统包括数据分发模块、若干个客户端和中央服务器,所述客户端与中央服务器信号相连,
所述数据分发模块用于将数据分发到各个客户端;
所述客户端用于利用分发到的数据,合成与真实数据具有相似分布的合成数据,将合成数据添加到当前客户端的原始数据中得到混合数据集,基于混合数据集构建相似性矩阵,相似性矩阵的每一项都表示混合数据集对子之间的相似性;
所述中央服务器用于根据相似性矩阵对客户端进行聚类,将拥有相似分布的客户端划分到相同簇中,每个簇被配置为作为局部模型进行参数更新,中央服务器根据局部模型参数更新对全局模型参数进行更新,直至满足设定的性能指标、训练时长或次数。
6.根据权利要求1所述的一种基于聚类联邦学习算法的数据隐私保护系统,其特征在于,所述客户端具体用于利用分配到的数据,使用生成式对抗网络(GAN)算法,进行合成数据的合成。
7.根据权利要求1所述的一种基于聚类联邦学习算法的数据隐私保护系统,其特征在于,所述客户端具体用于在每个混合数据集上使用截断奇异值分解来获取一个可计算处理的向量集用以表示数据特征,基于向量集中的特征向量,利用余弦公式计算得到向量间的夹角,并由此构建相似性矩阵。
8.根据权利要求1所述的一种基于聚类联邦学习算法的数据隐私保护系统,其特征在于,每个簇中的客户端被配置为利用本地数据进行训练,每个簇被具体配置为计算本簇内所有客户端的参数更新作为当前簇的更新,将更新内容上传到中央服务器;
中央服务器具体用于接收所有簇上传的局部模型更新消息,根据聚合规则得到当前迭代轮次的全局模型更新,将更新后的全局模型参数广播到所有簇中的客户端。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311003606.6A CN117113113A (zh) | 2023-08-10 | 2023-08-10 | 基于聚类联邦学习算法的数据隐私保护方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311003606.6A CN117113113A (zh) | 2023-08-10 | 2023-08-10 | 基于聚类联邦学习算法的数据隐私保护方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117113113A true CN117113113A (zh) | 2023-11-24 |
Family
ID=88794016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311003606.6A Pending CN117113113A (zh) | 2023-08-10 | 2023-08-10 | 基于聚类联邦学习算法的数据隐私保护方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117113113A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117811845A (zh) * | 2024-02-29 | 2024-04-02 | 浪潮电子信息产业股份有限公司 | 威胁检测及模型训练方法、装置、系统、电子设备、介质 |
-
2023
- 2023-08-10 CN CN202311003606.6A patent/CN117113113A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117811845A (zh) * | 2024-02-29 | 2024-04-02 | 浪潮电子信息产业股份有限公司 | 威胁检测及模型训练方法、装置、系统、电子设备、介质 |
CN117811845B (zh) * | 2024-02-29 | 2024-05-24 | 浪潮电子信息产业股份有限公司 | 威胁检测及模型训练方法、装置、系统、电子设备、介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rathore et al. | A blockchain-based deep learning approach for cyber security in next generation industrial cyber-physical systems | |
CN112906903B (zh) | 网络安全风险预测方法、装置、存储介质及计算机设备 | |
CN112712182B (zh) | 一种基于联邦学习的模型训练方法、装置及存储介质 | |
CN110795477A (zh) | 数据的训练方法及装置、系统 | |
CN112257105B (zh) | 一种基于参数替换算法的联邦学习方法及系统 | |
CN111477290A (zh) | 保护用户隐私的联邦学习和图像分类方法、系统及终端 | |
Djidjev et al. | Graph based statistical analysis of network traffic | |
CN114118156A (zh) | 设备故障诊断方法、装置、电子设备及存储介质 | |
CN117113113A (zh) | 基于聚类联邦学习算法的数据隐私保护方法及系统 | |
CN111104968B (zh) | 一种基于区块链的安全svm训练方法 | |
CN115481431A (zh) | 基于双重扰动的联邦学习对抗推理攻击隐私保护方法 | |
CN112597542B (zh) | 目标资产数据的聚合方法及装置、存储介质、电子装置 | |
CN112600697B (zh) | 基于联邦学习的QoS预测方法及系统、客户端和服务端 | |
CN116708009A (zh) | 一种基于联邦学习的网络入侵检测方法 | |
CN110610098A (zh) | 数据集生成方法及装置 | |
Shah et al. | A survey on game theoretic approaches for privacy preservation in data mining and network security | |
CN112560059A (zh) | 一种基于神经通路特征提取的垂直联邦下模型窃取防御方法 | |
Deng et al. | NVAS: a non-interactive verifiable federated learning aggregation scheme for COVID-19 based on game theory | |
CN116663675A (zh) | 适用于边缘车联网的区块链赋能联邦学习系统 | |
Dhasaratha et al. | Data privacy model using blockchain reinforcement federated learning approach for scalable internet of medical things | |
CN115329388B (zh) | 一种面向联邦生成对抗网络的隐私增强方法 | |
CN115510472B (zh) | 一种面向云边聚合系统的多重差分隐私保护方法及系统 | |
CN116050546A (zh) | 一种数据非独立同分布下的拜占庭鲁棒的联邦学习方法 | |
CN115481415A (zh) | 基于纵向联邦学习的通信成本优化方法、系统、设备及介质 | |
CN115310120A (zh) | 一种基于双陷门同态加密的鲁棒性联邦学习聚合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |