CN116562366A - 一种基于特征选择和特征对齐的联邦学习方法 - Google Patents

一种基于特征选择和特征对齐的联邦学习方法 Download PDF

Info

Publication number
CN116562366A
CN116562366A CN202310500556.6A CN202310500556A CN116562366A CN 116562366 A CN116562366 A CN 116562366A CN 202310500556 A CN202310500556 A CN 202310500556A CN 116562366 A CN116562366 A CN 116562366A
Authority
CN
China
Prior art keywords
feature
client
central server
model
federal learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310500556.6A
Other languages
English (en)
Inventor
谭敏
褚灵强
夏紫琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202310500556.6A priority Critical patent/CN116562366A/zh
Publication of CN116562366A publication Critical patent/CN116562366A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于特征选择和特征对齐的联邦学习方法。本发明步骤:1、数据集获取。2、中央服务器下发当前的全局特征提取模块至所有客户机。客户机生成中间层特征并上传至中央服务器。中央服务器利用接收到中间层特征训练客户机鉴别器和特征注意力向量。3、中央服务器选择客户机子集参与本轮联邦学习并下发全局模型。4、被选中的客户机利用得到的特征注意力向量构造特征掩膜向量进行特征筛选,并进行特征对齐。5、利用得到客户机鉴别器,结合对齐损失和预测损失更新全局模型后上传至中央服务器。6、中央服务器聚合接收到的本地模型生成新的全局模型。本发明能够提升联邦学习训练的收敛速度与模型预测精度。

Description

一种基于特征选择和特征对齐的联邦学习方法
技术领域
本发明涉及联邦学习领域,特别是涉及联邦学习特征空间非独立同分布处理方法。
背景技术
Google于2019年提出联邦学习算法FedAvg,使得在不共享各方数据的前提下仍然能够有效的联合训练深度模型,并已经被广泛应用到行为识别、恶意软件分类、商品推荐等实际场景中。虽然FedAvg在许多领域中得到了广泛应用,但由于在实际场景中各方数据往往存在非独立同分布问题,简单的应用FedAvg往往面临着收敛困难、模型预测精度差等问题。缓解数据非独立同分布对联邦学习的影响仍然是联邦学习中一个具有挑战性的任务。
最近,有不少方法通过施加约束来缓解联邦学习中的数据非独立同分布问题。这些方法主要是在损失函数中增加了约束项,以此约束了模型更新方向。一般以上一轮的全局模型为锚点,使得本轮更新后的本地模型都围绕在其附近,以此来缓解由数据非独立同分布产生的客户机漂移现象。此外,还有一些方法通过估计模型的更新方向,对其进行修正以使其更新方向一致。
现有的联邦学习算法大多对模型进行约束、关注标签空间的非独立同分布问题。对于施加约束,虽然可以在一定程度上缓解客户机漂移现象,但是使得模型无法进行快速的有效更新,限制了模型的更新潜力,减慢了模型的收敛速度。本发明与现有联邦学习大多关注标签空间非独立同分布问题不同,关注于特征空间的非独立同分布问题,通过基于梯度反转的特征对抗对齐的方法,从数据层面根本上缓解客户机漂移现象。由于不同维度的特征并不一定都是非独立同分布的,本发明通过特征注意力向量生成掩膜向量对特征进行筛选,对非独立同分布特征维度进行针对性对齐。同时,为缓解特征对齐对原始任务的影响,本发明通过梯度截断的方法,使得原始任务特征不接受来自特征对齐损失的梯度。
发明内容
本发明提供了一种基于特征选择和特征对齐的联邦学习方法。该方法采用选择性对抗特征对齐方式,协同训练客户机鉴别器和特征选择向量,可以有效的筛选非独立同分布的特征维度,并且通过个性化的仿射变换对齐各方特征分布,从数据层面缓解数据非独立同分布对联邦学习训练的不良影响。实验结果表明,该方法能够提升联邦学习训练的收敛速度与模型预测精度。
一种基于特征选择和特征对齐的联邦学习方法,其步骤如下:
步骤(1)、数据集获取,我们通过对公共数据集施加不同的高斯噪声,作为不同客户机的本地数据集。
步骤(2)、中央服务器下发当前的全局特征提取模块至所有客户机。客户机各自使用本地数据集和接收到的全局特征提取模块,生成中间层特征,并上传至中央服务器。中央服务器利用接收到的各方中间层特征训练客户机鉴别器和特征注意力向量。
步骤(3)、中央服务器按一定策略选择客户机子集参与本轮联邦学习,并下发全局模型,包括客户机鉴别器和特征注意力向量。
步骤(4)、被选中的客户机利用得到的特征注意力向量构造特征掩膜向量进行特征筛选,并利用特征仿射变换模块进行特征对齐。
步骤(5)、被选中的客户机利用得到客户机鉴别器,结合对齐损失和预测损失更新全局模型,最终将得到的本地模型上传至中央服务器。
步骤(6)、中央服务器按照一定策略聚合接收到的本地模型生成新的全局模型。
进一步的,步骤(1)所指的通过施加不同的高斯噪声,作为不同客户机的本地数据集,是指添加均值为0,方差为的高斯噪声至数据集I,以生成客户机i的本地数据集Ii,具体公式如下:
其中,方差由客户机的编号i确定。我们使用N表示全体客户机的数量,β表示最大方差,方差/>计算的具体公式如下:
对于每个客户机i,我们会为数据集I中每张原始图像生成一个相同尺寸的噪声图像,其中噪声图像的每个像素是从对应的高斯分布中采样得到的一个随机值。我们将噪声图像和原始图像相加,得到最终的本地数据集图像。
步骤(2)所述的中间层特征获取和客户机鉴别器和特征选择向量训练过程具体如下:
为了更好的捕获不同客户机本地数据分布之间的差异,我们使用统一的全局特征提取器对原始特征进行编码,以得到中间层特征r,具体公式如下:
r=r1∪r2…∪rN (公式3)
其中,ri表示客户机i的所有中间层特征集合,Ii表示原始特征。
客户机鉴别器和特征选择向量训练数据为中间层特征ri,以及对应的客户机编号i作为标签。我们使用α表示特征注意力向量,它与每一维特征相乘后,送入客户机鉴别器中。客户机鉴别器依靠各个客户机数据分布的差异来分辨来自各个客户机的中间层特征,即非独立同分布程度更高的维度对客户机鉴别器更加重要,会被给予更高的注意力权重。我们在中央服务器上对客户机鉴别器和特征注意力向量进行统一优化,具体公式如下:
其中,D*、α*分别表示更新后的客户机鉴别器和特征注意力向量,ri,j表示第i个客户机的特征集合ri中第j个特征,|Ii|表示第i个客户机原始特征的个数,N表示所有客户机的数量。
使用Sigmoid的函数与缩放系数ζ,来加速特征注意力向量的收敛以及达到二值化的目的。具体来说,特征注意力向量由下式产生:
α=Digmoid(ζp)
其中p是用于生成特征注意力向量的可训练参数,x表示函数输入值。
步骤(3)所指的客户机选择是指通过随机采样,从所有N个客户机中采样得到包含n个客户机的子集Sr,参与第r轮联邦学习训练过程。
步骤(4)中的特征筛选和特征变换过程主要由掩膜向量M和特征仿射变换模块G实现。
先利用在步骤(2)中得到的特征注意力向量α按照阈值θ生成的掩膜向量M,公式如下:
其中,αk表示特征注意力向量α第k位的值,Mk表示掩膜向量M第k位的值,掩膜向量M为1的位置的特征即代表选中的特征,利用该掩膜向量M对原始中间层特征进行筛选得到待对齐的特征维度子集。
特征仿射变换Ti包含可训练参数缩放系数si以及偏置系数bi,具体来说仿射变换公式如下:
Τi(x)=si⊙x+bi (公式7)
其中,x表示函数输入值。
需要注意的是,该仿射变换只对筛选出的非独立同分布特征维度进行变换,而对于独立同分布的特征维度我们并不进行任何修改。
总而言之,仿射变换模块公式如下:
Gi(ri,M)=C(Τi(Θ(ri,M)),Θ(ri,1-M)) (公式8)
其中Θ表示特征筛选操作,C表示拼接操作,即将对齐后的非独立同分布特征维度子集和独立同分布的特征维度子集拼接成和原始大小相同的特征。
步骤(5)中的本地模型训练是指对本地模型wi={φi,Gi,Pi}进行更新,即特征提取模块φi,特征仿射变换模块Gi,预测网络模块Pi
每个客户机接收到由中央服务器发送的全局模型后,先将本地模型替换为全局模型。本发明保留特征仿射变换模块G的个性化,以使其能够针对不同客户机数据分布进行个性化的变换,即本轮待更新的初始本地模型wi为:
其中,特征提取模块φi只接受来自任务损失函数的梯度,以保证特征的可分性,减少特征对齐对原始任务的影响。特征提取模块φi,预测网络模块Pi更新的具体公式如下:
其中,m是指数据集Ii中包含的类别数量,为客户机i的第j条特征ri,j经过变换后得到的特征,具体公式如下:
对于特征仿射变换模块G的训练,我们使用了一个称为梯度反转层的模块R,该模块可以在正向传播时保持恒等映射,反向传播时对梯度进行反转,其反向传播时求导公式如下:
其中λ为反转系数,x表示函数输入值。
同时,特征仿射变换模块G需要兼顾预测任务损失,其更新公式如下:
步骤(6)所指的模型聚和操作是指将接收到的本地模型进行平均,作为下一轮联邦学习的全局模型。由于我们使用个性化的仿射变换模块G,无需对其进行聚合,只需要对特征提取模块φ和预测网络模块P进行聚合,具体公式如下:
其中,Sr为第r轮采样得到的客户机集合,n为该集合中客户机的数量。
本发明的有益效果如下:
本发明通过对抗特征对齐对各方非独立同分布的特征维度进行对齐,从数据层面缓解了数据非独立同分布对联邦学习产生的不良影响。此外,本发明通过自适应的特征筛选的方式,由模型主动学习各个特征维度的非独立同分布程度,只筛选出非独立同分布特征维度进行对齐,减少了计算量,加快了训练速度。相比对模型更新进行约束,能够减少对模型更新方向和更新量的强制约束,加快模型收敛速度,相比对模型更新进行修正,能够减少对模型修正产生的额外计算量和存储量。
附图说明
图1是本发明的具体流程示意图。
图2是本发明的网络框架示意图。
图3是本发明的特征变换示意图。
具体实施方式
下面结合附图对本发明做进一步具体说明:
如图1所示,本发明提供一种基于特征选择和特征对齐的联邦学习算法,可用于缓解特征空间的非独立同分布问题,具体流程细节如图2。如附图2所示,展示了本发明的应用场景和模型结构与训练过程。子图(a)展示了本发明在跨境电商中的应用场景,不同国家站点与中央服务器进行通信,在不传输原始数据的情况下协同训练全局模型。子图(b)展示了传统FedAvg算法的训练过程,各个客户机利用本地数据集更新下发的全局模型后,再上传至中央服务器,由中央服务器进行聚合,并下发新一轮的全局模型。子图(c)展示了本发明的整体训练框架图,分为分布式训练过程和集中式训练过程,接下来根据附图1中的子图(c)来分别说明每个步骤的细节,具体实施步骤如下:
分布式训练过程中,每个客户机对本地模型wi={φi,Gi,Pi}进行更新,即特征提取模块φi,特征仿射变换模块Gi,预测网络模块Pi。其训练数据来自于本地数据集,并且由特征掩膜模块M和特征仿射变换模块Gi对特征进行对齐,以缓解联邦学习中存在的数据非独立同分布问题。其具体公式汇总如下:
集中式训练过程中,对客户机鉴别器D和特征注意力向量α进行更新,使得客户机鉴别器学到不同客户机本地数据分布之间的差异,以在分布式训练过程中指导特征仿射变换模块Gi的更新,并使得特征注意力向量α学到不同特征维度的非独立同分布程度,以在分布式训练过程中指导特征筛选。
如附图3所示,具体展示本发明的特征变换过程。首先,通过特征注意力向量得到掩膜向量M,并以此将原始特征划分为独立同分布子集和非独立同分布子集。其中,独立同分布子集经由恒等映射不进行改变,非独立同分布子集由特征仿射变换模块Gi进行变换,以产生对齐的特征分布,再经由拼接函数C将独立同分布子集和非独立同分布子集重新拼接为一条特征。
如表1所示,选取工业数据集CE-CCP,此数据集来自跨境电商平台的真实流量日志。数据集包含点击标签和购买标签,在本发明中仅使用点击标签进行CTR预测任务。将不同国家视为不同客户机,此数据集包含四个主要国家,分别为美国、巴西、西班牙、法国。不同国家中样本数量和正负样本比例是相似的,但是由于不同国家用户购买行为是不同的,特征分布是极为不相似的,表现为特征非独立同分布。数据集统计信息如表1所示:
表1 CE-CCP数据集统计信息
实验采用的对比模型为现有的解决数据非独立同分布联邦学习算法。我们使用推荐系统中的常用指标AUC来评估模型预测性能,AUC定义为ROC曲线下的面积。其含义是:随机选择一对正负样本,当正样本的分数大于负样本分数的概率越高,AUC越高,即模型对正负样本的分类性能越好。从表2中可以看出,我们发明的方法基于特征选择和对抗特征对齐的联邦学习算法在跨境电商联邦系统中取得了明显的效果,平均预测准确率AUC相比于本地训练提高了0.14%。
表2 CE-CCP实验结果
我们在公共数据集CIFAR10上使用步骤(1)所示方法构造数据集进行实验。我们使用ACC作为模型性能的评估指标,其含义是预测正确的样本占总样本的比例。同时,我们绘制了训练过程中的预测性能变化曲线,并计算了收敛所需的轮次。
表3(a)CIFAR-10实验结果 表3(b)CIFAR-10实验结果
从表3中可以看出,我们发明的方法在公共数据集上也取得了明显效果。如表3(a)所示,本发明平均预测准确率ACC相比于本地训练提高了20.68%。同时,如表3(b)所示,本发明大大加快了收敛速度,比传统联邦学习方法FedAvg相比,达到相同的预测准确率的轮次减少了2倍。

Claims (5)

1.一种基于特征选择和特征对齐的联邦学习方法,其特征在于包含如下步骤:
步骤(1)、数据集获取,通过对公共数据集施加不同的高斯噪声,作为不同客户机的本地数据集;
步骤(2)、中央服务器下发当前的全局特征提取模块至所有客户机;客户机各自使用本地数据集和接收到的全局特征提取模块,生成中间层特征,并上传至中央服务器;中央服务器利用接收到的各方中间层特征训练客户机鉴别器和特征注意力向量;
步骤(3)、中央服务器按指定策略选择客户机子集参与本轮联邦学习,并下发全局模型,包括客户机鉴别器和特征注意力向量;
步骤(4)、被选中的客户机利用得到的特征注意力向量构造特征掩膜向量进行特征筛选,并利用特征仿射变换模块进行特征对齐;
步骤(5)、被选中的客户机利用得到客户机鉴别器,结合对齐损失和预测损失更新全局模型,最终将得到的本地模型上传至中央服务器;
步骤(6)、中央服务器按照一定策略聚合接收到的本地模型生成新的全局模型。
2.根据权利要求1所述的一种基于特征选择和特征对齐的联邦学习方法,其特征在于步骤(2)具体实现如下:
为了更好的捕获不同客户机本地数据分布之间的差异,使用统一的全局特征提取器对原始特征进行编码,以得到各个客户机的中间层特征集合r,具体公式如下:
r=r1∪r2…∪rN (公式1)
其中,ri表示客户机i的所有中间层特征集合,Ii表示原始特征;
在中央服务器上对客户机鉴别器D和特征注意力向量α进行统一优化,其训练数据来自于第i个对应的客户机的特征集合ri,具体公式如下:
其中,D*、α*分别表示更新后的客户机鉴别器和特征注意力向量,ri,j表示第i个客户机的特征集合ri中第j个特征,|Ii|表示第i个客户机原始特征的个数,N表示所有客户机的数量;
同时,使用Sigmoid的函数与缩放系数ζ来加速特征注意力向量的收敛以及达到二值化的目的;具体来说,特征注意力向量由下式产生:
α=Sigmoid(ζp)
其中p是用于生成特征注意力向量的可训练参数,x表示函数输入值。
3.根据权利要求2所述的一种基于特征选择和特征对齐的联邦学习方法,其特征在于步骤(4)具体实现如下:
4-1.利用在步骤(2)中得到的优化后的特征注意力向量α*按照阈值θ生成掩膜向量M,公式如下:
其中,αk表示特征注意力向量α第k位的值,Mk表示掩膜向量M第k位的值;
4-2.按照掩膜向量M,筛选出对应的非独立同分布特征维度子集,在其上施加仿射变换Τi,仿射变换模块公式如下:
Gi(ri,M)=C(Ti(Θ(ri,M)),Θ(ri,1-M))
Ti(x)=si⊙x+bi (公式5)
其中Θ表示特征筛选操作,C表示拼接操作,即将对齐后的非独立同分布特征维度子集和独立同分布的特征维度子集拼接成和原始大小相同的特征,si、bi为客户机i对应的仿射变换的可训练参数,x表示函数输入值。
4.根据权利要求3所述的一种基于特征选择和特征对齐的联邦学习方法,其特征在于步骤(5)具体实现如下:
每个客户机接收到由中央服务器发送的全局模型后,先将本地模型替换为全局模型;保留本地模型中特征仿射变换模块G的个性化,以使其能够针对不同客户机数据分布进行个性化的变换,即待更新的初始本地模型wi为:
其中,本地模型包括特征提取模块φi,特征仿射变换模块Gi,预测网络模块Pi
在仿射变换模块G与客户机鉴别器之间,插入一个梯度反转层R以对仿射变换模块进行训练,梯度反转层R在反向传播过程中引入反转操作,具体公式如下:
其中,λ是反转系数,表示反转程度大小,x表示函数输入值;
通过梯度截断的方式阻止来自损失函数的梯度反向传播至特征提取模块φi;对特征提取模块φi、特征仿射变换模块Gi、预测网络模块Pi,整体优化目标如下:
其中,Pi *i *分别表示优化后的特征提取模块和预测网络模块Pi表示优化后的特征仿射变换模块,m表示数据类别的数量,/>为客户机i的第j条特征ri,j经过变换后得到的特征。
5.根据权利要求4所述的一种基于特征选择和特征对齐的联邦学习方法,其特征在于步骤(6)所指的模型聚和操作是指将接收到的本地模型进行平均,作为下一轮联邦学习的全局模型;由于使用个性化的仿射变换模块G,无需对其进行聚合,只需要对特征提取模块φ和预测网络模块P进行聚合,具体公式如下:
其中,Sr为第r轮采样得到的客户机集合,n为该集合中客户机的数量。
CN202310500556.6A 2023-05-06 2023-05-06 一种基于特征选择和特征对齐的联邦学习方法 Pending CN116562366A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310500556.6A CN116562366A (zh) 2023-05-06 2023-05-06 一种基于特征选择和特征对齐的联邦学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310500556.6A CN116562366A (zh) 2023-05-06 2023-05-06 一种基于特征选择和特征对齐的联邦学习方法

Publications (1)

Publication Number Publication Date
CN116562366A true CN116562366A (zh) 2023-08-08

Family

ID=87497600

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310500556.6A Pending CN116562366A (zh) 2023-05-06 2023-05-06 一种基于特征选择和特征对齐的联邦学习方法

Country Status (1)

Country Link
CN (1) CN116562366A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117708681A (zh) * 2024-02-06 2024-03-15 南京邮电大学 基于结构图指导的个性化联邦脑电信号分类方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117708681A (zh) * 2024-02-06 2024-03-15 南京邮电大学 基于结构图指导的个性化联邦脑电信号分类方法及系统
CN117708681B (zh) * 2024-02-06 2024-04-26 南京邮电大学 基于结构图指导的个性化联邦脑电信号分类方法及系统

Similar Documents

Publication Publication Date Title
CN111563275B (zh) 一种基于生成对抗网络的数据脱敏方法
CN111401558A (zh) 数据处理模型训练方法、数据处理方法、装置、电子设备
Bisht et al. A color image encryption technique based on bit-level permutation and alternate logistic maps
CN112862001A (zh) 一种隐私保护下的去中心化数据建模方法
WO2022166797A1 (zh) 图像生成模型的训练方法、生成方法、装置及设备
TW202141358A (zh) 圖像修復方法及裝置、存儲介質、終端
CN113723295A (zh) 一种基于图像域频域双流网络的人脸伪造检测方法
CN116562366A (zh) 一种基于特征选择和特征对齐的联邦学习方法
CN114529622A (zh) 通过引入自监督复合任务训练生成对抗网络生成高质量图像的方法及装置
Li et al. FedSDG-FS: Efficient and secure feature selection for vertical federated learning
Yang et al. Gradient leakage attacks in federated learning: Research frontiers, taxonomy and future directions
Kumar et al. A GRU and chaos-based novel image encryption approach for transport images
Guo et al. Blind detection of glow-based facial forgery
CN114997374A (zh) 一种针对数据倾斜的快速高效联邦学习方法
CN117350373B (zh) 一种基于局部自注意力机制的个性化联邦聚合算法
CN114676849A (zh) 基于联邦学习进行模型参数更新的方法及系统
CN116383470B (zh) 一种具有隐私保护的图像搜索方法
CN112686249A (zh) 一种基于对抗补丁的Grad-CAM攻击方法
Bian An ensemble image quality assessment algorithm based on deep feature clustering
CN113554047A (zh) 图像处理模型的训练方法、图像处理方法及对应的装置
CN116384475A (zh) 一种服务器端与客户端双端性能提升的联邦学习方法
Liu et al. Bi-directional normalization and color attention-guided generative adversarial network for image enhancement
CN114677535A (zh) 域适应图像分类网络的训练方法、图像分类方法及装置
Li et al. No‐reference image quality assessment based on multiscale feature representation
CN111882563B (zh) 一种基于方向性全卷积网络的语义分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination