CN113468521B - 一种基于gan的联邦学习入侵检测的数据保护方法 - Google Patents
一种基于gan的联邦学习入侵检测的数据保护方法 Download PDFInfo
- Publication number
- CN113468521B CN113468521B CN202110745417.0A CN202110745417A CN113468521B CN 113468521 B CN113468521 B CN 113468521B CN 202110745417 A CN202110745417 A CN 202110745417A CN 113468521 B CN113468521 B CN 113468521B
- Authority
- CN
- China
- Prior art keywords
- data
- training
- generator
- intrusion detection
- discriminator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/043—Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Security & Cryptography (AREA)
- Bioethics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Hardware Design (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Fuzzy Systems (AREA)
- Computational Mathematics (AREA)
- Automation & Control Theory (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer And Data Communications (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明属于入侵检测技术领域,具体涉及一种基于GAN的联邦学习入侵检测的数据保护方法。本发明将宽松的差分隐私保护技术与对抗生成神经网络结合,降低联邦学习框架内各终端的通信损耗,提高学习效率,可以很好的解决联邦各终端算力较低的情况,提高机器的利用效率。本发明所使用的对抗生成神经网络产生的动态模糊数据,能够实现让攻击者无法判断攻击成功的情况同时扩充本地训练数据集,解决可能存在的小样本问题。本发明可以有效的降低联邦学习框架中的通讯损耗,能够有效的提高训练效率,同时解决少终端联邦学习存在的易受到推理攻击的问题、入侵检测终端的小样本数据及非独立同分布数据问题,可以实现抵御推理攻击的联邦学习入侵检测。
Description
技术领域
本发明属于入侵检测技术领域,具体涉及一种基于GAN的联邦学习入侵检测的数据保护方法。
背景技术
联邦学习是一种安全的分布式学习模式,通过不断在客户端和参数服务器间进行模型参数交互的方式实现共享模型,从而实现在数据不离开客户端的前提下共享数据资源,提高数据的利用效率同时保证用户的数据隐私。
联邦学习为解决用户隐私问题而产生,能够在尽量不影响效率的情况下实现隐私保护的联合机器学习,所以联邦学习自身的安全性问题十分重要。当前联邦学习的安全问题来自于两个部分,一是在数据传递过程中的数据安全问题,二是联邦学习的各个主体间可信的问题,解决该问题的方法是通过加密、安全协议等方式避免用户的数据被窃取。当前所使用的数据保护方案包括多方安全计算、同态加密和差分隐私保护三种方案。其中,多方安全计算需要实现私有安全协议,构建可信的网络执行环境等有着较高的部署成本;同态加密有着较好的加密效果,但其所需算力极高;差分隐私保护则是通过增加噪声避免数据被通过增量推理而盗取数据的技术。由于联邦学习自身架构的特性,服务器默认客户端为可信的,然而客户端并不是完全可信的,所以目前使用的差分隐私保护技术的安全参数较高。以上三个方案为当前常见的数据保护方案,均有较高的通信损耗。
入侵检测技术是针对潜在的攻击行为进行检测,通过对流量中的特征分析判定该流量是否为异常流量,能过在系统受到攻击前及时对异常流量进行拦截并报警,解决传统网络安全系统的被动防御的缺陷,提高了对未知威胁的响应能力。
发明内容
本发明的目的在于克服当前联邦学习入侵检测通信开销较高,以及使用差分隐私保护无法在客户端较少的情况下有效防御推理攻击的问题,提供一种基于GAN的联邦学习入侵检测的数据保护方法。
本发明的目的通过如下技术方案来实现:包括以下步骤:
步骤1:在联邦学习的客户端本地部署对抗生成神经网络,使用终端已有的数据和预先分配的一般化数据对对抗生成神经网络的生成器和判别进行训练;
步骤1.1:服务器在开始联邦学习前给参与训练的各终端分配一部分一般化数据,避免因终端自身数据特殊导致的数据分布差距过大的情况;
步骤1.2:客户端将本地的数据和分配的数据利用编码器转化为二维向量,并利用转化后的二维向量和分类标签对判别器进行训练;
步骤1.3:将二维向量a和分类标签提供给生成器,产出异常数据a′;
步骤1.4:将原始的向量a和生成器阐述的异常数据a′提交给判别器进行判断,根据判别器的输出结果判断是否要对生成器进行进一步训练,若判别器无法识别则对判别器进行强化训练,若均能被识别则对生成器进行强化训练;
步骤1.5:重复步骤1.3、步骤1.4直至生成器与判别器达到纳什平衡;
步骤1.6:利用生成器模拟本地数据,产出近似于本地数据的二维向量b,输入至解码器中,得出与本地数据同格式的模糊流量数据b′备用;
步骤2:联邦学习参数服务器向各参与方分发初始模型和训练要求参数,客户端收到初始模型后开始进行训练;
步骤2.1:参与方使用预处理编码器对本地数据和步骤1.6生成的模糊数据b′进行数据预处理,转化为可用训练的向量数据;
步骤2.2:从本地数据和模糊数据b′中各选取一部分数据组成本轮训练所使用数据c,保证选取函数的随机性并且保证参与训练的本地数据比重不低于参数服务器要求;
步骤2.3:将向量数据c输入至训练所使用的模型中,得出训练结果后将准确率、模型参数进行打包,并记录所使用的数据量;
步骤2.4:根据服务器要求的差分隐私保护方案选择对应的数据保护处理函数对数据包进行处理;
步骤2.5:将根据数据保护函数处理后的数据包以及本次发给参数服务器;
步骤3:参数服务器将各客户端发来的所使用的数据量生成本轮的聚合因子 基于各参与方的数据量生成,避免部分参与方因自身数据量较少而出现模型对某一参与方有明显偏向或对数据较少的参与方不适用的情况,解决可能存在的非独立同分布数据问题;
步骤4:参数服务器以聚合因子为标准对各客户端上传的参数进行预处理;
步骤6:重复步骤2-步骤5不断强化全局模型,各参与方将获取的最新全局模型应用于自身的入侵检测上,并将新获取的流量数据扩充至数据集中。
本发明的有益效果在于:
本发明将宽松的差分隐私保护技术与对抗生成神经网络结合,降低联邦学习框架内各终端的通信损耗,提高学习效率,可以很好的解决联邦各终端算力较低的情况,提高机器的利用效率。本发明所使用的对抗生成神经网络产生的动态模糊数据,能够实现让攻击者无法判断攻击成功的情况同时扩充本地训练数据集,解决可能存在的小样本问题。本发明可以有效的降低联邦学习框架中的通讯损耗,能够有效的提高训练效率,同时解决少终端联邦学习存在的易受到推理攻击的问题、入侵检测终端的小样本数据及非独立同分布数据问题,可以实现抵御推理攻击的联邦学习入侵检测。
附图说明
图1是本发明的系统框架图。
图2是本发明的实施流程图。
图3是本发明拟解决问题的示例图。
具体实施方式
下面结合附图对本发明做进一步描述。
本发明属于分布式机器学习的数据保护方法,涉及分布式机器学习、联邦学习、隐私保护、入侵检测等相关技术。
本发明克服了当前联邦学习入侵检测通信开销较高,以及使用差分隐私保护无法在客户端较少的情况下有效防御推理攻击的问题,提出一种利用对抗生成神经网络和差分隐私保护实现数据在训练前扩充并动态模糊的联邦学习数据保护技术,可以在对整体训练效果影响较小的情况下,实现在宽松的差分隐私保护环境下防御推理攻击,降低整个学习过程的通信开销。其中动态模糊数据可以作为训练集使用,扩充训练数据量解决入侵检测中异常流量的小样本问题。
一种基于GAN的联邦学习入侵检测的数据保护方法,具体如下步骤:
步骤1:在联邦学习的客户端本地部署对抗生成神经网络,使用终端已有的数据和预先分配的一般化数据对对抗生成神经网络的生成器和判别进行训练。
步骤1.1:服务器在开始联邦学习前给参与训练的各终端分配一部分一般化数据,避免因终端自身数据特殊导致的数据分布差距过大的情况。
步骤1.2:客户端将本地的数据和分配的数据利用编码器转化为二维向量,并利用转化后的二维向量和分类标签对判别器进行训练。
步骤1.3:将二维向量a和分类标签提供给生成器,产出异常数据a′。
步骤1.4:将原始的向量a和生成器阐述的异常数据a′提交给判别器进行判断,根据判别器的输出结果判断是否要对生成器进行进一步训练,若判别器无法识别则对判别器进行强化训练,若均能被识别则对生成器进行强化训练。
步骤1.5:重复步骤1.3、步骤1.4直至生成器与判别器达到纳什平衡。
步骤1.6:利用生成器模拟本地数据,产出近似于本地数据的二维向量b,输入至解码器中,得出与本地数据同格式的模糊流量数据b′备用。
步骤2:联邦学习参数服务器向各参与方分发初始模型和训练要求参数,客户端收到初始模型后开始进行训练。
步骤2.1:参与方使用预处理编码器对本地数据和步骤1.6生成的模糊数据b′进行数据预处理,转化为可用训练的向量数据。
步骤2.2:从本地数据和模糊数据b′中各选取一部分数据组成本轮训练所使用数据c,保证选取函数的随机性并且保证参与训练的本地数据比重不低于参数服务器要求。
步骤2.3:将向量数据c输入至训练所使用的模型中,得出训练结果后将准确率、模型参数进行打包,并记录所使用的数据量。
步骤2.4:根据服务器要求的差分隐私保护方案选择对应的数据保护处理函数对数据包进行处理,如拉普拉斯机制M(D)=f(D)+Y,其中f(D)为查询函数,Y为拉普拉斯随机噪声;高斯机制P[M(D)∈S]≤eεP[M(D′)∈S]+δ其中ε为隐私预算,δ为松弛项。
步骤2.5:将根据数据保护函数处理后的数据包以及本次发给参数服务器。
步骤3:参数服务器将各客户端发来的所使用的数据量生成本轮的聚合因子 基于各参与方的数据量生成,避免部分参与方因自身数据量较少而出现模型对某一参与方有明显偏向或对数据较少的参与方不适用的情况,解决可能存在的非独立同分布数据问题。
步骤4:参数服务器以聚合因子为标准对各客户端上传的参数进行预处理。
步骤6:重复步骤2-步骤5不断强化全局模型,各参与方将获取的最新全局模型应用于自身的入侵检测上,并将新获取的流量数据扩充至数据集中。
本发明解决了差分隐私保护技术在客户端较少的联邦学习情况下无法抵御推理攻击的情况,让基于差分隐私保护的联邦学习数据保护方案能够在联合入侵检测、跨域联合训练等只有少量终端的情况下可以使用。本发明将宽松的差分隐私保护技术与对抗生成神经网络结合,降低联邦学习框架内各终端的通信损耗,提高学习效率,可以很好的解决联邦各终端算力较低的情况,提高机器的利用效率。
本发明所使用的对抗生成神经网络产生的模糊数据为可用数据,能够实现让攻击者无法判断攻击成功的情况同时扩充本地训练数据集,解决可能存在的小样本问题。本发明应用在工控异常流量入侵检测等涉及数据封闭保护且特殊样本较少的情况有着不错的效果,在入侵检测中异常流量的出现率远低于正常流量,异常流量多为小样本数据,使用对抗生成神经网络可以对该类数据进行扩充,解决小样本问题。
实施例1:
工控入侵检测终端需要实时分析本地流量数据,可用算力相对较低,且设备部署于工控环境,参数服务器的算力也有一定限制,若使用同态加密方案将会进一步降低效率,而使用过于严格的差分隐私保护技术也会导致训练效率低下,使用对抗生成神经网络与宽松的差分隐私保护相结合的方案,不仅可以扩充数据集解决可能存在的小样本和数据过于特殊的问题,同时降低通信消耗,提高机器算力的利用率。
本发明的目的在于提供一种基于GAN的联邦学习入侵检测的数据保护方法,该方法可以有效的降低联邦学习框架中的通讯损耗,能够有效的提高训练效率,同时解决少终端联邦学习存在的易受到推理攻击的问题、入侵检测终端的小样本数据及非独立同分布数据问题,可以实现抵御推理攻击的联邦学习入侵检测。
图1是本发明的系统框架图,其中涉及到如下主要实体及其功能如下:联邦学习客户端为联邦学习的各参与方的抽象对象,该对象内包括数据处理模块、模型训练模块、数据保护模块,集成了在框架内需要客户端在本地训练和数据处理的功能,同时需要于参数服务器进行数据交互。数据处理模块负责产生动态模糊数据,为模型训练模块提供本轮的训练数据,其内部由本地数据集和对抗生成神经网络(GAN)组成,本地数据集作为主要数据源,GAN负责通过本地数据集生成模拟数据,实现扩展数据和保护本地数据集的功能,数据处理模块通过整和两类数据实现动态模糊数据,确保本地数据集的安全性和动态模糊数据的有效性。模型训练模块负责模型训练工作,利用本轮的动态模糊数据对已有模型进行训练,将训练结果和模型参数等数据提供给数据保护模块,同时每一轮训练开始前从服务器加载最新的全局模型确保训练的有效性。数据保护模块负责将已有的结果和模型参数利用服务器要求的差分隐私保护方案进行加密,保证数据在通信过程中不会被窃取。参数服务器负责整个框架的调度工作,包括联邦参数聚合,生成聚合因子,分配原始模型和训练要求等。应用系统负责将训练模型应用于生产环境中,并不断收集新的数据补充至本地数据集。
图2为本发明所述的一种基于GAN的联邦学习入侵检测的数据保护方法的整体流程图,包括如下具体步骤:
步骤1:参数服务器与各终端对联邦学习的环节进行初始化,在建立连接后,确认所使用的模型、数据保护方案等训练要求,同时分发所使用基础数据模型保证一致性,该模型可以为CNN,RNN或其他神经网络模型。
步骤2:客户端本地部署一个对抗生成神经网络(GAN),通过编码器将本地数据集中的流量数据转化为二维向量,利用编码器处理后的数据对GAN进行训练,直至GAN的生成器和判别器间的关系达到纳什平衡后,利用生成器生成一定量的模拟数据。
步骤3:数据调度器根据一定量配比将本地数据集和生成的模拟数据进行整合,生成动态模糊数据作为本轮的训练数据,为训练初期的训练结果,在前期适当提高本地数据的比例。
步骤4:利用本轮的动态模糊数据对最新获取的全局模型进行训练,保存训练结果和参数的变化量以及所使用的数据量。
步骤5:将上步骤的结果根据预先沟通过的隐私保护要求进行差分隐私保护加密,通过加噪声的方式实现加密,所使用的加密函数为本地预先配置过的高斯噪声或拉普拉斯噪声,将处理后的数据包发给参数服务器。
步骤6:参数服务器根据接受的数据包中的各客户端所使用数据量生成聚合因子,生成方案有多种可以选择,如以数据量最少的为基准,通过差值的大小决定不同客户端的聚合因子。
步骤8:聚合后将全局模型分发至各客户端,各客户端更新本地模型,同时将模型应用到生产环境中,若预设的联邦学习轮数已满或服务器端发起停止请求则联邦学习结束,否则重复步骤3-8。
图3为本发明拟解决问题的一个简单示例,攻击者在本地部署一个GAN,利用每一轮获取的最新模型作为判别器来训练生成器,不断将生成器生成的“脏”数据融入本地模型训练,直至融入处理过的数据后全局模型基本无变化,可以认为攻击者部署的GAN等价于在被攻击者的数据集上训练,从而实现了数据窃取。该攻击方案仅需在本地部署一个GAN即可实现,可用于验证本发明是否有效。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (1)
1.一种基于GAN的联邦学习入侵检测的数据保护方法,其特征在于,包括以下步骤:
步骤1:在联邦学习的客户端本地部署对抗生成神经网络,使用终端已有的数据和预先分配的一般化数据对对抗生成神经网络的生成器和判别进行训练;
步骤1.1:服务器在开始联邦学习前给参与训练的各终端分配一部分一般化数据,避免因终端自身数据特殊导致的数据分布差距过大的情况;
步骤1.2:客户端将本地的数据和分配的数据利用编码器转化为二维向量,并利用转化后的二维向量和分类标签对判别器进行训练;
步骤1.3:将二维向量a和分类标签提供给生成器,产出异常数据a′;
步骤1.4:将原始的向量a和生成器阐述的异常数据a′提交给判别器进行判断,根据判别器的输出结果判断是否要对生成器进行进一步训练,若判别器无法识别则对判别器进行强化训练,若均能被识别则对生成器进行强化训练;
步骤1.5:重复步骤1.3、步骤1.4直至生成器与判别器达到纳什平衡;
步骤1.6:利用生成器模拟本地数据,产出近似于本地数据的二维向量b,输入至解码器中,得出与本地数据同格式的模糊流量数据b′备用;
步骤2:联邦学习参数服务器向各参与方分发初始模型和训练要求参数,客户端收到初始模型后开始进行训练;
步骤2.1:参与方使用预处理编码器对本地数据和步骤1.6生成的模糊数据b′进行数据预处理,转化为可用训练的向量数据;
步骤2.2:从本地数据和模糊数据b′中各选取一部分数据组成本轮训练所使用数据c,保证选取函数的随机性并且保证参与训练的本地数据比重不低于参数服务器要求;
步骤2.3:将向量数据c输入至训练所使用的模型中,得出训练结果后将准确率、模型参数进行打包,并记录所使用的数据量;
步骤2.4:根据服务器要求的差分隐私保护方案选择对应的数据保护处理函数对数据包进行处理;
步骤2.5:将根据数据保护函数处理后的数据包以及本次发给参数服务器;
步骤3:参数服务器将各客户端发来的所使用的数据量生成本轮的聚合因子 基于各参与方的数据量生成,避免部分参与方因自身数据量较少而出现模型对某一参与方有明显偏向或对数据较少的参与方不适用的情况,解决可能存在的非独立同分布数据问题;
步骤4:参数服务器以聚合因子为标准对各客户端上传的参数进行预处理;
步骤6:重复步骤2-步骤5不断强化全局模型,各参与方将获取的最新全局模型应用于自身的入侵检测上,并将新获取的流量数据扩充至数据集中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110745417.0A CN113468521B (zh) | 2021-07-01 | 2021-07-01 | 一种基于gan的联邦学习入侵检测的数据保护方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110745417.0A CN113468521B (zh) | 2021-07-01 | 2021-07-01 | 一种基于gan的联邦学习入侵检测的数据保护方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113468521A CN113468521A (zh) | 2021-10-01 |
CN113468521B true CN113468521B (zh) | 2022-04-05 |
Family
ID=77877261
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110745417.0A Active CN113468521B (zh) | 2021-07-01 | 2021-07-01 | 一种基于gan的联邦学习入侵检测的数据保护方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113468521B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114172715B (zh) * | 2021-12-02 | 2023-06-30 | 上海交通大学宁波人工智能研究院 | 一种基于安全多方计算的工控入侵检测系统及方法 |
CN114640498B (zh) * | 2022-01-27 | 2023-08-29 | 天津理工大学 | 一种基于联邦学习的网络入侵协同检测方法 |
CN114913390A (zh) * | 2022-05-06 | 2022-08-16 | 东南大学 | 基于条件gan的数据增广改善个性化联邦学习性能方法 |
CN115883016B (zh) * | 2022-10-28 | 2024-02-02 | 南京航空航天大学 | 基于联邦生成对抗网络的流量数据增强方法与装置 |
CN115438753B (zh) * | 2022-11-03 | 2023-01-06 | 电子科技大学 | 一种基于生成的衡量联邦学习协议数据安全性的方法 |
CN116010944B (zh) * | 2023-03-24 | 2023-06-20 | 北京邮电大学 | 联邦计算网络保护方法及相关设备 |
CN116451275B (zh) * | 2023-06-15 | 2023-08-22 | 北京电子科技学院 | 一种基于联邦学习的隐私保护方法及计算设备 |
CN117056951A (zh) * | 2023-08-09 | 2023-11-14 | 上海好芯好翼智能科技有限公司 | 一种数字平台的数据安全管理方法 |
CN117993480A (zh) * | 2024-04-02 | 2024-05-07 | 湖南大学 | 面向设计师风格融合和隐私保护的aigc联邦学习方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110428058A (zh) * | 2019-08-08 | 2019-11-08 | 深圳前海微众银行股份有限公司 | 联邦学习模型训练方法、装置、终端设备及存储介质 |
CN110572253A (zh) * | 2019-09-16 | 2019-12-13 | 济南大学 | 一种联邦学习训练数据隐私性增强方法及系统 |
CN111860832A (zh) * | 2020-07-01 | 2020-10-30 | 广州大学 | 一种基于联邦学习的增强神经网络防御能力的方法 |
CN112583575A (zh) * | 2020-12-04 | 2021-03-30 | 华侨大学 | 一种车联网中基于同态加密的联邦学习隐私保护方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11853891B2 (en) * | 2019-03-11 | 2023-12-26 | Sharecare AI, Inc. | System and method with federated learning model for medical research applications |
-
2021
- 2021-07-01 CN CN202110745417.0A patent/CN113468521B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110428058A (zh) * | 2019-08-08 | 2019-11-08 | 深圳前海微众银行股份有限公司 | 联邦学习模型训练方法、装置、终端设备及存储介质 |
CN110572253A (zh) * | 2019-09-16 | 2019-12-13 | 济南大学 | 一种联邦学习训练数据隐私性增强方法及系统 |
CN111860832A (zh) * | 2020-07-01 | 2020-10-30 | 广州大学 | 一种基于联邦学习的增强神经网络防御能力的方法 |
CN112583575A (zh) * | 2020-12-04 | 2021-03-30 | 华侨大学 | 一种车联网中基于同态加密的联邦学习隐私保护方法 |
Non-Patent Citations (9)
Title |
---|
《 联邦学习-FedAvg、FedAMP论文解读》;‘Atlas’;《https://blog.csdn.net/qq_41994006/article/details/117390948》;20210529;第1-8页 * |
《A Content-Based Self-Feedback E-government Network Security Model》;Songzhu Xia等;《2009 Fourth International Conference on Internet Computing for Science and Engineering》;20100803;第194-198页 * |
《A Temporal and Spatial Constrained Attribute-Based Access Control Scheme for Cloud Storage》;Zechao Liu等;《2018 17th IEEE International Conference On Trust, Security And Privacy In Computing And Communications/ 12th IEEE International Conference On Big Data Science And Engineering (TrustCom/BigDataSE)》;20180906;第614-623页 * |
《Federated Learning in Mobile Edge Networks: AComprehensive Survey(翻译)》;nooobme;《https://blog.csdn.net/sleepinghm/article/details/102079818》;20191016;第1-28页 * |
《云环境下密文策略属性基加密技术研究》;刘泽超;《万方数据》;20200115;全文 * |
《基于GRU-RNN的网络入侵检测方法》;李俊等;《哈尔滨工程大学学报》;20210630;第42卷(第6期);第879-884页 * |
《基于异构视觉计算模块的动态可重构系统》;孙建国等;《无线电工程》;20210331;第51卷(第3期);第173-178页 * |
《联邦学习FedAvg记录》;Neo_DH;《https://www.cnblogs.com/DemonHunter/p/12984659.html》;20200528;第1-7页 * |
《针对分布式联邦深度学习的攻击模型及隐私对策研究》;毛耀如;《万方数据》;20210430;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113468521A (zh) | 2021-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113468521B (zh) | 一种基于gan的联邦学习入侵检测的数据保护方法 | |
Li et al. | DeepFed: Federated deep learning for intrusion detection in industrial cyber–physical systems | |
Zhao et al. | Multi-task network anomaly detection using federated learning | |
Zolotukhin et al. | Increasing web service availability by detecting application-layer DDoS attacks in encrypted traffic | |
Xiong et al. | Toward lightweight, privacy-preserving cooperative object classification for connected autonomous vehicles | |
Bordel et al. | Data authentication and anonymization in IoT scenarios and future 5G networks using chaotic digital watermarking | |
Sun et al. | Decentralized deep learning for multi-access edge computing: A survey on communication efficiency and trustworthiness | |
CN116346418A (zh) | 基于联邦学习的DDoS检测方法及装置 | |
Zhou et al. | Securing federated learning enabled NWDAF architecture with partial homomorphic encryption | |
Dhanaraj et al. | Probit cryptographic blockchain for secure data transmission in intelligent transportation systems | |
Jin et al. | FL-IIDS: A novel federated learning-based incremental intrusion detection system | |
CN117395067A (zh) | 面向拜占庭鲁棒联邦学习的用户数据隐私保护系统及方法 | |
CN117576655A (zh) | 基于联邦学习的交通标志检测方法与系统 | |
Li et al. | Cross-domain anomaly detection for power industrial control system | |
CN115374479A (zh) | 一种非独立同分布数据场景下的联邦学习隐私保护方法 | |
Shi et al. | Scale-MIA: A Scalable Model Inversion Attack against Secure Federated Learning via Latent Space Reconstruction | |
Kong et al. | Information encryption transmission method of automobile communication network based on neural network | |
Riyadi et al. | Real-time testing on improved data transmission security in the industrial control system | |
Liu et al. | PPEFL: An Edge Federated Learning Architecture with Privacy‐Preserving Mechanism | |
Kaur et al. | A taxonomy of secure data transmission techniques: Preventing sybil attacks in vehicular ad hoc networks | |
Xie et al. | Privacy-Preserving Edge Intelligent Computing Based on Federated Learning | |
Hoefer et al. | Performance evaluation of a differentially-private neural network for cloud computing | |
CN115186285B (zh) | 联邦学习的参数聚合方法和装置 | |
Liu et al. | Non-crypto authentication for smart grid based on edge computing | |
Aljammal et al. | Performance Evaluation of Machine Learning Approaches in Detecting IoT-Botnet Attacks. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220509 Address after: 150050 No. 1, floor 5, unit 10, building 68, Hongqi community, Daowai District, Harbin, Heilongjiang Province Patentee after: Harbin Anlan Technology Co.,Ltd. Address before: 150001 Intellectual Property Office, Harbin Engineering University science and technology office, 145 Nantong Avenue, Nangang District, Harbin, Heilongjiang Patentee before: HARBIN ENGINEERING University |
|
TR01 | Transfer of patent right |