CN111967015A - 一种提升分布式学习系统拜占庭鲁棒性的防御代理方法 - Google Patents
一种提升分布式学习系统拜占庭鲁棒性的防御代理方法 Download PDFInfo
- Publication number
- CN111967015A CN111967015A CN202010723063.5A CN202010723063A CN111967015A CN 111967015 A CN111967015 A CN 111967015A CN 202010723063 A CN202010723063 A CN 202010723063A CN 111967015 A CN111967015 A CN 111967015A
- Authority
- CN
- China
- Prior art keywords
- credibility
- training
- node
- working
- classifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/57—Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明属于分布式人工智能技术领域,具体为一种提升分布式学习系统拜占庭鲁棒性的防御代理方法。本发明利用基于神经网络结构的适应性可信度评估模块以动态评估各提交梯度的可信度,更新当前主节点上维护的全局分类器参数,生成奖励信号,并根据奖励信号在强化学习的框架下调整适应性可信度评估模块的参数;在训练过程中动态调整对各个工作节点的可行度评估值,缓解恶意工作节点提交的被篡改的梯度对系统训练过程的影响,以提升分布式学习系统的拜占庭鲁棒性。本发明能够广泛应用于各类分布式深度学习系统,提升系统的拜占庭鲁棒性。对人工智能系统的分布式训练过程安全,尤其是在恶意工作节点比例大于或等于50%的情况下,有明显提升。
Description
技术领域
本发明属于分布式人工智能技术领域,具体涉及一种提升分布式学习系统拜占庭鲁棒性的防御代理方法。
背景技术
随着深度学习技术的不断发展,海量训练数据正投入到基于机器学习的分类器的训练过程中,在分布式平台上构建分类器也逐渐成为工业界的主流趋势。然而,由于传输错误、蓄意篡改等因素,分布式学习系统中部分工作节点可能向主节点提交被篡改的梯度诱使主节点的梯度合并算法异常,导致参数更新决策错误,以扰乱分类器的正常训练过程,这通常被称作针对分布式学习系统的拜占庭攻击。现有拜占庭鲁棒性提升方法大多依赖于梯度间的“多数表决机制”,一旦系统中的多数工作节点出现拜占庭异常或者被恶意控制之后,这些防御机制将失效,无法使分布式学习系统获得令人满意的拜占庭鲁棒性。
发明内容
本发明针对分布式学习系统的拜占庭攻击,提出一种提升分布式学习系统拜占庭鲁棒性的防御代理方法。
本发明中,所述的分布式学习系统,由一个中心计算节点(简称“主节点”)以及多个工作计算节点(简称“工作节点”)构成;在系统训练过程中,主节点通过迭代地聚合由工作节点计算并上传的分类器梯度方向,以更新其内部维护的全局分类器参数,并下发更新后的全局分类器参数,如此迭代至预设训练轮数;上述一次迭代过程简称一个“训练轮次”。
本发明在主节点额外部署一种基于神经网络的适应性可信度评估模块,该评估模块根据当前全局分类器参数、各工作节点提交的梯度及上一训练轮次的可信度评估值,动态评估当前训练轮次各个工作节点提交梯度的可信度,并将可信度作为权重以合并各工作节点提交梯度,从而更新当前主节点上维护的全局分类器参数,并将利用主节点私有的小验证集评估参数更新前后分类器的损失函数变化情况,为适应性可信度评估模块生成相应的奖励信号,以指导该模块的参数优化。在分布式学习系统训练过程中,适应性可信度评估模块以上述方式动态调整对各个工作节点的可行度评估值,缓解恶意工作节点对系统训练过程的影响,以提升分布式学习系统的拜占庭鲁棒性。
本发明提出的提升分布式学习系统拜占庭鲁棒性的防御代理方法,首先,利用基于神经网络结构的适应性可信度评估模块,以动态评估各提交梯度的可信度;然后,将可信度交与主节点作为参数更新过程合并工作节点提交梯度的权重,以更新当前主节点上维护的全局分类器参数,并将更新后的参数在主节点私有的小验证集上进行评估,生成相应的奖励信号;最后,根据该奖励信号在强化学习的框架下进一步调整适应性可信度评估模块的参数,以保证学习过程寻找到准确度高的较优的分类器。具体步骤如下:
步骤一、初始化:在分布式系统训练开始前,分别准备主节点上的私有小验证集和初始化适应性可信度评估模块的可信度向量。
(1.1)准备小验证集:从训练数据集中均匀采样K个随机数据样本作为小验证集,记为S。
步骤二、评估当前训练轮次各工作节点可信度:在训练轮次t,当前可信度通过如下步骤得到:
(2.2)将上述矩阵作为适应性可信度评估模块的输入,得到维度为n,且每一分量属于[0,1]区间并满足归一化性质的输出向量,作为当前轮次的可信度评估值适应性可信度评估模块的网络结构具体包括:一个全连接层,一个平均池化层和一个Softmax层(如图2所示)。
步骤三、利用当前可信度评估值聚合工作节点梯度并更新模型:将可信度作为权重以合并各工作节点提交梯度,具体为:
其中,θt,θt+1分别表示训练轮次t,t+1结束后,主节点维护的全局分类器的参数;λ表示学习率,为正常数;n表示工作节点个数,为自然数;表示主节点在训练轮次t对工作节点i的可信度评估值;Vi (t)表示工作节点i在训练轮次t提交的梯度;
本发明中学习率λ优选为0.001。
步骤四、利用小验证集生成奖励信号:在训练轮次t,主节点计算全局分类器在参数更新前后在小验证集S上的损失函数的差值,即:
Rt=∑(x,y)∈Sl(f(x;θt),y)-l(f(x;θt-1),y)
作为奖励信号。其中,f(x;θt)表示当分类器参数为θt时,分类器对于数据点x的预测分类结果,y为真实分类结果,l为衡量两者之间误差的预设函数,和主节点分类器采用的预设函数保持一致。同时,在奖励信号的计算过程中,需要维持适应性可信度评估模块输入到奖励信号Rt之间的计算图(如图3所示),为后续步骤中适应性可信度评估模块的优化做准备。
步骤五、优化适应性可信度评估模块参数:在训练轮次t且t大于等于预设训练周期跨度T,计算当前轮次前T个训练轮次中的累计奖励信号:并利用梯度上升对适应性模块的参数以最大化上述累计奖励型号为优化目标进行一步参数更新。具体为:
其中,ψt,ψt+1分别表示训练轮次t,t+1开始时,适应性可信度评估模块的参数;这里,γ为折扣因子,γ为小于等于1的正常数,优选为0.99,T为训练周期跨度T,优选为5,η为适应性可信度评估模块更新学习率,η优选为0.1。
本发明中,所述的恶意工作节点,是指在分布式学习系统训练过程,通过提交被篡改梯度以影响系统的正常训练过程的部分工作节点。涉及的篡改方法包括增加随机噪声扰动、基于优化的篡改方法。
本发明中,所述的拜占庭鲁棒性,在分布式学习系统中的部分节点为恶意工作节点时,当训练达到指定轮数后,主节点维护的全局分类器在测试任务上的准确度与不具备恶意工作节点情况下正常训练的准确度之间的差距。
本发明中,所述的私有的小验证集,通过主节点在训练开始前随机采样K个额外训练数据样本作为私有的小验证集。小验证集样本个数K优选为涉及分类任务的类个数。例如对于十分类任务,小验证集样本个数K优选为10。
技术效果
本发明通过部署在主节点的随着训练过程动态调整可信度评估的适应性可信度评估模块,缓解恶意工作节点对系统训练过程的影响,防御恶意工作节点攻击效果明显,对分布式学习系统的拜占庭鲁棒性提升较高。部署有适应性可信度评估模块的分布式学习系统在系统中恶意工作节点比例大于或等于50%的情况下,当训练达到指定轮数后,主节点维护的全局分类器在测试任务上的准确度高于部署有现有的Krum防御方法和几何中位数(Geometric Median)防御算法的系统最终准确度,且接近分布式学习系统正常训练情况下的准确度。
附图说明
图1为本发明方法流程示意图。
图2为适应性可信度评估模块的神经网络结构图。
图3为部署有适应性可信度评估模块的分布式学习系统训练过程图示。
图4为实施例拜占庭鲁棒性提升效果对比示意图。
具体实施方式
如图1所示,本实施例采用CIFAR-10数据集,通过本实施例方法提升分类器为用于物体识别(十分类任务)的深层卷积神经网络ResNet-18的具有50个工作节点的分布式学习系统训练过程的拜占庭鲁棒性。本实施例具体包括:
步骤一、初始化阶段:在分布式系统训练开始前,分别准备主节点上的私有小验证集和初始化适应性可信度评估模块的可信度向量。
(1.1)准备小验证集:从CIFAR-10的训练数据集中均匀采样K个随机数据样本作为小验证集S。在本实施例中,小验证集大小K选为10。
步骤二、评估当前训练轮次各工作节点可信度:在训练轮次t,当前可信度通过如下步骤得到:
(2.1)将主节点上全局分类器的参数θt、所有工作节点上传的梯度以及上一轮评估的可信度向量拼接为如图2左侧所示(3n+1)×d大小的矩阵,其中,d为全局分类器的参数个数。在本实施例中,d为深层卷积神经网络ResNet-18的参数个数:11173962。
(2.2)将上述矩阵作为适应性可信度评估模块的输入,得到维度为n,且每一分量属于[0,1]区间并满足归一化性质的输出向量作为当前轮次的可信度评估值适应性可信度评估模块的网络结构如图2所示,具体包括:一个全连接层,一个平均池化层和一个Softmax层。
步骤四、利用小验证集生成奖励信号:在训练轮次t,主节点计算全局分类器在参数更新前后在小验证集S上的损失函数的差值,即∑(x,y)∈Sl(f(x;θt),y)-l(f(x;θt-1),y)作为奖励信号Rt,并维持适应性可信度评估模块输入到奖励信号Rt之间的计算,如图3所示。其中,f(x;θt)表示当分类器参数为θt时,分类器对于数据点x的预测分类结果,y为真实分类结果,l为衡量两者之间误差的预设函数,和主节点分类器采用的预设函数保持一致。在本实施例中,l为交叉熵函数。
步骤五、优化适应性可信度评估模块参数:在训练轮次t且t大于等于预设训练周期跨度T,计算当前轮次前T个训练轮次中的累计奖励信号:并利用梯度上升对适应性模块的参数以最大化上述累计奖励型号为优化目标进行一步参数更新。具体为:
其中,ψt,ψt+1分别表示训练轮次t,t+1开始时,适应性可信度评估模块的参数。在本实施例中,折扣因子γ选为0.99,训练周期跨度T选为5,适应性可信度评估模块更新学习率η选为0.1。
如图4所示,在达到相同的分布式学习任务预设的训练轮数后,在系统中恶意工作节点比例为0.7,即50个工作节点中由35个为恶意工作节点,与部署有经典平均梯度聚合方法、现有的其他拜占庭鲁棒性提升算法,以及无拜占庭攻击的正常情况下的全局分类器分类准确度对比:
经典平均梯度聚合方法(Classical GAR):10.00%;
Krum方法:10.00%;几何中位数方法(Geometric Median):10.00%;
无攻击情况:64.00%;
提升分布式学习系统拜占庭鲁棒性的防御代理方法:61.82%;
在其他数据集上进行相同的实验,对比实验效果:
MNIST:
经典平均梯度聚合方法(Classical GAR):41.49%;
Krum方法:13.11%;
几何中位数方法(Geometric Median):12.89%;
无攻击情况:96.48%;
提升分布式学习系统拜占庭鲁棒性的防御代理方法:88.91%;
Yelp:
经典平均梯度聚合方法(Classical GAR):50.00%;
Krum方法:50.10%;
几何中位数方法(Geometric Median):50.00%;
无攻击情况:84.45%;
基于强化学习技术的分布式学习系统拜占庭鲁棒性的提升方法:81.80%;
Healthcare:
经典平均梯度聚合方法(Classical GAR):13.15%;
Krum方法:10.05%;
几何中位数方法(Geometric Median):10.00%;
无攻击情况:73.05%;
提升分布式学习系统拜占庭鲁棒性的防御代理方法:60.85%。
综上所述,本发明能够广泛应用于各类分布式深度学习系统,如图像分类、智慧医疗等领域,以提升该类系统的拜占庭鲁棒性,对人工智能系统的分布式训练过程安全,尤其是在恶意工作节点比例大于或等于50%的情况下,有明显提升。
Claims (3)
1.一种提升分布式学习系统拜占庭鲁棒性的防御代理方法,其特征在于,所述分布式学习系统由一个中心计算节点以及多个工作计算节点构成,中心计算节点简称主节点,工作计算节点简称工作节点;在系统训练过程中,主节点通过迭代地聚合由工作节点计算并上传的分类器梯度方向,以更新其内部维护的全局分类器参数,并下发更新后的全局分类器参数,如此迭代至预设训练轮数;上述一次迭代过程简称一个“训练轮次”;
在系统的主节点额外部署一基于神经网络的适应性可信度评估模块;该评估模块根据当前全局分类器参数、各工作节点提交的梯度及上一训练轮次的可信度评估值,动态评估当前训练轮次各个工作节点提交梯度的可信度,并将可信度作为权重以合并各工作节点提交梯度,从而更新当前主节点上维护的全局分类器参数,并将利用主节点私有的小验证集评估参数更新前后分类器的损失函数变化情况,为适应性可信度评估模块生成相应的奖励信号,以指导该模块的参数优化;在分布式学习系统训练过程中,适应性可信度评估模块以上述方式动态调整对各个工作节点的可行度评估值,缓解恶意工作节点对系统训练过程的影响,以提升分布式学习系统的拜占庭鲁棒性。
2.根据权利要求1所述的提升分布式学习系统拜占庭鲁棒性的防御代理方法,其特征在于,首先,利用基于神经网络结构的适应性可信度评估模块,以动态评估各提交梯度的可信度;然后,将可信度交与主节点作为参数更新过程合并工作节点提交梯度的权重,以更新当前主节点上维护的全局分类器参数,并将更新后的参数在主节点私有的小验证集上进行评估,生成相应的奖励信号;最后,根据该奖励信号在强化学习的框架下进一步调整适应性可信度评估模块的参数,以保证学习过程寻找到准确度高的较优的分类器;具体步骤如下:
步骤一、初始化:在分布式系统训练开始前,分别准备主节点上的私有小验证集和初始化适应性可信度评估模块的可信度向量;
(1.1)准备小验证集:从训练数据集中均匀采样K个随机数据样本作为小验证集,记为S;
步骤二、评估当前训练轮次各工作节点可信度:在训练轮次t,当前可信度通过如下步骤得到:
(2.2)将上述矩阵作为适应性可信度评估模块的输入,得到维度为n,且每一分量属于[0,1]区间并满足归一化性质的输出向量,作为当前轮次的可信度评估值所述适应性可信度评估模块的网络结构包括:一个全连接层,一个平均池化层和一个Softmax层;
步骤三、利用当前可信度评估值聚合工作节点梯度并更新模型:将可信度作为权重以合并各工作节点提交梯度,具体为:
其中,θt,θt+1分别表示训练轮次t,t+1结束后,主节点维护的全局分类器的参数;λ表示学习率,为正常数;n表示工作节点个数,为自然数;表示主节点在训练轮次t对工作节点i的可信度评估值;Vi (t)表示工作节点i在训练轮次t提交的梯度;
步骤四、利用小验证集生成奖励信号:在训练轮次t,主节点计算全局分类器在参数更新前后在小验证集S上的损失函数的差值,即:
Rt=∑(x,y)∈Sl(f(x;θt),y)-l(f(x;θt-1),y)
作为奖励信号;其中,f(x;θt)表示当分类器参数为θt时,分类器对于数据点x的预测分类结果,y为真实分类结果,l为衡量两者之间误差的预设函数,和主节点分类器采用的预设函数保持一致;
步骤五、优化适应性可信度评估模块参数:在训练轮次t且t大于等于预设训练周期跨度T,计算当前轮次前T个训练轮次中的累计奖励信号:并利用梯度上升对适应性模块的参数以最大化上述累计奖励型号为优化目标进行一步参数更新;具体为:
其中,ψt,ψt+1分别表示训练轮次t,t+1开始时,适应性可信度评估模块的参数;这里,γ为折扣因子,γ为小于等于1的正常数,T为训练周期跨度T,η为适应性可信度评估模块更新学习率。
3.根据权利要求2所述的提升分布式学习系统拜占庭鲁棒性的防御代理方法,其特征在于,所述的小验证集样本个数K为涉及分类任务的类个数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010723063.5A CN111967015B (zh) | 2020-07-24 | 2020-07-24 | 一种提升分布式学习系统拜占庭鲁棒性的防御代理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010723063.5A CN111967015B (zh) | 2020-07-24 | 2020-07-24 | 一种提升分布式学习系统拜占庭鲁棒性的防御代理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111967015A true CN111967015A (zh) | 2020-11-20 |
CN111967015B CN111967015B (zh) | 2022-04-12 |
Family
ID=73362836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010723063.5A Active CN111967015B (zh) | 2020-07-24 | 2020-07-24 | 一种提升分布式学习系统拜占庭鲁棒性的防御代理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111967015B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112597240A (zh) * | 2021-03-01 | 2021-04-02 | 索信达(北京)数据技术有限公司 | 一种基于联盟链的联邦学习的数据处理方法与系统 |
CN114124579A (zh) * | 2022-01-26 | 2022-03-01 | 北京航空航天大学 | 一种基于以太坊抵御工业互联网中拜占庭攻击的方法 |
CN116862021A (zh) * | 2023-07-31 | 2023-10-10 | 山东省计算中心(国家超级计算济南中心) | 基于信誉评估的抗拜占庭攻击的去中心化学习方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102262537A (zh) * | 2011-07-21 | 2011-11-30 | 复旦大学 | 一种工作于混合模式执行引擎中的异常处理方法 |
US20130290223A1 (en) * | 2012-04-27 | 2013-10-31 | Yahoo! Inc. | Method and system for distributed machine learning |
CN106850583A (zh) * | 2017-01-06 | 2017-06-13 | 南京邮电大学 | 一种基于效用的分布式协作频谱感知攻击防御方法 |
CN108171073A (zh) * | 2017-12-06 | 2018-06-15 | 复旦大学 | 一种基于代码层语义解析驱动的隐私数据识别方法 |
WO2020011361A1 (en) * | 2018-07-12 | 2020-01-16 | Ecole polytechnique fédérale de Lausanne (EPFL) | Byzantine machine learning |
CN111079921A (zh) * | 2019-11-29 | 2020-04-28 | 杭州电子科技大学舟山同博海洋电子信息研究院有限公司 | 一种基于异构分布式系统的高效神经网络训练调度方法 |
CN111339675A (zh) * | 2020-03-10 | 2020-06-26 | 南栖仙策(南京)科技有限公司 | 基于机器学习构建模拟环境的智能营销策略的训练方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1229073C (zh) * | 1999-08-13 | 2005-11-30 | 益智韵律仪有限公司 | 提高学习能力的方法和装置 |
CN110544011B (zh) * | 2019-07-31 | 2023-03-24 | 北京航空航天大学 | 一种智能化的体系作战效能评估和优化方法 |
CN111414942B (zh) * | 2020-03-06 | 2022-05-03 | 重庆邮电大学 | 一种基于主动学习和卷积神经网络的遥感图像分类方法 |
-
2020
- 2020-07-24 CN CN202010723063.5A patent/CN111967015B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102262537A (zh) * | 2011-07-21 | 2011-11-30 | 复旦大学 | 一种工作于混合模式执行引擎中的异常处理方法 |
US20130290223A1 (en) * | 2012-04-27 | 2013-10-31 | Yahoo! Inc. | Method and system for distributed machine learning |
CN106850583A (zh) * | 2017-01-06 | 2017-06-13 | 南京邮电大学 | 一种基于效用的分布式协作频谱感知攻击防御方法 |
CN108171073A (zh) * | 2017-12-06 | 2018-06-15 | 复旦大学 | 一种基于代码层语义解析驱动的隐私数据识别方法 |
WO2020011361A1 (en) * | 2018-07-12 | 2020-01-16 | Ecole polytechnique fédérale de Lausanne (EPFL) | Byzantine machine learning |
CN111079921A (zh) * | 2019-11-29 | 2020-04-28 | 杭州电子科技大学舟山同博海洋电子信息研究院有限公司 | 一种基于异构分布式系统的高效神经网络训练调度方法 |
CN111339675A (zh) * | 2020-03-10 | 2020-06-26 | 南栖仙策(南京)科技有限公司 | 基于机器学习构建模拟环境的智能营销策略的训练方法 |
Non-Patent Citations (1)
Title |
---|
王笛 等: ""一种对象粒度的Java程序并发错误检测框架"", 《小型微型计算机系统》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112597240A (zh) * | 2021-03-01 | 2021-04-02 | 索信达(北京)数据技术有限公司 | 一种基于联盟链的联邦学习的数据处理方法与系统 |
CN112597240B (zh) * | 2021-03-01 | 2021-06-04 | 索信达(北京)数据技术有限公司 | 一种基于联盟链的联邦学习的数据处理方法与系统 |
CN114124579A (zh) * | 2022-01-26 | 2022-03-01 | 北京航空航天大学 | 一种基于以太坊抵御工业互联网中拜占庭攻击的方法 |
CN114124579B (zh) * | 2022-01-26 | 2022-04-12 | 北京航空航天大学 | 一种基于以太坊抵御工业互联网中拜占庭攻击的方法 |
CN116862021A (zh) * | 2023-07-31 | 2023-10-10 | 山东省计算中心(国家超级计算济南中心) | 基于信誉评估的抗拜占庭攻击的去中心化学习方法及系统 |
CN116862021B (zh) * | 2023-07-31 | 2024-05-03 | 山东省计算中心(国家超级计算济南中心) | 基于信誉评估的抗拜占庭攻击的去中心化学习方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111967015B (zh) | 2022-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111967015B (zh) | 一种提升分布式学习系统拜占庭鲁棒性的防御代理方法 | |
KR102644947B1 (ko) | 뉴럴 네트워크를 위한 트레이닝 방법, 뉴럴 네트워크를 이용한 인식 방법 및 그 장치들 | |
US10832123B2 (en) | Compression of deep neural networks with proper use of mask | |
US10762426B2 (en) | Multi-iteration compression for deep neural networks | |
CN111310915B (zh) | 一种面向强化学习的数据异常检测防御方法 | |
CN109067773B (zh) | 一种基于神经网络的车载can网络入侵检测方法及系统 | |
US20190050734A1 (en) | Compression method of deep neural networks | |
CN111310814A (zh) | 利用不平衡正负样本对业务预测模型训练的方法及装置 | |
CN111783442A (zh) | 入侵检测方法、设备和服务器、存储介质 | |
CN111477247B (zh) | 基于gan的语音对抗样本生成方法 | |
CN110826054B (zh) | 一种基于报文数据场特征的车载can总线入侵检测方法 | |
CN114842267A (zh) | 基于标签噪声域自适应的图像分类方法及系统 | |
Kutyniok | The mathematics of artificial intelligence | |
CN103559537B (zh) | 一种乱序数据流中基于误差反向传播的模板匹配方法 | |
CN106254330A (zh) | 一种基于bp神经网络的软件定义网络入侵检测方法 | |
CN108168577A (zh) | 基于bp神经网络的mems陀螺随机误差补偿方法 | |
US20200311527A1 (en) | Residual semi-recurrent neural networks | |
CN111967308A (zh) | 一种在线路面不平度辨识方法及系统 | |
CN114170789A (zh) | 基于时空图神经网络的智能网联车换道决策建模方法 | |
CN112099345A (zh) | 一种基于输入磁滞的模糊跟踪控制方法、系统及介质 | |
CN114548297A (zh) | 基于领域自适应的数据分类方法、装置、设备及介质 | |
CN112580728A (zh) | 一种基于强化学习的动态链路预测模型鲁棒性增强方法 | |
CN113947182A (zh) | 基于双阶段堆叠图卷积网络的交通流预测模型构建方法 | |
KR102120150B1 (ko) | 뉴럴 네트워크를 이용한 변분 추론 학습 방법 및 학습 장치, 그리고 이를 이용한 변분 추론 방법 및 장치 | |
CN113239809B (zh) | 基于多尺度稀疏sru分类模型的水声目标识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |