CN111967015A - 一种提升分布式学习系统拜占庭鲁棒性的防御代理方法 - Google Patents

一种提升分布式学习系统拜占庭鲁棒性的防御代理方法 Download PDF

Info

Publication number
CN111967015A
CN111967015A CN202010723063.5A CN202010723063A CN111967015A CN 111967015 A CN111967015 A CN 111967015A CN 202010723063 A CN202010723063 A CN 202010723063A CN 111967015 A CN111967015 A CN 111967015A
Authority
CN
China
Prior art keywords
credibility
training
node
working
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010723063.5A
Other languages
English (en)
Other versions
CN111967015B (zh
Inventor
杨珉
张谧
潘旭东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202010723063.5A priority Critical patent/CN111967015B/zh
Publication of CN111967015A publication Critical patent/CN111967015A/zh
Application granted granted Critical
Publication of CN111967015B publication Critical patent/CN111967015B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/57Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明属于分布式人工智能技术领域,具体为一种提升分布式学习系统拜占庭鲁棒性的防御代理方法。本发明利用基于神经网络结构的适应性可信度评估模块以动态评估各提交梯度的可信度,更新当前主节点上维护的全局分类器参数,生成奖励信号,并根据奖励信号在强化学习的框架下调整适应性可信度评估模块的参数;在训练过程中动态调整对各个工作节点的可行度评估值,缓解恶意工作节点提交的被篡改的梯度对系统训练过程的影响,以提升分布式学习系统的拜占庭鲁棒性。本发明能够广泛应用于各类分布式深度学习系统,提升系统的拜占庭鲁棒性。对人工智能系统的分布式训练过程安全,尤其是在恶意工作节点比例大于或等于50%的情况下,有明显提升。

Description

一种提升分布式学习系统拜占庭鲁棒性的防御代理方法
技术领域
本发明属于分布式人工智能技术领域,具体涉及一种提升分布式学习系统拜占庭鲁棒性的防御代理方法。
背景技术
随着深度学习技术的不断发展,海量训练数据正投入到基于机器学习的分类器的训练过程中,在分布式平台上构建分类器也逐渐成为工业界的主流趋势。然而,由于传输错误、蓄意篡改等因素,分布式学习系统中部分工作节点可能向主节点提交被篡改的梯度诱使主节点的梯度合并算法异常,导致参数更新决策错误,以扰乱分类器的正常训练过程,这通常被称作针对分布式学习系统的拜占庭攻击。现有拜占庭鲁棒性提升方法大多依赖于梯度间的“多数表决机制”,一旦系统中的多数工作节点出现拜占庭异常或者被恶意控制之后,这些防御机制将失效,无法使分布式学习系统获得令人满意的拜占庭鲁棒性。
发明内容
本发明针对分布式学习系统的拜占庭攻击,提出一种提升分布式学习系统拜占庭鲁棒性的防御代理方法。
本发明中,所述的分布式学习系统,由一个中心计算节点(简称“主节点”)以及多个工作计算节点(简称“工作节点”)构成;在系统训练过程中,主节点通过迭代地聚合由工作节点计算并上传的分类器梯度方向,以更新其内部维护的全局分类器参数,并下发更新后的全局分类器参数,如此迭代至预设训练轮数;上述一次迭代过程简称一个“训练轮次”。
本发明在主节点额外部署一种基于神经网络的适应性可信度评估模块,该评估模块根据当前全局分类器参数、各工作节点提交的梯度及上一训练轮次的可信度评估值,动态评估当前训练轮次各个工作节点提交梯度的可信度,并将可信度作为权重以合并各工作节点提交梯度,从而更新当前主节点上维护的全局分类器参数,并将利用主节点私有的小验证集评估参数更新前后分类器的损失函数变化情况,为适应性可信度评估模块生成相应的奖励信号,以指导该模块的参数优化。在分布式学习系统训练过程中,适应性可信度评估模块以上述方式动态调整对各个工作节点的可行度评估值,缓解恶意工作节点对系统训练过程的影响,以提升分布式学习系统的拜占庭鲁棒性。
本发明提出的提升分布式学习系统拜占庭鲁棒性的防御代理方法,首先,利用基于神经网络结构的适应性可信度评估模块,以动态评估各提交梯度的可信度;然后,将可信度交与主节点作为参数更新过程合并工作节点提交梯度的权重,以更新当前主节点上维护的全局分类器参数,并将更新后的参数在主节点私有的小验证集上进行评估,生成相应的奖励信号;最后,根据该奖励信号在强化学习的框架下进一步调整适应性可信度评估模块的参数,以保证学习过程寻找到准确度高的较优的分类器。具体步骤如下:
步骤一、初始化:在分布式系统训练开始前,分别准备主节点上的私有小验证集和初始化适应性可信度评估模块的可信度向量。
(1.1)准备小验证集:从训练数据集中均匀采样K个随机数据样本作为小验证集,记为S。
(1.2)可信度向量初始化:初始化零时刻适应性可信度评估模块的可信度向量
Figure BDA0002600714990000021
其中,n为工作节点个数;以下步骤迭代执行直至达到对应分布式学习任务的预设训练轮数。
步骤二、评估当前训练轮次各工作节点可信度:在训练轮次t,当前可信度通过如下步骤得到:
(2.1)将主节点上全局分类器的参数θt、所有工作节点上传的梯度
Figure BDA0002600714990000022
以及上一轮评估的可信度向量
Figure BDA0002600714990000023
拼接为(3n+1)×d大小的矩阵(如如图2左侧所示),其中,d为全局分类器的参数个数。
(2.2)将上述矩阵作为适应性可信度评估模块的输入,得到维度为n,且每一分量属于[0,1]区间并满足归一化性质的输出向量,作为当前轮次的可信度评估值
Figure BDA0002600714990000024
适应性可信度评估模块的网络结构具体包括:一个全连接层,一个平均池化层和一个Softmax层(如图2所示)。
步骤三、利用当前可信度评估值聚合工作节点梯度并更新模型:将可信度作为权重以合并各工作节点提交梯度,具体为:
Figure BDA0002600714990000025
其中,θt,θt+1分别表示训练轮次t,t+1结束后,主节点维护的全局分类器的参数;λ表示学习率,为正常数;n表示工作节点个数,为自然数;
Figure BDA0002600714990000026
表示主节点在训练轮次t对工作节点i的可信度评估值;Vi (t)表示工作节点i在训练轮次t提交的梯度;
本发明中学习率λ优选为0.001。
步骤四、利用小验证集生成奖励信号:在训练轮次t,主节点计算全局分类器在参数更新前后在小验证集S上的损失函数的差值,即:
Rt=∑(x,y)∈Sl(f(x;θt),y)-l(f(x;θt-1),y)
作为奖励信号。其中,f(x;θt)表示当分类器参数为θt时,分类器对于数据点x的预测分类结果,y为真实分类结果,l为衡量两者之间误差的预设函数,和主节点分类器采用的预设函数保持一致。同时,在奖励信号的计算过程中,需要维持适应性可信度评估模块输入到奖励信号Rt之间的计算图(如图3所示),为后续步骤中适应性可信度评估模块的优化做准备。
步骤五、优化适应性可信度评估模块参数:在训练轮次t且t大于等于预设训练周期跨度T,计算当前轮次前T个训练轮次中的累计奖励信号:
Figure BDA0002600714990000031
并利用梯度上升对适应性模块的参数以最大化上述累计奖励型号为优化目标进行一步参数更新。具体为:
Figure BDA0002600714990000032
其中,ψt,ψt+1分别表示训练轮次t,t+1开始时,适应性可信度评估模块的参数;这里,γ为折扣因子,γ为小于等于1的正常数,优选为0.99,T为训练周期跨度T,优选为5,η为适应性可信度评估模块更新学习率,η优选为0.1。
本发明中,所述的恶意工作节点,是指在分布式学习系统训练过程,通过提交被篡改梯度以影响系统的正常训练过程的部分工作节点。涉及的篡改方法包括增加随机噪声扰动、基于优化的篡改方法。
本发明中,所述的拜占庭鲁棒性,在分布式学习系统中的部分节点为恶意工作节点时,当训练达到指定轮数后,主节点维护的全局分类器在测试任务上的准确度与不具备恶意工作节点情况下正常训练的准确度之间的差距。
本发明中,所述的私有的小验证集,通过主节点在训练开始前随机采样K个额外训练数据样本作为私有的小验证集。小验证集样本个数K优选为涉及分类任务的类个数。例如对于十分类任务,小验证集样本个数K优选为10。
技术效果
本发明通过部署在主节点的随着训练过程动态调整可信度评估的适应性可信度评估模块,缓解恶意工作节点对系统训练过程的影响,防御恶意工作节点攻击效果明显,对分布式学习系统的拜占庭鲁棒性提升较高。部署有适应性可信度评估模块的分布式学习系统在系统中恶意工作节点比例大于或等于50%的情况下,当训练达到指定轮数后,主节点维护的全局分类器在测试任务上的准确度高于部署有现有的Krum防御方法和几何中位数(Geometric Median)防御算法的系统最终准确度,且接近分布式学习系统正常训练情况下的准确度。
附图说明
图1为本发明方法流程示意图。
图2为适应性可信度评估模块的神经网络结构图。
图3为部署有适应性可信度评估模块的分布式学习系统训练过程图示。
图4为实施例拜占庭鲁棒性提升效果对比示意图。
具体实施方式
如图1所示,本实施例采用CIFAR-10数据集,通过本实施例方法提升分类器为用于物体识别(十分类任务)的深层卷积神经网络ResNet-18的具有50个工作节点的分布式学习系统训练过程的拜占庭鲁棒性。本实施例具体包括:
步骤一、初始化阶段:在分布式系统训练开始前,分别准备主节点上的私有小验证集和初始化适应性可信度评估模块的可信度向量。
(1.1)准备小验证集:从CIFAR-10的训练数据集中均匀采样K个随机数据样本作为小验证集S。在本实施例中,小验证集大小K选为10。
(1.2)可信度向量初始化:初始化零时刻适应性可信度评估模块的可信度向量
Figure BDA0002600714990000041
其中,n为工作节点个数,即在本实施例中,n=50。以下步骤迭代执行直至达到对应分布式学习任务的预设训练轮数。
步骤二、评估当前训练轮次各工作节点可信度:在训练轮次t,当前可信度通过如下步骤得到:
(2.1)将主节点上全局分类器的参数θt、所有工作节点上传的梯度
Figure BDA0002600714990000042
以及上一轮评估的可信度向量
Figure BDA0002600714990000043
拼接为如图2左侧所示(3n+1)×d大小的矩阵,其中,d为全局分类器的参数个数。在本实施例中,d为深层卷积神经网络ResNet-18的参数个数:11173962。
(2.2)将上述矩阵作为适应性可信度评估模块的输入,得到维度为n,且每一分量属于[0,1]区间并满足归一化性质的输出向量作为当前轮次的可信度评估值
Figure BDA0002600714990000044
适应性可信度评估模块的网络结构如图2所示,具体包括:一个全连接层,一个平均池化层和一个Softmax层。
步骤三、利用当前可信度评估值聚合工作节点梯度并更新模型:将可信度作为权重以合并各工作节点提交梯度,具体为:
Figure BDA0002600714990000045
在本实施例中,学习率λ选为0.001。
步骤四、利用小验证集生成奖励信号:在训练轮次t,主节点计算全局分类器在参数更新前后在小验证集S上的损失函数的差值,即∑(x,y)∈Sl(f(x;θt),y)-l(f(x;θt-1),y)作为奖励信号Rt,并维持适应性可信度评估模块输入到奖励信号Rt之间的计算,如图3所示。其中,f(x;θt)表示当分类器参数为θt时,分类器对于数据点x的预测分类结果,y为真实分类结果,l为衡量两者之间误差的预设函数,和主节点分类器采用的预设函数保持一致。在本实施例中,l为交叉熵函数。
步骤五、优化适应性可信度评估模块参数:在训练轮次t且t大于等于预设训练周期跨度T,计算当前轮次前T个训练轮次中的累计奖励信号:
Figure BDA0002600714990000051
并利用梯度上升对适应性模块的参数以最大化上述累计奖励型号为优化目标进行一步参数更新。具体为:
Figure BDA0002600714990000052
其中,ψt,ψt+1分别表示训练轮次t,t+1开始时,适应性可信度评估模块的参数。在本实施例中,折扣因子γ选为0.99,训练周期跨度T选为5,适应性可信度评估模块更新学习率η选为0.1。
如图4所示,在达到相同的分布式学习任务预设的训练轮数后,在系统中恶意工作节点比例为0.7,即50个工作节点中由35个为恶意工作节点,与部署有经典平均梯度聚合方法、现有的其他拜占庭鲁棒性提升算法,以及无拜占庭攻击的正常情况下的全局分类器分类准确度对比:
经典平均梯度聚合方法(Classical GAR):10.00%;
Krum方法:10.00%;几何中位数方法(Geometric Median):10.00%;
无攻击情况:64.00%;
提升分布式学习系统拜占庭鲁棒性的防御代理方法:61.82%;
在其他数据集上进行相同的实验,对比实验效果:
MNIST:
经典平均梯度聚合方法(Classical GAR):41.49%;
Krum方法:13.11%;
几何中位数方法(Geometric Median):12.89%;
无攻击情况:96.48%;
提升分布式学习系统拜占庭鲁棒性的防御代理方法:88.91%;
Yelp:
经典平均梯度聚合方法(Classical GAR):50.00%;
Krum方法:50.10%;
几何中位数方法(Geometric Median):50.00%;
无攻击情况:84.45%;
基于强化学习技术的分布式学习系统拜占庭鲁棒性的提升方法:81.80%;
Healthcare:
经典平均梯度聚合方法(Classical GAR):13.15%;
Krum方法:10.05%;
几何中位数方法(Geometric Median):10.00%;
无攻击情况:73.05%;
提升分布式学习系统拜占庭鲁棒性的防御代理方法:60.85%。
综上所述,本发明能够广泛应用于各类分布式深度学习系统,如图像分类、智慧医疗等领域,以提升该类系统的拜占庭鲁棒性,对人工智能系统的分布式训练过程安全,尤其是在恶意工作节点比例大于或等于50%的情况下,有明显提升。

Claims (3)

1.一种提升分布式学习系统拜占庭鲁棒性的防御代理方法,其特征在于,所述分布式学习系统由一个中心计算节点以及多个工作计算节点构成,中心计算节点简称主节点,工作计算节点简称工作节点;在系统训练过程中,主节点通过迭代地聚合由工作节点计算并上传的分类器梯度方向,以更新其内部维护的全局分类器参数,并下发更新后的全局分类器参数,如此迭代至预设训练轮数;上述一次迭代过程简称一个“训练轮次”;
在系统的主节点额外部署一基于神经网络的适应性可信度评估模块;该评估模块根据当前全局分类器参数、各工作节点提交的梯度及上一训练轮次的可信度评估值,动态评估当前训练轮次各个工作节点提交梯度的可信度,并将可信度作为权重以合并各工作节点提交梯度,从而更新当前主节点上维护的全局分类器参数,并将利用主节点私有的小验证集评估参数更新前后分类器的损失函数变化情况,为适应性可信度评估模块生成相应的奖励信号,以指导该模块的参数优化;在分布式学习系统训练过程中,适应性可信度评估模块以上述方式动态调整对各个工作节点的可行度评估值,缓解恶意工作节点对系统训练过程的影响,以提升分布式学习系统的拜占庭鲁棒性。
2.根据权利要求1所述的提升分布式学习系统拜占庭鲁棒性的防御代理方法,其特征在于,首先,利用基于神经网络结构的适应性可信度评估模块,以动态评估各提交梯度的可信度;然后,将可信度交与主节点作为参数更新过程合并工作节点提交梯度的权重,以更新当前主节点上维护的全局分类器参数,并将更新后的参数在主节点私有的小验证集上进行评估,生成相应的奖励信号;最后,根据该奖励信号在强化学习的框架下进一步调整适应性可信度评估模块的参数,以保证学习过程寻找到准确度高的较优的分类器;具体步骤如下:
步骤一、初始化:在分布式系统训练开始前,分别准备主节点上的私有小验证集和初始化适应性可信度评估模块的可信度向量;
(1.1)准备小验证集:从训练数据集中均匀采样K个随机数据样本作为小验证集,记为S;
(1.2)可信度向量初始化:初始化零时刻适应性可信度评估模块的可信度向量
Figure FDA0002600714980000011
其中,n为工作节点个数;以下步骤迭代执行直至达到对应分布式学习任务的预设训练轮数;
步骤二、评估当前训练轮次各工作节点可信度:在训练轮次t,当前可信度通过如下步骤得到:
(2.1)将主节点上全局分类器的参数θt、所有工作节点上传的梯度
Figure FDA0002600714980000012
以及上一轮评估的可信度向量
Figure FDA0002600714980000013
拼接为(3n+1)×d大小的矩阵,其中,d为全局分类器的参数个数;
(2.2)将上述矩阵作为适应性可信度评估模块的输入,得到维度为n,且每一分量属于[0,1]区间并满足归一化性质的输出向量,作为当前轮次的可信度评估值
Figure FDA0002600714980000021
所述适应性可信度评估模块的网络结构包括:一个全连接层,一个平均池化层和一个Softmax层;
步骤三、利用当前可信度评估值聚合工作节点梯度并更新模型:将可信度作为权重以合并各工作节点提交梯度,具体为:
Figure FDA0002600714980000022
其中,θt,θt+1分别表示训练轮次t,t+1结束后,主节点维护的全局分类器的参数;λ表示学习率,为正常数;n表示工作节点个数,为自然数;
Figure FDA0002600714980000023
表示主节点在训练轮次t对工作节点i的可信度评估值;Vi (t)表示工作节点i在训练轮次t提交的梯度;
步骤四、利用小验证集生成奖励信号:在训练轮次t,主节点计算全局分类器在参数更新前后在小验证集S上的损失函数的差值,即:
Rt=∑(x,y)∈Sl(f(x;θt),y)-l(f(x;θt-1),y)
作为奖励信号;其中,f(x;θt)表示当分类器参数为θt时,分类器对于数据点x的预测分类结果,y为真实分类结果,l为衡量两者之间误差的预设函数,和主节点分类器采用的预设函数保持一致;
步骤五、优化适应性可信度评估模块参数:在训练轮次t且t大于等于预设训练周期跨度T,计算当前轮次前T个训练轮次中的累计奖励信号:
Figure FDA0002600714980000024
并利用梯度上升对适应性模块的参数以最大化上述累计奖励型号为优化目标进行一步参数更新;具体为:
Figure FDA0002600714980000025
其中,ψt,ψt+1分别表示训练轮次t,t+1开始时,适应性可信度评估模块的参数;这里,γ为折扣因子,γ为小于等于1的正常数,T为训练周期跨度T,η为适应性可信度评估模块更新学习率。
3.根据权利要求2所述的提升分布式学习系统拜占庭鲁棒性的防御代理方法,其特征在于,所述的小验证集样本个数K为涉及分类任务的类个数。
CN202010723063.5A 2020-07-24 2020-07-24 一种提升分布式学习系统拜占庭鲁棒性的防御代理方法 Active CN111967015B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010723063.5A CN111967015B (zh) 2020-07-24 2020-07-24 一种提升分布式学习系统拜占庭鲁棒性的防御代理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010723063.5A CN111967015B (zh) 2020-07-24 2020-07-24 一种提升分布式学习系统拜占庭鲁棒性的防御代理方法

Publications (2)

Publication Number Publication Date
CN111967015A true CN111967015A (zh) 2020-11-20
CN111967015B CN111967015B (zh) 2022-04-12

Family

ID=73362836

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010723063.5A Active CN111967015B (zh) 2020-07-24 2020-07-24 一种提升分布式学习系统拜占庭鲁棒性的防御代理方法

Country Status (1)

Country Link
CN (1) CN111967015B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112597240A (zh) * 2021-03-01 2021-04-02 索信达(北京)数据技术有限公司 一种基于联盟链的联邦学习的数据处理方法与系统
CN114124579A (zh) * 2022-01-26 2022-03-01 北京航空航天大学 一种基于以太坊抵御工业互联网中拜占庭攻击的方法
CN116862021A (zh) * 2023-07-31 2023-10-10 山东省计算中心(国家超级计算济南中心) 基于信誉评估的抗拜占庭攻击的去中心化学习方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102262537A (zh) * 2011-07-21 2011-11-30 复旦大学 一种工作于混合模式执行引擎中的异常处理方法
US20130290223A1 (en) * 2012-04-27 2013-10-31 Yahoo! Inc. Method and system for distributed machine learning
CN106850583A (zh) * 2017-01-06 2017-06-13 南京邮电大学 一种基于效用的分布式协作频谱感知攻击防御方法
CN108171073A (zh) * 2017-12-06 2018-06-15 复旦大学 一种基于代码层语义解析驱动的隐私数据识别方法
WO2020011361A1 (en) * 2018-07-12 2020-01-16 Ecole polytechnique fédérale de Lausanne (EPFL) Byzantine machine learning
CN111079921A (zh) * 2019-11-29 2020-04-28 杭州电子科技大学舟山同博海洋电子信息研究院有限公司 一种基于异构分布式系统的高效神经网络训练调度方法
CN111339675A (zh) * 2020-03-10 2020-06-26 南栖仙策(南京)科技有限公司 基于机器学习构建模拟环境的智能营销策略的训练方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU780567B2 (en) * 1999-08-13 2005-04-07 James F. Cassily Method and apparatus of enhancing learning capacity
CN110544011B (zh) * 2019-07-31 2023-03-24 北京航空航天大学 一种智能化的体系作战效能评估和优化方法
CN111414942B (zh) * 2020-03-06 2022-05-03 重庆邮电大学 一种基于主动学习和卷积神经网络的遥感图像分类方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102262537A (zh) * 2011-07-21 2011-11-30 复旦大学 一种工作于混合模式执行引擎中的异常处理方法
US20130290223A1 (en) * 2012-04-27 2013-10-31 Yahoo! Inc. Method and system for distributed machine learning
CN106850583A (zh) * 2017-01-06 2017-06-13 南京邮电大学 一种基于效用的分布式协作频谱感知攻击防御方法
CN108171073A (zh) * 2017-12-06 2018-06-15 复旦大学 一种基于代码层语义解析驱动的隐私数据识别方法
WO2020011361A1 (en) * 2018-07-12 2020-01-16 Ecole polytechnique fédérale de Lausanne (EPFL) Byzantine machine learning
CN111079921A (zh) * 2019-11-29 2020-04-28 杭州电子科技大学舟山同博海洋电子信息研究院有限公司 一种基于异构分布式系统的高效神经网络训练调度方法
CN111339675A (zh) * 2020-03-10 2020-06-26 南栖仙策(南京)科技有限公司 基于机器学习构建模拟环境的智能营销策略的训练方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王笛 等: ""一种对象粒度的Java程序并发错误检测框架"", 《小型微型计算机系统》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112597240A (zh) * 2021-03-01 2021-04-02 索信达(北京)数据技术有限公司 一种基于联盟链的联邦学习的数据处理方法与系统
CN112597240B (zh) * 2021-03-01 2021-06-04 索信达(北京)数据技术有限公司 一种基于联盟链的联邦学习的数据处理方法与系统
CN114124579A (zh) * 2022-01-26 2022-03-01 北京航空航天大学 一种基于以太坊抵御工业互联网中拜占庭攻击的方法
CN114124579B (zh) * 2022-01-26 2022-04-12 北京航空航天大学 一种基于以太坊抵御工业互联网中拜占庭攻击的方法
CN116862021A (zh) * 2023-07-31 2023-10-10 山东省计算中心(国家超级计算济南中心) 基于信誉评估的抗拜占庭攻击的去中心化学习方法及系统
CN116862021B (zh) * 2023-07-31 2024-05-03 山东省计算中心(国家超级计算济南中心) 基于信誉评估的抗拜占庭攻击的去中心化学习方法及系统

Also Published As

Publication number Publication date
CN111967015B (zh) 2022-04-12

Similar Documents

Publication Publication Date Title
CN111967015B (zh) 一种提升分布式学习系统拜占庭鲁棒性的防御代理方法
KR102644947B1 (ko) 뉴럴 네트워크를 위한 트레이닝 방법, 뉴럴 네트워크를 이용한 인식 방법 및 그 장치들
US10832123B2 (en) Compression of deep neural networks with proper use of mask
US10762426B2 (en) Multi-iteration compression for deep neural networks
CN111310915B (zh) 一种面向强化学习的数据异常检测防御方法
CN108062561B (zh) 一种基于长短时记忆网络模型的短时数据流预测方法
US20190050734A1 (en) Compression method of deep neural networks
CN111310814A (zh) 利用不平衡正负样本对业务预测模型训练的方法及装置
CN111477247B (zh) 基于gan的语音对抗样本生成方法
CN110826054B (zh) 一种基于报文数据场特征的车载can总线入侵检测方法
CN114842267A (zh) 基于标签噪声域自适应的图像分类方法及系统
US20200311527A1 (en) Residual semi-recurrent neural networks
Kutyniok The mathematics of artificial intelligence
CN112580728A (zh) 一种基于强化学习的动态链路预测模型鲁棒性增强方法
CN111967308A (zh) 一种在线路面不平度辨识方法及系统
Ji et al. Learning the dynamics of time delay systems with trainable delays
KR20220058189A (ko) 뉴럴 네트워크를 이용한 분류 방법 및 장치
KR102120150B1 (ko) 뉴럴 네트워크를 이용한 변분 추론 학습 방법 및 학습 장치, 그리고 이를 이용한 변분 추론 방법 및 장치
CN107665315B (zh) 一种适用于Hadoop的基于角色与信任的访问控制方法
CN107229944B (zh) 基于认知信息粒子的半监督主动识别方法
CN113239809B (zh) 基于多尺度稀疏sru分类模型的水声目标识别方法
CN116010832A (zh) 联邦聚类方法、装置、中心服务器、系统和电子设备
CN111582470B (zh) 基于stdp的自适应非监督学习图像识别方法及系统
CN113872703A (zh) 对量子通信网络中多网元数据进行预测的方法及系统
CN114548297A (zh) 基于领域自适应的数据分类方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant