CN113537400B - 一种基于分支神经网络的边缘计算节点的分配与退出方法 - Google Patents

一种基于分支神经网络的边缘计算节点的分配与退出方法 Download PDF

Info

Publication number
CN113537400B
CN113537400B CN202110920295.4A CN202110920295A CN113537400B CN 113537400 B CN113537400 B CN 113537400B CN 202110920295 A CN202110920295 A CN 202110920295A CN 113537400 B CN113537400 B CN 113537400B
Authority
CN
China
Prior art keywords
model
data
neural network
edge
edge computing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110920295.4A
Other languages
English (en)
Other versions
CN113537400A (zh
Inventor
琚小明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Jierui Power Technology Co ltd
Original Assignee
Zhejiang Jierui Power Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Jierui Power Technology Co ltd filed Critical Zhejiang Jierui Power Technology Co ltd
Priority to CN202110920295.4A priority Critical patent/CN113537400B/zh
Publication of CN113537400A publication Critical patent/CN113537400A/zh
Application granted granted Critical
Publication of CN113537400B publication Critical patent/CN113537400B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioethics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于分支神经网络的边缘计算节点的分配与退出方法,为提高边缘计算下人工智能模型的安全性和加快模型的计算效率,该方法主要分为三个步骤,神经网络模型训练、分支神经网络模型在边缘计算节点的部署和模型退出点的选择,首先搭建神经网络模型结合模型精馏算法实现对模型的训练;其次,在为训练好的分类模型分配边缘计算节点过程中,利用最小延迟算法选择合适的边缘计算节点;最后在模型推断阶段选择合适的模型退出点减小边缘计算节点的计算量,提高分类网络预测的精度准确性,最终达到提高神经网络模型的安全性和加快模型的计算效率的效果,实现防御对抗样本并提高模型的计算效率的目的。

Description

一种基于分支神经网络的边缘计算节点的分配与退出方法
技术领域
本发明涉及基于特定计算模型的计算机系统的技术领域,具体地说是一种基于分支神经网络的边缘计算节点的分配与退出方法,应用于边缘计算框架下对神经网络模型安全的加强、对对抗图像样本的防御以及提高模型的计算效率。
背景技术
边缘计算模型是一种新兴的技术,其脆弱性尚未得到充分的探索。少数针对边缘计算攻击的研究主要集中在对传感器网络可能的威胁上,还包括一些手机端和PC端。
边缘计算下出现的一种安全问题,对输入数据的验证不足可能导致恶意注入攻击。这种恶意注入数据是边缘计算比较常见的一种攻击方法,攻击者可以通过注入恶意输入,导致服务提供者代表攻击者执行攻击操作。例如攻击者可能会向下层(通信或边缘设备层)添加未经授权的组件,这些层随后会将恶意输入注入服务器,之后攻击者就可以窃取数据、破坏数据库完整性或绕过身份验证。
针对物联网系统中使用的机器学习方法,可以发起两类攻击:因果攻击和探索性攻击,在因果攻击中,攻击者通过操纵训练数据集改变训练过程,而在探索性攻击中,攻击者利用漏洞获取数据的信息,但不改变训练过程。
边缘计算框架下,图像识别存在的安全性问题不容忽视,攻击者通过产生对抗样本对模型进行攻击,对抗样本的特点是寻找尽量小的扰动,而且这些扰动对于观察者来说是不可察觉的。对抗样本的这些特性,给卷积神经网络的使用带来巨大的安全隐患,边缘计算作为一种新型计算模式,其核心原则之一是将计算能力推向边缘,得到了研究人员广泛关注。在边缘计算场景下,将DNN模型部署在设备周围的边缘计算节点上。相对于到云服务的距离,边缘计算节点到数据源近得多,所以低时延特性能轻松实现。但由于目前的边缘计算设备处理能力有限,单个边缘计算节点可能无法很好完成复杂网络模型的推断任务,因此需要多个边缘计算节点共同部署DNN模型。因此在边缘计算场景下部署DNN的主要挑战是如何挑选出合适的计算节点来部署模型,要考虑到神经网络模型的切分、模型的计算需求及边缘计算节点的网络状况,以此来优化多个计算节点协同运行神经网络模型时的延迟。
本文提出一种基于分支神经网络的边缘计算节点的分配与退出方法,用于对抗样本图像的防御,提高神经网络模型的安全性并加快模型的计算效率,具体是一种基于分支神经网络的边缘计算节点的分配与退出方法。
发明内容
本发明的目的是根据现有技术的不足,提供提出一种基于分支神经网络的边缘计算节点的分配与退出方法,用于对对抗样本图像的防御,提高神经网络模型的安全性。
为实现上述目的,本发明采取的技术方案为:设计一种基于分支神经网络的边缘计算节点的分配与退出方法,其中包括三个大模块:神经网络模型训练、分支神经网络模型在边缘计算节点的部署和模型退出点的选择。
其中,所述的神经网络模型训练,用于基于已有的图片样本的数据,训练神经网络模型,具体包括以下步骤:
(1)数据预处理:对采集的图片数据进行清洗,去除冗余杂糅数据以及归一化操作,利用DCT算法对已经得到的数据进行特征聚集处理,得到比较完备的数据集;
(2)数据加密:利用全同态加密方法对数据预处理之后的数据集进行加密转化为密文;
(3)模型的搭建:搭建具有多个分支节点的神经网络模型;
(4)模型精馏:对每个输出的分支节点之后搭建精馏网络进一步分类;
(5)模型训练:对已经处理过的密文数据在搭建的精馏模型网络下进行训练得到分类网络。
其中,所述的分支神经网络模型在边缘计算节点的部署,具体包括以下步骤:
(1)确定分布式的神经网络延迟影响指标:数据源到边缘节点之间的距离、网络状况;
(2)确定选择分支网络模型的边缘计算节点的方法和计算延迟函数。
其中,所述的模型退出点的选择,具体包括以下步骤:
(1)数据预处理:对采集的图片数据进行清洗,去除冗余杂糅数据以及归一化操作,利用DCT算法对已经得到的数据进行降噪处理,得到比较完备的数据集;
(2)数据加密:利用全同态加密方法对数据预处理之后的数据集进行加密转化为密文;
(3)模型退出点选择与预测:将所得到的密文数据放进神经网络模型进行预测,设置延迟阈值和预测百分比阈值,当大于该阈值时模型预测提前中断。
其中,所述的神经网络模型训练中数据预处理方法,具体包括以下步骤:
(1)数据归一化:(其中μ是图像的均值,X表示图像矩阵,/>(σ表示标准方差、N表示图像X的像素数量);
(2)根据训练的数据信息,采样值序列是x,y的空间域进行DCT变换,频率域采样值序列分别是x',y',设p(x,y)为数字图像矩阵N×N,则:
其中,
其中,所述的神经网络模型训练中数据加密方法,具体包括以下步骤:
(1)对所得到的频域数据进行PCA变换对数据进行降维;
(2)对降维后的数据进行Gentry算法全同态加密得到对应数据的密文。
其中,所述的神经网络模型训练中模型精馏方法,具体包括以下步骤:
(1)根据原始训练样本的密文数据X和标签Y训练一个初始的深度神经网络,得到概率分布F(X);
(2)在第一步的输出结果F(X)作为新的标签训练一个架构相同、蒸馏温度T也相同的蒸馏网络;
(3)利用原始训练样本的密文数据X再次输入到蒸馏网路中,得到新的概率分布Fd(X),再利用整个网络来进行分类或预测。
其中,所述在分支神经网络模型在边缘计算节点的部署过程中,分布式的神经网络延迟影响指标选择,具体包括以下步骤:
(1)第一个节点选择边缘节点之间的距离di,网络传输状况wi,边缘节点的计算能力ci
(2)进一步将边缘节点距离传输状况综合考虑得到,距离传输ai=60%*wi+40%*di
其中,所述在分支神经网络模型在边缘计算节点的部署过程中,确定选择分支网络模型的边缘计算节点的方法和计算延迟函数,具体包括以下步骤:
(1)将距离传输指标ai作为边缘计算节点间的权重,构建图模型;
(2)分支神经网络节点个数n,神经网络模型的主干网络有1个,边缘计算节点m个,利用函数对costi(i=1,2,3...m)进行升序排列,获得前n+1个节点,获得总的开销/>
其中,所述在模型退出点选择与预测的部署过程中,所得到的密文数据放进神经网络模型进行预测,设置延迟阈值和预测百分比阈值,当大于该阈值时模型预测提前中断,具体包括以下步骤:
(1)已部署的DNN模型网络拓扑,在模型预测阶段设置一下参数,latency:需推断任务的延迟要求;Bi:第i个边缘节点距数据源延迟;推断任务从第一个到第i个边缘计算节点上推断所用延迟。假设已经计算到的边缘计算节点i,在计算过程中样本预测的分类为m,出现m的次数为fre;
(2)假设已经计算到第i(其中i>=10)个边缘计算节点,并且/>则停止模型的预测,并返回模型的预测结果m和对应的退出点N。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其它的附图。
图1是本发明机制中一种基于分支神经网络的边缘计算节点的分配与退出方法的总体框架图;
图2是本发明机制中数据预处理流程图;
图3是本发明机制中分支神经网络模型搭建的流程图;
图4是本发明机制中精馏网络模型流程图;
图5分支神经网络模型在边缘计算节点部署方法的流程图;
图6是本发明机制中模型退出点的选择的流程图;
图7是本发明机制中部署在边缘计算节点的模型退出点框架图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供了一种基于分支神经网络的边缘计算节点的分配与退出方法,三个主要的部分:神经网络模型训练、分支神经网络模型在边缘计算节点的部署和模型退出点的选择。
以下针对本发明的模块和实现策略进行阐述。
其中,参考说明书图1以及说明书附图3中所示,神经网络模型训练模块中,用于基于已有的图片样本的数据,训练神经网络模型,具体包括以下步骤:
(1)数据预处理:对采集的图片数据进行清洗,去除冗余杂糅数据以及归一化操作,利用DCT算法对已经得到的数据进行特征聚集处理,得到比较完备的数据集;
(2)数据加密:利用全同态加密方法对数据预处理之后的数据集进行加密转化为密文;
(3)模型的搭建:搭建具有多个分支节点的神经网络模型;
(4)模型精馏:对每个输出的分支节点之后搭建精馏网络进一步分类;
(5)模型训练:对已经处理过的密文数据在搭建的精馏模型网络下进行训练得到分类网络。
其中,所述的分支神经网络模型在边缘计算节点的部署模块,具体包括以下步骤:
(1)确定分布式的神经网络延迟影响指标:数据源到边缘节点之间的距离、网络状况等;
(2)确定选择分支网络模型的边缘计算节点的方法和计算延迟函数。
参考说明书附图6所示,模型退出点的选择模块,具体包括以下步骤:
(1)数据预处理:对采集的图片数据进行清洗,去除冗余杂糅数据以及归一化操作,利用DCT算法对已经得到的数据进行降噪处理,得到比较完备的数据集;
(2)数据加密:利用全同态加密方法对数据预处理之后的数据集进行加密转化为密文;
(3)模型退出点选择与预测:将所得到的密文数据放进神经网络模型进行预测,设置延迟阈值和预测百分比阈值,当大于该阈值时模型预测提前中断。
其中,如说明书附图2所示,神经网络模型训练中数据预处理方法,具体包括以下步骤:
(1)数据归一化:(其中μ是图像的均值,X表示图像矩阵,/>(σ表示标准方差、N表示图像X的像素数量);
(2)根据训练的数据信息,采样值序列是x,y的空间域进行DCT变换,频率域采样值序列分别是x',y',设p(x,y)为数字图像矩阵N×N,则:
其中,
其中,所述的神经网络模型训练中数据加密方法,具体包括以下步骤:
(1)对所得到的频域数据进行PCA变换对数据进行降维;
(2)对降维后的数据进行Gentry算法全同态加密得到对应数据的密文。
参考说明书附图4所示神经网络模型训练中模型精馏方法,具体包括以下步骤:
(1)根据原始训练样本的密文数据X和标签Y训练一个初始的深度神经网络,得到概率分布F(X);
(2)在第一步的输出结果F(X)作为新的标签训练一个架构相同、蒸馏温度T也相同的蒸馏网络;
(3)利用原始训练样本的密文数据X再次输入到蒸馏网路中,得到新的概率分布Fd(X),再利用整个网络来进行分类或预测。
其中所述在分支神经网络模型在边缘计算节点的部署过程中,分布式的神经网络延迟影响指标选择,具体包括以下步骤:
(1)第一个节点选择边缘节点之间的距离di,网络传输状况wi,边缘节点的计算能力ci
(2)进一步将边缘节点距离传输状况综合考虑得到,距离传输ai=60%*wi+40%*di
其中,参考说明书附图5以及说明书附图7所示,在分支神经网络模型在边缘计算节点的部署过程中,确定选择分支网络模型的边缘计算节点的方法和计算延迟函数,具体包括以下步骤:
(1)将距离传输指标ai作为边缘计算节点间的权重,构建图模型;
(2)分支神经网络节点个数N-1,神经网络模型的主干网络有1个,边缘计算节点m个,利用函数对costi(i=1,2,3...m)进行升序排列,获得前N个节点,获得总的开销/>
参考说明书附图6所示,在模型退出点选择与预测的部署过程中,所得到的密文数据放进神经网络模型进行预测,设置延迟阈值和预测百分比阈值,当大于该阈值时模型预测提前中断,具体包括以下步骤:
(1)已部署的DNN模型网络拓扑,在模型预测阶段设置一下参数,latency:需推断任务的延迟要求;Bi:第i个边缘节点距数据源延迟;推断任务从第一个到第i个边缘计算节点上推断所用延迟。假设已经计算到的边缘计算节点i,在计算过程中样本预测的分类为m,出现m的次数为fre;
(2)假设已经计算到第i(其中i>=10)个边缘计算节点,并且/>则停止模型的预测,并返回模型的预测结果m和对应的退出点N。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未违背本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包括在本发明的保护范围之内。

Claims (3)

1.一种基于分支神经网络的边缘计算节点的分配与退出方法,其特征在于,该方法包括以下具体步骤:
S1:搭建分支神经网络模型结合模型精馏算法对模型进行训练:
所述搭建分支神经网络模型结合模型精馏算法对模型进行训练具体包括以下步骤:
(1):数据预处理:对采集的图片数据进行清洗,去除冗余杂糅数据以及归一化操作,利用DCT算法对已经得到的数据进行特征聚集处理,得到比较完备的数据集;
(2):数据加密:利用全同态加密方法对数据预处理之后的数据集进行加密转化为密文;
(3):模型的搭建:搭建具有多个分支节点的神经网络模型;
(4):模型精馏:对每个输出的分支节点之后搭建精馏网络进一步分类,所述模型精馏包括以下步骤:
第一步:根据原始训练样本的密文数据X和标签Y训练一个初始的深度神经网络,得到概率分布F(X);
第二步:在第一步的输出结果F(X)作为新的标签训练一个架构相同、蒸馏温度T也相同的蒸馏网络;
第三步:利用原始训练样本的密文数据X再次输入到蒸馏网路中,得到新的概率分布Fd(X),再利用整个网络来进行分类或预测;
(5):模型训练:对已经处理过的密文数据在搭建的精馏模型网络下进行训练得到分类网络;
S2:为训练好的分类模型分配边缘计算节点过程中,利用最小延迟算法选择合适的边缘计算节点,具体包括以下步骤:
(1)、确定分布式的神经网络延迟影响指标:数据源到边缘节点之间的距离、网络状况,所述确定分布式的神经网络延迟影响指标具体包括以下步骤:
第一步:第一个节点选择边缘节点之间的距离di,网络传输状况wi,边缘节点的计算能力ci
第二步:将边缘节点距离传输状况综合考虑得到,距离传输ai=60%*wi+40%*di
(2)、确定选择分支网络模型的边缘计算节点的方法和计算延迟函数,具体包括以下步骤:
第一步:将距离传输指标ai作为边缘计算节点间的权重,构建图模型;
第二步:分支神经网络节点个数n,神经网络模型的主干网络有1个,边缘计算节点m个,利用函数对costi进行升序排列,i=1、2、3...m,获得前n+1个节点,获得总的开销/>S3、模型推断阶段选择合适的模型退出点减小边缘计算节点的计算量,具体包括以下步骤:
(1)、数据预处理:对采集的图片数据进行清洗,去除冗余杂糅数据以及归一化操作,利用DCT算法对已经得到的数据进行降噪处理,得到比较完备的数据集;
(2)、数据加密:利用全同态加密方法对数据预处理之后的数据集进行加密转化为密文;
(3)、模型退出点选择与预测:将所得到的密文数据放进神经网络模型进行预测,设置延迟阈值和预测百分比阈值,当大于该阈值时模型预测提前中断,具体包括以下步骤:
第一步:已部署的DNN模型网络拓扑,在模型预测阶段设置一下参数,
latency:需推断任务的延迟要求;
Bi:第i个边缘节点距数据源延迟;
推断任务从第一个到第i个边缘计算节点上推断所用延迟,假设已经计算到的边缘计算节点i,在计算过程中样本预测的分类为h,出现h的次数为fre;
第二步:假设已经计算到第i个边缘计算点,其中i>=10,并且/>则停止模型的预测,并返回模型的预测结果h和对应的退出点K。
2.根据权利要求1所述一种基于分支神经网络的边缘计算节点的分配与退出方法,其特征在于,所述S1中的数据预处理,具体包括以下步骤:
第一步:数据归一化:其中μ是图像的均值,b表示图像矩阵,/>其中σ表示标准方差、N表示图像b的像素数量;
第二步:根据训练的数据信息,采样值序列是x,y的空间域进行DCT变换,频率域采样值序列分别是x',y',设p(x,y)为数字图像矩阵N×N,则:
其中,x,y=0,1,...,N-1;
3.根据权利要求2所述一种基于分支神经网络的边缘计算节点的分配与退出方法,其特征在于,所述S3中的数据加密,具体包括以下步骤:
第一步:对所得到的频域数据进行PCA变换对数据进行降维;
第二步:对降维后的数据进行Gentry算法全同态加密得到对应数据的密文。
CN202110920295.4A 2021-09-14 2021-09-14 一种基于分支神经网络的边缘计算节点的分配与退出方法 Active CN113537400B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110920295.4A CN113537400B (zh) 2021-09-14 2021-09-14 一种基于分支神经网络的边缘计算节点的分配与退出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110920295.4A CN113537400B (zh) 2021-09-14 2021-09-14 一种基于分支神经网络的边缘计算节点的分配与退出方法

Publications (2)

Publication Number Publication Date
CN113537400A CN113537400A (zh) 2021-10-22
CN113537400B true CN113537400B (zh) 2024-03-19

Family

ID=78090884

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110920295.4A Active CN113537400B (zh) 2021-09-14 2021-09-14 一种基于分支神经网络的边缘计算节点的分配与退出方法

Country Status (1)

Country Link
CN (1) CN113537400B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114282661A (zh) * 2021-12-23 2022-04-05 安谋科技(中国)有限公司 神经网络模型的运行方法、可读介质和电子设备
CN114970375B (zh) * 2022-07-29 2022-11-04 山东飞扬化工有限公司 一种基于实时采样数据的精馏过程监测方法
CN115906941B (zh) * 2022-11-16 2023-10-03 中国烟草总公司湖南省公司 神经网络自适应退出方法、装置、设备及可读存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543829A (zh) * 2018-10-15 2019-03-29 华东计算技术研究所(中国电子科技集团公司第三十二研究所) 在终端和云端上混合部署深度学习神经网络的方法和系统
CN110809260A (zh) * 2019-10-28 2020-02-18 国网上海市电力公司 一种用电信息采集系统的本地数据处理方法
CN110941855A (zh) * 2019-11-26 2020-03-31 电子科技大学 一种AIoT场景下的神经网络模型窃取防御方法
CN111030861A (zh) * 2019-12-11 2020-04-17 中移物联网有限公司 一种边缘计算分布式模型训练方法、终端和网络侧设备
CN111310852A (zh) * 2020-03-08 2020-06-19 桂林电子科技大学 一种图像分类方法及系统
CN111445026A (zh) * 2020-03-16 2020-07-24 东南大学 面向边缘智能应用的深度神经网络多路径推理加速方法
KR20200113744A (ko) * 2019-03-26 2020-10-07 한국전자통신연구원 심층 신경망 분할 방법 및 장치
CN111967594A (zh) * 2020-08-06 2020-11-20 苏州浪潮智能科技有限公司 一种神经网络压缩方法、装置、设备及存储介质
CN112329557A (zh) * 2020-10-21 2021-02-05 杭州趣链科技有限公司 模型的应用方法、装置、计算机设备及存储介质
CN113111889A (zh) * 2021-03-10 2021-07-13 国网浙江省电力有限公司宁波供电公司 用于边缘计算端的目标检测网络处理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100312736A1 (en) * 2009-06-05 2010-12-09 The Regents Of The University Of California Critical Branching Neural Computation Apparatus and Methods
US11562200B2 (en) * 2019-02-04 2023-01-24 Intel Corporation Deep learning inference efficiency technology with early exit and speculative execution

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543829A (zh) * 2018-10-15 2019-03-29 华东计算技术研究所(中国电子科技集团公司第三十二研究所) 在终端和云端上混合部署深度学习神经网络的方法和系统
KR20200113744A (ko) * 2019-03-26 2020-10-07 한국전자통신연구원 심층 신경망 분할 방법 및 장치
CN110809260A (zh) * 2019-10-28 2020-02-18 国网上海市电力公司 一种用电信息采集系统的本地数据处理方法
CN110941855A (zh) * 2019-11-26 2020-03-31 电子科技大学 一种AIoT场景下的神经网络模型窃取防御方法
CN111030861A (zh) * 2019-12-11 2020-04-17 中移物联网有限公司 一种边缘计算分布式模型训练方法、终端和网络侧设备
CN111310852A (zh) * 2020-03-08 2020-06-19 桂林电子科技大学 一种图像分类方法及系统
CN111445026A (zh) * 2020-03-16 2020-07-24 东南大学 面向边缘智能应用的深度神经网络多路径推理加速方法
CN111967594A (zh) * 2020-08-06 2020-11-20 苏州浪潮智能科技有限公司 一种神经网络压缩方法、装置、设备及存储介质
CN112329557A (zh) * 2020-10-21 2021-02-05 杭州趣链科技有限公司 模型的应用方法、装置、计算机设备及存储介质
CN113111889A (zh) * 2021-03-10 2021-07-13 国网浙江省电力有限公司宁波供电公司 用于边缘计算端的目标检测网络处理方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
DNN Inference Acceleration with Partitioning and Early Exiting in Edge Computing;Chao Li等;Wireless Algorithms, Systems, and Applications;第465-478页 *
Inference Acceleration Model of Branched Neural Network Based on Distributed Deployment in Fog Computing;Weijin Jiang等;Web Information Systems and Applications;第503-512页 *
基于神经网络的边缘计算克隆节点识别方法;陈洁等;通信技术;第51卷(第10期);第2449-2454页 *
基于边缘计算的分支神经网络模型推断延迟优化;樊琦等;计算机应用;第40卷(第2期);第342-346页 *
边缘计算环境下故障预测算法研究;班日华;中国优秀硕士学位论文全文数据库 信息科技辑(第3期);第I138-271页 *
面向边缘计算的嵌入式FPGA卷积神经网络构建方法;卢冶等;计算机研究与发展(第3期);第107-118页 *

Also Published As

Publication number Publication date
CN113537400A (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
CN113537400B (zh) 一种基于分支神经网络的边缘计算节点的分配与退出方法
US20210409191A1 (en) Secure Machine Learning Analytics Using Homomorphic Encryption
Wu et al. Network attacks detection methods based on deep learning techniques: a survey
Radoglou-Grammatikis et al. Modeling, detecting, and mitigating threats against industrial healthcare systems: a combined software defined networking and reinforcement learning approach
Haghighat et al. Intrusion detection system using voting-based neural network
Thilagam et al. Intrusion detection for network based cloud computing by custom RC-NN and optimization
Sumathi et al. RETRACTED ARTICLE: Detection of distributed denial of service using deep learning neural network
Krundyshev et al. Hybrid neural network framework for detection of cyber attacks at smart infrastructures
Morozova et al. Methods and technologies for ensuring cybersecurity of industrial and web-oriented systems and networks
Ding et al. Privacy-preserving feature extraction via adversarial training
Om Kumar et al. Effective intrusion detection system for IoT using optimized capsule auto encoder model
Yue et al. Contrastive learning enhanced intrusion detection
Tong et al. BFSN: a novel method of encrypted traffic classification based on bidirectional flow sequence network
Zhang et al. Many-objective optimization based intrusion detection for in-vehicle network security
Bhingarkar et al. FLNL: Fuzzy entropy and lion neural learner for EDoS attack mitigation in cloud computing
Liu et al. Spatial-temporal feature with dual-attention mechanism for encrypted malicious traffic detection
Sinha A Study on Supervised Machine Learning Technique to Detect Anomalies in Networks
CN116506206A (zh) 基于零信任网络用户的大数据行为分析方法及系统
Alajlan et al. Malicious behavior detection in cloud using self‐optimized dynamic kernel convolutional neural network
Mao et al. Semisupervised Encrypted Traffic Identification Based on Auxiliary Classification Generative Adversarial Network.
Mohamed Amer et al. Development Machine Learning Techniques to Enhance Cyber Security Algorithms.
Zolotukhin et al. Data stream clustering for application-layer ddos detection in encrypted traffic
Tian et al. Universal perturbation for flow correlation attack on tor
Chen et al. Resource-Constraint Deep Forest Based Intrusion Detection Method in Internet of Things for Consumer Electronic
Wang et al. Spatio-temporal feature encryption malicious traffic detection via attention mechanism

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant