CN110048827A - 一种基于深度学习卷积神经网络的类模板攻击方法 - Google Patents

一种基于深度学习卷积神经网络的类模板攻击方法 Download PDF

Info

Publication number
CN110048827A
CN110048827A CN201910299623.6A CN201910299623A CN110048827A CN 110048827 A CN110048827 A CN 110048827A CN 201910299623 A CN201910299623 A CN 201910299623A CN 110048827 A CN110048827 A CN 110048827A
Authority
CN
China
Prior art keywords
layer
energy mark
convolutional neural
neural networks
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910299623.6A
Other languages
English (en)
Other versions
CN110048827B (zh
Inventor
居太亮
于赛
倪志杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201910299623.6A priority Critical patent/CN110048827B/zh
Publication of CN110048827A publication Critical patent/CN110048827A/zh
Application granted granted Critical
Publication of CN110048827B publication Critical patent/CN110048827B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/002Countermeasures against attacks on cryptographic mechanisms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/06Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols the encryption apparatus using shift registers or memories for block-wise or stream coding, e.g. DES systems or RC4; Hash functions; Pseudorandom sequence generators
    • H04L9/0618Block ciphers, i.e. encrypting groups of characters of a plain text message using fixed encryption transformation
    • H04L9/0631Substitution permutation network [SPN], i.e. cipher composed of a number of stages or rounds each involving linear and nonlinear transformations, e.g. AES algorithms

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Complex Calculations (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习卷积神经网络的类模板攻击方法,针对能量迹的特点以及汉明重量的种类,搭建了一独特五层结构的深度学习卷积神经网络,用于攻击能量迹汉明重量的预测,很好地解决了传统模板攻击对于模板构建的依赖,以深度学习卷积神经网络作为类模板进行能量迹汉明重量的预测,克服了模板构建不精确的问题,提高了攻击成功率,同时,本发明具有较强的泛化能力。

Description

一种基于深度学习卷积神经网络的类模板攻击方法
技术领域
本发明属于密码算法分析检测技术领域,更为具体地讲,涉及一种基于深度学习卷积神经网络的类模板攻击方法。
背景技术
模板攻击是一种非常强有力的侧信道攻击方式。在现有技术中,模板攻击分为两个阶段:模板构建和模板匹配。
在2019年01月22日公布的、公布号为CN109257160A、名称为“一种基于决策树的侧信道模板攻击方法”的中国发明专利申请中,公布了一种模板攻击方法:首先采集能量迹,建立能量消耗矩阵U,构建决策树模型,选择从根节点至叶节点出现的特征,然后根据选择的特征对能量消耗矩阵U进行抽取,建立能量消耗矩阵T,再根据对应明文与密钥,选择密码算法关键点的函数建立汉明重量列向量H,以能量消耗矩阵T为输入、汉明重量列向量H为输出,构建模板,从而很好地提取了特征,最后,采集随机明文、固定密钥的能量迹,引入映射的匹配策略,得到密钥,从而提高了模板匹配效果,进而提高了攻击成功率。然而传统模板攻击中,模板构建不精确,同时,以被分析密码设备的信号噪声服从多变量高斯分布的概率模型为前提假设,影响了模板攻击的成功率。
发明内容
本发明的目的在于克服现有技术中模板构建不精确,以被分析密码设备的信号噪声服从多变量高斯分布的概率模型为前提假设的不足,提出一种基于深度学习卷积神经网络的类模板攻击方法,以提高攻击成功率。
为实现上述发明目的,本发明基于深度学习卷积神经网络的类模板攻击方法,其特征在于,包括以下步骤:
(1)、搭建深度学习卷积神经网络,所述深度学习卷积神经网络包括:
第一层为卷积层1,其卷积核1*32,其Dropout比率为0.3,用于对输入的能量迹做卷积,得到的数据输出到第二层,卷积过程的激活函数采用修正线性单元ReLu;
第二层为最大池化层,对输入的数据以步长为1、非重叠地做2的最大池化操作,最大池化操作后的数据输出到第三层;
第三层为卷积层2,其卷积核1*32,其Dropout比率为0.6,用于对输入的数据做卷积,得到的数据经过压平(Flatten)即将每个空间维度划分为一个单个空间维度后输出到第四层,卷积过程的激活函数采用双切正切函数Tanh;
第四层为全连接层1,激活函数采用修正线性单元ReLu,具有256个神经元,与输入数据的每个数据进行全连接,每个神经元输出一个数据,并输出到第五层;
第五层为全连接层1,激活函数采用Softmax函数,具有9个神经元,每个神经元与输入的256个数据进行全连接,结合分类交叉熵损失函数,每个神经元输出一个数据即属于一种汉明重量的概率;
(2)、在微控制器上运行AES密码算法,采用随机密钥加密,每发送一个随机明文和随机密钥,便采集T个采样点的功耗曲线,构成对应的能量迹,发送N次,共采集N条能量迹;
(3)、利用相关特征提取算法,确定功耗信息泄露位置点:利用AES算法S盒第一轮输出中间值与采样点的相关系数(绝对值),确定相关系数大的采样点作为特征点;
(4)、根据确定的特征点所在位置,对N条能量迹在特征点所在位置的采样点进行抽取,得到N条训练能量迹;同时,对每条能量迹,计算该能量迹对应的S盒第一轮输出的中间值的汉明重量,并作为其标签;
(5)、将N条训练能量迹以及各自对应的标签,输入到搭建的深度学习卷积神经网络中进行训练,根据训练准确率和训练损失函数,调整深度学习卷积神经网络的参数得到最优深度学习卷积神经网络;
(6)、对被攻击的运行AES密码算法的微控制器,如步骤(2)采集随机明文、固定密钥的Q条能量迹,然后对Q条能量迹在特征点所在位置的采样点进行抽取,得到Q条攻击能量迹;
(7)、将一条攻击能量迹输入到最优深度学习卷积神经网络,得到相应的中间值的汉明重量,然后与算法明文结合,找出密钥的可能范围;
(8)、选择下一条攻击能量迹,重复步骤(7),密钥的可能取值范围按一定概率减少,直至获取最终密钥。
本发明的目的是这样实现的。
本发明基于深度学习卷积神经网络的类模板攻击方法,针对能量迹的特点以及汉明重量的种类,搭建了一独特五层结构的深度学习卷积神经网络,用于攻击能量迹汉明重量的预测,很好地解决了传统模板攻击对于模板构建的依赖,以深度学习卷积神经网络作为类模板进行能量迹汉明重量的预测,克服了模板构建不精确的问题,提高了攻击成功率,同时,本发明具有较强的泛化能力。
附图说明
图1是本发明基于深度学习卷积神经网络的类模板攻击方法一种具体实施方式的流程图;
图2是滤波器卷积操作示意图;
图3是本发明中搭建的深度学习卷积神经网络架构示意图;
图4是一条能量迹示例图;
图5是一S盒第一轮输出中间值与功率测量值的相关系数曲线图;
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
图1是本发明基于深度学习卷积神经网络的类模板攻击方法一种具体实施方式的流程图。
在本实施例中,如图1所示,本发明基于深度学习卷积神经网络的类模板攻击方法包括以下步骤:
步骤S1:搭建深度学习卷积神经网络
深度学习中卷积神经网络(CNN)是一种特殊类型的神经网络,它受到动物视觉皮层的生理过程的启发,最初设计的目的是为了解决二维卷积问题。它结合了两种类型的层,被称为卷积层和池化层,并在图像处理领域取得良好的成果。
CNN架构具有自然的平移不变性,这是由于在卷积运算期间使用池化操作和权重共享。因此,CNN当处理非同步的侧信道功耗曲线(能量迹)时很有用,甚至功耗曲线不能完全对齐时,也能够进行学习和提取功耗信号中的特征。
输入层:假设输入的序列有n个元素,每个元素有M维,可以得到n×M的矩阵。
卷积层:在该层上,在前向计算阶段期间,输入数据与一些滤波器进行卷积。卷积的输出通常被称为特征映射。图2为大小为3的滤波器卷积操作。
激活函数:“激活的神经元的特征”通过激活函数把特征保留下来并映射出来(即保留特征,去除一些数据的冗余),这是神经网络能够解决非线性问题关键。激活函数是用来加入非线性因素的,这是因为线性模型的表达力往往不够。激活函数一般有如下几个:Sigmoid激活函数,Tanh激活函数,ReLU激活函数以及Softmax激活函数。其中:
Sigmoid激活函数,也称S曲线:
Tanh激活函数:tanh(x)=2σ(2x)-1,其中σ(2x)为sigmoid函数。
ReLu激活函数:f(x)=max(x,0)。
ReLU激活函数是神经网络研究的最新成果,在早些年,神经网络模型常常使用饱和激活函数,如sigmoid和tanh激活函数。在运算速度和模型准确度方面,使用ReLu相对于其他激活函数具有巨大的优势。在提高运算速度与准确率后,人们可以搭建更复杂的神经网络模型,并对其进行更长时间的训练。近年来,ReLu激活函数的使用已经取代了卷积神经网络设计中的其他激活函数,所以在本发明中激活函数基本上都是采用了ReLu函数。
Softmax激活函数是将多个神经元的输出,映射到(0,1)区间内,可以看成是当前输出是属于各个分类的概率,从而来进行多分类。这个激活函数一般位于输出层,常用于分类模型。假设有一个数组V,Vi表示数组V中的第i个元素,那么元素Vi的Softmax值就是:
池化层:池化层的输入一般来源于上一个卷积层,主要用于减少空间的非线性层数据大小。因此它减少了神经网络计算量。最常用的两种池化操作的类型分别是最大值池化操作(Max Pooling)和平均池化操作(Average Pooling)。例如Max-Pooling就是取一小块区域中的最大值,此时若此区域中的其他值略有变化,或者图像稍有平移,池化后的结果仍不变,而且减少了参数的数量,防止过拟合现象的发生。池化层一般没有参数,所以反向传播的时候,只需对输入参数求导,不需要进行权值更新。
Dropout比率:Dropout作为一种正则化方法,可以有效防止CNN模型过拟合,该方法在Hinton等人研究论文中提出。Dropout的基本原理是在模型每一次训练迭代中,对每一层中的神经元(总数为N)以概率P随机失活,用余下的(1-P)×N个神经元所构成的网络来训练本次迭代中的数据。Dropout可以直接减少中间特征的数量,从而减少冗余,进而避免模型的过拟合。
全连接层(fully connected layers,FC):在CNN中,全连接层通常位于CNN架构中的最后几层,主要起到“分类器”的作用。卷积层、池化层和激活函数等操作的作用主要是提取特征,目的是将原始数据映射到隐层特征空间。全连接层作用就是对前面层提取的局部特征进行加权和。处在最后一层的全连接层,主要计算每种分类结果的概率,然后输出分类结果。
针对能量迹的特点以及汉明重量的种类,本发明搭建了一独特五层结构的深度学习卷积神经网络,用于攻击能量迹汉明重量的预测,很好地解决了传统模板攻击对于模板构建的依赖,以深度学习卷积神经网络作为类模板进行能量迹汉明重量的预测,克服了模板构建不精确的问题,提高了攻击成功率,同时,本发明具有较强的泛化能力。在本实施例中,如图3所示,搭建的五层结构的深度学习卷积神经网络包括:
第一层为卷积层1,其卷积核1*32,其Dropout比率为0.3,用于对输入的能量迹做卷积,得到的数据输出到第二层,卷积过程的激活函数采用修正线性单元ReLu;
第二层为最大池化层,对输入的数据以步长为1、非重叠地做2的最大池化操作,最大池化操作后的数据输出到第三层;
第三层为卷积层2,其卷积核1*32,其Dropout比率为0.6,用于对输入的数据做卷积,得到的数据经过压平(Flatten)即将每个空间维度划分为一个单个空间维度后输出到第四层,卷积过程的激活函数采用双切正切函数Tanh;
第四层为全连接层1,激活函数采用修正线性单元ReLu,具有256个神经元,与输入数据的每个数据进行全连接,每个神经元输出一个数据,并输出到第五层;
第五层为全连接层1,激活函数采用Softmax函数,具有9个神经元,每个神经元与输入的256个数据进行全连接,结合分类交叉熵损失函数,每个神经元输出一个数据即属于一种汉明重量的概率。
步骤S2:在微控制器上运行AES密码算法,采用随机密钥加密,每发送一个随机明文和随机密钥,便采集T个采样点的功耗曲线,构成对应的一条能量迹,发送N次,共采集N条能量迹。在本实施例中,一条能量迹如图4所示。
步骤S3:利用相关特征提取算法,确定功耗信息泄露位置点:利用AES算法S盒第一轮输出的中间值与采样点的相关系数(绝对值),确定相关系数大的采样点作为特征点。
在本实施例中,所述相关系数采用皮尔逊相关系数计算公式:
其中,rt是S盒第一轮输出中间值汉明重量与采样点t处的相关系数,pn,t是第n条能量迹在采样点t处的功率测量值,并且hn是第n条能量迹对应的S盒第一轮输出中间值的汉明重量,等式中的功率测量值pn,t与汉明重量的功率模型有关。
根据皮尔逊(Pearson)相关系数公式,计算能量迹的每个采样点与S盒第一轮输出中间值之间的相关系数(绝对值)。之所以取绝对值,这是因为在对能量迹(功耗曲线)的功率测量值(功耗信息)进行统计时,计算出的相关系数有正有负,它们代表着S盒第一轮输出中间值与功耗信息泄漏点的正、负相关性,而绝对值的大小表示着相关程度的高低。在本实施例中,一S盒第一轮输出中间值与功率测量值的相关系数曲线图如图5所示。
所述确定相关系数大的采样点作为特征点是通过设定相关系数阈值来实现的,只要采样点的相关系数大于等于所设定的相关系数阈值,就选取该采样点为特征点。
通过设置不同相关系数阈值,可以选定不同数量的特征点。
步骤S4:根据确定的特征点所在位置,对N条能量迹在特征点所在位置的采样点进行抽取,得到N条训练能量迹;同时,对每条能量迹,计算该能量迹对应的S盒第一轮输出的中间值的汉明重量,并作为其标签。
步骤S5:将N条训练能量迹以及各自对应的标签,输入到搭建的深度学习卷积神经网络中进行训练,根据训练准确率和训练损失函数,调整深度学习卷积神经网络的参数得到最优深度学习卷积神经网络。
步骤S6:对被攻击的运行AES密码算法的微控制器,如步骤S2采集随机明文、固定密钥的Q条能量迹,然后对Q条能量迹在特征点所在位置的采样点进行抽取,得到Q条攻击能量迹;
步骤S7:将一条攻击能量迹输入到最优深度学习卷积神经网络,得到相应的中间值的汉明重量,然后与算法明文结合,找出密钥的可能范围。
步骤S8:选择下一条攻击能量迹,重复步骤(7),密钥的可能取值范围按一定概率减少,直至获取最终密钥。
在本实施例中,采用不同的相关系数阈值,密钥攻击成功率如表1所示。
相关系数阈值 相关系数(绝对值) 特征点数 密钥攻击成功率
0.03 R≥0.03 622 86.32%
0.05 R≥0.05 303 88.04%
0.1 R≥0.1 102 84.17%
0.2 R≥0.2 60 78.69%
0.3 R≥0.3 40 71.62%
0.4 R≥0.4 34 64.30%
0.5 R≥0.5 22 59.86%
0.6 R≥0.6 13 53.19%
表1
分析表1,可知本发明密钥攻击成功率也与相关系数阈值呈负相关,这与模板攻击的情况恰恰相反。这是因为特征点的个数越多,功耗曲线综合泄露信息也就越多,不同中间值之间的汉明重量之间的特征差异就越大,CNN得到的中间值汉明重量的准确率就越高。但是前提是这些特征点确实与操作数中间值相关,无关的特征点再多对攻击效果也无任何帮助。当相关系数阈值设为0.05即相关系数R≥0.05时,密钥攻击成功率最高达到88.04%,但是特征点达到303个,而当相关系数阈值设为0.1即相关系数R≥0.1时,密钥攻击成功率最高也能达到84.17%,特征点减少到102个。因此,相关系数阈值设为0.1比较合适。而相关系数阈值小于0.05,密钥攻击成功率反而减少,此时,特征点比较多,进行密钥攻击时,硬件资源消耗大。
与模板攻击的比较
在本实施例中,依据相关系数阈值大小来选取不同数量的特征点,采用本发明方法与模板攻击方法进行比较,其结果如表2所示。
表2
从表2,可知模板攻击的准确率与特征点选取有关,当选取相关系数比较大的特征点,模板攻击的准确率就越高,反之准确率就越低。这是因为相关系数较大的采样时刻点,其泄露的功耗信息越多,构建的模板就越精确,模板匹配成功率就越高。然而,只要相关系数阈值小于0.5,本发明密钥攻击成功率就高于模板攻击时密钥攻击成功率。因此,本发明中相关系数阈值大于0.05且小于0.5比较适合。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (3)

1.一种基于深度学习卷积神经网络的类模板攻击方法,其特征在于,包括以下步骤:
(1)、搭建深度学习卷积神经网络,所述深度学习卷积神经网络包括:
第一层为卷积层1,其卷积核1*32,其Dropout比率为0.3,用于对输入的能量迹做卷积,得到的数据输出到第二层,卷积过程的激活函数采用修正线性单元ReLu;
第二层为最大池化层,对输入的数据以步长为1、非重叠地做2的最大池化操作,最大池化操作后的数据输出到第三层;
第三层为卷积层2,其卷积核1*32,其Dropout比率为0.6,用于对输入的数据做卷积,得到的数据经过压平(Flatten)即将每个空间维度划分为一个单个空间维度后输出到第四层,卷积过程的激活函数采用双切正切函数Tanh;
第四层为全连接层1,激活函数采用修正线性单元ReLu,具有256个神经元,与输入数据的每个数据进行全连接,每个神经元输出一个数据,并输出到第五层;
第五层为全连接层1,激活函数采用Softmax函数,具有9个神经元,每个神经元与输入的256个数据进行全连接,结合分类交叉熵损失函数,每个神经元输出一个数据即属于一种汉明重量的概率;
(2)、在微控制器上运行AES密码算法,采用随机密钥加密,每发送一个随机明文和随机密钥,便采集T个采样点的功耗曲线,构成对应的能量迹,发送N次,共采集N条能量迹;
(3)、利用相关特征提取算法,确定功耗信息泄露位置点:利用AES算法S盒第一轮输出中间值与采样点的相关系数(绝对值),确定相关系数大的采样点作为特征点;
(4)、根据确定的特征点所在位置,对N条能量迹在特征点所在位置的采样点进行抽取,得到N条训练能量迹;同时,对每条能量迹,计算该能量迹对应的S盒第一轮输出的中间值的汉明重量,并作为其标签;
(5)、将N条训练能量迹以及各自对应的标签,输入到搭建的深度学习卷积神经网络中进行训练,根据训练准确率和训练损失函数,调整深度学习卷积神经网络的参数得到最优深度学习卷积神经网络;
(6)、对被攻击的运行AES密码算法的微控制器,如步骤(2)采集随机明文、固定密钥的Q条能量迹,然后对Q条能量迹在特征点所在位置的采样点进行抽取,得到Q条攻击能量迹;
(7)、将一条攻击能量迹输入到最优深度学习卷积神经网络,得到相应的中间值的汉明重量,然后与算法明文结合,找出密钥的可能范围;
(8)、选择下一条攻击能量迹,重复步骤(7),密钥的可能取值范围按一定概率减少,直至获取最终密钥。
2.根据权利要求1所述的类模板攻击方法,其特征在于,所述确定相关系数大的采样点作为特征点是通过设定相关系数阈值来实现的,只要采样点的相关系数大于等于所设定的相关系数阈值,就选取该采样点为特征点;
所设定的相关系数阈值大于0.05且小于0.5比较适合。
3.根据权利要求1所述的类模板攻击方法,其特征在于,所设定的相关系数阈值为0.1。
CN201910299623.6A 2019-04-15 2019-04-15 一种基于深度学习卷积神经网络的类模板攻击方法 Active CN110048827B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910299623.6A CN110048827B (zh) 2019-04-15 2019-04-15 一种基于深度学习卷积神经网络的类模板攻击方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910299623.6A CN110048827B (zh) 2019-04-15 2019-04-15 一种基于深度学习卷积神经网络的类模板攻击方法

Publications (2)

Publication Number Publication Date
CN110048827A true CN110048827A (zh) 2019-07-23
CN110048827B CN110048827B (zh) 2021-05-14

Family

ID=67277118

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910299623.6A Active CN110048827B (zh) 2019-04-15 2019-04-15 一种基于深度学习卷积神经网络的类模板攻击方法

Country Status (1)

Country Link
CN (1) CN110048827B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111565189A (zh) * 2020-04-30 2020-08-21 衡阳师范学院 基于深度学习的侧信道分析方法
CN111597551A (zh) * 2020-05-20 2020-08-28 中国科学技术大学 针对深度学习算法的侧信道攻击的防护方法
CN111818080A (zh) * 2020-07-22 2020-10-23 中国工商银行股份有限公司 注入攻击检测模型构建方法和装置
CN111953488A (zh) * 2020-08-28 2020-11-17 南方电网科学研究院有限责任公司 一种hmac-sm3算法的密钥获取方法、装置、设备和存储介质
CN111967909A (zh) * 2020-08-17 2020-11-20 国网山西省电力公司营销服务中心 一种基于卷积神经网络的托攻击检测方法
CN112016086A (zh) * 2020-08-28 2020-12-01 天津大学 基于卷积神经网络和选择消息方法的功耗攻击方法
CN112463387A (zh) * 2020-12-07 2021-03-09 浙江工业大学 基于gpu时空资源消耗识别本地服务器上深度学习模型的方法
CN112787971A (zh) * 2019-11-01 2021-05-11 国民技术股份有限公司 侧信道攻击模型的构建方法、密码攻击设备及计算机存储介质
CN112883385A (zh) * 2019-11-29 2021-06-01 上海复旦微电子集团股份有限公司 侧信道泄露位置定位方法及装置、存储介质、终端
CN113116363A (zh) * 2021-04-15 2021-07-16 西北工业大学 一种基于表面肌电信号判断手部疲劳度方法
CN113472515A (zh) * 2021-06-30 2021-10-01 中国科学技术大学 用于侧信道攻击的深度学习模型的评价与训练方法
CN114285545A (zh) * 2021-12-24 2022-04-05 成都三零嘉微电子有限公司 一种基于卷积神经网络的侧信道攻击方法及系统
CN115051784A (zh) * 2022-05-26 2022-09-13 北京理工大学 一种基于Deep Q-Learning的公钥密码算法的侧信道分析方法
CN117692101A (zh) * 2023-12-04 2024-03-12 北京科技大学 一种基于卷积神经网络的突发误码检测方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015166300A1 (en) * 2014-04-28 2015-11-05 Telefonaktiebolaget L M Ericsson (Publ) Using web entropy to scramble messages
CN108108768A (zh) * 2017-12-29 2018-06-01 清华大学 基于卷积神经网络的光伏玻璃缺陷分类方法及装置
US20180176243A1 (en) * 2016-12-16 2018-06-21 Patternex, Inc. Method and system for learning representations for log data in cybersecurity
WO2018119035A1 (en) * 2016-12-22 2018-06-28 Ip Reservoir, Llc Pipelines for hardware-accelerated machine learning
CN108427720A (zh) * 2018-02-08 2018-08-21 中国科学院计算技术研究所 系统日志分类方法
US20180330179A1 (en) * 2017-05-11 2018-11-15 Veridium Ip Limited System and method for biometric identification
CN108880781A (zh) * 2018-06-14 2018-11-23 成都信息工程大学 一种对加掩防护加密设备的无掩码神经网络攻击方法
US20190005375A1 (en) * 2017-05-25 2019-01-03 Texas Instruments Incorporated Secure convolutional neural networks (cnn) accelerator
CN109257160A (zh) * 2018-12-05 2019-01-22 电子科技大学 一种基于决策树的侧信道模板攻击方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015166300A1 (en) * 2014-04-28 2015-11-05 Telefonaktiebolaget L M Ericsson (Publ) Using web entropy to scramble messages
US20180176243A1 (en) * 2016-12-16 2018-06-21 Patternex, Inc. Method and system for learning representations for log data in cybersecurity
WO2018119035A1 (en) * 2016-12-22 2018-06-28 Ip Reservoir, Llc Pipelines for hardware-accelerated machine learning
US20180330179A1 (en) * 2017-05-11 2018-11-15 Veridium Ip Limited System and method for biometric identification
US20190005375A1 (en) * 2017-05-25 2019-01-03 Texas Instruments Incorporated Secure convolutional neural networks (cnn) accelerator
CN108108768A (zh) * 2017-12-29 2018-06-01 清华大学 基于卷积神经网络的光伏玻璃缺陷分类方法及装置
CN108427720A (zh) * 2018-02-08 2018-08-21 中国科学院计算技术研究所 系统日志分类方法
CN108880781A (zh) * 2018-06-14 2018-11-23 成都信息工程大学 一种对加掩防护加密设备的无掩码神经网络攻击方法
CN109257160A (zh) * 2018-12-05 2019-01-22 电子科技大学 一种基于决策树的侧信道模板攻击方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
AMIR GHODRATI ECT.: "DeepProposal: Hunting Objects by Cascading Deep Convolutional Layers", 《2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *
GABRIEL HOSPODAR ECT.: "Machine learning in side-channel analysis: a first study", 《SPRINGER》 *
LINQI HUANG ECT.: "Micro-seismic event detection and location in underground mines by using Convolutional Neural Networks (CNN) and deep learning", 《TUNNELLING AND UNDERGROUND SPACE TECHNOLOGY》 *
郭东昕等: "基于卷积神经网络的加密芯片差分攻击新方法", 《计算机工程与应用》 *

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112787971B (zh) * 2019-11-01 2023-02-28 国民技术股份有限公司 侧信道攻击模型的构建方法、密码攻击设备及计算机存储介质
CN112787971A (zh) * 2019-11-01 2021-05-11 国民技术股份有限公司 侧信道攻击模型的构建方法、密码攻击设备及计算机存储介质
CN112883385A (zh) * 2019-11-29 2021-06-01 上海复旦微电子集团股份有限公司 侧信道泄露位置定位方法及装置、存储介质、终端
CN112883385B (zh) * 2019-11-29 2022-07-01 上海复旦微电子集团股份有限公司 侧信道泄露位置定位方法及装置、存储介质、终端
CN111565189B (zh) * 2020-04-30 2022-06-14 衡阳师范学院 基于深度学习的侧信道分析方法
CN111565189A (zh) * 2020-04-30 2020-08-21 衡阳师范学院 基于深度学习的侧信道分析方法
CN111597551A (zh) * 2020-05-20 2020-08-28 中国科学技术大学 针对深度学习算法的侧信道攻击的防护方法
CN111597551B (zh) * 2020-05-20 2024-02-27 中国科学技术大学 针对深度学习算法的侧信道攻击的防护方法
CN111818080A (zh) * 2020-07-22 2020-10-23 中国工商银行股份有限公司 注入攻击检测模型构建方法和装置
CN111967909A (zh) * 2020-08-17 2020-11-20 国网山西省电力公司营销服务中心 一种基于卷积神经网络的托攻击检测方法
CN112016086A (zh) * 2020-08-28 2020-12-01 天津大学 基于卷积神经网络和选择消息方法的功耗攻击方法
CN111953488A (zh) * 2020-08-28 2020-11-17 南方电网科学研究院有限责任公司 一种hmac-sm3算法的密钥获取方法、装置、设备和存储介质
CN112463387A (zh) * 2020-12-07 2021-03-09 浙江工业大学 基于gpu时空资源消耗识别本地服务器上深度学习模型的方法
CN112463387B (zh) * 2020-12-07 2024-03-29 浙江工业大学 基于gpu时空资源消耗识别本地服务器上深度学习模型的方法
CN113116363A (zh) * 2021-04-15 2021-07-16 西北工业大学 一种基于表面肌电信号判断手部疲劳度方法
CN113472515A (zh) * 2021-06-30 2021-10-01 中国科学技术大学 用于侧信道攻击的深度学习模型的评价与训练方法
CN113472515B (zh) * 2021-06-30 2023-09-01 中国科学技术大学 一种用于检验用户防御侧信道攻击能力的方法
CN114285545A (zh) * 2021-12-24 2022-04-05 成都三零嘉微电子有限公司 一种基于卷积神经网络的侧信道攻击方法及系统
CN114285545B (zh) * 2021-12-24 2024-05-17 成都三零嘉微电子有限公司 一种基于卷积神经网络的侧信道攻击方法及系统
CN115051784A (zh) * 2022-05-26 2022-09-13 北京理工大学 一种基于Deep Q-Learning的公钥密码算法的侧信道分析方法
CN115051784B (zh) * 2022-05-26 2023-08-11 北京理工大学 一种基于Deep Q-Learning的公钥密码算法的侧信道分析方法
CN117692101A (zh) * 2023-12-04 2024-03-12 北京科技大学 一种基于卷积神经网络的突发误码检测方法及装置
CN117692101B (zh) * 2023-12-04 2024-07-09 北京科技大学 一种基于卷积神经网络的突发误码检测方法及装置

Also Published As

Publication number Publication date
CN110048827B (zh) 2021-05-14

Similar Documents

Publication Publication Date Title
CN110048827A (zh) 一种基于深度学习卷积神经网络的类模板攻击方法
CN108717568B (zh) 一种基于三维卷积神经网络的图像特征提取与训练方法
CN106023065B (zh) 一种基于深度卷积神经网络的张量型高光谱图像光谱-空间降维方法
CN112328767B (zh) 基于bert模型和比较聚合框架的问答匹配方法
Al Bashish et al. A framework for detection and classification of plant leaf and stem diseases
CN103903251B (zh) 基于非经典感受野复合调制的夜视图像显著轮廓提取方法
CN108427921A (zh) 一种基于卷积神经网络的人脸识别方法
CN108520202B (zh) 基于变分球面投影的对抗鲁棒性图像特征提取方法
Pan et al. Intelligent diagnosis of northern corn leaf blight with deep learning model
CN107871136A (zh) 基于稀疏性随机池化的卷积神经网络的图像识别方法
CN108388896A (zh) 一种基于动态时序卷积神经网络的车牌识别方法
CN107239514A (zh) 一种基于卷积神经网络的植物识别方法及系统
Buyrukoğlu New hybrid data mining model for prediction of Salmonella presence in agricultural waters based on ensemble feature selection and machine learning algorithms
CN109034228A (zh) 一种基于差分隐私和层级相关性传播的图像分类方法
CN108520213A (zh) 一种基于多尺度深度的人脸美丽预测方法
CN110135371A (zh) 一种基于Mixup算法的柑橘黄龙病识别方法及装置
CN115601583A (zh) 一种双通道注意力机制的深度卷积网络目标识别方法
Liu et al. Adaptive graph convolutional network for PolSAR image classification
CN109522953A (zh) 基于网络嵌入算法和cnn对图结构数据进行分类的方法
Lauren et al. A low-dimensional vector representation for words using an extreme learning machine
Lu et al. New method for rice disease identification based on improved deep residual shrinkage network
CN110097117B (zh) 基于线性判别分析与多元自适应样条的数据分类方法
CN104050451A (zh) 一种基于多通道Haar-like特征的鲁棒目标跟踪方法
CN106845512A (zh) 基于分形参数的兽类形体识别方法及系统
Billah et al. Adaptive neuro fuzzy inference system based tea leaf disease recognition using color wavelet

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant