CN110048827B - 一种基于深度学习卷积神经网络的类模板攻击方法 - Google Patents
一种基于深度学习卷积神经网络的类模板攻击方法 Download PDFInfo
- Publication number
- CN110048827B CN110048827B CN201910299623.6A CN201910299623A CN110048827B CN 110048827 B CN110048827 B CN 110048827B CN 201910299623 A CN201910299623 A CN 201910299623A CN 110048827 B CN110048827 B CN 110048827B
- Authority
- CN
- China
- Prior art keywords
- layer
- correlation coefficient
- energy
- neural network
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/002—Countermeasures against attacks on cryptographic mechanisms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/06—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols the encryption apparatus using shift registers or memories for block-wise or stream coding, e.g. DES systems or RC4; Hash functions; Pseudorandom sequence generators
- H04L9/0618—Block ciphers, i.e. encrypting groups of characters of a plain text message using fixed encryption transformation
- H04L9/0631—Substitution permutation network [SPN], i.e. cipher composed of a number of stages or rounds each involving linear and nonlinear transformations, e.g. AES algorithms
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Complex Calculations (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习卷积神经网络的类模板攻击方法,针对能量迹的特点以及汉明重量的种类,搭建了一独特五层结构的深度学习卷积神经网络,用于攻击能量迹汉明重量的预测,很好地解决了传统模板攻击对于模板构建的依赖,以深度学习卷积神经网络作为类模板进行能量迹汉明重量的预测,克服了模板构建不精确的问题,提高了攻击成功率,同时,本发明具有较强的泛化能力。
Description
技术领域
本发明属于密码算法分析检测技术领域,更为具体地讲,涉及一种基于深度学习卷积神经网络的类模板攻击方法。
背景技术
模板攻击是一种非常强有力的侧信道攻击方式。在现有技术中,模板攻击分为两个阶段:模板构建和模板匹配。
在2019年01月22日公布的、公布号为CN109257160A、名称为“一种基于决策树的侧信道模板攻击方法”的中国发明专利申请中,公布了一种模板攻击方法:首先采集能量迹,建立能量消耗矩阵U,构建决策树模型,选择从根节点至叶节点出现的特征,然后根据选择的特征对能量消耗矩阵U进行抽取,建立能量消耗矩阵T,再根据对应明文与密钥,选择密码算法关键点的函数建立汉明重量列向量H,以能量消耗矩阵T为输入、汉明重量列向量H为输出,构建模板,从而很好地提取了特征,最后,采集随机明文、固定密钥的能量迹,引入映射的匹配策略,得到密钥,从而提高了模板匹配效果,进而提高了攻击成功率。然而传统模板攻击中,模板构建不精确,同时,以被分析密码设备的信号噪声服从多变量高斯分布的概率模型为前提假设,影响了模板攻击的成功率。
发明内容
本发明的目的在于克服现有技术中模板构建不精确,以被分析密码设备的信号噪声服从多变量高斯分布的概率模型为前提假设的不足,提出一种基于深度学习卷积神经网络的类模板攻击方法,以提高攻击成功率。
为实现上述发明目的,本发明基于深度学习卷积神经网络的类模板攻击方法,其特征在于,包括以下步骤:
(1)、搭建深度学习卷积神经网络,所述深度学习卷积神经网络包括:
第一层为卷积层1,其卷积核1*32,其Dropout比率为0.3,用于对输入的能量迹做卷积,得到的数据输出到第二层,卷积过程的激活函数采用修正线性单元ReLu;
第二层为最大池化层,对输入的数据以步长为1、非重叠地做2的最大池化操作,最大池化操作后的数据输出到第三层;
第三层为卷积层2,其卷积核1*32,其Dropout比率为0.6,用于对输入的数据做卷积,得到的数据经过压平(Flatten)即将每个空间维度划分为一个单个空间维度后输出到第四层,卷积过程的激活函数采用双切正切函数Tanh;
第四层为全连接层1,激活函数采用修正线性单元ReLu,具有256个神经元,与输入数据的每个数据进行全连接,每个神经元输出一个数据,并输出到第五层;
第五层为全连接层1,激活函数采用Softmax函数,具有9个神经元,每个神经元与输入的256个数据进行全连接,结合分类交叉熵损失函数,每个神经元输出一个数据即属于一种汉明重量的概率;
(2)、在微控制器上运行AES密码算法,采用随机密钥加密,每发送一个随机明文和随机密钥,便采集T个采样点的功耗曲线,构成对应的能量迹,发送N次,共采集N条能量迹;
(3)、利用相关特征提取算法,确定功耗信息泄露位置点:利用AES算法S盒第一轮输出中间值与采样点的相关系数(绝对值),确定相关系数大的采样点作为特征点;
(4)、根据确定的特征点所在位置,对N条能量迹在特征点所在位置的采样点进行抽取,得到N条训练能量迹;同时,对每条能量迹,计算该能量迹对应的S盒第一轮输出的中间值的汉明重量,并作为其标签;
(5)、将N条训练能量迹以及各自对应的标签,输入到搭建的深度学习卷积神经网络中进行训练,根据训练准确率和训练损失函数,调整深度学习卷积神经网络的参数得到最优深度学习卷积神经网络;
(6)、对被攻击的运行AES密码算法的微控制器,如步骤(2)采集随机明文、固定密钥的Q条能量迹,然后对Q条能量迹在特征点所在位置的采样点进行抽取,得到Q条攻击能量迹;
(7)、将一条攻击能量迹输入到最优深度学习卷积神经网络,得到相应的中间值的汉明重量,然后与算法明文结合,找出密钥的可能范围;
(8)、选择下一条攻击能量迹,重复步骤(7),密钥的可能取值范围按一定概率减少,直至获取最终密钥。
本发明的目的是这样实现的。
本发明基于深度学习卷积神经网络的类模板攻击方法,针对能量迹的特点以及汉明重量的种类,搭建了一独特五层结构的深度学习卷积神经网络,用于攻击能量迹汉明重量的预测,很好地解决了传统模板攻击对于模板构建的依赖,以深度学习卷积神经网络作为类模板进行能量迹汉明重量的预测,克服了模板构建不精确的问题,提高了攻击成功率,同时,本发明具有较强的泛化能力。
附图说明
图1是本发明基于深度学习卷积神经网络的类模板攻击方法一种具体实施方式的流程图;
图2是滤波器卷积操作示意图;
图3是本发明中搭建的深度学习卷积神经网络架构示意图;
图4是一条能量迹示例图;
图5是一S盒第一轮输出中间值与功率测量值的相关系数曲线图;
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
图1是本发明基于深度学习卷积神经网络的类模板攻击方法一种具体实施方式的流程图。
在本实施例中,如图1所示,本发明基于深度学习卷积神经网络的类模板攻击方法包括以下步骤:
步骤S1:搭建深度学习卷积神经网络
深度学习中卷积神经网络(CNN)是一种特殊类型的神经网络,它受到动物视觉皮层的生理过程的启发,最初设计的目的是为了解决二维卷积问题。它结合了两种类型的层,被称为卷积层和池化层,并在图像处理领域取得良好的成果。
CNN架构具有自然的平移不变性,这是由于在卷积运算期间使用池化操作和权重共享。因此,CNN当处理非同步的侧信道功耗曲线(能量迹)时很有用,甚至功耗曲线不能完全对齐时,也能够进行学习和提取功耗信号中的特征。
输入层:假设输入的序列有n个元素,每个元素有M维,可以得到n×M的矩阵。
卷积层:在该层上,在前向计算阶段期间,输入数据与一些滤波器进行卷积。卷积的输出通常被称为特征映射。图2为大小为3的滤波器卷积操作。
激活函数:“激活的神经元的特征”通过激活函数把特征保留下来并映射出来(即保留特征,去除一些数据的冗余),这是神经网络能够解决非线性问题关键。激活函数是用来加入非线性因素的,这是因为线性模型的表达力往往不够。激活函数一般有如下几个:Sigmoid激活函数,Tanh激活函数,ReLU激活函数以及Softmax激活函数。其中:
Tanh激活函数:tanh(x)=2σ(2x)-1,其中σ(2x)为sigmoid函数。
ReLu激活函数:f(x)=max(x,0)。
ReLU激活函数是神经网络研究的最新成果,在早些年,神经网络模型常常使用饱和激活函数,如sigmoid和tanh激活函数。在运算速度和模型准确度方面,使用ReLu相对于其他激活函数具有巨大的优势。在提高运算速度与准确率后,人们可以搭建更复杂的神经网络模型,并对其进行更长时间的训练。近年来,ReLu激活函数的使用已经取代了卷积神经网络设计中的其他激活函数,所以在本发明中激活函数基本上都是采用了ReLu函数。
Softmax激活函数是将多个神经元的输出,映射到(0,1)区间内,可以看成是当前输出是属于各个分类的概率,从而来进行多分类。这个激活函数一般位于输出层,常用于分类模型。假设有一个数组V,Vi表示数组V中的第i个元素,那么元素Vi的Softmax值就是:
池化层:池化层的输入一般来源于上一个卷积层,主要用于减少空间的非线性层数据大小。因此它减少了神经网络计算量。最常用的两种池化操作的类型分别是最大值池化操作(Max Pooling)和平均池化操作(Average Pooling)。例如Max-Pooling就是取一小块区域中的最大值,此时若此区域中的其他值略有变化,或者图像稍有平移,池化后的结果仍不变,而且减少了参数的数量,防止过拟合现象的发生。池化层一般没有参数,所以反向传播的时候,只需对输入参数求导,不需要进行权值更新。
Dropout比率:Dropout作为一种正则化方法,可以有效防止CNN模型过拟合,该方法在Hinton等人研究论文中提出。Dropout的基本原理是在模型每一次训练迭代中,对每一层中的神经元(总数为N)以概率P随机失活,用余下的(1-P)×N个神经元所构成的网络来训练本次迭代中的数据。Dropout可以直接减少中间特征的数量,从而减少冗余,进而避免模型的过拟合。
全连接层(fully connected layers,FC):在CNN中,全连接层通常位于CNN架构中的最后几层,主要起到“分类器”的作用。卷积层、池化层和激活函数等操作的作用主要是提取特征,目的是将原始数据映射到隐层特征空间。全连接层作用就是对前面层提取的局部特征进行加权和。处在最后一层的全连接层,主要计算每种分类结果的概率,然后输出分类结果。
针对能量迹的特点以及汉明重量的种类,本发明搭建了一独特五层结构的深度学习卷积神经网络,用于攻击能量迹汉明重量的预测,很好地解决了传统模板攻击对于模板构建的依赖,以深度学习卷积神经网络作为类模板进行能量迹汉明重量的预测,克服了模板构建不精确的问题,提高了攻击成功率,同时,本发明具有较强的泛化能力。在本实施例中,如图3所示,搭建的五层结构的深度学习卷积神经网络包括:
第一层为卷积层1,其卷积核1*32,其Dropout比率为0.3,用于对输入的能量迹做卷积,得到的数据输出到第二层,卷积过程的激活函数采用修正线性单元ReLu;
第二层为最大池化层,对输入的数据以步长为1、非重叠地做2的最大池化操作,最大池化操作后的数据输出到第三层;
第三层为卷积层2,其卷积核1*32,其Dropout比率为0.6,用于对输入的数据做卷积,得到的数据经过压平(Flatten)即将每个空间维度划分为一个单个空间维度后输出到第四层,卷积过程的激活函数采用双切正切函数Tanh;
第四层为全连接层1,激活函数采用修正线性单元ReLu,具有256个神经元,与输入数据的每个数据进行全连接,每个神经元输出一个数据,并输出到第五层;
第五层为全连接层1,激活函数采用Softmax函数,具有9个神经元,每个神经元与输入的256个数据进行全连接,结合分类交叉熵损失函数,每个神经元输出一个数据即属于一种汉明重量的概率。
步骤S2:在微控制器上运行AES密码算法,采用随机密钥加密,每发送一个随机明文和随机密钥,便采集T个采样点的功耗曲线,构成对应的一条能量迹,发送N次,共采集N条能量迹。在本实施例中,一条能量迹如图4所示。
步骤S3:利用相关特征提取算法,确定功耗信息泄露位置点:利用AES算法S盒第一轮输出的中间值与采样点的相关系数(绝对值),确定相关系数大的采样点作为特征点。
在本实施例中,所述相关系数采用皮尔逊相关系数计算公式:
其中,rt是S盒第一轮输出中间值汉明重量与采样点t处的相关系数,pn,t是第n条能量迹在采样点t处的功率测量值,并且hn是第n条能量迹对应的S盒第一轮输出中间值的汉明重量,等式中的功率测量值pn,t与汉明重量的功率模型有关。
根据皮尔逊(Pearson)相关系数公式,计算能量迹的每个采样点与S盒第一轮输出中间值之间的相关系数(绝对值)。之所以取绝对值,这是因为在对能量迹(功耗曲线)的功率测量值(功耗信息)进行统计时,计算出的相关系数有正有负,它们代表着S盒第一轮输出中间值与功耗信息泄漏点的正、负相关性,而绝对值的大小表示着相关程度的高低。在本实施例中,一S盒第一轮输出中间值与功率测量值的相关系数曲线图如图5所示。
所述确定相关系数大的采样点作为特征点是通过设定相关系数阈值来实现的,只要采样点的相关系数大于等于所设定的相关系数阈值,就选取该采样点为特征点。
通过设置不同相关系数阈值,可以选定不同数量的特征点。
步骤S4:根据确定的特征点所在位置,对N条能量迹在特征点所在位置的采样点进行抽取,得到N条训练能量迹;同时,对每条能量迹,计算该能量迹对应的S盒第一轮输出的中间值的汉明重量,并作为其标签。
步骤S5:将N条训练能量迹以及各自对应的标签,输入到搭建的深度学习卷积神经网络中进行训练,根据训练准确率和训练损失函数,调整深度学习卷积神经网络的参数得到最优深度学习卷积神经网络。
步骤S6:对被攻击的运行AES密码算法的微控制器,如步骤S2采集随机明文、固定密钥的Q条能量迹,然后对Q条能量迹在特征点所在位置的采样点进行抽取,得到Q条攻击能量迹;
步骤S7:将一条攻击能量迹输入到最优深度学习卷积神经网络,得到相应的中间值的汉明重量,然后与算法明文结合,找出密钥的可能范围。
步骤S8:选择下一条攻击能量迹,重复步骤(7),密钥的可能取值范围按一定概率减少,直至获取最终密钥。
在本实施例中,采用不同的相关系数阈值,密钥攻击成功率如表1所示。
相关系数阈值 | 相关系数(绝对值) | 特征点数 | 密钥攻击成功率 |
0.03 | R≥0.03 | 622 | 86.32% |
0.05 | R≥0.05 | 303 | 88.04% |
0.1 | R≥0.1 | 102 | 84.17% |
0.2 | R≥0.2 | 60 | 78.69% |
0.3 | R≥0.3 | 40 | 71.62% |
0.4 | R≥0.4 | 34 | 64.30% |
0.5 | R≥0.5 | 22 | 59.86% |
0.6 | R≥0.6 | 13 | 53.19% |
表1
分析表1,可知本发明密钥攻击成功率也与相关系数阈值呈负相关,这与模板攻击的情况恰恰相反。这是因为特征点的个数越多,功耗曲线综合泄露信息也就越多,不同中间值之间的汉明重量之间的特征差异就越大,CNN得到的中间值汉明重量的准确率就越高。但是前提是这些特征点确实与操作数中间值相关,无关的特征点再多对攻击效果也无任何帮助。当相关系数阈值设为0.05即相关系数R≥0.05时,密钥攻击成功率最高达到88.04%,但是特征点达到303个,而当相关系数阈值设为0.1即相关系数R≥0.1时,密钥攻击成功率最高也能达到84.17%,特征点减少到102个。因此,相关系数阈值设为0.1比较合适。而相关系数阈值小于0.05,密钥攻击成功率反而减少,此时,特征点比较多,进行密钥攻击时,硬件资源消耗大。
与模板攻击的比较
在本实施例中,依据相关系数阈值大小来选取不同数量的特征点,采用本发明方法与模板攻击方法进行比较,其结果如表2所示。
表2
从表2,可知模板攻击的准确率与特征点选取有关,当选取相关系数比较大的特征点,模板攻击的准确率就越高,反之准确率就越低。这是因为相关系数较大的采样时刻点,其泄露的功耗信息越多,构建的模板就越精确,模板匹配成功率就越高。然而,只要相关系数阈值小于0.5,本发明密钥攻击成功率就高于模板攻击时密钥攻击成功率。因此,本发明中相关系数阈值大于0.05且小于0.5比较适合。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
Claims (3)
1.一种基于深度学习卷积神经网络的类模板攻击方法,其特征在于,包括以下步骤:
(1)、搭建深度学习卷积神经网络,所述深度学习卷积神经网络包括:
第一层为卷积层1,其卷积核1*32,其Dropout比率为0.3,用于对输入的能量迹做卷积,得到的数据输出到第二层,卷积过程的激活函数采用修正线性单元ReLu;
第二层为最大池化层,对输入的数据以步长为1、非重叠地做2的最大池化操作,最大池化操作后的数据输出到第三层;
第三层为卷积层2,其卷积核1*32,其Dropout比率为0.6,用于对输入的数据做卷积,得到的数据经过压平即将每个空间维度划分为一个单个空间维度后输出到第四层,卷积过程的激活函数采用双切正切函数Tanh;
第四层为全连接层1,激活函数采用修正线性单元ReLu,具有256个神经元,与输入数据的每个数据进行全连接,每个神经元输出一个数据,并输出到第五层;
第五层为全连接层1,激活函数采用Softmax函数,具有9个神经元,每个神经元与输入的256个数据进行全连接,结合分类交叉熵损失函数,每个神经元输出一个数据即属于一种汉明重量的概率;
(2)、在微控制器上运行AES密码算法,采用随机密钥加密,每发送一个随机明文和随机密钥,便采集T个采样点的功耗曲线,构成对应的能量迹,发送N次,共采集N条能量迹;
(3)、利用相关特征提取算法,确定功耗信息泄露位置点:利用AES算法S盒第一轮输出中间值与采样点的相关系数的绝对值,确定相关系数绝对值大的采样点作为特征点;
所述相关系数采用皮尔逊相关系数计算公式:
其中,rt是S盒第一轮输出中间值汉明重量与采样点t处的相关系数,pn,t是第n条能量迹在采样点t处的功率测量值,并且hn是第n条能量迹对应的S盒第一轮输出中间值的汉明重量,等式中的功率测量值pn,t与汉明重量的功率模型有关;
根据皮尔逊相关系数公式,计算能量迹的每个采样点与S盒第一轮输出中间值之间的相关系数;
所述确定相关系数绝对值大的采样点作为特征点是通过设定相关系数阈值来实现的,只要采样点的相关系数绝对值大于等于所设定的相关系数阈值,就选取该采样点为特征点;
(4)、根据确定的特征点所在位置,对N条能量迹在特征点所在位置的采样点进行抽取,得到N条训练能量迹;同时,对每条能量迹,计算该能量迹对应的S盒第一轮输出的中间值的汉明重量,并作为其标签;
(5)、将N条训练能量迹以及各自对应的标签,输入到搭建的深度学习卷积神经网络中进行训练,根据训练准确率和训练损失函数,调整深度学习卷积神经网络的参数得到最优深度学习卷积神经网络;
(6)、对被攻击的运行AES密码算法的微控制器,如步骤(2)采集随机明文、固定密钥的Q条能量迹,然后对Q条能量迹在特征点所在位置的采样点进行抽取,得到Q条攻击能量迹;
(7)、将一条攻击能量迹输入到最优深度学习卷积神经网络,得到相应的中间值的汉明重量,然后与算法明文结合,找出密钥的可能范围;
(8)、选择下一条攻击能量迹,重复步骤(7),密钥的可能取值范围按一定概率减少,直至获取最终密钥。
2.根据权利要求1所述的类模板攻击方法,其特征在于,所述确定相关系数大的采样点作为特征点是通过设定相关系数阈值来实现的,只要采样点的相关系数大于等于所设定的相关系数阈值,就选取该采样点为特征点;
所设定的相关系数阈值大于0.05且小于0.5比较适合。
3.根据权利要求2所述的类模板攻击方法,其特征在于,所设定的相关系数阈值为0.1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910299623.6A CN110048827B (zh) | 2019-04-15 | 2019-04-15 | 一种基于深度学习卷积神经网络的类模板攻击方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910299623.6A CN110048827B (zh) | 2019-04-15 | 2019-04-15 | 一种基于深度学习卷积神经网络的类模板攻击方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110048827A CN110048827A (zh) | 2019-07-23 |
CN110048827B true CN110048827B (zh) | 2021-05-14 |
Family
ID=67277118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910299623.6A Active CN110048827B (zh) | 2019-04-15 | 2019-04-15 | 一种基于深度学习卷积神经网络的类模板攻击方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110048827B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112787971B (zh) * | 2019-11-01 | 2023-02-28 | 国民技术股份有限公司 | 侧信道攻击模型的构建方法、密码攻击设备及计算机存储介质 |
CN112883385B (zh) * | 2019-11-29 | 2022-07-01 | 上海复旦微电子集团股份有限公司 | 侧信道泄露位置定位方法及装置、存储介质、终端 |
CN111565189B (zh) * | 2020-04-30 | 2022-06-14 | 衡阳师范学院 | 基于深度学习的侧信道分析方法 |
CN111597551B (zh) * | 2020-05-20 | 2024-02-27 | 中国科学技术大学 | 针对深度学习算法的侧信道攻击的防护方法 |
CN111818080A (zh) * | 2020-07-22 | 2020-10-23 | 中国工商银行股份有限公司 | 注入攻击检测模型构建方法和装置 |
CN111967909A (zh) * | 2020-08-17 | 2020-11-20 | 国网山西省电力公司营销服务中心 | 一种基于卷积神经网络的托攻击检测方法 |
CN112016086A (zh) * | 2020-08-28 | 2020-12-01 | 天津大学 | 基于卷积神经网络和选择消息方法的功耗攻击方法 |
CN111953488A (zh) * | 2020-08-28 | 2020-11-17 | 南方电网科学研究院有限责任公司 | 一种hmac-sm3算法的密钥获取方法、装置、设备和存储介质 |
CN112463387B (zh) * | 2020-12-07 | 2024-03-29 | 浙江工业大学 | 基于gpu时空资源消耗识别本地服务器上深度学习模型的方法 |
CN113116363A (zh) * | 2021-04-15 | 2021-07-16 | 西北工业大学 | 一种基于表面肌电信号判断手部疲劳度方法 |
CN113472515B (zh) * | 2021-06-30 | 2023-09-01 | 中国科学技术大学 | 一种用于检验用户防御侧信道攻击能力的方法 |
CN114285545B (zh) * | 2021-12-24 | 2024-05-17 | 成都三零嘉微电子有限公司 | 一种基于卷积神经网络的侧信道攻击方法及系统 |
CN115051784B (zh) * | 2022-05-26 | 2023-08-11 | 北京理工大学 | 一种基于Deep Q-Learning的公钥密码算法的侧信道分析方法 |
CN117692101B (zh) * | 2023-12-04 | 2024-07-09 | 北京科技大学 | 一种基于卷积神经网络的突发误码检测方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015166300A1 (en) * | 2014-04-28 | 2015-11-05 | Telefonaktiebolaget L M Ericsson (Publ) | Using web entropy to scramble messages |
CN108108768A (zh) * | 2017-12-29 | 2018-06-01 | 清华大学 | 基于卷积神经网络的光伏玻璃缺陷分类方法及装置 |
WO2018119035A1 (en) * | 2016-12-22 | 2018-06-28 | Ip Reservoir, Llc | Pipelines for hardware-accelerated machine learning |
CN108880781A (zh) * | 2018-06-14 | 2018-11-23 | 成都信息工程大学 | 一种对加掩防护加密设备的无掩码神经网络攻击方法 |
CN109257160A (zh) * | 2018-12-05 | 2019-01-22 | 电子科技大学 | 一种基于决策树的侧信道模板攻击方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10255040B2 (en) * | 2017-05-11 | 2019-04-09 | Veridium Ip Limited | System and method for biometric identification |
US10367841B2 (en) * | 2016-12-16 | 2019-07-30 | Patternex, Inc. | Method and system for learning representations for log data in cybersecurity |
US10706349B2 (en) * | 2017-05-25 | 2020-07-07 | Texas Instruments Incorporated | Secure convolutional neural networks (CNN) accelerator |
CN108427720B (zh) * | 2018-02-08 | 2020-12-29 | 中国科学院计算技术研究所 | 系统日志分类方法 |
-
2019
- 2019-04-15 CN CN201910299623.6A patent/CN110048827B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015166300A1 (en) * | 2014-04-28 | 2015-11-05 | Telefonaktiebolaget L M Ericsson (Publ) | Using web entropy to scramble messages |
WO2018119035A1 (en) * | 2016-12-22 | 2018-06-28 | Ip Reservoir, Llc | Pipelines for hardware-accelerated machine learning |
CN108108768A (zh) * | 2017-12-29 | 2018-06-01 | 清华大学 | 基于卷积神经网络的光伏玻璃缺陷分类方法及装置 |
CN108880781A (zh) * | 2018-06-14 | 2018-11-23 | 成都信息工程大学 | 一种对加掩防护加密设备的无掩码神经网络攻击方法 |
CN109257160A (zh) * | 2018-12-05 | 2019-01-22 | 电子科技大学 | 一种基于决策树的侧信道模板攻击方法 |
Non-Patent Citations (3)
Title |
---|
Machine learning in side-channel analysis: a first study;Gabriel Hospodar ect.;《Springer》;20111027 * |
Micro-seismic event detection and location in underground mines by using Convolutional Neural Networks (CNN) and deep learning;Linqi Huang ect.;《Tunnelling and Underground Space Technology》;20181130 * |
基于卷积神经网络的加密芯片差分攻击新方法;郭东昕等;《计算机工程与应用》;20181101 * |
Also Published As
Publication number | Publication date |
---|---|
CN110048827A (zh) | 2019-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110048827B (zh) | 一种基于深度学习卷积神经网络的类模板攻击方法 | |
CN108133188B (zh) | 一种基于运动历史图像与卷积神经网络的行为识别方法 | |
CN113806746B (zh) | 基于改进cnn网络的恶意代码检测方法 | |
CN111341386A (zh) | 引入注意力的多尺度CNN-BiLSTM非编码RNA互作关系预测方法 | |
CN111753881A (zh) | 一种基于概念敏感性量化识别对抗攻击的防御方法 | |
CN114595874B (zh) | 一种基于动态神经网络的超短期电力负荷预测方法 | |
CN107945210B (zh) | 基于深度学习和环境自适应的目标跟踪方法 | |
CN111832228B (zh) | 基于cnn-lstm的振动传递系统 | |
CN111783841A (zh) | 基于迁移学习和模型融合的垃圾分类方法、系统及介质 | |
CN110276357A (zh) | 一种基于卷积神经网络的验证码识别方法 | |
CN112182585B (zh) | 源代码漏洞检测方法、系统及存储介质 | |
CN115051929B (zh) | 基于自监督目标感知神经网络的网络故障预测方法及装置 | |
CN103927550A (zh) | 一种手写体数字识别方法及系统 | |
CN112949610A (zh) | 一种基于降噪算法的改进Elman神经网络的预测方法 | |
CN111768792A (zh) | 基于卷积神经网络和领域对抗学习的音频隐写分析方法 | |
CN116306780B (zh) | 一种动态图链接生成方法 | |
CN117034030A (zh) | 基于正反双向信息融合的脑电图数据对齐算法 | |
CN111797979A (zh) | 基于lstm模型的振动传递系统 | |
CN116502061A (zh) | 一种基于深度对比学习的射频指纹无监督盲识别方法 | |
CN116433909A (zh) | 基于相似度加权多教师网络模型的半监督图像语义分割方法 | |
Masilamani et al. | Art classification with pytorch using transfer learning | |
CN113283520B (zh) | 面向成员推理攻击的基于特征增强的深度模型隐私保护方法和装置 | |
Tomar et al. | A Comparative Analysis of Activation Function, Evaluating their Accuracy and Efficiency when Applied to Miscellaneous Datasets | |
CN114611134A (zh) | 基于负数据库和深度学习的多元时序数据隐私保护方法 | |
TWI722383B (zh) | 應用於深度學習之預特徵萃取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |