CN106251375B - 一种通用隐写分析的深度学习堆栈式自动编码方法 - Google Patents

一种通用隐写分析的深度学习堆栈式自动编码方法 Download PDF

Info

Publication number
CN106251375B
CN106251375B CN201610642550.2A CN201610642550A CN106251375B CN 106251375 B CN106251375 B CN 106251375B CN 201610642550 A CN201610642550 A CN 201610642550A CN 106251375 B CN106251375 B CN 106251375B
Authority
CN
China
Prior art keywords
usosae
data
training
image
characteristic data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201610642550.2A
Other languages
English (en)
Other versions
CN106251375A (zh
Inventor
赵慧民
戴青云
魏文国
任金昌
容淳铭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Polytechnic Normal University
Original Assignee
Guangdong Polytechnic Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Polytechnic Normal University filed Critical Guangdong Polytechnic Normal University
Priority to CN201610642550.2A priority Critical patent/CN106251375B/zh
Publication of CN106251375A publication Critical patent/CN106251375A/zh
Application granted granted Critical
Publication of CN106251375B publication Critical patent/CN106251375B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种通用隐写分析的深度学习堆栈式自动编码方法,其特征在于包括以下步骤:第一步,图像分块处理;第二步,USoSAE特征数据输入,第三步,USoSAE特征数据的映射,第四,USoSAE特征数据输出,第五,训练最后的优化参数值。本发明通过对隐写检测图像的概率密度函数统计,把图像数据按照方差统计进行分割,并结合SAEs的数据模型,降低输入层的计算开销。本发明通过把不同属性的数据输入到不同的隐含层进行特征提取和训练,改善多维数据摘要的表示效率。在USoSAE隐含层,本发明通过加入稀疏性限制的先验条件,进一步降低特征数据的维数,提高隐写分析数据分类的计算精度。

Description

一种通用隐写分析的深度学习堆栈式自动编码方法
技术领域
本发明涉及一种通用隐写分析的深度学习堆栈式自动编码方法。
背景技术
基于神经网络的实现原理,2006年,Hinton对原型自动编码器结构进行改进,进而产生了深度学习自动编码器,如说明书附图中的图1。它由编码器、解码器和隐含层组成,它先用无监督逐层贪婪训练算法完成对隐含层的预训练,然后用BP(基追踪)算法对整个神经网络进行系统性参数优化调整,显著降低了神经网络的性能指数,有效改善了BP算法易陷入局部最小的不良状况。2006年,Benjio提出稀疏自动编码器的概念,进一步深化了深度学习自动编码器的研究。2008年,Vincent提出降噪自动编码器,在输入数据中添加限制向量,防止出现过拟合现象,并取得了良好的效果。2009年,Benjio总结了已有的深度结构,阐述了利用堆栈自动编码器构建深度学习神经网络的一般方法。2011年,Salah对升维和降维的过程加以限制,提出收缩自动编码器。2011年,Jonathan提出卷积自动编码器,用于构建卷积神经网络,2012年,Guyon对深度学习自动编码器与无监督特征学习之间的联系进行了深入的探讨,详细介绍了如何利用自动编码器构建不同类型深度结构。Hinton,Bengio和Vincent等人对比了原型自动编码器、稀疏自动编码器、降噪自动编码器、收缩自动编码器、卷积自动编码器和RBM等结构的性能,为以后的实践和科研提供了参考。2013年Amaral等研究了用不同代价函数训练的深度学习自动编码器的性能,为代价函数优化策略的发展指明了方向。
最近,基于Y.Chen等的技术原理,J.Zabalza等面向高光谱图像处理提出一个堆栈式自动编码器S-SAEs。它能够在网络的深度层把特征数据只用几个分量来统计,其基本的2层结构如说明书附图中的图2所示。
通用隐写分析是在未知原始载体对象和隐写术的基础上对检测图像是否含密进行判断的一种分析方法。通用隐写分析不再依据少量敏感统计特性判断载体是否含密,而是从大量原始载体样本和含密载体样本中提取多维特征向量来区分原始载体和以不同隐写方法得到的含密载体。
由于通用隐写分析的重点在于多维特征提取,而深度学习SAEs技术在隐含层能够更深刻地理解图像信号的分布特性及其潜在的结构化特征,进而可以为分析技术提供更加准确的分类判断。
但由于深度学习的复杂性和计算量,目前把深度学习的SAEs方法用于隐写分析的技术还没有。基于说明书附图中的图2的深度学习S-SAEs原理,本专利提出一种用于通用隐写分析的深度学习USoSAE技术。
发明内容
本发明针对现有技术的不足,提供一种通用隐写分析的深度学习堆栈式自动编码方法,该方法主要包括以下步骤:
第一步,图像分块处理;输入待检测的图像样本
Figure GSB0000184279570000021
通过酉变化(如小波变换(Discrete Wavelet Transform,DWT)、多小波变换(Multi-wavelet transform,MWT)或离散余弦变换(Discrete Cosine Transform,DCT))等对图像进行分解,运用图像信号的联合概率密度函数
Figure GSB0000184279570000022
拉普拉斯(Laplacian)变换对信号方差
Figure GSB0000184279570000023
进行处理,并运用马儿科夫(Markov)准则获得概率密度函数的统计关系:
Figure GSB0000184279570000024
其中,
Figure GSB0000184279570000025
代表了图像信号的临界方差分布,而条件概率分布
Figure GSB0000184279570000031
表示了系统获得局部系数的一种概率统计行为,对应临界分布条件,全局数据概率统计特性为:
Figure GSB0000184279570000032
运用公式(4)对公式(5)进行统计条件分割,并按照不同大小属性的
Figure GSB0000184279570000033
间隔,得到相关性统计模型;
第二步,USoSAE特征数据输入,通过编码函数f将i个不同节点数据
Figure GSB0000184279570000034
分别按照相关性统计模型的分割结果输入到各自的输入层,并通过梯度下降算法求解误差代价函数L(x1,y′1)=arg minw,p,q[error(x1,y′1)]训练出第1级隐含层结构的网络参数θ1={w1,p1,q1},并将训练好的参数作为该节点第1级隐含层的输出;
第三步,USoSAE特征数据的映射,通过编码h=f(x):=sf(wx+p)得到特征表达h,再用梯度法求解误差代价函数(y′1,y1)=arg minw,p,q[error(y′1,y1)],训练该节点第2级隐含层网络的参数θ2={w2,p2,q2};
为了简化计算,令hj(x)表示输入特征为x的数据在隐含层上第j个神经元的激活度,则:
Figure GSB0000184279570000035
表示隐含层上第j个神经元在训练集
Figure GSB0000184279570000036
上的平均激活度。为了保证隐含层上的神经元满足特征摘要的稀疏性限制,要求
Figure GSB0000184279570000037
其中ρ为稀疏性参数,通常取一个很小的数(如ρ=0.03)。如果训练时
Figure GSB0000184279570000038
和ρ相隔太大,就采用基于KL-divergence方法进行惩罚,其惩罚函数形式为:
Figure GSB0000184279570000039
这样在第i(i=1,2,…,k)个节点上的两级隐含层上总的训练代价函数为:
Figure GSB0000184279570000041
公式(7)中,β为控制稀疏性惩罚项的权重系数,m为该节点的训练神经元个数。
这样在每个节点中,每个神经元的输入与前一级的局部训练过程相连,因此,USoSAE技术可以有效提取该局部的特征,并在该局部特征被提取后,它与其他特征间的位置关系也随之确定下来。
第四,USoSAE特征数据输出,通过在每个节点上按照第二步和第三步的两级训练方式,得到隐写图像的特征数据集
Figure GSB0000184279570000042
输出作为多分类器的输入,利用原始数据标签来训练出分类器的网络参数作为最后隐写分析的判断依据;
第五,重复第一步、第二步和第三步的网络参数作为USoSAE技术检测的深度网络系统的参数初始化值,然后用随机梯度下降算法迭代求出上面代价函数最小值附近处的参数值,并作为整个USoSAE网络训练最后的优化参数值。
为了进一步提高隐写分析的准确率和运行效率,本发明进行特征选择与融合的通用隐写分析方法的优点主要体现在以下几个方面:
1)、根据隐写检测图像的概率密度函数统计,把USoSAE输入层的数据按照信号方差关系进行条件分割,组成不同级、不同节点的分段SAEs训练模型,降低了深度学习输入层的数据维数。
而常用的深度学习SAEs是把整个图像信号作为训练输入数据,数据量较大,迭代耗时,难以满足神经网络的表示效率。
2)、USoSAE网络中的每一个特征提取层(第1层)都紧跟着稀疏性与二次特征训练的计算层(第2层),这种隐含层特有的两次特征训练结构使网络对高维输入的不同属性数据有较好的调节能力,提高了通用隐写分析的识别精度。
而常用的深度学习堆栈式自动编码器是三层神经网络结构:一个输入层,一个隐含层和一个输出层。
3)、基于KL-divergence方法,USoSAE通过在隐含层的代价函数中加入稀疏性惩罚项
Figure GSB0000184279570000051
及其权重系数,降低了原始信号的特征维数和训练数据的计算量。
附图说明
图1为基于深度学习自动编码器的实现方案示意图;
图2为基于深度学习S-SAEs的实现方案(2层)示意图;
图3为基于方差分布的图像分割的相关性统计模型示意图;
图4为本发明USOSAE实现方案示意图。
具体实施方式
以下结合附图和具体实施例对本发明进行详细描述,但不作为对本发明的限定。
参照图1~4,本发明实施例一种通用隐写分析的深度学习堆栈式自动编码方法,该方法主要包括以下步骤:
第一步,图像分块处理;输入待检测的图像样本
Figure GSB0000184279570000052
通过酉变化(如小波变换(Discrete Wavelet Transform,DWT)、多小波变换(Multi-wavelet transform,MWT)或离散余弦变换(Discrete Cosine Transform,DCT))等对图像进行分解,运用图像信号的联合概率密度函数
Figure GSB0000184279570000053
拉普拉斯(Laplacian)变换对信号方差
Figure GSB0000184279570000054
进行处理,并运用马儿科夫(Markov)准则获得概率密度函数的统计关系:
Figure GSB0000184279570000061
其中,
Figure GSB0000184279570000062
代表了图像信号的临界方差分布,而条件概率分布
Figure GSB0000184279570000063
表示了系统获得局部系数的一种概率统计行为,对应临界分布条件,全局数据概率统计特性为:
Figure GSB0000184279570000064
运用公式(4)对公式(5)进行统计条件分割,并按照不同大小属性的
Figure GSB0000184279570000065
间隔,得到相关性统计模型,如说明书附图3;
第二步,USoSAE特征数据输入,通过编码函数f将i个不同节点数据
Figure GSB0000184279570000066
分别按照相关性统计模型的分割结果输入到各自的输入层,并通过梯度下降算法求解误差代价函数L(x1,y′1)=arg minw,p,q[error(x1,y′1)]训练出第1级隐含层结构的网络参数θ1={w1,p1,q1},并将训练好的参数作为该节点第1级隐含层的输出;
第三步,USoSAE特征数据的映射,通过编码h=f(x):=sf(wx+p)得到特征表达h,再用梯度法求解误差代价函数(y′1,y1)=arg minw,p,q[error(y′1,y1)],训练该节点第2级隐含层网络的参数θ2={w2,p2,q2};
为了简化计算,令hj(x)表示输入特征为x的数据在隐含层上第j个神经元的激活度,则:
Figure GSB0000184279570000067
表示隐含层上第j个神经元在训练集
Figure GSB0000184279570000068
上的平均激活度。为了保证隐含层上的神经元满足特征摘要的稀疏性限制,要求
Figure GSB0000184279570000069
其中ρ为稀疏性参数,通常取一个很小的数(如ρ=0.03)。如果训练时
Figure GSB00001842795700000610
和ρ相隔太大,就采用基于KL-divergence方法进行惩罚,其惩罚函数形式为:
Figure GSB0000184279570000071
这样在第i(i=1,2,…,k)个节点上的两级隐含层上总的训练代价函数为:
Figure GSB0000184279570000072
公式(7)中,β为控制稀疏性惩罚项的权重系数,m为该节点的训练神经元个数。
这样在每个节点中,每个神经元的输入与前一级的局部训练过程相连,因此,USoSAE技术可以有效提取该局部的特征,并在该局部特征被提取后,它与其他特征间的位置关系也随之确定下来。
第四,USoSAE特征数据输出,通过在每个节点上按照第二步和第三步的两级训练方式,得到隐写图像的特征数据集
Figure GSB0000184279570000073
输出作为多分类器的输入,利用原始数据标签来训练出分类器的网络参数作为最后隐写分析的判断依据;
第五,重复第一步、第二步和第三步的网络参数作为USoSAE技术检测的深度网络系统的参数初始化值,然后用随机梯度下降算法迭代求出上面代价函数最小值附近处的参数值,并作为整个USoSAE网络训练最后的优化参数值。
为了进一步提高隐写分析的准确率和运行效率,本发明进行特征选择与融合的通用隐写分析方法的优点主要体现在以下几个方面:
1)、根据隐写检测图像的概率密度函数统计,把USoSAE输入层的数据按照信号方差关系进行条件分割,组成不同级、不同节点的分段SAEs训练模型,降低了深度学习输入层的数据维数。
而常用的深度学习SAEs是把整个图像信号作为训练输入数据,数据量较大,迭代耗时,难以满足神经网络的表示效率。
2)、USoSAE网络中的每一个特征提取层(第1层)都紧跟着稀疏性与二次特征训练的计算层(第2层),这种隐含层特有的两次特征训练结构使网络对高维输入的不同属性数据有较好的调节能力,提高了通用隐写分析的识别精度。
而常用的深度学习堆栈式自动编码器是三层神经网络结构:一个输入层,一个隐含层和一个输出层。
3)、基于KL-divergence方法,USoSAE通过在隐含层的代价函数中加入稀疏性惩罚项
Figure GSB0000184279570000081
及其权重系数,降低了原始信号的特征维数和训练数据的计算量。
本发明实施例经过实验、模拟,具体实现过程如下:
1)实验条件和参数
本专利实验选取的图像源为UCID图像库和testing数据集,在特征数据训练和分类过程中,本专利使用径向基函数(radial basis function,简称RBF)支持向量分类(C-SVC)的LibSVM2.86。
实验分别对常用隐写算法F5,JPHide和JSteg进行隐写分析。选择testing数据集载体图像及嵌入率分别为Large(简写为L),Medium(简写为M),Small(简写为S)和Tiny(简写为T)的F5,JPHide和JSteg的隐写图像各1000张,共计12000张。L,M,S,T分别表示了秘密信息占载体图像数据量的40%以上,15%-40%,5%-15%以及5%以下。实验时,分别用4000张原始载体图像(不含秘密信息)和对应的4000张隐写图像(含密信息)进行训练,用2000张载体图像和2000张对应的隐写图像进行测试。
同时,实验对基本YASS隐写(也进行了检测分析。其中,载体图像选择testing数据集图像5000张,并进行质量因子QFa的JPEG压缩处理。候选数据嵌入到Zigzag扫描排序的前19个低频DCT系数,按照YASS算法进行最大嵌入容量隐写。其参数设置为:主块大小分别为10,12,14;图像质量因子QFa和嵌入质量因子QFh选择为50/50和75/50两种,量化索引步长为1.5,生成5000张图像,用其中1500张载体图像及其对应的1500张隐写图像进行训练,用1000张载体图像及其对应的1000张隐写图像进行测试。
实验时,USoSAE的系统设置参数如下表0。表0为USoSAE的网络参数设置,表0中,总的特征数为20,C-1(k=5)表示输入图像数据在第1级按照属性分成5个子块输入的情况,C-2(k=4)表示隐含层对4个子块数据训练的配置,C-3(k=2)表示隐含层对2个子块数据训练的配置。其中,Nk表示数据源的分割大小范围,Lk=m表示训练节点神经元的大小,Fk表示不同节点不同级训练的特征大小配置。
表1为检测F5,JPHide和JSteg隐写结果,表2为检测YASS隐写结果。表1-2分别列出了不同隐写算法下,本专利USoSAE方法与常用的LSB(Least Significant Bit)空域检测方法、DCT和DWT域检测方法以及文献[20](黄炜,赵险峰,等.基于主成分分析进行特征融合的JPEG隐写分析[J],软件学报,2012,23(7):1869-1879.)的主成成分分析(PrincipalComponent Analysis,PCA)特征融合方法的检测比较结果。表中,TPR(True PositiveRate)表示真阳性率,TNR(True negative Rate)表示真阴性率,A(accuracy)表示检测精度。
2)实验结果分析
实验计算环境在Intel Xeon E74202.13GHz和8GB内存硬件环境下运行,分别运行LSB空域检测、DCT和DWT域检测、文献[20]PCA特征融合检测、文献[1](J.Zabalza,J Ren,Jiangbin Zheng,Huimin Zhao,Chunmei Qing,et al,“Novel segmented stackedautoencoder for effective dimensionality reduction and feature extraction inhyperspectral imaging,”Neurocomputing,10.1016/j.neucom.2015.11.044,185:1-10,April 2016.)的S-SAE方法检测,并与本专利USoSAE检测技术进行了对比。同时,对于特定的隐写算法,实验配置的隐写分析和训练器都相同,只有特征优选方法不同。由表1可见,本专利USoSAE方法优于其他隐写分析方法,并且特征选择稳定,检测识别精度远高于其他隐写分析方法。
由表2可见,典型的DCT和DWT变换域隐写分析方法不能有效地检测YASS隐写秘密信息的随机性嵌入位置,检测精度远低于USoSAE技术,约为14%-45.8%。而在空域,虽然检测精度高于USoSAE技术2.13%,但LSB空域检测方法一直存在鲁棒性问题,应用效率很低。以下为表0~2的具体情况:
表0 USoSAE的网络参数设置
Figure GSB0000184279570000101
表1 检测F5,JPHide和JSteg隐写结果
Figure GSB0000184279570000111
表2 检测YASS隐写结果
Figure GSB0000184279570000112
以上已将本发明做一详细说明,但显而易见,本领域的技术人员可以进行各种改变和改进,而不背离所附权利要求书所限定的本发明的范围。

Claims (1)

1.一种通用隐写分析的深度学习堆栈式自动编码方法,其特征在于,主要包括以下步骤:
第一步,图像分块处理;输入待检测的图像样本
Figure FSA0000133165410000011
通过酉变化对图像进行分解,运用图像信号的联合概率密度函数
Figure FSA0000133165410000012
拉普拉斯变换对信号方差
Figure FSA0000133165410000013
进行处理,并运用马儿科夫准则获得概率密度函数的统计关系:
Figure FSA0000133165410000014
其中,
Figure FSA0000133165410000015
代表了图像信号的临界方差分布,而条件概率分布
Figure FSA0000133165410000016
表示了系统获得局部系数的一种概率统计行为,对应临界分布条件,全局数据概率统计特性为:
Figure FSA0000133165410000017
运用公式(4)对公式(5)进行统计条件分割,并按照不同大小属性的
Figure FSA0000133165410000018
间隔,得到相关性统计模型;
第二步,USoSAE特征数据输入,通过编码函数f将i个不同节点数据
Figure FSA0000133165410000019
分别按照相关性统计模型的分割结果输入到各自的输入层,并通过梯度下降算法求解误差代价函数L(x1,y′1)=argminw,p,q[error(x1,y′1)]训练出第1级隐含层结构的网络参数θ1={w1,p1,q1},并将训练好的参数作为该节点第1级隐含层的输出;
第三步,USoSAE特征数据的映射,通过编码h=f(x):=sf(wx+p)得到特征表达h,再用梯度法求解误差代价函数(y′1,y1)=argminw,p,q[error(y′1,y1)],训练该节点第2级隐含层网络的参数θ2={w2,p2,q2};
第四,USoSAE特征数据输出,通过在每个节点上按照第二步和第三步的两级训练方式,得到隐写图像的特征数据集
Figure FSA0000133165410000021
输出作为多分类器的输入,利用原始数据标签来训练出分类器的网络参数作为最后隐写分析的判断依据;
第五,重复第一步、第二步和第三步的网络参数作为USoSAE技术检测的深度网络系统的参数初始化值,然后用随机梯度下降算法迭代求出上面代价函数最小值附近处的参数值,并作为整个USoSAE网络训练最后的优化参数值。
CN201610642550.2A 2016-08-03 2016-08-03 一种通用隐写分析的深度学习堆栈式自动编码方法 Expired - Fee Related CN106251375B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610642550.2A CN106251375B (zh) 2016-08-03 2016-08-03 一种通用隐写分析的深度学习堆栈式自动编码方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610642550.2A CN106251375B (zh) 2016-08-03 2016-08-03 一种通用隐写分析的深度学习堆栈式自动编码方法

Publications (2)

Publication Number Publication Date
CN106251375A CN106251375A (zh) 2016-12-21
CN106251375B true CN106251375B (zh) 2020-04-07

Family

ID=58078342

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610642550.2A Expired - Fee Related CN106251375B (zh) 2016-08-03 2016-08-03 一种通用隐写分析的深度学习堆栈式自动编码方法

Country Status (1)

Country Link
CN (1) CN106251375B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107240136B (zh) * 2017-05-25 2020-07-10 华北电力大学 一种基于深度学习模型的静态图像压缩方法
CN107679462B (zh) * 2017-09-13 2021-10-19 哈尔滨工业大学深圳研究生院 一种基于小波的深度多特征融合分类方法
CN108523907B (zh) * 2018-01-22 2021-07-16 上海交通大学 基于深度收缩稀疏自编码网络的疲劳状态识别方法及系统
US11120333B2 (en) 2018-04-30 2021-09-14 International Business Machines Corporation Optimization of model generation in deep learning neural networks using smarter gradient descent calibration
CN109214973B (zh) * 2018-08-24 2020-10-27 中国科学技术大学 针对隐写分析神经网络的对抗安全载体生成方法
CN117939027B (zh) * 2024-03-21 2024-06-07 南京信息工程大学 基于dct特征提取的jpeg图像隐写方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103116762A (zh) * 2013-03-20 2013-05-22 南京大学 一种基于自调制字典学习的图像分类方法
CN103955702A (zh) * 2014-04-18 2014-07-30 西安电子科技大学 基于深度rbf网络的sar图像地物分类方法
CN104166859A (zh) * 2014-08-13 2014-11-26 西安电子科技大学 基于ssae和fsals-svm极化sar图像分类
CN104182771A (zh) * 2014-07-30 2014-12-03 北京航空航天大学 基于带丢包自动编码技术的时间序列数据图形化分析方法
CN104346617A (zh) * 2014-04-18 2015-02-11 南京信息工程大学 一种基于滑动窗口和深度结构提取特征的细胞检测方法
CN104819846A (zh) * 2015-04-10 2015-08-05 北京航空航天大学 一种基于短时傅里叶变换和稀疏层叠自动编码器的滚动轴承声音信号故障诊断方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103116762A (zh) * 2013-03-20 2013-05-22 南京大学 一种基于自调制字典学习的图像分类方法
CN103955702A (zh) * 2014-04-18 2014-07-30 西安电子科技大学 基于深度rbf网络的sar图像地物分类方法
CN104346617A (zh) * 2014-04-18 2015-02-11 南京信息工程大学 一种基于滑动窗口和深度结构提取特征的细胞检测方法
CN104182771A (zh) * 2014-07-30 2014-12-03 北京航空航天大学 基于带丢包自动编码技术的时间序列数据图形化分析方法
CN104166859A (zh) * 2014-08-13 2014-11-26 西安电子科技大学 基于ssae和fsals-svm极化sar图像分类
CN104819846A (zh) * 2015-04-10 2015-08-05 北京航空航天大学 一种基于短时傅里叶变换和稀疏层叠自动编码器的滚动轴承声音信号故障诊断方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Learning Hidden Markov Model Topology Based on KL Divergence for Information Extraction;KC Au 等;《Advances in Knowledge Discovery and Data Mining》;20040531;第590-594页 *

Also Published As

Publication number Publication date
CN106251375A (zh) 2016-12-21

Similar Documents

Publication Publication Date Title
CN106251375B (zh) 一种通用隐写分析的深度学习堆栈式自动编码方法
CN111462126B (zh) 一种基于边缘增强的语义图像分割方法及系统
Qian et al. Learning and transferring representations for image steganalysis using convolutional neural network
CN108108751B (zh) 一种基于卷积多特征和深度随机森林的场景识别方法
JP7007829B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN106157232B (zh) 一种数字图像特征感知的通用隐写分析方法
Liu et al. Crackformer network for pavement crack segmentation
JP2008282391A (ja) パターン識別装置及びその制御方法、異常パターン検出装置及びその制御方法、プログラム、記憶媒体
CN106778768A (zh) 基于多特征融合的图像场景分类方法
US20110293173A1 (en) Object Detection Using Combinations of Relational Features in Images
Hussain et al. A comprehensive study of the effect of spatial resolution and color of digital images on vehicle classification
Ding et al. Noise-resistant network: a deep-learning method for face recognition under noise
Liu et al. Ensemble of CNN and rich model for steganalysis
US10580127B2 (en) Model generation apparatus, evaluation apparatus, model generation method, evaluation method, and storage medium
Bhuiyan et al. Hajj pilgrimage abnormal crowd movement monitoring using optical flow and FCNN
Lee et al. Reinforced adaboost learning for object detection with local pattern representations
CN117765258A (zh) 基于密度自适应和注意力机制的大规模点云语义分割方法
Brun et al. Detection of anomalous driving behaviors by unsupervised learning of graphs
JP2009134466A (ja) 認識処理装置、方法及びコンピュータプログラム
CN114610940B (zh) 基于局部随机敏感自编码器的哈希图像检索方法
CN106570509B (zh) 一种用于提取数字图像特征的字典学习及编码方法
Balachandran et al. Machine learning based video segmentation of moving scene by motion index using IO detector and shot segmentation
Singhal et al. Universal quantitative steganalysis using deep residual networks
Wary et al. Ring decomposition based video copy detection using global ordinal measure features and local features
Liu et al. Weather recognition of street scene based on sparse deep neural networks

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CB02 Change of applicant information

Address after: 293 No. 510665 Guangdong city of Guangzhou province Tianhe District Zhongshan Shipai Road

Applicant after: GUANGDONG POLYTECHNIC NORMAL University

Address before: 293 No. 510665 Guangdong city of Guangzhou province Tianhe District Zhongshan Shipai Road

Applicant before: GUANGDONG POLYTECHNIC NORMAL University

CB02 Change of applicant information
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200407

Termination date: 20210803

CF01 Termination of patent right due to non-payment of annual fee