CN106251375B - 一种通用隐写分析的深度学习堆栈式自动编码方法 - Google Patents
一种通用隐写分析的深度学习堆栈式自动编码方法 Download PDFInfo
- Publication number
- CN106251375B CN106251375B CN201610642550.2A CN201610642550A CN106251375B CN 106251375 B CN106251375 B CN 106251375B CN 201610642550 A CN201610642550 A CN 201610642550A CN 106251375 B CN106251375 B CN 106251375B
- Authority
- CN
- China
- Prior art keywords
- usosae
- data
- training
- image
- characteristic data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000013135 deep learning Methods 0.000 title claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 43
- 230000006870 function Effects 0.000 claims abstract description 30
- 238000012545 processing Methods 0.000 claims abstract description 9
- 230000000903 blocking effect Effects 0.000 claims abstract description 4
- 238000013507 mapping Methods 0.000 claims abstract description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 12
- 238000005516 engineering process Methods 0.000 claims description 12
- 230000011218 segmentation Effects 0.000 claims description 9
- 238000013179 statistical model Methods 0.000 claims description 7
- 230000006399 behavior Effects 0.000 claims description 3
- 238000000354 decomposition reaction Methods 0.000 claims 1
- 238000001514 detection method Methods 0.000 abstract description 17
- 238000004364 calculation method Methods 0.000 abstract description 7
- 238000000605 extraction Methods 0.000 abstract description 5
- 238000005457 optimization Methods 0.000 abstract description 4
- 238000013499 data model Methods 0.000 abstract 1
- 210000002569 neuron Anatomy 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000012360 testing method Methods 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/001—Model-based coding, e.g. wire frame
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种通用隐写分析的深度学习堆栈式自动编码方法,其特征在于包括以下步骤:第一步,图像分块处理;第二步,USoSAE特征数据输入,第三步,USoSAE特征数据的映射,第四,USoSAE特征数据输出,第五,训练最后的优化参数值。本发明通过对隐写检测图像的概率密度函数统计,把图像数据按照方差统计进行分割,并结合SAEs的数据模型,降低输入层的计算开销。本发明通过把不同属性的数据输入到不同的隐含层进行特征提取和训练,改善多维数据摘要的表示效率。在USoSAE隐含层,本发明通过加入稀疏性限制的先验条件,进一步降低特征数据的维数,提高隐写分析数据分类的计算精度。
Description
技术领域
本发明涉及一种通用隐写分析的深度学习堆栈式自动编码方法。
背景技术
基于神经网络的实现原理,2006年,Hinton对原型自动编码器结构进行改进,进而产生了深度学习自动编码器,如说明书附图中的图1。它由编码器、解码器和隐含层组成,它先用无监督逐层贪婪训练算法完成对隐含层的预训练,然后用BP(基追踪)算法对整个神经网络进行系统性参数优化调整,显著降低了神经网络的性能指数,有效改善了BP算法易陷入局部最小的不良状况。2006年,Benjio提出稀疏自动编码器的概念,进一步深化了深度学习自动编码器的研究。2008年,Vincent提出降噪自动编码器,在输入数据中添加限制向量,防止出现过拟合现象,并取得了良好的效果。2009年,Benjio总结了已有的深度结构,阐述了利用堆栈自动编码器构建深度学习神经网络的一般方法。2011年,Salah对升维和降维的过程加以限制,提出收缩自动编码器。2011年,Jonathan提出卷积自动编码器,用于构建卷积神经网络,2012年,Guyon对深度学习自动编码器与无监督特征学习之间的联系进行了深入的探讨,详细介绍了如何利用自动编码器构建不同类型深度结构。Hinton,Bengio和Vincent等人对比了原型自动编码器、稀疏自动编码器、降噪自动编码器、收缩自动编码器、卷积自动编码器和RBM等结构的性能,为以后的实践和科研提供了参考。2013年Amaral等研究了用不同代价函数训练的深度学习自动编码器的性能,为代价函数优化策略的发展指明了方向。
最近,基于Y.Chen等的技术原理,J.Zabalza等面向高光谱图像处理提出一个堆栈式自动编码器S-SAEs。它能够在网络的深度层把特征数据只用几个分量来统计,其基本的2层结构如说明书附图中的图2所示。
通用隐写分析是在未知原始载体对象和隐写术的基础上对检测图像是否含密进行判断的一种分析方法。通用隐写分析不再依据少量敏感统计特性判断载体是否含密,而是从大量原始载体样本和含密载体样本中提取多维特征向量来区分原始载体和以不同隐写方法得到的含密载体。
由于通用隐写分析的重点在于多维特征提取,而深度学习SAEs技术在隐含层能够更深刻地理解图像信号的分布特性及其潜在的结构化特征,进而可以为分析技术提供更加准确的分类判断。
但由于深度学习的复杂性和计算量,目前把深度学习的SAEs方法用于隐写分析的技术还没有。基于说明书附图中的图2的深度学习S-SAEs原理,本专利提出一种用于通用隐写分析的深度学习USoSAE技术。
发明内容
本发明针对现有技术的不足,提供一种通用隐写分析的深度学习堆栈式自动编码方法,该方法主要包括以下步骤:
第一步,图像分块处理;输入待检测的图像样本通过酉变化(如小波变换(Discrete Wavelet Transform,DWT)、多小波变换(Multi-wavelet transform,MWT)或离散余弦变换(Discrete Cosine Transform,DCT))等对图像进行分解,运用图像信号的联合概率密度函数拉普拉斯(Laplacian)变换对信号方差进行处理,并运用马儿科夫(Markov)准则获得概率密度函数的统计关系:
第二步,USoSAE特征数据输入,通过编码函数f将i个不同节点数据分别按照相关性统计模型的分割结果输入到各自的输入层,并通过梯度下降算法求解误差代价函数L(x1,y′1)=arg minw,p,q[error(x1,y′1)]训练出第1级隐含层结构的网络参数θ1={w1,p1,q1},并将训练好的参数作为该节点第1级隐含层的输出;
第三步,USoSAE特征数据的映射,通过编码h=f(x):=sf(wx+p)得到特征表达h,再用梯度法求解误差代价函数(y′1,y1)=arg minw,p,q[error(y′1,y1)],训练该节点第2级隐含层网络的参数θ2={w2,p2,q2};
为了简化计算,令hj(x)表示输入特征为x的数据在隐含层上第j个神经元的激活度,则:表示隐含层上第j个神经元在训练集上的平均激活度。为了保证隐含层上的神经元满足特征摘要的稀疏性限制,要求其中ρ为稀疏性参数,通常取一个很小的数(如ρ=0.03)。如果训练时和ρ相隔太大,就采用基于KL-divergence方法进行惩罚,其惩罚函数形式为:
这样在第i(i=1,2,…,k)个节点上的两级隐含层上总的训练代价函数为:
公式(7)中,β为控制稀疏性惩罚项的权重系数,m为该节点的训练神经元个数。
这样在每个节点中,每个神经元的输入与前一级的局部训练过程相连,因此,USoSAE技术可以有效提取该局部的特征,并在该局部特征被提取后,它与其他特征间的位置关系也随之确定下来。
第五,重复第一步、第二步和第三步的网络参数作为USoSAE技术检测的深度网络系统的参数初始化值,然后用随机梯度下降算法迭代求出上面代价函数最小值附近处的参数值,并作为整个USoSAE网络训练最后的优化参数值。
为了进一步提高隐写分析的准确率和运行效率,本发明进行特征选择与融合的通用隐写分析方法的优点主要体现在以下几个方面:
1)、根据隐写检测图像的概率密度函数统计,把USoSAE输入层的数据按照信号方差关系进行条件分割,组成不同级、不同节点的分段SAEs训练模型,降低了深度学习输入层的数据维数。
而常用的深度学习SAEs是把整个图像信号作为训练输入数据,数据量较大,迭代耗时,难以满足神经网络的表示效率。
2)、USoSAE网络中的每一个特征提取层(第1层)都紧跟着稀疏性与二次特征训练的计算层(第2层),这种隐含层特有的两次特征训练结构使网络对高维输入的不同属性数据有较好的调节能力,提高了通用隐写分析的识别精度。
而常用的深度学习堆栈式自动编码器是三层神经网络结构:一个输入层,一个隐含层和一个输出层。
附图说明
图1为基于深度学习自动编码器的实现方案示意图;
图2为基于深度学习S-SAEs的实现方案(2层)示意图;
图3为基于方差分布的图像分割的相关性统计模型示意图;
图4为本发明USOSAE实现方案示意图。
具体实施方式
以下结合附图和具体实施例对本发明进行详细描述,但不作为对本发明的限定。
参照图1~4,本发明实施例一种通用隐写分析的深度学习堆栈式自动编码方法,该方法主要包括以下步骤:
第一步,图像分块处理;输入待检测的图像样本通过酉变化(如小波变换(Discrete Wavelet Transform,DWT)、多小波变换(Multi-wavelet transform,MWT)或离散余弦变换(Discrete Cosine Transform,DCT))等对图像进行分解,运用图像信号的联合概率密度函数拉普拉斯(Laplacian)变换对信号方差进行处理,并运用马儿科夫(Markov)准则获得概率密度函数的统计关系:
第二步,USoSAE特征数据输入,通过编码函数f将i个不同节点数据分别按照相关性统计模型的分割结果输入到各自的输入层,并通过梯度下降算法求解误差代价函数L(x1,y′1)=arg minw,p,q[error(x1,y′1)]训练出第1级隐含层结构的网络参数θ1={w1,p1,q1},并将训练好的参数作为该节点第1级隐含层的输出;
第三步,USoSAE特征数据的映射,通过编码h=f(x):=sf(wx+p)得到特征表达h,再用梯度法求解误差代价函数(y′1,y1)=arg minw,p,q[error(y′1,y1)],训练该节点第2级隐含层网络的参数θ2={w2,p2,q2};
为了简化计算,令hj(x)表示输入特征为x的数据在隐含层上第j个神经元的激活度,则:表示隐含层上第j个神经元在训练集上的平均激活度。为了保证隐含层上的神经元满足特征摘要的稀疏性限制,要求其中ρ为稀疏性参数,通常取一个很小的数(如ρ=0.03)。如果训练时和ρ相隔太大,就采用基于KL-divergence方法进行惩罚,其惩罚函数形式为:
这样在第i(i=1,2,…,k)个节点上的两级隐含层上总的训练代价函数为:
公式(7)中,β为控制稀疏性惩罚项的权重系数,m为该节点的训练神经元个数。
这样在每个节点中,每个神经元的输入与前一级的局部训练过程相连,因此,USoSAE技术可以有效提取该局部的特征,并在该局部特征被提取后,它与其他特征间的位置关系也随之确定下来。
第五,重复第一步、第二步和第三步的网络参数作为USoSAE技术检测的深度网络系统的参数初始化值,然后用随机梯度下降算法迭代求出上面代价函数最小值附近处的参数值,并作为整个USoSAE网络训练最后的优化参数值。
为了进一步提高隐写分析的准确率和运行效率,本发明进行特征选择与融合的通用隐写分析方法的优点主要体现在以下几个方面:
1)、根据隐写检测图像的概率密度函数统计,把USoSAE输入层的数据按照信号方差关系进行条件分割,组成不同级、不同节点的分段SAEs训练模型,降低了深度学习输入层的数据维数。
而常用的深度学习SAEs是把整个图像信号作为训练输入数据,数据量较大,迭代耗时,难以满足神经网络的表示效率。
2)、USoSAE网络中的每一个特征提取层(第1层)都紧跟着稀疏性与二次特征训练的计算层(第2层),这种隐含层特有的两次特征训练结构使网络对高维输入的不同属性数据有较好的调节能力,提高了通用隐写分析的识别精度。
而常用的深度学习堆栈式自动编码器是三层神经网络结构:一个输入层,一个隐含层和一个输出层。
本发明实施例经过实验、模拟,具体实现过程如下:
1)实验条件和参数
本专利实验选取的图像源为UCID图像库和testing数据集,在特征数据训练和分类过程中,本专利使用径向基函数(radial basis function,简称RBF)支持向量分类(C-SVC)的LibSVM2.86。
实验分别对常用隐写算法F5,JPHide和JSteg进行隐写分析。选择testing数据集载体图像及嵌入率分别为Large(简写为L),Medium(简写为M),Small(简写为S)和Tiny(简写为T)的F5,JPHide和JSteg的隐写图像各1000张,共计12000张。L,M,S,T分别表示了秘密信息占载体图像数据量的40%以上,15%-40%,5%-15%以及5%以下。实验时,分别用4000张原始载体图像(不含秘密信息)和对应的4000张隐写图像(含密信息)进行训练,用2000张载体图像和2000张对应的隐写图像进行测试。
同时,实验对基本YASS隐写(也进行了检测分析。其中,载体图像选择testing数据集图像5000张,并进行质量因子QFa的JPEG压缩处理。候选数据嵌入到Zigzag扫描排序的前19个低频DCT系数,按照YASS算法进行最大嵌入容量隐写。其参数设置为:主块大小分别为10,12,14;图像质量因子QFa和嵌入质量因子QFh选择为50/50和75/50两种,量化索引步长为1.5,生成5000张图像,用其中1500张载体图像及其对应的1500张隐写图像进行训练,用1000张载体图像及其对应的1000张隐写图像进行测试。
实验时,USoSAE的系统设置参数如下表0。表0为USoSAE的网络参数设置,表0中,总的特征数为20,C-1(k=5)表示输入图像数据在第1级按照属性分成5个子块输入的情况,C-2(k=4)表示隐含层对4个子块数据训练的配置,C-3(k=2)表示隐含层对2个子块数据训练的配置。其中,Nk表示数据源的分割大小范围,Lk=m表示训练节点神经元的大小,Fk表示不同节点不同级训练的特征大小配置。
表1为检测F5,JPHide和JSteg隐写结果,表2为检测YASS隐写结果。表1-2分别列出了不同隐写算法下,本专利USoSAE方法与常用的LSB(Least Significant Bit)空域检测方法、DCT和DWT域检测方法以及文献[20](黄炜,赵险峰,等.基于主成分分析进行特征融合的JPEG隐写分析[J],软件学报,2012,23(7):1869-1879.)的主成成分分析(PrincipalComponent Analysis,PCA)特征融合方法的检测比较结果。表中,TPR(True PositiveRate)表示真阳性率,TNR(True negative Rate)表示真阴性率,A(accuracy)表示检测精度。
2)实验结果分析
实验计算环境在Intel Xeon E74202.13GHz和8GB内存硬件环境下运行,分别运行LSB空域检测、DCT和DWT域检测、文献[20]PCA特征融合检测、文献[1](J.Zabalza,J Ren,Jiangbin Zheng,Huimin Zhao,Chunmei Qing,et al,“Novel segmented stackedautoencoder for effective dimensionality reduction and feature extraction inhyperspectral imaging,”Neurocomputing,10.1016/j.neucom.2015.11.044,185:1-10,April 2016.)的S-SAE方法检测,并与本专利USoSAE检测技术进行了对比。同时,对于特定的隐写算法,实验配置的隐写分析和训练器都相同,只有特征优选方法不同。由表1可见,本专利USoSAE方法优于其他隐写分析方法,并且特征选择稳定,检测识别精度远高于其他隐写分析方法。
由表2可见,典型的DCT和DWT变换域隐写分析方法不能有效地检测YASS隐写秘密信息的随机性嵌入位置,检测精度远低于USoSAE技术,约为14%-45.8%。而在空域,虽然检测精度高于USoSAE技术2.13%,但LSB空域检测方法一直存在鲁棒性问题,应用效率很低。以下为表0~2的具体情况:
表0 USoSAE的网络参数设置
表1 检测F5,JPHide和JSteg隐写结果
表2 检测YASS隐写结果
以上已将本发明做一详细说明,但显而易见,本领域的技术人员可以进行各种改变和改进,而不背离所附权利要求书所限定的本发明的范围。
Claims (1)
1.一种通用隐写分析的深度学习堆栈式自动编码方法,其特征在于,主要包括以下步骤:
第二步,USoSAE特征数据输入,通过编码函数f将i个不同节点数据分别按照相关性统计模型的分割结果输入到各自的输入层,并通过梯度下降算法求解误差代价函数L(x1,y′1)=argminw,p,q[error(x1,y′1)]训练出第1级隐含层结构的网络参数θ1={w1,p1,q1},并将训练好的参数作为该节点第1级隐含层的输出;
第三步,USoSAE特征数据的映射,通过编码h=f(x):=sf(wx+p)得到特征表达h,再用梯度法求解误差代价函数(y′1,y1)=argminw,p,q[error(y′1,y1)],训练该节点第2级隐含层网络的参数θ2={w2,p2,q2};
第五,重复第一步、第二步和第三步的网络参数作为USoSAE技术检测的深度网络系统的参数初始化值,然后用随机梯度下降算法迭代求出上面代价函数最小值附近处的参数值,并作为整个USoSAE网络训练最后的优化参数值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610642550.2A CN106251375B (zh) | 2016-08-03 | 2016-08-03 | 一种通用隐写分析的深度学习堆栈式自动编码方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610642550.2A CN106251375B (zh) | 2016-08-03 | 2016-08-03 | 一种通用隐写分析的深度学习堆栈式自动编码方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106251375A CN106251375A (zh) | 2016-12-21 |
CN106251375B true CN106251375B (zh) | 2020-04-07 |
Family
ID=58078342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610642550.2A Expired - Fee Related CN106251375B (zh) | 2016-08-03 | 2016-08-03 | 一种通用隐写分析的深度学习堆栈式自动编码方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106251375B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107240136B (zh) * | 2017-05-25 | 2020-07-10 | 华北电力大学 | 一种基于深度学习模型的静态图像压缩方法 |
CN107679462B (zh) * | 2017-09-13 | 2021-10-19 | 哈尔滨工业大学深圳研究生院 | 一种基于小波的深度多特征融合分类方法 |
CN108523907B (zh) * | 2018-01-22 | 2021-07-16 | 上海交通大学 | 基于深度收缩稀疏自编码网络的疲劳状态识别方法及系统 |
US11120333B2 (en) | 2018-04-30 | 2021-09-14 | International Business Machines Corporation | Optimization of model generation in deep learning neural networks using smarter gradient descent calibration |
CN109214973B (zh) * | 2018-08-24 | 2020-10-27 | 中国科学技术大学 | 针对隐写分析神经网络的对抗安全载体生成方法 |
CN117939027B (zh) * | 2024-03-21 | 2024-06-07 | 南京信息工程大学 | 基于dct特征提取的jpeg图像隐写方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103116762A (zh) * | 2013-03-20 | 2013-05-22 | 南京大学 | 一种基于自调制字典学习的图像分类方法 |
CN103955702A (zh) * | 2014-04-18 | 2014-07-30 | 西安电子科技大学 | 基于深度rbf网络的sar图像地物分类方法 |
CN104166859A (zh) * | 2014-08-13 | 2014-11-26 | 西安电子科技大学 | 基于ssae和fsals-svm极化sar图像分类 |
CN104182771A (zh) * | 2014-07-30 | 2014-12-03 | 北京航空航天大学 | 基于带丢包自动编码技术的时间序列数据图形化分析方法 |
CN104346617A (zh) * | 2014-04-18 | 2015-02-11 | 南京信息工程大学 | 一种基于滑动窗口和深度结构提取特征的细胞检测方法 |
CN104819846A (zh) * | 2015-04-10 | 2015-08-05 | 北京航空航天大学 | 一种基于短时傅里叶变换和稀疏层叠自动编码器的滚动轴承声音信号故障诊断方法 |
-
2016
- 2016-08-03 CN CN201610642550.2A patent/CN106251375B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103116762A (zh) * | 2013-03-20 | 2013-05-22 | 南京大学 | 一种基于自调制字典学习的图像分类方法 |
CN103955702A (zh) * | 2014-04-18 | 2014-07-30 | 西安电子科技大学 | 基于深度rbf网络的sar图像地物分类方法 |
CN104346617A (zh) * | 2014-04-18 | 2015-02-11 | 南京信息工程大学 | 一种基于滑动窗口和深度结构提取特征的细胞检测方法 |
CN104182771A (zh) * | 2014-07-30 | 2014-12-03 | 北京航空航天大学 | 基于带丢包自动编码技术的时间序列数据图形化分析方法 |
CN104166859A (zh) * | 2014-08-13 | 2014-11-26 | 西安电子科技大学 | 基于ssae和fsals-svm极化sar图像分类 |
CN104819846A (zh) * | 2015-04-10 | 2015-08-05 | 北京航空航天大学 | 一种基于短时傅里叶变换和稀疏层叠自动编码器的滚动轴承声音信号故障诊断方法 |
Non-Patent Citations (1)
Title |
---|
Learning Hidden Markov Model Topology Based on KL Divergence for Information Extraction;KC Au 等;《Advances in Knowledge Discovery and Data Mining》;20040531;第590-594页 * |
Also Published As
Publication number | Publication date |
---|---|
CN106251375A (zh) | 2016-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106251375B (zh) | 一种通用隐写分析的深度学习堆栈式自动编码方法 | |
CN111462126B (zh) | 一种基于边缘增强的语义图像分割方法及系统 | |
Qian et al. | Learning and transferring representations for image steganalysis using convolutional neural network | |
CN108108751B (zh) | 一种基于卷积多特征和深度随机森林的场景识别方法 | |
JP7007829B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN106157232B (zh) | 一种数字图像特征感知的通用隐写分析方法 | |
Liu et al. | Crackformer network for pavement crack segmentation | |
JP2008282391A (ja) | パターン識別装置及びその制御方法、異常パターン検出装置及びその制御方法、プログラム、記憶媒体 | |
CN106778768A (zh) | 基于多特征融合的图像场景分类方法 | |
US20110293173A1 (en) | Object Detection Using Combinations of Relational Features in Images | |
Hussain et al. | A comprehensive study of the effect of spatial resolution and color of digital images on vehicle classification | |
Ding et al. | Noise-resistant network: a deep-learning method for face recognition under noise | |
Liu et al. | Ensemble of CNN and rich model for steganalysis | |
US10580127B2 (en) | Model generation apparatus, evaluation apparatus, model generation method, evaluation method, and storage medium | |
Bhuiyan et al. | Hajj pilgrimage abnormal crowd movement monitoring using optical flow and FCNN | |
Lee et al. | Reinforced adaboost learning for object detection with local pattern representations | |
CN117765258A (zh) | 基于密度自适应和注意力机制的大规模点云语义分割方法 | |
Brun et al. | Detection of anomalous driving behaviors by unsupervised learning of graphs | |
JP2009134466A (ja) | 認識処理装置、方法及びコンピュータプログラム | |
CN114610940B (zh) | 基于局部随机敏感自编码器的哈希图像检索方法 | |
CN106570509B (zh) | 一种用于提取数字图像特征的字典学习及编码方法 | |
Balachandran et al. | Machine learning based video segmentation of moving scene by motion index using IO detector and shot segmentation | |
Singhal et al. | Universal quantitative steganalysis using deep residual networks | |
Wary et al. | Ring decomposition based video copy detection using global ordinal measure features and local features | |
Liu et al. | Weather recognition of street scene based on sparse deep neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CB02 | Change of applicant information |
Address after: 293 No. 510665 Guangdong city of Guangzhou province Tianhe District Zhongshan Shipai Road Applicant after: GUANGDONG POLYTECHNIC NORMAL University Address before: 293 No. 510665 Guangdong city of Guangzhou province Tianhe District Zhongshan Shipai Road Applicant before: GUANGDONG POLYTECHNIC NORMAL University |
|
CB02 | Change of applicant information | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200407 Termination date: 20210803 |
|
CF01 | Termination of patent right due to non-payment of annual fee |