CN110503157A - 基于细粒度图像的多任务卷积神经网络的图像隐写分析方法 - Google Patents

基于细粒度图像的多任务卷积神经网络的图像隐写分析方法 Download PDF

Info

Publication number
CN110503157A
CN110503157A CN201910797717.6A CN201910797717A CN110503157A CN 110503157 A CN110503157 A CN 110503157A CN 201910797717 A CN201910797717 A CN 201910797717A CN 110503157 A CN110503157 A CN 110503157A
Authority
CN
China
Prior art keywords
image
residual error
characteristic pattern
error characteristic
fine granularity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910797717.6A
Other languages
English (en)
Other versions
CN110503157B (zh
Inventor
陈志立
任帅
吴福虎
仲红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University
Original Assignee
Anhui University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University filed Critical Anhui University
Priority to CN201910797717.6A priority Critical patent/CN110503157B/zh
Publication of CN110503157A publication Critical patent/CN110503157A/zh
Application granted granted Critical
Publication of CN110503157B publication Critical patent/CN110503157B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/231Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Bioethics (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于细粒度图像的多任务卷积神经网络的图像隐写分析方法,其步骤包括:1获取数据集,对数据集进行处理;2搭建多任务卷积神经网络模型;3训练多任务卷积神经网络;4利用训练好的网络模型对其他测试集图像进行隐写分析,以此判断图像是否为载密图像。本发明首次将显著性检测技术和隐写分析相结合,把提取的细粒度图像作为输入,采用并行训练的方式已达到共享数据源中的不同信息,同时通过修改卷积核的步长从而没有使用池化操作,从而避免了图像特征的丢失,提高了网络的检测精度。

Description

基于细粒度图像的多任务卷积神经网络的图像隐写分析方法
技术领域
本发明涉及图像分类、模式识别、图像隐写分析领域,具体涉及一种基于细粒度图像和多属性融合的多任务卷积神经网络的图像隐写分析方法。
背景技术
隐写术是尽量将秘密信息隐藏在一个特定的原始图像中,尽量减少原始图像的变化,使隐写术在视觉质量和统计特征上接近原始数据。同时,隐写分析运用信号处理和机器学习理论,分析载密与载体图像之间的统计差异。通过增加特征个数,提高分类器性能,提高了检测精度。
目前,已有的隐写分析方法包括特定的隐写分析算法和通用的隐写分析算法。早期的隐写分析方法主要针对检测特定的隐写算法,而通用的隐写分析算法通常使用统计特征和机器学习。常用的统计特征包括二进制相似性测度特征、DCT和小波系数特征、共现矩阵特征等。近年来,基于相邻像素间相关性的高阶统计特征已成为隐写分析的主流。这些特征通过捕获与图像隐写相关的复杂统计特征,如SPAM、富模型及其几个变体,提高了检测性能。然而,这些高级方法基于包含成千上万特性的丰富模型。处理这样的高维特征必然会导致训练时间的增加、过度拟合等问题。此外,基于特征的隐析器能否成功地检测出载密的细微变化在很大程度上取决于特征的构造。特色构造需要大量的人为干预和专业知识。
基于卷积神经网络的图像分类是近些年计算机视觉领域较为前沿的研究课题。通过使用神经网络的算法结构,能够自动获取数据的多个抽象级别,发现数据集中隐含的复杂结构,人们将该项技术运用到隐写分析中,发现卷积神经网络(CNN)在各种隐写分析检测器中表现良好。CNN可以自动从图像中提取复杂的统计相关性,提高检测精度,Tan等人使用了一个包含四个卷积层的CNN网络来进行图像隐写分析。实验表明,随机初始化权值的CNN通常不能收敛,用KV核初始化第一层权值可以提高精度。Xu等人提出了一种CNN结构,其中包含了一些用于图像分类的技术,如批量归一化(BN)、1×1卷积和全局平均池。他们还使用高通滤波器进行预处理,并使用绝对激活层(ABS)。他们的实验显示出更好的性能。通过对Xu-CNN的改进,实现了性能更加稳定的性能。在JPEG域,Xu等人提出了一种基于图像解压的网络,比传统的JPEG域方法具有更好的检测精度。Ye等人提出了一种带一组高通滤波器的CNN结构进行预处理,并采用了一组混合激活函数来更好地捕捉嵌入信号。然而,这些高级方法基于包含成千上万特性的丰富模型。处理这样的高维特征必然会导致训练时间的增加、过度拟合等问题。此外,基于特征的隐写分析模型能否成功地检测出载密的细微变化在很大程度上取决于特征的构造。特征构造需要大量的人为干预和专业知识,并且上述研究都没有考虑到输入图像的大小,因为现实世界中的图像大小是任意的。对于隐写分析来说,这不是一个好的实践,因为像素之间的关系非常弱且独立。分类前调整大小会影响模型的精度。这些问题在本方案中都得到了改善。
发明内容
本发明为克服现有技术存在的不足之处,提供了一种基于细粒度图像的多任务卷积神经网络的图像隐写分析方法,以期避免图像特征的丢失,减少网络参数,缩短训练时间,并提高网络的检测精度。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种基于细粒度图像的多任务卷积神经网络的图像隐写分析方法的特点是按如下步骤进行:
步骤1、构建训练样本:
步骤1.1、获取灰度图像集Z={zk|k=1,2,…m},其中,zk表示第k张灰度图像;对所述k张灰度图像zk进行剪裁,得到长×宽为a×a的剪裁后的灰度图像xk,从而得到剪裁后的灰度图像集X={xk|k=1,2,...m};
步骤1.2、对剪裁后的灰度图像集X中的每个灰度图像进行隐写加密处理,得到载密图像集Y={yk|k=1,2,...m},其中,yk表示对第k张剪裁后的灰度图像xk进行隐写加密后的载密图像;
步骤1.3、采用基于谱残差的显著性检测算法对所述第k张剪裁后的灰度图像xk进行定位剪裁,得到长×宽为b×b的细粒度图像集其中,表示对第k张剪裁后的灰度图像xk进行定位剪裁后的第j张细粒度图像;
步骤1.4、根据所述第k张剪裁后的灰度图像xk的细粒度图像集中每张细粒度图像依次对第k张载密图像yk进行剪裁,从而得到剪裁后的载密图像集其中,表示根据第j张细粒度图像对第k张载密图像yk进行剪裁后的载密图像;
步骤1.5、由所述细粒度图像集中每张细粒度图像依次与剪裁后的载密图像集中每张载密图像构成j+1对训练样本,其中,第j+1对训练样本为第j张细粒度图像和第j张剪裁后的载密图像;从而由m张剪裁后的灰度图像的细粒度图像集与其对应的剪裁后的载密图像集构成m×(j+1)对训练样本;
步骤2、构建多任务卷积神经网络,包括:一个输入模块、一个预处理模块、w个可分离卷积模块、q个基本模块、一个空间金字塔池模块以及全连接层;
步骤3、初始化多任务卷积神经网络:
以Relu作为激活函数,使用高通滤波器对所述预处理模块中的参数进行初始化,并使用Xavier初始化方法对w个可分离卷积模块和q个基本模块进行参数初始化;
步骤4、将所述第k张剪裁后的灰度图像xk及其细粒度图像集并行输入到多任务神经网络中,并在所述预处理模块中加入选择通道,从而相应得到第k个大小为a×a的S0张灰度残差特征图R和大小为b×b的j×S0张细粒度残差特征图H,其中,S0表示预处理模块中滤波器数目;
步骤5、将所述灰度残差特征图R和细粒度残差特征图H输入到可分离卷积模块:
步骤5.1、定义变量p,并初始化p=1;
步骤5.2、将所述灰度残差特征图R和细粒度残差特征图H输入到第p个可分离卷积模块的第一层卷积层中得到第k个大小为a×a的张灰度残差特征图和大小为b×b的张细粒度残差特征图 表示第p个可分离卷积模块中第一层卷积层滤波器数目;
步骤5.3、将灰度残差特征图和细粒度残差特征图输入到第p个可分离卷积模块的第二层卷积层中得到第k个大小为a×a的张灰度残差特征图和大小为b×b的张细粒度残差特征图其中,表示第p个可分离卷积模块中第二层卷积层滤波器数目;
步骤5.4、令p+1赋值给p,判断p>w是否成立,若成立,则表示得到第w个可分离卷积模块输出的具有空间和信道相关性的灰度残差特征图和细粒度残差特征图否则,将分别赋值给R和H后,执行步骤5.2;
步骤6、将所述灰度残差特征图和细粒度残差特征图输入到基本模块中:
步骤6.1、定义变量t,并初始化t=1;
步骤6.2、将灰度残差特征图和细粒度残差特征图输入到第t个基本模块中,并经过步长为c1的卷积核的卷积处理后得到第k个大小为a′×a′的St张灰度残差特征图Rt和大小为b′×b′的j×St张细粒度残差特征图Ht,其中,St表示第t个基本模块中卷积层滤波器数目;
步骤6.3、令t+1赋值给t,判断t>q-1是否成立,若成立,则表示得到第q-1个基本模块输出的灰度残差特征图Rq-1和细粒度残差特征图Hq-1,并执行步骤6.4;否则,将Rt和Ht分别赋值给后,执行步骤6.2;
步骤6.4、将第q-1个基本模块输出的灰度残差特征图Rq-1和细粒度残差特征图Hq-1输入到第q个基本模块中,并经过步长为“1”的卷积核的卷积处理后得到第q个基本模块输出的第k个大小为a′×a′的Sq张灰度残差特征图Rq和大小为b′×b′的j×Sq张细粒度残差特征图Hq,其中,Sq表示第q个基本模块中卷积层滤波器数目;
步骤7、将所述灰度残差特征图Rq和细粒度残差特征图Hq输入空间金字塔池模块中:
步骤7.1、定义临时变量α,并初始化α=1;
步骤7.2、对于L级金字塔中任意第α级金字塔设有nα×nα个空间金字塔分层分网格数;
令第α级金字塔窗口大小为步长大小其中,表示取上限操作,表示取下限操作;
步骤7.3、将所述灰度残差特征图Rq和细粒度残差特征图Hq输入第α级金字塔,获得长度为nα×nα的第α个生成特征;
步骤7.4、令α+1赋值给α后,判断α>L是否成立,若成立,则表示得到L个生成特征,否则,返回步骤7.2;
步骤7.5、将所述L个生成特征进行叠加,得到长度为K×M的一维输出特征;其中,K表示Sq和j×Sq之和;M表示L个生成特征的长度累加和,即
步骤8、将所述长度为K×M的一维输出特征输入到全连接层中,并经过sofxmax函数的处理,得到隐写概率,以所述隐写概率来判断相应输入所述多任务卷积神经网络的灰度图像是否为载密图像。
与现有技术相比,本发明的有益效果在于:
1、本发明首次将显著性检测技术和隐写分析相结合,把提取的细粒度图像作为输入,采用并行训练的方式已达到共享数据源中的不同信息,使神经网络提取到的目标特征更具有独特性和区分性,能够获得输入图像本身具有的多属性特征。
2、本发明在基本模块通过修改卷积核的步长而没有使用池化操作,从而避免了图像特征的丢失,提高了网络的检测精度。
3、本发明加入了空间金字塔池,空间金字塔池可以对任意尺度或大小的图像进行特征聚合,并把它映射到固定大小的特征向量上,从而避免了输入图像大小不一致影响网络的精度。
附图说明
图1是本发明网络模型架构图;
图2是本发明基于细粒度图像和多任务的卷积神经网络流程图;
图3是本发明卷积神经网络模块1、2的具体网络模型结构图;
图4是本发明卷积神经网络模块3、4、5、6的具体网络模型结构图;
图5是本发明卷积神经网络模块8的空间金字塔池模型结构图。
具体实施方式
本实施例中,如图1所示,一种基于细粒度图像的多任务卷积神经网络的图像隐写分析方法是一个由原始图像集X={xk|k=1,2,...m}和对应细粒度图像集集作为输入,采用并行训练的方式已达到共享数据源中的不同信息,同时,多个softmax损失函数应用于反向传播,这些损失函数的权重之和为1,具体的说,该方法按如下步骤进行:
步骤1、构建训练样本:
步骤1.1、获取灰度图像集Z={zk|k=1,2,…m},其中,zk表示第k张灰度图像;对k张灰度图像zk进行剪裁,得到长×宽为a×a的剪裁后的灰度图像xk,从而得到剪裁后的灰度图像集X={xk|k=1,2,...m},本实例选择采用BOSSBasev1.01和Bows2两种数据集,BOSSBase由10,000幅大小为512×512的灰度图像组成,从未压缩,来自7个不同的摄像机;Bows2由10,000个尺寸为512×512的灰度级图像组成,从未压缩,其分布接近BossBase。将BOSSBase图像随机分成一组4,000个载体和载密图像对,一个包含1,000个图像对的验证集,以及一个包含5,000个图像对的测试集。为了进行公平的比较,本文针对嵌入算法WOW和S-UNIWARD在有效载荷0.2BPP和0.4BPP,Bows2也是如此;
步骤1.2、对剪裁后的灰度图像集X中的每个灰度图像进行隐写加密处理,得到载密图像集Y={yk|k=1,2,...m},其中,yk表示对第k张剪裁后的灰度图像xk进行隐写加密后的载密图像;
步骤1.3、采用基于谱残差的显著性检测算法对第k张剪裁后的灰度图像xk进行定位剪裁,得到长×宽为b×b的细粒度图像集其中,表示对第k张剪裁后的灰度图像xk进行定位剪裁后的第j张细粒度图像;
步骤1.4、根据第k张剪裁后的灰度图像xk的细粒度图像集中每张细粒度图像依次对第k张载密图像yk进行剪裁,从而得到剪裁后的载密图像集其中,表示根据第j张细粒度图像对第k张载密图像yk进行剪裁后的载密图像;
步骤1.5、由细粒度图像集中每张细粒度图像依次与剪裁后的载密图像集中每张载密图像构成j+1对训练样本,其中,第j+1对训练样本为第j张细粒度图像和第j张剪裁后的载密图像;从而由m张剪裁后的灰度图像的细粒度图像集与其对应的剪裁后的载密图像集构成m×(j+1)对训练样本;
步骤2、构建多任务卷积神经网络,包括:一个输入模块、一个预处理模块、w个可分离卷积模块、q个基本模块、一个空间金字塔池模块以及全连接层,如图2所示,两个可分离卷积模块、五个基本模块;
步骤3、初始化多任务卷积神经网络:
以Relu作为激活函数,使用高通滤波器对预处理模块中的参数进行初始化,并使用Xavier初始化方法对w个可分离卷积模块和q个基本模块进行参数初始化;
步骤4、将第k张剪裁后的灰度图像xk及其细粒度图像集并行输入到多任务神经网络中,并在预处理模块中加入选择通道,从而相应得到第k个大小为a×a的S0张灰度残差特征图R和大小为b×b的j×S0张细粒度残差特征图H,其中,S0表示预处理模块中滤波器数目,本实例使用的是5个5×5×1以及25个3×3×1的卷积核组成的卷积层,其输入的特征图与残差失真的L1范数的期望上界作为选择通道的统计测量的矩阵相加作为下面网络的输入;
步骤5、将灰度残差特征图R和细粒度残差特征图H输入到可分离卷积模块:
步骤5.1、定义变量p,并初始化p=1;
步骤5.2、将灰度残差特征图R和细粒度残差特征图H输入到第p个可分离卷积模块的第一层卷积层中得到第k个大小为a×a的张灰度残差特征图和大小为b×b的张细粒度残差特征图 表示第p个可分离卷积模块中第一层卷积层滤波器数目;
步骤5.3、将灰度残差特征图和细粒度残差特征图输入到第p个可分离卷积模块的第二层卷积层中得到第k个大小为a×a的张灰度残差特征图和大小为b×b的张细粒度残差特征图其中,表示第p个可分离卷积模块中第二层卷积层滤波器数目;
步骤5.4、令p+1赋值给p,判断p>w是否成立,若成立,则表示得到第w个可分离卷积模块输出的具有空间和信道相关性的灰度残差特征图和细粒度残差特征图否则,将分别赋值给R和H后,执行步骤5.2;
本实例选择两种不同大小的卷积核:一种是卷积核大小为3×3或者1×1的卷积,卷积间隔为1;另一种卷积核的大小为3×3,卷积步长2。
步骤6、如图3和图4所示,将灰度残差特征图和细粒度残差特征图输入到基本模块中:
步骤6.1、定义变量t,并初始化t=1;
步骤6.2、将灰度残差特征图和细粒度残差特征图输入到第t个基本模块中,并经过步长为c1的卷积核的卷积处理后得到第k个大小为a′×a′的St张灰度残差特征图Rt和大小为b′×b′的j×St张细粒度残差特征图Ht,其中,St表示第t个基本模块中卷积层滤波器数目;
步骤6.3、令t+1赋值给t,判断t>q-1是否成立,若成立,则表示得到第q-1个基本模块输出的灰度残差特征图Rq-1和细粒度残差特征图Hq-1,并执行步骤6.4;否则,将Rt和Ht分别赋值给后,执行步骤6.2;
步骤6.4、将第q-1个基本模块输出的灰度残差特征图Rq-1和细粒度残差特征图Hq-1输入到第q个基本模块中,并经过步长为“1”的卷积核的卷积处理后得到第q个基本模块输出的第k个大小为a′×a′的Sq张灰度残差特征图Rq和大小为b′×b′的j×Sq张细粒度残差特征图Hq,其中,Sq表示第q个基本模块中卷积层滤波器数目;
本实例选择相同大小的卷积核,不同的卷积步长,前四个基本模块的卷积步长为2,最后一个基本模块的卷积步长为1。
步骤7、如图5所示,将灰度残差特征图Rq和细粒度残差特征图Hq输入空间金字塔池模块中:
步骤7.1、定义临时变量α,并初始化α=1;
步骤7.2、对于L级金字塔中任意第α级金字塔设有nα×nα个空间金字塔分层分网格数;
令第α级金字塔窗口大小为步长大小其中,表示取上限操作,表示取下限操作;
步骤7.3、将灰度残差特征图Rq和细粒度残差特征图Hq输入第α级金字塔,获得长度为nα×nα的第α个生成特征;
步骤7.4、令α+1赋值给α后,判断α>L是否成立,若成立,则表示得到L个生成特征,否则,返回步骤7.2;
步骤7.5、将L个生成特征进行叠加,得到长度为K×M的一维输出特征;其中,K表示Sq和j×Sq之和;M表示L个生成特征的长度累加和,即
步骤8、将长度为K×M的一维输出特征输入到全连接层中,并经过softmax函数的处理,得到隐写概率,以隐写概率来判断相应输入多任务卷积神经网络的灰度图像是否为载密图像。
本实例使用三级金字塔池(4×4,2×2,1×1),即空间金字塔分层分网格数为21(4×42×21×1)。对于给定大小的图像,我们预先计算出输出固定长度向量的大小.假设在基本模块之后有一个a×a(例如,32×32)大小特征映射。当池级为4×4时,将32×32特征映射划分为16个小块,即每个小块的大小为8×8。然后对每个8×8块进行GAP,得到16维特征向量。2×2和1×1的池级相似。最后得到一个(4×42×21×1)×k维向量,其中k是最后卷积层的滤波器数。

Claims (1)

1.一种基于细粒度图像的多任务卷积神经网络的图像隐写分析方法,其特征是按如下步骤进行:
步骤1、构建训练样本:
步骤1.1、获取灰度图像集Z={zk|k=1,2,…m},其中,zk表示第k张灰度图像;对所述k张灰度图像zk进行剪裁,得到长×宽为a×a的剪裁后的灰度图像xk,从而得到剪裁后的灰度图像集X={xk|k=1,2,...m};
步骤1.2、对剪裁后的灰度图像集X中的每个灰度图像进行隐写加密处理,得到载密图像集Y={yk|k=1,2,...m},其中,yk表示对第k张剪裁后的灰度图像xk进行隐写加密后的载密图像;
步骤1.3、采用基于谱残差的显著性检测算法对所述第k张剪裁后的灰度图像xk进行定位剪裁,得到长×宽为b×b的细粒度图像集其中,表示对第k张剪裁后的灰度图像xk进行定位剪裁后的第j张细粒度图像;
步骤1.4、根据所述第k张剪裁后的灰度图像xk的细粒度图像集中每张细粒度图像依次对第k张载密图像yk进行剪裁,从而得到剪裁后的载密图像集其中,表示根据第j张细粒度图像对第k张载密图像yk进行剪裁后的载密图像;
步骤1.5、由所述细粒度图像集中每张细粒度图像依次与剪裁后的载密图像集中每张载密图像构成j+1对训练样本,其中,第j+1对训练样本为第j张细粒度图像和第j张剪裁后的载密图像;从而由m张剪裁后的灰度图像的细粒度图像集与其对应的剪裁后的载密图像集构成m×(j+1)对训练样本;
步骤2、构建多任务卷积神经网络,包括:一个输入模块、一个预处理模块、w个可分离卷积模块、q个基本模块、一个空间金字塔池模块以及全连接层;
步骤3、初始化多任务卷积神经网络:
以Relu作为激活函数,使用高通滤波器对所述预处理模块中的参数进行初始化,并使用Xavier初始化方法对w个可分离卷积模块和q个基本模块进行参数初始化;
步骤4、将所述第k张剪裁后的灰度图像xk及其细粒度图像集并行输入到多任务神经网络中,并在所述预处理模块中加入选择通道,从而相应得到第k个大小为a×a的S0张灰度残差特征图R和大小为b×b的j×S0张细粒度残差特征图H,其中,S0表示预处理模块中滤波器数目;
步骤5、将所述灰度残差特征图R和细粒度残差特征图H输入到可分离卷积模块:
步骤5.1、定义变量p,并初始化p=1;
步骤5.2、将所述灰度残差特征图R和细粒度残差特征图H输入到第p个可分离卷积模块的第一层卷积层中得到第k个大小为a×a的张灰度残差特征图和大小为b×b的张细粒度残差特征图 表示第p个可分离卷积模块中第一层卷积层滤波器数目;
步骤5.3、将灰度残差特征图和细粒度残差特征图输入到第p个可分离卷积模块的第二层卷积层中得到第k个大小为a×a的张灰度残差特征图和大小为b×b的张细粒度残差特征图其中,表示第p个可分离卷积模块中第二层卷积层滤波器数目;
步骤5.4、令p+1赋值给p,判断p>w是否成立,若成立,则表示得到第w个可分离卷积模块输出的具有空间和信道相关性的灰度残差特征图和细粒度残差特征图否则,将分别赋值给R和H后,执行步骤5.2;
步骤6、将所述灰度残差特征图和细粒度残差特征图输入到基本模块中:
步骤6.1、定义变量t,并初始化t=1;
步骤6.2、将灰度残差特征图和细粒度残差特征图输入到第t个基本模块中,并经过步长为c1的卷积核的卷积处理后得到第k个大小为a′×a′的St张灰度残差特征图Rt和大小为b′×b′的j×St张细粒度残差特征图Ht,其中,St表示第t个基本模块中卷积层滤波器数目;
步骤6.3、令t+1赋值给t,判断t>q-1是否成立,若成立,则表示得到第q-1个基本模块输出的灰度残差特征图Rq-1和细粒度残差特征图Hq-1,并执行步骤6.4;否则,将Rt和Ht分别赋值给后,执行步骤6.2;
步骤6.4、将第q-1个基本模块输出的灰度残差特征图Rq-1和细粒度残差特征图Hq-1输入到第q个基本模块中,并经过步长为“1”的卷积核的卷积处理后得到第q个基本模块输出的第k个大小为a′×a′的Sq张灰度残差特征图Rq和大小为b′×b′的j×Sq张细粒度残差特征图Hq,其中,Sq表示第q个基本模块中卷积层滤波器数目;
步骤7、将所述灰度残差特征图Rq和细粒度残差特征图Hq输入空间金字塔池模块中:
步骤7.1、定义临时变量α,并初始化α=1;
步骤7.2、对于L级金字塔中任意第α级金字塔设有nα×nα个空间金字塔分层分网格数;
令第α级金字塔窗口大小为步长大小其中,表示取上限操作,表示取下限操作;
步骤7.3、将所述灰度残差特征图Rq和细粒度残差特征图Hq输入第α级金字塔,获得长度为nα×nα的第α个生成特征;
步骤7.4、令α+1赋值给α后,判断α>L是否成立,若成立,则表示得到L个生成特征,否则,返回步骤7.2;
步骤7.5、将所述L个生成特征进行叠加,得到长度为K×M的一维输出特征;其中,K表示Sq和j×Sq之和;M表示L个生成特征的长度累加和,即
步骤8、将所述长度为K×M的一维输出特征输入到全连接层中,并经过sofxmax函数的处理,得到隐写概率,以所述隐写概率来判断相应输入所述多任务卷积神经网络的灰度图像是否为载密图像。
CN201910797717.6A 2019-08-27 2019-08-27 基于细粒度图像的多任务卷积神经网络的图像隐写分析方法 Active CN110503157B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910797717.6A CN110503157B (zh) 2019-08-27 2019-08-27 基于细粒度图像的多任务卷积神经网络的图像隐写分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910797717.6A CN110503157B (zh) 2019-08-27 2019-08-27 基于细粒度图像的多任务卷积神经网络的图像隐写分析方法

Publications (2)

Publication Number Publication Date
CN110503157A true CN110503157A (zh) 2019-11-26
CN110503157B CN110503157B (zh) 2021-11-19

Family

ID=68590022

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910797717.6A Active CN110503157B (zh) 2019-08-27 2019-08-27 基于细粒度图像的多任务卷积神经网络的图像隐写分析方法

Country Status (1)

Country Link
CN (1) CN110503157B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112329511A (zh) * 2020-08-06 2021-02-05 扬州大学 基于残差特征金字塔的人像分割方法
CN112865116A (zh) * 2021-01-11 2021-05-28 广西大学 一种平行联邦图神经网络的十三区图无功优化方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778702A (zh) * 2015-04-15 2015-07-15 中国科学院自动化研究所 基于深度学习的图像隐写检测方法
CN106530200A (zh) * 2016-10-23 2017-03-22 深圳大学 一种基于深度学习模型的隐写图像检测方法及系统
CN106920206A (zh) * 2017-03-16 2017-07-04 广州大学 一种基于对抗神经网络的隐写分析方法
US20180068429A1 (en) * 2015-04-15 2018-03-08 Institute Of Automation Chinese Academy Of Sciences Image Steganalysis Based on Deep Learning
CN108596818A (zh) * 2017-12-22 2018-09-28 华南理工大学 一种基于多任务学习卷积神经网络的图像隐写分析方法
CN108717680A (zh) * 2018-03-22 2018-10-30 北京交通大学 基于全稠密连接网络的空域图像隐写分析方法
CN108961137A (zh) * 2018-07-12 2018-12-07 中山大学 一种基于卷积神经网络的图像隐写分析方法及系统
CN109587372A (zh) * 2018-12-11 2019-04-05 北京邮电大学 一种基于生成对抗网络的不可见图像隐写术

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778702A (zh) * 2015-04-15 2015-07-15 中国科学院自动化研究所 基于深度学习的图像隐写检测方法
US20180068429A1 (en) * 2015-04-15 2018-03-08 Institute Of Automation Chinese Academy Of Sciences Image Steganalysis Based on Deep Learning
CN106530200A (zh) * 2016-10-23 2017-03-22 深圳大学 一种基于深度学习模型的隐写图像检测方法及系统
CN106920206A (zh) * 2017-03-16 2017-07-04 广州大学 一种基于对抗神经网络的隐写分析方法
CN108596818A (zh) * 2017-12-22 2018-09-28 华南理工大学 一种基于多任务学习卷积神经网络的图像隐写分析方法
CN108717680A (zh) * 2018-03-22 2018-10-30 北京交通大学 基于全稠密连接网络的空域图像隐写分析方法
CN108961137A (zh) * 2018-07-12 2018-12-07 中山大学 一种基于卷积神经网络的图像隐写分析方法及系统
CN109587372A (zh) * 2018-12-11 2019-04-05 北京邮电大学 一种基于生成对抗网络的不可见图像隐写术

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
MEHDI YEDROUDJ 等: "YEDROUDJ-NET: AN EFFICIENT CNN FOR SPATIAL STEGANALYSIS", 《ICASSP 2018》 *
RU ZHANG 等: "Efficient feature learning and multi-size image steganalysis based on CNN", 《ARXIV》 *
XIANGYU YU F等: "A Multi-Task Learning CNN for Image Steganalysis", 《2018 IEEE INTERNATIONAL WORKSSHOP ON INFOMATION FORENSICS AND SECURITY(WIFS)》 *
XUEJING NIU 等: "Image Steganography via Fully Exploiting Modification Direction", 《INTERNATIONAL JOURNAL OF SECURITY AND ITS APPLICATIONS》 *
翟黎明 等: "深度学习在图像隐写术与隐写分析领域中的研究进展", 《信息安全学报》 *
高培贤 等: "基于深度残差网络的图像隐写分析方法", 《计算机工程与设计》 *
魏立线 等: "基于卷积神经网络的图像隐写分析方法", 《计算机应用研究》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112329511A (zh) * 2020-08-06 2021-02-05 扬州大学 基于残差特征金字塔的人像分割方法
CN112865116A (zh) * 2021-01-11 2021-05-28 广西大学 一种平行联邦图神经网络的十三区图无功优化方法

Also Published As

Publication number Publication date
CN110503157B (zh) 2021-11-19

Similar Documents

Publication Publication Date Title
CN108537743B (zh) 一种基于生成对抗网络的面部图像增强方法
Wu et al. Shift: A zero flop, zero parameter alternative to spatial convolutions
CN107563422B (zh) 一种基于半监督卷积神经网络的极化sar分类方法
CN109063753A (zh) 一种基于卷积神经网络的三维点云模型分类方法
CN108961245A (zh) 基于双通道深度并行卷积网络的图像质量分类方法
CN109376692A (zh) 面向人脸表情识别的迁移卷积神经网络方法
CN107742107A (zh) 人脸图像分类方法、装置及服务器
CN107316004A (zh) 基于深度学习的空间目标识别方法
CN108090447A (zh) 双分支深层结构下的高光谱图像分类方法及装置
CN109272107A (zh) 一种改进深层卷积神经网络的参数个数的方法
CN110046575A (zh) 基于改进残差网络的遥感图像场景分类方法
Hara et al. Towards good practice for action recognition with spatiotemporal 3d convolutions
CN110490227A (zh) 一种基于特征转换的少样本图像分类方法
CN110245711A (zh) 基于角度旋转生成网络的sar目标识别方法
CN110363204A (zh) 一种基于多任务特征学习的对象表示方法
CN110414600A (zh) 一种基于迁移学习的空间目标小样本识别方法
CN109711461A (zh) 基于主成分分析的迁移学习图片分类方法及其装置
CN110390347A (zh) 针对深度神经网络的条件引导式对抗生成测试方法与系统
CN110490265A (zh) 一种基于双路卷积和特征融合的图像隐写分析方法
CN110503157A (zh) 基于细粒度图像的多任务卷积神经网络的图像隐写分析方法
CN116052016A (zh) 基于深度学习的遥感图像云和云影的精细分割检测方法
CN115331104A (zh) 一种基于卷积神经网络的农作物种植信息提取方法
CN110070027A (zh) 基于智能物联网系统的行人重识别方法
Luan et al. Sunflower seed sorting based on convolutional neural network
Luttrell et al. Facial recognition via transfer learning: fine-tuning Keras_vggface

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant