CN113554544A - 一种基于多特征融合和深度学习的隐写分析方法 - Google Patents
一种基于多特征融合和深度学习的隐写分析方法 Download PDFInfo
- Publication number
- CN113554544A CN113554544A CN202110827528.6A CN202110827528A CN113554544A CN 113554544 A CN113554544 A CN 113554544A CN 202110827528 A CN202110827528 A CN 202110827528A CN 113554544 A CN113554544 A CN 113554544A
- Authority
- CN
- China
- Prior art keywords
- feature
- model
- module
- steganalysis
- sfrnet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0021—Image watermarking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32144—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
- H04N1/32149—Methods relating to embedding, encoding, decoding, detection or retrieval operations
- H04N1/32267—Methods relating to embedding, encoding, decoding, detection or retrieval operations combined with processing of the image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多特征融合和深度学习的隐写分析方法,包括以下步骤:步骤(1)、制作预处理所需的数据集;步骤(2)、分别使用SRM、maxSRM、maxSRMd2三种特征提取方法对步骤(1)的数据集进行特征提取;步骤(3)、对步骤(2)提取的三种特征进行融合获得固定大小的特征矩阵;步骤(4)、步骤(3)的数据使用RepVGG模块和SE模块构建的模型进行训练和测试。本发明使用三种特征提取方法对图像提取特征并合成特征矩阵,使得该特征矩阵能够包含多种类型的特征,能够提高模型的通用性和鲁棒性,提高模型对不同隐写算法的学习性能,避免了隐写分析网络对图像大小的依赖性,大大提高的本发明的实用性。
Description
技术领域
本发明涉及网络空间安全中的内容安全领域,具体涉及一种基于多特征融合和深度学习的隐写分析方法。
背景技术
传统的隐写分析包括SPAM,SRM,maxSRM和它的变体maxSRMd2,通过人工设计的滤波器提取图像的特征然后对载密图像进行判别。He等人通过对特征通道间的相关性进行建模,把重要的特征进行强化来提升准确率,提出了Squeeze-and-Excitation Networks,该网络在ImageNet上top5的错误率达到了2.251%,取得了2017ILSVR竞赛的冠军。Ding等人用结构重参数化 (structural re-parameterization)“复兴”VGG式单路极简架构,使用单一的3x3卷积结构,在速度和性能上达到SOTA(state of the art)水平,在 ImageNet上超过80%正确率。在NVIDIA 1080Ti GPU上,RepVGG模型的运行速度比ResNet-50快83%,比ResNet-101快101%,具有更高的精度,并且与诸如EfficientNet和ResNet的最新模型相比,显示出良好的精度-速度折衷。随着卷积神经网络快速发展,越来越多的研究者开始将深度神经网络和隐写分析结合起来,通过学习载密图像和非载密图像的特征来训练神经网络来判别载密图像。
针对现有的隐写分析方法对图像尺寸和隐写算法具有较高的依赖性,分类准确率低,以及需要大量的算力来训练隐写分析模型,我们提出一种新型隐写分析模型,使用RepVgg模块和SE模块构建隐写分析模型,将SRM(Spatial Rich Model),maxSRM,maxSRMd2三种特征数据融合成三通道的特征矩阵作为隐写分析模型的输入,三种特征数据的融合能够更加全面的提取隐写图像的特征使得隐写分析模型具有更好的通用性,同时解决了传统隐写分析模型对图像尺寸的依赖性提高了模型的实用性。
发明内容
本发明的目的在于提供一种基于多特征融合和深度学习的隐写分析方法,该方法使用RepVGG模块和Squeeze-and-Excitation(SE)模块构建被命名为 SFRNet,使用三种特征提取方法对图片进行特征提取,将提取到的特征融合为固定大小的特征矩阵作为SFRNet的输入,通过微调重要参数的方式提高模型的训练速度和测试准确率。本发明使用RepVGG模块和SE模块来构建深度学习网络,使其能够应用于本方法的隐写分析数据集,使用RepVGG模块加快推理速度和提高内存利用率,大大降低了训练的时间开销,使用SE模块加快了模型的收敛速度同时提高了测试准确率,能够更快更准确的学习不同隐写算法的特征从而实现对隐写分析模型的通用性。
本发明的技术方案是:
一种基于多特征融合和深度学习的隐写分析方法,其隐写分析模型使用 RepVGG模块和SE模块构建,将SRM、maxSRM、maxSRMd2三种特征提取方法获得的特征融合成固定大小的特征矩阵作为SFRNet的输入,通过对关键参数的微调对该模型进行训练和测试,设置训练Epoch为150,包括以下步骤:
步骤1、制作预处理所需的数据集;
步骤2、分别使用SRM、maxSRM、maxSRMd2三种特征提取方法对步骤1生成的数据集进行特征提取;
步骤3、对步骤2提取的三种特征进行融合获得固定大小的特征矩阵;
步骤4、使用步骤3获得的数据对使用RepVGG模块和SE模块构建的模型进行训练和测试。
具体地:步骤1、使用WOW、S-UNIWARD、HUGO、MiPOD四种隐写算法以及两种载荷payload=0.2bpp,payload=0.4bpp对原始的BOSSBase ver.1.01.数据集进行隐写,获得八个不同的载密图像(stego)数据集,分别将不同的载密数据集与原始数据集(cover)组合获得八个不同的cover-stego数据集。
步骤2、三种特征的提取流程分别为滤波、截断量化、合并重排,首先使用 30个高通滤波器和公式(1)对步骤1中的数据滤波得到残差图像然后使用公式(2)对残差图像截断和量化,使用公式(3)(4)(5)分别得到三种提取方法在两个不同方向上的共生矩阵,再通过公式(6),(7)对两个共生矩阵进行组合和重排得到特征向量FSRM,FmaxSRM,FmaxSRMd2。
步骤3、将步骤2中提取的三个特征向量使用公式(8)进行特征融合得到最终的特征矩阵;
步骤4、将步骤3中生成的特征矩阵作为模型的输入来训练SFRNet,从而使得训练好的模型可以更准确的识别载密图像和非载密图像,具体过程见公式 (9)(10):
Map(.)←SEFNet(MFcover,MFstego) (9);
本发明具有以下特点:
1、本发明对传统的单特征隐写分析模型做了改进和创新,使用三种不同的特征提取方法获取特征并融合成三通道的特征矩阵,使得该特征矩阵能够包含多种类型的特征,能够提高模型的鲁棒性,提高模型对不同隐写算法的学习性能。
2、使用RepVGG模块和SE模块来构建深度学习网络,使其能够应用于本发明的隐写分析数据集,使用RepVGG模块加快推理速度和提高内存利用率,大大降低了训练的时间开销,使用SE模块加快了模型的收敛速度同时提高了测试准确率,能够更快更准确的学习不同隐写算法的特征从而实现对隐写分析模型的通用性。
3、本发明改进了隐写分析网络的数据输入方式,使用预处理过的特征矩阵而不是图像本身,从而避免了隐写分析网络对图像大小的依赖性,大大提高了本发明的实用性。
综上,本发明所提出的架构关键部分是使用三种特征提取方式进行多特征融合获取固定大小的特征矩阵,以及使用SE模块和RepVGG模块构建隐写分析模型SFRNet,将融合的多特征作为隐写分析模型的输入对模型进行训练,从而实现对载密图片的识别。所提出架构的另一关键是使用四种主流的空域隐写算法(HUGO,S-UNWIWARD,WOW,MiPOD)生成的数据集训练该模型,使得模型具有更高的通用性和鲁棒性。
附图说明
图1是特征提取过程;
图2是三种特征提取方法使用的高通滤波器;
图3是RepVGG模块的网络结构;
图4是SE模块的网络结构;
图5是SFRNet的网络结构;
图6是SFRNet在使用SE模块和不使用SE模块时的准确率对比;
图7是SFRNet在使用SE模块和不使用SE模块时的收敛速度对比;
图8是SFRNet在使用三种不同截断值T的准确率对比;
图9是SFRNet在使用三种不同截断值T的收敛速度对比;
图10是SFRNet与现有隐写分析方案在0.2bpp和0.4bpp下S-UNIWARD和WOW 的检测准确率对比;
图11是SFRNet与现有隐写分析方案在0.2bpp和0.4bpp下HUGO和MiPOD的检测准确率对比。
具体实施方式
下面通过附图和实施例对本发明做进一步描述。
一种基于多特征融合和深度学习的隐写分析方法,通过三种特征提取方案将提取到的特征融合为多特征矩阵,使用原始BOSSBase ver.1.01.数据集和四种主流空域隐写算法两种载荷生成的载密数据集进行分类,将使用RepVGG模块和SE模块构建的SFRNet进行微调用与载密图像的训练和测试。包括以下步骤:
步骤1、制作预处理所需的数据集;
步骤2、分别使用SRM、maxSRM、maxSRMd2三种特征提取方法对步骤1生成的数据集进行特征提取,分别获取三种187*187大小的特征向量;
步骤3、对步骤2提取的三种特征向量进行融合获得固定大小的特征矩阵;
步骤4、使用步骤3获得的数据对使用RepVGG模块和SE模块构建的模型进行训练和测试。
具体的:步骤1、使用WOW、S-UNIWARD、HUGO、MiPOD四种隐写算法以及两种载荷0.2bpp,0.4bpp对原始的BOSSBase ver.1.01.数据集进行隐写,获得八个不同的载密图像(stego)数据集,分别将不同的载密数据集与原始数据集 (cover)组合获得八个不同的cover-stego数据集。
步骤2、三种特征的提取流程分别为滤波,截断量化,合并重排,见图1;首先使用如图2的30个高通滤波器和公式(1)对步骤1中的数据滤波得到残差图像然后使用公式(2)对残差图像截断和量化,使用公式(3)(4)(5)分别得到三种提取方法在两个不同方向上的共生矩阵,再通过公式(6),(7)对两个共生矩阵进行组合和重排得到特征向量FSRM,FmaxSRM,FmaxSRMd2。
步骤3、将步骤2中提取的三个特征向量使用公式(8)进行特征融合得到最终的特征矩阵。
步骤4、将步骤3中生成的特征矩阵作为模型的输入来训练SFRNet,从而使得训练好的模型可以更准确的识别载密图像和非载密图像,具体过程见公式 (9)(10)。
Map(.)←SEFNet(MFcover,MFstego) (9)
本发明的网路结构使用RepVGG模块和SE模块构建,具体网络结构如图3- 5所示,其中图3为RepVGG模块的网络结构,图4为SE模块的网络结构,图 RepVGG模块和SE模块所构建模型的网络结构,该网络的结构的数据输入大小为187*187*3,输出为样本属于载密图像概率和非载密图像的概率。该网络由大量的RepVGG模块组成和三个SE模块组成。表1是SFRNet与现有隐写分析方案在0.2bpp和0.4bpp下S-UNIWARD和WOW的检测准确率对比,其中SFRNet 对0.2bpp和0.4bpp的S-UNIWARD算法检测率分别达到了72.5%和89.6%,相对于已有最优的隐写分析方案Zhu-Net分别提高了1%和4.9%,对0.2bpp和 0.4bpp的WOW算法检测率分别达到了76.8%和87.9%。表2是SFRNet与现有隐写分析方案在0.2bpp和0.4bpp下HUGO和MiPOD的检测准确率对比,其中 SFRNet对0.2bpp和0.4bpp的MiPOD算法检测率分别达到了75.2%和84.1%,相对于Zhu-Net分别提高了10%和8%;对0.2bpp和0.4bpp的HUGO算法检测率分别达到了75.4%和83.6%,相对于Zhu-Net分别提高了7.3%和4.3%,表1和表2表明SFRNet对四种主流的隐写算法具有更好的检测表现,具有更高的通用性。表3是SFRNet与已有隐写分析方案在参数量,训练时间,测试时间上的对比,相对于已有的方案SFRNet具有相对较少的参数量,是Zhu-Net参数的量一半,训练时间是其大约三分之一,在保持准确率的同时大大减少了训练时间和测试时间,具有更高的实用性和可实施性。为验证SE模块对该模型的重要性,分别对使用SE模块和未使用SE模块的SFRNet进行对比实验,图6是SFRNet 在使用SE模块和不使用SE模块时的准确率对比,图7是SFRNet在使用SE模块和不使用SE模块时的收敛速度对比,可以很直观的证明SE模块有效的提升了SFRNet的准确率和收敛速度。同时为验证不同截断值对SFRNet的影响,分别选取T=1,T=2,T=3进行对比实验,其中图8是SFRNet在使用三种不同截断值T的准确率对比,图9是SFRNet在使用三种不同截断值T的收敛速度对比。图10、图11分别为SFRNet与现有隐写分析方案在0.2bpp和0.4bpp下S- UNIWARD和WOW的检测准确率对比和SFRNet与现有隐写分析方案在0.2bpp和0.4bpp下HUGO和MiPOD的检测准确率对比,可以很直观的看出SFRNet相比于已有的隐写分析方案在检测准确率方面的优势。可见在使用多特征融合以及 RepVGG模块和SE模块可以更好的区分载密图像和非载密图像,同时大大减少训练时间开销和算力开销。
表1:
表2:
表3:
本发明充分考虑了单特征对于隐写分析准确性的限制,提出使用三种特征进行融合的方式增加特征有效性,通过使用RepVGG模块加快推理速度和提高内存利用率,大大降低了训练的时间开销,使用SE模块加快了模型的收敛速度同时提高了测试准确率。设计出的SFRNet网络在0.4bpp和0.2bpp上对S- UNIWARD算法的检测准确率分别达到89.6%和72.5%,对WOW算法的检测准确率分别达到88.2%和76.8%,对MiPOD算法的检测准确率分别达到84.1%和 75.2%,对HUGO算法的检测准确率分别达到83.6%和75.4%,相对于已提出的隐写分析模型准确率得到大幅提高。
本发明在改进隐写分析模型输入的同时,采用较为新颖的RepVGG模块来构建网络,加快模型收敛的速度,在提高分类的测试准确率的同时大幅节省训练时间开销。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,任何未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (2)
1.一种基于多特征融合和深度学习的隐写分析方法,通过使用RepVGG 模块和 SE模块构建网络模型,将SRM、maxSRM、maxSRMd2三种特征提取方法获得的特征融合成固定大小的特征矩阵作为该隐写分析模型的输入,通过对关键参数的微调对该模型进行训练和测试,设置训练Epoch为150,其特征在于:包括以下步骤:
步骤1、制作预处理所需的数据集;
步骤2、分别使用SRM、maxSRM、maxSRMd2三种特征提取方法对步骤1生成的数据集进行特征提取;
步骤3、对步骤2提取的三种特征进行融合获得固定大小的特征矩阵;
步骤4、使用步骤3获得的数据对使用RepVGG 模块和 SE模块构建的模型进行训练和测试。
2.如权利要求1所述的一种基于多特征融合和深度学习的隐写分析方法,其特征在于:具体步骤如下:
步骤1、使用WOW、S-UNIWARD、HUGO、MiPOD四种隐写算法以及两种载荷payload=0.2bpp,payload=0.4bpp对原始的BOSSBase ver. 1.01.数据集进行隐写,获得八个不同的载密图像stego数据集,分别将不同的载密数据集与原始数据集cover组合获得八个不同的cover-stego数据集;
步骤2、三种特征的提取流程分别为滤波、截断量化、合并重排;首先使用30个高通滤波器和公式(1)对步骤1中的数据滤波得到残差图像,然后使用公式(2)对残差图像截断和量化,使用公式(3)(4)(5)分别得到三种提取方法在两个不同方向上的共生矩阵,再通过公式(6),(7)对两个共生矩阵进行组合和重排得到特征向量,,;
步骤3、将步骤2中提取的三个特征向量使用公式(8)进行特征融合得到最终的特征矩阵;
步骤4、将步骤3中生成的特征矩阵作为模型的输入来训练SFRNet,从而使得训练好的模型可以更准确的识别载密图像和非载密图像,具体过程见公式(9)(10):
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110827528.6A CN113554544B (zh) | 2021-07-21 | 2021-07-21 | 一种基于多特征融合和深度学习的隐写分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110827528.6A CN113554544B (zh) | 2021-07-21 | 2021-07-21 | 一种基于多特征融合和深度学习的隐写分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113554544A true CN113554544A (zh) | 2021-10-26 |
CN113554544B CN113554544B (zh) | 2022-04-15 |
Family
ID=78103942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110827528.6A Active CN113554544B (zh) | 2021-07-21 | 2021-07-21 | 一种基于多特征融合和深度学习的隐写分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113554544B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103258123A (zh) * | 2013-04-25 | 2013-08-21 | 中国科学院信息工程研究所 | 一种基于隐写分析系统盲性的隐写分析方法 |
CN107203958A (zh) * | 2017-05-25 | 2017-09-26 | 段云涛 | 一种基于多特征联合的隐写图像分析方法 |
US20180068429A1 (en) * | 2015-04-15 | 2018-03-08 | Institute Of Automation Chinese Academy Of Sciences | Image Steganalysis Based on Deep Learning |
CN110533575A (zh) * | 2019-09-05 | 2019-12-03 | 贵州师范大学 | 一种基于异构核的深度残差隐写分析方法 |
-
2021
- 2021-07-21 CN CN202110827528.6A patent/CN113554544B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103258123A (zh) * | 2013-04-25 | 2013-08-21 | 中国科学院信息工程研究所 | 一种基于隐写分析系统盲性的隐写分析方法 |
US20180068429A1 (en) * | 2015-04-15 | 2018-03-08 | Institute Of Automation Chinese Academy Of Sciences | Image Steganalysis Based on Deep Learning |
CN107203958A (zh) * | 2017-05-25 | 2017-09-26 | 段云涛 | 一种基于多特征联合的隐写图像分析方法 |
CN110533575A (zh) * | 2019-09-05 | 2019-12-03 | 贵州师范大学 | 一种基于异构核的深度残差隐写分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113554544B (zh) | 2022-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110136063B (zh) | 一种基于条件生成对抗网络的单幅图像超分辨率重建方法 | |
CN111583109B (zh) | 基于生成对抗网络的图像超分辨率方法 | |
CN109934761B (zh) | 基于卷积神经网络的jpeg图像隐写分析方法 | |
CN109800710B (zh) | 行人重识别系统及方法 | |
CN106530200B (zh) | 一种基于深度学习模型的隐写图像检测方法及系统 | |
CN108898180B (zh) | 一种面向单颗粒冷冻电镜图像的深度聚类方法 | |
CN109584162B (zh) | 一种基于生成网络的图像超分辨率重构的方法 | |
CN109801215A (zh) | 基于对抗生成网络的红外超分辨率成像方法 | |
CN112581414A (zh) | 一种卷积神经网络、图像处理的方法及电子设备 | |
CN109034230B (zh) | 一种基于深度学习的单幅图像相机溯源方法 | |
CN109949200B (zh) | 基于滤波器子集选择和cnn的隐写分析框架构建方法 | |
CN113066065B (zh) | 无参考图像质量检测方法、系统、终端及介质 | |
CN112862655B (zh) | 一种基于通道空间注意力机制的jpeg图像隐写分析方法 | |
CN111383173A (zh) | 一种基于基线的图像超分辨率重建方法及系统 | |
CN113920043A (zh) | 基于残差通道注意力机制的双流遥感图像融合方法 | |
CN113378644B (zh) | 基于生成式对抗网络的信号调制类型识别攻击的防御方法 | |
CN116168067B (zh) | 基于深度学习的有监督多模态光场深度估计方法 | |
CN114283058A (zh) | 基于对抗网络和最大互信息优化的图像超分辨率重建方法 | |
CN110533575B (zh) | 一种基于异构核的深度残差隐写分析方法 | |
CN110569881A (zh) | 基于卷积神经网络的数据增广方法及装置 | |
CN115829909A (zh) | 一种基于特征增强和频谱分析的伪造检测方法 | |
Huang et al. | Steganalysis of adaptive JPEG steganography based on resdet | |
Luo et al. | Image steganalysis with convolutional vision transformer | |
CN113205030A (zh) | 一种防御对抗性攻击的行人重识别方法 | |
CN115713680A (zh) | 一种基于语义引导的人脸图像身份合成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |