CN113554544B - 一种基于多特征融合和深度学习的隐写分析方法 - Google Patents

一种基于多特征融合和深度学习的隐写分析方法 Download PDF

Info

Publication number
CN113554544B
CN113554544B CN202110827528.6A CN202110827528A CN113554544B CN 113554544 B CN113554544 B CN 113554544B CN 202110827528 A CN202110827528 A CN 202110827528A CN 113554544 B CN113554544 B CN 113554544B
Authority
CN
China
Prior art keywords
feature
module
model
steganalysis
sfrnet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110827528.6A
Other languages
English (en)
Other versions
CN113554544A (zh
Inventor
徐洋
徐贵勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guizhou Education University
Original Assignee
Guizhou Education University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guizhou Education University filed Critical Guizhou Education University
Priority to CN202110827528.6A priority Critical patent/CN113554544B/zh
Publication of CN113554544A publication Critical patent/CN113554544A/zh
Application granted granted Critical
Publication of CN113554544B publication Critical patent/CN113554544B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32267Methods relating to embedding, encoding, decoding, detection or retrieval operations combined with processing of the image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多特征融合和深度学习的隐写分析方法,包括以下步骤:步骤(1)、制作预处理所需的数据集;步骤(2)、分别使用SRM、maxSRM、maxSRMd2三种特征提取方法对步骤(1)的数据集进行特征提取;步骤(3)、对步骤(2)提取的三种特征进行融合获得固定大小的特征矩阵;步骤(4)、步骤(3)的数据使用RepVGG模块和SE模块构建的模型进行训练和测试。本发明使用三种特征提取方法对图像提取特征并合成特征矩阵,使得该特征矩阵能够包含多种类型的特征,能够提高模型的通用性和鲁棒性,提高模型对不同隐写算法的学习性能,避免了隐写分析网络对图像大小的依赖性,大大提高的本发明的实用性。

Description

一种基于多特征融合和深度学习的隐写分析方法
技术领域
本发明涉及网络空间安全中的内容安全领域,具体涉及一种基于多特征融合和深度学习的隐写分析方法。
背景技术
传统的隐写分析包括SPAM,SRM,maxSRM和它的变体maxSRMd2,通过人工设计的滤波器提取图像的特征然后对载密图像进行判别。He等人通过对特征通道间的相关性进行建模,把重要的特征进行强化来提升准确率,提出了Squeeze-and-Excitation Networks,该网络在ImageNet上top5的错误率达到了2.251%,取得了2017ILSVR竞赛的冠军。Ding等人用结构重参数化(structural re-parameterization)“复兴”VGG式单路极简架构,使用单一的3x3卷积结构,在速度和性能上达到SOTA(state of the art)水平,在ImageNet上超过80%正确率。在NVIDIA 1080Ti GPU上,RepVGG模型的运行速度比ResNet-50快83%,比ResNet-101快101%,具有更高的精度,并且与诸如EfficientNet和ResNet的最新模型相比,显示出良好的精度-速度折衷。随着卷积神经网络快速发展,越来越多的研究者开始将深度神经网络和隐写分析结合起来,通过学习载密图像和非载密图像的特征来训练神经网络来判别载密图像。
针对现有的隐写分析方法对图像尺寸和隐写算法具有较高的依赖性,分类准确率低,以及需要大量的算力来训练隐写分析模型,我们提出一种新型隐写分析模型,使用RepVgg模块和SE模块构建隐写分析模型,将SRM(Spatial Rich Model),maxSRM,maxSRMd2三种特征数据融合成三通道的特征矩阵作为隐写分析模型的输入,三种特征数据的融合能够更加全面的提取隐写图像的特征使得隐写分析模型具有更好的通用性,同时解决了传统隐写分析模型对图像尺寸的依赖性提高了模型的实用性。
发明内容
本发明的目的在于提供一种基于多特征融合和深度学习的隐写分析方法,该方法使用RepVGG模块和Squeeze-and-Excitation(SE)模块构建被命名为SFRNet,使用三种特征提取方法对图片进行特征提取,将提取到的特征融合为固定大小的特征矩阵作为SFRNet的输入,通过微调重要参数的方式提高模型的训练速度和测试准确率。本发明使用RepVGG模块和SE模块来构建深度学习网络,使其能够应用于本方法的隐写分析数据集,使用RepVGG模块加快推理速度和提高内存利用率,大大降低了训练的时间开销,使用SE模块加快了模型的收敛速度同时提高了测试准确率,能够更快更准确的学习不同隐写算法的特征从而实现对隐写分析模型的通用性。
本发明的技术方案是:
一种基于多特征融合和深度学习的隐写分析方法,其隐写分析模型使用RepVGG模块和SE模块构建,将SRM、maxSRM、maxSRMd2三种特征提取方法获得的特征融合成固定大小的特征矩阵作为SFRNet的输入,通过对关键参数的微调对该模型进行训练和测试,设置训练Epoch为150,包括以下步骤:
步骤1、制作预处理所需的数据集;
步骤2、分别使用SRM、maxSRM、maxSRMd2三种特征提取方法对步骤1生成的数据集进行特征提取;
步骤3、对步骤2提取的三种特征进行融合获得固定大小的特征矩阵;
步骤4、使用步骤3获得的数据对使用RepVGG模块和SE模块构建的模型进行训练和测试。
具体地:步骤1、使用WOW、S-UNIWARD、HUGO、MiPOD四种隐写算法以及两种载荷payload=0.2bpp,payload=0.4bpp对原始的BOSSBase ver.1.01.数据集进行隐写,获得八个不同的载密图像(stego)数据集,分别将不同的载密数据集与原始数据集(cover)组合获得八个不同的cover-stego数据集。
步骤2、三种特征的提取流程分别为滤波、截断量化、合并重排,首先使用30个高通滤波器和公式(1)对步骤1中的数据滤波得到残差图像
Figure GDA0003244201470000021
然后使用公式(2)对残差图像
Figure GDA0003244201470000022
截断和量化,使用公式(3)(4)(5)分别得到三种提取方法在两个不同方向上的共生矩阵,再通过公式(6),(7)对两个共生矩阵进行组合和重排得到特征向量FSRM,FmaxSRM,FmaxSRMd2
Figure GDA0003244201470000023
Figure GDA0003244201470000024
Figure GDA0003244201470000025
Figure GDA0003244201470000026
Figure GDA0003244201470000027
Figure GDA0003244201470000028
Figure GDA0003244201470000029
步骤3、将步骤2中提取的三个特征向量使用公式(8)进行特征融合得到最终的特征矩阵;
Figure GDA00032442014700000210
步骤4、将步骤3中生成的特征矩阵作为模型的输入来训练SFRNet,从而使得训练好的模型可以更准确的识别载密图像和非载密图像,具体过程见公式(9)(10):
Map(.)←SEFNet(MFcover,MFstego) (9);
Figure GDA00032442014700000211
本发明具有以下特点:
1、本发明对传统的单特征隐写分析模型做了改进和创新,使用三种不同的特征提取方法获取特征并融合成三通道的特征矩阵,使得该特征矩阵能够包含多种类型的特征,能够提高模型的鲁棒性,提高模型对不同隐写算法的学习性能。
2、使用RepVGG模块和SE模块来构建深度学习网络,使其能够应用于本发明的隐写分析数据集,使用RepVGG模块加快推理速度和提高内存利用率,大大降低了训练的时间开销,使用SE模块加快了模型的收敛速度同时提高了测试准确率,能够更快更准确的学习不同隐写算法的特征从而实现对隐写分析模型的通用性。
3、本发明改进了隐写分析网络的数据输入方式,使用预处理过的特征矩阵而不是图像本身,从而避免了隐写分析网络对图像大小的依赖性,大大提高了本发明的实用性。
综上,本发明所提出的架构关键部分是使用三种特征提取方式进行多特征融合获取固定大小的特征矩阵,以及使用SE模块和RepVGG模块构建隐写分析模型SFRNet,将融合的多特征作为隐写分析模型的输入对模型进行训练,从而实现对载密图片的识别。所提出架构的另一关键是使用四种主流的空域隐写算法(HUGO,S-UNWIWARD,WOW,MiPOD)生成的数据集训练该模型,使得模型具有更高的通用性和鲁棒性。
附图说明
图1是特征提取过程;
图2是三种特征提取方法使用的高通滤波器;
图3是RepVGG模块的网络结构;
图4是SE模块的网络结构;
图5是SFRNet的网络结构;
图6是SFRNet在使用SE模块和不使用SE模块时的准确率对比;
图7是SFRNet在使用SE模块和不使用SE模块时的收敛速度对比;
图8是SFRNet在使用三种不同截断值T的准确率对比;
图9是SFRNet在使用三种不同截断值T的收敛速度对比;
图10是SFRNet与现有隐写分析方案在0.2bpp和0.4bpp下S-UNIWARD和WOW的检测准确率对比;
图11是SFRNet与现有隐写分析方案在0.2bpp和0.4bpp下HUGO和MiPOD的检测准确率对比。
具体实施方式
下面通过附图和实施例对本发明做进一步描述。
一种基于多特征融合和深度学习的隐写分析方法,通过三种特征提取方案将提取到的特征融合为多特征矩阵,使用原始BOSSBase ver.1.01.数据集和四种主流空域隐写算法两种载荷生成的载密数据集进行分类,将使用RepVGG模块和SE模块构建的SFRNet进行微调用与载密图像的训练和测试。包括以下步骤:
步骤1、制作预处理所需的数据集;
步骤2、分别使用SRM、maxSRM、maxSRMd2三种特征提取方法对步骤1生成的数据集进行特征提取,分别获取三种187*187大小的特征向量;
步骤3、对步骤2提取的三种特征向量进行融合获得固定大小的特征矩阵;
步骤4、使用步骤3获得的数据对使用RepVGG模块和SE模块构建的模型进行训练和测试。
具体的:步骤1、使用WOW、S-UNIWARD、HUGO、MiPOD四种隐写算法以及两种载荷0.2bpp,0.4bpp对原始的BOSSBase ver.1.01.数据集进行隐写,获得八个不同的载密图像(stego)数据集,分别将不同的载密数据集与原始数据集(cover)组合获得八个不同的cover-stego数据集。
步骤2、三种特征的提取流程分别为滤波,截断量化,合并重排,见图1;首先使用如图2的30个高通滤波器和公式(1)对步骤1中的数据滤波得到残差图像
Figure GDA0003244201470000041
然后使用公式(2)对残差图像
Figure GDA0003244201470000042
截断和量化,使用公式(3)(4)(5)分别得到三种提取方法在两个不同方向上的共生矩阵,再通过公式(6),(7)对两个共生矩阵进行组合和重排得到特征向量FSRM,FmaxSRM,FmaxSRMd2
Figure GDA0003244201470000043
Figure GDA0003244201470000044
Figure GDA0003244201470000045
Figure GDA0003244201470000046
Figure GDA0003244201470000047
Figure GDA0003244201470000048
Figure GDA0003244201470000049
步骤3、将步骤2中提取的三个特征向量使用公式(8)进行特征融合得到最终的特征矩阵。
Figure GDA00032442014700000410
步骤4、将步骤3中生成的特征矩阵作为模型的输入来训练SFRNet,从而使得训练好的模型可以更准确的识别载密图像和非载密图像,具体过程见公式(9)(10)。
Map(.)←SEFNet(MFcover,MFstego) (9)
Figure GDA00032442014700000411
本发明的网路结构使用RepVGG模块和SE模块构建,具体网络结构如图3-5所示,其中图3为RepVGG模块的网络结构,图4为SE模块的网络结构,图RepVGG模块和SE模块所构建模型的网络结构,该网络的结构的数据输入大小为187*187*3,输出为样本属于载密图像概率和非载密图像的概率。该网络由大量的RepVGG模块组成和三个SE模块组成。表1是SFRNet与现有隐写分析方案在0.2bpp和0.4bpp下S-UNIWARD和WOW的检测准确率对比,其中SFRNet对0.2bpp和0.4bpp的S-UNIWARD算法检测率分别达到了72.5%和89.6%,相对于已有最优的隐写分析方案Zhu-Net分别提高了1%和4.9%,对0.2bpp和0.4bpp的WOW算法检测率分别达到了76.8%和87.9%。表2是SFRNet与现有隐写分析方案在0.2bpp和0.4bpp下HUGO和MiPOD的检测准确率对比,其中SFRNet对0.2bpp和0.4bpp的MiPOD算法检测率分别达到了75.2%和84.1%,相对于Zhu-Net分别提高了10%和8%;对0.2bpp和0.4bpp的HUGO算法检测率分别达到了75.4%和83.6%,相对于Zhu-Net分别提高了7.3%和4.3%,表1和表2表明SFRNet对四种主流的隐写算法具有更好的检测表现,具有更高的通用性。表3是SFRNet与已有隐写分析方案在参数量,训练时间,测试时间上的对比,相对于已有的方案SFRNet具有相对较少的参数量,是Zhu-Net参数的量一半,训练时间是其大约三分之一,在保持准确率的同时大大减少了训练时间和测试时间,具有更高的实用性和可实施性。为验证SE模块对该模型的重要性,分别对使用SE模块和未使用SE模块的SFRNet进行对比实验,图6是SFRNet在使用SE模块和不使用SE模块时的准确率对比,图7是SFRNet在使用SE模块和不使用SE模块时的收敛速度对比,可以很直观的证明SE模块有效的提升了SFRNet的准确率和收敛速度。同时为验证不同截断值对SFRNet的影响,分别选取T=1,T=2,T=3进行对比实验,其中图8是SFRNet在使用三种不同截断值T的准确率对比,图9是SFRNet在使用三种不同截断值T的收敛速度对比。图10、图11分别为SFRNet与现有隐写分析方案在0.2bpp和0.4bpp下S-UNIWARD和WOW的检测准确率对比和SFRNet与现有隐写分析方案在0.2bpp和0.4bpp下HUGO和MiPOD的检测准确率对比,可以很直观的看出SFRNet相比于已有的隐写分析方案在检测准确率方面的优势。可见在使用多特征融合以及RepVGG模块和SE模块可以更好的区分载密图像和非载密图像,同时大大减少训练时间开销和算力开销。
表1:
Figure GDA0003244201470000051
表2:
Figure GDA0003244201470000052
Figure GDA0003244201470000061
表3:
Figure GDA0003244201470000062
本发明充分考虑了单特征对于隐写分析准确性的限制,提出使用三种特征进行融合的方式增加特征有效性,通过使用RepVGG模块加快推理速度和提高内存利用率,大大降低了训练的时间开销,使用SE模块加快了模型的收敛速度同时提高了测试准确率。设计出的SFRNet网络在0.4bpp和0.2bpp上对S-UNIWARD算法的检测准确率分别达到89.6%和72.5%,对WOW算法的检测准确率分别达到88.2%和76.8%,对MiPOD算法的检测准确率分别达到84.1%和75.2%,对HUGO算法的检测准确率分别达到83.6%和75.4%,相对于已提出的隐写分析模型准确率得到大幅提高。
本发明在改进隐写分析模型输入的同时,采用较为新颖的RepVGG模块来构建网络,加快模型收敛的速度,在提高分类的测试准确率的同时大幅节省训练时间开销。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,任何未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。

Claims (1)

1.一种基于多特征融合和深度学习的隐写分析方法,通过使用RepVGG模块和SE模块构建网络模型,将SRM、maxSRM、maxSRMd2三种特征提取方法获得的特征融合成固定大小的特征矩阵作为该网络模型的输入,通过对关键参数的微调对该模型进行训练和测试,设置训练Epoch为150,包括以下步骤:
步骤1、制作预处理所需的数据集;
步骤2、分别使用SRM、maxSRM、maxSRMd2三种特征提取方法对步骤1生成的数据集进行特征提取;
步骤3、对步骤2提取的三种特征进行融合获得固定大小的特征矩阵;
步骤4、使用步骤3获得的数据对使用RepVGG模块和SE模块构建的模型进行训练和测试;
其特征在于:具体步骤如下:
步骤1、使用WOW、S-UNIWARD、HUGO、MiPOD四种隐写算法以及两种载荷payload=0.2bpp,payload=0.4bpp对原始的BOSSBase ver.1.01.数据集进行隐写,获得八个不同的载密图像stego数据集,分别将不同的载密数据集与原始数据集cover组合获得八个不同的cover-stego数据集;
步骤2、三种特征的提取流程分别为滤波、截断量化、合并重排;首先使用30个高通滤波器和公式(1)对步骤1中的数据滤波得到残差图像
Figure FDA0003463459560000011
然后使用公式(2)对残差图像
Figure FDA0003463459560000012
截断和量化,使用公式(3)(4)(5)分别得到三种提取方法在两个不同方向上的共生矩阵,再通过公式(6),(7)对两个共生矩阵进行组合和重排得到特征向量FSRM,FmaxSRM,FmaxSRMd2
Figure FDA0003463459560000013
Figure FDA0003463459560000014
Figure FDA0003463459560000015
Figure FDA0003463459560000016
Figure FDA0003463459560000017
Figure FDA0003463459560000018
Figure FDA0003463459560000019
步骤3、将步骤2中提取的三个特征向量使用公式(8)进行特征融合得到最终的特征矩阵;
Figure FDA00034634595600000110
步骤4、将步骤3中生成的特征矩阵作为模型的输入来训练SFRNet,从而使得训练好的模型可以更准确的识别载密图像和非载密图像,具体过程见公式(9)(10):
Map(.)←SEFNet(MFcover,MFstego) (9);
Figure FDA0003463459560000021
CN202110827528.6A 2021-07-21 2021-07-21 一种基于多特征融合和深度学习的隐写分析方法 Active CN113554544B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110827528.6A CN113554544B (zh) 2021-07-21 2021-07-21 一种基于多特征融合和深度学习的隐写分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110827528.6A CN113554544B (zh) 2021-07-21 2021-07-21 一种基于多特征融合和深度学习的隐写分析方法

Publications (2)

Publication Number Publication Date
CN113554544A CN113554544A (zh) 2021-10-26
CN113554544B true CN113554544B (zh) 2022-04-15

Family

ID=78103942

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110827528.6A Active CN113554544B (zh) 2021-07-21 2021-07-21 一种基于多特征融合和深度学习的隐写分析方法

Country Status (1)

Country Link
CN (1) CN113554544B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103258123A (zh) * 2013-04-25 2013-08-21 中国科学院信息工程研究所 一种基于隐写分析系统盲性的隐写分析方法
CN107203958A (zh) * 2017-05-25 2017-09-26 段云涛 一种基于多特征联合的隐写图像分析方法
CN110533575A (zh) * 2019-09-05 2019-12-03 贵州师范大学 一种基于异构核的深度残差隐写分析方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016165082A1 (zh) * 2015-04-15 2016-10-20 中国科学院自动化研究所 基于深度学习的图像隐写检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103258123A (zh) * 2013-04-25 2013-08-21 中国科学院信息工程研究所 一种基于隐写分析系统盲性的隐写分析方法
CN107203958A (zh) * 2017-05-25 2017-09-26 段云涛 一种基于多特征联合的隐写图像分析方法
CN110533575A (zh) * 2019-09-05 2019-12-03 贵州师范大学 一种基于异构核的深度残差隐写分析方法

Also Published As

Publication number Publication date
CN113554544A (zh) 2021-10-26

Similar Documents

Publication Publication Date Title
CN110136063B (zh) 一种基于条件生成对抗网络的单幅图像超分辨率重建方法
CN108537743B (zh) 一种基于生成对抗网络的面部图像增强方法
CN113191953B (zh) 一种基于Transformer的人脸图像超分辨的方法
CN112686331B (zh) 伪造图像识别模型训练方法及伪造图像识别方法
CN111798400A (zh) 基于生成对抗网络的无参考低光照图像增强方法及系统
CN111260584A (zh) 基于gan网络的水下退化图像增强的方法
CN110059728B (zh) 基于注意力模型的rgb-d图像视觉显著性检测方法
CN113642634A (zh) 一种基于混合注意力的阴影检测方法
CN111833277B (zh) 一种具有非配对多尺度混合编解码结构的海上图像去雾方法
Wu et al. Steganalysis via deep residual network
CN109801215A (zh) 基于对抗生成网络的红外超分辨率成像方法
CN113066065B (zh) 无参考图像质量检测方法、系统、终端及介质
CN109949200B (zh) 基于滤波器子集选择和cnn的隐写分析框架构建方法
CN113920043A (zh) 基于残差通道注意力机制的双流遥感图像融合方法
CN110647820A (zh) 基于特征空间超分辨映射的低分辨率人脸识别方法
CN116168067B (zh) 基于深度学习的有监督多模态光场深度估计方法
Huang et al. Steganalysis of adaptive JPEG steganography based on resdet
CN110533575B (zh) 一种基于异构核的深度残差隐写分析方法
CN115809953A (zh) 一种基于注意力机制的多尺寸图像鲁棒水印方法及系统
CN116797461A (zh) 基于多级强化注意力机制的双目图像超分辨率重建方法
CN114283058A (zh) 基于对抗网络和最大互信息优化的图像超分辨率重建方法
CN113554544B (zh) 一种基于多特征融合和深度学习的隐写分析方法
CN113205030A (zh) 一种防御对抗性攻击的行人重识别方法
CN113705358B (zh) 一种基于特征映射的多角度侧脸正面化方法
CN112862655B (zh) 一种基于通道空间注意力机制的jpeg图像隐写分析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant