CN116703726A - 基于可逆神经网络的大规模图像隐写方法、装置和设备 - Google Patents
基于可逆神经网络的大规模图像隐写方法、装置和设备 Download PDFInfo
- Publication number
- CN116703726A CN116703726A CN202310675711.8A CN202310675711A CN116703726A CN 116703726 A CN116703726 A CN 116703726A CN 202310675711 A CN202310675711 A CN 202310675711A CN 116703726 A CN116703726 A CN 116703726A
- Authority
- CN
- China
- Prior art keywords
- image
- reversible
- secret
- module
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002441 reversible effect Effects 0.000 title claims abstract description 260
- 238000000034 method Methods 0.000 title claims abstract description 134
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 37
- 238000011084 recovery Methods 0.000 claims abstract description 10
- 230000009466 transformation Effects 0.000 claims abstract description 9
- 230000008569 process Effects 0.000 claims description 45
- 230000006870 function Effects 0.000 claims description 40
- 238000012549 training Methods 0.000 claims description 33
- 238000000354 decomposition reaction Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 9
- 239000002131 composite material Substances 0.000 claims 1
- 239000003086 colorant Substances 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration using non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20064—Wavelet transform [DWT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Processing (AREA)
Abstract
本申请涉及一种基于可逆神经网络的大规模图像隐写方法、装置和计算机设备。所述方法包括:通过可逆图像缩放模块将秘密图像下采样到相应的倍数;同时将载体图像分割成互不重叠的与下采样秘密图像大小相同的块;将生成的下采样后的秘密图像以及载体图像输入到可逆图像隐藏模块生成含密图像。本发明通过引入可逆的图像缩放变换,充分利用可逆神经网络的双向性,克服了秘密图像之间的信息和颜色的相互干扰等问题,大幅度提高了图像隐写的数量以及解密图像恢复的质量。
Description
技术领域
本申请涉及图像隐写领域,特别是涉及一种基于可逆神经网络的大规模图像隐写方法、装置和计算机设备。
背景技术
随着深度学习的不断发展,研究者们提出了基于深度学习的空间域图像隐写方法,例如:基于深度卷积神经网络的编码器-解码器网络结构,利用编码器对载体图像和秘密图像进行编码生成含密图像,然后通过解码器从含密图像中重构出解密图像。在训练过程中,编码器和解码器通常是相互耦合且交替更新的,目前能实现隐藏和恢复2-3张秘密图像。区别于传统基于深度卷积编码器-解码器神经网络,可逆神经网络的正向传播和逆向传播过程的神经网络参数是共享的,也就是说图像的隐藏和恢复被视为双向可逆过程。即给定某一层神经网络的输出,就能通过无损计算得到其他层的输出,训练存储的参数量大幅度减少,其渐渐被扩展应用到图像隐写领域,进一步提高了载体图像的隐藏容量以及解密图像重构的质量。与此同时,基于可逆神经网络的图像隐写方法具有更稳定的训练过程以及更快的收敛速度。具体来说,现有基于可逆神经网络的大容量图像隐写技术可大致分为两种技术思路:一种是将秘密图像依次通过深度隐藏网络隐藏到含密图像中;另一种是将所有秘密图像串连起来作为一个整体视为输入,再利用深度隐藏网络将其隐藏到载体图像中。
基于可逆神经网络的图像隐写方法也要求载体图像和秘密图像的大小相同,所以随着秘密图像数量的增加,单个像素点的信息会不断叠加,也会导致秘密图像各颜色通道间的信息相互影响,越先隐藏的秘密图像受到的干扰越多,从而使解密图像的重构更加困难。与此同时,在含密图像上添加的扰动更加明显,对于隐写分析算法来说也可以轻易检测到端倪。尽管基于可逆神经网络的图像隐写方法成功地将隐藏的图片数量提升为5张,但这些问题都限制了载体图像隐藏容量以及重构的解密图像质量的进一步提升。与此同时,传统的基于卷积神经网络的隐写分析方法以及基于可逆神经网络顺序隐藏的方法中,每一张秘密图像对应一个独立的隐藏和恢复网络,所以都面临训练参数随着秘密图像的增加而线性增加的问题。
因此,现有技术存在适应性不佳的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够有效提高载体图像隐藏的容量及解密图像恢复的质量的基于可逆神经网络的大规模图像隐写方法、装置、计算机设备和存储介质。
一种基于可逆神经网络的大规模图像隐写方法,所述方法包括:
获取载体图像和N张待隐藏的秘密图像,将所述载体图像和所述秘密图像输入预先设计的图像隐写网络模型中;所述图像隐写网络模型包括可逆图像缩放模块和可逆图像隐藏模块;
通过所述可逆图像缩放模块对所述秘密图像进行下采样,得到N张缩小后的秘密图像;
将所述载体图像分割成N个非重叠块,通过所述可逆图像隐藏模块将所述缩小后的秘密图像依次隐藏到对应的非重叠块中,得到N个含密图像块;其中,所述缩小后的秘密图像的大小与所述非重叠块的大小一致;
将所述N张含密图像块顺序合并,得到预测的含密图像;
根据所述预测的含密图像和预设的损失函数对所述图像隐写网络模型进行训练,得到训练好的图像隐写网络模型;
通过所述训练好的图像隐写网络模型进行图像隐写,得到输出的含密图像。
在其中一个实施例中,还包括:获取待解密的含密图像;
通过所述可逆图像隐藏模块的逆向过程对所述待解密的含密图像进行解密,得到N张初解密图像;
通过所述可逆图像缩放模块对所述N张初解密图像进行上采样,得到N张解密图像;所述解密图像的图像分辨率与原始秘密图像相同。
在其中一个实施例中,还包括:通过所述可逆图像缩放模块中分解块中的卷积层对所述秘密图像进行下采样,得到所述分解块生成的低频信息和高频信息;
通过所述可逆图像缩放模块中的可逆块根据所述分解块生成的低频信息和高频信息进行信息交换,得到N张缩小后的秘密图像与一个图像无关的变量。
在其中一个实施例中,还包括:通过所述可逆图像缩放模块中的可逆块将所述初解密图像与一个随机进行采样的变量进行信息交换,得到可逆块逆向过程输出的低频信息和高频信息;
通过所述可逆图像缩放模块中的合成块根据所述可逆块逆向过程输出的低频信息和高频信息进行上采样,得到N张还原的解密图像。
在其中一个实施例中,还包括:通过所述可逆图像隐藏模块中的离散小波变换块将所述缩小后的秘密图像和所述非重叠块分解为低频信息和高频信息;
通过所述可逆图像隐藏模块中的可逆块根据所述离散小波变换块分解得到的低频信息和高频信息进行信息交换,生成N个含密图像块和一个与图像无关的变量。
在其中一个实施例中,还包括:通过所述可逆图像隐藏模块中的所述可逆块将待解密的含密图像和一个随机采样的变量进行信息交换,得到所述可逆块输出的低频信息和高频信息;
通过所述可逆图像隐藏模块中的所述逆离散小波变换块对所述可逆块输出的低频信息和高频信息进行重构,得到重构的N张初解密图像。
在其中一个实施例中,还包括:所述可逆图像缩放模块和所述可逆图像隐藏模块中,第i个可逆块的前向过程表示为:
第i个可逆块的逆向过程表示为:
其中,和/>分别表示第i个可逆块生成的低频信息和高频信息,/>ρ(·)和ψ(·)都代表稠密网络。
在其中一个实施例中,还包括:根据所述预测的含密图像和预设的损失函数,分别对所述可逆图像缩放模块和所述可逆图像隐藏模块进行迭代训练,再对所述可逆图像缩放模块和所述可逆图像隐藏模块进行联合训练迭代;其中,所述预设的损失函数为:
其中,用于引导下采样后的秘密图像含有足有的信息,包括恢复损失函数、下采样损失函数和重构损失函数;/>为隐写损失函数,用于约束输出的含密图像和原始载体图像之间的差别尽可能小。
一种基于可逆神经网络的大规模图像隐写装置,所述装置包括:
图像输入模块,用于获取载体图像和N张待隐藏的秘密图像,将所述载体图像和所述秘密图像输入预先设计的图像隐写网络模型中;所述图像隐写网络模型包括可逆图像缩放模块和可逆图像隐藏模块;
下采样模块,用于通过所述可逆图像缩放模块对所述秘密图像进行下采样,得到N张缩小后的秘密图像;
图像隐藏模块,用于将所述载体图像分割成N个非重叠块,通过所述可逆图像隐藏模块将所述缩小后的秘密图像依次隐藏到对应的非重叠块中,得到N个含密图像块;其中,所述缩小后的秘密图像的大小与所述非重叠块的大小一致;
模型预测模块,用于将所述N张含密图像块顺序合并,得到预测的含密图像;
模型训练模块,用于根据所述预测的含密图像和预设的损失函数对所述图像隐写网络模型进行训练,得到训练好的图像隐写网络模型;
模型应用模块,用于通过所述训练好的图像隐写网络模型进行图像隐写,得到输出的含密图像。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取载体图像和N张待隐藏的秘密图像,将所述载体图像和所述秘密图像输入预先设计的图像隐写网络模型中;所述图像隐写网络模型包括可逆图像缩放模块和可逆图像隐藏模块;
通过所述可逆图像缩放模块对所述秘密图像进行下采样,得到N张缩小后的秘密图像;
将所述载体图像分割成N个非重叠块,通过所述可逆图像隐藏模块将所述缩小后的秘密图像依次隐藏到对应的非重叠块中,得到N个含密图像块;其中,所述缩小后的秘密图像的大小与所述非重叠块的大小一致;
将所述N张含密图像块顺序合并,得到预测的含密图像;
根据所述预测的含密图像和预设的损失函数对所述图像隐写网络模型进行训练,得到训练好的图像隐写网络模型;
通过所述训练好的图像隐写网络模型进行图像隐写,得到输出的含密图像。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取载体图像和N张待隐藏的秘密图像,将所述载体图像和所述秘密图像输入预先设计的图像隐写网络模型中;所述图像隐写网络模型包括可逆图像缩放模块和可逆图像隐藏模块;
通过所述可逆图像缩放模块对所述秘密图像进行下采样,得到N张缩小后的秘密图像;
将所述载体图像分割成N个非重叠块,通过所述可逆图像隐藏模块将所述缩小后的秘密图像依次隐藏到对应的非重叠块中,得到N个含密图像块;其中,所述缩小后的秘密图像的大小与所述非重叠块的大小一致;
将所述N张含密图像块顺序合并,得到预测的含密图像;
根据所述预测的含密图像和预设的损失函数对所述图像隐写网络模型进行训练,得到训练好的图像隐写网络模型;
通过所述训练好的图像隐写网络模型进行图像隐写,得到输出的含密图像。
上述基于可逆神经网络的大规模图像隐写方法、装置、计算机设备和存储介质,通过可逆图像缩放模块将秘密图像下采样到相应的倍数;同时将载体图像分割成互不重叠的与下采样秘密图像大小相同的块;将生成的下采样后的秘密图像以及载体图像输入到可逆图像隐藏模块生成含密图像。本发明通过引入可逆的图像缩放变换,充分利用可逆神经网络的双向性,克服了秘密图像之间的信息和颜色的相互干扰等问题,大幅度提高了图像隐写的数量以及解密图像恢复的质量。
附图说明
图1为一个实施例中基于可逆神经网络的大规模图像隐写方法的流程示意图;
图2为一个实施例中基于可逆神经网络的大规模图像隐写模型示意图,其中,图2(a)为下采样和隐藏过程,图2(b)为重构和上采样解密图像过程;
图3为一个实施例中隐写2张秘密图像对比方法结果示意图;
图4为一个实施例中隐写2张秘密图片结果对比图,其中,图4(a)为GT方法的结果图,图4(b)为Weng方法的结果图,图4(c)为Baluja方法的结果图,图4(d)为ISN方法的结果图,图4(e)为DeepMIH方法的结果图,图4(f)为本发明InvMIHNet方法的结果图;
图5为一个实施例中隐写6张秘密图像可视化结果图;
图6为一个实施例中隐写8张秘密图像可视化结果图;
图7为一个实施例中隐写9张秘密图像可视化结果图;
图8为一个实施例中隐写16张秘密图像可视化结果图;
图9为一个实施例中基于可逆神经网络的大规模图像隐写装置的结构框图;
图10为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,提供了一种基于可逆神经网络的大规模图像隐写方法,包括以下步骤:
步骤102,获取载体图像和N张待隐藏的秘密图像,将载体图像和秘密图像输入预先设计的图像隐写网络模型中。
图像隐写网络模型包括可逆图像缩放模块和可逆图像隐藏模块。
本发明提出的图像隐写网络模型概述如图2所示,以隐藏与恢复4张秘密图像为例,该模型由可逆图像缩放模块和可逆图像隐藏模块组成。
步骤104,通过可逆图像缩放模块对秘密图像进行下采样,得到N张缩小后的秘密图像。
首先利用可逆图像缩放模块对N张秘密图像进行下采样,得到N张缩小后的秘密图像/>以及与图像无关的变量/>秘密图像的基本信息压缩在下采样后的秘密图像/>中。
步骤106,将载体图像分割成N个非重叠块,通过可逆图像隐藏模块将缩小后的秘密图像依次隐藏到对应的非重叠块中,得到N个含密图像块。
其中,缩小后的秘密图像的大小与非重叠块的大小一致。
在载体图像分割成N个非重叠块之后,通过可逆图像隐藏模块将第k个缩小后的秘密图像隐藏到第k个块/>中,并生成第k个含密图像块/>和一个与图像无关的变量将载体图像块按照相应的顺序进行合并后,可以得到一个隐藏了N张秘密图像的含密图像xstgeo。
步骤108,将N张含密图像块顺序合并,得到预测的含密图像。
步骤110,根据预测的含密图像和预设的损失函数对图像隐写网络模型进行训练,得到训练好的图像隐写网络模型。
本发明的训练目标包含两个方面:(i)最小化重构的解密图像和原始秘密图像之间的差异;(ii)最小化载体图像和含密图像之间的差别。所以损失函数分为两个部分:用于指导秘密图像的学习过程,而/>用于提高含密图像的质量,总的损失函数可以表示为:
具体来说,是用于引导下采样后的秘密图像含有足有的信息,与此同时,保证解密图像上采样后恢复的质量。该损失函数包含三部分:(i)恢复损失函数,用于提升上采样的解密图像的质量;(ii)下采样损失函数,使得样的秘密图像与参考的双三次插值(Bicubic interpolation)得到的图片尽可能相似;(iii)重构损失函数,用于保证图像隐藏模块重构出的解密图像尽可能与输入的秘密图像保持一致。此外,还设置了分布匹配损失函数,通过JS散度限制秘密图像和解密图像的分布尽可能重合。因此,/>可以细化展开表示为:
其中,p(·)表示数据分布,λ1、λ2和λ3分别代表了恢复损失函数、下采样损失函数和重构损失函数的权重比例。
隐写损失函数用于保证含密图像/>和原始载体图像/>之间的差别难于区分,保障隐写的隐蔽性,同时设置损失函数保证了低频区域内的相似度,让秘密信息尽量隐藏到更难感知的高频区域内:
其中,下标ll表示通过哈尔小波变换得到的低频部分信息。
高质量的图像隐写效果依赖于高效的图像缩放。本文提出的图像隐写网络模型包括可逆图像缩放模块和可逆图像隐藏模块的前向和逆向过程的顺序应用,难以同时进行优化。因此,采用两个阶段来训练模型,而不是从头开始训练整个网络。在第一阶段,分别对可逆图像缩放模块和可逆图像隐藏模块进行30K次迭代训练。在第二阶段,联合训练可逆图像缩放模块和可逆图像隐藏模块进行另外20K次的迭代。
步骤112,通过训练好的图像隐写网络模型进行图像隐写,得到输出的含密图像。
上述基于可逆神经网络的大规模图像隐写方法中,通过可逆图像缩放模块将秘密图像下采样到相应的倍数;同时将载体图像分割成互不重叠的与下采样秘密图像大小相同的块;将生成的下采样后的秘密图像以及载体图像输入到可逆图像隐藏模块生成含密图像。本发明采取了分而治之的策略,将缩小后的秘密图像隐藏在非重叠的块中,从而显著提高了载体图像的隐藏能力和解密图像的恢复质量,通过引入可逆的图像缩放变换,充分利用可逆神经网络的双向性,克服了秘密图像之间的信息和颜色的相互干扰等问题,大幅度提高了图像隐写的数量以及解密图像恢复的质量。
在其中一个实施例中,还包括:获取待解密的含密图像;通过可逆图像隐藏模块的逆向过程对待解密的含密图像进行解密,得到N张初解密图像;通过可逆图像缩放模块对N张初解密图像进行上采样,得到N张解密图像;解密图像的图像分辨率与原始秘密图像相同。
基于可逆神经网络的双向性,解密图像重构的过程是可逆图像隐藏模块和可逆图像缩放模块的逆运算。即通过可逆图像缩放模块的逆向过程生成解密图像,再通过可逆图像隐藏模块的逆过程对解密图像进行上采样,最终重构出与原始秘密图像分辨率相同的解密图像。
在其中一个实施例中,还包括:可逆图像缩放模块的前向过程包括一个分解块和多个可逆块,通过可逆图像缩放模块中分解块中的卷积层对秘密图像进行下采样,得到分解块生成的低频信息和高频信息;通过可逆图像缩放模块中的可逆块根据分解块生成的低频信息和高频信息进行信息交换,得到N张缩小后的秘密图像与一个图像无关的变量。
可逆图像缩放模块的逆向过程包括多个可逆块和一个合成块,通过可逆图像缩放模块中的可逆块将初解密图像与一个随机进行采样的变量进行信息交换,得到可逆块逆向过程输出的低频信息和高频信息;通过可逆图像缩放模块中的合成块根据可逆块逆向过程输出的低频信息和高频信息进行上采样,得到N张还原的解密图像。
可逆图像隐藏模块的前向过程包括一个离散小波变换块和多个可逆块,通过可逆图像隐藏模块中的离散小波变换块将缩小后的秘密图像和非重叠块分解为低频信息和高频信息;通过可逆图像隐藏模块中的可逆块根据离散小波变换块分解得到的低频信息和高频信息进行信息交换,生成N个含密图像块和一个与图像无关的变量。
可逆图像隐藏模块的逆向过程包括多个可逆块和一个逆离散小波变换块,通过可逆图像隐藏模块中的可逆块将待解密的含密图像和一个随机采样的变量进行信息交换,得到可逆块输出的低频信息和高频信息;通过可逆图像隐藏模块中的逆离散小波变换块对可逆块输出的低频信息和高频信息进行重构,得到重构的N张初解密图像。
具体地,将可逆图像缩放模块的正向和逆向过程分别表示为:和/>其中η表示的是可逆图像缩放模块中可学习的参数,/>是从正态分布中采样得到的。同样的,可逆图像隐藏模块的正向和逆向过程可以相应表示为:/>和/>其中θ表示的是可逆图像隐藏模块中可学习的参数,/>从正态分布中采样。为了方便表示,省略了与图像无关的部分,将隐藏过程简略表示为:/>和/>
综上,本发明提出的图像隐写网络模型学习目标由公式(1)表示:
其中,θ和η分别表示的是可逆图像隐藏模块和可逆图像缩放模块中可学习的参数;设置λ是为了平衡隐藏和恢复秘密图像的效果;xc和xs分别表示载体图像和秘密图像。和/>都是从提前定义好的高斯分布中采样得到的,用于补充隐写过程中丢弃的信息。
可逆块(Invertible Blocks)是可逆图像隐藏模块和可逆图像缩放模块的基本组成部分。由于可逆块的前向和后向过程共享参数,所以可逆神经网络可以用于学习非线性的变换,并且可以无损重建逆向过程的函数。如果将和/>定义为第i个可逆块的输出,同时设定/>其中/>是根据下采样任务变换的分解块,那么第i个可逆块的前向过程可以表示为:
其中,和/>分别表示第i个可逆块生成的低频信息和高频信息,/>ρ(·)和ψ(·)都代表的是稠密网络。通过利用可逆块的双向性,第i个可逆块的逆向过程可以表示为:
可逆图像缩放模块的目标是对可逆的秘密图像进行缩放。假设载体图像和秘密图像大小相同,那么当需要隐藏m×n张秘密图像时,秘密图像需要通过可逆图像缩放模块进行下采样其中下采样倍数为m×n。那么下采样的过程中,要求可逆图像缩放模块的前向过程生成的下采样后的秘密图像包含尽可能多的秘密信息,并且保证在逆向过程中,重构的解密图像尽可能与原始的秘密图像相似。
可逆图像缩放模块的前向过程包含一个分解块以及/>个可逆块,而逆向过程则包含了/>个可逆块和一个合成块/>一张秘密图像通过分解块/>中的卷积层/>将/>分解为/>其中包含高频域和低频域/>输出图像能够通过合成块中的逆卷积层将高频域和低频域的信息变换为原始图片大小。最后,将输出的结果经过一个量化块,能够让图像的像素点值成为包含在[0,255]内的整数。
可逆图像隐藏模块的前向隐藏过程是通过将m×n张秘密图像下采样至原始图片的m×n倍后隐藏到载体图片中被分割为的m×n个不重叠的载体图像块后。逆向过程是从含密图像中重构出解密图像。具体来说,可逆图像隐藏模块包含一个离散小波变换(DiscreteWavelet Transform,DWT)/逆离散小波变换块(Inverse Discrete Wavelet Transform,IDWT)和G个可逆块。DWT可以将输入的秘密图像分解为高频信息和低频信息域,然后将秘密信息隐藏到载体图片中。在本文中,默认采用的是哈尔小波变换(Haar WaveletTransform)。在可逆图像隐藏模块的前向传播过程中,下采样后的秘密图像以及载体图像块/>先通过DWT分解为不同域的信息,然后输入到G个可逆块中进行信息交换,生成对应的含密块和一个与图像无关的变量。含密图像经过一个量化块,能够让图像的像素点值成为包含在[0,255]内的整数。在可逆图像隐藏模块的逆向传播过程中,含密图像块和一个随机采样的变量作为输入通过逆向的G个可逆块以及IDWT,得到重构的载体图像/>和还原的解密图像/>接着输出的解密图像将会通过可逆图像缩放模块的逆向传播过程上采样得到最后还原的解密图像/>
在一个具体实施例中,进行了一种基于可逆神经网络的大规模图像隐写方法的实验,包括:
实验设置:
(1)数据集选择
本实施例选择的训练数据集是DIV2K训练数据集,包含了800张分辨率为1024×1024的训练图像。测试图像包含了100张DIV2K的验证集,另外还有从ImageNet。验证集中随机选择的1,000张分辨率为256×256图像以及COCO的5,000张分辨率为256×256的测试集。
(2)对比方法
选择了五种对比方法,分别是Weng、Baluja和UDH,这三个方法都是基于深度卷积神经网络并且能够隐藏和恢复两张秘密图像;DeepMIH和ISN是基于可逆神经网络针对大容量图像隐写的方法,并且能够隐藏和恢复四张秘密图像。为了公平对比,都在相同的数据集上训练和测试。
(3)实施细节
本实施例使用的优化器是Adam,初始学习率为2×10-4,每迭代10K次学习率减半。训练图片块的大小设置为144×144。权重系数分别设置为λ1=1,λ2=4,λ3=5。
(4)衡量指标
采用相关工作中相同的衡量指标,包括:峰值信噪比(Peak Signal to NoiseRatio,PSNR)、结构相似性(Structural Similarity Index,SSIM)、均方根误差(Root-Mean-Square Error,RMSE)、平均绝对误差(Mean Absolute Error,MAE)。
实验结果:
(1)隐写2张秘密图像
当隐藏两个秘密图像时,使用可逆图像缩放模块将秘密图像缩小倍数为2×1。本方法在含密图像和载体图像上实现了PSNR为47.79dB的初始结果,在秘密图像和解密图像上实现了PSNR为35.47dB的初始结果。相较于对比方法而言,ISN在含密图像和载体图像对的PSNR为45.95dB,在秘密图像和解密图像对的结果为36.88dB,而DeepMIH则在含密图像和载体图像对的PSNR结果40.62dB,在秘密图像和解密图像对的PSNR结果为41.70dB。
可以看到,不同的方法对秘密图像的隐藏和恢复两个方面有不同的侧重。由于含密图像既包含秘密图像的信息又包含载体图像的信息,所以在含密图像和载体图像对与秘密图像和解密图像对的质量之间应该存在取舍。所以可以推测,给定一种图像隐写方法,如果不以牺牲秘密图像的隐藏效果为代价,就无法提高解密图像的恢复质量。通过略微增加正则化参数λ1和减半学习率来对结果进行微调。从图3中可以看到本方法可以用线性关系很好地拟合。
在此认为曲线上的每一个点都是等效的,这些点形成了帕累托边界。因此,在下文中,所有的方法都是基于含密图像和载体图像与秘密图像和解密图像的平均得分来评估隐写效果。这个新指标能更好地评价不同图像隐写方法隐藏和恢复的综合性能。
表1.在不同数据集上隐藏两张秘密图像的评估结果
表1展示了在DIV2K、COCO和ImageNet上评估的隐藏两张秘密图像的结果,评估指标包括平均PSNR、SSIM、RMSE和MAE。除了DIV2K数据集外,还在COCO和ImageNet数据集上测试了本方法的性能,以评估本方法跨数据集的可迁移性。从表中可以看到,本方法在DIV2K和ImageNet数据集上都取得了最好的性能,在COCO上也取得了第二好的性能。图4为隐写2张秘密图片结果对比图,其中,图4(a)为GT方法的结果图,图4(b)为Weng方法的结果图,图4(c)为Baluja方法的结果图,图4(d)为ISN方法的结果图,图4(e)为DeepMIH方法的结果图,图4(f)为本发明InvMIHNet方法的结果图。图4从上到下依次是:含密图像、载体图像与含密图像的差值、重构出的第一张解密图像、秘密图像与重构图像的差值、重构出的第二张解密图像以及与原始秘密图像的差值。
(2)隐写4张秘密图像
表2中列出了隐藏4张秘密图像的结果。与ISN和DeepMIH相比,本发明提出的方法实现了最好的图像隐写结果。具体来说,与ISN的隐写结果相比,本方法在DIV2K、COCO和ImageNet数据集上PSNR分别提升了5.6dB、1.2dB和5.1dB。
表2.在不同数据集上隐藏四张秘密图像的评估结果
值得一提的是,尽管DeepMIH实现了第二好的性能,但所需要训练的可学习参数量比本法多4倍左右,各方法具体参数量如表3所示。另外,还注意到,DeepMIH的方法设置中,一张秘密图像对应一个单独的可逆神经网络,所以其参数数量随着秘密图像数量的增加而线性增加,使得该方法很难适用于更大的容量的图像隐写。而本发明提出的图像隐写方法可以在参数数量略有增加的情况下成功地隐藏和恢复更多数量的秘密图像,因此与DeepMIH相比,大大减少了训练时间。
表3.三种隐写方法所需训练的参数量(*表示估计的参数量)
(3)隐写N(N>4)张秘密图像
接下来,对更多秘密图像进行了隐写实验,即N=6,8,9,16,这是相关工作中从未实现过的隐写数量。因为没有其他对比方法可以达到与本实验相同的图片隐写数量,这里只在表4中展示了本方法的图像隐写结果。
表4.大容量图像隐写结果
可以看到,随着秘密图像数量的增加,图像隐藏和恢复的效果逐渐下降。即使秘密图像的数量增加到16张,本方法也能实现PSNR约30.6dB的解密图像重构效果,说明本方法为大容量的图像隐写方法提供了一个强大的基线。
图5-图8分别可视化了6、8、9、16张秘密图像的隐写结果图,实线框线内从上到下依次为载体图像、含密图像和两者的差值,虚线框线内依次为秘密图像的隐写结果,从上到下分别为待隐藏的秘密图像、重构的解密图像和两者的差值。从解密图像和秘密图像的区别中可以看到,因为在图像缩放和隐写的过程中都存在一定的高频信息丢弃,所以这些差异大部分为图像高频域信息。
实验结果表明,所提出的模型在以下方面优于目前最先进的方法:在含密图像的不可感知性、解密图像的恢复精度和对隐蔽的安全性,进一步证明了图像隐写网络模型在超大容量图像隐写上的突出能力。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图9所示,提供了一种基于可逆神经网络的大规模图像隐写装置,包括:图像输入模块902、下采样模块904、图像隐藏模块906、模型预测模块908、模型训练模块910和模型应用模块912,其中:
图像输入模块902,用于获取载体图像和N张待隐藏的秘密图像,将载体图像和秘密图像输入预先设计的图像隐写网络模型中;图像隐写网络模型包括可逆图像缩放模块和可逆图像隐藏模块;
下采样模块904,用于通过可逆图像缩放模块对秘密图像进行下采样,得到N张缩小后的秘密图像;
图像隐藏模块906,用于将载体图像分割成N个非重叠块,通过可逆图像隐藏模块将缩小后的秘密图像依次隐藏到对应的非重叠块中,得到N个含密图像块;其中,缩小后的秘密图像的大小与非重叠块的大小一致;
模型预测模块908,用于将N张含密图像块顺序合并,得到预测的含密图像;
模型训练模块910,用于根据预测的含密图像和预设的损失函数对图像隐写网络模型进行训练,得到训练好的图像隐写网络模型;
模型应用模块912,用于通过训练好的图像隐写网络模型进行图像隐写,得到输出的含密图像。
模型应用模块912还用于获取待解密的含密图像;通过可逆图像隐藏模块的逆向过程对待解密的含密图像进行解密,得到N张初解密图像;通过可逆图像缩放模块对N张初解密图像进行上采样,得到N张解密图像;解密图像的图像分辨率与原始秘密图像相同。
下采样模块904还用于通过可逆图像缩放模块中分解块中的卷积层对秘密图像进行下采样,得到分解块生成的低频信息和高频信息;通过可逆图像缩放模块中的可逆块根据分解块生成的低频信息和高频信息进行信息交换,得到N张缩小后的秘密图像与一个图像无关的变量。
模型应用模块912还用于通过可逆图像缩放模块中的可逆块将初解密图像与一个随机进行采样的变量进行信息交换,得到可逆块逆向过程输出的低频信息和高频信息;通过可逆图像缩放模块中的合成块根据可逆块逆向过程输出的低频信息和高频信息进行上采样,得到N张还原的解密图像。
图像隐藏模块906还用于通过可逆图像隐藏模块中的离散小波变换块将缩小后的秘密图像和非重叠块分解为低频信息和高频信息;通过可逆图像隐藏模块中的可逆块根据离散小波变换块分解得到的低频信息和高频信息进行信息交换,生成N个含密图像块和一个与图像无关的变量。
模型应用模块912还用于通过可逆图像隐藏模块中的可逆块将待解密的含密图像和一个随机采样的变量进行信息交换,得到可逆块输出的低频信息和高频信息;通过可逆图像隐藏模块中的逆离散小波变换块对可逆块输出的低频信息和高频信息进行重构,得到重构的N张初解密图像。
模型训练模块910还用于根据预测的含密图像和预设的损失函数,分别对可逆图像缩放模块和可逆图像隐藏模块进行迭代训练,再对可逆图像缩放模块和可逆图像隐藏模块进行联合训练迭代;其中,预设的损失函数为:
其中,用于引导下采样后的秘密图像含有足有的信息,包括恢复损失函数、下采样损失函数和重构损失函数;/>为隐写损失函数,用于约束输出的含密图像和原始载体图像之间的差别尽可能小。
关于基于可逆神经网络的大规模图像隐写装置的具体限定可以参见上文中对于基于可逆神经网络的大规模图像隐写方法的限定,在此不再赘述。上述基于可逆神经网络的大规模图像隐写装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图10所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于可逆神经网络的大规模图像隐写方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图10中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现上述方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种基于可逆神经网络的大规模图像隐写方法,其特征在于,所述方法包括:
获取载体图像和N张待隐藏的秘密图像,将所述载体图像和所述秘密图像输入预先设计的图像隐写网络模型中;所述图像隐写网络模型包括可逆图像缩放模块和可逆图像隐藏模块;
通过所述可逆图像缩放模块对所述秘密图像进行下采样,得到N张缩小后的秘密图像;
将所述载体图像分割成N个非重叠块,通过所述可逆图像隐藏模块将所述缩小后的秘密图像依次隐藏到对应的非重叠块中,得到N个含密图像块;其中,所述缩小后的秘密图像的大小与所述非重叠块的大小一致;
将所述N张含密图像块顺序合并,得到预测的含密图像;
根据所述预测的含密图像和预设的损失函数对所述图像隐写网络模型进行训练,得到训练好的图像隐写网络模型;
通过所述训练好的图像隐写网络模型进行图像隐写,得到输出的含密图像。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取待解密的含密图像;
通过所述可逆图像隐藏模块的逆向过程对所述待解密的含密图像进行解密,得到N张初解密图像;
通过所述可逆图像缩放模块对所述N张初解密图像进行上采样,得到N张解密图像;所述解密图像的图像分辨率与原始秘密图像相同。
3.根据权利要求2所述的方法,其特征在于,所述可逆图像缩放模块的前向过程包括一个分解块和多个可逆块,通过所述可逆图像缩放模块对所述秘密图像进行下采样,得到N张缩小后的秘密图像,包括:
通过所述可逆图像缩放模块中分解块中的卷积层对所述秘密图像进行下采样,得到所述分解块生成的低频信息和高频信息;
通过所述可逆图像缩放模块中的可逆块根据所述分解块生成的低频信息和高频信息进行信息交换,得到N张缩小后的秘密图像与一个图像无关的变量。
4.根据权利要求3所述的方法,其特征在于,所述可逆图像缩放模块的逆向过程包括多个可逆块和一个合成块,通过所述可逆图像缩放模块对所述N张初解密图像进行上采样,得到N张解密图像,包括:
通过所述可逆图像缩放模块中的可逆块将所述初解密图像与一个随机进行采样的变量进行信息交换,得到可逆块逆向过程输出的低频信息和高频信息;
通过所述可逆图像缩放模块中的合成块根据所述可逆块逆向过程输出的低频信息和高频信息进行上采样,得到N张还原的解密图像。
5.根据权利要求2所述的方法,其特征在于,所述可逆图像隐藏模块的前向过程包括一个离散小波变换块和多个可逆块,通过所述可逆图像隐藏模块将所述缩小后的秘密图像依次隐藏到对应的非重叠块中,得到N个含密图像块,包括:
通过所述可逆图像隐藏模块中的离散小波变换块将所述缩小后的秘密图像和所述非重叠块分解为低频信息和高频信息;
通过所述可逆图像隐藏模块中的可逆块根据所述离散小波变换块分解得到的低频信息和高频信息进行信息交换,生成N个含密图像块和一个与图像无关的变量。
6.根据权利要求5所述的方法,其特征在于,所述可逆图像隐藏模块的逆向过程包括多个可逆块和一个逆离散小波变换块,通过所述可逆图像隐藏模块的逆向过程对所述待解密的含密图像进行解密,得到N张初解密图像,包括:
通过所述可逆图像隐藏模块中的所述可逆块将待解密的含密图像和一个随机采样的变量进行信息交换,得到所述可逆块输出的低频信息和高频信息;
通过所述可逆图像隐藏模块中的所述逆离散小波变换块对所述可逆块输出的低频信息和高频信息进行重构,得到重构的N张初解密图像。
7.根据权利要求1至6任意一项所述的方法,其特征在于,所述可逆图像缩放模块和所述可逆图像隐藏模块中,第i个可逆块的前向过程表示为:
第i个可逆块的逆向过程表示为:
其中,和/>分别表示第i个可逆块生成的低频信息和高频信息,/>ρ(·)和ψ(·)都代表稠密网络。
8.根据权利要求1所述的方法,其特征在于,根据所述预测的含密图像和预设的损失函数对所述图像隐写网络模型进行训练,得到训练好的图像隐写网络模型,包括:
根据所述预测的含密图像和预设的损失函数,分别对所述可逆图像缩放模块和所述可逆图像隐藏模块进行迭代训练,再对所述可逆图像缩放模块和所述可逆图像隐藏模块进行联合训练迭代;其中,所述预设的损失函数为:
其中,用于引导下采样后的秘密图像含有足有的信息,包括恢复损失函数、下采样损失函数和重构损失函数;/>为隐写损失函数,用于约束输出的含密图像和原始载体图像之间的差别尽可能小。
9.一种基于可逆神经网络的大规模图像隐写装置,其特征在于,所述装置包括:
图像输入模块,用于获取载体图像和N张待隐藏的秘密图像,将所述载体图像和所述秘密图像输入预先设计的图像隐写网络模型中;所述图像隐写网络模型包括可逆图像缩放模块和可逆图像隐藏模块;
下采样模块,用于通过所述可逆图像缩放模块对所述秘密图像进行下采样,得到N张缩小后的秘密图像;
图像隐藏模块,用于将所述载体图像分割成N个非重叠块,通过所述可逆图像隐藏模块将所述缩小后的秘密图像依次隐藏到对应的非重叠块中,得到N个含密图像块;其中,所述缩小后的秘密图像的大小与所述非重叠块的大小一致;
模型预测模块,用于将所述N张含密图像块顺序合并,得到预测的含密图像;
模型训练模块,用于根据所述预测的含密图像和预设的损失函数对所述图像隐写网络模型进行训练,得到训练好的图像隐写网络模型;
模型应用模块,用于通过所述训练好的图像隐写网络模型进行图像隐写,得到输出的含密图像。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至8中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310675711.8A CN116703726A (zh) | 2023-06-07 | 2023-06-07 | 基于可逆神经网络的大规模图像隐写方法、装置和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310675711.8A CN116703726A (zh) | 2023-06-07 | 2023-06-07 | 基于可逆神经网络的大规模图像隐写方法、装置和设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116703726A true CN116703726A (zh) | 2023-09-05 |
Family
ID=87830766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310675711.8A Pending CN116703726A (zh) | 2023-06-07 | 2023-06-07 | 基于可逆神经网络的大规模图像隐写方法、装置和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116703726A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117131544A (zh) * | 2023-10-27 | 2023-11-28 | 北京睿航至臻科技有限公司 | 基于深度隐写的数据隐私保护方法 |
-
2023
- 2023-06-07 CN CN202310675711.8A patent/CN116703726A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117131544A (zh) * | 2023-10-27 | 2023-11-28 | 北京睿航至臻科技有限公司 | 基于深度隐写的数据隐私保护方法 |
CN117131544B (zh) * | 2023-10-27 | 2024-01-12 | 北京睿航至臻科技有限公司 | 基于深度隐写的数据隐私保护方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Guo et al. | Deep wavelet prediction for image super-resolution | |
Wen et al. | A primal–dual method for total-variation-based wavelet domain inpainting | |
Chen et al. | Deep-learned regularization and proximal operator for image compressive sensing | |
CN114757832A (zh) | 基于交叉卷积注意力对抗学习的人脸超分辨方法和装置 | |
WO2023138303A1 (zh) | 基于dwt的数字水印方法、系统、电子设备及存储介质 | |
CN113902647B (zh) | 一种基于双闭环网络的图像去模糊方法 | |
CN116703726A (zh) | 基于可逆神经网络的大规模图像隐写方法、装置和设备 | |
Liu et al. | Learning cascaded convolutional networks for blind single image super-resolution | |
Zhu et al. | Generative high-capacity image hiding based on residual CNN in wavelet domain | |
Shi et al. | Multi-scale deep networks for image compressed sensing | |
Lakshman et al. | Image interpolation using shearlet based iterative refinement | |
Ghani et al. | Data and image prior integration for image reconstruction using consensus equilibrium | |
CN114565528A (zh) | 一种基于多尺度和注意力机制的遥感影像降噪方法及系统 | |
Wang et al. | A Noise-Robust Online convolutional coding model and its applications to poisson denoising and image fusion | |
Welker et al. | DriftRec: Adapting diffusion models to blind JPEG restoration | |
Akbarzadeh et al. | An efficient single image super resolution algorithm based on wavelet transforms | |
CN112150360A (zh) | 一种基于稠密残差网络的ivus图像超分辨率重建方法 | |
CN116402668A (zh) | 图像处理方法及装置 | |
Zhang et al. | Super-resolution reconstruction algorithms based on fusion of deep learning mechanism and wavelet | |
CN116523733A (zh) | 图像跨域迁移方法、计算机设备、可读存储介质和程序产品 | |
Ngocho et al. | Single image super resolution with guided back-projection and LoG sharpening | |
Jeong et al. | RAWtoBit: A Fully End-to-end Camera ISP Network | |
Zha et al. | Conditional invertible image re-scaling | |
Kunz | An orientation-selective orthogonal lapped transform | |
Zhang et al. | Image Super-Resolution Using a Wavelet-based Generative Adversarial Network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |