CN114662061B - 基于改进注意力和损失函数的解码编码网络隐写术方法 - Google Patents
基于改进注意力和损失函数的解码编码网络隐写术方法 Download PDFInfo
- Publication number
- CN114662061B CN114662061B CN202210543341.8A CN202210543341A CN114662061B CN 114662061 B CN114662061 B CN 114662061B CN 202210543341 A CN202210543341 A CN 202210543341A CN 114662061 B CN114662061 B CN 114662061B
- Authority
- CN
- China
- Prior art keywords
- image
- secret
- network
- secret image
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 34
- 230000006870 function Effects 0.000 claims abstract description 66
- 238000012549 training Methods 0.000 claims abstract description 13
- 239000002131 composite material Substances 0.000 claims abstract description 12
- 238000007781 pre-processing Methods 0.000 claims description 8
- 239000000126 substance Substances 0.000 claims description 7
- 238000012545 processing Methods 0.000 abstract description 2
- 230000005540 biological transmission Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000005096 rolling process Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 150000001875 compounds Chemical group 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/10—Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Bioethics (AREA)
- Multimedia (AREA)
- Technology Law (AREA)
- Image Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明涉及计算机视觉与图像处理技术,具体涉及一种基于改进注意力和损失函数的解码编码网络隐写术,包括提取秘密图像的二维图像特征和容器图像的注意力掩膜;将提取出的二维图像特征和注意力掩膜在通道层拼接和容器图像拼接后输入编码网络,获得载密影像;将载密图像输入解码网络,恢复出重构秘密图像;将容器图像输入解码网络中,得到生成秘密图像;通过基于像素值均方误差和图像多尺度结构相似性构建的复合函数,构建考虑容器图像和载密图像、秘密图像和重构秘密图像间相似性以及重构秘密图像和生成秘密图像间差异性的总体损失函数,对网络模型进行训练;生成载密图像和重构秘密图像。该隐写术提高了载密影像的不可感知性和鲁棒性。
Description
技术领域
本发明属于计算机视觉与图像处理技术领域,特别涉及一种基于改进注意力和损失函数的解码编码网络隐写术方法。
背景技术
在信息时代,无论是对于个人还是国家来说,在互联网中安全地传送和接收机密信息都是必要的。在信息安全领域,主要有两个研究方向,即密码学和隐写术。密码学通过密文的不可理解性来保护信息的内容,其主要任务是只允许消息的发送方和目标接收方查看其传输内容,对信息进行编码以实现信息隐蔽,但是密码学的不可理解性同时也暴露了信息的重要性。而隐写术是通过密文的不可感知性来保护信息的内容,通过把秘密信息嵌入在数字图像等多媒体载体中而尽可能地不改变载体的视觉和统计特性, 以达到掩盖“正在进行秘密通讯”的目的。与密码学相比,隐写术在传输机密信息时更加谨慎,攻击者在传输过程中不知道秘密信息的存在,即防止除目标接收者以外的任何人知道机密信息的传输事件。隐写术又能理解为是一种将秘密多媒体数据隐藏到其他多媒体中的过程。
互联网中广泛传播的多媒体数据为信息隐藏提供了丰富的秘密载体。目前,根据秘密信息和载体的格式,例如文本、图像、音频、视频、协议等,隐写术可被分为多种类型。其中,以图藏图隐写术是将秘密图像嵌入作为容器的数字图像中,伪装成与原始容器图像相同的载密图像,从而进行信息的秘密传输。衡量图像隐写术性能的指标主要有三个:隐写容量、不可感知性和鲁棒性。隐写容量是指载体容器中可嵌入秘密信息的大小;不可感知性是指生成的载密图像与容器图像无差异,二者在视觉和统计特征上尽可能相似,使得隐写分析检测模型难以区分它们;鲁棒性是指在传输过程中的抗隐写分析能力。这三者之间是互相冲突的,不可能同时达到最优。在具体应用时必须在三者之间寻求某种平衡,对于图像信息的隐藏而言,应努力寻求高的不可感知性和隐写容量,而适当牺牲其鲁棒性。另外,可逆的以图藏图隐写技术意味着能重新从隐写图像中提取出秘密图像,提取出的图像被称为重构图像。重构图像也应该在视觉和统计特性上与秘密图像尽可能地相似,避免信息的损失。
传统的隐写技术基本上是基于最小有效位 (LSB) 技术,而随着深度学习的快速发展,隐写术逐渐开始与深度学习算法相关。卷积神经网络作为深度学习算法中的一种模型,它在大规模数据的自动特征提取方面有着出色的表现。基于卷积神经网络的以图藏图隐写方法能自动更新网络参数,提取出图像特征,不仅扩展了秘密载体和秘密信息嵌入量,实现了将整幅秘密图像藏入容器中,例如以图藏图隐写术,以视频藏图隐写术等等,而且还极大提高了容器媒体与载密媒体的相似度,实现了图像隐写术的不可感知性。
Baluja提出的以编码解码网络为架构的深度隐写模型开创了深度学习应用于隐写术的先河,但是其存在以下问题。第一,因为其损失函数只是逐像素计算距离的均方误差损失函数,其生成图像与原始图像相比,在整体亮度、对比度和分辨率上有所差异;第二,重构秘密图像中的秘密信息会受到容器图像信息的干扰; 第三,秘密隐藏的位置不会根据容器图像本身特点来选择,因此导致隐写术最致命的问题:秘密信息是基本上均匀嵌入容器图像通道中的对应位置,一旦窃密者获取到了原始容器图像,通过计算载密图像与容器图像的残差值,即可得到秘密图像的大致形态和基本信息。
发明内容
针对背景技术存在的问题,本发明提供一种基于改进注意力和损失函数的解码编码网络隐写术方法。
为解决上述技术问题,本发明采用如下技术方案:一种基于改进注意力和损失函数的解码编码网络隐写术方法,包括以下步骤:
S1. 通过卷积块注意力网络提取容器图像的注意力掩膜;通过特征预处理网络提取秘密图像的二维图像特征;
S2. 在通道层拼接容器图像和秘密图像二维图像特征以及注意力掩膜,将拼接图像输入编码网络生成载密图像;
S3. 将载密图像和容器图像输入解码网络,分别得到重构秘密图像和生成秘密图像;
S4. 通过基于像素值均方误差和图像多尺度结构相似性的复合函数,构建考虑容器图像和载密图像、秘密图像和重构秘密图像间相似性以及重构秘密图像和生成秘密图像间差异性的总体损失函数,并据此对网络模型进行训练。
在上述基于改进注意力和损失函数的解码编码网络隐写术方法中,S1的实现包括以下步骤:
S1.1. 将容器图像输入卷积块注意力网络生成注意力掩膜,使编码网络有依据地选择秘密嵌入进容器图像的范围和位置;
S1.2.将秘密图像输入特征预处理网络,获得秘密图像的二维图解特征。
在上述基于改进注意力和损失函数的解码编码网络隐写术方法中,卷积块注意力网络以ResNet50作为基准架构,包含通道注意力模块和空间注意力模块,分别进行通道与空间上的注意力掩膜提取,通道注意力模块和空间注意力模块以先通道再空间的顺序组合。
在上述基于改进注意力和损失函数的解码编码网络隐写术方法中,S3的实现包括以下步骤:
S3.1.向解码网络中输入S2所生成的载密图像,得到重构秘密图像,判断其与原始秘密图像的相似性;
S3.2.向解码网络中输入容器图像,得到生成秘密图像,计算其与重构秘密图像的差异性。
在上述基于改进注意力和损失函数的解码编码网络隐写术方法中,S4实现包括以下步骤:
S4.1.计算基于像素值均方误差和图像多尺度结构相似性的复合函数:
其中,是多尺度结构相似损失函数,考虑了亮度、对比度、结构和分辨率指
标,对局部结构变化很敏感,保留了高频细节;是均方误差损失函数,逐像素计算真值和
预测值的欧氏距离,是多尺度结构相似损失和均方误差损失在复合函数中占比的平衡参
数;是高斯分布参数;
S4.2.构建考虑容器图像和载密图像、秘密图像和重构秘密图像间相似性以及重构秘密图像和生成秘密图像间差异性的总体损失函数:
其中,代表隐写损失函数,代表容器图像与载密图像的误差项,代表秘密图像与重构秘密图像的误差项,代表重构秘密图像与
生成秘密图像的误差,λc、λs、λr分别代表容器图像与载密图像的误差项、秘密图像与重
构秘密图像的误差项和重构秘密图像与生成秘密图像的误差在隐写损失函数中占比的平
衡参数。
与现有技术相比,本发明的有益效果:
1、本发明对Baluja提出的方法进行了改进。编码解码网络的框架下,引入卷积块注意力模型,用于获取容器图像的空间和通道注意力掩膜,使得网络能明确地学习到容器图像的注意力中心和不显眼区域,以更新秘密嵌入进容器的位置,防止窃密者可以通过计算载密图像与容器图像的残差值来获取秘密图像,提升了载密图像的安全性和鲁棒性,更好地确定秘密嵌入的区域。
2、本发明使用一个复合函数来指导图像训练,提高了载密图像和容器图像、秘密图像和重构秘密图像在亮度、对比度、分辨率上的相似度,提升了载密图像的不可感知性。
3、本发明将重构秘密图像和生成秘密图像的差异引入损失值中,提高了载密图像和容器图像、秘密图像和重构秘密图像的整体相似度,尽可能避免了容器图像信息对于重构秘密图像的影响,减少重构秘密图像中信息的损失,提高了重建秘密图像与原秘密图像的相似性。
附图说明
图1为本发明一个实施例基于改进注意力和损失函数的解码编码网络隐写术方法步骤流程图;
图2为本发明一个实施例网络前向计算流程示意图;
图3为本发明一个实施例图像隐写和重构的样本结果示例图;
图4为本发明一个实施例图像隐写和重构的训练过程示例图。
具体实施方式
下面将结合本发明实施例对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合具体实施例对本发明作进一步说明,但不作为本发明的限定。
本实施例旨在解决现有解码编码网络隐写术中由于可通过载密图像与容器图像的残差图而得到秘密图像的相关信息,重构秘密图像会受到容器图像信息的影响而降低了与原秘密图像的相似度,以及损失函数只考虑到像素值而导致载密图像与容器图像存在亮度、对比度以及分辨率差异的问题。本实施例在结构相似度指标和峰值信噪比指标方面都有所提升,在残差图上不再显示秘密图像的大致轮廓,提高了载密影像的不可感知性和鲁棒性。
本实施例是通过以下技术方案来实现的,如图1所示,一种基于改进注意力和损失函数的解码编码网络隐写术方法,可以将一张彩色图像不可见地隐藏到一张同等大小的彩色图像中,包括以下步骤:
1)、通过卷积块注意力网络提取容器图像的注意力掩膜;通过特征预处理网络提取秘密图像的二维图像特征;
2)、在通道层拼接容器图像和秘密图像二维特征以及注意力掩膜,将拼接图像输入编码网络生成载密图像;
3)、将载密图像和容器图像输入解码网络,分别得到重构秘密图像和生成秘密图像;
4)、通过基于像素值均方误差和图像多尺度结构相似性的复合函数,构建了考虑容器图像和载密图像、秘密图像和重构秘密图像间相似性以及重构秘密图像和生成秘密图像间差异性的总体损失函数,并据此对网络模型进行训练;
5)、通过结构相似度指标和峰值信噪比指标验证模型性能。
而且,卷积块注意力网络机制为:卷积块注意力网络以ResNet50作为基准架构,包含两个独立的子模块,通道注意力模块和空间注意力模块,分别进行通道与空间上的注意力掩膜提取,子模块以先通道再空间的顺序组合。将容器图像输入卷积块注意力网络生成注意力掩膜,据此使编码网络有依据地选择秘密嵌入进容器图像的范围和位置。
而且,整体网络训练目标如下:
a)、对于卷积块注意力网络和特征预处理网络,其参数也会随着模型训练而更新,分别学习容器图像适于被嵌入的区域和秘密图像适于嵌入容器图像的特征组合;
b)、编码网络要使得载密图像和容器图像尽可能地相似,解码网络要使得重构秘密图像和秘密图像尽可能地相似、重构秘密图像和生成秘密图像尽可能地无关;
而且,步骤4)所述的复合函数表示为:
其中,是多尺度结构相似损失函数,考虑了亮度、对比度、结构和分辨率指
标,对局部结构变化很敏感,保留了高频细节;是均方误差损失函数,逐像素计算真值和
预测值的欧氏距离,是多尺度结构相似损失和均方误差损失在复合函数中占比的平衡参
数;是高斯分布参数。
而且,步骤4)所述的总体损失函数表示为:
其中,代表隐写损失函数,代表容器图像与载密图像的误差项,代表秘密图像与重构秘密图像的误差项,代表重构秘密图像与
生成秘密图像的误差,λc、λs、λr分别代表容器图像与载密图像的误差项、秘密图像与重
构秘密图像的误差项和重构秘密图像与生成秘密图像的误差在隐写损失函数中占比的平
衡参数。
具体实施时,一种基于改进注意力和损失函数的编码解码网络隐写术方法,适用于将彩色秘密图像嵌入到彩色容器图像中。该隐写术方法通过使用数据集对模型进行训练得到最优模型参数,网络前向计算流程如图2所示,其主要步骤包括:
在信息论中,自然图像中有三种类型的区域:纹理、边缘和平滑区域。纹理和边缘
代表图像的高频部分,平滑区域代表图像的低频部分。为了保证载密图像的安全性,秘密图
像的像素不应嵌入到平滑区域,而应嵌入到复杂边缘和纹理中,因此引入注意力机制模型
来帮助编码解码网络明确地学习到这一特征,帮助提取容器图像的结构特征,通过强调和
抑制图像信息来增强网络内的信息流动,有助于模型对容器图像的注意力中心和不显眼区
域的感知。本实施例使用卷积块注意力网络以实现注意力机制,卷积块注意力网络
以ResNet50作为基准架构,包含两个独立的子模块,具体步骤如下:
本实施例通过如下步骤对上述四个子网络组成的网络进行整体训练:
步骤201、通过基于像素值均方误差和图像多尺度结构相似性构建的复合函数,构建了考虑容器图像和载密图像、秘密图像和重构秘密图像间相似性以及重构秘密图像和生成秘密图像间差异性的总体损失函数,将三者按照一定权重组合得到损失函数值,并据此对网络模型进行训练。其中复合函数的计算公式为:
其中,是多尺度结构相似损失函数,考虑了亮度、对比度、结构和分辨率指
标,对局部结构变化很敏感,保留了高频细节;是均方误差损失函数,逐像素计算真值和
预测值的欧氏距离,是多尺度结构相似损失和均方误差损失在复合函数中占比的平衡参
数;是高斯分布参数;进一步地,总体损失函数表示为:
其中,代表隐写损失函数,代表容器图像与载密图像的误差项,代表秘密图像与重构秘密图像的误差项,代表重构秘密图像与
生成秘密图像的误差,λc、λs、λr分别代表容器图像与载密图像的误差项、秘密图像与重
构秘密图像的误差项和重构秘密图像与生成秘密图像的误差在隐写损失函数中占比的平
衡参数。值得提醒的是,容器图像与载密图像的误差项在训练过程中不会参与更新解码
网络的参数。
步骤202、通过结构相似度指标和峰值信噪比指标计算载密图像与容器图像的相似度、秘密图像与重构秘密图像的相似度验证模型性能。
本实施例在解码编码网络的框架下,改进了损失函数及其损失值的计算,考虑到了重构秘密图像信息不该受到载体图像信息的影响,同时也考虑到图像的相似性,除了逐像素点的差异值要小,整体的亮度、对比度以及分辨率也要极可能地相似。如图3所示,为本实施例在FAIR1M训练集进行图像隐写的样本结果示例图,可以看到载密图像和原始载体图像、重构秘密图像与原始秘密图像相似度极高。
本实施例在编码解码网络的框架下,引入卷积块注意力模块,用于获取容器图像的空间和通道掩膜根据注意力权重,对影像上某些区域设为不适合隐藏秘密数据的位置,使其不参加参数的计算、统计和更新。通过观察本实施例进行试验后的载密图像与容器图像的残差图图3,可以更清楚地观察到,使用本实施例隐写术逐步训练后,秘密信息从一开始的均匀分布,到有权重差异地分布在了容器图像中,且主要分布在纹理复杂的区域,载密图像和容器图像残差值并不能显示出秘密图像的大致轮廓,以此提高了载密图像的安全性。
以上仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。
Claims (5)
1.一种基于改进注意力和损失函数的解码编码网络隐写术方法,其特征在于:包括以下步骤:
S1. 通过卷积块注意力网络提取容器图像的注意力掩膜;通过特征预处理网络提取秘密图像的二维图像特征;
S2. 在通道层拼接容器图像和秘密图像二维图像特征以及注意力掩膜,将拼接图像输入编码网络生成载密图像;
S3. 将载密图像和容器图像输入解码网络,分别得到重构秘密图像和生成秘密图像;
S4. 通过基于像素值均方误差和图像多尺度结构相似性的复合函数,构建考虑容器图像和载密图像、秘密图像和重构秘密图像间相似性以及重构秘密图像和生成秘密图像间差异性的总体损失函数,并据此对网络模型进行训练。
2.根据权利要求1所述基于改进注意力和损失函数的解码编码网络隐写术方法,其特征在于:S1的实现包括以下步骤:
S1.1. 将容器图像输入卷积块注意力网络生成注意力掩膜,使编码网络有依据地选择秘密嵌入进容器图像的范围和位置;
S1.2.将秘密图像输入特征预处理网络,获得秘密图像的二维图解特征。
3.根据权利要求2所述基于改进注意力和损失函数的解码编码网络隐写术方法,其特征在于:卷积块注意力网络以ResNet50作为基准架构,包含通道注意力模块和空间注意力模块,分别进行通道与空间上的注意力掩膜提取,通道注意力模块和空间注意力模块以先通道再空间的顺序组合。
4.根据权利要求1所述基于改进注意力和损失函数的解码编码网络隐写术方法,其特征在于:S3的实现包括以下步骤:
S3.1.向解码网络中输入S2所生成的载密图像,得到重构秘密图像,判断其与原始秘密图像的相似性;
S3.2.向解码网络中输入容器图像,得到生成秘密图像,计算其与重构秘密图像的差异性。
5.根据权利要求1所述基于改进注意力和损失函数的解码编码网络隐写术方法,其特征在于:S4实现包括以下步骤:
S4.1.计算基于像素值均方误差和图像多尺度结构相似性的复合函数:
其中,是多尺度结构相似损失函数,考虑了亮度、对比度、结构和分辨率指标,对
局部结构变化很敏感,保留了高频细节;是均方误差损失函数,逐像素计算真值和预测
值的欧氏距离,α是多尺度结构相似损失和均方误差损失在复合函数中占比的平衡参数;是高斯分布参数;
S4.2.构建考虑容器图像和载密图像、秘密图像和重构秘密图像间相似性以及重构秘密图像和生成秘密图像间差异性的总体损失函数:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210543341.8A CN114662061B (zh) | 2022-05-19 | 2022-05-19 | 基于改进注意力和损失函数的解码编码网络隐写术方法 |
US18/199,388 US20230376614A1 (en) | 2022-05-19 | 2023-05-19 | Method for decoding and encoding network steganography utilizing enhanced attention mechanism and loss function |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210543341.8A CN114662061B (zh) | 2022-05-19 | 2022-05-19 | 基于改进注意力和损失函数的解码编码网络隐写术方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114662061A CN114662061A (zh) | 2022-06-24 |
CN114662061B true CN114662061B (zh) | 2022-08-30 |
Family
ID=82036529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210543341.8A Active CN114662061B (zh) | 2022-05-19 | 2022-05-19 | 基于改进注意力和损失函数的解码编码网络隐写术方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230376614A1 (zh) |
CN (1) | CN114662061B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117579837B (zh) * | 2024-01-15 | 2024-04-16 | 齐鲁工业大学(山东省科学院) | 一种基于对抗压缩图像的jpeg图像隐写方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7233948B1 (en) * | 1998-03-16 | 2007-06-19 | Intertrust Technologies Corp. | Methods and apparatus for persistent control and protection of content |
US11080809B2 (en) * | 2017-05-19 | 2021-08-03 | Google Llc | Hiding information and images via deep learning |
CN109492416B (zh) * | 2019-01-07 | 2022-02-11 | 南京信息工程大学 | 一种基于安全区域的大数据图像保护方法和系统 |
CN113989092B (zh) * | 2021-10-21 | 2024-03-26 | 河北师范大学 | 基于分层对抗性学习的图像隐写方法 |
-
2022
- 2022-05-19 CN CN202210543341.8A patent/CN114662061B/zh active Active
-
2023
- 2023-05-19 US US18/199,388 patent/US20230376614A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230376614A1 (en) | 2023-11-23 |
CN114662061A (zh) | 2022-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110232651B (zh) | 一种基于分块预测及差值直方图平移的可逆信息隐藏方法 | |
Wang et al. | HidingGAN: High capacity information hiding with generative adversarial network | |
CN105512999A (zh) | 一种双变换的彩色图像全息水印方法 | |
CN114662061B (zh) | 基于改进注意力和损失函数的解码编码网络隐写术方法 | |
Rai et al. | Analysis of image steganography techniques: a survey | |
CN107346528A (zh) | 一种基于双图可逆脆弱水印的图像篡改检测方法 | |
Yang et al. | Block-based colour image steganography using smart pixel-adjustment | |
Almazaydeh | Secure RGB image steganography based on modified LSB substitution | |
CN105741222B (zh) | 一种基于像素子集嵌入率估计的隐写信息定位方法 | |
CN102315931B (zh) | 机密信息的游动编码隐藏方法 | |
Yin et al. | Reversible data hiding in binary images by flipping pattern pair with opposite center pixel | |
CN114398649A (zh) | 基于预测误差直方图移动的可逆数据隐藏方法 | |
Xintao et al. | Hide the image in fc-densenets to another image | |
Krishna et al. | Lossless embedding using pixel differences and histogram shifting technique | |
CN114630130B (zh) | 一种基于深度学习的换脸视频溯源方法及系统 | |
CN102945542A (zh) | 一种感兴趣区域认证和篡改检测数字水印方法 | |
Gui et al. | Improved payload location for LSB matching steganography | |
Brar et al. | Double layer image security system using encryption and steganography | |
Fadhil et al. | Improved Security of a Deep Learning-Based Steganography System with Imperceptibility Preservation | |
Yang et al. | Reversible data hiding in the spatial and frequency domains | |
Zhong et al. | Deep Learning based Image Watermarking: A Brief Survey | |
Sumalatha et al. | Local content based image authentication for tamper localization | |
Fu et al. | Reliable information hiding based on support vector machine | |
Zhao et al. | Research on Image Steganography Based on Multiple Expansion Generation Adversarial Network | |
Chen et al. | Double-layer data embedding scheme based on three-pixel differences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |