CN112487365A - 信息隐写方法及信息检测方法及装置 - Google Patents
信息隐写方法及信息检测方法及装置 Download PDFInfo
- Publication number
- CN112487365A CN112487365A CN201910858185.2A CN201910858185A CN112487365A CN 112487365 A CN112487365 A CN 112487365A CN 201910858185 A CN201910858185 A CN 201910858185A CN 112487365 A CN112487365 A CN 112487365A
- Authority
- CN
- China
- Prior art keywords
- information
- neural network
- network model
- convolutional neural
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 128
- 238000001514 detection method Methods 0.000 title claims description 34
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 411
- 238000012549 training Methods 0.000 claims abstract description 144
- 230000008569 process Effects 0.000 claims abstract description 23
- 230000002441 reversible effect Effects 0.000 claims abstract description 21
- 238000000605 extraction Methods 0.000 claims description 37
- 230000004927 fusion Effects 0.000 claims description 35
- 230000006870 function Effects 0.000 claims description 26
- 238000007781 pre-processing Methods 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 20
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 13
- 238000003062 neural network model Methods 0.000 claims description 10
- 238000012795 verification Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 18
- 230000004913 activation Effects 0.000 description 7
- 238000010606 normalization Methods 0.000 description 5
- 230000003042 antagnostic effect Effects 0.000 description 4
- 241001522296 Erithacus rubecula Species 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/10—Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
- G06F21/106—Enforcing content protection by specific content processing
- G06F21/1063—Personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/10—Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/467—Embedding additional information in the video signal during the compression process characterised by the embedded information being invisible, e.g. watermarking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computer Security & Cryptography (AREA)
- Technology Law (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种信息隐写方法,通过将获取到的载体对象和待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象;之后,再根据所述载体对象和所述目标残差对象,获得目标隐写对象。本申请通过引入逆隐写卷积神经网络模型,并将所述逆隐写卷积神经网络模型输出的逆载体对象作为样本对象用于训练获得所述目标隐写卷积神经网络;同时,在生成隐写对象中,先获取与所述载体对象和所述待嵌入信息对应的目标残差对象,再根据所述载体对象和所述目标残差对象获得最终的目标隐写对象,可以大大增加目标隐写对象中的嵌入信息的安全性。
Description
技术领域
本申请涉及计算机技术领域,具体涉及一种信息隐写方法、装置、电子设备和存储设备,本申请同时涉及一种信息检测方法、装置、电子设备和存储设备。
背景技术
随着数字媒体技术以及互联网技术的发展,在信息传递或针对图像、视频等对象提供数字版权保护时,通过信息隐写方法来隐蔽的传输信息这一方式受到了人们越来越多的关注,所述信息隐写方法是指将待传递信息或数字版权信息等嵌入信息通过伪装的方式隐蔽的写入载体对象以获得对应的、包含所述嵌入信息的隐写对象的方法。
近些年来,基于生成对抗网络的信息隐写方法被逐渐使用,所述基于生成对抗网络的信息隐写方法是指使用包括用于生成隐写对象的隐写卷积神经网络模型、用于区分输入对象是否包括嵌入信息的二元分类卷积神经网络模型,以及用于从隐写对象中提取嵌入信息的隐写信息提取卷积神经网络模型,其核心思想是采用对抗训练的策略,即使用所述隐写卷积神经网络模型的输入及输出对象作为所述二元分类卷积神经网络模型的输入对象,使用所述二元分类卷积神经网络模型来检查所述隐写卷积神经网络模型生成的隐写对象的隐蔽性,进而使所述两个卷积神经网络模型互相进行博弈,并在博弈的过程中使所述两个卷积神经网络模型的性能得到逐步改善,之后,使用性能稳定的所述隐写卷积神经网络模型来进行信息隐写。
目前基于生成对抗网络的信息隐写方法虽然能够使获得的隐写对象中的嵌入信息的隐蔽性得到一定的提高,但仍具备一定的弊端。首先,其所使用的对抗信息并不够准确,上述方法中用于针对隐写卷积神经网络模型进行对抗训练的二元分类网络的输入数据是隐写卷积神经网络模型的输入和输出数据,即载体对象和对应的隐写对象,两者之间的相关性并不大;其次,上述方法中的隐写卷积神经网络模型结构相对简单,使用该隐写卷积神经网络模型获得的隐写对象中的嵌入信息容易被解析出来并被破坏。
发明内容
本申请提供一种信息隐写方法,以解决现有的基于生成对抗网络的信息隐写方法中的对抗信息不够准确,以及获得的隐写对象中的嵌入信息容易被破坏的问题。
本申请提供一种信息隐写方法,包括:
获取载体对象和待嵌入信息;
将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,其中,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象;
根据所述载体对象和所述目标残差对象,获得嵌入所述待嵌入信息的目标隐写对象。
可选的,所述目标隐写卷积神经网络模型为残差学习卷积神经网络模型;
所述将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,包括:
将所述载体对象和所述待嵌入信息输入到所述残差学习卷积神经网络模型中,获取所述目标残差对象。
可选的,所述将所述载体对象和所述待嵌入信息输入到所述残差学习卷积神经网络模型中,获取所述目标残差对象,包括:
对所述载体对象和所述待嵌入信息进行融合处理,获取对象融合信息;
将所述对象融合信息输入到所述残差学习卷积神经网络模型中,获取所述目标残差对象。
可选的,所述对所述载体对象和所述待嵌入信息进行融合处理,获取对象融合信息,包括:
对所述待嵌入信息进行融合预处理,获取预处理待嵌入信息,其中,所述预处理待嵌入信息的空间尺寸与所述载体对象的空间尺寸一致;
根据所述预处理待嵌入信息和所述载体对象,获取所述对象融合信息。
可选的,所述对所述待嵌入信息进行融合预处理,获取预处理待嵌入信息,包括:
根据所述载体对象的空间尺寸信息,对所述待嵌入信息进行复制处理,获取与所述载体对象的空间尺寸一致的预处理待嵌入信息。
可选的,所述根据所述预处理待嵌入信息和所述载体对象,获取所述对象融合信息,包括:
对所述预处理待嵌入信息和所述载体对象进行相加处理,获得所述对象融合信息。
可选的,所述残差学习卷积神经网络模型包括至少一个残差块和一个全连接层,其中,所述全连接层的通道数与所述载体对象的通道数相同;
所述将所述对象融合信息输入到所述残差学习卷积神经网络模型中,获取所述目标残差对象,包括:
使用所述至少一个残差块对所述对象融合信息进行处理,获取待处理残差对象;
使用所述全连接层对所述待处理残差对象进行处理,获取所述目标残差对象。
可选的,所述根据所述载体对象和所述目标残差对象,获得嵌入所述待嵌入信息的目标隐写对象,包括:
对所述载体对象和所述目标残差对象进行相加处理,获取所述目标隐写对象。
可选的,所述目标隐写卷积神经网络模型,通过以下步骤获得:
获取原始隐写卷积神经网络模型;
将所述逆隐写卷积神经网络模型和所述原始隐写卷积神经网络模型进行对抗训练,使所述原始隐写卷积神经网络模型收敛,将收敛后的所述原始隐写卷积神经网络模型作为所述目标隐写卷积神经网络模型。
可选的,所述将所述逆隐写卷积神经网络模型和所述原始隐写卷积神经网络模型进行对抗训练,使所述原始隐写卷积神经网络模型收敛,包括:
获取第一判别卷积神经网络模型和第二判别卷积神经网络模型,其中,所述第一判别卷积神经网络模型用于判别接收的对象是否包括嵌入信息,所述第二判别卷积神经网络模型用于判别接收的对象是原始载体对象还是所述逆载体对象;
将所述原始隐写卷积神经网络模型,所述逆隐写卷积神经网络模型,所述第一判别卷积神经网络模型和所述第二判别卷积神经网络模型进行对抗训练,使所述原始隐写卷积神经网络模型收敛。
可选的,所述将所述原始隐写卷积神经网络模型,所述逆隐写卷积神经网络模型,所述第一判别卷积神经网络模型和所述第二判别卷积神经网络模型进行对抗训练,使所述原始隐写卷积神经网络模型收敛,包括:
获取原始训练载体对象,并获取原始训练待嵌入信息;
将所述原始训练载体对象和所述原始训练待嵌入信息输入到所述原始隐写卷积神经网络模型中,获取原始训练隐写对象;
将所述原始训练隐写对象输入到所述逆隐写卷积神经网络模型中,获取逆训练载体对象;
使用所述原始训练隐写对象和所述原始训练载体对象对所述第一判别卷积神经网络模型进行训练;
使用所述原始训练载体对象和所述逆训练载体对象对所述第二判别卷积神经网络模型进行训练;
在对上述卷积神经网络模型进行训练的过程中,使用上述卷积神经网络模型的损失函数调整所述卷积神经网络模型的参数,使所述原始隐写卷积神经网络模型收敛。
可选的,所述将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,包括:
对所述待嵌入信息进行加密处理,获取加密后的待嵌入信息;
将所述载体对象和所述加密后的待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象。
本申请还提供一种信息隐写装置,包括:
信息获取单元,用于获取载体对象和待嵌入信息;
目标残差对象获取单元,用于将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,其中,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象;
目标隐写对象获取单元,用于根据所述载体对象和所述目标残差对象,获得嵌入所述待嵌入信息的目标隐写对象。
可选的,所述待检测对象中的嵌入信息为经过加密处理的信息;
所述方法,还包括:
对所述目标嵌入信息进行解密处理,获取解密后的目标嵌入信息。
可选的,所述目标嵌入信息为针对目标对象进行权限验证的信息;
所述方法,还包括:
根据所述目标嵌入信息对所述目标对象进行验证处理。
本申请还提供一种电子设备,包括:
处理器;
存储器,用于存储信息隐写方法的程序,该设备通电并通过所述处理器运行所述隐写对象的获取方法的程序后,执行下述步骤:
获取载体对象和待嵌入信息;
将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,其中,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象;
根据所述载体对象和所述目标残差对象,获得嵌入所述待嵌入信息的目标隐写对象。
本申请还提供一种存储设备,存储有信息隐写方法的程序,该程序被处理器运行,执行下述步骤:
获取载体对象和待嵌入信息;
将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,其中,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象;
根据所述载体对象和所述目标残差对象,获得嵌入所述待嵌入信息的目标隐写对象。
本申请还提供一种信息检测方法,包括:
获取被隐写入嵌入信息的待检测对象;
将所述待检测对象输入到隐写信息提取卷积神经网络模型中,获得所述待检测对象中被嵌入的目标嵌入信息,其中,所述隐写信息提取卷积神经网络模型是通过与用于生成隐写对象的目标隐写卷积神经网络模型和逆隐写卷积神经网络模型进行对抗训练得到的模型,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象。
本申请还提供一种信息检测装置,包括:
待检测对象获取单元,用于获取被隐写入嵌入信息的待检测对象;
目标嵌入信息获取单元,用于将所述待检测对象输入到隐写信息提取卷积神经网络模型中,获得所述待检测对象中被嵌入的目标嵌入信息,其中,所述隐写信息提取卷积神经网络模型是通过与用于生成隐写对象的目标隐写卷积神经网络模型和逆隐写卷积神经网络模型进行对抗训练得到的模型,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象。
本申请还提供一种电子设备,包括:
处理器;
存储器,用于存储信息检测方法的程序,该设备通电并通过所述处理器运行所述信息检测方法的程序后,执行下述步骤:
获取被隐写入嵌入信息的待检测对象;
将所述待检测对象输入到隐写信息提取卷积神经网络模型中,获得所述待检测对象中被嵌入的目标嵌入信息,其中,所述隐写信息提取卷积神经网络模型是通过与用于生成隐写对象的目标隐写卷积神经网络模型和逆隐写卷积神经网络模型进行对抗训练得到的模型,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象。
本申请还提供一种存储设备,存储有信息检测方法的程序,该程序被处理器运行,执行下述步骤:
获取被隐写入嵌入信息的待检测对象;
将所述待检测对象输入到隐写信息提取卷积神经网络模型中,获得所述待检测对象中被嵌入的目标嵌入信息,其中,所述隐写信息提取卷积神经网络模型是通过与用于生成隐写对象的目标隐写卷积神经网络模型和逆隐写卷积神经网络模型进行对抗训练得到的模型,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象。
本申请还提供一种商品对象,包括商品对象本体以及附着于所述商品对象本体上的目标隐写对象,其中,所述目标隐写对象是使用上述信息隐写方法获得的隐写对象。
与现有技术相比,本申请具有以下优点:
本申请提供的一种信息隐写方法,通过将获取到的载体对象和待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象;之后,再根据所述载体对象和所述目标残差对象,获得目标隐写对象。针对现有的基于生成对抗网络的信息隐写方法中的对抗信息不够准确以及获得的隐写对象中的嵌入信息容易被破坏的问题,本申请通过引入逆隐写卷积神经网络模型,并将所述逆隐写卷积神经网络模型输出的逆载体对象作为样本对象用于训练获得所述目标隐写卷积神经网络;同时,在生成隐写对象中,先获取与所述载体对象和所述待嵌入信息对应的目标残差对象,再根据所述载体对象和所述目标残差对象获得最终的目标隐写对象,可以大大增加目标隐写对象中的嵌入信息的安全性。
本申请还提供一种信息检测方法,包括:获取被隐写入嵌入信息的待检测对象;将所述待检测对象输入到隐写信息提取卷积神经网络模型中,获得所述待检测对象中被嵌入的目标嵌入信息。本申请所述图像检测方法,通过引入逆隐写卷积神经网络模型,并将所述逆隐写卷积神经网络模型输出的逆载体对象作为样本对象用于训练获得用于生成隐写对象的目标隐写卷积神经网络和所述隐写信息提取卷积神经网络模型,之后,再使用所述隐写信息提取卷积神经网络从所述待检测对象中,提取目标嵌入信息,可以增加嵌入信息的检测速度。
附图说明
图1是本申请提供的应用场景实施例的示意图。
图2是本申请第一实施例提供的现有的基于生成对抗网络的信息隐写方法的示意图。
图3是本申请第一实施例提供的一种信息隐写方法的流程图。
图4是本申请第一实施例提供的循环生成对抗网络的示意图。
图5是本申请第一实施例提供的目标隐写卷积神经网络模型的示意图。
图6A本申请第一实施例提供的原始载体对象的示意图。
图6B是本申请第一实施例提供的现有的信息隐写方法获得的目标隐写对象的示意图。
图6C是本申请第一实施例提供的本申请的信息隐写方法获得的目标隐写对象的示意图。
图7是本申请第二实施例提供的一种信息检测方法的流程图。
图8是本申请第三实施例提供的一种信息隐写装置的示意图。
图9是本申请第四实施例提供的一种电子设备的示意图。
图10是本申请第六实施例提供的一种信息检测装置的流程图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施的限制。
为了更清楚地展示本申请,先介绍一下本申请实施例提供的信息隐写方法的应用场景。
本申请提供的一些实施例可以应用于客户端与服务器交互的场景,如图1所示,其为本申请提供的应用场景实施例的示意图。客户端首先与服务器建立连接,连接之后客户端发送载体对象和待嵌入信息到服务器,服务器接收所述载体对象和所述待嵌入信息之后,将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,其中,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象;之后,服务器根据所述载体对象和所述目标残差对象,获得嵌入所述待嵌入信息的目标隐写对象,并将包含所述待嵌入信息的所述目标隐写对象发送给客户端,之后客户端接收所述目标隐写对象。
当然,需要说明的是,在图1中,以图像来表示本申请所述载体对象,在具体实施时,所述载体对象也可以是图像之外的对象,如视频、音频等对象,在本申请第一实施例中,为描述方便,以载体图像来举例说明本申请所述信息隐写方法;所述客户端可以是移动终端设备,如手机、平板电脑等,也可以是常用的计算机设备。另外,在具体实施时,也可以将本申请第一实施例所述信息隐写方法单独应用于客户端或服务器设备中,例如,客户端在获取所述载体对象和所述待嵌入信息之后,直接通过客户端中安装的相应的应用程序进行处理,并获取目标隐写对象;当然也可以是服务器在获取载体对象和待嵌入信息之后,直接将获取到的目标隐写对象存储在自身存储或远程存储中,而不需要发送给客户端。上述应用场景仅仅是本申请所述的信息隐写方法的一个具体实施例,提供所述应用场景实施例的目的是便于理解本申请的信息隐写方法,而并非用于限定本申请的信息隐写方法。
本申请第一实施例提供一种信息隐写方法,以下结合图2—图6进行说明。
在介绍本申请所述信息隐写方法之前,首先对现有技术中的基于生成对抗网络的信息隐写方法进行简单的介绍。
如图2所示,其为本申请第一实施例提供的现有的基于生成对抗网络的信息隐写方法的示意图。所述生成对抗网络包括:根据载体对象201和待嵌入信息202,获取对应的隐写对象204的隐写卷积神经网络模型203;以载体对象201和隐写对象204作为输入数据,并判别所述输入数据的类别是否包括嵌入信息的二元分类卷积神经网络模型205;以及从隐写对象204中获取目标隐写信息208的信息提取卷积神经网络模型206。在所述生成对抗网络中,通过隐写卷积神经网络模型203来生成隐写对象204,通过二元分类卷积神经网络模型205来识别其输入数据是否包括嵌入信息,并输出判别结果207,从而使所述生成对抗网络中的卷积神经网络模型在不断的对抗训练的过程中得到增强。
所述隐写卷积神经网络模型203以载体对象201和待嵌入信息202作为输入,其第一层是一个全连接层,之后,全连接层针对输入内容进行处理;再之后,其将全连接层的输出形变为4*4*I*8的表示,其中I是载体对象201的宽度,之后,是由反卷积单元(DeConv,Deconvolution)+批量归一化单元(BN,Batch Normalization)+修正线性单元(ReLU,Rectified Linear Unit)构成的四个处理模块。最后一层是一层激活层,具体为一个双曲正切函数(tanh,hyperbolic tangent function)激活层。
所述信息提取卷积神经网络模型206也是一个卷积神经网络模型,其由4个反卷积和一个全连接层组成。其最后一层是tanh激活层,其余的所有层都使用有渗漏的线性修正单元(LReLU,leaky rectified Linear unit)作为激活函数,并且每一层都包括批量归一化模块。
所述二元分类卷积神经网络模型205的网络结构与所述隐写卷积神经网络模型203类似,区别仅在与其最后一层激活层所使用的激活函数为sigmoid激活函数。
通过上述描述可知,现有的基于生成对抗网络的信息隐写方法中的用于进行对抗训练的二元分类卷积神经网络模型205的输入数据,即其对抗信息是不够准确的。准确的对抗信息应该是与载体对象201和待嵌入信息202对应的其它隐写对象,但通常很难获得这样一张理想的隐写对象用于对抗训练;并且,上述信息隐写方法中的卷积神经网络模型的结构相对简单,其获得的目标隐写对象208的隐蔽性并不强,容易被破坏。
为了解决以上问题,本申请第一实施例提供一种信息隐写方法,以下予以详细介绍。
如图3所示,步骤S301,获取载体对象和待嵌入信息。
所述载体对象,是用于承载嵌入信息的载体,通常可以是图像、音频或视频等对象。在本申请第一实施例中,为描述方便,以载体图像来举例说明。
所述待嵌入信息,是指需要隐蔽传递的信息或用于提供数字版权保护的信息,其具体可以是一段文字信息,也可以是图像信息、音频及视频信息,如公司Logo、合同文件扫描件、音频文件或视频文件等信息。
所述获取载体对象和待嵌入信息,具体是用于实施第一实施例所述信息隐写方法的计算设备,如服务器计算设备或客户端计算设备接收用户或其它计算设备发出的获取目标隐写对象的数据请求消息,并从所述数据请求消息中获取载体对象和待嵌入信息,此处不再赘述。
步骤S302,将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,其中,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象。
所述目标残差对象,是指载体对象与期望获得的目标隐写对象之间的残差形成的对象。具体为将载体对象和待嵌入信息输入到目标隐写卷积神经网络模型中之后,获取到的对象。
所述残差,在数理统计中是指实际观察值与估计值之间的差,其中,估计值也可称为拟合值,观察值也可称为期望值。在本申请第一实施例中,其具体为将本申请第一实施例中的输入数据输入到对应的卷积神经网络模型中之后,由卷积神经网络模型经过相应的处理之后,获得的输出数据与期望数据之间的差。在实际中,通常也可将残差视为误差的观测值。
为了使最终获得的目标隐写对象中的隐写信息不容易被解析并被破坏,本申请第一实施例提供的信息隐写方法,通过引入逆隐写卷积神经网络模型,并使用包括所述逆隐写卷积神经网络模型的循环生成对抗网络来训练获得用于进行信息隐写处理的目标隐写卷积神经网络模型,并使用所述目标隐写卷积神经网络模型来用于进行信息隐写处理,其中,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象。
如图4所示,其为本申请第一实施例提供的循环生成对抗网络的示意图,所述目标隐写卷积神经网络模型,通过以下步骤获得:获取原始隐写卷积神经网络模型;之后,将所述逆隐写卷积神经网络模型和所述原始隐写卷积神经网络模型进行对抗训练,使所述原始隐写卷积神经网络模型收敛,将收敛后的所述原始隐写卷积神经网络模型作为所述目标隐写卷积神经网络模型。
具体来讲,所述将逆隐写卷积神经网络模型和原始隐写卷积神经网络模型进行对抗训练,使原始隐写卷积神经网络模型收敛,包括:获取第一判别卷积神经网络模型和第二判别卷积神经网络模型,其中,所述第一判别卷积神经网络模型用于判别接收的对象是否包括嵌入信息,所述第二判别卷积神经网络模型用于判别接收的对象是原始载体对象还是所述逆载体对象;之后,将所述原始隐写卷积神经网络模型,所述逆隐写卷积神经网络模型,所述第一判别卷积神经网络模型和所述第二判别卷积神经网络模型进行对抗训练,使所述原始隐写卷积神经网络模型收敛。
如图4所示,所述将原始隐写卷积神经网络模型,逆隐写卷积神经网络模型,第一判别卷积神经网络模型和第二判别卷积神经网络模型进行对抗训练,使原始隐写卷积神经网络模型收敛,包括:获取原始训练载体对象,并获取原始训练待嵌入信息;将所述原始训练载体对象和所述原始训练待嵌入信息输入到所述原始隐写卷积神经网络模型中,获取原始训练隐写对象;将所述原始训练隐写对象输入到所述逆隐写卷积神经网络模型中,获取逆训练载体对象;使用所述原始训练隐写对象和所述原始训练载体对象对所述第一判别卷积神经网络模型进行训练;使用所述原始训练载体对象和所述逆训练载体对象对所述第二判别卷积神经网络模型进行训练;在对上述卷积神经网络模型进行训练的过程中,使用上述卷积神经网络模型的损失函数调整所述卷积神经网络模型的参数,使所述原始隐写卷积神经网络模型收敛。
其中,原始训练载体对象以及原始训练待嵌入信息,是用于对所述循环生成对抗网络中的各个卷积神经网络模型进行训练的原始的训练样本数据;原始训练隐写对象是嵌入了原始训练待嵌入信息的原始训练载体对象;逆训练载体对象是将原始训练隐写对象中的原始训练待嵌入信息消除后获得的对象。
所述使用原始训练隐写对象和原始训练载体对象对第一判别卷积神经网络模型进行训练,是指将原始训练隐写对象,或原始训练载体对象作为所述第一判别卷积神经网络模型的输入数据,并获取对应的第一判别结果,其中,所述第一判别结果用于表示第一判别卷积神经网络模型的输入数据是否包含嵌入信息。
所述使用原始训练载体对象和逆训练载体对象对第二判别卷积神经网络模型进行训练,是指将原始训练载体对象,或逆训练载体对象作为第二判别卷积神经网络模型的输入数据,并获取对应的第二判别结果,其中,所述第二判别结果用于表示第一判别卷积神经网络模型的输入数据是未嵌入过嵌入信息的原始训练载体对象还是被消除了嵌入信息的逆训练载体对象。
即,本申请第一实施例通过设计一个循环生成对抗网络,在所述循环生成对抗网络中,获取到原始训练样本数据之后,通过各种具备不同功能的卷积神经网络模型来互相生成对方的训练数据,进而互相的进行对抗博弈,并在对抗博弈的过程中,通过各个卷积神经网络模型各自的损失函数调整各自的参数,以使循环生成对抗网络中的各个卷积神经网络模型收敛。
此处以载体对象为图像进行举例说明,例如,针对原始训练载体对象o_img1和原始待嵌入信息o_msg1,首先,将o_img1和o_msg1输入到原始隐写卷积神经网络模型中,获取原始训练隐写对象o_s_img1;之后,将o_s_img1输入到逆隐写卷积神经网络模型中,获取逆训练载体对象i_img1;之后,将o_img1或o_s_img1输入到第一判别卷积神经网络模型中,获取第一判别结果est_result1;以及,将o_img1或i_img1输入到第二判别卷积神经网络模型中,获取第二判别结果est_result2;此外,还可以将o_s_img1输入到所述隐写信息提取卷积神经网络模型中,以提取o_s_img1中的目标嵌入信息。在以上训练的过程中,通过各个卷积神经网络模型的损失函数调整各自的参数,直至所有的模型达到收敛,之后,将收敛后的各个模型用于后续的信息隐写处理中。
需要说明的是,在循环生成对抗网络中,原始隐写卷积神经网络模型具体为一个残差学习卷积神经网络模型。
所述残差学习卷积神经网络模型是包括至少一个残差块的深度神经网络模型,其输出数据是输入数据与真实期望数据的残差,将其输入数据与其输出的残差相加通常即可获得与期望数据最接近的数据,其通过对每一层的输入数据做一个关联,学习形成对应的残差函数,而残差函数相较于传统的与输入数据没有关联关系的模型函数更容易被优化,进而能够使模型的网络层数大大加深,以能够获得一个性能更加良好的网络模型。
所述残差块(residual block),通常是指包括跳跃连接(shortcut connection)的多个卷积层的组合。其中,所述跳跃连接,也称短路连接,是根据循环神经网络(RNN,Recurrent Neural Network)中的跳跃连接以及门控算法演变而来的,是被用于缓解深度结构中梯度消失问题的技术。
具体到本申请第一实施例中,所述残差学习卷积神经网络模型是包括至少一个残差块和一个全连接层的卷积神经网络模型。其中,所述残差块由卷积模块(Conv,Convolution),批量归一化模块(BN,Batch Normalization),有渗漏的线性修正单元(LReLU,Leaky Rectified Linear Unit)构成;所述全连接层的通道数与载体对象的通道数相同。所述残差块和所述全连接层中的卷积核的大小为5*5,步长为1,填充为2;所述残差块中每一层的通道数均为128,所述全连接层的通道数与原始载体对象的通道数相同;当然,在实际中,也可根据需要将上述中相关的数值设置为其它不同的数值;此处不再赘述。
所述逆隐写卷积神经网络模型的结构与原始隐写网络模型的结构类似,是一个轻量级的端到端的网络模型,此处不再赘述。
所述隐写信息提取卷积神经网络模型用于端到端的提取隐写对象中的嵌入信息。其由四个结构相同的卷积层(Conv+BN+LReLU),一个全连接层和一个tanh激活层构成,其中所述四个结构相同的卷积层的通道数分别为32,64,128和256;所述全连接层用于生成一个与所述原始隐写信息的形状相同的向量数据,所述tanh激活层将所述向量数据中的实数转换到[-1,1]之间,最后,再针对隐写信息提取网络模型输出的数据进行二值化(其中,0视为正数),获得重建的与原始隐写信息对应的目标隐写信息。
所述第一判别卷积神经网络模型和所述第二判别卷积神经网络模型的结构相同,均由四个结构相同的卷积层(Conv+BN+LReLU),一个全连接层和一个sigmoid激活层构成,其中所述四个结构相同的卷积层的通道数分别为32,64,128和256;所述两个网络模型的损失函数为sigmoid交叉熵,并且所述两个网络模型的全连接层的输出为一个数值,sigmoid激活层将所述全连接层的输出转换到[0,1]的区间范围,用于表述所述两个网络模型的输入数据是否为原始载体对象的概率,其中,sigmoid交叉熵是用来衡量神经网络的预测值与实际值的一种方式。
以下针对在对循环生成对抗网络中的卷积神经网络模型进行训练的过程中,使用各个卷积神经网络模型的损失函数调整每一个卷积神经网络模型的参数,并使原始隐写卷积神经网络模型收敛的处理过程进行详细描述。
为了描述方便,以S代表原始隐写卷积神经网络模型,以I代表逆隐写卷积神经网络模型,以H代表隐写信息提取卷积神经网络模型,以D1代表第一判别卷积神经网络模型,以D2代表第二判别卷积神经网络模型,并以θs,θi,θh,θd1和θd2分别代表原始隐写卷积神经网络模型S,逆隐写卷积神经网络模型I,隐写信息提取卷积神经网络模型H,第一判别卷积神经网络模型D1和第二判别卷积神经网络模型D2的参数信息,循环生成对抗网络中各个模型间的输入输出关系可以通过下述公式描述:
表达式1:H(θh,C')=H(θh,S(θs,C,M))
表达式2:I(θi,C')=I(θi,S(θs,C,M))
表达式3:D1(θd1,C,C')=D1(θd1,C,S(θs,C,M))
其中,表达式1用于表示原始隐写卷积神经网络模型的输入输出关系,表达式2用于表示逆隐写卷积神经网络模型的输入输出关系,表达式3用于表示第一判别卷积神经网络模型的输入输出关系,表达式4用于表示第二判别卷积神经网络模型的输入输出关系,C,C',C”和M分别代表原始训练载体对象、原始训练隐写对象、逆训练载体对象和原始训练隐写信息。S(.,.)、I(.,.)、H(.,.)、D1(.,.)和D2(.,.)分别是卷积神经网络模型S、I、H、D1和D2的输出数据。
所述隐写信息提取网络模型的损失函数,可以定义为原始隐写信息M与目标隐写信息M′的欧式距离。其中,损失函数是将随机事件或其有关随机变量的取值映射为非负实数以表示该随机事件的“风险”或“损失”的函数,在计算机领域,损失函数通常用来直观表述卷积神经网络模型的原始数据与处理得到的目标数据之间的差异。
所述隐写信息提取卷积神经网络模型的损失函数可以被描述为:LH(θs,θh,M,C)=d(M,M')=d(M,H(θh,C')),其中,d(.,.)表示欧式距离。
需要说明的是,所述逆隐写卷积神经网络模型I设置的目的是希望能够通过原始训练隐写对象C',获取到原始训练载体对象C,并希望其获取到的对象可以欺骗第二判别卷积神经网络模型D2。由此可知,逆隐写卷积神经网络模型I的损失函数既包括逆训练载体对象C”的质量又包括逆训练载体对象C”引起的损失,其损失函数具体可以描述为:其中,λ用于平衡两项之间的权重。
所述原始隐写卷积网络模型S的输出分别是逆隐写卷积网络模型I,隐写信息提取卷积神经网络模型H和第一判别卷积神经网络模型D1的输入数据,因此,其损失函数可以描述为:其中,λs,λh,λi和λd1用于定义各项之间的权重。
在对循环生成对抗网络中的各个卷积神经网络模型进行训练的过程中,可以通过各个网络模型的损失函数及各个网络模型之间的相互关系,计算各个网络模型中的参数需要更新的差值,进而根据所述差值更新各个网络模型的参数信息,从而实现循环生成对抗网络中各个网络模型的性能优化,进一步的,可以使循环生成对抗网络中的各个卷积神经网络模型收敛,并将收敛后的原始隐写卷积神经网络模型作为用于进行信息隐写处理的目标隐写卷积神经网络模型。
至此,基于循环生成对抗网络,获取到了收敛后的目标隐写卷积神经网络模型,之后,即可使用所述目标隐写卷积神经网络模型针对载体对象和待嵌入信息进行信息隐写处理。
针对现有的基于生成对抗网络的信息隐写方法中的隐写网络模型的结构简单,其生成的隐写对象中的嵌入信息容易被破坏的问题,本申请第一实施例使用上述步骤获得的目标隐写卷积神经网络模型针对载体对象和待嵌入信息进行处理,并获取载体对象和待嵌入信息对应的目标残差对象;之后,再根据目标残差对象和载体对象,获取目标隐写对象。有关获取目标隐写对象的详细步骤将在后续处理中描述,此处,仅针对如何使用所述目标隐写卷积神经网络模型获取与载体对象和待嵌入信息对应的目标残差对象进行详细说明。
以下结合图5,针对所述目标隐写卷积神经网络模型的结构及其处理过程进行详细描述。
请参看图5,其为本申请第一实施例提供的目标隐写卷积神经网络模型的示意图,所述目标隐写卷积神经网络模型具体为一个残差学习卷积神经网络模型,包括至少一个残差块和一个全连接层。关于残差学习卷积神经网络模型的详细介绍在上述描述中已有相关描述,具体可以参看针对原始隐写卷积神经网络模型处的描述,此处不再赘述。
所述将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,包括:将所述载体对象和所述待嵌入信息输入到所述残差学习卷积神经网络模型中,获取所述目标残差对象。
其中,所述将所述载体对象和所述待嵌入信息输入到所述残差学习卷积神经网络模型中,获取所述目标残差对象,包括:对所述载体对象和所述待嵌入信息进行融合处理,获取对象融合信息;将所述对象融合信息输入到所述残差学习卷积神经网络模型中,获取所述目标残差对象。
所述对象融合信息,是指针对不同的数据对象,按照数据本身的特征,将所述不同的数据对象融合在一起,形成的一种同时包括所述不同的数据对象的数据内容的信息,其中,所述不同的数据对象是指可以用二进制形式表示的对象,具体可以为图像、音频、视频或文本信息等对象。在本申请第一实施例中,所述对象融合信息,是指将载体对象和待嵌入信息融合到一起,形成的一种同时包括载体对象和待嵌入信息的数据内容的信息。
所述对所述载体对象和所述待嵌入信息进行融合处理,获取对象融合信息,包括:对所述待嵌入信息进行融合预处理,获取预处理待嵌入信息,其中,所述预处理待嵌入信息的空间尺寸与所述载体对象的空间尺寸一致;根据所述预处理待嵌入信息和所述载体对象,获取所述对象融合信息。
所述预处理待嵌入信息,是指在对载体对象和待嵌入信息进行融合处理之前,为了使载体对象和待嵌入信息的形状,或者空间尺寸一致而针对所述待嵌入信息进行相关的预处理之后,获得的与待嵌入信息对应的信息。
所述对所述待嵌入信息进行融合预处理,获取预处理待嵌入信息,包括:根据所述载体对象的空间尺寸信息,对所述待嵌入信息进行复制处理,获取与所述载体对象的空间尺寸一致的预处理待嵌入信息。
所述根据所述载体对象的空间尺寸信息,对所述待嵌入信息进行复制处理。是指对待嵌入信息对应的二进制序列进行复制,以获得与载体对象的空间尺寸一致的预处理待嵌入信息,其中,具体的复制次数是根据载体对象的空间尺寸信息获取到的。另外,关于如何将待嵌入信息序列化为对应的二进制序列,因为现有技术中有详细描述,此处不再赘述。
所述根据所述预处理待嵌入信息和所述载体对象,获取所述对象融合信息,包括:对所述预处理待嵌入信息和所述载体对象进行相加处理,获得所述对象融合信息。
所述对所述预处理待嵌入信息和所述载体对象进行相加处理。具体是指将预处理待嵌入信息对应的二进制序列数据与载体对象的矩阵数据,按照其空间位置进行相加的一种处理。
例如,载体对象为img1,其形状为h*w*c(其中,h为高度信息,w为宽度信息,c为通道数,且h,w,c均大于0),待嵌入信息为msg1,其对应的二进制的形状为1*l(其中,l大于0),则使用目标隐写卷积神经网络模型获取与img1和msg1对应的目标残差对象res_img1的过程具体为:首先,对待嵌入信息msg1进行融合预处理,获取预处理待嵌入信息msg1-1,即根据载体对象img1的空间尺寸h*w,对msg1进行复制,将msg1对应的二进制消息空间复制h*w次,获取与载体对象img1的空间尺寸一致,即形状为h*w*l的预处理待嵌入信息msg1-1;其次,根据载体对象img1的通道数c,将载体对象img1和预处理待嵌入信息msg1-1连接融合,获取大小为h*w*l*(1+c)的对象融合信息img_msg_1;再其次,将对象融合信息img_msg_1输入到目标隐写卷积神经网络模型中,获取其对应的目标残差对象res_img1。需要说明的是,此处以载体对象为图像进行举例说明如何获取目标残差对象,在具体实施时,针对图像之外的载体对象,如音频、视频等对象,也可使用上述方法获取与音频、视频等对象对应的目标残差对象,此处不再赘述。
此外,需要说明的是,所述将对象融合信息输入到残差学习卷积神经网络模型中,获取目标残差对象。具体为使用目标隐写卷积神经网络模型中的残差块对所述对象融合信息进行处理,获取待处理残差对象;之后,使用目标隐写卷积神经网络模型中的全连接层对待处理残差对象进行处理,获取目标残差对象,此处不再赘述。
在步骤S302之后,执行步骤S303,根据所述载体对象和所述目标残差对象,获得嵌入所述待嵌入信息的目标隐写对象。
在上述步骤中,介绍了在本申请第一实施例提出的循环生成对抗网络的基础上,如何使用其中的逆隐写卷积神经网络模型和其中的原始隐写卷积神经网络模型进行对抗训练,以获取用于进行信息隐写处理的目标隐写卷积神经网络模型。以及,如何使用所述目标隐写卷积神经网络模型,针对步骤S301中获取到的载体对象和待嵌入信息进行处理,获取与载体对象和待嵌入信息对应的目标残差对象。
在获取到与载体对象和待嵌入信息对应的目标残差对象之后,根据所述载体对象和所述目标残差对象,即可获得嵌入所述待嵌入信息的目标隐写对象。
所述据所述载体对象和所述目标残差对象,获得嵌入所述待嵌入信息的目标隐写对象,具体为:对所述载体对象和所述目标残差对象进行相加处理,获取所述目标隐写对象。
例如,在上述步骤中,使用目标隐写卷积神经网络模型,获取到了与载体对象img1和待嵌入信息msg1对应的目标残差对象res_img1;之后,对载体对象和目标残差对象res_img1进行相加处理,即可获得嵌入待嵌入信息msg1的目标隐写对象des_img1。
其中,需要说明的是,所述对所述载体对象和所述目标残差对象进行相加处理,具体为将所述两个对象对应的矩阵数据相加,此处不再赘述。
另外,为了进一步提高信息的安全性,在将待嵌入信息嵌入载体对象之前,还可以对待嵌入信息进行加密处理,以进一步提升信息传递时的安全性。因此,所述将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,包括:对所述待嵌入信息进行加密处理,获取加密后的待嵌入信息;将所述载体对象和所述加密后的待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象。另外,所述对待嵌入信息进行加密处理,可根据待嵌入信息的文件格式,使用与待嵌入信息的文件格式对应的加密算法对待嵌入信息进行加密,其详细过程不再赘述。
至此,即获得了与载体对象和待嵌入信息对应的、嵌入了待嵌入信息的目标隐写对象。
如表1所示,其为本申请第一实施例提供的信息隐写方法与现有技术中的基于生成对抗网络的信息隐写方法的定量比较结果,其中,表1数据是针对图像格式的载体对象为测试数据获取到的比较结果。
表1
其中,像素深度(bpp,bits per pixels)是指一张图像存储每个像素所用的位数,通常用来度量图像的分辨率;
所述解码成功率是指所述两种方法针对未训练的样本数据的解码成功率;
所述检测率是指所述两种方法中的判别网络对隐写对象的识别率;
所述峰值信噪比(PSNR,Peak Signal to Noise Ratio)是用来评鉴图像画质的客观量测法。
如图6A、图6B、图6C所示,其分别为本申请第一实施例提供的原始载体对象的示意图、本申请第一实施例提供的现有的信息隐写方法获得的目标隐写对象的示意图以及本申请第一实施例提供的本申请的信息隐写方法获得的目标隐写对象的示意图,其中,所述对象为图像对象。比较图6B、图6C可知,本申请第一实施例所述信息隐写方法获得的目标隐写对象的画质及图像的视觉效果更好。
根据上述描述可知,本申请第一实施例提供的信息隐写方法中所使用的目标隐写卷积神经网络模型的结构及其进行信息隐写的处理过程相比现有的隐写卷积神经网络模型的结构更加复杂,且信息隐写的处理过程更加隐蔽,其最终获得的目标隐写对象中的嵌入信息的隐蔽性更强,不容易被破坏。
综上所述,本申请提供的信息隐写方法,通过将获取到的载体对象和待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象;之后,再根据所述载体对象和所述目标残差对象,获得目标隐写对象。针对现有的基于生成对抗网络的信息隐写方法中的对抗信息不够准确以及获得的隐写对象中的嵌入信息容易被破坏的问题,本申请通过引入逆隐写卷积神经网络模型,并将所述逆隐写卷积神经网络模型输出的逆载体对象作为样本对象用于训练获得所述目标隐写卷积神经网络;同时,在生成隐写对象中,先获取与所述载体对象和所述待嵌入信息对应的目标残差对象,再根据所述载体对象和所述目标残差对象获得最终的目标隐写对象,可以大大增加目标隐写对象中的嵌入信息的安全性。
在以上描述中,提供了一种信息隐写方法,与上述信息隐写方法相对应,本申请还提供一种信息检测方法,请参看图7所示,其为本申请第二实施例提供的一种信息检测方法的流程图,其中部分步骤在上述第一实施例中已经详细描述,所以此处描述的比较简单,相关之处参见本申请第一实施例提供的一种信息隐写方法中的相关说明即可,下述描述的处理过程仅是示意性的。
如图7所示,其为本申请第二实施例提供的一种信息检测方法的流程图,以下结合图7予以说明。
步骤S701,获取被隐写入嵌入信息的待检测对象。
步骤S702,将所述待检测对象输入到隐写信息提取卷积神经网络模型中,获得所述待检测对象中被嵌入的目标嵌入信息,其中,所述隐写信息提取卷积神经网络模型是通过与用于生成隐写对象的目标隐写卷积神经网络模型和逆隐写卷积神经网络模型进行对抗训练得到的模型,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象。
另外,当待检测对象中的嵌入信息为经过加密处理的信息时,本申请第二实施例所述信息检测方法,在通过上述步骤S702获得待检测图像中的目标嵌入信息之后,还包括:对所述目标嵌入信息进行解密处理,获取解密后的目标嵌入信息。所述对所述目标嵌入信息进行解密处理,具体为使用与对目标嵌入信息进行加密处理的加密算法相对应的解密算法对所述目标嵌入信息进行解密处理,其详细处理过程不再赘述。
此外,当目标嵌入信息为针对目标对象进行权限验证的信息时,在通过上述步骤S702获得待检测图像中的目标嵌入信息之后,还包括:根据所述目标嵌入信息对所述目标对象进行验证处理。
所述目标对象,具体为待进行权限验证的实体对象,其可以为待验证用户、待验证车辆等对象。
在具体实施时,本申请第二实施例所述信息检测方法可应用于不同的场景中,如密码验证、权限校验、版权保护等场景。例如,在应用于车辆门禁管理系统时,可预先使用本申请第一实施例所述信息隐写方法获取包含权限信息的通行证,在对车辆的通行权限进行验证时,所述系统通过连接的图像传感设备,如摄像装置获取车辆上携带的通行证的图像;之后,系统通过本申请第二实施例所述信息检测方法获取所述图像中被隐写入的权限信息,并针对车辆进行相应的权限校验;当验证通过时,允许车辆通过。当然,以上仅为本申请第二实施例所述信息检测方法的其中一种应用场景,在具体实施时,可根据应用场景的不同,对所述信息检测方法进行更为具体的、切合实际的使用,此处不再赘述。
与上述第一实施例提供的一种信息隐写方法相对应,本申请还提供一种信息隐写装置,请参看图8,其为本申请第三实施例提供的一种信息隐写装置的实施例的示意图,由于装置实施例基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可,下述描述的装置实施例仅仅是示意性的。本申请第三实施例提供的一种信息隐写装置包括如下部分:
信息获取单元801,用于获取载体对象和待嵌入信息。
目标残差对象获取单元802,用于将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,其中,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象。
目标隐写对象获取单元803,用于根据所述载体对象和所述目标残差对象,获得嵌入所述待嵌入信息的目标隐写对象。
与本申请第一实施例提供的信息隐写方法相对应的,本申请第四实施例还提供一种电子设备。
如图9所示,所述电子设备包括:
处理器901;
存储器902,用于存储信息隐写方法的程序,该设备通电并通过所述处理器运行所述信息隐写方法的程序后,执行下述步骤:
获取载体对象和待嵌入信息;
将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,其中,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象;
根据所述载体对象和所述目标残差对象,获得嵌入所述待嵌入信息的目标隐写对象。
需要说明的是,对于本申请第四实施例提供的电子设备的详细描述可以参考对本申请第一实施例的相关描述,这里不再赘述。
与本申请第一实施例提供的信息隐写方法相对应的,本申请第五实施例还提供一种存储设备,存储有信息隐写方法的程序,该程序被处理器运行,执行下述步骤:
获取载体对象和待嵌入信息;
将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,其中,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象;
根据所述载体对象和所述目标残差对象,获得嵌入所述待嵌入信息的目标隐写对象。
需要说明的是,对于本申请第五实施例提供的存储设备的详细描述可以参考对本申请第一实施例的相关描述,这里不再赘述。
与上述第二实施例提供的一种信息检测方法相对应,本申请还提供一种信息检测装置,请参看图10,其为本申请第六实施例提供的一种信息检测装置的实施例的示意图,由于装置实施例基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可,下述描述的装置实施例仅仅是示意性的。本申请第六实施例提供的一种信息检测装置包括如下部分:
待检测对象获取单元1001,用于获取被隐写入嵌入信息的待检测对象。
目标嵌入信息获取单元1002,用于将所述待检测对象输入到隐写信息提取卷积神经网络模型中,获得所述待检测对象中被嵌入的目标嵌入信息,其中,所述隐写信息提取卷积神经网络模型是通过与用于生成隐写对象的目标隐写卷积神经网络模型和逆隐写卷积神经网络模型进行对抗训练得到的模型,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象。
与本申请第二实施例提供的信息检测方法相对应的,本申请第七实施例还提供一种电子设备。
所述电子设备的结构请参看图9,所述电子设备包括:
处理器;
存储器,用于存储信息检测方法的程序,该设备通电并通过所述处理器运行所述信息检测方法的程序后,执行下述步骤:
获取被隐写入嵌入信息的待检测对象;
将所述待检测对象输入到隐写信息提取卷积神经网络模型中,获得所述待检测对象中被嵌入的目标嵌入信息,其中,所述隐写信息提取卷积神经网络模型是通过与用于生成隐写对象的目标隐写卷积神经网络模型和逆隐写卷积神经网络模型进行对抗训练得到的模型,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象。
需要说明的是,对于本申请第七实施例提供的电子设备的详细描述可以参考对本申请第二实施例的相关描述,这里不再赘述。
与本申请第二实施例提供的信息检测方法相对应的,本申请第八实施例还提供一种存储设备,存储有信息检测方法的程序,该程序被处理器运行,执行下述步骤:
获取被隐写入嵌入信息的待检测对象;
将所述待检测对象输入到隐写信息提取卷积神经网络模型中,获得所述待检测对象中被嵌入的目标嵌入信息,其中,所述隐写信息提取卷积神经网络模型是通过与用于生成隐写对象的目标隐写卷积神经网络模型和逆隐写卷积神经网络模型进行对抗训练得到的模型,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象。
需要说明的是,对于本申请第八实施例提供的存储设备的详细描述可以参考对本申请第二实施例的相关描述,这里不再赘述。
与本申请第一实施例提供的信息隐写方法相对应,本申请第九实施例还提供一种商品对象,包括商品对象本体以及附着于所述商品对象本体上的目标隐写对象,其中,所述目标隐写对象是使用上述第一实施例提供的信息隐写方法获得的隐写对象。
在具体实施时,所述商品对象可以为图书、瓶装商品、车辆等商品对象,所述附着于所述商品对象本体上的目标隐写对象,可以为附着于商品包装上或者商品包装内部的被嵌入版权信息的隐写对象、被嵌入虚拟货币信息的隐写对象或者被嵌入其它需要隐蔽传递的信息的隐写对象。例如,当所述目标隐写对象为被嵌入虚拟货币信息的隐写对象时,在用户购买商品对象时,可通过商家提供的应用程序通过本申请第二实施例所述信息检测方法识别商品对象本体上的目标隐写图像,并获取目标隐写图像中的虚拟货币信息,其中,所述虚拟货币信息可以为商品积分、虚拟兑换币等用于为商品对象提供增值服务的电子货币的信息。
需要说明的是,对于如何获取目标隐写图像以及如何识别目标隐写图像中的嵌入信息,请具体参看本申请第一实施例所述信息隐写方法以及本申请第二实施例所述信息检测方法中相关部分的描述,此处不再赘述。
本申请虽然以较佳实施例公开如上,但其并不是用来限定本申请,任何本领域技术人员在不脱离本申请的精神和范围内,都可以做出可能的变动和修改,因此本申请的保护范围应当以本申请权利要求所界定的范围为准。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括非暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
Claims (22)
1.一种信息隐写方法,其特征在于,包括:
获取载体对象和待嵌入信息;
将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,其中,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象;
根据所述载体对象和所述目标残差对象,获得嵌入所述待嵌入信息的目标隐写对象。
2.根据权利要求1所述的信息隐写方法,其特征在于,所述目标隐写卷积神经网络模型为残差学习卷积神经网络模型;
所述将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,包括:
将所述载体对象和所述待嵌入信息输入到所述残差学习卷积神经网络模型中,获取所述目标残差对象。
3.根据权利要求2所述的信息隐写方法,其特征在于,所述将所述载体对象和所述待嵌入信息输入到所述残差学习卷积神经网络模型中,获取所述目标残差对象,包括:
对所述载体对象和所述待嵌入信息进行融合处理,获取对象融合信息;
将所述对象融合信息输入到所述残差学习卷积神经网络模型中,获取所述目标残差对象。
4.根据权利要求3所述的信息隐写方法,其特征在于,所述对所述载体对象和所述待嵌入信息进行融合处理,获取对象融合信息,包括:
对所述待嵌入信息进行融合预处理,获取预处理待嵌入信息,其中,所述预处理待嵌入信息的空间尺寸与所述载体对象的空间尺寸一致;
根据所述预处理待嵌入信息和所述载体对象,获取所述对象融合信息。
5.根据权利要求4所述的信息隐写方法,其特征在于,所述对所述待嵌入信息进行融合预处理,获取预处理待嵌入信息,包括:
根据所述载体对象的空间尺寸信息,对所述待嵌入信息进行复制处理,获取与所述载体对象的空间尺寸一致的预处理待嵌入信息。
6.根据权利要求4所述的信息隐写方法,其特征在于,所述根据所述预处理待嵌入信息和所述载体对象,获取所述对象融合信息,包括:
对所述预处理待嵌入信息和所述载体对象进行相加处理,获得所述对象融合信息。
7.根据权利要求3所述的信息隐写方法,其特征在于,所述残差学习卷积神经网络模型包括至少一个残差块和一个全连接层,其中,所述全连接层的通道数与所述载体对象的通道数相同;
所述将所述对象融合信息输入到所述残差学习卷积神经网络模型中,获取所述目标残差对象,包括:
使用所述至少一个残差块对所述对象融合信息进行处理,获取待处理残差对象;
使用所述全连接层对所述待处理残差对象进行处理,获取所述目标残差对象。
8.根据权利要求1所述的信息隐写方法,其特征在于,所述根据所述载体对象和所述目标残差对象,获得嵌入所述待嵌入信息的目标隐写对象,包括:
对所述载体对象和所述目标残差对象进行相加处理,获取所述目标隐写对象。
9.根据权利要求1所述的信息隐写方法,其特征在于,所述目标隐写卷积神经网络模型,通过以下步骤获得:
获取原始隐写卷积神经网络模型;
将所述逆隐写卷积神经网络模型和所述原始隐写卷积神经网络模型进行对抗训练,使所述原始隐写卷积神经网络模型收敛,将收敛后的所述原始隐写卷积神经网络模型作为所述目标隐写卷积神经网络模型。
10.根据权利要求1所述的信息隐写方法,其特征在于,所述将所述逆隐写卷积神经网络模型和所述原始隐写卷积神经网络模型进行对抗训练,使所述原始隐写卷积神经网络模型收敛,包括:
获取第一判别卷积神经网络模型和第二判别卷积神经网络模型,其中,所述第一判别卷积神经网络模型用于判别接收的对象是否包括嵌入信息,所述第二判别卷积神经网络模型用于判别接收的对象是原始载体对象还是所述逆载体对象;
将所述原始隐写卷积神经网络模型,所述逆隐写卷积神经网络模型,所述第一判别卷积神经网络模型和所述第二判别卷积神经网络模型进行对抗训练,使所述原始隐写卷积神经网络模型收敛。
11.根据权利要求10所述的信息隐写方法,其特征在于,所述将所述原始隐写卷积神经网络模型,所述逆隐写卷积神经网络模型,所述第一判别卷积神经网络模型和所述第二判别卷积神经网络模型进行对抗训练,使所述原始隐写卷积神经网络模型收敛,包括:
获取原始训练载体对象,并获取原始训练待嵌入信息;
将所述原始训练载体对象和所述原始训练待嵌入信息输入到所述原始隐写卷积神经网络模型中,获取原始训练隐写对象;
将所述原始训练隐写对象输入到所述逆隐写卷积神经网络模型中,获取逆训练载体对象;
使用所述原始训练隐写对象和所述原始训练载体对象对所述第一判别卷积神经网络模型进行训练;
使用所述原始训练载体对象和所述逆训练载体对象对所述第二判别卷积神经网络模型进行训练;
在对上述卷积神经网络模型进行训练的过程中,使用上述卷积神经网络模型的损失函数调整所述卷积神经网络模型的参数,使所述原始隐写卷积神经网络模型收敛。
12.根据权利要求1所述的信息隐写方法,其特征在于,所述将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,包括:
对所述待嵌入信息进行加密处理,获取加密后的待嵌入信息;
将所述载体对象和所述加密后的待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象。
13.一种信息检测方法,其特征在于,包括:
获取被隐写入嵌入信息的待检测对象;
将所述待检测对象输入到隐写信息提取卷积神经网络模型中,获得所述待检测对象中被嵌入的目标嵌入信息,其中,所述隐写信息提取卷积神经网络模型是通过与用于生成隐写对象的目标隐写卷积神经网络模型和逆隐写卷积神经网络模型进行对抗训练得到的模型,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象。
14.根据权利要求13所述的信息检测方法,其特征在于,所述待检测对象中的嵌入信息为经过加密处理的信息;
所述方法,还包括:
对所述目标嵌入信息进行解密处理,获取解密后的目标嵌入信息。
15.根据权利要求13所述的信息检测方法,其特征在于,所述目标嵌入信息为针对目标对象进行权限验证的信息;
所述方法,还包括:
根据所述目标嵌入信息对所述目标对象进行验证处理。
16.一种信息隐写装置,其特征在于,包括:
信息获取单元,用于获取载体对象和待嵌入信息;
目标残差对象获取单元,用于将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,其中,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象;
目标隐写对象获取单元,用于根据所述载体对象和所述目标残差对象,获得嵌入所述待嵌入信息的目标隐写对象。
17.一种电子设备,其特征在于,包括:
处理器;
存储器,用于存储信息隐写方法的程序,该设备通电并通过所述处理器运行所述信息隐写方法的程序后,执行下述步骤:
获取载体对象和待嵌入信息;
将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,其中,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象;
根据所述载体对象和所述目标残差对象,获得嵌入所述待嵌入信息的目标隐写对象。
18.一种存储设备,其特征在于,
存储有信息隐写方法的程序,该程序被处理器运行,执行下述步骤:
获取载体对象和待嵌入信息;
将所述载体对象和所述待嵌入信息输入到目标隐写卷积神经网络模型中,获取目标残差对象,其中,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象;
根据所述载体对象和所述目标残差对象,获得嵌入所述待嵌入信息的目标隐写对象。
19.一种信息检测装置,其特征在于,包括:
待检测对象获取单元,用于获取被隐写入嵌入信息的待检测对象;
目标嵌入信息获取单元,用于将所述待检测对象输入到隐写信息提取卷积神经网络模型中,获得所述待检测对象中被嵌入的目标嵌入信息,其中,所述隐写信息提取卷积神经网络模型是通过与用于生成隐写对象的目标隐写卷积神经网络模型和逆隐写卷积神经网络模型进行对抗训练得到的模型,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象。
20.一种电子设备,其特征在于,包括:
处理器;
存储器,用于存储信息检测方法的程序,该设备通电并通过所述处理器运行所述信息检测方法的程序后,执行下述步骤:
获取被隐写入嵌入信息的待检测对象;
将所述待检测对象输入到隐写信息提取卷积神经网络模型中,获得所述待检测对象中被嵌入的目标嵌入信息,其中,所述隐写信息提取卷积神经网络模型是通过与用于生成隐写对象的目标隐写卷积神经网络模型和逆隐写卷积神经网络模型进行对抗训练得到的模型,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象。
21.一种存储设备,其特征在于,
存储有信息检测方法的程序,该程序被处理器运行,执行下述步骤:
获取被隐写入嵌入信息的待检测对象;
将所述待检测对象输入到隐写信息提取卷积神经网络模型中,获得所述待检测对象中被嵌入的目标嵌入信息,其中,所述隐写信息提取卷积神经网络模型是通过与用于生成隐写对象的目标隐写卷积神经网络模型和逆隐写卷积神经网络模型进行对抗训练得到的模型,所述目标隐写卷积神经网络模型是将逆隐写卷积神经网络模型输出的逆载体对象作为样本对象训练得到的模型,所述逆隐写卷积神经网络模型用于根据所述目标隐写卷积神经网络模型获得的隐写对象获得逆载体对象,所述逆载体对象是消除了嵌入信息的对象。
22.一种商品对象,其特征在于,包括商品对象本体以及附着于所述商品对象本体上的目标隐写对象,其中,所述目标隐写对象是使用权利要求1-12任意一项信息隐写方法获得的隐写对象。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910858185.2A CN112487365B (zh) | 2019-09-11 | 2019-09-11 | 信息隐写方法及信息检测方法及装置 |
PCT/CN2020/113840 WO2021047482A1 (en) | 2019-09-11 | 2020-09-07 | Method and system for performing steganographic technique |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910858185.2A CN112487365B (zh) | 2019-09-11 | 2019-09-11 | 信息隐写方法及信息检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112487365A true CN112487365A (zh) | 2021-03-12 |
CN112487365B CN112487365B (zh) | 2024-01-30 |
Family
ID=74866835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910858185.2A Active CN112487365B (zh) | 2019-09-11 | 2019-09-11 | 信息隐写方法及信息检测方法及装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112487365B (zh) |
WO (1) | WO2021047482A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113076549A (zh) * | 2021-04-08 | 2021-07-06 | 上海电力大学 | 一种基于新型U-Net结构生成器的对抗网络图像隐写方法 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113077377B (zh) * | 2021-05-13 | 2022-06-10 | 海南大学 | 一种基于生成对抗网络的彩色图像隐写方法 |
US20240104681A1 (en) * | 2021-05-14 | 2024-03-28 | Cornell University | Image steganography utilizing adversarial perturbations |
CN114900586B (zh) * | 2022-04-28 | 2024-04-16 | 中国人民武装警察部队工程大学 | 一种基于dcgan的信息隐写方法及装置 |
CN116016798B (zh) * | 2023-01-06 | 2024-05-17 | 中国人民解放军国防科技大学 | 一种基于特征映射的无源信息隐藏方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106920206A (zh) * | 2017-03-16 | 2017-07-04 | 广州大学 | 一种基于对抗神经网络的隐写分析方法 |
US20180068429A1 (en) * | 2015-04-15 | 2018-03-08 | Institute Of Automation Chinese Academy Of Sciences | Image Steganalysis Based on Deep Learning |
CN108346125A (zh) * | 2018-03-15 | 2018-07-31 | 中山大学 | 一种基于生成对抗网络的空域图像隐写方法及系统 |
CN108648135A (zh) * | 2018-06-01 | 2018-10-12 | 深圳大学 | 隐藏模型训练及使用方法、装置和计算机可读存储介质 |
CN108764270A (zh) * | 2018-04-03 | 2018-11-06 | 上海大学 | 一种利用卷积神经网络集成的信息隐藏检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108961137B (zh) * | 2018-07-12 | 2023-05-23 | 中山大学 | 一种基于卷积神经网络的图像隐写分析方法及系统 |
-
2019
- 2019-09-11 CN CN201910858185.2A patent/CN112487365B/zh active Active
-
2020
- 2020-09-07 WO PCT/CN2020/113840 patent/WO2021047482A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180068429A1 (en) * | 2015-04-15 | 2018-03-08 | Institute Of Automation Chinese Academy Of Sciences | Image Steganalysis Based on Deep Learning |
CN106920206A (zh) * | 2017-03-16 | 2017-07-04 | 广州大学 | 一种基于对抗神经网络的隐写分析方法 |
CN108346125A (zh) * | 2018-03-15 | 2018-07-31 | 中山大学 | 一种基于生成对抗网络的空域图像隐写方法及系统 |
CN108764270A (zh) * | 2018-04-03 | 2018-11-06 | 上海大学 | 一种利用卷积神经网络集成的信息隐藏检测方法 |
CN108648135A (zh) * | 2018-06-01 | 2018-10-12 | 深圳大学 | 隐藏模型训练及使用方法、装置和计算机可读存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113076549A (zh) * | 2021-04-08 | 2021-07-06 | 上海电力大学 | 一种基于新型U-Net结构生成器的对抗网络图像隐写方法 |
CN113076549B (zh) * | 2021-04-08 | 2023-05-12 | 上海电力大学 | 一种基于新型U-Net结构生成器的对抗网络图像隐写方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112487365B (zh) | 2024-01-30 |
WO2021047482A1 (en) | 2021-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112487365B (zh) | 信息隐写方法及信息检测方法及装置 | |
Fang et al. | Screen-shooting resilient watermarking | |
CN109587372B (zh) | 一种基于生成对抗网络的不可见图像隐写术 | |
Yan et al. | Quaternion-based image hashing for adaptive tampering localization | |
CN111507386B (zh) | 一种存储文件及网络数据流加密通信检测方法及系统 | |
CN112561766B (zh) | 图像隐写及提取方法、装置及电子设备 | |
KR20170051424A (ko) | 정보 암호화 및 해독 | |
Ouyang et al. | Robust hashing for image authentication using SIFT feature and quaternion Zernike moments | |
EP4085369A1 (en) | Forgery detection of face image | |
CN111339897B (zh) | 活体识别方法、装置、计算机设备和存储介质 | |
Wang et al. | HidingGAN: High capacity information hiding with generative adversarial network | |
CN116383793B (zh) | 人脸数据处理方法、装置、电子设备和计算机可读介质 | |
Mastorakis et al. | Dlwiot: Deep learning-based watermarking for authorized iot onboarding | |
Ouyang et al. | A semi-fragile watermarking tamper localization method based on QDFT and multi-view fusion | |
Al-Otum et al. | Copyright protection of color images for android-based smartphones using watermarking with quick-response code | |
Wu et al. | An image authentication and recovery system based on discrete wavelet transform and convolutional neural networks | |
US20210099772A1 (en) | System and method for verification of video integrity based on blockchain | |
Shen et al. | IrisMarkNet: Iris feature watermarking embedding and extraction network for image copyright protection | |
CN114330621B (zh) | 一种基于标识信息的二维码防伪方法、装置、存储介质 | |
CN117197857A (zh) | 人脸伪造攻击检测、人脸识别方法、装置和设备 | |
Chen et al. | A tunable bound of the embedding level for reversible data hiding with contrast enhancement | |
CN112785478B (zh) | 基于生成嵌入概率图的隐藏信息检测方法和系统 | |
CN112966230A (zh) | 信息隐写及提取方法、装置及设备 | |
CN111275603A (zh) | 一种基于风格转换的安全图像隐写方法与电子装置 | |
Dommeti et al. | Comparative Stratification of Steganalysis Techniques to Interpret & Target Anomalies |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |