CN112561766B - 图像隐写及提取方法、装置及电子设备 - Google Patents

图像隐写及提取方法、装置及电子设备 Download PDF

Info

Publication number
CN112561766B
CN112561766B CN201910850963.3A CN201910850963A CN112561766B CN 112561766 B CN112561766 B CN 112561766B CN 201910850963 A CN201910850963 A CN 201910850963A CN 112561766 B CN112561766 B CN 112561766B
Authority
CN
China
Prior art keywords
neural network
convolutional neural
network model
image
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910850963.3A
Other languages
English (en)
Other versions
CN112561766A (zh
Inventor
崔文学
刘永亮
刘绍辉
张迪
董瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201910850963.3A priority Critical patent/CN112561766B/zh
Priority to TW109118078A priority patent/TW202111604A/zh
Priority to PCT/CN2020/113735 priority patent/WO2021047471A1/zh
Publication of CN112561766A publication Critical patent/CN112561766A/zh
Application granted granted Critical
Publication of CN112561766B publication Critical patent/CN112561766B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/10Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0065Extraction of an embedded watermark; Reliable detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Artificial Intelligence (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Technology Law (AREA)
  • Bioethics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本申请公开了一种图像隐写方法,所述图像隐写方法通过对待嵌入信息进行压缩处理,以获取与所述待嵌入信息对应的目标测量值;并通过将所述目标测量值隐写到载体图像中,来获得目标隐写图像。所述方法通过对所述待嵌入信息进行压缩处理来去除所述待嵌入信息中的冗余信息,不仅减少了隐写处理的计算量,还可以提高图像的隐写效率;另外,因为最终是将与所述待嵌入信息对应的目标测量值隐写到所述载体图像中,而非是待嵌入信息本身,相当于是先对待嵌入信息做了一个加密,然后再对加密后的待嵌入信息进行隐写,进而使最终获得的目标隐写图像中的待嵌入信息不容易被破坏,大大的提高了待嵌入信息的安全性。

Description

图像隐写及提取方法、装置及电子设备
技术领域
本申请涉及计算机技术领域,具体涉及一种图像隐写方法、装置及电子设备。本申请同时涉及一种图像提取方法、装置及电子设备。
背景技术
随着数字媒体技术以及计算机网络技术的不断发展,在信息传递或针对图像、视频等资源提供数字版权保护时,通过图像隐写方法来隐蔽的传输信息这一方式受到了人们越来越多的关注,所述图像隐写方法,通常是将待传递信息或数字版权信息等待隐写信息通过伪装的方式隐蔽的写入用于承载所述待隐写信息的载体图像中,以获得包含所述待隐写信息的隐写图像的方法。
目前的图像隐写方法主要是研究如何将一个二进制序列隐藏到载体图像中,也就是说,需要将所有格式,如图像、视频、文本等格式的待隐写信息序列化为二进制序列,并将该二进制序列写入载体图像以获取对应的隐写图像。
目前的针对二进制序列进行隐写的图像隐写方法主要有以下缺点:1、其针对的隐写对象,即待隐写信息必须转换成二进制序列,然而,这种转换通常仅为简单的数值转换,其并没有考虑原始待隐写信息的特有属性,例如,图像数据中通常存在大量的冗余信息,将一幅图像序列化为二进制序列之后,所述二进制序列中仍然存在大量的冗余信息,将包含所述冗余信息的二进制序列进行隐写,势必会增加隐写处理的计算量,降低图像隐写的效率;2、因为该图像隐写方法是基于二进制序列的,因此,其一般能够隐写的数据量是有限的,随着数据量的增加,其获得的隐写图像的隐写效果将会越来越差,其获得的隐写图像中的隐写信息被破坏的几率也会随之增加,不利于待隐写信息的安全传递。
发明内容
本申请提供一种图像隐写方法,以解决现有的图像隐写方法在进行隐写时存在的计算量大、效率低以及获得的隐写图像中的隐写信息容易被破坏的问题。
本申请提供一种图像隐写方法,包括:
获取载体图像,并获取待嵌入信息;
对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值;
将所述目标测量值隐写到所述载体图像中,获取目标隐写图像。
可选的,所述对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值,包括:
获取目标采样卷积神经网络模型,其中,所述目标采样卷积神经网络模型用于对所述待嵌入信息进行压缩处理;
使用所述目标采样卷积神经网络模型对所述待嵌入信息进行处理,获取所述目标测量值。
可选的,所述获取目标采样卷积神经网络模型,包括:
获取原始采样卷积神经网络模型;
对所述原始采样卷积神经网络模型进行训练,使所述原始采样卷积神经网络模型收敛,并将收敛后的所述原始采样卷积神经网络模型作为所述目标采样卷积神经网络模型。
可选的,所述对所述原始采样卷积神经网络模型进行训练,使所述原始采样卷积神经网络模型收敛,包括:
获取指导卷积神经网络模型,其中,所述指导卷积神经网络模型用于将所述原始采样卷积神经网络模型的输出数据恢复为所述原始采样卷积神经网络模型的输入数据;
将所述指导卷积神经网络模型和所述原始采样卷积神经网络模型进行联合训练,使所述原始采样卷积神经网络模型收敛。
可选的,所述将所述指导卷积神经网络模型和所述原始采样卷积神经网络模型进行联合训练,使所述原始采样卷积神经网络模型收敛,包括:
获取原始训练样本信息;
将所述原始训练样本信息输入到所述原始采样卷积神经网络模型中,获取与所述原始训练样本信息对应的原始训练测量值;
将所述原始训练测量值输入到所述指导卷积神经网络模型中,获取与所述原始训练样本信息对应的指导样本信息;
通过所述指导卷积神经网络模型的损失函数调整所述指导卷积神经网络模型的参数和所述原始采样卷积神经网络模型的参数,使所述原始采样卷积神经网络模型收敛。
可选的,所述将所述原始训练样本信息输入到所述原始采样卷积神经网络模型中,获取与所述原始训练样本信息对应的原始训练测量值,包括:
将所述原始训练样本信息划分为至少一个原始训练样本子信息;
将所述至少一个原始训练样本子信息输入到所述原始采样卷积神经网络模型中,获取至少一个原始训练子测量值。
可选的,所述将所述原始训练测量值输入到所述指导卷积神经网络模型中,获取与所述原始训练样本信息对应的指导样本信息,包括:
将所述至少一个原始训练子测量值输入到所述指导卷积神经网络模型中,获取与所述原始训练样本信息对应的指导样本信息。
可选的,所述指导卷积神经网络模型包括一个全连接层和至少一个残差块;
所述将所述至少一个原始训练子测量值输入到所述指导卷积神经网络模型中,获取与所述原始训练样本信息对应的指导样本信息,包括:
使用所述全连接层对所述至少一个原始训练子测量值进行预处理,获取与所述原始训练样本信息的大小相同的预处理样本信息;
使用所述至少一个残差块对所述预处理样本信息进行处理,获取与所述原始训练样本信息对应的指导样本信息。
可选的,所述使用所述全连接层对所述至少一个原始训练子测量值进行预处理,获取与所述原始训练样本信息的大小相同的预处理样本信息,包括:
对所述至少一个原始训练子测量值进行维数调整处理,使所述至少一个原始训练子测量值的维数与所述原始训练样本信息的维数一致;
对经过维数调整处理后的所述至少一个原始训练子测量值进行形状重塑处理,使所述至少一个原始训练子测量值的大小与所述原始训练样本子信息的大小一致;
对经过所述维数调整处理和所述形状重塑处理后的所述至少一个原始训练子测量值进行拼接处理,获取与所述原始训练样本信息的大小相同的预处理样本信息。
可选的,所述将所述目标测量值隐写到所述载体图像中,获取目标隐写图像,包括:
获取目标隐写卷积神经网络模型;
将所述目标测量值和所述载体图像输入到所述目标隐写卷积神经网络模型中,获取所述目标隐写图像。
可选的,所述目标隐写卷积神经网络模型包括一个全连接层和至少一个残差块;
所述将所述载体图像和所述目标测量值输入到所述目标隐写卷积神经网络模型中,获取目标隐写图像,包括:
使用所述全连接层对所述载体图像和所述测量值进行拼接处理,获取待处理拼接图像;
将所述待处理拼接图像值输入到所述至少一个残差块中,获取目标隐写图像。
可选的,所述对所述载体图像和所述目标测量值进行拼接处理,获取待处理拼接图像,包括:
获取与所述载体图像对应的特征信息图像,其中,所述特征信息图像包括所述载体图像的纹理分布信息;
根据所述特征信息图像,对所述目标测量值进行重新布局,获取与所述载体图像中的特征信息对应的重布局测量值;
对所述载体图像和所述重布局测量值进行拼接处理,获取所述待处理拼接图像。
可选的,所述根据所述特征信息图像,对所述目标测量值进行重新布局,获取与所述载体图像中的特征信息对应的重布局测量值,包括:
对所述目标测量值进行维数调整处理,使所述目标测量值的维数与所述特征信息图像的维数一致;
对经过维数调整处理后的所述目标测量值进行形状重塑处理,使所述目标测量值的大小与所述特征信息图像的大小一致;
对经过所述维数调整处理和所述形状重塑处理后的所述目标测量值和所述特征信息图像进行像素点的乘积运算,获取与所述载体图像中的特征信息对应的重布局测量值。
可选的,所述将所述目标测量值隐写到所述载体图像中,获取目标隐写图像,包括:
获取目标隐写卷积神经网络模型;
通过所述目标隐写卷积神经网络模型将所述目标测量值隐写到所述载体图像中,获取所述目标隐写图像。
可选的,所述获取目标隐写卷积神经网络模型,包括:
获取用于生成隐写图像的原始隐写卷积神经网络模型;
对所述原始隐写卷积神经网络模型进行训练,使所述原始隐写卷积神经网络模型收敛,并将收敛后的所述原始隐写卷积神经网络模型作为所述目标隐写卷积神经网络模型。
可选的,所述对所述原始隐写卷积神经网络模型进行训练,使所述原始隐写卷积神经网络模型收敛,包括:
获取蒸馏卷积神经网络模型,其中,所述蒸馏卷积神经网络模型用于从所述原始隐写卷积神经网络模型的输出数据中获取与所述原始隐写卷积神经网络模型的输入数据对应的测量值;
将所述蒸馏卷积神经网络模型和所述原始隐写卷积神经网络模型进行联合训练,使所述原始隐写卷积神经网络模型和所述蒸馏卷积神经网络模型收敛。
可选的,所述将所述蒸馏卷积神经网络模型和所述原始隐写卷积神经网络模型进行联合训练,使所述原始隐写卷积神经网络模型和所述蒸馏卷积神经网络模型收敛,包括:
获取原始训练载体图像,并获取原始待隐写测量值;
将所述原始训练载体图像和所述原始待隐写测量值输入到所述原始隐写卷积神经网络模型中,获取原始训练隐写图像;
将所述原始训练隐写图像输入到所述蒸馏卷积神经网络模型中,获取与所述原始待隐写测量值对应的蒸馏测量值;
使用所述两个卷积神经网络模型对应的损失函数调整所述两个卷积神经网络模型的参数,使所述原始隐写卷积神经网络模型和所述蒸馏卷积神经网络模型收敛。
可选的,所述蒸馏卷积神经网络模型包括一个全连接层和至少一个残差块;
所述将所述原始训练隐写图像输入到所述蒸馏卷积神经网络模型中,获取与所述原始待隐写测量值对应的蒸馏测量值,包括:
使用所述至少一个残差块对所述原始训练隐写图像进行处理,获取与所述原始待隐写测量值对应的待处理蒸馏测量值;
使用所述全连接层对所述待处理蒸馏测量值进行处理,使所述待处理蒸馏测量值的维数和大小与所述原始待隐写测量值的维数和大小一致。
可选的,所述对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值,包括:
使用压缩感知技术对所述待嵌入信息进行处理,获取与所述待嵌入信息对应的测量值。
本申请还提供一种图像隐写装置,包括:
信息获取单元,用于获取载体图像,并获取待嵌入信息;
测量值获取单元,用于对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值;
隐写图像获取单元,用于将所述目标测量值隐写到所述载体图像中,获取目标隐写图像。
本申请还提供一种电子设备,包括:
处理器;
存储器,用于存储图像隐写方法的程序,该设备通电并通过所述处理器运行所述图像隐写方法的程序后,执行下述步骤:
获取载体图像,并获取待嵌入信息;
对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值;
将所述目标测量值隐写到所述载体图像中,获取目标隐写图像。
本申请还提供一种存储设备,
存储有图像隐写方法的程序,该程序被处理器运行,执行下述步骤:
获取载体图像,并获取待嵌入信息;
对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值;
将所述目标测量值隐写到所述载体图像中,获取目标隐写图像。
本申请还提供一种图像提取方法,包括:
获取待检测图像;
从所述待检测图像中获取被隐写的测量值,其中,所述测量值是对原始隐写信息进行压缩处理后获得的;
将所述测量值输入到用于重建图像的重建卷积神经网络模型中,获取与所述测量值对应的所述原始隐写信息。
可选的,所述从所述待检测图像中获取被嵌入的测量值,包括:
获取目标蒸馏卷积神经网络模型,其中,所述目标蒸馏卷积神经网络模型用于从隐写入测量值的待检测图像中,提取所述被隐写的测量值;
将所述待检测图像输入到所述目标蒸馏卷积神经网络模型中,获取所述待检测图像中被隐写的测量值。
本申请还提供一种图像提取装置,包括:
图像获取单元,用于获取待检测图像;
测量值获取单元,用于从所述待检测图像中获取被隐写的测量值,其中,所述测量值是对原始隐写信息进行压缩处理后获得的;
原始隐写信息获取单元,用于将所述测量值输入到用于重建图像的重建卷积神经网络模型中,获取与所述测量值对应的所述原始隐写信息。
本申请还提供一种电子设备,包括:
处理器;
存储器,用于存储图像提取方法的程序,该设备通电并通过所述处理器运行所述图像提取方法的程序后,执行下述步骤:
获取待检测图像;
从所述待检测图像中获取被隐写的测量值,其中,所述测量值是对原始隐写信息进行压缩处理后获得的;
将所述测量值输入到用于重建图像的重建卷积神经网络模型中,获取与所述测量值对应的所述原始隐写信息。
本申请还提供一种存储设备,
存储有图像提取方法的程序,该程序被处理器运行,执行下述步骤:
获取待检测图像;
从所述待检测图像中获取被隐写的测量值,其中,所述测量值是对原始隐写信息进行压缩处理后获得的;
将所述测量值输入到用于重建图像的重建卷积神经网络模型中,获取与所述测量值对应的所述原始隐写信息。
与现有技术相比,本申请具有以下优点:
本申请提供的一种图像隐写方法,包括:获取载体图像,并获取待嵌入信息;对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值;将所述目标测量值隐写到所述载体图像中,获取目标隐写图像。所述图像隐写方法通过对待嵌入信息进行压缩处理,以获取与所述待嵌入信息对应的目标测量值,之后,通过将所述目标测量值隐写到所述载体图像中,来获得目标隐写图像。
所述图像隐写方法通过对所述待嵌入信息进行压缩处理来去除所述待嵌入信息中的冗余信息,不仅减少了隐写处理的计算量,还可以提高图像的隐写效率;另外,因为最终是将与待嵌入信息对应的目标测量值隐写到载体图像中,而非是待嵌入信息本身,所述目标测量值相当于是待嵌入信息的密钥,即本申请所述方法相当于是先对待嵌入信息做了一个加密,然后再对加密后的待嵌入信息进行隐写,进而使最终获得的目标隐写图像中的待嵌入信息不容易被破坏,大大的提高了待嵌入信息的安全性。
附图说明
图1是本申请第一实施例提供的一种图像隐写方法的应用场景的示意图;
图2是本申请第一实施例提供的第一种现有的图像隐写方法的示意图;
图3是本申请第一实施例提供的第二种现有的图像隐写方法的示意图;
图4是本申请第一实施例提供的第三种现有的图像隐写方法的示意图;
图5是本申请第一实施例提供的第四种现有的图像隐写方法的示意图;
图6是本申请第一实施例提供的本申请的图像隐写方法的流程图;
图7是本申请第一实施例提供的本申请的图像隐写方法的框架示意图;
图8是本申请第一实施例提供的各种图像隐写方法的隐写效果对比示意图;
图9是本申请第一实施例提供的各种图像隐写方法的峰值信噪比对比示意图;
图10是本申请第一实施例提供的各种图像隐写方法在不同数据集上的结构相似性对比示意图;
图11是本申请第一实施例提供的本申请的图像隐写方法在引入注意力机制前后的隐写效果对比示意图;
图12是本申请第一实施例提供的各种图像隐写方法的隐写区域的对比示意图;
图13是本申请第一实施例提供的本申请的图像隐写方法在不同采样率下的结果示意图;
图14是本申请第二实施例提供的一种图像提取方法的流程图;
图15是本申请第三实施例提供的图像隐写装置的示意图;
图16是本申请第四实施例提供的一种电子设备的示意图;
图17是本申请第六实施例提供的一种图像提取装置的示意图;
图18是本申请第七实施例提供的另一种电子设备的示意图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施的限制。
为了使本领域的技术人员更好的理解本申请方案,下面基于本申请提供的图像隐写方法,对其实施例的具体应用场景进行详细描述。本申请所述图像隐写方法可以应用与客户端与服务器交互的场景,如图1所示,其为本申请第一实施例提供的一种图像隐写方法的应用场景示意图。
客户端首先与服务器建立连接,连接之后客户端发送载体图像以及待嵌入信息到服务器,服务器获取所述载体图像,并获取所述待嵌入信息之后,先对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值;之后,将所述目标测量值隐写到所述载体图像中,获取目标隐写图像,并将所述目标隐写图像发送给客户端;之后,客户端接收所述目标隐写图像。
需要说明的是,所述客户端可以是移动终端设备,如手机、平板电脑等,也可以是常用的计算机设备。另外,在具体实施时,也可以将本申请所述图像隐写方法单独应用于客户端或服务器设备中,例如,客户端在获取所述载体图像和所述待嵌入信息之后,直接通过客户端中安装的相应的应用程序进行处理,并获取目标隐写图像;当然也可以是服务器在获取所述载体图像和所述待嵌入信息之后,直接将获取到的所述目标隐写图像存储在自身存储或远程存储中,而不需要发送给客户端。上述应用场景仅仅是本申请所述的图像隐写方法的一个具体实施例,提供所述应用场景实施例的目的是便于理解本申请的图像隐写方法,而并非用于限定本申请的图像隐写方法。
本申请第一实施例提供一种图像隐写方法,以下结合图2-图13进行说明。
在介绍本申请所述图像隐写方法之前,先针对现有技术中的一些图像隐写方法进行简单的介绍。
如图2所示,其为本申请第一实施例提供的第一种现有的图像隐写方法的示意图。所述图像隐写方法是一个基于生成对抗网络的隐写方法(ISGAN,InvisibleSteganography via Generative Adversarial Networks),所述方法主要是将一个灰度图像,即图像中的像素的颜色只有一个采样颜色的图像嵌入到一个彩色图像中。由于所述方法为现有技术,此处不对其细节进行详细描述。所述方法主要存在如下问题:1、所述方法中并没有考虑到待嵌入信息,即灰度图像的可压缩性,即并没有考虑到灰度图像中是可能存在大量的冗余信息的,而这些冗余信息势必会增加隐写处理的计算量,降低隐写处理的效率;2、在所述方法中,利用生成式对抗网络(GAN,Generative Adversarial Networks)对图像进行隐写处理,虽然能够提升最终获得的隐写图像的视觉效果,但是所述方法往往会降低最终隐藏结果的峰值信噪比(PSNR,Peak Signal to Noise Ratio),其中,所述峰值信噪比主要是指一种评价图像的客观标准,因其为现有技术,此处不再赘述。
如图3所示,其为本申请第一实施例提供的第二种现有的图像隐写方法的示意图。所述图像隐写方法(Atique's,End-to-end Trained CNN Encode-Decoder Networks forImage Steganography)主要包括两个部分:编码器和解码器。其中,编码器的主要任务是将待嵌入信息隐写到载体图像中去;解码器的主要任务是从隐写图像中提取出被嵌入的信息。由于所述方法为现有技术,此处不对其细节进行详细描述。所述方法主要存在如下问题:1、所述方法中使用的所述编码器已经被广泛的应用于其它领域中,因此,使用所述编码器获得的隐写图像中的隐写信息容易被破坏;2、所述方法中同样没有考虑到待嵌入信息的可压缩性,将所述待嵌入信息中的冗余信息也进行了隐写,而这些冗余信息势必会增加隐写处理的计算量,降低隐写处理的效率;3、所述方法并没有针对待嵌入信息的特性进行隐写,如在针对图像信息进行隐写时,并没有考虑到图像的纹理分布信息的不同来选择隐写位置,而仅是简单的进行全局隐写,其最终获得的隐写图像中的隐写信息容易被破坏。
如图4所示,其为本申请第一实施例提供的第三种现有的图像隐写方法的示意图。所述图像隐写方法(StegNet,Image-into-Image Steganography Using DeepConvolutional Network)主要是将待嵌入信息,主要是彩色图像信息隐写到载体图像中,所述方法也包括两个部分:编码器和解码器。由于所述方法为现有技术,此处不对其细节进行详细描述。所述方法主要存在如下问题:1、所述方法中所使用的卷积神经网络模型(CNN,Convolutional Neural Networks)的网络结构较为简单,其最终获得的隐写图像的隐写效果并不够好;2、所述方法同样没有考虑到待嵌入信息的可压缩性;3、所述方法同样也没有针对待嵌入信息的特性进行隐写,如在针对图像信息进行隐写时,并没有考虑到图像的纹理分布信息的不同来选择隐写位置,而仅是简单的进行全局隐写,其最终获得的隐写图像中的隐写信息容易被破坏。
如图5所示,其为本申请第一实施例提供的第四种现有的图像隐写方法的示意图。所述图像隐写方法(Deep-Steg,Hiding Images in Plain Sight:Deep Steganography),主要是利用卷积神经网络模型将待嵌入信息隐写到载体图像中。所述方法主要包括三个卷积神经网络模型:预处理卷积神经网络模型、隐写卷积神经网络模型和提取卷积神经网络模型。由于所述方法为现有技术,此处不对其细节进行详细描述。所述方法主要存在如下问题:1、所述方法同样没有考虑到待嵌入信息的可压缩性;2、所述方法同样也没有针对待嵌入信息的特性进行隐写,如在针对图像信息进行隐写时,并没有考虑到图像的纹理分布信息的不同来选择隐写位置,而仅是简单的进行全局隐写,其最终获得的隐写图像中的隐写信息容易被破坏;3、所述方法将所述预处理卷积神经网络模型输出的预处理待嵌入信息进行隐写,并没有破坏待嵌入信息的特性信息,因此,所述方法最终获得的隐写图像的隐写效果也不够好,所述隐写图像中的隐写信息同样容易被破坏。
为了解决现有的图像隐写方法存在的问题,本申请第一实施例提供一种图像隐写方法,如图6所示,其为本申请第一实施例提供的图像隐写方法的流程图,如图7所示,其为本申请第一实施例提供的本申请的图像隐写方法的框架示意图。以下予以详细介绍。
步骤S601,获取载体图像,并获取待嵌入信息。
所述载体图像,具体可以是一个图像,也可以是视频资源中的某个视频帧。
所述待嵌入信息,是指需要隐蔽传递的信息或用于提供数字版权保护的信息,其具体可以是一段文字信息,也可以是图像信息,如公司LOGO、合同文件扫描件等信息。在本申请第一实施例中,所述待隐写信息为图像格式的信息。当然针对其它格式的信息,如文本、PDF等格式的信息,本申请第一实施例所提供的图像隐写方法同样可以处理。在以下描述中,以所述待嵌入信息为图像格式的信息举例进行说明。
步骤S602,对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值。
针对待嵌入信息的特有属性,如图像信息的局部相似性、非局部自相似、可压缩性等特性,为了去除所述待嵌入信息中的冗余信息,在本申请第一实施例中,在针对所述待嵌入信息进行隐写处理之前,先对所述待嵌入信息进行压缩处理,并获取与所述待嵌入信息对应的目标测量值。
其中,所述对所述待嵌入信息进行压缩处理,并获取与所述待嵌入信息对应的目标测量值,是指使用压缩感知技术对所述待嵌入信息进行压缩处理,并获取与所述待嵌入信息对应的目标测量值,当然,除了使用压缩感知技术主对图像格式的待嵌入信息进行处理之外,还可以使用离散余弦变换(DCT,DCT for Discrete Cosine Transform)、小波变换(WT,wavelet transform)等技术针对图像格式的待嵌入信息进行处理;此外,针对其它格式的待嵌入信息也可以使用与所述格式对应的压缩技术对其进行处理。
所述压缩感知技术,相较于传统的信号采集技术先进行信号采样,再进行信号压缩的处理过程,压缩感知技术是直接将信号采样与信号压缩一起进行处理的一种技术,即在采样的同时直接对信号进行压缩,这样不仅可以提升信号的采样速度,还可以在一定程度上去除信号中的冗余信息。压缩感知技术主要包括三个部分:1、信号的稀疏表示,即将原始信号以稀疏矩阵的形式表示;2、设计采样矩阵,即使用采样矩阵对所述原始信号进行降低其维数的压缩处理,获取其对应的测量值,并在降低其维数的同时保证所述原始信号的信息损失最小。其中,所述采样矩阵,也称为测量矩阵,是通过计算获得的一个数值矩阵,其主要用来对原始信号进行采样,同时还采样的过程中保存原始信号中的有效信息,所述测量值是对原始信号进行压缩处理后获取的一个测量数值,其维数相较于原始信号的维数要小;3、设计信号恢复算法,即根据所述原始信号的测量值,通过相应的算法,获得所述原始信号。
在本实施例中,所述目标测量值,是指利用压缩感知技术对所述待嵌入信息进行降维压缩处理后获得的一个测量数值,其维数相较于所述待嵌入信息的维数要小。
所述对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值,包括:获取目标采样卷积神经网络模型,其中,所述目标采样卷积神经网络模型用于对所述待嵌入信息进行压缩处理;使用所述目标采样卷积神经网络模型对所述待嵌入信息进行处理,获取所述目标测量值。
在本申请第一实施例中,所述待嵌入信息为图像信息,所述对所述待嵌入信息进行压缩处理,是指获取一个性能良好的采样矩阵来对所述待嵌入信息进行压缩处理。通常,使用采样矩阵对所述待嵌入信息的采样过程可以视为一个线性映射,即y=Фx,其中,x为待嵌入信息,Ф为采样矩阵,y为使用Ф对x进行采样后获得的测量值。假设采样矩阵Ф为一个M×N的矩阵(M>0,N>0,且M<<N),则M/N称为采样率,所述待嵌入信息x为一个N维的信息,使用采样矩阵Ф对x进行采样处理之后,就会得到一个M维的测量值y。
根据上述描述可知,使用采样矩阵对所述待嵌入信息进行压缩处理,以获得所述待嵌入信息对应的目标测量值的过程,可以视为是一个卷积操作,采样矩阵的每一行对应一个卷积核,即卷积核的个数为M。因此,在本申请第一实施例中,通过获取一个与采样矩阵对应的目标采样卷积神经网络模型来对所述待嵌入信息进行压缩处理,在所述目标采样卷积神经网络模型中,卷积核的个数为N,个数为M。
例如:在获取一个与采样矩阵对应的目标采样卷积神经网络模型之后,将所述待嵌入信息,如图像S_Img01,输入到所述目标采样卷积神经网络模型中,即可获得所述图像S_Img01对应的目标测量值D_Data01。
所述获取目标采样卷积神经网络模型,包括:获取原始采样卷积神经网络模型;对所述原始采样卷积神经网络模型进行训练,使所述原始采样卷积神经网络模型收敛,并将收敛后的所述原始采样卷积神经网络模型作为所述目标采样卷积神经网络模型。
为了获取一个性能良好的目标采样卷积神经网络模型,在进行图像隐写之前,需要先获取原始采样卷积神经网络模型,并使用大量的训练样本信息对所述原始采样卷积神经网络模型进行训练,以使所述原始采样卷积神经网络模型收敛,在所述原始采样卷积神经网络模型收敛之后,即可将收敛后的所述原始采样卷积神经网络模型作为目标采样卷积神经网络模型,之后,在进行图形隐写处理时,即可使用所述目标采样卷积神经网络模型来获取待嵌入信息对应的目标测量值。
同时,为了能够更高效的获取一个性能良好的目标采样卷积神经网络模型,本申请第一实施例在针对所述原始采样卷积神经网络模型进行训练时,通过引入一个指导卷积神经网络模型来和所述原始采样卷积神经网络模型进行联合训练。
即,所述对所述原始采样卷积神经网络模型进行训练,使所述原始采样卷积神经网络模型收敛,包括:获取指导卷积神经网络模型,其中,所述指导卷积神经网络模型用于将所述原始采样卷积神经网络模型的输出数据恢复为所述原始采样卷积神经网络模型的输入数据;将所述指导卷积神经网络模型和所述原始采样卷积神经网络模型进行联合训练,使所述原始采样卷积神经网络模型收敛。
需要说明的是,在单独使用大量训练样本信息对原始采样卷积神经网络模型进行训练时,通常可以获得大量的与所述训练样本信息对应的原始训练测量值,然而,我们并不能直观的评述获得的原始训练测量值的优劣。为了能够直观的评述获得的原始训练测量值的优劣,其中一个办法就是将获得的所述原始训练测量值进行反向还原处理,并通过比较原始训练样本信息和通过对其测量值进行反向还原后得到的数据进行比较,并通过比较结果来评述原始采样卷积神经网络模型的性能优劣,以及通过比较结果调整原始采样卷积神经网络模型的参数,以使其收敛。在本申请第一实施例中,通过获取一个指导卷积神经网络模型来将获得的所述原始训练测量值进行反向还原处理。
所述将所述指导卷积神经网络模型和所述原始采样卷积神经网络模型进行联合训练,使所述原始采样卷积神经网络模型收敛,包括:获取原始训练样本信息;将所述原始训练样本信息输入到所述原始采样卷积神经网络模型中,获取与所述原始训练样本信息对应的原始训练测量值;将所述原始训练测量值输入到所述指导卷积神经网络模型中,获取与所述原始训练样本信息对应的指导样本信息;通过所述指导卷积神经网络模型的损失函数调整所述指导卷积神经网络模型的参数和所述原始采样卷积神经网络模型的参数,使所述原始采样卷积神经网络模型收敛。
例如,以Ф来表示所述原始采样卷积神经网络模型,以g表示所述指导卷积神经网络模型,以xi表示原始训练样本信息,以Фxi表示与xi对应的测量值,以zi表示与xi对应的指导样本信息,将xi输入到原始采样卷积神经网络模型Ф之后,获取测量值Фxi,之后再将测量值Фxi输入到指导卷积神经网络模型g中,并获取与xi对应的zi,通过比较xi、zi的差值即可评述所述原始采样卷积神经网络模型的差异。
当然,我们通常是使用损失函数来对卷积神经网络模型的参数进行优化,此处,所述原始采样卷积神经网络模型和所述指导卷积神经网络模型对应的损失函数可以表示为:
其中,θg为所述指导卷积神经网络模型的参数,ζr(Ф,θg)为所述原始采样卷积神经网络模型和所述指导卷积神经网络模型对应的损失函数。
另外,为了有效的减少采样矩阵,即减少最终获得的所述目标采样卷积神经网络模型的大小,在针对所述原始采样卷积神经网络模型进行训练时,采用基于块的采样(BCS,Block-based Compressed Sensing)。即所述将所述原始训练样本信息输入到所述原始采样卷积神经网络模型中,获取与所述原始训练样本信息对应的原始训练测量值,包括:将所述原始训练样本信息划分为至少一个原始训练样本子信息;将所述至少一个原始训练样本子信息输入到所述原始采样卷积神经网络模型中,获取至少一个原始训练子测量值。
具体来讲,在获得所述原始训练样本信息之后,针对所述原始训练样本信息,将其划分为若干个子信息,并分别获取这若干个子信息对应的测量值。例如,针对图像数据的原始训练样本信息,将所述图像数据划分为至少一个图像块,其中,每个图像块中的N个像素点表示一个N维的原始训练样本子信息,假设所述图像块的大小为B*B,即N=B*B,则针对每一个图像块进行采样处理后,即可获得至少一个M维的测量值。
另外,所述将所述原始训练测量值输入到所述指导卷积神经网络模型中,获取与所述原始训练样本信息对应的指导样本信息,包括:将所述至少一个原始训练子测量值输入到所述指导卷积神经网络模型中,获取与所述原始训练样本信息对应的指导样本信息。所述指导卷积神经网络模型包括一个全连接层和至少一个残差块;所述将所述至少一个原始训练子测量值输入到所述指导卷积神经网络模型中,获取与所述原始训练样本信息对应的指导样本信息,包括:使用所述全连接层对所述至少一个原始训练子测量值进行预处理,获取与所述原始训练样本信息的大小相同的预处理样本信息;使用所述至少一个残差块对所述预处理样本信息进行处理,获取与所述原始训练样本信息对应的指导样本信息。
所述残差块(residual block),通常是指包括跳跃连接(shortcut connection)的多个卷积层的组合。其中,所述跳跃连接,也称短路连接,是根据循环神经网络(RNN,Recurrent Neural Network)中的跳跃连接以及各类门控算法演变而来的,是被用于缓解深度结构中梯度消失问题的技术。在申请中,如无特殊说明,则在上述出现的卷积神经网络模型及后续处理中出现的卷积神经网络模型中的残差块均是由至少一个卷积层(convolution)、一个激活层和至少一个批量归一化层(batch normalization)构成,其卷积核的大小为3*3,步长为1,填充(padding)为1。当然,在具体实施时,也可根据需要进行调整,此处不再赘述。
例如,在上述步骤中,针对所述至少一个N维的原始训练样本子信息,获得到其对应的至少一个M维的测量值,为了使用所述指导卷积神经网络模型还原得到所述原始训练样本子信息,我们在所述指导卷积神经网络模型中,先使用一个全连接层对所述至少一个M维的测量值进行预处理,以获得一个与所述原始训练样本信息的大小相同的预处理样本信息,之后,再使用至少一个残差块对所述预处理样本信息进行处理,以获取与所述原始训练样本信息对应的指导样本信息。
其中,所述使用所述全连接层对所述至少一个原始训练子测量值进行预处理,获取与所述原始训练样本信息的大小相同的预处理样本信息,包括:对所述至少一个原始训练子测量值进行维数调整处理,使所述至少一个原始训练子测量值的维数与所述原始训练样本信息的维数一致;对经过维数调整处理后的所述至少一个原始训练子测量值进行形状重塑处理,使所述至少一个原始训练子测量值的大小与所述原始训练样本子信息的大小一致;对经过所述维数调整处理和所述形状重塑处理后的所述至少一个原始训练子测量值进行拼接处理,获取与所述原始训练样本信息的大小相同的预处理样本信息。
如图7所示,所述对所述至少一个原始训练子测量值进行维数调整处理、形状重塑处理以及拼接处理,主要对应图7中的“上采样”处理,即,先对所述至少一个M维的测量值进行维数调整处理,即升维(Upsampling)操作,将其从M维升到N维,使其与其对应的原始训练样本子信息的维数一致;再之后,再对其进行形状重塑处理,使其与其对应的原始训练样本子信息的的大小一致。例如,假设所述至少一个原始训练样本子信息的大小为B*B,则将其重塑为B*B大小的测量值,所述重塑具体可以使用边缘填充的方法使两者大小一致,当然也可以使用其它方法,此处不再赘述。再之后,将经过所述维数调整处理和所述形状重塑处理后的所述至少一个原始训练子测量值进行拼接处理,获取与所述原始训练样本信息的大小相同的预处理样本信息。
需要说明的是,在上述处理中,之所以在获得所述预处理样本信息之后,还要将所述预处理样本信息放到所述指导卷积神经网络模型中的至少一个残差块中去进行处理,是为了使最终获得的所述指导样本信息的效果更好。
综上所述,本申请第一实施例获取的所述目标采样卷积神经网络模型,通过将其对应的原始采样卷积神经网络模型和一个对应的指导卷积神经网络模型进行联合训练,大大的提高了最终获得的所述目标采样卷积神经网络模型的性能;并且在针对所述原始训练样本信息进行采样处理时,通过使用基于块的采样还能够减少所述目标采样卷积神经网络模型的大小。
请继续参看图6、图7,在步骤S602之后,执行步骤S603,将所述目标测量值隐写到所述载体图像中,获取目标隐写图像。
在上述步骤中,通过对所述待嵌入信息进行压缩处理,获取到了与所述待嵌入信息对应的目标测量值,之后,即可将所述目标测量值隐写到所述载体图像中。
其中,所述将所述目标测量值隐写到所述载体图像中,获取目标隐写图像,包括:获取目标隐写卷积神经网络模型;将所述目标测量值和所述载体图像输入到所述目标隐写卷积神经网络模型中,获取所述目标隐写图像。
即,在进行隐写处理之前,需要先获取用于进行图像隐写处理的目标隐写卷积神经网络模型。
在本申请第一实施例中,所述获取目标隐写卷积神经网络模型,包括:获取用于生成隐写图像的原始隐写卷积神经网络模型;对所述原始隐写卷积神经网络模型进行训练,使所述原始隐写卷积神经网络模型收敛,并将收敛后的所述原始隐写卷积神经网络模型作为所述目标隐写卷积神经网络模型。
为了获取一个性能良好的目标隐写卷积神经网络模型,需要先获取原始隐写卷积神经网络模型,并使用大量的原始待隐写测量值对所述原始隐写卷积神经网络模型进行训练,以使所述原始隐写卷积神经网络模型收敛,在所述原始隐写卷积神经网络模型收敛之后,即可将收敛后的所述原始隐写卷积神经网络模型作为目标隐写卷积神经网络模型。
为了能够更高效的获取一个性能良好的目标隐写卷积神经网络模型,本申请第一实施例在针对所述原始隐写卷积神经网络模型进行训练时,通过引入一个蒸馏卷积神经网络模型来和所述原始隐写卷积神经网络模型进行联合训练。
即,所述对所述原始隐写卷积神经网络模型进行训练,使所述原始隐写卷积神经网络模型收敛,包括:获取蒸馏卷积神经网络模型,其中,所述蒸馏卷积神经网络模型用于从所述原始隐写卷积神经网络模型的输出数据中获取与所述原始隐写卷积神经网络模型的输入数据对应的测量值;将所述蒸馏卷积神经网络模型和所述原始隐写卷积神经网络模型进行联合训练,使所述原始隐写卷积神经网络模型和所述蒸馏卷积神经网络模型收敛。
其处理过程具体为,首先,获取原始训练载体图像,并获取原始待隐写测量值;之后,将所述原始训练载体图像和所述原始待隐写测量值输入到所述原始隐写卷积神经网络模型中,获取原始训练隐写图像;再之后,将所述原始训练隐写图像输入到所述蒸馏卷积神经网络模型中,获取与所述原始待隐写测量值对应的蒸馏测量值;再之后,使用所述两个卷积神经网络模型对应的损失函数调整所述两个卷积神经网络模型的参数,使所述原始隐写卷积神经网络模型和所述蒸馏卷积神经网络模型收敛。
所述将所述蒸馏卷积神经网络模型和所述原始隐写卷积神经网络模型进行联合训练,使所述原始隐写卷积神经网络模型和所述蒸馏卷积神经网络模型收敛,包括:获取原始训练载体图像,并获取原始待隐写测量值;将所述原始训练载体图像和所述原始待隐写测量值输入到所述原始隐写卷积神经网络模型中,获取原始训练隐写图像;将所述原始训练隐写图像输入到所述蒸馏卷积神经网络模型中,获取与所述原始待隐写测量值对应的蒸馏测量值;使用所述两个卷积神经网络模型对应的损失函数调整所述两个卷积神经网络模型的参数,使所述原始隐写卷积神经网络模型和所述蒸馏卷积神经网络模型收敛。
例如,以H表示所述原始隐写卷积神经网络模型,以D表示所述蒸馏卷积神经网络模型,θH表示所述原始隐写卷积神经网络模型的参数,θD表示所述蒸馏卷积神经网络模型的参数,以ci表示任一原始训练载体图像,c'i表示与ci对应的原始训练隐写图像,Фxi表示所述原始待隐写测量值,则所述原始隐写卷积神经网络模型的损失函数ζHH)可以表示为:
所述蒸馏卷积神经网络模型的损失函数ζDD)可以表示为:
其中,所述蒸馏卷积神经网络模型包括一个全连接层和至少一个残差块;所述将所述原始训练隐写图像输入到所述蒸馏卷积神经网络模型中,获取与所述原始待隐写测量值对应的蒸馏测量值,包括:使用所述至少一个残差块对所述原始训练隐写图像进行处理,获取与所述原始待隐写测量值对应的待处理蒸馏测量值;使用所述全连接层对所述待处理蒸馏测量值进行处理,使所述待处理蒸馏测量值的大小与所述原始待隐写测量值的大小一致。
所述使用所述蒸馏卷积神经网络模型中的全连接层对所述待处理蒸馏测量值进行处理,使所述待处理蒸馏测量值的大小与所述原始待隐写测量值的大小一致,所述处理过程对应于图7中的下采样处理,具体为:对所述待处理蒸馏测量值进行维数调整处理,使所述待处理蒸馏测量值的维数与所述原始待隐写测量值的维数一致;对经过维数调整处理后的所述待处理蒸馏测量值进行形状重塑处理,使所述待处理蒸馏测量值的大小与所述原始待隐写测量值的大小一致;对经过所述维数调整处理和所述形状重塑处理后的所述待处理蒸馏测量值进行拼接处理,使所述待处理蒸馏测量值的大小与所述原始待隐写测量值的大小一致,其详细处理过程基本相似于上述的上采样处理,此处不再赘述。
经过上述处理之后,通过将所述原始隐写卷积神经网络模型和所述蒸馏卷积神经网络模型进行联合训练,最终可获得一个性能良好的目标隐写卷积神经网络模型,之后,即可使用所述目标隐写卷积神经网络模型进行图像的隐写处理,即将所述目标测量值隐写到所述载体图像中。
需要说明的是,所述目标隐写卷积神经网络模型包括一个全连接层和至少一个残差块;所述将所述载体图像和所述目标测量值输入到所述目标隐写卷积神经网络模型中,获取目标隐写图像,包括:使用所述全连接层对所述载体图像和所述测量值进行拼接处理,获取待处理拼接图像;将所述待处理拼接图像值输入到所述至少一个残差块中,获取目标隐写图像。
其中,所述对所述载体图像和所述目标测量值进行拼接处理,获取待处理拼接图像,包括:获取与所述载体图像对应的特征信息图像,其中,所述特征信息图像包括所述载体图像的纹理分布信息;根据所述特征信息图像,对所述目标测量值进行重新布局,获取与所述载体图像中的特征信息对应的重布局测量值;对所述载体图像和所述重布局测量值进行拼接处理,获取所述待处理拼接图像。
所述根据所述特征信息图像,对所述目标测量值进行重新布局,获取与所述载体图像中的特征信息对应的重布局测量值,包括:对所述目标测量值进行维数调整处理,使所述目标测量值的维数与所述特征信息图像的维数一致;对经过维数调整处理后的所述目标测量值进行形状重塑处理,使所述目标测量值的大小与所述特征信息图像的大小一致;对经过所述维数调整处理和所述形状重塑处理后的所述目标测量值和所述特征信息图像进行像素点的乘积运算,获取与所述载体图像中的特征信息对应的重布局测量值。
即,在使用所述目标隐写卷积神经网络模型将所述目标测量值隐写到所述载体图像中时,考虑到载体图像的特有属性,即不同的载体图像的纹理分布的信息是不相同的,而将所述目标测量值隐写到所述载体图像的纹理分布比较复杂的区域,势必能够带来更好的图像隐写效果。
因此,在本申请第一实施例中,引入了注意力机制来进行图像隐写处理。所述注意力机制,是指针对载体图像的特有属性,获取在进行隐写处理时需要注意的一些信息,如图像的纹理分布信息、亮度信息等信息。具体到本实施例中,是指在进行具体的隐写处理之前,需要先获取与所述载体图像对应的特征信息图像,然后再利用所述特征信息图像对所述隐写处理进行指导。
所述特征信息图像,是包括所述载体图像的纹理分布信息的图像。所述特征信息图像的获取方法,具体可以利用不同的特征提取算子对所述载体图像进行处理,以获取所述特征信息图像。
例如,可以使用边缘提取算子,如Sobel算子、Laplacian算子、Canny算子、Rebort算子等来提取所述载体图像的纹理边缘,以获取包含所述载体图像的纹理分别信息的边缘图像;当然,也可以使用一个卷积神经网络模型来获取所述特征信息图像,由于其为现有技术,此处不再赘述。
如图7所示,在获取到所述载体图像对应的特征信息图像之后,对所述目标测量值进行维数调整处理以及形状重塑处理,使所述目标测量值的大小与所述特征信息图像的大小一致,之后,对经过所述维数调整处理和所述形状重塑处理后的所述目标测量值和所述特征信息图像进行像素点的乘积运算,获取与所述载体图像中的特征信息对应的重布局测量值;再之后,通过将所述重布局测量值和所述载体图像进行拼接处理,具体为将所述重布局测量值中的像素点和所述载体图像中的像素点的值相加;再之后,将所述待处理拼接图像值输入到所述目标隐写卷积神经网络模型的至少一个残差块中,即可获取目标隐写图像。
需要说明的是,在本实施例中,所述原始训练样本子信息的大小被设置为32,也就是说一个原始训练样本信息被拆分为32*32大小的子信息;此外,所述原始训练样本信息的来源主要为四个数据集:Set14,LIVE1,VOC2012中的测试集,ImageNet中的测试集。
如图8所示,其为本申请第一实施例提供的各种图像隐写方法的隐写效果对比示意图;如图9所示,其为本申请第一实施例提供的各种图像隐写方法的峰值信噪比对比示意图,在图中,以PSNR表示峰值信噪比;如图10所示,其为本申请第一实施例提供的各种图像隐写方法在不同数据集上的结构相似性对比示意图,其中,结构相似性(SSIM,structuralsimilarity index)是一种衡量两幅图像相似度的指标;另外,参与比较的方法主要是上述进行简单描述的四个现有的图像隐写方法。根据图8、图9、图10可知,本申请第一实施例所述的图像隐写方法,通过对所述待嵌入信息进行压缩处理,以去除所述待嵌入信息中的冗余信息,并获取去除冗余信息后的、与所述待嵌入信息对应的目标测量值,再将所述目标测量值隐写到所述载体图像中,不仅可以减小隐写处理的计算量,提高隐写效率,还可以在一定程度上提升隐写效果。
另外,如图11所示,其为本申请第一实施例提供的本申请的图像隐写方法在引入注意力机制前后的隐写效果对比示意图;如图12所示,其为本申请第一实施例提供的各种图像隐写方法的隐写区域的对比示意图。本申请第一实施例提供的所述图像隐写方法在获得与所述待嵌入信息对应的目标测量值,并在针对所述目标测量值进行隐写处理时,引入了注意力机制,即通过获取包含所述载体图像的纹理分布信息的特征信息图像,并使用所述特征信息图像来对所述隐写处理进行指导,以使所述目标测量值可以被隐写到所述载体图像的纹理复杂区域,进而提升隐写效果,减小最终获得的目标隐写图像中的隐写信息被破坏的几率。
如图13所示,其为本申请第一实施例提供的本申请的图像隐写方法在不同采样率下的结果示意图。为了保证信息的安全,在对待嵌入信息进行隐写的同时,如果再对信息进行加密,将可以最大力度的保障信息的安全。本申请第一实施例提供的所述图像隐写方法,通过使用所述目标采样卷积神经网络模型来对所述待嵌入信息进行采样处理,并获得其对应的目标测量值,相当于变相对所述待嵌入信息进行了一个加密处理,所述目标测量值即相当于是所述待嵌入信息的密钥。另外,经过对所述待嵌入信息进行采样处理,还可以破坏所述待嵌入信息的可视化特性,以及在一定程度上破坏其原始数据的分布,可以极大的提升隐写效果,避免获取到的目标隐写图像中的隐写信息被破坏的几率。
需要说明的是,为了保证信息的安全,在本申请第一实施例中,将对待嵌入信息进行压缩处理后获得的目标测量值嵌入到载体图像中。在具体实施时,为了进一步提高信息的安全性,还可以针对载体图像进行压缩处理,获取与载体图像对应的载体测量值,之后将与待嵌入信息对应的目标测量值隐写到与载体图像对应的载体测量值中;另外,为了再进一步的提高信息的安全性,还可以先确定载体图像中待隐写入待嵌入信息的目标区域,之后,针对所述目标区域进行局部压缩处理,获取与载体图像对应的局部载体测量值,之后,将与待嵌入信息对应的目标测量值隐写入与载体图像对应的局部载体测量值中。
另外,在具体实施本申请第一实施例所述图像隐写方法时,可对所述图像隐写方法按照不同安全级别进行级别划分,并将不同安全级别对应的图像隐写方法对应的授权给不同级别的用户。
例如,针对图像隐写方法中所使用到的具有不同功能的卷积神经网络模型对图像隐写方法进行级别划分。在具体实施时,将仅包括目标采样卷积神经网络模型、目标隐写卷积神经网络模型及重建卷积神经网络模型的图像隐写方法划分为级别1;将包括目标采样卷积神经网络模型、指导卷积神经网络模型、目标隐写卷积神经网络模型及重建卷积神经网络模型的图像隐写方法划分为级别2;将包括目标采样卷积神经网络模型、指导卷积神经网络模型、目标隐写卷积神经网络模型、目标蒸馏卷积神经网络模型及重建卷积神经网络模型的图像隐写方法划分为级别3。之后,将包括的卷积神经网络模型最多的级别所对应的图像隐写方法授权给高级用户,如将级别3授权给高级用户;将次一级别对应的图像隐写方法授权给次高级用户,如将级别2授权给次高级用户;将最低级别对应的图像隐写方法授权给普通用户,如将级别1授权给普通用户。
又例如,按照图像隐写处理的复杂度的不同,对本申请第一实施例所述图像隐写方法进行级别划分。在具体实施时,将仅对待嵌入信息进行压缩处理后的目标测量值进行隐写处理,同时并未引入注意力机制的图像隐写方法划分为级别1;将对载体图像和待嵌入信息均进行了压缩处理,并将与待嵌入信息对应的目标测量值隐写到与载体图像对应的载体测量值中,同时并未引入注意力机制的图像隐写方法划分为级别2;将仅对待嵌入信息进行压缩处理后的目标测量值进行隐写处理,同时引入注意力机制的图像隐写方法划分为级别3;将针对引入注意力机制后的、针对载体图像中待隐写入待嵌入信息的目标区域进行局部压缩处理,以及对待嵌入信息进行压缩处理,并将与待嵌入信息对应的目标测量值隐写入与载体图像对应的局部载体测量值中的图像隐写方法划分为级别4。之后,将复杂度最高的级别所对应的图像隐写方法授权给高级用户,如将级别4授权给高级用户;将次一级别对应的图像隐写方法授权给次高级用户,如将级别3授权给次高级用户;将再次一级别对应的图像隐写方法授权给再次一级别的高级用户,如将级别2授权给次次高级用户;将最低级别对应的图像隐写方法授权给普通用户,如将级别1授权给普通用户。
需要说明的是,上述从两种不同角度描述了对本申请第一实施例所述图像隐写方法进行安全级别划分的方法。在具体实施时,针对上述两种角度的安全级别划分方法,可按实际需要进行更具体的划分;或者,可按实际的需要,从其它角度对本申请所述图像隐写方法进行安全级别划分,如将上述两种角度的划分方法进行组合以获得更细粒度的安全级别,此处不再一一描述。
综上所述,本申请第一实施例所述图像隐写方法,包括:获取载体图像,并获取待嵌入信息;对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值;将所述目标测量值隐写到所述载体图像中,获取目标隐写图像。
本申请第一实施例所述图像隐写方法在进行图像隐写处理时,在所述载体图像中隐写的是针对待嵌入信息进行压缩处理后获得的目标测量值,而非是待嵌入信息本身;这样处理一方面大大的减少了所述待嵌入信息中的冗余信息,减少了之后的隐写处理的计算量,可以提高隐写效率;另一方面因为隐写的是与所述待嵌入信息对应的目标测量值,而非是所述待嵌入信息本身,所述目标测量值相当于是所述待嵌入信息的密钥,即所述方法相当于是先对所述待嵌入信息做了一个加密,然后再对加密后的所述待嵌入信息进行隐写,进而使最终获得的目标隐写图像中的所述待嵌入信息不容易被破坏,大大的提高了所述待嵌入信息的安全性;并且,在进行具体的隐写处理时,引入了注意力机制,通过获取与所述载体图像对应的特征信息图像来指导隐写处理,可以将所述目标测量值更好的隐写到所述载体图像的纹理复杂区域,也可以一定程度的提高隐写效果,进而使最终获得的目标隐写图像中的所述待嵌入信息不容易被破坏,大大的提高了所述待嵌入信息的安全性。
在以上描述中,提供了一种图像隐写方法,与上述图像隐写相对应,本申请还提供一种图像提取方法,请参看图14所示,其为本申请第二实施例提供的一种图像提取方法的流程图,其中部分步骤在上述第一实施例中已经详细描述,所以此处描述的比较简单,相关之处参见本申请第一实施例提供的一种图像隐写方法中的部分说明即可,下述描述的处理过程仅是示意性的。
如图14所示,其为本申请第二实施例提供的一种图像提取方法的流程图,以下结合图7以及图14予以说明。
步骤S1401,获取待检测图像;
步骤S1402,从所述待检测图像中获取被隐写的测量值,其中,所述测量值是对原始隐写信息进行压缩处理后获得的;
步骤S1403,将所述测量值输入到用于重建图像的重建卷积神经网络模型中,获取与所述测量值对应的所述原始隐写信息。
其中,所述从所述待检测图像中获取被隐写的测量值,包括:
获取目标蒸馏卷积神经网络模型,其中,所述目标蒸馏卷积神经网络模型用于从隐写入测量值的待检测图像中,提取所述被隐写的测量值;将所述待检测图像输入到所述目标蒸馏卷积神经网络模型中,获取所述待检测图像中被隐写的测量值。
所述获取目标蒸馏卷积神经网络模型,包括:获取蒸馏卷积神经网络模型;对所述蒸馏卷积神经网络模型进行训练,使所述蒸馏卷积神经网络模型收敛,并将收敛后的所述蒸馏卷积神经网络模型作为所述目标蒸馏卷积神经网络模型。
所述目标蒸馏卷积神经网络模型,是在获取上述第一实施例中所述的目标隐写卷积神经网络模型时,通过引入所述蒸馏卷积神经网络模型,并将所述蒸馏卷积神经网络模型和上述第一实施例中所述原始隐写卷积神经网络模型进行联合训练,使所述原始隐写卷积神经网络模型和所述蒸馏卷积神经网络模型收敛,并将收敛后的所述蒸馏卷积神经网络模型作为所述目标蒸馏卷积神经网络模型。由于其详细处理过程在上述第一实施例中已经详细描述,此处不再赘述,具体参考上述第一实施例中描述即可。
所述重建卷积神经网络模型,通过以下步骤获取:
获取原始重建卷积神经网络模型;对所述原始重建卷积神经网络模型进行训练,使所述原始重建卷积神经网络模型收敛,并将收敛后的所述原始重建卷积神经网络模型作为所述目标重建卷积神经网络模型。
其中,所述对所述原始重建卷积神经网络模型进行训练,使所述原始重建卷积神经网络模型收敛,包括:获取原始训练检测测量值;将所述原始训练检测测量值输入到所述原始重建卷积神经网络模型中,获取原始重建图像;使用所述原始重建卷积神经网络模型对应的损失函数调整所述原始重建卷积神经网络模型的参数,使所述原始重建卷积神经网络模型收敛。
所述获取原始训练检测测量值,是指通过上述第一实施例中所述目标采样卷积神经网络模型通过针对所述原始训练样本信息进行采样处理后获取到的。其中,在本实施例中,所述原始训练样本信息的来源主要为四个数据集:Set14,LIVE1,VOC2012中的测试集,ImageNet中的测试集。
例如,以θR表示所述原始重建卷积神经网络模型的参数,以y”表示所述原始训练检测测量值,以xi表示所述原始训练样本信息,以表示所述原始重建卷积神经网络模型,则所述原始重建卷积神经网络模型的损失函数/>可以表示为:
所述原始训练检测测量值包括一个全连接层和至少一个残差块;所述将所述原始训练检测测量值输入到所述原始重建卷积神经网络模型中,获取原始重建图像,包括:使用所述全连接层对所述原始训练检测测量值进行处理,使所述原始训练检测测量值的维数和大小与所述待检测图像的维数和大小一致;使用所述至少一个残差块对与所述待检测图像的维数和大小一致的所述原始训练检测测量值进行处理,获取与所述原始训练检测测量值对应的原始重建图像。其中,所述残差块的结构与上述第一实施例中所述的卷积神经网络模型中所使用的残差块的结构相同,此处不再赘述。
与上述第一实施例提供的一种图像隐写方法相对应,本申请还提供一种图像隐写装置,请参看图15,其为本申请第三实施例提供的一种图像隐写装置的实施例的示意图,由于装置实施例基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可,下述描述的装置实施例仅仅是示意性的。本申请第三实施例提供的一种图像隐写装置包括如下部分:
信息获取单元1501,用于获取载体图像,并获取待嵌入信息。
测量值获取单元1502,用于对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值。
隐写图像获取单元1503,用于将所述目标测量值隐写到所述载体图像中,获取目标隐写图像。
与上述第一实施例提供的一种图像隐写方法相对应,本申请还提供一种电子设备,请参看图16,其为本申请第四实施例提供的一种电子设备的示意图,由于电子设备实施例基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可,下述描述的电子设备实施例仅仅是示意性的。本申请第四实施例提供的一种电子设备包括:
处理器1601;
存储器1602,用于存储图像隐写方法的程序,该设备通电并通过所述处理器运行所述图像隐写方法的程序后,执行下述步骤:
获取载体图像,并获取待嵌入信息;
对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值;
将所述目标测量值隐写到所述载体图像中,获取目标隐写图像。
与上述第一实施例提供的一种图像隐写方法相对应,本申请还提供一种存储设备,由于存储设备实施例基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可,下述描述的存储设备实施例仅仅是示意性的。本申请第五实施例提供的一种存储设备,存储有图像隐写方法的程序,该程序被处理器运行,执行下述步骤:
获取载体图像,并获取待嵌入信息;
对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值;
将所述目标测量值隐写到所述载体图像中,获取目标隐写图像。
与上述第二实施例提供的一种图像提取方法相对应,本申请还提供一种图像提取装置,请参看图17,其为本申请第六实施例提供的一种图像提取装置的实施例的示意图,由于装置实施例基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可,下述描述的装置实施例仅仅是示意性的。本申请第六实施例提供的一种图像提取装置包括如下部分:
图像获取单元1701,用于获取待检测图像;
测量值获取单元1702,用于从所述待检测图像中获取被隐写的测量值,其中,所述测量值是对原始隐写信息进行压缩处理后获得的;
原始隐写信息获取单元1703,用于将所述测量值输入到用于重建图像的重建卷积神经网络模型中,获取与所述测量值对应的所述原始隐写信息。
与上述第二实施例提供的一种图像提取方法相对应,本申请还提供另一种电子设备,请参看图18,其为本申请第七实施例提供的一种电子设备的示意图,由于电子设备实施例基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可,下述描述的电子设备实施例仅仅是示意性的。本申请第七实施例提供的一种电子设备包括:
处理器1801;
存储器1802,用于存储图像提取方法的程序,该设备通电并通过所述处理器运行所述图像提取方法的程序后,执行下述步骤:
获取待检测图像;
从所述待检测图像中获取被隐写的测量值,其中,所述测量值是对原始隐写信息进行压缩处理后获得的;
将所述测量值输入到用于重建图像的重建卷积神经网络模型中,获取与所述测量值对应的所述原始隐写信息。
与上述第二实施例提供的一种图像隐写方法相对应,本申请还提供一种存储设备,由于存储设备实施例基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可,下述描述的存储设备实施例仅仅是示意性的。本申请第八实施例提供的一种存储设备,存储有图像提取方法的程序,该程序被处理器运行,执行下述步骤:
获取待检测图像;
从所述待检测图像中获取被隐写的测量值,其中,所述测量值是对原始隐写信息进行压缩处理后获得的;
将所述测量值输入到用于重建图像的重建卷积神经网络模型中,获取与所述测量值对应的所述原始隐写信息。
本申请虽然以较佳实施例公开如上,但其并不是用来限定本申请,任何本领域技术人员在不脱离本申请的精神和范围内,都可以做出可能的变动和修改,因此本申请的保护范围应当以本申请权利要求所界定的范围为准。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括非暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。

Claims (22)

1.一种图像隐写方法,其特征在于,包括:
获取载体图像,并获取待嵌入信息;
对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值;
将所述目标测量值隐写到所述载体图像中,获取目标隐写图像;
其中,所述对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值,包括:
获取目标采样卷积神经网络模型,具体包括获取原始采样卷积神经网络模型和用于将所述原始采样卷积神经网络模型的输出数据恢复为所述原始采样卷积神经网络模型的输入数据的指导卷积神经网络模型,将所述指导卷积神经网络模型和所述原始采样卷积神经网络模型进行联合训练,使所述原始采样卷积神经网络模型收敛,并将收敛后的所述原始采样卷积神经网络模型作为所述目标采样卷积神经网络模型;其中,所述目标采样卷积神经网络模型用于对所述待嵌入信息进行压缩处理;
使用所述目标采样卷积神经网络模型对所述待嵌入信息进行处理,获取所述目标测量值。
2.根据权利要求1所述的图像隐写方法,其特征在于,所述将所述指导卷积神经网络模型和所述原始采样卷积神经网络模型进行联合训练,使所述原始采样卷积神经网络模型收敛,包括:
获取原始训练样本信息;
将所述原始训练样本信息输入到所述原始采样卷积神经网络模型中,获取与所述原始训练样本信息对应的原始训练测量值;
将所述原始训练测量值输入到所述指导卷积神经网络模型中,获取与所述原始训练样本信息对应的指导样本信息;
通过所述指导卷积神经网络模型的损失函数调整所述指导卷积神经网络模型的参数和所述原始采样卷积神经网络模型的参数,使所述原始采样卷积神经网络模型收敛。
3.根据权利要求2所述的图像隐写方法,其特征在于,所述将所述原始训练样本信息输入到所述原始采样卷积神经网络模型中,获取与所述原始训练样本信息对应的原始训练测量值,包括:
将所述原始训练样本信息划分为至少一个原始训练样本子信息;
将所述至少一个原始训练样本子信息输入到所述原始采样卷积神经网络模型中,获取至少一个原始训练子测量值。
4.根据权利要求3所述的图像隐写方法,其特征在于,所述将所述原始训练测量值输入到所述指导卷积神经网络模型中,获取与所述原始训练样本信息对应的指导样本信息,包括:
将所述至少一个原始训练子测量值输入到所述指导卷积神经网络模型中,获取与所述原始训练样本信息对应的指导样本信息。
5.根据权利要求4所述的图像隐写方法,其特征在于,所述指导卷积神经网络模型包括一个全连接层和至少一个残差块;
所述将所述至少一个原始训练子测量值输入到所述指导卷积神经网络模型中,获取与所述原始训练样本信息对应的指导样本信息,包括:
使用所述全连接层对所述至少一个原始训练子测量值进行预处理,获取与所述原始训练样本信息的大小相同的预处理样本信息;
使用所述至少一个残差块对所述预处理样本信息进行处理,获取与所述原始训练样本信息对应的指导样本信息。
6.根据权利要求5所述的图像隐写方法,其特征在于,所述使用所述全连接层对所述至少一个原始训练子测量值进行预处理,获取与所述原始训练样本信息的大小相同的预处理样本信息,包括:
对所述至少一个原始训练子测量值进行维数调整处理,使所述至少一个原始训练子测量值的维数与所述原始训练样本信息的维数一致;
对经过维数调整处理后的所述至少一个原始训练子测量值进行形状重塑处理,使所述至少一个原始训练子测量值的大小与所述原始训练样本子信息的大小一致;
对经过所述维数调整处理和所述形状重塑处理后的所述至少一个原始训练子测量值进行拼接处理,获取与所述原始训练样本信息的大小相同的预处理样本信息。
7.根据权利要求1所述的图像隐写方法,其特征在于,所述将所述目标测量值隐写到所述载体图像中,获取目标隐写图像,包括:
获取目标隐写卷积神经网络模型;
将所述目标测量值和所述载体图像输入到所述目标隐写卷积神经网络模型中,获取所述目标隐写图像。
8.根据权利要求7所述的图像隐写方法,其特征在于,所述目标隐写卷积神经网络模型包括一个全连接层和至少一个残差块;
所述将所述载体图像和所述目标测量值输入到所述目标隐写卷积神经网络模型中,获取所述目标隐写图像,包括:
使用所述全连接层对所述载体图像和所述测量值进行拼接处理,获取待处理拼接图像;
将所述待处理拼接图像值输入到所述至少一个残差块中,获取目标隐写图像。
9.根据权利要求8所述的图像隐写方法,其特征在于,所述对所述载体图像和所述目标测量值进行拼接处理,获取待处理拼接图像,包括:
获取与所述载体图像对应的特征信息图像,其中,所述特征信息图像包括所述载体图像的纹理分布信息;
根据所述特征信息图像,对所述目标测量值进行重新布局,获取与所述载体图像中的特征信息对应的重布局测量值;
对所述载体图像和所述重布局测量值进行拼接处理,获取所述待处理拼接图像。
10.根据权利要求9所述的图像隐写方法,其特征在于,所述根据所述特征信息图像,对所述目标测量值进行重新布局,获取与所述载体图像中的特征信息对应的重布局测量值,包括:
对所述目标测量值进行维数调整处理,使所述目标测量值的维数与所述特征信息图像的维数一致;
对经过维数调整处理后的所述目标测量值进行形状重塑处理,使所述目标测量值的大小与所述特征信息图像的大小一致;
对经过所述维数调整处理和所述形状重塑处理后的所述目标测量值和所述特征信息图像进行像素点的乘积运算,获取与所述载体图像中的特征信息对应的重布局测量值。
11.根据权利要求7所述的图像隐写方法,其特征在于,所述获取目标隐写卷积神经网络模型,包括:
获取用于生成隐写图像的原始隐写卷积神经网络模型;
对所述原始隐写卷积神经网络模型进行训练,使所述原始隐写卷积神经网络模型收敛,并将收敛后的所述原始隐写卷积神经网络模型作为所述目标隐写卷积神经网络模型。
12.根据权利要求11所述的图像隐写方法,其特征在于,所述对所述原始隐写卷积神经网络模型进行训练,使所述原始隐写卷积神经网络模型收敛,包括:
获取蒸馏卷积神经网络模型,其中,所述蒸馏卷积神经网络模型用于从所述原始隐写卷积神经网络模型的输出数据中获取与所述原始隐写卷积神经网络模型的输入数据对应的测量值;
将所述蒸馏卷积神经网络模型和所述原始隐写卷积神经网络模型进行联合训练,使所述原始隐写卷积神经网络模型和所述蒸馏卷积神经网络模型收敛。
13.根据权利要求12所述的图像隐写方法,其特征在于,所述将所述蒸馏卷积神经网络模型和所述原始隐写卷积神经网络模型进行联合训练,使所述原始隐写卷积神经网络模型和所述蒸馏卷积神经网络模型收敛,包括:
获取原始训练载体图像,并获取原始待隐写测量值;
将所述原始训练载体图像和所述原始待隐写测量值输入到所述原始隐写卷积神经网络模型中,获取原始训练隐写图像;
将所述原始训练隐写图像输入到所述蒸馏卷积神经网络模型中,获取与所述原始待隐写测量值对应的蒸馏测量值;
使用所述两个卷积神经网络模型对应的损失函数调整所述两个卷积神经网络模型的参数,使所述原始隐写卷积神经网络模型和所述蒸馏卷积神经网络模型收敛。
14.根据权利要求13所述的图像隐写方法,其特征在于,所述蒸馏卷积神经网络模型包括一个全连接层和至少一个残差块;
所述将所述原始训练隐写图像输入到所述蒸馏卷积神经网络模型中,获取与所述原始待隐写测量值对应的蒸馏测量值,包括:
使用所述至少一个残差块对所述原始训练隐写图像进行处理,获取与所述原始待隐写测量值对应的待处理蒸馏测量值;
使用所述全连接层对所述待处理蒸馏测量值进行处理,使所述待处理蒸馏测量值的维数和大小与所述原始待隐写测量值的维数和大小一致。
15.根据权利要求1所述的图像隐写方法,其特征在于,所述对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值,包括:
使用压缩感知技术对所述待嵌入信息进行处理,获取与所述待嵌入信息对应的测量值。
16.一种图像提取方法,其特征在于,包括:
获取待检测图像;
从所述待检测图像中获取被隐写的测量值,其中,所述测量值是对原始隐写信息进行压缩处理后获得的;
将所述测量值输入到用于重建图像的重建卷积神经网络模型中,获取与所述测量值对应的所述原始隐写信息;
其中,所述从所述待检测图像中获取被隐写的测量值,包括:
获取目标蒸馏卷积神经网络模型,具体包括获取用于生成隐写图像的原始隐写卷积神经网络模型和用于从所述原始隐写卷积神经网络模型的输出数据中获取与所述原始隐写卷积神经网络模型的输入数据对应的测量值的蒸馏卷积神经网络模型,将所述蒸馏卷积神经网络模型和所述原始隐写卷积神经网络模型进行联合训练,使所述原始隐写卷积神经网络模型和所述蒸馏卷积神经网络模型收敛,并将收敛后的所述蒸馏卷积神经网络模型作为所述目标蒸馏卷积神经网络模型;其中,所述目标蒸馏卷积神经网络模型用于从隐写入测量值的待检测图像中提取所述被隐写的测量值;
将所述待检测图像输入到所述目标蒸馏卷积神经网络模型中,获取所述待检测图像中被隐写的测量值。
17.一种图像隐写装置,其特征在于,包括:
信息获取单元,用于获取载体图像,并获取待嵌入信息;
测量值获取单元,用于对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值;
隐写图像获取单元,用于将所述目标测量值隐写到所述载体图像中,获取目标隐写图像;
其中,所述对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值,包括:
获取目标采样卷积神经网络模型,具体包括获取原始采样卷积神经网络模型和用于将所述原始采样卷积神经网络模型的输出数据恢复为所述原始采样卷积神经网络模型的输入数据的指导卷积神经网络模型,将所述指导卷积神经网络模型和所述原始采样卷积神经网络模型进行联合训练,使所述原始采样卷积神经网络模型收敛,并将收敛后的所述原始采样卷积神经网络模型作为所述目标采样卷积神经网络模型;其中,所述目标采样卷积神经网络模型用于对所述待嵌入信息进行压缩处理;
使用所述目标采样卷积神经网络模型对所述待嵌入信息进行处理,获取所述目标测量值。
18.一种电子设备,其特征在于,包括:
处理器;
存储器,用于存储图像隐写方法的程序,该设备通电并通过所述处理器运行所述图像隐写方法的程序后,执行下述步骤:
获取载体图像,并获取待嵌入信息;
对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值;
将所述目标测量值隐写到所述载体图像中,获取目标隐写图像;
其中,所述对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值,包括:
获取目标采样卷积神经网络模型,具体包括获取原始采样卷积神经网络模型和用于将所述原始采样卷积神经网络模型的输出数据恢复为所述原始采样卷积神经网络模型的输入数据的指导卷积神经网络模型,将所述指导卷积神经网络模型和所述原始采样卷积神经网络模型进行联合训练,使所述原始采样卷积神经网络模型收敛,并将收敛后的所述原始采样卷积神经网络模型作为所述目标采样卷积神经网络模型;其中,所述目标采样卷积神经网络模型用于对所述待嵌入信息进行压缩处理;
使用所述目标采样卷积神经网络模型对所述待嵌入信息进行处理,获取所述目标测量值。
19.一种存储设备,其特征在于,
存储有图像隐写方法的程序,该程序被处理器运行,执行下述步骤:
获取载体图像,并获取待嵌入信息;
对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值;
将所述目标测量值隐写到所述载体图像中,获取目标隐写图像;
其中,所述对所述待嵌入信息进行压缩处理,获取与所述待嵌入信息对应的目标测量值,包括:
获取目标采样卷积神经网络模型,具体包括获取原始采样卷积神经网络模型和用于将所述原始采样卷积神经网络模型的输出数据恢复为所述原始采样卷积神经网络模型的输入数据的指导卷积神经网络模型,将所述指导卷积神经网络模型和所述原始采样卷积神经网络模型进行联合训练,使所述原始采样卷积神经网络模型收敛,并将收敛后的所述原始采样卷积神经网络模型作为所述目标采样卷积神经网络模型;其中,所述目标采样卷积神经网络模型用于对所述待嵌入信息进行压缩处理;
使用所述目标采样卷积神经网络模型对所述待嵌入信息进行处理,获取所述目标测量值。
20.一种图像提取装置,其特征在于,包括:
图像获取单元,用于获取待检测图像;
测量值获取单元,用于从所述待检测图像中获取被隐写的测量值,其中,所述测量值是对原始隐写信息进行压缩处理后获得的;
原始隐写信息获取单元,用于将所述测量值输入到用于重建图像的重建卷积神经网络模型中,获取与所述测量值对应的所述原始隐写信息;
其中,所述从所述待检测图像中获取被隐写的测量值,包括:
获取目标蒸馏卷积神经网络模型,具体包括获取用于生成隐写图像的原始隐写卷积神经网络模型和用于从所述原始隐写卷积神经网络模型的输出数据中获取与所述原始隐写卷积神经网络模型的输入数据对应的测量值的蒸馏卷积神经网络模型,将所述蒸馏卷积神经网络模型和所述原始隐写卷积神经网络模型进行联合训练,使所述原始隐写卷积神经网络模型和所述蒸馏卷积神经网络模型收敛,并将收敛后的所述蒸馏卷积神经网络模型作为所述目标蒸馏卷积神经网络模型;其中,所述目标蒸馏卷积神经网络模型用于从隐写入测量值的待检测图像中提取所述被隐写的测量值;
将所述待检测图像输入到所述目标蒸馏卷积神经网络模型中,获取所述待检测图像中被隐写的测量值。
21.一种电子设备,其特征在于,包括:
处理器;
存储器,用于存储图像提取方法的程序,该设备通电并通过所述处理器运行所述图像提取方法的程序后,执行下述步骤:
获取待检测图像;
从所述待检测图像中获取被隐写的测量值,其中,所述测量值是对原始隐写信息进行压缩处理后获得的;
将所述测量值输入到用于重建图像的重建卷积神经网络模型中,获取与所述测量值对应的所述原始隐写信息;
其中,所述从所述待检测图像中获取被隐写的测量值,包括:
获取目标蒸馏卷积神经网络模型,具体包括获取用于生成隐写图像的原始隐写卷积神经网络模型和用于从所述原始隐写卷积神经网络模型的输出数据中获取与所述原始隐写卷积神经网络模型的输入数据对应的测量值的蒸馏卷积神经网络模型,将所述蒸馏卷积神经网络模型和所述原始隐写卷积神经网络模型进行联合训练,使所述原始隐写卷积神经网络模型和所述蒸馏卷积神经网络模型收敛,并将收敛后的所述蒸馏卷积神经网络模型作为所述目标蒸馏卷积神经网络模型;其中,所述目标蒸馏卷积神经网络模型用于从隐写入测量值的待检测图像中提取所述被隐写的测量值;
将所述待检测图像输入到所述目标蒸馏卷积神经网络模型中,获取所述待检测图像中被隐写的测量值。
22.一种存储设备,其特征在于,
存储有图像提取方法的程序,该程序被处理器运行,执行下述步骤:
获取待检测图像;
从所述待检测图像中获取被隐写的测量值,其中,所述测量值是对原始隐写信息进行压缩处理后获得的;
将所述测量值输入到用于重建图像的重建卷积神经网络模型中,获取与所述测量值对应的所述原始隐写信息;
其中,所述从所述待检测图像中获取被隐写的测量值,包括:
获取目标蒸馏卷积神经网络模型,具体包括获取用于生成隐写图像的原始隐写卷积神经网络模型和用于从所述原始隐写卷积神经网络模型的输出数据中获取与所述原始隐写卷积神经网络模型的输入数据对应的测量值的蒸馏卷积神经网络模型,将所述蒸馏卷积神经网络模型和所述原始隐写卷积神经网络模型进行联合训练,使所述原始隐写卷积神经网络模型和所述蒸馏卷积神经网络模型收敛,并将收敛后的所述蒸馏卷积神经网络模型作为所述目标蒸馏卷积神经网络模型;其中,所述目标蒸馏卷积神经网络模型用于从隐写入测量值的待检测图像中提取所述被隐写的测量值;
将所述待检测图像输入到所述目标蒸馏卷积神经网络模型中,获取所述待检测图像中被隐写的测量值。
CN201910850963.3A 2019-09-10 2019-09-10 图像隐写及提取方法、装置及电子设备 Active CN112561766B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201910850963.3A CN112561766B (zh) 2019-09-10 2019-09-10 图像隐写及提取方法、装置及电子设备
TW109118078A TW202111604A (zh) 2019-09-10 2020-05-29 圖像隱寫及提取方法、裝置及電子設備
PCT/CN2020/113735 WO2021047471A1 (zh) 2019-09-10 2020-09-07 图像隐写及提取方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910850963.3A CN112561766B (zh) 2019-09-10 2019-09-10 图像隐写及提取方法、装置及电子设备

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202410180078.XA Division CN118158329A (zh) 2019-09-10 图像隐写和提取的待隐写及提取信息处理方法、电子设备

Publications (2)

Publication Number Publication Date
CN112561766A CN112561766A (zh) 2021-03-26
CN112561766B true CN112561766B (zh) 2024-03-05

Family

ID=74866895

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910850963.3A Active CN112561766B (zh) 2019-09-10 2019-09-10 图像隐写及提取方法、装置及电子设备

Country Status (3)

Country Link
CN (1) CN112561766B (zh)
TW (1) TW202111604A (zh)
WO (1) WO2021047471A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113076549B (zh) * 2021-04-08 2023-05-12 上海电力大学 一种基于新型U-Net结构生成器的对抗网络图像隐写方法
CN112926607B (zh) * 2021-04-28 2023-02-17 河南大学 基于卷积神经网络的双支网络图像隐写框架及方法
CN113326531B (zh) * 2021-06-29 2022-07-26 湖南汇视威智能科技有限公司 一种鲁棒的高效分布式人脸图像隐写方法
CN114157773B (zh) * 2021-12-01 2024-02-09 杭州电子科技大学 基于卷积神经网络和频域注意力的图像隐写方法
CN114926706A (zh) * 2022-05-23 2022-08-19 支付宝(杭州)信息技术有限公司 数据处理方法、装置及设备
CN116095339A (zh) * 2023-01-16 2023-05-09 北京智芯微电子科技有限公司 图像传输方法、训练方法、电子设备及可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016165082A1 (zh) * 2015-04-15 2016-10-20 中国科学院自动化研究所 基于深度学习的图像隐写检测方法
CN106339978A (zh) * 2016-08-24 2017-01-18 湖南工业大学 一种基于压缩感知的彩色数字图像水印嵌入及提取方法
CN106791872A (zh) * 2016-11-18 2017-05-31 南京邮电大学 基于svd的信息隐藏方法
CN108961137A (zh) * 2018-07-12 2018-12-07 中山大学 一种基于卷积神经网络的图像隐写分析方法及系统
CN110110535A (zh) * 2019-04-24 2019-08-09 湖北工业大学 一种基于像素矩阵的低失真隐写方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016165082A1 (zh) * 2015-04-15 2016-10-20 中国科学院自动化研究所 基于深度学习的图像隐写检测方法
CN106339978A (zh) * 2016-08-24 2017-01-18 湖南工业大学 一种基于压缩感知的彩色数字图像水印嵌入及提取方法
CN106791872A (zh) * 2016-11-18 2017-05-31 南京邮电大学 基于svd的信息隐藏方法
CN108961137A (zh) * 2018-07-12 2018-12-07 中山大学 一种基于卷积神经网络的图像隐写分析方法及系统
CN110110535A (zh) * 2019-04-24 2019-08-09 湖北工业大学 一种基于像素矩阵的低失真隐写方法

Also Published As

Publication number Publication date
TW202111604A (zh) 2021-03-16
CN112561766A (zh) 2021-03-26
WO2021047471A1 (zh) 2021-03-18

Similar Documents

Publication Publication Date Title
CN112561766B (zh) 图像隐写及提取方法、装置及电子设备
Bhowmik et al. Visual attention-based image watermarking
Li et al. Dither modulation of significant amplitude difference for wavelet based robust watermarking
WO2020228520A1 (zh) 图像变换方法、装置、存储介质及计算机设备
US20230008085A1 (en) Method for embedding watermark in video data and apparatus, method for extracting watermark in video data and apparatus, device, and storage medium
Duan et al. High-capacity image steganography based on improved FC-DenseNet
CN111932432B (zh) 盲水印的植入方法、检测方法、装置、设备及存储介质
Shih et al. An adjustable-purpose image watermarking technique by particle swarm optimization
CN106454367B (zh) 一种多媒体文件的标识方法及系统
Zhang et al. Application research of digital media image processing technology based on wavelet transform
Keyvanpour et al. A secure method in digital video watermarking with transform domain algorithms
Wu et al. An image authentication and recovery system based on discrete wavelet transform and convolutional neural networks
CN115482142A (zh) 暗水印添加方法、提取方法、系统、存储介质及终端
Jana et al. A new DCT based robust image watermarking scheme using cellular automata
Xintao et al. Hide the image in fc-densenets to another image
Kumar et al. Robust approach of video steganography using combined keypoints detection algorithm against geometrical and signal processing attacks
Verma Review of steganography techniques
Maheswari et al. Image Steganography using Hybrid Edge Detector and Ridgelet Transform.
Kim et al. Robust watermarking in curvelet domain for preserving cleanness of high-quality images
Kich et al. Image steganography by deep CNN auto-encoder networks
CN118158329A (zh) 图像隐写和提取的待隐写及提取信息处理方法、电子设备
CN112966230A (zh) 信息隐写及提取方法、装置及设备
Kaimal et al. A modified anti-forensic technique for removing detectable traces from digital images
CN103379325A (zh) 一种面向版权保护服务的视频地理数据数字水印方法
Deepika et al. Secure Text Sharing using Medical Image Steganography

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant