CN111640444B - 基于cnn的自适应音频隐写方法和秘密信息提取方法 - Google Patents

基于cnn的自适应音频隐写方法和秘密信息提取方法 Download PDF

Info

Publication number
CN111640444B
CN111640444B CN202010307518.5A CN202010307518A CN111640444B CN 111640444 B CN111640444 B CN 111640444B CN 202010307518 A CN202010307518 A CN 202010307518A CN 111640444 B CN111640444 B CN 111640444B
Authority
CN
China
Prior art keywords
audio
secret information
network
training
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010307518.5A
Other languages
English (en)
Other versions
CN111640444A (zh
Inventor
王让定
王杰
严迪群
董理
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo University
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN202010307518.5A priority Critical patent/CN111640444B/zh
Publication of CN111640444A publication Critical patent/CN111640444A/zh
Application granted granted Critical
Publication of CN111640444B publication Critical patent/CN111640444B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

一种基于CNN的自适应音频隐写方法和秘密信息提取方法,根据对训练集中的音频信号与秘密信息进行维度叠加后将其输入到编码网络中,得到采样点修改向量;之后将其与音频信号进行相加得到隐写音频,并将隐写音频输入到解码网络中得到解码后的秘密信息;接着根据损失函数分别更新解码网络和编码网络中的参数;并采用与上述相同的方法依次使用所有训练样本对编码网络和解码网络进行训练得到训练完成的编码网络和解码网络;完成上述操作后,将待隐写的秘密信息与音频信号按照上述处理后输入到训练完成的编码网络中即可得到隐写音频,并将隐写音频输入到训练完成的解码网络中,即得到提取出的秘密信息。该方法产生微弱的扰动,保证隐写后的音频质量。

Description

基于CNN的自适应音频隐写方法和秘密信息提取方法
技术领域
本发明涉及音频加密领域,特别涉及一种基于CNN的自适应音频隐写方法和秘密信息提取方法。
背景技术
数字隐写术被广泛应用于信息安全领域,是一项将秘密信息以不可见的方式隐藏在数字载体(例如,文本、语音、图像等)中,再通过公开的信道发送给接收者的技术。隐写术注重不可见性,它的优势在于隐藏秘密信息后,不容易引起第三方的注意力。传统的隐写术将秘密信息隐藏在数字载体的感知冗余部分。更为先进的自适应隐写术是通过设计失真代价函数,配合卷积编码达到高隐蔽性的隐写效果。
最新的隐写术发展趋势是结合深度学习技术来实现自动隐写。Hayes在文献“Generating steganographic images via adversarial training,Advances in NeuralInformation Processing Systems,pp.1954-1963,2017”首次提出在GAN框架下,以编码网络、解码网络和隐写分析网络作为组件构成端到端的隐写框架。编码网络以载体图像与秘密信息作为输入,输出隐写图像。解码网络接收到隐写图像后能够提取其中的秘密信息。隐写分析网络则以对手的身份提高隐写的隐蔽性。Zhu在文献“Hidden:Hiding data withdeep networks,”In Proceedings of the European Conference on Computer Vision,pp.657-672,2018.”中通过加入噪声模拟层极大的提高了隐写的鲁棒性,该方法可以抵御如JPEG压缩、噪声污染等攻击。Zhang在文献“SteganoGAN:high capacity imagesteganography with gans,”arXiv preprint arXiv:1901.03892,2019”中更进一步通过改造神经网络的结构,加入DenseNet模块实现了比前两者方法更大的隐写容量。
现有的技术如上述三篇文献都是应用于数字图像领域中,且Hayes和Zhu在文献中考虑到秘密信息与图像的二维特性,在编码网络中使用了全连接层,但由于音频的一维的时序特性,全连接层会需要大量的内存消耗,因而上述方法并不适用于音频载体;其次,为了提高隐写的隐蔽性,上述三篇文献都加入了隐写分析网络来对与编码网络进行对抗训练,但他们框架中所使用的隐写分析网络能力较弱,无法真正做到指导编码网络的训练,因此使用上述文献所生成的隐写音频会产生较强的扰动,无法保证隐写后的音频质量,易被人耳所感知。
发明内容
本发明所要解决的技术问题是针对现有技术的现状,提供一种基于CNN的自适应音频隐写方法和秘密信息提取方法,该方法在保证秘密信息提取的情况下减少了隐写音频所产生的扰动,保证了隐写后的音频质量,且提高了音频的不可感知性。
本发明解决上述技术问题所采用的技术方案为:一种基于CNN的自适应音频隐写方法和秘密信息提取方法,其特征在于:包括以下步骤:
步骤1、构建训练集和测试集:将音频样本库中的音频信号裁剪成长度一致的音频段,每个音频段中设有m个采样值;并在音频样本库中选取部分音频段构建成训练集,剩余的音频段构建成测试集;m为正整数;
步骤2、在训练集中任意选取n个音频段,将其构成一个训练样本,并对该训练样本进行预处理,得到m*n的音频信号x;n为正整数;预处理的具体步骤为:
步骤2-1、对训练样本中每个音频段的m个采样值均进行归一化处理,使每个音频段中m个采样值均归一化到[-1,1]内;
步骤2-2、将每个音频段中m个归一化之后的采样值分别经过高阶滤波器处理,得到高阶滤波之后的采样值,并将其构建成m*n的音频信号x;
步骤3、随机生成n个长度为m的秘密信息比特流,并将其构建成m*n的秘密信息y;
步骤4、将步骤2中m*n的音频信号x和步骤3中m*n的秘密信息y进行维度叠加,得到m*2n的矩阵;
步骤5、将m*2n的矩阵作为输入数据,并将其输入到初始化的编码网络中,得到m*n的采样点修改向量E;其中,该编码网络为卷积神经网络;
步骤6、根据步骤5中得到的m*n的采样点修改向量E与步骤2中m*n的音频信号x得到隐写音频s;计算公式为:
s=x+E*α;
其中,α为预设的系数;
步骤7、将隐写音频s输入到初始化的解码网络中,得到解码后m*n的秘密信息y′;其中,该解码网络为卷积神经网络;
步骤8、计算解码网络中的损失函数LD,并根据该损失函数LD更新解码网络中的参数;解码网络中的损失函数LD的计算公式为:
Figure BDA0002456285130000021
其中,yij为秘密信息y中第i行第j列对应的数值,y′ij为解码后的秘密信息y′中第i行第j列对应的数值;
步骤9、计算编码网络中的损失函数LE,并根据该损失函数LE更新编码网络中的参数;解码网络中的损失函数LE的计算公式为:
Figure BDA0002456285130000031
其中,β和γ分别为控制自适应损失函数Le和解码损失函数LD权重的经验系数,xj为音频信号x中第j列所有行对应的数值,其为m*1的矩阵,
Figure BDA0002456285130000032
为卷积运算,f为任意阶数的高阶滤波器,
Figure BDA0002456285130000033
为对
Figure BDA0002456285130000034
运算后得到的m*1的矩阵中的每个数值取绝对值,并在其中选取出第i行对应的绝对值;xij音频信号x中第i行第j列对应的数值,σ为预设的常量,Eij为采样点修改向量E中第i行第j列对应的数值;
步骤10、重新在训练集中构建多个训练样本,并依次将每个训练样本采用步骤2~步骤9中相同的方法对上述更新后的编码网络和解码网络继续进行训练,直至训练集中的所有训练样本按预设的训练圈数对编码网络和解码网络的训练后,得到训练完成的编码网络和解码网络;
步骤11、将需要发送的秘密信息转换成二进制比特流,并将其构建成m*k的秘密信息y″,并在测试集中任意选取k个音频段,将其构建成m*k的测试样本x″;最后,将测试样本x″和秘密信息y″按照步骤2~步骤4中的处理后,则输入到训练完成的编码网络中,并根据步骤6中的计算后得到隐写音频s″,k为正整数;
步骤12、将步骤11中得到的隐写音频s″输入到训练完成的解码网络中,即得到从隐写音频s″中提取出的秘密信息。
作为改进,所述步骤5中的编码网络包括依次连接的N个卷积块层、1个卷积层和第一激活函数,所述每个卷积块层中包括依次连接的卷积层、归一化层和第二激活函数,N为正整数。
作为优选,N=7。
在本方案中,所述第一激活函数采用TanH激活函数;所述第二激活函数采用ReLU激活函数。
进一步的,所述步骤7中的解码网络包括依次连接的M个卷积块层和1个卷积层,所述每个卷积块层中包括依次连接的卷积层和第三激活函数,M为正整数。
作为优选,M=7。
在本方案中,所述第三激活函数采用ReLU激活函数。
与现有技术相比,本发明的优点在于:通过生成采样点修改向量,可以对秘密信息嵌入后的扰动进行约束,减少所产生的扰动,另外在编码网络的训练过程中通过对自适应损失函数进行优化,会使秘密信息嵌入在音频难以感知的区域,用于保证隐写后的音频质量,提高隐写后音频的不可感知性;且该方法中采用卷积神经网络进行编码和解码,当网络框架训练完成后即可直接用于音频隐写和秘密信息提取,提高了音频隐写和秘密信息提取的效率,使用更加方便。
附图说明
图1为本发明实施例中音频隐写方法和秘密信息提取方法的网络框架图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
如图1所示,一种基于CNN的自适应音频隐写方法和秘密信息提取方法,包括以下步骤:
步骤1、构建训练集和测试集:将音频样本库中的音频信号裁剪成长度一致的音频段,每个音频段中设有m个采样值;并在音频样本库中选取部分音频段构建成训练集,剩余的音频段构建成测试集;m为正整数;其中,训练集中的音频段个数远大于测试集中的音频段个数;训练集中的音频段个数与测试集中的音频段个数之间的比例可以采用现有深度学习技术中训练集与测试集构建时常用的比例;
步骤2、在训练集中任意选取n个音频段,将其构成一个训练样本;并对该训练样本进行预处理,得到m*n的音频信号x;n为正整数;预处理的具体步骤为:
步骤2-1、对训练样本中每个音频段的m个采样值均进行归一化处理,使每个音频段中m个采样值均归一化到[-1,1]内;
步骤2-2、将每个音频段中m个归一化之后的采样值分别经过高阶滤波器处理,得到高阶滤波之后的采样值,并将其构建成m*n的音频信号x;
步骤3、随机生成n个长度为m的秘密信息比特流,并将其构建成m*n的秘密信息y;
步骤4、将步骤2中m*n的音频信号x和步骤3中m*n的秘密信息y进行维度叠加,得到m*2n的矩阵,本实施例中,m*2n的矩阵可以为[x,y],也可以为[y,x];
步骤5、将m*2n的矩阵作为输入数据,并将其输入到初始化的编码网络中,得到m*n的采样点修改向量E;其中,该编码网络为卷积神经网络;
该编码网络对应的卷积神经网络包括依次连接的N个卷积块层、1个卷积层和第一激活函数,每个卷积块层中包括依次连接的卷积层、归一化层和第二激活函数,N为正整数;其中,卷积层为现有卷积神经网络中的卷积层;本实施例中,通过实验确定出的N=7,第一激活函数采用TanH激活函数;第二激活函数采用ReLU激活函数;
步骤6、根据步骤5中得到的m*n的采样点修改向量E与步骤2中m*n的音频信号x得到隐写音频s;计算公式为:
s=x+E*α;
其中,α为预设的系数;本实施例中,α=200;
步骤7、将隐写音频s输入到初始化的解码网络中,得到解码后m*n的秘密信息y′;其中,该解码网络为卷积神经网络;
其中,解码网络对应的卷积神经网络包括依次连接的M个卷积块层和1个卷积层,所述每个卷积块层中包括依次相连接的卷积层和第三激活函数,M为正整数,其中,卷积层为现有卷积神经网络中的卷积层;实施例中,通过实验确定出的M=7,第三激活函数采用ReLU激活函数;
步骤8、计算解码网络中的损失函数LD,并根据该损失函数LD更新解码网络中的参数;
对于解码网络,其唯一的任务是从接收到的隐写音频中提取出原始的秘密信息,本实施例中,使用二元交叉熵函数作为损失函数,用以衡量秘密信息提取时的失真,解码网络中的损失函数LD的计算公式为:
Figure BDA0002456285130000051
其中,yij为秘密信息y中第i行第j列对应的数值,y′ij为解码后的秘密信息y′中第i行第j列对应的数值;
步骤9、计算编码网络中的损失函数LE,并根据该损失函数LE更新编码网络中的参数;
对于编码网络,编码网络的目标是以产生尽可能小的扰动将秘密信息嵌入到原始音频信号中,同时,秘密信息嵌入的位置被期望于在音频的难以感知部分,本实施例中,引入了DRF失真代价函数作为损失函数,指导编码网络的训练,DRF失真代价函数的定义赋予了音频复杂区域与采样点幅值大的区域更多的失真,该部分计算得到自适应损失函数Le;除此之外,编码网络中还应该考虑到解码网络提取的准确率,这是因为,如果编码网络不考虑解码环节,那么容易出现所产生的采样点修改向量E非常轻微,导致解码网络无法准确提取。因而除了自适应损失函数Le以外,编码网络还将解码网络对应的损失LD作为优化目标之一;
因此,解码网络中的损失函数LE的计算公式为:
Figure BDA0002456285130000061
其中,β和γ分别为控制自适应损失函数Le和解码损失函数LD权重的经验系数,xj为音频信号x中第j列所有行对应的数值,其为m*1的矩阵,
Figure BDA0002456285130000062
为卷积运算,f为任意阶数的高阶滤波器,任意阶数的高阶滤波器对应为q*1的矩阵,q为高阶滤波器的阶数;
Figure BDA0002456285130000063
为对
Figure BDA0002456285130000064
运算后得到的m*1的矩阵中的每个数值取绝对值,并在其中选取出第i行对应的绝对值;xij音频信号x中第i行第j列对应的数值,σ为预设的常量,Eij为采样点修改向量E中第i行第j列对应的数值;本实施例中,在更注重于不可感知性的情况下,β=1;γ=0.00001;且可以根据需求的不同,可以选择不同的数值;
步骤10、重新在训练集中构建多个训练样本,并依次将每个训练样本采用步骤2~步骤9中相同的方法对上述更新后的编码网络和解码网络继续进行训练,直至训练集中的所有训练样本按预设的训练圈数对编码网络和解码网络的训练后,得到训练完成的编码网络和解码网络;
步骤11、将需要发送的秘密信息转换成二进制比特流,并将其构建成m*k的秘密信息y″,并在测试集中任意选取k个音频段,将其构建成m*k的测试样本x″;最后,将测试样本x″和秘密信息y″按照步骤2~步骤4中的处理后,则输入到训练完成的编码网络中,并根据步骤6中的计算后得到隐写音频s″,k为正整数;本实施例中,在测试时,k可以为1,当然,也可以为大于1的正整数;
步骤12、将步骤11中得到的隐写音频s″输入到训练完成的解码网络中,即得到从隐写音频s″中提取出的秘密信息。
本发明中通过上述步骤得到训练完成的编码网络和解码网络,在使用过程中,隐写者首先将需要发送的秘密信息转化为二进制的比特信息,并使用编码网络对讲一个音频样本与秘密信息进行处理,构造得到隐写音频,并通过公开的信道将隐写音频发送给接收者。接收者方拥有所对应的解码网络,即可从接收到的隐写音频中提取秘密信息。因此该音频隐写方法通过深度学习技术,当网络框架训练完成即可直接用于音频的隐写与秘密信息的提取,提高了隐藏信息的效率。同时,通过优化自适应损失函数可以以较低的扰动生成比现有的基于深度学习的方法更高质量的隐写音频,并通过生成音频采样点修改向量,极大的减少了隐写后所产生的扰动,提高了音频的隐藏性。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (7)

1.一种基于CNN的自适应音频隐写方法和秘密信息提取方法,其特征在于:包括以下步骤:
步骤1、构建训练集和测试集:将音频样本库中的音频信号裁剪成长度一致的音频段,每个音频段中设有m个采样值;并在音频样本库中选取部分音频段构建成训练集,剩余的音频段构建成测试集;m为正整数;
步骤2、在训练集中任意选取n个音频段,将其构成一个训练样本,并对该训练样本进行预处理,得到m*n的音频信号x;n为正整数;预处理的具体步骤为:
步骤2-1、对训练样本中每个音频段的m个采样值均进行归一化处理,使每个音频段中m个采样值均归一化到[-1,1]内;
步骤2-2、将每个音频段中m个归一化之后的采样值分别经过高阶滤波器处理,得到高阶滤波之后的采样值,并将其构建成m*n的音频信号x;
步骤3、随机生成n个长度为m的秘密信息比特流,并将其构建成m*n的秘密信息y;
步骤4、将步骤2中m*n的音频信号x和步骤3中m*n的秘密信息y进行维度叠加,得到m*2n的矩阵;
步骤5、将m*2n的矩阵作为输入数据,并将其输入到初始化的编码网络中,得到m*n的采样点修改向量E;其中,该编码网络为卷积神经网络;
步骤6、根据步骤5中得到的m*n的采样点修改向量E与步骤2中m*n的音频信号x得到隐写音频s;计算公式为:
s=x+E*α;
其中,α为预设的系数;
步骤7、将隐写音频s输入到初始化的解码网络中,得到解码后m*n的秘密信息y′;其中,该解码网络为卷积神经网络;
步骤8、计算解码网络中的损失函数LD,并根据该损失函数LD更新解码网络中的参数;解码网络中的损失函数LD的计算公式为:
Figure FDA0002456285120000011
其中,yij为秘密信息y中第i行第j列对应的数值,y′ij为解码后的秘密信息y′中第i行第j列对应的数值;
步骤9、计算编码网络中的损失函数LE,并根据该损失函数LE更新编码网络中的参数;解码网络中的损失函数LE的计算公式为:
Figure FDA0002456285120000021
其中,β和γ分别为控制自适应损失函数Le和解码损失函数LD权重的经验系数,xj为音频信号x中第j列所有行对应的数值,其为m*1的矩阵,
Figure FDA0002456285120000022
为卷积运算,f为任意阶数的高阶滤波器,
Figure FDA0002456285120000023
为对
Figure FDA0002456285120000024
运算后得到的m*1的矩阵中的每个数值取绝对值,并在其中选取出第i行对应的绝对值数值;xij音频信号x中第i行第j列对应的数值,σ为预设的常量,Eij为采样点修改向量E中第i行第j列对应的数值;
步骤10、重新在训练集中构建多个训练样本,并依次将每个训练样本采用步骤2~步骤9中相同的方法对上述更新后的编码网络和解码网络继续进行训练,直至训练集中的所有训练样本按预设的训练圈数对编码网络和解码网络的训练后,得到训练完成的编码网络和解码网络;
步骤11、将需要发送的秘密信息转换成二进制比特流,并将其构建成m*k的秘密信息y″,并在测试集中任意选取k个音频段,将其构建成m*k的测试样本x″;最后,将测试样本x″和秘密信息y″按照步骤2~步骤4中的处理后,则输入到训练完成的编码网络中,并根据步骤6中的计算后得到隐写音频s″,k为正整数;
步骤12、将步骤11中得到的隐写音频s″输入到训练完成的解码网络中,即得到从隐写音频s″中提取出的秘密信息。
2.根据权利要求1所述的基于CNN的自适应音频隐写方法和秘密信息提取方法,其特征在于:所述步骤5中的编码网络包括依次连接的N个卷积块层、1个卷积层和第一激活函数,所述每个卷积块层中包括依次连接的卷积层、归一化层和第二激活函数,N为正整数。
3.根据权利要求2所述的基于CNN的自适应音频隐写方法和秘密信息提取方法,其特征在于:N=7。
4.根据权利要求2所述的基于CNN的自适应音频隐写方法和秘密信息提取方法,其特征在于:所述第一激活函数采用TanH激活函数;所述第二激活函数采用ReLU激活函数。
5.根据权利要求1所述的基于CNN的自适应音频隐写方法和秘密信息提取方法,其特征在于:所述步骤7中的解码网络包括依次连接的M个卷积块层和1个卷积层,所述每个卷积块层中包括依次连接的卷积层和第三激活函数,M为正整数。
6.根据权利要求5所述的基于CNN的自适应音频隐写方法和秘密信息提取方法,其特征在于:M=7。
7.根据权利要求5所述的基于CNN的自适应音频隐写方法和秘密信息提取方法,其特征在于:所述第三激活函数采用ReLU激活函数。
CN202010307518.5A 2020-04-17 2020-04-17 基于cnn的自适应音频隐写方法和秘密信息提取方法 Active CN111640444B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010307518.5A CN111640444B (zh) 2020-04-17 2020-04-17 基于cnn的自适应音频隐写方法和秘密信息提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010307518.5A CN111640444B (zh) 2020-04-17 2020-04-17 基于cnn的自适应音频隐写方法和秘密信息提取方法

Publications (2)

Publication Number Publication Date
CN111640444A CN111640444A (zh) 2020-09-08
CN111640444B true CN111640444B (zh) 2023-04-28

Family

ID=72332698

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010307518.5A Active CN111640444B (zh) 2020-04-17 2020-04-17 基于cnn的自适应音频隐写方法和秘密信息提取方法

Country Status (1)

Country Link
CN (1) CN111640444B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113012702A (zh) * 2021-02-22 2021-06-22 鹏城实验室 语音盲水印注入方法、装置、设备及存储介质
CN113205821B (zh) * 2021-04-25 2023-08-29 广州大学 一种基于对抗样本的语音隐写方法
CN112926607B (zh) * 2021-04-28 2023-02-17 河南大学 基于卷积神经网络的双支网络图像隐写框架及方法
CN113037781A (zh) * 2021-04-29 2021-06-25 广东工业大学 基于rnn的语音信息加密方法及装置
CN113726976B (zh) * 2021-09-01 2023-07-11 南京信息工程大学 一种基于编码-解码网络的大容量以图藏图方法和系统
CN114220443B (zh) * 2021-11-04 2023-04-07 合肥工业大学 基于bn优化sngan的自适应音频隐写模型的训练方法和系统
CN114257697B (zh) * 2021-12-21 2022-09-23 四川大学 一种高容量通用图像信息隐藏方法
CN115457985B (zh) * 2022-09-15 2023-04-07 北京邮电大学 基于卷积神经网络的可视化音频隐写方法
CN115440234B (zh) * 2022-11-08 2023-03-24 合肥工业大学 基于midi和对抗生成网络的音频隐写方法和系统
CN117292696B (zh) * 2023-10-08 2024-03-12 合肥工业大学 端到端音频隐写方法、系统、存储介质及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109155006A (zh) * 2016-05-10 2019-01-04 谷歌有限责任公司 使用神经网络进行基于频率的音频分析
CN110968845A (zh) * 2019-11-19 2020-04-07 天津大学 基于卷积神经网络生成的针对lsb隐写的检测方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170140260A1 (en) * 2015-11-17 2017-05-18 RCRDCLUB Corporation Content filtering with convolutional neural networks
KR20200027475A (ko) * 2017-05-24 2020-03-12 모듈레이트, 인크 음성 대 음성 변환을 위한 시스템 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109155006A (zh) * 2016-05-10 2019-01-04 谷歌有限责任公司 使用神经网络进行基于频率的音频分析
CN110968845A (zh) * 2019-11-19 2020-04-07 天津大学 基于卷积神经网络生成的针对lsb隐写的检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王杰等.基于卷积神经网络框架的回声隐藏检测方法.《计算机应用》.2020,全文. *

Also Published As

Publication number Publication date
CN111640444A (zh) 2020-09-08

Similar Documents

Publication Publication Date Title
CN111640444B (zh) 基于cnn的自适应音频隐写方法和秘密信息提取方法
Horng et al. An adaptive watermarking scheme for e-government document images
Pramanik et al. Application of bi-orthogonal wavelet transform and genetic algorithm in image steganography
CN109993678B (zh) 一种基于深度对抗生成网络的鲁棒信息隐藏方法
He et al. Reversible data hiding in JPEG images based on negative influence models
Zhang et al. Generative steganography by sampling
CN110968845B (zh) 基于卷积神经网络生成的针对lsb隐写的检测方法
Dong et al. Semantic communication system based on semantic slice models propagation
CN113965659B (zh) 基于网络对网络的训练hevc视频隐写分析方法、系统
CN111797891A (zh) 基于生成对抗网络的非成对异质人脸图像生成方法、装置
CN113781284A (zh) 一种基于深度注意自编码器的零水印构造方法
CN117078517A (zh) 基于可逆神经网络的图像超分辨率隐写方法
CN114157773B (zh) 基于卷积神经网络和频域注意力的图像隐写方法
CN116091288A (zh) 一种基于扩散模型的图像隐写方法
CN113379606B (zh) 一种基于预训练生成模型的人脸超分辨方法
Wang et al. Data hiding during image processing using capsule networks
CN112714230A (zh) 基于音频侧信道的鲁棒视频隐写方法和装置
CN113554047A (zh) 图像处理模型的训练方法、图像处理方法及对应的装置
Rajesh et al. Steganography algorithm based on discrete cosine transform for data embedding into raw video streams
CN113949880B (zh) 一种极低码率人机协同图像编码训练方法及编解码方法
CN116029887A (zh) 一种基于小波神经网络的图像大容量鲁棒水印方法
Chen et al. When provably secure steganography meets generative models
Naik et al. Joint Encryption and Compression scheme for a multimodal telebiometric system
Wang et al. High visual quality image steganography based on encoder-decoder model
Sun et al. KSVD-based multiple description image coding

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant