CN117292696A - 端到端音频隐写方法、系统、存储介质及电子设备 - Google Patents
端到端音频隐写方法、系统、存储介质及电子设备 Download PDFInfo
- Publication number
- CN117292696A CN117292696A CN202311301500.4A CN202311301500A CN117292696A CN 117292696 A CN117292696 A CN 117292696A CN 202311301500 A CN202311301500 A CN 202311301500A CN 117292696 A CN117292696 A CN 117292696A
- Authority
- CN
- China
- Prior art keywords
- audio
- encoder
- channel number
- feature
- secret
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000000605 extraction Methods 0.000 claims abstract description 53
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000012545 processing Methods 0.000 claims abstract description 12
- 230000036962 time dependent Effects 0.000 claims description 25
- 230000006870 function Effects 0.000 claims description 16
- 230000004927 fusion Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 9
- 125000004122 cyclic group Chemical group 0.000 claims description 7
- 230000009467 reduction Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 claims description 2
- 230000008485 antagonism Effects 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 abstract description 24
- 239000013598 vector Substances 0.000 abstract description 20
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 7
- 238000013461 design Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 230000007547 defect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000006731 degradation reaction Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 206010061619 Deformity Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/018—Audio watermarking, i.e. embedding inaudible data in the audio signal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明提供一种端到端音频隐写方法、系统、存储介质及电子设备,涉及音频处理技术领域。本发明通过循环自编码器进行生成对抗网络预训练,确定编码器中特征提取模块和特征还原模块的参数,且基于生成对抗网络框架设计了端到端的隐写算法,不仅避免了因为STFT不匹配导致的秘密信息提取失败问题,同时取消了载体音频的修改向量,使编码器直接生成载密音频,从而达到降低模型的训练难度并提高模型性能的目的,有效解决了现有的音频隐写方法稳定性差的技术问题。
Description
技术领域
本发明涉及音频处理技术领域,具体涉及一种端到端音频隐写方法、系统、存储介质及电子设备。
背景技术
随着因特网的普及、信息处理技术和通信手段的飞速发展,信息隐藏和隐藏分析技术在信息安全中的作用越来越受到人们的关注。其中,音频隐写术是一种将秘密信息隐藏在普通的、非秘密的、可运行的音频文件中的技术。
现有的音频隐写术主要是通过音频的时域特征设计算法,使用生成载体修改向量的方式达到隐写的目的。然而,该方法容易导致网络模型退化,不利于模型稳定训练,导致隐写的稳定性差。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了一种端到端音频隐写方法、系统、存储介质及电子设备,解决了现有的音频隐写方法稳定性差的技术问题。
(二)技术方案
为实现以上目的,本发明通过以下技术方案予以实现:
第一方面,本发明提供一种端到端音频隐写方法,采用生成对抗网络预先构建编码器和隐写分析器,根据编码器预先构建解码器,所述端到端音频隐写方法包括:
S1、获取秘密音频和载体音频,并通过预先训练的编码器对秘密音频和载体音频进行处理,输出载密音频;
S2、通过解码器对载密音频进行解密处理,输出秘密音频的估计音频;
其中,通过循环自编码器进行生成对抗网络预训练,确定编码器中特征提取模块和特征还原模块的参数。
优选的,所述特征提取模块用于提取并联合秘密音频时间依赖特征和载体音频时间依赖特征,得到时间依赖特征;
所述特征提取模块包括依次连通的6个Convblock和1个拼接层,其中,第一个Convblock的输入通道数1,输出通道数64和卷积核大小为3×3,第二个Convblock的输入通道数64,输出通道数64和卷积核大小为1×3,第三个Convblock的输入通道数64,输出通道数128和卷积核大小为1×3,第四个Convblock的输入通道数128,输出通道数128和卷积核大小为1×3,第五个Convblock的输入通道数128,输出通道数128和卷积核大小为1×3;第六个Convblock的输入通道数256,输出通道数256和卷积核大小为1×3。
优选的,所述编码器还包括特征嵌入模块,所述特征嵌入模块用于高维展开时间依赖特征,并进行秘密特征的嵌入,得到嵌入秘密音频特征的载密融合特征;
所述特征嵌入模块包括依次连通的8个mixblock,8个mixblock的卷积核大小均为3×3,其中,第一个mixblock的输入通道数512,输出通道数576,第二个mixblock的输入通道数576,输出通道数640,第三个mixblock的输入通道数640,输出通道数768,第四个mixblock的输入通道数768,输出通道数1024,第五个mixblock的输入通道数1024,输出通道数768,第六个mixblock的输入通道数768,输出通道数576,第七个mixblock的输入通道数576,输出通道数512,第四个mixblock的输入通道数512,输出通道数256。
优选的,所述特征还原模块用于对载密融合特征进还原,输出载密音频;
所述特征还原模块包括依次连通的6个Transblock,其中,前五个Transblock的卷积核为1×3,第六个Transblock的卷积核为3×3,第一个Transblock的输入通道数256,输出通道数256,第二个Transblock的输入通道数256,输出通道数128,第三个Transblock的输入通道数128,输出通道数128,第四个Transblock的输入通道数128,输出通道数64,第五个Transblock的输入通道数64,输出通道数64,第六个Transblock的输入通道数64,输出通道数1。
优选的,所述隐写分析器包括依次连通的4个Convblock、3个Linearblock和一层softmax层。
优选的,所述解码器中包括第二特征提取模块和第二特征还原模块,所述第二特征提取模块通过共享编码器中特征提取模块的网络参数,第二特征提取模块的结构、参数和编码器中特征提取模块中的结构、参数保持一致。
优选的,所述编码器、隐写分析器和解码器训练过程中的损失函数包括:
LS=xlog(S(C))+(1-x)log(1-S(C′))
LD=Distortion(M,M′)
LE=λ1(Distortion(C,C′))+λ2LS+λ3LD
其中,LE表示编码器的损失;LD表示解码器的损失;LS表示隐写分析器的损失;λ1、λ2、λ3分别表示编码器、隐写分析器、解码器的损失所占的权重系数;S(C)表示被隐写分析器S识别为载体音频的概率,S(C′)表示被识别为载密音频的概率;x表示隐写分析器的标签,将编码器产生的载密音频标签为1,将原始的载体音频标签为0;y={y1,y2,…,yi,…,yn}表示时域载体音频,y′={y1′,y2′,…yi′…,yn′}表示时域载密音频。
第二方面,本发明提供一种端到端音频隐写系统,采用生成对抗网络预先构建编码器和隐写分析器,根据编码器预先构建解码器,该端到端音频隐写系统包括:
加密模块,用于获取秘密音频和载体音频,并通过预先训练的编码器对秘密音频和载体音频进行处理,输出载密音频;
解码模块,用于通过解码器对载密音频进行解密处理,输出秘密音频的估计音频;
其中,通过循环自编码器进行生成对抗网络预训练,确定编码器中特征提取模块和特征还原模块的参数。
第三方面,本发明提供一种计算机可读存储介质,其存储用于端到端音频隐写的计算机程序,其中,所述计算机程序使得计算机执行如上述所述的端到端音频隐写方法。
第四方面,本发明提供一种电子设备,包括:
一个或多个处理器,存储器,以及一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行如上述所述的端到端音频隐写方法。
(三)有益效果
本发明提供了一种端到端音频隐写方法、系统、存储介质及电子设备。与现有技术相比,具备以下有益效果:
本发明采用生成对抗网络预先构建编码器和隐写分析器,根据编码器预先构建解码器,该方法包括:获取秘密音频和载体音频,并通过预先训练的编码器对秘密音频和载体音频进行处理,输出载密音频;通过解码器对载密音频进行解密处理,输出秘密音频的估计音频;其中,通过循环自编码器进行生成对抗网络预训练,确定编码器中特征提取模块和特征还原模块的参数。本发明通过循环自编码器进行生成对抗网络预训练,确定编码器中特征提取模块和特征还原模块的参数,且基于生成对抗网络框架设计了端到端的隐写算法,不仅避免了因为STFT不匹配导致的秘密信息提取失败问题,同时取消了载体音频的修改向量,使编码器直接生成载密音频,从而达到降低模型的训练难度并提高模型性能的目的,有效解决了现有的音频隐写方法稳定性差的技术问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中编码器、解码器以及隐写分析器的结构示意图;
图2为编码器中的特征提取模块的结构示意图;
图3为编码器中的特征嵌入模块的结构示意图;
图4为编码器中的特征还原模块的结构示意图;
图5a、5b为失真度约束随幅值yk和修改幅度δ的变化示意图;
图6a、6b为同一段音频的各音频向量的时域信号和时间依赖特征的均值和方差;
图7a、7b为隐写前后的频谱图对比,其中图7a为嵌入信息前的频谱图,图7b为嵌入信息后的频谱图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请实施例通过提供一种端到端音频隐写方法、系统、存储介质及电子设备,解决了现有的音频隐写方法稳定性差的技术问题,实现提高音频隐写算法的不可感知性、抗检测性和秘密信息的提取准确率。
本申请实施例中的技术方案为解决上述技术问题,总体思路如下:
现有的音频隐写方法主要包括基于时域特征设计的算法和基于短时傅里叶STFT特征设计的算法,然而,这两个方法存在以下缺陷:
1)以时域特征设计的算法,使用生成载体修改向量的方式达到隐写的目的,容易导致网络模型退化问题,不利于模型稳定训练,导致隐写的稳定性差,且会降低隐写算法的性能。2)基于短时傅里叶STFT特征所设计的音频隐写算法,容易受STFT失配问题的影响导致秘密信息的提取失败。
为了克服上述缺陷,本发明实施例设计通过循环自编码器进行生成对抗网络预训练,确定编码器中特征提取模块和特征还原模块的参数,且基于生成对抗网络框架设计了端到端的隐写算法,降低模型的训练难度并提高模型性能的目的,有效解决了现有的音频隐写方法稳定性差的技术问题。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
本发明实施例提供一种端到端音频隐写方法,采用生成对抗网络预先构建编码器和隐写分析器,根据编码器预先构建解码器,该方法包括:
S1、获取秘密音频和载体音频,并通过预先训练的编码器对秘密音频和载体音频进行处理,输出载密音频;
S2、通过解码器对载密音频进行解密处理,输出秘密音频的估计音频;
其中,通过循环自编码器进行生成对抗网络预训练,确定编码器中特征提取模块和特征还原模块的参数。
本发明实施例通过循环自编码器进行生成对抗网络预训练,确定编码器中特征提取模块和特征还原模块的参数,且基于生成对抗网络框架设计了端到端的隐写算法,不仅避免了因为STFT不匹配导致的秘密信息提取失败问题,同时取消了载体音频的修改向量,使编码器直接生成载密音频,从而达到降低模型的训练难度并提高模型性能的目的,有效解决了现有的音频隐写方法稳定性差的技术问题。
在本发明实施例中,采用生成对抗网络构建编码器E、解码器D以及隐写分析器S,其结构如图1所示。在训练阶段,编码器接收秘密音频M和载体音频C,输出载密音频C’。解码器旨在从载密音频C’中解码出秘密音频的估计音频M’。隐写分析器在框架中扮演人类的视角,负责鉴别音频被隐藏了秘密信息的概率P。编码器E为了达到欺骗隐写分析器S的目的,最终输出的C’要和C尽可能的相似,引入隐写分析器的目的是提高隐写的安全性。
编码器中包括特征提取模块、特征嵌入模块和特征还原模块。特征提取模块首先从载体音频和秘密音频信号中提取得到时间依赖性特征,然后特征嵌入模块将特征从通道维扩展,再进行融合得到嵌入秘密音频的融合特征,最终经过特征还原模块将融合特征还原为载密音频信号。
通过编码器的特征提取模块,可以有效捕捉音频信号的中短期和长期的依赖性特征。具体来说分为两个方面,通过向量内卷积和向量间卷积提取时间依赖性;通过低维表征降低时间分辨率提高特征的数值稳定性。特征提取模块结构如图2所示,包括依次连接的6个ConvblockConvblock和1个拼接层concat,其中,Convblock(m,n,k)各参数分别表示输入通道数m,输出通道数n和卷积核大小k,mixblock和transblock的参数含义相同。载体音频C和秘密音频M经过预处理划分为等长的音频向量。特征提取的第一层,设置卷积核大小为(3×3),相邻向量之间进行卷积,不进行降维操作;特征提取的后五层,卷积核设置为(1×3),音频向量内进行卷积,同时降低分辨率为原来的一半。然后将提取的载体音频特征和秘密音频特征并联作为时间依赖特征(Time-feature)输入到特征嵌入模块。
特征嵌入模块的作用是高维展开时间依赖特征(Time-feature),然后进行秘密特征的嵌入,网络结构如图3所示。Time-feature输入到特征融合网络,经过4层Mixblock将通道扩展到1024维,再经过4层Mixblock,融合通道维得到嵌入秘密音频特征的载密融合特征(Mix-feature)。
载密融合特征可以被特征还原模块还原为音频数据,特征还原模块的网络结构如图4所示。为了保证输出音频保持和输入音频具有相同的分辨率,特征还原模块和特征提取模块的网络层需要一一对应(通道维的增加和减少相对应,数据的下采样和上采样相对应)。特征还原模块包括6个Transblock,前五层卷积核大小为(1×3),卷积向量内的特征,降低通道维,提升分辨率,最后一层的卷积核大小设置为(3×3),卷积相邻向量间的特征输出载密音频。
解码器和隐写分析器的网络结构如表1所示。解码器的网络结构和去除特征嵌入模块的编码器相同,即解码器中包括特征提取模块和特征还原模块,解码器中的特征提取模块通过共享编码器中的特征提取模块的网络参数可以使解码器提取的特征和编码器保持一致,这样可以加速模型的训练,提高隐写性能。解码器的特征还原模块需要从载密特征中还原秘密音频,不需要与编码器共享参数。隐写分析器的任务是鉴别输入音频是否藏有秘密信息,并输出藏有秘密信息的概率。因此,首先经过Convblock提取深度特征,这里为了减少参数量,设置Convblock的步长为3,然后经过三个Linearblock将数据降为2维,经过softmax层输出预测概率。
表1解码器、隐写分析器模型结构
在编码器、解码器和隐写分析器的训练过程中,对其损失函数进行优化。具体如下:
生成对抗网络属于较难训练的一类网络,其在隐写领域的联合训练过程中,总共包括三类损失:编码器E损失LE、解码器D损失LD和隐写分析器S损失LS,如式(1)-(3)所示。隐写分析器判别输入音频的是否被嵌入信息,其损失属于分类损失,故采用常用的交叉熵分类损失。解码器提取准确率高的秘密音频,一般使用能衡量失真度的一类Distortion函数作为损失函数。编码器的损失由三部分组成,除Distortion函数外,还包括解码器和隐写分析器的损失,其中λ1、λ2、λ3分别表示三者损失函数所占的系数。
LS=xlog(S(C))+(1-x)log(1-S(C′)) (1)
LD=Distortion(M,M′) (2)
LE=λ1(Distortion(C,C′))+λ2LS+λ3LD (3)
其中,S(C)表示被隐写分析器S识别为载体音频的概率,S(C′)表示被识别为载密音频的概率。x为隐写分析器的标签,将编码器产生的载密音频标签为1,将原始的载体音频标签为0。
现有的隐写算法中常用的约束失真度的函数有MSE、L-P范数和SNRloss,如式(4)-(6)所示。其中,信噪比SNR计算公式通常被用来衡量相似度,SNRloss则是使用信噪比的负值来达到约束失真的目的。在回归任务中,这些损失多是基于标签值与预测值之间的差异来计算损失loss,通过减小loss来达到预测的目的。对于隐写而言就是通过减小标签值与预测值之间的失真程度,从而提高嵌入秘密音频后的载密音频和载体音频的相似度。
其中,y={y1,y2,…,yi,…,yn}表示时域载体音频,y′={y1′,y2′,…yi′…,yn′}表示时域载密音频。
然而,音频作为一种电磁波,其在不同时间段的能量大小上有很大的差异,上述失真函数对能量不均衡的问题考虑不够全面。基于时域信号的音频隐写算法应该符合大振幅优先原则,即在能量较强的时间段应该嵌入更多的信息,在能量较弱的时间段相对的应该嵌入信息少一些。本发明实施例使用广义Jaccard系数优化失真度Distortion函数,达到针对采样点振幅的大小智能自适应的调整失真约束,如式(7)所示。
为了嵌入秘密信息,假设隐写算法需要将时域音频向量y的第k位yk修改为yk′,修改幅度为δ,即yk=yk′+δ,计算得到音频向量的失真度约束如表2所示。
表2MSE、L-P范数、SNRloss和Jaccard的失真度约束
其失真度约束随幅值yk和修改幅度δ的变化如图5a、图5b所示。MSE和L-P范数事实上对音频的每个采样点的约束相同,幅值的大小并不影响其失真度。与之相对的jaccard和SNRloss对幅值敏感,可以根据yk的大小自适应的调整失真度约束。另一方面,SNR loss在δ接近于零时,失真度的趋近于无穷,这限制了音频的修改幅度,且容易导致梯度爆炸,不利于模型的训练。相对的Jaccard失真度随δ的变化相对平缓,可接受的δ范围更广,更利于音频隐写。
通过训练好的编码器和解码器对音频进行加密和解密,具体如下:
在步骤S1中,获取秘密音频和载体音频,并通过预先训练的编码器对秘密音频和载体音频进行处理,输出载密音频。具体实施过程如下:
S101、特征提取模块提取并联合秘密音频时间依赖特征和载体音频时间依赖特征,得到时间依赖特征。具体实施过程如下:
由于音频具有很高的时间分辨率(如16kHz),这使得单个音频信号几乎不具有实际意义,必须与附近的音频信号甚至相隔更远处的信号一起构成声音。因此,在隐写算法中使用的隐写特征需要能很好的捕捉这种时间依赖关系。如时序音频y={y1,y2,…yi…,yn},其对应的特征z在采样点i处的特征zi可以由提取函数f从音频时序信号yi-n到yi+n中提取。
zi=f(yi-n,...,yi,...yi+n)
为了充分的捕捉音频信号的中短时依赖和长期依赖,本发明实施例通过预先构建的编码器中的特征提取模块有效提取音频信号的时间依赖特征,时域信号按固定长度划分为音频向量,堆叠为输入矩阵送入特征提取模块。使用不同规格的卷积核(3×3)和(1×3),提取音频向量之间和向量内的时间依赖特征。此外,在提取特征的过程中,通过不断降低每一通道维的数据维度,来表征高分辨率的时间信号。降维的另一个好处是可以增加数值的稳定性,分别计算来自同一段音频的各音频向量的时域信号和时间依赖特征的均值和方差,其结果如图6a、6b所示。直接使用时域信号,其特征的均值和方差变化剧烈,数值偏小,不利于模型的训练。而降维的时间依赖特征的均值和方差稳定性更高,数值区间更加合理。
此外,时间依赖特征还具有良好的可修改性,可修改性即嵌入信息后对特征的影响越小越好。频谱图是一种常用的分析信号特性尤其是频域特性的工具,在等长音频嵌入的情况下,对比嵌入前后的频谱图没有明显的差异,如图7a、7b所示,说明时间依赖性特征具有很好的可修改性。
S102、通过预先训练的编码器中的特征嵌入模块对时间依赖特征进行处理,得到嵌入秘密音频特征的载密融合特征。
S103通过预先训练的编码器中的特征还原模块对载密融合特征进行处理,输出载密音频。
在步骤S2中,通过解码器对载密音频进行解密处理,输出秘密音频的估计音频。具体实施过程如下:
S201、通过解码器中的特征提取模块提取载密音频中的时间依赖特征。解码器中的特征提取模块通过共享编码器中的特征提取模块中的网络参数得到。
S202、通过解码器中的特征还原模块对载密音频中的时间依赖特征进行处理,还原秘密音频,输出秘密音频的估计音频。
下面通过对比实验验证本发明实施例的有效性:
该实验将从载密音频的不可感知性、秘密音频的提取以及抗隐写分析三个方面与时域模型CNN-based、TCN模型和基于频域特征的模型BNSNGAN进行对比验证本发明实施例所提方法(proposed)。实验选用开源流行的Librispeech数据集构建2s和10s音频测试数据集。
表3给出了四种算法在不同音频时长下的信噪比SNR、客观等级差异ODG和均方误差MSE.SNR和ODG用来衡量载密音频的不可感知性,MSE衡量秘密信息的提取误差。从表中可以看出本发明实施例所使用的算法其SNR值高于28,ODG均值平均在-1.5,MSE值小于0.00018,均优于TCN、CNN-based和BNSNGAN隐写算法。
表3不可感知性测试结果
表4给出了使用两类隐写分析器analyzer1和analyzer2对四种算法生成的载密音频的检测结果。使用准确率ACC、虚警率FPR和漏检率FNR统计隐写分析的检测结果。从表中可以看出,经过两类分析器检测,本发明实施例所提出的隐写方法其ACC比TCN、CNN-based和BNSNGAN更低,FPR和FNR都更高。表明本发明实施例的方法对隐写检测器具有更好的欺骗性,抗检测性能更好。
表4隐写检测测试结果
表5对比以MSE、L1范数、SNRloss和Jaccard系数为失真度衡量的损失函数在算法上的性能表现,基于Jaccard系数优化的损失函数在SNR和ODG上均远大于其它损失函数,提取误差MSE值上远小于其它结果,表明了基于Jaccard系数优化的损失函数对隐写性能提升有很大的帮助。
表5不同失真度函数的实验结果
本发明实施例还提供一种端到端音频隐写系统,采用生成对抗网络预先构建编码器和隐写分析器,根据编码器预先构建解码器,该系统包括:
加密模块,用于获取秘密音频和载体音频,并通过预先训练的编码器对秘密音频和载体音频进行处理,输出载密音频;
解码模块,用于通过解码器对载密音频进行解密处理,输出秘密音频的估计音频;
其中,通过循环自编码器进行生成对抗网络预训练,确定编码器中特征提取模块和特征还原模块的参数。
可理解的是,本发明实施例提供的端到端音频隐写系统与上述端到端音频隐写方法相对应,其有关内容的解释、举例、有益效果等部分可以参考端到端音频隐写方法中的相应内容,此处不再赘述。
本发明实施例还提供一种计算机可读存储介质,其存储用于端到端音频隐写的计算机程序,其中,所述计算机程序使得计算机执行如上述所述的端到端音频隐写方法。
本发明实施例还提供一种电子设备,包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行如上述所述的端到端音频隐写方法。
综上所述,与现有技术相比,具备以下有益效果:
1、本发明实施例通过循环自编码器进行生成对抗网络预训练,确定编码器中特征提取模块和特征还原模块的参数,且基于生成对抗网络框架设计了端到端的隐写算法,不仅避免了因为STFT不匹配导致的秘密信息提取失败问题,同时取消了载体音频的修改向量,使编码器直接生成载密音频,从而达到降低模型的训练难度并提高模型性能的目的,有效解决了现有的音频隐写方法稳定性差的技术问题。
2、本发明实施例提取音频的时间依赖特征捕捉时域信号的长短时依赖,从而获得适合用于音频隐写的特征并提高了特征的数值稳定性,避免了数据偏小和波动幅度剧烈导致的性能下降,解决了现有的音频隐写方法稳定性差的技术问题,实现提高音频隐写算法的不可感知性、抗检测性和秘密信息的提取准确率。
3、使用广义Jaccard系数作为失真度量,优化生成对抗网络的损失函数,可以自适应调整约束,解决基于GAN模型的隐写算法训练慢、收敛差的缺陷。
4、在编码器中设计特征嵌入模块,融合秘密信息和载体音频的深度特征,以载体音频特征为基础指导编码器输出自然度高、不宜检测的载密音频。避免了基于GAN模型的隐写算法在训练时需要大量样本、容易模式坍塌的问题。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种端到端音频隐写方法,其特征在于,采用生成对抗网络预先构建编码器和隐写分析器,根据编码器预先构建解码器,所述端到端音频隐写方法包括:
S1、获取秘密音频和载体音频,并通过预先训练的编码器对秘密音频和载体音频进行处理,输出载密音频;
S2、通过解码器对载密音频进行解密处理,输出秘密音频的估计音频;
其中,通过循环自编码器进行生成对抗网络预训练,确定编码器中特征提取模块和特征还原模块的参数。
2.如权利要求1所述的端到端音频隐写方法,其特征在于,所述特征提取模块用于提取并联合秘密音频时间依赖特征和载体音频时间依赖特征,得到时间依赖特征;
所述特征提取模块包括依次连通的6个Convblock和1个拼接层,其中,第一个Convblock的输入通道数1,输出通道数64和卷积核大小为3×3,第二个Convblock的输入通道数64,输出通道数64和卷积核大小为1×3,第三个Convblock的输入通道数64,输出通道数128和卷积核大小为1×3,第四个Convblock的输入通道数128,输出通道数128和卷积核大小为1×3,第五个Convblock的输入通道数128,输出通道数128和卷积核大小为1×3;第六个Convblock的输入通道数256,输出通道数256和卷积核大小为1×3。
3.如权利要求2所述的端到端音频隐写方法,其特征在于,所述编码器还包括特征嵌入模块,所述特征嵌入模块用于高维展开时间依赖特征,并进行秘密特征的嵌入,得到嵌入秘密音频特征的载密融合特征;
所述特征嵌入模块包括依次连通的8个mixblock,8个mixblock的卷积核大小均为3×3,其中,第一个mixblock的输入通道数512,输出通道数576,第二个mixblock的输入通道数576,输出通道数640,第三个mixblock的输入通道数640,输出通道数768,第四个mixblock的输入通道数768,输出通道数1024,第五个mixblock的输入通道数1024,输出通道数768,第六个mixblock的输入通道数768,输出通道数576,第七个mixblock的输入通道数576,输出通道数512,第四个mixblock的输入通道数512,输出通道数256。
4.如权利要求1所述的端到端音频隐写方法,其特征在于,所述特征还原模块用于对载密融合特征进还原,输出载密音频;
所述特征还原模块包括依次连通的6个Transblock,其中,前五个Transblock的卷积核为1×3,第六个Transblock的卷积核为3×3,第一个Transblock的输入通道数256,输出通道数256,第二个Transblock的输入通道数256,输出通道数128,第三个Transblock的输入通道数128,输出通道数128,第四个Transblock的输入通道数128,输出通道数64,第五个Transblock的输入通道数64,输出通道数64,第六个Transblock的输入通道数64,输出通道数1。
5.如权利要求1所述的端到端音频隐写方法,其特征在于,所述隐写分析器包括依次连通的4个Convblock、3个Linearblock和一层softmax层。
6.如权利要求1~5任一所述的端到端音频隐写方法,其特征在于,所述解码器中包括第二特征提取模块和第二特征还原模块,所述第二特征提取模块通过共享编码器中特征提取模块的网络参数,第二特征提取模块的结构、参数和编码器中特征提取模块中的结构、参数保持一致。
7.如权利要求1~5任一所述的端到端音频隐写方法,其特征在于,所述编码器、隐写分析器和解码器训练过程中的损失函数包括:
LS=xlog(S(C))+(1-x)log(1-S(C′))
LD=Distortion(M,M′)
LE=λ1(Distortion(C,C′))+λ2LS+λ3LD
其中,LE表示编码器的损失;LD表示解码器的损失;LS表示隐写分析器的损失;λ1、λ2、λ3分别表示编码器、隐写分析器、解码器的损失所占的权重系数;S(C)表示被隐写分析器S识别为载体音频的概率,S(C′)表示被识别为载密音频的概率;x表示隐写分析器的标签,将编码器产生的载密音频标签为1,将原始的载体音频标签为0;y={y1,y2,…,yi,…,yn}表示时域载体音频,y′={y′1,y′2,…y′i…,y′n}表示时域载密音频。
8.一种端到端音频隐写系统,其特征在于,采用生成对抗网络预先构建编码器和隐写分析器,根据编码器预先构建解码器,该端到端音频隐写系统包括:
加密模块,用于获取秘密音频和载体音频,并通过预先训练的编码器对秘密音频和载体音频进行处理,输出载密音频;
解码模块,用于通过解码器对载密音频进行解密处理,输出秘密音频的估计音频;
其中,通过循环自编码器进行生成对抗网络预训练,确定编码器中特征提取模块和特征还原模块的参数。
9.一种计算机可读存储介质,其特征在于,其存储用于端到端音频隐写的计算机程序,其中,所述计算机程序使得计算机执行如权利要求1~7任一所述的端到端音频隐写方法。
10.一种电子设备,其特征在于,包括:
一个或多个处理器,存储器,以及一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行如权利要求1~7任一所述的端到端音频隐写方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311301500.4A CN117292696B (zh) | 2023-10-08 | 2023-10-08 | 端到端音频隐写方法、系统、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311301500.4A CN117292696B (zh) | 2023-10-08 | 2023-10-08 | 端到端音频隐写方法、系统、存储介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117292696A true CN117292696A (zh) | 2023-12-26 |
CN117292696B CN117292696B (zh) | 2024-03-12 |
Family
ID=89251585
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311301500.4A Active CN117292696B (zh) | 2023-10-08 | 2023-10-08 | 端到端音频隐写方法、系统、存储介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117292696B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104867496A (zh) * | 2015-05-08 | 2015-08-26 | 合肥工业大学 | 一种基于mdct量化系数的小值区的aac音频隐写和提取方法 |
CN109587372A (zh) * | 2018-12-11 | 2019-04-05 | 北京邮电大学 | 一种基于生成对抗网络的不可见图像隐写术 |
US20190189111A1 (en) * | 2017-12-15 | 2019-06-20 | Mitsubishi Electric Research Laboratories, Inc. | Method and Apparatus for Multi-Lingual End-to-End Speech Recognition |
CN111640444A (zh) * | 2020-04-17 | 2020-09-08 | 宁波大学 | 基于cnn的自适应音频隐写方法和秘密信息提取方法 |
US20210192019A1 (en) * | 2019-12-18 | 2021-06-24 | Booz Allen Hamilton Inc. | System and method for digital steganography purification |
CN113077377A (zh) * | 2021-05-13 | 2021-07-06 | 海南大学 | 一种基于生成对抗网络的彩色图像隐写方法 |
CN113965659A (zh) * | 2021-10-18 | 2022-01-21 | 上海交通大学 | 基于网络对网络的训练hevc视频隐写分析方法、系统 |
EP4064095A1 (en) * | 2021-03-23 | 2022-09-28 | INCM - Imprensa Nacional-Casa da Moeda, S.A. | Encoding, decoding and integrity validation systems for a security document with a steganography-encoded image and methods, security document, computing devices, computer programs and associated computer-readable data carrier |
-
2023
- 2023-10-08 CN CN202311301500.4A patent/CN117292696B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104867496A (zh) * | 2015-05-08 | 2015-08-26 | 合肥工业大学 | 一种基于mdct量化系数的小值区的aac音频隐写和提取方法 |
US20190189111A1 (en) * | 2017-12-15 | 2019-06-20 | Mitsubishi Electric Research Laboratories, Inc. | Method and Apparatus for Multi-Lingual End-to-End Speech Recognition |
CN109587372A (zh) * | 2018-12-11 | 2019-04-05 | 北京邮电大学 | 一种基于生成对抗网络的不可见图像隐写术 |
US20210192019A1 (en) * | 2019-12-18 | 2021-06-24 | Booz Allen Hamilton Inc. | System and method for digital steganography purification |
CN111640444A (zh) * | 2020-04-17 | 2020-09-08 | 宁波大学 | 基于cnn的自适应音频隐写方法和秘密信息提取方法 |
EP4064095A1 (en) * | 2021-03-23 | 2022-09-28 | INCM - Imprensa Nacional-Casa da Moeda, S.A. | Encoding, decoding and integrity validation systems for a security document with a steganography-encoded image and methods, security document, computing devices, computer programs and associated computer-readable data carrier |
CN113077377A (zh) * | 2021-05-13 | 2021-07-06 | 海南大学 | 一种基于生成对抗网络的彩色图像隐写方法 |
CN113965659A (zh) * | 2021-10-18 | 2022-01-21 | 上海交通大学 | 基于网络对网络的训练hevc视频隐写分析方法、系统 |
Non-Patent Citations (2)
Title |
---|
沈朝勇: "基于差分进化的音频智能隐写算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑(月刊) 电信技术》, no. 05, 15 May 2023 (2023-05-15) * |
苏兆品,张羚,张国富,岳峰: "基于多特征融合和BiLSTM的语音隐写检测算法", 《电子学报》, vol. 51, no. 5, 15 May 2023 (2023-05-15) * |
Also Published As
Publication number | Publication date |
---|---|
CN117292696B (zh) | 2024-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114239725B (zh) | 一种面向数据投毒攻击的窃电检测方法 | |
Ahani et al. | A sparse representation-based wavelet domain speech steganography method | |
CN112767959B (zh) | 语音增强方法、装置、设备及介质 | |
Christensen et al. | On compressed sensing and its application to speech and audio signals | |
JPWO2019220620A1 (ja) | 異常検出装置、異常検出方法及びプログラム | |
Xiao et al. | Deep-learning for ionogram automatic scaling | |
Ren et al. | Spec-resnet: a general audio steganalysis scheme based on deep residual network of spectrogram | |
CN107103909A (zh) | 帧错误隐藏 | |
CN117109726A (zh) | 一种单通道噪声检测方法及装置 | |
CN114220443B (zh) | 基于bn优化sngan的自适应音频隐写模型的训练方法和系统 | |
Mavaddaty et al. | Modified coherence‐based dictionary learning method for speech enhancement | |
CN114582325A (zh) | 音频检测方法、装置、计算机设备、存储介质 | |
Wu et al. | Audio watermarking algorithm with a synchronization mechanism based on spectrum distribution | |
CN117292696B (zh) | 端到端音频隐写方法、系统、存储介质及电子设备 | |
Wang et al. | Shift invariant sparse coding ensemble and its application in rolling bearing fault diagnosis | |
Wang et al. | Speech watermarking based tamper detection and recovery scheme with high tolerable tamper rate | |
Hu et al. | A watermark detection scheme based on non-parametric model applied to mute machine voice | |
Huang et al. | Encrypted speech perceptual hashing authentication algorithm based on improved 2D-Henon encryption and harmonic product spectrum | |
CN115586516A (zh) | 一种基于深度学习和多特征提取的舰船辐射噪声识别方法 | |
Wu et al. | LPC parameters substitution for speech information hiding | |
Zhang et al. | Parameters determination method of phase-space reconstruction based on differential entropy ratio and RBF neural network | |
Chen et al. | Speech watermarking for tampering detection based on modifications to lsfs | |
Zong et al. | Black-box audio adversarial example generation using variational autoencoder | |
Nakaya et al. | Audio watermarking based on vector quantization index modulation using audio fingerprint | |
Yang et al. | A robust blind audio watermarking scheme based on singular value decomposition and neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |