CN115116451A - 音频解码、编码方法、装置、电子设备及存储介质 - Google Patents
音频解码、编码方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN115116451A CN115116451A CN202210676984.XA CN202210676984A CN115116451A CN 115116451 A CN115116451 A CN 115116451A CN 202210676984 A CN202210676984 A CN 202210676984A CN 115116451 A CN115116451 A CN 115116451A
- Authority
- CN
- China
- Prior art keywords
- signal
- predicted value
- vector
- decoding
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 142
- 238000003860 storage Methods 0.000 title claims abstract description 16
- 239000013598 vector Substances 0.000 claims abstract description 403
- 238000012545 processing Methods 0.000 claims abstract description 208
- 230000005236 sound signal Effects 0.000 claims abstract description 166
- 238000000605 extraction Methods 0.000 claims abstract description 81
- 238000005070 sampling Methods 0.000 claims description 84
- 238000003786 synthesis reaction Methods 0.000 claims description 52
- 230000015572 biosynthetic process Effects 0.000 claims description 50
- 238000011176 pooling Methods 0.000 claims description 34
- 238000013139 quantization Methods 0.000 claims description 32
- 230000015654 memory Effects 0.000 claims description 24
- 230000002708 enhancing effect Effects 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 13
- 230000003213 activating effect Effects 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 9
- 230000002194 synthesizing effect Effects 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 description 47
- 230000008569 process Effects 0.000 description 39
- 238000010586 diagram Methods 0.000 description 30
- 230000006870 function Effects 0.000 description 20
- 238000001914 filtration Methods 0.000 description 19
- 238000005516 engineering process Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 14
- 239000000306 component Substances 0.000 description 14
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000007906 compression Methods 0.000 description 12
- 230000006835 compression Effects 0.000 description 12
- 230000001364 causal effect Effects 0.000 description 11
- 238000000354 decomposition reaction Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 239000008358 core component Substances 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 230000001965 increasing effect Effects 0.000 description 5
- 239000003999 initiator Substances 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000013515 script Methods 0.000 description 3
- 239000011800 void material Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本申请提供了一种音频解码、编码方法、装置、电子设备及存储介质,可以应用于车载场景;音频解码方法包括:获取码流,其中,所述码流是对音频信号进行编码得到的;对所述码流进行解码处理,得到所述音频信号的特征向量的预测值;对所述特征向量的预测值进行标签提取处理,得到用于信号增强的标签信息向量,其中,所述标签信息向量的维度与所述特征向量的预测值的维度相同;基于所述特征向量的预测值和所述标签信息向量进行信号重建;将通过所述信号重建得到的所述音频信号的预测值,作为所述码流的解码结果。通过本申请,能够有效抑制音频信号中的声学干扰,进而提高重建得到的音频信号的质量。
Description
技术领域
本申请涉及通信技术领域,尤其涉及一种音频解码、编码方法、装置、电子设备及存储介质。
背景技术
由于语音通信的便利性和及时性,语音通话的应用越来越广泛,例如在网络会议的会议参与方之间传输音频信号(例如语音信号)。而在语音通话中,语音信号可能会被混有噪声等声学干扰,语音信号中所混有的噪声会导致通话质量变差,从而极大地影响了用户的听觉体验。
然而,对于如何对语音信号进行增强处理以抑制噪声部分,相关技术尚无有效的解决方案。
发明内容
本申请实施例提供一种音频解码、编码方法、装置、电子设备、计算机可读存储介质及计算机程序产品,能够有效抑制音频信号中的声学干扰,进而提高重建得到的音频信号的质量。
本申请实施例的技术方案是这样实现的:
本申请实施例提供一种音频解码方法,包括:
获取码流,其中,所述码流是对音频信号进行编码得到的;
对所述码流进行解码处理,得到所述音频信号的特征向量的预测值;
对所述特征向量的预测值进行标签提取处理,得到用于信号增强的标签信息向量,其中,所述标签信息向量的维度与所述特征向量的预测值的维度相同;基于所述特征向量的预测值和所述标签信息向量进行信号重建;
将通过所述信号重建得到的所述音频信号的预测值,作为所述码流的解码结果。
本申请实施例提供一种音频解码装置,包括:
获取模块,用于获取码流,其中,所述码流是对音频信号进行编码得到的;
解码模块,用于对所述码流进行解码处理,得到所述音频信号的特征向量的预测值;
标签提取模块,用于对所述特征向量的预测值进行标签提取处理,得到用于信号增强的标签信息向量,其中,所述标签信息向量的维度与所述特征向量的预测值的维度相同;
重建模块,用于基于所述特征向量的预测值和所述标签信息向量进行信号重建;
确定模块,用于将通过所述信号重建得到的所述音频信号的预测值,作为所述码流的解码结果。
本申请实施例提供一种音频编码方法,包括:
获取音频信号;
对所述音频信号进行编码处理,得到码流,其中,所述码流用于供电子设备执行本申请实施例提供的音频解码方法。
本申请实施例提供一种音频编码装置,包括:
获取模块,用于获取音频信号;
编码模块,用于对所述音频信号进行编码处理,得到码流,其中,所述码流用于供电子设备执行本申请实施例提供的音频解码方法。
本申请实施例提供一种电子设备,包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现本申请实施例提供的音频编解码方法。
本申请实施例提供一种计算机可读存储介质,存储有可执行指令,用于被处理器执行时,实现本申请实施例提供的音频编解码方法。
本申请实施例提供一种计算机程序产品,包括计算机程序或指令,用于被处理器执行时,实现本申请实施例提供的音频编解码方法。
本申请实施例具有以下有益效果:
通过对解码得到的特征向量的预测值进行标签提取处理,得到用于信号增强的标签信息向量,并结合特征向量的预测值和标签信息向量进行信号重建,如此,相较于仅仅基于特征向量的预测值进行信号重建,结合特征向量的预测值和标签信息向量进行信号重建,相当于增加了音频信号中核心成分所占的比例,减小了噪声等声学干扰所占的比例,从而可以有效抑制编码端采集的音频信号中包括的噪声成分,进而提高了重建得到的音频信号的质量。
附图说明
图1是本申请实施例提供的不同码率下的频谱比较示意图;
图2是本申请实施例提供的音频编解码系统100的架构示意图;
图3是本申请实施例提供的第二终端设备500的结构示意图;
图4A是本申请实施例提供的音频编码方法的流程示意图;
图4B是本申请实施例提供的音频解码方法的流程示意图;
图4C是本申请实施例提供的音频编解码方法的流程示意图;
图5是本申请实施例提供的编码端和解码端的结构示意图
图6A和图6B是本申请实施例提供的音频解码方法的流程示意图;
图7是本申请实施例提供的端到端的语音通信链路示意图;
图8是本申请实施例提供的音频编解码方法的流程示意图;
图9A是本申请实施例提供的普通卷积的示意图;
图9B是本申请实施例提供的空洞卷积的示意图;
图10是本申请实施例提供的QMF分析滤波器组的低通部分和高通部分的频谱响应示意图;
图11A是本申请实施例提供的基于QMF滤波器组得到4通道的子带信号的原理示意图;
图11B是本申请实施例提供的基于QMF滤波器组得到3通道的子带信号的原理示意图;
图12是本申请实施例提供的分析网络的结构示意图;
图13是本申请实施例提供的增强网络的结构示意图;
图14是本申请实施例提供的合成网络的结构示意图;
图15是本申请实施例提供的音频编解码方法的流程示意图;
图16是本申请实施例提供的音频编解码方法的流程示意图;
图17是本申请实施例提供的第一分析网络的结构示意图;
图18是本申请实施例提供的第一增强网络的结构示意图;
图19是本申请实施例提供的第一合成网络的结构示意图;
图20是本申请实施例提供的编解码效果对比示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
可以理解的是,在本申请实施例中,涉及到用户信息等相关的数据(例如用户发出的语音信号),当本申请实施例运用到具体产品或技术中时,需要获得用户许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
在以下的描述中,所涉及的术语“第一\第二\...”仅仅是是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\...”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
1)神经网络(NN,Neural Network):是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。
2)深度学习(DL,Deep Learning):是机器学习(ML,Machine Learning)领域中一个新的研究方向,深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。
3)矢量量化(VQ,Vector Quantization):一种有效的有损压缩技术,其理论基础是香农的速率失真理论。矢量量化的基本原理是用码书中与输入矢量最匹配的码字的索引代替输入矢量进行传输与存储,而解码时仅需要简单地查表操作。
4)标量量化:是对标量进行量化,即一维的矢量量化,将动态范围分成若干个小区间,每个小区间有一个代表值。当输入信号落入某区间时,量化成该代表值。
5)熵编码:即编码过程中按熵原理不丢失任何信息的无损编码方式,也是有损编码中的一个关键模块,处于编码器的末端。常见的熵编码有:香农(Shannon)编码、哈夫曼(Huffman)编码、指数哥伦布编码(Exp-Golomb)和算术编码(arithmetic coding)。
6)正交镜像滤波器组(QMF,Quadrature Mirror Filters):是一个包含分析-合成的滤波器对,其中,QMF分析滤波器组用于子带信号分解,以降低信号带宽,使各个子带信号可顺利由通道处理;QMF合成滤波器组用于将解码端恢复出的各子带信号进行合成处理,例如通过零值内插和带通滤波等方式重建出原始的音频信号。
语音编解码技术,是包括远程音视频通话在内的通信服务中的一项核心技术。语音编码技术,简单来讲,就是使用较少的网络宽带资源去尽量多的传递语音信息。从香农信息论的角度来讲,语音编码是一种信源编码,信源编码的目的是在编码端尽可能的压缩想要传递信息的数据量,去掉信息中的冗余,同时在解码端还能够无损(或者接近无损)的恢复出来。
相关技术提供的语音编解码器的压缩率都可以达到10倍以上,也就是说,原本10MB的语音数据经过编码器的压缩后只需要1MB来传输,大大降低了传递信息所需消耗的宽带资源。例如对于采样率为16000Hz的宽带语音信号,如果采用16-bit的采样深度,无压缩版本的码率为256kps;如果使用语音编码技术,即使是有损编码,在10-20kps的码率范围内,重建的语音信号的质量可以接近无压缩版本,甚至听感上认为无差别。如果需要更高采样率的服务,比如32000Hz的超宽带语音,码率范围至少要达到30kps以上。
相关技术提供的传统语音编码方案,根据编码原理一般可以分为三种:波形编码(waveform speech coding)、参数编码(parametric speech coding)、混合编码(hypridspeech coding)。
其中,波形编码就是直接对语音信号的波形进行编码,这种编码方式的优点是编码语音质量高,但是压缩率不高。
参数编码指的是对语音发声过程进行建模,而编码端要做的就是提取想要传递的语音信号的对应参数。参数编码的优点是压缩率极高,缺点是恢复语音的质量不高。
混合编码是将上述两种编码方式结合,将能够使用参数编码的语音成分用参数表示,剩下的参数无法有效表达的成分使用波形编码。两者结合能够做到在编码效率高的情况下,恢复出的语音质量也很高。
一般地,上述三种编码原理均来自经典的语音信号建模,也称之为基于信号处理的压缩方法。根据率失真分析并结合过去几十年的标准化经验,推荐至少0.75bit/sample的码率才能提供理想的语音质量;对于采样率为16000Hz的宽带语音信号,等效于12kps。例如IETF OPUS标准推荐16kps作为提供高质量宽带语音通话的推荐码率。
示例的,参见图1,图1是本申请实施例提供的不同码率下的频谱比较示意图,以示范压缩码率与质量的关系。其中,曲线101为原始语音,即没有压缩的音频信号;曲线102为OPUS编码器20kbps的效果;曲线103为OPUS编码器6kbps的效果。从图1可以看出,随着编码码率的提升,压缩后的信号更接近原始信号。
然而,申请人发现,相关技术提供的上述方案主要还是通过传统信号处理的方法,在保持现有质量的前提下,码率很难再有明显的下降。
近年来,随着深度学习的进步,相关技术也提供了使用人工智能来提升编码码率的方案。
然而,申请人还发现:对于基于人工智能的音频编解码方案,虽然码率可以低于2kbps,然而,一般调用Wavenet等生成网络,导致解码端的复杂度非常高,使得在移动终端中使用时具有非常大的挑战性,并且,绝对质量离传统信号处理的编码器,差距也非常明显。而对于基于端到端的NN编解码方案,码率为6-10kbps,主观质量接近传统信号处理的方案,然而,编解码两端均采用了深度学习网络,导致复杂度非常高。
此外,不管是传统信号处理的方案还是基于深度神经网络的方案,只能对语音信号进行压缩。然而,实际的语音通信会受到噪声等声学干扰的影响。也就是说,相关技术中尚无同时具备语音增强和低码率高质量压缩效果的解决方案。
鉴于此,本申请实施例提供一种音频解码、编码方法、装置、电子设备、计算机可读存储介质及计算机程序产品,能够在提高编码效率的同时,有效抑制音频信号中的声学干扰,进而提高重建得到的音频信号的质量。下面说明本申请实施例提供的电子设备的示例性应用,本申请实施例提供的电子设备可以实施为终端设备,也可以实施为服务器,或者由终端设备和服务器协同实施。下面以由终端设备和服务器协同实施本申请实施例提供的音频解码方法为例进行说明。
示例的,参见图2,图2是本申请实施例提供的音频编解码系统100的架构示意图,为实现支撑一个能够在提高编码效率的同时,有效抑制音频信号中的声学干扰,进而提高重建得到的音频信号的质量的应用,如图2所示,音频编解码系统100包括:服务器200、网络300、第一终端设备400(即编码端)和第二终端设备500(即解码端),其中,网络300可以是局域网,或者是广域网,又或者是二者的组合。
在一些实施例中,在第一终端设备400上运行有客户端410,客户端410可以是各种类型的客户端,例如即时通信客户端、网络会议客户端、直播客户端、浏览器等。客户端410响应于发送方(例如网络会议的发起者、主播、语音通话的发起者等)触发的音频采集指令,调用终端设备400中的麦克风进行音频信号的采集,并对采集得到的音频信号进行编码处理,得到码流。接着,客户端410可以将码流通过网络300发送至服务器200,以使服务器200将码流发送至接收方(例如网络会议的参会对象、观众、语音通话的接收者等)关联的第二终端设备500。客户端510(例如即时通信客户端、网络会议客户端、直播客户端、浏览器等)在接收到服务器200发送的码流后,可以对码流进行解码处理,得到音频信号的特征向量的预测值(又称估计值);接着客户端510还可以调用增强网络对特征向量的预测值进行标签提取处理,得到用于信号增强的标签信息向量,其中,标签信息向量的维度与特征向量的预测值的维度相同;随后客户端510可以基于解码得到的特征向量的预测值、以及经过标签提取处理得到的标签信息向量,调用合成网络进行信号重建,得到音频信号的预测值,从而完成音频信号的重建,并抑制了编码端采集到的音频信号中包含的噪声成分,提高了重建得到的音频信号的质量。
本申请实施例提供的音频编解码方法可以广泛应用于各种不同类型的语音或者视频通话的应用场景中,例如通过车载终端上运行的应用实现的车载语音、通过即时通信客户端进行的语音通话或者视频通话、游戏应用中的语音通话、网络会议客户端中的语音通话等。例如可以在语音通话的接收端或者提供语音通信服务的服务器来按照本申请实施例提供的音频解码方法进行语音增强。
示例的,以网络会议场景为例,网络会议是线上办公中一个重要的环节,在网络会议中,网络会议的参与方的声音采集装置(例如麦克风)在采集到发言人的语音信号后,需要将所采集到的语音信号发送至网络会议的其他参与方,该过程涉及到语音信号在多个参与方之间的传输和播放,如果不对语音信号中所混有的噪声进行处理,会极大影响会议参与方的听觉体验。在该场景中,可以应用本申请实施例提供的音频解码方法对网络会议中的语音信号进行增强,从而使得会议参与方所听到的语音信号是进行增强后的语音信号(即在重建得到的语音信号中抑制了编码端采集的语音信号中的噪声成分),提高了网络会议中语音通话的质量。
在另一些实施例中,本申请实施例可以借助云技术(Cloud Technology)实现,云技术是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、存储、处理和共享的一种托管技术。
云技术是基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、以及应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。上述服务器200之间的服务交互功能可以通过云技术实现。
示例的,图2中示出的服务器200可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。图2中示出的终端设备400和终端设备500可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表、车载终端等,但并不局限于此。终端设备(例如第一终端设备400和第二终端设备500)以及服务器200可以通过有线或无线通信方式进行直接或间接地连接,本申请实施例中不做限制。
在一些实施例中,终端设备(例如第二终端设备500)或服务器200还可以通过运行计算机程序来实现本申请实施例提供的音频解码方法。举例来说,计算机程序可以是操作系统中的原生程序或软件模块;可以是本地(Native)应用程序(APP,Application),即需要在操作系统中安装才能运行的程序,如直播APP、网络会议APP、或者即时通信APP等;也可以是小程序,即只需要下载到浏览器环境中就可以运行的程序;还可以是能够嵌入至任意APP中的小程序。总而言之,上述计算机程序可以是任意形式的应用程序、模块或插件。
下面继续对图2中示出的第二终端设备500的结构进行说明。参见图3,图3是本申请实施例提供的第二终端设备500的结构示意图,图3所示的第二终端设备500包括:至少一个处理器520、存储器560、至少一个网络接口530和用户接口540。第二终端设备500中的各个组件通过总线系统550耦合在一起。可理解,总线系统550用于实现这些组件之间的连接通信。总线系统550除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图3中将各种总线都标为总线系统550。
处理器520可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(DSP,Digital Signal Processor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
用户接口540包括使得能够呈现媒体内容的一个或多个输出装置541,包括一个或多个扬声器和/或一个或多个视觉显示屏。用户接口540还包括一个或多个输入装置542,包括有助于用户输入的用户接口部件,比如键盘、鼠标、麦克风、触屏显示屏、摄像头、其他输入按钮和控件。
存储器560可以是可移除的,不可移除的或其组合。示例性的硬件设备包括固态存储器,硬盘驱动器,光盘驱动器等。存储器560可选地包括在物理位置上远离处理器520的一个或多个存储设备。
存储器560包括易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。非易失性存储器可以是只读存储器(ROM,Read Only Memory),易失性存储器可以是随机存取存储器(RAM,Random Access Memory)。本申请实施例描述的存储器560旨在包括任意适合类型的存储器。
在一些实施例中,存储器560能够存储数据以支持各种操作,这些数据的示例包括程序、模块和数据结构或者其子集或超集,下面示例性说明。
操作系统561,包括用于处理各种基本系统服务和执行硬件相关任务的系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务;
网络通信模块562,用于经由一个或多个(有线或无线)网络接口530到达其他计算设备,示例性的网络接口530包括:蓝牙、无线相容性认证(WiFi)、和通用串行总线(USB,Universal Serial Bus)等;
呈现模块563,用于经由一个或多个与用户接口540相关联的输出装置541(例如,显示屏、扬声器等)使得能够呈现信息(例如,用于操作外围设备和显示内容和信息的用户接口);
输入处理模块564,用于对一个或多个来自一个或多个输入装置542之一的一个或多个用户输入或互动进行检测以及翻译所检测的输入或互动。
在一些实施例中,本申请实施例提供的音频解码装置可以采用软件方式实现,图3示出了存储在存储器560中的音频解码装置565,其可以是程序和插件等形式的软件,包括以下软件模块:获取模块5651、解码模块5652、标签提取模块5653、重建模块5654和确定模块5655,这些模块是逻辑上的,因此根据所实现的功能可以进行任意的组合或进一步拆分,将在下文中说明各个模块的功能。
下面将结合本申请实施例提供的终端设备的示例性应用,对本申请实施例提供的音频编解码方法进行具体说明。
示例的,参见图4A,图4A是本申请实施例提供的音频编码方法的流程示意图,如图4A所示,在编码端执行的主要步骤包括:步骤101、获取音频信号;步骤102、对音频信号进行编码处理,得到码流。
示例的,参见图4B,图4B是本申请实施例提供的音频解码方法的流程示意图,如图4B所示,在解码端执行的主要步骤包括:步骤201、获取码流;步骤202、对码流进行解码处理,得到音频信号的特征向量的预测值;步骤203、对特征向量的预测值进行标签提取处理,得到用于信号增强的标签信息向量;步骤204、基于特征向量的预测值和标签信息向量进行信号重建;步骤205、将通过信号重建得到的音频信号的预测值,作为码流的解码结果。
下面将以基于网际互连协议的语音传输(VoIP,Voice over Internet Protocol)的会议系统为例,从第一终端设备(即编码端)、服务器、以及第二终端设备(即解码端)之间交互的角度,对本申请实施例提供的音频编解码方法进行具体说明。
示例的,参见图4C,图4C是本申请实施例提供的音频编解码方法的流程示意图,将结合图4C示出的步骤进行说明。
需要说明的是,终端设备执行的步骤具体是由终端设备上运行的客户端执行的,为了表述方便,本申请不对终端设备和终端设备上运行的客户端进行具体区分。此外,还需要说明的是,本申请实施例提供的音频编解码方法可以由终端设备上运行的各种形式的计算机程序执行,并不局限于上述终端设备运行的客户端,还可以是上文所述的操作系统561、软件模块、脚本和小程序,因此下文中以客户端的示例不应视为对本申请实施例的限定。
在对图4C进行说明之前,首先对编码端和解码端的结构进行说明。
示例的,参见图5,图5是本申请实施例提供的编码端和解码端的结构示意图,如图5所示,编码端包括分析网络,用于对输入的音频信号进行特征提取处理,得到音频信号的特征向量,接着可以对音频信号的特征向量进行量化编码处理,得到码流。解码端包括增强网络和合成网络,在对接收到的码流进行解码,得到音频信号的特征向量的预测值之后,可以调用增强网络对音频信号的特征向量的预测值进行标签提取处理,得到用于信号增强的标签信息向量,随后可以基于标签信息向量和特征向量的预测值,调用合成网络进行信号重建,得到音频信号的预测值。
下面将结合编码端和解码端的上述结构,对本申请实施例提供的音频编解码方法进行具体说明。
在步骤301中,第一终端设备获取音频信号。
在一些实施例中,第一终端设备响应于用户触发的音频采集指令,调用音频采集装置(例如第一终端设备中内置的麦克风或者外接的麦克风)进行音频信号的采集,得到音频信号,例如可以是网络会议场景中发言人的语音信号、直播场景中主播的语音信号等。
示例的,以网络会议场景为例,当第一终端设备上运行的网络会议APP接收到用户(例如网络会议的发起者)针对人机交互界面中显示的打开“麦克风”按钮的点击操作时,调用第一终端设备自带的麦克风(或者麦克风阵列)对用户发出的语音信号进行采集,得到网络会议的发起者的语音信号。
在步骤302中,第一终端设备对音频信号进行编码处理,得到码流。
在一些实施例中,第一终端设备在调用麦克风采集得到音频信号之后,可以通过以下方式对音频信号进行编码处理,得到码流:首先调用分析网络(例如神经网络)对音频信号进行特征提取处理,得到音频信号的特征向量,接着对音频信号的特征向量进行量化处理(例如矢量量化或者标量量化),得到特征向量的索引值,最后对特征向量的索引值进行编码处理(例如熵编码),得到码流。
示例的,第一终端设备可以通过以下方式对音频信号进行特征提取处理,得到音频信号的特征向量:首先对音频信号进行卷积处理(例如因果卷积),得到音频信号的卷积特征;接着对音频信号的卷积特征进行池化处理,得到音频信号的池化特征;随后对音频信号的池化特征进行下采样处理,得到音频信号的下采样特征;最后对音频信号的下采样特征进行卷积处理,即可得到音频信号的特征向量。
在另一些实施例中,第一终端设备还可以通过以下方式对音频信号进行编码处理,得到码流:对采集得到的音频信号进行分解处理(例如可以通过2通道的QMF分析滤波器组进行分解处理),得到低频子带信号和高频子带信号;接着分别对低频子带信号和高频子带信号进行特征提取处理,对应得到低频子带信号的特征向量和高频子带信号的特征向量;随后对低频子带信号的特征向量进行量化编码处理,得到音频信号的低频码流,并对高频子带信号的特征向量进行量化编码处理,得到音频信号的高频码流。
示例的,第一终端设备可以通过以下方式对音频信号进行分解处理,得到低频子带信号和高频子带信号:首先对音频信号进行采样处理,得到采样信号,其中,采样信号包括采集得到的多个样本点;接着对采样信号进行低通滤波处理,得到低通滤波信号;随后对低通滤波信号进行下采样处理,得到低频子带信号。类似的,对采样信号进行高通滤波处理,得到高通滤波信号,并对高通滤波信号进行下采样处理,即可得到高频子带信号。
在一些实施例中,第一终端设备还可以通过以下方式对音频信号进行编码处理,得到码流:首先对采集得到的音频信号进行分解处理,得到N个子带信号(例如可以通过4通道的QMF分析滤波器组进行分解处理,得到4个子带信号,举例来说,可以首先对音频信号进行一次低通滤波和高通滤波,得到低频子带信号和高频子带信号,接着,针对低频子带信号可以再进行一次低通滤波和高通滤波,对应得到子带信号1和子带信号2;类似的,可以对分解得到的高频子带信号再次进行低通滤波和高通滤波,对应得到子带信号3和子带信号4,如此,通过迭代两层的2通道QMF分析滤波,即可将音频信号分解成4个子带信号),其中,N为大于2的整数;接着分别对每个子带信号进行特征提取处理,得到每个子带信号的特征向量(例如针对分解得到的每个子带信号,调用神经网络模型进行特征提取处理,得到该子带信号的特征向量);随后分别对每个子带信号的特征向量进行量化编码处理,得到N个子码流。
在步骤303中,第一终端设备向服务器发送码流。
在一些实施例中,第一终端设备在对采集得到的音频信号进行编码处理,得到码流之后,可以通过网络将码流发送给服务器。
在步骤304中,服务器向第二终端设备发送码流。
在一些实施例中,服务器在接收到第一终端设备(即编码端,例如网络会议的发起者所关联的终端设备)发送的码流之后,可以通过网络将码流发送至第二终端设备(即解码端,例如网络会议的参会对象所关联的终端设备)。
在另一些实施例中,考虑前向兼容性,可以在服务器中部署转码器,以解决新的编码器(即基于人工智能的方式进行编码的编码器,例如NN编码器)和传统的编码器(即基于时域和频域的变换的方式进行编码的编码器,例如G.722编码器)之间互联互通问题。例如,如果第一终端设备(即发送端)中部署的是新的NN编码器,而第二终端设备(即接收端)中部署的是传统的解码器(例如G.722解码器),将导致第二终端设备无法正确解码第一终端设备发送的码流。针对上述情况,可以在服务器中部署转码器,例如服务器在接收到第一终端设备发送的基于NN编码器编码得到的码流之后,可以首先调用NN解码器生成音频信号,然后调用传统的编码器(例如G.722编码器)生成特定码流,如此,第二终端设备可以正确解码。
在步骤305中,第二终端设备对码流进行解码处理,得到音频信号的特征向量的预测值。
在一些实施例中,第二终端设备可以通过以下方式实现步骤305:首先对码流进行解码处理(其中,解码处理与编码处理为逆过程,例如当编码端采用熵编码的方式对音频信号的特征向量进行编码得到码流时,解码端可以相应采用熵解码的方式对接收到的码流进行解码处理,得到音频信号的特征向量的索引值),得到音频信号的特征向量的索引值;接着基于索引值查询量化表(例如当编码端采用量化表中与音频信号的特征向量最匹配的码字的索引值,代替特征向量进行后续的编码时,则解码端在对码流进行解码处理,得到索引值之后,可以基于索引值执行简单的查表操作,即可得到音频信号的特征向量的预测值),得到音频信号的特征向量的预测值。在另一些实施例中,当码流包括低频码流(其中,低频码流是对音频信号经过分解处理后得到的低频子带信号进行编码得到的)和高频码流(其中,高频码流是对音频信号经过分解处理后得到的高频子带信号进行编码得到的)时,第二终端设备还可以通过以下方式实现上述的步骤305:对低频码流进行解码处理(例如当编码端采用熵编码的方式对低频子带信号的特征向量进行编码时,解码端可以采用相应的熵解码方式对低频码流进行解码处理),得到低频子带信号的特征向量的预测值;对高频码流进行解码处理,得到高频子带信号的特征向量的预测值。示例的,针对低频码流,第二终端设备可以先对低频码流进行解码处理,得到低频子带信号的特征向量的索引值(假设为索引值1),接着基于索引值1查询量化表,得到低频子带信号的特征向量的预测值。类似的,针对高频码流,第二终端设备可以先对高频码流进行解码处理,得到高频子带信号的特征向量的索引值(假设为索引值2),接着基于索引值2查询量化表,得到高频子带信号的特征向量的预测值。在一些实施例中,当码流包括N个子码流(其中,N个子码流对应不同的频段,且是对音频信号经过分解处理后得到的N个子带信号分别进行编码得到的,N为大于2的整数)时,第二终端设备还可以通过以下方式实现上述的步骤105:对N个子码流分别进行解码处理,得到N个子带信号分别对应的特征向量的预测值。需要说明的是,此处针对N个子码流的解码过程可以参考上文针对低频码流或者高频码流的解码过程实现,本申请实施例在此不再赘述。
示例的,以N个子码流为4个子码流为例,分别为子码流1、子码流2、子码流3和子码流4,其中,子码流1是对子带信号1进行编码得到的,子码流2是对子带信号2进行编码得到的,子码流3是对子带信号3进行编码得到的,子码流4是对子带信号4进行编码得到的,第二终端设备在接收到这4个子码流之后,可以分别对这4个子码流进行解码处理,对应得到4个子带信号分别对应的特征向量的预测值,例如包括子带信号1的特征向量的预测值、子带信号2的特征向量的预测值、子带信号3的特征向量的预测值和子带信号4的特征向量的预测值。
在步骤306中,第二终端设备对特征向量的预测值进行标签提取处理,得到用于信号增强的标签信息向量。
这里,标签信息向量的维度与特征向量的预测值的维度是相同的,如此,后续在进行信号重建时,能够将特征向量的预测值和标签信息向量进行完美拼接,使得重建得到的音频信号中所有的核心成分都能得到增强
在一些实施例中,第二终端设备可以通过调用增强网络对特征向量的预测值进行标签提取处理,得到用于信号增强的标签信息向量,其中,增强网络包括卷积层、神经网络层、全连接网络层和激活层,下面,结合增强网络的上述结构说明提取标签信息向量的过程。
示例的,参见图6A,图6A是本申请实施例提供的音频解码方法的流程示意图,如图6A所示,图4C示出的步骤306可以通过图6A示出的步骤3061至步骤3064实现,将结合图6A示出的步骤进行说明。
在步骤3061中,第二终端设备对特征向量的预测值进行卷积处理,得到与特征向量的预测值相同维度的第一张量。
在一些实施例中,第二终端设备可以将在步骤305中得到的特征向量的预测值作为输入,调用增强网络包括的卷积层(例如一个一维的因果卷积),生成与特征向量的预测值相同维度的第一张量(张量是包括多个维度的数值的一种量),例如,如图13所示,特征向量的预测值的维度为56×1,则经过因果卷积处理之后,生成56×1的张量。
在步骤3062中,第二终端设备对第一张量进行特征提取处理,得到与第一张量相同维度的第二张量。
在一些实施例中,对于经过因果卷积处理后得到的第一张量,可以通过增强网络包括的神经网络层(例如长短期记忆网络、时间递归神经网络等)进行特征提取处理,生成与第一张量相同维度的第二张量。例如,如图13所示,第一张量的维度为56×1,则经过一层长短期记忆(LSTM,Long Short-Term Memory)网络进行特征提取处理之后,生成56×1的张量。
在步骤3063中,第二终端设备对第二张量进行全连接处理,得到与第二张量相同维度的第三张量。
在一些实施例中,在经过增强网络包括的神经网络层的特征提取处理,得到与第一张量相同维度的第二张量之后,第二终端设备可以调用增强网络包括的全连接网络层对第二张量进行全连接处理,得到与第二张量相同维度的第三张量。例如,如图13所示,第二张量的维度为56×1,则调用一个全连接网络层进行全连接处理之后,生成56×1的张量。
在步骤3064中,第二终端设备对第三张量进行激活处理,得到用于信号增强的标签信息向量。
在一些实施例中,在经过增强网络包括的全连接网络层的全连接处理,得到与第二张量相同维度的第三张量之后,第二终端设备可以调用增强网络包括的激活层,即激活函数(例如ReLU函数、Sigmoid函数、Tanh函数等)对第三张量进行激活处理,这样,就生成了与特征向量的预测值相同维度的标签信息向量。例如,如图13所示,第三张量的维度为56×1,在调用ReLU函数对第三张量进行激活处理后,得到维度为56×1的标签信息向量。
在另一些实施例中,当特征向量的预测值包括低频子带信号的特征向量的预测值、以及高频子带信号的特征向量的预测值时,第二终端设备还可以通过以下方式实现上述的步骤306:对低频子带信号的特征向量的预测值进行标签提取处理,得到用于低频子带信号增强的第一标签信息向量,其中,第一标签信息向量的维度与低频子带信号的特征向量的预测值的维度相同;对高频子带信号的特征向量的预测值进行标签提取处理,得到用于高频子带信号增强的第二标签信息向量,其中,第二标签信息向量的维度与高频子带信号的特征向量的预测值的维度相同。
示例的,第二终端设备可以通过以下方式实现上述的对低频子带信号的特征向量的预测值进行标签提取处理,得到用于低频子带信号增强的第一标签信息向量:调用第一增强网络执行以下处理:对低频子带信号的特征向量的预测值进行卷积处理,得到与低频子带信号的特征向量的预测值相同维度的第四张量;对第四张量进行特征提取处理,得到与第四张量相同维度的第五张量;对第五张量进行全连接处理,得到与第五张量相同维度的第六张量;对第六张量进行激活处理,得到用于低频子带信号增强的第一标签信息向量。
示例的,第二终端设备可以通过以下方式实现上述的对高频子带信号的特征向量的预测值进行标签提取处理,得到用于高频子带信号增强的第二标签信息向量:调用第二增强网络执行以下处理:对高频子带信号的特征向量的预测值进行卷积处理,得到与高频子带信号的特征向量的预测值相同维度的第七张量;对第七张量进行特征提取处理,得到与第七张量相同维度的第八张量;对第八张量进行全连接处理,得到与第八张量相同维度的第九张量;对第九张量进行激活处理,得到用于高频子带信号增强的第二标签信息向量。
需要说明的是,针对低频子带信号的特征向量的预测值的标签提取过程、以及针对高频子带信号的特征向量的预测值的标签提取过程,与针对音频信号的特征向量的预测值的标签提取过程是类似的,可以参考图6A的描述实现,本申请实施例在此不再赘述。此外,还需要说明的是,第一增强网络和第二增强网络的结构与上文中增强网络的结构是类似的,本申请实施例在此不再赘述。
在一些实施例中,当特征向量的预测值包括N个子带信号分别对应的特征向量的预测值时,第二终端设备可以通过以下方式实现上述的步骤306:对N个子带信号分别对应的特征向量的预测值分别进行标签提取处理,得到用于信号增强的N个标签信息向量,其中,每个标签信息向量的维度与对应子带信号的特征向量的预测值的维度相同。
示例的,第二终端设备可以通过以下方式实现上述的对N个子带信号分别对应的特征向量的预测值分别进行标签提取处理,得到用于信号增强的N个标签信息向量:基于第i子带信号的特征向量的预测值,调用第i增强网络进行标签提取处理,得到用于第i子带信号增强的第i标签信息向量;其中,i的取值范围满足1≤i≤N,且第i标签信息向量的维度与第i子带信号的特征向量的预测值的维度相同。
举例来说,第二终端设备可以通过以下方式实现上述的基于第i子带信号的特征向量的预测值,调用第i增强网络进行标签提取处理,得到用于第i子带信号增强的第i标签信息向量:调用第i增强网络执行以下处理:对第i子带信号的特征向量的预测值进行卷积处理,得到与第i子带信号的特征向量的预测值相同维度的第十张量;对第十张量进行特征提取处理,得到与第十张量相同维度的第十一张量;对第十一张量进行全连接处理,得到与第十一张量相同维度的第十二张量;对第十二张量进行激活处理,得到用于第i子带信号增强的第i标签信息向量。
需要说明的是,第i增强网络的结构与上文中增强网络的结构是类似的,本申请实施例在此不再赘述。
在步骤307中,第二终端设备基于特征向量的预测值和标签信息向量进行信号重建,得到音频信号的预测值。
在一些实施例中,第二终端设备可以基于特征向量的预测值和标签信息向量,调用合成网络进行信号重建,得到音频信号的预测值,其中,合成网络包括第一卷积层、上采样层、池化层、第二卷积层,下面,结合合成网络的上述结构说明信号重建的过程。
示例的,参见图6B,图6B是本申请实施例提供的音频解码方法的流程示意图,如图6B所示,图4C示出的步骤307可以通过图6B示出的步骤3071至步骤3075实现,将结合图6B示出的步骤进行说明。
在步骤3071中,第二终端设备对特征向量的预测值和标签信息向量进行拼接处理,得到拼接向量。
在一些实施例中,第二终端设备可以将基于步骤305得到的特征向量的预测值、以及基于步骤306得到的标签信息向量进行拼接处理,得到拼接向量,并将拼接向量作为合成网络的输入,进行信号重建。
在步骤3072中,第二终端设备对拼接向量进行第一卷积处理,得到音频信号的卷积特征。
在一些实施例中,在对特征向量的预测值和标签信息向量进行拼接处理,得到拼接向量之后,第二终端设备可以调用合成网络包括的第一卷积层(例如一个一维的因果卷积)对拼接向量进行卷积处理,得到音频信号的卷积特征。例如,如图14所示,在对拼接向量进行因果卷积处理之后,得到一个维度为192×1的张量(即音频信号的卷积特征)。
在步骤3073中,第二终端设备对卷积特征进行上采样处理,得到音频信号的上采样特征。
在一些实施例中,在得到音频信号的卷积特征之后,第二终端设备可以调用合成网络包括的上采样层对音频信号的卷积特征进行上采样处理,其中,上采样处理可以是通过多个级联的解码层实现的,且不同解码层的采样因子不同,则第二终端设备可以通过以下方式对音频信号的卷积特征进行上采样处理,得到音频信号的上采样特征:通过多个级联的解码层中的第一个解码层,对卷积特征进行上采样处理;将第一个解码层的上采样结果输出到后续级联的解码层,并通过后续级联的解码层继续进行上采样处理和上采样结果输出,直至输出到最后一个解码层;将最后一个解码层输出的上采样结果,作为音频信号的上采样特征。
示例的,参见图14,以多个级联的解码层(又称解码块)为3个级联的解码层为例,可以级联3个不同上采样因子(Up_factor)的解码层。以解码层(Up_factor=8)为例,可以先执行1个或者多个空洞卷积,每个卷积核大小均固定为1×3、移位率(Stride Rate)为1。此外,1个或者多个空洞卷积的扩张率(Dilation Rate)可根据需求设置,比如可以设置为3,当然,本申请实施例也不限制不同空洞卷积设置不同的扩展率。然后,将3个解码层的Up_factor分别设置为8、5、4,等效于设置了不同大小的池化因子,起到上采样的作用。最后,将3个解码层的通道数分别设置为96、48、24。如此,经过3个解码层进行上采样处理之后,音频信号的卷积特征(例如192×1的张量)将依次转换成96×8、48×40和24×160的张量,则可以将24×160的张量作为音频信号的上采样特征。
在步骤3074中,第二终端设备对上采样特征进行池化处理,得到音频信号的池化特征。
在一些实施例中,在对音频信号的卷积特征进行上采样处理,得到音频信号的上采样特征之后,第二终端设备可以调用合成网络中的池化层对上采样特征进行池化处理,例如对上采样特征做因子为2的池化操作,得到音频信号的池化特征,例如,参见图14,音频信号的上采样特征为24×160的张量,则经过池化处理(即图14中示出的后处理)之后,生成24×320的张量(即音频信号的池化特征)。
在步骤3075中,第二终端设备对池化特征进行第二卷积处理,得到音频信号的预测值。
在一些实施例中,在对音频信号的上采样特征进行池化处理,得到音频信号的池化特征之后,第二终端设备还可以对音频信号的池化特征,调用合成网络包括的第二卷积层(例如图14所示的因果卷积,对池化特征进行空洞卷积),生成音频信号的预测值。
在另一些实施例中,当特征向量的预测值包括低频子带信号的特征向量的预测值、以及高频子带信号的特征向量的预测值时,第二终端设备还可以通过以下方式实现上述的步骤307:对低频子带信号的特征向量的预测值、以及第一标签信息向量(即对低频子带信号的特征向量的预测值进行标签提取处理得到的标签信息向量)进行拼接处理,得到第一拼接向量;基于第一拼接向量调用第一合成网络进行信号重建,得到低频子带信号的预测值;对高频子带信号的特征向量的预测值、以及第二标签信息向量(即对高频子带信号的特征向量的预测值进行标签提取处理得到的标签信息向量)进行拼接处理,得到第二拼接向量;基于第二拼接向量调用第二合成网络进行信号重建,得到高频子带信号的预测值;对低频子带信号的预测值和高频子带信号的预测值进行合成处理,得到音频信号的预测值。
示例的,第二终端设备可以通过以下方式实现上述的基于第一拼接向量调用第一合成网络进行信号重建,得到低频子带信号的预测值:调用第一合成网络执行以下处理:对第一拼接向量进行第一卷积处理,得到低频子带信号的卷积特征;对低频子带信号的卷积特征进行上采样处理,得到低频子带信号的上采样特征;对低频子带信号的上采样特征进行池化处理,得到低频子带信号的池化特征;对低频子带信号的池化特征进行第二卷积处理,得到低频子带信号的预测值;其中,上采样处理可以是通过多个级联的解码层实现的,且不同解码层的采样因子不同。
示例的,第二终端设备可以通过以下方式实现上述的基于第二拼接向量调用第二合成网络进行信号重建,得到高频子带信号的预测值:调用第二合成网络执行以下处理:对第二拼接向量进行第一卷积处理,得到高频子带信号的卷积特征;对高频子带信号的卷积特征进行上采样处理,得到高频子带信号的上采样特征;对高频子带信号的上采样特征进行池化处理,得到高频子带信号的池化特征;对高频子带信号的池化特征进行第二卷积处理,得到高频子带信号的预测值;其中,上采样处理可以是通过多个级联的解码层实现的,且不同解码层的采样因子不同。
需要说明的是,针对低频子带信号的重建过程(即低频子带信号的预测值的生成过程)、以及高频子带信号的重建过程(即高频子带信号的预测值的生成过程),与音频信号的重建过程(即音频信号的预测值的生成过程)是类似的,可以参考图6B的描述实现,本申请实施例在此不再赘述。此外,还需要说明的是,第一合成网络和第二合成网络的结构与上文中合成网络的结构是类似的,本申请实施例在此不再赘述。
在另一些实施例中,当特征向量的预测值包括N个子带信号分别对应的特征向量的预测值时,第二终端设备还可以通过以下方式实现上述的步骤307:对N个子带信号分别对应的特征向量的预测值、以及N个标签信息向量进行一一对应的拼接处理,得到N个拼接向量;基于第j拼接向量调用第j合成网络进行信号重建,得到第j子带信号的预测值;其中,j的取值范围满足1≤j≤N;对N个子带信号分别对应的预测值进行合成处理,得到音频信号的预测值。
示例的,第二终端设备可以通过以下方式实现上述的基于第j拼接向量调用第j合成网络进行信号重建,得到第j子带信号的预测值:调用第j合成网络执行以下处理:对第j拼接向量进行第一卷积处理,得到第j子带信号的卷积特征;对第j子带信号的卷积特征进行上采样处理,得到第j子带信号的上采样特征;对第j子带信号的上采样特征进行池化处理,得到第j子带信号的池化特征;对第j子带信号的池化特征进行第二卷积处理,得到第j子带信号的预测值;其中,上采样处理可以是通过多个级联的解码层实现的,且不同解码层的采样因子不同。
需要说明的是,第j合成网络的结构与上文中合成网络的结构是类似的,本申请实施例在此不再赘述。
在步骤308中,第二终端设备将通过信号重建得到的音频信号的预测值,作为码流的解码结果。
在一些实施例中,第二终端设备在通过信号重建得到音频信号的预测值之后,可以将通过信号重建得到的音频信号的预测值,作为码流的解码结果,并将解码结果发送至第二终端设备内置的扬声器中进行播放。
本申请实施例提供的音频解码方法,通过对解码得到的特征向量的预测值进行标签提取处理,得到用于信号增强的标签信息向量,并结合特征向量的预测值和标签信息向量进行信号重建,由于标签信息向量反映的是音频信号的核心成分(即不包括噪声等声学干扰),因此,相较于仅仅基于特征向量的预测值进行信号重建,本申请实施例结合特征向量的预测值和标签信息向量进行信号重建,相当于增加了音频信号中核心成分(例如人声)所占的比例,减小了音频信号中噪声等声学干扰(例如背景音)所占的比例,从而可以有效抑制编码端采集的音频信号中包括的噪声成分,进而提高了重建得到的音频信号的质量。
下面,将以VoIP会议系统为例,说明本申请实施例在一个实际的应用场景中的示例性应用。
示例的,参见图7,图7是本申请实施例提供的端到端的语音通信链路示意图,如图7所示,可以在编码端(即码流的发送端)应用本申请实施例提供的音频编码方法、在解码端(即码流的接收端)应用本申请实施例提供的音频解码方法。这是会议这种通信系统的最核心部分,解决了压缩的基本功能。一般地,编码器部署在上行客户端,解码器部署在下行客户端。
此外,考虑前向兼容,需要在服务器中同样部署转码器,以解决新的编码器与现有编码器之间的互联互通问题。例如,如果发送端部署的是新的NN编码器,而接收端部署的是传统的公用电话交换网(PSTN,Public Switched Telephone Network)的解码器(例如G.722解码器),会导致接收端无法正确解码发送端直接发送的码流。因此,服务器在接收到发送端发送的码流之后,首先需要执行NN解码器生成语音信号,然后调用G.722编码器生成特定码流,才能让接收端正确解码。类似的转码场景不再展开。
下面对本申请实施例提供的音频编解码方法进行具体说明。
在一些实施例中,参见图8,图8是本申请实施例提供的音频编解码方法的流程示意图,如图8所示,编码端的主要步骤包括:
对于输入信号,例如第n帧语音信号,记为x(n),调用分析网络进行特征提取处理,获得低维度的特征向量,记为F(n);特别的,特征向量F(n)的维度小于输入信号x(n)的维度,从而减少数据量。一个特定的实现可以是调用空洞卷积网络(Dilated CNN)对第n帧语音信号x(n)进行特征提取处理,生成更低维度的特征向量F(n)。需要说明的是,本申请实施例不限制其他的NN结构,包括但不限于自编码器(AE,Autoencoder)、全连接(FC,Full-Connection)网络、长短期记忆(LSTM,Long Short-Term Memory)网络、卷积神经网络(CNN,Convolutional Neural Network)+LSTM等。在得到特征向量F(n)之后,可以对特征向量F(n)进行矢量量化或者标量量化,并将量化后得到的索引值进行熵编码,得到码流(bitstream),最后将码流传输到解码端。
继续参见图8,解码端的主要步骤包括:对接收到的码流进行解码,得到特征向量的估计值,记为F′(n)。接着基于特征向量的估计值F′(n)调用增强网络,生成增强用的标签信息向量,记为E(n),最后结合特征向量的估计值F′(n)和标签信息向量E(n),调用合成网络(对应编码端的逆过程)进行信号的重建,并抑制编码端采集到的语音信号中包含的噪声成分,生成与输入信号x(n)对应的信号估计值,记为x′(n)。
为了更好地理解本申请实施例提供的音频编解码方法,在对本申请实施例提供的音频编解码方法进行具体说明之前,首先对空洞卷积网络以及QMF滤波器组进行介绍。
示例的,参见图9A和图9B,图9A是本申请实施例提供的普通卷积的示意图,图9B是本申请实施例提供的空洞卷积的示意图。相对普通卷积,空洞卷积的提出,是为了解决增加感受野的同时保持特征图的尺寸不变,从而避免因为上采样、下采样引起的误差。虽然图9A和图9B中示出的卷积核大小(Kernel size)均为3×3;但是,图9A所示的普通卷积的感受野只有3,而图9B所示的空洞卷积的感受野达到了5。也就是说,对于尺寸为3×3的卷积核,图9A所示的普通卷积的感受野为3,扩张率(Dilation rate)为1;而图9B所示的空洞卷积的感受野为5,扩张率为2。
卷积核还可以在类似图9A或者图9B的平面上进行移动,这里会涉及到移位率(Stride rate)的概念,例如,假设卷积核每次移位1格,则对应的移位率为1。
此外,还有卷积通道数的概念,就是用多少个卷积核对应的参数去进行卷积分析。理论上,通道数越多,对信号的分析更为全面,精度越高;但是,通道数越多,复杂度也越高。例如,对于一个1×320的张量,可以使用24通道卷积运算,输出就是24×320的张量。
需要说明的是,可以根据实际应用需要,自行定义空洞卷积核大小(例如,针对语音信号,卷积核的大小一般为1×3)、扩张率、移位率和通道数等,本申请实施例对此不作具体限定。
下面继续对QMF滤波器组进行说明。
QMF滤波器组是一个包含分析-合成的滤波器对。对于QMF分析滤波器,可以将输入的采样率为Fs的信号分解成两路采样率为Fs/2的信号,分别表示QMF低通信号和QMF高通信号。如图10所示,为QMF分析滤波器组的低通部分H_Low(z)和高通部分H_High(z)的频谱响应。基于QMF分析滤波器组的相关理论知识,可以很容易地描述上述低通滤波和高通滤波的系数之间的相关性:
hHigh(k)=-1khLow(k)
其中,hLow(k)表示低通滤波的系数,hHigh(k)表示高通滤波的系数。
类似的,根据QMF相关理论,也可以基于QMF分析滤波器组H_Low(z)和H_High(z),描述QMF合成滤波器组,详细数学背景不在此重复。
GLow(z)=HLow(z)
GHigh(z)=(-1)*HHigh(z)
其中,GLow(z)表示恢复出的低通信号,GHigh(z)表示恢复出的高通信号。
解码端恢复出低通信号和高通信号之后,经过QMF合成滤波器组进行合成处理,即可以恢复出输入信号对应的采样率Fs的重建信号。
此外,除了上述2通道QMF方案,还可以扩展为N通道QMF的方案;特别地,可以使用二叉数的方式,迭代地对当前子带信号做2通道QMF分析,以获得更低分辨率的子带信号。图11A表示进行迭代两层的2通道QMF分析滤波器,可以获得4通道的子带信号。图11B是另一种实现方式,考虑到高频部分信号对质量影响小,无需那么高精度的分析;因此,只需要对原始信号做一次高通滤波即可。类似地,可以实现更多通道的方式,比如,8、16、32通道,在此不进一步展开。
下面对本申请实施例提供的音频编解码方法进行具体说明。
在一些实施例中,以采样率Fs=16000Hz的语音信号为例(需要说明的是,本申请实施例提供的方法也适用于其他采样率的场景,包括但不限于:8000Hz、32000Hz、48000Hz)。同时,假设帧长设置为20ms,因此,对于Fs=16000Hz,相当于每帧包含320个样本点。
下面将结合图8所示的音频编解码方法的流程示意图,分别对编码端和解码端的流程进行详细说明。
(一)关于编码端的流程如下:
第1步,输入信号的生成
如前所述,对于采样率Fs=16000Hz的语音信号,假设帧长为20ms,则对于第n帧的语音信号,其包括320个样本点,记为输入信号x(n)。
第2步,调用分析网络进行数据压缩
分析网络的目的是基于输入信号x(n),通过调用分析网络(例如神经网络),生成更低维度的特征向量F(n)。在本实施例中,输入信号x(n)的维度为320,特征向量F(n)的维度为56,从数据量看,经过分析网络进行特征提取之后,起到了“降维”的作用,实现了数据压缩的功能。
示例的,参见图12,图12是本申请实施例提供的分析网络的结构示意图,如图12所示,首先调用一个24通道的因果卷积,将输入信号x(n)(其中,输入信号x(n)为1×320的张量)扩展为24×320的张量。接着对扩展得到的24×320的张量进行预处理。例如,可以对扩展得到的24×320的张量做因子为2的池化(Pooling)操作、且激活函数可以为线性整流函数(ReLU,Linear Rectification Function),生成24×160的张量。接下来,可以级联3个不同下采样因子(Down_factor)的编码块。以编码块(Down_factor=4)为例,可以先执行1个或者多个空洞卷积,每个卷积核大小均固定为1×3、移位率(Stride Rate)为1。此外,1个或者多个空洞卷积的扩张率(Dilation Rate)可根据需求设置,比如可以设置为3,当然,本申请实施例也不限制不同空洞卷积设置不同的扩展率。然后,将3个编码块的Down_factor分别设置为4、5、8,等效于设置了不同大小的池化因子,起到下采样的作用。最后,将3个编码块的通道数分别设置为48、96、192。如此,经过3个编码块进行下采样处理之后,24×160的张量将依次转换成48×40、96×8和192×1的张量。最后,对192×1的张量,再经过类似预处理的因果卷积,可以输出一个56维的特征向量F(n)。
第3步,量化编码
对于编码端提取得到的特征向量F(n),可以采用标量量化(即各分量单独量化)和熵编码的方式进行量化编码。当然,也可以采用矢量量化(即相邻多个分量组合成一个矢量进行联合量化)和熵编码的方式进行量化编码,本申请实施例对此不作具体限定。
对特征向量F(n)进行量化编码后,可以生成码流。根据实验,通过6-8kbps码率就可以对16kHz宽带信号实现高质量的压缩。
(二)关于解码端的流程如下:
第1步,解码
解码是编码的逆过程。对于接收到的码流,进行解码,然后基于解码得到的索引值查询量化表,即可获得特征向量的估计值,记为F′(n)。
第2步,调用增强网络提取标签信息向量
特征向量的估计值F′(n)包含了编码端采集得到的原始语音信号的压缩版本,反映了语音信号的核心成分,同时也包含了在采集时所混有的噪声等声学干扰。因此,增强网络,用于从特征向量的估计值F′(n)中采集相关的标签嵌入(embedding)信息,用于在解码时,生成相对干净的语音信号。
示例的,参见图13,图13是本申请实施例提供的增强网络的结构示意图,如图13所示,以特征向量的估计值F′(n)为输入量,调用一个一维的因果卷积,生成56×1的张量。接着对于56×1的张量,经过一层LSTM网络,生成56×1的张量。然后,调用一个全连接(FC,Full-Connection)网络,生成56×1的张量。最后,调用激活函数(例如可以是ReLU,当然,也可以是其他激活函数,例如Sigmoid函数、Tanh函数等)进行激活处理,这样,就生成了与特征向量的估计值F′(n)相同维度的标签信息向量,记为E(n)。
第3步,调用合成网络进行信号重建
合成网络的目的,是将解码端获得的特征向量的估计值F′(n)和本地生成的标签信息向量E(n),拼接成一个112维的向量,然后调用合成网络进行信号重建,生成语音信号的估计值,记为x′(n)。需要说明的是,合成网络,通过拼接方式生成输入向量只是其中的一种方式,本申请实施例不限制其他方式,例如可以将F′(n)+E(n)作为输入,维度就是56。针对这种方式,可以参考图14重新设计网络即可,本申请实施例在此不再赘述。
示例的,参见图14,图14是本申请实施例提供的合成网络的结构示意图,如图14所示,合成网络的结构与分析网络的结构高度类似,例如因果卷积;但输入量的维度增加到了112维。后处理的过程类似于分析网络中的预处理。此外,解码块(又称解码层)的结构与分析网络中的编码块(又称编码层)是对称的,例如分析网络中的编码块是先做空洞卷积再池化完成下采样,而合成网络中的解码块是先进行池化完成上采样,再做空洞卷积。也就是说,解码是编码的逆过程,可以参考图12的描述,本申请实施例在此不再赘述。
本申请实施例中,可以通过采集数据,对编码端和解码端的相关网络(例如分析网络和合成网络)进行联合训练,获得最优参数。目前公开有很多的神经网络和深度学习的开源平台,基于上述开源平台,用户仅需要准备好数据和设置相应的网络结构,在服务器完成训练后,即可将训练好的网络投入使用。本申请上述实施例假定分析网络和合成网络的参数已经训练完毕,仅公开一种特定的网络输入、网络结构和网络输出的实现,相关领域的工程人员可以根据实际情况进一步修改上述配置。
在上述实施例中,对于输入信号,在编解码路径上,分别调用分析网络、增强网络和合成网络,完成低码率压缩和信号重建。但是,这些网络的复杂度较高。为了降低复杂度,本申请实施例可以引入QMF分析滤波器,将输入信号分解成更低码率的子带信号;接着对于每个子带信号,神经网络的输入和输出维度将至少减半。一般的,神经网络的计算复杂度均是O(N3),因此,这种“分治”思想可以有效降低复杂度。
示例的,参见图15,图15是本申请实施例提供的音频编解码方法的流程示意图,如图15所示,对于第n帧的输入信号x(n),使用QMF分析滤波器分解为2个子带信号,例如输入信号x(n)经过QMF分析滤波器分解之后,可以获得低频子带信号,记为xLB(n)和高频子带信号,记为xHB(n)。接着,针对低频子带信号xLB(n),可以调用第一分析网络,获得低维度的低频子带信号的特征向量,记为FLB(n)。特别的,低频子带信号的特征向量FLB(n)的维度小于低频子带信号xLB(n),从而减少了数据量。此外,还需要说明的是,由于低频子带信号xLB(n)的分辨率比输入信号x(n)少了一半,因此第一分析网络的参数可以相应减半,包括低频子带信号的特征向量FLB(n)。
在得到低频子带信号的特征向量FLB(n)之后,可以对低频子带信号的特征向量FLB(n)进行矢量量化或者标量量化,并将量化后得到的索引值进行熵编码,得到码流,随后将码流传输到解码端。
解码端在接收到编码端发送的码流后,可以对接收到的码流进行解码,从而获得低频子带信号的特征向量的估计值,记为F′LB(n)。接着,可以基于低频子带信号的特征向量的估计值F′LB(n),调用第一增强网络,生成与低频子带信号对应的标签信息向量,记为ELB(n)。最后,结合F′LB(n)和ELB(n),调用对应编码端的逆过程的第一合成网络,完成低频子带信号的估计值,记为x′LB(n),的重建,并抑制编码端采集到的语音信号中包含的噪声等声学干扰。为了表述方便,下文中将第一增强网络和第一合成网络的功能合并成第一合成模块,即在解码端,基于F′LB(n)和ELB(n),调用第一合成模块进行信号重建,即可获得低频子带信号的估计值x′LB(n)。
类似的,对于输入信号x(n)经过QMF分析滤波器分解后得到的高频子带信号,记为xHB(n),在编解码处理流程上,分别调用第二分析网络、第二合成模块(包括第二增强网络和第二合成网络),可以在解码端获得高频子带信号的估计值,记为x′HB(n)。需要说明的是,针对高频子带信号xHB(n)的处理流程与低频子带信号xLB(n)的处理流程类似,可以参考低频子带信号xLB(n)的处理流程实现,本申请实施例在此不再赘述。
参考上述2通道QMF的处理实例,以及上文中介绍的多通道QMF,可以通过迭代2通道QMF完成的特征,进一步扩展到如图16所示的多通道QMF的方案(例如可以将输入信号x(n)分解为N个子带信号,并针对每个子带信号分别进行编解码处理),因为原理类似,本申请实施例在此不再赘述。
下面以2通道QMF为例,对本申请实施例提供的音频编解码方法进行说明。
(一)关于编码端的流程如下:
第1步,输入信号的生成
如前所述,对于采样率Fs=16000Hz的语音信号,假设帧长为20ms,则对于第n帧的语音信号,其包括320个样本点,记为输入信号x(n)。
第2步,QMF信号分解
如前所述,针对输入信号x(n),可以调用QMF分析滤波器(这里特指2通道QMF),并进行下采样,可以获得两部分的子带信号,分别为低频子带信号xLB(n)和高频子带信号xHB(n)。其中,低频子带信号xLB(n)的有效带宽是0-4kHz,高频子带信号xHB(n)的有效带宽是4-8kHz,且每帧样本点的数量为160。
第3步,调用第一分析网络和第二分析网络进行数据压缩
示例的,在将输入信号x(n)分解成低频子带信号xLB(n)和高频子带信号xHB(n)之后,针对低频子带信号xLB(n),可以调用如图17所示的第一分析网络进行特征提取处理,得到低频子带信号的特征向量FLB(n);类似的,对于高频子带信号xHB(n),可以调用第二分析网络进行特征提取处理,得到高频子带信号的特征向量,记为FHB(n)。
需要说明的是,由于子带信号的采样率相对于输入信号减半,因此,在本实施例中,输出的子带信号的特征向量的维度可以低于上述实施例中输入信号的特征向量的维度。例如,在本实施例中,低频子带信号的特征向量和高频子带信号的特征向量的维度均可以设置为28。这样,整体输出的特征向量的维度与上述实施例中输入信号的特征向量的维度一致,即两者的码率是一致的。
此外,考虑到低频和高频对语音质量的影响因子不一,本申请实施例也不限制对不同子带信号的特征向量定义不同数量的维度。例如对于低频子带信号的特征向量的维度可以设置为32,而将高频子带信号的特征向量的维度设置为24,这样仍然保证了总维度与输入信号的特征向量的维度一致。针对上述情况,可以通过相应调整第一分析网络和第二分析网络的内部参数量实现,本申请实施例在此不再赘述。
第4步,量化编码
与针对输入信号的特征向量的处理过程类似,考虑总的特征向量的维度不变,通过6-8kbps码率就可以对16kHz宽带信号实现高质量的压缩。
(二)关于解码端的流程如下:
第1步,解码
与上述实施例类似,通过对接收到的码流进行解码,即可获得低频子带信号的特征向量的估计值F′LB(n)和高频子带信号的特征向量的估计值F′HB(n)。
第2步,调用第一增强网络和第二增强网络提取标签信息向量
示例的,在对接收到的码流进行解码,得到低频子带信号的特征向量的估计值F′LB(n)和高频子带信号的特征向量的估计值F′HB(n)之后,针对低频子带信号的特征向量的估计值F′LB(n),可以调用如图18所示的第一增强网络采集用于低频部分语音增强的标签embedding信息(即低频部分的标签信息向量),记为ELB(n),用于在解码时,生成相对干净的低频子带语音信号。上述计算过程,可以参考图13实现,本申请实施例在此不再赘述。此外,由于采样率减半的原因,可以参考编码端中的第一分析网络的输出特征向量的维度,对应调整图18示出的第一增强网络的结构(含参数量)。
类似的,针对解码得到的高频子带信号的特征向量的估计值F′HB(n),可以调用第二增强网络,可以获得高频部分的标签信息向量,记为EHB(n),用于后续流程。
总之,这一步执行后,可以获得两个子带信号的标签信息向量,分别为低频部分的标签信息向量ELB(n)和高频部分的标签信息向量EHB(n)。
第3步,调用第一合成网络和第二合成网络进行信号重建
示例的,参见图19,图19是本申请实施例提供的第一合成网络的结构示意图,如图19所示,可以调用第一合成网络,基于低频子带信号的特征向量的估计值F′LB(n)和本地生成的低频部分的标签信息向量ELB(n),生成低频子带信号的估计值,记为x′LB(n)。具体计算过程可以参考图14的描述,本申请实施例在此不再赘述。此外,由于采样率减半的原因,图19只提供了对应于低频部分的第一合成网络的一个具体配置,高频部分的实现形式类似,在此不再赘述。
经过这一步,生成了低频子带信号的估计值x′LB(n)和高频子带信号的估计值x′HB(n)。特别的,这两个子带信号中的噪声等声学干扰获得了有效抑制。
第4步,基于QMF合成滤波器进行合成处理
基于前两步,在解码端获得低频子带信号的估计值x′LB(n)和高频子带信号的估计值x′HB(n)之后,只需要上采样并调用QMF合成滤波器,就可以生成320点的重建信号,即输入信号x(n)的估计值x′(n),从而完成整个解码的过程。
综上,本申请实施例通过信号分解和相关信号处理技术与深度神经网络的有机结合,编码效率,相较于传统的信号处理方案显著提升,在复杂度可接受的情况下,将语音增强在解码端实施,使得可以在噪声等声学干扰下,可以用低码率实现重建干净语音的效果。例如参见图20,编码端采集的语音信号中混有大量的噪声干扰,经过本申请实施例提供的语音增强和超低码率压缩的方案,可以在解码端中重建一个干净的语音信号,从而提高了语音通话的质量。
下面继续说明本申请实施例提供的音频解码装置565的实施为软件模块的示例性结构,在一些实施例中,如图3所示,存储在存储器560的音频解码装置565中的软件模块可以包括:获取模块5651、解码模块5652、标签提取模块5653、重建模块5654和确定模块5655。
获取模块5651,用于获取码流,其中,码流是对音频信号进行编码得到的;解码模块5652,用于对码流进行解码处理,得到音频信号的特征向量的预测值;标签提取模块5653,用于对特征向量的预测值进行标签提取处理,得到用于信号增强的标签信息向量,其中,标签信息向量的维度与特征向量的预测值的维度相同;重建模块5654,用于基于特征向量的预测值和标签信息向量进行信号重建;确定模块5655,用于将通过信号重建得到的音频信号的预测值,作为码流的解码结果。
在一些实施例中,解码模块5652,还用于对码流进行解码处理,得到音频信号的特征向量的索引值;基于索引值查询量化表,得到音频信号的特征向量的预测值。
在一些实施例中,标签提取模块5653,还用于对特征向量的预测值进行卷积处理,得到与特征向量的预测值相同维度的第一张量;对第一张量进行特征提取处理,得到与第一张量相同维度的第二张量;对第二张量进行全连接处理,得到与第二张量相同维度的第三张量;对第三张量进行激活处理,得到用于信号增强的标签信息向量。
在一些实施例中,重建模块5654,还用于对特征向量的预测值和标签信息向量进行拼接处理,得到拼接向量;对拼接向量进行第一卷积处理,得到音频信号的卷积特征;对卷积特征进行上采样处理,得到音频信号的上采样特征;对上采样特征进行池化处理,得到音频信号的池化特征;对池化特征进行第二卷积处理,得到音频信号的预测值。
在一些实施例中,上采样处理是通过多个级联的解码层实现的,且不同解码层的采样因子不同;重建模块5654,还用于通过多个级联的解码层中的第一个解码层,对卷积特征进行上采样处理;将第一个解码层的上采样结果输出到后续级联的解码层,并通过后续级联的解码层继续进行上采样处理和上采样结果输出,直至输出到最后一个解码层;将最后一个解码层输出的上采样结果,作为音频信号的上采样特征。
在一些实施例中,码流包括低频码流和高频码流,其中,低频码流是对音频信号经过分解处理后得到的低频子带信号进行编码得到的,高频码流是对音频信号经过分解处理后得到的高频子带信号进行编码得到的;解码模块5652,还用于对低频码流进行解码处理,得到低频子带信号的特征向量的预测值;以及用于对高频码流进行解码处理,得到高频子带信号的特征向量的预测值。
在一些实施例中,标签提取模块5653,还用于对低频子带信号的特征向量的预测值进行标签提取处理,得到用于低频子带信号增强的第一标签信息向量,其中,第一标签信息向量的维度与低频子带信号的特征向量的预测值的维度相同;以及用于对高频子带信号的特征向量的预测值进行标签提取处理,得到用于高频子带信号增强的第二标签信息向量,其中,第二标签信息向量的维度与高频子带信号的特征向量的预测值的维度相同。
在一些实施例中,标签提取模块5653,还用于调用第一增强网络执行以下处理:对低频子带信号的特征向量的预测值进行卷积处理,得到与低频子带信号的特征向量的预测值相同维度的第四张量;对第四张量进行特征提取处理,得到与第四张量相同维度的第五张量;对第五张量进行全连接处理,得到与第五张量相同维度的第六张量;对第六张量进行激活处理,得到用于低频子带信号增强的第一标签信息向量。
在一些实施例中,标签提取模块5653,还用于调用第二增强网络执行以下处理:对高频子带信号的特征向量的预测值进行卷积处理,得到与高频子带信号的特征向量的预测值相同维度的第七张量;对第七张量进行特征提取处理,得到与第七张量相同维度的第八张量;对第八张量进行全连接处理,得到与第八张量相同维度的第九张量;对第九张量进行激活处理,得到用于高频子带信号增强的第二标签信息向量。
在一些实施例中,特征向量的预测值包括:低频子带信号的特征向量的预测值,高频子带信号的特征向量的预测值;重建模块5654,还用于对低频子带信号的特征向量的预测值、以及第一标签信息向量进行拼接处理,得到第一拼接向量;基于第一拼接向量调用第一合成网络进行信号重建,得到低频子带信号的预测值;对高频子带信号的特征向量的预测值、以及第二标签信息向量进行拼接处理,得到第二拼接向量;基于第二拼接向量调用第二合成网络进行信号重建,得到高频子带信号的预测值;对低频子带信号的预测值和高频子带信号的预测值进行合成处理,得到音频信号的预测值。
在一些实施例中,重建模块5654,还用于调用第一合成网络执行以下处理:对第一拼接向量进行第一卷积处理,得到低频子带信号的卷积特征;对卷积特征进行上采样处理,得到低频子带信号的上采样特征;对上采样特征进行池化处理,得到低频子带信号的池化特征;对池化特征进行第二卷积处理,得到低频子带信号的预测值;其中,上采样处理是通过多个级联的解码层实现的,且不同解码层的采样因子不同。
在一些实施例中,重建模块5654,还用于调用第二合成网络执行以下处理:对第二拼接向量进行第一卷积处理,得到高频子带信号的卷积特征;对卷积特征进行上采样处理,得到高频子带信号的上采样特征;对上采样特征进行池化处理,得到高频子带信号的池化特征;对池化特征进行第二卷积处理,得到高频子带信号的预测值;其中,上采样处理是通过多个级联的解码层实现的,且不同解码层的采样因子不同。
在一些实施例中,码流包括N个子码流,N个子码流对应不同的频段,且是对音频信号经过分解处理后得到的N个子带信号分别进行编码得到的,N为大于2的整数;解码模块5652,还用于对N个子码流分别进行解码处理,得到N个子带信号分别对应的特征向量的预测值。
在一些实施例中,标签提取模块5653,还用于对N个子带信号分别对应的特征向量的预测值分别进行标签提取处理,得到用于信号增强的N个标签信息向量,其中,每个标签信息向量的维度与对应子带信号的特征向量的预测值的维度相同。
在一些实施例中,标签提取模块5653,还用于基于第i子带信号的特征向量的预测值,调用第i增强网络进行标签提取处理,得到用于第i子带信号增强的第i标签信息向量;其中,i的取值范围满足1≤i≤N,且第i标签信息向量的维度与第i子带信号的特征向量的预测值的维度相同。
在一些实施例中,标签提取模块5653,还用于调用第i增强网络执行以下处理:对第i子带信号的特征向量的预测值进行卷积处理,得到与第i子带信号的特征向量的预测值相同维度的第十张量;对第十张量进行特征提取处理,得到与第十张量相同维度的第十一张量;对第十一张量进行全连接处理,得到与第十一张量相同维度的第十二张量;对第十二张量进行激活处理,得到用于第i子带信号增强的第i标签信息向量。
在一些实施例中,重建模块5654,还用于对N个子带信号分别对应的特征向量的预测值、以及N个标签信息向量进行一一对应的拼接处理,得到N个拼接向量;基于第j拼接向量调用第j合成网络进行信号重建,得到第j子带信号的预测值;其中,j的取值范围满足1≤j≤N;对N个子带信号分别对应的预测值进行合成处理,得到音频信号的预测值。
在一些实施例中,重建模块5654,还用于调用第j合成网络执行以下处理:对第j拼接向量进行第一卷积处理,得到第j子带信号的卷积特征;对卷积特征进行上采样处理,得到第j子带信号的上采样特征;对上采样特征进行池化处理,得到第j子带信号的池化特征;对池化特征进行第二卷积处理,得到第j子带信号的预测值;其中,上采样处理是通过多个级联的解码层实现的,且不同解码层的采样因子不同。
需要说明的是,本申请实施例装置的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果,因此不做赘述。对于本申请实施例提供的音频解码装置中未尽的技术细节,可以根据图4C、图6A、或图6B中的任一附图的说明而理解。
本申请实施例提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行本申请实施例上述的音频编解码方法。
本申请实施例提供一种存储有可执行指令的计算机可读存储介质,其中存储有可执行指令,当可执行指令被处理器执行时,将引起处理器执行本申请实施例提供的音频编解码方法,例如,如图4C示出的音频编解码方法。
在一些实施例中,计算机可读存储介质可以是FRAM、ROM、PROM、EPROM、EEPROM、闪存、磁表面存储器、光盘、或CD-ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备。
在一些实施例中,可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,可执行指令可以但不一定对应于文件系统中的文件,可以可被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(HTML,Hyper TextMarkup Language)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。
作为示例,可执行指令可被部署为在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算设备上执行。
以上所述,仅为本申请的实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和范围之内所作的任何修改、等同替换和改进等,均包含在本申请的保护范围之内。
Claims (24)
1.一种音频解码方法,其特征在于,所述方法包括:
获取码流,其中,所述码流是对音频信号进行编码得到的;
对所述码流进行解码处理,得到所述音频信号的特征向量的预测值;
对所述特征向量的预测值进行标签提取处理,得到用于信号增强的标签信息向量,其中,所述标签信息向量的维度与所述特征向量的预测值的维度相同;
基于所述特征向量的预测值和所述标签信息向量进行信号重建;
将通过所述信号重建得到的所述音频信号的预测值,作为所述码流的解码结果。
2.根据权利要求1所述的方法,其特征在于,所述对所述码流进行解码处理,得到所述音频信号的特征向量的预测值,包括:
对所述码流进行解码处理,得到所述音频信号的特征向量的索引值;
基于所述索引值查询量化表,得到所述音频信号的特征向量的预测值。
3.根据权利要求2所述的方法,其特征在于,所述对所述特征向量的预测值进行标签提取处理,得到用于信号增强的标签信息向量,包括:
对所述特征向量的预测值进行卷积处理,得到与所述特征向量的预测值相同维度的第一张量;
对所述第一张量进行特征提取处理,得到与所述第一张量相同维度的第二张量;
对所述第二张量进行全连接处理,得到与所述第二张量相同维度的第三张量;
对所述第三张量进行激活处理,得到用于信号增强的标签信息向量。
4.根据权利要求2所述的方法,其特征在于,所述基于所述特征向量的预测值和所述标签信息向量进行信号重建,包括:
对所述特征向量的预测值和所述标签信息向量进行拼接处理,得到拼接向量;
对所述拼接向量进行第一卷积处理,得到所述音频信号的卷积特征;
对所述卷积特征进行上采样处理,得到所述音频信号的上采样特征;
对所述上采样特征进行池化处理,得到所述音频信号的池化特征;
对所述池化特征进行第二卷积处理,得到所述音频信号的预测值。
5.根据权利要求4所述的方法,其特征在于,
所述上采样处理是通过多个级联的解码层实现的,且不同解码层的采样因子不同;
所述对所述卷积特征进行上采样处理,得到所述音频信号的上采样特征,包括:
通过所述多个级联的解码层中的第一个解码层,对所述卷积特征进行上采样处理;
将所述第一个解码层的上采样结果输出到后续级联的解码层,并通过所述后续级联的解码层继续进行上采样处理和上采样结果输出,直至输出到最后一个解码层;
将所述最后一个解码层输出的上采样结果,作为所述音频信号的上采样特征。
6.根据权利要求1所述的方法,其特征在于,
所述码流包括低频码流和高频码流,其中,所述低频码流是对所述音频信号经过分解处理后得到的低频子带信号进行编码得到的,所述高频码流是对所述音频信号经过分解处理后得到的高频子带信号进行编码得到的;
所述对所述码流进行解码处理,得到所述音频信号的特征向量的预测值,包括:
对所述低频码流进行解码处理,得到所述低频子带信号的特征向量的预测值;
对所述高频码流进行解码处理,得到所述高频子带信号的特征向量的预测值。
7.根据权利要求6所述的方法,其特征在于,所述对所述特征向量的预测值进行标签提取处理,得到用于信号增强的标签信息向量,包括:
对所述低频子带信号的特征向量的预测值进行标签提取处理,得到用于低频子带信号增强的第一标签信息向量,其中,所述第一标签信息向量的维度与所述低频子带信号的特征向量的预测值的维度相同;
对所述高频子带信号的特征向量的预测值进行标签提取处理,得到用于高频子带信号增强的第二标签信息向量,其中,所述第二标签信息向量的维度与所述高频子带信号的特征向量的预测值的维度相同。
8.根据权利要求6所述的方法,其特征在于,所述对所述低频子带信号的特征向量的预测值进行标签提取处理,得到用于低频子带信号增强的第一标签信息向量,包括:
调用第一增强网络执行以下处理:
对所述低频子带信号的特征向量的预测值进行卷积处理,得到与所述低频子带信号的特征向量的预测值相同维度的第四张量;
对所述第四张量进行特征提取处理,得到与所述第四张量相同维度的第五张量;
对所述第五张量进行全连接处理,得到与所述第五张量相同维度的第六张量;
对所述第六张量进行激活处理,得到用于低频子带信号增强的第一标签信息向量。
9.根据权利要求6所述的方法,其特征在于,所述对所述高频子带信号的特征向量的预测值进行标签提取处理,得到用于高频子带信号增强的第二标签信息向量,包括:
调用第二增强网络执行以下处理:
对所述高频子带信号的特征向量的预测值进行卷积处理,得到与所述高频子带信号的特征向量的预测值相同维度的第七张量;
对所述第七张量进行特征提取处理,得到与所述第七张量相同维度的第八张量;
对所述第八张量进行全连接处理,得到与所述第八张量相同维度的第九张量;
对所述第九张量进行激活处理,得到用于高频子带信号增强的第二标签信息向量。
10.根据权利要求7至9任一项所述的方法,其特征在于,
所述特征向量的预测值包括:所述低频子带信号的特征向量的预测值,所述高频子带信号的特征向量的预测值;
所述基于所述特征向量的预测值和所述标签信息向量进行信号重建,包括:
对所述低频子带信号的特征向量的预测值、以及所述第一标签信息向量进行拼接处理,得到第一拼接向量;
基于所述第一拼接向量调用第一合成网络进行信号重建,得到所述低频子带信号的预测值;
对所述高频子带信号的特征向量的预测值、以及所述第二标签信息向量进行拼接处理,得到第二拼接向量;
基于所述第二拼接向量调用第二合成网络进行信号重建,得到所述高频子带信号的预测值;
对所述低频子带信号的预测值和所述高频子带信号的预测值进行合成处理,得到所述音频信号的预测值。
11.根据权利要求10所述的方法,其特征在于,所述基于所述第一拼接向量调用第一合成网络进行信号重建,得到所述低频子带信号的预测值,包括:
调用所述第一合成网络执行以下处理:
对所述第一拼接向量进行第一卷积处理,得到所述低频子带信号的卷积特征;
对所述卷积特征进行上采样处理,得到所述低频子带信号的上采样特征;
对所述上采样特征进行池化处理,得到所述低频子带信号的池化特征;
对所述池化特征进行第二卷积处理,得到所述低频子带信号的预测值;
其中,所述上采样处理是通过多个级联的解码层实现的,且不同解码层的采样因子不同。
12.根据权利要求10所述的方法,其特征在于,所述基于所述第二拼接向量调用第二合成网络进行信号重建,得到所述高频子带信号的预测值,包括:
调用所述第二合成网络执行以下处理:
对所述第二拼接向量进行第一卷积处理,得到所述高频子带信号的卷积特征;
对所述卷积特征进行上采样处理,得到所述高频子带信号的上采样特征;
对所述上采样特征进行池化处理,得到所述高频子带信号的池化特征;
对所述池化特征进行第二卷积处理,得到所述高频子带信号的预测值;
其中,所述上采样处理是通过多个级联的解码层实现的,且不同解码层的采样因子不同。
13.根据权利要求1所述的方法,其特征在于,
所述码流包括N个子码流,所述N个子码流对应不同的频段,且是对所述音频信号经过分解处理后得到的N个子带信号分别进行编码得到的,N为大于2的整数;
所述对所述码流进行解码处理,得到所述音频信号的特征向量的预测值,包括:
对所述N个子码流分别进行解码处理,得到所述N个子带信号分别对应的特征向量的预测值。
14.根据权利要求13所述的方法,其特征在于,所述对所述特征向量的预测值进行标签提取处理,得到用于信号增强的标签信息向量,包括:
对所述N个子带信号分别对应的特征向量的预测值分别进行标签提取处理,得到用于信号增强的N个标签信息向量,其中,每个所述标签信息向量的维度与对应子带信号的特征向量的预测值的维度相同。
15.根据权利要求14所述的方法,其特征在于,所述对所述N个子带信号分别对应的特征向量的预测值分别进行标签提取处理,得到用于信号增强的N个标签信息向量,包括:
基于第i子带信号的特征向量的预测值,调用第i增强网络进行标签提取处理,得到用于第i子带信号增强的第i标签信息向量;
其中,i的取值范围满足1≤i≤N,且所述第i标签信息向量的维度与所述第i子带信号的特征向量的预测值的维度相同。
16.根据权利要求15所述的方法,其特征在于,所述基于第i子带信号的特征向量的预测值,调用第i增强网络进行标签提取处理,得到用于第i子带信号增强的第i标签信息向量,包括:
调用所述第i增强网络执行以下处理:
对所述第i子带信号的特征向量的预测值进行卷积处理,得到与所述第i子带信号的特征向量的预测值相同维度的第十张量;
对所述第十张量进行特征提取处理,得到与所述第十张量相同维度的第十一张量;
对所述第十一张量进行全连接处理,得到与所述第十一张量相同维度的第十二张量;
对所述第十二张量进行激活处理,得到用于第i子带信号增强的第i标签信息向量。
17.根据权利要求14至16任一项所述的方法,其特征在于,所述基于所述特征向量的预测值和所述标签信息向量进行信号重建,包括:
对所述N个子带信号分别对应的特征向量的预测值、以及所述N个标签信息向量进行一一对应的拼接处理,得到N个拼接向量;
基于第j拼接向量调用第j合成网络进行信号重建,得到第j子带信号的预测值;其中,j的取值范围满足1≤j≤N;
对所述N个子带信号分别对应的预测值进行合成处理,得到所述音频信号的预测值。
18.根据权利要求17所述的方法,其特征在于,所述基于第j拼接向量调用第j合成网络进行信号重建,得到第j子带信号的预测值,包括:
调用所述第j合成网络执行以下处理:
对所述第j拼接向量进行第一卷积处理,得到所述第j子带信号的卷积特征;
对所述卷积特征进行上采样处理,得到所述第j子带信号的上采样特征;
对所述上采样特征进行池化处理,得到所述第j子带信号的池化特征;
对所述池化特征进行第二卷积处理,得到所述第j子带信号的预测值;
其中,所述上采样处理是通过多个级联的解码层实现的,且不同解码层的采样因子不同。
19.一种音频编码方法,其特征在于,所述方法包括:
获取音频信号;
对所述音频信号进行编码处理,得到码流,其中,所述码流用于供电子设备执行如权利要求1至18任一项所述的音频解码方法。
20.一种音频解码装置,其特征在于,所述装置包括:
获取模块,用于获取码流,其中,所述码流是对音频信号进行编码得到的;
解码模块,用于对所述码流进行解码处理,得到所述音频信号的特征向量的预测值;
标签提取模块,用于对所述特征向量的预测值进行标签提取处理,得到用于信号增强的标签信息向量,其中,所述标签信息向量的维度与所述特征向量的预测值的维度相同;
重建模块,用于基于所述特征向量的预测值和所述标签信息向量进行信号重建;
确定模块,用于将通过所述信号重建得到的所述音频信号的预测值,作为所述码流的解码结果。
21.一种音频编码装置,其特征在于,所述装置包括:
获取模块,用于获取音频信号;
编码模块,用于对所述音频信号进行编码处理,得到码流,其中,所述码流用于供电子设备执行如权利要求1至18任一项所述的音频解码方法。
22.一种电子设备,其特征在于,包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现权利要求1至18任一项所述的音频解码方法或权利要求19所述的音频编码方法。
23.一种计算机可读存储介质,存储有可执行指令,其特征在于,所述可执行指令被处理器执行时实现权利要求1至18任一项所述的音频解码方法或权利要求19所述的音频编码方法。
24.一种计算机程序产品,包括计算机程序或指令,其特征在于,所述计算机程序或指令被处理器执行时实现权利要求1至18任一项所述的音频解码方法或权利要求19所述的音频编码方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210676984.XA CN115116451A (zh) | 2022-06-15 | 2022-06-15 | 音频解码、编码方法、装置、电子设备及存储介质 |
PCT/CN2023/092246 WO2023241254A1 (zh) | 2022-06-15 | 2023-05-05 | 音频编解码方法、装置、电子设备、计算机可读存储介质及计算机程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210676984.XA CN115116451A (zh) | 2022-06-15 | 2022-06-15 | 音频解码、编码方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115116451A true CN115116451A (zh) | 2022-09-27 |
Family
ID=83328395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210676984.XA Pending CN115116451A (zh) | 2022-06-15 | 2022-06-15 | 音频解码、编码方法、装置、电子设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN115116451A (zh) |
WO (1) | WO2023241254A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023241254A1 (zh) * | 2022-06-15 | 2023-12-21 | 腾讯科技(深圳)有限公司 | 音频编解码方法、装置、电子设备、计算机可读存储介质及计算机程序产品 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101202043B (zh) * | 2007-12-28 | 2011-06-15 | 清华大学 | 音频信号的编码方法和装置与解码方法和装置 |
CN101572586B (zh) * | 2008-04-30 | 2012-09-19 | 北京工业大学 | 编解码方法、装置及系统 |
EP2887350B1 (en) * | 2013-12-19 | 2016-10-05 | Dolby Laboratories Licensing Corporation | Adaptive quantization noise filtering of decoded audio data |
KR102594160B1 (ko) * | 2019-11-29 | 2023-10-26 | 한국전자통신연구원 | 필터뱅크를 이용한 오디오 신호 부호화/복호화 장치 및 방법 |
CN113140225A (zh) * | 2020-01-20 | 2021-07-20 | 腾讯科技(深圳)有限公司 | 语音信号处理方法、装置、电子设备及存储介质 |
CN113470667A (zh) * | 2020-03-11 | 2021-10-01 | 腾讯科技(深圳)有限公司 | 语音信号的编解码方法、装置、电子设备及存储介质 |
CN113488063B (zh) * | 2021-07-02 | 2023-12-19 | 国网江苏省电力有限公司电力科学研究院 | 一种基于混合特征及编码解码的音频分离方法 |
CN113990347A (zh) * | 2021-10-25 | 2022-01-28 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种信号处理方法、计算机设备及存储介质 |
CN114550732B (zh) * | 2022-04-15 | 2022-07-08 | 腾讯科技(深圳)有限公司 | 一种高频音频信号的编解码方法和相关装置 |
CN115116451A (zh) * | 2022-06-15 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 音频解码、编码方法、装置、电子设备及存储介质 |
-
2022
- 2022-06-15 CN CN202210676984.XA patent/CN115116451A/zh active Pending
-
2023
- 2023-05-05 WO PCT/CN2023/092246 patent/WO2023241254A1/zh active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023241254A1 (zh) * | 2022-06-15 | 2023-12-21 | 腾讯科技(深圳)有限公司 | 音频编解码方法、装置、电子设备、计算机可读存储介质及计算机程序产品 |
Also Published As
Publication number | Publication date |
---|---|
WO2023241254A9 (zh) | 2024-04-18 |
WO2023241254A1 (zh) | 2023-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4374233B2 (ja) | 複数因子分解可逆変換(multiplefactorizationreversibletransform)を用いたプログレッシブ・ツー・ロスレス埋込みオーディオ・コーダ(ProgressivetoLosslessEmbeddedAudioCoder:PLEAC) | |
CN103187065B (zh) | 音频数据的处理方法、装置和系统 | |
US20220180881A1 (en) | Speech signal encoding and decoding methods and apparatuses, electronic device, and storage medium | |
JPWO2007088853A1 (ja) | 音声符号化装置、音声復号装置、音声符号化システム、音声符号化方法及び音声復号方法 | |
CN110739000B (zh) | 一种适应于个性化交互系统的音频对象编码方法 | |
WO2023241240A1 (zh) | 音频处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品 | |
WO2023241254A1 (zh) | 音频编解码方法、装置、电子设备、计算机可读存储介质及计算机程序产品 | |
WO2023241205A1 (zh) | 音频处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品 | |
WO2023241222A1 (zh) | 音频处理方法、装置、设备、存储介质及计算机程序产品 | |
WO2023241193A1 (zh) | 音频编码方法、装置、电子设备、存储介质及程序产品 | |
CN102576531B (zh) | 用于处理多信道音频信号的方法、设备 | |
JP3487250B2 (ja) | 符号化音声信号形式変換装置 | |
Bhatt et al. | A novel approach for artificial bandwidth extension of speech signals by LPC technique over proposed GSM FR NB coder using high band feature extraction and various extension of excitation methods | |
CN113314131B (zh) | 一种基于两级滤波的多步音频对象编解码方法 | |
CN113314132B (zh) | 交互式音频系统中的音频对象编码方法、解码方法及装置 | |
CN115116457A (zh) | 音频编码及解码方法、装置、设备、介质及程序产品 | |
CN117219095A (zh) | 音频编码方法、音频解码方法、装置、设备及存储介质 | |
CN117834596A (zh) | 音频处理方法、装置、设备、存储介质及计算机程序产品 | |
WO2022252957A1 (zh) | 音频数据编解码方法和相关装置及计算机可读存储介质 | |
CN115050378B (zh) | 音频编解码方法及相关产品 | |
CN117198301A (zh) | 音频编码方法、音频解码方法、装置、可读存储介质 | |
US11881227B2 (en) | Audio signal compression method and apparatus using deep neural network-based multilayer structure and training method thereof | |
CN117476024A (zh) | 音频编码方法、音频解码方法、装置、可读存储介质 | |
CN117219099A (zh) | 音频编码、音频解码方法、音频编码装置、音频解码装置 | |
CN117831548A (zh) | 音频编解码系统的训练方法、编码方法、解码方法、装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |