CN110728986A - 立体声信号的编码方法、解码方法、编码装置和解码装置 - Google Patents
立体声信号的编码方法、解码方法、编码装置和解码装置 Download PDFInfo
- Publication number
- CN110728986A CN110728986A CN201810701919.1A CN201810701919A CN110728986A CN 110728986 A CN110728986 A CN 110728986A CN 201810701919 A CN201810701919 A CN 201810701919A CN 110728986 A CN110728986 A CN 110728986A
- Authority
- CN
- China
- Prior art keywords
- channel signal
- lsf
- parameters
- parameter
- lsf parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 88
- 238000001228 spectrum Methods 0.000 claims abstract description 129
- 238000013139 quantization Methods 0.000 claims abstract description 90
- 239000013598 vector Substances 0.000 claims description 84
- 238000012545 processing Methods 0.000 claims description 35
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 230000003595 spectral effect Effects 0.000 claims description 11
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 238000007781 pre-processing Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 108010003272 Hyaluronate lyase Proteins 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000005314 correlation function Methods 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000005284 excitation Effects 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/032—Quantisation or dequantisation of spectral components
- G10L19/038—Vector quantisation, e.g. TwinVQ audio
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/06—Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/032—Quantisation or dequantisation of spectral components
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/06—Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
- G10L19/07—Line spectrum pair [LSP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0316—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
- G10L21/0364—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Mathematical Physics (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Stereophonic System (AREA)
Abstract
本申请提供立体声信号的编码方法、编码装置,解码方法和解码装置。该编码方法包括:对立体声信号中当前帧的主要声道信号量化后的LSF参数进行频谱扩展,得到主要声道信号频谱扩展后的LSF参数;根据当前帧的次要声道信号的原始LSF参数与主要声道信号频谱扩展后的LSF参数,确定次要声道信号的LSF参数的预测残差;对次要声道信号的LSF参数的预测残差进行量化编码。本申请提供的立体声信号的编码方法、编码装置,解码方法和解码装置,有助于减少编码的比特数。
Description
技术领域
本申请涉及音频领域,并且更具体地,涉及立体声信号的编码方法、解码方法、编码装置和解码装置。
背景技术
一种时域立体声编解码方法中,编码端首先会对立体声信号进行声道间时延差估计,并根据估计结果进行时延对齐,再对时延对齐处理后的信号进行时域下混处理,最后分别对下混处理得到的主要声道信号和次要声道信号进行编码,得到编码码流。
其中,对主要声道信号和次要声道信号进行编码可以包括:确定主要声道信号的线性预测系数(line prediction coefficient,LPC)和次要声道信号的LPC,并将主要声道信号的LPC和次要声道信号的LPC分别转换为主要声道信号的LSF参数和次要声道信号的LSF参数,然后对主要声道信号的LSF参数和次要声道信号的LSF参数进行量化编码。
对主要声道信号的LSF参数和次要声道信号的LSF参数进行量化编码的过程可以包括:对主要声道信号的原始LSF参数进行量化,得到主要声道信号量化后的LSF参数;根据主要声道信号的LSF参数和次要声道信号的LSF参数之间的距离大小进行复用判决,若主要声道信号的LSF参数和次要声道信号的LSF参数之间的距离大于或等于阈值,则判断次要声道信号的LSF参数不符合复用条件,则需要对次要声道信号的原始LSF参数进行量化,得到次要声道信号量化后的LSF参数;将主要声道信号量化后的LSF参数和次要声道信号量化后的LSF参数写入码流。若主要声道信号的LSF参数和次要声道信号的LSF参数之间的距离小于所述阈值,则仅将主要声道信号量化后的LSF参数写入码流,这种情况下,可以将主要声道信号量化后的LSF参数作为次要声道信号量化后的LSF参数使用。
该编码过程中,次要声道信号的LSF参数不符合复用条件的情况下,需要将主要声道信号量化后的LSF参数和次要声道信号量化后的LSF参数均写入码流,从而需要较多的比特数进行编码。
发明内容
本申请提供立体声信号的编码方法和编码装置,以及解码方法和解码装置,在主要声道信号的LSF参数与次要声道信号的LSF参数不符合复用条件的情况下,有助于减少编码所需的比特数。
第一方面,本申请提供一种立体声信号的编码方法。该编码方法包括:对立体声信号中当前帧的主要声道信号量化后的LSF参数进行频谱扩展,得到主要声道信号频谱扩展后的LSF参数;根据当前帧的次要声道信号的原始LSF参数与主要声道信号频谱扩展后的LSF参数,确定次要声道信号的LSF参数的预测残差;对次要声道信号的LSF参数的预测残差进行量化编码。
该编码方法中,先对主要声道信号量化后的LSF参数进行频谱扩展,然后根据频谱扩展得到的LSF参数与次要声道信号的原始LSF参数确定得到次要声道信号的预测残差,并量化编码该预测残差,由于预测残差值要小于次要声道信号的LSF参数值,甚至预测残差值的量级要小于次要声道信号的LSF参数值的量级,因此对预测残差进行量化编码与单独量化编码次要声道信号的LSF参数相比,有助于减少编码比特。
结合第一方面,在第一种可能的实现方式中,对立体声信号中当前帧的主要声道信号量化后的LSF参数进行频谱扩展,得到主要声道信号频谱扩展后的LSF参数,包括:
对主要声道信号量化后的LSF参数进行拉伸到平均处理,从而得到频谱扩展后的LSF参数;其中,所述拉伸到平均处理采用如下公式进行:
其中,LSFSB表示主要声道信号频谱扩展后的LSF参数的矢量,LSFP(i)表示主要声道信号量化后的LSF参数的矢量,i表示矢量索引,β表示扩展因子,0<β<1,表示次要声道信号的原始LSF参数的均值的矢量,1≤i≤M,i为整数,M表示线性预测参数。
结合第一方面,在第二种可能的实现方式中,对立体声信号中当前帧的主要声道信号量化后的LSF参数进行频谱扩展,得到主要声道信号频谱扩展后的LSF参数,包括:将主要声道信号量化后的LSF参数转换为线性预测系数;对线性预测系数进行修正,以得到主要声道信号修正后的线性预测系数;将主要声道信号修正后的线性预测系数转换为LSF参数,转换得到的所述LSF参数为主要声道信号频谱扩展后的LSF参数。
结合第一方面或第一种或第二种可能的实现方式,在第三种可能的实现方式中,次要声道信号的LSF参数的预测残差为次要声道信号的原始LSF参数与主要声道信号频谱扩展后的LSF参数的差值。
结合第一方面或第一种或第二种可能的实现方式,在第四种可能的实现方式中,根据当前帧的次要声道信号的原始LSF参数与主要声道信号频谱扩展后的LSF参数,确定次要声道信号的LSF参数的预测残差,包括:根据主要声道信号频谱扩展后的LSF参数,对次要声道信号的LSF参数进行二级预测,得到次要声道信号的预测LSF参数;将次要声道信号的原始LSF参数与预测LSF参数的差值,作为次要声道信号的预测残差。
结合第一方面或上述任意一种可能的实现方式,在第五种可能的实现方式中,所述根据所述当前帧的次要声道信号的原始LSF参数与所述主要声道信号频谱扩展后的LSF参数,确定所述次要声道信号的LSF参数的预测残差之前,所述编码方法还包括:确定所述次要声道信号的LSF参数不符合复用条件。
其中,确定所述次要声道信号的LSF参数是否不符合复用条件可以采用现有技术进行确定,例如可以采用背景技术部分描述的方式。
第二方面,本申请提供一种立体声信号的解码方法。该解码方法包括:从码流中获取当前帧的主要声道信号量化后的LSF参数;对主要声道信号量化后的LSF参数进行频谱扩展,得到主要声道信号频谱扩展后的LSF参数;从码流中获取立体声信号中当前帧的次要声道信号的LSF参数的预测残差;根据次要声道信号的LSF参数的预测残差与主要声道信号频谱扩展后的LSF参数,确定次要声道信号量化后的LSF参数。
该解码方法中,由于可以根据次要声道信号的预测残差与主要声道信号量化后的LSF参数确定次要声道信号量化后的LSF参数,因此,使得码流中可以不用记录次要声道信号量化后的LSF参数,而是记录次要声道信号的预测残差,从而有助于减少编码比特。
结合第二方面,在第一种可能的实现方式中,对立体声信号中当前帧的主要声道信号量化后的LSF参数进行频谱扩展,得到主要声道信号频谱扩展后的LSF参数,包括:
对主要声道信号量化后的LSF参数进行拉伸到平均处理,从而得到主要声道信号频谱扩展后的LSF参数;其中,所述拉伸到平均处理采用如下公式进行:
其中,LSFSB表示主要声道信号频谱扩展后的LSF参数的矢量,LSFP(i)表示主要声道信号量化后的LSF参数的矢量,i表示矢量索引,β表示扩展因子,0<β<1,表示次要声道信号的原始LSF参数的均值的矢量,1≤i≤M,i为整数,M表示线性预测参数。
结合第二方面,在第二种可能的实现方式中,对立体声信号中当前帧的主要声道信号量化后的LSF参数进行频谱扩展,得到主要声道信号频谱扩展后的LSF参数,包括:将主要声道信号量化后的LSF参数转换为线性预测系数;对线性预测系数进行修正,以得到主要声道信号修正后的线性预测系数;将主要声道信号修正后的线性预测系数转换为LSF参数,转换得到的LSF参数为主要声道信号频谱扩展后的LSF参数。
结合第二方面或第一种或第二种可能的实现方式,在第三种可能的实现方式中,次要声道信号量化后的LSF参数为频谱扩展后的LSF参数与预测残差之和。
结合第二方面或第一种或第二种可能的实现方式,在第四种可能的实现方式中,根据次要声道信号的LSF参数的预测残差与主要声道信号频谱扩展后的LSF参数,确定次要声道信号量化后的LSF参数,包括:根据主要声道信号频谱扩展后的LSF参数,对次要声道信号的LSF参数进行二级预测,得到预测LSF参数;将预测LSF参数与所述预测残差的和,作为次要声道信号量化后的LSF参数。
第三方面,提供了一种立体声信号的编码装置,该编码装置包括用于执行第一方面或第一方面的任意一种可能的实现方式中的编码方法的模块。
第四方面,提供了一种立体声信号的解码装置,该解码装置包括用于执行第二方面或第二方面的任意一种可能的实现方式中的方法的模块。
第五方面,提供了一种立体声信号的编码装置,该编码装置包括存储器和处理器,存储器用于存储程序,处理器用于执行程序,当处理器执行存储器中的程序时,实现第一方面或第一方面的任意一种可能的实现方式中的编码方法。
第六方面,提供了一种立体声信号的解码装置,该解码装置包括存储器和处理器,存储器用于存储程序,处理器用于执行程序,当处理器执行存储器中的程序时,实现第二方面或第二方面的任意一种可能的实现方式中的解码方法。
第七方面,提供一种计算机可读存储介质,该计算机可读存储介质存储用于装置或设备执行的程序代码,该程序代码包括用于实现第一方面或第一方面的任意一种可能的实现方式中的编码方法的指令。
第八方面,提供一种计算机可读存储介质,该计算机可读存储介质存储用于装置或设备执行的程序代码,该程序代码包括用于实现第二方面或第二方面的任意一种可能的实现方式中的解码方法的指令。
第九方面,提供一种芯片,该芯片包括处理器和通信接口,该通信接口用于与外部器件进行同行,该处理器用于实现第一方面或第一方面的任意一种可能的实现方式中的编码方法。
可选地,该芯片还可以包括存储器,该存储器中存储有指令,处理器用于执行存储器中存储的指令,当该指令被执行时,处理器用于实现第一方面或第一方面的任意一种可能的实现方式中的编码方法。
可选地,该芯片可以集成在终端设备或网络设备上。
第十方面,提供一种芯片,该芯片包括处理器和通信接口,该通信接口用于与外部器件进行同行,该处理器用于实现第二方面或第二方面的任意一种可能的实现方式中的解码方法。
可选地,该芯片还可以包括存储器,该存储器中存储有指令,处理器用于执行存储器中存储的指令,当该指令被执行时,处理器用于实现第二方面或第二方面的任意一种可能的实现方式中的解码方法。
可选地,该芯片可以集成在终端设备或网络设备上。
第十一方面,本申请实施例提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行第一方面所述的编码方法。
第十二方面,本申请实施例提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行第二方面所述的解码方法。
附图说明
图1是本申请实施例的时域上的立体声编解码系统的结构示意图;
图2是本申请实施例的移动终端的示意图;
图3是本申请实施例的网元的示意图;
图4是对主要声道信号的LSF参数和次要声道信号的LSF参数进行量化编码的方法的示意性流程图;
图5是本申请一个实施例的立体声信号的编码方法的示意性流程图;
图6是本申请一个实施例的立体声信号的编码方法的示意性流程图;
图7是本申请一个实施例的立体声信号的编码方法的示意性流程图;
图8是本申请一个实施例的立体声信号的编码方法的示意性流程图;
图9是本申请一个实施例的立体声信号的编码方法的示意性流程图;
图10是本申请一个实施例的立体声信号的解码方法的示意性流程图;
图11是本申请一个实施例的立体声信号的编码装置的示意性结构图;
图12是本申请一个实施例的立体声信号的解码装置的示意性结构图;
图13是本申请另一个实施例的立体声信号的编码装置的示意性结构图;
图14是本申请另一个实施例的立体声信号的解码装置的示意性结构图;
图15为主要声道信号和次要声道信号的线性预测谱包络示意图。
具体实施方式
图1示出了本申请一个示例性实施例提供的时域上的立体声编解码系统的结构示意图。立体声编解码系统包括编码组件110和解码组件120。
应理解,本申请中涉及的立体声信号可以是原始的立体声信号,也可以是多声道信号中包含的两路信号组成的立体声信号,还可以是由多声道信号中包含的多路信号联合产生的两路信号组成的立体声信号。
编码组件110用于对立体声信号在时域上进行编码。可选地,编码组件110可以通过软件实现;或者,也可以通过硬件实现;或者,还可以通过软硬件结合的形式实现,本申请实施例对此不作限定。
编码组件110对立体声信号在时域上进行编码可以包括如下几个步骤:
1)对获取到的立体声信号进行时域预处理,得到时域预处理后的左声道信号和时域预处理后的右声道信号。
立体声信号可以由采集组件采集到并发送至编码组件110。可选地,采集组件可以与编码组件110设置于同一设备中;或者,也可以与编码组件110设置于不同设备中。
其中,时域预处理后的左声道信号和时域预处理后的右声道信号是预处理后的立体声信号中的两路信号。
可选地,时域预处理可以包括高通滤波处理、预加重处理、采样率转换、声道转换中的至少一种,本申请实施例对此不作限定。
2)根据时域预处理后的左声道信号和时域预处理后的右声道信号进行时延估计,得到时域预处理后的左声道信号和时域预处理后的右声道信号之间的声道间时间差。
例如,可以根据时域预处理后的左声道信号和时域预处理后的右声道信号计算左声道信号和右声道信号间的互相关函数;然后,搜索互相关函数的最大值,并将该最大值作为时域预处理后的左声道信号和预测预处理后的右声道信号之间的声道间时延差。
又如,可以根据时域预处理后的左声道信号和时域预处理后的右声道信号计算左声道信号和右声道信号间的互相关函数;然后,根据当前帧的前L帧(L为大于或等于1的整数)的左声道信号和右声道信号间的互相关函数,对当前帧的左声道信号和右声道信号间的互相关函数进行长时平滑处理,得到平滑后的互相关函数;再搜索平滑后的互相关系数的最大值,并将该最大值对应的索引值作为当前帧时域预处理后的左声道信号和时域预处理后的右声道信号间的声道间时延差。
又如,可以根据当前帧的前M帧(M为大于或等于1的整数)的声道间时延差对当前帧已经估计出的声道间时延差进行帧间平滑处理,并将平滑后的声道间时延差作为当前帧时域预处理后的左声道信号和时域预处理后的右声道信号间最终的声道间时延差。
应理解,上述声道间时延差的估计方法仅是示例,本申请实施例不限于以上所述的声道间时延差估计方法。
3)根据声道间时延差对时域预处理后的左声道信号和时域预处理后的右声道信号进行时延对齐处理,得到时延对齐处理后的左声道信号和时延对齐处理后的右声道信号。
例如,可以根据当前帧估计出的声道间时延差以及前一帧的声道间时延差,对当前帧的左声道信号或右声道信号中的一路或者两路信号进行压缩或拉伸处理,使得时延对齐处理后的左声道信号和时延对齐处理后的右声道信号之间不存在声道间时延差。
4)对声道间时延差进行编码,得到声道间时延差的编码索引。
5)计算用于时域下混处理的立体声参数,并对该用于时域下混处理的立体声参数进行编码,得到用于时域下混处理的立体声参数的编码索引。
其中,用于时域下混处理的立体声参数用于对时延对齐处理后的左声道信号和时延对齐处理后的右声道信号进行时域下混处理。
6)根据用于时域下混处理的立体声参数对时延对齐处理后的左声道信号和时延对齐处理后的右声道信号进行时域下混处理,得到主要声道信号和次要声道信号。
主要声道信号用于表征信道间的相关信息,也可以称为下混信号或中央声道信号;次要声道信号用于表征声道间的差异信息,也可以称为残差信号或边声道信号。
当时延对齐处理后的左声道信号和时延对齐处理后的右声道信号在时域上对齐时,次要声道信号最小,此时,立体声信号的效果最好。
7)分别对主要声道信号和次要声道信号进行编码,得到主要声道信号对应的第一单声道编码码流以及次要声道信号对应的第二单声道编码码流。
8)将声道间时延差的编码索引、立体声参数的编码索引、第一单声道编码码流和第二单声道编码码流写入立体声编码码流。
值得注意的是,不是所有是上述步骤都是必须要执行的。例如,步骤1)不是必须要做的。如果没有步骤1),则用于进行时延估计的左声道信号和右声道信号可以是原始立体声信号中的左声道信号和右声道信号。这里所说的原始立体声信号中的左声道信号和右声道信号是指采集到的、经过模数(A/D)转换得到的信号。
解码组件120用于对编码组件110生成的立体声编码码流进行解码,得到立体声信号。
可选地,编码组件110与解码组件120可以通过有线或无线的方式相连,解码组件120可以通过其与编码组件110之间的连接,获取编码组件110生成的立体声编码码流;或者,编码组件110可以将生成的立体声编码码流存储至存储器,解码组件120读取存储器中的立体声编码码流。
可选地,解码组件120可以通过软件实现;或者,也可以通过硬件实现;或者,还可以通过软硬件结合的形式实现,本申请实施例对此不作限定。
解码组件120对立体声编码码流进行解码,得到立体声信号的过程可以包括以下几个步骤:
1)对立体声编码码流中的第一单声道编码码流以及第二单声道编码码流进行解码,得到主要声道信号和次要声道信号。
2)根据立体声编码码流获取用于时域上混处理的立体声参数的编码索引,对主要声道信号和次要声道信号进行时域上混处理,得到时域上混处理后的左声道信号和时域上混处理后的右声道信号。
3)根据立体声编码码流获取声道间时延差的编码索引,对时域上混处理后的左声道信号和时域上混处理后的右声道信号进行时延调整,得到立体声信号。
可选地,编码组件110和解码组件120可以设置在同一设备中;或者,也可以设置在不同设备中。设备可以为手机、平板电脑、膝上型便携计算机和台式计算机、蓝牙音箱、录音笔、可穿戴式设备等具有音频信号处理功能的移动终端,也可以是核心网、无线网中具有音频信号处理能力的网元,本申请实施例对此不作限定。
示意性地,如图2所示,以编码组件110设置于移动终端130中、解码组件120设置于移动终端140中,移动终端130与移动终端140是相互独立的具有音频信号处理能力的电子设备,例如可以是手机,可穿戴设备,虚拟现实(virtual reality,VR)设备,或增强现实(augmented reality,AR)设备等等,且移动终端130与移动终端140之间通过无线或有线网络连接为例进行说明。
可选地,移动终端130可以包括采集组件131、编码组件110和信道编码组件132,其中,采集组件131与编码组件110相连,编码组件110与编码组件132相连。
可选地,移动终端140可以包括音频播放组件141、解码组件120和信道解码组件142,其中,音频播放组件141与解码组件120相连,解码组件120与信道解码组件142相连。
移动终端130通过采集组件131采集到立体声信号后,通过编码组件110对该立体声信号进行编码,得到立体声编码码流;然后,通过信道编码组件132对立体声编码码流进行编码,得到传输信号。
移动终端130通过无线或有线网络将该传输信号发送至移动终端140。
移动终端140接收到该传输信号后,通过信道解码组件142对传输信号进行解码得到立体声编码码流;通过解码组件110对立体声编码码流进行解码得到立体声信号;通过音频播放组件141播放该立体声信号。
示意性地,如图3所示,本申请实施例以编码组件110和解码组件120设置于同一核心网或无线网中具有音频信号处理能力的网元150中为例进行说明。
可选地,网元150包括信道解码组件151、解码组件120、编码组件110和信道编码组件152。其中,信道解码组件151与解码组件120相连,解码组件120与编码组件110相连,编码组件110与信道编码组件152相连。
信道解码组件151接收到其它设备发送的传输信号后,对该传输信号进行解码得到第一立体声编码码流;通过解码组件120对立体声编码码流进行解码得到立体声信号;通过编码组件110对该立体声信号进行编码,得到第二立体声编码码流;通过信道编码组件152对该第二立体声编码码流进行编码得到传输信号。
其中,其它设备可以是具有音频信号处理能力的移动终端;或者,也可以是具有音频信号处理能力的其它网元,本申请实施例对此不作限定。
可选地,网元中的编码组件110和解码组件120可以对移动终端发送的立体声编码码流进行转码。
可选地,本申请实施例中可以将安装有编码组件110的设备称为音频编码设备,在实际实现时,该音频编码设备也可以具有音频解码功能,本申请实施对此不作限定。
可选地,本申请实施例仅以立体声信号为例进行说明,在本申请中,音频编码设备还可以处理多声道信号,该多声道信号包括至少两路声道信号。
编码组件110可以采用代数码本激励线性预测(algebraic code excited linearprediction,ACELP)编码的方法对主要声道信号和次要声道信号进行编码。
ACELP编码方法通常包括:确定主要声道信号的LPC系数和次要声道信号的LPC系数,分别将主要声道信号的LCP系数和次要声道信号的LCP系数转换成为LSF参数,对主要声道信号的LSF参数和次要声道信号的LSF参数进行量化编码;搜索自适应码激励确定基音周期及自适应码本增益,并对基音周期及自适应码本增益分别进行量化编码;搜索代数码激励确定代数码激励的脉冲索引及增益,并对代数码激励的脉冲索引及增益分别进行量化编码。
其中,编码组件110对于主要声道信号的LSF参数和次要声道信号的LSF参数进行量化编码的一种示例性方法如图4所示。
S410,根据主要声道信号确定主要声道信号的原始LSF参数。
S420,根据次要声道信号确定次要声道信号的原始LSF参数。
其中,步骤S410和步骤S420没有执行上的先后。
S430,根据主要声道信号的原始LSF参数和次要声道信号的原始LSF参数,判断次要声道信号的LSF参数是否符合复用判决条件。复用判决条件也可以简称为复用条件。
在次要声道信号的LSF参数不符合复用判决条件的情况下,进入步骤S440;在次要声道信号的LSF参数符合复用判决条件的情况下,进入步骤S450。
复用指可以通过主要声道信号量化后的LSF参数得到次要声道信号量化后的LSF参数。例如,将主要声道信号量化后的LSF参数作为次要声道信号量化后的LSF参数,即将主要声道信号量化后的LSF参数复用为次要声道信号量化为的LSF参数。
判断次要声道信号的LSF参数是否符合复用判决条件,可以称为对次要声道信号的LSF参数进行复用判决。
例如,复用判决条件为主要声道信号的原始LSF参数与次要声道信号的原始LSF参数之间的距离小于或等于预设的阈值时,如果主要声道信号的原始LSF参数与次要声道信号的原始LSF参数之间的距离大于预设的阈值,则判定次要声道信号的LSF参数不符合复用判决条件,否则可以判定次要声道信号的LSF参数符合复用判决条件。
应理解,上述复用判决中使用的判定条件仅是一种示例,本申请对此并不限定。
主要声道信号的LSF参数与次要声道信号的LSF参数之间的距离可以用于表征主要声道信号的LSF参数与次要声道信号的LSF参数之间的差异大小。
主要声道信号的LSF参数与次要声道信号的LSF参数之间的距离可以通过多种方式来计算。
其中,LSFp(i)为主要声道信号的LSF参数矢量,LSFS为次要声道信号的LSF参数矢量,i为矢量的索引,i=1,……,M,M为线性预测阶数,wi为第i个加权系数。
也可以称为加权距离。上述公式只是计算主要声道信号的LSF参数与次要声道信号的LSF参数之间的距离的一种示例性方法,还可以通过其他方法计算主要声道信号的LSF参数与次要声道信号的LSF参数之间的距离。例如,可以将上面公式中的加权系数去掉,或者,可以将主要声道信号的LSF参数与次要声道信号的LSF参数相减,等等。
对次要声道信号的原始LSF参数进行复用判决也可以称为次要声道信号的LSF参数进行量化判决。如果判决结果为进行次要声道信号的LSF参数量化,则可以对次要声道信号的原始LSF参数进行量化编码,写入码流,得到次要声道信号量化后的LSF参数。
该步骤中的判决结果可以写入码流,以传输给解码端。
S440,对次要声道信号的原始LSF参数进行量化,以得到次要声道信号量化后的LSF参数;对主要声道信号的LSF参数进行量化,以得到主要声道信号量化后的LSF参数。
应理解,次要声道信号的LSF参数符合复用判决条件的情况下,直接将主要声道信号量化后的LSF参数作为次要声道信号量化后的LSF参数仅是一种示例,当然也可以使用其他方法复用主要声道信号量化后的LSF参数得到次要声道信号量化后的LSF参数,本申请实施例对此不作限制。
S450,次要声道信号的LSF参数符合复用判决条件的情况下,直接将主要声道信号量化后的LSF参数作为次要声道信号量化后的LSF参数。
对主要声道信号的原始LSF参数和次要声道信号的原始LSF参数分别进行量化编码,写入码流,得到主要声道信号量化后的LSF参数和次要声道信号量化后的LSF参数,会占用较多的比特数。
图5是本申请一个实施例的立体声信号的编码方法的示意性流程图。在编码组件110得到复用判决结果不符合复用判决条件的情况下可以执行图5所示的方法。
S510,对立体声信号中当前帧的主要声道信号量化后的LSF参数进行频谱扩展,得到主要声道信号频谱扩展后的LSF参数。
S520,根据当前帧的次要声道信号的原始LSF参数与主要声道信号频谱扩展后的LSF参数,确定次要声道信号的LSF参数的预测残差。
如图15所示,主要声道信号的线性预测谱包络与次要声道信号的线性预测谱包络之间是具有一定相似性的。线性预测谱包络是通过LPC系数来表征的,LPC系数又可以转换成为LSF参数。因此,主要声道信号的LSF参数和次要声道信号的LSF参数之间存在着一定的相似性,所以根据主要声道信号频谱扩展后的LSF参数来确定次要声道信号的LSF参数的预测参数有助于提高该预测残差的准确性。
其中,次要声道信号的原始LSF参数可以理解为使用现有技术中的方法,根据次要声道信号获取的LSF参数。例如,S430中得到的原始LSF参数。
根据次要声道信号的原始LSF参数与次要声道信号的预测LSF参数,确定次要声道信号的LSF参数的预测残差,可以包括:将次要声道信号的原始LSF参数与次要声道信号的预测LSF参数之间的差值作为次要声道信号的LSF参数的预测残差。
S530,对次要声道信号的LSF参数的预测残差进行量化编码。
S540,对主要声道信号量化后的LSF参数进行量化编码。
本申请实施例的编码方法中,由于在需要对次要声道信号的LSF参数进行编码时,对次要声道信号的LSF参数的预测残差进行量化编码,与对次要声道信号的LSF参数单独进行编码相比,所以有利于减少编码比特数。
另外,由于确定预测残差所使用的次要声道信号的LSF参数是根据主要声道信号量化后的LSF参数进行频谱扩展得到的LSF参数预测得到的,可以利用主要声道信号的线性预测谱包络与次要声道信号的线性预测谱包络之间的相似性特征,从而有助于提高预测残差相对于主要声道信号量化后的LSF参数的准确性,从而有助于解码端根据该预测残差和主要声道信号量化后的LSF参数确定次要声道信号量化后的LSF参数的准确性。
S510,S520和S530可以通过多种方式来实现,下面结合图6至图9进行介绍。
如图6所示,S510可以包括S610,S520可以包括S620。
S610,对主要声道信号量化后的LSF参数进行拉伸到平均(pull-to-average)频谱扩展处理,从而得到主要声道信号频谱扩展后的LSF参数。
其中,上述拉伸到平均处理可以采用如下公式进行:
其中,LSFSB为主要声道信号频谱扩展后的LSF参数矢量,β为扩展因子(broadeningfactor),LSFP为主要声道信号量化后的LSF参数矢量,为次要声道信号的LSF参数的均值矢量,i为矢量的索引,i=1,……,M,M为线性预测阶数。
通常情况下,针对不同的编码带宽,可以采用不同的线性预测阶数。例如,16KHz的编码带宽时,可以采用20阶线性预测,即M=20。12.8KHz的编码带宽时,可以采用16阶线性预测,即M=16。LSF参数矢量也可简称为LSF参数。
扩展因子β可以是预先设定的常数。例如,β可以为预先设定的大于0且小于1的常实数,如β=0.82,β=0.91等等。
扩展因子β也可以是自适应获得的。例如,可以根据不同的编码模式、编码带宽、编码速率等编码参数预先设置不同的扩展因子β,然后根据当前的一种或几种编码参数,选择相应的扩展因子β。此处所述的编码模式可以包括语音激活检测结果、清音浊音分类等。
例如可以为不同的编码速率设置如下相应的扩展因子β:
其中,brate表示编码速率。
然后可以根据当前帧的编码速率和上述编码速率和扩展因子的对应关系,确定当前帧的编码速率对应的扩展因子。
次要声道信号的LSF参数的均值矢量,可以是根据大量数据训练得到的,可以是预先设定好的常矢量,也可以是自适应获得的。
例如,可以根据编码模式、编码带宽、编码速率等编码参数预先设置不同的次要声道信号的LSF参数的均值矢量;然后根据当前帧的编码参数,选择与次要声道信号的LSF参数对应的均值矢量。
S620,将次要声道信号的原始LSF参数与主要声道信号频谱扩展后的LSF参数的差值作为次要声道信号的LSF参数的预测残差。
具体地,次要声道信号的LSF参数的预测残差满足:
E_LSFS(i)=LSFS(i)-LSFSB(i)
其中,E_LSFS为次要声道信号的LSF参数的预测残差矢量,LSFS为次要声道信号的原始LSF参数矢量,LSFSB为主要声道信号频谱扩展后的LSF参数矢量,i为矢量的索引,i=1,……,M,M为线性预测阶数。LSF参数矢量也可简称为LSF参数。
或者可以说,将主要声道信号频谱扩展后的LSF参数,直接作为次要声道信号的预测LSF参数(这种实现方式可以称为对次要声道信号的LSF进行单级预测),并将次要声道信号的原始LSF参数与次要声道信号的预测LSF参数的差值作为次要声道信号的LSF参数的预测残差。
如图7所示,S510可以包括S710,S520可以包括S720。
S710,对主要声道信号量化后的LSF参数进行拉伸到平均频谱扩展处理,从而得到主要声道信号频谱扩展后的LSF参数。
该步骤可以参考S610,此处不再赘述。
S720,根据主要声道信号频谱扩展后的LSF参数,对次要声道信号的LSF参数进行多级预测,得到次要声道信号的预测LSF参数,并将次要声道信号的初始LSF参数与次要声道信号的预测LSF参数的差值作为次要声道信号的预测残差。
对次要声道信号的LSF参数进行了多少次预测,即可以称为对次要声道信号的LSF参数进行了多少级预测。
该多级预测可以包括:将主要声道信号频谱扩展后的LSF参数,预测为次要声道信号的一个预测LSF参数,该次预测可以称为帧内预测。
帧内预测可以在多级预测的任何位置来进行。例如,可以先进行帧内预测(即第一级预测),再进行帧内预测以外的预测(例如,第二级预测、第三级预测)等;也可以先进行帧内预测以外的预测(即第一级预测),再进行帧内预测(即第二级预测),当然,还可以进行帧内预测以外的预测(即第三级预测)。
若对次要声道信号的LSF参数进行两级预测,且第一级预测是帧内预测时,第二级预测可以是根据次要声道信号的LSF参数的帧内预测结果(即根据主要声道信号频谱扩展后的LSF参数)进行的;也可以是根据次要声道信号的原始LSF参数进行的,例如,第二级预测可以为根据前一帧次要声道信号量化后的LSF参数和当前帧的次要声道信号的原始LSF参数,采用帧间预测的方法,对次要声道信号的LSF参数进行第二级预测。
若对次要声道信号的LSF参数进行两级预测,且第一级预测是帧内预测,第二级预测是根据主要声道信号频谱扩展后的LSF参数进行的,次要声道的LSF参数的预测残差满足:
E_LSFS(i)=LSFS(i)-P_LSFS(i)
P_LSFS(i)=Pre{LSFSB(i)}
其中,E_LSFS为次要声道信号的LSF参数的预测残差矢量,LSFS为次要声道信号的原始LSF参数矢量,LSFSB为主要声道信号频谱扩展后的LSF参数矢量,P_LSFS为次要声道信号的LSF参数的预测矢量,Pre{LSFSB(i)}为根据主要声道信号频谱扩展后的LSF参数矢量对次要声道的LSF参数进行第二级预测后得到的次要声道信号的LSF参数的预测矢量,i为矢量的索引,i=1,……,M,M为线性预测阶数。LSF参数矢量也可简称为LSF参数。
若对次要声道信号的LSF参数进行两级预测,且第一级预测是帧内预测,第二级预测是根据次要声道信号的原始LSF参数矢量进行的,则次要声道信号的LSF参数的预测残差满足:
E_LSFS(i)=LSFS(i)-P_LSFS(i)
P_LSFS(i)=LSFSB(i)+LSFS′(i)
其中,E_LSFS为次要声道信号的LSF参数的预测残差矢量,LSFS为次要声道信号的原始LSF参数矢量,P_LSFS为次要声道信号的LSF参数的预测矢量,LSFSB为主要声道信号频谱扩展后的LSF参数矢量,LSFS′为次要声道的LSF参数的第二级预测矢量,i为矢量的索引,i=1,……,M,M为线性预测阶数。LSF参数矢量也可简称为LSF参数。
如图8所示,S510可以包括S810、S820和S830,S520可以包括S840。
S810,将主要声道信号量化后的LSF参数转换为线性预测系数。
将LSF参数转换到线性预测系数可以参考现有技术,此处不再赘述。若将主要声道信号量化后的LSF参数转换为线性预测系数后获得的线性预测系数记作ai,转换所使用的传递函数记作A(z),则满足:
其中,ai为将主要声道信号量化后的LSF参数转换到为线性预测系数后获得的线性预测系数,M为线性预测阶数。
S820,对线性预测系数进行修正,以得到主要声道信号修正后的线性预测系数。
修正后的线性预测器的传递函数满足:
其中,ai为将主要声道信号量化后的LSF参数转换为线性预测系数后获得的线性预测系数,β为扩展因子,M为线性预测阶数。
主要声道信号频谱扩展后的线性预测满足:
a′i=aiβi,i=1,……,M
α′0=1
其中,ai为将主要声道信号量化后的LSF参数转换为线性预测系数后获得的线性预测系数,a′i为频谱扩展后的线性预测系数,β为扩展因子,M为线性预测阶数。
该实现方式中的扩展因子β的获取方式可以参考S610中的扩展因子β的获取方式,此处不再赘述。
S830,将主要声道信号修正后的线性预测系数转换为LSF参数,转换得到的LSF参数为主要声道信号频谱扩展后的LSF参数。
将线性预测系数转换为到LSF参数的方法可以参考现有技术,此处不再赘述。可以将主要声道信号频谱扩展后的LSF参数记作LSFSB。
S840,将次要声道信号的原始LSF参数与主要声道信号频谱扩展后的LSF参数的差值作为次要声道信号的LSF参数的预测残差。
该步骤可以参考S620,此处不再赘述。
如图9所示,S510可以包括S910、S920和S930,S520可以包括S940。
S910,将主要声道信号量化后的LSF参数转换为线性预测系数。
该步骤可以参考S810,此处不再赘述。
S920,对线性预测系数进行修正,以得到主要声道信号修正后的线性预测系数。
该步骤可以参考S820,此处不再赘述。
S930,将主要声道信号修正后的线性预测系数转换为LSF参数,转换得到的LSF参数为主要声道信号频谱扩展后的LSF参数。
该步骤可以参考S830,此处不再赘述。
S940,根据主要声道信号频谱扩展后的LSF参数,对次要声道信号的LSF参数进行多级预测,得到次要声道信号的预测LSF参数,并将次要声道信号的初始LSF参数与次要声道信号的预测LSF参数的差值作为次要声道信号的预测残差。
该步骤可以参考S720,此处不再赘述。
本申请实施例的S530中,对次要声道信号的LSF参数的预测残差进行量化编码时,可以参考现有技术中的任何一种LSF参数矢量量化方法来进行。例如分裂矢量量化,多级矢量量化,安全网矢量量化等。
其中,P_LSFS为次要声道信号的LSF参数的预测矢量,为次要声道信号的LSF参数的预测残差量化后的矢量,为次要声道信号量化后的LSF参数矢量,i为矢量的索引,i=1,……,M,M为线性预测阶数。LSF参数矢量也可简称为LSF参数。
图10是本申请一个实施例的立体声信号的解码方法的示意性流程图。在解码组件120得到复用判决结果不符合复用条件的情况下可以执行图10所示的方法。
S1010,从码流中获取当前帧的主要声道信号量化后的LSF参数。
该步骤可以参考现有技术,此处不再赘述。
S1020,对所述主要声道信号量化后的LSF参数进行频谱扩展,得到主要声道信号频谱扩展后的LSF参数。
该步骤可以参考S510,此处不再赘述。
S1030,从码流中获取所立体声信号中当前帧的次要声道信号的LSF参数的预测残差。
该步骤可以参考现有技术中从码流中获取立体声信号的任意参数的实现方法,此处不再赘述。
S1040,根据次要声道信号的LSF参数的预测残差与主要声道信号频谱扩展后的LSF参数,确定次要声道信号量化后的LSF参数。
本申请实施例的解码方法中,由于可以根据次要声道信号的LSF参数的预测残差确定次要声道信号量化后的LSF参数,所以有利于减少码流中次要声道信号的LSF参数占用的比特数。
另外,由于根据主要声道信号量化后的LSF参数进行频谱扩展得到的LSF参数确定次要声道信号量化后的LSF参数,可以利用主要声道信号的线性预测谱包络与次要声道信号的线性预测谱包络之间的相似性特征,从而有助于提高次要声道信号量化后的LSF参数准确性。
在一些可能的实现方式中,对立体声信号中当前帧的主要声道信号量化后的LSF参数进行频谱扩展,得到主要声道信号频谱扩展后的LSF参数,包括:
对主要声道信号量化后的LSF参数进行拉伸到平均处理,从而得到频谱扩展后的LSF参数;其中,该拉伸到平均处理可以采用如下公式进行:
其中,LSFSB表示主要声道信号频谱扩展后的LSF参数的矢量,LSFP(i)表示主要声道信号量化后的LSF参数的矢量,i表示矢量索引,β表示扩展因子,0<β<1,表示次要声道信号的原始LSF参数的均值的矢量,1≤i≤M,i为整数,M表示线性预测参数。
在一种可能的实现方式中,对立体声信号中当前帧的主要声道信号量化后的LSF参数进行频谱扩展,得到主要声道信号频谱扩展后的LSF参数,包括:
将主要声道信号量化后的LSF参数转换为线性预测系数;
对线性预测系数进行修正,以得到主要声道信号修正后的线性预测系数;
将主要声道信号修正后的线性预测系数转换为LSF参数,转换得到的LSF参数为主要声道信号频谱扩展后的LSF参数。
在一些可能的实现方式中,次要声道信号量化后的LSF参数为主要声道信号频谱扩展后的LSF参数与次要声道信号的LSF参数的预测残差之和。
在一些可能的实现方式中,根据次要声道信号的LSF参数的预测残差与主要声道信号频谱扩展后的LSF参数,确定次要声道信号量化后的LSF参数,可以包括:
根据主要声道信号频谱扩展后的LSF参数,对次要声道信号的LSF参数进行二级预测,得到预测LSF参数;
将所述预测LSF参数与次要声道信号的LSF参数的预测残差的和,作为次要声道信号量化后的LSF参数。
该实现方式中,根据主要声道信号频谱扩展后的LSF参数,对次要声道信号的LSF参数进行二级预测,得到预测LSF参数的实现方式可以参考S720,此处不再赘述。
图11是本申请实施例的立体声信号的编码装置1100的示意性框图。应理解,编码装置1100仅是一种示例。
在一些实施方式中,频谱扩展模块1110、确定模块1120和量化编码模块1130均可以包括在移动终端130或网元150的编码组件110中。
频谱扩展模块1110,用于对所述立体声信号中当前帧的主要声道信号量化后的线谱频率LSF参数进行频谱扩展,得到所述主要声道信号频谱扩展后的LSF参数。
确定模块1120,用于根据所述当前帧的次要声道信号的原始LSF参数与所述主要声道信号频谱扩展后的LSF参数,确定所述次要声道信号的LSF参数的预测残差。
量化编码模块1130,用于对所述预测残差进行量化编码。
可选地,频谱扩展模块用于:
对所述主要声道信号量化后的LSF参数进行拉伸到平均处理,得到所述频谱扩展后的LSF参数;其中,所述拉伸到平均处理可以采用如下公式进行:
其中,LSFSB表示所述主要声道信号频谱扩展后的LSF参数的矢量,LSFP(i)表示所述主要声道信号量化后的LSF参数的矢量,i表示矢量索引,β表示扩展因子,0<β<1,表示所述次要声道信号的原始LSF参数的均值的矢量,1≤i≤M,i为整数,M表示线性预测参数。
可选地,频谱扩展模块可以具体用于:
将所述主要声道信号量化后的LSF参数转换为线性预测系数;
对所述线性预测系数进行修正,以得到所述主要声道信号修正后的线性预测系数;
将所述主要声道信号修正后的线性预测系数转换为LSF参数,转换得到的LSF参数为所述主要声道信号频谱扩展后的LSF参数。
可选地,所述次要声道信号的预测残差为所述次要声道信号的原始LSF参数与所述频谱扩展后的LSF参数的差值。
可选地,确定模块可以具体用于:
根据所述主要声道信号频谱扩展后的LSF参数,对所述次要声道信号的LSF参数进行二级预测,得到所述次要声道信号的预测LSF参数;
将所述次要声道信号的原始LSF参数与所述预测LSF参数的差值,作为所述次要声道信号的预测残差。
所述确定模块在根据所述当前帧的次要声道信号的原始LSF参数与所述主要声道信号频谱扩展后的LSF参数,确定所述次要声道信号的LSF参数的预测残差之前,还用于:确定所述次要声道信号的LSF参数不符合复用条件。
编码装置1100可以用于执行图5描述的编码方法,为了简洁,此处不再赘述。
图12是本申请实施例的立体声信号的解码装置1200的示意性框图。应理解,解码装置1200仅是一种示例。
在一些实施方式中,获取模块1220、频谱扩展模块1230和确定模块1240均可以包括在移动终端140或网元150的解码组件120中。
所述获取模块1220,用于从所述码流中获取所述当前帧的主要声道信号量化后的LSF参数。
频谱扩展模块1230,用于对所述主要声道信号量化后的LSF参数进行频谱扩展,得到所述主要声道信号频谱扩展后的LSF参数。
获取模块1220还用于从码流中获取所述立体声信号中当前帧的次要声道信号的线谱频率LSF参数的预测残差。
确定模块1240,用于根据所述次要声道信号的LSF参数的预测残差与所述主要声道信号频谱扩展后的LSF参数,确定所述次要声道信号量化后的LSF参数。
可选地,频谱扩展模块可以具体用于:
对所述主要声道信号量化后的LSF参数进行拉伸到平均处理,得到所述频谱扩展后的LSF参数;其中所述拉伸到平均处理可以采用如下公式进行:
其中,LSFSB表示所述主要声道信号频谱扩展后的LSF参数的矢量,LSFP(i)表示所述主要声道信号量化后的LSF参数的矢量,i表示矢量索引,β表示扩展因子,0<β<1,表示所述次要声道信号的原始LSF参数的均值的矢量,1≤i≤M,i为整数,M表示线性预测参数。
可选地,频谱扩展模块可以具体用于:
将所述主要声道信号量化后的LSF参数转换为线性预测系数;
对所述线性预测系数进行修正,以得到所述主要声道信号修正后的线性预测系数;
将所述主要声道信号修正后的线性预测系数转换为LSF参数,转换得到的LSF参数为所述主要声道信号频谱扩展后的LSF参数。
可选地,所述次要声道信号量化后的LSF参数为所述频谱扩展后的LSF参数与所述预测残差之和。
可选地,确定模块具体可以用于:
根据所述主要声道信号频谱扩展后的LSF参数,对所述次要声道信号的LSF参数进行二级预测,得到预测LSF参数;
将所述预测LSF参数与所述预测残差的和,作为所述次要声道信号量化后的LSF参数。
所述获取模块在从所述码流中获取所述立体声信号中当前帧的次要声道信号的线谱频率LSF参数的预测残差之前,还用于:确定所述次要声道信号的LSF参数不符合复用条件。
解码装置1200可以用于执行图10描述的解码方法,为了简洁,此处不再赘述。
图13是本申请实施例的立体声信号的编码装置1300的示意性框图。应理解,编码装置1300仅是一种示例。
存储器1310用于存储程序;
处理器1320用于执行所述存储器中存储的程序,当所述存储器中的程序被执行时,所述处理器用于:
对所述立体声信号中当前帧的主要声道信号量化后的线谱频率LSF参数进行频谱扩展,得到所述主要声道信号频谱扩展后的LSF参数;
根据所述当前帧的次要声道信号的原始LSF参数与所述主要声道信号频谱扩展后的LSF参数,确定所述次要声道信号的LSF参数的预测残差;
对所述预测残差进行量化编码。
可选地,所述处理器1320具体可以用于:
对所述主要声道信号量化后的LSF参数进行拉伸到平均处理,得到所述频谱扩展后的LSF参数;其中,所述拉伸到平均处理可以采用如下公式进行:
其中,LSFSB表示所述主要声道信号频谱扩展后的LSF参数的矢量,LSFP(i)表示所述主要声道信号量化后的LSF参数的矢量,i表示矢量索引,β表示扩展因子,0<β<1,表示所述次要声道信号的原始LSF参数的均值的矢量,1≤i≤M,i为整数,M表示线性预测参数。
可选地,所述处理器具体可以用于:
将所述主要声道信号量化后的LSF参数转换为线性预测系数;
对所述线性预测系数进行修正,以得到所述主要声道信号修正后的线性预测系数;
将所述主要声道信号修正后的线性预测系数转换为LSF参数,转换得到的LSF参数为所述主要声道信号频谱扩展后的LSF参数。
可选地,所述次要声道信号的预测残差为所述次要声道信号的原始LSF参数与所述频谱扩展后的LSF参数的差值。
可选地,所述处理器具体可以用于:
根据所述主要声道信号频谱扩展后的LSF参数,对所述次要声道信号的LSF参数进行二级预测,得到所述次要声道信号的预测LSF参数;
将所述次要声道信号的原始LSF参数与所述预测LSF参数的差值,作为所述次要声道信号的预测残差。
所述处理器在根据所述当前帧的次要声道信号的原始LSF参数与所述主要声道信号频谱扩展后的LSF参数,确定所述次要声道信号的LSF参数的预测残差之前,还用于:确定所述次要声道信号的LSF参数不符合复用条件。
编码装置1300可以用于执行图5描述的编码方法,为了简洁,此处不再赘述。
图14是本申请实施例的立体声信号的解码装置1400的示意性框图。应理解,编码装置1400仅是一种示例。
存储器1410用于存储程序。
处理器1420用于执行所述存储器中存储的程序,当所述存储器中的程序被执行时,所述处理器用于:
从码流中获取所述当前帧的主要声道信号量化后的LSF参数;
对所述主要声道信号量化后的LSF参数进行频谱扩展,得到所述主要声道信号频谱扩展后的LSF参数;
从码流中获取所述立体声信号中当前帧的次要声道信号的线谱频率LSF参数的预测残差;
根据所述次要声道信号的LSF参数的预测残差与所述主要声道信号频谱扩展后的LSF参数,确定所述次要声道信号量化后的LSF参数。
可选地,所述处理器具体可以用于:
对所述主要声道信号量化后的LSF参数进行拉伸到平均处理,得到所述频谱扩展后的LSF参数;其中,所述拉伸到平均处理可以采用如下公式进行:
其中,LSFSB表示所述主要声道信号频谱扩展后的LSF参数的矢量,LSFP(i)表示所述主要声道信号量化后的LSF参数的矢量,i表示矢量索引,β表示扩展因子,0<β<1,表示所述次要声道信号的原始LSF参数的均值的矢量,1≤i≤M,i为整数,M表示线性预测参数。
可选地,所述处理器具体可以用于:
将所述主要声道信号量化后的LSF参数转换为线性预测系数;
对所述线性预测系数进行修正,以得到所述主要声道信号修正后的线性预测系数;
将所述主要声道信号修正后的线性预测系数转换为LSF参数,转换得到的LSF参数为所述主要声道信号频谱扩展后的LSF参数。
可选地,所述次要声道信号量化后的LSF参数为所述主要声道信号频谱扩展后的LSF参数与所述预测残差之和。
可选地,所述处理器具体可以用于:
根据所述主要声道信号频谱扩展后的LSF参数,对所述次要声道信号的LSF参数进行二级预测,得到预测LSF参数;
将所述预测LSF参数与所述预测残差的和,作为所述次要声道信号量化后的LSF参数。
所述处理器在从所述码流中获取所述立体声信号中当前帧的次要声道信号的线谱频率LSF参数的预测残差之前,还用于:确定所述次要声道信号的LSF参数不符合复用条件。
解码装置1400可以用于执行图10描述的解码方法,为了简洁,此处不再赘述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
应理解,本申请实施例中的处理器可以为中央处理单元(central processingunit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(digital signalprocessor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现成可编程门阵列(fieldprogrammable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (22)
1.一种立体声信号的编码方法,其特征在于,包括:
对所述立体声信号中当前帧的主要声道信号量化后的线谱频率LSF参数进行频谱扩展,以得到所述主要声道信号频谱扩展后的LSF参数;
根据所述当前帧的次要声道信号的原始LSF参数与所述主要声道信号频谱扩展后的LSF参数,确定所述次要声道信号的LSF参数的预测残差;
对所述预测残差进行量化编码。
3.根据权利要求1所述的编码方法,其特征在于所述对所述立体声信号中当前帧的主要声道信号量化后的线谱频率LSF参数进行频谱扩展,得到所述主要声道信号频谱扩展后的LSF参数,包括:
将所述主要声道信号量化后的LSF参数转换为线性预测系数;
对所述线性预测系数进行修正,以得到所述主要声道信号修正后的线性预测系数;
将所述主要声道信号修正后的线性预测系数转换为LSF参数,转换得到的所述LSF参数为所述主要声道信号频谱扩展后的LSF参数。
4.根据权利要求1至3中任一项所述的编码方法,其特征在于,所述次要声道信号的LSF参数的预测残差为所述次要声道信号的原始LSF参数与所述主要声道信号频谱扩展后的LSF参数的差值。
5.根据权利要求1至3中任一项所述的编码方法,其特征在于,所述根据所述当前帧的次要声道信号的原始LSF参数与所述主要声道信号频谱扩展后的LSF参数,确定所述次要声道信号的LSF参数的预测残差,包括:
根据所述主要声道信号频谱扩展后的LSF参数,对所述次要声道信号的LSF参数进行二级预测,得到所述次要声道信号的预测LSF参数;
将所述次要声道信号的原始LSF参数与所述预测LSF参数的差值,作为所述次要声道信号的预测残差。
6.根据权利要求1至5中任一项所述的编码方法,其特征在于,所述根据所述当前帧的次要声道信号的原始LSF参数与所述主要声道信号频谱扩展后的LSF参数,确定所述次要声道信号的LSF参数的预测残差之前,所述编码方法还包括:
确定所述次要声道信号的LSF参数不符合复用条件。
7.一种立体声信号的解码方法,其特征在于,包括:
从码流中获取所述当前帧的主要声道信号量化后的LSF参数;
对所述主要声道信号量化后的LSF参数进行频谱扩展,得到所述主要声道信号频谱扩展后的LSF参数;
从所述码流中获取所述立体声信号中当前帧的次要声道信号的线谱频率LSF参数的预测残差;
根据所述次要声道信号的LSF参数的预测残差与所述主要声道信号频谱扩展后的LSF参数,确定所述次要声道信号量化后的LSF参数。
9.根据权利要求7所述的解码方法,其特征在于,所述对所述立体声信号中当前帧的主要声道信号量化后的LSF参数进行频谱扩展,得到所述主要声道信号频谱扩展后的LSF参数,包括:
将所述主要声道信号量化后的LSF参数转换为线性预测系数;
对所述线性预测系数进行修正,以得到所述主要声道信号修正后的线性预测系数;
将所述主要声道信号修正后的线性预测系数转换为LSF参数,转换得到的所述LSF参数为所述主要声道信号频谱扩展后的LSF参数。
10.根据权利要求7至9中任一项所述的解码方法,其特征在于,所述次要声道信号量化后的LSF参数为所述主要声道信号频谱扩展后的LSF参数与所述预测残差之和。
11.根据权利要求7至9中任一项所述的解码方法,其特征在于,所述根据所述次要声道信号的LSF参数的预测残差与所述主要声道信号频谱扩展后的LSF参数,确定所述次要声道信号量化后的LSF参数,包括:
根据所述主要声道信号频谱扩展后的LSF参数,对所述次要声道信号的LSF参数进行二级预测,得到预测LSF参数;
将所述预测LSF参数与所述预测残差的和,作为所述次要声道信号量化后的LSF参数。
12.一种立体声信号的编码装置,其特征在于,包括存储器和处理器;
所述存储器用于存储程序;
所述处理器用于执行所述存储器中存储的程序,当所述存储器中的程序被执行时,所述处理器用于:
对所述立体声信号中当前帧的主要声道信号量化后的线谱频率LSF参数进行频谱扩展,得到所述主要声道信号频谱扩展后的LSF参数;
根据所述当前帧的次要声道信号的原始LSF参数与所述主要声道信号频谱扩展后的LSF参数,确定所述次要声道信号的LSF参数的预测残差;
对所述预测残差进行量化编码。
14.根据权利要求12所述的编码装置,其特征在于,所述处理器用于:
将所述主要声道信号量化后的LSF参数转换为线性预测系数;
对所述线性预测系数进行修正,以得到所述主要声道信号修正后的线性预测系数;
将所述主要声道信号修正后的线性预测系数转换为LSF参数,转换得到的所述LSF参数为所述主要声道信号频谱扩展后的LSF参数。
15.根据权利要求12至14中任一项所述的编码装置,其特征在于,所述次要声道信号的预测残差为所述次要声道信号的原始LSF参数与所述主要声道信号频谱扩展后的LSF参数的差值。
16.根据权利要求12至14中任一项所述的编码装置,其特征在于,所述处理器用于:
根据所述主要声道信号频谱扩展后的LSF参数,对所述次要声道信号的LSF参数进行二级预测,得到所述次要声道信号的预测LSF参数;
将所述次要声道信号的原始LSF参数与所述预测LSF参数的差值,作为所述次要声道信号的预测残差。
17.根据权利要求12至16中任一项所述的编码装置,其特征在于,所述处理器在根据所述当前帧的次要声道信号的原始LSF参数与所述主要声道信号频谱扩展后的LSF参数,确定所述次要声道信号的LSF参数的预测残差之前,还用于:
确定所述次要声道信号的LSF参数不符合复用条件。
18.一种立体声信号的解码装置,其特征在于,包括存储器和处理器;
所述存储器用于存储程序;
所述处理器用于执行所述存储器中存储的程序,当所述存储器中的程序被执行时,所述处理器用于:
从码流中获取所述当前帧的主要声道信号量化后的LSF参数;
对所述主要声道信号量化后的LSF参数进行频谱扩展,得到所述主要声道信号频谱扩展后的LSF参数;
从所述码流中获取所述立体声信号中当前帧的次要声道信号的线谱频率LSF参数的预测残差;
根据所述次要声道信号的LSF参数的预测残差与所述主要声道信号频谱扩展后的LSF参数,确定所述次要声道信号量化后的LSF参数。
20.根据权利要求18所述的解码装置,其特征在于,所述处理器用于:
将所述主要声道信号量化后的LSF参数转换为线性预测系数;
对所述线性预测系数进行修正,以得到所述主要声道信号修正后的线性预测系数;
将所述主要声道信号修正后的线性预测系数转换为LSF参数,转换得到的所述LSF参数为所述主要声道信号频谱扩展后的LSF参数。
21.根据权利要求18至20中任一项所述的解码装置,其特征在于,所述次要声道信号量化后的LSF参数为所述主要声道信号频谱扩展后的LSF参数与所述预测残差之和。
22.根据权利要求18至20中任一项所述的解码装置,其特征在于,所述处理器用于:
根据所述主要声道信号频谱扩展后的LSF参数,对所述次要声道信号的LSF参数进行二级预测,得到预测LSF参数;
将所述预测LSF参数与所述预测残差的和,作为所述次要声道信号量化后的LSF参数。
Priority Applications (13)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211200345.2A CN115831130A (zh) | 2018-06-29 | 2018-06-29 | 立体声信号的编码方法、解码方法、编码装置和解码装置 |
CN201810701919.1A CN110728986B (zh) | 2018-06-29 | 2018-06-29 | 立体声信号的编码方法、解码方法、编码装置和解码装置 |
PCT/CN2019/093404 WO2020001570A1 (zh) | 2018-06-29 | 2019-06-27 | 立体声信号的编码方法、解码方法、编码装置和解码装置 |
EP23190581.1A EP4297029A3 (en) | 2018-06-29 | 2019-06-27 | Stereo signal coding and decoding method and coding and decoding apparatus |
BR112020026932-8A BR112020026932A2 (pt) | 2018-06-29 | 2019-06-27 | Método e aparelho de codificação de sinal estéreo, e método e aparelho de decodificação de sinal estéreo |
JP2020570100A JP7160953B2 (ja) | 2018-06-29 | 2019-06-27 | ステレオ信号符号化方法および装置、ならびにステレオ信号復号方法および装置 |
ES19825743T ES2963219T3 (es) | 2018-06-29 | 2019-06-27 | Método y aparato de codificación de señales estéreo, método y aparato de decodificación de señales estéreo |
EP19825743.8A EP3806093B1 (en) | 2018-06-29 | 2019-06-27 | Stereo signal coding and decoding method and coding and decoding apparatus |
US17/135,539 US11462223B2 (en) | 2018-06-29 | 2020-12-28 | Stereo signal encoding method and apparatus, and stereo signal decoding method and apparatus |
US17/893,488 US11790923B2 (en) | 2018-06-29 | 2022-08-23 | Stereo signal encoding method and apparatus, and stereo signal decoding method and apparatus |
JP2022164615A JP7477247B2 (ja) | 2018-06-29 | 2022-10-13 | ステレオ信号符号化方法および装置、ならびにステレオ信号復号方法および装置 |
US18/362,453 US20240021209A1 (en) | 2018-06-29 | 2023-07-31 | Stereo Signal Encoding Method and Apparatus, and Stereo Signal Decoding Method and Apparatus |
JP2024066011A JP2024102106A (ja) | 2018-06-29 | 2024-04-16 | ステレオ信号符号化方法および装置、ならびにステレオ信号復号方法および装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810701919.1A CN110728986B (zh) | 2018-06-29 | 2018-06-29 | 立体声信号的编码方法、解码方法、编码装置和解码装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211200345.2A Division CN115831130A (zh) | 2018-06-29 | 2018-06-29 | 立体声信号的编码方法、解码方法、编码装置和解码装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110728986A true CN110728986A (zh) | 2020-01-24 |
CN110728986B CN110728986B (zh) | 2022-10-18 |
Family
ID=68986259
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211200345.2A Pending CN115831130A (zh) | 2018-06-29 | 2018-06-29 | 立体声信号的编码方法、解码方法、编码装置和解码装置 |
CN201810701919.1A Active CN110728986B (zh) | 2018-06-29 | 2018-06-29 | 立体声信号的编码方法、解码方法、编码装置和解码装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211200345.2A Pending CN115831130A (zh) | 2018-06-29 | 2018-06-29 | 立体声信号的编码方法、解码方法、编码装置和解码装置 |
Country Status (7)
Country | Link |
---|---|
US (3) | US11462223B2 (zh) |
EP (2) | EP4297029A3 (zh) |
JP (3) | JP7160953B2 (zh) |
CN (2) | CN115831130A (zh) |
BR (1) | BR112020026932A2 (zh) |
ES (1) | ES2963219T3 (zh) |
WO (1) | WO2020001570A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022257824A1 (zh) * | 2021-06-11 | 2022-12-15 | 华为技术有限公司 | 一种三维音频信号的处理方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101695150A (zh) * | 2009-10-12 | 2010-04-14 | 清华大学 | 多声道音频编码方法、编码器、解码方法和解码器 |
US20100198588A1 (en) * | 2009-02-02 | 2010-08-05 | Kabushiki Kaisha Toshiba | Signal bandwidth extending apparatus |
CN102044250A (zh) * | 2009-10-23 | 2011-05-04 | 华为技术有限公司 | 频带扩展方法及装置 |
CN102243876A (zh) * | 2010-05-12 | 2011-11-16 | 华为技术有限公司 | 预测残差信号的量化编码方法及装置 |
US20130223633A1 (en) * | 2010-11-17 | 2013-08-29 | Panasonic Corporation | Stereo signal encoding device, stereo signal decoding device, stereo signal encoding method, and stereo signal decoding method |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5307441A (en) | 1989-11-29 | 1994-04-26 | Comsat Corporation | Wear-toll quality 4.8 kbps speech codec |
SE519985C2 (sv) * | 2000-09-15 | 2003-05-06 | Ericsson Telefon Ab L M | Kodning och avkodning av signaler från flera kanaler |
US7013269B1 (en) * | 2001-02-13 | 2006-03-14 | Hughes Electronics Corporation | Voicing measure for a speech CODEC system |
US7003454B2 (en) * | 2001-05-16 | 2006-02-21 | Nokia Corporation | Method and system for line spectral frequency vector quantization in speech codec |
SE527670C2 (sv) | 2003-12-19 | 2006-05-09 | Ericsson Telefon Ab L M | Naturtrogenhetsoptimerad kodning med variabel ramlängd |
KR101435893B1 (ko) * | 2006-09-22 | 2014-09-02 | 삼성전자주식회사 | 대역폭 확장 기법 및 스테레오 부호화 기법을 이용한오디오 신호의 부호화/복호화 방법 및 장치 |
CN101067931B (zh) * | 2007-05-10 | 2011-04-20 | 芯晟(北京)科技有限公司 | 一种高效可配置的频域参数立体声及多声道编解码方法与系统 |
CN101393743A (zh) * | 2007-09-19 | 2009-03-25 | 中兴通讯股份有限公司 | 一种可配置参数的立体声编码装置及其编码方法 |
EP4235659A3 (en) * | 2015-09-25 | 2023-09-06 | VoiceAge Corporation | Method and system using a long-term correlation difference between left and right channels for time domain down mixing a stereo sound signal into primary and secondary channels |
-
2018
- 2018-06-29 CN CN202211200345.2A patent/CN115831130A/zh active Pending
- 2018-06-29 CN CN201810701919.1A patent/CN110728986B/zh active Active
-
2019
- 2019-06-27 JP JP2020570100A patent/JP7160953B2/ja active Active
- 2019-06-27 ES ES19825743T patent/ES2963219T3/es active Active
- 2019-06-27 BR BR112020026932-8A patent/BR112020026932A2/pt unknown
- 2019-06-27 EP EP23190581.1A patent/EP4297029A3/en active Pending
- 2019-06-27 WO PCT/CN2019/093404 patent/WO2020001570A1/zh unknown
- 2019-06-27 EP EP19825743.8A patent/EP3806093B1/en active Active
-
2020
- 2020-12-28 US US17/135,539 patent/US11462223B2/en active Active
-
2022
- 2022-08-23 US US17/893,488 patent/US11790923B2/en active Active
- 2022-10-13 JP JP2022164615A patent/JP7477247B2/ja active Active
-
2023
- 2023-07-31 US US18/362,453 patent/US20240021209A1/en active Pending
-
2024
- 2024-04-16 JP JP2024066011A patent/JP2024102106A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100198588A1 (en) * | 2009-02-02 | 2010-08-05 | Kabushiki Kaisha Toshiba | Signal bandwidth extending apparatus |
CN101695150A (zh) * | 2009-10-12 | 2010-04-14 | 清华大学 | 多声道音频编码方法、编码器、解码方法和解码器 |
CN102044250A (zh) * | 2009-10-23 | 2011-05-04 | 华为技术有限公司 | 频带扩展方法及装置 |
CN102243876A (zh) * | 2010-05-12 | 2011-11-16 | 华为技术有限公司 | 预测残差信号的量化编码方法及装置 |
US20130223633A1 (en) * | 2010-11-17 | 2013-08-29 | Panasonic Corporation | Stereo signal encoding device, stereo signal decoding device, stereo signal encoding method, and stereo signal decoding method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022257824A1 (zh) * | 2021-06-11 | 2022-12-15 | 华为技术有限公司 | 一种三维音频信号的处理方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2020001570A1 (zh) | 2020-01-02 |
ES2963219T3 (es) | 2024-03-25 |
US11790923B2 (en) | 2023-10-17 |
US20210125620A1 (en) | 2021-04-29 |
JP2022188262A (ja) | 2022-12-20 |
CN110728986B (zh) | 2022-10-18 |
JP2021529340A (ja) | 2021-10-28 |
JP2024102106A (ja) | 2024-07-30 |
US20240021209A1 (en) | 2024-01-18 |
EP4297029A3 (en) | 2024-02-28 |
EP3806093B1 (en) | 2023-10-04 |
US11462223B2 (en) | 2022-10-04 |
BR112020026932A2 (pt) | 2021-03-30 |
EP4297029A2 (en) | 2023-12-27 |
WO2020001570A8 (zh) | 2020-10-22 |
CN115831130A (zh) | 2023-03-21 |
JP7160953B2 (ja) | 2022-10-25 |
JP7477247B2 (ja) | 2024-05-01 |
US20220406316A1 (en) | 2022-12-22 |
EP3806093A1 (en) | 2021-04-14 |
EP3806093A4 (en) | 2021-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2833868C (en) | Apparatus for quantizing linear predictive coding coefficients, sound encoding apparatus, apparatus for de-quantizing linear predictive coding coefficients, sound decoding apparatus, and electronic device therefor | |
CA2833874C (en) | Method of quantizing linear predictive coding coefficients, sound encoding method, method of de-quantizing linear predictive coding coefficients, sound decoding method, and recording medium | |
JP2021012398A (ja) | 音声符号化装置および方法 | |
US20220130403A1 (en) | Method and device for quantizing linear predictive coefficient, and method and device for dequantizing same | |
WO2008148321A1 (fr) | Appareil de codage et de décodage et procédé de traitement du bruit de fond et dispositif de communication utilisant cet appareil | |
JP2024102106A (ja) | ステレオ信号符号化方法および装置、ならびにステレオ信号復号方法および装置 | |
CN109427338B (zh) | 立体声信号的编码方法和编码装置 | |
CN101609681B (zh) | 编码方法、编码器、解码方法及解码器 | |
US11922958B2 (en) | Method and apparatus for determining weighting factor during stereo signal encoding | |
KR102353050B1 (ko) | 스테레오 신호 인코딩에서의 신호 재구성 방법 및 디바이스 | |
CN110660400B (zh) | 立体声信号的编码、解码方法、编码装置和解码装置 | |
US20200126575A1 (en) | Audio coding | |
US10950251B2 (en) | Coding of harmonic signals in transform-based audio codecs | |
CN113129913A (zh) | 音频信号的编解码方法和编解码装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |