CN108053830A - 解码方法、解码装置、程序和记录介质 - Google Patents
解码方法、解码装置、程序和记录介质 Download PDFInfo
- Publication number
- CN108053830A CN108053830A CN201810026834.8A CN201810026834A CN108053830A CN 108053830 A CN108053830 A CN 108053830A CN 201810026834 A CN201810026834 A CN 201810026834A CN 108053830 A CN108053830 A CN 108053830A
- Authority
- CN
- China
- Prior art keywords
- signal
- noise
- spectrum envelope
- sound
- decoded sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000001228 spectrum Methods 0.000 claims abstract description 48
- 230000005236 sound signal Effects 0.000 claims abstract description 42
- 238000012545 processing Methods 0.000 claims abstract description 25
- 230000002708 enhancing effect Effects 0.000 claims description 6
- 230000005764 inhibitory process Effects 0.000 claims 2
- 108010076504 Protein Sorting Signals Proteins 0.000 description 36
- 239000013598 vector Substances 0.000 description 32
- 230000009471 action Effects 0.000 description 27
- 238000012805 post-processing Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000000926 separation method Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 239000000203 mixture Substances 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 5
- 239000002131 composite material Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000010606 normalization Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
- G10L19/125—Pitch excitation, e.g. pitch synchronous innovation CELP [PSI-CELP]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Quality & Reliability (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
其目的在于,提供在基于以CELP类的方式为首的声音的生成模型的声音编码方式中,即使输入信号为噪声重叠声音也能够实现自然的再现音的解码方法。包含:声音解码步骤,从所输入的码得到解码声音信号;噪声生成步骤,生成作为随机的信号的噪声信号;以及噪声附加步骤,将噪声附加处理后信号设为输出信号,其中,所述噪声附加处理后信号是将对噪声信号进行基于与过去的帧的解码声音信号对应的功率和与当前的帧的解码声音信号对应的谱包络中的至少其中一个的信号处理而得到的信号、以及解码声音信号进行相加而得到的。
Description
本申请为以下专利申请的分案申请:申请日为2013年8月28日,申请号为201380044549.4,发明名称为“解码方法、解码装置、程序、及其记录介质”。
技术领域
本发明涉及对将例如声音或音乐等的音响、视频等的信号序列以较少的信息量进行了数字编码的码进行解码的解码方法、解码装置、程序、及其记录介质。
背景技术
当前,作为对声音高效地进行编码的方法,提出了以下方法:例如,将输入信号(特别是声音)中包含的5~200ms左右的一定间隔的各区间(帧)的输入信号序列作为处理对象,将其1帧的声音分离为表示频谱的包络特性的线性滤波器的特性、和用于驱动该滤波器的驱动音源信号这两个信息,分别对其进行编码。作为该方法中的对驱动音源信号进行编码的方法,已知分离为被认为对应于声音的基音(pitch)周期(基本频率)的周期分量和这以外的分量而进行编码的码驱动线性预测编码(码激励线性预测编码,Code-Excited_Linear_Prediction:CELP)(非专利文献1)。
参照图1、图2说明现有技术的编码装置1。图1是表示现有技术的编码装置1的结构的框图。图2是表示现有技术的编码装置1的动作的流程图。如图1所示,编码装置1具备线性预测分析部101、线性预测系数编码部102、合成滤波器部103、波形失真计算部104、码本检索控制部105、增益码本部106、驱动音源矢量生成部107、合成部108。以下,说明编码装置1的各构成部分的动作。
<线性预测分析部101>
线性预测分析部101中,被输入由时域的输入信号x(n)(n=0,…,L-1,L为1以上的整数)中包含的连续的多个样本构成的帧单位的输入信号序列xF(n)。线性预测分析部101取得输入信号序列xF(n),计算表示输入声音的频谱包络特性的线性预测系数a(i)(i为预测次数,i=1,…,P,P为1以上的整数)(S101)。线性预测分析部101也可以被置换为非线性的部件。
<线性预测系数编码部102>
线性预测系数编码部102取得线性预测系数a(i),对该线性预测系数a(i)进行量化以及编码,生成合成滤波器系数a^(i)和线性预测系数码,并进行输出(S102)。另外,a^(i)意味着a(i)的顶标帽(hat)。线性预测系数编码部102也可以置换为非线性的部件。
<合成滤波器部103>
合成滤波器部103取得合成滤波器系数a^(i)、和后述的驱动音源矢量生成部107生成的驱动音源矢量候选c(n)。合成滤波器部103对驱动音源矢量候选c(n)进行将合成滤波器系数a^(i)设为滤波器的系数的线性滤波器处理,生成输入信号候选xF^(n),并进行输出(S103)。另外,x^意味着x的顶标帽。合成滤波器部103也可以置换为非线性的部件。
<波形失真计算部104>
波形失真计算部104取得输入信号序列xF(n)、线性预测系数a(i)、输入信号候选xF^(n)。波形失真计算部104计算输入信号序列xF(n)和输入信号候选xF^(n)的失真d(S104)。失真计算大多会考虑线性预测系数a(i)(或者合成滤波器系数a^(i))而进行。
<码本检索控制部105>
码本检索控制部105取得失真d,选择驱动音源码即后述的增益码本部106以及驱动音源矢量生成部107中使用的增益码、周期码、以及固定(噪声)码,并进行输出(S105A)。在此,若失真d为最小或者为遵循最小的值(S105B“是”),则转移至步骤S108,后述的合成部108执行动作。另一方面,若失真d不是最小或者不是遵循最小的值(S105B“否”),则依次执行步骤S106、S107、S103、S104,返回至作为本构成部分的动作的步骤S105A。从而,只要进入步骤S105B“否”的分支,则重复执行步骤S106、S107、S103、S104、S105A,从而码本检索控制部105最终选择输入信号序列xF(n)和输入信号候选xF^(n)的失真d为最小或者遵循最小的驱动音源码,并进行输出(S105B“是”)。
<增益码本部106>
增益码本部106取得驱动音源码,通过驱动音源码中的增益码而输出量化增益(增益候选)ga、gr(S106)。
<驱动音源矢量生成部107>
驱动音源矢量生成部107取得驱动音源码和量化增益(增益候选)ga、gr,通过驱动音源码中包含的周期码以及固定码,生成1帧量的长度的驱动音源矢量候选c(n)(S107)。驱动音源矢量生成部107一般在多数情况下由未图示的自适应码本和固定码本构成。自适应码本基于周期码而将缓冲器中存储的刚过去的驱动音源矢量(刚被量化的1~几帧量的驱动音源矢量)以相当于某周期的长度切出,将该切出的矢量直至成为帧的长度为止进行重复,从而生成与声音的周期分量对应的时序矢量的候选,并进行输出。作为上述“某周期”,自适应码本选择波形失真计算部104中的失真d变小的周期。被选择的周期一般在多数情况下相当于声音的基音周期。固定码本基于固定码而生成与声音的非周期分量对应的1帧量的长度的时序码矢量的候选,并进行输出。这些候选是根据用于与输入声音独立地编码的比特数而存储了预先指定的数目的候选矢量之中的一个,或根据预先决定的生成规则配置脉冲而生成的矢量之一。另外,固定码本中还存在以下情况:原本与声音的非周期分量对应,但特别是在母音区间等基音周期性强的声音区间中,对上述预先准备的候选矢量添加具有基音周期或者与在自适应码本中使用的基音对应的周期的梳形滤波器,或与自适应码本中的处理相同地切出矢量并重复,从而设为固定码矢量。驱动音源矢量生成部107对从自适应码本以及固定码本输出的时序矢量的候选ca(n)以及cr(n)乘以从增益码本部23输出的增益候选ga、gr并进行相加,生成驱动音源矢量的候选c(n)。在实际的动作中还存在仅使用自适应码本或者仅使用固定码本的情况。
<合成部108>
合成部108取得线性预测系数码和驱动音源码,生成汇总了线性预测系数码和驱动音源码的码,并进行输出(S108)。码被传输至解码装置2。
接着,参照图3、图4说明现有技术的解码装置2。图3是表示对应于编码装置1的现有技术的解码装置2的结构的框图。图4是表示现有技术的解码装置2的动作的流程图。如图3所示,解码装置2具备分离部109、线性预测系数解码部110、合成滤波器部111、增益码本部112、驱动音源矢量生成部113、后处理部114。以下,说明解码装置2的各构成部分的动作。
<分离部109>
从编码装置1发送的码被输入至解码装置2。分离部109取得码,从该码分离而取出线性预测系数码和驱动音源码(S109)。
<线性预测系数解码部110>
线性预测系数解码部110取得线性预测系数码,通过与线性预测系数编码部102进行的编码方法对应的解码方法,从线性预测系数码解码合成滤波器系数a^(i)(S110)。
<合成滤波器部111>
合成滤波器部111进行与前述的合成滤波器部103相同的动作。从而,合成滤波器部111取得合成滤波器系数a^(i)和驱动音源矢量c(n)。合成滤波器部111对驱动音源矢量c(n)进行将合成滤波器系数a^(i)设为滤波器的系数的线性滤波器处理,生成xF^(n)(在解码装置中,设为称为合成信号序列xF^(n)),并进行输出(S111)。
<增益码本部112>
增益码本部112进行与前述的增益码本部106相同的动作。从而,增益码本部112取得驱动音源码,通过驱动音源码中的增益码而生成ga、gr(在解码装置中,设为称为解码增益ga、gr),并进行输出(S112)。
<驱动音源矢量生成部113>
驱动音源矢量生成部113进行与前述的驱动音源矢量生成部107相同的动作。从而,驱动音源矢量生成部113取得驱动音源码和解码增益ga、gr,通过驱动音源码中包含的周期码以及固定码,生成1帧量的长度的c(n)(在解码装置中,设为称为驱动音源矢量c(n)),并进行输出(S113)。
<后处理部114>
后处理部114取得合成信号序列xF^(n)。后处理部114对合成信号序列xF^(n)实施谱增强或基音增强的处理,生成在听觉上降低了量化噪声的输出信号序列zF(n),并进行输出(S114)。
现有技术文献
非专利文献
非专利文献1:M.R.Schroeder and B.S.Atal,“Code-Excited LinearPrediction(CELP):High Quality Speech at Very Low Bit Rates”,IEEE Proc.ICASSP-85、pp.937-940、1985.
发明内容
发明要解决的课题
这样的基于以CELP类编码方式为首的声音的生成模型的编码方式能够以较少的信息量实现高质量的编码,但若被输入在办公室或街头等具有背景噪声的环境下录音的声音(以下,称为“噪声重叠声音”。),则由于背景噪声与声音性质不同,因此产生不适用于模型而导致的量化失真,存在感知到不愉快的音的问题。因此,在本发明中,其目的在于,提供在基于以CELP类的方式为首的声音的生成模型的声音编码方式中,即使输入信号为噪声重叠声音也能够实现自然的再现音的解码方法。
用于解决课题的手段
本发明的解码方法包含声音解码步骤、噪声生成步骤、噪声附加步骤。在声音解码步骤中,从所输入的码得到解码声音信号。在噪声生成步骤中,生成作为随机的信号的噪声信号。在噪声附加步骤中,将噪声附加处理后信号设为输出信号,其中,所述噪声附加处理后信号是将对所述噪声信号进行基于与过去的帧的解码声音信号对应的功率(power)和与当前的帧的解码声音信号对应的谱包络中的至少其中一个的信号处理而得到的信号、以及所述解码声音信号进行相加而得到的。
发明效果
根据本发明的解码方法,在基于以CELP类的方式为首的声音的生成模型的声音编码方式中,即使输入信号为噪声重叠声音,也通过掩盖不适用于模型而导致的量化失真从而难以感知到不愉快的音,能够实现更自然的再现音。
附图说明
图1是表示现有技术的编码装置的结构的框图。
图2是表示现有技术的编码装置的动作的流程图。
图3是表示现有技术的解码装置的结构的框图。
图4是表示现有技术的解码装置的动作的流程图。
图5是表示实施例1的编码装置的结构的框图。
图6是表示实施例1的编码装置的动作的流程图。
图7是表示实施例1的编码装置的控制部的结构的框图。
图8是表示实施例1的编码装置的控制部的动作的流程图。
图9是表示实施例1及其变形例的解码装置的结构的框图。
图10是表示实施例1及其变形例的解码装置的动作的流程图。
图11是表示实施例1及其变形例的解码装置的噪声附加部的结构的框图。
图12是表示实施例1及其变形例的解码装置的噪声附加部的动作的流程图。
具体实施方式
以下,详细说明本发明的实施方式。另外,对具有相同的功能的构成部分赋予相同的序号,省略重复说明。
【实施例1】
参照图5至图8说明实施例1的编码装置3。图5是表示本实施例的编码装置3的结构的框图。图6是表示本实施例的编码装置3的动作的流程图。图7是表示本实施例的编码装置3的控制部215的结构的框图。图8是表示本实施例的编码装置3的控制部215的动作的流程图。
如图5所示,本实施例的编码装置3具备线性预测分析部101、线性预测系数编码部102、合成滤波器部103、波形失真计算部104、码本检索控制部105、增益码本部106、驱动音源矢量生成部107、合成部208、控制部215。与现有技术的编码装置1的差别仅在于,以往例中的合成部108在本实施例中成为合成部208的点、添加了控制部215的点。从而,由于具备与现有技术的编码装置1共同的序号的各构成部分的动作如前述那样,所以省略说明。以下,说明作为与现有技术的差别的控制部215、合成部208的动作。
<控制部215>
控制部215取得帧单位的输入信号序列xF(n),生成控制信息码(S215)。更详细地说,控制部215如图7所示,具备低通滤波器部2151、功率相加部2152、存储器2153、标志赋予部2154、声音区间检测部2155。低通滤波器部2151取得由连续的多个样本构成的帧单位的输入信号序列xF(n)(将1帧设为0~L-1的L点的信号序列),使用低通滤波器(低频带通过滤波器)对输入信号序列xF(n)进行滤波处理而生成低频带通过输入信号序列xLPF(n),并进行输出(SS2151)。在滤波处理中,也可以使用无限脉冲响应(IIR:Infinite_Impulse_Response)滤波器和有限脉冲响应(FIR:Finite_Impulse_Response)滤波器的任一个。此外,也可以是这以外的滤波处理方法。
接着,功率相加部2152取得低频带通过输入信号序列xLPF(n),将该xLPF(n)的功率的相加值作为低频带通过信号能量eLPF(0),例如通过下式进行计算(SS2152)。
【数1】
功率相加部2152将所计算出的低频带通过信号能量在过去的规定帧数M(例如M=5)的范围存储至存储器2153(SS2152)。例如,功率相加部2152将离当前的帧过去1帧至过去M帧的帧的低频带通过信号能量作为eLPF(1)~eLPF(M)而存储至存储器2153。
接着,标志赋予部2154检测当前帧是否为声音被发声的区间(以下,称为“声音区间”),对声音区间检测标志clas(0)代入值(SS2154)。例如,若为声音区间则设为clas(0)=1,若不是声音区间则设为clas(0)=0。在声音区间检测中,也可以是一般使用的VAD(语音激活检测,Voice_Activity_Detection)法,只要能够检测到声音区间则也可以是这以外的方法。此外,声音区间检测也可以检测母音区间。VAD法例如在ITU-T_G.729_Annex_B(参考非专利文献1)等中为了检测无声部分并进行信息压缩而使用。
标志赋予部2154将声音区间检测标志clas在过去的规定帧数N(例如N=5)的范围存储至存储器2153(SS2152)。例如,标志赋予部2154将离当前的帧过去1帧至过去N帧的帧的声音区间检测标志作为clas(1)~clas(N)而存储至存储器2153。
(参考非专利文献1)A Benyassine,E Shlomot,H-Y Su,D Massaloux,C Lamblin,J-P Petit,ITU-T recommendation G.729Annex B:a silence compression scheme foruse with G.729optimized for V.70digital simultaneous voice and dataapplications.IEEE Communications Magazine 35(9),64-73(1997).
接着,声音区间检测部2155使用低频带通过信号能量eLPF(0)~eLPF(M)以及声音区间检测标志clas(0)~clas(N)来进行声音区间检测(SS2155)。具体而言,声音区间检测部2155在低频带通过信号能量eLPF(0)~eLPF(M)的全部参数比规定的阈值大且声音区间检测标志clas(0)~clas(N)的全部参数为0(不是声音区间或者不是母音区间)时,生成表示当前帧的信号的类别为噪声重叠声音的值(控制信息)作为控制信息码,并输出至合成部208(SS2155)。在不符合上述条件的情况下,继承过去1帧的控制信息。也就是说,若过去1帧的输入信号序列为噪声重叠声音,则设为当前帧也为噪声重叠声音,若过去1帧不是噪声重叠声音,则设为当前帧也不是噪声重叠声音。控制信息的初始值也可以是表示噪声重叠声音的值,也可以不是。例如,控制信息通过输入信号序列是噪声重叠声音还是不是噪声重叠声音的2值(1比特)而输出。
<合成部208>
合成部208的动作除了在输入中添加了控制信息码以外与合成部108相同。从而,合成部208取得控制信息码、线性预测码、驱动音源码,对它们进行汇总而生成码(S208)。
接着,参照图9至图12说明实施例1的解码装置4。图9是表示本实施例及其变形例的解码装置4(4’)的结构的框图。图10是表示本实施例及其变形例的解码装置4(4’)的动作的流程图。图11是表示本实施例及其变形例的解码装置4的噪声附加部216的结构的框图。图12是表示本实施例及其变形例的解码装置4的噪声附加部216的动作的流程图。
如图9所示,本实施例的解码装置4具备分离部209、线性预测系数解码部110、合成滤波器部111、增益码本部112、驱动音源矢量生成部113、后处理部214、噪声附加部216、噪声增益计算部217。与现有技术的解码装置2的差别仅在于,以往例中的分离部109在本实施例中成为分离部209的点、以往例中的后处理部114在本实施例中成为后处理部214的点,添加了噪声附加部216、噪声增益计算部217的点。从而,由于关于具备与现有技术的解码装置2共同的序号的各构成部分的动作如前述那样,所以省略说明。以下,说明作为与现有技术的差别的分离部209、噪声增益计算部217、噪声附加部216、后处理部214的动作。
<分离部209>
分离部209的动作除了在输出中添加了控制信息码以外,与分离部109相同。从而,分离部209从编码装置3取得码,从该码分离而取出控制信息码、线性预测系数码、驱动音源码(S209)。以下,执行步骤S112、S113、S110、S111。
<噪声增益计算部217>
接着,噪声增益计算部217取得合成信号序列xF^(n),若当前的帧为噪声区间等的不是声音区间的区间,则例如使用下式来计算噪声增益gn(S217)。
【数2】
也可以通过使用了在过去帧中求得的噪声增益的指数平均,以下式来更新噪声增益gn。
【数3】
噪声增益gn的初始值也可以是0等规定的值,也可以是根据某帧的合成信号序列xF^(n)求得的值。ε是满足0<ε≤1的遗忘系数,决定指数函数的衰减的时间常数。例如设为ε=0.6来更新噪声增益gn。噪声增益gn的计算式也可以是式(4)或式(5)。
【数4】
在当前的帧是否为噪声区间等的不是声音区间的区间的检测中,也可以是参考非专利文献1等一般使用的VAD(语音激活检测,Voice_Activity_Detection)法,只要能够检测到不是声音区间的区间则也可以是这以外的方法。
<噪声附加部216>
噪声附加部216取得合成滤波器系数a^(i)、控制信息码、合成信号序列xF^(n)、噪声增益gn,生成噪声附加处理后信号序列xF^’(n),并进行输出(S216)。
更详细地说,如图11所示,噪声附加部216具备噪声重叠声音判定部2161、合成高通滤波器部2162、噪声附加处理后信号生成部2163。噪声重叠声音判定部2161根据控制信息码而对控制信息进行解码,判定当前的帧的类别是否是噪声重叠声音,在当前的帧是噪声重叠声音的情况下(S2161B“是”),生成振幅的值取-1至1之间的值的随机产生的白噪声的L点的信号序列作为归一化白噪声信号序列ρ(n)(SS2161C)。接着,合成高通滤波器部2162取得归一化白噪声信号序列ρ(n),使用组合了高通滤波器(高频带通过滤波器)和为了靠近噪声的大概形状而使合成滤波器平滑的滤波器的滤波器,对归一化白噪声信号序列ρ(n)进行滤波处理,生成高频带通过归一化噪声信号序列ρHPF(n),并进行输出(SS2162)。在滤波处理中,也可以使用无限脉冲响应(IIR:Infinite_Impulse_Response)滤波器和有限脉冲响应(FIR:Finite_Impulse_Response)滤波器的任一个。此外也可以是这以外的滤波处理方法。例如,也可以将组合了高通滤波器(高频带通过滤波器)和使合成滤波器平滑的滤波器的滤波器设为H(z),如下式那样。
【数5】
在此,HHPF(z)表示高通滤波器,A^(Z/γn)表示使合成滤波器平滑的滤波器。q表示线性预测次数,例如设为16。γn是为了靠近噪声的大概形状而使合成滤波器平滑的参数,例如设为0.8。
使用高通滤波器的理由如下。在基于以CELP类编码方式为首的声音的生成模型的编码方式中,由于对能量大的频带分配较多的比特,所以在声音的特性上,越是高频带则音质越容易恶化。因此,通过使用高通滤波器,能够对音质恶化的高频带较多地附加噪声,对音质的恶化小的低频带不附加噪声。由此,能够生成听感上恶化少的更自然的音。
噪声附加处理后信号生成部2163取得合成信号序列xF^(n)、高频带通过归一化噪声信号序列ρHPF(n)、前述的噪声增益gn,例如通过下式来计算噪声附加处理后信号序列xF^’(n)(SS2163)。
【数6】
在此,Cn设为0.04等用于调整附加的噪声的大小的规定的常数。
另一方面,在子步骤SS2161B中,在噪声重叠声音判定部2161判断为当前的帧不是噪声重叠声音的情况下(SS2161B“否”),不执行子步骤SS2161C、SS2162、SS2163。此时,噪声重叠声音判定部2161取得合成信号序列xF^(n),将该xF^(n)直接作为噪声附加处理后信号序列xF^’(n)而输出(SS2161D)。从噪声重叠声音判定部2161输出的噪声附加处理后信号序列xF^(n)直接成为噪声附加部216的输出。
<后处理部214>
后处理部214除了输入从合成信号序列被置换为噪声附加处理后信号序列以外,与后处理部114相同。从而,后处理部214取得噪声附加处理后信号序列xF^’(n),对噪声附加处理后信号序列xF^’(n)实施谱增强或基音增强的处理,生成在听觉上降低了量化噪声的输出信号序列zF(n),并进行输出(S214)。
[变形例1]
以下,参照图9、图10说明实施例1的变形例所涉及的解码装置4’。如图9所示,本变形例的解码装置4’具备分离部209、线性预测系数解码部110、合成滤波器部111、增益码本部112、驱动音源矢量生成部113、后处理部214、噪声附加部216、噪声增益计算部217’。与实施例1的解码装置4的差别仅在于,实施例1中的噪声增益计算部217在本变形例中成为噪声增益计算部217’的点。
<噪声增益计算部217’>
噪声增益计算部217’取得噪声附加处理后信号序列xF^’(n)来代替合成信号序列xF^(n),若当前的帧为噪声区间等的不是声音区间的区间,则例如使用下式来计算噪声增益gn(S217’)。
【数7】
前述同样,也可以将噪声增益gn以式(3’)来计算。
【数8】
前述同样,噪声增益gn的计算式也可以是式(4’)或式(5’)。
【数9】
像这样,根据本实施例以及变形例的编码装置3、解码装置4(4’),在基于以CELP类的方式为首的声音的生成模型的声音编码方式中,即使输入信号为噪声重叠声音,也能够通过掩盖不适用于模型而导致的量化失真从而难以感知到不愉快的音,能够实现更自然的再现音。
在前述的实施例1及其变形例中,记载了编码装置、解码装置的具体的计算、输出方法,但本发明的编码装置(编码方法)、解码装置(解码方法)不限定于前述的实施例1及其变形例所例示的具体的方法。以下,将本发明的解码装置的动作以其他的表现来记载。能够将直至生成本发明中的解码声音信号(在实施例1中例示为合成信号序列xF^(n))为止的过程(在实施例1中例示为步骤S209、S112、S113、S110、S111)理解为一个声音解码步骤。此外,设为将生成噪声信号的步骤(在实施例1中例示为子步骤SS2161C)称为噪声生成步骤。进而,设为将生成噪声附加处理后信号的步骤(在实施例1中例示为子步骤SS2163)称为噪声附加步骤。
此时,能够看出包含声音解码步骤、噪声生成步骤、噪声附加步骤的更一般化的解码方法。在声音解码步骤中,根据所输入的码得到解码声音信号(例示为xF^(n))。在噪声生成步骤中,生成作为随机的信号的噪声信号(在实施例1中,例示为归一化白噪声信号序列ρ(n))。在噪声附加步骤中,将噪声附加处理后信号(在实施例1中例示为xF^’(n))设为输出信号,其中,所述噪声附加处理后信号是将对噪声信号(例示为ρ(n))进行基于与过去的帧的解码声音信号对应的功率(在实施例1中例示为噪声增益gn)和与当前的帧的解码声音信号对应的谱包络(在实施例1中例示为滤波器A^(z)或A^(z/γn)或者包含它们的滤波器)中的至少其中一个的信号处理而得到的信号、以及解码声音信号(例示为xF^(n))进行相加而得到的。
作为本发明的解码方法的变形,进而也可以是,与前述的当前的帧的解码声音信号对应的谱包络是,使与在声音解码步骤中得到的当前的帧的谱包络参数(在实施例1中例示为a^(i))对应的谱包络平滑的谱包络(在实施例1中例示为A^(z/γn))。
进而也可以是,与前述的当前的帧的解码声音信号对应的谱包络是,基于在声音解码步骤中得到的当前的帧的谱包络参数(例示为a^(i))的谱包络(在实施例1中例示为A^(z))。
进而,也可以是,前述的噪声附加步骤中,将噪声附加处理后信号设为输出信号,其中,所述噪声附加处理后信号是将对噪声信号(例示为ρ(n))给予与当前的帧的解码声音信号对应的谱包络(例示滤波器A^(z)或A^(z/γn)等)并乘以与过去的帧的解码声音信号对应的功率(例示为gn)的信号、以及解码声音信号相加而得到的。
进而,也可以是,前述的噪声附加步骤中,将噪声附加处理后信号设为输出信号,其中,所述噪声附加处理后信号是将对噪声信号给予与当前的帧的解码声音信号对应的谱包络并抑制了低频带或者增强了高频带(在实施例1中例示为式(6)等)的信号、以及解码声音信号进行相加而得到的。
进而,也可以是,前述的噪声附加步骤中,将噪声附加处理后信号设为输出信号,其中,所述噪声附加处理后信号是对噪声信号给予与当前的帧的解码声音信号对应的谱包络并乘以与过去的帧的解码声音信号对应的功率并抑制了低频带或者增强了高频带(例示为式(6)、(8)等)的信号、以及解码声音信号进行相加而得到的。
进而,也可以是,前述的噪声附加步骤中,将噪声附加处理后信号设为输出信号,其中,所述噪声附加处理后信号是将对噪声信号给予与当前的帧的解码声音信号对应的谱包络的信号、以及解码声音信号进行相加而得到的。
进而,也可以是,前述的噪声附加步骤中,将噪声附加处理后信号设为输出信号,其中,所述噪声附加处理后信号是将对与过去的帧的解码声音信号对应的功率和所述噪声信号进行相乘的信号、以及解码声音信号进行相加而得到的。
此外,上述的各种处理不仅按照记载而时序地执行,也可以根据执行处理的装置的处理能力或根据需要而并行或单独地执行。此外,在不脱离本发明的意旨的范围内能够适当变更是不言而喻的。
此外,在通过计算机而实现上述的结构的情况下,各装置应该具有的功能的处理内容通过程序而记述。并且,通过在计算机中执行该程序,在计算机上实现上述处理功能。
记载了该处理内容的程序能够记录在计算机能够读取的记录介质中。作为计算机能够读取的记录介质,例如也可以是磁记录装置、光盘、光磁记录介质、半导体存储器等任意记录介质。
此外,该程序的流通例如通过对记录了该程序的DVD、CD-ROM等可移动记录介质进行销售、转让、借出等来进行。进而,也可以是以下结构:将该程序存储至服务器计算机的存储装置,经由网络从服务器计算机向其他计算机转发该程序,从而使该程序流通。
执行这样的程序的计算机例如首先将可移动记录介质中记录的程序或从服务器计算机转发的程序暂时存储至自己的存储装置。并且,在执行处理时,该计算机读取在自己的记录介质中存储的程序,执行按照所读取到的程序的处理。此外,作为该程序的其他的执行方式,也可以是计算机从可移动记录介质直接读取程序,执行按照该程序的处理,进而也可以是在每次从服务器计算机向该计算机转发程序时,依次执行按照所接受到的程序的处理。此外,也可以是以下结构:不进行从服务器计算机对该计算机的程序的转发,仅通过其执行指示和结果取得来实现处理功能,通过所谓ASP(应用服务提供商,ApplicationService Provider)型的服务,执行上述的处理。
另外,设为在本方式中的程序中包含供于基于电子计算机的处理用的信息且遵循程序的信息(不是对于计算机的直接的指令但具有规定计算机的处理的性质的数据等)。此外,在该方式中,设为通过在计算机上执行规定的程序而构成本装置,但也可以设为将这些处理内容的至少一部分以硬件的方式实现。
Claims (8)
1.一种解码方法,其特征在于,包含:
声音解码步骤,从所输入的码得到解码声音信号;
噪声生成步骤,生成作为随机的信号的噪声信号;以及
噪声附加步骤,将噪声附加处理后信号设为输出信号,其中,所述噪声附加处理后信号是将对所述噪声信号进行基于谱包络的信号处理和与所述解码声音信号对应的功率的相乘而得到的信号、与所述解码声音信号进行相加后的信号,所述谱包络是作为与当前的帧的解码声音信号对应的谱包络的、使与在所述声音解码步骤中得到的当前的帧的谱包络参数对应的谱包络平滑后的谱包络。
2.一种解码方法,其特征在于,包含:
声音解码步骤,从所输入的码得到解码声音信号;
噪声生成步骤,生成作为随机的信号的噪声信号;以及
噪声附加步骤,将噪声附加处理后信号设为输出信号,其中,所述噪声附加处理后信号是将对所述噪声信号进行基于谱包络的信号处理、与所述解码声音信号对应的功率的相乘、以及低频带的抑制或者高频带的增强而得到的信号、与所述解码声音信号进行相加后的信号,所述谱包络是作为与当前的帧的解码声音信号对应的谱包络的、使与在所述声音解码步骤中得到的当前的帧的谱包络参数对应的谱包络平滑后的谱包络。
3.如权利要求1或2所述的解码方法,其特征在于,
与所述当前的帧的解码声音信号对应的谱包络是,
通过对所述当前的帧的线性预测系数赋予预定的常数的运算,使与在所述声音解码步骤中得到的当前的帧的线性预测系数对应的谱包络平滑的谱包络。
4.一种解码装置,其特征在于,包含:
声音解码单元,从所输入的码得到解码声音信号;
噪声生成单元,生成作为随机的信号的噪声信号;以及
噪声附加单元,将噪声附加处理后信号设为输出信号,其中,所述噪声附加处理后信号是将对所述噪声信号进行基于谱包络的信号处理和与所述解码声音信号对应的功率的相乘而得到的信号、与所述解码声音信号进行相加后的信号,所述谱包络是作为与当前的帧的解码声音信号对应的谱包络的、使与在所述声音解码单元中得到的当前的帧的谱包络参数对应的谱包络平滑后的谱包络。
5.一种解码装置,其特征在于,包含:
声音解码单元,从所输入的码得到解码声音信号;
噪声生成单元,生成作为随机的信号的噪声信号;以及
噪声附加单元,将噪声附加处理后信号设为输出信号,其中,所述噪声附加处理后信号是将对所述噪声信号进行基于谱包络的信号处理、与所述解码声音信号对应的功率的相乘、以及低频带的抑制或者高频带的增强而得到的信号、与所述解码声音信号进行相加后的信号,所述谱包络是作为与当前的帧的解码声音信号对应的谱包络的、使与在所述声音解码单元中得到的当前的帧的谱包络参数对应的谱包络平滑后的谱包络。
6.如权利要求4或5所述的解码装置,其特征在于,
与所述当前的帧的解码声音信号对应的谱包络是,
通过对所述当前的帧的线性预测系数赋予预定的常数的运算,使与在所述声音解码单元中得到的当前的帧的线性预测系数对应的谱包络平滑的谱包络。
7.一种程序,用于使计算机执行权利要求1或2中记载的解码方法的各步骤。
8.一种计算机可读取的记录介质,记录了用于使计算机执行权利要求1或2中记载的解码方法的各步骤的程序。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012-188462 | 2012-08-29 | ||
JP2012188462 | 2012-08-29 | ||
CN201380044549.4A CN104584123B (zh) | 2012-08-29 | 2013-08-28 | 解码方法、以及解码装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380044549.4A Division CN104584123B (zh) | 2012-08-29 | 2013-08-28 | 解码方法、以及解码装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108053830A true CN108053830A (zh) | 2018-05-18 |
CN108053830B CN108053830B (zh) | 2021-12-07 |
Family
ID=50183505
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810026834.8A Active CN108053830B (zh) | 2012-08-29 | 2013-08-28 | 解码方法、解码装置、和计算机可读取的记录介质 |
CN201810027226.9A Active CN107945813B (zh) | 2012-08-29 | 2013-08-28 | 解码方法、解码装置、和计算机可读取的记录介质 |
CN201380044549.4A Active CN104584123B (zh) | 2012-08-29 | 2013-08-28 | 解码方法、以及解码装置 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810027226.9A Active CN107945813B (zh) | 2012-08-29 | 2013-08-28 | 解码方法、解码装置、和计算机可读取的记录介质 |
CN201380044549.4A Active CN104584123B (zh) | 2012-08-29 | 2013-08-28 | 解码方法、以及解码装置 |
Country Status (8)
Country | Link |
---|---|
US (1) | US9640190B2 (zh) |
EP (1) | EP2869299B1 (zh) |
JP (1) | JPWO2014034697A1 (zh) |
KR (1) | KR101629661B1 (zh) |
CN (3) | CN108053830B (zh) |
ES (1) | ES2881672T3 (zh) |
PL (1) | PL2869299T3 (zh) |
WO (1) | WO2014034697A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9418671B2 (en) * | 2013-08-15 | 2016-08-16 | Huawei Technologies Co., Ltd. | Adaptive high-pass post-filter |
WO2019107041A1 (ja) * | 2017-12-01 | 2019-06-06 | 日本電信電話株式会社 | ピッチ強調装置、その方法、およびプログラム |
CN109286470B (zh) * | 2018-09-28 | 2020-07-10 | 华中科技大学 | 一种主动非线性变换信道加扰传输方法 |
JP7218601B2 (ja) * | 2019-02-12 | 2023-02-07 | 日本電信電話株式会社 | 学習データ取得装置、モデル学習装置、それらの方法、およびプログラム |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0409239B1 (en) * | 1989-07-20 | 1995-11-08 | Nec Corporation | Speech coding/decoding method |
CN1132988A (zh) * | 1994-01-28 | 1996-10-09 | 美国电报电话公司 | 声音激活性检测激励噪声补偿器 |
EP0751490A2 (en) * | 1995-06-30 | 1997-01-02 | Nec Corporation | Speech decoding apparatus |
JPH0954600A (ja) * | 1995-08-14 | 1997-02-25 | Toshiba Corp | 音声符号化通信装置 |
JP3490324B2 (ja) * | 1999-02-15 | 2004-01-26 | 日本電信電話株式会社 | 音響信号符号化装置、復号化装置、これらの方法、及びプログラム記録媒体 |
CN1484823A (zh) * | 2000-11-30 | 2004-03-24 | 松下电器产业株式会社 | 音频解码器和音频解码方法 |
CN1488135A (zh) * | 2000-11-30 | 2004-04-07 | ���µ�����ҵ��ʽ���� | 线性预测编码参数的矢量量化装置 |
US20050256705A1 (en) * | 2004-03-30 | 2005-11-17 | Yamaha Corporation | Noise spectrum estimation method and apparatus |
US20080221906A1 (en) * | 2007-03-09 | 2008-09-11 | Mattias Nilsson | Speech coding system and method |
CN101304261A (zh) * | 2007-05-12 | 2008-11-12 | 华为技术有限公司 | 一种频带扩展的方法及装置 |
CN101308658A (zh) * | 2007-05-14 | 2008-11-19 | 深圳艾科创新微电子有限公司 | 一种基于片上系统的音频解码器及其解码方法 |
CN101339766A (zh) * | 2008-03-20 | 2009-01-07 | 华为技术有限公司 | 一种语音信号处理方法及装置 |
CN101356571A (zh) * | 2005-10-12 | 2009-01-28 | 弗劳恩霍夫应用研究促进协会 | 多声道音频信号的时间与空间成形 |
CN102144259A (zh) * | 2008-07-11 | 2011-08-03 | 弗劳恩霍夫应用研究促进协会 | 用于产生带宽扩展输出数据的装置和方法 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01261700A (ja) * | 1988-04-13 | 1989-10-18 | Hitachi Ltd | 音声符号化方式 |
US5327520A (en) * | 1992-06-04 | 1994-07-05 | At&T Bell Laboratories | Method of use of voice message coder/decoder |
JP3568255B2 (ja) * | 1994-10-28 | 2004-09-22 | 富士通株式会社 | 音声符号化装置及びその方法 |
JP4826580B2 (ja) * | 1995-10-26 | 2011-11-30 | ソニー株式会社 | 音声信号の再生方法及び装置 |
JP4132109B2 (ja) * | 1995-10-26 | 2008-08-13 | ソニー株式会社 | 音声信号の再生方法及び装置、並びに音声復号化方法及び装置、並びに音声合成方法及び装置 |
JP3707116B2 (ja) * | 1995-10-26 | 2005-10-19 | ソニー株式会社 | 音声復号化方法及び装置 |
GB2322778B (en) * | 1997-03-01 | 2001-10-10 | Motorola Ltd | Noise output for a decoded speech signal |
FR2761512A1 (fr) * | 1997-03-25 | 1998-10-02 | Philips Electronics Nv | Dispositif de generation de bruit de confort et codeur de parole incluant un tel dispositif |
US6301556B1 (en) * | 1998-03-04 | 2001-10-09 | Telefonaktiebolaget L M. Ericsson (Publ) | Reducing sparseness in coded speech signals |
US6122611A (en) * | 1998-05-11 | 2000-09-19 | Conexant Systems, Inc. | Adding noise during LPC coded voice activity periods to improve the quality of coded speech coexisting with background noise |
EP1143229A1 (en) * | 1998-12-07 | 2001-10-10 | Mitsubishi Denki Kabushiki Kaisha | Sound decoding device and sound decoding method |
JP3478209B2 (ja) * | 1999-11-01 | 2003-12-15 | 日本電気株式会社 | 音声信号復号方法及び装置と音声信号符号化復号方法及び装置と記録媒体 |
AU2547201A (en) * | 2000-01-11 | 2001-07-24 | Matsushita Electric Industrial Co., Ltd. | Multi-mode voice encoding device and decoding device |
JP2001242896A (ja) * | 2000-02-29 | 2001-09-07 | Matsushita Electric Ind Co Ltd | 音声符号化/復号装置およびその方法 |
US6529867B2 (en) * | 2000-09-15 | 2003-03-04 | Conexant Systems, Inc. | Injecting high frequency noise into pulse excitation for low bit rate CELP |
US6691085B1 (en) | 2000-10-18 | 2004-02-10 | Nokia Mobile Phones Ltd. | Method and system for estimating artificial high band signal in speech codec using voice activity information |
US20030187663A1 (en) * | 2002-03-28 | 2003-10-02 | Truman Michael Mead | Broadband frequency translation for high frequency regeneration |
JP4657570B2 (ja) * | 2002-11-13 | 2011-03-23 | ソニー株式会社 | 音楽情報符号化装置及び方法、音楽情報復号装置及び方法、並びにプログラム及び記録媒体 |
JP4365610B2 (ja) | 2003-03-31 | 2009-11-18 | パナソニック株式会社 | 音声復号化装置および音声復号化方法 |
WO2005041170A1 (en) * | 2003-10-24 | 2005-05-06 | Nokia Corpration | Noise-dependent postfiltering |
US7610197B2 (en) * | 2005-08-31 | 2009-10-27 | Motorola, Inc. | Method and apparatus for comfort noise generation in speech communication systems |
JP5189760B2 (ja) * | 2006-12-15 | 2013-04-24 | シャープ株式会社 | 信号処理方法、信号処理装置及びプログラム |
JP5164970B2 (ja) | 2007-03-02 | 2013-03-21 | パナソニック株式会社 | 音声復号装置および音声復号方法 |
KR100998396B1 (ko) * | 2008-03-20 | 2010-12-03 | 광주과학기술원 | 프레임 손실 은닉 방법, 프레임 손실 은닉 장치 및 음성송수신 장치 |
CN101582263B (zh) * | 2008-05-12 | 2012-02-01 | 华为技术有限公司 | 语音解码中噪音增强后处理的方法和装置 |
WO2010053287A2 (en) * | 2008-11-04 | 2010-05-14 | Lg Electronics Inc. | An apparatus for processing an audio signal and method thereof |
US8718804B2 (en) * | 2009-05-05 | 2014-05-06 | Huawei Technologies Co., Ltd. | System and method for correcting for lost data in a digital audio signal |
SG192745A1 (en) * | 2011-02-14 | 2013-09-30 | Fraunhofer Ges Forschung | Noise generation in audio codecs |
-
2013
- 2013-08-28 CN CN201810026834.8A patent/CN108053830B/zh active Active
- 2013-08-28 US US14/418,328 patent/US9640190B2/en active Active
- 2013-08-28 EP EP13832346.4A patent/EP2869299B1/en active Active
- 2013-08-28 WO PCT/JP2013/072947 patent/WO2014034697A1/ja active Application Filing
- 2013-08-28 PL PL13832346T patent/PL2869299T3/pl unknown
- 2013-08-28 KR KR1020157003110A patent/KR101629661B1/ko active IP Right Grant
- 2013-08-28 JP JP2014533035A patent/JPWO2014034697A1/ja active Pending
- 2013-08-28 ES ES13832346T patent/ES2881672T3/es active Active
- 2013-08-28 CN CN201810027226.9A patent/CN107945813B/zh active Active
- 2013-08-28 CN CN201380044549.4A patent/CN104584123B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0409239B1 (en) * | 1989-07-20 | 1995-11-08 | Nec Corporation | Speech coding/decoding method |
CN1132988A (zh) * | 1994-01-28 | 1996-10-09 | 美国电报电话公司 | 声音激活性检测激励噪声补偿器 |
EP0751490A2 (en) * | 1995-06-30 | 1997-01-02 | Nec Corporation | Speech decoding apparatus |
JPH0954600A (ja) * | 1995-08-14 | 1997-02-25 | Toshiba Corp | 音声符号化通信装置 |
JP3490324B2 (ja) * | 1999-02-15 | 2004-01-26 | 日本電信電話株式会社 | 音響信号符号化装置、復号化装置、これらの方法、及びプログラム記録媒体 |
CN1488135A (zh) * | 2000-11-30 | 2004-04-07 | ���µ�����ҵ��ʽ���� | 线性预测编码参数的矢量量化装置 |
CN1484823A (zh) * | 2000-11-30 | 2004-03-24 | 松下电器产业株式会社 | 音频解码器和音频解码方法 |
US20050256705A1 (en) * | 2004-03-30 | 2005-11-17 | Yamaha Corporation | Noise spectrum estimation method and apparatus |
CN101356571A (zh) * | 2005-10-12 | 2009-01-28 | 弗劳恩霍夫应用研究促进协会 | 多声道音频信号的时间与空间成形 |
US20080221906A1 (en) * | 2007-03-09 | 2008-09-11 | Mattias Nilsson | Speech coding system and method |
CN101304261A (zh) * | 2007-05-12 | 2008-11-12 | 华为技术有限公司 | 一种频带扩展的方法及装置 |
CN101308658A (zh) * | 2007-05-14 | 2008-11-19 | 深圳艾科创新微电子有限公司 | 一种基于片上系统的音频解码器及其解码方法 |
CN101339766A (zh) * | 2008-03-20 | 2009-01-07 | 华为技术有限公司 | 一种语音信号处理方法及装置 |
CN102144259A (zh) * | 2008-07-11 | 2011-08-03 | 弗劳恩霍夫应用研究促进协会 | 用于产生带宽扩展输出数据的装置和方法 |
Non-Patent Citations (2)
Title |
---|
M. SCHROEDER ET.AL: "Code-excited linear prediction(CELP): High-quality speech at very low bit rates", 《 ICASSP "85. IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH, AND SIGNAL PROCESSING》 * |
穆捷 等: "Speex语音编码算法实现与优化", 《通信技术》 * |
Also Published As
Publication number | Publication date |
---|---|
EP2869299B1 (en) | 2021-07-21 |
CN107945813B (zh) | 2021-10-26 |
US9640190B2 (en) | 2017-05-02 |
CN104584123A (zh) | 2015-04-29 |
CN104584123B (zh) | 2018-02-13 |
CN107945813A (zh) | 2018-04-20 |
PL2869299T3 (pl) | 2021-12-13 |
US20150194163A1 (en) | 2015-07-09 |
ES2881672T3 (es) | 2021-11-30 |
WO2014034697A1 (ja) | 2014-03-06 |
CN108053830B (zh) | 2021-12-07 |
EP2869299A1 (en) | 2015-05-06 |
EP2869299A4 (en) | 2016-06-01 |
JPWO2014034697A1 (ja) | 2016-08-08 |
KR20150032736A (ko) | 2015-03-27 |
KR101629661B1 (ko) | 2016-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2462770C2 (ru) | Устройство кодирования и способ кодирования | |
KR101350285B1 (ko) | 신호를 부호화 및 복호화하는 방법, 장치 및 시스템 | |
WO2001020595A1 (en) | Voice encoder/decoder | |
CN104584123B (zh) | 解码方法、以及解码装置 | |
JPH09152896A (ja) | 声道予測係数符号化・復号化回路、声道予測係数符号化回路、声道予測係数復号化回路、音声符号化装置及び音声復号化装置 | |
JP3266178B2 (ja) | 音声符号化装置 | |
JP3582589B2 (ja) | 音声符号化装置及び音声復号化装置 | |
JP3335841B2 (ja) | 信号符号化装置 | |
JP3558031B2 (ja) | 音声復号化装置 | |
JP3147807B2 (ja) | 信号符号化装置 | |
EP0871158A2 (en) | System for speech coding using a multipulse excitation | |
JP3185748B2 (ja) | 信号符号化装置 | |
JPH05273998A (ja) | 音声符号化装置 | |
CN1159044A (zh) | 声音编码装置 | |
JP3462958B2 (ja) | 音声符号化装置および記録媒体 | |
JP6001451B2 (ja) | 符号化装置及び符号化方法 | |
JP3192051B2 (ja) | 音声符号化装置 | |
JP3024467B2 (ja) | 音声符号化装置 | |
JPH0844398A (ja) | 音声符号化装置 | |
JP4438654B2 (ja) | 符号化装置、復号装置、符号化方法及び復号方法 | |
JP3006790B2 (ja) | 音声符号化復号化方法及びその装置 | |
JP6220610B2 (ja) | 信号処理装置、信号処理方法、プログラム、記録媒体 | |
JP3984021B2 (ja) | 音声/音響信号の符号化方法及び電子装置 | |
JP2003195899A (ja) | 音声/音響信号の符号化方法及び電子装置 | |
JPH0317700A (ja) | 音声符号化復号化方式 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |