CN101583995B - 参数解码装置、参数编码装置以及参数解码方法 - Google Patents

参数解码装置、参数编码装置以及参数解码方法 Download PDF

Info

Publication number
CN101583995B
CN101583995B CN2007800491285A CN200780049128A CN101583995B CN 101583995 B CN101583995 B CN 101583995B CN 2007800491285 A CN2007800491285 A CN 2007800491285A CN 200780049128 A CN200780049128 A CN 200780049128A CN 101583995 B CN101583995 B CN 101583995B
Authority
CN
China
Prior art keywords
frame
decoding
prediction residual
code
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2007800491285A
Other languages
English (en)
Other versions
CN101583995A (zh
Inventor
江原宏幸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
III Holdings 12 LLC
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN101583995A publication Critical patent/CN101583995A/zh
Application granted granted Critical
Publication of CN101583995B publication Critical patent/CN101583995B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders

Abstract

公开了进行参数的补偿处理以在预测量化中抑制主观质量的劣化的参数解码装置。在该参数解码装置中,放大器(305-1~305-M)将输入的量化预测残差矢量xn-1~xn-M与加权系数β1~βM进行乘法运算。放大器(306)将前一帧的解码LSF矢量yn-1与加权系数β-1进行乘法运算。放大器(307)将从码本(301)输出的代码矢量xn+1与加权系数β0进行乘法运算。加法器(308)计算从放大器(305-1~305-M)、放大器(306)、以及放大器(307)输出的矢量的总和。在当前帧的帧丢失代码Bn表示“第n帧为丢失帧”,并且下一帧的帧丢失代码Bn+1表示“第n+1帧为正常帧”的情况下,切换开关(309)选择从加法器(308)输出的矢量。

Description

参数解码装置、参数编码装置以及参数解码方法
技术领域
本发明涉及使用预测器对参数进行编码的参数编码装置、对所编码的参数进行解码的参数解码装置以及参数解码方法。 
背景技术
在ITU-T(国际电信联盟标准化部门)建议G.729和3GPP AMR(第三代合作伙伴计划自适应多速率)等的语音编解码器中,将通过分析语音信号得到的参数的一部分,按基于移动平均(Moving Average(MA))预测模型的预测量化方法进行量化(专利文献1、非专利文献1、以及非专利文献2)。MA型预测量化器为通过先前的量化预测残差的线性和来预测当前的量化对象参数的模型,在码激励线性预测(Code Excited Linear Prediction(CELP))型的语音编解码器中,用于线谱频率(Line Spectral Frequency(LSF))参数、以及能量参数的预测。 
对于MA型预测量化器而言,因为通过先前有限帧数的量化预测残差的加权线性和进行预测,所以即使在量化信息中存在传输路径差错,其影响的波及范围限定于有限的帧数。另一方面,在递归地使用先前的解码参数的自回归(Auto Regressive(AR))型预测量化器中,一般而言,虽然能够得到较高的预测增益和量化性能,但是差错的影响波及较长时间。因此,MA型预测的参数量化器与AR型预测的参数量化器相比,能够实现较高的容错能力,特别用于移动通信用的语音编解码器等。 
从以前就开始研究有关在解码端帧丢失的情况下的参数补偿方法。一般而言,利用当前帧的以前的帧的参数代替丢失的帧的参数来进行补偿。但是,有时通过在LSF参数的情况下逐渐地接近平均的LSF、或者在能量参数的情况下逐渐地衰减能量参数等方法,逐步修正丢失帧前的参数而加以利用。 
在利用了MA型预测器的量化器中,通常也使用该方法,在LSF参数的情况下进行以下处理,即生成使在补偿帧中生成的参数解码的量化预测残差而更新MA型预测器的状态(非专利文献1);而在能量参数的情况下使用以 一定的比率衰减先前的量化预测残差的平均值而得到的值,进行将MA型预测器的状态更新的处理(专利文献2、非专利文献1)。 
另外,还有在得到了丢失帧后的回归帧(正常帧)的信息以后,内插丢失帧的参数的方法。例如,在专利文献3中,提出了进行音调(pitch)增益的内插而重新生成自适应码本的内容的方法。 
【专利文献1】日本专利申请特开平6-175695号公报 
【专利文献2】日本专利申请特开平9-120297号公报 
【专利文献3】日本专利申请特开2002-328700号公报 
【非专利文献1】ITU-T建议G.729 
【非专利文献2】3GPP TS 26.091 
发明内容
发明所要解决的课题 
虽然内插丢失帧的参数的方法用于未进行预测量化的情况,但是在进行了预测量化的情况下,因为即使编码信息在紧随丢失帧后的帧中被正确地接收,预测器也受到紧挨着的前一帧的差错的影响,无法得到正确的解码结果,所以一般不使用。 
这样,在使用现有的MA型预测器的参数量化装置中,因为未进行利用内插式方法的丢失帧的参数的补偿处理,有时存在例如因对能量参数衰减得过分而引起声音中断,成为主观质量的劣化因素的情形。 
另外,在进行预测量化的情况下,虽然可考虑通过单纯地对解码量化预测残差进行内插插值来对参数进行解码的方法,但是相对于即使解码量化预测残差较大地变动解码参数也因加权移动平均在帧间平缓地变动,在该方法中,伴随解码量化预测残差的变动,解码参数也变动,因此在解码量化预测残差的变动较大的情况下,反而会增大主观质量的劣化。 
本发明的目的在于,针对以上问题,在进行预测量化的情况下,提供能够进行参数的补偿处理以控制主观质量的劣化的参数解码装置、参数编码装置以及参数解码方法。 
解决该问题的方案 
本发明的参数解码装置,采取的结构包括:预测残差解码单元,基于语音编码比特串的当前帧中所包含的编码信息,求量化预测残差;以及参数解 码单元,基于所述量化预测残差,对参数进行解码,在所述当前帧丢失的情况下,所述预测残差解码单元使用多个加权系数的组中使先前帧的解码参数与当前帧的解码参数之间的距离、以及当前帧的解码参数与未来帧的解码参数之间的距离之和为最小的加权系数组,计算先前帧的解码参数以及未来帧的量化预测残差的加权线性和,并将该计算结果作为当前帧的量化预测残差使用。 
另外,本发明的参数编码装置,采用的结构包括:分析单元,分析输入的语音信号而求分析参数;编码单元,使用预测系数预测所述分析参数,使用对预测残差进行量化得到的量化预测残差和所述预测系数获得量化参数;前一帧补偿单元,存储多个加权系数的组,对当前帧的所述量化预测残差、两帧前的帧的所述量化预测残差、以及两帧前的帧的所述量化参数,使用所述加权系数的组求加权和,并使用所述加权和求一帧前的帧的多个所述量化参数;以及判定单元,将由所述前一帧补偿单元求出的所述一帧前的帧的多个所述量化参数,与在一帧前由所述分析单元求出的所述分析参数进行比较,选择所述一帧前的帧的一个所述量化参数,并选择与所选择的所述一帧前的帧的所述量化参数对应的加权系数的组而进行编码。 
另外,本发明的参数解码方法,包括:预测残差解码步骤,基于语音编码比特串的当前帧中所包含的编码信息,求量化预测残差;以及参数解码步骤,基于所述量化预测残差,对参数进行解码,在所述当前帧丢失的情况下,在所述预测残差解码步骤中,使用多个加权系数的组中使先前帧的解码参数与当前帧的解码参数之间的距离、以及当前帧的解码参数与未来帧的解码参数之间的距离之和为最小的加权系数组,计算先前帧的解码参数以及未来帧的量化预测残差的加权线性和,并将该计算结果作为当前帧的量化预测残差使用。 
发明的效果 
根据本发明,在进行预测量化的情况下,在当前帧丢失时,根据先前解码的参数、先前帧的量化预测残差、以及未来帧的量化预测残差的加权线性和,求当前帧的量化预测残差,由此能够进行参数的补偿处理以抑制主观质量的劣化。 
附图说明
图1是表示本发明的实施方式1的语音解码装置的主要结构的方框图。 
图2是表示本发明的实施方式1的语音解码装置的LPC解码单元的内部结构的图。 
图3是表示图2中的代码矢量解码单元的内部结构的图。 
图4是表示一例在不存在丢失帧的情况下进行了通常的处理的结果的图。 
图5是表示一例进行了本实施方式的补偿处理的结果的图。 
图6是表示一例进行了现有的补偿处理的结果的图。 
图7是表示一例进行了现有的补偿处理的结果的图。 
图8是表示本发明的实施方式2的语音解码装置的主要结构的方框图。 
图9是表示图8中的LPC解码单元的内部结构的方框图。 
图10是表示图9中的代码矢量解码单元的内部结构的方框图。 
图11是表示本发明的实施方式3的语音解码装置的主要结构的方框图。 
图12是表示图11中的LPC解码单元的内部结构的方框图。 
图13是表示图12中的代码矢量解码单元的内部结构的方框图。 
图14是表示图1中的增益解码单元的内部结构的方框图。 
图15是表示图14中的预测残差解码单元的内部结构的方框图。 
图16是表示图15中的子帧量化预测残差生成单元的内部结构的方框图。 
图17是表示本发明的实施方式5的语音编码装置的主要结构的方框图。 
图18是表示构成本发明的实施方式6的语音信号传输系统的语音信号发送装置以及语音信号接收装置的结构的方框图。 
图19是表示本发明的实施方式7的语音解码装置的LPC解码单元的内部结构的图。 
图20是表示图19中的代码矢量解码单元的内部结构的图。 
图21是表示本发明的实施方式8的语音解码装置的主要结构的方框图。 
图22是表示本发明的实施方式8的语音解码装置的LPC解码单元的内部结构的图。 
图23是表示图22中的代码矢量解码单元的内部结构的图。 
图24是表示本发明的实施方式9的语音解码装置的LPC解码单元的内部结构的图。 
图25是表示图24中的代码矢量解码单元的内部结构的图。 
图26是表示本发明的实施方式10的语音解码装置的主要结构的方框图。 
具体实施方式
以下,参照附图详细地说明本发明的实施方式。另外,在以下的各个实施方式中,以将本发明的参数解码装置/参数编码装置分别适用于CELP型的语音解码装置/语音编码装置的情形为例进行说明。 
(实施方式1) 
图1是表示本发明实施方式1的语音解码装置的主要结构的方框图。在图1所示的语音解码装置100中,从未图示的编码装置传输的编码信息由复用分离单元101分离为:固定码本代码Fn+1、自适应码本代码An+1、增益代码Gn+1、以及LPC(线形预测系数:Linear Prediction Coefficients)代码Ln+1。语音解码装置100另外输入帧丢失代码Bn+1。这里的各个代码的下标n表示解码对象的帧号码。也就是说,在图1中,分离了解码对象的第n帧(以下称为“当前帧”)的下一个的第(n+1)帧(以下称为“下一帧”)中的编码信息。 
固定码本代码Fn+1输入到固定码本矢量(Fixed Codebook Vector(FCV))解码单元102,自适应码本代码An+1输入到自适应码本矢量(AdaptiveCodebook Vector(ACV))解码单元103,增益代码Gn+1输入到增益解码单元104,LPC代码Ln+1输入到LPC解码单元105。另外,帧丢失代码Bn+1输入到FCV解码单元102、ACV解码单元103、增益解码单元104、以及LPC解码单元105。 
FCV解码单元102在帧丢失代码Bn表示“第n帧为正常帧”的情况下,使用固定码本代码Fn生成固定码本矢量,在帧丢失代码Bn表示“第n帧为丢失帧”的情况下,通过帧丢失补偿(隐蔽)处理生成固定码本矢量。所生成的固定码本矢量输入到增益解码单元104以及放大器106。 
ACV解码单元103在帧丢失代码Bn表示“第n帧为正常帧”的情况下,使用自适应码本代码An生成自适应码本矢量,在帧丢失代码Bn表示“第n帧为丢失帧”的情况下,通过帧丢失补偿(隐蔽)处理生成自适应码本矢量。所生成的自适应码本矢量输入到放大器107。 
增益解码单元104在帧丢失代码Bn表示“第n帧为正常帧”的情况下,使用增益码本代码Gn以及固定码本矢量生成固定码本增益和自适应码本增益,在帧丢失代码Bn表示“第n帧为丢失帧”的情况下,通过帧丢失补偿(隐蔽)处理生成固定码本增益和自适应码本增益。所生成的固定码本增益输入到放大器106、所生成的自适应码本增益输入到放大器107。 
LPC解码单元105在帧丢失代码Bn表示“第n帧为正常帧”的情况下,使用LPC代码Ln对LPC参数进行解码,在帧丢失代码Bn表示“第n帧为丢失帧”的情况下,通过帧丢失补偿(隐蔽)处理,对LPC参数进行解码。解码 所得的解码LPC参数输入到LPC合成单元109。另外,LPC解码单元105的细节后述。 
放大器106将从增益解码单元104输出的固定码本增益和从FCV解码单元102输出的固定码本矢量进行乘法运算,并将乘法运算结果输出到加法器108。放大器107将从增益解码单元104输出的自适应码本增益和从ACV解码单元103输出的自适应码本矢量进行乘法运算,并将乘法运算结果输出到加法器108。加法器108将从放大器106输出的乘以了固定码本增益后的固定码本矢量、与从放大器107输出的乘以了自适应码本增益后的自适应码本矢量进行加法运算,并将加法运算结果(以下称为“和矢量”)输出到LPC合成单元109。 
LPC合成单元109使用从LPC解码单元105输出的解码LPC参数,构成线性预测合成滤波器,将从加法器108输出的和矢量作为驱动信号来驱动线性预测合成滤波器,并将驱动的结果得到的合成信号输出到后置滤波器(post filter)110。后置滤波器110对从LPC合成单元109输出的合成信号进行共振峰(formant)增强和/或音调增强处理等,并作为解码语音信号输出。 
接下来,以补偿LPC参数的情形为例说明本实施方式的参数的补偿处理的细节。图2是表示图1中的LPC解码单元105的内部结构的图。 
LPC代码Ln+1输入到缓冲器201以及代码矢量解码单元203,帧丢失代码Bn+1输入到缓冲器202、代码矢量解码单元203以及选择器209。 
缓冲器201将下一帧的LPC代码Ln+1保持一帧期间,并将其输出到代码矢量解码单元203。从缓冲器201输出到代码矢量解码单元203的LPC代码,作为由缓冲器201保持了一帧期间的结果,成为当前帧的LPC代码Ln。 
缓冲器202将下一帧的帧丢失代码Bn+1保持一帧期间,并将其输出到代码矢量解码单元203。从缓冲器202输出到代码矢量解码单元203的帧丢失代码,作为由缓冲器202保持了一帧期间的结果,成为当前帧的帧丢失代码Bn。 
代码矢量解码单元203输入先前M帧的量化预测残差矢量xn-1~xn-M、前一帧的解码LSF矢量yn-1、下一帧的LPC代码Ln+1、下一帧的帧丢失代码Bn+1、当前帧的LPC代码Ln以及当前帧的帧丢失代码Bn,基于这些信息,生成当前帧的量化预测残差矢量xn,并将其输出到缓冲器204-1以及放大器205-1。另外,代码矢量解码单元203的细节后述。 
缓冲器204-1将当前帧的量化预测残差矢量xn保持一帧期间,并将其输出到代码矢量解码单元203,缓冲器204-2、以及放大器205-2。输出到这些单元的量化预测残差矢量,作为由缓冲器204-1保持了一帧期间的结果,成为前一帧的量化预测残差矢量xn-1。同样地,缓冲器204-i(i为从2到M-1)分别将量化预测残差矢量xn-i+1保持一帧期间,并将其输出到代码矢量解码单元203、缓冲器204-(i+1)、以及放大器205-(i+1)。缓冲器204-M将量化预测残差矢量xn-M+1保持一帧期间,并将其输出到代码矢量解码单元203、以及放大器205-(M+1)。 
放大器205-1将量化预测残差矢量xn与规定的MA预测系数α0进行乘法运算,并将运算结果输出到加法器206。同样地,放大器205-j(j为从2到M+1)将量化预测残差矢量xn-j+1与规定的MA预测系数αj-1进行乘法运算,并将运算结果输出到加法器206。另外,MA预测系数的组可以为一种固定值,根据ITU-T建议G.729,准备两种组,在编码器端决定使用哪种组进行解码,作为LPC代码Ln的信息的一部分进行编码,并传输。此时,LPC解码单元105具有作为表格的MA预测系数的组,成为将编码器端所指定的组用作为图2中α0~αM的结构。 
加法器206计算从各个放大器205-1~205-(M+1)输出的乘了MA预测系数后的量化预测残差矢量的总和,并将作为计算结果的解码LSF矢量yn输出到缓冲器207以及LPC变换单元208。 
缓冲器207将解码LSF矢量yn保持一帧期间,并将其输出到代码矢量解码单元203。其结果,从缓冲器207输出到代码矢量解码单元203的解码LSF矢量,成为前一帧的解码LSF矢量yn-1。 
LPC变换单元208将解码LSF矢量yn变换成线性预测系数(解码LPC参数),并将其输出到选择器209。 
选择器209基于当前帧的帧丢失代码Bn以及下一帧的帧丢失代码Bn+1,选择从LPC变换单元208输出的解码LPC参数、或者从缓冲器210输出的前一帧中的解码LPC参数。具体而言,在当前帧的帧丢失代码Bn表示“第n帧为正常帧”的情况下,或者在下一帧的帧丢失代码Bn+1表示“第n+1帧为正常帧”的情况下,选择从LPC变换单元208输出的解码LPC参数,在当前帧的帧丢失代码Bn表示“第n帧为丢失帧”的情况下,并且在下一帧的帧丢失代码Bn+1表示“第n+1帧为丢失帧”的情况下,选择从缓冲器210输出的前一帧的 解码LPC参数。然后,选择器209将选择结果作为最终的解码LPC参数输出到LPC合成单元109以及缓冲器210。另外,在选择器209选择从缓冲器210输出的前一帧的解码LPC参数的情况下,实际上无需进行从代码矢量解码单元203到LPC变换单元208为止的处理的所有处理,只进行更新缓冲器204-1~204-M的内容的处理即可。 
缓冲器210将从选择器209输出的解码LPC代码参数保持一帧期间,并将其输出到选择器209。其结果,从缓冲器210输出到选择器209的解码LPC参数,成为前一帧的解码LPC参数。 
接下来,利用图3的方框图详细说明图2中的代码矢量解码单元203的内部结构。 
码本301生成由当前帧的LPC代码Ln确定的代码矢量,输出到切换开关309,并且生成由下一帧的LPC代码Ln+1确定的代码矢量,输出到放大器307。另外,如上所述,根据ITU-T建议G.729,在LPC代码Ln中还包含用于确定MA预测系数组的信息,虽然在该情况下,LPC代码Ln除了用于代码矢量的解码还用于MA预测系数的解码,但是这里省略说明。另外,码本既可以为多层结构,也可以为分离(split)结构。例如,根据ITU-T建议G.729,码本结构为两层结构,并且第二层分离(split)为两个。另外,从多级结构和分离结构的码本输出的矢量通常不直接使用,而是在阶数间的间隔极端地小、顺序颠倒的情况下,一般进行保证使最小间隔成为特定值,或是保证顺序性的处理。 
前M帧的量化预测残差矢量xn-1~xn-M分别输入到对应的放大器302-1~302-M、以及对应的放大器305-1~305-M。 
放大器302-1~302-M分别将输入了的量化预测残差矢量xn-1~xn-M与MA预测系数α1~αM进行乘法运算,并将结果输出到加法器303。另外,如前所述,在ITU-T建议G.729的情况下,MA预测系数的组存在两种,使用哪一种的信息包含于LPC代码Ln。另外,在这些进行了乘法运算的丢失帧中,因为LPC代码Ln丢失,所以实际上使用在前一帧使用了的MA预测系数组。也就是说,使用从前一帧的LPC代码Ln-1解码出的MA预测系数组信息。另外,在前一帧也为丢失帧的情况下,使用再前一个帧的信息。 
加法器303计算从放大器302-1~302-M输出的乘了MA预测系数后的、各个量化预测残差矢量的总和,并将作为计算结果的矢量输出到加法器304。 加法器304从由缓冲器207输出的前一帧的解码LSF矢量yn-1中,减去由加法器303输出的矢量,并将作为计算结果的矢量输出到切换开关309。 
从加法器303输出的矢量为在当前帧中由MA型预测器预测出的预测LSF矢量,加法器304进行求生成前一帧的解码LSF矢量所需的、当前帧的量化预测残差矢量的处理。也就是说,在放大器302-1~302-M、加法器303、以及加法器304中,计算使前一帧的解码LSF矢量yn-1成为当前帧的解码LSF矢量yn的矢量。 
放大器305-1~305-M分别将输入了的量化预测残差矢量xn-1~xn-M与加权系数β1~βM进行乘法运算,并将结果输出到加法器308。放大器306将从缓冲器207输出的前一帧的解码LSF矢量yn-1与加权系数β-1进行乘法运算,并将运算结果输出到加法器308。放大器307将从码本301输出的代码矢量xn+1与加权系数β0进行乘法运算,并将运算结果输出到加法器308。 
加法器308计算从放大器305-1~305-M、放大器306、以及放大器307输出的矢量的总和,并将作为计算结果的代码矢量输出到切换开关309。也就是说,加法器308通过对由下一帧的LPC代码Ln+1所确定的代码矢量、前一帧的解码LSF矢量、以及前M帧的量化预测残差矢量,进行加权加法运算,从而计算矢量。 
在当前帧的帧丢失代码Bn表示“第n帧为正常帧”的情况下,切换开关309选择从码本301输出的代码矢量,并将其作为当前帧的量化预测残差矢量xn输出。另一方面,在当前帧的帧丢失代码Bn表示“第n帧为丢失帧”的情况下,切换开关309根据下一帧的帧丢失代码Bn+1具有哪种信息来进一步选择要输出的矢量。 
也就是说,在下一帧的帧丢失代码Bn+1表示“第n+1帧为丢失帧”的情况下,切换开关309选择从加法器304输出的矢量,并将其作为当前帧的量化预测残差矢量xn输出。另外,在该情况下,无需进行从码本301以及放大器305-1~305-M到加法器308为止的、用于生成矢量的过程的处理。 
而且,在下一帧的帧丢失代码Bn+1表示“第n+1帧为正常帧”的情况下,切换开关309选择从加法器308输出的矢量,并将其作为当前帧的量化预测残差矢量xn输出。另外,在该情况下,无需进行从放大器302-1~302-M到加法器304为止的、用于生成矢量的过程的处理。 
如上所述,根据本实施方式,在当前帧丢失了的情况下,只要下一帧被 正常地接收,通过利用了先前解码的参数、先前接收到的帧的量化预测残差、以及未来的帧的量化预测残差的补偿处理专用的加权加法处理(加权线性和),进行当前帧的LSF参数的解码量化预测残差的补偿处理,并使用补偿过的量化预测残差进行LSF参数的解码。由此,与重复使用先前的解码LSF参数相比,能够实现较高的补偿性能。 
以下,利用图4到图7,以与现有技术相比较的形式,列举具体例子说明进行了本实施方式的补偿处理的结果。另外,在图4到图7中,○表示解码量化预测残差,●表示通过补偿处理得到的解码量化预测残差,◇表示解码参数,◆表示通过补偿处理得到的解码参数。 
图4表示一例在不存在丢失帧的情况下进行了通常的处理的结果的图,根据解码量化预测残差,按照下式(1)求出第n帧的解码参数yn。另外,在式(1)中,cn是第n帧的解码量化预测残差。 
yn=0.6cn+0.3cn-1+0.1cn-2                       ...(1) 
图5是表示一例进行了本实施方式的补偿处理的结果的图,图6以及图7是表示一例进行了现有的补偿处理的结果的图。在图5、图6和图7中,假设第n帧丢失,其它的帧为正常帧。 
图5所示的本实施方式的补偿处理,使用下式(3)求丢失了的第n帧的解码量化预测残差cn,以使第n-1帧的解码参数yn-1与第n帧的解码参数yn之间的距离,以及第n帧的解码参数yn与第n+1帧的解码参数yn+1之间的距离的和D(D通过下式(2)定义)最小,从而使解码参数的帧间的变动平缓。 
D=|yn+1-yn|2+|yn-yn-1|2                          …(2) 
=|0.6cn+1+0.3cn+0.1cn-1-0.6cn-0.3cn-1-0.1cn-2|2+|0.6cn+0.3cn-1+0.1cn-2-yn-1|2
=0.6cn+1-0.3n-0.2n-1-0.1cn-2|2+0.6cn+0.3cn-1+0.1cn-2-yn-1|2
∂ D ∂ c n = 0.9 c n - 0.36 c n + 1 + 0.24 c n - 1 + 0.06 c n - 2 - 1.2 y n - 1 = 0
cn=0.4cn+1-0.533333cn-1-0.2cn-2+1.333333yn-1     …(3) 
然后,本实施方式的补偿处理,使用根据式(3)求出的解码量化预测残差cn,根据上式(1),求丢失了的第n帧的解码参数yn。其结果,通过图4与图5的比较可知,通过本实施方式的补偿处理得到的解码参数yn为与没有丢失帧的情况下的、通过通常的处理得到的解码参数大致相同的值。 
相对于此,图6所示的现有的补偿处理,在第n帧丢失了的情况下,将 第n-1帧的解码参数yn-1直接用作第n帧的解码参数yn。另外,在图6所示的补偿处理中,通过上式(1)的倒算,求第n帧的解码量化预测残差cn。 
此时,因为未考虑伴随解码量化预测残差的变动的解码参数的变动,所以通过比较图4和图6可知,图6的通过现有的补偿处理得到的解码参数yn与没有丢失帧的情况下的、通过通常的处理得到的值极大地不同。另外,因为第n帧的解码量化预测残差cn也不同,所以图6的通过现有的补偿处理得到的第n+1帧的解码参数yn+1也与没有丢失帧的情况下的、通过通常的处理得到的值不同。 
另外,图7所示的现有的补偿处理为通过内插插值而求解码量化预测残差的处理,在第n帧丢失了的情况下,将第n-1帧的解码量化预测残差cn-1与第n+1帧的解码量化预测残差cn+1的平均值用作第n帧的解码量化预测残差cn。 
然后,图7所示的现有的补偿处理,使用通过内插插值求出的解码量化预测残差cn,根据上式(1),求丢失了的第n帧的解码参数yn。 
其结果,通过图4与图7的比较可知,通过图7的现有的补偿处理得到的解码参数yn为与没有丢失帧的情况下的、通过通常的处理得到的值极大地不同。这是因为,即使解码量化预测残差较大地变动解码参数也通过加权移动平均而在帧间平缓地变动,相对于此,在该现有的补偿处理中,伴随解码量化预测残差的变动,解码参数也变动。另外,因为第n帧的解码量化预测残差cn也不同,所以图7的通过现有的补偿处理得到的第n+1帧的解码参数yn+1也与没有丢失帧的情况下的、通过通常的处理得到的值不同。 
(实施方式2) 
图8是表示本发明实施方式2的语音解码装置的主要结构的方框图。图8所示的语音解码装置100与图1比较,不同之处仅为进一步追加了补偿模式信息En+1作为输入到LPC解码单元105的参数。 
图9是表示图8中的LPC解码单元105的内部结构的方框图。图9所示的LPC解码单元105与图2比较,不同之处仅为进一步追加了补偿模式信息En+1作为输入到代码矢量解码单元203的参数。 
图10是表示图9中的代码矢量解码单元203的内部结构的方框图。图10所示的代码矢量解码单元203与图3比较,不同之处仅为进一步追加了系数解码单元401。 
系数解码单元401存储多种加权系数(β-1~βM)的组(以下称为“系数组”),根据所输入的补偿模式信息En+1,从系数组中选择一个加权系数的组,并将其输出到放大器305-1~305-M、306、以及307。 
这样,根据本实施方式,除了在实施方式1说明过的特征,还准备用于进行补偿处理的加权加法运算的加权系数的组,在编码器端确认了使用哪个加权系数组能够得到较高的补偿性能后,再将用于确定最佳的组的信息传输到解码器端,在解码器端,基于接收到的信息,使用所指定的加权系数组进行补偿处理,因此能够得到比实施方式1更高的补偿性能。 
(实施方式3) 
图11是表示本发明实施方式3的语音解码装置的主要结构的方框图。图11所示的语音解码装置100与图8比较,不同之处仅为进一步追加了分离单元501,用于将输入到LPC解码单元105的LPC代码Ln+1分离为两种代码Vn+1和Kn+1。代码V为用于生成代码矢量的代码,代码K为MA预测系数代码。 
图12是表示图11中的LPC解码单元105的内部结构的方框图。因为用于生成代码矢量的代码Vn和Vn+1与LPC代码Ln和Ln+1同样地被使用,所以省略说明。图12所示的LPC解码单元105与图9比较,不同之处仅为进一步追加了缓冲器601以及系数解码单元602,并且进一步追加了MA预测系数代码Kn+1作为输入到代码矢量解码单元203的参数。 
缓冲器601将MA预测系数代码Kn+1保持一帧期间,并将其输出到系数解码单元602。其结果,从缓冲器601输出到系数解码单元602的MA预测系数代码,成为前一帧的MA预测系数代码Kn。 
系数解码单元602存储多种系数组,根据帧丢失代码Bn和Bn+1、补偿模式信息En+1、以及MA预测系数代码Kn,确定系数组,并将其输出到放大器205-1~205-(M+1)。这里,系数解码单元602的系数组的确定方法为以下的三种。 
在输入的帧丢失代码Bn表示“第n帧为正常帧”的情况下,系数解码单元602选择以MA预测系数代码Kn所指定的系数组。 
另外,在输入的帧丢失代码Bn表示“第n帧为丢失帧”,帧丢失代码Bn+1表示“第n+1帧为正常帧”的情况下,系数解码单元602使用作为第n+1的参数接收的补偿模式信息En+1,决定成为选择对象的系数组。例如,只要预先 决定补偿模式信息En+1表示应当在作为补偿帧的第n帧使用的MA预测系数的模式,则能够直接使用补偿模式信息En+1来代替MA预测系数代码Kn。 
另外,在输入的帧丢失代码Bn表示“第n帧为丢失帧”,并且帧丢失代码Bn+1表示“第n+1帧为丢失帧”的情况下,能够利用的信息只有在前一帧使用过的系数组的信息,因此系数解码单元602重复使用在前一帧使用过的系数组。也可以固定地使用预先决定了模式的系数组。 
图13是表示图12中的代码矢量解码单元203的内部结构的方框图。图13所示的代码矢量解码单元203与图10比较,不同之处为系数解码单元401使用补偿模式信息En+1以及MA预测系数代码Kn+1的两者,选择系数组。 
在图13中,系数解码单元401具备多个加权系数组,加权系数组根据在下一帧所使用的MA预测系数来准备。例如,在MA预测系数的组为两种的情况下,设一种为模式0,另一种为模式1,则由下一帧的MA预测系数的组为模式0时的专用的加权系数组群、以及下一帧的MA预测系数的组为模式1时的专用的加权系数组群组成。 
此时,系数解码单元401根据MA预测系数代码Kn+1,决定上述任一种加权系数组群,根据输入的补偿模式信息En+1,从系数组中选择一个加权系数的组,并将其输出到放大器305-1~305-M、306、以及307。 
以下,表示一例加权系数β-1~βM的决定方法。如上所述,在第n帧丢失,接收第n+1帧的情况下,即使能够正确地解码第n+1帧的量化预测残差,在两帧中最终的解码参数还是未知。因此,若不设定某些假设(约束条件),则两个帧的解码参数无法唯一地确定。于是,根据下式(4)求量化预测残差yn,以使第n帧的解码参数与第n-1帧的解码参数之间的距离,以及第n+1帧的解码参数与第n帧的解码参数之间的距离的和的D(j)最小,从而使第n以及第n+1帧的解码参数尽量不离开已经解码的第n-1帧的解码参数。 
D(j)-|yn (j)-yn-1 (j)|2+|yn+1 (j)-yn (j)|2                         …(4) 
y n ( j ) = Σ i = 0 M α i ( j ) x n - i ( j )
y n + 1 ( j ) = Σ i = 0 M α , i ( j ) x m + 1 - i ( j )
在参数为LSF的情况下,式(4)中xn (j)、yn (j)、αi (j)、以及αi(j)如下所示。 
xn (j):第n帧的LSF参数的第j分量的量化预测残差 
yn (j):第n帧的解码LSF参数的第j分量 
αi (j):第n帧的MA预测系数组中的第i次分量的第j分量 
αi(j):第n+1帧的MA预测系数组中的第i次分量的第j分量 
M:MA预测阶数 
这里,若对xn (j)求解将D(j)以xn (j)进行偏微分设为0而得到的式子,xn (j)以下式(5)的形式表示。 
x n ( j ) = β 0 ( j ) x n + 1 ( j ) + Σ i = 1 M β i ( j ) x n - i ( j ) + β - 1 ( j ) y n - 1 ( j ) . . . ( 5 )
另外,在式(5)中,βi (j)为加权系数,以αi (j)和αi(j)表示。也就是说,在MA预测系数的组只存在一种的情况下,加权系数βi (j)的组也只有一种,而在MA预测系数的组存在多种的情况下,通过αi (j)与αi(j)的组合可得到多种加权系数的组。 
例如,在ITU-T建议G.729的情况下,MA预测系数的组有两种,因此若将它们设为模式0以及模式1的组时则可以考虑以下四种组:第n帧以及第n+1帧都为模式0的情况,第n帧为模式0而第n+1帧为模式1的情况,第n帧为模式1而第n+1帧为模式0的情况,第n帧以及第n+1帧都为模式1的情况。可以考虑几种使用这四种的组中的哪一种加权系数组的决定方法。 
第一种方法,使用所有的四种组在编码器端生成第n帧的解码LSF和第n+1帧的解码LSF,计算所生成第n帧的解码LSF与分析输入信号得到的未量化LSF之间的欧几里德距离,计算所生成第n+1帧的解码LSF与分析输入信号得到的未量化LSF之间的欧几里德距离,选择一个使这些欧几里德距离的总和最小的加权系数β的组,将所选择的组以两比特编码,并传输到解码器。此时,追加到ITU-T建议G.729的编码信息,每个帧需要两比特用于系数组β的编码。另外,像在ITU-T建议G.729的LSF量化中使用的那样,采用加权欧几里德距离来代替欧几里德距离,则可能在听觉上得到更好的质量。 
第二种方法为利用第n+1帧的MA预测系数模式信息,使每个帧的追加比特系数为一比特的方法。因为在解码器端,知道第n+1帧的MA预测系数的模式信息,所以αi (j)与αi(j)的组合限定为两种。也就是说,在第n+1帧的MA预测模式为模式0的情况下,第n帧与第n+1帧的MA预测模式的组合为(0-0)或者(1-0),因此加权系数β的组能够限定为两种。在编码器端使 用这两种的加权系数β的组,与上述第一种方法同样地选择一个与未量化LSF之间的误差较小的组进行编码,并传输到解码器即可。 
第三种方法为完全不发送选择信息的方法,设所使用的加权系数的组只为MA预测模式的组合为(0-0)或者(1-1)的两种,在第n+1帧的MA预测系数的模式为0时选择前者,而在1时选择后者。或者,也可以采取像(0-0)或者(0-1)那样,将丢失帧的模式固定为特定的模式的方法。 
另外,在能够判断输入信号稳定的帧中,还可以考虑像现有方法那样,使第n-1帧与第n帧的解码参数相等的方法,以及使用在使第n+1帧与第n帧的解码参数相等的假设下求得的加权系数β的组的方法。 
在稳定性的判定中,能够利用第n-1帧与第n+1帧的音调周期信息、MA预测系数的模式信息等。也就是说,可以考虑以下的方法:在第n-1帧与第n+1帧中所解码的音调周期之差较小时判定为稳定,以及在第n+1帧中所解码的MA预测系数的模式信息为适合于对稳定的帧进行编码的模式(也就是高阶数的MA预测系数也有某种较大程度的加权的模式)被选择的情况下判定为稳定。 
这样,在本实施方式中,除了实施方式2,MA预测系数的模式有两种,因此能够在稳定的区间以及不稳定的区间使用不同的MA预测系数的组,从而能够进一步提高LSF量化器的性能。 
另外,通过使用使式(4)最小的式(5)的加权系数组,保证在丢失帧以及丢失帧的下一帧的正常帧的解码LSF参数不会成为远远地离开丢失帧的前一帧的LSF参数的值。因此,即使下一帧的解码LSF参数未知,也能够有效地使用下一帧的接收信息(量化预测残差),并且将补偿到错误方向时的风险、也就是远远地离开正确解码LSF参数的风险抑制到最低限。 
另外,由于只要利用上述第二种方法作为补偿模式的选择方法,就能够利用MA预测系数的模式信息作为确定补偿处理用的加权系数组的信息的一部分,因此能够减少所追加传输的补偿处理用的加权系数组的信息。 
(实施方式4) 
图14是表示图1中的增益解码单元104的内部结构的方框图(图8和图11的增益解码单元104也同样)。在本实施方式中,与ITU-T建议G.729的情形同样,设增益的解码在每个子帧进行一次,一帧由两个子帧构成,在图14中表示如下情况:将帧号码设为n,将子帧号码设为m(第n帧的第一子帧 以及第二子帧的子帧号码设为m以及m+1),对相当于第n帧的两个子帧的增益代码(Gm,Gm+1)依次解码。 
在图14中,第n+1帧的增益代码Gn+1由复用分离单元101输入到增益解码单元104。增益代码Gn+1输入到分离单元700,分离成第n+1帧的第一子帧的增益代码Gm+2和第二子帧的增益代码Gm+3。另外,也可以由复用分离单元101分离成增益代码Gm+2和增益代码Gm+3。 
在增益解码单元104中,使用通过所输入的Gn和Gn+1生成的Gm、Gm+1、Gm+2、以及Gm+3,依序对子帧m的解码增益和子帧m+1的解码增益进行解码。 
以下,说明在图14中对增益代码Gm进行解码时的增益解码单元104的各个部分的动作。 
增益代码Gm+2输入到缓冲器701以及预测残差解码单元704,帧丢失代码Bn+1输入到缓冲器703、预测残差解码单元704以及选择器713。 
缓冲器701将输入的增益代码保持一帧期间,并将其输出到预测残差解码单元704,因此输出到预测残差解码单元704的增益代码为前一帧的增益代码。也就是说,输入到缓冲器701的增益代码为Gm+2时,所输出的增益代码为Gm。缓冲器702也进行与缓冲器701同样的处理。也就是说,将输入的增益代码保持一帧期间,并将其输出到预测残差解码单元704。只是缓冲器701的输入输出为第一子帧的增益代码,而缓冲器702的输入输出为第二子帧的增益代码的方面不同。 
缓冲器703将下一帧的帧丢失代码Bn+1保持一帧期间,并将其输出到预测残差解码单元704、选择器713以及FC矢量能量计算单元708。从缓冲器703输出到预测残差解码单元704、选择器713以及FC矢量能量计算单元708的帧丢失代码为所输入的帧的前一帧的帧丢失代码,因此为当前帧的帧丢失代码Bn。 
预测残差解码单元704输入:前M子帧的对数量化预测残差(对量化后的MA预测残差取对数的值)xm-1~xm-M、前一子帧的解码能量(对数解码增益)em-1、预测残差偏置(bias)增益eB、下一帧的增益代码Gm+2和Gm+3、下一帧的帧丢失代码Bn+1、当前帧的增益代码Gm和Gm+1、以及当前帧的帧丢失代码Bn,基于这些信息生成当前子帧的量化预测残差,并将其输出到对数运算单元705以及乘法单元712。另外,预测残差解码单元704的细节后述。 
对数运算单元705计算从预测残差解码单元704输出的量化预测残差的 对数(ITU-T建议G.729中20×log10(x),x为输入)xm,并将其输出到缓冲器706-1。 
缓冲器706-1从对数运算单元705输入对数量化预测残差xm,将其保持一子帧期间,并将其输出到预测残差解码单元704、缓冲器706-2、以及放大器707-1。也就是说,输入到这些单元的对数量化预测残差为前一子帧的对数量化预测残差xm-1。同样地,缓冲器706-i(i为从2到M-1)将输入的对数量化预测残差xm-i分别保持一子帧期间,并将其输出到预测残差解码单元704、缓冲器706-(i+1)、以及放大器707-i。缓冲器706-M将输入的对数量化预测残差矢量xm-M-1保持一子帧期间,并将其输出到预测残差解码单元704、以及放大器707-M。 
放大器707-1将对数量化预测残差xm-1与规定的MA预测系数α1进行乘法运算,并将运算结果输出到加法器710。同样地,放大器707-j(j为从2到M)将对数量化预测残差矢量xm-j与规定的MA预测系数αj进行乘法运算,并将运算结果输出到加法器710。另外,虽然在ITU-T建议G.729中,MA预测系数的组为一种固定值,但是也可以采用准备多种组并选择合适的组的结构。 
在当前帧的帧丢失代码Bn表示“第n帧为正常帧”的情况下,FC矢量能量计算单元708计算另外解码所得的FC(固定码本)矢量的能量,并将计算结果输出到平均能量加法单元709。另外,在当前帧的帧丢失代码Bn表示“第n帧为丢失帧”的情况下,FC矢量能量计算单元708将在前一子帧的FC矢量的能量输出到平均能量加法单元709。 
平均能量加法单元709从平均能量中减去从FC矢量能量计算单元708输出的FC矢量的能量,将作为减法运算结果的预测残差偏置增益eB输出到预测残差解码单元704以及加法器710。另外,这里设平均能量为预先设定的常数。另外,能量的加减运算在对数域进行。 
加法器710计算从放大器707-1~707-M输出的MA预测系数乘法运算后的对数量化预测残差与从平均能量加法单元709输出的预测残差偏置增益eB的总和,并将作为计算结果的对数预测增益输出到乘方运算单元711。 
乘方运算单元711计算从加法器710输出的对数预测增益的乘方(10x,x为输入),并将作为计算结果的预测增益输出到乘法器712。 
乘法器712将从乘方运算单元711输出的预测增益与从预测残差解码单 元704输出的量化预测残差进行乘法运算,并将作为乘法运算结果的解码增益输出到选择器713。 
选择器713基于当前帧的帧丢失代码Bn以及下一帧的帧丢失代码Bn+1,选择从乘法器712输出的解码增益、或者从放大器715输出的衰减后的前一帧的解码增益。具体而言,在当前帧的帧丢失代码Bn表示“第n帧为正常帧”的情况下,或者在下一帧的帧丢失代码Bn+1表示“第n+1帧为正常帧”的情况下,选择从乘法器712输出的解码增益,在当前帧的帧丢失代码Bn表示“第n帧为丢失帧”,并且在下一帧的帧丢失代码Bn+1表示“第n+1帧为丢失帧”的情况下,选择从放大器715输出的衰减后的前一帧的解码增益。然后,选择器713将选择结果作为最终的解码增益输出到放大器106和107、缓冲器714、以及对数运算单元716。另外,在选择器713选择从放大器715输出的衰减后的前一帧解码增益的情况下,实际上无需进行从预测残差解码单元704到乘法器712为止的处理的所有处理,只进行更新缓冲器706-1~706-M的内容的处理即可。 
缓冲器714将从选择器713输出的解码增益保持一子帧期间,并将其输出到放大器715。其结果,从缓冲器714输出到放大器715的解码增益,成为前一子帧的解码增益。放大器715将从缓冲器714输出的前一子帧的解码增益与规定的衰减系数进行乘法运算,并将运算结果输出到选择器713。该规定的衰减系数的值,虽然例如在ITU-T建议G.729中为0.98,但是只要是适当地设计为最适于编解码器的值即可,也可以根据丢失了的帧是有声帧还是无声帧等丢失帧的信号的特征,使该值变化。 
对数运算单元716计算从选择器713输出的解码增益的对数(ITU-T建议G.729中20×log10(x)、x为输入)em,并将其输出到缓冲器717。缓冲器717从对数运算单元716输入对数解码增益em,将其保持一子帧期间,并输出到预测残差解码单元704。也就是说,输入到预测残差解码单元704的对数解码增益为前一子帧的对数解码增益em-1。 
图15是表示图14中预测残差解码单元704的内部结构的方框图。在图15中,增益代码Gm、Gm+1、Gm+2以及Gm+3输入到码本801,帧丢失代码Bn和Bn+1输入到切换开关812,前M子帧的对数量化预测残差xm-1~xm-M输入到加法器802,前一子帧的对数解码增益em-1以及预测残差偏置增益eB输入到子帧量化预测残差生成单元807以及子帧量化预测残差生成单元808。 
码本801对与所输入的增益代码Gm、Gm+1、Gm+2以及Gm+3对应的量化预测残差进行解码,并将与增益代码Gm以及Gm+1对应的量化预测残差通过切换开关813输出到切换开关812,将与增益代码Gm+2以及Gm+3对应的量化预测残差输出到对数运算单元806。 
切换开关813选择通过增益代码Gm以及Gm+1解码出的量化预测残差中的一个,输出到切换开关812。具体而言,在进行第一子帧的增益解码处理时,选择通过增益代码Gm解码出的量化预测残差,在进行第二子帧的增益解码处理时,选择通过增益代码Gm+1解码出的量化预测残差。 
加法器802计算前M子帧的对数量化预测残差xm-1~xm-M的总和,并将计算结果输出到放大器803。放大器803通过使加法器802的输出值为1/M倍而计算平均值,并将计算结果输出到4dB衰减单元804。 
4dB衰减单元804将放大器803的输出值降低4dB,并输出到乘方运算单元805。该4dB的衰减用于在从帧丢失回归的帧(子帧)中,不使预测器输出过大的预测值,在不发生这样的需要的结构例中并不一定需要该衰减器。另外,衰减量的4dB也可以自由地设计最适值。 
乘方运算单元805计算4dB衰减单元804的输出值的乘方,并将作为计算结果的补偿预测残差输出到切换开关812。 
对数运算单元806计算从码本801输出的两个量化预测残差(通过增益代码Gm+2以及Gm+3解码出的量化预测残差)的对数,并将作为计算结果的对数量化预测残差xm+2和xm+3输出到子帧量化预测残差生成单元807以及子帧量化预测残差生成单元808。 
子帧量化预测残差生成单元807输入对数量化预测残差xm+2和xm+3、前M子帧的对数量化预测残差xm-1~xm-M、前一子帧的解码能量em-1以及预测残差偏置增益eB,基于这些信息计算第一子帧的对数量化预测残差,并将其输出到切换开关810。同样地,子帧量化预测残差生成单元808输入对数量化预测残差xm+2和xm+3、前M子帧的对数量化预测残差xm-1~xm-M、前一子帧的解码能量em-1以及预测残差偏置增益eB,基于这些信息计算第二子帧的对数量化预测残差,并将其输出到缓冲器809。另外,子帧量化预测残差生成单元807和808的细节后述。 
缓冲器809将从子帧量化预测残差生成单元808输出的第二子帧的对数预测残差保持一子帧的期间,并在进行第二子帧的处理时输出到切换开关 810。另外,在第二子帧的处理时,在预测残差解码单元704的外部xm-1~xm-M、em-1以及eB被更新,但是在子帧量化预测残差生成单元807以及子帧量化预测残差生成单元808中都不进行任何处理,所有处理都在第一子帧的处理时进行。 
切换开关810在第一子帧处理时,与子帧量化预测残差生成单元807连接,将所生成的第一子帧的对数量化预测残差输出到乘方运算单元811,在第二子帧处理时,与缓冲器809连接,将在第二子帧量化预测残差生成单元808生成的第二子帧的对数量化预测残差输出到乘方运算单元811。乘方运算单元811计算从切换开关810输出的对数量化残差的乘方,并将作为计算结果的补偿预测残差输出到切换开关812。 
在当前帧的帧丢失代码Bn表示“第n帧为正常帧”的情况下,切换开关812通过切换开关813选择从码本801输出的量化预测残差。另一方面,在当前帧的帧丢失代码Bn表示“第n帧为丢失帧”的情况下,切换开关812根据下一帧的帧丢失代码Bn+1具有哪种信息来进一步选择要输出的补偿预测残差。 
也就是说,在下一帧的帧丢失代码Bn+1表示“第n+1帧为丢失帧”的情况下,切换开关812选择从乘方运算单元805输出的补偿预测残差,而在下一帧的帧丢失代码Bn+1表示“第n+1帧为正常帧”的情况下,选择从乘方运算单元811输出的补偿预测残差。另外,因为不需要被输入到所选择的端子以外的端子的数据,所以在实际的处理中,一般首先在切换开关812决定选择哪个端子,然后进行用于生成输出到所决定的端子的信号的处理。 
图16是表示图15中的子帧量化预测残差生成单元807的内部结构的方框图。另外,子帧量化预测残差生成单元808的内部结构也与图16相同,不同之处仅在于加权系数的值与子帧量化预测残差生成单元807的不同。 
放大器901-1~901-M分别将输入了的对数量化预测残差矢量xm-1~xm-M与加权系数β1~βM进行乘法运算,并将运算结果输出到加法器906。放大器902将前一子帧的对数增益em-1与加权系数β-1进行乘法运算,并将运算结果输出到加法器906。放大器903将对数偏置增益eB与加权系数βB进行乘法运算,并将运算结果输出到加法器906。放大器904将对数量化预测残差xm+2与加权系数β00进行乘法运算,并将运算结果输出到加法器906。放大器905将对数量化预测残差xm+3与加权系数β01进行乘法运算,并将运算结果输出到加法器906。 
加法器906计算从放大器901-1~901-M、放大器902、放大器903、放大器904以及放大器905输出的对数量化预测残差的总和,并将计算结果输出到切换开关810。 
以下,表示一例本实施方式的加权系数β的组的决定方法。如上所述,在ITU-T建议G.729的情况下,增益量化为子帧处理,因为一帧由两个子帧构成,所以一帧的丢失会导致两子帧连续的突发(burst)丢失。因此,按照实施方式3所示的方法无法决定加权系数β的组。于是,在本实施方式中,求使下式(6)的D最小的xm和xm+1。 
D=|ym-ym-1|2+|ym+1-ym|2+|ym+2-ym+1|2+|ym+3-ym+2|2…(6) 
y m = Σ i = 0 M α i x m - i + x B
y m + 1 = Σ i = 0 M α i x m + 1 - i + x B
y m + 2 = Σ i = 0 M α i x m + 2 - i + x B
y m + 3 = Σ i = 0 M α i x m + 3 - i + x B
这里,以如在ITU-T建议G.729那样,一帧由两子帧构成,MA预测系数只为一种的情形为例说明。在式(6)中,ym-1、ym、ym+1、ym+2、ym+3、xm、xm+1、xm+2、xm+3、xB、以及αi如下所示。 
ym-1:前一帧的第二子帧的解码对数增益 
ym:当前帧的第一子帧的解码对数增益 
ym+1:当前帧的第二子帧的解码对数增益 
ym+2:下一帧的第一子帧的解码对数增益 
ym+3:下一帧的第二子帧的解码对数增益 
xm:当前帧的第一子帧的对数量化预测残差 
xm+1:当前帧的第二子帧的对数量化预测残差 
xm+2:下一帧的第一子帧的对数量化预测残差 
xm+3:下一帧的第二子帧的对数量化预测残差 
xB:对数偏置增益 
αi:第i阶的MA预测系数 
将式(6)对于xm进行偏微分设为0而得到的式子、以及式(6)对于xm+1进行偏微分设为0而得到的式子作为联立方程式,求解xm和xm+1,可得到式(7)以及式(8)。因为根据α0~αM可求β00、β01、β1~βM、β-1、βB、β’00、β’01、β’1~β’M、β’-1、β’B,所以它们唯一地决定。 
x m = β 01 x m + 3 β 00 x m + 2 + Σ i = 1 M β i x m - i + β - 1 y m - 1 + β 0 x B . . . ( 7 )
x m + 1 = β , 01 x m + 3 β , 00 x m + 2 + Σ i = 1 M β , i x m - i + β , - 1 y m - 1 + β , 0 x B . . . ( 8 )
这样,在下一帧正常地接收的情况下,通过利用了先前接收的对数量化预测残差与下一帧的对数量化预测残差的补偿处理专用的加权加法处理,进行当前帧的对数量化预测残差的补偿处理,利用补偿过的对数量化预测残差进行增益参数的解码,因此能够实现比单调衰减并利用先前的解码增益参数高的补偿性能。 
另外,通过使用使式(6)最小的式(7)以及式(8)的加权系数组,保证在丢失帧(两个子帧)以及作为丢失帧的下一帧(两子帧)为正常帧(两个子帧)的解码对数增益参数不会为远远地离开丢失帧的前一子帧的对数增益参数的值。因此,即使下一帧(两子帧)的解码对数增益参数未知,也能够有效地使用下一帧(两子帧)的接收信息(对数量化预测残差),并且将补偿到错误方向时的风险(远远地离开正确解码增益参数的风险)抑制到最低限。 
(实施方式5) 
图17是表示本发明实施方式5的语音编码装置的主要结构的方框图。图17表示在实施方式3说明了的、通过第二方法决定加权系数组,并对补偿模式信息En+1进行编码的例子,也就是说,利用第n帧的MA预测系数模式信息,以一比特表现第n-1帧的补偿模式信息的方法。 
此时,前一帧LPC补偿单元1003通过当前帧的解码量化预测残差与从两帧前到M+1帧前的解码量化预测残差的加权和,如使用图13说明的那样求第n-1帧的补偿LSF。在图13中使用第n+1帧的编码信息求第n帧的补偿LSF,相对于此,这里使用第n帧的编码信息求第n-1帧的补偿LSF,因此帧号码为错开了一个号码的对应关系。也就是说,通过第n帧(=当前帧)的MA预测系数编码,将αi (j)与αi(j)的组合限定于4种中的两种(也就是说在 第n帧的MA预测模式为模式0时,第n-1帧与第n帧的MA预测模式的组合为(0-0)或者(1-0),因此将加权系数β的组限定于这两种),前一帧LPC补偿单元1003使用这两种加权系数β的组,生成两种补偿LSFω0n (j)以及ω1n (j)。 
补偿模式判定器1004基于ω0n (j)和ω1n (j)中的哪个接近作为输入LSF的ωn (j)决定模式。ω0n (j)和ω1n (j)与ωn (j)之间的偏离程度,可以基于单纯的欧几里德距离,也可以如在ITU-T建议G.297的LSF量化使用那样地基于加权欧几里德距离。 
以下,说明图17的语音编码装置的各个部分的动作。 
输入信号sn分别输入到LPC分析单元1001、目标矢量计算单元1006以及滤波器状态更新单元1013。 
LPC分析单元1001对输入信号sn进行公知的线性预测分析,并将线性预测系数aj(j=0~M,M为线性预测分析阶数。a0=1.0)输出到脉冲响应计算单元1005、目标矢量计算单元1006、以及LPC编码单元1002。另外,LPC分析单元1001将线性预测系数aj变换为LSF参数ωn (j),并输出到补偿模式判定器1004。 
LPC编码单元1002进行输入了的LPC(线性预测系数)的量化/编码,并将量化线性预测系数a’j输出到脉冲响应计算单元1005、目标矢量计算单元1006、以及合成滤波单元1011。在本例中,LPC的量化/编码在LSF参数的域中进行。另外,LPC编码单元1002将LPC的编码结果Ln输出到复用单元1014,并将量化预测残差xn、解码量化LSF参数ω’n (j)、以及MA预测量化模式Kn输出到前一帧LPC补偿单元1003。 
前一帧LPC补偿单元1003将从LPC编码单元1002输出的第n帧的解码量化LSF参数ω’n (j)在缓冲器中保持两帧期间。两个帧前的解码量化LSF参数为ω’n-2 (j)。另外,前一帧LPC补偿单元1003将第n帧的解码量化预测残差xn保持M+1帧期间。另外,前一帧LPC补偿单元1003通过解码量化预测残差xn、两帧前的解码量化LSF参数ω’n-2 (j)与从两帧前到M+1帧前的解码量化预测残差xn-2~xn-M-1之间的加权和,生成第n-1帧的解码量化LSF参数ω0n (j)以及ω1n (j),并将它们输出到补偿模式判定器1004。这里,虽然前一帧LPC补偿单元1003具备四种用于求加权和时的加权系数的组,但是根据从LPC编码单元1002输入的MA预测量化模式信息Kn是0还是1,选择 四种中的两种用于ω0n (j)以及ω1n (j)的生成。 
补偿模式判定器1004判定从前一帧LPC补偿单元1003输出的两种补偿LSF参数ω0n (j)以及ω1n (j)中的哪种与从LPC分析单元1001输出的未量化LSF参数ωn (j)较近,将与用于生成较近的补偿LSF参数的加权系数的组对应的代码En输出到复用单元1014。 
脉冲响应计算单元1005使用从LPC分析单元1001输出的未量化线性预测系数aj以及从LPC编码单元1002输出的量化线性预测系数a’j,生成听觉加权合成滤波器的脉冲响应h,并将其输出到ACV编码单元1007以及FCV编码单元1008。 
目标矢量计算单元1006根据输入信号sn、从LPC分析单元1001输出的未量化线性预测系数aj、从LPC编码单元1002输出的量化线性预测系数a’j、以及从滤波器状态更新单元1012和1013输出的滤波器状态,计算目标矢量(从使输入信号通过听觉加权滤波器的信号中除去了听觉加权合成滤波器的零输入响应的信号)o,并将其输出到ACV编码单元1007、增益编码单元1009、以及滤波器状态更新单元1012。 
ACV编码单元1007从目标矢量计算单元1006输入目标矢量o、从脉冲响应计算单元1005输入听觉加权合成滤波器的脉冲响应h、以及从激励生成单元1010输入在前一帧生成的激励(excitation)信号ex,进行自适应码本搜索,并将作为结果的自适应码本代码An输出到复用单元1014、将量化音调延迟(pitch lag)T输出到FCV编码单元1008、将AC矢量v输出到激励生成单元1010、将听觉加权合成滤波器的脉冲响应h卷积到AC矢量v的滤波处理后的AC矢量成分p输出到滤波器状态更新单元1012以及增益编码单元1009、将用于固定码本搜索而更新了的目标矢量o’输出到FCV编码单元1008。更具体的搜索方法与ITU-T建议G.729等记载的方法相同。虽然在图17中省略了,但是一般而言,通过开环音调搜索等,决定进行闭环音调搜索的范围,从而抑制自适应码本搜索所需的运算量。 
FCV编码单元1008从ACV编码单元1007输入固定码本用目标矢量o’和量化音调延迟T、并从脉冲响应计算单元1005输入听觉加权合成滤波器的脉冲响应h,例如通过如ITU-T建议G.729所记载的那样的方法,进行固定码本搜索,将固定码本代码Fn输出到复用单元1014,将FC矢量u输出到激励生成单元1010,将听觉加权滤波器的脉冲响应卷积到FC矢量u的滤波处 理后的FC分量q输出到滤波器状态更新单元1012以及增益编码单元1009。 
增益编码单元1009从目标矢量计算单元1006输入目标矢量o,从ACV编码单元1007输入滤波处理后的AC矢量分量p,从FCV编码单元1008输入滤波处理后的FC矢量分量q,将使|o-(ga×p+gf×q)|2最小的ga和gf的组输出到激励生成单元1010作为量化自适应码本增益以及量化固定码本增益。 
激励生成单元1010从ACV编码单元1007输入自适应码本矢量v,从FCV编码单元1008输入固定码本矢量u,从增益编码单元1009输入自适应码本矢量增益ga以及固定码本矢量增益gf,按照ga×v+gf×u计算激励矢量ex,并将其输出到ACV编码单元1007以及合成滤波单元1011。输出到ACV编码单元1007的激励矢量ex,用于ACV编码单元内的ACB(先前生成的激励矢量的缓冲)的更新。 
合成滤波单元1011使用从激励生成单元1010输出的激励矢量ex,驱动以从LPC编码单元1002输出的量化线性预测系数a’j构成的线性预测滤波器,生成局部解码语音信号s’n,并将其输出到滤波器状态更新单元1013。 
滤波器状态更新单元1012从ACV编码单元1007输入合成自适应码本矢量p,从FCV编码单元1008输入合成固定码本矢量q,从目标矢量计算单元1006输入目标矢量o,生成目标矢量计算单元1006内的听觉加权滤波器的滤波器状态,并将其输出到目标矢量计算单元1006。 
滤波器状态更新单元1013计算从合成滤波单元1011输出的局部解码语音信号s’n与输入信号sn之间的误差,并将其输出到目标矢量计算单元1006作为目标矢量计算单元1006内的合成滤波器的状态。 
复用单元1014将复用了代码Fn、An、Gn、Ln、以及En的代码信息输出。 
另外,虽然在本实施方式中,表示了只对第n-1帧的解码量化LSF参数计算其与未量化LSF参数之间的误差的例子,但是也可以考虑第n帧的解码量化LSF参数与第n帧的未量化LSF参数之间的误差来决定补偿模式。 
这样,根据本实施方式的语音编码装置,与实施方式3的语音解码装置对应地确定最适于补偿处理的补偿处理用的加权系数组,并将该信息发送到解码器端,因此在解码器端能够得到更高的补偿性能,解码语音信号的质量得到改善。 
(实施方式6) 
图18是表示构成本发明的实施方式6的语音信号传输系统的语音信号发送装置以及语音信号接收装置的结构的方框图。与现有技术的不同之处仅在于,将实施方式5的语音编码装置适用于语音信号发送装置,而将实施方式1~3的任一个语音解码装置适用于语音信号接收装置。 
语音信号发送装置1100包括:输入装置1101、A/D变换装置1102、语音编码装置1103、信号处理装置1104、RF调制装置1105、发送装置1106以及天线1107。 
A/D变换装置1102的输入端子连接到输入装置1101。语音编码装置1103的输入端子连接到A/D变换装置1102的输出端子。信号处理装置1104的输入端子连接到语音编码装置1103的输出端子。RF调制装置1105的输入端子连接到信号处理装置1104的输出端子。发送装置1106的输入端子连接到RF调制装置1105的输出端子。天线1107连接到发送装置1106的输出端子。 
输入装置1101接收语音信号,将其变换为电信号的模拟语音信号,并提供给A/D变换装置1102。A/D变换装置1102将来自输入装置1101的模拟语音信号变换到数字语音信号,并且将其提供给语音编码装置1103。语音编码装置1103对来自A/D变换装置1102的数字语音信号进行编码而生成语音编码比特串,并将其提供给信号处理装置1104。信号处理装置1104在对来自语音编码装置1103的语音编码比特串进行信道编码处理、分组处理以及发送缓冲处理等后,将该语音编码比特串提供给RF调制装置1105。RF调制装置1105对来自信号处理装置1104的、进行了信道编码处理等的语音编码比特串的信号进行调制,并将其提供给发送装置1106。发送装置1106通过天线1107,将来自RF调制装置1105的调制后的语音编码信号作为电波(RF信号)发送。 
在语音信号发送装置1100中,对通过A/D变换装置1102得到的数字语音信号,以数十ms的帧单位进行处理。在构成系统的网络为分组网的情况下,将一个帧或者数个帧的编码数据装入一个分组,并将该分组输送到分组网。另外,在上述网络为线路交换网的情况下,无需进行分组化处理和发送缓冲处理。 
语音信号接收装置1150包括:天线1151、接收装置1152、RF解调装置1153、信号处理装置1154、语音解码装置1155、D/A变换装置1156、以及输出装置1157。 
接收装置1152的输入端子连接到天线1151。RF解调装置1153的输入 端子连接到接收装置1152的输出端子。信号处理装置1154的两个输入端子连接到RF解调装置1153的两个输出端子。语音解码装置1155的两个输入端子与信号处理装置1154的两个输出端子连接。D/A变换装置1156的输入端子连接到语音解码装置1155的输出端子。输出装置1157的输入端子连接到D/A变换装置1156的输出端子。 
接收装置1152通过天线1151接收包含了语音编码信息的电波(RF信号),生成模拟电信号的接收语音编码信号,并将其提供给RF解码装置1153。若在传输路径中不存在信号的衰减和噪声的重叠,则通过天线接收到的电波(RF信号)与在语音信号发送装置送出的电波(RF信号)完全相同。 
RF解调装置1153对来自接收装置1152的接收语音编码信号进行解调,并提供给信号处理装置1154。而且,将接收语音编码信号是否正常解调的信息另外提供给信号处理装置1154。信号处理装置1154对来自RF解调装置1153的接收语音编码信号进行抖动(jitter)吸收缓冲处理、分组组装处理以及信道解码处理等,并将接收语音编码比特串提供给语音解码装置1155。另外,从RF解调装置1153输入接收语音编码信号是否正常解调的信息,在从RF解调装置1153输入的信息表示“未能正常解调”、或者在信号处理装置内的分组组装处理等未正常地进行而未能正常地解码接收语音编码比特串时,将发生了帧丢失的事实提供给语音解码装置1155作为帧丢失信息。语音解码装置1155对来自信号处理装置1154的接收语音编码比特串进行解码处理而生成解码语音信号,并将其提供给D/A变换装置1156。语音解码装置1155根据与接收语音编码比特串平行输入的帧丢失信息,决定进行通常的解码处理,还是通过帧丢失补偿(隐蔽)处理而进行解码处理。D/A变换装置1156将来自语音解码装置1155的数字解码语音信号变换为模拟解码语音信号,并将其提供给输出装置1157。输出装置1157将来自D/A变换装置1156的模拟语音解码信号变换为空气振动并且将其输出以使人耳听得见。 
这样,通过具备在实施方式1到实施方式5中表示的语音编码装置以及语音解码装置,即使发生了传输路径差错(特别是以分组丢失为代表的帧丢失差错)的情况下,也能够得到比现有技术优良的质量的解码语音信号。 
(实施方式7) 
虽然在上述实施方式1到6中,说明了作为预测模式使用MA型的情形,但是本发明并不只限于此,作为预测模式也可以使用AR型。在实施方式7 中,说明作为预测模式使用AR型的情形。另外,实施方式7的语音解码装置的结构除了LPC解码单元的内部结构不同以外,与图1相同。 
图19是表示本实施方式的语音解码装置的LPC解码单元105的内部结构的方框图。另外,在图19中,与图2共通的结构部分赋予与图2相同的标号,并省略其详细的说明。 
图19所示的LPC解码单元105与图2比较,采用以下的结构:即去除了与预测相关的部分(缓冲器204、放大器205、以及加法器206)、以及与帧丢失补偿相关的部分(代码矢量解码单元203以及缓冲器207),追加了用于置换它们的结构部分(代码矢量解码单元1901、放大器1902、加法器1903、以及缓冲器1904)。 
LPC代码Ln+1输入到缓冲器201以及代码矢量解码单元1901,帧丢失代码Bn+1输入到缓冲器202、代码矢量解码单元1901以及选择器209。 
缓冲器201将下一帧的LPC代码Ln+1保持一帧期间,并将其输出到代码矢量解码单元1901。从缓冲器201输出到代码矢量解码单元1901的LPC代码,由缓冲器201保持了一帧期间的结果,成为当前帧的LPC代码Ln。 
缓冲器202将下一帧的帧丢失代码Bn+1保持一帧期间,并将其输入到代码矢量解码单元1901。从缓冲器202输出到代码矢量解码单元1901的帧丢失代码,由缓冲器202保持了一帧期间的结果,成为当前帧的帧丢失代码Bn。 
代码矢量解码单元1901输入前一帧的解码LSF矢量yn-1、下一帧的LPC代码Ln+1、下一帧的帧丢失代码Bn+1、当前帧的LPC代码Ln以及当前帧的帧丢失代码Bn,基于这些信息,生成当前帧的量化预测残差矢量xn,并将其输出到加法器1903。另外,代码矢量解码单元1901的细节后述。 
放大器1902将前一帧的解码LSF矢量yn-1与规定的AR预测系数a1进行乘法运算,并将运算结果输出到加法器1903。 
加法器1903计算从放大器1902输出的预测LSF矢量(也就是将前一帧的解码LSF矢量与AR预测系数相乘而得到的矢量)与从代码矢量解码单元1901输出的当前帧的量化预测残差矢量xn的和,并将作为计算结果的解码LSF矢量yn输出到缓冲器1904以及LPC变换单元208。 
缓冲器1904将当前帧的解码LSF矢量yn保持一帧期间,并将其输出到代码矢量解码单元1901以及放大器1902。输入到这些单元的解码LSF矢量,由缓冲器1904保持了一帧期间的结果,成为前一帧的解码LSF矢量yn-1。 
另外,在选择器209选择从缓冲器210输出的前一帧的解码LPC参数的情况下,实际上可以不进行从代码矢量解码单元1901到LPC变换单元208为止的处理的所有处理。 
接下来,利用图20的方框图详细说明图19的代码矢量解码单元1901的内部结构。 
码本2001生成由当前帧的LPC代码Ln确定的代码矢量,输出到切换开关309,并且生成由下一帧的LPC代码Ln+1确定的代码矢量,输出到放大器2002。另外,码本既有可能为多层结构,也有可能为分离结构。 
放大器2002将从码本2001输出的代码矢量xn+1与加权系数b0进行乘法运算,并将运算结果输出到加法器2005。 
放大器2003进行求前一帧的解码LSF矢量生成所需的、当前帧中的量化预测残差矢量的处理。也就是说,放大器2003计算当前帧的矢量xn,以使前一帧的解码LSF矢量yn-1成为当前帧的解码LSF矢量yn。具体而言,放大器2003将输入的前一帧的解码LSF矢量yn-1与系数(1-a1)相乘。然后,放大器2003将计算结果输出到切换开关309。 
放大器2004将输入的前一帧的解码LSF矢量yn-1与加权系数b-1进行乘法运算,并将运算结果输出到加法器2005。 
加法器2005计算从放大器2002以及放大器2004输出的矢量的和,并将成为计算结果的代码矢量输出到切换开关309。也就是说,加法器2005对根据下一帧的LPC代码Ln+1确定的代码矢量、以及前一帧的解码LSF矢量,进行加权加法运算,从而计算当前帧的矢量xn。 
在当前帧的帧丢失代码Bn表示“第n帧为正常帧”的情况下,切换开关309选择从码本2001输出的代码矢量,并将其作为当前帧的量化预测残差矢量xn输出。另一方面,在当前帧的帧丢失代码Bn表示“第n帧为丢失帧”的情况下,切换开关309根据下一帧的帧丢失代码Bn+1具有哪种信息来进一步选择要输出的矢量。 
也就是说,在下一帧的帧丢失代码Bn+1表示“第n+1帧为丢失帧”的情况下,切换开关309选择从放大器2003输出的矢量,并将其作为当前帧的量化预测残差矢量xn输出。另外,在该情况下,无需进行从码本2001以及放大器2002、2004到加法器2005为止的、用于生成矢量的过程的处理。而且,此时,因为只要将yn-1作为yn使用即可,所以也可以不必通过放大器2003的 处理而生成xn。 
另外,在下一帧的帧丢失代码Bn+1表示“第n+1帧为正常帧”的情况下,切换开关309选择从加法器2005输出的矢量,并将其作为当前帧的量化预测残差矢量xn输出。另外,此时无需进行放大器2003的处理。 
另外,本实施方式的补偿处理,决定加权系数b-1以及b0,以使第n-1帧的解码参数yn-1与第n帧的解码参数yn之间的距离,以及第n帧的解码参数yn与第n+1帧的解码参数yn+1之间的距离的和D(D如下式(9)所示)最小,从而使解码参数的帧间的变动平缓。 
D=|yn+1-yn|2+|yn-yn-1|2
 =|xn+1+a1yn-xn-a1yn-1|2+|xn+a1yn-1-yn-1|2
 =|xn+1+a1(xn+a1yn-1)-xn-a1yn-1|2+|xn+(a1-1)yn-1|2   …(9) 
以下,表示一例加权系数b-1以及b0的决定方法。为了使式(9)的D最小,对于丢失了的第n帧的解码量化预测残差xn解以下的方程式(10)。其结果,能够按照下式(11)求xn。另外,预测系数在各阶不同时,将式(9)替换成式(12)。a1表示AR预测系数、a1 (j)表示AR预测系数组的第j分量(也就是说,与前一帧的解码LSF矢量yn-1的第j分量即yn-1 (j)相乘的系数)。 
∂ D ∂ x n = 2 ( a 1 2 - 2 a 1 + 2 ) x n + 2 ( a 1 - 1 ) ( 1 - a 1 + a 1 2 ) y n - 1 + 2 ( a 1 - 1 ) x n + 1 = 0 . . . ( 10 )
xn=b0xn+1+b-1yn-1                                   …(11) 
b0=(1-a1)(a1 2-2a1+2)-1
b-1=(a1 2-2a1+2)-1-a1
D ( j ) = | y n ( j ) - y n - 1 ( j ) | 2 + | y n + 1 ( j ) - y n ( j ) | 2 . . . ( 12 )
y n ( j ) = a 1 ( j ) y n - 1 ( j ) + x n ( j )
y n + 1 ( j ) = a 1 ( j ) y n ( j ) + x n + 1 ( j )
x n ( j ) = b 0 ( j ) x n + 1 ( j ) + b - 1 ( j ) y n - 1 ( j ) - - - ( 12 )
b 0 ( j ) = ( 1 - a 1 ( j ) ) ( ( a 1 ( j ) ) 2 - 2 a 1 ( j ) + 2 ) - 1
b - 1 ( j ) = ( ( a 1 ( j ) ) 2 - 2 a 1 ( j ) + 2 ) - 1 - a 1 ( j )
上式中的x、y、a如下所示。 
xn (j):第n帧的LSF参数的第j分量的量化预测残差 
yn (j):第n帧的解码LSF参数的第j分量 
a1 (j):AR预测系数组的第j分量 
如上所述,根据使用AR型作为预测模式的本实施方式,在当前帧丢失的情况下,只要下一帧被正常地接收,根据利用了先前解码的参数、以及下一帧的量化预测残差的补偿处理专用的加权加法处理(加权线性和),进行当前帧的LSF参数的解码量化预测残差的补偿处理,并使用补偿了的量化预测残差进行LSF参数的解码。由此,能够实现比重复使用先前的解码LSF参数高的补偿性能。 
另外,也可以将在实施方式2到4说明了的内容适用于使用AR型的本实施方式,此时也能够得到与上述同样的效果。 
(实施方式8) 
虽然在上述实施方式7中,说明了预测系数的组只有一种的情形,但是本发明并不只限于此,与实施方式2以及3同样地也能够适用于存在多种预测系数的组的情形。在实施方式8中,说明一例使用存在多种预测系数组的AR型预测模式的情形。 
图21是表示实施方式8的语音解码装置的方框图。另外,图21所示的语音解码装置100的结构,除了LPC解码单元的内部结构不同,以及不存在从复用分离单元101到LPC解码单元105的补偿模式信息En+1的输入线以外,与图11相同。 
图22是表示本实施方式的语音解码装置的LPC解码单元105的内部结构的方框图。另外,在图22中,与图19共通的结构部分赋予与图19相同的标号,并省略该详细的说明。 
图22所示的LPC解码单元105与图19相比较,采用追加了缓冲器2202和系数解码单元2203的结构。另外,图22的代码矢量解码单元2201的动作以及内部结构与图19的代码矢量解码单元1901不同。 
LPC代码Vn+1输入到缓冲器201以及代码矢量解码单元2201,帧丢失代码Bn+1输入到缓冲器202、代码矢量解码单元2201以及选择器209。 
缓冲器201将下一帧的LPC代码Vn+1保持一帧期间,并将其输出到代码矢量解码单元2201。从缓冲器201输出到码本矢量解码单元2201的LPC代码,由缓冲器201保持了一帧期间的结果,成为当前帧的LPC代码Vn。另 外,缓冲器202将下一帧的帧丢失代码Bn+1保持一帧期间,并将其输出到代码矢量解码单元2201。 
代码矢量解码单元2201输入前一帧的解码LSF矢量yn-1、下一帧的LPC代码Vn+1、下一帧的帧丢失代码Bn+1、当前帧的LPC代码Vn、下一帧的预测系数代码Kn+1、以及当前帧的帧丢失代码Bn,基于这些信息,生成当前帧的量化预测残差矢量xn,并将其输出到加法器1903。另外,代码矢量解码单元2201的细节后述。 
缓冲器2202将AR预测系数代码Kn+1保持一帧期间,并将其输出到系数解码单元2203。其结果,从缓冲器2202输出到系数解码单元2203的AR预测系数代码,成为前一帧的AR预测系数代码Kn。 
系数解码单元2203存储多种系数组,根据帧丢失代码Bn和Bn+1、以及AR预测系数代码Kn和Kn+1确定系数组。这里,系数解码单元2203的系数组的确定方法为以下的三种。 
在输入了的帧丢失代码Bn表示“第n帧为正常帧”的情况下,系数解码单元2203选择以AR预测系数代码Kn指定的系数组。 
另外,在输入的帧丢失代码Bn表示“第n帧为丢失帧”,帧丢失代码Bn+1表示“第n+1帧为正常帧”的情况下,系数解码单元2203使用所接收的AR预测系数代码Kn+1、作为第n+1帧的参数,决定成为选择对象的系数组。也就是说,直接使用Kn+1、以代替AR预测系数代码Kn。或者也可以预先决定在这样的情况下所使用的系数组,与Kn+1无关地使用该预先决定的系数组。 
另外,在输入的帧丢失代码Bn表示“第n帧为丢失帧”,并且帧丢失代码Bn+1、表示“第n+1帧为丢失帧”的情况下,能够利用的信息只有在前一帧使用了的系数组的信息,因此系数解码单元2203重复使用在前一帧使用过的系数组。也可以固定地使用预先决定了的模式的系数组。 
然后,系数解码单元2203将AR预测系数a1输出到放大器1902,并将AR预测系数(1-a1)输出到代码矢量解码单元2201。 
放大器1902将前一帧的解码LSF矢量yn-1与从系数解码单元2203输入的AR预测系数a1进行乘法运算,并将运算结果输出到加法器1903。 
接下来,利用图23的方框图详细说明图22的代码矢量解码单元2201的内部结构。另外,在图23中,与图20共同的结构部分赋予与图20相同的标号,并省略其详细的说明。图23的代码矢量解码单元2201采用对图20的 代码矢量解码单元1901追加了系数解码单元2301的结构。 
系数解码单元2301存储多种系数组,根据AR预测系数代码Kn+1确定系数组,并将其输出到放大器2002和2004。另外,也能够使用从系数解码单元2203输出的AR预测系数a1计算这里所使用的系数组,此时无需预先存储系数组,只要输入AR预测系数a1并计算即可。具体的计算方法后述。 
码本2001生成由当前帧的LPC代码Vn确定的代码矢量,输出到切换开关309,并且生成由下一帧的LPC代码Vn+1确定的代码矢量,输出到放大器2002。另外,码本既有可能为多层结构,也有可能为分离结构。 
放大器2002将从码本2001输出的代码矢量xn+1与从系数解码单元2301输出的加权系数b0进行乘法运算,并将运算结果输出到加法器2005。 
放大器2003将从系数解码单元2203输出的AR预测系数(1-a1)与前一帧的解码LSF矢量yn-1进行乘法运算,并将运算结果输出到切换开关309。另外,在安装时即使不设置这样的路径,只要具备能够将缓冲器1904的输出代替加法器1903的输出而输入到LPC变换单元208的切换结构,以代替进行放大器2003和放大器1902以及加法器1903的处理,则无需设置经由放大器2003的路径。 
放大器2004将输入的前一帧的解码LSF矢量yn-1与从系数解码单元2301输出的加权系数b-1进行乘法运算,并将运算结果输出到加法器2005。 
另外,本实施方式的补偿处理,决定加权系数b-1以及b0,以使第n-1帧的解码参数yn-1与第n帧的解码参数yn之间的距离,以及第n帧的解码参数yn与第n+1帧的解码参数yn+1之间的距离的和D(D如下式(13)所示)最小,从而使解码参数的帧间的变动平缓。 
 D=|yn+1-yn|2+|yn-yn+1|2
  =|xn+1+a’1yn-xn-a1yn-1|2+|xn+a1yn-1-yn-1|2
  =|xn+1+a’1(xn+a1yn-1)-xn-a1yn-1|2+|xn+(a1-1)yn-1|2…(13) 
以下,表示一例加权系数b-1以及b0的决定方法。为了使式(13)的D最小,对于丢失了的第n帧的解码量化预测残差xn解以下的方程式(14)。其结果,能够通过下式(15)求xn。另外,预测系数在各阶不同时,将式(13)替换成式(16)。a’1表示第n+1帧的AR预测系数,a1表示第n帧的AR预测 系数,a1 (j)表示AR预测系数组的第j分量(也就是说,与前一帧的解码LSF矢量yn-1的第j分量即yn-1 (j)相乘的系数)。 
∂ D ∂ x n = 2 ( a , 1 2 - 2 a , 1 + 2 ) x n + 2 { a 1 ( a , 1 2 + a , 1 + 2 ) - 1 } y n - 1 + 2 ( a 1 - 1 ) x n + 1 = 0 . . . ( 14 )
xn=b0xn+1+b-1yn-1                              …(15) 
b0=(1-a’1)(a’1 2-2a’1+2)-1
b-1=(a’1 2-2a’1+2)-1-a1
D ( j ) = | y n ( j ) - y n - 1 ( j ) | 2 + | y n + 1 ( j ) - y n ( j ) | 2 . . . ( 16 )
y n ( j ) = a 1 ( j ) y n - 1 ( j ) + x n ( j )
y n + 1 ( j ) = a 1 , ( j ) y n ( j ) + x n + 1 ( j )
x n ( j ) = b 0 ( j ) x n + 1 ( j ) + b - 1 ( j ) y n - 1 ( j ) - - - ( 12 )
b 0 ( j ) = ( 1 - a 1 , ( j ) ) ( ( a 1 , ( j ) ) 2 - 2 a 1 , ( j ) + 2 ) - 1
b - 1 ( j ) = ( ( a 1 , ( j ) ) 2 - 2 a 1 , ( j ) + 2 ) - 1 + a 1 ( j )
上式中的x、y、a如下所示。 
xn (j):第n帧的LSF参数的第j分量的量化预测残差 
yn (j):第n帧的解码LSF参数的第j分量 
a1 (j):第n帧的AR预测系数组的第j分量 
a’1 (j):第n+1帧的AR预测系数组的第j分量 
这里,如果第n帧为丢失帧,第n帧的预测系数组是未知的。决定a1的方法可考虑几种。首先,存在像实施方式2那样在第n+1帧作为追加信息进行发送的方法。但是,需要追加的比特,在编码器端也需要修正。接下来,存在使用在第n-1帧使用的预测系数组的方法。进而,存在使用在第n+1帧接收的预测系数组的方法。此时,a1=a’1。另外还有一直使用特定的预测系数组的方法。但是,如后述那样,即使这里使用不同的a1,只要使用相同的a1进行AR预测,则所解码的yn相同。在使用AR预测的预测量化的情况下, 因为量化预测残差xn与预测无关,只有所解码的量化参数yn与预测有关,所以此时a1可为任意的值。 
只要a1被决定,则能够根据式(15)或者式(16)决定b0和b1,从而能够生成丢失帧的代码矢量xn。 
另外,若将通过上式(16)得到的丢失帧的代码矢量xn代入到表示yn的式子(yn=a1yn-1+xn),则成为下式(17)那样。因此,通过补偿处理生成的丢失帧中的解码参数能够根据xn+1、yn-1以及a’1直接求出。此时,能够进行不使用丢失帧中的预测系数a1的补偿处理。 
y n ( j ) = ( ( a 1 , ( j ) ) 2 - 2 a 1 , ( j ) + 2 ) - 1 ( ( 1 - a 1 , ( j ) ) x n + 1 ( j ) + y n - 1 ( j ) ) . . . ( 17 )
这样,根据本实施方式,除了在实施方式7说明过的特征,由于准备多个预测系数组,进行补偿处理,因此能够实现比实施方式7更高的补偿性能。 
(实施方式9) 
虽然在上述实施方式1到8中,说明了接收n+1帧后进行n帧的解码的情形,但是本发明并不只限于此,在使用n-1帧的解码参数进行n帧的生成,然后进行n+1帧的解码时,能够使用本发明的方法进行n帧的参数的解码,并以其结果更新预测器的内部状态后进行n+1帧的解码。 
在实施方式9中说明该情形。实施方式9中的语音解码装置的结构与图1相同。另外,虽然可以使LPC解码单元105的结构与图19相同,但是为了明确对n+1帧的编码信息输入进行n+1帧的解码,将其像图24那样改写。 
图24是表示本实施方式的语音解码装置的LPC解码单元105的内部结构的方框图。另外,在图24中,与图19共同的结构部分赋予与图19相同的标号,并省略其详细的说明。 
图24所示的LPC解码单元105与图19比较,采用以下结构:去除了缓冲器201,代码矢量解码单元的输出为xn+1,解码参数为n+1帧的解码参数(yn+1),以及追加了切换开关2402。另外,图24的代码矢量解码单元2401的动作以及内部结构与图19的代码矢量解码单元1901不同。 
LPC代码Ln+1输入到代码矢量解码单元2401,帧丢失代码Bn+1输入到缓冲器202、代码矢量解码单元2401以及选择器209。 
缓冲器202将当前帧的帧丢失代码Bn+1保持一帧期间,并将其输出到代 码矢量解码单元2401。从缓冲器202输出到代码矢量解码单元2401的帧丢失代码,由缓冲器202保持了一帧期间的结果,成为前一帧的帧丢失代码Bn。 
代码矢量解码单元2401输入两帧前的解码LSF矢量yn-1、当前帧的LPC代码Ln+1、以及当前帧的帧丢失代码Bn+1,基于这些信息,生成当前帧的量化预测残差矢量xn+1以及前一帧的解码LSF矢量y’n,并将它们分别输出到加法器1903以及切换开关2402。另外,代码矢量解码单元2401的细节后述。 
放大器1902将前一帧的解码LSF矢量yn或者y’n与规定的AR预测系数a1进行乘法运算,并将运算结果输出到加法器1903。 
加法器1903计算从放大器1902输出的预测LSF矢量(也就是将前一帧的解码LSF矢量与AR预测系数相乘得到的矢量),并将作为计算结果的解码LSF矢量yn+1输出到缓冲器1904以及LPC变换单元208。 
缓冲器1904将当前帧的解码LSF矢量yn+1保持一帧期间,并将其输出到代码矢量解码单元2401以及切换开关2402。输入到这些单元的解码LSF矢量,由缓冲器1904保持了一帧期间的结果,成为前一帧的解码LSF矢量yn。 
切换开关2402根据前一帧的帧丢失代码Bn,选择前一帧的解码LSF矢量yn,或者通过代码矢量解码单元2401使用当前帧的LPC代码Ln+1重新生成的前一帧的解码LSF矢量y’n的其中一个。在Bn表示丢失帧的情况下,切换开关2402选择y’n。 
另外,在选择器209选择从缓冲器210输出的前一帧的解码LPC参数的情况下,实际上可以不进行从代码矢量解码单元2401到LPC变换单元208为止的处理的所有处理。 
接下来,利用图25的方框图详细说明图24的代码矢量解码单元2401的内部结构。另外,在图25中,与图20共同的结构部分赋予与图20相同的标号,并省略其详细的说明。图25的代码矢量解码单元2401采用对图20的代码矢量解码单元1901追加了缓冲器2502、放大器2503以及加法器2504的结构。另外,图25的切换开关2501的动作以及内部结构与图20的切换开关309不同。 
码本2001生成由当前帧的LPC代码Ln+1确定的代码矢量,将其输出到切换开关2501,并输出到放大器2002。 
放大器2003进行求前一帧的解码LSF矢量生成所需的、当前帧中的量 化预测残差矢量的处理。也就是说,放大器2003计算当前帧的矢量xn+1,以使前一帧的解码LSF矢量yn成为当前帧的解码LSF矢量yn+1。具体而言,放大器2003将输入的前一帧的解码LSF矢量yn与系数(1-a1)相乘。然后,放大器2003将计算结果输出到切换开关2501。 
在当前帧的帧丢失代码Bn+1表示“第n+1帧为正常帧”的情况下,切换开关2501选择从码本2001输出的代码矢量,并将其作为当前帧的量化预测残差矢量xn+1输出。另一方面,在当前帧的帧丢失代码Bn+1表示“第n+1帧为丢失帧”的情况下,切换开关2501选择从放大器2003输出的矢量,并将其作为当前帧的量化预测残差矢量xn+1输出。另外,在该情况下,无需进行从码本2001以及放大器2002、2004到加法器2005为止的、用于生成矢量的过程的处理。 
缓冲器2502将前一帧的解码LSF矢量yn保持一帧期间,并将其作为两帧前的解码LSF矢量yn-1输出到放大器2004以及放大器2503。 
放大器2004将输入的两帧前的解码LSF矢量yn-1与加权系数b-1进行乘法运算,并将运算结果输出到加法器2005。 
加法器2005计算从放大器2002以及放大器2004输出的矢量的和,并将作为计算结果的代码矢量输出到加法器2504。也就是说,加法器2005对根据当前帧的LPC代码Ln+1确定的代码矢量、以及两帧前的解码LSF矢量,进行加权加法运算,从而计算前一帧的矢量xn,并将运算结果输出到加法器2504。 
放大器2503将两帧前的解码LSF矢量yn-1与预测系数a1进行乘法运算,并将运算结果输出到加法器2504。 
加法器2504对加法器2005的输出(进行了使用当前帧的LPC代码Ln+1的再计算所得到的前一帧的解码矢量xn)与放大器2503的输出(将两帧前的解码LSF矢量yn-1与预测系数a1相乘所得到的矢量)进行加法运算,从而对前一帧的解码LSF矢量y’n进行再计算。 
另外,本实施方式的解码LSF矢量y’n的再计算的方法与实施方式7中的补偿处理相同。 
如上所述,根据本实施方式,形成将通过实施方式7的补偿处理所得到的解码矢量xn,只利用在第n+1帧的解码时的预测器内部状态的结构,由此能够将在实施方式7所需的处理延迟削减相当于一帧。 
(实施方式10) 
虽然在上述实施方式1到9中,只在LPC解码单元中的结构以及处理上具有特征,但是本实施方式的语音解码装置的结构对于LPC解码单元外的结构具有特征。虽然本发明能够适用于图1、图8、图11、以及图21的任意一个,但是在本实施方式中,以适用于图21的情形为例进行说明。 
图26是表示本实施方式的语音解码装置的方框图。在图26中,对与图21相同的构成要素,赋予与图21相同的标号,并省略其详细说明。图26所示的语音解码装置100与图21相比较,采用追加了滤波器增益计算单元2601、激励功率控制单元2602、以及放大器2603的结构。 
LPC解码单元105将解码所得的LPC输出到LPC合成单元109以及滤波器增益计算单元2601。而且,LPC解码单元105将与解码中的第n帧对应的帧丢失代码Bn输出到激励功率控制单元2602。 
滤波器增益计算单元2601计算由从LPC解码单元105输入的LPC构成的合成滤波器的滤波器增益。作为滤波器增益的计算方法的一例,存在求脉冲响应的能量的平方根而作为滤波器增益的方法。这是基于,若将输入信号考虑成能量为1的脉冲,则以所输入的LPC构成的合成滤波器的脉冲响应的能量直接成为滤波器增益信息。另外,作为其它的滤波器增益的计算方法的例子,还有以下的方法:根据LPC使用Levinson-Durbin的算法能够求线性预测残差的平方平均值,由此使用其倒数作为滤波器增益信息,将线性预测残差的平方平均的倒数的平方根作为滤波器增益。求出的滤波器增益输出到激励功率控制单元2602。另外,作为表示滤波器增益的参数,也可以将脉冲响应的能量或线性预测残差的平方平均值,不取平方根地输出到激励功率控制单元2602。 
激励功率控制单元2602从滤波器增益计算单元2601输入滤波器增益,计算激励信号的振幅调整用的缩放(scaling)系数。激励功率控制单元2602在其内部具备存储器,将前一帧的滤波器增益保持在存储器中。存储器的内容在计算出缩放系数后,改写为所输入的当前帧的滤波器增益。若将当前帧的滤波器增益设为FGn,将前一帧的滤波器增益设为FGn-1,将增益增加率的上限值设为DGmax,则根据例如SGn=DGmax×FGn-1/FGn的式子进行缩放系数SGn的计算。这里,增益增加率以FGn/FGn-1来定义,表示当前帧的滤波器增益为前一帧的滤波器增益的多少倍的比率。将该上限值预先决定为DGmax。 在通过帧丢失隐蔽处理而创建的合成滤波器中,滤波器增益对于前一帧的滤波器增益骤然上升了时,合成滤波器的输出信号的能量也骤然上升,解码信号(合成信号)在局部成为较大振幅,从而产生异常噪声。为了避免其发生,在合成滤波器的滤波器增益与前一帧的滤波器增益相比变大于规定的增益增加率的情况下,降低作为合成滤波器的驱动信号的解码激励信号的功率(power),所述合成滤波器由通过帧丢失隐蔽处理而生成的解码LPC构成。用于此目的的系数为缩放系数,所述规定的增益增加率为增益增加率的上限值DGmax。通常,若将DGmax设为1或者如0.98等比1小一些的值,则能避免异常噪声的发生。另外,在FGn/FGn-1为DGmax以下的情况下,可以使SGn=1.0而不进行放大器2603中的缩放处理。 
另外,作为缩放系数SGn的其它算法,有根据例如SGn=Max(SGmax,FGn-1/FGn)来求的方法。这里,SGmax表示缩放系数的最大值,设为例如1.5那样的比1大一些的值。另外,Max(A,B)为输出A和B中较大的值的函数。在SGn=FGn-1/FGn的情况下,相当于滤波器增益增加了的部分,激励信号的功率下降,当前帧的解码合成信号的能量(energy)与前一帧的解码合成信号的能量相同。由此,能够避免在前论述的合成信号能量的骤然上升,并且能够避免合成信号能量的骤然衰减。在与前一帧的滤波器增益相比,当前帧的滤波器增益变小的情况下,有时会发生合成信号能量骤然衰减,而识别为声音中断的情况。在这样的情况下,若设SGn=FGn-1/FGn,则SG为1以上的值,从而实现避免合成信号能量的局部的衰减的作用。但是,以帧丢失补偿处理生成的激励信号作为激励信号不一定适当,因此将缩放系数设得太大,反而失真显著而导致质量劣化。因此,对缩放系数设定上限,在FGn-1/FGn超过该上限值的情况下,消波(clipping)为上限值。 
另外,也可以不在激励功率控制单元2602内的存储器中保持前一帧的滤波器增益或者表示滤波器增益的参数(合成滤波器的脉冲响应的能量等),而从激励功率控制单元2602的外部输入。特别是在语音解码器的其它部分利用有关前一帧的滤波器增益的信息的情况下,也可以从外部输入上述参数,而不在激励功率控制单元2602的内部进行改写。 
然后,激励功率控制单元2602从LPC解码单元105输入帧丢失代码Bn,在Bn表示当前帧为丢失帧的情况下,将计算出的缩放系数输出到放大器2603。另一方面,在Bn表示当前帧不是丢失帧的情况下,激励功率控制单元 2602将1作为缩放系数输出到放大器2603。 
放大器2603将从激励功率控制单元2602输入的缩放系数与从加法器108输入的解码激励信号进行乘法运算,并将运算结果输出到LPC合成单元109。 
这样,根据本实施方式,在由通过帧丢失隐蔽处理而生成的解码LPC构成的合成滤波器的滤波器增益对于前一帧的滤波器增益变化的情况下,通过调整作为合成滤波器的驱动信号的解码语音信号的功率,能够防止异常噪声和声音中断的发生。 
另外,也可以采用即使在Bn表示当前帧不是丢失帧的情况下,其前一个帧为丢失帧(也就是Bn-1表示前一帧为丢失帧)的情况下,激励功率控制单元2602将计算出的缩放系数输出到放大器2603的结构。这是因为,在利用了预测编码的情况下,有时来自帧丢失的回归帧中也残留着差错的影响。在该情况下也能够得到与上述同样的效果。 
以上,说明了本发明的实施方式。 
另外,虽然在上述各个实施方式中将编码参数作为LSF参数,但是本发明并不只限定于此,只要是在帧间的变动较为平缓的参数,能够适用任何的参数,例如可以适用导抗谱频率(immittance spectrum frequencies:ISFs) 
另外,虽然在上述各个实施方式中将编码参数作为LSF参数本身,但是也可以采用取自平均的LSF的差分的、去除平均值后的LSF参数。 
另外,本发明的参数解码装置/参数编码装置除了适用语音解码装置/语音编码装置,也能够安装在移动通信系统中的通信终端装置和基站装置,由此能够提供具有与上述相同作用效果的通信终端装置、基站装置、以及移动通信系统。 
另外,这里以硬件构成本发明的情况为例进行了说明,但本发明也能够以软件实现。例如,通过编程语言,对本发明的参数解码方法的算法进行记述,并在存储器中存储该程序并通过信息处理装置来实行,从而能够实现与本发明的参数解码装置相同的功能。 
另外,上述各实施方式的说明中的各功能块一般可实现为作为集成电路的LSI。这些既可以分别实行单芯片化,也可以包含其中一部分或者是全部而实行单芯片化。 
另外,在此虽然称为LSI,但根据集成度的不同也可以称为IC(集成电 路)、系统LSI、超大LSI、特大LSI。 
另外,实现集成电路化的方法不仅限于LSI,也可使用专用电路或通用处理器来实现。也可以利用LSI制造后能够编程的FPGA(Field ProgrammableGate Array,现场可编程门阵列),或可以利用将LSI内部的电路块连接或设定重新配置的可重配置处理器(Reconfigurable Processor)。 
另外,如果随着半导体技术的进步或者其他技术的派生,出现了替换LSI集成电路的技术,当然也可以利用该技术来实现功能块的集成化。存在着适用生物技术等可能性。 
2006年11月10日提交的日本专利申请第2006-305861号、2007年5月17日申请的日本专利申请第2007-132195号、以及2007年9月14日申请的日本专利申请第2007-240198号所包含的说明书、说明书附图以及说明书摘要的公开内容,全都引用于本申请。 
工业实用性 
本发明的参数解码装置、参数编码装置以及参数解码方法,能够适用于语音解码装置、语音编码装置,进一步适用于移动通信系统中的通信终端装置、基站装置等用途。 

Claims (4)

1.参数解码装置,包括:
预测残差解码单元,基于语音编码比特串的当前帧中所包含的编码信息,求量化预测残差;以及
参数解码单元,基于所述量化预测残差,对参数进行解码,
在所述当前帧丢失的情况下,所述预测残差解码单元使用多个加权系数的组中使先前帧的解码参数与当前帧的解码参数之间的距离、以及当前帧的解码参数与未来帧的解码参数之间的距离之和为最小的加权系数组,计算先前帧的解码参数以及未来帧的量化预测残差的加权线性和,并将该计算结果作为当前帧的量化预测残差使用。
2.如权利要求1所述的参数解码装置,所述预测残差解码单元存储多个加权系数的组,在所述当前帧丢失的情况下,基于来自通信对方的指示,选择所述加权系数的组,并将其与所述先前帧的解码参数以及所述未来帧的量化预测残差进行乘法运算。
3.参数编码装置,包括:
分析单元,分析输入的语音信号而求分析参数;
编码单元,使用预测系数预测所述分析参数,使用对预测残差进行量化得到的量化预测残差和所述预测系数获得量化参数;
前一帧补偿单元,存储多个加权系数的组,对当前帧的所述量化预测残差、两帧前的帧的所述量化预测残差、以及两帧前的帧的所述量化参数,使用所述加权系数的组求加权和,并使用所述加权和求一帧前的帧的多个所述量化参数;以及
判定单元,将由所述前一帧补偿单元求出的所述一帧前的帧的多个所述量化参数,与在一帧前由所述分析单元求出的所述分析参数进行比较,选择所述一帧前的帧的一个所述量化参数,并选择与所选择的所述一帧前的帧的所述量化参数对应的加权系数的组而进行编码。
4.参数解码方法,包括:
预测残差解码步骤,基于语音编码比特串的当前帧中所包含的编码信息,求量化预测残差;以及
参数解码步骤,基于所述量化预测残差,对参数进行解码,
在所述当前帧丢失的情况下,在所述预测残差解码步骤中,使用多个加权系数的组中使先前帧的解码参数与当前帧的解码参数之间的距离、以及当前帧的解码参数与未来帧的解码参数之间的距离之和为最小的加权系数组,计算先前帧的解码参数以及未来帧的量化预测残差的加权线性和,并将该计算结果作为当前帧的量化预测残差使用。
CN2007800491285A 2006-11-10 2007-11-09 参数解码装置、参数编码装置以及参数解码方法 Expired - Fee Related CN101583995B (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP2006305861 2006-11-10
JP305861/2006 2006-11-10
JP2007132195 2007-05-17
JP132195/2007 2007-05-17
JP240198/2007 2007-09-14
JP2007240198 2007-09-14
PCT/JP2007/071803 WO2008056775A1 (fr) 2006-11-10 2007-11-09 Dispositif de décodage de paramètre, dispositif de codage de paramètre et procédé de décodage de paramètre

Related Child Applications (2)

Application Number Title Priority Date Filing Date
CN201210120786.1A Division CN102682775B (zh) 2006-11-10 2007-11-09 参数解码方法及参数解码装置
CN201210120581.3A Division CN102682774B (zh) 2006-11-10 2007-11-09 参数解码方法及参数解码装置

Publications (2)

Publication Number Publication Date
CN101583995A CN101583995A (zh) 2009-11-18
CN101583995B true CN101583995B (zh) 2012-06-27

Family

ID=39364585

Family Applications (3)

Application Number Title Priority Date Filing Date
CN201210120786.1A Expired - Fee Related CN102682775B (zh) 2006-11-10 2007-11-09 参数解码方法及参数解码装置
CN2007800491285A Expired - Fee Related CN101583995B (zh) 2006-11-10 2007-11-09 参数解码装置、参数编码装置以及参数解码方法
CN201210120581.3A Expired - Fee Related CN102682774B (zh) 2006-11-10 2007-11-09 参数解码方法及参数解码装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201210120786.1A Expired - Fee Related CN102682775B (zh) 2006-11-10 2007-11-09 参数解码方法及参数解码装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201210120581.3A Expired - Fee Related CN102682774B (zh) 2006-11-10 2007-11-09 参数解码方法及参数解码装置

Country Status (10)

Country Link
US (3) US8468015B2 (zh)
EP (3) EP2538406B1 (zh)
JP (3) JP5121719B2 (zh)
KR (1) KR20090076964A (zh)
CN (3) CN102682775B (zh)
AU (1) AU2007318506B2 (zh)
BR (1) BRPI0721490A2 (zh)
RU (2) RU2011124080A (zh)
SG (2) SG166095A1 (zh)
WO (1) WO2008056775A1 (zh)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100723409B1 (ko) 2005-07-27 2007-05-30 삼성전자주식회사 프레임 소거 은닉장치 및 방법, 및 이를 이용한 음성복호화 방법 및 장치
GB2466675B (en) 2009-01-06 2013-03-06 Skype Speech coding
GB2466672B (en) 2009-01-06 2013-03-13 Skype Speech coding
GB2466673B (en) 2009-01-06 2012-11-07 Skype Quantization
GB2466674B (en) 2009-01-06 2013-11-13 Skype Speech coding
GB2466669B (en) 2009-01-06 2013-03-06 Skype Speech coding
GB2466671B (en) 2009-01-06 2013-03-27 Skype Speech encoding
GB2466670B (en) * 2009-01-06 2012-11-14 Skype Speech encoding
KR101622950B1 (ko) * 2009-01-28 2016-05-23 삼성전자주식회사 오디오 신호의 부호화 및 복호화 방법 및 그 장치
US8428938B2 (en) 2009-06-04 2013-04-23 Qualcomm Incorporated Systems and methods for reconstructing an erased speech frame
US10178396B2 (en) 2009-09-04 2019-01-08 Stmicroelectronics International N.V. Object tracking
US9626769B2 (en) 2009-09-04 2017-04-18 Stmicroelectronics International N.V. Digital video encoder system, method, and non-transitory computer-readable medium for tracking object regions
US8848802B2 (en) 2009-09-04 2014-09-30 Stmicroelectronics International N.V. System and method for object based parametric video coding
US8452606B2 (en) 2009-09-29 2013-05-28 Skype Speech encoding using multiple bit rates
EP2369861B1 (en) * 2010-03-25 2016-07-27 Nxp B.V. Multi-channel audio signal processing
AU2014200719B2 (en) * 2010-04-09 2016-07-14 Dolby International Ab Mdct-based complex prediction stereo coding
EP4120246A1 (en) 2010-04-09 2023-01-18 Dolby International AB Stereo coding using either a prediction mode or a non-prediction mode
WO2012004998A1 (ja) * 2010-07-06 2012-01-12 パナソニック株式会社 スペクトル係数コーディングの量子化パラメータを効率的に符号化する装置及び方法
JP5849106B2 (ja) * 2011-02-14 2016-01-27 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 低遅延の統合されたスピーチ及びオーディオ符号化におけるエラー隠しのための装置及び方法
US9449607B2 (en) * 2012-01-06 2016-09-20 Qualcomm Incorporated Systems and methods for detecting overflow
TWI626644B (zh) * 2012-06-08 2018-06-11 三星電子股份有限公司 訊框錯誤隱藏的裝置
US9280975B2 (en) 2012-09-24 2016-03-08 Samsung Electronics Co., Ltd. Frame error concealment method and apparatus, and audio decoding method and apparatus
KR102349025B1 (ko) 2013-02-05 2022-01-07 텔레폰악티에볼라겟엘엠에릭슨(펍) 오디오 프레임 손실 은폐를 제어하기 위한 방법 및 장치
US9208775B2 (en) * 2013-02-21 2015-12-08 Qualcomm Incorporated Systems and methods for determining pitch pulse period signal boundaries
US9842598B2 (en) * 2013-02-21 2017-12-12 Qualcomm Incorporated Systems and methods for mitigating potential frame instability
US9336789B2 (en) * 2013-02-21 2016-05-10 Qualcomm Incorporated Systems and methods for determining an interpolation factor set for synthesizing a speech signal
US20140279778A1 (en) * 2013-03-18 2014-09-18 The Trustees Of Columbia University In The City Of New York Systems and Methods for Time Encoding and Decoding Machines
CN107818789B (zh) * 2013-07-16 2020-11-17 华为技术有限公司 解码方法和解码装置
JP5981408B2 (ja) 2013-10-29 2016-08-31 株式会社Nttドコモ 音声信号処理装置、音声信号処理方法、及び音声信号処理プログラム
CN104751849B (zh) 2013-12-31 2017-04-19 华为技术有限公司 语音频码流的解码方法及装置
CN111105807B (zh) * 2014-01-15 2023-09-15 三星电子株式会社 对线性预测编码系数进行量化的加权函数确定装置和方法
EP2922054A1 (en) 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using an adaptive noise estimation
EP2922055A1 (en) * 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using individual replacement LPC representations for individual codebook information
EP2922056A1 (en) * 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using power compensation
CN107369455B (zh) * 2014-03-21 2020-12-15 华为技术有限公司 语音频码流的解码方法及装置
ES2761681T3 (es) * 2014-05-01 2020-05-20 Nippon Telegraph & Telephone Codificación y descodificación de una señal de sonido
JP6061901B2 (ja) * 2014-07-24 2017-01-18 株式会社タムラ製作所 音符号化システム
CN106205626B (zh) * 2015-05-06 2019-09-24 南京青衿信息科技有限公司 一种针对被舍弃的子空间分量的补偿编解码装置及方法
EP3107096A1 (en) 2015-06-16 2016-12-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Downscaled decoding
BR112017002758B1 (pt) * 2015-06-17 2022-12-20 Sony Corporation Dispositivo e método de transmissão, e, dispositivo e método de recepção
US9837094B2 (en) * 2015-08-18 2017-12-05 Qualcomm Incorporated Signal re-use during bandwidth transition period
JP6352487B2 (ja) * 2017-04-19 2018-07-04 株式会社Nttドコモ 音声信号処理方法及び音声信号処理装置
JP6691169B2 (ja) * 2018-06-06 2020-04-28 株式会社Nttドコモ 音声信号処理方法及び音声信号処理装置
JP6914390B2 (ja) * 2018-06-06 2021-08-04 株式会社Nttドコモ 音声信号処理方法
CN110660402B (zh) 2018-06-29 2022-03-29 华为技术有限公司 立体声信号编码过程中确定加权系数的方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0747884A2 (en) * 1995-06-07 1996-12-11 AT&T IPM Corp. Codebook gain attenuation during frame erasures
JP3255189B2 (ja) * 1992-12-01 2002-02-12 日本電信電話株式会社 音声パラメータの符号化方法および復号方法
CN1359513A (zh) * 1999-06-30 2002-07-17 松下电器产业株式会社 话音解码装置和编码差错补偿方法
EP1235203A2 (en) * 2001-02-27 2002-08-28 Texas Instruments Incorporated Method for concealing erased speech frames and decoder therefor
US6775649B1 (en) * 1999-09-01 2004-08-10 Texas Instruments Incorporated Concealment of frame erasures for speech transmission and storage system and method

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6310200A (ja) * 1986-07-02 1988-01-16 日本電気株式会社 音声分析方式
JPH02216200A (ja) * 1989-02-17 1990-08-29 Matsushita Electric Ind Co Ltd 音声符号化装置および音声復号化装置
JP3275248B2 (ja) * 1991-07-15 2002-04-15 日本電信電話株式会社 音声復号方法
JPH06130999A (ja) * 1992-10-22 1994-05-13 Oki Electric Ind Co Ltd コード励振線形予測復号化装置
US5781880A (en) * 1994-11-21 1998-07-14 Rockwell International Corporation Pitch lag estimation using frequency-domain lowpass filtering of the linear predictive coding (LPC) residual
US5732389A (en) 1995-06-07 1998-03-24 Lucent Technologies Inc. Voiced/unvoiced classification of speech for excitation codebook selection in celp speech decoding during frame erasures
US5699485A (en) 1995-06-07 1997-12-16 Lucent Technologies Inc. Pitch delay modification during frame erasures
US5664055A (en) * 1995-06-07 1997-09-02 Lucent Technologies Inc. CS-ACELP speech compression system with adaptive pitch prediction filter gain based on a measure of periodicity
JP3215026B2 (ja) 1995-10-25 2001-10-02 富士通テン株式会社 自動車用制御ユニットパルス通信システム、共通分周処理回路及び分周信号通信システム
EP1596367A3 (en) * 1997-12-24 2006-02-15 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for speech decoding
FI113571B (fi) * 1998-03-09 2004-05-14 Nokia Corp Puheenkoodaus
US6470309B1 (en) * 1998-05-08 2002-10-22 Texas Instruments Incorporated Subframe-based correlation
US6188980B1 (en) * 1998-08-24 2001-02-13 Conexant Systems, Inc. Synchronized encoder-decoder frame concealment using speech coding parameters including line spectral frequencies and filter coefficients
US6104992A (en) * 1998-08-24 2000-08-15 Conexant Systems, Inc. Adaptive gain reduction to produce fixed codebook target signal
US6330533B2 (en) * 1998-08-24 2001-12-11 Conexant Systems, Inc. Speech encoder adaptively applying pitch preprocessing with warping of target signal
US6463407B2 (en) * 1998-11-13 2002-10-08 Qualcomm Inc. Low bit-rate coding of unvoiced segments of speech
US6456964B2 (en) * 1998-12-21 2002-09-24 Qualcomm, Incorporated Encoding of periodic speech using prototype waveforms
US6963833B1 (en) * 1999-10-26 2005-11-08 Sasken Communication Technologies Limited Modifications in the multi-band excitation (MBE) model for generating high quality speech at low bit rates
US7031926B2 (en) * 2000-10-23 2006-04-18 Nokia Corporation Spectral parameter substitution for the frame error concealment in a speech decoder
CN1420487A (zh) * 2002-12-19 2003-05-28 北京工业大学 1kb/s线谱频率参数的一步插值预测矢量量化方法
AU2003901528A0 (en) * 2003-03-31 2003-05-01 Seeing Machines Pty Ltd Eye tracking system and method
WO2005096274A1 (fr) 2004-04-01 2005-10-13 Beijing Media Works Co., Ltd Dispositif et procede de codage/decodage audio ameliores
CN1677491A (zh) * 2004-04-01 2005-10-05 北京宫羽数字技术有限责任公司 一种增强音频编解码装置及方法
CN1677493A (zh) * 2004-04-01 2005-10-05 北京宫羽数字技术有限责任公司 一种增强音频编解码装置及方法
JP4445328B2 (ja) 2004-05-24 2010-04-07 パナソニック株式会社 音声・楽音復号化装置および音声・楽音復号化方法
WO2006025313A1 (ja) 2004-08-31 2006-03-09 Matsushita Electric Industrial Co., Ltd. 音声符号化装置、音声復号化装置、通信装置及び音声符号化方法
EP1798724B1 (en) 2004-11-05 2014-06-18 Panasonic Corporation Encoder, decoder, encoding method, and decoding method
KR100888962B1 (ko) * 2004-12-06 2009-03-17 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
KR20060063613A (ko) * 2004-12-06 2006-06-12 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
US20080249767A1 (en) * 2007-04-05 2008-10-09 Ali Erdem Ertan Method and system for reducing frame erasure related error propagation in predictive speech parameter coding
JP5113798B2 (ja) 2009-04-20 2013-01-09 パナソニックエコソリューションズ電路株式会社 漏電ブレーカ

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3255189B2 (ja) * 1992-12-01 2002-02-12 日本電信電話株式会社 音声パラメータの符号化方法および復号方法
EP0747884A2 (en) * 1995-06-07 1996-12-11 AT&T IPM Corp. Codebook gain attenuation during frame erasures
CN1359513A (zh) * 1999-06-30 2002-07-17 松下电器产业株式会社 话音解码装置和编码差错补偿方法
US6775649B1 (en) * 1999-09-01 2004-08-10 Texas Instruments Incorporated Concealment of frame erasures for speech transmission and storage system and method
EP1235203A2 (en) * 2001-02-27 2002-08-28 Texas Instruments Incorporated Method for concealing erased speech frames and decoder therefor

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JP特开平6-130999A 1994.05.13
JP特许第3255189B2 2002.02.12

Also Published As

Publication number Publication date
RU2011124080A (ru) 2012-12-20
US20130253922A1 (en) 2013-09-26
US8468015B2 (en) 2013-06-18
CN102682774A (zh) 2012-09-19
EP2538405B1 (en) 2015-07-08
JP5121719B2 (ja) 2013-01-16
EP2088588B1 (en) 2013-01-09
US8538765B1 (en) 2013-09-17
EP2538405A2 (en) 2012-12-26
RU2011124068A (ru) 2012-12-20
CN101583995A (zh) 2009-11-18
JP5270026B2 (ja) 2013-08-21
JP5270025B2 (ja) 2013-08-21
CN102682775A (zh) 2012-09-19
EP2538406A3 (en) 2014-01-08
US20130231940A1 (en) 2013-09-05
EP2538406A2 (en) 2012-12-26
BRPI0721490A2 (pt) 2014-07-01
EP2088588A4 (en) 2011-05-18
EP2538406B1 (en) 2015-03-11
JP2013015851A (ja) 2013-01-24
CN102682775B (zh) 2014-10-08
SG166095A1 (en) 2010-11-29
WO2008056775A1 (fr) 2008-05-15
KR20090076964A (ko) 2009-07-13
AU2007318506A2 (en) 2010-09-23
US8712765B2 (en) 2014-04-29
CN102682774B (zh) 2014-10-08
EP2538405A3 (en) 2013-12-25
EP2088588A1 (en) 2009-08-12
AU2007318506A1 (en) 2008-05-15
SG165383A1 (en) 2010-10-28
AU2007318506B2 (en) 2012-03-08
US20100057447A1 (en) 2010-03-04
JPWO2008056775A1 (ja) 2010-02-25
JP2012256070A (ja) 2012-12-27

Similar Documents

Publication Publication Date Title
CN101583995B (zh) 参数解码装置、参数编码装置以及参数解码方法
JP3042886B2 (ja) ベクトル量子化器の方法および装置
CN101548319B (zh) 后置滤波器以及滤波方法
KR101344174B1 (ko) 오디오 신호 처리 방법 및 오디오 디코더 장치
US20210375296A1 (en) Methods, Encoder And Decoder For Linear Predictive Encoding And Decoding Of Sound Signals Upon Transition Between Frames Having Different Sampling Rates
US6249758B1 (en) Apparatus and method for coding speech signals by making use of voice/unvoiced characteristics of the speech signals
WO2005112005A1 (ja) スケーラブル符号化装置、スケーラブル復号化装置、およびこれらの方法
US6330531B1 (en) Comb codebook structure
JPH10177398A (ja) 音声符号化装置
JP3095133B2 (ja) 音響信号符号化方法
US9620139B2 (en) Adaptive linear predictive coding/decoding
JPH1063300A (ja) 音声復号化装置及び音声符号化装置
JPH113098A (ja) 音声符号化方法および装置
JPH0844398A (ja) 音声符号化装置
WO2007106638A2 (en) Speech communication unit integrated circuit and method therefor
Fazel et al. Switched lattice-based quantization of LSF parameters
JPH0844397A (ja) 音声符号化装置
JP2001100799A (ja) 音声符号化装置、音声符号化方法および音声符号化アルゴリズムを記録したコンピュータ読み取り可能な記録媒体
JPH08101699A (ja) 音声符号化装置
JPH06130997A (ja) 音声符号化装置
JP2000148195A (ja) 音声符号化装置
JPH05341800A (ja) 音声符号化装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: MATSUSHITA ELECTRIC (AMERICA) INTELLECTUAL PROPERT

Free format text: FORMER OWNER: MATSUSHITA ELECTRIC INDUSTRIAL CO, LTD.

Effective date: 20140716

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20140716

Address after: California, USA

Patentee after: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AMERICA

Address before: Osaka Japan

Patentee before: Matsushita Electric Industrial Co.,Ltd.

TR01 Transfer of patent right

Effective date of registration: 20170531

Address after: Delaware

Patentee after: III Holdings 12 LLC

Address before: California, USA

Patentee before: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AMERICA

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120627

CF01 Termination of patent right due to non-payment of annual fee