CN1154173A - 音调后滤波器 - Google Patents

音调后滤波器 Download PDF

Info

Publication number
CN1154173A
CN1154173A CN95193455A CN95193455A CN1154173A CN 1154173 A CN1154173 A CN 1154173A CN 95193455 A CN95193455 A CN 95193455A CN 95193455 A CN95193455 A CN 95193455A CN 1154173 A CN1154173 A CN 1154173A
Authority
CN
China
Prior art keywords
window
subframe
synthetic speech
previous
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN95193455A
Other languages
English (en)
Other versions
CN1134765C (zh
Inventor
利昂·比亚利克
费利克斯·弗曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AudioCodes Ltd
Original Assignee
AudioCodes Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AudioCodes Ltd filed Critical AudioCodes Ltd
Publication of CN1154173A publication Critical patent/CN1154173A/zh
Application granted granted Critical
Publication of CN1134765C publication Critical patent/CN1134765C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Filters That Use Time-Delay Elements (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Working-Up Tar And Pitch (AREA)
  • Centrifugal Separators (AREA)
  • Discharge Heating (AREA)

Abstract

在本发明中,合成语音受到一后滤波,它以未来(20e、24e)和过去(20d、24e)数据为基础完成计算。数据帧(22a、22b)被分成子帧(20a、20b、…20h)以指定计算点。

Description

音调后滤波器
一般地说,本发明涉及于语音处理系统,更具体地说,是涉及后滤波系统。
语音信号处理在技术上是公知的,而且常用于压缩输入语音信号,或供存储或供传输之用。这种处理通常涉及把输入的语音信号分成帧,然后分析每一帧以确定它的组成的分量。然后对这些分量进行编码供存储或传输。
当需要恢复原始语音信号时,每帧被解码,并完成合成操作,这种操作通常近似为分析操作的逆操作。这样产生的合成语音并不总是与原始信号相似。所以,通常要完成后滤波操作(post-filteringoperation),以使信号听起来“更好些”。
一类后滤波是音调后滤波,在这种滤波过程中利用了由编码器提供的音调信息以对合成信号滤波。在先有技术的音调后滤波器中,审查合成语音信号先前的Po个样本部分,这里Po是音调值。与本子帧匹配最好的先前语音子帧被用来与当前子帧结合,通常的比例是1∶0.25(例如,先前的信号衰减了四分之三)。
不幸的是,语音信号并不总是在其中存在音调。在各词之间就是这种情况;在词的末尾或开头,音调会改变。由于先有技术的音调后滤波器把先前的语音与当前子帧结合,而由于先前语音与当前子帧并没有相同的音调,这种音调后滤波的输出对于词的开头效果就不好。对于在说出的词的结尾的子帧,也是这种情况。如果子帧的大部分是沉默或噪声(即词已结束),则先前信号的音调就没有什么关联键。
申请人注意到,词音解码器通常提供在它们的操作元素之间的若干语音帧,而音调后滤波器只作用于语音信号的子帧。这样,对于某些子帧,可以得到关于未来语音模式的信息。
所以,本发明的一个目的是提供一个音调后滤波器及其方法,它利用至少某些子帧的未来与过去信息。
根据本发明的一个最佳实施例,该音调后滤波器接收合成语音的一帧,并对该合成语音帧的每个子帧产生一个信号,该信号是子帧的函数,并且还是先前和其后合成语音的窗的函数。每个窗只有当它提供对子帧的可接受的匹配时才被利用。
具体地说,根据本发明的最佳实施例,该音调后滤波器使先前合成语音的窗匹配于该子帧,然后只有当该子帧和该窗的加权结果之差为小时才接受这个先前合成语音的被匹配的窗。如果有足够的较后的合成语音,则音调滤波器也把较后的合成语音的一个窗进行匹配,而且如果它的误差低便接受它。于是,输出信号是子帧的函数,也是先前和较迟语音信号窗的函数,如果它们已被接受的话。
再有,根据本发明的一个最佳实施例,匹配过程涉及分别为先前和较后合成语音的窗确定一个先前增益和较后增益。
再有,根据本发明的一个最佳实施例,为了输出信号建立的函数是子帧、由先前增益及第一使能(enabling)权加权的合成语音先前窗、以及由较后增益及第二使能权加权的合成语音输后窗之和。
最后,根据本发明的一个最佳实施例,第一和第二使能权依赖于接受步骤的结果。
由下面参考附图所作的详细描述将能更充分地理解和认识本发明。这些附图是:
图1是带有本发明的音调后滤波器的系统的方框图;
图2是用于理解图1所示音调后滤波器的示意图;
图3是图1所示音调后滤波器的操作流程图。
现在参考图1、2、3,它们有助于理解本发明的音调后滤波器的操作。
如图1所示,本发明的音调后滤波器(标号10)从合成滤波器12(如线性预测)系数(LPC)合成滤波器接收合成语音帧。音调后滤波器还接受从语音编码器接收的音调值。音调后滤波器并不一定得是第一后滤波器;它还能接受经过后滤波的合成语音帧。
在本发明中,合成滤波器12对合成的语音各帧进行合成,并把这些合成帧提供给音调后滤波器10。象先有技术音调滤波器一样,本发明的滤波器作用于合成语音的子帧。然而,如发明已实现的那样,由于在处理子帧时可得到合成语音的整个帧,所以本发明的音调后滤波器10对至少是某些子帧还利用未来信息。
这一点示于图2中,它给出二帧22a和22b的8个子帧20a-20h。图中还给出一些位置,由这些位置可对较后子帧20e-20h取得类似的数据子帧。如由箭头24e所示,对于第一子帧20e,可从先前子帧20e、20d、20c和从未来子帧20f、20g、20h取得数据。请注意,对较后子帧20g和20h,有较少的未来子帧可被利用(事实上,对子帧20h没有可用未来数据),但有同样数量的过去数据可被利用。
本发明在过去和未来合成语音信号中搜索,分别为它们确定一个迟后和提前样本位置(或称为指数index),在这个位置上,过去和未来信号的一个窗口最接近地匹配于本子帧。如果这种匹配不好,则该窗口不被利用。通常,如箭头24所指示的那样,其授索范围在本子帧之前或之后的20-146样本范围内。对未来数据(例如对子帧20g和20h),该授索范围减小。
然后,利用匹配窗之一或二个,来对合成语音信号进行后滤波。
图3示出本发明的音调后滤波器的一个实施例,图3是对一个子帧的操作流程图。
该方法从被初始化(步骤30)开始,这里设置最小和最大延后/提前值作为最小判据值。在该实施例中,最小延后/提前值是min(音调值-delta,20),最大延后/提前是max(音调值+delta,146)。在本实施例中,delta等于3。
步骤34-44确定一个迟后值,步骤60-70确定一个提前值,如果它们存在的话。这两个部分完成类似操作,第一部分作用于过去数据,第二部分作用于未来数据。所以,在下文中只对操作描述一次。然而,如下文所提供的那样,所用等式是不同的。
在步骤32,迟后指数M_g被调置为最小值,而在步骤34和36,确定伴随迟后指数M_g的增益g_g以及对那个迟后指数的判据E_g。增益g_g是子帧s〔n〕和一先前窗s〔n-M_g〕之间的互相关与先前窗s〔n-M_g〕的自相关二者之比,如下式所示:
g_g=∑s〔n〕*s〔n-M_g〕/∑s2〔n-M_g〕,0≤n≤59 (1)判据E_g是误差信号s〔n〕-g_g*s〔n-M_g〕中的能量,如下式所示:
E_g=∑(s〔n〕-g_g*s〔n-M_g〕)2,0≤n≤59 (2)
如果造成的判据小于先前确定的最小值(步骤38),则本迟后指数M_g和增益g_g被存储,并把最小值设定为本增益(步骤40)。迟后指数加1(步骤42),并重复该过程,直至达到最大迟后值。
只有当在步骤34-44中确定的迟后值增益大于或等于预定阈值的,才在步骤46-50接受迟后确定结果,该阈值例如可以是0.625。在步骤46,迟后使能标志初始化为0,在步骤48,以该阈值险验迟后增益g_g。在步骤50,由设置迟后使能标志为1来表明接受了结果。这样,对于一个与本子帧不相似的先前语音信号,例如如果本子帧有语音而先前子帧中不含语音,则将不利用来自先前子帧的数据。
在步骤52-56,只有当本位置N、子帧的长度(通常为60个样本长)及最大迟后/提前值三者之和小于一帧长度(通常为240个样本长)时,才设置提前使能标志。这样,只当有足够未来数据可用时才利用未来数据。步骤52将提前使能标志是0。步骤54检查和值是否值可以接受,如果可以接受,则在步骤56是提前使能标志为1。
在步骤58,对最小值重新初始化,并把提前指数设为最小迟后值。如前所述,步骤60-70与步骤34-44相似,用于确定最好匹配感兴趣的子帧的提前指数。提前用M_d表示,增益用g_d表示,判据用E_d表示,它们在等式3和4中定义如下:
g_d=∑s〔n〕*s〔n+M_d〕/∑s2〔n+M_d〕,0≤n≤59    (3)
∑_d=∑(s〔n〕-g_d*s〔n+M_d〕)2,0≤n≤59    (4)
步骤60确定增益g_d,步骤62确定数据E_d,步骤64检验判据E_d是否小于最小值,步骤66存储提前M_d和提前增益g_d,并把最小值更新为值E_d。步骤68对提前指数加1,步骤70确定提前指数是否大于最大提前指数值。
如果在步骤60-70确定的提前增益太低(例如低于预定阈值),则在步骤72和74使提前使能标志变为“使不能”(步骤74),这种检验在步骤72完成。
在步骤76,分别由迟后和提前使能标志确定迟后和提前加权W_g和W_d。权W_g和W_d规定了由未来和过去数据所作的贡献(如果有的话)。
在本实施例中,迟后加权W_g是(迟后使能-(0.5*提前使能))与0二者当中的最大值,再乘以0.25。提前加权W_d是(提前使能-(0.5*迟后使能))与0二者当中的最大值,再乘以0.25。换句话说,当未来和过去数据都可得到而且与本子帧匹配时,加权W_g和W_d双双为0.125,它们当中只有一个匹配时为0.25,当没有一个匹配时为0。
在步骤78,产生输出信号p〔n〕,它是信号s〔n〕、先前窗s〔n-M_g〕、以及未来窗s〔n-M_d〕三者的函数。M_g和M_d是已经存储的迟后和提前指数。等式5和6提供了本实施例的信号p〔n〕函数:
p〔n〕=g_p*{s〔n〕+W_g*g_g*s〔n-M_g〕+W_d*g_d*
      s〔n+M_d〕}
      =g_p*p′〔n〕         (5)
g_p=sqrt(∑s2〔n〕/∑p′2〔n〕),0≤n≤59      (6)
对每个子帧重复步骤30-78。
应该能够理解的是,本发明适用于所有的利用未来和过去信息的音调后滤波器。
本技术领域内的熟练人员将会看出,本发明不限于前面已经具体图示和描述的内容。本发明的范围应由所附的权利要求书规定。
权利要求书
           按照条约第19条的修改
1.一种对合成语进行音调后滤波的方法,包括如下步骤:
接受一帧合成语音;该帧合成语音被分成一组子帧及所述帧伴随的一个音调值;以及
对所述合成语音帧的每个子帧,
产生一个输出信号,该信号是本子帧的音调后滤波结果,是本子帧被所述合成语音的先前和未来数据及未来数据所构成的组中选定的一个滤波的结果,所述先前数据迟后本子帧一个迟后指数,所述未来数据提前本子帧一个提前指数,所述提前和迟后指数都以所述音调值为基础。
2.根据权利要求1的方法,其中所述的产生步骤包括下列步骤:
将一个所述先前合成语音的先前窗口匹配于所述子帧,该先前窗口的长度等于一个子帧,从所述迟后指数开始;
只有当所述子帧和所述先前窗口的加权结果之间的误差低于一阈值时才接受所述匹配的先前窗。
如果有足够的未来合成语音,
将一个所述未来合成语音的未来窗口匹配于所述子帧,该未来窗口的长度等于一个子帧,从所述提前指数开始;
只有当所述子帧和所述未来窗口的加权结果之间的误差低于一阈值时才接受所述匹配的未来窗;以及
建立所述输出信号,该信号是以所述先前和未来窗以及所述未来窗构成的组中选定的一个对所述子帧进行后滤波产生的。
3.根据权利要求2的方法,其中所述匹配步骤包括对所述先前和未来窗口分别确定先前和未来增益的步骤。
4.根据权利要求3的方法,其中所述的建立步骤包括以下步骤:
确定一个信号,该信号是所述子帧、被所述先前增益和第一使能权来加权的所述先前合成语音窗、以及被所述未来增益和第二使能权来加权的所述未来合成语音窗三者之和。
5.根据权利要求4的方法,其中所述第一和第二使能权依赖于所述接受步骤的输出。
6.一种用于对合成语音进行音调后滤波的音调后滤波器,该音调后滤波器包括:
接受一帧合成语音,该合成语音帧被分成一组子帧及一个伴随所述帧的音调值的装置;以及
对所述合成语音帧的每个子帧产生一输出信号的装置,该输出信号是由所述子帧合成语音的先前和未来数据及所述合成语音的未来数据构成的组中被选定的一个对本子帧进行滤波得到的音调后滤波结果,这里所述先前数据以一迟后指数迟后本子帧,这里所述未来数据以一提前指数提前于本子帧,这里所述提前和迟后指数以所述音调值为基础。
7.根据权利要求6的滤波器,其中所述的产生装置包括:
第一匹配装置,用于将一所述先前合成语音先前窗与所述子帧匹配,该先前窗为一个子帧长,从所述迟后指数开始;
第一比较装置,用于只有当所述子帧和所述先前窗口的加权结果之间的误差低于一阈值时才接受所述匹配的先前窗;
第二匹配装置,用于当有足够的未来合成语音时将一所述未来合成语音的未来窗匹配于所述子帧,该未来窗一个子帧长,在所述提前指数开始;
第二比较装置,用于只有当所述子帧和所述窗口的加权结果之间的误差低于一阈值时才接受所述匹配的未来窗;以及
滤波装置,用于建立所述输出信号,该信号是以所述先前和未来窗及所述未来窗构成的组中选定的一个对所述子帧进行后滤波产生的。
8.根据权利要求7的滤波器,其中所述的第一和第二匹配装置包括一增益确定器,用于对所述先前和未来窗口确定先前和未来增益。
9.根据权利要求8所滤波器,其中所述滤波装置包括确定一信号的装置,该信号是所述子帧、由所述先前增益和第一使能权来加权的所述合成语音先前窗、以及由所述未来增益和第二使能权来加权的所述合成语音未来窗三者之和。
10.根据权利要求9的滤波器,其中所述第一和第二使能权依赖于所述第一和第二比较装置的输出。

Claims (10)

1.一种音调后滤波方法,包括以下步骤:
接受一帧合成语音;以及
对所述合成语音帧的每个子帧,
在输出端产生一个信号,该信号是所述子帧的函数,还是先前和较后合成语音窗的函数,其中每个窗只有当它对所述子帧的匹配程度可以被接受时才能被利用。
2.根据权利要求1的方法,其中所述的产生步骤包括下述步骤:
使所述先前合成语音窗与所述子帧匹配;
只有当所述子帧和所述窗的加权结果之间的误差小于一阈值时才接受所述匹配的先前合成语音窗;
如果有足够的较后合成语音,
使所述较后合成语音窗与所述子帧匹配;
只有当所述子帧和所述窗的加权结果之间的误差小于一阈值时才接受所述匹配的较后合成语音;以及
建立所述输出信号,作为所述子帧及先前和较后合成语音的所述窗口的函数。
3.根据权利要求2的方法,其中所述匹配步骤包括分别对所述先前和较后合成语音窗口确定先前和较后增益的步骤。
4.根据权利要求3的方法,其中所述的建立步骤包括以下步骤:
确定一个信号,该信号是所述子帧、由所述先前增益和第一使能权来加权的所述先前合成语音窗、以及由所述较后增益和第二使能权来加权的所述较后合成语音窗三者的函数。
5.根据权利要求4的方法,其中所述第一和第二使能权依赖于所述“接受”步骤的输出。
6.一个音调后滤波器,包括:
接收一帧合成语音的装置,以及
对所述合成语音帧的每个子帧滤波产生一输出信号的装置,该输出信号是所述子帧的函数,也是先前和较后合成语音窗的函数,这里每个窗口只有当其与所述子帧的匹配程度可以被接受时才能被利用。
7.根据权利要求6的滤波器,其中所述的产生装置包括:
第一匹配装置,用于使所述先前合成语音窗匹配于所述子帧;
第一比较装置,只有当所述子帧和所述窗口的加权结果之间的误差至少是低于一阈值时,才接受所述匹配的先前合成语音窗;
第二匹配装置,用于在有足够的较后合成语音时使所述较后合成语音窗匹配于所述子帧;
第二比较装置,只有当所述子帧和所述窗口的加权结果之间的误差至少是低于一个阈值时,才接受所述匹配的较后合成语音窗;以及
滤波装置,用于建立所述输出信号作为所述子帧和所述先前与较后合成语音窗的函数。
8.根据权利要求7的滤波器,其中所述的第一和第二匹配装置包括增益确定器,用于分别为所述先前和较后合成语音确定一个先前和较后增益。
9.根据权利要求8所滤波器,其中所述滤波装置包括确定一信号的装置,该信号是所述子帧、被所述先前增益第一使能权来加权的所述先前合成语音窗、以及被所述较后增益和第二使能权来加权的所述较后合成语音窗三者之和。
10.根据权利要求9的滤波器,其中所述第一和第二使能权依赖于所述第一和第二比较装置的输出。
CNB951934554A 1994-04-29 1995-04-27 音调后滤波器 Expired - Fee Related CN1134765C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/235,765 1994-04-29
US08/235,765 US5544278A (en) 1994-04-29 1994-04-29 Pitch post-filter

Publications (2)

Publication Number Publication Date
CN1154173A true CN1154173A (zh) 1997-07-09
CN1134765C CN1134765C (zh) 2004-01-14

Family

ID=22886819

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB951934554A Expired - Fee Related CN1134765C (zh) 1994-04-29 1995-04-27 音调后滤波器

Country Status (11)

Country Link
US (1) US5544278A (zh)
EP (1) EP0807307B1 (zh)
JP (2) JP3307943B2 (zh)
KR (1) KR100261132B1 (zh)
CN (1) CN1134765C (zh)
AU (1) AU687193B2 (zh)
BR (1) BR9507572A (zh)
CA (1) CA2189134C (zh)
DE (1) DE69522474T2 (zh)
MX (1) MX9605178A (zh)
WO (1) WO1995030223A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009140896A1 (zh) * 2008-05-23 2009-11-26 华为技术有限公司 基音后处理方法、滤波器以及基音后处理系统

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL120788A (en) * 1997-05-06 2000-07-16 Audiocodes Ltd Systems and methods for encoding and decoding speech for lossy transmission networks
CA2283202A1 (en) * 1998-01-26 1999-07-29 Matsushita Electric Industrial Co., Ltd. Method and apparatus for enhancing pitch
US7103539B2 (en) * 2001-11-08 2006-09-05 Global Ip Sound Europe Ab Enhanced coded speech
US20030135374A1 (en) * 2002-01-16 2003-07-17 Hardwick John C. Speech synthesizer
JP4547965B2 (ja) * 2004-04-02 2010-09-22 カシオ計算機株式会社 音声符号化装置、方法及びプログラム
KR20080052813A (ko) * 2006-12-08 2008-06-12 한국전자통신연구원 채널별 신호 분포 특성을 반영한 오디오 코딩 장치 및 방법
WO2008108702A1 (en) * 2007-03-02 2008-09-12 Telefonaktiebolaget Lm Ericsson (Publ) Non-causal postfilter

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4969192A (en) * 1987-04-06 1990-11-06 Voicecraft, Inc. Vector adaptive predictive coder for speech and audio
US5307441A (en) * 1989-11-29 1994-04-26 Comsat Corporation Wear-toll quality 4.8 kbps speech codec
US5293449A (en) * 1990-11-23 1994-03-08 Comsat Corporation Analysis-by-synthesis 2,4 kbps linear predictive speech codec
JP3076086B2 (ja) * 1991-06-28 2000-08-14 シャープ株式会社 音声合成装置用ポストフィルタ

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009140896A1 (zh) * 2008-05-23 2009-11-26 华为技术有限公司 基音后处理方法、滤波器以及基音后处理系统
CN101587711B (zh) * 2008-05-23 2012-07-04 华为技术有限公司 基音后处理方法、滤波器以及基音后处理系统

Also Published As

Publication number Publication date
KR100261132B1 (ko) 2000-07-01
EP0807307B1 (en) 2001-08-29
AU687193B2 (en) 1998-02-19
CA2189134C (en) 2000-12-12
DE69522474D1 (de) 2001-10-04
US5544278A (en) 1996-08-06
JP3307943B2 (ja) 2002-07-29
JP2002182697A (ja) 2002-06-26
CA2189134A1 (en) 1995-11-09
AU2297095A (en) 1995-11-29
JPH09512644A (ja) 1997-12-16
CN1134765C (zh) 2004-01-14
BR9507572A (pt) 1997-08-05
EP0807307A4 (en) 1998-10-07
DE69522474T2 (de) 2002-05-16
MX9605178A (es) 1998-11-30
EP0807307A1 (en) 1997-11-19
WO1995030223A1 (en) 1995-11-09

Similar Documents

Publication Publication Date Title
US6199035B1 (en) Pitch-lag estimation in speech coding
US6763330B2 (en) Receiver for receiving a linear predictive coded speech signal
EP1338003B1 (en) Gains quantization for a celp speech coder
US20080033717A1 (en) Speech coding apparatus, speech decoding apparatus and methods thereof
KR20010099764A (ko) 광대역 신호들 코딩에서 적응성 대역폭 피치 검색 방법 및디바이스
EP0501421B1 (en) Speech coding system
RU2121173C1 (ru) Способ постфильтрации основного тона синтезированной речи и постфильтр основного тона
US6826527B1 (en) Concealment of frame erasures and method
JP3357795B2 (ja) 音声符号化方法および装置
US6205423B1 (en) Method for coding speech containing noise-like speech periods and/or having background noise
US20050114119A1 (en) Method of and apparatus for enhancing dialog using formants
CN1134765C (zh) 音调后滤波器
EP0578436B1 (en) Selective application of speech coding techniques
EP0855699B1 (en) Multipulse-excited speech coder/decoder
EP1083548A2 (en) Method for gain control of a CELP speech decoder
JP3471892B2 (ja) ベクトル量子化方法及び装置
JPH07248795A (ja) 音声処理装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C53 Correction of patent of invention or patent application
COR Change of bibliographic data

Free format text: CORRECT: APPLICANT; FROM: JONATHAN EDWARD SHERMAN TO: OKUCHI COD CO., LTD.

CP03 Change of name, title or address

Address after: Israel Ooijer hada

Applicant after: Austria Kede company

Address before: Israel card Azerbaijan

Applicant before: Jonathan Edwarschellman

C14 Grant of patent or utility model
GR01 Patent grant
C19 Lapse of patent right due to non-payment of the annual fee
CF01 Termination of patent right due to non-payment of annual fee