JP3219467B2 - Audio decoding method - Google Patents

Audio decoding method

Info

Publication number
JP3219467B2
JP3219467B2 JP17089092A JP17089092A JP3219467B2 JP 3219467 B2 JP3219467 B2 JP 3219467B2 JP 17089092 A JP17089092 A JP 17089092A JP 17089092 A JP17089092 A JP 17089092A JP 3219467 B2 JP3219467 B2 JP 3219467B2
Authority
JP
Japan
Prior art keywords
flag
parameters
frame
current frame
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP17089092A
Other languages
Japanese (ja)
Other versions
JPH0612095A (en
Inventor
一則 間野
健弘 守谷
博人 須田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP17089092A priority Critical patent/JP3219467B2/en
Publication of JPH0612095A publication Critical patent/JPH0612095A/en
Application granted granted Critical
Publication of JP3219467B2 publication Critical patent/JP3219467B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、例えば伝送路上で符
号誤りが頻発する移動無線システムへ適用され、符号誤
り制御技術(誤り訂正/検出符号化処理等)が施された
音声符号化情報と符号誤り検出情報から、符号誤りによ
る品質劣化の少ない音声を再生するための音声復号化方
法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is applied to, for example, a mobile radio system in which code errors frequently occur on a transmission line, and is provided with speech coded information subjected to a code error control technique (error correction / detection coding processing and the like). The present invention relates to a speech decoding method for reproducing speech with low quality degradation due to a code error from code error detection information.

【0002】[0002]

【従来の技術】ディジタル移動無線や音声蓄積サービス
のための8kbit/s 以下の高能率音声符号化方法として
は、符号励振線形予測符号化(Code-Excited Linear Pr
edictionCoding : CELP)、ベクトル和励振線形予測符
号化(Vector Sum Excited Linear Prediction Coding
: VSELP )といった手法が代表的である。それぞれの
技術については、M.R.Schroeder and B.S.Atal : "Code
-Excited Linear Prediction(CELP): High-quality S
peech at Very Low Bit Rates", Proc. ICASSP-85,25.
1.1,pp.937-940 ,(1985年)、および、I.A.Gerson an
d M.A. Jasiuk : "Vector Sum Excited Linear Predict
ion(VSELP )Speech Coding at 8kbps", Proc.ICASSP-9
0,S9.3,pp.461-464,(1990年)に述べられている。
2. Description of the Related Art As a high-efficiency speech coding method of 8 kbit / s or less for digital mobile radio and voice storage services, Code Excited Linear Pr
edictionCoding: CELP), Vector Sum Excited Linear Prediction Coding
: VSELP). For each technology, see MRSchroeder and BSAtal: "Code
-Excited Linear Prediction (CELP): High-quality S
peech at Very Low Bit Rates ", Proc. ICASSP-85, 25.
1.1, pp. 937-940 (1985) and IAGerson an
d MA Jasiuk: "Vector Sum Excited Linear Predict
ion (VSELP) Speech Coding at 8kbps ", Proc.ICASSP-9
0, S9.3, pp. 461-464, (1990).

【0003】ここでは、CELP符号化をとりあげて説明す
る。CELP符号化では、音声符号化情報として、線形予測
パラメータ符号と、そのフレームのパワを示すパワパラ
メータ符号とピッチ周期符号と雑音符号と音源のゲイン
パラメータ符号を、5〜50ms程度を1フレームとして送
信する。CELP復号器を図1に示す。CELP復号器では、復
号された線形予測パラメータAを線形予測合成フィルタ
12の係数として設定する。それまでに得られた直前(過
去)のフレームの励振ベクトル(残差波形)と、復号さ
れたピッチ周期符号Lを用いて適応符号帳10からその周
期で、過去の励振ベクトルを切り出し、これをフレーム
分繰り返した時系列ベクトルが出力され、また、入力さ
れた雑音符号Cが示す符号ベクトルが雑音符号帳11から
ベクトルとして読みだされる。これら時系列ベクトル
は、乗算器21、22で入力されたゲイン符号G(=g1,g2) に
応じて、それぞれ重み付けされた後、加算器23で加算さ
れ、その加算出力が励振ベクトルとして合成フィルタ12
へ供給され、パワゲインPを乗算器24で乗じて、再生音
声が得られる。さらに、ポストフィルタ13により、ホル
マント強調、ピッチ強調により雑音感を減らした最終的
な音声出力を得る。
Here, CELP coding will be described. In CELP coding, a linear prediction parameter code, a power parameter code indicating the power of the frame, a pitch period code, a noise code, and a gain parameter code of a sound source are transmitted as speech coding information, with about 5 to 50 ms as one frame. I do. FIG. 1 shows a CELP decoder. The CELP decoder converts the decoded linear prediction parameter A into a linear prediction synthesis filter.
Set as a coefficient of 12. Using the excitation vector (residual waveform) of the immediately preceding (past) frame obtained up to that time and the decoded pitch cycle code L, the past excitation vector is cut out from the adaptive codebook 10 in that cycle, and this is extracted. A time-series vector repeated for the number of frames is output, and a code vector indicated by the input noise code C is read from the noise codebook 11 as a vector. These time-series vectors are weighted according to the gain codes G (= g1, g2) input by the multipliers 21 and 22, respectively, and then added by the adder 23, and the added output is used as an excitation vector as a synthesis filter. 12
And a power gain P is multiplied by a multiplier 24 to obtain a reproduced sound. Further, the post-filter 13 obtains a final sound output in which noise is reduced by formant emphasis and pitch emphasis.

【0004】符号誤りの発生する応用分野に適用される
音声伝送方式では、誤り訂正符号化技術を用いて符号誤
りによる伝送音声の品質劣化を押さえている。しかし、
バースト誤りが頻発する移動無線のような適用領域で
は、強力な誤り訂正符号を用いたとしても十分な適用効
果が得られない。これは、バースト内での誤りの密度が
高いため、たとえ強力な誤り訂正符号を用いてもすべて
の誤りを除去することが難しいことに起因する。
[0004] In a voice transmission system applied to an application field in which a code error occurs, the quality of transmitted voice is degraded due to a code error by using an error correction coding technique. But,
In an application area such as mobile radio where burst errors frequently occur, even if a strong error correction code is used, a sufficient application effect cannot be obtained. This is because the error density in the burst is high, and it is difficult to remove all errors even if a strong error correction code is used.

【0005】訂正しきれない誤りを残したままの符号化
情報から音声を復号すると、復号音声は大きく歪む。歪
みを小さく押さえるため、誤り検出情報として、フレー
ムの符号が正しく復号できたかどうかをチェックする誤
り検出機能を持たせておき、誤りが検出された場合に
は、通常の復号法とは異なる処理、すなわち、波形修復
処理を行ない、符号誤りの影響を極力押さえる工夫がさ
れている。
[0005] When speech is decoded from coded information that leaves an error that cannot be corrected, the decoded speech is greatly distorted. In order to minimize distortion, error detection information is provided with an error detection function for checking whether or not the frame code has been correctly decoded. If an error is detected, processing different from a normal decoding method is performed. That is, a scheme is performed to perform a waveform restoration process to minimize the influence of code errors.

【0006】これまでの修復方法としては、次の2種類
がある。一つは、例えば、M.J.McLaughlin: "Channel c
oding for digital speech transmission in the Japan
esedigital cellular system", 電子情報通信学会 無
線通信システム研究会、RCS90-27,pp.41-45,1990年、に
示すように、現在のフレームが符号誤りのあるフレーム
の場合に、過去のフレームのパラメータを繰り返す方法
や、パラメータを繰り返してさらに、過去のフレームの
状態に応じて現フレームの利得を制御する方法である。
There are the following two types of restoration methods so far. One is, for example, MJMcLaughlin: "Channel c
oding for digital speech transmission in the Japan
esedigital cellular system ", IEICE Technical Committee on Radio Communication Systems, RCS90-27, pp.41-45, 1990, when the current frame is a frame with a code error, This is a method of repeating the parameter, or a method of repeating the parameter and further controlling the gain of the current frame according to the state of the past frame.

【0007】もう一つの修復方法は、特開平4-30200
「音声復号化方式」に、示されているように、誤りがあ
った場合に、過去の正しいフレームと将来の正しいフレ
ームから、現在の誤ったフレームを補間する方法があ
る。この場合には、過去の正しいフレームと将来の正し
いフレームが時間的に近ければ、歪みの小さい補間を行
なうことができる。
Another repair method is disclosed in Japanese Patent Laid-Open No. 4-30200.
As shown in the "speech decoding method", as shown, there is a method of interpolating a current erroneous frame from a past correct frame and a future correct frame when an error occurs. In this case, if the past correct frame and the future correct frame are close in time, interpolation with small distortion can be performed.

【0008】[0008]

【発明が解決しようとする課題】しかし、過去のみから
の修復は、結局、過去の音声を繰り返して、誤りのある
フレームのパワを小さくして歪みを聞こえにくくするも
のであり、この場合には、過去の情報のみから現在の誤
りフレームパラメータを決定するので、修復のために現
フレーム以上の遅延は必要ないが、次のフレームとの連
続性が悪くなり不連続性が新たな品質劣化を招くという
欠点がある。
However, the restoration from the past alone is to repeat the past speech and reduce the power of the erroneous frame to make the distortion difficult to hear. Since the current erroneous frame parameter is determined only from the past information, a delay longer than that of the current frame is not required for restoration, but the continuity with the next frame is deteriorated, and the discontinuity causes new quality deterioration. There is a disadvantage that.

【0009】また、特開平4-30200 による過去と将来の
正しいフレームからの補間は、バースト誤りの頻発する
伝送路に適用した場合には、現在のフレームの次のフレ
ームが正しいフレームであるとは限らず、過去と将来の
正しいフレームが時間的に大きく離れてしまう場合があ
り、補間によってかえって大きな歪みを生じてしまう欠
点がある。また、現在フレーム以降何フレームも誤りが
続く場合、将来の正しいフレーム情報を使用するために
は、その分だけ大きな遅延時間が必要となり、移動無線
のように実時間性を重視する用途には適さない。
Further, the interpolation from the past and future correct frames according to JP-A-4-30200 is applied to a transmission line in which burst errors frequently occur, and the frame following the current frame is not a correct frame. Not only that, past and future correct frames may be largely separated in time, and there is a drawback that a large distortion is generated by interpolation. In addition, if any number of errors continue after the current frame, a large delay time is required to use the correct frame information in the future, which is suitable for applications that emphasize real-time performance such as mobile radio. Absent.

【0010】さらに、CELP符号化では、適応符号帳や合
成フィルタのメモリが過去のフレームの復号結果に依存
するので、現在フレームで符号誤りがなくても過去のフ
レームで誤りがあれば、再生音声に歪みが生じてしまう
という問題がある。本発明の目的は、このような問題点
を解決し、バースト誤りのある伝送路でも品質劣化の少
ない音声復号化方法を提供することにある。
Further, in CELP coding, since the memory of the adaptive codebook and the synthesis filter depends on the decoding result of the past frame, if there is no error in the past frame even if there is no code error in the current frame, the reproduced voice is reproduced. However, there is a problem that distortion occurs. SUMMARY OF THE INVENTION An object of the present invention is to solve such a problem and to provide a speech decoding method with less quality deterioration even on a transmission line having a burst error.

【0011】[0011]

【課題を解決するための手段】 本発明では、音声符号
化情報と誤り訂正符号とをフレームごとに受信して前記
音声符号化情報を復号して得られた現在、過去及び将来
フレームのうち少なくともいずれかのパラメータに基づ
くサブフレームのパラメータ、を用いてサブフレームご
とに適応符号帳及び雑音符号帳からのベクトルにそれぞ
れ重み付けられた後、加算した励振ベクトルを合成フィ
ルタへ供給し、パワを乗じて音声を再生する音声復号化
方法において、音声符号化情報を復号する際、過去、現
在及び将来フレームのそれぞれの符号誤り検出情報を用
い、過去、現在、将来のフレームに対応するフラグをそ
れぞれS2,S1,S0としてフラグS1が1からM-1(Mはバース
ト性の誤りが加わっていると考えられるフレーム数)
で、前記誤り訂正符号を用いて誤り検出されなかった場
合、フラグS0を0とし、誤り検出された場合フラグS0を
S1+1とし、フラグS1がMの場合、前記誤り訂正符号を用
いて誤り検出されなかった場合、フラグS0をM+1とし、
誤り検出された場合フラグS0をMとし、フレーム更新の
際にフラグS2をフラグS1で、フラグS1をフラグS0で更新
し、フラグS1が0か、フラグS1が1からM のいずれかで
フラグS0が0またはM+1 か、フラグS1が1からM のいず
れかでフラグS0が0でもM+1 でもないか、フラグS1がM+1
か、に現在フレーム内のサブフレームのパラメータを
再生又は修復する処理が依存することを特徴とする音声
復号化方法。ここで、さらにフラグS1が0の場合、フラ
グS2が0ならば過去に音声の再生に用いられたパラメー
タと現在フレームのパラメータからサブフレームのパラ
メータを補間し、フラグS2が1からMのいずれかならば現
在フレームのパラメータを用い、もしくはフラグS0が0
ならば将来フレームのパラメータと現在フレームのパラ
メータからサブフレームのパラメータを補間し、フラグ
S0が1からMのいずれかならば前記サブフレームのパラメ
ータとして現在フレームのパラメータを用い、フラグS1
が1からM のいずれかでフラグS0が0またはM+1 の場
合、過去フレームのパラメータと将来フレームのパラメ
ータを用いて前記サブフレームのパラメータを補間し、
フラグS1が1からM のいずれかでフラグS0が0でもM+1
でもない場合、前記サブフレームのパラメータとして過
去に音声の再生に用いられたパラメータ を用い、フラグ
S1がM+1 の場合、過去に音声の再生に用いられたパラメ
ータか平坦スペクトルとなるパラメータと現在フレーム
のパラメータを補間して前記サブフレームのパラメータ
を補間し、もしくはフラグS0が0ならば将来フレームの
パラメータと現在フレームのパラメータから前記サブフ
レームのパラメータを補間し、フラグS0がMならば前記
サブフレームのパラメータとして現在フレームのパラメ
ータを用いて前記合成フィルタの係数として設定する。
あるいは、さらに前記音声符号化情報はパワパラメータ
符号を含み、前記パラメータとしてパワについてフラグ
S1が0の場合、フラグS2が0ならば過去に音声の再生に用
いられたパラメータと現在フレームのパラメータからサ
ブフレームのパラメータを補間し、フラグS2が1からMの
いずれかならば現在フレームのパラメータを用い、該パ
ラメータが過去フレームで音声の再生に用いられたパラ
メータの定数倍より大きい場合に、該パラメータに1よ
り小さい値を乗じたパラメータを用い、もしくはフラグ
S0が0ならば将来フレームのパラメータと現在フレーム
のパラメータからサブフレームのパラメータを補間し、
フラグS0が1からMのいずれかならば前記サブフレームの
パラメータとして現在フレームのパラメータを用い、フ
ラグS1が1からM のいずれかでフラグS0が0またはM+1
の場合、過去フレームで音声再生に用いられたパラメー
タと将来フレームのパラメータを用いて前記サブフレー
ムのパラメータを補間し、該補間結果のパラメータが過
去フレームで音声の再生に用いられたパラメータの一定
の閾値倍より大きい場合に、前記補間結果のパラメータ
に1より小さい値を乗じ、フラグS1が1からM のいずれ
かでフラグS0が0でもM+1 でもない場合、前記サブフレ
ームのパラメータとして過去に音声の再生に用いられた
パラメータに1より小さい値を乗じ、フラグS1がM+1 の
場合、過去に音声の再生に用いられたパラメータと現在
フレームのパラメータから前記サブフレームのパラメー
タを補間し1より小さい値を乗じ、もしくはフラグS0が
0ならば将来フレームのパラメータと現在フレームのパ
ラメータから前記サブフレームのパラメータを補間し、
フラグS0がMならば前記サブフレームのパラメータとし
て現在フレームのパラメータに1より小さい値を乗じ
る。もしくは、さらに前記音声符号化情報はサブフレー
ム毎のピッチ周期符号を含み、フラグS1が0の場合、現
在フレームのピッチ周期符号で示されるピッチ遅延 に基
づき、フラグS1が1からM のいずれかでフラグS0が0ま
たはM+1 の場合、過去フレームにおいて音声の再生に用
いられたピッチ遅延と将来フレームのピッチ周期符号で
示されるピッチ遅延に基づき、フラグS1が1からM のい
ずれかでフラグS0が0でもM+1 でもない場合、過去フレ
ームで音声の再生に用いられたピッチ遅延に基づき、フ
ラグS1がM+1 の場合、現在フレームのピッチ周期符号で
示されるピッチ遅延に基づき、過去の励振ベクトルを切
り出し繰り返した時系列ベクトルを前記適応符号帳から
出力する。または、さらに前記音声符号化情報はサブフ
レーム毎のゲイン符号を含み、フラグS1が0の場合、現
在フレームのゲイン符号で示されるゲインの組を用い、
フラグS1が1からM のいずれかでフラグS0が0またはM+1
の場合、過去フレームにおいて音声の再生に用いられ
たゲインと将来フレームのゲイン符号で示されるゲイン
を用い、フラグS1が1からM のいずれかでフラグS0が0
でもM+1 でもない場合、過去フレームで音声の再生に用
いられたゲインの組を用い、フラグS1がM+1の場合、現
在フレームのゲイン符号で示されるゲインの組を用い、
適応符号帳及び雑音符号帳からのベクトルにそれぞれ重
み付ける。
In the present invention, there is provided a means for solving] receives the speech encoded information and error correction code for each frame the
Present, past, and future obtained by decoding audio encoded information
Frame based on at least one of the parameters
Subframe parameters using subframe parameters.
To the vectors from the adaptive and random codebooks
After weighting and adding, the added excitation vector is
Speech decoding that feeds to the Ruta and multiplies the power to reproduce the sound
The method includes decoding past, current,
Use the code error detection information for the current and future frames.
Flags for past, present, and future frames.
The flag S1 is set from 1 to M-1 (M is a verse) as S2, S1, S0, respectively.
Number of frames considered to have an error
And if no error is detected using the error correction code,
If the error is detected, the flag S0 is set to 0.
S1 + 1, and when the flag S1 is M, the error correction code is used.
And if no error is detected, the flag S0 is set to M + 1,
If an error is detected, the flag S0 is set to M, and the frame update
Update flag S2 with flag S1 and flag S1 with flag S0
And the flag S1 is 0 or the flag S1 is 1 to M
Either flag S0 is 0 or M + 1, or flag S1 is 1 to M
Whether flag S0 is neither 0 nor M + 1 or flag S1 is M + 1
Or the parameters of the subframe in the current frame
Sounds characterized by the process of playing or restoring
Decryption method. Here, if the flag S1 is 0,
If S2 is 0, the parameters used in the past for audio playback
Parameters of the current frame and parameters of the current frame.
Interpolate the meter and if flag S2 is any of 1 to M,
Use the parameters of the current frame, or set the flag S0 to 0
Then the parameters of the future frame and the parameters of the current frame
Interpolate the subframe parameters from the meter and set the flag
If S0 is any of 1 to M, the parameters of the subframe
Using the parameters of the current frame as the
Is either 1 to M and flag S0 is 0 or M + 1
The parameters of the past frame and the parameters of the future frame.
Interpolating the parameters of the sub-frame using data,
M + 1 even if flag S1 is 1 to M and flag S0 is 0
If not, the parameter
Using the parameters used for the playback of audio removed by the flag
If S1 is M + 1, the parameters used in the past for audio playback
The current frame with parameters that result in a data or flat spectrum
By interpolating the parameters of
Or if the flag S0 is 0,
From the parameters and the parameters of the current frame,
Frame parameters, and if flag S0 is M,
The parameters of the current frame as subframe parameters
And set it as a coefficient of the synthesis filter.
Alternatively, the audio coding information further includes a power parameter
Including a sign and a flag for power as said parameter
If S1 is 0, if the flag S2 is 0, it is used for audio playback in the past
From the parameters set and the parameters of the current frame.
Interpolate the subframe parameters and set the flag S2 from 1 to M
In either case, use the parameters of the current frame and
Parameters used to play audio in the past frame.
If the value is larger than the constant multiple of the meter,
Use a parameter multiplied by a smaller value, or use a flag
If S0 is 0, future frame parameters and current frame
Interpolate the sub-frame parameters from the parameters of
If the flag S0 is any of 1 to M,
Using the parameters of the current frame as parameters,
The lag S1 is 1 to M and the flag S0 is 0 or M + 1
In the case of, the parameters used for audio playback in the past frame
Using the parameters of the future frame
The parameters of the interpolation result are
Constant parameters used for audio playback in the last frame
If the interpolation result is larger than the threshold times,
Is multiplied by a value less than 1, and the flag S1 is any one of 1 to M
If the flag S0 is neither 0 nor M + 1,
Used in the past for audio playback
Multiply the parameter by a value less than 1 and set the flag S1 to M + 1
If the parameters used in the past to play the audio and the current
From the parameters of the frame,
Interpolated and multiplied by a value less than 1, or flag S0
If 0, the parameters of the future frame and the current frame are
Interpolating the parameters of the sub-frame from the parameters,
If the flag S0 is M, the
Multiply the parameter of the current frame by a value less than 1.
You. Alternatively, the audio coding information may further include a subframe.
If the flag S1 is 0, the pitch period code
Groups on the pitch delay indicated by the pitch period codes of standing frame
Flag S1 is between 1 and M and flag S0 is 0.
Or M + 1, used for audio playback in the past frame
With the pitch delay and the pitch period code of the future frame
The flag S1 is between 1 and M based on the indicated pitch delay.
If the flag S0 is neither 0 nor M + 1
Based on the pitch delay used to play the sound in the
When the lag S1 is M + 1, the pitch period code of the current frame
The past excitation vector is cut based on the indicated pitch delay.
From the adaptive codebook
Output. Alternatively, the audio coding information may further include a sub-file.
Including the gain code for each frame, if the flag S1 is 0,
Using a set of gains indicated by the gain sign of the current frame,
Flag S1 is 1 to M and flag S0 is 0 or M + 1
Is used for audio playback in the past frame.
Gain and gain indicated by the gain sign of the future frame
And the flag S1 is any of 1 to M and the flag S0 is 0
If it is not M + 1, it will be used for audio playback in the past frame
If the flag S1 is M + 1 using the set of gains
Using a set of gains indicated by the gain sign of the current frame,
Each vector from the adaptive codebook and the random codebook
Find out.

【0012】[0012]

【0013】[0013]

【実施例】以下では、高能率音声符号化方式としてCELP
方式をとりあげ、CELP方式へのこの発明の実施例を説明
する。本実施例では、CELP方式の復号器について説明す
るが、これと類似の方式または、類似の構成を含む方式
に対しても適用が可能である。
[Embodiment] In the following, CELP is used as a high-efficiency speech coding system.
Taking the scheme, an embodiment of the present invention for the CELP scheme will be described. Although the present embodiment describes a CELP decoder, the present invention can be applied to a similar scheme or a scheme including a similar configuration.

【0014】図2は、本発明の実施例におけ音声復号処
理のブロック図を示す。本実施例では、過去、現在フレ
ームと将来の1フレームまでの情報を用いた復号化につ
いて示す。まず、伝送路より送られた符号をフレーム毎
に誤り訂正回路30において誤り訂正処理を行なう。30よ
り音声符号化情報をバッファ31に送り、誤り検出情報を
バッファ34に送る。31、34のバッファには、過去および
現在フレームとさらに少なくとも1フレーム先の情報ま
で取り込む。バッファ34からの誤り検出情報は、誤り状
態管理部35に入り、過去、現在、将来フレームの誤り状
態が決定される。
FIG. 2 is a block diagram showing a speech decoding process according to an embodiment of the present invention. In the present embodiment, decoding using information on past and present frames and up to one future frame will be described. First, the code sent from the transmission path is subjected to error correction processing in the error correction circuit 30 for each frame. The voice encoding information is sent from 30 to the buffer 31, and the error detection information is sent to the buffer. The buffers 31 and 34 take in past and present frames and at least information of at least one frame ahead. The error detection information from the buffer 34 enters the error state management unit 35, and the error states of past, present, and future frames are determined.

【0015】バッファ31の出力である音声符号化情報と
誤り状態管理部35からの誤り状態をパラメータ復号部32
に送り、現在フレームのパラメータを復号・補間する。
パラメータ復号部32の出力により、音声復号器33で音声
を再生する。誤り状態管理部35では、図3に示すよう
に、図2のバッファ34に蓄えられている次のフレームま
での誤り検出情報をもとに、過去、現在、将来のフレー
ムの状態を表すフラグ群 352(S2,S1,S0)を更新する。
S2が過去のフレーム、S1が現在フレーム、S0が将来フレ
ームに対応する。フラグS2とS1は、音声符号化のフレー
ム更新の際に、前のフレームでのフラグS1、S0の内容を
シフトしたものである。S0フラグの内容は、状態フラグ
更新部351 において対応するバッファ34からの入力フレ
ームの誤り検出情報と、S1フラグ(これは、前フレーム
ではS0フラグに相当する)の内容に従って決定される。
The speech coded information output from the buffer 31 and the error state from the error state management unit 35 are compared with the parameter decoding unit 32.
To decode and interpolate the parameters of the current frame.
Based on the output of the parameter decoding unit 32, the audio is reproduced by the audio decoder 33. The error state management unit 35, as shown in FIG. 3, uses a group of flags indicating the state of the past, present, and future frames based on the error detection information up to the next frame stored in the buffer 34 of FIG. 352 (S2, S1, S0) is updated.
S2 corresponds to the past frame, S1 corresponds to the current frame, and S0 corresponds to the future frame. The flags S2 and S1 are obtained by shifting the contents of the flags S1 and S0 in the previous frame when updating the frame for speech coding. The content of the S0 flag is determined in the status flag updating unit 351 according to the error detection information of the input frame from the corresponding buffer 34 and the content of the S1 flag (which corresponds to the S0 flag in the previous frame).

【0016】図4にS0の更新表を示す。図4において、
バッファ34の入力=0のとき、その入力フレームは、誤
り訂正が完全にできたことを示し、バッファ34の入力=
1のとき、誤り訂正ができなかった、つまり、誤りが検
出されたフレームであることを意味する。S1が0のと
き、入力フレームの誤りが検出されなければ、S0=0と
し、誤りが検出されれば、S0=1とする。S1が1からあ
らかじめ与えられた数M-1 までの場合には、入力フレー
ムの誤りが検出されなければS0=0、誤りが検出されれ
ば、S0=S1+1として、対応するフレームまで、誤りフレ
ームの連続して続いたフレーム数をフラグの内容として
保持する。S1がM の場合には、入力フレームで誤りが検
出されなければ、S0=M+1とし、誤りが検出されれば、S0
=Mとする。ここで、M は、連続するフレームにバースト
性の誤りが加わっていると考えられる長さ、例えば6、
とする。S1がM+1 の場合には、入力フレームで誤りが検
出されなければ、S0=0、誤りが検出されれば、S0=Mとす
る。従って、S0=M+1の場合には、対応フレームの誤り検
出がない場合であるが、バースト誤りが続いた後である
ので、0とはせず、さらにその次のフレームで、誤りが
検出されなくなって0にする。
FIG. 4 shows an update table of S0. In FIG.
When the input of the buffer 34 = 0, the input frame indicates that the error correction has been completed completely, and the input of the buffer 34 =
When 1, it means that the frame could not be corrected, that is, a frame in which an error was detected. When S1 is 0, S0 = 0 if no error is detected in the input frame, and S0 = 1 if an error is detected. If S1 is from 1 to a predetermined number M-1, S0 = 0 if no error is detected in the input frame, and S0 = S1 + 1 if an error is detected, until the corresponding frame. The number of consecutive frames of error frames is held as the content of the flag. When S1 is M, if no error is detected in the input frame, S0 = M + 1, and if an error is detected, S0
= M. Here, M is a length that is considered to have a burst error added to consecutive frames, for example, 6,
And When S1 is M + 1, S0 = 0 if no error is detected in the input frame, and S0 = M if an error is detected in the input frame. Therefore, in the case of S0 = M + 1, there is no error detection of the corresponding frame, but since the burst error continues, it is not set to 0, and the error is detected in the next frame. It is set to 0 when it is no longer performed.

【0017】このような状態フラグの遷移に関しては、
従来の技術で述べたM.J.McLaughlinの文献(電子情報通
信学会無線通信システム研究会、RCS90-27, pp.41-45,1
990年)において、現在フレームを入力として、S0を現
在フレームのフラグとして、過去のフラグとともに用い
ているが、本発明では、現在フレームがS1、将来のフレ
ームをS0として、これから復号しようとするフレームの
次に来るフレームのフラグを用いる点が大きく異なる。
Regarding the transition of the state flag,
MJ McLaughlin's document described in the conventional technology (IEICE Technical Committee on Wireless Communication Systems, RCS90-27, pp.41-45,1
990), the current frame is used as an input, and S0 is used as a flag of the current frame together with the past flag. In the present invention, the current frame is S1, the future frame is S0, and the frame to be decoded is Is greatly different in that the flag of the frame that comes next to is used.

【0018】次に、こうして得られた誤り管理制御部35
の出力S(S2,S1,S0) を用いて、図2のパラメータ復号部
32で過去、現在、将来フレームの誤り状態を考慮した各
音声符号化情報のパラメータ復号を行なう。パラメータ
復号部32での誤り状態フラグに依存した処理手順のフロ
ー図の例を図5に示す。まず、図5のステップ101 にお
いて、現在フレームの誤り状態フラグS1が0であるかど
うかを判断し、0ならば、ステップ111 の処理1を実行
する。処理1では、S1=0であるから、現在フレームの音
声符号化情報に基づいて復号したパラメータを基本と
し、S0,S2 を見て、S0またはS2が0でない場合には、連
続的にパラメータが接続するように修正する。
Next, the error management control unit 35 thus obtained
Using the output S (S2, S1, S0) of FIG.
At 32, parameter decoding of each piece of speech coded information is performed in consideration of error states of past, present and future frames. FIG. 5 shows an example of a flowchart of a processing procedure depending on the error state flag in the parameter decoding unit 32. First, in step 101 of FIG. 5, it is determined whether or not the error state flag S1 of the current frame is 0, and if it is 0, the process 1 of step 111 is executed. In the process 1, since S1 = 0, the parameters are basically decoded based on the speech coding information of the current frame. When S0 and S2 are checked, if S0 or S2 is not 0, the parameters are continuously changed. Modify to connect.

【0019】次に、ステップ102 において、S1が0でな
く、フラグが1からM のいずれかの場合には、現在フレ
ームにおいて、誤り検出されたことを示している。従っ
て、この場合は、現在フレームの音声符号化情報には、
誤りが含まれている。そこで、過去フレーム及び将来フ
レームの情報を使うことになる。ステップ103 におい
て、S0=0またはM+1 ならば将来フレームが正しいので、
ステップ112 の処理2として、過去フレームで復号に使
われたパラメータと将来フレームの復号パラメータから
現在フレームのパラメータを両側から内挿補間する。そ
の際、S1のフラグの誤り継続の度合いにより、内挿の重
みを変えることもできる。例えば、S1がMに近ければ、
過去フレームのパラメータは、バースト誤りが継続し
て、次に述べるステップ113 処理3の外挿的な手法によ
って得られたパラメータであるので、過去のパラメータ
の重みは小さく、将来フレームの重みを大きくすること
により、より歪の小さい現在フレームのパラメータを得
ることができる。ステップ103において、S0≠0 かつS0
≠M+1 の場合、将来フレームには誤りが検出されてい
る。その場合、ステップ113 の処理3では、過去フレー
ムで復号に使われたパラメータの現在フレームへの外挿
による補間処理を行なう。その際、S1フラグの誤り継続
の度合いにより、外挿結果への重みを変えることもでき
る。
Next, in step 102, if S1 is not 0 and the flag is any of 1 to M, it indicates that an error has been detected in the current frame. Therefore, in this case, the audio coding information of the current frame includes:
Contains errors. Therefore, information of past frames and future frames is used. In step 103, if S0 = 0 or M + 1, the future frame is correct, so
As processing 2 in step 112, the parameters of the current frame are interpolated from both sides from the parameters used for decoding in the past frame and the decoding parameters of the future frame. At this time, the weight of interpolation can be changed depending on the degree of error continuation of the flag of S1. For example, if S1 is close to M,
The parameters of the past frame are the parameters obtained by the extrapolation method of the step 113 processing 3 described below in which the burst error continues, so that the weight of the past parameter is small and the weight of the future frame is increased. This makes it possible to obtain the parameters of the current frame with less distortion. In step 103, S0 ≠ 0 and S0
In the case of ≠ M + 1, an error has been detected in a future frame. In this case, in the process 3 of step 113, an interpolation process is performed by extrapolating the parameters used for decoding in the past frame to the current frame. At that time, the weight to the extrapolation result can be changed according to the degree of error continuation of the S1 flag.

【0020】ステップ102 において、NOの場合には、S1
=M+1であり、これは、過去のフレームにM フレーム以上
のバースト誤りがあった後に現在フレームが正しいこと
を示している。従って、ステップ114 の処理4では、現
在フレームの音声符号化情報に基づいて復号したパラメ
ータを基本とし、さらに、S2=Mであるから、過去フレー
ムにバースト誤りがあったこと、及び、S0が0またはM
になるので、その値によって、連続的にパラメータが接
続するように修正する。
In step 102, if NO, S1
= M + 1, which indicates that the current frame is correct after a burst error of M frames or more in the past frame. Therefore, in the processing 4 of step 114, the parameters decoded on the basis of the speech coding information of the current frame are used as the basis, and since S2 = M, there is a burst error in the past frame and S0 is 0. Or M
Therefore, the parameter is modified so as to be connected continuously according to the value.

【0021】次に、実際のパラメータについて、図5の
処理1〜処理4の例について述べる。CELP符号化におけ
る各フレームの音声符号化情報は、図1に示したよう
に、線形予測パラメータ符号A、パワパラメータ符号
P、ピッチ周期符号Lと雑音符号帳の雑音符号ベクトル
符号C、音源のゲインパラメータ符号Gからなる。ま
ず、線形予測パラメータ符号Aについての実施例を示
す。線形予測パラメータとしては、補間の際には、線形
補間特性の良い線スペクトル対(LSP :Line Spectrum
Pair) を用いる。線形予測パラメータは、今1フレーム
を20msとすれば、実際には、5ms〜10ms程度のサブフレ
ーム単位毎にパラメータを必要とする。その場合、前フ
レーム(過去フレーム)または、後フレーム(将来フレ
ーム)とのパラメータ間の補間によって、サブフレーム
のパラメータを求める。すると、前(または、後)フレ
ームに符号誤りがある場合には、誤ったパラメータと直
接補間すると、大きな歪が生じる。また、現在フレーム
のパラメータが誤っている場合でもすぐ前後のパラメー
タが誤りのない状態あれば、前後フレームから、現在フ
レームを補間することができる。
Next, with respect to actual parameters, examples of processing 1 to processing 4 in FIG. 5 will be described. As shown in FIG. 1, the speech coding information of each frame in CELP coding includes a linear prediction parameter code A, a power parameter code P, a pitch period code L, a noise code vector code C of a noise codebook, and a gain of a sound source. It consists of a parameter code G. First, an example of the linear prediction parameter code A will be described. As the linear prediction parameter, at the time of interpolation, a line spectrum pair (LSP: Line Spectrum) having a good linear interpolation characteristic is used.
Pair) is used. Assuming that one frame is 20 ms, the linear prediction parameter actually requires a parameter for each subframe unit of about 5 ms to 10 ms. In that case, the parameters of the sub-frame are obtained by interpolation between the parameters of the previous frame (past frame) or the subsequent frame (future frame). Then, when there is a code error in the previous (or subsequent) frame, a large distortion occurs when directly interpolating with an incorrect parameter. Even if the parameters of the current frame are incorrect, if the immediately preceding and succeeding parameters have no error, the current frame can be interpolated from the preceding and succeeding frames.

【0022】過去(時刻n-1 とする)、現在(時刻n
)、将来(時刻n+1 )フレームでの誤り訂正直後で補
間をしないLSP パラメータをそれぞれ、ω(n-1),ω(n),
ω(n+1)とし、誤り状態フラグを考慮して補間したあと
の時刻n-1 、n に対応するパラメータをΩ(n-1),Ω(n)
で表す。また、a ≦t ≦b の範囲のt に対して、時刻a
でXa, 時刻b でXbのパラメータであるときの時刻t での
内挿パラメータΩ(t) を、 Ω(t) = f_A(t;(a,Xa),(b,Xb)) で定義する。関数 f_A は、2点(a,Xa),(b,Xb) 間を補
間する関数で、時刻t の補間値を出力するものである。
例えば、直線補間でも良い。
The past (time n-1) and the present (time n
), LSP parameters that are not interpolated immediately after error correction in the future (time n + 1) frame are ω (n-1), ω (n),
ω (n + 1), and parameters corresponding to times n−1 and n after interpolation in consideration of the error state flag are Ω (n−1) and Ω (n).
Expressed by For t in the range of a ≦ t ≦ b, the time a
Define the interpolation parameter Ω (t) at time t when Xa is the parameter of Xb at time b and Ω (t) = f_A (t; (a, Xa), (b, Xb)) . The function f_A is a function for interpolating between two points (a, Xa) and (b, Xb), and outputs an interpolated value at time t.
For example, linear interpolation may be used.

【0023】図5ステップ111 の処理1では、現在フレ
ームの誤り状態フラグS1=0であり、ω(n) には誤りがな
いので、S2,S0 の誤り状態に応じて次のようにすれば良
い。現在フレーム内のt において、n-1 ≦t ≦n では、 S2=0ならば、Ω(t) = f_A(t;(n-1,Ω(n-1)),(n,ω
(n))), S2=1,...,Mならば、Ω(t) = f_A(t;(n-1,ω(n)),(n,
ω(n))) とする。また、n ≦t ≦n+1 のとき、 S0=0ならば、Ω(t) = f_A(t;(n,ω(n)),(n+1,ω(n+
1))), S0=1,...,Mならば、Ω(t) = f_A(t;(n,ω(n)),(n+1,
ω(n))) とする。
In the processing 1 of step 111 in FIG. 5, since the error state flag S1 of the current frame is 0 and there is no error in ω (n), the following is performed according to the error state of S2 and S0. good. At t in the current frame, for n-1 ≦ t ≦ n, if S2 = 0, Ω (t) = f_A (t; (n-1, Ω (n-1)), (n, ω
(n))), S2 = 1, ..., M, then Ω (t) = f_A (t; (n-1, ω (n)), (n,
ω (n))). Further, when n ≦ t ≦ n + 1, if S0 = 0, Ω (t) = f_A (t; (n, ω (n)), (n + 1, ω (n +
1))), S0 = 1, ..., M, then Ω (t) = f_A (t; (n, ω (n)), (n + 1,
ω (n))).

【0024】図5のステップ112 の処理2では、現在フ
レームパラメータに誤りがあるのでω(n) は使用せず、
S0=0またはM+1 なので、Ω(n-1),ω(n+1) を用いて、現
フレーム内の時刻t のパラメータを、 Ω(t) = f_A(t;(n-1,Ω(n-1)),(n+1,ω(n+1))),によ
り補間する。ステップ113 の処理3では、S0=1,...,Mな
ので、過去のパラメータを用いて、 Ω(t) = f_A(t;(n-1,Ω(n-1)),(n+1,Ω(n-1))) により、現フレーム内の時刻t のパラメータを補間す
る。この場合、S2,S1,S0の値に応じてΩ(t) のスペクト
ルのバンド幅を拡張するような関数を用いて出力のLSP
パラメータの共振特性を弱めるようにして、歪を防ぐよ
うな補間をしても良い。
In the process 2 of step 112 in FIG. 5, ω (n) is not used because the current frame parameter has an error.
Since S0 = 0 or M + 1, using Ω (n-1) and ω (n + 1), the parameter at time t in the current frame is expressed as Ω (t) = f_A (t; (n-1, Ω (n-1)), (n + 1, ω (n + 1))). In the process 3 of step 113, since S0 = 1,..., M, Ω (t) = f_A (t; (n-1, Ω (n−1)), (n + 1, Ω (n-1))) to interpolate the parameter at time t in the current frame. In this case, the output LSP is calculated using a function that extends the bandwidth of the Ω (t) spectrum according to the values of S2, S1, and S0.
Interpolation to prevent distortion may be performed by weakening the resonance characteristics of the parameters.

【0025】図5のステップ114 の処理4では、ω(n)
は使えるが、前フレームがバースト誤りなので、Ω(n-
1) を使うか、またはΩ0 として、平坦スペクトルとな
るようなパラメータのどちらかを用いる。これをΩ’と
する。現フレーム内のt において、n-1 ≦t ≦n のと
き、 Ω(t) = f_A(t;(n-1,Ω’)),(n,ω(n))), n ≦t ≦n+1 では、 S0=0ならば、Ω(t) = f_A(t;(n,ω(n)),(n+1,ω(n+
1))), S0=Mならば、Ω(t) = f_A(t;(n,ω(n)),(n+1,ω(n))) とする。
In process 4 of step 114 in FIG. 5, ω (n)
Can be used, but Ω (n-
Use either 1) or use Ω0 as a parameter that results in a flat spectrum. This is Ω ′. At t in the current frame, when n-1 ≤ t ≤ n, Ω (t) = f_A (t; (n-1, Ω ')), (n, ω (n))), n ≤ t ≤ For n + 1, if S0 = 0, Ω (t) = f_A (t; (n, ω (n)), (n + 1, ω (n +
1))), if S0 = M, Ω (t) = f_A (t; (n, ω (n)), (n + 1, ω (n))).

【0026】次に、パワパラメータ符号の図5の各処理
について考える。基本的には、線形予測パラメータの補
間の場合と同様である。パワの場合もサブフレーム単位
のパワを計算する場合について示す。過去(時刻n-1 と
する)、現在(時刻n )、将来(時刻n+1 )フレームで
の誤り訂正直後で補間をしないパワパラメータをそれぞ
れ、p(n-1),p(n),p(n+1)とし、誤り状態フラグを考慮し
て補間したあとの時刻n-1 、n に対応するパラメータを
P(n-1),P(n) とする。
Next, consider each processing of the power parameter code shown in FIG. Basically, it is the same as the case of interpolation of the linear prediction parameter. In the case of power, the case of calculating power in subframe units will be described. Power parameters that are not interpolated immediately after error correction in the past (time n-1), current (time n), and future (time n + 1) frames are p (n-1), p (n), p (n + 1), and parameters corresponding to times n−1 and n after interpolation in consideration of the error state flag are P (n−1) and P (n).

【0027】時刻a でXa, 時刻b でXbであるときの時刻
t でのパワの内挿パラメータP(t)を、P(t) = f_P(t;
(a,Xa),(b,Xb))で定義する。関数 f_P は、2点(a,X
a), (b,Xb)間の直線補間、または、Xa,Xbの対数表現の
直線補間といった関数でも良い。
Time when Xa at time a and Xb at time b
The power interpolation parameter P (t) at t is given by P (t) = f_P (t;
(a, Xa), (b, Xb)). The function f_P has two points (a, X
a), (b, Xb) linear interpolation between, or, Xa, may be a function such as linear interpolation of the logarithmic representation of Xb.

【0028】図5のステップ111 の処理1では、S1=0な
ので、p(n)には、誤りがないので、現フレーム内のt に
おいて、n-1≦t≦nでは、S2=0ならば、P(t) = f_P(t;
(n-1,P(n-1)),(n,p(n))),S2=1,...,Mならば、P(t) =
f_P(t;(n-1,p(n)),(n,p(n)))とする。そして、結果の
P(t) が、P(n-1) よりも一定の定数倍(例えばα≧1)
よりも大きい場合には、α’P(t),(0≦α’<1)とし
て、パワを小さく制限することにより、急激なパワ変化
による歪を聞こえないようにする。また、n ≦t ≦n+1
では、S0=0ならば、P(t) = f_P(t;(n,p(n)),(n+1,p(n
+1))),S0=1,...,Mならば、P(t) = f_P(t;(n,p(n)),(n
+1,p(n)))とする。
In the processing 1 of step 111 in FIG. 5, since S1 = 0, there is no error in p (n). Therefore, at t in the current frame, if n−1 ≦ t ≦ n, if S2 = 0, If P (t) = f_P (t;
(n-1, P (n-1)), (n, p (n))), S2 = 1, ..., M, then P (t) =
Let f_P (t; (n-1, p (n)), (n, p (n))). Then, the resulting P (t) is a constant multiple of P (n-1) (for example, α ≧ 1).
If it is greater than α′P (t), (0 ≦ α ′ <1) , the power is limited to a small value so that distortion due to a sudden change in power is not heard. Also, n ≦ t ≦ n + 1
Then, if S0 = 0, P (t) = f_P (t; (n, p (n)), (n + 1, p (n
+1))), S0 = 1, ..., M, then P (t) = f_P (t; (n, p (n)), (n
+ 1, p (n))).

【0029】図5のステップ112 の処理2では、現在フ
レームパラメータに誤りがあるので、p(n)は使用せず
に、S0=0またはM+1 なので、P(n-1), p(n+1) を用い
て、現フレーム内の時刻tのパラメータを、P(t) = f_
P(t;(n-1,P(n-1)),(n+1,p(n+1)))により補間する。こ
こで、一定の閾値(例えばα(≧1)) に対して、P(t)>
αP(n-1) であり、パワ変化が大きすぎる場合には、
α’P(t), (0≦α’<1)のようにパワを置換し、パワ
を小さく制限することにより、歪が聞こえないようにす
る。α’は、S1のバースト誤りの継続数によって変更し
ても良い。
In process 2 of step 112 in FIG. 5, since there is an error in the current frame parameter, p (n) is not used, and S0 = 0 or M + 1, so that P (n-1), p (n n + 1), the parameter at time t in the current frame is calculated as P (t) = f_
Interpolation is performed using P (t; (n-1, P (n-1)), (n + 1, p (n + 1))). Here, for a certain threshold value (for example, α (≧ 1)), P (t)>
αP (n-1), and if the power change is too large,
By substituting the power as α′P (t), (0 ≦ α ′ <1) and limiting the power to a small value, distortion is not heard. α ′ may be changed according to the number of continuous burst errors in S1.

【0030】ステップ113 の処理3では、S0=1,...,Mな
ので、過去のパラメータを用いて、P(t) = f_P(t;(n-
1,P(n-1)),(n+1,P(n-1)))とし、さらに、誤りフレー
ムの音量を弱めてP(t) をα’P(t), (0≦α’<1)
する。α’は、S1のバースト誤りの継続数によって変更
しても良い。例えば、S1=Mならば、現在フレームまで
に、M フレーム以上の大きなバースト誤りが生じている
ことを意味するので、α’=0として無音区間とし、歪
みのある音声を出力しないようにする。
In the process 3 in step 113, since S0 = 1,..., M, P (t) = f_P (t; (n-
1, P (n-1)), (n + 1, P (n-1))), and further, the volume of the error frame is weakened, and P (t) is set to α′P (t), (0 ≦ α '<1) . α ′ may be changed according to the number of continuous burst errors in S1. For example, if S1 = M, it means that a large burst error of M frames or more has occurred by the current frame. Therefore, α ′ = 0 is set as a silent section, and no distorted speech is output.

【0031】図5のステップ114 の処理4では、p(n)は
使えるが、前フレームがバースト誤りフレームである。
そこで、現フレーム内のt において、n-1 ≦t ≦n のと
き、P(t) = f_P(t;(n-1,P(n-1)),(n,p(n)))そして、
P(t) をα’P(t) (0≦α’<1)に置き換える。n ≦t
≦n+1 では、S0=0ならば、P(t) = f_P(t;(n,p(n)),(n
+1,p(n+1))),S0=Mならば、P(t) = f_P(t;(n,p(n)),(n
+1,p(n)))とする。S0=Mの場合は、さらに、P(t) を
α’P(t), (0≦α’<1)とする。
In process 4 of step 114 in FIG. 5, p (n) can be used, but the previous frame is a burst error frame.
Therefore, at t in the current frame, when n-1 ≦ t ≦ n, P (t) = f_P (t; (n-1, P (n-1)), (n, p (n))) And
Replace P (t) with α′P (t) (0 ≦ α ′ <1) . n ≤t
For ≦ n + 1, if S0 = 0, P (t) = f_P (t; (n, p (n)), (n
+ 1, p (n + 1))), if S0 = M, P (t) = f_P (t; (n, p (n)), (n
+ 1, p (n))). When S0 = M, P (t) is further set to α′P (t), (0 ≦ α ′ <1) .

【0032】次に、ピッチ周期符号Lのパラメータ復号
の例を示す。ピッチ周期符号Lは、図1において、適応
符号帳10のピッチ遅延を示す遅延値である。これは、1
フレームをk個(例えば2個)のサブフレームに分け、
その個数だけLの値をピッチ情報として伝送する。ピッ
チ遅延は、CELPではピッチ周期だけでなく2倍周期、3
倍周期といったとびとびの値をとることもある。従っ
て、本実施例では、k=2とした場合について、前フレー
ムと後のフレームとのピッチ周期の値を現フレームが誤
ったときに置換するという手法について示す。もちろ
ん、ピッチ周期の変動が小さく、前後フレームのピッチ
周期を補間可能な場合には、補間によって求めてもよ
い。
Next, an example of parameter decoding of the pitch period code L will be described. The pitch period code L is a delay value indicating the pitch delay of the adaptive codebook 10 in FIG. This is 1
Divide the frame into k (for example, 2) subframes,
The value of L is transmitted as pitch information by the number. The pitch delay in CELP is not only the pitch period but also a double period, 3
It may take discrete values such as double periods. Therefore, in this embodiment, when k = 2, a method of replacing the value of the pitch period between the previous frame and the subsequent frame when the current frame is erroneous is shown. Of course, if the fluctuation of the pitch period is small and the pitch periods of the preceding and following frames can be interpolated, the pitch period may be obtained by interpolation.

【0033】過去(時刻n-1 )、現在(時刻n )、将来
(時刻n+1 )フレームでの誤り訂正直後ピッチ遅延をそ
れぞれ、lk(n-1), lk(n), lk(n+1),(k=1,2)とし、誤
り状態フラグを考慮したあとの時刻n-1 、n に対応する
パラメータをLk(n-1), Lk(n), (k=1,2) とする。図5
のステップ111 の処理1では、S1=0なので、lk(n)に誤
りがないので、 Lk(n) =lk(n), (k=1,2) とする。
The pitch delays immediately after error correction in the past (time n-1), present (time n), and future (time n + 1) frames are lk (n-1), lk (n), and lk (n, respectively. +1), (k = 1, 2), and parameters corresponding to times n−1, n after considering the error state flag are Lk (n−1), Lk (n), (k = 1, 2). ). FIG.
In the processing 1 of step 111, since S1 = 0, there is no error in lk (n), so that Lk (n) = lk (n), (k = 1,2).

【0034】図5のステップ112 の処理2では、現在フ
レームのパラメータに誤りがあるので、lk(n)は使用せ
ずに、 L1(n) =L2(n-1),L2(n) =l1(n+1) とする。ステップ113 の処理3では、S0=1,...,Mなので
過去のパラメータを用いて、 Lk(n) =L2(n-1), (k=1,2) とする。
In process 2 of step 112 in FIG. 5, since there is an error in the parameters of the current frame, lk (n) is not used, and L1 (n) = L2 (n-1), L2 (n) = l1 (n + 1). In process 3 of step 113, since S0 = 1,..., M, Lk (n) = L2 (n-1), (k = 1, 2) using the past parameters.

【0035】ステップ114 の処理4では、現在フレーム
が正しいので、処理1と同じく、 Lk(n) =lk(n), (k=1,2) とする。次に、音源ゲインパラメータGの復号例を示
す。Gは、図1において、適応符号帳10と雑音符号帳11
で選ばれた各音源信号に乗ずるゲインg1,g2 の組を総称
している。このGに関しては、ピッチ遅延と同様にパラ
メータ復号を行なう。過去(時刻n-1 )、現在(時刻n
)、将来(時刻n+1 )フレームでの誤り訂正直後音源
ゲインをそれぞれ、σk(n-1), σk(n), σk(n+1),(k=1,
2)とし、誤り状態フラグを考慮したあとの時刻n-1 、n
に対応するパラメータをGk(n-1), Gk(n), (k=1,2) と
する。
In the processing 4 of step 114, the current frame is correct, so that Lk (n) = lk (n), (k = 1, 2), as in the processing 1. Next, a decoding example of the sound source gain parameter G will be described. G is the adaptive codebook 10 and the noise codebook 11 in FIG.
Collectively refers to a set of gains g1 and g2 multiplied by each sound source signal selected in. For G, parameter decoding is performed in the same manner as for the pitch delay. Past (time n-1), present (time n
), The sound source gain immediately after error correction in the future (time n + 1) frame is σk (n-1), σk (n), σk (n + 1), (k = 1,
2) and time n-1 and n after considering the error status flag
Are defined as Gk (n-1), Gk (n), (k = 1,2).

【0036】図5のステップ111 の処理1では、S1=0で
ありσk(n)に誤りがないので、 Gk(n) =σk(n), (k=1,2) とする。図5のステップ112の処理2では、現在フレー
ムパラメータに誤りがあるので、σk(n)は使用せずに、 G1(n) =G2(n-1),G2(n) =σ1(n+1) とする。
In process 1 of step 111 in FIG. 5, since S1 = 0 and there is no error in σk (n), Gk (n) = σk (n), (k = 1, 2). In process 2 of step 112 in FIG. 5, since there is an error in the current frame parameter, σk (n) is not used, and G1 (n) = G2 (n-1) and G2 (n) = σ1 (n + 1)

【0037】ステップ113 の処理3では、S0=1,...,Mな
ので過去のパラメータを用いて、 Gk(n) =G2(n-1), (k=1,2) とする。ステップ114 の処理4では、現在フレームが正
しいので、処理1と同じく、 Gk(n) =σk(n), (k=1,2) とする。
In process 3 of step 113, since S0 = 1,..., M, Gk (n) = G2 (n-1), (k = 1,2) using the past parameters. In process 4 of step 114, the current frame is correct, so that Gk (n) = σk (n), (k = 1, 2) as in process 1.

【0038】雑音符号帳の雑音ベクトル符号Cの復号に
関しては、フレーム間の相関は、大きくないので、本実
施例では、誤り状態フラグに関係なく現在フレームに送
られた符号をそのまま再生に使用する。こうして、図2
のパラメータ復号部32で、過去、現在、将来の誤り状態
フラグに基づき、音声符号化情報のパラメータが復号・
修復される。その結果が、次の音声復号器33に渡され、
音声が再合成される。
Regarding the decoding of the noise vector code C in the noise codebook, since the correlation between frames is not large, in this embodiment, the code sent to the current frame is used as it is for reproduction regardless of the error state flag. . Thus, FIG.
The parameter decoding unit 32 decodes the parameters of the speech coded information based on the past, present, and future error state flags.
Will be repaired. The result is passed to the next audio decoder 33,
The voice is resynthesized.

【0039】音声復号器33においても、誤り状態管理部
35からの過去、現在、将来のフレーム誤り状態フラグS
(=S2,S1,S0)を用いて、復号音声の再生音声を制御する
ことにより伝送誤りによる歪みを小さくできる。すなわ
ち、図1のポストフィルタ13において、Sを用いてポス
トフィルタの係数を制御して聴覚的な歪みを抑える。通
常、ポストフィルタは、次のようなH(z)によって構成さ
れている。
In the speech decoder 33, the error state management unit
Past, present and future frame error status flag S from 35
By controlling the reproduced voice of the decoded voice using (= S2, S1, S0), distortion due to a transmission error can be reduced. That is, in the post filter 13 of FIG. 1, the coefficient of the post filter is controlled using S to suppress the auditory distortion. Usually, the post filter is constituted by H (z) as follows.

【0040】[0040]

【数1】 (Equation 1)

【0041】ここで,αi は、各フレームの線形予測係
数であり、βi は長期予測係数、τはピッチ遅延であ
る。これらは、伝送パラメータあるいは、復号音声から
適応的に決定される。 A(z/γ1)/A(z/γ2) でホルマント強調を行い、1/(1-δB(z))でピッチの強調
を、さらに、
Here, αi is a linear prediction coefficient of each frame, βi is a long-term prediction coefficient, and τ is a pitch delay. These are adaptively determined from transmission parameters or decoded speech. Formant enhancement is performed by A (z / γ1) / A (z / γ2), and pitch enhancement is performed by 1 / (1-δB (z)).

【0042】[0042]

【数2】 (Equation 2)

【0043】でスペクトル傾斜補正の効果をもたせてい
る.本実施例では、η、δ、γ1 、γ2 を誤り状態フラ
グS(=S2,S1,S0)の関数としてH(z)を各フレーム毎に適応
的に変化させる。S2,S1,S0がいずれも0またはM+1の場
合には、通常の値を使用するが、S2,S1,S0のいずれかが
0とM+1 以外で誤りフレームである場合には、適応符号
帳や、雑音符号ベクトル符号に誤りが含まれている可能
性が高いので、ηとδを小さくして、高域のスペクトル
傾斜と音源のピッチ強調を弱め、γ1 とγ2 を調整して
ホルマント強調の度合いを強めることにより、出力音声
の雑音感を抑えることができる。ここで、S0の将来フレ
ームまでの誤り状態フラグを用いることにより、S2, S1
だけの場合よりもη、δ、γ1、γ2 の切替えを連続的
に行うことにが可能となり、フレーム間での切替えによ
る音質変化による劣化を抑えることができる。
Thus, the effect of spectral tilt correction is provided. In this embodiment, H (z) is adaptively changed for each frame by using η, δ, γ1, γ2 as a function of the error state flag S (= S2, S1, S0). When S2, S1, and S0 are all 0 or M + 1, the normal value is used. However, when any of S2, S1, and S0 is other than 0 and M + 1 and the frame is an error, Since there is a high possibility that the adaptive codebook and the noise code vector code contain errors, reduce η and δ, weaken the high-frequency spectral tilt and the pitch enhancement of the sound source, and adjust γ1 and γ2. By increasing the degree of formant emphasis, noise in the output sound can be suppressed. Here, by using the error status flags up to the future frame of S0, S2, S1
The switching of η, δ, γ1, and γ2 can be performed more continuously than in the case of only the above, and deterioration due to a change in sound quality due to switching between frames can be suppressed.

【0044】[0044]

【発明の効果】以上説明したように、本発明によれば、
音声符号化ビットに伝送路の符号誤りが残留した場合
に、復号音声に重畳する耳障りな歪みを抑えることが可
能となる。
As described above, according to the present invention,
When a code error of the transmission line remains in the audio coded bit, it is possible to suppress the annoying distortion superimposed on the decoded audio.

【図面の簡単な説明】[Brief description of the drawings]

【図1】CELP音声復号器のブロック図である。FIG. 1 is a block diagram of a CELP speech decoder.

【図2】本発明の実施例におけ音声復号処理のブロック
図である。
FIG. 2 is a block diagram of a speech decoding process in the embodiment of the present invention.

【図3】図2の誤り状態管理部35の拡大図である。FIG. 3 is an enlarged view of an error state management unit 35 of FIG. 2;

【図4】図3の状態フラグ更新部351における、S0フラ
グの更新表である。
FIG. 4 is an update table of an S0 flag in a status flag updating unit 351 of FIG. 3;

【図5】誤り状態フラグに応じた処理フローの概略図で
ある。
FIG. 5 is a schematic diagram of a processing flow according to an error state flag.

【符号の説明】[Explanation of symbols]

10は適応符号帳 11は雑音符号帳 12は線形予測合成フィルタ 13はポストフィルタ 21,22,24は乗算器 23は加算器 30は誤り訂正回路 31,34はバッファ 32はパラメータ復号部 33は音声復号器 35は誤り状態管理部 10 is an adaptive codebook 11 is a noise codebook 12 is a linear prediction synthesis filter 13 is a post filter 21, 22, 24 is a multiplier 23 is an adder 30 is an error correction circuit 31, 34 is a buffer 32 is a parameter decoding unit 33 is a voice The decoder 35 is an error state management unit

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平2−176800(JP,A) 特開 平4−30200(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 13/00 G10L 19/00 ────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-2-176800 (JP, A) JP-A-4-30200 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G10L 13/00 G10L 19/00

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】音声符号化情報と誤り訂正符号とをフレー
ムごとに受信して前記音声符号化情報を復号して得られ
た現在、過去及び将来フレームのうち少なくともいずれ
かのパラメータに基づくサブフレームのパラメータ、を
用いてサブフレームごとに適応符号帳及び雑音符号帳か
らのベクトルにそれぞれ重み付けられた後、加算した励
振ベクトルを合成フィルタへ供給し、パワを乗じて音声
を再生する音声復号化方法において 声符号化情報を復号する際、過去、現在及び将来フレ
ームのそれぞれの符号誤り検出情報を用い、過去、現在、将来のフレームに対応するフラグをそれぞ
れS2,S1,S0としてフラグS1が1からM-1(Mはバースト性
の誤りが加わっていると考えられるフレーム数)で、前
記誤り訂正符号を用いて誤り検出されなかった場合、フ
ラグS0を0とし、誤り検出された場合フラグS0をS1+1と
し、 フラグS1がMの場合、前記誤り訂正符号を用いて誤り検
出されなかった場合、フラグS0をM+1とし、誤り検出さ
れた場合フラグS0をMとし、 フレーム更新の際にフラグS2をフラグS1で、フラグS1を
フラグS0で更新し、 フラグS1が0か、 フラグS1が1からM のいずれかでフラグS0が0またはM+1
か、 フラグS1が1からM のいずれかでフラグS0が0でもM+1
でもないか、 フラグS1がM+1 か、に現在フレーム内のサブフレームの
パラメータを再生又は修復する処理が依存する ことを特
徴とする音声復号化方法。
1. An audio coding apparatus comprising:
Received by decoding the audio coded information
Current, past and / or future frames
Subframe parameters based on
Use adaptive codebook and random codebook for each subframe
After the vectors are weighted,
Supply the vibration vector to the synthesis filter and multiply the power
In speech decoding method for reproducing, in decoding the voice coded data, past, current use and the respective code error detection information for future frame <br/> over arm, past, present, correspond to future frames Each flag
The flag S1 is set from 1 to M-1 (M is bursty) as S2, S1, S0.
Number of frames considered to have an error)
If no error is detected using the error correction code,
The lag S0 is set to 0, and the flag S0 is set to S1 + 1 when an error is detected.
When the flag S1 is M, error detection is performed using the error correction code.
If not issued, the flag S0 is set to M + 1 and an error is detected.
Flag S0 is set to M , flag S2 is set to flag S1, and flag S1 is set to
Update with flag S0, flag S1 is 0, flag S1 is 1 to M, and flag S0 is 0 or M + 1
Or M + 1 even if flag S1 is 1 to M and flag S0 is 0
Or whether the flag S1 is M + 1 or
A speech decoding method, wherein a process of reproducing or restoring a parameter depends on the process.
【請求項2】 請求項1記載の音声復号化方法におい2. The speech decoding method according to claim 1, wherein
て、hand, 前記音声符号化情報は線形予測パラメータ符号を含み、The audio encoding information includes a linear prediction parameter code,
前記パラメータとして線スペクトル対について、For the line spectrum pair as the parameter, フラグS1が0の場合、フラグS2が0ならば過去に音声の再If the flag S1 is 0, and if the flag S2 is 0,
生に用いられたパラメータと現在フレームのパラメータRaw parameters and current frame parameters
からサブフレームのパラメータを補間し、Interpolate the subframe parameters from フラグS2が1からMのいずれかならば現在フレームのパラIf the flag S2 is any of 1 to M, the parameter of the current frame
メータを用い、Using a meter, もしくはフラグS0が0ならば将来フレームのパラメータOr if the flag S0 is 0, the parameters of the future frame
と現在フレームのパラメAnd the parameters of the current frame ータからサブフレームのパラメData from the subframe
ータを補間し、フラグS0が1からMのいずれかならば前記If the flag S0 is any of 1 to M,
サブフレームのパラメータとして現在フレームのパラメThe parameters of the current frame as subframe parameters
ータを用い、Data, フラグS1が1からM のいずれかでフラグS0が0またはM+1Flag S1 is 1 to M and flag S0 is 0 or M + 1
の場合、過去フレームのパラメータと将来フレームの In the case of
パラメータを用いて前記サブフレームのパラメータを補The parameters of the subframe are supplemented using the parameters.
間し、Wait フラグS1が1からM のいずれかでフラグS0が0でもM+1 M + 1 even if flag S1 is 1 to M and flag S0 is 0
でもない場合、前記サブフレームのパラメータとして過If not, the parameter
去に音声の再生に用いられたパラメータを用い、Using the parameters that were previously used for audio playback, フラグS1がM+1 の場合、過去に音声の再生に用いられたIf the flag S1 is M + 1, it was used for audio playback in the past
パラメータか平坦スペクトルとなるパラメータと現在フParameter or the parameter that results in a flat spectrum
レームのパラメータを補間して前記サブフレームのパラBy interpolating the frame parameters,
メータを補間し、Interpolate the meter, もしくはフラグS0が0ならば将来フレームのパラメータOr if the flag S0 is 0, the parameters of the future frame
と現在フレームのパラメータから前記サブフレームのパFrom the parameters of the current frame and the parameters of the current frame.
ラメータを補間し、フラグS0がMならば前記サブフレーParameters are interpolated, and if the flag S0 is M, the subframe
ムのパラメータとして現在フレームのパラメータを用いUsing the parameters of the current frame as
て前記合成フィルタの係数として設定することを特徴とAnd setting the coefficients as the coefficients of the synthesis filter.
する音声復号化方法。Audio decoding method.
【請求項3】 請求項1記載の音声復号化方法におい3. The speech decoding method according to claim 1, wherein
て、hand, 前記音声符号化情報はパワパラメータ符号を含み、前記The audio coding information includes a power parameter code,
パラメータとしてパワについてAbout power as a parameter フラグS1が0の場合、フIf the flag S1 is 0,
ラグS2が0ならば過去に音声の再生に用いられたパラメIf the lag S2 is 0, the parameters used for audio playback in the past
ータと現在フレームのパラメータからサブフレームのパData and subframe parameters from the current frame parameters.
ラメータを補間し、Interpolate the parameters フラグS2が1からMのいずれかならば現在フレームのパラIf the flag S2 is any of 1 to M, the parameter of the current frame
メータを用い、Using a meter, 該パラメータが過去フレームで音声の再生に用いられたThe parameter was used to play audio in the past frame
パラメータの定数倍より大きい場合に、該パラメータにIf the parameter is larger than a constant multiple,
1より小さい値を乗じたパラメータを用い、Using a parameter multiplied by a value less than 1, もしくはフラグS0が0ならば将来フレームのパラメータOr if the flag S0 is 0, the parameters of the future frame
と現在フレームのパラメータからサブフレームのパラメAnd subframe parameters from the current frame parameters
ータを補間し、フラグS0が1からMのいずれかならば前記If the flag S0 is any of 1 to M,
サブフレームのパラメータとして現在フレームのパラメThe parameters of the current frame as subframe parameters
ータを用い、Data, フラグS1が1からM のいずれかでフラグS0が0またはM+1Flag S1 is 1 to M and flag S0 is 0 or M + 1
の場合、過去フレームで音声再生に用いられたパラメ In the case of, the parameters used for audio playback in the past frame
ータと将来フレームのパラメータを用いて前記サData and the parameters of future frames. ブフレBuffle
ームのパラメータを補間し、該補間結果のパラメータがThe parameters of the interpolation
過去フレームで音声の再生に用いられたパラメータの一One of the parameters used for audio playback in the past frame
定の閾値倍より大きい場合に、前記補間結果のパラメーIf the value is larger than a certain threshold value,
タに1より小さい値を乗じ、Multiplied by a value less than 1 フラグS1が1からM のいずれかでフラグS0が0でもM+1 M + 1 even if flag S1 is 1 to M and flag S0 is 0
でもない場合、前記サブフレームのパラメータとして過If not, the parameter
去に音声の再生に用いられたパラメータに1より小さいThe parameter used to play back the sound was less than 1
値を乗じ、Multiply by フラグS1がM+1 の場合、過去に音声の再生に用いられたIf the flag S1 is M + 1, it was used for audio playback in the past
パラメータと現在フレームのパラメータから前記サブフFrom the parameters and the parameters of the current frame,
レームのパラメータを補間し1より小さい値を乗じ、Interpolate the frame parameters and multiply by a value less than 1. もしくはフラグS0が0ならば将来フレームのパラメータOr if the flag S0 is 0, the parameters of the future frame
と現在フレームのパラメータから前記サブフレームのパFrom the parameters of the current frame and the parameters of the current frame.
ラメータを補間し、フラグS0がMならば前記サブフレーParameters are interpolated, and if the flag S0 is M, the subframe
ムのパラメータとして現在フレームのパラメータに1よ1 for the parameter of the current frame
り小さい値を乗じて音声を再生することを特徴とする音Sound reproduced by multiplying the sound by a smaller value
声復号化方法。Voice decoding method.
【請求項4】 請求項1記載の音声復号化方法におい4. The speech decoding method according to claim 1, wherein
て、hand, 前記音声符号化情報はサブフレーム毎のピッチ周期符号The speech coded information is a pitch period code for each subframe.
を含み、Including フラグS1が0の場合、現在フレームのピッチ周期符号でWhen the flag S1 is 0, the pitch period code of the current frame is used.
示されるピッチ遅延に基づき、Based on the indicated pitch delay, フラグS1が1からM のいずれかでフラグS0が0またはM+1Flag S1 is 1 to M and flag S0 is 0 or M + 1
の場合、過去フレームにおいて音声の再生に用いられ Is used for audio playback in the past frame.
たピッチ遅延と将来フレームのピッチ周期符号で示されIndicated by the pitch delay and the pitch period code of the future frame
るピッチ遅延に基づき、Based on the pitch delay フラグS1が1からM のいずれかでフラグS0が0でもM+1 M + 1 even if flag S1 is 1 to M and flag S0 is 0
でもない場合、過去フレームで音声の再生に用いられたIf not, the last frame used to play the audio
ピッチ遅延に基づき、Based on pitch delay, フラグS1がM+1 の場合、現在フレームのピッチ周期符号If the flag S1 is M + 1, the pitch period code of the current frame
で示されるピッチ遅延に基づき、Based on the pitch delay shown by 過去の励振ベクトルを切り出し繰り返した時系列ベクトTime series vector obtained by extracting past excitation vectors and repeating
ルを前記適応符号帳から出力することを特徴とする音声Output from the adaptive codebook.
復号化方法。Decryption method.
【請求項5】 請求項1記載の音声復号化方法におい5. The speech decoding method according to claim 1, wherein
て、hand, 前記音声符号化情報はサブフレーム毎のゲイン符号を含The audio coding information includes a gain code for each subframe.
み、See フラグS1が0の場合、現在フレームのゲイン符号で示さWhen the flag S1 is 0, it is indicated by the gain code of the current frame.
れるゲインの組を用い、フラグS1が1からM のいずれかThe flag S1 is one of 1 to M
でフラグS0が0またはM+1 の場合、過去フレームにおいIf the flag S0 is 0 or M + 1,
て音声の再生に用いられたゲインと将来フレームのゲイGain used for audio playback and the gain of future frames
ン符号で示されるゲインを用い、Using the gain indicated by the フラグS1が1からM のいずれかでフラグS0が0でもM+1 M + 1 even if flag S1 is 1 to M and flag S0 is 0
でもない場合、過去フレームで音声の再生に用いられたIf not, the last frame used to play the audio
ゲインの組を用い、Using a set of gains, フラグS1がM+1の場合、現在フレームのゲイン符号で示When the flag S1 is M + 1, it is indicated by the gain code of the current frame.
されるゲインの組を用い、Using a set of gains 適応符号帳及び雑音符号帳からのベクトルにそれぞれ重Each vector from the adaptive codebook and the random codebook
み付けることを特徴とする音声復号化方法。A voice decoding method characterized by finding a voice.
JP17089092A 1992-06-29 1992-06-29 Audio decoding method Expired - Fee Related JP3219467B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17089092A JP3219467B2 (en) 1992-06-29 1992-06-29 Audio decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17089092A JP3219467B2 (en) 1992-06-29 1992-06-29 Audio decoding method

Publications (2)

Publication Number Publication Date
JPH0612095A JPH0612095A (en) 1994-01-21
JP3219467B2 true JP3219467B2 (en) 2001-10-15

Family

ID=15913221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17089092A Expired - Fee Related JP3219467B2 (en) 1992-06-29 1992-06-29 Audio decoding method

Country Status (1)

Country Link
JP (1) JP3219467B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5574825A (en) * 1994-03-14 1996-11-12 Lucent Technologies Inc. Linear prediction coefficient generation during frame erasure or packet loss
JPH1168709A (en) * 1997-08-13 1999-03-09 Mitsubishi Electric Corp Error detector for received digital data
EP1001542B1 (en) 1998-05-27 2011-03-02 Ntt Mobile Communications Network Inc. Voice decoder and voice decoding method
WO2002071389A1 (en) * 2001-03-06 2002-09-12 Ntt Docomo, Inc. Audio data interpolation apparatus and method, audio data-related information creation apparatus and method, audio data interpolation information transmission apparatus and method, program and recording medium thereof
JP4426186B2 (en) * 2001-05-22 2010-03-03 富士通株式会社 Audio signal processing device
JP2005024756A (en) * 2003-06-30 2005-01-27 Toshiba Corp Decoding process circuit and mobile terminal device
JP4554248B2 (en) * 2004-03-26 2010-09-29 京セラ株式会社 Noise reduction apparatus, noise reduction method and program for digital wireless communication device

Also Published As

Publication number Publication date
JPH0612095A (en) 1994-01-21

Similar Documents

Publication Publication Date Title
JP3102015B2 (en) Audio decoding method
EP1088205B1 (en) Improved lost frame recovery techniques for parametric, lpc-based speech coding systems
US7324937B2 (en) Method for packet loss and/or frame erasure concealment in a voice communication system
JP3378238B2 (en) Speech coding including soft adaptability characteristics
JPH06202696A (en) Speech decoding device
JPH0863196A (en) Post filter
US5659659A (en) Speech compressor using trellis encoding and linear prediction
JP3564144B2 (en) Method and apparatus for encoding audio frequency signals with &#34;forward&#34; and &#34;backward&#34; LPC analysis
EP1096476B1 (en) Speech signal decoding
JP3416331B2 (en) Audio decoding device
JP3219467B2 (en) Audio decoding method
JP3722366B2 (en) Packet configuration method and apparatus, packet configuration program, packet decomposition method and apparatus, and packet decomposition program
JP3074680B2 (en) Post-noise shaping filter for speech decoder.
EP1199710B1 (en) Device, method and recording medium on which program is recorded for decoding speech in voiceless parts
JP3095340B2 (en) Audio decoding device
JP3510643B2 (en) Pitch period processing method for audio signal
JP3275248B2 (en) Audio decoding method
JP3617503B2 (en) Speech decoding method
JP3089967B2 (en) Audio coding device
JP3754819B2 (en) Voice communication method and voice communication apparatus
JP3085347B2 (en) Audio decoding method and apparatus
JP3350340B2 (en) Voice coding method and voice decoding method
JP3212123B2 (en) Audio coding device
JPH08202398A (en) Voice coding device
JP3270146B2 (en) Audio coding device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070810

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080810

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080810

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090810

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090810

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees