JPH06130998A - Compressed voice decoding device - Google Patents

Compressed voice decoding device

Info

Publication number
JPH06130998A
JPH06130998A JP4284292A JP28429292A JPH06130998A JP H06130998 A JPH06130998 A JP H06130998A JP 4284292 A JP4284292 A JP 4284292A JP 28429292 A JP28429292 A JP 28429292A JP H06130998 A JPH06130998 A JP H06130998A
Authority
JP
Japan
Prior art keywords
frame
information
decoding
interpolation
excitation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4284292A
Other languages
Japanese (ja)
Inventor
Kenichiro Hosoda
賢一郎 細田
Hiroshi Katsuragawa
浩 桂川
Hiromi Aoyanagi
弘美 青柳
Yoshihiro Ariyama
義博 有山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP4284292A priority Critical patent/JPH06130998A/en
Publication of JPH06130998A publication Critical patent/JPH06130998A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To improve the quality of a reproduced voice signal even when a present frame is a bad frame with information omitted. CONSTITUTION:When the present frame is the bad frame and some interpolation processing is not performed, a voice is instantaneously absent and the quality of the reproduced voice signal is degraded. The information of frames in the past can be utilized for the interpolation but even in this case, the interpolation is not satisfactorily performed and the quality of the reproduced voice signal is degraded sometimes. Therefore, when the present frame is the bad frame, an interpolation processing part 23a interpolates the information of the present frame by using the information of frames in the past and future rather than the present frame, and the quality of the reproduced voice signal is improved by performing decoding processing while using the interpolation information.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は圧縮音声復号化装置に関
し、例えば、コード励振線形予測符号化方式(CEL
P)を用いたデジタル移動通信システムに適用し得るも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a compressed speech decoding apparatus, for example, a code excitation linear predictive coding system (CEL).
It is applicable to a digital mobile communication system using P).

【0002】[0002]

【従来の技術】従来、TDMA(time division multip
le access )方式を用いたデジタル移動通信システムに
おいては、アナログ/デジタル変換器等でデジタル化さ
れた音声信号は、一定時間長(音声フレーム:以下、単
にフレームと呼ぶ)に対応した長さ分のデータ毎に処理
される。このようなフレーム毎のデータ系列に対して、
圧縮符号化処理(情報源符号化処理)や誤り訂正符号化
処理(通信路符号化処理)が適用される。TDMA方式
を用いたデジタル移動通信システムでは、これらの処理
が施されたデータは、TDMAの伝送フレームフォーマ
ットに適用されて伝送される。受信側では、対応するチ
ャンネルのTDMAフレームデータが復調され、誤り訂
正復号処理の後、圧縮音声復号化装置でフレーム毎の音
声信号が順次再生される。
2. Description of the Related Art Conventionally, TDMA (time division multip) is used.
In a digital mobile communication system using the (le access) method, a voice signal digitized by an analog / digital converter or the like has a length corresponding to a fixed time length (voice frame: hereinafter simply referred to as a frame). It is processed for each data. For such a data series for each frame,
A compression coding process (information source coding process) and an error correction coding process (communication path coding process) are applied. In a digital mobile communication system using the TDMA method, the data subjected to these processes is applied to the TDMA transmission frame format and transmitted. On the receiving side, the TDMA frame data of the corresponding channel is demodulated, and after the error correction decoding processing, the audio signal for each frame is sequentially reproduced by the compression audio decoding device.

【0003】このようなデジタル移動通信システムにお
いては、音声信号の高圧縮符号化方式として、コード励
振線形予測符号化方式をベースとした方式が採用されて
いる。この方式は、4kbit/s〜8kbit/sでの符号化速度
において高品質な再生音声が得られることが知られてい
る。
In such a digital mobile communication system, a system based on a code excitation linear predictive coding system is adopted as a high compression coding system for voice signals. It is known that this method can obtain high-quality reproduced voice at a coding rate of 4 kbit / s to 8 kbit / s.

【0004】なお、TDMA方式を用いたデジタル移動
通信システム及びコード励振線形予測符号化方式の参考
文献としては、それぞれ下記の文献(1)及び(2)を
挙げることができる。
The following documents (1) and (2) can be cited as references for the digital mobile communication system using the TDMA system and the code-excited linear predictive coding system, respectively.

【0005】文献(1):N.S.Jayant and J.H.Chen, "
Speech Coding with Time-VaryingBit Allocations to
Excitation and LPC Parameters", Proc.ICASSP,pp65-6
8,1989. (2):EIA/TIA Spec. "DUAL MODE BASE STARION COMP
ATIBILITY STANDARD" IS-54,pp64,1991.
Reference (1): NSJayant and JHChen, "
Speech Coding with Time-VaryingBit Allocations to
Excitation and LPC Parameters ", Proc.ICASSP, pp65-6
8,1989. (2): EIA / TIA Spec. "DUAL MODE BASE STARION COMP
ATIBILITY STANDARD "IS-54, pp64,1991.

【0006】[0006]

【発明が解決しようとする課題】しかし、デジタル移動
通信では、電波の多重反射等に起因するフェージング現
象があり、この現象により移動機の位置によっては電波
の受信感度が著しく劣化する。このような電波状態の中
を移動機が移動すると、受信信号を復調したときに移動
機の移動速度に依存したデータ誤りが生ずる。一般的
に、送信データは誤り訂正符号化が適用されるため軽度
のデータ誤りは受信側で誤り訂正が可能である。しか
し、データのバースト誤りに対してはその効果が失われ
る。
However, in digital mobile communication, there is a fading phenomenon due to multiple reflection of radio waves, and this phenomenon remarkably deteriorates the radio wave reception sensitivity depending on the position of the mobile device. When the mobile unit moves in such a radio wave state, a data error depending on the moving speed of the mobile unit occurs when the received signal is demodulated. In general, error correction coding is applied to transmission data, so that a slight data error can be corrected on the receiving side. However, the effect is lost for the data burst error.

【0007】従って、音声データの復号が不可能なフレ
ーム(以下、バッドフレーム)が生じることを避けるこ
とができず、再生音声品質を著しく劣化させてしまう。
Therefore, it is unavoidable that a frame (hereinafter referred to as a bad frame) in which the audio data cannot be decoded occurs, and the reproduced audio quality is significantly deteriorated.

【0008】そこで、バッドフレームに対して既に受信
しているデータ(例えば前フレームのデータ)を利用し
て補間処理を行なうことも考えられるが、このようにし
ても再生音声品質はまだまだ劣化したものであった。
Therefore, it is conceivable to perform the interpolation process using the data already received for the bad frame (for example, the data of the previous frame), but even in this case, the reproduced voice quality is still deteriorated. Met.

【0009】本発明は、以上の点を考慮してなされたも
のであり、バッドフレームに対する補間を良好に行なう
ことができて高品質な再生音声信号を得ることができる
圧縮音声復号化装置を提供しようとしたものである。
The present invention has been made in consideration of the above points, and provides a compressed speech decoding apparatus capable of favorably interpolating a bad frame and obtaining a reproduced speech signal of high quality. It was something I tried to do.

【0010】[0010]

【課題を解決するための手段】かかる課題を解決するた
め、第1の本発明においては、音声フレーム毎に処理さ
れて形成された圧縮音声符号化データを復号化処理する
圧縮音声復号化装置において、復号化処理対象フレーム
が、受信情報が欠落しているバッドフレームのときに、
復号化処理対象フレームより過去のフレーム及び将来の
フレームの情報を用いて復号化処理対象フレームの情報
を補間させる補間処理手段を設けた。
In order to solve such a problem, in the first aspect of the present invention, there is provided a compressed speech decoding apparatus for decoding compressed speech coded data formed by processing for each speech frame. , When the decoding processing target frame is a bad frame in which the received information is missing,
Interpolation processing means for interpolating the information of the decoding target frame using the information of the past frame and the future frame from the decoding target frame is provided.

【0011】第2の本発明においては、音声フレーム毎
に処理されて形成された圧縮音声符号化データであっ
て、声道情報については線スペクトル対パラメータの多
段ベクトル符号化により形成された符号を含む圧縮音声
符号化データを復号化処理する圧縮音声復号化装置にお
いて、多段ベクトル復号化された少なくとも第1段の線
スペクトル対パラメータについて、復号化処理対象フレ
ームの前後のフレームの情報を保持し、復号化処理対象
フレームが、受信情報が欠落しているバッドフレームの
ときに、復号化処理対象フレームの前後のフレームにつ
いて保持している線スペクトル対パラメータから、復号
化処理対象フレームの線スペクトル対パラメータを補間
させる補間処理手段を設けた。
According to the second aspect of the present invention, compressed speech coded data formed by processing for each speech frame, wherein vocal tract information is a code formed by multi-stage vector coding of line spectrum pair parameters. In a compressed speech decoding device for decoding compressed speech coded data including, for at least the first-stage line spectrum pair parameter subjected to multi-stage vector decoding, holds information of frames before and after the decoding processing target frame, When the decoding process target frame is a bad frame in which the reception information is missing, the line spectrum pair parameter of the decoding process target frame is changed from the line spectrum pair parameters held for the frames before and after the decoding process target frame. An interpolation processing means for interpolating is provided.

【0012】[0012]

【作用】復号化処理対象フレームが、受信情報が欠落し
ているバッドフレームのときに、何等の補間処理をしな
ければ音声が瞬間的になくなって再生音声信号の品質が
劣化する。復号化処理対象フレームより過去の既に受信
しているフレームの情報を利用することも考えられる
が、過去のフレームから復号化処理対象フレームへの原
音声信号の変化が大きい場合には、補間が良好になされ
ず、やはり再生音声信号の品質が劣化する。
When the decoding processing target frame is a bad frame in which the received information is missing, the sound is momentarily lost and the quality of the reproduced sound signal deteriorates unless any interpolation processing is performed. It is possible to use the information of the already received frame past the decoding target frame, but if the change of the original audio signal from the past frame to the decoding target frame is large, interpolation is good. The quality of the reproduced audio signal is deteriorated.

【0013】そこで、第1の本発明においては、補間処
理手段が、復号化処理対象フレームが受信情報が欠落し
ているバッドフレームのときに、復号化処理対象フレー
ムより過去のフレーム及び将来のフレームの情報を用い
て復号化処理対象フレームの情報を補間させ、この補間
情報を利用して復号化処理させて再生音声信号の品質を
向上させるようにした。なお、このように、復号化処理
対象フレームより将来のフレームの情報を用いるので、
圧縮音声復号化装置は、入力された圧縮音声符号化デー
タのフレームを復号化処理対象フレームとするのではな
く、それより以前に入力された圧縮音声符号化データの
フレームを復号化処理対象フレームとする。
Therefore, in the first aspect of the present invention, when the decoding processing target frame is a bad frame in which the received information is missing, the interpolation processing means has past frames and future frames from the decoding processing target frame. The information of the decoding processing target frame is interpolated using the information of 1. and the decoding processing is performed by using this interpolation information to improve the quality of the reproduced audio signal. In this way, since the information of the frame in the future from the decoding processing target frame is used,
The compressed audio decoding device does not set the frame of the input compressed audio encoded data as the decoding processing target frame, but sets the frame of the compressed audio encoded data input before that as the decoding processing target frame. To do.

【0014】第2の本発明は、声道情報と励振源情報と
が別個に符号化された圧縮音声符号化データ(例えば、
コード励振線形予測符号化方式によるデータ)を対象と
しており、その内の声道情報の復号化構成に、上記第1
の本発明と同じ技術的思想を適用したものである。な
お、声道情報としては線スペクトル対パラメータが補間
特性が良好であると知られており、この線スペクトル対
パラメータを多段ベクトル量子化して圧縮音声符号化デ
ータに挿入することは既になされている。第2の本発明
はこのような圧縮音声符号化データを受信する圧縮音声
復号化装置に関する。
In the second aspect of the present invention, compressed speech coded data (for example, vocal tract information and excitation source information are separately coded) (for example,
Code excitation linear predictive coding method), and the decoding structure of vocal tract information in the target
The same technical idea as that of the present invention is applied. As the vocal tract information, it is known that the line spectrum pair parameter has good interpolating characteristics, and it has already been made that this line spectrum pair parameter is multistage vector quantized and inserted into the compressed speech coded data. The second aspect of the present invention relates to a compressed voice decoding device for receiving such compressed voice coded data.

【0015】第2の本発明において、補間処理手段は、
多段ベクトル復号化された少なくとも第1段の線スペク
トル対パラメータについて、復号化処理対象フレームの
前後のフレームの情報を保持し、復号化処理対象フレー
ムが、受信情報が欠落しているバッドフレームのとき
に、復号化処理対象フレームの前後のフレームについて
保持している線スペクトル対パラメータから、復号化処
理対象フレームの線スペクトル対パラメータを補間させ
て復号化処理に利用させる。
In the second aspect of the present invention, the interpolation processing means is
When at least the first-stage line spectrum pair parameter subjected to multi-stage vector decoding holds the information of the frames before and after the decoding process target frame, and the decoding process target frame is a bad frame in which the reception information is missing Then, the line spectrum pair parameter of the decoding process target frame is interpolated from the line spectrum pair parameter held for the frames before and after the decoding process target frame, and is used for the decoding process.

【0016】[0016]

【実施例】以下、本発明を実施例に基づいて詳細に説明
する。
EXAMPLES The present invention will be described in detail below based on examples.

【0017】(A)デジタル移動通信システムの概略構
成 まず、実施例を適用したデジタル移動通信システムの概
略構成及び動作を説明する。ここで、図1がこのシステ
ムの構成を示すブロック図である。
(A) Schematic Configuration of Digital Mobile Communication System First, a schematic configuration and operation of a digital mobile communication system to which an embodiment is applied will be described. Here, FIG. 1 is a block diagram showing the configuration of this system.

【0018】送信側を示す図1(a)において、入力端
子11から入力された離散的音声信号の系列は、バッフ
ァ12にフレーム長だけ蓄積され、以降、このフレーム
長単位で処理される。
In FIG. 1A showing the transmitting side, a series of discrete audio signals input from the input terminal 11 is accumulated in the buffer 12 for the frame length, and thereafter processed in units of this frame length.

【0019】1フレーム長に対応した音声データは、音
声圧縮符号化部13によって圧縮符号化される。ここ
で、音声圧縮符号化部13は、例えばコード励振線形予
測符号化方式をベースとして、音声の特徴を示すパラメ
ータを決定するために線形予測分析等の処理を行なって
圧縮音声符号化データを得る。
The audio data corresponding to one frame length is compression-encoded by the audio compression encoding unit 13. Here, the voice compression encoding unit 13 obtains compressed voice encoded data by performing a process such as a linear prediction analysis to determine a parameter indicating a feature of the voice based on, for example, a code excitation linear predictive encoding system. .

【0020】音声圧縮符号化部13によって符号化され
た音声データは、誤り訂正符号化部14において誤り訂
正や誤り検出のための冗長データが付加されたり、ま
た、データ順序を所定の規則に従って変更するインター
リーブ処理が施されたりした後にTDMAフレームフォ
ーマット処理部15に与えられ、TDMAフレームフォ
ーマット処理部15によって対応するチャンネルフォー
マットに変換されて変調部16に与えられる。変調部1
6では、通信路符号化処理も経た符号化データを無線伝
送するために、ベースバンド帯域信号を無線帯域信号に
変換する変調処理や電力増幅処理が行なわれ、この後、
送信端子(アンテナ)17より送信される。
The voice data encoded by the voice compression encoding unit 13 is added with redundant data for error correction and error detection in the error correction encoding unit 14, and the data order is changed according to a predetermined rule. It is given to the TDMA frame format processing unit 15 after being subjected to the interleaving process, converted into a corresponding channel format by the TDMA frame format processing unit 15, and given to the modulation unit 16. Modulator 1
In 6, in order to wirelessly transmit the coded data that has also undergone the channel coding process, a modulation process for converting a baseband signal into a wireless band signal and a power amplification process are performed.
It is transmitted from the transmission terminal (antenna) 17.

【0021】受信側を示す図1(b)において、受信端
子(アンテナ)18によって捕捉された受信信号は、復
調部19において無線周波帯域からベースバンド信号帯
域に変換する復調処理が行なわれる。この復調された信
号から、TDMAフレームフォーマット処理部20が対
応するチャンネルフォーマット信号を選択して誤り訂正
復号化部21に復調データを送る。
In FIG. 1B showing the receiving side, the received signal captured by the receiving terminal (antenna) 18 is demodulated by the demodulating section 19 to convert it from the radio frequency band to the base band signal band. From this demodulated signal, the TDMA frame format processing unit 20 selects the corresponding channel format signal and sends the demodulated data to the error correction decoding unit 21.

【0022】誤り訂正復号化部21では、データを本来
の時間順序に戻すデインターリーブ処理が行なわれた
後、誤り訂正処理が行なわれて圧縮音声符号化データに
復号される。この誤り訂正処理において、現在復号化処
理しているフレーム(現フレーム)のデータに致命的な
誤り(誤り訂正ができない誤り)が検出された場合に
は、誤り訂正復号化部21から圧縮音声復号化部23に
誤り検出情報25が送信される。
In the error correction decoding unit 21, the data is deinterleaved to restore it to the original time order, and then the error correction is performed to decode it into compressed speech coded data. In this error correction processing, when a fatal error (error that cannot be corrected) is detected in the data of the frame currently being decoded (current frame), the error correction decoding unit 21 performs compressed voice decoding. The error detection information 25 is transmitted to the conversion unit 23.

【0023】誤り訂正復号化部21によって得られた圧
縮音声符号化データは、1フレーム分バッファ22に蓄
積されることを通じて遅延されて、圧縮復号化部23の
処理対象となる。圧縮音声復号化部23においては、誤
り検出情報25に従って復号化処理を切替えている。
The compressed speech coded data obtained by the error correction decoding unit 21 is delayed by being accumulated in the buffer 22 for one frame and is subjected to processing by the compression decoding unit 23. In the compressed voice decoding unit 23, the decoding process is switched according to the error detection information 25.

【0024】誤り検出情報25が誤り検出を指示してい
ない場合には、圧縮音声復号化部23は現フレームの圧
縮音声符号化データ、すなわち、誤り訂正復号化部21
からみれば1フレーム時間だけ遅延された圧縮音声符号
化データに対して復号化処理を行ない、再生音声信号を
生成して出力端子24より出力する。
When the error detection information 25 does not instruct the error detection, the compressed audio decoding unit 23 determines the compressed audio encoded data of the current frame, that is, the error correction decoding unit 21.
From the viewpoint, the compressed voice coded data delayed by one frame time is decoded to generate a reproduced voice signal and output from the output terminal 24.

【0025】勿論、圧縮音声復号化部23は、送信側の
音声圧縮符号化部13に対応したものであり、音声圧縮
符号化部13がコード励振線形予測符号化方式をベース
とした符号化構成になっていれば、圧縮音声復号化部2
3もコード励振線形予測符号化方式をベースとした復号
化構成になっている。
Of course, the compressed voice decoding unit 23 corresponds to the voice compression encoding unit 13 on the transmission side, and the voice compression encoding unit 13 has an encoding configuration based on the code excitation linear predictive encoding system. If so, the compressed voice decoding unit 2
3 also has a decoding structure based on the code-excited linear predictive coding system.

【0026】一方、誤り検出情報25が誤り検出を指示
している場合には(現フレームがバッドフレームである
場合には)、圧縮音声復号化部23は、現フレームの圧
縮音声符号化データを利用できないので、内蔵する補間
処理部23aを機能させた補間によって再生音声信号を
生成する。補間処理部23aは、考えられる従来とは異
なって、現フレームの直前フレーム(以下、前フレーム
と呼ぶ)の圧縮音声符号化データの情報だけでなく、現
フレームの直後フレーム(以下、次フレームと呼ぶ)の
圧縮音声符号化データを用いて適切な補間処理をし、復
号化させて現フレームの再生音声信号を生成させる。
On the other hand, when the error detection information 25 indicates error detection (when the current frame is a bad frame), the compressed audio decoding unit 23 outputs the compressed audio encoded data of the current frame. Since it cannot be used, the reproduced audio signal is generated by interpolation using the built-in interpolation processing unit 23a. Unlike the conventional method, the interpolation processing unit 23a does not only include the information of the compressed speech coded data of the frame immediately before the current frame (hereinafter, referred to as the previous frame) but also the frame immediately after the current frame (hereinafter, referred to as the next frame). An appropriate interpolation process is performed by using the compressed voice coded data (referred to as “call”), and decoding is performed to generate a reproduced voice signal of the current frame.

【0027】図2は、上記システムの各部における出力
信号の概念的な時間関係を示すものである。
FIG. 2 shows a conceptual time relationship of output signals in each part of the above system.

【0028】図2(a)に示す入力音声信号系列は、時
間区間系列としてフレームA,B,Cに区切られ、それ
ぞれのフレームに対応して時間的に圧縮符号化処理が行
なわれ、図2(b)に示すように次のフレーム区間で圧
縮音声符号化データCa,Cb,Ccが形成される。そ
して、これが図2(c)に示すようにTDMAフレーム
の対応しているチャンネルによって定まる所定位置に挿
入されて送信側及び受信側間で授受される。TDMAフ
レームから分離された図2(d1)に示す圧縮音声符号
化データに対しては、1フレーム遅延された後に圧縮復
号化処理が行なわれ、すなわち、次フレームの圧縮音声
符号化データも利用できる状態で圧縮復号化処理が実行
され、図2(e1)に示すような再生音声信号の系列が
得られる。
The input audio signal sequence shown in FIG. 2 (a) is divided into frames A, B and C as a time interval sequence, and compression coding processing is performed in time corresponding to each frame. As shown in (b), compressed voice coded data Ca, Cb, and Cc are formed in the next frame section. Then, as shown in FIG. 2 (c), this is inserted into a predetermined position determined by the corresponding channel of the TDMA frame, and exchanged between the transmitting side and the receiving side. The compressed voice coded data shown in FIG. 2 (d1) separated from the TDMA frame is subjected to compression decoding processing after being delayed by one frame, that is, the compressed voice coded data of the next frame can also be used. The compression decoding processing is executed in this state, and a sequence of reproduced audio signals as shown in FIG. 2 (e1) is obtained.

【0029】ここで、通信路エラー等によって、フレー
ムBがバッドフレームとなってその圧縮音声符号化デー
タCbを利用できない場合には、図2(d2)に示すよ
うに、前後のフレームA及びCの符号化データCa及び
Ccを用いてフレームBに対応した符号化データCbd
を適切に補間し、フレームBに対応した再生信号系列B
dを生成する。
Here, when the frame B becomes a bad frame and the compressed voice coded data Cb cannot be used due to a communication path error or the like, as shown in FIG. 2D2, the preceding and following frames A and C are used. The encoded data Cbd corresponding to the frame B using the encoded data Ca and Cc of
Of the reproduced signal sequence B corresponding to the frame B
produces d.

【0030】以上のように、受信側において、圧縮音声
符号化データを遅延する構成を有して、復号処理対象の
現フレームがバッドフレームの場合にはその前後のフレ
ームの圧縮音声符号化データを利用して補間し、再生音
声信号を得るようにしたので、バッドフレームの情報を
良好に再現できて再生音声信号の品質を従来より高める
ことができる。
As described above, the receiving side has a structure for delaying the compressed voice coded data, and when the current frame to be decoded is a bad frame, the compressed voice coded data of the frames before and after the current frame are decoded. Since the reproduction audio signal is obtained by using the interpolation, the information of the bad frame can be reproduced well, and the quality of the reproduction audio signal can be improved more than before.

【0031】因みに、バッドフレームの補間に前フレー
ムの情報だけを用いることも考えられるが、前フレーム
及び現フレーム(バッドフレーム)間の情報の変化が大
きい場合には、補間がうまくいかず品質が劣化すること
を避けられないので、上述のようにバッドフレームの前
後の情報によって補間することが好ましい。
Incidentally, it is possible to use only the information of the previous frame for the interpolation of the bad frame, but when the change of the information between the previous frame and the current frame (bad frame) is large, the interpolation is not successful and the quality is deteriorated. Since deterioration cannot be avoided, it is preferable to interpolate the information before and after the bad frame as described above.

【0032】以下、バッドフレームの前後のフレームの
情報を用いて補間する具体的方法を、声道情報の補間方
法、励振源情報の補間方法の順に説明する。
A specific method of interpolating using the information of the frames before and after the bad frame will be described in the order of the method of interpolating vocal tract information and the method of interpolating excitation source information.

【0033】(B)声道情報の補間方法 図3は、バッドフレーム(復号処理対象フレーム:現フ
レーム)の前後フレームの情報を利用した声道情報の補
間方法を適用した圧縮音声復号化装置(圧縮音声復号化
部)の具体的構成例を示すものである。なお、図3は、
励振源情報の処理構成も示しているが、声道情報の補間
方法の詳細説明を意図した図面である。
(B) Method of interpolating vocal tract information FIG. 3 shows a compressed speech decoding apparatus (applying a method of interpolating vocal tract information using information of frames preceding and following a bad frame (decoding process target frame: current frame)). 2 shows a specific configuration example of the compressed voice decoding unit). In addition, in FIG.
Although the processing configuration of the excitation source information is also shown, it is a drawing intended to explain in detail a method of interpolating vocal tract information.

【0034】この図3に示す圧縮音声復号化装置は、上
述した図1に示す概念構成におけるバッファ22及び圧
縮音声復号化部23を融合した構成のものである。
The compressed speech decoding apparatus shown in FIG. 3 has a structure in which the buffer 22 and the compressed speech decoding unit 23 in the conceptual structure shown in FIG. 1 are integrated.

【0035】また、この圧縮音声復号化装置は、以下の
ような符号化装置(図示せず)によって符号化された圧
縮音声符号化データを対象とするものである。すなわ
ち、コード励振線形予測符号化方式を基本とし、声道情
報については線スペクトル対パラメータ(LSPパラメ
ータ)を3段のベクトル量子化によって符号化して圧縮
音声符号化データに挿入する符号化装置を前提とする。
なお、線スペクトル対パラメータを符号化して圧縮音声
符号化データに挿入することについては、例えば、特願
平3-327443号明細書等に記載されており、この前提とす
る圧縮符号化装置は周知のものである。
The compressed speech decoding apparatus is intended for compressed speech coded data encoded by the following encoding apparatus (not shown). That is, it is premised on an encoding device which is based on a code-excited linear predictive encoding system and which encodes line spectrum pair parameters (LSP parameters) for vocal tract information by three-stage vector quantization and inserts them into compressed speech encoded data. And
Note that encoding the line spectrum pair parameter and inserting it into the compressed voice encoded data is described in, for example, Japanese Patent Application No. 3-327443, and the compression encoding device on which this premise is known. belongs to.

【0036】図3において、多重分離回路50には圧縮
音声符号化データ及び誤り検出情報が与えられ、多重分
離回路50は、圧縮音声符号化データを多重分離し、分
離した第1段〜第3段のベクトル量子化符号VQ1n 〜
VQ3n をそれそれ対応する多段ベクトル復号化(逆量
子化)用のコードブック(以下、VQコードブックと呼
ぶ)51〜53に与える。
In FIG. 3, the demultiplexing circuit 50 is provided with compressed speech coded data and error detection information, and the demultiplexing circuit 50 demultiplexes the compressed speech coded data and separates them from the first stage to the third stage. Vector quantization code VQ1n ~
VQ3n is applied to the corresponding codebooks for multistage vector decoding (inverse quantization) (hereinafter referred to as VQ codebooks) 51 to 53.

【0037】なお、図3において、各種符号についての
サフィックス「p 」は、再生音声信号が出力されている
現フレームに対する、前フレームでの値を意味し、各種
符号についてのサフィックス「n 」は次フレームでの値
を意味し、サフィックス「p」も「n 」も付与されてい
ない値は現フレームの値を意味する。
In FIG. 3, the suffix "p" for each code means the value in the previous frame for the current frame in which the reproduced audio signal is output, and the suffix "n" for each code is as follows. It means a value in a frame, and a value without suffix "p" or "n" means a value in the current frame.

【0038】各VQコードブック51、52、53はそ
れぞれ、与えられた符号VQ1n 、VQ2n 、VQ3n
によって定まる線スペクトル対パラメータ成分LSP1
n 、LSP2n 、LSP3n を出力する。これら各線ス
ペクトル対パラメータ成分LSP1n 、LSP2n 及び
LSP3n の総和(ベクトル合成)が、加算器54及び
55によって求められ、次フレームの線スペクトル対パ
ラメータLSPn としてバッファ56に与えられる。バ
ッファ56はほぼ1フレーム遅延回路として機能し、現
フレームについての線スペクトル対パラメータLSPを
スイッチ57に出力する。
The respective VQ codebooks 51, 52 and 53 are respectively given codes VQ1n, VQ2n and VQ3n.
Line spectrum vs. parameter component LSP1 determined by
n, LSP2n and LSP3n are output. The summation (vector combination) of these line spectrum pair parameter components LSP1n, LSP2n and LSP3n is obtained by the adders 54 and 55, and given to the buffer 56 as the line spectrum pair parameter LSPn of the next frame. The buffer 56 functions almost as a one-frame delay circuit, and outputs the line spectrum pair parameter LSP for the current frame to the switch 57.

【0039】多重分離回路50は、図示しない誤り訂正
復号化部(通信路復号化部)から与えられた誤り検出情
報に従い、現フレームがバッドフレームでない場合(通
常の処理の場合)にバッファ56側に接続させる選択制
御信号SWをスイッチ57に与える。なお、多重分離回
路50は、現フレームがバッドフレームである場合には
後述する補間回路64側に接続させる選択制御信号SW
をスイッチ57に与える。
The demultiplexing circuit 50, in accordance with the error detection information provided from an error correction decoding unit (communication path decoding unit) (not shown), if the current frame is not a bad frame (normal processing), the buffer 56 side. The selection control signal SW to be connected to the switch 57 is given to the switch 57. When the current frame is a bad frame, the demultiplexing circuit 50 connects the selection control signal SW to the interpolation circuit 64 side described later.
To the switch 57.

【0040】スイッチ57がバッファ56に接続されて
いる通常処理時には、バッファ56からの現フレームに
ついての線スペクトル対パラメータLSPがLPC係数
変換器58に与えられる。LPC係数変換器58は、線
スペクトル対パラメータLSPをLPC係数(線形予測
係数)αに変換して合成フィルタ59に合成フィルタ係
数として与える。
During normal processing when the switch 57 is connected to the buffer 56, the line spectrum pair parameter LSP for the current frame from the buffer 56 is supplied to the LPC coefficient converter 58. The LPC coefficient converter 58 converts the line spectrum pair parameter LSP into an LPC coefficient (linear prediction coefficient) α and gives it to the synthesis filter 59 as a synthesis filter coefficient.

【0041】多重分離回路50は、圧縮音声符号化デー
タを多重分離して得た励振源符号を励振源復号化部60
に与える。励振源復号化部60は、例えば、適応励振コ
ードブックや統計励振コードブックやこれら励振コード
ブックからの励振信号(励振コードベクトル)をゲイン
によって重付け加算する構成等でなり、現フレームがバ
ッドフレームでない場合には現フレームの励振源符号か
ら得た励振信号eを合成フィルタ59に与える。
The demultiplexing circuit 50 extracts the excitation source code obtained by demultiplexing the compressed speech coded data from the excitation source decoding unit 60.
Give to. The excitation source decoding unit 60 includes, for example, an adaptive excitation codebook, a statistical excitation codebook, and a configuration in which excitation signals (excitation code vectors) from these excitation codebooks are weighted and added by gains. If not, the excitation signal e obtained from the excitation source code of the current frame is given to the synthesis filter 59.

【0042】合成フィルタ59は、与えられた励振信号
eに対して与えられたLPC係数αを用いて合成処理
し、現フレームについての再生音声信号を得る。
The synthesizing filter 59 synthesizes the given excitation signal e with the given LPC coefficient α to obtain a reproduced voice signal for the current frame.

【0043】以上が基本的な復号化構成であるが、これ
に加えて、現フレームがバッドフレームの場合に補間す
る構成を備えている。なお、上述したスイッチ57も補
間構成の一部を構成する。
The above is the basic decoding structure, but in addition to this, a structure is provided for interpolating when the current frame is a bad frame. The switch 57 described above also forms part of the interpolation configuration.

【0044】第1段のVQコードブック51から出力さ
れた次フレームについての第1段の線スペクトル対パラ
メータ成分LSP1n は、3個のバッファ61〜63で
なる縦続接続構成部に与えられる。従って、バッファ6
1が次フレームについての第1段の線スペクトル対パラ
メータ成分LSP1n を格納し、バッファ62が現フレ
ームについての第1段の線スペクトル対パラメータ成分
LSP1を格納し、バッファ63が前フレームについて
の第1段の線スペクトル対パラメータ成分LSP1p を
格納することになる。
The first-stage line spectrum pair parameter component LSP1n for the next frame, which is output from the first-stage VQ codebook 51, is supplied to the cascade connection section composed of the three buffers 61 to 63. Therefore, buffer 6
1 stores the first stage line spectrum pair parameter component LSP1n for the next frame, buffer 62 stores the first stage line spectrum pair parameter component LSP1 for the current frame, and buffer 63 stores the first stage line spectrum pair parameter component LSP1n for the current frame. The line spectrum pair parameter component LSP1p of the stage will be stored.

【0045】バッファ61による次フレームについての
第1段の線スペクトル対パラメータ成分LSP1n と、
バッファ63による前フレームについての第1段の線ス
ペクトル対パラメータ成分LSP1p とは、補間回路6
4に与えられる。補間回路64は、これらの現フレーム
に対する前後フレームの第1段の線スペクトル対パラメ
ータ成分LSP1n 及びLSP1p から現フレーム(バ
ッドフレーム)についての線スペクトル対パラメータL
SPd (d は補間した値を意味する:以下同じ)を得て
スイッチ57に与える。補間回路64は、例えば単純平
均や重付け平均によって補間する。
The first stage line spectrum pair parameter component LSP1n for the next frame by the buffer 61,
The first-stage line spectrum pair parameter component LSP1p for the previous frame by the buffer 63 is the interpolation circuit 6
Given to 4. The interpolation circuit 64 uses the line spectrum pair parameter components LSP1n and LSP1p of the first stage of the preceding and following frames for these current frames to determine the line spectrum pair parameter L for the current frame (bad frame).
SPd (d means an interpolated value; the same applies hereinafter) is given to the switch 57. The interpolation circuit 64 performs interpolation by, for example, a simple average or a weighted average.

【0046】現フレームがバッドフレームの場合には、
スイッチ57は、選択制御信号SWに基づいて補間回路
64側に接続されており、この補間された線スペクトル
対パラメータLSPd がLPC係数変換器58に与えら
れ、LPC係数(合成フィルタ係数)αd に変換されて
合成フィルタ59に与えられる。現フレームがバッドフ
レームの場合には、励振源復号化部60も補間処理によ
って形成した励振信号ed を合成フィルタ59に与え
る。なお、励振信号を補間によって形成する具体的な方
法の一例については後述する。従って、合成フィルタ5
9は、現フレームがバッドフレームの場合には、補間処
理によって形成された励振信号ed に対して補間処理に
よって形成されたLPC係数αd を用いて合成処理し、
現フレームについての再生音声信号を得る。
If the current frame is a bad frame,
The switch 57 is connected to the interpolation circuit 64 side based on the selection control signal SW, and the interpolated line spectrum pair parameter LSPd is given to the LPC coefficient converter 58 and converted into an LPC coefficient (synthesis filter coefficient) αd. It is then given to the synthesis filter 59. When the current frame is a bad frame, the excitation source decoding unit 60 also supplies the excitation signal ed formed by the interpolation process to the synthesis filter 59. An example of a specific method of forming the excitation signal by interpolation will be described later. Therefore, the synthesis filter 5
In the case where the current frame is a bad frame, 9 is a synthesizing process using the LPC coefficient αd formed by the interpolation process with respect to the excitation signal ed formed by the interpolation process,
Obtain the reproduced audio signal for the current frame.

【0047】以上のように、現フレームがバッドフレー
ムの場合に、声道情報をその前後のフレームの情報から
補間して得ると、滑らかに補間することができて再生音
声信号の品質を高めることができる。
As described above, when the current frame is a bad frame, when the vocal tract information is obtained by interpolating from the information of the frames before and after it, the interpolation can be smoothly performed to improve the quality of the reproduced audio signal. You can

【0048】ここで、線スペクトル対パラメータは、種
々の声道パラメータ表現の中で補間特性が最も良いもの
といわれており、良好に補間することができる。また、
多段ベクトル量子化の場合、第1段の情報が本来のベク
トル情報の大半を表しており、上述のように第1段の情
報だけで補間情報を得ても再生音声品質を高めることが
でき、この場合には補間構成を簡単なものとできる。な
お、第2段及び第3段の情報をも補間に利用して良いこ
とは勿論である。
Here, the line spectrum pair parameter is said to have the best interpolation characteristic among various vocal tract parameter expressions, and can be satisfactorily interpolated. Also,
In the case of multi-stage vector quantization, the first-stage information represents most of the original vector information, and as described above, the reproduced voice quality can be improved even if the interpolation information is obtained only by the first-stage information. In this case, the interpolation structure can be simplified. Of course, the information of the second and third stages may also be used for interpolation.

【0049】バッドフレームである現フレームの前後の
フレームの情報から声道情報を補間する方法は、上述の
ものに限定されるものではなく、線スペクトル対パラメ
ータ以外を適用したものであっても良く、量子化もマト
リクス量子化等の他の量子化方法を適用したものであっ
ても良い。
The method of interpolating the vocal tract information from the information of the frames before and after the current frame, which is a bad frame, is not limited to the above-mentioned method, and a method other than the line spectrum pair parameter may be applied. The quantization may also be one to which another quantization method such as matrix quantization is applied.

【0050】(C)励振源情報の補間方法 図4は、バッドフレーム(復号処理対象フレーム:現フ
レーム)の前後フレームの情報を利用した励振源情報の
補間方法を適用した圧縮音声復号化装置(圧縮音声復号
化部)の具体的構成例を示すものである。なお、図4に
示すものは、声道情報については単純に前フレームの情
報を利用するとしている。
(C) Method of Interpolating Excitation Source Information FIG. 4 is a compressed speech decoding apparatus to which the method of interpolating excitation source information using information of frames preceding and following a bad frame (decoding process target frame: current frame) is applied ( 2 shows a specific configuration example of the compressed voice decoding unit). Note that the one shown in FIG. 4 simply uses the information of the previous frame for vocal tract information.

【0051】この図4に示す圧縮音声復号化装置は、次
のような符号化装置(コード励振線形予測符号化装置:
図示せず)に対応したものである。すなわち、適応励振
コードブック及び統計励振コードブックの双方を有し、
フレーム毎に求めた、合成フィルタ係数(声道パラメー
タ)α、最適適応励振コードベクトルについてのインデ
ックスL、最適適応励振コードベクトルについてのゲイ
ン(以下、適応励振コードゲインと呼ぶ)β、最適統計
励振コードベクトルについてのインデックスH及び最適
統計励振コードベクトルについてのゲイン(以下、統計
励振コードゲインと呼ぶ)γを量子化、多重化して圧縮
音声符号化データを形成するコード励振線形予測符号化
装置に対応したものである。
The compressed speech decoding apparatus shown in FIG. 4 has the following coding apparatus (code excitation linear predictive coding apparatus:
(Not shown). That is, having both an adaptive excitation codebook and a statistical excitation codebook,
The synthesis filter coefficient (vocal tract parameter) α, the index L for the optimal adaptive excitation code vector, the gain for the optimal adaptive excitation code vector (hereinafter referred to as the adaptive excitation code gain) β, the optimal statistical excitation code obtained for each frame The present invention is compatible with a code-excited linear predictive coding apparatus that quantizes and multiplexes an index H for a vector and a gain for an optimal statistical excitation code vector (hereinafter referred to as statistical excitation code gain) γ to form compressed speech coded data. It is a thing.

【0052】従って、この圧縮音声復号化装置(コード
励振線形予測復号化装置)は、多重分離回路100、適
応励振コードブック101、統計励振コードブック10
2、適応用ゲイン乗算器103、統計用ゲイン乗算器1
04、加算器105及び合成フィルタ106を基本構成
とするものである。
Therefore, the compressed speech decoding apparatus (code excitation linear predictive decoding apparatus) includes a demultiplexing circuit 100, an adaptive excitation codebook 101, and a statistical excitation codebook 10.
2, adaptive gain multiplier 103, statistical gain multiplier 1
04, the adder 105, and the synthesis filter 106 have a basic configuration.

【0053】なお、図4に示す多重分離回路100は、
図3に示す多重分離回路50より広い機能を担うブロッ
クとして示している。すなわち、多重分離回路100
は、合成フィルタ係数に対する復号化機能等や、現フレ
ームだけでなく、前フレーム及び次フレームの各種情報
をも出力し得る機能(バッファ等)を備えているように
ブロック化されたものである。
The demultiplexing circuit 100 shown in FIG.
It is shown as a block having a wider function than the demultiplexing circuit 50 shown in FIG. That is, the demultiplexing circuit 100
Is a block having a decoding function for the synthesis filter coefficient and the like, and a function (buffer etc.) capable of outputting not only the current frame but also various information of the previous frame and the next frame.

【0054】基本構成が、適応励振コードブック(10
1)を備えた符号化方式を前提としているので、次フレ
ームの情報を補間に適用することが難しいものである
が、以下の3点の改善のために利用するようにしてい
る。
The basic structure is the adaptive excitation codebook (10
Since it is premised on the coding method including 1), it is difficult to apply the information of the next frame to the interpolation, but it is used to improve the following three points.

【0055】(1) 音声の立ち上がり部分でバッドフレー
ムが生じても励振コードベクトルの周期性をうまく再現
できるように補間するために用いる。
(1) It is used for interpolation so that the periodicity of the excitation code vector can be reproduced well even if a bad frame occurs at the rising portion of the voice.

【0056】(2) 現フレームがバッドフレームであった
場合に、適応励振コードベクトルと統計励振コードベク
トルとをどのような比率で合成するかを表す加算比率
を、再生音声の品質が良好になるように補間するために
用いる。
(2) When the current frame is a bad frame, the quality of the reproduced voice is improved by the addition ratio indicating the ratio of combining the adaptive excitation code vector and the statistical excitation code vector. Used to interpolate.

【0057】(3) 現フレームがバッドフレームであった
場合に、パワーを、再生音声の品質が良好になるように
補間するために用いる。
(3) When the current frame is a bad frame, the power is used to interpolate the quality of reproduced voice to be good.

【0058】図4において、基本構成の外に設けられた
各部の内、スイッチ107、パルス用乗算器108、パ
ルス発生回路109、ラグ計算回路110及び立ち上が
り検出回路111は第1の改善のためのものであり、加
算比率計算回路120、スイッチ121及び122は第
2の改善のためであり、パワー用補間器130及びパワ
ー用乗算器131は第3の改善のためのものである。な
お、各要素の機能は、動作の説明を通じて明らかにす
る。
In FIG. 4, the switch 107, the pulse multiplier 108, the pulse generation circuit 109, the lag calculation circuit 110, and the rise detection circuit 111 among the units provided outside the basic structure are for the first improvement. The addition ratio calculation circuit 120 and the switches 121 and 122 are for the second improvement, and the power interpolator 130 and the power multiplier 131 are for the third improvement. The function of each element will be clarified through the description of the operation.

【0059】まず、現フレームがバッドフレームでない
通常時の動作を説明する。
First, the normal operation when the current frame is not a bad frame will be described.

【0060】通常時には、多重分離回路100は、現フ
レームの圧縮音声符号化データを分離して得た、適応励
振コードブックインデックスL、統計励振コードブック
インデックスH、適応励振コードゲインβ、統計励振コ
ードゲインγ及び合成フィルタ係数αを各部に出力す
る。
In normal times, the demultiplexing circuit 100 separates the compressed speech coded data of the current frame to obtain the adaptive excitation codebook index L, the statistical excitation codebook index H, the adaptive excitation code gain β, and the statistical excitation code. The gain γ and the synthesis filter coefficient α are output to each unit.

【0061】これにより、適応励振コードブック101
からはインデックスLによって定まる適応励振コードベ
クトルea が出力され、この適応励振コードベクトルe
a が乗算器103によって適応励振コードゲインβ倍さ
れた後、後述するスイッチ107を介して加算器105
に与えられ、また、統計励振コードブック102からは
インデックスHによって定まる統計励振コードベクトル
es が出力され、この統計励振コードベクトルes が乗
算器104によって統計励振コードゲインγ倍された後
加算器105に与えられる。
As a result, the adaptive excitation codebook 101
Outputs an adaptive excitation code vector ea determined by the index L, and this adaptive excitation code vector e
After a is multiplied by the adaptive excitation code gain β by the multiplier 103, the adder 105 is added via the switch 107 described later.
And the statistical excitation code vector es determined by the index H is output from the statistical excitation code book 102, and the statistical excitation code vector es is multiplied by the statistical excitation code gain γ by the multiplier 104 and then added to the adder 105. Given.

【0062】なお、通常動作時には、スイッチ121及
び122は共に、多重分離回路100が現フレームの圧
縮音声符号化データを分離して得たゲインβ、γを選択
するようになされている。また、スイッチ107は、適
応用乗算器103側を選択するようになされている。
During the normal operation, both the switches 121 and 122 are designed to select the gains β and γ obtained by the demultiplexing circuit 100 separating the compressed voice coded data of the current frame. Further, the switch 107 is adapted to select the adaptive multiplier 103 side.

【0063】加算器105は、これら各成分の励振コー
ドベクトルを合成し、現フレームについての最適な励振
コードベクトル(合成励振コードベクトル)eを得て、
乗算係数PWとして1が与えられている乗算器131を
介して合成フィルタ106に与え、合成フィルタ106
はこの合成励振コードベクトルeに対して合成フィルタ
係数αを用いて合成処理して再生音声信号Sを得る。
The adder 105 synthesizes the excitation code vectors of these respective components to obtain the optimum excitation code vector (synthetic excitation code vector) e for the current frame,
It is given to the synthesis filter 106 via the multiplier 131 to which 1 is given as the multiplication coefficient PW.
Synthesizes the synthesized excitation code vector e with a synthesis filter coefficient α to obtain a reproduced voice signal S.

【0064】乗算器131を介した現フレームについて
の合成励振コードベクトルeは、適応励振コードブック
101にフィードバックされ、適応励振コードブック1
01は、これに応じて、格納している励振コードベクト
ルを適応的に変更させる。なお、この励振コードベクト
ルeはラグ計算回路110にも与えられる。
The composite excitation code vector e for the current frame via the multiplier 131 is fed back to the adaptive excitation codebook 101, and the adaptive excitation codebook 1
01 adaptively changes the stored excitation code vector accordingly. The excitation code vector e is also given to the lag calculation circuit 110.

【0065】現フレームがバッドフレームでない限り、
このような通常時の復号化処理が繰り返される。
Unless the current frame is a bad frame,
Such normal decoding process is repeated.

【0066】次に、現フレームがバッドフレームの場合
の動作を説明する。
Next, the operation when the current frame is a bad frame will be described.

【0067】このときには、多重分離回路100は、各
部に対して以下のような情報を与える。適応励振コード
ブック101には、現フレームの補間インデックスLd
として前フレームのインデックスLp を与える。統計励
振コードブック102には、現フレームの補間インデッ
クスHd として前フレームのインデックスHp を与え
る。合成フィルタ106には、現フレームの補間合成フ
ィルタ係数αd として前フレームの合成フィルタ係数α
p を与える。立ち上がり検出回路111には、前フレー
ムの適応励振コードゲインβp 及び統計励振コードゲイ
ンγp と、次フレームの適応励振コードゲインβn 及び
統計励振コードゲインγn とを与える。加算比率計算回
路120には、次フレームの適応励振コードゲインβn
及び統計励振コードゲインγn を与える。スイッチ12
0及び121には、加算比率計算回路120が形成した
補間励振コードゲインβd 、γd を選択させる選択制御
信号を与える。スイッチ107には、立ち上がり検出回
路111が有意な検出信号を出力したときにパルス用乗
算器108側を選択させ、非有意な検出信号を出力した
ときに適応用乗算器103側を選択させる選択制御信号
を与える。パワー補間器130には、次フレームの適応
励振コードゲインβn 及び統計励振コードゲインγn を
与える。
At this time, the demultiplexing circuit 100 gives the following information to each unit. The adaptive excitation codebook 101 contains the interpolation index Ld of the current frame.
As the index Lp of the previous frame. The statistical excitation codebook 102 is given the index Hp of the previous frame as the interpolation index Hd of the current frame. The synthesis filter 106 uses the synthesis filter coefficient α of the previous frame as the interpolation synthesis filter coefficient αd of the current frame.
give p. The rising edge detection circuit 111 is supplied with the adaptive excitation code gain βp and the statistical excitation code gain γp in the previous frame, and the adaptive excitation code gain βn and the statistical excitation code gain γn in the next frame. The addition ratio calculation circuit 120 indicates to the adaptive excitation code gain βn of the next frame.
And the statistical excitation code gain γ n are given. Switch 12
A selection control signal for selecting the interpolation excitation code gains βd and γd formed by the addition ratio calculation circuit 120 is given to 0 and 121. Selection control for the switch 107 to select the pulse multiplier 108 side when the rising edge detection circuit 111 outputs a significant detection signal and to select the adaptive multiplier 103 side when an insignificant detection signal is output. Give a signal. The power interpolator 130 is supplied with the adaptive excitation code gain βn and the statistical excitation code gain γn of the next frame.

【0068】立ち上がり検出回路111は、前フレーム
の適応励振コードゲインβp 及び統計励振コードゲイン
γp 、並びに、次フレームの適応励振ゲインβn 及び統
計励振ゲインγn を用いて、現フレーム(バッドフレー
ム)が音声の立ち上がり部分であるか否かを検出する。
立ち上がり検出回路111は、例えば、(1) 式及び(2)
式の条件式を共に満たす場合に、現フレーム(バッドフ
レーム)は、その前後のフレームの情報から判断して音
声の立ち上がり部分であると判断する。
The rising edge detection circuit 111 uses the adaptive excitation code gain βp and the statistical excitation code gain γp of the previous frame, and the adaptive excitation gain βn and the statistical excitation gain γn of the next frame to detect the voice of the current frame (bad frame). It is detected whether or not it is the rising part of.
The rising edge detection circuit 111 has, for example, equations (1) and (2)
When both of the conditional expressions are satisfied, the current frame (bad frame) is determined to be the rising portion of the voice by judging from the information of the frames before and after it.

【0069】 √(βn ×βn +γn ×γn )>√(βp ×βp +γp ×γp ) …(1) |βn /γn |>|βp /γp | …(2) (1) 式に示す条件は、次フレームのパワーが前フレーム
のパワーより大きいか否かを判定するための条件であ
る。(2) 式に示す条件は、合成励振コードベクトルにお
ける適応励振コードベクトルの寄与率が、前フレームよ
り次フレームの方が大きいか否かを判定するための条件
である。
√ (βn × βn + γn × γn)> √ (βp × βp + γp × γp) (1) | βn / γn |> | βp / γp | (2) The condition shown in the equation (1) is This is a condition for determining whether or not the power of the next frame is larger than that of the previous frame. The condition shown in equation (2) is a condition for determining whether or not the contribution rate of the adaptive excitation code vector in the combined excitation code vector is larger in the next frame than in the previous frame.

【0070】音声の立ち上がり部分では当然にパワーが
大きくなっていく。また、適応励振コードベクトルは統
計励振コードベクトルに比較してピッチ周期性に大きく
寄与し、音声の立ち上がり部分ではピッチ周期性が強ま
っていくので、適応励振コードベクトルの寄与率の増大
も音声の立ち上がり部分の判断要素である。
The power naturally increases at the rising portion of the voice. In addition, the adaptive excitation code vector contributes significantly to the pitch periodicity compared to the statistical excitation code vector, and the pitch periodicity increases at the rising part of the speech, so the increase in the contribution rate of the adaptive excitation code vector also increases the speech rising. It is a judgment element of the part.

【0071】スイッチ107は、上述したように、立ち
上がり検出回路111が立ち上がりを検出したときにの
み、パルス用乗算器108側を選択し、現フレームがバ
ッドフレームでないとき、及び、現フレームがバッドフ
レームであるが現フレームが立ち上がり部分でないとき
に、上述した適応用乗算器103側を選択する。
As described above, the switch 107 selects the pulse multiplier 108 side only when the rising edge detection circuit 111 detects a rising edge, and when the current frame is not a bad frame and when the current frame is a bad frame. However, when the current frame is not the rising portion, the adaptive multiplier 103 side is selected.

【0072】ラグ計算回路110は、過去の合成励振コ
ードベクトルをラグを計算するに十分に所定期間分格納
しており、立ち上がり検出回路111が立ち上がりを検
出したときには、ラグ(ピッチ周期)と、現フレームに
おける最初のパルス位置についての位相とでなるラグ情
報Pを計算してパルス発生回路109に与える。
The lag calculation circuit 110 stores the past composite excitation code vector for a predetermined period enough to calculate the lag, and when the rising edge detection circuit 111 detects a rising edge, the lag (pitch period) and the current The lag information P, which is the phase of the first pulse position in the frame, is calculated and given to the pulse generation circuit 109.

【0073】パルス発生回路110は、与えられたラグ
情報Pに従い、それに含まれているラグを間隔とした周
期的なパルスを有する、しかも、最初のパルス位相が与
えられた情報通りになっているパルス励振コードベクト
ルem を発生してパルス用乗算器108に与える。
The pulse generation circuit 110 has periodic pulses according to the given lag information P with the lag included therein as intervals, and the first pulse phase is exactly as given information. A pulse excitation code vector em is generated and given to the pulse multiplier 108.

【0074】パルス用乗算器108は、パルス発生回路
110から出力されたパルス励振コードベクトルem
を、加算比率計算回路120から与えられた補間適応励
振コードゲインβd 倍してスイッチ107に入力させ
る。
The pulse multiplier 108 outputs the pulse excitation code vector em output from the pulse generation circuit 110.
Is multiplied by the interpolation adaptive excitation code gain βd given from the addition ratio calculation circuit 120 and input to the switch 107.

【0075】加算比率計算回路120には、適応用乗算
器103から出力されたゲイン乗算後の前フレームにつ
いての適応励振コードベクトルeagp と、統計用乗算器
104から出力されたゲイン乗算後の前フレームについ
ての統計励振コードベクトルesgp と、上述したように
次フレームの適応励振コードゲインβn 及び統計励振コ
ードゲインγn とが与えられる。
In the addition ratio calculation circuit 120, the adaptive excitation code vector eagp output from the adaptive multiplier 103 for the previous frame after the gain multiplication and the previous frame after the gain multiplication output from the statistical multiplier 104 are output. Is given, and the adaptive excitation code gain βn and the statistical excitation code gain γn of the next frame are given as described above.

【0076】加算比率計算回路120は、まず、これら
情報を用いた(3) 式及び(4) 式に従って、前フレームに
ついての加算比率ppと次フレームについての加算比率
pnを求める。
The addition ratio calculation circuit 120 first obtains the addition ratio pp for the previous frame and the addition ratio pn for the next frame according to the equations (3) and (4) using these pieces of information.

【0077】 pp=√(eagp ×eagp )/√(esgp ×esgp ) …(3) pn=|βn /γn | …(4) ここで、同一の励振コードベクトル同士の乗算はベクト
ル要素の2乗和(内積)を表している。
Pp = √ (eagp × eagp) / √ (esgp × esgp) (3) pn = | βn / γn | (4) where multiplication of the same excitation code vectors is the square of vector element It represents the sum (inner product).

【0078】前フレームについては、加算器105に与
えられるゲイン乗算後の適応励振コードベクトルeagp
と、ゲイン乗算後の統計励振コードベクトルesgp とが
既知であるので、これら情報を用いて加算比率ppを求
めれば良い。一方、次フレームについては、適応励振コ
ードブック101が次フレームの処理のために更新され
る前に加算比率を求めなければならないので、加算器1
05に与えられる情報を用いて加算比率pnを求めるこ
とができない。しかし、適応励振コードベクトル及び統
計励振コードベクトルがどのようなものであっても、適
応励振コードゲインβn 及び統計励振コードゲインγn
の比が概ね加算比率pnを規定するものとなっており、
そこで、(4) 式によって次フレームの加算比率pnを推
定するようにした。
For the previous frame, the adaptive excitation code vector eagp after gain multiplication applied to the adder 105.
And the statistical excitation code vector esgp after gain multiplication are known, the addition ratio pp may be obtained using these information. On the other hand, for the next frame, the addition ratio must be obtained before the adaptive excitation codebook 101 is updated for processing the next frame.
It is not possible to obtain the addition ratio pn using the information given in 05. However, no matter what the adaptive excitation code vector and the statistical excitation code vector are, the adaptive excitation code gain βn and the statistical excitation code gain γn
The ratio of stipulates the addition ratio pn,
Therefore, the addition ratio pn of the next frame is estimated by the equation (4).

【0079】加算比率計算回路120は、次に、前フレ
ームの加算比率pp及び次フレームの加算比率pnを用
いて(5) 式に従って現フレームの加算比率pを推定す
る。
Next, the addition ratio calculation circuit 120 estimates the addition ratio p of the current frame according to the equation (5) using the addition ratio pp of the previous frame and the addition ratio pn of the next frame.

【0080】 p=θ×pp+(1−θ)×pn …(5) ここで、θは0<θ<1であって、例えば実験的に定め
られるものである。
P = θ × pp + (1−θ) × pn (5) Here, θ is 0 <θ <1, and is determined experimentally, for example.

【0081】そして最後に、加算比率計算回路120
は、現フレームについての加算比率pを利用しながら、
例えば(6) 式及び(7) 式に従って、現フレーム(バッド
フレーム)についての適応励振コードゲインβd 及び統
計励振コードゲインγd を決定してそれぞれ対応するス
イッチ121、122を介して対応する適応用乗算器1
03、統計用乗算器104に与える。また、適応励振コ
ードゲインβd は、パルス用乗算器108にも与える。
Finally, the addition ratio calculation circuit 120
While using the addition ratio p for the current frame,
For example, according to the equations (6) and (7), the adaptive excitation code gain βd and the statistical excitation code gain γd for the current frame (bad frame) are determined, and the corresponding adaptive multiplication is performed via the corresponding switches 121 and 122. Bowl 1
03, to the statistical multiplier 104. The adaptive excitation code gain βd is also given to the pulse multiplier 108.

【0082】 βd =p×γn …(6) γd =γn …(7) なお、各ゲインβd 及びγd を、例えば、次フレームの
適応励振コードゲインβn を中心として推定した加算比
率pに基づいて決定したり、前フレーム及び次フレーム
の統計励振コードゲインγp 及びγn の平均値を基準に
推定した加算比率pに基づいて決定したりしても良い。
Βd = p × γn (6) γd = γn (7) Note that each gain βd and γd is determined based on, for example, the addition ratio p estimated around the adaptive excitation code gain βn of the next frame. Alternatively, it may be determined based on the addition ratio p estimated based on the average value of the statistical excitation code gains γp and γn of the previous frame and the next frame.

【0083】パワー補間器130は、パワー補間用の乗
算係数PWを発生するものであり、パワー補間用乗算器
131は、加算器105から出力された合成励振コード
ベクトルe又はeddにパワー補間用の乗算係数PWを乗
算して合成フィルタ106に与える。パワー補間器13
0は、現フレームがバッドフレームでない場合には、上
述したように加算器105から出力された合成励振コー
ドベクトルeを乗算器131がそのまま通過させる乗算
係数PW(=1)を出力し、現フレームがバッドフレー
ムの場合には、以下のようにして、乗算係数PWを形成
して出力する。
The power interpolator 130 generates a multiplication coefficient PW for power interpolation, and the power interpolation multiplier 131 uses the composite excitation code vector e or edd output from the adder 105 for power interpolation. The multiplication coefficient PW is multiplied and given to the synthesis filter 106. Power interpolator 13
When the current frame is not a bad frame, 0 outputs the multiplication coefficient PW (= 1) that allows the multiplier 131 to pass the combined excitation code vector e output from the adder 105 as described above, and outputs the current frame. Is a bad frame, the multiplication coefficient PW is formed and output as follows.

【0084】パワー補間器130は、前フレームの合成
励振コードベクトルep を格納する構成を備えており、
この前フレームの合成励振コードベクトルep と、多重
分離回路100から与えられた次フレームの適応励振コ
ードゲインβn 及び統計励振コードゲインγn から(8)
式に示すパワー情報pwを得る。
The power interpolator 130 has a structure for storing the combined excitation code vector ep of the previous frame,
From the combined excitation code vector ep of the previous frame, and the adaptive excitation code gain βn and the statistical excitation code gain γn of the next frame provided from the demultiplexing circuit 100, (8)
The power information pw shown in the formula is obtained.

【0085】 pw=λ×ε×√(βn ×βn +γn ×γn ) +(1−λ)×√(ep ×ep ) …(8) ここで、0<ε、0<λ<1であり、これらの値は例え
ば実験によって定められる。前フレームのパワー情報
は、合成励振コードベクトルep が既に得られているの
でこれを利用して求める。一方、次フレームの合成励振
コードベクトルを利用できないので、パワーの大小に反
映する情報である適応励振コードゲインβn及び統計励
振コードゲインγn を用いてパワー情報を推定する。こ
のように次フレームについては前フレームとは異なる演
算によってパワー情報を推定しているので、仮に前フレ
ームと同様に合成励振コードベクトルから求めた場合に
対する修正係数εを乗算する。また、前フレームのパワ
ー情報と次フレームのパワー情報とが、現フレームにつ
いてのパワー情報pwにどのように寄与するかを考慮し
て重み係数λを適用している。
Pw = λ × ε × √ (βn × βn + γn × γn) + (1-λ) × √ (ep × ep) (8) where 0 <ε and 0 <λ <1 These values are determined by experiment, for example. The power information of the previous frame is obtained by utilizing the synthetic excitation code vector ep already obtained. On the other hand, since the combined excitation code vector of the next frame cannot be used, the power information is estimated using the adaptive excitation code gain βn and the statistical excitation code gain γn, which are information reflected in the magnitude of power. In this way, since the power information is estimated for the next frame by a different operation from that for the previous frame, the correction coefficient ε for the case where it is obtained from the combined excitation code vector is multiplied as in the previous frame. Also, the weighting factor λ is applied in consideration of how the power information of the previous frame and the power information of the next frame contribute to the power information pw for the current frame.

【0086】また、現フレーム(バッドフレーム)につ
いての各種の補間値を適用したときに、加算器105か
ら出力された合成励振コードベクトルeddが、パワー補
間器130に与えられる。
When various interpolation values for the current frame (bad frame) are applied, the composite excitation code vector edd output from the adder 105 is given to the power interpolator 130.

【0087】パワー補間器130は、この合成励振コー
ドベクトルedd及び現フレームについてのパワー情報p
wに基づき、(9) 式に従って乗算係数PWを決定する。
The power interpolator 130 outputs the combined excitation code vector edd and the power information p for the current frame.
Based on w, the multiplication coefficient PW is determined according to the equation (9).

【0088】 PW=pw/√(edd×edd) …(9) ここで、パワー情報pwは絶対的な大きさ情報であるの
で、合成励振コードベクトルeddが有するパワー情報√
(edd×edd)を利用して正規化することでパワー情報
の変化率(乗算係数PW)に変換している。なお、正規
化のための分母としては、前フレームのパワー情報を利
用することも可能である。
PW = pw / √ (edd × edd) (9) Here, since the power information pw is absolute size information, the power information √ included in the composite excitation code vector edd
It is converted into the rate of change of the power information (multiplication coefficient PW) by normalizing using (edd × edd). The power information of the previous frame can be used as the denominator for normalization.

【0089】基本構成に追加された各部が、以上のよう
に動作するので、現フレームがバッドフレームの場合に
は、以下のような一連の処理によって再生音声Sd が得
られる。
Since each unit added to the basic configuration operates as described above, when the current frame is a bad frame, the reproduced voice Sd is obtained by the following series of processes.

【0090】立ち上がり検出回路111によって、バッ
ドフレームである現フレームが音声の立ち上がり部分で
はないと判定された場合には、前フレームのインデック
スLd によって定まった、適応励振コードブック101
から出力された適応励振コードベクトルeadが、乗算器
103によって加算比率計算回路120から出力された
適応励振コードゲインβd 倍された後スイッチ107を
介して加算器105に与えられ、また、前フレームのイ
ンデックスHd によって定まった、統計励振コードブッ
ク102から出力された統計励振コードベクトルesd
が、乗算器104によって加算比率計算回路120から
出力された統計励振コードゲインγd 倍された後加算器
105に与えられる。加算器105は、これらの励振コ
ードベクトルを合成し、補間した合成励振コードベクト
ルeddを得て、パワー補間器130及びパワー補間用乗
算器131に与える。パワー補間器130は、この情報
をも利用してパワー補間用の乗算係数PWを発生し、乗
算器131は補間された合成励振コードベクトルeddに
対して乗算係数PWを掛けてパワー補間をも行なって得
られた補間合成コードベクトルed を合成フィルタ10
6に与える。合成フィルタ106は、この合成励振コー
ドベクトルed に対して前フレームの合成フィルタ係数
αd を用いて合成処理して再生音声信号Sd を得る。
When the rising edge detection circuit 111 determines that the current frame, which is a bad frame, is not the rising edge portion of the voice, the adaptive excitation codebook 101 determined by the index Ld of the previous frame.
The adaptive excitation code vector ead output from is multiplied by the adaptive excitation code gain βd output from the addition ratio calculation circuit 120 by the multiplier 103, and then applied to the adder 105 via the switch 107. Statistical excitation code vector esd output from statistical excitation codebook 102, which is determined by index Hd
Is multiplied by the statistical excitation code gain γd output from the addition ratio calculation circuit 120 by the multiplier 104 and then given to the adder 105. The adder 105 synthesizes these excitation code vectors to obtain an interpolated synthetic excitation code vector edd, and supplies it to the power interpolator 130 and the power interpolation multiplier 131. The power interpolator 130 also uses this information to generate the multiplication coefficient PW for power interpolation, and the multiplier 131 also performs the power interpolation by multiplying the interpolated combined excitation code vector edd by the multiplication coefficient PW. The interpolation synthesis code vector ed obtained by
Give to 6. The synthesizing filter 106 synthesizes the synthesized excitation code vector ed using the synthesizing filter coefficient αd of the previous frame to obtain a reproduced voice signal Sd.

【0091】これに対して、立ち上がり検出回路111
によって、バッドフレームである現フレームが音声の立
ち上がり部分であると判定された場合には、ラグ計算回
路110によって過去の合成励振コードベクトルから現
フレームについてのラグ情報Pが推定され、これによ
り、パルス発生回路109からパルス励振コードベクト
ルem が出力される。このパルス励振コードベクトルe
m が乗算器108によって加算比率計算回路120から
出力された適応励振コードゲインβd 倍された後スイッ
チ107を介して加算器105に与えられる。また、前
フレームのインデックスHd によって定まった、統計励
振コードブック102から出力された統計励振コードベ
クトルesdが、乗算器104によって加算比率計算回路
120から出力された統計励振コードゲインγd 倍され
た後加算器105に与えられる。加算器105は、これ
ら各成分の励振コードベクトルを合成し、補間した合成
励振コードベクトルeddを得る。なお、加算器105以
降の動作は、バッドフレーム(現フレーム)が音声の立
ち上がり部分でないときの動作と同様であるので、その
説明は省略する。
On the other hand, the rising edge detection circuit 111
When it is determined that the current frame, which is a bad frame, is the rising portion of the speech, the lag calculation circuit 110 estimates the lag information P for the current frame from the past combined excitation code vector, and thereby the pulse The pulse excitation code vector em is output from the generation circuit 109. This pulse excitation code vector e
m is multiplied by the adaptive excitation code gain βd output from the addition ratio calculation circuit 120 by the multiplier 108, and then applied to the adder 105 via the switch 107. Also, the statistical excitation code vector esd output from the statistical excitation codebook 102, which is determined by the index Hd of the previous frame, is multiplied by the statistical excitation code gain γd output from the addition ratio calculation circuit 120 by the multiplier 104, and then post-added. Given to the container 105. The adder 105 synthesizes the excitation code vectors of these components to obtain an interpolated synthetic excitation code vector edd. The operation after the adder 105 is the same as the operation when the bad frame (current frame) is not the rising portion of the voice, and thus the description thereof is omitted.

【0092】以上のように、前フレームだけでなく次フ
レームの情報をも利用して励振源情報を補間するように
したので、再生音声信号の品質を向上させることができ
る。図4に示す補間構成によれば、具体的には、音声の
立ち上がり部分での再現性が良くなってピッチ周期性を
うまく再現でき、また、適応励振コードベクトルと統計
励振コードベクトルとをどのような比率で合成するかを
表す加算比率変化を滑らかに再現でき、さらに、パワー
変化を滑らかに再現できて、再生音声信号の品質を高め
ることができる。
As described above, since the excitation source information is interpolated using not only the information of the previous frame but also the information of the next frame, the quality of the reproduced audio signal can be improved. According to the interpolation configuration shown in FIG. 4, specifically, the reproducibility at the rising portion of the voice is improved, the pitch periodicity can be reproduced well, and how the adaptive excitation code vector and the statistical excitation code vector are calculated. It is possible to smoothly reproduce a change in addition ratio, which indicates whether to synthesize at a certain ratio, and also a smooth change in power, thereby improving the quality of a reproduced audio signal.

【0093】なお、図4は、次フレームの情報をも利用
した励振源情報の補間方法の一例を示したに過ぎない。
Incidentally, FIG. 4 merely shows one example of the interpolation method of the excitation source information using the information of the next frame.

【0094】(D)他の実施例 上記実施例においては、現フレームがバッドフレームの
場合に前後のフレームの情報を利用するものを示した
が、前フレームよりも過去の情報や次フレームよりも将
来の情報をも補間に利用するようにしても良い。
(D) Other Embodiments In the above embodiment, when the current frame is a bad frame, the information of the preceding and following frames is used. However, the information of the past past the previous frame and the information of the next frame are used. Future information may also be used for interpolation.

【0095】また、本発明はデジタル移動通信に適用す
る場合を考慮してなされたものであるが、適用し得るシ
ステムはこれに限定されるものではなく、記録再生のシ
ステムであっても良い。そのため、圧縮音声符号化方式
もコード励振線形予測符号化方式を中心としたものに限
定されない。
Although the present invention has been made in consideration of the case of being applied to digital mobile communication, the applicable system is not limited to this, and a recording / reproducing system may be used. Therefore, the compression speech coding system is not limited to the one based on the code excitation linear predictive coding system.

【0096】さらに、声道情報と励振源情報とで処理フ
レームの長さが異なっていても良い。例えば、声道情報
の処理フレームを数個に等分した長さが励振源情報の処
理フレームとなっている場合であっても本発明を適用す
ることができる。
Furthermore, the length of the processing frame may be different between the vocal tract information and the excitation source information. For example, the present invention can be applied even when the length of the vocal tract information processing frame divided into several pieces is the excitation source information processing frame.

【0097】[0097]

【発明の効果】以上のように、本発明によれば、処理単
位が音声フレーム毎である圧縮音声符号化データを復号
化処理する圧縮音声復号化装置において、復号化処理対
象フレームが、受信情報が欠落しているバッドフレーム
のときに、復号化処理対象フレームより過去のフレーム
及び将来のフレームの情報を用いて復号化処理対象フレ
ームの情報を補間させる補間処理手段を設けたので、バ
ッドフレームに対する補間を良好に行なうことができて
再生音声信号の品質を従来より向上させることができ
る。
As described above, according to the present invention, in the compressed voice decoding apparatus for decoding the compressed voice coded data whose processing unit is each voice frame, the decoding target frame is the received information. When a bad frame is missing, the interpolation processing means for interpolating the information of the decoding target frame by using the information of the past frame and the future frame from the decoding target frame is provided. The interpolation can be favorably performed, and the quality of the reproduced audio signal can be improved as compared with the conventional case.

【図面の簡単な説明】[Brief description of drawings]

【図1】実施例を適用したデジタル移動通信システムを
示すブロック図である。
FIG. 1 is a block diagram showing a digital mobile communication system to which an embodiment is applied.

【図2】図1システムの各処理部におけるフレームの時
間関係を示す説明図である。
FIG. 2 is an explanatory diagram showing a temporal relationship of frames in each processing unit of the system shown in FIG.

【図3】実施例による声道情報の具体的補間構成を示す
ブロック図である。
FIG. 3 is a block diagram showing a specific interpolation structure of vocal tract information according to an embodiment.

【図4】実施例による励振源情報の具体的補間構成を示
すブロック図である。
FIG. 4 is a block diagram showing a specific interpolation configuration of excitation source information according to the embodiment.

【符号の説明】[Explanation of symbols]

21…誤り訂正復号化部、22、56、61〜63…バ
ッファ、23…圧縮音声復号化部、23a…補間処理
部、50…多重分離回路、51〜53…ベクトル復号化
(逆量子化)用のVQコードブック、57…スイッチ、
64…補間回路。
21 ... Error correction decoding unit, 22, 56, 61-63 ... Buffer, 23 ... Compressed speech decoding unit, 23a ... Interpolation processing unit, 50 ... Demultiplexing circuit, 51-53 ... Vector decoding (dequantization) VQ codebook for, 57 ... switch,
64 ... Interpolation circuit.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 有山 義博 東京都港区虎ノ門1丁目7番12号 沖電気 工業株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Yoshihiro Ariyama 1-7-12 Toranomon, Minato-ku, Tokyo Oki Electric Industry Co., Ltd.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 音声フレーム毎に処理されて形成された
圧縮音声符号化データを復号化処理する圧縮音声復号化
装置において、 復号化処理対象フレームが、受信情報が欠落しているバ
ッドフレームのときに、復号化処理対象フレームより過
去のフレーム及び将来のフレームの情報を用いて復号化
処理対象フレームの情報を補間させる補間処理手段を備
えたことを特徴とした圧縮音声復号化装置。
1. A compressed audio decoding apparatus for decoding compressed audio encoded data formed by processing for each audio frame, wherein a decoding processing target frame is a bad frame in which reception information is missing. In addition, the compressed speech decoding apparatus is characterized by further comprising interpolation processing means for interpolating the information of the decoding processing target frame by using the information of the past frame and the future frame from the decoding processing target frame.
【請求項2】 音声フレーム毎に処理されて形成された
圧縮音声符号化データであって、声道情報については線
スペクトル対パラメータの多段ベクトル符号化により形
成された符号を含む圧縮音声符号化データを復号化処理
する圧縮音声復号化装置において、 多段ベクトル復号化された少なくとも第1段の線スペク
トル対パラメータについて、復号化処理対象フレームの
前後のフレームの情報を保持し、復号化処理対象フレー
ムが、受信情報が欠落しているバッドフレームのとき
に、復号化処理対象フレームの前後のフレームについて
保持している線スペクトル対パラメータから、復号化処
理対象フレームの線スペクトル対パラメータを補間させ
る補間処理手段を備えたことを特徴とした圧縮音声復号
化装置。
2. Compressed speech coded data formed by processing for each speech frame, wherein vocal tract information includes a code formed by multistage vector coding of line spectrum pair parameters. In a compressed speech decoding apparatus that decodes a frame, the multi-stage vector-decoded line spectrum pair parameter of at least the first stage holds information of frames before and after the frame to be decoded, and the frame to be decoded is Interpolation processing means for interpolating the line spectrum pair parameter of the decoding process target frame from the line spectrum pair parameter held for the frames before and after the decoding process target frame when the received information is missing A compressed speech decoding apparatus comprising:
JP4284292A 1992-10-22 1992-10-22 Compressed voice decoding device Pending JPH06130998A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4284292A JPH06130998A (en) 1992-10-22 1992-10-22 Compressed voice decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4284292A JPH06130998A (en) 1992-10-22 1992-10-22 Compressed voice decoding device

Publications (1)

Publication Number Publication Date
JPH06130998A true JPH06130998A (en) 1994-05-13

Family

ID=17676644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4284292A Pending JPH06130998A (en) 1992-10-22 1992-10-22 Compressed voice decoding device

Country Status (1)

Country Link
JP (1) JPH06130998A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5826221A (en) * 1995-11-30 1998-10-20 Oki Electric Industry Co., Ltd. Vocal tract prediction coefficient coding and decoding circuitry capable of adaptively selecting quantized values and interpolation values
US5905970A (en) * 1995-12-18 1999-05-18 Oki Electric Industry Co., Ltd. Speech coding device for estimating an error of power envelopes of synthetic and input speech signals
US5915234A (en) * 1995-08-23 1999-06-22 Oki Electric Industry Co., Ltd. Method and apparatus for CELP coding an audio signal while distinguishing speech periods and non-speech periods
WO2002071389A1 (en) * 2001-03-06 2002-09-12 Ntt Docomo, Inc. Audio data interpolation apparatus and method, audio data-related information creation apparatus and method, audio data interpolation information transmission apparatus and method, program and recording medium thereof
JP2008139661A (en) * 2006-12-04 2008-06-19 Nippon Telegr & Teleph Corp <Ntt> Speech signal receiving device, speech packet loss compensating method used therefor, program implementing the method, and recording medium with the recorded program
JP2017509006A (en) * 2014-02-28 2017-03-30 グーグル インコーポレイテッド Sinusoidal interpolation over missing data

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5915234A (en) * 1995-08-23 1999-06-22 Oki Electric Industry Co., Ltd. Method and apparatus for CELP coding an audio signal while distinguishing speech periods and non-speech periods
US5826221A (en) * 1995-11-30 1998-10-20 Oki Electric Industry Co., Ltd. Vocal tract prediction coefficient coding and decoding circuitry capable of adaptively selecting quantized values and interpolation values
US5905970A (en) * 1995-12-18 1999-05-18 Oki Electric Industry Co., Ltd. Speech coding device for estimating an error of power envelopes of synthetic and input speech signals
WO2002071389A1 (en) * 2001-03-06 2002-09-12 Ntt Docomo, Inc. Audio data interpolation apparatus and method, audio data-related information creation apparatus and method, audio data interpolation information transmission apparatus and method, program and recording medium thereof
JP2008139661A (en) * 2006-12-04 2008-06-19 Nippon Telegr & Teleph Corp <Ntt> Speech signal receiving device, speech packet loss compensating method used therefor, program implementing the method, and recording medium with the recorded program
JP2017509006A (en) * 2014-02-28 2017-03-30 グーグル インコーポレイテッド Sinusoidal interpolation over missing data

Similar Documents

Publication Publication Date Title
US7729905B2 (en) Speech coding apparatus and speech decoding apparatus each having a scalable configuration
JP2964344B2 (en) Encoding / decoding device
US5491771A (en) Real-time implementation of a 8Kbps CELP coder on a DSP pair
US20080297380A1 (en) Signal decoding apparatus and signal decoding method
US7426465B2 (en) Speech signal decoding method and apparatus using decoded information smoothed to produce reconstructed speech signal to enhanced quality
KR20070090219A (en) Audio encoding device and audio encoding method
JPH0736118B2 (en) Audio compressor using Serp
JPH11126098A (en) Voice synthesizing method and device therefor, band width expanding method and device therefor
JPH06202696A (en) Speech decoding device
KR20000077057A (en) The method and device of sound synthesis, telephone device and the medium of providing program
JPH0636158B2 (en) Speech analysis and synthesis method and device
EP1096476A2 (en) Speech decoding gain control for noisy signals
JPH0946233A (en) Sound encoding method/device and sound decoding method/ device
JPH1097295A (en) Coding method and decoding method of acoustic signal
JP2002221994A (en) Method and apparatus for assembling packet of code string of voice signal, method and apparatus for disassembling packet, program for executing these methods, and recording medium for recording program thereon
US7502735B2 (en) Speech signal transmission apparatus and method that multiplex and packetize coded information
JPH06130998A (en) Compressed voice decoding device
JP3472279B2 (en) Speech coding parameter coding method and apparatus
US7373298B2 (en) Apparatus and method for coding excitation signal
JP3888097B2 (en) Pitch cycle search range setting device, pitch cycle search device, decoding adaptive excitation vector generation device, speech coding device, speech decoding device, speech signal transmission device, speech signal reception device, mobile station device, and base station device
US6052660A (en) Adaptive codebook
US7031913B1 (en) Method and apparatus for decoding speech signal
JP4437052B2 (en) Speech decoding apparatus and speech decoding method
JP3649854B2 (en) Speech encoding device
JP3095340B2 (en) Audio decoding device