JP2000047695A - Encoding device and decoding device - Google Patents

Encoding device and decoding device

Info

Publication number
JP2000047695A
JP2000047695A JP10214133A JP21413398A JP2000047695A JP 2000047695 A JP2000047695 A JP 2000047695A JP 10214133 A JP10214133 A JP 10214133A JP 21413398 A JP21413398 A JP 21413398A JP 2000047695 A JP2000047695 A JP 2000047695A
Authority
JP
Japan
Prior art keywords
code
parameter
statistical
parameters
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10214133A
Other languages
Japanese (ja)
Inventor
Hiromi Aoyanagi
弘美 青柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP10214133A priority Critical patent/JP2000047695A/en
Publication of JP2000047695A publication Critical patent/JP2000047695A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an encoding device and decoding device which can reproduce a voice signal even if all codes are not obtained. SOLUTION: A vocal tract coefficient quantizer 202 obtains a quantization synthesis filter coefficient aq(i) from quantization prediction result (w) separated from a total code by a multiplex separating circuit 201. In a decoding system y1 of a first stage, a prediction voice is obtained based on a filter coefficient aq(i), in a decoding system y2,..., yn, after a second stage, a prediction voice of the filter coefficient aq(i) is obtained based on each parameter J2, L2,..., JN, LN. Prediction voices of each stage are synthesized by switches 204, 213,... and adders 203, 212,... and outputted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、符号化装置及び復
号化装置に関する。
[0001] The present invention relates to an encoding device and a decoding device.

【0002】[0002]

【従来の技術】自動車電話・携帯電話等では、例えば4
kbit/s以下の低ビットレートの符号化が実現され
ている。このような符号化方法は、例えば「Pitch Sync
hronous Innovation CELP(PSI-CELP)-PDCハーフレート
音声CODEC- 」(大矢他、電子情報通信学会技術報告、R
CS93-78、1993年)等において開示されている。
2. Description of the Related Art In a mobile phone or a mobile phone, for example, 4
Coding at a low bit rate of kbit / s or less is realized. Such an encoding method is described in, for example, “Pitch Sync
hronous Innovation CELP (PSI-CELP) -PDC half-rate voice CODEC- "(Oya et al., IEICE Technical Report, R
CS93-78, 1993).

【0003】この符号化方法では、励振源を音声のピッ
チ周期に同期させて周期化して、CELPに基づく符号
化を行い、符号化された音声データのビットレートの低
減を実現している。
In this encoding method, the excitation source is cycled in synchronization with the pitch cycle of speech, and encoding based on CELP is performed to reduce the bit rate of encoded speech data.

【0004】また、サブフレーム単位でピッチ周期、残
差、符号長利得を符号化すること等により、音質の改
善、演算量、メモリ要求の削減を実現している。
Further, by encoding the pitch period, the residual, and the code length gain in units of subframes, the improvement of sound quality, the amount of calculation, and the reduction of memory requirements are realized.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、現在実
用化されている符号化方法の多くは、1フレーム分の符
号化された情報が全て揃わなければ復号できず、上述の
文献に開示された符号化方法においても同様である。
However, most of the encoding methods currently put into practical use cannot be decoded unless all pieces of encoded information for one frame are collected, and the encoding method disclosed in the above-mentioned document is not available. The same applies to the chemical conversion method.

【0006】例えばパケット通信等で符号化された情報
を伝送する場合には、1フレームの符号化情報が幾つか
のパケットに分けられて伝送される場合があるが、1フ
レーム分の全てのパケットがオンタイムで伝送される保
証は無く、また、一部のパケットが消失することもあ
る。
For example, when transmitting coded information by packet communication or the like, the coded information of one frame may be divided into several packets and transmitted. Is not guaranteed to be transmitted on-time, and some packets may be lost.

【0007】このため、リアルタイム性が要求されるよ
うな情報伝送を行った場合に、パケットが消失あるい
は、所定の時間までに伝送されないと復号できないフレ
ームが発生する。このように復号できないフレームが発
生すると、電話では音声の途切れ、データ通信ではエラ
ーとなってしまう。
[0007] For this reason, when information transmission requiring real-time performance is performed, a frame that cannot be decoded unless a packet is lost or transmitted by a predetermined time occurs. When such a frame that cannot be decoded occurs, the sound is interrupted on the telephone and an error occurs on the data communication.

【0008】本発明は、上述のような課題に鑑みてなさ
れたものであり、全ての符号化情報が得られないときで
も復号可能な符号化装置、復号化装置を提供することを
目的とする。
The present invention has been made in view of the above-described problems, and has as its object to provide an encoding device and a decoding device that can decode even when all encoded information cannot be obtained. .

【0009】[0009]

【課題を解決するための手段】本発明に係る符号化装置
は、入力信号に基づく予測を行う線形予測分析器と、線
形予測分析器の予測結果を量子化する線形予測係数量子
化器と、第1のパラメータに対応する適応励振符号が格
納された適応励振符号帳と、第2のパラメータに対応す
る統計励振符号が格納された統計励振符号帳と、第3の
パラメータに対応する適応利得符号及び統計利得符号が
格納された利得符号帳と、適応励振符号、統計励振符
号、各利得符号を合成して合成信号を出力する合成手段
と、線形予測係数量子化器によって量子化された予測結
果に応じて合成信号から予測音声を求める合成フィルタ
と、入力信号と予測音声を比較する比較手段と、第1か
ら第3のパラメータを可変し、比較手段の比較結果に応
じて、入力信号を最も良く近似する予測音声を生成する
パラメータの組み合わせを探索し、各々最適符号の第1
のパラメータ、第2のパラメータ及び第3のパラメータ
とする最適化手段と、最適符号の第1から第3のパラメ
ータを用いたときの入力信号と予測音声の差を目標信号
として出力する目標信号設定手段とを有する第1の符号
化系と、第4のパラメータに対応する統計励振符号が格
納された統計励振符号帳と、第5のパラメータに対応す
る統計利得符号が格納された利得符号帳と、統計励振符
号、統計符号を合成して合成信号を出力する合成手段
と、線形予測係数量子化器によって量子化された予測結
果に応じて合成信号から予測音声を求める合成フィルタ
と、前段の符号化系から供給される目標信号と予測音声
を比較する比較手段と、第1から第3のパラメータを可
変し、比較手段の比較結果に応じて、入力信号を最も良
く近似する予測音声を生成するパラメータの組み合わせ
を探索し、各々最適符号の第4のパラメータ、第5のパ
ラメータとする最適化手段と、最適符号の第4及び第5
のパラメータを用いたときの前段の符号化系からの目標
信号と予測音声の差を次段の符号化系の目標信号として
出力する目標信号設定手段とを有する1つ又は複数の第
2の符号化系と、線形予測係数量子化器によって量子化
された予測結果と、各最適符号の第1から第5のパラメ
ータとを多重化してトータル符号として出力する多重化
手段とを備えることを特徴とする。
An encoding apparatus according to the present invention comprises: a linear prediction analyzer for performing prediction based on an input signal; a linear prediction coefficient quantizer for quantizing a prediction result of the linear prediction analyzer; An adaptive excitation codebook storing an adaptive excitation code corresponding to a first parameter, a statistical excitation codebook storing a statistical excitation code corresponding to a second parameter, and an adaptive gain code corresponding to a third parameter And a gain codebook in which a statistical gain code is stored, an adaptive excitation code, a statistical excitation code, a synthesizing unit that synthesizes each gain code to output a synthesized signal, and a prediction result quantized by a linear prediction coefficient quantizer. And a comparing means for comparing the input signal and the predicted speech, and varying the first to third parameters according to the comparison result of the input signal. Explore the combination of production parameters predictive speech well approximated by a first respective optimal code
Optimizing means for setting the parameter, the second parameter and the third parameter, and a target signal setting for outputting a difference between an input signal and a predicted speech when the first to third parameters of the optimal code are used as a target signal A first coding system having means, a statistical excitation codebook storing a statistical excitation code corresponding to a fourth parameter, and a gain codebook storing a statistical gain code corresponding to a fifth parameter. A synthesis means for synthesizing a statistical excitation code, a statistical code, and outputting a synthesized signal; a synthesis filter for obtaining a predicted speech from the synthesized signal in accordance with a prediction result quantized by a linear prediction coefficient quantizer; Comparing means for comparing a target signal supplied from a quantization system with a predicted sound, and a predicted sound which best approximates an input signal according to a comparison result of the comparing means by varying first to third parameters. The combination of the generated parameters to search, the fourth parameter of each optimal code, and optimization means for the fifth parameter, fourth and fifth optimization code
One or a plurality of second codes having target signal setting means for outputting a difference between a target signal from the preceding coding system and a predicted speech when the parameter is used as a target signal of the next coding system. And a multiplexing unit that multiplexes the prediction result quantized by the linear prediction coefficient quantizer and the first to fifth parameters of each optimal code and outputs the multiplexed result as a total code. I do.

【0010】また、本発明に係る復号化装置は、本発明
に係る符号化装置により符号化された音声信号を復号化
するものであり、トータル符号から量子化予測結果と、
第1から第5のパラメータを分離する多重分離手段と、
第1のパラメータに対応する適応励振符号と、第2のパ
ラメータに対応する統計励振符号と、第3のパラメータ
に対応する適応利得符号及び統計利得符号とを合成して
合成信号を形成し、量子化予測結果に応じて合成信号か
ら予測音声を求める第1の復号化系と、第4パラメータ
に対応する統計励振符号と、第5のパラメータに対応す
る統計利得符号とを合成して合成信号を形成し、量子化
予測結果に応じて合成信号から予測音声を求める1つ又
は複数の第2の復号化系と、第1及び第2の復号化系に
よって求められた各予測音声を合成する合成手段とを備
えることを特徴とする。
A decoding device according to the present invention decodes an audio signal coded by the coding device according to the present invention.
Demultiplexing means for separating the first to fifth parameters;
An adaptive excitation code corresponding to the first parameter, a statistical excitation code corresponding to the second parameter, and an adaptive gain code and a statistical gain code corresponding to the third parameter are combined to form a combined signal, A first decoding system for obtaining a predicted speech from the synthesized signal in accordance with the result of the generalized prediction, a statistical excitation code corresponding to the fourth parameter, and a statistical gain code corresponding to the fifth parameter to synthesize a synthesized signal. One or more second decoding systems that form and obtain predicted speech from the synthesized signal in accordance with the quantization prediction result, and synthesis that synthesizes each predicted speech obtained by the first and second decoding systems. Means.

【0011】[0011]

【発明の実施の形態】図1は、本発明の一実施形態に係
る符号化装置の構成を示すブロック図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a block diagram showing a configuration of an encoding device according to one embodiment of the present invention.

【0012】この符号化装置は、同図中に示すように、
入力信号Sの声道分析を行う声道分析系x0と、各々入
力信号の符号化を行う多段の符号化系x1、x2、x
3、・・・、xn−1、xnと、各符号化系x1〜xn
の出力を多重化する多重化回路(多重化手段)112と
を備えている。
[0012] As shown in FIG.
A vocal tract analysis system x0 that performs vocal tract analysis of the input signal S, and multi-stage encoding systems x1, x2, and x that each encode the input signal.
3,..., Xn−1, xn, and the respective encoding systems x1 to xn
And a multiplexing circuit (multiplexing means) 112 for multiplexing the outputs of the above.

【0013】声道分析系x0は、入力信号Sの声道分析
を行う声道分析器(線形予測分析器)101と、声道分
析器101による声道分析結果に基づいて量子化を行う
声道係数量子化器(線形予測係数量子化器)102とを
備えている。
The vocal tract analysis system x0 includes a vocal tract analyzer (linear predictive analyzer) 101 for performing vocal tract analysis of the input signal S, and a voice for performing quantization based on the vocal tract analysis result of the vocal tract analyzer 101. Path coefficient quantizer (linear prediction coefficient quantizer) 102.

【0014】1段目の符号化系(第1の符号化系)x1
は、供給される係数I(第1の入力パラメータ)に対応
する適応コードベクトルが保持されている適応コードブ
ック(適応符号帳)103と、供給される係数K、L
(第3の入力パラメータ)に対応する適応コードゲイ
ン、統計コードゲインが保持されているゲインコードブ
ック(利得符号帳)104と、供給される係数J(第2
の入力パラメータ)に対応する統計コードベクトルが保
持されている統計コードブック(統計符号帳)105
と、適応コードベクトルと適応コードゲインの積を求め
る乗算器(合成手段)106と、統計コードベクトルと
統計コードゲインの積を求める乗算器(合成手段)10
7と、乗算器106、107の出力を加算する加算器
(合成手段)108と、加算器108の出力(励振ベク
トル)から合成音声ベクトルを求める合成フィルタ10
9と、入力信号Sと合成音声ベクトルとの差分を求める
加算器(比較手段、目標信号設定手段)110と、求め
られた差分から重み付き誤差が最小となる係数i、j、
k、lを求める重み付き誤差計算回路(最適化手段)1
11と、加算器110の出力先を切り換えるスイッチ
(目標信号設定手段)113とを備えている。
First-stage encoding system (first encoding system) x1
Are adaptive codebooks (adaptive codebooks) 103 holding adaptive code vectors corresponding to supplied coefficients I (first input parameters), and supplied coefficients K and L
A gain codebook (gain codebook) 104 holding an adaptive code gain and a statistical code gain corresponding to (third input parameter), and a supplied coefficient J (second
Statistical codebook (statistical codebook) 105 in which a statistical code vector corresponding to the input parameter is stored.
, A multiplier (synthesizing means) 106 for calculating the product of the adaptive code vector and the adaptive code gain, and a multiplier (synthesizing means) 10 for calculating the product of the statistical code vector and the statistical code gain
7, an adder (synthesizing means) 108 for adding outputs of the multipliers 106 and 107, and a synthesis filter 10 for obtaining a synthesized speech vector from the output (excitation vector) of the adder 108.
9, an adder (comparing means, target signal setting means) 110 for calculating a difference between the input signal S and the synthesized speech vector, and coefficients i, j, which minimize the weighted error from the calculated difference.
Weighted error calculation circuit (optimizing means) 1 for obtaining k and l
11 and a switch (target signal setting means) 113 for switching the output destination of the adder 110.

【0015】2段目以降の符号化系(第2の符号化系)
x2、x3、・・・、xn−1、xnは、各々供給され
る係数J2、J3、・・・、JN−1、JNに対応する
統計コードベクトルが保持されている統計コードブック
114、・・・、121と、各々供給される係数L2、
L3、・・・、L−1、LNに対応する統計コードゲイ
ンが保持されているゲインコードブック115、・・
・、122と、統計コードベクトルと統計コードゲイン
の積を求める乗算器116、・・・、123と、乗算器
116、・・・、123の出力(励振ベクトル)から合
成音声ベクトルを求める合成フィルタ117、・・・、
124と、入力信号Sと合成音声ベクトルとの差分を求
める加算器118、・・・、126と、求められた差分
から重み付き誤差が最小となる係数j1、k1、j2、
k2、・・・、jN−1、kN−1、jN、kNを求め
る重み付き誤差計算回路120、・・・、126とを備
えている。また、2段目〜n−1段目の符号化系x2〜
xn−1は加算器118、・・・の出力先を切り換える
スイッチ119、・・・を備えている。
Encoding system of second and subsequent stages (second encoding system)
, xn-1, xn are statistical code books 114 holding statistical code vectors corresponding to the supplied coefficients J2, J3,..., JN-1, JN, respectively. .., 121 and the coefficient L2 supplied respectively,
Gain code book 115 in which statistical code gains corresponding to L3,..., L-1, LN are held.
, 122, multipliers 116,..., 123 for obtaining the product of the statistical code vector and the statistical code gain, and a synthesis filter for obtaining a synthesized speech vector from the output (excitation vector) of the multipliers 116,. 117, ...,
., 126 for obtaining a difference between the input signal S and the synthesized speech vector, and coefficients j1, k1, j2 for minimizing a weighted error from the obtained difference.
., 126 for calculating k2,..., jN-1, kN-1, jN, kN. Also, the encoding system x2 of the second stage to the (n-1) th stage
xn-1 includes switches 119,... for switching output destinations of the adders 118,.

【0016】多重化回路112は、声道係数量子化器1
02からの係数(量子化インデックスw)と、各重み付
き誤差計算回路111、120、・・・、126からの
係数(インデックスI、J、K、L、J1、K1、・・
・、JN、KN)を多重化して伝送路に送出する。な
お、伝送路に送出する代わりに記録媒体に記録するよう
にしてもよい。
The multiplexing circuit 112 includes a vocal tract coefficient quantizer 1
02 (quantization index w) and coefficients (indexes I, J, K, L, J1, K1,...) From the weighted error calculation circuits 111, 120,.
, JN, KN) and multiplex the same to the transmission path. It should be noted that the information may be recorded on a recording medium instead of being transmitted to the transmission path.

【0017】以下、上述のように構成された符号化装置
の動作を説明する。この符号化装置には入力信号Sとし
て、例えば8KHzでサンプリングされた音声信号が、
所定数のサンプルから構成されたフレーム(例えば40
ms)あるいはサブフレーム(例えば10ms)毎に供
給される。
Hereinafter, the operation of the encoding apparatus configured as described above will be described. For example, an audio signal sampled at 8 KHz is input to the encoding device as an input signal S.
A frame composed of a predetermined number of samples (for example, 40
ms) or every subframe (for example, 10 ms).

【0018】まず、1段目の符号化系x1は、スイッチ
113の選択端子を、重み付き誤差計算回路111側の
被接続端子に接続させておく。これにより、加算器11
0の出力は重み付き誤差計算回路111に供給され得る
状態となる。
First, in the encoding system x1 of the first stage, the selection terminal of the switch 113 is connected to the connected terminal on the weighted error calculation circuit 111 side. Thereby, the adder 11
The output of 0 is ready to be supplied to the weighted error calculation circuit 111.

【0019】声道分析器101は、1フレーム(あるい
は1サブフレーム)分の入力信号Sを声道分析して合成
フィルタ係数a(i)を求め、声道係数量子化器102
に供給する。声道係数量子化器102は供給された合成
フィルタ係数a(i)を量子化し、量子化インデックス
wを多重化回路112に供給すると共に、量子化合成フ
ィルタ係数aq(i)を各合成フィルタ(109、11
7、・・・124)に供給する。
The vocal tract analyzer 101 analyzes the vocal tract of the input signal S for one frame (or one subframe) to obtain a synthesized filter coefficient a (i), and a vocal tract coefficient quantizer 102
To supply. The vocal tract coefficient quantizer 102 quantizes the supplied synthesis filter coefficient a (i), supplies the quantization index w to the multiplexing circuit 112, and also converts the quantized synthesis filter coefficient aq (i) into each synthesis filter ( 109, 11
7,... 124).

【0020】適応コードブック103は、供給されてい
る係数Iに応じた適応コードベクトルeai(i=1〜
M)を出力する。統計コードブック105は供給されて
いる係数Jに応じた統計コードベクトルesj(j=1
〜N)を出力する。ゲインコードブック104は、供給
されている係数K、Lに応じた適応コードゲインbk
(k=1〜A)、統計コードゲインgl(l=1〜B)
を出力する。
The adaptive code book 103 stores an adaptive code vector eai (i = 1 to 1) corresponding to the supplied coefficient I.
M). The statistical code book 105 stores a statistical code vector esj (j = 1) corresponding to the supplied coefficient J.
To N) are output. The gain codebook 104 stores an adaptive code gain bk corresponding to the supplied coefficients K and L.
(K = 1 to A), statistical code gain gl (l = 1 to B)
Is output.

【0021】乗算器106は、適応コードブック103
からの適応コードベクトルeaiとゲインコードブック
104からの適応コードゲインbkを乗じて加算器10
8に供給し、乗算器107は、統計コードブック105
からの統計コードベクトルesjとゲインコードブック
104からの統計コードゲインglを乗じて加算器10
8に供給する。加算器108は各乗算器106、107
の出力を加算して、励振ベクトルeijklを求め、合
成フィルタ109に供給する。合成フィルタ109は量
子化合成フィルタ係数aq(i)に応じて励振ベクトル
eijklから合成音声ベクトルvijklを求め、加
算器110に供給する。
Multiplier 106 is adapted to adaptive codebook 103
Is multiplied by the adaptive code gain e from the gain codebook 104 and the adder 10
8, and the multiplier 107 supplies the statistical codebook 105
Is multiplied by the statistical code gain gl from the gain codebook 104 and the adder 10
8 The adder 108 is connected to each of the multipliers 106 and 107
Are added to obtain an excitation vector eijkl, which is supplied to the synthesis filter 109. The synthesis filter 109 obtains a synthesized speech vector vijkl from the excitation vector eijkl according to the quantized synthesis filter coefficient aq (i), and supplies this to the adder 110.

【0022】加算器110は、入力信号Sから合成音声
ベクトルvijklを減じ、得られた差分信号Eijk
lを出力する。重み付き誤差計算回路111は、供給さ
れた差分信号Eijklに基づいて重み付き誤差が最小
となるi、j、k、lの組み合わせを探索する。これに
よって求められたi、j、k、lに対応する最適組み合
わせインデックスI、J、K、Lは、多重化回路112
及び各コードブック103〜105に供給される。
The adder 110 subtracts the synthesized speech vector vijkl from the input signal S, and obtains the obtained difference signal Eijk.
Output l. The weighted error calculation circuit 111 searches for a combination of i, j, k, and l that minimizes the weighted error based on the supplied difference signal Eijkl. The optimum combination indexes I, J, K, and L corresponding to i, j, k, and l thus obtained are output to the multiplexing circuit 112.
And supplied to each of the codebooks 103 to 105.

【0023】次に、1段目の符号化系x1は、スイッチ
113の選択端子を、次段の符号化系x2の加算器11
8に接続された被選択端子に接続させる。これにより、
加算器110の出力が次段に供給され得る状態となる。
Next, the first-stage encoding system x1 connects the selection terminal of the switch 113 to the adder 11 of the next-stage encoding system x2.
8 is connected to the selected terminal. This allows
The output of the adder 110 is ready to be supplied to the next stage.

【0024】そして、各コードブック103、104、
105は最適組み合わせインデックスI、J、K、Lに
従って各々ベクトルeai、esj及びゲインbk、g
lを出力する。適応コードブック103は、このときの
加算器108の出力eijklである最適励振ベクトル
eIJKLを用いて内部状態を更新する。
Then, each of the codebooks 103, 104,
105 is a vector eai, esj and gain bk, g according to the optimal combination index I, J, K, L, respectively.
Output l. Adaptive codebook 103 updates the internal state using optimal excitation vector eIJKL, which is output eijkl of adder 108 at this time.

【0025】さらに、合成フィルタ109は最適励振ベ
クトルeIJKLを用いて最適合成音声vIJKLを生
成し、入力音声Sより減じて目標信号v1を作成し、ス
イッチ113を介して次段の符号化系x2の加算器11
8に供給される。
Further, the synthesis filter 109 generates an optimum synthesized voice vIJKL using the optimum excitation vector eIJKL, generates a target signal v1 by subtracting from the input voice S, and outputs the target signal v1 via the switch 113 to the encoding system x2 of the next stage. Adder 11
8 is supplied.

【0026】続いて次段の符号化系x2が目標信号v1
を符号化する。符号化系x2は、合成音声を計算する前
に毎回、合成フィルタ117の内部状態をクリアしてお
く。また、符号化系x2は、スイッチ119の選択端子
を重み付き誤差計算回路120に接続された被選択端子
に接続しておく。これにより、加算器118の出力は重
み付き誤差計算回路120に供給され得る状態となる。
Subsequently, the next-stage encoding system x2 outputs the target signal v1.
Is encoded. The encoding system x2 clears the internal state of the synthesis filter 117 every time before calculating the synthesized speech. In the coding system x2, the selection terminal of the switch 119 is connected to a selected terminal connected to the weighted error calculation circuit 120. Thus, the output of the adder 118 can be supplied to the weighted error calculation circuit 120.

【0027】統計コードブック114は供給されている
係数J2に応じた統計コードベクトルes2m(m=1
〜N1)を出力する。ゲインコードブック115は供給
されている係数L2に応じた統計コードゲインg2n
(n=1〜B1)を出力する。乗算器215は、統計コ
ードベクトルes2mと統計コードゲインg2nを乗じ
て励振ベクトルesg2mnを生成し、合成フィルタ1
17に供給する。合成フィルタ117は、量子化合成フ
ィルタ係数aq(i)に応じて励振ベクトルesg2m
nから合成音声ベクトルt2mnを求め、加算器118
に供給する。
The statistical code book 114 stores a statistical code vector es2m (m = 1) corresponding to the supplied coefficient J2.
To N1). The gain codebook 115 has a statistical code gain g2n corresponding to the supplied coefficient L2.
(N = 1 to B1) is output. The multiplier 215 multiplies the statistical code vector es2m by the statistical code gain g2n to generate an excitation vector esg2mn, and generates the synthesis filter 1
17. The synthesis filter 117 generates the excitation vector esg2m according to the quantized synthesis filter coefficient aq (i).
Then, a synthesized speech vector t2mn is obtained from the n
To supply.

【0028】加算器118は目標信号v1から合成音声
ベクトルt2mnを減じて差分信号Emnを求め、スイ
ッチ119を介して重み付き誤差計算回路120に供給
する。重み付き誤差計算回路120は差分信号Emnを
用いて重み付き誤差が最小となるm、nの組み合わせを
探索する。これによって求められたm、nに対応する最
適組み合わせインデックスJ2、L2は多重化回路11
2及び各コードブック114、115に供給される。
The adder 118 subtracts the synthesized speech vector t2mn from the target signal v1 to obtain a difference signal Emn, and supplies the difference signal Emn to the weighted error calculation circuit 120 via the switch 119. The weighted error calculation circuit 120 uses the difference signal Emn to search for a combination of m and n that minimizes the weighted error. The optimum combination indices J2 and L2 corresponding to m and n obtained in this way are used as multiplexing circuits 11
2 and the respective codebooks 114 and 115.

【0029】次に、2段目の符号化系x2は、スイッチ
119の選択端子を、次段の符号化系x3の加算器に接
続された被選択端子に接続させる。これにより、加算器
118の出力が次段の符号化系x3に供給され得る状態
となる。
Next, the second-stage encoding system x2 connects the selection terminal of the switch 119 to the selected terminal connected to the adder of the next-stage encoding system x3. Thus, the output of the adder 118 can be supplied to the encoding system x3 in the next stage.

【0030】そして、各コードブック114、115は
最適組み合わせインデックスJ2、L2に従って各々ベ
クトルes2m及びゲインg2nを出力し、これらによ
り生成された最適励振ベクトルe2を用いて、合成フィ
ルタ117により合成音声を生成し、目標信号v1より
減じて目標信号v2を作成し、スイッチ119を介して
次段の符号化系x3に供給する。
Each of the codebooks 114 and 115 outputs a vector es2m and a gain g2n according to the optimum combination index J2 and L2, and generates a synthesized speech by the synthesis filter 117 using the optimum excitation vector e2 generated thereby. Then, a target signal v2 is created by subtracting the target signal v1 from the target signal v1 and supplied to the next-stage encoding system x3 via the switch 119.

【0031】同様にして続く各段の符号化系x3〜xn
−1による符号化を実行し、最終段の符号化系xnには
目標信号vN−1が供給される。
Similarly, the encoding systems x3 to xn of the subsequent stages
-1 is performed, and the target signal vN-1 is supplied to the last-stage coding system xn.

【0032】符号化系xnは、合成音声を計算する前に
毎回、合成フィルタ124の内部状態をクリアしてお
く。
The encoding system xn clears the internal state of the synthesis filter 124 every time before calculating the synthesized speech.

【0033】統計コードブック121は供給されている
係数JNに応じた統計コードベクトルesNp(p=1
〜NN)を出力する。ゲインコードブック122は供給
されている係数LNに応じた統計コードゲインgNq
(q=1〜BN)を出力する。乗算器123は、統計コ
ードベクトルesNpと統計コードゲインgNqを乗じ
て励振ベクトルesgNpqを生成し、合成フィルタ1
24に供給する。合成フィルタ124は、励振ベクトル
esgNpqより合成音声ベクトルtNpqを計算す
る。
The statistical code book 121 stores a statistical code vector esNp (p = 1) corresponding to the supplied coefficient JN.
To NN). The gain codebook 122 stores a statistical code gain gNq corresponding to the supplied coefficient LN.
(Q = 1 to BN) is output. The multiplier 123 generates the excitation vector esgNpq by multiplying the statistical code vector esNp and the statistical code gain gNq, and generates the synthesis filter 1
24. The synthesis filter 124 calculates a synthesized speech vector tNpq from the excitation vector esgNpq.

【0034】加算器125は前段から供給された目標信
号vN−1から合成音声ベクトルtNpqを減じて差分
信号Epqを求め、重み付き誤差計算回路126に供給
する。重み付き誤差計算回路126は重み付き誤差が最
小となるp、qの組み合わせを探索する。これによって
求められたp、qに対応する最適組み合わせインデック
スJN、LNは多重化回路112及び各コードブック1
21、122に供給される。
The adder 125 subtracts the synthesized speech vector tNpq from the target signal vN-1 supplied from the preceding stage to obtain a difference signal Epq, and supplies the difference signal Epq to the weighted error calculation circuit 126. The weighted error calculation circuit 126 searches for a combination of p and q that minimizes the weighted error. The optimum combination indexes JN and LN corresponding to p and q thus obtained are stored in the multiplexing circuit 112 and each codebook 1.
21, 122.

【0035】多重化回路112は声道係数量子化器10
2からの量子化インデックスwと、各重み付き誤差計算
回路111、120、・・・、126からのインデック
スI、J、K、L、J2、L2、・・・、JN、KNを
多重化し、トータルコードCとして伝送路に送出する。
The multiplexing circuit 112 includes the vocal tract coefficient quantizer 10
, And JN, KN are multiplexed with the quantization indices w from 2 and the indexes I, J, K, L, J2, L2,..., JN from the weighted error calculation circuits 111, 120,. It is transmitted to the transmission line as a total code C.

【0036】図2は、本発明の一実施形態に係る復号化
装置の構成を示すブロック図である。
FIG. 2 is a block diagram showing a configuration of a decoding apparatus according to one embodiment of the present invention.

【0037】この復号化装置は、同図中に示すように、
伝送路を介して供給されたトータルコードCから各々の
係数(w、I、J、K、L、J2、L2、・・・、J
N、LN)に分離する多重分離回路201と、量子化イ
ンデックスwに応じて量子化合成フィルタ係数aq
(i)を求める声道係数量子化器202と、各々多重分
離回路(多重分離手段)201からのインデックス
(I、J、K、L、J2、L2、・・・、JN、LN)
に基づいて最適励振ベクトルを再生する復号化系y1、
y2、・・・、ynとを備えている。
This decoding device, as shown in FIG.
Each coefficient (w, I, J, K, L, J2, L2,..., J) is calculated from the total code C supplied via the transmission line.
N, LN), and a quantized synthesis filter coefficient aq according to the quantization index w.
The vocal tract coefficient quantizer 202 for obtaining (i) and the indexes (I, J, K, L, J2, L2,..., JN, LN) from the demultiplexing circuits (demultiplexing means) 201, respectively.
A decoding system y1 for reproducing an optimal excitation vector based on
, yn.

【0038】1段目の復号化系(第1の復号化系)y1
は、供給されるインデックスIに応じた適応コードベク
トルを出力する適応コードブック209と、供給される
インデックスK、Lに応じた適応コードゲイン、統計コ
ードゲインを出力するゲインコードブック210と、供
給されるインデックスJに応じた統計コードベクトルを
出力する統計コードブック211と、量子化合成フィル
タ係数aq(i)に基づいて、加算器206の出力(励
振ベクトル)から合成音声ベクトルを求める合成フィル
タ205と、この合成フィルタの出力が供給される加算
器203と、この加算器203に対する2段目の復号化
系y2の出力の供給を制御するためのスイッチ204と
を備えている。
First stage decoding system (first decoding system) y1
Is supplied with an adaptive codebook 209 that outputs an adaptive code vector corresponding to the supplied index I, an adaptive code gain 210 that outputs an adaptive code gain and a statistical code gain corresponding to the supplied indexes K and L, and A statistical code book 211 that outputs a statistical code vector corresponding to the index J, and a synthesis filter 205 that obtains a synthesized speech vector from the output (excitation vector) of the adder 206 based on the quantized synthesis filter coefficient aq (i). , An adder 203 to which the output of the synthesis filter is supplied, and a switch 204 for controlling the supply of the output of the second-stage decoding system y2 to the adder 203.

【0039】2段目以降の復号化系(第2の復号化系)
y2、y3、・・・、ynは、供給されるインデックス
J2、J3、・・・、JNに応じた適応コードベクトル
を出力する統計コードブック216、・・・、220
と、供給されるインデックスJ2、J3、・・・、JN
に応じた統計コードゲインを出力するゲインコードブッ
ク217、・・・、221と、統計コードベクトルと統
計コードゲインの積を求める乗算器215、・・・、2
19と、量子化合成フィルタ係数aq(i)に基づい
て、乗算器215、・・・、219の出力(励振ベクト
ル)から合成音声ベクトルを求める合成フィルタ21
4、・・・、218と、を備えている。
Second and subsequent decoding systems (second decoding system)
, yn are statistical code books 216,..., 220 that output adaptive code vectors corresponding to the supplied indexes J2, J3,.
And supplied indexes J2, J3,..., JN
, 221 that output statistical code gains according to the above, and multipliers 215,..., 2 that calculate the product of the statistical code vector and the statistical code gain
Based on the quantized synthesis filter coefficient aq (i) and the output (excitation vector) of the multipliers 215,...
, 218.

【0040】また、2段目〜N−1段目の復号化系は、
順次、下位の復号化系とその上位の復号化系の出力を加
算するためのスイッチ213、・・・と、加算器21
2、・・・とを備えている。
The decoding systems of the second to N-1 stages are
Switches 213,... For sequentially adding the outputs of the lower-order decoding system and the higher-order decoding system;
...

【0041】以下、上述のように構成された復号化装置
の動作を説明する。多重分離回路201は伝送路を介し
て供給されたトータルコードCから各々の係数(w、
I、J、K、L、J2、L2、・・・、JN、LN)を
分離し、各々対応する声道係数量子化器202、復号化
系y1〜ynに供給する。
Hereinafter, the operation of the decoding apparatus configured as described above will be described. The demultiplexing circuit 201 calculates each coefficient (w, w, c) from the total code C supplied via the transmission line.
I, J, K, L, J2, L2,..., JN, LN), and supplies them to the corresponding vocal tract coefficient quantizer 202 and decoding systems y1 to yn.

【0042】声道係数逆量子化器202は、量子化イン
デックスwに応じて量子化合成フィルタ係数aq(i)
を求め、各合成フィルタ(205、214、・・・、2
18)に供給する。
The vocal tract coefficient inverse quantizer 202 performs quantization synthesis filter coefficients aq (i) according to the quantization index w.
, And each of the synthesis filters (205, 214,.
18).

【0043】1段目の復号化系y1は、初期状態として
スイッチ204の選択端子を開放側の被接続端子に接続
させておく。これにより、2段目の復号化系y2の出力
は加算器203に供給され得ない状態となる。
In the first stage of the decoding system y1, the selection terminal of the switch 204 is connected to the open-side connected terminal as an initial state. As a result, the output of the second-stage decoding system y2 cannot be supplied to the adder 203.

【0044】適応コードブック209は、多重分離回路
201から供給された適応コードインデックスIに対応
する最適適応コードベクトルeaを出力する。統計コー
ドブック211は統計コードインデックスJに対応する
最適統計コードベクトルesを出力する。ゲインコード
ブック210はゲインコードインデックスK、Lに対応
する最適適応コードゲインb、最適統計コードゲインg
を出力する。
The adaptive code book 209 outputs an optimal adaptive code vector ea corresponding to the adaptive code index I supplied from the demultiplexing circuit 201. The statistical code book 211 outputs the optimal statistical code vector es corresponding to the statistical code index J. The gain codebook 210 has an optimum adaptive code gain b and an optimum statistical code gain g corresponding to the gain code indexes K and L.
Is output.

【0045】加算部206は、乗算器207からの最適
適応コードベクトルeaと最適適応コードゲインbの積
と、乗算器208からの最適統計コードベクトルesと
最適統計コードゲインgの積を加算して最適励振ベクト
ルeを生成し、合成フィルタ205及び適応コードブッ
ク209に供給する。合成フィルタ205は量子化合成
フィルタ係数aq(i)に応じて最適励振ベクトルeか
ら合成音声S0を求める。また、適応コードブック20
9は最適励振ベクトルeに基づいて内部状態を更新す
る。
The adder 206 adds the product of the optimal adaptive code vector ea and the optimal adaptive code gain b from the multiplier 207 and the product of the optimal statistical code vector es and the optimal statistical code gain g from the multiplier 208. An optimal excitation vector e is generated and supplied to the synthesis filter 205 and the adaptive codebook 209. The synthesis filter 205 obtains a synthesized speech S0 from the optimal excitation vector e according to the quantized synthesis filter coefficient aq (i). Also, the adaptive codebook 20
9 updates the internal state based on the optimal excitation vector e.

【0046】続いて、統計コードインデックスJ2、ゲ
インコードインデックスL2が得られていれば、2段目
の復号化系y2は、以下の処理を実行する。
Subsequently, if the statistical code index J2 and the gain code index L2 have been obtained, the second stage decoding system y2 executes the following processing.

【0047】まず、2段目の復号化系y2は、1段目の
復号化系のスイッチ204の選択端子を加算器212に
接続された被選択端子に接続させ、スイッチ213の選
択端子を開放側の被選択端子に接続させておく。
First, the second stage decoding system y2 connects the selection terminal of the switch 204 of the first stage decoding system to the selected terminal connected to the adder 212 and opens the selection terminal of the switch 213. Connected to the selected terminal on the side.

【0048】統計コードブック216は統計コードイン
デックスJ2に対応する最適統計コードベクトルes2
を出力する。ゲインコードブック217はゲインコード
インデックスL2に対応する最適統計コードゲインg2
を出力する。乗算器215は最適統計コードベクトルe
s2と最適統計コードゲインg2を乗じて最適励振ベク
トルe2を生成し、合成フィルタ214に供給する。合
成フィルタ214は内部状態をクリアした後、量子化合
成フィルタ係数aq(i)に基づいて最適励振ベクトル
e2から合成音声v2を求める。
The statistical code book 216 stores the optimal statistical code vector es2 corresponding to the statistical code index J2.
Is output. The gain codebook 217 stores the optimum statistical code gain g2 corresponding to the gain code index L2.
Is output. The multiplier 215 calculates the optimal statistical code vector e.
The optimum excitation vector e2 is generated by multiplying s2 by the optimum statistical code gain g2, and supplied to the synthesis filter 214. After clearing the internal state, the synthesis filter 214 obtains a synthesized speech v2 from the optimal excitation vector e2 based on the quantized synthesis filter coefficient aq (i).

【0049】以下、符号(インデックスI、J、K、
L、J2、L2、・・・、JN、LN)が得られている
段の復号化系まで、上述と同様に合成音声を求める。最
後に、符号が得られた段の前の段までのスイッチ20
3、212、・・・の選択端子を各々次段に接続された
被選択端子に接続させると、各段の出力が順次加算さ
れ、加算器203の出力が各段の合成音声の総和とな
り、これが最終的な合成音声信号Sとして出力される。
The codes (indexes I, J, K,
L, J2, L2,..., JN, LN) are obtained in the same manner as described above up to the decoding system at the stage where the decoded speech is obtained. Finally, the switch 20 up to the stage before the stage from which the sign was obtained
When the selection terminals of 3, 212,... Are connected to the selected terminals connected to the next stages, the outputs of the respective stages are sequentially added, and the output of the adder 203 becomes the sum of the synthesized voices of the respective stages. This is output as the final synthesized speech signal S.

【0050】あるいは、1段目のインデックスが得られ
ていない場合には、2段目以降のインデックスが得られ
ている段の復号化系が、上述と同様に復号化を行って合
成音声を出力するようにしてもよい。
Alternatively, if the first-stage index is not obtained, the decoding system of the second-stage or later-stage index performs decoding in the same manner as described above and outputs synthesized speech. You may make it.

【0051】以上説明したように、この符号化装置で
は、各段の出力をそれぞれ符号化して送出しているた
め、復号化装置において全ての符号化データが再生でき
なくても、再生された符号化データを用いて音声信号を
再生することができる。例えば音声信号を入力音声Sと
して実験した結果、1段目のインデックスI、J、K、
Lを再生しなかった場合でも聞き取り可能な音声信号を
再生することができた。
As described above, in this encoding device, the output of each stage is encoded and transmitted, and therefore, even if all the encoded data cannot be reproduced by the decoding device, the reproduced code is reproduced. The audio signal can be reproduced using the encoded data. For example, as a result of an experiment using a voice signal as an input voice S, the first-stage indexes I, J, K,
Even when L was not reproduced, an audible audio signal could be reproduced.

【0052】[0052]

【発明の効果】本発明に係る符号化装置では、線形予測
結果を量子化した量子化予測結果と、第1及び第2の符
号化系によって求められた最適符号の第1から第5のパ
ラメータを各々合成してトータル符号として符号化を行
っているため、全てのパラメータが得られなくても音声
信号を再生することができる符号を作成することができ
る。
In the coding apparatus according to the present invention, the quantized prediction result obtained by quantizing the linear prediction result, and the first to fifth parameters of the optimum code obtained by the first and second coding systems. Are synthesized and encoded as a total code, so that it is possible to create a code that can reproduce an audio signal even if all parameters are not obtained.

【0053】また、本発明に係る復号化装置では、全て
のパラメータが得られなくても、得られたパラメータに
より、第1及び第2の復号化系によって求められた各予
測音声を合成して音声信号を再生することができる。
Further, in the decoding device according to the present invention, even if all the parameters are not obtained, the prediction speech obtained by the first and second decoding systems is synthesized by the obtained parameters. An audio signal can be reproduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施形態に係る符号化装置の構成
を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an encoding device according to an embodiment of the present invention.

【図2】 本発明の一実施形態に係る復号化装置の構成
を示すブロック図である。
FIG. 2 is a block diagram illustrating a configuration of a decoding device according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

x1、x2、・・・、xn 符号化系、y1、y2、・
・・、yn 復号化系、101 声道分析器、102、
202 声道係数量子化器、109、117、124、
205、214、218 合成フィルタ、112 多重
化回路、201多重分離回路
x1, x2,..., xn coding system, y1, y2,.
.., yn decoding system, 101 vocal tract analyzer, 102,
202 vocal tract coefficient quantizer, 109, 117, 124,
205, 214, 218 synthesis filter, 112 multiplexing circuit, 201 demultiplexing circuit

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 入力信号に基づく予測を行う線形予測分
析器と、 該線形予測分析器の予測結果を量子化する線形予測係数
量子化器と、 第1のパラメータに対応する適応励振符号が格納された
適応励振符号帳と、第2のパラメータに対応する統計励
振符号が格納された統計励振符号帳と、第3のパラメー
タに対応する適応利得符号及び統計利得符号が格納され
た利得符号帳と、適応励振符号、統計励振符号、各利得
符号を合成して合成信号を出力する合成手段と、前記線
形予測係数量子化器によって量子化された予測結果に応
じて前記合成信号から予測音声を求める合成フィルタ
と、前記入力信号と前記予測音声を比較する比較手段
と、前記第1から第3のパラメータを可変し、前記比較
手段の比較結果に応じて、入力信号を最も良く近似する
予測音声を生成するパラメータの組み合わせを探索し、
各々最適符号の第1のパラメータ、第2のパラメータ及
び第3のパラメータとする最適化手段と、前記最適符号
の第1から第3のパラメータを用いたときの前記入力信
号と前記予測音声の差を目標信号として出力する目標信
号設定手段とを有する第1の符号化系と、 第4のパラメータに対応する統計励振符号が格納された
統計励振符号帳と、第5のパラメータに対応する統計利
得符号が格納された利得符号帳と、前記統計励振符号、
統計符号を合成して合成信号を出力する合成手段と、前
記線形予測係数量子化器によって量子化された予測結果
に応じて前記合成信号から予測音声を求める合成フィル
タと、前段の符号化系から供給される目標信号と前記予
測音声を比較する比較手段と、前記第1から第3のパラ
メータを可変し、前記比較手段の比較結果に応じて、入
力信号を最も良く近似する予測音声を生成するパラメー
タの組み合わせを探索し、各々最適符号の第4のパラメ
ータ、第5のパラメータとする最適化手段と、前記最適
符号の第4及び第5のパラメータを用いたときの前記前
段の符号化系からの目標信号と前記予測音声の差を次段
の符号化系の目標信号として出力する目標信号設定手段
とを有する1つ又は複数の第2の符号化系と、 前記線形予測係数量子化器によって量子化された予測結
果と、前記各最適符号の第1から第5のパラメータとを
多重化してトータル符号として出力する多重化手段とを
備えることを特徴とする符号化装置。
A linear prediction analyzer for performing prediction based on an input signal, a linear prediction coefficient quantizer for quantizing a prediction result of the linear prediction analyzer, and an adaptive excitation code corresponding to a first parameter are stored. The adaptive excitation codebook, the statistical excitation codebook storing the statistical excitation code corresponding to the second parameter, the adaptive gain code corresponding to the third parameter, and the gain codebook storing the statistical gain code. Synthesizing means for synthesizing an adaptive excitation code, a statistical excitation code, and each gain code to output a synthesized signal; and obtaining a predicted speech from the synthesized signal according to a prediction result quantized by the linear prediction coefficient quantizer. A synthesis filter, a comparing unit for comparing the input signal with the predicted voice, and varying the first to third parameters to best approximate the input signal according to a comparison result of the comparing unit. Explore the combination of parameters for generating the measurement audio,
Optimizing means for setting a first parameter, a second parameter, and a third parameter of an optimum code, respectively, and a difference between the input signal and the predicted speech when the first to third parameters of the optimum code are used. A first encoding system having target signal setting means for outputting as a target signal, a statistical excitation codebook storing a statistical excitation code corresponding to a fourth parameter, and a statistical gain corresponding to a fifth parameter A gain codebook in which a code is stored, and the statistical excitation code,
Synthesizing means for synthesizing the statistical code and outputting a synthesized signal; a synthesis filter for obtaining a predicted speech from the synthesized signal in accordance with a prediction result quantized by the linear prediction coefficient quantizer; Comparing means for comparing the supplied target signal with the predicted sound; varying the first to third parameters; and generating a predicted sound that best approximates the input signal according to the comparison result of the comparing means. Optimizing means for searching for a combination of parameters and setting them as a fourth parameter and a fifth parameter, respectively, of the optimal code, and the preceding encoding system using the fourth and fifth parameters of the optimal code. One or a plurality of second encoding systems having target signal setting means for outputting a difference between the target signal and the predicted speech as a target signal of a next-stage encoding system, and the linear prediction coefficient quantizer. And a multiplexing unit that multiplexes the prediction result quantized by the first and fifth parameters of each of the optimum codes and outputs the result as a total code.
【請求項2】 入力信号に基づく予測を行い、予測結果
を量子化し、第1のパラメータに対応する適応励振符号
と、第2のパラメータに対応する統計励振符号と、第3
のパラメータに対応する適応利得符号及び統計利得符号
とを合成して合成信号を形成し、前記量子化された予測
結果(量子化予測結果)に応じて前記合成信号から予測
音声を求め、前記入力信号と前記予測信号との比較結果
に応じて、前記第1から第3のパラメータを可変し、入
力信号を最も良く近似する予測音声を生成するパラメー
タの組み合わせを探索し、各々最適符号の第1のパラメ
ータ、第2のパラメータ及び第3のパラメータとし、前
記最適符号の第1から第3のパラメータを用いたときの
前記入力信号と前記予測音声の差を目標信号として出力
し、1つ又は複数の第2の符号化系により、第4のパラ
メータに対応する統計励振符号と、第5のパラメータに
対応する統計利得符号とを合成して合成信号を出力し、
前記量子化予測結果に応じて前記合成信号から予測音声
を求め、前段の符号化系から供給される目標信号と前記
予測音声との比較結果に応じて、前記第1から第3のパ
ラメータを可変し、入力信号を最も良く近似する予測音
声を生成するパラメータの組み合わせを探索し、各々最
適符号の第4のパラメータ、第5のパラメータとし、前
記最適符号の第4及び第5のパラメータを用いたときの
前記前段の符号化系からの目標信号と前記予測音声の差
を次段の符号化系の目標信号として出力し、前記量子化
予測結果と、前記各最適符号の第1から第5のパラメー
タとを多重化して符号化されたトータル符号から前記量
子化予測結果と、前記第1から第5のパラメータを分離
する多重分離手段と、 前記第1のパラメータに対応する適応励振符号と、前記
第2のパラメータに対応する統計励振符号と、前記第3
のパラメータに対応する適応利得符号及び統計利得符号
とを合成して合成信号を形成し、前記量子化予測結果に
応じて前記合成信号から予測音声を求める第1の復号化
系と、 前記前記第4パラメータに対応する統計励振符号と、前
記第5のパラメータに対応する統計利得符号とを合成し
て合成信号を形成し、前記量子化予測結果に応じて前記
合成信号から予測音声を求める1つ又は複数の第2の復
号化系と、 前記第1及び第2の復号化系によって求められた各予測
音声を合成する合成手段とを備えることを特徴とする復
号化装置。
2. A prediction based on an input signal is performed, a prediction result is quantized, an adaptive excitation code corresponding to a first parameter, a statistical excitation code corresponding to a second parameter, and a third excitation code.
The adaptive gain code and the statistical gain code corresponding to the parameters are combined to form a combined signal, and a predicted speech is obtained from the combined signal according to the quantized prediction result (quantized prediction result). The first to third parameters are varied according to the comparison result between the signal and the predicted signal, and a combination of parameters for generating a predicted speech that best approximates the input signal is searched. , A second parameter and a third parameter, and a difference between the input signal and the predicted speech when the first to third parameters of the optimal code are used is output as a target signal. The second coding system combines the statistical excitation code corresponding to the fourth parameter and the statistical gain code corresponding to the fifth parameter to output a synthesized signal,
A predicted speech is obtained from the synthesized signal in accordance with the quantization prediction result, and the first to third parameters are varied in accordance with a comparison result between a target signal supplied from a preceding coding system and the predicted speech. Then, a combination of parameters for generating a predicted speech that best approximates the input signal is searched for, and the fourth parameter and the fifth parameter of the optimal code are used, and the fourth and fifth parameters of the optimal code are used. The difference between the target signal from the preceding coding system and the predicted speech at that time is output as a target signal of the next coding system, and the quantization prediction result and the first to fifth codes of the respective optimal codes are output. A demultiplexing unit that separates the quantization prediction result and the first to fifth parameters from a total code multiplexed and encoded with the parameter, an adaptive excitation code corresponding to the first parameter, A statistical excitation code corresponding to the second parameter;
A first decoding system that combines an adaptive gain code and a statistical gain code corresponding to the parameters to form a synthesized signal, and obtains a predicted speech from the synthesized signal in accordance with the quantization prediction result; A statistical excitation code corresponding to the four parameters and a statistical gain code corresponding to the fifth parameter are combined to form a synthesized signal, and a predicted speech is obtained from the synthesized signal according to the quantization prediction result. Alternatively, a decoding apparatus comprising: a plurality of second decoding systems; and synthesizing means for synthesizing predicted voices obtained by the first and second decoding systems.
JP10214133A 1998-07-29 1998-07-29 Encoding device and decoding device Pending JP2000047695A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10214133A JP2000047695A (en) 1998-07-29 1998-07-29 Encoding device and decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10214133A JP2000047695A (en) 1998-07-29 1998-07-29 Encoding device and decoding device

Publications (1)

Publication Number Publication Date
JP2000047695A true JP2000047695A (en) 2000-02-18

Family

ID=16650783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10214133A Pending JP2000047695A (en) 1998-07-29 1998-07-29 Encoding device and decoding device

Country Status (1)

Country Link
JP (1) JP2000047695A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004515801A (en) * 2000-10-20 2004-05-27 テレフオンアクチーボラゲツト エル エム エリクソン(パブル) Perceptual improvement of audio signal coding

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004515801A (en) * 2000-10-20 2004-05-27 テレフオンアクチーボラゲツト エル エム エリクソン(パブル) Perceptual improvement of audio signal coding

Similar Documents

Publication Publication Date Title
JP3134817B2 (en) Audio encoding / decoding device
JP2002202799A (en) Voice code conversion apparatus
KR20070038041A (en) Method and apparatus for voice trans-rating in multi-rate voice coders for telecommunications
US5659659A (en) Speech compressor using trellis encoding and linear prediction
JPH02155313A (en) Coding method
US8055499B2 (en) Transmitter and receiver for speech coding and decoding by using additional bit allocation method
JP4761251B2 (en) Long-term prediction encoding method, long-term prediction decoding method, these devices, and program thereof
US5926785A (en) Speech encoding method and apparatus including a codebook storing a plurality of code vectors for encoding a speech signal
US5826221A (en) Vocal tract prediction coefficient coding and decoding circuitry capable of adaptively selecting quantized values and interpolation values
EP0396121B1 (en) A system for coding wide-band audio signals
US6768978B2 (en) Speech coding/decoding method and apparatus
WO2006009075A1 (en) Sound encoder and sound encoding method
WO2002071394A1 (en) Sound encoding apparatus and method, and sound decoding apparatus and method
JPH02231825A (en) Method of encoding voice, method of decoding voice and communication method employing the methods
JP3905706B2 (en) Speech coding apparatus, speech processing apparatus, and speech processing method
JP2658816B2 (en) Speech pitch coding device
US6842732B2 (en) Speech encoding and decoding method and electronic apparatus for synthesizing speech signals using excitation signals
JP2000047695A (en) Encoding device and decoding device
JP3255189B2 (en) Encoding method and decoding method for voice parameter
JP3283152B2 (en) Speech parameter quantization device and vector quantization device
KR100341398B1 (en) Codebook searching method for CELP type vocoder
JP2968109B2 (en) Code-excited linear prediction encoder and decoder
JP4597360B2 (en) Speech decoding apparatus and speech decoding method
JP2002073097A (en) Celp type voice coding device and celp type voice decoding device as well as voice encoding method and voice decoding method
JP2853824B2 (en) Speech parameter information coding method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040427