JP2658794B2 - Audio coding method - Google Patents

Audio coding method

Info

Publication number
JP2658794B2
JP2658794B2 JP5008736A JP873693A JP2658794B2 JP 2658794 B2 JP2658794 B2 JP 2658794B2 JP 5008736 A JP5008736 A JP 5008736A JP 873693 A JP873693 A JP 873693A JP 2658794 B2 JP2658794 B2 JP 2658794B2
Authority
JP
Japan
Prior art keywords
signal
codebook
input
sound source
subframe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP5008736A
Other languages
Japanese (ja)
Other versions
JPH06222796A (en
Inventor
俊樹 宮野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP5008736A priority Critical patent/JP2658794B2/en
Publication of JPH06222796A publication Critical patent/JPH06222796A/en
Application granted granted Critical
Publication of JP2658794B2 publication Critical patent/JP2658794B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、音声信号を低いビット
レート、特に8kb/s以下のビットレートで、比較的
少ない演算量により高品質に符号化するための音声符号
化方式に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech coding system for coding a speech signal at a low bit rate, particularly at a bit rate of 8 kb / s or less, with a relatively small amount of computation and high quality.

【0002】[0002]

【従来の技術】従来、励振音源信号を音源コードブック
により、ベクトル量子化する音声符号化方式として、シ
ュレーダ(M.R.Shroeder)およびアタル
(B.S.Atal)による“コード−エキサイテド・
リニア・プレディクション(シーイーエルピー):ハイ
−クォリティ・スピーチ・アト・ベリ・ロウ・ビット・
レイツ(CODE−EXCITED LINEAR P
REDICTION(CELP):HIGH−QUAL
ITY SPEECH AT VERY LOWBIT
RATES)”、音響、音声および信号処理に関する
国際会議の議事録(Proc.ICASSP)、198
5年、937ないし940ペーシの論文(文献1)に記
載されているCELP方式が知られている。また、適応
コードブックを有するCELP方式として、クレイジン
(W.B.Kleijn)らによる“インプルーブド・
スピーチ・クォリティ・アンド・エフィシェント・ベク
トル・クォンタイゼイション・イン・エスイーエルピー
(IMPROVED SPEECH QUALITYA
ND EFFICIENT VECTOR QUANT
IZATION IN SELP)”、音響、音声およ
び信号処理に関する国際会議の議事録(Proc.IC
ASSP)、1988年、155ないし158ページの
論文(文献2)に記載されているCELP方式が知られ
ている。これらのCELP方式は、サブフレーム長ごと
の入力音声信号と符号化音声信号との聴感重み付け二乗
距離を最小にするように、音源コードブックと適応コー
ドブックとゲインコードブックとを探索する方式である
が、サブフレーム毎に符号化するので、ブロック符号化
のブロック境界の歪みが発生しがちで、十分に良好な音
質が得られない。そこで、ブロック符号化のブロック境
界の歪みを軽減するために、音源コードブックを探索す
る際、現サブフレームの入力音声信号に、次のサブフレ
ームの入力音声信号を、オーバーラップ長と呼ばれる予
め定められた長さだけつなげた信号と、符号化音声信号
の後にオーバーラップ長の長さを持つ符号化音声信号の
影響信号を接続した信号との聴感重み付け二乗距離を最
小にするように、音源コードブックを探索する音声符号
化方式が、ルブラン(LeBlanc)らによる“スト
ラクチュアド・コードブック・デザイン・イン・シーイ
ーエルピー(Structured Codebook
Design in CELP)”、国際モービル衛
星会議(International MobileS
atellite Conference)、1990
年、667ないし672ページの論文(文献3)に提案
されている。
2. Description of the Related Art Conventionally, as a speech coding system for vector-quantizing an excitation sound source signal by a sound source codebook, a "code-excited code" by a shredder (MR Shroeder) and an atal (BS Atal) is used.
Linear Prediction (CLP): High-Quality Speech at Berry Low Bit
RAITS (CODE-EXCITED LINEAR P
REDICTION (CELP): HIGH-QUAL
ITY SPEECH AT VERY LOWBIT
RATES), Proceedings of the International Conference on Sound, Speech and Signal Processing (Proc. ICASP), 198.
The CELP method described in a paper (Reference 1) of 937 to 940 pages for 5 years is known. As a CELP system having an adaptive codebook, "Improved に よ る" by Clayjin (WB Kleijn) et al.
Speech Quality and Efficient Vector Quantization in SELP (IMPROVED SPEECH QUALITYA)
ND EFFICIENT VECTOR QUANT
IZATION IN SELP) ", Proceedings of the International Conference on Sound, Speech and Signal Processing (Proc. IC
(ASSP), 1988, pp. 155-158 (Reference 2). These CELP schemes search the excitation codebook, the adaptive codebook, and the gain codebook so as to minimize the perceptual weighted square distance between the input audio signal and the encoded audio signal for each subframe length. However, since encoding is performed for each sub-frame, distortion at the block boundary of block encoding tends to occur, and sufficient sound quality cannot be obtained. Therefore, in order to reduce the distortion of the block boundary of the block coding, when searching the excitation codebook, the input audio signal of the next subframe is added to the input audio signal of the current subframe by a predetermined length called an overlap length. Sound source code so as to minimize the perceptual weighted square distance between the signal connected by the specified length and the signal connecting the coded voice signal and the influence signal of the coded voice signal having the overlap length. A speech coding method for searching for a book is described in "Structured Codebook Design in CLP (Structured Codebook)" by LeBlanc et al.
Design in CELP) ”, International Mobile Satellite Conference (International MobileS)
attellite Conference), 1990
Year, pp. 667 to 672 (Reference 3).

【0003】[0003]

【発明が解決しようとする課題】しかしながら前述の従
来方式では、ブロック符号化のブロック境界の歪みは多
少軽減されるが、まだ十分とは言えない。
However, in the above-mentioned conventional method, distortion at the block boundary in block coding is reduced to some extent, but it is still not enough.

【0004】本発明の目的は、上述した問題を解決し、
比較的少ない演算量により8kb/s以下のビットレー
トで従来よりも音質の良好な音声符号化方式を提供する
ことにある。
An object of the present invention is to solve the above-mentioned problems,
It is an object of the present invention to provide a speech coding system with a better sound quality than the conventional one at a bit rate of 8 kb / s or less with a relatively small amount of calculation.

【0005】[0005]

【課題を解決するための手段】本発明による音声符号化
方式は、一定間隔ごとにフレームに分割された入力音声
信号のスペクトルパラメータを求める線形予測分析部
と、過去に定められた音源信号を持つ適応コードブック
と、前記入力音声信号の励振音源をベクトル量子化する
ための音源コードブックと、前記適応コードブック並び
に前記音源コードブックのそれぞれのゲインを量子化す
るためのゲインコードブックとを有する音声符号化方式
において、前記フレームをさらに細分割したサブフレー
ム毎に前記適応コードブックと前記音源コードブックと
前記ゲインコードブックとを探索する際に、前記入力音
声信号と前記スペクトルパラメータとを用いて前記サブ
フレームの長さを持つ聴感重み付け音声信号を求め、さ
らに現サブフレームの入力音声信号を初期値として前記
スペクトルパラメータを用いた合成フィルタに与えて得
られる応答信号を予め与えられた長さだけ求め、さらに
前記スペクトルパラメータを用いて重み付けることによ
りオーバーラップ信号を求め、前記聴感重み付け音声信
号の後に前記オーバーラップ信号を接続した信号に応じ
て、前記適応コードブックと前記音源コードブックと前
記ゲインコードブックとを探索することを特徴とする。
A speech coding system according to the present invention has a linear prediction analysis unit for obtaining a spectrum parameter of an input speech signal divided into frames at regular intervals, and a sound source signal determined in the past. An audio having an adaptive codebook, a sound source codebook for vector-quantizing an excitation source of the input audio signal, and a gain codebook for quantizing respective gains of the adaptive codebook and the source codebook. In the encoding method, when searching the adaptive codebook, the excitation codebook, and the gain codebook for each subframe obtained by further subdividing the frame, the input speech signal and the spectrum parameter are used to search for the adaptive codebook, the excitation codebook, and the gain codebook. A perceptual weighted audio signal having the length of the subframe is obtained, and the current subframe A response signal obtained by giving the input filter to the synthesis filter using the spectrum parameter as an initial value is obtained by a predetermined length, and an overlap signal is obtained by weighting using the spectrum parameter. The adaptive codebook, the sound source codebook, and the gain codebook are searched in accordance with a signal obtained by connecting the overlap signal after an auditory sense weighted audio signal.

【0006】[0006]

【作用】本発明による音声符号化方式の作用を説明す
る。
The operation of the speech coding system according to the present invention will be described.

【0007】まず、サブフレームに分割された入力音声
信号xを、現サブフレームの量子化されていないLPC
(線形予測符号化)係数を用いた聴感重み付けフィルタ
Wにより、重み付け、重み付け入力信号xw を作成す
る。
First, the input audio signal x divided into subframes is converted to the unquantized LPC of the current subframe.
(Linear predictive coding) A weighting input signal xw is created by an audibility weighting filter W using coefficients.

【0008】聴感重み付けフィルタWの伝達関数W
(z)は、次式(1)で表されるものとする。
[0008] The transfer function W of the auditory weighting filter W
(Z) is represented by the following equation (1).

【0009】 [0009]

【0010】ここで、αi は、現サブフレームの量子化
されていないLPC係数β,γは、重み付けの係数,p
はLPC次数である。
Here, α i is an unquantized LPC coefficient β, γ of the current subframe, a weighting coefficient, p
Is the LPC order.

【0011】現サブフレームの入力音声信号xw を初期
値として、次のサブフレームの量子化されていないLP
C係数を用いた合成フィルタS’の零入力応答をオーバ
ーラップ長L0 の長さだけ求め、さらに、次のサブフレ
ームの量子化されていないLPC係数を用いた聴感重み
付けフィルタWにより、重み付けることにより、オーバ
ーラップ信号vを作成する。ここで、現サブフレーム
が、フレームの最後のサブフレームの場合、次のサブフ
レームの量子化されていないLPC係数の代わりに、現
サブフレームの量子化されていないLPC係数を用い
る。
[0011] As an initial value input audio signal x w of the current sub-frame, LP unquantized of the next sub-frame
The zero input response of the synthesis filter S ′ using the C coefficient is obtained by the length of the overlap length L 0 , and the weight is further weighted by the perceptual weighting filter W using the unquantized LPC coefficient of the next subframe. Thus, an overlap signal v is created. Here, when the current subframe is the last subframe of the frame, the nonquantized LPC coefficients of the current subframe are used instead of the nonquantized LPC coefficients of the next subframe.

【0012】文献3に記載されているオーバーラップ信
号は、次のサブフレームの入力音声信号である。しかし
ながら、現サブフレームの適応コードベクトル、音源コ
ードベクトル、ゲインコードベクトルが表現しようとす
る信号は、現サブフレームの入力音声信号と、現サブフ
レームの入力音声信号による次のサブフレームへの影響
信号なので、オーバーラップ信号としては、現サブフレ
ームの入力音声信号による次のサブフレームへの影響信
号を採用した方が、サブフレーム毎に符号化することに
より発生する、ブロック符号化のブロック境界の歪みを
より効果的に軽減できる。
The overlap signal described in Reference 3 is an input audio signal of the next subframe. However, the signals to be represented by the adaptive code vector, excitation code vector, and gain code vector of the current subframe are an input audio signal of the current subframe and an influence signal on the next subframe by the input audio signal of the current subframe. Therefore, it is better to adopt the influence signal on the next subframe by the input audio signal of the current subframe as the overlap signal, and the distortion at the block boundary of the block coding caused by encoding for each subframe Can be reduced more effectively.

【0013】重み付け入力信号xw の後にオーバーラッ
プ信号vを接続した信号をxとし、拡張重み付け入力信
号とよぶ。
[0013] The signal connected the overlap signal v after the weighted input signal x w and x, referred to as extended weighted input signal.

【0014】前のサブフレームの信号を初期値として、
現サブフレームの量子化されたLPC係数を用いた合成
フィルタSの零入力応答をサブフレーム長Ls の長さだ
け求め、求められた信号を初期値として、次のサブフレ
ームの量子化されたLPC係数を用いた合成フィルタ
S’の零入力応答をオーバーラップ長L0 の長さだけ求
め、さらに、現サブフレームの量子化されていないLP
C係数を用いた聴感重み付けフィルタWにより、サブフ
レーム長の部分を重み付け、次のサブフレームの量子化
されていないLPC係数を用いた聴感重み付けフィルタ
W’により、オーバーラップ長の部分を重み付けること
により、重み付け影響信号fを求め拡張重み付け入力信
号xから、減算する。拡張重み付け入力信号xから重み
付け影響信号fを減算した信号をyとする。ここで、現
サブフレームが、フレームの最後のサブフレームの場
合、次のサブフレームの量子化されていないLPC係数
の代わりに、現サブフレームの量子化されていないLP
C係数を、また、次のサブフレームの量子化されたLP
C係数の代わりに、現サブフレームの量子化されたLP
C係数を、それぞれ用いる。
Using the signal of the previous subframe as an initial value,
Seeking a zero input response of the synthesis filter S using the quantized LPC coefficients for the current subframe by the length of the subframe length L s, the initial value obtained signals, quantized in the next sub-frame The quiescent response of the synthesis filter S ′ using the LPC coefficient is obtained by the length of the overlap length L 0 , and further, the unquantized LP of the current subframe is obtained.
Weighting the subframe length portion with an auditory weighting filter W using C coefficients, and weighting the overlap length portion with an auditory weighting filter W ′ using unquantized LPC coefficients of the next subframe To obtain the weighted influence signal f and subtract it from the extended weighted input signal x. A signal obtained by subtracting the weighting influence signal f from the extended weighting input signal x is defined as y. Here, if the current subframe is the last subframe of the frame, instead of the nonquantized LPC coefficients of the next subframe, the nonquantized LP of the current subframe is used.
C coefficient, and the quantized LP of the next subframe
Instead of the C coefficient, the quantized LP of the current subframe
A C coefficient is used for each.

【0015】まず、次式(2)の誤差Ea を最小にする
適応コードベクトルを探索する。
Firstly, it searches an adaptive code vector that minimizes the error E a in the following formula (2).

【0016】 [0016]

【0017】ただし、However,

【0018】 [0018]

【0019】とする。## EQU1 ##

【0020】ここで、sad は、遅れdの適応コードベ
クトルの後に、0をL0 個つなげて作成される拡張適応
コードベクトルad の、合成フィルタS,S’と聴感重
み付けフィルタW,W’による聴感重み付け合成信号、
a は拡張適応コードベクトルの聴感重み付け合成信号
の最適ゲインとする。
Here, sa d is a synthesis filter S, S ′ and an auditory weighting filter W, W of an extended adaptive code vector a d created by connecting L 0 0s after the adaptive code vector of the delay d. Perceived weighted synthesized signal,
g a is the optimal gain of the perceptually weighted synthesized signal of the extended adaptive code vector.

【0021】拡張適応コードベクトルad の聴感重み付
け合成信号sad の最適ゲインgaは、次式で与えられ
る。
The optimum gain g a of perceptual weighting synthesis signal sa d expansion adaptive code vector a d is given by the following equation.

【0022】 [0022]

【0023】この式を、式(2)に代入して次式を得
る。
This equation is substituted into equation (2) to obtain the following equation.

【0024】 [0024]

【0025】ただし、However,

【0026】 [0026]

【0027】とする。## EQU1 ##

【0028】次に、選ばれた適応コードベクトルに対し
て、次式(7)の誤差Ee を最小にする音源コードベク
トルを探索する。
Next, for the selected adaptive code vector, a sound source code vector that minimizes the error E e of the following equation (7) is searched.

【0029】 [0029]

【0030】ここで、sei は、インデックスiの音
源コードベクトルの後に0をL0 個つなげて作成された
拡張音源コードベクトルei の、合成フィルタS,S’
と聴感重み付けフィルタW,W’による聴感重み付け合
成信号sei を、既に選ばれた拡張適応コードベクトル
d の聴感重み付け合成信号sad に対して直交化させ
ることにより作成される拡張音源コードベクトルei
直交化聴感重み付け合成信号であり、ge は、拡張音源
コードベクトルei の直交化聴感重み付け合成信号se
i の最適ゲインである。ge は、次式(8)で与えら
れる。
Here, se i is a synthesis filter S, S ′ of an extended excitation code vector e i created by connecting L 0 zeros after the excitation code vector of index i.
A perceptual weighting filter is W, the perceptual weighting synthesis signal se i by W ', already selected extended adaptive code vector a d extended excitation code vector e which is generated by orthogonally with respect to the perceptual weighting synthesis signal sa d of i is an orthogonalized perceptual weighted composite signal, and g e is the orthogonalized perceptual weighted composite signal se of the extended excitation code vector e i.
i 最適 is the optimal gain. g e is given by the following equation (8).

【0031】 [0031]

【0032】この式を、式(7)に代入して次式を得
る。
This equation is substituted into equation (7) to obtain the following equation.

【0033】 [0033]

【0034】ここで、Here,

【0035】 [0035]

【0036】最後に、選択された拡張適応コードベクト
ルad と、選択された拡張音源コードベクトルei に対
して、次式(12)の誤差Eg を最小とするゲインコー
ドベクトルを探索する。
Finally, a gain code vector that minimizes the error E g in the following equation (12) is searched for the selected extended adaptive code vector a d and the selected extended excitation code vector e i .

【0037】 [0037]

【0038】ここで、(G1k ,G2k )は、インデッ
クスkのゲインコードベクトルである。
Here, (G1 k , G2 k ) is a gain code vector of index k.

【0039】(G1k ,G2k )として、ゲインコード
ベクトルそのものではなく、例えば、重み付け入力信号
の量子化されたパワーとLPC係数から推定した残差信
号のパワと、拡張適応コードベクトルのパワーと、拡張
音源コードベクトルのパワーを用いて計算される行列に
より変換したゲインコードベクトルを用いても良い。
As (G1 k , G2 k ), not the gain code vector itself but, for example, the power of the residual signal estimated from the quantized power of the weighted input signal and the LPC coefficient, and the power of the extended adaptive code vector Alternatively, a gain code vector converted by a matrix calculated using the power of the extended sound source code vector may be used.

【0040】[0040]

【実施例】次に、本発明について図面を参照して説明す
る。
Next, the present invention will be described with reference to the drawings.

【0041】図1は本発明の一実施例を示すブロック図
である。
FIG. 1 is a block diagram showing one embodiment of the present invention.

【0042】これ以降の説明では、現サブフレームがフ
レームの最後のサブフレームの場合、次のサブフレーム
の量子化されていないLPC(線形予測符号化)係数と
は、現サブフレームの量子化されていないLPC係数の
ことを、また次のサブフレームの量子化されたLPC係
数とは、現サブフレームの量子化されたLPC係数のこ
とを、意味する。
In the following description, when the current subframe is the last subframe of the frame, the unquantized LPC (linear predictive coding) coefficient of the next subframe is the quantized LPC coefficient of the current subframe. The LPC coefficient that is not present, and the quantized LPC coefficient of the next subframe means the quantized LPC coefficient of the current subframe.

【0043】図1において、入力端子1からフレーム
(例えば、40ms)毎に分割された音声信号を入力
し、線形予測分析回路2とサブフレーム分割回路3とへ
送る。
In FIG. 1, an audio signal divided for each frame (for example, 40 ms) is input from an input terminal 1 and sent to a linear prediction analysis circuit 2 and a subframe division circuit 3.

【0044】線形予測分析回路2では、入力音声信号の
線形予測分析を行い、得られたスペクトルパラメータ
を、重み付けフィルタ4、オーバーラップ信号作成回路
5の合成フィルタ14および重み付けフィルタ15、影
響信号演算回路6、適応コードブック探索回路7、音源
コードブック探索回路8、ゲインコードブック探索回路
9、スペクトルパラメータ量子化器17へ出力する。
The linear prediction analysis circuit 2 performs a linear prediction analysis of the input speech signal, and applies the obtained spectral parameters to the weighting filter 4, the synthesis filter 14 and the weighting filter 15 of the overlap signal generation circuit 5, and the influence signal calculation circuit. 6. Output to the adaptive codebook search circuit 7, sound source codebook search circuit 8, gain codebook search circuit 9, and spectrum parameter quantizer 17.

【0045】スペクトルパラメータ量子化器17では、
線形予測分析回路2から入力されたLPC係数を、量子
化しようとするスペクトルパラメータに変換し(LPC
係数そのものを量子化する場合は、変換しない。)、そ
のスペクトルパラメータを量子化し(例えば、LPC係
数をLSP(線スペクトル対)に変換して、そのLSP
をスペクトル−スカラ量子化するなど)、量子化された
スペクトルパラメータを、LPC係数に変換し、変換さ
れたLPC係数を、影響信号減算回路6、適応コードブ
ック探索回路7、音源コードブック探索回路8、ゲイン
コードブック探索回路9へ送出し、さらに、量子化され
たスペクトルパラメータのインデックスをマルチプレク
サ13へ送出する。
In the spectral parameter quantizer 17,
The LPC coefficient input from the linear prediction analysis circuit 2 is converted into a spectral parameter to be quantized (LPC
No conversion is performed when quantizing the coefficient itself. ) And quantize the spectral parameters (eg, convert LPC coefficients to LSPs (line spectrum pairs)
), And converts the quantized spectral parameters into LPC coefficients, and converts the converted LPC coefficients into an influence signal subtraction circuit 6, an adaptive codebook search circuit 7, a sound source codebook search circuit 8 , And to the gain codebook search circuit 9, and further sends the quantized spectral parameter index to the multiplexer 13.

【0046】サブフレーム分割回路3からサブフレーム
長(例えば8ms)に分割された入力音声信号を受信し
た重み付けフィルタ4では、線形予測分析回路2から入
力された現サブフレームの量子化していないLPC係数
を用いて、式(1)により、サブフレーム長の入力音声
信号を聴感重み付けし、接続回路16へ送出する。
The weighting filter 4 which has received the input audio signal divided into the subframe length (for example, 8 ms) from the subframe division circuit 3, converts the unquantized LPC coefficient of the current subframe inputted from the linear prediction analysis circuit 2. The input audio signal having the sub-frame length is weighted by the perceptual sense according to the equation (1), and is transmitted to the connection circuit 16.

【0047】合成フィルタ14では、サブフレーム分割
回路3から入力した現サブフレームの入力音声信号を初
期値とし、励振音源は0とし、線形予測分析回路2から
入力された次のサブフレームの量子化されていないLP
C係数を用いて、合成信号をオーバーラップ長だけ作成
し、重み付けフィルタ15へ送出する。
In the synthesis filter 14, the input speech signal of the current subframe input from the subframe division circuit 3 is set as an initial value, the excitation source is set to 0, and the quantization of the next subframe input from the linear prediction analysis circuit 2 is performed. LP not done
Using the C coefficient, a combined signal is created with an overlap length and sent to the weighting filter 15.

【0048】重み付けフィルタ15では、合成フィルタ
14からの入力信号を、線形予測分析回路2から入力さ
れた次のサブフレームの量子化されていないLPC係数
を用いて、式(1)により、重み付けして、接続回路1
6へ送出する。このとき、量子化されていないLPC係
数を用いる代わりに、スペクトルパラメータ量子化器1
7から出力される量子化されたLPC係数を用いてもよ
い。
The weighting filter 15 weights the input signal from the synthesis filter 14 using the unquantized LPC coefficients of the next subframe input from the linear prediction analysis circuit 2 according to equation (1). And connection circuit 1
Send to 6. At this time, instead of using unquantized LPC coefficients, the spectral parameter quantizer 1
7 may be used.

【0049】接続回路16では、重み付けフィルタ4か
らの送出信号の後に重み付けフィルタ15の送出信号を
接続し、影響信号減算回路6へ送出する。
In the connection circuit 16, the transmission signal of the weighting filter 15 is connected after the transmission signal from the weighting filter 4, and is transmitted to the influence signal subtraction circuit 6.

【0050】影響信号減算回路6では、スペクトルパラ
メータ量子化器17から入力した現サブフレームと次の
サブフレームの量子化されたLPC係数とを用いて、前
のサブフレームからの影響信号を計算し、線形予測分析
回路2から入力された現サブフレームと次のサブフレー
ムの量子化されてないLPC係数とを用いて、重み付け
ることにより、重み付け影響信号を作成し、接続回路6
から入力した信号から減算し、適応コードブック探索回
路7、音源コードブック探索回路8、ゲインコードブッ
ク探索回路9へ送出する。重み付ける際、量子化されて
いないLPC係数を用いる代わりに、スペクトルパラメ
ータ量子化回路17から送出される量子化したLPC係
数を用いても良い。
The influence signal subtraction circuit 6 calculates the influence signal from the previous subframe using the current subframe input from the spectrum parameter quantizer 17 and the quantized LPC coefficient of the next subframe. , Using the current subframe input from the linear prediction analysis circuit 2 and the non-quantized LPC coefficients of the next subframe to create a weighted influence signal,
, And sends the result to an adaptive codebook search circuit 7, a sound source codebook search circuit 8, and a gain codebook search circuit 9. When weighting, the quantized LPC coefficient sent from the spectrum parameter quantization circuit 17 may be used instead of using the unquantized LPC coefficient.

【0051】適応コードブック探索回路7では、影響信
号減算回路6から入力された信号と、線形予測分析回路
2から入力した現サブフレームと次のサブフレームとの
量子化されていないLPC係数と、スペクトルパラメー
タ量子化器17から入力された現サブフレームと次のサ
ブフレームとの量子化したLPC係数と、適応コードブ
ック10から入力した適応コードベクトルとを用いて、
式(5)に従って誤差Ea を計算し、誤差Ea を最小と
する適応コードベクトルを探索し、選ばれた適応コード
ベクトルを音源コードブック探索回路8とゲインコード
ブック探索回路9へ送出し、さらに選ばれた適応コード
ベクトルの遅れdをマルチプレクサ13へ送出する。
In the adaptive codebook search circuit 7, the signal input from the influence signal subtraction circuit 6, the unquantized LPC coefficients of the current subframe and the next subframe input from the linear prediction analysis circuit 2, and Using the quantized LPC coefficients of the current subframe and the next subframe input from the spectrum parameter quantizer 17 and the adaptive code vector input from the adaptive codebook 10,
The error E a is calculated according to the equation (5), an adaptive code vector that minimizes the error E a is searched, and the selected adaptive code vector is transmitted to the excitation codebook search circuit 8 and the gain codebook search circuit 9. Further, the delay d of the selected adaptive code vector is sent to the multiplexer 13.

【0052】音源コードブック探索回路8では、影響信
号減算回路6から入力された信号と、線形予測分析回路
2から入力した現サブフレームと次のサブフレームとの
量子化されていないLPC係数と、スペクトルパラメー
タ量子化器17から入力された現サブフレームと次のサ
ブフレームとの量子化したLPC係数と、適応コードブ
ック探索回路7から入力した選ばれた適応コードベクト
ルと、音源コードブック11から入力した音源コードベ
クトルとを用いて、式(9)ないし(11)に従って誤
差Ee を計算し、誤差Ee を最小とする音源コードベク
トルを探索し、選ばれた音源コードベクトルをゲインコ
ードブック探索回路9へ送出し、さらに選ばれた音源コ
ードベクトルのインデックスをマルチプレクサ13へ送
出する。ここで、誤差Ee を計算する際、演算量を低減
化するために、拡張音源コードベクトルの重み付け合成
信号sei の自己相関を、トランコソ(M.Tranc
oso)およびアタル(B.Atal)による“エフィ
シェント・サーチ・プロセデュア・フォー・セレクティ
ング・ザ・オプティマム・イノベーション・イン・スト
カスティック・コーダーズ(Efficient Se
arch Procedures for Selec
ting the Optimum Innovati
on in Stochastic Coder
s)”、音響、音声および信号処理に関するアイ・イー
・イー・イー・トランズアクション(IEEE Tra
ns.Acoust.,Speech,Signal
Processing)、vol.38,385ないし
396ページの論文(文献3)に記載されている自己相
関近似法を用いて、次式(13)のようにして求めても
良い。
In the excitation codebook search circuit 8, the signal input from the influence signal subtraction circuit 6, the unquantized LPC coefficients of the current subframe and the next subframe input from the linear prediction analysis circuit 2, and Quantized LPC coefficients of the current subframe and the next subframe input from spectrum parameter quantizer 17, selected adaptive code vector input from adaptive codebook search circuit 7, and input from excitation codebook 11 Using the obtained sound source code vector, an error E e is calculated according to equations (9) to (11), a sound source code vector that minimizes the error E e is searched, and a selected sound source code vector is searched for a gain codebook. The signal is sent to the circuit 9, and the index of the selected sound source code vector is sent to the multiplexer 13. Here, when calculating the error E e, in order to reduce the calculation amount, the autocorrelation of the weighted synthesized signal se i extended excitation code vector, Torankoso (M.Tranc
oso) and Atal (B. Atal), "Efficient Search Procedure for Selecting the Optimum Innovation in Stochastic Coders (Efficient Se)
arch Procedures for Select
ting the Optimum Innovati
on in Stochastic Coder
s) ", IEEE Tra Transactions on Sound, Speech and Signal Processing (IEEE Tra)
ns. Acoustic. , Speech, Signal
Processing), vol. Using the autocorrelation approximation method described in a paper (Reference 3) on pages 38, 385 to 396, the following equation (13) may be used.

【0053】 [0053]

【0054】ただし、hhは、現サブフレームの量子化
されたLPC係数を用いた合成フィルタSと、現サブフ
レームの量子化されていないLPC係数を用いた重み付
けフィルタWとから作られる重み付け合成フィルタWS
のインパルス応答の自己相関関数、eei は、インデッ
クスiの音源コードベクトルの自己相関関数、imは、
インパルス応答長である。
Here, hh is a weighted synthesis filter formed from a synthesis filter S using the quantized LPC coefficients of the current subframe and a weighting filter W using the non-quantized LPC coefficients of the current subframe. WS
Ee i is the autocorrelation function of the excitation code vector at index i, im is
Impulse response length.

【0055】また、拡張音源コードベクトルの重み付け
合成信号sei と任意のベクトルvとの相互相関を求め
る際、演算量を低減化するために次式(14)のように
して求めても良い。
[0055] Further, when obtaining the cross-correlation between the weighted synthesis signal se i and arbitrary vector v of the extended excitation code vector may be calculated as the following equation (14) in order to reduce the calculation amount.

【0056】 [0056]

【0057】ただし、Hは、重み付け合成フィルタWS
のインパルス応答行列であり、HTは、Hの転置行列を
表す。
Where H is a weighting synthesis filter WS
Where H T represents the transposed matrix of H.

【0058】拡張適応コードベクトルの重み付け合成信
号sad と任意のベクトルvとの相互相関を求める際に
も、同様にして、次式(15)のように求めても良い。
[0058] extended adaptive weighted combination of the code vector signal sa d and also when obtaining the cross-correlation with any vector v, similarly, may be calculated by the following equation (15).

【0059】 [0059]

【0060】ゲインコードブック探索回路8では、影響
信号減算回路6から入力された信号と、線形予測分析回
路2から入力した現サブフレームと次のサブフレームと
の量子化されていないLPC係数と、スペクトルパラメ
ータ量子化器17から入力された現サブフレームと次の
サブフレームとの量子化したLPC係数と、適応コード
ブック探索回路7から入力した選ばれた適応コードベク
トルと、音源コードブック探索回路8から入力した選ば
れた音源コードベクトルと、ゲインコードブック12か
ら入力したゲインコードベクトルとを用いて、式(1
2)に従って誤差Eg を最小とするゲインコードベクト
ルを探索し、選ばれたゲインコードベクトルをゲインコ
ードブック探索回路9へ送出し、さらに、選ばれたゲイ
ンコードベクトルのインデックスをマルチプレクサ13
へ送出する。
In the gain codebook search circuit 8, the signal input from the influence signal subtraction circuit 6, the unquantized LPC coefficients of the current subframe and the next subframe input from the linear prediction analysis circuit 2, and Quantized LPC coefficients of the current subframe and the next subframe input from spectrum parameter quantizer 17, selected adaptive code vector input from adaptive codebook search circuit 7, and excitation codebook search circuit 8 Using the selected sound source code vector input from the above and the gain code vector input from the gain codebook 12,
A gain code vector that minimizes the error E g is searched according to 2), the selected gain code vector is sent to the gain code book search circuit 9, and the index of the selected gain code vector is input to the multiplexer 13.
Send to

【0061】本実施例では、適応コードブック探索回路
7、音源コードブック探索回路8、ゲインコードブック
探索回路9における聴感重み付けた、量子化されていな
いLPC係数を用いているが、その代りにスペクトル量
子化器17から送出される量子化したLPC係数を用い
ても良い。
In the present embodiment, the unquantized LPC coefficients weighted by the auditory sense in the adaptive codebook search circuit 7, the sound source codebook search circuit 8, and the gain codebook search circuit 9 are used. The quantized LPC coefficient sent from the quantizer 17 may be used.

【0062】また、本実施例では、適応コードブック探
索回路7、音源コードブック探索回路8、ゲインコード
ブック探索回路9に於いて、オーバーラップ長を同一の
ものとしてあるが、それぞれ、異なるオーバーラップ長
を用いても良い。
In this embodiment, the adaptive codebook search circuit 7, the excitation codebook search circuit 8, and the gain codebook search circuit 9 have the same overlap length. A long may be used.

【0063】[0063]

【発明の効果】以上で述べたように、本発明の方式で
は、適応コードブックと音源コードブックとゲインコー
ドブックとを探索する際に、入力音声信号とその線形予
測分析の結果により定まるスペクトルパラメータとを用
いてサブフレーム長の長さを持つ聴感重み付け信号を求
め、さらに、その聴感重み付け信号とスペクトルパラメ
ータとを用いて予め与えられた長さを持つオーバーラッ
プ信号を求め、聴感重み付け信号の後にオーバーラップ
信号を接続した信号を用いて、適応コードブックと音源
コードブックとゲインコードブックとを探索する。
As described above, according to the method of the present invention, when searching the adaptive codebook, the sound source codebook and the gain codebook, the spectral parameter determined by the input speech signal and the result of the linear prediction analysis thereof. To obtain an auditory weighting signal having the length of the subframe length, and further, using the auditory weighting signal and the spectral parameter, obtain an overlap signal having a predetermined length, and after the auditory weighting signal, The adaptive codebook, the sound source codebook, and the gain codebook are searched for using the signal to which the overlap signal is connected.

【0064】この結果、現サブフレームの適応コードベ
クトル、音源コードベクトル、およびゲインコードベク
トルが表現する音声信号は、現サブフレームの入力音声
信号と、現サブフレームの入力音声信号による次のサブ
フレームへの影響信号とになるので、オーバーラップ信
号として、現サブフレームの入力音声信号による次のサ
ブフレームへの影響信号を用いることにより、次のサブ
フレームの入力音声信号をオーバーラップ信号とする従
来方式(文献3に記載されている方式)に比べて、サブ
フレーム毎に符号化することにより発生するブロック符
号化のブロック境界の歪みをより効果的に軽減できる。
As a result, the speech signal represented by the adaptive code vector, excitation code vector, and gain code vector of the current subframe is composed of the input speech signal of the current subframe and the next subframe based on the input speech signal of the current subframe. In this case, the input signal of the next subframe is used as an overlap signal by using the input signal of the current subframe on the next subframe as the overlap signal. Compared with the scheme (the scheme described in Reference 3), distortion at the block boundary of block coding caused by encoding for each subframe can be reduced more effectively.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例を示すブロック図である。FIG. 1 is a block diagram showing one embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 入力端子 2 線形予測分析回路 3 サブフレーム分割回路 4 重み付けフィルタ 5 オーバーラップ信号作成回路 6 影響信号減算回路 7 適応コードブック探索回路 8 音源コードブック探索回路 9 ゲインコードブック探索回路 10 適応コードブック 11 音源コードブック 12 ゲインコードブック 13 マルチプレクサ 14 合成フィルタ 15 重み付けフィルタ 16 接続回路 17 スペクトルパラメータ量子化器 DESCRIPTION OF SYMBOLS 1 Input terminal 2 Linear prediction analysis circuit 3 Subframe division circuit 4 Weighting filter 5 Overlap signal creation circuit 6 Influence signal subtraction circuit 7 Adaptive codebook search circuit 8 Sound source codebook search circuit 9 Gain codebook search circuit 10 Adaptive codebook 11 Sound source codebook 12 Gain codebook 13 Multiplexer 14 Synthesis filter 15 Weighting filter 16 Connection circuit 17 Spectrum parameter quantizer

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 一定間隔ごとにフレームに分割された入
力音声信号のスペクトルパラメータを求める線形予測分
析部と、前記フレームをさらに細分化したサブフレーム
毎に前記入力音声信号と前記スペクトルパラメータから
聴感重み付け音声信号を求める聴感重み付け部と、前記
聴感重み付け信号を目標信号として、過去に定められた
音源信号を持つ適応コードブックと、前記入力音声信号
の音源信号をベクトル量子化するための音源コードブッ
ク部と、前記適応コードブック並びに前記音源コードブ
ックのそれぞれのゲインを量子化するためのゲインコー
ドブックとを有する音声符号化方式において、前記聴感
重み付け信号を初期値として前記スペクトルパラメータ
を用いてあらかじめ定められた長さだけオーバーラップ
信号を計算するオーバーラップ信号作成部と前記オー
バーラップ信号を前記サブフレーム長の聴感重み付け信
号の後方に接続しサブフレーム長よりも長い目標信号
を計算し前記目標信号に対して前記適応コードブック
と前記音源コードブックと前記ゲインコードブックとを
探索することを特徴とする音声符号化方式。
1. A linear prediction analysis unit for obtaining a spectrum parameter of an input speech signal divided into frames at regular intervals , and a sub-frame obtained by further subdividing the frame.
From the input audio signal and the spectral parameters
An audibility weighting unit for obtaining an audibility weighted audio signal;
An adaptive codebook having a sound source signal determined in the past, a sound source weighting signal as a target signal, a sound source codebook unit for vector-quantizing the sound source signal of the input sound signal, the adaptive codebook and the sound source code. in the speech coding method and a gain codebook for quantizing the respective gains of the book, the audibility
The weighted signal is used as an initial value for the spectral parameter.
Overlap by a predetermined length using
Overlap signal generator for calculating a signal, the O
The burlap signal is converted to the auditory weighting signal of the subframe length.
No. of connected to the rear, longer target signal than the subframe length
And calculating the adaptive codebook, the excitation codebook, and the gain codebook for the target signal .
【請求項2】 前記適応コードブックと前記音源コード
ブックと前記ゲインコードブックとの探索の際にそれぞ
れ前記聴感重み付け音声信号の後に接続する前記オーバ
ーラップ信号の長さが相異なるよう設定した請求項1記
載の音声符号化方式。
2. The search for the adaptive codebook, the sound source codebook, and the gain codebook, wherein lengths of the overlap signals connected after the perceptual weighting audio signal are set to be different from each other. 2. The speech coding method according to 1.
JP5008736A 1993-01-22 1993-01-22 Audio coding method Expired - Fee Related JP2658794B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5008736A JP2658794B2 (en) 1993-01-22 1993-01-22 Audio coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5008736A JP2658794B2 (en) 1993-01-22 1993-01-22 Audio coding method

Publications (2)

Publication Number Publication Date
JPH06222796A JPH06222796A (en) 1994-08-12
JP2658794B2 true JP2658794B2 (en) 1997-09-30

Family

ID=11701242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5008736A Expired - Fee Related JP2658794B2 (en) 1993-01-22 1993-01-22 Audio coding method

Country Status (1)

Country Link
JP (1) JP2658794B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4304360B2 (en) 2002-05-22 2009-07-29 日本電気株式会社 Code conversion method and apparatus between speech coding and decoding methods and storage medium thereof
US6917914B2 (en) * 2003-01-31 2005-07-12 Harris Corporation Voice over bandwidth constrained lines with mixed excitation linear prediction transcoding

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3128226B2 (en) * 1989-12-07 2001-01-29 株式会社東芝 Audio coding method
JP2892462B2 (en) * 1990-08-27 1999-05-17 沖電気工業株式会社 Code-excited linear predictive encoder
FR2668288B1 (en) * 1990-10-19 1993-01-15 Di Francesco Renaud LOW-THROUGHPUT TRANSMISSION METHOD BY CELP CODING OF A SPEECH SIGNAL AND CORRESPONDING SYSTEM.

Also Published As

Publication number Publication date
JPH06222796A (en) 1994-08-12

Similar Documents

Publication Publication Date Title
JP2940005B2 (en) Audio coding device
JP2964879B2 (en) Post filter
JP2776050B2 (en) Audio coding method
JP3180762B2 (en) Audio encoding device and audio decoding device
JP2626223B2 (en) Audio coding device
US5598504A (en) Speech coding system to reduce distortion through signal overlap
JP3089769B2 (en) Audio coding device
JP3266178B2 (en) Audio coding device
JP3582589B2 (en) Speech coding apparatus and speech decoding apparatus
JP2624130B2 (en) Audio coding method
JP3179291B2 (en) Audio coding device
JP2658794B2 (en) Audio coding method
JP3003531B2 (en) Audio coding device
JP3153075B2 (en) Audio coding device
JP3252285B2 (en) Audio band signal encoding method
JP3256215B2 (en) Audio coding device
JP3319396B2 (en) Speech encoder and speech encoder / decoder
JP2956068B2 (en) Audio encoding / decoding system
JP3299099B2 (en) Audio coding device
JP3194930B2 (en) Audio coding device
JP3089967B2 (en) Audio coding device
JPH07168596A (en) Voice recognizing device
JP3192051B2 (en) Audio coding device
JP3102017B2 (en) Audio coding method
JP3024467B2 (en) Audio coding device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19970506

LAPS Cancellation because of no payment of annual fees