JP3360545B2 - Audio coding device - Google Patents

Audio coding device

Info

Publication number
JP3360545B2
JP3360545B2 JP26112196A JP26112196A JP3360545B2 JP 3360545 B2 JP3360545 B2 JP 3360545B2 JP 26112196 A JP26112196 A JP 26112196A JP 26112196 A JP26112196 A JP 26112196A JP 3360545 B2 JP3360545 B2 JP 3360545B2
Authority
JP
Japan
Prior art keywords
sound source
pulse
equation
signal
gain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP26112196A
Other languages
Japanese (ja)
Other versions
JPH1069297A (en
Inventor
小澤一範
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP26112196A priority Critical patent/JP3360545B2/en
Priority to CA002213909A priority patent/CA2213909C/en
Priority to CA002301995A priority patent/CA2301995C/en
Priority to CA002301994A priority patent/CA2301994C/en
Priority to EP01119628A priority patent/EP1162604B1/en
Priority to EP97114753A priority patent/EP0834863B1/en
Priority to DE69727256T priority patent/DE69727256T2/en
Priority to DE69725945T priority patent/DE69725945T2/en
Priority to DE69732384T priority patent/DE69732384D1/en
Priority to EP01119627A priority patent/EP1162603B1/en
Priority to US08/917,713 priority patent/US5963896A/en
Publication of JPH1069297A publication Critical patent/JPH1069297A/en
Application granted granted Critical
Publication of JP3360545B2 publication Critical patent/JP3360545B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音声信号を低いビ
ットレートで高品質に符号化するための音声符号化装置
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech coding apparatus for coding a speech signal at a low bit rate with high quality.

【0002】[0002]

【従来の技術】音声信号を高能率に符号化する方式とし
ては、例えば、M.Schroeder and B.Atal氏による”Code
-excited linear prediciton: High quality speech at
verylow bit rates”(Proc. ICASSP, pp. 937-940,19
85年)と題した論文(文献1)や、Kleijn氏らによる”
Improved speech quality and efficeint vector quant
ization in SELP”(Proc. ICASSP, pp. 155-158,1988
年)と題した論文(文献2)などに記載されているCE
LP(Code Excited Linear Predictive Coding)が知
られている。この従来例では、送信側では、フレーム毎
(例えば20ms)に音声信号から線形予測(LPC)
分析を用いて、音声信号のスペクトル特性を表すスペク
トルパラメータを抽出する。フレームをさらにサブフレ
ーム(例えば5ms)に分割し、サブフレーム毎に過去
の音源信号を基に適応コードブックにおけるパラメータ
(ピッチ周期に対応する遅延パラメータとゲインパラメ
ータ)を抽出し、適応コードブックにより前記サブフレ
ームの音声信号をピッチ予測する。ピッチ予測して求め
た音源信号に対して、予め定められた種類の雑音信号か
らなる音源コードブック(ベクトル量子化コードブッ
ク)から最適な音源コードベクトルを選択し、最適なゲ
インを計算することにより、音源信号を量子化する。音
源コードベクトルの選択の仕方は、選択した雑音信号に
より合成した信号と、前記残差信号との誤差電力を最小
化するように行う。そして、選択されたコードベクトル
の種類を表すインデクスとゲインならびに、前記スペク
トルパラメータと適応コードブックのパラメータをマル
チプレクサ部により組み合わせて伝送する。受信側の説
明は省略する。
2. Description of the Related Art As a method for encoding a speech signal with high efficiency, for example, M. Schroeder and B. Atal's "Code
-excited linear prediciton: High quality speech at
verylow bit rates ”(Proc. ICASSP, pp. 937-940,19
1985), and by Kleijn et al.
Improved speech quality and efficeint vector quant
ization in SELP ”(Proc. ICASSP, pp. 155-158, 1988
CE) described in a paper (Reference 2) titled
LP (Code Excited Linear Predictive Coding) is known. In this conventional example, on the transmission side, linear prediction (LPC) is performed from a speech signal every frame (for example, 20 ms).
The analysis is used to extract spectral parameters that represent the spectral characteristics of the audio signal. The frame is further divided into subframes (for example, 5 ms), and parameters (a delay parameter and a gain parameter corresponding to a pitch period) in the adaptive codebook are extracted for each subframe based on a past sound source signal. Pitch prediction is performed on the audio signal of the subframe. For an excitation signal obtained by pitch prediction, an optimal excitation code vector is selected from an excitation codebook (vector quantization codebook) composed of predetermined types of noise signals, and an optimal gain is calculated. , Quantize the sound source signal. The excitation code vector is selected so as to minimize the error power between the signal synthesized from the selected noise signal and the residual signal. Then, the index and gain indicating the type of the selected code vector, the spectrum parameter and the parameter of the adaptive codebook are combined and transmitted by the multiplexer unit. Description on the receiving side is omitted.

【0003】[0003]

【発明が解決しようとする課題】前記従来法では、音源
コードブックから最適な音源コードベクトルを選択する
のに多大な演算量を要するという問題があった。これ
は、文献1や2の方法では、音源コードベクトルを選択
するのに、各コードベクトルに対して一旦フィルタリン
グもしくは畳み込み演算を行ない、この演算をコードブ
ックに格納されているコードベクトルの個数だけ操り返
すことに起因する。例えば、コードブックのビット数が
Bビットで、次元数がNのときは、フィルタリングある
いは畳み込み演算のときのフィルタあるいはインパルス
応答長をKとすると、演算量は1秒当たり、N×K×2
B×8000/Nだけ必要となる。一例として、B=1
0、N=40、k=10とすると、1秒当たり81,9
20,000回の演算が必要となり、極めて膨大である
という問題点があった。
The conventional method has a problem that a large amount of calculation is required to select an optimal excitation code vector from an excitation codebook. This is because, in the methods of Documents 1 and 2, in order to select a sound source code vector, filtering or convolution operation is once performed on each code vector, and this operation is operated by the number of code vectors stored in the code book. Due to return. For example, when the number of bits in the codebook is B and the number of dimensions is N, the amount of operation is N × K × 2 per second, where K is the filter or impulse response length in the filtering or convolution operation.
Only B × 8000 / N is required. As an example, B = 1
Assuming 0, N = 40 and k = 10, 81,9 per second
20,000 operations are required, which is extremely large.

【0004】音源コードブック探索に必要な演算量を低
減する方法として、種々のものが提案されている。例え
ば、ACELP(Argebraic Code Excited Linear Pred
iction)方式が提案されている。これは、例えば、C.La
flammeらによる“16 kbps wideband speech coding tec
hnique based on algebraic CELP”と題した論文(Pro
c. ICASSP, pp. 13-16,1991)(文献3)等を参照する
ことができる。文献3の方法によれば、音源信号を複数
個のパルスで表し、各パルスの位置を予め定められたビ
ット数で表し伝送する。ここで、各パルスの振幅は+
1.0もしくは−1.0に限定されているため、パルス
探索の演算量を大幅に低減化できる。
[0004] Various methods have been proposed as a method for reducing the amount of calculation required for searching the sound source codebook. For example, ACELP (Argebraic Code Excited Linear Pred
iction) method has been proposed. This is, for example, C.La
“16 kbps wideband speech coding tec” by flamme et al.
hnique based on algebraic CELP ”(Pro
c. ICASSP, pp. 13-16, 1991) (Reference 3). According to the method of Document 3, the sound source signal is represented by a plurality of pulses, and the position of each pulse is represented by a predetermined number of bits and transmitted. Here, the amplitude of each pulse is +
Since it is limited to 1.0 or -1.0, the calculation amount of the pulse search can be greatly reduced.

【0005】文献3の従来法では、演算量を大幅に低減
化することが可能となるが、音質も充分ではないという
問題点があった。この理由としては、各パルスが正負の
極性のみしか有しておらず、絶対値振幅はパルスの位置
によらず常に1.0であるため、振幅を極めて粗く量子
化したことになり、このために音質が劣化していた。
In the conventional method of Reference 3, the amount of calculation can be greatly reduced, but there is a problem that the sound quality is not sufficient. The reason for this is that each pulse has only positive and negative polarities and the absolute value amplitude is always 1.0 irrespective of the pulse position, so that the amplitude is quantized extremely coarsely. The sound quality had deteriorated.

【0006】さらに、前記文献1−3の方法では、音源
コードブックやパルスを探索する際に、音源信号に乗ず
るゲインを一定であると想定して探索を行なっていた。
従って、ビットレートを低減し音源コードブックのサイ
ズが小さい場合やパルスの個数が少ない場合には、性能
が低下していた。
Further, according to the methods of the above-mentioned references 1-3, when searching for a sound source codebook or a pulse, the search is performed on the assumption that the gain multiplied by the sound source signal is constant.
Therefore, when the bit rate is reduced and the size of the sound source codebook is small, or when the number of pulses is small, the performance is reduced.

【0007】本発明の目的は、上述の間題を解決し、ビ
ットレートが低い場合にも、比較的少ない演算量で音質
の劣化の少ない音声符号化方式を提供することにある。
SUMMARY OF THE INVENTION It is an object of the present invention to solve the above-mentioned problems and to provide a speech coding system with a relatively small amount of calculation and little deterioration in sound quality even when the bit rate is low.

【0008】[0008]

【課題を解決するための手段】第1の発明の音声符号化
装置は、入力した音声信号からスペクトルパラメータを
求めて量子化するスペクトルパラメータ計算部と、前記
音声信号の音源信号が個数Mの非零のパルスから構成さ
れ、前記スペクトルパラメータを用いて前記パルスの位
置を探索する際にMよりも小さく2以上の個数ごとにゲ
インを変化させながらパルスの位置を探索し出力する音
源量子化部とを有することを特徴とする。
According to a first aspect of the present invention, there is provided a speech coding apparatus comprising: a spectrum parameter calculating section for obtaining a spectrum parameter from an input speech signal and quantizing the spectrum parameter; consists zero pulse, said excitation quantization section searches and outputs the position of the pulse while changing a gain in every two or more number rather smaller than M when searching the location of the pulse with the spectrum parameters And characterized in that:

【0009】第2の発明の音声符号化装置は、第1の発
明の音源量子化部において、複数個のパルスの振幅もし
くは極性をまとめて量子化するためのコードブックを有
することを特徴とする。
A speech encoding apparatus according to a second aspect of the present invention is characterized in that, in the sound source quantization section according to the first aspect of the present invention, a code book is provided for quantizing the amplitudes or polarities of a plurality of pulses collectively. .

【0010】第3の発明の音声符号化装置は、入力した
音声信号からスペクトルパラメータを求めて量子化する
スペクトルパラメータ計算部と、前記音声信号の音源信
号が個数Mの非零のパルスから構成され、前記スペクト
ルパラメータを用いて前記パルスの位置を探索する際に
Mより小さく2以上の個数M1ごとにゲインを変化させ
ながらパルスの位置を探索し出力する第1の音源量子化
部と、前記スペクトルパラメータを用いて予め定められ
た個数のパルスの位置を探索して出力する第2の音源量
子化部と、前記第1の音源量子化部と前記第2の音源量
子化部の出力を用いて前記音声との歪みを計算し前記歪
みが小さい音源量子化部を選択することを特徴とする。
A speech encoding apparatus according to a third aspect of the present invention comprises a spectrum parameter calculation unit for obtaining and quantizing a spectrum parameter from an input speech signal, and wherein the sound source signal of the speech signal is composed of M non-zero pulses. a first excitation quantization unit that searches and outputs the position of the pulse while changing the gain for each small rather more number M1 than M when searching the location of the pulse using the spectral parameters, the A second sound source quantization unit that searches for and outputs a predetermined number of pulse positions using spectral parameters, and uses outputs of the first sound source quantization unit and the second sound source quantization unit. And calculating a distortion with the voice and selecting a sound source quantization unit having a small distortion.

【0011】第4の発明の音声符号化装置は、第3の発
明の音源量子化部において、複数個のパルスの振幅もし
くは極性をまとめて量子化するためのコードブックを有
することを特徴とする。
A speech encoding apparatus according to a fourth aspect of the present invention is characterized in that, in the sound source quantization section according to the third aspect of the present invention, a code book is provided for quantizing the amplitudes or polarities of a plurality of pulses collectively. .

【0012】第5の発明の音声符号化装置は、第3の発
明もしくは第4の発明において、入力した音声信号から
特徴量を求め、前記特徴量から複数種のモードを判別し
モード情報を出力するモード判別回路と、前記モード情
報に応じて前記第1の音源量子化部を用いるか前記第2
の音源量子化部を用いるかを切替えることを特徴とす
る。
According to a fifth aspect of the present invention, in the speech encoding apparatus according to the third or fourth aspect, a feature amount is obtained from an input speech signal, a plurality of types of modes are determined from the feature amount, and mode information is output. Using the first sound source quantization unit according to the mode information or the second
It is characterized in that whether or not to use the sound source quantization unit is switched.

【0013】[0013]

【0014】[0014]

【発明の実施の形態】図1は本発明による音声符号化装
置の第1の実施の形態を示すブロック図である。図にお
いて、入力端子100から音声信号を入力し、フレーム
分割回路110では音声信号をフレーム(例えば10m
s)毎に分割し、サブフレーム分割回路120では、フ
レームの音声信号をフレームよりも短いサブフレーム
(例えば5ms)に分割する。
FIG. 1 is a block diagram showing a first embodiment of a speech coding apparatus according to the present invention. In the figure, an audio signal is input from an input terminal 100, and a frame dividing circuit 110 converts the audio signal into a frame (eg,
s), and the subframe division circuit 120 divides the audio signal of the frame into subframes (for example, 5 ms) shorter than the frame.

【0015】スペクトルパラメータ計算回路200で
は、少なくとも一つのサブフレームの音声信号に対し
て、サブフレーム長よりも長い窓(例えば24ms)を
かけて音声を切り出してスペクトルパラメータを予め定
められた次数(例えば、P=10次)計算する。ここで
スペクトルパラメータの計算には、周知のLPC分析
や、Burg分析等を用いることができる。ここでは、
Burg分析を用いることとする。Burg分析の詳細
については、中溝著による”信号解析とシステム同定”
と題した単行本(コロナ社1988年刊)の82〜87
頁(文献4)等に記載されているので説明は略する。
The spectrum parameter calculation circuit 200 cuts out the voice signal of at least one sub-frame by applying a window (for example, 24 ms) longer than the sub-frame length, and sets the spectrum parameter to a predetermined order (for example, , P = 10th order). Here, a well-known LPC analysis, Burg analysis, or the like can be used for calculating the spectrum parameters. here,
Burg analysis will be used. For details of Burg analysis, see "Signal Analysis and System Identification" by Nakamizo.
82-87 in a book entitled Corona Publishing Co., 1988
The description is omitted because it is described on page (Literature 4) and the like.

【0016】さらに、スペクトルパラメータ計算部で
は、Burg法により計算された線形予測係数αi(i
=1,…,10)を量子化や補間に適したLSPパラメ
ータに変換する。ここで、線形予測係数からLSPへの
変換は、菅村他による”線スペクトル対(LSP)音声
分析合成方式による音声情報圧縮”と題した論文(電子
通信学会論文誌、J64−A、pp.599−606、
1981年)(文献5)を参照することができる。例え
ば、第2サブフレームでBurg法により求めた線形予
測係数を、LSPパラメータに変換し、第1サブフレー
ムのLSPを直線補間により求めて、第1サブフレーム
のLSPを逆変換して線形予測係数に戻し、第1,2サ
ブフレームの線形予測係数αiι(i=1,…,10,
ι=1,…,2)を聴感重み付け回路230に出力す
る。また、第2サブフレームのLSPをスペクトルパラ
メータ量子化回路210へ出力する。
Further, the spectrum parameter calculation section calculates the linear prediction coefficient αi (i
= 1,..., 10) into LSP parameters suitable for quantization and interpolation. Here, the conversion from the linear prediction coefficient to the LSP is performed by a paper titled “Speech Information Compression by Line Spectrum Pair (LSP) Speech Analysis / Synthesis Method” by Sugamura et al. (Transactions of the Institute of Electronics and Communication Engineers, J64-A, pp. 599) −606,
1981) (Reference 5). For example, the linear prediction coefficient obtained by the Burg method in the second sub-frame is converted into LSP parameters, the LSP of the first sub-frame is obtained by linear interpolation, and the LSP of the first sub-frame is inversely converted to obtain a linear prediction coefficient. , And the linear prediction coefficients αiι (i = 1,..., 10,
ι = 1,..., 2) are output to the audibility weighting circuit 230. Further, it outputs the LSP of the second subframe to spectrum parameter quantization circuit 210.

【0017】スペクトルパラメータ量子化回路210で
は、予め定められたサブフレームのLSPパラメータを
コードブック220を用いて効率的に量子化し、下式の
歪みを最小化する量子化値を出力する。
The spectrum parameter quantization circuit 210 efficiently quantizes LSP parameters of a predetermined subframe using the codebook 220, and outputs a quantization value for minimizing distortion of the following equation.

【数1】 (Equation 1)

【0018】ここで、LSP(i),QLSP
(i)j,W(i)はそれぞれ、量子化前のi次目のL
SP、コードブック220に格納されたj番目のコード
ベクトル、重み係数である。
Here, LSP (i), QLSP
(I) j and W (i) are the i-th L before quantization.
SP, the j-th code vector stored in the code book 220, and a weighting coefficient.

【0019】以下では、量子化法として、ベクトル量子
化を用いるものとし、第2サブフレームのLSPパラメ
ータを量子化するものとする。LSPパラメータのベク
トル量子化の手法は周知の手法を用いることができる。
具体的な方法は例えば、特開平4−171500号公報
(特願平2−297600号)(文献6)や特開平4−
363000号公報(特願平3−261925号)(文
献7)や、特開平5−6199号公報(特願平3−15
5049号)(文献8)や、T.Nomura et al.,による”
LSP Coding Using VQ-SVQWith Interpolation in 4.075
kbps M-LCELPSpeech Coder”と題した論文(Proc. Mob
ile Multimedia Communications, pp.B.2.5,1993)(文
献9)等を参照できるのでここでは説明は略する。
In the following, it is assumed that vector quantization is used as a quantization method, and that the LSP parameter of the second subframe is quantized. A well-known method can be used for the method of vector quantization of LSP parameters.
Specific methods are described in, for example, JP-A-4-171500 (Japanese Patent Application No. 2-297600) (Reference 6) and JP-A-4-171500.
No. 363000 (Japanese Patent Application No. 3-261925) (Patent Document 7) and Japanese Patent Application Laid-Open No. 5-6199 (Japanese Patent Application No. 3-15).
No. 5049) (Reference 8) and T. Nomura et al.,
LSP Coding Using VQ-SVQWith Interpolation in 4.075
kbps M-LCELPSpeech Coder ”(Proc. Mob
ile Multimedia Communications, pp. B.2.5, 1993) (Reference 9) and the like can be referred to, and the description is omitted here.

【0020】また、スペクトルパラメータ量子化回路2
10では、第2サブフレームで量子化したLSPパラメ
ータをもとに、第1サブフレームのLSPパラメータを
復元する。ここでは、現フレームの第2サブフレームの
量子化LSPパラメータと1つ過去のフレームの第2サ
ブフレームの量子化LSPを直線補間して、第1サブフ
レームのLSPを復元する。ここで、量子化前のLSP
と量子化後のLSPとの誤差電力を最小化するコードベ
クトルを1種類選択した後に、直線補間により第1サブ
フレームのLSPを復元できる。
The spectrum parameter quantization circuit 2
At 10, the LSP parameters of the first sub-frame are restored based on the LSP parameters quantized in the second sub-frame. Here, the LSP of the first subframe is restored by linearly interpolating the quantized LSP parameter of the second subframe of the current frame and the quantized LSP of the second subframe of the previous frame. Here, LSP before quantization
After selecting one type of code vector that minimizes the error power between the LSP and the quantized LSP, the LSP of the first subframe can be restored by linear interpolation.

【0021】以上により復元した第1サブフレームのL
SPと第2サブフレームの量子化LSPをサブフレーム
毎に線形予測係数αiι'(i=1,…,10,ι=1,
…,2)に変換し、インパルス応答計算回路310へ出
力する。また、第2サブフレームの量子化LSPのコー
ドベクトルを表すインデクスをマルチプレクサ400に
出力する。
The L of the first subframe restored as described above
The SP and the quantized LSP of the second subframe are assigned to a linear prediction coefficient αiι ′ (i = 1,..., 10, ι = 1,
, 2), and outputs the result to the impulse response calculation circuit 310. Further, an index representing the code vector of the quantized LSP of the second subframe is output to the multiplexer 400.

【0022】聴感重み付け回路230は、スペクトルパ
ラメータ計算回路200から、各サブフレーム毎に量子
化前の線形予測係数αi(i=1,…,P)を入力し、
前記文献1にもとづき、サブフレームの音声信号に対し
て聴感重み付けを行い、聴感重み付け信号を出力する。
The perceptual weighting circuit 230 inputs the linear prediction coefficients αi (i = 1,..., P) before quantization from the spectrum parameter calculation circuit 200 for each subframe,
Based on Document 1, perceptual weighting is performed on the audio signal of the subframe, and a perceptual weighting signal is output.

【0023】応答信号計算回路240は、スペクトルパ
ラメータ計算回路200から、各サブフレーム毎に線形
予測係数αiを入力し、スペクトルパラメータ量子化回
路210から、量子化、補間して復元した線形予測係数
αi'をサブフレーム毎に入力し、保持されているフィル
タメモリの値を用いて、入力信号を零d(n)=0とし
た応答信号を1サブフレーム分計算し、減算器235へ
出力する。ここで、応答信号χz(n)は下式で表され
る。
The response signal calculation circuit 240 receives the linear prediction coefficient αi for each subframe from the spectrum parameter calculation circuit 200, and quantizes, interpolates and restores the linear prediction coefficient αi from the spectrum parameter quantization circuit 210. 'Is input for each sub-frame, a response signal with the input signal set to zero d (n) = 0 is calculated for one sub-frame using the value of the filter memory held, and output to the subtractor 235. Here, the response signal χz (n) is represented by the following equation.

【数2】 但し、n−i≦0のときは(Equation 2) However, when ni ≦ 0,

【数3】 (Equation 3)

【数4】 ここで、Nはサブフレーム長を示す。γは、聴感重み付
け量を制御する重み係数であり、下記の式(6)と同一
の値である。sw(n)、p(n)は、それぞれ、重み
付け信号計算回路の出力信号、後述の式(6)における
右辺第1項のフィルタの分母の項の出力信号をそれぞれ
示す。
(Equation 4) Here, N indicates the subframe length. γ is a weight coefficient for controlling the perceptual weighting amount, and is the same value as the following equation (6). s w (n) and p (n) denote the output signal of the weighting signal calculation circuit and the output signal of the denominator term of the filter on the right-hand side first term in equation (6) described later, respectively.

【0024】減算器235は、下式により、聴感重み付
け信号から応答信号を1サブフレーム分減算し、xw'
(n)を適応コードブック回路300へ出力する。
The subtractor 235 subtracts the response signal by one subframe from the auditory sensation weighting signal by the following equation, and calculates xw '
(N) is output to the adaptive codebook circuit 300.

【数5】 (Equation 5)

【0025】インパルス応答計算回路310は、z変換
が下式で表される聴感重み付けフィルタのインパルス応
答hw(n)を予め定められた点数Lだけ計算し、適応
コードブック回路300、音源量子化回路350へ出力
する。
The impulse response calculation circuit 310 calculates the impulse response h w (n) of the perceptual weighting filter whose z-transform is expressed by the following equation by a predetermined number L, and the adaptive code book circuit 300 and the sound source quantization Output to the circuit 350.

【数6】 (Equation 6)

【0026】適応コードブック回路300では、重み付
け信号計算回路360から過去の音源信号v(n)を、
減算器235から出力信号xw'(n)を、インパルス応
答計算回路310から聴感重み付けインパルス応答hw
(n)を入力する。ピッチに対応する遅延Tを下式の歪
みを最小化するように求め、遅延を表すインデクスをマ
ルチプレクサ400に出力する。
In the adaptive codebook circuit 300, the past sound source signal v (n) from the weighting signal calculation circuit 360 is
The output signal x w ′ (n) from the subtractor 235 is output from the impulse response calculation circuit 310 to the perceptual weighting impulse response h w
Enter (n). The delay T corresponding to the pitch is determined so as to minimize the distortion of the following expression, and an index representing the delay is output to the multiplexer 400.

【数7】 ここで、(Equation 7) here,

【数8】 であり、記号*は畳み込み演算を表す。ゲインβを下式
に従い求める。
(Equation 8) And the symbol * represents a convolution operation. The gain β is obtained according to the following equation.

【数9】 (Equation 9)

【0027】ここで、女性音や、子供の声に対して、遅
延の抽出精度を向上させるために、遅延を整数サンプル
ではなく、小数サンプル値で求めてもよい。具体的な方
法は、例えば、P.Kroonらによる、“Pitch predictors
with high temporal resolution”と題した論文(Proc.
ICASSP,pp.661-664,1990年)(文献10)等を参照する
ことができる。
Here, in order to improve the accuracy of delay extraction for a female sound or a child's voice, the delay may be determined by a decimal sample value instead of an integer sample. A specific method is described in, for example, “Pitch predictors” by P. Kroon et al.
with high temporal resolution ”(Proc.
ICASSP, pp. 661-664, 1990) (Literature 10).

【0028】さらに、適応コードブック回路300では
下式に従いピッチ予測を行ない、予測残差信号z
w(n)を音源量子化回路350へ出力する。
Further, the adaptive codebook circuit 300 performs pitch prediction in accordance with the following equation to obtain a prediction residual signal z.
w (n) is output to the sound source quantization circuit 350.

【数10】 (Equation 10)

【0029】音源量子化回路350では、M個のパルス
をたてる。音源量子化回路350の処理フローを示す流
れ図を図2に示す。ここでは、パルスを2段に分解し、
各段で異なるゲインを乗じながらパルスの位置を探索す
る方法について説明する。なお、段数は任意の値をとる
ことができる。このとき、音源信号c(n)は以下のよ
うに表せる。
The sound source quantization circuit 350 generates M pulses. FIG. 2 is a flowchart showing the processing flow of the sound source quantization circuit 350. Here, the pulse is decomposed into two stages,
A method of searching for a pulse position while multiplying different gains at each stage will be described. The number of stages can take any value. At this time, the sound source signal c (n) can be expressed as follows.

【数11】 ここで、M1,M2,sign(k),mk,G1,G2は、そ
れぞれ、1段目のパルスの個数、2段目のパルスの個
数、K番目のパルスの極性、1段目のパルスのゲイン、
2段目のパルスのゲインをそれぞれ示す。また、M1
2=Mである。
[Equation 11] Here, M 1 , M 2 , sign (k), mk, G 1 , and G 2 are the number of first-stage pulses, the number of second-stage pulses, the polarity of the K-th pulse, and the first-stage pulse, respectively. Eye pulse gain,
Each shows the gain of the second stage pulse. Also, M 1 +
M 2 = M.

【0030】図2において、最初のブロックではz
w(n),hw(n)を入力し、下式に従い、第1の相関
関数d(n),第2の相関関数φを計算する。
In FIG. 2, in the first block, z
w (n) and h w (n) are input, and a first correlation function d (n) and a second correlation function φ are calculated according to the following equations.

【数12】 (Equation 12)

【数13】 (Equation 13)

【0031】次のブロックでは、2種の相関関数を用い
て、個数M1(M1≦M)の非零の振幅のパルス(第1の
パルス)の位置を計算する。これには、文献3と同様
に、各パルス毎に、予め定められた位置の候補につい
て、最適なパルスの位置を探索する。
In the next block, the positions of the number M 1 (M 1 ≦ M) of non-zero amplitude pulses (first pulses) are calculated using two types of correlation functions. For this purpose, as in Reference 3, an optimum pulse position is searched for a predetermined position candidate for each pulse.

【0032】例えば、各パルスの位置の候補の例は、サ
ブフレーム長をN=40,パルスの個数をM1=5とす
ると、下表のように表せる。
For example, when the subframe length is N = 40 and the number of pulses is M 1 = 5, an example of a candidate for the position of each pulse can be expressed as shown in the following table.

【表1】 [Table 1]

【0033】各パルスについて、位置の候補の各々を調
ベ、次式を最大化する位置を最適位置として選択する。
For each pulse, each position candidate is checked, and the position that maximizes the following equation is selected as the optimum position.

【数14】 ここで、[Equation 14] here,

【数15】 (Equation 15)

【数16】 である。M1個のパルスの位置が出力される。(Equation 16) It is. Position of M 1 pulses are outputted.

【0034】次に、計算したM1個のパルス位置を用い
て、振幅は極性として相関関数d(n)を修正する。下
式に示す。
Next, using the calculated M 1 pulse positions, the amplitude corrects the correlation function d (n) as polarity. It is shown in the following equation.

【数17】 [Equation 17]

【数18】 (Equation 18)

【0035】次に、d'(n)とφを用いて、M2個の
パルス(第2のパルス)の位置を計算する。ここで、式
(15)において、d(n)の代わりにd'(n)を使
用し、パルスの個数をM2とすればよい。
Next, the positions of M2 pulses (second pulses) are calculated using d ′ (n) and φ. Here, in equation (15), d ′ (n) may be used instead of d (n), and the number of pulses may be M 2 .

【0036】合計でM個のパルスの極性と位置を求め、
ゲイン量子化回路365に出力する。また、パルスの位
置を予め定められたビット数で量子化し、位置を表すイ
ンデクスをマルチプレクサに出力する。また、パルスの
極性をマルチプレクサ400に出力する。
The polarities and positions of M pulses in total are determined,
Output to the gain quantization circuit 365. Further, the pulse position is quantized by a predetermined number of bits, and an index representing the position is output to the multiplexer. Further, the polarity of the pulse is output to the multiplexer 400.

【0037】ゲイン量子化回路365は、ゲインコード
ブック355からゲインコードベクトルを読みだし、選
択された位置に対して、下式を最小化するゲインコード
ベクトルを選択し、最終的に歪みを最小化する振幅コー
ドベクトルとゲインコードベクトルの組合せを選択す
る。
The gain quantization circuit 365 reads out a gain code vector from the gain code book 355, selects a gain code vector for minimizing the following equation for a selected position, and finally minimizes distortion. The combination of the amplitude code vector and the gain code vector to be selected.

【0038】ここでは、適応コードブックのゲインとパ
ルスで表した音源のゲインG1,G2の3種のゲインを
同時にベクトル量子化する例について示す。
Here, an example in which three kinds of gains of the adaptive codebook gain and the sound source gains G1 and G2 expressed by pulses are simultaneously vector-quantized will be described.

【数19】 ここで、βt'、G1t'、G2t'は、ゲインコードブック3
55に格納された3次元ゲインコードベクトルにおける
k番目の要素である。上式の計算を、ゲインコードベク
トルの各々に対して繰り返し、歪みDtを最小化するゲ
インコードベクトルを選択する。
[Equation 19] Here, β t ′, G 1t ′, and G 2t ′ are gain codebook 3
The k-th element in the three-dimensional gain code vector stored in 55. The above equation is repeated for each of the gain code vectors, and a gain code vector that minimizes the distortion D t is selected.

【0039】選択されたゲインコードベクトルを表すイ
ンデクスをマルチプレクサ400に出力する。
An index representing the selected gain code vector is output to the multiplexer 400.

【0040】重み付け信号計算回路360は、それぞれ
のインデクスを入力し、インデクスからそれに対応する
コードベクトルを読みだし、まず下式にもとづき駆動音
源信号v(n)を求める。
The weighting signal calculation circuit 360 receives the respective indexes, reads out the corresponding code vectors from the indexes, and obtains the driving sound source signal v (n) based on the following equation.

【数20】 v(n)は適応コードブック回路300に出力される。(Equation 20) v (n) is output to the adaptive codebook circuit 300.

【0041】次に、スペクトルパラメータ計算回路20
0の出力パラメータ、スペクトルパラメータ量子化回路
210の出力パラメータを用いて下式により、応答信号
w(n)をサブフレーム毎に計算し、応答信号計算回
路240へ出力する。
Next, the spectrum parameter calculation circuit 20
Using the output parameter of 0 and the output parameter of the spectrum parameter quantization circuit 210, the response signal s w (n) is calculated for each subframe by the following equation, and is output to the response signal calculation circuit 240.

【数21】 以上により、第1の実施の形態の説明を終える。(Equation 21) This concludes the description of the first embodiment.

【0042】第2の実施の形態を示すブロック図を図3
に示す。ここでは、音源量子化回路450の動作が図1
と異なる。音源量子化回路450では、振幅コードブッ
ク451を用いて、パルスの振幅を量子化する。
FIG. 3 is a block diagram showing the second embodiment.
Shown in Here, the operation of the sound source quantization circuit 450 is shown in FIG.
And different. The sound source quantization circuit 450 uses the amplitude codebook 451 to quantize the pulse amplitude.

【0043】M1個のパルスに対して位置が求まった後
で、次式を最大化するように、Q個(Q≧1)の振幅コ
ードベクトル候補を出力する。
After the positions are determined for M 1 pulses, Q (Q ≧ 1) amplitude code vector candidates are output so as to maximize the following equation.

【数22】 ここで、(Equation 22) here,

【数23】 (Equation 23)

【数24】 である。ここで、gkj'は、k番目のパルスのj番目の
振幅コードベクトルである。
(Equation 24) It is. Here, g kj ′ is the j-th amplitude code vector of the k-th pulse.

【0044】選択されたQ個の振幅コードベクトルの各
々に対して、下式により相関関数を修正する。
For each of the selected Q amplitude code vectors, the correlation function is modified by the following equation.

【数25】 (Equation 25)

【0045】次に、Q個のd'(n)の各々に対して、
残りのM2個のパルスについて振幅コードブック451
から振幅コードベクトルを探索する。下式を最大化する
ものを選択する。
Next, for each of the Q d ′ (n),
The amplitude codebook 451 for the remaining M2 pulses
From the search for the amplitude code vector. Select the one that maximizes the following equation.

【数26】 ここで、(Equation 26) here,

【数27】 [Equation 27]

【数28】 [Equation 28]

【0046】以上の処理をQ個のd'(n)だけ繰り返
し、下式による累積値を最大化する組合せを選択する。
The above processing is repeated for Q d '(n), and a combination that maximizes the accumulated value according to the following equation is selected.

【数29】 (Equation 29)

【0047】選択された振幅コードベクトルを表すイン
デクスをマルチプレクサ400に出力する。また、位置
の値、振幅コードベクトルの値をゲイン量子化回路46
0に出力する。
The index representing the selected amplitude code vector is output to the multiplexer 400. Further, the position value and the value of the amplitude code vector are converted to a gain quantization circuit 46.
Output to 0.

【0048】ゲイン量子化回路460では、ゲインコー
ドブック355から、下式を最小化するゲインコードベ
クトルを選択する。
The gain quantization circuit 460 selects a gain code vector that minimizes the following equation from the gain code book 355.

【数30】 なお、本実施例では、振幅コードブックを使用したが、
かわりに、各パルスの極性を示す極性コードブックを使
用して探索してもよい。以上で第2の実施の形態の説明
を終える。
[Equation 30] In this embodiment, the amplitude codebook is used.
Alternatively, the search may be performed using a polarity codebook indicating the polarity of each pulse. This concludes the description of the second embodiment.

【0049】図4は、第3の実施の形態を示すブロック
図である。ここでは、第1の音源量子化回路500は、
パルスを例えば2段に分解し、パルスに乗ずるゲインを
1段目と2段目で変化させながらパルスの位置を探索す
る。ここで、段数は2に限らず、任意の値をとることが
できる。パルスの探索法自体は、図1における音源量子
化回路350と同一の方法を用いる。このときの音源信
号を下式のc1(n)とする。
FIG. 4 is a block diagram showing the third embodiment. Here, the first sound source quantization circuit 500
The pulse is decomposed into, for example, two stages, and the position of the pulse is searched for while changing the gain multiplied by the pulse in the first stage and the second stage. Here, the number of stages is not limited to two and can take any value. The pulse search method itself uses the same method as the sound source quantization circuit 350 in FIG. The sound source signal at this time is represented by c 1 (n) in the following equation.

【数31】 パルスの探索後に、第1の音源による歪みD1を下式か
ら計算する。
(Equation 31) After the search of pulses, it calculates the distortion D 1 of the first sound from the following equation.

【数32】 (Equation 32)

【0050】上式の代わりに以下の式を用いることもで
きる。
The following equation can be used instead of the above equation.

【数33】 ここで、Cj,Ci,Ej,Eiには、パルスの探索が終了
した後の値を使用する。
[Equation 33] Here, the values after the pulse search is completed are used for C j , C i , E j , and E i .

【0051】第2の音源量子化回路510は、パルスを
分解せずに、M個のパルス全体に対して一定のゲインを
用いながらパルスを探索する。ここで、M>[M1
2]である。また、第2の音源信号c2(n)は下式の
ように表せる。
The second sound source quantization circuit 510 searches for pulses without decomposing the pulses while using a constant gain for all M pulses. Here, M> [M 1 +
M 2 ]. Further, the second sound source signal c 2 (n) can be expressed as the following expression.

【数34】 ここで、Gは、M個のパルス全体にかかるゲインであ
る。
(Equation 34) Here, G is a gain applied to the entire M pulses.

【0052】さらに、第2の音源による歪みD2を下式
から計算する。
Further, the distortion D 2 due to the second sound source is calculated from the following equation.

【数35】 (Equation 35)

【0053】もしくは、下式から計算することもでき
る。
Alternatively, it can be calculated from the following equation.

【数36】 ここで、Cι,Eιには、第2の音源量子化回路でのパ
ルスの探索が終了した後の値を使用する。
[Equation 36] Here, the values after the search for the pulse in the second sound source quantization circuit is completed are used for Cι and Eι.

【0054】判別回路520は、第1の音源信号c
1(n)、第2の音源信号c2(n)、それらによる歪み
1,D2を入力し、大小判別を行ない、歪みの小さい方
の音源信号をゲイン量子化回路に出力し、判別符号をゲ
イン量子化回路530及び、マルチプレクサ400に出
力する。また、歪みの小さい方の音源信号のパルスの位
置、極性を表す符号をマルチプレクサ400に出力す
る。
The discriminating circuit 520 outputs the first sound source signal c
1 (n), the second sound source signal c 2 (n), and the distortions D 1 and D 2 due to them are input, the magnitude is discriminated, and the sound source signal with the smaller distortion is output to the gain quantization circuit, and discrimination is performed. The code is output to the gain quantization circuit 530 and the multiplexer 400. Further, a code representing the position and polarity of the pulse of the sound source signal having the smaller distortion is output to the multiplexer 400.

【0055】ゲイン量子化回路530は、判別符号を入
力し、第1の音源信号が使用されるときは、ゲイン量子
化回路365と同一の動作を行なう。一方、第2の音源
信号が使用されるときは、ゲインコードブック540か
ら、2次元ゲインコードベクトルを読みだし、下式を最
小化するコードベクトルを探索する。
Gain quantization circuit 530 receives the discrimination code and performs the same operation as gain quantization circuit 365 when the first excitation signal is used. On the other hand, when the second sound source signal is used, a two-dimensional gain code vector is read from the gain code book 540, and a code vector that minimizes the following equation is searched.

【数37】 選択されたゲインコードベクトルを表すインデクスをマ
ルチプレクサ400に出力する。以上で第3の実施の形
態の説明を終える。
(37) An index representing the selected gain code vector is output to the multiplexer 400. This is the end of the description of the third embodiment.

【0056】図5は、第4の実施の形態を示すブロック
図である。ここでは、第1の音源量子化回路600と第
2の音源量子化回路610の動作が図4と異なる。
FIG. 5 is a block diagram showing a fourth embodiment. Here, the operations of the first sound source quantization circuit 600 and the second sound source quantization circuit 610 are different from those in FIG.

【0057】第1の音源量子化回路600では、振幅コ
ードブック451を用いて、音源量子化回路450と同
様に、パルスの振幅を量子化する。
The first sound source quantization circuit 600 quantizes the pulse amplitude using the amplitude codebook 451, as in the case of the sound source quantization circuit 450.

【0058】M1個のパルスに対して位置が求まった後
で、次式を最大化するように、Q個(Q≧1)の振幅コ
ードベクトル候補を出力する。
After the positions of the M 1 pulses are determined, Q (Q ≧ 1) amplitude code vector candidates are output so as to maximize the following equation.

【数38】 ここで、(38) here,

【数39】 [Equation 39]

【数40】 である。ここで、gkj'は、k番目のパルスのj番目の
振幅コードベクトルである。
(Equation 40) It is. Here, g kj ′ is the j-th amplitude code vector of the k-th pulse.

【0059】選択されたQ個の振幅コードベクトルの各
々に対して、下式により相関関数を修正する。
For each of the selected Q amplitude code vectors, the correlation function is modified by the following equation.

【数41】 [Equation 41]

【0060】次に、Q個のd'(n)の各々に対して、
残りのM2個のパルスについて振幅コードブック451
から振幅コードベクトルを探索する。下式を最大化する
ものを選択する。
Next, for each of the Q d ′ (n),
Amplitude codebook 451 for the rest of the M 2 pulses
From the search for the amplitude code vector. Select the one that maximizes the following equation.

【数42】 ここで、(Equation 42) here,

【数43】 [Equation 43]

【数44】 [Equation 44]

【0061】以上の処理をQ個のd'(n)だけ繰り返
し、下式による累積値を最大化する組合せを選択する。
The above processing is repeated for Q d ′ (n), and a combination that maximizes the accumulated value according to the following equation is selected.

【数45】 [Equation 45]

【0062】さらに、第1の音源信号を下式により求め
る。
Further, the first sound source signal is obtained by the following equation.

【数46】 [Equation 46]

【0063】さらに、第lの音源による歪みD1を下式
から計算し、判別回路520に出力する。
Further, the distortion D 1 due to the first sound source is calculated from the following equation, and is output to the discrimination circuit 520.

【数47】 [Equation 47]

【0064】第2の音源量子化回路610は、下式を最
大化するような振幅コードベクトルを探索する。
The second sound source quantization circuit 610 searches for an amplitude code vector that maximizes the following equation.

【数48】 ここで、[Equation 48] here,

【数49】 [Equation 49]

【数50】 [Equation 50]

【0065】さらに、第2の音源信号を下式により求め
る。
Further, a second sound source signal is obtained by the following equation.

【数51】 (Equation 51)

【0066】さらに、第2の音源による歪みD2を下式
から計算し、判別回路520に出力する。
Further, the distortion D 2 due to the second sound source is calculated from the following equation, and is output to the discriminating circuit 520.

【数52】 (Equation 52)

【0067】もしくは、下式により求めても良い。Alternatively, it may be obtained by the following equation.

【数53】 ここで、Cι,Eιはそれぞれ、第2の音源パルスを求
めた後の相関値である。
(Equation 53) Here, Cι and Eι are correlation values after the second sound source pulse has been obtained.

【0068】判別回路520は、第1の音源信号 c1'
(n)、第2の音源信号c2'(n)、それらによる歪み
1',D2'を入力し、大小判別を行ない、歪みの小さい
方の音源信号をゲイン量子化回路に出力し、判別符号を
ゲイン量子化回路530及び、マルチプレクサ400に
出力する。
The discrimination circuit 520 outputs the first sound source signal c 1
(N), the second sound source signal c 2 ′ (n) and the distortions D 1 ′ and D 2 ′ due to them are input, the magnitude is discriminated, and the sound source signal with the smaller distortion is output to the gain quantization circuit. , And outputs the discrimination code to the gain quantization circuit 530 and the multiplexer 400.

【0069】図6は第5の実施の形態を示すブロック図
である。ここでは、第3の実施の形態をもとにする例に
ついて示すが、第4の実施の形態をもとにすることもで
きる。
FIG. 6 is a block diagram showing a fifth embodiment. Here, an example based on the third embodiment will be described, but it is also possible to use the fourth embodiment.

【0070】モード判別回路900は、聴感重み付け回
路230からフレーム単位で聴感重み付け信号を受取
り、モード判別情報を音源量子化回路600へ出力す
る。ここでは、モード判別に、現在のフレームの特徴量
を用いる。特徴量としては、例えば、フレームで平均し
たピッチ予測ゲインを用いる。ピッチ予測ゲインの計算
は、例えば下式を用いる。
The mode discrimination circuit 900 receives the perceptual weighting signal from the perceptual weighting circuit 230 in frame units, and outputs mode discrimination information to the sound source quantization circuit 600. Here, the feature amount of the current frame is used for mode determination. As the characteristic amount, for example, a pitch prediction gain averaged in a frame is used. For example, the following equation is used to calculate the pitch prediction gain.

【数54】 ここで、Lはフレームに含まれるサブフレームの個数で
ある。Pi、Eiはそれぞれ、i番目のサブフレームでの
音声パワ、ピッチ予測誤差パワを示す。
(Equation 54) Here, L is the number of subframes included in the frame. Pi and Ei respectively represent the voice power and the pitch prediction error power in the i-th subframe.

【数55】 [Equation 55]

【数56】 ここで、Tは予測ゲインを最大化する最適遅延である。[Equation 56] Here, T is an optimal delay for maximizing the prediction gain.

【0071】フレーム平均ピッチ予測ゲインGを予め定
められた複数個のしきい値と比較して複数種類のモード
に分類する。モードの個数としては、例えば4を用いる
ことができる。モード判別回路900は、モード情報を
音源量子化回路700、マルチプレクサ400へ出力す
る。
The frame average pitch prediction gain G is compared with a plurality of predetermined thresholds, and classified into a plurality of types of modes. As the number of modes, for example, 4 can be used. The mode determination circuit 900 outputs the mode information to the sound source quantization circuit 700 and the multiplexer 400.

【0072】音源量子化回路700は、モード情報を受
けとり、予め定められたモードの際に第1の音源量子化
回路500と同一の動作を行ない、第1の音源信号をゲ
イン量子化回路750に出力する。また、パルスの位置
と極性を表す符号をマルチプレクサ400に出力する。
上記以外のモードのときは、第2の音源量子化回路51
0と同一の動作を行ない、第2の音源信号をゲイン量子
化回路750に出力し、パルスの位置と極性を表す符号
をマルチプレクサ400に出力する。
The sound source quantization circuit 700 receives the mode information, performs the same operation as the first sound source quantization circuit 500 in a predetermined mode, and sends the first sound source signal to the gain quantization circuit 750. Output. Further, a code representing the position and polarity of the pulse is output to the multiplexer 400.
In modes other than the above, the second sound source quantization circuit 51
The same operation as that of 0 is performed, the second excitation signal is output to the gain quantization circuit 750, and a code representing the position and polarity of the pulse is output to the multiplexer 400.

【0073】ゲイン量子化回路750は、モード情報を
入力し、予め定められたモードのときは、ゲイン量子化
回路365と同一の動作を行なう。その他のモードのと
きは、ゲイン量子化回路530と同一の動作を行なう。
以上で第5の実施の形態の説明を終える。
Gain quantization circuit 750 receives the mode information and performs the same operation as gain quantization circuit 365 in a predetermined mode. In other modes, the same operation as that of gain quantization circuit 530 is performed.
This concludes the description of the fifth embodiment.

【0074】上述した実施例に限らず、種々の変形が可
能である。複数パルスの振幅を量子化するためのコード
ブックを、音声信号を用いて予め学習して格納しておく
こともできる。コードブックの学習法は、例えば、Lind
e氏らによる“An algorithm for vector quantization
design,”と題した論文(IEEE Trans. Commun., pp.84-
95,January, 1980)(文献11)等を参照することがで
きる。
The present invention is not limited to the above-described embodiment, and various modifications are possible. A code book for quantizing the amplitudes of a plurality of pulses can be learned and stored in advance using an audio signal. Codebook learning methods are, for example, Lind
e et al. “An algorithm for vector quantization
design, ”(IEEE Trans. Commun., pp.84-
95, January, 1980) (Reference 11).

【0075】振幅コードブックの代わりに、パルスの個
数に等しいビット数だけ各パルスの極性の組合せを用意
した極性コードブックを有するようにしてもよい。
Instead of the amplitude codebook, a polarity codebook in which combinations of the polarity of each pulse are prepared by the number of bits equal to the number of pulses may be provided.

【0076】ゲインを変化させながらパルスを求めると
きのパルスの個数は、任意の値をとることができる。
The number of pulses when obtaining pulses while changing the gain can take any value.

【0077】モード情報を用いて適応コードブック回路
や、ゲインコードブックを切替える構成とすることもで
きる。
The adaptive code book circuit and the gain code book can be switched using the mode information.

【0078】パルスの振幅を量子化する際に、L個ずつ
のパルスの各グループについて、振幅コードブック35
1から複数個のコードベクトルを予備選択し、予備選択
されたコードベクトルを用いてパルスの振幅を量子化す
るようにしても良い。この処理により、振幅量子化に要
する演算量を低減化できる。
When quantizing the pulse amplitude, the amplitude code book 35 is used for each group of L pulses.
One or more code vectors may be preliminarily selected, and the pulse amplitude may be quantized using the preselected code vector. This processing can reduce the amount of calculation required for amplitude quantization.

【0079】予備選択の方法の例を次に示す。式(5
9)もしくは、式(60)を最大化する順に、振幅コー
ドベクトルを複数種類予備選択し、音源量子化回路に出
力する。
The following is an example of the preselection method. Equation (5
9) Alternatively, a plurality of types of amplitude code vectors are preliminarily selected in the order of maximizing Expression (60) and output to the excitation quantization circuit.

【数57】 [Equation 57]

【数58】 [Equation 58]

【0080】[0080]

【発明の効果】以上説明したように、本発明によれば、
音源量子化部において、音源がM個の振幅が非零パルス
から構成され、前記パルスの位置を探索する際に、Mよ
りも小さい個数ごとにパルスに乗ぜられるゲインを変化
させながらパルスの位置を探索することで、従来よりも
音源の精度を高めることができ性能を改善することがで
きる。
As described above, according to the present invention,
In the sound source quantization unit, the sound source is composed of M amplitude non-zero pulses, and when searching for the position of the pulse, the position of the pulse is changed while changing the gain multiplied by the pulse for each number smaller than M. By performing the search, the accuracy of the sound source can be increased more than before, and the performance can be improved.

【0081】また、本発明によれば、Mよりも小さい個
数ごとにパルスに乗ぜられるゲインを変化させながらパ
ルスの位置を探索する第1の音源量子化と、ゲインを一
定としてパルスを探索する第2の音源量子化とを有し、
両者の歪みを判別し良好な方を選択することにより、音
声信号の特徴の時間変化に応じて常に良好な音源を用い
ることができるので、従来よりも性能を改善できる。
According to the present invention, the first sound source quantization for searching for the position of the pulse while changing the gain multiplied by the pulse for each number smaller than M, and the second for searching for the pulse with the gain being constant. Source quantization of 2
By discriminating both distortions and selecting the better one, it is possible to always use a good sound source in accordance with the time change of the characteristics of the audio signal, so that the performance can be improved as compared with the related art.

【0082】さらに、本発明によれば、入力音声から特
徴を抽出してモードを判別し、モードに応じて、第1の
音源量子化と第2の音源量子化とを切替えてパルスを求
めることができるため、より少ない演算量で、音声信号
の特徴の時間変化に応じて常に良好な音源を用いること
ができるので、従来よりも性能を改善できる。
Further, according to the present invention, a mode is determined by extracting a feature from an input voice, and a pulse is obtained by switching between the first sound source quantization and the second sound source quantization according to the mode. Therefore, it is possible to always use a good sound source in accordance with the time change of the feature of the audio signal with a smaller amount of calculation, so that the performance can be improved as compared with the related art.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施の形態を示す図である。FIG. 1 is a diagram showing a first embodiment.

【図2】音源量子化回路350の処理フローを示す図で
ある。
FIG. 2 is a diagram showing a processing flow of a sound source quantization circuit 350.

【図3】第2の実施の形態を示す図である。FIG. 3 is a diagram showing a second embodiment.

【図4】第3の実施の形態を示す図である。FIG. 4 is a diagram showing a third embodiment.

【図5】第4の実施の形態を示す図である。FIG. 5 is a diagram showing a fourth embodiment.

【図6】第5の実施の形態を示す図である。FIG. 6 is a diagram showing a fifth embodiment.

【符号の説明】[Explanation of symbols]

110 フレーム分割回路 120 サブフレーム分割回路 200 スペクトルパラメータ計算回路 210 スペクトルパラメータ量子化回路 220 LSPコードブック 230 聴感重み付け回路 235 減算回路 240 応答信号計算回路 310 インパルス応答計算回路 350、450、500、600、700 音源量子化
回路 451 振幅コードブック 355 ゲインコードブック 360 重み付け信号計算回路 365、460、530、750 ゲイン量子化回路 400 マルチプレクサ 520 判別回路 89900 モード判別回路
Reference Signs List 110 frame division circuit 120 subframe division circuit 200 spectrum parameter calculation circuit 210 spectrum parameter quantization circuit 220 LSP codebook 230 auditory sensation weighting circuit 235 subtraction circuit 240 response signal calculation circuit 310 impulse response calculation circuit 350, 450, 500, 600, 700 Sound source quantization circuit 451 Amplitude codebook 355 Gain codebook 360 Weighted signal calculation circuit 365, 460, 530, 750 Gain quantization circuit 400 Multiplexer 520 Discrimination circuit 89900 Mode discrimination circuit

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平2−310600(JP,A) 特開 平5−6200(JP,A) 特開 昭60−97399(JP,A) 特開 平3−53300(JP,A) 特開 平6−202699(JP,A) 特開 平6−222797(JP,A) 特開 平9−146599(JP,A) 特開 平9−281998(JP,A) 国際公開95/30222(WO,A1) (58)調査した分野(Int.Cl.7,DB名) G10L 19/00 - 19/14 H03M 7/30 H04B 14/04 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-2-310600 (JP, A) JP-A-5-6200 (JP, A) JP-A-60-97399 (JP, A) JP-A-3-310 53300 (JP, A) JP-A-6-202699 (JP, A) JP-A-6-222797 (JP, A) JP-A-9-146599 (JP, A) JP-A 9-281998 (JP, A) WO 95/30222 (WO, A1) (58) Fields investigated (Int. Cl. 7 , DB name) G10L 19/00-19/14 H03M 7/30 H04B 14/04

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】入力した音声信号からスペクトルパラメー
タを求めて量子化するスペクトルパラメータ計算部と、
前記音声信号の音源信号が個数Mの非零のパルスから構
成され、前記スペクトルパラメータを用いて前記パルス
の位置を探索する際にMよりも小さく2以上の個数ごと
にゲインを変化させながらパルスの位置を探索し出力す
る音源量子化部とを有する音声符号化装置。
A spectrum parameter calculator for calculating and quantizing a spectrum parameter from an input speech signal;
Sound source signal of the speech signal is composed of non-zero pulse number M, while changing the gain for each small rather more number than M when searching the location of the pulse by using the spectral parameter pulse And a sound source quantization unit for searching for and outputting the position of the sound source.
【請求項2】音源量子化部において、複数個のパルスの
振幅もしくは極性をまとめて量子化するためのコードブ
ックを有することを特徴とする請求項1に記載の音声符
号化装置。
2. The speech encoding apparatus according to claim 1, wherein the excitation quantization unit has a code book for quantizing the amplitudes or polarities of the plurality of pulses collectively.
【請求項3】入力した音声信号からスペクトルパラメー
タを求めて量子化するスペクトルパラメータ計算部と、
前記音声信号の音源信号が個数Mの非零のパルスから構
成され、前記スペクトルパラメータを用いて前記パルス
の位置を探索する際にMより小さく2以上の個数M1ご
とにゲインを変化させながらパルスの位置を探索し出力
する第1の音源量子化部と、前記スペクトルパラメータ
を用いて予め定められた個数のパルスの位置を探索して
出力する第2の音源量子化部と、前記第1の音源量子化
部と前記第2の音源量子化部の出力を用いて前記音声と
の歪みを計算し前記歪みが小さい音源量子化部を選択す
ることを特徴とする音声符号化装置。
3. A spectrum parameter calculator for obtaining and quantizing a spectrum parameter from an input speech signal,
The sound source signal of the audio signal is composed of non-zero pulse number M, while changing the gain for each small rather more number M1 than M when searching the location of the pulse by using the spectral parameter pulse A first sound source quantization unit that searches for and outputs the position of a second sound source, a second sound source quantization unit that searches for and outputs the position of a predetermined number of pulses using the spectrum parameters, A speech encoding apparatus comprising: calculating a distortion from the speech using an output of a sound source quantization unit and the output of the second sound source quantization unit; and selecting a sound source quantization unit having a small distortion.
【請求項4】音源量子化部において、複数個のパルスの
振幅もしくは極性をまとめて量子化するためのコードブ
ックを有することを特徴とする請求項3に記載の音声符
号化装置。
4. The speech coding apparatus according to claim 3, wherein the excitation quantization unit has a code book for quantizing the amplitudes or polarities of the plurality of pulses collectively.
【請求項5】入力した音声信号から特徴量を求め前記特
徴量から複数種のモードを判別しモード情報を出力する
モード判別回路と、前記モード情報に応じて前記第1の
音源量子化部を用いるか前記第2の音源量子化部を用い
るかを切替えることを特徴とする請求項3または4に記
載の音声符号化装置。
5. A mode discriminating circuit for obtaining a feature amount from an input audio signal, discriminating a plurality of modes from the feature amount and outputting mode information, and a first sound source quantization unit according to the mode information. The speech encoding apparatus according to claim 3, wherein switching is made between use and use of the second excitation quantization unit.
JP26112196A 1996-08-26 1996-08-26 Audio coding device Expired - Fee Related JP3360545B2 (en)

Priority Applications (11)

Application Number Priority Date Filing Date Title
JP26112196A JP3360545B2 (en) 1996-08-26 1996-08-26 Audio coding device
CA002301995A CA2301995C (en) 1996-08-26 1997-08-25 High quality speech coder at low bit rates
CA002301994A CA2301994C (en) 1996-08-26 1997-08-25 High quality speech coder at low bit rates
CA002213909A CA2213909C (en) 1996-08-26 1997-08-25 High quality speech coder at low bit rates
EP97114753A EP0834863B1 (en) 1996-08-26 1997-08-26 Speech coder at low bit rates
DE69727256T DE69727256T2 (en) 1996-08-26 1997-08-26 High quality low bit rate speech coder
EP01119628A EP1162604B1 (en) 1996-08-26 1997-08-26 High quality speech coder at low bit rates
DE69725945T DE69725945T2 (en) 1996-08-26 1997-08-26 Low bit rate speech coder
DE69732384T DE69732384D1 (en) 1996-08-26 1997-08-26 High quality low bit rate speech coder
EP01119627A EP1162603B1 (en) 1996-08-26 1997-08-26 High quality speech coder at low bit rates
US08/917,713 US5963896A (en) 1996-08-26 1997-08-26 Speech coder including an excitation quantizer for retrieving positions of amplitude pulses using spectral parameters and different gains for groups of the pulses

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26112196A JP3360545B2 (en) 1996-08-26 1996-08-26 Audio coding device

Publications (2)

Publication Number Publication Date
JPH1069297A JPH1069297A (en) 1998-03-10
JP3360545B2 true JP3360545B2 (en) 2002-12-24

Family

ID=17357399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26112196A Expired - Fee Related JP3360545B2 (en) 1996-08-26 1996-08-26 Audio coding device

Country Status (1)

Country Link
JP (1) JP3360545B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3594854B2 (en) 1999-11-08 2004-12-02 三菱電機株式会社 Audio encoding device and audio decoding device
USRE43209E1 (en) 1999-11-08 2012-02-21 Mitsubishi Denki Kabushiki Kaisha Speech coding apparatus and speech decoding apparatus
JP4660496B2 (en) * 2007-02-23 2011-03-30 三菱電機株式会社 Speech coding apparatus and speech coding method
KR101414341B1 (en) 2007-03-02 2014-07-22 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 Encoding device and encoding method
JP4907677B2 (en) * 2009-01-29 2012-04-04 三菱電機株式会社 Speech coding apparatus and speech coding method

Also Published As

Publication number Publication date
JPH1069297A (en) 1998-03-10

Similar Documents

Publication Publication Date Title
JP3094908B2 (en) Audio coding device
JP3196595B2 (en) Audio coding device
EP1005022B1 (en) Speech encoding method and speech encoding system
JPH09281995A (en) Signal coding device and method
JP3266178B2 (en) Audio coding device
JP3335841B2 (en) Signal encoding device
JP3582589B2 (en) Speech coding apparatus and speech decoding apparatus
JP2624130B2 (en) Audio coding method
JP3360545B2 (en) Audio coding device
JP3003531B2 (en) Audio coding device
JP3153075B2 (en) Audio coding device
JP3144284B2 (en) Audio coding device
JP3299099B2 (en) Audio coding device
JP3319396B2 (en) Speech encoder and speech encoder / decoder
JP3089967B2 (en) Audio coding device
JP3192051B2 (en) Audio coding device
JP3471542B2 (en) Audio coding device
JP3092654B2 (en) Signal encoding device
JPH08320700A (en) Sound coding device
JP2907019B2 (en) Audio coding device
JP3144244B2 (en) Audio coding device
JPH09319399A (en) Voice encoder

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071018

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081018

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091018

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091018

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101018

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111018

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121018

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131018

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees