JP3299099B2 - Audio coding device - Google Patents

Audio coding device

Info

Publication number
JP3299099B2
JP3299099B2 JP33949295A JP33949295A JP3299099B2 JP 3299099 B2 JP3299099 B2 JP 3299099B2 JP 33949295 A JP33949295 A JP 33949295A JP 33949295 A JP33949295 A JP 33949295A JP 3299099 B2 JP3299099 B2 JP 3299099B2
Authority
JP
Japan
Prior art keywords
sound source
signal
codebook
spectrum parameter
circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP33949295A
Other languages
Japanese (ja)
Other versions
JPH09179593A (en
Inventor
一範 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP33949295A priority Critical patent/JP3299099B2/en
Publication of JPH09179593A publication Critical patent/JPH09179593A/en
Application granted granted Critical
Publication of JP3299099B2 publication Critical patent/JP3299099B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a voice encoding device with less amount of search operation and memory size and less degradation of sound quality by providing a function to search at least one of code vectors while shifting its position, when a sound source quantizing part searches for a code book. SOLUTION: This device is provided with a spectral parameter calculation part 4 to obtain a spectral parameter from an input voice signal to quantize, and a sound source quantizing part 12 to search fox a code book 13 storing a sound source signal of the voice signal beforehand and quantizes to output it. And when a sound source quantizing part 12 searches for a sound source code book 13, it searches for it while shifting a sample position of at least one of the code vectors. And if a size of the entire code book is expressed by B bits and a shift amount is expressed by A bits, the size of the code book to be stored becomes not B bits but B-A bits and this can decreases a memory size necessary for a storage.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は音声符号化装置に関
し、特に音声信号を比較的少ない演算量およびメモリ量
で高品質に符号化する音声符号化装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech coding apparatus, and more particularly to a speech coding apparatus for coding a speech signal with a relatively small amount of computation and a small amount of memory in high quality.

【0002】[0002]

【従来の技術】音声符号化装置は、音声復号化装置と対
向して使用され、音声符号化装置で符号化した音声を音
声復号化装置が復号するものである。ここで、音声信号
を高能率に符号化する方法としては、例えば、エム・シ
ュレーダー(M.Schroeder )とビー・アタル(B.Atal)
等がアイイーイーイー・プロシーディングス(IEEE Pro
c.)ICASSP-85,1985年、937〜940頁にコード・エ
キサイテド・リニア・プリディクション:ハイ・クオリ
ティ・スピーチ・アット・ベリー・ロウ・ビット・レイ
ツ(Code-excited linear prediction: High quality s
peech at very lowbit rates )と題して発表した論文
(文献1)や、クレイジン(Kleijn)等によるアイイー
イーイー・プロシーディングス(IEEE Proc.)ICASSP-88,
1988年、155〜158頁にインプルーブド・スピーチ
・クオリティ・アンド・エフィシェント・ベクトル・ク
オンタイゼイション・イン・エスイーエルピー(Improve
d speech quality and efficient vector quantization
in SELP) と題して発表した論文(文献2)等に記載さ
れているCELP(Code Excited Linear Prediction Co
ding) が知られている。この方法では、送信側では、フ
レーム毎(例えば20ms)に音声信号から線形予測(LP
C)分析を用いて、音声信号のスペクトル特性を表すス
ペクトルパラメータを抽出し、フレームをさらに複数の
サブフレーム(例えば5ms)に分割し、サブフレーム毎に
過去の音源信号をもとに適応コードブックにおけるパラ
メータ(ピッチ周期に対応する遅延パラメータとゲイン
パラメータ)を抽出し、適応コードブックにより該当の
サブフレームの音声信号をピッチ予測し、ピッチ予測し
て求めた残差信号に対して、音源量子化部では、予め定
められた種類の雑音信号からなる音源コードブック(ベ
クトル量子化コードブック)を格納しており、このコー
ドブックから最適音源コードベクトルを選択し、最適な
ゲインを計算することにより、音源信号を量子化する。
音源コードベクトルの選択の仕方は、選択した雑音信号
により合成した信号と、前述の残差信号との誤差電力を
最小化するように行う。そして選択されたコードベクト
ルの種類を表すインデックスとゲインならびに、スペク
トルパラメータと適応コードブックのパラメータとをマ
ルチプレクサ部により組み合わせて伝送する。受信側の
説明は省略する。
2. Description of the Related Art A speech encoding device is used opposite to a speech decoding device, and a speech decoding device decodes speech encoded by the speech encoding device. Here, as a method of encoding a speech signal with high efficiency, for example, M. Schroeder and B. Atal
IEEE Proceedings (IEEE Pro
c.) ICASSP-85, pp. 937-940, Code Excited Linear Prediction: High Quality Speech at Very Low Bit Rates.
Peech at very lowbit rates) (1), and Claizin (Kleijn) et al., IEEE Proc. ICASSP-88,
Improve Speech Quality and Efficient Vector Quantization in SLP, 1988, pp. 155-158.
d speech quality and efficient vector quantization
in CELP (Code Excited Linear Prediction Co.)
ding) is known. In this method, the transmitting side performs linear prediction (LP) from a speech signal every frame (for example, 20 ms).
C) Using analysis, extract a spectral parameter representing a spectral characteristic of the audio signal, further divide the frame into a plurality of subframes (for example, 5 ms), and apply an adaptive codebook to each subframe based on a past sound source signal. (Delay parameter and gain parameter corresponding to the pitch period) are extracted, the speech signal of the corresponding subframe is pitch-predicted by the adaptive codebook, and the residual signal obtained by pitch prediction is subjected to sound source quantization. The unit stores an excitation codebook (vector quantization codebook) composed of a predetermined type of noise signal, selects an optimal excitation codevector from this codebook, and calculates an optimal gain. Quantize the sound source signal.
The excitation code vector is selected so as to minimize the error power between the signal synthesized from the selected noise signal and the above-mentioned residual signal. Then, an index and a gain indicating the type of the selected code vector, a spectrum parameter and a parameter of the adaptive codebook are combined and transmitted by the multiplexer unit. Description on the receiving side is omitted.

【0003】[0003]

【発明が解決しようとする課題】上述した従来の音声符
号化装置は、良好な音質を得るためには、ビットレート
が8kb/s以上必要であった。これは音源コードブックの
ビット数としては、例えば5msサブフレーム当たり10
ビット以上の大規模なコードブックを必要としていた。
このため、音源コードブックの探索や、格納に、多くの
演算量や、多くのメモリ量を必要とするといえ問題点が
あった。例えば、5msサブフレームで10ビットのコー
ドブックを考えると、最も単純な2乗距離で探索して
も、1秒当たり1024x40x200=8,192,000回の乗算回数を
必要とし、また、メモリ量は1024x40=40,240ワードを必
要とした。一方、演算量やメモリ量を下げるために、ビ
ット数を低減化すると、音質が劣化することになるとい
う問題点も発生することになった。
The above-mentioned conventional speech coding apparatus requires a bit rate of 8 kb / s or more in order to obtain good sound quality. This means that the number of bits in the sound source codebook is, for example, 10 per 5 ms subframe.
A bit more codebook was needed.
For this reason, there is a problem that a large amount of calculation and a large amount of memory are required for searching and storing the sound source codebook. For example, considering a 10-bit codebook with a 5 ms subframe, the search with the simplest square distance requires 1024x40x200 = 8,192,000 multiplications per second, and the memory amount is 1024x40 = 40,240 words. Needed. On the other hand, when the number of bits is reduced in order to reduce the amount of calculation and the amount of memory, there is a problem that sound quality is deteriorated.

【0004】上述した従来の音声符号化装置で、良好な
符号化音質を得るためにビット数の大きなコードブック
が必要な理由としては、信号の位相関係により、音源信
号波形はサブフレーム内で色々な位相をとりうる点にあ
る。従って、これら異なる位相を音源コードベクトルの
パターンとして表現するためには、ある程度以上大規模
なコードブックを必要とした。
In the above-mentioned conventional speech coding apparatus, a codebook having a large number of bits is required in order to obtain good coded sound quality. The point is that it can take a great phase. Therefore, in order to express these different phases as a pattern of a sound source code vector, a codebook of a certain scale or more is required.

【0005】本発明の目的は、上述の問題を解決し、従
来方式よりも一層少ない探索演算量とメモリ量とで音質
の劣化の少ない音声符号化装置を提供することにある。
SUMMARY OF THE INVENTION It is an object of the present invention to solve the above-mentioned problems and to provide a speech coding apparatus with less deterioration in sound quality with a smaller amount of search operation and less memory than conventional methods.

【0006】[0006]

【課題を解決するための手段】本発明の音声符号化装置
は、入力した音声信号からスペクトルパラメータを求め
て量子化するスペクトルパラメータ計算部と、前記スペ
クトルパラメータを用いて前記音声信号の音源信号を予
め格納してあるコードブックを探索し量子化して出力す
る音源量子化部とを有する音声符号化装置において、前
記音源量子化部が前記コードブックを探索するときにこ
のコードブックに格納してあるコードベクトルの中の少
なくとも一つについて位置をシフトさせながら探索する
機能を有する構成である。
According to the present invention, there is provided a speech coding apparatus comprising: a spectrum parameter calculating section for obtaining a spectrum parameter from an input speech signal and quantizing the spectrum parameter; and using the spectrum parameter to generate a sound source signal of the speech signal. In a speech encoding apparatus having a sound source quantization unit for searching, quantizing and outputting a codebook stored in advance, the sound source quantization unit stores the codebook when searching for the codebook. This is a configuration having a function of searching for at least one of the code vectors while shifting the position.

【0007】本発明の音声符号化装置は、入力した音声
信号からスペクトルパラメータを求めて量子化するスペ
クトルパラメータ計算部と、前記スペクトルパラメータ
を用いて前記音声信号の音源信号を予め格納されたコー
ドブックを探索して量子化して出力する音源量子化部と
を有する音声符号化装置において、前記音声信号をフレ
ーム単位に聴感重み付けを行った聴感重み付け信号から
モードを判別しモード情報を出力するモード判別部と、
前記音源量子化部が前記コードブックを探索するときに
予め定められたモードではコードブックに格納されたコ
ードベクトルの少なくとも一つについて位置をシフトさ
せながら探索する機能を有する構成である。
A speech coding apparatus according to the present invention comprises a spectrum parameter calculation unit for obtaining and quantizing a spectrum parameter from an input speech signal, and a codebook in which a sound source signal of the speech signal is stored in advance using the spectrum parameter. A sound source quantization unit that searches for, quantizes, and outputs an audio signal. A mode discrimination unit that discriminates a mode from an audibility weighted signal obtained by performing audibility weighting on the audio signal in frame units and outputs mode information. When,
In a predetermined mode when the sound source quantization unit searches the codebook, the sound source quantization unit has a function of searching for at least one of the code vectors stored in the codebook while shifting the position.

【0008】本発明の音声符号化装置は、入力した音声
信号からスペクトルパラメータを求めて量子化するスペ
クトルパラメータ計算部と、前記スペクトルパラメータ
を用いて前記音声信号の音源信号を予め格納されたコー
ドブックを探索して量子化して出力する音源量子化部と
を有する音声符号化装置において、前記音声信号をフレ
ーム単位に聴感重み付けを行った聴感重み付け信号から
モードを判別しモード情報を出力するモード判別部と、
前記音源量子化部が前記コードブックを探索するときに
前記コードブックに格納されたコードベクトルの少なく
とも一つについて位置をシフトさせる量を前記モード情
報に応じて変化させながら探索する機能を有する構成で
ある。
A speech coding apparatus according to the present invention comprises a spectrum parameter calculating section for obtaining and quantizing a spectrum parameter from an input speech signal, and a codebook in which a sound source signal of the speech signal is stored in advance using the spectrum parameter. A sound source quantization unit that searches for, quantizes, and outputs an audio signal. A mode discrimination unit that discriminates a mode from an audibility weighted signal obtained by performing audibility weighting on the audio signal in frame units and outputs mode information. When,
When the sound source quantization unit searches the codebook, the sound source quantization unit has a function of performing a search while changing an amount to shift a position of at least one of the code vectors stored in the codebook according to the mode information. is there.

【0009】本発明の音声符号化装置は、入力した音声
信号からスペクトルパラメータを求めて量子化するスペ
クトルパラメータ計算部と、前記スペクトルパラメータ
を用いて前記音声信号の音源信号を予め格納してあるコ
ードブックを探索し量子化して出力する音源量子化部と
を有する音声符号化装置において、前記音源量子化部が
前記コードブックを探索するときにこのコードブックに
格納された各コードベクトルごとに定める値に従って位
置をシフトさせる量を変化させながら探索する機能を有
する構成である。
A speech coding apparatus according to the present invention comprises a spectrum parameter calculation unit for obtaining and quantizing a spectrum parameter from an input speech signal, and a code which previously stores a sound source signal of the speech signal using the spectrum parameter. A sound source quantization unit for searching, quantizing, and outputting a book, wherein a value determined for each code vector stored in the code book when the excitation quantization unit searches the code book. And a function of searching while changing the amount by which the position is shifted in accordance with

【0010】[作用]第1の発明では、音源量子化部に
おいて音源コードブックを探索するときに、少なくとも
一つのコードベクトルのサンプル位置をシフトさせなが
ら探索する。簡単のために、すべてのコードベクトルを
シフトさせながら探索するものとし、コードブック全体
のサイズをBビット、このうちシフト量をAビットで表
すとすれば、格納すべきコードブックのサイズはBビッ
トではなく、B―Aビットとなり、格納に必要なメモリ
を低減化できる。従って、一部のコードベクトルをシフ
トさせる場合にも、メモリ量を従来の方法よりも低減化
できることは明らかである。
[Operation] In the first invention, when the excitation codebook is searched in the excitation quantization unit, the search is performed while shifting the sample position of at least one code vector. For the sake of simplicity, it is assumed that the search is performed while shifting all the code vectors. If the entire codebook size is represented by B bits and the shift amount is represented by A bits, the codebook size to be stored is B bits. Instead, the number of bits becomes BA, and the memory required for storage can be reduced. Therefore, it is clear that even when shifting some code vectors, the memory amount can be reduced as compared with the conventional method.

【0011】次に音源コードブックの探索法について説
明する。探索には例えば自己相関近似法を使用するもの
とする。この方法では下式の右辺第2項を最大化するよ
うな音源コードベクトルck(n) を選択する。
Next, a method of searching for a sound source codebook will be described. For the search, for example, an autocorrelation approximation method is used. In this method, a sound source code vector c k (n) that maximizes the second term on the right side of the following equation is selected.

【0012】 [0012]

【0013】ここでWhere

【0014】 [0014]

【0015】である。さらに## EQU1 ## further

【0016】 [0016]

【0017】である。この方法の詳細は、アイ・トラン
コス(I.Trancoso)等によるアイイーイーイー・プロシー
ディングス(IEEE Proc.)ICASSP-86,1986年、2375〜
2378頁にイフィセント・プロシジャー・フォー・フ
ァインデング・ジ・アプティマム・イノベイション・イ
ン・スタカスティック・コーダーズ (Efficient proced
ures for finding the optimum innovation in stochas
tic coders) と題した論文(文献3)等を参照できるの
で、説明は省略する。
## EQU1 ## Details of this method are described in I. Trancoso et al., IEEE Proc. ICASSP-86, 1986, 2375
Efficient Procedure for Finding the Uptime Innovation in Statistical Coders on page 2378
ures for finding the optimum innovation in stochas
The description is omitted because a paper (Reference 3) entitled "tic coders" can be referred to.

【0018】ここで、位相シフトしたコードベクトル成
分については、分母の値Pkは同一であるので計算は不要
である。従って、分母の計算に必要な演算量はシフトの
ビット数Aだけ低減化される。
Here, for the phase-shifted code vector component, no calculation is necessary because the denominator value Pk is the same. Therefore, the amount of calculation required for calculating the denominator is reduced by the number A of bits of the shift.

【0019】第2の発明では、あらかじめ定められた時
間区間(以下フレームと呼ぶ)の入力音声から特徴量を
求め、フレームの音声を、複数種類のモードのうちの一
つに分類する。以下では、モードの種類は4種類とし、
これはモード情報として2ビットで表して伝送するもの
とする。予め定められたモードの場合に、音源量子化部
において、音源コードブックを探索するときに、少なく
とも一つのコードベクトルのサンプル位置をシフトさせ
ながら探索する。コードベクトルをシフトさせながら探
索する方法を第1の発明と同一である。
In the second invention, a feature amount is obtained from input speech in a predetermined time section (hereinafter referred to as a frame), and the speech of the frame is classified into one of a plurality of types of modes. In the following, there are four modes,
This is represented by two bits as mode information and transmitted. In the case of the predetermined mode, the excitation quantization section searches while shifting the sample position of at least one code vector when searching the excitation codebook. The method of searching while shifting the code vector is the same as in the first invention.

【0020】第3の発明では、第2の発明において、モ
ードごとにサンプル位置のシフト量Aを変化させること
を特徴とする。例えば、Aは、モード0では0ビット、
モード1では5ビット、モード2では4ビット、モード
3では3ビットという値をとる。
According to a third aspect, in the second aspect, the shift amount A of the sample position is changed for each mode. For example, A is 0 bits in mode 0,
The value takes 5 bits in mode 1, 4 bits in mode 2, and 3 bits in mode 3.

【0021】第4の発明では、第1の発明の音源量子化
部において、音源コードブックを探索するときに、コー
ドベクトルに応じてサンプル位置のシフト量を変化させ
ながら探索する。ただし、コードブック全体のシフト量
の合計は一定値、例えばAビットとする。
According to a fourth aspect of the present invention, in the excitation quantization section of the first invention, when searching the excitation codebook, the search is performed while changing the shift amount of the sample position according to the code vector. However, the total shift amount of the entire codebook is a fixed value, for example, A bits.

【0022】[0022]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0023】図1は本発明の第1の実施の形態を示すブ
ロック図である。
FIG. 1 is a block diagram showing a first embodiment of the present invention.

【0024】本発明の第1の実施の形態の音声符号化装
置1は、入力した音声信号を予め定める時間長のフレー
ムに分割するフレーム分割回路2と、フレームの音声信
号をフレームよりも短い時間長のサブフレームに分割す
るサブフレーム分割回路3と、フレーム分割回路2の出
力する一連のフレームの音声信号を受信し少なくとも1
つのサブフレームの音声信号に対してサブフレームの時
間長よりも長い窓をかけて音声信号を切り出してスペク
トルパラメータを予め定められた次数まで計算するスペ
クトルパラメータ計算回路4と、線スペクトル対パラメ
ータコードブック(以下LSPコードブックと記す)6
を用いてスペクトルパラメータ計算回路4の計算した予
め定めるサブフレームで量子化したLSPパラメータを
ベクトル量子化するスペクトルパラメータ量子化回路5
と、スペクトルパラメータ計算回路4の計算した複数の
サブフレームの線形予測係数を受け各サブフレームの音
声信号に対して聴感重み付けを行い聴感重み付け信号を
出力する聴感重み付け回路7と、スペクトルパラメータ
計算回路4の計算した複数のサブフレームの線形予測係
数とスペクトルパラメータ量子化回路5が復元した線形
予測係数とを、サブフレームごとに入力し、応答信号を
1サブフレーム分計算し減算器8に出力する応答信号計
算回路9と、スペクトルパラメータ量子化回路5が復元
した線形予測係数を受け、聴感重み付けフィルタのイン
パルス応答を予め定める点数計算するインパルス応答計
算回路10と、出力側から帰還する過去の音源信号と減
算器8の出力信号と聴感重み付けフィルタのインパルス
応答とを入力しピッチに対応する遅延を求め遅延を表す
インテックスを出力する適応コードブック回路11と、
音源コードブック13を用いて音源信号を量子化する音
源量子化回路12と、ゲインコードブック15からゲイ
ンコードベクトルを読みだし最適なゲインコードベクト
ルを選択し、この選択したゲインコードベクトルを表す
インデックスをマルチプレクサ16に出力するゲイン量
子化回路14と、ゲイン量子化回路14の出力を入力し
インデックスからこれに対応するコードベクトルを読み
だし駆動音源信号を求める重み付け信号計算回路17と
からなる。
A speech encoding apparatus 1 according to a first embodiment of the present invention comprises a frame dividing circuit 2 for dividing an inputted speech signal into frames of a predetermined time length, and a speech signal of a frame having a shorter time than the frame. A sub-frame division circuit 3 for dividing into a long sub-frame, and receiving at least one audio signal of a series of frames output from the frame division circuit 2
A spectrum parameter calculation circuit 4 that cuts out the audio signal by applying a window longer than the subframe time length to the audio signal of one subframe and calculates spectral parameters to a predetermined order, and a line spectrum versus parameter codebook (Hereinafter referred to as LSP codebook) 6
A parameter quantization circuit 5 for vector-quantizing an LSP parameter quantized in a predetermined subframe calculated by the spectrum parameter calculation circuit 4 using
A perceptual weighting circuit 7 that receives the linear prediction coefficients of a plurality of subframes calculated by the spectrum parameter calculation circuit 4 and weights the perceptual weight of the audio signal of each subframe and outputs a perceptual weighting signal; Are input for each sub-frame, the linear prediction coefficients restored by the spectral parameter quantization circuit 5 are calculated for each sub-frame, the response signal is calculated for one sub-frame, and output to the subtractor 8 A signal calculation circuit 9, an impulse response calculation circuit 10 that receives the linear prediction coefficient restored by the spectrum parameter quantization circuit 5 and calculates a predetermined score of an impulse response of the perceptual weighting filter, and a past sound source signal that returns from the output side. The output signal of the subtractor 8 and the impulse response of the perceptual weighting filter are input and An adaptive codebook circuit 11 for outputting a Intex representing a delay determined delay corresponding to the switch,
A sound source quantization circuit 12 that quantizes a sound source signal using a sound source code book 13 and a gain code vector are read from a gain code book 15 to select an optimal gain code vector, and an index representing the selected gain code vector is set as an index. It comprises a gain quantization circuit 14 that outputs to the multiplexer 16, and a weighting signal calculation circuit 17 that receives the output of the gain quantization circuit 14 and reads a code vector corresponding to the output from the index to obtain a drive excitation signal.

【0025】次に本装置の動作について説明する。Next, the operation of the present apparatus will be described.

【0026】まず、入力端子から音声信号を入力し、フ
レーム分割回路2では音声信号をフレーム(例えば 10m
s )ごとに分割し、サブフレーム分割回路3では、フレ
ームの音声信号をフレームよりも短いサブフレーム(例
えば 2.5ms)に分割する。スペクトルパラメータ計算回
路4では、少なくとも一つのサブフレームの音声信号に
対して、サブフレーム長よりも長い窓(例えば 24ms )
をかけて音声を切り出してスペクトルパラメータをあら
かじめ定められた次数(例えば P=10 次)計算する。こ
こでスペクトルパラメータの計算には、周知のLPC分
析や、バーグ(Burg)分析等を用いることができる。ここ
では、バーグ(Burg)分析を用いることとする。バーグ(B
urg)分析の詳細については、中溝著による”信号解析と
システム同定”と題した単行本(コロナ社1988年刊)の
82〜87頁(文献4)等に記載されているので説明は省略
する。
First, an audio signal is input from an input terminal, and the frame dividing circuit 2 converts the audio signal into a frame (for example, 10 m).
s), and the subframe division circuit 3 divides the audio signal of the frame into subframes (for example, 2.5 ms) shorter than the frame. In the spectrum parameter calculation circuit 4, a window (for example, 24 ms) longer than the subframe length is applied to the audio signal of at least one subframe.
, The speech is cut out, and the spectral parameters are calculated in a predetermined order (for example, P = 10th order). Here, a well-known LPC analysis, a Burg analysis, or the like can be used for calculating the spectrum parameters. Here, Burg analysis is used. Berg (B
urg) For details of the analysis, see the book “Corona Analysis and System Identification” written by Nakamizo (Corona Publishing Co., 1988).
The description is omitted since it is described on pages 82 to 87 (Document 4) and the like.

【0027】さらにスペクトルパラメータ計算回路4で
は、バーグ(Burg)法により計算された線形予測係数α
i(i=1,…,10)量子化や補間に適したLSPパラメータに
変換する。ここで、線形予測係数からLSPへの変換
は、菅村他による”線スペクトル対(LSP)音声分析
合成方式による音声情報圧縮”と題した論文(電子通信
学会論文誌、J64-A、pp.599-606、1981年)(文献5)
を参照することができる。例えば、第2,4サブフレー
ムでバーグ(Burg)法により求めた線形予測係数を、LS
Pパラメータに変換し、第1,3サブフレームのLSP
を直線補間により求めて、第1,3サブフレームのLS
Pを逆変換して線形予測係数に戻し、第1〜4サブフレ
ームの線形予測係数αili=1,…,10,l=1,…,5) を聴感重
み付け回路7に出力する。また、第4サブレームのLS
Pをスペクトルパラメータ量子化回路5に出力する。
Further, in the spectrum parameter calculation circuit 4, the linear prediction coefficient α calculated by the Burg method
i (i = 1,..., 10) is converted to LSP parameters suitable for quantization and interpolation. Here, the conversion from the linear prediction coefficient to the LSP is performed by Sugamura et al. In a paper entitled "Speech Information Compression by Line Spectrum Pair (LSP) Speech Analysis / Synthesis Method" (Transactions of the Institute of Electronics, Information and Communication Engineers, J64-A, pp.599). -606, 1981) (Reference 5)
Can be referred to. For example, the linear prediction coefficient obtained by the Burg method in the second and fourth subframes is represented by LS
Convert to P parameter, LSP of 1st and 3rd subframe
Is obtained by linear interpolation, and the LS of the first and third sub-frames is calculated.
P is inversely transformed back to the linear prediction coefficient, and the linear prediction coefficients α il i = 1,..., 10, l = 1,. Also, the LS of the fourth sub-frame
P is output to the spectrum parameter quantization circuit 5.

【0028】スペクルパラメータ量子化回路5では、L
SPレコードブック6を用いてあらかじめ定められたサ
ブフレームのLSPパラメータを効率的にベクトル量子
化し、下式の歪みを最小化する量子化値を出力する。
In the speckle parameter quantization circuit 5, L
The LSP parameter of a predetermined subframe is efficiently vector-quantized using the SP record book 6, and a quantized value that minimizes the distortion of the following equation is output.

【0029】 [0029]

【0030】ここで、LSP(i), QLSP(i)j,W(i)はそれぞ
れ、量子化前のi次目のLSP,LSPコードブック6
のj番目のコードベクトル、重み係数である。
Here, LSP (i), QLSP (i) j and W (i) are the i-th LSP and LSP codebook 6 before quantization, respectively.
Are the j-th code vector and the weight coefficient.

【0031】以下では、第4サブフレームのLSPパラ
メータを量子化するものとする。LSPパラメータのベ
クトル量子化の手法は周知の手法を用いることができ
る。具体的な方法は例えば、特開平4―171500号
公報(文献6)あるいは特開平4―363000号公報
(文献7)や、特開平5―6199号公報(文献8)
や、ティー・ノムラ(T.Nomura)等によるアイイーイーイ
ー・プロシーディングス.モバイル・マルチメディア・
コミュニケーションズ(IEEE Proc.Mobile Multimedia
Communications.)1993年、B.2.5頁にエルエスピー
・コーディング・ユージング・ブイキュー−エスブイキ
ュー・ウイズ・インターポウレーション・イン・4.0
75・ケービーピーエス・エム−エルシーイーエルピー
・スピーチ・コーダー (LSP Coding Using VQ-SVQ Wit
h Interpolation in 4.075 kbps M-LCELP Speech Code
r) と題した論文(文献9)等を参照できるのでここで
は説明は略する。
In the following, it is assumed that the LSP parameter of the fourth sub-frame is quantized. A well-known method can be used for the method of vector quantization of LSP parameters. Specific methods are described in, for example, JP-A-4-171500 (Reference 6), JP-A-4-363000 (Reference 7), and JP-A-5-6199 (Reference 8).
And IEE Proceedings by T. Nomura and others. Mobile multimedia
Communications (IEEE Proc. Mobile Multimedia
Communications.) 1993; On page 2.5, LSP Coding Using Viku-SV-Q-with with Interpolation in 4.0
75KPS M-LSP Coding Using VQ-SVQ Wit
h Interpolation in 4.075 kbps M-LCELP Speech Code
r), the description of which is omitted here.

【0032】また、スペクトルパラメータ量子化回路5
では、第4サブフレームで量子化したLSPパラメータ
をもとに、第1〜第4サブフレームのLSPパラメータ
を復元する。ここでは、現フレームの第4サブフレーム
の量子化LSPパラメータと1つ過去のフレームの第4
サブフレームの量子化LSPを直線補間して、第1〜第
3サブフレームのLSPを復元する。ここで、量子化前
のLSPと量子化後のLSPとの誤差電力を最小化する
コードベクトルを1種類選択した後に、直線補間により
第1〜第4サブフレームのLSPを復元できる。さらに
性能を向上させるためには、誤差電力を最小化するコー
ドベクトルを複数候補選択したのちに、各々の候補につ
いて、累積歪を評価し、累積歪を最小化する候補と補間
LSPの組を選択するようにすることができる。詳細
は、例えば、特願平5―8737号明細書(文献10)
を参照することができる。
The spectrum parameter quantization circuit 5
Then, the LSP parameters of the first to fourth subframes are restored based on the LSP parameters quantized in the fourth subframe. Here, the quantization LSP parameter of the fourth sub-frame of the current frame and the fourth
The LSPs of the first to third subframes are restored by linearly interpolating the quantized LSPs of the subframe. Here, after selecting one type of code vector that minimizes the error power between the LSP before quantization and the LSP after quantization, the LSPs of the first to fourth subframes can be restored by linear interpolation. In order to further improve performance, after selecting a plurality of candidates for the code vector that minimizes the error power, evaluate the cumulative distortion for each candidate, and select a combination of the candidate and the interpolation LSP that minimizes the cumulative distortion. You can make it. For details, see, for example, Japanese Patent Application No. 5-8737 (Reference 10).
Can be referred to.

【0033】以上により復元した第1ー3サブフレーム
のLSPと第4サブフレームの量子化LSPをサブフレ
ームごとに線形予測係数α'il(i=1,…,10, l=,…,5) に
変換し、インパルス応答計算回路10に出力する。ま
た、第4サブフレームの量子化LSPのコードベクトル
を表すインデクスをマルチプレクサ16に出力する。聴
感重み付け回路7は、スペクトルパラメータ計算回路4
から、各サブフレームごとに量子化前の線形予測係数α
il (i=1,…,10, l=,…,5) を入力し、文献1にもとづ
き、サブフレームの音声信号に対して聴感重み付けを行
い、聴感重み付け信号を出力する。
The LSPs of the first to third sub-frames and the quantized LSPs of the fourth sub-frame, which have been reconstructed as described above, are converted into linear prediction coefficients α ′ il (i = 1,..., 10, l =,. ) And outputs it to the impulse response calculation circuit 10. Further, an index representing the code vector of the quantized LSP of the fourth subframe is output to the multiplexer 16. The audibility weighting circuit 7 includes a spectrum parameter calculation circuit 4
From the linear prediction coefficient α before quantization for each subframe.
il (i = 1,..., 10, l =,..., 5) is input, and the perceptual weighting is performed on the audio signal of the subframe based on Document 1 to output a perceptual weighting signal.

【0034】応答信号計算回路9は、スペクトルパラメ
ータ計算回路4から、各サブフレームごとに線形予測係
数αilを入力し、スペクトルパラメータ量子化回路5か
ら、量子化、補間して復元した線形予測係数α'il をサ
ブフレームごとに入力し、保存されているフィルタメモ
リの値を用いて、入力信号を零d(n)=0とした応答信号を
1サブフレーム分計算し、減算器8に出力する。ここ
で、応答信号xz(n) は下式で表される。
The response signal calculation circuit 9 receives the linear prediction coefficient α il for each subframe from the spectrum parameter calculation circuit 4, and quantizes, interpolates and restores the linear prediction coefficient α il from the spectrum parameter quantization circuit 5. α ′ il is input for each sub-frame, a response signal with the input signal set to zero d (n) = 0 is calculated for one sub-frame using the stored value of the filter memory, and output to the subtractor 8 I do. Here, the response signal x z (n) is represented by the following equation.

【0035】 [0035]

【0036】但し、n-i ≦ 0のときは y(n-i)=p(N+(n-i)) (8) xz(n-i)=sw(N+(n-i)) (9) ここでNはサブフレーム長を示す。γは、聴感重み付け
量を制御する重み係数であり、下記の式(11)と同一の値
である。sw(n) ,p(n)は、それぞれ、重み付け信号計算
回路17の出力信号、後述の式(11)における右辺第1項
のフィルタの分母の項の出力信号をそれぞれ示す。
However, when ni ≦ 0, y (ni) = p (N + (ni)) (8) x z (ni) = s w (N + (ni)) (9) where N is the subframe length Is shown. γ is a weight coefficient for controlling the perceptual weighting amount, and is the same value as the following equation (11). s w (n) and p (n) represent the output signal of the weighting signal calculation circuit 17 and the output signal of the denominator term of the first term filter on the right-hand side in Expression (11) described later, respectively.

【0037】減算器8は、下式により、聴感重み付け信
号から応答信号を1サブフレーム分減算し、x'w(n)を適
応コードブック回路11に出力する。 x'w(n)=xw(n)-xz(n) (10) インパルス応答計算回路10は、z 変換が下式で表され
る聴感重み付けフィルタのインパルス応答 hw(n)をあら
かじめ定められた点数Lだけ計算し、適応コードブック
回路11と音源量子化回路12とゲイン量子化回路14
とに出力する。
The subtractor 8 subtracts the response signal by one subframe from the perceptual weighting signal according to the following equation, and outputs x ′ w (n) to the adaptive codebook circuit 11. x ′ w (n) = x w (n) −x z (n) (10) The impulse response calculation circuit 10 calculates in advance the impulse response h w (n) of the auditory weighting filter whose z-transformation is expressed by the following equation. Calculation is performed for a predetermined number L, and the adaptive codebook circuit 11, the sound source quantization circuit 12, and the gain quantization circuit 14
And output to

【0038】 [0038]

【0039】適応コードブック回路11では、ゲイン量
子化回路14からは過去の音源信号v(n)を、減算器8か
らは出力信号x'w(n)を、インパルス応答計算回路10か
らは聴感重み付けインパルス応答 hw(n)を入力する。ピ
ッチに対応する遅延Tを下式の歪みを最小化するように
求め、遅延を表すインデクスをマルチプレクサ16に出
力する。
In the adaptive code book circuit 11, the past sound source signal v (n) is output from the gain quantization circuit 14, the output signal x ′ w (n) is output from the subtractor 8, and the audibility is output from the impulse response calculation circuit 10. Enter the weighted impulse response h w (n). The delay T corresponding to the pitch is determined so as to minimize the distortion of the following expression, and an index representing the delay is output to the multiplexer 16.

【0040】 [0040]

【0041】ここで、 yw(n−T)=v(n −T)*hw(n) (13) であり、記号*は畳み込み演算を表す。ゲインβを下式
に従い求める。
Here, y w (n−T) = v (n−T) * h w (n) (13), and the symbol * represents a convolution operation. The gain β is obtained according to the following equation.

【0042】 [0042]

【0043】ここで、女性音や、子供の声に対して、遅
延の抽出精度を向上させるために、遅延を整数サンプル
ではなく、小数サンプル値で求めてもよい。具体的な方
法は、例えば、ピー・クルーン(P.Kroon) 等によるアイ
イーイーイー・プロシーディングス(IEEE Proc.)ICASSP
-90,1990年、661〜664頁にピッチ・プリディクタ
ーズ・ウイズ・ハイ・テンポラル・ソリューション(Pit
ch predictors with high temporal resolution)と題し
て発表した論文(文献11)等を参照することができ
る。
Here, in order to improve the accuracy of extracting delays for female sounds and children's voices, the delays may be determined by decimal sample values instead of integer samples. A concrete method is, for example, IACSSP by P. Kroon et al. (IEEE Proc.)
-90, 1990, Pitch Predictors with High Temporal Solution (Pit
For example, a paper (Reference 11) published under the title of "Ch predictors with high temporal resolution" can be referred to.

【0044】さらに、適応コードブック回路11では下
式に従いピッチ予測を行い、予測残差信号ew(n) を音源
量子化回路12に出力する。 ew(n) =x'w(n)- βv(n-T)*hw(n) (15) 音源量子化回路12では、作用で述べたように、音源コ
ードブックの探索に特徴がある。
Further, the adaptive codebook circuit 11 performs pitch prediction according to the following equation, and outputs a prediction residual signal e w (n) to the sound source quantization circuit 12. e w (n) = x ′ w (n) −βv (nT) * h w (n) (15) The sound source quantization circuit 12 has a feature in the search of the sound source codebook as described in the operation.

【0045】図2は図1内の音源量子化回路の構成を示
すブロック図である。
FIG. 2 is a block diagram showing the configuration of the sound source quantization circuit in FIG.

【0046】以下の説明では、音源コードブック全体の
伝送すべきインデクスをBビット、シフト量をAビット
とする。
In the following description, it is assumed that the index to be transmitted of the entire sound source codebook is B bits and the shift amount is A bits.

【0047】音源量子化回路12の逆フィルタリング回
路18は、適応コードブック予測残差信号ew(n) および
聴感重み付けインパルス応答hw(n) を入力し、下式の計
算を行う。
The inverse filtering circuit 18 of the sound source quantization circuit 12 receives the adaptive codebook prediction residual signal e w (n) and the perceptual weighting impulse response h w (n) and calculates the following equation.

【0048】 [0048]

【0049】音源コードブック13は、(B−A)ビッ
トのサイズである。自己相関計算回路20は、音源コー
ドベクトルck(n) を音源コードブック13から読み出
し、下式を用いて自己相関を計算する。この値は、同一
のコードベクトルに対して位置をシフトしたコードベク
トルについても共通に使用する。
The sound source code book 13 has a size of (BA) bits. The autocorrelation calculation circuit 20 reads out the sound source code vector c k (n) from the sound source codebook 13 and calculates the autocorrelation using the following equation. This value is commonly used for a code vector whose position is shifted with respect to the same code vector.

【0050】 [0050]

【0051】また、下式により、聴感重み付けインパル
ス応答の自己相関も計算する。
Also, the autocorrelation of the auditory weighting impulse response is calculated by the following equation.

【0052】 [0052]

【0053】位置シフト回路19は、下式により、音源
コードベクトルck(n) の位置を順番にシフトする。 ckl(n) = ck(n + l), l=0,...,2A-1 (19) ここで、Aはシフト量を表すためのビット数を示す。相
互相関計算回路21は、下式に従い相互相関を計算す
る。
The position shift circuit 19 sequentially shifts the position of the excitation code vector c k (n) by the following equation. c kl (n) = c k (n + 1), l = 0,..., 2 A −1 (19) Here, A represents the number of bits for representing the shift amount. The cross-correlation calculation circuit 21 calculates a cross-correlation according to the following equation.

【0054】 [0054]

【0055】2乗計算回路22は、相互相関CCの2乗
を計算する。割算回路23は、CC2と式 (2)のPkとの
割算結果を最大値判別回路24に出力する。最大値判別
回路24は、割算結果の最大を判別し、そのときの音源
コードブック13のインデクスとシフト量を加味した合
計のインデクスをゲイン量子化回路14に出力する。
The square calculation circuit 22 calculates the square of the cross-correlation CC. The division circuit 23 outputs the result of the division between CC 2 and P k in Equation (2) to the maximum value discrimination circuit 24. The maximum value discriminating circuit 24 discriminates the maximum of the division result, and outputs to the gain quantization circuit 14 a total index in which the index of the sound source codebook 13 and the shift amount are added at that time.

【0056】ゲイン量子化回路14は、ゲインコードブ
ック15からゲインコードベクトルを読みだし、選択さ
れた音源コードベクトルに対して、下式を最小化するよ
うにゲインコードベクトルを選択する。ここでは、適応
コードブックのゲインと音源のゲインの両者を同時にベ
クトル量子化する例について示す。
The gain quantization circuit 14 reads a gain code vector from the gain code book 15 and selects a gain code vector for the selected excitation code vector so as to minimize the following equation. Here, an example in which both the gain of the adaptive codebook and the gain of the sound source are simultaneously vector-quantized will be described.

【0057】 [0057]

【0058】ここで、β'k,G'k は、ゲインコードブッ
ク15に格納された2次元ゲインコードブックにおける
k番目のコードベクトルである。選択されたゲインコー
ドベクトルを表すインデクスをマルチプレクサ16に出
力する。
Here, β ′ k and G ′ k are k-th code vectors in the two-dimensional gain codebook stored in the gain codebook 15. An index representing the selected gain code vector is output to the multiplexer 16.

【0059】重み付け信号計算回路17は、スペクトル
パラメータ計算回路4の出力パラメータおよびそれぞれ
のインデクスを入力し、インデクスからそれぞれに対応
するコードベクトルを読みだし、まず下式にもとづき駆
動音源信号v(n)を求める。 v(n)= β'kv(n-T)+G'kck(n) (22) v(n)は適応コードブック回路11に出力される。
The weighting signal calculation circuit 17 receives the output parameters of the spectrum parameter calculation circuit 4 and the respective indexes, reads out the corresponding code vectors from the indexes, and firstly obtains the driving sound source signal v (n) based on the following equation. Ask for. v (n) = β ′ k v (nT) + G ′ k c k (n) (22) v (n) is output to the adaptive codebook circuit 11.

【0060】次に、スペクトルパラメータ計算回路4の
出力パラメータおよびスペクトルパラメータ量子化回路
5の出力パラメータを用いて下式により、応答信号(s
w(n))をサブフレームごとに計算し、応答信号計算回路
9に出力する。
Next, using the output parameter of the spectrum parameter calculation circuit 4 and the output parameter of the spectrum parameter quantization circuit 5, the response signal (s
w (n)) is calculated for each subframe, and output to the response signal calculation circuit 9.

【0061】 [0061]

【0062】以上により、本発明の第1の実施の形態の
説明を終える。
Thus, the description of the first embodiment of the present invention is completed.

【0063】図3は本発明の第2の実施の形態を示すブ
ロック図である。
FIG. 3 is a block diagram showing a second embodiment of the present invention.

【0064】第2の実施の形態である音声符号化装置2
5が、第1の実施の形態と異なる点は、モード判別回路
26を新たに設け、音源量子化回路27の機能の一部を
変更した点である。その他の図1と同一の番号を付した
構成要素は、図1と同じ動作をするので説明は省略す
る。
Speech Encoding Apparatus 2 of Second Embodiment
5 is different from the first embodiment in that a mode discrimination circuit 26 is newly provided and a part of the function of a sound source quantization circuit 27 is changed. The other components having the same reference numerals as those in FIG. 1 perform the same operations as those in FIG.

【0065】モード判別回路26は、聴感重み付け回路
17からフレーム単位で聴感重み付け信号を受取り、モ
ード判別情報を出力する。ここでは、モード判別に、現
在のフレームの特徴量を用いる。特徴量としては、例え
ば、フレームで平均したピッチ予測ゲインを用いる。ピ
ッチ予測ゲインの計算には、例えば下式を用いる。
The mode discriminating circuit 26 receives the perceptual weighting signal from the perceptual weighting circuit 17 in frame units, and outputs mode discriminating information. Here, the feature amount of the current frame is used for mode determination. As the characteristic amount, for example, a pitch prediction gain averaged in a frame is used. For example, the following equation is used for calculating the pitch prediction gain.

【0066】 [0066]

【0067】ここで、Lはフレームに含まれるサブフレ
ームの個数である。Pi,Eiはそれぞれ、i番目のサブフ
レームでの音声パワー、ピッチ予測誤差パワーを示す。
Here, L is the number of subframes included in the frame. P i and E i indicate the speech power and the pitch prediction error power in the i-th subframe, respectively.

【0068】 [0068]

【0069】ここで、Tは予測ゲインを最大化する最適
遅延である。
Here, T is an optimal delay for maximizing the prediction gain.

【0070】つぎに、フレーム平均ピッチ予測ゲインG
をあらかじめ定められた複数個のしきい値と比較して複
数種類のモードに分類する。モードの個数としては、例
えば4を用いることができる。モード判別回路26は、
モード判別情報を音源量子化回路27およびマルチプレ
クサ16に出力する。
Next, the frame average pitch prediction gain G
Is compared with a plurality of predetermined threshold values, and classified into a plurality of types of modes. As the number of modes, for example, 4 can be used. The mode determination circuit 26
The mode determination information is output to the sound source quantization circuit 27 and the multiplexer 16.

【0071】音源量子化回路27は、モード判別情報が
予め定められたモードを示す場合に音源コードベクトル
をシフトしながら探索する。
When the mode discrimination information indicates a predetermined mode, the sound source quantization circuit 27 searches while shifting the sound source code vector.

【0072】図4は図3内の音源量子化回路の構成を示
すブロック図である。音源量子化回路27が音源量子化
回路12と異なる点は、位置シフト回路28の機能の一
部を変更した点である。その他の図2と同一の番号を付
した構成要素は、図2と同じ動作を行うので説明は省略
する。
FIG. 4 is a block diagram showing the configuration of the sound source quantization circuit in FIG. The sound source quantization circuit 27 differs from the sound source quantization circuit 12 in that a part of the function of the position shift circuit 28 is changed. The other components having the same reference numerals as those in FIG. 2 perform the same operations as those in FIG.

【0073】位置シフト回路28は、モード判別回路2
6からモード情報を入力し、予め定められたモードの場
合に音源コードベクトルの位置のシフトを行うようにす
る。以後の動作は図2の位置シフト回路19と同一であ
る。以上で第2の発明の説明を終了する。
The position shift circuit 28 includes a mode discriminating circuit 2
The mode information is input from step 6 to shift the position of the excitation code vector in the case of a predetermined mode. Subsequent operations are the same as those of the position shift circuit 19 in FIG. This concludes the description of the second invention.

【0074】図5は本発明の第3の実施の形態を示すブ
ロック図である。
FIG. 5 is a block diagram showing a third embodiment of the present invention.

【0075】第3の実施の形態である音声符号化装置2
9が、第2の実施の形態と異なる点は、音源量子化回路
30の機能の一部を変更した点である。その他の図3と
同一の番号を付した構成要素は、図3と同じ動作をする
ので説明は省略する。
Speech coding apparatus 2 according to a third embodiment
9 differs from the second embodiment in that a part of the function of the sound source quantization circuit 30 is changed. The other components having the same reference numerals as those in FIG. 3 perform the same operations as those in FIG.

【0076】図6は図5内の音源量子化回路の構成を示
すブロック図である。音源量子化回路30が音源量子化
回路27と異なる点は、位置シフト回路31の機能の一
部を変更した点である。その他の図2および4と同一の
番号を付した構成要素は、図2および4と同じ動作を行
うので説明は省略する。
FIG. 6 is a block diagram showing the configuration of the sound source quantization circuit in FIG. The sound source quantization circuit 30 differs from the sound source quantization circuit 27 in that a part of the function of the position shift circuit 31 is changed. The other components denoted by the same reference numerals as those in FIGS. 2 and 4 perform the same operations as those in FIGS.

【0077】位置シフト回路31は、作用の項で説明し
たようにモード情報を入力し、モードごとにコードベク
トルの位置のシフト量を変化させる。即ち、モードごと
に、シフトに要するビット数Aを変化させる。例えば、
モード0では0ビット、モード1ではA1 ビット、モー
ド2ではA2 ビット、モード3ではA3 ビットという値
をとる。図7は本発明の第4の実施の形態を示すブロッ
ク図である。
The position shift circuit 31 inputs the mode information as described in the section of operation, and changes the shift amount of the position of the code vector for each mode. That is, the number of bits A required for the shift is changed for each mode. For example,
Mode 0, 0 bits, A 1 bit in mode 1, A 2 bit in mode 2, the value A 3-bit in mode 3 take. FIG. 7 is a block diagram showing a fourth embodiment of the present invention.

【0078】第4の実施の形態である音声符号化装置3
2が、第1の実施の形態と異なる点は、音源量子化回路
33の機能の一部を変更した点である。その他の図1と
同一の番号を付した構成要素は、図1と同じ動作をする
ので説明は省略する。
Speech coding apparatus 3 according to a fourth embodiment
2 is different from the first embodiment in that a part of the function of the sound source quantization circuit 33 is changed. The other components having the same reference numerals as those in FIG. 1 perform the same operations as those in FIG.

【0079】図8は図7内の音源量子化回路の構成を示
すブロック図である。音源量子化回路12が音源量子化
回路33と異なる点は、割り当て回路34が、音源コー
ドブック13に格納されたコードベクトルのインデクス
に応じて、位置をシフトさせる量を割り当てる。ただ
し、コードブック全体ではシフト量の合計をAビットと
して定めておく。位置シフト回路35は、割り当て回路
34からシフト量を入力されると、コードベクトルの位
置をシフトさせる。
FIG. 8 is a block diagram showing the configuration of the sound source quantization circuit in FIG. The difference between the sound source quantization circuit 12 and the sound source quantization circuit 33 is that the assignment circuit 34 assigns an amount to shift the position according to the index of the code vector stored in the sound source codebook 13. However, the total shift amount is determined as A bits in the entire codebook. When the shift amount is input from the assignment circuit 34, the position shift circuit 35 shifts the position of the code vector.

【0080】以上で本発明の実施例の説明を終える。The description of the embodiment of the present invention has been completed.

【0081】なお、本発明は、上述した実施の形態に限
らず、種々の変形が可能である。例えば、音源コードブ
ックは、従来から使用されているような構成でもよい
し、複数個のパルス列からなる構成でもよい。音源コー
ドブックのコードベクトルは音声信号データを用いてあ
らかじめ学習して構成してもよい。さらに、モード判別
情報を用いて適応コードブック回路、音源コードブック
や、ゲインコードブックを切替える構成とすることも可
能である。
The present invention is not limited to the above-described embodiment, but can be variously modified. For example, the sound source codebook may have a configuration as conventionally used, or may have a configuration including a plurality of pulse trains. The code vector of the sound source codebook may be configured by learning in advance using audio signal data. Furthermore, it is also possible to adopt a configuration in which the adaptive codebook circuit, the sound source codebook, and the gain codebook are switched using the mode determination information.

【0082】[0082]

【発明の効果】以上説明したように、本発明は、音源量
子化部が、コードブックを探索するときに、コードブッ
クに格納されたコードベクトルの少なくとも一つについ
て位置をシフトさせながら探索することにより、また、
シフトさせる量をモードごとに変化させることにより、
従来の方法と同一のビットレートでも、コードブックの
探索に必要な演算量と、コードブックの格納に必要なメ
モリ量の両者を低減化できるという効果がある。また、
この効果はシフトに費やすビット数を増すことにより増
大するという効果もある。
As described above, according to the present invention, when searching for a codebook, the sound source quantization unit searches for at least one of the code vectors stored in the codebook while shifting the position. By and
By changing the shift amount for each mode,
Even with the same bit rate as the conventional method, there is an effect that both the amount of calculation required for searching the codebook and the amount of memory required for storing the codebook can be reduced. Also,
This effect is also increased by increasing the number of bits spent for shifting.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態を示すブロック図で
ある。
FIG. 1 is a block diagram showing a first embodiment of the present invention.

【図2】図1内の音源量子化回路の構成を示すブロック
図である。
FIG. 2 is a block diagram showing a configuration of a sound source quantization circuit in FIG.

【図3】本発明の第2の実施の形態を示すブロック図で
ある。
FIG. 3 is a block diagram showing a second embodiment of the present invention.

【図4】図3内の音源量子化回路の構成を示すブロック
図である。
FIG. 4 is a block diagram illustrating a configuration of a sound source quantization circuit in FIG. 3;

【図5】本発明の第3の実施の形態を示すブロック図で
ある。
FIG. 5 is a block diagram showing a third embodiment of the present invention.

【図6】図5内の音源量子化回路の構成を示すブロック
図である。
FIG. 6 is a block diagram showing a configuration of a sound source quantization circuit in FIG. 5;

【図7】本発明の第4の実施の形態を示すブロック図で
ある。
FIG. 7 is a block diagram showing a fourth embodiment of the present invention.

【図8】図7内の音源量子化回路の構成を示すブロック
図である。
FIG. 8 is a block diagram showing a configuration of a sound source quantization circuit in FIG. 7;

【符号の説明】[Explanation of symbols]

1,25,29,32 音声符号化装置 2 フレーム分割回路 3 サブフレーム分割回路 4 スペクトルパラメータ計算回路 5 スペクトルパラメータ量子化回路 6 線スペクトル対パラメータコードブック(LSP
コードブック) 7 聴感重み付け回路 8 減算器 9 応答信号計算回路 10 インパルス応答計算回路 11 適応コードブック回路 12,27,30,33 音源量子化回路 13 音源コードブック 14 ゲイン量子化回路 15 ゲインコードブック 16 マルチプレクサ 17 重み付け信号計算回路 18 逆フィルタリング回路 19,28,31,35 位置シフト回路 20 自己相関計算回路 21 相互相関計算回路 22 2乗計算回路 23 割算回路 24 最大値判別回路 26 モード判別回路 34 割り当て回路
1, 25, 29, 32 Speech coding apparatus 2 Frame division circuit 3 Subframe division circuit 4 Spectrum parameter calculation circuit 5 Spectrum parameter quantization circuit 6 Line spectrum pair parameter codebook (LSP
Codebook) 7 auditory weighting circuit 8 subtractor 9 response signal calculation circuit 10 impulse response calculation circuit 11 adaptive codebook circuit 12, 27, 30, 33 sound source quantization circuit 13 sound source codebook 14 gain quantization circuit 15 gain codebook 16 Multiplexer 17 Weighting signal calculation circuit 18 Inverse filtering circuit 19, 28, 31, 35 Position shift circuit 20 Autocorrelation calculation circuit 21 Cross-correlation calculation circuit 22 Square calculation circuit 23 Division circuit 24 Maximum value determination circuit 26 Mode determination circuit 34 Assignment circuit

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平2−79100(JP,A) 特開 平5−281999(JP,A) 特開 平6−222797(JP,A) 特開 平6−266395(JP,A) 特表 平2−501166(JP,A) ────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-2-79100 (JP, A) JP-A-5-281999 (JP, A) JP-A-6-222797 (JP, A) JP-A-6-222797 266395 (JP, A) Special table Hei 2-501166 (JP, A)

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】入力した音声信号からスペクトルパラメー
タを求めて量子化するスペクトルパラメータ計算部と、
前記スペクトルパラメータを用いて前記音声信号の音源
信号をあらかじめ格納してあるコードブックを探索し量
子化して出力する音源量子化部とを有する音声符号化装
置において、 前記音源量子化部が前記コードブックを探索するとき
に、このコードブックに格納してあるコードベクトルの
中の一部について位置をシフトさせながら探索し、その
他のコードベクトルに対しては位置をシフトさせずに探
索する機能を有することを特徴とする音声符号化装置。
A spectrum parameter calculator for calculating and quantizing a spectrum parameter from an input speech signal;
A sound source quantization unit that searches for, quantizes, and outputs a codebook in which a sound source signal of the sound signal is stored in advance using the spectrum parameter, wherein the sound source quantization unit includes the codebook. When searching for, a part of the code vectors stored in this codebook is searched while shifting the position , and the
Search for other code vectors without shifting the position.
A speech encoding device having a search function.
【請求項2】入力した音声信号からスペクトルパラメー
タを求めて量子化するスペクトルパラメータ計算部と、
前記スペクトルパラメータを用いて前記音声信号の音源
信号をあらかじめ格納してあるコードブックを探索し量
子化して出力する音源量子化部とを有する音声符号化装
置において、 前記音声信号をフレーム単位に聴感重み付けを行った聴
感重み付け信号からモードを判別しモード情報を出力す
るモード判別部と、前記音源量子化部が前記コードブッ
クを探索するときに予め定められたモードでは、コード
ブックに格納されたコードベクトルの中の一部について
位置をシフトさせながら探索し、その他のコードベクト
ルに対しては位置をシフトさせずに探索する機能を有す
ることを特徴とする音声符号化装置。
2. A spectrum parameter calculation unit for obtaining and quantizing a spectrum parameter from an input speech signal,
A sound source quantization unit for searching, quantizing, and outputting a code book in which a sound source signal of the sound signal is stored in advance by using the spectrum parameter; and A mode discriminator that discriminates a mode from the perceived weighting signal and outputs mode information, and a code vector stored in the code book in a predetermined mode when the sound source quantization unit searches the code book. We searched while shifting the <br/> position for some in the other code vectors
An audio coding apparatus having a function of searching for a file without shifting its position .
【請求項3】入力した音声信号からスペクトルパラメー
タを求めて量子化するスペクトルパラメータ計算部と、
前記スペクトルパラメータを用いて前記音声信号の音源
信号を予め格納されたコードブックを探索して量子化し
て出力する音源量子化部とを有する音声符号化装置にお
いて、 前記音声信号をフレーム単位に聴感重み付けを行った聴
感重み付け信号からモードを判別しモード情報を出力す
るモード判別部と、前記音源量子化部が前記コードブッ
クを探索するときに前記コードブックに格納されたコー
ドベクトルの少なくとも一つについて位置をシフトさせ
る量を前記モード情報に応じて変化させながら探索する
機能を有することを特徴とする音声符号化装置。
3. A spectrum parameter calculator for obtaining and quantizing a spectrum parameter from an input speech signal,
A sound source quantization unit that searches for a code book in which the sound source signal of the sound signal is stored in advance by using the spectrum parameter, and quantizes and outputs the code book. A mode discrimination unit that discriminates a mode from the perceived weighting signal that has been subjected to and outputs mode information, and a position of at least one of the code vectors stored in the codebook when the sound source quantization unit searches the codebook. A function of performing a search while changing an amount by which to shift according to the mode information.
【請求項4】入力した音声信号からスペクトルパラメー
タを求めて量子化するスペクトルパラメータ計算部と、
前記スペクトルパラメータを用いて前記音声信号の音源
信号を予め格納してあるコードブックを探索し量子化し
て出力する音源量子化部とを有する音声符号化装置にお
いて、 前記音源量子化部が前記コードブックを探索するときに
このコードブックに格納された各コードベクトルごとに
定める値に従って位置をシフトさせる量を変化させなが
ら探索する機能を有することを特徴とする音声符号化装
置。
4. A spectrum parameter calculator for obtaining and quantizing a spectrum parameter from an input speech signal;
A sound source quantization unit that searches, quantizes, and outputs a codebook in which a sound source signal of the sound signal is stored in advance using the spectrum parameter, wherein the sound source quantization unit includes the codebook. A speech encoding apparatus having a function of performing a search while changing an amount of position shift according to a value determined for each code vector stored in the codebook when searching for.
JP33949295A 1995-12-26 1995-12-26 Audio coding device Expired - Fee Related JP3299099B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33949295A JP3299099B2 (en) 1995-12-26 1995-12-26 Audio coding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33949295A JP3299099B2 (en) 1995-12-26 1995-12-26 Audio coding device

Publications (2)

Publication Number Publication Date
JPH09179593A JPH09179593A (en) 1997-07-11
JP3299099B2 true JP3299099B2 (en) 2002-07-08

Family

ID=18327983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33949295A Expired - Fee Related JP3299099B2 (en) 1995-12-26 1995-12-26 Audio coding device

Country Status (1)

Country Link
JP (1) JP3299099B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000000963A1 (en) * 1998-06-30 2000-01-06 Nec Corporation Voice coder
AU2547201A (en) 2000-01-11 2001-07-24 Matsushita Electric Industrial Co., Ltd. Multi-mode voice encoding device and decoding device
JP4508490B2 (en) * 2000-09-11 2010-07-21 パナソニック株式会社 Encoding device and decoding device
CN100578619C (en) * 2007-11-05 2010-01-06 华为技术有限公司 Encoding method and encoder

Also Published As

Publication number Publication date
JPH09179593A (en) 1997-07-11

Similar Documents

Publication Publication Date Title
JP3094908B2 (en) Audio coding device
JP3196595B2 (en) Audio coding device
JP3180762B2 (en) Audio encoding device and audio decoding device
EP1005022B1 (en) Speech encoding method and speech encoding system
JP3582589B2 (en) Speech coding apparatus and speech decoding apparatus
JP3266178B2 (en) Audio coding device
JPH0944195A (en) Voice encoding device
JP3308764B2 (en) Audio coding device
JP3299099B2 (en) Audio coding device
JP3003531B2 (en) Audio coding device
JP3144284B2 (en) Audio coding device
JP3360545B2 (en) Audio coding device
JP3319396B2 (en) Speech encoder and speech encoder / decoder
JP3153075B2 (en) Audio coding device
JP2001318698A (en) Voice coder and voice decoder
JPH0519795A (en) Excitation signal encoding and decoding method for voice
JP2001142499A (en) Speech encoding device and speech decoding device
JPH0519796A (en) Excitation signal encoding and decoding method for voice
JP3089967B2 (en) Audio coding device
JP3192051B2 (en) Audio coding device
JP3471542B2 (en) Audio coding device
JPH08320700A (en) Sound coding device
JP3092654B2 (en) Signal encoding device
JP3099836B2 (en) Excitation period encoding method for speech
JP2907019B2 (en) Audio coding device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20000704

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080419

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090419

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100419

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110419

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120419

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120419

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130419

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees