JP3192051B2 - Audio coding device - Google Patents

Audio coding device

Info

Publication number
JP3192051B2
JP3192051B2 JP19459494A JP19459494A JP3192051B2 JP 3192051 B2 JP3192051 B2 JP 3192051B2 JP 19459494 A JP19459494 A JP 19459494A JP 19459494 A JP19459494 A JP 19459494A JP 3192051 B2 JP3192051 B2 JP 3192051B2
Authority
JP
Japan
Prior art keywords
gain
sound source
unit
code vector
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP19459494A
Other languages
Japanese (ja)
Other versions
JPH0844397A (en
Inventor
一範 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP19459494A priority Critical patent/JP3192051B2/en
Publication of JPH0844397A publication Critical patent/JPH0844397A/en
Application granted granted Critical
Publication of JP3192051B2 publication Critical patent/JP3192051B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To improve sound quality by a small arithmetic quantity even with a low bit rate by calculating the coefficient of a comb filter at every sub-frame and selecting a sound code vector minimizing a distortion while passing a voice signal through the comb filter. CONSTITUTION:An inputted voice signal is divided by a frame dividing circuit 110 and a sub-frame dividing circuit 120 and spectral parameters expressing spectral features of the voice signal are calculated in a spectral parameter calculating circuit 200 and then these parameters are quantized in a spectral parameter quantizing circuit 210. Then, an adaptive code book circuit 300 calculates pitch periods of the voice signal at every sub-frame and a filter circuit 320 calculates the gain of the filter of a prescribed degree having a delay corresponding to pitch periods at every frame or every sub-frame from a voice signal. Moreover, a sound source quantizing circuit 350 quantizes a sound source signal by selecting the best code vector from code vectors stored in a sound source code book 330.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は音声信号を低いビットレ
ート、特に4.8kb/s以下で高品質に符号化するための音
声符号化方式に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech encoding system for encoding a speech signal at a low bit rate, particularly at a high quality of 4.8 kb / s or less.

【0002】[0002]

【従来の技術】音声信号を4.8kb/s以下の低いビットレ
ートで符号化する方式としては、例えば、M. Schroeder
とB. A. Atal氏による“Code-excited linear predicti
on: High quality speech at low bit rates”(Proc.
ICASSP, pp.937〜940, 1985年)と題した論文(「文献
1」という)や、Kleijn氏らによる“Improved speechq
uality and efficient vector quantization in SELP”
(Proc. ICASSP, pp.155〜158, 1988年)と題した論文
(「文献2」という)等に記載されているCELP(Code E
xcited LPC Coding)が知られている。
2. Description of the Related Art M. Schroeder, for example, describes a method of encoding a speech signal at a low bit rate of 4.8 kb / s or less.
"Code-excited linear predicti by BA Atal
on: High quality speech at low bit rates ”(Proc.
ICASSP, pp. 937-940, 1985) (referred to as “Reference 1”) and “Improved speechq” by Kleijn et al.
uality and efficient vector quantization in SELP ”
(Proc. ICASSP, pp. 155-158, 1988), a CELP (Code E) described in a paper (referred to as “Reference 2”), etc.
xcited LPC Coding) is known.

【0003】この方式においては、送信側では、フレー
ム毎(例えば20ms)に音声信号から線形予測(LP
C)分析を用いて、音声信号のスペクトル特性を表わす
スペクトルパラメータを抽出し、フレームをさらにサブ
フレーム(例えば5ms)に分割し、サブフレーム毎に
過去の音源信号をもとに適応コードブックにおけるパラ
メータ(遅延パラメータとゲインパラメータ)を抽出
し、適応コードブックにより前記サブフレームの音声信
号をピッチ予測し、ピッチ予測して求めた残差信号に対
して、予め定められた種類の雑音信号からなる音源コー
ドブック(ベクトル量子化コードブック)から最適な音
源コードベクトルを選択し最適なゲインを計算する。
[0003] In this system, the transmitting side performs linear prediction (LP) from a speech signal every frame (for example, 20 ms).
C) Spectral parameters representing the spectral characteristics of the audio signal are extracted using analysis, the frame is further divided into subframes (for example, 5 ms), and a parameter in the adaptive codebook is determined for each subframe based on a past sound source signal. (Delay parameter and gain parameter), and the speech signal of the sub-frame is pitch-predicted by an adaptive codebook, and the residual signal obtained by pitch prediction is a sound source composed of a predetermined type of noise signal. An optimal sound source code vector is selected from a codebook (vector quantization codebook) and an optimal gain is calculated.

【0004】音源コードベクトルの選択の仕方は、選択
した雑音信号により合成した信号と、前記残差信号との
誤差電力を最小化するようにして行う。
[0004] The method of selecting the excitation code vector is such that the error power between the signal synthesized from the selected noise signal and the residual signal is minimized.

【0005】そして、選択された音源コードベクトルの
種類を表わすインデクスとゲイン、ならびに、前記スペ
クトルパラメータと適応コードブックのパラメータを伝
送する。
[0005] Then, an index and a gain representing the type of the selected excitation code vector, the spectrum parameters and the parameters of the adaptive codebook are transmitted.

【0006】受信側の復号化装置では、送信側の符号化
装置から伝送された、コードベクトルのインデクスとゲ
イン、スペクトルパラメータ等の伝送符号に基づき、音
声信号を合成する。なお、復号化装置の構成は、本発明
の主題に直接関係しないため、その説明を省略する。
[0006] The decoding device on the receiving side synthesizes a speech signal based on the transmission code such as the index of the code vector, the gain, and the spectrum parameter transmitted from the encoding device on the transmitting side. It should be noted that the configuration of the decoding device is not directly related to the subject of the present invention, and a description thereof will be omitted.

【0007】[0007]

【発明が解決しようとする課題】上述した文献1、2の
従来の音声符号化方式では、ビットレートを低減化する
とコードブックのサイズが小さくなり、特に女性音の音
質が急激に劣化するという問題があった。
In the conventional speech coding systems of the above-mentioned references 1 and 2, when the bit rate is reduced, the size of the code book becomes smaller, and the sound quality of female sounds in particular deteriorates rapidly. was there.

【0008】この問題を解決するために、送信側で音源
信号に対してコムフィルタリング(「コムフィルタによ
るフィルタ処理」の意味)を行い、音源信号のピッチ性
を強調させることにより音質を改善する方法が提案され
ている。
In order to solve this problem, a method of performing comb filtering (meaning "filtering by a comb filter") on a sound source signal on a transmission side to enhance the pitch characteristics of the sound source signal to improve sound quality. Has been proposed.

【0009】この方法の詳細は、例えばS.Wang氏らによ
る“Improved Excitation for Phonetically-Segmented
VXC Speech Coding Below 4kb/s”(Proc. GLOBECOM,
pp.946〜950, 1990)と題した論文(「文献3」とい
う)等を参照できる。
The details of this method are described in, for example, “Improved Excitation for Phonetically-Segmented” by S. Wang et al.
VXC Speech Coding Below 4kb / s ”(Proc. GLOBECOM,
pp. 946-950, 1990) and the like (referred to as “Reference 3”).

【0010】しかしながら、文献3の方法を使用する
と、音質は改善されるものもあるが、適応コードブック
と音源コードブックの両者の探索の時に、全てのコード
ベクトルにコムフィルタリングを施しているために、演
算量が膨大となり、コムフィルタのゲインを一定値とし
ているために、コムフィルタリングにより常に効果が得
られるとは限らず、逆に劣化するものもある、等の問題
がある。
[0010] However, when the method of Reference 3 is used, the sound quality can be improved in some cases. However, when searching both the adaptive codebook and the sound source codebook, all code vectors are subjected to comb filtering. However, since the amount of calculation becomes enormous and the gain of the comb filter is set to a constant value, the effect is not always obtained by the comb filtering, and there is a problem that the effect is deteriorated in some cases.

【0011】従って、本発明の目的は、上述した問題点
を解決し、比較的少ない演算量及びメモリ量により、4.
8kb/s以下で音質の良好な音声符号化方式を提供するこ
とにある。
[0011] Accordingly, an object of the present invention is to solve the above-mentioned problems and to achieve a relatively small amount of calculation and a small amount of memory.
An object of the present invention is to provide a speech coding system with good sound quality at 8 kb / s or less.

【0012】[0012]

【課題を解決するための手段】前記目的は、本発明にお
いては、音声信号を入力し予め定められた時間長のフレ
ームに分割し、前記フレームの音声信号をフレームより
も時間的に短い複数個のサブフレームに分割し、前記音
声信号のスペクトル的特徴を表わすスペクトルパラメー
タを求めるスペクトルパラメータ計算部と、前記スペク
トルパラメータを量子化するスペクトルパラメータ量子
化部と、サブフレーム毎に過去の音源信号を用いて音声
信号のピッチ周期を求める適応コードブック部と、前記
ピッチ周期に応じた遅延を有する、予め定められた次数
のフィルタのゲインを、前記フレーム毎に又は前記サブ
フレーム毎に前記音声信号又は前記音声信号から適応コ
ードブック信号を減算した適応コードブック残差信号か
ら計算し、前記遅延と前記ゲインを用いてフィルタを計
算するフィルタ部と、音源コードブックに格納されたコ
ードベクトルの少なくとも一部を、前記フィルタ部に通
しながら、前記適応コードブック残差信号に対して最良
のコードベクトルを選択して音源信号を量子化する音源
量子化部と、前記スペクトルパラメータ量子化部と、前
記適応コードブック部と、前記音源量子化部と、前記フ
ィルタ部と、のそれぞれの出力信号を組み合わせて出力
するマルチプレクサ部と、を有することを特徴とする音
声符号化装置(「第1の視点」という)により達成され
る。
SUMMARY OF THE INVENTION The object of the present invention is to provide a method and apparatus for inputting an audio signal, dividing the input signal into frames of a predetermined time length, and converting the audio signal of the frame into a plurality of frames shorter in time than the frame. Using a past sound source signal for each subframe, a spectrum parameter calculation unit for obtaining a spectrum parameter representing a spectral feature of the audio signal, a spectrum parameter quantization unit for quantizing the spectrum parameter, an adaptive codebook section for obtaining the pitch period of the speech signal Te, the having a delay corresponding to a pitch period, a gain of the order of the filter to a predetermined, the audio signal or said for each of the frame or for each of the sub-frame Adaptive signal from audio signal
A filter unit that calculates a filter using the delay and the gain by calculating from the adaptive codebook residual signal obtained by subtracting the codebook signal, and at least a part of the code vector stored in the sound source codebook to the filter unit. An excitation quantizer for selecting a best code vector for the adaptive codebook residual signal and quantizing an excitation signal, the spectrum parameter quantization unit, the adaptive codebook unit, This is achieved by a speech encoding device (referred to as a “first viewpoint”) including a quantization unit and a multiplexer unit that combines and outputs respective output signals of the filter unit.

【0013】また、本発明に関連して、第2の視点にお
いて、音声信号を入力し予め定められた時間長のフレー
ムに分割し、前記フレームの音声信号をフレームよりも
時間的に短い複数個のサブフレームに分割し、前記音声
信号のスペクトル的特徴を表わすスペクトルパラメータ
を求めるスペクトルパラメータ計算部と、前記スペクト
ルパラメータを量子化するスペクトルパラメータ量子化
部と、サブフレーム毎に音声信号のピッチ周期を求める
適応コードブック部と、前記ピッチ周期に応じた遅延を
有する、予め定められた次数のフィルタのゲインを、前
記フレーム毎に又は前記サブフレーム毎に前記音声信号
又は適応コードブック残差信号から計算するフィルタ部
と、音源コードブックに格納されたコードベクトルから
最良のコードベクトルを選択した後に前記フィルタ部に
通して音源信号を量子化する音源量子化部と、前記スペ
クトルパラメータ量子化部と、前記適応コードブック部
と、前記音源量子化部と、前記フィルタ部と、のそれぞ
れの出力信号を組み合わせて出力するマルチプレクサ部
と、を有するようにしてもよい。
In a second aspect of the present invention , in a second aspect, an audio signal is input and divided into frames having a predetermined time length, and the audio signal of the frame is divided into a plurality of frames which are temporally shorter than the frame. And a spectrum parameter calculation unit for obtaining a spectrum parameter representing a spectral characteristic of the audio signal, a spectrum parameter quantization unit for quantizing the spectrum parameter, and a pitch period of the audio signal for each subframe. The adaptive codebook section to be obtained and the gain of a filter of a predetermined order having a delay according to the pitch period are calculated from the audio signal or adaptive codebook residual signal for each frame or each subframe. Filter, and the best code vector from the code vector stored in the sound source code book. A sound source quantization unit that quantizes a sound source signal through the filter unit after selecting a filter, the spectrum parameter quantization unit, the adaptive codebook unit, the sound source quantization unit, the filter unit, And a multiplexer unit that combines and outputs the respective output signals .

【0014】さらに、本発明は、第3の視点において、
音声信号を入力し予め定められた時間長のフレームに分
割し、前記フレームの音声信号をフレームよりも時間的
に短い複数個のサブフレームに分割し、前記音声信号の
スペクトル的特徴を表わすスペクトルパラメータを求め
るスペクトルパラメータ計算部と、前記スペクトルパラ
メータを量子化するスペクトルパラメータ量子化部と、
サブフレーム毎に音声信号のピッチ周期を求める適応コ
ードブック部と、音源コードブックに格納された音源コ
ードベクトルの少なくとも一部を、前記ピッチ周期に応
じた遅延を有する、予め定められた次数のフィルタに通
すと共に、ゲインコードブックから選択したゲインコー
ドベクトルにより前記適応コードブック部のゲイン、前
記音源コードベクトルのゲイン、及び前記フィルタのゲ
インのうち少なくとも一のゲインを量子化して、最良の
音源コードベクトル及び最良のゲインコードベクトルを
選択する音源・ゲイン量子化部と、前記スペクトルパラ
メータ量子化部と、前記適応コードブック部と、前記音
源・ゲイン量子化部と、のそれぞれの出力信号を組み合
わせて出力するマルチプレクサ部と、を有することを特
徴とする音声符号化装置を提供する。
Further, the present invention provides, in a third aspect,
An audio signal is input and divided into frames of a predetermined time length, and the audio signal of the frame is divided into a plurality of subframes that are temporally shorter than the frame, and spectral parameters representing spectral characteristics of the audio signal. A spectrum parameter calculation unit for calculating, a spectrum parameter quantization unit for quantizing the spectrum parameter,
An adaptive codebook unit for determining a pitch cycle of a speech signal for each subframe, and a filter of a predetermined order having at least a part of the excitation code vector stored in the excitation codebook, having a delay corresponding to the pitch cycle. And quantizing at least one of the gain of the adaptive codebook unit, the gain of the excitation code vector, and the gain of the filter by the gain code vector selected from the gain code book, and the best excitation code vector And the output signal of the excitation / gain quantization unit for selecting the best gain code vector, the spectrum parameter quantization unit, the adaptive codebook unit, and the excitation / gain quantization unit. Codec having a multiplexer section To provide a device.

【0015】そして、本発明に関連して、第4の視点に
おいて、音声信号を入力し予め定められた時間長のフレ
ームに分割し前記フレームの音声信号をフレームよりも
時間的に短い複数個のサブフレームに分割し前記音声信
号のスペクトル的特徴を表わすスペクトルパラメータを
求めるスペクトルパラメータ計算部と、前記スペクトル
パラメータを量子化するスペクトルパラメータ量子化部
と、サブフレーム毎に音声信号のピッチ周期を求める適
応コードブック部と、音源コードブックに格納されたコ
ードベクトルから最良のコードベクトルを選択した後
に、前記ピッチ周期に応じた遅延を有する、予め定めら
れた次数のフィルタに通し、前記フィルタのゲインを計
算し、ゲインコードブックを用いてゲインを量子化する
音源・ゲイン量子化部と、前記スペクトルパラメータ量
子化部と、前記コードブック部と、前記音源・ゲイン量
子化部と、のそれぞれの出力信号を組み合わせて出力す
るマルチプレクサ部と、を有するようにしてもよい。
According to a fourth aspect of the present invention , in the fourth aspect, an audio signal is input, divided into frames having a predetermined time length, and the audio signal of the frame is divided into a plurality of frames which are temporally shorter than the frame. A spectrum parameter calculation unit that divides into subframes to obtain a spectrum parameter representing a spectral feature of the audio signal; a spectrum parameter quantization unit that quantizes the spectrum parameter; and an adaptation to obtain a pitch period of the audio signal for each subframe. After selecting the best code vector from the code vector portion and the code vector stored in the sound source code book, the filter is passed through a filter of a predetermined order having a delay according to the pitch period, and the gain of the filter is calculated. Source and gain quantization that uses the gain codebook to quantize the gain When, with the spectral parameter quantization unit, the code book portion, the sound source gain quantization section, each of the multiplexer to combine the output signal to the output of, it may have a.

【0016】本発明は、第1及び第3の視点において、
前記音源コードブックに格納されたコードベクトルの全
てを前記フィルタ部に通すようにしてもよい。
The present invention provides, in first and third aspects,
All of the code vectors stored in the sound source codebook may be passed through the filter unit.

【0017】また、本発明は、第3及び第4の視点にお
いて、音源・ゲイン量子化部は、好ましくは、前記適応
コードブック部から遅延を入力し、ゲインコードブック
からフィルタのゲインを読み出して、前記遅延及びゲイ
ンに基づき音源コードブックから読み出した音源コード
ベクトルに対してフィルタ処理を行なうフィルタ回路
と、前記フィルタ回路の出力を入力すると共に、ゲイン
コードブックからゲインコードベクトル、適応コードブ
ック部のゲイン、音源コードベクトルのゲインを量子化
して歪を計算する歪計算回路と、前記歪を最小化するよ
うな音源コードベクトルとゲインコードベクトルの最適
な組み合わせを選択する判別回路とから構成される。
According to the present invention, in the third and fourth aspects, the sound source / gain quantizing unit preferably inputs a delay from the adaptive codebook unit, reads out a gain of the filter from the gain codebook, and A filter circuit that performs a filtering process on a sound source code vector read from a sound source code book based on the delay and the gain, and an output of the filter circuit, and a gain code vector from the gain code book and an adaptive code book unit. It comprises a distortion calculation circuit that quantizes the gain and the gain of the excitation code vector to calculate distortion, and a discrimination circuit that selects an optimal combination of the excitation code vector and the gain code vector that minimizes the distortion.

【0018】さらに、本発明においては、前記フィルタ
が、非再帰型又は再帰型のいずれかのフィルタで構成さ
れ、好ましくは、次数が1ないし3の非再帰型フィルタ
で構成される。
Further, in the present invention, the filter is constituted by either a non-recursive filter or a recursive filter, and is preferably constituted by a non-recursive filter having an order of 1 to 3.

【0019】[0019]

【作用】本発明に係る音声符号化装置の原理・作用を以
下に詳説する。
The principle and operation of the speech encoding apparatus according to the present invention will be described in detail below.

【0020】音声信号をフレーム(例えば40ms)に
分割し、さらにサブフレーム(例えば8ms)に分割す
る。フレーム毎に音声のスペクトル的特徴を表わすスペ
クトルパラメータを計算し量子化する。
The audio signal is divided into frames (for example, 40 ms), and further divided into subframes (for example, 8 ms). Calculate and quantize spectral parameters representing spectral features of speech for each frame.

【0021】適応コードブック部では、サブフレーム毎
に、音声のピッチ周期に対応する遅延を計算する。
The adaptive codebook section calculates a delay corresponding to the pitch cycle of the speech for each subframe.

【0022】フィルタ部では、適応コードブック部と同
一の遅延を有し、予め定められた次数Mのコムフィルタ
のゲインを、フレーム毎にあるいはサブフレーム毎に計
算する。
The filter section has the same delay as that of the adaptive code book section, and calculates the gain of a predetermined order M comb filter for each frame or for each subframe.

【0023】コムフィルタの構成としては、再帰型(A
R型;「AR」はAuto Regressive略)と非再帰型(MA
型;「MA」はMoving Averageの略)の2種あるが、以下
では、非再帰型(「MA型コムフィルタ」という)を用
いることにする。また、MA型コムフィルタの次数Mは
1とする。
The comb filter has a recursive type (A
R type; "AR" stands for Auto Regressive) and non-recursive type (MA
Type; "MA" stands for Moving Average, but in the following, a non-recursive type ("MA type comb filter") will be used. The order M of the MA-type comb filter is 1.

【0024】コムフィルタのゲインは、以下では、サブ
フレーム毎に、適応コードブック部によりピッチ予測し
て求めた残差信号から計算するものとする。
In the following, the gain of the comb filter is calculated for each subframe from the residual signal obtained by pitch prediction by the adaptive codebook unit.

【0025】音源量子化部では、音源コードブックに格
納された音源コードベクトルの一部あるいは全部につい
て、次式(1)によりコムフィルタリングを行う。
The sound source quantization section performs comb filtering on a part or all of the sound source code vectors stored in the sound source code book according to the following equation (1).

【0026】cjz(n)=cj(n)+η・cj(n−T) …(1)C jz (n) = c j (n) + η · c j (n−T) (1)

【0027】上式(1)において、cj(n)はj番目の音源コ
ードベクトル、ηはMA型コムフィルタのゲインであ
る。Tは適応コードブックにおいて求められた遅延であ
る。
In the above equation (1), c j (n) is the j-th sound source code vector, and η is the gain of the MA type comb filter. T is the delay determined in the adaptive codebook.

【0028】コムフィルタリングされた音源コードベク
トルを用いて、次式(2)の歪を最小化にする最良の音源
コードベクトルを1種類あるいは複数種類選択する。
Using the comb-filtered excitation code vector, one or more of the best excitation code vectors for minimizing the distortion of the following equation (2) are selected.

【0029】[0029]

【数1】 (Equation 1)

【0030】上式(2)において、xw(n)は聴感重み付け
信号、βは適応コードブック部のゲイン、v(n)は適応コ
ードベクトル、γjは音源コードベクトルcj(n)の最適ゲ
イン、hw(n)は聴感重み付け合成フィルタのインパルス
応答である。上式(2)において、cjz(n)*hw(n)の演算記
号*は、cjz(n)とインパルス応答hw(n)の畳み込み演算
(コンボルーション)を表わしている。
In the above equation (2), x w (n) is the perceptual weighting signal, β is the gain of the adaptive codebook section, v (n) is the adaptive code vector, and γ j is the sound source code vector c j (n). The optimal gain, h w (n), is the impulse response of the auditory weighting synthesis filter. In the above equation (2), the operation symbol * of c jz (n) * h w (n) represents the convolution operation (convolution) of c jz (n) and the impulse response h w (n).

【0031】ここで、上式(2)と等価な関係として、次
式(3)に従い音源コードベクトルを選択することもでき
る。
Here, as a relation equivalent to the above equation (2), the excitation code vector can be selected according to the following equation (3).

【0032】[0032]

【数2】 (Equation 2)

【0033】ただし、 h'w(n)=hw(n)+η・hw(n−T) …(4) である。Here, h ′ w (n) = h w (n) + η · h w (n−T) (4)

【0034】この場合、音源コードベクトルをコムフィ
ルタに通す処理は、インパルス応答hw(n)をh'w(n)のよ
うに修正することと等価となる。
In this case, the process of passing the sound source code vector through the comb filter is equivalent to modifying the impulse response h w (n) to h ′ w (n).

【0035】本発明は、第2の視点において、最良の音
源コードベクトルを選択した後に、上式(2)あるいは(3)
により、音源コードベクトルをコムフィルタリングしな
がらゲインγjを計算する。
According to the present invention, in the second viewpoint, after selecting the best excitation code vector, the above equation (2) or (3)
Calculates the gain γ j while comb filtering the sound source code vector.

【0036】本発明は、第3の視点において、コムフィ
ルタのゲインは予め計算しておくことなく、コムフィル
タリングしながら最良の音源コードベクトルを選択する
際に、ゲインコードブックからゲインコードベクトルを
選択してゲインを量子化しながら行い、歪を最小にする
音源コードベクトル、ゲインコードベクトルの組み合わ
せを選択する。
According to a third aspect of the present invention, when the best excitation code vector is selected while performing comb filtering without selecting the gain of the comb filter in advance, the gain code vector is selected from the gain codebook. The quantization is performed while quantizing the gain, and a combination of a sound source code vector and a gain code vector that minimizes distortion is selected.

【0037】以下では、適応コードブックのゲインと、
音源コードベクトルのゲインと、コムフィルタのゲイン
とを一括してゲインコードブックにより量子化する例に
ついて示す。選択は次式(5)に従う。
In the following, the gain of the adaptive codebook and
An example in which the gain of a sound source code vector and the gain of a comb filter are quantized collectively by a gain codebook will be described. The selection follows the following equation (5).

【0038】[0038]

【数3】 (Equation 3)

【0039】ここで、(β'k, γ'k, η'k)は3次元ゲ
インコードブックにおけるk番目のゲインコードベクト
ルである。ただし、k=0〜2B−1、Bはゲインコードブ
ックのビット数である。
Here, (β ′ k , γ ′ k , η ′ k ) is the k-th gain code vector in the three-dimensional gain code book. However, k = 0~2 B -1, B is the number of bits gain codebook.

【0040】ゲインコードベクトルと音源コードベクト
ルの組み合わせに対して上式(5)を計算し、上式(5)で求
めた歪を最小化する組み合わせを選択する。
The above equation (5) is calculated for the combination of the gain code vector and the excitation code vector, and the combination that minimizes the distortion obtained by the above equation (5) is selected.

【0041】なお、上式(5)と等価な関係にある式とし
て、次式(6)を用いて選択を行ってもよい。
The selection may be made using the following equation (6) as an equation having an equivalent relation to the above equation (5).

【0042】[0042]

【数4】 (Equation 4)

【0043】ただし h'wk(n)=hw(n)+η'k・hw(n−T) …(7) である。Where h ′ wk (n) = h w (n) + η ′ k · h w (n−T) (7)

【0044】本発明は、第4の視点において、コムフィ
ルタのゲインを予め計算しておくことなく、最良の音源
コードベクトルを選択した後に、式(2)あるいは式(3)を
最小化するように、コムフィルタのゲインを計算し、そ
の後、ゲインコードブックを用いてゲインを量子化す
る。
According to the present invention, in the fourth aspect, after selecting the best excitation code vector without previously calculating the gain of the comb filter, the equation (2) or (3) is minimized. Then, the gain of the comb filter is calculated, and then the gain is quantized using the gain codebook.

【0045】以上のように、本発明によれば、サブフレ
ーム毎に又はフレーム毎にコムフィルタの係数を計算
し、音源コードベクトルの全て又は一部に対してコムフ
ィルタを通しながら歪を最小化する音源コードベクトル
を選択するか、音源を1種類選択した後にコムフィルタ
を通してゲインコードベクトルと音源コードベクトルの
組み合わせを選択するか、音源コードベクトルの全て又
は一部に対してコムフィルタを通してゲインコードベク
トルと音源コードベクトルの組み合わせを選択するかし
ているため、低ビットレートでも比較的少ない演算量で
音質の改善を行うことができる。
As described above, according to the present invention, the coefficients of the comb filter are calculated for each sub-frame or frame, and distortion is minimized while passing all or a part of the excitation code vector through the comb filter. Select a sound source code vector to perform, select one type of sound source and then select a combination of a gain code vector and a sound source code vector through a comb filter, or select all or part of the sound source code vector through a comb filter to obtain a gain code vector. Or a combination of the sound source code vector and the sound source code vector, the sound quality can be improved with a relatively small amount of calculation even at a low bit rate.

【0046】[0046]

【実施例】図面を参照して、本発明を実施例に即して以
下に説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the drawings.

【0047】[0047]

【実施例1】図1は本発明の音声符号化方式の一実施例
の構成を示すブロック図である。
[Embodiment 1] FIG. 1 is a block diagram showing the configuration of an embodiment of a speech encoding system according to the present invention.

【0048】図1において、入力端子100から音声信号
を入力し、フレーム分割回路110では音声信号をフレー
ム(例えば40ms)毎に分割し、サブフレーム分割回
路120では、フレームの音声信号をフレームよりも短い
サブフレーム(例えば8ms)に分割する。
In FIG. 1, an audio signal is input from an input terminal 100, an audio signal is divided by a frame dividing circuit 110 for each frame (for example, 40 ms), and an audio signal of a frame is divided by a sub-frame dividing circuit 120 into frames. It is divided into short subframes (for example, 8 ms).

【0049】スペクトルパラメータ計算回路200では、
少なくとも一つのサブフレームの音声信号に対して、サ
ブフレーム長よりも長い窓(例えば24ms)をかけて
音声を切り出してスペクトルパラメータを予め定められ
た次数(例えばP=10次)計算する。
In the spectrum parameter calculation circuit 200,
The speech signal is cut out by applying a window (for example, 24 ms) longer than the subframe length to the speech signal of at least one subframe, and the spectral parameter is calculated in a predetermined order (for example, P = 10th order).

【0050】スペクトルパラメータは、特に、子音、母
音間での過渡区間では時間的に大きく変化するので、短
い時間毎に分析する方が望ましいが、そのようにすると
分析に必要な演算量が増大するため、ここでは、フレー
ム中のいずれかL個(L>1)のサブフレーム(例えば
L=3とし、第1、3、5サブフレーム)に対してスペ
クトルパラメータを計算することにする。
Since the spectral parameters greatly change with time in a transition section between a consonant and a vowel, it is desirable to analyze the spectral parameters every short time. However, doing so increases the amount of calculation required for the analysis. Therefore, here, the spectral parameters are calculated for any L (L> 1) subframes (eg, L = 3, first, third, and fifth subframes) in the frame.

【0051】そして、分析をしなかったサブフレーム
(ここでは第2、4サブフレーム)では、それぞれ、第
1と第3サブフレーム、第3と第5サブフレームのスペ
クトルパラメータを、後述のLSP(線スペクトル対)
上で直線補間したものをスペクトルパラメータとして用
いる。
Then, in the sub-frames not analyzed (here, the second and fourth sub-frames), the spectral parameters of the first and third sub-frames and the third and fifth sub-frames are respectively changed to the LSP (described later). Line spectrum pair)
The above linearly interpolated values are used as spectral parameters.

【0052】ここでスペクトルパラメータの計算には、
周知のLPC分析(線形予測符号化)や、Burg分析
等を用いることができる。
Here, the calculation of the spectrum parameters includes:
Known LPC analysis (linear predictive coding), Burg analysis, or the like can be used.

【0053】本実施例では、Burg分析を用いること
とする。なお、最大エントロピー法(MEM)に基づく
スペクトル推定法であるBurg分析の詳細について
は、中溝著による“信号解析とシステム同定”と題した
単行本(コロナ社1988年刊)の第82〜87頁(「文献4」
という)に記載されているので、説明は省略する。
In this embodiment, Burg analysis is used. For details of Burg analysis, which is a spectrum estimation method based on the maximum entropy method (MEM), see the book entitled "Signal Analysis and System Identification" by Nakamizo (Corona Publishing Co., 1988), pp. 82-87 (" Reference 4 "
), And the description is omitted.

【0054】スペクトルパラメータ計算回路200では、
Burg法により計算された線形予測係数αi(i=1
〜10)を量子化や補間に適したLSPパラメータに変換
する。
In the spectrum parameter calculation circuit 200,
Linear prediction coefficient α i (i = 1) calculated by the Burg method
To 10) are converted into LSP parameters suitable for quantization and interpolation.

【0055】ここで、線形予測係数からLSPへの変換
は、菅村他による“線スペクトル対(LSP)音声分析
合成方式による音声情報圧縮”と題した論文(電子通信
学会論文誌、J64-A, pp.599〜606, 1981年)(「文献
5」という)を参照することができる。なお、LSPは
スペクトルを線スペクトル対(Line Spectrum Pair)で
求め周波数軸上での量子化効率を上げるものである。
Here, the conversion from the linear prediction coefficients to the LSP is performed by a paper entitled "Speech Information Compression by Line Spectrum Pair (LSP) Speech Analysis / Synthesis Method" by Sugamura et al. (Transactions of IEICE, J64-A, pp. 599-606, 1981) (referred to as "Reference 5"). Note that the LSP obtains a spectrum by a line spectrum pair (Line Spectrum Pair) and increases the quantization efficiency on the frequency axis.

【0056】第1、3、5サブフレームでBurg法に
より求めた線形予測係数を、LSPパラメータに変換
し、第2、4サブフレームのLSPを直線補間により求
めて、第2、4サブフレームのLSPを逆変換して線形
予測係数に戻し、第1〜5サブフレームの線形予測係数
αil(i=1〜10,l=1〜5)を聴感重み付け回路
230に出力する。また、第1〜5サブフレームのLSP
をスペクトルパラメータ量子化回路210へ出力する。
The linear prediction coefficients obtained by the Burg method in the first, third, and fifth subframes are converted into LSP parameters, and the LSPs of the second and fourth subframes are obtained by linear interpolation. The LSP is inversely transformed back to the linear prediction coefficients, and the linear prediction coefficients α il (i = 1 to 10, l = 1 to 5) of the first to fifth subframes are perceptual weighting circuits
Output to 230. Also, the LSPs of the first to fifth subframes
Is output to the spectrum parameter quantization circuit 210.

【0057】スペクトルパラメータ量子化回路210で
は、予め定められたサブフレームのLSPパラメータを
効率的に量子化する。
The spectrum parameter quantization circuit 210 efficiently quantizes LSP parameters of a predetermined subframe.

【0058】以下では、量子化法として、ベクトル量子
化を用いるものとし、第5サブフレームのLSPパラメ
ータを量子化するものとする。LSPパラメータのベク
トル量子化の手法は周知の手法を用いることができる。
具体的な方法は例えば、本願発明者による一連の発明、
即ち、特開平4-171500号公報(特願平2-297600号)
(「文献6」という)、特開平4-363000号公報(特願平
3-261925号)(「文献7」という)、及び特開平5-6199
号公報(特願平3-155949号)(「文献8」という)、あ
るいはT. Nomuraらによる“LSP Coding Using VQ-SVQ W
ith Interpolationin 4.075 kbps M-LCELP Speech Code
r”と題した論文(Proc. Mobile Multimedia Communica
tions, pp.B.2.5, 1993)(「文献9」という)等を参
照できるため、ここでは説明は略する。
In the following, it is assumed that vector quantization is used as a quantization method, and that the LSP parameter of the fifth subframe is quantized. A well-known method can be used for the method of vector quantization of LSP parameters.
A specific method is, for example, a series of inventions by the present inventor,
That is, JP-A-4-171500 (Japanese Patent Application No. 2-297600)
(Referred to as “Document 6”), Japanese Patent Application Laid-Open No.
3-261925) (referred to as "Reference 7") and JP-A-5-6199.
Publication (Japanese Patent Application No. 3-155949) (referred to as “Reference 8”) or “LSP Coding Using VQ-SVQ W” by T. Nomura et al.
ith Interpolationin 4.075 kbps M-LCELP Speech Code
r ”(Proc. Mobile Multimedia Communica
tions, pp.B.2.5, 1993) (referred to as “Reference 9”) and the like, and therefore, the description is omitted here.

【0059】また、スペクトルパラメータ量子化回路21
0では、第5サブフレームで量子化したLSPパラメー
タをもとに、第1〜第4サブフレームのLSPパラメー
タを復元する。
The spectrum parameter quantization circuit 21
In 0, the LSP parameters of the first to fourth subframes are restored based on the LSP parameters quantized in the fifth subframe.

【0060】ここでは、現フレームの第5サブフレーム
の量子化LSPパラメータと1つ過去のフレームの第5
サブフレームの量子化LSPを直線補間して、第1〜第
4サブフレームのLSPを復元する。
Here, the quantization LSP parameter of the fifth sub-frame of the current frame and the fifth
The LSPs of the first to fourth subframes are restored by linearly interpolating the quantized LSPs of the subframes.

【0061】ここで、量子化前のLSPと量子化後のL
SPとの誤差電力を最小化するコードベクトルを1種類
選択した後に、直線補間により第1〜第4サブフレーム
のLSPを復元できる。
Here, LSP before quantization and LSP after quantization
After selecting one type of code vector that minimizes the error power with respect to the SP, the LSPs of the first to fourth sub-frames can be restored by linear interpolation.

【0062】さらに性能を向上させるためには、前記誤
差電力を最小化するコードベクトルを複数候補選択した
のちに、各々の候補について、累積歪を評価し、累積歪
を最小化する候補と補間LSPの組を選択するようにす
ることができる。詳細は、例えば、本願発明者による特
願平5-8737号明細書(「文献10」という)に記載され
ている。
In order to further improve the performance, after selecting a plurality of code vectors for minimizing the error power, the cumulative distortion is evaluated for each candidate, and the candidate for minimizing the cumulative distortion and the interpolation LSP are interpolated. Can be selected. The details are described, for example, in Japanese Patent Application No. 5-8737 (referred to as “Document 10”) by the present inventor.

【0063】以上により復元した第1〜4サブフレーム
のLSPと第5サブフレームの量子化LSPをサブフレ
ーム毎に線形予測係数α’il(i=1〜10,l=1〜
5)に変換し、インパルス応答計算回路310へ出力す
る。
The LSPs of the first to fourth sub-frames and the quantized LSP of the fifth sub-frame, which have been reconstructed as described above, are assigned to the linear prediction coefficient α ′ il (i = 1 to 10, l = 1 to
5), and outputs the result to the impulse response calculation circuit 310.

【0064】また、第5サブフレームの量子化LSPの
コードベクトルを表わすインデクスをマルチプレクサ50
0に出力する。
The index representing the code vector of the quantized LSP of the fifth sub-frame is
Output to 0.

【0065】上記において、直線補間のかわりに、LS
Pの補間パターンを予め定められたビット数(例えば2
ビット)分用意しておき、これらのパターンの各々に対
して1〜4サブフレームのLSPを復元して累積歪を最
小化するコードベクトルと補間パターンの組を選択する
ようにしてもよい。
In the above, instead of linear interpolation, LS
The interpolation pattern of P is determined by a predetermined number of bits (for example, 2 bits).
Bits), and a set of a code vector and an interpolation pattern that minimizes cumulative distortion by restoring LSPs of 1 to 4 subframes for each of these patterns may be selected.

【0066】このようにすると補間パターンのビット数
だけ伝送情報が増加するが、LSPのフレーム内での時
間的な変化をより精密に表わすことができる。
In this way, the transmission information increases by the number of bits of the interpolation pattern. However, the temporal change in the LSP frame can be represented more precisely.

【0067】ここで、補間パターンは、トレーニング用
のLSPデータを用いて予め学習して作成してもよい
し、予め定められたパターンを格納しておいてもよい。
予め定められたパターンとしては、例えば、T. Taniguc
hiらによる“Improved CELP speech coding at 4kb/s a
nd below”と題した論文(Proc. ICSLP, pp.41〜44, 19
92)(「文献11」という)等に記載のパターンを用い
ることができる。
Here, the interpolation pattern may be created by learning in advance using LSP data for training, or a predetermined pattern may be stored.
As the predetermined pattern, for example, T. Taniguc
“Improved CELP speech coding at 4kb / sa” by hi et al.
nd below ”(Proc. ICSLP, pp.41-44, 19
92) (referred to as “Document 11”) and the like.

【0068】また、さらに性能を改善するためには、補
間パターンを選択した後に、予め定められたサブフレー
ムにおいて、LSPの真の値とLSPの補間値との誤差
信号を求め、前記誤差信号をさらに誤差コードブックで
表わすようにしてもよい。詳細は、前記文献9等を参照
できる。
In order to further improve the performance, after selecting the interpolation pattern, an error signal between the true value of the LSP and the interpolation value of the LSP is determined in a predetermined subframe, and the error signal is calculated. Further, it may be represented by an error code book. For details, reference can be made to the aforementioned reference 9.

【0069】聴感重み付け回路230は、スペクトルパラ
メータ計算回路200から、各サブフレーム毎に量子化前
の線形予測係数αil(i=1〜10,l=1〜5)を入
力し、前記文献10に基づき、サブフレームの音声信号
に対して聴感重み付けを行い、聴感重み付け信号xw(n)
を出力する。
The perceptual weighting circuit 230 receives the linear prediction coefficient α il (i = 1 to 10, l = 1 to 5) before quantization for each subframe from the spectrum parameter calculation circuit 200, and Based on the perceptual weighting of the audio signal of the sub-frame, the perceptual weighting signal x w (n)
Is output.

【0070】応答信号計算回路240は、スペクトルパラ
メータ計算回路200から、各サブフレーム毎に線形予測
係数αilを入力し、スペクトルパラメータ量子化回路21
0から、量子化、補間して復元した線形予測係数α’il
をサブフレーム毎に入力し、保存されているフィルタメ
モリの値を用いて、入力信号d(n)=0とした応答信号を
1サブフレーム分計算し、減算器250へ出力する。ここ
で、応答信号xz(n)は次式(8)で表される。
The response signal calculation circuit 240 receives the linear prediction coefficient α il for each subframe from the spectrum parameter calculation circuit 200 and
From 0, the linear prediction coefficient α ' il restored by quantization and interpolation
Is input for each subframe, a response signal with the input signal d (n) = 0 is calculated for one subframe using the stored value of the filter memory, and output to the subtractor 250. Here, the response signal x z (n) is represented by the following equation (8).

【0071】[0071]

【数5】 (Equation 5)

【0072】ここで、γは、聴感重み付け量を制御する
重み係数であり、下記の式(9)と同一の値である。
Here, γ is a weight coefficient for controlling the amount of hearing weighting, and is the same value as the following equation (9).

【0073】減算器250は、次式(9)により、聴感重み付
け信号から応答信号を1サブフレーム分減算し、x'w(n)
を適応コードブック回路300へ出力する。
The subtractor 250 subtracts the response signal by one subframe from the audibility weighting signal according to the following equation (9), and obtains x ′ w (n)
Is output to the adaptive codebook circuit 300.

【0074】x'w(n)=xw(n)−xz(n) …(9)X ′ w (n) = x w (n) −x z (n) (9)

【0075】インパルス応答計算回路310は、z変換表
示の伝達関数が次式(10)で表される重み付けフィルタの
インパルス応答hw(n)を予め定められた点数Lだけ計算
し、適応コードブック回路300、音源量子化回路350へ出
力する。
The impulse response calculation circuit 310 calculates the impulse response h w (n) of the weighting filter whose transfer function in the z-transform expression is represented by the following equation (10) by a predetermined number L, and calculates the adaptive codebook. The signal is output to the circuit 300 and the sound source quantization circuit 350.

【0076】[0076]

【数6】 (Equation 6)

【0077】適応コードブック回路300は、ピッチパラ
メータを求める。詳細は前記文献2等を参照することが
できる。そして、求めたサブフレーム毎の遅延値に対応
するインデクスをマルチプレクサ500に出力する。
The adaptive codebook circuit 300 calculates a pitch parameter. For details, reference can be made to the aforementioned reference 2. Then, an index corresponding to the obtained delay value for each subframe is output to multiplexer 500.

【0078】また、適応コードブックによりピッチ予測
を次式(11)に従って行い、適応コードブック予測算差信
号z(n)を出力する。また、遅延を表わすインデクスをマ
ルチプレクサ500に出力する。
Also, pitch prediction is performed by the adaptive codebook according to the following equation (11), and an adaptive codebook prediction difference signal z (n) is output. Further, it outputs an index representing the delay to multiplexer 500.

【0079】z(n)=x'w(n)−b(n) …(11)Z (n) = x ′ w (n) −b (n) (11)

【0080】ここで、b(n)は、適応コードブックピッチ
予測信号であり、次式(12)で与えられる。
Here, b (n) is an adaptive codebook pitch prediction signal, and is given by the following equation (12).

【0081】b(n)=β・v(n−T)*hw(n) …(12)B (n) = β · v (n−T) * h w (n) (12)

【0082】ここで、β、Tは、それぞれ、適応コード
ブック回路300のゲイン、遅延を示す。v(n)は適応コー
ドベクトルである。また演算記号*は畳み込み演算(コ
ンボルーション)を表わす。
Here, β and T represent the gain and delay of the adaptive codebook circuit 300, respectively. v (n) is an adaptive code vector. The operation symbol * represents a convolution operation (convolution).

【0083】フィルタ回路320は、まず、適応コードブ
ックピッチ予測算差信号z(n)を用いて、MA型コムフィ
ルタのゲインηを計算する。
The filter circuit 320 first calculates the gain η of the MA comb filter using the adaptive codebook pitch prediction difference signal z (n).

【0084】具体的には、例えば、次式(13)を最小化す
るようにゲインηを計算することができる。なお、MA
型コムフィルタの次数は1とする。
Specifically, for example, the gain η can be calculated so as to minimize the following equation (13). Note that MA
The order of the type comb filter is 1.

【0085】[0085]

【数7】 (Equation 7)

【0086】ここに、Tは適応コードブック回路で求め
た遅延である。
Here, T is a delay obtained by the adaptive codebook circuit.

【0087】音源量子化回路350では、音源コードブッ
ク330に格納された音源コードベクトルの全部あるいは
一部に対して、前記式(2)あるいは式(3)を最小化するよ
うに、最良の音源コードベクトルcj(n)を選択する。
The sound source quantization circuit 350 optimizes the sound source code vector stored in the sound source code book 330 so as to minimize the above equation (2) or (3) for all or a part of the sound source code vectors. Select the code vector c j (n).

【0088】このとき、最良のコードベクトルを1種選
択してもよいし、2種以上のコードベクトルを選んでお
いて、ゲイン量子化の際に、1種に本選択してもよい。
ここでは、2種以上のコードベクトルを選んでおくもの
とする。
At this time, one type of the best code vector may be selected, or two or more types of code vectors may be selected, and one type may be permanently selected at the time of gain quantization.
Here, it is assumed that two or more types of code vectors are selected.

【0089】なお、一部の音源コードベクトルに対して
のみ、前記式(2)あるいは式(3)を適用するときには、下
記の式(14)を最小化するように複数個の音源コードベク
トルを予め予備選択しておき、予備選択された音源コー
ドベクトルに対して、前記式(2)あるいは(3)を適用する
こともできる。
When the above equation (2) or (3) is applied to only some of the excitation code vectors, a plurality of excitation code vectors are minimized so as to minimize the following equation (14). Equation (2) or (3) may be preliminarily selected and applied to the preselected excitation code vector.

【0090】[0090]

【数8】 (Equation 8)

【0091】ゲイン量子化回路370は、ゲインコードブ
ック340からゲインコードベクトルを読み出し、選択さ
れた音源コードベクトルに対して、前記式(5)を最小化
するように、音源コードベクトルとゲインコードベクト
ルの組み合わせを選択する。
The gain quantization circuit 370 reads the gain code vector from the gain code book 340, and applies the excitation code vector and the gain code vector to the selected excitation code vector so as to minimize the expression (5). Select a combination.

【0092】選択された音源コードベクトルとゲインコ
ードベクトルを表わすインデクスをマルチプレクサ500
に出力する。なお、式(5)と等価な関係にある式とし
て、式(6)を用いることもできる。
The index representing the selected sound source code vector and gain code vector is converted to a multiplexer 500.
Output to Expression (6) can also be used as an expression having a relation equivalent to expression (5).

【0093】重み付け信号計算回路360は、スペクトル
パラメータ計算回路の出力パラメータ及び、それぞれの
インデクスを入力し、インデクスからそれに対応するコ
ードベクトルを読み出し、まず次式(15)に基づき駆動音
源信号v(n)を求める。
The weighting signal calculation circuit 360 inputs the output parameters of the spectrum parameter calculation circuit and the respective indexes, reads out the corresponding code vectors from the indexes, and firstly obtains the driving sound source signal v (n ).

【0094】 v(n)=β’k・v(n−T)+γ’k・cjz(n) …(15)V (n) = β ′ k · v (n−T) + γ ′ k · c jz (n) (15)

【0095】次に、スペクトルパラメータ計算回路200
の出力パラメータ、スペクトルパラメータ量子化回路21
0の出力パラメータを用いて次式(16)により、重み付け
信号sw(n)をサブフレーム毎に計算し、応答信号計算回
路240へ出力する。
Next, the spectrum parameter calculation circuit 200
Output parameter, spectrum parameter quantization circuit 21
The weighting signal s w (n) is calculated for each subframe by the following equation (16) using the output parameter of 0, and is output to the response signal calculation circuit 240.

【0096】[0096]

【数9】 (Equation 9)

【0097】[0097]

【実施例2】前記第1の実施例における式(14)を最小化
するように、最良の音源コードベクトルを1種選択した
のちに、式(2)あるいは式(3)に従い音源コードベクトル
のゲインγjを計算しなおすようにしてもよい
Embodiment 2 After selecting one best excitation code vector so as to minimize the expression (14) in the first embodiment, the excitation code vector is selected according to the expression (2) or (3). it may be the gain γj re-calculation.

【0098】なお、ゲインコードブックによるゲインの
量子化も含めて行うときは、式(2)、(3)の代りに、それ
ぞれ、式(5)、(6)を用いることができる。
When performing the quantization including the gain quantization by the gain codebook, equations (5) and (6) can be used instead of equations (2) and (3), respectively.

【0099】[0099]

【実施例3】図2は、本発明の第3の実施例の構成を示
すブロック図である。図1と同一の番号を付した構成要
素は、図1と同一の動作をするのでその説明は省略し、
相違点のみを以下に説明する。
Embodiment 3 FIG. 2 is a block diagram showing a configuration of a third embodiment of the present invention. The components having the same reference numerals as those in FIG. 1 perform the same operations as those in FIG.
Only the differences will be described below.

【0100】図3に、音源・ゲイン量子化回路400のブ
ロック図を示す。図3において、コムフィルタ回路410
では、ゲインは予め計算しておかず、適応コードブック
回路300からの遅延Tを入力し、音源コードブック330か
ら全ての音源コードベクトル、あるいは一部の音源コー
ドベクトルを読み出し、さらに、ゲインコードベクトル
340からコムフィルタのゲインη’kを読み出し、次式(1
7)に従ってコムフィルタリングを行い、歪計算回路420
へ出力する。ここで、ゲインコードブック340は3次元
とし、(β’k, γ’k, η’k)の値が格納されている
ものとする。
FIG. 3 shows a block diagram of the sound source / gain quantization circuit 400. In FIG. 3, a comb filter circuit 410
Then, the gain is not calculated in advance, the delay T from the adaptive codebook circuit 300 is input, and all the excitation code vectors or a part of the excitation code vectors are read out from the excitation codebook 330.
The gain η ′ k of the comb filter is read from 340, and the following equation (1
7) Perform comb filtering according to
Output to Here, it is assumed that the gain codebook 340 is three-dimensional and stores the values of (β ′ k , γ ′ k , η ′ k ).

【0101】 cjz(n)=cj(n)+η’k・cj(n−T) …(17)C jz (n) = c j (n) + η ′ k · c j (n−T) (17)

【0102】歪計算回路420では、さらに、ゲインコー
ドブック340からゲインコードベクトルを読み込み、適
応コードブック回路300のゲインと音源コードベクトル
のゲインを量子化しながら、前記式(5)に従い、歪Dj
計算し、判別回路430へ出力する。
[0102] In the distortion calculation circuit 420, further, reads the gain code vector from the gain codebook 340, while quantizes the gain of the gain and the sound source code vector of the adaptive codebook circuit 300, in accordance with the equation (5), the distortion D j Is calculated and output to the determination circuit 430.

【0103】判別回路430では、歪Djを最小化するよう
な音源コードベクトルとゲインコードベクトルの最良の
組み合わせを選択する。式(5)と等価な関係にある式と
して、式(5)のかわりに、式(6)を用いることもできる。
The discriminating circuit 430 selects the best combination of the excitation code vector and the gain code vector that minimizes the distortion D j . As an equation having an equivalent relation to equation (5), equation (6) can be used instead of equation (5).

【0104】なお、一部の音源コードベクトルに対して
コムフィルタリングを行うときは、式(14)を最小化する
ように、音源コードブック330から、予め複数個のコー
ドベクトルを選択しておくこともできる。
When performing comb filtering on some sound source code vectors, a plurality of code vectors must be selected in advance from sound source code book 330 so as to minimize equation (14). Can also.

【0105】[0105]

【実施例4】前記第3の実施例において、音源コードブ
ックに格納されたコードベクトルから最良の音源コード
ベクトルを1種選択した後に、ゲインコードブック340
を用いて、適応コードブックと音源コードベクトルとコ
ムフィルタのゲインを量子化しながら、音源コードベク
トルとゲインコードベクトルの最良の組み合わせを選択
する。音源コードベクトルとゲインコードベクトルの選
択には、式(5)あるいは式(6)を用いるようにしてもよ
Embodiment 4 In the third embodiment, after selecting one of the best excitation code vectors from the code vectors stored in the excitation code book, the gain code book 340 is selected.
Is used to select the best combination of the excitation code vector and the gain code vector while quantizing the adaptive codebook, the excitation code vector, and the gain of the comb filter. Equation (5) or Equation (6) may be used to select the sound source code vector and the gain code vector .
No.

【0106】以上本発明を上記各実施例に即して説明し
たが、本発明の意向を損なうことなく、上述した実施態
様以外にも、種々の変形が可能である。
Although the present invention has been described with reference to the above embodiments, various modifications other than the above-described embodiments are possible without impairing the intention of the present invention.

【0107】スペクトルパラメータはLSP以外にも他
の周知なパラメータを用いることができる。
As the spectrum parameters, other well-known parameters other than the LSP can be used.

【0108】スペクトルパラメータ計算回路200では、
フレーム中で少なくとも1つのサブフレームでスペクト
ルパラメータを計算するときに、前のサブフレームとの
現在のサブフレームとのRMSの変化あるいはパワの変
化を測定し、これらの変化が大きな複数個のサブフレー
ムに対してスペクトルパラメータを計算するようにして
もよい。このようにすると、音声の変化点では必ずスペ
クトルパラメータを分析することになり、分析するサブ
フレーム数を低減しても性能の劣化を防ぐことができ
る。
In the spectrum parameter calculation circuit 200,
When calculating spectral parameters in at least one subframe in a frame, a change in RMS or a change in power between a previous subframe and a current subframe is measured, and a plurality of subframes in which these changes are large are measured. May be calculated. In this way, the spectral parameter is always analyzed at the voice change point, and performance degradation can be prevented even if the number of subframes to be analyzed is reduced.

【0109】スペクトルパラメータの量子化には、ベク
トル量子化、スカラ量子化、ベクトル−スカラ量子化な
ど周知な方法を用いることができる。
For quantizing the spectral parameters, known methods such as vector quantization, scalar quantization, and vector-scalar quantization can be used.

【0110】スペクトルパラメータ量子化回路における
補間パターンの選択には、他の周知な距離尺度を用いる
ことができる。
Other well-known distance measures can be used for selecting an interpolation pattern in the spectrum parameter quantization circuit.

【0111】適応コードブック回路ならびにフィルタ回
路における遅延は、整数値でも小数値でもよい。
The delay in the adaptive codebook circuit and the filter circuit may be an integer value or a decimal value.

【0112】また、音源量子化回路において、コードブ
ックが1段の場合について説明したが、2段、あるいは
多段構成にすることもできる。
In the sound source quantization circuit, a case where the code book has one stage has been described, but a two-stage or multi-stage configuration is also possible.

【0113】また、音源コードブックの探索、ならびに
学習のときの距離尺度は、あるいは、学習法は、他の周
知な尺度を用いることもできる。
Further, as a distance scale at the time of searching the sound source codebook and learning, or another learning scale, a learning method can be used.

【0114】コムフィルタ回路の次数は、高次(例えば
3次)とすることもできる。このようにすると、演算量
と伝送情報量がやや増加するが、性能はさらに改善され
る。
The order of the comb filter circuit can be higher (for example, third order). By doing so, the amount of calculation and the amount of transmission information slightly increase, but the performance is further improved.

【0115】コムフィルタの構成としては、非再帰型
(MA型)について説明したが、再帰型(AR型)を使
用することもできる。
Although the non-recursive type (MA type) has been described as the configuration of the comb filter, a recursive type (AR type) can also be used.

【0116】また、ゲインコードブックは、伝送ビット
数よりも全体で数倍大きなサイズのコードブックを予め
学習し、予め定められたモード毎に前記コードブックの
一部の領域を使用領域としてアサインしておき、符号化
するときは、モードに応じて使用領域を切り替えて使用
することもできる。
Further, the gain codebook learns in advance a codebook having a size several times larger than the number of transmission bits in total, and assigns a partial area of the codebook as a use area for each predetermined mode. In addition, when coding, it is also possible to switch and use the used area according to the mode.

【0117】さらに、適応コードブック部ならびにコム
フィルタは、音声の母音部のみ、又はフレームの音声信
号を複数種類のモードに分類し、予め定められたモード
のみに適用することもできる。
Further, the adaptive codebook section and comb filter can classify only a vowel part of a voice or a voice signal of a frame into a plurality of types of modes and apply the mode to only a predetermined mode.

【0118】そして、適応コードブック回路での探索、
並びに音源量子化回路での探索には、それぞれ、式(2)
〜(6)、式(12)〜(14)のように、インパルス応答hw(n)を
用いて畳み込み演算を行ったが、これは、伝達特性が式
(10)で表されるような重み付けフィルタを用いてフィル
タリング演算により行うこともできる。このようにする
と、演算量は増大するが、性能はさらに向上する。
Then, searching in the adaptive code book circuit,
In the search by the sound source quantization circuit, respectively, equation (2)
~ (6), convolution operation was performed using the impulse response h w (n) as shown in equations (12) to (14).
The filtering can also be performed by using a weighting filter as represented by (10). By doing so, the amount of calculation increases, but the performance further improves.

【0119】[0119]

【発明の効果】以上述べたように、本発明によれば、サ
ブフレーム毎に又はフレーム毎にコムフィルタの係数を
計算し、全ての又は一部の音源コードベクトルに対し
て、コムフィルタを通しながら、歪を最小化する音源コ
ードベクトルを選択するものであり、低ビットレートで
も比較的少ない演算量で音質の改善を図ることができる
という効果を有する。
As described above, according to the present invention, the coefficients of the comb filter are calculated for each subframe or for each frame, and all or some of the excitation code vectors are passed through the comb filter. However, the sound source code vector that minimizes the distortion is selected, and the sound quality can be improved with a relatively small amount of calculation even at a low bit rate.

【0120】また、本発明によれば、音源を1種選択し
た後にコムフィルタを通してゲインコードベクトルと音
源コードベクトルの組み合わせを選択することにより、
さらに演算量を低減し、且つ音質の改善を図っている。
Further, according to the present invention, by selecting a combination of a gain code vector and a sound source code vector through a comb filter after selecting one kind of sound source,
Further, the amount of calculation is reduced and the sound quality is improved.

【0121】さらに、本発明によれば、全ての又は一部
の音源コードベクトルに対してコムフィルタを通してゲ
インコードベクトルと音源コードベクトルの最良の組み
合わせを選択することにより、低ビットレートでも演算
量を低減し、且つ音質を改善することができるという効
果がある。
Further, according to the present invention, by selecting the best combination of the gain code vector and the excitation code vector for all or a part of the excitation code vector through a comb filter, the amount of operation can be reduced even at a low bit rate. This has the effect of reducing sound quality and improving sound quality.

【0122】また、本発明においては、音源を1種選択
した後にコムフィルタを通し、ゲインコードベクトルと
音源コードベクトルの最良の組み合わせを選択すること
により、さらに演算量を低減し、且つ音質の改善を図っ
ている。
Further, according to the present invention, by selecting one of the sound sources and then passing through a comb filter to select the best combination of the gain code vector and the sound source code vector, the amount of calculation is further reduced and the sound quality is improved. Is being planned.

【0123】そして、本発明においては、フィルタ回路
として好ましくは1次の非再帰型のフィルタを用いた場
合、演算量及び伝送情報量が著しく低減されると共に音
質が改善され、また次数が3次の場合には、演算量と伝
送情報量はやや増加するものの音質はさらに改善され
る。
In the present invention, when a first-order non-recursive filter is preferably used as a filter circuit, the amount of computation and the amount of transmitted information are significantly reduced, the sound quality is improved, and the order is reduced to the third order. In the case of, the amount of calculation and the amount of transmission information slightly increase, but the sound quality is further improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施例の構成を示すブロック図
である。
FIG. 1 is a block diagram showing a configuration of a first exemplary embodiment of the present invention.

【図2】本発明の第3の実施例の構成を示すブロック図
である。
FIG. 2 is a block diagram showing a configuration of a third exemplary embodiment of the present invention.

【図3】本発明における音源・ゲイン量子化回路の構成
を示すブロック図である。
FIG. 3 is a block diagram illustrating a configuration of a sound source / gain quantization circuit according to the present invention.

【符号の説明】[Explanation of symbols]

110…フレーム分割回路 120…サブフレーム分割回路 200…スペクトルパラメータ計算回路 210…スペクトルパラメータ量子化回路 220…LSPコードブック 230…重み付け回路 250…減算回路 240…応答信号計算回路 300…適応コードブック回路 310…インパルス応答計算回路 320…フィルタ回路 350…音源量子化回路 330…音源コードブック 340…ゲインコードブック 360…重み付け信号計算回路 370…ゲイン量子化回路 400…音源・ゲイン量子化回路 410…コムフィルタ回路 420…歪計算回路 430…判別回路 500…マルチプレクサ 110 frame dividing circuit 120 subframe dividing circuit 200 spectral parameter calculating circuit 210 spectral parameter quantizing circuit 220 LSP codebook 230 weighting circuit 250 subtracting circuit 240 response signal calculating circuit 300 adaptive codebook circuit 310 … Impulse response calculation circuit 320… Filter circuit 350… Sound source quantization circuit 330… Sound source codebook 340… Gain codebook 360… Weighting signal calculation circuit 370… Gain quantization circuit 400… Sound source / gain quantization circuit 410… Com filter circuit 420: distortion calculation circuit 430: discrimination circuit 500: multiplexer

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平5−113799(JP,A) 特開 平6−75597(JP,A) 特開 平5−281998(JP,A) 特開 平6−130977(JP,A) 特開 平4−73700(JP,A) 特開 平6−222797(JP,A) ────────────────────────────────────────────────── ─── Continuation of front page (56) References JP-A-5-113799 (JP, A) JP-A-6-75597 (JP, A) JP-A-5-281998 (JP, A) 130977 (JP, A) JP-A-4-73700 (JP, A) JP-A-6-222797 (JP, A)

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】音声信号を入力し予め定められた時間長の
フレームに分割し、前記フレームの音声信号をフレーム
よりも時間的に短い複数個のサブフレームに分割し、前
記音声信号のスペクトル的特徴を表わすスペクトルパラ
メータを求めるスペクトルパラメータ計算部と、 前記スペクトルパラメータを量子化するスペクトルパラ
メータ量子化部と、 サブフレーム毎に過去の音源信号を用いて音声信号のピ
ッチ周期を求める適応コードブック部と、 前記ピッチ周期に応じた遅延を有する、予め定められた
次数のコムフィルタのゲインを、前記フレーム毎に又は
前記サブフレーム毎に前記音声信号から適応コードブッ
ク信号を減算した適応コードブック残差信号から計算
し、前記遅延と前記ゲインを出力するフィルタ部と、 音源コードブックに格納されたコードベクトルの少なく
とも一部を、前記遅延とゲインを有するコムフィルタ
通しながら、前記適応コードブック残差信号に対して最
良のコードベクトルを選択して音源信号を量子化する音
源量子化部と、 前記スペクトルパラメータ量子化部と、前記適応コード
ブック部と、前記音源量子化部と、前記フィルタ部と、
のそれぞれの出力信号を組み合わせて出力するマルチプ
レクサ部と、 を有することを特徴とする音声符号化装置。
An audio signal is input and divided into frames of a predetermined time length, and the audio signal of the frame is divided into a plurality of subframes that are temporally shorter than the frame. A spectrum parameter calculation unit for obtaining a spectrum parameter representing a feature, a spectrum parameter quantization unit for quantizing the spectrum parameter, and an adaptive codebook unit for obtaining a pitch period of a speech signal using a past sound source signal for each subframe. An adaptive codebook residual signal obtained by subtracting an adaptive codebook signal from the audio signal for each frame or each subframe, with a gain of a comb filter of a predetermined order having a delay according to the pitch period. And a filter unit that outputs the delay and the gain. Excitation quantization for selecting the best code vector for the adaptive codebook residual signal and quantizing an excitation signal while passing at least a part of the stored code vector through a comb filter having the delay and gain . Unit, the spectrum parameter quantization unit, the adaptive codebook unit, the sound source quantization unit, the filter unit,
And a multiplexer unit that combines and outputs each of the output signals.
【請求項2】音声信号を入力し予め定められた時間長の
フレームに分割し、前記フレームの音声信号をフレーム
よりも時間的に短い複数個のサブフレームに分割し、前
記音声信号のスペクトル的特徴を表わすスペクトルパラ
メータを求めるスペクトルパラメータ計算部と、 前記スペクトルパラメータを量子化するスペクトルパラ
メータ量子化部と、 サブフレーム毎に音声信号のピッチ周期を求める適応コ
ードブック部と、 音源コードブックに格納された音源コードベクトルの少
なくとも一部を、前記ピッチ周期に応じた遅延を有す
る、予め定められた次数のコムフィルタに通すと共に、
ゲインコードブックから選択したゲインコードベクトル
により前記適応コードブック部のゲイン、前記音源コー
ドベクトルのゲイン、及び前記コムフィルタのゲイン
量子化して、最良の音源コードベクトル及び最良のゲイ
ンコードベクトルを選択する音源・ゲイン量子化部と、 前記スペクトルパラメータ量子化部と、前記適応コード
ブック部と、前記音源・ゲイン量子化部と、のそれぞれ
の出力信号を組み合わせて出力するマルチプレクサ部
と、 を有することを特徴とする音声符号化装置。
2. An audio signal is input and divided into frames of a predetermined time length, and the audio signal of the frame is divided into a plurality of subframes that are temporally shorter than the frame. A spectrum parameter calculation unit for obtaining a spectrum parameter representing a feature; a spectrum parameter quantization unit for quantizing the spectrum parameter; an adaptive codebook unit for obtaining a pitch period of a speech signal for each subframe; and a sound source codebook. At least a part of the sound source code vector having a delay according to the pitch period, and passed through a comb filter of a predetermined order,
The gain of the adaptive codebook unit, the gain of the excitation code vector, and the gain of the comb filter are quantized by a gain code vector selected from a gain code book, and the best excitation code vector and the best gain code vector are selected. A sound source / gain quantization unit; a spectrum unit quantization unit; the adaptive codebook unit; and a multiplexer unit that combines and outputs respective output signals of the sound source / gain quantization unit. Characteristic speech coding device.
【請求項3】前記音源コードブックに格納されたコード
ベクトルの全てを前記コムフィルタに通すことを特徴と
する請求項1又は2記載の音声符号化装置。
3. The speech encoding apparatus according to claim 1, wherein all of the code vectors stored in the excitation codebook are passed through the comb filter .
【請求項4】前記音源・ゲイン量子化部が、 前記適応コードブック部から遅延を入力し、ゲインコー
ドブックからコムフィルタのゲインを読み出して、前記
遅延及びゲインに基づき音源コードブックから読み出し
た音源コードベクトルに対してコムフィルタ処理を行な
コムフィルタと、前記コムフィルタの出力を入力する
と共に、ゲインコードブックからゲインコードベクト
ル、適応コードブック部のゲイン、音源コードベクトル
のゲインを量子化して歪を計算する歪計算回路と、 前記歪を最小化するような音源コードベクトルとゲイン
コードベクトルの最適な組み合わせを選択する判別回路
と、 を有することを特徴とする請求項2記載の音声符号化装
置。
4. The sound source / gain quantizing unit receives a delay from the adaptive codebook unit, reads a comb filter gain from a gain codebook, and reads a sound source read from a sound source codebook based on the delay and gain. a comb filter for performing comb filtering on code vectors, and inputs the output of the comb filter, the gain from the gain codebook code vectors, the gain of the adaptive codebook section, the distortion of the gain of the sound source code vector by quantizing The speech encoding apparatus according to claim 2, comprising: a distortion calculation circuit for calculating; and a discrimination circuit for selecting an optimal combination of a sound source code vector and a gain code vector that minimizes the distortion.
【請求項5】前記コムフィルタが、非再帰型又は再帰型
のいずれかのフィルタで構成されることを特徴とする請
求項1又は2に記載の音声符号化装置。
5. The speech coding apparatus according to claim 1, wherein said comb filter is constituted by one of a non-recursive filter and a recursive filter.
【請求項6】前記コムフィルタの次数が1ないし3の非
再帰型フィルタで構成されることを特徴とする請求項1
又は2に記載の音声符号化装置。
6. The non-recursive filter having an order of 1 to 3 of the comb filter.
Or the speech encoding device according to 2.
JP19459494A 1994-07-28 1994-07-28 Audio coding device Expired - Fee Related JP3192051B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19459494A JP3192051B2 (en) 1994-07-28 1994-07-28 Audio coding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19459494A JP3192051B2 (en) 1994-07-28 1994-07-28 Audio coding device

Publications (2)

Publication Number Publication Date
JPH0844397A JPH0844397A (en) 1996-02-16
JP3192051B2 true JP3192051B2 (en) 2001-07-23

Family

ID=16327144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19459494A Expired - Fee Related JP3192051B2 (en) 1994-07-28 1994-07-28 Audio coding device

Country Status (1)

Country Link
JP (1) JP3192051B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149200A (en) 2000-08-31 2002-05-24 Matsushita Electric Ind Co Ltd Device and method for processing voice
JP3566220B2 (en) 2001-03-09 2004-09-15 三菱電機株式会社 Speech coding apparatus, speech coding method, speech decoding apparatus, and speech decoding method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3264679B2 (en) * 1991-08-30 2002-03-11 沖電気工業株式会社 Code-excited linear prediction encoding device and decoding device

Also Published As

Publication number Publication date
JPH0844397A (en) 1996-02-16

Similar Documents

Publication Publication Date Title
JP3094908B2 (en) Audio coding device
JP2746039B2 (en) Audio coding method
JP3196595B2 (en) Audio coding device
JP3180762B2 (en) Audio encoding device and audio decoding device
JPH0353300A (en) Sound encoding and decoding system
JP3180786B2 (en) Audio encoding method and audio encoding device
JP3266178B2 (en) Audio coding device
JP3582589B2 (en) Speech coding apparatus and speech decoding apparatus
JP2624130B2 (en) Audio coding method
JP3616432B2 (en) Speech encoding device
JP3308764B2 (en) Audio coding device
JPH0854898A (en) Voice coding device
JP3153075B2 (en) Audio coding device
JP3192051B2 (en) Audio coding device
JP3003531B2 (en) Audio coding device
JP3360545B2 (en) Audio coding device
JP3319396B2 (en) Speech encoder and speech encoder / decoder
JP3299099B2 (en) Audio coding device
JP3144284B2 (en) Audio coding device
JP3089967B2 (en) Audio coding device
JP2001142499A (en) Speech encoding device and speech decoding device
JP3047761B2 (en) Audio coding device
JPH08320700A (en) Sound coding device
JP3024467B2 (en) Audio coding device
JP3092654B2 (en) Signal encoding device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19980331

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090525

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100525

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees