JPH0473700A - Sound encoding system - Google Patents

Sound encoding system

Info

Publication number
JPH0473700A
JPH0473700A JP2184234A JP18423490A JPH0473700A JP H0473700 A JPH0473700 A JP H0473700A JP 2184234 A JP2184234 A JP 2184234A JP 18423490 A JP18423490 A JP 18423490A JP H0473700 A JPH0473700 A JP H0473700A
Authority
JP
Japan
Prior art keywords
codebook
signal
code book
sound source
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2184234A
Other languages
Japanese (ja)
Other versions
JP3102017B2 (en
Inventor
Kazunori Ozawa
一範 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP02184234A priority Critical patent/JP3102017B2/en
Publication of JPH0473700A publication Critical patent/JPH0473700A/en
Application granted granted Critical
Publication of JP3102017B2 publication Critical patent/JP3102017B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To obtain satisfactory characteristic even when code book size is reduced in a low bit rate by correcting a first code book based on a signal selected from a second code book. CONSTITUTION:An adder 290 adds the predictive sound source signal of an adaptive code book 210, the output sound source signal of a first code book retrieval circuit 230, and that of a second code book retrieval circuit 270, and outputs a result to a synthetic filter 281. The synthetic filter 281 inputs the output of the adder 290, and finds one frame of synthesized voice, and finds a response signal series for another one frame by inputting a series of 0 to the filter, and outputs the response signal series of one frame to a subtractor 190. A multiplexer 260 issues output by combining the output encode series of an LSP quantization circuit 140, the adaptive code book 210, the first code book retrieval circuit 230, the second code book retrieval circuit 270, a gain quantizer 286. Thereby, it is possible to obtain the satisfactory characteristic even when the code book size is reduced in the low bit rate.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、音声信号を低いビ・ントレート、特に8〜4
.8kb/s程度で高品質に符号化するための音声符号
化方式に関する。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Field of Application] The present invention provides a method for converting audio signals to low bit rates, particularly from 8 to 4
.. The present invention relates to a speech encoding method for high-quality encoding at approximately 8 kb/s.

(従来の技術) 音声信号を8〜4.8kb/s程度の低いビットレート
で符号化する方式としては、例えば、M、5chroe
der and B、Ata1氏による”Code−e
xcited 1inearpredict:on: 
 lIigh  quality  5peech  
at  very  lowbit rates″(P
roc、 TCASSP、 pp、937−940.1
985年)と題した論文(文献1)等に記載されている
CELP(Code Excited LPCCodi
ng)が知られている。この方法では、送信側では、フ
レーム毎(例えば2゜ms)に音声信号から音声信号の
スペクトル特性を表すスペクトルパラメータを抽出し、
フレームをさらに小区間サブフレーム(例えば5 ms
)に分割し、サブフレーム毎に過去の音源信号をもとに
長時間相関(ピッチ相関)を表す適応コードブックのピ
ッチパラメータを抽出し、ピッチパラメータによりサブ
フレームの音声信号を長期予測し、長期予測して求めた
残差信号に対して、予め定められた種類の雑音信号から
なるコードブックから選択した信号により合成した信号
と、音声信号との誤差電力を最小化するように一種類の
雑音信号を選択するとともに、最適なゲインを計算する
。そして選択された雑音信号の種類を表すインデクスと
ゲイン、ならびに、前記スペクトルパラメータとピッチ
パラメータを伝送する。
(Prior art) As a method for encoding an audio signal at a low bit rate of about 8 to 4.8 kb/s, for example, M, 5 chroe
der and B, “Code-e” by Mr. Ata1
xcited 1inearpredict:on:
lIigh quality 5peech
at very lowbit rates'' (P
roc, TCASSP, pp, 937-940.1
CELP (Code Excited LPCCodi), which is described in a paper titled (Reference 1)
ng) is known. In this method, on the transmitting side, spectral parameters representing the spectral characteristics of the audio signal are extracted from the audio signal every frame (for example, 2 ms),
The frame is further divided into small interval subframes (e.g. 5 ms
), extract pitch parameters from an adaptive codebook that represents long-term correlation (pitch correlation) based on past sound source signals for each subframe, and use the pitch parameters to predict the subframe audio signal over the long term. One type of noise is synthesized using a signal selected from a codebook consisting of predetermined types of noise signals for the predicted residual signal, and the speech signal is synthesized to minimize the error power. Select the signal and calculate the optimal gain. Then, the index and gain representing the type of the selected noise signal, as well as the spectrum parameter and pitch parameter are transmitted.

〔発明が解決しようとする課題] 上述した文献Iの従来方式では、高音質を得るためには
、一般に、雑音信号から構成されるコードブックのビッ
トサイズを10ビット以上にきわめて大きくする必要が
あるため、コードブックを探索して最適な雑音信号(コ
ードワード)を求めるために膨大な演算量が必要である
という問題点があった。さらに、コードブックが基本的
に雑音信号から構成されるために、コードブックから選
択された音源信号により再生された再生音声の音質は雑
音域がともなうという問題点があった。さらにビットレ
ートを低減するためにコードブックのサイズを低減させ
ると音質は急速に劣化するという問題点があった。
[Problems to be Solved by the Invention] In the conventional method of Document I mentioned above, in order to obtain high sound quality, it is generally necessary to make the bit size of the codebook composed of noise signals extremely large, to 10 bits or more. Therefore, there is a problem in that a huge amount of calculation is required to search the codebook and find the optimal noise signal (codeword). Furthermore, since the codebook is basically composed of noise signals, there is a problem in that the sound quality of the reproduced sound reproduced by the sound source signal selected from the codebook is accompanied by a noise region. Furthermore, when the size of the codebook is reduced in order to reduce the bit rate, there is a problem in that the sound quality deteriorates rapidly.

本発明の目的は、上述した問題点を解決し、比較的少な
い演算量およびメモリ量により、8〜4.8kb/s程
度で音質の良好な音声符号化方式を提供することにある
SUMMARY OF THE INVENTION An object of the present invention is to solve the above-mentioned problems and to provide a speech encoding method that achieves good sound quality at approximately 8 to 4.8 kb/s with a relatively small amount of calculation and memory.

[課題を解決するための手段] 第1の発明は、入力した離散的な音声信号を予め定めら
れた時間長のフレームに分割し、前記音声信号のスペク
トル包絡を表すスペクトルパラメータを求めて出力し、
前記フレームを予め定められた時間長の小区間に分割し
、過去の音源信号をもとに再生した信号が前記音声信号
に近くなるようにピッチパラメータを求め、前記音声信
号の音源信号を第1のコードブックから選択した信号と
第2のコードブックから選択した信号との線形結合によ
り表す音声符号化方式において、前記第2のコ−ドブツ
クから選択した信号をもとに前記第1のコードブックを
修正することを特徴とする。
[Means for Solving the Problems] The first invention divides an input discrete audio signal into frames of a predetermined time length, determines and outputs spectral parameters representing the spectral envelope of the audio signal. ,
The frame is divided into small sections of a predetermined time length, a pitch parameter is determined so that the signal reproduced based on the past sound source signal is close to the sound signal, and the sound source signal of the sound signal is In a speech encoding method expressed by a linear combination of a signal selected from a codebook and a signal selected from a second codebook, the signal selected from the second codebook is encoded in the first codebook. It is characterized by correcting.

第2の発明は、入力した離散的な音声信号を予め定めら
れた時間長のフレームに分割し、前記音声信号のスペク
トル包絡を表すスペクトルパラメータを求めて出力し、
前記フレームを予め定められた時間長の小区間に分割し
、過去の音源信号をもとに再生した信号が前記音声信号
に近くなるようにピッチパラメータを求め、前記音声信
号の音源信号を第1のコードブックから選択した信号と
第2のコードブックから選択した信号との線形結合によ
り表す音声符号化方式において、前記第1のコードブッ
クから選択した信号をもとに前記第2のコードブックを
修正することを特徴とする。
A second invention divides an input discrete audio signal into frames of a predetermined time length, calculates and outputs a spectral parameter representing a spectral envelope of the audio signal,
The frame is divided into small sections of a predetermined time length, a pitch parameter is determined so that the signal reproduced based on the past sound source signal is close to the sound signal, and the sound source signal of the sound signal is In a speech encoding method expressed by a linear combination of a signal selected from a codebook and a signal selected from a second codebook, the second codebook is generated based on the signal selected from the first codebook. It is characterized by correction.

第3の発明は、入力した離散的な音声信号を予め定めら
れた時間長のフレームに分割し、前記音声信号のスペク
トル包絡を表すスペクトルパラメ−夕を求めて出力し、
前記フレームを予め定められた時間長の小区間に分割し
、前記小区間毎にピッチパラメータを求めてピッチ予測
音源信号を求め、前記ピッチ予測音源信号とコードブッ
クから選択した信号とにより前記音声信号の音源信号を
表す音声符号化方式において、 前記ピッチ予測音源信号をもとに前記コードブックを修
正するか、あるいは、前記コードブックから選択した信
号により前記予測音源信号を修正することを特徴とする
A third invention divides an input discrete audio signal into frames of a predetermined time length, determines and outputs a spectral parameter representing the spectral envelope of the audio signal,
The frame is divided into small sections of a predetermined time length, pitch parameters are determined for each of the small sections to obtain a pitch predicted sound source signal, and the voice signal is calculated using the pitch predicted sound source signal and the signal selected from the codebook. In the speech encoding method representing a sound source signal, the codebook is modified based on the pitch predicted sound source signal, or the predicted sound source signal is modified using a signal selected from the codebook. .

〔作用] 本発明による音声符号化方式の作用を示す。[Effect] 3 shows the operation of the audio encoding method according to the present invention.

第1の発明では、フレームを分割したサブフレーム毎に
、下式を最小化するように音源信号を求める。
In the first invention, a sound source signal is obtained by minimizing the following equation for each subframe obtained by dividing a frame.

E=Σ [(x  (n)−βv  (n−M)  *
h  (n)−d (n)*h  (n)l  *w 
(n)]・ ・ ・ (1) ここでβ1Mは長期相関にもとづくピッチ予測(適応コ
ードブック)のピッチパラメータ、すなわちゲインおよ
び遅延であり、v (n)は過去の音源信号である。 
h (n)はスペクトルパラメータにより構成される合
成フィルタのインパルス応答、w (n)は聴感重み付
はフィルタのインパルス応答を示す。記号*は畳み込み
演算を示す。なお、w (n)の詳細については前記文
献1を参照できる。
E=Σ [(x (n)-βv (n-M) *
h (n)-d (n)*h (n)l *w
(n)]... (1) Here, β1M is the pitch parameter of the pitch prediction (adaptive codebook) based on long-term correlation, that is, the gain and delay, and v (n) is the past sound source signal.
h(n) indicates the impulse response of the synthesis filter configured by the spectral parameters, and w(n) indicates the impulse response of the perceptually weighted filter. The symbol * indicates a convolution operation. Note that the above-mentioned document 1 can be referred to for details of w (n).

また、d (n)はコードブックにより表される音源信
号を示し、下式のように、第1のコードブックから選択
されたコードベクトルc、(n)と第2のコードブック
から選択されたコードベクトルc−(n)との線形結合
で表される。
In addition, d(n) indicates the sound source signal represented by the codebook, and as shown in the following equation, the codevector c,(n) selected from the first codebook and the code vector selected from the second codebook are It is expressed as a linear combination with code vector c-(n).

d (n) =ΣTtCt (n) =T+C+i (n) +rz
cz; (n)・ ・ ・ (2) ここで、Tt+7’zは、選択されたコードワードC1
(n)、C2、(n)のゲインを示す。従って、本発明
では、2種類のコードブックを分解して音源信号が表さ
れることになるため、各コードブックはコードブック全
体のビット数の1/2でよい。
d (n) =ΣTtCt (n) =T+C+i (n) +rz
cz; (n)・・・・(2) Here, Tt+7'z is the selected code word C1
(n), C2, and the gain of (n) are shown. Therefore, in the present invention, since the sound source signal is represented by decomposing two types of codebooks, each codebook may have 1/2 the number of bits of the entire codebook.

例えばコードブック全体のビット数を10ビツトとする
と、第12のコードブックは例えば、5ピントずつでよ
く、コードブック探索の演算量を大幅に低減できる。
For example, if the number of bits of the entire codebook is 10 bits, then the twelfth codebook may have, for example, 5 pins each, which can significantly reduce the amount of calculation for codebook search.

各コードブックとして前記文献lのような雑音コードブ
ックを用いる場合、(2)式のように分割すると、特性
的には10ビット分のコードブックよりも劣化し全体で
7〜8ビット分の性能しか出せない。
When using a noise codebook as in the above-mentioned document 1 as each codebook, if it is divided as shown in equation (2), the characteristics will be worse than the codebook for 10 bits, and the overall performance will be equivalent to 7 to 8 bits. I can only give out.

そこで、高性能を得るために、第1のコードブックはト
レーニングデータを用いて予め学習させることにより構
成する。学習によるコードブックの構成法としては、例
えば、L i nde らによる“AnAlgorit
hm for Vector Quantizatio
n De−sign”と題した論文(IEEE Tra
ns、 C0M−28,I)9.84−951980年
)(文献2)等が知られている。
Therefore, in order to obtain high performance, the first codebook is configured by learning in advance using training data. As a method of constructing a codebook through learning, for example, “AnAlgorit” by Linde et al.
hm for Vector Quantizatio
The paper titled “De-sign” (IEEE Tra
ns, C0M-28, I) 9.84-951980) (Reference 2), etc. are known.

学習のときの距離尺度としては、通常、2乗距離(ユー
クリッド距離)が用いられるが、本発明では2乗距離よ
りも性能の良好な次式による聴感重み付は距離尺度を用
いる。
Squared distance (Euclidean distance) is normally used as a distance measure during learning, but in the present invention, the distance measure is used for perceptual weighting according to the following equation, which has better performance than squared distance.

=Σ [(t、(n) −C1(n)* h  (n)
)*W  (n)  )  ”           
  (3)ここでtJ(n)はj番目のトレーニングデ
ータ、c、(n)はクラスタ1のコードワードである。
=Σ [(t, (n) −C1(n)* h (n)
)*W (n))”
(3) Here, tJ(n) is the j-th training data, and c,(n) is the codeword of cluster 1.

クラスタlのセントロイド(代表コードワード)は、ク
ラスタl内のトレーニングデータを用いて(4)式ある
いは(5)式を最小化するように求める。
The centroid (representative codeword) of cluster l is obtained by minimizing equation (4) or equation (5) using training data within cluster l.

一Σ Σ [(tit (n) −3cL (n) *
 h  (n) 1*w  (n)  ) 2(4) =Σ Σ [(tjL(n)   g−set(n)*
h*w  (n)  ) ”           (
5)(5)式において、gは最適ゲインを示す。
1 Σ Σ [(tit (n) −3cL (n) *
h (n) 1*w (n) ) 2(4) =Σ Σ [(tjL(n) g-set(n)*
h*w (n) ) ” (
5) In equation (5), g represents the optimal gain.

次に、第2のコードブックは、第1のコードブックによ
るトレーニングデータ依存性を救済するために、第1の
コードブックの寄与分を音源信号から減算した残りの信
号に対して、前記文献2の方法により学習により求めた
コードブックや、前(n) 記文献1のガウス性雑音信号のような予め統計的特性が
確定した雑音信号あるいは乱数信号からなるコードブッ
クや、他の特性を有するコードブックを使用する。なお
、雑音コードブックに対して、ある距離尺度のもとて学
習を行うことにより、さらに特性が改善される。詳細は
、T0Moriya氏らによる”Transform 
Coding of 5peech using a 
Weighted Vector Quantizer
、”と題した論文(IEEEJ、Se1.^reas 
Commun、、 pp、425−43L 19B8年
)(文献3)等を参照することができる。
Next, in order to relieve the training data dependence caused by the first codebook, the second codebook is applied to the remaining signal after subtracting the contribution of the first codebook from the sound source signal. A codebook obtained by learning using the method described above, a codebook consisting of a noise signal or random number signal with predetermined statistical characteristics such as the Gaussian noise signal described in Document 1, or a code having other characteristics. Use books. Note that the characteristics can be further improved by performing learning using a certain distance measure with respect to the noise codebook. For details, see “Transform” by T0 Moriya et al.
Coding of 5peach using a
Weighted Vector Quantizer
,” (IEEEJ, Se1.^reas
Common, pp. 425-43L 19B8) (Reference 3).

第1の発明では、第2のコードブックにより選択された
コードベクトルを用いて、第1のコードベクトルを修正
することに特徴がある。これは、第1のコードブックを
、入力信号の短時間特性に適応させ、少ないコードブッ
クサイズでより良好な特性を得るために行う。第1のコ
ードブックの修正は下式にしたがう。
The first invention is characterized in that the first codevector is modified using the codevector selected by the second codebook. This is done in order to adapt the first codebook to the short-time characteristics of the input signal and obtain better characteristics with a smaller codebook size. The first codebook is modified according to the following formula.

C’lj (n) ”:(+j(n) +sign (r+)  ・sig
n (rz)  ・B°cz+(n)        
       (6)ここでBは収束を決める正の微小
量である。また、sign(T)はTの符号を表す。(
6)式にしたがい、送信側、受信側共に第1のコードブ
ックを修正する。
C'lj (n) ”: (+j(n) +sign (r+) ・sig
n (rz) ・B°cz+(n)
(6) Here, B is a positive minute quantity that determines convergence. Further, sign(T) represents the sign of T. (
6) Modify the first codebook on both the transmitting side and the receiving side according to the formula.

また、伝送路誤りに強くすると共に誤った修正の影響を
防くために、(6)弐の代りに下式を用いることもでき
る。
Furthermore, in order to make the signal more resistant to transmission path errors and to prevent the influence of erroneous corrections, the following equation can be used instead of (6) 2.

cl 、 J(n ) −(1−δ)−c、、(n)+A・δ’cz;(n)・
・・ (7) ここでδは、誤った修正を防くと共に、伝送路誤りの影
響を低減させるための正の微小量(例えば104〜10
−’) 、Aは下式で決まる収束係数である。
cl, J(n) −(1−δ)−c,,(n)+A・δ′cz;(n)・
... (7) Here, δ is a positive minute amount (for example, 104 to 10
-'), A is a convergence coefficient determined by the following formula.

A−72/ r +                
(8)ここで、入力ベクトルと1段目で選択したベクト
ルとの誤差が小さくなれば、1段目と2段目のゲインの
比Tz/T+ は小さくなるので、修正が進みにくくな
る。
A-72/r+
(8) Here, if the error between the input vector and the vector selected in the first stage becomes smaller, the ratio Tz/T+ of the gains in the first stage and the second stage becomes smaller, making it difficult to proceed with the correction.

さらに、簡略化した(9)式や(10)式を用いること
もできる。
Furthermore, simplified equations (9) and (10) can also be used.

C’、j (n) =(1−δ)・C1J(n)十A・δ     (9)
C’lj (n) −(1−δ)・c+J(n) +sign (r+)  ・sign (rz)  ・
δ    (10)次に、第2の発明では、第2のコー
ドブックを第1のコートフックから選択されたコードベ
クトルを用いて修正する。修正には(11)式あるいは
、(12)式を用いる。
C', j (n) = (1-δ)・C1J(n) 10A・δ (9)
C'lj (n) -(1-δ)・c+J(n) +sign (r+) ・sign (rz) ・
δ (10) Next, in the second invention, the second codebook is modified using the code vector selected from the first coat hook. For the modification, equation (11) or equation (12) is used.

C’zi(n) =sigロ (T+)   ・ sign  (rz)
   ・ B  −C+j  (n)+ Czr (n
 )               (11)C’zi
(n) =A・δ−C1j (n)+ (l−δ)  −Chi
 (rl)・・・(12) また、簡略化した(13)、  (14)式を用いるこ
ともできる。
C'zi(n) = siguro (T+) ・ sign (rz)
・ B −C+j (n)+ Czr (n
) (11) C'zi
(n) =A・δ−C1j (n)+ (l−δ) −Chi
(rl)...(12) Furthermore, simplified equations (13) and (14) can also be used.

C’z((n) −”δ+(1−δ)  ・Chi (
n)・ ・ ・(13) +2゜(n) =sign (r+)  °sign (T2)  0
 δ+ (1−δ)  ・Czt (n)      
     (14)さらに第3の発明では、音声信号の
音源信号を、前記文献1のように適応コードブックとコ
ートフックとで表す。適応コードブックにより過去の音
源信号をもとに求めたピッチ予測音源信号を用いて、コ
ードブックで選択されたコードベクトルを修正する。修
正は(15)式あるいは(16)式に従う。
C'z((n) −”δ+(1−δ) ・Chi (
n)・・・・(13) +2゜(n) =sign (r+) °sign (T2) 0
δ+ (1-δ) ・Czt (n)
(14) Furthermore, in the third invention, the sound source signal of the audio signal is represented by an adaptive codebook and a coat hook as in the above-mentioned document 1. The code vector selected in the codebook is corrected using the pitch predicted excitation signal obtained based on the past excitation signal using the adaptive codebook. The modification follows equation (15) or equation (16).

C′、(n) =sign (β)  ・sign (7+) B−v
 (n −M)±Cj ’(n )         
      (15)C′、(n) −A・δ−v (n−M) + (1−δ)−Cj(n
)・・・(16) ここでv(n−M)は、適応コードブックで求めたピッ
チ予測音源信号である。また、c=(n)はコードブッ
クから選択されたj番目のコードベクトルである。
C', (n) = sign (β) ・sign (7+) B-v
(n-M)±Cj'(n)
(15) C', (n) -A・δ-v (n-M) + (1-δ)-Cj(n
)...(16) Here, v(n-M) is the pitch predicted excitation signal obtained using the adaptive codebook. Further, c=(n) is the j-th code vector selected from the codebook.

また、簡略化した(17)、  (18)式を用いるこ
ともできる。
Furthermore, simplified equations (17) and (18) can also be used.

C′、(n) =A・δ+(1−δ) ・cJ(n)      (1
7)C’J(n) −sign (β)  ・sign(r+)  Hδ+
(1−δ)・C5(n )          (18
)また、コードブックから選択されたコードベクトルC
4(n)を用いてピンチ予測音源信号を修正することも
できる。
C', (n) =A・δ+(1−δ)・cJ(n) (1
7) C'J(n) -sign (β) ・sign(r+) Hδ+
(1-δ)・C5(n) (18
) Also, the code vector C selected from the codebook
4(n) can also be used to modify the pinch prediction source signal.

[実施例] 第1図は第1の発明による音声符号化方式を実施する音
声符号化装置を示すブロック図である。
[Embodiment] FIG. 1 is a block diagram showing a speech encoding device implementing the speech encoding method according to the first invention.

送信側では、入力端子110から音声信号を入力し、1
フレ一ム分(例えば20m5 )の音声信号をバッファ
メモリ120に格納する。
On the transmitting side, an audio signal is input from the input terminal 110, and 1
The audio signal for one frame (for example, 20 m5) is stored in the buffer memory 120.

LPG計算回路130は、フレームの音声信号のスペク
トル特性を表すパラメータとして、LSPパラメータを
フレームの音声信号から周知のLPG分析を行い、予め
定められた次数したけ計算する。この具体的な計算法に
ついては前記文献1を参照することかできる。
The LPG calculation circuit 130 performs well-known LPG analysis on the frame audio signal to calculate LSP parameters of predetermined orders as parameters representing the spectral characteristics of the frame audio signal. Regarding this specific calculation method, reference can be made to the above-mentioned document 1.

次にLSP量子化回路140は、LSPパラメータを予
め定められた量子化ビット数で量子化し、得た符号lk
をマルチプレクサ260へ出力するとともに、これを復
号化してさらに線形予測係数a;’(i=1〜L)に変
換して、重み付は回路200.インパルス応答計算回路
1701合成フィルタ281へ出力する。LSPパラメ
ータの符号化、 LSPパラメータから線形予測係数へ
の変換の方法については、Sugamura氏らによる
Quantizer design in LSP 5
peechanalysis−synthesis”と
題した論文(IEEE J、Sel。
Next, the LSP quantization circuit 140 quantizes the LSP parameters with a predetermined number of quantization bits, and the obtained code lk
is output to the multiplexer 260, and is decoded and further converted into linear prediction coefficients a;' (i=1 to L), and the weighting is performed by the circuit 200. Impulse response calculation circuit 1701 is output to synthesis filter 281. Regarding the method of encoding LSP parameters and converting LSP parameters into linear prediction coefficients, see Quantizer design in LSP 5 by Mr. Sugamura et al.
IEEE J, Sel.

Areas Commun、、 pp、432−440
.1988)  (文献4)等を参照することができる
Areas Commun,, pp, 432-440
.. 1988) (Reference 4).

サブフレーム分割回路150は、フレームの音声信号を
サブフレームに分割する。ここで例えばフレーム長は2
0m5、サブフレーム長は5msとする。
The subframe division circuit 150 divides the frame audio signal into subframes. For example, the frame length is 2
0m5, and the subframe length is 5ms.

重み付は回路200は、減算した信号に対して周知の聴
感重み付けを行う。聴感重み付は関数の詳細は、前記文
献lを参照できる。
The weighting circuit 200 performs well-known perceptual weighting on the subtracted signal. For details of the perceptual weighting function, refer to the above-mentioned document 1.

減算器190は、サブフレームに分割された人力信号か
ら合成フィルタ281の出力を減算して出力する。
The subtracter 190 subtracts the output of the synthesis filter 281 from the human signal divided into subframes and outputs the result.

適応コードブック210は、合成フィルタ281 の人
力信号v (n)を遅延回路206を介して入力し、さ
らにインパルス応答出力回路170から重み付はインパ
ルス応答hw (n) 、重み付は回路200から重み
付は信号を入力し、長期相関にもとづくピンチ予測を行
い、ピッチパラメータとして遅延Mとゲインβを計算す
る。以下の説明では適応コードブックの予測次数は1と
するが、2次以上の高次とすることもできる。1次の適
応コードブックにおける遅延M、ゲインβの計算法は、
Kleijin″Improved 5peech q
uality and efficient vect
or quantization in 5ELP”と
題した論文(Proc。
The adaptive codebook 210 inputs the human input signal v (n) of the synthesis filter 281 via the delay circuit 206, and further inputs the weighted impulse response hw (n) from the impulse response output circuit 170 and the weighted signal from the circuit 200. Next, a signal is input, pinch prediction is performed based on long-term correlation, and delay M and gain β are calculated as pitch parameters. In the following explanation, the prediction order of the adaptive codebook is assumed to be 1, but it can also be set to a higher order than 2. The calculation method for delay M and gain β in the first-order adaptive codebook is as follows:
Kleijin"Improved 5peech q
quality and efficiency
or quantization in 5ELP” (Proc.

ICASSP、 pp、155−158.1988年)
(文献5)等に記載されている。さらに求めたゲインβ
をゲイン量子化器により予め定められた量子化ビット数
で量子化復号化し、ゲインβ′を求め、これを用いて次
式により予測信号9w(n)を計算し減算器205に出
力する。また遅延Mをマルチプレクサ260へ出力する
ICASSP, pp, 155-158.1988)
(Reference 5) etc. Further obtained gain β
is quantized and decoded by a gain quantizer using a predetermined number of quantization bits to obtain a gain β'. Using this, a prediction signal 9w(n) is calculated by the following equation and output to the subtracter 205. It also outputs the delay M to the multiplexer 260.

xw(n)−β’ −v (n−M) * h、 (n
)  (19)上式でv(n−M)は過去の音源信号で
、合成フィルタ281の入力信号である。h、(n)は
インパルス応答計算回路170で求めた重み付はインパ
ルス応答である。
xw(n)-β'-v (n-M) * h, (n
) (19) In the above equation, v(n-M) is a past sound source signal and is an input signal of the synthesis filter 281. h and (n) are the weighted impulse responses obtained by the impulse response calculation circuit 170.

遅延回路206は、合成フィルタ入力信号v (n)を
1サブフレ一ム分遅延させて適応コードブック210へ
出力する。
The delay circuit 206 delays the synthesis filter input signal v (n) by one subframe and outputs the delayed signal to the adaptive codebook 210 .

減算器205は、次式により重み付は回路200の出力
信号から適応コードブック210の出力を減算し、残差
信号e、(n)を第1のコードブック探索回路230に
出力する。
The subtracter 205 subtracts the output of the adaptive codebook 210 from the output signal of the weighting circuit 200 using the following equation, and outputs the residual signal e,(n) to the first codebook search circuit 230.

el、1(n)=x、1(n)−x、(n)     
 (20)インパルス応答計算回路170は、聴感重み
付けした合成フィルタのインパルス応答hl、(n)を
、予め定められたサンプル数りだけ計算する。具体的な
計算法は、前記文献1等を参照できる。
el, 1(n)=x, 1(n)-x, (n)
(20) The impulse response calculation circuit 170 calculates the impulse response hl,(n) of the auditory weighted synthesis filter for a predetermined number of samples. For a specific calculation method, reference can be made to the above-mentioned document 1, etc.

第1のコードブック探索回路230は、第1のコードブ
ック235を用いて最適なコードワードC1j(n)を
探索する。ここで作用の項に記したように、第1のコー
ドブックは、予めトレーニング信号を用いて学習してお
く。最適なコードベクトルC+=(n)の探索法は、特
願平2−42956号明細書(文献6)等を参照できる
。そして最適なゲインγ1を求め、これとC1j(n)
を用いて前記文献6の方法により重み付は再生信号yw
(n)を求め出力する。
The first codebook search circuit 230 uses the first codebook 235 to search for the optimal codeword C1j(n). As described in the section on effects, the first codebook is learned in advance using a training signal. For a method of searching for the optimal code vector C+=(n), reference can be made to Japanese Patent Application No. 2-42956 (Reference 6). Then, find the optimal gain γ1 and use this and C1j(n)
The weighting is performed using the method of the above-mentioned document 6 using the reproduced signal yw
(n) is found and output.

減算器255は、ew(n)からy、(n)を減算して
第2のコードブック探索回路270へ出力する。
The subtracter 255 subtracts y,(n) from ew(n) and outputs the result to the second codebook search circuit 270.

第2のコードブック探索回路270は、第2のコードブ
ック275から最適なコードワードを計算する。第2の
コードブック探索回路の構成は、第1のコードブック探
索回路の構成と基本的に同一の構成を用いることができ
る。また、コードワードの探索法としては、第1のコー
ドブック235の探索と同一の方法を用いることができ
る。第2のコードブックの構成法としては、作用の項で
述べたように、学習コードブックの高効率を保ちながら
トレーニングデータ依存性を救済するために、乱数系列
からなるコードブックを用いる。乱数系列からなるコー
ドブックの構成法は前記文献1を参照できる。
Second codebook search circuit 270 calculates an optimal codeword from second codebook 275. The configuration of the second codebook search circuit can be basically the same as the configuration of the first codebook search circuit. Further, as a codeword search method, the same method as the search for the first codebook 235 can be used. As described in the operation section, the second codebook is constructed using a codebook consisting of a random number sequence in order to maintain the high efficiency of the learning codebook and relieve the training data dependence. The above-mentioned document 1 can be referred to for a method of constructing a codebook consisting of a random number sequence.

また、コードブック探索の演算量の低減化のために、第
2のコードブック275として、重畳型(0νerla
p)乱数コードブックを用いることができる。重畳型乱
数コードブックの構成法、コードワード探索法について
は前記文献5等を参照できる。
In addition, in order to reduce the amount of calculation for codebook search, a superimposed type (0νerla) is used as the second codebook 275.
p) A random number codebook can be used. Regarding the construction method of the superimposed random number codebook and the codeword search method, reference can be made to the above-mentioned document 5 and the like.

また、第1のコードブックと同様に予め学習して構成す
ることもできる。
Further, like the first codebook, it can be configured by learning in advance.

ゲイン量子化器286は、作用に述べた方法により、予
め学習により(12)、 (13)式を用いて作成した
ゲインコードブンク287を用いて、ゲインγ、。
The gain quantizer 286 calculates the gain γ by using the gain code bank 287 created in advance using equations (12) and (13) by learning according to the method described in the operation section.

γ2をベクトル量子化する。詳細な前記文献6等を参照
できる。
Vector quantize γ2. For details, refer to the above-mentioned document 6.

修正回路280は、作用の項で述べた(6)〜(10)
式を用いて、第1のコードブック探索回路230におい
て選択されたコードベクトルC1j(n)の修正を行う
The correction circuit 280 performs (6) to (10) described in the operation section.
The code vector C1j(n) selected by the first codebook search circuit 230 is modified using the formula.

加算器290は、適応コードブック210の予測音源信
号と、第1のコードブック探索回路230の出力音源信
号と、第2のコードブック探索回路270の出力音源信
号とを加算して合成フィルタ281へ出力する。
The adder 290 adds the predicted excitation signal of the adaptive codebook 210, the output excitation signal of the first codebook search circuit 230, and the output excitation signal of the second codebook search circuit 270, and sends the result to the synthesis filter 281. Output.

合成フィルタ281は、加算器290の出力v (n)
を入力し、下式により合成音声を1フレーム分求め、さ
らにもう1フレ一ム分は0の系列をフィルタに入力して
応答信号系列を求め、1フレ一ム分の応答信号系列を減
算器190に出力する。
The synthesis filter 281 outputs the output v (n) of the adder 290
is input, calculate one frame of synthesized speech using the formula below, and input a series of 0s for one more frame into the filter to obtain a response signal sequence. 190.

(0<η< 1 )   (21) ただし マルチプレクサ260は、LSP量子化回路140.適
応コードジンク210.第1のコードブック探索回路2
30.第2のコードブック探索回路270.ゲイン量子
化器286の出力符号系列を組みあわせて出力する。
(0<η<1) (21) However, the multiplexer 260 is connected to the LSP quantization circuit 140. Adaptive Code Zinc 210. First codebook search circuit 2
30. Second codebook search circuit 270. The output code sequences of the gain quantizer 286 are combined and output.

以上で第1の発明の詳細な説明を終える。This concludes the detailed description of the first invention.

第2図は、第2の発明による音声符号化方式を実施する
音声符号化装置を示すブロック図である。
FIG. 2 is a block diagram showing a speech encoding device implementing the speech encoding method according to the second invention.

図において、第1図と同一の番号を付した構成要素は、
第1図の構成要素と同一の動作を行うので説明を省略す
る。
In the figure, components numbered the same as in Figure 1 are as follows:
Since the components perform the same operations as those shown in FIG. 1, their explanation will be omitted.

修正回路380は、第1のコードブック探索回路230
において選択されたコードベクトルC1j(n)を用い
て、作用の項で述べた(11)〜(14)式にもとづき
、第2のコードブック探索回路270において選択され
たコードベクトルCz;(n)の修正を行つ。
The correction circuit 380 is the first codebook search circuit 230
Using the code vector C1j(n) selected in the second codebook search circuit 270, based on the equations (11) to (14) described in the operation section, the code vector Cz;(n) Make corrections.

以上で第2の発明の説明を終える。This concludes the explanation of the second invention.

第3図は、第3の発明による音声符号化方式を実施する
音声符号化装置を示すブロック図である。
FIG. 3 is a block diagram showing a speech encoding device implementing the speech encoding method according to the third invention.

図において、第1図と同一の番号を付した構成要素は、
第1図の構成要素と同一の動作を行うので説明を省略す
る。
In the figure, components numbered the same as in Figure 1 are as follows:
Since the components perform the same operations as those shown in FIG. 1, their explanation will be omitted.

音源コードブック探索回路430は、第1のコードブッ
ク探索回路230と同一の動作を行い、最適な音源信号
を音源コードブック435から選択する。
The sound source codebook search circuit 430 performs the same operation as the first codebook search circuit 230 and selects the optimal sound source signal from the sound source codebook 435.

修正回路480は、適応コードブック210で求められ
たピンチ予測音源信号v(n−M)を用いて、(15)
〜(18)式を用いて、音源コードブック探索回路43
0により選択された音源信号C4、(n)の修正を行う
The correction circuit 480 uses the pinch prediction excitation signal v(n-M) obtained using the adaptive codebook 210 to calculate (15)
~ Using equation (18), the sound source codebook search circuit 43
The sound source signal C4, (n) selected by 0 is corrected.

以上により第3の発明の詳細な説明を終える。This completes the detailed description of the third invention.

修正回路における修正方法においては、実施例で述べた
方法以外に、下記の方法を用いることもできる。例えば
、第1の発明を例にとると、C’lj (n) −(1−δ)  ・C+j (n) +sign・l 
T2/ ’r・δ・Cz+ (n)         
    (23)ここでsignは正あるいは負の符号
を示す。符号は次式を最小化する方を選択する。
In addition to the method described in the embodiment, the following method can also be used as a correction method in the correction circuit. For example, taking the first invention as an example, C'lj (n) -(1-δ) ・C+j (n) +sign・l
T2/ 'r・δ・Cz+ (n)
(23) Here, sign indicates a positive or negative sign. The code is selected to minimize the following equation.

E−Σ [et、+ (n)”−TIC’la (n)
* h、、(n)] 2          (24)
ここでe、1(n)は減算器205の出力信号である。
E−Σ [et, + (n)”−TIC'la (n)
*h,,(n)] 2 (24)
Here, e,1(n) is the output signal of the subtracter 205.

上式を最小化するには、上式をT1で偏微分してOとお
いた下式を最小化すればよい。
In order to minimize the above equation, it is sufficient to partially differentiate the above equation with respect to T1 and minimize the below equation, which is set as O.

−r、X ew (n)fc’+; (n)*hw(n
)l k ”/Σ (C’+i (n)  *hw (
n))  2   (2,1))従って、(23)弐の
符号を正と負乙こした両者について(25)式を計算し
、(25)式がより大きな値をとる方の符号を1ピント
で伝送する。
-r, X ew (n)fc'+; (n)*hw(n
)l k ”/Σ (C'+i (n) *hw (
n)) 2 (2,1)) Therefore, calculate equation (25) for both positive and negative signs of (23)2, and set the sign of the one where equation (25) takes a larger value to 1. Transmit with focus.

第2および第3の発明においても上述と同様な構成をと
ることができる。
The second and third inventions can also have a configuration similar to that described above.

また、上述の実施例では、適応コートフ7・りのゲイン
、第1.第2のコードブックのゲイン、あるいは、適応
コードブックのゲインと音源コードブックのゲインには
同時最適化を施さなかったが、適応コードブック第1の
コードブック第2のコードブックのゲインについて、同
時最適化を行い、さらに特性を改善する。この同時最適
化は、第1.2のコードブックのコードベクトルを求め
るときになお、演算量の低減化のために、第1のコード
ブックのコードベクトル探索のときにのみゲイン最適化
を行い、第2のコードブックの探索のときには行わない
構成とすることもできる。
Further, in the above-described embodiment, the gain of the adaptive coat 7 and the first . Although we did not perform simultaneous optimization on the gain of the second codebook, or the gain of the adaptive codebook and the gain of the sound source codebook, we did not perform simultaneous optimization on the gain of the adaptive codebook, the first codebook, and the second codebook. Perform optimization and further improve characteristics. This simultaneous optimization performs gain optimization only when searching for the code vector of the first codebook in order to reduce the amount of calculation when calculating the code vector of the first codebook. It is also possible to adopt a configuration in which the search is not performed when searching the second codebook.

また、さらに演算量を低減するためには、コードブック
のコードへり!・ルの探索のときにはゲインの最適化を
行わずに、適応コードブックと第1のコードブックのゲ
インの同時最適化を行い、さらに、適応コードブックと
第1.2のコードブックのゲインを同時に最適化する構
成を用いることもできる。詳細は前記文献5等を参照で
きる。
In addition, in order to further reduce the amount of calculation, the code edge of the code book!・When searching for the code, the gains of the adaptive codebook and the first codebook are simultaneously optimized without optimizing the gains, and the gains of the adaptive codebook and the first and second codebooks are simultaneously optimized. Optimizing configurations may also be used. For details, refer to the above-mentioned document 5 and the like.

また、さらに演算量を低減化するためには、第1.2の
コードブックのコードベクトルが選択された後に、適応
コードブックのゲインβと、第12のコードブックのゲ
インT++Tzの3種を同時に最適化するような構成と
することもできる。詳細は前記文献6等を参照できる。
In addition, in order to further reduce the amount of calculation, after the code vector of the 1.2nd codebook is selected, the gain β of the adaptive codebook and the gain T++Tz of the 12th codebook are simultaneously calculated. It is also possible to configure a configuration for optimization. For details, refer to the above-mentioned document 6.

また、第1のコードブックの探索法は実施例の方法以外
にも他の周知な方法を用いることができる。例えば、前
記文献1に記載の方法や、予めコードブックの各コード
ワードC+;(n)の直交変換CI(k)と求めて格納
しておき、サブフレーム毎に、重み付はインパルス応答
り。(n)の直交変換H,(k)と、残差信号e、(n
)の直交変換E1.1(k)を予め定められた点数だけ
求め、周波数軸上で探索することもできる。詳細は前記
文献5等を参照できる。
In addition to the method of the embodiment, other well-known methods can be used as the first codebook search method. For example, the method described in the above-mentioned document 1 or the orthogonal transformation CI(k) of each codeword C+;(n) of the codebook is determined and stored in advance, and the weighting is done by impulse response for each subframe. The orthogonal transformation H, (k) of (n) and the residual signal e, (n
It is also possible to obtain orthogonal transformation E1.1(k) of ) by a predetermined number of points and search on the frequency axis. For details, refer to the above-mentioned document 5 and the like.

また、第2のコードブックの探索法としては、前記実施
例の方法以外にも上記で示した方法や、前記文献6に記
載の方法や、他の周知な良好な方法を用いることができ
る。
Furthermore, as a search method for the second codebook, in addition to the method of the above embodiment, the method shown above, the method described in the above-mentioned document 6, and other well-known good methods can be used.

また、第2のコードブックの構成法としては、前記実施
例に記載した方法以外に、例えば予め膨大な乱数系列を
コードブックとして用意して、それらを用いてトレーニ
ングデータに対して乱数系列の探索を行い、選択される
頻度が高いものからコードワードとして登録して第2の
コードブックを構成することもできる。なお、この構成
法は、第1のコードブックの構成にも適用することがで
きる。
In addition, as a method for configuring the second codebook, in addition to the method described in the above embodiment, for example, a huge number of random number sequences can be prepared in advance as a codebook, and these can be used to search for a random number sequence for training data. It is also possible to construct a second codebook by registering the codewords as codewords in descending order of frequency of selection. Note that this configuration method can also be applied to the configuration of the first codebook.

また、上記実施例では、適応コードブックのゲインと第
1.第2のコードブックのゲインは別々ニヘクトル量子
化したが、3種のゲインβ、TT2あるいはβ、T1を
まとめてベクトル量子化するような構成をとることもで
きる。詳細は前記文献5や、1.Gerson氏らによ
る”Vector sum excited 1ine
ar prediction” (VSELP) 5p
eech codingat 8kbp/s ” と題
した1命文(Proc、 ICASSP、 pp。
Furthermore, in the above embodiment, the gain of the adaptive codebook and the first . Although the gains of the second codebook are vector-quantized separately, it is also possible to adopt a configuration in which the three types of gains β, TT2 or β, T1 are vector-quantized together. For details, see the above-mentioned document 5 and 1. “Vector sum excited 1ine” by Mr. Gerson et al.
ar prediction” (VSELP) 5p
1 imperative entitled ``eech codingat 8kbp/s'' (Proc, ICASSP, pp.

461−464.1990)  (文献7)等を参照で
きる。
461-464.1990) (Reference 7).

また、前記実施例では、適応コードブ・ンクの次数は1
次としたが、2次以上の高次とすることもできる。また
、次数は1次のままで遅延を整数値ではなく小数値とす
ることもできる。これらについての詳細は、例えばP、
Kroon氏らによる’ P i tchpredic
tors with high temporal r
esolution”と題した論文(Proc、 IC
ASSP、 pp、661−664.1990)(文献
8)等を参照できる。以上のようにした方が特性は向上
するが、ゲインあるいは遅延の伝送に必要な情報量が若
干増大する。
Further, in the above embodiment, the order of the adaptive code book is 1.
Although the following is used, it is also possible to set it to a higher order than second order. Further, it is also possible to set the delay to a decimal value instead of an integer value while keeping the order as one. For details about these, see P.
'Pi tch predic by Kroon et al.
tors with high temporal r
A paper titled “Proc.
ASSP, pp, 661-664.1990) (Reference 8), etc. can be referred to. Although the above method improves the characteristics, the amount of information necessary for transmitting gain or delay increases slightly.

また、前記の実施例では、スペクトルパラメータとして
にパラメータ、 LSPパラメータを符号化し、その分
析法としてLPG分析を用いたが、スペクトルパラメー
タとしては他の周知なパラメータ、例えばLPCケプス
トラム、ケプストラム、改良ケプヌトラム、一般化ケプ
スドラム、メルケブストラムなどを用いることもできる
。また各パラメータに最適な分析法を用いることができ
る。
Furthermore, in the above embodiment, parameters and LSP parameters were encoded as spectral parameters, and LPG analysis was used as an analysis method thereof. However, as spectral parameters, other well-known parameters such as LPC cepstrum, cepstrum, improved cepnutrum, Generalized cepstrum, merkebstrum, etc. can also be used. Furthermore, it is possible to use the optimal analysis method for each parameter.

また、フレームで求めたLPC係数をLSP上や線形予
測係数上でサブフレーム毎に補関し、補間した係数を用
いて適応コードブック、第1.第2のコードブックの探
索を行う構成としてもよい。このような構成とすること
により、音質がさらに改善される。
In addition, the LPC coefficients obtained for each frame are interpolated on LSP and linear prediction coefficients for each subframe, and the interpolated coefficients are used to create an adaptive codebook. A configuration may also be adopted in which a second codebook is searched. With such a configuration, the sound quality is further improved.

また、LSP係数は周知の方法により、ベクトル量子化
あるいはへクトルースカラ量子化することにより、さら
に効率的に符号化することができる。
Further, the LSP coefficients can be encoded more efficiently by vector quantization or hectorose scalar quantization using a well-known method.

ヘクトルースカラ量子化の方法については例えば前記文
献3等を参照できる。
For the method of hectose scalar quantization, reference can be made to, for example, the above-mentioned document 3.

また、受信側では、量子化雑音を整形することにより聴
覚的に聞き易くするために、ピッチとスペクトル包絡の
少なくとも1つについて動作する適応形ポストフィルタ
を付加してもよい。適応型ポストフィルタの構成につい
ては、例えば、Kroon氏らによる”A C1ass
 of Analysis−by−synthesis
Predictive  Coders  for  
)figh  [1uality  5peechCo
din(Hat Rates  betiyeen 4
.8 and  16kb/s、”  (JEEEJS
AC,vol、6.2.353−363.1988) 
(文献9)等を参照できる。
Furthermore, on the receiving side, an adaptive post filter that operates on at least one of pitch and spectrum envelope may be added in order to make the quantization noise easier to hear by shaping it. Regarding the configuration of the adaptive post filter, for example, "A C1ass" by Kroon et al.
of analysis-by-synthesis
Predictive Coders for
) figure [1uality 5peechCo
din(Hat Rates betiyeen 4
.. 8 and 16kb/s,” (JEEEJS
AC, vol, 6.2.353-363.1988)
(Reference 9) etc. can be referred to.

〔発明の効果〕〔Effect of the invention〕

以上述べたように、本発明によれば、第1あるいは第2
のコードブックにより選択されたコードベクトルを、第
2あるいは第1のコードブックにより選択されたコード
ベクトルをもとに修正するか、あるいは、適応コードブ
ックにより選択されたピッチ予測音源信号をもとに音源
コードブ・ンクにより選択されたコードベクトルを修正
するか、あるいは、前記コードベクトルによりピッチ予
測音源信号を修正しているので、コードブックの特性を
人力信号の特性に適応化させることが可能となり、低ビ
ツトレートにおいてコードブックサイズを低減しても従
来方式よりも良好な特性が得られるという大きな効果が
ある。
As described above, according to the present invention, the first or second
The codevector selected by the codebook is modified based on the codevector selected by the second or first codebook, or the codevector selected by the adaptive codebook is modified based on the pitch predicted excitation signal selected by the adaptive codebook. Since the code vector selected by the sound source codebook is modified or the pitch predicted sound source signal is modified by the code vector, it is possible to adapt the characteristics of the codebook to the characteristics of the human signal, This method has the great effect of providing better characteristics than the conventional method even if the codebook size is reduced at low bit rates.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は第1の発明による音声符号化方式を実施する音
声符号化装置を示すブロック図、第2図は第2の発明に
よる音声符号化方式を実施する音声符号化装置を示すブ
ロック図、第3図は第3の発明による音声符号化方式を
実施する音声符号化装置を示すブロック図である。 110  ・・・・・バッファメモリ 130  ・・・・・LPC計算回路 140  ・・・・・量子化回路 150  ・・・・・サブフレーム分割回路170  
・・・・・インパルス応答計算回路190、205.2
55  ・・・減算器200  ・・・・・重み付は回
路 206  ・・・・・遅延回路 210  ・・・・・適応コードブック230  ・・
・・・第1のコードブック探索回路235  ・・・・
・第1のコードブック281  ・・・・・合成フィル
タ 270  ・・・・・第2のコードブック探索回路27
5  ・・・・・第2のコードブンク380、480 
 ・・・修正回路 ・・・・・ゲイン量子化器 ・ ・・ ・ ・ゲインコードブック ・・・・・音源コードブック探索回路 ・・・・・音源コードブック
FIG. 1 is a block diagram showing a speech encoding device implementing the speech encoding method according to the first invention, FIG. 2 is a block diagram showing a speech encoding device implementing the speech encoding method according to the second invention, FIG. 3 is a block diagram showing a speech encoding device implementing the speech encoding method according to the third invention. 110 ...Buffer memory 130 ...LPC calculation circuit 140 ...Quantization circuit 150 ...Subframe division circuit 170
... Impulse response calculation circuit 190, 205.2
55...Subtractor 200...Weighting circuit 206...Delay circuit 210...Adaptive codebook 230...
...First codebook search circuit 235...
-First codebook 281...Synthesis filter 270...Second codebook search circuit 27
5...Second code bunk 380, 480
... Correction circuit ... Gain quantizer ... ... Gain codebook ... Sound source codebook search circuit ... Sound source codebook

Claims (3)

【特許請求の範囲】[Claims] (1)入力した離散的な音声信号を予め定められた時間
長のフレームに分割し、前記音声信号のスペクトル包絡
を表すスペクトルパラメータを求めて出力し、前記フレ
ームを予め定められた時間長の小区間に分割し、過去の
音源信号をもとに再生した信号が前記音声信号に近くな
るようにピッチパラメータを求め、前記音声信号の音源
信号を第1のコードブックから選択した信号と第2のコ
ードブックから選択した信号との線形結合により表す音
声符号化方式において、 前記第2のコードブックから選択した信号をもとに前記
第1のコードブックを修正することを特徴とする音声符
号化方式。
(1) Divide the input discrete audio signal into frames of a predetermined time length, obtain and output spectral parameters representing the spectral envelope of the audio signal, and divide the frames into frames of a predetermined time length. The pitch parameter is determined so that the signal reproduced based on the past sound source signal is close to the sound signal, and the sound source signal of the sound signal is divided into intervals between the signal selected from the first codebook and the second codebook. In a speech encoding method expressed by linear combination with a signal selected from a codebook, the speech encoding method is characterized in that the first codebook is modified based on the signal selected from the second codebook. .
(2)入力した離散的な音声信号を予め定められた時間
長のフレームに分割し、前記音声信号のスペクトル包絡
を表すスペクトルパラメータを求めて出力し、前記フレ
ームを予め定められた時間長の小区間に分割し、過去の
音源信号をもとに再生した信号が前記音声信号に近くな
るようにピッチパラメータを求め、前記音声信号の音源
信号を第1のコードブックから選択した信号と第2のコ
ードブックから選択した信号との線形結合により表す音
声符号化方式において、 前記第1のコードブックから選択した信号をもとに前記
第2のコードブックを修正することを特徴とする音声符
号化方式。
(2) Divide the input discrete audio signal into frames of a predetermined time length, obtain and output spectral parameters representing the spectral envelope of the audio signal, and divide the frames into frames of a predetermined time length. The pitch parameter is determined so that the signal reproduced based on the past sound source signal is close to the sound signal, and the sound source signal of the sound signal is divided into intervals between the signal selected from the first codebook and the second codebook. A speech encoding method represented by linear combination with a signal selected from a codebook, characterized in that the second codebook is modified based on the signal selected from the first codebook. .
(3)入力した離散的な音声信号を予め定められた時間
長のフレームに分割し、前記音声信号のスペクトル包絡
を表すスペクトルパラメータを求めて出力し、前記フレ
ームを予め定められた時間長の小区間に分割し、前記小
区間毎にピッチパラメータを求めてピッチ予測音源信号
を求め、前記ピッチ予測音源信号とコードブックから選
択した信号とにより前記音声信号の音源信号を表す音声
符号化方式において、 前記ピッチ予測音源信号をもとに前記コードブックを修
正するか、あるいは、前記コードブックから選択した信
号により前記予測音源信号を修正することを特徴とする
音声符号化方式。
(3) Divide the input discrete audio signal into frames of a predetermined time length, obtain and output spectral parameters representing the spectral envelope of the audio signal, and divide the frames into frames of a predetermined time length. A speech encoding method in which the speech signal is divided into sections, a pitch parameter is obtained for each of the small sections to obtain a pitch predicted excitation signal, and the speech source signal of the speech signal is expressed by the pitch predicted excitation signal and a signal selected from a codebook. A speech encoding method characterized in that the codebook is modified based on the pitch predicted excitation signal, or the predicted excitation signal is modified using a signal selected from the codebook.
JP02184234A 1990-07-13 1990-07-13 Audio coding method Expired - Lifetime JP3102017B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02184234A JP3102017B2 (en) 1990-07-13 1990-07-13 Audio coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02184234A JP3102017B2 (en) 1990-07-13 1990-07-13 Audio coding method

Publications (2)

Publication Number Publication Date
JPH0473700A true JPH0473700A (en) 1992-03-09
JP3102017B2 JP3102017B2 (en) 2000-10-23

Family

ID=16149725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02184234A Expired - Lifetime JP3102017B2 (en) 1990-07-13 1990-07-13 Audio coding method

Country Status (1)

Country Link
JP (1) JP3102017B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5432883A (en) * 1992-04-24 1995-07-11 Olympus Optical Co., Ltd. Voice coding apparatus with synthesized speech LPC code book
JPH0844398A (en) * 1994-08-02 1996-02-16 Nec Corp Voice encoding device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01232829A (en) * 1988-03-12 1989-09-18 Graphics Commun Technol:Kk Method and apparatus for learning type multi-stage vector quantization

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01232829A (en) * 1988-03-12 1989-09-18 Graphics Commun Technol:Kk Method and apparatus for learning type multi-stage vector quantization

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5432883A (en) * 1992-04-24 1995-07-11 Olympus Optical Co., Ltd. Voice coding apparatus with synthesized speech LPC code book
JPH0844398A (en) * 1994-08-02 1996-02-16 Nec Corp Voice encoding device

Also Published As

Publication number Publication date
JP3102017B2 (en) 2000-10-23

Similar Documents

Publication Publication Date Title
KR100264863B1 (en) Method for speech coding based on a celp model
EP0409239B1 (en) Speech coding/decoding method
JP4064236B2 (en) Indexing method of pulse position and code in algebraic codebook for wideband signal coding
JP4662673B2 (en) Gain smoothing in wideband speech and audio signal decoders.
JP3143956B2 (en) Voice parameter coding method
JPH0854898A (en) Voice coding device
JPH0473700A (en) Sound encoding system
JP3232701B2 (en) Audio coding method
JP3662597B2 (en) Analytical speech coding method and apparatus with generalized synthesis
JP3252285B2 (en) Audio band signal encoding method
US7716045B2 (en) Method for quantifying an ultra low-rate speech coder
JP3194930B2 (en) Audio coding device
JP2956068B2 (en) Audio encoding / decoding system
JP3256215B2 (en) Audio coding device
JP3089967B2 (en) Audio coding device
JP3296411B2 (en) Voice encoding method and decoding method
JP3578933B2 (en) Method of creating weight codebook, method of setting initial value of MA prediction coefficient during learning at the time of codebook design, method of encoding audio signal, method of decoding the same, and computer-readable storage medium storing encoding program And computer-readable storage medium storing decryption program
JP3192051B2 (en) Audio coding device
JP2853170B2 (en) Audio encoding / decoding system
JP3092436B2 (en) Audio coding device
JPH08320700A (en) Sound coding device
JPH0455899A (en) Voice signal coding system
JP3144244B2 (en) Audio coding device
JPH08202398A (en) Voice coding device
JP2808841B2 (en) Audio coding method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070825

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080825

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080825

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090825

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090825

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100825

Year of fee payment: 10

EXPY Cancellation because of completion of term