JP3102017B2 - Audio coding method - Google Patents

Audio coding method

Info

Publication number
JP3102017B2
JP3102017B2 JP02184234A JP18423490A JP3102017B2 JP 3102017 B2 JP3102017 B2 JP 3102017B2 JP 02184234 A JP02184234 A JP 02184234A JP 18423490 A JP18423490 A JP 18423490A JP 3102017 B2 JP3102017 B2 JP 3102017B2
Authority
JP
Japan
Prior art keywords
codebook
signal
circuit
gain
pitch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP02184234A
Other languages
Japanese (ja)
Other versions
JPH0473700A (en
Inventor
一範 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP02184234A priority Critical patent/JP3102017B2/en
Publication of JPH0473700A publication Critical patent/JPH0473700A/en
Application granted granted Critical
Publication of JP3102017B2 publication Critical patent/JP3102017B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、音声信号を低いビットレート、特に8〜4.
8kb/s程度で高品質に符号化するための音声符号化方法
に関する。
DETAILED DESCRIPTION OF THE INVENTION INDUSTRIAL APPLICATION The present invention relates to an audio signal having a low bit rate, especially 8 to 4.
The present invention relates to a voice coding method for performing high-quality coding at about 8 kb / s.

〔従来の技術〕[Conventional technology]

音声信号を8〜4.8kb/s程度の低いビットレートで符
号化する方式としては、例えば、M.Schroeder and B.At
al氏による、“Code−excited linear prediction:High
quality speech at very low bit rates"(Proc.ICASS
P,pp.937−940,1985年)と題した論文(文献1)等に記
載されているCELP(Code Excited LPC Coding)が知ら
れている。この方法では、送信側では、フレーム毎(例
えば20ms)に音声信号から音声信号のスペクトル特性を
表すスペクトルパラメータを抽出し、フレームをさらに
小区間サブフレーム(例えば5ms)に分割し、サブフレ
ーム毎に過去の音源信号をもとに長時間相関(ピッチ相
関)を表す適応コードブックのピッチパラメータを抽出
し、ピッチパラメータによりサブフレームの音声信号を
長期予測し、長期予測して求めた残渣信号に対して、予
め定められた種類の雑音信号からなるコードブックから
選択した信号により合成した信号と、音声信号との誤差
電力を最小化するように一種類の雑音信号を選択すると
ともに、最適なゲインを計算する。そして選択された雑
音信号の種類を表すインデクスとゲイン、ならびに、前
記スペクトルパラメータとピッチパラメータを伝送す
る。
As a method of encoding an audio signal at a low bit rate of about 8 to 4.8 kb / s, for example, M. Schroeder and B. At
al says, “Code-excited linear prediction: High
quality speech at very low bit rates "(Proc.ICASS
P, pp. 937-940, 1985), and a CELP (Code Excited LPC Coding) described in a paper (Reference 1) and the like are known. In this method, the transmitting side extracts a spectrum parameter representing a spectrum characteristic of a speech signal from a speech signal for each frame (for example, 20 ms), further divides the frame into small-section subframes (for example, 5 ms), and Extracts the pitch parameter of the adaptive codebook representing the long-term correlation (pitch correlation) based on the past sound source signal. A single noise signal is selected so as to minimize the error power between the signal synthesized from the signal selected from the codebook consisting of a predetermined type of noise signal and the audio signal, and an optimal gain is selected. calculate. Then, an index and a gain indicating the type of the selected noise signal, and the spectrum parameter and the pitch parameter are transmitted.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

上述した文献1の従来方式では、高音質を得るために
は、一般に、雑音信号から構成されるコードブックのビ
ットサイズを10ビット以上にきわめて大きくする必要が
あるため、コードブックを探索して最適な雑音信号(コ
ードワード)を求めるために膨大な演算量が必要である
という問題点があった。さらに、コードブックが基本的
に雑音信号から構成されるために、コードブックから選
択された音源信号により再生された再生音声の音質は雑
音感がともなうという問題点があった。さらにビットレ
ートを低減するためにコードブックのサイズを低減させ
ると音質は急速に劣化するという問題点があった。
In the conventional method of the above-mentioned document 1, in order to obtain high sound quality, it is generally necessary to extremely increase the bit size of a codebook composed of a noise signal to 10 bits or more. There is a problem that an enormous amount of calculation is required to obtain a suitable noise signal (codeword). Further, since the codebook is basically composed of a noise signal, there is a problem that the sound quality of the reproduced sound reproduced by the sound source signal selected from the codebook is accompanied by noise. If the size of the codebook is reduced to further reduce the bit rate, there is a problem that the sound quality is rapidly deteriorated.

本発明の目的は、上述した問題点を解決し、比較的少
ない演算量およびメモリ量により、8〜4.8kb/s程度で
音質の良好な音声符号化方法を提供することにある。
SUMMARY OF THE INVENTION It is an object of the present invention to solve the above-mentioned problems and to provide a speech encoding method with a good sound quality at about 8 to 4.8 kb / s with a relatively small amount of calculation and memory.

〔課題を解決するための手段〕[Means for solving the problem]

第1の発明は、入力した離散的な音声信号を予め定め
られた時間長のフレームに分割し、前記音声信号のスペ
クトル包絡を表すスペクトルパラメータを求めて出力
し、前記フレームを予め定められた時間長の小区間を分
割し、過去の音源信号をもとに再生した信号が前記音声
信号に近くなるようにピッチパラメータを求め、前記音
声信号の音源信号を第1のコードブックから選択した信
号と第2のコードブックから選択した信号との線形結合
により表す音声符号化方法において、 前記第2のコードブックから選択した信号をもとに前
記第1のコードブックを修正することを特徴とする。
A first invention divides an input discrete audio signal into frames of a predetermined time length, obtains and outputs a spectrum parameter representing a spectrum envelope of the audio signal, and outputs the frame at a predetermined time. A long section is divided, a pitch parameter is determined so that a signal reproduced based on a past sound source signal is close to the sound signal, and a sound source signal of the sound signal is selected from a first codebook and a signal selected from a first codebook. A speech encoding method represented by a linear combination with a signal selected from a second codebook, wherein the first codebook is modified based on a signal selected from the second codebook.

第2の発明は、入力した離散的な音声信号を予め定め
られた時間長のフレームに分割し、前記音声信号のスク
トル包絡を表すスペクトルパラメータを求めて出力し、
前記フレームを予め定められた時間長の小区間に分割
し、過去の音源信号をもとに再生した信号が前記音声信
号に近くなるようにピッチパラメータを求め、前記音声
信号の音源信号を第1のコードブックから選択した信号
と第2のコードブックから選択した信号との線形結合に
より表す音声符号化方法において、 前記第1のコードブックから選択した信号をもとに前
記第2のコードブックを修正することを特徴とする。
The second invention divides the input discrete audio signal into frames of a predetermined time length, obtains and outputs a spectrum parameter representing a spectrum envelope of the audio signal,
The frame is divided into small sections of a predetermined time length, and a pitch parameter is determined so that a signal reproduced based on a past sound source signal is close to the sound signal. A speech encoding method represented by a linear combination of a signal selected from the codebook and a signal selected from the second codebook, wherein the second codebook is generated based on the signal selected from the first codebook. It is characterized by being modified.

第3の発明は、入力した離散的な音声信号を予め定め
られた時間長のフレームに分割し、前記音声信号のスペ
クトル包絡を表すスペクトルパラメータを求めて出力
し、前記フレームを予め定められた時間長の小区間に分
割し、前記小区間毎にピッチパラメータを求めてピッチ
予測音源信号を求め、前記ピッチ予測音源信号とコード
ブックから選択した信号とにより前記音声信号の音源信
号を表す音声符号化方法において、 前記ピッチ予測音源信号をもとに前記コードブックを
修正するか、あるいは、前記コードブックから選択した
信号により前記予測音源信号を修正することを特徴とす
る。
A third invention divides an input discrete audio signal into frames of a predetermined time length, obtains and outputs a spectrum parameter representing a spectrum envelope of the audio signal, and outputs the frame at a predetermined time. Speech coding that represents a sound source signal of the sound signal by dividing the sound signal into long sub-intervals, obtaining a pitch parameter for each of the sub-intervals to obtain a pitch prediction excitation signal, and using the pitch prediction excitation signal and a signal selected from a codebook. In the method, the codebook is modified based on the pitch prediction excitation signal, or the prediction excitation signal is modified by a signal selected from the codebook.

〔作用〕[Action]

本発明による音声符号化方法の作用を示す。 4 illustrates the operation of the speech encoding method according to the present invention.

第1の発明では、フレームを分割したサブフレーム毎
に、下式を最小化するように音源信号を求める。
In the first invention, a sound source signal is obtained so as to minimize the following equation for each subframe obtained by dividing a frame.

ここでβ,Mは長期相関にもとづくピッチ予測(適応コ
ードブック)のピッチパラメータ、すなわちゲインおよ
び遅延であり、v(n)は過去の音源信号である。h
(n)はスペクトルパラメータにより構成される合成フ
ィルタのインパルス応答、w(n)は聴感重み付けフィ
ルタのインパルス応答を示す。信号*は畳み込み演算を
示す。なお、w(n)の詳細については前記文献1を参
照できる。
Here, β and M are pitch parameters of pitch prediction (adaptive codebook) based on long-term correlation, that is, gain and delay, and v (n) is a past sound source signal. h
(N) indicates the impulse response of the synthesis filter composed of the spectrum parameters, and w (n) indicates the impulse response of the auditory weighting filter. The signal * indicates a convolution operation. For details of w (n), reference can be made to Reference 1.

また、d(n)はコードブックにより表される音源信
号を示し、下式のように、第1のコードブックから選択
されたコードベクトルc1(n)と第2のコードブックか
ら選択されたコードベクトルc2(n)との線形結合で表
される。
Further, d (n) represents the excitation signal represented by codebook, the following equation was first code code selected from book vectors c 1 (n) and selected from the second codebook It is represented by a linear combination with the code vector c 2 (n).

ここで、γ1は、選択されたコードワードc
1j(n),c2i(n)のゲインを示す。従って、本発明で
は、2種類のコードブックを分解して音源信号が表され
ることになるため、各コードブックはコードブック全体
のビット数の1/2でよい。例えばコードブック全体のビ
ット数を10ビットとすると、第1,2のコードブックは例
えば、5ビットずつでよく、コードブック探索の演算量
を大幅に低減できる。
Here, γ 1 and γ 2 are the selected code words c
1j (n) and c 2i (n) are shown. Therefore, in the present invention, since the sound source signal is represented by decomposing the two types of codebooks, each codebook may be half the number of bits of the entire codebook. For example, assuming that the number of bits of the entire codebook is 10 bits, the first and second codebooks may be, for example, 5 bits each, and the amount of calculation for codebook search can be greatly reduced.

各コードブックとして前記文献1のような雑音コード
ブックを用いる場合、(2)式のように分割すると、特
性的には10ビット分のコードブックよりも劣化し全体で
7〜8ビット分の性能しか出せない。
When a noise codebook as described in Reference 1 is used as each codebook, if the codebook is divided as shown in the equation (2), the codebook is characteristically degraded more than a 10-bit codebook and has a total performance of 7 to 8 bits. I can only give it.

そこで、高性能を得るために、第1のコードブックは
トレーニングデータを用いて予め学習させることにより
構成する。学習によるコードブックの構成法としては、
例えば、Lindeらによる“An Algorithm for Vector Qua
ntization De−sign"と題した論文(IEEE Trans.COM−2
8,pp.84−95,1980年)(文献2)等が知られている。
Therefore, in order to obtain high performance, the first codebook is configured by learning in advance using training data. As a method of constructing a codebook by learning,
For example, Linde et al., “An Algorithm for Vector Qua
ntization De-sign "(IEEE Trans.COM-2
8, pp. 84-95, 1980) (Literature 2).

学習のときの距離尺度としては、通常、2乗距離(ユ
ークリッド距離)が用いられるが、本発明では2乗距離
よりも性能の良好な次式による聴感重み付け距離尺度を
用いる。
As a distance measure at the time of learning, a square distance (Euclidean distance) is usually used, but in the present invention, an auditory weighting distance scale that has better performance than the square distance and is represented by the following equation is used.

ここでtj(n)はj番目のトレーニングデータ、c
l(n)はクラスタ1のコードワードである。クラスタ
1のセントロイド(代表コードワーダ)は、クラスタ1
内のトレーニングデータを用いて(4)式あるいは
(5)式を最小化するように求める。
Where t j (n) is the j-th training data, c
l (n) is the code word of cluster 1. Cluster 1 centroid (representative codeworder) is cluster 1
Equation (4) or Equation (5) is determined to be minimized using the training data in.

(5)式において、gは最適ゲインを示す。 In the equation (5), g indicates an optimum gain.

次に、第2のコードブックは、第1のコードブックに
よるトレーニングデータ依存性を救済するために、第1
のコードブックの寄与分を音源信号から減算した残りの
信号に対して、前記文献2の方法により学習により求め
たコードブックや、前記文献1のガウス性雑音信号のよ
うな予め統計的特性が確定した雑音信号あるいは乱数信
号からなるコードブックや、他の特性を有するコードブ
ックを使用する。なお、雑音コードブックに対して、あ
る距離尺度のもとで学習を行うことにより、さらに特性
が改善される。詳細は、T.Moriya氏らによる“Transfor
m Coding of Speech using a Weighted Vector Quantiz
er,"と題した論文(IEEE J.Sel.Areas Commun.,pp.425
−431,1988年)(文献3)等を参照することができる。
Next, the second codebook rewrites the first codebook to relieve the training data dependency due to the first codebook.
For the remaining signal obtained by subtracting the contribution of the codebook from the sound source signal, the statistical characteristics such as the codebook obtained by learning according to the method of Reference 2 and the Gaussian noise signal of Reference 1 are determined in advance. A codebook including a noise signal or a random number signal obtained as described above and a codebook having other characteristics are used. The characteristics are further improved by learning the noise codebook under a certain distance scale. See “Transfor by T. Moriya et al.
m Coding of Speech using a Weighted Vector Quantiz
er, "(IEEE J. Sel. Areas Commun., pp. 425
-431, 1988) (Reference 3).

第1の発明では、第2のコードブックにより選択され
たコードベクトルを用いて、第1のコードベクトルを修
正することに特徴がある。これは、第1のコードブック
を、入力信号の短時間特性に適応させ、少ないコードブ
ックサイズでより良好な特性を得るために行う。第1の
コードブックの修正は下式にしたがう。
The first invention is characterized in that the first code vector is corrected using the code vector selected by the second code book. This is performed in order to adapt the first codebook to the short-time characteristics of the input signal and to obtain better characteristics with a small codebook size. The first codebook is modified according to the following formula.

c′1j(n) =c1j(n)+sign(γ)・sign(γ)・B ・C2i(n) (6) ここでBは収束を決める正の微小量である。また、si
gn(γ)はγの符号を表す。(6)式にしたがい、送信
側,受信側共に第1のコードブックを修正する。
c ′ 1j (n) = c 1j (n) + sign (γ 1 ) · sign (γ 2 ) · B · C 2i (n) (6) where B is a small positive amount that determines convergence. Also si
gn (γ) represents the sign of γ. According to the equation (6), the first codebook is modified on both the transmitting side and the receiving side.

また、伝送路誤りに強くすると共に誤った修正の影響
を防ぐために、(6)式の代りに下式を用いることもで
きる。
Also, the following equation can be used in place of equation (6) in order to make the channel resistant to transmission line errors and to prevent the influence of erroneous correction.

c′1j(n) =(1−δ)・c1j(n)+A・δ・C2i(n) ・・・(7) ここでδは、誤った修正を防ぐと共に、伝送路誤りの
影響を低減させるための正の微小量(例えば10-2〜1
0-3)、Aは下式で決まる収束係数である。
c ′ 1j (n) = (1−δ) · c 1j (n) + A · δ · C 2i (n) (7) where δ is not only an erroneous correction but also an effect of a transmission path error. Small amount (eg, 10 -2 to 1
0 -3 ), and A is a convergence coefficient determined by the following equation.

A=γ2 (8) ここで、入力ベクトルと1段目で選択したベクトルと
の誤差が小さくなれば、1段目と2段目のゲインの比γ
2は小さくなるので、修正が進みにくくなる。
A = γ 2 / γ 1 (8) Here, if the error between the input vector and the vector selected in the first stage is small, the ratio γ of the gain in the first and second stages
Since 2 / γ 1 becomes smaller, the correction becomes difficult to proceed.

さらに、簡略化した(9)式や(10)式を用いること
もできる。
Further, simplified equations (9) and (10) can also be used.

c′1j(n) =(1−δ)・c1j(n)+A・δ (9) c′1j(n) =(1−δ)・c1j(n) +sign(γ)・sign(γ)・δ (10) 次に、第2の発明では、第2のコードブックを第1の
コードブックから選択されたコードベクトルを用いて修
正する。修正には(11)式あるいは、(12)式を用い
る。
c ′ 1j (n) = (1−δ) · c 1j (n) + A · δ (9) c ′ 1j (n) = (1−δ) · c 1j (n) + sign (γ 1 ) · sign ( γ 2 ) · δ (10) Next, in the second invention, the second codebook is modified using a code vector selected from the first codebook. Equation (11) or (12) is used for the correction.

c′2i(n) =sign(γ)・sign(γ)・B・C1j(n) +C2i(n) (11) c′2i(n) =A・δ・c1j(n)+(1−δ)・C2i(n) ・・・(12) また、簡略化した(13),(14)式を用いることもで
きる。
c ′ 2i (n) = sign (γ 1 ) · sign (γ 2 ) · B · C 1j (n) + C 2i (n) (11) c ′ 2i (n) = A · δ · c 1j (n) + (1−δ) · C 2i (n) (12) Further, simplified equations (13) and (14) can also be used.

c′2i(n)=A・δ+(1−δ)・C2i(n) ・・・(13) c′2i(n) =sign(γ)・sign(γ)・δ +(1−δ)・C2i(n) (14) さらに第3の発明では、音声信号の音源信号を、前記
文献1のように適応コードブックとコードブックとで表
す。適応コードブックにより過去の音源信号をもとに求
めたピッチ予測音源信号を用いて、コードブックで選択
されたコードベクトルを修正する。修正は(15)式ある
いは(16)式に伴う。
c ′ 2i (n) = A · δ + (1−δ) · C 2i (n) (13) c ′ 2i (n) = sign (γ 1 ) · sign (γ 2 ) · δ + (1) −δ) · C 2i (n) (14) Further, in the third invention, the sound source signal of the audio signal is represented by an adaptive codebook and a codebook as in the above-mentioned document 1. The code vector selected in the codebook is corrected using the pitch prediction excitation signal obtained based on the past excitation signal by the adaptive codebook. The correction accompanies equation (15) or equation (16).

c′(n) =sign(β)・sign(γ)B・v(n−M) +Cj(n) (15) c′(n) =A・δ・v(n−M)+(1−δ)・Cj(n) ・・・(16) ここで、v(n−M)は、適応コードブックで求めた
ピッチ予測音源信号である。また、cj(n)はコードブ
ックから選択されたj番目のコードベクトルである。
c ′ j (n) = sign (β) · sign (γ 1 ) B · v (n−M) + C j (n) (15) c ′ j (n) = A · δ · v (n−M) + (1−δ) · C j (n) (16) Here, v (n−M) is a pitch prediction excitation signal obtained by the adaptive codebook. Also, c j (n) is the j-th code vector selected from the codebook.

また、簡略化した(17),(18)式を用いることもで
きる。
Further, simplified equations (17) and (18) can also be used.

c′(n) =A・δ+(1−δ)・Cj(n) (17) c′ (n) =sign(β)・sign(γ)・δ +(1−δ)・Cj(n) (18) また、コードブックから選択されたコードベクトルCj
(n)を用いてピッチ予測音源信号を修正することもで
きる。
c ′ j (n) = A · δ + (1−δ) · C j (n) (17) c ′ j (n) = sign (β) · sign (γ 1 ) · δ + (1−δ) · C j (n) (18) Also, the code vector C j selected from the codebook
(N) may be used to modify the pitch prediction excitation signal.

〔実施例〕〔Example〕

第1図は第1の発明による音声符号化方法を実施する
音声符号化装置を示すブロック図である。
FIG. 1 is a block diagram showing a speech encoding apparatus for implementing a speech encoding method according to the first invention.

送信側では、入力端子110から音声信号を入力し、1
フレーム分(例えば20ms)の音声信号をバッファメモリ
120に格納する。
On the transmitting side, an audio signal is input from the input terminal 110 and
Buffer memory for audio signals for frames (for example, 20 ms)
Store in 120.

LPC計算回路130は、フレームの音声信号のスペクトル
特性を表すパラメータとして、LSPパラメータをフレー
ムの音声信号から周知のLPC分析を行い、予め定められ
た次数Lだけ計算する。この具体的な計算法については
前記文献1を参照することができる。
The LPC calculation circuit 130 performs a well-known LPC analysis on the LSP parameter from the audio signal of the frame as a parameter representing the spectral characteristic of the audio signal of the frame, and calculates only a predetermined order L. Reference 1 can be referred to for the specific calculation method.

次にLSP量子化回路140は、LSPパラメータを予め定め
られた量子化ビット数で量子化し、得た符号1kをマルチ
プレクサ260へ出力するとともに、これを復号化してさ
らに線形予測係数ai′(i=1〜L)に変換して、重み
付け回路200,インパルス応答計算回路170,合成フィルタ
281へ出力する。LSPパラメータの符号化,LSPパラメータ
から線形予測係数への変換の方法については、Sugamura
氏らによる“Quantizer design in LSP speech analysi
s−synthesis"と題した論文(IEEE J.Sel.Areas Commu
n.,pp.432−440,1988)(文献4)等を参照することが
できる。
Next, the LSP quantization circuit 140 quantizes the LSP parameter with a predetermined number of quantization bits, outputs the obtained code 1 k to the multiplexer 260, decodes it, and further decodes the linear prediction coefficient a i ′ ( i = 1 to L), the weighting circuit 200, the impulse response calculation circuit 170, the synthesis filter
Output to 281. For information on how to encode LSP parameters and how to convert LSP parameters to linear prediction coefficients, see Sugamura
“Quantizer design in LSP speech analysi
s-synthesis "(IEEE J. Sel. Areas Commu
n., pp. 432-440, 1988) (Reference 4).

サブフレーム分割回路150は、フレームの音声信号を
サブフレームに分割する。ここで例えばフレーム長は20
ms、サブフレーム長は5msとする。
The subframe division circuit 150 divides the audio signal of the frame into subframes. Here, for example, the frame length is 20
ms, and the subframe length is 5 ms.

重み付け回路200は、減算した信号に対して周知の聴
感重み付けを行う。聴感重み付け関数の詳細は、前記文
献1を参照できる。
The weighting circuit 200 performs well-known auditory weighting on the subtracted signal. Reference 1 can be referred to for details of the auditory sensation weighting function.

減算器190は、サブフレームに分割された入力信号か
ら合成フィルタ281の出力を減算して出力する。
The subtractor 190 subtracts the output of the synthesis filter 281 from the input signal divided into subframes and outputs the result.

適応コードブック210は、合成フィルタ281の入力信号
v(n)を遅延回路206を介して入力し、さらにインパ
ルス応答出力回路170から重み付けインパルス応答h
w(n)、重み付け回路200から重い付け信号を入力し、
長期相関にもとづくピッチ予測を行い、ピッチパラメー
タとして遅延Mとゲインβを計算する。以下の説明では
適応コードブックの予測次数は1とするが、2次以上の
高次とすることもできる。1次の適応コードブックにお
ける遅延M,ゲインβの計算法は、Kleijin“Improved sp
eech quality and efficient vector quantization in
SELP"と題した論文(Proc.ICASSP,pp.155−158,1988
年)(文献5)等に記載されている。さらに求めたゲイ
ンβをゲイン量子化器により予め定められた量子化ビッ
ト数で量子化復号化し、ゲインβ′を求め、これを用い
て次式により予測信号(n)を計算し減算器205に
出力する。また遅延Mをマルチプレクサ260へ出力す
る。 (n)=β′・v(n−M)*hw(n) (19) 上式でv(n−M)は過去の音源信号で、合成フィル
タ281の入力信号である。hw(n)はインパルス応答計
算回路170で求めた重み付けインパルス応答である。
The adaptive codebook 210 inputs the input signal v (n) of the synthesis filter 281 via the delay circuit 206, and further outputs the weighted impulse response h from the impulse response output circuit 170.
w (n), input a heavy weighting signal from the weighting circuit 200,
Pitch prediction is performed based on the long-term correlation, and delay M and gain β are calculated as pitch parameters. In the following description, the prediction order of the adaptive codebook is assumed to be 1, but may be higher than or equal to second order. The calculation method of the delay M and the gain β in the first-order adaptive codebook is described in Kleijin “Improved sp
eech quality and efficient vector quantization in
SELP "(Proc. ICASSP, pp. 155-158, 1988
Year) (Reference 5). Further, the obtained gain β is quantized and decoded by a predetermined number of quantization bits by a gain quantizer to obtain a gain β ′, which is used to calculate a prediction signal w (n) according to the following equation. Output to The delay M is output to the multiplexer 260. w (n) = β ′ · v (n−M) * h w (n) (19) In the above equation, v (n−M) is a past sound source signal, which is an input signal of the synthesis filter 281. h w (n) is a weighted impulse response obtained by the impulse response calculation circuit 170.

遅延回路206は、合成フィルタ入力信号v(n)を1
サブフレーム分遅延させて適応コードブック210へ出力
する。
The delay circuit 206 sets the synthesis filter input signal v (n) to 1
Output to adaptive codebook 210 after delaying by a subframe.

減算器205は、次式により重み付け回路200の出力信号
から適応コードブック210の出力を減算し、残差信号ew
(n)を第1のコードブック探索回路230に出力する。
The subtractor 205 subtracts the output of the adaptive codebook 210 from the output signal of the weighting circuit 200 according to the following equation, and generates a residual signal e w
(N) is output to the first codebook search circuit 230.

ew(n)=xw(n)−(n) (20) インパルス応答計算回路170は、聴感重み付けした合
成フィルタのインパルス応答hw(n)を、予め定められ
たサンプル数Lだけ計算する。具体的な計算法は、前記
文献1等を参照できる。
e w (n) = x w (n) −w (n) (20) The impulse response calculation circuit 170 calculates the impulse response h w (n) of the synthesis filter weighted by the auditory sense for a predetermined number L of samples. I do. For a specific calculation method, reference can be made to Document 1 and the like.

第1のコードブック探索回路230は、第1のコードブ
ック235を用いて最適なコードワードc1j(n)を探索す
る。ここで作用の項に記したように、第1のコードブッ
クは、予めトレーニング信号を用いて学習しておく。最
適なコードベクトルC1j(n)の探索法は、特願平2−4
2956号明細書(文献6)等を参照できる。そいて最適な
ゲインγを求め、これとC1j(n)を用いて前記文献
6の方法により重み付け再生信号yw(n)を求め出力す
る。
The first codebook search circuit 230 uses the first codebook 235 to search for an optimal codeword c 1j (n). Here, as described in the operation section, the first codebook is learned in advance using a training signal. The method of searching for the optimal code vector C 1j (n) is disclosed in Japanese Patent Application No. Hei.
2956 (Reference 6) and the like can be referred to. Then, the optimum gain γ 1 is obtained, and using this and C 1j (n), the weighted reproduction signal y w (n) is obtained and output by the method of Reference 6.

減算器255は、ew(n)からyw(n)を減算して第2
のコードブック探索回路270へ出力する。
The subtractor 255 subtracts y w (n) from e w (n) to obtain a second
To the codebook search circuit 270.

第2のコードブック探索回路270は、第2のコードブ
ック275から最適なコードワードを計算する。第2のコ
ードブック探索回路の構成は、第1のコードブック探索
回路の構成と基本的に同一の構成を用いることができ
る。また、コードワードの探索法としては、第1のコー
ドブック235の探索と同一の方法を用いることができ
る。第2のコードブックの構成法としては、作用の項で
述べたように、学習コードブックの高効率を保ちながら
トレーニングデータ依存性を救済するために、乱数系列
からなるコードブックを用いる。乱数系列からなるコー
ドブックの構成法は前記文献1を参照できる。
The second codebook search circuit 270 calculates an optimal codeword from the second codebook 275. The configuration of the second codebook search circuit can be basically the same as the configuration of the first codebook search circuit. Also, the same method as the method of searching the first codebook 235 can be used as a codeword search method. As described in the section of the operation, the second codebook is composed of a random number sequence codebook in order to relieve training data dependency while maintaining high efficiency of the learning codebook. For the method of constructing a codebook composed of a random number sequence, reference can be made to the above-mentioned document 1.

また、コードブック探索の演算量の低減化のために、
第2のコードブック275として、重畳型(overlan)乱数
コードブックを用いることができる。重畳型乱数コード
ブックの構成法、コードワード探索法については前記文
献5等を参照できる。また、第1のコードブックと同様
に予め学習して構成することもできる。
In addition, in order to reduce the amount of calculation for codebook search,
As the second codebook 275, a superimposed random number codebook can be used. For the construction method of the superimposed random number codebook and the codeword search method, reference can be made to the above-mentioned Document 5. Further, it is also possible to configure by learning in advance similarly to the first codebook.

ゲイン量子化器286は、作用に述べた方法により、予
め学習により(12),(13)式を用いて作成したゲイン
コードブック287を用いて、ゲインγ1をベクトル
量子化する。詳細な前記文献6等を参照できる。
The gain quantizer 286 performs vector quantization on the gains γ 1 and γ 2 by using the gain codebook 287 created in advance by learning using the equations (12) and (13) by the method described in the operation. Reference can be made to the above-mentioned reference 6 and the like.

修正回路280は、作用の項で述べた(6)〜(10)式
を用いて、第1のコードブック探索回路230において選
択されたコードベクトルc1j(n)の修正を行う。
The correction circuit 280 corrects the code vector c 1j (n) selected in the first codebook search circuit 230 using the equations (6) to (10) described in the section of the operation.

加算器290は、適応コードブック210の予測音源信号
と、第1のコードブック探索回路230の出力音源信号
と、第2のコードブック探索回路270の出力音源信号と
を加算して合成フィルタ281へ出力する。
The adder 290 adds the predicted excitation signal of the adaptive codebook 210, the output excitation signal of the first codebook search circuit 230, and the output excitation signal of the second codebook search circuit 270 to the synthesis filter 281. Output.

合成フィルタ281は、加算器290の出力v(n)を入力
し、下式により合成音声を1フレーム分求め、さらにも
う1フレーム分は0の系列をフィルタを入力して応答信
号系列を求め、1フレーム分の応答信号系列を減算器19
0に出力する。
The synthesis filter 281 receives the output v (n) of the adder 290, obtains a synthesized speech for one frame by the following equation, and inputs a 0 series filter for another frame to obtain a response signal sequence. One frame of the response signal sequence is subtracted by 19
Output to 0.

マルチプレクサ260は、LSP量子化回路140,適応コード
ブック210,第1のコードブック探索回路230,第2のコー
ドブック探索回路270,ゲイン量子化器286の出力符号系
列を組みあわせて出力する。
The multiplexer 260 combines and outputs the output code sequences of the LSP quantization circuit 140, the adaptive codebook 210, the first codebook search circuit 230, the second codebook search circuit 270, and the gain quantizer 286.

以上で第1の発明の実施例の説明を終える。 This concludes the description of the embodiment of the first invention.

第2図は、第2の発明による音声符号化方法を実施す
る音声符号化装置を示すブロック図である。図におい
て、第1図と同一の番号を付した構成要素は、第1図の
構成要素と同一の動作を行うので説明を省略する。
FIG. 2 is a block diagram showing a speech encoding apparatus for implementing the speech encoding method according to the second invention. In the figure, components having the same reference numerals as those in FIG. 1 perform the same operations as those in FIG.

修正回路380は、第1のコードブック探索回路230にお
いて選択されたコードベクトルc1j(n)を用いて、作
用の項で述べた(11)〜(14)式にもとづき、第2のコ
ードブック探索回路270において選択されたコードベク
トルc2i(n)の修正を行う。
The correction circuit 380 uses the code vector c 1j (n) selected in the first codebook search circuit 230 to calculate the second codebook based on the expressions (11) to (14) described in the section of operation. The search circuit 270 corrects the selected code vector c 2i (n).

以上で第2の発明の説明を終える。 This concludes the description of the second invention.

第3図は、第3の発明による音声符号化方法を実施す
る音声符号化装置を示すブロック図である。図におい
て、第1図と同一の番号を付した構成要素は、第1図の
構成要素と同一の動作を行うので説明を省略する。
FIG. 3 is a block diagram showing a speech encoding apparatus for implementing the speech encoding method according to the third invention. In the figure, components having the same reference numerals as those in FIG. 1 perform the same operations as those in FIG.

音源コードブック探索回路430は、第1のコードブッ
ク探索回路230と同一の動作を行い、最適な音源信号を
音源コードブック435から選択する。
The sound source codebook search circuit 430 performs the same operation as the first codebook search circuit 230, and selects an optimum sound source signal from the sound source codebook 435.

修正回路480は、適応コードブック210で求められたピ
ッチ予測音源信号v(n−M)を用いて、(15)〜(1
8)式を用いて、音源コードブック探索回路430により選
択された音源信号c1j(n)の修正を行う。
The correction circuit 480 uses the pitch prediction excitation signal v (n−M) obtained by the adaptive codebook 210 to calculate (15) to (1)
Using the expression 8), the sound source signal c 1j (n) selected by the sound source codebook search circuit 430 is corrected.

以上により第3の発明の実施例の説明を終える。 This concludes the description of the third embodiment of the present invention.

修正回路における修正方法においては、実施例で述べ
た方法以外に、下記の方法を用いることもできる。例え
ば、第1の発明を例にとると、 c′1j(n) =(1−δ)・c1j(n)+sign・|γ21| ・δ・C2i(n) (23) ここでsignは正あるいは負の符号を示す。符号は次式
を最小化する方法を選択する。
In the correction method in the correction circuit, the following method can be used in addition to the method described in the embodiment. For example, taking the first invention as an example, c ′ 1j (n) = (1−δ) · c 1j (n) + sign · | γ 2 / γ 1 | · δ · C 2i (n) (23) Here, sign indicates a positive or negative sign. The sign selects the method that minimizes:

ここでew(n)は減算器205の出力信号である。上式
を最小化するには、上式をγで編微分して0とおいた
下式を最小化すればよい。
Here, e w (n) is the output signal of the subtractor 205. In order to minimize the above equation, the following equation obtained by knitting and differentiating the above equation with γ 1 and setting it to 0 may be minimized.

従って、(23)式の符号を正と負にした両者について
(25)式を計算し、(25)式かより大きな値をとる方の
符号を1ビットで伝送する。
Therefore, equation (25) is calculated for both the positive and negative signs of equation (23), and the sign of equation (25) or the one with a larger value is transmitted in one bit.

第2および第3の発明においても上述と同様な構成を
とることができる。
The second and third inventions can also have the same configuration as described above.

また、上述の実施例では、適応コードブックのゲイ
ン、第1,第2のコードブックのゲイン、あるいは、適応
コードブックのゲインと音源コードブックのゲインには
同時最適化を施さなかったが、適応コードブック第1の
コードブック,第2のコードブックのゲインについて、
同時最適化を行い、さらに特性を改善する。この同時最
適化は、第1,2のコードブックのコードベクトルを求め
るときになお、演算量の低減化のために、第1のコード
ブックのコードベクトル探索のときにのみゲイン最適化
を行い、第2のコードブックの探索のときには行わない
構成とすることもできる。
In the above-described embodiment, the adaptive codebook gain, the first and second codebook gains, or the adaptive codebook gain and the excitation codebook gain are not simultaneously optimized. Regarding the gain of the first codebook and the second codebook,
Perform simultaneous optimization to further improve the characteristics. In this simultaneous optimization, when calculating the code vectors of the first and second codebooks, the gain optimization is performed only at the time of searching for the code vectors of the first codebook in order to reduce the amount of calculation. A configuration in which the search is not performed when searching for the second codebook may be adopted.

また、さらに演算量を低減するためには、コードブッ
クのコードベクトルの探索のときにはゲインの最適化を
行わずに、適応コードブックと第1のコードブックのゲ
インの同時最適化を行い、さらに、適応コードブックと
第1,2のコードブックのゲインを同時に最適化する構成
を用いることもできる。詳細は前記文献5等を参照でき
る。
Further, in order to further reduce the amount of calculation, the gain of the adaptive codebook and the first codebook are simultaneously optimized without performing the gain optimization when searching for the code vector of the codebook. A configuration in which the gains of the adaptive codebook and the first and second codebooks are simultaneously optimized may be used. For details, reference can be made to the aforementioned reference 5.

また、さらに演算量を低減化するためには、第1,2の
コードブックのコードベクトルが選択された後に、適応
コードブックのゲインβと、第1,2のコードブックのゲ
インγ1の3種を同時に最適化するような構成とす
ることもできる。詳細は前記文献6等を参照できる。
In order to further reduce the amount of calculation, after the code vectors of the first and second codebooks are selected, the gain β of the adaptive codebook and the gains γ 1 and γ of the first and second codebooks are selected. It is also possible to adopt a configuration in which the three types 2 are simultaneously optimized. For details, reference can be made to the aforementioned reference 6.

また、第1のコードブックの探索法は、実施例の方法
以外にも他の周知な方法を用いることができる。例え
ば、前記文献1に記載の方法や、予めコードブックの各
コードワードc1j(n)の直交変換C1(k)と求めて格
納しておき、サブフレーム毎に、重み付けインパルス応
答hw(n)の直交変換Hw(k)と、残差信号ew(n)の
直交変換Ew(k)を予め定められた点数だけ求め、周波
数軸上で探索することもできる。詳細は前記文献5等を
参照できる。
Further, as the first codebook search method, other well-known methods can be used other than the method of the embodiment. For example, the method described in Document 1 or the orthogonal transform C 1 (k) of each codeword c 1j (n) in the codebook is obtained and stored in advance, and the weighted impulse response h w ( The orthogonal transform H w (k) of n) and the orthogonal transform E w (k) of the residual signal e w (n) can be obtained by a predetermined number of points, and searched on the frequency axis. For details, reference can be made to the aforementioned reference 5.

また、第2のコードブックの探索法としては、前記実
施例の方法以外にも上記で示した方法や、前記文献6に
記載の方法や、他の周知な良好な方法を用いることがで
きる。
As the second codebook search method, in addition to the method of the above-described embodiment, the method described above, the method described in the above-mentioned document 6, and other well-known good methods can be used.

また、第2のコードブックの構成法としては、前記実
施例に記載した方法以外に、例えば予め膨大な乱数系列
をコードブックとして用意して、それらを用いてトレー
ニングデータに対して乱数系列の探索を行い、選択され
る頻度が高いものからコードワードとして登録して第2
のコードブックを構成することもできる。なお、この構
成法は、第1のコードブックの構成にも適用することが
できる。
As a method of constructing the second codebook, in addition to the method described in the above embodiment, for example, an enormous random number sequence is prepared in advance as a codebook, and the random number sequence is searched for training data by using them. And register it as a codeword from the one that is selected
Can be configured. This configuration method can also be applied to the configuration of the first codebook.

また、上記実施例では、適応コードブックのゲインと
第1,第2のコードブックのゲインは別々にベクトル量子
化したが、3種のゲインβ,γ1あるいはβ,γ
をまとめてベクトル量子化するような構成をとることも
できる。詳細は前記文献5や、I.Gerson氏らによる“Ve
ctor sum excited linear prediction"(VSELP)speech
coding at 8kbp/s"と題した論文(Proc.ICASSP,pp.461
−464,1990)(文献7)等を参照できる。
In the above embodiment, the gain of the adaptive codebook and the gains of the first and second codebooks are separately vector-quantized, but three types of gains β, γ 1 , γ 2 or β, γ 1
Can be taken together and vector-quantized. For details, refer to the above-mentioned document 5 and “Ve by I. Gerson et al.
ctor sum excited linear prediction "(VSELP) speech
coding at 8kbp / s "(Proc.ICASSP, pp.461
-464, 1990) (Reference 7).

また、前記実施例では、適応コードブックの次数は1
次としたが、2次以上の高次とすることもできる。ま
た、次数は1次のままで遅延を整数値ではなく少数値と
することもできる。これらについての詳細は、例えばP.
Kroon氏らによる“Pitch predictors with high tempor
al resolution"と題した論文(Proc.ICASSP,pp.661−66
4,1990)(文献8)等を参照できる。以上のようにして
方が特性は向上するが、ゲインあるいは遅延の伝送に必
要な情報量が若干増大する。
In the above embodiment, the order of the adaptive codebook is 1
The order is higher, but can be higher than second order. Further, it is possible to set the delay to a decimal value instead of an integer value while keeping the order. For details on these, see, for example, P.
“Pitch predictors with high tempor” by Kroon et al.
al resolution "(Proc.ICASSP, pp.661-66)
4, 1990) (Reference 8). As described above, the characteristics are improved, but the amount of information necessary for transmitting the gain or the delay is slightly increased.

また、前記の実施例では、スペクトルパラメータとし
てKパラメータ,LSPパラメータを符号化し、その分析法
としてLPC分析を用いたが、スペクトルパラメータとし
ては他の周知なパラメータ、例えばLPCケプストラム,
ケプストラム,改良ケプストラム,一般化ケプストラ
ム,メルケプストラムなどを用いることもできる。また
各パラメータに最適な分析法を用いることができる。
In the above embodiment, the K parameter and the LSP parameter are encoded as the spectrum parameters, and the LPC analysis is used as the analysis method. However, other known parameters such as the LPC cepstrum,
Cepstrum, improved cepstrum, generalized cepstrum, mel cepstrum and the like can also be used. In addition, an optimal analysis method can be used for each parameter.

また、フレームで求めたLPC係数をLSP上や線形予測係
数上でサブフレーム毎に補間し、補間した係数を用いて
適応コードブック、第1,第2のコードブックの探索を行
う構成としてもよい。このような構成とすることによ
り、音質がさらに改善される。
Further, the LPC coefficient obtained in the frame may be interpolated for each subframe on the LSP or linear prediction coefficient, and the adaptive codebook and the first and second codebooks may be searched using the interpolated coefficient. . With such a configuration, the sound quality is further improved.

また、LSP係数は周知の方法により、ベクトル量子化
あるいはベクトル−スカラ量子化することにより、さら
に効率的に符号化することができる。ベクトル−スカラ
量子化の方法については例えば前記文献3等を参照でき
る。
Further, the LSP coefficient can be more efficiently encoded by performing vector quantization or vector-scalar quantization by a known method. For the method of vector-scalar quantization, reference can be made to the above-mentioned reference 3, for example.

また、受信側では、量子化雑音を整形することにより
聴覚的に聞き易くするために、ピッチとスペクトル包絡
の少なくとも1つについて動作する適応形ポストフィル
タを付加してもよい。適応型ポストフィルムの構成につ
いては、例えば、Kroon氏らによる“A Class of Analys
is−by−synthesis Predictive Coders for High Quali
ty Speech Coding at Rates between 4.8 and 16kb/s,"
(IEEE JSAC,vol.6,2,353−363,1988)(文献9)等を
参照できる。
Also, on the receiving side, an adaptive post filter that operates on at least one of the pitch and the spectral envelope may be added in order to make the quantization noise shaped to make it easier to hear audibly. For the configuration of the adaptive post film, see, for example, “A Class of Analys
is-by-synthesis Predictive Coders for High Quali
ty Speech Coding at Rates between 4.8 and 16kb / s, "
(IEEE JSAC, vol. 6, 2, 353-363, 1988) (Reference 9).

〔発明の効果〕〔The invention's effect〕

以上述べたように、本発明によれば、第1あるいは第
2のコードブックにより選択されたコードベクトルを、
第2あるいは第1のコードブックにより選択されたコー
ドベクトルをもとに修正するか、あるいは、適応コード
ブックにより選択されたピッチ予測音源信号をもとに音
源コードブックにより選択されたコードベクトルを修正
するか、あるいは、前記コードベクトルによりピッチ予
測音源信号を修正しているので、コードブックの特性を
入力信号の特性に適応化させることが可能となり、低ビ
ットレートにおいてコードブックサイズを低減しても従
来方式よりも良好な特性が得られるという大きな効果が
ある。
As described above, according to the present invention, the code vector selected by the first or second codebook is
Correcting based on the code vector selected by the second or first codebook, or correcting the code vector selected by the excitation codebook based on the pitch prediction excitation signal selected by the adaptive codebook Or, since the pitch prediction excitation signal is modified by the code vector, it is possible to adapt the characteristics of the codebook to the characteristics of the input signal, and to reduce the codebook size at a low bit rate. There is a great effect that better characteristics can be obtained than in the conventional method.

【図面の簡単な説明】[Brief description of the drawings]

第1図は第1の発明による音声符号化方法を実施する音
声符号化装置を示すブロック図、 第2図は第2の発明による音声符号化方法を実施する音
声符号化装置を示すブロック図、 第3図は第3の発明による音声符号化方法を実施する音
声符号化装置を示すブロック図である。 110……バッファメモリ 130……LPC計算回路 140……量子化回路 150……サブフレーム分割回路 170……インパルス応答計算回路 190,205,255……減算器 200……重み付け回路 206……遅延回路 210……適応コードブック 230……第1のコードブック探索回路 235……第1のコードブック 281……合成フィルタ 270……第2のコードブック探索回路 275……第2のコードブック 280,380,480……修正回路 286……ゲイン量子化器 287……ゲインコードブック 430……音源コードブック探索回路 435……音源コードブック
FIG. 1 is a block diagram showing a speech encoding device that implements the speech encoding method according to the first invention, FIG. 2 is a block diagram showing a speech encoding device that implements the speech encoding method according to the second invention, FIG. 3 is a block diagram showing a speech encoding apparatus for implementing the speech encoding method according to the third invention. 110 buffer memory 130 LPC calculation circuit 140 quantization circuit 150 subframe division circuit 170 impulse response calculation circuit 190, 205, 255 subtractor 200 weighting circuit 206 delay circuit 210 adaptation Codebook 230: First codebook search circuit 235: First codebook 281: Synthesis filter 270: Second codebook search circuit 275: Second codebook 280, 380, 480: Correction circuit 286: … Gain quantizer 287 …… Gain codebook 430 …… Sound source codebook search circuit 435 …… Soundsource codebook

フロントページの続き (56)参考文献 特公 平8−32033(JP,B2) 1990年電子情報通信学会春季全国大会 講演論文集,分冊1,SA−5−4, 「学習コードブックによる8kb/sC ELPの改良(LCELP)」,p.1 −427〜1−428,(1990年3月5日発 行) (58)調査した分野(Int.Cl.7,DB名) G10L 11/00 - 13/08 G10L 19/00 - 21/06 H03M 7/30 H04B 14/04 INSPEC(DIALOG) JICSTファイル(JOIS) WPI(DIALOG)Continuation of the front page (56) References Tokuhoku Hei 8-32033 (JP, B2) 1990 IEICE Spring National Convention Lecture Papers, Volume 1, SA-5-4, "8 kb / sC using Learning Codebook Improvement of ELP (LCELP) ", p. 1-427 to 1-428, (issued March 5, 1990) (58) Fields surveyed (Int. Cl. 7 , DB name) G10L 11/00-13/08 G10L 19/00-21/06 H03M 7/30 H04B 14/04 INSPEC (DIALOG) JICST file (JOIS) WPI (DIALOG)

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】入力した離散的な音声信号を予め定められ
た時間長のフレームに分割し、前記音声信号のスペクト
ル包絡を表わすスペクトルパラメータを求めて出力し、
前記フレームを予め定められた時間長の小区間に分割
し、前記小区間毎にピッチパラメータを求めてピッチ予
測音源信号を求め、前記ピッチ予測音源信号とコードブ
ックから選択した信号とにより前記音声信号の音源信号
を表す音声符号化方法において、 前記ピッチ予測音源信号をもとに前記コードブックを修
正するか、あるいは、前記コードブックから選択した信
号により前記予測音源信号を修正することを特徴とする
音声符号化方法。
1. An input discrete audio signal is divided into frames of a predetermined time length, and a spectrum parameter representing a spectrum envelope of the audio signal is obtained and output.
The frame is divided into small sections of a predetermined time length, a pitch parameter is obtained for each of the small sections to obtain a pitch prediction excitation signal, and the speech signal is obtained by the pitch prediction excitation signal and a signal selected from a codebook. In the speech encoding method representing the excitation signal, the codebook is modified based on the pitch prediction excitation signal, or the prediction excitation signal is modified by a signal selected from the codebook. Audio coding method.
JP02184234A 1990-07-13 1990-07-13 Audio coding method Expired - Lifetime JP3102017B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02184234A JP3102017B2 (en) 1990-07-13 1990-07-13 Audio coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02184234A JP3102017B2 (en) 1990-07-13 1990-07-13 Audio coding method

Publications (2)

Publication Number Publication Date
JPH0473700A JPH0473700A (en) 1992-03-09
JP3102017B2 true JP3102017B2 (en) 2000-10-23

Family

ID=16149725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02184234A Expired - Lifetime JP3102017B2 (en) 1990-07-13 1990-07-13 Audio coding method

Country Status (1)

Country Link
JP (1) JP3102017B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5432883A (en) * 1992-04-24 1995-07-11 Olympus Optical Co., Ltd. Voice coding apparatus with synthesized speech LPC code book
JP3153075B2 (en) * 1994-08-02 2001-04-03 日本電気株式会社 Audio coding device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0832033B2 (en) * 1988-03-12 1996-03-27 株式会社グラフィックス・コミュニケーション・テクノロジーズ Learning-type multistage vector quantization method and apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
1990年電子情報通信学会春季全国大会講演論文集,分冊1,SA−5−4,「学習コードブックによる8kb/sCELPの改良(LCELP)」,p.1−427〜1−428,(1990年3月5日発行)

Also Published As

Publication number Publication date
JPH0473700A (en) 1992-03-09

Similar Documents

Publication Publication Date Title
JP3042886B2 (en) Vector quantizer method and apparatus
RU2233010C2 (en) Method and device for coding and decoding voice signals
JP3346765B2 (en) Audio decoding method and audio decoding device
JP3114197B2 (en) Voice parameter coding method
JP3196595B2 (en) Audio coding device
JP3094908B2 (en) Audio coding device
JPH0353300A (en) Sound encoding and decoding system
JP3143956B2 (en) Voice parameter coding method
JP3180762B2 (en) Audio encoding device and audio decoding device
JPH0863196A (en) Post filter
KR100194775B1 (en) Vector quantizer
JPH09127990A (en) Voice coding method and device
JP2626223B2 (en) Audio coding device
JP2800618B2 (en) Voice parameter coding method
JP2002268686A (en) Voice coder and voice decoder
JPH10177398A (en) Voice coding device
JP3102017B2 (en) Audio coding method
JPH0854898A (en) Voice coding device
JP3252285B2 (en) Audio band signal encoding method
JP3256215B2 (en) Audio coding device
JP3194930B2 (en) Audio coding device
JP3319396B2 (en) Speech encoder and speech encoder / decoder
JP3089967B2 (en) Audio coding device
JP3192051B2 (en) Audio coding device
JP2658794B2 (en) Audio coding method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070825

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080825

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080825

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090825

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090825

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100825

Year of fee payment: 10

EXPY Cancellation because of completion of term