JPH04352200A - Speech encoding system - Google Patents

Speech encoding system

Info

Publication number
JPH04352200A
JPH04352200A JP3127669A JP12766991A JPH04352200A JP H04352200 A JPH04352200 A JP H04352200A JP 3127669 A JP3127669 A JP 3127669A JP 12766991 A JP12766991 A JP 12766991A JP H04352200 A JPH04352200 A JP H04352200A
Authority
JP
Japan
Prior art keywords
vector
code
delta
vectors
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3127669A
Other languages
Japanese (ja)
Inventor
Tomohiko Taniguchi
智彦 谷口
Takashi Ota
恭士 大田
Hideaki Kurihara
秀明 栗原
Yoshiaki Tanaka
良紀 田中
Yoshihiro Sakai
坂井 良広
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP3127669A priority Critical patent/JPH04352200A/en
Priority to PCT/JP1991/001235 priority patent/WO1992005541A1/en
Priority to US07/856,221 priority patent/US5323486A/en
Priority to CA002068526A priority patent/CA2068526C/en
Priority to DE69129329T priority patent/DE69129329T2/en
Priority to JP03515016A priority patent/JP3112681B2/en
Priority to EP91915981A priority patent/EP0500961B1/en
Publication of JPH04352200A publication Critical patent/JPH04352200A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To reduce the search arithmetic quantity and memory capacity of a code book by storing the code book with N-dimensional initial vectors and delta victors representing a reference noise string and representing code vectors in the noise string in a tree structure shape. CONSTITUTION:The initial vector C0 and (L-1) kind of delta vectors C1- CL-1 are stored in the delta code book 11 previously and the respective delta vectors are added to or subtracted from the initial vector, layer by layer to represent the code vectors C0-C1022 of 2L-1 kind of noise strings sequentially in the tree structure shape; and a zero vector is added to them, thereby representing 2<10> kind of code vectors C0-C1023. An error minimum noise string determination part 17 determines a code vector which minimizes error electric power. At this time, cross correlation and autocorrelation are represented as recurrence formulas and calculated by a cross-correlation arithmetic part 14 and an autocorrelation arithmetic part 15. Then a speech encoding part 18 outputs a code specifying this code vector to perform speech encoding.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は音声信号の情報圧縮を行
うための音声符号化方式に係わり、特に4〜16Kb/
sの伝送速度で符号化を行うためのAnalysis−
by−Synthesis(合成による分析)型ベクト
ル量子化を用いる音声符号化方式に関する。A−b−S
型ベクトル量子化を用いる音声符号化方式による音声符
号器、例えばCELP(Code ExcitedLi
near Production)符号器は、企業内通
信システム、デジタルの移動無線システムなどにおいて
、音声品質を保ちつつ情報圧縮を実現するものとして待
望されている。
[Field of Industrial Application] The present invention relates to an audio encoding system for compressing information on audio signals, and in particular, to
Analysis for encoding at a transmission rate of s
The present invention relates to a speech encoding method using by-synthesis vector quantization. A-b-S
An audio encoder based on an audio encoding method using type vector quantization, for example, CELP (Code ExcitedLi)
2. Description of the Related Art Encoders (near production) are long-awaited as they can realize information compression while maintaining voice quality in in-house communication systems, digital mobile radio systems, and the like.

【0002】0002

【従来の技術】音声には有声音と無声音があり、有声音
は声帯の振動によるパルス音源が基となって発生し、個
人個人のノドや口の声道特性が付加されて声になる。 又、無声音は声帯を振るわせないで出す音で、単なるガ
ウス性の雑音列が音源となって声道を通って声となる。 従って、音声発生メカニズムは図5に示すように、有声
音の元となるパルス音源PSGと無声音の元となる雑音
源NSGと、各音源から出力される信号に声道特性を付
加する線形予測合成フィルタLPCFによりモデル化で
きる。尚、人の声は周期性を有し、該周期はパルス音源
から出力されるパルスの周期性に対応し、人や話内容に
よって異なる。
2. Description of the Related Art Speech can be divided into voiced and unvoiced sounds. Voiced sounds are generated from a pulse sound source caused by the vibration of the vocal cords, and the vocal tract characteristics of the individual's throat and mouth are added to form the voice. In addition, unvoiced sounds are sounds made without the vocal cords moving, and the sound source is a simple Gaussian noise train that passes through the vocal tract and becomes the voice. Therefore, as shown in Figure 5, the speech generation mechanism consists of a pulse sound source PSG that is the source of voiced sounds, a noise source NSG that is the source of unvoiced sounds, and linear predictive synthesis that adds vocal tract characteristics to the signals output from each sound source. It can be modeled by filter LPCF. It should be noted that the human voice has periodicity, and the period corresponds to the periodicity of the pulses output from the pulse sound source, and varies depending on the person and the content of speech.

【0003】以上から、入力音声に対応するパルス音源
のパルス周期と雑音源の雑音列を特定することができれ
ば、これらパルス周期と雑音源の雑音列を識別する符号
により入力音声を符号化することができる。そこで、適
応符号帳を用いて入力音声信号の周期性に基づいてパル
ス音源のパルス周期を同定し、該周期を備えたパルス列
を線形予測合成フィルタに入力してフィルタ演算処理を
施し、得られたフィルタ演算結果を入力音声信号から減
算して周期成分を除去する。ついで、予め複数の雑音列
(各雑音列はN次元のコ−ドベクトルで表現されている
)を用意しておき、各コ−ドベクトルに合成フィルタ処
理を施した再生信号ベクトルと周期成分が除去された入
力信号ベクトル(N次元ベクトル)との誤差が最小とな
るコ−ドベクトルを求めれば、前記周期とコ−ドベクト
ルを特定するデータにより音声を符号化することができ
る。
From the above, if it is possible to specify the pulse period of the pulse sound source and the noise sequence of the noise source that correspond to the input voice, it is possible to encode the input voice with a code that identifies these pulse periods and the noise sequence of the noise source. Can be done. Therefore, the pulse period of the pulse sound source is identified based on the periodicity of the input audio signal using an adaptive codebook, and the pulse train with the period is input to a linear prediction synthesis filter and filter calculation processing is performed. The periodic component is removed by subtracting the filter operation result from the input audio signal. Next, a plurality of noise sequences (each noise sequence is represented by an N-dimensional code vector) is prepared in advance, and each code vector is subjected to synthesis filter processing to remove the periodic component and the reproduced signal vector. By finding a code vector that minimizes the error with the input signal vector (N-dimensional vector), it is possible to encode speech using data specifying the period and the code vector.

【0004】図6はA−b−Sによるベクトル量子化を
用いた音声符号化装置の構成図である。1はランダムに
発生した複数の例えば1024種類の雑音列C(各雑音
列はN次元のコ−ドベクトルで表現されている)を記憶
する雑音符号帳、2はゲインgの増幅部、3は増幅部出
力に声道特性を模擬した合成フィルタの演算処理を施す
線形予測合成フィルタ、4は線形予測合成フィルタ3か
ら出力される再生信号ベクトルと入力信号ベクトルの誤
差を出力する誤差発生部、5は誤差を評価し、該誤差が
最小となる雑音列(コ−ドベクトル)を求める誤差電力
評価部である。
FIG. 6 is a block diagram of a speech encoding device using vector quantization based on A-b-S. 1 is a noise codebook that stores a plurality of randomly generated noise sequences C, for example, 1024 types (each noise sequence is expressed as an N-dimensional code vector); 2 is an amplification unit with a gain g; 3 is an amplification unit 4 is a linear prediction synthesis filter that performs calculation processing of a synthesis filter that simulates vocal tract characteristics on the output of the linear prediction synthesis filter 3; 4 is an error generation unit that outputs the error between the reproduced signal vector output from the linear prediction synthesis filter 3 and the input signal vector; This is an error power evaluation unit that evaluates the error and finds a noise sequence (code vector) that minimizes the error.

【0005】A−b−Sによるベクトル量子化では通常
のベクトル量子化と異なり、雑音符号帳1の各コ−ドベ
クトル(C)に最適のゲインgを掛けた後、線形予測合
成フィルタ3でフィルタ処理を施し、フィルタ処理によ
り得られる再生信号ベクトル(gAC)と入力信号ベク
トル(X)との間の誤差信号(E)を誤差発生部4で求
め、誤差電力評価部5で誤差信号の電力を評価関数(距
離尺度)として雑音符号帳の探索を行い、誤差電力が最
小となる雑音列(コ−ドベクトル)を求め、該雑音列(
コ−ドベクトル)を特定する符号により入力信号を符号
化する。
Vector quantization using A-b-S differs from normal vector quantization in that after each code vector (C) of the noise codebook 1 is multiplied by the optimal gain g, it is filtered by the linear prediction synthesis filter 3. The error signal (E) between the reproduced signal vector (gAC) obtained by filtering and the input signal vector (X) is obtained by the error generation section 4, and the power of the error signal is calculated by the error power evaluation section 5. A noise codebook is searched as an evaluation function (distance measure), a noise sequence (code vector) with the minimum error power is found, and the noise sequence (
The input signal is encoded by a code specifying the code vector).

【0006】誤差電力は次式 |E|2=|X−gAC|2        (1)に
より与えられる。最適なコ−ドベクトルC及びゲインg
は、この(1)式に示す誤差電力を最小化するものとし
て決定される。尚、声の大きさによりパワ−が異なるの
で、ゲインgを最適化して再生信号のパワ−を入力信号
のパワ−に合わせる。最適ゲインは(1)式をgで偏微
分して0とおくことにより求めることができる。すなわ
ち、d|E|2/dg=0 より、gは g=(XT AC)/((AC)T (AC))   
   (2)で与えられる。このgを(1)式に代入す
ると、  |E|2=|X|2−(XT AC)2/(
(AC)T (AC))      (3)となる。入
力信号Xと合成フィルタ出力ACの相互相関をRXC、
合成フィルタ出力ACの自己相関をRCCとすれば、相
互相関、自己相関は次式 RXC=XT AC            (4)R
CC=(AC)T (AC)      (5)により
表現される。
The error power is given by the following equation |E|2=|X-gAC|2 (1). Optimal code vector C and gain g
is determined to minimize the error power shown in equation (1). Note that since the power varies depending on the loudness of the voice, the gain g is optimized to match the power of the reproduced signal to the power of the input signal. The optimal gain can be found by partially differentiating equation (1) with respect to g and setting it to zero. In other words, from d|E|2/dg=0, g is g=(XT AC)/((AC)T (AC))
It is given by (2). Substituting this g into equation (1), |E|2=|X|2-(XT AC)2/(
(AC)T (AC)) (3). The cross-correlation between the input signal X and the synthesis filter output AC is expressed as RXC,
If the autocorrelation of the synthesis filter output AC is RCC, then the cross-correlation and autocorrelation are as follows: RXC=XT AC (4)R
It is expressed as CC=(AC)T (AC) (5).

【0007】(3)式の誤差電力を最小にするコ−ドベ
クトルCは右辺第2項を最大にするものであるから、該
コ−ドベクトルCは次式 C=argmax(RXC2/RCC)       
 (6)と表現でき、最適のゲインは(6)式を満たす
相互相関、自己相関を用いて(2)式より g=RXC/RCC                
  (7)で与えられる。
Since the code vector C that minimizes the error power in equation (3) is the one that maximizes the second term on the right side, the code vector C is calculated using the following equation C=argmax(RXC2/RCC)
(6), and the optimal gain is g=RXC/RCC from equation (2) using cross-correlation and autocorrelation that satisfy equation (6).
It is given by (7).

【0008】図7は以上により、誤差電力が最小となる
雑音列(コ−ドベクトル)を求めて入力信号を符号化す
る雑音符号帳探索処理部の構成図である。1はM種類の
雑音列C(各雑音列はN次元のコ−ドベクトルで表現さ
れている)を記憶する雑音符号帳、3は声道特性を模擬
したフィルタ演算処理を施す分析次数Npの線形予測合
成フィルタ(LPCフィルタ)である。
FIG. 7 is a block diagram of a noise codebook search processing section that encodes an input signal by finding a noise sequence (code vector) that minimizes error power. 1 is a noise codebook that stores M types of noise sequences C (each noise sequence is represented by an N-dimensional code vector), and 3 is a linear codebook of analysis order Np that performs filter calculation processing that simulates vocal tract characteristics. This is a predictive synthesis filter (LPC filter).

【0009】6は相互相関RXC(=XT AC)を演
算する乗算部、7は相互相関RXCの二乗を演算する演
算部、8は自己相関RCC(=(AC)T (AC))
を演算する自己相関演算部、9はRXC2/RCCを演
算する演算部、10はRXC2/RCCが最大となる、
換言すれば誤差電力が最小となる雑音列(コ−ドベクト
ル)を決定して、該コ−ドベクトルを特定する符号を出
力する誤差電力評価定部である。
6 is a multiplication unit that calculates the cross-correlation RXC (=XT AC), 7 is a calculation unit that calculates the square of the cross-correlation RXC, and 8 is an autocorrelation RCC (=(AC)T (AC)).
9 is a calculation unit that calculates RXC2/RCC; 10 is a calculation unit that maximizes RXC2/RCC;
In other words, it is an error power evaluation section that determines a noise sequence (code vector) with the minimum error power and outputs a code specifying the code vector.

【0010】0010

【発明が解決しようとする課題】従来の符号帳探索処理
のうちで主なものは、(1) コ−ドベクトルCに対す
るフィルタ処理、(2) 相互相関RXCの算出処理及
び(3) 自己相関RCCの算出処理の3つである。L
PCフィルタ3の次数をNp、ベクトル量子化(コ−ド
ベクトル)の次元をNとすると、1つのコ−ドベクトル
に対して、(1)〜(3)のそれぞれに要する演算量は
Np・N,N及びNである。従って、1つのコ−ドベク
トル当り符号帳探索に要する演算量は(Np+2)・N
となる。通常用いられている雑音符号帳1は、40次元
・符号帳サイズ1024(N=40,M=1024)程
度のものであり、LPCフィルタ3の分析次数Npが1
0次程度であるため、1回の符号帳探索に (10+2)・40・1024=480Kの積和算を要
する。但し、K=103である。
[Problems to be Solved by the Invention] The main types of conventional codebook search processing are (1) filter processing for code vector C, (2) cross-correlation RXC calculation processing, and (3) autocorrelation RCC. There are three calculation processes. L
Assuming that the order of the PC filter 3 is Np and the dimension of vector quantization (code vector) is N, the amount of calculation required for each of (1) to (3) for one code vector is Np・N, N and N. Therefore, the amount of calculation required for codebook search per code vector is (Np+2)・N
becomes. A commonly used noise codebook 1 has about 40 dimensions and a codebook size of 1024 (N=40, M=1024), and the analysis order Np of the LPC filter 3 is 1.
Since it is about 0th order, one codebook search requires (10+2)·40·1024=480K product sums. However, K=103.

【0011】このような符号帳探索を音声符号化のサブ
フレ−ム(5msec)毎に行うためには、96Mop
s(メガオペレ−ション/秒)という膨大な処理能力が
必要となり、現在最高速のデジタル・シグナル・プロセ
ッサ(許容演算量20〜40Mops)をもってしても
、その実時間実現には数チップを要してしまう問題があ
る。
[0011] In order to perform such a codebook search every subframe (5 msec) of speech encoding, 96Mop
A huge amount of processing power called s (mega operations per second) is required, and even with the current fastest digital signal processor (allowable calculation amount of 20 to 40 Mops), it takes several chips to realize it in real time. There is a problem with it.

【0012】又、従来の雑音符号帳1をテ−ブルとして
記憶・保持するためには、N・M(=40・1024=
40Kword)ものメモリ容量が必要となる問題があ
る。更に、A−b−S型ベクトル量子化を用いた音声符
号器の適用分野と考えられる自動車電話・携帯電話にお
いては、装置の小型化、低消費電力化が必須の条件であ
り、膨大な演算量や膨大なメモリ容量は、いずれも音声
符号器実現上で重大な障害となっている。
[0012] In addition, in order to store and hold the conventional noise codebook 1 as a table, N・M (=40・1024=
There is a problem in that a memory capacity of 40Kwords is required. Furthermore, in car phones and mobile phones, which are considered to be the applicable fields of speech encoders using A-b-S type vector quantization, miniaturization and low power consumption of the devices are essential conditions, and a large number of calculations are required. Both the size and the huge memory capacity are serious obstacles to realizing a speech encoder.

【0013】以上から本発明の目的は、符号帳探索に要
する演算量を減少でき、しかも雑音符号帳の記憶に要す
るメモリ容量を減少できる音声符号化方式を提供するこ
とである。
From the foregoing, it is an object of the present invention to provide a speech encoding system that can reduce the amount of calculation required for codebook search and also reduce the memory capacity required for storing the noisy codebook.

【0014】[0014]

【課題を解決するための手段】図1は本発明の原理説明
図である。11は1つの基準雑音列である初期ベクトル
C0と(L−1)種類のデルタ雑音列であるデルタベク
トルΔC1〜ΔCL−1(L=10)を記憶・保持する
デルタ符号帳、12は声道特性を模擬したフィルタ演算
処理を施す線形予測合成フィルタ(LPCフィルタ)、
13は初期ベクトルC0及び(L−1)種類のデルタベ
クトルΔC1〜ΔCL−1に対してそれぞれフィルタ演
算処理を施して得られる初期ベクトルのフィルタ出力A
C0と(L−1)種類のデルタベクトルのフィルタ出力
AΔC1〜AΔCL−1を記憶する記憶部、14は相互
相関RXC(=XT AC)を演算する相互相関演算部
、15は自己相関RCC(=(AC)T (AC))を
演算する自己相関演算部、17はRXC2/RCCが最
大となる、換言すれば誤差電力が最小となる雑音列(コ
−ドベクトル)を決定する誤差最小雑音列決定部、18
は誤差電力が最小となる雑音列(コ−ドベクトル)を特
定するデータ(符号)で入力信号を符号化する音声符号
化部である。
[Means for Solving the Problems] FIG. 1 is a diagram illustrating the principle of the present invention. 11 is a delta codebook that stores and holds an initial vector C0 which is one reference noise sequence and delta vectors ΔC1 to ΔCL-1 (L=10) which are (L-1) types of delta noise sequences; 12 is a vocal tract; a linear predictive synthesis filter (LPC filter) that performs filter calculation processing that simulates characteristics;
13 is a filter output A of the initial vector obtained by performing filter calculation processing on the initial vector C0 and (L-1) types of delta vectors ΔC1 to ΔCL-1, respectively.
A storage unit that stores filter outputs AΔC1 to AΔCL-1 of C0 and (L-1) types of delta vectors, 14 a cross-correlation calculation unit that calculates cross-correlation RXC (=XT AC), and 15 an autocorrelation RCC (= (AC)T (AC)), and 17 is a minimum error noise sequence determination unit that determines a noise sequence (code vector) that maximizes RXC2/RCC, in other words, minimizes error power. Part, 18
is a speech encoding unit that encodes an input signal with data (code) specifying a noise sequence (code vector) with minimum error power.

【0015】[0015]

【作用】予め1つの基準雑音列である初期ベクトルC0
と(L−1)種類のデルタ雑音列であるデルタベクトル
ΔC1〜ΔCL−1(L=10)をデルタ符号帳11に
格納しておき、デルタベクトルΔC1〜ΔCL−1をそ
れぞれ初期ベクトルC0に階層毎に加え合わせ及び差し
引くことにより順次木構造状に(210−1)種類の雑
音列のコ−ドベクトル(符号語)CO〜C1022を表
現し、又はこれらコ−ドベクトルに零ベクトル又は−C
0ベクトルを加えて210の雑音列のコ−ドベクトル(
符号語)C0〜C1023を表現する。このようにすれ
ば、デルタ符号帳11に初期ベクトルC0と(L−1)
種類のデルタベクトルΔC1〜ΔCL−1(L=10)
を格納しておくだけで、次々と2L−1(=210−1
=M−1)種類のコ−ドベクトル又は2L(=210=
M)種類のコ−ドベクトルを生成することができ、デル
タ符号帳11の記憶容量をL・N(=10・N)とする
ことができ、従来の雑音符号帳の記憶容量M・N(=1
024・N)に比べて著しく減少することができる。
[Operation] Initial vector C0 which is one reference noise sequence in advance
Delta vectors ΔC1 to ΔCL-1 (L=10), which are (L-1) types of delta noise sequences, are stored in the delta codebook 11, and each of the delta vectors ΔC1 to ΔCL-1 is layered into the initial vector C0. The code vectors (code words) CO to C1022 of the (210-1) types of noise sequences are expressed in a tree structure by adding and subtracting each code vector, or the zero vector or -C is added to these code vectors.
0 vector and 210 noise sequence code vectors (
Code word) represents C0 to C1023. In this way, the initial vector C0 and (L-1) are stored in the delta codebook 11.
Type of delta vector ΔC1 to ΔCL-1 (L=10)
Just by storing 2L-1 (=210-1
=M-1) types of code vectors or 2L (=210=
M) types of code vectors can be generated, and the storage capacity of the delta codebook 11 can be set to L·N (=10·N), and the storage capacity of the conventional noise codebook is M·N (= 1
024・N).

【0016】又、初期ベクトルC0及び(L−1)種類
のデルタベクトルΔC1〜ΔCL−1(L=10)に対
して、LPCフィルタ12で合成フィルタ処理を施して
初期ベクトルのフィルタ出力AC0と(L−1)種類の
デルタベクトルのフィルタ出力AΔC1〜AΔCL−1
(L=10)を求めて記憶部13に記憶しておく。そし
て、初期ベクトルのフィルタ出力AC0に対して第1の
デルタベクトルのフィルタ出力AΔC1を加え合わせ及
び差し引くことにより2種類の雑音列のコ−ドベクトル
C1,C2に対するフィルタ出力AC1,AC2を演算
し、新たに演算された各雑音列のコ−ドベクトルに対す
るフィルタ出力AC1,AC2に第2のデルタベクトル
のフィルタ出力AΔC2を加え合わせ及び差し引くこと
により、それぞれ2種類の雑音列のコ−ドベクトルC3
,C4;C5,C6に対するフィルタ出力AC3〜AC
6を演算し、以下同様に第(i−1)番目のデルタベク
トルのフィルタ出力AΔCi−1を作用させて演算した
フィルタ出力ACkに第i番目のデルタベクトルのフィ
ルタ出力AΔCiを作用させてそれぞれ2種類の雑音列
のコ−ドベクトルに対するフィルタ出力AC2k+1,
AC2k+2を演算することにより全コ−ドベクトルの
フィルタ出力を発生するようにする。このようにすれば
、各コ−ドベクトルC0〜C1022に対する合成フィ
ルタ演算処理を、初期ベクトルC0及び(L−1)(L
=10)種類のデルタベクトルΔC1〜ΔCL−1(L
=10)に対する合成フィルタ演算処理に帰着させるこ
とができ、従来、フィルタ処理にNp・N・M(=10
24・Np・N)回の積和算が必要であったものを Np・N・L(=10・Np・N) 回の積和算に減少できる。
Further, the initial vector C0 and (L-1) types of delta vectors ΔC1 to ΔCL-1 (L=10) are subjected to synthesis filter processing by the LPC filter 12 to obtain filter outputs AC0 and ( L-1) Types of delta vector filter outputs AΔC1 to AΔCL-1
(L=10) is determined and stored in the storage unit 13. Then, by adding and subtracting the filter output AΔC1 of the first delta vector to the filter output AC0 of the initial vector, filter outputs AC1 and AC2 for the code vectors C1 and C2 of the two types of noise sequences are calculated, and new By adding and subtracting the filter output AΔC2 of the second delta vector to the filter outputs AC1 and AC2 for the code vectors of each noise string calculated in
, C4; filter output AC3 to AC for C5 and C6
6, and similarly apply the filter output AΔCi-1 of the (i-1)th delta vector to the calculated filter output ACk, and apply the filter output AΔCi of the i-th delta vector to obtain 2, respectively. Filter output AC2k+1 for the code vector of the type of noise sequence,
By calculating AC2k+2, filter outputs of all code vectors are generated. In this way, the synthesis filter calculation process for each code vector C0 to C1022 can be performed using the initial vector C0 and (L-1)(L
=10) Types of delta vectors ΔC1 to ΔCL-1(L
= 10), and conventionally, filter processing requires Np・N・M (=10
What used to be 24·Np·N) times of product-sum operations can be reduced to Np·N·L (=10·Np·N) times.

【0017】更に、誤差最小雑音列決定部17で誤差電
力が最小となる雑音列(コ−ドベクトル)を決定し、音
声符号化部18で該コ−ドベクトルを特定する符号を出
力することで音声符号化すると共に、誤差電力が最小と
なるコ−ドベクトルを求める処理を、合成フィルタ演算
出力ACと入力信号ベクトルXの間の相互相関RXC(
=XTAC,Tは転置行列)の二乗と合成フィルタ出力
の自己相関RCC(=(AC)(AC))の比が最大と
なるコ−ドベクトルを求めることに帰着させる。そして
、合成フィルタ演算出力AC2k+1、AC2k+2を
1階層前の合成フィルタ演算出力ACkと今回のデルタ
雑音フィルタ出力AΔCiを用いて次式 AC2k+1=ACk+AΔCi   AC2k+2=ACk−AΔCi のように漸化式で表現することにより、相互相関RXC
(2K+2)、RXC(2K+2)を次式RXC(2k
+1)=RXC(k)+XT (AΔCi)RXC(2
k+2)=RXC(k)−XT (AΔCi)に示すよ
うに漸化式で表現し、相互相関演算部14で1階層前の
相互相関RXC(k)を用いて今回の相互相関RXC(
2k+1),RXC(2k+2)を演算するようにする
。このようにすれば、右辺第2項の相互相関演算を行う
だけで全コ−ドベクトルのフィルタ出力と入力信号Xと
の間の相互相関を演算できる。すなわち、従来相互相関
を求めるのにM・N(=1024・N)回の積和算が必
要であったものが、L・N(=10・N)回の積和算で
済ますことが可能となり、演算回数を著しく減少できる
Furthermore, the minimum error noise sequence determining unit 17 determines a noise sequence (code vector) with the minimum error power, and the audio encoding unit 18 outputs a code specifying the code vector, thereby generating audio. At the same time, the process of finding the code vector with the minimum error power is performed using the cross-correlation RXC (
=XTAC, T is a transposed matrix) and the ratio of the autocorrelation RCC (=(AC)(AC)) of the synthesis filter output is determined to be the maximum. Then, the synthesis filter calculation outputs AC2k+1 and AC2k+2 are expressed by a recurrence formula using the synthesis filter calculation output ACk of the previous layer and the current delta noise filter output AΔCi, as shown in the following formula: AC2k+1=ACk+AΔCi AC2k+2=ACk−AΔCi The cross-correlation RXC
(2K+2), RXC(2K+2) with the following formula RXC(2k
+1)=RXC(k)+XT (AΔCi)RXC(2
k + 2) = RXC (k) - XT (AΔCi), and the cross correlation calculation unit 14 uses the previous cross correlation RXC (k) to calculate the current cross correlation RXC (
2k+1) and RXC(2k+2). In this way, the cross-correlation between the filter outputs of all code vectors and the input signal X can be calculated by simply performing the cross-correlation calculation of the second term on the right side. In other words, what used to require M・N (=1024・N) times of product-sum calculations to obtain cross-correlation can now be done with L・N (=10・N) times. Therefore, the number of calculations can be significantly reduced.

【0018】又、自己相関演算部15は1階層前の自己
相関RCC(k)を用いて今回の相互相関RCC(2k
+1),RCC(2k+2)を演算するようにする。こ
のようにすれば、自己相関RCCを初期ベクトルのフィ
ルタ出力AC0と(L−1)種類のデルタベクトルのフ
ィルタ出力AΔC1〜AΔCL−1の合計L通りの自己
相関(AC0)2,(AΔC1)2〜(AΔCL−1)
2と、各フィルタ出力AC0,AΔC1〜AΔCL−1
間の(L2−l)/2通りの相互相関を用いて演算でき
る。すなわち、従来自己相関を求めるのにM・N(=1
024・N)回の積和算が必要であったものが、L(L
+1)・N/2(=55・N)回の積和算で済ますこと
が可能となり、演算回数を著しく減少できる。
Further, the autocorrelation calculation unit 15 calculates the current cross-correlation RCC (2k) using the autocorrelation RCC(k) of the previous layer.
+1), RCC(2k+2). In this way, the autocorrelation RCC can be calculated from the filter output AC0 of the initial vector and the filter outputs AΔC1 to AΔCL-1 of (L-1) types of delta vectors. ~(AΔCL-1)
2 and each filter output AC0, AΔC1 to AΔCL-1
The calculation can be performed using (L2-l)/2 types of cross-correlation between the two. In other words, conventionally, M・N (=1
024・N) times of product summation is now L(L
+1)·N/2 (=55·N) times of product-sum calculations, and the number of calculations can be significantly reduced.

【0019】[0019]

【実施例】【Example】

全体の構成 図2は本発明に係わる音声符号化システムの構成図であ
る。図中、11は1つの基準雑音列を表現する初期ベク
トルC0と(L−1)種類のデルタ雑音列を表現するデ
ルタベクトルΔC1〜ΔCL−1(L=10)を記憶・
保持するデルタ符号帳であり、初期ベクトルC0及び各
デルタベクトルΔC1〜ΔCL−1(L=10)はそれ
ぞれN次元で表現されている。すなわち、初期ベクトル
及びデルタベクトルは時系列的に発生するN個の雑音の
振幅をそれぞれコ−ド化したN次元のベクトルである。
Overall configuration FIG. 2 is a diagram showing the configuration of a speech encoding system according to the present invention. In the figure, 11 stores an initial vector C0 representing one reference noise sequence and delta vectors ΔC1 to ΔCL-1 (L=10) representing (L-1) types of delta noise sequences.
This is a delta codebook to be held, and the initial vector C0 and each delta vector ΔC1 to ΔCL-1 (L=10) are each expressed in N dimensions. That is, the initial vector and the delta vector are N-dimensional vectors each encoding the amplitude of N noises occurring in time series.

【0020】12は声道特性を模擬したフィルタ演算処
理を施す線形予測合成フィルタ(LPCフィルタ)であ
り、次数NpのIIR型フィルタで構成され、N×Nの
正方行列Aとコ−ドベクトルCのマトリクス演算を行っ
て、コ−ドベクトルCに合成フィルタ処理を施す。II
R型フィルタのNp個の係数は入力音声信号に基づいて
変化し、その都度周知の方法で決定される。すなわち、
入力音声信号の隣接サンプルには相関が存在するから、
サンプル間の相関係数を求め、該相関係数からパ−コ−
ル係数と称せられる偏自己相関係数を求め、該パ−コ−
ル係数からIIRフィルタのアルファ係数を決定し、当
該フィルタのインパルス応答列を用いてN×Nの正方行
列Aを作成してコ−ドベクトルCに合成フィルタ処理を
施す。
Reference numeral 12 denotes a linear predictive synthesis filter (LPC filter) that performs filter calculation processing that simulates vocal tract characteristics, and is composed of an IIR type filter of order Np, and is composed of an N×N square matrix A and a code vector C. A matrix calculation is performed and the code vector C is subjected to synthesis filter processing. II
The Np coefficients of the R-type filter vary based on the input audio signal and are each determined in a known manner. That is,
Since there is a correlation between adjacent samples of the input audio signal,
Find the correlation coefficient between samples, and use the correlation coefficient to calculate the
Find the partial autocorrelation coefficient called the parcoal coefficient,
The alpha coefficient of the IIR filter is determined from the filter coefficient, an N×N square matrix A is created using the impulse response sequence of the filter, and the code vector C is subjected to synthesis filter processing.

【0021】13は基準雑音列を表現する初期ベクトル
C0及び(L−1)種類のデルタ雑音列を表現するデル
タベクトルΔC1〜ΔCL−1に対してそれぞれフィル
タ演算処理を施して得られるフィルタ出力AC0,AΔ
C1〜AΔCL−1を記憶する記憶部、14は相互相関
RXC(=XT AC)を演算する相互相関演算部、1
5は自己相関RCC(=(AC)T (AC))を演算
する自己相関演算部、16は相互相関を二乗したものと
自己相関の比を演算する演算部である。
13 is a filter output AC0 obtained by performing filter calculation processing on the initial vector C0 representing the reference noise sequence and the delta vectors ΔC1 to ΔCL-1 representing (L-1) types of delta noise sequences. , AΔ
14 is a cross-correlation calculation unit that calculates cross-correlation RXC (=XT AC);
Reference numeral 5 denotes an autocorrelation calculation unit that calculates the autocorrelation RCC (=(AC)T (AC)), and 16 represents a calculation unit that calculates the ratio of the squared cross-correlation to the autocorrelation.

【0022】誤差電力|E|2は(3)式で表現される
から、誤差電力を最小にするコ−ドベクトルCは(3)
式の右辺第2項を最大にするものである。従って、演算
部16は二乗演算部16aと除算部16bを備え、次式
F(X,C)=RXC2/RCC        (8
)を演算する。
Since the error power |E|2 is expressed by equation (3), the code vector C that minimizes the error power is (3)
This maximizes the second term on the right side of the equation. Therefore, the calculation unit 16 includes a square calculation unit 16a and a division unit 16b, and has the following formula F(X,C)=RXC2/RCC (8
) is calculated.

【0023】17はRXC2/RCCが最大となる、換
言すれば誤差電力が最小となる雑音列(コ−ドベクトル
)を決定する誤差最小雑音列決定部、18は誤差電力が
最小となる雑音列(コ−ドベクトル)を特定する符号で
入力信号を符号化する音声符号化部である。
17 is a minimum error noise sequence determination unit that determines a noise sequence (code vector) that maximizes RXC2/RCC, in other words, the error power is minimum; 18 is a noise sequence (code vector) that minimizes error power; This is an audio encoding unit that encodes an input signal with a code that specifies a code vector).

【0024】デルタ符号帳の符号語の構成図3は本発明
に係わるデルタ符号帳11における符号語(コ−ドベク
トル)の構成説明図である。デルタ符号帳11には、1
つの初期ベクトルC0と(L−1)種類のデルタベクト
ルΔC1〜ΔCL−1(L=10)を格納しておき、各
デルタベクトルΔC1〜ΔCL−1をそれぞれ初期ベク
トルC0に階層毎に加え合わせるか、差し引くかにより
順次木構造状に(210−1)種類のコ−ドベクトルC
0〜C1022を表現し、これらコ−ドベクトルに零ベ
クトル(各要素がゼロ)を加えて210のコ−ドベクト
ルC0〜C1023を表現する。このようにすれば、各
コ−ドベクトル(符号語)の間の関係が次式 C1=C0+ΔC1   C2=C0−ΔC1   C3=C1+ΔC2(=C0+ΔC1+ΔC2)C
4=C1−ΔC2(=C0+ΔC1−ΔC2)C5=C
2+ΔC2(=C0−ΔC1+ΔC2)C6=C2−Δ
C2(=C0−ΔC1−ΔC2)・・・・・・・・・・
・・・・・・・   C511 =C255+ΔC9(=C0+ΔC1+
ΔC2+・・・+ΔC9)  C512 =C255−
ΔC9(=C0+ΔC1+ΔC2+・・・−ΔC9) 
 C1021=C510+ΔC9(=C0−ΔC1−Δ
C2−・・・+ΔC9)  C1022=C510−Δ
C9(=C0−ΔC1−ΔC2−・・・−ΔC9)によ
り表現され、一般的に C2k+1=Ck+ΔCi      (9)C2k+
2=Ck−ΔCi      (10)のように漸化式
で表現できる。すなわち、デルタ符号帳11に初期ベク
トルC0と(L−1)種類のデルタベクトルΔC1〜Δ
CL−1(L=10)を格納しておくだけで、次々と2
L(=210)種類の任意の雑音列のコ−ドベクトルを
生成することができ、符号帳11の記憶容量をL・N(
=10・N)とすることができ、従来の雑音符号帳の記
憶容量M・N(=1024・N)に比べて著しく減少す
ることができる。
Structure of Code Words of Delta Codebook FIG. 3 is an explanatory diagram of the structure of code words (code vectors) in the delta codebook 11 according to the present invention. The delta codebook 11 contains 1
One initial vector C0 and (L-1) types of delta vectors ΔC1 to ΔCL-1 (L=10) are stored, and each delta vector ΔC1 to ΔCL-1 is added to the initial vector C0 for each layer. , (210-1) types of code vectors C are sequentially created in a tree structure depending on whether
0 to C1022 are expressed, and a zero vector (each element is zero) is added to these code vectors to express 210 code vectors C0 to C1023. In this way, the relationship between each code vector (code word) can be expressed as follows: C1=C0+ΔC1 C2=C0-ΔC1 C3=C1+ΔC2 (=C0+ΔC1+ΔC2)C
4=C1-ΔC2 (=C0+ΔC1-ΔC2)C5=C
2+ΔC2 (=C0-ΔC1+ΔC2)C6=C2-Δ
C2 (=C0-ΔC1-ΔC2)・・・・・・・・・・
・・・・・・・・・ C511 =C255+ΔC9(=C0+ΔC1+
ΔC2+...+ΔC9) C512 =C255-
ΔC9 (=C0+ΔC1+ΔC2+...-ΔC9)
C1021=C510+ΔC9(=C0−ΔC1−Δ
C2-...+ΔC9) C1022=C510-Δ
It is expressed as C9 (=C0-ΔC1-ΔC2-...-ΔC9), and generally C2k+1=Ck+ΔCi (9)C2k+
2=Ck-ΔCi (10) It can be expressed as a recurrence formula. That is, the delta codebook 11 contains an initial vector C0 and (L-1) types of delta vectors ΔC1 to Δ
Just by storing CL-1 (L=10), 2
It is possible to generate code vectors of L (=210) types of arbitrary noise sequences, and the storage capacity of the codebook 11 can be reduced to L・N(
=10·N), which can be significantly reduced compared to the storage capacity M·N (=1024·N) of the conventional noise codebook.

【0025】コ−ドベクトルに対するフィルタ処理コ−
ドベクトル(符号語)C2k+1、C2k+2に対する
合成フィルタ演算出力AC2k+1、AC2k+2を、
1階層前のコ−ドベクトルCkに対する合成フィルタ演
算出力ACkと今回のデルタベクトルのフィルタ出力A
ΔCiを用いてそれぞれ次式   AC2k+1=A(Ck+ΔCi)=ACk+AΔ
Ci      (11)  AC2k+2=A(Ck
−ΔCi)=ACk−AΔCi      (12) 
 但し、i=1,2,・・・L−1,  2i−1≦k
<2i −1のように漸化式で表現できる。従って、初
期ベクトルC0及び(L−1)種類のデルタベクトルΔ
C1〜ΔCL−1(L=10)に対して、LPCフィル
タ12で合成フィルタ処理を施して初期ベクトルのフィ
ルタ出力AC0と(L−1)種類のデルタベクトルのフ
ィルタ出力AΔC1〜AΔCL−1(L=10)を求め
て記憶部13に記憶しておけば、以下のごとく全雑音列
のコ−ドベクトルに対するフィルタ処理を再帰的に行う
ことができる。
Filter processing code for code vector
Synthesis filter calculation outputs AC2k+1 and AC2k+2 for code vectors (code words) C2k+1 and C2k+2 are
Synthesis filter calculation output ACk for the code vector Ck one layer before and filter output A of the current delta vector
Using ΔCi, the following formula AC2k+1=A(Ck+ΔCi)=ACk+AΔ
Ci (11) AC2k+2=A(Ck
−ΔCi)=ACk−AΔCi (12)
However, i=1, 2,...L-1, 2i-1≦k
It can be expressed by a recurrence formula such as <2i −1. Therefore, the initial vector C0 and (L-1) types of delta vectors Δ
C1 to ΔCL-1 (L=10) are subjected to synthesis filter processing by the LPC filter 12 to obtain the initial vector filter output AC0 and (L-1) types of delta vector filter outputs AΔC1 to AΔCL-1 (L =10) and stores it in the storage unit 13, it is possible to recursively perform filter processing on the code vector of the entire noise sequence as follows.

【0026】すなわち、(1) 初期ベクトルのフィル
タ出力AC0に対して第1のデルタベクトルのフィルタ
出力AΔC1を次元毎に加え合わせ及び差し引くことに
より2種類の雑音列のコ−ドベクトルC1,C2に対す
るフィルタ出力AC1,AC2を演算でき、又、(2)
 新たに演算された各フィルタ演算出力AC1,AC2
に第2のデルタベクトルのフィルタ出力AΔC2を加え
合わせ及び差し引くことにより、それぞれ2種類、合計
4種類のコ−ドベクトルC3,C4,C5,C6に対す
るフィルタ出力AC3〜AC6を演算でき、以下同様に
(3) 第(i−1)番目のデルタベクトルのフィルタ
出力AΔCi−1を作用させて演算したフィルタ出力A
Ckに第i番目のデルタベクトルのフィルタ出力AΔC
iを作用させてそれぞれ2種類のフィルタ出力AC2k
+1、AC2k+2を演算することにより2L(=21
0)の全雑音列のコ−ドベクトルに対するフィルタ出力
を発生できる。
That is, (1) By adding and subtracting the filter output AΔC1 of the first delta vector for each dimension to the filter output AC0 of the initial vector, a filter is created for the code vectors C1 and C2 of two types of noise sequences. Output AC1, AC2 can be calculated, and (2)
Newly calculated filter calculation outputs AC1, AC2
By adding and subtracting the filter output AΔC2 of the second delta vector, the filter outputs AC3 to AC6 for a total of four types of code vectors C3, C4, C5, and C6 can be calculated. 3) Filter output A calculated by applying filter output AΔCi-1 of the (i-1)th delta vector
Ck is the filter output AΔC of the i-th delta vector.
2 types of filter output AC2k by applying i
+1, AC2k+2, 2L (=21
0) can generate a filter output for the code vector of the total noise sequence.

【0027】すなわち、本発明の木構造のデルタ符号帳
11を用いると、(11),(12)式より各コ−ドベ
クトルに対するフィルタ処理を再帰的に行うことが可能
となり、初期ベクトルC0及び(L−1)種類のデルタ
ベクトルΔC1〜ΔCL−1(L=10)に対して合成
フィルタ処理を施しておくだけで、それらを符号を替え
ながら加えあわせて行くことで全ての雑音列のコ−ドベ
クトルに対するフィルタ処理が得られる。
That is, by using the tree-structured delta codebook 11 of the present invention, it becomes possible to recursively perform filter processing on each code vector using equations (11) and (12), and initial vectors C0 and ( L-1) Types of delta vectors ΔC1 to ΔCL-1 (L=10) are simply subjected to synthesis filter processing, and by adding them while changing their signs, the codes of all noise sequences can be obtained. The filter processing for the vector is obtained.

【0028】実際には、後述するように本発明のデルタ
符号帳の場合、相互相関RXC、自己相関RCCの演算
にあたって、全符号語(コ−ドベクトル)に対するフィ
ルタ演算出力は不要であり、初期ベクトルC0及び(L
−1)種類のデルタベクトルΔC1〜ΔCL−1(L=
10)に対するフィルタ演算処理結果のみが必要となる
In fact, as will be described later, in the case of the delta codebook of the present invention, when calculating cross-correlation RXC and autocorrelation RCC, filter calculation outputs for all code words (code vectors) are not required, and the initial vector C0 and (L
−1) Types of delta vectors ΔC1 to ΔCL−1 (L=
Only the filter calculation processing results for 10) are required.

【0029】従って、従来における全雑音列のコ−ドベ
クトルC0〜C1023に対する合成フィルタ演算処理
を、初期ベクトルC0及び(L−1)種類のデルタベク
トルΔC1〜ΔCL−1(L=10)に対する合成フィ
ルタ演算処理に帰着させることができる。このため、従
来、フィルタ処理に Np・N・M(=1024・Np・N)回の積和算が必
要であったものを本発明においてN・N・L(=10・
Np・N) 回の積和算に減少できる。
Therefore, the conventional synthesis filter arithmetic processing for the code vectors C0 to C1023 of the total noise sequence can be changed to the synthesis filter for the initial vector C0 and (L-1) types of delta vectors ΔC1 to ΔCL-1 (L=10). This can be reduced to arithmetic processing. Therefore, in the present invention, Np・N・M (=1024・Np・N) times of product summation are required for filter processing, but in the present invention, N・N・L (=10・
It can be reduced to Np・N) times of product summation.

【0030】相互相関RXCの算出 合成フィルタ演算出力AC2k+1、AC2k+2を1
つ前の合成フィルタ演算出力ACkと今回のデルタベク
トルのフィルタ出力AΔCiを用いて(11),(12
)に示すように漸化式で表現すると相互相関RXC(2
k+1),RXC(2k+2)は次式  RXC(2k
+1)=XT(AC2k+1)           
 =XT(ACk)+XT(AΔCi)       
     =RXC(k )+XT(AΔCi)   
         (13)  RXC(2k +2)
=XT (AC2k+2)          =XT
(ACk)−XT(AΔCi)          =
RXC(k)−XT(AΔCi)          
  (14)に示すように漸化式で表現できる。従って
、相互相関演算部14で1階層前の相互相関RXC(k
)を用いて今回の相互相関RXC(2k+1),RXC
(2k+2)を演算することができる。このようにすれ
ば、(13),(14)式の右辺第2項の相互相関演算
を行うだけで全雑音列のコ−ドベクトルに対するフィル
タ出力と入力信号Xとの間の相互相関を演算できる。す
なわち、従来相互相関を演算するのにM・N(=102
4・N) 回の積和算が必要であったものが、本発明によれば、L
・N(=10・N) 回の積和算で済ますことが可能となり、演算回数を著し
く減少できる。
Calculation of cross-correlation RXC Synthesis filter calculation outputs AC2k+1 and AC2k+2 are 1
Using the previous synthesis filter calculation output ACk and the current delta vector filter output AΔCi, (11), (12
), the cross-correlation RXC (2
k+1), RXC(2k+2) is the following formula RXC(2k
+1)=XT(AC2k+1)
=XT(ACk)+XT(AΔCi)
=RXC(k)+XT(AΔCi)
(13) RXC (2k +2)
=XT (AC2k+2) =XT
(ACk)−XT(AΔCi)=
RXC(k)-XT(AΔCi)
It can be expressed by a recurrence formula as shown in (14). Therefore, in the cross-correlation calculation unit 14, the cross-correlation RXC(k
) to calculate the current cross-correlation RXC (2k+1), RXC
(2k+2) can be calculated. In this way, it is possible to calculate the cross-correlation between the filter output and the input signal . In other words, it takes M・N (=102
According to the present invention, L
・It is possible to complete the product-sum operation N (=10・N) times, and the number of calculations can be significantly reduced.

【0031】尚、図2において、14aは(13),(
14)式の右辺第2項XT(AΔCi)を演算する乗算
部、14bは+1,−1を発生する符号付与部、14c
は符号±1を乗算して右辺第2項に符号を付与する乗算
部、14dは1つ前の相互相関RXC(k)(右辺第1
項)を所定時間記憶遅延する遅延部、14eは(13)
,(14)式の右辺第1項と第2項の加算を行って今回
の相互相関RXC(2k+1)、RXC(2k +2)
を出力する加算部である。
In FIG. 2, 14a is (13), (
14) A multiplication unit that calculates the second term XT (AΔCi) on the right side of the equation, 14b is a sign adding unit that generates +1 and -1, 14c
is a multiplier that multiplies the sign ±1 and gives a sign to the second term on the right side, and 14d is the previous cross-correlation RXC(k) (the first term on the right side).
The delay unit 14e that delays storage of the item) for a predetermined period of time is (13)
, by adding the first and second terms on the right side of equation (14) to obtain the current cross-correlation RXC(2k+1), RXC(2k+2)
This is an adder that outputs .

【0032】自己相関RCCの算出 合成フィルタ演算出力AC2k+1、AC2k+2を1
階層前の合成フィルタ演算出力ACkと今回のデルタベ
クトルのフィルタ出力AΔCiを用いて(11),(1
2)に示すように漸化式で表現すると、各雑音列のコ−
ドベクトルに対する自己相関RCCは次式で表現される
。すなわち、  RCC(0)=(ACO)T(ACO
)  AC1=AC0+AΔC1   AC2=AC0−AΔC1   RCC(1)=(AC0)T(AC0)+(AΔC
1)T(AΔC1)+2(AC0)T(AΔC1)  
RCC(2)=(AC0)T(AC0)+(AΔC1)
T(AΔC1)− 2(AC0)T(AΔC1)  A
C3 =AC1+AΔC2 =AC0+AΔC1+AΔ
C2  AC4 =AC1−AΔC2 =AC0+AΔ
C1−AΔC2  AC5 =AC2+AΔC2 =A
C0−AΔC1+AΔC2  AC6 =AC1−AΔ
C2 =AC0−AΔC1−AΔC2  RCC(3)
=(AC0)T(AC0)+(AΔC1)T(AΔC1
)+(AΔC2 )T(AΔC2)         
+2(AC0)T(AΔC1)+2(AΔC1)T(A
ΔC2)+2(AΔC2)T(AC0)  RCC(4
)=(AC0)T(AC0)+(AΔC1)T(AΔC
1)+(AΔC2 )T(AΔC2)        
 +2(AC0)T(AΔC1)−2(AΔC1)T(
AΔC2)−2(AΔC2)T(AC0)  RCC(
5)=(AC0)T(AC0)+(AΔC1)T(AΔ
C1)+(AΔC2 )T(AΔC2)       
  −2(AC0)T(AΔC1)−2(AΔC1)T
(AΔC2)+2(AΔC2)T(AC0)  RCC
(6)=(AC0)T(AC0)+(AΔC1)T(A
ΔC1)+(AΔC2 )T(AΔC2)      
   −2(AC0)T(AΔC1)+2(AΔC1)
T(AΔC2)−2(AΔC2)T(AC0)と表現さ
れ、一般に   RCC(2k+1)=RCC(k)+(AΔCi)
T(AΔCi)+2AΔCi・ACk  (15)  
RCC(2K+2)=RCC(k)+(AΔCi)T(
AΔCi)−2AΔCi・ACk  (16)と表現で
きる。
Calculation of autocorrelation RCC Synthesis filter calculation output AC2k+1, AC2k+2 is 1
Using the synthesis filter calculation output ACk of the previous layer and the current delta vector filter output AΔCi, (11), (1
2) When expressed as a recurrence formula, the code of each noise sequence is
The autocorrelation RCC for the vector is expressed by the following equation. That is, RCC(0)=(ACO)T(ACO
) AC1=AC0+AΔC1 AC2=AC0−AΔC1 RCC(1)=(AC0)T(AC0)+(AΔC
1) T(AΔC1)+2(AC0)T(AΔC1)
RCC(2)=(AC0)T(AC0)+(AΔC1)
T(AΔC1)-2(AC0)T(AΔC1) A
C3 =AC1+AΔC2 =AC0+AΔC1+AΔ
C2 AC4 =AC1-AΔC2 =AC0+AΔ
C1-AΔC2 AC5 =AC2+AΔC2 =A
C0-AΔC1+AΔC2 AC6 =AC1-AΔ
C2 = AC0-AΔC1-AΔC2 RCC (3)
=(AC0)T(AC0)+(AΔC1)T(AΔC1
)+(AΔC2)T(AΔC2)
+2(AC0)T(AΔC1)+2(AΔC1)T(A
ΔC2)+2(AΔC2)T(AC0) RCC(4
)=(AC0)T(AC0)+(AΔC1)T(AΔC
1)+(AΔC2)T(AΔC2)
+2(AC0)T(AΔC1)-2(AΔC1)T(
AΔC2)-2(AΔC2)T(AC0) RCC(
5)=(AC0)T(AC0)+(AΔC1)T(AΔ
C1)+(AΔC2)T(AΔC2)
-2(AC0)T(AΔC1)-2(AΔC1)T
(AΔC2)+2(AΔC2)T(AC0) RCC
(6)=(AC0)T(AC0)+(AΔC1)T(A
ΔC1)+(AΔC2)T(AΔC2)
-2(AC0)T(AΔC1)+2(AΔC1)
It is expressed as T(AΔC2)-2(AΔC2)T(AC0), and generally RCC(2k+1)=RCC(k)+(AΔCi)
T(AΔCi)+2AΔCi・ACk (15)
RCC(2K+2)=RCC(k)+(AΔCi)T(
AΔCi)−2AΔCi·ACk (16)

【0033】すなわち、1階層前の自己相関RCC(k
)に、今回のAΔCiの自己相関(AΔCi)T (A
ΔCi)を加え合わせると共に、AΔCiとAC0、A
ΔC1〜AΔCi−1の相互相関を符号を替えながら加
え合わせることにより相互相関RCC(2k+1),R
CC(2k+2)を演算できる。このようにすれば、自
己相関RCCを初期ベクトルのフィルタ出力AC0と(
L−1)種類のデルタベクトルのフィルタ出力AΔC1
〜AΔCL−1の合計L通りの自己相関(AC0)2,
(AΔC1)2〜(AΔCL−1)2と、各フィルタ出
力AC0,AΔC1〜AΔCL−1間相互の(L2−l
)/2通りの相互相関を用いて演算できる。すなわち、
従来自己相関を演算するのに M・N(=1024・N) 回の積和算が必要であったものが、 L(L+1)・N/2(=55・N) 回の積和算で済ますことが可能となり、演算回数を著し
く減少できる。尚、図2において、15aは(15)、
(16)式の右辺第2項の自己相関(AΔCi)T(A
ΔCi)を演算する自己相関演算部、15bは(15)
,(16)式における各相互相関を演算する相互相関演
算部、15cは各相互相関を所定の符号を付して加算す
る相互相関合成部、15dは1階層前の自己相関RCC
(k)と自己相関(AΔCi)T(AΔCi)及び相互
相関を加算して(15),(16)式の演算を行う加算
部、15eは1階層前の自己相関RCC(k)を所定時
間記憶して遅延する遅延部である。
In other words, the autocorrelation RCC(k
), the current autocorrelation of AΔCi (AΔCi)T (A
ΔCi), and AΔCi and AC0, A
By adding the cross-correlations of ΔC1 to AΔCi-1 while changing the signs, the cross-correlation RCC (2k+1), R
CC(2k+2) can be calculated. In this way, the autocorrelation RCC can be calculated from the filter output AC0 of the initial vector and (
L-1) Type of delta vector filter output AΔC1
~AΔCL-1 total L autocorrelations (AC0)2,
(AΔC1)2 to (AΔCL-1)2 and the mutual (L2-l) between each filter output AC0, AΔC1 to AΔCL-1.
)/can be calculated using two types of cross-correlation. That is,
Conventionally, calculating autocorrelation required M・N (=1024・N) times of product summation, but now it can be calculated using L(L+1)・N/2 (=55・N) times. The number of calculations can be significantly reduced. In addition, in FIG. 2, 15a is (15),
Autocorrelation (AΔCi)T(A
The autocorrelation calculation unit 15b that calculates ΔCi) is (15)
, a cross-correlation calculation unit that calculates each cross-correlation in equation (16), 15c a cross-correlation synthesis unit that adds each cross-correlation with a predetermined sign, and 15d an autocorrelation RCC of the previous layer.
(k), autocorrelation (AΔCi), T(AΔCi), and cross-correlation, and calculates equations (15) and (16). This is a delay section that stores and delays.

【0034】全体の動作 予め1つの基準雑音列である初期ベクトルC0と(L−
1)種類のデルタ雑音列であるデルタベクトルΔC1〜
ΔCL−1(L=10)をデルタ符号帳11に格納して
おき、線形LPCフィルタ12において初期ベクトルC
0及び(L−1)種類のデルタベクトルΔC1〜ΔCL
−1(L=10)に対して、合成フィルタ処理を施して
フィルタ出力AC0、AΔC1〜AΔCL−1(L=1
0)を求めて記憶部13に記憶する。
Overall operation Initial vector C0, which is one reference noise sequence, and (L-
1) Delta vector ΔC1 which is a type of delta noise sequence
ΔCL-1 (L=10) is stored in the delta codebook 11, and the linear LPC filter 12 uses the initial vector C
0 and (L-1) types of delta vectors ΔC1 to ΔCL
-1 (L=10) is subjected to synthesis filter processing and the filter outputs AC0, AΔC1 to AΔCL-1 (L=1
0) is determined and stored in the storage unit 13.

【0035】かかる状態で、i=0とし、相互相関演算
部14で相互相関 RXC(0)(=XTAC0)を演算し、自己相関演算
部15で自己相関 RCC(0)(=(AC0)T(AC0))を演算し、
これら相互相関と自己相関を用いて演算部16で(8)
式を用いてF(X,C)(=RXC2/RCC)を演算
する。
In this state, with i=0, the cross-correlation calculation section 14 calculates the cross-correlation RXC(0) (=XTAC0), and the autocorrelation calculation section 15 calculates the autocorrelation RCC(0)(=(AC0)T (AC0)),
Using these cross-correlation and autocorrelation, the calculation unit 16 calculates (8)
F(X,C) (=RXC2/RCC) is calculated using the formula.

【0036】誤差最小雑音列決定部17は演算されたF
(X,C)とそれ迄のF(X,C)の最大値Fmax(
初期値は0)を比較し、F(X,C)>Fmaxであれ
ば、F(X,C)→FmaxとしてFmaxを更新する
と共に、Fmaxを与える雑音列(コ−ドベクトル)を
特定する符号でそれ迄の符号を更新する。
The minimum error noise sequence determining unit 17 calculates the calculated F
(X, C) and the maximum value of F(X, C) up to that point Fmax(
The initial value is 0), and if F(X, C) > Fmax, update Fmax as F(X, C) → Fmax, and use a code to specify the noise sequence (code vector) that gives Fmax. updates the code up to that point.

【0037】2i(=20)個の符号語(コ−ドベクト
ル)に対して上記処理を行なえばi=1とし、(13)
式に従って(但し、k=0,i=1)相互相関を演算し
、(15)式に従って自己相関を演算し、これら相互相
関と自己相関を用いて演算部16で(8)式を演算する
If the above processing is performed on 2i (=20) code words (code vectors), i=1, and (13)
The cross-correlation is calculated according to the formula (k=0, i=1), the autocorrelation is calculated according to the formula (15), and the calculation unit 16 calculates the formula (8) using these cross-correlation and autocorrelation. .

【0038】誤差最小雑音列決定部17は演算されたF
(X,C)とそれ迄のF(X,C)の最大値Fmax(
初期値は0)を比較し、F(X,C)>Fmaxであれ
ば、F(X,C)→FmaxとしてFmaxを更新する
と共に、Fmaxを与える雑音列(コ−ドベクトル)を
特定する符号でそれ迄の符号を更新する。
The minimum error noise sequence determining unit 17 calculates the calculated F
(X, C) and the maximum value of F(X, C) up to that point Fmax(
The initial value is 0), and if F(X, C) > Fmax, update Fmax as F(X, C) → Fmax, and use a code to specify the noise sequence (code vector) that gives Fmax. updates the code up to that point.

【0039】ついで、(14)式従って(但し、k=0
,i=1)相互相関を演算し、(16)式に従って自己
相関を演算し、これら相互相関と自己相関を用いて演算
部16で(8)式を演算する。
Then, according to equation (14) (where k=0
, i=1), calculate the autocorrelation according to equation (16), and use these cross-correlation and autocorrelation to calculate equation (8) in the calculation section 16.

【0040】誤差最小雑音列決定部17は同様に演算さ
れたF(X,C)とそれ迄のF(X,C)の最大値Fm
ax(初期値は0)を比較し、F(X,C)>Fmax
であれば、F(X,C)→FmaxとしてFmaxを更
新すると共に、該Fmaxを与える雑音列(コ−ドベク
トル)を特定する符号でそれ迄の符号を更新する。
The minimum error noise sequence determination unit 17 calculates F(X, C) calculated in the same way and the maximum value Fm of F(X, C) up to that point.
ax (initial value is 0), F(X,C)>Fmax
If so, Fmax is updated as F(X,C)→Fmax, and the previous code is updated with a code that specifies the noise sequence (code vector) that provides the Fmax.

【0041】2i(=21)個の符号語(コ−ドベクト
ル)に対して上記処理を行なえばi=2とし、以上と同
様の処理を繰返し、210個の全コ−ドベクトルに対し
て上記処理を行なえば、音声符号化部18は誤差最小雑
音列決定部17に記憶されている最新の符号を入力信号
の音声符号として出力する。
If the above process is performed on 2i (=21) code words (code vectors), i=2, and the same process as above is repeated, and the above process is performed on all 210 code vectors. If this is done, the speech encoder 18 outputs the latest code stored in the minimum error noise sequence determining section 17 as the speech code of the input signal.

【0042】処理量及びメモリ容量における従来方式と
本発明方式の比較 図4は処理量(演算量)とメモリ容量に関し、従来方式
と本発明方式を比較した図表であり、本発明のト−タル
の演算量は従来方式の1/70以下であり、メモリ容量
は1/100であり、大幅に演算量とメモリ容量の軽減
を図ることができる。
Comparison of the conventional method and the method of the present invention in processing amount and memory capacity FIG. 4 is a chart comparing the conventional method and the method of the present invention in terms of processing amount (amount of calculations) and memory capacity. The amount of calculation is less than 1/70 of that of the conventional method, and the memory capacity is 1/100, making it possible to significantly reduce the amount of calculation and memory capacity.

【0043】尚、以上では各デルタベクトルΔC1〜Δ
CL−1(L=10)をそれぞれ初期ベクトルC0に階
層毎とに加え合わせるか、差し引くかにより順次木構造
状に(210−1)種類のコ−ドベクトルCO〜C10
22を表現し、これらコードベクトルに零ベクトルを加
えて210種類のコ−ドベクトルC0〜C1023を表
現したが、零ベクトルは必ずしも加える必要はなく、又
零ベクトルにかえて初期ベクトルC0に−1を乗算した
−C0ベクトルをかえて210種類のコードベクトルを
表現するようにもできる。
[0043] In the above, each delta vector ΔC1 to Δ
By adding or subtracting CL-1 (L=10) to the initial vector C0 for each layer, (210-1) types of code vectors CO to C10 are sequentially created in a tree structure.
22 and added zero vectors to these code vectors to express 210 types of code vectors C0 to C1023. However, it is not always necessary to add zero vectors, and -1 can be added to initial vector C0 instead of zero vectors. It is also possible to express 210 types of code vectors by changing the multiplied -C0 vector.

【0044】以上、本発明を実施例により説明したが、
本発明は請求の範囲に記載した本発明の主旨に従い種々
の変形が可能であり、本発明はこれらを排除するもので
はない。
The present invention has been explained above using examples, but
The present invention can be modified in various ways according to the gist of the present invention as described in the claims, and the present invention does not exclude these modifications.

【0045】[0045]

【発明の効果】以上本発明によれば、予め1つの初期ベ
クトルC0と(L−1)種類のデルタベクトルΔC1〜
ΔCL−1(L=10)をデルタ符号帳に格納しておき
、デルタベクトルΔC1〜ΔCL−1をそれぞれ初期ベ
クトルC0に階層毎に加え合わせ及び差し引くことによ
り順次木構造状に(210−1)種類の符号語(コ−ド
ベクトル)C0〜C1022を表現し、あるいは、これ
らに零ベクトル又は−C0ベクトルを加えて210のコ
−ドベクトルC0〜C1023を表現するように構成し
たから、デルタ符号帳に初期ベクトルC0と(L−1)
種類のデルタベクトルΔC1〜ΔCL−1(L=10)
を格納しておくだけで、次々と2L−1(=210−1
=M−1)種類又は2L(=210=M)種類のコ−ド
ベクトルを生成することができ、符号帳の記憶容量をL
・N(=10・N)とすることができ、従来の雑音符号
帳の記憶容量M・N(=1024・N)に比べて著しく
減少することができる。
According to the present invention, one initial vector C0 and (L-1) types of delta vectors ΔC1~
ΔCL-1 (L=10) is stored in the delta codebook, and delta vectors ΔC1 to ΔCL-1 are added to and subtracted from the initial vector C0 for each layer to sequentially create a tree structure (210-1) Since it is configured to express different types of code words (code vectors) C0 to C1022, or to express 210 code vectors C0 to C1023 by adding a zero vector or -C0 vector to these, the delta codebook Initial vector C0 and (L-1)
Type of delta vector ΔC1 to ΔCL-1 (L=10)
Just by storing 2L-1 (=210-1
=M-1) types or 2L (=210=M) types of code vectors can be generated, and the storage capacity of the codebook can be reduced to L.
・N (=10・N), which can be significantly reduced compared to the storage capacity M・N (=1024・N) of the conventional noise codebook.

【0046】又、本発明によれば、初期ベクトルC0及
び(L−1)種類のデルタベクトルΔC1〜ΔCL−1
(L=10)に対して、合成フィルタ処理を施してフィ
ルタ出力AC0、AΔC1〜AΔCL−1(L=10)
を求めて記憶しておき、初期ベクトルのフィルタ出力A
C0に対して第1のデルタベクトルのフィルタ出力AΔ
C1を加え合わせ及び差し引くことにより2種類のコ−
ドベクトルC1,C2に対するフィルタ出力AC1,A
C2を演算し、新たに演算された各フィルタ出力AC1
,AC2に第2のデルタベクトルのフィルタ出力AΔC
2を加え合わせ及び差し引くことにより、それぞれ2種
類のコ−ドベクトルC3,C4;C5,C6に対するフ
ィルタ出力AC3〜AC6を演算し、以下同様に第(i
−1)番目のデルタベクトルのフィルタ出力AΔCi−
1を作用させて演算したフィルタ出力ACkに第i番目
のデルタベクトルのフィルタ出力ΔCiを作用させてそ
れぞれ2種類の雑音列に対するフィルタ出力AC2k+
1,AC2k+2を演算することにより全雑音列のコ−
ドベクトルに対するフィルタ出力を発生するように構成
したから、各雑音列のコ−ドベクトルC0〜C1023
に対する合成フィルタ演算処理を、初期ベクトルC0及
び(L−1)(L=10)種類のデルタベクトルΔC1
〜ΔCL−1(L=10)に対する合成フィルタ演算処
理に帰着させることができ、従来、フィルタ処理にNp
・N・M(=1024・Np・N)回の積和算が必要で
あったものをN・N・L(=10・Np・N)回の積和
算に減少できる。
According to the present invention, the initial vector C0 and (L-1) types of delta vectors ΔC1 to ΔCL-1
(L=10), performs synthesis filter processing and filter output AC0, AΔC1 to AΔCL-1 (L=10)
Find and memorize the filter output A of the initial vector.
Filter output AΔ of the first delta vector for C0
By adding and subtracting C1, two types of codes are obtained.
Filter outputs AC1, A for vectors C1, C2
C2 is calculated, and each newly calculated filter output AC1
, AC2 is the filter output AΔC of the second delta vector.
By adding and subtracting 2, the filter outputs AC3 to AC6 for the two types of code vectors C3, C4; C5, C6 are calculated, and the (i-th
−1)th delta vector filter output AΔCi−
The filter output ΔCi of the i-th delta vector is applied to the filter output ACk calculated by applying 1 to the filter output AC2k+ for each of the two types of noise sequences.
1, AC2k+2 to calculate the code of the total noise sequence.
Since the configuration is configured to generate filter outputs for code vectors, the code vectors C0 to C1023 of each noise sequence
The synthesis filter calculation process for the initial vector C0 and (L-1) (L=10) types of delta vectors ΔC1
~ΔCL-1 (L=10) can be reduced to the synthesis filter calculation process, and conventionally, the filter process requires Np
・What used to be N·M (=1024·Np·N) times of product-sum calculations can be reduced to N·N·L (=10·Np·N) times.

【0047】更に、本発明によれば、誤差電力が最小と
なる雑音列(コ−ドベクトル)を決定し、該雑音列(コ
−ドベクトル)を特定する符号を出力することで音声符
号化するようにし、誤差電力が最小となる雑音列を求め
る処理を、合成フィルタ演算出力ACと入力信号Xの間
の相互相関RXCの二乗と合成フィルタ出力の自己相関
RCCの比が最大となるコ−ドベクトルを求めることに
帰着させたから、容易に誤差電力が最小となるコ−ドベ
クトルを求めることができる。
Furthermore, according to the present invention, a noise string (code vector) with the minimum error power is determined, and a code specifying the noise string (code vector) is output for speech encoding. Then, the process of finding the noise sequence with the minimum error power is performed by finding a code vector that maximizes the ratio of the square of the cross-correlation RXC between the synthesis filter calculation output AC and the input signal X to the autocorrelation RCC of the synthesis filter output. Since this is reduced to the calculation, the code vector with the minimum error power can be easily found.

【0048】又、合成フィルタ演算出力AC2k+1,
AC2k+2を1階層前の合成フィルタ演算出力ACk
と今回のデルタベクトルのフィルタ出力AΔCiを用い
て次式AC2k+1=ACk+AΔCi   AC2k+2=ACk−AΔCi のように漸化式で表現することにより、相互相関RXC
を漸化式で表現し、1階層前の相互相関RXC(k)を
用いて今回の相互相関RXC(2k+1)、RXC(2
k+2)を演算するように構成したから、従来相互相関
を演算するのにM・N(=1024・N)回の積和算が
必要であったものが、L・N(=10・N)回の積和算
で済ますことが可能となり、演算回数を著しく減少でき
る。
Furthermore, the synthesis filter calculation output AC2k+1,
Synthesis filter calculation output ACk of AC2k+2 one layer before
By using the filter output AΔCi of the current delta vector and expressing it in a recurrence formula as shown below, AC2k+1=ACk+AΔCi AC2k+2=ACk−AΔCi, the cross-correlation RXC
is expressed as a recurrence formula, and the current cross-correlation RXC(2k+1), RXC(2
k + 2), so the conventional calculation of cross-correlation, which required M・N (=1024・N) times of product summation, is now L・N (=10・N). This makes it possible to perform only one product-sum operation, and the number of calculations can be significantly reduced.

【0049】しかも、1階層前の自己相関RCC(k)
を用いて今回の相互相関RCC(2k+1)、RCC(
2k+2)を演算するように構成したから、自己相関R
CCを初期ベクトルのフィルタ出力AC0と(L−1)
種類のデルタベクトルのフィルタ出力AΔC1〜AΔC
L−1の合計L通りの自己相関(AC0)2,(AΔC
1)2〜(AΔCL−1)2と、各フィルタ出力AC0
,AΔC1〜AΔCL−1間の(L2−l)/2通りの
相互相関を用いて演算でき、従来自己相関を演算するの
にM・N(=1024・N)回の積和算が必要であった
ものが、L(L+1)・N/2(=55・N)回の積和
算で済ますことが可能となり、演算回数を著しく減少で
きる。
Moreover, the autocorrelation RCC(k) of one layer before
The current cross-correlation RCC(2k+1), RCC(
2k+2), the autocorrelation R
CC is the initial vector filter output AC0 and (L-1)
Types of delta vector filter outputs AΔC1 to AΔC
L-1 total L autocorrelations (AC0)2, (AΔC
1) 2 to (AΔCL-1)2 and each filter output AC0
, AΔC1 to AΔCL-1 using (L2-l)/2 types of cross-correlation, and conventionally, calculating the autocorrelation requires M・N (=1024・N) times of product summation. What used to be the case can now be reduced to L(L+1)·N/2 (=55·N) times of product-sum operations, and the number of calculations can be significantly reduced.

【0050】以上より、本発明によれば演算量及びメモ
リ容量を著しく削減でき、結果として装置の小型化、コ
ストダウン、低消費電力化が実現される。
As described above, according to the present invention, the amount of calculation and memory capacity can be significantly reduced, resulting in miniaturization, cost reduction, and reduction in power consumption of the device.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の原理説明図である。FIG. 1 is a diagram explaining the principle of the present invention.

【図2】本発明の実施例構成図である。FIG. 2 is a configuration diagram of an embodiment of the present invention.

【図3】本発明による符号帳の符号語説明図である。FIG. 3 is an explanatory diagram of code words of the codebook according to the present invention.

【図4】演算量とメモリ容量について従来方式と本発明
方式の比較説明図表である。
FIG. 4 is an explanatory chart comparing the conventional method and the method of the present invention with respect to the amount of calculation and memory capacity.

【図5】音声発生メカニズムの説明図である。FIG. 5 is an explanatory diagram of a sound generation mechanism.

【図6】従来の音声符号化装置の成図である。FIG. 6 is a diagram of a conventional speech encoding device.

【図7】従来の雑音符号帳探索処理部の構成図である。FIG. 7 is a configuration diagram of a conventional noise codebook search processing section.

【符号の説明】[Explanation of symbols]

11・・デルタ符号帳、 12・・線形予測合成フィルタ(LPCフィルタ)、1
3・・フィルタ出力を記憶する記憶部、14・・相互相
関演算部、 15・・自己相関演算部、 17・・誤差最小雑音列決定部、 18・・音声符号化部
11...Delta codebook, 12...Linear prediction synthesis filter (LPC filter), 1
3. Storage unit for storing filter output, 14. Cross correlation calculation unit, 15. Autocorrelation calculation unit, 17. Minimum error noise sequence determination unit, 18. Speech encoding unit.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】  雑音列を表現するコ−ドベクトルに対
して声道特性を模擬した合成フィルタ処理を施して得ら
れる再生信号と入力信号の誤差が最小となるコ−ドベク
トルを求め、該コ−ドベクトルを特定する符号により入
力信号を符号化する音声符号化方式において、予め基準
雑音列を表現するN次元の初期ベクトルと(L−1)種
類のN次元のデルタ雑音列を表現するデルタベクトルを
デルタ符号帳に格納しておき、デルタベクトルをそれぞ
れ初期ベクトルに階層毎に加え合わせるか、差し引くか
により順次木構造状に2L −1種類の雑音列のコ−ド
ベクトルを表現することを特徴とする音声符号化方式。
1. A code vector that minimizes the error between the input signal and the reproduced signal obtained by performing a synthesis filter process that simulates vocal tract characteristics on a code vector representing a noise string, and In a speech encoding method that encodes an input signal using a code that specifies a vector, an N-dimensional initial vector representing a reference noise sequence and a delta vector representing (L-1) types of N-dimensional delta noise sequences are determined in advance. It is characterized by storing code vectors in a delta codebook and sequentially expressing code vectors of 2L-1 types of noise sequences in a tree structure by adding or subtracting delta vectors from initial vectors for each layer. Audio encoding method.
【請求項2】  前記2L−1種類のコードベクトルに
零ドベクトルを付加することにより2L 種類の雑音列
のコ−ドベクトルを表現することを特徴とする請求項1
記載の音声符号化方式。
2. The method according to claim 1, wherein code vectors of 2L types of noise sequences are expressed by adding a zero vector to the 2L-1 types of code vectors.
The audio encoding method described.
【請求項3】初期ベクトルに−1を乗算して得られるベ
クトルを前記2L−1種類のコ−ドベクトルに付加する
ことにより2L種類の雑音列のコ−ドベクトルを表現す
ることを特徴とする請求項1記載の音声符号化方式。
3. A code vector of 2L types of noise sequences is expressed by adding a vector obtained by multiplying an initial vector by -1 to the 2L-1 types of code vectors. The audio encoding method described in Section 1.
【請求項4】  初期ベクトル及び(L−1)種類のデ
ルタベクトルに対してそれぞれ合成フィルタ演算処理を
施して初期ベクトルのフィルタ出力と(L−1)種類の
デルタベクトルのフィルタ出力を求め、初期ベクトルの
フィルタ出力に対して第1のデルタベクトルのフィルタ
出力を次元毎に加え合わせ及び差し引くことにより2種
類の雑音列のコ−ドベクトルに対するフィルタ出力を演
算し、新たに演算された各雑音列のコ−ドベクトルに対
するフィルタ出力に第2のデルタベクトルのフィルタ出
力を加え合わせ及び差し引くことにより、それぞれ2種
類の雑音列のコ−ドベクトルに対するフィルタ出力を演
算し、同様に第(i−1)番目のデルタベクトルのフィ
ルタ出力を作用させて演算した各雑音列のコ−ドベクト
ルのフィルタ出力に第i番目のデルタベクトルのフィル
タ出力を作用させてそれぞれ2種類の雑音列のコ−ドベ
クトルに対するフィルタ出力を演算することにより全雑
音列のコ−ドベクトルに対するフィルタ出力を発生する
ものとして、全雑音列のコ−ドベクトルに対する合成フ
ィルタ演算処理を、初期ベクトル及び(L−1)種類の
デルタベクトルに対する合成フィルタ演算処理に帰着さ
せることを特徴とする請求項1又は請求項2又は請求項
3記載の音声符号化方式。
4. Perform synthesis filter calculation processing on the initial vector and the (L-1) types of delta vectors to obtain the filter output of the initial vector and the filter output of the (L-1) type of delta vectors, and By adding and subtracting the filter output of the first delta vector for each dimension from the filter output of the vector, the filter output for the code vector of two types of noise sequences is calculated, and the filter output for each newly calculated noise sequence is calculated. By adding and subtracting the filter output of the second delta vector to the filter output for the code vector, the filter output for the code vector of the two types of noise sequences is calculated, and similarly, the filter output for the code vector of the (i-1)th The filter output of the i-th delta vector is applied to the filter output of the code vector of each noise sequence calculated by applying the filter output of the delta vector, and the filter output is calculated for the code vector of two types of noise sequences. Assuming that a filter output is generated for the code vector of the total noise sequence by 4. The speech encoding method according to claim 1, 2, or 3, characterized in that the speech encoding method results in the following.
【請求項5】  再生信号と入力信号の差の二乗が最小
となるコ−ドベクトルを求め、該コ−ドベクトルを特定
する符号を出力することで音声符号化する請求項4記載
の音声符号化方式。
5. The audio encoding method according to claim 4, wherein the audio encoding method performs audio encoding by determining a code vector that minimizes the square of the difference between the reproduced signal and the input signal, and outputting a code specifying the code vector. .
【請求項6】  前記再生信号と入力信号の差の二乗を
最小にすることを、合成フィルタ演算出力AC(Aは合
成フィルタ演算用のマトリクス、Cはコ−ドベクトル)
と入力信号Xの間の相互相関の二乗(XT AC)2(
Tは転置行列)と合成フィルタ演算出力の自己相関((
AC)T (AC))の比が最大となるコ−ドベクトル
を求めることに帰着させることを特徴とする請求項5記
載の音声符号化方式。
6. A synthesis filter calculation output AC (A is a matrix for synthesis filter calculation, C is a code vector) minimizes the square of the difference between the reproduced signal and the input signal.
and the square of the cross-correlation between the input signal X (XT AC)2(
T is the transposed matrix) and the autocorrelation of the synthesis filter calculation output ((
6. The speech encoding method according to claim 5, wherein the method results in finding a code vector with a maximum ratio of AC)T(AC)).
【請求項7】  合成フィルタ演算出力ACを1階層前
の合成フィルタ演算出力と今回のデルタベクトルを用い
て漸化式で表現することにより、前記相互相関を漸化式
で表現して演算することを特徴とする請求項6記載の音
声符号化方式。
[Claim 7] By expressing the synthesis filter calculation output AC in a recurrence formula using the synthesis filter calculation output of one layer before and the current delta vector, the cross-correlation is expressed and calculated in a recurrence formula. The speech encoding method according to claim 6, characterized in that:
【請求項8】  合成フィルタ演算出力ACを1階層前
の合成フィルタ演算出力と今回のデルタベクトルを用い
て漸化式で表現することにより前記自己相関を、  初
期ベクトルのフィルタ演算出力と(L−1)種類のデル
タベクトルのフィルタ演算出力の合計L通りの自己相関
と、前記各フィルタ演算出力間の(L2−L)/2通り
の相互相関を用いて表現して演算することを特徴とする
請求項6記載の音声符号化方式。
8. By expressing the synthesis filter calculation output AC in a recurrence formula using the synthesis filter calculation output of the previous layer and the current delta vector, the autocorrelation can be expressed as the filter calculation output of the initial vector and (L− 1) Calculation is performed by expressing using a total of L types of autocorrelations of filter calculation outputs of different types of delta vectors and (L2-L)/2 types of cross-correlations between the respective filter calculation outputs. The audio encoding method according to claim 6.
JP3127669A 1990-09-14 1991-05-30 Speech encoding system Pending JPH04352200A (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP3127669A JPH04352200A (en) 1991-05-30 1991-05-30 Speech encoding system
PCT/JP1991/001235 WO1992005541A1 (en) 1990-09-14 1991-09-17 Voice coding system
US07/856,221 US5323486A (en) 1990-09-14 1991-09-17 Speech coding system having codebook storing differential vectors between each two adjoining code vectors
CA002068526A CA2068526C (en) 1990-09-14 1991-09-17 Speech coding system
DE69129329T DE69129329T2 (en) 1990-09-14 1991-09-17 VOICE ENCODING SYSTEM
JP03515016A JP3112681B2 (en) 1990-09-14 1991-09-17 Audio coding method
EP91915981A EP0500961B1 (en) 1990-09-14 1991-09-17 Voice coding system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3127669A JPH04352200A (en) 1991-05-30 1991-05-30 Speech encoding system

Publications (1)

Publication Number Publication Date
JPH04352200A true JPH04352200A (en) 1992-12-07

Family

ID=14965793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3127669A Pending JPH04352200A (en) 1990-09-14 1991-05-30 Speech encoding system

Country Status (1)

Country Link
JP (1) JPH04352200A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994007239A1 (en) * 1992-09-16 1994-03-31 Fujitsu Limited Speech encoding method and apparatus
US5636322A (en) * 1993-09-13 1997-06-03 Nec Corporation Vector quantizer
US5864650A (en) * 1992-09-16 1999-01-26 Fujitsu Limited Speech encoding method and apparatus using tree-structure delta code book

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994007239A1 (en) * 1992-09-16 1994-03-31 Fujitsu Limited Speech encoding method and apparatus
US5864650A (en) * 1992-09-16 1999-01-26 Fujitsu Limited Speech encoding method and apparatus using tree-structure delta code book
US5636322A (en) * 1993-09-13 1997-06-03 Nec Corporation Vector quantizer

Similar Documents

Publication Publication Date Title
JP3112681B2 (en) Audio coding method
JP2776050B2 (en) Audio coding method
US7013270B2 (en) Determining linear predictive coding filter parameters for encoding a voice signal
JP6392409B2 (en) System and method for mixed codebook excitation for speech coding
JPH03211599A (en) Voice coder/decoder with 4.8 bps information transmitting speed
JPH06506070A (en) Speech coder and method with spectral interpolation and fast codebook search
CN103703512A (en) Method and apparatus for audio coding and decoding
ES2145737T5 (en) DIGITAL VOICE ENCODER WITH LONG-TERM PREDICTOR IMPROVED BY SUBMISSION RESOLUTION.
JPH04352200A (en) Speech encoding system
JP3338074B2 (en) Audio transmission method
JP3237178B2 (en) Encoding method and decoding method
JP3531935B2 (en) Speech coding method and apparatus
JPH10242867A (en) Sound signal encoding method
JP3071012B2 (en) Audio transmission method
JP3053464B2 (en) Audio coding device
JP2002221998A (en) Method, device and program for encoding and decoding acoustic parameter and voice
JP3166697B2 (en) Audio encoding / decoding device and system
JP4228630B2 (en) Speech coding apparatus and speech coding program
JPS63127299A (en) Voice signal encoding/decoding system and apparatus
JP4191502B2 (en) Signal encoding method, apparatus thereof, and signal encoding program
JP3984021B2 (en) Speech / acoustic signal encoding method and electronic apparatus
EP1326236B1 (en) Efficient implementation of joint optimization of excitation and model parameters in multipulse speech coders
JP2005099825A (en) Joint optimization of excitation and model in parametric speech coder
EP0119033A1 (en) Speech encoder
Parvez Investigation of speech coding algorithms for voice communication through personal computers