JPH0783316B2 - Mass vector quantization method and apparatus thereof - Google Patents
Mass vector quantization method and apparatus thereofInfo
- Publication number
- JPH0783316B2 JPH0783316B2 JP63249450A JP24945088A JPH0783316B2 JP H0783316 B2 JPH0783316 B2 JP H0783316B2 JP 63249450 A JP63249450 A JP 63249450A JP 24945088 A JP24945088 A JP 24945088A JP H0783316 B2 JPH0783316 B2 JP H0783316B2
- Authority
- JP
- Japan
- Prior art keywords
- vector
- representative
- distortion
- input
- vectors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
【発明の詳細な説明】 〔産業上の利用分野〕 本発明は音声や画像などの信号系列を少ない情報量で符
号化する方法に係り、特に伝送する符号に誤りが生ずる
場合に効果のある多重ベクトル量子化方法及び装置に関
する。Description: TECHNICAL FIELD The present invention relates to a method for encoding a signal sequence such as voice or image with a small amount of information, and is particularly effective for multiplexing when an error occurs in a code to be transmitted. The present invention relates to a vector quantization method and apparatus.
信号系列の情報圧縮を行って符号化する強力な方法とし
て、ベクトル量子化法が知られている。これは符号化し
ようとする離散化された信号サンプル値をあらかじめ決
めた複数個ずつまとめてそれぞれベクトルとし、各ベク
トルを予め作成しておいた符号帳の中の代表ベクトルと
照合し、最も歪が小さくなるような代表ベクトルの番号
を出力符号とするものである。A vector quantization method is known as a powerful method for compressing and encoding a signal sequence information. This is done by grouping a plurality of predetermined discrete signal sample values to be encoded into respective vectors, and collating each vector with a representative vector in the codebook that has been created in advance. The number of the representative vector that becomes smaller is used as the output code.
第1図はその概略構成を示したもので、21と23は符号
帳、22は符号器、24は復号器である。各記号は次の如き
意味を有している。FIG. 1 shows its schematic configuration. Reference numerals 21 and 23 are codebooks, 22 is an encoder, and 24 is a decoder. Each symbol has the following meaning.
u:入力ベクトル u(i):入力ベクトルuの第i要素 i=0,1,…,K−1 k:ベクトルの次元数 r:符号の伝送率〔ビット/サンプル〕 b:量子化伝送符号(krビット) Z:符号長 zl:符号帳Zのもつl番目の代表ベクトル z(il):代表ベクトルzlの第i要素 M:符号帳Zのもつ代表ベクトルzlの数 (M=2kr) l=0,1,…,M−1 d0:量子化歪 符号帳21,23はそれぞれM=2kr個の代表ベクトルzl(l
=0,1,…,M−1)を持っている。送信側では、各入力ベ
クトルuに対して、符号器22が符号帳21を参照し、M=
2kr個の代表ベクトルzlのそれぞれと入力ベクトルuと
の距離の2乗で表わされた歪dlをすべて計算し歪dlが最
小となる代表ベクトルを選択して、該代表ベクトルの番
号lをkrビット長の伝送符号bとして送出する。歪dlは
次式(1)で計算する。u: input vector u (i): i-th element of input vector u i = 0, 1, ..., K−1 k: vector dimension number r: code transmission rate [bit / sample] b: quantized transmission code (Kr bits) Z: code length z l : l-th representative vector of codebook Z z (il): i-th element of representative vector z l M: number of representative vectors z l of codebook Z (M = 2 kr ) l = 0,1, ..., M-1 d 0 : Quantization distortion The codebooks 21 and 23 have M = 2 kr representative vectors z l (l
= 0,1, ..., M-1). On the transmission side, the encoder 22 refers to the codebook 21 for each input vector u, and M =
Distortion d l represented by the square of the distance between each of the 2 kr representative vectors z l and the input vector u is calculated, and the representative vector with the minimum distortion d l is selected. The number 1 is transmitted as a transmission code b having a kr bit length. The distortion d l is calculated by the following equation (1).
受信側では、受信した伝送符号b(代表ベクトルの番
号)に基づき、復号器24が符号帳23を参照し、該伝送符
号bに対応する代表ベクトルを選択して出力する。 On the receiving side, the decoder 24 refers to the codebook 23 based on the received transmission code b (representative vector number), selects the representative vector corresponding to the transmission code b, and outputs it.
この量子化法には、伝送路で誤りが生じると、代表ベク
トルの番号とその代表ベクトルの値には距離の関係が全
く存在しないため、入力ベクトルと全く異ったベクトル
が再生されてしまうという本質的欠点がある。In this quantization method, if an error occurs in the transmission line, there is no distance relationship between the number of the representative vector and the value of the representative vector, so that a vector completely different from the input vector is reproduced. There are inherent drawbacks.
これを防ぐため、従来は誤り訂正符号を使って、すなわ
ち伝送符号に冗長性をもたせることで誤り率を低く抑え
る必要があった。この場合、例えば情報ビットの5割の
冗長ビットを使って、実質的に符号誤り率を大幅に低減
することができる。しかしながら、符号誤りがまったく
ない場合でも、やはり同じ量の冗長ビットを必要とす
る。すなわち、伝送する全情報量が同一のもとでは、誤
りが生じないときでも情報ビットには2/3しか割り当て
られず、量子化歪が大きくなる。実用的には符号誤り率
は時間的に変動し、その状況に合わせて伝送符号の形態
を変更することは難しいため、誤りのないときが誤りの
多いときのどちらかの性能を大きく犠牲にする必要があ
った。従って、一定情報量のもとで歪を小さくする用途
には誤り訂正符号は必ずしも有効ではなかった。また、
第1図に示す従来の符号器22のベクトル量子化における
距離計算(量子化歪dの計算)のためにはM=2kr個の
代表ベクトルzlを記憶しておくメモリ容量の符号帳21を
必要とし、またそのM個のすべてについてそれぞれ歪d
を計算する必要があるので、その演算量や符号帳21の記
憶容量はベクトル当りの情報量krの指数関数で増大する
という問題があった。In order to prevent this, conventionally, it has been necessary to suppress the error rate by using an error correction code, that is, by providing a transmission code with redundancy. In this case, the bit error rate can be substantially reduced by using, for example, 50% redundant bits of the information bits. However, even if there are no code errors, it still requires the same amount of redundant bits. That is, under the condition that the total amount of information to be transmitted is the same, only 2/3 is allocated to the information bit even when no error occurs, and the quantization distortion becomes large. Practically, the bit error rate fluctuates with time, and it is difficult to change the form of the transmission code according to the situation, so the performance is sacrificed when there are no errors or when there are many errors. There was a need. Therefore, the error correction code is not always effective for the purpose of reducing the distortion under a certain amount of information. Also,
For the distance calculation (calculation of the quantization distortion d) in the vector quantization of the conventional encoder 22 shown in FIG. 1, M = 2 kr representative vectors z l are stored in the codebook 21 having a memory capacity. , And the distortion d for each of the M
Therefore, there is a problem in that the calculation amount and the storage capacity of the codebook 21 increase due to the exponential function of the information amount kr per vector.
本発明の目的は、音声や画像などの信号系列の情報を圧
縮して符号化する際に、符号誤りが生じても、復号信号
にあまり大きな歪を生じず、しかも符号化に必要な演算
量及び/又は記憶装置の容量の少ないベクトル量子化法
及び装置を提供することにある。An object of the present invention is to prevent a significant distortion in a decoded signal even when a code error occurs when compressing and coding information of a signal sequence such as a voice or an image, and further, a calculation amount required for the coding. And / or to provide a vector quantization method and apparatus with a small storage capacity.
この発明によれば、入力の信号系列を複数サンプル毎に
まとめて1つのベクトルとし、各ベクトルを単位として
量子化を行う符号化法において、複数の系統の符号帳を
設け、各入力ベクトルに対して、該入力ベクトルと各符
号帳の代表ベクトルの平均ベクトルとの歪が最小になる
ように各系統の符号帳から代表ベクトルを1個ずつ求
め、該求めた各代表ベクトルの番号を多重化して出力す
る。According to the present invention, an input signal sequence is grouped into a plurality of samples to form one vector, and in a coding method in which each vector is quantized, a codebook of a plurality of systems is provided, and for each input vector Then, one representative vector is obtained from the codebook of each system so that the distortion between the input vector and the average vector of the representative vectors of each codebook is minimized, and the numbers of the obtained representative vectors are multiplexed. Output.
このように、複数の符号帳を使ってベクトル量子化を行
い、伝送符号を複数に分割することによって、従来のベ
クトル量子化と比較して符号誤りのない場合は量子化歪
が少し大きくなるが、符号誤りが生じた場合にはそれに
よる歪の増大を小さく抑えることができる。In this way, vector quantization is performed using a plurality of codebooks, and the transmission code is divided into a plurality, so that the quantization distortion is slightly larger when there is no code error as compared with the conventional vector quantization. When a code error occurs, it is possible to suppress an increase in distortion due to the code error.
第2図は本発明の一実施例のベクトル量子化装置100を
伝送システムに使用した場合の概略構成を示したもの
で、11と12および15と16はそれぞれ符号帳、13は符号
器、14は多重化器、17は復号器、18は出力ベクトル化器
である。即ち、本実施例は2系統の符号帳を設けた場合
を示している。ここで、符号帳11,15をX系統、符号帳1
2,16をY系統とする。以下の説明で使用する記号を次の
ように定義する。FIG. 2 shows a schematic configuration when the vector quantizer 100 according to an embodiment of the present invention is used in a transmission system. 11 and 12 and 15 and 16 are codebooks, 13 is an encoder, and 14 is an encoder. Is a multiplexer, 17 is a decoder, and 18 is an output vectorizer. That is, this embodiment shows a case where two systems of codebooks are provided. Here, codebooks 11 and 15 are X systems, codebook 1
2,16 is the Y system. The symbols used in the following description are defined as follows.
u:入力ベクトル k:ベクトルの次元数、即ち入力ベクトルを構成するサン
プル数 r:伝送率(ビット/サンプル) b:量子化伝送符号(krビット) X,Y:符号帳 x(i,j):符号帳Xからの代表出力ベクトルx jの第i
要素 y(i,m)符号帳Yからの代表出力ベクトルy mの第i要
素 u(i):入力ベクトルuの第i要素、即ち第iサンプ
ル値 N:各符号帳X,Yの代表ベクトル数 (=2kr/2) i:0,1,…,k−1 j:0,1,…,N−1 m:0,1,…,N−1 本実施例の場合、各符号帳11,12は2kr/2個の代表ベク
トルを持っており、受信側の符号帳15,16もそれぞれ2
kr/2個の代表ベクトルを持つことになる。各系統の符号
帳11と12,15と16は量子化しようとする入力と統計的に
同一の学習サンプルを用いて、学習で代表出力点を決定
することで作成しておく。その方法は後で説明する。ま
たは学習サンプルから抽出したベクトルを代表出力ベク
トルとする。u: input vector k: number of vector dimensions, that is, number of samples forming the input vector r: transmission rate (bits / samples) b: quantized transmission code (kr bits) X, Y: codebook x (i, j) : I-th representative output vector xj from codebook X
Element y (i, m) i-th element of representative output vector ym from codebook Y u (i): i-th element of input vector u, that is, i-th sample value N: number of representative vectors of each codebook X, Y (= 2 kr / 2 ) i: 0,1, ..., k-1 j: 0,1, ..., N-1 m: 0,1, ..., N-1 In this embodiment, each codebook 11 , 12 has 2 kr / 2 representative vectors, and the codebooks 15 and 16 on the receiving side are also 2 respectively.
It will have kr / 2 representative vectors. The codebooks 11 and 12, 15 and 16 of each system are created by using a learning sample that is statistically the same as the input to be quantized and determining a representative output point by learning. The method will be described later. Alternatively, the vector extracted from the learning sample is used as the representative output vector.
送信側のベクトル量子化装置では、一つの入力ベクトル
uに対して、符号器13は2個の符号長11,12を参照し、
量子化伝送符号bに割当てられた情報量k・rビットの
1/2ずつでそれぞれベクトル量子化を行う。つまり、各
系統の量子化符号bx,byのビット数はそれぞれk・r/2で
表わされる。多重化器14は、この各系統の量子化符号
bx,byを多重化し、即ち、k・rビットで表わされたベ
クトル量子化符号b=bxbyとし、受信側200に伝送す
る。受信側200では、復号器17は伝送符号bに含まれる
各系統の符号bx,byに基づいてそれぞれ符号帳15,16を参
照し、各系統の出力ベクトルx,yを得る。ベクトル結合
器18は、各系統の出力ベクトルx,yの算術平均を求め、
最終的な出力ベクトルとする。In the vector quantizer on the transmission side, the encoder 13 refers to two code lengths 11 and 12 for one input vector u,
The amount of information k · r bits assigned to the quantized transmission code b
Vector quantization is performed by 1/2. That is, the number of bits of the quantized codes b x and b y of each system is represented by k · r / 2. The multiplexer 14 is a quantization code for each system.
b x and b y are multiplexed, that is, a vector quantization code b = b x b y represented by k · r bits is set and transmitted to the receiving side 200. In the receiving side 200, the decoder 17, respectively with reference to the codebook 15 on the basis of the code b x, b y of each system included in the transmission code b, to obtain an output vector x, y of each system. The vector combiner 18 obtains the arithmetic mean of the output vectors x and y of each system,
The final output vector.
第3図にこの発明のベクトル量子化装置100の具体的構
成例を示す。X系統の符号帳11の各欄は代表ベクトルx
jとそのベクトル番号j(即ち量子化符号bx)からな
る。同様に、Y系統の符号帳12の各欄も代表ベクトルy
mとそのベクトル番号m(量子化符号by)からなる。第
2図に示した如く、各系統の符号帳11,12の代表出力ベ
クトルx j,y mの個数は2kr/2であり、従って、ベクト
ル番号j,m(1系統分の量子化符号bx,by)はkr/2ビット
構成をとする。便器上、第3図では、ベクトル番号j,m
をそれぞれ4ビットで示している。FIG. 3 shows a specific example of the configuration of the vector quantization device 100 of the present invention. Each column of the codebook 11 of the X system is a representative vector x
It consists of j and its vector number j (that is, quantization code b x ). Similarly, each column of the codebook 12 of the Y system also has a representative vector y.
It consists of m and its vector number m (quantization code b y ). As shown in FIG. 2, the number of representative output vectors xj, ym of the codebooks 11 and 12 of each system is 2 kr / 2. Therefore, the vector number j, m (quantization code b x for one system) , b y ) has a kr / 2 bit configuration. On the toilet bowl, in Fig. 3, vector number j, m
Are represented by 4 bits.
符号器13は機能的に平均ベクトル計算部131、2乗距離
計算部132及び最小距離決定部133に分けることができ
る。The encoder 13 can be functionally divided into an average vector calculation unit 131, a squared distance calculation unit 132, and a minimum distance determination unit 133.
平均ベクトル計算部131は、X系統の符号帳11の各代表
ベクトルx jとY系統の符号帳12の各代表ベクトルy mと
すべての組合せについて、順次、その平均ベクトルv
j,m Vj,m=(x j+y m)/2 (2) を求める。2乗距離計算部132は、2乗距離により表わ
される入力ベクトルuと上記平均ベクトルvj,m歪dj,m dj,m=|u−vj,m|2 =|u−(x j+y m)/2|2 (3) をすべての(j,m)の組合せについて求める。j,mの値は
それぞれN個あるので全部でN2個のdj,mを計算するこ
とになる。第1図においてM=N2となることは明らかで
ある。The average vector calculation unit 131 sequentially calculates the average vector v for each combination of each representative vector xj of the X-system codebook 11 and each representative vector ym of the Y-system codebook 12.
j, m Vj, m = (xj + ym) / 2 (2) is calculated. The squared distance calculation unit 132 calculates the input vector u represented by the squared distance and the average vector v j, m distortion d j, m d j, m = | u−v j, m | 2 = | u− (x j + ym) / 2 | 2 (3) is calculated for all combinations of (j, m). Since there are N values of j and m, respectively, N 2 d j, m are calculated in total. It is clear that M = N 2 in FIG.
最小距離決定部133は、各系統の代表ベクトルx j,y mの
各組合せと共に、当該組合せに対応する入力ベクトルu
と平均ベクトルvj,mとの歪dj,mを順次入力して、該歪
dj,mが最小値をとる組合せの代表出力ベクトルx j,y m
を決定する。そして、この決定した代表出力ベクトルx
j,y mに基づいて各系統の符号帳11,12を参照し、そのベ
クトル番号j,mを量子化符号bx,byとして出力する。The minimum distance determination unit 133, together with each combination of the representative vectors xj, ym of each system, the input vector u corresponding to the combination.
A mean vector v j, the distortion d j and m, and sequentially input m, strained d j, representative output vectors xj combinations m takes a minimum value, ym
To decide. Then, the determined representative output vector x
The codebooks 11 and 12 of the respective systems are referred to based on j and ym, and the vector numbers j and m are output as the quantized codes b x and b y .
各系統のベクトル番号j,m(量子化符号bx,by)は多重化
器14で多重化され、入力ベクトルuに対する本来のベク
トル量子化符号bが得られる。第3図では、XおよびY
系統の各ベクトル番号(量子化符号)bx=1111、by=00
01について“11110001"の如く時間多重化されることを
示している。時間多重の代りに周波数多重やその他のダ
イバーシティ技術を使ってもよい。Vector number j of each line, m (quantization code b x, b y) are multiplexed in a multiplexer 14, the original vector quantization code b for the input vector u is obtained. In FIG. 3, X and Y
System vector numbers (quantization code) b x = 1111, b y = 00
It is shown that 01 is time-multiplexed like “11110001”. Frequency multiplexing or other diversity techniques may be used instead of time multiplexing.
以上の説明から明らかなように第3図に示すこの発明の
2つの符号帳を用いた場合のベクトル量子化装置におい
ては入力ベクトルuに対し2個の符号帳X,Yからそれぞ
れ1つずつ代表ベクトルx j,y mを選び、その平均と(x
j+y m)/2と入力ベクトルの歪dが最小となるような
j,mを決定するので、選択された代表ベクトルx jとy m
は互いに近い距離のものが選ばれる確率が非常に高い。
従ってこれらの量子化符号bx=j,by=mが多重化(結
合)され、ベクトル量子化符号b=jmとして伝送された
場合、第2図の受信側において受信した符号bの前半
(j)又は後半(m)のいずれか一方に1ビットの誤り
が含まれていたとしても、他方が正しければそれらの復
号ベクトルx,yの一方は正しいものであり、従って復号
平均出力ベクトル(x+y)/2も送信側の入力ベクトル
uとかけ離れたものとなることはない。つまり伝送誤り
による復号ベクトルの歪がそれだけ小さくなる。また第
2図及び第3図で説明したこの発明の実施例ではN=2
kr/2個の代表ベクトルを記憶する符号帳を2個使うので
全体で2N個の代表ベクトルを記憶するメモリがあればよ
い。これに対し第1図に示す従来技術のベクトル量子化
ではM=2kr=N2個の代表ベクトルを記憶するメモリを
必要とする。As is apparent from the above description, in the vector quantizer using the two codebooks of the present invention shown in FIG. 3, one representative from each of the two codebooks X and Y for the input vector u. Select the vector xj, ym, and select its mean and (x
j + ym) / 2 and the distortion d of the input vector is minimized
Since j and m are determined, the selected representative vectors xj and ym
Are very likely to be chosen with close proximity to each other.
Therefore, these quantization code b x = j, b y = m are multiplexed (bond), if it is transmitted as a vector quantization code b = jm, the first half of the code b received at the receiving side of FIG. 2 ( Even if one of j) or the latter half (m) contains a 1-bit error, if the other is correct, one of the decoded vectors x and y is correct, and therefore the decoded average output vector (x + y) ) / 2 is not far from the input vector u on the transmitting side. That is, the distortion of the decoded vector due to the transmission error becomes smaller. In the embodiment of the present invention described with reference to FIGS. 2 and 3, N = 2
Since two codebooks that store kr / 2 representative vectors are used, a memory that stores 2N representative vectors in total is sufficient. On the other hand, the conventional vector quantization shown in FIG. 1 requires a memory for storing M = 2 kr = N 2 representative vectors.
式(3)で示した2乗距離dj,mの計算は更に詳しく表
現すると次式(4)のようになる。ただし式を見やすく
するため以下の説明ではすべてx/2,y/2をそれぞれx,yで
置き換えてある。The calculation of the squared distance d j, m shown in the equation (3) can be expressed in more detail as the following equation (4). However, in order to make the formula easier to see, x / 2 and y / 2 are replaced by x and y in the following description.
式(4)にもとづいて歪dj,mを計算する場合の第3図
における平均ベクトル計算部131,2乗距離計算部132の構
成を符号帳11,12とともに第4図に示す。入力ベクトル
uに対しX符号帳11及びY符号帳12から1つずつ代表ベ
クトルx j,y mを読出し、これらのベクトルの対応する
i番目の要素u(i),x(i,j),y(i,m)から加算器31
によりu(i)−x(i,j)−y(i,m)を計算し、その
加算出力を2乗累積加算器32で2乗し累積加算する。こ
のような2回の加算(減算)と1回の2乗累積加算の計
3回の演算がベクトルの要素i=0からi=k−1まで
のk個行われ、その結果前記選択した代表ベクトルx j
とy mの組に対する歪dj,mが得られる。代表ベクトルx
jとy mの組合せはN2個あり、それらのすべてについてそ
れぞれ歪dj,mを求めてその中で最小のdj,mを与える
(j,m)を決めるためには3kN2回の演算量を必要とし、
これは第1図の従来のベクトル量子化装置を必要とする
演算量(式(1)における一回の減算と一回の2乗累積
加算をi=0からi=k−1まで行うことをN2回実行)
よりかえって増加する。即ち第4図のこの発明の実施例
では符号帳11,12に必要な全メモリ容量は第1図のもの
より著しく小さいが、必要な演算量は増加する欠点があ
る。この点を改善した実施例を第5図を参照に次に説明
する。 FIG. 4 shows the configurations of the mean vector calculation unit 131 and the squared distance calculation unit 132 in FIG. 3 in the case of calculating the distortion d j, m based on the equation (4) together with the codebooks 11 and 12. One representative vector xj, ym is read from the X codebook 11 and the Y codebook 12 for the input vector u, and the corresponding i-th element u (i), x (i, j), y (of these vectors) is read. i, m) to adder 31
Then, u (i) -x (i, j) -y (i, m) is calculated, and the addition output is squared by the square cumulative adder 32 and cumulatively added. Such two additions (subtractions) and one square cumulative addition are performed a total of three times for k elements from vector elements i = 0 to i = k−1, and as a result, the selected representative is selected. Vector xj
The distortion d j, m for the set of Representative vector x
There are N 2 combinations of j and ym, and 3 kN 2 operations are performed to obtain the strains d j, m for all of them and determine (j, m) that gives the smallest d j, m among them. Need quantity,
This is to perform one subtraction and one square cumulative addition in the equation (1) that requires the conventional vector quantizer of FIG. 1 from i = 0 to i = k-1. N run 2 times)
Instead, it will increase. That is, in the embodiment of the present invention shown in FIG. 4, the total memory capacity required for the codebooks 11 and 12 is significantly smaller than that shown in FIG. 1, but there is a drawback that the required calculation amount increases. An embodiment in which this point is improved will be described below with reference to FIG.
式(4)を展開すると次式(5)のようになる。When the expression (4) is expanded, it becomes the following expression (5).
ただし 展開した式(5)の第1項は代表ベクトルの選択(j,
m)に無関係である。従って歪dj,mが最小となるベクト
ル符号の組合せ(j,m)を決定するのにu2(i)を計算
する必要はない。そこで式(5)の代りに次式(7)で
定義されるd′j,mが最小となる符号の組合せ(j,m)を
決めればよい。 However The first term of the expanded equation (5) is the selection of the representative vector (j,
m) is irrelevant. Therefore, it is not necessary to calculate u 2 (i) to determine the vector code combination (j, m) that minimizes the distortion d j, m . Therefore, instead of equation (5), the combination (j, m) of codes that minimizes d' j, m defined by the following equation (7) may be determined.
式(7)において第2項F(j,m)は式(6)で定義さ
れるように入力ベクトルuとは無関係であり、符号帳X,
Yから選んだ代表ベクトルx j,y mだけから計算できる。
従ってあらかじめすべての(j,m)の組合せ(N2個の組
合せ)について式(6)のF(j,m)を計算した結果を
メモリに記憶しておき、式(7)によりd′j,mを計算
する時に対応するF(j,m)を読出して例えば式(7)
の演算量を少くできる。 In equation (7), the second term F (j, m) is independent of the input vector u as defined in equation (6), and the codebook X,
It can be calculated only from the representative vector xj, ym selected from Y.
Therefore, the result of calculating F (j, m) of the formula (6) for all combinations (N, 2 combinations) of (j, m) is stored in the memory in advance, and d ′ j is calculated by the formula (7). , m is calculated and the corresponding F (j, m) is read out, for example, equation (7)
The calculation amount of can be reduced.
第5図は第3図の実施例における平均ベクトル計算部13
1、2乗距離計算部132、符号帳11,12を式(7)にもと
ずいて構成する例である。上述のように式(6)により
あらかじめすべての組合せ(j,m)について計算したF
(j,m)の値を記憶したテーブルメモリ33が設けられて
いる。式(7)の第1項はベクトルuとx jの内積とベ
クトルuとy mの内積との和であり、それぞれ内積演算
器34,35とより計算される。内積計算結果はそれぞれス
カラー値として加算器35に与えられて、テーブルメモリ
33から読出された対応するF(j,m)の値と加算され
る。加算器36の出力は式(7)によるd′j,mの計算結
果となっている。この第5図の実施例では内積演算器3
4,35による内積の演算が2kN回、加算器36によるスカラ
加減算が2N2回となる。また必要な記憶装置の記憶容量
は符号帳11,12の2kNとテーブルメモリ33のN2である。FIG. 5 shows the mean vector calculator 13 in the embodiment of FIG.
This is an example in which the first and second distance calculating unit 132 and the codebooks 11 and 12 are configured based on the equation (7). As described above, F calculated in advance for all combinations (j, m) by equation (6)
A table memory 33 that stores the value of (j, m) is provided. The first term of equation (7) is the sum of the inner product of the vectors u and xj and the inner product of the vectors u and ym, which are calculated by the inner product calculators 34 and 35, respectively. The inner product calculation result is given to the adder 35 as a scalar value, respectively, and stored in the table memory.
It is added to the corresponding value of F (j, m) read from 33. The output of the adder 36 is the calculation result of d' j, m by the equation (7). In the embodiment shown in FIG. 5, the inner product calculator 3
4,35 inner product computation 2kN times by a scalar subtraction is two times 2N by the adder 36. The required storage capacity of the storage device is 2 kN of the code books 11 and 12 and N 2 of the table memory 33.
表Iは前記した第1図の従来技術によるベクトル量子化
装置とこの発明による第4及び5図の実施例のそれぞれ
に必要な記憶装置の容量と演算量をk=16,N=16として
計算して示してある。Table I is calculated assuming that the storage capacity and the amount of operation required for the vector quantizer according to the prior art of FIG. 1 and the embodiments of FIGS. 4 and 5 according to the present invention are k = 16 and N = 16, respectively. Is shown.
以上の説明において量子化歪dj,mあるいはd′j,mを表
わすものとして2乗距離を使った実施例を示した。これ
らは音声符号化においてスペクトル包絡パラメータをLS
Pパラメータや対数断面積関数に変換してベクトル量子
化するときなどに応用できる。しかし、音声の波形信号
あるいは予測残差信号を高能率に量子化するためには周
波数領域で適応的重み付き距離計算をする必要がある。
その場合の距離尺度は次のように表わされる。 In the above description, the embodiment using the squared distance is shown as a representation of the quantization distortion d j, m or d ′ j, m . These are the LS of the spectral envelope parameters in speech coding.
It can be applied when converting into a P parameter or a logarithmic cross-sectional area function for vector quantization. However, in order to quantize a speech waveform signal or a prediction residual signal with high efficiency, it is necessary to perform adaptive weighted distance calculation in the frequency domain.
The distance measure in that case is expressed as follows.
ここでw(i)はベクトル加重wの第i番目の要素を表
わし、u(i)が変わる度に変わるが、dの最小値を求
める間u(i)とともに固定である。なおw(i)がu
(i)に関わらず固定であれば容易に2乗距離の場合に
帰着できる。式(8)を展開して、歪の最小決定を寄与
しない第1項を省略し、第2項と第3項のみを残したも
のをd*とすると F(i,j,m)={x(i,j)+y(i,m)}2 …(10) 式(10)のF(i,j,m)のすべての要素をあらかじめ計
算して記憶しておくためには(6)式の場合と異なり、
kN2個の要素をもつメモリが必要である。更に次式(1
1)で定義する式(9)の第2項を計算するためにkN2個
の内積演算が必要である。 Here, w (i) represents the i-th element of the vector weight w and changes every time u (i) changes, but it is fixed along with u (i) while the minimum value of d is obtained. Note that w (i) is u
Regardless of (i), if it is fixed, it can be easily reduced to the case of the square distance. If the equation (8) is expanded and the first term that does not contribute to the minimum determination of distortion is omitted and only the second term and the third term are left, then d * is assumed. F (i, j, m) = {x (i, j) + y (i, m)} 2 (10) Calculate all elements of F (i, j, m) in equation (10) in advance. In order to remember, unlike the case of formula (6),
A memory with kN 2 elements is required. Furthermore, the following equation (1
In order to calculate the second term of the equation (9) defined in 1), kN 2 inner product operations are required.
式(9)の第1項を計算するために、予め次式(12)で
定義されるs(i)をi=0,1…,kについて1回だけ計
算しておく。 In order to calculate the first term of the equation (9), s (i) defined by the following equation (12) is previously calculated only once for i = 0, 1, ..., K.
s(i)=−2w(i)u(i) (12) さらにs(i)についてN要素の内積を2回行い、次式
(13),(14)で定義されるG,Hを求める。s (i) = − 2w (i) u (i) (12) Further, the inner product of N elements is performed twice for s (i) to obtain G and H defined by the following equations (13) and (14). .
これだけの準備の結果、(9)式のd* j,mは次のスカ
ラ演算で求まる。 As a result of such preparations, d * j, m in the equation (9) can be obtained by the following scalar operation.
d* j,m=G(j)+E(m)+E(j,m) (15) 第3図の実施例において上述の計算を実行する構成を第
6図に示す。テーブルメモリ33には式(10)によって与
えられるkN2個のF(i,j,m)の値をあらかじめ計算して
書込んである。ベクトル量子化装置には入力ベクトルu
とともに加重ベクトルwが入力され乗算器37によりそれ
らのベクトルの対応する第i要素が式(12)のように計
算される。これによって得られた加重入力ベクトルs
(i)(i=0,1,…k−1)は内積演算器34,35にそれ
ぞれ与えられ、符号帳11,12から読出された代表ベクト
ルx j,y mとそれぞれ式(13),(14)で示す内積がと
られる。一方加重ベクトルwは(j,m)に対応してテー
ブルメモリ33から読出されたベクトルF(i,j,m)(i
=0,1,…k−1)と内積演算器38により式(11)で示す
内積が計算される。内積演算器34,35,38からの内積計算
結果は加算器36に与えられて式(15)のスカラー加算が
行われ、入力ベクトルuをj,mに符号化した場合の歪に
対応する値d* j,mが得られる。d * j, m = G (j) + E (m) + E (j, m) (15) FIG. 6 shows a configuration for executing the above calculation in the embodiment of FIG. In the table memory 33, kN 2 F (i, j, m) values given by the equation (10) are calculated and written in advance. The vector quantizer has an input vector u
The weighted vector w is input together with this, and the corresponding i-th element of these vectors is calculated by the multiplier 37 as shown in Expression (12). Weighted input vector s obtained by this
(I) (i = 0, 1, ... K-1) is given to the inner product calculators 34 and 35, respectively, and the representative vectors xj, ym read from the codebooks 11 and 12 and the expressions (13) and (14), respectively. ) Is taken as the dot product. On the other hand, the weighted vector w is the vector F (i, j, m) (i read from the table memory 33 corresponding to (j, m)).
= 0,1, ... K-1) and the inner product calculator 38 calculates the inner product shown in Expression (11). The inner product calculation results from the inner product calculators 34, 35, 38 are given to the adder 36 to perform the scalar addition of Expression (15), and the value corresponding to the distortion when the input vector u is encoded into j, m d * j, m is obtained.
第6図の実施例において必要な演算器と記憶容量を表II
に示す。表IIには比較のため第1図に対応した式(1)
及び第4図に対応した式(4)にそれぞれ式(8)と同
様に重みwを加えた場合のベクトル量子化演算に必要な
演算量とメモリ容量も示してあるが、これらは上述の説
明と同様にして容易に求められるのでその説明を省略す
る。Table II shows the necessary arithmetic units and storage capacities in the embodiment of FIG.
Shown in. Table II shows the formula (1) corresponding to Fig. 1 for comparison.
Also, the calculation amount and the memory capacity necessary for the vector quantization calculation in the case where the weight w is added to the formula (4) corresponding to FIG. 4 similarly to the formula (8) are also shown. The description will be omitted because it can be easily obtained in the same manner as.
重み付き距離の場合には、と比較して,はそれぞ
れ演算量か、記憶容量のどちらかが増えてしまうが、
とを組み合せれば演算量と記憶容量の双方をの場合
より少なくできる。すなわち、(9)式のF(i,j,m)
の一部のみをテーブルとして持てばよい。テーブルをも
つ割合をλ(0<λ<1)とすると、演算量は2N2+k
+2kN+(3−2λ)kN2となり、記憶容量は2kN+λkN2
となる。λを適当に選ぶことにより与えられた設計条件
を満すように演算量と記憶容量を互いに融通し合うこと
が可能である。 In the case of the weighted distance, in comparison with, the calculation amount or the storage capacity respectively increases,
By combining and, both the calculation amount and the storage capacity can be made smaller than in the case of. That is, F (i, j, m) in equation (9)
You only need to have a part of the table. If the ratio with the table is λ (0 <λ <1), the calculation amount is 2N 2 + k
+ 2kN + (3-2λ) kN 2 and storage capacity is 2kN + λkN 2
Becomes By appropriately selecting λ, it is possible to interchange the calculation amount and the storage capacity so as to satisfy the given design condition.
また(10)式のF(i,j,m)を更に展開して、各項を別
々のテーブルにしてもつこともできる。この場合、その
ままでは演算量も記憶容量もの場合より増えてしまう
が、x(i,j)・y(i・m)の積の計算の一部または
全部を省略して、d* j,mの近似計算を行うことができ
る。このとき、歪が最小になる符号を必ずしも選択でき
ないが、演算量と記憶容量を大幅に削減できる。It is also possible to further develop F (i, j, m) in the equation (10) to make each term a separate table. In this case, the calculation amount increases as it is, but the calculation of the product of x (i, j) · y (i · m) is partially or entirely omitted, and d * j, m An approximate calculation of can be performed. At this time, it is not always possible to select a code that minimizes distortion, but the amount of computation and storage capacity can be significantly reduced.
また距離尺度に(17)式のように符号帳のベクトルの定
数倍の自由パラメータτを含む場合にも容易に適用でき
る。It can also be easily applied to the case where the distance measure includes the free parameter τ that is a constant multiple of the codebook vector, as in Eq. (17).
音声の残差信号を時間領域で量子化する際に次式に示す
歪尺度が従来よく使われる。この歪dlの計算は1つの符
号帳Z を使って行う。この歪尺度をこの発明のベクトル量子化
方法に適用した場合の歪dj,mは次式のように表わせ
る。 When quantizing a residual signal of speech in the time domain, the distortion measure shown in the following equation is often used. The calculation of this distortion d l is Using. When this distortion measure is applied to the vector quantization method of the present invention, the distortion d j, m can be expressed by the following equation.
ただしh(i,g)はたたみ込み積を行う行列Hのi行,g
列の要素を表わし、τは歪dj,mが最小となるように決
められるパラメータである。 However, h (i, g) is the i-th row, g of the matrix H that performs the convolution product.
Representing the elements of the column, τ is a parameter determined so that the distortion d j, m is minimized.
式(3),(4)及び(5)の歪dj,mの定義は符号誤
りのないときの性能を反映させたものである。符号誤り
に対しさらに強くするために、次式(17)のような歪の
定義も有効である。The definition of the distortion d j, m in equations (3), (4) and (5) reflects the performance in the absence of code error. In order to make it stronger against code errors, the definition of distortion as in the following equation (17) is also effective.
dj,m=μ|u−vj,m|2 +(1+μ){|u−x j|2 +|u−y m|2}/4 …(17) ここで、μは0から1までのパラメータでμを1とする
と式(3)の歪と等価でμを小さくすると、各符号帳の
冗長性が増し、2系統の一方だけでも誤りがなければ歪
を小さくできる。すなわち、符号誤りに強くなる。d j, m = μ | u−v j, m | 2 + (1 + μ) {| u−xj | 2 + | u−ym | 2 } / 4 (17) where μ is from 0 to 1. When μ is set to 1 as a parameter, it is equivalent to the distortion of the equation (3), and when μ is reduced, the redundancy of each codebook increases, and the distortion can be reduced if only one of the two systems has no error. That is, it is resistant to code errors.
さらに伝送路符号誤りを考慮したとき、uのx jとy mに
対する歪の定義として次式が考えられる。Further, considering the transmission line code error, the following equation can be considered as the definition of the distortion of u with respect to xj and ym.
ここでq(f|j)はベクトルの番号jが伝送路でfに誤
る確率を示す。q(m|g)についても同様である。 Here, q (f | j) indicates the probability that the vector number j is mistaken as f on the transmission path. The same applies to q (m | g).
これらの歪尺度は2乗距離がもとになっているが、前述
の重み付き2乗距離やその他の尺度に応用することも容
易である。さらにここでは複数の系統に情報を等分する
ことを前提にしているため、最終出力ベクトルは算術平
均で求められたが、系統毎に情報の配分が異なるときは
重み付き平均で求められる。例えば2系統で2乗距離を
使う場合、各系統の伝送率がr(x),r(y)として、 vj,m={xj・22r(x)+ym・22r(y)}/{22r(x)+2
2r(y)} とすればよい。これはxの歪の期待値が2-2r(x)と近似
できることに基づいている。Although these distortion measures are based on the squared distance, they can be easily applied to the above-mentioned weighted squared distance and other measures. Further, since it is assumed here that the information is equally divided into a plurality of systems, the final output vector is obtained by the arithmetic mean, but when the distribution of information is different for each system, it is obtained by the weighted average. For example, when the square distance is used in two systems, the transmission rate of each system is r (x), r (y), and v j, m = {x j · 2 2r (x) + y m · 2 2r (y) } / {2 2r (x) +2
2r (y) }. This is based on the fact that the expected value of the distortion of x can be approximated to 2 -2r (x) .
第2〜6図で示したこの発明の実施例で使用する2つの
符号帳11,12の作成手順を第7図のフローチャートを参
照して次に説明する。このフローチャートは2個の符号
帳を交互に修正して歪を局所的に最小化する例である
が、2個以上の符号帳の作成にも容易に応用できる。The procedure for creating the two codebooks 11 and 12 used in the embodiment of the present invention shown in FIGS. 2 to 6 will be described below with reference to the flowchart of FIG. This flow chart is an example in which two codebooks are alternately modified to locally minimize the distortion, but it can be easily applied to the creation of two or more codebooks.
ステップSnでは学習サンプル系列から任意の位置で抽出
した連続k個のサンプルから成るベクトルを多数用意
し、これらを同じ数ずつ任意に2つに分けてそれぞれを
初期代表ベクトルとすることによって初期符号帳X,Yを
作る。または学習サンプルを用いて、通常のベクトル量
子化の学習で作成したベクトルのグループを符号帳Xと
し、それの誤差の系列を学習サンプルとして作成したベ
クトルのグループを符号帳Yとしてもよい。In step S n , a large number of vectors consisting of continuous k samples extracted at arbitrary positions from the learning sample sequence are prepared, and these are arbitrarily divided into two by the same number to obtain initial representative vectors. Make books X and Y. Alternatively, a group of vectors created by normal vector quantization learning using a learning sample may be set as a codebook X, and a group of vectors created by using an error sequence of the vector may be set as a codebook Y.
次にステップS1で代表ベクトル数よりも充分多い数の学
習ベクトルを入力ベクトルuとして、各入力ベクトルに
対し例えば式(3)による歪dをすべての代表ベクトル
の組x j,y mについて計算し、最も歪dの小さくなる代
表ベクトルの組x j,y mを決定する。即ち各入力ベクト
ルをこの発明の量子化法で量子化し、各入力ベクトルu
がどの代表ベクトルの組x j,y mに帰属するかを決定す
る。Next, in step S 1 , a learning vector of a number sufficiently larger than the number of representative vectors is used as an input vector u, and for each input vector, a distortion d according to, for example, equation (3) is calculated for all representative vector pairs xj, ym, A set of representative vectors xj, ym having the smallest distortion d is determined. That is, each input vector is quantized by the quantization method of the present invention, and each input vector u
Determines which set of representative vectors xj, ym belongs to.
ステップS2ではステップS2で計算した各入力ベクトルに
対する最小の歪dの総和Dを計算し、その値が閾値以下
またはLの改善率が閾値以下であれば符号帳X,Yは目的
とする代表ベクトルで構成されていると判断し、符号帳
の学習を停止する。そうでなければ次のステップS3に進
み、まず符号帳Xの内容x jは固定したまま符号帳Yの
内容y mの改善を行う。Step S calculates the sum D of the 2 step S 2 minimum distortion d for each input vector calculated in, codebook X if the value is the threshold or less is less than or equal to the threshold or L improvement of, Y is the objective It is determined that the vector is composed of the representative vector, and the learning of the codebook is stopped. If not, the process proceeds to the next step S 3 , and the content ym of the codebook Y is improved while the content xj of the codebook X is fixed.
即ち、ステップS3-1ではステップS1で決めた各入力ベク
トルuの帰属する代表ベクトルの組(xj,ym)にもとづ
いて代表ベクトルy mを変数ベクトルとみなし、その変
数ベクトルy mを帰属ベクトルの組に含むすべての入力
ベクトルuの歪の和を変数ベクトルy mで偏微分した式
を0とおき、その方程式を変数ベクトルy mについて解
いたベクトル値mを新しい代表ベクトルy mとする。
代表ベクトルymを帰属ベクトルの組に含むすべての入力
ベクトルP個(Pは可変)をum1,Um2,…,umpと表し、そ
れらの帰属するベクトルの組を(xf1,y m),(xf2,
ym),(xf3,ym),……(xfp,ym)とするとmはそれ
らの重心として結局次式で与えられる。ただしfeは0か
らN−1までのいずれかの値をとる。In other words, step S 3-1 In attributions representative vector of each input vector u decided in step S 1 set (x j, y m) is regarded as a variable vector representative vectors ym based on attribution the variable vector ym An expression obtained by partially differentiating the sum of distortions of all input vectors u included in a vector set with a variable vector ym is set to 0, and a vector value m obtained by solving the equation with respect to the variable vector ym is set as a new representative vector ym.
All the input vectors P (P is variable) that includes the representative vector y m in the set of belonging vectors are expressed as u m1 , U m2 , ..., U mp, and the set of vectors to which they belong is (x f1 , ym) , (X f2 ,
y m ), (x f3 , y m ), ... (x fp , y m ), m is finally given by the following equation as their center of gravity. However, fe takes any value from 0 to N-1.
次にステップS3-2で固定した符号帳Xと更新された符号
帳Yとを使ってステップS1と同様に各入力ベクトルuに
対して、Xに対する帰属はステップS1の状態に固定した
まま、Yに対する帰属を決定し、ステップ3-3で符号帳
Yの更新をステップS3-1と同様に行う。 Then fixed using a codebook X and the updated codebook Y for each input vector u as in step S 1 in step S 3-2, attributable for X was fixed to the state of step S 1 As it is, the attribution to Y is determined, and the codebook Y is updated in step 3-3 in the same manner as in step S 3-1 .
ステップS4で符号帳Xと更新された符号帳Yを使って各
入力ベクトルuの帰属する代表ベクトルの組(x j,y
m)をすべて決定する。ステップS4はステップS1と等価
である。In step S 4 , using the codebook X and the updated codebook Y, the set of representative vectors (xj, y) to which each input vector u belongs
m) are all determined. Step S 4 is equivalent to step S 1 .
ステップS5では符号帳Yの内容を固定したまま符号帳X
の内容を改善する。即ち、ステップS4で決定した各入力
ベクトルuの帰属する代表ベクトルの組(x j,y m)に
もとづいてステップS5-1で代表ベクトルx jを変数ベク
トルとみなし、その変数ベクトルx jを帰属ベクトルの
組に含むすべての入力ベクトルuの歪の和を変数ベクト
ルx jで偏微分した式を0とおき、その方程式を変数ベ
クトルx jについて解いた値 jを新しい代表ベクトルx
jとする。代表ベクトルx jを帰属ベクトルの組に含む
すべての入力ベクトルQ個(Qは可変)をuj1,uj2…ujQ
と表し、それらの帰属するベクトルの組を(xj,yg1),
(x j,yg2),…,(x j,ygQ)とすると jはそれらの
重心として結局次式で与えられる。ただしgeは0からN
−1までのいずれかの値をとる。In step S 5 , the codebook Y is fixed while the contents of the codebook Y are fixed.
Improve the content of. That is, based on the set (xj, ym) of representative vectors to which each input vector u belongs determined in step S 4 , the representative vector xj is regarded as a variable vector in step S 5-1 and the variable vector xj is Let 0 be the expression of the partial differentiation of the sum of the distortions of all input vectors u included in the set with respect to the variable vector xj, and solve the equation j for the variable vector xj.
Let j. All the input vectors Q (Q is variable) including the representative vector xj in the set of belonging vectors are u j1 , u j2 ... u jQ
And the set of vectors to which they belong is (x j , y g1 ),
(Xj, y g2 ),…, (xj, y gQ ), j is finally given as the center of gravity of them by the following equation. However, ge is 0 to N
Takes any value up to -1.
次にステップS5-2で更新した符号帳Xと固定した符号帳
Yを使って各入力ベクトルuに対し、Yに対する帰属は
ステップS4の状態に固定したまま、Xに対する帰属をす
べて決定し、ステップS5-3で再び符号帳Xの更新をステ
ップS5-1と同様にして行う。 Next, using the codebook X updated in step S 5-2 and the fixed codebook Y, for each input vector u, the attribution to Y is fixed in the state of step S 4 and all the attributions to X are determined. In step S 5-3 , the codebook X is updated again in the same manner as step S 5-1 .
ステップS1に戻って以下にステップS2〜S5と同様の繰返
し演算を行い、ステップS2で歪の総和Dが閾値以下ある
いはDの改善率が閾値以下になったら符号帳X,Yの更新
を終了する。Returning to step S 1 , the same iterative calculation as in steps S 2 to S 5 is performed below, and if the sum D of distortions is less than or equal to the threshold value or the improvement rate of D is less than or equal to the threshold value in step S 2 , Update is completed.
上述においてステップS3-2,S3-3及びS5-2,S5-3は省略し
てもよい。またステップS3-2、S3-3及びS5-2、S5-3を交
互に繰り返してもよい。In the above, steps S 3-2 , S 3-3 and S 5-2 , S 5-3 may be omitted. Further, steps S 3-2 , S 3-3 and S 5-2 , S 5-3 may be alternately repeated.
第8図は符号帳学習によって歪の減少する様子をSNRで
示したものである。図中第7図のフローチャートにおけ
るステップSの記号●,▲,◆,△,◇はS1,S3-1,
S3-2,S5-1,S5-2に対応する。ステップS3-1,S3-2の組や
ステップS5-1,S5-2の組を何回か繰返しても歪が減少し
ていくことにはかわりない。FIG. 8 shows SNR of how distortion is reduced by codebook learning. The symbols of step S in the flowchart of FIG. 7 in the figure are S 1 , S 3-1 , ●, ▲, ◆, △, ◇.
Corresponds to S 3-2 , S 5-1 , S 5-2 . Even if the set of steps S 3-1 and S 3-2 and the set of steps S 5-1 and S 5-2 are repeated several times, the distortion is still reduced.
第9A,9B図は伝送符号誤りがあった場合の被害の範囲を
比較したもので、第9A図は第1図に示す従来の1系統の
量子化の場合、第9B図はこの発明による2系統の量子化
の場合である。誤りビットを丸でかこんで示してある。
一つの入力ベクトルに対して複数の系統の符号帳と伝送
符号を与えることにより、伝送符号の単位は分割される
ため、すべての系統に誤りが生じる確率は分割しない通
常の伝送符号の誤り率に比べて小さいものとなる。いい
替えれば、第9A,9B図にハッチングで示したように、2
系統の場合、1ビットの符号誤りの及ぼす範囲は1系統
の場合の半分になる。FIGS. 9A and 9B are comparisons of damage ranges when there is a transmission code error. FIG. 9A shows the case of the conventional one-system quantization shown in FIG. 1, and FIG. This is the case of system quantization. Error bits are circled.
By assigning codebooks and transmission codes of multiple systems to one input vector, the transmission code unit is divided, so the probability of error in all systems is not divided into the error rate of the ordinary transmission code. It will be smaller than that. In other words, as shown by hatching in Figures 9A and 9B, 2
In the case of the system, the range affected by the 1-bit code error is half that in the case of the system.
第10図の無記憶のラプラス分布をもつ系列に対するr=
1の場合の性能を示す。ラプラス分布は音声信号を線形
予測の残差信号を模擬するものである。図中(a)は本
発明による2系統の量子化、(b)〜(e)は従来の1
系統の量子化である。横軸はビットの誤り率、縦軸はSN
Rである。第10図から2系統の量子化は符号誤りのない
場合には、1系統の同じ次元数の量子化とほぼ同等の性
能をもち、符号誤りのある場合には優れることが分か
る。For the sequence with the memoryless Laplace distribution of Fig. 10, r =
The performance in the case of 1 is shown. The Laplace distribution simulates a speech prediction signal as a residual signal of linear prediction. In the figure, (a) is two-system quantization according to the present invention, and (b) to (e) are conventional ones.
It is the quantization of the system. The horizontal axis is the bit error rate, and the vertical axis is SN
R. It can be seen from FIG. 10 that the two-system quantization has almost the same performance as the one-system quantization of the same number of dimensions when there is no code error, and is excellent when there is a code error.
第11図は本発明による2系統の量子化を従来のベクトル
量子化符号と誤り訂正符号を組合わせたものとを全情報
量一定のもとで比較したものである。ここでは訂正符号
として多重誤り訂正が可能な7種のBCH符号を用いた。
括弧内は左から全情報ビット、情報源のビット、誤り訂
正可能ビットを示す。これらの符号は何れも誤りのない
ときにも冗長ビットのために歪が大きくなることと符号
誤りが一定以上になると急速に歪が大きくなるという難
点があり、本発明の量子化のほうが優れている。FIG. 11 is a comparison of two systems of quantization according to the present invention with a combination of a conventional vector quantization code and an error correction code under a constant total information amount. Here, seven types of BCH codes capable of multiple error correction were used as the correction codes.
All information bits, information source bits, and error correctable bits are shown in parentheses from the left. Each of these codes has the drawback that the distortion increases due to redundant bits even when there is no error, and the distortion increases rapidly when the code error exceeds a certain level, and the quantization of the present invention is superior. There is.
この発明の2チャンネルのベクトル量子化を中帯域音声
符号化の有力な1手法である重み付きベクトル量子化に
よる変換符号化に応用した例を第12図に示す。入力ディ
ジタル音声信号Sを線形予測分析器41に与えて線形予測
のパラメータ{αi}をフィルタ係数として逆フィルタ
42に与え逆フィルタ42に音声信号Sを通して求めた線形
予測残差信号Rを得る。残差信号Rはコサイン変換器43
によりコサイン変換され、そのDCT(離散コサイン変
換)係数を周波数軸上で並べ変えて複数の副ベクトルに
分割する。こうして得られたベクトルL1はこの発明によ
る2チャンネル重み付きベクトル量子化装置100によっ
てスペクトル包絡の重みをつけてベクトル量子化され波
形情報Bとして伝送される。これと共にピッチ周期Δt
や線形予測パラメータ{αi}及び信号パワPからなる
補助情報Aも符号化されて伝送される。受信側の復号器
200は符号帳15,16を参照して受信した波形情報符号Bか
ら代表ベクトルの組x j,y mを復号しそれらの平均を復
号器17,18から出力する。この平均ベクトルはコサイン
逆変換器14に与えられ残差信号R′が復号される。一方
受信したパラメータの情報Aはパラメータ復号器45によ
り復号され、そのうち線形予測パラメータ{αi}はフ
ィルタ係数として合成フィルタ46に与えられる。残差信
号R′は合成フィルタ46を通されて音声が合成される。FIG. 12 shows an example in which the 2-channel vector quantization of the present invention is applied to transform coding by weighted vector quantization, which is one of the powerful techniques for mid-band speech coding. The input digital audio signal S is given to the linear prediction analyzer 41, and the inverse filter is performed by using the linear prediction parameter {αi} as a filter coefficient.
The linear prediction residual signal R obtained through the speech signal S is obtained from the inverse filter 42. The residual signal R is a cosine converter 43
The DCT (discrete cosine transform) coefficient is rearranged on the frequency axis and divided into a plurality of subvectors. The vector L 1 thus obtained is vector-quantized by the 2-channel weighted vector quantizer 100 according to the present invention with the weight of the spectrum envelope and transmitted as the waveform information B. Along with this, the pitch period Δt
The auxiliary information A including the linear prediction parameter {αi} and the signal power P is also encoded and transmitted. Receiver decoder
Reference numeral 200 decodes the representative vector set xj, ym from the waveform information code B received by referring to the codebooks 15 and 16, and outputs the average of them from the decoders 17 and 18. This average vector is given to the cosine inverse transformer 14 and the residual signal R'is decoded. On the other hand, the received parameter information A is decoded by the parameter decoder 45, of which the linear prediction parameter {αi} is given to the synthesis filter 46 as a filter coefficient. The residual signal R'is passed through a synthesis filter 46 to synthesize a voice.
2チャンネルの量子化の符号帳11,12(及び15,16)を作
るためにまず長時間平均スペクトルの重みをつけた歪尺
度でガウス乱数系列から学習する。このとき作られたベ
クトルは周波数軸上の高域に対応する成分のパワが殆ど
0となり、復号化された音声の高域成分が欠落する。こ
れを緩和するために代表ベクトルを学習系列のガウス乱
数のなかで重み付き距離が最小となるベクトルに置き換
える。In order to create two-channel quantization codebooks 11 and 12 (and 15 and 16), learning is first performed from a Gaussian random number sequence with a distortion measure weighted with a long-term average spectrum. In the vector created at this time, the power of the component corresponding to the high band on the frequency axis becomes almost zero, and the high band component of the decoded voice is lost. To alleviate this, the representative vector is replaced with a vector having the smallest weighted distance among the Gaussian random numbers in the learning sequence.
第1図に示す従来の1チャンネルベクトル量子化を使っ
た場合と比較して、第12図の伝送差における符号誤りに
対するSNRを第13図に示した。入力音声Sとして男女性
各1名の音声を異なる符号誤りパタンで繰り返し用い、
各SNRは約90秒の平均である。(a)以外はすべて波形
の量子化に通常の1チャンネルのベクトル量子化を用い
ている。全ての補助情報Bと(c)の場合の波形情報に
(31,21)の2重誤り訂正可能なBCH符号で誤り訂正を行
った。補助情報は全体の情報の20%程度で、誤り訂正符
号の冗長ビットによる波形歪の増加は僅かであるのに対
し、波形情報に誤りを生じたときは被害が大きいためで
ある。Compared to the case of using the conventional one-channel vector quantization shown in FIG. 1, the SNR for the code error in the transmission difference of FIG. 12 is shown in FIG. As the input voice S, voices of one male and one female are repeatedly used with different code error patterns,
Each SNR is an average of about 90 seconds. Except for (a), normal 1-channel vector quantization is used for waveform quantization. All the auxiliary information B and the waveform information in the case of (c) were error-corrected by the (31, 21) BCH code capable of double error correction. This is because the auxiliary information is about 20% of the total information, and the waveform distortion due to the redundant bits of the error correction code is slightly increased, but the damage is large when an error occurs in the waveform information.
第13図の結果から、チャンネルの量子化は誤りのない場
合から0.3%程度の誤りに対し、他より波形歪を小さく
できることがわかる。From the results shown in FIG. 13, it can be seen that the channel quantization can reduce the waveform distortion more than others for an error of about 0.3% when there is no error.
次に本発明を第12図の音声符号化の線形予測パラメータ
{αi}の量子化に適用する場合について述べる。ここ
では先ず線形予測係数{αi}をフィルタの安定性管理
が容易で、補間特性のよい、LSP(線スペクトル対)パ
ラメータに変換する(米国特許No.4393272)。その後、
このパラメータについてベクトル部分を8ビット、スカ
ラ部分13ビットでベクトル・スカラ量子化を行う。この
時のベクトル部分に対応する8ビットの符号の一つずつ
を強制的に反転して復号した時のスペクトル歪(LPCケ
プストラム距離)について通常のベクトル量子化と本発
明の量子化を比較したものが第14図である。縦軸がケプ
ストラム距離、横軸が符号中の反転したビット位置を示
し、白棒が通常のベクトル量子化によるもの、縦縞棒が
この発明によるベクトル量子化によるものである。スペ
クトル歪で評価したのはLSPパラメータのような線形予
測パラメータでの符号誤りは直接、符号化音声の量子化
歪として反映されるためである。スペクトル歪は値が小
さいほど劣化が少ないことを示している。この図から、
2チャンネルに分ける本発明の方がスペクトル歪に対す
る影響が少ないことが分かる。また誤りの無いときは通
常のベクトル量子化のほうが優れているがその差は僅か
である。Next, the case where the present invention is applied to the quantization of the linear prediction parameter {αi} of the speech coding of FIG. 12 will be described. Here, first, the linear prediction coefficient {αi} is converted into an LSP (line spectrum pair) parameter with which the stability management of the filter is easy and the interpolation characteristic is good (US Pat. No. 4,393,272). afterwards,
For this parameter, vector-scalar quantization is performed with a vector portion of 8 bits and a scalar portion of 13 bits. Spectral distortion (LPC cepstrum distance) at the time of decoding by forcibly inverting each 8-bit code corresponding to the vector portion at this time is a comparison between normal vector quantization and quantization of the present invention. Is FIG. 14. The vertical axis represents the cepstrum distance, the horizontal axis represents the inverted bit position in the code, the white bars represent normal vector quantization, and the vertical bars represent vector quantization according to the present invention. The spectral distortion is evaluated because the code error in the linear prediction parameter such as the LSP parameter is directly reflected as the quantization distortion of the coded speech. The smaller the spectrum distortion, the smaller the deterioration. From this figure,
It can be seen that the present invention, which is divided into two channels, has less influence on the spectral distortion. When there is no error, normal vector quantization is superior, but the difference is small.
以上説明したように、本発明のベクトル量子化法によれ
ば、複数の符号帳を使って一つの入力ベクトルに対して
複数系統で量子化するので量子化符号の単位が分割さ
れ、その結果符号の伝送において分割されたすべての符
号の誤りが生じる確率は分割しない通常の量子化符号の
伝送誤り率に比べてきわめて小さいものとなる。云い替
えれば、1ビットの符号誤りの及ぼす範囲が小さくな
る。従って復号ベクトルに及ぼす被害が軽減される。一
方、符号誤りが無いときには、それぞれの系統の代表ベ
クトルの平均が入力との歪を最小化するように出力符号
の組合せを決めるので、同一情報量の通常の1系統の量
子化とほぼ同等の性能を持つことが期待できる。As described above, according to the vector quantization method of the present invention, since a single input vector is quantized by a plurality of systems using a plurality of codebooks, the unit of the quantized code is divided, and the resultant code is divided. The probability of occurrence of errors in all the divided codes in the transmission is extremely small compared to the transmission error rate of the normal quantized code without division. In other words, the range of 1-bit code error is small. Therefore, the damage on the decoding vector is reduced. On the other hand, when there is no code error, the combination of output codes is determined so that the average of the representative vectors of each system minimizes the distortion with the input, so that it is almost the same as the normal one-system quantization of the same information amount. It can be expected to have performance.
更に、本発明の複数系統のベクトル量子化法は、この様
な符号誤りに対する利点のほかに、表Iや表IIに示すよ
うに符号帳の記憶容量を大幅に削減できることや量子化
のための探索の演算量を少なくできるという利点があ
る。このほかに各符号帳で入力ベクトルの近傍だけに探
索候補を絞ることで、性能を殆んど低下させることな
く、演算量を削減することが可能である。Further, the multi-system vector quantization method of the present invention has the advantage of being capable of significantly reducing the storage capacity of the codebook as shown in Tables I and II, as well as the advantage for such a code error. There is an advantage that the calculation amount of search can be reduced. In addition to this, by narrowing the search candidates to only the neighborhood of the input vector in each codebook, it is possible to reduce the amount of calculation without degrading the performance.
従って、本発明の量子化法を音声波形の符号化や画像符
号化に用いることで、性能の向上が期待できる。特に伝
送路誤りがあり、かつ情報圧縮の必要な用途に有効であ
る。Therefore, by using the quantization method of the present invention for encoding a speech waveform or image encoding, improvement in performance can be expected. In particular, it is effective for applications where there is a transmission path error and information compression is required.
第1図は従来の1つの符号帳を使ってベクトル量子化を
行う送信側の符号化装置と受信側の復号装置を示すブロ
ック図、 第2図はこの発明のベクトル量子化装置とその復号装置
を示すブロック図、 第3図は第2図に示すこの発明のベクトル量子化装置の
詳しいブロック図、 第4図は第3図のベクトル量子化装置における2乗距離
計算を行うための構成を示すブロック図、 第5図は第3図の実施例における2乗距離計算を行う他
の構成を示すブロック図、 第6図は第3図の実施例において重み付き2乗距離計算
を行う構成を示すブロック図、 第7図はこの発明のベクトル量子化装置に用いられる2
つの符号帳を学習によって作る手順を示すフローチャー
ト、 第8図は第7図のフローチャートに従って学習を繰返し
た場合の符号帳の改善を示すグラフ、 第9A、9B図は従来のベクトル量子化法とこの発明のベク
トル量子化法において符号誤りの被害の範囲を比較した
図、 第10図は符号誤り率に対するSNRについてこの発明のベ
クトル量子化法と従来のベクトル量子化法を比較したグ
ラフ 第11図はこの発明のベクトル量子化法の効果を更に従来
技術と比較したグラフ 第12図はこの発明のベクトル量子化法を音声残差波形の
周波数領域における重み付きベクトル量子化に適用した
場合の伝送システムを示すブロック図、 第13図は第12図に示す位置システムの符号誤りに対する
SNRを従来のベクトル量子化を使った場合と比較したグ
ラフ、 第14図は第12図における線形予測パラメータの量子化に
この発明を応用した場合の符号誤りに対するスペクトラ
ム歪を従来のベクトル量子化法を用いた場合と比較した
グラフを示す。FIG. 1 is a block diagram showing a coding device on the transmitting side and a decoding device on the receiving side for performing vector quantization using one conventional codebook, and FIG. 2 is a vector quantizing device of the present invention and its decoding device. FIG. 3 is a detailed block diagram of the vector quantizer of the present invention shown in FIG. 2, and FIG. 4 shows a configuration for performing square distance calculation in the vector quantizer of FIG. Block diagram, FIG. 5 is a block diagram showing another configuration for performing squared distance calculation in the embodiment of FIG. 3, and FIG. 6 shows a configuration for performing weighted squared distance calculation in the embodiment of FIG. A block diagram and FIG. 7 are used in the vector quantizer of the present invention.
FIG. 8 is a flow chart showing the procedure for creating one codebook by learning, FIG. 8 is a graph showing the improvement of the codebook when the learning is repeated according to the flow chart of FIG. 7, and FIGS. 9A and 9B are the conventional vector quantization method and this FIG. 10 is a diagram comparing the range of damage of code error in the vector quantization method of the invention, FIG. 10 is a graph comparing the vector quantization method of the present invention and the conventional vector quantization method with respect to the SNR with respect to the code error rate. A graph comparing the effect of the vector quantization method of the present invention with that of the prior art. FIG. 12 shows a transmission system when the vector quantization method of the present invention is applied to weighted vector quantization in the frequency domain of a speech residual waveform. The block diagram shown in Fig. 13 is for the code error of the position system shown in Fig. 12.
Fig. 14 is a graph comparing SNR with the case of using the conventional vector quantization, and Fig. 14 shows the spectrum distortion against the code error when the present invention is applied to the quantization of the linear prediction parameter in Fig. 12 by the conventional vector quantization method. The graph which compared with the case where is used is shown.
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/30 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Office reference number FI technical display location H04N 7/30
Claims (35)
ベクトルを有する複数の符号帳記憶手段と、 入力ベクトルに対し前記複数の符号帳記憶手段のそれぞ
れから1つずつ選ばれた代表ベクトルの組の平均ベクト
ルと前記入力ベクトルとの歪を計算することを複数の異
なる組の代表ベクトルについて実行する歪計算手段と、 それぞれの組の前記平均ベクトルの歪のうち最も小さい
歪を与える組がどれであるかを決定する最小歪決定手段
と、 決定された前記組の代表ベクトルをそれぞれ表す符号を
多重化して出力する多重化手段と、 を含む多重ベクトル量子化装置。1. A plurality of codebook storage means each having a predetermined number of representative vectors, and a set of representative vectors selected one from each of the plurality of codebook storage means for an input vector. Which of the distortion calculation means executes the calculation of the distortion between the average vector and the input vector for a plurality of different sets of representative vectors and which gives the smallest distortion among the distortions of the average vector of each set. A multi-vector quantizing device including: a minimum distortion determining means for determining whether or not; and a multiplexing means for multiplexing and outputting codes respectively representing the determined representative vectors of the set.
それぞれの前記符号を時間多重する手段である請求項1
記載の多重ベクトル量子化装置。2. The multiplexing means is means for time-multiplexing each of the codes representing the representative vector.
The described multi-vector quantizer.
平均ベクトルの2乗距離を前記歪として計算する手段で
ある請求項1記載の多重ベクトル量子化装置。3. The multi-vector quantizer according to claim 1, wherein the distortion calculating means is means for calculating a squared distance between the input vector and the average vector as the distortion.
平均ベクトルの重み付き2乗距離を前記歪として計算す
る手段である請求項1記載の多重ベクトル量子化装置。4. The multi-vector quantizer according to claim 1, wherein the distortion calculating means is means for calculating a weighted square distance between the input vector and the average vector as the distortion.
入力ベクトルとの差のベクトルを演算する引算手段と、
前記引算手段によって演算された差のベクトルのそれぞ
れの要素の2乗の和を演算して前記歪として出力する2
乗加算手段とを含む請求項1記載の多重ベクトル量子化
装置。5. The subtraction means calculates the vector of the difference between the average vector and the input vector, and
The sum of the squares of the respective elements of the difference vector calculated by the subtraction means is calculated and output as the distortion 2
The multi-vector quantization device according to claim 1, further comprising a multiplication and addition means.
ぞれから1つずつ選ばれた代表ベクトルの各組につい
て、その組みの有するそれぞれの代表ベクトルの和のベ
クトルの各要素の2乗和を前記組に対応して記憶した表
メモリ手段と、 前記入力ベクトルに対し前記複数の符号帳記憶手段のそ
れぞれから1つずつ選ばれた代表ベクトルと前記入力ベ
クトルとの内積をそれぞれ演算する内積演算手段と、 前記内積演算手段からのそれぞれの内積の和と前記表メ
モリから読出した前記選んだ組みに対応する2乗和との
差を演算し前記歪として出力する減算手段とを含む請求
項1記載の多重ベクトル量子化装置。6. The distortion calculating means, for each set of representative vectors selected one by one from each of the plurality of codebooks, sum of squares of each element of the sum vector of respective representative vectors of the set. Table memory means for storing the input vector, and an inner product operation for calculating the inner product of the representative vector selected from the plurality of codebook storage means for the input vector and the input vector, respectively. And subtraction means for calculating the difference between the sum of the respective inner products from said inner product calculating means and the sum of squares corresponding to said selected set read from said table memory and outputting it as said distortion. The described multi-vector quantizer.
して入力された重みベクトルとを乗算し加重入力ベクト
ルを出力する乗算手段と、 前記複数の符号帳のそれぞれから1つずつ選ばれた代表
ベクトルの各組について、その組の有するそれぞれの代
表ベクトルの互いに対応する要素の和の2乗を要素とす
る定数ベクトルを前記組に対応して記憶した表メモリ手
段と、 前記複数の符号帳記憶手段から選ばれた組の代表ベクト
ルと前記乗算手段からの前記加重入力ベクトルとの内積
をそれぞれ演算する第1内積演算手段と、 前記表メモリ手段から前記選ばれた組と対応して読出し
た前記定数ベクトルと前記重みベクトルとの内積を演算
する第2内積演算手段と、 前記第1及び第2内積演算手段からの内積の差を前記歪
として出力する加算手段とを含む請求項1記載の多重ベ
クトル量子化装置。7. The distortion calculating means is selected from a multiplying means for multiplying the input vector and a weight vector input corresponding to each other and outputting a weighted input vector, and one from each of the plurality of codebooks. For each set of representative vectors, table memory means for storing a constant vector whose element is the square of the sum of the corresponding elements of the respective representative vectors of the set, corresponding to the set, and the plurality of codebooks. First inner product calculating means for calculating an inner product of the representative vector of the set selected from the storage means and the weighted input vector from the multiplying means, and read from the table memory means in association with the selected set. Second inner product calculating means for calculating an inner product of the constant vector and the weight vector, and an adding means for outputting a difference between the inner products from the first and second inner product calculating means as the distortion. The multi-vector quantizer according to claim 1, including:
乃至7のいずれか記載の多重ベクトル量子化装置。8. The two codebooks are provided.
8. The multi-vector quantizer according to any one of 7 to 7.
り、前記複数の符号帳記憶手段にはそれぞれk個の要素
からなるN個の代表ベクトルx j,j=0,1,…,N−1を有
するX符号帳と、それぞれがk個の要素からなるN個の
代表ベクトルy m,m=0,1,…,N−1を有するY符号帳と
がそれぞれ記憶されており、kは正の整数、Nは2以上
の整数である請求項1記載の多重ベクトル量子化装置。9. Each of the input vectors u has k elements, and N representative vectors xj, j = 0, 1, ..., N each having k elements in the plurality of codebook storage means. An X codebook having −1 and a Y codebook having N representative vectors ym, m = 0, 1, ..., N−1 each having k elements are stored, and k is The multi-vector quantizer according to claim 1, wherein N is a positive integer and 2 or more.
ルx j,y mの各第i要素をそれぞれu(i),x(i,j)及
びy(i,m)と表すと、前記歪計算手段は選択した組
(j,m)の代表ベクトルx j,y mに対し前記歪として次式 で規定される請求項9記載の多重ベクトル量子化装置。10. When the i-th elements of the input vector u and the representative vector xj, ym are expressed as u (i), x (i, j) and y (i, m), respectively, the distortion calculation means For the representative vector xj, ym of the selected set (j, m), 10. The multi-vector quantizer according to claim 9, defined by
y mのすべての組合わせ(j,m)について前記式(ロ)の
F(j,m)を計算した値を前記組合わせ(j,m)に対応さ
せて記憶したテーブルメモリ手段を含み、前記歪計算手
段は前記選ばれた代表ベクトルの組(j,m)に対応する
F(j,m)の値を前記テーブルメモリ手段から読出して
式(イ)の計算を行う請求項10記載の多重ベクトル量子
化装置。11. The distortion calculating means comprises the representative vector xj,
a table memory means for storing values obtained by calculating F (j, m) of the formula (b) for all combinations (j, m) of ym in association with the combinations (j, m), 11. The multiplex according to claim 10, wherein the distortion calculation means reads the value of F (j, m) corresponding to the selected representative vector set (j, m) from the table memory means and performs the calculation of equation (a). Vector quantizer.
クトルu及び前記代表ベクトルx j,y mの各第i要素を
それぞれw(i),u(i),x(i,j)及びy(i,m)と表
わすと前記歪計算手段は選択した組(j,m)の代表ベク
トルx j,y m,に対し前記歪として次式 F(i,j,m)={x(i,j)+y(i,m)}2 ……(2) で規定される歪d′j,mを計算する手段である請求項9
記載の多重ベクトル量子化装置。12. The weight vector w, the input vector u, and the i-th element of the representative vector xj, ym, which are input, are w (i), u (i), x (i, j) and y (i), respectively. , m), the distortion calculation means calculates the distortion as follows for the representative vector xj, ym of the selected set (j, m). 10. A means for calculating a strain d' j, m defined by F (i, j, m) = {x (i, j) + y (i, m)} 2 (2).
The described multi-vector quantizer.
トルx j,y mの組に対し前記式(ロ)で表わされる定数
ベクトルF(i,j,m)の計算の少なくとも1部をあらか
じめ計算した値を記憶する表メモリを含む請求項12記載
の多重ベクトル量子化装置。13. The distortion calculating means precalculates at least part of the calculation of a constant vector F (i, j, m) represented by the equation (b) for the selected set of representative vectors xj, ym. 13. The multi-vector quantizer according to claim 12, further comprising a table memory for storing the selected value.
わすそれぞれの前記符号を周波数多重する手段である請
求項1記載の多重ベクトル量子化装置。14. The multiplex vector quantizer according to claim 1, wherein said multiplexing means is means for frequency-multiplexing each of said codes representing said representative vector.
て1つの入力ベクトルとし、各前記入力ベクトルを量子
化する多重ベクトル量子化方法において、 (a)それぞれがあらかじめ決められた複数の代表ベク
トルを有する複数の系統の符号帳のそれぞれから1つず
つ代表ベクトルを選ぶ工程と、 (b)選ばれた前記代表ベクトルの組の平均ベクトルと
前記入力ベクトルとの歪を計算する工程と、 (c)工程(a)と(b)を前記複数の符号帳から選ん
だ複数の異なる組の代表ベクトルについて繰返し、それ
ぞれ計算した歪のうち最小の歪を与える代表ベクトルの
組を決定する工程と、 (d)前記決定した組の代表ベクトルを表わすそれぞれ
の符号を多重化して出力する工程、 とを含む多重ベクトル量子化方法。15. A multi-vector quantization method in which an input signal sequence is grouped for each of a plurality of samples into one input vector, and each of the input vectors is quantized, in which (a) a plurality of predetermined representative vectors are defined. Selecting one representative vector from each of the plurality of systems of codebooks, (b) calculating the distortion between the average vector and the input vector of the selected set of representative vectors, (c) Repeating steps (a) and (b) for a plurality of different sets of representative vectors selected from the plurality of codebooks, and determining a set of representative vectors that gives the minimum distortion among the calculated distortions; ) Multiplexing each code representing the determined representative vector of the set and outputting the multiplex vector quantization method.
記入力ベクトルと前記平均ベクトルの2乗距離を計算す
る請求項15記載の多重ベクトル量子化方法。16. The multiple vector quantization method according to claim 15, wherein a squared distance between the input vector and the average vector is calculated as the distortion in the step (b).
記入力ベクトルと前記平均ベクトルとの重み付けされた
2乗距離を計算する請求項15記載の多重ベクトル量子化
方法。17. The multi-vector quantization method according to claim 15, wherein a weighted square distance between the input vector and the average vector is calculated as the distortion in the step (b).
成り、前記複数の符号帳はそれぞれk個の要素から成る
N個の代表ベクトルx j,j=0,1,…,N−1、を有するX
符号帳と、それぞれがk個の要素から成るN個の代表ベ
クトルy m,m=0,1,…,N−1、を有するY符号帳であ
り、kは正の整数、Nは2以上の整数である請求項15記
載の多重ベクトル量子化方法。18. Each of the input vectors u is composed of k elements, and the plurality of codebooks are composed of N representative vectors xj, j = 0, 1, ..., N-1, each consisting of k elements. With X
A codebook and a Y codebook having N representative vectors ym, m = 0,1, ..., N-1 each consisting of k elements, where k is a positive integer and N is 2 or more. 16. The multi-vector quantization method according to claim 15, which is an integer.
ルx j,y m,の各第i要素をそれぞれu(i),x(i,j)
及びy(i,m)と表わすと、、前記工程(b)は選んだ
組(j,m)の代表ベクトルx j,y mに対し、前記歪を次
式、 で規定される歪みd′j,mとして計算する請求項18記載
の多重ベクトル量子化方法。19. The i-th element of the input vector u and the representative vector xj, ym, respectively, is set to u (i), x (i, j).
And y (i, m), in the step (b), the distortion is expressed by the following equation with respect to the representative vector xj, ym of the selected set (j, m): 19. The multi-vector quantization method according to claim 18, which is calculated as a distortion d' j, m defined by
れる定数F(j,m)をすべての組(j,m)についてあらか
じめ計算した値の表を用いて、式(イ)で規定される歪
d′j,mを計算する請求項19記載の多重ベクトル量子化
方法。20. In the step (b), a constant F (j, m) defined in the equation (b) is preliminarily calculated for all pairs (j, m), and a formula (i) is used. 20. The multi-vector quantization method according to claim 19 , wherein the distortion d' j, m defined by
前記代表ベクトルx j,及びy mのそれぞれとの内積を計
算し、それらの内積の和と、前記表から読出した前記定
数F(j,m)との差を前記歪d′j,mとして計算する請求
項20記載の多重ベクトル量子化方法。21. The step (b) calculates an inner product of the input vector u and each of the representative vectors xj, and ym, and calculates the sum of the inner products and the constant F (j, 21. The multi-vector quantization method according to claim 20 , wherein a difference from m) is calculated as the distortion d' j, m .
ベクトルu及び前記代表ベクトルx j,y mの各第i要素
をそれぞれw(i),u(i),x(i,j)及びy(i,m)と
表わすと、前記工程(b)は選んだ組(j,m)の代表ベ
クトルx j,y mに対し前記歪を次式 F(i,j,m)={x(i,j)+y(i,m)}2 ……(ロ) で規定される歪みd′j,mを計算する請求項18記載の多
重ベクトル量子化方法。22. A weight vector w to be input is obtained by calculating w (i), u (i), x (i, j) and y (i) of the i-th element of the input vector u and the representative vector xj, ym, respectively. i, m), the above step (b) expresses the distortion as follows with respect to the representative vector xj, ym of the selected set (j, m). 19. The multi-vector quantum according to claim 18, which calculates a distortion d ′ j, m defined by F (i, j, m) = {x (i, j) + y (i, m)} 2 (b). Method.
ルx j,y mの組に対し前記式(ロ)で規定される定数ベ
クトルF(i,j,m)の計算の少なくとも1部をあらかじ
め計算した結果の表を用いて前記式(イ)で規定される
歪みd′j,mを計算する請求項22記載の多重ベクトル量
子化方法。23. In the step (b), at least a part of calculation of a constant vector F (i, j, m) defined by the equation (b) is previously performed for the selected representative vector xj, ym set. 23. The multi-vector quantization method according to claim 22 , wherein the distortion d' j, m defined by the equation (a) is calculated using a table of calculated results.
計算は前記の入力ベクトルuと前記重みベクトルwの乗
算をする工程と、その乗算結果と前記代表ベクトルx j,
及びy mのそれぞれとの内積を計算する工程とを含む請
求項22記載の多重ベクトル量子化方法。24. In the calculation of the equation (a) in the step (b), the step of multiplying the input vector u by the weight vector w, the multiplication result and the representative vector xj,
23. The method of claim 22, further comprising the step of calculating the inner product of each of the vector and ym.
トルu及び前記代表ベクトルx j,y mの各第i要素をそ
れぞれw(i),u(i),x(i,j)及びy(i,m)と表わ
すと、前記工程(b)は前記選んだ組(j,m)の代表ベ
クトルx j,y mに対し前記歪を次式 で規定される歪dj,mとして計算し、τは任意の正の定
数である請求項18記載の多重ベクトル量子化方法。25. The weight vector w, the input vector u, and the i-th element of the representative vector xj, ym, which are input, are w (i), u (i), x (i, j) and y (i), respectively. , m), the step (b) represents the distortion for the representative vector xj, ym of the selected set (j, m) as 19. The multi-vector quantization method according to claim 18, wherein τ is an arbitrary positive constant calculated as a distortion d j, m defined by
の代表ベクトルx j,y m,に対し前記歪を次式 dj,m=μ|u−vj,m|2 +(1−μ){|u−x j|2+|u−y m|2}/4 vj,m=(x j+y m)/2 で規定される歪dj,mを計算し、μは0≦μ≦1の任意
の定数である請求項18記載の多重ベクトル量子化方法。26. The step (b) comprises the selected set (j, m).
Representative vectors xj, ym, to the distortion of the following equation d j, m = μ | u -v j, m | 2 + (1-μ) {| u-xj | 2 + | u-ym | 2} 19. The multi-vector quantization method according to claim 18, wherein a distortion d j, m defined by / 4 v j, m = (x j + y m) / 2 is calculated, and μ is an arbitrary constant of 0 ≦ μ ≦ 1. .
の代表ベクトルx j,y m,に対し前記歪を次式 で規定される歪dj,mを計算し、q(f|j)及びq(g|
m)は前記代表ベクトルx j,y mを表わす前記符号j,mが
伝送路でそれぞれf,gに誤る確率を表わす請求項18記載
の多重ベクトル量子化方法。27. The step (b) comprises the selected set (j, m).
For the representative vector xj, ym of The strain d j, m defined by is calculated and q (f | j) and q (g |
19. The multiple vector quantization method according to claim 18, wherein m) represents the probability that the code j, m representing the representative vector xj, ym will be mistaken as f, g on the transmission line.
に任意に振分けて複数の初期符号帳を作る工程と、 (ロ)前記所定数より充分多い数の学習ベクトルを入力
ベクトルとし、前記複数の初期符号帳を使って順次前記
多重ベクトル量子化方法により量子化することにより各
前記学習ベクトルが帰属する前記代表ベクトルの組を決
定する工程と、 (ハ)前記複数の初期符号帳のうち任意の1つ以外の初
期符号帳の内容を固定し、前記1つの初期符号帳の任意
の1つの代表ベクトルを変数ベクトルとみなし、その1
つの代表ベクトルを帰属ベクトルの組に含むすべての前
記学習ベクトルのそれぞれの歪の和を前記変数ベクトル
で偏微分した式を0とおき、その式を前記変数ベクトル
について解いたベクトル値を新しい代表ベクトルとして
前記1つの代表ベクトルと入れ替える工程と、 (ニ)前記工程(ハ)を前記1つの初期符号帳の他のす
べての代表ベクトルについてそれぞれ繰返し、それらを
新しい代表ベクトルと入れ替えることによって前記1つ
の初期符号帳の内容を更新する工程と、 (ホ)前記工程(ロ),(ハ)及び(ニ)を前記複数の
初期符号帳の他のすべての初期符号帳についてそれぞれ
繰返し、それらの内容を更新する工程と、を含む請求項
15記載の多重ベクトル量子化方法。28. The step of creating a codebook of the code includes: (a) a step of arbitrarily distributing a predetermined number of input sample vectors to a plurality of groups to create a plurality of initial codebooks; With a large number of learning vectors as input vectors, determining a set of the representative vectors to which each learning vector belongs by sequentially quantizing with the multiple vector quantization method using the plurality of initial codebooks, (C) The contents of initial codebooks other than any one of the plurality of initial codebooks are fixed, and one arbitrary representative vector of the one initial codebook is regarded as a variable vector, and
The expression obtained by partially differentiating the sum of distortions of all the learning vectors including one representative vector in the set of belonging vectors with the variable vector is set to 0, and the vector value obtained by solving the equation for the variable vector is a new representative vector. And (d) repeating the step (c) for all other representative vectors of the one initial codebook and replacing them with a new representative vector. The step of updating the contents of the codebook, and (e) the steps (b), (c) and (d) are repeated for all other initial codebooks of the plurality of initial codebooks to update their contents. And a step of
15. The multi-vector quantization method described in 15.
(ロ),(ハ)及び(ニ)を同じ符号帳について複数回
繰返す工程を含む請求項28記載の多重ベクトル量子化方
法。29. The multiple vector quantization method according to claim 28, wherein the step of creating the plurality of codebooks includes the step of repeating the steps (b), (c) and (d) a plurality of times for the same codebook.
(ロ),(ハ),(ニ)及び(ホ)を複数回繰返す工程
を含む請求項28記載の多重ベクトル量子化方法。30. The multi-vector quantization method according to claim 28, wherein the step of creating the plurality of codebooks includes a step of repeating the steps (b), (c), (d) and (e) a plurality of times.
ベクトルを表わすそれぞれの前記符号を時間多重して出
力する工程である請求項15記載の多重ベクトル量子化方
法。31. The multi-vector quantization method according to claim 15, wherein said step (d) is a step of time-multiplexing and outputting each of said codes representing said representative vector of said set.
ベクトルを表わすそれぞれの前記符号を周波数多重して
出力する工程である請求項15記載の多重ベクトル量子化
方法。32. The multi-vector quantization method according to claim 15, wherein said step (d) is a step of frequency-multiplexing and outputting each of said codes representing said representative vector of said set.
ルを表わす前記符号はそれぞれの前記代表ベクトルを表
わす番号である請求項31又は32記載の多重ベクトル量子
化方法。33. The multiple vector quantization method according to claim 31, wherein the code representing each representative vector of the determined set is a number representing each representative vector.
22r(y)} であり、r(x)及びr(y)はそれぞれ前記代表ベク
トルx j,y mを表わす符号の伝送率である請求項18記載
の多重ベクトル量子化方法。34. The average vector is defined by the following equation. Weighted average vector v j, m v j, m = {2 2r (x) x j + 2 2r (y) ym} / {2 2r (x) +
22. The multi-vector quantization method according to claim 18, wherein 2 2r (y) }, where r (x) and r (y) are the transmission rates of the codes representing the representative vectors xj, ym, respectively.
(i)及び前記代表ベクトルx j,y mの各第g要素をそ
れぞれx(g,j),y(g,m)と表わすと、前記工程(b)
は前記選んだ組(j,m)の代表ベクトルx j,y mに対し前
記歪を次式 で規定される歪dj,mを計算し、h(i,g)はたたみ込み
積を行う行列のi行,g列の要素を表わし、τは前記歪d
j,mを最小とするパラメータである請求項18記載の多重
ベクトル量込化方法。35. If the i-th element of the input vector u is u
(I) and the g-th element of the representative vector xj, ym are respectively represented as x (g, j), y (g, m), the step (b)
Is the following equation for the representative vector xj, ym of the selected pair (j, m) In calculates the distortion d j, m which is defined, h (i, g) is the i-th row of the matrix for performing a product convolution represents the elements of g columns, tau is the distortion d
19. The multiple vector embedding method according to claim 18, wherein the parameters are parameters that minimize j and m .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63249450A JPH0783316B2 (en) | 1987-10-30 | 1988-10-03 | Mass vector quantization method and apparatus thereof |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62-275388 | 1987-10-30 | ||
JP27538887 | 1987-10-30 | ||
JP63249450A JPH0783316B2 (en) | 1987-10-30 | 1988-10-03 | Mass vector quantization method and apparatus thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH01205638A JPH01205638A (en) | 1989-08-18 |
JPH0783316B2 true JPH0783316B2 (en) | 1995-09-06 |
Family
ID=26539293
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63249450A Expired - Fee Related JPH0783316B2 (en) | 1987-10-30 | 1988-10-03 | Mass vector quantization method and apparatus thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0783316B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07120961B2 (en) * | 1989-01-13 | 1995-12-20 | 三菱電機株式会社 | Signal encoder |
JP2626492B2 (en) * | 1993-09-13 | 1997-07-02 | 日本電気株式会社 | Vector quantizer |
JP4633774B2 (en) * | 2007-10-05 | 2011-02-16 | 日本電信電話株式会社 | Multiple vector quantization method, apparatus, program, and recording medium thereof |
WO2009096538A1 (en) * | 2008-01-31 | 2009-08-06 | Nippon Telegraph And Telephone Corporation | Polarized multiple vector quantization method, device, program and recording medium therefor |
JP4616891B2 (en) * | 2008-01-31 | 2011-01-19 | 日本電信電話株式会社 | Multiple vector quantization method, apparatus, program, and recording medium thereof |
GB2466675B (en) | 2009-01-06 | 2013-03-06 | Skype | Speech coding |
GB2466673B (en) | 2009-01-06 | 2012-11-07 | Skype | Quantization |
GB2466669B (en) | 2009-01-06 | 2013-03-06 | Skype | Speech coding |
GB2466674B (en) * | 2009-01-06 | 2013-11-13 | Skype | Speech coding |
-
1988
- 1988-10-03 JP JP63249450A patent/JPH0783316B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH01205638A (en) | 1989-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0314018B1 (en) | Method and apparatus for multiplexed vector quantization | |
US6662154B2 (en) | Method and system for information signal coding using combinatorial and huffman codes | |
US6952671B1 (en) | Vector quantization with a non-structured codebook for audio compression | |
US5832443A (en) | Method and apparatus for adaptive audio compression and decompression | |
US5034965A (en) | Efficient coding method and its decoding method | |
JP3636094B2 (en) | Signal encoding apparatus and method, and signal decoding apparatus and method | |
EP0786762B1 (en) | Vector encoding method and encoder/decoder using the method | |
JPH056199A (en) | Voice parameter coding system | |
CN1097816C (en) | Digital speech coder having optimized signal energy parameters | |
JPH0783316B2 (en) | Mass vector quantization method and apparatus thereof | |
KR20070046752A (en) | Method and apparatus for signal processing | |
JP3434260B2 (en) | Audio signal encoding method and decoding method, these devices and program recording medium | |
JP3255022B2 (en) | Adaptive transform coding and adaptive transform decoding | |
JP2626492B2 (en) | Vector quantizer | |
JP2523286B2 (en) | Speech encoding and decoding method | |
CN102239640B (en) | Encoding method and decoding method, and devices using methods | |
JP2002091497A (en) | Audio signal encoding method and decoding methods, and storage medium stored with program to execute these methods | |
JP3296363B2 (en) | Speech linear prediction parameter coding method | |
JP3285072B2 (en) | Weighted vector quantization method | |
JP2794842B2 (en) | Encoding method and decoding method | |
JP3052274B2 (en) | LSP quantization method | |
JP2853824B2 (en) | Speech parameter information coding method | |
JPH0666948B2 (en) | Interframe vector quantization coding / decoding device | |
JP2549016B2 (en) | Vector quantization | |
EP1716506A1 (en) | Method and apparatus for transforming a digital audio signal and for inversely transforming a transformed digital audio signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |