JPH06152430A - Method for adaptively quantizing vector and device therefor - Google Patents

Method for adaptively quantizing vector and device therefor

Info

Publication number
JPH06152430A
JPH06152430A JP29460892A JP29460892A JPH06152430A JP H06152430 A JPH06152430 A JP H06152430A JP 29460892 A JP29460892 A JP 29460892A JP 29460892 A JP29460892 A JP 29460892A JP H06152430 A JPH06152430 A JP H06152430A
Authority
JP
Japan
Prior art keywords
vector
representative
vectors
frequency
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP29460892A
Other languages
Japanese (ja)
Inventor
Shuko Ueda
修功 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP29460892A priority Critical patent/JPH06152430A/en
Publication of JPH06152430A publication Critical patent/JPH06152430A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To enable satisfactory vector quantization by adding update processing based on the increase and extinguishment of representative vectors to the successive update processing of representative vectors. CONSTITUTION:Input vectors are sent to a quantizing part 1 and a learning data preparing part 4, sampled for every fixed cycle by the preparing part 4 and sent to a distortion calculating part 5 as learning data. The calculating part 5 calculates the distortion of the representative vectors in a code book 3 and the inputted learning data, and the representative vector with minimum distortion is defined as amost adjacent vector. The ID of this vector is sent to the part 1 and a correcting part 6. Thus, the part 1 outputs quantized data. On the other hand, the part 6 counts the number of accumulated input vectors and when this number is coincident with a certain value, frequency for each representative vector is normalized by referring to a frequency table 7. At the time of non-coincidence, '1' is added to the frequency corresponding to the ID, and the representative vector corresponding to the most adjacent vector is corrected/updated and stored in the book 3.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像・音声データなど
を効率的に圧縮して符号化する適応ベクトル量子化方法
および装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an adaptive vector quantization method and apparatus for efficiently compressing and coding image / sound data.

【0002】[0002]

【従来の技術】画像データや音声データなどを圧縮して
符号化する方法の一つとして、ベクトル量子化(vector
quantization;VQ)がある。このベクトル量子化
は、連続的な信号を離散的な信号で近似する処理である
が、例えば音声データの場合、この音声データを適宜の
間隔でサンプリングしてP個のサンプルを得て、このP
個のサンプルをまとめ、P次元空間の1個の入力ベクト
ルとする。そして、予め、適当の個数用意された代表ベ
クトルの中から最もこの入力ベクトルに近いものを選び
出し、選ばれた代表ベクトルによって入力ベクトルを近
似し、その選ばれた代表ベクトルを表わす番号(ID)
でもって、入力ベクトル(すなわち入力信号)を符号化
する方法である。ベクトル量子化は、データ圧縮や符号
化の分野において、極めて重要な技術である。
2. Description of the Related Art Vector quantization (vector quantization) is one of the methods for compressing and encoding image data and audio data.
There is quantization; VQ). This vector quantization is a process of approximating a continuous signal with a discrete signal. For example, in the case of audio data, this audio data is sampled at appropriate intervals to obtain P samples, and P
The samples are put together to form one input vector in the P-dimensional space. Then, an appropriate number of representative vectors that are closest to this input vector are selected in advance, the input vector is approximated by the selected representative vector, and a number (ID) representing the selected representative vector.
Therefore, it is a method of encoding an input vector (that is, an input signal). Vector quantization is a very important technique in the field of data compression and coding.

【0003】ベクトル量子化は、形式的には、n次元ユ
ークリッド区間RnからRnの部分集合Mへの写像Q:
Formally, vector quantization is a mapping Q from an n-dimensional Euclidean interval R n to a subset M of R n :

【0004】[0004]

【数1】 とみなすことができる。すなわちベクトル量子化によ
り、入力ベクトル集合V={xi|i=1,2,...}の各
要素(すなわち入力ベクトル)xi∈Rnが、有限ベクト
ル集合(すなわち全代表ベクトルの集合)M={mj
1≦j≦L}のある一つの要素mj∈Rnに変換される。
これは、図1に示されるように、入力ベクトルxが存在
するn次元空間ΩをL個の領域(セル){Sj|1≦j
≦L}に分割し、各セルSjに代表ベクトルmjを1個ず
つ割り付けることに相当する。すなわち各セルは、以下
のように定義される。
[Equation 1] Can be regarded as That is, by vector quantization, each element (that is, input vector) x i εR n of the input vector set V = {x i | i = 1,2, ...} becomes a finite vector set (that is, a set of all representative vectors). ) M = {m j |
It is converted into one element m j εR n with 1 ≦ j ≦ L}.
This is because, as shown in FIG. 1, the n-dimensional space Ω in which the input vector x exists is divided into L regions (cells) {S j | 1 ≦ j.
≦ L divided into}, equivalent to allocate one by one representative vector m j in each cell S j. That is, each cell is defined as follows.

【0005】[0005]

【数2】 ここで有限集合Mはコードブック(codebook)、Lはコ
ードブックのサイズあるいはレベル数、mjは代表ベク
トルあるいはコードワード(codeword)と呼ばれる。
[Equation 2] Here, the finite set M is called a codebook, L is the size or number of levels of the codebook, and m j is a representative vector or codeword.

【0006】原信号(入力ベクトル)xを代表ベクトル
mで近似する際、近似に伴う歪みd(x,m)が生じ
る。歪みdの評価方法はいろいろ考えられるが、通常、
2ノルム:
When the original signal (input vector) x is approximated by the representative vector m, distortion d (x, m) occurs due to the approximation. Although various methods of evaluating the strain d can be considered, usually,
L 2 norm:

【0007】[0007]

【数3】 によって、計算される。したがってベクトル量子化で
は、入力ベクトル集合V全体にわたる平均歪みD:
[Equation 3] Calculated by Therefore, in vector quantization, the average distortion D over the input vector set V:

【0008】[0008]

【数4】 を最小化するように代表ベクトル集合(コードブック)
M={mj|1≦j≦L}を設計することが、重要なこ
ととなる。コードブックの設計は、ベクトル量子化にお
ける学習過程とも呼ばれる。
[Equation 4] Representative vector set (codebook) to minimize
It is important to design M = {m j | 1 ≦ j ≦ L}. Codebook design is also called the learning process in vector quantization.

【0009】コードブックの設計方法にはバッチ方法と
オンライン方法がある。バッチ方法では、有限個の学習
データ(学習に使用される入力データ)が全て与えられ
たもとで、前記の平均歪みDを最小化するようにコード
ブックが設計される。現状では、平均歪みDを最小化す
る解析的な手法は存在しないが、極小解を保証する公知
のアルゴリズムとして、LBGアルゴリズム(Y. Lind
e, A. Buzo and R. M.Gray,"An algorithm for vector
quantizer design", IEEE Trans. Communication, Vol.
COM-28, pp. 84-95, 1980)がある。バッチ方法では学
習データが固定されているので、信号の分布変動に追随
することができず、しかも大量の学習データを記憶する
ための大容量メモリが必要となる。
The codebook design method includes a batch method and an online method. In the batch method, a codebook is designed so as to minimize the average distortion D, given a finite number of learning data (input data used for learning). At present, there is no analytical method for minimizing the average distortion D, but as a known algorithm that guarantees a minimal solution, the LBG algorithm (Y. Lind) is used.
e, A. Buzo and RMGray, "An algorithm for vector
quantizer design ", IEEE Trans. Communication, Vol.
COM-28, pp. 84-95, 1980). Since the learning data is fixed in the batch method, it is not possible to follow the distribution variation of the signal, and a large capacity memory for storing a large amount of learning data is required.

【0010】一方、オンライン方法では学習データが逐
次的に提示され、その都度、コードブックが更新される
(したがって、学習データの個数は原理的には無限個で
もよい)。そのため、バッチ方法のように全ての学習デ
ータを記憶しておく必要がなく、しかもコードブックが
データの性質の変動に適応するように実時間的に更新さ
れるので、より実用的な方法といえる。この方法が、適
応ベクトル量子化(Adaptive Vector Quantization;A
VQ)である。
On the other hand, in the online method, the learning data is sequentially presented, and the codebook is updated each time (therefore, the number of learning data may be infinite in principle). Therefore, unlike the batch method, it is not necessary to store all the learning data, and the codebook is updated in real time to adapt to changes in the properties of the data, so it is a more practical method. . This method is called Adaptive Vector Quantization (A).
VQ).

【0011】適応ベクトル量子化におけるコードブック
設計のための公知のアルゴリズムとして、競合学習(Co
mpetitive Learning:CL)に基づく学習アルゴリズム
がある(D. Rumelhart and J. McClelland, "Parallel
distributed processing: Explorations in the micros
tructure of cognition", chap. 5, MIT Press, 198
6)。競合学習アルゴリズムの一般的手順は以下の通り
である。なお、以下の説明において、t番目に提示され
る学習データをx(t)、その時点における更新前の代表
ベクトルをm(t)、更新後の代表ベクトルをm(t+1)でそ
れぞれ表記する。
As a known algorithm for designing a codebook in adaptive vector quantization, competitive learning (Co
There is a learning algorithm based on mpetitive learning (CL) (D. Rumelhart and J. McClelland, "Parallel
distributed processing: Explorations in the micros
tructure of cognition ", chap. 5, MIT Press, 198
6). The general procedure of the competitive learning algorithm is as follows. In the following description, the learning data presented at the t-th is represented by x (t), the representative vector before updating at that time is represented by m (t), and the representative vector after updating is represented by m (t + 1). To do.

【0012】(適応ベクトル量子化におけるコードブッ
ク設計アルゴリズム) ・ステップ1 まず、L個の代表ベクトルmjを適当な
乱数で初期化することによって、コードブックを初期化
する。すなわち、
(Codebook Design Algorithm in Adaptive Vector Quantization) Step 1 First, the codebook is initialized by initializing the L representative vectors m j with appropriate random numbers. That is,

【0013】[0013]

【数5】 とする。・ステップ2 最近傍ベクトルmcを次式によ
り決定する。
[Equation 5] And Step 2 Determine the nearest neighbor vector m c by the following equation.

【0014】[0014]

【数6】 ・ステップ3 最近傍ベクトルを次式にしたがって、更
新する。
[Equation 6] Step 3 Update the nearest neighbor vector according to the following equation.

【0015】[0015]

【数7】 ・ステップ4 t←t+1として、ステップ2に戻る。[Equation 7] -Step 4 Set t ← t + 1 and return to Step 2.

【0016】ここでα(t)は学習率と呼ばれ、学習結果
の収束を保証するために、通常、tの増加とともに減少
する関数が用いられ、初期値として1より十分小さな正
数が設定される。
Here, α (t) is called a learning rate, and in order to guarantee the convergence of the learning result, a function that decreases with increasing t is usually used, and a positive number sufficiently smaller than 1 is set as an initial value. To be done.

【0017】このアルゴリズムから分かるように、競合
学習アルゴリズムでは最近傍ベクトルのみが学習し、他
の代表ベクトルは前の値のままである。初期化した状態
では代表ベクトルの配置は最適化されてはいないから、
代表ベクトルのあるものはほとんど最近傍ベクトルとな
ることがなく、したがってこの代表ベクトルは学習され
ないということになる。このことを図2を用いて説明す
る。n次元の入力ベクトルの存在範囲すなわち信号存在
領域Xが、n次元空間Ωのなかで局在化し、さらに初期
化によって7個の代表ベクトルC1〜C7が生成し、この
うち4個の代表ベクトルC4〜C7のみが信号存在領域X
内に配置されたとする。すると、信号存在領域X外の代
表ベクトルC1〜C3は、学習の過程で最近傍ベクトルと
なる確率が極めて小さいので、学習が行なわれず、また
量子化に寄与することがない。したがって、信号存在領
域X内の4個の代表ベクトルC4〜C7だけによって量子
化が行なわれることになり、7個の代表ベクトルC1
7の全てを用いて量子化が行なわれる場合に比べ、平
均歪みが大きくなってしまう。
As can be seen from this algorithm, in the competitive learning algorithm, only the nearest neighbor vector is learned, and the other representative vectors have the previous values. In the initialized state, the arrangement of representative vectors is not optimized,
It means that some of the representative vectors are not the nearest neighbor vectors, and thus this representative vector is not learned. This will be described with reference to FIG. The existence range of the n-dimensional input vector, that is, the signal existence area X is localized in the n-dimensional space Ω, and further, seven representative vectors C 1 to C 7 are generated by the initialization, and four of them are represented. Only the vectors C 4 to C 7 are in the signal existence region X.
It is supposed to be placed inside. Then, the probability that the representative vectors C 1 to C 3 outside the signal existing region X become the nearest neighbor vectors in the learning process is extremely small, so that the learning is not performed and does not contribute to the quantization. Therefore, the quantization is performed only by the four representative vectors C 4 to C 7 in the signal existing region X, and the seven representative vectors C 1 to C 1
The average distortion becomes large as compared with the case where the quantization is performed using all of C 7 .

【0018】最近、この競合学習アルゴリズムにおける
平均歪みが大きくなる問題を解決するために、競合学習
アルゴリズムに"conscience mechanism;CM(良心機
構)"を付加する方法が提案されている。CMは一種の
罰金法であり、ある特定の代表ベクトルが頻繁に最近傍
ベクトルとならないようにする機構である。CMの具体
的実現方法はいくつか提案されており、その代表とし
て、Frequency SensitiveCompetitive Learning Algoru
thm;FSCL(頻度感応競合学習)アルゴリズム(S.
C. Ahalt, A. K. Krishnamurthy, P. Chen and D. E. M
elton, "Competitive learning algorithms for vector
quantizaition", Neural Networks, Vol.3, PP. 227-2
90, 1990)がある。このアルゴリズムは、上述の競合学
習アルゴリズムのステップ2における式(5)を以下のよ
うに修正する。
Recently, in order to solve the problem that the average distortion in the competitive learning algorithm becomes large, a method of adding a "conscience mechanism" (CM) to the competitive learning algorithm has been proposed. CM is a kind of fine method, and is a mechanism that prevents a certain representative vector from becoming the nearest neighbor vector frequently. Several concrete methods of realizing CM have been proposed, and as a representative of them, Frequency Sensitive Competitive Learning Algoru
thm; FSCL (Frequency Sensitive Competitive Learning) algorithm (S.
C. Ahalt, AK Krishnamurthy, P. Chen and DE M
elton, "Competitive learning algorithms for vector
quantizaition ", Neural Networks, Vol.3, PP. 227-2
90, 1990). This algorithm modifies equation (5) in step 2 of the competitive learning algorithm described above as follows.

【0019】[0019]

【数8】 ここでfi(t)は、入力(学習)ベクトルx(0),...,x
(t)による学習過程において、代表ベクトルmi(t)が最
近傍ベクトルになった頻度を表わす。競合学習法[式
(5)]においては入力ベクトルx(t)との歪みが最小であ
る代表ベクトルが最近傍ベクトルとして選択されるが、
FSCL法[式(7)]では、歪みが最小でない代表ベク
トルであっても、頻度が相対的に小さければ最近傍ベク
トルとなり得る。したがって、CMを付加したことによ
り、信号の存在しない領域に初期化された代表ベクトル
であっても、学習過程において次第にに信号領域に引き
付けられるようになる。その結果、全ての代表ベクトル
が量子化に寄与し、良好な量子化が実現できる。
[Equation 8] Where f i (t) is the input (learning) vector x (0), ..., x
In the learning process by (t), it represents the frequency at which the representative vector m i (t) becomes the nearest neighbor vector. Competitive learning method [expression
In (5)], the representative vector having the smallest distortion with the input vector x (t) is selected as the nearest neighbor vector.
In the FSCL method [Equation (7)], even a representative vector whose distortion is not minimum can be a nearest neighbor vector if the frequency is relatively small. Therefore, by adding CM, even a representative vector initialized in a signal-free area can be gradually attracted to the signal area in the learning process. As a result, all the representative vectors contribute to the quantization, and good quantization can be realized.

【0020】[0020]

【発明が解決しようとする課題】しかし、上述したFS
CLアルゴリズムで代表されるようなCMは、学習デー
タ(入力ベクトル)の存在するn次元ユークリッド空間
において、学習データの信号存在領域が複数存在し、こ
れらの信号存在領域が離れて配置されているような場合
には、限界がある。図3はこの限界を説明するための図
であり、簡単のために入力ベクトルが2次元である場合
を示している。
However, the above-mentioned FS
The CM represented by the CL algorithm has a plurality of signal existing regions of the learning data in the n-dimensional Euclidean space where the learning data (input vector) exists, and these signal existing regions are arranged to be separated from each other. In some cases, there are limits. FIG. 3 is a diagram for explaining this limit, and shows a case where the input vector is two-dimensional for simplification.

【0021】図において、学習データが2次元空間内の
2つの正方形の領域A,B内に一様に発生していると仮
定する。これら領域A,Bは十分に離れている。ここで
10個の代表ベクトルC1〜C10が初期化され、領域A
には2個の代表ベクトルC1,C2が、領域Bには8個の
代表ベクトルC3〜C10が配置されたとする。平均歪み
を最小にするための必要条件は、2つの領域A,Bでの
一様分布という仮定から、2つの領域A,Bのそれぞれ
に同数(5個)の代表ベクトルが割り付けられることで
ある。したがって学習過程において、3個の代表ベクト
ルが領域Bから領域Aに移動しなければならない。
In the figure, it is assumed that the learning data is uniformly generated in two square areas A and B in the two-dimensional space. These areas A and B are sufficiently separated. Here, the ten representative vectors C 1 to C 10 are initialized and the area A
Two representative vectors C 1 and C 2 are arranged in the area B, and eight representative vectors C 3 to C 10 are arranged in the area B. The necessary condition for minimizing the average distortion is that the same number (5) of representative vectors is assigned to each of the two areas A and B, assuming that the two areas A and B are uniformly distributed. . Therefore, in the learning process, three representative vectors must move from the area B to the area A.

【0022】ところが、代表ベクトルが領域Bから領域
Aに移動するためには、領域A内に発生した信号xに対
して領域B内の代表ベクトルが最近傍ベクトルとなる必
要がある。これは、上記の式(7)において、領域A内の
全ての代表ベクトル(mi,Aとする)に対して、次式を
満たす代表ベクトル(mj,Bとする)が領域B内に存在
しなければならないことを意味する。
However, in order for the representative vector to move from the area B to the area A, the representative vector in the area B needs to be the nearest vector to the signal x generated in the area A. This is because in the above formula (7), for all the representative vectors (m i, A ) in the region A, the representative vectors (m j, B ) satisfying the following formula are in the region B. Means that it must exist.

【0023】[0023]

【数9】 2つの領域A,B間での代表ベクトルの移動がなけれ
ば、学習の過程で、頻度の比:fi,A/fj,Bは一様分布
の仮定から各領域内の代表ベクトルの個数の逆比、すな
わちfi,A/fj,B≒8/2=4なる一定値、に漸近す
る。したがって、式(8)の成立は、d(x,mi,A)とd
(x,mj,B)のみで決まる。各領域A,Bのサイズに比べ
これら領域間の距離が十分大きいときには、d(x,mi,
A)≫d(x,mj,B)となるから、CMでは領域間で代表ベ
クトルを移動させることが原理的に不可能となる。さら
に上記の考察から容易に類推できるように、領域間の距
離が比較的小さい場合であっても、学習データの存在領
域間の代表ベクトルの移動個数はその初期配置に依存す
るから、CMでは、代表ベクトルの初期配置が量子化の
性能を大きく左右することになる。
[Equation 9] If there is no movement of the representative vector between the two areas A and B, the frequency ratio: f i, A / f j, B is the number of representative vectors in each area in the learning process from the assumption of uniform distribution. A reciprocal ratio of f i, A / f j, B ≈8 / 2 = 4. Therefore, the expression (8) is satisfied by d (x, m i, A ) and d
Determined only by (x, m j, B ). When the distance between the areas A and B is sufficiently larger than the size of the areas A and B, d (x, m i ,
Since A ) >> d (x, m j, B ), it is impossible in principle to move the representative vector between regions in CM. Further, as can be easily inferred from the above consideration, even when the distance between the regions is relatively small, the number of movements of the representative vector between the regions where the learning data exists depends on the initial arrangement thereof, and therefore in CM, The initial placement of the representative vector greatly affects the quantization performance.

【0024】全ての学習データが予め与えられていれ
ば、学習データの確率分布をなんらかの方法で推定する
ことにより、各領域ごとの代表ベクトルの初期配置個数
の最適値を求めることが可能である。しかし、適応量子
化ベクトルでは学習データが逐次的に与えられるので、
予め学習データの分布を推定することはできず、このよ
うな理想的な初期配置を行なうことは不可能である。
If all the learning data are given in advance, it is possible to obtain the optimum value of the initial arrangement number of representative vectors for each region by estimating the probability distribution of the learning data by some method. However, in the adaptive quantization vector, since the learning data is sequentially given,
The distribution of the learning data cannot be estimated in advance, and it is impossible to perform such ideal initial arrangement.

【0025】音声や画像のような高次元の特徴ベクトル
を扱う場合、それがどのような分布をするかはともかく
として、信号が高次元ベクトル空間上でいくつかの領域
に局在化していることは、経験的に知られている。した
がって、CMにおける上述した問題は、実用上、無視す
ることができない。
When handling a high-dimensional feature vector such as voice or image, the signal is localized in several regions in the high-dimensional vector space, regardless of the distribution of the feature vector. Is empirically known. Therefore, the above-mentioned problems in CM cannot be ignored in practical use.

【0026】本発明は、適応ベクトル量子化におけるコ
ードブック設計に際し、学習データがいくつかの領域に
局在化しているような場合であっても、任意の初期値が
割り当てられたコードワードに対して平均歪みをできる
だけ安定かつ小さくできる適応ベクトル量子化方法およ
び装置を提供することにある。
According to the present invention, when designing a codebook in adaptive vector quantization, even if the training data is localized in several areas, it is possible to use a codeword to which an arbitrary initial value is assigned. Another object of the present invention is to provide an adaptive vector quantization method and apparatus which can reduce average distortion as much as possible.

【0027】[0027]

【課題を解決するための手段】本発明の適応ベクトル量
子化方法は、予め有限個の代表ベクトルからなる集合が
用意され、時系列として逐次的に得られる入力ベクトル
の各々に対し前記入力ベクトルとの歪みが最小になる代
表ベクトルを前記集合の中から選択して最近傍ベクトル
とする選択工程と、前記最近傍ベクトルと前記歪みとに
基づいて前記集合内の代表ベクトルを逐次修正する修正
工程とを有する適応ベクトル量子化方法において、前記
選択工程では、前記各代表ベクトルの各々に対して、前
記最近傍ベクトルとして選択された頻度を測定し、前記
修正工程に、前記各代表ベクトルごとに当該ベクトルが
選択された頻度に応じて適応度を算出し前記適応度に応
じて当該代表ベクトルの複製を確率的に生成する第1の
工程と、前記第1の工程で生成した前記各複製にそれぞ
れ微小なランダムベクトルを加算して新たな代表ベクト
ルとし、前記各新たな代表ベクトルをもって新たな前記
集合とする第2の工程とが付加され、前記第1および第
2の工程が、前記入力ベクトルの提示累積個数が所定数
に達したときに実行される。
According to the adaptive vector quantization method of the present invention, a set consisting of a finite number of representative vectors is prepared in advance, and for each of the input vectors sequentially obtained as a time series, A representative vector having the smallest distortion of the set is selected from the set as a nearest neighbor vector, and a correction step of sequentially correcting the representative vector in the set based on the nearest neighbor vector and the distortion. In the adaptive vector quantization method having, in the selecting step, for each of the representative vectors, the frequency selected as the nearest neighbor vector is measured, and in the correcting step, the vector is calculated for each of the representative vectors. A first step of calculating the fitness in accordance with the selected frequency and stochastically generating a copy of the representative vector in accordance with the fitness; A second step of adding a minute random vector to each of the duplicates generated in the step to make a new representative vector, and making each of the new representative vectors the new set is added. The step 2 is executed when the presented cumulative number of input vectors reaches a predetermined number.

【0028】本発明の適応ベクトル量子化装置は、有限
個の代表ベクトルからなる集合を保持する集合記憶手段
と、時系列として逐次的に入力ベクトルが入力し前記入
力ベクトルとの歪みが最小になる代表ベクトルを前記集
合の中から選択して最近傍ベクトルとする選択手段と、
前記最近傍ベクトルに基づいて量子化結果を出力する量
子化手段と、前記最近傍ベクトルと前記歪みとに基づい
て前記集合内の代表ベクトルを逐次修正する修正手段と
を有する適応ベクトル量子化装置において、前記各代表
ベクトルの各々に対し、前記最近傍ベクトルとして選択
された頻度を記憶する頻度記憶手段を有し、前記修正手
段が、前記入力ベクトルの提示累積個数が所定数に達し
たときには、前記頻度記憶手段を参照し前記各代表ベク
トルごとに当該ベクトルが選択された頻度に応じて適応
度を算出し前記適応度に応じて当該代表ベクトルの複製
を確率的に生成し、生成した前記各複製にそれぞれ微小
なランダムベクトルを加算して新たな代表ベクトルと
し、前記各新たな代表ベクトルをもって新たな集合とし
て前記集合記憶手段に保持された集合を更新するもので
ある。
The adaptive vector quantizing device of the present invention has a set storing means for holding a set of a finite number of representative vectors, and input vectors are sequentially input as a time series so that distortion with the input vector is minimized. Selecting means for selecting a representative vector from the set as a nearest neighbor vector,
In an adaptive vector quantizer having a quantizing means for outputting a quantization result based on the nearest neighbor vector, and a modifying means for successively modifying a representative vector in the set based on the nearest neighbor vector and the distortion. For each of the representative vectors, a frequency storage unit that stores the frequency selected as the nearest neighbor vector is provided, and when the correction unit has reached a predetermined number of accumulated presentation numbers of the input vector, The fitness is calculated for each of the representative vectors by referring to the frequency storage means, the fitness is calculated according to the frequency, and a copy of the representative vector is stochastically generated according to the fitness, and each of the generated copies is generated. To a new representative vector by adding a minute random vector to the set storage means. It is intended to update the retained set.

【0029】[0029]

【作用】本発明の適応ベクトル量子化方法は、従来の競
合学習アルゴリズムでの代表ベクトルの逐次更新処理
に、代表ベクトルの"増殖(生成)"と"消滅"に基づいた
更新処理を付加したものである。すなわち、学習過程
で、各代表ベクトルが最近傍ベクトルとなった頻度を記
憶しておき、学習データ(入力ベクトル)の総数がある
値(T)になったとき、頻度の相対的な大小関係を基
に、"増殖"と"消滅"を行なって各代表ベクトルの複製を
作成し、同時に、得られた複製代表ベクトルにノルムの
小さなランダムベクトルを加算する。頻度が大きかった
代表ベクトルに対しては、頻度に応じた数の複数の複製
が作成されるようにし、頻度の小さかった代表ベクトル
に対しては、複製が生成しないようにする。このよう
な"増殖"と"消滅"過程を導入することにより、入力ベク
トルの存在領域が複数の空間領域に局在化しているよう
な場合であっても、後述するように、任意の初期化され
た代表ベクトルに対して、平均歪みをできるだけ安定か
つ小さくできるように、この代表ベクトルを更新できる
ようになる。
In the adaptive vector quantization method of the present invention, the update process based on "proliferation (generation)" and "disappearance" of the representative vector is added to the sequential update process of the representative vector in the conventional competitive learning algorithm. Is. That is, in the learning process, the frequency at which each representative vector becomes the nearest neighbor vector is stored, and when the total number of learning data (input vectors) reaches a certain value (T), the relative magnitude relation of the frequencies is shown. Based on this, "reproduction" and "disappearance" are performed to create a duplicate of each representative vector, and at the same time, a random vector with a small norm is added to the obtained duplicate representative vector. For a representative vector with a high frequency, a plurality of replicas corresponding to the frequency are created, and for a representative vector with a low frequency, no replica is generated. By introducing such "growth" and "disappearance" processes, even if the existence region of the input vector is localized in multiple spatial regions, as described below, any initialization is performed. This representative vector can be updated so that the average distortion can be made as stable and small as possible.

【0030】この場合、代表ベクトルの複製作成処理は
確率的に行なわれる。また、通常の場合、代表ベクトル
の総数は複製前後で変化させないようにし、また再配置
された代表ベクトルに対しては、入力学習データの累積
総数がある値になるまでは、従来の逐次更新処理を適用
する。そして、前記のある値に達した時点で、本発明の
増殖・消滅に基づく更新処理を行なうようにする。それ
以降は、上記処理を繰り返して実行する。
In this case, the representative vector copy creation process is performed stochastically. Also, in the normal case, the total number of representative vectors should not be changed before and after the duplication, and for the rearranged representative vectors, the conventional sequential update processing should be performed until the accumulated total number of input learning data reaches a certain value. Apply. Then, when the above-mentioned certain value is reached, the updating process based on multiplication / disappearance of the present invention is performed. After that, the above processing is repeatedly executed.

【0031】以下、本発明についてさらに詳細に説明す
る。
The present invention will be described in more detail below.

【0032】任意に初期配置された代表ベクトルは、一
般に、学習の過程で最近傍ベクトルとなったときのみ更
新される。入力ベクトルの分布(信号分布)が1つの連
続した領域内にのみにとどまる場合、上述のように、十
分に学習させることによって、各代表ベクトルは最適配
置に漸近する。このとき、代表ベクトル側から見れば、
信号分布の密(疎)な部分にはより多数(少数)の代表
ベクトルが配置しているので、各代表ベクトルがそれぞ
れ等しい頻度で最近傍ベクトルになっていると考えられ
る。
In general, the arbitrarily-represented representative vector is updated only when it becomes the nearest vector in the learning process. When the distribution of the input vector (signal distribution) stays within only one continuous region, each representative vector asymptotically approaches the optimal arrangement by sufficiently learning as described above. At this time, from the representative vector side,
Since a larger number (small number) of representative vectors are arranged in the dense (sparse) part of the signal distribution, it is considered that each representative vector becomes the nearest neighbor vector with equal frequency.

【0033】ところで、信号分布が離れた場所の複数の
領域に局在化している場合には、各領域内での代表ベク
トルの個数に偏りを生じる。上述したように従来のアル
ゴリズムでは、この偏りを解消することは困難である。
一方、本発明では、入力ベクトルの累積総数がある数に
達した時点で、増殖・消滅処理により頻度の相対的な大
小関係に基づいて代表ベクトルの複製が作られるから、
ある代表ベクトルが相対的に頻繁(稀)に最近傍ベクト
ルになっているとき、その代表ベクトルの近傍にはより
多数(少数)の複製が作られることになる。マクロ的に
みると、この複製作成過程は代表ベクトルが信号空間に
あで瞬間的に大きく移動したことと等価であり、信号分
布の連続・不連続に関わらず、代表ベクトルを最適な位
置に移動させることが可能となる。
By the way, when the signal distribution is localized in a plurality of regions at distant locations, the number of representative vectors in each region is biased. As described above, it is difficult for the conventional algorithm to eliminate this bias.
On the other hand, in the present invention, when the cumulative total number of input vectors reaches a certain number, the representative vector is duplicated based on the relative magnitude relation of the frequencies by the multiplication / disappearance process.
When a representative vector becomes the nearest neighbor vector relatively frequently (rarely), a larger number (small number) of duplicates will be created in the vicinity of the representative vector. From a macro point of view, this replication process is equivalent to a large movement of the representative vector in the signal space instantaneously, and the representative vector is moved to the optimum position regardless of whether the signal distribution is continuous or discontinuous. It becomes possible.

【0034】本発明では、再配置された代表ベクトルに
対しては、入力学習データの累積総数がある値になるま
では、従来の逐次更新処理を適用し、そして入力データ
の累積個数がある値に達した再び増殖・消滅に基づく更
新処理を行ない、以降この処理を繰り返すので、処理を
継続して実行しているうちに、代表ベクトルに対する最
近傍ベクトルとして選択されたことの頻度の分散は次第
に小さくなり、代表ベクトルは最適配置に漸近する。
In the present invention, the conventional sequential update process is applied to the rearranged representative vector until the cumulative total number of input learning data reaches a certain value, and the cumulative number of input data reaches a certain value. Since the update process based on the multiplication / disappearance is reached again, and this process is repeated thereafter, the variance of the frequency of being selected as the nearest neighbor vector to the representative vector gradually increases while the process is continuously executed. It becomes smaller, and the representative vector approaches the optimal arrangement.

【0035】一般に、分布の連続・不連続に関わらず最
適に量子化が行なわれているということは、各代表ベク
トルが等しい頻度で最近傍ベクトルになることと同値で
ある。したがって、本発明に示された処理を行なうこと
により、最適もしくはそれに十分近い量子化が達成され
ることになる。
In general, optimum quantization regardless of whether the distribution is continuous or discontinuous is equivalent to the fact that each representative vector becomes the nearest neighbor vector with equal frequency. Therefore, by performing the processing shown in the present invention, optimum or sufficiently close quantization is achieved.

【0036】[0036]

【実施例】次に本発明に実施例について図面を参照して
説明する。図4は本発明の一実施例の適応ベクトル量子
化装置の構成を示すブロック図である。この適応ベクト
ル量子化装置は、入力した入力ベクトルを量子化して結
果を出力する量子化部1、コードブック3を有する代表
ベクトル保持部2、入力した入力ベクトルを一定周期で
サンプリングして学習データとして出力する学習データ
作成部4、歪計算部5、頻度テーブル7を内蔵した修正
部6とによって構成されている。ここでコードブック3
は、予め定められた数Lの代表ベクトルを保持するもの
であり、ぞの構成は図5に示す通りのものである。すな
わち、各代表ベクトルごとにそのID(識別番号)とそ
のベクトルのベクトル値(ベクトルの座標値、例えばn
次元の代表ベクトルmiに対して(ai,bi,...,ni))と
を格納している。また歪計算部5は、学習データ作成部
4からの入力ベクトルとコードブック3に格納された代
表ベクトルの各々との歪み(例えば距離)を計算し、歪
みが最も小さい代表ベクトルを最近傍ベクトルとし、そ
のベクトルのIDを修正部6と量子化部1とに送出する
よう構成されている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, embodiments of the present invention will be described with reference to the drawings. FIG. 4 is a block diagram showing the configuration of an adaptive vector quantization device according to an exemplary embodiment of the present invention. This adaptive vector quantization device includes a quantization unit 1 that quantizes an input vector that is input and outputs a result, a representative vector holding unit 2 that includes a codebook 3, a sample of the input vector that has been input at regular intervals, and as learning data. It is composed of a learning data creation unit 4 for outputting, a distortion calculation unit 5, and a correction unit 6 incorporating a frequency table 7. Codebook 3 here
Holds a predetermined number L of representative vectors, and the configuration thereof is as shown in FIG. That is, for each representative vector, its ID (identification number) and the vector value of that vector (the coordinate value of the vector, for example, n
(A i , b i , ..., N i )) and are stored for the dimensional representative vector m i . Further, the distortion calculation unit 5 calculates the distortion (for example, distance) between the input vector from the learning data creation unit 4 and each of the representative vectors stored in the codebook 3, and sets the representative vector with the smallest distortion as the nearest neighbor vector. , The ID of the vector is sent to the correction unit 6 and the quantization unit 1.

【0037】頻度テーブル7は、図6に示すように、各
代表ベクトルごとにそのIDと最近傍ベクトルとして選
択された頻度とを格納する。修正部6は、歪計算部5か
ら代表ベクトルのIDが送られてきた場合に、入力ベク
トルの数をカウント(累積)するともに、頻度テーブル
7中のそのIDに対応する頻度に1を加算するよう構成
されている。そして修正部6は、入力数がある値になっ
たとき、頻度テーブル7に記憶された頻度にしたがっ
て、各代表ベクトルごとに適応度を算出し、適応度に
したがって各代表ベクトルの複製を生成し、複製された
代表ベクトルにノルムが微小なランダムベクトルを加算
し、得られた代表ベクトル群をもってコードブック3を
書き換え、頻度テーブル7を初期化(各頻度を0にす
る)し、次回に複製生成処理を行なうこととなる(入
力ベクトルの)累積数に前記ある値を書き換える、よう
に構成されている。さらに、修正部6は、入力ベクトル
の累積数が前記ある値以外の場合には、従来の手法
[「従来の技術」欄の式(6)]にしたがって、最近傍ベ
クトルとなった代表ベクトルを更新するように構成され
ている。ここで適応度とは、頻度の相対的な大小関係の
ことを示している。
As shown in FIG. 6, the frequency table 7 stores the ID of each representative vector and the frequency selected as the nearest neighbor vector. When the ID of the representative vector is sent from the distortion calculation unit 5, the correction unit 6 counts (accumulates) the number of input vectors and adds 1 to the frequency corresponding to the ID in the frequency table 7. Is configured. Then, when the number of inputs reaches a certain value, the correction unit 6 calculates the fitness for each representative vector according to the frequency stored in the frequency table 7, and generates a duplicate of each representative vector according to the fitness. , A random vector with a small norm is added to the duplicated representative vector, the codebook 3 is rewritten with the obtained representative vector group, the frequency table 7 is initialized (each frequency is set to 0), and the duplicate is generated next time. The certain value is rewritten to the cumulative number (of the input vector) to be processed. Further, when the cumulative number of input vectors is other than the certain value, the correction unit 6 determines the representative vector that has become the nearest neighbor vector according to the conventional method [Equation (6) in the “Conventional Technology” column]. It is configured to update. Here, the fitness indicates a relative magnitude relationship between frequencies.

【0038】次に、本実施例の動作を図7のフローチャ
ートを用いて説明する。この動作は、本発明の方法に基
づくものである。
Next, the operation of this embodiment will be described with reference to the flowchart of FIG. This operation is based on the method of the present invention.

【0039】コードブック3には、予め定められた数
(例えばL個)の代表ベクトルが、乱数で初期化されて
記憶されている。
In the codebook 3, a predetermined number (for example, L) of representative vectors are initialized by random numbers and stored.

【0040】入力ベクトルが入力すると、その入力ベク
トルは、量子化部1と学習データ作成部4とに送られ、
学習データ作成部4で一定周期ごとにサンプリングさ
れ、学習データx(t)として歪計算部5に送られる。歪
計算部5は、コードブック3内の代表ベクトルmi(1
≦i≦L)のそれぞれと入力した学習データx(t)との
歪みを例えば「従来の技術」欄で式(5)で説明した方法
によって計算し、この歪みが一番小さい代表ベクトルを
最近傍ベクトルmcとして決定し(ステップ101)、
その代表ベクトルのIDを量子化部1と修正部6とに送
出する。量子化部1は、送られてきたIDに基づいて、
量子化データを外部に出力する。
When an input vector is input, the input vector is sent to the quantizer 1 and the learning data generator 4,
The learning data creation unit 4 samples the data at regular intervals and sends it to the distortion calculation unit 5 as learning data x (t). The distortion calculation unit 5 uses the representative vector m i (1
≦ i ≦ L) and the distortion of the input learning data x (t) are calculated, for example, by the method described in the formula (5) in the “Prior art” section, and the representative vector having the smallest distortion is It is determined as the side vector m c (step 101),
The ID of the representative vector is sent to the quantization unit 1 and the correction unit 6. The quantizer 1 uses the sent ID to
Output the quantized data to the outside.

【0041】一方、修正部6は、入力ベクトルの累積数
tをカウントしており、tがある値Tと一致しているか
どうかをまず調べる(ステップ102)。t≠Tである
場合には、頻度テーブル7の入力したIDに対応する対
応する頻度fcに1を加算し(ステップ103)、「従
来の技術」で式(6)でしめした方法により、その最近傍
ベクトルmcに対応する代表ベクトルを修正・更新して
コードブック3に格納する(ステップ104)。
On the other hand, the correction section 6 counts the cumulative number t of input vectors, and first checks whether t matches a certain value T (step 102). When t ≠ T, 1 is added to the corresponding frequency f c corresponding to the input ID in the frequency table 7 (step 103), and the method described in Formula (6) in “Prior Art” is used. The representative vector corresponding to the nearest neighbor vector m c is modified / updated and stored in the codebook 3 (step 104).

【0042】一方、ステップ102でt=Tであった場
合、修正部6は頻度テーブル7を参照して、各代表ベク
トルごとの頻度fi(1≦i≦L)を正規化する(ステ
ップ105)。この正規化は、次式にしたがって行なわ
れる。
On the other hand, if t = T in step 102, the correction unit 6 refers to the frequency table 7 and normalizes the frequency f i (1 ≦ i ≦ L) for each representative vector (step 105). ). This normalization is performed according to the following equation.

【0043】[0043]

【数10】 続いて修正部6は、実数からなる区間[0,1]をステ
ップ105で得られた正規化頻度
[Equation 10] Then, the correction unit 6 sets the interval [0, 1] consisting of real numbers to the normalization frequency obtained in step 105.

【0044】[0044]

【外1】 により、分割する。これにより、区間[0,1]は長さ
が頻度fiに比例したL個の部分区間(s1,s2,...,
3)に分割される。続いて各代表ベクトルに対する複
製個数(giとする)を初期化する(gi=0,i=
1,...,L)。そして区間[0,1]に対する一様乱数を
L個発生させ、その各々の乱数(∈[0,1])に対し、
上述の部分区間(si=0,i=1,...,L)のどの区間
に属するかを判定する。例えばsjに属する場合、その
区間に対応する複製個数に1を加算する(gi←gi
1)。これにより、代表ベクトルmiの複製後の個数が
前記頻度fiに確率的に比例して得られることになる。
明らかに
[Outer 1] To divide. As a result, the section [0,1] has L subsections (s 1 , s 2 , ..., L) whose length is proportional to the frequency f i .
s 3 ). Then initialize the replication number (and g i) for each representative vector (g i = 0, i =
1, ..., L). Then, L uniform random numbers are generated for the interval [0, 1], and for each random number (∈ [0, 1]),
It is determined to which of the above-mentioned partial sections (s i = 0, i = 1, ..., L) belong. For example, if it belongs to s j , 1 is added to the number of copies corresponding to the section (g i ← g i +
1). As a result, the number of representative vectors m i after duplication is obtained in proportion to the frequency f i .
clearly

【0045】[0045]

【数11】 が成立するから、複製後の代表ベクトルの総数は複製前
と変らない。そして、各代表ベクトルmiごとに、その
代表ベクトルmiに対する複製個数giだけの複製の代表
ベクトルを作成する(ステップ106)。この時点で
は、複製された代表ベクトルと対応するもとの代表ベク
トルとは同じである。
[Equation 11] Therefore, the total number of representative vectors after replication is the same as before replication. Then, for each representative vector m i , the representative vectors of the duplications g i corresponding to the representative vector m i are created (step 106). At this point, the duplicate representative vector and the corresponding original representative vector are the same.

【0046】次に、複製された各代表ベクトルに対し、
以下の式によって微小なノルムのランダムベクトルをそ
れぞれ加算して、新たな代表ベクトルを設定する(ステ
ップ108)。ここでεi(t)∈Rnは、ノルムの微小な
ランダムベクトルである。
Next, for each duplicated representative vector,
A small norm random vector is added by the following formula to set a new representative vector (step 108). Here, ε i (t) εR n is a small random vector of norm.

【0047】[0047]

【数12】 以上のステップ105〜ステップ107によって、各代
表ベクトルに近傍に、前記頻度に比例した複製が確率的
に配置されるから、この新たに生成した複製m * iでもっ
て、コードブック3全体を更新する(ステップ10
8)。
[Equation 12]By the above steps 105 to 107,
In the vicinity of the table vector, the copy proportional to the frequency is stochastic.
The newly created duplicate m * iSo
And update the entire codebook 3 (step 10
8).

【0048】そして、修正部6は、全代表ベクトルに対
して頻度テーブル7を初期化し(ステップ109)、上
述の値Tに2Tを代入して(ステップ110)、処理を
終了する。ここでTに2Tを代入したことにより、入力
ベクトルの累積個数が2Tに達した時点で再び上記のス
テップ105〜ステップ110が行なわれることにな
る。
Then, the correction section 6 initializes the frequency table 7 for all the representative vectors (step 109), substitutes 2T for the above-mentioned value T (step 110), and ends the processing. By substituting 2T for T, the above steps 105 to 110 are performed again when the cumulative number of input vectors reaches 2T.

【0049】ここで、複製過程について、実例を挙げて
説明する。ここでは、代表ベクトルの数が7個であっ
て、学習データの入力数が100回のときに頻度から適
応度を求めて複製を作る場合の処理を取り上げる。例え
ば、この時点で7個の代表ベクトルmi(1≦i≦7)
のそれぞれの頻度fiが図8の(A)に示すものであったと
する。これに対する新たな代表ベクトルm* iが図8の
(B)に示されている。頻度が0であった代表ベクトル
3,m4,m7に対しては複製が作成されず、頻度が40
回の一番多かった代表ベクトルm1に対しては3個の複
製が作成されていることがわかる。
Here, the duplication process will be described with reference to an actual example. Here, the process in the case where the number of representative vectors is 7 and the number of inputs of learning data is 100 and the fitness is calculated from the frequency to make a duplicate will be described. For example, at this point, seven representative vectors m i (1 ≦ i ≦ 7)
It is assumed that the respective frequencies f i of the above are shown in FIG. The new representative vector m * i for this is shown in FIG.
Shown in (B). No replication is created for the representative vectors m 3 , m 4 , m 7 whose frequency is 0, and the frequency is 40.
It can be seen that three replicas are created for the representative vector m 1 which has the largest number of times.

【0050】次に、同一の学習データに対する代表ベク
トルの学習過程について、本実施例の方法を用いた場合
と従来の方法を用いた場合とを比較した結果を説明す
る。図9は本実施例による代表ベクトルの学習過程を入
力データの累積数に応じて示したものであり、図10は
従来の方法について同様の過程を示したものである。図
において角点はそれぞれ代表ベクトルを示し、tは入力
データの累積総数を示す。ここでは、2次元空間上の面
積の等しい2つの正方形の領域A,B内に学習データを
一様分布で発生させ、代表ベクトルの総数(L)は18
個とした。そして、初期条件において、各代表ベクトル
は、図示下側の領域Bのある位置に設定した。したがっ
てこの場合、最適な量子化を達成するためには、2つの
領域A,Bにそれぞれ9個ずつの代表ベクトルが配置さ
れること(図示下側の領域Bから図示上側の領域Aに9
個の代表ベクトルが移動すること)が必要条件となる。
Next, the result of comparison between the case of using the method of the present embodiment and the case of using the conventional method in the learning process of the representative vector for the same learning data will be described. FIG. 9 shows the learning process of the representative vector according to the present embodiment according to the cumulative number of input data, and FIG. 10 shows the same process for the conventional method. In the figure, each corner point represents a representative vector, and t represents the cumulative total number of input data. Here, the learning data is generated in a uniform distribution in two square regions A and B having the same area in the two-dimensional space, and the total number (L) of representative vectors is 18
I made it into an individual. Then, under the initial condition, each representative vector was set at a position in the area B on the lower side of the drawing. Therefore, in this case, in order to achieve optimum quantization, nine representative vectors should be arranged in each of the two areas A and B (from the lower area B in the figure to the upper area A in the figure,
The movement of individual representative vectors is a necessary condition.

【0051】従来の方法による図10では、t=400
以降、代表ベクトルの領域間の移動がなく、各領域内で
の移動(学習)のみとなっている。そして、各領域間で
の代表ベクトルの個数も5個と13個で固定されてい
る。一方、本実施例による図9では、まずある代表ベク
トルが図示上側の領域に移動し(例えばt=20からt
=80の間)、上部領域で"複製"が生成され(例えばt
=300を参照)、以後、"増殖"と"消滅"を何回か繰り
返したのち、両方の領域に9個ずつの代表ベクトルが配
置されていき、最終的に所望の量子化が実現されてい
る。
In the conventional method shown in FIG. 10, t = 400.
After that, there is no movement of the representative vector between areas, and only movement (learning) within each area. The number of representative vectors between the regions is fixed at 5 and 13. On the other hand, in FIG. 9 according to the present embodiment, first, a certain representative vector moves to the upper area in the drawing (for example, from t = 20 to t).
= 80), a "duplicate" is generated in the upper area (eg t
= 300), and after that, "proliferation" and "disappearance" are repeated several times, and then nine representative vectors are placed in both areas, and finally the desired quantization is realized. There is.

【0052】[0052]

【発明の効果】以上説明したように本発明は、従来のア
ルゴリズムでの代表ベクトルの逐次更新処理に、代表ベ
クトルの"増殖(生成)"と"消滅"に基づいた更新処理を
付加することにより、入力する学習データの確率分布が
複数の領域に局在化しているような場合であっても、初
期値にほとんど依存することなく、かつ最適もしくは十
分にそれに近い学習結果が得られ、良好なベクトル量子
化を実現できるという効果がある。
As described above, according to the present invention, the updating process based on the "proliferation (generation)" and "disappearance" of the representative vector is added to the sequential updating process of the representative vector in the conventional algorithm. , Even if the probability distribution of the input learning data is localized in multiple regions, the learning result is almost independent of the initial value, and the optimal or sufficiently close learning result is obtained. There is an effect that vector quantization can be realized.

【図面の簡単な説明】[Brief description of drawings]

【図1】ベクトル量子化の原理を説明するための模式図
である。
FIG. 1 is a schematic diagram for explaining the principle of vector quantization.

【図2】信号存在領域と代表ベクトルとの関係を示す図
である。
FIG. 2 is a diagram showing a relationship between a signal existing area and a representative vector.

【図3】信号の存在する領域が2つある場合の、領域と
代表ベクトルとの関係を示す図である。
FIG. 3 is a diagram showing a relationship between a region and a representative vector when there are two regions where a signal exists.

【図4】本発明の一実施例の適応ベクトル量子化装置の
構成を示すブロック図である。
FIG. 4 is a block diagram showing a configuration of an adaptive vector quantization device according to an exemplary embodiment of the present invention.

【図5】コードブックの構成例を示す図である。FIG. 5 is a diagram showing a configuration example of a codebook.

【図6】頻度テーブルの構成例を示す図である。FIG. 6 is a diagram showing a configuration example of a frequency table.

【図7】図4の装置の動作を説明するフローチャートで
ある。
FIG. 7 is a flowchart illustrating the operation of the apparatus of FIG.

【図8】代表ベクトルの複製過程を説明する図である。FIG. 8 is a diagram illustrating a replication process of a representative vector.

【図9】本発明の方法による代表ベクトルの適応化の状
況を示す図である。
FIG. 9 is a diagram showing a situation of adaptation of a representative vector according to the method of the present invention.

【図10】従来の方法による代表ベクトルの適応化の状
況を示す図である。
FIG. 10 is a diagram showing a situation of adaptation of a representative vector by a conventional method.

【符号の説明】[Explanation of symbols]

1 量子化部 2 代表ベクトル保持部 3 コードブック 4 学習データ作成部 5 歪計算部 6 修正部 7 頻度テーブル 101〜110 ステップ A,B 領域 Ci,mi 代表ベクトル fi 頻度 εi ランダムベクトル Ω n次元空間1 quantization part 2 representative vector holding part 3 codebook 4 learning data creation part 5 distortion calculation part 6 correction part 7 frequency table 101-110 steps A, B area C i , m i representative vector f i frequency ε i random vector Ω n-dimensional space

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/13 Z ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 5 Identification code Office reference number FI technical display location H04N 7/13 Z

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 予め有限個の代表ベクトルからなる集合
が用意され、時系列として逐次的に得られる入力ベクト
ルの各々に対し前記入力ベクトルとの歪みが最小になる
代表ベクトルを前記集合の中から選択して最近傍ベクト
ルとする選択工程と、前記最近傍ベクトルと前記歪みと
に基づいて前記集合内の代表ベクトルを逐次修正する修
正工程とを有する適応ベクトル量子化方法において、 前記選択工程では、前記各代表ベクトルの各々に対し
て、前記最近傍ベクトルとして選択された頻度を測定
し、 前記修正工程に、前記各代表ベクトルごとに当該ベクト
ルが選択された頻度に応じて適応度を算出し前記適応度
に応じて当該代表ベクトルの複製を確率的に生成する第
1の工程と、前記第1の工程で生成した前記各複製にそ
れぞれ微小なランダムベクトルを加算して新たな代表ベ
クトルとし、前記各新たな代表ベクトルをもって新たな
前記集合とする第2の工程とが付加され、 前記第1および第2の工程が、前記入力ベクトルの提示
累積個数が所定数に達したときに実行されることを特徴
とする適応ベクトル量子化方法。
1. A set of a finite number of representative vectors is prepared in advance, and for each of the input vectors that are sequentially obtained as a time series, a representative vector that minimizes distortion with the input vector is selected from the set. In an adaptive vector quantization method having a selecting step of selecting a nearest neighbor vector, and a modifying step of sequentially modifying a representative vector in the set based on the nearest neighbor vector and the distortion, in the selecting step, For each of the representative vectors, the frequency selected as the nearest neighbor vector is measured, and in the correction step, the fitness is calculated according to the frequency with which the vector is selected for each of the representative vectors. A first step of stochastically generating a copy of the representative vector according to the fitness, and a minute lander for each of the copies generated in the first step. A second step of adding the vectors to make a new representative vector and making each of the new representative vectors into a new set, the first and second steps being the accumulated cumulative number of input vectors. The adaptive vector quantization method is characterized in that the adaptive vector quantization method is executed when a predetermined number is reached.
【請求項2】 第1の工程において各代表ベクトルごと
に生成される複製の数が当該代表ベクトルが選択された
頻度に比例した数に確率的な処理を施したものであり、
前記複製の総数が第1の工程を行なう前の代表ベクトル
の数に等しいものである請求項1に記載の適応ベクトル
量子化方法。
2. The number of copies generated for each representative vector in the first step is probabilistically processed to a number proportional to the frequency with which the representative vector is selected.
The adaptive vector quantization method according to claim 1, wherein the total number of the duplicates is equal to the number of representative vectors before the first step.
【請求項3】 有限個の代表ベクトルからなる集合を保
持する集合記憶手段と、時系列として逐次的に入力ベク
トルが入力し前記入力ベクトルとの歪みが最小になる代
表ベクトルを前記集合の中から選択して最近傍ベクトル
とする選択手段と、前記最近傍ベクトルに基づいて量子
化結果を出力する量子化手段と、前記最近傍ベクトルと
前記歪みとに基づいて前記集合内の代表ベクトルを逐次
修正する修正手段とを有する適応ベクトル量子化装置に
おいて、 前記各代表ベクトルの各々に対し、前記最近傍ベクトル
として選択された頻度を記憶する頻度記憶手段を有し、 前記修正手段が、前記入力ベクトルの提示累積個数が所
定数に達したときには、前記頻度記憶手段を参照し前記
各代表ベクトルごとに当該ベクトルが選択された頻度に
応じて適応度を算出し前記適応度に応じて当該代表ベク
トルの複製を確率的に生成し、生成した前記各複製にそ
れぞれ微小なランダムベクトルを加算して新たな代表ベ
クトルとし、前記各新たな代表ベクトルをもって新たな
集合として前記集合記憶手段に保持された集合を更新す
るものであることを特徴とする適応ベクトル量子化装
置。
3. A set storage means for holding a set consisting of a finite number of representative vectors, and a representative vector from which the input vector is sequentially input as a time series and distortion with the input vector is minimized. Selecting means for selecting the nearest neighbor vector, quantizing means for outputting a quantization result based on the nearest neighbor vector, and sequentially modifying the representative vector in the set based on the nearest neighbor vector and the distortion In the adaptive vector quantization device having a correction means for performing, for each of the respective representative vectors, a frequency storage means for storing the frequency selected as the nearest neighbor vector, and the correction means, When the number of accumulated presentations reaches a predetermined number, the frequency storage means is referred to and an appropriate value is selected for each of the representative vectors according to the selected frequency. Degree is calculated and a replica of the representative vector is stochastically generated according to the fitness, and a small random vector is added to each of the generated replicas to obtain a new representative vector. An adaptive vector quantizing device for updating the set held in the set storage means as a new set.
JP29460892A 1992-11-02 1992-11-02 Method for adaptively quantizing vector and device therefor Pending JPH06152430A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29460892A JPH06152430A (en) 1992-11-02 1992-11-02 Method for adaptively quantizing vector and device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29460892A JPH06152430A (en) 1992-11-02 1992-11-02 Method for adaptively quantizing vector and device therefor

Publications (1)

Publication Number Publication Date
JPH06152430A true JPH06152430A (en) 1994-05-31

Family

ID=17809966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29460892A Pending JPH06152430A (en) 1992-11-02 1992-11-02 Method for adaptively quantizing vector and device therefor

Country Status (1)

Country Link
JP (1) JPH06152430A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225749A (en) * 1994-02-14 1995-08-22 Nec Corp Data sorting device
JPH09214350A (en) * 1996-02-01 1997-08-15 Matsushita Electric Ind Co Ltd Vector quantizing method
WO2008047795A1 (en) * 2006-10-17 2008-04-24 Panasonic Corporation Vector quantization device, vector inverse quantization device, and method thereof
US7453936B2 (en) 2001-11-09 2008-11-18 Sony Corporation Transmitting apparatus and method, receiving apparatus and method, program and recording medium, and transmitting/receiving system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225749A (en) * 1994-02-14 1995-08-22 Nec Corp Data sorting device
JPH09214350A (en) * 1996-02-01 1997-08-15 Matsushita Electric Ind Co Ltd Vector quantizing method
US7453936B2 (en) 2001-11-09 2008-11-18 Sony Corporation Transmitting apparatus and method, receiving apparatus and method, program and recording medium, and transmitting/receiving system
US7817863B2 (en) 2001-11-09 2010-10-19 Sony Corporation Transmitting apparatus and method, receiving apparatus and method, program and recording medium, and transmitting/receiving system
US8014635B2 (en) 2001-11-09 2011-09-06 Sony Corporation Transmitting apparatus and method, receiving apparatus and method, program and recording medium, and transmitting/receiving system
WO2008047795A1 (en) * 2006-10-17 2008-04-24 Panasonic Corporation Vector quantization device, vector inverse quantization device, and method thereof

Similar Documents

Publication Publication Date Title
Liu et al. Frequency-domain dynamic pruning for convolutional neural networks
CN107516129B (en) Dimension self-adaptive Tucker decomposition-based deep network compression method
Nasrabadi et al. Vector quantization of images based upon the Kohonen self-organizing feature maps
KR0154739B1 (en) Fractal image compression device and method
Hofmann et al. Competitive learning algorithms for robust vector quantization
Amar et al. Wavelet networks approach for image compression
Bogdan et al. Kohonen neural network for image coding based on iteration transformation theory
JPH06152430A (en) Method for adaptively quantizing vector and device therefor
Ahalt et al. Performance analysis of two image vector quantization techniques
Martinez et al. Generalized boundary adaptation rule for minimizing rth power law distortion in high resolution quantization
JP3203609B2 (en) Vector quantizer design method and vector quantizer
Cheng et al. Robust zero-redundancy vector quantization for noisy channels
Mahmoud et al. Learning algorithm effect on multilayer feed forward artificial neural network performance in image coding
Nasrabadi et al. Vector quantization of images based upon a neural-network clustering algorithm
Sun et al. A modified Hopfield neural network used in bilevel image restoration and reconstruction
Maeda et al. An adaptive learning and self-deleting neural network for vector quantization
Ahalt et al. Vector quantization using artificial neural network models
Rios et al. Image compression with a dynamic autoassociative neural network
JPH02299081A (en) Texture analysis and analyzer
Rizvi et al. Finite-state residual vector quantization using a tree-structured competitive neural network
Chang et al. Image data compression using counterpropagation network
Lightstone et al. Locally optimal codebook design for quadtree-based vector quantization
Nguyen et al. Concentric-shell partition vector quantization with application to image coding
Durai et al. Image mapping with cumulative distribution function for quick convergence of counter propagation neural networks in image compression
Li et al. Fast image vector quantization using a modified competitive learning neural network approach