JPH08316842A - Representative vector generating system and method for vector quantization - Google Patents

Representative vector generating system and method for vector quantization

Info

Publication number
JPH08316842A
JPH08316842A JP13991295A JP13991295A JPH08316842A JP H08316842 A JPH08316842 A JP H08316842A JP 13991295 A JP13991295 A JP 13991295A JP 13991295 A JP13991295 A JP 13991295A JP H08316842 A JPH08316842 A JP H08316842A
Authority
JP
Japan
Prior art keywords
vector
representative
representative vector
vectors
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP13991295A
Other languages
Japanese (ja)
Other versions
JP3254109B2 (en
Inventor
Toshiro Uchiyama
俊郎 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
N T T DATA TSUSHIN KK
NTT Data Corp
Original Assignee
N T T DATA TSUSHIN KK
NTT Data Communications Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by N T T DATA TSUSHIN KK, NTT Data Communications Systems Corp filed Critical N T T DATA TSUSHIN KK
Priority to JP13991295A priority Critical patent/JP3254109B2/en
Publication of JPH08316842A publication Critical patent/JPH08316842A/en
Application granted granted Critical
Publication of JP3254109B2 publication Critical patent/JP3254109B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PURPOSE: To prepare a representative vector minimizing an expected value of a distortion error by providing a specific representative vector initializing means, a specific contention learning means and a specific new representative vector generating means to the system. CONSTITUTION: A representative vector initializing means generates initially a representative vector having a value equal to an input vector selected at first at random to start processing. In the processing, a contention learning means learns contention of a representative vector having been already generated based on the input vector read sequentially. Every time the contention learning is repeated for a prescribed number of times, a new representative vector generating means calculates the total sum of distortion errors for all input vectors and their representative vectors in a dominant area of each representative vector, selects a representative vector with the highest sum and generates one new representative vector or over with the same vector value as the representative vector. Then the new representative vector is added as an object of the contention learning and the contention learning is repeated for the object.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像や音声等の情報圧
縮、画像の領域分割、画像の階調変更、パターン認識等
に適用されるベクトル量子化のための代表ベクトル生成
方式及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a representative vector generation method and method for vector quantization applied to information compression of images and voices, image region division, image gradation change, pattern recognition and the like. .

【0002】[0002]

【従来の技術】画像、音声などの様々な波形データなど
に対し、ベクトル量子化によりデータ圧縮を行って、デ
ータ蓄積や伝送の効率を高めたり、音声データをベクト
ル量子化によって代表的な音韻スペクトルパターンに変
換することにより音声認識を行うなど、ベクトル量子化
は様々な分野で利用されている。
2. Description of the Related Art For various waveform data such as images and voices, data compression is performed by vector quantization to improve the efficiency of data storage and transmission. Vector quantization is used in various fields, such as performing voice recognition by converting into a pattern.

【0003】図6は、ベクトル量子化を2次元ベクトル
の例で概念的に示したもので、ベクトル空間の全体は、
予め用意された有限個数の代表ベクトル32の支配領域
33に分けられている。そして、量子化の対象となるベ
クトル31が入力されると、その入力ベクトル31はそ
れが属する支配領域33の代表ベクトル32に変換され
て出力される。こうして、全ての入力ベクトル31は、
所定の有限個数の代表ベクトル32に量子化されること
になる。
FIG. 6 conceptually shows vector quantization by using an example of a two-dimensional vector. The whole vector space is
It is divided into a dominant region 33 of a limited number of representative vectors 32 prepared in advance. When the vector 31 to be quantized is input, the input vector 31 is converted into the representative vector 32 of the dominant region 33 to which the vector 31 belongs and is output. Thus, all input vectors 31 are
It will be quantized into a predetermined finite number of representative vectors 32.

【0004】このベクトル量子化を行うに当たっては、
前もって、代表ベクトルを準備しておく必要がある。そ
の場合、ひずみ誤差の期待値が最小化されるようなベク
トル量子化が行えるように、入力データの分布に応じて
適切な代表ベクトルを準備することが望まれる。即ち、
各代表ベクトルの支配領域毎に、そこに属する全ての入
力ベクトルとその代表ベクトルとの間のひずみ誤差(例
えばユークリッド平方距離)の和(以下、部分ひずみと
いう)を計算したとき、全ての代表ベクトルの部分ひず
みが最小化されていることが望ましい。
In performing this vector quantization,
It is necessary to prepare the representative vector in advance. In that case, it is desirable to prepare an appropriate representative vector according to the distribution of the input data so that vector quantization can be performed so that the expected value of the distortion error is minimized. That is,
When the sum of distortion errors (for example, Euclidean square distance) between all input vectors belonging to each representative vector and its representative vector (hereinafter referred to as partial distortion) is calculated, all representative vectors are calculated. It is desirable that the partial strain of is minimized.

【0005】さて、代表ベクトルを準備するための方法
として、競合学習という方法が従来知られている。この
競合学習の一方式として、例えば、「ベクトル量子化設
計のための淘汰型競合学習法:等ひずみ原理とその実現
アルゴリズム」(電子情報通信学会論文誌、’94/1
1、Vol.J77_D_II、第2265頁〜第227
8頁、1994年)に開示された技術が知られている。
A method known as competitive learning has been conventionally known as a method for preparing a representative vector. As one method of this competitive learning, for example, “selective competitive learning method for vector quantization design: equal distortion principle and its realization algorithm” (IEICE Transactions, '94 / 1
1, Vol. J77_D_II, pp. 2265-227
The technology disclosed in page 8, 1994) is known.

【0006】この開示によれば、競合学習の1回の学習
は、多数の入力ベクトルの中から1つを選択し、その入
力ベクトルと所定の幾つかの代表ベクトルの各々との間
のひずみ誤差を計算し、それら代表ベクトルの中から最
も入力ベクトルとのひずみ誤差が小さい一つの代表ベク
トルを勝者として選択し、その勝者の代表ベクトルを入
力ベクトルに近づけるように更新するという手順からな
る。そして、このような学習が何回も繰り返される。
According to this disclosure, one learning of competitive learning selects one from a large number of input vectors and distorts the error between the input vector and each of a predetermined number of representative vectors. Is calculated, one representative vector having the smallest distortion error from the input vector is selected as the winner, and the representative vector of the winner is updated so as to be closer to the input vector. Then, such learning is repeated many times.

【0007】また、同文献において、等ひずみ原理に定
理が示され、その定理は「代表ベクトルの総数が十分に
大きいとき、入力ベクトル分布の如何に係わらず、各代
表ベクトルの支配領域(ボロノイ領域)における部分ひ
ずみを互いに等しくしなければならない。」というもの
であり、この等ひずみを実現することが、ひずみ誤差の
期待値を最小化するようなベクトル量子化を実現するた
めに必要であることが示されている。そして、等ひずみ
を実現する方法を示している。
Further, in the same document, a theorem is shown in the principle of equal distortion. The theorem states that "when the total number of representative vectors is sufficiently large, regardless of the input vector distribution, the governing region (Voronoi region) of each representative vector is The partial distortions in) must be equal to each other. "It is necessary to realize this equal distortion in order to realize vector quantization that minimizes the expected value of the distortion error. It is shown. Then, a method for realizing equal strain is shown.

【0008】また、競合学習に関して、特開平4−12
4782号「特徴抽出方法及びその実施装置」に開示さ
れた技術も知られている。これは、所定の代表ベクトル
群の中から、その支配領域内の入力ベクトル密度が最も
高い代表ベクトルを選択し、その選択した代表ベクトル
と同じベクトル値を持つ代表ベクトルを新たに生成する
という方法である。
Regarding competitive learning, Japanese Patent Laid-Open No. 4-12
The technique disclosed in No. 4782 "Feature extraction method and its implementation device" is also known. This is a method in which a representative vector having the highest input vector density in the governing region is selected from a predetermined representative vector group, and a representative vector having the same vector value as the selected representative vector is newly generated. is there.

【0009】[0009]

【発明が解決しようとする課題】前者の公知文献に示さ
れるように、等ひずみを実現することが、ひずみ誤差の
期待値を最小化するようなベクトル量子化のためには必
要である。しかし、等ひずみを実現することは、ひずみ
誤差の期待値を最小化するための必要条件ではあるが、
十分条件ではない。例えば、どの代表ベクトルの部分ひ
ずみも大きいような場合、等ひずみの条件を満たしてい
ても、ひずみ誤差の期待値を最小化する目的に対して
は、適切なベクトル量子化ではない。この場合には、等
ひずみを実現したが、誤差の大きい局所的最適解へ解が
収束する可能性が高くなってしまう。
As shown in the former known document, it is necessary to realize equal distortion for vector quantization that minimizes the expected value of distortion error. However, realization of equal distortion is a necessary condition to minimize the expected value of distortion error.
Not enough conditions. For example, when the partial distortion of any of the representative vectors is large, even if the condition of equal distortion is satisfied, vector quantization is not appropriate for the purpose of minimizing the expected value of distortion error. In this case, although the equal distortion is realized, the possibility that the solution converges to the locally optimal solution having a large error increases.

【0010】また、後者の文献にあるように、支配領域
の入力ベクトル密度が最も高い代表ベクトルを選択し、
その代表ベクトルと同じベクトル値を持つ代表ベクトル
を生成する方法もあるが、この方法だけでは等ひずみを
実現することにはならない。
Further, as in the latter document, a representative vector having the highest input vector density in the dominant region is selected,
There is also a method of generating a representative vector having the same vector value as the representative vector, but this method alone does not realize equal distortion.

【0011】本発明はこのような背景に鑑みてなされた
ものであり、その目的は、ひずみ誤差の期待値を最小化
するようなベクトル量子化のための代表ベクトルの生成
方式を提供することにある。
The present invention has been made in view of such a background, and an object thereof is to provide a representative vector generation method for vector quantization that minimizes an expected value of a distortion error. is there.

【0012】[0012]

【課題を解決するための手段】本発明に従うベクトル量
子化のための代表ベクトルの生成方式は、以下の手段
A)〜C)を備える。
A representative vector generation method for vector quantization according to the present invention comprises the following means A) to C).

【0013】A) ベクトル量子化に必要な代表ベクト
ル数より少ない個数の代表ベクトルを初期的に生成する
代表ベクトル初期化手段。
A) Representative vector initialization means for initially generating a smaller number of representative vectors than the number of representative vectors required for vector quantization.

【0014】B) 多数の入力ベクトルから一つの入力
ベクトルを選択し、既に生成された代表ベクトルの中か
ら、前記選択した入力ベクトルとのひずみ誤差が最も小
さい一つの代表ベクトルを勝者として選び、この勝者の
代表ベクトルを前記選んだ入力ベクトルに近づけるよう
に更新する競合学習を、繰り返して行う競合学習手段。
B) One input vector is selected from a large number of input vectors, and one representative vector having the smallest distortion error with the selected input vector is selected as a winner from among the representative vectors already generated. Competitive learning means for repeatedly performing competitive learning for updating the representative vector of the winner so as to approach the selected input vector.

【0015】C) 競合学習が所定の部分回数だけ繰り
返される毎に、既に生成された代表ベクトルの中から所
定の基準により部分ひずみの比較的大きい代表ベクトル
を選定し、この選定した代表ベクトルに基づいて1個以
上の新たな代表ベクトルを生成する新代表ベクトル生成
手段。
C) Every time the competitive learning is repeated a predetermined number of times, a representative vector having a relatively large partial distortion is selected from the already generated representative vectors according to a predetermined criterion, and based on the selected representative vector. A new representative vector generating means for generating one or more new representative vectors.

【0016】[0016]

【作用】本発明の方式は、先ず、必要な代表ベクトル個
数より少ない個数(例えば1個)の代表ベクトルを初期
的に設定した上で、処理をスタートする。まず、多数の
入力ベクトルの中から1つを選択し、その入力ベクトル
と各代表ベクトルとのひずみ誤差(例えばユークリッド
平方距離)を計算し、入力ベクトルとのひずみ誤差の最
も小さい一つの代表ベクトルを勝者として選び、そし
て、選んだ代表ベクトルを入力ベクトルに近づけるよう
に更新する、という競合学習を行う。この競合学習は、
入力ベクトルを順次に選択しながら繰り返し行う。
According to the method of the present invention, first, the number of representative vectors (for example, one) smaller than the required number of representative vectors is initially set, and then the process is started. First, one is selected from a large number of input vectors, the distortion error (for example, Euclidean square distance) between the input vector and each representative vector is calculated, and one representative vector having the smallest distortion error with the input vector is calculated. Competitive learning is performed by selecting as a winner and updating the selected representative vector so as to be closer to the input vector. This competitive learning is
Repeatedly selecting input vectors sequentially.

【0017】この競合学習の繰り返しにより、各代表ベ
クトルは、各々の支配領域における部分ひずみが小さく
なるように修正されて行く。
By repeating this competitive learning, each representative vector is modified so that the partial distortion in each dominant region becomes small.

【0018】そして、競合学習の繰り返しが所定の回数
に達する度に、新たな代表ベクトルの生成処理が行われ
る。即ち、現在ある代表ベクトルの中から、所定の基準
によって部分ひずみが比較的大きい代表ベクトルを選定
し、この代表ベクトルに基づいて新たな代表ベクトルを
生成する。
Then, each time the number of repetitions of competitive learning reaches a predetermined number, a new representative vector generation process is performed. That is, a representative vector having a relatively large partial distortion is selected from the currently existing representative vectors by a predetermined criterion, and a new representative vector is generated based on this representative vector.

【0019】このように部分ひずみが比較的大きい代表
ベクトルに基づいて新たな代表ベクトルが生成されるた
め、その部分ひずみの大きい代表ベクトルの支配領域
は、新たな代表ベクトルによって分割されることにな
り、その大きい部分ひずみが小さくなることになる。
Since a new representative vector is generated based on the representative vector having a relatively large partial distortion in this way, the dominant region of the representative vector having a large partial distortion is divided by the new representative vector. , Its large partial strain will be small.

【0020】こうして新たな代表ベクトルが生成される
と、それも競合学習の対象に加えられて、再び上記の競
合学習が繰り返される。
When a new representative vector is generated in this way, it is also added to the object of competitive learning, and the above-mentioned competitive learning is repeated again.

【0021】ここで、新たな代表ベクトルの値を決める
方法としては、例えば、上記選定された代表ベクトルと
同じ値に決める方法が最も単純な方法として採用できる
が、この方法にのみ限定されるわけではない。
Here, as the method of determining the value of the new representative vector, for example, the method of determining the same value as the selected representative vector can be adopted as the simplest method, but it is not limited to this method. is not.

【0022】また、部分ひずみが大きい代表ベクトルを
選定する方法にも、幾つかのバリエーションが考えられ
る。例えば、最も基本的な方法は、既に生成された代表
ベクトルの中で部分ひずみの最も大きい代表ベクトルを
選定する方法である。また、部分ひずみの計算を省略し
て処理を簡素化したい場合には、例えば、競合学習の各
回において、勝者として選んだ代表ベクトルの持つ変数
に、その代表ベクトルと選択した入力データとのひずみ
誤差を加算しておき、そして、既に生成された代表ベク
トルの中で上記変数が最も大きい代表ベクトルを選定す
る方法を採ることもできる。上記変数は、部分ひずみに
ほぼ比例するからである。
There are several possible variations in the method of selecting a representative vector having a large partial distortion. For example, the most basic method is to select a representative vector having the largest partial distortion among the already generated representative vectors. Also, if you want to simplify the process by omitting the calculation of partial distortion, for example, in each round of competitive learning, the variable that the representative vector selected as the winner has is the distortion error between that representative vector and the selected input data. Can be added, and a representative vector having the largest variable can be selected from the representative vectors already generated. This is because the above variable is almost proportional to the partial strain.

【0023】更に、上記の様な方法で部分ひずみの大き
い代表ベクトルを選定した際、この代表ベクトルの今ま
での選定回数が所定のしきい回数に達している場合にの
み、その代表ベクトルに基づいて新たな代表ベクトルを
生成する方法も採用できる。この方法によれば、部分ひ
ずみの大きい状態が競合学習の繰り返しで解消される程
度の軽微な状態である場合には、その代表ベクトルの支
配領域に新たな代表ベクトルが生成されることが回避さ
れるので、新たな代表ベクトルの生成によって部分ひず
みが局所的に過度に小さくなることが防止され、等ひず
みの条件をより良好に達成することができるようにな
る。
Further, when a representative vector having a large partial distortion is selected by the above method, only when the number of selections of the representative vector has reached a predetermined threshold number, the representative vector is based on the representative vector. A method of generating a new representative vector can also be adopted. According to this method, when a state with large partial distortion is a minor state that can be resolved by repeated competitive learning, generation of a new representative vector in the dominant region of the representative vector is avoided. Therefore, it is possible to prevent the local distortion from becoming excessively small locally due to the generation of the new representative vector, and it is possible to better achieve the condition of equal distortion.

【0024】[0024]

【実施例】以下、本発明の実施例を図面に基づいて詳細
に説明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0025】図1は本発明の代表ベクトル生成方式を適
用したベクトル量子化装置の一実施例の概略構成を示す
ブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of an embodiment of a vector quantization device to which the representative vector generation method of the present invention is applied.

【0026】本実施例のベクトル量子化装置は、図1に
示すように、入力装置1と、演算処理装置2と、出力装
置3と、入力ベクトルファイル(外部メモリに格納され
ている)6と、代表ベクトルファイル(外部メモリに格
納されている)7とを備えている。入力ベクトルファイ
ル6には多数の入力ベクトルが格納されている。代表ベ
クトルファイル7には予め準備された複数個の代表ベク
トルが格納されている。
As shown in FIG. 1, the vector quantizer of this embodiment has an input device 1, an arithmetic processing device 2, an output device 3, and an input vector file (stored in an external memory) 6. , And a representative vector file (stored in an external memory) 7. The input vector file 6 stores a large number of input vectors. The representative vector file 7 stores a plurality of prepared representative vectors in advance.

【0027】演算処理装置2は、中央演算処理部(CP
U)4と内部メモリ5を有し、この内部メモリ5には制
御プログラム、処理プログラム等が格納されている。
The arithmetic processing unit 2 includes a central arithmetic processing unit (CP
U) 4 and an internal memory 5. The internal memory 5 stores control programs, processing programs and the like.

【0028】図2は本実施例のベクトル量子化の処理過
程を示すフローチャートである。
FIG. 2 is a flow chart showing the process of vector quantization in this embodiment.

【0029】ベクトル量子化を行う場合は、図2に示す
ように、入力ベクトルを一つずつ入力して(S1)、そ
の入力ベクトルに対して、代表ベクトルファイル7から
順次代表ベクトルを取り出して、入力ベクトルXと代表
ベクトルWとのユークリッド平方距離、すなわち、
When performing vector quantization, as shown in FIG. 2, input vectors are input one by one (S1), and representative vectors are sequentially taken out from the representative vector file 7 for the input vectors, Euclidean square distance between the input vector X and the representative vector W, that is,

【数1】 を計算し(S2)、代表ベクトル群の中で最も入力ベク
トルXとの距離が小さい一つの代表ベクトルを勝者とし
て選出して、その勝者である代表ベクトルのベクトル値
を、入力ベクトルに対する量子化値として出力する(S
3)。
[Equation 1] (S2), one representative vector having the smallest distance from the input vector X in the representative vector group is selected as the winner, and the vector value of the representative vector that is the winner is quantized for the input vector. Output as (S
3).

【0030】図3は上記のようなベクトル量子化を行え
るようにするために、本発明の改良された競合学習方式
によって代表ベクトルを準備する処理過程を示すフロー
チャートである。
FIG. 3 is a flow chart showing a process of preparing a representative vector by the improved competitive learning method of the present invention so that the vector quantization as described above can be performed.

【0031】まず、準備すべき代表ベクトルの個数を示
すベクトル量子化数nと、処理終了までの繰り返すべき
学習の総回数を示す終了回数Lと、1つの代表ベクトル
を生成するまでの検査回数(学習回数)Cとを入力する
(S11)。
First, the vector quantization number n indicating the number of representative vectors to be prepared, the end number L indicating the total number of learning to be repeated until the end of the process, and the number of inspections until one representative vector is generated ( The learning number) C and are input (S11).

【0032】次に、処理過程を管理するパラメータの初
期設定を行う(S12)。具体的には、既に生成された
代表ベクトルの個数を示す代表ベクトル数qを定義して
初期値1を代入し、既に繰り返された学習の回数を示す
学習回数tを定義して初期値0を代入し、検査回数Cに
達するまでの学習回数をカウントする部分回数rを定義
して初期値0を代入し、さらに、入力ベクトルファイル
6の中からランダムに1つの入力ベクトルを選択し、そ
のベクトル値を1個目の代表ベクトルの値と定める(代
表ベクトルの初期化)。
Next, the parameters for controlling the process are initialized (S12). Specifically, the number of representative vectors q indicating the number of generated representative vectors is defined, the initial value 1 is substituted, and the learning number t indicating the number of times of already repeated learning is defined, and the initial value 0 is set. Substituting and defining a partial number r that counts the number of learnings until reaching the inspection number C, substituting an initial value 0, and further randomly selecting one input vector from the input vector file 6 The value is defined as the value of the first representative vector (initialization of the representative vector).

【0033】次に、部分回数rが検査回数Cに達してお
り、かつ代表ベクトル数qがベクトル量子化数(ベクト
ル量子化レベル数)nよりも小さいか否か判断する(S
13)。ここで、YESであればステップS20に進
み、NOであればステップS14に進む。
Next, it is judged whether or not the partial number r has reached the inspection number C and the representative vector number q is smaller than the vector quantization number (vector quantization level number) n (S).
13). Here, if YES, the process proceeds to step S20, and if NO, the process proceeds to step S14.

【0034】ステップS14では、入力ベクトルファイ
ル6の中からランダムに1つの入力ベクトルを選択す
る。そして、選択された入力ベクトルXと既に生成され
た各代表ベクトルWとのユークリッド平方距離を計算
し、代表ベクトルの中で最も入力ベクトルXとの距離が
小さい代表ベクトルWを勝者として選出する(S1
5)。
In step S14, one input vector is randomly selected from the input vector file 6. Then, the Euclidean square distance between the selected input vector X and each representative vector W already generated is calculated, and the representative vector W having the smallest distance from the input vector X among the representative vectors is selected as a winner (S1).
5).

【0035】次に、勝者の代表ベクトルWを予め用意し
ておいた学習係数g(正の小さい数)を用いて、 W←W+g(X−W) のように更新する(S16)。つまり、勝者の代表ベク
トルWの値を、学習係数gに応じた率だけ入力ベクトル
Xの値に近づける。
Next, the representative vector W of the winner is updated using the learning coefficient g (a small positive number) prepared in advance as W ← W + g (X−W) (S16). That is, the value of the representative vector W of the winner is brought closer to the value of the input vector X by a rate according to the learning coefficient g.

【0036】次に、部分回数rと学習回数tとに1を加
えた上で(S17)、学習回数tが終了回数Lに達して
いるか否かを判断する(S18)。ここで、YESであ
ればステップS19に進み、NOであればステップS1
3に戻る。
Next, after adding 1 to the partial number r and the learning number t (S17), it is determined whether or not the learning number t reaches the end number L (S18). Here, if YES, it proceeds to step S19, and if NO, step S1.
Return to 3.

【0037】以上のステップS13〜S17までの学習
処理が、部分回数rが検査回数Cに達するまで繰り返さ
れる。検査回数C回分の学習の繰り返しが終わると、ス
テップS13でYESとなるため、ステップS20以下
へ進んで新たな代表ベクトルを生成する。
The learning process from steps S13 to S17 described above is repeated until the partial number r reaches the inspection number C. When the learning for the number of inspections C times is completed, YES is obtained in step S13, and therefore, the process proceeds to step S20 and subsequent steps to generate a new representative vector.

【0038】即ち、部分回数rを0にクリアした後(S
20)、部分ひずみ計算を行う(S21)。ここで、ベ
クトル空間のあらゆる位置は、そこからユークリッド平
方距離において最も近い代表ベクトルの支配領域に属す
ると定義する。まず、既に生成された各代表ベクトルに
ついて、その代表ベクトルの支配領域内に存在する全て
の入力ベクトルとその代表ベクトルと間のユークリッド
平方距離を計算して総和をとる。つまり、各代表ベクト
ルの部分ひずみを計算する。次に、それら代表ベクトル
の中から、その支配領域の部分ひずみが最も大きい代表
ベクトルを選択する。
That is, after the partial count r is cleared to 0 (S
20), partial strain calculation is performed (S21). Here, it is defined that every position in the vector space belongs to the dominant region of the representative vector closest to the Euclidean square distance. First, for each of the generated representative vectors, the Euclidean square distance between all the input vectors existing in the control area of the representative vector and the representative vector is calculated and summed. That is, the partial strain of each representative vector is calculated. Next, a representative vector having the largest partial strain in the dominant region is selected from the representative vectors.

【0039】次に、選択した代表ベクトルに基づいて新
たな代表ベクトルを生成する(S22)。即ち、ステッ
プS21で選択された代表ベクトルと同じベクトル値を
持つ新たな代表ベクトルを1個(又は2個以上の所定個
数だけ)生成する。この後、代表ベクトル数qに1を加
え(S23)、ステップS13へ戻る。
Next, a new representative vector is generated based on the selected representative vector (S22). That is, one new representative vector (or a predetermined number of two or more) having the same vector value as the representative vector selected in step S21 is generated. Then, 1 is added to the number of representative vectors q (S23), and the process returns to step S13.

【0040】ステップS13に戻ると、新たな代表ベク
トルを加えた代表部ベクトル群に関して、再びステップ
S13〜S17までの学習処理が検査回数Cに等しい回
数だけ繰り返される。そして、この学習の繰り返しが終
わると、再びステップS20〜S23の処理によって新
たな代表ベクトルが追加される。
Returning to step S13, the learning process from steps S13 to S17 is repeated for the representative part vector group to which the new representative vector is added, the number of times equal to the number of inspections C. Then, after the repetition of this learning, a new representative vector is added again by the processing of steps S20 to S23.

【0041】以上のようにして、初期的に1個だった代
表ベクトルが学習を検査回数Cだけ繰り返す毎に1個
(又は2個以上の所定個数)ずつ追加されていき、最終
的にベクトル量子化数nに等しい個数まで生成される。
また、代表ベクトルの入力ベクトルに基づく学習(更
新)が繰り返されていき、最終的に終了回数Lに等しい
回数だけ学習が繰り返される。
As described above, the representative vector which was initially one is added one by one (or a predetermined number of two or more) every time the learning is repeated C times, and finally the vector quantum is added. Up to a number equal to the number n is generated.
Further, the learning (update) based on the input vector of the representative vector is repeated, and finally the learning is repeated by the number of times equal to the end number L.

【0042】そして、学習回数tが終了回数に達する
と、ステップS19に進み、既に生成したq個の代表ベ
クトルを代表ベクトルファイル7に保存して、処理を終
了する。
When the learning number t reaches the end number, the process proceeds to step S19, the q representative vectors already generated are stored in the representative vector file 7, and the process ends.

【0043】以上の処理によれば、ある入力ベクトルと
等しい値を持つ一つの代表ベクトルから処理をスタート
して、徐々に代表ベクトルの個数を増やして行くように
しているため、部分ひずみの大きい代表ベクトルを生成
してしまう、つまり入力ベクトルが分布しないような領
域に代表ベクトルを配置してしまう可能性を減少させ、
入力ベクトルの分布に適合させて代表ベクトルを配置す
ることができる。
According to the above processing, the processing is started from one representative vector having a value equal to a certain input vector, and the number of representative vectors is gradually increased. It reduces the possibility of generating a vector, that is, arranging the representative vector in a region where the input vector is not distributed,
The representative vector can be arranged according to the distribution of the input vector.

【0044】また、既に生成した代表ベクトルを多数の
入力ベクトルにより更新する繰り返し学習処理によっ
て、各代表ベクトルは各々の支配領域内の部分ひずみが
小さくなるように修正され、その上に、部分ひずみの最
も大きい支配領域に新たな代表ベクトルが生成されるの
で、その支配領域は分割されて部分ひずみが小さくな
る。結果として、等ひずみ条件を満たしつつ部分ひずみ
を最小化するように代表ベクトルが準備されることにな
る。
Further, by iterative learning processing in which the already-generated representative vector is updated with a large number of input vectors, each representative vector is modified so that the partial distortion in each governing region becomes small, and the partial distortion Since a new representative vector is generated in the largest dominant region, the dominant region is divided and the partial distortion is reduced. As a result, the representative vector is prepared so as to minimize the partial strain while satisfying the equal strain condition.

【0045】図4は図3の代表ベクトル生成処理の変形
例を示すフローチャートである。
FIG. 4 is a flow chart showing a modification of the representative vector generation processing of FIG.

【0046】この変形例の図3の処理と異なる点は、代
表ベクトルを更新する処理(S16−1)と、部分にず
みを計算する処理(S21−1)である。
The difference from the process of FIG. 3 of this modification is the process of updating the representative vector (S16-1) and the process of calculating the partial misalignment (S21-1).

【0047】まず、代表ベクトル更新処理(S16−
1)について説明すると、ステップS15で決定されて
いる勝者の代表ベクトルと入力ベクトルとの距離を、そ
の勝者の代表ベクトルが持つ変数に加算する(最初は0
に初期化されている)。そして、次に勝者の代表ベクト
ルWを、図3の更新処理(S16)と同様に、 W←W+g(X−W) のように更新する。
First, the representative vector update process (S16-
To explain 1), the distance between the representative vector of the winner and the input vector determined in step S15 is added to the variable of the representative vector of the winner (initially 0).
Has been initialized to). Then, the representative vector W of the winner is updated like W ← W + g (X−W) as in the update process (S16) of FIG.

【0048】次に、部分ひずみ計算処理(S11−1)
について説明すると、ステップS16−1の説明から分
るように、代表ベクトルの持つ変数は各代表ベクトルの
部分ひずみにほぼ比例しているので、この点に着目し
て、既に生成されている代表ベクトルの中から、その変
数の値が最も大きい代表ベクトルを選択する。そして、
全ての代表ベクトルが持つ変数を0にクリアする。
Next, a partial strain calculation process (S11-1)
As will be understood from the description of step S16-1, since the variable of the representative vector is almost proportional to the partial distortion of each representative vector, paying attention to this point, the representative vector already generated , The representative vector with the largest value of the variable is selected. And
Clear the variables of all representative vectors to 0.

【0049】次に、この選択した代表ベクトルと同じベ
クトル値を持つ新たな代表ベクトルを1個(又は2個以
上の所定個数だけ)生成する(S22)。
Next, one new representative vector (or a predetermined number of two or more) having the same vector value as the selected representative vector is generated (S22).

【0050】この変形例によれば、各代表ベクトルの部
分ひずみを計算する面倒な処理を、変数を用いた簡単な
処理に代えているため、処理量が減り処理時間が短縮す
る。
According to this modification, since the cumbersome process of calculating the partial distortion of each representative vector is replaced with a simple process using variables, the processing amount is reduced and the processing time is shortened.

【0051】図5は図4の処理の更なる変形例を示す。FIG. 5 shows a further modification of the process of FIG.

【0052】この変形例の図4の処理と異なる点は、最
初の入力処理(S11−1)と、部分ひすみ計算処理
(S21−2)と、新たに追加された勝数判定処理(S
24)である。
The difference from the process of FIG. 4 of this modification is that the initial input process (S11-1), the partial darkness calculation process (S21-2), and the newly added winning number determination process (S).
24).

【0053】最初の入力処理(S11−1)では、ベク
トル量子化数n、終了回数L及び検査回数Cに加えて、
代表ベクトル生成を判断するためのしきい回数Kを入力
する。
In the first input processing (S11-1), in addition to the vector quantization number n, the end count L and the check count C,
Input the number of thresholds K for determining the representative vector generation.

【0054】部分ひずみ計算処理(S11−2)では、
まず図4の処理と同様に変数の値が最も大きい代表ベク
トルを選択し、次に、その選択した代表ベクトルの勝数
に1を加算し、且つ全ての代表ベクトルの変数を0にク
リアする。
In the partial strain calculation process (S11-2),
First, similar to the process of FIG. 4, the representative vector having the largest variable value is selected, then 1 is added to the number of wins of the selected representative vector, and the variables of all the representative vectors are cleared to 0.

【0055】次に、勝数判定処理(S24)に進み、選
択した代表ベクトルの勝数がしきい回数Kに達している
か否か判断する。その結果、YESであればS22に進
んで、その選択した代表ベクトルと同じ値の1個又は2
個以上の新たな代表ベクトルを生成し、そして、その選
択した代表ベクトルの勝数を0にクリアする。一方、ス
テップS24の結果がNOであれば、新たな代表ベクト
ルを生成せずにステップS13に戻る。
Next, the process proceeds to a winning number determination process (S24), and it is determined whether or not the winning number of the selected representative vector has reached the threshold number K. As a result, if YES, the process proceeds to S22, where one or two of the same values as the selected representative vector
Generate more than one new representative vector, and clear the winning number of the selected representative vector to zero. On the other hand, if the result of step S24 is NO, the process returns to step S13 without generating a new representative vector.

【0056】この変形例によれば、部分ひずみ計算処理
で選ばれた部分ひずみの最も大きい代表ベクトルに関し
て、その大きい部分ひずみが学習処理の繰り返しによっ
て解消される程度の軽微なものである場合には、その支
配領域に新たな代表ベクトルが生成されることが回避さ
れ、その大きい部分ひずみが学習処理の繰り返しでは解
消され難い場合に、そこに新たな代表ベクトルが生成さ
れることになる。結果として、新たな代表ベクトル生成
によって、局所的に部分ひずみが小さくなりすぎること
が防止され、等ひずみの条件が一層良好に達成されるよ
うになる。
According to this modification, with respect to the representative vector having the largest partial strain selected in the partial strain calculation process, when the large partial strain is such that it is eliminated by the repetition of the learning process, The generation of a new representative vector in the dominant region is avoided, and when the large partial distortion is difficult to eliminate by repeating the learning process, a new representative vector is generated there. As a result, the local strain is prevented from becoming too small locally by the generation of the new representative vector, and the equal strain condition can be more favorably achieved.

【0057】以上説明した本発明の実施例によれば、代
表ベクトルを競合学習によって得る方式において、代表
ベクトルの数をベクトル量子化レベル数よりも少ない状
態で競合学習を開始することで、残りの代表ベクトル値
を決める基準として最適なベクトル量子化のための様々
な必要条件を反映させることができ、同時に競合学習の
開始時点でひずみ誤差が大きくなるような代表ベクトル
値を選択する可能性を減らすことができるものである。
According to the embodiment of the present invention described above, in the method of obtaining representative vectors by competitive learning, competitive learning is started with the number of representative vectors being smaller than the number of vector quantization levels. It is possible to reflect various requirements for optimal vector quantization as a criterion for determining the representative vector value, and at the same time reduce the possibility of selecting a representative vector value that causes a large distortion error at the start of competitive learning. Is something that can be done.

【0058】また、ある回数、学習を繰り返すと、各々
の代表ベクトルは部分ひずみを小さくするように変更さ
れ、その上で支配領域の部分ひずみが大きいところに新
たな代表ベクトルを生成することになり、その付近の代
表ベクトルの支配領域は狭くなり、部分ひずみが減少す
るので、最適なベクトル量子化のための必要条件の1つ
である部分ひずみを等しくするという等ひずみ条件を実
現しながら、部分ひずみを減少させることができる。
Further, when the learning is repeated a certain number of times, each representative vector is changed so as to reduce the partial distortion, and a new representative vector is generated where the partial distortion in the dominant region is large. , The dominant region of the representative vector in the vicinity is narrowed and the partial distortion is reduced. Therefore, while realizing the equal distortion condition of equalizing the partial distortion, which is one of the necessary conditions for optimal vector quantization, The strain can be reduced.

【0059】[0059]

【発明の効果】本発明によれば、ひずみ誤差の期待値を
最小化するようなベクトル量子化に適した代表ベクトル
を準備することができる。その結果、例えばベクトル量
子化によってデータを圧縮して蓄積したり伝送したりす
る場合、同じ品質でデータ圧縮率を向上させたり、或
は、同じ圧縮率で蓄積および伝送効率を向上させたりす
ることができる。
According to the present invention, a representative vector suitable for vector quantization that minimizes the expected value of the distortion error can be prepared. As a result, when compressing and storing or transmitting data by, for example, vector quantization, improve the data compression rate with the same quality, or improve the storage and transmission efficiency with the same compression rate. You can

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を適用したベクトル量子化装置の概略構
成を示すブロック図。
FIG. 1 is a block diagram showing a schematic configuration of a vector quantization device to which the present invention has been applied.

【図2】本実施例のベクトル量子化過程を示すフローチ
ャート。
FIG. 2 is a flowchart showing a vector quantization process of this embodiment.

【図3】本実施例の代表ベクトル生成処理過程を示すフ
ローチャート。
FIG. 3 is a flowchart showing a representative vector generation process of this embodiment.

【図4】図3の処理の変形例を示すフローチャート。4 is a flowchart showing a modified example of the processing of FIG.

【図5】図4の処理の更なる変形例を示すフローチャー
ト。
FIG. 5 is a flowchart showing a further modified example of the processing of FIG.

【図6】2次元ベクトルを例にしたベクトル量子化の概
念図。
FIG. 6 is a conceptual diagram of vector quantization using a two-dimensional vector as an example.

【符号の説明】[Explanation of symbols]

1 入力装置 2 演算処理装置 3 出力装置 6 入力ベクトルファイル 7 代表ベクトルファイル 1 input device 2 arithmetic processing device 3 output device 6 input vector file 7 representative vector file

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/24 H04N 7/13 Z ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical indication H04N 7/24 H04N 7/13 Z

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 ベクトル量子化のための代表ベクトルの
生成方式において、 前記ベクトル量子化に必要な代表ベクトル数より少ない
個数の代表ベクトルを初期的に生成する代表ベクトル初
期化手段と、 多数の入力ベクトルから一つの入力ベクトルを選択し、
既に生成された代表ベクトルの中から、前記選択した入
力ベクトルとのひずみ誤差が最も小さい一つの代表ベク
トルを勝者として選び、この勝者の代表ベクトルを前記
選んだ入力ベクトルに近づけるように更新する競合学習
を、繰り返して行う競合学習手段と、 前記競合学習が所定の部分回数だけ繰り返される毎に、
前記既に生成された代表ベクトルの中から所定の基準に
より部分ひずみの比較的大きい代表ベクトルを選定し、
この選定した代表ベクトルに基づいて1個以上の新たな
代表ベクトルを生成する新代表ベクトル生成手段と、を
備えたことを特徴とするベクトル量子化方式。
1. A method for generating a representative vector for vector quantization, including a representative vector initializing means for initially generating a smaller number of representative vectors than the number of representative vectors required for the vector quantization, and a large number of inputs. Select one input vector from the vectors,
Competitive learning in which one representative vector having the smallest distortion error with the selected input vector is selected as a winner from the already generated representative vectors, and the representative vector of this winner is updated so as to approach the selected input vector , A competitive learning means repeatedly performed, and each time the competitive learning is repeated a predetermined number of times,
From the already generated representative vector, select a representative vector with a relatively large partial distortion according to a predetermined criterion,
And a new representative vector generating means for generating one or more new representative vectors based on the selected representative vector.
【請求項2】 請求項1記載のベクトル量子化方式にお
いて、 前記新たな代表ベクトルは、前記選定された代表ベクト
ルと同じ値をもって生成されることを特徴とするベクト
ル量子化方式。
2. The vector quantization method according to claim 1, wherein the new representative vector is generated with the same value as the selected representative vector.
【請求項3】 請求項1記載のベクトル量子化方式にお
いて、 前記所定の基準が、前記既に生成された代表ベクトルの
中で部分ひずみの最も大きい代表ベクトルを選定するこ
とであることを特徴とするベクトル量子化方式。
3. The vector quantization method according to claim 1, wherein the predetermined criterion is to select a representative vector with the largest partial distortion among the already generated representative vectors. Vector quantization method.
【請求項4】 請求項1記載のベクトル量子化方式にお
いて、 前記競合学習手段が、各回の競合学習において、前記勝
者として選んだ代表ベクトルの持つ変数に、その勝者の
代表ベクトルと前記選択した入力データとのひずみ誤差
を加算し、 前記所定の基準が、前記既に生成された代表ベクトルの
中で前記変数が最も大きい代表ベクトルを選定すること
であることを特徴とするベクトル量子化方式。
4. The vector quantization method according to claim 1, wherein the competitive learning means has a representative vector of the winner and the selected input as variables of the representative vector selected as the winner in each competitive learning. A vector quantization method, wherein a distortion error from data is added, and the predetermined criterion is to select a representative vector having the largest variable among the already generated representative vectors.
【請求項5】 請求項1記載のベクトル量子化方式にお
いて、 前記新代表ベクトル生成手段が、前記所定の基準により
代表ベクトルを選定した際、この選定した代表ベクトル
の選定された回数が所定のしきい回数に達している場合
にのみ、その選定された代表ベクトルに基づいて新たな
代表ベクトルを生成することを特徴とするベクトル量子
化方式。
5. The vector quantization method according to claim 1, wherein when the new representative vector generation means selects a representative vector according to the predetermined criterion, the selected number of times of the selected representative vector is a predetermined number. A vector quantization method characterized in that a new representative vector is generated based on the selected representative vector only when the threshold number is reached.
【請求項6】 ベクトル量子化のための代表ベクトルの
生成方法において、 前記ベクトル量子化に必要な代表ベクトル数より少ない
個数の代表ベクトルを初期的に生成する代表ベクトル初
期化過程と、 多数の入力ベクトルから一つの入力ベクトルを選択し、
既に生成された代表ベクトルの中から、前記選択した入
力ベクトルとのひずみ誤差が最も小さい一つの代表ベク
トルを勝者として選び、この勝者の代表ベクトルを前記
選んだ入力ベクトルに近づけるように更新する競合学習
を、繰り返して行う競合学習過程と、 前記競合学習が所定の部分回数だけ繰り返される毎に、
前記既に生成された代表ベクトルの中から所定の基準に
より部分ひずみの比較的大きい代表ベクトルを選定し、
この選定した代表ベクトルに基づいて1個以上の新たな
代表ベクトルを生成する新代表ベクトル生成過程と、を
備えたことを特徴とするベクトル量子化方法。
6. A method of generating a representative vector for vector quantization, including a representative vector initialization process for initially generating a number of representative vectors smaller than the number of representative vectors required for the vector quantization, and a large number of inputs. Select one input vector from the vectors,
From the already generated representative vectors, one representative vector having the smallest distortion error with the selected input vector is selected as the winner, and the representative vector of this winner is updated so as to be closer to the selected input vector. , Repeatedly performing a competitive learning process, and each time the competitive learning is repeated a predetermined number of times,
From the already generated representative vector, select a representative vector with a relatively large partial distortion according to a predetermined criterion,
And a new representative vector generation process for generating one or more new representative vectors based on the selected representative vector.
JP13991295A 1995-05-15 1995-05-15 Representative vector generation method and method for vector quantization Expired - Fee Related JP3254109B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13991295A JP3254109B2 (en) 1995-05-15 1995-05-15 Representative vector generation method and method for vector quantization

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13991295A JP3254109B2 (en) 1995-05-15 1995-05-15 Representative vector generation method and method for vector quantization

Publications (2)

Publication Number Publication Date
JPH08316842A true JPH08316842A (en) 1996-11-29
JP3254109B2 JP3254109B2 (en) 2002-02-04

Family

ID=15256542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13991295A Expired - Fee Related JP3254109B2 (en) 1995-05-15 1995-05-15 Representative vector generation method and method for vector quantization

Country Status (1)

Country Link
JP (1) JP3254109B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001069793A1 (en) * 2000-03-16 2001-09-20 Sharp Kabushiki Kaisha Image encoding device, decoding device and encoding method, decoding method, and recorded program on which programs of the methods are recorded
JP2002232295A (en) * 2001-02-05 2002-08-16 Sony Corp Method and device for quantizing vector
JP2009111674A (en) * 2007-10-30 2009-05-21 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for vector quantization, program for them, and computer-readable record medium recorded with the program thereon
JP2009277100A (en) * 2008-05-15 2009-11-26 Nippon Telegr & Teleph Corp <Ntt> Document feature representation computation device and program
JP2009296278A (en) * 2008-06-04 2009-12-17 Nippon Telegr & Teleph Corp <Ntt> Representative vector generation method, device and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001069793A1 (en) * 2000-03-16 2001-09-20 Sharp Kabushiki Kaisha Image encoding device, decoding device and encoding method, decoding method, and recorded program on which programs of the methods are recorded
JP2002232295A (en) * 2001-02-05 2002-08-16 Sony Corp Method and device for quantizing vector
JP4631178B2 (en) * 2001-02-05 2011-02-16 ソニー株式会社 Vector quantization method and vector quantization apparatus
JP2009111674A (en) * 2007-10-30 2009-05-21 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for vector quantization, program for them, and computer-readable record medium recorded with the program thereon
JP2009277100A (en) * 2008-05-15 2009-11-26 Nippon Telegr & Teleph Corp <Ntt> Document feature representation computation device and program
JP2009296278A (en) * 2008-06-04 2009-12-17 Nippon Telegr & Teleph Corp <Ntt> Representative vector generation method, device and program

Also Published As

Publication number Publication date
JP3254109B2 (en) 2002-02-04

Similar Documents

Publication Publication Date Title
US4955065A (en) System for producing dithered images from continuous-tone image data
EP0576786B1 (en) Error diffusion processor and method for converting a grey scale pixel image to a binary value pixel image
JPH0765162A (en) Equipment and method for diffusing balanced quantization error
JPH10275228A (en) Method for forming partially correlated minimum visible halftone pattern for digital printer
JPH07288689A (en) Device and method for binarization processing of image signal
US6160921A (en) Error diffusion with homogeneous distribution in highlight and shadow regions
JP2645379B2 (en) System for creating dithered images from continuous tone image data
US4967196A (en) Apparatus for decoding variable-length encoded data
JPH0693246B2 (en) Dither image enlargement / reduction method
US6025930A (en) Multicell clustered mask with blue noise adjustments
JPH08316842A (en) Representative vector generating system and method for vector quantization
EP0385637A2 (en) Learning machine with multi-input single output circuits connected in hierarchical structure
Rom et al. Image representation using Voronoi tessellation: Adaptive and secure
JP3814921B2 (en) Grayscale image halftoning method and apparatus having grayscale image halftoning means
US5987182A (en) Markov model image encoding device and method
JPH0698157A (en) Halftone image forming device
JPH06152430A (en) Method for adaptively quantizing vector and device therefor
JPH0318177A (en) Picture processor
JP2004072293A (en) Image data processor and its control method
JPH11150659A (en) Method for processing image
JPH06113125A (en) Picture processor
JP3222585B2 (en) Halftone binary data generation circuit
JP3850040B2 (en) Pattern recognition method and apparatus using contextual correlation
JP4200403B2 (en) Image encoding apparatus and method, image decoding apparatus and method, image transmission system and method, and recording medium
JP2702593B2 (en) Isolated point removal device

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071122

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081122

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091122

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091122

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101122

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111122

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121122

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees