JP3470017B2 - Multi-layer dictionary creation method and multi-layer dictionary creation device - Google Patents

Multi-layer dictionary creation method and multi-layer dictionary creation device

Info

Publication number
JP3470017B2
JP3470017B2 JP22497997A JP22497997A JP3470017B2 JP 3470017 B2 JP3470017 B2 JP 3470017B2 JP 22497997 A JP22497997 A JP 22497997A JP 22497997 A JP22497997 A JP 22497997A JP 3470017 B2 JP3470017 B2 JP 3470017B2
Authority
JP
Japan
Prior art keywords
vector
dictionary
learning
representative
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP22497997A
Other languages
Japanese (ja)
Other versions
JPH1166029A (en
Inventor
秀明 田中
和宏 竹原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP22497997A priority Critical patent/JP3470017B2/en
Publication of JPH1166029A publication Critical patent/JPH1166029A/en
Application granted granted Critical
Publication of JP3470017B2 publication Critical patent/JP3470017B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、認識対象となる
文字や音声の情報を多層階にクラスタリングして登録さ
れた多層辞書を作成する多層辞書作成方法、および、多
層辞書作成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a multi-layer dictionary creating method and a multi-layer dictionary creating apparatus for creating a registered multi-layer dictionary by clustering information of characters and voices to be recognized into multi-layer floors.

【0002】[0002]

【従来の技術】コンピュータのメモリやCPU(中央演
算処理装置)等のハードウェアの高速化および大容量化
に伴って、文字認識装置や音声認識装置が高機能,高性
能になってきている。上述のような文字認識装置や音声
認識装置においては、現在ほどハードウェアのバックア
ップが厚くなかった当初は、高認識率の実現に加えて、
認識辞書や認識情報の圧縮が大きな問題であった。そし
て、この問題を解決すべく複合類似度法等の有力な認識
方法が開発され、現在でも多く採用されている。
2. Description of the Related Art With the increase in speed and capacity of hardware such as computer memory and CPU (Central Processing Unit), character recognition devices and voice recognition devices have become more sophisticated and have higher performance. In the character recognition device and the voice recognition device as described above, in addition to the realization of a high recognition rate at the beginning when the hardware backup was not as thick as it is now,
The compression of recognition dictionary and recognition information has been a big problem. In order to solve this problem, powerful recognition methods such as the composite similarity method have been developed and are still widely used.

【0003】上記複合類似度法は、大量の学習サンプル
からその分布を最良近似する少数の標準パターンを求め
て辞書とする。そして、その少数の辞書を用いて認識を
行うものである。このような複合類似度法は、ある程度
の認識率を実現し、且つ、辞書容量を削減できるため、
認識辞書の圧縮という当初の目的に合致した極めて優秀
な認識方法であると言える(大量サンプル→少数辞書)。
In the above-mentioned composite similarity method, a small number of standard patterns that best approximate the distribution of a large number of learning samples are obtained and used as a dictionary. Then, recognition is performed using the small number of dictionaries. Since such a composite similarity method can realize a certain recognition rate and reduce the dictionary capacity,
It can be said that it is an extremely excellent recognition method that meets the original purpose of compressing the recognition dictionary (large sample → small number dictionary).

【0004】ところが、上記複合類似度法(あるいは、
それに類似する認識情報を圧縮した少数辞書を用いる方
法)においては、少数の標準パターンで各カテゴリを代
表するために、異種カテゴリ間の境界部分がぼやけてし
まうという弊害が発生する。図16は、上述の情報圧縮
した辞書を用いる方法における近傍カテゴリの関係図で
ある。この図は、実際には多次元空間の標準サンプルを
模擬的に2次元平面にプロットしたもので、近傍カテゴ
リの境界部分の重なりを斜線で示している。この斜線部
分の面積が大きいほど類似カテゴリの認識性能が低いこ
とを表す。
However, the composite similarity method (or
In the method of using a minority dictionary that compresses similar recognition information), since each category is represented by a small number of standard patterns, there is an adverse effect that the boundary between different categories is blurred. FIG. 16 is a relationship diagram of neighborhood categories in the method using the above-described information-compressed dictionary. In this figure, actually, a standard sample of a multidimensional space is simulated and plotted on a two-dimensional plane, and the overlapping of the boundary portions of the neighborhood categories is shown by diagonal lines. The larger the shaded area, the lower the recognition performance of similar categories.

【0005】図16に示すように、上記複合類似度法に
おいては近傍カテゴリの境界部分の重なりが大きく、文
字認識の場合には、例えば「8」と「B」や「5」と「S」のよ
うな類似文字間の境界部分での識別能力の低下を招いて
いる。
As shown in FIG. 16, in the above-mentioned composite similarity method, the boundary portions of the neighborhood categories overlap with each other, and in the case of character recognition, for example, "8" and "B" or "5" and "S". As a result, the discrimination ability at the boundary between similar characters is deteriorated.

【0006】そこで、このような弊害に対して種々の解
決方法が提案されている。その中で最も単純且つ性能的
に優れた方法は、最近傍(マルチテンプレート)法であ
る。この最近傍法とは、要は、カテゴリ当たり多数の標
準パターンを用意して、この多数の標準パターンを用い
て認識するものである。図17は、最近傍法における近
傍カテゴリの関係図である。図17に示すような複合類
似度法における近傍カテゴリの関係図に比して、近傍カ
テゴリの境界部分の重なりが小さく、識別能力が高いこ
とが分かる。
Therefore, various solutions have been proposed for such adverse effects. The simplest and most excellent method among them is the nearest neighbor (multi-template) method. In short, the nearest neighbor method is to prepare a large number of standard patterns for each category and recognize them using the large number of standard patterns. FIG. 17 is a relationship diagram of neighborhood categories in the nearest neighbor method. It can be seen that the overlapping of the boundary portions of the neighboring categories is small and the discriminating ability is high as compared with the relational diagram of the neighboring categories in the composite similarity method as shown in FIG.

【0007】上記最近傍法の考え方は古くからあり、そ
の優秀性も証明されていた。その反面、著しい辞書容量
の増加と認識速度の低下を招くという弊害がある。した
がって、当初の認識装置開発のアプローチからは除外さ
れていた。しかしながら、現在ではデバイス技術の進歩
によって辞書メモリ容量の問題は解決されてきた。とこ
ろが、現在の認識装置に対する速度的要求スペックが飛
躍的に高まったために認識速度の問題は依然として残っ
ている。
The concept of the nearest neighbor method has been around for a long time, and its superiority has been proved. On the other hand, there is an adverse effect that the dictionary capacity is significantly increased and the recognition speed is decreased. Therefore, it was excluded from the original recognition device development approach. However, at present, the problem of dictionary memory capacity has been solved by the progress of device technology. However, the problem of the recognition speed still remains because the required speed specifications for the current recognition device have dramatically increased.

【0008】上記最近傍法を高速で実行しようとすれ
ば、未知の入力に対して総ての辞書サンプル(標準パタ
ーン)との距離(または類似度)を計算するのではなく、
辞書サンプル上の計算範囲を効果的に絞り込むことが必
要となる。このような認識装置として、各文字を多層階
のグループに分類した階層構造辞書を用いる文字認識方
式(特開平63−263590号公報)が提案されてい
る。
In order to execute the above-mentioned nearest neighbor method at high speed, instead of calculating the distance (or similarity) from all dictionary samples (standard pattern) to an unknown input,
It is necessary to effectively narrow down the calculation range on the dictionary sample. As such a recognition device, a character recognition method (Japanese Patent Laid-Open No. 63-263590) using a hierarchical structure dictionary in which each character is classified into a group of multi-layered floors has been proposed.

【0009】上記階層構造辞書は、次のようにして作成
される。すなわち、全登録文字の特徴ベクトルをクラス
タリングによってn1個の第1段のクラスに分割し、各
第1段のクラス毎に平均ベクトルを求めて標準パターン
とする。次に、第1段の各クラスをクラスタリングによ
ってn2個の第2段のクラスに分割し、各第2段のクラ
ス毎に平均ベクトルを求めて標準パターンとする。こう
して、3層構造を有する階層構造辞書が形成されるので
ある。そして、入力文字の認識に際しては、入力文字と
第1段の各クラスの標準パターンとの距離を求め、距離
の小さい方からp個の第1段の候補クラスを求める。次
に、入力文字と第1段の候補クラス中に在る第2段の各
クラスの標準パターンとの距離を求め、距離の小さい方
からq個の第2段の候補クラスを求める。最後に、入力
文字と第2段の候補クラス中に在る登録文字との距離を
求め、最小距離を呈する登録文字を認識結果とする。
The hierarchical structure dictionary is created as follows. That is, the feature vector of all registered characters is divided into n1 first-stage classes by clustering, and an average vector is obtained for each first-stage class to obtain a standard pattern. Next, each class in the first stage is divided into n2 classes in the second stage by clustering, and an average vector is obtained for each class in the second stage to obtain a standard pattern. In this way, a hierarchical structure dictionary having a three-layer structure is formed. Then, when recognizing the input character, the distance between the input character and the standard pattern of each class of the first stage is obtained, and p candidate classes of the first stage are obtained from the smaller distance. Next, the distance between the input character and the standard pattern of each class of the second stage existing in the first-stage candidate class is obtained, and q second-stage candidate classes are obtained from the smaller distance. Finally, the distance between the input character and the registered character existing in the second-stage candidate class is obtained, and the registered character having the minimum distance is used as the recognition result.

【0010】[0010]

【発明が解決しようとする課題】しかしながら、上記従
来の階層構造辞書を用いた文字認識方式においては、以
下のような問題がある。尚、以下、単に「文字」と言う
場合には、上記フォントや2値化レベルのバリエーショ
ンを加味したものを言う。これに対して、上記バリエー
ションを加味しないものを「カテゴリ」と言う。
However, the above-mentioned conventional character recognition method using a hierarchical structure dictionary has the following problems. Note that, hereinafter, when simply referred to as "character", it means one in which variations of the font and the binarization level are added. On the other hand, what does not take the above variations into consideration is called a "category".

【0011】(1)低認識率 上記階層構造辞書における最終層(第3段)に登録されて
いる登録文字は、データベース中の全文字ではなく、デ
ータベース中の全文字に某かの圧縮を施したものであ
る。特に、日本語OCR(光学文字読取装置)のデータベ
ースに関して言えば、認識対象カテゴリは4000程度
あり、さらに多種のフォントや2値化レベルのバリエー
ションを与えるために、データベース全体の文字数は少
なくとも数百万のオーダーとなる。この多量の文字を上
記階層構造辞書の最終層に登録しておくためには辞書メ
モリの容量が膨大なものになる。したがって、某かの圧
縮を掛けざるを得ないのである。
(1) Low recognition rate The registered characters registered in the final layer (third stage) in the above-mentioned hierarchical dictionary are not all characters in the database, but some characters are compressed. It was done. In particular, regarding the Japanese OCR (optical character reader) database, there are about 4000 categories to be recognized, and the number of characters in the entire database is at least several million in order to provide various fonts and binarization level variations. Will be ordered. In order to register this large number of characters in the final layer of the hierarchical dictionary, the capacity of the dictionary memory becomes enormous. Therefore, some compression must be applied.

【0012】その場合の一般的な圧縮方法としては、例
えば、 ・同一カテゴリ内で非常に小さい距離閾値以下のサンプ
ルを統合して行く ・最近傍異種カテゴリとの距離の1/2を閾値とし、そ
の閾値内に入る同一カを統合して行く 等がある。こうして、データベース全体の文字に対して
圧縮を掛けて得られた上記最終層に登録されている文字
は、既にデータベース上でのカテゴリ境界情報を失って
いるのである。
A general compression method in that case is, for example, to integrate samples having a very small distance threshold or less within the same category, and a threshold of 1/2 of the distance to the nearest neighbor heterogeneous category, For example, the same powers that fall within the threshold are integrated. Thus, the characters registered in the final layer obtained by compressing the characters in the entire database have already lost the category boundary information in the database.

【0013】そして、このデータベース上でのカテゴリ
境界情報を失っている登録文字に対して、上述のように
クラスタリングを行って各クラス毎に平均ベクトルを求
めて標準パターンを得るので、データベース上でのカテ
ゴリ境界情報を失った上に更に情報圧縮が行われること
なる。したがって、結局は、図16に示す複合類似度法
の場合と同様に、各クラスタの境界付近においてデータ
ベース上でのカテゴリ境界情報が大きく失われることな
る。そして、この操作を各階層毎に繰り返すのであるか
ら、認識率の低下を招くのは必然である。
Then, for the registered characters that have lost the category boundary information on this database, the standard pattern is obtained by performing the clustering as described above and obtaining the average vector for each class. Loss of the category boundary information will result in further information compression. Therefore, in the end, similar to the case of the composite similarity method shown in FIG. 16, the category boundary information on the database is largely lost near the boundary of each cluster. Since this operation is repeated for each layer, it is inevitable that the recognition rate is lowered.

【0014】特に、実際の認識においては、上記データ
ベースに用意した特徴ベクトルと同じ特徴ベクトルを有
する文字が入力されることは極めて稀で、ほとんどの場
合には未知の文字が入力される。そのために、辞書に上
記データベース上でのカテゴリ境界情報を100%保存
したとしても、認識率が低下するのが普通で、上記階層
構造辞書の如くデータベース上でのカテゴリ境界情報を
失っている場合には更に認識率は低下するのである。
In particular, in actual recognition, it is extremely rare that a character having the same feature vector as the feature vector prepared in the database is input, and in most cases, an unknown character is input. Therefore, even if 100% of the category boundary information on the database is stored in the dictionary, the recognition rate is usually low, and if the category boundary information on the database is lost like the hierarchical structure dictionary. Will further reduce the recognition rate.

【0015】(2)辞書メモリの高容量 各段の各クラスの標準パターンは、n1個およびn2個の
クラスタリングによって各クラス毎に求めた平均ベクト
ルである。したがって、この得られた標準パターンは、
最終層に登録されている文字の特徴パターンの何れとも
異なる。したがって、各段の各クラスの総ての標準パタ
ーンを辞書メモリ上に登録しておく必要があり、その分
だけ辞書メモリの高容量化を招くのである。
(2) The standard pattern of each class in each stage of the high-capacity dictionary memory is an average vector obtained for each class by clustering n1 and n2. Therefore, this obtained standard pattern is
It is different from any of the character feature patterns registered in the final layer. Therefore, it is necessary to register all the standard patterns of each class in each stage in the dictionary memory, which increases the capacity of the dictionary memory.

【0016】この場合の辞書メモリの容量の増加は、以
下のように辞書の階層の指数関数で増加するので、高認
識率を得ようとして高階層構造辞書を構築する程、辞書
メモリの容量が増加してしまうのである。 辞書メモリ容量=(vr)×s 但し、v:階層構造辞書のノード当たりの代表ベクトル
数(=n1,n2) r:階層数 s:1代表ベクトル当たりの記憶容量
Since the increase in the dictionary memory capacity in this case increases with the exponential function of the dictionary hierarchy as follows, the capacity of the dictionary memory increases as the high-hierarchical dictionary is constructed to obtain a high recognition rate. It will increase. Dictionary memory capacity = (v r ) × s where v: number of representative vectors per node of hierarchical dictionary (= n1, n2) r: number of layers s: storage capacity per representative vector

【0017】そこで、この発明の目的は、データベース
上でのカテゴリ境界情報を100%保存して、且つ、記
憶容量の少ない多層辞書を作成する多層辞書作成方法、
および、多層辞書作成装置を提供することにある。
Therefore, an object of the present invention is to store a 100% category boundary information on a database and to create a multi-layer dictionary with a small storage capacity.
Another object is to provide a multi-layer dictionary creation device.

【0018】[0018]

【課題を解決するための手段】上記目的を達成するた
め、請求項1に係る発明の多層辞書作成方法は、認識対
象情報の特徴ベクトルを学習ベクトルとして用意し、上
記学習ベクトルをクラスタリングして得られた複数の代
表ベクトルをテンプレートとし、上記テンプレートをク
ラスタリングして得られた複数代表ベクトルとこの代表
ベクトルが属する1つのルートノードとを多層辞書の初
期状態とし、上記初期状態の多層辞書に対して、上記多
層辞書の終端に位置すると共に上記各学習ベクトルに最
も類似した終端代表ベクトルに,当該学習ベクトルが属
するカテゴリを表す情報を付与することによって,多層
辞書の各代表ベクトルにおける上記カテゴリの識別境界
を学習する学習処理と、上記学習の結果付与されたカテ
ゴリ数が所定数以上であって最大数を呈する終端代表ベ
クトルから,複数の代表ベクトルが属する新たなノード
を拡張するノード拡張処理とを交互に繰り返して、複数
の代表ベクトルが属する上記ノードが樹状に連鎖した多
層辞書を形成することを特徴としている。
In order to achieve the above object, a multi-layer dictionary creating method according to a first aspect of the present invention provides a feature vector of recognition target information as a learning vector, and obtains the learning vector by clustering. A plurality of representative vectors thus obtained are used as templates, and a plurality of representative vectors obtained by clustering the template and one root node to which the representative vectors belong are set as an initial state of the multi-layer dictionary. , The classification boundary of each category in each representative vector of the multi-layer dictionary is added to the end representative vector which is located at the end of the multi-layer dictionary and is most similar to each of the learning vectors by giving information indicating the category to which the learning vector belongs. If the number of categories given as a result of the learning process and the learning process for learning By repeating the node extension process of extending a new node to which a plurality of representative vectors belong from the terminal representative vector that presents the maximum number, a multi-layer dictionary in which the above-mentioned nodes to which a plurality of representative vectors belong are chained in a tree It is characterized by forming.

【0019】上記構成によれば、テンプレートから得ら
れた複数代表ベクトルと1つのルートノードとで成る多
層辞書の初期状態に対して、多層辞書の各終端代表ベク
トルにおけるカテゴリの識別境界を学習する学習処理
と、属するカテゴリ数が所定数以上であって最大数を呈
する終端代表ベクトルからノードを拡張するノード拡張
処理とが交互に繰り返される。その結果、上記テンプレ
ート作成の際や多層辞書の構築の際に失われた学習ベク
トルによるカテゴリ境界情報が、上記学習処理によって
再び鮮明にされる。すなわち、データベース上でのカテ
ゴリ境界情報が100%保存されることになる。さら
に、特徴空間上において多くのカテゴリが密集している
領域に対してのみ多層化が行われることになり、辞書の
多層化による記憶容量の増加が極力押さえられる。
According to the above structure, learning for learning the classification boundary of the category in each terminal representative vector of the multi-layer dictionary with respect to the initial state of the multi-layer dictionary consisting of a plurality of representative vectors obtained from the template and one root node. The processing and the node expansion processing for expanding the node from the terminal representative vector having the maximum number of categories that belong to the predetermined number or more are alternately repeated. As a result, the category boundary information based on the learning vector, which is lost when the template is created or when the multi-layer dictionary is constructed, is sharpened again by the learning process. That is, 100% of the category boundary information is stored in the database. Further, the layering is performed only on the region where many categories are densely arranged in the feature space, and the increase in the storage capacity due to the layering of the dictionary is suppressed as much as possible.

【0020】また、請求項2に係る発明は、請求項1に
係る発明の多層辞書作成方法において、上記学習の結果
付与されたカテゴリ数が上記所定数以上である終端代表
ベクトルが存在しなくなるか、総ノード数が予め設定さ
れた数に至るまで、上記学習処理とノード拡張処理とを
交互に繰り繰り返して行うことを特徴としている。
The invention according to claim 2 is, in the multi-layer dictionary creating method of the invention according to claim 1, whether or not there is no terminal representative vector whose number of categories given as a result of the learning is equal to or more than the predetermined number. The learning process and the node expansion process are alternately repeated until the total number of nodes reaches a preset number.

【0021】上記構成によれば、多層辞書の全終端代表
ベクトルのカテゴリ識別能力がある程度以上になるか、
ノード数が予め設定された数になると、多層辞書の更な
る多層化が停止される。こうして、認識精度の高さと記
憶容量の少なさとがバランスされた多層辞書が構築され
る。
According to the above configuration, whether the category identification ability of all the end representative vectors of the multi-layer dictionary is above a certain level,
When the number of nodes reaches a preset number, further multilayering of the multilayer dictionary is stopped. In this way, a multi-layer dictionary in which high recognition accuracy and a small storage capacity are balanced is constructed.

【0022】また、請求項3に係る発明の多層辞書作成
装置は、認識対象情報の特徴ベクトルを学習ベクトルと
して格納する学習ベクトル格納部と、上記学習ベクトル
をクラスタリングして得られた複数の代表ベクトルをテ
ンプレートとして格納するテンプレート格納部と、上記
テンプレートをクラスタリングして得られた複数の代表
ベクトルとこの代表ベクトルが属する1つのルートノー
ドとを初期状態とする多層辞書と、上記多層辞書の終端
に位置すると共に上記各学習ベクトルに最も類似した終
端代表ベクトルに,当該学習ベクトルが属するカテゴリ
を表す情報を付与することによって,多層辞書の各終端
代表ベクトルにおける上記カテゴリの識別境界を学習す
る学習部と、上記学習の結果付与されたカテゴリ数が所
定数以上であって最大数を呈する終端代表ベクトルか
ら,複数の代表ベクトルが属する新たなノードを拡張す
るノード拡張部と、上記学習部とノード拡張部とを制御
して,上記初期状態の多層辞書に対して上記学習とノー
ド拡張とを交互に繰り返し行って,複数の代表ベクトル
が属する上記ノードが樹状に連鎖した多層辞書を形成す
る多層辞書作成制御部を備えたことを特徴としている。
Further, a multi-layer dictionary creating apparatus according to a third aspect of the present invention is a learning vector storage section for storing a feature vector of recognition target information as a learning vector, and a plurality of representative vectors obtained by clustering the learning vectors. , A multi-layer dictionary having a plurality of representative vectors obtained by clustering the templates and one root node to which the representative vectors belong as an initial state, and a multi-layer dictionary located at the end of the multi-layer dictionary. A learning unit that learns the identification boundary of the category in each terminal representative vector of the multi-layer dictionary by adding information indicating the category to which the learning vector belongs to the terminal representative vector most similar to each of the learning vectors, If the number of categories given as a result of the above learning is more than a predetermined number, From the terminal representative vector representing a number, a node expansion unit that expands a new node to which a plurality of representative vectors belong, the learning unit and the node expansion unit are controlled, and the learning is performed on the initial multi-layer dictionary. It is characterized by comprising a multi-layer dictionary creation control unit that forms a multi-layer dictionary in which the above-mentioned nodes to which a plurality of representative vectors belong are alternately formed by repeating node expansion.

【0023】上記構成によれば、多層辞書作成制御部に
よって学習部とノード拡張部とが制御されて、テンプレ
ートから得られた複数代表ベクトルと1つのルートノー
ドとで成る多層辞書の初期状態に対して、各終端代表ベ
クトルにおけるカテゴリの識別境界を学習する学習処理
と、属するカテゴリ数が所定数以上であって最大数を呈
する終端代表ベクトルからノードを拡張するノード拡張
処理とが交互に繰り返される。こうして、上記テンプレ
ート作成の際や多層辞書の構築の際に失われた学習ベク
トルによるカテゴリ境界情報が、上記学習処理によって
再び鮮明にされる。すなわち、データベース上でのカテ
ゴリ境界情報が100%保存されることになる。さら
に、特徴空間上において多くのカテゴリが密集している
領域に対してのみ多層化が行われて、辞書の多層化によ
る記憶容量の増加が極力押さえられる。
According to the above configuration, the learning unit and the node expansion unit are controlled by the multi-layer dictionary creation control unit, and the initial state of the multi-layer dictionary composed of a plurality of representative vectors obtained from the template and one root node is set. Then, the learning process of learning the classification boundary of the category in each terminal representative vector and the node expansion process of expanding the node from the terminal representative vector having the maximum number of categories to which the number of categories belongs are alternately repeated. In this way, the category boundary information due to the learning vector lost at the time of creating the template or at the time of constructing the multi-layer dictionary is sharpened again by the learning process. That is, 100% of the category boundary information is stored in the database. Furthermore, the multi-layering is performed only on the region where many categories are dense in the feature space, and the increase in the storage capacity due to the multi-layering of the dictionary is suppressed as much as possible.

【0024】また、請求項4に係る発明は、請求項3に
係る発明の多層辞書作成装置において、上記多層辞書の
代表ベクトルは、この代表ベクトルに対応するテンプレ
ートの上記テンプレート格納部上での格納位置を表す格
納位置情報で記載されていることを特徴としている。
According to a fourth aspect of the present invention, in the multi-layer dictionary creating apparatus according to the third aspect of the present invention, the representative vector of the multi-layer dictionary is stored in the template storage unit of the template corresponding to the representative vector. It is characterized in that it is described by the storage position information indicating the position.

【0025】上記構成によれば、多層辞書の各代表ベク
トルを特徴ベクトルそのもので記載する場合よりも記憶
容量が少なくなる。こうして、多層辞書の記憶容量がさ
らに縮小される。
According to the above configuration, the storage capacity is smaller than when each representative vector of the multi-layer dictionary is described by the feature vector itself. In this way, the storage capacity of the multi-layer dictionary is further reduced.

【0026】また、請求項5に係る発明は、請求項3に
係る発明の多層辞書作成装置において、上記学習部は、
上記多層辞書の代表ベクトルの中から各学習ベクトルに
最も類似した終端代表ベクトルを探索する最類似代表ベ
クトル探索手段と、上記探索された終端代表ベクトル
に,検索元の学習ベクトルが属するカテゴリを表す情報
を付与するカテゴリ情報付与手段を含むことを特徴とし
ている。
According to a fifth aspect of the present invention, in the multi-layer dictionary creation device according to the third aspect, the learning section is
Information representing the category to which the learning vector of the search source belongs to the most similar representative vector searching means for searching the most representative terminal representative vector from the representative vectors of the multi-layer dictionary, and the searched terminal representative vector. It is characterized by including category information giving means for giving.

【0027】上記構成によれば、最類似代表ベクトル探
索手段とカテゴリ情報付与手段とによって、多層辞書の
各終端代表ベクトルにおけるカテゴリの識別境界を学習
する学習処理が的確に行われる。
According to the above construction, the most similar representative vector searching means and the category information adding means appropriately perform the learning process for learning the identification boundary of the category in each terminal representative vector of the multi-layer dictionary.

【0028】また、請求項6に係る発明は、請求項3に
係る発明の多層辞書作成装置において、上記ノード拡張
部は、上記多層辞書の終端代表ベクトルの中から,上記
学習の結果付与されたカテゴリ数が上記所定数以上であ
って最大数を呈する終端代表ベクトルを注目終端代表ベ
クトルとして抽出する注目終端代表ベクトル抽出手段
と、上記抽出された注目終端代表ベクトルに付与されて
いるカテゴリに属する上記テンプレートであって,上記
多層辞書の代表ベクトルの中で最も類似する代表ベクト
ルが上記注目終端代表ベクトルである総てのテンプレー
トを選択するテンプレート選択手段と、上記選択された
総てのテンプレートをクラスタリングして各クラスタの
平均ベクトルを得るクラスタリング手段と、上記各クラ
スタの平均ベクトルに最も類似したテンプレートを探索
し,この探索されたテンプレートを当該クラスタの代表
ベクトルとする最類似代表ベクトル探索手段と、複数の
代表ベクトルが属している拡張ノードを上記注目終端代
表ベクトルに対応付け,この拡張ノードに属する代表ベ
クトルとして上記最類似代表ベクトル探索手段によって
得られた各クラスタの代表ベクトルを与えるノード拡張
手段を含むことを特徴としている。
According to a sixth aspect of the present invention, in the multi-layer dictionary creating apparatus according to the third aspect of the present invention, the node expansion unit is given as a result of the learning from the end representative vector of the multi-layer dictionary. A target terminating representative vector extracting means for extracting, as a target terminating representative vector, a terminating representative vector having a maximum number of categories which is equal to or larger than the predetermined number, and belongs to a category given to the extracted target terminating representative vector. A template selecting means for selecting all the templates whose representative vectors are the most similar representative vectors among the representative vectors of the above-mentioned multi-layer dictionary and clusters all the selected templates. Clustering means to obtain the average vector of each cluster by Also searches for a similar template, associates the searched template with the most similar representative vector search means that is the representative vector of the cluster, and the extended node to which a plurality of representative vectors belong to the target termination representative vector. The present invention is characterized by including node expansion means for giving the representative vector of each cluster obtained by the above-mentioned most similar representative vector searching means as the representative vector belonging to the expanded node.

【0029】上記構成によれば、注目終端代表ベクトル
抽出手段,テンプレート選択手段,クラスタリング手段,
最類似代表ベクトル探索手段及びノード拡張手段によっ
て、属するカテゴリ数が所定数以上であって最大数を呈
する終端代表ベクトルから新たにノードを拡張するノー
ド拡張処理が的確に行われる。
According to the above configuration, the end-of-interest representative vector extracting means, the template selecting means, the clustering means,
By the most similar representative vector searching means and the node expanding means, the node expanding processing for newly expanding the node from the terminal representative vector having the maximum number and the number of categories to which it belongs is properly performed.

【0030】また、請求項7に係る発明は、請求項3に
係る発明の多層辞書作成装置において、上記多層辞書作
成制御部は、上記学習の結果付与されたカテゴリ数が上
記所定数以上である終端代表ベクトルが存在しない場合
か、あるいは、総ノード数が予め設定された数に至った
場合には、上記学習部とノード拡張部との動作を停止さ
せるようになっていることを特徴としている。
According to a seventh aspect of the present invention, in the multi-layer dictionary creation device according to the third aspect of the present invention, the multi-layer dictionary creation control section has the number of categories given as a result of the learning is the predetermined number or more. When the terminal representative vector does not exist, or when the total number of nodes reaches a preset number, the operation of the learning unit and the node expansion unit is stopped. .

【0031】上記構成によれば、上記多層辞書作成制御
部の制御によって、上記多層辞書の全終端代表ベクトル
のカテゴリ識別能力がある程度以上になるか、あるい
は、全ノード数が予め設定された数になると、多層辞書
の更なる多層化が停止される。こうして、認識精度の高
さと記憶容量の少なさとがバランスされた多層辞書が構
築される。
According to the above configuration, the category discrimination capability of all terminal representative vectors of the multi-layer dictionary is controlled to a certain level or more by the control of the multi-layer dictionary creation control unit, or the total number of nodes is set to a preset number. Then, further multi-layering of the multi-layer dictionary is stopped. In this way, a multi-layer dictionary in which high recognition accuracy and a small storage capacity are balanced is constructed.

【0032】[0032]

【発明の実施の形態】以下、この発明を図示の実施の形
態により詳細に説明する。図1は、本実施の形態の多層
辞書作成装置における一例を示すブロック図である。
尚、本実施の形態においては、活字日本語OCRに搭載
された多層辞書作成装置を例に説明する。ここで、本活
字日本語OCRの認識対象カテゴリは4000であり、
各文字の特徴ベクトルは、キャラクタの外接枠を縦横8
等分してノルムを正規化した64次元ベクトルであり、
認識時のマッチングは類似度方法によるものとする。但
し、上記認識対象のカテゴリ数や特徴パターンやマッチ
ング方法は上述に限定されるものではなく、随意に変更
してもこの発明の本質を損なうものではない。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described in detail below with reference to the embodiments shown in the drawings. FIG. 1 is a block diagram showing an example of the multi-layer dictionary creating device according to the present embodiment.
In the present embodiment, a multi-layer dictionary creation device installed in the print Japanese OCR will be described as an example. Here, the recognition target category of the main print Japanese OCR is 4000,
For the feature vector of each character, the circumscribing frame of the character is set to 8
It is a 64-dimensional vector obtained by equally dividing the norm and
Matching at the time of recognition is based on the similarity method. However, the number of categories to be recognized, the characteristic pattern, and the matching method are not limited to those described above, and any change may not impair the essence of the present invention.

【0033】また、カテゴリ情報として内部コードを使
用する。すなわち、入力学習データおよび辞書データ共
に、JISやEUCの漢字コードを内部コード化(0〜
3999のコード値に変換)したものを使用するのであ
る。
An internal code is used as the category information. That is, both the input learning data and the dictionary data are internally coded (0 to Kanji code of JIS or EUC).
The value converted to the code value of 3999) is used.

【0034】外部記憶装置1は、ハードディスクや光磁
気ディスクやCD−ROM等で構成されており、大量の
学習データ(学習用文字)の特徴をベクトル表現した学習
ベクトルが記憶されている。ここで、上記学習ベクトル
は、認識対象の4000カテゴリをフォントや2値化レ
ベルのバリエーションを加味した数百万オーダーの文字
の中から可能なかぎり集めたものである。レジスタ群2
は、制御部4によって制御されて、多層辞書構築時に必
要な各種のデータが書き込み読み出される。バッファ群
3は、制御部4によって制御されて、上記認識時に用い
られる多層辞書の辞書情報や入力文字の特徴情報が格納
される。制御部4は、汎用CPU(中央演算処理装置)等
で構成され、レジスタ群2を制御して多層辞書を構築し
てバッファ群3に格納する。
The external storage device 1 is composed of a hard disk, a magneto-optical disk, a CD-ROM, or the like, and stores a learning vector in which the features of a large amount of learning data (learning characters) are expressed as vectors. Here, the learning vector is a collection of 4000 categories to be recognized as much as possible from the characters on the order of several millions in which variations of the font and the binarization level are added. Register group 2
Is controlled by the control unit 4 to write and read various data necessary for constructing the multi-layer dictionary. The buffer group 3 is controlled by the control unit 4 and stores the dictionary information of the multi-layer dictionary used at the time of recognition and the characteristic information of the input character. The control unit 4 is composed of a general-purpose CPU (central processing unit) or the like, controls the register group 2 to construct a multi-layer dictionary, and stores it in the buffer group 3.

【0035】本実施の形態において作成される多層辞書
は、図11に示すような構造を有している。この多層辞
書は、上記学習ベクトルをクラスタリングによって多数
(本実施の形態では4000×50とする)に分類した場
合の各クラスタの代表ベクトルを、終端代表ベクトル
(終端ノード●に至る代表ベクトル)としている。そし
て、他の終端代表ベクトルとの分離能力の無い終端代表
ベクトルを統合してノード(○)を拡張すると共に、この
統合された終端代表ベクトルの一つを代表ベクトルとし
ている。
The multi-layer dictionary created in this embodiment has a structure as shown in FIG. This multi-layered dictionary uses clustering of the above learning vectors.
The representative vector of each cluster when it is classified into (4000 × 50 in this embodiment) is the terminal representative vector.
(Representative vector leading to terminal node ●). Then, the terminal representative vector having no ability to separate from other terminal representative vectors is integrated to expand the node (◯), and one of the integrated terminal representative vectors is set as the representative vector.

【0036】次に、上記バッファ群3の詳細な構成につ
いて説明する。バッファ群3は、ノードバッファ5,最
近傍辞書バッファ6,入力特徴バッファ7,クラス平均ベ
クトル・バッファ8およびワークメモリ9で構成されて
いる。以下、各バッファについて詳細に説明する。
Next, the detailed structure of the buffer group 3 will be described. The buffer group 3 is composed of a node buffer 5, a nearest neighbor dictionary buffer 6, an input feature buffer 7, a class average vector buffer 8 and a work memory 9. Hereinafter, each buffer will be described in detail.

【0037】図2は、上記ノードバッファ5の構成を示
す。このノードバッファ5は、1ノード当たり、図11
に示すノードの番号を格納する2バイトのノード番号部
11と、当該ノードに属する代表ベクトルの数を格納す
る2バイトの代表ベクトル数部12と、夫々の代表ベク
トルの情報を格納する代表ベクトル部13で構成され
る。但し、代表ベクトル部13は、1ノード当たりの最
大代表ベクトル数分だけ設けられている。この1ノード
当たりの最大代表ベクトル数とは、個々の認識装置毎に
随意に決定できる値であり、本活字日本語OCRでは
「32」である。
FIG. 2 shows the configuration of the node buffer 5. This node buffer 5 is shown in FIG.
2 byte node number part 11 for storing the node number, a 2 byte representative vector number part 12 for storing the number of representative vectors belonging to the node, and a representative vector part for storing information of each representative vector. It is composed of 13. However, the representative vector unit 13 is provided for the maximum number of representative vectors per node. The maximum number of representative vectors per node is a value that can be arbitrarily determined for each recognition device, and is "32" in the main print Japanese OCR.

【0038】更に、上記代表ベクトル部13は、当該代
表ベクトルを表す最近傍辞書上の番号を格納する2バイ
トの代表ベクトル番号部14、当該代表ベクトルが図1
1に示すような終端代表ベクトル(終端ノード●に到達
する代表ベクトル)でない場合には下層のノード番号を
格納する一方、終端代表ベクトルである場合には終端で
あることを表す16進数「ffff」を格納する2バイトの
次ノード番号部15、4000個の認識対象カテゴリ分
の内部コードに対応付けされた4000ビット分のバイ
ナリデータを格納する500(=4000/8ビット)バ
イトのカテゴリ情報部16で構成される。尚、カテゴリ
情報部16のバイナリデータが「1」である場合には、
当該代表ベクトルは、そのビットに対応付けられている
カテゴリに属する(カテゴリを選択する)ことを意味す
る。尚、上記ノードの総数は個々の認識装置毎に随意に
決定できる値であり、本活字日本語OCRでは「25
6」である。
Further, the representative vector portion 13 is a 2-byte representative vector number portion 14 for storing the number in the nearest neighbor dictionary representing the representative vector.
If it is not the termination representative vector (representative vector that reaches the termination node ●) as shown in 1, the lower node number is stored, while if it is the termination representative vector, it is the hexadecimal number “ffff” indicating the termination. 2 bytes of the next node number portion 15 and 4000 (= 4000/8 bits) bytes of the category information portion 16 storing 4000 bits of binary data associated with 4000 internal codes of the recognition target category. Composed of. If the binary data of the category information section 16 is “1”,
The representative vector means that it belongs to the category associated with the bit (selects the category). It should be noted that the total number of the above nodes is a value that can be arbitrarily determined for each recognition device, and is "25" in the main print Japanese OCR.
6 ”.

【0039】図3は、上記最近傍辞書バッファ6の構成
を示す。この最近傍辞書バッファ6は、1文字当たり、
当該文字の内部コードを格納する2バイトの内部コード
部21、後に詳述する2バイトの母集団フラグ部22、
当該文字の64次元メッシュの特徴をベクトル表現した
場合の特徴ベクトル(以下、最近傍辞書ベクトルと言う)
を格納する64バイトのベクトル部16で構成される。
この最近傍辞書バッファ6に登録されている最近傍辞書
ベクトルが上記多層辞書の終端代表ベクトルであり、未
知の入力文字を最終的に確定する場合に使用される。
尚、上記最近傍辞書バッファ6に登録される文字数は個
々の認識装置毎に随意に決定できる値であり、本活字日
本語OCRでは「4000(カテゴリ)×50」である。
FIG. 3 shows a structure of the nearest neighbor dictionary buffer 6. This nearest dictionary buffer 6 is
A 2-byte internal code portion 21 for storing the internal code of the character, a 2-byte population flag portion 22, which will be described in detail later,
A feature vector when the feature of the 64-dimensional mesh of the character is expressed as a vector (hereinafter referred to as the nearest neighbor dictionary vector)
Is composed of a 64-byte vector portion 16 for storing
The nearest-neighbor dictionary vector registered in the nearest-neighbor dictionary buffer 6 is the terminal representative vector of the multi-layer dictionary and is used when finally determining an unknown input character.
The number of characters registered in the nearest dictionary buffer 6 is a value that can be arbitrarily determined for each recognition device, and is “4000 (category) × 50” in the main print Japanese OCR.

【0040】上記最近傍辞書バッファ6に格納される最
近傍辞書は、外部記憶装置1に記憶されている学習ベク
トルを4000×50個に予め何らかの方法でクラスタ
リングを行って得られた4000×50文字分の標準パ
ターンである。
The nearest neighbor dictionary stored in the nearest neighbor dictionary buffer 6 is 4000 × 50 characters obtained by previously clustering the learning vectors stored in the external storage device 1 into 4000 × 50 by some method. The standard pattern for minutes.

【0041】すなわち、上記最近傍辞書ベクトルで上記
テンプレートを構成し、最近傍辞書バッファ6で上記テ
ンプレート格納部を構成し、ノードバッファ5で上記多
層辞書を構成する。
That is, the template is composed of the nearest neighbor dictionary vector, the template storage unit is composed of the nearest neighbor dictionary buffer 6, and the multilayer dictionary is composed of the node buffer 5.

【0042】図4は、上記入力特徴バッファ7及びクラ
ス平均ベクトル・バッファ8の構成を示す。入力特徴バ
ッファ7は、入力文字の内部コードを格納する2バイト
の内部コード部25、当該入力文字の64次元メッシュ
の特徴をベクトル表現した場合の特徴ベクトルを格納す
る64バイトのベクトル部26で構成される。また、ク
ラス平均ベクトル・バッファ8は、クラスタリング(本実
施の形態においてはk−平均法)によって抽出された平
均ベクトルの内部コードを格納する2バイトの内部コー
ド部31、当該平均ベクトル(以下、クラス平均ベクト
ルと言う)を格納する64バイトのベクトル部32で構
成される。尚、この内部コード部31およびベクトル部
32の組が、1ノード当たりの最大クラス平均ベクトル
数「32」分登録される。
FIG. 4 shows the configuration of the input feature buffer 7 and the class average vector buffer 8. The input feature buffer 7 is composed of a 2-byte internal code part 25 for storing the internal code of the input character and a 64-byte vector part 26 for storing the feature vector when the feature of the 64-dimensional mesh of the input character is expressed as a vector. To be done. In addition, the class average vector buffer 8 includes a 2-byte internal code portion 31 that stores the internal code of the average vector extracted by clustering (in the present embodiment, the k-average method), the average vector (hereinafter, the class). It is composed of a 64-byte vector part 32 for storing an average vector). The set of the internal code part 31 and the vector part 32 is registered for the maximum class average vector number "32" per node.

【0043】上記制御部4は、図5に示すように、後に
詳述するような学習処理を行う学習部51とノード拡張
処理を行うノード拡張部52を有している。
As shown in FIG. 5, the control unit 4 has a learning unit 51 for performing a learning process and a node expansion unit 52 for performing a node expansion process, which will be described in detail later.

【0044】上記学習部51は、最類似代表ベクトル探
索手段55および上記カテゴリ情報付与手段としての内
部コード付加手段56を有している。そして、最類似代
表ベクトル探索手段55によって、上記外部記憶装置1
に記憶されている各学習ベクトルとノードバッファ5の
各代表ベクトルとの類似度を求め、最も類似している代
表ベクトルを探索する。さらに、内部コード付加手段5
6によって、ある学習ベクトルに最も類似した代表ベク
トルに当該学習ベクトルの内部コード情報(カテゴリ情
報)を付加する。こうして、多層辞書作成時に失われた
カテゴリ識別境界の情報を、学習ベクトルによって再び
学習するのである。
The learning section 51 has a most similar representative vector searching means 55 and an internal code adding means 56 as the category information adding means. Then, the most similar representative vector searching means 55 causes the external storage device 1 to operate.
Then, the degree of similarity between each learning vector stored in (1) and each representative vector of the node buffer 5 is obtained, and the most similar representative vector is searched. Further, the internal code adding means 5
6, the internal code information (category information) of the learning vector is added to the representative vector most similar to the learning vector. In this way, the information of the category identification boundary, which is lost when the multi-layer dictionary is created, is learned again by the learning vector.

【0045】上記ノード拡張部52は、注目終端代表ベ
クトル抽出手段61,最近傍辞書ベクトル選択手段62,
クラスタリング手段63,最類似代表ベクトル探索手段
64およびノード拡張手段65を有している。
The node expansion unit 52 includes the end-of-interest representative vector extraction means 61, the nearest dictionary vector selection means 62,
It has a clustering means 63, a most similar representative vector searching means 64 and a node expanding means 65.

【0046】上記注目終端代表ベクトル抽出手段61
は、学習後のノードバッファ5における各終端代表ベク
トルの内部コード情報を参照して、新たにノードを拡張
すべき終端代表ベクトルを注目終端代表ベクトルとして
抽出する。最近傍辞書ベクトル選択手段62は、上記注
目終端代表ベクトルが属するカテゴリに属している最近
傍辞書ベクトルであって、ノードバッファ5の全終端代
表ベクトルの中で最も類似している終端代表ベクトルが
注目終端代表ベクトルであるような総ての最近傍辞書ベ
クトルを選択する。クラスタリング手段63は、上記選
択された最近傍辞書ベクトルの群を所定数のクラスタに
クラスタリングを行ってクラス平均ベクトルを求める。
最類似代表ベクトル探索手段64は、各クラス平均ベク
トルに最も類似する最近傍辞書ベクトルを探索する。ノ
ード拡張手段65は、注目終端代表ベクトル抽出手段6
1,最近傍辞書ベクトル選択手段62,クラスタリング手
段63および最類似代表ベクトル探索手段64による処
理結果に基づいてノードを拡張し、ノードバッファ5に
拡張ノードの情報を書き込む。
The noted end representative vector extracting means 61
Refers to the internal code information of each terminal representative vector in the node buffer 5 after learning, and extracts the terminal representative vector for expanding the node as a target terminal representative vector. The nearest neighbor dictionary vector selection unit 62 is the nearest neighbor dictionary vector belonging to the category to which the noted terminal representative vector belongs, and the terminal representative vector that is the most similar among all the terminal representative vectors of the node buffer 5 is noted. Select all nearest neighbor dictionary vectors that are terminal representative vectors. The clustering unit 63 clusters the selected group of nearest neighbor dictionary vectors into a predetermined number of clusters to obtain a class average vector.
The most similar representative vector searching means 64 searches for the nearest neighbor dictionary vector that is most similar to each class average vector. The node expansion means 65 is the end-of-interest representative vector extraction means 6
1, the nearest neighbor dictionary vector selecting means 62, the clustering means 63, and the most similar representative vector searching means 64 expand the node based on the processing result, and the information of the expanded node is written in the node buffer 5.

【0047】上記構成において、上記制御部4は、初期
状態の多層辞書(1ノード/32代表ベクトル)に対し
て、後に詳述するような学習処理とノード拡張処理と
を、全ノード数が上記ノード総数「256」になるまで
繰り返して行うことによって多層辞書を作成する。以
下、上記学習処理およびノード拡張処理について説明す
る。
In the above configuration, the control unit 4 performs the learning process and the node expansion process, which will be described in detail later, on the multilayer dictionary (1 node / 32 representative vector) in the initial state when the total number of nodes is the above. The multi-layer dictionary is created by repeating the process until the total number of nodes reaches "256". The learning process and the node expansion process will be described below.

【0048】上記学習処理とは、上記最近傍辞書バッフ
ァ6に格納された最近傍辞書ベクトル(4000×50
文字分)を基にある条件下で多層辞書を作成した場合に
損失したカテゴリ境界の情報を、外部記憶装置1に記憶
されている学習ベクトルで学習することによって鮮明に
する処理である。この処理は学習部51によって行われ
る。図6は、上記制御部4の学習部51によって実行さ
れる学習処理動作のフローチャートである。以下、図6
に従って、学習処理動作について詳細に説明する。
The learning process is the nearest neighbor dictionary vector (4000 × 50) stored in the nearest neighbor dictionary buffer 6.
This is a process for clarifying the information on the category boundary, which is lost when a multi-layer dictionary is created under a certain condition based on (characters), by learning with a learning vector stored in the external storage device 1. This processing is performed by the learning unit 51. FIG. 6 is a flowchart of the learning processing operation executed by the learning unit 51 of the control unit 4. Below, FIG.
The learning processing operation will be described in detail in accordance with.

【0049】本学習処理は、処理対象となる多層辞書が
1ノード/32代表ベクトルのみの初期状態であって
も、構築途中の状態であっても、実行可能である。以下
の説明は、あるn(n≦256)個までノード拡張が行わ
れた多層辞書を想定して行う。
This learning process can be executed whether the multi-layer dictionary to be processed is in the initial state of only 1 node / 32 representative vector or in the state of being constructed. The following description will be made assuming a multi-layer dictionary in which node expansion is performed up to a certain n (n ≦ 256).

【0050】ステップS1で、上記外部記憶装置1から
1つの学習ベクトルが読み出され、入力特徴バッファ7
に格納される。ステップS2で、上記レジスタ群2を構
成して、注目ノードの番号が格納されるノード番号レジ
スタ35に、ルートノード番号「0」が格納される。
In step S1, one learning vector is read from the external storage device 1 and the input feature buffer 7
Stored in. In step S2, the root node number "0" is stored in the node number register 35, which constitutes the register group 2 and stores the number of the target node.

【0051】ステップS3で、上記ノードバッファ5に
おけるノード番号レジスタ35によって指定される注目
ノードの代表ベクトル数部12から、当該注目ノードの
代表ベクトル数が読み出される。そして、上記レジスタ
群2を構成する代表ベクトル数レジスタ36に格納され
る。ステップS4で、上記レジスタ群2を構成する第1
ループレジスタ37および最大類似度レジスタ28の内
容が「0」に初期化される。
In step S3, the number of representative vectors of the target node is read from the representative vector number section 12 of the target node designated by the node number register 35 in the node buffer 5. Then, it is stored in the representative vector number register 36 constituting the register group 2. In step S4, the first register forming the register group 2
The contents of the loop register 37 and the maximum similarity register 28 are initialized to "0".

【0052】ステップS5で、上記ノードバッファ5に
おける注目ノードの代表ベクトル部13,13,…から、
第1ループレジスタ37の内容で示される番号(順番)の
代表ベクトル部13が選択される。そして、この選択さ
れた代表ベクトル部13の代表ベクトル番号部14から
当該代表ベクトルの最近傍辞書上の番号が読み出され
て、上記レジスタ群2を構成する代表ベクトル番号レジ
スタ39に格納される。
In step S5, from the representative vector parts 13, 13, ... Of the target node in the node buffer 5,
The representative vector portion 13 having the number (order) indicated by the contents of the first loop register 37 is selected. Then, the number in the nearest neighbor dictionary of the representative vector is read from the representative vector number section 14 of the selected representative vector section 13 and stored in the representative vector number register 39 constituting the register group 2.

【0053】ステップS6で、上記代表ベクトル番号レ
ジスタ39に格納された当該代表ベクトルの最近傍辞書
上の番号に基づいて、最近傍辞書バッファ6におけるベ
クトル部23に格納されている最近傍辞書ベクトルが、
当該代表ベクトルの特徴ベクトルとして読み出される。
そうした後、上記読み出された当該代表ベクトルと入力
特徴バッファ7に格納されている注目学習ベクトルとの
類似度が算出され、算出値がレジスタ群2を構成する類
似度レジスタ40に格納される。
In step S6, the nearest neighbor dictionary vector stored in the vector unit 23 in the nearest neighbor dictionary buffer 6 is determined based on the number in the nearest neighbor dictionary of the representative vector stored in the representative vector number register 39. ,
It is read out as a feature vector of the representative vector.
After that, the similarity between the read representative vector and the learning vector of interest stored in the input feature buffer 7 is calculated, and the calculated value is stored in the similarity register 40 constituting the register group 2.

【0054】ステップS7で、上記類似度レジスタ40
の内容と最大類似度レジスタ28の内容とが比較され
る。その結果、類似度レジスタ40の内容が最大類似度
レジスタ28の内容以上であればステップS8に進む。
一方、そうでなければステップS9に進む。ステップS8
で、上記レジスタ群2を構成する選択番号レジスタ41
に、第1ループレジスタ37の内容が格納される。さら
に、類似度レジスタ40の内容で最大類似度レジスタ3
8の内容が更新される。ステップS9で、上記第1ルー
プレジスタ37がインクリメントされる。
In step S7, the similarity register 40
And the content of the maximum similarity register 28 are compared. As a result, if the content of the similarity register 40 is equal to or larger than the content of the maximum similarity register 28, the process proceeds to step S8.
On the other hand, if not, the process proceeds to step S9. Step S8
Then, the selection number register 41 constituting the register group 2 is
The contents of the first loop register 37 are stored in. Furthermore, the maximum similarity register 3
8 is updated. In step S9, the first loop register 37 is incremented.

【0055】ステップS10で、上記第1ループレジスタ
37の内容と代表ベクトル数レジスタ36の内容とが比
較される。その結果、第1ループレジスタ37の内容が
代表ベクトル数レジスタ36の内容より小さければ上記
ステップS5に戻って次の代表ベクトルに係る処理に移
行する。そして、第1ループレジスタ37の内容が代表
ベクトル数レジスタ36以上であると判定されるまで、
当該注目ノードの代表ベクトルを順次変えて上記ステッ
プS5からステップS10までの処理が繰り返される。そ
の結果、選択番号レジスタ41には、注目ノード内で注
目学習ベクトルに最も類似している代表ベクトルの番号
が格納される。また、最大類似度レジスタ38には、そ
の際の最大類似度が格納されることになる。
In step S10, the contents of the first loop register 37 and the contents of the representative vector number register 36 are compared. As a result, if the content of the first loop register 37 is smaller than the content of the representative vector number register 36, the process returns to the above step S5 and shifts to the processing relating to the next representative vector. Then, until it is determined that the content of the first loop register 37 is greater than or equal to the representative vector number register 36,
The representative vector of the node of interest is sequentially changed and the processing from step S5 to step S10 is repeated. As a result, the selection number register 41 stores the number of the representative vector that is most similar to the focused learning vector in the focused node. Further, the maximum similarity register 38 stores the maximum similarity at that time.

【0056】ステップS11で、上記ノードバッファ5か
ら、ノード番号レジスタ35の内容で示される注目ノー
ドにおける選択番号レジスタ41の内容で示される代表
ベクトル部13が選出される。そして、当該代表ベクト
ル部13のカテゴリ情報部16における注目学習ベクト
ルの内部コードと同じ内部コードに対応付けされたビッ
トに「1」が格納される。こうして、注目ノードの当該
代表ベクトルは注目学習ベクトルと同じカテゴリに属し
ていることの情報が保持される。
In step S11, the representative vector portion 13 indicated by the contents of the selection number register 41 in the target node indicated by the contents of the node number register 35 is selected from the node buffer 5. Then, “1” is stored in the bit associated with the same internal code as the internal code of the attention learning vector in the category information unit 16 of the representative vector unit 13. In this way, information that the representative vector of the attention node belongs to the same category as the attention learning vector is held.

【0057】ステップS12で、上記ノードバッファ5に
おける当該代表ベクトル部13の次ノード番号部15か
ら次ノード番号が読み出され、次ノード番号レジスタ4
2に格納される。ステップS13で、次ノード番号レジス
タ42に格納された次ノード番号が終端を表す16進数
(ffff)であるか否かを判別することによって、次ノード
は終端ノードであるか否かが判別される。その結果、終
端ノードでなければステップS14に進む一方、終端ノー
ドであればステップS15に進む。
In step S12, the next node number is read from the next node number portion 15 of the representative vector portion 13 in the node buffer 5, and the next node number register 4 is read.
Stored in 2. In step S13, the next node number stored in the next node number register 42 is a hexadecimal number indicating the end.
By determining whether or not it is (ffff), it is determined whether or not the next node is the terminal node. As a result, if it is not the terminal node, the process proceeds to step S14, while if it is the terminal node, the process proceeds to step S15.

【0058】ステップS14で、上記ノード番号レジスタ
35に次ノード番号レジスタ42の内容が格納される。
そうした後に、上記ステップS3に戻って次のノードに
対する処理に移行する。そして、上記ステップS13にお
いて次ノードが終端ノードであると判定されると上記ス
テップS15に移行する。ステップS15で、上記レジスタ
群2を構成する終端ノード番号レジスタ43にノード番
号レジスタ35の内容が格納される。また、上記レジス
タ群2を構成する終端選択番号レジスタ44に選択番号
レジスタ41の内容が格納される。
In step S14, the contents of the next node number register 42 are stored in the node number register 35.
After that, the process returns to the step S3 to shift to the process for the next node. If it is determined in step S13 that the next node is the terminal node, the process proceeds to step S15. In step S15, the contents of the node number register 35 are stored in the terminal node number register 43 which constitutes the register group 2. Further, the contents of the selection number register 41 are stored in the termination selection number register 44 which constitutes the register group 2.

【0059】ステップS16で、上記外部記憶装置1に記
憶されている全学習ベクトルによる学習が終了したか否
かが判別される。その結果、終了していれば学習処理動
作を終了する。一方、終了していなければ、上記ステッ
プS1に戻って次の学習ベクトルによる学習に移行す
る。そして、全学習ベクトルによる学習が終了したと判
別されると学習処理動作を終了する。
In step S16, it is determined whether or not the learning with all the learning vectors stored in the external storage device 1 is completed. As a result, if it is finished, the learning processing operation is finished. On the other hand, if it has not been completed, the process returns to step S1 to proceed to the learning by the next learning vector. Then, when it is determined that the learning with all the learning vectors is completed, the learning processing operation is ended.

【0060】すなわち、本実施の形態では、上記ステッ
プS3〜S10,S12〜S14,S16で上記最類似代表ベクト
ル探索手段を構成し、上記ステップS11で上記内部コー
ド付加手段を構成するのである。
That is, in the present embodiment, the above-mentioned steps S3 to S10, S12 to S14, and S16 constitute the above-mentioned most similar representative vector searching means, and the above step S11 constitutes the above-mentioned internal code adding means.

【0061】上述のように、本実施の形態における学習
処理においては、上記ノードバッファ5に、ノード番
号,代表ベクトル数,代表ベクトル番号および次ノード番
号等のノード情報の形で格納されている多層辞書に関し
て、学習ベクトルに最も類似した終端代表ベクトルを求
め、この求められた終端代表ベクトルのカテゴリ情報に
上記類似学習ベクトルの内部コード(カテゴリ情報)を追
加する。したがって、上記最近傍辞書作成時および多層
辞書作成時に失われた各カテゴリ境界の情報が、再び学
習ベクトルによって鮮明化されるのである。
As described above, in the learning process according to the present embodiment, the node buffer 5 stores multiple layers of node information such as node numbers, representative vector numbers, representative vector numbers, and next node numbers. Regarding the dictionary, the terminal representative vector most similar to the learning vector is obtained, and the internal code (category information) of the similar learning vector is added to the obtained category information of the terminal representative vector. Therefore, the information of each category boundary lost at the time of creating the nearest neighbor dictionary and at the time of creating the multi-layer dictionary is sharpened again by the learning vector.

【0062】また、上記学習は、上記外部記憶装置1に
格納された全学習ベクトルを用いて行われる。したがっ
て、上記学習ベクトルの数が幾らであっても、全ての学
習ベクトルは必ず何れかの終端代表ベクトルによって選
択されることになり、多層辞書通過率(終端代表ベクト
ルで選択される学習ベクトル)は必ず100%となる。
つまり、本実施の形態における多層辞書は、大量の学習
ベクトルによるカテゴリ境界情報を100%保存してい
ることになる。
The learning is performed using all learning vectors stored in the external storage device 1. Therefore, no matter how many learning vectors there are, all learning vectors must be selected by any of the terminal representative vectors, and the multilayer dictionary passage rate (the learning vector selected by the terminal representative vector) is It will definitely be 100%.
That is, the multilayer dictionary according to the present embodiment stores 100% of the category boundary information based on a large amount of learning vectors.

【0063】次に、上記ノード拡張処理について説明す
る。上記ノード拡張処理とは、他の終端代表ベクトルと
のカテゴリ分離能力の無い終端代表ベクトルであって特
徴空間上において多くのカテゴリが密集している部分で
新たなノードを拡張する処理である。図8〜図10は、
上記制御部4のノード拡張部52によって実行されるノ
ード拡張処理動作のフローチャートである。以下、図8
〜図10に従って、ノード拡張処理動作について詳細に
説明する。
Next, the node expansion processing will be described. The node expansion process is a process of expanding a new node in a portion where many categories are dense in the feature space, which is a termination representative vector that does not have a category separation ability from other termination representative vectors. 8 to FIG.
9 is a flowchart of a node expansion processing operation executed by the node expansion unit 52 of the control unit 4. Below, FIG.
The node expansion processing operation will be described in detail with reference to FIG.

【0064】本実施の形態における上記ノード拡張処理
においては、上述の学習処理によって作成された各終端
代表ベクトルのカテゴリ情報部16の内容に基づいて行
われる。したがって、前提として、上記多層辞書に対す
る学習処理が終了している必要がある。したがって、以
下のノード拡張処理動作は、あるn(n≦256)個のノ
ードを有する多層辞書が作成され、且つ、上記学習処理
が終了しているものとして説明を行う。
The node expansion processing in this embodiment is performed based on the contents of the category information section 16 of each terminal representative vector created by the above-described learning processing. Therefore, as a premise, the learning process for the above-mentioned multilayer dictionary must be completed. Therefore, the following node expansion processing operation will be described assuming that a multi-layer dictionary having a certain n (n ≦ 256) nodes has been created and the learning processing has been completed.

【0065】ステップS21で、上記ノードバッファ5を
検索して現在のノード数「n」がカウントされる。そし
て、レジスタ群2を構成する全ノード数レジスタ45
に、上記求められた現在のノード数「n」が格納され
る。ステップS22で、上記全ノード数レジスタ45の内
容「n」は、上記設定された最大ノード数(本実施の形
態においては「256」)より小さいか否かが判別され
る。その結果、最大ノード数「256」より小さければ
ステップS23に進み、そうでなければノード拡張処理動
作を終了する。
In step S21, the node buffer 5 is searched and the current number "n" of nodes is counted. Then, the total node number register 45 constituting the register group 2
The current number of nodes “n” obtained above is stored in the. In step S22, it is determined whether the content "n" of the total node number register 45 is smaller than the set maximum number of nodes ("256" in the present embodiment). As a result, if it is smaller than the maximum number of nodes "256", the process proceeds to step S23, and if not, the node expansion processing operation ends.

【0066】ステップS23で、上記ノードバッファ5の
総ての次ノード番号部15の内容に基づいて、ノードバ
ッファ5における全終端代表ベクトルのカテゴリ情報部
16が参照される。そして、カテゴリ情報部16におけ
る「1」が格納されているビット数(属するカテゴリ数)
が、設定された閾値α(本実施の形態においては、α=
200)以上であって、且つ、最大ビット数を呈する終
端代表ベクトルを抽出し、注目終端代表ベクトルとす
る。こうして、上記注目終端代表ベクトルが抽出された
場合には、ノードバッファ5における注目終端代表ベク
トルが属するノードのノード番号部11の内容が、レジ
スタ群2を構成する注目終端ノード番号レジスタ46に
格納される。また、注目終端代表ベクトルの番号が、レ
ジスタ群2を構成する注目終端ベクトル番号レジスタ4
7に格納される。一方、抽出されなかった場合には、注
目終端ノード番号レジスタ46に、未抽出であることを
表す16進数(ffff)が格納される。
In step S23, the category information part 16 of all terminal representative vectors in the node buffer 5 is referred to based on the contents of all the next node number parts 15 of the node buffer 5. The number of bits in which "1" is stored in the category information section 16 (the number of categories to which it belongs)
Is a set threshold value α (in the present embodiment, α =
200) or more and the terminal end representative vector having the maximum number of bits is extracted and set as the target terminal end representative vector. In this way, when the target termination representative vector is extracted, the contents of the node number portion 11 of the node to which the target termination representative vector in the node buffer 5 belongs is stored in the target termination node number register 46 that constitutes the register group 2. It In addition, the number of the target termination representative vector is the number of the target termination vector number register 4 forming the register group 2.
Stored in 7. On the other hand, if it has not been extracted, the hexadecimal number (ffff) indicating that it has not been extracted is stored in the target terminal node number register 46.

【0067】ステップS24で、上記注目終端ノード番号
レジスタ46の内容が参照されて、上記ステップS23に
おいて注目終端代表ベクトルが抽出されたか否かが判別
される。その結果、抽出された場合にはステップS25に
進む一方、抽出されない場合にはノード拡張処理動作を
終了する。ステップS25で、上記最近傍辞書バッファ6
における全母集団フラグ部22の内容が「0」クリアさ
れる。ステップS26で、上記レジスタ群2を構成する最
近傍辞書カウンタ48の内容が「0」クリアされる。ま
た、最近傍辞書バッファ6に格納されている最近傍辞書
ベクトル数がカウントされ、このカウント値が、レジス
タ群2を構成する最近傍辞書数レジスタ49にセットさ
れる。
In step S24, the contents of the target terminal node number register 46 are referred to, and it is determined whether or not the target terminal representative vector is extracted in step S23. As a result, if extracted, the process proceeds to step S25, while if not extracted, the node expansion processing operation ends. In step S25, the nearest dictionary buffer 6
The content of the entire population flag section 22 in is cleared to "0". In step S26, the content of the nearest neighbor dictionary counter 48 constituting the register group 2 is cleared to "0". Further, the number of nearest neighbor dictionary vectors stored in the nearest neighbor dictionary buffer 6 is counted, and this count value is set in the nearest neighbor dictionary number register 49 forming the register group 2.

【0068】ステップS27で、上記最近傍辞書バッファ
6における最近傍辞書カウンタ48で示される番号(順
番)の内部コード部21およびベクトル部23の内容
が、入力特徴バッファ7の内部コード部25およびベク
トル部26に格納される。
In step S27, the contents of the internal code part 21 and the vector part 23 of the number (order) indicated by the nearest neighbor dictionary counter 48 in the nearest dictionary buffer 6 become the internal code part 25 and the vector of the input feature buffer 7. It is stored in the unit 26.

【0069】ステップS28で、上記注目終端ノード番号
レジスタ46の内容と注目終端ベクトル番号レジスタ4
7の内容に基づいて、ノードバッファ5における注目終
端代表ベクトルのカテゴリ情報部16が参照される。そ
して、入力特徴バッファ7の内部コード部25に格納さ
れている内部コードに対応付けられたビットに「1」が
格納されているか否かを判別することによって、入力特
徴バッファ7に格納されている最近傍辞書ベクトル(文
字)が注目終端代表ベクトルで選択されているか否か(つ
まり、注目終端代表ベクトルが属するカテゴリに属して
いるか否か)が判別される。その結果、選択されている
(属している)場合にはステップS29に進む一方、選択さ
れていない(属していない)場合にはステップS32に進
む。
At step S28, the contents of the noticed end node number register 46 and the noticed end vector number register 4
Based on the contents of No. 7, the category information unit 16 of the target termination representative vector in the node buffer 5 is referred to. Then, it is stored in the input feature buffer 7 by determining whether or not "1" is stored in the bit associated with the internal code stored in the internal code portion 25 of the input feature buffer 7. It is determined whether or not the nearest dictionary vector (character) is selected as the target end representative vector (that is, whether it belongs to the category to which the target end representative vector belongs). As a result, it is selected
If it belongs (belongs to), the process proceeds to step S29. If it is not selected (belongs to), the process proceeds to step S32.

【0070】ステップS29で、上記入力特徴バッファ7
に格納されている最近傍辞書ベクトルを学習ベクトルと
見なして、図6および図7に示す学習処理動作における
上記ステップS2〜ステップS15が行われる。
In step S29, the input feature buffer 7 is input.
The nearest neighbor dictionary vector stored in is regarded as a learning vector, and steps S2 to S15 in the learning processing operation shown in FIGS. 6 and 7 are performed.

【0071】ステップS30で、上記ステップS29におけ
る学習の結果、上記終端ノード番号レジスタ43および
終端選択番号レジスタ44の内容が、注目終端ノード番
号レジスタ46および注目終端ベクトル番号レジスタ4
7の内容に一致するか否かが判別される。こうして、入
力特徴バッファ7に格納されている最近傍辞書ベクトル
が、注目終端代表ベクトルを終端としているか否か(つ
まり、上記多層辞書の全終端代表ベクトル中で注目終端
代表ベクトルに最も類似しているか否か)が判別され
る。その結果、終端としている(注目終端代表ベクトル
に最も類似している)場合にはステップS31に進む一
方、終端としていない(注目終端代表ベクトル以外の終
端代表ベクトルに最も類似している)場合にはステップ
S32に進む。ステップS31で、上記最近傍辞書バッファ
6における最近傍辞書カウンタ48で示される番号の母
集団フラグ部22に「1」が格納される。
In step S30, as a result of the learning in step S29, the contents of the end node number register 43 and end selection number register 44 are changed to the end node number register 46 of interest and the end vector number register 4 of interest.
It is determined whether or not the contents of 7 match. In this way, whether or not the nearest neighbor dictionary vector stored in the input feature buffer 7 is terminated by the end-of-interest representative vector (that is, is it most similar to the end-of-interest representative vector among all the end-of-representative vectors of the multi-layer dictionary)? Whether or not) is determined. As a result, if the terminal is the terminal (most similar to the target terminal representative vector), the process proceeds to step S31, while if not terminal (most similar to the terminal representative vector other than the target terminal representative vector). It proceeds to step S32. In step S31, "1" is stored in the population flag unit 22 of the number indicated by the nearest neighbor dictionary counter 48 in the nearest neighbor dictionary buffer 6.

【0072】ステップS32で、上記最近傍辞書カウンタ
48がインクリメントされる。ステップS33で、上記最
近傍辞書カウンタ48の内容と最近傍辞書数レジスタ4
9の内容とが比較される。その結果、最近傍辞書カウン
タ48の内容が最近傍辞書数レジスタ49の内容よりも
小さければ、上記ステップS27に戻って次の最近傍辞書
ベクトルに対する処理に移行する。そして、最近傍辞書
カウンタ48の内容が最近傍辞書数レジスタの内容以上
であると判定されるまで、最近傍辞書ベクトルを順次変
えて上記ステップS27からステップS33までの処理が繰
り返される。その結果、注目終端代表ベクトルと同じカ
テゴリに属しており、且つ、注目終端代表ベクトルを終
端としている最近傍辞書ベクトルの母集団フラグ部22
に「1」が格納されることになる。そして、最近傍辞書
カウンタ48の内容が最近傍辞書数レジスタ49の内容
以上になればステップS34に進む。
In step S32, the nearest neighbor dictionary counter 48 is incremented. In step S33, the contents of the nearest neighbor dictionary counter 48 and the nearest neighbor dictionary number register 4
The contents of 9 are compared. As a result, if the content of the nearest-neighbor dictionary counter 48 is smaller than the content of the nearest-neighbor dictionary number register 49, the process returns to the step S27 to shift to the process for the next nearest-neighbor dictionary vector. Then, until it is determined that the content of the nearest-neighbor dictionary counter 48 is equal to or larger than the content of the nearest-neighbor dictionary number register, the nearest-neighbor dictionary vector is sequentially changed and the processing from step S27 to step S33 is repeated. As a result, the population flag unit 22 of the nearest-neighbor dictionary vector that belongs to the same category as the noticed end representative vector and ends at the noticed end representative vector.
"1" will be stored in. When the content of the nearest neighbor dictionary counter 48 becomes equal to or larger than the content of the nearest neighbor dictionary number register 49, the process proceeds to step S34.

【0073】ステップS34で、上記最近傍辞書バッファ
6における全母集団フラグ部22が参照されて、母集団
フラグ部22の内容が「1」である総ての最近傍辞書ベ
クトルが読み出される。そして、この最近傍辞書ベクト
ルの集団に対して、k−平均法によって最大「32」ク
ラスにクラスタリングが行われる。そして、求められた
32クラスの平均ベクトルが、クラス平均ベクトル・バ
ッファ8のベクトル部32に格納される。
In step S34, all the population flag parts 22 in the nearest neighbor dictionary buffer 6 are referred to, and all the nearest neighbor dictionary vectors whose contents are "1" are read out. Then, the cluster of the nearest dictionary vectors is subjected to clustering in the maximum “32” class by the k-means method. Then, the obtained average vector of 32 classes is stored in the vector unit 32 of the class average vector buffer 8.

【0074】ステップS35で、以後に行われるノード拡
張によって全ノード数が1つ増加する。そこで、全ノー
ド数レジスタ45の内容がインクリメントされる。ステ
ップS36で、上記全ノード数レジスタ45の内容は、設
定された最大ノード数「256」以下か否かが判別され
る。その結果、最大ノード数「256」以下であればス
テップS37に進み、そうでなければ新ノード拡張処理動
作を終了する。
At step S35, the number of all nodes is incremented by 1 due to the subsequent node expansion. Therefore, the content of the total node number register 45 is incremented. In step S36, it is determined whether or not the content of the total node number register 45 is less than or equal to the set maximum number of nodes "256". As a result, if the maximum number of nodes is "256" or less, the process proceeds to step S37, and if not, the new node expansion processing operation ends.

【0075】ステップS37で、上記レジスタ群2を構成
する第2ループレジスタ50の内容が「0」に初期化さ
れる。ステップS38で、上記第1ループレジスタ37お
よび最大類似度レジスタ38の内容が「0」に初期化さ
れる。
At step S37, the contents of the second loop register 50 constituting the register group 2 are initialized to "0". In step S38, the contents of the first loop register 37 and the maximum similarity register 38 are initialized to "0".

【0076】ステップS39で、上記クラス平均ベクトル
・バッファ8における第2ループレジスタ50で示され
る番号(順番)のベクトル部32に格納されているクラス
平均ベクトルと、最近傍辞書バッファ6における第1ル
ープレジスタ37で示される番号のベクトル部23に格
納されている最近傍辞書ベクトルとの類似度が算出され
る。そして、得られた類似度が、類似度レジスタ40に
格納される。
In step S 39, the class average vector stored in the vector portion 32 of the number (order) indicated by the second loop register 50 in the class average vector buffer 8 and the first loop in the nearest neighbor dictionary buffer 6 The degree of similarity with the nearest neighbor dictionary vector stored in the vector part 23 of the number indicated by the register 37 is calculated. Then, the obtained similarity is stored in the similarity register 40.

【0077】ステップS40で、上記類似度レジスタ40
の内容が最大類似度レジスタ38の内容以上であるか否
かが判別される。その結果、以上であればステップS41
に進む一方、そうでなければステップS42に進む。ステ
ップS41で、上記選択番号レジスタ41に第1ループレ
ジスタ37の内容が格納される。さらに、類似度レジス
タ40の内容で最大類似度レジスタ38の内容が更新さ
れる。
At step S40, the similarity register 40
It is determined whether or not the content of is greater than or equal to the content of the maximum similarity register 38. As a result, if above, step S41
On the other hand, if not, the process proceeds to step S42. In step S41, the contents of the first loop register 37 are stored in the selection number register 41. Further, the contents of the maximum similarity register 38 are updated with the contents of the similarity register 40.

【0078】ステップS42で、上記第1ループレジスタ
37がインクリメントされる。ステップS43で、上記第
1ループレジスタ37の内容が最近傍辞書数レジスタ4
9の内容よりも小さいか否かが判別される。その結果、
小さい場合には上記ステップS39に戻って次の最近傍辞
書ベクトルを用いた類似度算出に移行する。そして、第
1ループレジスタ37の内容が最近傍辞書数レジスタ4
9の内容以上であると判定されるまで、上記最近傍辞書
ベクトルを順次変えて上記ステップS39からステップS
43までの処理が繰り返される。その結果、選択番号レジ
スタ41には、注目クラス平均ベクトルと最大類似度を
呈する最近傍辞書ベクトルの番号が格納される。また、
最大類似度レジスタ28には、その際の最大類似度が格
納されることになる。そして、上記第1ループレジスタ
37の内容が最近傍辞書数レジスタ49の内容以上にな
ればステップS44に進む。
In step S42, the first loop register 37 is incremented. In step S43, the contents of the first loop register 37 is the nearest neighbor dictionary number register 4
It is determined whether or not it is smaller than the content of 9. as a result,
If it is smaller, the process returns to the step S39 to shift to the similarity calculation using the next nearest neighbor dictionary vector. The content of the first loop register 37 is the nearest dictionary number register 4
Until the content of 9 or more is determined, the nearest neighbor dictionary vector is sequentially changed and the steps S39 to S39 are performed.
The processes up to 43 are repeated. As a result, the selection number register 41 stores the number of the nearest-neighbor dictionary vector having the maximum similarity with the target class average vector. Also,
The maximum similarity degree at that time is stored in the maximum similarity degree register 28. When the content of the first loop register 37 is equal to or larger than the content of the nearest neighbor dictionary number register 49, the process proceeds to step S44.

【0079】ステップS44で、上記ノードバッファ5に
対して以下の処理が行われる。すなわち、(全ノード数
レジスタ45の内容−1)で指定されるノード(以下、拡
張ノードと言う)における第2ループレジスタ50の内
容で指定される代表ベクトル部13の代表ベクトル番号
部14に、選択番号レジスタ41の内容(最も類似する
最近傍辞書ベクトルの番号)が格納される。さらに、当
該拡張ノードの当該代表ベクトル部13における次ノー
ド番号部15に、16進数「ffff」が格納される。ま
た、注目終端ノード番号レジスタ46の内容で指定され
る注目ノード(当該拡張ノードの上層ノード)の第2ルー
プレジスタ50の内容で指定される代表ベクトル部13
におけるカテゴリ情報部16の内容が「0」クリアされ
る。
In step S44, the following processing is performed on the node buffer 5. That is, in the representative vector number portion 14 of the representative vector portion 13 designated by the contents of the second loop register 50 in the node designated by (contents of the total number of nodes register 45-1) (hereinafter referred to as an extended node), The content of the selection number register 41 (the number of the most similar nearest neighbor dictionary vector) is stored. Further, the hexadecimal number “ffff” is stored in the next node number portion 15 in the representative vector portion 13 of the extension node. In addition, the representative vector unit 13 specified by the contents of the second loop register 50 of the node of interest (upper layer node of the expansion node) specified by the contents of the end node number register 46 of interest
The content of the category information section 16 in is cleared to “0”.

【0080】ステップS45で、上記第2ループレジスタ
50がインクリメントされる。ステップS46で、上記第
2ループレジスタ50の内容が、最大クラス数「32」
より小さいか否かが判別される。その結果、小さい場合
には上記ステップS38に戻って次のクラス平均ベクト
ルを用いた類似度算出に移行する。そして、第2ループ
レジスタ50の内容が最大クラス数「32」以上であると
判定されるまで、クラス平均ベクトルを順次変えて上記
ステップS38からステップS46までの処理が繰り返され
る。その結果、新たに拡張された拡張ノードの各代表ベ
クトル部13における代表ベクトル番号部14には、こ
の代表ベクトルを表す最近傍辞書上の番号が格納され
る。一方、各次ノード番号部15には16進数「ffff」
が格納される。また上記拡張ノードの上層ノードの全代
表ベクトルのカテゴリ情報部16は「0」クリアされるこ
とになる。そして、上記第2ループレジスタ50の内容
が最大クラス数「32」以上になるとステップS47に進
む。
In step S45, the second loop register 50 is incremented. In step S46, the content of the second loop register 50 is changed to the maximum class number "32".
It is determined whether or not it is smaller. As a result, if it is smaller, the process returns to the step S38 and shifts to the similarity calculation using the next class average vector. Then, until it is determined that the content of the second loop register 50 is equal to or larger than the maximum number of classes "32", the class average vector is sequentially changed and the processing from step S38 to step S46 is repeated. As a result, the representative vector number part 14 in each representative vector part 13 of the newly expanded extended node stores the number in the nearest neighbor dictionary representing this representative vector. On the other hand, the hexadecimal number "ffff" is stored in each secondary node number section 15.
Is stored. Further, the category information part 16 of all the representative vectors of the upper layer nodes of the expansion node is cleared to "0". When the content of the second loop register 50 becomes equal to or larger than the maximum class number "32", the process proceeds to step S47.

【0081】ステップS47で、上記ノードバッファ5に
対して以下の処理が行われる。(全ノード数レジスタ4
5の内容−1)で指定される拡張ノードのノード番号部
11に、(全ノード数レジスタ45の内容−1)が格納さ
れる。また、当該拡張ノードの代表ベクトル部数12に
は、最大クラス数「32」が格納される。また、注目終
端ノード番号レジスタ46の内容で指定される注目ノー
ド(当該拡張ノードの上層ノード)における注目終端ベク
トル番号レジスタ47の内容で指定される代表ベクトル
の次ノード番号部15に、(全ノード数レジスタ45の
内容−1)(下層ノードのノード番号)が格納される。そ
うした後、上記ステップS22に戻る。
In step S47, the following processing is performed on the node buffer 5. (Total node number register 4
(Content-1 of total node number register 45) is stored in the node number portion 11 of the extended node designated by the content-1 of 5). Further, the maximum number of classes “32” is stored in the representative vector copy number 12 of the expansion node. Further, in the next node number part 15 of the representative vector designated by the contents of the noticed end vector number register 47 in the noticed node (upper node of the expansion node) designated by the contents of the noticed end node number register 46, (all nodes The content of the number register 45-1) (node number of lower layer node) is stored. After that, the process returns to step S22.

【0082】以後、上記ステップS22からステップS47
までの処理が繰り返され、上記ステップS22において上
記ノード数「n」が最大ノード数「256」以上であると
判定されると、ノード拡張処理動作を終了する。
Thereafter, the above steps S22 to S47
The processes up to are repeated, and when it is determined in step S22 that the number of nodes "n" is equal to or larger than the maximum number of nodes "256", the node expansion processing operation is ended.

【0083】その結果、上記ノードバッファ5における
拡張ノードも含めた全ノードのノード番号部11には、
0〜(N−1)のノード番号が格納されている。さらに、
上記N個の代表ベクトル数部12の夫々には、最大クラ
ス数「32」が格納されている。さらに、夫々のノード
番号下の32個の代表ベクトル番号部14には、最も類
似する最近傍辞書ベクトルの番号が格納されている。そ
して、今回拡張されたノードの上層ノードの32個の代
表ベクトル夫々の次ノード番号部15には、当該代表ベ
クトルが終端代表ベクトルである場合には16進数「ff
ff」が格納される一方、終端代表ベクトルではない場合
には(全ノード数「N」−1(つまり、下層ノードのノー
ド番号))が格納されている。また、カテゴリ情報部16
はクリアされていることになる。
As a result, the node number parts 11 of all nodes including the extended node in the node buffer 5 are
The node numbers 0 to (N-1) are stored. further,
The maximum number of classes “32” is stored in each of the N representative vector number parts 12. Further, the numbers of the most similar nearest neighbor dictionary vectors are stored in the 32 representative vector number parts 14 under the respective node numbers. Then, in the next node number portion 15 of each of the 32 representative vectors of the upper layer node of the node expanded this time, if the representative vector is a terminal representative vector, the hexadecimal number "ff
ff ”is stored, while it is not the termination representative vector (total node number“ N ”−1 (that is, node number of lower layer node)) is stored. Also, the category information section 16
Has been cleared.

【0084】したがって、上記ノード拡張処理動作を終
了した時点においては、上記ノードバッファ5における
全カテゴリ情報部16はクリアされており、各代表ベク
トルの内部コードは未確定である。そこで、この状態で
上記学習処理を行えば、各代表ベクトルが最も類似する
学習ベクトルの内部コード情報がカテゴリ情報部16に
格納されて、内部コードが確定されるのである。
Therefore, when the node expansion processing operation is completed, all the category information parts 16 in the node buffer 5 are cleared, and the internal code of each representative vector is undetermined. Therefore, if the above learning process is performed in this state, the internal code information of the learning vector that is most similar to each representative vector is stored in the category information unit 16, and the internal code is determined.

【0085】次に、具体的な例を挙げて、図11に示す
ような多層辞書を構築する場合の上記ノード拡張処理に
ついて説明する。ここで、話を簡単にするために、外部
記憶装置1に格納されている学習ベクトル数は50、こ
の学習ベクトルに基づいて作成された最近傍辞書の最近
傍辞書ベクトル数は22、多層辞書の最大ノード数は
4、上記閾値αは4とする。
Next, the node expansion processing in the case of constructing the multi-layer dictionary as shown in FIG. 11 will be described with a specific example. Here, in order to simplify the story, the number of learning vectors stored in the external storage device 1 is 50, the number of nearest neighbor dictionary vectors of the nearest neighbor dictionary created based on this learning vector is 22, and The maximum number of nodes is 4, and the threshold value α is 4.

【0086】先ず、例えば最近傍法によって、50個の
学習ベクトルから22の最近傍辞書ベクトルを有する最
近傍辞書を作成し、最近傍辞書バッファ6に格納してお
く。そして、次に、上記最近傍辞書を4クラスタにクラ
スタリングを行って、図12に示すような、1個のノー
ド/4個の代表ベクトルから成る多層辞書の初期状態を
作成する。ここで、以下のようにして上記初期状態が作
成されたものとする。最初のクラスタには1個の最近傍
辞書ベクトルが属し、そのうちの平均ベクトルに最も類
似した最近傍辞書ベクトル(すなわち、上記唯1個の最
近傍辞書ベクトル)を代表ベクトル(0)とする。2番目
のクラスタには7個の最近傍辞書ベクトルが属し、その
うちの平均ベクトルに最も類似した最近傍辞書ベクトル
を代表ベクトル(1)とする。3番目のクラスタには1個
の最近傍辞書ベクトルが属し、この最近傍辞書ベクトル
を代表ベクトル(2)とする。4番目のクラスタには13
個の最近傍辞書ベクトルが属し、そのうちの平均ベクト
ルに最も類似した最近傍辞書ベクトルを代表ベクトル
(3)とする。そして、この初期状態の多層辞書に対して
学習処理を行うことによって、図13に示すように、ノ
ードバッファ5の内容が設定される。
First, a nearest neighbor dictionary having 22 nearest neighbor dictionary vectors is created from 50 learning vectors, for example, by the nearest neighbor method, and stored in the nearest neighbor dictionary buffer 6. Then, the nearest neighbor dictionary is clustered into 4 clusters to create an initial state of a multi-layer dictionary composed of 1 node / 4 representative vectors as shown in FIG. Here, it is assumed that the above initial state is created as follows. One nearest neighbor dictionary vector belongs to the first cluster, and the nearest neighbor dictionary vector most similar to the average vector among them (that is, the only one nearest neighbor dictionary vector) is set as the representative vector (0). Seven nearest neighbor dictionary vectors belong to the second cluster, and the nearest neighbor dictionary vector that is most similar to the average vector is defined as the representative vector (1). One nearest neighbor dictionary vector belongs to the third cluster, and this nearest neighbor dictionary vector is designated as a representative vector (2). 13 for the 4th cluster
The nearest neighbor dictionary vector belongs to the nearest neighbor dictionary vector, and the nearest neighbor dictionary vector most similar to the average vector is the representative vector.
(3) Then, by performing the learning process on the multi-layer dictionary in the initial state, the contents of the node buffer 5 are set as shown in FIG.

【0087】次に、上記初期状態の多層辞書に対して上
記ノード拡張処理を行う。ここで、上記代表ベクトル
(3)と同じクラスタに属する最近傍辞書ベクトルの数が
1番多いのであるから、上記学習によってカテゴリ情報
部16に格納される「1」の数が1番多いのも代表ベク
トル(3)となる。したがって、閾値α=4以上の最も多
いカテゴリに属している注目終端代表ベクトルとして、
代表ベクトル(3)が抽出される。
…ステップS21〜ステップS23
Next, the node expansion process is performed on the initial multi-layer dictionary. Where the above representative vector
Since the number of nearest neighbor dictionary vectors belonging to the same cluster as (3) is the largest, the number of “1” stored in the category information unit 16 by the above learning is the largest as well. Become. Therefore, as the end-of-interest representative vector belonging to the most category with the threshold value α = 4 or more,
The representative vector (3) is extracted.
... Step S21 to Step S23

【0088】上記最近傍辞書ベクトルを順次変えなが
ら、注目終端代表ベクトル(代表ベクトル(3))のバイナ
リデータ(D)で表されるカテゴリ(D)に属する最近傍辞
書ベクトルであって、代表ベクトル(0)〜代表ベクトル
(3)中で最も類似している代表ベクトルが当該注目終端
代表ベクトル(3)である総ての最近傍辞書ベクトルを捜
し出して、最近傍辞書ベクトルの群を形成する。そし
て、この最近傍辞書ベクトル群をk−平均法で4クラス
タにクラスタリングして、各クラスの平均ベクトルを求
める。…ステップS24〜ステップS34
While sequentially changing the nearest neighbor dictionary vector, the nearest neighbor dictionary vector belonging to the category (D) represented by the binary data (D) of the target termination representative vector (representative vector (3)) is a representative vector. (0) -representative vector
In (3), the most similar representative vector is searched for all the nearest neighbor dictionary vectors that are the target termination representative vector (3), and a group of nearest neighbor dictionary vectors is formed. Then, this nearest neighbor dictionary vector group is clustered into 4 clusters by the k-averaging method to obtain the average vector of each class. ... Step S24 to Step S34

【0089】こうして、カテゴリ識別能力の低い注目終
端代表ベクトル(3)と同じカテゴリに属している最近傍
辞書ベクトルを集めてクラスタリングを行うのである。
ところが、上述したように、上記学習ベクトルから最近
傍辞書を作成する場合には、学習ベクトルによるカテゴ
リ境界情報は失われている。したがって、最近傍辞書バ
ッファ6の情報に基づいて、注目終端代表ベクトル(3)
が属するカテゴリ(D)に属していると判定された最近傍
辞書ベクトルは、その最近傍辞書ベクトルで上記多層辞
書の最尤経路を探索した場合に注目終端代表ベクトル
(3)に至るとは限らない。そこで、カテゴリ境界を学習
済みの多層辞書によって実際に最尤経路を探索して、注
目終端代表ベクトル(3)に至る最近傍辞書ベクトルのみ
を集めるのである。
In this way, clustering is performed by collecting the nearest neighbor dictionary vectors belonging to the same category as the target termination representative vector (3) having a low category discriminating ability.
However, as described above, when the nearest neighbor dictionary is created from the learning vector, the category boundary information by the learning vector is lost. Therefore, based on the information in the nearest dictionary buffer 6, the target termination representative vector (3)
The nearest neighbor dictionary vector determined to belong to the category (D) to which is belongs is the terminal end representative vector of interest when the maximum likelihood path of the multilayer dictionary is searched with the nearest neighbor dictionary vector.
It does not always lead to (3). Therefore, the maximum likelihood route is actually searched by the multilayer dictionary which has already learned the category boundary, and only the nearest neighbor dictionary vectors reaching the target terminal representative vector (3) are collected.

【0090】上記最近傍辞書ベクトルを順次変えなが
ら、1番目のクラスタの平均ベクトルに最も類似する最
近傍辞書ベクトルを検索する。そして、当該注目終端代
表ベクトル(代表ベクトル(3))に新たに拡張されたノー
ド(2番目のノード(1))を対応付け、この拡張ノードの
1番目の代表ベクトル(0)として上記検索された最近傍
辞書ベクトルを与えると共に、終端代表ベクトルである
ことを示す情報(16進数ffff)を付加する。以下、クラ
ス平均ベクトルを順次変えながら上述の処理を繰り返し
て、当該拡張ノードの4個の代表ベクトルの夫々に最も
類似する最近傍辞書ベクトルを対応付ける。
…ステップS35〜ステップS47
While sequentially changing the nearest neighbor dictionary vector, the nearest neighbor dictionary vector that is most similar to the average vector of the first cluster is searched. Then, the newly expanded node (second node (1)) is associated with the target termination representative vector (representative vector (3)), and is searched as the first representative vector (0) of the expanded node. In addition to giving the nearest neighbor dictionary vector, information (hexadecimal number ffff) indicating that it is a terminal representative vector is added. Hereinafter, the above-described processing is repeated while sequentially changing the class average vector to associate the nearest neighbor dictionary vector with each of the four representative vectors of the expansion node.
... Step S35 to Step S47

【0091】その結果、上記ノードバッファ5の内容は
図14のように更新される。図14は、ルートノード
(0)に属する代表ベクトル(3)の次ノード番号部15に
は「1」が格納されており、当該代表ベクトル(3)は終端
代表ベクトルではなく下層にノード(1)が拡張されてい
る。そして、この拡張ノード(1)には、4個の終端代表
ベクトルが属していることを表している。つまり、上述
のノード拡張処理によって、図15に示すような、2個
のノード/7個の代表ベクトルから成る2層の多層辞書
が形成されるのである。尚、拡張ノード(1)の代表ベク
トル0,1,3には1個の最近傍辞書ベクトルが対応付け
られ、代表ベクトル2には10個の最近傍辞書ベクトル
が対応付けられている。
As a result, the contents of the node buffer 5 are updated as shown in FIG. Figure 14 shows the root node
“1” is stored in the next node number portion 15 of the representative vector (3) belonging to (0), and the representative vector (3) is not the terminal representative vector but the node (1) is extended to the lower layer. . Then, it is shown that four termination representative vectors belong to this extended node (1). That is, the above-described node expansion processing forms a two-layer multi-layer dictionary composed of two nodes / 7 representative vectors as shown in FIG. Note that the representative vectors 0, 1, and 3 of the expansion node (1) are associated with one nearest neighbor dictionary vector, and the representative vector 2 is associated with ten nearest neighbor dictionary vectors.

【0092】そして、上述の多層辞書に対して学習処理
を行って、拡張ノード(1)の各代表ベクトルの内部コー
ドを確定する。以後、ノード拡張処理と学習処理とを繰
り返すことによって、図11に示すような多層辞書が構
築されるのである。
Then, learning processing is performed on the above-mentioned multilayer dictionary to determine the internal code of each representative vector of the extended node (1). After that, by repeating the node expansion process and the learning process, the multi-layer dictionary as shown in FIG. 11 is constructed.

【0093】すなわち、本実施の形態においては、上記
ステップS23によって上記注目終端代表ベクトル抽出手
段を構成し、上記ステップS27〜ステップS33によって
上記最近傍辞書ベクトル選択手段を構成し、上記ステッ
プS34によって上記クラスタリング手段を構成し、上記
ステップS38〜ステップS43,S45,S46によって上記最
類似代表ベクトル探索手段を構成し、上記ステップS44
およびステップS47によって上記ノード拡張手段を構成
するのである。
That is, in the present embodiment, the step S23 constitutes the noted end representative vector extracting means, the steps S27 to S33 constitute the nearest neighbor dictionary vector selecting means, and the step S34 describes the above. A clustering means is constituted, and the most similar representative vector searching means is constituted by the steps S38 to S43, S45, S46, and the step S44.
The step S47 constitutes the node expanding means.

【0094】上述のように、本実施の形態におけるノー
ド拡張処理では、上述の学習処理の結果、属するカテゴ
リ数(カテゴリ情報部16における「1」のビット数)が閾
値α=200以上であって、且つ、最大値を呈する終端
代表ベクトルを注目終端代表ベクトルとする。そして、
この注目終端代表ベクトルが属するカテゴリに属し、且
つ、当該注目終端代表ベクトルを終端としている最近傍
辞書ベクトルを集め、この最近傍辞書ベクトル群に対し
てk−平均法によって最大「32」のクラスにクラスタリ
ングを行う。そして、各クラス毎にクラス平均ベクトル
に最も類似する最近傍辞書ベクトルを探索し、この探索
された最近傍辞書ベクトルを、注目終端代表ベクトルか
ら拡張されたノードに属する1つの終端代表ベクトルと
するのである。
As described above, in the node expansion process of this embodiment, as a result of the learning process described above, the number of categories to which it belongs (the number of bits of "1" in the category information section 16) is the threshold value α = 200 or more. , And the terminal representative vector having the maximum value is set as the target terminal representative vector. And
The nearest neighbor dictionary vectors that belong to the category to which this end-of-interest representative vector belongs and that end at the end-of-interest representative vector are collected, and the maximum number of "32" classes are obtained for this nearest neighbor dictionary vector group by the k-means method. Perform clustering. Then, the nearest neighbor dictionary vector that is most similar to the class average vector is searched for each class, and the searched nearest neighbor dictionary vector is set as one terminal representative vector belonging to the node extended from the target terminal representative vector. is there.

【0095】このように、属するカテゴリ数が200以
上であってカテゴリ識別能力の低い終端代表ベクトルに
対してのみノード拡張を行うことによって、図11に示
すように、多層辞書のノード階層がカテゴリ識別の分離
能力に応じて異なることになる。つまり、特徴空間上に
おいて多くのカテゴリが密集している部分のみがより多
層化になる。したがって、本実施の形態においては、特
開平63−263590号公報に開示された多層辞書の
ように、一様にクラスタリングを行って一律に同じノー
ド階層の多層辞書を構築する場合に比して多層辞書の記
憶容量を少なくできるのである。
As described above, the node expansion is performed only on the terminal representative vector having more than 200 categories and having a low category identification capability, so that the node hierarchy of the multi-layer dictionary is identified as shown in FIG. Will vary depending on the separation capacity of. In other words, only the portion where many categories are dense in the feature space becomes more multilayered. Therefore, in the present embodiment, as compared with the case where the multi-layer dictionary disclosed in Japanese Patent Laid-Open No. 63-263590 is used, clustering is uniformly performed to uniformly construct a multi-layer dictionary having the same node hierarchy. The storage capacity of the dictionary can be reduced.

【0096】例えば、特開平63−263590号公報
において、図11に示す多層辞書に対応するノード当た
りの代表ベクトル数vが4で、階層数rが5の多層辞書
を構築した場合には、その辞書メモリ容量は である。これに対して、図11に示す多層辞書の辞書メ
モリ容量は、非終端ノード数をnとすると、 である。したがって、本実施の形態の場合と特開平63
−263590号公報とで1代表ベクトル当たりの記憶
容量sは同じであるとすると、本実施の形態の場合の辞
書メモリ容量を特開平63−263590号公報におけ
る辞書メモリ容量の約1/35にすることができる。
For example, in Japanese Unexamined Patent Publication No. 63-263590, when a multi-layer dictionary in which the number of representative vectors v per node is 4 and the number of layers r is 5 corresponding to the multi-layer dictionary shown in FIG. Dictionary memory capacity Is. On the other hand, in the dictionary memory capacity of the multi-layer dictionary shown in FIG. 11, when the number of non-terminal nodes is n, Is. Therefore, in the case of the present embodiment and in Japanese Patent Laid-Open No.
Assuming that the storage capacity s per one representative vector is the same as in Japanese Patent Publication No. 263590, the dictionary memory capacity in the case of the present embodiment is approximately 1/35 of the dictionary memory capacity in Japanese Patent Laid-Open No. 63-263590. be able to.

【0097】さらに、本実施の形態においては、上記ノ
ードバッファ5内に構築されている多層辞書における各
代表ベクトルの特徴ベクトルは、対応する最近傍辞書ベ
クトルの番号で格納されている。したがって、各層の代
表ベクトルを64次元ベクトル等の特徴ベクトルの形で
格納しておく特開平63−263590号公報の場合に
比して、1代表ベクトル当たりの記憶容量sを1/10
以下にすることができる。したがって、上述した特徴空
間上において多くのカテゴリが密集している部分のみを
より多層化にすることと併せて、大幅に辞書メモリ容量
を少なくできるのである。
Further, in the present embodiment, the feature vector of each representative vector in the multi-layer dictionary constructed in the node buffer 5 is stored with the number of the corresponding nearest neighbor dictionary vector. Therefore, as compared with the case of Japanese Patent Laid-Open No. 63-263590, in which the representative vector of each layer is stored in the form of a feature vector such as a 64-dimensional vector, the storage capacity s per representative vector is 1/10.
It can be: Therefore, it is possible to significantly reduce the dictionary memory capacity in addition to making the portion where many categories are densely arranged in the above-mentioned feature space more multilayered.

【0098】ところで、上述のように本実施の形態によ
って構築された多層辞書は、未知文字の認識時には、以
下のように使用される。先ず、入力された未知文字の特
徴ベクトルとルートノードに属する各代表ベクトルとの
類似度を算出する。この場合の類似度算出は、ノードバ
ッファ5の該当する代表ベクトル部13の代表ベクトル
番号部14に格納された最近傍辞書ベクトルの番号に基
づいて、最近傍辞書バッファ6の該当する番号のベクト
ル部23から特徴ベクトルを読み出し、この特徴ベクト
ル(最近傍辞書ベクトル)と未知文字の特徴ベクトルとを
用いて行う。
By the way, the multilayer dictionary constructed according to the present embodiment as described above is used as follows when recognizing an unknown character. First, the similarity between the input unknown character feature vector and each representative vector belonging to the root node is calculated. In this case, the similarity calculation is based on the number of the nearest neighbor dictionary vector stored in the representative vector number part 14 of the corresponding representative vector part 13 of the node buffer 5 and the vector part of the corresponding number of the nearest neighbor dictionary buffer 6. The feature vector is read from 23, and this feature vector (nearest neighbor dictionary vector) and the feature vector of the unknown character are used.

【0099】その結果、最も高い類似度を呈する代表ベ
クトルが終端代表ベクトルではない場合には、その最も
高い類似度を呈する代表ベクトルから拡張されたノード
に属する複数の代表ベクトルと未知文字の特徴ベクトル
との類似度を算出する。
As a result, when the representative vector exhibiting the highest similarity is not the terminal representative vector, a plurality of representative vectors belonging to the node extended from the representative vector exhibiting the highest similarity and the feature vector of the unknown character To calculate the similarity.

【0100】上述の処理を、最も高い類似度を呈する代
表ベクトルが終端代表ベクトルになるまで繰り返す。そ
して、得られた未知文字の特徴ベクトルに最も類似する
終端代表ベクトルに基づいて、上記ノードバッファ5に
おける該当する代表ベクトル部13のカテゴリ情報部1
6に格納されたカテゴリ情報に対応する内部コードを得
る。そして、上記得られた内部コードが1つの場合に
は、この内部コードで表されるカテゴリを認識結果とす
る。
The above processing is repeated until the representative vector exhibiting the highest degree of similarity becomes the terminal representative vector. Then, based on the terminal representative vector that is most similar to the obtained feature vector of the unknown character, the category information unit 1 of the corresponding representative vector unit 13 in the node buffer 5 described above.
The internal code corresponding to the category information stored in 6 is obtained. Then, when there is one obtained internal code, the category represented by this internal code is set as the recognition result.

【0101】一方、上記得られた内部コードが複数の場
合には、最近傍辞書バッファ6の内部コード部21を参
照して、該当する内部コードのベクトル部23から特徴
ベクトル(最近傍辞書ベクトル)を総て読み出す。そし
て、この読み出された複数の特徴ベクトルと未知文字の
特徴ベクトルとの類似度を算出して最も類似度の高い最
近傍辞書ベクトルの内部コードを得、この内部コードに
よって表されるカテゴリを認識結果とするのである。
On the other hand, when there are a plurality of obtained internal codes, the internal code section 21 of the nearest neighbor dictionary buffer 6 is referred to and the feature vector (nearest neighbor dictionary vector) is calculated from the vector section 23 of the corresponding inner code. Are all read. Then, the similarity between the read feature vectors and the feature vector of the unknown character is calculated to obtain the inner code of the nearest neighbor dictionary vector having the highest similarity, and the category represented by this inner code is recognized. The result.

【0102】尚、上記未知文字の特徴ベクトルと代表ベ
クトルとの類似度順位が所定順位までの代表ベクトルを
類似代表ベクトル候補として、上述の処理を行っても差
し支えない。
The above-described processing may be performed by using a representative vector having a similarity rank between the feature vector of the unknown character and the representative vector up to a predetermined rank as a similar representative vector candidate.

【0103】尚、上記実施の形態においては、多層辞書
における各代表ベクトルの特徴ベクトルを対応する最近
傍辞書ベクトルの番号で格納している。しかしながら、
この発明は必ずしもこれに限定されるものではなく、夫
々の特徴ベクトルで格納しておいても、特徴空間上にお
いて多くのカテゴリが密集している部分のみを多層化に
することによって辞書メモリの記憶容量を削減できる。
また、上記実施の形態においては、活字日本語OCRに
搭載された多層辞書作成装置を例に説明している。しか
しながら、この発明は、これに限定されるものではな
く、手書き日本語OCRや英語OCR等であっても適用
可能であることは言うまでもない。また、文字認識装置
の認識辞書に限らず音声認識装置の認識辞書にも適用可
能である。
In the above embodiment, the feature vector of each representative vector in the multi-layer dictionary is stored as the number of the corresponding nearest neighbor dictionary vector. However,
The present invention is not necessarily limited to this, and even if each feature vector is stored, the memory of the dictionary memory can be stored by layering only the part where many categories are dense in the feature space. The capacity can be reduced.
Further, in the above-described embodiment, the multi-layer dictionary creating device installed in the print Japanese OCR is described as an example. However, it goes without saying that the present invention is not limited to this, and can be applied to handwritten Japanese OCR, English OCR, and the like. Further, the present invention can be applied not only to the recognition dictionary of the character recognition device but also to the recognition dictionary of the voice recognition device.

【0104】また、上述したような多層辞書の作成手順
をプログラム化してフロッピーディスクやCDROM等
のコンピュータで読み取り可能な記録媒体に記録してお
き、必要に応じてメモリにイントールして上記制御部4
で用いるようにしても差し支えない。
Further, the procedure for creating the above-mentioned multi-layer dictionary is programmed and recorded in a computer-readable recording medium such as a floppy disk or a CDROM, and if necessary, installed in the memory and the control unit 4 is operated.
It can be used in.

【0105】[0105]

【発明の効果】以上より明らかなように、請求項1に係
る発明の多層辞書作成方法は、認識対象情報の特徴ベク
トルである学習ベクトルをクラスタリングしてテンプレ
ートを作成し、上記テンプレートをクラスタリングして
複数代表ベクトルと1つのルートノードとから成る多層
辞書の初期状態を作成し、上記初期状態の多層辞書に対
して、各代表ベクトルにおけるカテゴリの識別境界を学
習する学習処理と、属するカテゴリ数が所定数以上であ
って最大数を呈する終端代表ベクトルからノードを拡張
するノード拡張処理とを交互に繰り返して、複数の代表
ベクトルが属するノードが樹状に連鎖した多層辞書を形
成するので、上記学習処理によって、上記テンプレート
作成の際や多層辞書の構築の際に失われたカテゴリ境界
情報を再び鮮明にすることができ、データベース上での
カテゴリ境界情報を100%保存した多層辞書を構築で
きる。さらに、上記ノード拡張処理によって、特徴空間
上において多くのカテゴリが密集している領域に対して
のみ多層化を行うことができ、辞書の多層化による記憶
容量の増加を極力押さえることができる。
As is apparent from the above, the multi-layer dictionary creating method of the invention according to claim 1 clusters the learning vector which is the feature vector of the recognition target information to create the template, and clusters the template. A learning process for creating an initial state of a multi-layer dictionary composed of a plurality of representative vectors and one root node, and learning the category identification boundary in each representative vector with respect to the multi-layer dictionary in the initial state, and the number of categories to which it belongs is predetermined The learning process is performed by alternately repeating node expansion processing that expands a node from the terminal representative vector that is a number greater than or equal to the maximum number to form a multi-layer dictionary in which nodes to which a plurality of representative vectors belong are chained in a tree shape. Re-enhances the category boundary information lost when creating the above template or building a multi-level dictionary. Rukoto can, can build a multi-dictionary where you saved the category boundary information on a database of 100%. Further, by the node expansion processing, multi-layering can be performed only on an area where many categories are dense in the feature space, and an increase in storage capacity due to multi-layering of the dictionary can be suppressed as much as possible.

【0106】また、請求項2に係る発明の多層辞書作成
方法は、上記学習の結果付与されたカテゴリ数が上記所
定数以上である終端代表ベクトルが存在しなくなるか、
総ノード数が予め設定された数に至るまで、上記学習処
理とノード拡張処理とを交互に繰り繰り返して行うの
で、認識率の高さと記憶容量の少なさとが適度にバラン
スされた多層辞書を構築できる。
In the multi-layer dictionary creating method according to the second aspect of the present invention, whether there is no terminal representative vector whose number of categories added as a result of the learning is the predetermined number or more,
Since the learning process and the node expansion process are alternately repeated until the total number of nodes reaches a preset number, a multi-layer dictionary in which the high recognition rate and the small storage capacity are appropriately balanced is constructed. it can.

【0107】また、請求項3に係る発明の多層辞書作成
装置は、学習ベクトル格納部に格納された学習ベクトル
をクラスタリングして得られた複数のテンプレートをテ
ンプレート格納部に格納し、このテンプレートをクラス
タリングして得られた複数の代表ベクトルと1つのルー
トノードとで成る初期状態の多層辞書に対して、多層辞
書作成制御部による学習部とノード拡張部の制御の下
に、各終端代表ベクトルにおけるカテゴリの識別境界の
学習と、属するカテゴリ数が所定数以上であって最大数
を呈する終端代表ベクトルから新たなノードを拡張する
ノード拡張とを交互に繰り返して行うので、上記学習に
よって、上記テンプレート作成の際や多層辞書の構築の
際に失われたカテゴリ境界情報を再び鮮明にすることが
でき、データベース上でのカテゴリ境界情報を100%
保存した多層辞書を構築できる。さらに、上記ノード拡
張によって、特徴空間上において多くのカテゴリが密集
している領域に対してのみ多層化を行うことができ、辞
書の多層化による記憶容量の増加を極力押さえることが
できる。
The multi-layer dictionary creation device of the invention according to claim 3 stores a plurality of templates obtained by clustering the learning vectors stored in the learning vector storage unit in the template storage unit, and clusters the templates. Under the control of the learning unit and the node expansion unit by the multi-layer dictionary creation control unit, the category in each end representative vector is applied to the multi-layer dictionary in the initial state composed of a plurality of representative vectors and one root node obtained by The learning of the identification boundary and the node expansion for expanding a new node from the terminal representative vector having the maximum number and the number of categories belonging to the predetermined number or more are alternately repeated. You can re-clear the category boundary information that was lost when creating The category boundary information of 100%
You can build a saved multi-level dictionary. Further, by the node expansion, the multi-layering can be performed only on the region where many categories are dense in the feature space, and the increase in the storage capacity due to the multi-layering of the dictionary can be suppressed as much as possible.

【0108】また、請求項4に係る発明の多層辞書作成
装置は、上記多層辞書の代表ベクトルを、この代表ベク
トルに対応するテンプレートの上記テンプレート格納部
上での格納位置を表す格納位置情報で記載するので、特
徴ベクトルそのもので記載する場合よりも記憶容量を少
なくできる。したがって、この発明によれば、多層辞書
の記憶容量をさらに少なくできる。
In the multi-layer dictionary creating apparatus according to the fourth aspect of the present invention, the representative vector of the multi-layer dictionary is described by the storage position information indicating the storage position of the template corresponding to the representative vector on the template storage unit. Therefore, the storage capacity can be reduced as compared with the case where the feature vector itself is described. Therefore, according to the present invention, the storage capacity of the multi-layer dictionary can be further reduced.

【0109】また、請求項5に係る発明の多層辞書作成
装置における上記学習部は、上記多層辞書の代表ベクト
ルの中から各学習ベクトルに最も類似した終端代表ベク
トルを探索する最類似代表ベクトル探索手段と、上記探
索された終端代表ベクトルに検索元の学習ベクトルが属
するカテゴリを表す情報を付与するカテゴリ情報付与手
段を含んでいるので、多層辞書の各終端代表ベクトルに
おけるカテゴリの識別境界を学習する学習処理を的確に
行うことができる。
Further, the learning unit in the multi-layer dictionary creating device according to the fifth aspect of the present invention, the learning unit searches the representative vector of the multi-layer dictionary for a terminal representative vector most similar to each learning vector. And learning means for learning the identification boundary of the category in each terminal representative vector of the multi-layer dictionary, since it includes category information adding means for adding information indicating the category to which the learning vector of the search source belongs to the searched terminal representative vector. The processing can be performed accurately.

【0110】また、請求項6に係る発明の多層辞書作成
装置における上記ノード拡張部は、属するカテゴリ数が
上記所定数以上であって最大数を呈する注目終端代表ベ
クトルを抽出する注目終端代表ベクトル抽出手段と、上
記注目終端代表ベクトルと同じカテゴリに属するテンプ
レートであって上記注目終端代表ベクトルを終端とする
総てのテンプレートを選択するテンプレート選択手段
と、上記選択された総てのテンプレートをクラスタリン
グするクラスタリング手段と、各クラスタの平均ベクト
ルに最も類似したテンプレートを探索して当該クラスタ
の代表ベクトルとする最類似代表ベクトル探索手段と、
拡張ノードを上記注目終端代表ベクトルに対応付けると
共に、この拡張ノードに属する代表ベクトルとして上記
最類似代表ベクトル探索手段によって得られた各クラス
タの代表ベクトルを与えるノード拡張手段を含んでいる
ので、属するカテゴリ数が所定数以上であって最大数を
呈する終端代表ベクトルから新たにノードを拡張するノ
ード拡張処理を的確に行うことができる。
Further, the node extension unit in the multi-layer dictionary creation device according to the sixth aspect of the present invention extracts the noticeable end point representative vector for extracting the noticeable end point representative vector having the maximum number of categories that belong to the predetermined number or more. Means, template selecting means for selecting all templates that belong to the same category as the noticed end representative vector and terminates at the noticed end representative vector, and clustering for clustering all the selected templates Means, and a most similar representative vector searching means for searching a template most similar to the average vector of each cluster to be a representative vector of the cluster,
Since the extension node is associated with the target termination representative vector and the node extension means for giving the representative vector of each cluster obtained by the most similar representative vector search means as the representative vector belonging to this extension node is included, the number of categories to which it belongs It is possible to accurately perform node expansion processing for newly expanding a node from the termination representative vector that is a predetermined number or more and is the maximum number.

【0111】また、請求項7に係る発明の多層辞書作成
装置における上記多層辞書作成制御部は、上記学習の結
果付与されたカテゴリ数が上記所定数以上である終端代
表ベクトルが存在しない場合か、あるいは、総ノード数
が予め設定された数に至った場合には、上記学習部とノ
ード拡張部との動作を停止させるので、認識率の高さと
記憶容量の少なさとが適度にバランスされた多層辞書を
構築できる。
Further, the multi-layer dictionary creation control unit in the multi-layer dictionary creation apparatus according to the seventh aspect of the present invention determines whether or not there is no terminal representative vector whose number of categories added as a result of the learning is the predetermined number or more. Alternatively, when the total number of nodes reaches a preset number, the operations of the learning unit and the node expansion unit are stopped, so that the high recognition rate and the small storage capacity are properly balanced. Can build a dictionary.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の多層辞書作成装置における一例を示
すブロック図である。
FIG. 1 is a block diagram showing an example of a multi-layer dictionary creating device of the present invention.

【図2】図1におけるノードバッファの構成を示す図で
ある。
FIG. 2 is a diagram showing a configuration of a node buffer in FIG.

【図3】図1における最近傍辞書バッファの構成を示す
図である。
FIG. 3 is a diagram showing a configuration of a nearest neighbor dictionary buffer in FIG.

【図4】図1における入力特徴バッファおよびクラス平
均ベクトル・バッファの構成を示す図である。
FIG. 4 is a diagram showing configurations of an input feature buffer and a class average vector buffer in FIG.

【図5】図1における制御部の詳細なブロック図であ
る。
5 is a detailed block diagram of a control unit in FIG. 1. FIG.

【図6】図5における学習部によって行われる学習処理
動作のフローチャートである。
6 is a flowchart of a learning processing operation performed by a learning unit in FIG.

【図7】図6に続く学習処理動作のフローチャートであ
る。
FIG. 7 is a flowchart of a learning processing operation subsequent to FIG.

【図8】図5におけるノード拡張部によって行われるノ
ード拡張処理動作のフローチャートである。
8 is a flowchart of a node expansion processing operation performed by a node expansion unit in FIG.

【図9】図8に続くノード拡張処理動作のフローチャー
トである。
9 is a flowchart of a node expansion processing operation subsequent to FIG.

【図10】図9に続くノード拡張処理動作のフローチャ
ートである。
FIG. 10 is a flowchart of node expansion processing operation subsequent to FIG. 9;

【図11】多層辞書の構造説明図である。FIG. 11 is an explanatory diagram of a structure of a multi-layer dictionary.

【図12】図11に示す多層辞書の初期状態を示す図で
ある。
12 is a diagram showing an initial state of the multi-layer dictionary shown in FIG.

【図13】図12の初期状態に対して学習処理を行った
後のノードバッファの内容を示す図である。
FIG. 13 is a diagram showing the contents of a node buffer after the learning process is performed on the initial state of FIG.

【図14】図12の初期状態に対して学習処理およびノ
ード拡張処理を1回ずつ行った後のノードバッファの内
容を示す図である。
14 is a diagram showing the contents of the node buffer after the learning process and the node expansion process have been performed once for the initial state of FIG.

【図15】図12の初期状態に対してノード拡張処理を
1回行った後の多層辞書構造を示す図である。
15 is a diagram showing a multi-layer dictionary structure after a node expansion process is performed once with respect to the initial state of FIG.

【図16】複合類似度法による辞書を用いた場合の近傍
カテゴリの関係図である。
FIG. 16 is a relationship diagram of neighborhood categories when a dictionary based on the composite similarity method is used.

【図17】最近傍法による辞書を用いた場合の近傍カテ
ゴリの関係図である。
FIG. 17 is a relationship diagram of neighborhood categories when a dictionary according to the nearest neighbor method is used.

【符号の説明】[Explanation of symbols]

1…外部記憶装置、 2…レジスタ
群、3…バッファ群、 4…制御
部、5…ノードバッファ、 6…最近傍
辞書バッファ、7…入力特徴バッファ、
8…クラス平均ベクトル・バッファ、11…ノード番号
部、 12…代表ベクトル数部、13…
代表ベクトル部、 14…代表ベクトル番
号部、15…次ノード番号部、 16…カ
テゴリ情報部、21,25,31…内部コード部、
22…母集団フラグ部、23,26,32…ベクトル部、
51…学習部、52…ノード拡張部、55,6
4…最大類似代表ベクトル探索手段、56…内部コード
付加手段、 61…注目終端代表ベクトル抽出
手段、62…最近傍辞書ベクトル選択手段、 63…ク
ラスタリング手段、65…ノード拡張手段。
DESCRIPTION OF SYMBOLS 1 ... External storage device, 2 ... Register group, 3 ... Buffer group, 4 ... Control part, 5 ... Node buffer, 6 ... Nearest neighbor dictionary buffer, 7 ... Input feature buffer,
8 ... Class average vector buffer, 11 ... Node number part, 12 ... Representative vector number part, 13 ...
Representative vector part, 14 ... Representative vector number part, 15 ... Next node number part, 16 ... Category information part, 21, 25, 31 ... Internal code part,
22 ... Population flag part, 23, 26, 32 ... Vector part,
51 ... Learning unit, 52 ... Node expansion unit, 55, 6
4 ... Maximum similar representative vector searching means, 56 ... Internal code adding means, 61 ... Target terminal representative vector extracting means, 62 ... Nearest neighbor dictionary vector selecting means, 63 ... Clustering means, 65 ... Node expanding means.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭60−126784(JP,A) 特開 昭63−263590(JP,A) 特開 昭58−105387(JP,A) 特開 平6−76061(JP,A) 特開 平10−11543(JP,A) 伊藤彰義・他,「階層的印刷漢字認識 システムにおける字種を複数クラスタに 登録する辞書構成法」,電子情報通信学 会論文誌,日本,社団法人電子情報通信 学会,1995年 6月25日,Vol.J78 −D−II,No.6,pp.896−905 (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/08 G06K 9/00 - 9/82 G06T 7/00 - 7/60 G10L 3/00 - 3/02 G10L 5/06 G10L 7/08 G10L 9/00 - 9/20 G06F 17/30 JSTファイル(JOIS) CSDB(日本国特許庁)─────────────────────────────────────────────────── ─── Continuation of front page (56) Reference JP-A-60-126784 (JP, A) JP-A-63-263590 (JP, A) JP-A-58-105387 (JP, A) JP-A-6- 76061 (JP, A) JP-A-10-11543 (JP, A) Akiyoshi Ito, et al., "Dictionary Construction Method for Registering Character Types in Multiple Clusters in Hierarchical Printing Kanji Recognition System", IEICE Transactions , Japan, The Institute of Electronics, Information and Communication Engineers, June 25, 1995, Vol. J78-D-II, No. 6, pp. 896-905 (58) Fields surveyed (Int.Cl. 7 , DB name) G06N 1/00-7/08 G06K 9/00-9/82 G06T 7/00-7/60 G10L 3/00-3 / 02 G10L 5/06 G10L 7/08 G10L 9/00-9/20 G06F 17/30 JST file (JOIS) CSDB (Japan Patent Office)

Claims (7)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 認識対象情報の特徴ベクトルを学習ベク
トルとして用意し、 上記学習ベクトルをクラスタリングして得られた複数の
代表ベクトルをテンプレートとし、 上記テンプレートをクラスタリングして得られた複数代
表ベクトルとこの代表ベクトルが属する1つのルートノ
ードとを多層辞書の初期状態とし、 上記初期状態の多層辞書に対して、 上記多層辞書の終端に位置すると共に、上記各学習ベク
トルに最も類似した終端代表ベクトルに、当該学習ベク
トルが属するカテゴリを表す情報を付与することによっ
て、多層辞書の各終端代表ベクトルにおける上記カテゴ
リの識別境界を学習する学習処理と、 上記学習の結果付与されたカテゴリ数が所定数以上であ
って最大数を呈する終端代表ベクトルから、複数の代表
ベクトルが属する新たなノードを拡張するノード拡張処
理とを交互に繰り返して、 複数の代表ベクトルが属する上記ノードが樹状に連鎖し
た多層辞書を形成することを特徴とする多層辞書作成方
法。
1. A feature vector of recognition target information is prepared as a learning vector, a plurality of representative vectors obtained by clustering the learning vectors is used as a template, and a plurality of representative vectors obtained by clustering the template and this One root node to which the representative vector belongs is set as an initial state of the multi-layer dictionary, and is located at the end of the multi-layer dictionary with respect to the multi-layer dictionary in the initial state, and is a terminal representative vector most similar to each learning vector, A learning process of learning the identification boundary of the category in each terminal representative vector of the multi-layer dictionary by adding information indicating the category to which the learning vector belongs, and the number of categories added as a result of the learning is a predetermined number or more. From the terminal representative vector that exhibits the maximum number of A node expansion processing for expanding the Tana nodes alternately repeated, multilayer dictionary creation method characterized in that the node in which a plurality of representative vectors belong to form a multilayer dictionary chained dendritic.
【請求項2】 請求項1に記載の多層辞書作成方法にお
いて、 上記学習の結果付与されたカテゴリ数が上記所定数以上
である終端代表ベクトルが存在しなくなるか、総ノード
数が予め設定された数に至るまで、上記学習処理とノー
ド拡張処理とを交互に繰り繰り返して行うことを特徴と
する多層辞書作成方法。
2. The method for creating a multi-layer dictionary according to claim 1, wherein there is no terminal representative vector whose number of categories added as a result of the learning is the predetermined number or more, or the total number of nodes is preset. A multi-layer dictionary creating method, characterized in that the learning process and the node expansion process are alternately repeated up to a number of times.
【請求項3】 認識対象情報の特徴ベクトルを学習ベク
トルとして格納する学習ベクトル格納部と、 上記学習ベクトルをクラスタリングして得られた複数の
代表ベクトルをテンプレートとして格納するテンプレー
ト格納部と、 上記テンプレートをクラスタリングして得られた複数の
代表ベクトルとこの代表ベクトルが属する1つのルート
ノードとを初期状態とする多層辞書と、 上記多層辞書の終端に位置すると共に、上記各学習ベク
トルに最も類似した終端代表ベクトルに、当該学習ベク
トルが属するカテゴリを表す情報を付与することによっ
て、多層辞書の各終端代表ベクトルにおける上記カテゴ
リの識別境界を学習する学習部と、 上記学習の結果付与されたカテゴリ数が所定数以上であ
って最大数を呈する終端代表ベクトルから、複数の代表
ベクトルが属する新たなノードを拡張するノード拡張部
と、 上記学習部とノード拡張部とを制御して、上記初期状態
の多層辞書に対して上記学習とノード拡張とを交互に繰
り返し行って、複数の代表ベクトルが属する上記ノード
が樹状に連鎖した多層辞書を形成する多層辞書作成制御
部を備えたことを特徴とする多層辞書作成装置。
3. A learning vector storage unit that stores a feature vector of recognition target information as a learning vector, a template storage unit that stores a plurality of representative vectors obtained by clustering the learning vectors as a template, and the template A multi-layer dictionary having a plurality of representative vectors obtained by clustering and one root node to which the representative vector belongs as an initial state, and a terminal representative located at the end of the multi-layer dictionary and most similar to each of the learning vectors A learning unit that learns the identification boundary of the category in each terminal representative vector of the multilayer dictionary by adding information indicating the category to which the learning vector belongs to the vector, and the number of categories given as a result of the learning is a predetermined number. From the end representative vector that is the above and presents the maximum number, multiple By controlling the node expansion unit for expanding a new node to which the representative vector belongs, the learning unit and the node expansion unit, the learning and the node expansion are alternately repeated for the multilayer dictionary in the initial state, A multi-layer dictionary creation device comprising a multi-layer dictionary creation control unit that forms a multi-layer dictionary in which the nodes to which a plurality of representative vectors belong are chained in a tree shape.
【請求項4】 請求項3に記載の多層辞書作成装置にお
いて、 上記多層辞書の代表ベクトルは、この代表ベクトルに対
応するテンプレートの上記テンプレート格納部上での格
納位置を表す格納位置情報で記載されていることを特徴
とする多層辞書作成装置。
4. The multi-layer dictionary creation device according to claim 3, wherein the representative vector of the multi-layer dictionary is described by storage position information indicating a storage position on the template storage unit of a template corresponding to the representative vector. A multi-layer dictionary creation device characterized in that
【請求項5】 請求項3に記載の多層辞書作成装置にお
いて、 上記学習部は、 上記多層辞書の代表ベクトルの中から各学習ベクトルに
最も類似した終端代表ベクトルを探索する最類似代表ベ
クトル探索手段と、 上記探索された終端代表ベクトルに、検索元の学習ベク
トルが属するカテゴリを表す情報を付与するカテゴリ情
報付与手段を含むことを特徴とする多層辞書作成装置。
5. The multi-layer dictionary creation device according to claim 3, wherein the learning unit searches the representative vector of the multi-layer dictionary for a terminal representative vector that is most similar to each learning vector. And a category information adding means for adding information indicating a category to which the learning vector of the search source belongs to the searched terminal representative vector.
【請求項6】 請求項3に記載の多層辞書作成装置にお
いて、 上記ノード拡張部は、 上記多層辞書の終端代表ベクトルの中から、上記学習の
結果付与されたカテゴリ数が上記所定数以上であって最
大数を呈する終端代表ベクトルを注目終端代表ベクトル
として抽出する注目終端代表ベクトル抽出手段と、 上記抽出された注目終端代表ベクトルに付与されている
カテゴリに属する上記テンプレートであって、上記多層
辞書の代表ベクトルの中で最も類似する代表ベクトルが
上記注目終端代表ベクトルである総てのテンプレートを
選択するテンプレート選択手段と、 上記選択された総てのテンプレートをクラスタリングし
て各クラスタの平均ベクトルを得るクラスタリング手段
と、 上記各クラスタの平均ベクトルに最も類似したテンプレ
ートを探索し、この探索されたテンプレートを当該クラ
スタの代表ベクトルとする最類似代表ベクトル探索手段
と、 複数の代表ベクトルが属している拡張ノードを上記注目
終端代表ベクトルに対応付け、この拡張ノードに属する
代表ベクトルとして上記最類似代表ベクトル探索手段に
よって得られた各クラスタの代表ベクトルを与えるノー
ド拡張手段を含むことを特徴とする多層辞書作成装置。
6. The multi-layer dictionary creation device according to claim 3, wherein the node expansion unit determines that the number of categories given as a result of the learning is greater than or equal to the predetermined number from the end representative vectors of the multi-layer dictionary. And a template belonging to a category assigned to the extracted target termination representative vector, which is a template of the multi-layer dictionary. Template selecting means for selecting all the templates whose representative vector most similar among the representative vectors is the target termination representative vector, and clustering all the selected templates to obtain an average vector of each cluster And the template most similar to the mean vector of each cluster above The most similar representative vector search means that searches for the template as the representative vector of the cluster and the extension node to which the plurality of representative vectors belong is associated with the end-of-interest representative vector, and the representative that belongs to this extension node is searched. A multi-layer dictionary creating device, characterized in that it includes node expansion means for giving a representative vector of each cluster obtained by the above-mentioned most similar representative vector searching means as a vector.
【請求項7】 請求項3に記載の多層辞書作成装置にお
いて、 上記多層辞書作成制御部は、上記学習の結果付与された
カテゴリ数が上記所定数以上である終端代表ベクトルが
存在しない場合か、あるいは、総ノード数が予め設定さ
れた数に至った場合には、上記学習部とノード拡張部と
の動作を停止させるようになっていることを特徴とする
多層辞書作成装置。
7. The multi-layer dictionary creation device according to claim 3, wherein the multi-layer dictionary creation control unit does not exist when there is no terminal representative vector whose number of categories added as a result of the learning is the predetermined number or more. Alternatively, when the total number of nodes reaches a preset number, the operation of the learning unit and the node expansion unit is stopped, so that the multi-layer dictionary creation device is characterized.
JP22497997A 1997-08-21 1997-08-21 Multi-layer dictionary creation method and multi-layer dictionary creation device Expired - Fee Related JP3470017B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22497997A JP3470017B2 (en) 1997-08-21 1997-08-21 Multi-layer dictionary creation method and multi-layer dictionary creation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22497997A JP3470017B2 (en) 1997-08-21 1997-08-21 Multi-layer dictionary creation method and multi-layer dictionary creation device

Publications (2)

Publication Number Publication Date
JPH1166029A JPH1166029A (en) 1999-03-09
JP3470017B2 true JP3470017B2 (en) 2003-11-25

Family

ID=16822208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22497997A Expired - Fee Related JP3470017B2 (en) 1997-08-21 1997-08-21 Multi-layer dictionary creation method and multi-layer dictionary creation device

Country Status (1)

Country Link
JP (1) JP3470017B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006313428A (en) * 2005-05-06 2006-11-16 Toyota Motor Corp Database evaluation device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
伊藤彰義・他,「階層的印刷漢字認識システムにおける字種を複数クラスタに登録する辞書構成法」,電子情報通信学会論文誌,日本,社団法人電子情報通信学会,1995年 6月25日,Vol.J78−D−II,No.6,pp.896−905

Also Published As

Publication number Publication date
JPH1166029A (en) 1999-03-09

Similar Documents

Publication Publication Date Title
US5287275A (en) Image recognition apparatus and method for recognizing a pattern within an image
US4989258A (en) Character recognition apparatus
US4654873A (en) System and method for segmentation and recognition of patterns
JP3903610B2 (en) Search device, search method, and computer-readable recording medium storing search program
JPH113342A (en) Group-by processing system
CN110196968B (en) System and method for automatically identifying simplified Chinese coding mode based on specific character string search
JP2001175811A (en) Device and method for word rough classification, and recording medium with recorded control program thereof
US6560359B2 (en) Data processing method and apparatus
JP4802176B2 (en) Pattern recognition apparatus, pattern recognition program, and pattern recognition method
JP3917349B2 (en) Retrieval device and method for retrieving information using character recognition result
JP3608965B2 (en) Automatic authoring device and recording medium
EP0079251A2 (en) Geometric character recognition using skeleton and stroke width representation
JP3470017B2 (en) Multi-layer dictionary creation method and multi-layer dictionary creation device
Lei et al. A recognition based system for segmentation of touching handwritten numeral strings
Li et al. A document classification and extraction system with learning ability
CN113449119A (en) Method and device for constructing knowledge graph, electronic equipment and storage medium
JPH0638276B2 (en) Pattern identification device
JP3419251B2 (en) Character recognition device and character recognition method
Adjeroh et al. Video sequence similarity matching
JPH09245047A (en) Method and device for encoding word and phrase
JPH1011543A (en) Pattern recognition dictionary production device and pattern recognizer
CN116701628A (en) Method and system for identifying unsupervised self-adaptive domain terms
JPH0769940B2 (en) Associative matching recognition method
Clavier et al. Classifiers combination for forms sorting
JPS5810274A (en) On-line manuscript character recognizing system

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080905

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080905

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090905

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090905

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100905

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110905

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees