JP2000076382A - Learning method of hierarchical dictionary to use for character recognition and preparation of the dictionary - Google Patents
Learning method of hierarchical dictionary to use for character recognition and preparation of the dictionaryInfo
- Publication number
- JP2000076382A JP2000076382A JP10246764A JP24676498A JP2000076382A JP 2000076382 A JP2000076382 A JP 2000076382A JP 10246764 A JP10246764 A JP 10246764A JP 24676498 A JP24676498 A JP 24676498A JP 2000076382 A JP2000076382 A JP 2000076382A
- Authority
- JP
- Japan
- Prior art keywords
- template
- dictionary
- classification
- procedure
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Character Discrimination (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像を解析して文
字の列として認識する文字認識に用いる階層辞書の学習
方法に係り、特に、文字認識のために階層的な辞書を用
いる場合の辞書の学習方法であって、その学習をおこな
うことにより、文字認識の精度を向上させるのに好適な
階層辞書の学習方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of learning a hierarchical dictionary used for character recognition which analyzes an image and recognizes it as a character string, and more particularly to a dictionary for a case where a hierarchical dictionary is used for character recognition. And a learning method of a hierarchical dictionary suitable for improving the accuracy of character recognition by performing the learning.
【0002】[0002]
【従来の技術】従来、文字認識に階層的になった辞書を
利用する方法が提案されており、これには、例えば、木
村文隆著「クラスタリングに基づく手書き漢字の大分
類」(電子情報通信学会論文誌,Vol. J70-D No.1)が
ある。これは、認識処理をクラス分けと詳細分類の2段
の階層構造にし、クラス分けをおこなうことで詳細分類
で扱う対象の数を絞り込み、処理量を低減させ処理速度
を向上させるものである。ここでは、クラスタリング手
法の一つである最遠距離法を階層辞書作成に適用し、作
成した上位階層の辞書(クラス分け用辞書)を用いるこ
とで、認識処理の計算量が総当たりの場合と比較して約
1/3から1/4程度に減少すると報告している。ここ
では、クラス分けで生じた誤りを自動的にフィードバッ
クさせ階層辞書を学習すると言った機能はなく、その他
の従来技術に見られる文字認識のための階層辞書を作成
する方法についても、階層的になった辞書を学習させる
と言う考え方は見られない。2. Description of the Related Art Hitherto, a method of using a hierarchical dictionary for character recognition has been proposed. For example, a method of writing a large classification of handwritten kanji based on clustering by Fumitaka Kimura (IEICE) has been proposed. There is a journal, Vol. J70-D No.1). In this method, the recognition process has a two-stage hierarchical structure of classification and detailed classification, and the classification is performed to narrow down the number of objects to be handled in the detailed classification, thereby reducing the processing amount and improving the processing speed. Here, the longest distance method, one of the clustering methods, is applied to the creation of a hierarchical dictionary, and the created upper-level dictionary (classification dictionary) is used. It is reported to decrease from about 1/3 to about 1/4 in comparison. Here, there is no function to automatically feed back the errors generated by the classification and to learn the hierarchical dictionary, and the method of creating a hierarchical dictionary for character recognition found in other conventional technologies is also hierarchical. I don't see the idea of learning a new dictionary.
【0003】[0003]
【発明が解決しようとする課題】上記従来技術で述べた
文字認識のために階層的な構造を持った辞書を用いる方
法は、文字認識の計算量を低減させるのに有効な方法で
ある。しかしながら、クラス分けから詳細分類に送るク
ラス分け候補数を多めに取らなければ、認識精度が向上
しないと言う問題点がある。というのも、一つのクラス
に属する詳細分類が少なければ、誤認識が増えるおそれ
があるからである。そのため、クラス分けから詳細分類
に送るクラス分け候補数を多めに取るのが、通例であ
る。(逆にいえば、これは、クラス分けの数を多く取れ
ないということでもある。)例えば、手書き漢字を認識
する場合では、一つのクラスに対し、数百ものクラス分
け候補数を必要とする。そのため、一つのクラスに属す
る数百の候補に対して詳細分類を実行する必要があり、
計算量としては必ずしも小さくはない。したがって、詳
細分類の段階での認識量を少なくして、処理速度を向上
させ、同時にクラス分けで生じる誤りも少なくさせるこ
とが必要である。これにより、クラス分けによる精度低
下がなく、高速な認識処理を実現できる。The method of using a dictionary having a hierarchical structure for character recognition described in the above prior art is an effective method for reducing the amount of calculation for character recognition. However, there is a problem that the recognition accuracy will not be improved unless the number of classification candidates to be sent from the classification to the detailed classification is increased. This is because if the number of detailed classifications belonging to one class is small, erroneous recognition may increase. For this reason, it is customary to take a relatively large number of classification candidates to be sent from the classification to the detailed classification. (In other words, this means that the number of classifications cannot be increased.) For example, in the case of recognizing handwritten kanji, one class requires several hundred classification candidates. . Therefore, it is necessary to perform detailed classification on hundreds of candidates belonging to one class,
The amount of calculation is not necessarily small. Therefore, it is necessary to reduce the amount of recognition at the stage of detailed classification, to improve the processing speed, and at the same time, to reduce errors caused by the classification. Thus, high-speed recognition processing can be realized without lowering the accuracy due to the classification.
【0004】本発明は、上記問題点を解決するためにな
されたもので、その目的は、文字認識のために階層的な
辞書を用いる場合において、上位階層であるクラス分け
の辞書を学習させることにより、一つ一つに属するクラ
ス分け候補数を少なくして、文字認識の処理速度を向上
させ、しかも、高いクラス分け精度を持ち、誤認識をお
こさないような階層辞書の学習方法を提供することにあ
る。SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problem, and an object of the present invention is to make it possible to learn a dictionary of a classification which is an upper hierarchy when a hierarchical dictionary is used for character recognition. The present invention provides a method of learning a hierarchical dictionary that reduces the number of classification candidates belonging to each one, improves the processing speed of character recognition, has high classification accuracy, and does not cause erroneous recognition. It is in.
【0005】[0005]
【課題を解決するための手段】上記目的を達成するため
に、本発明の文字認識に用いる階層辞書の学習方法に係
る発明の構成は、読込んだ画像を文字の列として認識す
るための文字認識に用いる階層辞書の学習方法におい
て、文字を認識するために画像のパターンとしてマッチ
ングさせるためのテンプレートからなる辞書を、下位の
詳細分類辞書と、上位のクラス分け辞書の階層からなる
階層辞書として構成し、前記下位の詳細分類辞書は、学
習データベースを用いて構築され、前記上位のクラス分
け辞書は、前記下位の詳細分類辞書のテンプレートの特
徴からクラス分けされたテンプレートからなる辞書であ
り、この文字認識に用いる階層辞書の学習方法は、
(1)学習データベース中のサンプルパターンに対し、
前記詳細分類用の辞書のテンプレートを識別するテンプ
レート番号を、このパターンに付加されたタグに記載す
る手順、(2)入力された前記サンプルパターンと、ク
ラス分け辞書の階層のテンプレートとの類似度を数値化
して評価する手順、(3)前記(1)の手順で記載され
たテンプレート番号より、そのテンプレート番号が属す
る上位クラスのクラス分け辞書のテンプレートを求める
手順、(4)前記(3)で求められたテンプレート以外
で、前記(2)の手順で前記サンプルパターンとの類似
度が大きいとされたクラス分け辞書のテンプレートを求
める手順、(5)前記(3)の手順で求めたクラス分け
辞書のテンプレートを正解となるテンプレートとし、前
記(4)の手順で求めたクラス分け辞書のテンプレート
を妨害となるテンプレートとして、入力されたサンプル
パターンに、正解となるテンプレートを類似度が大きく
なるように修正し、前記妨害となるテンプレートが類似
度が小さくなる用に修正する手順を有し、前記(1)の
手順の実行の後に、定められた学習の回数分だけ、ま
た、入力されたサンプルパターンの数だけ、前記(2)
ないし(5)の手順をこの順におこなって、クラス分け
辞書のテンプレートの学習をおこなうようにしたもので
ある。In order to achieve the above object, the present invention relates to a method for learning a hierarchical dictionary used for character recognition according to the present invention, comprising a character string for recognizing a read image as a character string. In the learning method of the hierarchical dictionary used for recognition, a dictionary composed of templates for matching as an image pattern for character recognition is configured as a hierarchical dictionary composed of a hierarchy of a lower detailed classification dictionary and an upper classifying dictionary. The lower-level detailed dictionary is constructed using a learning database, and the upper-level classification dictionary is a dictionary including a template classified based on the characteristics of the template of the lower-level detailed dictionary. The learning method of the hierarchical dictionary used for recognition is
(1) For the sample pattern in the learning database,
A step of writing a template number for identifying a template of the dictionary for detailed classification in a tag added to the pattern; (2) determining a similarity between the input sample pattern and a template in a hierarchy of a classification dictionary; (3) a procedure for obtaining a template of a classification dictionary of a higher class to which the template number belongs from the template number described in the procedure of the above (1); (4) a procedure for obtaining the template in the above (3) Other than the obtained template, a procedure for obtaining a template of a classification dictionary determined to have a high degree of similarity to the sample pattern in the procedure of (2); (5) a classification dictionary of the classification dictionary obtained in the procedure of (3); The template is set as a correct template, and the template of the classification dictionary obtained in the procedure (4) is used as an obstructing template. As a rate, the input sample pattern has a procedure of correcting a correct template so as to increase the similarity, and correcting the disturbing template so that the similarity decreases. After the execution of the procedure, the above (2) is performed for the determined number of times of learning and for the number of input sample patterns.
The steps (5) to (5) are performed in this order to learn the template of the classification dictionary.
【0006】より詳しくは、上記文字認識に用いる階層
辞書の学習方法において、文字を認識するために画像の
パターンとしてマッチングさせるためのテンプレートか
らなる辞書の構成を、N段として(N≧2なる整数)、
上位の階層辞書は、下位の階層辞書をツリー関係として
含むように構成して、N段目の辞書を学習するにあた
り、それより一つ下位のN−1段目の辞書を利用して、
上記に記載した詳細分類用辞書を前記下位のN−1段目
の辞書に当てはめ、上記に記載したクラス分け辞書を前
記N段目の辞書に当てはめて、上記に記載した様に、
(1)と、前記(2)ないし前記(5)の手順をこの順
に実行するようにしたものである。More specifically, in the learning method of the hierarchical dictionary used for character recognition, the dictionary composed of templates for matching as an image pattern for character recognition is configured as N stages (N ≧ 2 integers). ),
The upper hierarchical dictionary is configured so as to include the lower hierarchical dictionary as a tree relation, and when learning the N-th dictionary, using the (N−1) -th dictionary lower than that,
Applying the detailed classification dictionary described above to the lower-order N-1 dictionary, applying the classification dictionary described above to the N-th dictionary, and as described above,
The steps (1) and (2) to (5) are executed in this order.
【0007】上記目的を達成するために、本発明の文字
認識に用いる階層辞書の作成方法に係る発明の構成は、
上記記載の文字認識に用いる階層辞書の作成方法であっ
て、前記テンプレートの類似度を距離で評価し、距離が
近いテンプレートほど、類似度が大きいとされていると
きにおいて、(L)LBGクラスタリングアルゴリズムを
実行し、詳細分類用テンプレートをそれの属するクラス
に分類する手順、(10)ある一つのクラスに属する詳
細分類用テンプレートの個数が一定数以上が否かを評価
する手順、(11)新たなテンプレートを、そのクラス
のテンプレートの近傍に生成する手順を有し、(L)の
手順の実行の後、(10)の手順を実行して、あるクラ
スに属する詳細分類用テンプレートの個数が一定数以上
であると評価されたときには、そのクラスに対して(1
1)の手順を実行した後、(L)の手順を実行し、全て
のクラスに渉って、そこに属する詳細分類用テンプレー
トの個数が一定数以下になるまで上記手順を繰り返すよ
うにしたものである。[0007] To achieve the above object, the present invention relates to a method for creating a hierarchical dictionary used for character recognition according to the present invention.
A method for creating a hierarchical dictionary used for character recognition as described above, wherein a similarity of the template is evaluated by a distance, and a template having a shorter distance has a higher similarity. And (10) a procedure for evaluating whether or not the number of the detailed classification templates belonging to a certain class is equal to or more than a predetermined number, and (11) a new procedure. A procedure for generating a template in the vicinity of the template of the class, and after executing the procedure of (L), the procedure of (10) is executed so that the number of the detailed classification templates belonging to a certain class is a fixed number. If the class is evaluated as above, (1
After the procedure of 1) is performed, the procedure of (L) is performed, and the above procedure is repeated until the number of the detailed classification templates belonging to all the classes becomes equal to or less than a certain number. It is.
【0008】[0008]
【発明の実施の形態】以下、本発明に係る各実施形態
を、図1ないし図8を用いて説明する。〔パターン認識
処理概要〕先ず、図2を用いてパターンを文字として認
識する処理概要について説明する。図2は、パターンを
文字として認識する処理概要を示すフローチャートであ
る。DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments according to the present invention will be described below with reference to FIGS. [Outline of Pattern Recognition Process] First, an outline of a process of recognizing a pattern as a character will be described with reference to FIG. FIG. 2 is a flowchart showing an outline of processing for recognizing a pattern as a character.
【0009】最初に、スキャナ等の入力装置から、画像
としてのパターンを入力する(S201)。First, a pattern as an image is input from an input device such as a scanner (S201).
【0010】次に、ノイズ除去や入力パターンのサイズ
正規化などの前処理をおこなう(S202)。ここで、
ノイズ除去は、認識すべき文字以外の汚れ、かすれを取
り除く処理であり、サイズの正規化とは、認識する文字
の大きさをそろえて、一定のものにする処理である(S
203)。Next, preprocessing such as noise removal and normalization of the size of the input pattern is performed (S202). here,
The noise removal is processing for removing dirt and blurring other than the character to be recognized, and the size normalization is processing for making the size of the character to be recognized uniform and constant (S
203).
【0011】そして、前処理がおわった後に、マッチン
グ処理で用いる特徴(例えば、輪郭の縦/横/右斜め/
左斜めの方向性特徴)を正規化されたパターンから抽出
する特徴抽出をおこなう(S203)。After the pre-processing is completed, the features used in the matching processing (for example, vertical / horizontal / right diagonal /
A feature extraction is performed to extract a left oblique direction feature from the normalized pattern (S203).
【0012】そして、先ず、このパターンがどのような
クラスに属するかのクラス分けを実行して(S20
4)、それから、詳細分類をおこなう(S205)。詳
細分類が完了したところで文字認識処理ができたことに
なる。Then, first, a classification is performed to determine what class this pattern belongs to (S20).
4) Then, detailed classification is performed (S205). When the detailed classification is completed, the character recognition processing is completed.
【0013】ここで、クラス分け、詳細分類の手順は、
そこに格納されたテンプレート(予め、学習パターンか
ら抽出、加工された特徴)と入力パターンから抽出した
特徴とのマッチング処理をおこない、入力されたパター
ンに一番、近いテンプレートを見出す処理である。その
ために、それぞれの手順のために、辞書が用意されてい
る。Here, the procedure of class classification and detailed classification is as follows.
This is a process of matching a template stored therein (features extracted and processed in advance from a learning pattern) with features extracted from an input pattern to find a template closest to the input pattern. For this purpose, a dictionary is prepared for each procedure.
【0014】どちらの処理もパターンマッチングである
ことに変わりはないが、このようにパターンマッチング
の処理に階層を設けたのは、いきなり、詳細分類をする
と、処理すべきマッチング処理が多くなり実用的な時間
で処理することが難しくなるためである。そのため、詳
細分類をおこなう前にクラス分けをおこなって、テンプ
レートを絞り込み、詳細分類でおこなうマッチング処理
の回数を低減させ、全体としての処理時間を低減させる
ことを図ったものである。Both processes are still pattern matching, but the reason for providing a hierarchy in the pattern matching process in this way is that if detailed classification is performed suddenly, the number of matching processes to be processed increases, which is practical. This is because it is difficult to process in a short time. Therefore, prior to performing the detailed classification, the classification is performed to narrow down the template, reduce the number of matching processes performed in the detailed classification, and reduce the processing time as a whole.
【0015】〔本発明の考え方〕次に、図3および図4
を用いて本発明の考え方について説明する。図3は、ク
ラス分けのテンプレートと詳細分類のテンプレートの関
係を示した模式図である。図4は、学習ベクトル量子化
法の原理を説明するための模式図である。Next, FIGS. 3 and 4 show the concept of the present invention.
The concept of the present invention will be described with reference to FIG. FIG. 3 is a schematic diagram showing the relationship between the classification template and the detailed classification template. FIG. 4 is a schematic diagram for explaining the principle of the learning vector quantization method.
【0016】先ず、導入としてクラス分けの処理につい
て説明する。First, a classification process will be described as an introduction.
【0017】クラス分けで用いるテンプレートは、最遠
距離法などのクラスタリング手法を利用し、類似した詳
細分類用テンプレートを同じクラスとして集め、同じク
ラスに属す詳細分類用テンプレートから、代表として一
つ作成される。そのため、クラス分け用テンプレート7
01と詳細分類用テンプレート730間の関係は、図3
に示すようになる。すなわち、例えば、類似した詳細分
類用テンプレート713〜717が一つの同じクラスと
して集められ、これらの詳細分類用テンプレート713
〜717から、代表として一つのクラス分け用テンプレ
ート703が作成され、図のようなツリーの関係にな
る。The templates used in the classification are formed by using similar clustering techniques such as the longest distance method, collecting similar detailed classification templates as the same class, and creating one representative from the detailed classification templates belonging to the same class. You. Therefore, the classification template 7
FIG. 3 and the detailed classification template 730 are shown in FIG.
It becomes as shown in. That is, for example, similar detailed classification templates 713 to 717 are collected as one and the same class, and these detailed classification templates 713 are used.
From 717 to 717, one classifying template 703 is created as a representative, and the tree relationship is as shown in the figure.
【0018】クラス分けの処理では、全てのクラス分け
用テンプレート701と入力パターンから求めた特徴と
のマッチング処理をおこない、上位N個の候補を次段の
詳細分類の手順のために出力する。したがって、クラス
分けの手順の出力として、詳細分類の手順へ送る候補が
少なければ、詳細分類でマッチングさせるべきテンプレ
ートの数が少なくなり、処理時間を低減させることがで
きる。逆に、候補数を少なくすると、クラス分けの誤り
により、正解となるべき詳細分類用テンプレートが候補
の中に存在せず、認識精度が低下する恐れがある。すな
わち、正解となるべき詳細分類用テンプレートが少数の
候補中に含まれるように、クラス分けで用いる階層辞書
を学習する必要がある。In the classification process, all the classification templates 701 are matched with features obtained from the input patterns, and the top N candidates are output for the next step of detailed classification. Therefore, if the number of candidates to be sent to the detailed classification procedure as the output of the classification procedure is small, the number of templates to be matched in the detailed classification is reduced, and the processing time can be reduced. Conversely, if the number of candidates is reduced, there is a possibility that the classification accuracy will cause the detailed classification template to be the correct answer to be absent in the candidates and the recognition accuracy to be reduced. That is, it is necessary to learn a hierarchical dictionary used for classification so that the detailed classification template to be the correct answer is included in a small number of candidates.
【0019】このことを実現させるには、高いクラス分
け精度を持ったクラス分けを構築すれば良い。そのた
め、本発明では、詳細分類において高い認識精度を実現
できることが知られている辞書学習方法である「学習ベ
クトル量子化法」(T. Kohonen, Self-Organization an
d Associative Memory, Springer-Verlag, 1989)、あ
るいは、これを含む「一般学習ベクトル量子化法」(佐
藤敦,一般学習ベクトル量子化による文字認識,電子情
報通信学会,技術報告,PRU95-219,1996-03))を、ク
ラス分けで用いる階層辞書の学習に適用できるように
し、高いクラス分け精度を持ったクラス分けを構築させ
ることをねらいとするものである。In order to realize this, it is sufficient to construct a classification having high classification accuracy. For this reason, in the present invention, a "learning vector quantization method" (T. Kohonen, Self-Organization an), which is a dictionary learning method that is known to achieve high recognition accuracy in detailed classification.
d Associative Memory, Springer-Verlag, 1989) or "General learning vector quantization method" including it (Atsushi Sato, Character Recognition by General Learning Vector Quantization, IEICE, Technical Report, PRU95-219, 1996) -03)) can be applied to learning of hierarchical dictionaries used in classification, and the purpose is to construct classification with high classification accuracy.
【0020】したがって、次に、従来知られている「学
習ベクトル量子化法(Learning Vector Quantizatio
n)」の一つLVQ2. 1のアルゴリズムについて説明しよ
う。Therefore, next, a conventionally known “Learning Vector Quantizatio
n) ”Let me explain the algorithm of LVQ 2.1.
【0021】ここで、入力パターンから抽出した特徴は
ベクトルで表現でき、これをx、そして入力パターンが
属す字種をC(x)とする。また、テンプレートwi、wj、そ
れそれが属す字種をC(wi)、C(wj)とする。また、学習ベ
クトル量子化法では、パターンが似ているか似ていない
かは、ベクトルの距離として数値化して表現される。す
なわち、パターンとして似ている場合には、ベクトルの
距離が小さいものとされる。Here, the feature extracted from the input pattern can be represented by a vector, which is represented by x, and the character type to which the input pattern belongs is represented by C (x). The templates w i , w j and the character types to which they belong are C (w i ) and C (wj). In the learning vector quantization method, whether a pattern is similar or not similar is represented by a numerical value as a vector distance. That is, when the patterns are similar, the distance between the vectors is determined to be small.
【0022】ここで、仮に、入力パターンxに最も近い
テンプレートが、wiになり、2番目に近いテンプレートw
jになったとする。ここで、入力パターンxに最も近いテ
ンプレートを第1候補のテンプレート、二番目に近いテ
ンプレートを第2候補のテンプレートと言う。入力パタ
ーンに近くて、かつ正解の字種でないときには、そのテ
ンプレートは、「妨害」していると言うことにする。Here, suppose that the template closest to the input pattern x is w i , and the template w
Suppose that it becomes j . Here, the template closest to the input pattern x is called a first candidate template, and the template closest to the input pattern x is called a second candidate template. If it is close to the input pattern and not the correct character type, the template is said to be "interfering".
【0023】正解の字種は、C(x)であるから、C(x)≠C
(wi)かつC(x)=C(wj)であるときには、テンプレートwj
は、正しい字種に属するため、距離が近くなければなら
ないのにも関わらず、現実には、第2の候補のテンプレ
ートになっている。言いかえれば、一番近いテンプレー
トwiが妨害となっている。したがって、このときには、
テンプレートwiとテンプレートwjを修正して、テンプレ
ートwjが、入力パターンxに一番近いようにする。これ
がすなわち、テンプレートに学習をさせることを意味す
る。Since the character type of the correct answer is C (x), C (x) ≠ C
When (w i ) and C (x) = C (w j ), the template w j
Is a template of the second candidate in reality, though it belongs to the correct character type and therefore needs to be short in distance. In other words, the closest template w i has become a disturbance. Therefore, at this time,
Modify template w i and template w j so that template w j is closest to input pattern x. This means that the template is made to learn.
【0024】具体的に言うと、図4に示されるように、
テンプレートwi802を、□の修正されたテンプレート
wi805に、テンプレートwj803を、□の修正された
テンプレートwj806にする。これにより、識別境界8
04が807になる。これにより、入力パターンxに一
番近いテンプレートが修正されたテンプレートwj806
になり、字種が一致して正しく認識できることになる。More specifically, as shown in FIG.
Replace template w i 802 with □ modified template
The template w j 803 is changed to the modified template w j 806 of □ in w i 805. Thereby, the identification boundary 8
04 becomes 807. Thus, the template w j 806 in which the template closest to the input pattern x is modified
, And the character types match and can be recognized correctly.
【0025】これらのアルゴリズムを数式で示すとする
と、以下の(式1)が成立し、If these algorithms are expressed by equations, the following (Equation 1) is established,
【0026】[0026]
【数1】C(x)≠C(wi)かつC(x)=C(wj) …(式1) かつ、テンプレートwiとテンプレートwjの識別境界付近
に設定された領域内にxが存在する場合に、以下の(式
2)、(式3)にしたがって、テンプレートwiとwjの修
正がおこなわれる。[Formula 1] C (x) ≠ C (w i ) and C (x) = C (w j ) (Equation 1) and within an area set near the identification boundary between template w i and template w j When x exists, the templates w i and w j are corrected according to the following (Equation 2) and (Equation 3).
【0027】[0027]
【数2】wi ← wi + k (x - wi) …(式2) wj ← wj + k (x - wj) …(式3) ただし、0 < k < 1である。W i ← w i + k (x−w i ) (Equation 2) w j ← w j + k (x−w j ) (Equation 3) However, 0 <k <1.
【0028】本発明は、以上の学習ベクトル量子化法を
前提として、クラス分けに用いられるテンプレートを、
学習の対象として適用しようとするものである。According to the present invention, based on the learning vector quantization method described above, a template used for classifying is
It is intended to be applied as a learning target.
【0029】〔実施形態1〕次に、図1、図3、図5お
よび図6を用いて本発明に係る第一の実施形態の処理手
順について説明する。図1は、本発明に係る階層辞書学
習方法の手順を示すフローチャートである。図5は、修
正対象のクラス分け用テンプレートを選択する処理を詳
細に示したフローチャートである。図6は、詳細用テン
プレート番号とそれに対応するクラス分け番号を示すテ
ーブルを示す図である。[Embodiment 1] Next, the processing procedure of the first embodiment according to the present invention will be described with reference to FIG. 1, FIG. 3, FIG. 5, and FIG. FIG. 1 is a flowchart showing the procedure of the hierarchical dictionary learning method according to the present invention. FIG. 5 is a flowchart showing in detail a process of selecting a classifying template to be corrected. FIG. 6 is a diagram showing a table showing the template numbers for details and the corresponding classification numbers.
【0030】先ず、本発明の階層辞書学習方法をおこな
うには、詳細分類用辞書と、その上の階層であるクラス
分け辞書を作成する必要がある。これらの作成方法は公
知の技術であるので、これらの作成方法の説明を省略
し、既にこれらの辞書が作成されているものする。First, in order to carry out the hierarchical dictionary learning method of the present invention, it is necessary to create a detailed classification dictionary and a classification dictionary which is a layer above it. Since these creating methods are well-known techniques, the description of these creating methods is omitted, and it is assumed that these dictionaries have already been created.
【0031】図1(a)に示されているのは、本発明の
クラス分け用テンプレートを学習するために必要なデー
タを作成する手順であり、(b)は、クラス分け用テン
プレートを学習させる手順を示している。FIG. 1A shows a procedure for creating data required for learning a classification template according to the present invention, and FIG. 1B shows a procedure for learning the classification template. The procedure is shown.
【0032】上述した学習ベクトル量子化法LVQ2.1で
は、入力パターンには、それが属すべき字種が定まって
おり、それにより、字種に対応するテンプレートを修正
するものであった。本発明では、入力パターンが属する
のは、クラスであり、修正する対象となるのは、クラス
分け用テンプレートを学習させるものであるのを注意し
ておこう。In the above-described learning vector quantization method LVQ2.1, the character type to which the input pattern belongs is determined, and the template corresponding to the character type is modified accordingly. It should be noted that in the present invention, the class to which the input pattern belongs is the class, and the object to be corrected is to learn a classification template.
【0033】以下、図7に示した具体例に基づいて説明
していくことにする。Hereinafter, description will be made based on a specific example shown in FIG.
【0034】図1(a)に示すように、先ず、システム
に学習データベースを入力する(S101)。As shown in FIG. 1A, first, a learning database is input to the system (S101).
【0035】そして、サンプル数回だけ次の処理を繰り
返す(S102)。その繰り返し処理は、まずパターン
に対して詳細分類を行なって(S103)、そして、正
解である詳細分類用テンプレートの番号をタグに記載す
る(S104)。Then, the next process is repeated several times for the samples (S102). In the repetition processing, first, detailed classification is performed on the pattern (S103), and the number of the correct detailed classification template is described in the tag (S104).
【0036】例えば、「丸」に類似したパターンを入力
すると、詳細分類のテンプレートを検索して、「丸」テ
ンプレート711のテンプレート番号がタグに記載され
る。ここで、タグとは、各入力パターンに対応して設け
られる記憶エリアである。For example, when a pattern similar to “circle” is input, a template of the detailed classification is searched, and the template number of the “circle” template 711 is described in the tag. Here, the tag is a storage area provided corresponding to each input pattern.
【0037】以上の処理で、各学習用パターンが正しく
ヒットすべき詳細分類用のテンプレートの番号が記憶さ
れる。すなわち、このタグに記載されたテンプレートの
番号が正解であるとされる詳細分類用のテンプレート番
号である。In the above processing, the number of the detailed classification template to which each learning pattern should hit correctly is stored. That is, the number of the template described in this tag is the template number for the detailed classification that is regarded as the correct answer.
【0038】次に、クラス分け用テンプレートの学習
は、図1(b)に示される手順に従って実行される。Next, learning of the classification template is executed according to the procedure shown in FIG.
【0039】先ず、システムに学習データベースを入力
する(S111)。First, a learning database is input to the system (S111).
【0040】次に、以下の処理を学習をおこなう回数だ
け(S112)、入力するサンプルの数だけ(S11
3)繰り返すことになる。ここで、学習をおこなわせる
回数は、学習の効果と、クラス分けの精度向上という観
点から、実用的な回数が定められることになる。Next, the number of times of learning the following processing (S112) and the number of input samples (S11
3) Will repeat. Here, the practical number of times for performing the learning is determined from the viewpoint of the effect of the learning and the improvement of the accuracy of the classification.
【0041】そして、これ以降は、学習ベクトル量子化
法の応用である。The following is an application of the learning vector quantization method.
【0042】先ず、入力パターンのクラス分けテンプレ
ートの評価をおこなう(S114)。すなわち、入力パ
ターンのベクトルと、クラスのテンプレートのベクトル
との類似関係を評価する。これは、既に学習ベクトル量
子化法のアルゴリズムの所で説明した様に、ベクトルと
して見て、各々のテンプレートとの類似度を距離の遠近
で評価する手順である。ここでは、「丸」のパターンを
入力し、クラス分けのテンプレート704が最も近いと
評価されたとする。First, the classification template of the input pattern is evaluated (S114). That is, the similarity between the vector of the input pattern and the vector of the class template is evaluated. This is a procedure for evaluating the degree of similarity with each template in terms of distance as seen as a vector, as described in the algorithm of the learning vector quantization method. Here, it is assumed that a “circle” pattern is input and the classification template 704 is evaluated to be the closest.
【0043】次に、入力パターンのタグに記載された詳
細分類用のテンプレート番号を読込む(S115)。こ
れは、「丸」テンプレート711のテンプレート番号で
あった。Next, the template number for the detailed classification described in the tag of the input pattern is read (S115). This was the template number of the "circle" template 711.
【0044】次に、学習のために修正対象となるクラス
分け用のテンプレートを求める処理である(S11
6)。Next, there is a process of obtaining a classifying template to be corrected for learning (S11).
6).
【0045】これは、図5に示されるように2段階の処
理になる。This is a two-step process as shown in FIG.
【0046】先ず、読込んだ入力パターンの正解詳細分
類番号から、これが属するクラス分け番号(これを、C
Lとする)を求め、このテンプレートを正解であるクラ
ス分けテンプレートとする(S301)。First, from the correct detailed classification number of the read input pattern, the classification number to which it belongs (this is
L), and this template is used as a correct classification template (S301).
【0047】各詳細分類用テンプレートが含まれるクラ
スは、予め作成された図6に示すテーブルを用いること
で求めることができる。このテーブルは、詳細分類用テ
ンプレート番号401からクラス分け番号402を引く
ことができるものである。これは、図3に示すように、
クラス分け用テンプレートと詳細分類用テンプレートと
はツリー状の関係であることから、730の各詳細分類
用テンプレートが属すクラス分け用テンプレート701
を知ることができ、容易に作成できる。The class including each of the detailed classification templates can be obtained by using a table shown in FIG. 6 created in advance. In this table, the classification number 402 can be subtracted from the detailed classification template number 401. This is shown in FIG.
Since the classification template and the detailed classification template have a tree-like relationship, the classification template 701 to which each of the detailed classification templates 730 belongs.
Can be known and can be easily created.
【0048】この例では、「丸」テンプレート711の
属するクラスのテンプレート702が正解となるクラス
分けのテンプレートである。In this example, the template 702 of the class to which the “circle” template 711 belongs is a template for classifying which is the correct answer.
【0049】次に、入力パターンがCLを除いて最も近
い距離のクラス番号を求め、このテンプレートを妨害ク
ラス分けテンプレートとする。この例では、クラス分け
テンプレート704のテンプレートがこれに該当する。Next, the class number of the closest distance to the input pattern excluding CL is obtained, and this template is used as a disturbance classification template. In this example, the template of the classification template 704 corresponds to this.
【0050】次に、クラス分け用テンプレートを修正す
る。これは、既に学習ベクトル量子化法の所で説明した
様に、妨害となるクラス分けテンプレート704を修正
して、入力パターンから遠ざけ、正解であるクラス分け
用テンプレート702を、入力パターンに近づけるよう
にする。Next, the classification template is modified. This is done by modifying the obstructive classification template 704 so as to move it away from the input pattern and bring the correct classification template 702 closer to the input pattern, as already described in the learning vector quantization method. I do.
【0051】先に、挙げた学習ベクトル量子化法の記述
記号によると、正解であるテンプレートwjが、クラス分
け用テンプレート702とし、妨害となるテンプレート
wiが、クラス分けテンプレート704に該当する。これ
を上記のアルゴリズムに適用すれば、望ましい方向にク
ラス分けのテンプレートが修正され、クラス分けテンプ
レートについて、学習がなされることになる。According to the description symbols of the learning vector quantization method described above, the correct template w j is used as the classification template 702 and the template
w i corresponds to the classification template 704. If this is applied to the above algorithm, the classification template is corrected in a desired direction, and learning is performed on the classification template.
【0052】〔実施形態2〕次に、図7を用いて本発明
に係る第二の実施形態の処理手順について説明する。図
7は、辞書が多段階になったときの学習方法の処理手順
を示すフローチャートである。[Second Embodiment] Next, a processing procedure of a second embodiment according to the present invention will be described with reference to FIG. FIG. 7 is a flowchart illustrating a processing procedure of a learning method when a dictionary has multiple stages.
【0053】第一の実施形態は、二段階のテンプレート
からなる辞書を詳細分類用と、それより上位であるクラ
ス分け用に分類し、学習ベクトル量子化法を用い、下位
の入力パターンの演算結果を上位の階層の学習に反映す
るものであった。In the first embodiment, a dictionary composed of two-stage templates is classified into a detailed classification and a higher-level classification, and a learning vector quantization method is used. Was reflected in the learning of the higher hierarchy.
【0054】この手順は、二段階に止まらず、より多段
階の階層からなる辞書の学習にも適用できる。すなわ
ち、N段目の階層の辞書を学習する場合に、それより、
1段低いN−1段目の階層の辞書に関する学習データを
利用するのである。This procedure is not limited to two steps, but can be applied to learning a dictionary composed of more layers. That is, when learning the dictionary of the N-th level,
The learning data on the dictionary of the (N-1) -th level one step lower is used.
【0055】以下、図7の順を追って説明する。Hereinafter, description will be made in order of FIG.
【0056】先ず、システムに学習用データベースを入
力する(S501)。First, a learning database is input to the system (S501).
【0057】そして、階層処理の段数だけ、以下の処理
を繰り返しおこなう(S502)。ここで、段数をNと
し、繰り返しおこなう変数をiとする。そして、iを0
から、N−2まで変化させる。Then, the following processing is repeated as many times as the number of levels of the hierarchical processing (S502). Here, it is assumed that the number of stages is N, and a variable that is repeatedly performed is i. And i is 0
To N-2.
【0058】その繰り返し処理では、まず(N−i)段目
の階層辞書を作成する(S503)。In the repetition processing, first, a hierarchical dictionary of the (N-i) th stage is created (S503).
【0059】次に、(N−i−1)段目の階層辞書を利
用し、学習用データを、図1(a)のフローチャートの
処理手順と同様な方法で作成する(S504)。すなわ
ち、入力パターンが下位の辞書のテンプレートに属する
かを調べ、正解となった(N−i−1)段目の階層のテ
ンプレート番号をタグに記載する。Next, learning data is created by using the hierarchical dictionary of the (Ni-1) th stage in the same manner as the processing procedure of the flowchart of FIG. 1A (S504). That is, it is checked whether or not the input pattern belongs to the template of the lower dictionary, and the template number of the (N-i-1) th hierarchical level that is the correct answer is described in the tag.
【0060】そして、学習ベクトル量子化法を利用し、
(N−i)段目の階層辞書を図1(b)の処理手順と同様
な方法で学習させる(S505)。すなわち、(N−i)
段目の階層辞書に属するテンプレートにおいて、正解と
なるテンプレートと、妨害とするテンプレートを探し、
正解となるテンプレートの距離を入力パターンに近づ
け、妨害とするテンプレートを遠ざけるように修正をす
る。Then, using the learning vector quantization method,
The (N-i) th hierarchical dictionary is learned by the same method as the processing procedure of FIG. 1B (S505). That is, (N−i)
In the templates belonging to the hierarchical dictionary at the lower level, search for the correct template and the template to be disturbed.
Correction is made so that the distance of the correct template is closer to the input pattern and the template to be disturbed is further away.
【0061】最後に、作成した辞書を格納する(S50
6)。Finally, the created dictionary is stored (S50).
6).
【0062】〔実施形態3〕次に、図8を用いて本発明
に係る第三の実施形態の処理手順を説明する。図8は、
LBGクラスタリングアルゴリズムを用いて階層辞書の作
成方法の処理手順を示すフローチャートである。[Embodiment 3] Next, the processing procedure of a third embodiment according to the present invention will be described with reference to FIG. FIG.
13 is a flowchart illustrating a processing procedure of a method of creating a hierarchical dictionary using an LBG clustering algorithm.
【0063】第一の実施形態と第二の実施形態は、階層
辞書の学習方法に関するものであったが、本実施形態
は、階層辞書を作成するための方法に関するものであ
る。The first embodiment and the second embodiment relate to a method for learning a hierarchical dictionary, but the present embodiment relates to a method for creating a hierarchical dictionary.
【0064】一般に認識処理の計算量を少なくするため
には、クラスに属する詳細分類用のテンプレートの数が
平準化され、特定のクラスに属する詳細分類用のテンプ
レートで飛びぬけて多いものがないのが望ましい。その
ため、本実施形態は、階層辞書を作成する際に一定の個
数以上の詳細分類テンプレートを持つようなクラスを持
たないように工夫をするものである。In general, in order to reduce the amount of calculation in the recognition processing, the number of detailed classification templates belonging to a class is averaged, and there is no exceptionally large number of detailed classification templates belonging to a specific class. Is desirable. For this reason, in the present embodiment, when creating a hierarchical dictionary, it is devised not to have a class having a certain number or more of detailed classification templates.
【0065】さて、階層辞書は、クラスタリングアルゴ
リズムを用いて作成するが、本実施形態では、上記の目
的のために、その中のLBGクラスタリングアルゴリズム
(Y.Linde, A. Buzo, and R. M. Gray, An Algorithm f
or Vector Quantizer Design, IEEE Trans. on Comm.,
Vol. COM-28, No.1, pp.84-95)を用いる。このLBGクラ
スタリングアルゴリズムは、クラスタリングアルゴリズ
ムの中で分類性能が高いことが知られ、しかも、上記の
目的を達成するように、詳細分類用テンプレートの個数
を多く持つようなクラスができることを回避することが
できる。The hierarchical dictionary is created using a clustering algorithm. In the present embodiment, for the above purpose, the LBG clustering algorithm (Y. Linde, A. Buzo, and RM Gray, An Algorithm f
or Vector Quantizer Design, IEEE Trans. on Comm.,
Vol. COM-28, No.1, pp.84-95) is used. This LBG clustering algorithm is known to have high classification performance among the clustering algorithms, and furthermore, it is possible to avoid a class having a large number of detailed classification templates from being created so as to achieve the above-mentioned object. it can.
【0066】先ず、簡単に、LBGクラスタリングアルゴ
リズムの概要について簡単に説明する。First, the outline of the LBG clustering algorithm will be briefly described.
【0067】LBGクラスタリングアルゴリズムを適用す
る場合には、先ず、適当な個数のテンプレートを初期値
として設定する。そして、ボロノイ分割によりクラスタ
リング用サンプルを分割し、各分割の重心を求めこれを
新たなテンプレートとして更新する二つの処理を繰り返
す。この繰り返し処理では、まず各分割内においてテン
プレートとクラスタリング用サンプルとの距離の和
(歪)を求め、さらに、すべての分割内での歪の総和を
求める。これを総歪と呼び、LBGクラスタリングアルゴ
リズムは、この総歪が一定値以下になるまで繰り返す。When the LBG clustering algorithm is applied, first, an appropriate number of templates are set as initial values. Then, two processes of dividing the clustering sample by Voronoi division, finding the center of gravity of each division, and updating this as a new template are repeated. In this repetitive processing, first, the sum (distortion) of the distance between the template and the clustering sample is obtained in each division, and further, the sum of the distortions in all divisions is obtained. This is called the total distortion, and the LBG clustering algorithm repeats until the total distortion becomes equal to or less than a certain value.
【0068】ここでは、上記説明のテンプレートがクラ
ス分けのテンプレートに相当し、クラスタリング用サン
プルが詳細分類用テンプレートに相当する。本発明で
は、LBGクラスタリングアルゴリズムでの結果、特定の
クラスでそこに属す詳細分類用テンプレートがM個以上
であれば、既存のテンプレートの近傍に新たなテンプレ
ートを設定し、再びLBGクラスタリングアルゴリズムを
行うことでその特定のクラスを2分させることができ
る。Here, the template described above corresponds to a template for classification, and the clustering sample corresponds to a template for detailed classification. In the present invention, if the result of the LBG clustering algorithm is M or more detailed classification templates belonging to a specific class, a new template is set near an existing template, and the LBG clustering algorithm is performed again. Can divide that particular class into two.
【0069】以下、LBGクラスタリングアルゴリズムを
使用した階層辞書の作成方法を、図8の順を追って説明
する。Hereinafter, a method of creating a hierarchical dictionary using the LBG clustering algorithm will be described with reference to FIG.
【0070】先ず、変数Flagを0にセットする(S60
1)。First, the variable Flag is set to 0 (S60).
1).
【0071】次に、LBGクラスタリングアルゴリズムを
実行する(S602)。Next, the LBG clustering algorithm is executed (S602).
【0072】そしてクラス数回(i)だけ、S604か
らS606の処理をおこなう(S603)。Then, the processes from S604 to S606 are performed several times (i) in the class (S603).
【0073】その繰り返し処理では、まずi番目のクラ
スに属す詳細分類用テンプレート数がM以上か否かを判
断する(S604)。In the repetition processing, first, it is determined whether the number of the detailed classification templates belonging to the i-th class is M or more (S604).
【0074】もし、M以上であればi番目のクラス分け用
テンプレートの近傍に新たなテンプレートを生成し(S
605)、そして、変数Flagを1にセットする(S60
6)。そしてS603の繰り返し処理が終了した後、変
数Flagが0か1かを判断する(S607)。If it is not less than M, a new template is generated near the i-th classification template (S
605), and sets the variable Flag to 1 (S60)
6). After the repetition of S603, it is determined whether the variable Flag is 0 or 1 (S607).
【0075】もし、変数Flagが1であれば、新たなクラ
ス分け用のテンプレートが作られているのだから、S6
01の処理に戻り(S608)、これまでの処理を再び
繰り返す。If the variable Flag is 1, a new template for classifying has been created.
01 (S608), and the processing up to this point is repeated again.
【0076】変数Flagが0のときには、すべてのクラス
に属する詳細テンプレートの数が、Mより少なくなって
いるので処理を終了する。When the variable Flag is 0, the number of detailed templates belonging to all classes is smaller than M, and the process is terminated.
【0077】[0077]
【発明の効果】本発明によれば、文字認識のために階層
的な辞書を用いる場合において、上位階層であるクラス
分けの辞書を学習させることにより、一つ一つに属する
クラス分け候補数を少なくして、文字認識の処理速度を
向上させ、しかも、高いクラス分け精度を持ち、誤認識
をおこさないような階層辞書の学習方法を提供すること
ができる。According to the present invention, when a hierarchical dictionary is used for character recognition, the number of classifying candidates belonging to each class is reduced by learning a dictionary for classifying which is a higher hierarchy. It is possible to provide a method of learning a hierarchical dictionary that can improve the processing speed of character recognition while reducing the number, and that has high classification accuracy and does not cause erroneous recognition.
【図1】本発明に係る階層辞書学習方法の手順を示すフ
ローチャートである。FIG. 1 is a flowchart showing a procedure of a hierarchical dictionary learning method according to the present invention.
【図2】パターンを文字として認識する処理概要を示す
フローチャートである。FIG. 2 is a flowchart showing an outline of processing for recognizing a pattern as a character.
【図3】クラス分けのテンプレートと詳細分類のテンプ
レートの関係を示した模式図である。FIG. 3 is a schematic diagram showing a relationship between a classification template and a detailed classification template.
【図4】学習ベクトル量子化法の原理を説明するための
模式図である。FIG. 4 is a schematic diagram for explaining the principle of a learning vector quantization method.
【図5】修正対象のクラス分け用テンプレートを選択す
る処理を詳細に示したフローチャートである。FIG. 5 is a flowchart showing in detail a process of selecting a classifying template to be modified.
【図6】詳細用テンプレート番号とそれに対応するクラ
ス分け番号を示すテーブルを示す図である。FIG. 6 is a diagram showing a table showing a template number for details and a classification number corresponding thereto.
【図7】辞書が多段階になったときの学習方法の処理手
順を示すフローチャートである。FIG. 7 is a flowchart showing a processing procedure of a learning method when a dictionary has multiple stages.
【図8】LBGクラスタリングアルゴリズムを用いて階層
辞書の作成方法の処理手順を示すフローチャートであ
る。FIG. 8 is a flowchart illustrating a processing procedure of a method of creating a hierarchical dictionary using an LBG clustering algorithm.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 新庄 広 東京都国分寺市東恋ヶ窪一丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 中島 和樹 東京都国分寺市東恋ヶ窪一丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 杉本 建行 神奈川県小田原市国府津2880番地 株式会 社日立製作所ストレージ事業部内 (72)発明者 飯田 征 神奈川県小田原市国府津2880番地 株式会 社日立製作所ストレージ事業部内 Fターム(参考) 5B064 AB16 DA00 DA05 DA14 DA27 DC07 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Hiroshi Shinjo 1-280 Higashi-Koigabo, Kokubunji-shi, Tokyo Inside the Central Research Laboratory of Hitachi, Ltd. (72) Inventor Kazuki Nakajima 1-280 Higashi-Koigabo, Kokubunji-shi, Tokyo Hitachi, Ltd. Central Research Laboratory (72) Inventor Tateyuki Sugimoto 2880 Kozu, Odawara-shi, Kanagawa Prefecture Hitachi, Ltd.Storage Business Unit (72) Inventor Seiji Ida 2880 Kofu, Odawara-shi, Kanagawa Prefecture Hitachi Storage Device Business F-term ( Reference) 5B064 AB16 DA00 DA05 DA14 DA27 DC07
Claims (3)
ための文字認識に用いる階層辞書の学習方法において、 文字を認識するために画像のパターンとしてマッチング
させるためのテンプレートからなる辞書を、下位の詳細
分類辞書と、上位のクラス分け辞書の階層からなる階層
辞書として構成し、 前記下位の詳細分類辞書は、学習データベースを用いて
構築され、 前記上位のクラス分け辞書は、前記下位の詳細分類辞書
のテンプレートの特徴からクラス分けされたテンプレー
トからなる辞書であり、 この文字認識に用いる階層辞書の学習方法は、(1)学
習データベース中のサンプルパターンに対し、前記詳細
分類用の辞書のテンプレートを識別するテンプレート番
号を、このパターンに付加されたタグに記載する手順、
(2)入力された前記サンプルパターンと、クラス分け
辞書の階層のテンプレートとの類似度を数値化して評価
する手順、(3)前記(1)の手順で記載されたテンプ
レート番号より、そのテンプレート番号が属する上位ク
ラスのクラス分け辞書のテンプレートを求める手順、
(4)前記(3)で求められたテンプレート以外で、前
記(2)の手順で前記サンプルパターンとの類似度が大
きいとされたクラス分け辞書のテンプレートを求める手
順、(5)前記(3)の手順で求めたクラス分け辞書の
テンプレートを正解となるテンプレートとし、前記
(4)の手順で求めたクラス分け辞書のテンプレートを
妨害となるテンプレートとして、入力されたサンプルパ
ターンに、正解となるテンプレートを類似度が大きくな
るように修正し、前記妨害となるテンプレートが類似度
が小さくなる用に修正する手順を有し、前記(1)の手
順の実行の後に、定められた学習の回数分だけ、また、
入力されたサンプルパターンの数だけ、 前記(2)ないし(5)の手順をこの順におこなって、
クラス分け辞書のテンプレートの学習をおこなうことを
特徴とする文字認識に用いる階層辞書の学習方法。In a method of learning a hierarchical dictionary used for character recognition for recognizing a read image as a character string, a dictionary including a template for matching as an image pattern for recognizing a character is stored in a lower order. And a hierarchical dictionary including a hierarchy of a higher-level classification dictionary. The lower-level detailed dictionary is constructed using a learning database, and the upper-level classification dictionary includes the lower-level detailed classification. This is a dictionary composed of templates classified into classes based on the features of the dictionary template. The learning method of the hierarchical dictionary used for character recognition is as follows. Steps to write the template number to identify in the tag attached to this pattern,
(2) a procedure of quantifying and evaluating the similarity between the input sample pattern and the template in the hierarchy of the classification dictionary, and (3) a template number based on the template number described in the procedure (1). To find a template for the classifying dictionary of the higher class to which the
(4) A procedure for obtaining a template of a classification dictionary that has a similarity with the sample pattern in the procedure of (2) other than the template obtained in (3), (5) the (3) The template of the classification dictionary obtained in the procedure of (4) is set as a correct template, and the template of the classification dictionary obtained in the procedure (4) is set as an obstructing template. The method has a procedure of modifying the similarity to be large, and modifying the disturbing template so that the similarity is small. After the execution of the procedure (1), a predetermined number of learnings is performed. Also,
Perform steps (2) to (5) in this order for the number of input sample patterns.
A learning method of a hierarchical dictionary used for character recognition, wherein learning of a template of a classification dictionary is performed.
してマッチングさせるためのテンプレートからなる辞書
の構成を、N段として(N≧2なる整数)、 上位の階層辞書は、下位の階層辞書をツリー関係として
含むように構成して、 N段目の辞書を学習するにあたり、それより一つ下位の
N−1段目の辞書を利用して、 前記請求項1に記載した詳細分類用辞書を前記下位のN
−1段目の辞書に当てはめ、 前記請求項1に記載したクラス分け辞書を前記N段目の
辞書に当てはめて、 請求項1に記載した様に、(1)と、前記(2)ないし
前記(5)の手順をこの順に実行することを特徴とする
文字認識に用いる階層辞書の学習方法。2. The structure of a dictionary composed of templates for matching as image patterns for character recognition is defined as N stages (N ≧ 2 integers). In order to learn the dictionary of the N-th stage, the dictionary for the detailed classification according to the claim 1 is used by using the dictionary of the (N-1) -th stage below the dictionary. Lower N
Applying the classification dictionary described in claim 1 to the N-th dictionary, as described in claim 1, (1) and (2) to (2) A method of learning a hierarchical dictionary used for character recognition, characterized by performing the procedure of (5) in this order.
書の作成方法であって、 前記テンプレートの類似度を距離で評価し、距離が近い
テンプレートほど、類似度が大きいとされているときに
おいて、(L)LBGクラスタリングアルゴリズムを実行
し、詳細分類用テンプレートをそれの属するクラスに分
類する手順、(10)ある一つのクラスに属する詳細分
類用テンプレートの個数が一定数以上が否かを評価する
手順、(11)新たなテンプレートを、そのクラスのテ
ンプレートの近傍に生成する手順を有し、(L)の手順
の実行の後、(10)の手順を実行して、あるクラスに
属する詳細分類用テンプレートの個数が一定数以上であ
ると評価されたときには、そのクラスに対して(11)
の手順を実行した後、(L)の手順を実行し、全てのク
ラスに渉って、そこに属する詳細分類用テンプレートの
個数が一定数以下になるまで上記手順を繰り返すことを
特徴とする文字認識に用いる階層辞書の作成方法。3. The method for creating a hierarchical dictionary used for character recognition according to claim 1, wherein the similarity of the template is evaluated by a distance, and when the similarity is determined to be higher for a template having a shorter distance. , (L) a procedure for executing the LBG clustering algorithm to classify the detailed classification templates into classes to which they belong, and (10) evaluating whether the number of the detailed classification templates belonging to a certain class is equal to or more than a certain number. Procedure, (11) a procedure for generating a new template in the vicinity of the template of the class. After execution of the procedure of (L), the procedure of (10) is executed to execute detailed classification belonging to a certain class. If the number of templates for use is evaluated to be equal to or more than a certain number, (11)
After executing the procedure of (L), the procedure of (L) is executed, and the above procedure is repeated until the number of the detailed classification templates belonging to all the classes falls below a certain number. A method of creating a hierarchical dictionary used for recognition.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10246764A JP2000076382A (en) | 1998-09-01 | 1998-09-01 | Learning method of hierarchical dictionary to use for character recognition and preparation of the dictionary |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10246764A JP2000076382A (en) | 1998-09-01 | 1998-09-01 | Learning method of hierarchical dictionary to use for character recognition and preparation of the dictionary |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000076382A true JP2000076382A (en) | 2000-03-14 |
Family
ID=17153327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10246764A Pending JP2000076382A (en) | 1998-09-01 | 1998-09-01 | Learning method of hierarchical dictionary to use for character recognition and preparation of the dictionary |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000076382A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006073081A1 (en) * | 2005-01-05 | 2006-07-13 | Nec Corporation | Discriminative data learning system, learning device, discriminating device, and learning method |
-
1998
- 1998-09-01 JP JP10246764A patent/JP2000076382A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006073081A1 (en) * | 2005-01-05 | 2006-07-13 | Nec Corporation | Discriminative data learning system, learning device, discriminating device, and learning method |
JPWO2006073081A1 (en) * | 2005-01-05 | 2008-06-12 | 日本電気株式会社 | Identification data learning system, learning device, identification device, and learning method |
US7783581B2 (en) | 2005-01-05 | 2010-08-24 | Nec Corporation | Data learning system for identifying, learning apparatus, identifying apparatus and learning method |
JP4697670B2 (en) * | 2005-01-05 | 2011-06-08 | 日本電気株式会社 | Identification data learning system, learning device, identification device, and learning method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8566349B2 (en) | Handwritten document categorizer and method of training | |
JP4618098B2 (en) | Image processing system | |
CN110046634B (en) | Interpretation method and device of clustering result | |
US20040165777A1 (en) | On-line handwriting recognizer | |
US9711117B2 (en) | Method and apparatus for recognising music symbols | |
US20210117802A1 (en) | Training a Neural Network Using Small Training Datasets | |
CN108198324B (en) | A kind of multinational bank note currency type recognition methods based on finger image | |
JP2019086979A (en) | Information processing device, information processing method, and program | |
CN113343920A (en) | Method and device for classifying face recognition photos, electronic equipment and storage medium | |
Suganya et al. | Feature selection for an automated ancient Tamil script classification system using machine learning techniques | |
JP4066507B2 (en) | Japanese character recognition error correction method and apparatus, and recording medium on which error correction program is recorded | |
CN115203408A (en) | Intelligent labeling method for multi-modal test data | |
Wu et al. | Forestdet: Large-vocabulary long-tailed object detection and instance segmentation | |
JP5989576B2 (en) | Pattern identification device, pattern identification method, program, learning device, and learning method | |
Kataria et al. | CNN-bidirectional LSTM based optical character recognition of Sanskrit manuscripts: A comprehensive systematic literature review | |
Rajnoha et al. | Handwriting comenia script recognition with convolutional neural network | |
CN112200216B (en) | Chinese character recognition method, device, computer equipment and storage medium | |
Sundaram et al. | Bigram language models and reevaluation strategy for improved recognition of online handwritten Tamil words | |
CN117234029A (en) | OPC layout preprocessing method and correction method and device thereof | |
Günter et al. | Optimization of weights in a multiple classifier handwritten word recognition system using a genetic algorithm | |
JP3095069B2 (en) | Character recognition device, learning method, and recording medium storing character recognition program | |
Choudhary et al. | Offline handwritten mathematical expression evaluator using convolutional neural network | |
CN115116115A (en) | Face recognition and model training method and device thereof | |
JP2000076382A (en) | Learning method of hierarchical dictionary to use for character recognition and preparation of the dictionary | |
CN109299260B (en) | Data classification method, device and computer readable storage medium |