JP5521497B2 - Pattern recognition apparatus, pattern recognition program, and pattern recognition method - Google Patents

Pattern recognition apparatus, pattern recognition program, and pattern recognition method Download PDF

Info

Publication number
JP5521497B2
JP5521497B2 JP2009253738A JP2009253738A JP5521497B2 JP 5521497 B2 JP5521497 B2 JP 5521497B2 JP 2009253738 A JP2009253738 A JP 2009253738A JP 2009253738 A JP2009253738 A JP 2009253738A JP 5521497 B2 JP5521497 B2 JP 5521497B2
Authority
JP
Japan
Prior art keywords
pattern
feature vector
axis
category
coordinate position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009253738A
Other languages
Japanese (ja)
Other versions
JP2011100245A (en
Inventor
裕 勝山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009253738A priority Critical patent/JP5521497B2/en
Publication of JP2011100245A publication Critical patent/JP2011100245A/en
Application granted granted Critical
Publication of JP5521497B2 publication Critical patent/JP5521497B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Discrimination (AREA)

Description

本発明は、入力画像のパターン認識を実行するパターン認識装置、パターン認識プログラム、パターン認識方法に関する。   The present invention relates to a pattern recognition apparatus, a pattern recognition program, and a pattern recognition method for executing pattern recognition of an input image.

近年、文書を画像で保存することを許可するe文書法(電子文書法:法令番号平成16年法律第149号、平成16年法律第150号)が施行され、文書画像の検索ニーズが高まるなど、パターン認識技術は様々な分野で使用されている。   In recent years, the e-Document Law (Electronic Document Law: Law No. 149, Law No. 149, Law No. 150, 2004) that allows documents to be stored as images has been enforced, and search needs for document images have increased. Pattern recognition technology is used in various fields.

文書画像におけるパターン認識処理は、文書画像からテキスト領域を求めるレイアウト解析処理と、抽出したテキスト領域を対象に文字画像を文字コードに変換する文字認識処理に分けることができる。また、文書画像のパターン認識にかかる処理時間を計測すると、文字認識処理がレイアウト解析処理より処理時間を要することが知られている。そこで、パターン認識処理にかかる時間を削減して、パターン認識処理を高速化するための提案がされている。   Pattern recognition processing for a document image can be divided into layout analysis processing for obtaining a text region from the document image and character recognition processing for converting a character image into a character code for the extracted text region. Further, it is known that when the processing time required for the pattern recognition of the document image is measured, the character recognition processing requires more processing time than the layout analysis processing. Thus, proposals have been made to reduce the time required for pattern recognition processing and to speed up pattern recognition processing.

例えば、文字認識処理部分を高速化する方法として、文字認識精度(文字認識の正解率)を犠牲にする簡便な処理が提案されている。しかし、蓄積した文書の検索や、再利用などの実用性を考えた場合、文字認識精度を低下させることは好ましくない。そのため、文字認識精度を高精度に保ったまま高速に文字認識処理を行うことが求められている。   For example, as a method for speeding up the character recognition processing part, a simple process that sacrifices character recognition accuracy (character recognition accuracy rate) has been proposed. However, it is not preferable to reduce the character recognition accuracy in consideration of practicality such as retrieval and reuse of stored documents. Therefore, it is required to perform character recognition processing at high speed while maintaining high character recognition accuracy.

そこで、次のような文字認識処理に関する技術が提案されている。まず、パターン認識装置に、対象の文字コード(JIS第1水準の漢字、JIS第2水準の漢字、ひらがな、カタカナ、記号、縦書き専用文字、英字、数字、半角文字などに対応するコード)に対応する複数の文字画像(学習用サンプルパターン)を収集する。そして、パターン認識装置は、収集した各文字画像を特徴ベクトルに変換し、文字コードごとに平均ベクトルを作成し、文字コードと平均ベクトルをペアにして記録部に記録し、辞書を生成する。他の文字コードについても同じことを行い、複数の文字コードと文字コードに対応する特徴ベクトルの情報を記録部に記録する。   Therefore, the following technologies relating to character recognition processing have been proposed. First, the target character code (corresponding to JIS 1st level kanji, JIS 2nd level kanji, hiragana, katakana, symbols, vertical writing characters, English letters, numbers, half-width characters, etc.) Collect a plurality of corresponding character images (learning sample patterns). The pattern recognition apparatus converts each collected character image into a feature vector, creates an average vector for each character code, records the character code and the average vector as a pair in a recording unit, and generates a dictionary. The same is done for the other character codes, and a plurality of character codes and feature vector information corresponding to the character codes are recorded in the recording unit.

ここで、パターン認識においてよく用いられる用語を、簡単に定義しておく。認識対象のことをパターンと呼び、すべてのパターンの作る集合のことをパターン空間と呼ぶ。
パターンを特徴抽出することにより得られる1つ以上の特徴量の組を特徴ベクトルと呼び、特徴ベクトルの要素の数を特徴ベクトルの次元と呼ぶ。特徴ベクトルのそれぞれの要素の値(特徴量)の組を特徴ベクトルの値と呼び、すべての特徴ベクトルの値の作る集合のことを特徴空間と呼ぶ。特徴空間の次元は、特徴空間の要素である特徴ベクトルの次元と等しい。同一種類とみなすことのできるパターンあるいは特徴ベクトルの集合をカテゴリと呼ぶ。特に、同一種類とみなすことのできるパターンの集合を、カテゴリパターン集合、同一種類とみなすことのできる特徴ベクトルの集合を、カテゴリ特徴集合と呼ぶ。
Here, terms frequently used in pattern recognition are simply defined. A recognition target is called a pattern, and a set made up of all patterns is called a pattern space.
A set of one or more feature amounts obtained by extracting features from a pattern is called a feature vector, and the number of elements of the feature vector is called a feature vector dimension. A set of values (feature quantities) of each element of the feature vector is called a feature vector value, and a set formed by all the feature vector values is called a feature space. The dimension of the feature space is equal to the dimension of the feature vector that is an element of the feature space. A set of patterns or feature vectors that can be regarded as the same type is called a category. In particular, a set of patterns that can be regarded as the same type is referred to as a category pattern set, and a set of feature vectors that can be regarded as the same type is referred to as a category feature set.

パターン認識装置などに入力される未知のパターンあるいは未知のパターンから求められた特徴ベクトルが、どのカテゴリ(カテゴリパターン集合あるいはカテゴリ特徴集合)に属するのかを決定することを、パターン認識と呼ぶ。特に、入力されたパターンあるいは特徴ベクトルが、カテゴリ集合中のあるカテゴリに属する可能性があると推定される場合、そのカテゴリ集合のことを候補カテゴリ集合と呼ぶ。   Determining to which category (category pattern set or category feature set) an unknown pattern input from a pattern recognition apparatus or the like or a feature vector obtained from the unknown pattern belongs is called pattern recognition. In particular, when it is estimated that the input pattern or feature vector may belong to a certain category in the category set, the category set is called a candidate category set.

文字認識処理を行う際、未知の文字画像が入力されると、入力された文字画像から特徴ベクトルを生成し、辞書(メモリなど)に保持されている複数の特徴ベクトルとの間でマッチングを行う。マッチングは未知文字の特徴ベクトルと、辞書の特徴ベクトル間の距離計算(マッチング処理)で行う。この結果、辞書の中の文字コード数分の距離値が得られ、その中で、最小の距離値となる文字コードを未知文字の認識結果として出力する。   When performing character recognition processing, if an unknown character image is input, a feature vector is generated from the input character image, and matching is performed with a plurality of feature vectors held in a dictionary (such as a memory). . Matching is performed by calculating the distance between the feature vector of the unknown character and the feature vector of the dictionary (matching process). As a result, distance values corresponding to the number of character codes in the dictionary are obtained, and among them, the character code having the minimum distance value is output as the recognition result of the unknown character.

しかし、上記説明した文字認識処理において、未知文字の特徴ベクトルと辞書内の全ての文字コードの特徴ベクトルとの間のマッチング処理には、多くの処理時間を費やしている。また、日本語などの文字コードの種類が多い言語では、さらにマッチング処理時間が長くなる。   However, in the character recognition processing described above, much processing time is spent on matching processing between feature vectors of unknown characters and feature vectors of all character codes in the dictionary. Further, in a language with many types of character codes such as Japanese, the matching processing time is further increased.

そこで、マッチング処理の高速化のために、大分類、詳細分類の2段階処理が使われる。大分類とは、辞書の中の特徴ベクトルの集合から、認識対象である入力文字画像から生成した特徴ベクトルに近い特徴ベクトルを抽出し、詳細分類をする際の対象を絞り込む処理である。絞り込んだ文字コードだけを対象として詳細分類をすると、従来のマッチング処理時間を大幅に削減することが可能になる。   Therefore, in order to speed up the matching process, a two-stage process of large classification and detailed classification is used. The large classification is a process of extracting a feature vector close to a feature vector generated from an input character image that is a recognition target from a set of feature vectors in the dictionary and narrowing down a target when performing detailed classification. If the detailed classification is performed only for the narrowed-down character codes, the conventional matching processing time can be greatly reduced.

大分類で用いる辞書の生成は、例えば、図1に示すように1つの字種(カテゴリ)またはテンプレート(1つのカテゴリを複数のグループに分割したときの1つのグループ)に所属する文字画像の集合を求める。次に、その集合を全てn次元(n:1以上整数)の特徴ベクトルに変換し、1つのカテゴリの学習用サンプルパターンの特徴ベクトル集合を作る。次に、n個の軸(特徴ベクトルを構成する要素に対応する軸)の中の1つの軸に注目して、この軸上の1つのカテゴリの学習用サンプルパターンの特徴ベクトル集合を全て投影すると、軸上でこのカテゴリに属する要素の値の範囲が求まる。ここで、図1において投影する軸の範囲Aは、すべての特徴ベクトルを構成する要素を示す特徴量を、量子化して、−127〜128(256ビット)の範囲Aとしている。次に、この軸上の範囲Aにおける最小値min、最大値maxを求め、予め決めておいたマージン値marginを用いて該軸の上の最小値・最大値で表される範囲Bを、拡大して範囲Cにする。この拡大した2つの値(min−margin、max+margin)の間にこのカテゴリが存在すると仮定する。そして、n次元のn個のすべての軸に対して、上記説明した拡大した範囲Cを算出して、範囲Cを記憶部に記録することにより、1つの字種に対する辞書が生成される。他の字種についても上記同様に辞書を生成して全てのカテゴリまたはテンプレートに対する辞書を生成する。以後上記のように生成した辞書を平面辞書と呼ぶ。   For example, as shown in FIG. 1, a dictionary used in the large classification is generated by collecting character images belonging to one character type (category) or template (one group when one category is divided into a plurality of groups). Ask for. Next, all the sets are converted into n-dimensional (n: 1 or more integer) feature vectors to create a feature vector set of learning sample patterns of one category. Next, paying attention to one axis among n axes (axis corresponding to elements constituting the feature vector), projecting all the feature vector sets of the learning sample pattern of one category on this axis. The range of values of elements belonging to this category is obtained on the axis. Here, the range A of the axis to be projected in FIG. 1 is a range A of −127 to 128 (256 bits) by quantizing the feature quantities indicating the elements constituting all the feature vectors. Next, the minimum value min and the maximum value max in the range A on the axis are obtained, and the range B represented by the minimum value and the maximum value on the axis is expanded using a predetermined margin value margin. To range C. Assume that this category exists between the two expanded values (min-margin, max + margin). Then, the above-described enlarged range C is calculated for all n dimensions in the n dimension, and the range C is recorded in the storage unit, thereby generating a dictionary for one character type. For other character types, dictionaries are generated in the same manner as described above to generate dictionaries for all categories or templates. Hereinafter, the dictionary generated as described above is referred to as a planar dictionary.

平面辞書は、図2に示すような配列状の平面で表すことができる。図2の例では、横が各軸の分布を−127から128数値範囲(256ビット)で示されており、縦がカテゴリ数で示されている平面である。カテゴリには、カテゴリごとに識別番号(1、2、3・・・)が割り振られている。また、図2はn次元空間における、3種類のカテゴリの拡大した範囲Cについて示した例である。丸(A1、A2)はカテゴリ1、三角(A3、A4)がカテゴリ2、四角(A5、A6)はカテゴリ3を示している。   The plane dictionary can be represented by an array plane as shown in FIG. In the example of FIG. 2, the horizontal is a plane in which the distribution of each axis is shown in the range of −127 to 128 numerical values (256 bits), and the vertical is the number of categories. An identification number (1, 2, 3,...) Is assigned to each category for each category. FIG. 2 is an example showing an expanded range C of three types of categories in the n-dimensional space. Circles (A1, A2) indicate category 1, triangles (A3, A4) indicate category 2, and squares (A5, A6) indicate category 3.

A1、A2のテンプレートに注目すると、A1からおろした座標位置が最小値minの値になり、A2からおろした座標位置が最大値maxの値となる。図2ではマージン値marginをMと示している。最小値min、最大値maxの座標位置からこのマージン値Mだけ左右にずらした座標位置がカテゴリ1の拡大した範囲となる。この範囲を平面辞書に記録するために、カテゴリ1の−127から128の256ビット中の対象の範囲にビット「1」を設定し、それ以外の範囲にビット「0」を設定して平面辞書に記録する。他のカテゴリについても同様に処理を行い、平面辞書を完成させる。   When attention is paid to the templates A1 and A2, the coordinate position lowered from A1 becomes the minimum value min, and the coordinate position lowered from A2 becomes the maximum value max. In FIG. 2, the margin value margin is indicated as M. The coordinate position shifted to the left and right by the margin value M from the coordinate position of the minimum value min and maximum value max is the expanded range of category 1. In order to record this range in the plane dictionary, bit “1” is set in the target range in 256 bits of −127 to 128 of category 1, and bit “0” is set in the other ranges to set the plane dictionary. To record. The same processing is performed for the other categories to complete the planar dictionary.

なお、大分類の処理は、パターン認識処理の時には、未知文字画像を先ずn次元特徴ベクトルに変換して各軸へ投影する。次に、未知文字画像に対するn個の各軸の座標位置と平面辞書に保持されている軸上の座標位置を参照し、同じ座標位置にビット「1」があるか否かを判定して、未知文字画像に近いカテゴリを求める。他の軸においても同様の処理を行い、全ての軸で存在するカテゴリを求めて、カテゴリを絞り込み大分類結果(候補カテゴリ集合)とする。   In the large classification process, in the pattern recognition process, the unknown character image is first converted into an n-dimensional feature vector and projected onto each axis. Next, referring to the coordinate position of each of the n axes with respect to the unknown character image and the coordinate position on the axis held in the plane dictionary, it is determined whether or not there is a bit “1” at the same coordinate position, A category close to an unknown character image is obtained. The same processing is performed for the other axes, and categories existing in all axes are obtained, and the categories are narrowed down to obtain a large classification result (candidate category set).

特開平10−289320号公報Japanese Patent Laid-Open No. 10-289320

「特徴領域の射影推定による高速高精度な大分類方式」 藤本、鎌田、黒川、 電子情報通信学会技術研究報告パターン認識・メディア理解(PRMU)、信学技報Vol.97 No.558、PRMU97‐220、pp.25‐32.1998年2月19日“High-speed and high-precision large classification method by projective estimation of feature regions” Fujimoto, Kamada, Kurokawa, IEICE Technical Report, Pattern Recognition / Media Understanding (PRMU), IEICE Tech. 97 no. 558, PRMU 97-220, pp. 25-32. February 19, 1998

しかしながら、上記方法では1つのカテゴリまたはテンプレートの軸上の学習用サンプルパターンの特徴ベクトルの特徴量に対応する分布を最小値、最大値で表現している。そのため、1つのカテゴリまたはテンプレートの軸上に特徴量が存在しない箇所にも、特徴量があるかのように平面辞書に記録してしまう。そのため、本来大分類処理において詳細分類の対象から外すべきテンプレートが、大分類の結果に含まれてしまい、パターン認識時の絞り込み能力が低下し、高精度な大分類ができない。拡大した範囲Cを用い作成した場合、図3に示すようなことが起こる。図3は2次元の特徴空間を示している。また、図3は拡大した範囲Cを用い作成した字種「A」「B」「C」の辞書に記録されている分布範囲(「A」の分布範囲Aa、「B」の分布範囲Ba、「C」の分布範囲Ca)と実際の分布範囲(「A」の範囲Ar、「B」の範囲Br、「C」の範囲Cr)の関係を示している。図3において、未知文字「X」が入力されたときに、未知文字「X」は実際には「C」のカテゴリに絞り込まれなければならないが、図3において文字「A」のカテゴリにも未知文字「X」は属している。そのため、実際には未知文字「X」はAの分布には近くないが、「X」に近いカテゴリ候補として文字「C」と文字「A」のカテゴリが選択されてしまう。   However, in the above method, the distribution corresponding to the feature amount of the feature vector of the learning sample pattern on the axis of one category or template is expressed by the minimum value and the maximum value. For this reason, even if a feature amount does not exist on the axis of one category or template, it is recorded in the planar dictionary as if there is a feature amount. Therefore, a template that should be excluded from the target of detailed classification in the large classification process is included in the result of the large classification, the narrowing-down ability at the time of pattern recognition is reduced, and high-precision large classification cannot be performed. When it is created using the enlarged range C, the situation shown in FIG. 3 occurs. FIG. 3 shows a two-dimensional feature space. Also, FIG. 3 shows distribution ranges (distribution range Aa of “A”, distribution range Ba of “B”, recorded in the dictionary of character types “A”, “B”, and “C” created using the expanded range C. The relationship between the distribution range Ca of “C” and the actual distribution range (range Ar of “A”, range Br of “B”, range Cr of “C”) is shown. In FIG. 3, when the unknown character “X” is input, the unknown character “X” actually has to be narrowed down to the category “C”, but in FIG. The letter “X” belongs. Therefore, the unknown character “X” is not actually close to the distribution of A, but the categories of the characters “C” and “A” are selected as category candidates close to “X”.

そこで、本発明はパターン認識を高精度に行うパターン認識装置、パターン認識プログラム、パターン認識方法を提供することを目的とする。   Accordingly, an object of the present invention is to provide a pattern recognition apparatus, a pattern recognition program, and a pattern recognition method that perform pattern recognition with high accuracy.

実施態様のひとつであるパターン認識装置は、記録部、分類部を備えている。記録部は候補テーブルを有している。候補テーブルは、学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の特徴ベクトルごとに求められる参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、軸上の要素ごとに、予め設定されたマージン量とカテゴリを関連付けて生成したものである。   A pattern recognition apparatus which is one embodiment includes a recording unit and a classification unit. The recording unit has a candidate table. The candidate table projects, for each of a plurality of categories that classify the sample pattern for learning, an element at the same position of a reference feature vector obtained for each of a plurality of feature vectors included in the same category on an axis in a preset range. Each of the elements on the axis is generated by associating a preset margin amount with a category.

分類部は、与えられたパターンの参照特徴ベクトルを求め、前記候補テーブルを用いて、該参照特徴ベクトルの要素ごとに分類をして候補カテゴリ集合を求め、分類した候補カテゴリ集合を出力する。   The classification unit obtains a reference feature vector of a given pattern, classifies each element of the reference feature vector by using the candidate table, obtains a candidate category set, and outputs the classified candidate category set.

開示のパターン認識に関する実施例は、パターン認識精度を高精度に行うという効果を奏する。   The disclosed embodiment relating to pattern recognition has the effect of performing pattern recognition accuracy with high accuracy.

従来の候補テーブル(大分類用辞書)の概要を示す図である。It is a figure which shows the outline | summary of the conventional candidate table (dictionary for large classification). 従来の候補テーブル(大分類用辞書)の概要を示す図である。It is a figure which shows the outline | summary of the conventional candidate table (dictionary for large classification). 候補テーブル(大分類用辞書)に記録され字種の分布範囲と実際の分布範囲の関係を示す図である。It is a figure which shows the relationship between the distribution range of a character type recorded in a candidate table (large classification dictionary), and an actual distribution range. 実施例1におけるパターン認識装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the pattern recognition apparatus in Example 1. FIG. 特徴ベクトルの一例を示す図である。It is a figure which shows an example of a feature vector. 実施例1における候補テーブル(大分類用辞書)の作成動作の一例を示すフロー図である。FIG. 10 is a flowchart illustrating an example of an operation for creating a candidate table (large classification dictionary) in the first embodiment. カテゴリとテンプレートの関係を示す図である。It is a figure which shows the relationship between a category and a template. カテゴリに学習用サンプルパターンごとの特徴ベクトルを対応付けて記録した場合のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure when the feature vector for every sample pattern for learning is matched and recorded on the category. Aは、軸上に投影された要素を示す図であり、Bは、軸上に投影された要素にマージンを設けたことを示す図である。A is a diagram showing an element projected on the axis, and B is a diagram showing that a margin is provided for the element projected on the axis. カテゴリに特徴ベクトルを対応付け、特徴ベクトルの要素ごと軸上に投影した位置とマージン量を対応付けて記録した場合のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure at the time of associating the feature vector with the category, and having recorded on the axis | shaft and the position projected on the axis | shaft for every element of the feature vector. 各軸のマージン幅(ビット「1」)を示す図である。It is a figure which shows the margin width | variety (bit "1") of each axis | shaft. 実施例1における候補テーブル(大分類用辞書)の概要を示す図である。It is a figure which shows the outline | summary of the candidate table (large classification dictionary) in Example 1. FIG. 実施例1における大分類処理の概要を示す図である。It is a figure which shows the outline | summary of the large classification process in Example 1. FIG. 実施例1における候補テーブル(大分類用辞書)を用いて、大分類処理をするときの動作の一例を示す図である。It is a figure which shows an example of an operation | movement when performing a large classification process using the candidate table (large classification dictionary) in Example 1. FIG. 実施例1における大分類処理の概要を示す図である。It is a figure which shows the outline | summary of the large classification process in Example 1. FIG. 実施例2におけるパターン認識装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the pattern recognition apparatus in Example 2. FIG. 実施例3におけるマージン量決定の動作の一例を示すフロー図である。FIG. 10 is a flowchart illustrating an example of an operation for determining a margin amount in the third embodiment. 実施例3において、カテゴリとマージン量を対応付けて記録した場合のデータ構造の一例を示す図である。In Example 3, it is a figure which shows an example of the data structure at the time of recording by matching a category and margin amount. 実施例4におけるマージン量決定の動作の一例を示すフロー図である。FIG. 10 is a flowchart illustrating an example of an operation for determining a margin amount in the fourth embodiment. 実施例4における軸上の区間の概要の一例を示す図である。It is a figure which shows an example of the outline | summary of the area on an axis | shaft in Example 4. FIG. 実施例4において、カテゴリ、区間、マージン量を対応付けて記録した場合のデータ構造の一例を示す図である。In Example 4, it is a figure which shows an example of the data structure at the time of recording by matching a category, an area, and margin amount. 実施例5におけるマージン量決定の動作の一例を示すフロー図である。FIG. 10 is a flowchart illustrating an example of an operation for determining a margin amount in the fifth embodiment. 実施例5において、フォント、マージン量を対応付けて記録した場合のデータ構造の一例を示す図である。In Example 5, it is a figure which shows an example of the data structure at the time of recording by matching a font and margin amount. 実施例5において、カテゴリ、フォント、マージン量を対応付けて記録した場合のデータ構造の一例を示す図である。In Example 5, it is a figure which shows an example of the data structure at the time of recording by matching a category, a font, and margin amount. 実施例がコンピュータプログラムとして実現される場合の構成を示す図である。It is a figure which shows the structure when an Example is implement | achieved as a computer program.

以下図面に基づいて、本発明の実施形態について詳細に説明する。
(実施例1)
実施例1におけるパターン認識装置は、記録部、分類部(大分類部)を備えている。記録部は候補テーブルを有している。候補テーブルは次のように生成される。学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の特徴ベクトルごとに求められる参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影する。そして、軸上の要素ごとに、予め設定されたマージン量とカテゴリを関連付けて生成したものである。なお、参照特徴ベクトルは、特徴ベクトルから計算される特徴ベクトルである。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Example 1
The pattern recognition apparatus according to the first embodiment includes a recording unit and a classification unit (large classification unit). The recording unit has a candidate table. The candidate table is generated as follows. For each of a plurality of categories that classify the sample pattern for learning, an element at the same position of a reference feature vector obtained for each of a plurality of feature vectors included in the same category is projected onto an axis in a preset range. Then, for each element on the axis, a predetermined margin amount and a category are generated in association with each other. The reference feature vector is a feature vector calculated from the feature vector.

分類部(大分類部)は、与えられたパターンの参照特徴ベクトルを求め、候補テーブルを用いて、該参照特徴ベクトルの要素ごとに分類をして候補カテゴリ集合を求め、分類した候補カテゴリ集合を出力する。   A classification unit (major classification unit) obtains a reference feature vector of a given pattern, classifies each element of the reference feature vector using a candidate table, obtains a candidate category set, Output.

図4は、パターン認識装置における一実施例の構成示す図である。図4に示すパターン認識装置1は、特徴抽出部2、大分類部3(分類部)、詳細分類部4、テーブル作成部5、記録部7を備えている。   FIG. 4 is a diagram showing the configuration of an embodiment of the pattern recognition apparatus. The pattern recognition apparatus 1 shown in FIG. 4 includes a feature extraction unit 2, a large classification unit 3 (classification unit), a detailed classification unit 4, a table creation unit 5, and a recording unit 7.

特徴抽出部2は、周辺空白領域を含めたパターンを取得して、該パターンを拡大縮小により正規化画像にする。次に、特徴抽出部2は、正規化された文字パターンからパターンの特徴量を抽出し、抽出した特徴量を並べて、特徴ベクトルを生成する。例えば、文字画像をパターンとして取得した場合、特徴抽出部2は、入力された文字画像の特徴量(x1〜xn)を並べて、特徴ベクトルを生成する(式1)。式1のnは1以上の整数である。
X=(x1,x2,x3,x4,・・・xn) 式1
The feature extraction unit 2 acquires a pattern including a peripheral blank area, and makes the pattern a normalized image by scaling. Next, the feature extraction unit 2 extracts pattern feature amounts from the normalized character pattern, and arranges the extracted feature amounts to generate a feature vector. For example, when a character image is acquired as a pattern, the feature extraction unit 2 generates a feature vector by arranging the feature amounts (x1 to xn) of the input character image (Equation 1). N in Formula 1 is an integer of 1 or more.
X = (x1, x2, x3, x4,... Xn) Equation 1

図5に可変分割輪郭方向特徴抽出を用いた場合の例を示す。特徴抽出部2が、文字画像「A」を取得して、文字画像を縦48×横48の正規化画像にして、文字領域を輪郭点数が一定になるように可変分割した領域における輪郭方向量を、可変分割輪郭方向特徴として抽出する。正規化した画像の分割数を12×6あるいは6×12として、各分割領域における縦、横、右斜め上、右斜め下の4方向の輪郭方向量をカウントして特徴ベクトルを求める。図5の場合であれば、文字画像「A」を72分割して、4方向の輪郭方向量を1分割ごとに(縦,横,右斜め上,右斜め下)に求め、288個(72×4)の特徴量(xA11〜xA1288)を並べて、特徴ベクトルを式2のように生成する。
XA1=(xA11,xA12,xA13,xA14,
xA15,xA16,xA17,xA18,
・・・・ 式2
xA1285,xA1286,xA1287,xA1288)
FIG. 5 shows an example when variable division contour direction feature extraction is used. The feature extraction unit 2 obtains the character image “A”, converts the character image into a normalized image of 48 × 48, and divides the character region in a variable division so that the number of contour points is constant. Are extracted as variable division contour direction features. The number of divisions of the normalized image is set to 12 × 6 or 6 × 12, and the feature vector is obtained by counting the amount of contour directions in four directions of vertical, horizontal, right diagonally upper, and right diagonally lower in each divided region. In the case of FIG. 5, the character image “A” is divided into 72, and the amount of contour direction in four directions is obtained for each division (vertical, horizontal, diagonally right upward, diagonally down right) and 288 (72 X4) feature quantities (xA11 to xA1288) are arranged, and a feature vector is generated as shown in Equation 2.
XA1 = (xA11, xA12, xA13, xA14,
xA15, xA16, xA17, xA18,
.... Formula 2
xA1285, xA1286, xA1287, xA1288)

なお、特徴抽出には、可変分割輪郭方向特徴抽出、加重方向指数ヒストグラムを用いた抽出、可変分割輪郭方向特徴抽出などの方法を用いてもよい。   For feature extraction, methods such as variable division contour direction feature extraction, extraction using a weighted direction index histogram, and variable division contour direction feature extraction may be used.

また、特徴抽出部2は、上記算出した特徴ベクトルから参照特徴ベクトルを求める。例えば、参照特徴ベクトルは、特徴ベクトルを構成する要素から一部要素を除いたものを用いてもよいし、特徴ベクトルを後述する次元圧縮して用いてもよい。なお、必ずしも特徴ベクトルから参照特徴ベクトルを生成しなくてもよく、特徴ベクトルを参照特徴ベクトルとして用いてもよい。以後、参照特徴ベクトルを特徴ベクトルとして説明する。   The feature extraction unit 2 obtains a reference feature vector from the calculated feature vector. For example, the reference feature vector may be obtained by excluding some elements from the elements constituting the feature vector, or the feature vector may be used after dimension compression described later. It is not always necessary to generate a reference feature vector from a feature vector, and a feature vector may be used as a reference feature vector. Hereinafter, the reference feature vector will be described as a feature vector.

次に、特徴抽出部2は、学習用サンプルパターンの特徴ベクトルの各要素の値を予め決められた範囲内の値にする。ここで、予め決められた範囲とは、全ての学習用サンプルパターンにおける特徴ベクトルの要素を示す特徴量が取りうる最小値と最大値を含む範囲(特徴空間)であり、該範囲を量子化して数値範囲で表したものである。また、数値範囲をmビット(m:整数)により表す場合、メモリの記憶容量などにより数値範囲を決めることが好ましい。例えば、数値範囲が−127≦m≦128(256ビット)で表されている場合、学習用サンプルパターンの特徴量は、−127〜128の数値範囲内の値に量子化される。   Next, the feature extraction unit 2 sets the value of each element of the feature vector of the learning sample pattern to a value within a predetermined range. Here, the predetermined range is a range (feature space) including a minimum value and a maximum value that can be taken by the feature amount indicating the element of the feature vector in all the learning sample patterns, and the range is quantized. It is expressed in a numerical range. When the numerical range is represented by m bits (m: integer), it is preferable to determine the numerical range based on the storage capacity of the memory. For example, when the numerical range is represented by −127 ≦ m ≦ 128 (256 bits), the feature amount of the learning sample pattern is quantized to a value within the numerical range of −127 to 128.

また、学習用サンプルパターンを用いて大分類に用いる候補テーブルなどを生成するとき、特徴抽出部2は量子化した学習用サンプルパターンの特徴ベクトルをテーブル作成部5に転送する。未知入力パターンに対してパターン認識処理をするときは、特徴抽出部2は量子化した未知入力パターンの特徴ベクトルを大分類部3に転送する。ここで、未知入力パターンとは、パターン認識処理の対象のパターンであり、スキャナなどにより読み込んだ文字画像などである。   Further, when generating a candidate table or the like used for large classification using the learning sample pattern, the feature extraction unit 2 transfers the quantized feature vector of the learning sample pattern to the table creation unit 5. When pattern recognition processing is performed on an unknown input pattern, the feature extraction unit 2 transfers the quantized feature vector of the unknown input pattern to the large classification unit 3. Here, the unknown input pattern is a pattern recognition target pattern, such as a character image read by a scanner or the like.

大分類部3は、記録部7に記録されている後述する候補テーブル(大分類用辞書)の特徴ベクトルの集合から、入力パターンから生成した特徴ベクトルに近いものを抽出する(候補カテゴリ集合を抽出)。   The large classifying unit 3 extracts a feature vector close to a feature vector generated from the input pattern from a set of feature vectors of a candidate table (large classification dictionary) described later recorded in the recording unit 7 (extracts a candidate category set) ).

詳細分類部4は、大分類部3で分類された候補カテゴリ集合の参照特徴ベクトルと、入力パターン(入力文字画像など)から生成した特徴ベクトルとの距離を計算する。その後、詳細分類部4は、計算した距離値の中で最小となる距離値を選択して、選択した距離値に対応するカテゴリを抽出してパターン認識結果とする。   The detailed classification unit 4 calculates the distance between the reference feature vector of the candidate category set classified by the large classification unit 3 and a feature vector generated from an input pattern (such as an input character image). After that, the detailed classification unit 4 selects the smallest distance value among the calculated distance values, extracts the category corresponding to the selected distance value, and sets it as the pattern recognition result.

テーブル作成部5はマージン決定部6を備え、後述する大分類用の辞書を生成する。テーブル作成部5は、特徴抽出部2から量子化した学習用サンプルパターンの特徴ベクトルを取得して、該量子化した特徴ベクトルを記録部7に予め記録されているカテゴリに対応付けて記録する。例えば、カテゴリは、JIS第1水準の漢字、JIS第2水準の漢字、ひらがな、カタカナ、記号、縦書き専用文字、英字、数字、半角文字などの文字コードである。また、テーブル作成部5は、マージン決定部6により決定したマージン量を、量子化した学習用サンプルパターンの特徴ベクトルの各要素に対応付けて、記録部7に記録する。ここで、マージン量は、正常とされる学習用サンプルパターンが劣化した場合(ファクシミリやコピーなどにより劣化(掠れ、滲み、汚れなど)した文字画像)であっても分類ができるように、量子化した特徴ベクトルの各要素に幅を持たせるための値である。   The table creation unit 5 includes a margin determination unit 6 and generates a large classification dictionary, which will be described later. The table creation unit 5 acquires the feature vector of the learning sample pattern quantized from the feature extraction unit 2 and records the quantized feature vector in association with the category recorded in advance in the recording unit 7. For example, the category is a character code such as JIS level 1 kanji, JIS level 2 kanji, hiragana, katakana, symbols, vertical writing characters, letters, numbers, half-width characters, and the like. In addition, the table creation unit 5 records the margin amount determined by the margin determination unit 6 in the recording unit 7 in association with each element of the feature vector of the quantized learning sample pattern. Here, the margin amount is quantized so that it can be classified even when the normal learning sample pattern is deteriorated (character image deteriorated (fading, blurring, dirt, etc.) due to facsimile or copying). This is a value for giving a width to each element of the feature vector.

マージン決定部6は、例えば、各要素に対応する軸上の値を中心に最小値方向と最大値方向にそれぞれ設けるマージン量を決定する。また、マージン量は、すべてのカテゴリのすべての要素に対して同じマージン量を対応付けてもよいし、要素ごとに個別にマージン量を対応付けてもよい。なお、マージン量は、上記説明した全ての学習用サンプルパターンにおける特徴ベクトルの要素を示す特徴量が取りうる最小値と最大値を含む範囲を量子化した数値範囲の値で示される。また、マージン決定部6は、マージン量を量子化した特徴ベクトルの各要素に対応付けて、記録部7に記録する。   The margin determination unit 6 determines, for example, the margin amounts provided in the minimum value direction and the maximum value direction around the values on the axis corresponding to each element. Further, the margin amount may be associated with the same margin amount for all elements of all categories, or may be associated with each element individually. The margin amount is indicated by a value in a numerical range obtained by quantizing a range including the minimum value and the maximum value that can be taken by the feature amount indicating the element of the feature vector in all the above-described learning sample patterns. In addition, the margin determination unit 6 records the margin amount in the recording unit 7 in association with each element of the quantized feature vector.

なお、特徴抽出部2、大分類部3、詳細分類部4、テーブル作成部5は、CPU(Central Processing Unit)を用いて実現してもよい。また、プログラマブルなデバイス(FPGA(Field Programmable Gate Array)、PLD(Programmable Logic Device)など)を用いてもよい。   The feature extraction unit 2, the large classification unit 3, the detailed classification unit 4, and the table creation unit 5 may be realized using a CPU (Central Processing Unit). A programmable device (FPGA (Field Programmable Gate Array), PLD (Programmable Logic Device), etc.) may be used.

記録部7は、プログラム、テーブル、データなどが記録されている。また、記録部7は、例えばROM(Read Only Member)、RAM(Random Access Memory)、ハードディスクなどのメモリである。また、記録部7は、パラメータ値、変数値などのデータを記録してもよいし、ワークエリアとして用いることもできる。実施例1では、候補テーブル(大分類用辞書)などが記録されている。   The recording unit 7 records programs, tables, data, and the like. The recording unit 7 is a memory such as a ROM (Read Only Member), a RAM (Random Access Memory), or a hard disk. The recording unit 7 may record data such as parameter values and variable values, and can also be used as a work area. In the first embodiment, a candidate table (large classification dictionary) and the like are recorded.

(テーブル作成部の動作)
図6は、テーブル作成部5の動作の一例を示すフロー図である。
ステップS1においてテーブル作成部5は、1つの学習用サンプルパターンの特徴ベクトルの要素を1つ抽出し、抽出した要素に対応する軸の軸上の位置を求める。なお、学習用サンプルパターンの特徴ベクトルは、特徴抽出部2に入力された学習用サンプルパターンから求める。ここで、学習用サンプルパターンは、JIS第1水準の漢字、JIS第2水準の漢字、ひらがな、カタカナ、記号、縦書き専用文字、英字、数字、半角文字などの文字画像である。また、学習用サンプルパターンは、劣化文字画像(ファクシミリやコピーなどにより劣化(掠れ、滲み、汚れなど)した文字画像)である。本例では、パターンとして文字を用いて説明するが、文字に限定するものではない。
(Operation of the table creation unit)
FIG. 6 is a flowchart showing an example of the operation of the table creation unit 5.
In step S1, the table creation unit 5 extracts one feature vector element of one learning sample pattern, and obtains the position on the axis of the axis corresponding to the extracted element. Note that the feature vector of the learning sample pattern is obtained from the learning sample pattern input to the feature extraction unit 2. Here, the sample pattern for learning is a character image such as JIS level 1 kanji, JIS level 2 kanji, hiragana, katakana, symbols, characters for vertical writing, letters, numbers, and half-width characters. The learning sample pattern is a deteriorated character image (a character image that has been deteriorated (blurred, blurred, smudged, etc.) by facsimile or copying). In this example, description is made using characters as a pattern, but is not limited to characters.

図7は、学習用サンプルパターンである文字画像「A」「B」・・・・について、カテゴリとテンプレートの関係を示した図である。図7において、文字画像「A」の学習用サンプルパターンはカテゴリ1(文字「A」の文字コードに対応)に含まれ、文字画像「B」の学習用サンプルパターンはカテゴリ2(文字「B」の文字コードに対応)に含まれている。そして、カテゴリ1は、テンプレートA1〜A5に分けられている。カテゴリ2は、テンプレートB1〜B5に分けられている。   FIG. 7 is a diagram showing the relationship between categories and templates for character images “A”, “B”,... That are learning sample patterns. In FIG. 7, the learning sample pattern of the character image “A” is included in category 1 (corresponding to the character code of the character “A”), and the learning sample pattern of the character image “B” is category 2 (the character “B”). (Corresponding to the character code). Category 1 is divided into templates A1 to A5. Category 2 is divided into templates B1 to B5.

図8は、図7に示した文字「A」「B」・・・・を、上記説明したように288次元特徴ベクトルに変換した場合の例を示す図である。特徴ベクトルに変換された各学習用サンプルパターンは、テーブル作成部5を介してカテゴリに対応付けられて記録部7に記録される。図8の例では、文字「A」に対応する「カテゴリ1」に、特徴ベクトルの名称「XA1」「XA2」・・・・が対応付けて記録されている。また、文字「B」に対応する「カテゴリ2」に、特徴ベクトルの名称「XB1」「XB2」・・・・が対応付けて記録部7に記録されている。なお、特徴抽出部2は、テーブル作成部5を介さずに直接記録部7にカテゴリと特徴ベクトルを記録してもよい。   FIG. 8 is a diagram illustrating an example in which the characters “A”, “B”,... Shown in FIG. 7 are converted into 288-dimensional feature vectors as described above. Each learning sample pattern converted into a feature vector is recorded in the recording unit 7 in association with a category via the table creation unit 5. In the example of FIG. 8, the feature vector names “XA1”, “XA2”,... Are recorded in association with “category 1” corresponding to the character “A”. Further, the feature vector names “XB1”, “XB2”,... Are associated with “category 2” corresponding to the character “B” and recorded in the recording unit 7. Note that the feature extraction unit 2 may record the category and the feature vector directly in the recording unit 7 without using the table creation unit 5.

次に、テーブル作成部5は、記録部7に記録した学習用サンプルパターンの特徴ベクトルの要素を1つ抽出し、抽出した要素を軸上に投影して該要素の軸上の位置を求める。図9のAの例では、カテゴリ1(文字画像「A」)の特徴ベクトルの「x1」に対応する軸上に、各学習用サンプルパターンの特徴ベクトルの「x1」に対応する各要素を投影している。また、図9のAは、−127から128の数値範囲(256ビット)で示される軸上に、特徴ベクトルの各要素の特徴量を−127から128の数値範囲で量子化して軸上の座標位置を決めて、各軸の分布を表している。   Next, the table creation unit 5 extracts one feature vector element of the learning sample pattern recorded in the recording unit 7 and projects the extracted element on the axis to obtain the position of the element on the axis. In the example of FIG. 9A, each element corresponding to “x1” of the feature vector of each learning sample pattern is projected on the axis corresponding to “x1” of the feature vector of category 1 (character image “A”). doing. 9A shows the coordinates on the axis obtained by quantizing the feature quantity of each element of the feature vector in the numerical range of -127 to 128 on the axis indicated by the numerical range of -127 to 128 (256 bits). The position is determined to represent the distribution of each axis.

例えば、カテゴリ1の特徴ベクトルの要素「x1」に対応する特徴量「xA11」の場合であれば、テーブル作成部5は、特徴量「xA11」を量子化して座標位置「PA11」にする。そして、テーブル作成部5は、図10に示すように特徴量「xA11」と座標位置「PA11」を対応付けて記録部7に記録する。他の学習用サンプルパターンの特徴ベクトルの各要素についても同様に、テーブル作成部5は各要素と各座標位置を対応付けて記録部7に記録する。   For example, in the case of the feature quantity “xA11” corresponding to the element “x1” of the category 1 feature vector, the table creation unit 5 quantizes the feature quantity “xA11” to obtain the coordinate position “PA11”. Then, the table creation unit 5 records the feature quantity “xA11” and the coordinate position “PA11” in the recording unit 7 in association with each other as shown in FIG. Similarly, for each element of the feature vector of the other learning sample pattern, the table creation unit 5 records each element and each coordinate position in the recording unit 7 in association with each other.

次に、図6のステップS2では、テーブル作成部5が、マージン決定部6により予め算出されたマージン量を取得し、ステップ3でテーブル作成部5は、軸上の座標位置を中心にマージン量を左右(最小値方向と最大値方向)に加える。そして、テーブル作成部5は、この学習用サンプルパターンのカテゴリ(またはテンプレート)の範囲を決め、該範囲を記録部7に記録する。図9のBは、図9のAに示したカテゴリ1の特徴ベクトルの要素「x1」に対応する座標位置に、予め設定したマージン量を左右に加えたことを示す図である。   Next, in step S2 of FIG. 6, the table creation unit 5 acquires the margin amount calculated in advance by the margin determination unit 6, and in step 3, the table creation unit 5 performs the margin amount with the coordinate position on the axis as the center. To the left and right (minimum value direction and maximum value direction). Then, the table creation unit 5 determines the range of the category (or template) of the learning sample pattern and records the range in the recording unit 7. FIG. 9B is a diagram showing that a preset margin amount is added to the left and right at the coordinate position corresponding to the element “x1” of the feature vector of category 1 shown in FIG. 9A.

例えば、カテゴリ1の特徴ベクトルの要素「x1」に対応する座標位置「PA11」の場合であれば、テーブル作成部5は、座標位置「PA11」を中心に、マージン決定部6により予め算出したマージン量「MA11」を設定する。図10の例では、座標位置「PA11」に対応付けてマージン量「MA11」を記録部7に記録する。他のマージン量についても同様に、テーブル作成部5は各座標位置と各マージン量を対応付けて記録部7に記録する。座標位置を示す場合、例えば、数値範囲が256ビットであれば0〜255ビットの範囲にある、算出した座標位置に対応するビットに「1」を設定することが考えられる。例えば、座標位置「PA11」が0〜255ビットの50ビット目(−78)に対応するのであれが「PA11」に「50」を設定する。また、マージン量が「5ビット」であれば、「MA11」に「5」を記録する。その結果、45ビット〜55ビット目(−83〜−73)には「1」が設定される。座標位置とマージン量に対応しないビットには「0」が設定される。なお、座標位置とマージン量を記録しないで、座標位置とマージン量から求めた最小値と最大値の範囲(−83〜−73)を直接記録してもよい。また、例えば256幅のビット列を用意して、対応する範囲(45ビット〜55ビット)に「1」を設定してもよい。   For example, in the case of the coordinate position “PA11” corresponding to the element “x1” of the category 1 feature vector, the table creation unit 5 sets the margin calculated in advance by the margin determination unit 6 around the coordinate position “PA11”. The quantity “MA11” is set. In the example of FIG. 10, the margin amount “MA11” is recorded in the recording unit 7 in association with the coordinate position “PA11”. Similarly, for the other margin amounts, the table creation unit 5 records each coordinate position and each margin amount in the recording unit 7 in association with each other. In the case of indicating the coordinate position, for example, if the numerical value range is 256 bits, it is conceivable to set “1” to the bit corresponding to the calculated coordinate position in the range of 0 to 255 bits. For example, if the coordinate position “PA11” corresponds to the 50th bit (−78) of 0 to 255 bits, “50” is set to “PA11”. If the margin amount is “5 bits”, “5” is recorded in “MA11”. As a result, “1” is set in the 45th to 55th bits (−83 to −73). “0” is set to bits that do not correspond to the coordinate position and the margin amount. Note that the minimum value and maximum value range (−83 to −73) obtained from the coordinate position and the margin amount may be directly recorded without recording the coordinate position and the margin amount. Further, for example, a 256-bit bit string may be prepared, and “1” may be set in the corresponding range (45 bits to 55 bits).

図6のステップS4では、テーブル作成部5が、対象の特徴ベクトルの全ての要素(x1〜x288)ついて処理をしたかを判定する。全ての要素について処理を完了していればステップS6に移行し、まだ未処理の要素が残っている場合にはステップ5に移行する。ステップ5では、次の要素を選択してステップS1に移行する。   In step S4 of FIG. 6, the table creation unit 5 determines whether all elements (x1 to x288) of the target feature vector have been processed. If the processing has been completed for all elements, the process proceeds to step S6, and if there are still unprocessed elements, the process proceeds to step 5. In step 5, the next element is selected and the process proceeds to step S1.

ステップS6では、テーブル作成部5が、対象のカテゴリ(1、2〜)またはテンプレート全ての特徴ベクトルについて処理をしたかを判定する。全ての特徴ベクトルについて処理を完了していればステップS8に移行し、まだ未処理の特徴ベクトルが残っている場合にはステップ7に移行する。ステップ7では、次のカテゴリまたはテンプレートの特徴ベクトルを選択してステップS1に移行する。   In step S <b> 6, the table creation unit 5 determines whether the target category (1, 2 to) or the feature vectors of all templates have been processed. If processing has been completed for all feature vectors, the process proceeds to step S8, and if unprocessed feature vectors still remain, the process proceeds to step 7. In step 7, the feature vector of the next category or template is selected, and the process proceeds to step S1.

ステップS8では、テーブル作成部5が、全ての学習用サンプルパターン(カテゴリ(1、2〜)またはテンプレート)について処理したかを判定する。全ての学習用サンプルパターンについて処理を終了していればステップS10に移行し、まだ未処理の学習用サンプルパターンが残っている場合にはステップ9で次の学習用サンプルパターンを選択して、ステップ1に移行する。
テーブル作成部5は、上記ステップS1〜S8のテーブル作成処理をすることにより候補テーブル(大分類用辞書)を作成する。
In step S8, it is determined whether the table creation unit 5 has processed all the learning sample patterns (categories (1, 2 to) or templates). If the processing has been completed for all the learning sample patterns, the process proceeds to step S10. If unprocessed learning sample patterns still remain, the next learning sample pattern is selected in step 9, Move to 1.
The table creation unit 5 creates a candidate table (large classification dictionary) by performing the table creation processing in steps S1 to S8.

図11は、図6に示したテーブル作成処理を全ての学習用サンプルパターンに対して実施した結果を示す例で、各カテゴリの各要素に対応する座標位置とマージン量に対して、ビット列で表される軸上の対応する箇所にビット「1」を設定した場合の例である。   FIG. 11 shows an example of the result of the table creation process shown in FIG. 6 performed for all the learning sample patterns. The coordinate position and the margin amount corresponding to each element of each category are represented by a bit string. This is an example in which a bit “1” is set at a corresponding location on the axis to be processed.

図12は、平面辞書の概要を示す図である。従来の平面辞書(図2参照)と比べて、実施例1の平面辞書はカテゴリごとの各特徴ベクトルの各要素に対して適切に分布を捉えているため、パターン認識処理の大分類の精度を向上させることができる。   FIG. 12 is a diagram showing an outline of the planar dictionary. Compared to the conventional planar dictionary (see FIG. 2), the planar dictionary of the first embodiment appropriately captures the distribution for each element of each feature vector for each category. Can be improved.

図13は、実施例1で説明した方法により平面辞書を作成ときの字種「A」「B」「C」の辞書に記録されている分布範囲(「A」の分布範囲Aa’、「B」の分布範囲Ba’、「C」の分布範囲Ca’)と実際の分布範囲(「A」の範囲Ar、「B」の範囲Br、「C」の範囲Cr)の関係を示している。実施例1の平面辞書を用いることで、従来の平面辞書(図3参照)を用いたときと比べて、未知文字「X」が入力されても、適切に分布を捉えているため、未知文字「X」は「C」のカテゴリに絞り込まれ、文字「A」のカテゴリに未知文字「X」が属していない。   FIG. 13 shows distribution ranges (distribution ranges Aa ′ and “B” of “A”) recorded in the dictionary of the character types “A”, “B”, and “C” when the planar dictionary is created by the method described in the first embodiment. ”Distribution range Ba ′,“ C ”distribution range Ca ′) and the actual distribution range (“ A ”range Ar,“ B ”range Br,“ C ”range Cr). By using the planar dictionary according to the first embodiment, the unknown character “X” is appropriately input even when an unknown character “X” is input as compared with the case where the conventional planar dictionary (see FIG. 3) is used. “X” is narrowed down to the category of “C”, and the unknown character “X” does not belong to the category of the letter “A”.

(実施例2)
図14は、図4に示した大分類部3の動作を示す図である。
ステップS1401では、大分類部3が全カテゴリ数分の幅をもつビット列領域temp_bitを記録部7などのメモリに確保して、全てのビットに「1」を設定する。図15の例では、カテゴリがn個存在するので、nビット幅のtemp_bitを確保して、nビット全てに「1」を設定する。temp_bitは式3で示すことができる。
temp_bit:(1,1,1・・・1) 式3
temp_bitはnビット
(Example 2)
FIG. 14 is a diagram illustrating an operation of the large classification unit 3 illustrated in FIG. 4.
In step S1401, the large classification unit 3 secures a bit string area temp_bit having a width corresponding to the number of all categories in a memory such as the recording unit 7, and sets “1” to all bits. In the example of FIG. 15, since there are n categories, temp_bit having an n-bit width is secured and “1” is set to all n bits. temp_bit can be expressed by Equation 3.
temp_bit: (1, 1, 1... 1) Equation 3
temp_bit is n bits

ステップS1402では、大分類部3が未知入力文字の特徴ベクトルを求め、この特徴ベクトルの各要素を対応する各軸へ投影し各軸上の座標位置を求める。図15の例では、未知入力の対象の軸上の座標位置がkで表される場合に、未知入力の対象の軸の座標位置kに対応するカテゴリ1〜nの軸上の座標位置kに設定されている値を取得する。未知入力文字「X」がカテゴリに含まれるとすると、取得したカテゴリ1〜nの軸上の座標位置kは式4で示すことができる。
対象軸の座標位置kのビット列:(1,0,0・・・・) 式4
対象軸の座標位置kのビット列はnビット
In step S1402, the large classification unit 3 obtains a feature vector of an unknown input character, projects each element of the feature vector onto each corresponding axis, and obtains a coordinate position on each axis. In the example of FIG. 15, when the coordinate position on the axis of the target of unknown input is represented by k, the coordinate position k on the axes of categories 1 to n corresponding to the coordinate position k of the target axis of unknown input is set. Get the set value. If the unknown input character “X” is included in the category, the acquired coordinate position k on the axes of categories 1 to n can be expressed by Equation 4.
Bit string of coordinate position k of target axis: (1, 0, 0...) Equation 4
The bit string of the coordinate position k of the target axis is n bits

ステップS1403では、大分類部3が未知文字の対象軸の座標位置に対応するカテゴリ1〜nごとの座標位置で構成されるビット列と、temp_bitと論理積(bit AND)を行う。図15の例では、temp_bitと対象軸の座標位置kのビット列の論理積を計算する。
temp_bit AND (対象軸の座標位置kのビット列) 式5
論理積の結果であるtemp_bit=(1,0,0・・・・)
In step S1403, the large classification unit 3 performs a logical product (bit AND) with a bit string composed of the coordinate positions of categories 1 to n corresponding to the coordinate position of the target axis of the unknown character, and temp_bit. In the example of FIG. 15, the logical product of temp_bit and the bit string of the coordinate position k of the target axis is calculated.
temp_bit AND (bit string of coordinate position k of target axis) Equation 5
Temp_bit = (1, 0, 0...) That is the result of the logical product

ステップS1404では、大分類部3が未知文字の全軸に対して上記ステップS1403の処理をしたか否かを判定する。未知文字の全軸に対してステップS1403の処理を終了していればステップS1406に移行し、終了していなければステップS1405に移行する。ステップS1405では、大分類部3が次の軸を選択する。   In step S1404, the large classification unit 3 determines whether or not the processing in step S1403 has been performed on all axes of unknown characters. If the process of step S1403 has been completed for all axes of unknown characters, the process proceeds to step S1406, and if not, the process proceeds to step S1405. In step S1405, the large classification unit 3 selects the next axis.

ステップS1406では、大分類部3が各軸のビット列計算用の領域temp_bitにおいて対応するカテゴリ番号のビットに「1」が設定されているカテゴリ(またはテンプレート)を選択する。そして、大分類部3は選択したカテゴリを大分類結果として、記録部7に記録する。上記のように実施例1で作成した候補テーブル(大分類用辞書)を用いることにより、大分類の精度を向上させることができたが、しかし、まだ大分類の処理時間を短縮させる余地がある。   In step S1406, the large classification unit 3 selects a category (or template) in which “1” is set in the bit of the corresponding category number in the bit string calculation area temp_bit of each axis. Then, the large classification unit 3 records the selected category in the recording unit 7 as a large classification result. As described above, the accuracy of the large classification can be improved by using the candidate table (large classification dictionary) created in the first embodiment, but there is still room for reducing the processing time of the large classification. .

そこで、正準判別分析を用いて特徴ベクトルの次元を圧縮して次元圧縮をした特徴ベクトルを用いて大分類用の辞書を生成する方法を説明する。図16は、図4に示した特徴抽出部2に特徴圧縮部1602を設けたパターン認識装置1601の構成の一例を示す図である。特徴圧縮部1602は、元の特徴ベクトルを少数の次元からなる圧縮特徴ベルトルにする。圧縮特徴ベルトルを求める特徴圧縮処理とは、圧縮特徴空間の初期座標の算出、座標軸の直交化、圧縮特徴ベルトルの算出を行うものである。圧縮特徴空間の初期座標の算出処理では、既存の技術である正準判別分析により、カテゴリ間の分散と、カテゴリ内の分散比が最大となる座標軸を抽出する。例えば、288次元の特徴空間において、16次元の圧縮特徴空間を求める場合、文字カテゴリ間分散行列Sb=行列B、文字カテゴリ内分散行列Sw=行列Wを以下のように定義する(式6)。行列Bと行列Wは288×288の行列である。

Figure 0005521497
Therefore, a method for generating a large classification dictionary using the dimension-compressed feature vector by compressing the dimension of the feature vector using canonical discriminant analysis will be described. FIG. 16 is a diagram illustrating an example of a configuration of a pattern recognition apparatus 1601 in which a feature compression unit 1602 is provided in the feature extraction unit 2 illustrated in FIG. The feature compression unit 1602 converts the original feature vector into a compressed feature belt having a small number of dimensions. The feature compression processing for obtaining the compression feature beltle is to calculate initial coordinates of the compression feature space, orthogonalize the coordinate axes, and calculate the compression feature beltle. In the calculation process of the initial coordinates of the compressed feature space, the coordinate axis that maximizes the variance between categories and the variance ratio within the category is extracted by canonical discriminant analysis that is an existing technique. For example, in a 288-dimensional feature space, when obtaining a 16-dimensional compressed feature space, a character category variance matrix Sb = matrix B and a character category variance matrix Sw = matrix W are defined as follows (Formula 6). The matrix B and the matrix W are 288 × 288 matrices.
Figure 0005521497

次に、特徴圧縮部1602は、式7を満たすような固有行列と固有値行列を求める。

Figure 0005521497
Next, the feature compression unit 1602 obtains an eigenmatrix and an eigenvalue matrix that satisfy Expression 7.
Figure 0005521497

上記のように求めた、固有値の大きいほうから圧縮する次元数の固有ベクトルを選択する。たとえば16次元にするのであれば式8に示す固有ベクトルが初期座標になる。

Figure 0005521497
The eigenvector of the number of dimensions to be compressed is selected from the larger eigenvalue obtained as described above. For example, in the case of 16 dimensions, the eigenvector shown in Expression 8 becomes the initial coordinates.
Figure 0005521497

次に、シュミットの直交化により直交座標軸に変更した16個の288次元ベクトルを求める。式9に初期座標を正規直交化して、16個の288次元ベクトルを並べて行列形式にした変換行列を示す。

Figure 0005521497
Next, 16 288-dimensional vectors changed to orthogonal coordinate axes by Schmidt orthogonalization are obtained. Equation 9 shows a transformation matrix in which the initial coordinates are orthonormalized and 16 288-dimensional vectors are arranged in a matrix form.
Figure 0005521497

次に、圧縮特徴の算出(特徴ベクトルの投影)は、式10に示すように、1つの文字画像から求めた288次元の特徴ベクトルの転置行列、に変換行列をかけて、16次元の特徴ベクトルを求める。

Figure 0005521497
Next, calculation of the compressed feature (projection of the feature vector) is performed by multiplying the transposed matrix of the 288-dimensional feature vector obtained from one character image by the transformation matrix, as shown in Expression 10, to obtain a 16-dimensional feature vector. Ask for.
Figure 0005521497

この16次元圧縮特徴のベクトルの各要素y、y・・・y16は、それぞれ288次元空間の1点で表される特徴ベクトルXを16の軸に投影した時の各軸上の値(座標位置)になる。例えば、yは特徴ベクトルXを第1軸へ投影したときの第1軸上の値(座標位置)である。他の要素についても同じことがいえる。 Each element y 1 , y 2 ... Y 16 of this 16-dimensional compressed feature vector is a value on each axis when the feature vector X represented by one point in the 288-dimensional space is projected onto 16 axes. (Coordinate position). For example, y 1 is a value (coordinate position) on the first axis when the feature vector X is projected onto the first axis. The same is true for the other elements.

実施例2では、特徴抽出部2が実施例1で説明したように元となる特徴ベクトルを生成し、特徴圧縮部1602により元となる特徴ベクトルを次元圧縮する。そして、次元圧縮した特徴ベクトルを用いて、テーブル作成部5が大分類用の平面辞書を作成する。また、大分類をする際も、特徴圧縮部1602により未知入力の特徴ベクトルを次元圧縮してから、大分類部3が実施例2で生成した候補テーブル(大分類用辞書)を用いて大分類の処理を行うため、大分類の処理において扱うベクトル数を削減できる。そのため、大分類の処理時間を短縮させることができる。また、次元圧縮を行うことにより、扱うベクトル数が削減できるため記録部7の候補テーブル(大分類用辞書)の記憶領域を縮小することができる。   In the second embodiment, the feature extraction unit 2 generates an original feature vector as described in the first embodiment, and the feature compression unit 1602 dimensionally compresses the original feature vector. Then, the table creation unit 5 creates a large classification plane dictionary using the dimension-compressed feature vector. Also, when performing a large classification, the feature compression unit 1602 compresses the dimension of an unknown input feature vector, and then the large classification unit 3 uses the candidate table (large classification dictionary) generated in the second embodiment to perform a large classification. Therefore, the number of vectors handled in the large classification process can be reduced. Therefore, it is possible to shorten the processing time for the large classification. In addition, since the number of vectors to be handled can be reduced by performing dimension compression, the storage area of the candidate table (large classification dictionary) of the recording unit 7 can be reduced.

(実施例3)
実施例3では、カテゴリまたはテンプレートごとに学習用サンプルパターン間の違い(変形程度)に基づいて軸上のマージン量を決め、学習用サンプルパターンのカテゴリまたはテンプレートごとにマージン量を決める。学習用サンプルパターン間の違いとは、元となる学習用サンプルパターンと、元となる学習用サンプルパターンを劣化させたパターン(このパターンも学習用サンプルパターンである)との違いである。
(Example 3)
In the third embodiment, a margin amount on the axis is determined based on a difference (deformation degree) between learning sample patterns for each category or template, and a margin amount is determined for each category or template of the learning sample pattern. The difference between the learning sample patterns is a difference between the original learning sample pattern and a pattern obtained by degrading the original learning sample pattern (this pattern is also a learning sample pattern).

図17は、実施例3におけるマージン決定処理の一例を示すフロー図である。
ステップS1701では、特徴抽出部2が元となる学習用サンプルパターンに対して劣化させた複数の学習用サンプルパターンを特徴ベクトルに変換し、該特徴ベクトルとカテゴリ、元となる学習用サンプルパターンの特徴ベクトルを対応づけて記録部7に記録する。
FIG. 17 is a flowchart illustrating an example of margin determination processing according to the third embodiment.
In step S1701, the feature extraction unit 2 converts a plurality of learning sample patterns deteriorated with respect to the original learning sample pattern into feature vectors, the feature vector and the category, and the features of the original learning sample pattern. The vector is associated and recorded in the recording unit 7.

ステップS1702では、マージン決定部6がカテゴリまたはテンプレートを選択する。ステップS1703では、マージン決定部6が元となる学習用サンプルパターンを選択する。ステップS1704では、マージン決定部6が元となる学習用サンプルパターンを劣化させたパターンの特徴ベクトルから要素を選択する。   In step S1702, the margin determining unit 6 selects a category or a template. In step S1703, the margin determination unit 6 selects a learning sample pattern as a base. In step S1704, the margin determination unit 6 selects an element from a feature vector of a pattern obtained by degrading the original learning sample pattern.

ステップS1705では、マージン決定部6が選択した要素に対応する軸上で、元の特徴ベクトルの要素の値と、劣化させた特徴ベクトルの要素の値との差を求める。例えば、元となる学習用サンプルパターンの特徴ベクトルの要素に対応する軸上の座標位置をPbaseとし、劣化させたパターンの軸上の座標位置をPdeteとて、|Pbase−Pdete|を計算して差を求める。次に、マージン決定部6は、PbaseとPdeteの大きさを比較して大小関係を求めて、元となる学習用サンプルパターンの特徴ベクトルの要素に対応する値を中心に、右方向(最大値方向)のマージンであるか、左方向(最小値方向)のマージンであるかを判定する。軸を0〜255の数値範囲とした場合、Pbase−Pdeteを計算して計算結果がプラスの値であれば左方向のマージンとし、該値を変数mLtempに記録する。また、マイナスの値であれば右方向のマージン量とし、該値を変数mRtempに記録する。   In step S1705, the difference between the element value of the original feature vector and the element value of the deteriorated feature vector is obtained on the axis corresponding to the element selected by the margin determination unit 6. For example, assuming that the coordinate position on the axis corresponding to the element of the feature vector of the original learning sample pattern is Pbase, and the coordinate position on the axis of the deteriorated pattern is Pdete, | Pbase−Pdete | Find the difference. Next, the margin determination unit 6 compares the magnitudes of Pbase and Pdete to obtain a magnitude relationship, and rightward (maximum value) around the value corresponding to the element of the feature vector of the original learning sample pattern Direction) margin or left margin (minimum value direction). When the axis is in a numerical range of 0 to 255, Pbase-Pdete is calculated, and if the calculation result is a positive value, it is set as a left margin, and the value is recorded in the variable mLtemp. If it is a negative value, the margin amount in the right direction is set, and this value is recorded in the variable mRtemp.

ステップS1706では、マージン決定部6がカテゴリごとにステップS1705で算出したマージン量を加算する。例えば、式11に示すように、右方向のマージン量の加算であれば、変数mRに変数mRtempを加算し、左方向のマージン量の加算であれば、変数mLに変数mLtempを加算する。
mR ← mR+mRtemp
mL ← mL+mLtemp 式11
←:代入を示す
In step S1706, the margin determination unit 6 adds the margin amount calculated in step S1705 for each category. For example, as shown in Expression 11, the variable mRtemp is added to the variable mR if the margin amount in the right direction is added, and the variable mLtemp is added to the variable mL if the margin amount is added in the left direction.
mR ← mR + mRtemp
mL ← mL + mLtemp Formula 11
←: Indicates assignment

その際、変数mRに、変数mRtempが加算されるたびに式12に示すように変数mRcountに1を加算し、加算した回数を記録する。また、変数mLに、変数mLtempが加算されるたびに式12に示すように変数mLcountに1を加算し、加算した回数を記録する。
mRcount←mRcount+1
mLcount←mLcount+1 式12
At that time, whenever the variable mRtemp is added to the variable mR, 1 is added to the variable mRcount as shown in Expression 12, and the number of additions is recorded. Each time the variable mLtemp is added to the variable mL, 1 is added to the variable mLcount as shown in Expression 12, and the number of additions is recorded.
mRcount ← mRcount + 1
mLcount ← mLcount + 1 Formula 12

ステップS1707でマージン決定部6は、対象を劣化させた学習用サンプルパターンの特徴ベクトルの要素全てについて処理をしたか否かを判定する。全ての要素について処理を実行していればステップS1709に移行し、未処理の要素がある場合はステップS1708に移行する。ステップS1708では、マージン決定部6が次の要素を選択し、ステップS1705に移行する。   In step S1707, the margin determination unit 6 determines whether or not all the elements of the feature vector of the learning sample pattern whose target has been deteriorated have been processed. If all elements have been processed, the process proceeds to step S1709. If there is an unprocessed element, the process proceeds to step S1708. In step S1708, the margin determination unit 6 selects the next element, and the process proceeds to step S1705.

ステップS1709では、マージン決定部6が、劣化させた学習用サンプルパターンの特徴ベクトル全てについて処理をしたか否かを判定する。全ての特徴ベクトルについて処理を実行していればステップS1711に移行し、未処理の特徴ベクトルがある場合はステップS1710に移行する。ステップS1710では、マージン決定部6が次の劣化させた学習用サンプルパターンの特徴ベクトルを選択し、ステップS1704に移行する。   In step S1709, the margin determination unit 6 determines whether or not processing has been performed for all feature vectors of the degraded learning sample pattern. If processing has been performed for all feature vectors, the process proceeds to step S1711. If there is an unprocessed feature vector, the process proceeds to step S1710. In step S1710, the margin determination unit 6 selects the next degraded feature vector of the learning sample pattern, and the process proceeds to step S1704.

ステップS1711では、マージン決定部6がカテゴリ全てについて処理をしたか否かを判定する。全てのカテゴリについて処理を実行していればステップS1712に移行し、未処理のカテゴリがある場合はステップS1702に移行する。なお、カテゴリが変わるたびにカウント値mRcount、mLcountの値に初期値(例えば「0」)を設定する。   In step S1711, it is determined whether the margin determination unit 6 has processed all the categories. If processing has been performed for all categories, the process proceeds to step S1712, and if there is an unprocessed category, the process proceeds to step S1702. Each time the category changes, initial values (for example, “0”) are set as the count values mRcount and mLcount.

ステップS1712でマージン決定部6は、式13に示すように、カテゴリごとの右方向および左方向のそれぞれのマージン量の平均値mRave、mLaveを求める。
mRave ← mR/mRcount
mLave ← mL/mLcount 式13
In step S1712, the margin determination unit 6 obtains average values mRave and mLave of the right and left margin amounts for each category as shown in Expression 13.
mRave ← mR / mRcount
mLave ← mL / mLcount Formula 13

なお、平均値mRave、mLaveに固定倍数を積算しマージン量を調整してもよい。そして、マージン決定部6は、図18に示したようにカテゴリとマージン量の平均値mRave、mLaveを対応づけて、それぞれ記録部7に記録する。図18は、実施例3に示したマージン決定方法により算出したマージン量(mRave、mLave)を、カテゴリごとに対応付けて記録するときのデータ構造の一例を示す図である。図18の「カテゴリ」にはカテゴリを識別するための識別番号(1、2〜n)が記録され、「mRave」「mLave」には上記処理により決定したカテゴリごとのマージン量(MAL1〜MALn/MAR1〜MARn)が記録されている。   The margin amount may be adjusted by adding a fixed multiple to the average values mRave and mLave. Then, the margin determining unit 6 associates the categories with the average values mRave and mLave of the margin amounts and records them in the recording unit 7 as shown in FIG. FIG. 18 is a diagram illustrating an example of a data structure when the margin amounts (mRave, mLave) calculated by the margin determination method illustrated in the third embodiment are recorded in association with each category. In FIG. 18, “category” is recorded with an identification number (1, 2 to n) for identifying the category, and “mRave” and “mLave” are margin amounts (MAL1 to MALn / MAL) for each category determined by the above processing. MAR1 to MARn) are recorded.

上記のようにマージン決定処理は、カテゴリに含まれる複数の元となるパターンと、元となるパターンを劣化させたパターンの各特徴ベクトルの同じ位置の要素を、予め設定された範囲の同じ位置の要素に対応する軸に投影する。次に、元となるパターンの軸上の座標位置と、劣化させたパターンごとの軸上の座標位置との差を算出する。そして、元となるパターンの軸上の座標位置を中心にして最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出し、カテゴリごとにマージン量を対応付けて記録部7に記録する。   As described above, the margin determination process is performed by combining elements at the same position in each feature vector of a plurality of original patterns included in a category and patterns obtained by degrading the original pattern at the same positions in a preset range. Project to the axis corresponding to the element. Next, the difference between the coordinate position on the axis of the original pattern and the coordinate position on the axis of each deteriorated pattern is calculated. Then, the average value of the difference in the minimum value direction and the average value of the difference in the maximum value direction are calculated as the margin amount with the coordinate position on the axis of the original pattern as the center, and the margin amount is associated with each category and recorded. Record in part 7.

実施例3によれば、元となる学習用サンプルパターンと劣化させた複数の学習用サンプルパターンに基づいてマージン量を決めているため、従来の大分類用の辞書を用いて大分類をするより、精度を向上させることができる。すなわち、実施例3の平面辞書はカテゴリごとの各特徴ベクトルの各要素に対して適切に分布を捉えているため、大分類の精度を向上させることができる。
なお、実施例2で説明した次元圧縮したベクトルを用いて、実施例3で説明した方法によりマージン量を決定してもよい。
According to the third embodiment, the margin amount is determined based on the original learning sample pattern and a plurality of deteriorated learning sample patterns, so that the large classification is performed using the conventional large classification dictionary. , Accuracy can be improved. That is, since the planar dictionary of Example 3 appropriately captures the distribution for each element of each feature vector for each category, the accuracy of the large classification can be improved.
Note that the margin amount may be determined by the method described in the third embodiment using the dimension-compressed vector described in the second embodiment.

(実施例4)
実施例4は、軸を予め決められたサイズで区分けして、カテゴリごとの全ての学習用サンプルパターンの特徴ベクトルの各要素を軸へ投影し、区間と軸上の座標位置に基づいてマージン量を求める。
Example 4
In the fourth embodiment, the axis is divided by a predetermined size, each element of the feature vector of all the learning sample patterns for each category is projected onto the axis, and the margin amount based on the section and the coordinate position on the axis Ask for.

図19は、実施例4におけるマージン決定処理の一例を示すフロー図である。また、実施例4では図20に示すように、マージン決定部6が、軸上に予め決められたサイズで区分けした区間を設定する。例えば、軸が0〜255の数値範囲で示されているときには、256を等間隔で区分けして各区間に識別番号を割り付ける。図20場合であれば区間を10に区切り10等分している。なお、区間は必ずしも等分する必要はない。   FIG. 19 is a flowchart illustrating an example of margin determination processing according to the fourth embodiment. Further, in the fourth embodiment, as shown in FIG. 20, the margin determination unit 6 sets a section divided on the axis by a predetermined size. For example, when the axis is indicated by a numerical range of 0 to 255, 256 is divided at equal intervals and an identification number is assigned to each section. In the case of FIG. 20, the section is divided into 10 and divided into 10 equal parts. Note that the sections do not necessarily have to be equally divided.

ステップS1901では、特徴抽出部2が元となる学習用サンプルパターンに対して劣化させた複数の学習用サンプルパターンを特徴ベクトルに変換し、該特徴ベクトルとカテゴリ、区間、元となる学習用サンプルパターンの特徴ベクトルを対応づけて記録部7に記録する。ステップS1902では、マージン決定部6がカテゴリまたはテンプレートを選択する。ステップS1903では、マージン決定部6が元となる学習用サンプルパターンを選択する。ステップS1904では、マージン決定部6が元となる学習用サンプルパターンを劣化させたパターンの特徴ベクトルから要素を選択する。ステップS1905では、マージン決定部6がステップS1904で選択した対象の要素に対応する値がある区間を選択する。   In step S1901, a plurality of learning sample patterns degraded by the feature extraction unit 2 with respect to the original learning sample pattern are converted into feature vectors, and the feature vector, category, section, and original learning sample pattern are converted. Are recorded in the recording unit 7 in association with each other. In step S1902, the margin determination unit 6 selects a category or a template. In step S1903, the margin determination unit 6 selects a learning sample pattern as a base. In step S1904, the margin determination unit 6 selects an element from a feature vector of a pattern obtained by degrading the original learning sample pattern. In step S1905, the margin determination unit 6 selects a section having a value corresponding to the target element selected in step S1904.

ステップS1906では、実施例1で説明したステップS1705と同様に、マージン決定部6が選択した要素に対応する軸上で、元の特徴ベクトルの要素の値と、劣化させた特徴ベクトルの要素の値との差をマージンとして求める。例えば、元となる学習用サンプルパターンの特徴ベクトルの要素に対応する軸上の座標位置をPbaseとし、劣化させたパターンの軸上の座標位置をPdeteとて、|Pbase−Pdete|を計算して差を求める。次に、マージン決定部6は、PbaseとPdeteの大きさを比較して大小関係を求めて、元となる学習用サンプルパターンの特徴ベクトルの要素に対応する値を中心に、右方向(最大値方向)のマージンであるか、左方向(最小値方向)のマージンであるかを判定する。軸を0〜255の数値範囲とした場合、例えば区間1に対しては、Pbase−Pdeteを計算して計算結果がプラスの値であれば左方向のマージンとし、該値を変数mLint1_tempに記録する。また、マイナスの値であれば右方向のマージン量とし、該値を変数mRint1_tempに記録する。   In step S1906, as in step S1705 described in the first embodiment, the element value of the original feature vector and the element value of the deteriorated feature vector on the axis corresponding to the element selected by the margin determining unit 6 are used. The difference is calculated as a margin. For example, assuming that the coordinate position on the axis corresponding to the element of the feature vector of the original learning sample pattern is Pbase, and the coordinate position on the axis of the deteriorated pattern is Pdete, | Pbase−Pdete | Find the difference. Next, the margin determination unit 6 compares the magnitudes of Pbase and Pdete to obtain a magnitude relationship, and rightward (maximum value) around the value corresponding to the element of the feature vector of the original learning sample pattern Direction) margin or left margin (minimum value direction). When the axis is set to a numerical value range of 0 to 255, for example, for the interval 1, if Pbase-Pdette is calculated and the calculation result is a positive value, it is set as a left margin, and the value is recorded in the variable mLint1_temp. . If it is a negative value, the margin amount in the right direction is set, and this value is recorded in the variable mRint1_temp.

ステップS1907では、マージン決定部6が区間ごとにステップS1906で算出したマージン量を加算する。例えば、区間1の場合であれば式14に示すように、右方向のマージン量の加算であれば、変数mRint1に変数mRint1_tempを加算し、左方向のマージン量の加算であれば、変数mLint1に変数mLint1_tempを加算する。
mRint1 ← mRint1+mRint1_temp
mLint1 ← mLint1+mLint1_temp 式14
In step S1907, the margin determination unit 6 adds the margin amount calculated in step S1906 for each section. For example, in the case of section 1, as shown in Expression 14, if the margin amount in the right direction is added, the variable mRint1_temp is added to the variable mRint1, and if the margin amount in the left direction is added, the variable mLint1 is added. The variable mLint1_temp is added.
mRint1 ← mRint1 + mRint1_temp
mLint1 ← mLint1 + mLint1_temp Equation 14

その際、変数mRint1に、変数mRint1_tempが加算されるたびに式15に示すようにmRint1_countに1を加算し、加算した回数を記録する。また、変数mLint1に、変数mLint1_tempが加算されるたびに式15に示すようにmLint1_countに1を加算し、加算した回数を記録する。
mRint1_count←mRint1_count+1
mLint1_count←mLint1_count+1 式15
At that time, each time the variable mRint1_temp is added to the variable mRint1, 1 is added to mRint1_count as shown in Expression 15, and the number of times of addition is recorded. Further, whenever the variable mLint1_temp is added to the variable mLint1, 1 is added to mLint1_count as shown in Expression 15, and the number of additions is recorded.
mRint1_count ← mRint1_count + 1
mLint1_count ← mLint1_count + 1 Equation 15

ステップS1908でマージン決定部6は、対象を劣化させた学習用サンプルパターンの特徴ベクトルの要素全てについて処理をしたか否かを判定する。全ての要素について処理を実行していればステップS1910に移行し、未処理の要素がある場合はステップS1909に移行する。ステップS1909では、マージン決定部6が次の要素を選択し、ステップS1905に移行する。   In step S1908, the margin determination unit 6 determines whether or not all the elements of the feature vector of the learning sample pattern whose target has been deteriorated have been processed. If all elements have been processed, the process proceeds to step S1910. If there is an unprocessed element, the process proceeds to step S1909. In step S1909, the margin determination unit 6 selects the next element, and the process proceeds to step S1905.

ステップS1910では、マージン決定部6が、劣化させた学習用サンプルパターンの特徴ベクトル全てについて処理をしたか否かを判定する。全ての特徴ベクトルについて処理を実行していればステップS1912に移行し、未処理の特徴ベクトルがある場合はステップS1911に移行する。ステップS1911では、マージン決定部6が次の劣化させた学習用サンプルパターンの特徴ベクトルを選択し、ステップS1904に移行する。   In step S1910, the margin determination unit 6 determines whether or not processing has been performed for all feature vectors of the deteriorated learning sample pattern. If processing has been performed for all feature vectors, the process proceeds to step S1912. If there is an unprocessed feature vector, the process proceeds to step S1911. In step S1911, the margin determination unit 6 selects the next degraded feature vector of the learning sample pattern, and the process proceeds to step S1904.

ステップS1912では、マージン決定部6がカテゴリ全てについて処理をしたか否かを判定する。全てのカテゴリについて処理を実行していればステップS1913に移行し、未処理のカテゴリがある場合はステップS1902に移行する。なお、カテゴリが変わるたびにカウント値に初期値(例えば「0」)を設定する。区間1の場合であれば、mRint1_count、mLint1_countの値に初期値を設定する。   In step S1912, it is determined whether the margin determining unit 6 has processed all the categories. If all categories have been processed, the process proceeds to step S1913. If there is an unprocessed category, the process proceeds to step S1902. Each time the category changes, an initial value (for example, “0”) is set as the count value. In the case of section 1, initial values are set to the values of mRint1_count and mLint1_count.

ステップS1913でマージン決定部6は、各カテゴリの各区間における右方向および左方向のそれぞれのマージン量の平均値を求める。区間1の場合であれば、式16に示すように、各カテゴリの各区間における右方向および左方向のそれぞれのマージン量の平均値mRint1_ave、mLint1_aveを求める。
mRint1_ave ← mRint1_/mRint1_count
mLint1_ave ← mLint1_/mLint1_count 式16
In step S1913, the margin determination unit 6 obtains an average value of the respective margin amounts in the right direction and the left direction in each section of each category. In the case of section 1, as shown in Expression 16, average values mRint1_ave and mLint1_ave of the respective right and left margin amounts in each section of each category are obtained.
mRint1_ave ← mRint1_ / mRint1_count
mLint1_ave ← mLint1_ / mLint1_count Equation 16

なお、平均値mRint1_ave、mLint1_aveに固定倍数を積算しマージン量を調整してもよい。また、マージン決定部6は、図21に示したようにカテゴリとマージン量の平均値を対応づけて、それぞれ記録部7に記録する。図21は、実施例4に示したマージン決定方法により算出したマージン量を、各カテゴリの各区間に対応付けて記録するときのデータ構造の一例を示す図である。図21の「カテゴリ」には、カテゴリを識別するための識別番号(1、2〜n)が記録され、「区間1」〜「区間w」(wは整数)には区間を識別するための識別番号(1、2〜w)が記録されている。また、図21の「mRint1_ave」〜「mRintw_ave」、「mLint1_ave」〜「mLintw_ave」には、上記処理により決定した各カテゴリの各区間のマージン量(MAL11〜MALwn/MAR11〜MARwn)が記録されている。   The margin amount may be adjusted by adding a fixed multiple to the average values mRint1_ave and mLint1_ave. Further, as shown in FIG. 21, the margin determining unit 6 associates the category with the average value of the margin amount and records them in the recording unit 7 respectively. FIG. 21 is a diagram illustrating an example of a data structure when a margin amount calculated by the margin determination method illustrated in the fourth embodiment is recorded in association with each section of each category. 21, identification numbers (1, 2 to n) for identifying the category are recorded, and “section 1” to “section w” (w is an integer) are used to identify the sections. Identification numbers (1, 2 to w) are recorded. In addition, in “mRint1_ave” to “mRintw_ave” and “mLint1_ave” to “mLintw_ave” in FIG. 21, the margin amounts (MAL11 to MALwn / MAR11 to MARwn) of each section determined by the above processing are recorded. .

上記のように実施例4では、マージン決定処理により、軸を予め設定された範囲に区分けした区間を設定する。次に、カテゴリに含まれる複数の元となるパターンと、元となるパターンを劣化させたパターンの各特徴ベクトルの同じ位置の要素を、予め設定された範囲の同じ位置の要素に対応する軸に投影する。次に、元となるパターンの軸上の座標位置と、劣化させたパターンごとの軸上の座標位置との差を算出する。そして、元となるパターンの軸上の座標位置を中心にして最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出し、元となるパターンの軸上の座標位置が含まれる区間ごとにマージン量を対応付けて記録部7に記録する。   As described above, in the fourth embodiment, the section in which the axis is divided into the preset range is set by the margin determination process. Next, the element at the same position in each feature vector of the plurality of original patterns included in the category and the pattern obtained by degrading the original pattern is used as an axis corresponding to the element at the same position in the preset range. Project. Next, the difference between the coordinate position on the axis of the original pattern and the coordinate position on the axis of each deteriorated pattern is calculated. Then, the average value of the difference in the minimum value direction and the average value of the difference in the maximum value direction are calculated as margin amounts around the coordinate position on the axis of the original pattern, and the coordinate position on the axis of the original pattern Is recorded in the recording unit 7 in association with a margin amount for each section including the.

従来手法では軸上の1点に多数のカテゴリが所属することになり、認識時の絞り込み能力が低く、高精度を保ったまま少数カテゴリに絞り込めなかった。しかし、実施例4によれば、マージン量を元となる学習用サンプルパターンと劣化させた複数の学習用サンプルパターンに基づいて、区間ごとにマージン量を決めているため、従来の大分類用の辞書を用いて大分類の精度を向上させることができる。すなわち、実施例4の平面辞書は各カテゴリの各区間の各特徴ベクトルの各要素に対して適切に分布を捉えているため、大分類の精度を向上させることができる。
なお、実施例2で説明した次元圧縮したベクトルを用いて、実施例4で説明した方法によりマージン量を決定することもできる。
In the conventional method, a large number of categories belong to one point on the axis, and the refining ability at the time of recognition is low, and it is not possible to narrow down to a small number of categories while maintaining high accuracy. However, according to the fourth embodiment, the margin amount is determined for each section based on the learning sample pattern based on the margin amount and a plurality of deteriorated learning sample patterns. The accuracy of large classification can be improved using a dictionary. That is, since the planar dictionary of Example 4 appropriately captures the distribution for each element of each feature vector in each section of each category, the accuracy of the large classification can be improved.
Note that the margin amount can be determined by the method described in the fourth embodiment using the dimension-compressed vector described in the second embodiment.

(実施例5)
実施例5では、各カテゴリまたは各テンプレートの集合に含まれる文字パターンのフォントタイプに注目して、同一カテゴリにおけるフォントタイプごとの軸上の分布に基づいてマージン量を求める。
(Example 5)
In the fifth embodiment, paying attention to the font type of the character pattern included in each category or each set of templates, the margin amount is obtained based on the distribution on the axis for each font type in the same category.

図22は、実施例5におけるマージン決定処理の一例を示すフロー図である。
ステップS2201で特徴抽出部2が、同一カテゴリにおける複数の異なるフォントタイプの学習用サンプルパターンの文字パターンを特徴ベクトルに変換し、該特徴ベクトルとフォント、カテゴリを対応づけて記録部7に記録する。
FIG. 22 is a flowchart illustrating an example of margin determination processing according to the fifth embodiment.
In step S2201, the feature extraction unit 2 converts the character patterns of the sample patterns for learning of different font types in the same category into feature vectors, and records the feature vectors, fonts, and categories in the recording unit 7 in association with each other.

ステップS2202では、マージン決定部6が対象のカテゴリを選択する。ステップS2203では、マージン決定部6がフォントを選択する。
ステップS2204では、マージン決定部6がステップS2203で選択したフォントの特徴ベクトルから要素を選択し、対応する軸上に特徴ベクトルの要素を投影する。例えば、同一カテゴリ1に異なるフォントタイプの学習用サンプルパターン(文字パターン:F11〜F1n)が複数ある場合に、文字パターンF11〜F1nをそれぞれ288次元の特徴ベクトルに変換したときについて説明する。文字パターンF11〜F1nの各特徴ベクトルを構成する1〜288番目の要素に対して、それぞれ0〜255の数値範囲で示される軸を割り振る。1番目の要素に対応する軸には、文字パターンF11〜F1nの各特徴ベクトルの1番目に対応する各要素を投影する。他の軸についても、文字パターンF11〜F1nの各特徴ベクトルの対象要素を対象になる軸に投影する。すなわち、文字パターンF11〜F1nの特徴ベクトルの全ての要素が、288個の軸に全て投影される。
In step S2202, the margin determination unit 6 selects a target category. In step S2203, the margin determination unit 6 selects a font.
In step S2204, the margin determination unit 6 selects an element from the feature vector of the font selected in step S2203, and projects the feature vector element on the corresponding axis. For example, when there are a plurality of different font type learning sample patterns (character patterns: F11 to F1n) in the same category 1, each of the character patterns F11 to F1n is converted into a 288-dimensional feature vector. An axis indicated by a numerical value range of 0 to 255 is assigned to each of the 1st to 288th elements constituting each feature vector of the character patterns F11 to F1n. Each element corresponding to the first of the feature vectors of the character patterns F11 to F1n is projected onto the axis corresponding to the first element. For the other axes, the target elements of the feature vectors of the character patterns F11 to F1n are projected onto the target axes. That is, all the elements of the feature vectors of the character patterns F11 to F1n are all projected on 288 axes.

ステップS2205でマージン決定部6は、対象のフォントに対する特徴ベクトルの要素全てについて処理をしたか否かを判定する。全ての要素について処理を実行していればステップS2207に移行し、未処理の要素がある場合はステップS2206に移行する。ステップS2206では、マージン決定部6が次の要素を選択し、ステップS2204に移行する。   In step S2205, the margin determination unit 6 determines whether or not all the elements of the feature vector for the target font have been processed. If all elements have been processed, the process proceeds to step S2207. If there is an unprocessed element, the process proceeds to step S2206. In step S2206, the margin determination unit 6 selects the next element, and proceeds to step S2204.

ステップS2207では、マージン決定部6がステップS2203で選択したフォントの特徴ベクトル全てについて処理をしたか否かを判定する。全ての特徴ベクトルについて処理を実行していればステップS2209に移行し、未処理の特徴ベクトルがある場合はステップS2208に移行する。ステップS2208では、マージン決定部6が次のフォントの特徴ベクトルを選択し、ステップS2204に移行する。   In step S2207, the margin determination unit 6 determines whether or not all the feature vectors of the font selected in step S2203 have been processed. If processing has been performed for all feature vectors, the process proceeds to step S2209. If there is an unprocessed feature vector, the process proceeds to step S2208. In step S2208, the margin determination unit 6 selects the next font feature vector, and the process proceeds to step S2204.

ステップS2209では、マージン決定部6が同一カテゴリの各軸上に投影された複数の要素の平均値を求める。例えば、上記説明したカテゴリ1に含まれる文字パターンF11〜F1nの特徴ベクトルの全ての要素が投影された288個の軸の場合であれば、288個の軸ごとに、軸上の要素の平均値を計算する。次に、この平均値の値とフォントタイプごとの特徴ベクトルの軸上の要素の値との差を求める。例えば、平均値に対応する軸上の座標位置をPfbaseとし、フォントごとの文字パターンの軸上の座標位置をPfdeteとて、|Pfbase−Pfdete|を計算して差を求める。次に、マージン決定部6は、PfbaseとPfdeteの大きさを比較して大小関係を求めて、平均値を中心に、右方向(最大値方向)のマージンであるか、左方向(最小値方向)のマージンであるかを判定する。軸を0〜255の数値範囲とした場合、Pfbase−Pfdeteを計算して計算結果がプラスの値であれば左方向のマージンとし、該値を変数mLf_tempに記録する。また、マイナスの値であれば右方向のマージン量とし、該値を変数mRf_tempに記録する。   In step S2209, the margin determination unit 6 obtains an average value of a plurality of elements projected on each axis of the same category. For example, in the case of 288 axes on which all the elements of the feature vectors of the character patterns F11 to F1n included in the category 1 described above are projected, the average value of the elements on the axis for every 288 axes Calculate Next, the difference between the average value and the value of the element on the axis of the feature vector for each font type is obtained. For example, assuming that the coordinate position on the axis corresponding to the average value is Pfbase and the coordinate position on the axis of the character pattern for each font is Pfdete, | Pfbase-Pfdete | is calculated to obtain the difference. Next, the margin determination unit 6 compares the magnitudes of Pfbase and Pfdete to obtain a magnitude relationship, and determines whether the margin is in the right direction (maximum value direction) or the left direction (minimum value direction) around the average value. ). When the axis is in a numerical range of 0 to 255, Pfbase-Pfdete is calculated, and if the calculation result is a positive value, it is set as a left margin, and the value is recorded in the variable mLf_temp. If it is a negative value, the margin amount in the right direction is set, and this value is recorded in the variable mRf_temp.

ステップS2210では、マージン決定部6がフォントごとの差の平均値を求めて、カテゴリごとのフォントのマージン値とする。まず、フォントごとにステップS2209で算出したマージン量を加算する。例えば、式17に示すように、右方向のマージン量の加算であれば、変数mRfに変数mRf_tempを加算し、左方向のマージン量の加算であれば、変数mLfに変数mLf_tempを加算する。
mRf ← mRf+mRf_temp
mLf ← mLf+mLf_temp 式17
In step S2210, the margin determination unit 6 obtains an average value of differences for each font, and sets it as a font margin value for each category. First, the margin amount calculated in step S2209 is added for each font. For example, as shown in Expression 17, the variable mRf_temp is added to the variable mRf if the margin amount in the right direction is added, and the variable mLf_temp is added to the variable mLf if the margin amount is added in the left direction.
mRf ← mRf + mRf_temp
mLf ← mLf + mLf_temp Equation 17

その際、変数mRfに、変数mRf_tempが加算されるたびに式18に示すようにmRf_countに1を加算し、加算した回数を記録する。また、変数mLfに、変数mLf_tempが加算されるたびに式18に示すようにmLf_countに1を加算し、加算した回数を記録する。
mRf_count←mRf_count+1
mLf_count←mLf_count+1 式18
At that time, each time the variable mRf_temp is added to the variable mRf, 1 is added to mRf_count as shown in Expression 18, and the number of times of addition is recorded. Further, whenever the variable mLf_temp is added to the variable mLf, 1 is added to mLf_count as shown in Expression 18, and the number of additions is recorded.
mRf_count ← mRf_count + 1
mLf_count ← mLf_count + 1 Equation 18

次に、マージン決定部6は、式19に示すように、フォントごとの右方向および左方向のそれぞれのマージン量の平均値mRf_ave、mLf_aveを求める。
mRf_ave ← mRf/mRf_count
mLf_ave ← mLf/mLf_count 式19
Next, the margin determination unit 6 obtains the average values mRf_ave and mLf_ave of the right and left margin amounts for each font, as shown in Expression 19.
mRf_ave ← mRf / mRf_count
mLf_ave ← mLf / mLf_count Equation 19

なお、平均値mRf_ave、mLf_aveに固定倍数を積算しマージン量を調整してもよい。なお、フォントが変わるたびにカウント値mRcount、mLcountの値に初期値(例えば「0」)を設定する。   The margin amount may be adjusted by adding a fixed multiple to the average values mRf_ave and mLf_ave. Each time the font changes, initial values (for example, “0”) are set as the count values mRcount and mLcount.

ステップS2211では、マージン決定部6がカテゴリ全てについて処理をしたか否かを判定する。全てのカテゴリについて処理を実行していればステップS2212に移行し、未処理のカテゴリがある場合はステップS2202に移行する。   In step S2211, it is determined whether the margin determining unit 6 has processed all the categories. If all categories have been processed, the process proceeds to step S2212, and if there is an unprocessed category, the process proceeds to step S2202.

そして、マージン決定部6は、図23に示したようにフォントごとのマージン量の平均値mRf_ave、mLf_aveを各フォントに対応づけて、それぞれ記録部7に記録する。図23のフォントF1の場合、図23のフォントF1に対応する平均値MARF1、MALF1がそれぞれ設定されている。他のフォントについてもそれぞれ平均値が設定されている。   Then, as shown in FIG. 23, the margin determining unit 6 records the average values mRf_ave and mLf_ave of the margin amounts for each font in the recording unit 7 in association with each font. In the case of the font F1 in FIG. 23, average values MARF1 and MALF1 corresponding to the font F1 in FIG. 23 are set. The average value is set for each of the other fonts.

上記のように実施例5では、同一カテゴリに含まれる異なるフォントのパターンの各特徴ベクトルの同じ位置の要素を、予め設定された範囲の同じ位置の要素に対応する軸に投影し、異なるフォントのパターンの軸上の座標位置の平均値を算出する。次に、フォントごとのパターンの軸上の座標位置と平均値の座標位置との差を算出して、該差を平均値の座標位置を中心にして最小値方向の差と最大値方向の差に分ける。そして、カテゴリごとに同一フォントの最小値方向の差の平均値と最大値方向の差をマージン量として算出して、カテゴリにマージン量を対応付けて記録部に記録する。   As described above, in the fifth embodiment, the elements at the same position of the feature vectors of the different font patterns included in the same category are projected on the axes corresponding to the elements at the same position in the preset range, The average value of the coordinate positions on the pattern axis is calculated. Next, the difference between the coordinate position on the axis of the pattern for each font and the coordinate position of the average value is calculated, and the difference is the difference between the minimum value direction and the maximum value direction centered on the coordinate position of the average value. Divide into Then, the average value of the difference in the minimum value direction and the difference in the maximum value direction of the same font are calculated as the margin amount for each category, and the margin amount is associated with the category and recorded in the recording unit.

従来手法では軸上の1点に多数のカテゴリが所属することになり、認識時の絞り込み能力が低く、高精度を保ったまま少数カテゴリに絞り込めなかった。しかし、実施例5によれば、マージン量をカテゴリごとのフォントに基づいてマージン量を決めているため、大分類用の辞書を用いて大分類の精度を向上させることができる。すなわち、実施例5の平面辞書は、従来に比べてカテゴリごとの各特徴ベクトルの各要素に対して適切に分布を捉えているため、大分類の精度を向上させることができる。   In the conventional method, a large number of categories belong to one point on the axis, and the refining ability at the time of recognition is low, and it is not possible to narrow down to a small number of categories while maintaining high accuracy. However, according to the fifth embodiment, since the margin amount is determined based on the font for each category, the accuracy of the large classification can be improved by using the large classification dictionary. That is, since the planar dictionary of Example 5 appropriately captures the distribution for each element of each feature vector for each category as compared to the conventional case, the accuracy of the large classification can be improved.

なお、実施例2で説明した次元圧縮したベクトルを用いて、実施例5で説明した方法によりマージン量を決定することもできる。   Note that the margin amount can be determined by the method described in the fifth embodiment using the dimension-compressed vector described in the second embodiment.

(変形例1)
なお、実施例3におけるカテゴリの代わりに、フォントの種類により区分けしたテンプレートを用いることにより、図24に示すようなカテゴリごとにフォントとマージ量を対応付けて記録することができる。図24の「カテゴリ」にはカテゴリを識別するための識別番号(1、2〜n)が記録され、「フォント」にはフォントを識別するための識別番号(F1、F2〜Fn)が記録され、ている。また、「mRf_ave2」「mLf_ave2」には、上記実施例3の処理により決定した各カテゴリにおけるフォントごとのマージン量(MALF11、MALF12〜/MARF11、MARF12〜)が記録されている。
(Modification 1)
Note that instead of the category in the third embodiment, by using a template classified by font type, it is possible to record the font and the merge amount in association with each category as shown in FIG. In FIG. 24, “category” is recorded with identification numbers (1, 2 to n) for identifying the category, and “font” is recorded with identification numbers (F1, F2 to Fn) for identifying the font. ,ing. In “mRf_ave2” and “mLf_ave2”, the margin amounts (MALF11, MALF12˜ / MARF11, MARF12˜) for each font in each category determined by the processing of the third embodiment are recorded.

(変形例2)
変形例2は、上記実施例で説明したパターン認識処理を用いてパターン認識を行った結果、誤認識文字があることを発見した場合、誤認識の原因が大分類にあれば、利用者が大分類用の平面辞書を調整して、調整結果を大分類用の平面辞書に記録するものである。
(Modification 2)
In the second modified example, when pattern recognition is performed using the pattern recognition processing described in the above-described embodiment, it is found that there is a misrecognized character. The plane dictionary for classification is adjusted, and the adjustment result is recorded in the plane dictionary for large classification.

図25は、上記実施形態の装置を実現できるコンピュータのハードウェア構成の一例を示す図である。
コンピュータのハードウェア2500は、CPU2501、記録部2502(ROM、RAM、ハードディスクドライブなど)、記録媒体読取装置2503、入出力インタフェース2504(入出力I/F)、通信インタフェース2505(通信I/F)などを備えている。また、上記各構成部はバス2506によってそれぞれ接続されている。
FIG. 25 is a diagram illustrating an example of a hardware configuration of a computer that can implement the apparatus according to the embodiment.
The computer hardware 2500 includes a CPU 2501, a recording unit 2502 (ROM, RAM, hard disk drive, etc.), a recording medium reader 2503, an input / output interface 2504 (input / output I / F), a communication interface 2505 (communication I / F), and the like. It has. Further, each of the above components is connected by a bus 2506.

CPU2501は、記録部2502に格納されている上記説明したパターン認識処理(図6、図13、図17、図19、図22などに示した処理)を実行する。
記録部2502には、CPU2501が実行するプログラムやデータが記録されている。また、ワークエリアなどとして使用される。また、記録部2502は上記説明した記録部7の機能を有する。
The CPU 2501 executes the above-described pattern recognition processing (the processing shown in FIGS. 6, 13, 17, 19, 22, etc.) stored in the recording unit 2502.
The recording unit 2502 records programs executed by the CPU 2501 and data. It is also used as a work area. The recording unit 2502 has the function of the recording unit 7 described above.

記録媒体読取装置2503は、CPU2501の制御にしたがって記録媒体2503aに対するデータのリード/ライトを制御する。そして、記録媒体2503aに記録媒体読取装置2503の制御で書き込まれたデータを記憶させたり、記録媒体2503aに記憶されたデータを読み取らせたりする。また、着脱可能な記録媒体2503aは、コンピュータで読み取り可能な記録媒体として、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録装置には、ハードディスク装置(HDD)などがある。光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。   The recording medium reader 2503 controls reading / writing of data with respect to the recording medium 2503a according to the control of the CPU 2501. Then, the data written under the control of the recording medium reader 2503 is stored in the recording medium 2503a, or the data stored in the recording medium 2503a is read. The detachable recording medium 2503a includes a computer readable recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory. The magnetic recording device includes a hard disk device (HDD). Examples of the optical disc include a DVD (Digital Versatile Disc), a DVD-RAM (Random Access Memory), a CD-ROM (Compact Disc Read Only Memory), and a CD-R (Recordable) / RW (ReWritable). Magneto-optical recording media include MO (Magneto-Optical disk).

入出力インタフェース2504には、入出力装置2504a(例えば、ディスプレイなど)が接続され、ユーザが入力した情報を受信し、バス2506を介してCPU2501に送信する。また、CPU2501からの命令に従ってディスプレイの画面上に操作情報などを表示する。   An input / output device 2504 a (for example, a display) is connected to the input / output interface 2504, receives information input by the user, and transmits the information to the CPU 2501 via the bus 2506. Further, operation information and the like are displayed on the display screen in accordance with a command from the CPU 2501.

通信インタフェース2505は、必要に応じ、他のコンピュータとの間のLAN接続やインターネット接続や無線接続のためのインタフェースである。また、他の装置に接続され、外部装置からのデータの入出力を制御する。   A communication interface 2505 is an interface for LAN connection, Internet connection, or wireless connection with another computer as necessary. It is also connected to other devices and controls data input / output from external devices.

図25に示す入出力装置2504aであるモニタの画面上に表示されたパターン認識結果に誤認識文字があることを利用者が発見した場合、利用者が誤認識文字を正解文字に変更するために、画面上の誤認識文字をマウスなどにより選択する。そして、利用者が誤認識文字の代わりに正解文字を入力する。その際、CPU2501が、誤認識した文字に関する大分類用の軸に関するデータと、正解文字に関する大分類用の軸に関するデータと記録部2502から取得して比較し、どの軸でエラーしたかを判定する。そして、CPU2501が判定結果として、エラーした軸と分布をモニタの画面上に表示させる(図12、15のような表示)。利用者は、画面上に表示されたエラーした軸の分布領域(マージン量)をマウスなどで操作して調整をする。CPU2501は、この調整した結果を記録部2502の大分類用の平面辞書に反映させることができる。そのため、従来のように誤認識した文字を正解文字に書き換えるだけでなく、誤認識した場合でも、利用者が大分類用の平面辞書の対象の軸の分布を、視覚的に簡単に調整をすることができる。
(本実施例がコンピュータプログラムとして実現される場合の構成)
図25のようなハードウェア構成を有するコンピュータを用いることによって、上記説明した各種処理機能(実施例で説明した処理(フローチャートなど))が実現される。その場合システムが有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体2503aに記録しておくことができる。
When the user finds that there is a misrecognized character in the pattern recognition result displayed on the screen of the monitor that is the input / output device 2504a shown in FIG. 25, in order for the user to change the misrecognized character to the correct character Select the wrong recognition character on the screen with the mouse. And a user inputs a correct answer character instead of a misrecognized character. At that time, the CPU 2501 obtains from the recording unit 2502 and compares the data related to the large classification axis related to the erroneously recognized character and the data related to the large classification axis related to the correct character to determine which axis caused the error. . Then, the CPU 2501 displays the axis and distribution in error on the monitor screen as the determination result (display as shown in FIGS. 12 and 15). The user adjusts the distribution area (margin amount) of the axis in error displayed on the screen with a mouse or the like. The CPU 2501 can reflect the adjusted result in the large classification plane dictionary of the recording unit 2502. Therefore, in addition to rewriting the misrecognized character as the correct answer character as in the past, even if it is misrecognized, the user can easily adjust the distribution of the target axis of the planar dictionary for large classification visually be able to.
(Configuration when this embodiment is realized as a computer program)
By using a computer having a hardware configuration as shown in FIG. 25, the various processing functions described above (the processing (such as a flowchart) described in the embodiment) are realized. In that case, a program describing the processing contents of the functions that the system should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing content can be recorded in a computer-readable recording medium 2503a.

また、プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When distributing the program, for example, a portable recording medium such as a DVD or a CD-ROM in which the program is recorded is sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

また、本発明は、上記実施の形態に限定されるものでなく、本発明の要旨を逸脱しない範囲内で種々の改良、変更が可能である。なお、各実施例は処理に矛盾の無い限りにおいて、互いに組み合わせても構わない。   The present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the gist of the present invention. Each embodiment may be combined with each other as long as there is no contradiction in processing.

以上実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の特徴ベクトルごとに求められる参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、軸上の要素ごとに、予め設定されたマージン量とカテゴリを関連付けて生成した候補テーブルを記録する記録部と、
与えられたパターンの参照特徴ベクトルを求め、前記候補テーブルを用いて、該参照特徴ベクトルの要素ごとに分類をして候補カテゴリ集合を求め、分類した候補カテゴリ集合を出力する分類部と、
を備えることを特徴とするパターン認識装置。
(付記2)
前記パターン認識装置は、前記学習用サンプルパターンまたは前記与えられたパターンを同次元の特徴ベクトルにする特徴抽出部と、
前記特徴ベクトルを次元圧縮して前記参照特徴ベクトルにする特徴圧縮部と、
を備えることを特徴とする付記1に記載のパターン認識装置。
(付記3)
前記マージン量は、前記カテゴリに含まれる複数の元となる学習用サンプルパターンと、前記元となる学習用サンプルパターンを劣化させたパターンの各参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、前記元となる学習用サンプルパターンの前記軸上の座標位置と、前記劣化させたパターンごとの前記軸上の座標位置との差を算出して、前記元となる学習用サンプルパターンの前記軸上の座標位置を中心にして最小値方向の差の平均値と最大値方向の差の平均値であることを特徴とする付記1または2に記載のパターン認識装置。
(付記4)
前記マージン量は、前記軸を予め設定された範囲に区分けした区間を設定し、前記カテゴリに含まれる複数の元となる学習用サンプルパターンと、前記元となる学習用サンプルパターンを劣化させたパターンの各参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、前記元となる学習用サンプルパターンの前記軸上の座標位置と、前記劣化させたパターンごとの前記軸上の座標位置との差を算出して、前記元となる学習用サンプルパターンの前記軸上の座標位置を中心にして最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出し、前記元となる学習用サンプルパターンの前記軸上の座標位置が含まれる前記区間ごとに前記マージン量を対応付けることを特徴とする付記1または2に記載のパターン認識装置。
(付記5)
前記マージン量は、同一カテゴリに含まれる異なるフォントの学習用サンプルパターンの各特徴ベクトルの同じ位置の要素を、予め設定された範囲の前記同じ位置の要素に対応する軸に投影し、前記異なるフォントの学習用サンプルパターンの前記軸上の座標位置の平均値を算出し、前記フォントごとの学習用サンプルパターンの前記軸上の座標位置と前記平均値の座標位置との差を算出して、該差を前記平均値の座標位置を中心にして最小値方向の差と最大値方向の差に分け、前記カテゴリごとに同一フォントの前記最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出して、前記フォントごとに前記マージン量を対応付けることを特徴とする付記1または2に記載のパターン認識装置。
(付記6)
コンピュータに、
与えられたパターンの参照特徴ベクトルを求める処理と、
学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の特徴ベクトルごとに求められる参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、軸上の要素ごとに、予め設定されたマージン量とカテゴリを関連付けて生成した候補テーブルを用いて、該参照特徴ベクトルの要素ごとに分類をして候補カテゴリ集合を求める処理と、
分類した候補カテゴリ集合を出力する処理と、
を実行させることを特徴とするパターン認識プログラム。
(付記7)
コンピュータが、
与えられたパターンの参照特徴ベクトルを求め、
学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の特徴ベクトルごとに求められる参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、軸上の要素ごとに、予め設定されたマージン量とカテゴリを関連付けて生成した候補テーブルを用いて、該参照特徴ベクトルの要素ごとに分類をして候補カテゴリ集合を求め、
分類した候補カテゴリ集合を出力する、
ことを実行するパターン認識方法。
(付記8)
前記学習用サンプルパターンまたは前記与えられたパターンを同次元の特徴ベクトルにする処理と、
前記特徴ベクトルを次元圧縮して前記参照特徴ベクトルにする処理と、
をコンピュータに実行させることを特徴とする付記6に記載のパターン認識プログラム。
(付記9)
前記カテゴリに含まれる複数の元となる学習用サンプルパターンと、前記元となる学習用サンプルパターンを劣化させたパターンの各参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、前記元となる学習用サンプルパターンの前記軸上の座標位置と、前記劣化させたパターンごとの前記軸上の座標位置との差を算出して、前記元となる学習用サンプルパターンの前記軸上の座標位置を中心にして最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出する処理を、コンピュータに実行させることを特徴とする付記6または8に記載のパターン認識プログラム。
(付記10)
前記軸を予め設定された範囲に区分けした区間を設定し、前記カテゴリに含まれる複数の元となる学習用サンプルパターンと、前記元となる学習用サンプルパターンを劣化させたパターンの各参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、前記元となる学習用サンプルパターンの前記軸上の座標位置と、前記劣化させたパターンごとの前記軸上の座標位置との差を算出して、前記元となる学習用サンプルパターンの前記軸上の座標位置を中心にして最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出し、前記元となる学習用サンプルパターンの前記軸上の座標位置が含まれる前記区間ごとに前記マージン量を対応付けて前記記録部に記録する処理を、コンピュータに実行させることを特徴とする付記6または8に記載のパターン認識プログラム。
(付記11)
同一カテゴリに含まれる異なるフォントの学習用サンプルパターンの各特徴ベクトルの同じ位置の要素を、予め設定された範囲の前記同じ位置の要素に対応する軸に投影し、前記異なるフォントの学習用サンプルパターンの前記軸上の座標位置の平均値を算出し、前記フォントごとの学習用サンプルパターンの前記軸上の座標位置と前記平均値の座標位置との差を算出して、該差を前記平均値の座標位置を中心にして最小値方向の差と最大値方向の差に分け、前記カテゴリごとに同一フォントの前記最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出して、前記フォントごとに前記マージン量を対応付けて記録部に記録する処理を、コンピュータに実行させることを特徴とする付記6または8に記載のパターン認識プログラム。
(付記12)
前記学習用サンプルパターンまたは前記与えられたパターンを同次元の特徴ベクトルにし、
前記特徴ベクトルを次元圧縮して前記参照特徴ベクトルにする、
ことをコンピュータが実行する付記7に記載のパターン認識方法。
(付記13)
前記カテゴリに含まれる複数の元となる学習用サンプルパターンと、前記元となる学習用サンプルパターンを劣化させたパターンの各参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、前記元となる学習用サンプルパターンの前記軸上の座標位置と、前記劣化させたパターンごとの前記軸上の座標位置との差を算出して、前記元となる学習用サンプルパターンの前記軸上の座標位置を中心にして最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出する、ことをコンピュータが実行する付記7または12に記載のパターン認識方法。
(付記14)
前記軸を予め設定された範囲に区分けした区間を設定し、前記カテゴリに含まれる複数の元となる学習用サンプルパターンと、前記元となる学習用サンプルパターンを劣化させたパターンの各参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、前記元となる学習用サンプルパターンの前記軸上の座標位置と、前記劣化させたパターンごとの前記軸上の座標位置との差を算出して、前記元となる学習用サンプルパターンの前記軸上の座標位置を中心にして最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出し、前記元となる学習用サンプルパターンの前記軸上の座標位置が含まれる前記区間ごとに前記マージン量を対応付けて前記記録部に記録する、ことをコンピュータが実行する付記7または12に記載のパターン認識方法。
(付記15)
同一カテゴリに含まれる異なるフォントの学習用サンプルパターンの各特徴ベクトルの同じ位置の要素を、予め設定された範囲の前記同じ位置の要素に対応する軸に投影し、前記異なるフォントの学習用サンプルパターンの前記軸上の座標位置の平均値を算出し、前記フォントごとの学習用サンプルパターンの前記軸上の座標位置と前記平均値の座標位置との差を算出して、該差を前記平均値の座標位置を中心にして最小値方向の差と最大値方向の差に分け、前記カテゴリごとに同一フォントの前記最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出して、前記フォントごとに前記マージン量を対応付けて記録部に記録する、ことをコンピュータが実行する付記7または12に記載のパターン認識方法。
Regarding the embodiment including the above-described examples, the following additional notes are further disclosed.
(Appendix 1)
For each of a plurality of categories that classify the sample pattern for learning, the element at the same position of the reference feature vector obtained for each of the plurality of feature vectors included in the same category is projected onto the axis of the preset range, For each element, a recording unit that records a candidate table generated by associating a preset margin amount and category,
Obtaining a reference feature vector of a given pattern, using the candidate table, classifying each element of the reference feature vector to obtain a candidate category set, and outputting a classified candidate category set;
A pattern recognition apparatus comprising:
(Appendix 2)
The pattern recognition device includes a feature extraction unit that makes the learning sample pattern or the given pattern a feature vector of the same dimension;
A feature compression unit that dimensionally compresses the feature vector into the reference feature vector;
The pattern recognition apparatus according to appendix 1, further comprising:
(Appendix 3)
The margin amount is set in advance for elements at the same position in each reference feature vector of a plurality of original learning sample patterns included in the category and a pattern obtained by degrading the original learning sample pattern. Projecting on the axis of the range, calculating the difference between the coordinate position on the axis of the original learning sample pattern and the coordinate position on the axis for each deteriorated pattern, the original learning The pattern recognition apparatus according to appendix 1 or 2, wherein the average value of the difference in the minimum value direction and the average value of the difference in the maximum value direction centered on the coordinate position on the axis of the sample pattern for use.
(Appendix 4)
The margin amount sets a section obtained by dividing the axis into a predetermined range, and a plurality of original learning sample patterns included in the category and a pattern obtained by degrading the original learning sample pattern Are projected onto the axis of a preset range, the coordinate position on the axis of the original learning sample pattern, and the axis for each degraded pattern The difference between the coordinate position and the average value of the difference between the minimum value direction and the average value of the maximum value direction around the coordinate position on the axis of the original learning sample pattern is calculated as a margin amount. The pattern according to claim 1 or 2, wherein the margin amount is associated with each of the sections including the coordinate position on the axis of the original learning sample pattern. Recognition device.
(Appendix 5)
The margin amount is calculated by projecting an element at the same position of each feature vector of the sample pattern for learning of different fonts included in the same category onto an axis corresponding to the element at the same position in a preset range. Calculating the average value of the coordinate position on the axis of the learning sample pattern, calculating the difference between the coordinate position on the axis of the learning sample pattern for each font and the coordinate position of the average value, The difference is divided into a difference in the minimum value direction and a difference in the maximum value direction centered on the coordinate position of the average value, and the average value of the difference in the minimum value direction and the difference in the maximum value direction of the same font for each category. The pattern recognition apparatus according to appendix 1 or 2, wherein a value is calculated as a margin amount, and the margin amount is associated with each font.
(Appendix 6)
On the computer,
A process for obtaining a reference feature vector of a given pattern;
For each of a plurality of categories that classify the sample pattern for learning, the element at the same position of the reference feature vector obtained for each of the plurality of feature vectors included in the same category is projected onto the axis of the preset range, A process for obtaining a candidate category set by classifying each element of the reference feature vector using a candidate table generated by associating a predetermined margin amount with a category for each element;
A process of outputting the classified candidate category set;
A pattern recognition program characterized in that
(Appendix 7)
Computer
Find a reference feature vector for a given pattern,
For each of a plurality of categories that classify the sample pattern for learning, the element at the same position of the reference feature vector obtained for each of the plurality of feature vectors included in the same category is projected onto the axis of the preset range, For each element, using a candidate table generated by associating a preset margin amount and category, classifying each element of the reference feature vector to obtain a candidate category set,
Output the classified candidate category set,
A pattern recognition method that performs that.
(Appendix 8)
Processing the learning sample pattern or the given pattern into a feature vector of the same dimension;
Processing to dimensionally compress the feature vector into the reference feature vector;
The pattern recognition program according to appendix 6, which causes a computer to execute
(Appendix 9)
Projecting an element at the same position of each reference feature vector of a plurality of original learning sample patterns included in the category and a pattern obtained by degrading the original learning sample pattern onto an axis in a preset range And calculating the difference between the coordinate position on the axis of the original learning sample pattern and the coordinate position on the axis for each deteriorated pattern, and Appendix 6 or 8 that causes a computer to execute a process of calculating an average value of a difference in a minimum value direction and an average value of a difference in a maximum value direction as a margin amount around a coordinate position on an axis Pattern recognition program.
(Appendix 10)
A section obtained by dividing the axis into predetermined ranges is set, and each reference feature vector of a plurality of original learning sample patterns included in the category and a pattern obtained by degrading the original learning sample pattern Are projected onto an axis in a preset range, and the coordinate position on the axis of the original learning sample pattern and the coordinate position on the axis for each deteriorated pattern Calculating the difference, calculating the average value of the difference in the minimum value direction and the average value of the difference in the maximum value direction as a margin amount around the coordinate position on the axis of the original learning sample pattern, Causing the computer to execute a process of associating and recording the margin amount for each section including the coordinate position on the axis of the original learning sample pattern. Pattern recognition program according to Appendix 6 or 8.
(Appendix 11)
Projecting an element at the same position of each feature vector of a sample pattern for learning of different fonts included in the same category onto an axis corresponding to the element at the same position of a preset range, and learning sample patterns of the different fonts The average value of the coordinate position on the axis is calculated, the difference between the coordinate position on the axis of the learning sample pattern for each font and the coordinate position of the average value is calculated, and the difference is calculated as the average value. The difference between the minimum value direction and the maximum value direction is centered on the coordinate position, and the average value of the difference between the minimum value direction and the average value of the maximum value direction of the same font for each category is used as a margin amount. 9. The pattern recognition program according to appendix 6 or 8, wherein the computer executes a process of calculating and associating the margin amount for each font and recording it in a recording unit. Grams.
(Appendix 12)
Making the learning sample pattern or the given pattern a feature vector of the same dimension;
Dimensionally compressing the feature vector into the reference feature vector;
The pattern recognition method according to appendix 7, wherein the computer executes this.
(Appendix 13)
Projecting an element at the same position of each reference feature vector of a plurality of original learning sample patterns included in the category and a pattern obtained by degrading the original learning sample pattern onto an axis in a preset range And calculating the difference between the coordinate position on the axis of the original learning sample pattern and the coordinate position on the axis for each deteriorated pattern, and The pattern recognition method according to appendix 7 or 12, wherein the computer executes to calculate the average value of the difference in the minimum value direction and the average value of the difference in the maximum value direction as a margin amount centering on the coordinate position on the axis.
(Appendix 14)
A section obtained by dividing the axis into predetermined ranges is set, and each reference feature vector of a plurality of original learning sample patterns included in the category and a pattern obtained by degrading the original learning sample pattern Are projected onto an axis in a preset range, and the coordinate position on the axis of the original learning sample pattern and the coordinate position on the axis for each deteriorated pattern Calculating the difference, calculating the average value of the difference in the minimum value direction and the average value of the difference in the maximum value direction as a margin amount around the coordinate position on the axis of the original learning sample pattern, (7) The computer executes that the margin amount is associated with each section including the coordinate position on the axis of the original learning sample pattern and recorded in the recording unit. Pattern recognition method according to 2.
(Appendix 15)
Projecting an element at the same position of each feature vector of a sample pattern for learning of different fonts included in the same category onto an axis corresponding to the element at the same position of a preset range, and learning sample patterns of the different fonts The average value of the coordinate position on the axis is calculated, the difference between the coordinate position on the axis of the learning sample pattern for each font and the coordinate position of the average value is calculated, and the difference is calculated as the average value. The difference between the minimum value direction and the maximum value direction is centered on the coordinate position, and the average value of the difference between the minimum value direction and the average value of the maximum value direction of the same font for each category is used as a margin amount. The pattern recognition method according to appendix 7 or 12, wherein the computer executes calculation and records the margin amount in association with each font in the recording unit.

1、1601 パターン認識装置
2 特徴抽出部
3 大分類部
4 詳細分類部
5 テーブル作成部
6 マージン決定部
7 記録部
1602 特徴圧縮部
2500 ハードウェア
2501 CPU
2502 記録部
2503 記録媒体読取装置
2503a 記録媒体
2504 入出力インタフェース
2504a 入出力装置
2505 通信インタフェース
2506 バス
DESCRIPTION OF SYMBOLS 1,1601 Pattern recognition apparatus 2 Feature extraction part 3 Large classification | category part 4 Detailed classification | category part 5 Table preparation part 6 Margin determination part 7 Recording part 1602 Feature compression part 2500 Hardware 2501 CPU
2502 Recording unit 2503 Recording medium reader 2503a Recording medium 2504 Input / output interface 2504a Input / output device 2505 Communication interface 2506 Bus

Claims (7)

与えられたパターンを分類する際に用いるパターンである学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の前記学習用サンプルパターンの特徴ベクトルごとに参照特徴ベクトルを求め、求めた前記参照特徴ベクトルの素を、予め設定された範囲で表されるの対応する座標位置に投影し、前記要素ごとに投影した前記軸上の前記要素の座標位置と、予め設定されたマージン量と、前記カテゴリと、を関連付けて補テーブルを生成して記録する記録部と、
前記与えられたパターンの参照特徴ベクトルを求め、前記候補テーブルを用いて、該参照特徴ベクトルの要素ごとに分類をして候補カテゴリ集合を求め、分類した前記候補カテゴリ集合を出力する分類部と、
を備えることを特徴とするパターン認識装置。
For each of a plurality of categories of classification of learning sample pattern is a pattern used in classifying a given pattern, determine the reference feature vector for each feature vector of the plurality of the learning samples pattern included in the same category, determined and the elements of the reference feature vectors by projecting the corresponding coordinate position of the axis represented by the predetermined range, the coordinate position of the element on the shaft which is projected on each of the elements, which is set in advance and margin amount, a recording unit for recording by generating a candidate table in association with, and the category,
Obtains a reference feature vector of said given pattern, using the candidate table, a classification unit which obtains a candidate category set by the classification for each element of the reference feature vectors, and outputs the candidate category set classified,
A pattern recognition apparatus comprising:
前記パターン認識装置は、前記学習用サンプルパターンまたは前記与えられたパターンを同次元の特徴ベクトルにする特徴抽出部と、
前記特徴ベクトルを次元圧縮して前記参照特徴ベクトルにする特徴圧縮部と、
を備えることを特徴とする請求項1に記載のパターン認識装置。
The pattern recognition device includes a feature extraction unit that makes the learning sample pattern or the given pattern a feature vector of the same dimension;
A feature compression unit that dimensionally compresses the feature vector into the reference feature vector;
The pattern recognition apparatus according to claim 1, further comprising:
前記マージン量は、前記カテゴリに含まれる複数の元となる学習用サンプルパターンと、前記元となる学習用サンプルパターンを劣化させたパターンの各参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、前記元となる学習用サンプルパターンの前記軸上の座標位置と、前記劣化させたパターンごとの前記軸上の座標位置との差を算出して、前記元となる学習用サンプルパターンの前記軸上の座標位置を中心にして最小値方向の差の平均値と最大値方向の差の平均値であることを特徴とする請求項1または2に記載のパターン認識装置。   The margin amount is set in advance for elements at the same position in each reference feature vector of a plurality of original learning sample patterns included in the category and a pattern obtained by degrading the original learning sample pattern. Projecting on the axis of the range, calculating the difference between the coordinate position on the axis of the original learning sample pattern and the coordinate position on the axis for each deteriorated pattern, the original learning The pattern recognition apparatus according to claim 1, wherein an average value of a difference in a minimum value direction and an average value of a difference in a maximum value direction are centered on a coordinate position on the axis of the sample pattern for use. 前記マージン量は、前記軸を予め設定された範囲に区分けした区間を設定し、前記カテゴリに含まれる複数の元となる学習用サンプルパターンと、前記元となる学習用サンプルパターンを劣化させたパターンの各参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、前記元となる学習用サンプルパターンの前記軸上の座標位置と、前記劣化させたパターンごとの前記軸上の座標位置との差を算出して、前記元となる学習用サンプルパターンの前記軸上の座標位置を中心にして最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出し、前記元となる学習用サンプルパターンの前記軸上の座標位置が含まれる前記区間ごとに前記マージン量を対応付けることを特徴とする請求項1または2に記載のパターン認識装置。   The margin amount sets a section obtained by dividing the axis into a predetermined range, and a plurality of original learning sample patterns included in the category and a pattern obtained by degrading the original learning sample pattern Are projected onto the axis of a preset range, the coordinate position on the axis of the original learning sample pattern, and the axis for each degraded pattern The difference between the coordinate position and the average value of the difference between the minimum value direction and the average value of the maximum value direction around the coordinate position on the axis of the original learning sample pattern is calculated as a margin amount. The pattern according to claim 1, wherein the margin amount is associated with each section including the coordinate position on the axis of the original learning sample pattern. Emissions recognition device. 前記マージン量は、同一カテゴリに含まれる異なるフォントの学習用サンプルパターンの各特徴ベクトルの同じ位置の要素を、予め設定された範囲の前記同じ位置の要素に対応する軸に投影し、前記異なるフォントの学習用サンプルパターンの前記軸上の座標位置の平均値を算出し、前記フォントごとの学習用サンプルパターンの前記軸上の座標位置と前記平均値の座標位置との差を算出して、該差を前記平均値の座標位置を中心にして最小値方向の差と最大値方向の差に分け、前記カテゴリごとに同一フォントの前記最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出して、前記フォントごとに前記マージン量を対応付けることを特徴とする請求項1または2に記載のパターン認識装置。   The margin amount is calculated by projecting an element at the same position of each feature vector of the sample pattern for learning of different fonts included in the same category onto an axis corresponding to the element at the same position in a preset range. Calculating the average value of the coordinate position on the axis of the learning sample pattern, calculating the difference between the coordinate position on the axis of the learning sample pattern for each font and the coordinate position of the average value, The difference is divided into a difference in the minimum value direction and a difference in the maximum value direction centered on the coordinate position of the average value, and the average value of the difference in the minimum value direction and the difference in the maximum value direction of the same font for each category. The pattern recognition apparatus according to claim 1, wherein a value is calculated as a margin amount, and the margin amount is associated with each font. コンピュータに、
与えられたパターンを分類する際に用いるパターンである学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の前記学習用サンプルパターンの特徴ベクトルごとに参照特徴ベクトルを求める処理と、
前記学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の前記学習用サンプルパターンの特徴ベクトルごとに参照特徴ベクトルを求め、求めた前記参照特徴ベクトルの素を、予め設定された範囲で表されるの対応する座標位置に投影し、前記要素ごとに投影した前記軸上の前記要素の座標位置と、予め設定されたマージン量と、前記カテゴリと、を関連付けて生成した候補テーブルを用いて、該参照特徴ベクトルの要素ごとに分類をして候補カテゴリ集合を求める処理と、
分類した前記候補カテゴリ集合を出力する処理と、
を実行させることを特徴とするパターン認識プログラム。
On the computer,
A process for obtaining a reference feature vector for each feature vector of the plurality of learning sample patterns included in the same category, for each of a plurality of categories that classify the learning sample pattern that is a pattern used when classifying a given pattern; ,
For each of a plurality of categories of classification of the learning sample pattern, obtains a reference feature vector for each feature vector of the plurality of the learning samples pattern included in the same category, the elements of the reference feature vectors obtained, preset is projected onto the corresponding coordinate position of the axis represented by the range, generated in association with the coordinate position of the element on the shaft which is projected on each of the elements, a preset margin amount, and the categories, the Using the candidate table, classifying each element of the reference feature vector and obtaining a candidate category set;
And outputting the candidate category set that was classified,
A pattern recognition program characterized in that
コンピュータが、
与えられたパターンを分類する際に用いるパターンである学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の前記学習用サンプルパターンの特徴ベクトルごとに参照特徴ベクトルを求め、
前記学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の前記学習用サンプルパターンの特徴ベクトルごとに参照特徴ベクトルを求め、求めた前記参照特徴ベクトルの素を、予め設定された範囲で表されるの対応する座標位置に投影し、前記要素ごとに投影した前記軸上の前記要素の座標位置と、予め設定されたマージン量と、前記カテゴリと、を関連付けて生成した候補テーブルを用いて、該参照特徴ベクトルの要素ごとに分類をして候補カテゴリ集合を求め、
分類した前記候補カテゴリ集合を出力する、
ことを実行するパターン認識方法。
Computer
For each of a plurality of categories that classify a learning sample pattern that is a pattern used when classifying a given pattern, a reference feature vector is obtained for each feature vector of the plurality of learning sample patterns included in the same category ,
For each of a plurality of categories of classification of the learning sample pattern, obtains a reference feature vector for each feature vector of the plurality of the learning samples pattern included in the same category, the elements of the reference feature vectors obtained, preset is projected onto the corresponding coordinate position of the axis represented by the range, generated in association with the coordinate position of the element on the shaft which is projected on each of the elements, a preset margin amount, and the categories, the Using the candidate table, a classification is made for each element of the reference feature vector to obtain a candidate category set,
To output the candidate category set that was classified,
A pattern recognition method that performs that.
JP2009253738A 2009-11-05 2009-11-05 Pattern recognition apparatus, pattern recognition program, and pattern recognition method Expired - Fee Related JP5521497B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009253738A JP5521497B2 (en) 2009-11-05 2009-11-05 Pattern recognition apparatus, pattern recognition program, and pattern recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009253738A JP5521497B2 (en) 2009-11-05 2009-11-05 Pattern recognition apparatus, pattern recognition program, and pattern recognition method

Publications (2)

Publication Number Publication Date
JP2011100245A JP2011100245A (en) 2011-05-19
JP5521497B2 true JP5521497B2 (en) 2014-06-11

Family

ID=44191377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009253738A Expired - Fee Related JP5521497B2 (en) 2009-11-05 2009-11-05 Pattern recognition apparatus, pattern recognition program, and pattern recognition method

Country Status (1)

Country Link
JP (1) JP5521497B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6102156B2 (en) 2012-09-28 2017-03-29 オムロン株式会社 Image processing system and image processing method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0546812A (en) * 1991-08-20 1993-02-26 Ricoh Co Ltd Large classification recognizing method for charactor
JP3943223B2 (en) * 1997-02-12 2007-07-11 富士通株式会社 Pattern recognition apparatus and method for performing classification using candidate table
JP3475886B2 (en) * 1999-12-24 2003-12-10 日本電気株式会社 Pattern recognition apparatus and method, and recording medium
JP4199954B2 (en) * 2002-03-29 2008-12-24 株式会社日本デジタル研究所 Character recognition dictionary creation method and character recognition method
JP2004341959A (en) * 2003-05-16 2004-12-02 Just Syst Corp Data classification device, data classification method, and program for making computer execute the method
JP2005339075A (en) * 2004-05-26 2005-12-08 Nippon Telegr & Teleph Corp <Ntt> Image searching device, image searching method, program for the method, and recording medium recorded with the program
JP4992646B2 (en) * 2007-10-05 2012-08-08 セイコーエプソン株式会社 Identification method and program
JP5259456B2 (en) * 2009-03-02 2013-08-07 株式会社東芝 Learning device and object detection device

Also Published As

Publication number Publication date
JP2011100245A (en) 2011-05-19

Similar Documents

Publication Publication Date Title
US10726252B2 (en) Method of digitizing and extracting meaning from graphic objects
Paiva et al. An approach to supporting incremental visual data classification
CN103914504B (en) Information processor and the method for generating chart
CN111373392B (en) Document sorting device
US20210366055A1 (en) Systems and methods for generating accurate transaction data and manipulation
CN108734212B (en) Method for determining classification result and related device
US20230336532A1 (en) Privacy Preserving Document Analysis
JP2013246731A (en) Handwritten character retrieval apparatus, method, and program
JP2013246732A (en) Handwritten character retrieval apparatus, method and program
Dommaraju et al. Identifying topological prototypes using deep point cloud autoencoder networks
JP2015069256A (en) Character identification system
JP6680956B1 (en) Search needs evaluation device, search needs evaluation system, and search needs evaluation method
CN115146062A (en) Intelligent event analysis method and system fusing expert recommendation and text clustering
AU2015204339B2 (en) Information processing apparatus and information processing program
WO2015087148A1 (en) Classifying test data based on a maximum margin classifier
JP6856916B1 (en) Information processing equipment, information processing methods and information processing programs
JP5521497B2 (en) Pattern recognition apparatus, pattern recognition program, and pattern recognition method
KR102392644B1 (en) Apparatus and method for classifying documents based on similarity
Sun et al. Attention-based deep learning methods for document layout analysis
US8606494B2 (en) Map generation apparatus, map generation method and computer readable medium
Husain et al. Single-cell subcellular protein localisation using novel ensembles of diverse deep architectures
JP3529036B2 (en) Classification method of images with documents
CN111144114B (en) Text recognition method and device
JP2020109689A (en) Retrieval need evaluation device, retrieval need evaluation system, and retrieval need evaluation method
Zhang et al. A probabilistic analysis of sparse coded feature pooling and its application for image retrieval

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140324

R150 Certificate of patent or registration of utility model

Ref document number: 5521497

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees