JP5521497B2 - Pattern recognition apparatus, pattern recognition program, and pattern recognition method - Google Patents
Pattern recognition apparatus, pattern recognition program, and pattern recognition method Download PDFInfo
- Publication number
- JP5521497B2 JP5521497B2 JP2009253738A JP2009253738A JP5521497B2 JP 5521497 B2 JP5521497 B2 JP 5521497B2 JP 2009253738 A JP2009253738 A JP 2009253738A JP 2009253738 A JP2009253738 A JP 2009253738A JP 5521497 B2 JP5521497 B2 JP 5521497B2
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- feature vector
- axis
- category
- coordinate position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Character Discrimination (AREA)
Description
本発明は、入力画像のパターン認識を実行するパターン認識装置、パターン認識プログラム、パターン認識方法に関する。 The present invention relates to a pattern recognition apparatus, a pattern recognition program, and a pattern recognition method for executing pattern recognition of an input image.
近年、文書を画像で保存することを許可するe文書法(電子文書法:法令番号平成16年法律第149号、平成16年法律第150号)が施行され、文書画像の検索ニーズが高まるなど、パターン認識技術は様々な分野で使用されている。 In recent years, the e-Document Law (Electronic Document Law: Law No. 149, Law No. 149, Law No. 150, 2004) that allows documents to be stored as images has been enforced, and search needs for document images have increased. Pattern recognition technology is used in various fields.
文書画像におけるパターン認識処理は、文書画像からテキスト領域を求めるレイアウト解析処理と、抽出したテキスト領域を対象に文字画像を文字コードに変換する文字認識処理に分けることができる。また、文書画像のパターン認識にかかる処理時間を計測すると、文字認識処理がレイアウト解析処理より処理時間を要することが知られている。そこで、パターン認識処理にかかる時間を削減して、パターン認識処理を高速化するための提案がされている。 Pattern recognition processing for a document image can be divided into layout analysis processing for obtaining a text region from the document image and character recognition processing for converting a character image into a character code for the extracted text region. Further, it is known that when the processing time required for the pattern recognition of the document image is measured, the character recognition processing requires more processing time than the layout analysis processing. Thus, proposals have been made to reduce the time required for pattern recognition processing and to speed up pattern recognition processing.
例えば、文字認識処理部分を高速化する方法として、文字認識精度(文字認識の正解率)を犠牲にする簡便な処理が提案されている。しかし、蓄積した文書の検索や、再利用などの実用性を考えた場合、文字認識精度を低下させることは好ましくない。そのため、文字認識精度を高精度に保ったまま高速に文字認識処理を行うことが求められている。 For example, as a method for speeding up the character recognition processing part, a simple process that sacrifices character recognition accuracy (character recognition accuracy rate) has been proposed. However, it is not preferable to reduce the character recognition accuracy in consideration of practicality such as retrieval and reuse of stored documents. Therefore, it is required to perform character recognition processing at high speed while maintaining high character recognition accuracy.
そこで、次のような文字認識処理に関する技術が提案されている。まず、パターン認識装置に、対象の文字コード(JIS第1水準の漢字、JIS第2水準の漢字、ひらがな、カタカナ、記号、縦書き専用文字、英字、数字、半角文字などに対応するコード)に対応する複数の文字画像(学習用サンプルパターン)を収集する。そして、パターン認識装置は、収集した各文字画像を特徴ベクトルに変換し、文字コードごとに平均ベクトルを作成し、文字コードと平均ベクトルをペアにして記録部に記録し、辞書を生成する。他の文字コードについても同じことを行い、複数の文字コードと文字コードに対応する特徴ベクトルの情報を記録部に記録する。 Therefore, the following technologies relating to character recognition processing have been proposed. First, the target character code (corresponding to JIS 1st level kanji, JIS 2nd level kanji, hiragana, katakana, symbols, vertical writing characters, English letters, numbers, half-width characters, etc.) Collect a plurality of corresponding character images (learning sample patterns). The pattern recognition apparatus converts each collected character image into a feature vector, creates an average vector for each character code, records the character code and the average vector as a pair in a recording unit, and generates a dictionary. The same is done for the other character codes, and a plurality of character codes and feature vector information corresponding to the character codes are recorded in the recording unit.
ここで、パターン認識においてよく用いられる用語を、簡単に定義しておく。認識対象のことをパターンと呼び、すべてのパターンの作る集合のことをパターン空間と呼ぶ。
パターンを特徴抽出することにより得られる1つ以上の特徴量の組を特徴ベクトルと呼び、特徴ベクトルの要素の数を特徴ベクトルの次元と呼ぶ。特徴ベクトルのそれぞれの要素の値(特徴量)の組を特徴ベクトルの値と呼び、すべての特徴ベクトルの値の作る集合のことを特徴空間と呼ぶ。特徴空間の次元は、特徴空間の要素である特徴ベクトルの次元と等しい。同一種類とみなすことのできるパターンあるいは特徴ベクトルの集合をカテゴリと呼ぶ。特に、同一種類とみなすことのできるパターンの集合を、カテゴリパターン集合、同一種類とみなすことのできる特徴ベクトルの集合を、カテゴリ特徴集合と呼ぶ。
Here, terms frequently used in pattern recognition are simply defined. A recognition target is called a pattern, and a set made up of all patterns is called a pattern space.
A set of one or more feature amounts obtained by extracting features from a pattern is called a feature vector, and the number of elements of the feature vector is called a feature vector dimension. A set of values (feature quantities) of each element of the feature vector is called a feature vector value, and a set formed by all the feature vector values is called a feature space. The dimension of the feature space is equal to the dimension of the feature vector that is an element of the feature space. A set of patterns or feature vectors that can be regarded as the same type is called a category. In particular, a set of patterns that can be regarded as the same type is referred to as a category pattern set, and a set of feature vectors that can be regarded as the same type is referred to as a category feature set.
パターン認識装置などに入力される未知のパターンあるいは未知のパターンから求められた特徴ベクトルが、どのカテゴリ(カテゴリパターン集合あるいはカテゴリ特徴集合)に属するのかを決定することを、パターン認識と呼ぶ。特に、入力されたパターンあるいは特徴ベクトルが、カテゴリ集合中のあるカテゴリに属する可能性があると推定される場合、そのカテゴリ集合のことを候補カテゴリ集合と呼ぶ。 Determining to which category (category pattern set or category feature set) an unknown pattern input from a pattern recognition apparatus or the like or a feature vector obtained from the unknown pattern belongs is called pattern recognition. In particular, when it is estimated that the input pattern or feature vector may belong to a certain category in the category set, the category set is called a candidate category set.
文字認識処理を行う際、未知の文字画像が入力されると、入力された文字画像から特徴ベクトルを生成し、辞書(メモリなど)に保持されている複数の特徴ベクトルとの間でマッチングを行う。マッチングは未知文字の特徴ベクトルと、辞書の特徴ベクトル間の距離計算(マッチング処理)で行う。この結果、辞書の中の文字コード数分の距離値が得られ、その中で、最小の距離値となる文字コードを未知文字の認識結果として出力する。 When performing character recognition processing, if an unknown character image is input, a feature vector is generated from the input character image, and matching is performed with a plurality of feature vectors held in a dictionary (such as a memory). . Matching is performed by calculating the distance between the feature vector of the unknown character and the feature vector of the dictionary (matching process). As a result, distance values corresponding to the number of character codes in the dictionary are obtained, and among them, the character code having the minimum distance value is output as the recognition result of the unknown character.
しかし、上記説明した文字認識処理において、未知文字の特徴ベクトルと辞書内の全ての文字コードの特徴ベクトルとの間のマッチング処理には、多くの処理時間を費やしている。また、日本語などの文字コードの種類が多い言語では、さらにマッチング処理時間が長くなる。 However, in the character recognition processing described above, much processing time is spent on matching processing between feature vectors of unknown characters and feature vectors of all character codes in the dictionary. Further, in a language with many types of character codes such as Japanese, the matching processing time is further increased.
そこで、マッチング処理の高速化のために、大分類、詳細分類の2段階処理が使われる。大分類とは、辞書の中の特徴ベクトルの集合から、認識対象である入力文字画像から生成した特徴ベクトルに近い特徴ベクトルを抽出し、詳細分類をする際の対象を絞り込む処理である。絞り込んだ文字コードだけを対象として詳細分類をすると、従来のマッチング処理時間を大幅に削減することが可能になる。 Therefore, in order to speed up the matching process, a two-stage process of large classification and detailed classification is used. The large classification is a process of extracting a feature vector close to a feature vector generated from an input character image that is a recognition target from a set of feature vectors in the dictionary and narrowing down a target when performing detailed classification. If the detailed classification is performed only for the narrowed-down character codes, the conventional matching processing time can be greatly reduced.
大分類で用いる辞書の生成は、例えば、図1に示すように1つの字種(カテゴリ)またはテンプレート(1つのカテゴリを複数のグループに分割したときの1つのグループ)に所属する文字画像の集合を求める。次に、その集合を全てn次元(n:1以上整数)の特徴ベクトルに変換し、1つのカテゴリの学習用サンプルパターンの特徴ベクトル集合を作る。次に、n個の軸(特徴ベクトルを構成する要素に対応する軸)の中の1つの軸に注目して、この軸上の1つのカテゴリの学習用サンプルパターンの特徴ベクトル集合を全て投影すると、軸上でこのカテゴリに属する要素の値の範囲が求まる。ここで、図1において投影する軸の範囲Aは、すべての特徴ベクトルを構成する要素を示す特徴量を、量子化して、−127〜128(256ビット)の範囲Aとしている。次に、この軸上の範囲Aにおける最小値min、最大値maxを求め、予め決めておいたマージン値marginを用いて該軸の上の最小値・最大値で表される範囲Bを、拡大して範囲Cにする。この拡大した2つの値(min−margin、max+margin)の間にこのカテゴリが存在すると仮定する。そして、n次元のn個のすべての軸に対して、上記説明した拡大した範囲Cを算出して、範囲Cを記憶部に記録することにより、1つの字種に対する辞書が生成される。他の字種についても上記同様に辞書を生成して全てのカテゴリまたはテンプレートに対する辞書を生成する。以後上記のように生成した辞書を平面辞書と呼ぶ。 For example, as shown in FIG. 1, a dictionary used in the large classification is generated by collecting character images belonging to one character type (category) or template (one group when one category is divided into a plurality of groups). Ask for. Next, all the sets are converted into n-dimensional (n: 1 or more integer) feature vectors to create a feature vector set of learning sample patterns of one category. Next, paying attention to one axis among n axes (axis corresponding to elements constituting the feature vector), projecting all the feature vector sets of the learning sample pattern of one category on this axis. The range of values of elements belonging to this category is obtained on the axis. Here, the range A of the axis to be projected in FIG. 1 is a range A of −127 to 128 (256 bits) by quantizing the feature quantities indicating the elements constituting all the feature vectors. Next, the minimum value min and the maximum value max in the range A on the axis are obtained, and the range B represented by the minimum value and the maximum value on the axis is expanded using a predetermined margin value margin. To range C. Assume that this category exists between the two expanded values (min-margin, max + margin). Then, the above-described enlarged range C is calculated for all n dimensions in the n dimension, and the range C is recorded in the storage unit, thereby generating a dictionary for one character type. For other character types, dictionaries are generated in the same manner as described above to generate dictionaries for all categories or templates. Hereinafter, the dictionary generated as described above is referred to as a planar dictionary.
平面辞書は、図2に示すような配列状の平面で表すことができる。図2の例では、横が各軸の分布を−127から128数値範囲(256ビット)で示されており、縦がカテゴリ数で示されている平面である。カテゴリには、カテゴリごとに識別番号(1、2、3・・・)が割り振られている。また、図2はn次元空間における、3種類のカテゴリの拡大した範囲Cについて示した例である。丸(A1、A2)はカテゴリ1、三角(A3、A4)がカテゴリ2、四角(A5、A6)はカテゴリ3を示している。
The plane dictionary can be represented by an array plane as shown in FIG. In the example of FIG. 2, the horizontal is a plane in which the distribution of each axis is shown in the range of −127 to 128 numerical values (256 bits), and the vertical is the number of categories. An identification number (1, 2, 3,...) Is assigned to each category for each category. FIG. 2 is an example showing an expanded range C of three types of categories in the n-dimensional space. Circles (A1, A2) indicate
A1、A2のテンプレートに注目すると、A1からおろした座標位置が最小値minの値になり、A2からおろした座標位置が最大値maxの値となる。図2ではマージン値marginをMと示している。最小値min、最大値maxの座標位置からこのマージン値Mだけ左右にずらした座標位置がカテゴリ1の拡大した範囲となる。この範囲を平面辞書に記録するために、カテゴリ1の−127から128の256ビット中の対象の範囲にビット「1」を設定し、それ以外の範囲にビット「0」を設定して平面辞書に記録する。他のカテゴリについても同様に処理を行い、平面辞書を完成させる。
When attention is paid to the templates A1 and A2, the coordinate position lowered from A1 becomes the minimum value min, and the coordinate position lowered from A2 becomes the maximum value max. In FIG. 2, the margin value margin is indicated as M. The coordinate position shifted to the left and right by the margin value M from the coordinate position of the minimum value min and maximum value max is the expanded range of
なお、大分類の処理は、パターン認識処理の時には、未知文字画像を先ずn次元特徴ベクトルに変換して各軸へ投影する。次に、未知文字画像に対するn個の各軸の座標位置と平面辞書に保持されている軸上の座標位置を参照し、同じ座標位置にビット「1」があるか否かを判定して、未知文字画像に近いカテゴリを求める。他の軸においても同様の処理を行い、全ての軸で存在するカテゴリを求めて、カテゴリを絞り込み大分類結果(候補カテゴリ集合)とする。 In the large classification process, in the pattern recognition process, the unknown character image is first converted into an n-dimensional feature vector and projected onto each axis. Next, referring to the coordinate position of each of the n axes with respect to the unknown character image and the coordinate position on the axis held in the plane dictionary, it is determined whether or not there is a bit “1” at the same coordinate position, A category close to an unknown character image is obtained. The same processing is performed for the other axes, and categories existing in all axes are obtained, and the categories are narrowed down to obtain a large classification result (candidate category set).
しかしながら、上記方法では1つのカテゴリまたはテンプレートの軸上の学習用サンプルパターンの特徴ベクトルの特徴量に対応する分布を最小値、最大値で表現している。そのため、1つのカテゴリまたはテンプレートの軸上に特徴量が存在しない箇所にも、特徴量があるかのように平面辞書に記録してしまう。そのため、本来大分類処理において詳細分類の対象から外すべきテンプレートが、大分類の結果に含まれてしまい、パターン認識時の絞り込み能力が低下し、高精度な大分類ができない。拡大した範囲Cを用い作成した場合、図3に示すようなことが起こる。図3は2次元の特徴空間を示している。また、図3は拡大した範囲Cを用い作成した字種「A」「B」「C」の辞書に記録されている分布範囲(「A」の分布範囲Aa、「B」の分布範囲Ba、「C」の分布範囲Ca)と実際の分布範囲(「A」の範囲Ar、「B」の範囲Br、「C」の範囲Cr)の関係を示している。図3において、未知文字「X」が入力されたときに、未知文字「X」は実際には「C」のカテゴリに絞り込まれなければならないが、図3において文字「A」のカテゴリにも未知文字「X」は属している。そのため、実際には未知文字「X」はAの分布には近くないが、「X」に近いカテゴリ候補として文字「C」と文字「A」のカテゴリが選択されてしまう。 However, in the above method, the distribution corresponding to the feature amount of the feature vector of the learning sample pattern on the axis of one category or template is expressed by the minimum value and the maximum value. For this reason, even if a feature amount does not exist on the axis of one category or template, it is recorded in the planar dictionary as if there is a feature amount. Therefore, a template that should be excluded from the target of detailed classification in the large classification process is included in the result of the large classification, the narrowing-down ability at the time of pattern recognition is reduced, and high-precision large classification cannot be performed. When it is created using the enlarged range C, the situation shown in FIG. 3 occurs. FIG. 3 shows a two-dimensional feature space. Also, FIG. 3 shows distribution ranges (distribution range Aa of “A”, distribution range Ba of “B”, recorded in the dictionary of character types “A”, “B”, and “C” created using the expanded range C. The relationship between the distribution range Ca of “C” and the actual distribution range (range Ar of “A”, range Br of “B”, range Cr of “C”) is shown. In FIG. 3, when the unknown character “X” is input, the unknown character “X” actually has to be narrowed down to the category “C”, but in FIG. The letter “X” belongs. Therefore, the unknown character “X” is not actually close to the distribution of A, but the categories of the characters “C” and “A” are selected as category candidates close to “X”.
そこで、本発明はパターン認識を高精度に行うパターン認識装置、パターン認識プログラム、パターン認識方法を提供することを目的とする。 Accordingly, an object of the present invention is to provide a pattern recognition apparatus, a pattern recognition program, and a pattern recognition method that perform pattern recognition with high accuracy.
実施態様のひとつであるパターン認識装置は、記録部、分類部を備えている。記録部は候補テーブルを有している。候補テーブルは、学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の特徴ベクトルごとに求められる参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、軸上の要素ごとに、予め設定されたマージン量とカテゴリを関連付けて生成したものである。 A pattern recognition apparatus which is one embodiment includes a recording unit and a classification unit. The recording unit has a candidate table. The candidate table projects, for each of a plurality of categories that classify the sample pattern for learning, an element at the same position of a reference feature vector obtained for each of a plurality of feature vectors included in the same category on an axis in a preset range. Each of the elements on the axis is generated by associating a preset margin amount with a category.
分類部は、与えられたパターンの参照特徴ベクトルを求め、前記候補テーブルを用いて、該参照特徴ベクトルの要素ごとに分類をして候補カテゴリ集合を求め、分類した候補カテゴリ集合を出力する。 The classification unit obtains a reference feature vector of a given pattern, classifies each element of the reference feature vector by using the candidate table, obtains a candidate category set, and outputs the classified candidate category set.
開示のパターン認識に関する実施例は、パターン認識精度を高精度に行うという効果を奏する。 The disclosed embodiment relating to pattern recognition has the effect of performing pattern recognition accuracy with high accuracy.
以下図面に基づいて、本発明の実施形態について詳細に説明する。
(実施例1)
実施例1におけるパターン認識装置は、記録部、分類部(大分類部)を備えている。記録部は候補テーブルを有している。候補テーブルは次のように生成される。学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の特徴ベクトルごとに求められる参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影する。そして、軸上の要素ごとに、予め設定されたマージン量とカテゴリを関連付けて生成したものである。なお、参照特徴ベクトルは、特徴ベクトルから計算される特徴ベクトルである。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Example 1
The pattern recognition apparatus according to the first embodiment includes a recording unit and a classification unit (large classification unit). The recording unit has a candidate table. The candidate table is generated as follows. For each of a plurality of categories that classify the sample pattern for learning, an element at the same position of a reference feature vector obtained for each of a plurality of feature vectors included in the same category is projected onto an axis in a preset range. Then, for each element on the axis, a predetermined margin amount and a category are generated in association with each other. The reference feature vector is a feature vector calculated from the feature vector.
分類部(大分類部)は、与えられたパターンの参照特徴ベクトルを求め、候補テーブルを用いて、該参照特徴ベクトルの要素ごとに分類をして候補カテゴリ集合を求め、分類した候補カテゴリ集合を出力する。 A classification unit (major classification unit) obtains a reference feature vector of a given pattern, classifies each element of the reference feature vector using a candidate table, obtains a candidate category set, Output.
図4は、パターン認識装置における一実施例の構成示す図である。図4に示すパターン認識装置1は、特徴抽出部2、大分類部3(分類部)、詳細分類部4、テーブル作成部5、記録部7を備えている。
FIG. 4 is a diagram showing the configuration of an embodiment of the pattern recognition apparatus. The
特徴抽出部2は、周辺空白領域を含めたパターンを取得して、該パターンを拡大縮小により正規化画像にする。次に、特徴抽出部2は、正規化された文字パターンからパターンの特徴量を抽出し、抽出した特徴量を並べて、特徴ベクトルを生成する。例えば、文字画像をパターンとして取得した場合、特徴抽出部2は、入力された文字画像の特徴量(x1〜xn)を並べて、特徴ベクトルを生成する(式1)。式1のnは1以上の整数である。
X=(x1,x2,x3,x4,・・・xn) 式1
The
X = (x1, x2, x3, x4,... Xn)
図5に可変分割輪郭方向特徴抽出を用いた場合の例を示す。特徴抽出部2が、文字画像「A」を取得して、文字画像を縦48×横48の正規化画像にして、文字領域を輪郭点数が一定になるように可変分割した領域における輪郭方向量を、可変分割輪郭方向特徴として抽出する。正規化した画像の分割数を12×6あるいは6×12として、各分割領域における縦、横、右斜め上、右斜め下の4方向の輪郭方向量をカウントして特徴ベクトルを求める。図5の場合であれば、文字画像「A」を72分割して、4方向の輪郭方向量を1分割ごとに(縦,横,右斜め上,右斜め下)に求め、288個(72×4)の特徴量(xA11〜xA1288)を並べて、特徴ベクトルを式2のように生成する。
XA1=(xA11,xA12,xA13,xA14,
xA15,xA16,xA17,xA18,
・・・・ 式2
xA1285,xA1286,xA1287,xA1288)
FIG. 5 shows an example when variable division contour direction feature extraction is used. The
XA1 = (xA11, xA12, xA13, xA14,
xA15, xA16, xA17, xA18,
....
xA1285, xA1286, xA1287, xA1288)
なお、特徴抽出には、可変分割輪郭方向特徴抽出、加重方向指数ヒストグラムを用いた抽出、可変分割輪郭方向特徴抽出などの方法を用いてもよい。 For feature extraction, methods such as variable division contour direction feature extraction, extraction using a weighted direction index histogram, and variable division contour direction feature extraction may be used.
また、特徴抽出部2は、上記算出した特徴ベクトルから参照特徴ベクトルを求める。例えば、参照特徴ベクトルは、特徴ベクトルを構成する要素から一部要素を除いたものを用いてもよいし、特徴ベクトルを後述する次元圧縮して用いてもよい。なお、必ずしも特徴ベクトルから参照特徴ベクトルを生成しなくてもよく、特徴ベクトルを参照特徴ベクトルとして用いてもよい。以後、参照特徴ベクトルを特徴ベクトルとして説明する。
The
次に、特徴抽出部2は、学習用サンプルパターンの特徴ベクトルの各要素の値を予め決められた範囲内の値にする。ここで、予め決められた範囲とは、全ての学習用サンプルパターンにおける特徴ベクトルの要素を示す特徴量が取りうる最小値と最大値を含む範囲(特徴空間)であり、該範囲を量子化して数値範囲で表したものである。また、数値範囲をmビット(m:整数)により表す場合、メモリの記憶容量などにより数値範囲を決めることが好ましい。例えば、数値範囲が−127≦m≦128(256ビット)で表されている場合、学習用サンプルパターンの特徴量は、−127〜128の数値範囲内の値に量子化される。
Next, the
また、学習用サンプルパターンを用いて大分類に用いる候補テーブルなどを生成するとき、特徴抽出部2は量子化した学習用サンプルパターンの特徴ベクトルをテーブル作成部5に転送する。未知入力パターンに対してパターン認識処理をするときは、特徴抽出部2は量子化した未知入力パターンの特徴ベクトルを大分類部3に転送する。ここで、未知入力パターンとは、パターン認識処理の対象のパターンであり、スキャナなどにより読み込んだ文字画像などである。
Further, when generating a candidate table or the like used for large classification using the learning sample pattern, the
大分類部3は、記録部7に記録されている後述する候補テーブル(大分類用辞書)の特徴ベクトルの集合から、入力パターンから生成した特徴ベクトルに近いものを抽出する(候補カテゴリ集合を抽出)。
The
詳細分類部4は、大分類部3で分類された候補カテゴリ集合の参照特徴ベクトルと、入力パターン(入力文字画像など)から生成した特徴ベクトルとの距離を計算する。その後、詳細分類部4は、計算した距離値の中で最小となる距離値を選択して、選択した距離値に対応するカテゴリを抽出してパターン認識結果とする。
The
テーブル作成部5はマージン決定部6を備え、後述する大分類用の辞書を生成する。テーブル作成部5は、特徴抽出部2から量子化した学習用サンプルパターンの特徴ベクトルを取得して、該量子化した特徴ベクトルを記録部7に予め記録されているカテゴリに対応付けて記録する。例えば、カテゴリは、JIS第1水準の漢字、JIS第2水準の漢字、ひらがな、カタカナ、記号、縦書き専用文字、英字、数字、半角文字などの文字コードである。また、テーブル作成部5は、マージン決定部6により決定したマージン量を、量子化した学習用サンプルパターンの特徴ベクトルの各要素に対応付けて、記録部7に記録する。ここで、マージン量は、正常とされる学習用サンプルパターンが劣化した場合(ファクシミリやコピーなどにより劣化(掠れ、滲み、汚れなど)した文字画像)であっても分類ができるように、量子化した特徴ベクトルの各要素に幅を持たせるための値である。
The
マージン決定部6は、例えば、各要素に対応する軸上の値を中心に最小値方向と最大値方向にそれぞれ設けるマージン量を決定する。また、マージン量は、すべてのカテゴリのすべての要素に対して同じマージン量を対応付けてもよいし、要素ごとに個別にマージン量を対応付けてもよい。なお、マージン量は、上記説明した全ての学習用サンプルパターンにおける特徴ベクトルの要素を示す特徴量が取りうる最小値と最大値を含む範囲を量子化した数値範囲の値で示される。また、マージン決定部6は、マージン量を量子化した特徴ベクトルの各要素に対応付けて、記録部7に記録する。
The
なお、特徴抽出部2、大分類部3、詳細分類部4、テーブル作成部5は、CPU(Central Processing Unit)を用いて実現してもよい。また、プログラマブルなデバイス(FPGA(Field Programmable Gate Array)、PLD(Programmable Logic Device)など)を用いてもよい。
The
記録部7は、プログラム、テーブル、データなどが記録されている。また、記録部7は、例えばROM(Read Only Member)、RAM(Random Access Memory)、ハードディスクなどのメモリである。また、記録部7は、パラメータ値、変数値などのデータを記録してもよいし、ワークエリアとして用いることもできる。実施例1では、候補テーブル(大分類用辞書)などが記録されている。
The
(テーブル作成部の動作)
図6は、テーブル作成部5の動作の一例を示すフロー図である。
ステップS1においてテーブル作成部5は、1つの学習用サンプルパターンの特徴ベクトルの要素を1つ抽出し、抽出した要素に対応する軸の軸上の位置を求める。なお、学習用サンプルパターンの特徴ベクトルは、特徴抽出部2に入力された学習用サンプルパターンから求める。ここで、学習用サンプルパターンは、JIS第1水準の漢字、JIS第2水準の漢字、ひらがな、カタカナ、記号、縦書き専用文字、英字、数字、半角文字などの文字画像である。また、学習用サンプルパターンは、劣化文字画像(ファクシミリやコピーなどにより劣化(掠れ、滲み、汚れなど)した文字画像)である。本例では、パターンとして文字を用いて説明するが、文字に限定するものではない。
(Operation of the table creation unit)
FIG. 6 is a flowchart showing an example of the operation of the
In step S1, the
図7は、学習用サンプルパターンである文字画像「A」「B」・・・・について、カテゴリとテンプレートの関係を示した図である。図7において、文字画像「A」の学習用サンプルパターンはカテゴリ1(文字「A」の文字コードに対応)に含まれ、文字画像「B」の学習用サンプルパターンはカテゴリ2(文字「B」の文字コードに対応)に含まれている。そして、カテゴリ1は、テンプレートA1〜A5に分けられている。カテゴリ2は、テンプレートB1〜B5に分けられている。
FIG. 7 is a diagram showing the relationship between categories and templates for character images “A”, “B”,... That are learning sample patterns. In FIG. 7, the learning sample pattern of the character image “A” is included in category 1 (corresponding to the character code of the character “A”), and the learning sample pattern of the character image “B” is category 2 (the character “B”). (Corresponding to the character code).
図8は、図7に示した文字「A」「B」・・・・を、上記説明したように288次元特徴ベクトルに変換した場合の例を示す図である。特徴ベクトルに変換された各学習用サンプルパターンは、テーブル作成部5を介してカテゴリに対応付けられて記録部7に記録される。図8の例では、文字「A」に対応する「カテゴリ1」に、特徴ベクトルの名称「XA1」「XA2」・・・・が対応付けて記録されている。また、文字「B」に対応する「カテゴリ2」に、特徴ベクトルの名称「XB1」「XB2」・・・・が対応付けて記録部7に記録されている。なお、特徴抽出部2は、テーブル作成部5を介さずに直接記録部7にカテゴリと特徴ベクトルを記録してもよい。
FIG. 8 is a diagram illustrating an example in which the characters “A”, “B”,... Shown in FIG. 7 are converted into 288-dimensional feature vectors as described above. Each learning sample pattern converted into a feature vector is recorded in the
次に、テーブル作成部5は、記録部7に記録した学習用サンプルパターンの特徴ベクトルの要素を1つ抽出し、抽出した要素を軸上に投影して該要素の軸上の位置を求める。図9のAの例では、カテゴリ1(文字画像「A」)の特徴ベクトルの「x1」に対応する軸上に、各学習用サンプルパターンの特徴ベクトルの「x1」に対応する各要素を投影している。また、図9のAは、−127から128の数値範囲(256ビット)で示される軸上に、特徴ベクトルの各要素の特徴量を−127から128の数値範囲で量子化して軸上の座標位置を決めて、各軸の分布を表している。
Next, the
例えば、カテゴリ1の特徴ベクトルの要素「x1」に対応する特徴量「xA11」の場合であれば、テーブル作成部5は、特徴量「xA11」を量子化して座標位置「PA11」にする。そして、テーブル作成部5は、図10に示すように特徴量「xA11」と座標位置「PA11」を対応付けて記録部7に記録する。他の学習用サンプルパターンの特徴ベクトルの各要素についても同様に、テーブル作成部5は各要素と各座標位置を対応付けて記録部7に記録する。
For example, in the case of the feature quantity “xA11” corresponding to the element “x1” of the
次に、図6のステップS2では、テーブル作成部5が、マージン決定部6により予め算出されたマージン量を取得し、ステップ3でテーブル作成部5は、軸上の座標位置を中心にマージン量を左右(最小値方向と最大値方向)に加える。そして、テーブル作成部5は、この学習用サンプルパターンのカテゴリ(またはテンプレート)の範囲を決め、該範囲を記録部7に記録する。図9のBは、図9のAに示したカテゴリ1の特徴ベクトルの要素「x1」に対応する座標位置に、予め設定したマージン量を左右に加えたことを示す図である。
Next, in step S2 of FIG. 6, the
例えば、カテゴリ1の特徴ベクトルの要素「x1」に対応する座標位置「PA11」の場合であれば、テーブル作成部5は、座標位置「PA11」を中心に、マージン決定部6により予め算出したマージン量「MA11」を設定する。図10の例では、座標位置「PA11」に対応付けてマージン量「MA11」を記録部7に記録する。他のマージン量についても同様に、テーブル作成部5は各座標位置と各マージン量を対応付けて記録部7に記録する。座標位置を示す場合、例えば、数値範囲が256ビットであれば0〜255ビットの範囲にある、算出した座標位置に対応するビットに「1」を設定することが考えられる。例えば、座標位置「PA11」が0〜255ビットの50ビット目(−78)に対応するのであれが「PA11」に「50」を設定する。また、マージン量が「5ビット」であれば、「MA11」に「5」を記録する。その結果、45ビット〜55ビット目(−83〜−73)には「1」が設定される。座標位置とマージン量に対応しないビットには「0」が設定される。なお、座標位置とマージン量を記録しないで、座標位置とマージン量から求めた最小値と最大値の範囲(−83〜−73)を直接記録してもよい。また、例えば256幅のビット列を用意して、対応する範囲(45ビット〜55ビット)に「1」を設定してもよい。
For example, in the case of the coordinate position “PA11” corresponding to the element “x1” of the
図6のステップS4では、テーブル作成部5が、対象の特徴ベクトルの全ての要素(x1〜x288)ついて処理をしたかを判定する。全ての要素について処理を完了していればステップS6に移行し、まだ未処理の要素が残っている場合にはステップ5に移行する。ステップ5では、次の要素を選択してステップS1に移行する。
In step S4 of FIG. 6, the
ステップS6では、テーブル作成部5が、対象のカテゴリ(1、2〜)またはテンプレート全ての特徴ベクトルについて処理をしたかを判定する。全ての特徴ベクトルについて処理を完了していればステップS8に移行し、まだ未処理の特徴ベクトルが残っている場合にはステップ7に移行する。ステップ7では、次のカテゴリまたはテンプレートの特徴ベクトルを選択してステップS1に移行する。
In step S <b> 6, the
ステップS8では、テーブル作成部5が、全ての学習用サンプルパターン(カテゴリ(1、2〜)またはテンプレート)について処理したかを判定する。全ての学習用サンプルパターンについて処理を終了していればステップS10に移行し、まだ未処理の学習用サンプルパターンが残っている場合にはステップ9で次の学習用サンプルパターンを選択して、ステップ1に移行する。
テーブル作成部5は、上記ステップS1〜S8のテーブル作成処理をすることにより候補テーブル(大分類用辞書)を作成する。
In step S8, it is determined whether the
The
図11は、図6に示したテーブル作成処理を全ての学習用サンプルパターンに対して実施した結果を示す例で、各カテゴリの各要素に対応する座標位置とマージン量に対して、ビット列で表される軸上の対応する箇所にビット「1」を設定した場合の例である。 FIG. 11 shows an example of the result of the table creation process shown in FIG. 6 performed for all the learning sample patterns. The coordinate position and the margin amount corresponding to each element of each category are represented by a bit string. This is an example in which a bit “1” is set at a corresponding location on the axis to be processed.
図12は、平面辞書の概要を示す図である。従来の平面辞書(図2参照)と比べて、実施例1の平面辞書はカテゴリごとの各特徴ベクトルの各要素に対して適切に分布を捉えているため、パターン認識処理の大分類の精度を向上させることができる。 FIG. 12 is a diagram showing an outline of the planar dictionary. Compared to the conventional planar dictionary (see FIG. 2), the planar dictionary of the first embodiment appropriately captures the distribution for each element of each feature vector for each category. Can be improved.
図13は、実施例1で説明した方法により平面辞書を作成ときの字種「A」「B」「C」の辞書に記録されている分布範囲(「A」の分布範囲Aa’、「B」の分布範囲Ba’、「C」の分布範囲Ca’)と実際の分布範囲(「A」の範囲Ar、「B」の範囲Br、「C」の範囲Cr)の関係を示している。実施例1の平面辞書を用いることで、従来の平面辞書(図3参照)を用いたときと比べて、未知文字「X」が入力されても、適切に分布を捉えているため、未知文字「X」は「C」のカテゴリに絞り込まれ、文字「A」のカテゴリに未知文字「X」が属していない。 FIG. 13 shows distribution ranges (distribution ranges Aa ′ and “B” of “A”) recorded in the dictionary of the character types “A”, “B”, and “C” when the planar dictionary is created by the method described in the first embodiment. ”Distribution range Ba ′,“ C ”distribution range Ca ′) and the actual distribution range (“ A ”range Ar,“ B ”range Br,“ C ”range Cr). By using the planar dictionary according to the first embodiment, the unknown character “X” is appropriately input even when an unknown character “X” is input as compared with the case where the conventional planar dictionary (see FIG. 3) is used. “X” is narrowed down to the category of “C”, and the unknown character “X” does not belong to the category of the letter “A”.
(実施例2)
図14は、図4に示した大分類部3の動作を示す図である。
ステップS1401では、大分類部3が全カテゴリ数分の幅をもつビット列領域temp_bitを記録部7などのメモリに確保して、全てのビットに「1」を設定する。図15の例では、カテゴリがn個存在するので、nビット幅のtemp_bitを確保して、nビット全てに「1」を設定する。temp_bitは式3で示すことができる。
temp_bit:(1,1,1・・・1) 式3
temp_bitはnビット
(Example 2)
FIG. 14 is a diagram illustrating an operation of the
In step S1401, the
temp_bit: (1, 1, 1... 1)
temp_bit is n bits
ステップS1402では、大分類部3が未知入力文字の特徴ベクトルを求め、この特徴ベクトルの各要素を対応する各軸へ投影し各軸上の座標位置を求める。図15の例では、未知入力の対象の軸上の座標位置がkで表される場合に、未知入力の対象の軸の座標位置kに対応するカテゴリ1〜nの軸上の座標位置kに設定されている値を取得する。未知入力文字「X」がカテゴリに含まれるとすると、取得したカテゴリ1〜nの軸上の座標位置kは式4で示すことができる。
対象軸の座標位置kのビット列:(1,0,0・・・・) 式4
対象軸の座標位置kのビット列はnビット
In step S1402, the
Bit string of coordinate position k of target axis: (1, 0, 0...)
The bit string of the coordinate position k of the target axis is n bits
ステップS1403では、大分類部3が未知文字の対象軸の座標位置に対応するカテゴリ1〜nごとの座標位置で構成されるビット列と、temp_bitと論理積(bit AND)を行う。図15の例では、temp_bitと対象軸の座標位置kのビット列の論理積を計算する。
temp_bit AND (対象軸の座標位置kのビット列) 式5
論理積の結果であるtemp_bit=(1,0,0・・・・)
In step S1403, the
temp_bit AND (bit string of coordinate position k of target axis)
Temp_bit = (1, 0, 0...) That is the result of the logical product
ステップS1404では、大分類部3が未知文字の全軸に対して上記ステップS1403の処理をしたか否かを判定する。未知文字の全軸に対してステップS1403の処理を終了していればステップS1406に移行し、終了していなければステップS1405に移行する。ステップS1405では、大分類部3が次の軸を選択する。
In step S1404, the
ステップS1406では、大分類部3が各軸のビット列計算用の領域temp_bitにおいて対応するカテゴリ番号のビットに「1」が設定されているカテゴリ(またはテンプレート)を選択する。そして、大分類部3は選択したカテゴリを大分類結果として、記録部7に記録する。上記のように実施例1で作成した候補テーブル(大分類用辞書)を用いることにより、大分類の精度を向上させることができたが、しかし、まだ大分類の処理時間を短縮させる余地がある。
In step S1406, the
そこで、正準判別分析を用いて特徴ベクトルの次元を圧縮して次元圧縮をした特徴ベクトルを用いて大分類用の辞書を生成する方法を説明する。図16は、図4に示した特徴抽出部2に特徴圧縮部1602を設けたパターン認識装置1601の構成の一例を示す図である。特徴圧縮部1602は、元の特徴ベクトルを少数の次元からなる圧縮特徴ベルトルにする。圧縮特徴ベルトルを求める特徴圧縮処理とは、圧縮特徴空間の初期座標の算出、座標軸の直交化、圧縮特徴ベルトルの算出を行うものである。圧縮特徴空間の初期座標の算出処理では、既存の技術である正準判別分析により、カテゴリ間の分散と、カテゴリ内の分散比が最大となる座標軸を抽出する。例えば、288次元の特徴空間において、16次元の圧縮特徴空間を求める場合、文字カテゴリ間分散行列Sb=行列B、文字カテゴリ内分散行列Sw=行列Wを以下のように定義する(式6)。行列Bと行列Wは288×288の行列である。
次に、特徴圧縮部1602は、式7を満たすような固有行列と固有値行列を求める。
上記のように求めた、固有値の大きいほうから圧縮する次元数の固有ベクトルを選択する。たとえば16次元にするのであれば式8に示す固有ベクトルが初期座標になる。
次に、シュミットの直交化により直交座標軸に変更した16個の288次元ベクトルを求める。式9に初期座標を正規直交化して、16個の288次元ベクトルを並べて行列形式にした変換行列を示す。
次に、圧縮特徴の算出(特徴ベクトルの投影)は、式10に示すように、1つの文字画像から求めた288次元の特徴ベクトルの転置行列、に変換行列をかけて、16次元の特徴ベクトルを求める。
この16次元圧縮特徴のベクトルの各要素y1、y2・・・y16は、それぞれ288次元空間の1点で表される特徴ベクトルXを16の軸に投影した時の各軸上の値(座標位置)になる。例えば、y1は特徴ベクトルXを第1軸へ投影したときの第1軸上の値(座標位置)である。他の要素についても同じことがいえる。 Each element y 1 , y 2 ... Y 16 of this 16-dimensional compressed feature vector is a value on each axis when the feature vector X represented by one point in the 288-dimensional space is projected onto 16 axes. (Coordinate position). For example, y 1 is a value (coordinate position) on the first axis when the feature vector X is projected onto the first axis. The same is true for the other elements.
実施例2では、特徴抽出部2が実施例1で説明したように元となる特徴ベクトルを生成し、特徴圧縮部1602により元となる特徴ベクトルを次元圧縮する。そして、次元圧縮した特徴ベクトルを用いて、テーブル作成部5が大分類用の平面辞書を作成する。また、大分類をする際も、特徴圧縮部1602により未知入力の特徴ベクトルを次元圧縮してから、大分類部3が実施例2で生成した候補テーブル(大分類用辞書)を用いて大分類の処理を行うため、大分類の処理において扱うベクトル数を削減できる。そのため、大分類の処理時間を短縮させることができる。また、次元圧縮を行うことにより、扱うベクトル数が削減できるため記録部7の候補テーブル(大分類用辞書)の記憶領域を縮小することができる。
In the second embodiment, the
(実施例3)
実施例3では、カテゴリまたはテンプレートごとに学習用サンプルパターン間の違い(変形程度)に基づいて軸上のマージン量を決め、学習用サンプルパターンのカテゴリまたはテンプレートごとにマージン量を決める。学習用サンプルパターン間の違いとは、元となる学習用サンプルパターンと、元となる学習用サンプルパターンを劣化させたパターン(このパターンも学習用サンプルパターンである)との違いである。
(Example 3)
In the third embodiment, a margin amount on the axis is determined based on a difference (deformation degree) between learning sample patterns for each category or template, and a margin amount is determined for each category or template of the learning sample pattern. The difference between the learning sample patterns is a difference between the original learning sample pattern and a pattern obtained by degrading the original learning sample pattern (this pattern is also a learning sample pattern).
図17は、実施例3におけるマージン決定処理の一例を示すフロー図である。
ステップS1701では、特徴抽出部2が元となる学習用サンプルパターンに対して劣化させた複数の学習用サンプルパターンを特徴ベクトルに変換し、該特徴ベクトルとカテゴリ、元となる学習用サンプルパターンの特徴ベクトルを対応づけて記録部7に記録する。
FIG. 17 is a flowchart illustrating an example of margin determination processing according to the third embodiment.
In step S1701, the
ステップS1702では、マージン決定部6がカテゴリまたはテンプレートを選択する。ステップS1703では、マージン決定部6が元となる学習用サンプルパターンを選択する。ステップS1704では、マージン決定部6が元となる学習用サンプルパターンを劣化させたパターンの特徴ベクトルから要素を選択する。
In step S1702, the
ステップS1705では、マージン決定部6が選択した要素に対応する軸上で、元の特徴ベクトルの要素の値と、劣化させた特徴ベクトルの要素の値との差を求める。例えば、元となる学習用サンプルパターンの特徴ベクトルの要素に対応する軸上の座標位置をPbaseとし、劣化させたパターンの軸上の座標位置をPdeteとて、|Pbase−Pdete|を計算して差を求める。次に、マージン決定部6は、PbaseとPdeteの大きさを比較して大小関係を求めて、元となる学習用サンプルパターンの特徴ベクトルの要素に対応する値を中心に、右方向(最大値方向)のマージンであるか、左方向(最小値方向)のマージンであるかを判定する。軸を0〜255の数値範囲とした場合、Pbase−Pdeteを計算して計算結果がプラスの値であれば左方向のマージンとし、該値を変数mLtempに記録する。また、マイナスの値であれば右方向のマージン量とし、該値を変数mRtempに記録する。
In step S1705, the difference between the element value of the original feature vector and the element value of the deteriorated feature vector is obtained on the axis corresponding to the element selected by the
ステップS1706では、マージン決定部6がカテゴリごとにステップS1705で算出したマージン量を加算する。例えば、式11に示すように、右方向のマージン量の加算であれば、変数mRに変数mRtempを加算し、左方向のマージン量の加算であれば、変数mLに変数mLtempを加算する。
mR ← mR+mRtemp
mL ← mL+mLtemp 式11
←:代入を示す
In step S1706, the
mR ← mR + mRtemp
mL ← mL +
←: Indicates assignment
その際、変数mRに、変数mRtempが加算されるたびに式12に示すように変数mRcountに1を加算し、加算した回数を記録する。また、変数mLに、変数mLtempが加算されるたびに式12に示すように変数mLcountに1を加算し、加算した回数を記録する。
mRcount←mRcount+1
mLcount←mLcount+1 式12
At that time, whenever the variable mRtemp is added to the variable mR, 1 is added to the variable mRcount as shown in
mRcount
mLcount ← mLcount + 1
ステップS1707でマージン決定部6は、対象を劣化させた学習用サンプルパターンの特徴ベクトルの要素全てについて処理をしたか否かを判定する。全ての要素について処理を実行していればステップS1709に移行し、未処理の要素がある場合はステップS1708に移行する。ステップS1708では、マージン決定部6が次の要素を選択し、ステップS1705に移行する。
In step S1707, the
ステップS1709では、マージン決定部6が、劣化させた学習用サンプルパターンの特徴ベクトル全てについて処理をしたか否かを判定する。全ての特徴ベクトルについて処理を実行していればステップS1711に移行し、未処理の特徴ベクトルがある場合はステップS1710に移行する。ステップS1710では、マージン決定部6が次の劣化させた学習用サンプルパターンの特徴ベクトルを選択し、ステップS1704に移行する。
In step S1709, the
ステップS1711では、マージン決定部6がカテゴリ全てについて処理をしたか否かを判定する。全てのカテゴリについて処理を実行していればステップS1712に移行し、未処理のカテゴリがある場合はステップS1702に移行する。なお、カテゴリが変わるたびにカウント値mRcount、mLcountの値に初期値(例えば「0」)を設定する。
In step S1711, it is determined whether the
ステップS1712でマージン決定部6は、式13に示すように、カテゴリごとの右方向および左方向のそれぞれのマージン量の平均値mRave、mLaveを求める。
mRave ← mR/mRcount
mLave ← mL/mLcount 式13
In step S1712, the
mRave ← mR / mRcount
mLave ← mL / mLcount Formula 13
なお、平均値mRave、mLaveに固定倍数を積算しマージン量を調整してもよい。そして、マージン決定部6は、図18に示したようにカテゴリとマージン量の平均値mRave、mLaveを対応づけて、それぞれ記録部7に記録する。図18は、実施例3に示したマージン決定方法により算出したマージン量(mRave、mLave)を、カテゴリごとに対応付けて記録するときのデータ構造の一例を示す図である。図18の「カテゴリ」にはカテゴリを識別するための識別番号(1、2〜n)が記録され、「mRave」「mLave」には上記処理により決定したカテゴリごとのマージン量(MAL1〜MALn/MAR1〜MARn)が記録されている。
The margin amount may be adjusted by adding a fixed multiple to the average values mRave and mLave. Then, the
上記のようにマージン決定処理は、カテゴリに含まれる複数の元となるパターンと、元となるパターンを劣化させたパターンの各特徴ベクトルの同じ位置の要素を、予め設定された範囲の同じ位置の要素に対応する軸に投影する。次に、元となるパターンの軸上の座標位置と、劣化させたパターンごとの軸上の座標位置との差を算出する。そして、元となるパターンの軸上の座標位置を中心にして最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出し、カテゴリごとにマージン量を対応付けて記録部7に記録する。
As described above, the margin determination process is performed by combining elements at the same position in each feature vector of a plurality of original patterns included in a category and patterns obtained by degrading the original pattern at the same positions in a preset range. Project to the axis corresponding to the element. Next, the difference between the coordinate position on the axis of the original pattern and the coordinate position on the axis of each deteriorated pattern is calculated. Then, the average value of the difference in the minimum value direction and the average value of the difference in the maximum value direction are calculated as the margin amount with the coordinate position on the axis of the original pattern as the center, and the margin amount is associated with each category and recorded. Record in
実施例3によれば、元となる学習用サンプルパターンと劣化させた複数の学習用サンプルパターンに基づいてマージン量を決めているため、従来の大分類用の辞書を用いて大分類をするより、精度を向上させることができる。すなわち、実施例3の平面辞書はカテゴリごとの各特徴ベクトルの各要素に対して適切に分布を捉えているため、大分類の精度を向上させることができる。
なお、実施例2で説明した次元圧縮したベクトルを用いて、実施例3で説明した方法によりマージン量を決定してもよい。
According to the third embodiment, the margin amount is determined based on the original learning sample pattern and a plurality of deteriorated learning sample patterns, so that the large classification is performed using the conventional large classification dictionary. , Accuracy can be improved. That is, since the planar dictionary of Example 3 appropriately captures the distribution for each element of each feature vector for each category, the accuracy of the large classification can be improved.
Note that the margin amount may be determined by the method described in the third embodiment using the dimension-compressed vector described in the second embodiment.
(実施例4)
実施例4は、軸を予め決められたサイズで区分けして、カテゴリごとの全ての学習用サンプルパターンの特徴ベクトルの各要素を軸へ投影し、区間と軸上の座標位置に基づいてマージン量を求める。
Example 4
In the fourth embodiment, the axis is divided by a predetermined size, each element of the feature vector of all the learning sample patterns for each category is projected onto the axis, and the margin amount based on the section and the coordinate position on the axis Ask for.
図19は、実施例4におけるマージン決定処理の一例を示すフロー図である。また、実施例4では図20に示すように、マージン決定部6が、軸上に予め決められたサイズで区分けした区間を設定する。例えば、軸が0〜255の数値範囲で示されているときには、256を等間隔で区分けして各区間に識別番号を割り付ける。図20場合であれば区間を10に区切り10等分している。なお、区間は必ずしも等分する必要はない。
FIG. 19 is a flowchart illustrating an example of margin determination processing according to the fourth embodiment. Further, in the fourth embodiment, as shown in FIG. 20, the
ステップS1901では、特徴抽出部2が元となる学習用サンプルパターンに対して劣化させた複数の学習用サンプルパターンを特徴ベクトルに変換し、該特徴ベクトルとカテゴリ、区間、元となる学習用サンプルパターンの特徴ベクトルを対応づけて記録部7に記録する。ステップS1902では、マージン決定部6がカテゴリまたはテンプレートを選択する。ステップS1903では、マージン決定部6が元となる学習用サンプルパターンを選択する。ステップS1904では、マージン決定部6が元となる学習用サンプルパターンを劣化させたパターンの特徴ベクトルから要素を選択する。ステップS1905では、マージン決定部6がステップS1904で選択した対象の要素に対応する値がある区間を選択する。
In step S1901, a plurality of learning sample patterns degraded by the
ステップS1906では、実施例1で説明したステップS1705と同様に、マージン決定部6が選択した要素に対応する軸上で、元の特徴ベクトルの要素の値と、劣化させた特徴ベクトルの要素の値との差をマージンとして求める。例えば、元となる学習用サンプルパターンの特徴ベクトルの要素に対応する軸上の座標位置をPbaseとし、劣化させたパターンの軸上の座標位置をPdeteとて、|Pbase−Pdete|を計算して差を求める。次に、マージン決定部6は、PbaseとPdeteの大きさを比較して大小関係を求めて、元となる学習用サンプルパターンの特徴ベクトルの要素に対応する値を中心に、右方向(最大値方向)のマージンであるか、左方向(最小値方向)のマージンであるかを判定する。軸を0〜255の数値範囲とした場合、例えば区間1に対しては、Pbase−Pdeteを計算して計算結果がプラスの値であれば左方向のマージンとし、該値を変数mLint1_tempに記録する。また、マイナスの値であれば右方向のマージン量とし、該値を変数mRint1_tempに記録する。
In step S1906, as in step S1705 described in the first embodiment, the element value of the original feature vector and the element value of the deteriorated feature vector on the axis corresponding to the element selected by the
ステップS1907では、マージン決定部6が区間ごとにステップS1906で算出したマージン量を加算する。例えば、区間1の場合であれば式14に示すように、右方向のマージン量の加算であれば、変数mRint1に変数mRint1_tempを加算し、左方向のマージン量の加算であれば、変数mLint1に変数mLint1_tempを加算する。
mRint1 ← mRint1+mRint1_temp
mLint1 ← mLint1+mLint1_temp 式14
In step S1907, the
mRint1 ← mRint1 + mRint1_temp
mLint1 ← mLint1 + mLint1_temp Equation 14
その際、変数mRint1に、変数mRint1_tempが加算されるたびに式15に示すようにmRint1_countに1を加算し、加算した回数を記録する。また、変数mLint1に、変数mLint1_tempが加算されるたびに式15に示すようにmLint1_countに1を加算し、加算した回数を記録する。
mRint1_count←mRint1_count+1
mLint1_count←mLint1_count+1 式15
At that time, each time the variable mRint1_temp is added to the variable mRint1, 1 is added to mRint1_count as shown in Expression 15, and the number of times of addition is recorded. Further, whenever the variable mLint1_temp is added to the variable mLint1, 1 is added to mLint1_count as shown in Expression 15, and the number of additions is recorded.
mRint1_count
mLint1_count ← mLint1_count + 1 Equation 15
ステップS1908でマージン決定部6は、対象を劣化させた学習用サンプルパターンの特徴ベクトルの要素全てについて処理をしたか否かを判定する。全ての要素について処理を実行していればステップS1910に移行し、未処理の要素がある場合はステップS1909に移行する。ステップS1909では、マージン決定部6が次の要素を選択し、ステップS1905に移行する。
In step S1908, the
ステップS1910では、マージン決定部6が、劣化させた学習用サンプルパターンの特徴ベクトル全てについて処理をしたか否かを判定する。全ての特徴ベクトルについて処理を実行していればステップS1912に移行し、未処理の特徴ベクトルがある場合はステップS1911に移行する。ステップS1911では、マージン決定部6が次の劣化させた学習用サンプルパターンの特徴ベクトルを選択し、ステップS1904に移行する。
In step S1910, the
ステップS1912では、マージン決定部6がカテゴリ全てについて処理をしたか否かを判定する。全てのカテゴリについて処理を実行していればステップS1913に移行し、未処理のカテゴリがある場合はステップS1902に移行する。なお、カテゴリが変わるたびにカウント値に初期値(例えば「0」)を設定する。区間1の場合であれば、mRint1_count、mLint1_countの値に初期値を設定する。
In step S1912, it is determined whether the
ステップS1913でマージン決定部6は、各カテゴリの各区間における右方向および左方向のそれぞれのマージン量の平均値を求める。区間1の場合であれば、式16に示すように、各カテゴリの各区間における右方向および左方向のそれぞれのマージン量の平均値mRint1_ave、mLint1_aveを求める。
mRint1_ave ← mRint1_/mRint1_count
mLint1_ave ← mLint1_/mLint1_count 式16
In step S1913, the
mRint1_ave ← mRint1_ / mRint1_count
mLint1_ave ← mLint1_ / mLint1_count Equation 16
なお、平均値mRint1_ave、mLint1_aveに固定倍数を積算しマージン量を調整してもよい。また、マージン決定部6は、図21に示したようにカテゴリとマージン量の平均値を対応づけて、それぞれ記録部7に記録する。図21は、実施例4に示したマージン決定方法により算出したマージン量を、各カテゴリの各区間に対応付けて記録するときのデータ構造の一例を示す図である。図21の「カテゴリ」には、カテゴリを識別するための識別番号(1、2〜n)が記録され、「区間1」〜「区間w」(wは整数)には区間を識別するための識別番号(1、2〜w)が記録されている。また、図21の「mRint1_ave」〜「mRintw_ave」、「mLint1_ave」〜「mLintw_ave」には、上記処理により決定した各カテゴリの各区間のマージン量(MAL11〜MALwn/MAR11〜MARwn)が記録されている。
The margin amount may be adjusted by adding a fixed multiple to the average values mRint1_ave and mLint1_ave. Further, as shown in FIG. 21, the
上記のように実施例4では、マージン決定処理により、軸を予め設定された範囲に区分けした区間を設定する。次に、カテゴリに含まれる複数の元となるパターンと、元となるパターンを劣化させたパターンの各特徴ベクトルの同じ位置の要素を、予め設定された範囲の同じ位置の要素に対応する軸に投影する。次に、元となるパターンの軸上の座標位置と、劣化させたパターンごとの軸上の座標位置との差を算出する。そして、元となるパターンの軸上の座標位置を中心にして最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出し、元となるパターンの軸上の座標位置が含まれる区間ごとにマージン量を対応付けて記録部7に記録する。
As described above, in the fourth embodiment, the section in which the axis is divided into the preset range is set by the margin determination process. Next, the element at the same position in each feature vector of the plurality of original patterns included in the category and the pattern obtained by degrading the original pattern is used as an axis corresponding to the element at the same position in the preset range. Project. Next, the difference between the coordinate position on the axis of the original pattern and the coordinate position on the axis of each deteriorated pattern is calculated. Then, the average value of the difference in the minimum value direction and the average value of the difference in the maximum value direction are calculated as margin amounts around the coordinate position on the axis of the original pattern, and the coordinate position on the axis of the original pattern Is recorded in the
従来手法では軸上の1点に多数のカテゴリが所属することになり、認識時の絞り込み能力が低く、高精度を保ったまま少数カテゴリに絞り込めなかった。しかし、実施例4によれば、マージン量を元となる学習用サンプルパターンと劣化させた複数の学習用サンプルパターンに基づいて、区間ごとにマージン量を決めているため、従来の大分類用の辞書を用いて大分類の精度を向上させることができる。すなわち、実施例4の平面辞書は各カテゴリの各区間の各特徴ベクトルの各要素に対して適切に分布を捉えているため、大分類の精度を向上させることができる。
なお、実施例2で説明した次元圧縮したベクトルを用いて、実施例4で説明した方法によりマージン量を決定することもできる。
In the conventional method, a large number of categories belong to one point on the axis, and the refining ability at the time of recognition is low, and it is not possible to narrow down to a small number of categories while maintaining high accuracy. However, according to the fourth embodiment, the margin amount is determined for each section based on the learning sample pattern based on the margin amount and a plurality of deteriorated learning sample patterns. The accuracy of large classification can be improved using a dictionary. That is, since the planar dictionary of Example 4 appropriately captures the distribution for each element of each feature vector in each section of each category, the accuracy of the large classification can be improved.
Note that the margin amount can be determined by the method described in the fourth embodiment using the dimension-compressed vector described in the second embodiment.
(実施例5)
実施例5では、各カテゴリまたは各テンプレートの集合に含まれる文字パターンのフォントタイプに注目して、同一カテゴリにおけるフォントタイプごとの軸上の分布に基づいてマージン量を求める。
(Example 5)
In the fifth embodiment, paying attention to the font type of the character pattern included in each category or each set of templates, the margin amount is obtained based on the distribution on the axis for each font type in the same category.
図22は、実施例5におけるマージン決定処理の一例を示すフロー図である。
ステップS2201で特徴抽出部2が、同一カテゴリにおける複数の異なるフォントタイプの学習用サンプルパターンの文字パターンを特徴ベクトルに変換し、該特徴ベクトルとフォント、カテゴリを対応づけて記録部7に記録する。
FIG. 22 is a flowchart illustrating an example of margin determination processing according to the fifth embodiment.
In step S2201, the
ステップS2202では、マージン決定部6が対象のカテゴリを選択する。ステップS2203では、マージン決定部6がフォントを選択する。
ステップS2204では、マージン決定部6がステップS2203で選択したフォントの特徴ベクトルから要素を選択し、対応する軸上に特徴ベクトルの要素を投影する。例えば、同一カテゴリ1に異なるフォントタイプの学習用サンプルパターン(文字パターン:F11〜F1n)が複数ある場合に、文字パターンF11〜F1nをそれぞれ288次元の特徴ベクトルに変換したときについて説明する。文字パターンF11〜F1nの各特徴ベクトルを構成する1〜288番目の要素に対して、それぞれ0〜255の数値範囲で示される軸を割り振る。1番目の要素に対応する軸には、文字パターンF11〜F1nの各特徴ベクトルの1番目に対応する各要素を投影する。他の軸についても、文字パターンF11〜F1nの各特徴ベクトルの対象要素を対象になる軸に投影する。すなわち、文字パターンF11〜F1nの特徴ベクトルの全ての要素が、288個の軸に全て投影される。
In step S2202, the
In step S2204, the
ステップS2205でマージン決定部6は、対象のフォントに対する特徴ベクトルの要素全てについて処理をしたか否かを判定する。全ての要素について処理を実行していればステップS2207に移行し、未処理の要素がある場合はステップS2206に移行する。ステップS2206では、マージン決定部6が次の要素を選択し、ステップS2204に移行する。
In step S2205, the
ステップS2207では、マージン決定部6がステップS2203で選択したフォントの特徴ベクトル全てについて処理をしたか否かを判定する。全ての特徴ベクトルについて処理を実行していればステップS2209に移行し、未処理の特徴ベクトルがある場合はステップS2208に移行する。ステップS2208では、マージン決定部6が次のフォントの特徴ベクトルを選択し、ステップS2204に移行する。
In step S2207, the
ステップS2209では、マージン決定部6が同一カテゴリの各軸上に投影された複数の要素の平均値を求める。例えば、上記説明したカテゴリ1に含まれる文字パターンF11〜F1nの特徴ベクトルの全ての要素が投影された288個の軸の場合であれば、288個の軸ごとに、軸上の要素の平均値を計算する。次に、この平均値の値とフォントタイプごとの特徴ベクトルの軸上の要素の値との差を求める。例えば、平均値に対応する軸上の座標位置をPfbaseとし、フォントごとの文字パターンの軸上の座標位置をPfdeteとて、|Pfbase−Pfdete|を計算して差を求める。次に、マージン決定部6は、PfbaseとPfdeteの大きさを比較して大小関係を求めて、平均値を中心に、右方向(最大値方向)のマージンであるか、左方向(最小値方向)のマージンであるかを判定する。軸を0〜255の数値範囲とした場合、Pfbase−Pfdeteを計算して計算結果がプラスの値であれば左方向のマージンとし、該値を変数mLf_tempに記録する。また、マイナスの値であれば右方向のマージン量とし、該値を変数mRf_tempに記録する。
In step S2209, the
ステップS2210では、マージン決定部6がフォントごとの差の平均値を求めて、カテゴリごとのフォントのマージン値とする。まず、フォントごとにステップS2209で算出したマージン量を加算する。例えば、式17に示すように、右方向のマージン量の加算であれば、変数mRfに変数mRf_tempを加算し、左方向のマージン量の加算であれば、変数mLfに変数mLf_tempを加算する。
mRf ← mRf+mRf_temp
mLf ← mLf+mLf_temp 式17
In step S2210, the
mRf ← mRf + mRf_temp
mLf ← mLf + mLf_temp Equation 17
その際、変数mRfに、変数mRf_tempが加算されるたびに式18に示すようにmRf_countに1を加算し、加算した回数を記録する。また、変数mLfに、変数mLf_tempが加算されるたびに式18に示すようにmLf_countに1を加算し、加算した回数を記録する。
mRf_count←mRf_count+1
mLf_count←mLf_count+1 式18
At that time, each time the variable mRf_temp is added to the variable mRf, 1 is added to mRf_count as shown in Expression 18, and the number of times of addition is recorded. Further, whenever the variable mLf_temp is added to the variable mLf, 1 is added to mLf_count as shown in Expression 18, and the number of additions is recorded.
mRf_count
mLf_count ← mLf_count + 1 Equation 18
次に、マージン決定部6は、式19に示すように、フォントごとの右方向および左方向のそれぞれのマージン量の平均値mRf_ave、mLf_aveを求める。
mRf_ave ← mRf/mRf_count
mLf_ave ← mLf/mLf_count 式19
Next, the
mRf_ave ← mRf / mRf_count
mLf_ave ← mLf / mLf_count Equation 19
なお、平均値mRf_ave、mLf_aveに固定倍数を積算しマージン量を調整してもよい。なお、フォントが変わるたびにカウント値mRcount、mLcountの値に初期値(例えば「0」)を設定する。 The margin amount may be adjusted by adding a fixed multiple to the average values mRf_ave and mLf_ave. Each time the font changes, initial values (for example, “0”) are set as the count values mRcount and mLcount.
ステップS2211では、マージン決定部6がカテゴリ全てについて処理をしたか否かを判定する。全てのカテゴリについて処理を実行していればステップS2212に移行し、未処理のカテゴリがある場合はステップS2202に移行する。
In step S2211, it is determined whether the
そして、マージン決定部6は、図23に示したようにフォントごとのマージン量の平均値mRf_ave、mLf_aveを各フォントに対応づけて、それぞれ記録部7に記録する。図23のフォントF1の場合、図23のフォントF1に対応する平均値MARF1、MALF1がそれぞれ設定されている。他のフォントについてもそれぞれ平均値が設定されている。
Then, as shown in FIG. 23, the
上記のように実施例5では、同一カテゴリに含まれる異なるフォントのパターンの各特徴ベクトルの同じ位置の要素を、予め設定された範囲の同じ位置の要素に対応する軸に投影し、異なるフォントのパターンの軸上の座標位置の平均値を算出する。次に、フォントごとのパターンの軸上の座標位置と平均値の座標位置との差を算出して、該差を平均値の座標位置を中心にして最小値方向の差と最大値方向の差に分ける。そして、カテゴリごとに同一フォントの最小値方向の差の平均値と最大値方向の差をマージン量として算出して、カテゴリにマージン量を対応付けて記録部に記録する。 As described above, in the fifth embodiment, the elements at the same position of the feature vectors of the different font patterns included in the same category are projected on the axes corresponding to the elements at the same position in the preset range, The average value of the coordinate positions on the pattern axis is calculated. Next, the difference between the coordinate position on the axis of the pattern for each font and the coordinate position of the average value is calculated, and the difference is the difference between the minimum value direction and the maximum value direction centered on the coordinate position of the average value. Divide into Then, the average value of the difference in the minimum value direction and the difference in the maximum value direction of the same font are calculated as the margin amount for each category, and the margin amount is associated with the category and recorded in the recording unit.
従来手法では軸上の1点に多数のカテゴリが所属することになり、認識時の絞り込み能力が低く、高精度を保ったまま少数カテゴリに絞り込めなかった。しかし、実施例5によれば、マージン量をカテゴリごとのフォントに基づいてマージン量を決めているため、大分類用の辞書を用いて大分類の精度を向上させることができる。すなわち、実施例5の平面辞書は、従来に比べてカテゴリごとの各特徴ベクトルの各要素に対して適切に分布を捉えているため、大分類の精度を向上させることができる。 In the conventional method, a large number of categories belong to one point on the axis, and the refining ability at the time of recognition is low, and it is not possible to narrow down to a small number of categories while maintaining high accuracy. However, according to the fifth embodiment, since the margin amount is determined based on the font for each category, the accuracy of the large classification can be improved by using the large classification dictionary. That is, since the planar dictionary of Example 5 appropriately captures the distribution for each element of each feature vector for each category as compared to the conventional case, the accuracy of the large classification can be improved.
なお、実施例2で説明した次元圧縮したベクトルを用いて、実施例5で説明した方法によりマージン量を決定することもできる。 Note that the margin amount can be determined by the method described in the fifth embodiment using the dimension-compressed vector described in the second embodiment.
(変形例1)
なお、実施例3におけるカテゴリの代わりに、フォントの種類により区分けしたテンプレートを用いることにより、図24に示すようなカテゴリごとにフォントとマージ量を対応付けて記録することができる。図24の「カテゴリ」にはカテゴリを識別するための識別番号(1、2〜n)が記録され、「フォント」にはフォントを識別するための識別番号(F1、F2〜Fn)が記録され、ている。また、「mRf_ave2」「mLf_ave2」には、上記実施例3の処理により決定した各カテゴリにおけるフォントごとのマージン量(MALF11、MALF12〜/MARF11、MARF12〜)が記録されている。
(Modification 1)
Note that instead of the category in the third embodiment, by using a template classified by font type, it is possible to record the font and the merge amount in association with each category as shown in FIG. In FIG. 24, “category” is recorded with identification numbers (1, 2 to n) for identifying the category, and “font” is recorded with identification numbers (F1, F2 to Fn) for identifying the font. ,ing. In “mRf_ave2” and “mLf_ave2”, the margin amounts (MALF11, MALF12˜ / MARF11, MARF12˜) for each font in each category determined by the processing of the third embodiment are recorded.
(変形例2)
変形例2は、上記実施例で説明したパターン認識処理を用いてパターン認識を行った結果、誤認識文字があることを発見した場合、誤認識の原因が大分類にあれば、利用者が大分類用の平面辞書を調整して、調整結果を大分類用の平面辞書に記録するものである。
(Modification 2)
In the second modified example, when pattern recognition is performed using the pattern recognition processing described in the above-described embodiment, it is found that there is a misrecognized character. The plane dictionary for classification is adjusted, and the adjustment result is recorded in the plane dictionary for large classification.
図25は、上記実施形態の装置を実現できるコンピュータのハードウェア構成の一例を示す図である。
コンピュータのハードウェア2500は、CPU2501、記録部2502(ROM、RAM、ハードディスクドライブなど)、記録媒体読取装置2503、入出力インタフェース2504(入出力I/F)、通信インタフェース2505(通信I/F)などを備えている。また、上記各構成部はバス2506によってそれぞれ接続されている。
FIG. 25 is a diagram illustrating an example of a hardware configuration of a computer that can implement the apparatus according to the embodiment.
The
CPU2501は、記録部2502に格納されている上記説明したパターン認識処理(図6、図13、図17、図19、図22などに示した処理)を実行する。
記録部2502には、CPU2501が実行するプログラムやデータが記録されている。また、ワークエリアなどとして使用される。また、記録部2502は上記説明した記録部7の機能を有する。
The
The
記録媒体読取装置2503は、CPU2501の制御にしたがって記録媒体2503aに対するデータのリード/ライトを制御する。そして、記録媒体2503aに記録媒体読取装置2503の制御で書き込まれたデータを記憶させたり、記録媒体2503aに記憶されたデータを読み取らせたりする。また、着脱可能な記録媒体2503aは、コンピュータで読み取り可能な記録媒体として、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録装置には、ハードディスク装置(HDD)などがある。光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。
The
入出力インタフェース2504には、入出力装置2504a(例えば、ディスプレイなど)が接続され、ユーザが入力した情報を受信し、バス2506を介してCPU2501に送信する。また、CPU2501からの命令に従ってディスプレイの画面上に操作情報などを表示する。
An input /
通信インタフェース2505は、必要に応じ、他のコンピュータとの間のLAN接続やインターネット接続や無線接続のためのインタフェースである。また、他の装置に接続され、外部装置からのデータの入出力を制御する。
A
図25に示す入出力装置2504aであるモニタの画面上に表示されたパターン認識結果に誤認識文字があることを利用者が発見した場合、利用者が誤認識文字を正解文字に変更するために、画面上の誤認識文字をマウスなどにより選択する。そして、利用者が誤認識文字の代わりに正解文字を入力する。その際、CPU2501が、誤認識した文字に関する大分類用の軸に関するデータと、正解文字に関する大分類用の軸に関するデータと記録部2502から取得して比較し、どの軸でエラーしたかを判定する。そして、CPU2501が判定結果として、エラーした軸と分布をモニタの画面上に表示させる(図12、15のような表示)。利用者は、画面上に表示されたエラーした軸の分布領域(マージン量)をマウスなどで操作して調整をする。CPU2501は、この調整した結果を記録部2502の大分類用の平面辞書に反映させることができる。そのため、従来のように誤認識した文字を正解文字に書き換えるだけでなく、誤認識した場合でも、利用者が大分類用の平面辞書の対象の軸の分布を、視覚的に簡単に調整をすることができる。
(本実施例がコンピュータプログラムとして実現される場合の構成)
図25のようなハードウェア構成を有するコンピュータを用いることによって、上記説明した各種処理機能(実施例で説明した処理(フローチャートなど))が実現される。その場合システムが有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体2503aに記録しておくことができる。
When the user finds that there is a misrecognized character in the pattern recognition result displayed on the screen of the monitor that is the input /
(Configuration when this embodiment is realized as a computer program)
By using a computer having a hardware configuration as shown in FIG. 25, the various processing functions described above (the processing (such as a flowchart) described in the embodiment) are realized. In that case, a program describing the processing contents of the functions that the system should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing content can be recorded in a computer-
また、プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When distributing the program, for example, a portable recording medium such as a DVD or a CD-ROM in which the program is recorded is sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。 The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.
また、本発明は、上記実施の形態に限定されるものでなく、本発明の要旨を逸脱しない範囲内で種々の改良、変更が可能である。なお、各実施例は処理に矛盾の無い限りにおいて、互いに組み合わせても構わない。 The present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the gist of the present invention. Each embodiment may be combined with each other as long as there is no contradiction in processing.
以上実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の特徴ベクトルごとに求められる参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、軸上の要素ごとに、予め設定されたマージン量とカテゴリを関連付けて生成した候補テーブルを記録する記録部と、
与えられたパターンの参照特徴ベクトルを求め、前記候補テーブルを用いて、該参照特徴ベクトルの要素ごとに分類をして候補カテゴリ集合を求め、分類した候補カテゴリ集合を出力する分類部と、
を備えることを特徴とするパターン認識装置。
(付記2)
前記パターン認識装置は、前記学習用サンプルパターンまたは前記与えられたパターンを同次元の特徴ベクトルにする特徴抽出部と、
前記特徴ベクトルを次元圧縮して前記参照特徴ベクトルにする特徴圧縮部と、
を備えることを特徴とする付記1に記載のパターン認識装置。
(付記3)
前記マージン量は、前記カテゴリに含まれる複数の元となる学習用サンプルパターンと、前記元となる学習用サンプルパターンを劣化させたパターンの各参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、前記元となる学習用サンプルパターンの前記軸上の座標位置と、前記劣化させたパターンごとの前記軸上の座標位置との差を算出して、前記元となる学習用サンプルパターンの前記軸上の座標位置を中心にして最小値方向の差の平均値と最大値方向の差の平均値であることを特徴とする付記1または2に記載のパターン認識装置。
(付記4)
前記マージン量は、前記軸を予め設定された範囲に区分けした区間を設定し、前記カテゴリに含まれる複数の元となる学習用サンプルパターンと、前記元となる学習用サンプルパターンを劣化させたパターンの各参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、前記元となる学習用サンプルパターンの前記軸上の座標位置と、前記劣化させたパターンごとの前記軸上の座標位置との差を算出して、前記元となる学習用サンプルパターンの前記軸上の座標位置を中心にして最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出し、前記元となる学習用サンプルパターンの前記軸上の座標位置が含まれる前記区間ごとに前記マージン量を対応付けることを特徴とする付記1または2に記載のパターン認識装置。
(付記5)
前記マージン量は、同一カテゴリに含まれる異なるフォントの学習用サンプルパターンの各特徴ベクトルの同じ位置の要素を、予め設定された範囲の前記同じ位置の要素に対応する軸に投影し、前記異なるフォントの学習用サンプルパターンの前記軸上の座標位置の平均値を算出し、前記フォントごとの学習用サンプルパターンの前記軸上の座標位置と前記平均値の座標位置との差を算出して、該差を前記平均値の座標位置を中心にして最小値方向の差と最大値方向の差に分け、前記カテゴリごとに同一フォントの前記最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出して、前記フォントごとに前記マージン量を対応付けることを特徴とする付記1または2に記載のパターン認識装置。
(付記6)
コンピュータに、
与えられたパターンの参照特徴ベクトルを求める処理と、
学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の特徴ベクトルごとに求められる参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、軸上の要素ごとに、予め設定されたマージン量とカテゴリを関連付けて生成した候補テーブルを用いて、該参照特徴ベクトルの要素ごとに分類をして候補カテゴリ集合を求める処理と、
分類した候補カテゴリ集合を出力する処理と、
を実行させることを特徴とするパターン認識プログラム。
(付記7)
コンピュータが、
与えられたパターンの参照特徴ベクトルを求め、
学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の特徴ベクトルごとに求められる参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、軸上の要素ごとに、予め設定されたマージン量とカテゴリを関連付けて生成した候補テーブルを用いて、該参照特徴ベクトルの要素ごとに分類をして候補カテゴリ集合を求め、
分類した候補カテゴリ集合を出力する、
ことを実行するパターン認識方法。
(付記8)
前記学習用サンプルパターンまたは前記与えられたパターンを同次元の特徴ベクトルにする処理と、
前記特徴ベクトルを次元圧縮して前記参照特徴ベクトルにする処理と、
をコンピュータに実行させることを特徴とする付記6に記載のパターン認識プログラム。
(付記9)
前記カテゴリに含まれる複数の元となる学習用サンプルパターンと、前記元となる学習用サンプルパターンを劣化させたパターンの各参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、前記元となる学習用サンプルパターンの前記軸上の座標位置と、前記劣化させたパターンごとの前記軸上の座標位置との差を算出して、前記元となる学習用サンプルパターンの前記軸上の座標位置を中心にして最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出する処理を、コンピュータに実行させることを特徴とする付記6または8に記載のパターン認識プログラム。
(付記10)
前記軸を予め設定された範囲に区分けした区間を設定し、前記カテゴリに含まれる複数の元となる学習用サンプルパターンと、前記元となる学習用サンプルパターンを劣化させたパターンの各参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、前記元となる学習用サンプルパターンの前記軸上の座標位置と、前記劣化させたパターンごとの前記軸上の座標位置との差を算出して、前記元となる学習用サンプルパターンの前記軸上の座標位置を中心にして最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出し、前記元となる学習用サンプルパターンの前記軸上の座標位置が含まれる前記区間ごとに前記マージン量を対応付けて前記記録部に記録する処理を、コンピュータに実行させることを特徴とする付記6または8に記載のパターン認識プログラム。
(付記11)
同一カテゴリに含まれる異なるフォントの学習用サンプルパターンの各特徴ベクトルの同じ位置の要素を、予め設定された範囲の前記同じ位置の要素に対応する軸に投影し、前記異なるフォントの学習用サンプルパターンの前記軸上の座標位置の平均値を算出し、前記フォントごとの学習用サンプルパターンの前記軸上の座標位置と前記平均値の座標位置との差を算出して、該差を前記平均値の座標位置を中心にして最小値方向の差と最大値方向の差に分け、前記カテゴリごとに同一フォントの前記最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出して、前記フォントごとに前記マージン量を対応付けて記録部に記録する処理を、コンピュータに実行させることを特徴とする付記6または8に記載のパターン認識プログラム。
(付記12)
前記学習用サンプルパターンまたは前記与えられたパターンを同次元の特徴ベクトルにし、
前記特徴ベクトルを次元圧縮して前記参照特徴ベクトルにする、
ことをコンピュータが実行する付記7に記載のパターン認識方法。
(付記13)
前記カテゴリに含まれる複数の元となる学習用サンプルパターンと、前記元となる学習用サンプルパターンを劣化させたパターンの各参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、前記元となる学習用サンプルパターンの前記軸上の座標位置と、前記劣化させたパターンごとの前記軸上の座標位置との差を算出して、前記元となる学習用サンプルパターンの前記軸上の座標位置を中心にして最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出する、ことをコンピュータが実行する付記7または12に記載のパターン認識方法。
(付記14)
前記軸を予め設定された範囲に区分けした区間を設定し、前記カテゴリに含まれる複数の元となる学習用サンプルパターンと、前記元となる学習用サンプルパターンを劣化させたパターンの各参照特徴ベクトルの同じ位置の要素を、予め設定された範囲の軸に投影し、前記元となる学習用サンプルパターンの前記軸上の座標位置と、前記劣化させたパターンごとの前記軸上の座標位置との差を算出して、前記元となる学習用サンプルパターンの前記軸上の座標位置を中心にして最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出し、前記元となる学習用サンプルパターンの前記軸上の座標位置が含まれる前記区間ごとに前記マージン量を対応付けて前記記録部に記録する、ことをコンピュータが実行する付記7または12に記載のパターン認識方法。
(付記15)
同一カテゴリに含まれる異なるフォントの学習用サンプルパターンの各特徴ベクトルの同じ位置の要素を、予め設定された範囲の前記同じ位置の要素に対応する軸に投影し、前記異なるフォントの学習用サンプルパターンの前記軸上の座標位置の平均値を算出し、前記フォントごとの学習用サンプルパターンの前記軸上の座標位置と前記平均値の座標位置との差を算出して、該差を前記平均値の座標位置を中心にして最小値方向の差と最大値方向の差に分け、前記カテゴリごとに同一フォントの前記最小値方向の差の平均値と最大値方向の差の平均値をマージン量として算出して、前記フォントごとに前記マージン量を対応付けて記録部に記録する、ことをコンピュータが実行する付記7または12に記載のパターン認識方法。
Regarding the embodiment including the above-described examples, the following additional notes are further disclosed.
(Appendix 1)
For each of a plurality of categories that classify the sample pattern for learning, the element at the same position of the reference feature vector obtained for each of the plurality of feature vectors included in the same category is projected onto the axis of the preset range, For each element, a recording unit that records a candidate table generated by associating a preset margin amount and category,
Obtaining a reference feature vector of a given pattern, using the candidate table, classifying each element of the reference feature vector to obtain a candidate category set, and outputting a classified candidate category set;
A pattern recognition apparatus comprising:
(Appendix 2)
The pattern recognition device includes a feature extraction unit that makes the learning sample pattern or the given pattern a feature vector of the same dimension;
A feature compression unit that dimensionally compresses the feature vector into the reference feature vector;
The pattern recognition apparatus according to
(Appendix 3)
The margin amount is set in advance for elements at the same position in each reference feature vector of a plurality of original learning sample patterns included in the category and a pattern obtained by degrading the original learning sample pattern. Projecting on the axis of the range, calculating the difference between the coordinate position on the axis of the original learning sample pattern and the coordinate position on the axis for each deteriorated pattern, the original learning The pattern recognition apparatus according to
(Appendix 4)
The margin amount sets a section obtained by dividing the axis into a predetermined range, and a plurality of original learning sample patterns included in the category and a pattern obtained by degrading the original learning sample pattern Are projected onto the axis of a preset range, the coordinate position on the axis of the original learning sample pattern, and the axis for each degraded pattern The difference between the coordinate position and the average value of the difference between the minimum value direction and the average value of the maximum value direction around the coordinate position on the axis of the original learning sample pattern is calculated as a margin amount. The pattern according to
(Appendix 5)
The margin amount is calculated by projecting an element at the same position of each feature vector of the sample pattern for learning of different fonts included in the same category onto an axis corresponding to the element at the same position in a preset range. Calculating the average value of the coordinate position on the axis of the learning sample pattern, calculating the difference between the coordinate position on the axis of the learning sample pattern for each font and the coordinate position of the average value, The difference is divided into a difference in the minimum value direction and a difference in the maximum value direction centered on the coordinate position of the average value, and the average value of the difference in the minimum value direction and the difference in the maximum value direction of the same font for each category. The pattern recognition apparatus according to
(Appendix 6)
On the computer,
A process for obtaining a reference feature vector of a given pattern;
For each of a plurality of categories that classify the sample pattern for learning, the element at the same position of the reference feature vector obtained for each of the plurality of feature vectors included in the same category is projected onto the axis of the preset range, A process for obtaining a candidate category set by classifying each element of the reference feature vector using a candidate table generated by associating a predetermined margin amount with a category for each element;
A process of outputting the classified candidate category set;
A pattern recognition program characterized in that
(Appendix 7)
Computer
Find a reference feature vector for a given pattern,
For each of a plurality of categories that classify the sample pattern for learning, the element at the same position of the reference feature vector obtained for each of the plurality of feature vectors included in the same category is projected onto the axis of the preset range, For each element, using a candidate table generated by associating a preset margin amount and category, classifying each element of the reference feature vector to obtain a candidate category set,
Output the classified candidate category set,
A pattern recognition method that performs that.
(Appendix 8)
Processing the learning sample pattern or the given pattern into a feature vector of the same dimension;
Processing to dimensionally compress the feature vector into the reference feature vector;
The pattern recognition program according to
(Appendix 9)
Projecting an element at the same position of each reference feature vector of a plurality of original learning sample patterns included in the category and a pattern obtained by degrading the original learning sample pattern onto an axis in a preset range And calculating the difference between the coordinate position on the axis of the original learning sample pattern and the coordinate position on the axis for each deteriorated pattern, and
(Appendix 10)
A section obtained by dividing the axis into predetermined ranges is set, and each reference feature vector of a plurality of original learning sample patterns included in the category and a pattern obtained by degrading the original learning sample pattern Are projected onto an axis in a preset range, and the coordinate position on the axis of the original learning sample pattern and the coordinate position on the axis for each deteriorated pattern Calculating the difference, calculating the average value of the difference in the minimum value direction and the average value of the difference in the maximum value direction as a margin amount around the coordinate position on the axis of the original learning sample pattern, Causing the computer to execute a process of associating and recording the margin amount for each section including the coordinate position on the axis of the original learning sample pattern. Pattern recognition program according to
(Appendix 11)
Projecting an element at the same position of each feature vector of a sample pattern for learning of different fonts included in the same category onto an axis corresponding to the element at the same position of a preset range, and learning sample patterns of the different fonts The average value of the coordinate position on the axis is calculated, the difference between the coordinate position on the axis of the learning sample pattern for each font and the coordinate position of the average value is calculated, and the difference is calculated as the average value. The difference between the minimum value direction and the maximum value direction is centered on the coordinate position, and the average value of the difference between the minimum value direction and the average value of the maximum value direction of the same font for each category is used as a margin amount. 9. The pattern recognition program according to
(Appendix 12)
Making the learning sample pattern or the given pattern a feature vector of the same dimension;
Dimensionally compressing the feature vector into the reference feature vector;
The pattern recognition method according to
(Appendix 13)
Projecting an element at the same position of each reference feature vector of a plurality of original learning sample patterns included in the category and a pattern obtained by degrading the original learning sample pattern onto an axis in a preset range And calculating the difference between the coordinate position on the axis of the original learning sample pattern and the coordinate position on the axis for each deteriorated pattern, and The pattern recognition method according to
(Appendix 14)
A section obtained by dividing the axis into predetermined ranges is set, and each reference feature vector of a plurality of original learning sample patterns included in the category and a pattern obtained by degrading the original learning sample pattern Are projected onto an axis in a preset range, and the coordinate position on the axis of the original learning sample pattern and the coordinate position on the axis for each deteriorated pattern Calculating the difference, calculating the average value of the difference in the minimum value direction and the average value of the difference in the maximum value direction as a margin amount around the coordinate position on the axis of the original learning sample pattern, (7) The computer executes that the margin amount is associated with each section including the coordinate position on the axis of the original learning sample pattern and recorded in the recording unit. Pattern recognition method according to 2.
(Appendix 15)
Projecting an element at the same position of each feature vector of a sample pattern for learning of different fonts included in the same category onto an axis corresponding to the element at the same position of a preset range, and learning sample patterns of the different fonts The average value of the coordinate position on the axis is calculated, the difference between the coordinate position on the axis of the learning sample pattern for each font and the coordinate position of the average value is calculated, and the difference is calculated as the average value. The difference between the minimum value direction and the maximum value direction is centered on the coordinate position, and the average value of the difference between the minimum value direction and the average value of the maximum value direction of the same font for each category is used as a margin amount. The pattern recognition method according to
1、1601 パターン認識装置
2 特徴抽出部
3 大分類部
4 詳細分類部
5 テーブル作成部
6 マージン決定部
7 記録部
1602 特徴圧縮部
2500 ハードウェア
2501 CPU
2502 記録部
2503 記録媒体読取装置
2503a 記録媒体
2504 入出力インタフェース
2504a 入出力装置
2505 通信インタフェース
2506 バス
DESCRIPTION OF
2502
Claims (7)
前記与えられたパターンの参照特徴ベクトルを求め、前記候補テーブルを用いて、該参照特徴ベクトルの要素ごとに分類をして候補カテゴリ集合を求め、分類した前記候補カテゴリ集合を出力する分類部と、
を備えることを特徴とするパターン認識装置。 For each of a plurality of categories of classification of learning sample pattern is a pattern used in classifying a given pattern, determine the reference feature vector for each feature vector of the plurality of the learning samples pattern included in the same category, determined and the elements of the reference feature vectors by projecting the corresponding coordinate position of the axis represented by the predetermined range, the coordinate position of the element on the shaft which is projected on each of the elements, which is set in advance and margin amount, a recording unit for recording by generating a candidate table in association with, and the category,
Obtains a reference feature vector of said given pattern, using the candidate table, a classification unit which obtains a candidate category set by the classification for each element of the reference feature vectors, and outputs the candidate category set classified,
A pattern recognition apparatus comprising:
前記特徴ベクトルを次元圧縮して前記参照特徴ベクトルにする特徴圧縮部と、
を備えることを特徴とする請求項1に記載のパターン認識装置。 The pattern recognition device includes a feature extraction unit that makes the learning sample pattern or the given pattern a feature vector of the same dimension;
A feature compression unit that dimensionally compresses the feature vector into the reference feature vector;
The pattern recognition apparatus according to claim 1, further comprising:
与えられたパターンを分類する際に用いるパターンである学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の前記学習用サンプルパターンの特徴ベクトルごとに参照特徴ベクトルを求める処理と、
前記学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の前記学習用サンプルパターンの特徴ベクトルごとに参照特徴ベクトルを求め、求めた前記参照特徴ベクトルの要素を、予め設定された範囲で表される軸の対応する座標位置に投影し、前記要素ごとに投影した前記軸上の前記要素の座標位置と、予め設定されたマージン量と、前記カテゴリと、を関連付けて生成した候補テーブルを用いて、該参照特徴ベクトルの要素ごとに分類をして候補カテゴリ集合を求める処理と、
分類した前記候補カテゴリ集合を出力する処理と、
を実行させることを特徴とするパターン認識プログラム。 On the computer,
A process for obtaining a reference feature vector for each feature vector of the plurality of learning sample patterns included in the same category, for each of a plurality of categories that classify the learning sample pattern that is a pattern used when classifying a given pattern; ,
For each of a plurality of categories of classification of the learning sample pattern, obtains a reference feature vector for each feature vector of the plurality of the learning samples pattern included in the same category, the elements of the reference feature vectors obtained, preset is projected onto the corresponding coordinate position of the axis represented by the range, generated in association with the coordinate position of the element on the shaft which is projected on each of the elements, a preset margin amount, and the categories, the Using the candidate table, classifying each element of the reference feature vector and obtaining a candidate category set;
And outputting the candidate category set that was classified,
A pattern recognition program characterized in that
与えられたパターンを分類する際に用いるパターンである学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の前記学習用サンプルパターンの特徴ベクトルごとに参照特徴ベクトルを求め、
前記学習用サンプルパターンを種別する複数のカテゴリごとに、同じカテゴリに含まれる複数の前記学習用サンプルパターンの特徴ベクトルごとに参照特徴ベクトルを求め、求めた前記参照特徴ベクトルの要素を、予め設定された範囲で表される軸の対応する座標位置に投影し、前記要素ごとに投影した前記軸上の前記要素の座標位置と、予め設定されたマージン量と、前記カテゴリと、を関連付けて生成した候補テーブルを用いて、該参照特徴ベクトルの要素ごとに分類をして候補カテゴリ集合を求め、
分類した前記候補カテゴリ集合を出力する、
ことを実行するパターン認識方法。 Computer
For each of a plurality of categories that classify a learning sample pattern that is a pattern used when classifying a given pattern, a reference feature vector is obtained for each feature vector of the plurality of learning sample patterns included in the same category ,
For each of a plurality of categories of classification of the learning sample pattern, obtains a reference feature vector for each feature vector of the plurality of the learning samples pattern included in the same category, the elements of the reference feature vectors obtained, preset is projected onto the corresponding coordinate position of the axis represented by the range, generated in association with the coordinate position of the element on the shaft which is projected on each of the elements, a preset margin amount, and the categories, the Using the candidate table, a classification is made for each element of the reference feature vector to obtain a candidate category set,
To output the candidate category set that was classified,
A pattern recognition method that performs that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009253738A JP5521497B2 (en) | 2009-11-05 | 2009-11-05 | Pattern recognition apparatus, pattern recognition program, and pattern recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009253738A JP5521497B2 (en) | 2009-11-05 | 2009-11-05 | Pattern recognition apparatus, pattern recognition program, and pattern recognition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011100245A JP2011100245A (en) | 2011-05-19 |
JP5521497B2 true JP5521497B2 (en) | 2014-06-11 |
Family
ID=44191377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009253738A Expired - Fee Related JP5521497B2 (en) | 2009-11-05 | 2009-11-05 | Pattern recognition apparatus, pattern recognition program, and pattern recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5521497B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6102156B2 (en) | 2012-09-28 | 2017-03-29 | オムロン株式会社 | Image processing system and image processing method |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0546812A (en) * | 1991-08-20 | 1993-02-26 | Ricoh Co Ltd | Large classification recognizing method for charactor |
JP3943223B2 (en) * | 1997-02-12 | 2007-07-11 | 富士通株式会社 | Pattern recognition apparatus and method for performing classification using candidate table |
JP3475886B2 (en) * | 1999-12-24 | 2003-12-10 | 日本電気株式会社 | Pattern recognition apparatus and method, and recording medium |
JP4199954B2 (en) * | 2002-03-29 | 2008-12-24 | 株式会社日本デジタル研究所 | Character recognition dictionary creation method and character recognition method |
JP2004341959A (en) * | 2003-05-16 | 2004-12-02 | Just Syst Corp | Data classification device, data classification method, and program for making computer execute the method |
JP2005339075A (en) * | 2004-05-26 | 2005-12-08 | Nippon Telegr & Teleph Corp <Ntt> | Image searching device, image searching method, program for the method, and recording medium recorded with the program |
JP4992646B2 (en) * | 2007-10-05 | 2012-08-08 | セイコーエプソン株式会社 | Identification method and program |
JP5259456B2 (en) * | 2009-03-02 | 2013-08-07 | 株式会社東芝 | Learning device and object detection device |
-
2009
- 2009-11-05 JP JP2009253738A patent/JP5521497B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011100245A (en) | 2011-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10726252B2 (en) | Method of digitizing and extracting meaning from graphic objects | |
Paiva et al. | An approach to supporting incremental visual data classification | |
CN103914504B (en) | Information processor and the method for generating chart | |
CN111373392B (en) | Document sorting device | |
US20210366055A1 (en) | Systems and methods for generating accurate transaction data and manipulation | |
CN108734212B (en) | Method for determining classification result and related device | |
US20230336532A1 (en) | Privacy Preserving Document Analysis | |
JP2013246731A (en) | Handwritten character retrieval apparatus, method, and program | |
JP2013246732A (en) | Handwritten character retrieval apparatus, method and program | |
Dommaraju et al. | Identifying topological prototypes using deep point cloud autoencoder networks | |
JP2015069256A (en) | Character identification system | |
JP6680956B1 (en) | Search needs evaluation device, search needs evaluation system, and search needs evaluation method | |
CN115146062A (en) | Intelligent event analysis method and system fusing expert recommendation and text clustering | |
AU2015204339B2 (en) | Information processing apparatus and information processing program | |
WO2015087148A1 (en) | Classifying test data based on a maximum margin classifier | |
JP6856916B1 (en) | Information processing equipment, information processing methods and information processing programs | |
JP5521497B2 (en) | Pattern recognition apparatus, pattern recognition program, and pattern recognition method | |
KR102392644B1 (en) | Apparatus and method for classifying documents based on similarity | |
Sun et al. | Attention-based deep learning methods for document layout analysis | |
US8606494B2 (en) | Map generation apparatus, map generation method and computer readable medium | |
Husain et al. | Single-cell subcellular protein localisation using novel ensembles of diverse deep architectures | |
JP3529036B2 (en) | Classification method of images with documents | |
CN111144114B (en) | Text recognition method and device | |
JP2020109689A (en) | Retrieval need evaluation device, retrieval need evaluation system, and retrieval need evaluation method | |
Zhang et al. | A probabilistic analysis of sparse coded feature pooling and its application for image retrieval |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130813 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130930 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140311 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140324 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5521497 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |