JP5240049B2 - Character identification program, character identification device - Google Patents
Character identification program, character identification device Download PDFInfo
- Publication number
- JP5240049B2 JP5240049B2 JP2009108380A JP2009108380A JP5240049B2 JP 5240049 B2 JP5240049 B2 JP 5240049B2 JP 2009108380 A JP2009108380 A JP 2009108380A JP 2009108380 A JP2009108380 A JP 2009108380A JP 5240049 B2 JP5240049 B2 JP 5240049B2
- Authority
- JP
- Japan
- Prior art keywords
- character
- distribution
- category
- common
- similar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Character Discrimination (AREA)
- Image Analysis (AREA)
Description
本発明は、文字識別プログラム、文字識別装置に関し、例えば、類似する文字を高精度に認識する文字識別プログラム、文字識別装置に関する。 The present invention relates to a character identification program and a character identification device, for example, a character identification program and a character identification device that recognize a similar character with high accuracy.
一般に、イメージスキャナーで取り込まれる文書に含まれる文字をテキストデータに変換する手法として光学文字認識(以下、OCR:Optical Character Recognitionとする)が広く知られている。 In general, optical character recognition (hereinafter referred to as OCR: Optical Character Recognition) is widely known as a method for converting characters included in a document captured by an image scanner into text data.
OCRでは、文字認識を高精度に認識することが求められ、特に、類似文字を高精度に識別することが求められている。この類似文字とは、例えば、「犬」と「大」が挙げられ、「犬」と認識すべき文字を「大」と認識すると誤読となってしまう。 In OCR, it is required to recognize character recognition with high accuracy, and in particular, it is required to identify similar characters with high accuracy. Examples of the similar characters include “dog” and “large”. If a character that should be recognized as “dog” is recognized as “large”, it is misread.
この類似文字を識別する方式の一例として、マハラノビス距離や投影距離法と、各類似文字が示す特徴の差異とを用いることで、任意の文字が与えられた場合に、どちらの類似文字に類似するかを判定する混合識別方式がある。 As an example of a method for identifying this similar character, the Mahalanobis distance and the projection distance method and the difference in characteristics indicated by each similar character are used, and when any character is given, it is similar to which similar character. There is a mixed identification method for determining whether or not.
上述した「類似文字の特徴の差異」とは、各類似文字の文字カテゴリから抽出される情報に基づいて求められる。この「文字カテゴリ」とは、ある所定の文字における、文字のゆらぎ、文字線の傾き、文字面積等をパラメーターとする特徴ベクトルを用いて定義される。 The above-mentioned “difference in characteristics of similar characters” is obtained based on information extracted from the character category of each similar character. This “character category” is defined using a feature vector whose parameters are, for example, character fluctuation, character line inclination, and character area of a predetermined character.
一般に、特徴ベクトルは、特徴空間上に示されることから、上述した「文字カテゴリ」は、特徴空間上の分布として示されることになる。これを文字カテゴリ分布と呼ぶことにする。なお、文字のゆらぎ、文字線の傾き、文字面積等といったパラメーターを便宜的に「特徴量」とする。 In general, since the feature vector is shown on the feature space, the above-mentioned “character category” is shown as a distribution on the feature space. This is called a character category distribution. For convenience, parameters such as character fluctuation, character line inclination, and character area are referred to as “features”.
続いて、上述した混合識別方式について具体的に説明する。図12は、従来の混合識別方式を説明するための図である。上述したように、特徴空間は、高次元で定義されるが、図12の特徴空間10は、説明の便宜上、例えば、文字線の傾きで定義される特徴量と、文字面積で定義される特徴量とで定義される次元にて表すものとする。 Next, the above-described mixed identification method will be specifically described. FIG. 12 is a diagram for explaining a conventional mixed identification method. As described above, the feature space is defined in a high dimension, but the feature space 10 in FIG. 12 is, for convenience of explanation, for example, a feature amount defined by the inclination of a character line and a feature defined by a character area. It shall be expressed in a dimension defined by quantity.
まず、図12の文字カテゴリ分布Aと文字カテゴリ分布B(以下、単に、カテゴリ分布A、Bとする)について説明する。このカテゴリ分布Aは、文字線の傾きや文字面積等が異なる同意の文字が集まったカテゴリ分布を示す。そして、カテゴリ分布Bについても同様とする。なお、「同意の文字」とは、同じ文字でフォントやポイントが異なるもの、あるいは、スキャナ読み取りをした画像で、同じ文字であるものの読み取り誤差やごみの有無などから画像として違いのある文字を示す。 First, the character category distribution A and the character category distribution B (hereinafter simply referred to as category distributions A and B) in FIG. 12 will be described. This category distribution A indicates a category distribution in which agreed characters having different character line inclinations, character areas, and the like are gathered. The same applies to the category distribution B. Note that “consent characters” are the same characters with different fonts and points, or images that have been scanned by the scanner, but have the same characters due to reading errors, presence of dust, etc. .
また、カテゴリAとカテゴリBは互いに類似し、例えば、カテゴリAが「犬(いぬ)」を示す場合、カテゴリBは「大(だい)」を示す。さらに、カテゴリAが「烏(からす)」を示す場合、カテゴリBは「鳥(とり)」を示す。 Further, the category A and the category B are similar to each other. For example, when the category A indicates “dog”, the category B indicates “large”. Further, when category A indicates “crow”, category B indicates “bird”.
そして、任意の文字が入力された場合、入力された文字が、カテゴリAに属するのか、もしくは、カテゴリBに属するのかを識別する類似文字識別を行う。 When an arbitrary character is input, similar character identification is performed to identify whether the input character belongs to category A or category B.
このように、任意の文字を、互いに類似する文字カテゴリのどちらに属するかを識別することを「類似文字識別」として、以下説明する。 In this way, identification of which arbitrary character belongs to which of the similar character categories will be described below as “similar character identification”.
この「類似文字識別」が行われる場合に、例えば、原関数をマハラノビス距離で定義し、上述した類似文字が示す特徴の差異を補正項として加えた混合識別関数を用いて行われる。この補正項の算出について、以下説明する。 When this “similar character identification” is performed, for example, the original function is defined by the Mahalanobis distance, and a mixed identification function in which the above-described feature difference indicated by the similar characters is added as a correction term is performed. The calculation of this correction term will be described below.
まず、類似文字の特徴の差異をカテゴリAとカテゴリBの各平均ベクトル(a、b)からなる差分ベクトルとして捉え、識別対象となる任意の文字:入力パターンpが与えられたとする。 First, it is assumed that the difference between features of similar characters is regarded as a difference vector composed of average vectors (a, b) of category A and category B, and an arbitrary character to be identified: input pattern p is given.
この場合、入力パターンpから差分ベクトルに射影した値:p1を求める。そして、p1と各文字カテゴリの平均ベクトルから求められるm1、m2が、カテゴリA、カテゴリBの識別関数に対する補正項となる。 In this case, a value p1 projected from the input pattern p onto the difference vector is obtained. Then, m1 and m2 obtained from p1 and the average vector of each character category are correction terms for the category A and category B discrimination functions.
そして、図12に示した混合識別関数の補正項をm1とした混合識別関数により、カテゴリAと入力パターンpとの識別関数値:fA(p)を求め、同様に、補正項をm2とした混合識別関数により、カテゴリBと入力パターンpとの識別関数値:fB(p)を求める。 Then, the discriminant function value: f A (p) between the category A and the input pattern p is obtained by the mixed discriminant function in which the correction term of the mixed discriminant function shown in FIG. 12 is m1, and similarly, the correction term is m2. The discriminant function value: f B (p) between the category B and the input pattern p is obtained by the mixed discriminant function.
そして、算出した各識別関数値に基づいて、入力パターンpがカテゴリA、カテゴリBのどちらに属するのかを識別し、入力パターンpの属するカテゴリが定められる。これは、入力パターンpに対し、類似文字の特徴の差異を用いた識別を行ったことに相当する。 Then, based on each calculated identification function value, it is identified whether the input pattern p belongs to category A or category B, and the category to which the input pattern p belongs is determined. This is equivalent to identifying the input pattern p using the difference in characteristics of similar characters.
なお、類似文字の特徴の差異を用いた識別の一例として、差分ベクトルに加えて、強調ベクトルを用いて類似文字の識別を行う方法がある。この強調ベクトルとは、入力パターンの値と、類似文字の識別境界面における法線方向のベクトルとからなるベクトルを示す(例えば、特許文献1参照)。 In addition, as an example of identification using a difference in characteristics of similar characters, there is a method of identifying similar characters using an emphasis vector in addition to a difference vector. The enhancement vector indicates a vector composed of an input pattern value and a vector in the normal direction on the identification boundary surface of similar characters (see, for example, Patent Document 1).
しかしながら、上述した従来の技術では、類似文字の特徴の差異を高精度に識別することができないという問題があった。 However, the above-described conventional technique has a problem in that it is not possible to identify a difference in characteristics of similar characters with high accuracy.
例えば、図12に示した例では、カテゴリAとカテゴリBの各平均ベクトルからなる差分ベクトルを用いて類似文字の特徴の差異を算出したが、類似文字の特徴の差異は、特徴空間上に広がっており、差分ベクトル以外のベクトルで示される他の情報が特徴空間上に存在している。 For example, in the example illustrated in FIG. 12, the difference between the features of similar characters is calculated using a difference vector composed of the average vectors of category A and category B. However, the difference in features of the similar characters spreads over the feature space. In addition, other information indicated by vectors other than the difference vector exists in the feature space.
したがって、差分ベクトルを用いて、類似文字の特徴の差異を算出しても、差分ベクトル以外のベクトルで示される他の情報が使用されていない。その結果、識別に必要な他の情報が不足しているため、類似文字を高精度に認識するには限界がある。 Therefore, even if the difference between the features of similar characters is calculated using the difference vector, other information indicated by the vector other than the difference vector is not used. As a result, since other information necessary for identification is lacking, there is a limit to recognizing similar characters with high accuracy.
開示の技術は、上記に鑑みてなされたものであって、類似文字カテゴリ間の差異を高精度に識別する文字識別プログラム、文字識別装置を提供することを目的とする。 The disclosed technology has been made in view of the above, and an object of the present invention is to provide a character identification program and a character identification device that identify differences between similar character categories with high accuracy.
本願の開示する文字識別プログラムは、特徴空間上において、形状が異なり同意の文字を含む文字カテゴリを、対比する文字ごとに特定し、各文字カテゴリに共通する情報を共通分布として求める共通分布処理手順と、前記共通分布と各文字カテゴリ分布を基にして各文字カテゴリ分布を修正する修正手順と、識別対象となる文字を取得した場合に、当該文字の前記特徴空間上の位置と、前記修正手順により修正された各文字カテゴリ分布とを基にして、前記文字を識別する文字識別手順とをコンピュータに実行させる。 The character identification program disclosed in the present application specifies, for each character to be compared, a character category having a different shape and including an agreed character on the feature space, and obtains information common to each character category as a common distribution processing procedure A correction procedure for correcting each character category distribution based on the common distribution and each character category distribution, and when a character to be identified is acquired, the position of the character in the feature space, and the correction procedure The computer is caused to execute a character identification procedure for identifying the character based on the character category distribution corrected by the above.
本願の開示する文字識別プログラムによれば、類似文字カテゴリ間の差異を高精度に識別するという効果を奏する。 According to the character identification program disclosed in the present application, there is an effect that a difference between similar character categories is identified with high accuracy.
以下に、本願の開示する文字識別プログラム、文字識別装置の実施例を図面に基づいて説明する。なお、この実施例によりこの発明が限定されるものではない。 Embodiments of a character identification program and a character identification device disclosed in the present application will be described below with reference to the drawings. Note that the present invention is not limited to the embodiments.
まず、本実施例1に係る文字識別装置の概要について説明する。実施例1に係る文字識別装置は、最初に認識対象となる任意の文字を含む画像データが与えられ、この任意の文字が、文字カテゴリAに属するのか、それとも、文字カテゴリBに属するのか判定を行い、任意の文字に対する識別を行う。なお、文字カテゴリAと文字カテゴリBは、互いに類似するものとする。 First, an outline of the character identification device according to the first embodiment will be described. The character identification device according to the first embodiment is initially given image data including an arbitrary character to be recognized, and determines whether the arbitrary character belongs to the character category A or the character category B. To identify any character. Note that the character category A and the character category B are similar to each other.
このように、任意の文字を、互いに類似する文字カテゴリのどちらに属するかを識別することを「類似文字識別」として以下説明する。 In this way, identification of which arbitrary character belongs to which of the similar character categories will be described as “similar character identification”.
この「類似文字識別」を行う際、実施例1に示す文字識別装置は、互いに類似する文字カテゴリ間に共通する情報を特徴空間上の共通分布として求め、求めた共通分布を各類似文字が示す分布に対し、畳み込み積分を行い、畳み込んだ分布を用いて、識別を行う。以下、具体的に図を用いて説明する。 When this “similar character identification” is performed, the character identification device according to the first embodiment obtains information common to similar character categories as a common distribution on the feature space, and each similar character indicates the obtained common distribution. Convolution is performed on the distribution, and identification is performed using the convolved distribution. Hereinafter, it demonstrates concretely using figures.
図1は、実施例の概要を説明するための図である。図1に示した例では、任意の入力パターンpが、図12に示した特徴空間10上に与えられ、混合識別関数を用いて、カテゴリAもしくはBのどちらに類似するかの識別を行う。 FIG. 1 is a diagram for explaining the outline of the embodiment. In the example shown in FIG. 1, an arbitrary input pattern p is given on the feature space 10 shown in FIG. 12, and it is discriminated whether it is similar to category A or B using a mixed discriminant function.
なお、カテゴリA、Bは、従来技術にて説明した文字カテゴリを示すものとし、ある所定の文字における、文字のゆらぎ、文字線の傾き、文字面積等をパラメーターとする特徴ベクトルを用いて定義される。 The categories A and B indicate the character categories described in the related art, and are defined using feature vectors whose parameters are character fluctuation, character line inclination, character area, etc., in a given character. The
一般に、この特徴ベクトルは、特徴空間上に示されることから、上述した「文字カテゴリ」は、特徴ベクトルで定義される特徴空間上の分布として示される。これを文字カテゴリ分布と呼ぶことにする。なお、文字のゆらぎ、文字線の傾き、文字面積等といったパラメーターを便宜的に「特徴量」とする。 In general, since this feature vector is shown on the feature space, the above-mentioned “character category” is shown as a distribution on the feature space defined by the feature vector. This is called a character category distribution. For convenience, parameters such as character fluctuation, character line inclination, and character area are referred to as “features”.
まず、各類似文字カテゴリが示す特徴空間上の分布から共通する形状の共通分布50を入力パターンpの値に関らず求める(ステップS10)。なお、共通分布50内の「c」は、カテゴリAとカテゴリBの平均ベクトルが重なっているベクトルを示す。
First, a
そして、入力パターンpをガウス分布の広がりとして捉えた場合に、ステップS10で求めた共通分布50を用いて、入力パターンpの分布を仮定する(ステップS20)。
Then, when the input pattern p is regarded as the spread of the Gaussian distribution, the distribution of the input pattern p is assumed using the
そして、共通分布50をカテゴリAとカテゴリBが示す各分布に対して、カテゴリごとに畳み込み積分を行うことで、カテゴリAの分布と、カテゴリBの分布を共通分布50により変形させる(ステップS30)。
Then, the distribution of category A and the distribution of category B are transformed by the
以上のステップS10〜ステップS30は、入力パターンpのベクトル周辺に共通分布50を仮定することにより、入力パターンpの分布形状を考慮した識別を行うことになる。つまり、入力パターンpの各特徴量を十分に考慮した識別を行うことに相当する。
In the above steps S10 to S30, the
そして、入力パターンpが示す分布として仮定された共通分布50と、カテゴリA、カテゴリBが示す各分布とを正規分布と仮定した場合、カテゴリA、カテゴリBが示す分布に対し、共通分布50を用いた畳み込み積分を行う。
When the
これは、共通分布50をガウス分布として捉えた場合に、広がりの大きい方向に対しては、各類似文字カテゴリ間の差異が現れにくく、広がりの小さい方向は各類似文字カテゴリの差異が現れやすいと考え、広がりが小さい方向を重視することになる。したがって、各類似文字の特徴を重視した識別を導くことになる。
This is because, when the
そして、共通分布50を用いて変形させたカテゴリAの分布に基づいて、カテゴリAに対する混合識別関数(例えば、混合識別関数Aとする)が求まり、この混合識別関数Aから識別関数値Aが算出される。
Based on the distribution of category A deformed using the
一方、共通分布50を用いて変形させたカテゴリBの分布に基づいて、カテゴリBに対する混合識別関数(例えば、混合識別関数Bとする)が求まり、この混合識別関数Bから識別関数値Bが算出される。
On the other hand, a mixed discriminant function for category B (for example, a mixed discriminant function B) is obtained based on the distribution of category B deformed using the
そして、識別関数値A、識別関数値Bに基づいて、入力パターンpの識別を行う。図1に示した例では、カテゴリAと入力パターンpとの識別関数値は「0.6」となり、カテゴリBと入力パターンpとの識別関数値は「0.4」となる。 Then, the input pattern p is identified based on the identification function value A and the identification function value B. In the example shown in FIG. 1, the discriminant function value between the category A and the input pattern p is “0.6”, and the discriminant function value between the category B and the input pattern p is “0.4”.
そして、上述したように、広がりが小さい方向を重視した識別を行っていることから、算出された識別関数値が小さい方が、類似度が高く、入力パターンpは、カテゴリBに類似することになる。 As described above, since the identification is performed with an emphasis on the direction in which the spread is small, the smaller the calculated identification function value, the higher the similarity, and the input pattern p is similar to the category B. Become.
このように、任意に与えられた入力文字を共通分布として捉え、その共通分布を類似文字が示す特徴空間上の分布に対し、類似文字ごとに畳み込み積分を行い、畳み込んだ分布を用いて、識別を行うことで、類似文字の差異を高精度に識別することができる。 In this way, arbitrarily given input characters are regarded as a common distribution, the common distribution is subjected to convolution integration for each similar character with respect to the distribution on the feature space indicated by the similar characters, and the convolution distribution is used. By performing the identification, the difference between similar characters can be identified with high accuracy.
次に、実施例1に係る文字識別装置の構成について説明する。実施例1に示す文字識別装置100は、類似文字を識別する際、類似文字間における共通分布を求め、求めた共通分布を各類似文字が示す特徴空間上の分布に対し、畳み込み積分を行う。 Next, the configuration of the character identification device according to the first embodiment will be described. When identifying a similar character, the character identification device 100 according to the first embodiment obtains a common distribution between similar characters, and performs convolution integration on the distribution in the feature space indicated by each similar character.
さらに、畳み込み積分にて算出した値から固有値、固有ベクトルを算出し、算出した固有値、固有ベクトルにより、擬似ベイズ識別を行う。具体的に図を用いて説明する。図2は、実施例1に係る文字識別装置を示す図である。 Further, eigenvalues and eigenvectors are calculated from values calculated by convolution integration, and pseudo Bayes identification is performed using the calculated eigenvalues and eigenvectors. This will be specifically described with reference to the drawings. FIG. 2 is a diagram illustrating the character identification device according to the first embodiment.
図2に示した文字識別装置100は、画像入力部101と、処理部102と、認識結果出力部103とを有する。画像入力部101は、文字データを含む文字画像を光学的に読取る入力装置で、画像入力部101が読込んだ文字画像は、処理部102に出力される。
The character identification device 100 illustrated in FIG. 2 includes an
なお、上述した文字画像に含まれる文字データは、例えば、図1に示した入力パターンpに相当するものとする。 The character data included in the character image described above corresponds to, for example, the input pattern p shown in FIG.
処理部102は、画像入力部101から入力された文字画像に対し、従来技術を用いて文字認識を行い、取得した認識結果に対して、さらに、上述した「類似文字識別」を行う処理部で、類似文字テーブル102aと、文字認識辞書102bと、文字認識処理部102cとを有する。
The processing unit 102 is a processing unit that performs character recognition on the character image input from the
類似文字テーブル102aは、類似文字のリストを記憶するテーブルで、所定の文字に対する類似文字が記憶されている。図3は、類似文字テーブルのデータ構造の一例を示す図である。 The similar character table 102a is a table that stores a list of similar characters, and stores similar characters for a predetermined character. FIG. 3 is a diagram illustrating an example of the data structure of the similar character table.
図3に示したID:0は、文字カテゴリ「鳥(とり)」を示し、この「鳥」に対応する類似文字数は「1」で、対応する類似文字カテゴリは「烏(からす)」となる。以下、文字カテゴリ「乎」に対応する類似文字カテゴリは「平」となり、「ぱ」には「ば」が対応し、「大」には、「犬」と「太」とが対応する。 ID: 0 shown in FIG. 3 indicates the character category “bird”, the number of similar characters corresponding to this “bird” is “1”, and the corresponding similar character category is “crow”. Become. Hereinafter, the similar character category corresponding to the character category “乎” is “flat”, “pa” corresponds to “ba”, and “large” corresponds to “dog” and “thick”.
そして、上述した類似文字カテゴリが有する類似文字数についても、文字カテゴリに対応する類似文字数と対称的に有する。例えば、「烏(からす)」に類似した文字の個数は1個であり、それは「鳥(とり)」であることが記憶されている。 The number of similar characters included in the similar character category described above is also symmetrical to the number of similar characters corresponding to the character category. For example, the number of characters similar to “crow” is one, and it is stored that it is “bird”.
また、「犬(いぬ)」に類似した文字の個数は2個であり、それは「大(だい)」と「太(ふと)い」であることが記憶されている。 In addition, the number of characters similar to “dog” is two, and it is stored that they are “large” and “fat”.
図2の説明に戻り、文字認識辞書102bについて説明する。文字認識辞書102bは、各文字カテゴリの平均ベクトルと、各文字カテゴリに対応する固有値と固有ベクトルを記憶するテーブルである。具体的に図を用いて説明する。 Returning to FIG. 2, the character recognition dictionary 102b will be described. The character recognition dictionary 102b is a table that stores an average vector of each character category, eigenvalues and eigenvectors corresponding to each character category. This will be specifically described with reference to the drawings.
図4は、文字認識辞書のデータ構造の一例を説明するための図である。図4の文字認識辞書102bは、各類似文字が有する「平均ベクトル」、「固有値」、「固有ベクトル」
を記憶している。
FIG. 4 is a diagram for explaining an example of the data structure of the character recognition dictionary. The character recognition dictionary 102b in FIG. 4 includes an “average vector”, “eigenvalue”, and “eigenvector” that each similar character has.
Is remembered.
そして、図1に示したカテゴリA、Bを例に挙げると、カテゴリAに対応する平均ベクトル「a」、カテゴリAの分布に対応する固有値「k1」、固有ベクトル「x1」が記憶されている。 Taking the categories A and B shown in FIG. 1 as an example, an average vector “a” corresponding to the category A, an eigenvalue “k1” corresponding to the distribution of the category A, and an eigenvector “x1” are stored.
一方、カテゴリBについては、カテゴリBに対応する平均ベクトル「b」、カテゴリBの分布に対応する固有値「k2」、固有ベクトル「x2」が記憶されている。 On the other hand, for category B, an average vector “b” corresponding to category B, an eigenvalue “k2” corresponding to the distribution of category B, and an eigenvector “x2” are stored.
次に、図2の説明に戻り、文字認識処理部102cについて説明する。文字認識処理部102cは、入力された文字画像に含まれる文字を認識し、取得した認識結果に対し、類似文字識別を行う処理部である。 Next, returning to the description of FIG. 2, the character recognition processing unit 102c will be described. The character recognition processing unit 102c is a processing unit that recognizes characters included in the input character image and performs similar character identification on the acquired recognition result.
まず、入力された文字画像(例えば、入力パターンpを含むものとする)に対して、従来技術を用いた文字認識処理を行い、この入力パターンpに対する複数の文字認識候補(以下、単に文字候補とする)を取得する。 First, a character recognition process using conventional technology is performed on an input character image (for example, including an input pattern p), and a plurality of character recognition candidates for the input pattern p (hereinafter simply referred to as character candidates). ) To get.
そして、取得した複数の文字候補において、第1位の文字候補が類似文字テーブル102aに登録されているか否かを判定し、判定結果により、第1位の文字候補が類似文字テーブル102aに登録されていない場合は、第1位の文字候補を入力パターンpの文字認識結果とする。 Then, in the plurality of acquired character candidates, it is determined whether or not the first character candidate is registered in the similar character table 102a. Based on the determination result, the first character candidate is registered in the similar character table 102a. If not, the first character candidate is taken as the character recognition result of the input pattern p.
一方、第1位の文字候補が類似文字テーブル102aに登録されている場合は、第2位から第N位までに含まれる文字候補の文字であって、上述した第1位の文字候補に類似する文字が、類似文字テーブル102aに含まれているか否かを判定する。 On the other hand, when the first character candidate is registered in the similar character table 102a, it is a character candidate character included in the second to Nth characters, and is similar to the first character candidate described above. It is determined whether or not the character to be included is included in the similar character table 102a.
そして、判定結果により、第1位の文字候補に類似する文字が類似文字テーブル102aに登録されていない場合、第1位の文字候補を入力パターンpの文字認識結果として出力する。 If the character similar to the first character candidate is not registered in the similar character table 102a according to the determination result, the first character candidate is output as the character recognition result of the input pattern p.
一方、第1位の文字候補に類似する文字が、類似文字テーブル102aに登録されている場合、第2位から第N位までに含まれる文字候補において、一番上位の文字候補を選択し、選択した文字候補と第1位の文字候補との類似文字識別判定を行う。 On the other hand, if a character similar to the first character candidate is registered in the similar character table 102a, the highest character candidate is selected from the character candidates included in the second to Nth characters, Similar character identification determination is performed between the selected character candidate and the first character candidate.
上述した文字認識処理部102cの処理について具体的に例を挙げて説明する。例えば、入力パターンpから、「猫(ねこ)」を入力パターンpの第1位の文字候補として取得した場合、取得した「猫(ねこ)」を類似文字テーブル102aから検索する。 The process of the character recognition processing unit 102c described above will be described with a specific example. For example, when “cat” is acquired from the input pattern p as the first character candidate of the input pattern p, the acquired “cat” is searched from the similar character table 102a.
そして、検索結果より、「猫(ねこ)」が、類似文字テーブル102aに登録されていない場合、文字認識処理部102cは、「猫(ねこ)」を入力パターンpの文字認識結果とする。 Then, if “cat” is not registered in the similar character table 102a based on the search result, the character recognition processing unit 102c sets “cat” as the character recognition result of the input pattern p.
一方、「猫(ねこ)」が、類似文字テーブル102aに登録されている場合、入力パターンpに対する第2位から第N位の文字候補を参照し、第1位候補「猫(ねこ)」に類似する文字が類似文字テーブル102aに登録されているか判定を行う。 On the other hand, when “cat” is registered in the similar character table 102a, the second to Nth character candidates for the input pattern p are referred to and the first candidate “cat” is selected. It is determined whether similar characters are registered in the similar character table 102a.
そして、判定結果により、第1位候補「猫(ねこ)」に類似する文字が登録されていない場合、第1位候補「猫(ねこ)」を入力パターンpの文字認識結果とする。 If no character similar to the first candidate “cat” is registered as a result of the determination, the first candidate “cat” is set as the character recognition result of the input pattern p.
一方、第2位から第N位の文字候補の中に、第2位の文字候補として、「描(えが)く」、第6位の文字候補として、「錨(いかり)」を取得した場合において、取得した「描(えが)く」と「錨(いかり)」が類似文字テーブル102aに登録されている場合、以下に示す類似文字識別を行う。 On the other hand, among the 2nd to Nth character candidates, “Draw” was acquired as the 2nd character candidate, and “Ikari” was acquired as the 6th character candidate. In this case, when the acquired “draw” and “Ikari” are registered in the similar character table 102a, the following similar character identification is performed.
この場合、第2位から第N位の中で、一番の上位候補である第2位の文字候補「描(えが)く」と、第1位候補「猫(ねこ)」に関する類似文字識別を行う。処理の結果、入力パターンpが、第1位候補「猫(ねこ)」との類似度が高ければ、第1位候補「猫(ねこ)」を入力パターンpの文字認識結果とする。 In this case, among the 2nd to Nth positions, the second highest character candidate “Egaku”, which is the highest candidate, and the similar character relating to the first candidate “cat” Identify. As a result of the processing, if the input pattern p is highly similar to the first candidate “cat”, the first candidate “cat” is set as the character recognition result of the input pattern p.
一方、第2位の文字候補「描(えが)く」との類似度が高ければ、第2位の文字候補「描(えが)く」を入力パターンpの文字認識結果とする。 On the other hand, if the degree of similarity with the second-ranked character candidate “Draw” is high, the second-ranked character candidate “Draw” is set as the character recognition result of the input pattern p.
なお、「猫(ねこ)」もしくは「描(えが)く」のいずれかを文字認識結果としても、第6位の文字候補「錨(いかり)」についての類似文字の識別は実施されず、「錨(いかり)」が、第2位の文字候補である場合において、第1位候補「猫(ねこ)」との類似文字識別を行う。 Note that even if either “cat” or “draw” is used as the character recognition result, similar character identification for the sixth candidate character “Ikari” is not performed, When “Ikari” is the second candidate character, similar character identification with the first candidate “Cat” is performed.
次に、上述した類似文字識別について図を用いて説明する。図5は、類似文字の識別処理を説明するための図である。なお、任意の入力パターンpが与えられた場合に、文字カテゴリA、文字カテゴリBのどちらに類似するかを識別する場合について説明する。 Next, similar character identification described above will be described with reference to the drawings. FIG. 5 is a diagram for explaining similar character identification processing. A case will be described in which the character category A or the character category B is identified when an arbitrary input pattern p is given.
まず、文字認識処理部102cが類似文字識別を行う際、カテゴリAとカテゴリBの共通分布ΣCを算出する(ステップS50)。この共通分布ΣCを求める一例として、単純平均の方法を用いて求める場合を例に挙げて説明する。 First, the character recognition processing section 102c is making a similar character identification, to calculate a common distribution sigma C category A and category B (step S50). As an example for obtaining the common distribution sigma C, it will be described as an example a case obtained by using a simple average method.
カテゴリAの共分散行列をCAとし、カテゴリBの共分散行列をCBとした場合、CAとCBの和として共分散行列の和:CXを求める。そして、求めたCXから、上位n個の固有値と固有ベクトルを算出する。 The covariance matrix of the category A and C A, if the covariance matrix of the category B was C B, the sum of the covariance matrix as a sum of C A and C B: Request C X. Then, the top n eigenvalues and eigenvectors are calculated from the obtained CX .
そして、算出した固有値と固有ベクトルから射影行列:PXを求めることにより、カテゴリAとカテゴリBの共通分布ΣCに対応する共分散行列とする。なお、これまで上述した単純平均の方法の他に以下に示す「共通化操作」によっても共通分布ΣCが求められ、この共通化操作の詳細については後述する。 Then, the calculated eigenvalues and projection matrix from eigenvectors: by obtaining a P X, and covariance matrix corresponding to the common distribution sigma C category A and category B. Incidentally, heretofore a common distribution sigma C is determined by "common operation" below in addition to the simple average of the methods described above will be described in detail later in this common operation.
次に、入力パターンpが示すベクトルの周辺にステップS50にて求めた共通分布ΣCを仮定し、この共通分布ΣCを用いて、カテゴリAとカテゴリBが示す各分布に対し、畳み込み積分を行い、各カテゴリ分布の変形を計算する(ステップS51)。 Then, assuming a common distribution sigma C determined in step S50 around the vector indicated by the input pattern p, by using the common distribution sigma C, for each distribution shown the category A and category B, and convolution The deformation of each category distribution is calculated (step S51).
例えば、入力パターンpの特徴ベクトルをxとすると、特徴空間上の点xに関し、このxを中心とする共通分布Dpを密度関数とするカテゴリCの2次識別関数の期待値を識別関数値とする。 For example, the input when the feature vector of the pattern p and x, relates to a point x in the feature space, the expected value of the discriminant function value of the secondary discriminant function category C to a common distribution D p centered on the x and density function And
この場合において、通常の2次識別関数を以下の式(1)で定義した場合、この式(1)から、さらに以下に示す式(2)が求められる。
式(2)において、mCは、カテゴリCの平均ベクトルを示し、ΣCは、カテゴリCの共分散行列を示し、Σは、共通分布Dpの共分散行列を示す。これは、通常の2次識別関数において、ΣCをΣ+ΣCに置き換えたものに相当する。 In Equation (2), m C represents an average vector of category C, Σ C represents a covariance matrix of category C, and Σ represents a covariance matrix of common distribution D p . This, in normal quadratic discriminant function, corresponds to replacing the sigma C to Σ + Σ C.
そして、文字認識処理部102cは、式(2)に基づいて、共通分布ΣCが示す共分散行列と、カテゴリAの分布が示す共分散行列との和を計算し、固有値・固有ベクトルを新たに算出する。 Then, the character recognition processing unit 102c, based on the equation (2), and covariance matrix shown the common distribution sigma C, calculates the sum of the covariance matrix shown the distribution of categories A, new eigenvalues and eigenvectors calculate.
一方、文字認識処理部102cは、カテゴリBに対してもカテゴリAと同様に、式(2)を用いて、カテゴリBの分布が示す共分散行列と共通分布ΣCが示す共分散行列との和を計算し、固有値・固有ベクトルを新たに計算する。 On the other hand, the character recognition processing unit 102c, similarly to Category A with respect to Category B, using equation (2), the common distribution sigma C indicates a covariance matrix and the covariance matrix shown the distribution of Category B The sum is calculated, and the eigenvalue / eigenvector is newly calculated.
次に、文字認識処理部102cは、ステップS51で求めた固有値・固有ベクトルに基づき、カテゴリA、カテゴリBとの擬似ベイズ識別から入力パターンpが、カテゴリAもしくはカテゴリBのどちらに類似するかの判定を行い、判定結果を認識結果出力部103に入力する(ステップS52)。 Next, the character recognition processing unit 102c determines whether the input pattern p is similar to the category A or the category B from the pseudo Bayes identification with the category A and the category B based on the eigenvalue / eigenvector obtained in step S51. The determination result is input to the recognition result output unit 103 (step S52).
例えば、図1に示したように、カテゴリAに対応する識別関数値Aが「0.6」で、カテゴリBに対応する識別関数値Aが「0.4」の場合、算出された識別関数値が小さい方が、類似度が高いことから、入力パターンpは、カテゴリBに類似することになる。 For example, as shown in FIG. 1, when the discrimination function value A corresponding to the category A is “0.6” and the discrimination function value A corresponding to the category B is “0.4”, the calculated discrimination function The smaller the value is, the higher the degree of similarity is. Therefore, the input pattern p is similar to the category B.
このように、入力パターンpは、特徴空間上でひとつのベクトルとして考えられるが、入力パターンのベクトル周辺に共通分布を仮定することにより、カテゴリAとカテゴリBが示す各分布の形状に基づいた識別を行うことになる。 In this way, the input pattern p can be considered as one vector in the feature space. However, by assuming a common distribution around the input pattern vector, identification based on the shape of each distribution indicated by category A and category B is possible. Will do.
そして、入力パターンpの共通分布と、カテゴリAとカテゴリBが示す各分布の形状を正規分布と仮定し、各カテゴリ分布の2次識別関数を共通分布による畳み込み積分をカテゴリごとに行う。 Then, assuming that the common distribution of the input pattern p and the shapes of the distributions indicated by the categories A and B are normal distributions, the convolution integral by the common distribution is performed for each category on the secondary discriminant function of each category distribution.
これは、カテゴリAに対し、畳み込み積分を行って得られる関数は、共通分布が示す共分散行列とカテゴリAが示す共分散行列との和に置き換えた2次識別関数に相当する。 This corresponds to a quadratic discriminant function in which the function obtained by performing convolution integration on category A is replaced with the sum of the covariance matrix indicated by the common distribution and the covariance matrix indicated by category A.
一方、カテゴリBに対し、畳み込み積分を行って得られる関数は、共通分布が示す共分散行列とカテゴリBが示す共分散行列との和に置き換えた2次識別関数に相当する。 On the other hand, the function obtained by performing convolution integration on category B corresponds to a quadratic discriminant function replaced with the sum of the covariance matrix indicated by the common distribution and the covariance matrix indicated by category B.
次に、図2の説明に戻り、認識結果出力部103について説明する。認識結果出力部103は、処理部102が行う類似文字識別に基づいて、文字認識結果を出力する処理部である。 Next, returning to the description of FIG. 2, the recognition result output unit 103 will be described. The recognition result output unit 103 is a processing unit that outputs a character recognition result based on similar character identification performed by the processing unit 102.
なお、上述してきたように、共通分布を求める一例として、単純平均の方法を用いて求める場合を例に挙げて説明したが、以下に示す「共通化操作」によっても共通分布が算出される。 As described above, as an example of obtaining the common distribution, the case of obtaining using the simple average method has been described as an example, but the common distribution is also calculated by the “common operation” described below.
単純平均の方法を用いて共通分布を算出した場合、類似文字カテゴリAと類似文字カテゴリBが与えられたとき、カテゴリAとカテゴリBに共通する変形(共通分布)は、カテゴリAの共分散行列とカテゴリBの共分散行列の和を求め、上位n個の固有値と固有ベクトルを算出する。 When the common distribution is calculated using the simple average method, when the similar character category A and the similar character category B are given, the deformation (common distribution) common to the category A and the category B is the covariance matrix of the category A And the category B covariance matrix are obtained, and the top n eigenvalues and eigenvectors are calculated.
しかし、上位n個の固有値と固有ベクトルには、類似文字カテゴリ間の差異が含まれている場合があるので、類似文字カテゴリ間の差異が含まれない共通分布を得る方法の一例として、他方の分布に含まれない成分をカットする方法がある。 However, since the top n eigenvalues and eigenvectors may include differences between similar character categories, the other distribution is an example of a method for obtaining a common distribution that does not include differences between similar character categories. There is a method of cutting ingredients that are not included.
例えば、入力パターンpが、カテゴリA側に対して、極端な広がりを持っていた場合、単純平均方法で算出した共通分布は、カテゴリA側の寄与の影響を受けた共通分布となってしまう。 For example, when the input pattern p has an extreme spread with respect to the category A side, the common distribution calculated by the simple average method becomes a common distribution influenced by the contribution of the category A side.
したがって、類似文字カテゴリ間の差異が含まれないような共通分布を算出する方法として、共通化操作がある。具体的には、他方の分布に含まれない成分をカットすることで、より正確な共通分布が算出される。以下、共通化操作について詳細に説明する。 Therefore, there is a common operation as a method for calculating a common distribution that does not include a difference between similar character categories. Specifically, a more accurate common distribution is calculated by cutting a component that is not included in the other distribution. Hereinafter, the common operation will be described in detail.
まず、カテゴリAの分布に対して、カテゴリBの分布を用いた共通化変換を行う。この際、カテゴリAの共分散行列をCA、カテゴリBの共分散行列をCBとした場合、まず、CAから固有値・固有ベクトルに基づく変換行列TCAを算出する。 First, common conversion using the distribution of category B is performed on the distribution of category A. At this time, if the covariance matrix of category A is C A and the covariance matrix of category B is C B , first, a transformation matrix T CA based on eigenvalues / eigenvectors is calculated from C A.
そして、固有値・固有ベクトルに基づく変換行列Tを求める。この場合、共分散行列Cの固有値をλi(i=1、2・・・、k(?n))、固有ベクトルをΦi(i=1、2・・・、k(?n))としたときに、Φk+1・・・ΦnをΦi(i=1,2・・・、k(?n))と正規直交基底になるようにとると、変換行列Tは以下の式(3)で表される。
そして、以下の式(4)を用いて、カテゴリBの分布のうち、カテゴリAの分布に共通する部分を取り出す。
次に、カテゴリBの分布に対して、カテゴリAの分布を用いた共通化変換を行う。この場合、カテゴリAにて説明した同様の処理を行うことで、以下の式(5)にて表される。
そして、式(4)に示したC´Bと、式(5)に示したC´Aに基づいて、C´B+C´Aの上位n個の固有値と固有ベクトルを算出する。そして、算出された固有値、固有ベクトルを用いて、共通分布が算出される。 Then, based on C ′ B shown in Expression (4) and C ′ A shown in Expression (5), the upper n eigenvalues and eigenvectors of C ′ B + C ′ A are calculated. Then, the common distribution is calculated using the calculated eigenvalue and eigenvector.
次に、実施例1に示した文字識別装置100の処理について説明する。図6は、実施例1に係る文字識別装置の処理を示すフローチャートである。 Next, processing of the character identification device 100 shown in the first embodiment will be described. FIG. 6 is a flowchart illustrating the process of the character identification device according to the first embodiment.
まず、文字識別装置100が文字画像を取得し、取得した文字画像(例えば、入力パターンpを含むものとする)に対して通常の文字認識処理を行う(ステップS100)。そして、入力パターンpに対する複数の文字認識候補を取得する(ステップS101)。 First, the character identification device 100 acquires a character image, and performs normal character recognition processing on the acquired character image (for example, including the input pattern p) (step S100). Then, a plurality of character recognition candidates for the input pattern p are acquired (step S101).
そして、複数の文字候補の中で、第1位の文字候補が類似文字テーブル102aに登録されているか否かを判定し、判定結果により、第1位の文字候補が登録されていない場合(ステップS102、No)は、第1位の文字候補を文字認識の結果とする。 Then, it is determined whether or not the first character candidate is registered in the similar character table 102a among the plurality of character candidates, and if the first character candidate is not registered according to the determination result (step) S102, No) sets the first character candidate as the result of character recognition.
一方、第1位の文字候補が類似文字テーブル102aに登録されている場合(ステップS102、Yes)は、ステップS101で取得した第2位から第n位までの文字候補の中に、第1位の文字候補に類似する文字が類似文字テーブル102aに登録されているか否かを判定する(ステップS103)。 On the other hand, if the first character candidate is registered in the similar character table 102a (step S102, Yes), the first character candidate from the second character to the nth character acquired in step S101 is the first character candidate. It is determined whether or not a character similar to the character candidate is registered in the similar character table 102a (step S103).
判定結果により、類似文字テーブル102aに第1位の文字候補の類似する文字が登録されていない場合(ステップS104、No)、第n+1位に登録されている文字候補を取得する(ステップS105)。 As a result of the determination, if the similar character of the first character candidate is not registered in the similar character table 102a (No in step S104), the character candidate registered in the n + 1st character is acquired (step S105). ).
そして、ステップS101にて取得した全ての候補文字に対して処理を行っている場合(ステップS106、No)、第1位の文字候補を認識結果として出力する。 If all candidate characters acquired in step S101 are processed (No in step S106), the first character candidate is output as a recognition result.
一方、ステップS101にて取得した全ての候補文字に対して処理を行っていない場合(ステップS106、Yes)、ステップS104に移行する。 On the other hand, when processing has not been performed for all candidate characters acquired in step S101 (step S106, Yes), the process proceeds to step S104.
また、ステップS103の判定結果により、第2位から第N位までに含まれる文字候補の文字であって、上述した第1位の文字候補に類似する文字が、類似文字テーブル102aに登録されている場合(ステップS104、Yes)、第2位から第N位までに含まれる文字候補で一番上位候補の文字と、第1位の文字候補との類似文字識別を行う(ステップS107)。 Further, according to the determination result in step S103, characters that are character candidates included in the second to Nth positions and similar to the first character candidate described above are registered in the similar character table 102a. If yes (step S104, Yes), similar character identification is performed between the top candidate character and the first character candidate included in the second to Nth character candidates (step S107).
このフローチャートによれば、文字識別装置100が、「鳥(からす)」や「鳥(とり)」といった類似文字が示す特徴の差異を、特徴空間上にて取得することで、各類似文字を高精度に識別できる。 According to this flowchart, the character identification device 100 obtains the difference between features indicated by similar characters such as “bird” and “bird” on the feature space, thereby obtaining each similar character. Can be identified with high accuracy.
次に、実施例2に示す文字識別装置について説明する。図7は、実施例2に係る文字識別装置を示す図である。図7に示した文字識別装置200は、ユーザが指定する類似文字に基づき、類似文字識別を行う文字識別装置である。 Next, the character identification device shown in Example 2 will be described. FIG. 7 is a diagram illustrating the character identification device according to the second embodiment. The character identification device 200 shown in FIG. 7 is a character identification device that performs similar character identification based on similar characters designated by the user.
この「類似文字識別」とは、実施例1で示したように、任意の文字を、互いに類似する文字カテゴリのどちらかに属するかを識別することを示す。 This “similar character identification” indicates that an arbitrary character belongs to one of character categories similar to each other as described in the first embodiment.
そして、文字識別装置200は、画像入力部201と、処理部202と、認識結果出力部203と、インターフェース204とを有する。
The character identification device 200 includes an image input unit 201, a processing unit 202, a recognition result output unit 203, and an
また、文字識別装置200は、図2に示した文字識別装置100とほぼ同等の機能を有し、この文字識別装置100と同等の機能を有する機能部についての詳細な説明は省略する。 Moreover, the character identification device 200 has substantially the same function as the character identification device 100 shown in FIG. 2, and detailed description of the functional unit having the same function as the character identification device 100 is omitted.
具体的に、文字識別装置100との違いは、処理部202に類似文字認識辞書202cを有すること、インターフェース204を有していることである。以下、類似文字認識辞書202cと、インターフェース204について説明する。
Specifically, the difference from the character identification device 100 is that the processing unit 202 has a similar
図8は、類似文字認識辞書のデータ構造の一例を示す図である。図8に示した類似文字認識辞書202cは、互いに類似する2つの文字カテゴリが記憶されている。
FIG. 8 is a diagram illustrating an example of the data structure of the similar character recognition dictionary. The similar
そして、この2つの文字カテゴリに登録されている文字は、入力パターンpが与えられた場合において、ユーザが、入力パターンpと、対応する2つの文字カテゴリに登録されている文字とが正しく識別されることを希望する文字データを示す。 When the input pattern p is given to the characters registered in these two character categories, the user can correctly identify the input pattern p and the characters registered in the corresponding two character categories. Indicates the character data desired to be
「サンプル数」は、対応する文字カテゴリに類似する類似文字データの個数を示し、例えば、「鳥(とり)」と「烏(からす)」に対応するサンプル数は「2」であることを示している。 “Number of samples” indicates the number of similar character data similar to the corresponding character category. For example, the number of samples corresponding to “bird” and “crow” is “2”. Show.
そして、「サンプル数」と同じ個数のベクトルが共通ベクトルとして記憶されている。なお、上述した「サンプル数」、図8に示した「共通ベクトル」における詳細なデータ構造については、後述の図9にて説明する。 The same number of vectors as the “number of samples” are stored as common vectors. The detailed data structure of the “number of samples” described above and the “common vector” shown in FIG. 8 will be described later with reference to FIG.
続いて、図7に示したインターフェース204について図を用いて説明する。図9は、インターフェースの一例を示す図である。図9に示したインターフェース204は、ユーザが、正しく識別されることを希望する文字カテゴリと、その文字カテゴリに類似する類似文字データとをそれぞれ画像の組で、ユーザが指定するインターフェースである。
Next, the
図9に示した例では、ウインドウ上部の「文字の指定」は、ユーザがキーボード等(図示省略)を用いて、文字を入力するインターフェースを示す。そして、文字カテゴリAに「ば」が、文字カテゴリBに「ぱ」が入力される。 In the example shown in FIG. 9, “designation of characters” at the top of the window indicates an interface through which a user inputs characters using a keyboard or the like (not shown). Then, “BA” is input to the character category A, and “PA” is input to the character category B.
したがって、任意の入力パターンpが与えられた場合において、ユーザは、この入力パターンpが、「ぱ」と「ば」のどちらに属するかについて、正確に識別されること希望している。 Therefore, when an arbitrary input pattern p is given, the user wants to accurately identify whether the input pattern p belongs to “pa” or “ba”.
そして、入力パターンpが、「ぱ」と「ば」のどちらに属するかが識別される際に、「文字の指定」に登録されている「ぱ」と「ば」の組に相当する類似文字データをインターフェース204の下部に示す「画像の指定」に登録する。
When the input pattern p is identified as belonging to “pa” or “ba”, similar characters corresponding to the “pa” and “ba” pairs registered in “character designation” are identified. The data is registered in “image designation” shown at the bottom of the
この「画像の指定」における「サンプルID」が示す番号は、図8の「サンプル数」に相当する。また、上述した「類似文字データ」とは、「画像の指定」によって登録されるデータを示す。 The number indicated by the “sample ID” in the “designation of image” corresponds to the “number of samples” in FIG. The “similar character data” described above indicates data registered by “designation of image”.
そして、「画像の指定」に登録された画像の組に基づいて、文字認識処理部202dが共通ベクトルを計算し、図8の類似文字認識辞書202cに算出した共通ベクトルを登録する。
The character
この共通ベクトルの算出について、文字認識処理部202dが行う処理を具体的に説明する。まず、与えられた2つの画像から得られる特徴ベクトルをxAとxBとした場合、共通ベクトルを以下に示す式(6)にて算出する。
なお、上述した式(6)において、((xA−xB)・xA)は、xA−xBと、xAとのベクトルの内積を示し、(xA−xB)/│xA−xB│は、単位ベクトルを示すものとする。 In the above equation (6), ((x A −x B ) · x A ) represents an inner product of vectors of x A −x B and x A, and (x A −x B ) / | x A −x B | represents a unit vector.
また、式(6)にて示した各共通ベクトルは、同じ値を有することになり、いずれか一方の共通ベクトルを算出すれば、対応する共通ベクトルが求められる。 Moreover, each common vector shown by Formula (6) will have the same value, and if any one common vector is calculated, the corresponding common vector will be calculated | required.
そして、文字認識処理部202dは、式(6)を用いて算出した共通ベクトルを図8に示した類似文字認識辞書202cに登録する。
Then, the character
次に、文字認識処理部202dが行う類似文字識別について説明する。まず、文字認識処理部202dは、任意の入力パターンpが与えられた場合に、入力パターンpに類似する文字カテゴリの組が類似文字認識辞書202cに登録されているか否かを検索する。
Next, similar character identification performed by the character
そして、検索結果により、登録されている場合、文字認識処理部202dは、入力パターンpに類似する文字カテゴリの組に対応する共通ベクトルを取得し、以下の式(7)を用いて共通分布に追加する。
式(7)において、「C」は、実施例1で示した共通分布(例えば、ΣC)に対応し、この共通分布に対応する新しい共通分布がC´となる。なお、共通分布ΣCを求める方法は、実施例1で示したように、単純平均の方法を用いて算出しても良く、「共通化操作」を用いて算出しても良く、詳細な算出方法については、実施例1と同様であるので省略する。 In Expression (7), “C” corresponds to the common distribution (for example, Σ C ) shown in the first embodiment, and a new common distribution corresponding to this common distribution is C ′. The method for obtaining the common distribution sigma C, as shown in Example 1, may be calculated using the simple average method may be calculated by using the "common operation", detailed calculation Since the method is the same as that of the first embodiment, a description thereof will be omitted.
その後、文字認識処理部202dは、式(7)で求めた共通分布を用いて、文字カテゴリ「A」(例えば、“ば”)と、文字カテゴリ「B」(例えば:“ぱ”)とに対して、畳み込み積分を行う。そして、畳み込み積分によって得られる固有値、固有ベクトルに基づいて、擬似ベイズ識別を行う。
After that, the character
なお、図9に示した例では、類似文字データを画像データにより示したが、これは、説明の便宜上、画像データを例に挙げたに過ぎず、他のデータによって置き換えたとしても本実施例に示す機能が得られるものとする。 In the example shown in FIG. 9, the similar character data is shown as image data. However, for convenience of explanation, this is merely an example of image data, and this embodiment can be used even if it is replaced with other data. It is assumed that the function shown in (1) is obtained.
次に、実施例2に示した文字識別装置200に処理について説明する。図10は、実施例に係る文字識別装置の処理を示すフローチャートである。 Next, processing will be described for the character identification device 200 shown in the second embodiment. FIG. 10 is a flowchart illustrating the process of the character identification device according to the embodiment.
あらかじめ、ユーザがインターフェース204を介して、正しく認識してほしい文字カテゴリと、その文字カテゴリに類似する類似文字カテゴリを画像の組とした類似文字データを登録しておく。
In advance, the user registers a character category that the user wants to recognize correctly through the
そして、文字認識処理部202dが、登録された類似文字データに基づいて、共通ベクトルを計算し、算出した共通ベクトルを類似文字認識辞書202cに登録する(ステップS200)。
Then, the character
そして、文字識別装置200が文字画像を取得し、取得した文字画像に対して通常の文字認識処理を行い(ステップS201)、複数の文字認識候補を取得する(ステップS202)。 The character identification device 200 acquires a character image, performs normal character recognition processing on the acquired character image (step S201), and acquires a plurality of character recognition candidates (step S202).
続いて、複数の文字候補の中で、第1位の文字候補が類似文字テーブル202bに登録されているか否かを判定し、判定結果より、第1位の文字候補が登録されていない場合(ステップS203、No)は、第1の文字候補を文字認識の結果とする。 Subsequently, it is determined whether or not the first character candidate is registered in the similar character table 202b among the plurality of character candidates. If the first character candidate is not registered based on the determination result ( In step S203, No), the first character candidate is set as a result of character recognition.
一方、第1位の文字候補が登録されている場合(ステップS203、Yes)は、第2位から第n位までの文字候補の中に、第1位の文字候補に類似する文字が類似文字テーブル202bに登録されているか否かを判定する(ステップS204)。 On the other hand, when the first character candidate is registered (step S203, Yes), among the character candidates from the second character to the nth character, a character similar to the first character candidate is a similar character. It is determined whether or not it is registered in the table 202b (step S204).
判定結果により、類似文字テーブル202bに第1位の文字候補に類似する文字が登録されていない場合(ステップS205、No)、第n+1位に登録されている文字を取得する(ステップS206)。 If a character similar to the first character candidate is not registered in the similar character table 202b based on the determination result (No in step S205), the character registered in the n + 1st character is acquired (step S206). .
そして、ステップS201にて取得した全ての候補文字に対して処理を行っている場合(ステップS207、No)、第1位の文字候補を認識結果として出力する。 If all candidate characters acquired in step S201 are processed (No in step S207), the first character candidate is output as a recognition result.
一方、ステップS201にて取得した全ての候補文字に対して処理を行っていない場合(ステップS207、Yes)、ステップS205に移行する。 On the other hand, when processing has not been performed for all candidate characters acquired in step S201 (step S207, Yes), the process proceeds to step S205.
そして、第2位から第n位までの文字候補であって、第1位の文字候補に類似する文字が類似文字テーブル202bに記憶されている場合(ステップS205、Yes)、類似文字の識別を行う(ステップS208)。 If characters similar to the first character candidate from the second character to the nth character are stored in the similar character table 202b (Yes in step S205), the similar character is identified. This is performed (step S208).
ステップS208において、文字認識処理部202dが類似文字の識別処理を行う場合、ステップS200で登録した共通ベクトルが類似文字認識辞書202cに登録されているか否かを検索する。
In step S208, when the character
検索結果により、登録されている場合、文字認識処理部202dは、参照した共通ベクトルを共通分布に追加する。そして、新しく求めた共通分布に基づいて、類似文字識別を行う。
If registered according to the search result, the character
上述した実施例によれば、類似文字カテゴリ間に共通する特徴の情報を抽出し、類似文字カテゴリ間に共通する特徴を抑えつつ、特徴の差異が強調される識別を行うため、多次元的に広がった類似した文字カテゴリ間の特徴の差異を利用し、より高精度な類似文字の識別が可能となる。 According to the above-described embodiment, the feature information common to similar character categories is extracted, and the features common to similar character categories are suppressed, and the feature differences are emphasized. It is possible to identify similar characters with higher accuracy by utilizing the difference in characteristics between the expanded similar character categories.
ところで、本実施例において説明した各処理のうち、自動的に行われるものとして説明した処理の一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部あるいは一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種データを含む情報については、特記する場合を除いて任意に変更することができる。 By the way, among the processes described in the present embodiment, a part of the processes described as being automatically performed can be manually performed, or all of the processes described as being manually performed or A part can be automatically performed by a known method. In addition, the information including the processing procedure, control procedure, specific name, and various data shown in the above document and drawings can be arbitrarily changed unless otherwise specified.
また、図2に示した文字識別装置100の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部がCPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。 Further, each component of the character identification device 100 shown in FIG. 2 is functionally conceptual and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. Furthermore, each processing function performed by each device may be realized by a CPU and a program that is analyzed and executed by the CPU, or may be realized as hardware by wired logic.
図11は、実施例1に係る文字識別装置を構成するコンピュータのハードウェア構成を示す図である。図11に示すように、このコンピュータ300は、入力装置301、ディスプレイ302、RAM(Random Access Memory)303、ROM(Read Only Memory)304、HDD(Hard Disk Drive)305、CPU(Central Processing Unit)306、媒体読取装置307をバス308で接続している。
FIG. 11 is a diagram illustrating a hardware configuration of a computer constituting the character identification device according to the first embodiment. As shown in FIG. 11, the
そして、HDD305には、上述した類似文字識別機能と同様の機能を発揮する文字認識プログラム305aが記憶されている。CPU306が、文字認識プログラム305aを読み出して実行することにより、文字認識プロセス306aが起動される。ここで、文字認識プロセス306aは、図2に示した文字認識処理部102cに対応する。
The
尚、RAM303には、処理部102に記憶されている各種データや、文字認識プロセス306aによって利用されるデータを含んだ各種データ303aを記憶している。CPU306は、各種データ303aに含まれる各文字カテゴリの平均ベクトル、固有値、固有ベクトルに基づいて類似文字の識別を行う。
The
ところで、図11に示した文字認識プログラム305aは、必ずしも最初からHDD305に記憶させておかなくても良い。たとえば、コンピュータに挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」、または、コンピュータの内外に備えられるハードディスクドライブ(HDD)などの「固定用の物理媒体」、さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータに接続される「他のコンピュータ(またはサーバ)」などに記憶しておき、コンピュータが文字認識プログラム305aを読み出して実行するようにしてもよい。
By the way, the
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。 The following supplementary notes are further disclosed with respect to the embodiments including the above examples.
(付記1)コンピュータに、
特徴空間上において、形状が異なり同意の文字を含む文字カテゴリ分布を、対比する文字ごとに特定し、各文字カテゴリ分布に共通する情報を共通分布として求める共通分布処理手順と、
前記共通分布と各文字カテゴリ分布を基にして各文字カテゴリ分布を修正する修正手順と、
識別対象となる文字を取得した場合に、当該文字の前記特徴空間上の位置と、前記修正手順により修正された各文字カテゴリ分布とを基にして、前記文字を識別する文字識別手順と
を実行させる文字識別プログラム。
(Supplementary note 1)
A common distribution processing procedure for identifying a character category distribution having different shapes and including agreed characters on the feature space for each character to be compared, and obtaining information common to each character category distribution as a common distribution,
A correction procedure for correcting each character category distribution based on the common distribution and each character category distribution;
When a character to be identified is acquired, a character identification procedure for identifying the character is executed based on the position of the character in the feature space and each character category distribution corrected by the correction procedure. Character recognition program
(付記2)前記修正手順は、前記文字カテゴリ分布に対し、前記共通分布を用いた畳み込み積分を行って、当該文字カテゴリ分布を修正し、前記文字識別手順は、当該修正した文字カテゴリ分布に基づいて、前記文字を識別する付記1に記載の文字識別プログラム。
(Supplementary Note 2) The correction procedure performs convolution integration using the common distribution on the character category distribution to correct the character category distribution, and the character identification procedure is based on the corrected character category distribution. The character identification program according to
(付記3)前記共通分布処理手順が、前記共通分布を求める際に、前記文字カテゴリ分布間の差異を減少させ、前記文字カテゴリ分布間に共通する情報に基づいて、前記共通分布を求める付記1または2に記載の文字識別プログラム。 (Additional remark 3) When the said common distribution process procedure calculates | requires the said common distribution, the difference between the said character category distribution is reduced, and the said common distribution is calculated | required based on the information common between the said character category distributions. Or the character identification program of 2.
(付記4)前記共通分布処理手順は、利用者によって入力された画像データに基づき、前記画像データに共通する情報を算出し、算出した情報を前記共通分布に加えて、共通分布を新たに求める付記1〜3のいずれか一つに記載の文字識別プログラム。 (Additional remark 4) The said common distribution process procedure calculates the information common to the said image data based on the image data input by the user, adds the calculated information to the said common distribution, and calculates | requires a new common distribution The character identification program as described in any one of appendix 1-3.
(付記5)特徴空間上において、形状が異なり同意の文字を含む文字カテゴリ分布を、対比する文字ごとに特定し、各文字カテゴリ分布に共通する情報を共通分布として求める共通分布処理部と、
前記共通分布と各文字カテゴリ分布を基にして各文字カテゴリ分布を修正する修正部と、
識別対象となる文字を取得した場合に、当該文字の前記特徴空間上の位置と、前記修正部により修正された各文字カテゴリ分布とを基にして、前記文字を識別する文字識別部と
を有する文字識別装置。
(Supplementary Note 5) A common distribution processing unit that specifies a character category distribution having different shapes and including agreed characters on the feature space for each character to be compared, and obtaining information common to each character category distribution as a common distribution;
A correction unit for correcting each character category distribution based on the common distribution and each character category distribution;
A character identification unit that identifies the character based on the position of the character in the feature space and each character category distribution corrected by the correction unit when a character to be identified is acquired; Character identification device.
(付記6)前記修正部は、前記文字カテゴリ分布に対し、前記共通分布を用いた畳み込み積分を行って、当該文字カテゴリ分布を修正し、前記文字識別部は、当該修正した文字カテゴリ分布に基づいて、前記文字を識別する付記5に記載の文字識別装置。
(Additional remark 6) The said correction part performs the convolution integral using the said common distribution with respect to the said character category distribution, and corrects the said character category distribution, The said character identification part is based on the said corrected character category distribution. The character identification device according to
(付記7)前記共通分布処理部が、前記共通分布を求める際に、前記文字カテゴリ分布間の差異を減少させ、前記文字カテゴリ分布間に共通する情報に基づいて、前記共通分布を求める付記5または6に記載の文字識別装置。 (Additional remark 7) When the said common distribution process part calculates | requires the said common distribution, the difference between the said character category distributions is reduced, and the said common distribution is calculated | required based on the information common between the said character category distributions. Or the character identification device of 6.
(付記8)前記共通分布処理手順は、利用者によって入力された画像データに基づき、前記画像データに共通する情報を算出し、算出した情報を前記共通分布に加えて、共通分布を新たに求める付記5〜7のいずれか一つに記載の文字識別装置。
(Additional remark 8) The said common distribution process procedure calculates the information common to the said image data based on the image data input by the user, adds the calculated information to the said common distribution, and calculates | requires a new common distribution The character identification device according to any one of
(付記9)文字識別装置が文字を識別する方法であって、
前記文字識別装置が、
特徴空間上において、形状が異なり同意の文字を含む文字カテゴリ分布を、対比する文字ごとに特定し、各文字カテゴリ分布に共通する情報を共通分布として求める共通分布処理ステップと、
前記共通分布と各文字カテゴリ分布を基にして各文字カテゴリ分布を修正する修正ステップと、
識別対象となる文字を取得した場合に、当該文字の前記特徴空間上の位置と、前記修正ステップにより修正された各文字カテゴリ分布とを基にして、前記文字を識別する文字識別ステップと
を実行する文字識別方法。
(Supplementary note 9) A method by which a character identification device identifies a character,
The character identification device is
A common distribution processing step for identifying a character category distribution having different shapes and including agreed characters on the feature space for each character to be compared, and obtaining information common to each character category distribution as a common distribution;
A correction step of correcting each character category distribution based on the common distribution and each character category distribution;
When a character to be identified is acquired, a character identification step for identifying the character based on the position of the character in the feature space and each character category distribution corrected by the correction step is executed. Character identification method.
10 特徴空間
50 共通分布
100、200、300 文字識別装置
101、201 画像入力部
102、202 処理部
102a、202b 類似文字テーブル
102b、202a 文字認識辞書
103、203 認識結果出力部
202c 類似文字認識辞書
204 インターフェース
301 入力装置
302 ディスプレイ
303 RAM
303a 各種データ
304 ROM
305 HDD
305a 文字認識プログラム
306 CPU
306a 文字認識プロセス
307 媒体読取装置
A、B 文字カテゴリ分布
DESCRIPTION OF SYMBOLS 10
303a
305 HDD
305a
306a
Claims (5)
特徴空間上において、形状が異なり同意の文字を含む文字カテゴリ分布を、対比する文字ごとに特定し、各文字カテゴリ分布に共通する情報を共通分布として求める共通分布処理手順と、
前記共通分布と各文字カテゴリ分布を基にして各文字カテゴリ分布を修正する修正手順と、
識別対象となる文字を取得した場合に、当該文字の前記特徴空間上の位置と、前記修正手順により修正された各文字カテゴリ分布とを基にして、前記文字を識別する文字識別手順と
を実行させる文字識別プログラム。 On the computer,
A common distribution processing procedure for identifying a character category distribution having different shapes and including agreed characters on the feature space for each character to be compared, and obtaining information common to each character category distribution as a common distribution,
A correction procedure for correcting each character category distribution based on the common distribution and each character category distribution;
When a character to be identified is acquired, a character identification procedure for identifying the character is executed based on the position of the character in the feature space and each character category distribution corrected by the correction procedure. Character recognition program
前記共通分布と各文字カテゴリ分布を基にして各文字カテゴリ分布を修正する修正部と、
識別対象となる文字を取得した場合に、当該文字の前記特徴空間上の位置と、前記修正部により修正された各文字カテゴリ分布とを基にして、前記文字を識別する文字識別部と
を有する文字識別装置。 On the feature space, a common distribution processing unit that specifies a character category distribution that includes differently shaped and consensus characters for each character to be compared, and obtains information common to each character category distribution as a common distribution;
A correction unit for correcting each character category distribution based on the common distribution and each character category distribution;
A character identification unit that identifies the character based on the position of the character in the feature space and each character category distribution corrected by the correction unit when a character to be identified is acquired; Character identification device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009108380A JP5240049B2 (en) | 2009-04-27 | 2009-04-27 | Character identification program, character identification device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009108380A JP5240049B2 (en) | 2009-04-27 | 2009-04-27 | Character identification program, character identification device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010257339A JP2010257339A (en) | 2010-11-11 |
JP5240049B2 true JP5240049B2 (en) | 2013-07-17 |
Family
ID=43318149
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009108380A Expired - Fee Related JP5240049B2 (en) | 2009-04-27 | 2009-04-27 | Character identification program, character identification device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5240049B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4775515B1 (en) * | 2011-03-14 | 2011-09-21 | オムロン株式会社 | Image collation apparatus, image processing system, image collation program, computer-readable recording medium, and image collation method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0371379A (en) * | 1989-08-11 | 1991-03-27 | Sanyo Electric Co Ltd | Character recognition system |
JPH0496885A (en) * | 1990-08-13 | 1992-03-30 | Nippon Telegr & Teleph Corp <Ntt> | Analogous character discriminating system |
JPH07302338A (en) * | 1994-05-02 | 1995-11-14 | Nippon Steel Corp | Template matching method and pattern recognizing device using the same method |
-
2009
- 2009-04-27 JP JP2009108380A patent/JP5240049B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010257339A (en) | 2010-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9799115B2 (en) | Apparatus and method for automatically registering landmarks in three-dimensional medical image | |
Zheng et al. | Robust point matching for nonrigid shapes by preserving local neighborhood structures | |
Sanroma et al. | Learning to rank atlases for multiple-atlas segmentation | |
JP5016603B2 (en) | Method and apparatus for automatic and dynamic vessel detection | |
JP5487970B2 (en) | Feature point arrangement collation apparatus, image collation apparatus, method and program thereof | |
US10885325B2 (en) | Information processing apparatus, control method, and storage medium | |
US20090208112A1 (en) | Pattern recognition method, and storage medium which stores pattern recognition program | |
JP6611346B2 (en) | Character string recognition apparatus, method, and program | |
US8750571B2 (en) | Methods of object search and recognition | |
JPWO2012102018A1 (en) | Image search apparatus and method, image processing apparatus and method | |
EP2138959A1 (en) | Word recognizing method and word recognizing program | |
JP5240049B2 (en) | Character identification program, character identification device | |
JP4983539B2 (en) | Information processing apparatus and method, and program | |
JP4477439B2 (en) | Image segmentation system | |
JP5029648B2 (en) | Arithmetic apparatus and program | |
JP5030235B2 (en) | Pattern recognition apparatus and pattern recognition method | |
JP5151522B2 (en) | Arithmetic apparatus and program | |
WO2018116918A1 (en) | Collation processing device, collation processing method, and recording medium with collation processing program stored therein | |
JP2005149302A (en) | Face image recognition apparatus and face image recognition program | |
JP6946959B2 (en) | Identity determination device, local feature extraction device, method, and program | |
US20050213819A1 (en) | Form recognition system, method, program, and storage medium | |
JP5224847B2 (en) | Pattern recognition method, character recognition method, pattern recognition program, and character recognition program | |
US20230111393A1 (en) | Information processing apparatus and method, and non-transitory computer-readable storage medium | |
US20230057455A1 (en) | Storage medium, diagnosis support device, and diagnosis support method | |
JP2009259030A (en) | Image identification apparatus, image identification method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130318 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160412 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |