JPH08123905A - Method and device for character recognition - Google Patents

Method and device for character recognition

Info

Publication number
JPH08123905A
JPH08123905A JP6265442A JP26544294A JPH08123905A JP H08123905 A JPH08123905 A JP H08123905A JP 6265442 A JP6265442 A JP 6265442A JP 26544294 A JP26544294 A JP 26544294A JP H08123905 A JPH08123905 A JP H08123905A
Authority
JP
Japan
Prior art keywords
character
font
recognition
vector
standard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6265442A
Other languages
Japanese (ja)
Other versions
JP3623992B2 (en
Inventor
Masami Hisagai
正己 久貝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP26544294A priority Critical patent/JP3623992B2/en
Publication of JPH08123905A publication Critical patent/JPH08123905A/en
Application granted granted Critical
Publication of JP3623992B2 publication Critical patent/JP3623992B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

PURPOSE: To provide the method and device which shorten the processing time to attain the processing time of practical font recognition ana improve the precision of font recognition. CONSTITUTION: The picture read by an image scanner 3 is segmented into each character, and its size is normalized. Thereafter, the feature vector is extracted based on the normalized character image. The vector component of the extracted feature vector is divided into plural groups and is decomposed to partial vectors consisting of components of respective groups. Distances from these partial vectors to standard patterns stored in a first dictionary preliminarily stored in a recognition dictionary 9 are calculated, ana the character category of the standard pattern having the highest degree of similarity is obtained. Thereafter, distances between this character category and standard patterns in a second dictionary are calculated to determine a character font.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は入力された画像データ中
の文字を認識する文字認識装置及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition apparatus and method for recognizing characters in input image data.

【0002】[0002]

【従来の技術】一般に、文字認識装置のほとんどは、認
識して得た文字コードを出力するのみである。文字フォ
ントまで認識しようとする場合、文字の字形の微妙な差
異を識別するために特徴ベクトルの次元数を大きくした
り、識別計算をいっそう複雑にしなければならなかい。
2. Description of the Related Art Generally, most character recognition devices only output a character code obtained by recognition. In order to recognize even character fonts, it is necessary to increase the number of dimensions of the feature vector in order to identify subtle differences in the character shape, or to make the identification calculation more complicated.

【0003】文字認識の場合、認識対象を英語に限る
と、対象文字カテゴリは52文字とそれに若干の記号が
加わり、そのカテゴリ数はせいぜい100程度である。
それに対してよく使われる文字フォントの種類は、一般
にはCourie,Times Roman,Helvetica, 及びイタリックな
ど4種類ぐらいである。フォント認識を行おうとする場
合、まず最初に考え付く方法は、認識辞書を各フォント
ごとフォントの個数分(例えば4個)もち、各認識辞書
は一つのフォントの学習文字から学習された標準パター
ンから造られる。そして、文字切り出しによって切り出
された一個の文字画像から特徴ベクトルを抽出し、所定
の識別計算法で各辞書の標準パターンとの類似度(また
は距離)を求める。類似度は、フォントの個数分つまり
4個求まり、最大の類似度を与える認識辞書のフォント
を解とする。ここで求まる4個の類似度は一般的に極め
て近い値になる。なぜならば、フォントの違いはそれほ
ど特徴を捉えにくいものだからである。そこで、特徴ベ
クトルの次元数を大きくしたり、識別計算を高度(複
雑)なものにすれば、フォントの際をとらえることがで
きるかもしれないが、そうすると今度はそのため識別計
算が多くなる。また、その計算量が認識辞書の個数倍
(フォントの種類数)の計算量に達する。上記の例の場
合、一つの標準パターンとの類似度計算負荷をρとすれ
ば総計算量ρ×100×4=400ρである。日本後を
認識対象とすると、文字数が3,500ぐらいであるか
ら、総計算量=ρ×3,500×4=14,000ρな
る。これは、もともとフォントの際を捉えるための類似
度計算負荷ρは非常に大きいため実質的にフォント認識
を実現的な処理時間で行えないことを意味する。
In the case of character recognition, if the recognition target is limited to English, the target character category is 52 characters and some symbols are added thereto, and the number of categories is about 100 at most.
On the other hand, the types of character fonts that are often used are generally four, such as Courie, Times Roman, Helvetica, and italics. When trying to recognize fonts, the first method that can be considered is to have recognition dictionaries for each font for each font (for example, 4), and each recognition dictionary is created from standard patterns learned from the learning characters of one font. To be Then, a feature vector is extracted from one character image cut out by the character cutout, and the similarity (or distance) with the standard pattern of each dictionary is obtained by a predetermined identification calculation method. The similarity is determined by the number of fonts, that is, four, and the font of the recognition dictionary that gives the maximum similarity is used as the solution. The four similarities obtained here are generally very close values. This is because the difference in fonts makes it difficult to capture the features. Therefore, if the number of dimensions of the feature vector is increased or the identification calculation is made sophisticated (complex), it may be possible to catch the font, but this time, the identification calculation will increase. Further, the amount of calculation reaches the number of times of the number of recognition dictionaries (the number of font types). In the above example, if the similarity calculation load with one standard pattern is ρ, the total calculation amount ρ × 100 × 4 = 400ρ. Since the number of characters is about 3,500, the amount of calculation is ρ × 3,500 × 4 = 14,000ρ, assuming that Japan is the target. This means that the similarity calculation load ρ for catching the case of a font is originally very large, and therefore font recognition cannot be substantially performed in a realizable processing time.

【0004】[0004]

【発明が解決しようとする課題】本発明は、現実的なフ
ォント認識の処理時間を達成するため、処理時間の短縮
と、フォント認識の精度を高める装置及び方法を提供す
る。また、文書を入力したまま同じように出力すること
はそれなりに意義の有ることである。しかし、近年カラ
ー印刷器が普及してきたことによりモノクロの文書をカ
ラーで印刷し直したいという要求が当然のことながら出
てくる。とくに従来モノクロ印刷器で印刷されて蓄積さ
れた文書をカラー化したいという欲求は増大してくる。
同様にカラーディスプレイに表示したいという欲求も増
大する。本発明は、フォント認識の応用としてこれらの
欲求に応えるものでもある。
SUMMARY OF THE INVENTION The present invention provides an apparatus and method for reducing the processing time and improving the accuracy of font recognition in order to achieve a realistic processing time for font recognition. Also, it is meaningful that the document is output in the same way as it is input. However, due to the widespread use of color printers in recent years, there is a natural need to reprint monochrome documents in color. In particular, there is an increasing desire to colorize a document that has been printed by a conventional monochrome printer and accumulated.
Similarly, the desire to display on a color display also increases. The present invention also addresses these needs as an application of font recognition.

【0005】[0005]

【課題を解決するための手段】及び[Means for Solving the Problems] and

【作用】上記課題を解決するため、例えば本発明の文字
認識装置は以下の構成を備える。すなわち、入力された
原稿画像中の文字部分を切り出し、文字認識する文字認
識装置であって、切り出された文字画像から特徴ベクト
ルを抽出する特徴抽出手段と、文字カテゴリを決定する
ための統計情報を含む標準パターンを記憶する第1の認
識辞書と、各文字カテゴリごとに特徴変換行列および文
字フォントを決定するための標準フォントパターンを各
文字フォントごとにもつ第2の認識辞書と、前記特徴ベ
クトルのベクトル成分を複数の群に分け、各群の成分か
らなる複数の部分ベクトルに分解する特徴分解手段と、
該部分ベクトルの1つと第1の認識辞書の標準パターン
との距離を計算し、最も類似性の高い標準パターンの文
字カテゴリを出力する第1の識別手段と、決定された文
字カテゴリの前記特徴変換行列で特徴ベクトルを新特徴
ベクトルに変換し、該新特徴ベクトルと第2の認識辞書
の標準フォントパターンとの距離を計算し文字フォント
を決定する第2の識別手段とを備える。
In order to solve the above problems, for example, the character recognition device of the present invention has the following configuration. That is, a character recognition device that cuts out a character portion in an input document image and recognizes a character, and a feature extraction unit that extracts a feature vector from the cut out character image, and statistical information for determining a character category. A first recognition dictionary that stores a standard pattern that includes the second recognition dictionary that has a standard font pattern for determining a feature conversion matrix and a character font for each character category for each character category; Feature decomposition means for dividing the vector component into a plurality of groups and decomposing into a plurality of partial vectors composed of the components of each group,
First identifying means for calculating a distance between one of the partial vectors and a standard pattern of the first recognition dictionary and outputting a character category of the standard pattern having the highest similarity; and the feature conversion of the determined character category. A second identifying means for converting the feature vector into a new feature vector by a matrix, calculating the distance between the new feature vector and the standard font pattern of the second recognition dictionary, and determining the character font.

【0006】また、本発明な好適な実施態様に従えば、
前記第1の認識辞書に含まれる標準パターンの統計情報
は、疑似ペイズ識別式の計算に必要な、平均ベクトル,
固有値,固有ベクトル,高次固有値置き換えパラメータ
を含むことが望ましい。また、前記第2の認識辞書の標
準フォントパターンは、疑似ペイズ識別式の計算に必要
な、新特徴ベクトルの平均ベクトル,固有値,固有ベク
トル,高次固有値置き換えパラメータを含むことが望ま
しい。
According to a preferred embodiment of the present invention,
The statistical information of the standard pattern included in the first recognition dictionary is an average vector, which is necessary for the calculation of the pseudo pay discriminant equation,
It is desirable to include eigenvalues, eigenvectors, and higher-order eigenvalue replacement parameters. Further, it is preferable that the standard font pattern of the second recognition dictionary includes an average vector of new feature vectors, an eigenvalue, an eigenvector, and a high-order eigenvalue replacement parameter, which are necessary for the calculation of the pseudo-pause identification formula.

【0007】また、更には、文字カテゴリと文字フォン
トが決定された後、文字コードにフォント種別を対応さ
せて出力する文字情報出力千段を有し、文字情報に違っ
て、フォントごとに異なる色で表示および/または印刷
することが望ましい。
Furthermore, after the character category and the character font are determined, there is a character information output stage for outputting the character code in association with the font type. Different character information has different colors for different fonts. It is desirable to display and / or print at.

【0008】[0008]

【実施例】以下、添付図面に従って本発明にかかる実姉
例を詳細に説明する。図1は実施例における文字認識装
置のブロック構成図である。図中、1は装置全体の制御
を司るCPUであり、各種の演算等の処理を行う処理部
としても機能する。2はバス、3はイメージスキャナ、
4はRAM、5は特徴抽出部、6は表示部、7はポイン
ティングデバイス、8は処理手順(プログラム等)を格
納するROM、9は認識辞書、10は外部記憶部、11
はキーボード、12はカラープリンタである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An example of a real sister according to the present invention will be described in detail below with reference to the accompanying drawings. FIG. 1 is a block diagram of the character recognition device in the embodiment. In the figure, reference numeral 1 is a CPU that controls the entire apparatus, and also functions as a processing unit that performs processing such as various calculations. 2 is a bus, 3 is an image scanner,
4 is a RAM, 5 is a feature extraction unit, 6 is a display unit, 7 is a pointing device, 8 is a ROM for storing processing procedures (programs, etc.), 9 is a recognition dictionary, 10 is an external storage unit, 11
Is a keyboard and 12 is a color printer.

【0009】図2は動作を説明するフローチャートであ
る。以下、図2に従って上記構成における処理内容を説
明する。ステップS210でスキャナ3で原稿となる文
書を読取り、それをイメージデータとしてRAM4に記
憶する。ステップS220では、イメージデータを表示
部8に表示する。ステップS230でポインティングデ
バイス(以下PDという)で文字部分を枠で囲んで領域
を指定する。ステップS240では、横方向と縦方向に
黒画素の射影をとることにより文字の切り出し位置を探
し、1文字ごとに切り出す。
FIG. 2 is a flow chart for explaining the operation. The processing contents of the above configuration will be described below with reference to FIG. In step S210, the scanner 3 reads a document, which is an original, and stores it in the RAM 4 as image data. In step S220, the image data is displayed on the display unit 8. In step S230, an area is designated by enclosing a character portion in a frame with a pointing device (hereinafter referred to as PD). In step S240, a black pixel is projected in the horizontal and vertical directions to find a character cutout position, and the character is cut out for each character.

【0010】ステップS250では以下のようにして特
徴ベクトルを求める。図3にステップS240で取り出
された一個の文字画像を示す。ステップS250では、
まず大きさを一定化(大きさの正規化)するため、図3
の文字画像30(L×L画素)を62画素×62画素の
大きさの文字画像31に変換する。変換は、正規化画像
の座標(x,y)の画素値を次式で計算される座標(x
0,y0)の文字画像30の対応する画素値にすることで
行う。
In step S250, the feature vector is obtained as follows. FIG. 3 shows one character image extracted in step S240. In step S250,
First, in order to make the size constant (normalize the size), FIG.
The character image 30 (L × L pixels) is converted into a character image 31 having a size of 62 pixels × 62 pixels. In the conversion, the pixel value of the coordinate (x, y) of the normalized image is calculated by the following formula (coordinate (x
This is performed by setting the pixel value corresponding to the character image 30 of ( 0 , y 0 ).

【0011】[0011]

【数1】 [Equation 1]

【0012】[0012]

【数2】 [Equation 2]

【0013】但し、N=62である。これで作られた6
2画素×62画素の画像のさらに外側に1ドット幅の白
画素(画素値:0)の外枠を付加し、64画素×64画
素の画像を最終的な正規化文字画像として得る。次に0
≦x≦N,0≦y≦Nの63×63画素領域を、9×9
画素サイズの小領域で分割する。従って、小領域は全部
で7×7=49個になる。図4の画像31の升目は、こ
の小領域を示している。
However, N = 62. 6 made with this
An outer frame of white pixels (pixel value: 0) having a 1-dot width is added to the outside of the image of 2 pixels × 62 pixels, and an image of 64 pixels × 64 pixels is obtained as a final normalized character image. Then 0
A 63 × 63 pixel area of ≦ x ≦ N and 0 ≦ y ≦ N is set to 9 × 9.
Divide into small areas of pixel size. Therefore, there are a total of 7 × 7 = 49 small areas. The squares of the image 31 in FIG. 4 indicate this small area.

【0014】以下では、x方向にi番目(i=0〜
6),y方向にj番目(j=0〜6)の小領域を現すの
に(i,j)で指定することにする。ここで、i=6の
行にある小領域と、j=6の列にある小領域は白画素の
1ドット幅外枠を含むことに注意されたい。前準備とし
て、2×2の画素領域の取り得る状態は16種類であ
る。このうち、すべて白画素、或いはすべて黒画素の場
合を除き、残りの14個の画像を図5のように分類し、
図示のように方向指数k(k=0,1,2,3)を対応
させておく。図6に各方向指数が現す4方向を示す。
In the following, i-th (i = 0 to 0) in the x-direction
6), to represent the j-th (j = 0 to 6) small area in the y direction, it is designated by (i, j). It should be noted that the small area in the row of i = 6 and the small area in the column of j = 6 include a 1-dot width outer frame of white pixels. As a preliminary preparation, there are 16 possible states of the 2 × 2 pixel area. Of these, except for the case of all white pixels or all black pixels, the remaining 14 images are classified as shown in FIG.
The direction indices k (k = 0, 1, 2, 3) are associated with each other as illustrated. FIG. 6 shows the four directions represented by each direction index.

【0015】さて、実施例では、次のようにして、小領
域(i,j)の中の2×2の画素領域を設定し、それぞ
れの方向指数の頻度Hij(k)を求める。図4は図3の
正規化画像31の小領域(0,0)を現している。この
小領域においては、最左上に接して2×2のマスク領域
40を右方向へ1画素ずつずらしながら走査する。そし
て、1画素ずつ下方向にずらした位置を走査開始位置と
して順次走査していく。途中、マスク領域41、42、
43のように、隣の小領域にまたがる部分も発生する。
In the embodiment, the 2 × 2 pixel area in the small area (i, j) is set and the frequency H ij (k) of each direction index is calculated as follows. FIG. 4 shows a small area (0, 0) of the normalized image 31 shown in FIG. In this small region, the 2 × 2 mask region 40 is scanned in the right direction by shifting it by one pixel in contact with the upper left corner. Then, scanning is sequentially performed with the position shifted downward by one pixel as the scanning start position. On the way, mask areas 41, 42,
As in 43, a portion that spans adjacent small areas also occurs.

【0016】この走査中、マスクされた2×2画像領域
が図5のどの方向指数かをみていく。そして、該当する
方向指数kがあるごとにHij(k)(この場合はH
00(k)となる)をカウントアップしていく。この際、す
べて白画素または黒画素の2×2画像は無視する。これ
を小領域内の9×9=81個に対して行う。以上のこと
を各小領域について行って方向指数ヒストグラムH
ij(k)(i,j=0,1,…,6;k=0,1,2,
3)が得られる。
During this scanning, it is checked which direction index in FIG. 5 the masked 2 × 2 image area is. Then, every time there is a corresponding direction index k, H ij (k) (in this case H
00 (k) will be counted up. At this time, the 2 × 2 image of all white pixels or black pixels is ignored. This is performed for 9 × 9 = 81 pieces in the small area. The above is performed for each small area to obtain the direction index histogram H
ij (k) (i, j = 0,1, ..., 6; k = 0,1,2,
3) is obtained.

【0017】尚、x座標が6、又は、y座標が6となっ
ている小領域については、その外枠として1ドットの空
白部分を持っているので、それぞれに対しても81個の
2×2画像領域の方向指数が求められる。次に、49個
の小領域のうちiおよびjが偶数のものを代表小領域と
して選択する。i,jは共に0〜6の値を取り得るの
で、全部で4×4=16個の代表小領域が特定できるこ
とになる。ここで、代表小領域の位置を解りやすくする
ために(i′,j′)(i′,j′=0,1,2,3)
で表わす。以下のように、代表小領域およびその近辺の
小領域のヒストグラムを重み付け加算して、新しい変数
i'j'(k)(i′,j′=0,1,2,3;k=0,
1,2,3)を求める。
Note that a small area having an x-coordinate of 6 or a y-coordinate of 6 has a blank portion of 1 dot as its outer frame, and therefore 81 pieces of 2 × are provided for each of them. The orientation index of the two image areas is determined. Next, of the 49 small areas, i and j with even numbers are selected as the representative small areas. Since both i and j can take values of 0 to 6, 4 × 4 = 16 representative small areas can be specified in total. Here, in order to make the position of the representative small area easy to understand, (i ', j') (i ', j' = 0, 1, 2, 3)
Express with. As described below, the histograms of the representative small area and the small areas in the vicinity thereof are weighted and added, and new variables h i'j ' (k) (i', j '= 0, 1, 2, 3; k = 0 ,
1, 2, 3) is calculated.

【0018】[0018]

【数3】 (Equation 3)

【0019】ここで、集合G(i′,j′)は、代表小
領域およびその近辺の小領域を含むが、近辺の小領域と
は代表小領域の上下左右斜めの8個の小領域である。重
みファクターgijは、注目小領域が代表小領域(i,
j)のときは4、その上下左右の小領域(i,j)は
2、斜めの小領域(i,j)は1であり、2次元ガウス
分布関数に近いものである。ただし、(i,j)が未定
義の小領域となってしまう場合はgij=0とする。3次
元配列hi'j'(k)を、適当に一次元に並べ換えて特徴
ベクトルxi(i=1,2,…,n)を得る。実施例の
場合、nは n=4×4×4×=64 である(1つのkにつき16個あり、kは0〜3の値を
取り得から、64個になる)。
Here, the set G (i ', j') includes a representative small area and small areas in the vicinity thereof, and the small area in the vicinity is eight small areas diagonally above, below, to the left, to the right of the representative small area. is there. In the weighting factors g ij , the focused small area is represented by the representative small area (i,
In the case of j), it is 4, the upper, lower, left and right small areas (i, j) are 2, and the oblique small areas (i, j) are 1, which is close to a two-dimensional Gaussian distribution function. However, when (i, j) becomes an undefined small area, g ij = 0. The three-dimensional array h i'j ' (k) is appropriately rearranged in one dimension to obtain the feature vector x i (i = 1, 2, ..., N). In the case of the embodiment, n is n = 4 × 4 × 4 × = 64 (there are 16 per k, and k can be a value of 0 to 3, and thus 64).

【0020】さて、さらにこの特長ベクトルを拡張する
ことを考える。各小領域毎にラスター走査を行なって黒
画素の個数を求め小領域(i,j)の黒画素数をH
ij(4)(つまり、kが取り得る範囲を0〜4にする)
で表し、上記式(A−3)を適用して同様にhi'j'(k
+1)を得る。このようにして再度3次元配列h
i'j'(k)を、適当に一次元に並べ替えて特長ベクトル
i(i=1,2,…,n’)を得る。今度の場合、
n’=4×4×5=80となる。
Now, consider further extension of this feature vector. Raster scanning is performed for each small area to find the number of black pixels, and the number of black pixels in the small area (i, j) is set to H.
ij (4) (that is, the range that k can take is 0 to 4)
Then, by applying the above formula (A-3), similarly, h i'j ' (k
+1) is obtained. In this way, again the three-dimensional array h
i′j ′ (k) is appropriately rearranged in one dimension to obtain the feature vector x i (i = 1, 2, ..., N ′). In this case,
n ′ = 4 × 4 × 5 = 80.

【0021】ここで、改めて特長ベクトルxi(i=
1,2,…,n’)を方向指数の部分と黒画素数の部分
とに分解して、方向指数の第一の部分ベクトルをx
i(i=1,2,…,n)、黒画素数の第二の部分ベク
トルをx'i(i=1,2,…,n")で表す。ここで、
n=4×4×4=64、n"=4×4×1=14である
ことは自明である。
Here, the feature vector x i (i =
1, 2, ..., N ′) is decomposed into a direction index part and a black pixel number part, and the first part vector of the direction index is x.
i (i = 1, 2, ..., N), and the second partial vector of the number of black pixels is represented by x′i (i = 1, 2, ..., N ″), where
It is obvious that n = 4 × 4 × 4 = 64 and n ″ = 4 × 4 × 1 = 14.

【0022】以下に疑似ベイズ関数法における一般的な
認識辞書の作成方法を述べる。認識辞書は、文字コード
と文字属性及び標準パターンの対応テーブルであり、認
識の対象となる全ての文字カテゴリについてそれらの情
報を含んでいる。ここで文字属性とは、文字種(英字
・数字・漢字・ひらがな・かたかな・記号・その他の分
類を示すコード)、フォント種別、文字サイズ(大
文字か小文字かの区別、例えばアルファベットのo[オ
ー]などのように2つのレターサイズで字形が同じ文字
の区別)、その他の文字の性質を表す情報のことであ
る。文字コードは、対象文字種が英数字・記号だけなら
ば1バイトのアスキーコードで良いし、対象文字種が日
本語であれば2バイトのJISコードである。日本語の
文字コードには、これ以外にもシフトJISやそのたの
コード体系があるので、これに限るものではない。
A method for creating a general recognition dictionary in the pseudo Bayes function method will be described below. The recognition dictionary is a correspondence table of character codes, character attributes, and standard patterns, and includes information about all character categories to be recognized. Here, the character attribute is a character type (alphabet, number, kanji, hiragana, katakana, symbol, code indicating other classification), font type, character size (upper or lower case, for example, o [o ], Etc., which distinguish between characters that have the same letter shape in two letter sizes), and other characteristics of the character. The character code may be a 1-byte ASCII code if the target character type is only alphanumeric characters or symbols, or a 2-byte JIS code if the target character type is Japanese. The Japanese character code is not limited to this because there are shift JIS and other code systems besides this.

【0023】さて、標準パターンは各文字カテゴリにつ
いて次の様に作成される。いま文字カテゴリをν[ニュ
ー]で表すこととする(ν=1,2,…,L)。文字カ
テゴリνをns回観測(イメージスキャナで読み込み一
文字の画像として取り出す処理をいう)し、前記の方法
で特徴ベクトルを求める。α回目の観測で得られた特徴
ベクトルをvxα(次の式の左辺)で表す。ns回の観測
の平均ベクトルvaveは、
The standard pattern is created for each character category as follows. Now, the character category is represented by ν [new] (ν = 1, 2, ..., L). The character category ν is observed n times (referred to as a process of reading out with a image scanner as an image of one character), and the feature vector is obtained by the above method. The feature vector obtained by the α-th observation is represented by v x α (left side of the following equation). The mean vector v x ave of n s observations is

【0024】[0024]

【数4】 [Equation 4]

【0025】で求められる。任意のベクトルaをIt is obtained by Any vector a

【0026】[0026]

【数5】 (Equation 5)

【0027】で表すとaの転置ベクトルatは、at
(a12 …an )である。ここで、
The transposed vector a t of a can be expressed as a t =
(A 1 a 2 ... A n ). here,

【0028】[0028]

【数6】 (Equation 6)

【0029】を定義すればvVは、いわゆるn×nの共
分散行列である。各行列vVに対して、固有値と固有ベ
クトルを求め、固有値をvλi (i=1,2,…,
n)、vλiに属する固有ベクトルをvψi(i=1,2,
…,n)で表す。但し、固有値vλiはiの順に値の降順
に並べられている。未知入力文字βの特徴ベクトルxが
得られたら、この未知入力文字βが文字カテゴリνであ
る確率P(x|ν)は、
By defining v v is a so-called n × n covariance matrix. For each matrix v V, eigenvalues and eigenvectors are obtained, and the eigenvalues are v λ i (i = 1, 2, ...,
n), the eigenvectors belonging to v λ i are v ψ i (i = 1, 2,
, N). However, the eigenvalues v λ i are arranged in the descending order of values in the order of i. When the feature vector x of the unknown input character β is obtained, the probability P (x | ν) that the unknown input character β is the character category ν is

【0030】[0030]

【数7】 (Equation 7)

【0031】で与えられる。但し、未知入力ベクトルは
n変数正規分布に従うという合理的な過程がなされてい
る。さて、v(x)=−2logP(x|v)とおけば、
Is given by However, there is a rational process in which the unknown input vector follows an n-variable normal distribution. Now, if v d (x) =-2logP (x | v),

【0032】[0032]

【数8】 (Equation 8)

【0033】となる。ここで、(a,b)はベクトル内
積を意味する。この値vd(x)が小さいほど未知入力
文字はカテゴリ文字νに属する確率が大きいことになる
ので、vd(x)は相違度関数である。これは疑似ベイ
ズ識別関数と呼ばれる。ところで、固有値vλi(i=
1,2,…,n)、vλiに属する固有ベクトルvψi(数
8では上に矢印がある)(i=1,2,…,n)を求め
るためにns個の学習文字を必要とするが、nsは有限の
数であるから、固有値vλiや固有ベクトルvψiには誤差
が含まれる。特に固有値の高次の項は、絶対値が小さい
ために精度が悪い。そこでi=k+1次以降の固有値を
全て一定の値vΛで置き換えることにする。パラメータv
Λは、例えばvλk の固有値に等しくする方法や、或い
はi=k+1次以降の固有値全ての平均値にする方法、
他の任意の値にする方法がある。また、一定値に置き換
えない最高次の固有値の次数k(1≦k≦64)は、例
えば10にする。この置き換えをすれば、上の相違度関
数は、以下の様になる。
It becomes Here, (a, b) means a vector dot product. The smaller the value v d (x) is, the higher the probability that the unknown input character belongs to the category character ν is. Therefore, v d (x) is a dissimilarity function. This is called the pseudo Bayes discriminant function. By the way, the eigenvalue v λ i (i =
1, 2, ..., N), n s learning characters are used to obtain the eigenvector v ψ i (the arrow in the equation 8 has an arrow above) belonging to v λ i (i = 1, 2, ..., N). Although necessary, since n s is a finite number, an error is included in the eigenvalue v λ i and the eigenvector v ψ i . In particular, the higher-order terms of the eigenvalues are inaccurate because their absolute values are small. Therefore, all eigenvalues after i = k + 1 are replaced with a constant value v Λ. Parameter v
Λ is, for example, a method of making it equal to the eigenvalue of v λ k , or a method of making the average value of all eigenvalues of i = k + 1 or higher,
There is a method to set it to any other value. The order k (1 ≦ k ≦ 64) of the highest eigenvalue that is not replaced with a constant value is set to 10, for example. If this replacement is performed, the above dissimilarity function becomes as follows.

【0034】[0034]

【数9】 [Equation 9]

【0035】ここで、文字カテゴリνの標準パターンと
は、平均ベクトルvave、固有値vλi(i=1,2,
…,k)、固有ベクトルvψi(数9では上に矢印がつい
ている)(i=1,2,…,k)、及びパラメータvΛ
の一式のデータのことと定義する。さて、文字カテゴリ
ν(ν=1,2,…,L)に対して十分多くの学習文字
(例えばns=500個)から上記の方法によって、標
準パターンをあらかじめ求めておき、文字カテゴリνの
文字コードと文字属性とを組にして(文字コード、文字
属性、標準パターン)の一セットを文字コード順に並べ
たテーブルを作り、認識辞書とする。認識辞書には、L
個の文字カテゴリについての標準パターンが含まれてい
る。
Here, the standard pattern of the character category ν is the average vector v x ave and the eigenvalue v λ i (i = 1, 2,
, K), an eigenvector v ψ i (indicated by an arrow at the top in Equation 9) (i = 1, 2, ..., K), and a parameter v Λ.
It is defined as a set of data. Now, for the character category ν (ν = 1, 2, ..., L), a standard pattern is previously obtained from a sufficiently large number of learning characters (for example, n s = 500) by the above method, and the standard pattern of the character category ν A table in which a set of character codes and character attributes (character code, character attribute, standard pattern) is arranged in the order of character code is created as a recognition dictionary. In the recognition dictionary, L
Contains standard patterns for this character category.

【0036】本実施例では認識辞書9の中に第一の認識
辞書と第二の認識辞書の二つの認識辞書が記憶されてい
る。今の場合、これらは一つのメモリ内に入っている
が、別々のメモリに別れて入っていても構わない。第一
の認識辞書は、文字カテゴリを決定するためのもので、
各カテゴリについて文字カテゴリνの文字コードと文字
属性とを組にして(文字コード、文字属性、標準パター
ン)の1セットを文字コード順に並べたテーブルであ
り、標準パターンを作製する学習文字は全ての認識対象
フォントのサンプル文字を十分な個数分含める。また標
準パターンは計算量を少なくするため前記第一の部分ベ
クトル(64次元)を特徴ベクトルとしたものとする。
In this embodiment, the recognition dictionary 9 stores two recognition dictionaries, a first recognition dictionary and a second recognition dictionary. In the present case, these are stored in one memory, but they may be separately stored in different memories. The first recognition dictionary is for determining character categories,
It is a table in which a set of character codes and character attributes of the character category ν for each category (character code, character attribute, standard pattern) is arranged in the order of character code. Include a sufficient number of sample characters of the recognition target font. In addition, in order to reduce the amount of calculation, the standard pattern uses the first partial vector (64 dimensions) as a feature vector.

【0037】こうして、ステップS250で得られた未
知文字の特徴ベクトル(第一の部分ベクトル)と第一の
認識辞書内の各文字カテゴリの標準パターンとの相違度
を式(B−6)によって計算する(ステップS26
0)。文字カテゴリ数L個の相違度が求まったら、相違
度の昇順に文字カテゴリをソートする。最小の相違度を
与える文字カテゴリが認識結果である。
In this way, the degree of difference between the feature vector (first partial vector) of the unknown character obtained in step S250 and the standard pattern of each character category in the first recognition dictionary is calculated by the formula (B-6). Yes (step S26
0). When the dissimilarity of the number L of character categories is obtained, the character categories are sorted in ascending order of dissimilarity. The character category that gives the smallest difference is the recognition result.

【0038】次にステップS270ではフォントを認識
する。フォント認識には多クラス(クラス=フォント)
の判別分析の手法を用いる。未知文字の文字カテゴリ
(すなわち文字コード)が確定したとして、次にそのフ
ォントを認識する必要がある。ここでは、認識対象のフ
ォントの個数をF個とする。未知フォント文字(文字カ
テゴリは確定されたがフォントが未知の文字)がどのフ
ォント(以下クラスと呼ぶ)であるかを判別するため
に、ここでは、Fクラスの判別分析の手法を使用する。
以下にその説明をする。以下において特徴ベクトルxと
は第一の部分ベクトルに第二の部分ベクトルをあわせた
80次元の特徴ベクトルを表す。
Next, in step S270, the font is recognized. Multiple classes for font recognition (class = font)
Discriminant analysis method is used. Assuming that the character category (that is, the character code) of the unknown character is fixed, it is necessary to recognize the font next. Here, the number of fonts to be recognized is F. In order to discriminate which font (hereinafter referred to as class) is an unknown font character (character whose character category is fixed but whose font is unknown), the method of the F class discriminant analysis is used here.
The explanation will be given below. In the following, the feature vector x represents an 80-dimensional feature vector obtained by combining the first partial vector and the second partial vector.

【0039】未知フォント文字の特徴ベクトルxから判
別に有効な新特徴ベクトルy(m次元:m≦n)に変更
する行列をA(m×n)とすると、
Letting A (m × n) be the matrix for changing from the feature vector x of an unknown font character to the new feature vector y (m dimension: m ≦ n) effective for discrimination,

【0040】[0040]

【数10】 [Equation 10]

【0041】各クラスci(i=1…F)の特徴ベクト
ルxの平均ベクトルxiave 、クラスciの共分散行列Σ
i は、次式で与えられる。
Average vector x iave of feature vector x of each class c i (i = 1 ... F), covariance matrix Σ of class c i
i is given by the following equation.

【0042】[0042]

【数11】 [Equation 11]

【0043】[0043]

【数12】 (Equation 12)

【0044】Eci[…]は、クラスciでの算術平均を
表す。平均ベクトルxiave 、クラスciの共分散行列Σ
iは、クラスciの充分な個数(例えば50個)から求め
ることができる。各クラスの事前発生確率(あるフォン
トがどれくらいの頻度で発生するかを表す確率)をωi
としてクラス内共分散行列ΣWが次の様に定義できる。
Ec i [...] represents the arithmetic mean in class c i . Mean vector x i ave , covariance matrix Σ of class c i
i can be obtained from a sufficient number of classes c i (for example, 50). The pre-occurrence probability of each class (probability that represents how often a font occurs) ω i
The in-class covariance matrix Σ W can be defined as

【0045】[0045]

【数13】 (Equation 13)

【0046】ここで各クラスの事前発生確率ωiは、各
クラス(フォント)が使われる頻度を事前に統計的に調
査して求めておくことができる。そして、クラス間共分
散行列ΣBを次の様に定義する。
Here, the pre-occurrence probability ω i of each class can be obtained in advance by statistically investigating the frequency with which each class (font) is used. Then, the interclass covariance matrix Σ B is defined as follows.

【0047】[0047]

【数14】 [Equation 14]

【0048】ここで、xTaveは、クラス全体Cにわたる
特徴ベクトルの平均ベクトルである。また、(C−
4),(C−3),(C−5)においてxをyに置き換
えて、新特徴ベクトルyについてのクラス内共分散行列
ΘWと、クラス間共分散行列ΘBを同様に定義できる。そ
うすると、次の関係が容易に分かる。
Here, x Tave is the average vector of the feature vectors over the entire class C. Also, (C-
4), (C-3), and (C-5), x can be replaced by y to define the intra-class covariance matrix Θ W and the inter-class covariance matrix Θ B for the new feature vector y. Then, the following relationship can be easily understood.

【0049】[0049]

【数15】 (Equation 15)

【0050】そこで、Therefore,

【0051】[0051]

【数16】 [Equation 16]

【0052】とおけば、J(A)が最大になるような変
換行列Aを求めれば新特徴ベクトルyによって精度のい
い識別が可能となるのというのが多クラスにおける判別
分析の示すところである。(C−6)、(C−7)によ
り、これは次の固有値問題を解けばよい。
In other words, discriminant analysis in many classes shows that if the transformation matrix A that maximizes J (A) is obtained, accurate discrimination can be performed using the new feature vector y. With (C-6) and (C-7), this may solve the following eigenvalue problem.

【0053】[0053]

【数17】 [Equation 17]

【0054】ここで、Λは、対角要素のみが0でない固
有値(λ1 ≧λ2 …≧λm )を持っているm×mの行列
である。λiに属する正規化された固有ベクトルをφi
すれば、A=(φ1 φ2 …φm)である。固有ベクトル
の正規化条件は、
Where Λ is an m × m matrix in which only diagonal elements have non-zero eigenvalues (λ 1 ≧ λ 2 ... ≧ λ m ). If the normalized eigenvector belonging to λ i is φ i , then A = (φ 1 φ 2 ... φ m ). The eigenvector normalization condition is

【0055】[0055]

【数18】 (Equation 18)

【0056】である。x→yの変換行列Aは、式(C−
4)と(C−5)により各クラスの学習データから固有
値問題(C−8)を解いて求まる。次に第二の準備とし
て、各クラスの学習エラーから新特徴ベクトルyiにつ
いての平均ベクトルyiaveと共分散行列(B−3でx→
yとしたもの)の固有値・固有ベクトル及びパラメータ
iΛを求めておく。
It is The conversion matrix A of x → y is given by the formula (C−
4) and (C-5), the eigenvalue problem (C-8) is solved from the learning data of each class. Next, as a second preparation, from the learning error of each class, the average vector y iave for the new feature vector y i and the covariance matrix (B → x →
y)) eigenvalues / eigenvectors and parameters
Find i Λ.

【0057】こうしてあらかじめ変換行列A及び新特徴
ベクトルyiについての平均ベクトルyiaveと共分散行
列の固有値・固有ベクトル及びパラメータiΛを求めて
おけば、文字カテゴリが確定したあとのフォント認識を
文字カテゴリを決定したのと同様に、フォントの決定を
入力未知フォント文字と疑似ベイズ識別式で行なうこと
ができる。ここで、フォント決定のための疑似ベイズ識
別式を書けば、
In this way, if the mean vector y iave about the transformation matrix A and the new feature vector y i , the eigenvalues / eigenvectors of the covariance matrix and the parameter i Λ are obtained in advance, the font recognition after the character category is determined is determined. Similarly to the above, the font can be determined by the input unknown font character and the pseudo Bayesian discriminant. Here, if you write a pseudo Bayes identification formula for font determination,

【0058】[0058]

【数19】 [Formula 19]

【0059】但し、νはクラスを指定するインデックス
である。第二の認識辞書には、すべての文字カテゴリに
ついて変換行列A及び文字コード各フォントについての
標準フォントパターン(F個)が対応して記憶されてい
る。ここで標準フォントパターンとは、新特徴ベクトル
iについての平均ベクトルyiaveと共分散行列の固有
値・固有ベクトル及びパラメータiΛのことである。こ
れらの統計量は、対応する文字カテゴリ・文字フォント
の文字サンプルで学習して求めておくことは当然のこと
である。
However, ν is an index designating a class. In the second recognition dictionary, the conversion matrix A for all character categories and the standard font patterns (F) for each character code font are stored correspondingly. Here, the standard font pattern is the mean vector y iave for the new feature vector y i , the eigenvalue / eigenvector of the covariance matrix, and the parameter i Λ. It is natural that these statistics are obtained by learning with the character samples of the corresponding character category / character font.

【0060】未知文字の特徴ベクトルから特徴変換行列
Aによって新特徴ベクトルを求め、各フォントの標準フ
ォントパターンとの相違度を式(C−10)によって計
算し、最小の相違度を与えるフォントを認識結果とす
る。ここで、特徴変換行列Aは文字カテゴリ毎に違って
いることに注意しておく。ステップS280では文字コ
ードとフォントコードをRAM4に出力し、色制御コー
ド(アスキー制御文字のESCコード等を用いる)とフ
ォントコードに対応する色コードをRAM4に出力し、
ステップS250へ戻る。ステップS250で既に認識
する文字がなくなったらステップS290へいく。ステ
ップS290では、RAM4の文字コードと色制御コー
ドを入力し、色コードに対応する色で文字を印字する。
印字はカラープリンタ12で行なう。
A new feature vector is obtained from the feature vector of the unknown character by the feature conversion matrix A, the degree of difference between each font and the standard font pattern is calculated by the formula (C-10), and the font giving the smallest degree of difference is recognized. The result. Note that the feature conversion matrix A is different for each character category. In step S280, the character code and the font code are output to the RAM 4, the color control code (using the ESC code of ASCII control characters, etc.) and the color code corresponding to the font code are output to the RAM 4,
It returns to step S250. When there are no more characters to be recognized in step S250, the process proceeds to step S290. In step S290, the character code of the RAM 4 and the color control code are input, and the character is printed in the color corresponding to the color code.
Printing is performed by the color printer 12.

【0061】[0061]

【第2の実施例】上記実施例では、文字カテゴリの決定
に疑似ベイズ識別関数を使い、また文字フォントの決定
にも疑似ベイズ識別関数を使った。しかしながら、第二
の識別(文字フォントの決定)では、既に判別分析によ
って特徴を有効な新特徴ベクトルに変換しているので、
必ずしも疑似ベイズ識別関数による必要はなく、もっと
簡単なユークリッド距離関数或いは単純類似度、シティ
ブロック距離関数等で識別しても、大きな精度減少は見
られないで、若干処理の高速化が期待できる。
Second Embodiment In the above embodiment, the pseudo Bayes discrimination function is used to determine the character category, and the pseudo Bayes discrimination function is used to determine the character font. However, in the second identification (determination of character font), since the features have already been converted to effective new feature vectors by discriminant analysis,
It is not always necessary to use the pseudo Bayes discriminant function, and even if discriminated by a simpler Euclidean distance function, a simple similarity, a city block distance function, or the like, a large decrease in precision is not seen, and a slight speedup in processing can be expected.

【0062】[0062]

【第3の実施例】ところで、第一の認識辞書は認識対象
のすべてのフォントについて学習して造るものである
が、フォントの形状が特別他のフォントと大きく異なる
場合がある。例えば、英語においてはイタリック体がそ
うである。このようなときは、第一の認識辞書だけです
べてのフォントを学習することは困難である。そこで、
特殊フォント(イタリック体)だけを別に学習してその
フォントだけからなる第三の認識辞書を造っておく。そ
して第一の識別手段では、未知入力文字と第一認識辞書
及び第三認識辞書それぞれと前記の識別を行ない、第一
認識辞書との相違度1と第一認識辞書との相違度2と求
める。そして相違度1と相違度2の小さい方に対応する
文字カテゴリを認識結果として、第二の識別手段に進み
文字フォントを決定する方法がある。ここで第二の認識
辞書は、特殊フォントを別にする必要はないことは明か
である。
[Third Embodiment] By the way, the first recognition dictionary is created by learning all the fonts to be recognized, but the shape of the font may be very different from other fonts. For example, italics are the same in English. In such a case, it is difficult to learn all fonts using only the first recognition dictionary. Therefore,
Learn only special fonts (italics) separately and create a third recognition dictionary consisting only of those fonts. Then, the first discriminating means discriminates between the unknown input character and each of the first recognition dictionary and the third recognition dictionary, and obtains the degree of difference 1 with the first recognition dictionary and the degree of difference 2 with the first recognition dictionary. . Then, there is a method in which the character category corresponding to the smaller one of the difference 1 and the difference 2 is used as the recognition result and the process proceeds to the second identifying means to determine the character font. It is clear here that the second recognition dictionary does not need to have a special font separately.

【0063】以上説明したように本実施例によれば、文
字のフォントを高速かつ精度よく認識できる。従って、
既存のモノクロの文書をフォント毎に予め設定された色
を対応させることでカラー化することができる。今後カ
ラー複写機やカラープリンタが普及するにつれて、カラ
ー文書による分かりやすい文書を作成することが要求さ
れる様になってくるが、既存の文書はモノクロである。
そこで、本発明によれば容易にカラー文書を作成できる
ので、情報の表現をカラー化することに大きな効果があ
る。
As described above, according to this embodiment, the character font can be recognized at high speed and with high accuracy. Therefore,
An existing monochrome document can be colorized by associating a preset color with each font. As color copiers and color printers become widespread in the future, it will be required to create easy-to-understand color documents, but existing documents are monochrome.
Therefore, according to the present invention, since a color document can be easily created, there is a great effect in colorizing the representation of information.

【0064】尚、本発明を複写機に適応させた場合に
は、各フォント毎の出力色を操作パネル等で予め設定し
ておく。そして、キャラクタコードに基づいて文字パタ
ーンを発生する手段を備える。そして、上記処理で得ら
れたキャラクタコード及びフォント種別情報に基づき、
対応する文字パターンを発生し、それを操作パネル等で
設定された色で印刷することになる。
When the present invention is applied to a copying machine, the output color for each font is set in advance on the operation panel or the like. Then, it is provided with means for generating a character pattern based on the character code. Then, based on the character code and font type information obtained in the above processing,
A corresponding character pattern is generated and printed in the color set on the operation panel or the like.

【0065】また、複写機に限らず、プリンタ装置に印
刷データを出力するホストコンピュータに適応すること
も可能である。つまり、上記処理で得られたキャラクタ
コード及びフォントの種別に基づいて、印刷データを形
成(各フォント毎の出力色は予め設定されているものと
する)し、それをプリンタに出力する。また、上記実施
例では、原稿画像を光学的に読み取る装置からの画像デ
ータを認識対象としたが、これに限るものではなく、例
えばファクシミリ受信機を備え、それでもって受信した
画像を認識し、出力する装置に適応しても良い。尚、こ
の場合、認識対象の文字画像のサイズから、印刷すると
きの文字サイズ情報を印刷データの一部に組み込んで出
力するようにしても良い。
Further, not only the copying machine but also a host computer which outputs print data to a printer can be applied. That is, the print data is formed (the output color for each font is set in advance) based on the character code and the font type obtained in the above process, and the print data is output to the printer. Further, in the above embodiment, the image data from the device for optically reading the original image was recognized, but the present invention is not limited to this. For example, a facsimile receiver is provided, and the received image is recognized and output. It may be adapted to the device. In this case, the character size information for printing may be incorporated in a part of the print data and output based on the size of the character image to be recognized.

【0066】尚、英語認識の例で処理時間についていえ
ば、第一の認識辞書の標準パターンとの識別計算量は、
ρ×100=100ρで、第二の認識辞書との識別計算
量は4ρ(フォント数=4の場合)であるから、全体で
104ρとなり、処理時間は大幅に減る。また、フォン
ト認識の精度についていえば、第二の識別手段では特徴
変換行列によってフォント識別に適した特徴を抽出する
ので精度が向上することは当然である。
Regarding the processing time in the example of English recognition, the amount of calculation required to identify the standard pattern of the first recognition dictionary is
Since ρ × 100 = 100ρ and the amount of calculation for identification with the second recognition dictionary is 4ρ (when the number of fonts = 4), the total is 104ρ, and the processing time is greatly reduced. Regarding the accuracy of font recognition, the second identifying means extracts features suitable for font identification by the feature conversion matrix, and therefore the accuracy is naturally improved.

【0067】また、本発明は複数の機器から構成される
システムに適用しても1つの機器から成る装置に適用し
ても良く、また、システム或は装置にプログラムを供給
することによって達成される場合にも適用できることは
上記実施例の説明からすれば容易に想到できよう。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device, and is achieved by supplying a program to the system or the device. It can be easily conceived from the description of the above embodiment that it can be applied to the case.

【0068】[0068]

【発明の効果】以上説明したように本発明によれば、文
字のフォントを高速かつ精度よく認識できる。
As described above, according to the present invention, a character font can be recognized at high speed and with high accuracy.

【図面の簡単な説明】[Brief description of drawings]

【図1】実施例における文字認識装置のブロック構成図
である。
FIG. 1 is a block configuration diagram of a character recognition device in an embodiment.

【図2】実施例における文字認識処理内容を示すフロー
チャートである。
FIG. 2 is a flowchart showing the contents of character recognition processing in the embodiment.

【図3】実施例における未知入力文字イメージと正規化
文字イメージを示す図である。
FIG. 3 is a diagram showing an unknown input character image and a normalized character image in the embodiment.

【図4】正規化文字イメージの小領域と特徴抽出の概要
を示す図である。
FIG. 4 is a diagram showing an outline of a small area of a normalized character image and feature extraction.

【図5】実施例における方向指数の種類を示す図であ
る。
FIG. 5 is a diagram showing types of direction indexes in the example.

【図6】図6の方向指数の方向とその値の関係を示す図
である。
6 is a diagram showing the relationship between the direction of the direction index of FIG. 6 and its value.

【符号の説明】[Explanation of symbols]

1 CPU 2 バス 3 イメージスキャナ 4 RAM 5 特徴抽出部、 6 表示部 7 ポインティングデバイス 8 処理手順を格納するROM 9 認識辞書 10 外部記憶部 11 キーボード 12 カラープリンタ 1 CPU 2 Bus 3 Image Scanner 4 RAM 5 Feature Extraction Unit, 6 Display Unit 7 Pointing Device 8 ROM for Storage of Processing Procedure 9 Recognition Dictionary 10 External Storage Unit 11 Keyboard 12 Color Printer

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 入力された原稿画像中の文字部分を切り
出し、文字認識する文字認識装置であって、 切り出された文字画像から特徴ベクトルを抽出する特徴
抽出手段と、 文字カテゴリを決定するための統計情報を含む標準パタ
ーンを記憶する第1の認識辞書と、 各文字カテゴリごとに特徴変換行列および文字フォント
を決定するための標準フォントパターンを各文字フォン
トごとにもつ第2の認識辞書と、 前記特徴ベクトルのベクトル成分を複数の群に分け、各
群の成分からなる複数の部分ベクトルに分解する特徴分
解手段と、 該部分ベクトルの1つと第1の認識辞書の標準パターン
との距離を計算し、最も類似性の高い標準パターンの文
字カテゴリを出力する第1の識別手段と、 決定された文字カテゴリの前記特徴変換行列で特徴ベク
トルを新特徴ベクトルに変換し、該新特徴ベクトルと第
2の認識辞書の標準フォントパターンとの距離を計算し
文字フォントを決定する第2の識別手段とを備えること
を特徴とする文字認識装置。
1. A character recognition device for recognizing a character by cutting out a character portion in an input original image, wherein the feature extracting means extracts a feature vector from the cut out character image and a character category. A first recognition dictionary storing a standard pattern including statistical information; a second recognition dictionary having a standard font pattern for determining a feature conversion matrix and a character font for each character category for each character font; The vector component of the feature vector is divided into a plurality of groups, and the feature decomposing means for decomposing into a plurality of partial vectors consisting of the components of each group, and the distance between one of the partial vectors and the standard pattern of the first recognition dictionary is calculated. , A first identifying means for outputting a character category of a standard pattern having the highest similarity, and a feature vector using the feature conversion matrix of the determined character category. Character recognition apparatus for converting a character into a new feature vector, and calculating a distance between the new feature vector and a standard font pattern of the second recognition dictionary to determine a character font. .
【請求項2】 前記第1の認識辞書に含まれる標準パタ
ーンの統計情報は、疑似ベイズ識別式の計算に必要な、
平均ベクトル,固有値,固有ベクトル,高次固有値置き
換えパラメータを含むことを特徴とする請求項第1項に
記載の文字認識装置。
2. The statistical information of the standard pattern included in the first recognition dictionary is necessary for calculation of the pseudo Bayesian discriminant,
The character recognition device according to claim 1, comprising an average vector, an eigenvalue, an eigenvector, and a higher-order eigenvalue replacement parameter.
【請求項3】 前記第2の認識辞書の標準フォントパタ
ーンは、疑似ベイズ識別式の計算に必要な、新特徴ベク
トルの平均ベクトル,固有値,固有ベクトル,高次固有
値置き換えパラメータを含むことを特徴とする請求項第
1項に記載の文字認識装置。
3. The standard font pattern of the second recognition dictionary includes an average vector of new feature vectors, eigenvalues, eigenvectors, and higher-order eigenvalue replacement parameters necessary for the calculation of the pseudo Bayesian discriminant. The character recognition device according to claim 1.
【請求項4】 文字カテゴリと文字フォントが決定され
た後、文字コードにフォント種別を対応させて出力する
文字情報出力千段を有し、文字情報に違って、フォント
ごとに異なる色で表示および/または印刷することを特
徴とする請求項第1項に記載の文字認識装置。
4. After the character category and the character font are determined, the character information output unit has a column for outputting the character code in correspondence with the font type. The character information is displayed in a different color for each font depending on the character information. The character recognition device according to claim 1, wherein the character recognition device prints.
【請求項5】 入力された原稿画像中の文字部分を切り
出し、文字認識する文字認識方法であって、 切り出された文字画像から特徴ベクトルを抽出する特徴
抽出工程と、 前記特徴ベクトルのベクトル成分を複数の群に分け、各
群の成分からなる複数の部分ベクトルに分解する特徴分
解工程と、 該部分ベクトルの1つと、文字カテゴリを決定するため
の統計情報を含む標準パターンを記憶している第1の認
識辞書の標準パターンとの距離を計算し、最も類似性の
高い標準パターンの文字カテゴリを出力する第1の識別
工程と、 決定された文字カテゴリの前記特徴変換行列で特徴ベク
トルを新特徴ベクトルに変換し、該新特徴ベクトルと、
各文字カテゴリごとに特徴変換行列および文字フォント
を決定するための標準フォントパターンを各文字フォン
トごとにもつ第2の認識辞書の標準フォントパターンと
の距離を計算し文字フォントを決定する第2の識別工程
とを備えることを特徴とする文字認識方法。
5. A character recognition method for recognizing a character by cutting out a character portion in an input original image, the step of extracting a feature vector from the cut out character image, and a vector component of the feature vector. A feature decomposing step of decomposing into a plurality of groups and decomposing into a plurality of partial vectors composed of components of each group, one of the partial vectors, and a standard pattern containing statistical information for determining a character category are stored. The first identification step of calculating the distance from the standard pattern of the recognition dictionary of No. 1 and outputting the character category of the standard pattern having the highest similarity, and the feature vector with the feature conversion matrix of the determined character category as a new feature Converted to a vector, and the new feature vector,
Second identification for determining the character font by calculating the distance from the standard font pattern of the second recognition dictionary that has the characteristic conversion matrix for each character category and the standard font pattern for determining the character font for each character font A character recognition method, comprising:
【請求項6】 前記第1の認識辞書に含まれる標準パタ
ーンの統計情報は、疑似ベイズ識別式の計算に必要な、
平均ベクトル,固有値,固有ベクトル,高次固有値置き
換えパラメータを含むことを特徴とする請求項第5項に
記載の文字認識方法。
6. The statistical information of standard patterns included in the first recognition dictionary is necessary for calculation of a pseudo Bayesian discriminant,
The character recognition method according to claim 5, comprising an average vector, an eigenvalue, an eigenvector, and a high-order eigenvalue replacement parameter.
【請求項7】 前記第2の認識辞書の標準フォントパタ
ーンは、疑似ベイズ識別式の計算に必要な、新特徴ベク
トルの平均ベクトル,固有値,固有ベクトル,高次固有
値置き換えパラメータを含むことを特徴とする請求項第
5項に記載の文字認識方法。
7. The standard font pattern of the second recognition dictionary includes an average vector of new feature vectors, eigenvalues, eigenvectors, and higher-order eigenvalue replacement parameters required for calculation of the pseudo-Bayes' discriminant equation. The character recognition method according to claim 5.
【請求項8】 文字カテゴリと文字フォントが決定され
た後、文字コードにフォント種別を対応させて出力する
文字情報出力千段を有し、文字情報に違って、フォント
ごとに異なる色で表示および/または印刷することを特
徴とする請求項第5項に記載の文字認識方法。
8. After the character category and the character font are determined, a character information output unit for outputting the character code in correspondence with the font type is provided, and the character information is displayed in a different color for each font. 6. The character recognition method according to claim 5, wherein the character recognition method is printing.
JP26544294A 1994-10-28 1994-10-28 Character recognition apparatus and method Expired - Fee Related JP3623992B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26544294A JP3623992B2 (en) 1994-10-28 1994-10-28 Character recognition apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26544294A JP3623992B2 (en) 1994-10-28 1994-10-28 Character recognition apparatus and method

Publications (2)

Publication Number Publication Date
JPH08123905A true JPH08123905A (en) 1996-05-17
JP3623992B2 JP3623992B2 (en) 2005-02-23

Family

ID=17417215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26544294A Expired - Fee Related JP3623992B2 (en) 1994-10-28 1994-10-28 Character recognition apparatus and method

Country Status (1)

Country Link
JP (1) JP3623992B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100498683B1 (en) * 1997-12-19 2005-09-09 마츠시타 덴끼 산교 가부시키가이샤 A character recognition apparatus, a character recognition method, and a computer-readable storage medium recording a character recognition apparatus
JP2008259199A (en) * 2007-04-03 2008-10-23 Xerox Corp Automatic colorization of black and white printed document
JP2011233160A (en) * 2007-07-10 2011-11-17 Sharp Corp Method for determining characteristics of image data
JP2019152913A (en) * 2018-02-28 2019-09-12 キヤノン株式会社 Image processing device, image processing method an program
CN113673544A (en) * 2020-05-13 2021-11-19 珠海金山办公软件有限公司 Method and device for determining similar fonts, electronic equipment and storage medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100498683B1 (en) * 1997-12-19 2005-09-09 마츠시타 덴끼 산교 가부시키가이샤 A character recognition apparatus, a character recognition method, and a computer-readable storage medium recording a character recognition apparatus
JP2008259199A (en) * 2007-04-03 2008-10-23 Xerox Corp Automatic colorization of black and white printed document
JP2011233160A (en) * 2007-07-10 2011-11-17 Sharp Corp Method for determining characteristics of image data
JP2019152913A (en) * 2018-02-28 2019-09-12 キヤノン株式会社 Image processing device, image processing method an program
JP2022126829A (en) * 2018-02-28 2022-08-30 キヤノン株式会社 Image processing device, image processing method an program
CN113673544A (en) * 2020-05-13 2021-11-19 珠海金山办公软件有限公司 Method and device for determining similar fonts, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP3623992B2 (en) 2005-02-23

Similar Documents

Publication Publication Date Title
Zhu et al. Font recognition based on global texture analysis
Spitz Determination of the script and language content of document images
KR100658119B1 (en) Apparatus and Method for Recognizing Character
US5373566A (en) Neural network-based diacritical marker recognition system and method
US4933979A (en) Data reading apparatus for reading data from form sheet
US5253307A (en) Image analysis to obtain typeface information
US8045798B2 (en) Features generation and spotting methods and systems using same
EP0544431B1 (en) Methods and apparatus for selecting semantically significant images in a document image without decoding image content
US8442319B2 (en) System and method for classifying connected groups of foreground pixels in scanned document images according to the type of marking
US6252988B1 (en) Method and apparatus for character recognition using stop words
JP3618796B2 (en) Pattern recognition method and apparatus
US7233697B2 (en) Character recognition device and a method therefor
Zramdini et al. Optical font recognition from projection profiles
US6272238B1 (en) Character recognizing method and apparatus
JP2000315247A (en) Character recognizing device
EP0680005A2 (en) Speed and recognition enhancement for OCR using normalized height/width position
JPH1027214A (en) Method and device for separating contact character in optical character recognizing computer
JP3623992B2 (en) Character recognition apparatus and method
EP0613101B1 (en) Pattern recognizing method and apparatus
Spitz Script language determination from document images
US6005986A (en) Method of identifying the script of a document irrespective of orientation
Spitz et al. Palace: A multilingual document recognition system
Bui et al. Font finder: Visual recognition of typeface in printed documents
US20180211127A1 (en) Character recognition device, character recognition method, and character recognition program
JPH07152855A (en) Character recognition method and device therefor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041129

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081203

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091203

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091203

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101203

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111203

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees