JP2578767B2 - Image processing method - Google Patents

Image processing method

Info

Publication number
JP2578767B2
JP2578767B2 JP61123725A JP12372586A JP2578767B2 JP 2578767 B2 JP2578767 B2 JP 2578767B2 JP 61123725 A JP61123725 A JP 61123725A JP 12372586 A JP12372586 A JP 12372586A JP 2578767 B2 JP2578767 B2 JP 2578767B2
Authority
JP
Japan
Prior art keywords
area
character
stroke
line
strokes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP61123725A
Other languages
Japanese (ja)
Other versions
JPS62281096A (en
Inventor
明彦 植草
敏明 矢ケ崎
新子 石谷
由美恵 郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP61123725A priority Critical patent/JP2578767B2/en
Publication of JPS62281096A publication Critical patent/JPS62281096A/en
Application granted granted Critical
Publication of JP2578767B2 publication Critical patent/JP2578767B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、文字の画像情報を入力して、その入力した
画像情報の文字を認識するための画像処理方法に関する
ものである。
Description: TECHNICAL FIELD The present invention relates to an image processing method for inputting image information of a character and recognizing the character of the input image information.

[従来の技術] 従来、この種の文字認識装置は非常に複雑な認識処理
を行つており、その分認識に時間を要し、装置が高価で
あつた。
2. Description of the Related Art Conventionally, this type of character recognition apparatus has performed very complicated recognition processing, and it has taken time to perform the recognition, and the apparatus has been expensive.

第9図は従来の文字認識処理の一例を示すフローチヤ
ートである。図において、用紙P上の文字は光電変換さ
れて読み取られ(ステツプS81)、論理“1"及び“0"の
2値化文字パターンに変換される(ステツプS82)。そ
して前記文字パターンにはその後の認識処理を容易かつ
確実なものとするための前処理が行われる(ステツプS8
3)。前処理は、例えば用紙P上の黒点等に起因するノ
イズの除去処理や文字線の境界に生じたピーク又はボイ
ド等の平滑化処理を含む一連の処理である。次に、いく
つかの特徴情報(交点、分岐点、ループ数、ストローク
長等の情報)を抽出する特徴抽出処理が行われる(ステ
ツプS84)。認識対象が多様であるときはこの特徴情報
も相当の数になる。そして、この特徴抽出結果に応じて
単一文字候補が選び出されるときは、その文字候補が認
識出力になる(ステツプS85→ステツプS88)。即ち、辞
書誘導を要しない場合である。しかし、多くの場合は特
徴情報を共通する複数の文字候補が選び出され、更に唯
一の文字を選び出すための詳細な識別処理がなされる
(ステップS85→ステツプS86)。この詳細な識別処理は
一般に辞書照合処理といわれ、認識対象が多様になると
かなり複雑化し、かつ照合に時間を要する。そして、こ
の照合処理によつて照合一致が得られたときは特定文字
候補が選び出される。また、この照合処理によつても不
一致の場合は最終的に認識不能の結果が出力される(ス
テツプS87→ステツプS88)。
FIG. 9 is a flowchart showing an example of a conventional character recognition process. In the figure, the characters on the paper P are photoelectrically converted and read (step S81), and converted into a binary character pattern of logic "1" and "0" (step S82). Then, the character pattern is subjected to preprocessing for making the subsequent recognition processing easy and reliable (step S8).
3). The pre-processing is a series of processing including, for example, a processing of removing noise caused by a black point or the like on the paper P and a processing of smoothing a peak or a void generated at a boundary between character lines. Next, a feature extraction process for extracting some feature information (information such as intersection points, branch points, loop numbers, stroke lengths, etc.) is performed (step S84). When the recognition target is diverse, this feature information also has a considerable number. When a single character candidate is selected according to the result of the feature extraction, the character candidate becomes a recognition output (step S85 → step S88). That is, there is no need for dictionary guidance. However, in many cases, a plurality of character candidates having the same feature information are selected, and a detailed identification process for selecting only one character is performed (step S85 → step S86). This detailed identification processing is generally called dictionary collation processing, and when the recognition target is diversified, it becomes considerably complicated and requires time for collation. When a matching match is obtained by this matching process, a specific character candidate is selected. In addition, if the result of this collation is not a match, an unrecognizable result is finally output (step S87 → step S88).

このように、従来の文字認識装置は多様な文字を認識
対象とするためにアルフアベツト、数字等の簡易な文字
(認識し易い文字)を認識する場合でも上述のような複
雑な認識処理を行うことになる。従つて、処理に時間が
かかり過ぎ、業務によつてはコストパフオーマンスを著
しく低下させていた。
As described above, the conventional character recognition apparatus performs the above-described complicated recognition processing even when recognizing simple characters (characters that are easy to recognize) such as alphabets and numbers in order to recognize various characters. become. Therefore, the processing takes too much time, and the cost performance is remarkably reduced for some tasks.

[発明が解決しようとする問題点] 本発明は上記従来例に鑑みてなされたもので、入力さ
れた画像情報より高速に文字を認識するための画像処理
方法を提供することを目的とする。
[Problems to be Solved by the Invention] The present invention has been made in view of the above conventional example, and has as its object to provide an image processing method for recognizing characters faster than input image information.

[問題点を解決するための手段] 上記目的を達成するために本発明の画像処理方法は以
下のような工程を備える。即ち、 文字の画像情報を入力し、 前記入力した画像情報を所定の領域に分割し、 前記分割された各領域毎に、各ライン上に現れる黒画
素の個数を計数して、該各領域内における各ライン毎の
黒画素の個数の最大値を求め、 前記分割された各領域を更に小領域に分割し、前記各
領域内のストロークを、当該領域内の全ての小領域を通
過する方向に検索し、 前記領域内において前記ストロークが検索された最初
の小領域の位置及び前記小領域において検索されたスト
ロークの数を求め、 前記各領域内における各ライン毎の黒画素の個数の最
大値及び前記ストロークが検索された前記領域における
最初の小領域の位置及び当該小領域におけるストローク
の数を、予め記憶してある標準特徴情報と比較すること
により、前記入力した画像情報の文字を認識することを
特徴とする。
[Means for Solving the Problems] In order to achieve the above object, the image processing method of the present invention includes the following steps. That is, image information of characters is input, the input image information is divided into predetermined regions, and the number of black pixels appearing on each line is counted for each of the divided regions, and the number of black pixels in each region is counted. Find the maximum value of the number of black pixels for each line in the above, further divide each of the divided areas into small areas, and move the stroke in each of the areas in the direction passing through all the small areas in the area. Searching, find the position of the first small area where the stroke was found in the area and the number of strokes found in the small area, the maximum value of the number of black pixels for each line in each area and By comparing the position of the first small area in the area where the stroke was searched and the number of strokes in the small area with standard feature information stored in advance, the sentence of the input image information is compared. And recognizes the.

[作用] かかる構成において、文字の画像情報を入力し、その
入力した画像情報を所定の領域に分割し、その分割され
た各領域毎に、各ライン上に現れる黒画素の個数を計数
して、該各領域内における各ライン毎の黒画素の個数の
最大値を求め、これら分割された各領域を更に小領域に
分割し、前記各領域内のストロークを、当該領域内の全
ての小領域を通過する方向に検索し、前記領域内におい
て前記ストロークが検索された最初の小領域の位置及び
前記小領域において検索されたストロークの数を求め、
各領域内における各ライン毎の黒画素の個数の最大値及
び前記ストロークが検索された前記領域における最初の
小領域の位置及び当該小領域におけるストロークの数
を、予め記憶してある標準特徴情報と比較することによ
り、前記入力した画像情報の文字を認識するように動作
する。
[Operation] In this configuration, character image information is input, the input image information is divided into predetermined regions, and the number of black pixels appearing on each line is counted for each of the divided regions. Calculating the maximum value of the number of black pixels for each line in each area, further dividing each of the divided areas into small areas, and dividing the strokes in each area into all the small areas in the area. Searching in the direction passing through, the position of the first small area where the stroke was found in the area and the number of strokes found in the small area,
The maximum value of the number of black pixels for each line in each area, the position of the first small area in the area where the stroke was searched, and the number of strokes in the small area are stored in advance as standard feature information. By performing the comparison, the operation of recognizing the characters of the input image information is performed.

[実施例] 以下、添付図面を参照して本発明の実施例を詳細に説
明する。第1図は実施例のマーク・文字認識装置(OM
R)のブロツク構成図である。尚、実施例のマーク・文
字認識装置は手書マーク及び本実施例に係る手書文字の
認識の他、一般の画像処理も行なえる汎用機能の認識装
置であるが、本発明は手書マーク及び特定のグループの
文字のみを認識する簡易な認識装置としても実現でき
る。
Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 shows a mark / character recognition device (OM) according to an embodiment.
It is a block diagram of R). The mark / character recognition device according to the embodiment is a recognition device having a general-purpose function capable of performing general image processing in addition to recognition of a handwritten mark and the handwritten character according to the present embodiment. It can also be realized as a simple recognition device that recognizes only characters of a specific group.

第1図において、1は手書マーク、手書文字等の他原
稿画像を読み取つて電気信号に変換するリーダ、7はリ
ーダ1と連動してマークシート、現像原稿等をリーダ1
の読取部にフイードするオートフイーダ、2はリーダ1
で読み取つた画像情報及びマーク、文字の認識結果の情
報を記憶する光デイスク、3はマーク・文字認識装置の
全体を制御するホストコンピユータ、4は各種の制御指
令、認識不能文字等の入力を行うキーボード、5は画像
情報、マーク及び文字の認識結果の情報、その他のオペ
レーシヨン情報等を表示するCRT表示装置(CRT)、6は
マーク及び文字の認識結果の情報その他画像情報等を印
刷出力するプリンタである。
In FIG. 1, reference numeral 1 denotes a reader which reads a document image such as a handwritten mark and a handwritten character and converts the image into an electric signal.
Auto feeder feeds the reading section of the reader, 2 is the reader 1
An optical disk for storing the image information and information of the recognition result of the mark and the character read in step 3 is a host computer for controlling the entire mark / character recognition device, and 4 is for inputting various control commands and unrecognizable characters. A keyboard 5 is a CRT display device (CRT) for displaying image information, mark and character recognition result information, other operation information, and the like, and 6 is a printout of mark and character recognition result information and other image information. It is a printer.

ホストコンピユータ3において、50は各種のプログラ
ムを実行するセントラルプロセツシングユニツト(例え
ばモトローラ社製のマイクロコンピユータMC68000)、5
1はCPU50が実行する実施例の第3図の文字認識処理プロ
グラムの他文字認識のための標準特徴情報51aを記憶し
ているROMである。更に52はCRTインタフエース、53はキ
ーボードインタフエース、54は光デイスクインタフエー
ス、55はリーダインタフエース、56はプリンタインタフ
エース、57はプログラム実行の処理経過や、読み取つた
文字パターン情報の他文字認識に必要な特徴抽出情報を
記憶するRAM、60はCPU50の共通バスである。
In the host computer 3, 50 is a central processing unit (for example, a micro computer MC68000 manufactured by Motorola) for executing various programs, 5
Reference numeral 1 denotes a ROM which stores standard feature information 51a for character recognition in addition to the character recognition processing program shown in FIG. Further, 52 is a CRT interface, 53 is a keyboard interface, 54 is an optical disk interface, 55 is a reader interface, 56 is a printer interface, 57 is a program execution process, and 57 is a character recognition process for reading program pattern and other characters. And a RAM 60 for storing feature extraction information necessary for the CPU 50.

RAM57において、571は読み取つた文字パターンデータ
を格納する文字バツフア、572は文字バツフアの文字パ
ターン上を水平及び垂直方向にその黒画素数を計数する
ことにより抽出した前記文字パターンのストローク長情
報を記憶するエリア、573は前記文字パターン上に設定
した所定の水平領域(又はライン)上で計数した前記水
平領域(又はライン)を横切る前記文字パターンのスト
ローク数を記憶するエリア、574は前記所定の水平領域
(又はライン)上で抽出した前記水平領域(又はライ
ン)を最初に横切る前記文字パターンのストローク位置
情報を記憶するエリア、575は認識結果のマークコー
ド、文字コード等を記憶するエリアである。
In the RAM 57, reference numeral 571 denotes a character buffer for storing the read character pattern data, and 572 stores stroke length information of the character pattern extracted by counting the number of black pixels in the character pattern of the character buffer in the horizontal and vertical directions. Area 573 is an area for storing the number of strokes of the character pattern crossing the horizontal area (or line) counted on a predetermined horizontal area (or line) set on the character pattern, and 574 is an area for storing the predetermined horizontal area. An area for storing stroke position information of the character pattern that first crosses the horizontal area (or line) extracted on the area (or line), and an area 575 stores a mark code, a character code, and the like as a recognition result.

第2図は第1図の構成を備えるマーク・文字認識装置
の外観図である。図中、第1図と同一の構成には同一番
号を付した。8はリーダ1とホストコンピユータ3を結
ぶインタフエースケーブル、9はプリンタ6とホストコ
ンピユータ3を結ぶインタフエースケーブルである。
FIG. 2 is an external view of a mark / character recognition device having the configuration of FIG. In the figure, the same components as those in FIG. 1 are denoted by the same reference numerals. Reference numeral 8 denotes an interface cable connecting the reader 1 and the host computer 3, and reference numeral 9 denotes an interface cable connecting the printer 6 and the host computer 3.

次に本実施例装置による文字の認識原理を説明する。 Next, the principle of character recognition by the present embodiment will be described.

第7図は実施例装置の認識対象であるアルフアベツト
及び数字の文字形態を示す図である。図において、実施
例の文字は16セグメントからなる要素の組合せで構成さ
れる。これらの要素の組合せで構成される代表的な文字
ストロークは、例えば水平(x)方向の上、中又は下段
に記入される全長又は半長の文字ストローク、同様にし
て垂直(y)方向の左、中又は右に記入される全長又は
半長の文字ストローク、及び斜方向の全長又は半長の文
字ストロークである。例えば第7図の1行1列目にはア
ルフアベツト文字「A」を示している。該文字のx方向
のストローク長は上から順に「長」「長」「短」であ
る。尚、「短」のストローク長は実際にはないが、後述
する如く例えば縦長の文字ストロークを横方向に見たと
きに「短」と認識することになる。またy方向のストロ
ーク長は左から順に「長」「短」「長」である。1行2
列目にはアルフアベツト文字「B」を示している。同様
にしてx方向のストローク長は上から順に「長」「半」
「長」であり、y方向のストローク長は左から順に
「短」「長」「長」である。従つて、このようなストロ
ーク長の組合せは各文字に固有のものとなり、この違い
によつて文字を容易に判別できる。
FIG. 7 is a diagram showing the character forms of the alphabets and numerals to be recognized by the embodiment device. In the figure, the characters of the embodiment are composed of a combination of elements consisting of 16 segments. A typical character stroke composed of a combination of these elements is, for example, a full-length or half-length character stroke written in the upper, middle, or lower row of the horizontal (x) direction, and similarly, the left side of the vertical (y) direction. , A full-length or half-length character stroke written in the middle or right, and a full-length or half-length character stroke in the oblique direction. For example, the alphabet “A” is shown in the first row and first column of FIG. The stroke length of the character in the x direction is “long”, “long”, and “short” in order from the top. Although a "short" stroke length does not actually exist, as will be described later, for example, a vertically long character stroke is recognized as "short" when viewed in the horizontal direction. The stroke length in the y direction is “long”, “short”, and “long” in order from the left. 1 line 2
The column shows the alphabetic letter "B". Similarly, the stroke length in the x direction is “long” “half” in order from the top.
The stroke length in the y direction is “short”, “long”, and “long” in order from the left. Therefore, such a combination of stroke lengths is unique to each character, and the character can be easily identified based on this difference.

しかし、いくつかの文字は上述したストローク長の特
徴摘出のみでは判別できない。例えば5行4列目の数字
「2」と6行1列目の数字「5」ではx方向のストロー
ク長は上から共に「長」「長」「長」であり、y方向の
ストローク長は左から共に「半」「短」「半」であるか
ら区別がつかない。また3行4列目のアルフアベツト文
字「P」と3行6列目のアルフアベツト文字「R」も同
様である。
However, some characters cannot be distinguished only by extracting the stroke length features described above. For example, in the number “2” in the fifth row and the fourth column and the number “5” in the sixth row and the first column, the stroke length in the x direction is “long”, “long” and “long” from above, and the stroke length in the y direction is Since they are both "half", "short" and "half" from the left, they are indistinguishable. The same applies to the alphabetical character "P" in the third row and the fourth column and the alphabetical character "R" in the third row and the sixth column.

そこで、これらの文字間の違いは、例えば第6図
(a)に示すように文字パターン上の水平方向に所定の
ライン1とライン2を設定し、該ライン1又はライン2
を横切る縦ストロークの数と、文字の左端の基点(右端
の基点でもよいが)から見て前記ライン1又はライン2
を最初に横切る縦ストロークがどこにあるかというスト
ローク位置情報を特徴抽出する。こうすれば「P」と
「R」ではライン2を横切るストローク数が「P」では
1本であり「R」では2本である。また「2」ではライ
ン1を最初に横切るまでの左端からの距離が長く、
「5」では短い。ライン2についてはその逆である。以
上の特徴抽出を組合せることによつて、第7図の全文字
を認識できる。
Therefore, the difference between these characters is determined by, for example, setting predetermined lines 1 and 2 in the horizontal direction on the character pattern as shown in FIG.
Line 1 or line 2 as viewed from the number of vertical strokes that cross
Characteristic extraction is performed on stroke position information indicating where the vertical stroke first crosses the. In this case, the number of strokes crossing the line 2 for "P" and "R" is one for "P" and two for "R". In the case of "2", the distance from the left end until crossing line 1 for the first time is long,
"5" is short. The reverse is true for line 2. By combining the above feature extraction, all the characters in FIG. 7 can be recognized.

ここで、紙面に付いたゴミ等によるノイズの問題を考
えてみると、文字ストロークの長さについては少々のゴ
ミが存在しても特徴抽出に影響を与える事は少ないと考
えられる。各所定領域1〜6についてはその中で黒画素
数を数回カウントしてその最大値をとる方法を採用して
おり、更にその最大値を所定のスレツシユホルドレベル
x1,x2で3値化し、大まかな長い、半分、短い、の区分
に量子化しているからである。一方、文字パターンの内
側にゴミ等があると誤つて文字のストローク数を余分に
カウントする可能性が生じる。そこで、第6図(b)に
示すように文字パターン上の水平方向に所定の領域7と
領域8を設定し、その中で例えば水平方向に3回のスト
ローク数のカウントを行い、この結果得られたストロー
ク数のうち、該エリア内の最小値をもつてそのストロー
ク数とする。こうすることにより、ゴミ等のノイズの存
在によつてストローク数を過大計数する可能性を小さく
できる。
Here, considering the problem of noise due to dust or the like on the paper, it is considered that the length of the character stroke does not affect the feature extraction even if a little dust is present. For each of the predetermined areas 1 to 6, a method is employed in which the number of black pixels is counted several times and the maximum value is obtained, and the maximum value is further set to a predetermined threshold level.
This is because x 1 and x 2 are binarized and roughly quantized into long, half, and short sections. On the other hand, if there is dust or the like inside the character pattern, there is a possibility that the number of strokes of the character is counted extra. Therefore, as shown in FIG. 6 (b), predetermined areas 7 and 8 are set in the horizontal direction on the character pattern, and the number of strokes is counted, for example, three times in the horizontal direction. The stroke number having the minimum value in the area is set as the stroke number. By doing so, the possibility of excessively counting the number of strokes due to the presence of noise such as dust can be reduced.

さらに、前記と同一エリア内のストローク数の最小値
をカウントしたラインを利用し、そのラインを文字パタ
ーンの左端の基点から走査していき、該ラインを最初に
横切るストロークの位置を得る。そして、これを第6図
(b)のスレツシユホルドレベルd1,d2で3値化する。
ストローク数の最小値をカウントしたラインを利用する
のは前述した理由により当該ラインはノイズの影響を受
けていないラインと考えられるからである。第6図
(b)の場合は、最初の文字ストロークが基点にあるか
らエリア7も8もそのストローク発生位置の情報は“1"
である。
Further, using a line counting the minimum value of the number of strokes in the same area as above, the line is scanned from the base point at the left end of the character pattern, and the position of the stroke that first crosses the line is obtained. This is ternarized at the threshold levels d 1 and d 2 in FIG. 6 (b).
The line that counts the minimum value of the number of strokes is used because the line is considered to be unaffected by noise for the above-described reason. In the case of FIG. 6B, since the first character stroke is located at the base point, the information of the stroke occurrence position of both areas 7 and 8 is "1".
It is.

第3図は実施例の文字認識処理手順のフローチヤート
である。この処理にはシート上の文字が読み取られ、2
値化処理され、文字バツフア571に格納された後に入力
する。前記2値化処理では先ず用紙P上の文字を例えば
1文字毎に光電変換する。ここでは、第7図に示すよう
に反射率の高いドロツプアウトカラーで16セグメントの
プレプリントを行い、文字をセグメント上に書き込むよ
うにしておくとその後の認識処理は簡単である。次に光
電変換した文字をさらに“1",“0"の2値パターンに変
換する。こうして文字バツフア571に格納された文字パ
ターンは第4図のように48×48ビツトのパターンサイズ
を持つている。
FIG. 3 is a flowchart of the character recognition processing procedure of the embodiment. In this process, characters on the sheet are read and 2
It is input after it has been value-processed and stored in the character buffer 571. In the binarization process, first, characters on the paper P are photoelectrically converted, for example, for each character. Here, as shown in FIG. 7, if 16-segment preprinting is performed using a dropout color having a high reflectance and characters are written on the segments, the subsequent recognition processing is easy. Next, the characters subjected to photoelectric conversion are further converted into binary patterns of "1" and "0". Thus, the character pattern stored in the character buffer 571 has a pattern size of 48 × 48 bits as shown in FIG.

ステツプS1では先ずx方向の黒画素の個数をカウント
してRAM57にストアする。例えば第4図の第1行目は長
ストロークを構成するものでありその個数は48である。
第2行目も長ストロークを構成するものでありその個数
は48でる。第3行目はy方向の長ストロークを2回横切
るものでありその個数は4である。こうして第48行目ま
での各個数をカウントしてRAM57にストアする。次に同
様にしてy方向の黒画素の個数をカウントしてRAM57に
ストアする。第4図の第1列目及び第2列目は長ストロ
ークを構成するものでありその個数は夫々48である。第
3列目はx方向の長ストロークを2回横切るものであり
その個数は4である。ステップS2ではRAM57にストアし
たデータを所定エリア毎に分割してそれぞれ個数の最大
値を抽出する。所定のエリアは例えば第5図(b)のよ
うに縦方向に3分割したエリア1,2,3と、第5図(c)
のように横方向に3分割したエリア4,5,6とする。従つ
て第5図(a)のような文字「A」を読み取つた場合は
エリア1の最大値は48、エリア2の最大値は48、エリア
3の最大値は4、エリア4の最大値は48、エリア5の最
大値は中央にあるノイズをカウントしたとして5、エリ
ア6の最大値は48である。ステツプS4では各エリアの最
大値を、第5図(b)のようにx軸方向に設けた画素数
のスライスレベルx1,x2、及び第5図(c)のようにy
軸方向に設けた画素数のスライスレベルy1,y2を基準に
して3値化する。例えば第5図(b)においてエリア1
の黒画素数の最大値48はx1及びx2以上であるから“3"に
量子化される。同様にしてエリア2は“3"、エリア3は
“1"となる。またエリア4は“3"、エリア5は“1"、エ
リア6は“3"となる。これらの値はエリア572にストア
され、特徴抽出情報の一部を構成する。
In step S1, the number of black pixels in the x direction is first counted and stored in the RAM 57. For example, the first line in FIG. 4 constitutes a long stroke, and the number is 48.
The second line also constitutes a long stroke, and its number is 48. The third line crosses the long stroke twice in the y direction, and the number is four. Thus, the respective numbers up to the 48th line are counted and stored in the RAM 57. Next, similarly, the number of black pixels in the y direction is counted and stored in the RAM 57. The first and second rows in FIG. 4 constitute a long stroke, and the number of each is 48. The third column crosses the long stroke twice in the x direction, and the number is four. In step S2, the data stored in the RAM 57 is divided for each predetermined area, and the maximum value of each number is extracted. The predetermined area is, for example, areas 1, 2, and 3 divided into three in the vertical direction as shown in FIG. 5B, and FIG.
Areas 4, 5, and 6 divided into three in the horizontal direction as shown in FIG. Therefore, when the character "A" as shown in FIG. 5A is read, the maximum value of the area 1 is 48, the maximum value of the area 2 is 48, the maximum value of the area 3 is 4, and the maximum value of the area 4 is 48, the maximum value of the area 5 is 5, assuming that the noise at the center is counted, and the maximum value of the area 6 is 48. In step S4, the maximum value of each area is set to the slice levels x 1 and x 2 of the number of pixels provided in the x-axis direction as shown in FIG. 5 (b) and y as shown in FIG. 5 (c).
It is ternary based on the slice levels y 1 and y 2 of the number of pixels provided in the axial direction. For example, in FIG.
Maximum number of black pixels 48 are quantized to "3" since it is x 1 and x 2 or more. Similarly, area 2 is "3" and area 3 is "1". Area 4 is “3”, area 5 is “1”, and area 6 is “3”. These values are stored in the area 572 and constitute a part of the feature extraction information.

ステツプS5では所定領域7及び8を横切る文字ストロ
ークの数をカウントする。第6図(b)の文字「A」に
ついていえば、領域7を横切るストローク数は“2"であ
り、領域8を横切るストローク数も“2"である。あるい
は、ステツプS5では第6図(a)のようにライン1及び
ライン2を横切る文字ストロークの数をカウントしても
よい。第6図(a)の文字「A」についていえば、ライ
ン1を横切るストローク数は“2"であり、ライン2を横
切るストローク数も“2"である。何れにしてもステツS6
ではカウントしたストローク数をエリア573にストアす
る。
In step S5, the number of character strokes crossing the predetermined areas 7 and 8 is counted. For the character "A" in FIG. 6B, the number of strokes crossing the area 7 is "2", and the number of strokes crossing the area 8 is also "2". Alternatively, in step S5, the number of character strokes crossing line 1 and line 2 may be counted as shown in FIG. For the character "A" in FIG. 6A, the number of strokes crossing line 1 is "2" and the number of strokes crossing line 2 is also "2". Either way, Stes S6
Then, the counted number of strokes is stored in the area 573.

ステツプS7では所定領域7及び8を最初に横切る文字
ストロークの位置を検出する。第6図(b)の文字
「A」についていえば、領域7を最初に横切るストロー
ク位置は基点とd1間にありその値は“1"である。領域8
を最初に横切るストローク位置の値も“1"である。ある
いは、ステツプS7では第6図(a)のようにライン1及
びライン2を最初に横切る文字ストロークの位置を検出
するようにしてもよい。第6図(a)の文字「A」につ
いていえば、ライン1を最初に横切るストローク位置は
基点とd1間にありその値は“1"である。ライン2を最初
に横切るストローク位置の値も“1"である。ステツプS8
では求めたストローク位置の特徴情報をエリア574にス
トアする。ちなみに数字「2」についていえば、領域7
を最初に横切るストローク位置はd2より右側にあるので
その値は“3"である。
In step S7, the position of the character stroke that first crosses the predetermined areas 7 and 8 is detected. As for the letter "A" in FIG. 6 (b), the stroke position across the region 7 to the first value located between the base point and d 1 is "1". Area 8
The value of the stroke position that first crosses is also “1”. Alternatively, in step S7, the position of a character stroke that first crosses line 1 and line 2 may be detected as shown in FIG. 6 (a). As for the letter "A" in FIG. 6 (a), the stroke position across the line 1 for the first time there its value between the base point and d 1 is "1". The value of the stroke position that first crosses line 2 is also “1”. Step S8
Then, the characteristic information of the obtained stroke position is stored in the area 574. By the way, as for the number "2", area 7
First crossing stroke position is its value since than d 2 on the right side is "3".

こうして得られた10個の情報が1文字から抽出した特
徴パターンとなり、ステツプS9ではエリア572〜574の内
容とROM5の標準特徴情報51aを照合する。ステツプS10で
照合一致が得られればステツプS11でROM5から対応文字
コードを取り出してコードバツフア575にストアする。
またステツプS10で照合一致が得られないときはステツ
プS12でリジエクトコードをコードバツフア575にストア
する。
The ten pieces of information obtained in this manner become a feature pattern extracted from one character. In step S9, the contents of the areas 572 to 574 are compared with the standard feature information 51a of the ROM 5. If a matching match is obtained in step S10, the corresponding character code is extracted from the ROM 5 in step S11 and stored in the code buffer 575.
If no match is obtained in step S10, the reject code is stored in the code buffer 575 in step S12.

尚、実施例のマーク・文字認識装置は、例えば第8図
に示すようなマークシートに記入されたマーク及び手書
文字を読み取る。該マークシートの第1列目には幅広の
タイミングマークが印刷されており、装置はタイミング
マークを読み取ることにより手書マーク又は手書文字の
読取タイミングを決定する。また第1行目にはキーワー
ドマークが印刷されている。第2行目からはデータ欄が
続き、ここにはデータマークを記入する。そして手書文
字は下欄の2行に記入される。手書文字は必ずしもプレ
プリントしたセグメント内に正確に記入する必要はない
が、こううすることで記入が容易になり認識確度も高
い。上記マークシートは電子フアイルシステムのキーワ
ードの登録、フアクシミリの電話番号入力、複写機など
の画像形成装置のコピー枚数、縮率などのモード設定用
に使うことが考えられる。
The mark / character recognition apparatus of the embodiment reads a mark and a handwritten character written on a mark sheet as shown in FIG. 8, for example. A wide timing mark is printed in the first column of the mark sheet, and the apparatus determines the reading timing of the handwritten mark or the handwritten character by reading the timing mark. A keyword mark is printed on the first line. From the second line, a data field follows, where a data mark is entered. The handwritten letters are entered in the lower two lines. Handwritten characters do not necessarily need to be accurately entered in the preprinted segment, but doing so facilitates entry and increases recognition accuracy. The mark sheet may be used for registering a keyword of an electronic file system, inputting a facsimile telephone number, setting the number of copies of an image forming apparatus such as a copying machine, and setting a mode such as a reduction ratio.

[発明の効果] 以上述べた如く本発明によれば、特徴照合処理で照合
される特徴情報量が少ないため処理時間が大幅に短縮さ
れる。しかも各特徴情報量は簡単な処理で求められる。
[Effects of the Invention] As described above, according to the present invention, since the amount of feature information collated in the feature collation processing is small, the processing time is significantly reduced. Moreover, each feature information amount can be obtained by simple processing.

また所定領域についてカウントした黒画素数の最大値
をもつてストローク長を代表させる構成はその領域内の
ゴミ、ピーク、ボイドの影響を軽減する。
Also, the configuration in which the stroke length is represented by the maximum value of the number of black pixels counted for a predetermined area reduces the influence of dust, peaks, and voids in that area.

またストローク数及びストロークが検索された最初の
小領域の位置で特徴量を特定するので、パターンの揺ら
ぎに強い文字認識が可能となる。
In addition, since the feature amount is specified by the number of strokes and the position of the first small area where the stroke is searched, character recognition that is resistant to pattern fluctuations can be performed.

以上によつて文字認識の確度が向上する。 As described above, the accuracy of character recognition is improved.

【図面の簡単な説明】[Brief description of the drawings]

第1図は実施例のマーク・文字認識装置(OMR)のブロ
ツク構成図、 第2図は第1図の構成を備えるマーク・文字認識装置の
外観図、 第3図は実施例の文字認識処理手順のフローチヤート、 第4図は文字パターンのビツトサイズを示す図、 第5図(a)〜(c)は文字パターンのストローク長の
検出を説明する図、 第6図(a),(b)は文字の縦ストロークの数及びス
トローク位置の検出を説明する図、 第7図は実施例装置の認識対象であるアルフアベツト及
び数字の文字形態を示す図、 第8図はマークシートの一例を示す図、 第9図は従来の文字認識処理の一例を示すフローチヤー
トである。 図中、1……リーダ、2……光デイスク、3……ホスト
コンピユータ、4……キーボード、5……CRT表示装
置、6……プリンタ、7……オートフイーダである。
FIG. 1 is a block diagram of a mark / character recognition device (OMR) of an embodiment, FIG. 2 is an external view of a mark / character recognition device having the configuration of FIG. 1, and FIG. 3 is a character recognition process of the embodiment. FIG. 4 is a diagram showing the bit size of the character pattern, FIGS. 5 (a) to 5 (c) are diagrams for explaining the detection of the stroke length of the character pattern, FIGS. 6 (a) and 6 (b) FIG. 7 is a diagram for explaining the detection of the number of vertical strokes and the stroke position of a character. FIG. 7 is a diagram showing a character form of alphabets and numerals to be recognized by the embodiment device. FIG. FIG. 9 is a flowchart showing an example of a conventional character recognition process. In the figure, 1 is a reader, 2 is an optical disk, 3 is a host computer, 4 is a keyboard, 5 is a CRT display device, 6 is a printer, 7 is an auto feeder.

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】文字の画像情報を入力し、 前記入力した画像情報を所定の領域に分割し、 前記分割された各領域毎に、各ライン上に現れる黒画素
の個数を計数して、該各領域内における各ライン毎の黒
画素の個数の最大値を求め、 前記分割された各領域を更に小領域に分割し、前記各領
域内のストロークを、当該領域内の全ての小領域を通過
する方向に検索し、 前記領域内において前記ストロークが検索された最初の
小領域の位置及び前記小領域において検索されたストロ
ークの数を求め、 前記各領域内における各ライン毎の黒画素の個数の最大
値及び前記ストロークが検索された前記領域における最
初の小領域の位置及び当該小領域におけるストロークの
数を、予め記憶してある標準特徴情報と比較することに
より、前記入力した画像情報の文字を認識することを特
徴とする画像処理方法。
1. Image information of a character is input, the input image information is divided into predetermined regions, and the number of black pixels appearing on each line is counted for each of the divided regions. Obtain the maximum value of the number of black pixels for each line in each area, further divide each of the divided areas into small areas, and pass the strokes in each area through all the small areas in the area. The position of the first small area in which the stroke is searched in the area and the number of strokes searched in the small area are obtained, and the number of black pixels for each line in each area is calculated. By comparing the maximum value and the position of the first small area in the area in which the stroke was searched and the number of strokes in the small area with standard feature information stored in advance, the input image information is obtained. Image processing method and recognizes the characters.
JP61123725A 1986-05-30 1986-05-30 Image processing method Expired - Fee Related JP2578767B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61123725A JP2578767B2 (en) 1986-05-30 1986-05-30 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61123725A JP2578767B2 (en) 1986-05-30 1986-05-30 Image processing method

Publications (2)

Publication Number Publication Date
JPS62281096A JPS62281096A (en) 1987-12-05
JP2578767B2 true JP2578767B2 (en) 1997-02-05

Family

ID=14867817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61123725A Expired - Fee Related JP2578767B2 (en) 1986-05-30 1986-05-30 Image processing method

Country Status (1)

Country Link
JP (1) JP2578767B2 (en)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55129872A (en) * 1979-03-28 1980-10-08 Nec Corp Discrimination circuit for feature of character
JPS55140975A (en) * 1979-04-20 1980-11-04 Nec Corp Character recognizing system
JPS5745682A (en) * 1980-08-29 1982-03-15 Matsushita Graphic Commun Syst Inc Character recognition system
JPS57153387A (en) * 1981-03-19 1982-09-21 Ricoh Co Ltd Character recognizing method
JPS58165178A (en) * 1982-03-24 1983-09-30 Toshiba Corp Character reader
JPS58201184A (en) * 1982-05-20 1983-11-22 インタ−ナショナル ビジネス マシ−ンズ コ−ポレ−ション Hand-written character recognition equipment
JPS59100990A (en) * 1982-12-02 1984-06-11 Ricoh Co Ltd Pattern recognizing device
JPS59177686A (en) * 1983-03-28 1984-10-08 Omron Tateisi Electronics Co Character recognizing device
JPS60140488A (en) * 1983-12-28 1985-07-25 Ricoh Co Ltd Character feature extraction system
JPS60147891A (en) * 1984-01-12 1985-08-03 Matsushita Electric Ind Co Ltd Character recognition device
JPS60153578A (en) * 1984-01-24 1985-08-13 Matsushita Electric Ind Co Ltd Character recognizing device
JPS6180477A (en) * 1984-09-28 1986-04-24 Matsushita Electric Ind Co Ltd Fair-copying device of document

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55129872A (en) * 1979-03-28 1980-10-08 Nec Corp Discrimination circuit for feature of character
JPS55140975A (en) * 1979-04-20 1980-11-04 Nec Corp Character recognizing system
JPS5745682A (en) * 1980-08-29 1982-03-15 Matsushita Graphic Commun Syst Inc Character recognition system
JPS57153387A (en) * 1981-03-19 1982-09-21 Ricoh Co Ltd Character recognizing method
JPS58165178A (en) * 1982-03-24 1983-09-30 Toshiba Corp Character reader
JPS58201184A (en) * 1982-05-20 1983-11-22 インタ−ナショナル ビジネス マシ−ンズ コ−ポレ−ション Hand-written character recognition equipment
JPS59100990A (en) * 1982-12-02 1984-06-11 Ricoh Co Ltd Pattern recognizing device
JPS59177686A (en) * 1983-03-28 1984-10-08 Omron Tateisi Electronics Co Character recognizing device
JPS60140488A (en) * 1983-12-28 1985-07-25 Ricoh Co Ltd Character feature extraction system
JPS60147891A (en) * 1984-01-12 1985-08-03 Matsushita Electric Ind Co Ltd Character recognition device
JPS60153578A (en) * 1984-01-24 1985-08-13 Matsushita Electric Ind Co Ltd Character recognizing device
JPS6180477A (en) * 1984-09-28 1986-04-24 Matsushita Electric Ind Co Ltd Fair-copying device of document

Also Published As

Publication number Publication date
JPS62281096A (en) 1987-12-05

Similar Documents

Publication Publication Date Title
US6850645B2 (en) Pattern recognizing apparatus
JP4553241B2 (en) Character direction identification device, document processing device, program, and storage medium
JP4280355B2 (en) Character recognition device
JP2730665B2 (en) Character recognition apparatus and method
JPH0564834B2 (en)
Lakshmi et al. An optical character recognition system for printed Telugu text
US11593591B2 (en) Optical character recognition systems and methods
JP2578767B2 (en) Image processing method
JP2578768B2 (en) Image processing method
Ting et al. A syntactic business form classifier
EP0692768A2 (en) Full text storage and retrieval in image at OCR and code speed
KR100241447B1 (en) English writing/number recognition method using outline information
JP2993533B2 (en) Information processing device and character recognition device
JPH0514952B2 (en)
JP3160458B2 (en) Character reading device and character reading method
JP2851102B2 (en) Character extraction method
JPS62281094A (en) Recognition method for pattern information
JPH11134439A (en) Method for recognizing word
JPS62281093A (en) Recognition method for pattern information
JPS62281091A (en) Pattern information recognition method
JP2953162B2 (en) Character recognition device
JP2570311B2 (en) String recognition device
JP2972443B2 (en) Character recognition device
JPH0769938B2 (en) Character reader
JPS62281090A (en) Recognition method for pattern information

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees