JPS61123987A - Character recognizing device - Google Patents

Character recognizing device

Info

Publication number
JPS61123987A
JPS61123987A JP59246769A JP24676984A JPS61123987A JP S61123987 A JPS61123987 A JP S61123987A JP 59246769 A JP59246769 A JP 59246769A JP 24676984 A JP24676984 A JP 24676984A JP S61123987 A JPS61123987 A JP S61123987A
Authority
JP
Japan
Prior art keywords
character
pattern
character pattern
scanning
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP59246769A
Other languages
Japanese (ja)
Inventor
Minoru Nagao
永尾 実
Nobukazu Nasuhara
茄子原 伸和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Tateisi Electronics Co filed Critical Omron Tateisi Electronics Co
Priority to JP59246769A priority Critical patent/JPS61123987A/en
Publication of JPS61123987A publication Critical patent/JPS61123987A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

PURPOSE:To select and specify one character out of plural candidate characters by scanning a character pattern in a prescribed direction from a prescribed position of the pattern and detecting whether or not a scanning point has reached the prescribed part of the character pattern. CONSTITUTION:A character feature extraction circuit 10 extracts features of the character pattern, and houses them in a RAM 12. A collating part squeezes them into a pair of characters corresponding to the inputted character pattern such as 'E' and 'Q'. Then the coordinates of a specified character end point 41, for instance, are inputted from the RAM 12. Information (arrow P) concerning a specified direction is inputted from a dictionary 7, and such a character pattern scanning is carried out as to transfer by one picture element in the specified direction P starting from the endpoint 41. When the reaching point of a scanning point is an observation frame, a character other than 'F' is selected, and when the reaching point is in black and of separated coupling, 'E' is selected out of candidate characters, thereby outputting them to an indicating part. Thanks to this, a character, which cannot be discriminated by a direction or a number of a character stroke can be securely recognized.

Description

【発明の詳細な説明】 〈発明の技術分野〉 この発明は、未知文字の文字パターンの幾何学的特徴を
抽出し、その特徴を辞書部内に格納された標準パターン
と照合することによって。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field of the Invention] The present invention extracts geometric features of character patterns of unknown characters and compares the features with standard patterns stored in a dictionary section.

未知文字を認識する文字認識装置に関する。The present invention relates to a character recognition device that recognizes unknown characters.

〈発明の概要〉 この発明の文字認識装置は、文字パターンをパターン上
の所定位置から所定方向に走査してゆき、走査点が文字
パターンの所定部分に到達したか否かを検出し、それに
よって複数の候補文字内からひとつの文字を選択・特定
するものであり、これにより1文字ストロークの方向や
数などでは判別し得ない文字をも確実に認識できるよう
にした。
<Summary of the Invention> The character recognition device of the present invention scans a character pattern from a predetermined position on the pattern in a predetermined direction, detects whether a scanning point has reached a predetermined portion of the character pattern, and thereby This method selects and specifies one character from among multiple candidate characters, making it possible to reliably recognize characters that cannot be determined based on the direction or number of strokes of a single character.

〈発明の背最〉 一般に文字認識装置では、第11図に示す如く、帳票1
上に表示された文字や記号・図形(以下、これらを総称
して「文字」と呼ぶ。)を読取部2によって光学的に読
み取り、その文字パターンを白黒2値化して画像メモリ
4に格納する。次に、前処理回路3が、画像メモリ4中
のデータを入力して、ノイズ除去、平滑化、細線化等の
いわゆる前処理を行なった後、特徴抽出回路5が前処理
が行なわれた文字パターンから、当該パターンの幾何学
的特徴を抽出する。
<Background of the invention> Generally, in a character recognition device, as shown in FIG.
The characters, symbols, and figures displayed above (hereinafter collectively referred to as "characters") are optically read by the reading unit 2, and the character pattern is converted into black and white and stored in the image memory 4. . Next, the preprocessing circuit 3 inputs the data in the image memory 4 and performs so-called preprocessing such as noise removal, smoothing, and thinning, and then the feature extraction circuit 5 inputs the preprocessed characters. Geometric features of the pattern are extracted from the pattern.

辞書照合回路6は、上記特徴抽出回路5によって抽出さ
れた特徴と、辞書7中にあらかじめ記憶されている各文
字の標準パターンとを照合して、読取られた文字パター
ンに対応すると考えられる何個かの文字(「候補文字」
)を拾い出した後、文字の特徴に舅するざら、に詳細な
情報を用いて、候補文字の中からひとつの文字を特定し
、当該文字を結果出力として表示部゛(図示せず)等に
与えるようになっている。
The dictionary matching circuit 6 matches the features extracted by the feature extraction circuit 5 with the standard patterns of each character stored in advance in the dictionary 7, and determines how many characters are considered to correspond to the read character pattern. character (“candidate character”)
), one character is identified from among the candidate characters using detailed information on character characteristics, and the character is output as a result on a display unit (not shown), etc. It is designed to be given to

このうち、辞書照合回路6では、特徴抽出回路5によっ
て抽出された文字の特徴、たとえばループ、交点1分岐
、端点などのデータを用いて、入力された文字パターン
に対応する複数の候補文字に絞り1次に、文字ストロー
ク情報などを用いて、このうちのひとつを選択・特定す
る。たとえば、第12図(A)に示すような文字パター
ンが、カナ文字認識モードで入力されると、第12図(
B)に示すように、この文字パターンの文字特徴は、連
結成分数が6、交点(図中Cで示す。)が1、文字端点
(図中白丸で示す。)が6などであり、その結果、これ
らの情報からカタカナの「オ」と「チ」とが、候補文字
となる。ところが、つぎに文字ストローク情報を用いて
これらの候補文字中のひとつを特定しようとしても、第
13図に示すごとく、2つの候補文字「オ」、「チ」の
いずれもが同一のストローク情報を有しているため、特
定は不可能となってしまう。このため、従来では、ざら
に別の文字特徴データを用いてこれらの候補文字からひ
とつの文字を特定するという方法が採用されており、処
理が複雑になるという欠点があった。
Of these, the dictionary matching circuit 6 narrows down the list to a plurality of candidate characters corresponding to the input character pattern, using data on the character features extracted by the feature extraction circuit 5, such as loops, one branch at an intersection, and end points. First, one of them is selected and specified using character stroke information and the like. For example, when a character pattern as shown in FIG. 12(A) is input in the kana character recognition mode, the character pattern shown in FIG.
As shown in B), the character features of this character pattern include 6 connected components, 1 intersection (indicated by C in the figure), and 6 character endpoints (indicated by white circles in the figure). As a result, katakana characters "o" and "chi" are candidate characters based on this information. However, when we try to identify one of these candidate characters using the character stroke information, as shown in Figure 13, the two candidate characters "o" and "chi" both have the same stroke information. Therefore, identification becomes impossible. For this reason, in the past, a method has been adopted in which one character is specified from these candidate characters using roughly different character feature data, which has the disadvantage of complicating the process.

〈発明の目的〉 この発明は、上述の欠点を解消するためのもので、文字
ストローク情報のみでは候補文字中のひとつの文字を特
定できないような場合においても、比較的容易かつ正確
に文字認識を行なうことのできる文字認識装置を提供す
ることを目的とする。
<Objective of the Invention> The present invention is intended to solve the above-mentioned drawbacks, and to provide a method for relatively easily and accurately character recognition even in cases where one character among candidate characters cannot be identified using only character stroke information. The object of the present invention is to provide a character recognition device that can perform the following functions.

〈発明の構成および効果〉 上述の目的を達成するため、この発明の文字認識装置は
、複数の候補文字が特定された際に、これら候補文字の
組に応じて文字パターン上の所定位置情報と所定走査方
向情報を辞書部から読出す読出し手段と1、続出し情報
に基づき文字パターン上の所定位置から所定走査方向に
向かって文字パターンを走査する走査手段と、走査点が
文字パターンの所定部分に到達したか否かを検出して文
字パターンに対応する文字を複数の候補文字中から選択
して特定する手段とを設けることにした。
<Structure and Effects of the Invention> In order to achieve the above-mentioned object, the character recognition device of the present invention, when a plurality of candidate characters are specified, determines predetermined position information on a character pattern according to a set of these candidate characters. reading means for reading out predetermined scanning direction information from the dictionary section; scanning means for scanning the character pattern from a predetermined position on the character pattern in a predetermined scanning direction based on the succession information; It has been decided to provide means for detecting whether or not the character pattern has been reached and selecting and specifying a character corresponding to the character pattern from among a plurality of candidate characters.

この発明によれば、ループ、交点、分岐点等の文字特徴
や文字ストローク情報では候補文字中のひとつの文字を
特定できないような場合においても、比較的容易かつ正
確に文字の特定が可能であり、文字認識精度を向上本番
シ得るなどの効果を奏する。
According to this invention, even in cases where a single character among candidate characters cannot be identified using character features such as loops, intersections, and branch points or character stroke information, it is possible to identify the character relatively easily and accurately. This has the effect of improving character recognition accuracy and improving performance.

〈実施例の説明〉 この発明の一実施例である文字認識装置の要部を第2図
に示す。同図において、前処理回路3、画(象メモリ4
および辞書7は、第11図に示したものと同様の構成と
機能とを有する。ラベリング回路8は、読取られた文字
パターンに対して後述するラベル化を行なうことによっ
て、ストローク抽出回路9および文字特徴点抽出回路1
0の動作を補助する。ストローク抽出回路9は、文字パ
ターンからストロークを抽出するためのものであり、他
方、文字特徴点抽出回路10は、文字パターンの種々の
特徴点を抽出するためのものである。CP U (Ce
ntralProcessing Unit ) 11
は、この装置の各部の制御を行なうものであり、後述す
るフローに応じた動作もまたこのCPUIIを中心に行
なわれる。RA M (Rondem Access 
Memory ) 12は、CPU11のプログラムや
ワーク用の諸データを格納するメモリである。残余の構
成は、第11図に示した装置とほぼ同様である。
<Description of Embodiments> FIG. 2 shows the main parts of a character recognition device which is an embodiment of the present invention. In the figure, a preprocessing circuit 3, an image (image memory 4)
The dictionary 7 has a configuration and function similar to that shown in FIG. The labeling circuit 8 labels the read character patterns to be described later, thereby forming the stroke extraction circuit 9 and the character feature point extraction circuit 1.
Assists the movement of 0. The stroke extraction circuit 9 is for extracting strokes from character patterns, while the character feature point extraction circuit 10 is for extracting various feature points of character patterns. CPU (Ce
ntralProcessing Unit) 11
The CPU II controls each part of this device, and operations according to the flow described later are also performed mainly by the CPU II. RAM (Rondem Access
Memory 12 is a memory that stores programs for the CPU 11 and various data for work. The rest of the configuration is almost the same as the device shown in FIG.

次に、上記構成の装置動作を説明する。ここでは、入力
された文字パターンとして第12図(A)に示すパター
ンを想定することとする。まず、光学的に読取られた文
字パターンは画像メモリ4に格納され、つぎにその文字
パターンのデータが、前処理回路3においてノイズ除去
、平滑化等の前処理を受ける。次に、ラベリング回路8
によって、文字パターンを構成する画素のラベル化が実
施される。このラベル化は、第3図に示すように、文字
パターンの黒地部分(文字部分)を形成する画素のうち
、白地部分との境界に位置する画素を対象として行なわ
れるもので1図では白地との隣接辺に弓形のマークを付
している。たとえば、第3図の画素21においては、そ
の上側で白地部分に隣接しているため、上辺に弓形のマ
ークか施されている。以下、これらの弓形マークが画素
の上下左右のいずれの辺に付されているかに応じて、そ
れぞれ(u)、(d)、(1)、(r)の記号で、これ
らのラベルを区別して呼ぶ。したがって、たとえば画素
21は、上辺に弓形マークが存在するから、ラベル(u
)が付され、また、画素22は上辺および右辺に弓形の
マークが存在するからラベル(u、r)が付される。こ
うして、第3図の画素にラベル化を行なうとともに、各
画素の(x、y)座標とそのラベルとを、第4図に示す
ように、 RAM12内のNC0T  と呼ぶ鎖環に格
納しておく。
Next, the operation of the apparatus having the above configuration will be explained. Here, the pattern shown in FIG. 12(A) is assumed as the input character pattern. First, the optically read character pattern is stored in the image memory 4, and then the data of the character pattern is subjected to preprocessing such as noise removal and smoothing in the preprocessing circuit 3. Next, labeling circuit 8
The pixels constituting the character pattern are labeled by this method. As shown in Figure 3, this labeling is performed on pixels that form the black background part (character part) of the character pattern and are located at the border with the white background part. A bow-shaped mark is attached to the adjacent side. For example, since the pixel 21 in FIG. 3 is adjacent to a white background on its upper side, an arcuate mark is placed on its upper side. Hereinafter, these labels will be distinguished using the symbols (u), (d), (1), and (r), depending on whether these bow-shaped marks are attached to the top, bottom, left, or right side of the pixel. call. Therefore, for example, pixel 21 has a bow mark on its upper side, so the label (u
), and the pixel 22 is labeled (u, r) because there are arcuate marks on the top and right sides. In this way, the pixels in Figure 3 are labeled, and the (x, y) coordinates of each pixel and its label are stored in a chain called NC0T in the RAM 12, as shown in Figure 4. .

この格納に際しては、まず、第3図中に矢印20で示し
た方向へと走査を行ない、最初に到達した(u、r)ラ
ベルの画素から、文字パターンを左まわりに追跡する。
In this storage, first, scanning is performed in the direction shown by the arrow 20 in FIG. 3, and the character pattern is traced counterclockwise from the pixel of the label (u, r) that is reached first.

ここで、左まわりの追跡とは、第5図に示すように、そ
の時点におけ゛る追跡点が位置する画素のラベル(第5
図中。
Here, counterclockwise tracking refers to the label of the pixel where the tracking point is located at that point (5th
In the figure.

斜線を施した弓形マーク)Al〜D1に着目し。Focus on Al~D1 (shaded arcuate mark).

ラベルA1の場合には、そのラベルに隣接するラベル中
に、A2−A4の方向と位置とを有するラベルが存在す
るか否かを、この人2〜A4の順序に従って順次検出し
、存在する場合には、検出されたラベルの座標位置へと
追跡点を移すことを言う。たとえば、第3図の画素23
のラベル中、下辺にかかるA1のラベルに着目すれば、
このラベルにはA2のタイプのラベルは隣接しておらず
、A3のタイプのラベルが右側に隣接しているため、こ
のラベルA3の画素24へ追跡点を移すのである。第5
図(B)〜(D)も同様であって、82〜B4、C2〜
C4、D2  ’〜D4のそれぞれの順序で、ラベルの
検出と追跡とを行なう。
In the case of label A1, whether or not a label having the direction and position A2-A4 exists among the labels adjacent to the label is sequentially detected in the order of this person 2 to A4, and if it exists, refers to moving the tracking point to the coordinate position of the detected label. For example, pixel 23 in FIG.
If you pay attention to the A1 label on the bottom side of the label,
Since this label is not adjacent to the A2 type label and is adjacent to the A3 type label on the right side, the tracking point is moved to the pixel 24 of this label A3. Fifth
The same applies to figures (B) to (D), 82 to B4, C2 to
Label detection and tracking are performed in each order of C4, D2' to D4.

この追跡によって、文字パターンの外周境界に位置する
画素が順次検出されると、その順序に従って、位置座標
とラベルの種類とが、第4図に示すメモリ領域NC0T
上に格納されることになる。一方、追跡点は、文字パタ
ーンのひとつの連結部分のまわりをまわると、元の追跡
出発点へと戻って閉ループを形成するもので、この追跡
点が追跡出発点へ戻った場合には、第4図中に「ストッ
パ」と表示された指標を与えておく。その後、次の連結
部分についての追跡を行ない、同様の処理を繰返す。し
たがって、第4図中の「ストッパ」の数は、当該文字パ
ターンの連結数と一致し、ひとつのストッパと他のスト
ッパとの間に格納されたデータは、同一の連絡部分に関
するデータを意味することになる。
Through this tracking, when pixels located at the outer boundary of the character pattern are sequentially detected, the position coordinates and label type are stored in the memory area NC0T shown in FIG.
It will be stored above. On the other hand, when a tracking point goes around one connected part of a character pattern, it returns to the original tracking starting point, forming a closed loop. 4. Provide an index labeled "stopper" in Figure 4. Thereafter, the next connected portion is tracked and the same process is repeated. Therefore, the number of "stoppers" in Figure 4 matches the number of connections in the character pattern, and data stored between one stopper and another means data regarding the same connecting part. It turns out.

このようにして、ラベル化とデータ格納とを終えると、
次に、第2図のストローク抽出回路9は、第6図に示す
ような8方向の連続性を、第3図のパターンにおいて追
跡することにより、第7図のような近似的な文字ストロ
ークによるパターンを抽出する。そして、第7図のパタ
ーンと第3−図のラベル化文字パターンとを用いて、文
字特徴点抽出回路10が、文字パターンの幾何学的特徴
を抽出する。この特徴の中には1文字パターンを形成す
る各ストロークの端点(第7図の白丸)に対応する画素
の座標も含まれており、この端点データは第8図に示す
RAM12内のCHT M 鎖酸に格納される。
After labeling and data storage are completed in this way,
Next, the stroke extraction circuit 9 of FIG. 2 traces the continuity in eight directions as shown in FIG. 6 in the pattern of FIG. 3, and generates an approximate character stroke as shown in FIG. Extract patterns. Then, using the pattern in FIG. 7 and the labeled character pattern in FIG. 3, the character feature point extraction circuit 10 extracts the geometric features of the character pattern. This feature also includes the coordinates of pixels corresponding to the end points (white circles in Figure 7) of each stroke forming one character pattern, and this end point data is stored in the CHT M chain in the RAM 12 shown in Figure 8. Stored in acid.

次に、第11図の辞書照合回路6に相当する照合部(図
示せず)によって、これらの特徴点に関するデータと、
辞書7にあらかじめ格納されている標準パターンとを照
合し、第12図^の入力文字パターンに対応する候補文
字として、「オ」と「チ」とからなる文字の組に絞り込
む。
Next, a collation unit (not shown) corresponding to the dictionary collation circuit 6 in FIG. 11 compares data regarding these feature points and
The candidate characters are compared with standard patterns previously stored in the dictionary 7, and the candidate characters corresponding to the input character pattern shown in FIG. 12 are narrowed down to a character set consisting of "o" and "chi".

そして、第7図の文字ストロークを、第13図に示した
候補文字の文字ストローク情報と照合するが、この場合
、前述したように、この文字ストローク情報のみでは、
「オ」と「チ」のいずれであるかを判別できず、以下第
1図のフローチャートの処理を実行することによって特
定を行なうことになる。
Then, the character stroke in Figure 7 is compared with the character stroke information of the candidate character shown in Figure 13, but in this case, as mentioned above, this character stroke information alone cannot
It is not possible to determine whether it is "o" or "chi", and the identification will be made by executing the process shown in the flowchart of FIG. 1 below.

まずステップ31において、「オ」と「チ」とから成る
文字の組に対応して、文字パターン上の所定位置の座標
をロードする。この位置は、辞書7に情報設定されてお
り、たとえば、第7図に示すように、右上がりのストロ
ークの上部端点41を用いることができる(以下これを
[指定文字端点」と呼ぶ)。そしてこのステップ31に
よって、具体的には、第8図のCHT〜■領域内に存在
する該当端点の座11(7,12)がロードされること
になる。次のステップ32では走査方向を指定する情報
(以下、この方向を「指定方向」と呼ぶ。)を、同様に
辞書7からロードする。図示例の場合、この指定方向は
First, in step 31, the coordinates of a predetermined position on the character pattern are loaded, corresponding to the character set consisting of "o" and "chi". Information on this position is set in the dictionary 7, and for example, as shown in FIG. 7, the upper end point 41 of the upward-sloping stroke can be used (hereinafter referred to as the "designated character end point"). Specifically, by this step 31, the locus 11 (7, 12) of the corresponding end point existing in the area CHT to (2) in FIG. 8 is loaded. In the next step 32, information specifying the scanning direction (hereinafter referred to as "designated direction") is similarly loaded from the dictionary 7. In the illustrated example, this specified direction is.

第7図中点線矢印Pで示す方向である。次にステップ3
3では、上記指定文字端点を出発点とし、かつ上記指定
方向を走査方向とするような、文字パターンにおける走
査を行なう。この走斤は、1画素分だけの走僅点を移動
することによって行なわれる。上記例では走査点がまず
第3図の端点(7,12)から(8,12)へと移る。
This is the direction indicated by the dotted line arrow P in FIG. Next step 3
In step 3, the character pattern is scanned with the designated character end point as the starting point and the designated direction as the scanning direction. This scanning is performed by moving the scanning point by one pixel. In the above example, the scanning point first moves from the end point (7, 12) to (8, 12) in FIG.

ステップ34では、到達した走査点の座標の+mi素が
黒地(文字部分)であるかどうかが判断される。上記の
座標(8,12)の場合、その画素は黒地でないから、
ステップ35に移り。
In step 34, it is determined whether the +mi element of the coordinates of the scan point reached is a black background (character portion). In the case of the above coordinates (8, 12), that pixel is not a black background, so
Move on to step 35.

次にその走査点が第3図中の観測枠Fに至ったかどうか
が判断される。そして観測枠rに至つたときには1文字
パターンの他の文字部分に到達することなく観測枠Fに
至ったことを意味するが、もし「オ」の場合には連結部
分25に到達するはずであるから、この文字パターンは
第12図(B)に示すような「オ」の文字ではないこと
が判明したことになり、エラーリターンとしてメインル
ーチンないしは池の処理へと移る。
Next, it is determined whether the scanning point has reached observation frame F in FIG. When it reaches observation frame r, it means that it has reached observation frame F without reaching any other character part of the one-character pattern, but if it is "o", it should reach connected part 25. Therefore, it is determined that this character pattern is not the character "O" as shown in FIG. 12(B), and the process moves to the main routine or the other process as an error return.

ステップ35で観測枠Fではないと判断されると、ステ
ップ33へ戻って、走査を続行する。
If it is determined in step 35 that the observation frame is not F, the process returns to step 33 to continue scanning.

ステップ34で黒地と判断された場合には、ステップ3
6へと移り、当該黒地部分が、指定文字端点の属する連
結部分とは別の連結部分に属しているか否かが判断され
る。これは、第4図の座標格納パターンが直結部分ごと
に配列した構成となっていることから、この格納データ
を参照することによって容易に判別できる。別連皓でな
い場合は、同一連結部分に到達したことを意味するが、
この場合はステップ33へ戻り、ざらに走氏を続ける。
If it is determined that the background is black in step 34, step 3
6, it is determined whether the black background part belongs to a connected part different from the connected part to which the designated character endpoint belongs. This can be easily determined by referring to the stored data since the coordinate storage pattern shown in FIG. 4 is arranged for each directly connected portion. If it is not a separate connection, it means that the same connection has been reached, but
In this case, the process returns to step 33 and the rough running continues.

ステップ36で別連結であると同断ざfすると、この文
字パターンは「オ」であることがわかる(「チJではこ
のような結果は生じない)ため、候補文字の中から「オ
」を選択して特定し、この文字を表示部等に出力して処
理を完了する。
In step 36, if the character pattern is different concatenation and the same cut f is performed, it turns out that this character pattern is "o" (such a result does not occur in "chi J"), so "o" is selected from the candidate characters. This character is output to a display unit, etc., and the process is completed.

このような判断は、他の文字の組たとえば第9図および
第10図にそれぞれ示すような、「ス」と「マ」、「う
」と「ヲ」の判別などについても可能であり、これらの
場合には、指定文字端点として端点42.43および4
4 、45を、また、指定方向としては、点線矢印Q、
Rで示す方向をそれぞれ採用すればよい。
This kind of judgment is also possible for other character sets, such as distinguishing between "su" and "ma", "u" and "wo", as shown in Figures 9 and 10, respectively. In this case, the endpoints 42, 43 and 4 are used as the specified character endpoints.
4, 45, and the dotted arrow Q,
The directions indicated by R may be adopted.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の実施例における処理の要部を示すフ
ローチャート、第2図はこの発明の実施例である文字認
識装置の要部を示すブo ’7り図、第3図はラベル化
された文字パターンを示す図、第4図はラベル化データ
の格納例を示す図、第5図は左まわり追跡を説明するた
めの図、第6図は方向性を有する近似ストロークを説明
するための図、第7図は文字ストロークと走査方向とを
示す図、第8図は端点座標の格納例を示す図、第9図お
よび第10図は走査方向を示す図、第11図は文字認識
装置の一般的構成を示すブロック図、第12図は入力文
字パターンおよびその文字ストロークを示す図、第13
図は候補文字の文字ストローク情報を示す図である。 4・・・m@メモリ    5・・・特徴抽出回路6・
・・辞書照合回路   7・・・辞書8・・・ラベリン
グ回路  9・・・ストローク抽出回路10・・・文字
特徴点抽出回路 11・・・CPU      12・・・λAM′特許
出願人  立石電機株式会社 ÷Yノ刀δ  突軸すにあ・r7るQx里のキ麿3&示
ずフローチャート升//  Kワ?J   」ヒ#ド噛
11シ」−1コr九・−匈ハう1ト運1に(イ列をA1
ずiシ噌亀t、イΩ
Fig. 1 is a flowchart showing the main parts of the processing in the embodiment of this invention, Fig. 2 is a block diagram showing the main parts of the character recognition device which is the embodiment of the invention, and Fig. 3 is the labeling. Figure 4 is a diagram showing an example of storing labeled data, Figure 5 is a diagram to explain counterclockwise tracking, and Figure 6 is a diagram to explain approximate strokes with directionality. , Figure 7 is a diagram showing character strokes and scanning directions, Figure 8 is a diagram showing an example of storing end point coordinates, Figures 9 and 10 are diagrams showing scanning directions, and Figure 11 is a diagram showing character recognition. FIG. 12 is a block diagram showing the general configuration of the device; FIG. 12 is a diagram showing input character patterns and their character strokes; FIG.
The figure is a diagram showing character stroke information of candidate characters. 4...m@memory 5...Feature extraction circuit 6.
...Dictionary matching circuit 7...Dictionary 8...Labeling circuit 9...Stroke extraction circuit 10...Character feature point extraction circuit 11...CPU 12...λAM' Patent applicant Tateishi Electric Co., Ltd. ÷Y no Katana δ Tsukujiku Sunia・r7ruQxri no Kimaro 3&Shizu flowchart masu//K Wa? J ``hi #do bite 11shi'' - 1 cor 9 - 匈ha 1 to luck 1 (A1 column
Zui Shimisokamet, IΩ

Claims (1)

【特許請求の範囲】 未知文字の文字パターンを読み取り、前記パターンを白
黒2値化して入力画像を求め、特徴抽出部によつて前記
入力画像の幾何学的特徴を抽出した後、照合部によつて
前記特徴抽出部の出力を辞書部に格納された標準パター
ンと照合して前記未知文字を認識する文字認識装置であ
つて、 前記照合部で複数の候補文字が絞られた際、これら候補
文字の組に応じて文字パターンの所定位置情報と所定走
査方向情報とを前記辞書部から読み出す手段と、 読出し情報に基づき文字パターン上の前記所定位置から
所定走査方向に向かつて文字パターンを走査する手段と
、 走査点が文字パターンの所定部分に到達したか否かを検
出して文字パターンに対応する文字を前記複数の候補文
字中から選択して特定する手段とを具備して成る文字認
識装置。
[Claims] A character pattern of an unknown character is read, the pattern is converted into black and white to obtain an input image, and after a feature extraction section extracts the geometric features of the input image, a matching section The character recognition device recognizes the unknown character by comparing the output of the feature extracting unit with a standard pattern stored in a dictionary unit, and when the matching unit narrows down a plurality of candidate characters, means for reading out predetermined position information and predetermined scanning direction information of a character pattern from the dictionary section according to the set of characters; and means for scanning the character pattern from the predetermined position on the character pattern in a predetermined scanning direction based on the readout information. A character recognition device comprising: means for detecting whether a scanning point has reached a predetermined portion of a character pattern and selecting and specifying a character corresponding to the character pattern from among the plurality of candidate characters.
JP59246769A 1984-11-20 1984-11-20 Character recognizing device Pending JPS61123987A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59246769A JPS61123987A (en) 1984-11-20 1984-11-20 Character recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59246769A JPS61123987A (en) 1984-11-20 1984-11-20 Character recognizing device

Publications (1)

Publication Number Publication Date
JPS61123987A true JPS61123987A (en) 1986-06-11

Family

ID=17153389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59246769A Pending JPS61123987A (en) 1984-11-20 1984-11-20 Character recognizing device

Country Status (1)

Country Link
JP (1) JPS61123987A (en)

Similar Documents

Publication Publication Date Title
JPH07234915A (en) Image recognizing device
JPH08305796A (en) Pattern extracting device, table preparing device for pattern recognition and pattern recognition device
US5832102A (en) Apparatus for extracting fingerprint features
US4769849A (en) Method and apparatus for separating overlapping patterns
JPS61123987A (en) Character recognizing device
JP3586949B2 (en) Form recognition device
CN110097065B (en) Freeman chain code-based line detection method and terminal
JPS61121184A (en) Character recognizer
JPH0877293A (en) Character recognition device and generating method for dictionary for character recognition
JPS6125284A (en) Character recognizing device
JPS60168283A (en) Character recognition device
JP2674475B2 (en) Character reader
JP2925270B2 (en) Character reader
JP2870640B2 (en) Figure recognition method
JPH0353392A (en) Character recognizing device
KR900005141B1 (en) Handwritter character recognizing device
JPS61182182A (en) Character recognizing device
JP2727755B2 (en) Character string recognition method and apparatus
JPH04112276A (en) Binary picture contour line chain encoding device
JPH08171609A (en) High-speed character string extracting device
JPS6046753B2 (en) Pattern feature extraction method
JPH0256709B2 (en)
JPH04216171A (en) Method for extracting contour vector
JPH08263591A (en) Device and method for character recognition
JPH0350691A (en) Character recognizing device