JPS60126782A - Character recognizing device - Google Patents

Character recognizing device

Info

Publication number
JPS60126782A
JPS60126782A JP58234665A JP23466583A JPS60126782A JP S60126782 A JPS60126782 A JP S60126782A JP 58234665 A JP58234665 A JP 58234665A JP 23466583 A JP23466583 A JP 23466583A JP S60126782 A JPS60126782 A JP S60126782A
Authority
JP
Japan
Prior art keywords
stroke
section
feature
strokes
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP58234665A
Other languages
Japanese (ja)
Inventor
Masahiro Nakamura
昌弘 中村
Michiyoshi Tachikawa
道義 立川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP58234665A priority Critical patent/JPS60126782A/en
Publication of JPS60126782A publication Critical patent/JPS60126782A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

PURPOSE:To decrease the storage capacity of a dictionary and also to improve the recognizing rate and recognizing speed by extracting stably the feature of a stroke at a stroke detecting section to decrease kinds of features derivated from one character. CONSTITUTION:A picture data read from an original 10 is binary-coded by a photoelectric converting section 20 and a pre-processing section 30 applies processing such as character segmenting and normalization from a coded picture data. Moreover, a feature extracting section 40 detects a feature amount from a character pattern, a retrieval section 50 compares the extracted feature amount with the feature amount of a known character stored in a dictionary storage section 60 in advance, and the result of comparison is outputted to an output section 70. A character pattern from the pre-processing section 30 is added to a stroke feature extracting block 42 and an entire feature extracting section 41 of the extracting section 40. Then a direction coding section 43 of the block 42 codes the character pattern by directions, the result is processed by the post expanding section 44 and stroke feature extracting section 47 and the feature of the stroke is extracted stably by using the feature from the extracting section 41.

Description

【発明の詳細な説明】 技術分野 この発F3Aは文字認識装置、特に文字の認J’にその
ストロークの特徴に基づいて行なうものに関するe 従来技術 この撞の文字認識装置は、光学的に読取った多値画像を
2値化し、この2値化されたコード情報に基づいてスト
ロークの特徴を方向別に抽出し、さらにこの抽出された
ストローク情報から各方向ごとの特徴量をめ、この%微
量に基づいて認識を行なうように構成されて−る。この
場合、抽出されたストロークのうち、連結するストロー
クは分離して抽出されるようになって−る。
DETAILED DESCRIPTION OF THE INVENTION Technical Field This invention relates to character recognition devices, particularly those that recognize characters based on the characteristics of their strokes. Binarize the multivalued image, extract stroke features for each direction based on this binarized code information, calculate the feature amount for each direction from this extracted stroke information, and calculate the feature amount for each direction based on this % trace amount. The system is configured to perform recognition based on the following information. In this case, among the extracted strokes, connected strokes are extracted separately.

ところで、従来のこの種の文字認識装置では、例えば第
1図の(a)とΦ)および第2図の(a)と(b)にそ
れぞれストローク抽出前とストローク抽出後のコードパ
ターン全対比して示すように、互いに極めて類似したパ
ターンであっても、それぞれのストローク数が異なって
抽出されてしまうことが多かった。第1図および第2図
において、(a)はストロ−pm出前のコードパターン
を、Φハエストローク抽出されたコードパターンをそれ
ぞれ示す。このため、上記特徴量が安定せず、同一の文
字に対して種々の特徴が派生し、このことが認識に必要
な−辞書の記憶容量を増大させ、また認識率および認識
速度の低下を招く犬ぎた原因となっていた。
By the way, in conventional character recognition devices of this type, for example, all code patterns are compared before and after stroke extraction in (a) and Φ) in Figure 1 and (a) and (b) in Figure 2, respectively. As shown in Figure 2, even if the patterns were very similar to each other, the number of strokes was often extracted differently. In FIGS. 1 and 2, (a) shows the code pattern of the straw pm delivery and the code pattern extracted from the Φ fly stroke, respectively. For this reason, the above feature values are not stable and various features are derived for the same character, which increases the storage capacity of the dictionary required for recognition and causes a decrease in recognition rate and recognition speed. This caused the dog to get angry.

目的 この発明は以上のような問題′(i′解決するものであ
って、ストロークの特徴を安定して抽出することができ
、これにより同一文字から派生する特徴の種類を少なく
して、辞書の記憶容量を少なくすることができるととも
に、認識率および認識速度などを向上させることができ
るよ5[L、た文字認識装置を提供することにある。
Purpose This invention solves the above-mentioned problem. It is possible to stably extract stroke features, thereby reducing the number of features derived from the same character and improving the dictionary. An object of the present invention is to provide a character recognition device capable of reducing storage capacity and improving recognition rate, recognition speed, etc.

構成 この発明による文字認識装置の構成は、光学的に読取っ
た文字パターンを2値化した後、そのストロークの%徴
を抽出して認識を行なう文字認識装置において、2値化
された文字パターン會方向別にコード化する手段、方向
別にコード化された情報から方向別にストローク情報を
抽出するストローク抽出部、抽出されたストローク情報
に基づいてストロークの統合を行なうか否かの判断およ
びストロークの統合を行なうストローク選択部、および
上記ストローク抽出部あるiは上記ストローク選択部か
らの情報に基づいて特徴を抽出するストローク特徴抽出
部を設けるとともに、上記ストローク抽出部からの情報
に基づいて上記ストローク選択部の動作全制御するよう
になし、これにより上記ストローク特徴抽出部にて採用
する情報を上記ストローク抽出部から直接得るが、ある
いは上記ストローク遺択部全介して得るかの制御を行な
わせるようにしたこと全特徴とする。
Structure The structure of the character recognition device according to the present invention is such that the character recognition device performs recognition by binarizing an optically read character pattern and then extracting the percent signature of the stroke. A means for encoding each direction, a stroke extraction unit that extracts stroke information for each direction from the information coded for each direction, and determining whether or not to integrate strokes based on the extracted stroke information and integrating the strokes. The stroke selection section and the stroke extraction section i are provided with a stroke feature extraction section that extracts features based on information from the stroke selection section, and operate the stroke selection section based on the information from the stroke extraction section. Thus, the information adopted by the stroke feature extraction section can be controlled whether to obtain it directly from the stroke extraction section or through the entire stroke selection section. Features.

以下、この発明の実施例全図面に基づいて説明する。Embodiments of the present invention will be described below with reference to all the drawings.

第3図はこの発明の一実施例による文字認識装置の構成
を機能ブロックに分けて示したものであるO 同図にボす装fは、原M10に読取る光電変換部20、
前処理部(9)、特徴抽出部4o、検索部父、辞書記憶
部60.および出力部7oにより構成される・第3図に
おいて、入力原稿10は光電変換$20にて2値コード
の画像データにf換される。前処理部30は、光電変換
された画像データ示ら文字の切り出し、スムージング(
円滑化処理)、正規イヒなどの処理を行なう11%徴抽
出部40は、文字パターンから特徴量を抽出して検索部
(資)へ送る。検索部50は、抽出された特徴量とあら
かじめ辞書記憶部60に記憶されて勝る既知文字との%
微量と全相互に比較し、これにより文学誌4を行なって
、その結果を出力部70へ送る。出力部70はその結果
を出力する。
FIG. 3 shows the configuration of a character recognition device according to an embodiment of the present invention divided into functional blocks.
Preprocessing section (9), feature extraction section 4o, search section father, dictionary storage section 60. and an output section 7o. In FIG. 3, an input document 10 is converted into binary code image data by photoelectric conversion $20. The preprocessing unit 30 extracts characters from the photoelectrically converted image data and performs smoothing (
The 11% feature extraction unit 40, which performs processing such as smoothing processing and normalization, extracts feature amounts from the character pattern and sends them to the search unit. The search unit 50 calculates the percentage of the extracted feature amount and the superior known characters stored in the dictionary storage unit 60 in advance.
The trace amount and the total amount are compared with each other, and the literary journal 4 is performed based on this, and the result is sent to the output section 70. The output unit 70 outputs the result.

第4図は上記%徴抽出部60の構成?示す。FIG. 4 shows the configuration of the percentage feature extraction section 60? show.

同図に示す特徴抽出部40は、全体特徴抽出部41とス
トローク特徴抽出フロック42とにより構成される。さ
らに、ストローク%像抽出ブロック42は、方向別コー
ド化部43、伸長部必、ストローク抽出部45、y:、
 トo−り選択部46、およびストローク特徴抽出部4
7により構成される。
The feature extraction section 40 shown in the figure is composed of an overall feature extraction section 41 and a stroke feature extraction block 42. Furthermore, the stroke % image extraction block 42 includes a direction-based coding section 43, an extension section, a stroke extraction section 45, y:,
Tortoise selection section 46 and stroke feature extraction section 4
7.

第4図において、前記前処理部3oがら送られた文字パ
ターン(工、全体特徴抽出部41とストローク特徴抽出
ブロック32にそれぞれ入力される。ストローフ特徴抽
出ブロック42では、入力文字パターンの各ストローク
ごとの特徴を抽出する。また、全体特徴抽出部41では
、入力文字パターンのホールの数、中心2文字の重心な
どの特徴を抽出するeここで、上記ストローク特徴抽出
ブロック42の動作について説明すると、先ず、方向別
コード16部43にて、入力文字パターンをその方向別
にコード化することが行なわれるa矢に、伸長部材にて
ストローク全件ばす伸長処理が行なわれる。この伸長処
理は、各方向別にコード化されたコードが示す方向に黒
画素が存在する限りストロークを伸ばすことにより行な
われる。
In FIG. 4, the character pattern sent from the preprocessing unit 3o is input to the overall feature extraction unit 41 and the stroke feature extraction block 32.The stroke feature extraction block 42 processes each stroke of the input character pattern. In addition, the overall feature extraction unit 41 extracts features such as the number of holes in the input character pattern and the center of gravity of the two central characters.Here, the operation of the stroke feature extraction block 42 will be explained as follows. First, in the directional code 16 section 43, an extension process is performed to extend all strokes of the arrow a, where the input character pattern is coded in each direction, using an extension member. This is done by extending the stroke as long as there are black pixels in the direction indicated by the separately coded code.

以上のようにして伸長処理が終わった文字パターンは、
ストローク抽出部45へ送られる蟲そして、ストローク
抽出N545からのストローク情報は、ストローク選択
部46ヲ経てストローク特徴抽出部47外送られるか、
ある−はストローク選択部46’に経ずに直接ストロー
ク特徴抽出部47へ送られる。ここで、ストローク抽出
部45、ストローク選択部46、およびストローク特徴
抽出部47は、第5図に示すように、連結テーブル化に
より互いに連結されている・連結テーブル48ハ連結し
たストロークの有無を検出して記憶するとともに、その
連結ストロークの有無をフラグで示すように構成されて
いる。
The character pattern that has been decompressed as described above is
Is the stroke information sent to the stroke extraction section 45 and the stroke information from the stroke extraction N545 sent to the outside of the stroke feature extraction section 47 via the stroke selection section 46?
A certain - is sent directly to the stroke feature extraction section 47 without passing through the stroke selection section 46'. Here, as shown in FIG. 5, the stroke extraction section 45, the stroke selection section 46, and the stroke feature extraction section 47 are connected to each other by making a connection table.The connection table 48 detects the presence or absence of connected strokes. The configuration is such that the presence or absence of the connected stroke is indicated by a flag.

さて、伸長処理が終わった文字パターンは、ストローク
抽出部45において、そのストロークが各方向別に抽出
される。このストロークm出は、各方向別に黒画素の連
結状態全チェックしつつ、第6図の(a)とΦ)に示す
ようなパターンについては、その背景情報を参考にして
ストローク分離全行ないながら、中心座標、長さ1幅な
どのストローク特徴抽出のためのデータ収集を行なう。
Now, the stroke extraction section 45 extracts the strokes of the character pattern that has been expanded in each direction. This stroke m is determined by checking all the connection states of black pixels in each direction, and for patterns such as those shown in (a) and Φ) in Fig. 6, by performing stroke separation with reference to the background information. Collect data for stroke feature extraction such as center coordinates, length and width.

そして、連結したストロークがあると上記連結テーブル
化にその位置情報や連結状態を書込み、これとともに連
結フラグt−能動化するロ ストローク選択部46では、上記連結フラグの状態上チ
ェックし、フラグが非能動状態のとぎは、ストローク抽
出部45からのストローク悄@をそのままストローク特
徴抽出部47へ送る。また、上記連結フラグが能動状態
にあるとぎは、ストローク選択部46が動作を開始し、
連結しているストロークに対して次のような処理全行な
う。
Then, if there is a connected stroke, the position information and connection state are written in the connection table, and the connection flag t is activated at the same time.The low stroke selection unit 46 checks the state of the connection flag and confirms that the flag is not active. In the active state, the stroke 悄@ from the stroke extraction section 45 is sent as is to the stroke feature extraction section 47. Further, as soon as the connection flag is in the active state, the stroke selection section 46 starts operating,
All the following processes are performed on the connected strokes.

(1)第7図に示すような方向コードに関し、方向1は
第6図に示すX軸上に、方向2. 3. 4は同図に示
すY軸上にそれぞれ射影をとる。
(1) Regarding the direction code as shown in FIG. 7, direction 1 is on the X axis shown in FIG. 6, direction 2 is on the X axis shown in FIG. 3. 4 are projected onto the Y axis shown in the figure.

(2)射影軸上のそれぞれの長さ′t−LI、L2とし
、電なっている部分の長さをL3とするとぎ、(L1+
L2−2・L3 )/ (L1+L2−L3 )>TH
(所定のしきい値) となる連結ストロークの場合は、ストローク抽出845
からのストローク情報がそのままスト−ローフ特徴抽出
部48へ伝達される・ (3)(L1+L2−2・L3) / (Id+L2−
I、3)≦THであるストロークに対してを工、方向1
であればY軸方回に射影をとり、また方向2. 3. 
4であればX軸方向に射影上とるー □ (4)(2)と同様に射影の重なり具合全判定する。
(2) Let the respective lengths on the projection axis be 't-LI and L2, and let the length of the electric part be L3, then (L1+
L2-2・L3 )/(L1+L2-L3)>TH
(predetermined threshold value) In the case of a connected stroke, stroke extraction 845
The stroke information from is directly transmitted to the stroke feature extraction unit 48. (3) (L1+L2-2・L3) / (Id+L2-
I, 3) For strokes where ≦TH, direction 1
If so, the projection is taken in the Y-axis direction, and the direction 2. 3.
If it is 4, the projection is taken in the X-axis direction. □ (4) Similar to (2), the degree of overlapping of the projections is fully determined.

(L1+L2−2− L3) / (L1+L2−L3
)ンTHであれば、ストローク抽出部45からのストロ
ーク情報tストローク特徴抽出部47の入力情報として
採用する。
(L1+L2-2- L3) / (L1+L2-L3
), the stroke information t from the stroke extraction section 45 is adopted as input information to the stroke feature extraction section 47.

また、(L1+L2−2・I、3) / (L1+L2
−1,3)≦THであれば、ストロークを統合する。
Also, (L1+L2-2・I, 3) / (L1+L2
-1,3)≦TH, the strokes are integrated.

以上の処理動作音フローチャートで示すと、第8図のよ
うになる。
The above processing operation sound flowchart is as shown in FIG.

また、第9図は第6図のパターンに関する連結テーブル
化の犬容を示す。
Further, FIG. 9 shows how to create a concatenation table for the pattern of FIG. 6.

第10−は他の実施例における上記ストローク選択部4
6の動作フローチャートを示す。前述のように射影をと
っていたのでは時間がかかるが、ここでは前記(3)の
判定基準として、それぞれのストロークの中心座標(X
i、 yl)、(X2. y2)の表をとる・つまり、
方向1であれば1yl−y21が、また方向2. 3.
 4であれば1xl−x21がそれぞれ定められたTI
(より大きいか小さめかで判断する。 ゛効果 以上のように、この発明による文字認識装置では、その
ストローク抽出部にて、ストロークの不安定な出現を防
止することができ、これにより安定した特徴量を得るこ
とができるので、同一文字から派生する特徴の種類を少
なくして辞書容量を少なくすることができるとともに、
コスト全軽減できる、認識率が同上する、認識速度が向
上する、などの効果を得ることができる・
No. 10- is the stroke selection section 4 in another embodiment.
6 shows an operation flowchart of No. 6. It would take time to take the projection as described above, but here, as the criterion for (3) above, we will use the center coordinates (X
i, yl), (X2. y2) - In other words,
For direction 1, 1yl-y21, and for direction 2. 3.
4, 1xl-x21 is the determined TI
(Judgment is made based on whether it is larger or smaller.) ゛Effects As described above, the character recognition device according to the present invention can prevent the unstable appearance of strokes in its stroke extraction section, thereby creating stable features. Since the amount can be obtained, it is possible to reduce the number of types of features derived from the same character and reduce the dictionary capacity.
It is possible to obtain effects such as reducing the total cost, increasing the recognition rate, and improving the recognition speed.

【図面の簡単な説明】[Brief explanation of drawings]

第1図および第2図はそれぞれ従来装置の動作例を示す
ものであって、方向別にコード化されたストロークパタ
ーンとストローク抽出されたパターンを対比して示す図
、第3図はこの発明による文字認識装置の一実施例を示
すブロック図、第4図は第3図の中の特徴抽出部の構成
を示すブロック図、第5図は第4図で示したブロック内
の状態をざらに祥細に示すブロック図、第6図はこの発
明による装置において方向別にコード化されたストロー
クパターンとストローク抽出されタパターンと全対比し
て示す図、第7図は方向コードを示す図、第8図は第4
図および第5図に示すブロックの動作を示すフローチャ
ート、第9図は第5図における連結テーブルの内容の一
例を示す図、第10図はこの発明の別の実施例を示すフ
ローチャートである0 10・・・原構 20・・・光′[に変換部 30・・
・前処理部40−・・特徴抽出部 50・・・検索部 
印・・・辞書記憶部70・・・出力部 41・・・全体
特徴抽出部 42・・・ストローク特徴抽出ブロック 
43・・・方向別コード化部材・・・伸長部 45・・
・ストローク抽出部 46・・・ストローク選択部 4
7・・・ストローク特徴抽出部48・・・連結テーブル 出願人代理人 鳥 井 清 第6図 第9図 第1O図
FIGS. 1 and 2 each show an example of the operation of the conventional device, and are diagrams showing a comparison of stroke patterns coded by direction and extracted stroke patterns, and FIG. 3 shows characters according to the present invention. FIG. 4 is a block diagram showing an embodiment of the recognition device. FIG. 4 is a block diagram showing the configuration of the feature extraction section in FIG. 3. FIG. FIG. 6 is a diagram showing a complete comparison of stroke patterns coded by direction and extracted stroke patterns in the apparatus according to the present invention, FIG. 7 is a diagram showing direction codes, and FIG. Fourth
FIG. 9 is a diagram showing an example of the contents of the concatenation table in FIG. 5, and FIG. 10 is a flowchart showing another embodiment of the present invention. ...Original structure 20...Light' [conversion section 30...
・Pre-processing unit 40 - Feature extraction unit 50... Search unit
Mark... Dictionary storage unit 70... Output unit 41... Overall feature extraction unit 42... Stroke feature extraction block
43... Directional coding member... Extension part 45...
- Stroke extraction section 46... Stroke selection section 4
7... Stroke feature extraction unit 48... Connection table Applicant's agent Kiyoshi Torii Figure 6 Figure 9 Figure 1O

Claims (3)

【特許請求の範囲】[Claims] (1)光学的に読取った文字パターンt2i化Lr、:
後、そのストロークの特徴を抽出して認識を行な5文字
認識装置において、2値化された文字パターンを方向別
にコード化する手段、方向別にコード化された情報から
方向別にストローク情報を抽出するストローク抽出部、
抽出されたストローク情報に基づいてストロークの統合
を行なうか否かの判断およびストロークの統合上行なう
ストローク選択部、およ−1び上記ストロ=z簿田部あ
るいは上記ストローク選択部からの情報に基づいて特徴
を抽出するストローク特徴抽出部を設けるとともに、上
記ストローク抽出部からの情報に基づいて上記ストロー
ク選択部の動作を制御するようになし、これにより上記
ストローク特徴抽出部にて採用する情報を上記ストロー
ク抽出部から直接得るか、あるいは上記ストローク選択
部を介して得るかの制#七行なわせるようにしたことを
特徴とする文字認識装置。
(1) Optically read character pattern t2i Lr:
After that, the characteristics of the stroke are extracted and recognized, and in a 5-character recognition device, a means is used to code the binarized character pattern by direction, and stroke information is extracted by direction from the information encoded by direction. stroke extraction section,
A stroke selection section that determines whether or not to integrate strokes based on the extracted stroke information and performs the integration of strokes, and -1 and the stroke selection section based on the information from the above-mentioned Stro=z Totabe or the above-mentioned stroke selection section. A stroke feature extraction section for extracting features is provided, and the operation of the stroke selection section is controlled based on information from the stroke extraction section, so that the information adopted by the stroke feature extraction section is used to select the strokes. A character recognition device characterized in that seven lines are obtained either directly from the extraction section or via the stroke selection section.
(2)上記ストローク選択部は、連結したストロークに
関して水平軸、垂直軸にそれぞれ射影をとり、それぞれ
のストロークの射影の重ならない部分力;、その両軸に
て所定のしきい値を越えないものはストロークを統合し
、そうでないものは上記ストローク抽出部の情報全上記
ストローク特徴抽出部に直接採用させるように構成され
たことを特徴とする特許請求の範囲第1項記載の文字認
識装置。
(2) The stroke selection section takes projections of the connected strokes onto the horizontal and vertical axes, and the partial forces that do not overlap in the projections of the respective strokes; and those that do not exceed a predetermined threshold on both axes. 2. The character recognition device according to claim 1, wherein the character recognition device is configured such that the strokes are integrated, and all the information of the stroke extraction section that is not integrated is directly adopted by the stroke feature extraction section.
(3)上記ストローク選択部は、それぞれのストローク
の中心座標の差に基づいてストロークを統合する条件を
判断するようIC@成されていること全特徴とする特許
請求の範囲第1項または第2項記載の文字認識装置−
(3) The stroke selection unit is configured as an IC to determine conditions for integrating strokes based on the difference in center coordinates of each stroke. Character recognition device described in section -
JP58234665A 1983-12-13 1983-12-13 Character recognizing device Pending JPS60126782A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58234665A JPS60126782A (en) 1983-12-13 1983-12-13 Character recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58234665A JPS60126782A (en) 1983-12-13 1983-12-13 Character recognizing device

Publications (1)

Publication Number Publication Date
JPS60126782A true JPS60126782A (en) 1985-07-06

Family

ID=16974561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58234665A Pending JPS60126782A (en) 1983-12-13 1983-12-13 Character recognizing device

Country Status (1)

Country Link
JP (1) JPS60126782A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6235257U (en) * 1985-08-20 1987-03-02
JPH032058A (en) * 1989-05-31 1991-01-08 Ricoh Co Ltd Processing method for font pattern

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6235257U (en) * 1985-08-20 1987-03-02
JPH032058A (en) * 1989-05-31 1991-01-08 Ricoh Co Ltd Processing method for font pattern

Similar Documents

Publication Publication Date Title
JP2940936B2 (en) Tablespace identification method
EP1300779A3 (en) Form recognition system, form recognition method, program and storage medium
Cao et al. Separation of overlapping text from graphics
JPS60126782A (en) Character recognizing device
JPH0656618B2 (en) Image information character / graphic separation method
JP2000090194A (en) Image processing method and image processor
KR100598115B1 (en) High-speed character recognition method and apparatus
JPH1117959A (en) Run length coding method for binary image and recording medium storing run length coding program
JPH0335400A (en) Method for recognizing use code of number plate
JP3140079B2 (en) Ruled line recognition method and table processing method
JPH05159062A (en) Document recognition device
JP3065891B2 (en) Online handwritten character string extraction device
JPH1091717A (en) Bar code recognizing device
Masini et al. Discrete relaxation applied to interpretation of technical documents
JPH0528258A (en) Form input device with character/graphic separation device
JPS63109592A (en) Character recognition system
JPH05108740A (en) Band graph recognizing device
JPS5852782A (en) Separating and extracting device for segment
JPS62108384A (en) On-line handwritten character recognizing device
JPH0376065B2 (en)
JPS58201183A (en) Feature extracting method of handwritten character recognition
JPS6020785B2 (en) Character pattern buffer
JPH0247786B2 (en)
JPS60128577A (en) Character recognizing device
JPH0271379A (en) Picture processor