JPH0583955B2 - - Google Patents
Info
- Publication number
- JPH0583955B2 JPH0583955B2 JP62213903A JP21390387A JPH0583955B2 JP H0583955 B2 JPH0583955 B2 JP H0583955B2 JP 62213903 A JP62213903 A JP 62213903A JP 21390387 A JP21390387 A JP 21390387A JP H0583955 B2 JPH0583955 B2 JP H0583955B2
- Authority
- JP
- Japan
- Prior art keywords
- character
- image
- character string
- characters
- distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 claims description 13
- 238000010586 diagram Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 4
- 238000013139 quantization Methods 0.000 description 4
- 241000282412 Homo Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000011017 operating method Methods 0.000 description 1
Landscapes
- Character Input (AREA)
- Character Discrimination (AREA)
Description
【発明の詳細な説明】
(産業上の利用分野)
本発明は光学的に文字を読み取る文書認識装置
に関し、特に、文字枠のない用紙に書かれた手書
き文書を読み取る文書認識装置に関する。DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to a document recognition device that optically reads characters, and particularly to a document recognition device that reads handwritten documents written on paper without character frames.
(従来の技術)
従来、手書き文字認識の特徴抽出手段として、
入力画像の各線素を方向別に分類した方向画像を
作成し、この方向画像上で文字辞書との整合をお
こなう手法が非常に有効であることが多数報告さ
れている。(Prior art) Conventionally, as a feature extraction means for handwritten character recognition,
It has been widely reported that a method of creating a direction image in which each line element of an input image is classified according to direction, and performing matching with a character dictionary on this direction image is very effective.
方向画像上で、文字辞書との整合を行なう文字
認識手法の例として、文献安田道夫他“文字認識
のための相関法の一改良”電子通信学会論文誌′
79/3 Vol.J62−DNo.3 pp217−224(1979)、
文献馬場口登他“細線化を用いない文字パターン
の方向セグメント抽出の一手法”電子通信学会論
文誌′82/7 Vol.J65−DNo.7 pp874−881
(1982)等があげられる。 As an example of a character recognition method that performs matching with a character dictionary on a directional image, see the document Michio Yasuda et al., “Improvement of correlation method for character recognition,” Journal of the Institute of Electronics and Communication Engineers.
79/3 Vol.J62-DNo.3 pp217-224 (1979),
References Noboru Babaguchi et al. “A method for extracting directional segments of character patterns without thinning” Transactions of the Institute of Electronics and Communication Engineers '82/7 Vol.J65-D No.7 pp874-881
(1982) etc.
このための特徴抽出手段としての方向画像の作
成手法は種々の例があるが、すべて、予め定めら
れた2次元座標上において、各黒画素の連結状態
を調べその連結方向に基づいて方向画像を作成す
るものである。方向画像作成方法の例も前記文献
があげられる。 There are various methods for creating a direction image as a feature extraction means for this purpose, but all of them involve checking the connection state of each black pixel on predetermined two-dimensional coordinates and creating a direction image based on the connection direction. It is something to create. Examples of directional image creation methods include the above-mentioned documents.
また文字列より各文字を分離することなく、文
字列画像を直接入力として文字列を読み取る手法
として本願と同一出願人による特願昭62−11630
号“文字列認識装置”がある。 In addition, as a method for reading a character string by directly inputting a character string image without separating each character from the character string, Japanese Patent Application No. 62-11630 filed by the same applicant as the present application
There is a ``character string recognition device''.
(発明が解決しようとする問題点)
手書き文字の認識において方向画像の作成は重
要な手段である。(Problems to be Solved by the Invention) Creation of directional images is an important means in recognizing handwritten characters.
従来の方向コード画像は、すべて絶対座標を基
準に方向画像を作成していた。従来の手書き文字
認識は文字枠の中に書かれた文字を対象としてい
たので、線分の方向の変動が比較的小さく、安定
した方向画像の作成が可能であつた。しかし、文
字枠のない用紙に書かれた文字は、筆記者の癖に
より線分の方向の変動が大きい。特に水平方向の
線分では右あがりの文字が多いから、その変動の
範囲は50〜60°程度となる。一例として、第2図
に2つの文字列の例を示す。人間が水平線と感ず
る文字は第2図のaにおいては水平方向に書かれ
ているが、bにおいては右に約45°上がつた方向
に書かれている。 All conventional direction code images are created based on absolute coordinates. Since conventional handwritten character recognition targets characters written within a character frame, fluctuations in the direction of line segments are relatively small, making it possible to create a stable directional image. However, when characters are written on paper without a character frame, the direction of the line segments varies greatly due to the scribe's habits. Especially in horizontal line segments, there are many characters that slope upward to the right, so the range of variation is about 50 to 60 degrees. As an example, FIG. 2 shows an example of two character strings. The characters that humans perceive as horizontal lines are written horizontally in Figure 2 (a), but in Figure 2 (b) they are written approximately 45 degrees upward to the right.
第2図における文字“上”に対して従来方式で
方向コードを付与した方向画像を第3図および第
4図に示す。第3図は、第2図aの“上”の文字
より、第4図は第2図bの“上”の文字より作成
された方向画像である。このように第2図aの文
字において水平方向に抽出された線分と対応する
線分が第2図bの文字においては右上がりの線分
として抽出される。 FIGS. 3 and 4 show direction images in which a direction code has been added in a conventional manner to the character "upper" in FIG. 2. 3 is a direction image created from the character "above" in FIG. 2a, and FIG. 4 is a direction image created from the character "above" in FIG. 2b. In this way, the line segment corresponding to the line segment extracted in the horizontal direction in the character of FIG. 2a is extracted as a line segment pointing upward to the right in the character of FIG. 2b.
方向画像上で入力画像と文字辞書の対応を高性
能に行なうためには対応する線分が同じ方向画像
上に安定して抽出される必要がある。しかし、従
来のように個々の文字に対して方向コードの補正
を行なうことは、種々の文字が存在するから不安
定であり、自由に書かれた文字列より文字を読み
取る前に各文字を正しく切り出すことに対する困
難さが伴うので更に不安定となる。 In order to perform high-performance correspondence between an input image and a character dictionary on a directional image, it is necessary to stably extract corresponding line segments on the same directional image. However, the conventional method of correcting the direction code for each character is unstable because there are a variety of characters, and it is necessary to correct each character correctly before reading the character from a freely written string. Difficulty in cutting it out makes it even more unstable.
また、文書画像全体に対して方向コードの処理
を行なうことは、処理量の問題を除いても、文書
中に表や図等が含まれていたり、印刷文字が含ま
れていたり、場合によつては複数の筆記者により
書かれた文字が含まれていることがあり、不安定
となる。 In addition, even if the problem of processing amount is not considered, it is difficult to perform direction code processing on the entire document image, even if the document contains tables, figures, etc., printed characters, etc. They may contain characters written by multiple scribes, making them unstable.
従つて、文字枠のない用紙に自由に書かれた文
字を安定に読み取るためには、文字を読み取る前
に安定に抽出でき、かつその内部の文字の性質が
安定している文字列単位でできる限りの処理をす
ることが最も望ましいと考えられる。 Therefore, in order to stably read characters freely written on paper without a character frame, it is necessary to extract characters stably before reading them, and to extract characters in units of character strings whose internal character properties are stable. It is considered most desirable to treat as much as possible.
(問題点を解決するための手段)
前述の問題点を解決するために本発明が提供す
る文字列認識方式は、文字のならびである文字列
の2次元画像を入力し、入力画像の各黒画素が予
め与えられた方向に対してどの方向の線分に属す
るかを計測し、その計測された方向を各黒画素に
付与する方向付与手段と、前記各黒画素に割当て
られた方向の方向別分布を求める手段と、前記方
向別分布から求まる文字列毎の相対的座標をもと
に、前記方向付与手段で付与された方向を再割付
けする手段と、この再割付け手段で再割付けして
得られた文字列方向画像を文字標準パタンをもと
に逐次読み取る文字列認識の手段とを備えてな
る。(Means for Solving the Problems) In order to solve the above-mentioned problems, the character string recognition method provided by the present invention inputs a two-dimensional image of a character string, which is a sequence of characters, and a direction assigning means for measuring which line segment a pixel belongs to in a predetermined direction and assigning the measured direction to each black pixel; and a direction assigned to each black pixel. means for obtaining a separate distribution; means for reassigning the direction assigned by the direction assignment means based on the relative coordinates for each character string determined from the distribution for each direction; and character string recognition means for sequentially reading the obtained character string direction image based on a standard character pattern.
(作用)
人間は、文字線分の方向を定める際に、ある固
定した座標による絶対的な方向を用いているので
はなく、文字毎に変動する相対的な座標をもとに
その線分方向を定めていると考えられる。(Function) When determining the direction of a character line segment, humans do not use the absolute direction based on fixed coordinates, but rather the direction of the line segment based on relative coordinates that vary from character to character. It is considered that the
また、文字線分の方向の変動の要因は、筆記者
の癖によるものが大であると考えられ、同一筆記
者が同一時期に書いた文字の線分方向は安定して
いると考えられる。例えば、ある筆記者が1文字
目に右上がりの文字を書いて2文字目に右下がり
の文字を書くということは、ほとんどないと予想
される。 Furthermore, it is thought that the variation in the direction of character line segments is largely due to the habits of the scribe, and the direction of line segments of characters written by the same scribe at the same time is considered to be stable. For example, it is highly unlikely that a scribe will write a character that slopes upward to the right as the first character and a character that slopes down to the right as the second character.
そこで本発明では、まず与えられた画像より予
め定められた座標上で文字の方向を計測し、入力
画像の線分の絶対的方向を求める。次に、この方
向別の文字線の分布を求める。この時、一文字の
方向別分布を求めたのでは、文字の種類により分
布が安定しないし、文書全面の方向分布では読み
取り対象外の影響により分布が安定しないが、文
字列でその分布を求めれば、日本語の文字は、そ
の大部分が概念上の水平線と垂直線で構成されて
いることと、前記のごとく同一筆記人による安定
さのために、その文字列の基準となる水平方向と
垂直方向の画像上での方向を求めることができ
る。 Therefore, in the present invention, the direction of a character is first measured on predetermined coordinates from a given image, and the absolute direction of a line segment of the input image is determined. Next, the distribution of character lines in each direction is determined. At this time, if we calculate the directional distribution of a single character, the distribution will not be stable depending on the type of character, and the directional distribution of the entire document will not be stable due to influences other than those to be read. However, if we calculate the distribution by character string, , Japanese characters are mostly composed of conceptual horizontal and vertical lines, and as mentioned above, due to the stability of writing by the same person, the horizontal and vertical directions that serve as the standard for the character string. The direction on the image can be determined.
この分布をもとに文字列毎の相対的座標を求
め、この座標をもとに方向コードを割付け直すこ
とにより、安定した方向画像を得ることが可能と
なる。 By determining relative coordinates for each character string based on this distribution and reassigning direction codes based on these coordinates, it is possible to obtain a stable direction image.
ここで言う相対的座標とは、概念上の線分方向
と2次元画像上での方向とを対応させるものであ
る。第2図a,bから求まる相対的座標を第5図
a,bにそれぞれ示す。 The relative coordinates referred to here refer to the correspondence between a conceptual line segment direction and a direction on a two-dimensional image. The relative coordinates determined from FIGS. 2a and 2b are shown in FIGS. 5a and 5b, respectively.
そして、この文字列画像より、文字を読み取る
前に文字の切り出し処理を行なうのではなく、文
字列の画像を入力画像としその先頭より逐次的に
文字を読み取つていくことにより、文字の形状及
び文字の並びに対する変動の大きな文字枠のない
用紙に書かれた文字列を読み取ることが可能とな
る。 Then, rather than cutting out characters from this character string image before reading them, we use the character string image as an input image and read the characters sequentially from the beginning, thereby determining the shape and character of the character. This makes it possible to read character strings written on sheets of paper without character frames, which have large variations in their arrangement.
(実施例) 次に本発明を図面により詳細に説明する。(Example) Next, the present invention will be explained in detail with reference to the drawings.
第1図は本発明の一実施例を説明するフローチ
ヤート、第2図は本実施例で認識しようとする入
力文字列画像の列を表わす図である。第2図は、
斜視図を文字線部、他を背景部として表わしてい
る。入力文字列画像は適当な間隔で量子化されて
いる。 FIG. 1 is a flowchart for explaining one embodiment of the present invention, and FIG. 2 is a diagram showing a sequence of input character string images to be recognized by this embodiment. Figure 2 shows
The perspective view is shown as a character line part, and the other parts are shown as a background part. The input character string image is quantized at appropriate intervals.
本実施例では、ステツプ1で入力された画像に
対して、ステツプ2で各線分の方向を計測する。
各線分の方向の計測方法は、従来技術によるもの
であり、ここでは詳しい説明は省略する。計測す
る方向も最終的に必要な方向画像の数に対応して
適当な間隔で量子化されている。以下、一例とし
て最終的に水平、右上がり、垂直、左上がりの4
つの方向画像を作成するものとして、ここでは第
6図に示す8方向に量子化された方向に計測する
ものとする。 In this embodiment, the direction of each line segment is measured in step 2 for the image input in step 1.
The method of measuring the direction of each line segment is based on a conventional technique, and detailed explanation will be omitted here. The directions to be measured are also quantized at appropriate intervals corresponding to the number of direction images ultimately required. Below, as an example, the final result is horizontal, upward to the right, vertical, upward to the left.
Assuming that two directional images are to be created, here it is assumed that measurements are taken in eight quantized directions shown in FIG.
第2図のaの画像の文字“上”に対して計測さ
れた方向別に作成した方向画像のうち、第6図の
方向コード、1、3、5、7に対応する方向画像
を水平方向、右上がり、垂直方向、左上がりとし
て示したものが第3図である。同様に第2図のb
の画像の文字“上”に対する計測結果を第4図に
示す。第3図および第4図は黒画素の方向別の画
像である方向画像である。 Among the direction images created for each direction measured with respect to the character "above" in the image a in FIG. 2, the direction images corresponding to the direction codes 1, 3, 5, and 7 in FIG. FIG. 3 shows an upward direction to the right, a vertical direction, and an upward direction to the left. Similarly, b in Figure 2
Figure 4 shows the measurement results for the character "upper" in the image. FIGS. 3 and 4 are direction images that are images of black pixels in different directions.
この線分方向の計測結果より、ステツプ3にお
いて、線分方向の分布を量子化方向別に求める。 Based on the measurement results in the line segment direction, in step 3, the distribution in the line segment direction is determined for each quantization direction.
そして、量子化方向1、2、3、8において最
も多く分布している方向を水平方向4、5、6に
おいて最も多く分布している方向を垂直方向と
し、その中間を右上がり、左上がりの方向とす
る。 Then, the most distributed direction in quantization directions 1, 2, 3, and 8 is taken as the horizontal direction, and the most distributed direction in horizontal directions 4, 5, and 6 is taken as the vertical direction, and the intermediate direction is defined as upward-rightward and upward-leftward directions. direction.
第2図aの画像に対しては、1、2、3、8で
は、1の方向の分布が最も大きく4、5、6では
5の方向の分布が最も大きいため第5図aのよう
な相対的座標が得られ、第2図bの画像に対して
は、1、2、3、8では3の方向の分布が最も大
きく、4、5、6では5の方向の分布が最も大き
いため第5図bのような相対的座標が得られる。
括弧内の数字は第6図の量子化方向を表わしてい
る。 For the image in Figure 2a, for 1, 2, 3, and 8, the distribution in the 1 direction is the largest, and in 4, 5, and 6, the distribution in the 5 direction is the largest, so the image shown in Figure 5a is The relative coordinates are obtained, and for the image in Figure 2 b, the distribution in the direction of 3 is the largest for 1, 2, 3, and 8, and the distribution in the direction of 5 is the largest for 4, 5, and 6. Relative coordinates as shown in FIG. 5b are obtained.
The numbers in parentheses represent the quantization direction in FIG.
この座標軸をもとにステツプ4において方向コ
ードが割付けられている。この際中間的な方向
は、あいまいな方向であるとしてその隣接する2
方向の両方に振り分けられる。 Direction codes are assigned in step 4 based on this coordinate axis. In this case, the intermediate direction is an ambiguous direction, and the two adjacent directions are
Can be distributed in both directions.
第2図aの例では、方向コード1、2、8が水
平方向、2、3、4が右上がり、4、5、6が垂
直方向、6、7、8が左上がり方向となりそれぞ
れの方向画像が作成される。この結果を第7図に
示す。 In the example in Figure 2a, direction codes 1, 2, and 8 are horizontal, 2, 3, and 4 are upward to the right, 4, 5, and 6 are vertical, and 6, 7, and 8 are upward to the left. An image is created. The results are shown in FIG.
第2図bの例では方向コード2、3が水平方
向、4が右上がり、5、6が垂直方向、6、7、
8、1が左上がりの方向となり、それぞれの方向
画像が作成される。この結果を第8図に示す。 In the example in Figure 2b, direction codes 2 and 3 are horizontal, 4 is upward to the right, 5 and 6 are vertical, 6, 7,
8 and 1 are upward left directions, and respective direction images are created. The results are shown in FIG.
このようにして、安定した方向画像の作成が可
能となる。そしてステツプ6において、この文字
列方向画像の認識がなされる。この文字列方向画
像を文字標準パタンをもとに逐次読み取る手法
は、前述の特願昭62−11630号“文字列認識装置”
と同様の手法を用いる。ここでは、その詳細は省
略する。 In this way, a stable directional image can be created. Then, in step 6, this character string direction image is recognized. The method of sequentially reading this character string direction image based on the standard character pattern is described in the above-mentioned Japanese Patent Application No. 11630/1983 "Character string recognition device".
Use the same method as . The details are omitted here.
(発明の効果)
このように本発明によれば、各文字の線分方向
を予め与えられた座標の絶対的な値としてではな
く、文字列毎の相対的な座標をもとに作成するこ
とにより、人間に近い安定した方向画像の作成が
可能となる。そして、文字認識に至るまで文字列
画像を中心に取り扱うから、文字枠のない用紙に
書かれた文字列をも安定に精度よく認識すること
ができる。(Effects of the Invention) As described above, according to the present invention, the line segment direction of each character can be created based on the relative coordinates of each character string, not as the absolute value of the coordinates given in advance. This makes it possible to create a stable directional image that is close to that of a human. Since character string images are mainly handled until character recognition, even character strings written on paper without character frames can be recognized stably and accurately.
なおかつ本発明では、最も処理時間のかかる方
向の計測を一度しか行なわないから、処理時間に
おいても従来とあまりかわらない。 Furthermore, in the present invention, since the measurement in the direction that takes the longest processing time is performed only once, the processing time is not much different from the conventional method.
以上に説明したように、本発明によれば、文字
枠のない用紙に書かれた手書き文字列を読み取る
際に、文字の並びの変動及び各文字線の位置・長
さの変動に加えて筆記者の癖と考えられる文字線
方向の変動を文字列単位で安定に抽出することに
より、文字枠のない用紙に比較的自由に書かれた
文字列について、従来と比べて同程度の処理速度
で従来より高い精度で文字列の認識ができる。 As explained above, according to the present invention, when reading a handwritten character string written on paper without a character frame, in addition to fluctuations in the arrangement of characters and fluctuations in the position and length of each character line, By stably extracting fluctuations in the direction of character lines, which are thought to be a human habit, for each character string, it is possible to process character strings written relatively freely on paper without a character frame at the same processing speed as before. Character strings can be recognized with higher accuracy than before.
第1図は本発明の一実施例の操作手順を示すフ
ローチヤート、第2図a,bは入力画像の一例を
示す文字列画像の図、第3図は第2図aの文字画
像について従来方式により計測して得られる結果
を表わす方向画像の図、第4図は第2図bの文字
画像について従来方式により計測して得られる方
向画像の図、第5図は第2図の入力画像より求め
た相対座標を示す図、第6図は方向計測のための
量子化の定義の一例を示す図、第7図は本発明を
適用して第2図aの文字画像について得られた方
向画像の図、第8図は本発明を適用して第2図b
の文字列画像について得られた方向画像の図であ
る。
FIG. 1 is a flowchart showing the operating procedure of an embodiment of the present invention, FIGS. 2 a and b are diagrams of a character string image showing an example of an input image, and FIG. Fig. 4 is a diagram of a directional image obtained by measuring the character image in Fig. 2 b using the conventional method, and Fig. 5 is an illustration of the input image of Fig. 2. FIG. 6 is a diagram showing an example of the definition of quantization for direction measurement. FIG. 7 is a diagram showing the direction obtained for the character image in FIG. 2 a by applying the present invention. The image diagram, FIG. 8, is the same as that shown in FIG.
FIG. 3 is a diagram of a direction image obtained for a character string image.
Claims (1)
力とし、入力画像の各黒画素が予め与えられた方
向に対してどの方向の線分に属するかを計測し、
その計測された方向を各黒画素に付与する方向付
与手段と、前記各黒画素に割当てられた方向の方
向別分布を求める手段と、前記方向別分布から求
まる文字列毎の相対的座標をもとに、前記方向付
与手段で付与された方向を再割付けする手段と、
この再割付け手段で再割付けして得られた文字列
方向画像を文字標準パタンをもとに逐次読み取る
文字列認識の手段とを備える文字列認識方式。1. Take a two-dimensional image of a character string as an input, measure to which line segment each black pixel of the input image belongs to a pre-given direction,
A direction assigning means for assigning the measured direction to each black pixel, a means for determining a direction distribution of the directions assigned to each black pixel, and a relative coordinate for each character string determined from the direction distribution. and means for reallocating the direction given by the direction giving means;
A character string recognition method comprising a character string recognition means for sequentially reading character string direction images obtained by reallocation by the reallocation means based on a standard character pattern.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62213903A JPS6455680A (en) | 1987-08-26 | 1987-08-26 | Character string recognizing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62213903A JPS6455680A (en) | 1987-08-26 | 1987-08-26 | Character string recognizing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS6455680A JPS6455680A (en) | 1989-03-02 |
JPH0583955B2 true JPH0583955B2 (en) | 1993-11-30 |
Family
ID=16646932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP62213903A Granted JPS6455680A (en) | 1987-08-26 | 1987-08-26 | Character string recognizing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS6455680A (en) |
-
1987
- 1987-08-26 JP JP62213903A patent/JPS6455680A/en active Granted
Also Published As
Publication number | Publication date |
---|---|
JPS6455680A (en) | 1989-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3576570B2 (en) | Comparison method | |
JP3343864B2 (en) | How to separate words | |
JP3445394B2 (en) | How to compare at least two image sections | |
US5708730A (en) | Table recognition apparatus | |
JPS60217477A (en) | Handwritten character recognizing device | |
US11854284B2 (en) | Offline handwriting individual recognition system and method based on two-dimensional dynamic features | |
Lakshmi et al. | A novel 3D approach to recognize Telugu palm leaf text | |
US12039805B2 (en) | Offline handwriting individual recognition system and method based on three-dimensional dynamic features | |
CN111612045B (en) | Universal method for acquiring target detection data set | |
JP2000331120A (en) | Device and method for recognizing character and recording medium stored with control program therefor | |
EP1828959A1 (en) | Face recognition using features along iso-radius contours | |
KR101766787B1 (en) | Image correction method using deep-learning analysis bassed on gpu-unit | |
JPH0583955B2 (en) | ||
CN114241486A (en) | Method for improving accuracy rate of identifying student information of test paper | |
Ye et al. | Document image matching and annotation lifting | |
CN111898404B (en) | Three-dimensional palmprint recognition method based on multipoint voting local binary mode | |
WO2017013720A1 (en) | Reference line setting device, reference line setting method, and reference line setting program | |
JP2580976B2 (en) | Character extraction device | |
JPH0656625B2 (en) | Feature extraction method | |
JPH03126188A (en) | Character recognizing device | |
Gupta | Writer Dependent Handwriting Synthesis | |
JPH0438024B2 (en) | ||
JPS58105387A (en) | Character recognizing method | |
JPH01201789A (en) | Character reader | |
JP2918363B2 (en) | Character classification method and character recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071130 Year of fee payment: 14 |