JPS6161151B2 - - Google Patents

Info

Publication number
JPS6161151B2
JPS6161151B2 JP53159484A JP15948478A JPS6161151B2 JP S6161151 B2 JPS6161151 B2 JP S6161151B2 JP 53159484 A JP53159484 A JP 53159484A JP 15948478 A JP15948478 A JP 15948478A JP S6161151 B2 JPS6161151 B2 JP S6161151B2
Authority
JP
Japan
Prior art keywords
stroke
character
information
point
stroke information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
JP53159484A
Other languages
Japanese (ja)
Other versions
JPS5583970A (en
Inventor
Tetsuji Morishita
Eiichiro Yamamoto
Koya Fujita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP15948478A priority Critical patent/JPS5583970A/en
Publication of JPS5583970A publication Critical patent/JPS5583970A/en
Publication of JPS6161151B2 publication Critical patent/JPS6161151B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Description

【発明の詳細な説明】 本発明は、オンライン手書き文字認識装置にお
いて、文字のセグメンテーシヨンを自動的に行う
セグメンテーシヨン方法に関するものである。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to a segmentation method for automatically segmenting characters in an online handwritten character recognition device.

オンライン手書き文字認識装置に文字を入力す
る場合、通常はタブレツトとスタイラス・ペンか
ら成る入力装置を用いている。オペレータが文字
を記入する際、タブレツト上に、文字が記入され
るべき領域を枠で囲んだ原稿用紙をのせて書き始
めるが、この場合の文字データは、ペンダウンす
ることによつて文字座標のサンプリングが開始さ
れ、ペンアツプするまで続行される。
When entering characters into an online handwriting recognition system, an input device typically consists of a tablet and a stylus pen. When an operator writes characters, he places a manuscript paper with a frame surrounding the area where the characters are to be written on the tablet and begins writing.In this case, the character data is sampled by sampling the character coordinates by moving the pen down. is started and continues until pen up.

連続的に文字を記入して行く場合、このような
一連の座標点系列から1文字分のデータを切り出
し、認識の対象としなければならない。上記の切
り出しをセグメンテーシヨンという。セグメンテ
ーシヨン方式として、一文字を書き終る度に、オ
ペレータが特定の方法で1文字終了信号を認識部
に通知してやる方法が公知である。このような方
式は簡単で誤りはないが、オペレータが1文字書
き終る度に1文字終了の制御信号を入力すること
は、操作上の負担となり、能率が悪い。文字のセ
グメンテーシヨンを自動的に行うため、第7図に
示すように、ストロークの始点もしくは終点を代
表点とし、これらの代表点を用いて文字のセグメ
ンテーシヨンを行うことが考えられるが、文字枠
同志の間隔が或る程度小さくなると、安定なセグ
メンテーシヨンを行うことが出来ない。
When writing characters continuously, data for one character must be extracted from such a series of coordinate points and used as a recognition target. The above extraction is called segmentation. As a segmentation method, a method is known in which an operator notifies a recognition unit of a character end signal in a specific manner every time a character is written. Although such a method is simple and error-free, it is an operational burden and inefficient for the operator to input a control signal indicating the end of one character each time he finishes writing one character. In order to perform character segmentation automatically, it is conceivable to use the starting point or end point of a stroke as a representative point and perform character segmentation using these representative points, as shown in Figure 7. If the distance between character frames becomes small to a certain extent, stable segmentation cannot be performed.

本発明は、上記の欠点を除去するものであつ
て、常に安定なセグメンテーシヨンを行い得るよ
うになつたオンライン手書き文字認識装置におけ
るセグメンテーシヨン方式を提供することを目的
としている。そしてそのため、本発明のオンライ
ン手書き文字認識装置におけるセグメンテーシヨ
ン方法は、入力タブレツト上に配置された原稿用
紙上の文字枠に時系列的に記入される文字のスト
ローク情報と時系列情報とに基づいて文字認識を
行うオンライン文字認識装置において、 ストロークの始点と終点を結ぶ線分の中点、ス
トロークの重心又は始点からストロークの延べ距
離の1/2の位置に存在するストローク上の点を代
表点として求め、 上記ストロークの代表点が同一の文字枠に存在
するか否かを、時系列的に入力されるストローク
情報毎に判定し、 ストロークの代表点が同一文字枠内に存在しな
いストローク情報が得られた時点で当該ストロー
ク情報より前のストローク情報を一つの文字認識
対象と判定し、 これによつて、1文字の切り出しを行うことを
特徴とするものである。以下、本発明を図面を参
照しつつ説明する。
The present invention aims to eliminate the above-mentioned drawbacks and to provide a segmentation method for an online handwritten character recognition device that can always perform stable segmentation. Therefore, the segmentation method in the online handwritten character recognition device of the present invention is based on the stroke information and time series information of characters that are chronologically written in the character frames on the manuscript paper placed on the input tablet. In an online character recognition device that performs character recognition, the representative point is the midpoint of the line segment connecting the start and end points of the stroke, the center of gravity of the stroke, or a point on the stroke that is 1/2 of the total distance of the stroke from the start point. Determine whether or not the representative point of the stroke exists in the same character frame for each piece of stroke information that is input in chronological order. At the time when the stroke information is obtained, the stroke information before the stroke information is determined to be one character recognition target, and one character is thereby extracted. Hereinafter, the present invention will be explained with reference to the drawings.

第1図は本発明で使用される入力装置の1例の
斜視図、第2図は原稿用紙を示す図、第3図はオ
ンライン手書き文字認識装置のシステム構成を示
す図、第4図はセグメンテーシヨン部の機能を示
す図、第6図は本発明の1実施例の原理を説明す
るための図である。
FIG. 1 is a perspective view of an example of an input device used in the present invention, FIG. 2 is a diagram showing manuscript paper, FIG. 3 is a diagram showing the system configuration of an online handwritten character recognition device, and FIG. 4 is a diagram showing a segment FIG. 6 is a diagram showing the function of the station section, and is a diagram for explaining the principle of one embodiment of the present invention.

第1図、第2図において、1はタブレツト、2
は原稿用紙、3はスタイラス・ペン、R1ないし
oは文字枠、Mはマークをそれぞれ示してい
る。
In Figures 1 and 2, 1 is a tablet, 2
indicates manuscript paper, 3 indicates a stylus pen, R 1 to R o indicate character frames, and M indicates a mark.

文字を入力する際、タブレツト1上に原稿用紙
2を置き、スタイラス・ペン3でマークMをタツ
チする。これによりオンライン手書き文字装置側
に文字枠R1ないしRnを代表する座標値が登録さ
れる。文字はスタイラス・ペン3で文字枠Ri内
に記入される。スタイラス・ペン3で文字を記入
すると、スタイラス・ペン3内部のスイツチ(図
示せず)が閉じ、サンプリングが開始されてスト
ロークの座標点がオンライン手書き文字認識装置
側に送られる。1ストロークの記入が終了し、ス
タイラス・ペン3を上げると、スタイラス・ペン
3内部のスイツチは開き、後述する如きストロー
ク・エンド情報が書込まれる。
When inputting characters, a manuscript paper 2 is placed on a tablet 1, and a mark M is touched with a stylus pen 3. As a result, coordinate values representing character frames R1 to Rn are registered on the online handwritten character device side. Characters are written in the character frame Ri using the stylus pen 3. When a character is written with the stylus pen 3, a switch (not shown) inside the stylus pen 3 is closed, sampling is started, and the coordinate points of the stroke are sent to the online handwritten character recognition device. When one stroke is completed and the stylus pen 3 is raised, a switch inside the stylus pen 3 is opened and stroke end information as described below is written.

第3図、第4図、第5図において、4は入力装
置、5はセグメンテーシヨン部、6は認識部、7
はデイスプレイ、8はノイズ除去手段、9は位置
決め手段、10は文字枠発生手段、11は文字バ
ツフア、12は文字領域決定手段をそれぞれ示し
ている。
3, 4, and 5, 4 is an input device, 5 is a segmentation unit, 6 is a recognition unit, and 7
1 is a display, 8 is a noise removing means, 9 is a positioning means, 10 is a character frame generating means, 11 is a character buffer, and 12 is a character area determining means.

入力装置4は第1図に示されたようにタブレツ
ト1、原稿用紙2およびスタイラス・ペン3から
構成されている。セグメンテーシヨン部5は、例
えばマイクロコンピユータから構成されているも
のであつて、第4図に示したような機能を行うも
のである。認識部6は、例えば大形コンピユータ
から構成され、セグメンテーシヨン部5から送ら
れて来る1文字の文字情報に基づいて、文字認識
を行うものである。デイスプレイ7は、認識文字
を表示するものである。
The input device 4 consists of a tablet 1, a manuscript paper 2, and a stylus pen 3, as shown in FIG. The segmentation section 5 is composed of, for example, a microcomputer, and performs the functions shown in FIG. 4. The recognition unit 6 is composed of, for example, a large-sized computer, and performs character recognition based on the character information of one character sent from the segmentation unit 5. The display 7 displays recognized characters.

第4図はセグメンテーシヨン部5を説明するも
のである。位置決め手段9は、マークMの座標値
に基づき原稿用紙2の位置を決定するものであ
る。文字枠発生手段10は、原稿用紙2の座標値
から各文字枠の座標値を求めるものである。文字
バツフア11は、文字を構成するストロークの座
標点系列が格納される。文字領域決定手段12
は、1文字を構成するストローク集合を決定し、
ストローク集合の座標点系列を認識部6へ通知す
るものである。
FIG. 4 explains the segmentation unit 5. The positioning means 9 determines the position of the document paper 2 based on the coordinate values of the mark M. The character frame generating means 10 calculates the coordinate values of each character frame from the coordinate values of the manuscript paper 2. The character buffer 11 stores coordinate point series of strokes forming characters. Character area determining means 12
determines the set of strokes that make up one character,
This is to notify the recognition unit 6 of the coordinate point series of the stroke set.

第5図は文字バツフア11の構成を示すもので
ある。X1-1,Y1-1…X1-i,Y1-iはストロークS1
の座標点系列を示し、X2-1,Y2-1…はストローク
S1の次に記入されたストロークS2の座標点系列を
示している。座標点系列X1-1,Y1-1…X1-i,Y1-
と座標点系列X2-1,Y2-1…の間には、ストロー
クを区別するためにストローク・エンド情報が挿
入されている。
FIG. 5 shows the structure of the character buffer 11. X 1-1 , Y 1-1 ...X 1-i , Y 1-i is the stroke S 1
shows the coordinate point series, X 2-1 , Y 2-1 ... is the stroke
It shows the coordinate point series of stroke S 2 written after S 1 . Coordinate point series X 1-1 , Y 1-1 ...X 1-i , Y 1-
Stroke end information is inserted between i and the coordinate point series X 2-1 , Y 2-1 . . . in order to distinguish between strokes.

第6図は本発明の1実施例のセグメンテーシヨ
ンの原理を説明するための図である。第6図にお
いて、(XS1,YS1)、(XS2,YS2)はそれぞれ文
字枠の左上隅角の座標値、(XE1,YE1)、(XE
,YE2)はそれぞれ文字枠の右下隅角の座標
値、PS1,PS2…はそれぞれストロークの始点、
E1,PE2…はストロークの終点、M1,M2
M3,M4はそれぞれストロークの始点と終点の中
点を示している。
FIG. 6 is a diagram for explaining the principle of segmentation in one embodiment of the present invention. In Figure 6, (X S1 , Y S1 ), (X S2 , Y S2 ) are the coordinate values of the upper left corner of the character frame, (X E1 , Y E1 ), (X E
2 , Y E2 ) are the coordinate values of the lower right corner of the character frame, P S1 , P S2 ... are the starting points of the stroke, respectively,
P E1 , P E2 ... are the end points of the stroke, M 1 , M 2 ,
M 3 and M 4 indicate the midpoints of the start and end points of the stroke, respectively.

いま、予め設定された文字枠Rの集合Cを C={R|R1,R2…Rn}……… とする。ただし、文字枠Rは、点(XS,YS)お
よび点(XE,YE)で定義される。
Now, let us assume that a set C of character frames R set in advance is C={R|R 1 , R 2 . . . Rn}. However, the character frame R is defined by a point (X S , Y S ) and a point (X E , Y E ).

オペレータが順次に文字を記入して行く場合、
「ア」の第1ストロークの始点PS1およびPE1
中点M1(XM1,YM1)が XS1≦XM1≦XE1E1≦YM1≦YS1}……… を満足した場合、 M1〓R1………………… である。同様に、「ア」の第2ストロークの中点
M2も M2〓R1 であることが判る。ところが、「イ」の第1スト
ロークが記入された時点で、その中点M3は M3〓R2 であることがわかるので、「イ」の第1ストロー
クが入るまでのストローク情報を1文字の認識対
象データとする。
When the operator fills in characters sequentially,
The midpoint M 1 (X M1 , Y M1 ) of the starting point P S1 of the first stroke of "A " and P E1 satisfies the following : In this case, M 1 〓R 1 ………………………. Similarly, the midpoint of the second stroke of “a”
It turns out that M 2 is also M 2 〓R 1 . However, when the first stroke of "i" is entered, it is known that the midpoint M 3 is M 3 〓R 2 , so the stroke information up to the first stroke of "i" is written for one character. is the recognition target data.

上述の実施例では、ストロークの始点と終点の
中点でセグメンテーシヨンを行つたが、この代り
に、ストロークの延べ距離の1/2を求め、始点か
ら延べ距離の1/2の位置に存在するストローク上
の点を代表点とし、このような代表点を用いてセ
グメンテーシヨンを行つても良い。また、ストロ
ークの重心を代表点とし、このような代表点によ
つてセグメンテーシヨンを行つても良い。ストロ
ークの重心を求めるためには、ストロークの座標
点系列よりX座標値の最大値、最小値およびY座
標値の最大値、最小値を求め、上記の最大値、最
小値で定義される四角形枠の中心を求めれば良
い。
In the above example, segmentation was performed at the midpoint between the start and end points of the stroke, but instead of this, 1/2 of the total distance of the stroke is calculated, and the segmentation is performed at a position 1/2 of the total distance from the start point. It is also possible to use a point on the stroke as a representative point, and perform segmentation using such a representative point. Alternatively, the center of gravity of the stroke may be used as a representative point, and segmentation may be performed using such a representative point. To find the center of gravity of a stroke, find the maximum and minimum values of the X coordinate value and the maximum and minimum values of the Y coordinate value from the coordinate point series of the stroke, and then draw a rectangular frame defined by the maximum and minimum values above. All you have to do is find the center of

以上の説明から明らかなように、本発明によれ
ば、従来のセグメンテーシヨン方式に比較し、常
に安定かつ確実なセグメンテーシヨンを行うこと
が出来る。
As is clear from the above description, according to the present invention, stable and reliable segmentation can be performed at all times compared to conventional segmentation methods.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明で使用される入力装置の1例の
斜視図、第2図は原稿用紙を示す図、第3図はオ
ンライン手書き文字認識装置のシステム構成を示
す図、第4図はセグメンテーシヨン部の機能を示
す図、第5図は文字バツフアの概要を示す図、第
6図は本発明の1実施例の原理を説明するための
図、第7図は従来のセグメンテーシヨンを説明す
る図である。 1…タブレツト、2…原稿用紙、3…スタイラ
ス・ペン、4…入力装置、5…セグメンテーシヨ
ン部、6…認識部、7…デイスプレイ、8…ノイ
ズ除去手段、9…位置決め手段、10…文字枠発
生手段、11…文字バツフア、12…文字領域決
定手段。
FIG. 1 is a perspective view of an example of an input device used in the present invention, FIG. 2 is a diagram showing manuscript paper, FIG. 3 is a diagram showing the system configuration of an online handwritten character recognition device, and FIG. 4 is a diagram showing a segment FIG. 5 is a diagram showing the outline of the character buffer, FIG. 6 is a diagram for explaining the principle of one embodiment of the present invention, and FIG. 7 is a diagram showing the conventional segmentation section. FIG. DESCRIPTION OF SYMBOLS 1...Tablet, 2...Manuscript paper, 3...Stylus/pen, 4...Input device, 5...Segmentation section, 6...Recognition section, 7...Display, 8...Noise removal means, 9...Positioning means, 10...Character Frame generating means, 11...Character buffer, 12...Character area determining means.

Claims (1)

【特許請求の範囲】 1 入力タブレツト上に配置された原稿用紙上の
文字枠に時系列的に記入される文字のストローク
情報と時系列情報とに基づいて文字認識を行うオ
ンライン文字認識装置において、 ストロークの始点と終点を結ぶ線分の中点、ス
トロークの重心又は始点からストロークの延べ距
離の1/2の位置に存在するストローク上の点を代
表点として求め、 上記ストロークの代表点が同一の文字枠に存在
するか否かを、時系列的に入力されるストローク
情報毎に判定し、 ストロークの代表点が同一文字枠内に存在しな
いストローク情報が得られた時点で当該ストロー
ク情報より前のストローク情報を一つの文字認識
対象と判定し、 これによつて、1文字の切り出しを行うことを
特徴とするオンライン手書き文字認識装置におけ
るセグメンテーシヨン方法。
[Scope of Claims] 1. An online character recognition device that performs character recognition based on stroke information and time-series information of characters chronologically written in character frames on a manuscript sheet placed on an input tablet, Find the midpoint of the line segment connecting the start and end points of the stroke, the center of gravity of the stroke, or a point on the stroke that is 1/2 the total distance of the stroke from the start point as the representative point. It is determined whether or not the stroke information exists in the character frame for each piece of stroke information that is input in chronological order, and when stroke information whose representative point does not exist in the same character frame is obtained, the stroke information before the relevant stroke information is determined. A segmentation method in an online handwritten character recognition device, characterized in that stroke information is determined as one character recognition target, and one character is thereby extracted.
JP15948478A 1978-12-20 1978-12-20 Segmentation system for on-line hand-written character recognizer Granted JPS5583970A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15948478A JPS5583970A (en) 1978-12-20 1978-12-20 Segmentation system for on-line hand-written character recognizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15948478A JPS5583970A (en) 1978-12-20 1978-12-20 Segmentation system for on-line hand-written character recognizer

Publications (2)

Publication Number Publication Date
JPS5583970A JPS5583970A (en) 1980-06-24
JPS6161151B2 true JPS6161151B2 (en) 1986-12-24

Family

ID=15694770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15948478A Granted JPS5583970A (en) 1978-12-20 1978-12-20 Segmentation system for on-line hand-written character recognizer

Country Status (1)

Country Link
JP (1) JPS5583970A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6434658A (en) * 1987-07-28 1989-02-06 Daido Steel Co Ltd Automatic grinding device for ingot case
JPH0653344B2 (en) * 1988-10-31 1994-07-20 新日本製鐵株式会社 Deburring equipment for industrial robots

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6048581A (en) * 1983-08-26 1985-03-16 Hitachi Ltd Character separating system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5156139A (en) * 1974-11-13 1976-05-17 Hitachi Ltd Mojomitorisochi niokeru kiridashihoshiki

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5156139A (en) * 1974-11-13 1976-05-17 Hitachi Ltd Mojomitorisochi niokeru kiridashihoshiki

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6434658A (en) * 1987-07-28 1989-02-06 Daido Steel Co Ltd Automatic grinding device for ingot case
JPH0653344B2 (en) * 1988-10-31 1994-07-20 新日本製鐵株式会社 Deburring equipment for industrial robots

Also Published As

Publication number Publication date
JPS5583970A (en) 1980-06-24

Similar Documents

Publication Publication Date Title
JP3974359B2 (en) Online character recognition apparatus and method, computer-readable storage medium, and online character recognition program
US10437466B2 (en) Formula inputting method and apparatus
JP2845149B2 (en) Handwritten character input device and handwritten character input method
US5414228A (en) Handwritten character input device
JP2000112599A (en) Device and method for processing document image
JPS6349264B2 (en)
CN112199015B (en) Intelligent interaction all-in-one machine and writing method and device thereof
JP4686502B2 (en) Online character recognition device
JPS6161151B2 (en)
JP3977473B2 (en) Handwritten character recognition method and handwritten character recognition apparatus
JPH0149998B2 (en)
JP3099925B2 (en) Online character recognition device
JPH0442316A (en) Electronic computer
JPH1049624A (en) Method and device for handwritten character recognition
US20220137712A1 (en) Information processing apparatus, information processing method, and program
JP3454939B2 (en) Character recognition method and character input device
JPS62190565A (en) Device for making fair copy of hand-written pattern
JP2659182B2 (en) Character recognition device
JPH04155596A (en) Handwritten character input device
JPH09237321A (en) Device for recognizing handwritten character
JPS61156383A (en) Input device
JP2000036007A (en) Character recognizing device
JPS6151281A (en) Real time character recognizer
JPH08137995A (en) Correcting method for coordinate information, dictionary registration method and character recognition device
JPS61163481A (en) Hand-written information processor