JPS6129980A - On-line recognizer of hand-written figure - Google Patents

On-line recognizer of hand-written figure

Info

Publication number
JPS6129980A
JPS6129980A JP14951184A JP14951184A JPS6129980A JP S6129980 A JPS6129980 A JP S6129980A JP 14951184 A JP14951184 A JP 14951184A JP 14951184 A JP14951184 A JP 14951184A JP S6129980 A JPS6129980 A JP S6129980A
Authority
JP
Japan
Prior art keywords
line segment
handwritten
recognition device
strokes
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP14951184A
Other languages
Japanese (ja)
Other versions
JPH081660B2 (en
Inventor
Hiroshi Shiyoujima
博 正嶋
Soshiro Kuzunuki
壮四郎 葛貫
Takanori Yokoyama
孝典 横山
Yasushi Fukunaga
泰 福永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP59149511A priority Critical patent/JPH081660B2/en
Publication of JPS6129980A publication Critical patent/JPS6129980A/en
Publication of JPH081660B2 publication Critical patent/JPH081660B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To obtain recognition independent of the number of strokes at the time of inputting a figure by dividing hand-written strokes into plural line segments to recognize them with the aid of features obtained from a straight line for connecting two arbitrary points among plural sampled points of hand-written strokes. CONSTITUTION:When a user draws a hand-written figure on a tablet 100, it samples coordinates of hand-written strokes by a certain period, and transmits coordinate signals to a figure recognizer 200. It fetches the sampled coordinate signals by stroke, and afterward it repeats the recognition processing by stroke. Graphic codes of the recognized result are transmitted to a figure display device 300 together with the size of the inputted figure and a parameter for showing an angle. The figure display device 300 develops graphic codes of the recognized result, etc., in a bit map memory and displays them on a CRT400 by a video signal. Hard copy of the display recognition result can be obtained by a printer 500 with the aid of a bit map signal, and moreover a graphic code signal can be stored in an external memory device 600.

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明は、手書き図形の認識方式に係り、特にオンライ
ン手書き文書作成システムに好適な図形データ入力方式
に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Application of the Invention] The present invention relates to a handwritten figure recognition method, and particularly to a figure data input method suitable for an online handwritten document creation system.

発明に最も近い公知例 0「手書き文字オンライン認識活発に研究進む」日経エ
レクトロニクス1973,5,7  P45P59 0村瀬ら 「候補ラティス法による手書きフローチャートのオンラ
イン認識」 電子通信学会論文誌’84/3 vol、J67−D3
〔発明の背景〕 大型計算機の普及、情報処理端末の高機能化に帰因して
、計算機の利用者層が急速に拡大している。これに伴い
、計算機への入力手段の1つとして、手書き入力装置が
注目されてきた。
Publicly known example closest to the invention 0 "Research is actively progressing on online recognition of handwritten characters" Nikkei Electronics 1973, 5, 7 P45P59 0 Murase et al. "Online recognition of handwritten flowcharts using candidate lattice method" Transactions of the Institute of Electronics and Communication Engineers '84/3 vol. J67-D3
[Background of the Invention] Due to the spread of large computers and the increasing functionality of information processing terminals, the user base of computers is rapidly expanding. Along with this, handwriting input devices have attracted attention as one of input means to computers.

入力される情報は、文字と図形に大別されるが、これら
従来例について次に説明する。
Information to be input is broadly classified into characters and figures, and conventional examples of these will be explained below.

〔従来例1〕 手書き文字オンライン認識一般について伏、日経エレク
トロニクス:1973.5−7号、P46〜P59で紹
介されている。このうち、筆跡を短い線分の列として表
現し、それと辞書の特徴を比較し認識する手法について
述べる。
[Conventional Example 1] Handwritten character online recognition in general is introduced in Nikkei Electronics, No. 1973.5-7, pages 46 to 59. Among these methods, we will describe a method for recognizing handwriting by representing it as a series of short line segments and comparing it with the characteristics of a dictionary.

第11図に、手書き筆跡の平滑化処理を示す。FIG. 11 shows handwritten handwriting smoothing processing.

入力した筆跡をPo=Ps とすると、まずペンをおろ
した点Poを第1サンプル点S1 とし、このSlを中
心に半径5の円を描き、この円外にある次の点P+ を
得る。そしてP。21間を3:1に分割する点を新たな
サンプル点S+ とする。
Assuming that the input handwriting is Po=Ps, first, the point Po where the pen is lowered is set as the first sample point S1, a circle with a radius of 5 is drawn around this S1, and the next point P+ outside this circle is obtained. And P. The point that divides the area between 21 and 21 at a ratio of 3:1 is defined as a new sample point S+.

上記処理をペンが上がるまで続け、サンプル点S+ な
いしS3を得る。このとき線分So  S+ と線分8
1 82の角度が所定値以下ならばサンプル点Soから
82までを一本の線分S。S2とする。
The above process is continued until the pen is raised to obtain sample points S+ to S3. At this time, line segment So S+ and line segment 8
1 If the angle of 82 is less than a predetermined value, one line segment S extends from the sample point So to 82. Let it be S2.

この処理を繰り返し、手書きの筆跡を折れ線(セグメン
ト)で近似する(第12図)。
This process is repeated to approximate handwritten strokes using polygonal lines (segments) (FIG. 12).

筆跡に近似したセグメントデータは、第13図に示すよ
うな文字識別樹木を用いて特定の文字として認識する。
Segment data that approximates handwriting is recognized as a specific character using a character recognition tree as shown in FIG.

この例は、方向コード法と呼ばれる手法で、平滑化処理
でサンプリングした点SoないしS3を次々と継いで筆
跡を複数の線分に分解している。
This example uses a method called the direction code method, in which the points So to S3 sampled in the smoothing process are successively decomposed into a plurality of line segments.

この結果、短い筆跡(例えば漢字等の字画)に対しては
、入力の際の手ぶれが少ないため、その筆跡の線分化に
有効であるが、図形を入力する際の長い筆跡で生じる手
ぶれを吸収するには、不十分である。つまり手ぶれを吸
収する場合には線分化を複数回繰返す必要があった。
As a result, it is effective for line segmentation of short handwriting (for example, strokes of kanji, etc.) because there is less camera shake during input, but it absorbs camera shake that occurs with long handwriting when inputting shapes. It's not enough to do that. In other words, in order to absorb camera shake, it was necessary to repeat line segmentation multiple times.

また、この例では、筆跡数を文字大分類の一要素として
いるため、続は書きに対しては新たな識別手法を案出す
る必要があった。
In addition, in this example, since the number of handwriting is used as an element of character classification, it was necessary to devise a new identification method for writing.

〔従来例2〕 他の従来技術について電子通信学会論文誌′84/3 
 VOn、J67  D A3°接続ルールを導入した
候補ラティス法によるオンライン手書き線図形認識”村
瀬ら(電々公社武蔵野適所)で述べられている図形認識
方式について以下脱晶する。
[Conventional Example 2] Regarding other conventional technologies, Journal of the Institute of Electronics and Communication Engineers '84/3
VOn, J67 D A The figure recognition method described in "Online Handwritten Line Figure Recognition Using Candidate Lattice Method Introducing the A3° Connection Rule" Murase et al. (Electric Corporation Musashino Tekisho) will be explained below.

上記図形認識方式は「候補ラティス法」と呼ぶ。The above figure recognition method is called the "candidate lattice method."

第14図に上記方式のアルゴリズムのフローラ示す。FIG. 14 shows the flowchart of the algorithm of the above method.

〔処理1 候補図形抽出〕 入力ストロークの始終点座標Pを成るシンボルG(全辞
書図形を対象とする)の特徴点と対応付け、シンボルG
の特徴点Pi(i=1・・・n、 n ニシンポルGの
特徴点数)の全てを通過する一筆書きストローク列の組
合わせを複数発生する。この時、上記入力ストローク列
と該発生した一筆書きストローク列が矛盾しなければ、
このシンボルGを候補図形Gcとする。これを”−筆書
きノ(ターンによる候補図形Gcの抽出”と言い、手書
きによる図形の変形を吸収しながら辞書図形の大分類を
行う一方式である。以下、上記−筆書きストロークを候
補ストロークと言う。
[Processing 1 Candidate figure extraction] Correlate the start and end point coordinates P of the input stroke with the feature points of the symbol G (targeting all dictionary figures), and extract the symbol G.
A plurality of combinations of single-stroke stroke sequences that pass through all of the feature points Pi (i=1...n, n number of feature points of Nishinpol G) are generated. At this time, if the input stroke string and the generated single-stroke stroke string do not conflict,
Let this symbol G be a candidate figure Gc. This is called "extraction of candidate shapes Gc by brush strokes" and is a method for broadly classifying dictionary shapes while absorbing the deformation of shapes by handwriting.Hereinafter, the above-mentioned brush strokes will be referred to as candidate strokes. Say.

ただし、本方式では、入力図形が大きく傾いていた場合
たついての上記特徴点とストロークとの一致検出に関し
ては考慮していない。
However, this method does not take into consideration the detection of coincidence between the feature points and strokes when the input figure is significantly tilted.

〔処理2 相違度の計算〕 本候補ラティス法では、特徴点とストローク間のユーク
リッド距離に加え、各特徴点に対応するストローク部分
の接線方向についても評価したダイナミックプログラミ
ング(以下DP)マツチングを採用している。この時、
相違度d2は、d2=min[Σt(xm−x’u(m
))2+(ym Y’u(m))”um=1 +α・h(m、uに)))〕     ・・・・・・ 
(1)ここで、(xm+Ym)は、入力ストロークの座
標系列 (x /(2)+Y’u(ホ)は、候補ストロークの座
標系列 u(m)=  u(1)= 1 :始点11(M)=M
:終点 上記(1)式の右辺()内第1項、第2項は入力ストロ
ーク端点と辞書図形の特徴点とのユークリッド距離を示
し、第3項が特徴点(X’m + Y’m )における
、入力ストロークと候補ストロークの接線方向の差を示
す。
[Process 2 Calculation of dissimilarity] This candidate lattice method uses dynamic programming (DP) matching, which evaluates not only the Euclidean distance between feature points and strokes, but also the tangential direction of the stroke portion corresponding to each feature point. ing. At this time,
The degree of dissimilarity d2 is d2=min[Σt(xm−x'u(m
))2+(ym Y'u(m))"um=1 +α・h(m, u)))] ・・・・・・
(1) Here, (xm + Ym) is the coordinate series of the input stroke (x / (2) + Y'u (e) is the coordinate series of the candidate stroke u (m) = u (1) = 1: starting point 11 ( M)=M
: End point The first and second terms in parentheses on the right side of equation (1) above indicate the Euclidean distance between the input stroke end point and the feature point of the dictionary figure, and the third term is the feature point (X'm + Y'm ) indicates the tangential difference between the input stroke and the candidate stroke.

〔処理3 候補ラティスの採策〕 前記処理1で抽出した図形全てについて前記処理2の相
違度計算を行い、その結果を第15図に示すよう々テー
ブルにする。そこで、最適な図形列として、上記テーブ
ルから考えられる全ての図形列の中より、相違度の和が
最も小さいものを選ぶ。
[Process 3 Measures for candidate lattice] The dissimilarity calculation in Process 2 is performed for all the figures extracted in Process 1, and the results are created in a table as shown in FIG. Therefore, the optimal graphic sequence is selected from among all possible graphic sequences from the above table, the one having the smallest sum of dissimilarities.

以上のような処理1−3を行うことにより、図形の画数
、筆順、セグメンテーションに依存せずに手書き図形を
認識できるが、 ■図形の他の図形との続は書き ■図形の回転 が発生した時の認識手段については考慮されていない。
By performing processing 1-3 above, it is possible to recognize handwritten figures without depending on the number of strokes, stroke order, or segmentation of the figure. No consideration is given to the means of recognizing time.

〔発明の目的〕[Purpose of the invention]

本発明の目的は、フリー−・ンドで書かれた図形全図形
と他の接続線2以上の図形等を続は書きした場合に、図
形のセグメンテーションを自動的に行って認識する方式
を提供することにある。
An object of the present invention is to provide a method for automatically segmenting and recognizing figures when a continuation of all figures drawn in freehand and other figures with two or more connecting lines is drawn. There is a particular thing.

〔発明の概要〕[Summary of the invention]

一般文書でよく用いられる図形(フローチャート図形等
)は、−筆で図形(或いはその一部)と接続線の両方を
描くことがしばしば発生する。
When drawing figures (flowchart figures, etc.) that are often used in general documents, it is often the case that both the figure (or a part thereof) and the connecting line are drawn with a brush.

一方、従来の図形認識方式では一筆で描く範囲は一図形
以内に限られていた。そこで、−図形を超える一筆描き
からの図形部分の切り出しは、本発明で述べるように一
筆描きの一部を取り出す操作を第2図に示すように各筆
跡毎に行い、この各部の組合わせについて認識処理を行
うことにより可能となる。
On the other hand, in conventional figure recognition methods, the range that can be drawn with one stroke is limited to one figure. Therefore, to cut out the figure part from a single stroke that exceeds the figure, as described in the present invention, the operation of extracting a part of the single stroke is performed for each handwriting as shown in Figure 2, and the combination of these parts is This becomes possible by performing recognition processing.

〔発明の実施例〕[Embodiments of the invention]

第1図に、本発明を用いたオンライン手書き図形認識装
置を示す。
FIG. 1 shows an online handwritten figure recognition device using the present invention.

ユーザーはタブレット100上に手書き図形を描く。こ
の時、タブレット100は、一定時間毎に手書き筆跡の
座標をサンプリングし、図形認識装置200に座標信号
を送出する。
The user draws a handwritten figure on the tablet 100. At this time, the tablet 100 samples the coordinates of the handwritten handwriting at regular intervals and sends a coordinate signal to the figure recognition device 200.

図形認識装置200は、−筆描き(ストローク)毎に上
記サンプリングした上記座標信号を耶り込み、以後−簸
描き毎に認識処理を繰返す。認識結果は、入力図形の大
きさ、角度を示すパラメータと共に図形コードが図形表
示装置300へ送られる。
The figure recognition device 200 incorporates the sampled coordinate signals for each stroke, and thereafter repeats the recognition process for each elutriation stroke. As a recognition result, a graphic code is sent to the graphic display device 300 along with parameters indicating the size and angle of the input graphic.

図形表示装置300は、上記認識結果の図形コード等を
ピットマツプメモリに展開し、ビデオ信号によりCRT
400に表示する。CRT400に表示された上記認識
結果は、ビットマツプ信号により上記図形表示装置30
0に接続したプリンタ500により、/・−トコビーを
取ることが可能であり、また図形コード信号を同接続し
た外部記憶装置606に格納することも可能である。
The graphic display device 300 expands the graphic code etc. resulting from the above recognition into a pit map memory, and outputs the graphic code etc. resulting from the above recognition into a pit map memory, and displays it on a CRT using a video signal.
400. The recognition result displayed on the CRT 400 is transmitted to the graphic display device 30 using a bitmap signal.
By using the printer 500 connected to the printer 500, it is possible to take the /...-tocobee, and it is also possible to store the graphic code signal in the external storage device 606 connected to the printer 500.

これら各部の処理は実時間で実行できるため、本装置は
オンライン手書き図形認識装置として機能することがで
きる。
Since the processing of these parts can be executed in real time, this device can function as an online handwritten figure recognition device.

タブレット100から図形を入力する際に、”画数パ筆
順″”回転”区切り”等が制約を受けないこととするた
め、本発明は、図形の構成単位が線分であり、図形の形
状は当該線分の接続順序、再度差で決定されることを前
提として構成されている。
When inputting a figure from the tablet 100, there are no restrictions on the "number of strokes, order of strokes,""rotation," etc., so in the present invention, the constituent unit of a figure is a line segment, and the shape of the figure is It is constructed on the premise that the connection order of line segments is determined again by the difference.

ここで°画数°とはペンダウンからベンアップまでを1
ストロークとみなす際の、1つの図形を書く時に要した
ストローク数、°筆順°とは図形を描く時のストローク
の順序、“回転°とは標準図形に対する入力図形の角度
、°区切り“とは入カス)o−り中の図形に対応する範
囲の指示である。
Here, °number of strokes ° is 1 from pen down to bent up.
When considered as a stroke, the number of strokes required to draw one shape, °stroke order ° is the order of strokes when drawing a shape, “rotation ° is the angle of the input shape with respect to the standard shape, and ° separation” is the input number. This is an indication of the range corresponding to the figure being drilled.

本発明は大別して2つの特徴部分を有する(第2図)。The present invention has two main features (Fig. 2).

即ち、辞書図形とのマツチング処理を行う線分セグメン
ト手段と、入力したストロークの中から図形を切出す一
次元線分ダイナミックプログラム手段である。
That is, a line segment segment means performs a matching process with dictionary figures, and a one-dimensional line segment dynamic program means cuts out figures from input strokes.

線分セグメント手段は、さらにストロークを後述の処理
の基本単位に分割する線分要素化、図形を包むように追
跡してコードリストを生成するコードラツピンク、入力
図形の回転に対して普遍的な角度変化による相違度計算
の3つから成る。
The line segment method further includes line segment segmentation, which divides the stroke into basic units for processing described later, code rat pink, which generates a code list by tracing the shape as if it were wrapped around it, and a universal angle for rotation of the input shape. It consists of three steps: calculating the degree of difference due to change.

この手段により既述の”画数°ないし゛回転″の制約を
緩和しており、一方、−次元線分DP手段で線分要素の
再構成を行い、”区切り”の制約を緩和している。
By this means, the above-mentioned restrictions on "number of strokes or rotation" are relaxed, and on the other hand, line segment elements are reconstructed by the -dimensional line segment DP means, and restrictions on "separation" are relaxed.

(1)処理手順概要 人力された手書図形は図示されるフローに従って処理さ
れる(第2図)。本発明の主たる処理手順について次に
説明する。
(1) Outline of processing procedure Manually drawn handwritten figures are processed according to the illustrated flow (FIG. 2). The main processing procedure of the present invention will be explained next.

■ ストロークの線分要素化 タブレットから入力した手書図形は、各ストロークごと
にサンプル点の集合として定義されなければならない。
■ Converting strokes into line segment elements The handwritten figure input from the tablet must be defined as a set of sample points for each stroke.

このためにサンプル点S+からS2への方向が第3図に
示す方向コードにより量子化され線分の要素化が行われ
る。
For this purpose, the direction from sample point S+ to S2 is quantized using the direction code shown in FIG. 3, and line segments are divided into elements.

■ コードラッピンク 前記■で抽出した線分データの互いの端点間の接続情報
に基づいて、各々に対応する方向コードを並べたコード
リス)L4(第7図)を生成する。
(2) Code wrapping Based on the connection information between the end points of the line segment data extracted in (2) above, a code list L4 (FIG. 7) in which direction codes corresponding to each direction code are arranged is generated.

このとき丁度、入力図形を包むように順に線分データを
たどることになる。
At this time, the line segment data will be traced in order so as to wrap around the input figure.

■ 角度変化による相違度計算 前記ので要素化された辞書図形(線分の数で大分類され
ている)から、前記■でコードリスト(L5とする)を
生成し、前記L4の各隣り合う方向コードの差をL5の
それと比較する(次式)。
■ Calculating the degree of dissimilarity based on angle changes From the dictionary figure (roughly classified by the number of line segments) that has been made into elements as described above, a code list (referred to as L5) is generated in the above ■, and each adjacent direction of the L4 is generated. The code difference is compared with that of L5 (the following equation).

f、は単位相違度を与えることとなる。f, gives the unit dissimilarity.

[1=しL4(i)−1,4(i−1) 1−(L5(
i)−L5 (i−1111但し、’ ”’2+’3+
”’+ n n: L5の線分数・・・・・・ (1) f、の値の平均値を、その手書き図形の相違度Fと定義
する。F=0であれば、入力図形と辞書図形とが一致し
ているとみな哀れる。
[1=ShiL4(i)-1,4(i-1) 1-(L5(
i)-L5 (i-1111However,'”'2+'3+
"'+ n n: Number of line segments in L5... (1) Define the average value of f as the degree of difference F of the handwritten figure. If F = 0, the input figure and the dictionary Everyone is sad when the shapes match.

F値はOないし10の値をとることが多く、入力図形と
各種の辞書図形とから得たF値の最小値を、認識図形に
用いる。
The F value often takes a value of O to 10, and the minimum value of the F value obtained from the input figure and various dictionary figures is used for the recognition figure.

■ 線分要素の再構成 入力図形の中に、図形と接続線との続は書きがあると、
前記の処理ができない。そこで手書きの筆跡を線分要素
化した後、その中から図形に相当する線分要素の組合わ
せを切出す必要がある。この切出し操作は、認識処理全
体のループ回数即ち処理時間に直接影響を与える。この
ため、効率良く切出し操作が行われることが必要となる
■ Reconstruction of line segment elements If there is a continuation between the shape and the connection line in the input shape,
The above process cannot be performed. Therefore, after converting handwritten handwriting into line segment elements, it is necessary to cut out combinations of line segment elements corresponding to figures from among the line segment elements. This extraction operation directly affects the number of loops of the entire recognition process, that is, the processing time. Therefore, it is necessary to perform the cutting operation efficiently.

切出し操作は全ての線分要素の組合わせを行う”総画た
り法“が一般的であるが、1つの図形を切出すまでの操
作回数が多くなりがちであるためここでは手書き図形入
力の特徴に注目した”−次元線分ダイナミック・プログ
ラミング(DP)法2を用いる。この結果、°総当たり
法゛に較べて数分の1から10数分の1の操作回数で図
形の切出しが出来る。切出した線分要素は、前記の認識
処理をくり返す。
The cutting operation is generally performed using the "total drawing method" that combines all line segment elements, but since the number of operations to cut out one figure tends to be large, here we will focus on the characteristics of handwritten figure input. We use the ``-dimensional line segment dynamic programming (DP) method 2 that we focused on.As a result, it is possible to cut out figures with a fraction of the number of operations compared to the ``brute force method.'' The above recognition process is repeated for the line segment elements that have been identified.

(2)処理手順の説明 前記(1)で述べた基本的な図形認識アルゴリズムにつ
いて、以下に例を用いて具体的に説明する。
(2) Description of processing procedure The basic figure recognition algorithm described in (1) above will be specifically explained below using an example.

ストロークの線分要素化(第4図) タブレット100から入力される手書き図形のサンプル
点座標データS1は、ペンダウンからぺ。
Converting Strokes to Line Elements (FIG. 4) The sample point coordinate data S1 of the handwritten figure input from the tablet 100 is input from the pen down.

ンアツプまで(ストローク)を一括して本処理に取込ま
れる。
The entire stroke up to the start-up is included in this process.

同図(a)で示すように手書き筆跡から得たサンプル点
座標データS!の始点S P+oから終点SPnまでを
°未確認領域(UA)’とし、始点S P+。
As shown in figure (a), sample point coordinate data S! obtained from handwritten strokes! The area from the starting point SP+o to the ending point SPn is defined as the unidentified area (UA)', and the starting point SP+.

を“未確認領域開始点(UAS)”、終点SPnを゛未
確認領域終了点(UAE)とする。
is the "unidentified area starting point (UAS)", and the end point SPn is the "unidentified area ending point (UAE)".

次に同EQ (b)に示すように手書き筆跡Sとその始
点、終点を結ぶ直線りにはさまれた領域の面積Aを求め
る。この面積Aは幾何学における台形法等を用いると容
易に得られる。
Next, as shown in EQ (b), the area A of the area sandwiched between the handwritten handwriting S and the straight line connecting its starting point and ending point is determined. This area A can be easily obtained using the trapezoidal method in geometry.

次に算出した面積Aが予め設定したしきい値Athより
小ならば、この手書き筆跡Sを直線りと見なし、線分登
録処理へ移行する。
Next, if the calculated area A is smaller than a preset threshold value Ath, this handwritten handwriting S is regarded as a straight line, and the process moves to line segment registration processing.

同図(C)に示すように上記(8)で面積Aがしきい値
Aihより犬であれば終点を上記UAS点とUAE点の
中点に移動し、再度面積を計算して面積A′を得る。
As shown in the same figure (C), in the above (8), if the area A is smaller than the threshold value Aih, the end point is moved to the midpoint between the UAS point and the UAE point, the area is calculated again, and the area A' get.

ここで再び面積A′としきい値Athの大小関係を調べ
、A’ <Athならば、同図(d)に示すように現終
点を新たなUAS点として直線りを決定し、A′≧A 
t hならば、同図(e)に示すように現終点を新たな
UAE点として面積A“の算出へ移行する。
Here, the magnitude relationship between the area A' and the threshold value Ath is checked again, and if A'< Ath, the current end point is determined as a new UAS point as shown in FIG.
If t h, the current end point is set as a new UAE point and the process moves to calculation of the area A'', as shown in FIG. 4(e).

前記の処理はUAが無くなる時、即ちUAE点=UAS
点となるまで行われる。その後始点から終点を一本の直
線とみな・、線分登録処理へ移行する。
The above process is performed when there is no more UA, that is, when UAE point = UAS
This is done until a point is reached. Thereafter, the process moves to line segment registration processing, regarding the starting point to the ending point as one straight line.

移行すると同時に、終点を始点及びUAS点に手書き筆
跡Sの最終点を終点及びUAE点に再設定する。
At the same time, the end point is reset to the start point and the UAS point, and the final point of the handwritten handwriting S is reset to the end point and the UAE point.

以上の処理で線分(L)と判定された始点、終点の座標
SPj、SPk、各点におけるペンのup/dOWn 
(F)状態8Tj、STk、始点から終点に向う角度θ
Lk等を同図(f)に示すような線分リス)Seg−1
istに登録する。これらの処理は、手書き筆跡Sが全
て登録されるまで続けられる。
Coordinates SPj, SPk of the start point and end point determined to be a line segment (L) through the above processing, up/dOWn of the pen at each point
(F) State 8Tj, STk, angle θ from the start point to the end point
Lk etc. as shown in the same figure (f)) Seg-1
Register on ist. These processes are continued until all handwritten strokes S are registered.

コードラッピンク 本処理を行うには、各線分要素の端点間の接続  ・関
係を知る必要がある。そのため入力図形の正規化と、上
記接続関係リストの作成について説明する。
To perform the code wrapping process, it is necessary to know the connections and relationships between the end points of each line segment element. Therefore, normalization of input graphics and creation of the connection relationship list will be explained.

第5図に入力図形(三角形)の正規化の様子を示す。同
図(a)で示すように、入力図形から得られるX方向又
はX方向の大きい方1tt)  を、正規化サイズ(t
n)に拡大縮小する。従って、同図(b)に示すように
既にて作成した線分リス)Llの始点、終点の値をtn
/lI倍し、正規化線分リストL2を作成する。
FIG. 5 shows how the input figure (triangle) is normalized. As shown in (a) of the same figure, the normalized size (t
n). Therefore, as shown in Figure (b), the values of the starting and ending points of the line segment L
/lI times to create a normalized line segment list L2.

次に線分要素端点間の接続情報の作成を第6図を用いて
説明する。同図(a)は正規化後の入力図形(三角形)
である。同図(b)で示すように上記正規化サイズ(z
n )の10%を線分要素端点間の゛接続許容距離“と
する。そして各線分の端点間の距離が、該接続許容距離
より小さければ、その2つの端点間がつながっていると
みなす。この情報は同図(C)に示す接続リス)L3に
書込まれる。
Next, creation of connection information between line segment element end points will be explained using FIG. 6. Figure (a) shows the input figure (triangle) after normalization.
It is. As shown in Figure (b), the normalized size (z
10% of the line segment element endpoints is set as the "permissible connection distance" between the endpoints of line segment elements.If the distance between the endpoints of each line segment is smaller than the permissible connection distance, the two endpoints are considered to be connected. This information is written to the connection list (L3) shown in FIG.

この例では、線分要素1は、゛始点が線分要素3の始点
と接続している°、”終点は線分要素2の始点と接続し
ている゛という2つの接続情報を持っている。
In this example, line segment element 1 has two pieces of connection information: ``The starting point is connected to the starting point of line segment element 3°,'' and ``The end point is connected to the starting point of line segment element 2.'' .

このようにして作成した線分接続リストL3と、正規化
線分リス)L2を用いてコードラッピンクが行われる様
子を、第7図を用いて説明する。
The manner in which code wrapping is performed using the line segment connection list L3 created in this manner and the normalized line segment list L2 will be described with reference to FIG.

各線分要素を包み込む際の始点は、どの線分要素からで
もかまわないが、ここでは最も左の端点から右回りに線
分要素をたどることとする。
The starting point for wrapping each line segment element may be any line segment element, but here the line segment elements are traced clockwise from the leftmost end point.

■同図(a)で、入力図形を構成する線分要素の中で、
その端点が最も左にあるものを求める。
■In the same figure (a), among the line segment elements that make up the input figure,
Find the one whose endpoint is farthest to the left.

■前記■で求めた端点を新たな始点と考えて、この端点
を含む線分要素と、その端点に接続している他の線分要
素との中から最もX方向を向いた線分要素(図では線分
要素1)を選択し、上記新始点から見た方向コード(−
4,第7図)をコードリストL4に登録する。
■ Considering the end point found in the above ■ as the new starting point, the line segment element that is most oriented in the X direction from among the line segment element that includes this end point and other line segment elements connected to that end point ( In the figure, line segment element 1) is selected, and the direction code (-
4, FIG. 7) is registered in the code list L4.

■線分接続リスト(第6図)力・ら線分要素1の始点は
線分要素3と接続していることが分かるので(b)に示
すようにたどる方向を向いた時の方向コード(=28)
をコードリストL4に登録する。
■Line segment connection list (Fig. 6) Since we can see that the starting point of line segment element 1 is connected to line segment element 3, as shown in (b), the direction code ( =28)
is registered in code list L4.

■以下■と同様にコードリストL4を作成する。■Create code list L4 in the same manner as in ■below.

そして入力した線分要素の中に未だ1回も包み込みに使
用していないものがあれば、■からの処理を繰り返す。
If some of the input line segment elements have not been used for wrapping even once, the process from (2) is repeated.

なければ本処理を終了する。If not, this process ends.

本処理の結果、同図(d)に示すように入力図形に関し
て右回りのコードリス)L4が生成される。
As a result of this processing, a clockwise code list (L4) is generated with respect to the input figure as shown in FIG. 2(d).

角度変化による相違度計算 コードラッピング処理で得たコードリストL4を用いて
、次の手順に従って辞書図形とのマツチング処理を行う
Using the code list L4 obtained in the code wrapping process for calculating the degree of difference based on angle changes, matching process with dictionary figures is performed according to the following procedure.

まずコードリス)L4から次式に示す3つの角度差デー
タを得る。
First, three angular difference data shown in the following equations are obtained from codelith) L4.

θa = L 4 (2) −L 4(1)θb = 
L 4 (8) −L 4 (2)θc = L 4 
(4)  L 4 (8)次に入力図形と辞書図形との
間の相違度計算法を説明する(第8図)。
θa = L 4 (2) −L 4 (1) θb =
L 4 (8) −L 4 (2) θc = L 4
(4) L 4 (8) Next, a method for calculating the degree of difference between the input figure and the dictionary figure will be explained (FIG. 8).

同図(a)に示す入力図形の角度差データθa〜θCと
、辞書図形の角度差データθl〜θ3又はθ1′〜θ3
′とについて、同図(b)に示す対応するデータ間の差
の絶対値の和f1 +  f2 +・・・を求める。こ
の中で同図CG’)IF−示すように、入力図形に対し
f。
The angular difference data θa to θC of the input figure shown in FIG.
′, the sum f1 + f2 + . . . of the absolute values of the differences between the corresponding data shown in FIG. In this figure, CG') IF - As shown, f for the input figure.

値が最小となる辞書図形を求め、これを認識図形(同図
(d))として出力する。
A dictionary figure with the minimum value is found and output as a recognition figure ((d) in the same figure).

この図の例で、 θa=24.  θb−−12.  θc=−12゜θ
、=23.  θ2 =−12,θ3 =−11゜0!
’=20102’−一810.’=−12とすると f+=2.f2=8 となり、このfl +  f2 を線分要素数で平均す
ることにより、 fl 73=0.67、  f2/3=2[7が得られ
、この場合の認@図形は図形Aとなる。
In the example in this figure, θa=24. θb--12. θc=-12°θ
,=23. θ2 = -12, θ3 = -11°0!
'=20102'-1810. If '=-12, then f+=2. f2=8, and by averaging this fl+f2 by the number of line segment elements, fl73=0.67, f2/3=2[7, and the recognized @ figure in this case becomes figure A.

線分要素の再構成 ストロークの線分要素化から前記相違度の計算寸で−(
第2図、線分セグメント手段に対応)に説明した事項は
、複数の手:書き筆跡から図形部分が独立して抽出され
ていることを前提としている。
Reconstruction of line segment elements From converting the stroke into line segment elements, the calculation size of the above-mentioned dissimilarity is -(
The matters explained in FIG. 2 (corresponding to the line segment means) are based on the premise that graphic parts are independently extracted from a plurality of handwritings.

しかし一般には、フローチャート等を手書き入力しよう
とする場合のように、第9図に示すごとく、接続線と図
形とが−続きの筆跡となっていることが頻発する。
However, in general, when inputting a flowchart or the like by hand, it often happens that the connecting line and the figure are continuations of handwriting, as shown in FIG.

そこでダイナミック・プロゲラミンク(DP)手法を応
用した゛−次元線分D−P法°による図形の切出しにつ
いて図を用いながら説明する。
Therefore, cutting out a figure by the ``-dimensional line segment DP method'', which is an application of the dynamic progeraminking (DP) method, will be explained with reference to the drawings.

この図形切出しは、手書き図形を入力する際、その入力
順序は、接続線→図形、図形→接続線、又は接続線→■
形→接続線の3つのいづれかに場合分けされることに着
目して行われる。入力された複数の線分要素の中で、最
先に入力された線分要素と、最後に入力された線分要素
とを取去ることにより、効率良く図形部分を切出すこと
ができる。
When inputting handwritten figures, the input order for this figure cutting is connecting line → figure, figure → connecting line, or connecting line → ■
This is done by focusing on the fact that it can be divided into one of three cases: shape → connecting line. By removing the line segment element input first and the line segment element input last among the plurality of input line segment elements, a graphic portion can be efficiently cut out.

以上の処理について第9図を用いて具体的に説明する。The above processing will be specifically explained using FIG. 9.

同図(a)は、線分要素化後の入力図形を示している。FIG. 4(a) shows the input figure after it has been converted into line segment elements.

この例では線分要素1を取去る必要がある。In this example, line segment element 1 needs to be removed.

同図(b)に、−次元線分DP法による線分要素の再構
成の処理を示す。
FIG. 3B shows the process of reconstructing line segment elements using the -dimensional line segment DP method.

まず最初に線分要素1〜4が本処理に入力される。First, line segment elements 1 to 4 are input to this process.

第1回目の処理では、最後に入力された線分要素のみ増
り去っている。
In the first processing, only the line segment element input last is increased or removed.

第2回目では、最先に入力された線分要素ををり去り、
切出しが成功している。
In the second time, we remove the line segment element that was input first,
Extraction was successful.

第3回目以降の処理では、■収り去られる線分要素数が
2であり、どのような取り去り方をしても図形の切出し
は行われないことが示されている。
In the third and subsequent processes, (1) the number of line segment elements to be removed is 2, indicating that no matter how the removal is performed, the figure will not be cut out.

このように、入力した線分要素の最初と最後から1つ又
は複数の線分要素を取り去って、図形の切出しを効率良
く行っていく。
In this way, one or more line segment elements are removed from the beginning and end of the input line segment elements to efficiently cut out the figure.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、手書き筆跡の複数のサンプル点の任意
の2点を結ぶ直線から得られる特徴奇により、手書き筆
跡を複数の線分に分割し認識するため、 (1)手プレを効果的に吸収し く2)一つの図形を任意の筆跡数で描いた場合でもこの
筆跡を図形の構成単位である線分に分解することにより
、図形入力時の筆跡数に依存せずに認識する ことが可能となり、マンマシン性が従来より向上する効
果がある。
According to the present invention, handwritten handwriting is divided into a plurality of line segments and recognized using features obtained from a straight line connecting any two of a plurality of sample points of handwritten handwriting. 2) Even if one figure is drawn with an arbitrary number of handwritings, by dividing the handwritings into line segments, which are the constituent units of the figure, it is possible to recognize them without depending on the number of handwritings when inputting the figure. This has the effect of improving man-machine performance compared to before.

より詳細には、第10図に示されるように、手書き図形
入力の際の、画数、筆順、回転、区切りの制約が大幅に
緩和される効果を有する。
More specifically, as shown in FIG. 10, this has the effect of significantly relaxing restrictions on the number of strokes, stroke order, rotation, and division when inputting handwritten figures.

例えば同図(1)に示すように、1つの図形を任意回数
のストロークで描いた場合、当該図形を図形の単位であ
る線分要素に分解するため、いわゆる画数の制限がない
For example, as shown in FIG. 1 (1), when one figure is drawn with an arbitrary number of strokes, the figure is decomposed into line segment elements, which are units of the figure, so there is no limit to the number of strokes.

また同図(2)に示すように、1つの図形を任意の部分
から描いた場合、線分要素を°コードラッピング”によ
り右回りに順序づけるため、筆順の制約がなくなる。
Furthermore, as shown in FIG. 2 (2), when one figure is drawn from any part, line segment elements are ordered clockwise by ``code wrapping'', so there are no restrictions on the order of strokes.

図形を傾けて入力した場合、隣合う線分要素の角度差で
相違度を評価するため、入力[図形の回転が制約されな
い(同図(8))。
When a figure is input at an angle, the degree of difference is evaluated based on the angular difference between adjacent line segment elements, so the rotation of the input figure is not restricted ((8) in the same figure).

複数の線分要素から図形部分を切出すことができる(−
次元線分DP法)ので、接続線の付いた図形入力が可能
となり、いわゆる区切りの制約が無くなる。
A figure part can be cut out from multiple line segment elements (-
dimensional line segment DP method), it is possible to input figures with connecting lines, and there are no restrictions on so-called separation.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はオンライン手書き図形認識システムの構成例を
示す図、第2図は木登明の望識手順をテす流れ図、第3
図は方向コードを示す図、第4図は本発明による(面積
法)手書き筆跡の線分要素化の説明図、第5図は図形の
正規化処理の説明図、第6図は接続リストの説明図、第
7図はコードラッピングの説明図、第8図は相違変計算
の説明図、第9図は線分要素の再構成の説明図、第10
図は図形の認識例を示す図、第11図は平滑化を行う従
来例を示す図、第12図は筆跡を折れ線近似する従来例
を示す図、第13図は文字識別樹の例を示す図、第14
図は従来の手書図形認識手順の流れ図、第15図は候補
ラティス方法を用いた従来例の説明図。 100・・・リプレット、200・・・電算機、600
・・・図形辞書。
Figure 1 is a diagram showing an example of the configuration of an online handwritten figure recognition system, Figure 2 is a flowchart of Kitoaki's desired procedure, and Figure 3 is a diagram showing an example of the configuration of an online handwritten figure recognition system.
The figure shows direction codes, Figure 4 is an explanatory diagram of converting handwritten handwriting into line segment elements according to the present invention (area method), Figure 5 is an explanatory diagram of figure normalization processing, and Figure 6 is an illustration of connection list. 7 is an explanatory diagram of code wrapping, FIG. 8 is an explanatory diagram of difference calculation, FIG. 9 is an explanatory diagram of reconfiguration of line segment elements, and 10th
The figure shows an example of figure recognition, Fig. 11 shows a conventional example of smoothing, Fig. 12 shows a conventional example of approximating handwriting with polygonal lines, and Fig. 13 shows an example of a character recognition tree. Figure, 14th
The figure is a flowchart of a conventional handwritten figure recognition procedure, and FIG. 15 is an explanatory diagram of a conventional example using the candidate lattice method. 100...replets, 200...computer, 600
...Graphic dictionary.

Claims (1)

【特許請求の範囲】 1、手書き図形と予め蓄えられた辞書図形との間で類似
度の評価を行い、辞書図形の中に手書き図形と同一と認
識できるものがあれば、その辞書図形を認識結果として
出力し、無ければ次の手書き図形を入力して上記の処理
を繰り返す手書き図形認識装置において、 手書き図形の筆跡の一部又は全部の組合せを前記辞書図
形と比較することとし、 当該組合せは当該筆跡を構成する線分群から選択して成
り、 前記比較は線分数の多い組合せから行うことを特徴とす
るオンライン手書き図形認識装置。 2、特許請求の範囲第1項記載のオンライン手書き図形
認識装置において、 前記線分群が時経列に番号付けられたとき最小又は最大
の当該番号の線分を削除し、残った線分群を前記組合せ
の1つとするオンライン手書き図形認識装置。 3、特許請求の範囲第2項記載のオンライン手書き図形
認識装置において、 前記削除する線分数をn(0≦n<入力線分数、nは整
数)に制限し、 前記削除を前記線分番号から成る数列の両端から交互に
行なうオンライン手書き図形認識装置。 4、特許請求の範囲第2項又は第3項記載のオンライン
手書き図形認識装置において、 前記線分群が所定値以上の角度で接続される線分群(曲
線部と称す)を含むとき、一回で複数の線分を削除する
オンライン手書き図形認識装置。 5、特許請求の範囲第2項又は第3項記載のオンライン
手書き図形認識装置において、 前記線分群が所定値以上の角度で接続される線分群(曲
線部と称す)を含むとき、当該曲線部を一回で削除する
オンライン手書き図形認識装置。
[Claims] 1. Evaluate the degree of similarity between a handwritten figure and a dictionary figure stored in advance, and if there is a dictionary figure among the dictionary figures that can be recognized as the same as the handwritten figure, that dictionary figure is recognized. In a handwritten figure recognition device that outputs the result and repeats the above process by inputting the next handwritten figure if there is no result, the combination of some or all of the handwriting of the handwritten figure is compared with the dictionary figure, and the combination is An online handwritten figure recognition device, characterized in that the handwriting is selected from a group of line segments constituting the handwriting, and the comparison is performed from combinations with a large number of line segments. 2. In the online handwritten figure recognition device according to claim 1, when the line segment groups are numbered in a chronological sequence, the line segment with the minimum or maximum number is deleted, and the remaining line segment group is An online handwritten figure recognition device as one of the combinations. 3. In the online handwritten figure recognition device according to claim 2, the number of line segments to be deleted is limited to n (0≦n<number of input line segments, n is an integer), and the deletion is performed from the line segment number. An online handwritten figure recognition device that performs handwriting alternately from both ends of a sequence of numbers. 4. In the online handwritten figure recognition device according to claim 2 or 3, when the line segment group includes a line segment group (referred to as a curved part) connected at an angle of a predetermined value or more, Online handwritten figure recognition device that deletes multiple line segments. 5. In the online handwritten figure recognition device according to claim 2 or 3, when the line segment group includes a line segment group (referred to as a curved part) connected at an angle of a predetermined value or more, the curved part An online handwritten figure recognition device that deletes in one go.
JP59149511A 1984-07-20 1984-07-20 Online handwritten figure recognition device Expired - Lifetime JPH081660B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59149511A JPH081660B2 (en) 1984-07-20 1984-07-20 Online handwritten figure recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59149511A JPH081660B2 (en) 1984-07-20 1984-07-20 Online handwritten figure recognition device

Publications (2)

Publication Number Publication Date
JPS6129980A true JPS6129980A (en) 1986-02-12
JPH081660B2 JPH081660B2 (en) 1996-01-10

Family

ID=15476736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59149511A Expired - Lifetime JPH081660B2 (en) 1984-07-20 1984-07-20 Online handwritten figure recognition device

Country Status (1)

Country Link
JP (1) JPH081660B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260306A (en) * 2005-03-17 2006-09-28 Ricoh Co Ltd Character input device, program and character input method
JP5342052B1 (en) * 2012-10-17 2013-11-13 株式会社東芝 Electronic apparatus and method
JP2015084215A (en) * 2013-09-17 2015-04-30 ブラザー工業株式会社 Paper medium, and input device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260306A (en) * 2005-03-17 2006-09-28 Ricoh Co Ltd Character input device, program and character input method
JP4648045B2 (en) * 2005-03-17 2011-03-09 株式会社リコー Character input device, program, and character input method
JP5342052B1 (en) * 2012-10-17 2013-11-13 株式会社東芝 Electronic apparatus and method
JP2015084215A (en) * 2013-09-17 2015-04-30 ブラザー工業株式会社 Paper medium, and input device

Also Published As

Publication number Publication date
JPH081660B2 (en) 1996-01-10

Similar Documents

Publication Publication Date Title
US4653107A (en) On-line recognition method and apparatus for a handwritten pattern
US6226403B1 (en) Handwritten character recognition using multi-resolution models
US5410611A (en) Method for identifying word bounding boxes in text
JP2007317022A (en) Handwritten character processor and method for processing handwritten character
Singh et al. Offline script identification from multilingual indic-script documents: a state-of-the-art
Caputo et al. A 3 Cent Recognizer: Simple and Effective Retrieval and Classification of Mid-air Gestures from Single 3D Traces.
US6044174A (en) Method and apparatus for parametric representation of handwritten symbols
WO2015158781A1 (en) Line segmentation method
Dhanikonda et al. An efficient deep learning model with interrelated tagging prototype with segmentation for telugu optical character recognition
Santosh et al. A simple and efficient arrowhead detection technique in biomedical images
Verma et al. Removal of obstacles in Devanagari script for efficient optical character recognition
Jenitta et al. Content based geographic image retrieval using local vector pattern
Xiong et al. Revisiting shortstraw: improving corner finding in sketch-based interfaces
JPS6129980A (en) On-line recognizer of hand-written figure
Elaiwat Holistic word descriptor for lexicon reduction in handwritten arabic documents
Nasiri et al. A new binarization method for high accuracy handwritten digit recognition of slabs in steel companies
Abuzaraida et al. The detection of the suitable reduction value of Douglas-Peucker algorithm in online handwritten recognition systems
Fu Introduction to pattern processing
JPS6128180A (en) On line handwriting diagram recognition device
Kang et al. Handwritten Hangul character recognition with hierarchical stochastic character representation
JP6575116B2 (en) Character recognition device, character recognition processing system, and program
Inuganti et al. Recognition of online handwritten Telugu stroke by detected dominant points using curvature estimation
JP2010092426A (en) Image processing device, image processing method, and program
JP2001092924A (en) Method and device for recognizing pattern
Aiolli et al. ‘A study on the writer identification task for paleographic document analysis

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term