JP3066530B2 - Online handwriting recognition device - Google Patents

Online handwriting recognition device

Info

Publication number
JP3066530B2
JP3066530B2 JP1038202A JP3820289A JP3066530B2 JP 3066530 B2 JP3066530 B2 JP 3066530B2 JP 1038202 A JP1038202 A JP 1038202A JP 3820289 A JP3820289 A JP 3820289A JP 3066530 B2 JP3066530 B2 JP 3066530B2
Authority
JP
Japan
Prior art keywords
feature point
character
identification condition
input
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1038202A
Other languages
Japanese (ja)
Other versions
JPH02217981A (en
Inventor
洋 鎌田
尚久 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP1038202A priority Critical patent/JP3066530B2/en
Publication of JPH02217981A publication Critical patent/JPH02217981A/en
Application granted granted Critical
Publication of JP3066530B2 publication Critical patent/JP3066530B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔概要〕 オンラインによって手書文字データ情報をリアルタイ
ムで取り込んで認識するオンライン文字認識装置に関
し、 認識率の高いオンラインの文字認識を目的とし、 筆順を含む入力文字パターン情報が加わり、該入力文
字パターン情報から特徴点と該特徴点の位置情報とを求
める特徴点抽出手段と、辞書文字の特徴点を記憶する特
徴点辞書手段と、筆順に従って前記入力文字の特徴点
と、前記特徴点辞書手段で記憶する辞書文字の特徴点と
を対応づけて該辞書文字の中から候補文字を求めると共
に該対応付けの際の対応情報を出力する特徴点対応づけ
手段と、前記辞書文字毎に、その辞書文字の特徴点を用
いて規定された同定条件を記憶する同定条件格納手段
と、前記特徴点対応づけ手段で求められる各候補文字に
対して規定された同定条件を前記同定条件格納手段を検
索して求め、前記特徴点抽出手段により求められる入力
文字パターンの特徴点及び該特徴点の位置情報と、前記
特徴点対応づけ手段で得られる前記対応情報とを用い
て、前記同定条件で用いられる候補文字の特徴点に対応
する入力文字の特徴点を求め該求めた該入力文字の特徴
点間の線分を求めることにより該入力文字を前記同定条
件格納手段を検索して求めた同定条件に適用し、該同定
条件を満足するかを判別する同定条件適用手段とよりな
り、前記候補文字を求める処理と前記同定条件適用の処
理とで特徴点の情報を共用しつつ、認識処理を行うよう
に構成する。
DETAILED DESCRIPTION OF THE INVENTION [Overview] An on-line character recognition device that fetches handwritten character data information online and recognizes it in real time. In addition, feature point extraction means for obtaining a feature point and position information of the feature point from the input character pattern information, feature point dictionary means for storing feature points of dictionary characters, feature points of the input character according to the stroke order, Feature point associating means for associating feature points of dictionary characters stored by the feature point dictionary means to obtain candidate characters from the dictionary characters and outputting correspondence information at the time of the association; An identification condition storage means for storing an identification condition defined by using a feature point of the dictionary character, and a candidate character obtained by the feature point association means. The identification condition defined for the input character pattern obtained by searching the identification condition storage means and the characteristic point of the input character pattern and the position information of the characteristic point obtained by the characteristic point extracting means are determined by the characteristic point associating means. Using the obtained correspondence information, the input point is obtained by obtaining a feature point of the input character corresponding to the feature point of the candidate character used in the identification condition and obtaining a line segment between the obtained input character feature points. An identification condition application unit that applies a character to the identification condition obtained by searching the identification condition storage unit and determines whether the identification condition is satisfied, and includes a process of obtaining the candidate character and a process of applying the identification condition. Thus, the recognition process is performed while sharing the information of the feature points.

〔産業上の利用分野〕[Industrial applications]

本発明は文字認識装置に係わり、さらに詳しくはオン
ラインによって手書文字データ情報をリアルタイムで取
り込んで認識するオンライン文字認識装置に関する。
The present invention relates to a character recognition device, and more particularly, to an online character recognition device that captures and recognizes handwritten character data information online in real time.

〔従来の技術〕[Conventional technology]

文字認識装置は、予め書かれている文字を例えばイメ
ージスキャナ等によって読み込み、各文字の特徴点と予
め記憶してある辞書データの特徴点との距離を求め、最
も近い距離の文字を候補文字として決定している。イメ
ージスキャナで読み込み文字を認識する前述の方式は筆
順を得ることができず、その認識率は低いものである。
The character recognition device reads a pre-written character by, for example, an image scanner or the like, obtains a distance between a feature point of each character and a feature point of dictionary data stored in advance, and determines a character having a closest distance as a candidate character. I have decided. In the above-described method of recognizing a read character with an image scanner, the stroke order cannot be obtained, and the recognition rate is low.

一方、イメージスキャナで文字データを入力するので
はなく、例えばタブレット等によって書いた情報を読み
込んで認識するいわゆるオンライン文字認識装置があ
る。このオンライン文字認識装置はキーボード等の入力
機器に比べ、熟練を要しない点で応用範囲が広く需要が
高い装置である。例えば、窓口業務での手書き文字を直
接コンピュータに入力できる手段としての利用は高まっ
ている。このようなオンライン文字認識装置において
は、従来のようなイメージスキャナで読み込んだ場合と
比較し、筆順の情報を得るという特徴を有し、認識率が
前述の認識装置に比べ高くなる。
On the other hand, there is a so-called online character recognition device that recognizes, instead of inputting character data with an image scanner, for example, reading information written by a tablet or the like. This on-line character recognition device has a wide application range and is in high demand in that it requires less skill than input devices such as a keyboard. For example, use as a means for directly inputting handwritten characters into a computer in a window business is increasing. Such an online character recognition device has a feature that stroke order information is obtained as compared with the case where the image data is read by a conventional image scanner, and the recognition rate is higher than that of the above-described recognition device.

近年オンライン文字認識装置の性能は向上してきてい
る。特に続け文字をも認識できる技術が開発され、前述
した窓口での入力における利用が更に実用段階に近づい
た。
In recent years, the performance of online character recognition devices has improved. In particular, a technique has been developed that can recognize continuous characters, and its use in inputting at the above-mentioned window has come closer to the practical stage.

しかしながら、類似した形の文字間の同定の性能は充
分でなく、類似した形の文字の同定についても高い性能
が求められている。
However, the performance of identifying characters having similar shapes is not sufficient, and high performance is also required for identifying characters having similar shapes.

一般的にオンライン文字認識装置は認識候補を出力す
る大分類と認識候補を入力として正しい認識結果を求め
る類似文字詳細同定部から構成される。
In general, an online character recognition device is composed of a large classification that outputs recognition candidates and a detailed similar character identification unit that obtains a correct recognition result by using the recognition candidates as input.

第5図は従来のオンライン文字認識装置の構成図であ
る。パターン入力10は手書き文字をディジタル情報に変
換する装置であり、例えばディジタイザである。このデ
ィジタイザは通常盤面とスタイラスペンからなり、入力
者が盤面をスタイラスペンで書くとそのスタイラスペン
で書いた座標を検出する。この検出結果は入力パターン
格納部11に加わり記憶される。入力パターン格納部11に
格納されたディジタル情報は特徴点抽出部12に加わり、
特徴点抽出部12は格納された入力パターンから文字の特
徴を表わす特徴点を抽出し、入力特徴点格納部13に格納
する。
FIG. 5 is a configuration diagram of a conventional online character recognition device. The pattern input 10 is a device for converting handwritten characters into digital information, for example, a digitizer. This digitizer is usually composed of a board and a stylus pen. When the input person writes the board surface with the stylus pen, the digitizer detects the coordinates written with the stylus pen. This detection result is added to the input pattern storage unit 11 and stored. The digital information stored in the input pattern storage unit 11 is added to the feature point extraction unit 12,
The feature point extracting unit 12 extracts a feature point representing a character feature from the stored input pattern, and stores the feature point in the input feature point storage unit 13.

特徴点辞書部14は辞書文字毎に標準的な文字パターン
である辞書文字の特徴点を記憶している。
The feature point dictionary unit 14 stores feature points of dictionary characters that are standard character patterns for each dictionary character.

特徴点対応づけ部15は入力特徴点格納部13で記憶した
前記特徴点抽出部12の結果と、特徴点辞書部14に格納さ
れた辞書文字の特徴点とを、筆順の順序に従い対応づけ
る。すなわち特徴点抽出部12によって得られた特徴点か
ら特徴点辞書部14に格納されている筆順に対応して、入
力パターンと辞書文字の距離を求める。さらに、特徴点
対応づけ部15は求めた辞書文字との距離の中から小さい
距離を与える辞書文字の文字コードを認識候補のコード
として認識コード格納部16に格納する。
The feature point association unit 15 associates the result of the feature point extraction unit 12 stored in the input feature point storage unit 13 with the feature points of the dictionary characters stored in the feature point dictionary unit 14 in the order of the stroke order. That is, the distance between the input pattern and the dictionary character is obtained from the feature points obtained by the feature point extraction unit 12 in accordance with the stroke order stored in the feature point dictionary unit 14. Further, the feature point associating unit 15 stores, in the recognition code storage unit 16, a character code of a dictionary character that gives a smaller distance from the obtained distance to the dictionary character as a recognition candidate code.

同定条件格納部17には、辞書文字毎にその辞書文字で
あることを同定する条件を記憶している。同定条件適用
部18は認識コード格納部16に格納された認識候補コード
の候補上位のものから同定条件を検索し、入力パターン
格納部11に格納された入力パターンに適用する。そし
て、適用の結果、その同定条件に合格した辞書文字のコ
ードを認識結果格納部19に格納する。
The identification condition storage unit 17 stores, for each dictionary character, a condition for identifying the dictionary character. The identification condition application unit 18 searches for an identification condition from the candidate candidate codes higher in the recognition candidate code stored in the recognition code storage unit 16 and applies the identification condition to the input pattern stored in the input pattern storage unit 11. Then, as a result of the application, the code of the dictionary character that has passed the identification condition is stored in the recognition result storage unit 19.

前述の特徴点対応づけ部15は画から対応づけるもので
あるが、その対応づけによっては誤って対応づけする場
合がある。第6図は対応づいた入力文字と辞書文字との
従来の同定条件図表である。入力文字が「2」であり、
特徴点対応づけ部15によって特徴点辞書部14内の文字
「Z」を対応づけている。
The above-mentioned feature point associating unit 15 is for associating from an image, but may be erroneously associated depending on the association. FIG. 6 is a conventional identification condition chart for input characters and dictionary characters corresponding to each other. The input character is "2",
The character “Z” in the feature point dictionary unit 14 is associated with the feature point association unit 15.

このような時に同定条件格納部17には例えば「Z」の
「第1画面の書き始めの部分は上に凸の曲がりがない」
という条件を有しており、同定条件適用部18によって辞
書文字「Z」が入力文字の候補でないと確定する。ま
た、同様に入力文字が「3」であった場合、辞書文字の
「5」を候補文字とするならば、「5」は「2画以上で
ある」という条件より辞書文字の「5」を候補文字から
外す。
In such a case, the identification condition storage unit 17 stores, for example, "Z""the beginning of writing on the first screen has no upwardly curved portion."
And the identification condition applying unit 18 determines that the dictionary character “Z” is not a candidate for the input character. Similarly, if the input character is “3” and the dictionary character “5” is a candidate character, the dictionary character “5” is replaced by the condition that “5” is “two or more strokes”. Remove from candidate characters.

またカタカナの「オ」を「才」と誤った場合には
「才」の同定条件「2画目と3画目には一定以上の交わ
りがある」から候補を誤ったとしている。又、さらには
「漢」を「漠」に対応づけした場合、「漢」の「9画目
と12画目には交わりがない」という同定条件より対応づ
けが誤りであることを検出している。
If the katakana "o" is mistaken for "age", it is determined that the candidate is incorrect because of the identification condition of "age""the second and third strokes have a certain degree of intersection". In addition, when "Kan" is associated with "Vague", it is detected that the association is incorrect from the identification condition of "Kan" that "the 9th and 12th strokes do not intersect". I have.

オンライン手書き文字認識の場合においては、上述の
ような画や筆順さらには画の交わる条件等からその候補
文字が正しいか否かを判別することができる。このた
め、イメージスキャナ等で読み出した認識に比べはるか
に高い認識率を得ている。
In the case of online handwritten character recognition, it is possible to determine whether or not the candidate character is correct from the above-described strokes, stroke order, and the conditions where the strokes intersect. For this reason, a recognition rate much higher than the recognition read by an image scanner or the like is obtained.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

前述したようなオンライン手書き文字認識装置におい
ては、リアルタイムで手書きの情報を取り込むことがで
き、このリアルタイムの取り込みによってどのような筆
順で書いたかをも認識することができるので、その認識
率は高くなっている。しかしながら、オンライン手書き
文字入力の場合においては常に入力者が同定条件に合致
する入力をするとは限らず、続けてしまった文字すなわ
ち続け文字を入力してしまうことがある。
In the online handwritten character recognition device as described above, handwritten information can be captured in real time, and it is possible to recognize the writing order in this real time capture, so that the recognition rate is high. ing. However, in the case of online handwritten character input, the input person does not always input consistently with the identification condition, and may input a continued character, that is, a continuous character.

第7図は、前述の同定条件では同定できない入力文字
図表である。「3」を入力する時、「3」の上部と下部
との間を一度筆をあげて書いたような場合、入力文字は
2画となり「5」の同定条件にも合格してしまう。ま
た、「オ」を続けて書いたすなわち1画と2画を続けて
書いたような場合には、3画目がないことになり、
「才」の同定条件が適用できない。同様に漢字の「漢」
をサンズイの部分を続けて、さらにその後の一部をも続
けたような場合には12画目がなくなってしまい、「漢」
の同定条件が適用できない。
FIG. 7 is an input character chart that cannot be identified under the aforementioned identification conditions. When inputting “3”, if the user once writes between the upper and lower parts of “3” with a brush, the input characters will be two strokes and will pass the identification condition of “5”. Also, if you wrote "o" continuously, that is, you wrote one and two strokes continuously, there would be no third stroke,
The condition for identifying "age" cannot be applied. Similarly, the kanji "kan"
If you continue the part of Sanzui and continue the part after that, the 12th stroke will be lost,
Identification conditions cannot be applied.

前述したような条件により入力者は漢字を続けて書い
ても同一漢字としているが、認識装置はそれが続けられ
たことによって画数が変化し、認識が狂ってしまう。
Under the above-described conditions, the input person writes the kanji continuously, but the same kanji is used. However, the recognition device changes the number of strokes due to the continuation of the kanji, and the recognition becomes confused.

すなわち従来の認識装置における類似文字同定では、
入力文字の筆順に対して直接同定条件を適用している。
このため、画の接続特徴、交差特徴、曲がり特徴等の文
字の特徴を条件として抽出するには、基準となる点を入
力パターンから求めることが必要となる。しかしなが
ら、続け文字も含む文字の同定を行うには、同定条件を
与える箇所を何画目という指定で行えない。さらに、入
力データから始めから基準点を求める手続きを同定条件
に付与すると、条件を記憶するメモリ等の記憶容量が多
くなるとともに条件を適用する時間が長いという問題を
有している。
That is, in the similar character identification in the conventional recognition device,
The identification conditions are directly applied to the stroke order of the input characters.
For this reason, in order to extract a character feature such as a connection feature, an intersection feature, and a curved feature of an image as a condition, it is necessary to obtain a reference point from the input pattern. However, in order to identify a character including a continuous character, it is not possible to specify a location where an identification condition is given by specifying the number of strokes. Further, if a procedure for obtaining a reference point from the input data is added to the identification condition, there is a problem that the storage capacity of a memory for storing the condition is increased and the time for applying the condition is long.

第6図における「2」に対する同定では1画目の書き
始めの部分を求める処理が必要であり、さらに「3」や
「漢」の様な例の場合については標準的な画数でない文
字について対処できない。また、標準的な画数でない文
字の書き方について1つずつ同定条件を格納することも
考えられるが、標準的な画数でない文字の書き方は多く
あり、現実には実施できない。
In the identification of "2" in FIG. 6, it is necessary to perform a process of obtaining the writing start part of the first stroke, and in the case of an example such as "3" or "Kan", a character other than the standard stroke number is dealt with. Can not. Further, it is conceivable to store the identification condition one by one for the method of writing a character having a non-standard stroke number. However, there are many methods of writing a character having a non-standard stroke number, and this is not practical.

本発明は認識率の高いオンラインの文字認識を目的と
する。
The present invention aims at online character recognition with a high recognition rate.

〔課題を解決するための手段〕[Means for solving the problem]

第1図は本発明の機能ブロック図である。 FIG. 1 is a functional block diagram of the present invention.

特徴点抽出手段1は筆順を含む入力文字パターン情報
が加わり、該入力文字パターン情報から特徴点と該特徴
点の位置情報とを求める。この入力文字パターン情報は
筆順と文字パターンを有する文字情報である。
The feature point extracting means 1 adds input character pattern information including the stroke order, and obtains a feature point and position information of the feature point from the input character pattern information. This input character pattern information is character information having a stroke order and a character pattern.

特徴点辞書手段2は辞書文字の特徴点を記憶する。 The feature point dictionary means 2 stores feature points of dictionary characters.

特徴点対応づけ手段3は筆順に従って前記入力文字の
特徴点と、前記特徴点辞書手段2で記憶する辞書文字の
特徴点とを対応づけて該辞書文字の中から候補文字を求
めると共に該対応付けの際の対応情報を出力する。
The feature point associating means 3 associates the feature points of the input character with the feature points of the dictionary characters stored in the feature point dictionary means 2 according to the stroke order, obtains candidate characters from the dictionary characters, and performs the association. The corresponding information at the time of is output.

同定条件格納手段4は前記辞書文字毎に、その辞書文
字の特徴点を用いて規定された同定条件を記憶する。
The identification condition storage means 4 stores, for each dictionary character, an identification condition defined by using the characteristic points of the dictionary character.

同定条件適用手段5は前記特徴点対応づけ手段3で求
められる各候補文字に対して規定された同定条件を前記
同定条件格納手段4を検索して求め、前記特徴点抽出手
段1により求められる入力文字パターンの特徴点及び該
特徴点の位置情報と、前記特徴点対応づけ手段3で得ら
れる前記対応情報とを用いて、前記同定条件で用いられ
る候補文字の特徴点に対応する入力文字の特徴点を求め
該求めた該入力文字の特徴点間の線分を求めることによ
り該入力文字を前記同定条件格納手段4を検索して求め
た同定条件に適用し、該同定条件を満足するかを判別す
る。
The identification condition application unit 5 searches the identification condition storage unit 4 for an identification condition defined for each candidate character obtained by the feature point association unit 3, and determines an input condition obtained by the feature point extraction unit 1. Using the feature points of the character pattern and the position information of the feature points and the correspondence information obtained by the feature point associating means 3, the feature of the input character corresponding to the feature point of the candidate character used in the identification condition By finding a point and finding a line segment between the feature points of the input character thus obtained, the input character is applied to the identification condition obtained by searching the identification condition storage means 4, and it is determined whether the identification condition is satisfied. Determine.

すなわち、前記候補文字を求める処理と前記同定条件
適用の処理とで特徴点の情報を共用しつつ、認識処理を
行うように構成する。
That is, the recognition process is performed while the feature point information is shared between the process of obtaining the candidate character and the process of applying the identification condition.

〔作用〕[Action]

入力パターン情報が加わると、特徴点抽出手段1はそ
の筆順を含む入力文字パターン情報から特徴点とその特
徴点の位置情報を求める。そして、特徴点対応づけ手段
3は特徴点抽出手段1で求めた特徴点と特徴点辞書手段
2で記憶する辞書文字の特徴点とを対応づけ、対応情報
を求めるとともに対応づけ認識結果の候補文字を求め
る。この特徴点対応づけ手段3によって候補文字が求め
られる。同定条件適用手段5は特徴点対応づけ手段3で
得られた候補文字から同定条件格納手段4を検索して同
定条件を求めるとともに、特徴点抽出手段1により求め
られる入力文字パターンの特徴点及び該特徴点の位置情
報と、特徴点対応づけ手段3で得られる対応情報とを用
いて、同定条件で用いられる候補文字の特徴点に対応す
る入力文字の特徴点を求め該求めた該入力文字の特徴点
間のパターン(パターンの部分;例えば線分など)を求
めることにより該入力文字を同定条件格納手段4を検索
して求めた同定条件に適用し、該同定条件を満足するか
を判別する。
When the input pattern information is added, the feature point extracting means 1 obtains a feature point and position information of the feature point from the input character pattern information including the stroke order. The feature point associating means 3 associates the feature points obtained by the feature point extracting means 1 with the feature points of the dictionary characters stored in the feature point dictionary means 2 to obtain correspondence information and to provide candidate characters of the association recognition result. Ask for. Candidate characters are obtained by the feature point association means 3. The identification condition application unit 5 searches the identification condition storage unit 4 from the candidate characters obtained by the feature point association unit 3 to determine the identification condition, and also determines the characteristic points of the input character pattern determined by the characteristic point extraction unit 1 Using the position information of the feature points and the correspondence information obtained by the feature point associating means 3, a feature point of the input character corresponding to the feature point of the candidate character used in the identification condition is obtained. By obtaining a pattern (part of a pattern; for example, a line segment) between feature points, the input character is applied to the identification condition obtained by searching the identification condition storage means 4, and it is determined whether or not the identification condition is satisfied. .

同定条件は画数ではなく、特徴点位置の関係によって
同定条件を満足するか否かを判別しているので、続け文
字が存在しても的確に入力文字を判別することができ
る。
Since the identification condition is determined not by the number of strokes but by the relationship of the feature point position, whether or not the identification condition is satisfied is determined. Therefore, even if there are consecutive characters, the input character can be accurately determined.

〔実施例〕〔Example〕

以下、図面を用いて本発明を詳細に説明する。 Hereinafter, the present invention will be described in detail with reference to the drawings.

第2図は、実施例のオンライン文字認識装置の構成図
である。
FIG. 2 is a configuration diagram of the online character recognition device of the embodiment.

パターン入力部20は例えばデジタイザであり、入力者
がタブレット上をスタイラスペンで入力文字を書いた場
合、そのペンが移動した座標を読み込み、入力パターン
格納部21はその入力情報を記憶する。この入力情報はス
タイラスペンで書いた筆順で記憶される。すなわち、こ
の入力パターン情報は筆順をも含む情報である。
The pattern input unit 20 is, for example, a digitizer. When an input person writes an input character on a tablet with a stylus pen, the coordinates at which the pen has moved are read, and the input pattern storage unit 21 stores the input information. This input information is stored in the stroke order written with the stylus pen. That is, the input pattern information is information including the stroke order.

入力パターン格納部21に格納した入力パターン情報を
特徴点抽出部22は読み出し、その入力パターン情報から
文字の特徴を表わす特徴点を抽出し、入力特徴点格納部
23に格納する。この入力特徴点格納部23に格納される特
徴点の情報は、少なくとも特徴点のタブレット等上にお
ける(X,Y)座標データと、その他、従来より大分類処
理に使用されていた各種情報である。また、更にその特
徴点の入力パターン情報における位置(特徴点の位置情
報)を特徴点位置格納部24に格納する。この特徴点の位
置情報は、後述するように、同定処理において特徴点の
対応データにより辞書文字の特徴点に対応する入力文字
の特徴点を求めた後、さらに、この入力文字の特徴点に
対する入力文字パターン上の点(この特徴点が元々入力
文字パターン上のどの点であったのか;入力文字パター
ン上での特徴点の位置)を求めるためのデータである。
そして、入力特徴点格納部23に格納された入力特徴点の
情報を特徴点対応づけ部25は読み出すと共に、特徴点辞
書部26に記載する辞書文字の特徴点の対応づけを行い、
対応づけの距離の少ない候補文字、例えば最も少ない文
字から3文字の候補文字を抽出する。そして、抽出した
結果を認識候補コード格納部27に加え、またその特徴点
対応づけした対応データを特徴点対応データ格納部28に
格納する。
The feature point extraction unit 22 reads out the input pattern information stored in the input pattern storage unit 21 and extracts feature points representing the features of the character from the input pattern information.
Store in 23. The information on the feature points stored in the input feature point storage unit 23 is at least (X, Y) coordinate data of the feature points on a tablet or the like, and other various information conventionally used in the large classification process. . Further, the position of the feature point in the input pattern information (position information of the feature point) is stored in the feature point position storage unit 24. As will be described later, the position information of the feature point is obtained by obtaining the feature point of the input character corresponding to the feature point of the dictionary character by the corresponding data of the feature point in the identification processing, and further inputting the feature point of the input character. This is data for obtaining a point on the character pattern (which point on the input character pattern this characteristic point was originally; the position of the characteristic point on the input character pattern).
Then, the feature point associating unit 25 reads the information of the input feature points stored in the input feature point storage unit 23, and associates the feature points of the dictionary characters described in the feature point dictionary unit 26,
Candidate characters having a short correspondence distance, for example, three candidate characters are extracted from the smallest characters. Then, the extracted result is added to the recognition candidate code storage unit 27, and the corresponding data associated with the feature points is stored in the feature point corresponding data storage unit 28.

認識候補コード格納部27に格納する候補コードとは、
1つの文字に対し割り当てられたコードであり、各文字
単位でそのコードは異なっている。
The candidate code stored in the recognition candidate code storage unit 27 is
This is a code assigned to one character, and the code is different for each character.

同定条件適用部29には入力パターン格納部21、入力特
徴点格納部23、特徴点位置格納部24、特徴点対応データ
格納部28、認識コード格納部27の出力が加わっており、
これらの各格納部21、23、24、27、28に格納した情報と
同定条件格納部30で記憶する同定条件を用いて記載され
た辞書文字の特徴点に対応している入力文字の特徴点を
読み出して同定条件が満足しているか否かを判別する。
すなわち、同定条件適用部29は同定条件格納部30で記憶
する同定条件を読み出し、その同定条件で使用される辞
書文字の特徴点に対応している入力文字の特徴点を、前
記特徴点データ格納部28に格納した入力文字の特徴点と
辞書文字の特徴点の対応データから求める。さらに、特
徴点位置格納部24に格納したデータにより前記入力文字
の特徴点に対する入力文字パターン上の点を求める。そ
して、同定条件を入力パターンとその特徴点に適用す
る。以上のことは、換言するならば、例えば第3図に示
すような同定条件の中の例えば「特徴点A、Bの間のパ
ターンの部分」という条件を適用するためには、特徴点
の対応データを用いて入力文字の特徴点を求めた後、更
に、特徴点の入力文字パターン上における点(位置)を
求めて、この位置の間の入力文字パターン情報(すなわ
ちパターンの部分)を得る必要があり、その為に特徴点
位置格納部24に格納したデータ(特徴点の位置情報)を
用いる必要があるということである。
The output of the input pattern storage unit 21, the input feature point storage unit 23, the feature point position storage unit 24, the feature point corresponding data storage unit 28, and the output of the recognition code storage unit 27 are added to the identification condition application unit 29,
The feature points of the input characters corresponding to the feature points of the dictionary characters described using the information stored in these storage units 21, 23, 24, 27, and 28 and the identification conditions stored in the identification condition storage unit 30 Is read to determine whether or not the identification condition is satisfied.
That is, the identification condition application unit 29 reads the identification conditions stored in the identification condition storage unit 30, and stores the characteristic points of the input character corresponding to the characteristic points of the dictionary characters used in the identification conditions in the characteristic point data storage. It is obtained from the correspondence data between the characteristic points of the input characters and the characteristic points of the dictionary characters stored in the section 28. Further, a point on the input character pattern for the characteristic point of the input character is obtained from the data stored in the characteristic point position storage unit 24. Then, the identification condition is applied to the input pattern and its characteristic points. In other words, in order to apply, for example, the condition “pattern portion between feature points A and B” in the identification condition as shown in FIG. After obtaining the characteristic points of the input character using the data, it is necessary to obtain the points (positions) of the characteristic points on the input character pattern and obtain the input character pattern information (that is, the pattern portion) between the positions. This means that it is necessary to use the data (position information of the feature points) stored in the feature point position storage unit 24 for that purpose.

すなわち、求めた同定条件を候補文字は満足している
かを判断し、この同定条件を満足する候補文字を認識結
果とする。尚、複数の候補文字がそれぞれ同定条件を満
足した場合には、各特徴点間の距離の少ないものを認識
結果とする。
That is, it is determined whether or not the candidate character satisfies the obtained identification condition, and the candidate character that satisfies the identification condition is determined as a recognition result. When a plurality of candidate characters satisfy the identification condition, a recognition result having a small distance between feature points is used.

第5図に示した従来の技術と比べ、特徴点抽出部22は
入力特徴点格納部23に入力特徴点を格納する他に、特徴
点位置格納部24にその特徴点位置情報を格納する。ま
た、特徴点対応づけ部25は認識コード格納部27に認識候
補コードを格納すると共に特徴点データ対応格納部28に
特徴点対応データを格納する。
Compared with the conventional technique shown in FIG. 5, the feature point extracting unit 22 stores the input feature points in the input feature point storage unit 23 and also stores the feature point position information in the feature point position storage unit 24. The feature point associating unit 25 stores the recognition candidate code in the recognition code storage unit 27 and stores the feature point corresponding data in the feature point data correspondence storage unit 28.

前述した従来の方式においては、この特徴点位置と特
徴点対応データを用いないで、同定条件適用部18が同定
条件を判別しているが、本発明の実施例においては特徴
点位置格納位置と特徴点対応データとを用いて判別を行
っているので、続け文字に対する誤判別を防止すること
ができる。すなわち、従来においては、画数に対応して
同定条件を用い判別しているが、本発明の実施例におい
ては複数の特徴点を筆順に設けその特徴点から先ず特徴
点辞書部26を検索し候補文字を求めている。そして、同
定条件適用部29では同定条件で指示されている箇所を特
徴点位置格納部24や入力パターン格納部21、更には特徴
点対応データ格納部28に記憶する各情報から同定条件を
満足しているかを求めている。
In the above-described conventional method, the identification condition applying unit 18 determines the identification condition without using the feature point position and the feature point correspondence data, but in the embodiment of the present invention, the feature point position storage position and the Since the discrimination is performed using the feature point correspondence data, it is possible to prevent erroneous discrimination with respect to successive characters. That is, in the related art, the identification condition is used in correspondence with the number of strokes. Seeking letters. Then, the identification condition application unit 29 satisfies the identification condition from the information stored in the feature point position storage unit 24, the input pattern storage unit 21, and further the feature point correspondence data storage unit 28 at the location designated by the identification condition. Seeking what you are.

尚、この結果は認識結果格納部31に格納される。 Note that this result is stored in the recognition result storage unit 31.

第3図は特徴点の対応と実施例における同定条件図表
である。入力文字が「2」であった場合、その候補文字
を「Z」とした時には「Z」の同定条件から〔「Z」の
特徴点である上部に設けられた特徴点A,Bに対応づいた
入力文字の特徴点A,Bの間のパターンの部分が上に凸の
曲がりがない〕を得る。この曲がりがないという同定条
件によって入力文字が「Z」ではないことを判別するこ
とができる。尚、第3図には、同定条件に用いられる特
徴点、すなわち特徴点の一部が示してあり、同図に示す
ように文字パターン上において例えば各線分の始点、終
点、屈曲点等が特徴点となっている。
FIG. 3 is a table showing correspondence between feature points and identification conditions in the embodiment. When the input character is “2” and the candidate character is “Z”, the candidate character is determined based on the identification condition of “Z” [corresponding to the characteristic points A and B provided at the upper part which is the characteristic point of “Z”. The pattern part between the characteristic points A and B of the input character does not have a convex upward bend]. It can be determined that the input character is not “Z” by the identification condition that there is no bending. FIG. 3 shows a feature point used for the identification condition, that is, a part of the feature point. As shown in FIG. 3, for example, a start point, an end point, a bending point, and the like of each line segment are characterized on the character pattern. Points.

従来においては、「Z」の1画目の書き始めの部分を
求める処理を必要とするが、実施例においては特徴点A,
Bの対応づけに関してのみ凸の曲がりを求めるだけでよ
い。
Conventionally, it is necessary to perform a process of obtaining a writing start portion of the first stroke of “Z”, but in the embodiment, the feature points A,
It is only necessary to find a convex bend for the association of B.

また、第6図における「3」、「オ」、「漢」の入力
文字を第7図のように入力した場合、候補文字である
「5」、「才」、「漠」の同定条件から同定条件に合格
したり、適用できなかったりすることが従来あったが、
第3図に示すように、入力文字が「3」であるならば、
〔「5」の特徴点A,Bに対応づいた入力文字の特徴点A,B
は別の画の上にある〕ことから辞書文字の「5」が認識
結果でないと判別することができる。また、入力「オ」
の場合には〔辞書文字「才」の特徴点A,B,C,Dに対応づ
いた入力文字の特徴点A,B,C,Dに関して線分A,B,C,Dには
一定以上の交差がある〕とし、これによって「才」の第
1画、第2画目が続けられて書かれたとしてもこの文字
が「才」でないことを明確に判別することができる。ま
た、「漢」のサンズイの部分並びに8〜10画を続けて書
いた場合には、従来の同定条件では9画と12画目には交
わりがないとして「漠」の同定条件を満足してしまって
誤認識するが、実施例における同定条件では〔辞書文字
「漠」の特徴点A,B,C,Dに対応づいた入力文字の特徴点
A,B,C,Dに関して線分A,B,C,Dは交差しない〕から「漠」
の認識結果ではないことがわかる。「漠」のA,Bは9画
の線分を表わし、C,Dは12画を表している。本発明にお
いてはこの線分を画で表わすのではなく、特徴点抽出に
よって得られた特徴点の線分によって表わしているので
同定条件によって的確に候補文字が正しいかを判別する
ことができる。
In addition, when the input characters “3”, “O”, and “Kan” in FIG. 6 are input as shown in FIG. 7, the identification conditions of the candidate characters “5”, “age”, and “vague” Previously, the identification conditions passed or could not be applied,
As shown in FIG. 3, if the input character is "3",
[Feature points A and B of the input character corresponding to feature points A and B of "5"
Is on another image], it can be determined that the dictionary character “5” is not a recognition result. Also, input "O"
In the case of, the line segment A, B, C, D for the characteristic points A, B, C, D of the input character corresponding to the characteristic points A, B, C, D of the dictionary character Thus, even if the first stroke and the second stroke of “sai” are written continuously, it can be clearly determined that this character is not “given”. In addition, when the Sanzui part of "Han" and 8 to 10 strokes are written in succession, the 9th and 12th strokes do not intersect under the conventional identification conditions, and the identification condition of "Vague" is satisfied. However, the identification condition in the embodiment is the same as that of the input character corresponding to the characteristic points A, B, C and D of the dictionary character
Line segments A, B, C, D do not intersect for A, B, C, D)
It can be seen that the result is not the recognition result. “A” and “B” of “vague” represent line segments of 9 strokes, and “C” and “D” represent 12 strokes. In the present invention, this line segment is not represented by an image, but is represented by a line segment of a feature point obtained by feature point extraction. Therefore, it is possible to accurately determine whether a candidate character is correct based on an identification condition.

第4図は同定条件適用部の構成図である。同定条件適
用部29は同定条件検索部291、入力文字条件作成部292、
入力条件格納部293、判定部294より成る。
FIG. 4 is a configuration diagram of an identification condition application unit. The identification condition application unit 29 includes an identification condition search unit 291, an input character condition creation unit 292,
It comprises an input condition storage unit 293 and a judgment unit 294.

同定条件検索部291は、認識候補コード格納部27から
認識候補コードを順に1ずつ読む。読んだ認識候補コー
ドを同定文字とする同定条件を同定条件格納部30におい
て検索して読み出し、入力文字条件作成部292に出力す
る。
The identification condition search unit 291 reads the recognition candidate codes one by one from the recognition candidate code storage unit 27 in order. An identification condition using the read recognition candidate code as an identification character is searched for and read in the identification condition storage unit 30, and is output to the input character condition creation unit 292.

入力文字条件作成部292は、辞書文字について記述さ
れた同定条件を、特徴点対応データ格納部28と特徴点位
置格納部24に格納したデータを用いて、入力文字につい
て記述した同定条件に変換し、入力条件格納部293に格
納する。このとき、判定部294は、入力条件格納部293に
格納された該条件を、入力特徴点格納部23に格納された
入力特徴点データと、入力パターン格納部21に格納され
たデータを用いて入力文字に適用する。
The input character condition creating unit 292 converts the identification condition described for the dictionary character into the identification condition described for the input character using the data stored in the feature point corresponding data storage unit 28 and the feature point position storage unit 24. Are stored in the input condition storage unit 293. At this time, the determination unit 294 determines the condition stored in the input condition storage unit 293 using the input feature point data stored in the input feature point storage unit 23 and the data stored in the input pattern storage unit 21. Apply to input characters.

同定条件に合格した場合は、認識候補コードを認識結
果格納部31に格納する。そうでない場合は、次の候補コ
ードを27から順次上記動作を繰り返す。
If the identification condition is passed, the recognition candidate code is stored in the recognition result storage unit 31. If not, the above operation is repeated for the next candidate code starting from 27.

以上述べたように、本発明は順次書き込まれた筆順か
ら特徴点を抽出し、その特徴点における同定条件を用い
て判別しているので続き文字が発生しても、誤ることな
く的確に目的の文字を判別することができる。
As described above, according to the present invention, feature points are extracted from the stroke order written sequentially, and are determined using the identification conditions at the feature points. Characters can be identified.

〔発明の効果〕〔The invention's effect〕

以上述べたように本発明によれば、続け文字であって
も的確に文字の同定をも可能とし、同定条件の必要記憶
容量もこれによって小さくなり、更に実行時間も短くな
るという効果を奏する。
As described above, according to the present invention, it is possible to accurately identify a character even if it is a continuous character, thereby reducing the required storage capacity of the identification condition and shortening the execution time.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明の機能ブロック図、 第2図は実施例のオンライン文字認識装置の構成図、 第3図は特徴点の対応と一実施例における同定条件図
表、 第4図は同定条件適用部の構成図、 第5図は従来のオンライン文字認識装置の構成図、 第6図は対応づいた入力文字と辞書文字と従来の同定条
件図表、 第7図は同定条件では同定ができない入力文字図表であ
る。 1……特徴点抽出手段、 2……特徴点辞書手段、 3……特徴点対応づけ手段、 4……同定条件格納手段、 5……同定条件適用手段.
FIG. 1 is a functional block diagram of the present invention, FIG. 2 is a configuration diagram of an online character recognition device of an embodiment, FIG. 3 is a correspondence table of feature points and a table of identification conditions in one embodiment, and FIG. 5 is a block diagram of a conventional on-line character recognition device, FIG. 6 is a table of corresponding input characters and dictionary characters and a conventional identification condition table, and FIG. 7 is an input character that cannot be identified by the identification conditions. It is a chart. 1. Feature point extracting means 2. Feature point dictionary means 3. Feature point associating means 4. Identification condition storing means 5. Identification condition applying means.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭58−105388(JP,A) 特開 昭60−89291(JP,A) 特開 昭63−301383(JP,A) ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-58-105388 (JP, A) JP-A-60-89291 (JP, A) JP-A-63-301383 (JP, A)

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】筆順を含む入力文字パターン情報が加わ
り、該入力文字パターン情報から該入力文字の特徴を表
わす点である特徴点を抽出すると共に、該特徴点の該入
力文字パターン上における位置を示す位置情報を求める
特徴点抽出手段と、 辞書文字の特徴点を記憶する特徴点辞書手段と、 筆順に従って前記入力文字の特徴点と、前記特徴点辞書
手段で記憶する辞書文字の特徴点とを対応づけて該辞書
文字の中から候補文字を求めると共に該対応付けの際の
対応情報を出力する特徴点対応づけ手段と、 前記辞書文字毎に、その辞書文字の特徴点を用いて規定
された同定条件を記憶する同定条件格納手段と、 前記特徴点対応づけ手段で求められる各候補文字に対し
て規定された同定条件を前記同定条件格納手段を検索し
て求め、前記特徴点抽出手段により求められる入力文字
パターンの特徴点と前記特徴点対応づけ手段で得られる
前記対応情報とを用いて、前記同定条件で用いられる候
補文字の特徴点に対応する入力文字の特徴点を求め、さ
らに前記位置情報を用いて前記入力文字パターン上にお
ける該求めた入力文字の特徴点の位置を求めて、該入力
文字を前記同定条件格納手段を検索して求めた同定条件
に適用し、該同定条件を満足するかを判別する同定条件
適用手段とよりなり、 前記候補文字を求める処理と前記同定条件適用の処理と
で特徴点の情報を共用しつつ、認識処理を行うように構
成することを特徴とするオンライン手書文字認識装置。
An input character pattern information including a stroke order is added, and a feature point which is a point representing a feature of the input character is extracted from the input character pattern information, and a position of the feature point on the input character pattern is determined. Feature point extracting means for obtaining position information to be shown; feature point dictionary means for storing feature points of dictionary characters; feature points of the input characters according to the stroke order; and feature points of dictionary characters stored by the feature point dictionary means. A feature point associating means for obtaining candidate characters from the dictionary characters in association with each other and outputting correspondence information at the time of the association; and for each of the dictionary characters, a feature point associating unit is defined using the feature points of the dictionary characters. An identification condition storage unit for storing an identification condition; and an identification condition defined for each candidate character obtained by the feature point association unit, obtained by searching the identification condition storage unit. Using the feature points of the input character pattern obtained by the output means and the correspondence information obtained by the feature point associating means, a feature point of the input character corresponding to the feature point of the candidate character used in the identification condition is obtained. Further determining the position of the feature point of the determined input character on the input character pattern using the position information, applying the input character to the identification condition determined by searching the identification condition storage means, An identification condition application unit that determines whether the identification condition is satisfied is configured to perform recognition processing while sharing feature point information in the processing for obtaining the candidate character and the processing for applying the identification condition. An online handwritten character recognition device characterized by the following.
JP1038202A 1989-02-20 1989-02-20 Online handwriting recognition device Expired - Fee Related JP3066530B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1038202A JP3066530B2 (en) 1989-02-20 1989-02-20 Online handwriting recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1038202A JP3066530B2 (en) 1989-02-20 1989-02-20 Online handwriting recognition device

Publications (2)

Publication Number Publication Date
JPH02217981A JPH02217981A (en) 1990-08-30
JP3066530B2 true JP3066530B2 (en) 2000-07-17

Family

ID=12518757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1038202A Expired - Fee Related JP3066530B2 (en) 1989-02-20 1989-02-20 Online handwriting recognition device

Country Status (1)

Country Link
JP (1) JP3066530B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2531882B2 (en) * 1991-12-11 1996-09-04 インターナショナル・ビジネス・マシーンズ・コーポレイション Online handwriting recognition
EP0548030B1 (en) * 1991-12-19 1998-09-30 Texas Instruments Incorporated Character recognition

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58105388A (en) * 1981-12-16 1983-06-23 Matsushita Electric Ind Co Ltd Recognizing system for on-line handwritten character
JPS6089291A (en) * 1983-10-19 1985-05-20 Sharp Corp Character recognition method
JPH0797397B2 (en) * 1987-06-02 1995-10-18 沖電気工業株式会社 Handwritten character recognition device

Also Published As

Publication number Publication date
JPH02217981A (en) 1990-08-30

Similar Documents

Publication Publication Date Title
US5687254A (en) Searching and Matching unrecognized handwriting
US7778464B2 (en) Apparatus and method for searching for digital ink query
US7630551B2 (en) Method and system for line extraction in digital ink
US7302099B2 (en) Stroke segmentation for template-based cursive handwriting recognition
EP1971957B1 (en) Methods and apparatuses for extending dynamic handwriting recognition to recognize static handwritten and machine generated text
US20040096105A1 (en) Method, device and computer program for recognition of a handwritten character
JPH0562391B2 (en)
JPH05217025A (en) Apparatus and method for on-line handwritten- character recognition
JPH0792815B2 (en) Pattern recognition method
JP2007317022A (en) Handwritten character processor and method for processing handwritten character
JPH02266485A (en) Information recognizing device
US5659633A (en) Character recognition method utilizing compass directions and torsion points as features
JP3066530B2 (en) Online handwriting recognition device
CN112183538B (en) Manchu recognition method and system
JP2671985B2 (en) Information recognition method
JP2761679B2 (en) Online handwritten character recognition device
JPH09114926A (en) Method and device for rough classifying input characters for on-line character recognition
Cha et al. Writing speed and writing sequence invariant on-line handwriting recognition
KR900005141B1 (en) Handwritter character recognizing device
AU2004214901B2 (en) Line extraction in digital ink
JPS6022793B2 (en) character identification device
JPH0830717A (en) Character recognition method and device therefor
JPH0562392B2 (en)
JPS60186980A (en) Recognition processing system for on-line handwritten character
Öksüz et al. A video-based text and equation editor for LaTeX

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees