JPH0737039A - On-line handwritten character recognizing device - Google Patents

On-line handwritten character recognizing device

Info

Publication number
JPH0737039A
JPH0737039A JP5183764A JP18376493A JPH0737039A JP H0737039 A JPH0737039 A JP H0737039A JP 5183764 A JP5183764 A JP 5183764A JP 18376493 A JP18376493 A JP 18376493A JP H0737039 A JPH0737039 A JP H0737039A
Authority
JP
Japan
Prior art keywords
character
recognition
input
tablet
pen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5183764A
Other languages
Japanese (ja)
Other versions
JP2984170B2 (en
Inventor
Shinichi Kitabayashi
真一 北林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP5183764A priority Critical patent/JP2984170B2/en
Publication of JPH0737039A publication Critical patent/JPH0737039A/en
Application granted granted Critical
Publication of JP2984170B2 publication Critical patent/JP2984170B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

PURPOSE:To provide an on-line handwritten character recognizing device which can easily input the characters and can correct the errors by a simple instructions of uses. CONSTITUTION:The characters are supplied from a tablet 1. A character segmenting part 2 segments a single character based the distance moved while a pen is kept a part from the tablet 1. The segmented character is sent to a character recognizing part 5 and recognized there. At the same time, the segmented character is stored in a data buffer 3. A display part 4 shows the input data and the character recognizing results set corresponding to each other. A gesture recognizing part 6 analyzes the gestures that are pointed by users about their misrecognition. An instruction analyzing part 7 analyzes the instructions of users.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、手書き文字を構成する
ストロークの入力中にリアルタイムにて文字認識を行う
オンライン手書き文字認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an on-line handwritten character recognition apparatus for recognizing characters in real time while inputting strokes constituting handwritten characters.

【0002】[0002]

【従来の技術】従来、コンピュータ等に文字データを入
力する場合は、主としてキーボードが用いられてきた。
しかしながら、キーボードを使用するためには、使用者
にある程度の習得や慣れを強いることとなり、それ故、
より簡便な入力装置の実現が望まれていた。
2. Description of the Related Art Conventionally, a keyboard has been mainly used to input character data into a computer or the like.
However, in order to use the keyboard, the user has to learn and get used to it to some extent, and therefore,
It has been desired to realize a simpler input device.

【0003】近時のコンピュータの高性能化、高速化
は、上記した要望に応え、キーボードに変わるより簡便
な入力装置としてリアルタイムにて手書き文字を認識し
て、文字データに変換するオンライン手書き文字認識装
置を実現することを可能とした。
In response to the above-mentioned demands, the recent high performance and high speed of a computer responds to the above demands, and an online handwritten character recognition for recognizing a handwritten character in real time as a simpler input device replacing a keyboard and converting it into character data. It was possible to realize the device.

【0004】実現されているオンライン手書き文字認識
装置は、基本的には、文字を構成する座標列を入力する
ためのタブレットと、タブレットに重ねられ入力された
文字をそのまま表示するための表示手段と、CPUとプ
ログラムにて実現され入力された手書き文字を認識して
文字データに変換する文字認識部とで構成されている。
The realized on-line handwritten character recognition device basically has a tablet for inputting a coordinate sequence forming a character and a display means for displaying the input character overlaid on the tablet as it is. , And a character recognition unit that is realized by a program and recognizes input handwritten characters and converts them into character data.

【0005】ペンを用いてタブレット上に書かれたスト
ロークはそのまま、タブレットに重ねられた表示手段に
筆跡として表示されるとともに、文字認識部に送られ、
文字を表すデータに変換される。
Strokes written on the tablet using the pen are displayed as they are on the display means overlaid on the tablet as handwriting and are sent to the character recognition section.
Converted to data that represents a character.

【0006】オンライン手書き文字認識装置では、複数
の文字が連続して入力されたとき、認識のため入力され
た複数の文字から1文字づつ切り出す必要がある。
In the on-line handwritten character recognition device, when a plurality of characters are continuously input, it is necessary to cut out one by one from the plurality of input characters for recognition.

【0007】従来、認識装置にて1文字の切り出しの処
理を不要とするために入力枠が設定され、利用者はその
中へ文字を1文字づつ書くことが要求されていた。
Conventionally, an input frame is set in the recognition device in order to eliminate the process of cutting out one character, and the user is required to write each character in the input frame.

【0008】利用者のより自由な文字入力を可能とする
ため入力枠なしでの入力も実現されているが、この場合
は、認識装置は1文字の切り出しを入力座標およびペン
が離れている時間から判断していた。
[0008] In order to allow the user to input characters more freely, input without an input frame is also realized. In this case, however, the recognition device cuts out one character at the input coordinates and when the pen is away. Was determined from.

【0009】また、入力された後に文字認識された結果
を表示しその結果が誤っている場合は、候補を表示し、
候補から選び直すか、それでも誤っている場合は、文字
を書き直すようになっていた。
When the result of character recognition after input is displayed and the result is incorrect, a candidate is displayed,
If it was re-selected from the candidates, or if it was still incorrect, it would rewrite the letters.

【0010】[0010]

【発明が解決しようとする課題】入力枠があると利用者
に筆記時の制約を与えることとなり大きな負担となる。
If there is an input frame, it imposes a constraint on the user when writing, which is a heavy burden.

【0011】また枠なしでの入力では、特に漢字が入力
される場合、偏と旁なのか互いに独立な文字なのかが判
然としない入力をされた場合は、入力座標およびペンが
離れている時間だけで入力された文字が、一文字なの
か、複数の文字なのかを判断することは困難であり、文
字切り出し部分で誤ることがある。例えば、図4に「動
く」という手書き入力を行った場合を示す。この例では
偏と旁が幾分離れており、「動く」と入力されたのか
「重力く」と入力されたのかが判然とせず、従来の方法
では正しく認識することができなかった。このような誤
認識は漢字だけでなく、ひらがな、カタカナでも起こり
得る。
In the case of inputting without a frame, especially when a Chinese character is input, and when it is not clear whether the input character is a partial character or a character independent of each other, the input coordinates and the time when the pen is apart It is difficult to determine whether the character entered by just one character or a plurality of characters is input, and the character cutout portion may be erroneous. For example, FIG. 4 shows a case where handwriting input of "moving" is performed. In this example, the bias and the urine are separated from each other, and it is not clear whether the input is "moving" or "gravity", and the conventional method cannot correctly recognize the input. Such misrecognition can occur not only in Kanji but also in Hiragana and Katakana.

【0012】また誤認識の修正に関しても、候補からの
選択や入力のやり直しは、使用者にとって煩雑な操作で
あり、より簡単な修正が望まれている。
Regarding correction of erroneous recognition, selection from candidates and redoing of input are complicated operations for the user, and simpler correction is desired.

【0013】本発明は、誤認識の少ない文字認識を可能
とし、かつ認識誤りがあった場合でも、誤りを簡単な指
示により修正できるオンライン手書き文字認識装置を提
供することを目的とする。
It is an object of the present invention to provide an on-line handwritten character recognition device which enables character recognition with less erroneous recognition and can correct an error by a simple instruction even if there is a recognition error.

【0014】[0014]

【課題を解決するための手段】本発明のオンライン手書
き文字認識装置は、タブレットより送られてきたペンの
位置情報によって文字を照合するオンライン手書き文字
認識装置であって、ペンがタブレットから離れていると
きに移動する距離とペンがタブレットから離れている時
間とに基づいて1文字を切り出す手段と、文字を切り出
した後に認識を行ないその結果と入力されたデータとを
対応付けて表示する手段と、切り出し間違いがあった場
合に指定された範囲のペンの位置情報によって再度認識
を行い、修正を行なう手段を具備することを特徴とす
る。
The on-line handwritten character recognition device of the present invention is an on-line handwritten character recognition device for collating characters based on the position information of the pen sent from the tablet, and the pen is separated from the tablet. A means for cutting out one character based on the distance traveled sometimes and the time the pen is away from the tablet; a means for performing recognition after cutting out the character and displaying the result in correspondence with the input data; When there is a cutting error, it is characterized in that it is provided with a means for carrying out re-recognition based on the position information of the pen in the specified range and making a correction.

【0015】[0015]

【作用】本発明のオンライン手書き文字認識装置は、ペ
ンがタブレットから離れているときに移動する距離と、
ペンがタブレットから離れている時間とに基づいて、1
文字を切り出す。文字を切り出した後に認識を行ない、
その結果と入力されたデータとを対応付けて表示する。
切り出し間違いがあった場合には、ペンにより指示する
ことにより再度認識を行い、修正を行なう。
The on-line handwritten character recognizing device of the present invention has a moving distance when the pen is away from the tablet,
1 based on how long the pen is away from the tablet
Cut out characters. After cutting out the characters, recognition is performed,
The result and the input data are displayed in association with each other.
If there is an error in cutting out, recognition is performed again by pointing with a pen and correction is made.

【0016】[0016]

【実施例】以下、本発明の一実施例を図面を参照して説
明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0017】図1は本実施例による基本構成図を示して
いる。図1のオンライン手書き文字認識装置は、文字を
入力するタブレット1、タブレット1から送られてくる
データより1文字を切り出す文字切り出し部2、入力デ
ータを格納しておくデータバッファ3、入力データと文
字認識結果の対応表示を行う表示部4、入力データに対
して文字認識を行う文字認識部5、利用者からの誤認識
を指示するジェスチャを解析するジェスチャ認識部6、
および、利用者の指示を解析する指示解析部7から構成
されている。文字切り出し部2、文字認識部5、ジェス
チャ認識部6、および、指示解析部7は図示していない
CPUにより実現されている。
FIG. 1 shows a basic block diagram according to this embodiment. The online handwritten character recognition device of FIG. 1 includes a tablet 1 for inputting characters, a character cutout unit 2 for cutting out one character from data sent from the tablet 1, a data buffer 3 for storing input data, an input data and characters. A display unit 4 for displaying corresponding recognition results, a character recognition unit 5 for performing character recognition on input data, a gesture recognition unit 6 for analyzing a gesture instructing erroneous recognition from a user,
Further, it is composed of an instruction analysis unit 7 which analyzes the instruction of the user. The character cutout unit 2, the character recognition unit 5, the gesture recognition unit 6, and the instruction analysis unit 7 are realized by a CPU (not shown).

【0018】文字切り出し部2により、タブレット1よ
り送られてきたデータの1文字が切り出され文字認識部
5へと送られる。このとき同時にデータバッファ3にス
トローク毎のデータとして蓄えられる。
The character cutout unit 2 cuts out one character of the data sent from the tablet 1 and sends it to the character recognition unit 5. At this time, it is simultaneously stored as data for each stroke in the data buffer 3.

【0019】一方、文字切り出し部では図2に示すフロ
ーチャートに従って文字の切り出しが行われる。文字の
切り出しは、ペンがタブレットから離れているときに移
動する距離とペンがタブレットから離れている時間とに
基づき行われる。例えば、図3のような「コンピュー
タ」という入力を行った場合、”コ”の終点である点A
から”ン”の書き出しの点である点Bへペンが移動する
際には、ある時間だけペンがタブレットより離れてお
り、また文字から文字へペンが移動する場合にはある程
度の空白が存在する。このことを利用して、本実施例で
は文字の切り出しを行っている。
On the other hand, the character cutout unit cuts out characters according to the flowchart shown in FIG. The character is cut out based on the distance traveled when the pen is away from the tablet and the time when the pen is away from the tablet. For example, when inputting “computer” as shown in FIG. 3, point A, which is the end point of “K”, is input.
When the pen moves from the tablet to the point B which is the point of writing "n", the pen is apart from the tablet for a certain time, and when the pen moves from character to character, there is a certain amount of blank space. . Utilizing this, the character is cut out in this embodiment.

【0020】以下、図2に示す文字の切り出し処理のフ
ローチャートを詳細に説明する。尚、本実施例において
は文字は右から左に書かれるものとする。
The flowchart of the character cutting process shown in FIG. 2 will be described in detail below. In this embodiment, the characters are written from right to left.

【0021】1文字めの文字内でのストローク間のペン
の移動時間の値を初期値としてtmaxに入力してお
く。
The value of the movement time of the pen between strokes within the first character is input to tmax as an initial value.

【0022】ステップS21において、ストロークデー
タが入力される。
In step S21, stroke data is input.

【0023】ステップS22、S23において、i−1
番目ストロークの終点からi番目の始点までのペンが移
動する際にかかった時間をTi とし、その横方向の距離
をSi とする。右方向の移動を正の値、左方向の移動を
負の値とする。
In steps S22 and S23, i-1
Let Ti be the time taken for the pen to move from the end point of the th stroke to the i-th start point, and let Si be the lateral distance. A rightward movement is a positive value, and a leftward movement is a negative value.

【0024】ステップS24において、ストローク間移
動距離Si が負の値である時は、i番目と(i+1)番
目のストロークは同一の文字のストロークであるので、
S21に戻る。ストローク間移動距離Siが負の値でな
いときは、ステップS25に進む。
In step S24, when the movement distance Si between strokes is a negative value, the i-th stroke and the (i + 1) -th stroke are strokes of the same character.
Return to S21. If the inter-stroke movement distance Si is not a negative value, the process proceeds to step S25.

【0025】ステップS25では、ストローク間移動距
離Si が、例えば現在n番目の文字の切り出しを行なっ
ている場合に、n−1番目の文字の全ストロークの幅の
2倍よりも大きい時のように、正の値であり十分大きい
ものであると、i番目と(i+1)番目のストロークは
別の文字のストロークであると判断してステップS27
に進む。ストローク間移動距離Si が、正の値であるが
十分大きくないとき、ステップS26に進む。
In step S25, it is determined that the movement distance Si between strokes is larger than twice the width of the entire stroke of the (n-1) th character, for example, when the nth character is currently cut out. , Is a positive value and is sufficiently large, it is determined that the i-th stroke and the (i + 1) -th stroke are strokes of different characters, and step S27 is performed.
Proceed to. When the inter-stroke movement distance Si is a positive value but not sufficiently large, the process proceeds to step S26.

【0026】ステップS26では、n番目の文字の切り
出しを行なっている場合にn−1番目までの文字のスト
ローク間の移動時間の最大値tmaxを参考にし、0.
5秒程度のマージンdをとり、ストローク間移動時間T
i がtmax+dよりも大きい場合はi番目とi+1番
目のストロークは別の文字ストロークであると判断し、
ステップ27に進む。大きくない場合はステップS21
に戻る。
In step S26, when cutting out the nth character, the maximum value tmax of the movement time between strokes of the n-1th character is referred to, and 0.
With a margin d of about 5 seconds, travel time T between strokes
When i is larger than tmax + d, it is determined that the i-th stroke and the i + 1-th stroke are different character strokes,
Go to step 27. If not larger, step S21
Return to.

【0027】ステップS27では、次の文字の切りだし
用に今切り出された文字のストローク間のペンの移動時
間によってtmaxを変更しておく。
In step S27, tmax is changed according to the movement time of the pen between strokes of the character cut out for cutting out the next character.

【0028】ステップS28において、1文字を出力す
る。1文字の文字切り出しの処理が終了し、ステップS
21に戻る。
In step S28, one character is output. After the process of cutting out one character is completed, step S
Return to 21.

【0029】すべての文字のデータが入力されると、文
字認識部5の結果が表示部4へ送られ画面へ結果が表示
される。
When the data of all characters are input, the result of the character recognition unit 5 is sent to the display unit 4 and the result is displayed on the screen.

【0030】表示部4では入力データ(手書き文字その
もの)と認識結果とを対応づけて表示する。図5にその
表示例を示す。本例では手書き入力「しました」に対
し、「しま」、「し」、「た」をそれぞれ一文字と判断
して切り出し、認識結果として「ほ」、「し」、「た」
との結果を表示している。認識結果は、一文字として切
り出されたストロークまたはストローク群の下に表示さ
れる。
The display unit 4 displays the input data (handwritten characters themselves) and the recognition result in association with each other. FIG. 5 shows an example of the display. In this example, handwriting input "shisute" is judged as "single", "shi", and "ta", and cut out, and the recognition results are "ho", "shi", and "ta".
And the result is displayed. The recognition result is displayed below a stroke or a stroke group cut out as one character.

【0031】認識結果に誤りがあった場合、特に一文字
の切り出しに誤りがあった場合は、利用者はタブレット
1を介し所定のジェスチャ入力を行うことにより文字の
切り出し位置の修正を行い、正しい認識結果を得ること
ができる。
When there is an error in the recognition result, particularly when there is an error in cutting out one character, the user corrects the cut-out position of the character by performing a predetermined gesture input through the tablet 1 and correct recognition is performed. The result can be obtained.

【0032】利用者から誤認識を指示するジェスチャが
入力されると、タブレット1よりジェスチャ認識部6へ
データが送られて、ジェスチャ認識部6では入力された
ジェスチャを認識し、その意味するところを、指示解析
部7に受け渡す。指示解析部7では、ジェスチャ認識部
6の認識結果を入力されているストローク群との関連に
おいて解析し、一文字の切り出しをやり直す。
When the user inputs a gesture instructing erroneous recognition, data is sent from the tablet 1 to the gesture recognizing unit 6, and the gesture recognizing unit 6 recognizes the input gesture and recognizes its meaning. , And passes it to the instruction analysis unit 7. In the instruction analysis unit 7, the recognition result of the gesture recognition unit 6 is analyzed in relation to the input stroke group, and one character is cut out again.

【0033】修正のフローチャートを図8に示す。A correction flowchart is shown in FIG.

【0034】まず、ステップS81において、ジェスチ
ャ入力の指示位置の抽出を行う。抽出された位置から修
正の対象となる文字または文字列が特定される。
First, in step S81, the designated position for gesture input is extracted. A character or a character string to be corrected is specified from the extracted position.

【0035】次に、ステップS82において、特定され
た文字において、ジェスチャの意味するところ及びその
位置から新たに1文字とすべきストローク群が特定さ
れ、それらが1文字として切り出される。
Next, in step S82, a stroke group to be newly made into one character is specified from the meaning of the gesture and its position in the specified character, and these are cut out as one character.

【0036】ここまでが、指示解析部7にて行われる。The processing up to this point is performed by the instruction analysis unit 7.

【0037】次に、制御を文字認識部5に移し、まず、
ステップS83において、切り出し結果に基づきデータ
バッファ3から該当画のデータを取り出し認識する。
Next, the control is transferred to the character recognition section 5, and first,
In step S83, the data of the corresponding image is extracted and recognized from the data buffer 3 based on the cutout result.

【0038】その後、ステップS84にて新たな認識結
果を前の認識結果と入れ換える。
Then, in step S84, the new recognition result is replaced with the previous recognition result.

【0039】ステップS85において、残りのストロー
クが残っているか判定する。残っている場合には、ステ
ップS82に進む。残っていない場合には、ステップS
86に進む。
In step S85, it is determined whether or not the remaining strokes remain. If it remains, the process proceeds to step S82. If not, step S
Proceed to 86.

【0040】ステップS86では、再表示を行う。In step S86, redisplay is performed.

【0041】ここで、図5のような過剰に結合した誤り
を起こしていた場合は、図6に示すような”し”と”
ま”を分離するジェスチャをすることによりジェスチャ
認識部で、分離されるものだと判断し、ジェスチャの位
置とジェスチャ認識部の結果により指示解析部で、1画
目と、2画目から4画目までとそれぞれ独立した1文字
であると判断し、図8に示すフローチャートのような処
理を行なう。
Here, when an excessively combined error occurs as shown in FIG. 5, "shi" and "as shown in FIG.
The gesture recognition unit determines that they are to be separated, and the instruction analysis unit uses the position of the gesture and the result of the gesture recognition unit to analyze the first and second strokes. It is determined that each character is independent of the characters up to the eye, and the process shown in the flowchart of FIG. 8 is performed.

【0042】まず、指示位置の抽出により、1文字目が
分離し、1画目が1文字であると判断され、1文字とし
て切り出される。それを1文字として認識部でデータバ
ッファから該当画のデータを取り出し認識され、前の認
識結果と入れ換えられる。そして、2画目から4画目の
データが認識されずに残っているために、また1文字の
切り出しから同様の処理を行い、全てのデータが認識さ
れ直されたら、再表示を行うことになる。
First, by extracting the designated position, the first character is separated, the first stroke is judged to be one character, and the character is cut out as one character. The data of the corresponding image is taken out from the data buffer and recognized as one character and is recognized and replaced with the previous recognition result. Then, because the data of the 2nd to 4th strokes remain unrecognized, the same process is performed from the cut-out of one character, and when all the data is recognized again, it is redisplayed. Become.

【0043】また、図7に示すように入力データ”い”
が認識結果”11”として認識され、過剰分離の誤りを
起こしていた場合には、図に示す”1”と”1”を結ぶ
統合ジェスチャにより、ジェスチャ認識部で統合させる
ものだと判断し、ジェスチャの位置と認識結果より、1
文字目と2文字目が統合され、1画目と2画目が1文字
であると判断し、過剰統合の時と同じく図8に示す処理
を行なう。まず、1画目と2画目が1文字として切り出
され、認識部で該当画のデータをデーアバッファ3から
取り出し認識され、前の認識結果と入れ換えられる。そ
こで、残りのデータがないためそのまま再表示を行な
う。
In addition, as shown in FIG.
Is recognized as the recognition result “11” and an error of excessive separation is caused, it is determined that the gesture recognition unit integrates by the integrated gesture connecting “1” and “1” shown in the figure, 1 from the gesture position and recognition result
It is determined that the first character and the second character are integrated by combining the first character and the second character, and the process shown in FIG. 8 is performed as in the case of excessive integration. First, the first stroke and the second stroke are cut out as one character, the data of the corresponding stroke is taken out from the data buffer 3 and recognized by the recognition unit, and is replaced with the previous recognition result. Therefore, since there is no remaining data, it is redisplayed as it is.

【0044】[0044]

【発明の効果】以上説明したように本発明のオンライン
手書き文字認識装置は、ペンがタブレットから離れてい
るときに移動する距離と、ペンがタブレットから離れて
いる時間とに基づいて1文字を切り出す手段と、文字を
切り出した後に認識を行ないその結果と入力されたデー
タとを対応付けて表示する手段と、切り出し間違いがあ
った場合に指定された範囲のペンの位置情報によって再
度認識を行い、修正を行なう手段を具備しているので、
誤認識の少ない文字認識を可能とし、かつ認識誤りがあ
った場合でも、誤りを簡単な指示により修正できる。
As described above, the online handwritten character recognition device of the present invention cuts out one character based on the distance that the pen moves when the pen is away from the tablet and the time when the pen is apart from the tablet. A means, a means for displaying the input data in association with the result after recognizing after cutting out the character, and again recognizing by the position information of the pen in the specified range when there is an error in cutting out, Since it has a means to make corrections,
Character recognition with few erroneous recognitions is possible, and even if there is a recognition error, the error can be corrected by a simple instruction.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例によるブロック図である。FIG. 1 is a block diagram according to an embodiment of the present invention.

【図2】文字切り出しのフローチャートである。。FIG. 2 is a flowchart of character segmentation. .

【図3】文字切り出しの例である。FIG. 3 is an example of character segmentation.

【図4】切り出し誤りの例である。FIG. 4 is an example of a clipping error.

【図5】認識結果の表示の例である。FIG. 5 is an example of display of a recognition result.

【図6】切り出しの過剰統合の例である。。FIG. 6 is an example of excessive integration of cutouts. .

【図7】切り出しの過剰分離の例である。FIG. 7 is an example of excessive separation of cutouts.

【図8】修正のフローチャートである。FIG. 8 is a flowchart of correction.

【符号の説明】[Explanation of symbols]

1 タブレット 2 文字切りだし部 3 データバッファ 4 表示部 5 文字認識部 6 ジェスチャ認識部 7 指示解析部 1 tablet 2 character cut-out part 3 data buffer 4 display part 5 character recognition part 6 gesture recognition part 7 instruction analysis part

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 タブレットより送られてきたペンの位置
情報によって文字を照合するオンライン手書き文字認識
装置であって、ペンがタブレットから離れているときに
移動する距離とペンがタブレットから離れている時間と
に基づいて1文字を切り出す手段と、文字を切り出した
後に認識を行ないその結果と入力されたデータとを対応
付けて表示する手段と、切り出し間違いがあった場合に
指定された範囲のペンの位置情報によって再度認識を行
い、修正を行なう手段を具備することを特徴とするオン
ライン手書き文字認識装置。
1. An online handwritten character recognition device for collating characters based on position information of a pen sent from a tablet, the distance traveled when the pen is away from the tablet and the time when the pen is away from the tablet. Based on and, a means for cutting out one character, a means for recognizing after cutting out the character and displaying the result in correspondence with the input data, and a pen for the specified range An online handwritten character recognition device comprising means for re-recognizing and correcting the position information.
JP5183764A 1993-07-26 1993-07-26 Online handwritten character recognition device Expired - Lifetime JP2984170B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5183764A JP2984170B2 (en) 1993-07-26 1993-07-26 Online handwritten character recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5183764A JP2984170B2 (en) 1993-07-26 1993-07-26 Online handwritten character recognition device

Publications (2)

Publication Number Publication Date
JPH0737039A true JPH0737039A (en) 1995-02-07
JP2984170B2 JP2984170B2 (en) 1999-11-29

Family

ID=16141565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5183764A Expired - Lifetime JP2984170B2 (en) 1993-07-26 1993-07-26 Online handwritten character recognition device

Country Status (1)

Country Link
JP (1) JP2984170B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0744655A (en) * 1993-08-03 1995-02-14 Sony Corp Handwritten input display device
JPH0757053A (en) * 1993-08-13 1995-03-03 Sony Corp Method for displaying handwriting input
JP2013546081A (en) * 2010-12-02 2013-12-26 ノキア コーポレイション Method, apparatus, and computer program product for overwriting input

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0744655A (en) * 1993-08-03 1995-02-14 Sony Corp Handwritten input display device
JPH0757053A (en) * 1993-08-13 1995-03-03 Sony Corp Method for displaying handwriting input
JP2013546081A (en) * 2010-12-02 2013-12-26 ノキア コーポレイション Method, apparatus, and computer program product for overwriting input

Also Published As

Publication number Publication date
JP2984170B2 (en) 1999-11-29

Similar Documents

Publication Publication Date Title
US6839464B2 (en) Multiple pen stroke character set and handwriting recognition system with immediate response
US5724457A (en) Character string input system
KR20120011010A (en) Handwriting recognition method and device
JP3029824B1 (en) Handwritten character processing device, handwritten character processing method, and computer-readable recording medium storing a program for causing a computer to execute the method
JP2003196593A (en) Character recognizer, method and program for recognizing character
JP2984170B2 (en) Online handwritten character recognition device
JP3217084B2 (en) Handwritten character recognition device
JP3782467B2 (en) Character input method and apparatus
JP7285018B2 (en) Program, erroneous character detection device, and erroneous character detection method
KR100356037B1 (en) Apparatus And Method For Recognition Of Multiple Character In Handwriting Recognition
JPH1115918A (en) Handwriting character recognizing device
JPH1049624A (en) Method and device for handwritten character recognition
JPS60217483A (en) Recognizer of character
JP7095450B2 (en) Information processing device, character recognition method, and character recognition program
JPH06208657A (en) Method and device for recognizing character
JPH0934890A (en) Handwritten character input device and kana/kanji conversion method
KR20040099937A (en) Device for inputting letter by using touch-screen and method therefor
JP2989387B2 (en) Term recognition device and term recognition method in input character processing device
JPH02207387A (en) On-line handwritten character input device
JPH07152754A (en) Sentence preparing device having auxiliary function for sentence preparation
JP3051628B2 (en) Character recognition method and device
JPH05135213A (en) Document processor
JPH04353964A (en) Document generation device
JPH0896082A (en) Character recognizing device and character recognizing method
JPH06337958A (en) Character recognition result presentation system

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080924

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080924

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090924

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090924

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100924

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110924

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120924

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 14

EXPY Cancellation because of completion of term