JP2007220145A - Online handwriting recognition apparatus - Google Patents

Online handwriting recognition apparatus Download PDF

Info

Publication number
JP2007220145A
JP2007220145A JP2007134737A JP2007134737A JP2007220145A JP 2007220145 A JP2007220145 A JP 2007220145A JP 2007134737 A JP2007134737 A JP 2007134737A JP 2007134737 A JP2007134737 A JP 2007134737A JP 2007220145 A JP2007220145 A JP 2007220145A
Authority
JP
Japan
Prior art keywords
character
stroke
character string
recognition
string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007134737A
Other languages
Japanese (ja)
Other versions
JP4686502B2 (en
Inventor
Akinori Kawamura
聡典 河村
Yojiro Touchi
洋次郎 登内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007134737A priority Critical patent/JP4686502B2/en
Publication of JP2007220145A publication Critical patent/JP2007220145A/en
Application granted granted Critical
Publication of JP4686502B2 publication Critical patent/JP4686502B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Character Discrimination (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically recognize character strings even when a user simply successively writes characters without being conscious of end of the character. <P>SOLUTION: A handwriting information acquiring means 202 takes the strokes of the characters written on a tablet 201 in a buffer 208 by unit of one stroke. A candidate character string generating means 203 generates the candidate character string to the input strokes in the buffer 208 and stores the the candidate character string in a buffer 209. A character string likelihood calculating device 204 generates a dictionary of character string structure by combining corresponding dictionary information in the dictionary of character structure 211 and corresponding dictionary information in a dictionary of biliteral structure 212 with respect to the respective candidate character strings in the buffer 209 and collates the dictionary of character string structure with the input strokes. An input string estimating means 205 estimates a character string part in which results of character segmentation from the start are common as a recognition determined character string for each recognition candidate character string in the buffer 209. The determined character string is displayed on a display 213. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、座標入力装置を介して手書き入力される文字列筆跡(ストローク列)情報から、随時自動的に文字を切り出して認識し、結果を表示するオンライン文字認識装置に係り、特に文字の連続筆記入力に好適なオンライン文字認識装置に関する。   The present invention relates to an on-line character recognition device for automatically cutting out and recognizing characters as needed from character string handwriting (stroke sequence) information input by handwriting via a coordinate input device, and displaying the result, in particular, continuous characters. The present invention relates to an on-line character recognition apparatus suitable for writing input.

従来、座標入力タブレット等の座標入力装置を介して手書き入力される文字列筆跡情報から、自動的に文字を切り出して認識し、結果を表示するオンライン文字認識装置では、次の4つの認識技術(認識手法)、即ち
(1)複数の文字枠が用意されており、1つの文字枠に1文字が順に書かれていくことで、文字を切出して認識する技術
(2)座標入力タブレットからペンが一定時間以上離れたことを検知して、文字の終りと判断して文字を切り出して認識する技術
(3)認識実行ボタン等で1文字筆記終了が明示的に指示されることにより文字を切出して認識する技術
(4)1文字を特殊な一筆書きで定義し、ストロークが入力されてペンがタブレットから離れたことを検知して1文字入力と判定し、文字を切り出して認識する技術
のいずれかが適用されるのが一般的である。
2. Description of the Related Art Conventionally, an online character recognition device that automatically cuts out and recognizes characters from character handwriting information input by handwriting via a coordinate input device such as a coordinate input tablet and displays the result, the following four recognition technologies ( Recognition method), that is, (1) A technique in which a plurality of character frames are prepared and one character is sequentially written in one character frame to cut out and recognize the characters. (2) A pen is moved from the coordinate input tablet. Technology that detects the end of a certain period of time, recognizes the end of the character and cuts out and recognizes the character (3) Cuts out the character by explicitly instructing the end of one character writing with the recognition execution button, etc. Recognizing technology (4) A technology that defines a character with a special stroke, detects that a stroke has been input and the pen has left the tablet, determines that the character has been input, and cuts out and recognizes the character. It is common to apply a deviation.

しかしながら、上記した従来の認識技術、例えば(1)では、ユーザは文字筆記時に文字枠の大きさや位置を意識して入力せねばならず、自然な入力ができないという問題点があった。また、小型情報機器への搭載を考えた場合、十分な大きさの文字筆記領域が確保できないため、複数の文字枠を用意すると、1文字当たりの筆記領域の大きさが小さくなり、ユーザにとって筆記しづらいものとなるという問題点もあった。   However, the conventional recognition technique described above, for example, (1) has a problem that the user must input with consciousness of the size and position of the character frame at the time of writing, and cannot perform natural input. In addition, when considering mounting on a small information device, a sufficiently large character writing area cannot be secured. Therefore, if a plurality of character frames are prepared, the size of the writing area per character is reduced, and writing is performed for the user. There was also a problem that it became difficult.

一方、従来の認識技術(2),(3)では、文字枠を複数用意する必要はないため、1文字当たりの筆記領域を大きくとることが可能となり、(1)の問題を回避することが可能である。しかし、(2)では、連続して複数の文字を入力したいときに、1文字筆記毎に、タブレットからペンを一定時間以上離さねばらない。また、(3)では、1文字入力毎に認識実行ボタンを押すという、文字の筆記とは本来関係のない操作が、1文字筆記毎に必要となる。このため、(2),(3)の認識技術は文字列のスムーズな入力が困難であるという問題点があった。   On the other hand, in the conventional recognition techniques (2) and (3), since it is not necessary to prepare a plurality of character frames, a writing area per character can be increased, and the problem (1) can be avoided. Is possible. However, in (2), when it is desired to input a plurality of characters continuously, the pen must be separated from the tablet for a certain time or more for each character writing. Further, in (3), an operation that is essentially unrelated to character writing, that is, pressing the recognition execution button for each character input is required for each character writing. For this reason, the recognition techniques (2) and (3) have a problem that it is difficult to smoothly input a character string.

また、従来の認識技術(4)では、上記した(1),(2),(3)における問題点を回避することが可能となるものの、ユーザに対して各文字の一筆書きを予め覚えておくことを強いる。このため、特に認識対象となる文字が多数存在する場合には、ユーザにとって大変な苦痛となる。   Further, in the conventional recognition technique (4), although the problems in (1), (2), and (3) described above can be avoided, a stroke of each character is memorized in advance for the user. Force to leave. For this reason, particularly when there are a large number of characters to be recognized, it is very painful for the user.

本発明は上記事情を考慮してなされたものでその目的は、ユーザが文字の区切りを意識することなく、ただ文字を続けて書いていくだけであっても、自動的に文字列を認識できるようにすることにある。
本発明の他の目的は、文字の重ね書き入力が行えるようにすることにある。
The present invention has been made in consideration of the above circumstances, and its purpose is to allow a user to automatically recognize a character string even if the user simply writes characters continuously without being aware of character separation. Is to make it.
Another object of the present invention is to enable overwriting input of characters.

本発明は、座標入力装置上でペンが当該座標入力装置に触れてから離れるまでの間に当該座標入力装置により検出されるペン先の座標系列で表現されるストロークの列をもとに文字認識を行い、表示装置上に認識結果を表示するオンライン文字認識装置であって、前記ストロークが検出される度に、それまでに検出されたストロークの形状および続けて筆記される各2文字の組み合わせについて、当該2文字間のストロークの位置関係に基づき最適な文字列を求めて、該文字列を前記表示装置上に表示することを特徴とする。本発明によれば、ユーザが文字の区切りを意識することなく、座標入力装置上で文字を続けて書いていっても、最も確からしい文字列(認識確定文字列)を推定して表示することが可能となる。ここでは、文字間の各文字を構成するストロークの位置関係も考慮されているため、文字の重ね書き入力も可能となる。よって、小さな筆記スペースしか用意できない小型情報機器等においても、快適な手書き文字入力手段を提供することが可能となる。   The present invention recognizes a character on the basis of a stroke sequence expressed by a coordinate sequence of a pen tip detected by the coordinate input device from when the pen touches the coordinate input device until the pen leaves the coordinate input device. An on-line character recognition device that performs recognition and displays a recognition result on a display device, each time the stroke is detected, the shape of the stroke detected so far and the combination of each two characters that are subsequently written An optimum character string is obtained based on the positional relationship of the stroke between the two characters, and the character string is displayed on the display device. According to the present invention, the most probable character string (recognized confirmed character string) is estimated and displayed even if the user continues to write characters on the coordinate input device without being aware of character separation. Is possible. Here, since the positional relationship of strokes constituting each character between characters is also taken into consideration, it is possible to input characters by overwriting. Therefore, it is possible to provide comfortable handwritten character input means even in a small information device or the like in which only a small writing space can be prepared.

また、本発明は、座標入力装置上でペンが当該座標入力装置に触れてから離れるまでの間に当該座標入力装置により検出されるペン先の座標系列で表現されるストロークの列をもとに文字認識を行い、表示装置上に認識結果を表示するオンライン文字認識装置であって、前記座標入力装置は、前記ペンで文字を筆記するための1文字分の文字筆記領域を有し、前記筆記領域に筆記された前記ストロークが検出される度に、それまでに検出されたストロークの形状および重ねて筆記される各2文字の組み合わせについて、当該2文字間のストロークの位置関係に基づき最適な文字列を求めて、該文字列を前記表示装置上に表示することを特徴とする。本発明によれば、ユーザが文字の区切りを意識することなく、座標入力装置上で文字を重ねて書いていっても、最も確からしい文字列(認識確定文字列)を推定して表示することが可能となる。文字間の各文字を構成するストロークの位置関係も考慮されているため、文字の重ね書き入力が可能となる。よって、小さな筆記スペースしか用意できない小型情報機器等においても、快適な手書き文字入力手段を提供することが可能となる。   Further, the present invention is based on a sequence of strokes expressed by a coordinate series of a pen tip detected by the coordinate input device from when the pen touches the coordinate input device until the pen leaves the coordinate input device. An on-line character recognition device that performs character recognition and displays a recognition result on a display device, wherein the coordinate input device has a character writing area for writing one character with the pen, and the writing Each time the stroke written in the area is detected, the most suitable character based on the positional relationship of the stroke between the two characters with respect to the combination of the shape of the stroke detected so far and each of the two characters that are overwritten A character string is obtained and the character string is displayed on the display device. According to the present invention, the most probable character string (recognition confirmed character string) is estimated and displayed even if the user writes the characters on the coordinate input device without being aware of the character separation. Is possible. Since the positional relationship of strokes constituting each character is also taken into consideration, it is possible to input characters by overwriting. Therefore, it is possible to provide comfortable handwritten character input means even in a small information device or the like in which only a small writing space can be prepared.

本発明に係るオンライン文字認識装置は、複数の認識可能文字の各々について、当該文字を構成するストロークの形状情報、及びストローク間の構造関係が記述された辞書情報を登録した文字構造辞書と、上記複数の認識可能文字のうちの続けて筆記される各2文字の組み合わせについて、当該2文字間の構造関係が記述された辞書情報を登録した文字間構造辞書と、座標入力装置上でペンが当該座標入力装置に触れてから離れるまでの間に当該座標入力装置により検出されるペン先の座標系列で表現されるストロークを逐次取り込む筆跡情報取得手段と、この筆跡情報取得手段によりストロークが取り込まれる毎に、当該ストロークを含む認識すべき既取り込みストローク列に対する認識候補となり得る認識候補文字列を生成する認識候補文字列生成手段と、この生成された認識候補文字列毎に、当該認識候補文字列を構成する各候補文字についての上記文字構造辞書中の辞書情報と連続する2候補文字間についての上記文字間構造辞書中の辞書情報とに基づいて、当該認識候補文字列に対応する文字列構造辞書を作成して、上記既取り込みのストローク列を当該認識候補文字列毎の文字列構造辞書とそれぞれ照合することにより、当該ストローク列中のいずれのストロークがいずれの候補文字を構成しているのかを決定する文字切出しを行う照合手段(文字列尤度計算手段)と、上記各認識候補文字列について先頭からの上記文字切出しの結果が共通している文字列部分を認識確定文字列として推定して出力する入力文字列推定手段と、この推定された認識確定文字列を表示する認識結果表示手段とを備えたことを特徴とする。   An on-line character recognition device according to the present invention includes a character structure dictionary that registers, for each of a plurality of recognizable characters, shape information of strokes constituting the character, and dictionary information describing a structural relationship between the strokes, For each combination of two characters to be written successively among a plurality of recognizable characters, the intercharacter structure dictionary in which dictionary information describing the structural relationship between the two characters is registered, and the pen on the coordinate input device Each time a stroke is captured by the handwriting information acquisition unit, the handwriting information acquisition unit sequentially captures a stroke expressed by the coordinate series of the pen tip detected by the coordinate input device until the coordinate input device is released. In addition, a recognition candidate that generates a recognition candidate character string that can be a recognition candidate for an already-acquired stroke sequence to be recognized including the stroke. For each of the generated recognition candidate character strings, the character string generation means and the character spacing between the two candidate characters that are continuous with the dictionary information in the character structure dictionary for each candidate character constituting the recognition candidate character string. Based on the dictionary information in the structure dictionary, a character string structure dictionary corresponding to the recognition candidate character string is created, and the captured stroke string is compared with the character string structure dictionary for each recognition candidate character string. Thus, collating means (character string likelihood calculating means) for cutting out characters for determining which strokes in the stroke sequence constitute which candidate characters, and each recognition candidate character string from the top An input character string estimation means for estimating and outputting a character string portion having the same character extraction result as a recognition confirmed character string, and displaying the estimated recognition confirmed character string Characterized by comprising a recognition result displaying means.

このような構成においては、ストローク(筆跡)が入力される都度、当該ストロークを最後のストロークとする認識対象ストローク列に対する認識候補文字列毎に、文字構造辞書中の対応する辞書情報と文字間構造辞書中の対応する辞書情報とを組み合わせた文字列構造辞書が生成されて、その認識候補文字列毎の文字列構造辞書が認識対象ストローク列(入力筆跡)とそれぞれ照合されるため、ユーザが文字の区切りを意識することなく、座標入力装置上で文字を続けて書いていっても、最も確からしい入力文字列(認識確定文字列)を推定して表示することが可能となる。ここでは、文字間の構造関係も考慮されているため、文字の重ね書きを前提とした文字間構造辞書を用意することで、文字の重ね書き入力も可能となる。よって、小さな筆記スペースしか用意できない小型情報機器等においても、快適な手書き文字入力手段を提供することが可能となる。   In such a configuration, each time a stroke (handwriting) is input, for each recognition candidate character string for the recognition target stroke string with the stroke as the last stroke, corresponding dictionary information and inter-character structure in the character structure dictionary A character string structure dictionary combining the corresponding dictionary information in the dictionary is generated, and the character string structure dictionary for each recognition candidate character string is collated with the recognition target stroke string (input handwriting). Even if characters are continuously written on the coordinate input device without being aware of the delimiter, it is possible to estimate and display the most likely input character string (recognition confirmed character string). Here, since the structural relationship between characters is also taken into consideration, it is possible to input characters by overwriting by preparing an inter-character structure dictionary on the premise of overwriting of characters. Therefore, it is possible to provide comfortable handwritten character input means even in a small information device or the like in which only a small writing space can be prepared.

ここで、筆跡情報取得手段により取り込まれるストローク(入力ストローク)を格納するためのストロークバッファと、認識候補文字列生成手段により生成される認識候補文字列を格納するための認識候補バッファとを設けると共に、照合手段によるストローク列(入力ストローク列)と各認識候補文字列の文字列構造辞書との照合結果が当該認識候補文字列に対応付けて認識候補バッファ内に格納される構成とするならば、オンライン文字認識装置での処理を効率的に行うことが可能となる。   Here, a stroke buffer for storing a stroke (input stroke) captured by the handwriting information acquisition unit and a recognition candidate buffer for storing a recognition candidate character string generated by the recognition candidate character string generation unit are provided. If the collation result of the stroke string (input stroke string) by the collation means and the character string structure dictionary of each recognition candidate character string is stored in the recognition candidate buffer in association with the recognition candidate character string, It is possible to efficiently perform processing in the online character recognition device.

また、筆跡情報取得手段によりストロークバッファに入力ストロークを格納する際に、当該ストロークの特徴(例えば形状特徴)、及び当該ストロークと先行するストロークとの間の特徴(例えば構造特徴)を筆跡情報取得手段にて抽出し、認識候補文字列生成手段では、ストロークバッファ内のストローク列に対する認識候補文字列を、筆跡情報取得手段にて抽出された当該ストローク列を構成する各ストロークの特徴及び各ストローク間の特徴に基づいて生成するとよい。   In addition, when the input stroke is stored in the stroke buffer by the handwriting information acquisition unit, the feature (for example, shape feature) of the stroke and the feature (for example, the structural feature) between the stroke and the preceding stroke are acquired. In the recognition candidate character string generation means, the recognition candidate character string for the stroke string in the stroke buffer is extracted from the features of each stroke constituting the stroke string extracted by the handwriting information acquisition means and the strokes. It is good to generate based on the feature.

また、上記照合手段での照合処理で、入力ストローク列が認識候補文字列として筆記された確からしさ(を表す例えば尤度)が計算される構成とすると共に、入力文字列推定手段が、次に述べる2つの手段、即ち上記認識確定文字列を推定して出力する認識確定文字列推定手段と、認識未確定文字列及び認識未確定ストローク列情報を推定して出力する認識未確定文字列及び認識未確定ストローク列情報推定手段とから構成され、更に認識結果表示手段では、認識確定文字列推定手段から出力される認識確定文字列に加えて、認識未確定文字列及び認識未確定ストローク列情報推定手段から出力される認識未確定文字列と認識未確定ストローク列情報とを表示する構成とするとよい。   Further, in the collation processing by the collation means, the probability that the input stroke string is written as a recognition candidate character string (for example, likelihood) is calculated, and the input character string estimation means Two means to be described, that is, a recognition-determined character string estimation unit that estimates and outputs the recognition-determined character string, a recognition-unrecognized character string that recognizes and outputs a recognition-unrecognized character string and recognized-unrecognized stroke string information In addition to the recognition confirmed character string output from the recognition confirmed character string estimation means, the recognition result display means estimates the recognition unconfirmed character string and the recognition unconfirmed stroke string information. The recognized unconfirmed character string and the recognized unconfirmed stroke string information output from the means may be displayed.

このような構成においては、ユーザは、座標入力装置上で文字を重ね書きにより続けて筆記しても、1ストローク筆記する毎に、その時点における認識確定文字列と認識未確定文字列と認識未確定ストローク列情報とが表示されるため、自身の筆跡の認識処理結果を画面上で逐次確認することができ、快適な文字入力が可能となる。ここで、認識確定文字列と認識未確定文字列とが識別可能な表示属性を付加して表示するとよい。また、認識未確定ストローク列情報についても、認識未確定ストローク列の有無が識別可能なように表示するとよい。   In such a configuration, even if the user continuously writes characters on the coordinate input device by overwriting, each time one stroke is written, the recognized confirmed character string, the unrecognized character string and the unrecognized character string at that time are not recognized. Since the confirmed stroke string information is displayed, the recognition processing result of the handwriting can be confirmed sequentially on the screen, and comfortable character input can be performed. Here, it is preferable to add a display attribute that allows recognition-recognized character strings and unrecognized character strings to be displayed. Also, the recognition unconfirmed stroke sequence information may be displayed so that the presence or absence of the recognition unconfirmed stroke sequence can be identified.

また、上記認識結果表示手段により認識確定文字列が表示される毎に、上記ストロークバッファから当該認識確定文字列に対応する入力ストローク列を削除すると共に、上記認識候補バッファから当該認識確定文字列に対応する情報を取り除くバッファ更新手段を設けるならば、処理量を減らすことが可能となる。   Further, each time the recognition confirmed character string is displayed by the recognition result display means, the input stroke string corresponding to the recognition confirmed character string is deleted from the stroke buffer, and the recognition confirmed character string is changed from the recognition candidate buffer to the recognition confirmed character string. If buffer updating means for removing the corresponding information is provided, the amount of processing can be reduced.

また、認識候補バッファ内の全ての認識候補文字列について、ストロークバッファ内の入力ストローク列との照合がなされた後に、この照合で各認識候補文字列毎に求められた、入力ストローク列が当該認識候補文字列として筆記された確からしさ(尤度)を予め定められた確からしさ(尤度の閾値)と比較し、確からしさが低い認識候補文字列は、全て認識候補バッファから削除する構成とすることによってとも、処理量を減らすことが可能となる。   In addition, after all the recognition candidate character strings in the recognition candidate buffer are collated with the input stroke string in the stroke buffer, the input stroke string obtained for each recognition candidate character string by this collation is recognized. The probability (likelihood) written as a candidate character string is compared with a predetermined probability (likelihood threshold), and all recognition candidate character strings with low probability are deleted from the recognition candidate buffer. In this way, the processing amount can be reduced.

また、最後のストロークが入力された後、予め定められた一定時間以上の間、次のストローク入力がないことを検出する検出手段(ペン操作判定手段)と、この検出手段の検出結果に応じて上記認識未確定文字列を上記認識確定文字列として出力する認識文字列確定手段とを設けるならば、ユーザの文字入力の操作性を一層向上できる。   In addition, after the last stroke is input, detection means (pen operation determination means) for detecting that there is no next stroke input for a predetermined time or more, and according to the detection result of the detection means Provided with a recognized character string determining means for outputting the unrecognized character string as the recognized confirmed character string, the operability of the user's character input can be further improved.

ここで、上記座標入力装置が上記表示装置の表示面に重ねて配置され、且つ当該座標入力装置の入力面には文字筆記領域と認識結果表示領域とが分かれて確保される構成とすると共に、この文字筆記領域にペンが触れたことを検出する検出手段(ペン操作判定手段)を設けるようにしてもよい。   Here, the coordinate input device is arranged so as to overlap the display surface of the display device, and the character writing region and the recognition result display region are separately secured on the input surface of the coordinate input device, and You may make it provide the detection means (pen operation determination means) which detects that the pen touched this character writing area.

この他に、座標入力装置の入力面に文字筆記領域と認識結果表示領域とを兼ねた共通の領域が確保される構成とすると共に、上記検出手段と認識文字列確定手段とに代えて、それぞれ、ペンの先端が上記共通領域の一定座標範囲内に一定時間以上存在する場合には、そのペン入力は認識結果表示のカーソル移動を目的としたジェスチャであり、それ以外の場合には文字筆記を目的とした入力であると判定する判定手段(ペン操作判定手段)と、この判定手段によりペン入力がジェスチャであると判定された場合に、上記認識未確定文字列を上記認識確定文字列として出力する認識文字列確定手段とを設けるようにしてもよい。   In addition to this, a common area serving as both a character writing area and a recognition result display area is secured on the input surface of the coordinate input device, and instead of the detection means and the recognized character string determination means, When the tip of the pen exists within a certain coordinate range of the common area for a certain period of time, the pen input is a gesture for the purpose of moving the cursor in the recognition result display. Determining means (pen operation determining means) for determining that the input is the intended input, and when the determining means determines that the pen input is a gesture, the recognized unconfirmed character string is output as the recognized confirmed character string. And a recognized character string determining means may be provided.

また、1文字後退削除を指示操作するための1文字後退削除指示手段と、この1文字後退削除指示手段により1文字後退削除が指示された場合、認識未確定ストローク列が存在する状態では、当該認識未確定ストローク列を削除し、認識未確定ストローク列が存在せず認識未確定文字列が存在する状態では、当該認識未確定文字列の最後尾を1文字後退削除すると共に残りの認識未確定文字列を認識確定文字列とし、認識未確定ストローク列及び認識未確定文字列が共に存在しない状態では、認識確定文字列を1文字後退削除する認識結果編集手段とを設けるとよい。   Further, when one character backward deletion instructing means for instructing one character backward deletion, and when one character backward deletion is instructed by this one character backward deletion instructing means, If the recognized unconfirmed stroke string is deleted, and there is no recognized unconfirmed stroke string and there is a recognized unconfirmed character string, the end of the recognized unconfirmed character string is deleted backward one character and the remaining recognition unconfirmed It is preferable to provide a recognition result editing unit that deletes the recognized confirmed character string backward by one character when the character string is a recognized confirmed character string and neither the recognized unconfirmed stroke string nor the recognized unconfirmed character string exists.

このような構成においては、文字の削除、文字の筆記操作をスムーズに行うことが可能となる。   In such a configuration, it is possible to smoothly perform character deletion and character writing operations.

また、今回推定された認識未確定文字列を、該認識未確定文字列を含む認識候補文字列の確からしさが予め定められた条件を満たすとき、あるいは、今回推定された前記認識未確定文字列を含む前記認識候補文字列の確からしさが、前回推定された前記認識未確定文字列を含む前記認識候補文字列の確からしさに基づく予め定められた条件を満たすとき、前回推定された前記認識未確定文字列に替えて今回推定された前記認識未確定文字列を表示するようにしてもよい。1ストローク入力される度に、その入力ストロークを含め、それまでに入力された入力ストロークに最適な認識結果を逐次表示することができるので、ユーザは、筆記後すぐに認識結果を確認することができ、効率のよい手書き文字入力が行える。   In addition, the recognition unconfirmed character string estimated this time is used when the probability of the recognition candidate character string including the recognition unconfirmed character string satisfies a predetermined condition, or the recognition unconfirmed character string estimated this time When the certainty of the recognition candidate character string including the condition satisfies a predetermined condition based on the certainty of the recognition candidate character string including the previously recognized unconfirmed character string, the previously unrecognized The recognized unconfirmed character string estimated this time may be displayed instead of the confirmed character string. Each time one stroke is input, the optimum recognition result including the input stroke and the input stroke input so far can be sequentially displayed. Therefore, the user can confirm the recognition result immediately after writing. It is possible to input handwritten characters efficiently.

また、座標入力装置の前記ペンで文字を筆記するための文字筆記領域が表示装置の筆跡表示領域に重ねて配置され、文字筆記領域に前記ストロークが筆記される度に、この最新のストロークを含め最新の所定のN本(但し、Nは整数)のストロークを筆跡表示領域に表示することにより、入力された筆跡が適切に表示されるので、ユーザに快適な文字筆記環境を提供できる。   In addition, a character writing area for writing characters with the pen of the coordinate input device is arranged so as to overlap the handwriting display area of the display device, and this stroke is included each time the stroke is written in the character writing area. By displaying the latest predetermined N strokes (where N is an integer) in the handwriting display area, the input handwriting is appropriately displayed, so that a comfortable character writing environment can be provided to the user.

また、前記座標入力装置上からペンが離れた後、予め定められた一定時間以上の間、前記ペンが前記座標入力装置に触れないこと、あるいは、前記ストロークの筆記以外のペン操作を検出する検出手段を具備し、この検出手段の検出結果に応じて、前記筆跡表示領域に表示されているストロークの表示を消去するようにしてもよい。   In addition, after the pen leaves the coordinate input device, detection that the pen does not touch the coordinate input device for a predetermined time or more, or detects a pen operation other than writing of the stroke And a display of strokes displayed in the handwriting display area may be erased according to the detection result of the detection means.

また、筆跡表示領域に前記予め定められた数のストロークを表示する際には、各ストロークの色と太さと該ストロークを表す線の種類とのうちのいずれかを違えて表示するようにしてもよい。   Further, when displaying the predetermined number of strokes in the handwriting display area, the stroke color and thickness and the type of line representing the stroke may be displayed differently. Good.

上記各手段は、ハードウェア構成によっても実現できるが、当該手段として機能させるためのプログラムをコンピュータのCPUが読み込み実行することによって実現することも可能である。この場合、本発明のオンライン文字認識装置を、携帯情報端末等の情報機器により容易に実現できる。   Each of the above means can be realized by a hardware configuration, but can also be realized by reading and executing a program for causing the computer to function as the means. In this case, the online character recognition device of the present invention can be easily realized by an information device such as a portable information terminal.

なお、以上のオンライン文字認識装置に係る本発明は、方法(オンライン文字認識方法)に係る発明としても成立する。
また、本発明は、コンピュータに当該発明に相当する手順を実行させるための(或いはコンピュータを当該発明に相当する各手段として機能させるための、或いはコンピュータに当該発明に相当する機能を実現させるための)プログラムを記憶したコンピュータ読み取り可能な記憶媒体に係る発明としても成立し、更に当該プログラム自体に係る発明としても成立する。
The present invention relating to the above-described online character recognition apparatus is also established as an invention relating to a method (online character recognition method).
The present invention also provides a computer for executing a procedure corresponding to the invention (or for causing a computer to function as each means corresponding to the invention, or for causing a computer to realize a function corresponding to the invention). ) It is also established as an invention relating to a computer-readable storage medium storing a program, and further as an invention relating to the program itself.

以上詳述したように本発明によれば、ユーザが文字列を筆記する場合に、文字の区切りを意識する必要がなく、ただ文字を続けて書いていくだけであっても、文字間の構造関係も考慮した認識処理により自動的に文字列を認識でき、よってスムーズな文字の連続筆記入力が実現できる。   As described in detail above, according to the present invention, when a user writes a character string, there is no need to be aware of character separation, and even if characters are simply written continuously, the structural relationship between characters The character string can be automatically recognized by the recognition process considering the above, and therefore, smooth continuous writing input of characters can be realized.

また本発明によれば、文字の重ね書き入力も可能となるため、小さな筆記領域しか用意できない携帯情報端末等の小型情報機器においても、快適な手書き文字入力環境を提供できる。   Furthermore, according to the present invention, since it is possible to input characters by overwriting, a comfortable handwritten character input environment can be provided even in a small information device such as a portable information terminal in which only a small writing area can be prepared.

以下、本発明の実施の形態につき図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(オンライン文字認識装置の構成および動作)
図1は本発明の一実施形態に係わるオンライン文字認識装置を実現する情報機器のハードウェア構成を示す。
図1の情報機器は、例えば携帯情報端末等の小型情報機器であり、CPU1、ROM2、RAM3、タブレット(タブレット装置)4、ディスプレイ(ディスプレイ装置)5、データ読み込み装置6、記憶媒体7、及びインタフェース部(I/F)8,9,10等から構成されている。
(Configuration and operation of online character recognition device)
FIG. 1 shows a hardware configuration of an information device that realizes an online character recognition apparatus according to an embodiment of the present invention.
1 is a small information device such as a portable information terminal, for example, and includes a CPU 1, a ROM 2, a RAM 3, a tablet (tablet device) 4, a display (display device) 5, a data reading device 6, a storage medium 7, and an interface. Part (I / F) 8, 9, 10 and the like.

CPU1は、図1の情報機器の中枢をなし、各種データ処理のための演算やシステム全体の制御を行う演算・制御手段である。
ROM2は基本ソフトウェア等が予め格納された不揮発性メモリ(記憶媒体)、RAM3はCPU1の作業エリア等に利用される揮発性メモリである。
タブレット4は筆跡データの入力が可能な座標入力装置、ディスプレイ5は各種情報を表示する液晶ディスプレイ等の表示装置である。
The CPU 1 is the center of the information device of FIG. 1, and is a calculation / control unit that performs calculations for various data processing and controls the entire system.
A ROM 2 is a non-volatile memory (storage medium) in which basic software and the like are stored in advance, and a RAM 3 is a volatile memory used for a work area of the CPU 1.
The tablet 4 is a coordinate input device capable of inputting handwriting data, and the display 5 is a display device such as a liquid crystal display for displaying various information.

記憶媒体7は、ハードディスク、フロッピー(登録商標)ディスク、CD−ROM、光ディスク等のコンピュータ読み取り可能な記憶手段である。この記憶媒体7には、データ及びプログラムが格納されている。データ読み込み装置6は、記憶媒体7に格納されているデータやプログラムを読み込むことのできる、ハードディスクドライブ、フロッピー(登録商標)ディスクドライブ、CD−ROMドライブ、光ディスクドライブ等のデータ読み込み手段である。   The storage medium 7 is computer-readable storage means such as a hard disk, floppy (registered trademark) disk, CD-ROM, or optical disk. The storage medium 7 stores data and programs. The data reading device 6 is data reading means such as a hard disk drive, a floppy (registered trademark) disk drive, a CD-ROM drive, and an optical disk drive that can read data and programs stored in the storage medium 7.

インタフェース部8、インタフェース部9及びインタフェース部10は、それぞれ、タブレット4、ディスプレイ5及びデータ読み込み装置6のインタフェースをなす。   The interface unit 8, the interface unit 9, and the interface unit 10 interface with the tablet 4, the display 5, and the data reading device 6, respectively.

記憶媒体7には、上記プログラムとして、入力筆跡の文字認識を行うためのオンライン文字認識プログラムが予め格納されている。このオンライン文字認識プログラムは、装置の起動時にデータ読み込み装置6によって読み込まれてRAM3に格納される。CPU1はRAM3に格納されたオンライン文字認識プログラムに従って入力筆跡の文字認識処理を行う。   The storage medium 7 stores in advance an online character recognition program for performing character recognition of the input handwriting as the program. This online character recognition program is read by the data reading device 6 and stored in the RAM 3 when the device is activated. The CPU 1 performs character recognition processing of the input handwriting according to the online character recognition program stored in the RAM 3.

なお、オンライン文字認識プログラムがROM2に予め格納されているものであっても構わない。この場合、CPU1は当該ROM内のオンライン文字認識プログラムに従って入力筆跡の文字認識処理を行えばよい。また、装置の起動時に、ROM2からRAM3にオンライン文字認識プログラムを転送し、このRAM3内のオンライン文字認識プログラムに従って入力筆跡の文字認識処理を行うようにしても構わない。また、オンライン文字認識プログラムが通信回線を介してダウンロードされるものであっても構わない。   The online character recognition program may be stored in the ROM 2 in advance. In this case, the CPU 1 may perform character recognition processing of the input handwriting according to the online character recognition program in the ROM. Further, when the apparatus is activated, an online character recognition program may be transferred from the ROM 2 to the RAM 3 and the character recognition processing of the input handwriting may be performed according to the online character recognition program in the RAM 3. The online character recognition program may be downloaded via a communication line.

タブレット4は例えば透明であり、ディスプレイ5の表示画面上に重ねて配置されている。タブレット4の入力面には文字筆記領域301(図5参照)が設けられている。この筆記領域にユーザが専用ペンPを利用して文字を筆記すると、その筆跡データ(座標値の時系列情報)がタブレット装置4により検出され、インタフェース部8を通じてCPU1に転送される。   The tablet 4 is transparent, for example, and is arranged on the display screen of the display 5. A character writing area 301 (see FIG. 5) is provided on the input surface of the tablet 4. When the user writes a character in the writing area using the dedicated pen P, handwriting data (time-series information of coordinate values) is detected by the tablet device 4 and transferred to the CPU 1 through the interface unit 8.

図2は図1の情報機器により実現されるオンライン文字認識装置の機能構成を示すブロック図である。
このオンライン文字認識装置は、図1中のタブレット4に相当する手書き文字入力装置101と、筆跡情報取得手段102、認識手段103、認識結果表示手段104の各機能手段と、文字構造辞書106及び文字間構造辞書107の各辞書と、図1中のディスプレイ5に相当するディスプレイ105とから構成される。
FIG. 2 is a block diagram showing a functional configuration of the online character recognition apparatus realized by the information device of FIG.
This online character recognition device includes a handwritten character input device 101 corresponding to the tablet 4 in FIG. 1, handwriting information acquisition means 102, recognition means 103, recognition result display means 104, function structure dictionary 106, and character structure dictionary 106. Each dictionary of the interstructure dictionary 107 and a display 105 corresponding to the display 5 in FIG.

筆跡情報取得手段102、認識手段103、認識結果表示手段104は、図1中のCPU1がRAM3に格納されたオンライン文字認識プログラムを読み込み、実行することにより実現される。文字認識処理の際、発生する(生成される)各種データは、例えばRAM3上に一時記憶されるようになっている。   The handwriting information acquisition unit 102, the recognition unit 103, and the recognition result display unit 104 are realized by the CPU 1 in FIG. 1 reading and executing an online character recognition program stored in the RAM 3. Various data generated (generated) during the character recognition process are temporarily stored in, for example, the RAM 3.

文字構造辞書106及び文字間構造辞書107は、上記オンライン文字認識プログラムと共に例えば図1中の記憶媒体7に予め格納されており、当該プログラムがデータ読み込み装置6によって読み込まれてRAM3に格納される際に、このRAM3に格納される。なお、文字構造辞書106及び文字間構造辞書107をROM2に予め格納しておくことも可能である。   The character structure dictionary 106 and the intercharacter structure dictionary 107 are stored in advance in the storage medium 7 in FIG. 1, for example, together with the online character recognition program, and when the program is read by the data reading device 6 and stored in the RAM 3. The data is stored in the RAM 3. Note that the character structure dictionary 106 and the intercharacter structure dictionary 107 can be stored in the ROM 2 in advance.

手書き文字入力装置101は、例えばタブレットであり、ペンPが当該タブレットに触れている間のペン先の位置を表す2次元座標データを一定時間間隔でサンプリングする。得られた座標データは筆跡情報取得手段102に送られる。   The handwritten character input device 101 is a tablet, for example, and samples two-dimensional coordinate data representing the position of the pen tip while the pen P is touching the tablet at regular time intervals. The obtained coordinate data is sent to the handwriting information acquisition means 102.

筆跡情報取得手段102は、ペンPがタブレットに触れてから離れるまでの間の座標データ列、つまり筆跡の座標データ列をストロークと呼ぶひとまとまりのデータとして扱い、これをストロークデータとして取得する。筆跡情報取得手段102でストロークデータが取得されるたびに、それは認識手段103に送られる。   The handwriting information acquisition means 102 treats the coordinate data string from when the pen P touches the tablet until it leaves, that is, the handwriting coordinate data string as a set of data called a stroke, and acquires it as stroke data. Each time stroke data is acquired by the handwriting information acquisition means 102, it is sent to the recognition means 103.

認識手段103は、ストロークデータが入力するたびに、それまでに入力されたストロークデータから、文字構造辞書106および文字間構造辞書107とを用いて、最適な文字列を認識する。   Each time stroke data is input, the recognizing unit 103 recognizes an optimal character string from the stroke data input so far using the character structure dictionary 106 and the inter-character structure dictionary 107.

文字構造辞書106は、認識対象となる各文字の構造が表現されたデータ(文字構造辞書情報)、すなわち、各文字について、その文字を構成するストロークの形状やストローク間の位置関係(構造)などの特徴情報を登録した辞書である。   The character structure dictionary 106 is data (character structure dictionary information) in which the structure of each character to be recognized is expressed, that is, for each character, the shape of the stroke constituting the character, the positional relationship (structure) between the strokes, etc. This is a dictionary in which feature information is registered.

文字間構造辞書107は、文字構造辞書106に登録された複数の文字のうちの続けて筆記される各2文字の組み合わせについて、その2文字の間の構造関係が表現されたデータ(文字間辞書情報)を登録した辞書である。   The inter-character structure dictionary 107 is a data (character-to-character dictionary) expressing the structural relationship between two characters for each combination of two characters written in succession among a plurality of characters registered in the character structure dictionary 106. Information).

タブレットには、連続する2文字が左右に並べて筆記される場合もあれば、重ねて筆記される場合(例えば、ペンで文字を筆記するための文字筆記領域が1文字分だけである場合)もある。前者の場合の文字間辞書情報とは、2文字が左右に並べて筆記される場合の一方の文字のストロークと他方の文字のストロークとの間の位置関係(構造)の特徴情報であり、後者の場合の文字間辞書情報とは、2文字が重ねて筆記される場合の一方の文字のストロークと他方の文字のストロークとの間の位置関係(構造)の特徴情報である。   In some cases, two consecutive characters are written side by side on the tablet, or when they are written in layers (for example, when there is only one character writing area for writing characters with a pen). is there. The former inter-character dictionary information is characteristic information of the positional relationship (structure) between the stroke of one character and the stroke of the other character when two characters are written side by side. The inter-character dictionary information in this case is characteristic information of the positional relationship (structure) between the stroke of one character and the stroke of the other character when two characters are written in an overlapping manner.

認識手段193は、ストロークデータが入力するたびに、上記文字構造辞書106と文字間構造辞書107を用いて、それまでに入力されたストロークの形状およびストローク間の位置関係に基づき、最も確からしい、最適な文字列を求めるようになっている。   The recognizing unit 193 uses the character structure dictionary 106 and the inter-character structure dictionary 107 each time stroke data is input, and is most probable based on the stroke shape and the positional relationship between the strokes input so far. The optimal character string is to be calculated.

認識結果表示手段104は、認識手段103で求められた最適な文字列をディスプレイ105に出力する。
なお、タブレットの文字筆記領域が、複数文字分の筆記領域が確保されているものと、1文字分の筆記領域のみしか確保されていないものもあるが、いずれの場合であっても本実施形態は適用可能である。両者の異なる点は、上記の文字間辞書情報のみである。
The recognition result display unit 104 outputs the optimum character string obtained by the recognition unit 103 to the display 105.
In addition, there are a tablet character writing area in which a writing area for a plurality of characters is secured and a writing area for only one character is secured in either case. Is applicable. The difference between the two is only the inter-character dictionary information.

次に、図2に示したような構成のオンライン文字認識装置におけるオンライン文字認識処理の手順について、図3のフローチャートを参照して説明する。   Next, the procedure of online character recognition processing in the online character recognition apparatus configured as shown in FIG. 2 will be described with reference to the flowchart of FIG.

ステップS1では、文字筆記領域内にストロークが1本筆記されると、そのストロークの座標データ列、即ちストロークデータが、筆跡情報取得手段102によって取り込まれて、認識手段103に送られる。   In step S <b> 1, when one stroke is written in the character writing area, a coordinate data string of the stroke, that is, stroke data is captured by the handwriting information acquisition unit 102 and sent to the recognition unit 103.

ステップS2では、認識手段103は、それまでに入力されたストロークデータから、文字構造辞書106および文字間構造辞書107とを用いて、最適な文字列を認識する。例えば、この認識処理により、それまでに入力されたストロークのうち確かにその文字字列が筆記されたと断定できる認識確定文字と、最もそれらしい文字(認識未確定文字)と、筆記途中の文字のストローク(認識未確定ストローク)とを推定することができる。   In step S2, the recognition unit 103 recognizes an optimum character string from the stroke data input so far, using the character structure dictionary 106 and the inter-character structure dictionary 107. For example, with this recognition process, of the strokes that have been input so far, it is possible to conclude that the character string has been written, the most likely character (unrecognized character), and the character in the middle of writing. Stroke (recognition unconfirmed stroke) can be estimated.

ステップS3では、認識結果表示手段104は、文字認識手段103で認識された最適な文字列(例えば、認識確定文字列と認識未確定文字列)をディスプレイ105に表示する。   In step S <b> 3, the recognition result display unit 104 displays the optimum character string recognized by the character recognition unit 103 (for example, a recognized confirmed character string and a recognized unrecognized character string) on the display 105.

以上のステップS1〜S3を、ストロークの入力が終了するまで、あるいは、それまでに入力された全ての入力ストロークが認識確定文字列として推定されるまで繰り返す(ステップS4)。これにより、ユーザが文字の区切りを意識することなく、手書き文字入力装置101にただ文字を続けて筆記していくだけで、図2のオンライン文字認識装置では、その筆跡を自動的に文字列として認識することができる。   The above steps S1 to S3 are repeated until the input of the stroke is completed or until all the input strokes input so far are estimated as the recognition confirmed character strings (step S4). As a result, the on-line character recognition device in FIG. 2 automatically recognizes the handwriting as a character string simply by continuously writing characters on the handwritten character input device 101 without being aware of character separation. can do.

図4は、図1の情報機器により実現されるオンライン文字認識装置の機能構成をさらに詳細に示すブロック図である。
このオンライン文字認識装置は、図1中のタブレット4に相当するタブレット201と、筆跡情報取得手段202、認識候補文字列生成手段203、文字列尤度計算手段204、入力文字列推定手段205、バッファ更新手段206、及び認識結果表示手段207の各機能手段と、ストロークバッファ208、認識候補バッファ209及び認識結果バッファ210の各バッファと、文字構造辞書211及び文字間構造辞書212の各辞書と、図1中のディスプレイ5に相当するディスプレイ213とから構成される。
FIG. 4 is a block diagram showing in more detail the functional configuration of the online character recognition apparatus realized by the information device of FIG.
This online character recognition device includes a tablet 201 corresponding to the tablet 4 in FIG. 1, handwriting information acquisition means 202, recognition candidate character string generation means 203, character string likelihood calculation means 204, input character string estimation means 205, buffer Updating means 206 and recognition result display means 207, each function of stroke buffer 208, recognition candidate buffer 209 and recognition result buffer 210, each of character structure dictionary 211 and inter-character structure dictionary 212, 1 is composed of a display 213 corresponding to the display 5 in 1.

筆跡情報取得手段202、認識候補文字列生成手段203、文字列尤度計算手段204、入力文字列推定手段205、バッファ更新手段206、及び認識結果表示手段207は、図1中のCPU1がRAM3に格納されたオンライン文字認識プログラムを読み込み実行することにより実現される。   The CPU 1 in FIG. 1 stores the handwriting information acquisition unit 202, the recognition candidate character string generation unit 203, the character string likelihood calculation unit 204, the input character string estimation unit 205, the buffer update unit 206, and the recognition result display unit 207. This is realized by reading and executing the stored online character recognition program.

ストロークバッファ208、認識候補バッファ209及び認識結果バッファ210は、例えばRAM3上に確保される。   The stroke buffer 208, the recognition candidate buffer 209, and the recognition result buffer 210 are secured on the RAM 3, for example.

文字構造辞書211及び文字構造辞書212は、上記オンライン文字認識プログラムと共に例えば図1中の記憶媒体7に予め格納されており、当該プログラムがデータ読み込み装置6によって読み込まれてRAM3に格納される際に、このRAM3に格納される。なお、文字構造辞書211及び文字間構造辞書212をROM2に予め格納しておくことも可能である。   The character structure dictionary 211 and the character structure dictionary 212 are stored in advance in, for example, the storage medium 7 in FIG. 1 together with the online character recognition program, and when the program is read by the data reading device 6 and stored in the RAM 3. Are stored in the RAM 3. The character structure dictionary 211 and the inter-character structure dictionary 212 can be stored in the ROM 2 in advance.

図4の筆跡情報取得手段202は、図2の筆跡情報取得手段102に対応し、図4の認識候補文字列生成手段203と文字列尤度計算手段204と入力文字列推定手段205とバッファ更新手段206は、図3の認識手段103に対応し、図4の認識結果表示手段207は、図2の認識結果表示手段104に対応する。また、図4の文字構造辞書211は図2の文字構造辞書106に対応し、図4の文字間構造辞書212は、図2の文字間構造辞書107に対応する。   The handwriting information acquisition unit 202 in FIG. 4 corresponds to the handwriting information acquisition unit 102 in FIG. 2, and the recognition candidate character string generation unit 203, the character string likelihood calculation unit 204, the input character string estimation unit 205, and the buffer update in FIG. The means 206 corresponds to the recognition means 103 in FIG. 3, and the recognition result display means 207 in FIG. 4 corresponds to the recognition result display means 104 in FIG. 4 corresponds to the character structure dictionary 106 in FIG. 2, and the inter-character structure dictionary 212 in FIG. 4 corresponds to the inter-character structure dictionary 107 in FIG.

タブレット201は、ペンPが当該タブレット201に触れている間のペン先の位置を表す2次元座標データを一定時間間隔でサンプリングする。得られた座標データは筆跡情報取得手段202に送られる。
筆跡情報取得手段202は、ペンPがタブレット201に触れてから離れるまでの間の座標データ列、つまり筆跡の座標データ列をストロークと呼ぶひとまとまりのデータとして扱い、ストロークバッファ208に格納する。
The tablet 201 samples two-dimensional coordinate data representing the position of the pen tip while the pen P is touching the tablet 201 at regular time intervals. The obtained coordinate data is sent to the handwriting information acquisition means 202.
The handwriting information acquisition unit 202 treats the coordinate data string from when the pen P touches the tablet 201 until it leaves, that is, the handwriting coordinate data string as a set of data called a stroke, and stores it in the stroke buffer 208.

認識候補文字列生成手段203は、ストロークバッファ208内のストローク(ストロークデータ)の列に対する認識候補となる認識候補文字列群を生成し、認識候補バッファ209に格納する。
文字列尤度計算手段204は、認識候補バッファ209内の各認識候補文字列についてその照合用辞書(文字列構造辞書)を文字構造辞書211と文字間構造辞書212とから作成し、それとストロークバッファ208中のストローク列との照合を行う。文字列尤度計算手段204は、認識候補文字列の各々について、ストローク列と認識候補文字列との照合結果として、当該ストローク列がその文字列である確からしさ(尤度)と、当該ストローク列中のどのストロークがどの文字に対応しているかを示す文字切り出し結果とを取得する。文字列尤度計算手段204は、取得した認識候補文字列毎の照合結果を当該認識候補文字列と対応付けて認識候補バッファ209に格納する。
The recognition candidate character string generation unit 203 generates a recognition candidate character string group that becomes a recognition candidate for a sequence of strokes (stroke data) in the stroke buffer 208 and stores the recognition candidate character string group in the recognition candidate buffer 209.
The character string likelihood calculating means 204 creates a collation dictionary (character string structure dictionary) for each recognition candidate character string in the recognition candidate buffer 209 from the character structure dictionary 211 and the intercharacter structure dictionary 212, and the stroke buffer. Matching with the stroke sequence in 208 is performed. For each recognition candidate character string, the character string likelihood calculating unit 204 obtains a probability (likelihood) that the stroke string is the character string as a matching result between the stroke string and the recognition candidate character string, and the stroke string. A character cutout result indicating which stroke in the map corresponds to which character is acquired. The character string likelihood calculating unit 204 stores the acquired collation result for each recognition candidate character string in the recognition candidate buffer 209 in association with the recognition candidate character string.

入力文字列推定手段205は、認識候補バッファ209内の認識候補文字列とその照合結果から、認識確定文字列、認識未確定文字列、及び認識未確定ストローク列情報を求め、認識結果バッファ210に格納する。認識確定文字列とは、ストローク列(入力ストローク列)で構成される文字列のうち、この文字列が入力されたと断定できる文字列部分である。認識未確定文字列とは、入力ストローク列で構成される文字列のうち、断定はできないがこの文字列が入力されたと推測される文字列部分である。認識未確定ストローク列情報とは、1文字筆記途中のストロークと推測されるストロークが入力ストローク列中に存在するかどうかを示す情報である。   The input character string estimation unit 205 obtains a recognition confirmed character string, a recognition unconfirmed character string, and a recognition unconfirmed stroke string information from the recognition candidate character string in the recognition candidate buffer 209 and its collation result, and stores it in the recognition result buffer 210. Store. The recognition-determined character string is a character string portion that can be determined that this character string has been input, among the character strings configured by the stroke string (input stroke string). The unrecognized character string is a character string portion that cannot be determined but is estimated to have been input from among the character strings formed from the input stroke string. The unrecognized stroke sequence information is information indicating whether or not a stroke estimated to be a stroke in the middle of writing one character exists in the input stroke sequence.

認識結果表示手段206は、入力文字列推定手段205によって推定された認識結果バッファ210内の推定入力文字列(認識確定文字列、認識未確定文字列、及び認識未確定ストローク列情報)をディスプレイ213に出力する。
バッファ更新手段207は、認識結果バッファ210内の情報を基に、ストロークバッファ208と認識候補バッファ209とから認識確定文字列に対応する部分の情報を削除し内容を更新する。
The recognition result display means 206 displays the estimated input character string (recognized confirmed character string, recognized unconfirmed character string, and recognized unconfirmed stroke string information) in the recognition result buffer 210 estimated by the input character string estimating means 205 on the display 213. Output to.
Based on the information in the recognition result buffer 210, the buffer update unit 207 deletes information on a portion corresponding to the recognized character string from the stroke buffer 208 and the recognition candidate buffer 209 and updates the content.

図5は図1の情報機器の外観を示す。
同図に示すように、図1の情報機器の主面、即ちディスプレイ5(213)の表示画面上に透明なタブレット4(201)が積層された面には、ユーザがペンPでタブレット4(201)に文字を筆記するための文字筆記領域301と、この文字筆記領域301に筆記された筆跡を文字列として認識した結果と文字挿入位置を示すカーソルCとを表示する認識結果表示領域302と、カーソル位置の直前の文字の削除を指示する1文字後退削除ボタン303とが確保されている。
FIG. 5 shows the external appearance of the information device of FIG.
As shown in the figure, on the main surface of the information device of FIG. 1, that is, the surface on which the transparent tablet 4 (201) is laminated on the display screen of the display 5 (213), 201) a character writing area 301 for writing a character, a recognition result display area 302 for displaying a result of recognizing a handwriting written in the character writing area 301 as a character string and a cursor C indicating a character insertion position; A one-character backward deletion button 303 for instructing deletion of the character immediately before the cursor position is secured.

図6は図4中のストロークバッファ208のデータ構造例を示す。
ストロークバッファ208に格納されるストローク列の情報は、当該バッファ208内のストロークの数(ストローク数)を示すNSTRKとNSTRK個のストロークデータから構成される。第Iストロークデータ(I=1〜NSTRK)は、それを構成する(座標点の数を示す)座標点数NPOINT[I]と、NPOINT[I]個のx,y座標データからなる。ここで、第Iストロークデータの第J点(J=1〜NPOINT[I])のx,y座標データは、x[I][J],y[I][J]のように表される。
FIG. 6 shows an example of the data structure of the stroke buffer 208 in FIG.
The stroke sequence information stored in the stroke buffer 208 is composed of NSTRK indicating the number of strokes (number of strokes) in the buffer 208 and NSTRK pieces of stroke data. The I-th stroke data (I = 1 to NSTRK) includes the number of coordinate points NPOINT [I] (indicating the number of coordinate points) and NPOINT [I] x, y coordinate data. Here, the x and y coordinate data of the Jth point (J = 1 to NPOINT [I]) of the Ith stroke data is expressed as x [I] [J], y [I] [J]. .

図7は認識候補バッファ209のデータ構造例を示す。
認識候補バッファ209は、ストロークバッファ208内のストローク列に対する認識候補となる文字列と照合結果とを格納するのに用いられる。本実施形態において認識候補バッファ209に格納される情報(認識候補情報)は、候補(認識候補文字列)数を示すNCANDとNCAND個の候補(候補データ)とから構成される。
FIG. 7 shows an example of the data structure of the recognition candidate buffer 209.
The recognition candidate buffer 209 is used to store a character string that is a recognition candidate for the stroke string in the stroke buffer 208 and a matching result. In this embodiment, information (recognition candidate information) stored in the recognition candidate buffer 209 includes NCAND indicating the number of candidates (recognition candidate character strings) and NCAND candidates (candidate data).

候補#I、即ち第I候補(I=1〜NCAND)のデータは文字切り出し結果を含む。この文字切り出し結果は、第I候補が認識棄却対象であるかどうかを示す棄却フラグCNAD_REJFLAG[I]と、その候補を構成する文字列(認識候補文字列)の文字数CAND_NCODE[I]と、CAND_NCODE[I]個の文字(第J文字(J=1〜CAND_NCODE[I]))の各々の文字構造辞書211中のエントリ番号CAND_REFID[I][J]と、その候補文字列の総ストローク数CAND_NSTRK[I]と、その候補文字列の最終文字に対応するストロークバッファ208内の入力ストロークの本数CAND_STRKCTR[I]と、CAND_NCODE[I]個の文字(第J文字)の各々に対応するストロークバッファ208内の入力ストローク列の開始ストローク番号CAND_BS[I][J]及び終了ストローク番号CAND_ES[I][J]とからなる。   The data of candidate #I, that is, the I-th candidate (I = 1 to NCAND) includes a character segmentation result. This character segmentation result includes a rejection flag CNAD_REJFLAG [I] indicating whether or not the I candidate is a recognition rejection target, the number of characters CAND_NCODE [I] of the character string (recognition candidate character string) constituting the candidate, and CAND_NCODE [ I] entry numbers CAND_REFID [I] [J] in each character structure dictionary 211 of J characters (Jth character (J = 1 to CAND_NCODE [I])) and the total number of strokes CAND_NSTRK [ I], the number of input strokes CAND_STRKCTR [I] in the stroke buffer 208 corresponding to the last character of the candidate character string, and the stroke buffer 208 corresponding to each of CAND_NCODE [I] characters (Jth character) The input stroke sequence includes a start stroke number CAND_BS [I] [J] and an end stroke number CAND_ES [I] [J].

第I候補(I=1〜NCAND)のデータは、上記した文字切り出し結果と、CAND_NCODE[I]個の文字(第J文字)の文字構造辞書211と対応する入力ストローク列を照合した結果の尤度の対数値(対数尤度)CAND_L1[I][J]と、第J文字と第J+1文字の間の文字間構造辞書212と対応する入力ストローク間構造特徴(第J文字の最後のストロークと次の第J+1文字の最初のストロークとの間の構造特徴)を照合した結果の対数尤度CAND_L2[I][J]と、対数尤度の総和、即ち第I候補の文字列と入力ストローク列全体とを照合した結果の対数尤度CAND_L[I]とから構成される。   The data of the I-th candidate (I = 1 to NCAND) is the likelihood of the result of collating the above-described character cutout result with the input stroke sequence corresponding to the CAND_NCODE [I] character (Jth character) character structure dictionary 211. Logarithmic value of logarithm (log likelihood) CAND_L1 [I] [J], inter-character structure dictionary 212 between character J and character J + 1, and the corresponding inter-stroke feature (the last character of character J) Logarithmic likelihood CAND_L2 [I] [J] as a result of collating the stroke and the first stroke of the next J + 1 character) and the sum of the log likelihoods, that is, the character string of the I-th candidate And log likelihood CAND_L [I] as a result of matching the entire input stroke sequence.

図7の例では、認識候補バッファ209内の候補(認識候補文字列)は第1候補(候補#1)乃至第10候補(候補#10)の10個存在する。第1候補については、棄却フラグは0にセットされており、認識候補文字列は文字構造辞書211の第1エントリ「あ」と第2エントリ「い」とからなる2文字長の文字列「あい」である。この認識候補文字列の総ストローク数は5本である。ここでは、認識候補文字列「あい」の最後の文字「い」の第1ストロークまでが入力されて照合された結果が格納されている。認識候補文字列「あい」の第1文字「あ」に対応する入力ストロークは第1ストロークから第3ストロークまでの3本である。認識候補文字列「あい」の第2文字「い」に対応する入力ストロークは第4ストロークの1本だけである。つまり「い」の左側の1画までが入力されている。   In the example of FIG. 7, there are ten candidates (recognition candidate character strings) in the recognition candidate buffer 209, the first candidate (candidate # 1) to the tenth candidate (candidate # 10). For the first candidate, the rejection flag is set to 0, and the recognition candidate character string is a two-character string “Ai” consisting of the first entry “A” and the second entry “I” in the character structure dictionary 211. It is. The total number of strokes of this recognition candidate character string is five. Here, the result of collating by inputting up to the first stroke of the last character “I” of the recognition candidate character string “Ai” is stored. The input strokes corresponding to the first character “A” in the recognition candidate character string “Ai” are three strokes from the first stroke to the third stroke. The input stroke corresponding to the second character “I” of the recognition candidate character string “Ai” is only one of the fourth strokes. In other words, up to one screen on the left side of “I” is input.

認識候補文字列「あい」の第1文字「あ」の文字構造辞書211と、第1ストロークから第3ストロークまでの入力ストローク列とを照合した結果の尤度の対数値(対数尤度)は-0.70である。「あ」と「い」の間の文字間構造辞書212と、第3ストローク(「あ」の最後のストローク)と第4ストローク(「い」の最初のストローク)とのストローク間構造との照合をした結果の尤度の対数値(文字間対数尤度)は-0.36である。「い」の文字構造辞書211中の先頭ストローク部分と、入力ストローク列の第4ストロークとを照合した結果の尤度の対数値(対数尤度)は-0.22である。「あ」の対数尤度、「あ」と「い」の文字間対数尤度、「い」の最初のストロークの対数尤度を足し合わせた全体の対数尤度が-1.28である。   The logarithm value (log likelihood) of the likelihood as a result of collating the character structure dictionary 211 of the first character “A” of the recognition candidate character string “Ai” with the input stroke sequence from the first stroke to the third stroke is -0.70. Matching between the inter-character structure dictionary 212 between “A” and “I” and the inter-stroke structure between the third stroke (the last stroke of “A”) and the fourth stroke (the first stroke of “I”) The logarithmic value of the likelihood of the result of the (log likelihood between characters) is -0.36. The logarithmic value (log likelihood) of the likelihood as a result of collating the head stroke portion in the character structure dictionary 211 of “I” with the fourth stroke of the input stroke sequence is −0.22. The log likelihood of “a”, the log likelihood of letters “a” and “i”, and the log likelihood of the first stroke of “i” are added together to give a total log likelihood of −1.28.

図8は文字構造辞書211のデータ構造例を示す。
文字構造辞書211は認識対象となる文字の構造が表現されたデータ(文字構造辞書情報)を登録した辞書である。この文字構造辞書211は、認識対象となる文字の数を示すNREFと、NREF個の文字各々の構造辞書からなる。
FIG. 8 shows an example of the data structure of the character structure dictionary 211.
The character structure dictionary 211 is a dictionary in which data (character structure dictionary information) representing the structure of characters to be recognized is registered. The character structure dictionary 211 includes an NREF indicating the number of characters to be recognized and a structure dictionary for each of the NREF characters.

第I番目(I=1〜NREF)の文字の構造辞書(辞書#I)は、その文字をコード(例えばSHIFT-JISコード)で表したREF_CODE[I]と、その文字を構成する総ストローク数REF_NSTRK[I]と、REF_NSTRK[I]個のストローク(第Jストローク(J=1〜REF_NSTRK[I]))の特徴としての形状特徴の平均ベクトルs[I][J][1〜6]及び共分散ベクトルσ[I][J][1〜6]と、第J-1ストロークと第Jストロークとの間のストローク間構造特徴の平均ベクトルs2[I][J][1〜2]及び共分散ベクトルσ2[I][J][1〜2]とから構成される。ここでs[I][J][1〜6]はs[I][J][1],s[I][J][2],…s[I][J][6]からなる6次元ベクトルを表現するものとする。σ[I][J][1〜6],s2[I][J][1〜2]、σ2[I][J][1〜2]についても同様のベクトル表現である。ストローク形状特徴とストローク間構造特徴については後述する。   The I-th (I = 1 to NREF) character structure dictionary (dictionary #I) has REF_CODE [I] that represents the character in code (for example, SHIFT-JIS code) and the total number of strokes that make up the character Average vector s [I] [J] [1-6] of shape features as features of REF_NSTRK [I] and REF_NSTRK [I] strokes (Jth stroke (J = 1 to REF_NSTRK [I])) and A covariance vector σ [I] [J] [1-6] and an average vector s2 [I] [J] [1-2] of the inter-stroke structural features between the J-1 and Jth strokes; Covariance vector σ2 [I] [J] [1-2]. Where s [I] [J] [1-6] consists of s [I] [J] [1], s [I] [J] [2], ... s [I] [J] [6] Assume that a 6-dimensional vector is represented. σ [I] [J] [1-6], s2 [I] [J] [1-2], and σ2 [I] [J] [1-2] are similar vector expressions. The stroke shape feature and the inter-stroke structure feature will be described later.

図9は文字間構造辞書212のデータ構造例を示す。
文字間構造辞書212は、文字構造辞書211に登録されたNREF個の文字(認識可能文字)のうちの続けて筆記される各2文字の組み合わせについて、その2文字の間の構造関係が表現されたデータ(文字間辞書情報)を登録した辞書である。図9では、1組の2文字について、その文字間の構造関係を表す文字間構造辞書情報のデータ構造を示してある。この文字間構造情報は、文字間構造特徴の平均ベクトルz[1〜2]と共分散ベクトルθ[1〜2]とから構成される。文字間構造特徴としては、前の文字の最終ストロークと後ろの文字の先頭ストロークとの間のストローク構造特徴を用いる。
FIG. 9 shows an example of the data structure of the intercharacter structure dictionary 212.
The inter-character structure dictionary 212 expresses the structural relationship between the two characters for each combination of two characters written successively among the NREF characters (recognizable characters) registered in the character structure dictionary 211. This is a dictionary in which data (character dictionary information) is registered. FIG. 9 shows the data structure of the inter-character structure dictionary information representing the structural relationship between the characters for a set of two characters. This inter-character structure information is composed of an inter-character structure feature average vector z [1-2] and a covariance vector θ [1-2]. As the inter-character structure feature, a stroke structure feature between the last stroke of the previous character and the first stroke of the subsequent character is used.

次に、以上のように構成されたオンライン文字認識装置におけるオンライン文字認識処理の手順について、図10乃至図24のフローチャートを適宜参照して説明する。   Next, the procedure of online character recognition processing in the online character recognition apparatus configured as described above will be described with reference to the flowcharts of FIGS.

まず、全体の処理を図10のフローチャートに従って説明する。
ステップ801は、オンライン文字認識装置内の各バッファを初期化するステップである。
First, the entire process will be described with reference to the flowchart of FIG.
Step 801 is a step of initializing each buffer in the online character recognition apparatus.

ステップ802では、文字筆記領域301内にストロークが1本筆記されると、そのストロークの座標データ列、即ちストロークデータが、筆跡情報取得手段202によってストロークバッファ208に取り込まれ、当該ストロークデータの特徴抽出がなされる。   In step 802, when one stroke is written in the character writing area 301, a coordinate data string of the stroke, that is, stroke data is taken into the stroke buffer 208 by the handwriting information acquisition means 202, and feature extraction of the stroke data is performed. Is made.

ステップ803では、ストロークバッファ208に取り込まれているストローク列に対する認識候補となり得る候補文字列(認識候補文字列)が認識候補文字列生成手段203によって生成されて認識候補バッファ209に格納される。   In step 803, candidate character strings (recognition candidate character strings) that can be recognition candidates for the stroke strings captured in the stroke buffer 208 are generated by the recognition candidate character string generation unit 203 and stored in the recognition candidate buffer 209.

ステップ804では、ステップ803で生成された認識候補バッファ209内の認識候補文字列とステップ802で取り込まれたストローク列とが文字列尤度計算手段204によって照合され、その認識候補文字列としてストローク列が筆記された確からしさが計算される。   In step 804, the recognition candidate character string in the recognition candidate buffer 209 generated in step 803 and the stroke string captured in step 802 are collated by the character string likelihood calculating unit 204, and the stroke string is used as the recognition candidate character string. The certainty that is written is calculated.

ステップ805では、ステップ804での各認識候補文字列との照合結果に基づき、入力ストローク列のうち確かにその認識候補文字列が筆記されたと断定できる認識確定文字列部分と、最もそれらしい文字列(認識未確定文字列)部分と、文字筆記途中のストローク列(認識未確定ストローク列)部分とが、入力文字列推定手段205によって推定される。   In step 805, based on the result of collation with each recognition candidate character string in step 804, the recognition confirmed character string portion that can be determined that the recognition candidate character string has been written in the input stroke string, and the most likely character string. The input character string estimation means 205 estimates a (recognized unconfirmed character string) portion and a stroke string (recognized unconfirmed stroke sequence) portion in the middle of writing.

ステップ806では、ステップ805における推定結果が認識結果表示手段207によって認識結果表示領域302に表示される。
ステップ807,808では、ストロークバッファ208と認識候補バッファ209とがバッファ更新手段206によって更新される。
In step 806, the estimation result in step 805 is displayed in the recognition result display area 302 by the recognition result display unit 207.
In steps 807 and 808, the stroke buffer 208 and the recognition candidate buffer 209 are updated by the buffer update unit 206.

以上のステップ802〜808を、全ての入力ストローク列が認識確定文字列として推定されるまで(認識候補バッファ209が空になるまで)繰り返す(ステップ809)。これにより、ユーザが文字の区切りを意識することなく、文字筆記領域301にただ文字を続けて筆記していくだけで、図4のオンライン文字認識装置では、その筆跡を自動的に文字列として認識することができる。   Steps 802 to 808 are repeated until all input stroke sequences are estimated as recognition confirmed character strings (until the recognition candidate buffer 209 is empty) (step 809). As a result, the online character recognition device in FIG. 4 automatically recognizes the handwriting as a character string simply by continuously writing characters in the character writing area 301 without the user being aware of character separation. be able to.

以下、図10のフローチャート中の各ステップの処理内容を詳細に説明する。
まず、ステップ801において、ストロークバッファ208及び認識候補バッファ209の初期化が行われる。ここでは、図6に示したデータ構造を持つストロークバッファ208内のストローク数NSTRKと、図7に示したデータ構造を持つ認識候補バッファ209内の認識候補文字列数NCANDとに、それぞれ“0”をセットすることで、両バッファ208,209の初期化が行われる。
Hereinafter, the processing content of each step in the flowchart of FIG. 10 will be described in detail.
First, in step 801, the stroke buffer 208 and the recognition candidate buffer 209 are initialized. Here, the number of strokes NSTRK in the stroke buffer 208 having the data structure shown in FIG. 6 and the number of recognition candidate character strings NCAND in the recognition candidate buffer 209 having the data structure shown in FIG. Is set, both buffers 208 and 209 are initialized.

次のステップ802は、(ディスプレイ5の表示画面上に重ねて配置された)タブレット201上に確保された文字筆記領域301にユーザによりペンPでストロークが1本筆記される毎に実行される。筆記されたストロークのデータ(座標データ列)はタブレット201により取得される。ステップ802では、このタブレット201により取得されたストロークのデータが、筆跡情報取得手段202により取り込まれてストロークバッファ208に格納される。またステップ802では、ストロークバッファ208に格納されたストロークデータ(の示すストロークの形状)の特徴を抽出する処理が行われる。   The next step 802 is executed each time a stroke is written by the user with the pen P in the character writing area 301 secured on the tablet 201 (arranged on the display screen of the display 5). Written stroke data (coordinate data string) is acquired by the tablet 201. In step 802, stroke data acquired by the tablet 201 is captured by the handwriting information acquisition unit 202 and stored in the stroke buffer 208. In step 802, a process for extracting features of the stroke data (the shape of the stroke indicated) stored in the stroke buffer 208 is performed.

この筆跡情報取得手段202によるステップ802の処理の詳細を、図11のフローチャートを参照して説明する。
まず、ステップ901において、図6のデータ構造のストロークバッファ208内のストローク数NSTRKが1インクリメントされる。
Details of the processing of step 802 by the handwriting information acquisition means 202 will be described with reference to the flowchart of FIG.
First, in step 901, the number of strokes NSTRK in the stroke buffer 208 having the data structure shown in FIG.

次のステップ902からステップ905では、ペンPがタブレット201から離れるまでの間に当該タブレット201によって取得されるペン先のx座標及びy座標データが逐次ストロークバッファ208に取り込まれる。ここでは、第Iストロークの第J点のx座標、y座標は、図6に示すストロークバッファ208内のそれぞれx[I][J]、y[I][J]にセットされる。
ステップ906では、ペンPがタブレット201から離れるまでの間に取り込まれた(1ストロークを構成する)座標点の数がNPOINT[I]にセットされる。
In the next step 902 to step 905, the x-coordinate and y-coordinate data of the pen tip acquired by the tablet 201 before the pen P leaves the tablet 201 is sequentially taken into the stroke buffer 208. Here, the x-coordinate and y-coordinate of the J-th point of the I-th stroke are set to x [I] [J] and y [I] [J] in the stroke buffer 208 shown in FIG.
In step 906, the number of coordinate points captured (composing one stroke) until the pen P leaves the tablet 201 is set to NPOINT [I].

ステップ907では、ストロークバッファ208に取り込まれた最新のストローク、つまり第NSTRKストロークデータから、ストローク形状を表現するストローク形状特徴ベクトルu[1〜6]が抽出される。ここでu[1〜6]は、u[1],u[2],…u[6]からなる6次元のベクトルを表現するものとする。形状特徴としては、例えばストロークデータの全曲率関数を指数関数の指数部に持つ複素数値関数をフーリエ展開して得られるP形フーリエ記述子の2次までの低域成分を表現する6つの係数を用いるものとする。P形フーリエ記述子の算出手順については、文献「線図形の曲りを特徴としたオンライン手書き漢字認識」(電子情報通信学会論文誌 1990年4月 Vol.J73-D-II No.4 pp.519-525)に詳述されている方法を用いる。   In step 907, a stroke shape feature vector u [1-6] representing the stroke shape is extracted from the latest stroke taken into the stroke buffer 208, that is, the Nth stroke data. Here, u [1 to 6] represent a six-dimensional vector composed of u [1], u [2],... U [6]. As the shape feature, for example, six coefficients that express low-frequency components up to the second order of a P-type Fourier descriptor obtained by Fourier expansion of a complex value function having the total curvature function of stroke data in the exponent part of the exponential function. Shall be used. For the calculation procedure of the P-type Fourier descriptor, refer to the document “Online Handwritten Kanji Recognition Characterized by Curved Lines” (Journal 1990, Vol.J73-D-II No.4 pp.519 -525) is used.

入力されたストロークが第2ストローク以降である場合には、ステップ909において、第NSTRKストロークと1つ前に入力された第NSTRK-1ストロークとの間の構造関係を表現する2次元のストローク間構造特徴ベクトルu2[1〜2]が抽出される。構造特徴としては、例えば、第NTRK-1ストロークの終点から第NSTRKストロークの始点を結ぶベクトルのノルムを1に正規化したベクトルを用いる。
以上が、ステップ802における詳細な処理手順である。
If the input stroke is after the second stroke, in step 909, a two-dimensional inter-stroke structure representing the structural relationship between the NSTRK stroke and the previous input NSTRK-1 stroke. Feature vectors u2 [1-2] are extracted. As the structural feature, for example, a vector obtained by normalizing the norm of the vector connecting the end point of the NTRK-1 stroke to the start point of the NSTRK stroke to 1 is used.
The detailed processing procedure in step 802 has been described above.

次に、ステップ803では、認識候補文字列生成手段203により、認識候補バッファ209内の認識候補文字列が更新される。ステップ803は、この時点でストロークバッファ208に格納されている入力ストローク列に対する認識候補となり得る文字列を生成する処理である。   Next, in step 803, the recognition candidate character string generation unit 203 updates the recognition candidate character string in the recognition candidate buffer 209. Step 803 is a process of generating a character string that can be a recognition candidate for the input stroke string stored in the stroke buffer 208 at this time.

このステップ803の処理の詳細を、図12のフローチャートを参照して説明する。
まず、ステップ1002において、認識候補バッファ209中の現在の認識候補文字列数を示すNCANDに基づいて、認識候補文字列が存在するかしないかが判定される。
Details of the processing in step 803 will be described with reference to the flowchart of FIG.
First, in step 1002, it is determined whether or not a recognition candidate character string exists based on NCAND indicating the current number of recognition candidate character strings in the recognition candidate buffer 209.

存在しない(NCAND=0の)場合には、ステップ1010に飛んで、図8に示したデータ構造の文字構造辞書211に登録されているNREF個の文字の各々をCAND_NCODE[I](I=1〜NREF)が“1”の第I認識候補文字列(新認識候補文字列)として認識候補バッファ209に格納(生成)する処理がなされる。このステップ1010における詳細な処理手順を図13のフローチャートに示す。   If it does not exist (NCAND = 0), the process jumps to step 1010, and each of the NREF characters registered in the character structure dictionary 211 having the data structure shown in FIG. 8 is replaced with CAND_NCODE [I] (I = 1 ˜NREF) is stored (generated) in the recognition candidate buffer 209 as an I-th recognition candidate character string (new recognition candidate character string) with “1”. A detailed processing procedure in step 1010 is shown in the flowchart of FIG.

一方、認識候補バッファ209中に既に認識候補文字列が存在する(NCAND>0の)場合には、各第I認識候補文字列について以下の処理がなされる。
まずステップ1005において、今、筆記入力されたストロークが現在の第I認識候補文字列に続く次の新しい1文字の最初のストロークであるかどうかが、ストロークバッファ208内のストローク数NSTRKが第I認識候補文字列の総ストローク数CAND_NSTRK[I]を超えたか否かにより判定される。
On the other hand, when a recognition candidate character string already exists in the recognition candidate buffer 209 (NCAND> 0), the following processing is performed for each I-th recognition candidate character string.
First, at step 1005, whether or not the stroke input now is the first stroke of the next new one character following the current Ith recognition candidate character string is determined by the number of strokes NSTRK in the stroke buffer 208 as the first recognition. This is determined by whether the total number of strokes CAND_NSTRK [I] of the candidate character string has been exceeded.

新しい1文字の最初のストロークではないと判定された場合には、ステップ1006において、第I認識候補文字列の最終文字を構成するストローク数を示すカウンタCAND_STRKCTR[I]を1だけ増加させる。   If it is determined that the stroke is not the first stroke of a new character, in step 1006, the counter CAND_STRKCTR [I] indicating the number of strokes constituting the final character of the I-th recognition candidate character string is incremented by one.

これに対し、新しい1文字の最初のストロークであると判定された場合には、ステップ1008において、現在の第I認識候補文字列に1文字を追加した新たな認識候補文字列を生成し認識候補バッファ209に登録する処理がなされる。追加する1文字は文字構造辞書211に含まれるNREF個の文字の全てであり、その数だけ認識候補バッファ209に新しい第K認識候補文字列(K=1〜NREF)が登録されることになる。ステップ1008における詳細な処理手順を図14のフローチャートに示す。
現在の第I認識候補文字列については、ステップ1009において旧認識候補文字列として棄却フラグが立てられる。
On the other hand, if it is determined that the stroke is the first stroke of a new character, in step 1008, a new recognition candidate character string in which one character is added to the current I-th recognition candidate character string is generated and a recognition candidate is created. Processing for registration in the buffer 209 is performed. One character to be added is all of the NREF characters included in the character structure dictionary 211, and as many new Kth recognition candidate character strings (K = 1 to NREF) are registered in the recognition candidate buffer 209 as the number of characters. . The detailed processing procedure in step 1008 is shown in the flowchart of FIG.
For the current I-th recognition candidate character string, in step 1009, a rejection flag is set as the old recognition candidate character string.

このようにしてNCAND個の全ての認識候補文字列に対して、それぞれNREF個の新認識候補文字列が認識候補バッファ209に生成・登録されると(ステップ1004)、棄却フラグが立てられた旧認識候補文字列を認識候補バッファ209から除去すると共に新認識候補文字列を整列する認識候補文字列更新処理がステップ1011において行われる。このステップ1011における詳細な処理手順を図15のフローチャートに示す。
以上が、ステップ803における詳細な処理手順である。
When NREF new recognition candidate character strings are generated and registered in the recognition candidate buffer 209 for all NCAND recognition candidate character strings in this way (step 1004), the old flag with a rejection flag set is set. In step 1011, a recognition candidate character string update process for removing the recognition candidate character string from the recognition candidate buffer 209 and aligning the new recognition candidate character string is performed. The detailed processing procedure in step 1011 is shown in the flowchart of FIG.
The detailed processing procedure in step 803 has been described above.

次に、ステップ804では、認識候補バッファ209内の各認識候補文字列について、ストロークバッファ208内の入力ストローク列との照合が文字列尤度計算手段204によって行われ、その照合結果(尤度計算結果)が認識候補バッファ209に格納される。   Next, in step 804, each recognition candidate character string in the recognition candidate buffer 209 is checked against the input stroke string in the stroke buffer 208 by the character string likelihood calculating means 204, and the result of the matching (likelihood calculation). Result) is stored in the recognition candidate buffer 209.

このステップ804の処理の詳細を、図16のフローチャートを参照して説明する。
まず、ステップ1403において、認識候補バッファ209の各第I認識候補文字列について、入力ストローク列の照合に用いられる文字列構造辞書が作成される。次のステップ1404では、入力ストローク列と作成された文字列構造辞書との照合が行われる。
Details of the processing of step 804 will be described with reference to the flowchart of FIG.
First, in step 1403, a character string structure dictionary used for collating input stroke strings is created for each I-th recognition candidate character string in the recognition candidate buffer 209. In the next step 1404, the input stroke string is collated with the created character string structure dictionary.

上記ステップ1403における第I認識候補文字列の文字列構造辞書の作成処理は、図17のフローチャートに従って次のように行われる。まず、ステップ1502において、ストロークバッファ208中にストロークが2本以上存在するかどうかが、当該バッファ208内のストローク数NSTRKが1より大きいか否かにより判定される。ストロークが1本しか存在しない場合にはステップ1506へ飛ぶ。2本以上の場合には、ステップ1503において、最新ストロークが第I認識候補文字列の最終文字の最初のストロークであるかどうかが判定される。   The creation process of the character string structure dictionary of the I-th recognition candidate character string in step 1403 is performed as follows according to the flowchart of FIG. First, in step 1502, whether or not there are two or more strokes in the stroke buffer 208 is determined by whether or not the number of strokes NSTRK in the buffer 208 is greater than one. If there is only one stroke, the process jumps to step 1506. If there are two or more, it is determined in step 1503 whether or not the latest stroke is the first stroke of the last character of the I-th recognition candidate character string.

最初のストロークの場合には、そのストロークと1つ前のストロークとの間は文字間であると見なされる。この場合、ステップ1504において、文字間構造辞書212から対応する文字間の文字間構造辞書情報が取り出されて、当該辞書情報を構成する平均ベクトルz[1〜2]及び共分散ベクトルθ[1〜2]が、それぞれv2[1〜2]及びφ2[1〜2]にセットされた後、ステップ1506に進む。   In the case of the first stroke, the interval between the stroke and the previous stroke is considered to be between characters. In this case, in step 1504, the inter-character structure dictionary information between the corresponding characters is extracted from the inter-character structure dictionary 212, and the average vector z [1-2] and the covariance vector θ [1- 2] is set to v2 [1-2] and φ2 [1-2], respectively, and then the process proceeds to step 1506.

一方、最初のストロークでない場合には、そのストロークと1つ前のストロークとの間は第I認識候補文字列の最終文字内のストローク間であると見なされ、ステップ1505において、最終文字についての文字構造辞書211中の辞書情報に記述されている対応するストローク間構造特徴の平均ベクトル及び共分散ベクトルが、それぞれv2[1〜2]及びφ2[1〜2]にセットされた後、ステップ1506に進む。   On the other hand, if it is not the first stroke, it is considered that the stroke and the previous stroke are between strokes in the last character of the I-th recognition candidate character string. After the average vector and covariance vector of the corresponding inter-stroke structure features described in the dictionary information in the structure dictionary 211 are set to v2 [1-2] and φ2 [1-2], respectively, step 1506 follows. move on.

ステップ1506では、最新入力ストロークに対応する最終文字についての文字構造辞書211中の辞書情報に記述されているストローク形状特徴の平均べクトル及び共分散ベクトルが、それぞれv[1〜6]及びφ[1〜6]にセットされる。   In step 1506, the average vectors and covariance vectors of the stroke shape features described in the dictionary information in the character structure dictionary 211 for the last character corresponding to the latest input stroke are v [1-6] and φ [ 1 ~ 6].

次に、上記ステップ1404における第I認識候補文字列の文字列構造辞書と入力ストローク列との照合処理は、図18のフローチャートに従って次のように行われる。   Next, the matching process between the character string structure dictionary of the I-th recognition candidate character string and the input stroke string in step 1404 is performed as follows according to the flowchart of FIG.

まず、ステップ1602において、ストロークバッファ208中にストロークが2本以上存在するかどうかが、上記ステップ1502と同様にして判定される。ストロークが1本しか存在しない場合にはステップ1607へ飛ぶ。2本以上の場合には、ステップ1603において、最新ストロークが現在の第I認識候補文字列の最終文字の最初のストロークであるかどうかが判定される。   First, in step 1602, whether or not there are two or more strokes in the stroke buffer 208 is determined in the same manner as in step 1502. If there is only one stroke, the process jumps to step 1607. If there are two or more, it is determined in step 1603 whether or not the latest stroke is the first stroke of the last character of the current I-th recognition candidate character string.

最初のストロークの場合には、そのストロークと1つ前のストロークとの間は文字間であると見なされる。この場合、ステップ1604において、先のステップ909で抽出された入力ストローク間構造特徴ベクトルu2[1〜2]とステップ1504でセットされた文字間構造特徴の平均ベクトルv2[1〜2]及び共分散ベクトルφ2[1〜2]との間で尤度の計算が行われ、その対数値log f(u2|v2,φ2)が第I認識候補文字列の対応する文字間構造部分、即ち最新のストロークの1つ前のストロークを最後のストロークとする文字と次の文字(現在の第I認識候補文字列の最終文字)との文字間構造部分の対数尤度としてセットされた後、ステップ1606に進む。   In the case of the first stroke, the interval between the stroke and the previous stroke is considered to be between characters. In this case, in step 1604, the input stroke structure feature vector u2 [1-2] extracted in the previous step 909, the intercharacter structure feature average vector v2 [1-2] set in step 1504, and the covariance Likelihood calculation is performed with respect to the vector φ2 [1-2], and the logarithmic value log f (u2 | v2, φ2) is the corresponding inter-character structure portion of the I-th recognition candidate character string, that is, the latest stroke. Is set as the log likelihood of the inter-character structure portion between the character having the previous stroke as the last stroke and the next character (the last character of the current I-th recognition candidate character string), and then proceeds to step 1606 .

ここで上記尤度は、平均ベクトルをv2[1〜2]、共分散ベクトルをφ2[1〜2]とした多次元無相関正規分布を確率密度関数とした場合の、入力ベクトルu2[1〜2]の確率密度関数値として、次式(1)により算出される。

Figure 2007220145
Here, the likelihood is the input vector u2 [1 to 2 when the multidimensional uncorrelated normal distribution with the mean vector v2 [1 to 2] and the covariance vector φ2 [1 to 2] is a probability density function. 2] is calculated by the following equation (1).
Figure 2007220145

一方、ステップ1603において最新ストロークが現在の第I認識候補文字列の最終文字の最初のストロークでないと判定された場合には、そのストロークと1つ前のストロークとの間は第I認識候補文字列の最終文字内のストローク間であると見なされる。この場合、ステップ1605において、ステップ909で抽出された入力ストローク間構造特徴ベクトルu2[1〜2]とステップ1505でセットされたストローク間構造特徴の平均ベクトルv2[1〜2]及び共分散ベクトルφ2[1〜2]との間で尤度の計算が行われ、その対数値log f(u2|v2,φ2)が第I認識候補文字列の対応する文字構造部分、即ち現在の第I認識候補文字列の最終文字の文字構造部分の対数尤度に累積してセットされた後、ステップ1606に進む。尤度の計算にはステップ1604と同様の形式の確率密度関数を用いる。   On the other hand, if it is determined in step 1603 that the latest stroke is not the first stroke of the last character of the current I-th recognition candidate character string, the I-th recognition candidate character string is between the stroke and the previous stroke. Between strokes in the last character of. In this case, in step 1605, the inter-stroke structural feature vector u2 [1-2] extracted in step 909, the inter-stroke structural feature average vector v2 [1-2] set in step 1505, and the covariance vector φ2 Likelihood calculation is performed between [1 and 2], and the logarithmic value log f (u2 | v2, φ2) is the corresponding character structure portion of the I-th recognition candidate character string, that is, the current I-th recognition candidate. After accumulatively setting the log likelihood of the character structure part of the last character of the character string, the process proceeds to step 1606. For the likelihood calculation, a probability density function having the same format as in step 1604 is used.

ステップ1606では、当該ステップ1606に先行するステップ1604または1605で算出された尤度の対数値log f(u2|v2,φ2)が、現時点までに求められている、第I認識候補文字列と入力ストローク列全体とを照合した結果の対数尤度CAND_L[I]に累積してセットされる。   In step 1606, the logarithm value log f (u2 | v2, φ2) of the likelihood calculated in step 1604 or 1605 preceding step 1606 is input as the I-th recognition candidate character string obtained up to the present time. It is accumulated and set in the log likelihood CAND_L [I] as a result of matching the entire stroke sequence.

ステップ1607では、ステップ907で抽出された入力ストロークの形状特徴ベクトルu[1〜6]と第I認識候補文字列の最終文字の文字構造辞書の対応するストローク形状特徴の平均べクトルv[1〜6]及び共分散ベクトルφ[1〜6]との間で尤度の計算が行われ、その対数値log f(u|v,φ)が求められる。   In step 1607, the input stroke shape feature vector u [1-6] extracted in step 907 and the corresponding stroke shape feature average vector v [1˜ in the character structure dictionary of the last character of the I-th recognition candidate character string. 6] and the covariance vector φ [1-6], the likelihood is calculated, and the logarithmic value log f (u | v, φ) is obtained.

ここで上記尤度は、平均ベクトルをv[1〜6]、共分散ベクトルをφ[1〜6]とした多次元無相関正規分布を確率密度関数とした場合の、入力ベクトルu[1〜6]の確率密度関数値として、次式(2)により算出される。

Figure 2007220145
Here, the likelihood is the input vector u [1 to when the multidimensional uncorrelated normal distribution with the mean vector v [1 to 6] and the covariance vector φ [1 to 6] is a probability density function. 6] is calculated by the following equation (2).
Figure 2007220145

ステップ1608では、ステップ1607で求められた対数値log f(u|v,φ)、即ちストローク形状特徴を照合して得られた尤度の対数値log f(u|v,φ)が、第I認識候補文字列の対応する文字構造部分、即ち第I認識候補文字列の最終文字の文字構造部分の対数尤度に累積してセットされる。   In step 1608, the logarithmic value log f (u | v, φ) obtained in step 1607, that is, the logarithm value log f (u | v, φ) of likelihood obtained by collating the stroke shape feature is It is accumulated and set to the log likelihood of the character structure portion corresponding to the I recognition candidate character string, that is, the character structure portion of the last character of the I recognition candidate character string.

ステップ1609では、ステップ1607で求められた対数値log f(u|v,φ)が、現時点までに求められている、第I認識候補文字列と入力ストローク列全体とを照合した結果の対数尤度CAND_L[I]に累積してセットされる。   In step 1609, the logarithmic value log f (u | v, φ) obtained in step 1607 is a logarithmic likelihood as a result of collating the I-th recognition candidate character string and the entire input stroke string obtained so far. Accumulated and set in degree CAND_L [I].

認識候補バッファ209内の全ての認識候補文字列について、ストロークバッファ208内の入力ストローク列との照合がなされると(ステップ1405)、ステップ1406において認識候補文字列の絞込みが行われる。   When all the recognition candidate character strings in the recognition candidate buffer 209 are collated with the input stroke string in the stroke buffer 208 (step 1405), the recognition candidate character strings are narrowed down in step 1406.

このステップ1406における絞込み処理は図19のフローチャートに従って実行される。ここでは、認識候補バッファ209内の各第I認識候補文字列(I=1〜NCAND)について取得された対数尤度の総和、即ち第I認識候補文字列と入力ストローク列全体とを照合した結果の対数尤度CAND_L[I]が、予め定められ閾値αに満たない場合には、その認識候補文字列が入力された可能性は低いと判断される(ステップ1703)。この場合、その認識候補文字列は認識候補バッファ209から削除される。   The narrowing process in step 1406 is executed according to the flowchart of FIG. Here, the sum of log likelihood obtained for each I-th recognition candidate character string (I = 1 to NCAND) in the recognition candidate buffer 209, that is, the result of collating the I-th recognition candidate character string with the entire input stroke string If the log likelihood CAND_L [I] is less than the predetermined threshold value α, it is determined that the possibility that the recognition candidate character string has been input is low (step 1703). In this case, the recognition candidate character string is deleted from the recognition candidate buffer 209.

一方、対数尤度CAND_L[I]が閾値α以上の認識候補文字列は、その認識候補文字列が入力された可能性は高いと判断され、第J認識候補文字列として認識候補バッファ209内に残される(ステップ1704)。   On the other hand, a recognition candidate character string having a log likelihood CAND_L [I] greater than or equal to the threshold value α is determined to have a high possibility that the recognition candidate character string has been input, and is stored in the recognition candidate buffer 209 as the Jth recognition candidate character string. It is left (step 1704).

以上に述べた図16のフローチャート(ステップ804での認識候補文字列に対する尤度計算処理の詳細手順)におけるステップ1403及びステップ1404の処理を、文字筆記領域301内で「あい」という文字を重ね書きした筆跡と、認識候補文字列「あい」との間の尤度計算の具体例について、図25を参照して筆記順に説明する。   The process of steps 1403 and 1404 in the flowchart of FIG. 16 described above (detailed procedure of the likelihood calculation process for the recognition candidate character string in step 804) is overwritten with the character “ai” in the character writing area 301. A specific example of likelihood calculation between the written handwriting and the recognition candidate character string “Ai” will be described in the order of writing with reference to FIG.

まず、最初のストロークが筆記されると、そのストローク(第1入力ストローク)から抽出された形状特徴u[1〜6]と「あ」の文字構造辞書の第1ストロークの形状特徴s[1][1][1〜6],σ[1][1][1〜6]との間で照合が行われる。   First, when the first stroke is written, the shape feature u [1 to 6] extracted from the stroke (first input stroke) and the shape feature s [1] of the first stroke in the character structure dictionary of “A” [1] [1-6] and σ [1] [1] [1-6] are collated.

第2入力トロークが筆記されると、1つ前の入力ストローク(第1入力ストローク)との間のストローク間構造特徴u2[1〜2]と、「あ」の文字構造辞書の第1ストロークと第2ストロークとの間のストローク間構造特徴s2[1][1][1〜2],σ2[1][1][1〜2]との間で照合が行われると共に、第2入力ストロークの形状特徴u[1〜6]と「あ」の文字構造辞書の第2ストロークの形状特徴s[1][2][1〜6],σ[1][2][1〜6]との間での照合も行われる。   When the second input stroke is written, the inter-stroke structure feature u2 [1-2] between the previous input stroke (first input stroke) and the first stroke of the character structure dictionary of “A” Inter-stroke structural features between the second stroke and s2 [1] [1] [1-2], σ2 [1] [1] [1-2], and the second input stroke Shape feature u [1-6] and shape feature s [1] [2] [1-6], σ [1] [2] [1-6] of the second stroke of the character structure dictionary of “A” Are also collated.

第3入力ストロークについても同様に尤度計算がなされるが、第4入力ストロークについては、そのストロークは「い」の最初のストロークであると判定されるため、第3入力ストロークと第4入力ストロークの間の入力ストローク間構造特徴u2[1〜2]は、「あ」と「い」の文字間構造特徴z[1〜2],θ[1〜2]との間で照合される。これらの照合により計算される尤度の対数値の累積値が、入力ストローク列と認識候補文字列との間の対数尤度となる。   Likelihood calculation is performed for the third input stroke as well, but the fourth input stroke and the fourth input stroke are determined for the fourth input stroke because the stroke is determined to be the first stroke of “yes”. The inter-input stroke structural features u2 [1-2] between the two are collated between the inter-character structural features z [1-2], θ [1-2] of “A” and “I”. The cumulative value of the logarithmic values of the likelihoods calculated by these collations is the log likelihood between the input stroke string and the recognition candidate character string.

ステップ804の次のステップ805では、認識候補バッファ209に格納されている各認識候補文字列と当該認識候補文字列毎の照合結果とから、入力文字列推定手段205により、認識確定文字列、認識未確定文字列、及び認識未確定ストローク列情報が決定される。   In step 805 following step 804, the input character string estimation unit 205 uses the recognition candidate character string stored in the recognition candidate buffer 209 and the matching result for each recognition candidate character string to recognize the recognized character string. The undetermined character string and the recognized undetermined stroke string information are determined.

図20はステップ805における処理手順を説明するためのフローチャートである。このフローチャートに示すように、ステップ805の入力文字列推定処理は、認識確定文字列の推定ステップ1801と、認識未確定文字列及び認識未確定ストローク情報の推定ステップ1802とからなる。   FIG. 20 is a flowchart for explaining the processing procedure in step 805. As shown in this flowchart, the input character string estimation process in step 805 includes a recognition confirmed character string estimation step 1801 and a recognition unconfirmed character string and recognition unconfirmed stroke information estimation step 1802.

図21はステップ1801における詳細な処理手順を説明するためのフローチャートである。ここでは、認識候補バッファ209内の全ての第I認識候補文字列(I=1〜NCAND)について(ステップ1902,1906,1908)、第1認識候補文字列を基準に、先頭から共通しているNSTRING1個の文字からなる文字列部分の文字コードSTRING1[J]の列(J=1〜NSTRING1)が認識確定文字列STRING1として抽出され(ステップ1907)、認識結果バッファ210にセットされる。ステップ1907では、NSTRING1個の文字の総ストローク数NSTRK1も求められ、認識確定文字列STRING1に対応付けて認識結果バッファ210にセットされる。   FIG. 21 is a flowchart for explaining a detailed processing procedure in step 1801. Here, all the first recognition candidate character strings (I = 1 to NCAND) in the recognition candidate buffer 209 are common from the top with reference to the first recognition candidate character string (steps 1902, 1906, 1908). A string (J = 1 to NSTRING1) of the character code STRING1 [J] of the character string portion made up of NSTRING1 characters is extracted as a recognition confirmed character string STRING1 (step 1907) and set in the recognition result buffer 210. In step 1907, the total number of strokes NSTRK1 of NSTRING1 characters is also obtained and set in the recognition result buffer 210 in association with the recognition confirmed character string STRING1.

図22はステップ1802における処理手順を説明するためのフローチャートである。ここでは、まず認識候補バッファ209内の全ての第I認識候補文字列(I=1〜NCAND)の中で最も対数尤度CAND_L[I]の大きい第MI認識候補文字列(最尤認識候補文字列)(MIは1〜NCANDのいずれか)を求める(ステップ2001〜2005)。   FIG. 22 is a flowchart for explaining the processing procedure in step 1802. Here, the first MI recognition candidate character string (maximum likelihood recognition candidate character) having the largest log likelihood CAND_L [I] among all the first I recognition candidate character strings (I = 1 to NCAND) in the recognition candidate buffer 209. Column) (MI is any one of 1 to NCAND) (steps 2001 to 2005).

次に求めた最尤認識候補文字列について、当該候補文字列の最終文字が筆記途中であるか否かを、当該最終文字に対応する入力ストローク列の終了ストローク番号CAND_ES[MI][CAND_NCODE[MI]]が当該候補文字列の総ストローク数を表すCAND_NSTRK[MI]の値より小さいか否かにより判定する(ステップ2006)。   Next, for the maximum likelihood recognition candidate character string obtained, whether or not the final character of the candidate character string is in the middle of writing is determined by the end stroke number CAND_ES [MI] [CAND_NCODE [MI of the input stroke sequence corresponding to the final character. ]] Is smaller than the value of CAND_NSTRK [MI] representing the total number of strokes of the candidate character string (step 2006).

もし、最尤認識候補文字列の最終文字が筆記途中である場合には、認識未確定ストローク列情報USTRK_FLAGを“1”とし、更に最尤認識候補文字列から認識確定文字列と最終文字を除いたNSTRING2個の文字からなる文字列部分を取り出して、その文字列部分の文字コードSTRING2[J]の列(J=1〜NSTRING2)を認識未確定文字列STRING2として認識結果バッファ210にセットする(ステップ2007,2009〜2011)。その際、当該認識未確定文字列を含む最尤認識候補文字列の対数尤度も、当該認識未確定文字列STRING2とともに認識結果バッファ210に格納するようにしてもよい。認識結果バッファ210に格納された当該最尤認識候補文字列の対数尤度は、後に、認識結果表示手段207で当該認識未確定文字列STRING2を表示する際に用いることもできる。   If the last character of the maximum likelihood recognition candidate character string is in the middle of writing, the recognition unconfirmed stroke string information USTRK_FLAG is set to “1”, and the recognition confirmed character string and the final character are excluded from the maximum likelihood recognition candidate character string. The character string portion consisting of NSTRING2 characters is taken out, and the character code string STRING2 [J] (J = 1 to NSTRING2) of the character string portion is set in the recognition result buffer 210 as a recognized unconfirmed character string STRING2 ( Step 2007, 2009-2011). At this time, the log likelihood of the maximum likelihood recognition candidate character string including the recognized unconfirmed character string may be stored in the recognition result buffer 210 together with the recognized unconfirmed character string STRING2. The log likelihood of the maximum likelihood recognition candidate character string stored in the recognition result buffer 210 can be used when the recognition result display unit 207 displays the recognition unconfirmed character string STRING2 later.

一方、最尤認識候補文字列の最終文字のストロークが全て筆記されている場合には、認識未確定ストローク情報USTRK_FLAGを“0”とし、更に最尤認識候補文字列から認識確定文字列を除いたNSTRING2個の文字からなる文字列部分を取り出して、その文字列部分の文字コードSTRING2[J]の列(J=1〜NSTRING2)を認識未確定文字列STRING2として認識結果バッファ210にセットする(ステップ2008〜2011)。   On the other hand, if all strokes of the last character of the maximum likelihood recognition candidate character string are written, the recognition unconfirmed stroke information USTRK_FLAG is set to “0”, and the recognition confirmed character string is further excluded from the maximum likelihood recognition candidate character string. A character string portion consisting of NSTRING2 characters is extracted, and a character code string STRING2 [J] string (J = 1 to NSTRING2) of the character string portion is set in the recognition result buffer 210 as a recognized unconfirmed character string STRING2 (step 2008-2011).

以上の説明から明らかなように、認識確定文字列STRING1は、入力ストローク列のうち、今後の筆記によって推定結果が変わらないという意味で断定された部分の文字列である。同様に、認識未確定文字列STRING2は、今後の筆記により推定結果が変わる可能性はあるが、現時点における尤度最大の意味で最もそれらしいと推測される部分の文字列である。そして、認識未確定ストローク列情報USTRK_FLAGは、未だ文字を書き終えていないストローク列の有無を表現している。   As is clear from the above description, the recognition-determined character string STRING1 is a character string of a portion determined in the sense that the estimation result does not change due to future writing in the input stroke string. Similarly, the unrecognized character string STRING2 is a character string of a portion that is estimated to be most likely in the meaning of the maximum likelihood at the present time, although the estimation result may change depending on future writing. The unrecognized stroke sequence information USTRK_FLAG represents the presence or absence of a stroke sequence for which characters have not yet been written.

ステップ805の次のステップ806では、認識結果表示手段207により、認識結果バッファ210内の認識確定文字列、認識未確定文字列及び認識未確定ストローク列情報が表示パターンに変換されて、ディスプレイ213の表示画面中の認識結果表示領域302に表示される。   In step 806 following step 805, the recognition result display means 207 converts the recognized confirmed character string, recognized unconfirmed character string, and recognized unconfirmed stroke string information in the recognition result buffer 210 into a display pattern, and It is displayed in the recognition result display area 302 in the display screen.

このような、ストロークが筆記される都度推定される認識確定文字列、認識未確定文字列及び認識未確定ストローク列情報の表示の例を、文字筆記領域301内で「あい」という文字を重ね書きした筆跡の各ストローク(入力ストローク)とストローク番号とに対応付けて、図26の第3列に示す。   An example of the display of the recognized confirmed character string, the recognized unconfirmed character string, and the recognized unconfirmed stroke string information that is estimated each time a stroke is written is overwritten with the character “ai” in the character writing area 301. FIG. 26 shows the third column in association with each stroke (input stroke) and the stroke number.

同図において、黒四角の記号は文字挿入位置を示すカーソルであり、図5中のカーソルCに相当する。また、下線のない文字列部分は認識確定文字列を、下線のある文字列部分は認識未確定文字列を、それぞれ表す。また、記号“⇒”は認識未確定ストローク列情報USTRK_FLAGが“1”の場合に認識未確定文字列の次の文字位置に表示され、認識未確定ストローク列が存在することを表す。   In the figure, a black square symbol is a cursor indicating a character insertion position and corresponds to the cursor C in FIG. A character string portion without an underline represents a recognized confirmed character string, and an underlined character string portion represents a recognized unconfirmed character string. The symbol “⇒” is displayed at the character position next to the recognized unconfirmed character string when the recognized unconfirmed stroke string information USTRK_FLAG is “1”, and indicates that a recognized unconfirmed stroke string exists.

このように本実施形態においては、認識確定文字列、認識未確定文字列及び認識未確定ストローク列情報をユーザが容易に識別(視認)できるような表示属性を付加して、ストローク入力の都度、画面表示しているため、ユーザは自分の筆跡の認識処理結果を逐次確認することができ、快適な文字入力が可能となる。   Thus, in this embodiment, a display attribute that allows the user to easily identify (view) the recognized confirmed character string, the recognized unconfirmed character string, and the recognized unconfirmed stroke string information is added each time a stroke is input. Since it is displayed on the screen, the user can check the handwriting recognition processing result sequentially, and comfortable character input is possible.

ステップ806が終了すると、バッファ更新手段206により、ステップ807において認識候補バッファ209の更新が行われ、ステップ808においてストロークバッファ208の更新が行われる。   When step 806 is completed, the buffer update unit 206 updates the recognition candidate buffer 209 in step 807, and the stroke buffer 208 is updated in step 808.

ステップ807における詳細な処理手順を図23のフローチャートに示す。ここでは、認識確定文字列NSTRING1が存在する場合、認識候補バッファ209内の各第I認識候補文字列(I=1〜NCAND)について、当該各候補文字列から認識確定文字列NSTRING1に相当する部分の情報が除去される。   The detailed processing procedure in step 807 is shown in the flowchart of FIG. Here, when the recognition confirmed character string NSTRING1 exists, for each I-th recognition candidate character string (I = 1 to NCAND) in the recognition candidate buffer 209, a portion corresponding to the recognition confirmed character string NSTRING1 from each candidate character string Information is removed.

次にステップ808における詳細な処理手順を図24のフローチャートに示す。ここでは、ストロークバッファ208内のNSTRK個の第Iストロークデータ(I=1〜NSTRK)のうち、I=NSTRK1+1〜NSTRKの第Iストロークデータ、即ち第NSTRK1+1ストロークデータ〜第NSTRKストロークデータを、新たなNSTRK個(新NSTRK=旧NSTRK-NSTRK1)の第Jストロークデータとすることにより、認識確定文字列NSTRING1に対応する(第1ストロークデータ〜第NSTRK1ストロークデータからなる)入力ストローク列データを当該ストロークバッファ208から除去するストロークバッファ更新処理が行われる。   Next, the detailed processing procedure in step 808 is shown in the flowchart of FIG. Here, of the NSTRK number I stroke data (I = 1 to NSTRK) in the stroke buffer 208, I = NSTRK1 + 1 to NSTRK I stroke data, that is, NSTRK1 + 1 stroke data to NSTRK stroke data. Is the new NSTRK (new NSTRK = old NSTRK-NSTRK1) J stroke data, so that the input stroke string data (consisting of the first stroke data to the NSTRK1 stroke data) corresponding to the recognized character string NSTRING1 Is updated from the stroke buffer 208.

このバッファ更新処理は、ステップ2107,2108のループと、ステップ2109〜2111とに大別される。ステップ2107,2108のループでは、認識確定文字列NSTRING1中の最終文字を除く文字列に対応する入力ストローク列データがストロークバッファ208から削除され、ステップ2109〜2111では、認識確定文字列NSTRING1中の最終文字に対応する入力ストローク列データがストロークバッファ208から削除される。   This buffer update process is roughly divided into a loop of steps 2107 and 2108 and steps 2109 to 2111. In the loop of steps 2107 and 2108, the input stroke string data corresponding to the character string excluding the final character in the recognition confirmed character string NSTRING1 is deleted from the stroke buffer 208. In steps 2109 to 2111, the final stroke in the recognition confirmed character string NSTRING1 is deleted. The input stroke string data corresponding to the character is deleted from the stroke buffer 208.

ステップ808の次のステップ809では、認識候補バッファ209が空であるかどうかの判定が例えばバッファ更新手段206によってなされ、認識候補文字列が存在する場合にはステップ802に戻って筆跡情報取得手段202に制御が渡され、次のストロークの取り込みがなされる。   In step 809 following step 808, whether or not the recognition candidate buffer 209 is empty is determined by, for example, the buffer update unit 206. If there is a recognition candidate character string, the process returns to step 802 to return to the handwriting information acquisition unit 202. Control is passed to and the next stroke is captured.

これに対し、認識候補バッファ209が空の場合には、入力されたストローク列全てについて認識結果が確定した文字列が表示出力されたとして、認識処理は終了となる。   On the other hand, when the recognition candidate buffer 209 is empty, the recognition process is terminated, assuming that a character string whose recognition result has been determined for all the input stroke strings is displayed and output.

よって本実施形態におけるオンライン文字認識装置では、以上に述べた処理手順により、ユーザが文字の区切りを意識することなく続けて書いた文字列を高精度に認識して入力することができる。   Therefore, the on-line character recognition apparatus according to the present embodiment can recognize and input a character string continuously written by the user without being aware of character separation by the processing procedure described above.

(認識結果の表示方法)
図4の認識結果表示手段207は、前述したように、認識結果バッファ210内の認識確定文字列、認識未確定文字列及び認識未確定ストローク列情報を表示パターンに変換して、ディスプレイ213の表示画面中の認識結果表示領域302に表示する。
(Recognition result display method)
As described above, the recognition result display unit 207 in FIG. 4 converts the recognized confirmed character string, the recognized unconfirmed character string, and the recognized unconfirmed stroke string information in the recognition result buffer 210 into a display pattern, and displays on the display 213. It is displayed in the recognition result display area 302 in the screen.

次に、図10のステップ806における認識結果表示手段207での認識結果の表示手順の一例を図27に示すフローチャートを参照して説明する。図27に示すフローチャートは、認識結果のうち、認識確定文字列と認識未確定文字列を表示する手順を示したものであるが、特に、認識未確定文字列を表示する際には、その尤度と予め定められた閾値とを比較して、表示更新を行う点に特徴がある。この認識未確定文字列の尤度とは、入力文字列推定手段205で認識未確定文字列が推定されたときに、その認識未確定文字列を含む最尤認識候補文字列の対数尤度である。この対数尤度は、当該認識未確定文字列とともに、認識結果バッファ210に格納されるものとする。   Next, an example of a recognition result display procedure in the recognition result display means 207 in step 806 of FIG. 10 will be described with reference to the flowchart shown in FIG. The flowchart shown in FIG. 27 shows the procedure for displaying the recognized confirmed character string and the recognized unconfirmed character string among the recognition results. In particular, when displaying the recognized unconfirmed character string, the likelihood is displayed. This is characterized in that the display is updated by comparing the degree with a predetermined threshold. The likelihood of the unrecognized character string is the log likelihood of the maximum likelihood recognition candidate character string including the unrecognized character string when the unrecognized character string is estimated by the input character string estimating unit 205. is there. This log likelihood is assumed to be stored in the recognition result buffer 210 together with the unrecognized character string.

まず、認識結果表示手段207は、認識結果バッファ210から認識確定文字列を取出して表示する。すなわち、当該認識確定文字列が表示パターンに変換されて、ディスプレイ213の表示画面中の認識結果表示領域302に表示される(ステップS11)。   First, the recognition result display unit 207 extracts the recognition confirmed character string from the recognition result buffer 210 and displays it. That is, the recognition confirmed character string is converted into a display pattern and displayed in the recognition result display area 302 in the display screen of the display 213 (step S11).

次に、認識未確定文字列の表示を行うわけであるが、ここでは、まず、認識結果バッファ210から、認識未確定文字列と当該認識未確定文字列とともに格納されている対数尤度を取り出す。そして、この対数尤度の値が予め定められた閾値より大きい(あるいは、閾値以上である)ときは、この今回の認識未確定文字列を表示する。すなわち、当該認識未確定文字列が表示パターンに変換されて、ディスプレイ213の表示画面中の認識結果表示領域302に表示される(ステップS12、ステップS13)。   Next, the unrecognized character string is displayed. Here, first, the unrecognized character string and the log likelihood stored together with the unrecognized character string are extracted from the recognition result buffer 210. . When this log likelihood value is larger than a predetermined threshold (or larger than the threshold), the current unrecognized character string is displayed. That is, the unrecognized character string is converted into a display pattern and displayed in the recognition result display area 302 in the display screen of the display 213 (steps S12 and S13).

一方、当該認識未確定文字列とともに格納されている対数尤度の値が予め定められた閾値以下である(あるいは、閾値より小さい)ときは、この今回の認識未確定文字列は表示せずに、現在表示されている認識未確定文字列をそのまま表示する(ステップS12、ステップS14)。   On the other hand, when the value of the log likelihood stored together with the recognized unconfirmed character string is equal to or smaller than a predetermined threshold (or smaller than the threshold), the current unconfirmed character string is not displayed. Then, the currently unrecognized character string that is currently displayed is displayed as it is (step S12, step S14).

次に、図10のステップ806における認識結果表示手段207での認識結果の表示手順の他の例を図28に示すフローチャートを参照して説明する。図28に示すフローチャートも、認識結果のうち、認識確定文字列と認識未確定文字列を表示する手順を示したものであるが、特に、認識未確定文字列を表示する際には、その尤度と現在表示されている認識未確認文字列の尤度とを比較して、表示更新を行う点に特徴がある。なお、この認識未確定文字列の尤度とは、入力文字列推定手段205で認識未確定文字列が推定されたときに、その認識未確定文字列を含む最尤認識候補文字列の対数尤度である。この対数尤度は、当該認識未確定文字列とともに、認識結果バッファ210に格納されるものとする。   Next, another example of the recognition result display procedure by the recognition result display means 207 in step 806 of FIG. 10 will be described with reference to the flowchart shown in FIG. The flowchart shown in FIG. 28 also shows the procedure for displaying the recognized confirmed character string and the recognized unconfirmed character string in the recognition result. In particular, when displaying the recognized unconfirmed character string, the likelihood is displayed. It is characterized in that the display is updated by comparing the degree and the likelihood of the unrecognized character string currently displayed. The likelihood of the unrecognized character string is the log likelihood of the maximum likelihood recognition candidate character string including the unrecognized character string when the input unrecognized character string is estimated by the input character string estimating unit 205. Degree. This log likelihood is assumed to be stored in the recognition result buffer 210 together with the unrecognized character string.

まず、認識結果表示手段207は、認識結果バッファ210から認識確定文字列を取出して表示する。すなわち、当該認識確定文字列が表示パターンに変換されて、ディスプレイ213の表示画面中の認識結果表示領域302に表示される(ステップS21)。   First, the recognition result display unit 207 extracts the recognition confirmed character string from the recognition result buffer 210 and displays it. That is, the recognition confirmed character string is converted into a display pattern and displayed in the recognition result display area 302 in the display screen of the display 213 (step S21).

次に、認識未確定文字列の表示を行うわけであるが、ここでは、まず、認識結果バッファ210から、認識未確定文字列と当該認識未確定文字列とともに格納されている対数尤度を取り出す。そして、この対数尤度の値が、現在表示されている認識未確定文字列の尤度(認識結果表示手段207に保持されている)の値より大きい(あるいは、以上である)ときは、この今回の認識未確定文字列を表示する。すなわち、当該認識未確定文字列が表示パターンに変換されて、ディスプレイ213の表示画面中の認識結果表示領域302に表示される(ステップS22、ステップS23)。そして、今回表示された認識未確定文字列の尤度を保持する(ステップS24)
一方、当該認識未確定文字列とともに格納されている対数尤度の値が、現在表示されている認識未確定文字列の尤度(認識結果表示手段207に保持されている)の値以下である(あるいは、小さい)ときは、この今回の認識未確定文字列は表示せずに、現在表示されている認識未確定文字列をそのまま表示する(ステップS22、ステップS25)。
Next, the unrecognized character string is displayed. Here, first, the unrecognized character string and the log likelihood stored together with the unrecognized character string are extracted from the recognition result buffer 210. . When the log likelihood value is greater than (or greater than) the likelihood of the currently unrecognized character string that is currently displayed (held in the recognition result display means 207), The current unconfirmed character string is displayed. That is, the unrecognized character string is converted into a display pattern and displayed in the recognition result display area 302 in the display screen of the display 213 (steps S22 and S23). Then, the likelihood of the recognized unconfirmed character string displayed this time is held (step S24).
On the other hand, the value of the log likelihood stored together with the recognized unconfirmed character string is equal to or less than the likelihood of the currently recognized unconfirmed character string (held in the recognition result display means 207). If it is (or smaller), the currently unrecognized character string currently displayed is displayed as it is without displaying the current unrecognized character string (steps S22 and S25).

このような、ストロークが筆記される都度推定される認識確定文字列、認識未確定文字列の表示の例を、文字筆記領域301内で「てがき」という文字を重ね書きした筆跡の各ストローク(「て」の1画目、「が」の1画目、2画目、…)と、ストロークが筆記される都度推定された認識確定文字列と認識未確定文字列とに対応付けて、図29の第4列に示す。   Examples of the display of the recognized confirmed character string and the unrecognized character string that are estimated each time a stroke is written are shown in each stroke of the handwriting in which the character “word” is overwritten in the character writing area 301 ( The first drawing of “Te”, the first drawing of “Ga”, the second drawing,...), And the recognized confirmed character string and the recognized unconfirmed character string estimated each time the stroke is written, 29 in the fourth column.

同図第4列において、下線の引かれていない文字列部分は認識確定文字列であり、下線の引かれている文字列部分は認識未確定文字列を、それぞれ表す。   In the fourth column of the figure, the underlined character string portion is a recognized confirmed character string, and the underlined character string portion represents a recognized unconfirmed character string.

このように本実施形態においては、認識確定文字列、認識未確定文字列をユーザが容易に識別(視認)できるような表示属性を付加して、ストローク入力の都度、画面表示しているため、ユーザは自分の筆跡の認識処理結果を逐次確認することができ、快適で効率のよい、手書き文字入力が可能となる。   As described above, in the present embodiment, a display attribute that allows the user to easily identify (recognize) a recognized confirmed character string and a recognized unconfirmed character string is added and displayed on the screen every time a stroke is input. The user can check the handwriting recognition processing result sequentially, and can input handwritten characters comfortably and efficiently.

(筆跡表示方法)
文字筆記領域301上に文字を筆記する場合、その筆跡が全く表示されないのであれば、前のストロークの位置が確認できないため、次に筆記するストロークが本来入力したい位置からずれていまい、正しい文字が入力する事ができないばかりか、誤認識の原因ともなる。また、特に、1文字分の文字筆記領域301上に文字を重ね書きする場合、入力したストロークが全て表示されると現在入力中の文字以外のストロークまで表示されていまうので、かえってわかりづらい。
(Handwriting display method)
When a character is written on the character writing area 301, if the handwriting is not displayed at all, the position of the previous stroke cannot be confirmed. Not only can not be entered, it also causes misrecognition. In particular, when characters are overwritten on the character writing area 301 for one character, when all the input strokes are displayed, strokes other than the character currently being input are displayed, which is difficult to understand.

そこで、次に、タブレット201の文字筆記領域301に筆記されたストロークの表示手法について説明する。   Then, next, the display method of the stroke written in the character writing area 301 of the tablet 201 is demonstrated.

図30は、タブレット201の文字筆記領域301に筆記されたストロークを表示するための筆跡表示手段を有したオンライン文字認識装置の構成を示したものである。なお、図30において、図4と同一部分には同一符号を付し、異なる部分についてのみ説明する。すなわち、上記筆跡表示手段220とペン操作判定手段221が新たに追加されている。また、タブレット201は透明で、しかもこのタブレットは、その文字筆記領域上に筆記された筆跡を表示するためのディスプレイ213の筆跡表示領域上に設けられていて、ディスプレイ213に、タブレット201上にペンPを用いてユーザにより筆記されたストロークが表示されると、ユーザは、このタブレット201を介して、この表示されたストロークを見ることができるようになっている。   FIG. 30 shows the configuration of an on-line character recognition device having handwriting display means for displaying strokes written in the character writing area 301 of the tablet 201. In FIG. 30, the same parts as those in FIG. 4 are denoted by the same reference numerals, and only different parts will be described. That is, the handwriting display means 220 and the pen operation determination means 221 are newly added. The tablet 201 is transparent, and this tablet is provided on the handwriting display area of the display 213 for displaying the handwriting written on the character writing area. When a stroke written by the user using P is displayed, the user can see the displayed stroke via the tablet 201.

筆跡表示手段220は、筆跡情報取得手段202で取得されたストロークデータを用いてディスプレイ213上の筆跡表示領域に筆跡を表示するようになっている。   The handwriting display means 220 displays the handwriting in the handwriting display area on the display 213 using the stroke data acquired by the handwriting information acquisition means 202.

ペンPが当該タブレットに触れているときのペン先の位置を表す座標データが筆跡情報取得手段202で取得されるので、ペン操作判定手段221は、この座標データを基に、ペン操作の種類を判定し、その判定結果に応じて、筆跡表示手段220などに所定の指示を行うようになっている。   Since the coordinate data representing the position of the pen tip when the pen P is touching the tablet is acquired by the handwriting information acquisition unit 202, the pen operation determination unit 221 determines the type of pen operation based on the coordinate data. It is determined, and a predetermined instruction is given to the handwriting display means 220 or the like according to the determination result.

筆跡表示手段220は、現在入力中のストロークを含め最新のN本の入力ストロークを表示する。表示するストロークの数Nは、予め設定されるものである。   The handwriting display means 220 displays the latest N input strokes including the currently input stroke. The number N of strokes to be displayed is set in advance.

次に、図31に示すフローチャートを参照して、筆跡表示手段220の筆跡表示処理動作について説明する。なお、図31に示す処理は、図3のステップS1において実行される。   Next, the handwriting display processing operation of the handwriting display means 220 will be described with reference to the flowchart shown in FIG. The process shown in FIG. 31 is executed in step S1 of FIG.

最新のN本の入力ストロークの表示制御のために、筆跡表示手段220は、タブレット201上で入力されたストロークの数をNに達するまで計数するストロークカウンタMと、入力ストロークデータを格納するストロークバッファBと、当該ストロークバッファ上の格納位置を示すリングバッファポインタPを有する。ストロークバッファBは1番目からN番目のN個の入力ストロークデータを格納する領域をもち、リングバッファポインタPは、ストロークバッファBの1番目の格納領域から2番目、3番目…と順に指し示し、N番目に達したときは再び1番目に戻ることによって、ストロークバッファBの格納領域をエンドレスに指し示す。なお、ここでは、説明の簡単のため、リングバッファポインタPの取り得る値をストロークバッファBのストロークデータの1番目からN番目までの各格納領域を示す値、すなわち、1〜Nとし、ストロークバッファBのP番目の格納領域をB(P)と表すことにする。   For display control of the latest N input strokes, the handwriting display means 220 includes a stroke counter M that counts the number of strokes input on the tablet 201 until it reaches N, and a stroke buffer that stores input stroke data. B and a ring buffer pointer P indicating the storage position on the stroke buffer. The stroke buffer B has an area for storing the first to Nth input stroke data, and the ring buffer pointer P points in order from the first storage area of the stroke buffer B to the second, third,. When it reaches the second position, the storage area of the stroke buffer B is pointed endlessly by returning to the first position again. Here, for simplicity of explanation, the possible values of the ring buffer pointer P are values indicating the first to Nth storage areas of the stroke data of the stroke buffer B, that is, 1 to N, and the stroke buffer The Pth storage area of B is represented as B (P).

まず、ペンPによる手書き文字入力の開始とともに、筆跡表示手段220が初期化される。この初期化とは、例えば、現在筆跡表示領域に表示されている筆跡が存在するのであれば、これを消去し、ストロークカウンタMと、リングバッファポインタPを「0」にセットする(ステップS101)。   First, with the start of handwritten character input by the pen P, the handwriting display means 220 is initialized. In this initialization, for example, if there is a handwriting currently displayed in the handwriting display area, it is deleted and the stroke counter M and the ring buffer pointer P are set to “0” (step S101). .

1ストローク入力されると(ステップS102)、そのときのリングバッファポインタPの値とNとが比較され、PがNと等しくなければ(ステップS103)、ステップS104へ進み、リングバッファポインタPを1つインクリメントする。一方、ステップS103で、PがNと等しければ、ステップS105ヘ進み、リングバッファポインタPがストロークバッファBの1番目の格納領域を指し示すように、リングバッファポインタPの値を「1」に戻す。   When one stroke is input (step S102), the value of the ring buffer pointer P at that time is compared with N. If P is not equal to N (step S103), the process proceeds to step S104, and the ring buffer pointer P is set to 1. Increment by one. On the other hand, if P is equal to N in step S103, the process proceeds to step S105, and the value of the ring buffer pointer P is returned to “1” so that the ring buffer pointer P points to the first storage area of the stroke buffer B.

次に、ステップS106へ進む。ステップS106では、ストロークバッファBのP番目の格納領域に、ステップS102で入力された当該ストロークデータを格納する(ステップS106)。そして、現在までに入力されたストロークの数MがNよりも小さい(あるいは、N以下である)とき(ステップS107)、ステップS108へ進み、ストロークカウンタMを1つインクリメントした後、ステップS109で、ストロークバッファBから今回P番目の格納領域に格納したストロークデータを含め最新のP本のストロークを取出し、筆跡の表示を行う。この場合、ストロークバッファBに格納されているストロークデータは、新しいものから順に並べると、B(P)、B(P−1)、…B(1)となる。   Next, the process proceeds to step S106. In step S106, the stroke data input in step S102 is stored in the Pth storage area of the stroke buffer B (step S106). When the number M of strokes input so far is smaller than N (or less than N) (step S107), the process proceeds to step S108, and after incrementing the stroke counter M by one, in step S109, The latest P strokes including the stroke data stored in the Pth storage area this time are extracted from the stroke buffer B, and the handwriting is displayed. In this case, the stroke data stored in the stroke buffer B are B (P), B (P-1),... B (1) when arranged in order from the newest.

一方、ステップS107で、現在までに入力されたストロークの数MがN以上である(あるいは、Nより小さい)ときは、ストロークカウンタMの更新は行わずに、ステップS110へ進み、ストロークバッファBから今回P番目の格納領域に格納したストロークデータを含め最新のN本のストロークを取出し、筆跡の表示を行う。この場合、ストロークバッファBに格納されているストロークデータは、新しいものから順に並べると、B(p)、B(P−1)、…B(1)、B(N)、B(1)、B(2)、…B(P+1)となる。   On the other hand, when the number M of strokes input so far is N or more (or smaller than N) in step S107, the process proceeds to step S110 without updating the stroke counter M, and the stroke buffer B is updated. The latest N strokes including the stroke data stored in the Pth storage area this time are taken out and the handwriting is displayed. In this case, when the stroke data stored in the stroke buffer B are arranged in order from the newest, B (p), B (P-1),... B (1), B (N), B (1), B (2),... B (P + 1).

ここで、ストロークデータの表示方法について説明する。前述したように、各ストロークデータは、ペンPがタブレット201に触れている間のペン先の位置を表す2次元座標データ列である。1本のストロークがJ個の座標データからなるとする。各座標データを(x[j]、y[j])と表す。ここで、j=1〜Jである。例えば、ユーザが「の」という文字(1ストロークで構成される文字)を筆記したときの筆跡表示例を図32に示す。この場合の入力ストロークを構成する座標点は全部で12個であるので、この12個の座標データ列(x[j]、y[j])、j=1〜Jを順に結んで折れ線で当該入力ストロークを表現することができる。   Here, a display method of stroke data will be described. As described above, each stroke data is a two-dimensional coordinate data string representing the position of the pen tip while the pen P is touching the tablet 201. Assume that one stroke is composed of J coordinate data. Each coordinate data is represented as (x [j], y [j]). Here, j = 1 to J. For example, FIG. 32 shows a handwriting display example when the user has written a character “no” (character composed of one stroke). In this case, since there are twelve coordinate points constituting the input stroke, the twelve coordinate data strings (x [j], y [j]), j = 1 to J are connected in order, and this is indicated by a broken line. An input stroke can be expressed.

図31に示した手順で入力ストロークの筆跡の表示を行うと、例えば、Nが「2」に設定されている場合には、ディスプレイ213の筆跡表示領域には、図33に示すような筆跡が表示される。図33(a)は、タブレット201の文字筆記領域301に、「い」という文字の2番目のストロークを入力し終えたときの筆跡表示例を示している。図33(b)は、タブレット201の文字筆記領域301に、「あ」という文字の3番目のストロークを入力し終えたときの筆跡表示例を示している。同図からも明らかなように、1番目のストロークは表示されていない。同様に、図33(c)は、タブレット201の文字筆記領域301に、「た」という文字の4番目のストロークを入力し終えたときの筆跡表示例を示している。同図からも明らかなように、1番目と2番目のストロークは表示されていない。   When the input stroke handwriting is displayed in the procedure shown in FIG. 31, for example, when N is set to “2”, the handwriting display area of the display 213 has a handwriting as shown in FIG. Is displayed. FIG. 33A shows a handwriting display example when the second stroke of the character “I” has been input in the character writing area 301 of the tablet 201. FIG. 33B shows an example of a handwriting display when the third stroke of the character “A” has been entered in the character writing area 301 of the tablet 201. As is apparent from the figure, the first stroke is not displayed. Similarly, FIG. 33 (c) shows a handwriting display example when the fourth stroke of the character “TA” has been entered in the character writing area 301 of the tablet 201. As is clear from the figure, the first and second strokes are not displayed.

ディスプレイ213の筆跡表示領域には、タブレット201上にペンPを用いてユーザにより筆記されたストロークが、筆記と同時にリアルタイムに表示されることが望ましい。そのための筆跡表示手段221の処理動作について、図34に示すフローチャートを参照して説明する。なお、図34に示した、入力中のストロークの表示処理は、図31のステップS102で実行される。   In the handwriting display area of the display 213, it is desirable that the stroke written by the user using the pen P on the tablet 201 is displayed in real time simultaneously with the writing. The processing operation of the handwriting display means 221 for that purpose will be described with reference to the flowchart shown in FIG. Note that the process of displaying the stroke being input shown in FIG. 34 is executed in step S102 of FIG.

前述したように、ペンPが当該タブレットに触れている間のペン先の位置を表す座標データが筆跡情報取得手段202で取得される。すなわち、ユーザが1ストローク筆記している間に取得される座標データが筆跡表示手段221に入力するわけだが、その際、前回ペン先がタブレットを離れた後(すなわち、1ストロークの筆記終了後)に初めてペン先がタブレットに触れたことにより、最初に座標データが入力してきた時点で筆跡表示を開始する。まず、座標点数を計数するための変数Kを「0」にセットする(ステップS201)。そして、変数Kを1つインクリメントして(ステップS202)、そのときの座標データ(x[K]、y[K])を取得する(ステップS203)。今回取得した座標データを含めて、筆跡表示を開始してから取得した座標データが1つのとき、すなわち、K=1のときは(ステップS204)、ステップS206へ進み、当該座標点の表示を行う。一方、筆跡表示を開始してから取得した座標データが2つ目以上であるとき、すなわち、K>1のときは、ステップS205へ進み、今回の座標データが(x[K]、y[K])であるとすると、この今回の座標点と前回表示した座標点(x[K―1]、y[K―1])とを結ぶ線分を表示する。以上ステップS202〜ステップS206を、ペン先がタブレットを離れたこと(1ストロークの筆記の終了)が検出されるまで繰り返す(ステップS207)。   As described above, the handwriting information acquisition unit 202 acquires coordinate data representing the position of the pen tip while the pen P is touching the tablet. That is, the coordinate data acquired while the user is writing for one stroke is input to the handwriting display means 221. At that time, after the pen tip leaves the tablet last time (that is, after the end of one stroke writing). When the pen tip touches the tablet for the first time, the handwriting display starts when the coordinate data is first input. First, a variable K for counting the number of coordinate points is set to “0” (step S201). Then, the variable K is incremented by 1 (step S202), and the coordinate data (x [K], y [K]) at that time is acquired (step S203). When the coordinate data acquired from the start of the handwriting display including the coordinate data acquired this time is one, that is, when K = 1 (step S204), the process proceeds to step S206 to display the coordinate point. . On the other hand, when the coordinate data acquired after starting the handwriting display is the second or more, that is, when K> 1, the process proceeds to step S205, and the current coordinate data is (x [K], y [K ]), A line segment connecting the current coordinate point and the previously displayed coordinate point (x [K-1], y [K-1]) is displayed. Steps S202 to S206 are repeated until it is detected that the pen tip has left the tablet (end of one stroke writing) (step S207).

なお、1ストロークの筆記の終了の判断は、ペン先がタブレットを離れたことをペン操作判定手段220が検知して、それを筆跡表示手段221に通知するようにしてもよいし、筆跡表示手段221が筆跡情報取得手段202からの座標データの入力が一時中断した時点を1ストロークの筆記の終了の判断してもよい。   The end of writing of one stroke may be determined by the pen operation determining means 220 detecting that the pen tip has left the tablet and notifying the handwriting display means 221 of this, or the handwriting display means. 221 may determine the end of one stroke of writing when the input of coordinate data from the handwriting information acquisition unit 202 is temporarily interrupted.

また、N本のストロークを表示する際には、その1つ1つのストロークが区別できるように表示するようにしてもよい。例えば、各ストロークの色や太さを違えて表示するようにしてもよいし、図35に示すように、各ストロークを実線、点線、波線など、線の種類を違えて表示するようにしてもよい。   Further, when displaying N strokes, the strokes may be displayed so that each stroke can be distinguished. For example, the strokes may be displayed with different colors and thicknesses, or as shown in FIG. 35, the strokes may be displayed with different line types such as solid lines, dotted lines, and wavy lines. Good.

なお、上記Nの値は、ユーザにより所望な値に設定可能であってもよいし、N本の入力ストロークを表示するか否かもユーザにより設定可能であってもよい。このようにすることで、ユーザ毎に、そのユーザにとって最適な手書き文字の入力環境を提供することができる。   Note that the value of N may be set to a desired value by the user, or whether or not to display N input strokes may be set by the user. By doing in this way, the input environment of the handwritten character optimal for the user can be provided for every user.

ペン操作判定部220は、上記のように、ペンPがタブレット上のどの位置に触れているかを判定して、ペン操作の種類を判定するものである。ペン操作の「種類には、例えば、筆記(文字)入力のための操作と、その他の操作(例えばカーソル移動など)とがある。   As described above, the pen operation determination unit 220 determines which position on the tablet the pen P is touching to determine the type of pen operation. “Types of pen operations include, for example, operations for writing (characters) input and other operations (for example, cursor movement).

ペンPがタブレット上の所定の文字筆記領域上を触れたときには、筆記(文字)入力の開始と判断するようにしてもよい。文字入力が開始されたと判断すると、図3や、図31に示した処理動作が行われる。   When the pen P touches a predetermined character writing area on the tablet, it may be determined that writing (character) input is started. If it is determined that character input has been started, the processing operations shown in FIG. 3 and FIG. 31 are performed.

例えば、ペンPがタブレット上の所定の文字筆記領域以外の所定の領域に触れたときや、ペンPがタブレットに触れてから予め定められた所定時間、その接触点を基準に予め定められた所定の範囲にペン先がとどまっているときなどには、筆記入力以外の操作であると判断するようにしてもよい。   For example, when the pen P touches a predetermined area other than a predetermined character writing area on the tablet, or for a predetermined time after the pen P touches the tablet, the predetermined predetermined with reference to the contact point When the pen tip remains within the range, it may be determined that the operation is other than writing input.

また、ペン先がタブレットを離れてからの時間を計測し、予め定められた時間を超えた場合に、筆跡表示手段221の初期化を行って、その時点で、ディスプレイ213の筆跡表示領域に表示されていた筆跡の消去を行うようにしてもよい。   In addition, the time after the pen tip leaves the tablet is measured, and when the predetermined time is exceeded, the handwriting display means 221 is initialized and displayed at the time in the handwriting display area of the display 213. You may make it erase the handwriting which was done.

このように、重ね書き文字入力のように、文字の切り出し位置が明示的ではない場合であっても、入力された筆跡を適切に表示することができ、手書き文字を入力しやすい環境を提供することができる。   In this way, even when the character cutout position is not explicit as in the case of overwritten character input, the input handwriting can be appropriately displayed, and an environment in which handwritten characters can be easily input is provided. be able to.

(オンライン文字認識装置の付加機能)
以下、図30に示すオンライン文字認識装置の構成例を参照して、その付加機能について説明する。
(Additional function of online character recognition device)
Hereinafter, the additional function will be described with reference to a configuration example of the online character recognition apparatus shown in FIG.

今まで説明してきた実施形態では、図5に示したように、文字筆記領域301と認識結果表示領域302とが分かれている。しかし、認識結果表示領域302においても、文字挿入位置を示すカーソルCの移動を指示するペン入力が実現可能である。すなわち、本実施形態では、ディスプレイ213に筆跡表示領域と認識結果表示領域とがある場合、透明のタブレット201が、それらを覆うように設けられていて、ユーザは、このタブレット201を介して、ディスプレイ213に表示された筆跡を見ることができるとともに、認識結果表示領域302内の任意の位置をペンPで指定することにより、認識結果として得られた文字列に対し編集操作を行うことができる。この編集操作のための指示を「ジェスチャ」と呼ぶこともある。   In the embodiment described so far, as shown in FIG. 5, the character writing area 301 and the recognition result display area 302 are separated. However, also in the recognition result display area 302, it is possible to realize pen input for instructing movement of the cursor C indicating the character insertion position. That is, in this embodiment, when the display 213 includes a handwriting display area and a recognition result display area, a transparent tablet 201 is provided so as to cover them, and the user can display the display via the tablet 201. The handwriting displayed on 213 can be seen, and by specifying an arbitrary position in the recognition result display area 302 with the pen P, an editing operation can be performed on the character string obtained as the recognition result. An instruction for this editing operation may be called a “gesture”.

例えば、図30に示すような構成において、認識結果表示領域302内の任意の位置がペンPで指定された(触れられた)ことがペン操作判定手段220により検出された場合には、カーソル移動指示がなされ、現在筆記中の文字列について筆記が完了したものと判断する。そして、入力文字列推定手段205に対しては、その時点で認識未確定文字列がある場合には、それを確定文字列として、認識結果表示手段207により認識結果表示領域302に表示させる確定処理を行わせる指示(確定指示)を行う。また、このとき、入力文字列推定手段205は、認識未確定ストローク列がある場合には、当該認識未確定ストローク列をストロークバッファ208から削除する。この削除処理をバッファ更新手段206により行わせることも可能である。   For example, in the configuration shown in FIG. 30, when the pen operation determination unit 220 detects that an arbitrary position in the recognition result display area 302 is designated (touched) by the pen P, the cursor is moved. An instruction is given and it is determined that writing has been completed for the character string currently being written. Then, if there is an unrecognized character string that is recognized at that time, the input character string estimating unit 205 determines that the recognized character string is displayed in the recognition result display area 302 by the recognition result display unit 207. An instruction (confirmation instruction) to perform is performed. At this time, if there is a recognized undetermined stroke sequence, the input character string estimating unit 205 deletes the recognized undetermined stroke sequence from the stroke buffer 208. This deletion process can also be performed by the buffer update unit 206.

こうすることで、文字挿入位置の指示と、文字列筆記操作をスムーズに繰り返すことが可能となり、快適な文字入力が可能となる。なお、上記ペン操作判定手段220は、各手段202〜207と同様に、図1の情報機器中のCPU1がオンライン文字認識プログラムを実行することにより実現可能である。   By doing so, it becomes possible to smoothly repeat the instruction of the character insertion position and the character string writing operation, and comfortable character input becomes possible. The pen operation determination unit 220 can be realized by the CPU 1 in the information device of FIG. 1 executing an online character recognition program, like the units 202 to 207.

また本実施形態では、最後のストロークが入力された後、予め定められた一定時間以上次のストローク入力がないことが上記ペン操作判定手段220によって検出される構成となっている。そして、一定時間以上次のストローク入力がないことが検出された場合にも、ペン操作判定手段220では、現在筆記中の文字列について筆記が完了したものとみなし、上記と同様の確定処理を行う。   In the present embodiment, after the last stroke is input, the pen operation determination unit 220 detects that there is no next stroke input for a predetermined time or more. Even when it is detected that there is no next stroke input for a certain time or longer, the pen operation determination unit 220 regards the character string currently being written as having been written, and performs a determination process similar to the above. .

このような確定処理前後の表示画面の変更例を、「あした」という文字を重ね書きした筆跡の各ストローク(入力ストローク)とストローク番号とに対応付けて、図26の第3列及び第5列に示す。   The third and fifth columns in FIG. 26 are associated with the strokes (input strokes) and stroke numbers of the handwriting in which the characters “Ashita” are overwritten. Shown in

また、図5に示した文字筆記領域301と認識結果表示領域302とを図36に示すように共通にすることも可能である。このような構成では、ペン先の座標が一定時間以上、一定座標範囲内から移動しない場合には、ペン操作判定手段220は、ペン入力が認識文字挿入位置を示すカーソルCの移動を指示するジェスチャであると判定する。ペン操作判定手段220によりペン入力がジェスチャであると判定された場合には、入力文字列推定手段205が認識未確定文字列を認識確定文字列として出力する上記と同様の確定処理を行うようにすればよい。   Further, the character writing area 301 and the recognition result display area 302 shown in FIG. 5 can be made common as shown in FIG. In such a configuration, when the coordinates of the pen tip do not move from within a certain coordinate range for a certain period of time or longer, the pen operation determination unit 220 performs a gesture for instructing movement of the cursor C whose pen input indicates the recognized character insertion position. It is determined that When the pen operation determining unit 220 determines that the pen input is a gesture, the input character string estimating unit 205 performs a determination process similar to the above in which the unrecognized character string is output as a recognized fixed character string. do it.

さて、本実施形態のオンライン文字認識装置は、誤って入力した文字を削除するための編集操作手段(1文字後退削除指示手段)として、図5に示した1文字後退削除ボタン303を有している。ユーザは、この1文字後退削除ボタン303をペンPで触れると、ペン操作判定手段220は、その座標データが1文字後退削除ボタン303の領域内であることから、1文字後退削除指示がなされたことを判定し、カーソルCの指す文字位置の直前の文字の削除を指示することができる。   Now, the online character recognition device of this embodiment has a one-character backward deletion button 303 shown in FIG. 5 as an editing operation means (one-character backward deletion instruction means) for deleting an erroneously input character. Yes. When the user touches this one-character backward deletion button 303 with the pen P, the pen operation determining means 220 is instructed to delete one character backward because the coordinate data is within the area of the one-character backward deletion button 303. And deletion of the character immediately before the character position pointed to by the cursor C can be instructed.

本実施形態では、図26の第3列に示すように、認識結果表示領域302に認識未確定ストローク列の存在を示す記号“⇒”が表示されている状態で1文字後退削除指示がなされた場合に、当該“⇒”を削除する認識結果編集手段(図示せず)が設けられる。   In the present embodiment, as shown in the third column of FIG. 26, a one-character backward deletion instruction has been issued in a state where the symbol “⇒” indicating the presence of an unrecognized stroke sequence is displayed in the recognition result display area 302. In this case, a recognition result editing means (not shown) for deleting “⇒” is provided.

この認識結果編集手段は、認識未確定ストローク列は存在しないものの認識未確定文字列が存在する状態で1文字後退削除指示がなされた場合には、認識未確定文字列の最後尾を1文字後退削除すると共に、残りの認識未確定文字列を認識確定文字列として確定表示する。また認識結果編集手段は、認識未確定ストローク列も認識未確定文字列も存在しない状態で1文字後退削除指示がなされた場合には、確定文字列を1文字後退削除する。   This recognition result editing means, when there is no recognized unconfirmed stroke string but a recognition unconfirmed character string exists and one character backward deletion instruction is given, the last of the recognized unconfirmed character string is moved backward by one character. At the same time, the remaining unrecognized character string is confirmed and displayed as a recognized character string. The recognition result editing means deletes the confirmed character string backward by one character when an instruction for backward deletion of one character is given in a state where neither the recognized unconfirmed stroke string nor the recognized unconfirmed character string exists.

このような処理が実行されることにより、文字の削除、文字の筆記操作を連続してスムーズに行うことが可能となり、快適な文字編集環境が実現される。1文字後退削除指示前後の表示画面の変更例を、「あした」という文字を重ね書きした筆跡の各ストローク(入力ストローク)とストローク番号とに対応付けて、図26の第3列及び第4列に示す。   By executing such processing, it is possible to smoothly and continuously delete characters and write characters, and a comfortable character editing environment is realized. The example of changing the display screen before and after the one character backward deletion instruction is associated with each stroke (input stroke) and stroke number of the handwriting overwritten with the character “Ashita”, and the third and fourth columns in FIG. Shown in

上記した1文字後退削除の指示はボタン(1文字後退削除ボタン303)によるものに限らない。例えば、ペン操作判定手段220は、文字筆記領域301に筆記された特定の形状のストロークを、1文字後退削除を指示するジェスチャであると判定することも可能である。この他に、例えば通常の文字筆記では入力されることのない、右から左方向への直線状のストローク入力を1文字後退削除のジェスチャと定めることもできる。ペン操作判定手段220は、文字認識で使用しているストローク形状特徴の照合により容易に実現可能である。   The instruction for deleting one character backward is not limited to the button (one character backward deletion button 303). For example, the pen operation determination unit 220 can also determine that a stroke having a specific shape written in the character writing area 301 is a gesture for instructing the backward deletion of one character. In addition to this, for example, a straight stroke input from the right to the left, which is not input by normal character writing, can be determined as a gesture for deleting one character backward. The pen operation determination unit 220 can be easily realized by collating stroke shape features used in character recognition.

なお、本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。更に、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題の少なくとも1つが解決でき、発明の効果の欄で述べられている効果の少なくとも1つが得られる場合には、この構成要件が削除された構成が発明として抽出され得る。   In addition, this invention is not limited to the said embodiment, In the implementation stage, it can change variously in the range which does not deviate from the summary. Further, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiment, at least one of the problems described in the column of the problem to be solved by the invention can be solved, and is described in the column of the effect of the invention. When at least one of the effects is obtained, a configuration in which this configuration requirement is deleted can be extracted as an invention.

本発明の一実施形態に係わるオンライン文字認識装置を実現する情報機器のハードウェア構成を示すブロック図。The block diagram which shows the hardware constitutions of the information equipment which implement | achieves the online character recognition apparatus concerning one Embodiment of this invention. 本発明の一実施形態に係わるオンライン文字認識装置の機能構成を示すブロック図。The block diagram which shows the function structure of the online character recognition apparatus concerning one Embodiment of this invention. 図2のオンライン文字認識装置におけるオンライン文字認識処理全体の手順を説明するためのフローチャート。The flowchart for demonstrating the procedure of the whole online character recognition process in the online character recognition apparatus of FIG. 図1の情報機器により実現されるオンライン文字認識装置のより詳細な機能構成を示すブロック図。The block diagram which shows the more detailed function structure of the online character recognition apparatus implement | achieved by the information equipment of FIG. 図1の情報機器の外観を示す図。The figure which shows the external appearance of the information equipment of FIG. 図4中のストロークバッファ208のデータ構造例を示す図。The figure which shows the example of a data structure of the stroke buffer 208 in FIG. 図4中の認識候補バッファ209のデータ構造例を示す図。The figure which shows the example of a data structure of the recognition candidate buffer 209 in FIG. 図4中の文字構造辞書211のデータ構造例を示す図。The figure which shows the example of a data structure of the character structure dictionary 211 in FIG. 図4中の文字間構造辞書212のデータ構造例を示す図。The figure which shows the example of a data structure of the structure structure dictionary 212 in FIG. 図1の情報機器により実現される図4のオンライン文字認識装置におけるオンライン文字認識処理全体の手順を説明するためのフローチャート。The flowchart for demonstrating the procedure of the whole online character recognition process in the online character recognition apparatus of FIG. 4 implement | achieved by the information equipment of FIG. 図10中のステップ802における詳細な処理手順を説明するためのフローチャート。11 is a flowchart for explaining a detailed processing procedure in step 802 in FIG. 10. 図10中のステップ803における詳細な処理手順を説明するためのフローチャート。11 is a flowchart for explaining a detailed processing procedure in step 803 in FIG. 10. 図12中のステップ1010における詳細な処理手順を説明するためのフローチャート。The flowchart for demonstrating the detailed process sequence in step 1010 in FIG. 図12中のステップ1008における詳細な処理手順を説明するためのフローチャート。The flowchart for demonstrating the detailed process sequence in step 1008 in FIG. 図13中のステップ1011における詳細な処理手順を説明するためのフローチャート。14 is a flowchart for explaining a detailed processing procedure in step 1011 in FIG. 13. 図10中のステップ804における詳細な処理手順を説明するためのフローチャート。11 is a flowchart for explaining a detailed processing procedure in step 804 in FIG. 10. 図16中のステップ1403における詳細な処理手順を説明するためのフローチャート。17 is a flowchart for explaining a detailed processing procedure in step 1403 in FIG. 16. 図16中のステップ1404における詳細な処理手順を説明するためのフローチャート。17 is a flowchart for explaining a detailed processing procedure in step 1404 in FIG. 16. 図16中のステップ1406における詳細な処理手順を説明するためのフローチャート。17 is a flowchart for explaining a detailed processing procedure in step 1406 in FIG. 16. 図10中のステップ805における詳細な処理手順を説明するためのフローチャート。11 is a flowchart for explaining a detailed processing procedure in step 805 in FIG. 10. 図20中のステップ1801における詳細な処理手順を説明するためのフローチャート。The flowchart for demonstrating the detailed process sequence in step 1801 in FIG. 図20中のステップ1802における詳細な処理手順を説明するためのフローチャート。The flowchart for demonstrating the detailed process sequence in step 1802 in FIG. 図10中のステップ807における詳細な処理手順を説明するためのフローチャート。11 is a flowchart for explaining a detailed processing procedure in step 807 in FIG. 10. 図10中のステップ808における詳細な処理手順を説明するためのフローチャート。11 is a flowchart for explaining a detailed processing procedure in step 808 in FIG. 10. 入力特徴と辞書特徴との間の照合関係を説明するための図。The figure for demonstrating the collation relationship between an input feature and a dictionary feature. 認識結果表示例を示す図。The figure which shows the example of a recognition result display. 認識確定文字列と認識未確定文字列の表示処理動作について説明するためのフローチャート。The flowchart for demonstrating the display processing operation | movement of a recognition fixed character string and a recognition unconfirmed character string. 認識確定文字列と認識未確定文字列の他の表示処理動作について説明するためのフローチャート。The flowchart for demonstrating other display processing operation | movement of a recognition definite character string and a recognition undecided character string. ストロークが筆記される都度推定される認識確定文字列、認識未確定文字列の表示の例を示した図。The figure which showed the example of a display of the recognition confirmation character string estimated every time a stroke is written, and the recognition unconfirmed character string. 図1の情報機器により実現されるオンライン文字認識装置のより詳細な機能構成を示すブロック図で、図4に示した構成にさらに、筆跡表示手段と、ペン操作判定手段とが追加されている。FIG. 5 is a block diagram showing a more detailed functional configuration of the on-line character recognition device realized by the information device of FIG. 1, in which handwriting display means and pen operation determination means are added to the configuration shown in FIG. 4. 筆跡表示手段の筆跡表示処理動作について説明するためのフローチャート。The flowchart for demonstrating the handwriting display process operation | movement of a handwriting display means. 筆跡の表示例を示した図。The figure which showed the example of a display of handwriting. Nが「2」に設定されている場合の筆跡表示例を示した図。The figure which showed the example of a handwriting display when N is set to "2". タブレット上に筆記最中のストロークを筆記と同時にリアルタイムに表示するための処理動作を説明するためのフローチャート。The flowchart for demonstrating the processing operation for displaying the stroke in the middle of writing on a tablet simultaneously with writing in real time. 最新のN本のストロークの表示例を示した図。The figure which showed the example of a display of the latest N strokes. 図1の情報機器の外観の変形例を示す図。The figure which shows the modification of the external appearance of the information equipment of FIG.

符号の説明Explanation of symbols

1…CPU
2…ROM
3…RAM
4,201…タブレット(座標入力装置)
5,213…ディスプレイ(表示装置)
6…データ読み込み装置
7…記憶媒体
202…筆跡情報取得手段
203…認識候補文字列生成手段
204…文字列尤度計算手段(照合手段)
205…入力文字列推定手段
206…バッファ更新手段
207…認識結果表示手段
208…ストロークバッファ
209…認識候補バッファ
210…認識結果バッファ
211…文字構造辞書
212…文字間構造辞書
220…ペン操作表示手段
221…筆跡表示手段
301…文字筆記領域
302…認識結果表示領域
303…1文字後退削除ボタン
P…ペン
C…カーソル
1 ... CPU
2 ... ROM
3 ... RAM
4,201 ... Tablet (coordinate input device)
5,213 ... Display (display device)
6 ... Data reading device 7 ... Storage medium 202 ... Handwriting information acquisition means 203 ... Recognition candidate character string generation means 204 ... Character string likelihood calculation means (collation means)
205: Input character string estimation means 206 ... Buffer update means 207 ... Recognition result display means 208 ... Stroke buffer 209 ... Recognition candidate buffer 210 ... Recognition result buffer 211 ... Character structure dictionary 212 ... Inter-character structure dictionary 220 ... Pen operation display means 221 ... handwriting display means 301 ... character writing area 302 ... recognition result display area 303 ... one character backward deletion button P ... pen C ... cursor

Claims (4)

座標入力装置上でペンが当該座標入力装置に触れてから離れるまでの間に当該座標入力装置により検出されるペン先の座標系列で表現されるストロークの列をもとに文字認識を行い、表示装置上に認識結果を表示するオンライン文字認識装置において、
複数の認識可能文字の各々について、当該文字を構成するストロークの形状情報、及びストローク間の構造関係が記述された辞書情報を登録した文字構造辞書と、
前記複数の認識可能文字のうちの続けて筆記される各2文字の組み合わせについて、当該2文字間の構造関係が記述された辞書情報を登録した文字間構造辞書と、
前記座標入力装置により検出されるストロークを逐次取り込む筆跡情報取得手段と、
前記筆跡情報取得手段によりストロークが取り込まれる毎に、当該ストロークを含む認識すべき既取り込みストローク列に対する認識候補となり得る認識候補文字列を生成する認識候補文字列生成手段と、
前記認識候補文字列毎に、当該認識候補文字列を構成する各候補文字についての前記文字構造辞書中の辞書情報及び連続する2候補文字間についての前記文字間構造辞書中の辞書情報と、前記既取り込みのストローク列とを照合することにより、当該ストローク列に最も類似した認識候補文字列中の文字列を認識文字列として出力する入力文字列推定手段と、
前記入力文字列推定手段により出力された前記認識文字列を表示する認識結果表示手段と、
を具備することを特徴とするオンライン文字認識装置。
Character recognition is performed based on the stroke sequence expressed by the coordinate sequence of the pen tip detected by the coordinate input device before the pen touches the coordinate input device on the coordinate input device, and then displayed. In the online character recognition device that displays the recognition result on the device,
For each of a plurality of recognizable characters, a character structure dictionary that registers the shape information of the strokes constituting the character and dictionary information describing the structural relationship between the strokes;
An inter-character structure dictionary in which dictionary information describing the structural relationship between the two characters is registered for each combination of two characters written successively among the plurality of recognizable characters;
Handwriting information acquisition means for sequentially capturing strokes detected by the coordinate input device;
A recognition candidate character string generation unit that generates a recognition candidate character string that can be a recognition candidate for an already-acquired stroke sequence that should be recognized each time a stroke is captured by the handwriting information acquisition unit;
For each recognition candidate character string, dictionary information in the character structure dictionary for each candidate character constituting the recognition candidate character string and dictionary information in the intercharacter structure dictionary between two consecutive candidate characters; and An input character string estimation means for outputting a character string in a recognition candidate character string that is most similar to the stroke string as a recognized character string by collating with an already captured stroke string;
Recognition result display means for displaying the recognition character string output by the input character string estimation means;
An on-line character recognition device comprising:
前記座標入力装置の前記ペンで文字を筆記するための文字筆記領域が前記表示装置の筆跡表示領域に重ねて配置され、
前記文字筆記領域に前記ストロークが筆記される度に、この最新のストロークを含め最新の所定のN本(但し、Nは整数)のストロークを前記筆跡表示領域に表示することを特徴とする請求項1記載のオンライン文字認識装置。
A character writing area for writing a character with the pen of the coordinate input device is arranged to overlap the handwriting display area of the display device,
5. Each time the stroke is written in the character writing area, the latest predetermined N strokes (where N is an integer) including the latest stroke are displayed in the handwriting display area. The on-line character recognition device according to 1.
前記座標入力装置上からペンが離れた後、前記ストロークの筆記以外のペン操作を検出する検出手段を具備し、
この検出手段の検出結果に応じて、前記筆跡表示領域に表示されているストロークの表示を消去することを特徴とする請求項2記載のオンライン文字認識装置。
After detecting the pen from the coordinate input device, the detecting means for detecting a pen operation other than writing the stroke,
3. The on-line character recognition apparatus according to claim 2, wherein the display of the stroke displayed in the handwriting display area is erased according to the detection result of the detecting means.
前記筆跡表示領域に前記予め定められた数のストロークを表示する際には、ストロークの入力された順番に基づいて、各ストロークの色と太さと該ストロークを表す線の種類とのうちのいずれかを違えて表示することを特徴とする請求項2記載のオンライン文字認識装置。   When displaying the predetermined number of strokes in the handwriting display area, one of the color and thickness of each stroke and the type of line representing the stroke based on the input order of the strokes The on-line character recognition apparatus according to claim 2, wherein the characters are displayed differently.
JP2007134737A 2000-10-31 2007-05-21 Online character recognition device Expired - Lifetime JP4686502B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007134737A JP4686502B2 (en) 2000-10-31 2007-05-21 Online character recognition device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000333919 2000-10-31
JP2000333919 2000-10-31
JP2007134737A JP4686502B2 (en) 2000-10-31 2007-05-21 Online character recognition device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001274147A Division JP3974359B2 (en) 2000-10-31 2001-09-10 Online character recognition apparatus and method, computer-readable storage medium, and online character recognition program

Publications (2)

Publication Number Publication Date
JP2007220145A true JP2007220145A (en) 2007-08-30
JP4686502B2 JP4686502B2 (en) 2011-05-25

Family

ID=38497283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007134737A Expired - Lifetime JP4686502B2 (en) 2000-10-31 2007-05-21 Online character recognition device

Country Status (1)

Country Link
JP (1) JP4686502B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012159899A (en) * 2011-01-31 2012-08-23 Panasonic Corp Handwritten character input device
JP2013069352A (en) * 2013-01-25 2013-04-18 Panasonic Corp Input device
JP2013069351A (en) * 2013-01-25 2013-04-18 Panasonic Corp Input device and input method
JP2015122114A (en) * 2015-03-04 2015-07-02 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Input device
JP2016537694A (en) * 2013-11-19 2016-12-01 株式会社ワコム Method and system for ink data generation, ink data rendering, ink data manipulation, and ink data transmission

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944600A (en) * 1995-08-01 1997-02-14 Toshiba Corp Method and device for input character prediction in on-line character recognition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944600A (en) * 1995-08-01 1997-02-14 Toshiba Corp Method and device for input character prediction in on-line character recognition

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012159899A (en) * 2011-01-31 2012-08-23 Panasonic Corp Handwritten character input device
JP2013069352A (en) * 2013-01-25 2013-04-18 Panasonic Corp Input device
JP2013069351A (en) * 2013-01-25 2013-04-18 Panasonic Corp Input device and input method
JP2016537694A (en) * 2013-11-19 2016-12-01 株式会社ワコム Method and system for ink data generation, ink data rendering, ink data manipulation, and ink data transmission
JP2015122114A (en) * 2015-03-04 2015-07-02 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Input device

Also Published As

Publication number Publication date
JP4686502B2 (en) 2011-05-25

Similar Documents

Publication Publication Date Title
JP3974359B2 (en) Online character recognition apparatus and method, computer-readable storage medium, and online character recognition program
US7756335B2 (en) Handwriting recognition using a graph of segmentation candidates and dictionary search
JP3426180B2 (en) Method and system for automatically segmenting and recognizing handwritten kanji
EP1564675B1 (en) Apparatus and method for searching for digital ink query
JP3131287B2 (en) Pattern recognition device
US5687254A (en) Searching and Matching unrecognized handwriting
US7974472B2 (en) Feature design for HMM based Eastern Asian character recognition
US7596272B2 (en) Handling of diacritic points
Kumar et al. A lexicon-free approach for 3D handwriting recognition using classifier combination
CN114365075B (en) Method for selecting a graphical object and corresponding device
WO2014147712A1 (en) Information processing device, information processing method and program
JP4686502B2 (en) Online character recognition device
Chiang et al. Recognizing arbitrarily connected and superimposed handwritten numerals in intangible writing interfaces
JP4346814B2 (en) Information processing apparatus and method, computer-readable memory, and program
JP2003196593A (en) Character recognizer, method and program for recognizing character
K Jabde et al. A comprehensive literature review on air-written online handwritten recognition
Nguyen et al. Semi-incremental recognition of on-line handwritten Japanese text
Hurst et al. Error repair in human handwriting: an intelligent user interface for automatic online handwriting recognition
EP0567836A2 (en) Writer style detection and automatic prototype creation for on-line handwriting recognition
JP7095450B2 (en) Information processing device, character recognition method, and character recognition program
JP5911981B2 (en) Document search apparatus, method and program
Öksüz et al. A video-based text and equation editor for LaTeX
JP2003308317A (en) Method for character string conversion, method for character recognition, and device and program for character recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110214

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4686502

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313121

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term