JP2001014096A - Pen input device and character input method in the device - Google Patents

Pen input device and character input method in the device

Info

Publication number
JP2001014096A
JP2001014096A JP18027199A JP18027199A JP2001014096A JP 2001014096 A JP2001014096 A JP 2001014096A JP 18027199 A JP18027199 A JP 18027199A JP 18027199 A JP18027199 A JP 18027199A JP 2001014096 A JP2001014096 A JP 2001014096A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
recognition
input
character
stroke
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP18027199A
Other languages
Japanese (ja)
Inventor
Takayasu Ito
能康 伊藤
Original Assignee
Toshiba Corp
株式会社東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Abstract

PROBLEM TO BE SOLVED: To improve the input edition efficiency and use convenience by making edition of a pen inputted character sequence easier. SOLUTION: This device is provided with a character recognition part 108 for recognizing a corresponding character, sign and gesture in accordance with a pen inputted stroke, a gesture recognition part 112, a text display area management part 109 for holding input stroke and recognition result information recognized by the character recognition part 108 and the gesture recognition part 112 for display, a stroke management part 111 and a text display window 201 for displaying the recognition result information as text data.

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【発明の属する技術分野】本発明は、携帯情報端末機器等の文字入力/編集に適用されるペン入力装置に係わり、特に文書に対するジェスチャ編集が可能で文書編集の改善を図ったペン入力装置、及びペン入力装置に於ける文字入力方法に関する。 The present invention relates to a portable information relates to a pen input device that is applied to the character input / editing terminal device such as a pen input device for Improving the document editing can gesture editing particular to the document, and to in a character input method pen input device.

【0002】 [0002]

【従来の技術】従来、例えばペン入力機能を搭載する情報処理機器、特に携帯型情報端末では、図15に示すように文字認識枠11にペン入力された文字列が文字認識完了に伴って、順次、未確定文字列表示部12に移動蓄積され、この蓄積されたものに対して確定釦13の押下(ペンタッチ)により確定させることで文章(確定文字列)として保存されるものであった。 Conventionally, for example, an information processing apparatus including a pen input function, in particular a portable information terminal, a character string that is pen input to the character recognition frame 11 as shown in FIG. 15 along with the character recognition completion, sequentially moved accumulated undetermined character string display unit 12 was intended to be saved as a text (confirmed character string) by finalizing by depressing the settling button 13 relative to that this accumulation (pen touch). 又、この種のペン入力機能を備えた情報処理機器では、文書編集をジェスチャを用いて行うものも提供されているものであった。 Further, in the information processing apparatus having such a pen input function, it was those which are also provided to perform using a gesture document editing.

【0003】 [0003]

【発明が解決しようとする課題】上述したように従来のペン入力機能を搭載した携帯情報端末上での文書入力/ The object of the invention is to solve the document on the portable information terminal equipped with a conventional pen input function as described above Input /
編集方法は、複数個の文字認識枠11内に手書き入力した文字が上部に配置された未確定文字列表示部12に、 Editing method is the undetermined character string display unit 12 characters handwritten input into a plurality of character recognition frame 11 disposed thereon,
文字認識毎に表示されていき、ある程度文字列が正しく認識されたならば、ユーザが確定釦13を押下し、当該文字列をテキスト表示部18に反映するというものであった。 Will be displayed for each character recognition, if somewhat string is recognized correctly, the user presses the enter button 13 was that reflects the character string in the text display portion 18. ここで、未確定文字列表示部12にて文字を挿入したり、削除したりする場合は、夫々挿入釦14や削除釦15、後退釦16を選択押下することにより所望のモードに設定して行う必要があった。 Here, insert characters in undetermined character string display unit 12, to or remove, respectively inserted buttons 14 and delete button 15, set the desired mode by pressing select backward button 16 it is necessary to perform. 又、文字認識を確定操作してテキスト表示部18に反映した文字列については、再び未確定文字列表示部12に出現させることは不可能なものであった。 Also, the to confirm operating the character recognition string that reflects the text display section 18, it was achieved it is impossible to appear in undetermined character string display unit 12 again. この為、修正する場合は、修正する個所に対して削除釦15を用いてテキスト上から削除した後に再入力し直さなければならなく、ユーザは煩わしい操作を強いられ、操作性に劣るものであった。 Therefore, when correcting the MUST re-re-enter after removing from the text by using the delete button 15 with respect to location to fix, the user is forced to complicated operation, inferior in operability It was.

【0004】そこで、本発明は上記事情を考慮して成されたもので、上記不具合を解消し、ペン入力機能を搭載した情報処理機器に於いて、ペン入力された文字列の編集を容易にして入力編集効率の改善を図り、使い勝手の良いペン入力装置、及びペン入力装置に於ける文字入力方法を提供することを目的とする。 [0004] Accordingly, the present invention has been made in view of the above circumstances, to solve the above problems, in the information processing devices equipped with pen input function, to facilitate the editing of pen input string aims to improve the input editing efficiency Te, easy to use pen input device, and an object of the invention to provide an in character input method pen input device.

【0005】 [0005]

【課題を解決するための手段】本発明は上記目的を達成する為、文字認識の際に用いられるストロークデータとテキストデータとを一意に関連付け、文字認識枠上に手書き入力されたデータは認識完了後、自動的に確定してテキストデータとして利用可能とすると共に、当該認識結果をそのまま文字認識枠上に保持して誤認識の修正や文字挿入、削除といった編集処理を入力時と同様に行えるよう構成する。 Means for Solving the Problems The present invention to achieve the above object, uniquely associates the stroke data and text data used for character recognition, data input in handwriting on the character recognition frame recognition completed after automatically determined to thereby available as text data, the recognition result as correction or character insertion of erroneous recognition held on the character recognition frame, allow the same manner as when the input editing processing and deletion Configure. 即ち、ストロークデータはテキストデータと関連付けられたまま保存されるよう構成したので、ストロークを再入力することなしに再認識処理を可能とし、又、既入力ストロークデータに対してストローク追加可能とすることにより、別の文字として再認識処理することを可能とした。 That is, since the stroke data was configured to be stored while associated with the text data, and allow re-recognition process without re-enter the stroke, also be a stroke can added to the already input stroke data by, it made it possible to re-recognition process as a different character.

【0006】又、文字列中の入力、編集を行う位置は、 [0006] In addition, input in the string, position for editing,
テキスト上でペンのタップ操作によって選択するか、或いはカーソル移動釦をタップ(押下)することにより変更可能とした。 Choose the pen tap operation on text, or the cursor movement buttons and can be changed by tapping (pressing). そして、編集中のテキストは文字認識枠に自動的に反映され、その上で入力/編集を統一的に行えるよう構成した。 Then, the text being edited are automatically reflected in the character recognition frame, and configured to perform the input / editing in a unified manner on it. 更に、文字認識枠内に入力されたストロークデータは、文字認識枠の最右枠にペン入力された直後に最左枠にペン入力した場合以外か或いは最右枠の外をタップした場合以外は、通常、経時変化によっては文字認識枠上からは消去されないよう構成した。 Furthermore, the stroke data entered in the character recognition frame inside, except when you tap outside the character recognition frame rightmost frame the pen input leftmost frame in addition to or rightmost frame when you pen input immediately after the usually by aging constructed so as not to be erased from the character recognition frame. これにより、高速な連続的なペン入力をサポートする。 As a result, to support high-speed continuous pen input. 加えて、未確定文字列表示部と各種操作釦を排除することにより、特に携帯型情報端末に於ける狭い表示領域を有効に活用することができるようにする。 In addition, by eliminating the undetermined character string display unit and various operation buttons, especially to be able to effectively utilize the narrow display area in the portable information terminal. 更に、サイズ的な制限等から、比較的容量の大きくないRAMを内設する携帯情報端末の為に、手書き文字データであるストロークを全て保持するのではなく、メモリの空き容量が減少したならば、順次ストロークデータを破棄し、入力/編集時には文字認識枠にテキストデータのみを表示するよう構成した。 Moreover, from the size restrictions, etc., for portable information terminals which internally provided with not greater RAM of relatively capacity, instead of holding all the strokes are handwritten character data, if available memory is reduced , discard the sequential stroke data, at the time of input / editing was configured to display only text data to character recognition frame.

【0007】 [0007]

【発明の実施の形態】以下本発明の一実施形態を図を参照して説明する。 DETAILED DESCRIPTION OF THE INVENTION be described with reference to the drawings an embodiment of the following invention.

【0008】図1は、本実施形態に係わるシステム内部全体の概略構成を示すブロック図である。 [0008] Figure 1 is a block diagram showing the schematic configuration of a system internal whole according to the present embodiment.

【0009】入力装置101は、表示一体型タブレット等の手書き文字入力部であり、ペン入力されたストロークやタップされた位置を座標データとして出力するものである。 [0009] The input device 101 is a handwriting input unit such as a display-integrated type tablet, and outputs the pen input stroke and tapped position as coordinate data.

【0010】入力座標取得部102は、入力装置101 [0010] input coordinate obtaining unit 102, an input device 101
から送出されてくる座標データを常時取得して、ストローク等を漏れなく処理するよう構成されている。 The coordinate data which is sent to retrieve all times from being configured to process without omission stroke like.

【0011】入力管理部103は、入力座標取得部10 [0011] The input management unit 103, input coordinate obtaining unit 10
2によって取得された座標データが、テキスト表示部(テキスト表示ウィンドウ201)上であるのか、文字認識枠203上であるのかを判断するものである。 Coordinate data obtained by 2, it is to determine whether it is on the text display unit (text display window 201), in the range of the character recognition frame 203. 又、 or,
入力管理部103は、カーソル移動釦の押下も判定するものである。 The input management unit 103 is to determine also depressing the cursor movement buttons.

【0012】文字入力領域管理部104は、入力管理部103と接続し、複数個の文字認識枠から成る文字認識領域に於いて、どの認識枠203に対して文字入力が成されたかを、テキスト表示ウィンドウ201との対応付けて管理する。 [0012] character input area management unit 104 is connected to the input management unit 103, in the character recognition area composed of a plurality of character recognition frame, whether the character input is made to any recognition frame 203, text to manage correspondence with the display window 201. 即ち、テキスト表示ウィンドウ201にてタップされた場合、どのテキストを文字認識枠203 In other words, if it is tapped by the text display window 201, the character recognition frame 203 which text
内に表示するかといった認識枠203内に入力されたストロークと認識結果の文字との対応を管理するものである。 And it manages the correspondence between the input stroke and the recognition result character recognition frame 203 such should be displayed within. 又、文字入力領域管理部104は、システムが内設するメモリの空き容量が減少した場合に、ストロークデータのみを破棄し、入力・編集時には認識結果文字だけを文字認識枠203に表示するようにする。 Also, the character input area management unit 104, when the free space of the memory system is internally provided is reduced, so as to discard only stroke data, on input or edit to display only the result of recognition character in the character recognition frame 203 to. 更に、文字入力領域管理部104は、文字認識枠203を跨ったジェスチャも管理するものである。 Moreover, the character input area management unit 104, but also to manage gesture across the character recognition frame 203. 加えて、文字入力領域管理部104では、入力管理部103によって指示されたテキストデータと文字認識枠203内に表示するデータを関連付けて表示する為に、ペンによってテキスト表示ウィンドウ201内に入力された座標を用いて、テキストバッファ110からデータを取得するものでもある。 In addition, the character input area management unit 104, to display in association with data to be displayed on the designated text data and the character recognition frame 203 by the input managing unit 103, entered in the text display window 201 by the pen using the coordinates, it is also intended to retrieve data from the text buffer 110.

【0013】ストローク管理部105は、ストロークバッファ106、ジェスチャ認識部107、文字認識部1 [0013] Stroke management unit 105, the stroke buffer 106, gesture recognition unit 107, the character recognition unit 1
08、及び文字入力領域管理部104に接続され、認識枠203内に入力されたストロークをストロークバッファ106内に格納して認識の為に提供するものである。 08, and is connected to the text input area management unit 104, is a stroke input to the recognition frame 203 intended to provide for recognition stored in the stroke buffer 106.
ここで、ストロークバッファ106内のストロークは、 Here, the strokes in the stroke buffer 106,
メモリの空き容量によって破棄されるものであり、テキストバッファ110に格納されている文字のみのデータとする。 It is intended to be discarded by the available memory, and only the data characters stored in the text buffer 110.

【0014】ジェスチャ認識部107及び文字認識部1 [0014] The gesture recognition unit 107 and the character recognition unit 1
08は、ストローク管理部105に接続され、文字認識枠203内に入力されたストロークを認識するものである。 08 is connected to the stroke management unit 105 is configured to recognize the input strokes in the character recognition frame 203. 又、文字認識部108は文字出力部113とテキスト管理部114に接続され、文字として認識された場合は、文字出力部113によって文字認識枠203内に認識結果が表示される。 Further, the character recognition unit 108 is connected to the character output unit 113 and the text management unit 114, when it is recognized as a character recognition result in the character recognition frame 203 by the character output unit 113 is displayed. 又、テキスト管理部114に認識結果文字が送出され、テキストバッファ110に反映した後、テキスト出力部115を介して、出力装置116 Also, the recognition result character is sent to the text management unit 114, after reflecting in the text buffer 110, via the text output portion 115, an output device 116
に表示されるものである。 It is intended to be displayed in.

【0015】テキスト表示領域管理部109は、入力管理部103と文字入力領域管理部104とストローク制御部111とテキストバッファ110に接続され、既入力されたテキストデータを全てを管理しているものである。 The text display area management unit 109 is connected to the input management unit 103 and the character input area management unit 104 and a stroke control unit 111 and the text buffer 110, in which manages all the text data previously input is there.

【0016】ストローク管理部111は、ストロークバッファ106とジェスチャ認識部112とテキスト表示領域管理部109に接続し、テキスト表示ウィンドウ2 The stroke management unit 111 is connected to the stroke buffer 106 and the gesture recognition unit 112 and the text display area management unit 109, a text display window 2
01内に入力されたストロークを管理するものである。 And it manages the stroke is input within 01.
又、ストローク管理部111は、当該管理ストロークをジェスチャ認識部112へ送出するものでもある。 Further, the stroke management unit 111 is also intended to deliver the management stroke to the gesture recognition unit 112.

【0017】ジェスチャ認識部112では、ストローク管理部111から送出されてくるストロークデータをジェスチャ認識し、カーソル移動、削除、挿入といった編集コマンドを実行するものである。 [0017] In the gesture recognition unit 112, and gesture recognition stroke data which is sent from the stroke management unit 111, a cursor move, delete, and executes an editing such insertion command.

【0018】テキスト出力部115は、テキストバッファ110に格納されたテキストデータを出力装置116 The text output portion 115, an output device text data stored in the text buffer 110 116
へ送出して表示させるものである。 In which delivery to be displayed to.

【0019】出力装置116は、入力部101と一体化した液晶パネル等の装置である。 The output device 116 is a device such as a liquid crystal panel integrated with the input unit 101.

【0020】続いて、上記内部構成につき、図2を参照して本システムの外観について概略的に述べる。 [0020] Then, the internal configuration per, the appearance of the system with reference describes schematically the FIG.

【0021】テキスト表示ウィンドウ201は、既入力のテキストデータを表示するものである。 [0021] The text display window 201 is used for displaying the text data already input. 又、テキスト表示ウィンドウ201は、本ウィンドゥ上にてペン入力された位置やストロークやジェスチャを取得するものである。 Moreover, the text display window 201 is for acquiring the position and stroke or gesture that is pen input in the present Window. 入力された位置等はカーソル205の表示位置と入力パネル202上に表示される入力ストロークと認識結果領域206に反映される。 Etc. inputted position is reflected in the input stroke and the recognition result area 206 the display position to be displayed on the input panel 202 of the cursor 205.

【0022】入力パネル202は、複数個の文字認識枠203が連なった入力文字認識領域である。 The input panel 202 is an input character recognition region in which a plurality of character recognition frame 203 continuous. ここで、文字認識枠203内には手書きによるストロークやジェスチャの入力が成され、ジェスチャ認識部107、文字認識部108に於ける当該認識結果は認識結果領域206 Here, in the character recognition frame 203 input strokes and gestures made by hand, the gesture recognition unit 107, in the recognition result in the character recognition section 108 recognizes a result region 206
に表示されるものである。 It is intended to be displayed in.

【0023】カーソル移動釦204は、ペンによってタップされることで、テキスト表示ウィンドウ201上のカーソル205が移動して文字列の変更位置を移動、即ち認識枠での表示位置を移動する。 [0023] The cursor movement button 204, that is tapped by the pen, to move the movement to change the position of the string to move the cursor 205 on the text display window 201, that is, the display position of the recognition frame.

【0024】このような本システムの外観に関し、ペン入力時の様子(新規入力)を図3に例示する。 [0024] For appearance of such the system, illustrated state during pen input a (new input) in Figure 3. 即ち、テキスト表示ウィンドウ201内の空白部分をペンでタップすると、タップ位置に入力位置を示すカーソル205 That is, when tapping the blank part of the text display window 201 with the pen, the cursor 205 indicating the input position in the tap position
が表示されると共に、入力パネル202が表示される。 It is displayed on the display of the input panel 202 is displayed.
入力パネル202内には、未入力の即ち空白の複数個の文字認識枠203が表示され、ペンによる文字入力が可能となるものである。 In the input panel 202, it displays a plurality of character recognition frame 203 ie blank not entered is one in which a character input by a pen can be performed.

【0025】上記構成につき、その動作/作用を図4のフローチャートを参照して説明する。 The above structure per will be described with reference to the flowchart of FIG. 4 the operation / action.

【0026】入力部101にてペン入力操作が成されると(ステップS401)、入力される座標データが入力座標取得部102にて取得され、入力管理部103にて当該入力操作がテキスト表示ウィンドウ201内で入力されたものなのか、入力パネル202上で入力されたのかの判定が行われる(ステップS402)。 [0026] pen input operation is performed at the input unit 101 (step S401), the coordinate data input is acquired by the input coordinate obtaining unit 102, the input operation is a text display window at the input management unit 103 seemingly entered in the 201, it is determined whether the inputted on the input panel 202 is performed (step S402). 入力パネル202上にてペン入力が成された場合は(ステップS4 If the pen input is performed in the upper input panel 202 (step S4
02のYES)、文字入力領域管理部104がどの文字認識枠203に入力されたのかを調査し、入力された文字認識枠と関連させた状態で一時的に座標データを保存する(ステップS403)。 YES 02), to investigate whether the character input area management unit 104 is input to which character recognition frame 203, and temporarily stores the coordinate data in a state of being associated with the input character recognition frame (Step S403) .

【0027】ここで、ストロークがタップであった場合(ステップS404のYES)、或いはダブルタップであった場合(ステップS405のYES)は、夫々「最右枠外」判定処理(ステップS406)、挿入処理(ステップS407)に移行するものである。 [0027] In this case, if the stroke was a tap (YES in step S404), or in the case was a double tap (YES in step S405) are, respectively, "the right-most out-of-frame" determination process (step S406), the insertion process it is intended to shift (step S407). 「最右枠外」 "The most right outside the frame."
判定の場合は(ステップS406のYES)、文字認識枠203内の文字表示をクリアし(ステップS408の認識枠内クリア処理)、連続人力として処理する。 For the determination (YES in step S406), (recognition frame in clearing process in step S408) clears the character display in the character recognition frame 203 is processed as a continuous manpower. 尚、 still,
認識枠内クリア処理とは、単純に認識枠内に表示されている文字やストロークを消去し、次に入力されるストロークは新規入力であるとして指示することである。 A recognition frame in clearing erases the simple characters and strokes are displayed in the recognition frame, and then the stroke input is to instruct as a new input. ステップS406にて「最右枠外」判定ではない場合は(ステップS406のNO)、通常入力である為、そのまま処理続行となりステップS409へ移行する。 If it is not the decision "the most right outside the frame" at step S406 (NO in step S406), since it is usually input, the process proceeds to step S409 becomes a process as it continues. 又、ステップS407の「挿入処理」とは、入力管理部103で管理されるペンによるタップ操作等で指示された挿入位置に対して、テキストバッファ110に格納されたテキストデータとそれに関連したストロークバッファ106 Further, the "insertion process" in step S407, for the indicated inserted position the tap operation or the like by a pen that is managed by the input management unit 103, a stroke buffer associated with it and the text stored in the text buffer 110 data 106
に格納されたストロークデータを読み出し、それに対して、新しい文字とストロークデータを挿入する処理を行うことである。 Reading the stroke data stored in, whereas it is possible to perform a process of inserting the new character and stroke data.

【0028】ところで、ステップS404及びステップS405にてタップではないと判定された場合は、通常のストロークであるので、ストローク管理部105にて入力ストロークとテキストデータの関連を保持しつつ、 [0028] Incidentally, if it is determined not to be tapped at step S404 and step S405, since it is normal stroke, while maintaining the association of the input stroke and the text data by the stroke management unit 105,
ストロークを連続したストロークデータとして、ストロークバッファ106に保存する(ステップS409)。 As stroke data continuous stroke, it stores the stroke buffer 106 (step S409).

【0029】文字は唯一のストロークによって構成されている訳ではないので、次の入力を待ち(ステップS4 [0029] Since the character does not mean that is configured by only one stroke, wait for the next input (step S4
10)、1文字分のストロークが揃うまで処理を繰り返す。 10), the process is repeated until the stroke of one character are aligned. ここで、ステップS410の「次の入力待ち」は、 Here, the "next waiting for input" in step S410,
1文字の入力が終了した可能性の判定を行う為に、適当な時間でタイムアウトしたか或いはジェスチャ以外に次の枠に入力が行われたかを調査し、1文字の入力が終了した時点で処理の繰り返しを完了する。 In order to 1 character of input a determination is made of the possibility ended, to investigate whether the input to the timed-out or the next frame in addition to gesture at the appropriate time was done, processing at the time when one character of the input has been completed complete repeat of. この処理はストローク管理部105にて行う。 This processing is performed by the stroke management unit 105.

【0030】1文字分のストロークが揃ったと認識されたならば、ジェスチャ認識部107と文字認識部108 [0030] 1 if the stroke of the character is recognized as uniform, the gesture recognition unit 107 and the character recognition section 108
により、文字又はジェスチャの認識処理を行う(ステップS411)。 Accordingly, it performs recognition processing of characters or gestures (step S411). 認識対象がジェスチャであれば(ステップS412のYES)、当該ジェスチャに対応した編集処理を行う(ステップS413)。 If recognition object gesture (YES in step S412), performs the editing process corresponding to the gesture (step S413). ジェスチャでなければ(ステップS412のNO)、文字出力部113で認識結果領域206に認識結果の文字を表示すると共に(ステップS414)、テキスト反映を行い(ステップS415)、テキスト管理部114を介して認識結果の文字データをテキストバッファ110内にテキストデータとして格納する(ステップS416)。 If gesture (NO in step S412), (step S414) and displays the recognition result character recognition result area 206 a character output unit 113 performs text reflected (step S415), via a text management unit 114 stored as text data of character data recognition result to the text buffer 110 (step S416). 尚、ステップS413の「編集処理」とは、前述挿入処理と同様に関連付けられたテキストデータとストロークデータに対して、削除等の編集作業を実施する処理である。 The "editing" in step S413, for the text data and the stroke data associated in the same manner as described above insertion process is a process of performing the editing of deletion.

【0031】尚、ステップS409の「ストローク保存」、並びにステップS416の「テキスト格納」では、夫々ストロークデータとテキストデータをメモリ上に保持するものである。 It should be noted, "Stroke Save" in step S409, the well in the "Text stored" in step S416, is to hold the respective stroke data and text data in the memory.

【0032】さて、ステップS402の入力位置の判定に於いて、テキスト表示ウィンドウ201内にペン入力されたならば(ステップS402のNO)、「テキスト表示ウィンドウ内処理」となる(ステップS414)。 [0032] Now, in the judgment of the input position of the step S402, if it is pen input in the text display window 201 (NO in step S402), the "text display window in the process" (step S414).
この「テキスト表示ウィンドウ内処理」の動作を図5のフローチャートを参照して以下に詳述する。 The operation of the "text display window processing" with reference to the flowchart of FIG. 5 will be described in detail below.

【0033】テキスト表示ウィンドウ内処理では、先ず入力された位置を保存し(ステップS501)、入力がタップなのか(ステップS502)、ダブルタップなのか(ステップS503)を判定する。 [0033] In text display window process stores the first input position (step S501), determines whether the input is the tap (step S502), or double-tap a to (step S503).

【0034】タップであった場合は(ステップS502 [0034] In the case was a tap (step S502
のYES)、テキスト表示ウィンドウ201内のカーソル位置を移動し(ステップS504:「カーソル移動処理」)、入力パネル202内のストローク表示と認識結果を、カーソル位置にあるテキスト内容に合致したものを表示する(ステップS505:「入力パネル更新」)。 Of YES), the cursor position of the text display window 201 (step S504: "cursor moving process"), shown above represents the stroke display the recognition result of the input panel 202, matching the text content at the cursor position (step S505: "input panel update"). ここで、ステップS504の「カーソル移動処理」とは、テキスト表示ウィンドゥ上にペンによりタップされた座標に、カーソルを移動して入力位置をユーザに示す処理である。 Here, the "cursor movement process" in step S504, the coordinate tapped with the pen on the text display Window is a process which indicates to the user input position by moving the cursor. 又、ステップS505の「入力パネル更新」処理とは、テキスト表示ウィンドウ201上にペンによってタップされた座標情報を、入力管理部10 Further, the "input panel update" process in step S505, coordinate information is tapped by the pen on the text display window 201, the input management unit 10
3に於いて入力座標に表示されているテキストデータをテキストバッファ110から取得すると共に、ストロークバッファ106から文字に関連したストロークを取得し、入力パネル202内の文字認識枠203に表示し直す処理である。 Text data displayed on the input coordinates at the 3 acquires from the text buffer 110, obtains the stroke associated from the stroke buffer 106 to the character, at the display to again process the character recognition frame 203 of the input panel 202 is there.

【0035】一方、ダブルタップであった場合は(ステップS503のYES)、図4のステップS407と同様の挿入処理(ステップS506)となる。 Meanwhile, when was a double-tap the (YES in step S503), similar to the insertion process as in step S407 in FIG. 4 (step S506).

【0036】タップでもなくダブルタップでもなかった場合は、テキスト表示ウィンドウ201に対してのジェスチャであるので、入力パネル上での処理と同様ストローク管理部111により、ストロークをストロークバッファ106にストロークデータとして保存し(ステップS507)、一つのジェスチャが揃うまで入力処理を続けて処理を待つ(ステップS508)。 [0036] In the case was not a double tap without taps, since gesture on a text display window 201, the processes similar stroke management unit 111 on the input panel, the stroke in the stroke buffer 106 as stroke data saved (step S507), waits for a continued input processing process until one of the gestures are aligned (step S508). 1ジェスチャ分のストロークが揃った段階で、ジェスチャの入力であると認識し(ステップS509)、ジェスチャの判定を行う(ステップS510)。 1 at the stage where the stroke is complete the gesture component, recognizes that the input gesture (step S509), and determines the gesture (step S510).

【0037】正しいジェスチャであった場合は(ステップS510のYES)、それに対応した「編集処理」 [0037] In the case which was the correct gesture (YES in step S510), corresponding to it "editing process"
(ステップS511)を行う。 Perform (step S511). この「編集処理」は、図4のステップS413と同様の処理である。 This "editing" is similar to the processing of step S413 of FIG.

【0038】斯様に構成し機能する本システムについて、より具体的な実施例を図6乃至図14を参照して説明する。 [0038] For Such structured and functioning the system, it will be described with reference to FIGS. 6 to 14 the more specific examples.

【0039】図6は、既入力文字列中の1文字変更する場合の例を示すものである。 [0039] FIG. 6 shows an example in which one character changes in the already input character string. 既入力文字列を変更する場合は、テキスト表示ウィンドウ201内でペンにてタップすると、タップ位置に該当する入力ストロークと認識文字が、ストロークバッファ106、テキストバッファ110から読み出され、入力パネル202上に表示されるので、その上で文字の変更を行う。 If you want to change the already input character string, tap at the pen in the text display window within 201, the input stroke and recognized character corresponding to the tap position, the stroke buffer 106, read from the text buffer 110, the upper input panel 202 because it is displayed in, make a change of character on it. 即ち、テキスト表示ウィンドウ201内の変更を加えたい位置にてペンをタップすると(図6の(a))、タップした位置に変更位置を示すカーソル205が表示されると共に、入力パネル202が表示される。 That is, when tapping the pen in position to be modified text display window 201 (in FIG. 6 (a)), along with a cursor 205 indicating the change position to the tapped position is displayed, the input panel 202 is displayed that. そして、入力パネル202内には、複数個の文字認識枠203が表示され、変更するものとして指定された位置に既入力のテキストの認識文字とストロークが示される(図6の(b))。 Then, in the input panel 202 displays the plurality of character recognition frame 203, recognizing characters and strokes of the text already input is shown at the position specified as being changed (in Figure 6 (b)). ここで、 here,
「X」の文字認識枠203上でペンによって文字「Y」 Character by pen on character recognition frame 203 of the "X", "Y"
の文字ストロークを入力すると(図6の(c))、文字認識部108により直ちに文字認識され、その認識結果「Y」が認識結果領域206に表示される。 If you enter a character strokes ((c) in FIG. 6), it is immediately character recognition by the character recognition unit 108, the recognition result "Y" is displayed on the recognition result area 206. 同時に、テキスト表示ウィンドウ201上のテキストにも反映される(図6の(d))。 At the same time, it is reflected in the text on the text display window 201 (in FIG. 6 (d)).

【0040】次に、図7を参照してペン入力装置内のメモリの空き領域が減少しストロークデータを破棄した場合の例を説明する。 Next, an example of a case where free space in the memory in the pen input device is discarded reduced stroke data with reference to FIG. 入力パネル202上の文字認識枠2 Character recognition on the input panel 202 frame 2
03の内、左側の二つは文字ストロークが破棄済みの為、ストロークは表示されず、認識文字「X日」だけが認識結果領域206に表示されている。 Of the 03, the left side of the two because character stroke is already destroyed, stroke is not displayed, and only recognize the letter "X days" is displayed on the recognition result area 206. 右側二つの文字「まで」は破棄されていないので文字ストロークと認識結果文字の双方が表示されている。 "Until" the right two characters is both because they are not destroyed when the character stroke recognition result character is displayed.

【0041】図8は、既入力文字列に新たに文字を挿入する例を示したものである。 [0041] Figure 8 illustrates an example of inserting a new character to the previously input character string. 即ち、テキスト表示ウィンドウ201内の挿入を加えたい位置にてペンをタップすると(図8の(a))、タップした位置に変更位置を示すカーソル205が表示されると共に、入力パネル20 That is, the Tap the pen in position to be added to insert text display window 201 (in FIG. 8 (a)), the cursor 205 indicating the change position to the tapped position is displayed, the input panel 20
2が表示される。 2 is displayed. 入力パネル202内には、図7同様、 In the input panel 202, FIG. 7 similarly,
変更するものとして指定された位置にストロークバッファ106、テキストバッファ110から読み出した既入力されたテキストの認識文字とストロークが示される(図8の(b))。 Stroke buffer 106 to the specified position as to change, recognized characters and strokes of text already entered read from the text buffer 110 is shown (in Figure 8 (b)). ここで、文字認識枠203内の挿入したい位置「ま」の上でペンをダブルタップを実行することにより(図8の(c))、ダブルタップした位置に空白が挿入され、その位置にあった文字が右にシフトされる。 Here, by executing the above double-tap pen of the inserted desired position in the character recognition frame 203 "or" (in FIG. 8 (c)), a blank is inserted at a position double tap, at that location character is shifted to the right. 同時に、テキスト表示ウィンドウ201内のテキストにも反映される(図8の(d))。 At the same time, it is reflected in the text in the text display window 201 (in FIG. 8 (d)). この後、この空白部分に図7同様に文字ストロークを入力することにより、文字挿入できる。 Thereafter, by inputting Figure 7 likewise character stroke in this blank portion, it can be characters inserted.

【0042】図9は、既入力文字列を削除する例を示したものである。 [0042] Figure 9 is a diagram showing an example of deleting the already input character string. 即ち、削除を行う場合は、テキスト表示ウィンドウ201内の削除したい位置でペンをタップし(図9の(a))、削除したいテキストが文字認識枠2 That is, when deleting, touch the pen you want to delete the position of the text display window 201 ((a) in FIG. 9), the text to be deleted character recognition frame 2
03内に表示されている状態で、削除したい文字「Y」 In a state that in the 03 being displayed, you want to delete the letter "Y"
の文字認識枠203上に削除シェスチャ(例えば塗り潰しや二重線等)を実施することで行う(図9の(b))。 Carried out by performing the deletion on the character recognition frame 203 Shesucha (eg fill or double lines, etc.) ((b) of FIG. 9). 削除文字の後には入力文字が左にシフト表示され、又前述同様、削除処理は文字認識枠203内とテキストに同時に反映されるものである(図9の(c))。 After deleting characters are shifted displayed input character is to the left, and the same manner as described above, the removal process is intended to be simultaneously reflected in the character recognition frame 203 and the text (in FIG. 9 (c)).

【0043】ところで、入力パネル202上でのジェスチャは、複数個の文字認識枠203に跨って入力することも可能である。 By the way, gesture on the input panel 202 may also be entered over a plurality of character recognition frame 203. これは、入力領域管理部104にて処理される。 It is processed in the input area management unit 104. 図10は、複数枠に跨った削除の編集ジェスチャ入力により、文字列の削除を行う場合の一例である(図10の(a))。 10, the editing gesture input of the deletion across multiple frames, an example of a case where the deletion of a character string (in FIG. 10 (a)). 前述同様、文字認識枠203内とテキスト表示ウィンドウ201に反映される(図10の(b))。 As before, it is reflected in the character recognition frame 203 in the text display window 201 (in Figure 10 (b)).

【0044】図11は、既入力文字列についてストロークの追加入力なしに再認識を行う場合の例である。 [0044] Figure 11 is an example of a case where the re-recognition of the already input character string without additional stroke input. これは本システムが既入力の文字ストロークを保持している為に可能となるものである。 This is what the system is possible in order to retain the character strokes already input. テキスト表示ウィンドウ2 Text display window 2
01内で再認識する文字をタップすると(図11の(a))、同様にして文字認識枠203に既入力の文字ストロークと、認識結果が表示される(図11の(b))。 Tap re recognizing characters within at 01 ((a) in FIG. 11), the character strokes of the already input character recognition frame 203 in a similar manner, the recognition result is displayed (in FIG. 11 (b)). ここで、「Y」の認識結果領域206をペンでタップして、再認識指示を行うことにより、再びストロークに対して認識を再度行い、その認識結果領域20 Here, tap recognition result area 206 with a pen of "Y", by performing the re-recognition instruction performs again the recognition on again the stroke, the recognition result area 20
6に別の認識結果(「り」)を提示するものである(図11の(c))。 6 is intended to present another recognition result ( "Ri") to ((c) of FIG. 11).

【0045】図12は、既入力の文字ストロークにストロークを追加することにより別の文字として認識する場合の例を示したものである。 [0045] Figure 12 is a diagram showing an example in which recognition as a different character by adding a stroke to a character stroke already input. 即ち、テキスト表示ウィンドウ201内で再認識する文字をタップすると(図12 That is, when the tap re-recognized characters in a text display window within 201 (FIG. 12
の(a))、同様にして文字認識枠203に既入力の文字ストロークと、認識結果が表示される(図12の(b))。 Of (a)), the character strokes previously entered in the character recognition frame 203 in a similar manner, the recognition result is displayed (in FIG. 12 (b)). ここで、「日」の文字認識枠206の入力文字ストロークに対して、ストロークを追加入力することで別の文字(「目」)として認識され、その結果が当該認識結果領域206に表示される(図12の(c))。 Here, for the input character strokes of the character recognition frame 206 of the "day" is recognized as another character by adding input stroke ( "eye"), the result is displayed on the recognition result area 206 (in FIG. 12 (c)).

【0046】図13は、テキスト表示ウィンドウ201 [0046] FIG. 13, the text display window 201
上で編集ジェスチャを行った場合の例である。 It is an example of a case of performing the editing gesture above. 即ち、テキスト表示ウィンドウ201上で編集ジェスチャを行った場合にも、入力パネル202内にテキストが表示された後、挿入の編集であれば、テキスト表示ウィンドウ2 That is, even when performing editing gesture on a text display window 201, after the text is displayed in the input panel 202, if the editing of the insertion, the text display window 2
01上で所望位置にてペンのダブルタップを実行すると(図13の(a))、図8同様に挿入が行われ、挿入された空白と同時にテキストに反映される(図13の(b))。 Running the pen double tap at a desired position on the 01 ((a) in FIG. 13), FIG. 8 likewise inserts occur simultaneously is reflected in the text and inserted blank (FIG. 13 (b) ).

【0047】図14は、手書き(ペン)入力の高速入力をサポートする為の一例である。 [0047] FIG. 14 is an example of to support the high-speed input of handwriting (pen) input. 本実施形態では、文字認識が完了したストロークが自動的に消去されることはないので、ユーザが以下に示す入力を実行した場合に文字認識枠203内をクリアする。 In the present embodiment, since it is not possible to stroke the character recognition has been completed is erased automatically clears the character recognition frame 203 when the user executes the input shown below. 即ち、文字認識枠20 In other words, character recognition frame 20
3中で最も右に位置する最右枠へ入力した直後に(図1 Immediately after input to the rightmost frame located rightmost in 3 (Fig. 1
4の(a))、最左枠にストロークを入力(「X」の上に「に」)すると(図14の(b))、入力ストロークの認識結果の表示と共に、今までに入力された認識文字やストロークがクリアされ、次回からの入力は新規挿入という形で入力を行うようになる(図14の(c))。 4 (a)), the input stroke in the leftmost frame ( "X", "in" on the) Then (in FIG. 14 (b)), together with the display of the recognition result of the input stroke, is input so far recognized character or stroke is cleared, the input from the next is to perform an input in the form of a new insertion (in FIG. 14 (c)).
このように左から右に入力した後に、そのままの勢いにて左から入力していることが可能になる為、高速な文字入力を行うことが可能となり、メモ等の用途に有効である。 In this way after you enter from the left to the right, because it is possible to have input from the left by as it is of momentum, it becomes possible to perform high-speed character input, it is effective to use notes, and the like.

【0048】本実施形態によれば、文字認識枠内で認識された認識結果文字を直接テキスト表示ウィンドウに反映することにより、入力と当該結果の対応が一対一に対応し、ユーザの使い勝手が向上するものである。 According to the present embodiment, by reflecting the recognized recognition result character in a character recognition frame directly in the text display window, the input and the result correspondence in one-to-one correspondence, user convenience improves it is intended to. 又、双方が関連を有した状態にて保持されることで、入力間違いや認識ミスの修正が容易となる。 Further, since the both are held in a state having an associated, thereby facilitating correction of input errors and recognition errors. その上、自動的に文字認識枠から消去されないよう構成してあるので、従来のように誤入力の際にユーザが該当文字を消去してから挿入する必要がなくなる。 Moreover, automatically so it is configured so as not to be deleted from the character recognition frame, necessary for the user at the time of erroneous input as in the prior art is inserted to erase the corresponding character disappears. 更に、ストロークを再入力することなしに再認識処理が行えると共に、ストロークを新規追加できるので、従来のようにストロークを何度も入れ直す煩わしさからユーザは解放されるものである。 Moreover, the re-recognition process is performed without re-enter the stroke, since the stroke can add new users from troublesome cycling also conventional repeatedly strokes as is intended to be released.
加えて、文字認識枠が埋まった時点でユーザが新規入力操作を行うことで、ユーザの管理下での入力を行うことができるものである。 In addition, the user at the time of character recognition frame are filled is by performing a new input operation, in which can be inputted under the control of the user. 更に、操作釦等のインタフェースを排除し、ジェスチャのみで編集可能なことで、統一的なインタフェースを提供できるものである。 Furthermore, to eliminate an interface such as an operation button, it can be edited only by gestures, those that can provide a uniform interface. 更に、不必要となったデータを自動的に破棄することで、メモリ容量の少ない携帯型情報端末上で長文の入力、編集をも可能にする。 Furthermore, by automatically discard data that became unnecessary, long sentence input on small memory capacity portable information terminal also allows editing.

【0049】 [0049]

【発明の効果】以上詳記したように本発明によれば、ペン入力機能を搭載した情報処理機器に於いて、ペン入力された文字列の編集を容易に行えるので、入力編集効率の改善及び使い勝手の向上が図れるものである。 According to the present invention as described above in detail, according to the present invention, in the information processing devices equipped with a pen input function, since allows for the editing of a pen input character string easily improve the input editing efficiency and one in which usability of can be achieved.

【0050】特に、本発明によれば、従来のペン入力装置に設けられていた未確定文字列表示機能を除去し、認識枠にストロークの認識完了と同時に文字列にも反映させる自動的な反映の機能により、入力の為の操作釦を排除でき、有用なものである。 [0050] In particular, according to the present invention, to remove the conventional pen input device undetermined character string display function provided, even automatic reflected to be reflected on at the same time the character string recognition and completion of the stroke recognition frame by the function, can eliminate the operation button for the input, it is useful. 又、テキスト表示ウインドウ上で選択した文字列を認識枠内に反映し、既入力した文字ストロークと認識結果の文字を表示することで、入力と編集を統一的なインタフェースにて行えるものでもある。 In addition, there is to reflect the selected text on the text display window in the recognition frame, by displaying of the character strokes already input recognition result character, be one allows for the editing and input in a uniform interface.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】本発明の一実施形態に係わるシステムの内部全体の概略構成を示すブロック図。 Block diagram showing the schematic configuration of the whole interior of the system according to an embodiment of the present invention; FIG.

【図2】同実施形態に係わるシステムの外観構成を概略的に示す図。 Figure 2 schematically illustrates the external configuration of system according to the embodiment.

【図3】同実施形態に係わるシステムの外観に関し、ペン入力時の様子を例示する図。 [3] relates to the appearance of the system according to the embodiment, diagram illustrating a situation when the pen input.

【図4】同実施形態に係わるシステムの動作処理の流れを示すフローチャート。 Figure 4 is a flowchart showing a flow of operation process of the system according to the embodiment.

【図5】同実施形態に係わり、テキスト表示ウィンドウ内処理の流れを示すフローチャート。 [5] relates to the embodiment, a flow chart showing the flow of the text display window processing.

【図6】同実施形態に係わり、既入力文字列を変更する例を示す図。 [6] relates to the embodiment, showing an example of changing the already input character string Fig.

【図7】同実施形態に係わり、メモリの空き領域が減少しストロークデータを破棄した場合の例を示す図。 [7] relates to the embodiment, an example of a case where the free space of the memory is discarded reduced stroke data FIG.

【図8】同実施形態に係わり、既入力文字列に新たに文字を挿入する例を示す図。 [8] relates to the embodiment, an example of newly inserted characters into already input character string Fig.

【図9】同実施形態に係わり、既入力文字列を削除する例を示す図。 [9] relates to the embodiment, showing an example of deleting the already input character string Fig.

【図10】同実施形態に係わり、複数個の文字認識枠に跨ったジェスチャ編集の一例を示す図。 [10] relates to the embodiment, an example of a gesture editing across plural character recognition frame FIG.

【図11】同実施形態に係わり、既入力文字列についてストロークの追加入力なしに再認識を行う場合の例を示す図。 [11] relates to the embodiment, it shows an example of a case where the re-recognition of the already input character string without additional stroke input.

【図12】同実施形態に係わり、既入力文字ストロークにストローク追加することにより別の文字として認識する場合の例を示す図。 [12] relates to the embodiment, showing an example in the case of recognized as another character by stroke add to the already input character strokes FIG.

【図13】同実施形態に係わり、テキストウィンドウ上で編集ジェスチャを行った場合の例を示す図。 [13] relates to the embodiment, an example in the case of performing editing gesture on a text window FIG.

【図14】同実施形態に係わり、高速入力をサポートする為の一例を示す図。 [14] relates to the embodiment, an example to support a high-speed input FIG.

【図15】従来のペン入力機能を搭載する情報処理機器を示す図。 FIG. 15 is a diagram showing an information processing apparatus including a conventional pen input function.

【符号の説明】 DESCRIPTION OF SYMBOLS

101…入力装置、103…入力管理部、105,11 101 ... input device, 103 ... input management unit, 105,11
1…ストローク管理部、107,112…ジェスチャ認識部、108…文字認識部、110…テキストバッファ、201…テキスト表示ウィンドウ、202…入力パネル、203…文字認識枠。 1 ... stroke management unit, 107, 112 ... gesture recognition unit, 108 ... character recognition unit, 110 ... text buffer, 201 ... text display window 202 ... input panel, 203 ... character recognition frame.

Claims (12)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】 各種編集を指示するジェスチャ情報並びに入力文字を当該文字を構成するストローク情報にてペン入力すると共に、当該入力状況を表示出力可能とした表示一体型のペン入力装置に於いて、 上記入力ストローク情報に従って対応する文字や記号、 The method according to claim 1] gesture information and the input character to indicate various editing with pen input in stroke information constituting the character, in the pen input device for a display integrated type in which the said input status displayable output, characters and symbols corresponding in accordance with the above input stroke information,
    ジェスチャを認識する認識手段と、 上記ストローク情報と上記認識手段にて認識された認識結果情報を表示の為に保持する保持手段と、 上記認識結果情報をテキストデータとして表示するテキスト表示手段とを設けたことを特徴とするペン入力装置。 Recognizing means for recognizing a gesture, and holding means for holding for displaying the recognition result information recognized by the stroke information and the recognition means, and a text display means for displaying the recognition result information as text data provided pen input device, characterized in that the.
  2. 【請求項2】 上記ストローク情報と認識結果情報は上記保持手段により、対応する情報同士が夫々関連付けられた状態にて保有されて、上記テキスト表示手段及び上記認識手段の両方の表示に反映されるよう構成すると共に、 上記認識手段が有する認識領域内にペン入力された上記ストローク情報と上記認識結果情報は、消去処理が成されない限り表示出力されるよう構成したことを特徴とする請求項1記載のペン入力装置。 The method according to claim 2 wherein said stroke information and the recognition result information the holding means, are held in a state where the corresponding information to each other associated respectively, are reflected in the display of both the text display means and the recognition means while configured, the above stroke information and the recognition result information is pen input recognition region recognition means has is, according to claim 1, characterized by being configured to be displayed and output as long as the erase process is not performed pen input device.
  3. 【請求項3】 上記保持手段に保持されたストローク情報は、上記認識手段にて再認識処理が可能であると共に、当該ストローク情報に新たなストローク情報を追加して上記認識手段にて認識処理可能としたことを特徴とする請求項1又は請求項2記載のペン入力装置。 3. A stroke information held in said holding means, the well as a re-recognition process by the recognition unit, the recognition processing can add a new stroke information to the stroke information in said recognition means a pen input device according to claim 1 or claim 2, wherein the the.
  4. 【請求項4】 上記認識手段に於ける認識領域は複数の認識枠から成り、各々の認識枠内にペン入力による上記ストローク情報と上記認識結果情報は、新たな入力操作によってのみ上記認識枠内から消去されるよう構成したことを特徴とする請求項1又は請求項2記載のペン入力装置。 Wherein in the recognition region to the recognition means comprises a plurality of recognition frame, the stroke information and the recognition result information by pen input to each of the recognition frame, the only the recognition frame by a new input operation pen input apparatus according to claim 1 or claim 2, wherein the configured to be erased from.
  5. 【請求項5】 上記認識手段に対するペン入力によるストロークにて、上記テキストデータと上記ストローク情報、上記認識結果情報に対してテキスト入力/編集を可能としたことを特徴とする請求項1又は請求項2記載のペン入力装置。 At 5. The stroke with a pen input to the recognition unit, according to claim 1 or claim, characterized in that to enable text input / edit the text data and the stroke information for the recognition result information 2 pen input device as claimed.
  6. 【請求項6】 上記保持手段のメモリ空き容量が減少した場合、所定の条件下にて当該保持手段に保持されているストローク情報を消去するよう構成したことを特徴とする請求項1又は請求項2記載のペン入力装置。 6. When the memory space of the holding means is reduced, according to claim 1 or claim, characterized by being configured so as to erase the stroke information held in the holding means at a predetermined condition 2 pen input device as claimed.
  7. 【請求項7】 各種編集を指示するジェスチャ情報並びに入力文字を当該文字を構成するストローク情報にてペン入力すると共に、当該入力状況を表示出力可能とした表示一体型のペン入力装置に於いて、 上記ストローク情報に従って対応する文字や記号、ジェスチャを認識し、 上記ストローク情報と上記認識された認識結果情報を表示の為に保持するようにし、 上記認識結果情報をテキストデータとして表示出力するようにしたことを特徴とするペン入力装置に於ける文字入力方法。 7. A gesture information and the input character to indicate various editing with pen input in stroke information constituting the character, in the pen input device for a display integrated type in which the said input status displayable output, characters and symbols corresponding in accordance with the above stroke information, recognizing a gesture, so as to hold for displaying the stroke information and the recognized recognition result information, and to display outputs the recognition result information as text data in the character input method pen input apparatus characterized by.
  8. 【請求項8】 上記ストローク情報と認識結果情報は、 8. The stroke information and the recognition result information,
    対応する情報同士が夫々関連付けられた状態にて保持され、 上記テキスト表示出力及び上記認識処理の両方の表示に反映されるようにし、 認識領域内にペン入力された上記ストローク情報と上記認識結果情報は、消去処理が成されない限り表示出力されるようにしたことを特徴とする請求項7記載のペン入力装置に於ける文字入力方法。 Is held in a state where the corresponding information to each other associated respectively, the text displayed on the output and as reflected in the display of both the recognition process, the recognition region pen input the stroke information and the recognition result information It is in the character input method pen input apparatus according to claim 7, characterized in that to be displayed output as long as the erase process is not performed.
  9. 【請求項9】 上記保持されたストローク情報は、再認識処理が可能であると共に、当該ストローク情報に新たなストローク情報を追加して認識処理可能としたことを特徴とする請求項7又は請求項8記載のペン入力装置に於ける文字入力方法。 9. stroke information the holding, together with a re-recognition process, according to claim 7 or claim, characterized in that the possible recognition process by adding a new stroke information to the stroke information in the character input method pen input device according 8.
  10. 【請求項10】 上記認識領域は複数の認識枠から構成され、 各々の認識枠内にペン入力による上記ストローク情報と上記認識結果情報は、新たな入力操作によってのみ上記認識枠内から消去されるようにしたことを特徴とする請求項7又は請求項8記載のペン入力装置に於ける文字入力方法。 10. The recognition area is composed of a plurality of recognition frame, the stroke information and the recognition result information by pen input to each of the recognition frame is erased only from the search frame in the new input operation in the character input method pen input apparatus according to claim 7 or claim 8, wherein it has to.
  11. 【請求項11】 上記認識処理に対するペン入力によるストロークにて、上記テキストデータと上記ストローク情報、上記認識結果情報に対してテキスト入力/編集を可能としたことを特徴とする請求項7又は請求項8記載のペン入力装置に於ける文字入力方法。 At 11. strokes with the pen input to the recognition process, according to claim 7 or claim, characterized in that to enable text input / edit the text data and the stroke information for the recognition result information in the character input method pen input device according 8.
  12. 【請求項12】 上記ストローク情報及び上記認識結果情報はメモリに保持され、 当該メモリの空き容量が減少した場合、所定の条件下にて保持されているストローク情報を消去するようにしたことを特徴とする請求項7又は請求項8記載のペン入力装置に於ける文字入力方法。 12. The stroke information and the recognition result information is stored in the memory, when the free space of the memory is reduced, characterized in that so as to erase the stroke information stored in a predetermined condition in the character input method pen input apparatus according to claim 7 or claim 8 wherein the.
JP18027199A 1999-06-25 1999-06-25 Pen input device and character input method in the device Pending JP2001014096A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18027199A JP2001014096A (en) 1999-06-25 1999-06-25 Pen input device and character input method in the device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18027199A JP2001014096A (en) 1999-06-25 1999-06-25 Pen input device and character input method in the device

Publications (1)

Publication Number Publication Date
JP2001014096A true true JP2001014096A (en) 2001-01-19

Family

ID=16080321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18027199A Pending JP2001014096A (en) 1999-06-25 1999-06-25 Pen input device and character input method in the device

Country Status (1)

Country Link
JP (1) JP2001014096A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004342101A (en) * 2003-05-08 2004-12-02 Orange Sa Data processing device and method
JP2006260573A (en) * 2005-03-17 2006-09-28 Microsoft Corp Word or character boundary based scratch-out gesture recognition
JP2007511003A (en) * 2003-11-10 2007-04-26 マイクロソフト コーポレーション System and method for modifying the user interface and electronic text for interacting with electronic text
WO2010038942A2 (en) * 2008-10-02 2010-04-08 Kim Youn Soo Letter input method
JP2011150619A (en) * 2010-01-25 2011-08-04 Seiko Epson Corp Electronic equipment
WO2012147369A1 (en) * 2011-04-27 2012-11-01 パナソニック株式会社 Handwritten character input device and handwritten character input method
WO2015041004A1 (en) * 2013-09-19 2015-03-26 シャープ株式会社 Recognition apparatus and method for controlling recognition apparatus
US9167110B2 (en) 2013-09-25 2015-10-20 Kyocera Document Solutions Inc. Input device capable of converting character style of input character, image forming apparatus having the input device, and electronic apparatus having the input device
JP2016091465A (en) * 2014-11-10 2016-05-23 大日本印刷株式会社 Information processing unit, information processing system and program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004342101A (en) * 2003-05-08 2004-12-02 Orange Sa Data processing device and method
JP4746555B2 (en) * 2003-11-10 2011-08-10 マイクロソフト コーポレーション System and method for modifying the user interface and electronic text for interacting with electronic text
JP2007511003A (en) * 2003-11-10 2007-04-26 マイクロソフト コーポレーション System and method for modifying the user interface and electronic text for interacting with electronic text
KR101098642B1 (en) 2003-11-10 2011-12-23 마이크로소프트 코포레이션 Ink correction pad
JP2006260573A (en) * 2005-03-17 2006-09-28 Microsoft Corp Word or character boundary based scratch-out gesture recognition
WO2010038942A3 (en) * 2008-10-02 2010-07-01 Kim Youn Soo Letter input method
WO2010038942A2 (en) * 2008-10-02 2010-04-08 Kim Youn Soo Letter input method
US8887084B2 (en) 2008-10-02 2014-11-11 Intellectual Discovery, Inc. Letter input method
JP2011150619A (en) * 2010-01-25 2011-08-04 Seiko Epson Corp Electronic equipment
WO2012147369A1 (en) * 2011-04-27 2012-11-01 パナソニック株式会社 Handwritten character input device and handwritten character input method
WO2015041004A1 (en) * 2013-09-19 2015-03-26 シャープ株式会社 Recognition apparatus and method for controlling recognition apparatus
JP2015060470A (en) * 2013-09-19 2015-03-30 シャープ株式会社 Recognition device
US9167110B2 (en) 2013-09-25 2015-10-20 Kyocera Document Solutions Inc. Input device capable of converting character style of input character, image forming apparatus having the input device, and electronic apparatus having the input device
JP2016091465A (en) * 2014-11-10 2016-05-23 大日本印刷株式会社 Information processing unit, information processing system and program

Similar Documents

Publication Publication Date Title
US5513278A (en) Handwritten character size determination apparatus based on character entry area
US5831615A (en) Method and apparatus for redrawing transparent windows
US6487569B1 (en) Method and apparatus for organizing notes on a limited resource computing device
US5638505A (en) Apparatus and methods for moving/copying objects using destination and/or source bins
US6067070A (en) Display control apparatus having a display of text data and image data and display control method for the same
US5394166A (en) Electronic device
US20020097270A1 (en) Selection handles in editing electronic documents
US6097392A (en) Method and system of altering an attribute of a graphic object in a pen environment
US6271835B1 (en) Touch-screen input device
US5907852A (en) Document editing apparatus
US4912640A (en) Electronic type memo device
US6289361B1 (en) Document display apparatus for displaying a plurality of multimedia documents
US7225405B1 (en) System and method for audio creation and editing in a multimedia messaging environment
US6016502A (en) Data processing apparatus
US4953225A (en) Handwritten character-recognizing apparatus for automatically generating and displaying character frames
US20050089226A1 (en) Apparatus and method for letter recognition
US5900876A (en) Information processing apparatus and method with display book page turning
JP2001175375A (en) Portable information terminal and storage medium
US20030236104A1 (en) Method and device for quickly storing a telephone book in a mobile device
JPH0981320A (en) Pen input type selection input device and method therefor
JP2002062966A (en) Information processor and control method thereof
US20020003531A1 (en) Apparatus and method for inputting and displaying data for refrigerator
US20080122806A1 (en) Method and Apparatus for Inputting Character Through Pointing Device
US20100066691A1 (en) Input apparatus and computer readable recording medium recorded with image processing program
US20120092268A1 (en) Computer-implemented method for manipulating onscreen data