JP2989084B2 - Information processing device - Google Patents

Information processing device

Info

Publication number
JP2989084B2
JP2989084B2 JP2681693A JP2681693A JP2989084B2 JP 2989084 B2 JP2989084 B2 JP 2989084B2 JP 2681693 A JP2681693 A JP 2681693A JP 2681693 A JP2681693 A JP 2681693A JP 2989084 B2 JP2989084 B2 JP 2989084B2
Authority
JP
Japan
Prior art keywords
pattern
command
gesture
input
command data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2681693A
Other languages
Japanese (ja)
Other versions
JPH06242882A (en
Inventor
和彦 松尾
和彦 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Consejo Superior de Investigaciones Cientificas CSIC
Original Assignee
Consejo Superior de Investigaciones Cientificas CSIC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Consejo Superior de Investigaciones Cientificas CSIC filed Critical Consejo Superior de Investigaciones Cientificas CSIC
Priority to JP2681693A priority Critical patent/JP2989084B2/en
Priority to US08/181,129 priority patent/US5502803A/en
Priority to EP94100661A priority patent/EP0607926B1/en
Priority to DE69424072T priority patent/DE69424072T2/en
Publication of JPH06242882A publication Critical patent/JPH06242882A/en
Application granted granted Critical
Publication of JP2989084B2 publication Critical patent/JP2989084B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、画面上でペン等による
手書きでの編集を行えるようにした情報処理装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus capable of editing by handwriting with a pen or the like on a screen.

【0002】[0002]

【従来の技術】従来、ワードプロセッサやコンピュータ
等の情報処理装置においては、キーボードにより入力を
行うのが一般的であった。このような情報処理装置で
は、文書等の編集を行う場合、カーソル移動のキー操作
によりカーソルを移動させて編集箇所や編集範囲の指定
を行い、編集用のキー操作により所望の編集処理を実行
させていた。
2. Description of the Related Art Conventionally, in an information processing apparatus such as a word processor or a computer, input is generally performed by a keyboard. In such an information processing apparatus, when editing a document or the like, a cursor is moved by a cursor operation key operation to specify an edit location or an edit range, and a desired edit process is executed by an edit key operation. I was

【0003】上記の情報処理装置に対し、近年では、座
標入力用のペンにより画面を直接指し示すことにより入
力を行えるようにした装置がある。このような装置で手
書きにより文書等の編集を行ういわゆるジェスチャー編
集を備えたものでは、ペンにより画面上に線画が描かれ
ることにより、その線画の形状に応じたコマンドの編集
処理を行うようになっている。
[0003] In recent years, there has been an apparatus capable of inputting information by directly pointing the screen with a pen for inputting coordinates. In a device provided with so-called gesture editing for editing a document or the like by handwriting with such an apparatus, a command is processed in accordance with the shape of the line drawing by drawing the line drawing on the screen with a pen. ing.

【0004】このような情報処理装置は、図13に示す
ように、手書きによる入力を行う入力処理部21と、入
力された筆跡(入力パターン)の認識を行う認識処理部
22と、認識処理部22での認識結果(認識パターン)
に基づいて、この認識パターンに該当するコマンドデー
タを判断する判断処理部23と、入力パターンの認識に
用いられるマッチングパターンとこのマッチングパター
ンに対応付けられたコマンドデータとを記憶する記憶部
メモリ24と、判断処理部23にて判断されたコマンド
データに基づいて、コマンドの実行処理を行う出力処理
部25とを備えている。
As shown in FIG. 13, such an information processing apparatus includes an input processing unit 21 for inputting by handwriting, a recognition processing unit 22 for recognizing input handwriting (input pattern), and a recognition processing unit. 22 recognition result (recognition pattern)
And a storage unit memory 24 that stores a matching pattern used for recognition of an input pattern and command data associated with the matching pattern, based on the determination processing unit 23 that determines command data corresponding to the recognition pattern. And an output processing unit 25 that executes command execution processing based on the command data determined by the determination processing unit 23.

【0005】また、上記の記憶部メモリ24は、図14
(a)に示すように、2byteのコードから構成され
るジェスチャーコマンドテーブルを備えている。このジ
ェスチャーコマンドテーブルは、図14(b)に示すよ
うに、1byte目が筆跡に対するマッチングパターン
のコードを表し、2byte目がこのパターンコードに
対応付けられたコマンドデータの処理コードを表してい
る。
[0005] Further, the above-mentioned storage unit memory 24 is provided in FIG.
As shown in (a), a gesture command table including a 2-byte code is provided. In the gesture command table, as shown in FIG. 14B, the first byte indicates the code of the matching pattern for the handwriting, and the second byte indicates the processing code of the command data associated with this pattern code.

【0006】そして、上記の情報処理装置によるジェス
チャー編集処理プロセスは、図15のフローチャートに
示すように、先ず、入力処理部21で手書き入力処理を
施し(S31)、その後、この入力処理で得られた座標
データ(入力パターン)を、一旦、図示しないバッファ
メモリに記憶保持する(S32)。次に、ジェスチャー
コマンドテーブルからマッチングパターンの呼び出しを
行い(S33)、認識処理部22にて、マッチングパタ
ーンと上記入力パターンとの照合を行って(S34)、
入力パターンに対する該当パターン(認識パターン)の
有無を判別する(S35)。
[0006] The gesture editing process by the information processing device is firstly performed by a handwriting input process in an input processing unit 21 (S31) as shown in a flowchart of FIG. The coordinate data (input pattern) is temporarily stored in a buffer memory (not shown) (S32). Next, a matching pattern is called from the gesture command table (S33), and the recognition processing unit 22 checks the matching pattern against the input pattern (S34).
It is determined whether there is a corresponding pattern (recognition pattern) for the input pattern (S35).

【0007】S35で、認識パターンが無い場合は、S
31に移行する一方、認識パターンが有る場合は、S3
6に移行して、上記の認識パターンに対応するコマンド
データをジェスチャーコマンドテーブルから判定する。
そして、判断処理部23にて判定されたコマンドデータ
と、その位置情報とを処理コードとして出力処理部25
に出力することで(S37)、出力処理部25が、上記
の処理コードに基づいたコマンド処理を実行して(S3
8)、以上のようなジェスチャー編集における処理プロ
セスを終了する。
In S35, if there is no recognition pattern,
On the other hand, if there is a recognition pattern, the process proceeds to S3.
Then, the process proceeds to step S6, where command data corresponding to the above recognition pattern is determined from the gesture command table.
Then, the command data determined by the determination processing unit 23 and the position information are output as processing codes by the output processing unit 25.
(S37), the output processing unit 25 executes command processing based on the above processing code (S3).
8) The processing process in the gesture editing as described above ends.

【0008】[0008]

【発明が解決しようとする課題】ところが、上記従来の
ようなジェスチャー編集を可能にする情報処理装置で
は、ジェスチャーコマンドテーブル内でのマッチングパ
ターンとコマンドデータとの対応関係が固定的なものと
なっている。このため、ユーザーは、操作上予め決めら
れた筆跡パターンに対応する行われるべきコマンド処理
についての対応関係を留意する必要があり、ユーザー用
途に応じたジェスチャー編集の操作が行えないという問
題を有している。
However, in the conventional information processing apparatus which enables gesture editing, the correspondence between the matching pattern and the command data in the gesture command table is fixed. I have. For this reason, it is necessary for the user to pay attention to the correspondence of the command processing to be performed corresponding to the predetermined handwriting pattern in operation, and there is a problem that the gesture editing operation cannot be performed according to the user's purpose. ing.

【0009】[0009]

【課題を解決するための手段】本発明の情報処理装置
は、上記課題を解決するために、表示画面上での筆跡を
入力パターンとして入力する表示入力手段と、表示入力
手段からの入力パターンを認識するためのマッチングパ
ターンとこのマッチングパターンに対応付けられた編集
用のコマンドデータとを記憶する管理テーブルとを備
え、入力パターンに基づいたコマンドの実行処理を行う
情報処理装置において、以下の手段を講じている。
In order to solve the above-mentioned problems, an information processing apparatus according to the present invention includes a display input unit for inputting a handwriting on a display screen as an input pattern, and an input pattern from the display input unit. An information processing apparatus comprising a management table for storing a matching pattern for recognition and command data for editing associated with the matching pattern, and executing a command execution process based on the input pattern, includes the following means. I'm taking it.

【0010】即ち、上記管理テーブルに記憶されたマッ
チングパターンまたはコマンドデータのいずれかの項目
を選択する項目選択手段と、上記項目選択手段がコマン
ドデータを選択した場合には、上記管理テーブルに記憶
されているコマンドデータをコマンドデータ候補として
出力し、一方、上記項目選択手段がマッチングパターン
を選択した場合には、上記管理テーブルに記憶されてい
ないマッチングパターンをマッチングパターン候補とし
て出力する候補出力手段と、上記候補出力手段から出力
されたコマンドデータ候補またはマッチングパターン候
補から任意のものを選択する候補選択手段と、上記候補
選択手段によって選択されたコマンドデータまたはマッ
チングパターンを上記管理テーブルに記憶させる記憶更
新手段とを備えている。
That is, the map stored in the management table is
Either the ring pattern or the command data item
Item selection means for selecting
If you select data, it is stored in the above management table.
Command data as command data candidates
Output, while the item selection means is a matching pattern
If you select, the
Matching patterns that do not exist as matching pattern candidates
Output means for outputting the data from the candidate output means.
Command data candidate or matching pattern
Candidate selecting means for selecting an arbitrary one from the complements,
Command data or map selected by the selection means
Storage for storing the switching pattern in the management table.
With new means .

【0011】[0011]

【作用】上記の構成によれば、表示入力手段から入力さ
れる入力パターンを、管理テーブル内のマッチングパタ
ーンと照合することで認識パターンとして認識する。そ
の後、上記の認識パターンに基づいて、これに対応する
コマンドデータを判定し、判定したデータのコマンド処
理を実行する。また、上記のような管理テーブル内に記
憶されたマッチングパターンとコマンドデータとは、設
定変更手段によりその対応設定が任意に変更される。
According to the above arrangement, the input pattern input from the display input means is recognized as a recognition pattern by comparing the input pattern with the matching pattern in the management table. Thereafter, based on the above recognition pattern, the corresponding command data is determined, and the command processing of the determined data is executed. The setting change means arbitrarily changes the corresponding setting of the matching pattern and the command data stored in the management table as described above.

【0012】[0012]

【実施例】本発明の一実施例を図1ないし図12(a)
(b)に基づいて以下に説明する。尚、本実施例では、
情報処理装置を日本語ワードプロセッサに適用した場合
を例示する。
1 to 12A show an embodiment of the present invention.
This will be described below based on (b). In this embodiment,
An example in which the information processing apparatus is applied to a Japanese word processor will be described.

【0013】本実施例に係る日本語ワードプロセッサ
は、図1に示すように、表示画面上での筆跡を入力パタ
ーンとして入力する入力処理部(表示入力手段)1と、
入力処理部1から入力された入力パターンを認識する認
識処理部2と、認識処理部2での認識結果(認識パター
ン)に基づいて、この認識パターンに該当するジェスチ
ャー編集用のコマンドデータを判断する判断処理部3
と、入力パターンの認識に用いられるマッチングパター
ンとこのマッチングパターンに対応付けられたコマンド
データとを記憶する記憶部メモリ4と、判断処理部3に
て判断されたコマンドデータに基づいて、コマンドの実
行処理を行う出力処理部5と、記憶部メモリ4内でのマ
ッチングパターンとコマンドデータとの対応設定を、ユ
ーザー用途に応じて任意に変更するジェスチャー設定変
更処理部(設定変更手段)6とを備えている。
As shown in FIG. 1, the Japanese word processor according to the present embodiment includes an input processing unit (display input means) 1 for inputting handwriting on a display screen as an input pattern.
A recognition processing unit for recognizing an input pattern input from the input processing unit, and a gesture editing command data corresponding to the recognition pattern is determined based on a recognition result (recognition pattern) in the recognition processing unit. Judgment processing unit 3
And a storage unit memory 4 for storing a matching pattern used for recognition of an input pattern and command data associated with the matching pattern, and executing a command based on the command data determined by the determination processing unit 3. An output processing unit 5 that performs processing, and a gesture setting change processing unit (setting change unit) 6 that arbitrarily changes the correspondence between the matching pattern and the command data in the storage unit memory 4 according to the user's application. ing.

【0014】入力処理部1は、図2に示すように、ディ
スプレイ11aと透明タブレット11bとが一体に形成
されたディスプレイタブレット11と、ユーザー操作に
よりディスプレイタブレット11の表示画面上で座標入
力を行う座標入力ペン12と、座標入力ペン12で操作
された軌跡の座標を順次抽出する軌跡座標抽出部13と
から構成されている。
As shown in FIG. 2, the input processing unit 1 includes a display tablet 11 in which a display 11a and a transparent tablet 11b are integrally formed, and coordinates for inputting coordinates on a display screen of the display tablet 11 by a user operation. An input pen 12 and a locus coordinate extracting unit 13 for sequentially extracting coordinates of a locus operated by the coordinate input pen 12 are provided.

【0015】認識処理部2および判断処理部3は、それ
ぞれ手書文字認識部14aとジェスチャーコマンド判定
部14bとから構成されている。手書文字認識部14a
は、軌跡座標抽出部13で抽出された座標データを後述
する手書文字テーブル15a内のマッチングパターンと
照合して、該当する文字コードを確認する。ジェスチャ
ーコマンド判定部14bは、軌跡座標抽出部13で抽出
された座標データを後述するジェスチャーコマンドテー
ブル15b内のマッチングパターンと照合して、該当す
る基本ストロークのマッチングパターンコードを確認す
ると共に、このパターンコードに対応するコマンドデー
タの判定を行う。
The recognition processing section 2 and the determination processing section 3 are each composed of a handwritten character recognition section 14a and a gesture command determination section 14b. Handwritten character recognition unit 14a
Collates the coordinate data extracted by the locus coordinate extraction unit 13 with a matching pattern in a handwritten character table 15a to be described later, and confirms a corresponding character code. The gesture command determination unit 14b checks the coordinate data extracted by the trajectory coordinate extraction unit 13 with a matching pattern in a gesture command table 15b described later to check a matching pattern code of the corresponding basic stroke, Of the command data corresponding to.

【0016】尚、上記手書文字認識部14aは、その確
認結果として、該当する文字コードを出力処理部5に出
力する一方、ジェスチャーコマンド判定部14bは、そ
の判定結果として、判定したコマンドデータと、その位
置情報を処理コードとして出力処理部5に出力するもの
である。
The handwritten character recognition section 14a outputs the corresponding character code to the output processing section 5 as a result of the confirmation, while the gesture command determination section 14b outputs the determined command data as the determination result. , And outputs the position information to the output processing unit 5 as a processing code.

【0017】記憶部メモリ4は、手書文字用のマッチン
グパターンを記憶する手書文字テーブル15aと、ジェ
スチャーコマンド用のマッチングパターンを記憶するジ
ェスチャーコマンドテーブル15bとの管理テーブル1
5から構成されている。ジェスチャーコマンドテーブル
15b内に記憶されるマッチングパターンは、図3に示
すように、複数の基本ストロークデータからなり、これ
らの基本ストロークデータには、個々に対応したコマン
ドデータが設けられている。
The storage unit memory 4 has a management table 1 of a handwritten character table 15a for storing a matching pattern for handwritten characters and a gesture command table 15b for storing a matching pattern for gesture commands.
5 is comprised. As shown in FIG. 3, the matching pattern stored in the gesture command table 15b is composed of a plurality of basic stroke data, and these basic stroke data are provided with corresponding command data.

【0018】出力処理部5は、テキストメモリ16内の
文字または文字列に編集を行うテキスト編集部17から
構成されており、手書文字認識部14aから文字コード
を入力した場合は、テキストメモリ16内のカーソル位
置に文字データを加える一方、ジェスチャーコマンド判
定部14bからコマンドおよび位置の処理コードを入力
した場合は、位置情報に相当するテキストメモリ16内
の文字または文字列に対してデータに応じたコマンドを
実行する。ジェスチャー設定変更処理部6は、文字デー
タやジェスチャー編集におけるコマンドデータ等のキー
入力を行うキーボード18から構成されており、後述す
るキー操作によりジェスチャー編集用マッチングパター
ンの設定変更を可能にする。
The output processing unit 5 comprises a text editing unit 17 for editing a character or a character string in the text memory 16. When a character code is inputted from the handwritten character recognition unit 14a, the text memory 16 is used. When character data is added to the cursor position in the, while the command and the processing code of the position are input from the gesture command determination unit 14b, the character or character string in the text memory 16 corresponding to the position information is corresponded to the data. Execute a command. The gesture setting change processing unit 6 includes a keyboard 18 for inputting characters such as character data and command data for gesture editing, and enables setting change of a gesture editing matching pattern by a key operation described later.

【0019】また、本ワードプロセッサは、図2に示す
ように、軌跡座標抽出部13で抽出された軌跡座標をつ
なげて、軌跡イメージを生成する軌跡描画部19と、軌
跡描画部19で生成された軌跡イメージを現在ディスプ
レイタブレット11上で表示されているイメージと合成
して記憶するビットマップメモリ20とを備えることに
より、ユーザーが座標入力ペン12で操作した文字また
はジェスチャー筆跡のディスプレイタブレット11上で
のリアルタイムな表示を可能にしている。
As shown in FIG. 2, the word processor connects the trajectory coordinates extracted by the trajectory coordinate extraction unit 13 to generate a trajectory image, and the trajectory drawing unit 19 generates the trajectory image. By providing the bitmap memory 20 for storing the track image combined with the image currently displayed on the display tablet 11, the character or the gesture handwriting operated by the user with the coordinate input pen 12 is displayed on the display tablet 11. Enables real-time display.

【0020】上記の構成において、本ワードプロセッサ
でのジェスチャー編集、ポインティング、および手書き
文字入力の各操作方法を、それぞれ図4(a)(b)ない
し図6(a)(b)に基づいて以下に説明する。
In the above configuration, the operation methods of gesture editing, pointing, and handwritten character input in the present word processor will be described below with reference to FIGS. 4 (a) (b) to 6 (a) (b). explain.

【0021】先ず、ジェスチャー編集操作において、例
えば、図4(a)に示すように、ディスプレイタブレッ
ト11上に表示されているテキストのうち、文字「え」
を一字抹消する場合では、座標入力ペン12にて「え」
の上を「V」のようにジェスチャーして、座標入力ペン
12をディスプレイタブレット11上から離す。
First, in the gesture editing operation, for example, as shown in FIG. 4A, of the text displayed on the display tablet 11, the character "e" is displayed.
When one character is to be deleted, the coordinate input pen 12
Is gestured like “V”, and the coordinate input pen 12 is released from above the display tablet 11.

【0022】これにより、軌跡座標抽出部13にて軌跡
座標が抽出されて、この軌跡座標が軌跡描画部19とジ
ェスチャーコマンド判定部14bとに出力される。軌跡
描画部19に出力された軌跡座標は、軌跡イメージとし
て生成され、その後、この軌跡イメージがビットマップ
メモリ20に出力されることで、ディスプレイタブレッ
ト11に表示されている「え」の上に「V」が重畳して
表示される。
As a result, the trajectory coordinates are extracted by the trajectory coordinate extraction unit 13, and the trajectory coordinates are output to the trajectory drawing unit 19 and the gesture command determination unit 14b. The trajectory coordinates output to the trajectory drawing unit 19 are generated as a trajectory image. After that, the trajectory image is output to the bitmap memory 20 so that “e” displayed on the display tablet 11 is displayed on the “e”. "V" is superimposed and displayed.

【0023】一方、ジェスチャーコマンド判定部14b
に出力された軌跡座標は、ジェスチャーコマンドテーブ
ル15b内の基本ストロークデータと照合され、これに
よって得られた一字抹消のコマンドデータとその位置情
報とがテキスト編集部17に出力される。そして、テキ
スト編集部17が、上記の位置情報に基づいて、カーソ
ルCを現在の位置から座標入力ペン12で操作された
「え」の位置に移動し、その後、一字抹消のコマンドデ
ータに基づいて、テキストメモリ16内の「え」を抹消
する。このため、ディスプレイタブレット11上では、
図4(b)に示すように、「え」が抹消されると共に、
カーソルCが「え」の次に表示された「お」に移行され
る。
On the other hand, the gesture command determining unit 14b
Are collated with the basic stroke data in the gesture command table 15b, and the obtained one-letter erasure command data and its position information are output to the text editing unit 17. Then, the text editing unit 17 moves the cursor C from the current position to the position of “E” operated by the coordinate input pen 12 based on the position information, and thereafter, based on the command data of one character deletion. Then, "e" in the text memory 16 is deleted. For this reason, on the display tablet 11,
As shown in FIG. 4B, "e" is deleted,
The cursor C is shifted to “O” displayed after “E”.

【0024】次に、ディスプレイタブレット11上の複
数文字を領域指定するポインティング操作について説明
する。尚、このポインティング操作は、従来では、カー
ソルを順次移動させて行っていたが、本ワードプロセッ
サでは、座標入力ペン12の指示によるカーソル位置の
ダイレクト指定を可能にしている。
Next, a pointing operation for specifying a plurality of characters on the display tablet 11 will be described. The pointing operation has conventionally been performed by sequentially moving the cursor. However, in the present word processor, the cursor position can be directly designated by the instruction of the coordinate input pen 12.

【0025】例えば、図5(a)に示すように、テキス
ト上の文字「う」を座標入力ペン12で点指定すると、
ジェスチャーコマンド判定部14bが、座標入力ペン1
2による軌跡座標が一点座標であることを判断して、ジ
ェスチャー編集からポインティングへ処理動作を切り替
えると共に、カーソルCを「う」に移行して、ポインテ
ィング領域の始点位置を示す。尚、このとき、ジェスチ
ャーコマンド判定部14bは、軌跡座標とジェスチャー
コマンドテーブル15b内の基本ストロークデータとの
照合は行わず、その位置情報のみをテキスト編集部17
に出力させているものである。
For example, as shown in FIG. 5A, when a point "U" on a text is designated by the coordinate input pen 12,
The gesture command determining unit 14b determines that the coordinate input pen 1
It is determined that the trajectory coordinates by 2 are one-point coordinates, the processing operation is switched from gesture editing to pointing, and the cursor C is shifted to "U" to indicate the starting point position of the pointing area. At this time, the gesture command determination unit 14b does not collate the trajectory coordinates with the basic stroke data in the gesture command table 15b, and only outputs the position information thereof to the text editing unit 17b.
Output.

【0026】そして、図5(b)に示すように、テキス
ト上の文字「ふ」を座標入力ペン12で点指定すること
により、ポインティング領域の終点位置が指示される
と、文字「う」と「ふ」との間に位置する文字が破線で
仕切られて、領域指定が行われる。
Then, as shown in FIG. 5 (b), when the character "F" on the text is pointed by the coordinate input pen 12, and the end point position of the pointing area is designated, the character "U" is displayed. Characters located between "" and "" are separated by broken lines, and an area is designated.

【0027】次に、手書き文字入力の操作について説明
する。尚、この手書き文字入力機能は、キーボード18
からのキー入力コマンドによる立ち上げに加えて、ディ
スプレイタブレット11上に「△」をジェスチャーする
ことによるジェスチャー編集コマンドからの立ち上げを
可能にしている。
Next, an operation for inputting handwritten characters will be described. This handwritten character input function is performed by the keyboard 18.
In addition to the startup by the key input command from the user, the startup from the gesture editing command by gesturing “ジ ェ” on the display tablet 11 is enabled.

【0028】上記のようにして手書き文字入力機能が立
ち上げられると、表示画面の所定位置には、図6(a)
に示すように、手書き入力ウインドWが表示される。そ
して、このウインドW内の第1入力エリアW1 に座標入
力ペン12で、例えば文字「す」を手書きし、次の文字
入力のため第2入力エリアW2 に座標入力ペン12を置
く。
When the handwritten character input function is activated as described above, a predetermined position on the display screen is displayed as shown in FIG.
, A handwriting input window W is displayed. Then, in the coordinate input pen 12 to the first input area W 1 in this window W, for example, handwritten characters "su", placing the coordinate input pen 12 to the second input area W 2 for the next character input.

【0029】これにより、軌跡座標抽出部13にて軌跡
座標が抽出されて、この軌跡座標が軌跡描画部19と手
書文字認識部14aとに出力される。軌跡描画部19に
出力された軌跡座標は、軌跡イメージとして生成され、
その後、この軌跡イメージがビットマップメモリ20に
出力されることで、ディスプレイタブレット11に表示
されているウインドWの第1入力エリアW1 内に「す」
が表示される。
As a result, the trajectory coordinates are extracted by the trajectory coordinate extraction unit 13, and the trajectory coordinates are output to the trajectory drawing unit 19 and the handwritten character recognition unit 14a. The trajectory coordinates output to the trajectory drawing unit 19 are generated as a trajectory image,
After that, the locus image is output to the bitmap memory 20, so that “S” appears in the first input area W 1 of the window W displayed on the display tablet 11.
Is displayed.

【0030】一方、手書文字認識部14aに出力された
軌跡座標は、手書文字テーブル15a内のマッチングパ
ターンとの照合により文字認識が行われ、これによって
得られた認識文字のコードがテキスト編集部17に出力
される。そして、ディスプレイタブレット11上のカー
ソルC位置には、図6(b)に示すように、認識結果文
字である「す」が表示され、また、表示された認識文字
「す」の次の位置にカーソルCが移行される。
On the other hand, the trajectory coordinates output to the handwritten character recognition unit 14a are subjected to character recognition by collating with a matching pattern in the handwritten character table 15a, and the code of the obtained recognized character is edited by text editing. Output to the unit 17. At the position of the cursor C on the display tablet 11, as shown in FIG. 6B, the recognition result character "su" is displayed, and at the position next to the displayed recognition character "su". The cursor C is moved.

【0031】次に、上記のようなジェスチャー編集にお
ける本ワードプロセッサの処理プロセスを、図7のフロ
ーチャートに基づいて以下に説明する。
Next, a processing process of the word processor in the above-described gesture editing will be described with reference to a flowchart of FIG.

【0032】先ず、ジェスチャーコマンドテーブル15
bのジェスチャー設定内容を変更するか否かが判別され
る(S1)。S1で、ジェスチャー設定内容を変更する
場合は、S2に移行して、キーボード18での設定内容
の変更処理を行った後、再度S1に戻る。一方、ジェス
チャー設定内容を変更しない場合は、S3に移行して、
入力処理部1で手書き入力処理を施し、その後、この入
力処理で得られた座標データ(入力パターン)を、一
旦、図示しないバッファメモリに記憶保持する(S
4)。
First, the gesture command table 15
It is determined whether or not to change the gesture setting content of b (S1). When the gesture setting content is changed in S1, the process proceeds to S2, where the setting content is changed using the keyboard 18, and then the process returns to S1 again. On the other hand, when the gesture setting content is not changed, the process proceeds to S3,
The input processing unit 1 performs a handwriting input process, and then temporarily stores and holds the coordinate data (input pattern) obtained in the input process in a buffer memory (not shown) (S
4).

【0033】次に、ジェスチャーコマンドテーブル15
bからマッチングパターン(基本ストロークデータ)の
呼び出しを行い(S5)、ジェスチャーコマンド判定部
14bにて、マッチングパターンと上記入力パターンと
の照合を行って(S6)、入力パターンに対する該当パ
ターン(認識パターン)の有無を判別する(S7)。S
7で、認識パターンが無い場合は、S1に移行する一
方、認識パターンが有る場合は、S8に移行して、上記
の認識パターンに対応するコマンドデータをジェスチャ
ーコマンドテーブル15bから判定する。
Next, the gesture command table 15
b, a matching pattern (basic stroke data) is called (S5), and the gesture command determination unit 14b compares the matching pattern with the input pattern (S6), and a corresponding pattern (recognition pattern) for the input pattern is obtained. Is determined (S7). S
In S7, if there is no recognition pattern, the process proceeds to S1, while if there is a recognition pattern, the process proceeds to S8 to determine the command data corresponding to the recognition pattern from the gesture command table 15b.

【0034】そして、ジェスチャーコマンド判定部14
bにて判定されたコマンドデータと、その位置情報とを
処理コードとしてテキスト編集部17に出力することで
(S9)、テキスト編集部17が、上記の処理コードに
基づいたコマンド処理を実行して(S10)、以上のよ
うなジェスチャー編集における処理プロセスを終了す
る。
Then, the gesture command determining unit 14
By outputting the command data determined in b and the position information to the text editing unit 17 as a processing code (S9), the text editing unit 17 executes the command processing based on the above processing code. (S10) The processing process in the gesture editing as described above ends.

【0035】次いで、上記S2でのキーボード18によ
る設定変更処理プロセスを、図8のフローチャートおよ
び図9(a)〜(c)の説明図に基づいて以下に説明す
る。
Next, the process of changing the setting by the keyboard 18 in S2 will be described below with reference to the flowchart of FIG. 8 and the explanatory diagrams of FIGS. 9 (a) to 9 (c).

【0036】先ず、キーボード18上のジェスチャー設
定変更キーの押下により、ジェスチャーコマンドテーブ
ル15bの内容読み出しが行われ(S11)、ディスプ
レイタブレット11の表示画面上に、図9(a)に示す
ような現在の設定内容の表示が行われる(S12)。
尚、この設定内容は、設定番号、基本ストローク、およ
びコマンドから構成される。
First, when the gesture setting change key on the keyboard 18 is pressed, the contents of the gesture command table 15b are read out (S11), and the current display as shown in FIG. Is displayed (S12).
The setting contents include a setting number, a basic stroke, and a command.

【0037】次に、ユーザーにより変更する設定番号
(例えば“1”)の選択が行われると(S13)、表示
画面上には、図9(b)に示すように、設定番号“1”
の基本ストロークとコマンドとが表示される。この表示
画面から、ユーザーがカーソル移動キー(←/→)によ
り基本ストロークあるいはコマンドの変更項目の選択を
行うと(S14)、次に、この変更項目が基本ストロー
クの変更であるか否かが判別される(S15)。
Next, when the user selects a setting number (for example, "1") to be changed (S13), the setting number "1" is displayed on the display screen as shown in FIG. 9B.
The basic stroke and command are displayed. When the user selects a basic stroke or a command change item from the display screen using the cursor movement keys (← / →) (S14), it is then determined whether or not the change item is a change in the basic stroke. Is performed (S15).

【0038】S15で、変更項目が基本ストロークの変
更でない場合、即ちコマンドの変更である場合は、S1
6に移行して、表示画面上にコマンドの設定候補が表示
される。一方、変更項目が基本ストロークの変更である
場合は、S17に移行して、表示画面上に設定済パター
ンを除く基本ストロークの設定候補が表示される。これ
により、基本ストロークの重複設定を不可能にする一方
で、コマンドの重複設定を可能にしている。
If it is determined in S15 that the change item is not a change of the basic stroke, that is, if the change item is a change of the command, the process proceeds to S1.
Then, the process proceeds to step 6, where command setting candidates are displayed on the display screen. On the other hand, when the change item is the change of the basic stroke, the process proceeds to S17, and the setting candidates of the basic stroke excluding the set pattern are displayed on the display screen. This makes it possible to make overlapping setting of basic strokes, while enabling overlapping setting of commands.

【0039】その後、変換/次候補キーによる設定種の
選択が行われると(S18)、次に、この設定種の選択
が確定であるか否かが判別される(S19)。S19
で、設定種の選択が確定でない場合は、再度S18に戻
る一方、設定種の選択が確定の場合は、S20に移行す
る。尚、設定種の選択確定は、ユーザーが実行キーを押
下することで行われる。
Thereafter, when the setting type is selected by the conversion / next candidate key (S18), it is then determined whether or not the selection of the setting type is finalized (S19). S19
If the selection of the setting type is not determined, the process returns to S18. On the other hand, if the selection of the setting type is determined, the process proceeds to S20. The selection of the setting type is confirmed by the user pressing the execution key.

【0040】S20では、上記のようにして確定された
設定種の設定データが保持され、これに基づいて、ジェ
スチャーコマンドテーブル15bの内容が変更される
(S21)。そして、表示画面上に、図9(c)に示す
ような変更後の設定表示を行い(S22)、以上の設定
変更プロセスを終了する。
At S20, the setting data of the setting type determined as described above is held, and based on this, the contents of the gesture command table 15b are changed (S21). Then, the changed setting is displayed on the display screen as shown in FIG. 9C (S22), and the above setting change process is ended.

【0041】次に、上記のような基本ストロークあるい
はコマンドに対する重複設定の不可能/可能を制御する
設定候補テーブルについて説明する。
Next, a description will be given of a setting candidate table for controlling whether or not the above-described basic stroke or command can be set repeatedly.

【0042】この設定候補テーブルは、基本ストローク
用およびコマンド用としてそれぞれジェスチャーコマン
ドテーブル15内に設けられている。基本ストローク用
の設定候補テーブルは、図10に示すように、2byt
eで構成されたデータ格納形式であり、1byte目が
設定済か否かのチェックデータを表し、2byte目が
パターン候補番号を表している。一方、コマンド用の設
定候補テーブルは、図11に示すように、1byteで
構成されたデータ格納形式であり、この1byteが
“後退”“改行”“消去”等の処理候補番号を表してい
る。
This setting candidate table is provided in the gesture command table 15 for the basic stroke and for the command. The setting candidate table for the basic stroke is, as shown in FIG.
This is a data storage format composed of "e", and the first byte represents check data indicating whether or not the setting has been completed, and the second byte represents a pattern candidate number. On the other hand, the command setting candidate table has a data storage format composed of 1 byte, as shown in FIG. 11, and this 1 byte represents a processing candidate number such as “retreat”, “line feed”, “erase”, and the like.

【0043】また、上記基本ストローク用設定候補テー
ブルのパターン候補番号と、コマンド用設定候補テーブ
ルの処理候補番号とは、それぞれ図12(a)に示すよ
うに、ジェスチャーコマンドテーブル15bの1byt
e目および2byte目の各コードとして格納される。
そして、このジェスチャーコマンドテーブル15bは、
前述のような設定変更操作に伴い、例えば、図12
(b)に示すように、データ格納の変更が行われる。
As shown in FIG. 12A, the pattern candidate number of the basic stroke setting candidate table and the processing candidate number of the command setting candidate table are each 1 byte of the gesture command table 15b.
It is stored as each code of the e-th and second bytes.
And this gesture command table 15b is
With the above-described setting change operation, for example, FIG.
As shown in (b), the data storage is changed.

【0044】以上のように、本日本語ワードプロセッサ
は、表示画面上でのジェスチャー筆跡を入力パターンと
して入力する入力処理部1と、入力処理部1からの入力
パターンを認識するためのマッチングパターンとこのマ
ッチングパターンに対応付けられた編集用のコマンドデ
ータとを記憶するジェスチャーコマンドテーブル15b
と、ジェスチャーコマンドテーブル15b内でのマッチ
ングパターンとコマンドデータとの対応設定を任意に設
定変更するキーボード18とを備えている。
As described above, the present Japanese word processor includes an input processing unit 1 for inputting a gesture handwriting on a display screen as an input pattern, a matching pattern for recognizing an input pattern from the input processing unit 1, and a matching pattern. Gesture command table 15b for storing command data for editing associated with a matching pattern
And a keyboard 18 for arbitrarily changing the setting of the correspondence between the matching pattern and the command data in the gesture command table 15b.

【0045】これにより、キーボード18でのキー操作
により、ユーザー用途に応じたジェスチャー編集設定を
行うことができるため、ジェスチャー筆跡に対応する行
われるべきコマンド処理についての対応関係をユーザー
の都合で変更でき、結果として、ジェスチャー編集にお
ける操作性の向上を図ることができる。
As a result, a gesture editing setting corresponding to the user's purpose can be performed by operating the keys on the keyboard 18, so that the correspondence relationship of command processing to be performed corresponding to the gesture handwriting can be changed at the user's convenience. As a result, operability in gesture editing can be improved.

【0046】尚、上記実施例は、本発明を限定するもの
ではなく、本発明の範囲内で種々の変更が可能である。
例えば、上記実施例では、ジェスチャー設定変更処理部
6をキーボード18としているが、特にこれに限定する
ものではなく、ディスプレイタブレット11上での手書
き入力による構成とすることも可能である。
The above embodiment does not limit the present invention, and various modifications can be made within the scope of the present invention.
For example, in the above-described embodiment, the gesture setting change processing unit 6 is the keyboard 18. However, the present invention is not limited to this, and a configuration based on handwriting input on the display tablet 11 is also possible.

【0047】[0047]

【発明の効果】本発明の情報処理装置は、以上のよう
に、上記管理テーブルに記憶されたマッチングパターン
またはコマンドデータのいずれかの項目を選択する項目
選択手段と、上記項目選択手段がコマンドデータを選択
した場合には、上記管理テーブルに記憶されているコマ
ンドデータをコマンドデータ候補として出力し、一方、
上記項目選択手段がマッチングパターンを選択した場合
には、上記管理テーブルに記憶されていないマッチング
パターンをマッチングパターン候補として出力する候補
出力手段と、上記候補出力手段から出力されたコマンド
データ候補またはマッチングパターン候補から任意のも
のを選択する候補選択手段と、上記候補選択手段によっ
て選択されたコマンドデータまたはマッチングパターン
を上記管理テーブルに記憶させる記憶更新手段とを備え
ている構成である。
According to the information processing apparatus of the present invention, as described above, the matching pattern stored in the management table is used.
Or an item to select any item of command data
Selection means and the above item selection means select command data
In this case, the frame stored in the management table
Command data as command data candidates,
When the above item selection means selects a matching pattern
The matching that is not stored in the above management table
Candidates to output patterns as matching pattern candidates
Output means and a command output from the candidate output means
Any of the data candidates or matching pattern candidates
Candidate selection means for selecting
Command data or matching pattern selected
Is stored in the management table .

【0048】これにより、従来では固定であった手書き
筆跡パターンと、これ対応するコマンド処理との対応
関係を、ユーザー用途に応じて変更することができるた
め、ジェスチャー編集の操作性を向上することができ、
ひいては、ジェスチャー編集での操作性に優れた便利な
情報処理装置を提供することができるという効果を奏す
る。また、マッチングパターンを変更する場合は、コマ
ンドデータと対応付けられずに上記管理テーブルに記憶
されているものを変更後の候補として出力することによ
り、コマンドの重複設定は可能とする一方で、マッチン
グパターンのほうは重複設定を抑制する。したがって、
複数のジェスチャーに同一のコマンドを対応付けて入力
の便宜を図るとともに、一つのマッチングパターンに複
数のコマンドが対応する不具合が生じるのを防ぐことが
できる。それゆえ、操作性をいっそう向上させることが
できるという効果を奏する。
[0048] Thus, the handwritten pattern was fixed in the conventional, the correspondence between the command processing corresponding thereto, it is possible to change depending on the user application, to improve the operability of the gesture editing Can be
As a result, it is possible to provide a convenient information processing device having excellent operability in gesture editing. To change the matching pattern,
Stored in the above management table without being associated with command data
Is output as candidates after the change.
Commands can be duplicated, while match
The overlapping pattern suppresses the overlapping setting. Therefore,
Input the same command associated with multiple gestures
And combine them into one matching pattern.
Preventing a number of commands from causing corresponding defects
it can. Therefore, it is necessary to further improve operability.
It has the effect of being able to.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例における日本語ワードプロセ
ッサの基本構成を示すブロック図である。
FIG. 1 is a block diagram showing a basic configuration of a Japanese word processor according to an embodiment of the present invention.

【図2】上記の基本構成をなす構成部を示すブロック図
である。
FIG. 2 is a block diagram showing components constituting the above basic configuration.

【図3】上記の構成部をなすジェスチャーコマンドテー
ブルの基本ストロークとコマンドとを示す説明図であ
る。
FIG. 3 is an explanatory diagram showing basic strokes and commands of a gesture command table that constitutes the above-described components.

【図4】同図(a)(b)は、各々、ジェスチャー編集の
操作方法を示す説明図である。
FIGS. 4A and 4B are explanatory diagrams each showing a gesture editing operation method; FIGS.

【図5】同図(a)(b)は、各々、ポインティングの操
作方法を示す説明図である。
FIGS. 5A and 5B are explanatory diagrams each showing a pointing operation method. FIG.

【図6】同図(a)(b)は、各々、手書き文字入力の操
作方法を示す説明図である。
FIGS. 6A and 6B are explanatory diagrams each showing a method of operating handwritten character input.

【図7】上記ワードプロセッサのジェスチャー編集処理
プロセスを示すフローチャートである。
FIG. 7 is a flowchart showing a gesture editing process of the word processor.

【図8】上記ワードプロセッサのキーボードによるジェ
スチャー設定の変更処理プロセスを示すフローチャート
である。
FIG. 8 is a flowchart showing a gesture setting changing process using the keyboard of the word processor.

【図9】同図(a)〜(c)は、各々、ジェスチャー設
定の変更処理プロセスにおける設定内容の表示を示す説
明図である。
FIGS. 9A to 9C are explanatory views showing display of setting contents in a gesture setting changing process.

【図10】上記のジェスチャーコマンドテーブル内に設
けられた基本ストローク用の設定候補テーブルを示す説
明図である。
FIG. 10 is an explanatory diagram showing a setting candidate table for a basic stroke provided in the gesture command table.

【図11】上記のジェスチャーコマンドテーブル内に設
けられたコマンド用の設定候補テーブルを示す説明図で
ある。
FIG. 11 is an explanatory diagram showing a command setting candidate table provided in the gesture command table.

【図12】同図(a)(b)は、各々、ジェスチャーコマ
ンドテーブルの設定変更を示す説明図である。
FIGS. 12A and 12B are explanatory diagrams each showing a change in setting of a gesture command table.

【図13】従来例における日本語ワードプロセッサの基
本構成を示すブロック図である。
FIG. 13 is a block diagram showing a basic configuration of a Japanese word processor in a conventional example.

【図14】同図(a)は、上記ワードプロセッサのジェ
スチャーコマンドテーブルを示す説明図であり、また、
同図(b)は、ジェスチャーコマンドテーブルを構成す
る各コードの説明図である。
FIG. 14A is an explanatory diagram showing a gesture command table of the word processor.
FIG. 6B is an explanatory diagram of each code constituting the gesture command table.

【図15】上記ワードプロセッサのジェスチャー編集処
理プロセスを示すフローチャートである。
FIG. 15 is a flowchart showing a gesture editing process of the word processor.

【符号の説明】[Explanation of symbols]

1 入力処理部(表示入力部) 11 ディスプレイタブレット 12 座標入力ペン 13 軌跡座標抽出部 14b ジェスチャーコマンド判定部 15 管理テーブル 15b ジェスチャーコマンドテーブル 18 キーボード(設定変更手段) Reference Signs List 1 input processing unit (display input unit) 11 display tablet 12 coordinate input pen 13 trajectory coordinate extraction unit 14b gesture command determination unit 15 management table 15b gesture command table 18 keyboard (setting change unit)

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G06F 3/03 ──────────────────────────────────────────────────続 き Continued on front page (58) Field surveyed (Int.Cl. 6 , DB name) G06F 3/03

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】表示画面上での筆跡を入力パターンとして
入力する表示入力手段と、表示入力手段からの入力パタ
ーンを認識するためのマッチングパターンとこのマッチ
ングパターンに対応付けられた編集用のコマンドデータ
とを記憶する管理テーブルとを備え、入力パターンに基
づいたコマンドの実行処理を行う情報処理装置におい
て、上記管理テーブルに記憶されたマッチングパターンまた
はコマンドデータのいずれかの項目を選択する項目選択
手段と、 上記項目選択手段がコマンドデータを選択した場合に
は、上記管理テーブルに記憶されているコマンドデータ
をコマンドデータ候補として出力し、一方、上記項目選
択手段がマッチングパターンを選択した場合には、上記
管理テーブルに記憶されていないマッチングパターンを
マッチングパターン候補として出力する候補出力手段
と、 上記候補出力手段から出力されたコマンドデータ候補ま
たはマッチングパターン候補から任意のものを選択する
候補選択手段と、 上記候補選択手段によって選択されたコマンドデータま
たはマッチングパターンを上記管理テーブルに記憶させ
る記憶更新手段と を備えていることを特徴とする情報処
理装置。
1. A display input means for inputting handwriting on a display screen as an input pattern, a matching pattern for recognizing an input pattern from the display input means, and editing command data associated with the matching pattern. And a management table that stores a matching pattern stored in the management table.
Is an item selection to select any item of command data
Means, and when the item selecting means selects the command data,
Is the command data stored in the management table
Is output as a command data candidate.
If the selection means selects a matching pattern,
Matching patterns not stored in the management table
Candidate output means for outputting as a matching pattern candidate
And the command data candidates output from the candidate output means.
Or select any of the matching pattern candidates
The candidate selection means and the command data selected by the candidate selection means
Or the matching pattern is stored in the management table.
The information processing apparatus characterized by and a that stores update means.
JP2681693A 1993-01-18 1993-02-16 Information processing device Expired - Lifetime JP2989084B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2681693A JP2989084B2 (en) 1993-02-16 1993-02-16 Information processing device
US08/181,129 US5502803A (en) 1993-01-18 1994-01-13 Information processing apparatus having a gesture editing function
EP94100661A EP0607926B1 (en) 1993-01-18 1994-01-18 Information processing apparatus with a gesture editing function
DE69424072T DE69424072T2 (en) 1993-01-18 1994-01-18 Information processing device with gesture-editing function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2681693A JP2989084B2 (en) 1993-02-16 1993-02-16 Information processing device

Publications (2)

Publication Number Publication Date
JPH06242882A JPH06242882A (en) 1994-09-02
JP2989084B2 true JP2989084B2 (en) 1999-12-13

Family

ID=12203810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2681693A Expired - Lifetime JP2989084B2 (en) 1993-01-18 1993-02-16 Information processing device

Country Status (1)

Country Link
JP (1) JP2989084B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2609895B2 (en) * 1988-03-11 1997-05-14 荒川化学工業株式会社 Overcoat agent for thermal recording media
JP3353954B2 (en) * 1993-08-13 2002-12-09 ソニー株式会社 Handwriting input display method and handwriting input display device
US6654496B1 (en) * 1999-07-06 2003-11-25 Xerox Corporation Method and apparatus for selecting symbols using strokes on a user interface
JP4081056B2 (en) 2004-08-30 2008-04-23 株式会社東芝 Information processing apparatus, information processing method, and program
US8648796B2 (en) 2008-12-04 2014-02-11 Blackberry Limited Stroke based input system for character input
EP2194443A1 (en) * 2008-12-04 2010-06-09 Research In Motion Limited Stroke based input system for character input

Also Published As

Publication number Publication date
JPH06242882A (en) 1994-09-02

Similar Documents

Publication Publication Date Title
US7036077B2 (en) Method for gestural interpretation in a system for selecting and arranging visible material in document images
JP2001005599A (en) Information processor and information processing method an d recording medium recording information processing program
US20150146986A1 (en) Electronic apparatus, method and storage medium
US6542090B1 (en) Character input apparatus and method, and a recording medium
JP3353954B2 (en) Handwriting input display method and handwriting input display device
JP4393415B2 (en) Handwriting input device, handwriting input program, and program recording medium
JPH06131110A (en) Information processor
US7170503B2 (en) Layer editing method and apparatus in a pen computing system
JP2005025566A (en) Handwriting input device, method and program, and program recording medium
JP2989084B2 (en) Information processing device
JP3388451B2 (en) Handwriting input device
JP2006323502A (en) Information processor, and its control method and program
JP2003196593A (en) Character recognizer, method and program for recognizing character
JP2003044214A (en) Handwritten character input device and program for realizing the same
JP2000099223A (en) Data processor with handwritten character input interface and storage medium
JPH08314917A (en) Kana (japanese syllabary)/kanji (chinese character) conversion device
JPH0683524A (en) Pen input system
JPH0728801A (en) Image data processing method and device therefor
JPH06301472A (en) Handwriting input device
JP3785205B2 (en) Tablet input device and tablet input method
JP2723109B2 (en) Image processing method
JP3258370B2 (en) Character input method and device
JP2660795B2 (en) Handwriting input editing method
JPH06309093A (en) Handwriting input device
JP3167081B2 (en) Information processing method and apparatus