JPH08329192A - Information processing device and method therefor - Google Patents

Information processing device and method therefor

Info

Publication number
JPH08329192A
JPH08329192A JP7136982A JP13698295A JPH08329192A JP H08329192 A JPH08329192 A JP H08329192A JP 7136982 A JP7136982 A JP 7136982A JP 13698295 A JP13698295 A JP 13698295A JP H08329192 A JPH08329192 A JP H08329192A
Authority
JP
Japan
Prior art keywords
trajectory
information processing
input
recognition
priority
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP7136982A
Other languages
Japanese (ja)
Inventor
Ryoji Fukuda
亮治 福田
Takashi Harada
隆史 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP7136982A priority Critical patent/JPH08329192A/en
Publication of JPH08329192A publication Critical patent/JPH08329192A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE: To improve the efficiency of work for executing processing by the input of a locus by executing plural kinds of processing recognized by a recogni tion means in accordance with priority previously set up in the processing. CONSTITUTION: A locus is inputted to a digitizer 121 by an electronic pen 122 and the coordinates of the inputted locus are read out. The inputted locus is recognized by a locus recognition program 31. An instruction corresponding to each recognition result is executed by an execution program 34 and the executed instruction is successively stored in a storage area 35. The priority of each recognition result recognized by a recognition part is judged in accordance with a priority judging program 32. In addition, a correspondence table between instructions corresponding to respective recognition results and their priority is previously prepared and the priority of each recognition result is judged based upon the table.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、軌跡情報に基づいて処
理を行う情報処理装置及びその方法に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus and method for processing based on trajectory information.

【0002】[0002]

【従来の技術】従来の入力ペン等を用いて入力を行う情
報処理装置において、次のような技術が存在した。 (1)入力ペン等が描く軌跡を認識する軌跡認識におい
て、認識処理は、複数の軌跡を入力した後で認識処理を
一括して行なう遅延認識技術が存在した。
2. Description of the Related Art The following techniques exist in conventional information processing apparatuses for inputting with an input pen or the like. (1) In the trajectory recognition for recognizing a trajectory drawn by an input pen or the like, there has been a delay recognition technique in which the recognition processing is collectively performed after inputting a plurality of trajectories.

【0003】(2)入力ペン等が描いた軌跡の認識結果
を順次登録し、その結果が意図する処理を軌跡の認識と
は別のプロセスとして順次実行する技術が存在した。 (1)の遅延認識処理について、図1のフローチャート
を用いて説明する。図1は(1)の遅延認識処理フロー
を示すフローチャートである。ステップ11で、入力ペ
ン等により軌跡を入力する。ステップ12で、軌跡の認
識の開始を判断する。認識が開始と判断されない場合
(ステップS12でNO)、ステップ13で、軌跡を記
憶する。そして、再びステップ11の軌跡入力へ戻る。
(2) There has been a technique of sequentially registering recognition results of a trajectory drawn by an input pen or the like, and sequentially executing a process intended by the result as a process different from the recognition of the trajectory. The delay recognition process (1) will be described with reference to the flowchart of FIG. FIG. 1 is a flow chart showing the delay recognition processing flow of (1). In step 11, the locus is input with an input pen or the like. In step 12, it is determined whether to recognize the locus. If the recognition is not determined to be started (NO in step S12), the locus is stored in step 13. Then, the process returns to the trajectory input in step 11.

【0004】ステップ12で、認識が開始と判断された
場合(ステップS12でYES)、ステップ14で、軌
跡が記憶されているかを判断する。軌跡が記憶されてい
ない場合(ステップS14でNO)、ステップ11の軌
跡入力へ戻る。軌跡が記憶されている場合(ステップS
14でYES)、ステップ15で、軌跡が認識される。
ステップ16で、軌跡による意図する命令を実行する。
そして、再びステップ14へ戻り、記憶されている軌跡
がなくなるまで繰り返される。
If it is determined in step 12 that the recognition is started (YES in step S12), it is determined in step 14 whether the locus is stored. When the locus is not stored (NO in step S14), the process returns to the locus input in step 11. If the locus is stored (step S
14), the trajectory is recognized in step 15.
In step 16, the intended instruction by trajectory is executed.
Then, the process returns to step 14 again, and is repeated until there are no stored loci.

【0005】上記の処理をマルチタスク処理系で実現し
た場合について、図2を用いて説明する。図2は(2)
の処理をマルチタスク処理系で実現した場合の処理フロ
ーを示すフローチャートである。ステップ21で、入力
ペン等により軌跡を入力する。ステップ22で、軌跡記
憶は繰り返し実行され、一つのプロセスとして軌跡を記
憶し続ける。一方、ステップ23で、記憶された軌跡が
あるかどうかを常に監視し、記憶された軌跡がある場合
(ステップS23でYES)、ステップ24で、軌跡が
認識される。そして、ステップ25で、軌跡による意図
する命令を実行する。
A case where the above processing is realized by a multitask processing system will be described with reference to FIG. Figure 2 is (2)
5 is a flowchart showing a processing flow when the processing of FIG. In step 21, the locus is input with an input pen or the like. In step 22, the trajectory storage is repeatedly executed, and the trajectory is continuously stored as one process. On the other hand, in step 23, it is constantly monitored whether or not there is a stored trajectory, and if there is a stored trajectory (YES in step S23), the trajectory is recognized in step 24. Then, in step 25, the intended command based on the locus is executed.

【0006】図1、図2のいずれの処理系の場合も、軌
跡が意図する命令の実行は軌跡入力の順に行われる。
In both of the processing systems shown in FIGS. 1 and 2, the instruction intended by the locus is executed in the order of locus input.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上記従
来の情報処理装置では、次のような問題点があった。 (1)認識結果が出力される前に、実行したい処理を実
現できないため、入力軌跡の修正などができない。 (2)軌跡による操作を一括して行なう場合、入力され
た順でしか処理を行えないため、座標や形状が変化する
対象に使用者が意図する操作を行なうこと、あるいは優
先的に実行したい命令を後から入力することができな
い。という問題があった。
However, the above-mentioned conventional information processing apparatus has the following problems. (1) Since the desired processing cannot be realized before the recognition result is output, the input locus cannot be corrected. (2) When performing the operations by the loci collectively, the processing can be performed only in the order in which they are input. Therefore, the operation intended by the user should be performed on the target whose coordinates and shape change, or the instruction to be preferentially executed. Cannot be entered later. There was a problem.

【0008】本発明は上記の問題点に鑑みてなされたも
のであり、軌跡を入力して処理を実行させる作業におい
て、作業の効率化の向上を図る情報処理装置及びその方
法を提供することを目的としている。
The present invention has been made in view of the above problems, and it is an object of the present invention to provide an information processing apparatus and method for improving the efficiency of work in the work of inputting a locus and executing processing. Has an aim.

【0009】[0009]

【課題を解決するための手段】上記の目的を達成するた
めに本発明による情報処理装置は以下の構成を備える。
即ち、軌跡情報に基づいて処理を行う情報処理装置であ
って、複数種類の軌跡情報のそれぞれが示す処理を認識
する認識手段と、前記認識手段で認識された複数種類の
処理を予め各処理に設定された優先度に従って実行する
実行手段とを備える。
In order to achieve the above object, an information processing apparatus according to the present invention has the following configuration.
That is, the information processing apparatus performs processing based on the trajectory information, and recognizes the processing indicated by each of the plurality of types of trajectory information, and the plurality of types of processing recognized by the recognition means in advance in each processing. And executing means for executing the priority according to the set priority.

【0010】また、好ましくは、前記実行手段は、前記
認識手段で認識された処理とその優先度を記憶する記憶
手段と、前記優先度に従って、前記記憶手段に記憶され
る処理の記憶順序を変更する変更手段を備え前記記憶順
序に従って処理を実行する。入力順序に依存することな
く、優先度に従って処理を実行することができるからで
ある。
Preferably, the execution means changes the storage order of the processing recognized by the recognition means and the storage means for storing the priority thereof and the storage order of the processing stored in the storage means according to the priority. The changing means is provided to execute the processing in accordance with the storage order. This is because the processing can be executed according to the priority without depending on the input order.

【0011】また、好ましくは、前記処理は、表示画面
に表示されるウインドウの制御である。また、好ましく
は、前記処理は、表示画面に表示される文字列の編集で
ある。また、好ましくは、前記制御は、ウインドウの移
動、アイコン化されたウインドウの非アイコン化、ウイ
ンドウの消去を含む。
Further, preferably, the processing is control of a window displayed on the display screen. Further, preferably, the processing is editing of a character string displayed on the display screen. Further, preferably, the control includes moving the window, deiconifying the iconified window, and deleting the window.

【0012】また、好ましくは、前記編集は、小文字を
大文字に変更、文字の挿入、文字の入れ換えを含む。上
記の他の目的を達成するための本発明による情報処理装
置は以下の構成を備える。即ち、軌跡情報に基づいて処
理を行う情報処理装置であって、入力された軌跡がスト
ロークであるかあるいは取り消し指示であるかを判定す
る判定手段と、順次入力されたストロークの組み合わせ
で文字を認識する認識手段と、入力された軌跡が取り消
し指示である場合、該軌跡の入力位置にあるストローク
を検出する検出手段と、前記検出手段で検出されたスト
ロークを前記認識手段で不使用とする制御を行う制御手
段とを備える。
[0012] Preferably, the editing includes changing lowercase letters to uppercase letters, inserting characters, and replacing characters. An information processing apparatus according to the present invention for achieving the above-mentioned other object has the following configuration. That is, an information processing apparatus that performs processing based on trajectory information, and recognizes a character by a combination of determination means that determines whether the input trajectory is a stroke or a cancellation instruction, and strokes that are sequentially input. Recognizing means for detecting the stroke at the input position of the trajectory when the input trajectory is a cancel instruction, and control for disabling the stroke detected by the detecting means by the recognizing means. And a control means for performing.

【0013】また、好ましくは、前記制御手段は、検出
されたストロークの次に処理を実行する優先度を与え、
前記認識手段は、処理の過程で取り消し指示を実行する
と、その直前のストロークを認識して該ストロークを消
去する。文字を示す軌跡全体を取り消さずに、取り消し
たい文字を示すストロークだけを取り消すことができる
からである。
Further, preferably, the control means gives a priority for executing processing next to the detected stroke,
When the cancel instruction is executed in the process of processing, the recognizing means recognizes the stroke immediately before it and erases the stroke. This is because it is possible to cancel only the stroke indicating the desired character without canceling the entire locus indicating the character.

【0014】上記の目的を達成するための本発明による
情報処理方法は以下の構成を備える。即ち、軌跡情報に
基づいて処理を行う情報処理方法であって、複数種類の
軌跡情報のそれぞれが示す処理を認識する認識工程と、
前記認識工程で認識された複数種類の処理を予め各処理
に設定された優先度に従って実行する実行工程とを備え
る。
An information processing method according to the present invention for achieving the above object has the following configuration. That is, an information processing method for performing processing based on trajectory information, the recognition step of recognizing processing indicated by each of a plurality of types of trajectory information,
And an execution step of executing the plurality of types of processing recognized in the recognition step according to the priority set in advance for each processing.

【0015】上記の他の目的を達成するための本発明に
よる情報処理方法は以下の構成を備える。即ち、軌跡情
報に基づいて処理を行う情報処理方法であって、入力さ
れた軌跡がストロークであるかあるいは取り消し指示で
あるかを判定する判定工程と、順次入力されたストロー
クの組み合わせで文字を認識する認識工程と、入力され
た軌跡が取り消し指示である場合、該軌跡の入力位置に
あるストロークを検出する検出工程と、前記検出工程で
検出されたストロークを前記認識工程で不使用とする制
御を行う制御工程とを備える。
An information processing method according to the present invention for achieving the above-mentioned other object has the following configuration. That is, it is an information processing method that performs processing based on trajectory information, and recognizes a character by a combination of a determination step of determining whether an input trajectory is a stroke or a cancellation instruction and a stroke that is sequentially input. And a detection step of detecting a stroke at the input position of the trajectory, and a control of disabling the stroke detected in the detection step in the recognition step. And a control step to be performed.

【0016】[0016]

【作用】上記の構成により、複数種類の軌跡情報のそれ
ぞれが示す処理を認識し、認識された複数種類の処理を
予め各処理に設定された優先度に従って実行する。ま
た、入力された軌跡がストロークであるかあるいは取り
消し指示であるかを判定する。
With the above configuration, the processing indicated by each of the plurality of types of trajectory information is recognized, and the recognized plurality of types of processing are executed in accordance with the priority set in advance for each processing. Further, it is determined whether the input locus is a stroke or a cancellation instruction.

【0017】一方、順次入力されたストロークの組み合
わせで文字を認識し、入力された軌跡が取り消し指示で
ある場合、該軌跡の入力位置にあるストロークを検出す
る。そして、検出されたストロークを不使用とする制御
を行う。
On the other hand, when a character is recognized by a combination of strokes that are sequentially input and the input locus is a cancellation instruction, the stroke at the input position of the locus is detected. Then, control is performed so that the detected stroke is not used.

【0018】[0018]

【実施例】以下、図面を参照して本発明の好適な実施例
を詳細に説明する。 <実施例1>図3は実施例1の情報処理装置の構成を示
すブロック図である。121は液晶ディスプレイ一体型
のデジタイザであり、電子ペン122により描かれる軌
跡の軌跡情報に基づき情報の入力と制御を行なう。ま
た、キーボード124より入力される文字の表示や、C
PU123によって制御されるウインドウシステム(不
図示)によるウインドウが表示される。122は電子ペ
ンであり、軌跡の入力を行う。123はCPUであり、
電子ペン122によって描かれる文字の認識や各種制御
を行う。124はRAMであり、軌跡認識プログラム3
1、優先度判定プログラム32、命令分類プログラム3
3、実行プログラム34、命令記憶領域35、ウインド
ウシステム(不図示)を記憶している。124はキーボ
ードであり、文字の入力や処理の実行を行う。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below in detail with reference to the drawings. <First Embodiment> FIG. 3 is a block diagram showing the arrangement of an information processing apparatus according to the first embodiment. Reference numeral 121 denotes a digitizer integrated with a liquid crystal display, which inputs and controls information based on trajectory information of a trajectory drawn by the electronic pen 122. In addition, display of characters input from the keyboard 124 and C
A window by a window system (not shown) controlled by the PU 123 is displayed. An electronic pen 122 is used to input a trajectory. 123 is a CPU,
Recognition of characters drawn by the electronic pen 122 and various controls are performed. Reference numeral 124 denotes a RAM, which is a trajectory recognition program 3
1, priority determination program 32, instruction classification program 3
3, an execution program 34, an instruction storage area 35, and a window system (not shown) are stored. A keyboard 124 is used to input characters and execute processing.

【0019】図13は実施例1の情報処理装置の機能を
示す機能ブロック図である。1は認識部であり、入力さ
れた軌跡の認識を軌跡認識プログラム31に従って実行
する。尚、認識される認識結果は、その認識結果に対応
した命令が存在し、実行プログラム34によって認識さ
れた認識結果に対応する命令を実行する。また、認識さ
れた認識結果に対応する命令は、順次命令記憶領域35
に記憶される。
FIG. 13 is a functional block diagram showing the functions of the information processing apparatus of the first embodiment. A recognition unit 1 recognizes an input trajectory according to a trajectory recognition program 31. The recognized recognition result has an instruction corresponding to the recognition result, and the instruction corresponding to the recognition result recognized by the execution program 34 is executed. In addition, the commands corresponding to the recognized recognition results are sequentially stored in the command storage area 35.
Is stored.

【0020】2は優先度判定部であり、認識部1で認識
された認識結果の優先順位を優先度判定プログラム32
に従って判定する。尚、認識結果の優先順位の判定は、
例えば、認識結果に対応する命令と優先順位の対応表を
予め用意しておき、その表を基に判定を行うといった方
法で行う。3は記憶部であり、RAM124を備えてい
る。
Reference numeral 2 denotes a priority determination unit, which sets the priority of the recognition result recognized by the recognition unit 1 to the priority determination program 32.
According to. In addition, the determination of the priority order of the recognition result,
For example, a method of preparing a correspondence table of commands and priority orders corresponding to the recognition result in advance and making a determination based on the table is used. A storage unit 3 includes a RAM 124.

【0021】4は並べかえ部であり、優先度判定部2で
判定された認識結果に対応する命令の優先順位と予め命
令記憶領域35に記憶されている命令を基に命令分類プ
ログラム33に従って優先順位の高い命令から並べかえ
られる。次に実施例1における処理を図4のフローチャ
ートを用いて説明する。図4は実施例1の処理フローを
示すフローチャートである。
Reference numeral 4 denotes a rearrangement unit, which prioritizes in accordance with the command classification program 33 based on the priority of commands corresponding to the recognition result determined by the priority determination unit 2 and the commands stored in the command storage area 35 in advance. The order is high. Next, the processing in the first embodiment will be described with reference to the flowchart of FIG. FIG. 4 is a flowchart showing the processing flow of the first embodiment.

【0022】ステップS31で、デジタイザ121に電
子ペン122より軌跡を入力し、入力された座標を読み
取る。ステップS32で、入力された軌跡を認識する。
軌跡の認識は予め登録された軌跡と比較するなどの方法
で行う。尚、認識方法は本発明の主眼ではないので省略
する。ステップS33で、認識した軌跡の認識結果に対
応する命令が実行の開始であるかどうかの判定を行う。
開始である場合(ステップS33でYES)、ステップ
S37に進む。開始でない場合(ステップS33でN
O)、ステップS34に進む。ステップS34で、認識
結果に対応する命令の優先順位を判定する。ステップS
35で、優先順位を基に命令記憶領域35に記憶されて
いる命令とともに分類する。ステップS36で、ステッ
プS35で分類された結果を命令記憶領域35に記憶す
る。尚、この時記憶されている命令は優先度の高い順で
記憶されている。
In step S31, the locus is input to the digitizer 121 from the electronic pen 122, and the input coordinates are read. In step S32, the input trajectory is recognized.
The trajectory is recognized by a method such as comparison with a trajectory registered in advance. The recognition method is omitted because it is not the main object of the present invention. In step S33, it is determined whether the command corresponding to the recognition result of the recognized trajectory is the start of execution.
If it is a start (YES in step S33), the process proceeds to step S37. If not started (N in step S33)
O), and proceeds to step S34. In step S34, the priority order of the instruction corresponding to the recognition result is determined. Step S
In step 35, the commands are classified based on the priority order together with the commands stored in the command storage area 35. In step S36, the result classified in step S35 is stored in the instruction storage area 35. The instructions stored at this time are stored in descending order of priority.

【0023】一方、ステップS33で開始と判定された
場合(ステップS33でYES)、ステップS37で、
命令記憶領域35に命令が存在するかどうかを判定す
る。存在する場合(ステップS37でYES)、ステッ
プS38へ進む。存在しない場合(ステップS37でN
O)、ステップS31へ戻る。ステップS38で、命令
記憶領域35の先頭にある命令を取り出して実行する。
そして、命令が実行されると、再びステップS37へ戻
る。上記の処理を、命令記憶領域35から命令がなくな
るまで繰り返される。
On the other hand, if it is determined in step S33 that it has started (YES in step S33), in step S37,
It is determined whether an instruction exists in the instruction storage area 35. If it exists (YES in step S37), the process proceeds to step S38. If not present (N in step S37)
O), and returns to step S31. In step S38, the instruction at the head of the instruction storage area 35 is fetched and executed.
Then, when the instruction is executed, the process returns to step S37 again. The above processing is repeated until there are no instructions in the instruction storage area 35.

【0024】次にステップS34、ステップS35にお
ける具体的な例を図5を用いて説明する。図5は実施例
1のRAM3に内蔵される命令記憶領域35に記憶され
ている認識結果に対応する命令の例を示す図である。ス
テップS34で、認識結果51に対応する命令が「取り
消し」であったとする。ここでは、「取り消し」は優先
度が高い命令であり、命令記憶領域35に記憶されてい
る命令の中でも最も優先順位の高い命令であるとする。
尚、ステップS35で並べかえが実行される前の命令記
憶領域35の状態は、図5の(a)のようになっている
とする。ステップS35で、認識結果51に対応する命
令である「取消し」は、優先順位が最も高いので、図5
の(b)に示すような直前に実行された「文字消去」の
次に並べ変えられる。この結果、ここでは、「文字消
去」の実行を「取り消し」することになるので、消去さ
れた文字を消去前の状態に戻すような実行がなされる。
Next, a specific example of steps S34 and S35 will be described with reference to FIG. FIG. 5 is a diagram showing an example of an instruction corresponding to the recognition result stored in the instruction storage area 35 incorporated in the RAM 3 of the first embodiment. It is assumed that the command corresponding to the recognition result 51 is "cancel" in step S34. Here, it is assumed that “cancel” is an instruction with a high priority and is the instruction with the highest priority among the instructions stored in the instruction storage area 35.
The state of the instruction storage area 35 before the rearrangement is executed in step S35 is as shown in FIG. In step S35, the command “cancel” corresponding to the recognition result 51 has the highest priority, and therefore the command of FIG.
The data is rearranged next to the “character deletion” executed immediately before as shown in (b) of FIG. As a result, here, the execution of the "character deletion" is "cancelled", so that the deleted character is returned to the state before the deletion.

【0025】上記の図4の処理をウインドウシステムと
併用して実施した例を図6、図7、図8及び図9に示
す。図6は実施例1のデジタイザ121に表示されたマ
ルチウインドウシステムにおける表示例を示す図であ
る。図において、61はアイコン化されたウインドウ、
62、63はウインドウであり、ウインドウ62の一部
はウインドウ63の下に重なっている状態である。この
状態で、一時停止モードを開始する軌跡すなわち一時停
止ジェスチャ64を電子ペン122を用いて画面上に描
画する。その結果、図8に示すような一時停止ジェスチ
ャ64を解除する解除ジェスチャ81が入力されるまで
は、例えば、他のジェスチャが認識されたとしても実行
されない。すなわち、一時停止ジェスチャを実行する
と、図4のステップS33の実行開始は行われず、すべ
て記憶される。
An example in which the above-described processing of FIG. 4 is carried out in combination with the window system is shown in FIGS. 6, 7, 8 and 9. FIG. 6 is a diagram showing a display example in the multi-window system displayed on the digitizer 121 of the first embodiment. In the figure, 61 is an iconized window,
Reference numerals 62 and 63 denote windows, and a part of the window 62 is under the window 63. In this state, the trajectory for starting the pause mode, that is, the pause gesture 64 is drawn on the screen using the electronic pen 122. As a result, for example, even if another gesture is recognized, it is not executed until the release gesture 81 for releasing the pause gesture 64 as shown in FIG. 8 is input. That is, when the pause gesture is executed, the execution of step S33 of FIG. 4 is not started, but all are stored.

【0026】尚、「ジェスチャ」は電子ペン122によ
って描画される軌跡であり、予め軌跡の形態に対応する
命令を設定しておくことで、軌跡を描画するだけで所望
の命令を実行させることができる。図7は、一時停止ジ
ェスチャ64が描画された後、アイコン化されたアイコ
ンを非アイコン化する非アイコン化ジェスチャ71、ウ
インドウを削除するウインドウ削除ジェスチャ72(こ
こでは優先順位を高く設定してある)、ウインドウを所
望の位置に移動するウインドウ移動ジェスチャ73を電
子ペン122で描画した例を示す図である。この時点で
は、ジェスチャ71〜73は実行されない。
The "gesture" is a locus drawn by the electronic pen 122. By setting a command corresponding to the form of the locus in advance, a desired command can be executed only by drawing the locus. it can. In FIG. 7, after the pause gesture 64 is drawn, the non-iconified gesture 71 for de-iconifying the iconized icon, the window delete gesture 72 for deleting the window (here, the priority is set high). 7 is a diagram showing an example in which a window movement gesture 73 for moving a window to a desired position is drawn by the electronic pen 122. FIG. At this point, the gestures 71 to 73 are not executed.

【0027】そして、図8において一時停止解除ジェス
チャ81が入力されると、図4のステップ33の実行開
始が行われる。その結果、図7で描画されたジェスチャ
71〜73が実行される。実行結果は、図9に示すよう
に、アイコン化ウインドウ61が非アイコン化ジェスチ
ャ71によって非アイコン化されウインドウ91にな
る。ウインドウ63は、ウインドウ削除ジェスチャ72
によって削除されるている。ウインドウ73は、ウイン
ドウ移動ジェスチャ73によってウインドウ92に示さ
れるような位置に移動している。
When the pause cancel gesture 81 is input in FIG. 8, the execution of step 33 in FIG. 4 is started. As a result, the gestures 71 to 73 drawn in FIG. 7 are executed. As a result of the execution, as shown in FIG. 9, the iconized window 61 is deiconified by the deiconified gesture 71 and becomes a window 91. The window 63 is a window deletion gesture 72.
Has been deleted by. The window 73 is moved to the position shown in the window 92 by the window movement gesture 73.

【0028】尚、実施例1では、ウインドウ削除ジェス
チャ72の優先順位が高いものとして予め設定されてい
るとする。そのため、ウインドウ63の削除は非アイコ
ン化やウインドウの移動よりも先に実行される。次に、
上記の図4の処理とキーボード124から入力された文
字列の編集を併用して実施した場合について、図10を
用いて説明する。
In the first embodiment, it is assumed that the window deletion gesture 72 has a high priority and is set in advance. Therefore, the deletion of the window 63 is executed before the non-iconization and the movement of the window. next,
A case where the processing of FIG. 4 described above and the editing of the character string input from the keyboard 124 are performed together will be described with reference to FIG.

【0029】尚、初期設定として文字列を形成する語を
所望の位置に入れ換える入れ換えジェスチャ103の優
先順位を低くしておく。図10は、「株会社ギャノン」
という文字列を以下に説明するジェスチャを用いて、
「ギヤノン株式会社」と編集する例である。ユーザは
「株会社」という部分から「式」を挿入する必要に気付
き、「式」を挿入する挿入ジェスチャ101を入力す
る。続いて、「ャ」が小文字なので大文字の「ヤ」に変
更する変更ジェスチャ102を入力する。最後に語の順
番を入れ換える入れ換えジェスチャ103を入力する。
It should be noted that as an initial setting, the priority of the swapping gesture 103 for swapping words forming a character string to a desired position is set low. Figure 10 shows "Gannon Co., Ltd."
Using the gesture described below for the string
This is an example of editing “Gianon Co., Ltd.”. The user notices the need to insert the "expression" from the "stock company" portion, and inputs the insertion gesture 101 for inserting the "expression". Then, since “YA” is lowercase, a change gesture 102 for changing to uppercase “YA” is input. Finally, a swapping gesture 103 for swapping the order of words is input.

【0030】ここで、上記のジェスチャ101〜103
が順番に実行される場合は、ユーザが意図する処理を実
行する。しかし、実施例1で示した図6の一時停止ジェ
スチャ64を実行させた状態で、ジェスチャ101〜1
03のジェスチャを一括入力した場合、変更ジェスチャ
102と入れ換えジェスチャ103の順番を逆にしてし
まうと、従来は、「式」を大文字にするという明らかに
誤った指示を実行してしまっていた。しかし、実施例1
では、語の入れ換えを行なう入れ換えジェスチャ103
の優先順位を低く設定したので、変更ジェスチャ102
と入れ換えジェスチャ103の順番を逆にしても、ユー
ザの意図するジェスチャを実行する。つまり、入力順序
に依存しないジェスチャ入力が実現できる。
Here, the gestures 101 to 103 described above are used.
When is executed in order, the process intended by the user is executed. However, in the state where the pause gesture 64 of FIG. 6 shown in the first embodiment is executed, the gestures 101 to 1
When the gestures of 03 are collectively input, if the order of the change gesture 102 and the exchange gesture 103 is reversed, conventionally, an apparently wrong instruction to capitalize the “expression” has been executed. However, Example 1
Then, a swapping gesture 103 for swapping words
Since the priority of the change gesture is set low, the change gesture 102
Even if the order of the gestures 103 is replaced, the gesture intended by the user is executed. That is, a gesture input that does not depend on the input order can be realized.

【0031】以上説明したように、実施例1によれば、
ウインドウシステム環境において、ジェスチャの実行の
優先順位を予め設定しておくことで、ウインドウ移動ジ
ェスチャのよって移動させたウインドウ92を消してし
まったり、非アイコン化ウインドウによって非アイコン
化されたウインドウ92を消してしまうといった、ユー
ザが意図しない動作を防ぐことができる。
As described above, according to the first embodiment,
In the window system environment, by setting the priority order of the gesture execution in advance, the window 92 moved by the window movement gesture is erased, or the window 92 non-iconified by the non-iconified window is erased. It is possible to prevent an operation that the user does not intend, such as an accident.

【0032】また、キーボード124より入力された文
字列の編集を行う環境において、例えば、語の入れ換え
ジェスチャ103の優先順位を低く設定することで、入
れ換えジェスチャ103を入力した後に、変更ジェスチ
ャ102を入力しても、ユーザの意図する動作を実行す
ることができる。つまり、入力順序に依存しないジェス
チャ入力が実現できる。
In the environment for editing the character string input from the keyboard 124, for example, by setting the priority of the word exchange gesture 103 to be low, the change gesture 102 is input after the exchange gesture 103 is input. Even then, the operation intended by the user can be executed. That is, a gesture input that does not depend on the input order can be realized.

【0033】<実施例2>実施例2では、実施例1の処
理をマルチタスク処理系で実現した場合について説明す
る。処理の構成としては実施例1と同じであるが、RA
M3に内蔵される軌跡認識プログラム31、優先度判定
プログラム32、命令分類プログラム33、実行プログ
ラム34の各プログラムは2つの処理系によって実現し
ている。実施例2の処理について、図11を用いて説明
する。
<Second Embodiment> In a second embodiment, a case where the processing of the first embodiment is realized by a multitask processing system will be described. The processing configuration is the same as that of the first embodiment, but RA
Each of the locus recognition program 31, the priority determination program 32, the instruction classification program 33, and the execution program 34 built in the M3 is realized by two processing systems. The process of the second embodiment will be described with reference to FIG.

【0034】図11は実施例2の処理フローを示すフロ
ーチャートである。ステップS41で、デジタイザ12
1に電子ペン122より軌跡を入力し、入力された座標
を読み取る。ステップS42で、入力された軌跡を認識
する。命令の実行は別の処理として動作しているので、
図4のステップS33のような実行開始の判断は行なわ
ずに、ステップS43で、認識結果に対応する命令の優
先順位を判定する。ステップS44で、優先順位を基に
命令記憶領域35に記憶されている命令とともに分類す
る。ステップS45で、ステップS44で分類された結
果を命令記憶領域35に記憶する。尚、この時記憶され
ている命令は優先度の高い順で記憶されている。そし
て、再びステップS41へ戻り、軌跡の入力を繰り返
す。
FIG. 11 is a flow chart showing the processing flow of the second embodiment. In step S41, the digitizer 12
The locus is input to the electronic pen 122 using the electronic pen 122, and the input coordinates are read. In step S42, the input trajectory is recognized. Since the execution of instructions is operating as a separate process,
In step S43, the priority order of the instruction corresponding to the recognition result is determined without making the execution start determination in step S33 of FIG. In step S44, the commands are classified together with the commands stored in the command storage area 35 based on the priority order. In step S45, the result classified in step S44 is stored in the instruction storage area 35. The instructions stored at this time are stored in descending order of priority. Then, the process returns to step S41 again, and the input of the locus is repeated.

【0035】一方、ステップS41〜ステップS45の
処理とは別に同時に実行される処理として、ステップS
46〜ステップS47の処理が実行される、ステップS
46で、命令記憶領域35に命令が存在するかどうかを
判定する。存在する場合(ステップS46でYES)、
ステップS47へ進む。存在しない場合(ステップS4
6でNO)、ステップS46を繰り返す。ステップS4
7で、命令記憶領域35の先頭にある命令を取り出し実
行する。そして、命令が実行されると、再びステップS
46へ戻る。上記の処理を、命令記憶領域35から命令
がなくなるまで繰り返される。
On the other hand, in addition to the processing in steps S41 to S45, the processing in step S
46 to step S47 is executed, step S
At 46, it is determined whether an instruction exists in the instruction storage area 35. If it exists (YES in step S46),
It proceeds to step S47. If it does not exist (step S4)
No in step 6), step S46 is repeated. Step S4
In step 7, the command at the head of the command storage area 35 is fetched and executed. Then, when the instruction is executed, step S
Return to 46. The above processing is repeated until there are no instructions in the instruction storage area 35.

【0036】次に上記の図11の処理フローにおける具
体的な例を図12を用いて説明する。 図12は電子ペ
ン122による軌跡を入力し、その軌跡の認識を行う
(ここでは電子ペン122による手書き文字の認識)。
そして、描画した軌跡の取り消しを行う軌跡取消ジェス
チャ111を使用することで、軌跡の入力中に訂正を行
う過程を示す図である。
Next, a specific example of the processing flow of FIG. 11 will be described with reference to FIG. In FIG. 12, the trajectory of the electronic pen 122 is input and the trajectory is recognized (here, handwritten character recognition by the electronic pen 122).
FIG. 11 is a diagram showing a process of making a correction while inputting a trajectory by using a trajectory cancellation gesture 111 for canceling a drawn trajectory.

【0037】尚、ステップS42では、ジェスチャの認
識を行う。また、電子ペン122によって描かれる文字
の認識は、ステップS47の命令実行で行うものとす
る。従って、ステップS45の結果記憶では、ジェスチ
ャに対応する命令または電子ペン122によって描かれ
る軌跡が命令記憶領域35に記憶される。命令記憶領域
で記憶された軌跡(文字の軌跡)が、CPU123によ
って認識されるとその軌跡は文字コードに変換される。
文字コードに変換されたデータを基に、認識した軌跡を
文字コードに基づいた文字に変換されて、変換された文
字がデジタイザ121に表示される。更に、軌跡取消ジ
ェスチャ111の優先度は取り消す軌跡の座標を考慮し
て設定され、取り消す軌跡より一つ下の優先度を与える
ものとする。
In step S42, the gesture is recognized. The recognition of the character drawn by the electronic pen 122 is performed by executing the command in step S47. Therefore, in the result storage of step S45, the command corresponding to the gesture or the locus drawn by the electronic pen 122 is stored in the command storage area 35. When the locus (character locus) stored in the command storage area is recognized by the CPU 123, the locus is converted into a character code.
The recognized locus is converted into a character based on the character code based on the data converted into the character code, and the converted character is displayed on the digitizer 121. Furthermore, the priority of the trajectory cancellation gesture 111 is set in consideration of the coordinates of the trajectory to be canceled, and the priority is set to be one lower than the trajectory to be canceled.

【0038】図12では、「あいう」と入力するところ
を誤って「あいえ」と入力してしまった場合に「え」を
「う」に訂正する過程を示している。図では、既に
「あ」を示す軌跡が認識されて、文字コードに従った
「あ」に変換されている。「い」と「え」を示す軌跡は
認識されていない状態である。この状態で、軌跡取消ジ
ェスチャ111を入力し、「え」の一部を取り消し、正
しい軌跡である「う」112を電子ペン122により入
力する。軌跡取消ジェスチャ111は、「う」112の
2画目よりも優先順位が高いので、「え」の2画目が取
り消されてから入力が実行される。
FIG. 12 shows a process of correcting "e" to "u" when "ai" is mistakenly input as "aie". In the figure, the locus indicating "A" has already been recognized and converted into "A" according to the character code. The loci indicating “I” and “E” are in a state of not being recognized. In this state, the trajectory cancel gesture 111 is input, a part of “e” is canceled, and the correct trajectory “u” 112 is input by the electronic pen 122. Since the trajectory cancel gesture 111 has a higher priority than the second stroke of the “u” 112, the input is executed after the second stroke of the “e” is canceled.

【0039】図12のデジタイザ122に表示されたい
る状態では、「い」を示す軌跡の認識は始まっているか
もしれないが、認識中であり、文字コードに従った
「い」には変換されていない。従って、「い」の認識が
終了した後は、軌跡取消ジェスチャ111によって
「え」の2画目が取り消される。この結果、「え」の一
部を修正することが可能となり、「う」112の2画目
を示す軌跡を電子ペン122により入力し軌跡の認識が
行われる。従来は、軌跡取消ジェスチャ111を入力し
た場合「え」を示す軌跡を認識した結果を訂正する。つ
まり、「え」を示す軌跡全体が取り消される。その結
果、最初から「う」を示す軌跡の入力を行い、再び認識
するという過程を経なければならず、入力の効率が悪か
った。
In the state displayed on the digitizer 122 in FIG. 12, recognition of the locus indicating "i" may have started, but it is being recognized and converted into "i" according to the character code. Not not. Therefore, after the recognition of "i" is completed, the trajectory cancel gesture 111 cancels the second stroke of "e". As a result, it is possible to correct a part of “e”, and the locus indicating the second stroke of “u” 112 is input by the electronic pen 122 to recognize the locus. Conventionally, when the trajectory cancellation gesture 111 is input, the result of recognizing the trajectory indicating “e” is corrected. In other words, the entire locus indicating "e" is canceled. As a result, the process of inputting a locus indicating "u" from the beginning and recognizing it again has to be performed, and the input efficiency is poor.

【0040】以上説明したように、実施例2によれば、
文字認識を行う環境において、軌跡取消ジェスチャ11
1の優先度を、取り消す軌跡より一つ下の優先度に設定
することで、例えば、「え」を示す軌跡を全て取り消さ
ずに「う」112の2画目を示す軌跡を入力することが
できる。このように、ユーザが自由にジェスチャの優先
順位を設定可能なので、入力順序に従わずに所望の動作
が可能となり、入力の効率を向上させることができる。
As described above, according to the second embodiment,
In a character recognition environment, a trajectory cancellation gesture 11
By setting the priority of 1 to a priority one level lower than the trajectory to be canceled, for example, the trajectory indicating the second stroke of “U” 112 can be input without canceling all the trajectory indicating “E”. it can. In this way, the user can freely set the priority order of the gestures, so that the desired operation can be performed without following the input order, and the input efficiency can be improved.

【0041】尚、本発明は、複数の機器から構成される
システムに適用しても、1つの機器から成る装置に適用
しても良い。また、本発明はシステム或は装置にプログ
ラムを供給することによって達成される場合にも適用で
きることはいうまでもない。
The present invention may be applied to a system including a plurality of devices or an apparatus including a single device. Further, it goes without saying that the present invention can be applied to the case where it is achieved by supplying a program to a system or an apparatus.

【0042】[0042]

【発明の効果】以上説明の説明からも明らかなように、
本発明によれば、軌跡を入力して処理を実行させる作業
において、作業の効率化の向上を図る情報処理装置及び
その方法を提供できる。
As is apparent from the above explanation,
According to the present invention, it is possible to provide an information processing apparatus and a method thereof for improving efficiency of work in a work for inputting a locus and executing a process.

【図面の簡単な説明】[Brief description of drawings]

【図1】従来の遅延認識処理フローを示すフローチャー
トである。
FIG. 1 is a flowchart showing a conventional delay recognition processing flow.

【図2】従来の図1の処理をマルチタスク処理系で実現
した場合の処理フローを示すフローチャートである。
FIG. 2 is a flowchart showing a processing flow when the conventional processing of FIG. 1 is realized by a multitask processing system.

【図3】実施例1の情報処理装置の構成を示すブロック
図である。。
FIG. 3 is a block diagram illustrating a configuration of an information processing device according to a first embodiment. .

【図4】実施例1の処理フローを示すフローチャートで
ある。
FIG. 4 is a flowchart showing a processing flow of the first embodiment.

【図5】実施例1のRAM3に内蔵される命令記憶領域
35に記憶されている認識結果に対応する命令の例を示
す図である。
FIG. 5 is a diagram showing an example of an instruction corresponding to a recognition result stored in an instruction storage area 35 incorporated in the RAM 3 of the first embodiment.

【図6】実施例1の図4のフローチャートの処理をウイ
ンドウシステム環境における具体的な例として示す図で
ある。
FIG. 6 is a diagram showing the process of the flowchart of FIG. 4 of the first embodiment as a specific example in a window system environment.

【図7】実施例1の図4のフローチャートの処理をウイ
ンドウシステム環境における具体的な例として示す図で
ある。
FIG. 7 is a diagram showing the process of the flowchart of FIG. 4 of the first embodiment as a specific example in a window system environment.

【図8】実施例1の図4のフローチャートの処理をウイ
ンドウシステム環境における具体的な例として示す図で
ある。
FIG. 8 is a diagram showing the process of the flowchart of FIG. 4 of the first embodiment as a specific example in a window system environment.

【図9】実施例1の図4のフローチャートの処理をウイ
ンドウシステム環境における具体的な例として示す図で
ある。
FIG. 9 is a diagram showing the process of the flowchart of FIG. 4 of the first embodiment as a specific example in a window system environment.

【図10】実施例1の図4のフローチャートの処理を文
字列の編集を行う環境における具体的な例として示す図
である。
FIG. 10 is a diagram showing the process of the flowchart of FIG. 4 of the first embodiment as a specific example in an environment for editing a character string.

【図11】実施例2の処理フローを示すフローチャート
である。
FIG. 11 is a flowchart showing a processing flow of the second embodiment.

【図12】実施例2の図11のフローチャートの処理を
文字認識を行う環境における具体的な例として示す図で
ある。
FIG. 12 is a diagram showing the process of the flowchart of FIG. 11 of the second embodiment as a concrete example in an environment for character recognition.

【図13】実施例1の情報処理装置の機能を示す機能ブ
ロック図である。
FIG. 13 is a functional block diagram showing functions of the information processing apparatus according to the first embodiment.

【符号の説明】[Explanation of symbols]

1 認識部 2 優先度判定部 3 記憶部 4 並べかえ部 31 軌跡認識プログラム 32 優先度判定プログラム 33 命令分類プログラム 34 実行プログラム 35 命令記憶領域 121 液晶ディスプレイ一体型デジタイザ 122 電子ペン 123 CPU 124 RAM 125 キーボード 1 recognition unit 2 priority determination unit 3 storage unit 4 rearrangement unit 31 trajectory recognition program 32 priority determination program 33 instruction classification program 34 execution program 35 instruction storage area 121 liquid crystal display integrated digitizer 122 electronic pen 123 CPU 124 RAM 125 keyboard

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 軌跡情報に基づいて処理を行う情報処理
装置であって、 複数種類の軌跡情報のそれぞれが示す処理を認識する認
識手段と、 前記認識手段で認識された複数種類の処理を予め各処理
に設定された優先度に従って実行する実行手段とを備え
ることを特徴とする情報処理装置。
1. An information processing apparatus for performing processing based on trajectory information, the recognition means recognizing processing indicated by each of a plurality of types of trajectory information, and a plurality of types of processing recognized by the recognition means in advance. An information processing apparatus, comprising: an executing unit that executes each process according to a priority set.
【請求項2】 前記実行手段は、前記認識手段で認識さ
れた処理とその優先度を記憶する記憶手段と、 前記優先度に従って、前記記憶手段に記憶される処理の
記憶順序を変更する変更手段を備え前記記憶順序に従っ
て処理を実行することを特徴とする請求項1に記載の情
報処理装置。
2. The executing means includes a storage means for storing the process recognized by the recognizing means and its priority, and a changing means for changing the storage order of the process stored in the storage means according to the priority. The information processing apparatus according to claim 1, further comprising: a storage unit that executes processing in accordance with the storage order.
【請求項3】 前記処理は、表示画面に表示されるウイ
ンドウの制御であることを特徴とする請求項1に記載の
情報処理装置。
3. The information processing apparatus according to claim 1, wherein the processing is control of a window displayed on a display screen.
【請求項4】 前記処理は、表示画面に表示される文字
列の編集であることを特徴とする請求項1に記載の情報
処理装置。
4. The information processing apparatus according to claim 1, wherein the processing is editing of a character string displayed on a display screen.
【請求項5】 前記制御は、ウインドウの移動、アイコ
ン化されたウインドウの非アイコン化、ウインドウの消
去を含むことを特徴とする請求項3に記載の情報処理装
置。
5. The information processing apparatus according to claim 3, wherein the control includes moving a window, deiconifying an iconified window, and deleting the window.
【請求項6】 前記編集は、小文字を大文字に変更、文
字の挿入、文字の入れ換えを含むことを特徴とする請求
項4に記載の情報処理装置。
6. The information processing apparatus according to claim 4, wherein the editing includes changing a lowercase character to an uppercase character, inserting a character, and replacing a character.
【請求項7】 軌跡情報に基づいて処理を行う情報処理
装置であって、 入力された軌跡がストロークであるかあるいは取り消し
指示であるかを判定する判定手段と、 順次入力されたストロークの組み合わせで文字を認識す
る認識手段と、 入力された軌跡が取り消し指示である場合、該軌跡の入
力位置にあるストロークを検出する検出手段と、 前記検出手段で検出されたストロークを前記認識手段で
不使用とする制御を行う制御手段とを備えることを特徴
とする情報処理装置。
7. An information processing apparatus for performing processing based on trajectory information, comprising a combination of determination means for determining whether an input trajectory is a stroke or a cancellation instruction, and strokes sequentially input. A recognition unit for recognizing a character, a detection unit for detecting a stroke at the input position of the locus when the input locus is a cancellation instruction, and a stroke detected by the detection unit is not used by the recognition unit. An information processing apparatus, comprising:
【請求項8】 前記制御手段は、検出されたストローク
の次に処理を実行する優先度を与え、 前記認識手段は、処理の過程で取り消し指示を実行する
と、その直前のストロークを認識して該ストロークを消
去することを特徴とする請求項7に記載の情報処理装
置。
8. The control means gives a priority to execute a process next to the detected stroke, and the recognizing means recognizes a stroke immediately before the stroke when a cancel instruction is executed in the process of the process. The information processing apparatus according to claim 7, wherein the stroke is erased.
【請求項9】 軌跡情報に基づいて処理を行う情報処理
方法であって、 複数種類の軌跡情報のそれぞれが示す処理を認識する認
識工程と、 前記認識工程で認識された複数種類の処理を予め各処理
に設定された優先度に従って実行する実行工程とを備え
ることを特徴とする情報処理方法。
9. An information processing method for performing processing based on trajectory information, comprising: a recognition step of recognizing a plurality of types of trajectory information; and a plurality of types of processing recognized in the recognition step in advance. An information processing method, comprising: an execution step that is executed according to the priority set for each process.
【請求項10】 軌跡情報に基づいて処理を行う情報処
理方法であって、 入力された軌跡がストロークであるかあるいは取り消し
指示であるかを判定する判定工程と、 順次入力されたストロークの組み合わせで文字を認識す
る認識工程と、 入力された軌跡が取り消し指示である場合、該軌跡の入
力位置にあるストロークを検出する検出工程と、 前記検出工程で検出されたストロークを前記認識工程で
不使用とする制御を行う制御工程とを備えることを特徴
とする情報処理方法。
10. An information processing method for performing processing based on trajectory information, comprising a combination of a determination step of determining whether an input trajectory is a stroke or a cancellation instruction, and strokes sequentially input. A recognition step of recognizing a character, a detection step of detecting a stroke at an input position of the trajectory when the input trajectory is a cancellation instruction, and a stroke detected in the detection step is not used in the recognition step. An information processing method, comprising:
JP7136982A 1995-06-02 1995-06-02 Information processing device and method therefor Withdrawn JPH08329192A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7136982A JPH08329192A (en) 1995-06-02 1995-06-02 Information processing device and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7136982A JPH08329192A (en) 1995-06-02 1995-06-02 Information processing device and method therefor

Publications (1)

Publication Number Publication Date
JPH08329192A true JPH08329192A (en) 1996-12-13

Family

ID=15188010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7136982A Withdrawn JPH08329192A (en) 1995-06-02 1995-06-02 Information processing device and method therefor

Country Status (1)

Country Link
JP (1) JPH08329192A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048655A (en) * 2008-10-15 2009-03-05 Hitachi Ltd Handwriting input device, program, and handwriting input method system
JP2011258130A (en) * 2010-06-11 2011-12-22 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2015072593A (en) * 2013-10-03 2015-04-16 富士ゼロックス株式会社 Information processing apparatus and information processing program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048655A (en) * 2008-10-15 2009-03-05 Hitachi Ltd Handwriting input device, program, and handwriting input method system
JP2011258130A (en) * 2010-06-11 2011-12-22 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2015072593A (en) * 2013-10-03 2015-04-16 富士ゼロックス株式会社 Information processing apparatus and information processing program

Similar Documents

Publication Publication Date Title
US5798758A (en) Gesture-based data processing method and apparatus
JP3486459B2 (en) Electronic information equipment and control method thereof
US5796406A (en) Gesture-based input information processing apparatus
EP1531387B1 (en) Apparatus and method for providing virtual graffiti and recording medium for the same
EP0690407B1 (en) Image recognition apparatus and method
US6938220B1 (en) Information processing apparatus
US5509114A (en) Method and apparatus for correcting and/or aborting command gestures in a gesture based input system
EP0738950B1 (en) Data processing method and apparatus using a handwriting instrument
US5568604A (en) Method and system for generating a working window in a computer system
EP2228731B1 (en) Calculator with a touch panel for entering handwritten numerical expressions and computer readable medium
JPH09319502A (en) Information equipment provided with display integrated type coordinate input device
JP3292752B2 (en) Gesture processing device and gesture processing method
US6342894B1 (en) Icon display method
JPH09231393A (en) Instruction input device
JP3075882B2 (en) Document creation and editing device
JPH08137611A (en) Method for registering gesture image and document processor
JPH08329192A (en) Information processing device and method therefor
JP2000056889A (en) Portable terminal device and window control method
JP3874571B2 (en) Gesture processing device and gesture processing method
JP2003140791A (en) Information processor and method for controlling information processor
JPH06324798A (en) Document processor provided with handwriting editing function
JPH0744308A (en) Word processor
JPH0659802A (en) Device for controlling pen input
EP0367290A2 (en) Cursor move control method and apparatus for carrying out the same
JPH0869351A (en) Pen input device and pen input method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20020806