JP2006099468A - Gesture input device, method, and program - Google Patents

Gesture input device, method, and program Download PDF

Info

Publication number
JP2006099468A
JP2006099468A JP2004285242A JP2004285242A JP2006099468A JP 2006099468 A JP2006099468 A JP 2006099468A JP 2004285242 A JP2004285242 A JP 2004285242A JP 2004285242 A JP2004285242 A JP 2004285242A JP 2006099468 A JP2006099468 A JP 2006099468A
Authority
JP
Japan
Prior art keywords
gesture
input
area
display
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004285242A
Other languages
Japanese (ja)
Inventor
Hiroshi Shimomori
大志 下森
Munehiko Sasajima
宗彦 笹島
Kazunori Imoto
和範 井本
Yojiro Touchi
洋次郎 登内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004285242A priority Critical patent/JP2006099468A/en
Publication of JP2006099468A publication Critical patent/JP2006099468A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To prevent misidentification of a stroke and a gesture for allowing continuous gesture input by a simple operation for improvement in convenience. <P>SOLUTION: This gesture input device is provided with a display having a tablet function for inputting the positional coordinate instructed by a pen device, a mode switch means switching setting/releasing of a gesture input mode for receiving a gesture based on a time of contact by a pen device with a display area on the display having a tablet function, and a gesture processing part executing processing matching a gesture according to a locus drawn on the display with a tablet function. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、座標入力面に対してジェスチャ入力を行うジェスチャ入力装置、ジェスチャ入力方法及びジェスチャ入力プログラムに関し、さらにジェスチャ入力を行うか否かを切り替える技術に関するものである。   The present invention relates to a gesture input device, a gesture input method, and a gesture input program for performing gesture input on a coordinate input surface, and further relates to a technique for switching whether or not to perform gesture input.

従来から、手書き認識技術の進歩によりタブレット型PC(Personal Computer)やPDA(Personal Digital Assistant)等の様々な機器にはペン入力インターフェースが組み込まれている。ペン入力インターフェースは、キーボードを使い慣れていない利用者について利便性を向上させ、またキーボードやマウスが組み込めない機器の入力デバイスとして利用可能である。特にペン入力インターフェースを用いたジェスチャ認識は、簡単な操作で様々なコマンドを入力することが可能である。しかし、ジェスチャ認識においては、ジェスチャ入力と、文字を書くなどのストローク入力等の他のペン入力との違いを判定することが困難であった。   2. Description of the Related Art Conventionally, pen input interfaces have been incorporated into various devices such as tablet PCs (Personal Computers) and PDAs (Personal Digital Assistants) due to advances in handwriting recognition technology. The pen input interface improves convenience for users who are not familiar with the keyboard, and can be used as an input device for devices that cannot incorporate a keyboard or mouse. In particular, gesture recognition using a pen input interface can input various commands with a simple operation. However, in gesture recognition, it is difficult to determine the difference between gesture input and other pen input such as stroke input for writing characters.

そこで、入力したストロークがジェスチャであるか否か判別する技術が提案されている(例えば、特許文献1参照)。また、ジェスチャ入力に切り替える切替ボタンを備え、切替ボタンを押下した状態で、ペンがタブレットに接触し、そのままペンをタブレットから離さずに、ペンが一定時間内にドラッグされるとジェスチャ入力であると判定する技術が提案されている(例えば、特許文献2参照)。   Therefore, a technique for determining whether or not the input stroke is a gesture has been proposed (see, for example, Patent Document 1). Also, a switching button for switching to gesture input is provided, and when the switching button is pressed, the pen touches the tablet, and the pen is dragged within a certain time without releasing the pen from the tablet. A technique for determining is proposed (see, for example, Patent Document 2).

特開2003−308482号公報JP 2003-308482 A 特開2001−117686号公報JP 2001-117686 A

しかしながら、上記特許文献1に記載された技術では、入力されたストロークからジェスチャであるか否か判断するため、入力したストロークがジェスチャと同じあるいは類似の場合はストロークをジェスチャと判断される可能性があり、誤認識してしまうという問題がある。   However, in the technique described in Patent Document 1, since it is determined whether or not it is a gesture from the input stroke, if the input stroke is the same as or similar to the gesture, the stroke may be determined as a gesture. There is a problem of misrecognition.

また、上記特許文献2に記載された技術では、ペン操作のみでジェスチャ入力と他のペン入力を切り替えることができず、またジェスチャ入力をするたびにボタンを押下する必要があり、連続してジェスチャ入力する場合には操作が煩雑になるという問題がある。   In the technique described in Patent Document 2, it is not possible to switch between a gesture input and another pen input only by a pen operation, and it is necessary to press a button every time a gesture is input. When inputting, there is a problem that the operation becomes complicated.

本発明は、上記に鑑みてなされたものであって、ストローク及びジェスチャにおいて誤認識せず、かつ連続するジェスチャ入力を可能として、利便性が向上したジェスチャ入力装置、ジェスチャ入力方法及びジェスチャ入力プログラムを提供することを目的としている。   The present invention has been made in view of the above, and provides a gesture input device, a gesture input method, and a gesture input program that are not erroneously recognized in strokes and gestures and that allow continuous gesture input and have improved convenience. It is intended to provide.

上述した課題を解決し、目的を達成するために、本発明は、座標入力面から位置座標を入力する入力手段と、前記入力手段により入力された連続する複数の前記位置座標による特定の軌跡に対応して実行する処理を示すジェスチャを受け付けるジェスチャ入力モードの設定及び解除を、前記入力手段から前記座標入力面上の任意の領域の前記位置座標が入力された入力タイミングに基づいて切り替えるモード切替手段と、前記モード切替手段による切り替えにより、前記ジェスチャ入力モードが設定された場合、前記入力手段により入力された前記軌跡による前記ジェスチャに対応した処理を実行するジェスチャ処理手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention provides an input means for inputting position coordinates from a coordinate input surface, and a specific trajectory by a plurality of continuous position coordinates input by the input means. Mode switching means for switching the setting and canceling of the gesture input mode for receiving a gesture indicating processing to be executed correspondingly based on the input timing when the position coordinates of an arbitrary region on the coordinate input surface are input from the input means. And gesture processing means for executing processing corresponding to the gesture by the trajectory input by the input means when the gesture input mode is set by switching by the mode switching means. And

また、本発明は、座標入力面から位置座標を入力する入力ステップと、前記入力ステップにより入力された連続する複数の前記位置座標による特定の軌跡に対応して実行する処理を示すジェスチャを受け付けるジェスチャ入力モードの設定及び解除を、前記入力ステップから前記座標入力面上の任意の領域の前記位置座標が入力された入力タイミングに基づいて切り替えるモード切替ステップと、前記モード切替ステップによる切り替えにより、前記ジェスチャ入力モードが設定された場合、前記入力ステップにより入力された前記軌跡による前記ジェスチャに対応した処理を実行するジェスチャ処理ステップと、を備えたことを特徴とする。   The present invention also provides an input step for inputting position coordinates from a coordinate input surface, and a gesture for receiving a gesture indicating processing to be executed corresponding to a specific trajectory by a plurality of continuous position coordinates input by the input step. An input mode is set and canceled based on an input timing at which the position coordinates of an arbitrary area on the coordinate input surface are input from the input step, and the gesture by the switching by the mode switching step. A gesture processing step for executing processing corresponding to the gesture by the trajectory input in the input step when the input mode is set.

また、本発明は、座標入力面から位置座標を入力する入力手順と、前記入力手順により入力された連続する複数の前記位置座標による特定の軌跡に対応して実行する処理を示すジェスチャを受け付けるジェスチャ入力モードの設定及び解除を、前記入力手順から前記座標入力面上の任意の領域の前記位置座標が入力された入力タイミングに基づいて切り替えるモード切替手順と、前記モード切替手順による切り替えにより、前記ジェスチャ入力モードが設定された場合、前記入力手順により入力された前記軌跡による前記ジェスチャに対応した処理を実行するジェスチャ処理手順と、をコンピュータに実行させる。   In addition, the present invention provides an input procedure for inputting position coordinates from a coordinate input surface, and a gesture for receiving a gesture indicating processing to be executed corresponding to a specific trajectory by a plurality of continuous position coordinates input by the input procedure. The input mode is set and canceled based on an input timing at which the position coordinates of an arbitrary region on the coordinate input surface are input from the input procedure, and the gesture by the switching by the mode switching procedure. When the input mode is set, the computer causes the computer to execute a gesture processing procedure for executing processing corresponding to the gesture by the trajectory input by the input procedure.

本発明によれば、入力手段が座標入力面上の任意の領域の前記位置座標が入力された入力タイミングに基づいて、ジェスチャ入力モードの設定及び解除を切り替えるため、ジェスチャ入力モードの切り替えることが容易に行えるという効果を奏する。また、ジェスチャ入力モードではジェスチャであるか否かを判定する必要がないため、ストローク及びジェスチャの誤認識は発生せず、またジェスチャ入力モードでは連続するジェスチャ入力を可能であるため、利便性を向上するという効果を奏する。   According to the present invention, since the input unit switches between setting and canceling the gesture input mode based on the input timing when the position coordinates of an arbitrary region on the coordinate input surface are input, it is easy to switch the gesture input mode. There is an effect that can be done. In addition, since it is not necessary to determine whether or not it is a gesture in the gesture input mode, erroneous recognition of strokes and gestures does not occur, and continuous gesture input is possible in the gesture input mode, improving convenience. The effect of doing.

以下に添付図面を参照して、この発明にかかるジェスチャ入力装置、ジェスチャ入力方法及びジェスチャ入力プログラムを適用したPDAの最良な実施の形態を詳細に説明する。   Exemplary embodiments of a gesture input device, a gesture input method, and a gesture input program according to the present invention will be explained below in detail with reference to the accompanying drawings.

(第1の実施の形態)
図1は、第1の実施の形態にかかるPDA100の構成を示すブロック図である。本図に示すようにPDA100の内部は、タブレット機能付ディスプレイ101と、入力処理部102と、入力モード切替部103と、入力モード判定部104と、ジェスチャ認識部105と、ジェスチャ処理部106と、ストローク処理部107と、表示処理部108を備え、PDA100に備えられたペンデバイス150によりジェスチャ入力やストローク入力が行われる。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of the PDA 100 according to the first embodiment. As shown in the figure, the PDA 100 includes a display 101 with a tablet function, an input processing unit 102, an input mode switching unit 103, an input mode determination unit 104, a gesture recognition unit 105, a gesture processing unit 106, A stroke processing unit 107 and a display processing unit 108 are provided, and gesture input and stroke input are performed by a pen device 150 provided in the PDA 100.

また、ジェスチャとは、ボタンのタップやメニューの選択とは異なり、PDA100内部で予め定められた軌跡と実行する処理とを対応付けて保持し、ペンデバイス150で予め定められた軌跡を描くことで、対応付けられた機能あるいは処理を実行させる操作をいう。   In addition, a gesture is different from tapping a button or selecting a menu by holding a predetermined trajectory in the PDA 100 and a process to be executed in association with each other and drawing a predetermined trajectory by the pen device 150. An operation for executing the associated function or process.

ペンデバイス150は、利用者が後述するタブレット機能付ディスプレイ101に対して入力を行うためのデバイスであり、磁気信号をペン先から出力する。   The pen device 150 is a device for a user to input to the tablet function-equipped display 101 described later, and outputs a magnetic signal from the pen tip.

タブレット機能付ディスプレイ101は、ペンデバイス150の位置座標を入力するための磁気センサが備えられている平面状のディスプレイである。なお、本実施の形態のタブレット機能付ディスプレイ101は磁気センサを用いているためペンデバイス150が接触していなくとも、ペンデバイス150が出力する磁気信号を検出することで、3次元空間上のペンデバイス150の位置座標を入力することが可能となる。タブレット機能付ディスプレイ101は、ペンデバイス150が発する磁気信号を検出し、検出した信号を後述する入力処理部102に出力する。利用者はペンデバイス150を用いて、タブレット機能付ディスプレイ101に対してペン先で位置座標を指示すること、あるいは軌跡を描くことで、PDA100に対して処理の指示や、文字、記号、図形などの画像情報の手書き入力が可能となる。   The display with tablet function 101 is a flat display provided with a magnetic sensor for inputting the position coordinates of the pen device 150. In addition, since the display 101 with a tablet function of the present embodiment uses a magnetic sensor, even if the pen device 150 is not in contact, the pen in the three-dimensional space can be detected by detecting the magnetic signal output from the pen device 150. The position coordinates of the device 150 can be input. The display with tablet function 101 detects a magnetic signal emitted from the pen device 150 and outputs the detected signal to the input processing unit 102 described later. The user uses the pen device 150 to instruct position coordinates with the pen tip on the tablet function display 101 or draw a locus, thereby instructing the PDA 100 to process, characters, symbols, figures, etc. The image information can be input by handwriting.

また、タブレット機能付ディスプレイ101は、後述する表示処理部108により行われた処理の結果を表示する。   The display with tablet function 101 displays the result of processing performed by the display processing unit 108 described later.

入力処理部102は、タブレット機能付ディスプレイ101から入力された信号を解析して、ペンデバイス150の空間内での位置座標や、動き等の軌跡に関する情報、タブレット機能付ディスプレイ101と接触しているか否かの情報、ペンデバイス151が接触してから離れるまでの時間等を保持するペン入力情報を生成する。また、入力処理部102は、処理したペン入力情報が、ペンデバイス150がタブレット機能付ディスプレイ101の表示範囲内の任意の点で接触していた旨を示す情報である場合は、入力モード切替部103に出力する。また、入力処理部102は、タブレット機能付ディスプレイ101にペンデバイス150で軌跡が描かれた場合、例えば連続して検出した磁気信号の位置座標の連結処理あるいは関数を用いた軌跡の算出処理など、既に知られた導出方法を用いて連続する点から軌跡を導出する。   The input processing unit 102 analyzes the signal input from the tablet function-equipped display 101 and determines whether the pen device 150 is in contact with the position coordinates in the space, information on the trajectory of movement, the tablet function-equipped display 101, etc. Pen input information that holds information on whether or not, a time until the pen device 151 comes out of contact, and the like is generated. When the processed pen input information is information indicating that the pen device 150 is in contact with an arbitrary point within the display range of the display 101 with the tablet function, the input processing unit 102 is an input mode switching unit. To 103. In addition, when the locus is drawn with the pen device 150 on the display 101 with the tablet function, the input processing unit 102, for example, a process for connecting position coordinates of magnetic signals detected continuously or a process for calculating a locus using a function, etc. A trajectory is derived from successive points using a known derivation method.

入力モード切替部103は、入力処理部102により入力されたペン入力情報が、ペンデバイス150がタブレット機能付ディスプレイ101上の表示領域内の任意の一点を2秒以上離されなかった旨を示していた場合、入力モードの切り替えを行う。詳細な例としては、入力モード切替部は、上記切り替え条件を満たしたときに入力モードが文字や図形入力を行うためのストローク入力モードであれば、ジェスチャ入力モードに切り替える。また、上記切り替え条件を満たしたときに入力モードがジェスチャ入力モードであれば、ストローク入力モードに切り替える。また、入力されるペン入力情報は空間内での位置座標及び接触しているか否かを保持しているため、連続してペン入力情報が入力されることで、入力モード切替部103は、ペンデバイス151がタブレット機能付ディスプレイ101の表示領域の接触時間を得ることが可能となる。   The input mode switching unit 103 indicates that the pen input information input by the input processing unit 102 indicates that the pen device 150 has not released an arbitrary point in the display area on the tablet function-equipped display 101 for two seconds or more. If it does, the input mode is switched. As a detailed example, the input mode switching unit switches to the gesture input mode if the input mode is a stroke input mode for inputting characters or graphics when the above switching condition is satisfied. If the input mode is the gesture input mode when the above switching condition is satisfied, the mode is switched to the stroke input mode. Further, since the input pen input information holds the position coordinates in the space and whether or not it is touching, the input mode switching unit 103 can input the pen input information continuously by inputting the pen input information. It becomes possible for the device 151 to obtain the contact time of the display area of the display 101 with the tablet function.

本実施の形態において入力モードは、ストローク入力モードとジェスチャ入力モードの2種類とするが、入力モードを2種類に制限するものではない。また、入力モード切替部103による入力モードの切り替えの条件を表示領域内の任意の一点を2秒以上接触している場合に制限するものではなく、タブレット機能付ディスプレイ101の任意の領域内を予め定められた時間接触していれば入力モードを切り替えるように構成してもよい。また、利用者が入力モードを切り替えるための接触している時間を設定することにしてもよい。   In the present embodiment, there are two types of input modes, the stroke input mode and the gesture input mode, but the input mode is not limited to two types. In addition, the input mode switching condition by the input mode switching unit 103 is not limited to a case where an arbitrary point in the display area is in contact for 2 seconds or more. You may comprise so that an input mode may be switched if it contacts for the defined time. Moreover, you may decide to set the contact time for a user to switch an input mode.

また、入力モードの切り替える条件を予め定められた時間をペンデバイス150が接触していた場合に限りものではなく、例えば予め定められた時間内にペンデバイス150がタブレット機能付ディスプレイ101に2回接触した場合など、予め定められた期間内の接触回数に基づいて入力モードを切り替える等の設定をしても良い。   The input mode switching condition is not limited to the case where the pen device 150 is in contact for a predetermined time. For example, the pen device 150 contacts the display 101 with the tablet function twice within the predetermined time. In such a case, the input mode may be switched based on the number of contacts within a predetermined period.

入力モード判定部104は、入力モード切替部103より切り替えられた入力モードを判定し、入力モードがストローク入力モードと判定した場合には、入力処理部102が出力したペン入力情報をストローク処理部107に出力し、入力モードがジェスチャ入力モードと判定した場合には、入力処理部102が出力したペン入力情報をジェスチャ認識部105に出力する。   The input mode determination unit 104 determines the input mode switched by the input mode switching unit 103. When the input mode is determined to be the stroke input mode, the pen input information output from the input processing unit 102 is used as the stroke processing unit 107. When the input mode is determined to be the gesture input mode, the pen input information output from the input processing unit 102 is output to the gesture recognition unit 105.

ジェスチャ認識部105は、入力処理部102から入力されたペン入力情報が保持していたタブレット機能付ディスプレイ101上に描かれた軌跡からジェスチャを認識する。ジェスチャ認識の方式は、既存のいかなる方式を用いても良い。   The gesture recognition unit 105 recognizes a gesture from a trajectory drawn on the tablet function-equipped display 101 held by the pen input information input from the input processing unit 102. Any existing method may be used as the gesture recognition method.

ジェスチャ処理部106は、ジェスチャ認識部105が認識したジェスチャに対応付けられた処理を行う。例えば、ジェスチャ’チェック’と対応付けられた処理が’選択’とする場合において、予め定められた領域内で、認識されたジェスチャが’チェック’であれば、ジェスチャ処理部106は、予め定められた領域が指し示していた候補等を選択する処理を行う。   The gesture processing unit 106 performs processing associated with the gesture recognized by the gesture recognition unit 105. For example, in a case where the process associated with the gesture “check” is “selection”, if the recognized gesture is “check” within a predetermined area, the gesture processing unit 106 is determined in advance. A process for selecting a candidate or the like pointed to by the area is performed.

ストローク処理部107は、入力されたペン入力情報から、保持していたペンデバイス150がタブレット機能付ディスプレイ101上に描かれた表示領域内の軌跡のみ抽出し、表示処理部108に出力する。これにより表示処理部108は、表示領域内に描かれた軌跡を表示することが可能となる。   The stroke processing unit 107 extracts only the locus in the display area drawn on the display 101 with the tablet function from the input pen input information, and outputs it to the display processing unit 108. Thereby, the display processing unit 108 can display the locus drawn in the display area.

表示処理部108は、ジェスチャ処理部106によりジェスチャに対応付けられた処理の結果を表示する、あるいはストローク処理部107により抽出処理されたペンデバイス150がタブレット機能付ディスプレイ101上に描いた軌跡を表示するための処理を行う。   The display processing unit 108 displays the result of processing associated with the gesture by the gesture processing unit 106, or displays the locus drawn on the display 101 with the tablet function by the pen device 150 extracted by the stroke processing unit 107. Process to do.

次に、以上により構成された本実施の形態に係るPDA100においてペンデバイス150により入力されてからタブレット機能付ディスプレイ101に表示するまでの全体処理について説明する。図2は本実施の形態にかかるPDA100においてペンデバイス150により入力されてからタブレット機能付ディスプレイ101に表示するまでのフローチャートである。   Next, overall processing from the input by the pen device 150 to the display on the display 101 with the tablet function in the PDA 100 according to the present embodiment configured as described above will be described. FIG. 2 is a flowchart from the input by the pen device 150 to the display on the display 101 with the tablet function in the PDA 100 according to the present embodiment.

タブレット機能付ディスプレイ101は、ペンデバイス150を用いて指示された位置座標を入力する(ステップS201)。次に入力処理部102は、タブレット機能付ディスプレイ101から入力された位置座標等に基づいてペン入力情報を生成する(ステップS202)。そして入力処理部102は、ペン入力情報が、ペンデバイス150によるタブレット機能付ディスプレイ101の表示範囲内の任意の点の接触している旨を示す情報であるか否かを判定し(ステップS203)、接触している旨を示す情報である場合は、ペン入力情報を入力モード切替部103に出力する(ステップS203:Yes)。   The display 101 with the tablet function inputs the position coordinates instructed using the pen device 150 (step S201). Next, the input processing unit 102 generates pen input information based on the position coordinates and the like input from the display with tablet function 101 (step S202). Then, the input processing unit 102 determines whether or not the pen input information is information indicating that an arbitrary point within the display range of the tablet function display 101 by the pen device 150 is in contact (step S203). If it is information indicating that it is in contact, the pen input information is output to the input mode switching unit 103 (step S203: Yes).

そして、入力モード切替部103は、ペン入力情報より、ペンデバイス150がタブレット機能付ディスプレイ101上の表示領域内の任意の一点を2秒以上接触していたか否かを判定する(ステップS210)。そして2秒以上接触していたと判定した場合(ステップS210:Yes)は、入力モード切替部103は、入力モードを切り替える(ステップS211)。詳細な例としては、入力モード切替部103は、入力モードがストローク入力モードの場合はジェスチャ入力モードに切り替え、入力モードがジェスチャ入力モードの場合、ストローク入力モードに切り替える。また、2秒以上接触していなかったと判定した場合(ステップS210:No)、入力モード切替部103は特に処理を行わない。   Then, the input mode switching unit 103 determines from the pen input information whether or not the pen device 150 has been in contact with an arbitrary point in the display area on the tablet function-equipped display 101 for two seconds or more (step S210). And when it determines with having been in contact for 2 seconds or more (step S210: Yes), the input mode switching part 103 switches an input mode (step S211). As a detailed example, the input mode switching unit 103 switches to the gesture input mode when the input mode is the stroke input mode, and switches to the stroke input mode when the input mode is the gesture input mode. In addition, when it is determined that the contact has not been made for 2 seconds or more (step S210: No), the input mode switching unit 103 does not perform any particular processing.

そして、ペン入力情報が接触していた旨を示す情報ではない場合(ステップS203:No)、入力モード判定部104は、入力モードがジェスチャ入力モードであるか否かを判定する(ステップS204)。   If the pen input information is not information indicating that the touch has been made (step S203: No), the input mode determination unit 104 determines whether or not the input mode is the gesture input mode (step S204).

入力モード判定部104がジェスチャ入力モードと判定した場合(ステップS204:Yes)、入力処理部102により生成されたペン入力情報は、ジェスチャ認識部105に出力される。次にジェスチャ認識部105は、ペン入力情報が保持していたタブレット機能付ディスプレイ101上に描かれた軌跡からジェスチャを認識する(ステップS205)。そしてジェスチャ処理部106は、ジェスチャ認識部105により認識されたジェスチャに対応付けられた処理を行う(ステップS206)。   When the input mode determination unit 104 determines that the gesture input mode is set (step S204: Yes), the pen input information generated by the input processing unit 102 is output to the gesture recognition unit 105. Next, the gesture recognition unit 105 recognizes the gesture from the locus drawn on the display 101 with the tablet function held by the pen input information (step S205). The gesture processing unit 106 performs processing associated with the gesture recognized by the gesture recognition unit 105 (step S206).

入力モード判定部104がジェスチャ入力モードではないと判定した場合(ステップS204:No)、ストローク処理部107は入力したペン入力情報が保持していたタブレット機能付ディスプレイ101上に描かれた軌跡を抽出する処理を行う(ステップS207)。   When the input mode determination unit 104 determines that the mode is not the gesture input mode (step S204: No), the stroke processing unit 107 extracts the locus drawn on the display 101 with the tablet function held by the input pen input information. Is performed (step S207).

そして、表示処理部108は、ステップS206による処理の結果を表示するための処理、あるいはステップS207により抽出処理されたタブレット機能付ディスプレイ101上に描かれた軌跡を表示するための処理を行う(ステップS208)。そしてタブレット機能付ディスプレイ101は、表示処理部108で処理された結果を表示する(ステップS209)。   Then, the display processing unit 108 performs a process for displaying the result of the process in step S206 or a process for displaying the locus drawn on the display with tablet function 101 extracted in step S207 (step S207). S208). The display with tablet function 101 displays the result processed by the display processing unit 108 (step S209).

なお、上述した処理手順では、入力モード切替部103により入力モードが切り替えられたあと、特に表示などの処理は行わないこととしたが、入力モードが切り替わった旨を表示する処理を行っても良い。   In the above processing procedure, after the input mode is switched by the input mode switching unit 103, no particular processing such as display is performed. However, a process for displaying that the input mode has been switched may be performed. .

また上述した処理手順により、利用者はペンデバイス150をタブレット機能付ディスプレイ101の任意の一点を接触することで、入力モードを切り替えることが可能となり、さらにジェスチャ入力モード時には、利用者は連続してジェスチャ入力が可能となる。   Further, according to the above-described processing procedure, the user can switch the input mode by touching the pen device 150 with any one point on the display 101 with the tablet function, and the user can continuously switch in the gesture input mode. Gesture input is possible.

図3は、本実施の形態にかかるPDA100についてジェスチャ入力及びストローク入力された画面の一例を示したものである。詳細な例としては、最初に利用者はジェスチャ入力モード時に、401及び402で示された領域にチェックと対応付けられた軌跡を連続して描いてジェスチャ入力を行った。PDA100はそれぞれの領域でジェスチャを認識し、タブレット機能付ディスプレイ101にチェックされた旨の表示がなされた。その後、利用者は、ペンデバイス150によりタブレット機能付ディスプレイ101内の一点を2秒以上接触させることで、PDA100は入力モードをストローク入力モードに切り替えた。そして利用者は、ペンデバイス150により403で示された領域に「汗が出てくる」とストローク入力することで、PDA100は403の領域に入力された文字を表示した。   FIG. 3 shows an example of a screen in which gesture input and stroke input are performed on the PDA 100 according to the present embodiment. As a detailed example, first, in the gesture input mode, the user inputs a gesture by continuously drawing a trajectory associated with the check in the area indicated by 401 and 402. The PDA 100 recognizes the gesture in each area, and the display indicating that it is checked is made on the display 101 with the tablet function. Thereafter, the user touches one point in the tablet function-equipped display 101 with the pen device 150 for two seconds or more, so that the PDA 100 switches the input mode to the stroke input mode. Then, when the user inputs a stroke “sweat comes out” in the area indicated by 403 by the pen device 150, the PDA 100 displays the characters input in the area 403.

図4は、本実施の形態にかかるPDA100のハードウェア構成を示した図である。本実施の形態にかかるPDA100は、制御装置となるCPU(Central Processing Unit)601と、外部記憶装置となるROM(Read Only Memory)602やRAM603と、タブレット機能付ディスプレイなどの表示部604と、タブレット機能付ディスプレイからの信号を入力するための入力I/F605と、外部装置あるいはネットワークと接続する通信I/F606を備えたハードウェア構成となっている。そしてROM602にはPDA全体を制御するためのOS等の基本プログラムやPDAで使用可能なアプリケーションソフトが格納されている。   FIG. 4 is a diagram showing a hardware configuration of the PDA 100 according to the present embodiment. The PDA 100 according to the present embodiment includes a CPU (Central Processing Unit) 601 serving as a control device, a ROM (Read Only Memory) 602 and a RAM 603 serving as an external storage device, a display unit 604 such as a display with a tablet function, and a tablet The hardware configuration includes an input I / F 605 for inputting a signal from the function-equipped display and a communication I / F 606 connected to an external device or a network. The ROM 602 stores a basic program such as an OS for controlling the entire PDA and application software that can be used by the PDA.

本実施の形態のPDA100で実行されるジェスチャ入力プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。そして通信I/F606を介して外部装置からインストールすることが可能となる。   The gesture input program executed by the PDA 100 according to the present embodiment is an installable or executable file, such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), or the like. Recorded on a readable recording medium. Installation from an external device via the communication I / F 606 is possible.

また、本実施の形態のPDA100で実行されるジェスチャ入力プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施の形態のPDA100で実行されるジェスチャ入力プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   Further, the gesture input program executed by the PDA 100 of the present embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Further, the gesture input program executed by the PDA 100 of this embodiment may be provided or distributed via a network such as the Internet.

また、本実施の形態のジェスチャ入力プログラムを、ROM602等に予め組み込んで提供するように構成してもよい。   Further, the gesture input program according to the present embodiment may be provided by being incorporated in advance in the ROM 602 or the like.

本実施の形態のPDA100で実行されるジェスチャ入力プログラムは、上述した各部(入力処理部、入力モード切替部、入力モード判定部、ストローク処理部、ジェスチャ認識部、ジェスチャ処理部、表示処理部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)601が上記記憶媒体からジェスチャ入力プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、入力処理部、入力モード切替部、入力モード判定部、ストローク処理部、ジェスチャ認識部、ジェスチャ処理部、表示処理部が主記憶装置上に生成されるようになっている。   The gesture input program executed by the PDA 100 according to the present embodiment includes the above-described units (input processing unit, input mode switching unit, input mode determination unit, stroke processing unit, gesture recognition unit, gesture processing unit, display processing unit). As the actual hardware, the CPU (processor) 601 reads the gesture input program from the storage medium and executes it to load the above-mentioned units onto the main storage device. A mode switching unit, an input mode determination unit, a stroke processing unit, a gesture recognition unit, a gesture processing unit, and a display processing unit are generated on the main storage device.

なお、本実施の形態では、ジェスチャ入力装置としてPDA100を用いたが、PDA100ではなく、PC(Personal Computer)等を用いて実現しても良い。例えばテーブルに設置したタブレットとペンデバイスを利用してジェスチャ入力を行い、入力されたジェスチャに対応した処理の結果をPCのディスプレイに表示する構成を有している場合において、タブレットの任意の領域に予め定められた時間をペンデバイスが接触している時に、ジェスチャ入力モードとストローク入力モードを切り替える等が考えられる。   In the present embodiment, the PDA 100 is used as a gesture input device. However, instead of the PDA 100, a PC (Personal Computer) or the like may be used. For example, in the case of a configuration in which gesture input is performed using a tablet placed on a table and a pen device, and the result of processing corresponding to the input gesture is displayed on the display of the PC, an arbitrary area of the tablet is displayed. It is conceivable to switch between the gesture input mode and the stroke input mode when the pen device is in contact for a predetermined time.

以上のように、第1の実施の形態においては、ジェスチャ入力とストローク入力の誤判定が無く、また、ジェスチャ入力時において、ジェスチャ入力をする間隔が空いた場合であっても連続したジェスチャの入力を認識することが可能である。さらにはペンデバイス150がタブレット機能付ディスプレイ101の接触時間により容易に入力モードを切り替えることが可能である。このため、第1の実施の形態にかかるPDA100では、誤認識が低減し、連続してジェスチャ入力が可能なため利便性が向上した。   As described above, in the first embodiment, there is no misjudgment between gesture input and stroke input, and continuous gesture input is possible even when there is an interval for gesture input at the time of gesture input. Can be recognized. Further, the input mode can be easily switched by the pen device 150 depending on the contact time of the display 101 with the tablet function. For this reason, in the PDA 100 according to the first embodiment, misrecognition is reduced, and continuous gesture input is possible, so convenience is improved.

(第2の実施の形態)
第1の実施の形態では、PDA100はタブレット機能付ディスプレイ101の任意の一点をペンデバイス150で2秒以上接触している場合に、入力モードを切り替えることとした。しかしながら、入力モードがジェスチャ入力の場合、タブレット機能付ディスプレイ101上のどの領域でどのジェスチャを入力することが可能なのか、利用者は予め知る必要がある。このため第2の実施の形態では、タブレット機能付ディスプレイ101上の領域内で入力することが可能なジェスチャを表示することとした。
(Second Embodiment)
In the first embodiment, the PDA 100 switches the input mode when an arbitrary point on the display with tablet function 101 is in contact with the pen device 150 for two seconds or more. However, when the input mode is gesture input, the user needs to know in advance which gesture can be input in which area on the tablet function-equipped display 101. For this reason, in the second embodiment, a gesture that can be input within an area on the display with tablet function 101 is displayed.

図5は、本発明の第2の実施の形態にかかるPDA300の構成を示すブロック図である。上述した第1の実施の形態にかかるPDA100とは、ジェスチャ候補取得部301と記憶部302が追加され、入力処理部102とは処理が異なる入力処理部305に変更され、表示処理部108とは処理が異なる表示処理部303に変更されている点で異なる。以下の説明では、上述した実施の形態1と同一の構成要素には同一の符号を付してその説明を省略している。そして本実施の携帯にかかるPDA300は上述した構成を備えることで、ペンデバイス150の磁気信号により、ペンデバイス150とタブレット機能付ディスプレイ101は非接触の状態であるが、一定の範囲内にあると認識された場合、入力可能なジェスチャをポップアップ形式で表示することを可能とする。   FIG. 5 is a block diagram showing the configuration of the PDA 300 according to the second embodiment of the present invention. The PDA 100 according to the first embodiment described above includes a gesture candidate acquisition unit 301 and a storage unit 302, is changed to an input processing unit 305 that is different in processing from the input processing unit 102, and is different from the display processing unit 108. The difference is that the processing is changed to a different display processing unit 303. In the following description, the same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted. Since the PDA 300 according to the present embodiment has the above-described configuration, the pen device 150 and the display with tablet function 101 are in a non-contact state due to the magnetic signal of the pen device 150, but within a certain range. When recognized, it is possible to display an inputable gesture in a pop-up format.

記憶部302は、表示ジェスチャテーブル及びジェスチャ領域テーブルを記憶し、後述するジェスチャ候補取得部301により表示するジェスチャを取得する時に用いられる。   The storage unit 302 stores a display gesture table and a gesture area table, and is used when a gesture to be displayed is acquired by a gesture candidate acquisition unit 301 described later.

図6は、本実施の形態に係る記憶部302が記憶する表示ジェスチャテーブルの一例を示した図である。本図に示すように、セットIDと、ジェスチャID、ジェスチャ名、表示フラグを対応付けたレコードを保持する。セットIDはジェスチャ領域テーブルにおいてジェスチャ領域と対応付けられたIDである。そしてジェスチャIDはジェスチャを認識するための軌跡と対応付けられたIDである。ジェスチャ名は、ジェスチャを示す名称であり、タブレット機能付ディスプレイ101上に入力可能なジェスチャを表示する時に用いられる。また、表示フラグは表示するか否かを示すフラグであり、表示フラグが’1’の場合に表示することとする。なお、ジェスチャを認識するための軌跡とジェスチャIDとの対応については本実施の形態では省略する。   FIG. 6 is a diagram showing an example of a display gesture table stored in the storage unit 302 according to the present embodiment. As shown in the figure, a record in which a set ID is associated with a gesture ID, a gesture name, and a display flag is held. The set ID is an ID associated with the gesture area in the gesture area table. The gesture ID is an ID associated with a trajectory for recognizing the gesture. The gesture name is a name indicating a gesture, and is used when displaying a gesture that can be input on the display 101 with a tablet function. The display flag is a flag indicating whether or not to display, and is displayed when the display flag is “1”. The correspondence between the trajectory for recognizing the gesture and the gesture ID is omitted in this embodiment.

図7は、本実施の形態に用いられるジェスチャ領域テーブルの一例を示した図である。本図に示すように、ジェスチャ領域と、上述したセットIDを対応付けたレコードを保持する。なお、ジェスチャ領域を示すGesutureArea1等は、タブレット機能付ディスプレイ101に表示される画面において予め定められた領域をいう。   FIG. 7 is a diagram showing an example of a gesture area table used in the present embodiment. As shown in the figure, a record in which a gesture area is associated with the set ID described above is held. Note that the gesture area 1 or the like indicating the gesture area refers to a predetermined area on the screen displayed on the display 101 with the tablet function.

図8は、タブレット機能付ディスプレイ101上に表示された画面の予め定められた領域と、ジェスチャ領域名とを対応付けて示した説明図である。本図で示すようにタブレット機能付ディスプレイ101に表示された画面の各領域についてジェスチャ領域が割り当てられている。また、表示される画面が異なる毎に異なるジェスチャ領域を保持している。そして上述したテーブルを記憶部302が記憶することで、領域毎に認識するジェスチャを異ならせることを可能とする。   FIG. 8 is an explanatory diagram showing a predetermined area of the screen displayed on the display with tablet function 101 and a gesture area name in association with each other. As shown in the figure, a gesture area is assigned to each area of the screen displayed on the display 101 with the tablet function. In addition, a different gesture area is held every time the displayed screen is different. And the memory | storage part 302 memorize | stores the table mentioned above, It becomes possible to change the gesture recognized for every area | region.

図5に戻り、入力処理部305は、タブレット機能付ディスプレイ101から入力された信号から、ペンデバイス150がタブレット機能付ディスプレイ101と非接触の状態であるが、ペンデバイス150とタブレット機能付ディスプレイ101の距離が一定の範囲内にあると判断した場合、非接触である旨及びタブレット機能付ディスプレイ101上で磁気信号が最も強く入力された位置座標をペン入力情報としてジェスチャ候補取得部301に出力する。またペンデバイス150がタブレット機能付ディスプレイ101に接触している場合の処理は、第1の実施の形態にかかる入力処理部102と同様の処理とする。   Returning to FIG. 5, the input processing unit 305 indicates that the pen device 150 is in a non-contact state with the tablet function display 101 from the signal input from the tablet function display 101. If the distance is determined to be within a certain range, the non-contact state and the position coordinate at which the magnetic signal is most strongly input on the tablet function display 101 are output to the gesture candidate acquisition unit 301 as pen input information. . The processing when the pen device 150 is in contact with the display with tablet function 101 is the same processing as the input processing unit 102 according to the first embodiment.

ジェスチャ候補取得部301は、入力モード判定部104がジェスチャ入力モードと判定した場合に限り、入力されたペン入力情報から、表示ジェスチャテーブル及びジェスチャ領域テーブルに基づいて、表示するジェスチャのジェスチャIDとジェスチャ名を取得する。なお、具体的な取得手順は後述する。   The gesture candidate acquisition unit 301, based on the display gesture table and the gesture region table, from the input pen input information only when the input mode determination unit 104 determines the gesture input mode, the gesture ID and the gesture to be displayed. Get the name. A specific acquisition procedure will be described later.

表示処理部303は、第1の実施の形態にかかる表示処理部108と比べて、ジェスチャ表示処理部304を追加された。また、表示処理部303は、ジェスチャの表示以外の処理については第1の実施の形態にかかる表示処理部108と同様の処理を行う。   The display processing unit 303 is added with a gesture display processing unit 304 as compared with the display processing unit 108 according to the first embodiment. The display processing unit 303 performs the same processing as the display processing unit 108 according to the first embodiment for processes other than the gesture display.

ジェスチャ表示処理部304は、ジェスチャ候補取得部301からジェスチャIDとジェスチャ名が入力された場合、ジェスチャIDに対応するジェスチャの軌跡及びジェスチャ名をポップアップ形式で表示する。   When the gesture display processing unit 304 receives a gesture ID and a gesture name from the gesture candidate acquisition unit 301, the gesture display processing unit 304 displays the gesture trajectory and the gesture name corresponding to the gesture ID in a pop-up format.

次に、以上により構成された本実施の形態に係るPDA300においてペンデバイス150を検知してから入力可能なジェスチャをポップアップ形式で表示するまでの処理について説明する。図9は本実施の形態にかかるPDA300においてペンデバイス150を検知してから入力可能なジェスチャをポップアップ形式で表示するまでのフローチャートである。   Next, a process from detection of the pen device 150 to display of an inputable gesture in a pop-up format in the PDA 300 according to the present embodiment configured as described above will be described. FIG. 9 is a flowchart from when the pen device 150 is detected in the PDA 300 according to the present embodiment until an inputable gesture is displayed in a pop-up format.

タブレット機能付ディスプレイ101は、ペンデバイス150より出力される磁気信号を入力する(ステップS601)。そして入力処理部305は、タブレット機能付ディスプレイ101からの入力された信号を解析して求められた位置座標の入力処理を行う(ステップS602)。例えば、入力処理部305は、信号を解析した結果としてペンデバイス150がタブレット機能付ディスプレイ101に接触していないと判断した場合、ペンデバイス150から出力される磁気信号がタブレット機能付ディスプレイ101上でもっとも強く検知された位置座標を、ペンデバイス150を検知した位置座標として入力処理を行い、非接触である旨及び位置座標から生成されたペン入力情報を出力する。なお、ペンデバイス150がタブレット機能付ディスプレイ101に接触していると判断した場合は、第1の実施の形態で示した処理手順を行う(図示しない)。   The tablet function-equipped display 101 receives a magnetic signal output from the pen device 150 (step S601). The input processing unit 305 performs an input process of position coordinates obtained by analyzing the input signal from the tablet function-equipped display 101 (step S602). For example, when the input processing unit 305 determines that the pen device 150 is not in contact with the tablet function display 101 as a result of analyzing the signal, the magnetic signal output from the pen device 150 is displayed on the tablet function display 101. The input process is performed using the position coordinate detected most strongly as the position coordinate detected by the pen device 150, and the pen input information generated from the non-contact and the position coordinate is output. When it is determined that the pen device 150 is in contact with the display 101 with the tablet function, the processing procedure shown in the first embodiment is performed (not shown).

次に、入力モード判定部104は、入力モードがジェスチャ入力モードか否かを判定する(ステップS603)。そして入力モード判定部104が、ジェスチャ入力モードではないと判定した場合(ステップS603:No)、処理を行わず終了する。   Next, the input mode determination unit 104 determines whether or not the input mode is the gesture input mode (step S603). If the input mode determination unit 104 determines that the mode is not the gesture input mode (step S603: No), the process ends without performing the process.

入力モード判定部104がジェスチャ入力モードであると判定した場合(ステップS603:Yes)、ジェスチャ候補取得部301は、入力処理部305から入力されたペン入力情報による位置座標がどのジェスチャ領域内か判断し、入力可能なジェスチャのジェスチャID及びジェスチャ名を取得する(ステップS604)。なお、具体的なジェスチャID及びジェスチャ名の取得手順は後述する。   When the input mode determination unit 104 determines that it is the gesture input mode (step S603: Yes), the gesture candidate acquisition unit 301 determines in which gesture region the position coordinates based on the pen input information input from the input processing unit 305 are. Then, the gesture ID and the gesture name of the gesture that can be input are acquired (step S604). A specific procedure for obtaining the gesture ID and the gesture name will be described later.

ジェスチャ表示処理部304は、ジェスチャ候補取得部301が取得したジェスチャIDと対応付けられたジェスチャの軌跡を示したアイコン及びジェスチャ名をポップアップ形式で表示するための処理を行う(ステップS605)。そして、タブレット機能付ディスプレイ101は、ジェスチャ表示処理部304により入力された信号に基づいて、入力可能なジェスチャをポップアップ形式で表示する(ステップS606)。   The gesture display processing unit 304 performs a process for displaying, in a pop-up format, an icon and a gesture name indicating the gesture trajectory associated with the gesture ID acquired by the gesture candidate acquisition unit 301 (step S605). Then, the display with tablet function 101 displays an inputable gesture in a pop-up format based on the signal input by the gesture display processing unit 304 (step S606).

次に、以上により構成された本実施の形態に係るPDA300のジェスチャ候補取得部301がペン入力情報に基づいて、表示するジェスチャの候補を取得するまでの処理について説明する。図10は本実施の形態にかかるPDA300のジェスチャ候補取得部301がペン入力情報に基づいて、表示するジェスチャの候補を取得するまでの全体処理を示すフローチャートである。   Next, a process until the gesture candidate acquisition unit 301 of the PDA 300 according to the present embodiment configured as described above acquires a gesture candidate to be displayed based on the pen input information will be described. FIG. 10 is a flowchart showing the entire process until the gesture candidate acquisition unit 301 of the PDA 300 according to the present embodiment acquires a gesture candidate to be displayed based on the pen input information.

ジェスチャ候補取得部301は、入力処理部305から入力されたペン入力情報が保持するペンデバイス150の磁気信号を検出した位置座標が、どのジェスチャ領域内にあるのか特定する(ステップS901)。   The gesture candidate acquisition unit 301 specifies in which gesture region the position coordinate where the magnetic signal of the pen device 150 held by the pen input information input from the input processing unit 305 is detected is located (step S901).

次に、ジェスチャ候補取得部301は、特定されたジェスチャ領域から、ジェスチャ領域テーブルを検索してセットIDを取得する(ステップS902)。例えば、特定されたジェスチャ領域がGestureArea1であった場合、ジェスチャ候補取得部301は、図7で示したジェスチャ領域テーブルを検索すると、セットID’01’を取得する。   Next, the gesture candidate acquisition unit 301 searches the gesture area table from the specified gesture area and acquires a set ID (step S902). For example, when the specified gesture area is GestureArea1, the gesture candidate acquisition unit 301 acquires the set ID “01” when searching the gesture area table shown in FIG.

そして、ジェスチャ候補取得部301は、取得したセットIDに基づいて、表示ジェスチャテーブルを検索して表示するジェスチャID及びジェスチャ名を取得する(ステップS903)。ただし、表示フラグが’1’の場合のジェスチャID及びジェスチャ名のみ取得する。例えば、セットID’01’で表示フラグ’1’という条件に基づいて、ジェスチャ候補取得部301が、図6で示した表示ジェスチャテーブルを検索することで、ジェスチャID’01’でジェスチャ名’Check’及びジェスチャID’02’でジェスチャ名’Circle’を取得する。そしてジェスチャ候補取得部301は、取得したジェスチャをジェスチャ表示処理部304に出力する。   Based on the acquired set ID, the gesture candidate acquisition unit 301 searches the display gesture table and acquires a gesture ID and a gesture name to be displayed (step S903). However, only the gesture ID and the gesture name when the display flag is “1” are acquired. For example, based on the condition of the display flag “1” with the set ID “01”, the gesture candidate acquisition unit 301 searches the display gesture table illustrated in FIG. 6, thereby gesturing the gesture name “Check” with the gesture ID “01”. The gesture name “Circle” is acquired with “and gesture ID“ 02 ”. Then, the gesture candidate acquisition unit 301 outputs the acquired gesture to the gesture display processing unit 304.

図11は、上述した処理に基づいて入力可能なジェスチャがポップアップ形式で表示されたタブレット機能付ディスプレイ101の画面例を示した図である。上述した処理により、タブレット機能付ディスプレイ101は’Check’、’Circle’について表示する。ジェスチャ702、703はジェスチャIDに対応した軌跡を表示したものであり、ペンデバイス150で表示された軌跡を描くことで、ジェスチャに対応した処理がなされる。またジェスチャ名’All’は入力可能な全てのジェスチャを表示するためのジェスチャであり、ポップアップ形式で表示するときは常に表示される。なお、ジェスチャ’All’に対応した軌跡704を描いた場合は、表示フラグに関係なく表示ジェスチャテーブルが保持するペンデバイス150を検知した位置座標を含むジェスチャ領域と対応した全てのジェスチャをタブレット機能付ディスプレイ101上に表示する。   FIG. 11 is a diagram illustrating a screen example of the tablet function-equipped display 101 on which gestures that can be input based on the above-described process are displayed in a pop-up format. Through the processing described above, the display 101 with the tablet function displays “Check” and “Circle”. The gestures 702 and 703 display a trajectory corresponding to the gesture ID. By drawing the trajectory displayed by the pen device 150, processing corresponding to the gesture is performed. The gesture name 'All' is a gesture for displaying all the gestures that can be input, and is always displayed when displayed in a pop-up format. When the trajectory 704 corresponding to the gesture “All” is drawn, all the gestures corresponding to the gesture area including the position coordinates detected by the pen gesture 150 held by the display gesture table regardless of the display flag are provided with the tablet function. It is displayed on the display 101.

なお、ジェスチャ入力モードであると判定された場合に限り、入力可能なジェスチャをポップアップ形式で表示することに制限するものではなく、ストローク入力モードの場合に入力可能なジェスチャをポップアップ形式で表示することにしても良い。   In addition, only when it is determined that it is the gesture input mode, it is not limited to displaying the input gesture in the pop-up format, but the input gesture in the stroke input mode is displayed in the pop-up format. Anyway.

また、タブレット機能付ディスプレイ101がペンデバイス150とタブレット機能付ディスプレイ101は非接触の状態であるが、一定の範囲内にあるとの認識は磁気信号の強さにより判断するが、この一定範囲内により示されるタブレット機能付ディスプレイ101とペンデバイス150の間の距離は、実際の磁気信号の強さ及び利用者の使用時の利便性を考慮して決定する。   In addition, although the display 101 with the tablet function is in a non-contact state between the pen device 150 and the display 101 with the tablet function, the recognition that the display is within a certain range is determined by the strength of the magnetic signal. The distance between the display with tablet function 101 and the pen device 150 indicated by is determined in consideration of the strength of the actual magnetic signal and the convenience of use by the user.

なお、非接触と判断された場合に入力可能なジェスチャをポップアップ形式で表示することに制限するものではなく、接触している場合に入力可能なジェスチャを表示しても良い。ただし、入力モードの切り替えを予め定められた時間内に2回接触した場合等とし、入力モードの切り替えの処理とポップアップ形式で表示する処理を混同させないようにする必要がある。   Note that the gesture that can be input when it is determined to be non-contact is not limited to being displayed in a pop-up format, and a gesture that can be input when the user is in contact may be displayed. However, it is necessary to prevent the input mode switching process from being confused with the pop-up display process when the input mode is switched twice within a predetermined time.

また、入力可能なジェスチャを表示するのはポップアップ形式で表示することに制限するものではなく、利用者が入力可能なジェスチャを視認できる形式で表示するものであれば良い。   In addition, the display of gestures that can be input is not limited to display in a pop-up format, and any gesture that can be input by a user may be displayed.

以上のように、第2の実施の形態にかかるPDA300により、ジェスチャ領域毎に入力可能なジェスチャを表示することで、利用者は入力可能なジェスチャを視認してからジェスチャを入力することが可能となったため、PDA300の利便性が向上した。   As described above, the PDA 300 according to the second embodiment displays the gestures that can be input for each gesture region, so that the user can input the gesture after visually recognizing the input gesture. As a result, the convenience of the PDA 300 is improved.

(第3の実施の形態)
第2の実施の形態では、PDA300は領域に応じて表示フラグが’1’であれば入力可能なジェスチャを全て表示した。しかし第3の実施の形態では、ジェスチャが入力された頻度に基づいて、入力可能なジェスチャを表示することとした。
(Third embodiment)
In the second embodiment, the PDA 300 displays all input gestures if the display flag is “1” according to the area. However, in the third embodiment, the gestures that can be input are displayed based on the frequency at which the gestures are input.

図12は、第3の実施の形態にかかるPDA1000の構成を示すブロック図である。上述した第2の実施の形態にかかるPDA300とは、ジェスチャ履歴更新部1003が追加され、ジェスチャ候補取得部301と処理が異なるジェスチャ候補取得部1001に変更され、また記憶部302と記憶するテーブルが異なる記憶部1002に変更されている点で異なる。以下の説明では、上述した実施の形態1と同一の構成要素には同一の符号を付してその説明を省略している。   FIG. 12 is a block diagram showing a configuration of a PDA 1000 according to the third embodiment. The PDA 300 according to the second embodiment described above includes a gesture history update unit 1003, is changed to a gesture candidate acquisition unit 1001 that is different in processing from the gesture candidate acquisition unit 301, and has a table stored in the storage unit 302. It is different in that it is changed to a different storage unit 1002. In the following description, the same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

記憶部1002は、表示ジェスチャ履歴テーブル及びジェスチャ領域テーブルを記憶し、後述するジェスチャ候補取得部1001により表示するジェスチャを取得する時に用いられる。なお、ジェスチャ領域テーブルの構造は第2の実施の形態におけるジェスチャ領域テーブルと同じ構造であるため説明を省略する。   The storage unit 1002 stores a display gesture history table and a gesture region table, and is used when a gesture to be displayed is acquired by a gesture candidate acquisition unit 1001 described later. The structure of the gesture area table is the same as that of the gesture area table according to the second embodiment, and a description thereof will be omitted.

図13は、本実施の形態に用いられる表示ジェスチャ履歴テーブルの一例を示した図である。本図に示すように、セットIDと、ジェスチャID、ジェスチャ名、頻度を対応付けたレコードを保持する。セットID、ジェスチャID、ジェスチャ名は第2の実施の形態にかかる表示ジェスチャテーブルで説明したので省略する。頻度は、対応付けられたジェスチャが利用者から入力された回数を示したものである。   FIG. 13 is a diagram showing an example of a display gesture history table used in the present embodiment. As shown in the figure, a record in which a set ID is associated with a gesture ID, a gesture name, and a frequency is held. Since the set ID, the gesture ID, and the gesture name have been described in the display gesture table according to the second embodiment, a description thereof will be omitted. The frequency indicates the number of times the associated gesture is input from the user.

図12に戻り、ジェスチャ候補取得部1001は、入力モード判定部104がジェスチャ入力モードと判定した場合に、入力されたペン入力情報から、表示ジェスチャテーブル及びジェスチャ領域テーブルに基づいて、入力可能なジェスチャのうち入力された頻度が高い順から1つのジェスチャに対応したジェスチャIDとジェスチャ名を取得する。なお、具体的な取得手順は後述する。   Returning to FIG. 12, when the input mode determination unit 104 determines the gesture input mode, the gesture candidate acquisition unit 1001 can input gestures that can be input from the input pen input information based on the display gesture table and the gesture region table. The gesture ID and the gesture name corresponding to one gesture are acquired in descending order of the input frequency. A specific acquisition procedure will be described later.

ジェスチャ履歴更新部1003は、記憶部1002が記憶する表示ジェスチャ履歴テーブルに対して、ジェスチャ認識部105が認識したジェスチャと対応付けられた履歴に1を加算して更新する。ジェスチャ履歴更新部1003を備えることで、最新の履歴情報により、入力された頻度が最も高い順から入力可能なジェスチャをポップアップ形式で表示することが可能となる。   The gesture history update unit 1003 updates the display gesture history table stored in the storage unit 1002 by adding 1 to the history associated with the gesture recognized by the gesture recognition unit 105. By including the gesture history update unit 1003, it is possible to display, in a pop-up format, gestures that can be input in the order of the highest frequency of input, based on the latest history information.

そして、以上により構成された本実施の形態に係るPDA1000においてペンデバイス150を検知してから入力可能なジェスチャをポップアップ形式で表示するまでの処理は、図9で示した第2の実施の形態に係るポップアップ形式で表示するまでの処理と原則として同様であるが、ステップS604で行われたジェスチャ候補取得部301による処理だけ、ジェスチャ候補取得部1001による処理に変更する必要がある。この全体の処理手順は省略する。   In the PDA 1000 according to the present embodiment configured as described above, the processing from when the pen device 150 is detected until the inputable gesture is displayed in a pop-up format is the same as that in the second embodiment shown in FIG. Although it is the same as that of the process until it displays in such a pop-up format in principle, it is necessary to change only the process by the gesture candidate acquisition part 301 performed in step S604 to the process by the gesture candidate acquisition part 1001. This entire processing procedure is omitted.

次に、以上により構成された本実施の形態に係るPDA1000のジェスチャ候補取得部1001がペン入力情報に基づいて、表示するジェスチャの候補を取得するまでの処理手順を説明する。図14は本実施の形態にかかるPDA1000のジェスチャ候補取得部301がペン入力情報に基づいて、表示するジェスチャの候補を取得するまでのフローチャートである。   Next, a processing procedure until the gesture candidate acquisition unit 1001 of the PDA 1000 according to the present embodiment configured as described above acquires a gesture candidate to be displayed based on the pen input information will be described. FIG. 14 is a flowchart until the gesture candidate acquisition unit 301 of the PDA 1000 according to the present embodiment acquires a gesture candidate to be displayed based on the pen input information.

まず、ジェスチャ候補取得部1001は、第2の実施の形態にかかる図10のステップS901〜S902と同様にして、ペンデバイス150の磁気信号を検出した位置座標に基づいて、セットIDを取得する(ステップS1201〜S1202)。   First, the gesture candidate acquisition unit 1001 acquires a set ID based on the position coordinates at which the magnetic signal of the pen device 150 is detected in the same manner as steps S901 to S902 in FIG. 10 according to the second embodiment ( Steps S1201 to S1202).

そして、ジェスチャ候補取得部1001は、表示ジェスチャ履歴テーブルを検索し、取得したセットIDとセットIDが同一且つ頻度が最も高いジェスチャのジェスチャID及びジェスチャ名を取得する(ステップS1203)。例えば、ジェスチャ候補取得部1001は、セットID’01’で頻度が最も高いという条件で、図13で示した表示ジェスチャ履歴テーブルを検索する。次に検索結果として、ジェスチャ候補取得部1001は、セットID’01’、頻度'5'と対応付けられていたジェスチャID’01’及びジェスチャ名’Check’を取得する。そしてジェスチャ候補取得部1001は、取得したジェスチャID及びジェスチャ名をジェスチャ表示処理部304に出力する。   Then, the gesture candidate acquisition unit 1001 searches the display gesture history table, and acquires a gesture ID and a gesture name of the gesture having the same set ID and the highest frequency as the acquired set ID (step S1203). For example, the gesture candidate acquisition unit 1001 searches the display gesture history table illustrated in FIG. 13 under the condition that the frequency is the highest with the set ID “01”. Next, as a search result, the gesture candidate acquisition unit 1001 acquires a gesture ID “01” and a gesture name “Check” associated with the set ID “01” and the frequency “5”. The gesture candidate acquisition unit 1001 then outputs the acquired gesture ID and gesture name to the gesture display processing unit 304.

そして、ジェスチャ表示処理部304が、入力されたジェスチャID及びジェスチャ名に基づいてジェスチャを表示するための処理を行うことで、タブレット機能付ディスプレイ101に入力可能で最も頻度が高いジェスチャが表示される。   Then, the gesture display processing unit 304 performs processing for displaying the gesture based on the input gesture ID and the gesture name, so that the most frequently input gesture that can be input to the tablet function-equipped display 101 is displayed. .

図15は、上述した処理に基づいて入力可能なジェスチャがポップアップ形式で表示されたタブレット機能付ディスプレイ101の画面例を示した図である。タブレット機能付ディスプレイ101は入力可能であり最も頻度が高いジェスチャである’Check’を表示する。また第2の実施の形態と同様にジェスチャ名’All’は入力可能な全てのジェスチャを表示するためのジェスチャであり、ポップアップ形式で表示するときは常に表示される。なお、ジェスチャ’All’に対応した軌跡を描いた場合は、頻度に関係なく表示ジェスチャ履歴テーブルが保持するペンデバイス150を検知した位置座標のジェスチャ領域と対応した入力可能な全てのジェスチャをタブレット機能付ディスプレイ101上に表示する。   FIG. 15 is a diagram illustrating a screen example of the display 101 with a tablet function in which a gesture that can be input based on the above-described process is displayed in a pop-up format. The display with tablet function 101 displays “Check”, which is the most frequently used gesture that can be input. Similarly to the second embodiment, the gesture name 'All' is a gesture for displaying all the gestures that can be input, and is always displayed when displaying in a pop-up format. When a trajectory corresponding to the gesture “All” is drawn, all the gestures that can be input corresponding to the gesture area of the position coordinates detected by the pen device 150 held in the display gesture history table regardless of the frequency are tablet functions. It is displayed on the attached display 101.

図16は、PDA1000がジェスチャ認識を一度も行われていない状態においてポップアップ形式で表示したタブレット機能付ディスプレイ101の画面例を示した図である。初期状態では記憶部1002が記憶する表示ジェスチャ履歴テーブルの頻度が全て’0’と設定されているため、ジェスチャ候補取得部1001は最も高い頻度のジェスチャが無いため、本図のように表示する。他の表示方法として、初期状態においてはタブレット機能付ディスプレイ101上に全てのジェスチャを表示すること等も考えられる。   FIG. 16 is a diagram showing a screen example of the display 101 with a tablet function displayed in a pop-up format when the PDA 1000 has not yet performed gesture recognition. In the initial state, since the frequencies of the display gesture history table stored in the storage unit 1002 are all set to “0”, the gesture candidate acquisition unit 1001 displays as shown in this figure because there is no gesture with the highest frequency. As another display method, displaying all gestures on the display with tablet function 101 in the initial state may be considered.

なお、頻度が高い順から1つ表示することに制限するものではなく頻度の高い順から予め定められた数だけ表示するものであれば良い。また、本実施の形態は、頻度の高い順から表示することに制限するものではなく、頻度を用いてジェスチャを表示するか否か判定するものであればよい。表示方法の他の例としては、頻度が低い順からジェスチャを表示することが考えられる。   It should be noted that the display is not limited to one in the descending order of frequency, but may be a predetermined number from the descending order of frequency. In addition, the present embodiment is not limited to display in the order of frequency, and may be anything that determines whether or not to display a gesture using frequency. As another example of the display method, it is conceivable to display the gestures in ascending order of frequency.

また、本実施の形態においては、頻度に基づいて表示するジェスチャを判定することとしたが、頻度以外の情報に基づいて、ジェスチャを表示することも考えられる。例えば、頻度ではなく、最後に入力されたジェスチャから順に表示することも考えられる。この場合、記憶部で保持するテーブルは、表示ジェスチャ履歴テーブルの列’頻度’の代わりに列’更新時刻’を保持する表示ジェスチャ更新時刻テーブルとする。そして表示ジェスチャ更新時刻テーブルに対して更新時刻を更新するジェスチャ時刻更新部を備え、ジェスチャが入力される毎に、ジェスチャに対応した更新時刻を更新する。これにより最後に入力されたジェスチャが表示されるため利便性が向上した。また、更新時刻と頻度を組み合わせてジェスチャをポップアップ形式で表示することにしても良い。   In the present embodiment, the gesture to be displayed is determined based on the frequency. However, it is also possible to display the gesture based on information other than the frequency. For example, it is possible to display not the frequency but the last input gesture. In this case, the table held in the storage unit is a display gesture update time table that holds the column “update time” instead of the column “frequency” of the display gesture history table. A gesture time update unit that updates the update time with respect to the display gesture update time table is provided, and the update time corresponding to the gesture is updated each time a gesture is input. This improves the convenience because the last input gesture is displayed. Further, the gesture may be displayed in a pop-up format by combining the update time and the frequency.

第3の実施の形態においては、ジェスチャ領域毎に使用した頻度の高い順にジェスチャを表示することとした。このため使用頻度が低いため重要度が低いと考えられるジェスチャを表示せず、また使用頻度が高いため重要度が高いと考えられるジェスチャのみ表示するため、利用者はジェスチャが表示された直後に重要度が高いジェスチャを視認することで所望の操作を行えることとなり、PDA1000の利便性が向上した。   In the third embodiment, the gestures are displayed in the order of frequency of use for each gesture region. For this reason, gestures that are considered to be less important because they are used less frequently are not displayed, and only those that are considered important because they are used more frequently are displayed, so the user is important immediately after the gesture is displayed. A user can perform a desired operation by visually recognizing a gesture having a high degree, and the convenience of the PDA 1000 is improved.

また、利用者のジェスチャを利用した頻度に基づいてジェスチャを表示するか否かを判断するため、利用者の利用状況に基づいて適切なジェスチャの表示が可能となり、PDA1000の利便性が向上した。   In addition, since it is determined whether or not to display a gesture based on the frequency of using the user's gesture, it is possible to display an appropriate gesture based on the user's usage status, and the convenience of the PDA 1000 is improved.

(第4の実施の形態)
第3の実施の形態にかかるPDAまでは、認識されるジェスチャのサイズについて判断しなかった。第4の実施の形態にかかるPDAでは、認識されるジェスチャのサイズにより行う処理を変更するものである。
(Fourth embodiment)
Until the PDA according to the third embodiment, the size of the recognized gesture was not determined. In the PDA according to the fourth embodiment, the processing to be performed is changed depending on the size of the recognized gesture.

図17は、第4の実施の形態にかかるPDA1600の構成を示すブロック図である。上述した第1の実施の形態にかかるPDA100とは、ジェスチャ認識部105とは処理が異なるジェスチャ認識部1601に変更され、ジェスチャ処理部106と処理が異なるジェスチャ処理部1603に変更された点で異なる。以下の説明では、上述した実施の形態1と同一の構成要素には同一の符号を付してその説明を省略している。   FIG. 17 is a block diagram showing a configuration of a PDA 1600 according to the fourth embodiment. The PDA 100 according to the first embodiment described above is different from the PDA 100 according to the first embodiment in that the processing is changed to a gesture recognition unit 1601 that is different from the gesture recognition unit 105 and is changed to a gesture processing unit 1603 that is different from the gesture processing unit 106. . In the following description, the same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

ジェスチャ認識部1601は、入力されたペン入力情報が保持していたタブレット機能付ディスプレイ101上に描かれた軌跡からジェスチャを認識する。また、ジェスチャ認識部1601は、領域算出部1602を備えており、ジェスチャとして描かれた軌跡による領域の大きさを算出する。なお、ジェスチャ認識の方式は、既存のいかなる方法を用いても良い。   The gesture recognition unit 1601 recognizes a gesture from a trajectory drawn on the display 101 with a tablet function held by the input pen input information. The gesture recognition unit 1601 includes an area calculation unit 1602 and calculates the size of the area based on the locus drawn as the gesture. Any existing method may be used as the gesture recognition method.

領域算出部1602は、ジェスチャとして描かれた軌跡が占める領域の面積を算出する。領域算出部1602は、軌跡が占める領域の面積として、タブレット機能付ディスプレイ101の描画領域の辺と平行となる辺を有する矩形の面積であり、ジェスチャとして描かれた軌跡と外接する矩形の面積を算出する。   The area calculation unit 1602 calculates the area of the area occupied by the trajectory drawn as a gesture. The area calculation unit 1602 is a rectangular area having a side parallel to the side of the drawing area of the tablet function display 101 as the area of the area occupied by the locus, and the area of the rectangle circumscribing the locus drawn as the gesture is calculated. calculate.

ジェスチャ処理部1603は、ジェスチャ認識部105が認識したジェスチャ及び領域算出部1602が算出した領域の面積に基づいて処理を行う。例えば、タブレット機能付ディスプレイ101に描画されているのが地図であり、認識されたジェスチャが拡大縮小である場合に、ジェスチャとして描かれた軌跡が占める領域及び地図の表示領域の面積に基づいて拡大率を導出し、タブレット機能付ディスプレイ101には導出された拡大率により地図を拡大して表示する等の処理を行う。なお、具体的な処理は後述する。   The gesture processing unit 1603 performs processing based on the gesture recognized by the gesture recognition unit 105 and the area of the region calculated by the region calculation unit 1602. For example, when a map is drawn on the display with tablet function 101 and the recognized gesture is an enlargement / reduction, enlargement is based on the area occupied by the locus drawn as the gesture and the area of the display area of the map The rate is derived, and the display with tablet function 101 performs processing such as enlarging and displaying the map with the derived magnification rate. Specific processing will be described later.

次に、以上により構成された本実施の形態に係るPDA1600においてペンデバイス150より入力されてからタブレット機能付ディスプレイ101に表示するまでの処理を説明する。図18は本実施の形態にかかるPDA1600においてペンデバイス150で入力されてタブレット機能付ディスプレイ101に表示するまでフローチャートである。なお、本図においてはペン入力の接触時間による入力モードの切り替え処理を省略する。   Next, processing from the input from the pen device 150 to the display on the display 101 with the tablet function in the PDA 1600 according to the present embodiment configured as described above will be described. FIG. 18 is a flowchart from the PDA 1600 according to the present embodiment until it is input by the pen device 150 and displayed on the display 101 with the tablet function. In this figure, the input mode switching process based on the contact time of pen input is omitted.

タブレット機能付ディスプレイ101は、ペンデバイス150を用いて指示された位置座標を入力する(ステップS1701)。次に入力処理部102は、タブレット機能付ディスプレイ101から入力された位置座標等に基づいてペン入力情報を生成する(ステップS1702)。そして入力モード判定部104は、入力モードがジェスチャ入力モードであるか否かを判定する(ステップS1703)。なお、入力モード判定部104が、入力モードがストローク入力モードと判定した場合は(ステップS1703:No)、第1の実施の形態で示した処理手順と同様にペン入力情報をストローク処理部107に出力し、ストローク処理部107が処理を行う(図示しない)。   The display 101 with the tablet function inputs the position coordinates instructed using the pen device 150 (step S1701). Next, the input processing unit 102 generates pen input information based on the position coordinates and the like input from the tablet function-equipped display 101 (step S1702). Then, the input mode determination unit 104 determines whether or not the input mode is the gesture input mode (step S1703). When the input mode determination unit 104 determines that the input mode is the stroke input mode (step S1703: No), the pen input information is sent to the stroke processing unit 107 in the same manner as the processing procedure described in the first embodiment. The stroke processing unit 107 performs processing (not shown).

入力モード判定部104がジェスチャ入力モードと判定した場合(ステップS1703:Yes)、入力処理部102により生成されたペン入力情報は、ジェスチャ認識部105に出力される。ジェスチャ認識部1601はペン入力情報が保持していたタブレット機能付ディスプレイ101上に描かれた軌跡からジェスチャを認識する(ステップS1704)。そして、領域算出部1602は、タブレット機能付ディスプレイ101上に描かれた軌跡が占める領域の面積を算出する(ステップS1705)。   When the input mode determination unit 104 determines that the input mode is the gesture input mode (step S1703: Yes), the pen input information generated by the input processing unit 102 is output to the gesture recognition unit 105. The gesture recognition unit 1601 recognizes the gesture from the locus drawn on the display 101 with the tablet function held by the pen input information (step S1704). Then, the area calculation unit 1602 calculates the area of the area occupied by the locus drawn on the tablet function-equipped display 101 (step S1705).

ジェスチャ処理部1603は、ジェスチャ認識部1601により認識されたジェスチャ及び領域算出部により算出された領域の面積に基づいた処理を行う(ステップS1706)。詳細な例としては、算出された領域の面積が地図の表示領域の面積と比較し、比較した結果に基づいて拡大するか縮小するかを決定する。さらには面積の比率に応じて拡大率あるいは縮小率を決定することも考えられる。   The gesture processing unit 1603 performs processing based on the gesture recognized by the gesture recognition unit 1601 and the area of the region calculated by the region calculation unit (step S1706). As a detailed example, the area of the calculated region is compared with the area of the display region of the map, and whether to enlarge or reduce is determined based on the comparison result. Further, it is conceivable to determine the enlargement ratio or reduction ratio according to the area ratio.

次に表示処理部108は、ステップS1706による処理結果を表示するための処理を行う(ステップS1707)。そしてタブレット機能付ディスプレイ101は、表示処理部108で処理された結果を表示する(ステップS1708)。   Next, the display processing unit 108 performs processing for displaying the processing result in step S1706 (step S1707). The display with tablet function 101 displays the result processed by the display processing unit 108 (step S1708).

上述した処理手順により、入力されたジェスチャのみならず、軌跡として描かれた領域の占める面積に基づいた処理が可能となる。   By the processing procedure described above, processing based not only on the input gesture but also on the area occupied by the region drawn as the trajectory becomes possible.

次に、上述した処理手順において、ジェスチャ認識部1601が縮小拡大を示すジェスチャと認識した場合の処理について説明する。図19は、ジェスチャ認識部1601が縮小拡大を示すジェスチャと認識した場合の図18のステップS1704からステップS1706までの詳細な処理手順を示すフローチャートである。なお、本処理手順において、タブレット機能付ディスプレイ101は、地図を表示しているものとする。   Next, in the processing procedure described above, processing when the gesture recognition unit 1601 recognizes a gesture indicating reduction / enlargement will be described. FIG. 19 is a flowchart showing a detailed processing procedure from step S1704 to step S1706 in FIG. 18 when the gesture recognition unit 1601 recognizes a gesture indicating reduction / enlargement. In this processing procedure, it is assumed that the display with tablet function 101 displays a map.

ジェスチャ認識部1601は、ペン入力情報が保持していたタブレット機能付ディスプレイ101上に描かれた軌跡から、拡大縮小を示すジェスチャを認識する(ステップS1801)。   The gesture recognition unit 1601 recognizes a gesture indicating enlargement / reduction from the locus drawn on the tablet function-equipped display 101 held in the pen input information (step S1801).

次に領域算出部1602は、タブレット機能付ディスプレイ101上に描かれた軌跡が占める領域の面積を算出する(ステップS1802)。   Next, the area calculation unit 1602 calculates the area of the area occupied by the locus drawn on the tablet function-equipped display 101 (step S1802).

そしてジェスチャ処理部1603は、ジェスチャ認識部1601から入力された情報から拡大縮小を行うこととし、さらに領域算出部1602により算出された領域の面積が地図の描画領域の面積より大きいか否かを判定する(ステップS1803)。   The gesture processing unit 1603 performs enlargement / reduction from the information input from the gesture recognition unit 1601, and further determines whether or not the area area calculated by the area calculation unit 1602 is larger than the area of the map drawing area. (Step S1803).

ジェスチャ処理部1603は、領域算出部1602により算出された領域の方が小さいと判定した場合(ステップS1803:No)、ジェスチャ処理部1603は、領域算出部1602により算出された領域の面積と地図の描画領域の面積の比率を算出する(ステップS1804)。   If the gesture processing unit 1603 determines that the region calculated by the region calculation unit 1602 is smaller (step S1803: No), the gesture processing unit 1603 calculates the area area calculated by the region calculation unit 1602 and the map area. The ratio of the area of the drawing area is calculated (step S1804).

図20は、ジェスチャ処理部1603が地図の描画領域より算出された領域の面積の方が小さいと判定された場合の画面例を示した図である。黒線で示された楕円がペンデバイス150で描かれたジェスチャであり、領域算出部1602により算出される領域は、破線による矩形で示された領域1901となる。そして、ジェスチャ処理部1603は、ステップS1803において、領域1901による面積と、地図の描画領域1902の面積の比較を行った。次にジェスチャ処理部1603は、ステップS1804において、地図の描画領域1902の面積と領域1901による面積の比率を算出した。   FIG. 20 is a diagram illustrating a screen example when the gesture processing unit 1603 determines that the area of the area calculated from the map drawing area is smaller. An ellipse indicated by a black line is a gesture drawn by the pen device 150, and an area calculated by the area calculation unit 1602 is an area 1901 indicated by a rectangle by a broken line. In step S1803, the gesture processing unit 1603 compares the area of the region 1901 with the area of the map drawing region 1902. Next, in step S1804, the gesture processing unit 1603 calculates the ratio of the area of the map drawing area 1902 and the area of the area 1901.

図19に戻り、ジェスチャ処理部1603は、算出された比率を拡大率として地図を描画する旨を表示処理部108に出力する(ステップS1805)。つまり拡大率が入力された表示処理部108は、領域1901で示された領域を描画領域1902全体に表示するための処理を行う。   Returning to FIG. 19, the gesture processing unit 1603 outputs to the display processing unit 108 that the map is drawn with the calculated ratio as an enlargement ratio (step S <b> 1805). That is, the display processing unit 108 to which the enlargement ratio is input performs a process for displaying the area indicated by the area 1901 in the entire drawing area 1902.

ジェスチャ処理部1603は、領域算出部1602により算出された領域の方が大きいと判定した場合(ステップS1803:Yes)、ジェスチャ処理部1603は、デフォルトの縮小率で地図を描画する旨を表示処理部108に出力する(ステップS1806)。デフォルトの縮小率とは、予め設定されている縮小率を示し、利用者の利便性に基づいて設定するものとする。デフォルトの縮小率としては、例えば1/2などが考えられる。   If the gesture processing unit 1603 determines that the region calculated by the region calculation unit 1602 is larger (step S1803: Yes), the gesture processing unit 1603 displays that the map is drawn with the default reduction ratio. (Step S1806). The default reduction ratio indicates a preset reduction ratio, and is set based on user convenience. As the default reduction rate, for example, 1/2 may be considered.

図21は、ジェスチャ処理部1603が地図の描画領域より算出された領域の面積の方が大きいと判定された場合の画面例を示した図である。そして、黒線で示された楕円がペンデバイス150で描かれたジェスチャであり、領域算出部1602により算出される領域は、破線による矩形で示された領域2001となる。そして、ジェスチャ処理部は、ステップS1803において、領域2001による面積と、地図の描画領域1902の面積の比較を行った。   FIG. 21 is a diagram showing a screen example when the gesture processing unit 1603 determines that the area of the area calculated from the map drawing area is larger. An ellipse indicated by a black line is a gesture drawn by the pen device 150, and an area calculated by the area calculating unit 1602 is an area 2001 indicated by a rectangle indicated by a broken line. In step S1803, the gesture processing unit compares the area of the area 2001 with the area of the map drawing area 1902.

そして、上述した処理により縮小拡大する旨を取得した表示処理部108は、縮小拡大表示するための処理が行い、タブレット機能付ディスプレイ101は縮小拡大した地図を表示することが可能となる。   The display processing unit 108 that has acquired the effect of reducing and enlarging through the above-described processing performs processing for reducing and enlarging the display, and the display with tablet function 101 can display the reduced and enlarged map.

本実施の形態のPDA1600は、ペンデバイスで描画するときにジェスチャのサイズを変更するだけで、縮小か拡大か選択することが可能となり、さらに拡大率をも変更することが可能となった。   The PDA 1600 according to the present embodiment can select reduction or enlargement by changing only the gesture size when drawing with a pen device, and can also change the enlargement ratio.

なお、本実施の形態は、ジェスチャの大小の判定を、面積に基づいて判定するものに制限するものではない。   Note that the present embodiment does not limit the determination of the size of a gesture to the determination based on the area.

また、本実施の形態においては、ジェスチャとして描かれた軌跡の面積に基づいて拡大縮小する場合について説明したが、描画領域を変更するジェスチャが認識された場合において、ジェスチャの向きと方向に基づいて描画範囲を変更するなど様々な処理に用いることが考えられる。例えば、ジェスチャとして矢印が描かれた場合、矢印方向の地図の表示する処理を行う場合、矢印の大きさに比例して地図を描画する領域の移動量が決定される等が考えられる。   Further, in the present embodiment, the case of enlarging / reducing based on the area of the trajectory drawn as a gesture has been described. However, when a gesture for changing the drawing area is recognized, based on the direction and direction of the gesture. It can be used for various processes such as changing the drawing range. For example, when an arrow is drawn as a gesture, when a map display process in the direction of the arrow is performed, the amount of movement of a map drawing area may be determined in proportion to the size of the arrow.

なお、本実施の形態においては、第1の実施の形態に係るPDA100のジェスチャ認識部105の処理をジェスチャ認識部1601に変更した形態の説明をしたが、第2の実施の形態に係るPDA300あるいは第3の実施の形態に係るPDA1000のジェスチャ認識部105をジェスチャ認識部1601に変更し、かつジェスチャ処理部106をジェスチャ処理部1603に変更した形態で、上述した処理を実施しても良い。   In the present embodiment, the description has been given of the mode in which the gesture recognition unit 105 of the PDA 100 according to the first embodiment is changed to the gesture recognition unit 1601, but the PDA 300 according to the second embodiment or The above-described processing may be performed in a form in which the gesture recognition unit 105 of the PDA 1000 according to the third embodiment is changed to the gesture recognition unit 1601 and the gesture processing unit 106 is changed to the gesture processing unit 1603.

第4の実施の形態においては、利用者に描かれた軌跡の領域の大きさに基づいて、PDA1600で行う処理を簡単に変更することが可能となった。   In the fourth embodiment, the processing performed by the PDA 1600 can be easily changed based on the size of the region of the locus drawn by the user.

ジェスチャ入力装置、ジェスチャ入力方法及びジェスチャ入力プログラムは、ジェスチャ入力を行う装置等に有用であり、特に、ペンデバイスにより入力された軌跡をジェスチャ入力とするか否かを切り替える技術として有用である。   The gesture input device, the gesture input method, and the gesture input program are useful for a device that performs gesture input, and are particularly useful as a technique for switching whether or not a trajectory input by a pen device is used as a gesture input.

第1の実施の形態に係るPDAの構成を示すブロック図である。It is a block diagram which shows the structure of PDA which concerns on 1st Embodiment. 第1の実施の形態に係るPDAにおいてペンデバイスによる入力からタブレット機能付ディスプレイに表示するまでのフローチャートである。It is a flowchart until it displays on the display with a tablet function from the input by a pen device in PDA which concerns on 1st Embodiment. 第1の実施の形態に係るPDAについてジェスチャ入力及びストローク入力された画面例を示した図である。It is the figure which showed the example of a screen by which gesture input and stroke input were carried out about PDA which concerns on 1st Embodiment. 第1の実施の形態に係るPDAのハードウェア構成を示した図である。It is the figure which showed the hardware constitutions of PDA which concerns on 1st Embodiment. 第2の実施の形態に係るPDAの構成を示すブロック図である。It is a block diagram which shows the structure of PDA which concerns on 2nd Embodiment. 第2の実施の形態に係るPDAの記憶部が記憶する表示ジェスチャテーブルの一例を示した図である。It is the figure which showed an example of the display gesture table which the memory | storage part of PDA which concerns on 2nd Embodiment memorize | stores. 第2の実施の形態に係るPDAの記憶部が記憶するジェスチャ領域テーブルの一例を示した図である。It is the figure which showed an example of the gesture area | region table which the memory | storage part of PDA which concerns on 2nd Embodiment memorize | stores. 第2の実施の形態に係るPDAのタブレット機能付ディスプレイ上に表示された画面の予め定められた領域とジェスチャ領域名とを対応付けて示した説明図である。It is explanatory drawing which matched and showed the predetermined area | region and gesture area | region name of the screen displayed on the display with a tablet function of PDA which concerns on 2nd Embodiment. 第2の実施の形態に係るPDAにおいてペンデバイスを検知してから入力可能なジェスチャをポップアップ形式で表示するまでのフローチャートである。It is a flowchart until it displays in a pop-up form the gesture which can be input after detecting a pen device in PDA concerning a 2nd embodiment. 第2の実施の形態に係るPDAのジェスチャ候補取得部がペン入力情報に基づいて、表示するジェスチャの候補を取得するまでのフローチャートである。It is a flowchart until the gesture candidate acquisition part of PDA which concerns on 2nd Embodiment acquires the candidate of the gesture to display based on pen input information. 第2の実施の形態に係るPDAにおいて入力可能なジェスチャがポップアップ形式で表示されたタブレット機能付ディスプレイの画面例を示した図である。It is the figure which showed the example of a screen of the display with a tablet function in which the gesture which can be input in PDA which concerns on 2nd Embodiment was displayed in the pop-up format. 第3の実施の形態にかかるPDAの構成を示すブロック図である。It is a block diagram which shows the structure of PDA concerning 3rd Embodiment. 第3の実施の形態に係るPDAの記憶部が記憶する表示ジェスチャ履歴テーブルの一例を示した図である。It is the figure which showed an example of the display gesture history table which the memory | storage part of PDA concerning 3rd Embodiment memorize | stores. 第3の実施の形態に係るPDAのジェスチャ候補取得部がペン入力情報に基づいて、表示するジェスチャの候補を取得するまでのフローチャートである。It is a flowchart until the gesture candidate acquisition part of PDA which concerns on 3rd Embodiment acquires the candidate of the gesture to display based on pen input information. 第3の実施の形態に係るPDAにおいて入力可能なジェスチャがポップアップ形式で表示されたタブレット機能付ディスプレイ101の画面例を示した図である。It is the figure which showed the example of a screen of the display 101 with a tablet function by which the gesture which can be input in PDA which concerns on 3rd Embodiment was displayed in the pop-up format. 第3の実施の形態に係るPDAがジェスチャ認識を一度も行われていない状態においてポップアップ形式で表示したタブレット機能付ディスプレイの画面例を示した図である。It is the figure which showed the example of a screen of the display with a tablet function displayed in the pop-up form in the state where PDA which concerns on 3rd Embodiment has not performed gesture recognition at all. 第4の実施の形態に係るPDAの構成を示すブロック図である。It is a block diagram which shows the structure of PDA which concerns on 4th Embodiment. 第4の実施の形態に係るPDAにおいてペンデバイスで入力されてタブレット機能付ディスプレイに表示するまでフローチャートである。It is a flowchart until it inputs with a pen device and displays on a display with a tablet function in PDA concerning a 4th embodiment. 第4の実施の形態に係るPDAにおいてジェスチャ認識部が縮小拡大を示すジェスチャと認識してから、認識したジェスチャに対応した処理を行うまでのフローチャートである。It is a flowchart until it performs the process corresponding to the recognized gesture after the gesture recognition part recognizes it as the gesture which shows reduction expansion in PDA which concerns on 4th Embodiment. 第4の実施の形態に係るPDAにおいてジェスチャ処理部が地図の描画領域より、領域算出部で算出された領域の面積の方が小さいと判定された場合の画面例を示した図である。It is the figure which showed the example of a screen in case the gesture process part determines with the area of the area | region calculated in the area | region calculation part being smaller than the drawing area of a map in PDA which concerns on 4th Embodiment. 第4の実施の形態に係るPDAにおいてジェスチャ処理部が地図の描画領域より、領域算出部で算出された領域の面積の方が大きいと判定された場合の画面例を示した図である。It is the figure which showed the example of a screen when it is determined that the area of the area | region calculated by the area | region calculation part is larger than the drawing area of a map in the PDA which concerns on 4th Embodiment.

符号の説明Explanation of symbols

100、300、1000、1600 PDA
101 タブレット機能付ディスプレイ
102、305 入力処理部
103 入力モード切替部
104 入力モード判定部
105、1601 ジェスチャ認識部
106 ジェスチャ処理部
107 ストローク処理部
108、303 表示処理部
150 ペンデバイス
301、1001 ジェスチャ候補取得部
302、1002 記憶部
304 ジェスチャ表示処理部
401、402 予め定められたジェスチャを認識する領域
403 ストローク入力を行った領域
501 GesutureArea1
502 GesutureArea2
503 GesutureArea3
504 GesutureArea4
505 GesutureArea5
506 GesutureArea6
601 CPU
602 ROM
603 RAM
604 表示部
605 入力I/F
606 通信I/F
701、1301、1401 ジェスチャのポップアップ表示
702〜704、1302、1303 ジェスチャの軌跡
1003 ジェスチャ履歴更新部
1602 領域算出部
1603 ジェスチャ処理部
1901 ジェスチャとして描かれた領域の面積
1902 地図の描画領域
100, 300, 1000, 1600 PDA
101 Display with Tablet Function 102, 305 Input Processing Unit 103 Input Mode Switching Unit 104 Input Mode Determination Unit 105, 1601 Gesture Recognition Unit 106 Gesture Processing Unit 107 Stroke Processing Unit 108, 303 Display Processing Unit 150 Pen Device 301, 1001 Get Gesture Candidate Unit 302, 1002 Storage unit 304 Gesture display processing unit 401, 402 A region for recognizing a predetermined gesture 403 A region where a stroke is input 501 GestureArea1
502 TextureArea2
503 TextureArea3
504 TextureArea4
505 TextureArea5
506 TextureArea6
601 CPU
602 ROM
603 RAM
604 Display unit 605 Input I / F
606 Communication I / F
701, 1301, 1401 Gesture pop-up display 702 to 704, 1302, 1303 Gesture trajectory 1003 Gesture history update unit 1602 Region calculation unit 1603 Gesture processing unit 1901 Area of region drawn as gesture 1902 Map drawing region

Claims (12)

座標入力面から位置座標を入力する入力手段と、
前記入力手段により入力された連続する複数の前記位置座標による特定の軌跡に対応して実行する処理を示すジェスチャを受け付けるジェスチャ入力モードの設定及び解除を、前記入力手段から前記座標入力面上の任意の領域の前記位置座標が入力された入力タイミングに基づいて切り替えるモード切替手段と、
前記モード切替手段による切り替えにより、前記ジェスチャ入力モードが設定された場合、前記入力手段により入力された前記軌跡による前記ジェスチャに対応した処理を実行するジェスチャ処理手段と、
を備えたことを特徴とするジェスチャ入力装置。
An input means for inputting position coordinates from the coordinate input surface;
The setting and release of the gesture input mode for accepting a gesture indicating processing to be executed corresponding to a specific locus by a plurality of consecutive position coordinates input by the input means can be arbitrarily set on the coordinate input surface from the input means. Mode switching means for switching based on the input timing at which the position coordinates of the area are input;
Gesture processing means for executing processing corresponding to the gesture by the trajectory input by the input means when the gesture input mode is set by switching by the mode switching means;
A gesture input device characterized by comprising:
前記モード切替手段は、前記入力タイミングとして入力された時間が、予め定められた時間以上である場合に前記ジェスチャ入力モードの設定及び解除を切り替えること
を特徴とする請求項1に記載のジェスチャ入力装置。
The gesture input device according to claim 1, wherein the mode switching unit switches between setting and canceling the gesture input mode when a time input as the input timing is equal to or longer than a predetermined time. .
前記モード切替手段は、前記ジェスチャ入力モードが設定されていた場合、前記入力タイミングに基づいて前記ジェスチャ入力モードを解除に切り替え、前記ジェスチャ入力モードを解除されていた場合、前記入力タイミングに基づいて前記ジェスチャ入力モードを設定に切り替え、
前記モード切替手段による切り替えにより、前記ジェスチャ入力モードが解除された場合、前記入力手段により入力された前記軌跡の形状を表示する処理を行うストローク処理手段と、
をさらに備えたことを特徴とする請求項1または請求項2に記載のジェスチャ入力装置。
The mode switching means switches the gesture input mode to cancel based on the input timing when the gesture input mode is set, and based on the input timing when the gesture input mode is cancelled. Switch gesture input mode to setting,
Stroke processing means for performing processing for displaying the shape of the trajectory input by the input means when the gesture input mode is canceled by switching by the mode switching means;
The gesture input device according to claim 1, further comprising:
前記座標入力面上の予め定められた検知領域と、該検知領域内で入力可能なジェスチャを示すジェスチャ情報と、を対応付けた領域ジェスチャ対応情報を記憶する領域ジェスチャ対応記憶手段と、
前記領域ジェスチャ対応記憶手段が記憶する前記領域ジェスチャ対応情報から、前記入力手段から入力された前記座標入力面上の前記位置座標を含む前記検知領域と対応付けられた前記ジェスチャ情報を取得する取得手段と、
前記取得手段により取得した前記ジェスチャ情報を表示するジェスチャ表示手段と、
をさらに備えたことを特徴とする請求項1乃至請求項3のいずれか1つに記載のジェスチャ入力装置。
Area gesture correspondence storage means for storing area gesture correspondence information in which a predetermined detection area on the coordinate input surface is associated with gesture information indicating a gesture that can be input in the detection area;
Acquisition means for acquiring the gesture information associated with the detection area including the position coordinates on the coordinate input surface input from the input means, from the area gesture correspondence information stored in the area gesture correspondence storage means. When,
Gesture display means for displaying the gesture information acquired by the acquisition means;
The gesture input device according to any one of claims 1 to 3, further comprising:
前記ジェスチャ情報と、前記ジェスチャ情報が示す前記ジェスチャが入力された頻度情報と、を対応付けたジェスチャ頻度対応情報を記憶するジェスチャ頻度対応記憶手段と、
前記取得手段は、前記領域ジェスチャ対応情報から、前記入力手段から入力された前記座標入力面上の前記位置座標を含む前記検知領域から、前記領域ジェスチャ対応情報で対応付けられた前記ジェスチャ情報を取得し、前記ジェスチャ頻度対応情報より取得した前記ジェスチャ情報と対応付けられた前記頻度情報に基づいて、前記ジェスチャ情報を取得すること
を特徴とする請求項4に記載のジェスチャ入力装置。
Gesture frequency correspondence storage means for storing gesture frequency correspondence information in which the gesture information is associated with frequency information with which the gesture indicated by the gesture information is input;
The acquisition means acquires the gesture information associated with the area gesture correspondence information from the detection area including the position coordinates on the coordinate input surface input from the input means from the area gesture correspondence information. The gesture input device according to claim 4, wherein the gesture information is acquired based on the frequency information associated with the gesture information acquired from the gesture frequency correspondence information.
前記取得手段は、前記領域ジェスチャ対応情報から、前記入力手段から入力された前記座標入力面上の前記位置座標を含む前記検知領域において、前記領域ジェスチャ対応情報で対応付けられた前記ジェスチャ情報を取得し、前記ジェスチャ頻度対応情報より、取得した前記ジェスチャ情報と対応付けられた前記頻度情報が最も高いものから順に予め定められた数の前記ジェスチャ情報を取得することを特徴とする請求項5に記載のジェスチャ入力装置。   The acquisition unit acquires, from the region gesture correspondence information, the gesture information associated with the region gesture correspondence information in the detection region including the position coordinates on the coordinate input surface input from the input unit. 6. The gesture information of a predetermined number is acquired in order from the highest frequency information associated with the acquired gesture information from the gesture frequency correspondence information. Gesture input device. 前記ジェスチャ表示手段は、前記取得手段により取得した前記ジェスチャ情報をポップアップ形式で表示することを特徴とする請求項4乃至請求項6のいずれか1つに記載のジェスチャ入力装置。   The gesture input device according to claim 4, wherein the gesture display unit displays the gesture information acquired by the acquisition unit in a pop-up format. 前記ジェスチャ処理手段は、前記ジェスチャ入力モードが設定されていた場合、前記入力手段により入力された前記軌跡、及び前記軌跡の占める領域が前記座標入力面上の予め定められた領域より大きいか否かにより定められる前記ジェスチャに対応した処理を行うこと
を特徴とする請求項1乃至請求項7のいずれか1つに記載のジェスチャ入力装置。
When the gesture input mode is set, the gesture processing means determines whether the trajectory input by the input means and an area occupied by the trajectory are larger than a predetermined area on the coordinate input surface. The gesture input device according to any one of claims 1 to 7, wherein a process corresponding to the gesture determined by the operation is performed.
前記ジェスチャ処理手段は、前記入力手段により入力された前記軌跡が占める領域の面積を算出する領域算出手段を、さらに備え、前記ジェスチャ入力モードが設定されていた場合、前記入力手段により入力された前記軌跡且つ前記軌跡の占める領域が前記座標入力面上の予め定められた領域より大きいか否かにより定められるジェスチャ、及び前記領域算出手段により算出された面積と前記座標入力面上の予め定められた領域の面積との比率に基づいた処理を行うこと
を特徴とする請求項8に記載のジェスチャ入力装置。
The gesture processing means further includes area calculation means for calculating the area of the area occupied by the trajectory input by the input means, and when the gesture input mode is set, the gesture input means input by the input means A gesture determined by whether or not a locus and a region occupied by the locus are larger than a predetermined region on the coordinate input surface, and an area calculated by the region calculation unit and a predetermined on the coordinate input surface The gesture input device according to claim 8, wherein the processing is performed based on a ratio with the area of the region.
前記ジェスチャ処理手段により行われた処理の結果を表示する表示手段と、
をさらに備えたことを特徴とする請求項1乃至請求項9に記載のジェスチャ入力装置。
Display means for displaying a result of processing performed by the gesture processing means;
The gesture input device according to claim 1, further comprising:
座標入力面から位置座標を入力する入力ステップと、
前記入力ステップにより入力された連続する複数の前記位置座標による特定の軌跡に対応して実行する処理を示すジェスチャを受け付けるジェスチャ入力モードの設定及び解除を、前記入力ステップから前記座標入力面上の任意の領域の前記位置座標が入力された入力タイミングに基づいて切り替えるモード切替ステップと、
前記モード切替ステップによる切り替えにより、前記ジェスチャ入力モードが設定された場合、前記入力ステップにより入力された前記軌跡による前記ジェスチャに対応した処理を実行するジェスチャ処理ステップと、
を備えたことを特徴とするジェスチャ入力方法。
An input step for inputting position coordinates from the coordinate input surface;
The setting and canceling of the gesture input mode for accepting a gesture indicating processing to be executed corresponding to a specific trajectory by a plurality of continuous position coordinates input in the input step can be arbitrarily set on the coordinate input surface from the input step. A mode switching step of switching based on the input timing at which the position coordinates of the area are input;
A gesture processing step for executing processing corresponding to the gesture by the trajectory input by the input step when the gesture input mode is set by switching by the mode switching step;
A gesture input method characterized by comprising:
座標入力面から位置座標を入力する入力手順と、
前記入力手順により入力された連続する複数の前記位置座標による特定の軌跡に対応して実行する処理を示すジェスチャを受け付けるジェスチャ入力モードの設定及び解除を、前記入力手順から前記座標入力面上の任意の領域の前記位置座標が入力された入力タイミングに基づいて切り替えるモード切替手順と、
前記モード切替手順による切り替えにより、前記ジェスチャ入力モードが設定された場合、前記入力手順により入力された前記軌跡による前記ジェスチャに対応した処理を実行するジェスチャ処理手順と、
をコンピュータに実行させるジェスチャ入力プログラム。
An input procedure for inputting position coordinates from the coordinate input surface,
The setting and release of the gesture input mode for accepting a gesture indicating processing to be executed corresponding to a specific trajectory by a plurality of consecutive position coordinates input by the input procedure can be arbitrarily set on the coordinate input surface from the input procedure. Mode switching procedure for switching based on the input timing at which the position coordinates of the area of
A gesture processing procedure for executing processing corresponding to the gesture by the trajectory input by the input procedure when the gesture input mode is set by switching by the mode switching procedure;
A gesture input program that causes a computer to execute.
JP2004285242A 2004-09-29 2004-09-29 Gesture input device, method, and program Pending JP2006099468A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004285242A JP2006099468A (en) 2004-09-29 2004-09-29 Gesture input device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004285242A JP2006099468A (en) 2004-09-29 2004-09-29 Gesture input device, method, and program

Publications (1)

Publication Number Publication Date
JP2006099468A true JP2006099468A (en) 2006-04-13

Family

ID=36239207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004285242A Pending JP2006099468A (en) 2004-09-29 2004-09-29 Gesture input device, method, and program

Country Status (1)

Country Link
JP (1) JP2006099468A (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007305039A (en) * 2006-05-15 2007-11-22 Sony Corp Information processing apparatus and method, and program
JP2008203973A (en) * 2007-02-16 2008-09-04 Softbank Mobile Corp Operation input processing method and portable information processor
JP2009087056A (en) * 2007-09-28 2009-04-23 Fujitsu Ltd Input device and computer program
JP2009535175A (en) * 2006-05-04 2009-10-01 ソニー・コンピュータ・エンタテインメント・アメリカ・インク A method for detecting and tracking user operations on the main body of the game controller and converting the movement into input and game commands
JP2010061433A (en) * 2008-09-04 2010-03-18 Casio Comput Co Ltd Projector, projecting method, and program
JP2010074664A (en) * 2008-09-19 2010-04-02 Toshiba Corp Radio communication device and radio communication method
JP2010139899A (en) * 2008-12-15 2010-06-24 Seiko Epson Corp Projection system, projector, program, and information storage medium
JP2010139686A (en) * 2008-12-11 2010-06-24 Seiko Epson Corp Projector, program, and information storage medium
WO2010143673A1 (en) * 2009-06-10 2010-12-16 日本電気株式会社 Electronic device, gesture processing method, and gesture processing program
JP2011028746A (en) * 2009-07-21 2011-02-10 Pixart Imaging Inc Gesture recognition method and touch system incorporating the same
WO2012169155A1 (en) * 2011-06-07 2012-12-13 Sony Corporation Information processing terminal and method, program, and recording medium
JP2013514590A (en) * 2009-12-18 2013-04-25 シナプティクス インコーポレイテッド Method and apparatus for changing operating mode
US20130286435A1 (en) * 2012-04-27 2013-10-31 Konica Minolta, Inc. Image processing apparatus, method for controlling the same, and recording medium
JP2013257694A (en) * 2012-06-12 2013-12-26 Kyocera Corp Device, method, and program
JP2014059847A (en) * 2012-09-19 2014-04-03 Brother Ind Ltd Electronic apparatus and operation display method of operation terminal
CN104898515A (en) * 2015-05-07 2015-09-09 罗震 Timing switch as well as control method and control device thereof
JP2016015165A (en) * 2015-09-24 2016-01-28 ソニー株式会社 Information processing apparatus and method, program, and recording medium
US9381424B2 (en) 2002-07-27 2016-07-05 Sony Interactive Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US9465532B2 (en) 2009-12-18 2016-10-11 Synaptics Incorporated Method and apparatus for operating in pointing and enhanced gesturing modes
JP2017058980A (en) * 2015-09-16 2017-03-23 三洋テクノソリューションズ鳥取株式会社 Information terminal device
US10220302B2 (en) 2002-07-27 2019-03-05 Sony Interactive Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US9381424B2 (en) 2002-07-27 2016-07-05 Sony Interactive Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US10220302B2 (en) 2002-07-27 2019-03-05 Sony Interactive Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
JP2009535175A (en) * 2006-05-04 2009-10-01 ソニー・コンピュータ・エンタテインメント・アメリカ・インク A method for detecting and tracking user operations on the main body of the game controller and converting the movement into input and game commands
JP2007305039A (en) * 2006-05-15 2007-11-22 Sony Corp Information processing apparatus and method, and program
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
JP2008203973A (en) * 2007-02-16 2008-09-04 Softbank Mobile Corp Operation input processing method and portable information processor
JP2009087056A (en) * 2007-09-28 2009-04-23 Fujitsu Ltd Input device and computer program
JP2010061433A (en) * 2008-09-04 2010-03-18 Casio Comput Co Ltd Projector, projecting method, and program
JP2010074664A (en) * 2008-09-19 2010-04-02 Toshiba Corp Radio communication device and radio communication method
JP2010139686A (en) * 2008-12-11 2010-06-24 Seiko Epson Corp Projector, program, and information storage medium
JP2010139899A (en) * 2008-12-15 2010-06-24 Seiko Epson Corp Projection system, projector, program, and information storage medium
EP2442214A4 (en) * 2009-06-10 2015-05-20 Nec Corp Electronic device, gesture processing method, and gesture processing program
KR101517655B1 (en) 2009-06-10 2015-05-04 닛본 덴끼 가부시끼가이샤 Electronic device, gesture processing method, and recording medium
WO2010143673A1 (en) * 2009-06-10 2010-12-16 日本電気株式会社 Electronic device, gesture processing method, and gesture processing program
US9176663B2 (en) 2009-06-10 2015-11-03 Lenovo Innovations Limited (Hong Kong) Electronic device, gesture processing method and gesture processing program
CN102460353A (en) * 2009-06-10 2012-05-16 日本电气株式会社 Electronic device, gesture processing method, and gesture processing program
JPWO2010143673A1 (en) * 2009-06-10 2012-11-29 日本電気株式会社 Electronic device, gesture processing method, and gesture processing program
JP5522167B2 (en) * 2009-06-10 2014-06-18 日本電気株式会社 Electronic device, gesture processing method, and gesture processing program
KR101517742B1 (en) 2009-06-10 2015-05-04 닛본 덴끼 가부시끼가이샤 Electronic device, gesture processing method, and gesture processing program
JP2011028746A (en) * 2009-07-21 2011-02-10 Pixart Imaging Inc Gesture recognition method and touch system incorporating the same
KR101766187B1 (en) * 2009-12-18 2017-08-08 시냅틱스 인코포레이티드 Method and apparatus for changing operating modes
JP2013514590A (en) * 2009-12-18 2013-04-25 シナプティクス インコーポレイテッド Method and apparatus for changing operating mode
US9465532B2 (en) 2009-12-18 2016-10-11 Synaptics Incorporated Method and apparatus for operating in pointing and enhanced gesturing modes
US9619141B2 (en) 2011-06-07 2017-04-11 Sony Corporation Information processing terminal and method, program, and recording medium
WO2012169155A1 (en) * 2011-06-07 2012-12-13 Sony Corporation Information processing terminal and method, program, and recording medium
US9665273B2 (en) 2011-06-07 2017-05-30 Sony Corporation Information processing terminal and method, program, and recording medium
JP2013232047A (en) * 2012-04-27 2013-11-14 Konica Minolta Inc Image processing apparatus, control method of the same, and control program of the same
US20130286435A1 (en) * 2012-04-27 2013-10-31 Konica Minolta, Inc. Image processing apparatus, method for controlling the same, and recording medium
JP2013257694A (en) * 2012-06-12 2013-12-26 Kyocera Corp Device, method, and program
JP2014059847A (en) * 2012-09-19 2014-04-03 Brother Ind Ltd Electronic apparatus and operation display method of operation terminal
CN104898515A (en) * 2015-05-07 2015-09-09 罗震 Timing switch as well as control method and control device thereof
JP2017058980A (en) * 2015-09-16 2017-03-23 三洋テクノソリューションズ鳥取株式会社 Information terminal device
JP2016015165A (en) * 2015-09-24 2016-01-28 ソニー株式会社 Information processing apparatus and method, program, and recording medium

Similar Documents

Publication Publication Date Title
JP2006099468A (en) Gesture input device, method, and program
US8451236B2 (en) Touch-sensitive display screen with absolute and relative input modes
JP5751934B2 (en) Information processing apparatus, information processing method, and program
JP4560062B2 (en) Handwriting determination apparatus, method, and program
CN108121457B (en) Method and apparatus for providing character input interface
US8291348B2 (en) Computing device and method for selecting display regions responsive to non-discrete directional input actions and intelligent content analysis
US9678659B2 (en) Text entry for a touch screen
CN108733303B (en) Touch input method and apparatus of portable terminal
US10042438B2 (en) Systems and methods for text entry
US8456433B2 (en) Signal processing apparatus, signal processing method and selection method of user interface icon for multi-touch panel
US20150220265A1 (en) Information processing device, information processing method, and program
EP2770423A2 (en) Method and apparatus for operating object in user device
JP2006164238A (en) Processing method of touch-pad input information, and processing apparatus of touch-pad input information
KR20110109551A (en) Touch screen device and method for processing input of the same
KR20140064611A (en) Touch operation processing method and electronic device thereof
US9378427B2 (en) Displaying handwritten strokes on a device according to a determined stroke direction matching the present direction of inclination of the device
JP2015007946A (en) Information processing apparatus and control method of the same, program, and recording medium
JP2006235832A (en) Processor, information processing method and program
JP2007287015A (en) Input device for selecting item described in a hierarchical structure, character input device, and input program
JP2014056487A (en) Information processing apparatus, and control method and program of the same
WO2018112803A1 (en) Touch screen-based gesture recognition method and device
JP2002055781A (en) Information processor and method for controlling the same and computer readable memory
JP5480357B1 (en) Electronic apparatus and method
JP2016066133A (en) Method for processing input of pointing stick, computer and computer program
US10101905B1 (en) Proximity-based input device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080318

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080708