JP2006099468A - Gesture input device, method, and program - Google Patents
Gesture input device, method, and program Download PDFInfo
- Publication number
- JP2006099468A JP2006099468A JP2004285242A JP2004285242A JP2006099468A JP 2006099468 A JP2006099468 A JP 2006099468A JP 2004285242 A JP2004285242 A JP 2004285242A JP 2004285242 A JP2004285242 A JP 2004285242A JP 2006099468 A JP2006099468 A JP 2006099468A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- input
- area
- display
- mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、座標入力面に対してジェスチャ入力を行うジェスチャ入力装置、ジェスチャ入力方法及びジェスチャ入力プログラムに関し、さらにジェスチャ入力を行うか否かを切り替える技術に関するものである。 The present invention relates to a gesture input device, a gesture input method, and a gesture input program for performing gesture input on a coordinate input surface, and further relates to a technique for switching whether or not to perform gesture input.
従来から、手書き認識技術の進歩によりタブレット型PC(Personal Computer)やPDA(Personal Digital Assistant)等の様々な機器にはペン入力インターフェースが組み込まれている。ペン入力インターフェースは、キーボードを使い慣れていない利用者について利便性を向上させ、またキーボードやマウスが組み込めない機器の入力デバイスとして利用可能である。特にペン入力インターフェースを用いたジェスチャ認識は、簡単な操作で様々なコマンドを入力することが可能である。しかし、ジェスチャ認識においては、ジェスチャ入力と、文字を書くなどのストローク入力等の他のペン入力との違いを判定することが困難であった。 2. Description of the Related Art Conventionally, pen input interfaces have been incorporated into various devices such as tablet PCs (Personal Computers) and PDAs (Personal Digital Assistants) due to advances in handwriting recognition technology. The pen input interface improves convenience for users who are not familiar with the keyboard, and can be used as an input device for devices that cannot incorporate a keyboard or mouse. In particular, gesture recognition using a pen input interface can input various commands with a simple operation. However, in gesture recognition, it is difficult to determine the difference between gesture input and other pen input such as stroke input for writing characters.
そこで、入力したストロークがジェスチャであるか否か判別する技術が提案されている(例えば、特許文献1参照)。また、ジェスチャ入力に切り替える切替ボタンを備え、切替ボタンを押下した状態で、ペンがタブレットに接触し、そのままペンをタブレットから離さずに、ペンが一定時間内にドラッグされるとジェスチャ入力であると判定する技術が提案されている(例えば、特許文献2参照)。 Therefore, a technique for determining whether or not the input stroke is a gesture has been proposed (see, for example, Patent Document 1). Also, a switching button for switching to gesture input is provided, and when the switching button is pressed, the pen touches the tablet, and the pen is dragged within a certain time without releasing the pen from the tablet. A technique for determining is proposed (see, for example, Patent Document 2).
しかしながら、上記特許文献1に記載された技術では、入力されたストロークからジェスチャであるか否か判断するため、入力したストロークがジェスチャと同じあるいは類似の場合はストロークをジェスチャと判断される可能性があり、誤認識してしまうという問題がある。
However, in the technique described in
また、上記特許文献2に記載された技術では、ペン操作のみでジェスチャ入力と他のペン入力を切り替えることができず、またジェスチャ入力をするたびにボタンを押下する必要があり、連続してジェスチャ入力する場合には操作が煩雑になるという問題がある。
In the technique described in
本発明は、上記に鑑みてなされたものであって、ストローク及びジェスチャにおいて誤認識せず、かつ連続するジェスチャ入力を可能として、利便性が向上したジェスチャ入力装置、ジェスチャ入力方法及びジェスチャ入力プログラムを提供することを目的としている。 The present invention has been made in view of the above, and provides a gesture input device, a gesture input method, and a gesture input program that are not erroneously recognized in strokes and gestures and that allow continuous gesture input and have improved convenience. It is intended to provide.
上述した課題を解決し、目的を達成するために、本発明は、座標入力面から位置座標を入力する入力手段と、前記入力手段により入力された連続する複数の前記位置座標による特定の軌跡に対応して実行する処理を示すジェスチャを受け付けるジェスチャ入力モードの設定及び解除を、前記入力手段から前記座標入力面上の任意の領域の前記位置座標が入力された入力タイミングに基づいて切り替えるモード切替手段と、前記モード切替手段による切り替えにより、前記ジェスチャ入力モードが設定された場合、前記入力手段により入力された前記軌跡による前記ジェスチャに対応した処理を実行するジェスチャ処理手段と、を備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention provides an input means for inputting position coordinates from a coordinate input surface, and a specific trajectory by a plurality of continuous position coordinates input by the input means. Mode switching means for switching the setting and canceling of the gesture input mode for receiving a gesture indicating processing to be executed correspondingly based on the input timing when the position coordinates of an arbitrary region on the coordinate input surface are input from the input means. And gesture processing means for executing processing corresponding to the gesture by the trajectory input by the input means when the gesture input mode is set by switching by the mode switching means. And
また、本発明は、座標入力面から位置座標を入力する入力ステップと、前記入力ステップにより入力された連続する複数の前記位置座標による特定の軌跡に対応して実行する処理を示すジェスチャを受け付けるジェスチャ入力モードの設定及び解除を、前記入力ステップから前記座標入力面上の任意の領域の前記位置座標が入力された入力タイミングに基づいて切り替えるモード切替ステップと、前記モード切替ステップによる切り替えにより、前記ジェスチャ入力モードが設定された場合、前記入力ステップにより入力された前記軌跡による前記ジェスチャに対応した処理を実行するジェスチャ処理ステップと、を備えたことを特徴とする。 The present invention also provides an input step for inputting position coordinates from a coordinate input surface, and a gesture for receiving a gesture indicating processing to be executed corresponding to a specific trajectory by a plurality of continuous position coordinates input by the input step. An input mode is set and canceled based on an input timing at which the position coordinates of an arbitrary area on the coordinate input surface are input from the input step, and the gesture by the switching by the mode switching step. A gesture processing step for executing processing corresponding to the gesture by the trajectory input in the input step when the input mode is set.
また、本発明は、座標入力面から位置座標を入力する入力手順と、前記入力手順により入力された連続する複数の前記位置座標による特定の軌跡に対応して実行する処理を示すジェスチャを受け付けるジェスチャ入力モードの設定及び解除を、前記入力手順から前記座標入力面上の任意の領域の前記位置座標が入力された入力タイミングに基づいて切り替えるモード切替手順と、前記モード切替手順による切り替えにより、前記ジェスチャ入力モードが設定された場合、前記入力手順により入力された前記軌跡による前記ジェスチャに対応した処理を実行するジェスチャ処理手順と、をコンピュータに実行させる。 In addition, the present invention provides an input procedure for inputting position coordinates from a coordinate input surface, and a gesture for receiving a gesture indicating processing to be executed corresponding to a specific trajectory by a plurality of continuous position coordinates input by the input procedure. The input mode is set and canceled based on an input timing at which the position coordinates of an arbitrary region on the coordinate input surface are input from the input procedure, and the gesture by the switching by the mode switching procedure. When the input mode is set, the computer causes the computer to execute a gesture processing procedure for executing processing corresponding to the gesture by the trajectory input by the input procedure.
本発明によれば、入力手段が座標入力面上の任意の領域の前記位置座標が入力された入力タイミングに基づいて、ジェスチャ入力モードの設定及び解除を切り替えるため、ジェスチャ入力モードの切り替えることが容易に行えるという効果を奏する。また、ジェスチャ入力モードではジェスチャであるか否かを判定する必要がないため、ストローク及びジェスチャの誤認識は発生せず、またジェスチャ入力モードでは連続するジェスチャ入力を可能であるため、利便性を向上するという効果を奏する。 According to the present invention, since the input unit switches between setting and canceling the gesture input mode based on the input timing when the position coordinates of an arbitrary region on the coordinate input surface are input, it is easy to switch the gesture input mode. There is an effect that can be done. In addition, since it is not necessary to determine whether or not it is a gesture in the gesture input mode, erroneous recognition of strokes and gestures does not occur, and continuous gesture input is possible in the gesture input mode, improving convenience. The effect of doing.
以下に添付図面を参照して、この発明にかかるジェスチャ入力装置、ジェスチャ入力方法及びジェスチャ入力プログラムを適用したPDAの最良な実施の形態を詳細に説明する。 Exemplary embodiments of a gesture input device, a gesture input method, and a gesture input program according to the present invention will be explained below in detail with reference to the accompanying drawings.
(第1の実施の形態)
図1は、第1の実施の形態にかかるPDA100の構成を示すブロック図である。本図に示すようにPDA100の内部は、タブレット機能付ディスプレイ101と、入力処理部102と、入力モード切替部103と、入力モード判定部104と、ジェスチャ認識部105と、ジェスチャ処理部106と、ストローク処理部107と、表示処理部108を備え、PDA100に備えられたペンデバイス150によりジェスチャ入力やストローク入力が行われる。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of the
また、ジェスチャとは、ボタンのタップやメニューの選択とは異なり、PDA100内部で予め定められた軌跡と実行する処理とを対応付けて保持し、ペンデバイス150で予め定められた軌跡を描くことで、対応付けられた機能あるいは処理を実行させる操作をいう。
In addition, a gesture is different from tapping a button or selecting a menu by holding a predetermined trajectory in the
ペンデバイス150は、利用者が後述するタブレット機能付ディスプレイ101に対して入力を行うためのデバイスであり、磁気信号をペン先から出力する。
The
タブレット機能付ディスプレイ101は、ペンデバイス150の位置座標を入力するための磁気センサが備えられている平面状のディスプレイである。なお、本実施の形態のタブレット機能付ディスプレイ101は磁気センサを用いているためペンデバイス150が接触していなくとも、ペンデバイス150が出力する磁気信号を検出することで、3次元空間上のペンデバイス150の位置座標を入力することが可能となる。タブレット機能付ディスプレイ101は、ペンデバイス150が発する磁気信号を検出し、検出した信号を後述する入力処理部102に出力する。利用者はペンデバイス150を用いて、タブレット機能付ディスプレイ101に対してペン先で位置座標を指示すること、あるいは軌跡を描くことで、PDA100に対して処理の指示や、文字、記号、図形などの画像情報の手書き入力が可能となる。
The display with
また、タブレット機能付ディスプレイ101は、後述する表示処理部108により行われた処理の結果を表示する。
The display with
入力処理部102は、タブレット機能付ディスプレイ101から入力された信号を解析して、ペンデバイス150の空間内での位置座標や、動き等の軌跡に関する情報、タブレット機能付ディスプレイ101と接触しているか否かの情報、ペンデバイス151が接触してから離れるまでの時間等を保持するペン入力情報を生成する。また、入力処理部102は、処理したペン入力情報が、ペンデバイス150がタブレット機能付ディスプレイ101の表示範囲内の任意の点で接触していた旨を示す情報である場合は、入力モード切替部103に出力する。また、入力処理部102は、タブレット機能付ディスプレイ101にペンデバイス150で軌跡が描かれた場合、例えば連続して検出した磁気信号の位置座標の連結処理あるいは関数を用いた軌跡の算出処理など、既に知られた導出方法を用いて連続する点から軌跡を導出する。
The
入力モード切替部103は、入力処理部102により入力されたペン入力情報が、ペンデバイス150がタブレット機能付ディスプレイ101上の表示領域内の任意の一点を2秒以上離されなかった旨を示していた場合、入力モードの切り替えを行う。詳細な例としては、入力モード切替部は、上記切り替え条件を満たしたときに入力モードが文字や図形入力を行うためのストローク入力モードであれば、ジェスチャ入力モードに切り替える。また、上記切り替え条件を満たしたときに入力モードがジェスチャ入力モードであれば、ストローク入力モードに切り替える。また、入力されるペン入力情報は空間内での位置座標及び接触しているか否かを保持しているため、連続してペン入力情報が入力されることで、入力モード切替部103は、ペンデバイス151がタブレット機能付ディスプレイ101の表示領域の接触時間を得ることが可能となる。
The input
本実施の形態において入力モードは、ストローク入力モードとジェスチャ入力モードの2種類とするが、入力モードを2種類に制限するものではない。また、入力モード切替部103による入力モードの切り替えの条件を表示領域内の任意の一点を2秒以上接触している場合に制限するものではなく、タブレット機能付ディスプレイ101の任意の領域内を予め定められた時間接触していれば入力モードを切り替えるように構成してもよい。また、利用者が入力モードを切り替えるための接触している時間を設定することにしてもよい。
In the present embodiment, there are two types of input modes, the stroke input mode and the gesture input mode, but the input mode is not limited to two types. In addition, the input mode switching condition by the input
また、入力モードの切り替える条件を予め定められた時間をペンデバイス150が接触していた場合に限りものではなく、例えば予め定められた時間内にペンデバイス150がタブレット機能付ディスプレイ101に2回接触した場合など、予め定められた期間内の接触回数に基づいて入力モードを切り替える等の設定をしても良い。
The input mode switching condition is not limited to the case where the
入力モード判定部104は、入力モード切替部103より切り替えられた入力モードを判定し、入力モードがストローク入力モードと判定した場合には、入力処理部102が出力したペン入力情報をストローク処理部107に出力し、入力モードがジェスチャ入力モードと判定した場合には、入力処理部102が出力したペン入力情報をジェスチャ認識部105に出力する。
The input
ジェスチャ認識部105は、入力処理部102から入力されたペン入力情報が保持していたタブレット機能付ディスプレイ101上に描かれた軌跡からジェスチャを認識する。ジェスチャ認識の方式は、既存のいかなる方式を用いても良い。
The
ジェスチャ処理部106は、ジェスチャ認識部105が認識したジェスチャに対応付けられた処理を行う。例えば、ジェスチャ’チェック’と対応付けられた処理が’選択’とする場合において、予め定められた領域内で、認識されたジェスチャが’チェック’であれば、ジェスチャ処理部106は、予め定められた領域が指し示していた候補等を選択する処理を行う。
The
ストローク処理部107は、入力されたペン入力情報から、保持していたペンデバイス150がタブレット機能付ディスプレイ101上に描かれた表示領域内の軌跡のみ抽出し、表示処理部108に出力する。これにより表示処理部108は、表示領域内に描かれた軌跡を表示することが可能となる。
The
表示処理部108は、ジェスチャ処理部106によりジェスチャに対応付けられた処理の結果を表示する、あるいはストローク処理部107により抽出処理されたペンデバイス150がタブレット機能付ディスプレイ101上に描いた軌跡を表示するための処理を行う。
The
次に、以上により構成された本実施の形態に係るPDA100においてペンデバイス150により入力されてからタブレット機能付ディスプレイ101に表示するまでの全体処理について説明する。図2は本実施の形態にかかるPDA100においてペンデバイス150により入力されてからタブレット機能付ディスプレイ101に表示するまでのフローチャートである。
Next, overall processing from the input by the
タブレット機能付ディスプレイ101は、ペンデバイス150を用いて指示された位置座標を入力する(ステップS201)。次に入力処理部102は、タブレット機能付ディスプレイ101から入力された位置座標等に基づいてペン入力情報を生成する(ステップS202)。そして入力処理部102は、ペン入力情報が、ペンデバイス150によるタブレット機能付ディスプレイ101の表示範囲内の任意の点の接触している旨を示す情報であるか否かを判定し(ステップS203)、接触している旨を示す情報である場合は、ペン入力情報を入力モード切替部103に出力する(ステップS203:Yes)。
The
そして、入力モード切替部103は、ペン入力情報より、ペンデバイス150がタブレット機能付ディスプレイ101上の表示領域内の任意の一点を2秒以上接触していたか否かを判定する(ステップS210)。そして2秒以上接触していたと判定した場合(ステップS210:Yes)は、入力モード切替部103は、入力モードを切り替える(ステップS211)。詳細な例としては、入力モード切替部103は、入力モードがストローク入力モードの場合はジェスチャ入力モードに切り替え、入力モードがジェスチャ入力モードの場合、ストローク入力モードに切り替える。また、2秒以上接触していなかったと判定した場合(ステップS210:No)、入力モード切替部103は特に処理を行わない。
Then, the input
そして、ペン入力情報が接触していた旨を示す情報ではない場合(ステップS203:No)、入力モード判定部104は、入力モードがジェスチャ入力モードであるか否かを判定する(ステップS204)。
If the pen input information is not information indicating that the touch has been made (step S203: No), the input
入力モード判定部104がジェスチャ入力モードと判定した場合(ステップS204:Yes)、入力処理部102により生成されたペン入力情報は、ジェスチャ認識部105に出力される。次にジェスチャ認識部105は、ペン入力情報が保持していたタブレット機能付ディスプレイ101上に描かれた軌跡からジェスチャを認識する(ステップS205)。そしてジェスチャ処理部106は、ジェスチャ認識部105により認識されたジェスチャに対応付けられた処理を行う(ステップS206)。
When the input
入力モード判定部104がジェスチャ入力モードではないと判定した場合(ステップS204:No)、ストローク処理部107は入力したペン入力情報が保持していたタブレット機能付ディスプレイ101上に描かれた軌跡を抽出する処理を行う(ステップS207)。
When the input
そして、表示処理部108は、ステップS206による処理の結果を表示するための処理、あるいはステップS207により抽出処理されたタブレット機能付ディスプレイ101上に描かれた軌跡を表示するための処理を行う(ステップS208)。そしてタブレット機能付ディスプレイ101は、表示処理部108で処理された結果を表示する(ステップS209)。
Then, the
なお、上述した処理手順では、入力モード切替部103により入力モードが切り替えられたあと、特に表示などの処理は行わないこととしたが、入力モードが切り替わった旨を表示する処理を行っても良い。
In the above processing procedure, after the input mode is switched by the input
また上述した処理手順により、利用者はペンデバイス150をタブレット機能付ディスプレイ101の任意の一点を接触することで、入力モードを切り替えることが可能となり、さらにジェスチャ入力モード時には、利用者は連続してジェスチャ入力が可能となる。
Further, according to the above-described processing procedure, the user can switch the input mode by touching the
図3は、本実施の形態にかかるPDA100についてジェスチャ入力及びストローク入力された画面の一例を示したものである。詳細な例としては、最初に利用者はジェスチャ入力モード時に、401及び402で示された領域にチェックと対応付けられた軌跡を連続して描いてジェスチャ入力を行った。PDA100はそれぞれの領域でジェスチャを認識し、タブレット機能付ディスプレイ101にチェックされた旨の表示がなされた。その後、利用者は、ペンデバイス150によりタブレット機能付ディスプレイ101内の一点を2秒以上接触させることで、PDA100は入力モードをストローク入力モードに切り替えた。そして利用者は、ペンデバイス150により403で示された領域に「汗が出てくる」とストローク入力することで、PDA100は403の領域に入力された文字を表示した。
FIG. 3 shows an example of a screen in which gesture input and stroke input are performed on the
図4は、本実施の形態にかかるPDA100のハードウェア構成を示した図である。本実施の形態にかかるPDA100は、制御装置となるCPU(Central Processing Unit)601と、外部記憶装置となるROM(Read Only Memory)602やRAM603と、タブレット機能付ディスプレイなどの表示部604と、タブレット機能付ディスプレイからの信号を入力するための入力I/F605と、外部装置あるいはネットワークと接続する通信I/F606を備えたハードウェア構成となっている。そしてROM602にはPDA全体を制御するためのOS等の基本プログラムやPDAで使用可能なアプリケーションソフトが格納されている。
FIG. 4 is a diagram showing a hardware configuration of the
本実施の形態のPDA100で実行されるジェスチャ入力プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。そして通信I/F606を介して外部装置からインストールすることが可能となる。
The gesture input program executed by the
また、本実施の形態のPDA100で実行されるジェスチャ入力プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施の形態のPDA100で実行されるジェスチャ入力プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
Further, the gesture input program executed by the
また、本実施の形態のジェスチャ入力プログラムを、ROM602等に予め組み込んで提供するように構成してもよい。
Further, the gesture input program according to the present embodiment may be provided by being incorporated in advance in the
本実施の形態のPDA100で実行されるジェスチャ入力プログラムは、上述した各部(入力処理部、入力モード切替部、入力モード判定部、ストローク処理部、ジェスチャ認識部、ジェスチャ処理部、表示処理部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)601が上記記憶媒体からジェスチャ入力プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、入力処理部、入力モード切替部、入力モード判定部、ストローク処理部、ジェスチャ認識部、ジェスチャ処理部、表示処理部が主記憶装置上に生成されるようになっている。
The gesture input program executed by the
なお、本実施の形態では、ジェスチャ入力装置としてPDA100を用いたが、PDA100ではなく、PC(Personal Computer)等を用いて実現しても良い。例えばテーブルに設置したタブレットとペンデバイスを利用してジェスチャ入力を行い、入力されたジェスチャに対応した処理の結果をPCのディスプレイに表示する構成を有している場合において、タブレットの任意の領域に予め定められた時間をペンデバイスが接触している時に、ジェスチャ入力モードとストローク入力モードを切り替える等が考えられる。
In the present embodiment, the
以上のように、第1の実施の形態においては、ジェスチャ入力とストローク入力の誤判定が無く、また、ジェスチャ入力時において、ジェスチャ入力をする間隔が空いた場合であっても連続したジェスチャの入力を認識することが可能である。さらにはペンデバイス150がタブレット機能付ディスプレイ101の接触時間により容易に入力モードを切り替えることが可能である。このため、第1の実施の形態にかかるPDA100では、誤認識が低減し、連続してジェスチャ入力が可能なため利便性が向上した。
As described above, in the first embodiment, there is no misjudgment between gesture input and stroke input, and continuous gesture input is possible even when there is an interval for gesture input at the time of gesture input. Can be recognized. Further, the input mode can be easily switched by the
(第2の実施の形態)
第1の実施の形態では、PDA100はタブレット機能付ディスプレイ101の任意の一点をペンデバイス150で2秒以上接触している場合に、入力モードを切り替えることとした。しかしながら、入力モードがジェスチャ入力の場合、タブレット機能付ディスプレイ101上のどの領域でどのジェスチャを入力することが可能なのか、利用者は予め知る必要がある。このため第2の実施の形態では、タブレット機能付ディスプレイ101上の領域内で入力することが可能なジェスチャを表示することとした。
(Second Embodiment)
In the first embodiment, the
図5は、本発明の第2の実施の形態にかかるPDA300の構成を示すブロック図である。上述した第1の実施の形態にかかるPDA100とは、ジェスチャ候補取得部301と記憶部302が追加され、入力処理部102とは処理が異なる入力処理部305に変更され、表示処理部108とは処理が異なる表示処理部303に変更されている点で異なる。以下の説明では、上述した実施の形態1と同一の構成要素には同一の符号を付してその説明を省略している。そして本実施の携帯にかかるPDA300は上述した構成を備えることで、ペンデバイス150の磁気信号により、ペンデバイス150とタブレット機能付ディスプレイ101は非接触の状態であるが、一定の範囲内にあると認識された場合、入力可能なジェスチャをポップアップ形式で表示することを可能とする。
FIG. 5 is a block diagram showing the configuration of the
記憶部302は、表示ジェスチャテーブル及びジェスチャ領域テーブルを記憶し、後述するジェスチャ候補取得部301により表示するジェスチャを取得する時に用いられる。
The
図6は、本実施の形態に係る記憶部302が記憶する表示ジェスチャテーブルの一例を示した図である。本図に示すように、セットIDと、ジェスチャID、ジェスチャ名、表示フラグを対応付けたレコードを保持する。セットIDはジェスチャ領域テーブルにおいてジェスチャ領域と対応付けられたIDである。そしてジェスチャIDはジェスチャを認識するための軌跡と対応付けられたIDである。ジェスチャ名は、ジェスチャを示す名称であり、タブレット機能付ディスプレイ101上に入力可能なジェスチャを表示する時に用いられる。また、表示フラグは表示するか否かを示すフラグであり、表示フラグが’1’の場合に表示することとする。なお、ジェスチャを認識するための軌跡とジェスチャIDとの対応については本実施の形態では省略する。
FIG. 6 is a diagram showing an example of a display gesture table stored in the
図7は、本実施の形態に用いられるジェスチャ領域テーブルの一例を示した図である。本図に示すように、ジェスチャ領域と、上述したセットIDを対応付けたレコードを保持する。なお、ジェスチャ領域を示すGesutureArea1等は、タブレット機能付ディスプレイ101に表示される画面において予め定められた領域をいう。
FIG. 7 is a diagram showing an example of a gesture area table used in the present embodiment. As shown in the figure, a record in which a gesture area is associated with the set ID described above is held. Note that the
図8は、タブレット機能付ディスプレイ101上に表示された画面の予め定められた領域と、ジェスチャ領域名とを対応付けて示した説明図である。本図で示すようにタブレット機能付ディスプレイ101に表示された画面の各領域についてジェスチャ領域が割り当てられている。また、表示される画面が異なる毎に異なるジェスチャ領域を保持している。そして上述したテーブルを記憶部302が記憶することで、領域毎に認識するジェスチャを異ならせることを可能とする。
FIG. 8 is an explanatory diagram showing a predetermined area of the screen displayed on the display with
図5に戻り、入力処理部305は、タブレット機能付ディスプレイ101から入力された信号から、ペンデバイス150がタブレット機能付ディスプレイ101と非接触の状態であるが、ペンデバイス150とタブレット機能付ディスプレイ101の距離が一定の範囲内にあると判断した場合、非接触である旨及びタブレット機能付ディスプレイ101上で磁気信号が最も強く入力された位置座標をペン入力情報としてジェスチャ候補取得部301に出力する。またペンデバイス150がタブレット機能付ディスプレイ101に接触している場合の処理は、第1の実施の形態にかかる入力処理部102と同様の処理とする。
Returning to FIG. 5, the
ジェスチャ候補取得部301は、入力モード判定部104がジェスチャ入力モードと判定した場合に限り、入力されたペン入力情報から、表示ジェスチャテーブル及びジェスチャ領域テーブルに基づいて、表示するジェスチャのジェスチャIDとジェスチャ名を取得する。なお、具体的な取得手順は後述する。
The gesture
表示処理部303は、第1の実施の形態にかかる表示処理部108と比べて、ジェスチャ表示処理部304を追加された。また、表示処理部303は、ジェスチャの表示以外の処理については第1の実施の形態にかかる表示処理部108と同様の処理を行う。
The
ジェスチャ表示処理部304は、ジェスチャ候補取得部301からジェスチャIDとジェスチャ名が入力された場合、ジェスチャIDに対応するジェスチャの軌跡及びジェスチャ名をポップアップ形式で表示する。
When the gesture
次に、以上により構成された本実施の形態に係るPDA300においてペンデバイス150を検知してから入力可能なジェスチャをポップアップ形式で表示するまでの処理について説明する。図9は本実施の形態にかかるPDA300においてペンデバイス150を検知してから入力可能なジェスチャをポップアップ形式で表示するまでのフローチャートである。
Next, a process from detection of the
タブレット機能付ディスプレイ101は、ペンデバイス150より出力される磁気信号を入力する(ステップS601)。そして入力処理部305は、タブレット機能付ディスプレイ101からの入力された信号を解析して求められた位置座標の入力処理を行う(ステップS602)。例えば、入力処理部305は、信号を解析した結果としてペンデバイス150がタブレット機能付ディスプレイ101に接触していないと判断した場合、ペンデバイス150から出力される磁気信号がタブレット機能付ディスプレイ101上でもっとも強く検知された位置座標を、ペンデバイス150を検知した位置座標として入力処理を行い、非接触である旨及び位置座標から生成されたペン入力情報を出力する。なお、ペンデバイス150がタブレット機能付ディスプレイ101に接触していると判断した場合は、第1の実施の形態で示した処理手順を行う(図示しない)。
The tablet function-equipped
次に、入力モード判定部104は、入力モードがジェスチャ入力モードか否かを判定する(ステップS603)。そして入力モード判定部104が、ジェスチャ入力モードではないと判定した場合(ステップS603:No)、処理を行わず終了する。
Next, the input
入力モード判定部104がジェスチャ入力モードであると判定した場合(ステップS603:Yes)、ジェスチャ候補取得部301は、入力処理部305から入力されたペン入力情報による位置座標がどのジェスチャ領域内か判断し、入力可能なジェスチャのジェスチャID及びジェスチャ名を取得する(ステップS604)。なお、具体的なジェスチャID及びジェスチャ名の取得手順は後述する。
When the input
ジェスチャ表示処理部304は、ジェスチャ候補取得部301が取得したジェスチャIDと対応付けられたジェスチャの軌跡を示したアイコン及びジェスチャ名をポップアップ形式で表示するための処理を行う(ステップS605)。そして、タブレット機能付ディスプレイ101は、ジェスチャ表示処理部304により入力された信号に基づいて、入力可能なジェスチャをポップアップ形式で表示する(ステップS606)。
The gesture
次に、以上により構成された本実施の形態に係るPDA300のジェスチャ候補取得部301がペン入力情報に基づいて、表示するジェスチャの候補を取得するまでの処理について説明する。図10は本実施の形態にかかるPDA300のジェスチャ候補取得部301がペン入力情報に基づいて、表示するジェスチャの候補を取得するまでの全体処理を示すフローチャートである。
Next, a process until the gesture
ジェスチャ候補取得部301は、入力処理部305から入力されたペン入力情報が保持するペンデバイス150の磁気信号を検出した位置座標が、どのジェスチャ領域内にあるのか特定する(ステップS901)。
The gesture
次に、ジェスチャ候補取得部301は、特定されたジェスチャ領域から、ジェスチャ領域テーブルを検索してセットIDを取得する(ステップS902)。例えば、特定されたジェスチャ領域がGestureArea1であった場合、ジェスチャ候補取得部301は、図7で示したジェスチャ領域テーブルを検索すると、セットID’01’を取得する。
Next, the gesture
そして、ジェスチャ候補取得部301は、取得したセットIDに基づいて、表示ジェスチャテーブルを検索して表示するジェスチャID及びジェスチャ名を取得する(ステップS903)。ただし、表示フラグが’1’の場合のジェスチャID及びジェスチャ名のみ取得する。例えば、セットID’01’で表示フラグ’1’という条件に基づいて、ジェスチャ候補取得部301が、図6で示した表示ジェスチャテーブルを検索することで、ジェスチャID’01’でジェスチャ名’Check’及びジェスチャID’02’でジェスチャ名’Circle’を取得する。そしてジェスチャ候補取得部301は、取得したジェスチャをジェスチャ表示処理部304に出力する。
Based on the acquired set ID, the gesture
図11は、上述した処理に基づいて入力可能なジェスチャがポップアップ形式で表示されたタブレット機能付ディスプレイ101の画面例を示した図である。上述した処理により、タブレット機能付ディスプレイ101は’Check’、’Circle’について表示する。ジェスチャ702、703はジェスチャIDに対応した軌跡を表示したものであり、ペンデバイス150で表示された軌跡を描くことで、ジェスチャに対応した処理がなされる。またジェスチャ名’All’は入力可能な全てのジェスチャを表示するためのジェスチャであり、ポップアップ形式で表示するときは常に表示される。なお、ジェスチャ’All’に対応した軌跡704を描いた場合は、表示フラグに関係なく表示ジェスチャテーブルが保持するペンデバイス150を検知した位置座標を含むジェスチャ領域と対応した全てのジェスチャをタブレット機能付ディスプレイ101上に表示する。
FIG. 11 is a diagram illustrating a screen example of the tablet function-equipped
なお、ジェスチャ入力モードであると判定された場合に限り、入力可能なジェスチャをポップアップ形式で表示することに制限するものではなく、ストローク入力モードの場合に入力可能なジェスチャをポップアップ形式で表示することにしても良い。 In addition, only when it is determined that it is the gesture input mode, it is not limited to displaying the input gesture in the pop-up format, but the input gesture in the stroke input mode is displayed in the pop-up format. Anyway.
また、タブレット機能付ディスプレイ101がペンデバイス150とタブレット機能付ディスプレイ101は非接触の状態であるが、一定の範囲内にあるとの認識は磁気信号の強さにより判断するが、この一定範囲内により示されるタブレット機能付ディスプレイ101とペンデバイス150の間の距離は、実際の磁気信号の強さ及び利用者の使用時の利便性を考慮して決定する。
In addition, although the
なお、非接触と判断された場合に入力可能なジェスチャをポップアップ形式で表示することに制限するものではなく、接触している場合に入力可能なジェスチャを表示しても良い。ただし、入力モードの切り替えを予め定められた時間内に2回接触した場合等とし、入力モードの切り替えの処理とポップアップ形式で表示する処理を混同させないようにする必要がある。 Note that the gesture that can be input when it is determined to be non-contact is not limited to being displayed in a pop-up format, and a gesture that can be input when the user is in contact may be displayed. However, it is necessary to prevent the input mode switching process from being confused with the pop-up display process when the input mode is switched twice within a predetermined time.
また、入力可能なジェスチャを表示するのはポップアップ形式で表示することに制限するものではなく、利用者が入力可能なジェスチャを視認できる形式で表示するものであれば良い。 In addition, the display of gestures that can be input is not limited to display in a pop-up format, and any gesture that can be input by a user may be displayed.
以上のように、第2の実施の形態にかかるPDA300により、ジェスチャ領域毎に入力可能なジェスチャを表示することで、利用者は入力可能なジェスチャを視認してからジェスチャを入力することが可能となったため、PDA300の利便性が向上した。
As described above, the
(第3の実施の形態)
第2の実施の形態では、PDA300は領域に応じて表示フラグが’1’であれば入力可能なジェスチャを全て表示した。しかし第3の実施の形態では、ジェスチャが入力された頻度に基づいて、入力可能なジェスチャを表示することとした。
(Third embodiment)
In the second embodiment, the
図12は、第3の実施の形態にかかるPDA1000の構成を示すブロック図である。上述した第2の実施の形態にかかるPDA300とは、ジェスチャ履歴更新部1003が追加され、ジェスチャ候補取得部301と処理が異なるジェスチャ候補取得部1001に変更され、また記憶部302と記憶するテーブルが異なる記憶部1002に変更されている点で異なる。以下の説明では、上述した実施の形態1と同一の構成要素には同一の符号を付してその説明を省略している。
FIG. 12 is a block diagram showing a configuration of a
記憶部1002は、表示ジェスチャ履歴テーブル及びジェスチャ領域テーブルを記憶し、後述するジェスチャ候補取得部1001により表示するジェスチャを取得する時に用いられる。なお、ジェスチャ領域テーブルの構造は第2の実施の形態におけるジェスチャ領域テーブルと同じ構造であるため説明を省略する。
The
図13は、本実施の形態に用いられる表示ジェスチャ履歴テーブルの一例を示した図である。本図に示すように、セットIDと、ジェスチャID、ジェスチャ名、頻度を対応付けたレコードを保持する。セットID、ジェスチャID、ジェスチャ名は第2の実施の形態にかかる表示ジェスチャテーブルで説明したので省略する。頻度は、対応付けられたジェスチャが利用者から入力された回数を示したものである。 FIG. 13 is a diagram showing an example of a display gesture history table used in the present embodiment. As shown in the figure, a record in which a set ID is associated with a gesture ID, a gesture name, and a frequency is held. Since the set ID, the gesture ID, and the gesture name have been described in the display gesture table according to the second embodiment, a description thereof will be omitted. The frequency indicates the number of times the associated gesture is input from the user.
図12に戻り、ジェスチャ候補取得部1001は、入力モード判定部104がジェスチャ入力モードと判定した場合に、入力されたペン入力情報から、表示ジェスチャテーブル及びジェスチャ領域テーブルに基づいて、入力可能なジェスチャのうち入力された頻度が高い順から1つのジェスチャに対応したジェスチャIDとジェスチャ名を取得する。なお、具体的な取得手順は後述する。
Returning to FIG. 12, when the input
ジェスチャ履歴更新部1003は、記憶部1002が記憶する表示ジェスチャ履歴テーブルに対して、ジェスチャ認識部105が認識したジェスチャと対応付けられた履歴に1を加算して更新する。ジェスチャ履歴更新部1003を備えることで、最新の履歴情報により、入力された頻度が最も高い順から入力可能なジェスチャをポップアップ形式で表示することが可能となる。
The gesture
そして、以上により構成された本実施の形態に係るPDA1000においてペンデバイス150を検知してから入力可能なジェスチャをポップアップ形式で表示するまでの処理は、図9で示した第2の実施の形態に係るポップアップ形式で表示するまでの処理と原則として同様であるが、ステップS604で行われたジェスチャ候補取得部301による処理だけ、ジェスチャ候補取得部1001による処理に変更する必要がある。この全体の処理手順は省略する。
In the
次に、以上により構成された本実施の形態に係るPDA1000のジェスチャ候補取得部1001がペン入力情報に基づいて、表示するジェスチャの候補を取得するまでの処理手順を説明する。図14は本実施の形態にかかるPDA1000のジェスチャ候補取得部301がペン入力情報に基づいて、表示するジェスチャの候補を取得するまでのフローチャートである。
Next, a processing procedure until the gesture
まず、ジェスチャ候補取得部1001は、第2の実施の形態にかかる図10のステップS901〜S902と同様にして、ペンデバイス150の磁気信号を検出した位置座標に基づいて、セットIDを取得する(ステップS1201〜S1202)。
First, the gesture
そして、ジェスチャ候補取得部1001は、表示ジェスチャ履歴テーブルを検索し、取得したセットIDとセットIDが同一且つ頻度が最も高いジェスチャのジェスチャID及びジェスチャ名を取得する(ステップS1203)。例えば、ジェスチャ候補取得部1001は、セットID’01’で頻度が最も高いという条件で、図13で示した表示ジェスチャ履歴テーブルを検索する。次に検索結果として、ジェスチャ候補取得部1001は、セットID’01’、頻度'5'と対応付けられていたジェスチャID’01’及びジェスチャ名’Check’を取得する。そしてジェスチャ候補取得部1001は、取得したジェスチャID及びジェスチャ名をジェスチャ表示処理部304に出力する。
Then, the gesture
そして、ジェスチャ表示処理部304が、入力されたジェスチャID及びジェスチャ名に基づいてジェスチャを表示するための処理を行うことで、タブレット機能付ディスプレイ101に入力可能で最も頻度が高いジェスチャが表示される。
Then, the gesture
図15は、上述した処理に基づいて入力可能なジェスチャがポップアップ形式で表示されたタブレット機能付ディスプレイ101の画面例を示した図である。タブレット機能付ディスプレイ101は入力可能であり最も頻度が高いジェスチャである’Check’を表示する。また第2の実施の形態と同様にジェスチャ名’All’は入力可能な全てのジェスチャを表示するためのジェスチャであり、ポップアップ形式で表示するときは常に表示される。なお、ジェスチャ’All’に対応した軌跡を描いた場合は、頻度に関係なく表示ジェスチャ履歴テーブルが保持するペンデバイス150を検知した位置座標のジェスチャ領域と対応した入力可能な全てのジェスチャをタブレット機能付ディスプレイ101上に表示する。
FIG. 15 is a diagram illustrating a screen example of the
図16は、PDA1000がジェスチャ認識を一度も行われていない状態においてポップアップ形式で表示したタブレット機能付ディスプレイ101の画面例を示した図である。初期状態では記憶部1002が記憶する表示ジェスチャ履歴テーブルの頻度が全て’0’と設定されているため、ジェスチャ候補取得部1001は最も高い頻度のジェスチャが無いため、本図のように表示する。他の表示方法として、初期状態においてはタブレット機能付ディスプレイ101上に全てのジェスチャを表示すること等も考えられる。
FIG. 16 is a diagram showing a screen example of the
なお、頻度が高い順から1つ表示することに制限するものではなく頻度の高い順から予め定められた数だけ表示するものであれば良い。また、本実施の形態は、頻度の高い順から表示することに制限するものではなく、頻度を用いてジェスチャを表示するか否か判定するものであればよい。表示方法の他の例としては、頻度が低い順からジェスチャを表示することが考えられる。 It should be noted that the display is not limited to one in the descending order of frequency, but may be a predetermined number from the descending order of frequency. In addition, the present embodiment is not limited to display in the order of frequency, and may be anything that determines whether or not to display a gesture using frequency. As another example of the display method, it is conceivable to display the gestures in ascending order of frequency.
また、本実施の形態においては、頻度に基づいて表示するジェスチャを判定することとしたが、頻度以外の情報に基づいて、ジェスチャを表示することも考えられる。例えば、頻度ではなく、最後に入力されたジェスチャから順に表示することも考えられる。この場合、記憶部で保持するテーブルは、表示ジェスチャ履歴テーブルの列’頻度’の代わりに列’更新時刻’を保持する表示ジェスチャ更新時刻テーブルとする。そして表示ジェスチャ更新時刻テーブルに対して更新時刻を更新するジェスチャ時刻更新部を備え、ジェスチャが入力される毎に、ジェスチャに対応した更新時刻を更新する。これにより最後に入力されたジェスチャが表示されるため利便性が向上した。また、更新時刻と頻度を組み合わせてジェスチャをポップアップ形式で表示することにしても良い。 In the present embodiment, the gesture to be displayed is determined based on the frequency. However, it is also possible to display the gesture based on information other than the frequency. For example, it is possible to display not the frequency but the last input gesture. In this case, the table held in the storage unit is a display gesture update time table that holds the column “update time” instead of the column “frequency” of the display gesture history table. A gesture time update unit that updates the update time with respect to the display gesture update time table is provided, and the update time corresponding to the gesture is updated each time a gesture is input. This improves the convenience because the last input gesture is displayed. Further, the gesture may be displayed in a pop-up format by combining the update time and the frequency.
第3の実施の形態においては、ジェスチャ領域毎に使用した頻度の高い順にジェスチャを表示することとした。このため使用頻度が低いため重要度が低いと考えられるジェスチャを表示せず、また使用頻度が高いため重要度が高いと考えられるジェスチャのみ表示するため、利用者はジェスチャが表示された直後に重要度が高いジェスチャを視認することで所望の操作を行えることとなり、PDA1000の利便性が向上した。
In the third embodiment, the gestures are displayed in the order of frequency of use for each gesture region. For this reason, gestures that are considered to be less important because they are used less frequently are not displayed, and only those that are considered important because they are used more frequently are displayed, so the user is important immediately after the gesture is displayed. A user can perform a desired operation by visually recognizing a gesture having a high degree, and the convenience of the
また、利用者のジェスチャを利用した頻度に基づいてジェスチャを表示するか否かを判断するため、利用者の利用状況に基づいて適切なジェスチャの表示が可能となり、PDA1000の利便性が向上した。
In addition, since it is determined whether or not to display a gesture based on the frequency of using the user's gesture, it is possible to display an appropriate gesture based on the user's usage status, and the convenience of the
(第4の実施の形態)
第3の実施の形態にかかるPDAまでは、認識されるジェスチャのサイズについて判断しなかった。第4の実施の形態にかかるPDAでは、認識されるジェスチャのサイズにより行う処理を変更するものである。
(Fourth embodiment)
Until the PDA according to the third embodiment, the size of the recognized gesture was not determined. In the PDA according to the fourth embodiment, the processing to be performed is changed depending on the size of the recognized gesture.
図17は、第4の実施の形態にかかるPDA1600の構成を示すブロック図である。上述した第1の実施の形態にかかるPDA100とは、ジェスチャ認識部105とは処理が異なるジェスチャ認識部1601に変更され、ジェスチャ処理部106と処理が異なるジェスチャ処理部1603に変更された点で異なる。以下の説明では、上述した実施の形態1と同一の構成要素には同一の符号を付してその説明を省略している。
FIG. 17 is a block diagram showing a configuration of a
ジェスチャ認識部1601は、入力されたペン入力情報が保持していたタブレット機能付ディスプレイ101上に描かれた軌跡からジェスチャを認識する。また、ジェスチャ認識部1601は、領域算出部1602を備えており、ジェスチャとして描かれた軌跡による領域の大きさを算出する。なお、ジェスチャ認識の方式は、既存のいかなる方法を用いても良い。
The
領域算出部1602は、ジェスチャとして描かれた軌跡が占める領域の面積を算出する。領域算出部1602は、軌跡が占める領域の面積として、タブレット機能付ディスプレイ101の描画領域の辺と平行となる辺を有する矩形の面積であり、ジェスチャとして描かれた軌跡と外接する矩形の面積を算出する。
The
ジェスチャ処理部1603は、ジェスチャ認識部105が認識したジェスチャ及び領域算出部1602が算出した領域の面積に基づいて処理を行う。例えば、タブレット機能付ディスプレイ101に描画されているのが地図であり、認識されたジェスチャが拡大縮小である場合に、ジェスチャとして描かれた軌跡が占める領域及び地図の表示領域の面積に基づいて拡大率を導出し、タブレット機能付ディスプレイ101には導出された拡大率により地図を拡大して表示する等の処理を行う。なお、具体的な処理は後述する。
The
次に、以上により構成された本実施の形態に係るPDA1600においてペンデバイス150より入力されてからタブレット機能付ディスプレイ101に表示するまでの処理を説明する。図18は本実施の形態にかかるPDA1600においてペンデバイス150で入力されてタブレット機能付ディスプレイ101に表示するまでフローチャートである。なお、本図においてはペン入力の接触時間による入力モードの切り替え処理を省略する。
Next, processing from the input from the
タブレット機能付ディスプレイ101は、ペンデバイス150を用いて指示された位置座標を入力する(ステップS1701)。次に入力処理部102は、タブレット機能付ディスプレイ101から入力された位置座標等に基づいてペン入力情報を生成する(ステップS1702)。そして入力モード判定部104は、入力モードがジェスチャ入力モードであるか否かを判定する(ステップS1703)。なお、入力モード判定部104が、入力モードがストローク入力モードと判定した場合は(ステップS1703:No)、第1の実施の形態で示した処理手順と同様にペン入力情報をストローク処理部107に出力し、ストローク処理部107が処理を行う(図示しない)。
The
入力モード判定部104がジェスチャ入力モードと判定した場合(ステップS1703:Yes)、入力処理部102により生成されたペン入力情報は、ジェスチャ認識部105に出力される。ジェスチャ認識部1601はペン入力情報が保持していたタブレット機能付ディスプレイ101上に描かれた軌跡からジェスチャを認識する(ステップS1704)。そして、領域算出部1602は、タブレット機能付ディスプレイ101上に描かれた軌跡が占める領域の面積を算出する(ステップS1705)。
When the input
ジェスチャ処理部1603は、ジェスチャ認識部1601により認識されたジェスチャ及び領域算出部により算出された領域の面積に基づいた処理を行う(ステップS1706)。詳細な例としては、算出された領域の面積が地図の表示領域の面積と比較し、比較した結果に基づいて拡大するか縮小するかを決定する。さらには面積の比率に応じて拡大率あるいは縮小率を決定することも考えられる。
The
次に表示処理部108は、ステップS1706による処理結果を表示するための処理を行う(ステップS1707)。そしてタブレット機能付ディスプレイ101は、表示処理部108で処理された結果を表示する(ステップS1708)。
Next, the
上述した処理手順により、入力されたジェスチャのみならず、軌跡として描かれた領域の占める面積に基づいた処理が可能となる。 By the processing procedure described above, processing based not only on the input gesture but also on the area occupied by the region drawn as the trajectory becomes possible.
次に、上述した処理手順において、ジェスチャ認識部1601が縮小拡大を示すジェスチャと認識した場合の処理について説明する。図19は、ジェスチャ認識部1601が縮小拡大を示すジェスチャと認識した場合の図18のステップS1704からステップS1706までの詳細な処理手順を示すフローチャートである。なお、本処理手順において、タブレット機能付ディスプレイ101は、地図を表示しているものとする。
Next, in the processing procedure described above, processing when the
ジェスチャ認識部1601は、ペン入力情報が保持していたタブレット機能付ディスプレイ101上に描かれた軌跡から、拡大縮小を示すジェスチャを認識する(ステップS1801)。
The
次に領域算出部1602は、タブレット機能付ディスプレイ101上に描かれた軌跡が占める領域の面積を算出する(ステップS1802)。
Next, the
そしてジェスチャ処理部1603は、ジェスチャ認識部1601から入力された情報から拡大縮小を行うこととし、さらに領域算出部1602により算出された領域の面積が地図の描画領域の面積より大きいか否かを判定する(ステップS1803)。
The
ジェスチャ処理部1603は、領域算出部1602により算出された領域の方が小さいと判定した場合(ステップS1803:No)、ジェスチャ処理部1603は、領域算出部1602により算出された領域の面積と地図の描画領域の面積の比率を算出する(ステップS1804)。
If the
図20は、ジェスチャ処理部1603が地図の描画領域より算出された領域の面積の方が小さいと判定された場合の画面例を示した図である。黒線で示された楕円がペンデバイス150で描かれたジェスチャであり、領域算出部1602により算出される領域は、破線による矩形で示された領域1901となる。そして、ジェスチャ処理部1603は、ステップS1803において、領域1901による面積と、地図の描画領域1902の面積の比較を行った。次にジェスチャ処理部1603は、ステップS1804において、地図の描画領域1902の面積と領域1901による面積の比率を算出した。
FIG. 20 is a diagram illustrating a screen example when the
図19に戻り、ジェスチャ処理部1603は、算出された比率を拡大率として地図を描画する旨を表示処理部108に出力する(ステップS1805)。つまり拡大率が入力された表示処理部108は、領域1901で示された領域を描画領域1902全体に表示するための処理を行う。
Returning to FIG. 19, the
ジェスチャ処理部1603は、領域算出部1602により算出された領域の方が大きいと判定した場合(ステップS1803:Yes)、ジェスチャ処理部1603は、デフォルトの縮小率で地図を描画する旨を表示処理部108に出力する(ステップS1806)。デフォルトの縮小率とは、予め設定されている縮小率を示し、利用者の利便性に基づいて設定するものとする。デフォルトの縮小率としては、例えば1/2などが考えられる。
If the
図21は、ジェスチャ処理部1603が地図の描画領域より算出された領域の面積の方が大きいと判定された場合の画面例を示した図である。そして、黒線で示された楕円がペンデバイス150で描かれたジェスチャであり、領域算出部1602により算出される領域は、破線による矩形で示された領域2001となる。そして、ジェスチャ処理部は、ステップS1803において、領域2001による面積と、地図の描画領域1902の面積の比較を行った。
FIG. 21 is a diagram showing a screen example when the
そして、上述した処理により縮小拡大する旨を取得した表示処理部108は、縮小拡大表示するための処理が行い、タブレット機能付ディスプレイ101は縮小拡大した地図を表示することが可能となる。
The
本実施の形態のPDA1600は、ペンデバイスで描画するときにジェスチャのサイズを変更するだけで、縮小か拡大か選択することが可能となり、さらに拡大率をも変更することが可能となった。
The
なお、本実施の形態は、ジェスチャの大小の判定を、面積に基づいて判定するものに制限するものではない。 Note that the present embodiment does not limit the determination of the size of a gesture to the determination based on the area.
また、本実施の形態においては、ジェスチャとして描かれた軌跡の面積に基づいて拡大縮小する場合について説明したが、描画領域を変更するジェスチャが認識された場合において、ジェスチャの向きと方向に基づいて描画範囲を変更するなど様々な処理に用いることが考えられる。例えば、ジェスチャとして矢印が描かれた場合、矢印方向の地図の表示する処理を行う場合、矢印の大きさに比例して地図を描画する領域の移動量が決定される等が考えられる。 Further, in the present embodiment, the case of enlarging / reducing based on the area of the trajectory drawn as a gesture has been described. However, when a gesture for changing the drawing area is recognized, based on the direction and direction of the gesture. It can be used for various processes such as changing the drawing range. For example, when an arrow is drawn as a gesture, when a map display process in the direction of the arrow is performed, the amount of movement of a map drawing area may be determined in proportion to the size of the arrow.
なお、本実施の形態においては、第1の実施の形態に係るPDA100のジェスチャ認識部105の処理をジェスチャ認識部1601に変更した形態の説明をしたが、第2の実施の形態に係るPDA300あるいは第3の実施の形態に係るPDA1000のジェスチャ認識部105をジェスチャ認識部1601に変更し、かつジェスチャ処理部106をジェスチャ処理部1603に変更した形態で、上述した処理を実施しても良い。
In the present embodiment, the description has been given of the mode in which the
第4の実施の形態においては、利用者に描かれた軌跡の領域の大きさに基づいて、PDA1600で行う処理を簡単に変更することが可能となった。
In the fourth embodiment, the processing performed by the
ジェスチャ入力装置、ジェスチャ入力方法及びジェスチャ入力プログラムは、ジェスチャ入力を行う装置等に有用であり、特に、ペンデバイスにより入力された軌跡をジェスチャ入力とするか否かを切り替える技術として有用である。 The gesture input device, the gesture input method, and the gesture input program are useful for a device that performs gesture input, and are particularly useful as a technique for switching whether or not a trajectory input by a pen device is used as a gesture input.
100、300、1000、1600 PDA
101 タブレット機能付ディスプレイ
102、305 入力処理部
103 入力モード切替部
104 入力モード判定部
105、1601 ジェスチャ認識部
106 ジェスチャ処理部
107 ストローク処理部
108、303 表示処理部
150 ペンデバイス
301、1001 ジェスチャ候補取得部
302、1002 記憶部
304 ジェスチャ表示処理部
401、402 予め定められたジェスチャを認識する領域
403 ストローク入力を行った領域
501 GesutureArea1
502 GesutureArea2
503 GesutureArea3
504 GesutureArea4
505 GesutureArea5
506 GesutureArea6
601 CPU
602 ROM
603 RAM
604 表示部
605 入力I/F
606 通信I/F
701、1301、1401 ジェスチャのポップアップ表示
702〜704、1302、1303 ジェスチャの軌跡
1003 ジェスチャ履歴更新部
1602 領域算出部
1603 ジェスチャ処理部
1901 ジェスチャとして描かれた領域の面積
1902 地図の描画領域
100, 300, 1000, 1600 PDA
101 Display with
502 TextureArea2
503 TextureArea3
504 TextureArea4
505 TextureArea5
506 TextureArea6
601 CPU
602 ROM
603 RAM
604
606 Communication I / F
701, 1301, 1401 Gesture pop-up
Claims (12)
前記入力手段により入力された連続する複数の前記位置座標による特定の軌跡に対応して実行する処理を示すジェスチャを受け付けるジェスチャ入力モードの設定及び解除を、前記入力手段から前記座標入力面上の任意の領域の前記位置座標が入力された入力タイミングに基づいて切り替えるモード切替手段と、
前記モード切替手段による切り替えにより、前記ジェスチャ入力モードが設定された場合、前記入力手段により入力された前記軌跡による前記ジェスチャに対応した処理を実行するジェスチャ処理手段と、
を備えたことを特徴とするジェスチャ入力装置。 An input means for inputting position coordinates from the coordinate input surface;
The setting and release of the gesture input mode for accepting a gesture indicating processing to be executed corresponding to a specific locus by a plurality of consecutive position coordinates input by the input means can be arbitrarily set on the coordinate input surface from the input means. Mode switching means for switching based on the input timing at which the position coordinates of the area are input;
Gesture processing means for executing processing corresponding to the gesture by the trajectory input by the input means when the gesture input mode is set by switching by the mode switching means;
A gesture input device characterized by comprising:
を特徴とする請求項1に記載のジェスチャ入力装置。 The gesture input device according to claim 1, wherein the mode switching unit switches between setting and canceling the gesture input mode when a time input as the input timing is equal to or longer than a predetermined time. .
前記モード切替手段による切り替えにより、前記ジェスチャ入力モードが解除された場合、前記入力手段により入力された前記軌跡の形状を表示する処理を行うストローク処理手段と、
をさらに備えたことを特徴とする請求項1または請求項2に記載のジェスチャ入力装置。 The mode switching means switches the gesture input mode to cancel based on the input timing when the gesture input mode is set, and based on the input timing when the gesture input mode is cancelled. Switch gesture input mode to setting,
Stroke processing means for performing processing for displaying the shape of the trajectory input by the input means when the gesture input mode is canceled by switching by the mode switching means;
The gesture input device according to claim 1, further comprising:
前記領域ジェスチャ対応記憶手段が記憶する前記領域ジェスチャ対応情報から、前記入力手段から入力された前記座標入力面上の前記位置座標を含む前記検知領域と対応付けられた前記ジェスチャ情報を取得する取得手段と、
前記取得手段により取得した前記ジェスチャ情報を表示するジェスチャ表示手段と、
をさらに備えたことを特徴とする請求項1乃至請求項3のいずれか1つに記載のジェスチャ入力装置。 Area gesture correspondence storage means for storing area gesture correspondence information in which a predetermined detection area on the coordinate input surface is associated with gesture information indicating a gesture that can be input in the detection area;
Acquisition means for acquiring the gesture information associated with the detection area including the position coordinates on the coordinate input surface input from the input means, from the area gesture correspondence information stored in the area gesture correspondence storage means. When,
Gesture display means for displaying the gesture information acquired by the acquisition means;
The gesture input device according to any one of claims 1 to 3, further comprising:
前記取得手段は、前記領域ジェスチャ対応情報から、前記入力手段から入力された前記座標入力面上の前記位置座標を含む前記検知領域から、前記領域ジェスチャ対応情報で対応付けられた前記ジェスチャ情報を取得し、前記ジェスチャ頻度対応情報より取得した前記ジェスチャ情報と対応付けられた前記頻度情報に基づいて、前記ジェスチャ情報を取得すること
を特徴とする請求項4に記載のジェスチャ入力装置。 Gesture frequency correspondence storage means for storing gesture frequency correspondence information in which the gesture information is associated with frequency information with which the gesture indicated by the gesture information is input;
The acquisition means acquires the gesture information associated with the area gesture correspondence information from the detection area including the position coordinates on the coordinate input surface input from the input means from the area gesture correspondence information. The gesture input device according to claim 4, wherein the gesture information is acquired based on the frequency information associated with the gesture information acquired from the gesture frequency correspondence information.
を特徴とする請求項1乃至請求項7のいずれか1つに記載のジェスチャ入力装置。 When the gesture input mode is set, the gesture processing means determines whether the trajectory input by the input means and an area occupied by the trajectory are larger than a predetermined area on the coordinate input surface. The gesture input device according to any one of claims 1 to 7, wherein a process corresponding to the gesture determined by the operation is performed.
を特徴とする請求項8に記載のジェスチャ入力装置。 The gesture processing means further includes area calculation means for calculating the area of the area occupied by the trajectory input by the input means, and when the gesture input mode is set, the gesture input means input by the input means A gesture determined by whether or not a locus and a region occupied by the locus are larger than a predetermined region on the coordinate input surface, and an area calculated by the region calculation unit and a predetermined on the coordinate input surface The gesture input device according to claim 8, wherein the processing is performed based on a ratio with the area of the region.
をさらに備えたことを特徴とする請求項1乃至請求項9に記載のジェスチャ入力装置。 Display means for displaying a result of processing performed by the gesture processing means;
The gesture input device according to claim 1, further comprising:
前記入力ステップにより入力された連続する複数の前記位置座標による特定の軌跡に対応して実行する処理を示すジェスチャを受け付けるジェスチャ入力モードの設定及び解除を、前記入力ステップから前記座標入力面上の任意の領域の前記位置座標が入力された入力タイミングに基づいて切り替えるモード切替ステップと、
前記モード切替ステップによる切り替えにより、前記ジェスチャ入力モードが設定された場合、前記入力ステップにより入力された前記軌跡による前記ジェスチャに対応した処理を実行するジェスチャ処理ステップと、
を備えたことを特徴とするジェスチャ入力方法。 An input step for inputting position coordinates from the coordinate input surface;
The setting and canceling of the gesture input mode for accepting a gesture indicating processing to be executed corresponding to a specific trajectory by a plurality of continuous position coordinates input in the input step can be arbitrarily set on the coordinate input surface from the input step. A mode switching step of switching based on the input timing at which the position coordinates of the area are input;
A gesture processing step for executing processing corresponding to the gesture by the trajectory input by the input step when the gesture input mode is set by switching by the mode switching step;
A gesture input method characterized by comprising:
前記入力手順により入力された連続する複数の前記位置座標による特定の軌跡に対応して実行する処理を示すジェスチャを受け付けるジェスチャ入力モードの設定及び解除を、前記入力手順から前記座標入力面上の任意の領域の前記位置座標が入力された入力タイミングに基づいて切り替えるモード切替手順と、
前記モード切替手順による切り替えにより、前記ジェスチャ入力モードが設定された場合、前記入力手順により入力された前記軌跡による前記ジェスチャに対応した処理を実行するジェスチャ処理手順と、
をコンピュータに実行させるジェスチャ入力プログラム。 An input procedure for inputting position coordinates from the coordinate input surface,
The setting and release of the gesture input mode for accepting a gesture indicating processing to be executed corresponding to a specific trajectory by a plurality of consecutive position coordinates input by the input procedure can be arbitrarily set on the coordinate input surface from the input procedure. Mode switching procedure for switching based on the input timing at which the position coordinates of the area of
A gesture processing procedure for executing processing corresponding to the gesture by the trajectory input by the input procedure when the gesture input mode is set by switching by the mode switching procedure;
A gesture input program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004285242A JP2006099468A (en) | 2004-09-29 | 2004-09-29 | Gesture input device, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004285242A JP2006099468A (en) | 2004-09-29 | 2004-09-29 | Gesture input device, method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006099468A true JP2006099468A (en) | 2006-04-13 |
Family
ID=36239207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004285242A Pending JP2006099468A (en) | 2004-09-29 | 2004-09-29 | Gesture input device, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006099468A (en) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007305039A (en) * | 2006-05-15 | 2007-11-22 | Sony Corp | Information processing apparatus and method, and program |
JP2008203973A (en) * | 2007-02-16 | 2008-09-04 | Softbank Mobile Corp | Operation input processing method and portable information processor |
JP2009087056A (en) * | 2007-09-28 | 2009-04-23 | Fujitsu Ltd | Input device and computer program |
JP2009535175A (en) * | 2006-05-04 | 2009-10-01 | ソニー・コンピュータ・エンタテインメント・アメリカ・インク | A method for detecting and tracking user operations on the main body of the game controller and converting the movement into input and game commands |
JP2010061433A (en) * | 2008-09-04 | 2010-03-18 | Casio Comput Co Ltd | Projector, projecting method, and program |
JP2010074664A (en) * | 2008-09-19 | 2010-04-02 | Toshiba Corp | Radio communication device and radio communication method |
JP2010139899A (en) * | 2008-12-15 | 2010-06-24 | Seiko Epson Corp | Projection system, projector, program, and information storage medium |
JP2010139686A (en) * | 2008-12-11 | 2010-06-24 | Seiko Epson Corp | Projector, program, and information storage medium |
WO2010143673A1 (en) * | 2009-06-10 | 2010-12-16 | 日本電気株式会社 | Electronic device, gesture processing method, and gesture processing program |
JP2011028746A (en) * | 2009-07-21 | 2011-02-10 | Pixart Imaging Inc | Gesture recognition method and touch system incorporating the same |
WO2012169155A1 (en) * | 2011-06-07 | 2012-12-13 | Sony Corporation | Information processing terminal and method, program, and recording medium |
JP2013514590A (en) * | 2009-12-18 | 2013-04-25 | シナプティクス インコーポレイテッド | Method and apparatus for changing operating mode |
US20130286435A1 (en) * | 2012-04-27 | 2013-10-31 | Konica Minolta, Inc. | Image processing apparatus, method for controlling the same, and recording medium |
JP2013257694A (en) * | 2012-06-12 | 2013-12-26 | Kyocera Corp | Device, method, and program |
JP2014059847A (en) * | 2012-09-19 | 2014-04-03 | Brother Ind Ltd | Electronic apparatus and operation display method of operation terminal |
CN104898515A (en) * | 2015-05-07 | 2015-09-09 | 罗震 | Timing switch as well as control method and control device thereof |
JP2016015165A (en) * | 2015-09-24 | 2016-01-28 | ソニー株式会社 | Information processing apparatus and method, program, and recording medium |
US9381424B2 (en) | 2002-07-27 | 2016-07-05 | Sony Interactive Entertainment America Llc | Scheme for translating movements of a hand-held controller into inputs for a system |
US9393487B2 (en) | 2002-07-27 | 2016-07-19 | Sony Interactive Entertainment Inc. | Method for mapping movements of a hand-held controller to game commands |
US9465532B2 (en) | 2009-12-18 | 2016-10-11 | Synaptics Incorporated | Method and apparatus for operating in pointing and enhanced gesturing modes |
JP2017058980A (en) * | 2015-09-16 | 2017-03-23 | 三洋テクノソリューションズ鳥取株式会社 | Information terminal device |
US10220302B2 (en) | 2002-07-27 | 2019-03-05 | Sony Interactive Entertainment Inc. | Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera |
USRE48417E1 (en) | 2006-09-28 | 2021-02-02 | Sony Interactive Entertainment Inc. | Object direction using video input combined with tilt angle information |
-
2004
- 2004-09-29 JP JP2004285242A patent/JP2006099468A/en active Pending
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9393487B2 (en) | 2002-07-27 | 2016-07-19 | Sony Interactive Entertainment Inc. | Method for mapping movements of a hand-held controller to game commands |
US9381424B2 (en) | 2002-07-27 | 2016-07-05 | Sony Interactive Entertainment America Llc | Scheme for translating movements of a hand-held controller into inputs for a system |
US10220302B2 (en) | 2002-07-27 | 2019-03-05 | Sony Interactive Entertainment Inc. | Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera |
JP2009535175A (en) * | 2006-05-04 | 2009-10-01 | ソニー・コンピュータ・エンタテインメント・アメリカ・インク | A method for detecting and tracking user operations on the main body of the game controller and converting the movement into input and game commands |
JP2007305039A (en) * | 2006-05-15 | 2007-11-22 | Sony Corp | Information processing apparatus and method, and program |
USRE48417E1 (en) | 2006-09-28 | 2021-02-02 | Sony Interactive Entertainment Inc. | Object direction using video input combined with tilt angle information |
JP2008203973A (en) * | 2007-02-16 | 2008-09-04 | Softbank Mobile Corp | Operation input processing method and portable information processor |
JP2009087056A (en) * | 2007-09-28 | 2009-04-23 | Fujitsu Ltd | Input device and computer program |
JP2010061433A (en) * | 2008-09-04 | 2010-03-18 | Casio Comput Co Ltd | Projector, projecting method, and program |
JP2010074664A (en) * | 2008-09-19 | 2010-04-02 | Toshiba Corp | Radio communication device and radio communication method |
JP2010139686A (en) * | 2008-12-11 | 2010-06-24 | Seiko Epson Corp | Projector, program, and information storage medium |
JP2010139899A (en) * | 2008-12-15 | 2010-06-24 | Seiko Epson Corp | Projection system, projector, program, and information storage medium |
EP2442214A4 (en) * | 2009-06-10 | 2015-05-20 | Nec Corp | Electronic device, gesture processing method, and gesture processing program |
KR101517655B1 (en) | 2009-06-10 | 2015-05-04 | 닛본 덴끼 가부시끼가이샤 | Electronic device, gesture processing method, and recording medium |
WO2010143673A1 (en) * | 2009-06-10 | 2010-12-16 | 日本電気株式会社 | Electronic device, gesture processing method, and gesture processing program |
US9176663B2 (en) | 2009-06-10 | 2015-11-03 | Lenovo Innovations Limited (Hong Kong) | Electronic device, gesture processing method and gesture processing program |
CN102460353A (en) * | 2009-06-10 | 2012-05-16 | 日本电气株式会社 | Electronic device, gesture processing method, and gesture processing program |
JPWO2010143673A1 (en) * | 2009-06-10 | 2012-11-29 | 日本電気株式会社 | Electronic device, gesture processing method, and gesture processing program |
JP5522167B2 (en) * | 2009-06-10 | 2014-06-18 | 日本電気株式会社 | Electronic device, gesture processing method, and gesture processing program |
KR101517742B1 (en) | 2009-06-10 | 2015-05-04 | 닛본 덴끼 가부시끼가이샤 | Electronic device, gesture processing method, and gesture processing program |
JP2011028746A (en) * | 2009-07-21 | 2011-02-10 | Pixart Imaging Inc | Gesture recognition method and touch system incorporating the same |
KR101766187B1 (en) * | 2009-12-18 | 2017-08-08 | 시냅틱스 인코포레이티드 | Method and apparatus for changing operating modes |
JP2013514590A (en) * | 2009-12-18 | 2013-04-25 | シナプティクス インコーポレイテッド | Method and apparatus for changing operating mode |
US9465532B2 (en) | 2009-12-18 | 2016-10-11 | Synaptics Incorporated | Method and apparatus for operating in pointing and enhanced gesturing modes |
US9619141B2 (en) | 2011-06-07 | 2017-04-11 | Sony Corporation | Information processing terminal and method, program, and recording medium |
WO2012169155A1 (en) * | 2011-06-07 | 2012-12-13 | Sony Corporation | Information processing terminal and method, program, and recording medium |
US9665273B2 (en) | 2011-06-07 | 2017-05-30 | Sony Corporation | Information processing terminal and method, program, and recording medium |
JP2013232047A (en) * | 2012-04-27 | 2013-11-14 | Konica Minolta Inc | Image processing apparatus, control method of the same, and control program of the same |
US20130286435A1 (en) * | 2012-04-27 | 2013-10-31 | Konica Minolta, Inc. | Image processing apparatus, method for controlling the same, and recording medium |
JP2013257694A (en) * | 2012-06-12 | 2013-12-26 | Kyocera Corp | Device, method, and program |
JP2014059847A (en) * | 2012-09-19 | 2014-04-03 | Brother Ind Ltd | Electronic apparatus and operation display method of operation terminal |
CN104898515A (en) * | 2015-05-07 | 2015-09-09 | 罗震 | Timing switch as well as control method and control device thereof |
JP2017058980A (en) * | 2015-09-16 | 2017-03-23 | 三洋テクノソリューションズ鳥取株式会社 | Information terminal device |
JP2016015165A (en) * | 2015-09-24 | 2016-01-28 | ソニー株式会社 | Information processing apparatus and method, program, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006099468A (en) | Gesture input device, method, and program | |
US8451236B2 (en) | Touch-sensitive display screen with absolute and relative input modes | |
JP5751934B2 (en) | Information processing apparatus, information processing method, and program | |
JP4560062B2 (en) | Handwriting determination apparatus, method, and program | |
CN108121457B (en) | Method and apparatus for providing character input interface | |
US8291348B2 (en) | Computing device and method for selecting display regions responsive to non-discrete directional input actions and intelligent content analysis | |
US9678659B2 (en) | Text entry for a touch screen | |
CN108733303B (en) | Touch input method and apparatus of portable terminal | |
US10042438B2 (en) | Systems and methods for text entry | |
US8456433B2 (en) | Signal processing apparatus, signal processing method and selection method of user interface icon for multi-touch panel | |
US20150220265A1 (en) | Information processing device, information processing method, and program | |
EP2770423A2 (en) | Method and apparatus for operating object in user device | |
JP2006164238A (en) | Processing method of touch-pad input information, and processing apparatus of touch-pad input information | |
KR20110109551A (en) | Touch screen device and method for processing input of the same | |
KR20140064611A (en) | Touch operation processing method and electronic device thereof | |
US9378427B2 (en) | Displaying handwritten strokes on a device according to a determined stroke direction matching the present direction of inclination of the device | |
JP2015007946A (en) | Information processing apparatus and control method of the same, program, and recording medium | |
JP2006235832A (en) | Processor, information processing method and program | |
JP2007287015A (en) | Input device for selecting item described in a hierarchical structure, character input device, and input program | |
JP2014056487A (en) | Information processing apparatus, and control method and program of the same | |
WO2018112803A1 (en) | Touch screen-based gesture recognition method and device | |
JP2002055781A (en) | Information processor and method for controlling the same and computer readable memory | |
JP5480357B1 (en) | Electronic apparatus and method | |
JP2016066133A (en) | Method for processing input of pointing stick, computer and computer program | |
US10101905B1 (en) | Proximity-based input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080318 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080708 |