JP2011135226A - Device and method for recognizing gesture, and program - Google Patents
Device and method for recognizing gesture, and program Download PDFInfo
- Publication number
- JP2011135226A JP2011135226A JP2009291406A JP2009291406A JP2011135226A JP 2011135226 A JP2011135226 A JP 2011135226A JP 2009291406 A JP2009291406 A JP 2009291406A JP 2009291406 A JP2009291406 A JP 2009291406A JP 2011135226 A JP2011135226 A JP 2011135226A
- Authority
- JP
- Japan
- Prior art keywords
- input
- gesture
- screen
- shape
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Facsimiles In General (AREA)
Abstract
Description
本発明は、ジェスチャー認識装置、その認識方法及びプログラムに関する。 The present invention relates to a gesture recognition device, a recognition method thereof, and a program.
ジェスチャーを用いて機器の機能を呼び出す技術が知られている。特許文献1には、ジェスチャーを用いて画像形成装置の印刷設定を指示する技術が開示されている。この装置では、設定された機能を視覚的に表すためのプレビュー画像を操作パネルに表示する。ユーザは、例えば、パンチ穴の機能を呼び出すために、プレビュー画像上においてパンチ穴を施したい位置に2つの円をタッチ操作で入力する。 A technique for calling a function of a device using a gesture is known. Japanese Patent Application Laid-Open No. 2004-151561 discloses a technique for instructing print settings of an image forming apparatus using a gesture. In this apparatus, a preview image for visually expressing the set function is displayed on the operation panel. For example, in order to call a punch hole function, the user inputs two circles by touch operation at a position where a punch hole is desired on the preview image.
階層画面/階層メニューを用いた一般的な装置は、所望の機能を呼び出すために、1つずつ階層を辿らなければならない。これに比べジェスチャーを用いた装置は、所望の機能を直接呼び出せるという利点がある。そのため、階層画面/階層メニューを用いる場合よりも、所望の機能を呼び出すまでの手順が少なくて済む。 A general apparatus using a hierarchy screen / hierarchy menu has to follow a hierarchy one by one in order to call a desired function. In contrast, an apparatus using a gesture has an advantage that a desired function can be directly called. Therefore, fewer steps are required until a desired function is called than when a hierarchical screen / hierarchy menu is used.
上述した特許文献1に記載された技術においては、例えば、対応するジェスチャーを知らない場合、ユーザは、所望の機能を呼び出せない。そのため、使い勝手が悪かった。
In the technique described in
そこで、本発明は、上記課題に鑑みてなされたものであり、ジェスチャー操作時の操作性を向上させるようにした技術を提供することを目的とする。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a technique that improves operability during gesture operation.
上記課題を解決するため、本発明の一態様は、階層構造からなる操作画面を表示画面上に表示するジェスチャー認識装置であって、指示体により指示された表示画面上の座標を入力する入力手段と、ジェスチャーの形状と当該形状に対応する処理の内容とを含むジェスチャー辞書を格納する格納手段と、前記入力手段により連続する入力座標が入力された場合、前記ジェスチャー辞書に基づいて、当該連続する入力座標と前記ジェスチャーの形状とを比較し、当該入力に対応する処理の内容を認識する認識手段と、前記入力手段により連続する入力座標が入力された場合、第1の入力方式による入力であるか、第2の入力方式による入力であるかを判定する判定手段と、前記判定手段により前記第1の入力方式による入力であると判定された場合、前記認識手段により認識された処理の内容に対応した画面への遷移処理を実施し、前記判定手段により前記第2の入力方式による入力であると判定された場合、前記認識手段により認識された処理の内容に対応した画面よりも上位階層の画面への遷移処理を実施する実行手段とを具備することを特徴とする。 In order to solve the above-described problem, an aspect of the present invention is a gesture recognition device that displays an operation screen having a hierarchical structure on a display screen, and an input unit that inputs coordinates on the display screen instructed by an indicator And a storage means for storing a gesture dictionary including the shape of the gesture and the content of the process corresponding to the shape, and when the input coordinates that are continuous are input by the input means, the continuous When the input coordinates and the shape of the gesture are compared, the recognition means for recognizing the content of the processing corresponding to the input, and the continuous input coordinates are input by the input means, the input is based on the first input method. Or a determination unit that determines whether the input is based on the second input method, and the determination unit determines that the input is based on the first input method In this case, a transition process to a screen corresponding to the content of the process recognized by the recognition unit is performed, and when the determination unit determines that the input is based on the second input method, the recognition unit recognizes it. And executing means for executing a transition process to a screen higher than the screen corresponding to the contents of the processing.
本発明によれば、ジェスチャー操作時の操作性を向上させられる。 According to the present invention, the operability during gesture operation can be improved.
以下、本発明の一実施の形態について添付図面を参照して詳細に説明する。なお、以下に示す実施形態においては、ジェスチャー認識装置を画像形成装置に適用(内蔵)した場合を例に挙げて説明する。そのため、ユーザがジェスチャーにより呼び出す機能は、印刷設定となる。勿論、ジェスチャー認識装置は、画像形成装置に限られず、他の装置へ適用することもできる。例えば、デジタルカメラなどに適用しても構わない。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. In the embodiment described below, a case where the gesture recognition apparatus is applied (built in) to the image forming apparatus will be described as an example. Therefore, the function that the user calls by gesture is print setting. Of course, the gesture recognition apparatus is not limited to the image forming apparatus, and can be applied to other apparatuses. For example, it may be applied to a digital camera.
(実施形態1)
図1は、本発明の一実施の形態に係わるジェスチャー認識装置を適用した画像形成装置10のハードウェア構成の一例を示す図である。
(Embodiment 1)
FIG. 1 is a diagram illustrating an example of a hardware configuration of an
ここで、画像形成装置10は、CPU11と、ROM12と、RAM13と、記憶部14と、タッチパネル15と、表示部16と、画像形成部17とを具備して構成される。
Here, the
CPU(Central Processing Unit)11は、装置全体の動作を統括制御する。ROM(Read Only Memory)12は、プログラムや各種データを記憶する。RAM(Random Access Memory)13は、CPU11によるプログラムの実行時にワークエリアとして使用され、演算結果やデータ等を一時的に記憶する。記憶部14は、例えば、SD(Secure Digital)メモリカードやHDD(Hard Disk Drive)等で実現され、各種データを記憶する。
A CPU (Central Processing Unit) 11 controls the overall operation of the apparatus. A ROM (Read Only Memory) 12 stores programs and various data. A RAM (Random Access Memory) 13 is used as a work area when the CPU 11 executes a program, and temporarily stores calculation results, data, and the like. The
表示部16は、各種操作画面を表示する。タッチパネル15は、座標入力装置として機能し、表示画面(表示部16)上を指し示す指示体(指、ペン等)の座標位置を検出し、当該検出座標を装置内に入力する。ここで、表示部16及びタッチパネル15は、一体で構成されている。すなわち、タッチパネル15は、表示部16に重ねて設けられる。なお、タッチパネル15上でタッチ入力可能な領域を入力可能領域と呼ぶ。入力可能領域は、表示部16全体をカバーしていることが望ましい。
The
画像形成部17は、用紙等の記録媒体上に画像を形成し印刷を行なう。画像形成部17の方式は特に問わず、例えば、電子写真方式を採用してもよいし、インクジェット方式を採用してもよい。
The
ここで、画像形成装置10は、種々の印刷設定を行なうために複数の操作画面を有する。この複数の操作画面は、階層構造を有して構成される。以下、階層的に構成された操作画面を順番に辿って所望の印刷設定等を行なう操作を階層画面操作と呼ぶ。これに対しジェスチャーを用いて所望の印刷設定に一気に飛んで所望の印刷設定等を行なう操作をジェスチャー操作と呼ぶ。なお、ここでは、ジェスチャー操作と階層画面操作とを組み合わせて所望の印刷設定等を行なう場合について説明する。
Here, the
ここで、図2を用いて、操作画面における階層構造の一例について説明する。操作画面の階層構造は、ルートノード画面、中間ノード画面、リーフノード画面に大別される。この場合、コピー基本画面がルートノード画面に該当し、応用モード画面や地紋印刷画面などが中間ノード画面に該当し、コピー画面や丸秘画面などがリーフノード画面に該当する。ここでは、操作画面の階層構造において、ルートノードに向かう方向を上、リーフノードに向かう方向を下と表現する。例えば、コピー画面の1つ上の階層の画面は、スタンプ画面になり、スタンプ画面の1つ下の階層の画面は、コピー画面、丸秘画面、社外秘画面等になる。 Here, an example of a hierarchical structure on the operation screen will be described with reference to FIG. The hierarchical structure of the operation screen is roughly divided into a root node screen, an intermediate node screen, and a leaf node screen. In this case, the copy basic screen corresponds to the root node screen, the application mode screen, the copy-forgery-inhibited pattern printing screen, and the like correspond to the intermediate node screen, and the copy screen and the secret screen correspond to the leaf node screen. Here, in the hierarchical structure of the operation screen, the direction toward the root node is expressed as up, and the direction toward the leaf node is expressed as down. For example, the screen one level higher than the copy screen is a stamp screen, and the screen one level lower than the stamp screen is a copy screen, a confidential screen, a confidential screen, or the like.
階層画面操作では、ルートノード画面がスタート画面となる。ユーザは、ルートノード画面から項目を順に選択し、操作画面の階層構造を辿る。最後に到達するリーフノード画面が印刷設定可能な画面となる。例えば、コピー時にスタンプを設定する場合は、コピー基本画面、応用モード画面、地紋印刷画面、スタンプ画面、コピー画面の順に操作画面の階層構造を辿ることになる。ジェスチャー入力画面は、ジェスチャー入力可能な画面である。ジェスチャー操作時のスタート画面であり、この操作画面は、上述した階層構造には属さず、独立している。 In the hierarchy screen operation, the root node screen becomes the start screen. The user sequentially selects items from the root node screen and follows the hierarchical structure of the operation screen. The leaf node screen that arrives last is a screen on which print settings can be made. For example, when setting a stamp at the time of copying, the hierarchical structure of the operation screen is followed in the order of the copy basic screen, application mode screen, copy-forgery-inhibited pattern printing screen, stamp screen, and copy screen. The gesture input screen is a screen on which gesture input is possible. This is a start screen for gesture operation, and this operation screen does not belong to the above-described hierarchical structure and is independent.
ここで、図3は、表示部16に表示される操作画面の一例を示している。図3(a)は、図2に示すジェスチャー入力画面に対応し、図3(b)は、図2に示すスタンプ画面に対応する。スタンプ画面では、コピー、丸秘、社外秘などの印刷設定が選択可能である。図3(c)は、図2に示す丸秘画面に対応する。
Here, FIG. 3 shows an example of an operation screen displayed on the
ジェスチャー入力画面の中央部には、図3(a)に示すように、用紙プレビュー領域41が設けられる。用紙プレビュー領域41は、印刷の仕上がりイメージを表しており、ジェスチャーを入力する際に位置のガイドの役割を果たす。例えば、用紙の中央部に「丸秘」のスタンプを透かしたい場合、ユーザは、用紙プレビュー領域41の中央部に「丸秘」に対応するジェスチャーの入力を行なう。また、例えば、用紙の左上をステイプルでとめたい場合、ユーザは、用紙プレビュー領域41内における左上の領域において、「ステイプル左上」に対応するジェスチャーの入力を行なう。
A
次に、図4を用いて、画像形成装置10上に実現される機能的な構成の一例について説明する。図4に示すこれら機能構成の一部は、例えば、CPU11がROM12や記憶部14に格納されたプログラムを実行することにより実現される。
Next, an example of a functional configuration realized on the
画像形成装置10は、入力部21と、領域管理部22と、判定部23と、認識部24と、辞書情報格納部25と、実行部26と、画面情報格納部27とを具備して構成される。
The
画面情報格納部27は、例えば、ROM12や記憶部14等により実現され、複数の操作画面を格納する。すなわち、画面情報格納部27においては、図2に示す階層構造を有する画面や、独立した画面(ジェスチャー入力画面)を格納している。
The screen
入力部21は、例えば、タッチパネル15や表示部16等により実現され、ジェスチャー(連続する入力座標)を装置内に入力する。なお、入力部21では、ジェスチャー入力の他、画面に表示されたボタン等による入力の処理も行なう。
The
領域管理部22は、例えば、CPU11等により実現され、第1の入力領域(直接入力領域)と第2の入力領域(間接入力領域)とに分割して表示画面上における入力可能領域を管理する。例えば、ジェスチャー入力画面の場合、用紙プレビュー領域41の内側が第1の入力領域となり、その外側が第2の入力領域となる。
The
判定部23は、例えば、CPU11等により実現され、入力部21により入力されたジェスチャーの入力方式を判定する。すなわち、入力ジェスチャーが第1の入力方式(直接入力方式)により入力されたか、第2の入力方式(間接入力方式)により入力されたかの判定を行なう。この判定では、第1の入力領域に入力されたジェスチャーを第1の入力方式による入力であると判定し、それ以外の領域(第2の入力領域)に入力されたジェスチャーを第2の入力方式による入力であると判定する。ここで、第1の入力方式は、対応するジェスチャーが直接入力されることをいう。ユーザが所望の印刷設定のジェスチャーを知っている場合、この入力方式でジェスチャー入力が行なわれる。第2の入力方式は、所望の印刷設定と類似の印刷設定のジェスチャーが入力されることをいう。ユーザが所望の印刷設定のジェスチャーを知らない場合にも、ジェスチャー入力を可能とする入力方式である。類似の印刷設定は、操作画面の階層構造に基づいて決められる。例えば、図2を参照すると、コピー画面、丸秘画面、社外秘画面には共通して1つ上の階層にスタンプ画面が設けられている。そのため、ここでは、コピー画面、丸秘画面、社外秘画面各々により提供される機能を類似の印刷設定であると定義する。
The
辞書情報格納部25は、ジェスチャー辞書を格納する。ジェスチャー辞書は、図5に示すように、各エントリが、形状、用紙プレビュー領域との位置関係、印刷設定の項目(処理の内容)、を有している。「形状」は、ジェスチャー(連続する入力座標)の形状を示す情報である。例えば、「2in1」に対応するジェスチャーの形状は、横線のストローク1つからなる。なお、「第2の入力方式による入力開始(以下、第2の入力開始と略す)」については、実施形態2において説明する。
The dictionary
「用紙プレビュー領域との位置関係」は、入力ジェスチャーと用紙プレビュー領域41(図2参照)との位置関係を示す情報である。例えば、「ステイプル左上」に対応するジェスチャーは、用紙プレビュー領域41の内側の左上に小さく入力する必要がある旨規定されている。また、例えば、「丸秘」に対応するジェスチャーは、用紙プレビュー領域41の中央部に大きく入力する必要がある旨規定されている。なお、「ステイプル左上」及び「ステイプル左下」は、ジェスチャー形状が同一となるが、「用紙プレビュー領域との位置関係」に規定された情報を用いて両者は識別されることになる。
The “positional relationship with the paper preview area” is information indicating the positional relation between the input gesture and the paper preview area 41 (see FIG. 2). For example, it is stipulated that the gesture corresponding to “staple upper left” needs to be input small in the upper left inside the
認識部24は、入力部21により入力されたジェスチャーを認識する。すなわち、ジェスチャー辞書に基づいて入力ジェスチャーの認識を行なう。第1の入力方式によりジェスチャーが入力された場合、用紙プレビュー領域41の内側にジェスチャーが入力されることになる。この場合、認識部24は、「用紙プレビュー領域との位置関係」と「形状」との両方の情報を用いて認識を行なう。これに対して、第2の入力方式によりジェスチャーが入力された場合、用紙プレビュー領域41の外側にジェスチャーが入力されることになる。この場合、「用紙プレビュー領域との位置関係」と入力ジェスチャーとの比較結果を用いた認識を行なえないため、認識部24は、「形状」に規定された情報のみを用いて認識を行なう。
The
実行部26は、判定部23の判定結果と、認識部24の認識結果とに基づいて、入力されたジェスチャーに対応した処理を実行する。実行部26においては、同一ジェスチャーが入力されたとしても、その入力方式(第1の入力方式、第2の入力方式)に応じて異なる処理を実施する。第1の入力方式によりジェスチャーが入力された場合、実行部26は、認識ジェスチャーに対応する画面を表示部16に表示させる。例えば、「丸秘」のジェスチャーが認識された場合、表示部16には、丸秘画面が表示される。
The
これに対して、第2の入力方式によりジェスチャーが入力された場合、認識ジェスチャーに対応する画面よりも1つ上の階層の画面を表示部16に表示させる。例えば、「丸秘」のジェスチャーが認識された場合、表示部16には、丸秘画面よりも1つ上の階層に当たるスタンプ画面が表示される。この場合、ユーザは、階層画面操作とジェスチャー操作とを併用して所望の印刷設定に辿り着くことになる。なお、本実施形態においては、類似の印刷設定をユーザがどれだけ知っているかが重要になるが、階層画面操作とジェスチャー操作とを併用して利用していくうちに、ユーザは、類似の印刷設定を自然に覚えられることになる。
On the other hand, when a gesture is input by the second input method, a screen that is one level higher than the screen corresponding to the recognition gesture is displayed on the
次に、図6〜図8を用いて、図1に示す画像形成装置10における処理の流れの一例について説明する。ここでは、まず、図6を用いて、ジェスチャー入力画面においてジェスチャー入力を行なう際の処理の流れについて説明する。
Next, an example of the flow of processing in the
ユーザは、ペンや指等を用いて、所望のジェスチャーを入力する。すると、画像形成装置は、入力部21において、当該入力ジェスチャーを装置内に入力するとともに(S101)、判定部23において、当該入力ジェスチャーの入力方式を判定する(S102)。すなわち、当該入力ジェスチャーが用紙プレビュー領域41内に入力されたか否かの判定を行なう。この判定は、入力ジェスチャーに外接する矩形の面積に基づいて行なわれる。ここで、例えば、入力ジェスチャーに外接する矩形の面積をS1とし、入力ジェスチャーに外接する矩形と用紙プレビュー領域41との重なる領域の面積をS2とする。そして、X=S2÷S1を算出する。例えば、Xが0.9以上であれば、入力ジェスチャーが用紙プレビュー領域41の内側に入力されたと判定する(第1の入力方式)。Xが0.9未満であれば、入力ジェスチャーが用紙プレビュー領域41の外側に入力されたと判定する(第2の入力方式)。
The user inputs a desired gesture using a pen, a finger, or the like. Then, the image forming apparatus inputs the input gesture into the apparatus at the input unit 21 (S101), and determines the input method of the input gesture at the determination unit 23 (S102). That is, it is determined whether or not the input gesture has been input into the
判定の結果、第1の入力方式によりジェスチャーが入力されたと判定された場合(S103でYES)、画像形成装置10は、認識部24において、「用紙プレビュー領域との位置関係」と「形状」とを用いて、入力されたジェスチャーを認識する(S104)。そして、実行部26において、入力ジェスチャーに対応する画面へ遷移する(S105)。その後、詳細については後述するが、印刷設定等の処理が行なわれる(S109)。
As a result of the determination, when it is determined that a gesture has been input by the first input method (YES in S103), the
一方、判定の結果、第2の入力方式によりジェスチャーが入力されたと判定された場合(S103でNO)、画像形成装置10は、認識部24において、「形状」を用いて、入力されたジェスチャーを認識する(S106)。そして、実行部26において、入力ジェスチャーに対応する画面よりも上位階層(本実施形態においては1つ上位)の画面へ遷移する(S107)。その後、詳細については後述するが、所望画面への遷移処理等が行なわれた後(S108)、印刷設定等の処理が行なわれる(S109)。
On the other hand, when it is determined that the gesture is input by the second input method as a result of the determination (NO in S103), the
次に、図7を用いて、図6に示すS108における処理(所望画面への遷移処理)の流れの一例について説明する。S107の処理により入力ジェスチャーに対応する画面よりも上位階層の画面(中間ノード画面)が表示されている状態からの処理の流れについて説明する。ここでは、説明の便宜上、中間ノード画面の一例として図3(b)に示すスタンプ画面が表示されているものとする。なお、スタンプ画面には、コピー、丸秘、社外秘、コピー禁止、無効、confidentialの6つの設定ボタンと、設定取り消しボタン、戻るボタンが設けられる。いずれかの設定ボタンが押下されると、当該ボタンに対応する画面へ遷移し、対応する印刷設定が行なわれることになる。 Next, an example of the flow of processing in S108 shown in FIG. 6 (transition processing to a desired screen) will be described using FIG. A flow of processing from a state in which a screen (intermediate node screen) higher than the screen corresponding to the input gesture is displayed by the processing of S107 will be described. Here, for convenience of explanation, it is assumed that the stamp screen shown in FIG. 3B is displayed as an example of the intermediate node screen. The stamp screen is provided with six setting buttons of copy, secret, confidential, copy prohibited, invalid, and confidential, a setting cancel button, and a return button. When one of the setting buttons is pressed, the screen transitions to a screen corresponding to the button, and the corresponding print setting is performed.
ここで、ユーザは、例えば、指やペン等を用いて、スタンプ画面に配されたいずれかのボタンを押下する。すると、画像形成装置10は、入力部21において、当該ボタン押下の情報を装置内に入力する(S201)。ここで、画像形成装置10は、当該押下されたボタンが設定ボタンであるか否かを判定する。
Here, the user presses one of the buttons arranged on the stamp screen using, for example, a finger or a pen. Then, the
判定の結果、設定ボタンであれば(S202でYES)、画像形成装置10は、実行部26において、当該押下された設定ボタンに対応する画面への遷移処理を実施する(S205)。例えば、ユーザがコピーボタンを押下した場合、表示部16には、コピー画面が表示される。
As a result of the determination, if it is a setting button (YES in S202), the
一方、S202における判定の結果、設定ボタン以外のボタンが押下された場合(S202でNO)、画像形成装置10は、戻るボタンが押下されたか否かを判定する。戻るボタンが押下されていれば(S203でYES)、画像形成装置10は、実行部26において、元の画面(ジェスチャー入力画面)への遷移処理を実施する(S206)。なお、ジェスチャー入力画面へ戻るのは、ジェスチャー操作時の場合であり、階層画面操作時には、1つ上の階層の画面へ戻る。階層画面操作時に、例えば、スタンプ画面上で戻るボタンが押下された場合には、地紋印刷画面へ戻る(図2参照)。
On the other hand, as a result of the determination in S202, when a button other than the setting button is pressed (NO in S202), the
また、取消ボタンが押下された場合(S203でNOの後、S204でYES)、画像形成装置10は、実行部26において、処理の取り消しを実施した後、元の画面(ジェスチャー入力画面)への遷移処理を実施する(S206)。戻り先となる画面は、戻るボタン押下時と同様となる。なお、S201におけるボタン押下情報が上記いずれのボタンでもなければ(S204でNO)、画像形成装置10は、ボタン押下待ち状態となり、再度、S201の処理に戻る。
If the cancel button is pressed (NO in S203, YES in S204), the
次に、図8を用いて、図6に示すS109における処理(印刷設定を行なう際の処理)の流れの一例について説明する。S105又はS108の処理により印刷設定可能な画面(リーフノード画面)が表示されている状態からの処理の流れについて説明する。ここでは、説明の便宜上、リーフノード画面の一例として図3(c)に示す丸秘画面が表示されているものとする。なお、丸秘画面には、決定ボタンと、取消ボタンとが設けられる。丸秘画面では、「丸秘」の印刷設定が行なわれた時にその印刷イメージを表すため、用紙プレビュー上には「丸秘」のスタンプが表示される。 Next, an example of the flow of processing in S109 shown in FIG. 6 (processing for performing print settings) will be described with reference to FIG. A flow of processing from a state in which a screen (leaf node screen) that can be set for printing by the processing of S105 or S108 is displayed will be described. Here, for convenience of explanation, it is assumed that the confidential screen shown in FIG. 3C is displayed as an example of the leaf node screen. The secret screen is provided with a determination button and a cancel button. In the confidential screen, a “confidential” stamp is displayed on the paper preview in order to represent the print image when the “confidential” print setting is performed.
ここで、ユーザは、例えば、指やペン等を用いて、丸秘画面に配されたいずれかのボタンを押下する。すると、画像形成装置10は、入力部21において、当該ボタン押下の情報を装置内に入力する(S301)。ここで、画像形成装置10は、当該押下されたボタンを判定する。
Here, the user presses one of the buttons arranged on the confidential screen using, for example, a finger or a pen. Then, the
判定の結果、決定ボタンであれば(S302でYES)、画像形成装置10は、実行部26において、当該押下されたボタンに対応する印刷設定を実施する(S304)。この場合、例えば、丸秘スタンプが設定される。その後、表示部16には、元の画面(ジェスチャー入力画面)が表示される(S305)。
As a result of the determination, if it is a decision button (YES in S302), the
一方、押下されたボタンが取消ボタンであれば(S302でNOの後、S303でYES)、画像形成装置10は、実行部26において、処理の実施を取り消す。その後、表示部16には、元の画面(ジェスチャー入力画面)が表示される(S305)。なお、S301におけるボタン押下情報が上記いずれのボタンでもなければ(S303でNO)、画像形成装置10は、ボタン押下待ち状態となり、再度、S301の処理に戻る。
On the other hand, if the pressed button is a cancel button (NO in S302, YES in S303), the
なお、図6のS105の処理が行なわれた時点で対応する印刷設定がセットされるように構成してもよい。この場合、S105の処理とともに印刷設定がなされ、その後、元の画面(例えば、ジェスチャー入力画面)が表示されることになる。 The corresponding print settings may be set when the process of S105 in FIG. 6 is performed. In this case, the print setting is made together with the process of S105, and then the original screen (for example, the gesture input screen) is displayed.
以上説明したように実施形態1によれば、対応するジェスチャーを知らなくても所望の機能を呼び出すことができるため、ジェスチャー入力時の操作性を向上させられる。例えば、ユーザは、コピーに対応するジェスチャーを知らなくても、丸秘など、コピーと類似した印刷設定のジェスチャーを知っていれば印刷設定が行なえる。 As described above, according to the first embodiment, it is possible to call a desired function without knowing a corresponding gesture, so that operability at the time of inputting a gesture can be improved. For example, even if the user does not know the gesture corresponding to the copy, the user can perform the print setting if he / she knows the gesture of the print setting similar to the copy such as the secret.
(実施形態2)
次に、実施形態2について説明する。上述した処理では、第2の入力方式により入力がなされた場合、「形状」のみを用いて認識処理を行なっていたため、認識率が低下する場合がある。例えば、図5に示すジェスチャー辞書の場合、「2in1」及び「ステイプル左上」に対応するジェスチャーはそれぞれ、その形状が似ている。そのため、「用紙プレビュー領域との位置関係」を用いずに認識を行なった場合、これらのジェスチャーを正確に識別できない可能性がある。例えば、ユーザが「2in1」を意図したジェスチャーを入力したとしても、「ステイプル左上」と誤って認識される場合がある。このような誤認識が生じた場合に、例えば、階層構造上、全く関係のない階層の画面に遷移したときには、その位置から階層画面操作によって所望の画面まで辿りつかなくてはならず、ユーザにとっては過度の負担が掛かってしまう。
(Embodiment 2)
Next,
そこで、実施形態2においては、第2の入力方式時における認識率の低下を少ない手順で回避するようにした構成について説明する。第2の入力開始に対応するジェスチャーは、図5に示すように、その形状は、用紙を表す矩形となる。つまり、第2の入力方式による入力に際して、ユーザは、用紙の形状を入力する。第2の入力開始に対応するジェスチャーは、単独で印刷設定を行なうジェスチャーではなく、ユーザは、当該用紙に対応する形状を入力した後、続けて所望のジェスチャーを入力する。 Therefore, in the second embodiment, a configuration will be described in which a decrease in the recognition rate during the second input method is avoided with a few procedures. As shown in FIG. 5, the gesture corresponding to the second input start has a rectangular shape representing the paper. That is, when inputting by the second input method, the user inputs the paper shape. The gesture corresponding to the second input start is not a gesture for performing print settings alone, but the user continuously inputs a desired gesture after inputting a shape corresponding to the paper.
ここで、図9を用いて、第2の入力開始に対応するジェスチャー入力時の動作の一例について説明する。 Here, an example of an operation at the time of a gesture input corresponding to the second input start will be described with reference to FIG.
ユーザは、まず、図9(a)に示すように、第2の入力開始に対応するジェスチャーを第2の入力領域に入力する。すると、画像形成装置10は、認識部24において、第2の入力開始に対応するジェスチャーを認識する。ここで、画像形成装置10は、図9(b)に示すように、当該入力されたジェスチャーに対応する形状(以下、第2の用紙プレビュー領域42と呼ぶ)を表示したまま、次のジェスチャーの入力を待つ。
First, as shown in FIG. 9A, the user inputs a gesture corresponding to the second input start to the second input area. Then, the
続けて、ユーザは、図9(c)に示すように、例えば、2in1に対応するジェスチャーを第2の用紙プレビュー領域42の内側に入力する。ここで、画像形成装置10は、認識部24において、第2の用紙プレビュー領域42を用いて当該入力ジェスチャーを認識する。具体的には、第2の用紙プレビュー領域42を利用して、「用紙プレビュー領域との位置関係」を用いた認識を行なう。これにより、認識率の低下を防ぐことができる。
Subsequently, as shown in FIG. 9C, the user inputs a gesture corresponding to, for example, 2 in 1 inside the second
なお、第2の入力開始に対応するジェスチャーを第1の入力領域に入力するようにしてもよい。この場合、例えば、図9(d)に示すように、第2の用紙プレビュー領域42が用紙プレビュー領域41を隠すことになる。第2の入力開始に対応するジェスチャーの入力が小さく、用紙プレビュー領域41を隠せない場合には、用紙プレビュー領域41が隠れるように、第2のプレビュー領域42を拡大して表示する。この場合、領域管理部22においては、表示画面上における入力可能領域全体を第2の入力領域に変更する。つまり、第2の入力開始に対応するジェスチャーが第1の入力領域に入力された場合、画像形成装置10は、以降の入力を全て第2の入力方式による入力として扱う。図9(b)の場合、タッチパネル15が小さいときには、第2の用紙プレビュー領域42を入力できる領域が小さくなり、入力し辛いという問題が生じるが、図9(d)に示す方法を採用すれば、このような問題もなくなる。
Note that a gesture corresponding to the second input start may be input to the first input area. In this case, for example, as shown in FIG. 9D, the second
次に、図10を用いて、実施形態2に係わる画像形成装置10における処理の流れの一例について説明する。ここでは、ジェスチャー入力画面においてジェスチャー入力を行なう際の処理の流れについて説明する。
Next, an example of a processing flow in the
ユーザは、ペンや指等を用いて、所望のジェスチャーを入力する。すると、画像形成装置は、入力部21において、当該入力ジェスチャーを装置内に入力するとともに(S401)、認識部24において、当該入力ジェスチャーが第2の入力開始に対応するジェスチャーであるか否かを判定する。ここでのジェスチャーの認識処理では、後述するS406などで実施するジェスチャー認識よりも簡易な処理が行なわれる。具体的には、S406等では、ジェスチャー辞書に含まれる全てのジェスチャーを対象として認識を行なう必要があるが、ここで実施するジェスチャー認識は、第2の入力開始に対応するジェスチャーのみが対象となる。すなわち、第2の入力開始に対応するジェスチャーについて尤度を求め、当該尤度が予め定められた値以上であれば、第2の入力開始に対応するジェスチャーが入力されたと判定する。
The user inputs a desired gesture using a pen, a finger, or the like. Then, the image forming apparatus inputs the input gesture into the apparatus at the input unit 21 (S401), and determines whether or not the input gesture is a gesture corresponding to the second input start at the
判定の結果、第2の入力開始に対応するジェスチャーであれば(S402でYES)、画像形成装置10は、表示部16において、当該入力ジェスチャーの形状に対応した第2の用紙プレビュー領域42を表示する(S403)。その後、再度、S401に戻り、ジェスチャー入力待ちとなる。なお、第2の入力開始に対応するジェスチャーが、第1の入力領域に入力された場合は、上述した通り、第2の用紙プレビュー領域42のサイズを変更して画面中央部に表示する。
As a result of the determination, if the gesture corresponds to the start of the second input (YES in S402), the
一方、S402の判定において、入力ジェスチャーが第2の入力開始に対応するジェスチャーでなければ(S402でNO)、画像形成装置10は、判定部23において、当該入力ジェスチャーが第2の用紙プレビュー領域42内になされたか否かを判定する。この判定は、図6のS102で説明した演算処理を実施し、その結果に基づいて行なう。なお、第2の用紙プレビュー領域42が表示されていなければ、この判定を行なわず、そのままS405の処理に進む。
On the other hand, if it is determined in S402 that the input gesture is not a gesture corresponding to the second input start (NO in S402), the
判定の結果、入力ジェスチャーが第2の用紙プレビュー領域42の外側に入力されている場合(S404でNO)、画像形成装置10は、判定部23において、当該入力ジェスチャーの入力方式を判定する(S405)。すなわち、当該入力ジェスチャーが用紙プレビュー領域41内に入力されたか否かの判定を行なう。なお、S405〜S412の処理は、実施形態1を説明した図6におけるS102〜S109の処理と同様であるため、ここではその説明については省略する。
As a result of the determination, when the input gesture is input outside the second paper preview area 42 (NO in S404), the
また、S404の判定の結果、入力ジェスチャーが第2の用紙プレビュー領域42の内側に入力されている場合(S404でYES)、画像形成装置10は、認識部24において、入力されたジェスチャーを認識する。具体的には、「用紙プレビュー領域との位置関係」と「形状」とを用いて、入力されたジェスチャーを認識する(S413)。その後、画像形成装置10は、ジェスチャー入力画面から第2の用紙プレビュー領域42の表示を削除する(S414)。そして、実行部26において、入力ジェスチャーに対応する画面よりも上位階層(本実施形態においては1つ上位)の画面へ遷移する(S415)。以降の処理は、実施形態1を説明した図6におけるS108及びS109の処理と同様であるため、ここではその説明については省略する。
If it is determined in step S404 that an input gesture has been input inside the second paper preview area 42 (YES in step S404), the
以上説明したように実施形態2によれば、実施形態1同様の効果が得られるとともに、第2の入力方式による入力時の認識率を向上させることができる。 As described above, according to the second embodiment, the same effects as those of the first embodiment can be obtained, and the recognition rate at the time of input by the second input method can be improved.
以上が本発明の代表的な実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。以下、本実施形態の変形例についていくつか列挙する。 The above is an example of a typical embodiment of the present invention, but the present invention is not limited to the embodiment described above and shown in the drawings, and can be appropriately modified and implemented without departing from the scope of the present invention. . Hereinafter, some modifications of the present embodiment will be listed.
(変形例1)
上述した実施形態2で説明した第2の入力開始のジェスチャーの代わりに、例えば、第1の入力方式と第2の入力方式とを交互に変更する入力変更ボタンを設けてもよい。この場合、第1の入力方式時には用紙プレビュー領域41を表示し、第2の入力方式時には第2の用紙プレビュー領域42を表示する。用紙プレビュー領域41と第2の用紙プレビュー領域42とは、識別可能な形態で表示する。例えば、用紙プレビュー領域41の表示を図3(a)とし、第2の用紙プレビュー領域42の表示を図9(d)とする。また、図11に示すように、用紙プレビュー領域41と第2の用紙プレビュー領域42とを同時に表示するようにしてもよい。この場合、画像形成装置10においては、用紙プレビュー領域41の内側に入力されたジェスチャーを第1の入力方式による入力と判定し、第2の用紙プレビュー領域42内に入力されたジェスチャーを第2の入力方式による入力と判定する。
(Modification 1)
Instead of the second input start gesture described in the second embodiment, for example, an input change button for alternately changing the first input method and the second input method may be provided. In this case, the
(変形例2)
上述した実施形態で説明した操作画面のレイアウトは、適宜変更してもよい。例えば、スタンプ画面には、図12(a)に示すように、選択可能な印刷設定と、それに対応するジェスチャーのプレビューとを対応付けたボタンが配されていてもよい。例えば、コピーボタンには、コピーのジェスチャーのプレビューが表示されている。
(Modification 2)
The layout of the operation screen described in the above embodiment may be changed as appropriate. For example, as shown in FIG. 12A, the stamp screen may be provided with a button that associates a selectable print setting with a preview of a corresponding gesture. For example, the copy button displays a preview of a copy gesture.
図12(a)に示すスタンプ画面は、例えば、入力ジェスチャーに対応する画面よりも1つ上位階層の画面へ遷移した場合に表示される(例えば、図10に示すS410やS415の処理の後)。つまり、第2の入力方式による入力が行なわれた場合に表示される。第2の入力方式により入力は、一般に、所望の印刷設定に対応するジェスチャーをユーザが知らない場合が多い。そのため、このようなジェスチャーのプレビューが表示されることにより、ユーザは、ジェスチャーを容易に覚えることができる。 The stamp screen illustrated in FIG. 12A is displayed, for example, when the screen transitions to a screen one level higher than the screen corresponding to the input gesture (for example, after the processing of S410 and S415 illustrated in FIG. 10). . That is, it is displayed when an input is made by the second input method. In general, in many cases, the user does not know a gesture corresponding to a desired print setting. Therefore, by displaying such a gesture preview, the user can easily learn the gesture.
なお、階層画面操作によりスタンプ画面へ遷移した場合には、図3(b)に示すスタンプ画面を表示すればよい。ユーザが、階層画面操作を行なっている場合には、対応するジェスチャーを知りたいと思っていないと推測できるためであり、余分な情報によるストレスを避ける。 Note that when the screen is changed to the stamp screen by the hierarchy screen operation, the stamp screen shown in FIG. 3B may be displayed. This is because the user can assume that he / she does not want to know the corresponding gesture when performing a hierarchical screen operation, and avoids stress due to extra information.
(変形例3)
図7のS201において、ユーザが所望の印刷設定を選択し、図7のS205において、対応する画面へ遷移する間に、例えば、図12(b)に示すように、当該選択された印刷設定に対応するジェスチャーのプレビューを表示するようにしてもよい。これにより、ユーザは、ジェスチャーを容易に覚えることができる。
(Modification 3)
In S201 of FIG. 7, the user selects a desired print setting, and during the transition to the corresponding screen in S205 of FIG. 7, for example, as shown in FIG. A preview of the corresponding gesture may be displayed. Thereby, the user can easily learn a gesture.
(変形例4)
なお、上述した説明では、第2の入力方式による入力が行なわれた場合には、入力ジェスチャーに対応する画面よりも1つ上位階層の画面を表示する場合を例に挙げて説明したが、これに限られない。例えば、画像形成装置10の操作履歴に基づいて、遷移先の画面を動的に生成するようにしてもよい。例えば、入力ジェスチャーに対応する印刷設定に関連して使用される印刷設定を取り出し、それら印刷設定を並べた画面を動的に生成する。
(Modification 4)
In the above description, when an input is performed using the second input method, an example in which a screen one level higher than the screen corresponding to the input gesture is displayed has been described. Not limited to. For example, the transition destination screen may be dynamically generated based on the operation history of the
例えば、「丸秘」の場合について考えてみる。「丸秘」とともに使用される印刷設定をXとし、当該Xとともに使用される印刷設定をYとする。この場合、Yを「丸秘」の代わりに使用される印刷設定とする。具体的には、操作履歴において、「2in1」や「丸秘」を関連して使用した印刷設定の組み合わせや、「2in1」や「コピー」を関連して使用した印刷設定の組み合わせが多数あったとする。この場合、「コピー」を「丸秘」に関連して使用される印刷設定とする。この結果、例えば、丸秘に関連して使用される印刷設定がコピーや社外秘であったとすると、画像形成装置10は、「丸秘」、「コピー」、「社外秘」を含む操作画面を生成し、当該操作画面へ遷移する。
For example, consider the case of “confidentiality”. The print setting used with “confidential” is X, and the print setting used with X is Y. In this case, Y is a print setting used instead of “confidentiality”. Specifically, in the operation history, there are many combinations of print settings using “2 in 1” and “confidential” in association with each other and combinations of print settings using “2 in 1” and “copy” in association with each other. To do. In this case, “copy” is the print setting used in connection with “confidentiality”. As a result, for example, if the print setting used in connection with confidentiality is copy or confidential, the
(変形例5)
ジェスチャー入力時の入力速度を用いて、第1の入力方式と第2の入力方式とを判定するようにしてもよい。入力速度と予め定めた値(例えば、平均値)とを比較して判定する。例えば、ジェスチャーの入力速度が予め定めた値よりも小さければ、第1の入力方式による入力と判定し、予め定めた値以上であれば、第2の入力方式による入力と判定する。この場合、画像形成装置10には、領域管理部22の代わりに、入力速度を計算する入力速度算出部が設けられる。
(Modification 5)
You may make it determine a 1st input system and a 2nd input system using the input speed at the time of gesture input. The determination is made by comparing the input speed with a predetermined value (for example, an average value). For example, if the input speed of the gesture is lower than a predetermined value, it is determined that the input is based on the first input method, and if it is equal to or higher than the predetermined value, it is determined that the input is based on the second input method. In this case, the
また、ジェスチャー入力時の表示画面上への押圧力を用いて、第1の入力方式と第2の入力方式とを判定するようにしてもよい。押圧力と予め定めた値(平均値)とを比較して判定する。例えば、ジェスチャーの押圧力が予め定めた値以上であれば、第1の入力方式による入力と判定し、予め定めた値よりも小さければ、第2の入力方式による入力と判定する。この場合、画像形成装置10には、領域管理部22の代わりに、押圧力を算出する押圧力算出部が設けられる。
Moreover, you may make it determine a 1st input system and a 2nd input system using the pressing force on the display screen at the time of gesture input. Determination is made by comparing the pressing force with a predetermined value (average value). For example, if the gesture pressing force is equal to or greater than a predetermined value, it is determined that the input is based on the first input method, and if it is smaller than the predetermined value, it is determined that the input is based on the second input method. In this case, the
以上が変形例についての説明である。なお、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施態様を採ることもできる。具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。 The above is the description of the modified example. It should be noted that the present invention can also take the form of, for example, a system, apparatus, method, program, or storage medium. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
Claims (12)
指示体により指示された表示画面上の座標を入力する入力手段と、
ジェスチャーの形状と当該形状に対応する処理の内容とを含むジェスチャー辞書を格納する格納手段と、
前記入力手段により連続する入力座標が入力された場合、前記ジェスチャー辞書に基づいて、当該連続する入力座標と前記ジェスチャーの形状とを比較し、当該入力に対応する処理の内容を認識する認識手段と、
前記入力手段により連続する入力座標が入力された場合、第1の入力方式による入力であるか、第2の入力方式による入力であるかを判定する判定手段と、
前記判定手段により前記第1の入力方式による入力であると判定された場合、前記認識手段により認識された処理の内容に対応した画面への遷移処理を実施し、前記判定手段により前記第2の入力方式による入力であると判定された場合、前記認識手段により認識された処理の内容に対応した画面よりも上位階層の画面への遷移処理を実施する実行手段と
を具備することを特徴とするジェスチャー認識装置。 A gesture recognition device for displaying an operation screen having a hierarchical structure on a display screen,
An input means for inputting coordinates on the display screen instructed by the indicator;
Storage means for storing a gesture dictionary including the shape of the gesture and the content of the processing corresponding to the shape;
Recognizing means for comparing the continuous input coordinates with the shape of the gesture based on the gesture dictionary and recognizing the content of the processing corresponding to the input when continuous input coordinates are input by the input means; ,
A determination unit that determines whether the input is performed by the first input method or the second input method when continuous input coordinates are input by the input unit;
When the determination unit determines that the input is based on the first input method, a transition process to a screen corresponding to the content of the process recognized by the recognition unit is performed, and the determination unit performs the second process. And executing means for executing a transition process to a screen higher than the screen corresponding to the content of the process recognized by the recognition means when it is determined that the input is based on the input method. Gesture recognition device.
前記認識された処理の内容に対応する画面への遷移を指示するボタンが設けられ、
前記ボタンには、
前記認識された処理の内容に対応する画面へ前記第1の入力方式による入力により遷移する際に用いられるジェスチャーの形状のプレビューが表示される
ことを特徴とする請求項1記載のジェスチャー認識装置。 On the upper layer screen,
A button for instructing transition to a screen corresponding to the content of the recognized process is provided,
The buttons include
The gesture recognition apparatus according to claim 1, wherein a preview of a shape of a gesture used when transitioning to a screen corresponding to the content of the recognized process by input using the first input method is displayed.
前記認識された処理の内容に対応する画面への遷移を指示するボタンが設けられ、
前記表示画面上には、
前記ボタンの押下に伴って前記認識された処理の内容に対応する画面へ遷移する間に、当該遷移先の画面へ前記第1の入力方式による入力により遷移する際に用いられるジェスチャーの形状のプレビューが表示される
ことを特徴とする請求項1記載のジェスチャー認識装置。 On the upper layer screen,
A button for instructing transition to a screen corresponding to the content of the recognized process is provided,
On the display screen,
While transitioning to a screen corresponding to the content of the recognized process as the button is pressed, a preview of the shape of the gesture used when transitioning to the transition destination screen by input using the first input method The gesture recognition apparatus according to claim 1, wherein: is displayed.
を更に具備し、
前記判定手段は、
前記連続する入力座標が前記第1の入力領域に入力された場合、前記第1の入力方式による入力であると判定し、前記連続する入力座標が前記第2の入力領域に入力された場合、前記第2の入力方式による入力であると判定する
ことを特徴とする請求項1記載のジェスチャー認識装置。 Further comprising area management means for managing the display screen separately into a first input area and a second input area;
The determination means includes
When the continuous input coordinates are input to the first input area, it is determined that the input is based on the first input method, and when the continuous input coordinates are input to the second input area, The gesture recognition apparatus according to claim 1, wherein the gesture recognition apparatus determines that the input is based on the second input method.
印刷の仕上がりイメージを表す用紙プレビュー領域を含む操作画面に対して指示された座標を入力し、
前記領域管理手段は、
前記用紙プレビュー領域の内側を第1の入力領域として管理し、前記用紙プレビュー領域の外側を第2の入力領域として管理し、
前記ジェスチャー辞書は、
前記処理の内容として印刷設定を規定し、
前記実行手段は、
前記判定手段により前記第1の入力方式による入力であると判定された場合、前記認識手段により認識された印刷設定を選択可能な画面への遷移処理を実施し、前記判定手段により前記第2の入力方式による入力であると判定された場合、前記認識手段により認識された印刷設定を選択可能な画面よりも上位階層の画面への遷移処理を実施する
ことを特徴とする請求項4記載のジェスチャー認識装置。 The input means includes
Enter the coordinates indicated on the operation screen including the paper preview area representing the finished image of the print,
The area management means includes:
Managing the inside of the paper preview area as a first input area, managing the outside of the paper preview area as a second input area,
The gesture dictionary
Define print settings as the content of the process,
The execution means includes
When the determination unit determines that the input is based on the first input method, a transition process to a screen capable of selecting the print setting recognized by the recognition unit is performed, and the determination unit performs the second process. The gesture according to claim 4, wherein when it is determined that the input is based on an input method, a transition process to a screen of a higher hierarchy than a screen capable of selecting the print setting recognized by the recognition unit is performed. Recognition device.
前記ジェスチャーの形状と、当該形状と前記用紙プレビュー領域の位置関係と、当該形状に対応する印刷設定とが対応付けて規定されており、
前記認識手段は、
前記連続する入力座標が前記用紙プレビュー領域の内側に入力された場合、当該連続する入力座標及び前記ジェスチャーの形状の比較結果と当該連続する入力座標及び前記用紙プレビュー領域の位置関係とに基づいて、当該入力に対応する印刷設定を認識する
ことを特徴とする請求項5記載のジェスチャー認識装置。 In the gesture dictionary,
The shape of the gesture, the positional relationship between the shape and the paper preview area, and the print settings corresponding to the shape are defined in association with each other,
The recognition means is
When the continuous input coordinates are input inside the paper preview area, based on the comparison results of the continuous input coordinates and the shape of the gesture and the positional relationship between the continuous input coordinates and the paper preview area, The gesture recognition apparatus according to claim 5, wherein a print setting corresponding to the input is recognized.
前記第2の入力方式による入力の開始を指示するジェスチャーの形状を含み、
前記判定手段は、
前記認識手段により前記連続する入力座標が前記第2の入力方式による入力の開始を指示するジェスチャーの形状であると認識された場合、その次に入力される連続する入力座標を前記第2の入力方式による入力であると判定する
ことを特徴とする請求項1記載のジェスチャー認識装置。 The gesture dictionary
Including a shape of a gesture for instructing start of input by the second input method,
The determination means includes
When the recognition means recognizes that the continuous input coordinates are the shape of a gesture instructing the start of input by the second input method, the continuous input coordinates input next are input to the second input The gesture recognition device according to claim 1, wherein the gesture recognition device determines that the input is based on a method.
前記ジェスチャー辞書には、
ジェスチャーの形状と、当該ジェスチャーの形状と前記用紙の形状が入力された領域との位置関係と、当該ジェスチャーの形状に対応する印刷設定とが対応付けて規定されており、
前記認識手段は、
前記用紙の形状の前記次に入力される連続する入力座標及び前記ジェスチャーの形状の比較結果と前記次に入力される連続する入力座標及び前記用紙の形状が入力された領域の位置関係とに基づいて、当該入力に対応する印刷設定を認識する
ことを特徴とする請求項7記載のジェスチャー認識装置。 The shape of the gesture for instructing the start of input by the second input method is a shape of paper,
In the gesture dictionary,
The gesture shape, the positional relationship between the shape of the gesture and the area where the shape of the paper is input, and the print setting corresponding to the shape of the gesture are defined in association with each other,
The recognition means is
Based on the comparison result of the next input coordinate and the shape of the gesture that are input next to the shape of the paper, and the positional relationship between the input region of the continuous input coordinate that is input next and the shape of the paper The gesture recognition apparatus according to claim 7, wherein a print setting corresponding to the input is recognized.
を更に具備し、
前記判定手段は、
前記入力速度算出手段により算出された前記入力速度と予め定めた値との比較に基づいて前記第1の入力方式による入力であるか、前記第2の入力方式による入力であるかを判定する
ことを特徴とする請求項1記載のジェスチャー認識装置。 An input speed calculating means for calculating an input speed when continuous input coordinates are input by the input means;
The determination means includes
Determining whether the input is based on the first input method or the second input method based on a comparison between the input speed calculated by the input speed calculation means and a predetermined value. The gesture recognition apparatus according to claim 1.
を更に具備し、
前記判定手段は、
前記押圧力算出手段により算出された押圧力と予め定めた値との比較に基づいて前記第1の入力方式による入力であるか、前記第2の入力方式による入力であるかを判定する
ことを特徴とする請求項1記載のジェスチャー認識装置。 A pressing force calculating means for calculating a pressing force on the display screen when continuous input coordinates are input by the input means;
The determination means includes
Determining whether the input is based on the first input method or the second input method based on a comparison between the pressing force calculated by the pressing force calculating means and a predetermined value. The gesture recognition device according to claim 1, wherein:
入力手段が、指示体により指示された表示画面上の座標を入力する工程と、
格納手段が、ジェスチャーの形状と当該形状に対応する処理の内容とを含むジェスチャー辞書を格納する工程と、
認識手段が、前記入力手段により連続する入力座標が入力された場合、前記ジェスチャー辞書に基づいて、当該連続する入力座標と前記ジェスチャーの形状とを比較し、当該入力に対応する処理の内容を認識する工程と、
判定手段が、前記入力手段により連続する入力座標が入力された場合、第1の入力方式による入力であるか、第2の入力方式による入力であるかを判定する工程と、
実行手段が、前記判定手段により前記第1の入力方式による入力であると判定された場合、前記認識手段により認識された処理の内容に対応した画面への遷移処理を実施し、前記判定手段により前記第2の入力方式による入力であると判定された場合、前記認識手段により認識された処理の内容に対応した画面よりも上位階層の画面への遷移処理を実施する工程と
を含むことを特徴とするジェスチャー認識装置の認識方法。 A gesture recognition device recognition method for displaying a hierarchical operation screen on a display screen,
An input means for inputting coordinates on the display screen indicated by the indicator;
Storing a gesture dictionary including the shape of the gesture and the content of the process corresponding to the shape;
When continuous input coordinates are input by the input unit, the recognition unit compares the continuous input coordinates with the shape of the gesture based on the gesture dictionary, and recognizes the contents of processing corresponding to the input. And a process of
A step of determining whether a determination unit is an input by a first input method or an input by a second input method when continuous input coordinates are input by the input unit;
When the execution unit determines that the input by the first input method is performed by the determination unit, a transition process to a screen corresponding to the content of the process recognized by the recognition unit is performed, and the determination unit A step of performing a transition process to a screen higher than the screen corresponding to the content of the process recognized by the recognition unit when it is determined that the input is based on the second input method. A recognition method for a gesture recognition device.
指示体により指示された表示画面上の座標を入力する入力手段、
ジェスチャーの形状と当該形状に対応する処理の内容とを含むジェスチャー辞書を格納する格納手段、
前記入力手段により連続する入力座標が入力された場合、前記ジェスチャー辞書に基づいて、当該連続する入力座標と前記ジェスチャーの形状とを比較し、当該入力に対応する処理の内容を認識する認識手段、
前記入力手段により連続する入力座標が入力された場合、第1の入力方式による入力であるか、第2の入力方式による入力であるかを判定する判定手段、
前記判定手段により前記第1の入力方式による入力であると判定された場合、前記認識手段により認識された処理の内容に対応した画面への遷移処理を実施し、前記判定手段により前記第2の入力方式による入力であると判定された場合、前記認識手段により認識された処理の内容に対応した画面よりも上位階層の画面への遷移処理を実施する実行手段
として機能させるためのプログラム。 A computer built in a gesture recognition device that displays a hierarchical operation screen on a display screen,
An input means for inputting coordinates on the display screen instructed by the indicator;
Storage means for storing a gesture dictionary including the shape of a gesture and the content of processing corresponding to the shape;
When continuous input coordinates are input by the input means, a recognition means for comparing the continuous input coordinates with the shape of the gesture based on the gesture dictionary and recognizing the content of processing corresponding to the input;
A determination unit that determines whether the input is performed by the first input method or the second input method when continuous input coordinates are input by the input unit;
When the determination unit determines that the input is based on the first input method, a transition process to a screen corresponding to the content of the process recognized by the recognition unit is performed, and the determination unit performs the second process. A program for functioning as an execution means for executing a transition process to a screen higher than the screen corresponding to the content of the process recognized by the recognition means when it is determined that the input is based on the input method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009291406A JP5538869B2 (en) | 2009-12-22 | 2009-12-22 | Information processing apparatus, control method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009291406A JP5538869B2 (en) | 2009-12-22 | 2009-12-22 | Information processing apparatus, control method thereof, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011135226A true JP2011135226A (en) | 2011-07-07 |
JP2011135226A5 JP2011135226A5 (en) | 2013-02-14 |
JP5538869B2 JP5538869B2 (en) | 2014-07-02 |
Family
ID=44347511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009291406A Expired - Fee Related JP5538869B2 (en) | 2009-12-22 | 2009-12-22 | Information processing apparatus, control method thereof, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5538869B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102890616A (en) * | 2012-09-26 | 2013-01-23 | 杨生虎 | Shortcut input method and shortcut input system of touch screen |
WO2014051130A1 (en) * | 2012-09-27 | 2014-04-03 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and program |
JP2014123250A (en) * | 2012-12-21 | 2014-07-03 | Brother Ind Ltd | Printer |
JP2014188986A (en) * | 2013-03-28 | 2014-10-06 | Sharp Corp | Image formation apparatus |
JP2016008991A (en) * | 2014-06-20 | 2016-01-18 | コニカミノルタ株式会社 | Print condition setting device, print condition setting system and print condition setting method |
WO2021200378A1 (en) * | 2020-03-31 | 2021-10-07 | ブラザー工業株式会社 | Program and electronic device |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003345506A (en) * | 2002-05-28 | 2003-12-05 | Konica Minolta Holdings Inc | Operation inputting device and image forming device |
-
2009
- 2009-12-22 JP JP2009291406A patent/JP5538869B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003345506A (en) * | 2002-05-28 | 2003-12-05 | Konica Minolta Holdings Inc | Operation inputting device and image forming device |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102890616A (en) * | 2012-09-26 | 2013-01-23 | 杨生虎 | Shortcut input method and shortcut input system of touch screen |
CN102890616B (en) * | 2012-09-26 | 2016-03-30 | 杨生虎 | The shortcut input method of touch-screen and system |
WO2014051130A1 (en) * | 2012-09-27 | 2014-04-03 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and program |
JP2014123250A (en) * | 2012-12-21 | 2014-07-03 | Brother Ind Ltd | Printer |
JP2014188986A (en) * | 2013-03-28 | 2014-10-06 | Sharp Corp | Image formation apparatus |
JP2016008991A (en) * | 2014-06-20 | 2016-01-18 | コニカミノルタ株式会社 | Print condition setting device, print condition setting system and print condition setting method |
WO2021200378A1 (en) * | 2020-03-31 | 2021-10-07 | ブラザー工業株式会社 | Program and electronic device |
Also Published As
Publication number | Publication date |
---|---|
JP5538869B2 (en) | 2014-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9076085B2 (en) | Image processing apparatus, image processing apparatus control method, and storage medium | |
JP5538869B2 (en) | Information processing apparatus, control method thereof, and program | |
JP6053332B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
US20130077119A1 (en) | Image forming apparatus and non-transitory computer readable medium storing a program for controlling the same | |
CN104243749B (en) | The control method of image processing system and image processing system | |
CN102541401B (en) | Information processing equipment and method for processing information | |
JP4818036B2 (en) | Touch panel control device and touch panel control method | |
JP2010067135A (en) | Information processor, information processing method and computer program | |
JP5882779B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP2012043214A (en) | Operation display device and method | |
JP2009152818A (en) | Method for setting output image including image processing information and program for controlling setting | |
US9843691B2 (en) | Image display device, image display system, image display method, and computer-readable storage medium for computer program | |
KR102205283B1 (en) | Electro device executing at least one application and method for controlling thereof | |
US10979583B2 (en) | Information processing apparatus equipped with touch panel type display unit, control method therefor, and storage medium | |
JP6191567B2 (en) | Operation screen display device, image forming apparatus, and display program | |
KR20150139337A (en) | Method for providing a screen for manipulating application execution of image forming apparatus and image forming apparatus using the same | |
JP2003345506A (en) | Operation inputting device and image forming device | |
JP2013168799A (en) | Image processing apparatus, image processing apparatus control method, and program | |
KR102105492B1 (en) | Information processing apparatus, control method of information processing apparatus, and storage medium | |
JP2008129823A (en) | Touch panel input device and image forming apparatus | |
US20140165011A1 (en) | Information processing apparatus | |
JP2014115787A (en) | Input apparatus, input method, and computer program | |
JP6291942B2 (en) | Operation panel device | |
JP5853778B2 (en) | Print setting apparatus, print setting method, print setting program, and recording medium | |
JP2015099420A (en) | Information processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121221 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131111 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140407 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5538869 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140430 |
|
LAPS | Cancellation because of no payment of annual fees |