JP2011135226A - Device and method for recognizing gesture, and program - Google Patents

Device and method for recognizing gesture, and program Download PDF

Info

Publication number
JP2011135226A
JP2011135226A JP2009291406A JP2009291406A JP2011135226A JP 2011135226 A JP2011135226 A JP 2011135226A JP 2009291406 A JP2009291406 A JP 2009291406A JP 2009291406 A JP2009291406 A JP 2009291406A JP 2011135226 A JP2011135226 A JP 2011135226A
Authority
JP
Japan
Prior art keywords
input
gesture
screen
shape
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009291406A
Other languages
Japanese (ja)
Other versions
JP5538869B2 (en
JP2011135226A5 (en
Inventor
Michio Aizawa
道雄 相澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009291406A priority Critical patent/JP5538869B2/en
Publication of JP2011135226A publication Critical patent/JP2011135226A/en
Publication of JP2011135226A5 publication Critical patent/JP2011135226A5/en
Application granted granted Critical
Publication of JP5538869B2 publication Critical patent/JP5538869B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimiles In General (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for improving operability in gesture operation. <P>SOLUTION: An operation screen comprising a hierarchical structure is displayed on a display screen. This device for recognizing gesture includes: an input means to input coordinates on a designated display screen; a storage means to store a gesture dictionary including the shapes of gestures and processing contents corresponding to the shapes; a recognition means to recognize, when continuing input coordinates are input by the input means, the processing content corresponding to the input based on the gesture dictionary; a determination means to determine whether the input is performed by a first input method or a second input method; and an execution means to execute a transition process to a screen corresponding to the processing content recognized by the recognition means when the input is determined to be performed by the first input method, and to execute a transition process to a screen of an upper hierarchy relative to the screen corresponding to the processing content recognized by the recognition means when the input is determined to be performed by the second input method. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ジェスチャー認識装置、その認識方法及びプログラムに関する。   The present invention relates to a gesture recognition device, a recognition method thereof, and a program.

ジェスチャーを用いて機器の機能を呼び出す技術が知られている。特許文献1には、ジェスチャーを用いて画像形成装置の印刷設定を指示する技術が開示されている。この装置では、設定された機能を視覚的に表すためのプレビュー画像を操作パネルに表示する。ユーザは、例えば、パンチ穴の機能を呼び出すために、プレビュー画像上においてパンチ穴を施したい位置に2つの円をタッチ操作で入力する。   A technique for calling a function of a device using a gesture is known. Japanese Patent Application Laid-Open No. 2004-151561 discloses a technique for instructing print settings of an image forming apparatus using a gesture. In this apparatus, a preview image for visually expressing the set function is displayed on the operation panel. For example, in order to call a punch hole function, the user inputs two circles by touch operation at a position where a punch hole is desired on the preview image.

階層画面/階層メニューを用いた一般的な装置は、所望の機能を呼び出すために、1つずつ階層を辿らなければならない。これに比べジェスチャーを用いた装置は、所望の機能を直接呼び出せるという利点がある。そのため、階層画面/階層メニューを用いる場合よりも、所望の機能を呼び出すまでの手順が少なくて済む。   A general apparatus using a hierarchy screen / hierarchy menu has to follow a hierarchy one by one in order to call a desired function. In contrast, an apparatus using a gesture has an advantage that a desired function can be directly called. Therefore, fewer steps are required until a desired function is called than when a hierarchical screen / hierarchy menu is used.

特開2006−41947号公報JP 2006-41947 A

上述した特許文献1に記載された技術においては、例えば、対応するジェスチャーを知らない場合、ユーザは、所望の機能を呼び出せない。そのため、使い勝手が悪かった。   In the technique described in Patent Literature 1 described above, for example, when the corresponding gesture is not known, the user cannot call a desired function. Therefore, it was not easy to use.

そこで、本発明は、上記課題に鑑みてなされたものであり、ジェスチャー操作時の操作性を向上させるようにした技術を提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a technique that improves operability during gesture operation.

上記課題を解決するため、本発明の一態様は、階層構造からなる操作画面を表示画面上に表示するジェスチャー認識装置であって、指示体により指示された表示画面上の座標を入力する入力手段と、ジェスチャーの形状と当該形状に対応する処理の内容とを含むジェスチャー辞書を格納する格納手段と、前記入力手段により連続する入力座標が入力された場合、前記ジェスチャー辞書に基づいて、当該連続する入力座標と前記ジェスチャーの形状とを比較し、当該入力に対応する処理の内容を認識する認識手段と、前記入力手段により連続する入力座標が入力された場合、第1の入力方式による入力であるか、第2の入力方式による入力であるかを判定する判定手段と、前記判定手段により前記第1の入力方式による入力であると判定された場合、前記認識手段により認識された処理の内容に対応した画面への遷移処理を実施し、前記判定手段により前記第2の入力方式による入力であると判定された場合、前記認識手段により認識された処理の内容に対応した画面よりも上位階層の画面への遷移処理を実施する実行手段とを具備することを特徴とする。   In order to solve the above-described problem, an aspect of the present invention is a gesture recognition device that displays an operation screen having a hierarchical structure on a display screen, and an input unit that inputs coordinates on the display screen instructed by an indicator And a storage means for storing a gesture dictionary including the shape of the gesture and the content of the process corresponding to the shape, and when the input coordinates that are continuous are input by the input means, the continuous When the input coordinates and the shape of the gesture are compared, the recognition means for recognizing the content of the processing corresponding to the input, and the continuous input coordinates are input by the input means, the input is based on the first input method. Or a determination unit that determines whether the input is based on the second input method, and the determination unit determines that the input is based on the first input method In this case, a transition process to a screen corresponding to the content of the process recognized by the recognition unit is performed, and when the determination unit determines that the input is based on the second input method, the recognition unit recognizes it. And executing means for executing a transition process to a screen higher than the screen corresponding to the contents of the processing.

本発明によれば、ジェスチャー操作時の操作性を向上させられる。   According to the present invention, the operability during gesture operation can be improved.

画像形成装置10のハードウェア構成の一例を示す図。2 is a diagram illustrating an example of a hardware configuration of the image forming apparatus 10. FIG. 操作画面の階層構造の一例を示す図。The figure which shows an example of the hierarchical structure of an operation screen. 操作画面の一例を示す図。The figure which shows an example of an operation screen. 画像形成装置10上に実現される機能的な構成の一例を示す図。2 is a diagram illustrating an example of a functional configuration realized on the image forming apparatus 10. FIG. ジェスチャー辞書の一例を示す図。The figure which shows an example of a gesture dictionary. 図1に示す画像形成装置10の処理の流れの一例を示すフローチャート。2 is a flowchart illustrating an example of a processing flow of the image forming apparatus 10 illustrated in FIG. 1. 図1に示す画像形成装置10の処理の流れの一例を示すフローチャート。2 is a flowchart illustrating an example of a processing flow of the image forming apparatus 10 illustrated in FIG. 1. 図1に示す画像形成装置10の処理の流れの一例を示すフローチャート。2 is a flowchart illustrating an example of a processing flow of the image forming apparatus 10 illustrated in FIG. 1. 第2の入力開始に対応するジェスチャー入力時の動作の一例を説明する図。The figure explaining an example of the operation | movement at the time of the gesture input corresponding to a 2nd input start. 実施形態2に係わる画像形成装置10の処理の流れの一例を示すフローチャート。9 is a flowchart illustrating an example of a processing flow of the image forming apparatus 10 according to the second embodiment. 変形例の一例を示す図。The figure which shows an example of a modification. 変形例の一例を示す図。The figure which shows an example of a modification.

以下、本発明の一実施の形態について添付図面を参照して詳細に説明する。なお、以下に示す実施形態においては、ジェスチャー認識装置を画像形成装置に適用(内蔵)した場合を例に挙げて説明する。そのため、ユーザがジェスチャーにより呼び出す機能は、印刷設定となる。勿論、ジェスチャー認識装置は、画像形成装置に限られず、他の装置へ適用することもできる。例えば、デジタルカメラなどに適用しても構わない。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. In the embodiment described below, a case where the gesture recognition apparatus is applied (built in) to the image forming apparatus will be described as an example. Therefore, the function that the user calls by gesture is print setting. Of course, the gesture recognition apparatus is not limited to the image forming apparatus, and can be applied to other apparatuses. For example, it may be applied to a digital camera.

(実施形態1)
図1は、本発明の一実施の形態に係わるジェスチャー認識装置を適用した画像形成装置10のハードウェア構成の一例を示す図である。
(Embodiment 1)
FIG. 1 is a diagram illustrating an example of a hardware configuration of an image forming apparatus 10 to which a gesture recognition apparatus according to an embodiment of the present invention is applied.

ここで、画像形成装置10は、CPU11と、ROM12と、RAM13と、記憶部14と、タッチパネル15と、表示部16と、画像形成部17とを具備して構成される。   Here, the image forming apparatus 10 includes a CPU 11, a ROM 12, a RAM 13, a storage unit 14, a touch panel 15, a display unit 16, and an image forming unit 17.

CPU(Central Processing Unit)11は、装置全体の動作を統括制御する。ROM(Read Only Memory)12は、プログラムや各種データを記憶する。RAM(Random Access Memory)13は、CPU11によるプログラムの実行時にワークエリアとして使用され、演算結果やデータ等を一時的に記憶する。記憶部14は、例えば、SD(Secure Digital)メモリカードやHDD(Hard Disk Drive)等で実現され、各種データを記憶する。   A CPU (Central Processing Unit) 11 controls the overall operation of the apparatus. A ROM (Read Only Memory) 12 stores programs and various data. A RAM (Random Access Memory) 13 is used as a work area when the CPU 11 executes a program, and temporarily stores calculation results, data, and the like. The storage unit 14 is realized by, for example, an SD (Secure Digital) memory card, an HDD (Hard Disk Drive), or the like, and stores various data.

表示部16は、各種操作画面を表示する。タッチパネル15は、座標入力装置として機能し、表示画面(表示部16)上を指し示す指示体(指、ペン等)の座標位置を検出し、当該検出座標を装置内に入力する。ここで、表示部16及びタッチパネル15は、一体で構成されている。すなわち、タッチパネル15は、表示部16に重ねて設けられる。なお、タッチパネル15上でタッチ入力可能な領域を入力可能領域と呼ぶ。入力可能領域は、表示部16全体をカバーしていることが望ましい。   The display unit 16 displays various operation screens. The touch panel 15 functions as a coordinate input device, detects the coordinate position of an indicator (finger, pen, etc.) pointing on the display screen (display unit 16), and inputs the detected coordinates into the device. Here, the display unit 16 and the touch panel 15 are integrally configured. That is, the touch panel 15 is provided so as to overlap the display unit 16. An area where touch input is possible on the touch panel 15 is referred to as an input enabled area. It is desirable that the input enabled area covers the entire display unit 16.

画像形成部17は、用紙等の記録媒体上に画像を形成し印刷を行なう。画像形成部17の方式は特に問わず、例えば、電子写真方式を採用してもよいし、インクジェット方式を採用してもよい。   The image forming unit 17 forms an image on a recording medium such as paper and performs printing. The method of the image forming unit 17 is not particularly limited. For example, an electrophotographic method or an ink jet method may be employed.

ここで、画像形成装置10は、種々の印刷設定を行なうために複数の操作画面を有する。この複数の操作画面は、階層構造を有して構成される。以下、階層的に構成された操作画面を順番に辿って所望の印刷設定等を行なう操作を階層画面操作と呼ぶ。これに対しジェスチャーを用いて所望の印刷設定に一気に飛んで所望の印刷設定等を行なう操作をジェスチャー操作と呼ぶ。なお、ここでは、ジェスチャー操作と階層画面操作とを組み合わせて所望の印刷設定等を行なう場合について説明する。   Here, the image forming apparatus 10 has a plurality of operation screens for performing various print settings. The plurality of operation screens are configured to have a hierarchical structure. Hereinafter, an operation for performing desired print settings and the like by sequentially tracing the hierarchically configured operation screens is referred to as a hierarchical screen operation. On the other hand, an operation for jumping to a desired print setting using a gesture and performing the desired print setting or the like is called a gesture operation. Here, a case will be described in which desired print settings and the like are performed by combining gesture operation and hierarchical screen operation.

ここで、図2を用いて、操作画面における階層構造の一例について説明する。操作画面の階層構造は、ルートノード画面、中間ノード画面、リーフノード画面に大別される。この場合、コピー基本画面がルートノード画面に該当し、応用モード画面や地紋印刷画面などが中間ノード画面に該当し、コピー画面や丸秘画面などがリーフノード画面に該当する。ここでは、操作画面の階層構造において、ルートノードに向かう方向を上、リーフノードに向かう方向を下と表現する。例えば、コピー画面の1つ上の階層の画面は、スタンプ画面になり、スタンプ画面の1つ下の階層の画面は、コピー画面、丸秘画面、社外秘画面等になる。   Here, an example of a hierarchical structure on the operation screen will be described with reference to FIG. The hierarchical structure of the operation screen is roughly divided into a root node screen, an intermediate node screen, and a leaf node screen. In this case, the copy basic screen corresponds to the root node screen, the application mode screen, the copy-forgery-inhibited pattern printing screen, and the like correspond to the intermediate node screen, and the copy screen and the secret screen correspond to the leaf node screen. Here, in the hierarchical structure of the operation screen, the direction toward the root node is expressed as up, and the direction toward the leaf node is expressed as down. For example, the screen one level higher than the copy screen is a stamp screen, and the screen one level lower than the stamp screen is a copy screen, a confidential screen, a confidential screen, or the like.

階層画面操作では、ルートノード画面がスタート画面となる。ユーザは、ルートノード画面から項目を順に選択し、操作画面の階層構造を辿る。最後に到達するリーフノード画面が印刷設定可能な画面となる。例えば、コピー時にスタンプを設定する場合は、コピー基本画面、応用モード画面、地紋印刷画面、スタンプ画面、コピー画面の順に操作画面の階層構造を辿ることになる。ジェスチャー入力画面は、ジェスチャー入力可能な画面である。ジェスチャー操作時のスタート画面であり、この操作画面は、上述した階層構造には属さず、独立している。   In the hierarchy screen operation, the root node screen becomes the start screen. The user sequentially selects items from the root node screen and follows the hierarchical structure of the operation screen. The leaf node screen that arrives last is a screen on which print settings can be made. For example, when setting a stamp at the time of copying, the hierarchical structure of the operation screen is followed in the order of the copy basic screen, application mode screen, copy-forgery-inhibited pattern printing screen, stamp screen, and copy screen. The gesture input screen is a screen on which gesture input is possible. This is a start screen for gesture operation, and this operation screen does not belong to the above-described hierarchical structure and is independent.

ここで、図3は、表示部16に表示される操作画面の一例を示している。図3(a)は、図2に示すジェスチャー入力画面に対応し、図3(b)は、図2に示すスタンプ画面に対応する。スタンプ画面では、コピー、丸秘、社外秘などの印刷設定が選択可能である。図3(c)は、図2に示す丸秘画面に対応する。   Here, FIG. 3 shows an example of an operation screen displayed on the display unit 16. 3A corresponds to the gesture input screen shown in FIG. 2, and FIG. 3B corresponds to the stamp screen shown in FIG. On the stamp screen, print settings such as copy, secret, and internal secret can be selected. FIG. 3C corresponds to the confidential screen shown in FIG.

ジェスチャー入力画面の中央部には、図3(a)に示すように、用紙プレビュー領域41が設けられる。用紙プレビュー領域41は、印刷の仕上がりイメージを表しており、ジェスチャーを入力する際に位置のガイドの役割を果たす。例えば、用紙の中央部に「丸秘」のスタンプを透かしたい場合、ユーザは、用紙プレビュー領域41の中央部に「丸秘」に対応するジェスチャーの入力を行なう。また、例えば、用紙の左上をステイプルでとめたい場合、ユーザは、用紙プレビュー領域41内における左上の領域において、「ステイプル左上」に対応するジェスチャーの入力を行なう。   A paper preview area 41 is provided at the center of the gesture input screen as shown in FIG. The paper preview area 41 represents a print finished image, and serves as a position guide when inputting a gesture. For example, when it is desired to watermark the “confidential” stamp at the center of the paper, the user inputs a gesture corresponding to “confidential” at the central part of the paper preview area 41. Further, for example, when the upper left corner of the paper is to be stapled, the user inputs a gesture corresponding to “upper left staple” in the upper left area in the paper preview area 41.

次に、図4を用いて、画像形成装置10上に実現される機能的な構成の一例について説明する。図4に示すこれら機能構成の一部は、例えば、CPU11がROM12や記憶部14に格納されたプログラムを実行することにより実現される。   Next, an example of a functional configuration realized on the image forming apparatus 10 will be described with reference to FIG. 4 is realized by the CPU 11 executing a program stored in the ROM 12 or the storage unit 14, for example.

画像形成装置10は、入力部21と、領域管理部22と、判定部23と、認識部24と、辞書情報格納部25と、実行部26と、画面情報格納部27とを具備して構成される。   The image forming apparatus 10 includes an input unit 21, a region management unit 22, a determination unit 23, a recognition unit 24, a dictionary information storage unit 25, an execution unit 26, and a screen information storage unit 27. Is done.

画面情報格納部27は、例えば、ROM12や記憶部14等により実現され、複数の操作画面を格納する。すなわち、画面情報格納部27においては、図2に示す階層構造を有する画面や、独立した画面(ジェスチャー入力画面)を格納している。   The screen information storage unit 27 is realized by, for example, the ROM 12, the storage unit 14, and the like, and stores a plurality of operation screens. That is, the screen information storage unit 27 stores a screen having a hierarchical structure shown in FIG. 2 and an independent screen (gesture input screen).

入力部21は、例えば、タッチパネル15や表示部16等により実現され、ジェスチャー(連続する入力座標)を装置内に入力する。なお、入力部21では、ジェスチャー入力の他、画面に表示されたボタン等による入力の処理も行なう。   The input unit 21 is realized by, for example, the touch panel 15, the display unit 16, and the like, and inputs a gesture (continuous input coordinates) into the apparatus. Note that the input unit 21 performs not only gesture input but also input processing using buttons displayed on the screen.

領域管理部22は、例えば、CPU11等により実現され、第1の入力領域(直接入力領域)と第2の入力領域(間接入力領域)とに分割して表示画面上における入力可能領域を管理する。例えば、ジェスチャー入力画面の場合、用紙プレビュー領域41の内側が第1の入力領域となり、その外側が第2の入力領域となる。   The area management unit 22 is realized by, for example, the CPU 11 or the like, and manages an input possible area on the display screen by dividing the area into a first input area (direct input area) and a second input area (indirect input area). . For example, in the case of the gesture input screen, the inside of the paper preview area 41 is the first input area, and the outside is the second input area.

判定部23は、例えば、CPU11等により実現され、入力部21により入力されたジェスチャーの入力方式を判定する。すなわち、入力ジェスチャーが第1の入力方式(直接入力方式)により入力されたか、第2の入力方式(間接入力方式)により入力されたかの判定を行なう。この判定では、第1の入力領域に入力されたジェスチャーを第1の入力方式による入力であると判定し、それ以外の領域(第2の入力領域)に入力されたジェスチャーを第2の入力方式による入力であると判定する。ここで、第1の入力方式は、対応するジェスチャーが直接入力されることをいう。ユーザが所望の印刷設定のジェスチャーを知っている場合、この入力方式でジェスチャー入力が行なわれる。第2の入力方式は、所望の印刷設定と類似の印刷設定のジェスチャーが入力されることをいう。ユーザが所望の印刷設定のジェスチャーを知らない場合にも、ジェスチャー入力を可能とする入力方式である。類似の印刷設定は、操作画面の階層構造に基づいて決められる。例えば、図2を参照すると、コピー画面、丸秘画面、社外秘画面には共通して1つ上の階層にスタンプ画面が設けられている。そのため、ここでは、コピー画面、丸秘画面、社外秘画面各々により提供される機能を類似の印刷設定であると定義する。   The determination unit 23 is realized by, for example, the CPU 11 and determines the input method of the gesture input by the input unit 21. That is, it is determined whether the input gesture is input by the first input method (direct input method) or the second input method (indirect input method). In this determination, it is determined that the gesture input in the first input area is input by the first input method, and the gesture input in the other area (second input area) is determined by the second input method. It is determined that the input is from. Here, the first input method means that a corresponding gesture is directly input. When the user knows a desired print setting gesture, the gesture input is performed by this input method. The second input method means that a gesture having a print setting similar to the desired print setting is input. This is an input method that enables gesture input even when the user does not know the desired print setting gesture. Similar print settings are determined based on the hierarchical structure of the operation screen. For example, referring to FIG. 2, a stamp screen is provided in a layer one level higher than the copy screen, the confidential screen, and the confidential screen. Therefore, here, the functions provided by the copy screen, the confidential screen, and the confidential screen are defined as similar print settings.

辞書情報格納部25は、ジェスチャー辞書を格納する。ジェスチャー辞書は、図5に示すように、各エントリが、形状、用紙プレビュー領域との位置関係、印刷設定の項目(処理の内容)、を有している。「形状」は、ジェスチャー(連続する入力座標)の形状を示す情報である。例えば、「2in1」に対応するジェスチャーの形状は、横線のストローク1つからなる。なお、「第2の入力方式による入力開始(以下、第2の入力開始と略す)」については、実施形態2において説明する。   The dictionary information storage unit 25 stores a gesture dictionary. In the gesture dictionary, as shown in FIG. 5, each entry has a shape, a positional relationship with the paper preview area, and print setting items (processing contents). “Shape” is information indicating the shape of a gesture (continuous input coordinates). For example, the shape of the gesture corresponding to “2 in 1” is composed of one horizontal stroke. The “input start by the second input method (hereinafter abbreviated as second input start)” will be described in the second embodiment.

「用紙プレビュー領域との位置関係」は、入力ジェスチャーと用紙プレビュー領域41(図2参照)との位置関係を示す情報である。例えば、「ステイプル左上」に対応するジェスチャーは、用紙プレビュー領域41の内側の左上に小さく入力する必要がある旨規定されている。また、例えば、「丸秘」に対応するジェスチャーは、用紙プレビュー領域41の中央部に大きく入力する必要がある旨規定されている。なお、「ステイプル左上」及び「ステイプル左下」は、ジェスチャー形状が同一となるが、「用紙プレビュー領域との位置関係」に規定された情報を用いて両者は識別されることになる。   The “positional relationship with the paper preview area” is information indicating the positional relation between the input gesture and the paper preview area 41 (see FIG. 2). For example, it is stipulated that the gesture corresponding to “staple upper left” needs to be input small in the upper left inside the paper preview area 41. Further, for example, it is stipulated that a gesture corresponding to “confidentiality” needs to be largely input to the central portion of the paper preview area 41. It should be noted that “staple upper left” and “staple lower left” have the same gesture shape, but both are identified using information defined in “positional relationship with paper preview area”.

認識部24は、入力部21により入力されたジェスチャーを認識する。すなわち、ジェスチャー辞書に基づいて入力ジェスチャーの認識を行なう。第1の入力方式によりジェスチャーが入力された場合、用紙プレビュー領域41の内側にジェスチャーが入力されることになる。この場合、認識部24は、「用紙プレビュー領域との位置関係」と「形状」との両方の情報を用いて認識を行なう。これに対して、第2の入力方式によりジェスチャーが入力された場合、用紙プレビュー領域41の外側にジェスチャーが入力されることになる。この場合、「用紙プレビュー領域との位置関係」と入力ジェスチャーとの比較結果を用いた認識を行なえないため、認識部24は、「形状」に規定された情報のみを用いて認識を行なう。   The recognition unit 24 recognizes the gesture input by the input unit 21. That is, the input gesture is recognized based on the gesture dictionary. When a gesture is input by the first input method, the gesture is input inside the paper preview area 41. In this case, the recognizing unit 24 performs recognition using both the “positional relationship with the paper preview area” and the “shape”. On the other hand, when a gesture is input by the second input method, the gesture is input outside the paper preview area 41. In this case, since the recognition using the comparison result between the “positional relationship with the paper preview area” and the input gesture cannot be performed, the recognition unit 24 performs the recognition using only the information defined in the “shape”.

実行部26は、判定部23の判定結果と、認識部24の認識結果とに基づいて、入力されたジェスチャーに対応した処理を実行する。実行部26においては、同一ジェスチャーが入力されたとしても、その入力方式(第1の入力方式、第2の入力方式)に応じて異なる処理を実施する。第1の入力方式によりジェスチャーが入力された場合、実行部26は、認識ジェスチャーに対応する画面を表示部16に表示させる。例えば、「丸秘」のジェスチャーが認識された場合、表示部16には、丸秘画面が表示される。   The execution unit 26 executes processing corresponding to the input gesture based on the determination result of the determination unit 23 and the recognition result of the recognition unit 24. Even if the same gesture is input, the execution unit 26 performs different processing depending on the input method (first input method, second input method). When the gesture is input by the first input method, the execution unit 26 causes the display unit 16 to display a screen corresponding to the recognition gesture. For example, when a gesture of “confidentiality” is recognized, a confidential screen is displayed on the display unit 16.

これに対して、第2の入力方式によりジェスチャーが入力された場合、認識ジェスチャーに対応する画面よりも1つ上の階層の画面を表示部16に表示させる。例えば、「丸秘」のジェスチャーが認識された場合、表示部16には、丸秘画面よりも1つ上の階層に当たるスタンプ画面が表示される。この場合、ユーザは、階層画面操作とジェスチャー操作とを併用して所望の印刷設定に辿り着くことになる。なお、本実施形態においては、類似の印刷設定をユーザがどれだけ知っているかが重要になるが、階層画面操作とジェスチャー操作とを併用して利用していくうちに、ユーザは、類似の印刷設定を自然に覚えられることになる。   On the other hand, when a gesture is input by the second input method, a screen that is one level higher than the screen corresponding to the recognition gesture is displayed on the display unit 16. For example, when a gesture of “confidentiality” is recognized, a stamp screen corresponding to a layer one level higher than the confidential screen is displayed on the display unit 16. In this case, the user reaches the desired print setting by using both the hierarchical screen operation and the gesture operation. In this embodiment, it is important how much the user knows similar print settings. However, as the user uses both the hierarchical screen operation and the gesture operation, the user uses similar print settings. The setting will be remembered naturally.

次に、図6〜図8を用いて、図1に示す画像形成装置10における処理の流れの一例について説明する。ここでは、まず、図6を用いて、ジェスチャー入力画面においてジェスチャー入力を行なう際の処理の流れについて説明する。   Next, an example of the flow of processing in the image forming apparatus 10 shown in FIG. 1 will be described with reference to FIGS. Here, the flow of processing when performing gesture input on the gesture input screen will be described first with reference to FIG.

ユーザは、ペンや指等を用いて、所望のジェスチャーを入力する。すると、画像形成装置は、入力部21において、当該入力ジェスチャーを装置内に入力するとともに(S101)、判定部23において、当該入力ジェスチャーの入力方式を判定する(S102)。すなわち、当該入力ジェスチャーが用紙プレビュー領域41内に入力されたか否かの判定を行なう。この判定は、入力ジェスチャーに外接する矩形の面積に基づいて行なわれる。ここで、例えば、入力ジェスチャーに外接する矩形の面積をS1とし、入力ジェスチャーに外接する矩形と用紙プレビュー領域41との重なる領域の面積をS2とする。そして、X=S2÷S1を算出する。例えば、Xが0.9以上であれば、入力ジェスチャーが用紙プレビュー領域41の内側に入力されたと判定する(第1の入力方式)。Xが0.9未満であれば、入力ジェスチャーが用紙プレビュー領域41の外側に入力されたと判定する(第2の入力方式)。   The user inputs a desired gesture using a pen, a finger, or the like. Then, the image forming apparatus inputs the input gesture into the apparatus at the input unit 21 (S101), and determines the input method of the input gesture at the determination unit 23 (S102). That is, it is determined whether or not the input gesture has been input into the paper preview area 41. This determination is made based on the rectangular area circumscribing the input gesture. Here, for example, an area of a rectangle circumscribing the input gesture is S1, and an area of a region where the rectangle circumscribing the input gesture and the paper preview area 41 overlap is S2. Then, X = S2 ÷ S1 is calculated. For example, if X is 0.9 or more, it is determined that an input gesture has been input inside the paper preview area 41 (first input method). If X is less than 0.9, it is determined that the input gesture has been input outside the paper preview area 41 (second input method).

判定の結果、第1の入力方式によりジェスチャーが入力されたと判定された場合(S103でYES)、画像形成装置10は、認識部24において、「用紙プレビュー領域との位置関係」と「形状」とを用いて、入力されたジェスチャーを認識する(S104)。そして、実行部26において、入力ジェスチャーに対応する画面へ遷移する(S105)。その後、詳細については後述するが、印刷設定等の処理が行なわれる(S109)。   As a result of the determination, when it is determined that a gesture has been input by the first input method (YES in S103), the image forming apparatus 10 causes the recognition unit 24 to determine “positional relationship with the sheet preview area” and “shape”. Is used to recognize the input gesture (S104). And in the execution part 26, it changes to the screen corresponding to an input gesture (S105). Thereafter, although details will be described later, processing such as print setting is performed (S109).

一方、判定の結果、第2の入力方式によりジェスチャーが入力されたと判定された場合(S103でNO)、画像形成装置10は、認識部24において、「形状」を用いて、入力されたジェスチャーを認識する(S106)。そして、実行部26において、入力ジェスチャーに対応する画面よりも上位階層(本実施形態においては1つ上位)の画面へ遷移する(S107)。その後、詳細については後述するが、所望画面への遷移処理等が行なわれた後(S108)、印刷設定等の処理が行なわれる(S109)。   On the other hand, when it is determined that the gesture is input by the second input method as a result of the determination (NO in S103), the image forming apparatus 10 uses the “shape” to recognize the input gesture in the recognition unit 24. Recognize (S106). Then, the execution unit 26 transitions to a screen that is higher than the screen corresponding to the input gesture (one higher in the present embodiment) (S107). Thereafter, although details will be described later, after a transition process to a desired screen or the like is performed (S108), a process such as print setting is performed (S109).

次に、図7を用いて、図6に示すS108における処理(所望画面への遷移処理)の流れの一例について説明する。S107の処理により入力ジェスチャーに対応する画面よりも上位階層の画面(中間ノード画面)が表示されている状態からの処理の流れについて説明する。ここでは、説明の便宜上、中間ノード画面の一例として図3(b)に示すスタンプ画面が表示されているものとする。なお、スタンプ画面には、コピー、丸秘、社外秘、コピー禁止、無効、confidentialの6つの設定ボタンと、設定取り消しボタン、戻るボタンが設けられる。いずれかの設定ボタンが押下されると、当該ボタンに対応する画面へ遷移し、対応する印刷設定が行なわれることになる。   Next, an example of the flow of processing in S108 shown in FIG. 6 (transition processing to a desired screen) will be described using FIG. A flow of processing from a state in which a screen (intermediate node screen) higher than the screen corresponding to the input gesture is displayed by the processing of S107 will be described. Here, for convenience of explanation, it is assumed that the stamp screen shown in FIG. 3B is displayed as an example of the intermediate node screen. The stamp screen is provided with six setting buttons of copy, secret, confidential, copy prohibited, invalid, and confidential, a setting cancel button, and a return button. When one of the setting buttons is pressed, the screen transitions to a screen corresponding to the button, and the corresponding print setting is performed.

ここで、ユーザは、例えば、指やペン等を用いて、スタンプ画面に配されたいずれかのボタンを押下する。すると、画像形成装置10は、入力部21において、当該ボタン押下の情報を装置内に入力する(S201)。ここで、画像形成装置10は、当該押下されたボタンが設定ボタンであるか否かを判定する。   Here, the user presses one of the buttons arranged on the stamp screen using, for example, a finger or a pen. Then, the image forming apparatus 10 uses the input unit 21 to input the button pressing information into the apparatus (S201). Here, the image forming apparatus 10 determines whether or not the pressed button is a setting button.

判定の結果、設定ボタンであれば(S202でYES)、画像形成装置10は、実行部26において、当該押下された設定ボタンに対応する画面への遷移処理を実施する(S205)。例えば、ユーザがコピーボタンを押下した場合、表示部16には、コピー画面が表示される。   As a result of the determination, if it is a setting button (YES in S202), the image forming apparatus 10 performs a transition process to a screen corresponding to the pressed setting button in the execution unit 26 (S205). For example, when the user presses the copy button, a copy screen is displayed on the display unit 16.

一方、S202における判定の結果、設定ボタン以外のボタンが押下された場合(S202でNO)、画像形成装置10は、戻るボタンが押下されたか否かを判定する。戻るボタンが押下されていれば(S203でYES)、画像形成装置10は、実行部26において、元の画面(ジェスチャー入力画面)への遷移処理を実施する(S206)。なお、ジェスチャー入力画面へ戻るのは、ジェスチャー操作時の場合であり、階層画面操作時には、1つ上の階層の画面へ戻る。階層画面操作時に、例えば、スタンプ画面上で戻るボタンが押下された場合には、地紋印刷画面へ戻る(図2参照)。   On the other hand, as a result of the determination in S202, when a button other than the setting button is pressed (NO in S202), the image forming apparatus 10 determines whether the return button is pressed. If the return button is pressed (YES in S203), the image forming apparatus 10 performs a transition process to the original screen (gesture input screen) in the execution unit 26 (S206). Note that returning to the gesture input screen is at the time of a gesture operation, and returning to the screen at the next higher level at the time of the hierarchy screen operation. When the hierarchy screen is operated, for example, when a return button is pressed on the stamp screen, the screen returns to the tint block print screen (see FIG. 2).

また、取消ボタンが押下された場合(S203でNOの後、S204でYES)、画像形成装置10は、実行部26において、処理の取り消しを実施した後、元の画面(ジェスチャー入力画面)への遷移処理を実施する(S206)。戻り先となる画面は、戻るボタン押下時と同様となる。なお、S201におけるボタン押下情報が上記いずれのボタンでもなければ(S204でNO)、画像形成装置10は、ボタン押下待ち状態となり、再度、S201の処理に戻る。   If the cancel button is pressed (NO in S203, YES in S204), the image forming apparatus 10 cancels the process in the execution unit 26 and then returns to the original screen (gesture input screen). A transition process is performed (S206). The return screen is the same as when the return button is pressed. If the button press information in S201 is not any of the above buttons (NO in S204), the image forming apparatus 10 enters a button press wait state and returns to the process of S201 again.

次に、図8を用いて、図6に示すS109における処理(印刷設定を行なう際の処理)の流れの一例について説明する。S105又はS108の処理により印刷設定可能な画面(リーフノード画面)が表示されている状態からの処理の流れについて説明する。ここでは、説明の便宜上、リーフノード画面の一例として図3(c)に示す丸秘画面が表示されているものとする。なお、丸秘画面には、決定ボタンと、取消ボタンとが設けられる。丸秘画面では、「丸秘」の印刷設定が行なわれた時にその印刷イメージを表すため、用紙プレビュー上には「丸秘」のスタンプが表示される。   Next, an example of the flow of processing in S109 shown in FIG. 6 (processing for performing print settings) will be described with reference to FIG. A flow of processing from a state in which a screen (leaf node screen) that can be set for printing by the processing of S105 or S108 is displayed will be described. Here, for convenience of explanation, it is assumed that the confidential screen shown in FIG. 3C is displayed as an example of the leaf node screen. The secret screen is provided with a determination button and a cancel button. In the confidential screen, a “confidential” stamp is displayed on the paper preview in order to represent the print image when the “confidential” print setting is performed.

ここで、ユーザは、例えば、指やペン等を用いて、丸秘画面に配されたいずれかのボタンを押下する。すると、画像形成装置10は、入力部21において、当該ボタン押下の情報を装置内に入力する(S301)。ここで、画像形成装置10は、当該押下されたボタンを判定する。   Here, the user presses one of the buttons arranged on the confidential screen using, for example, a finger or a pen. Then, the image forming apparatus 10 uses the input unit 21 to input the button pressing information into the apparatus (S301). Here, the image forming apparatus 10 determines the pressed button.

判定の結果、決定ボタンであれば(S302でYES)、画像形成装置10は、実行部26において、当該押下されたボタンに対応する印刷設定を実施する(S304)。この場合、例えば、丸秘スタンプが設定される。その後、表示部16には、元の画面(ジェスチャー入力画面)が表示される(S305)。   As a result of the determination, if it is a decision button (YES in S302), the image forming apparatus 10 performs print settings corresponding to the pressed button in the execution unit 26 (S304). In this case, for example, a confidential stamp is set. Thereafter, the original screen (gesture input screen) is displayed on the display unit 16 (S305).

一方、押下されたボタンが取消ボタンであれば(S302でNOの後、S303でYES)、画像形成装置10は、実行部26において、処理の実施を取り消す。その後、表示部16には、元の画面(ジェスチャー入力画面)が表示される(S305)。なお、S301におけるボタン押下情報が上記いずれのボタンでもなければ(S303でNO)、画像形成装置10は、ボタン押下待ち状態となり、再度、S301の処理に戻る。   On the other hand, if the pressed button is a cancel button (NO in S302, YES in S303), the image forming apparatus 10 cancels the execution of the process in the execution unit 26. Thereafter, the original screen (gesture input screen) is displayed on the display unit 16 (S305). If the button press information in S301 is not any of the above buttons (NO in S303), the image forming apparatus 10 enters a button press wait state and returns to the process of S301 again.

なお、図6のS105の処理が行なわれた時点で対応する印刷設定がセットされるように構成してもよい。この場合、S105の処理とともに印刷設定がなされ、その後、元の画面(例えば、ジェスチャー入力画面)が表示されることになる。   The corresponding print settings may be set when the process of S105 in FIG. 6 is performed. In this case, the print setting is made together with the process of S105, and then the original screen (for example, the gesture input screen) is displayed.

以上説明したように実施形態1によれば、対応するジェスチャーを知らなくても所望の機能を呼び出すことができるため、ジェスチャー入力時の操作性を向上させられる。例えば、ユーザは、コピーに対応するジェスチャーを知らなくても、丸秘など、コピーと類似した印刷設定のジェスチャーを知っていれば印刷設定が行なえる。   As described above, according to the first embodiment, it is possible to call a desired function without knowing a corresponding gesture, so that operability at the time of inputting a gesture can be improved. For example, even if the user does not know the gesture corresponding to the copy, the user can perform the print setting if he / she knows the gesture of the print setting similar to the copy such as the secret.

(実施形態2)
次に、実施形態2について説明する。上述した処理では、第2の入力方式により入力がなされた場合、「形状」のみを用いて認識処理を行なっていたため、認識率が低下する場合がある。例えば、図5に示すジェスチャー辞書の場合、「2in1」及び「ステイプル左上」に対応するジェスチャーはそれぞれ、その形状が似ている。そのため、「用紙プレビュー領域との位置関係」を用いずに認識を行なった場合、これらのジェスチャーを正確に識別できない可能性がある。例えば、ユーザが「2in1」を意図したジェスチャーを入力したとしても、「ステイプル左上」と誤って認識される場合がある。このような誤認識が生じた場合に、例えば、階層構造上、全く関係のない階層の画面に遷移したときには、その位置から階層画面操作によって所望の画面まで辿りつかなくてはならず、ユーザにとっては過度の負担が掛かってしまう。
(Embodiment 2)
Next, Embodiment 2 will be described. In the above-described processing, when input is performed by the second input method, the recognition processing may be performed using only “shape”, and thus the recognition rate may be reduced. For example, in the case of the gesture dictionary shown in FIG. 5, the shapes corresponding to “2 in 1” and “staple upper left” are similar in shape. Therefore, when the recognition is performed without using the “positional relationship with the paper preview area”, there is a possibility that these gestures cannot be accurately identified. For example, even if the user inputs a gesture intended for “2 in 1”, it may be erroneously recognized as “staple upper left”. When such a misrecognition occurs, for example, when the screen transitions to a screen that has nothing to do with the hierarchical structure, it is necessary to reach the desired screen by operating the hierarchical screen from that position. Is overburdened.

そこで、実施形態2においては、第2の入力方式時における認識率の低下を少ない手順で回避するようにした構成について説明する。第2の入力開始に対応するジェスチャーは、図5に示すように、その形状は、用紙を表す矩形となる。つまり、第2の入力方式による入力に際して、ユーザは、用紙の形状を入力する。第2の入力開始に対応するジェスチャーは、単独で印刷設定を行なうジェスチャーではなく、ユーザは、当該用紙に対応する形状を入力した後、続けて所望のジェスチャーを入力する。   Therefore, in the second embodiment, a configuration will be described in which a decrease in the recognition rate during the second input method is avoided with a few procedures. As shown in FIG. 5, the gesture corresponding to the second input start has a rectangular shape representing the paper. That is, when inputting by the second input method, the user inputs the paper shape. The gesture corresponding to the second input start is not a gesture for performing print settings alone, but the user continuously inputs a desired gesture after inputting a shape corresponding to the paper.

ここで、図9を用いて、第2の入力開始に対応するジェスチャー入力時の動作の一例について説明する。   Here, an example of an operation at the time of a gesture input corresponding to the second input start will be described with reference to FIG.

ユーザは、まず、図9(a)に示すように、第2の入力開始に対応するジェスチャーを第2の入力領域に入力する。すると、画像形成装置10は、認識部24において、第2の入力開始に対応するジェスチャーを認識する。ここで、画像形成装置10は、図9(b)に示すように、当該入力されたジェスチャーに対応する形状(以下、第2の用紙プレビュー領域42と呼ぶ)を表示したまま、次のジェスチャーの入力を待つ。   First, as shown in FIG. 9A, the user inputs a gesture corresponding to the second input start to the second input area. Then, the image forming apparatus 10 recognizes the gesture corresponding to the second input start in the recognition unit 24. Here, as shown in FIG. 9B, the image forming apparatus 10 displays the shape corresponding to the input gesture (hereinafter referred to as the second paper preview area 42) and displays the next gesture. Wait for input.

続けて、ユーザは、図9(c)に示すように、例えば、2in1に対応するジェスチャーを第2の用紙プレビュー領域42の内側に入力する。ここで、画像形成装置10は、認識部24において、第2の用紙プレビュー領域42を用いて当該入力ジェスチャーを認識する。具体的には、第2の用紙プレビュー領域42を利用して、「用紙プレビュー領域との位置関係」を用いた認識を行なう。これにより、認識率の低下を防ぐことができる。   Subsequently, as shown in FIG. 9C, the user inputs a gesture corresponding to, for example, 2 in 1 inside the second paper preview area 42. Here, in the image forming apparatus 10, the recognition unit 24 recognizes the input gesture using the second paper preview area 42. Specifically, using the second paper preview area 42, recognition using the “positional relationship with the paper preview area” is performed. Thereby, the fall of a recognition rate can be prevented.

なお、第2の入力開始に対応するジェスチャーを第1の入力領域に入力するようにしてもよい。この場合、例えば、図9(d)に示すように、第2の用紙プレビュー領域42が用紙プレビュー領域41を隠すことになる。第2の入力開始に対応するジェスチャーの入力が小さく、用紙プレビュー領域41を隠せない場合には、用紙プレビュー領域41が隠れるように、第2のプレビュー領域42を拡大して表示する。この場合、領域管理部22においては、表示画面上における入力可能領域全体を第2の入力領域に変更する。つまり、第2の入力開始に対応するジェスチャーが第1の入力領域に入力された場合、画像形成装置10は、以降の入力を全て第2の入力方式による入力として扱う。図9(b)の場合、タッチパネル15が小さいときには、第2の用紙プレビュー領域42を入力できる領域が小さくなり、入力し辛いという問題が生じるが、図9(d)に示す方法を採用すれば、このような問題もなくなる。   Note that a gesture corresponding to the second input start may be input to the first input area. In this case, for example, as shown in FIG. 9D, the second paper preview area 42 hides the paper preview area 41. When the input of the gesture corresponding to the second input start is small and the paper preview area 41 cannot be hidden, the second preview area 42 is enlarged and displayed so that the paper preview area 41 is hidden. In this case, the area management unit 22 changes the entire inputable area on the display screen to the second input area. That is, when a gesture corresponding to the second input start is input to the first input area, the image forming apparatus 10 treats all subsequent inputs as inputs by the second input method. In the case of FIG. 9B, when the touch panel 15 is small, the area in which the second paper preview area 42 can be input becomes small and it is difficult to input. However, if the method shown in FIG. Such a problem disappears.

次に、図10を用いて、実施形態2に係わる画像形成装置10における処理の流れの一例について説明する。ここでは、ジェスチャー入力画面においてジェスチャー入力を行なう際の処理の流れについて説明する。   Next, an example of a processing flow in the image forming apparatus 10 according to the second embodiment will be described with reference to FIG. Here, the flow of processing when performing gesture input on the gesture input screen will be described.

ユーザは、ペンや指等を用いて、所望のジェスチャーを入力する。すると、画像形成装置は、入力部21において、当該入力ジェスチャーを装置内に入力するとともに(S401)、認識部24において、当該入力ジェスチャーが第2の入力開始に対応するジェスチャーであるか否かを判定する。ここでのジェスチャーの認識処理では、後述するS406などで実施するジェスチャー認識よりも簡易な処理が行なわれる。具体的には、S406等では、ジェスチャー辞書に含まれる全てのジェスチャーを対象として認識を行なう必要があるが、ここで実施するジェスチャー認識は、第2の入力開始に対応するジェスチャーのみが対象となる。すなわち、第2の入力開始に対応するジェスチャーについて尤度を求め、当該尤度が予め定められた値以上であれば、第2の入力開始に対応するジェスチャーが入力されたと判定する。   The user inputs a desired gesture using a pen, a finger, or the like. Then, the image forming apparatus inputs the input gesture into the apparatus at the input unit 21 (S401), and determines whether or not the input gesture is a gesture corresponding to the second input start at the recognition unit 24. judge. In the gesture recognition process here, a simpler process than the gesture recognition performed in S406 described later is performed. Specifically, in S406 and the like, it is necessary to recognize all gestures included in the gesture dictionary, but the gesture recognition performed here is only for the gesture corresponding to the second input start. . That is, the likelihood is obtained for the gesture corresponding to the second input start, and if the likelihood is equal to or greater than a predetermined value, it is determined that the gesture corresponding to the second input start is input.

判定の結果、第2の入力開始に対応するジェスチャーであれば(S402でYES)、画像形成装置10は、表示部16において、当該入力ジェスチャーの形状に対応した第2の用紙プレビュー領域42を表示する(S403)。その後、再度、S401に戻り、ジェスチャー入力待ちとなる。なお、第2の入力開始に対応するジェスチャーが、第1の入力領域に入力された場合は、上述した通り、第2の用紙プレビュー領域42のサイズを変更して画面中央部に表示する。   As a result of the determination, if the gesture corresponds to the start of the second input (YES in S402), the image forming apparatus 10 displays the second paper preview area 42 corresponding to the shape of the input gesture on the display unit 16. (S403). Thereafter, the process returns to S401 again and waits for a gesture input. When the gesture corresponding to the second input start is input to the first input area, the size of the second paper preview area 42 is changed and displayed in the center of the screen as described above.

一方、S402の判定において、入力ジェスチャーが第2の入力開始に対応するジェスチャーでなければ(S402でNO)、画像形成装置10は、判定部23において、当該入力ジェスチャーが第2の用紙プレビュー領域42内になされたか否かを判定する。この判定は、図6のS102で説明した演算処理を実施し、その結果に基づいて行なう。なお、第2の用紙プレビュー領域42が表示されていなければ、この判定を行なわず、そのままS405の処理に進む。   On the other hand, if it is determined in S402 that the input gesture is not a gesture corresponding to the second input start (NO in S402), the image forming apparatus 10 determines that the input gesture is the second paper preview area 42 in the determination unit 23. It is determined whether or not it has been done. This determination is performed based on the result of the arithmetic processing described in S102 of FIG. If the second paper preview area 42 is not displayed, this determination is not performed and the process proceeds to S405 as it is.

判定の結果、入力ジェスチャーが第2の用紙プレビュー領域42の外側に入力されている場合(S404でNO)、画像形成装置10は、判定部23において、当該入力ジェスチャーの入力方式を判定する(S405)。すなわち、当該入力ジェスチャーが用紙プレビュー領域41内に入力されたか否かの判定を行なう。なお、S405〜S412の処理は、実施形態1を説明した図6におけるS102〜S109の処理と同様であるため、ここではその説明については省略する。   As a result of the determination, when the input gesture is input outside the second paper preview area 42 (NO in S404), the image forming apparatus 10 determines the input method of the input gesture in the determination unit 23 (S405). ). That is, it is determined whether or not the input gesture has been input into the paper preview area 41. Note that the processing of S405 to S412 is the same as the processing of S102 to S109 in FIG. 6 describing the first embodiment, and thus the description thereof is omitted here.

また、S404の判定の結果、入力ジェスチャーが第2の用紙プレビュー領域42の内側に入力されている場合(S404でYES)、画像形成装置10は、認識部24において、入力されたジェスチャーを認識する。具体的には、「用紙プレビュー領域との位置関係」と「形状」とを用いて、入力されたジェスチャーを認識する(S413)。その後、画像形成装置10は、ジェスチャー入力画面から第2の用紙プレビュー領域42の表示を削除する(S414)。そして、実行部26において、入力ジェスチャーに対応する画面よりも上位階層(本実施形態においては1つ上位)の画面へ遷移する(S415)。以降の処理は、実施形態1を説明した図6におけるS108及びS109の処理と同様であるため、ここではその説明については省略する。   If it is determined in step S404 that an input gesture has been input inside the second paper preview area 42 (YES in step S404), the image forming apparatus 10 recognizes the input gesture in the recognition unit 24. . Specifically, the input gesture is recognized using “positional relationship with the paper preview area” and “shape” (S413). Thereafter, the image forming apparatus 10 deletes the display of the second paper preview area 42 from the gesture input screen (S414). Then, the execution unit 26 transitions to a screen that is higher than the screen corresponding to the input gesture (one higher in the present embodiment) (S415). Since the subsequent processing is the same as the processing of S108 and S109 in FIG. 6 describing the first embodiment, the description thereof is omitted here.

以上説明したように実施形態2によれば、実施形態1同様の効果が得られるとともに、第2の入力方式による入力時の認識率を向上させることができる。   As described above, according to the second embodiment, the same effects as those of the first embodiment can be obtained, and the recognition rate at the time of input by the second input method can be improved.

以上が本発明の代表的な実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。以下、本実施形態の変形例についていくつか列挙する。   The above is an example of a typical embodiment of the present invention, but the present invention is not limited to the embodiment described above and shown in the drawings, and can be appropriately modified and implemented without departing from the scope of the present invention. . Hereinafter, some modifications of the present embodiment will be listed.

(変形例1)
上述した実施形態2で説明した第2の入力開始のジェスチャーの代わりに、例えば、第1の入力方式と第2の入力方式とを交互に変更する入力変更ボタンを設けてもよい。この場合、第1の入力方式時には用紙プレビュー領域41を表示し、第2の入力方式時には第2の用紙プレビュー領域42を表示する。用紙プレビュー領域41と第2の用紙プレビュー領域42とは、識別可能な形態で表示する。例えば、用紙プレビュー領域41の表示を図3(a)とし、第2の用紙プレビュー領域42の表示を図9(d)とする。また、図11に示すように、用紙プレビュー領域41と第2の用紙プレビュー領域42とを同時に表示するようにしてもよい。この場合、画像形成装置10においては、用紙プレビュー領域41の内側に入力されたジェスチャーを第1の入力方式による入力と判定し、第2の用紙プレビュー領域42内に入力されたジェスチャーを第2の入力方式による入力と判定する。
(Modification 1)
Instead of the second input start gesture described in the second embodiment, for example, an input change button for alternately changing the first input method and the second input method may be provided. In this case, the paper preview area 41 is displayed during the first input method, and the second paper preview area 42 is displayed during the second input method. The paper preview area 41 and the second paper preview area 42 are displayed in an identifiable form. For example, the display of the paper preview area 41 is shown in FIG. 3A, and the display of the second paper preview area 42 is shown in FIG. 9D. Further, as shown in FIG. 11, a paper preview area 41 and a second paper preview area 42 may be displayed simultaneously. In this case, in the image forming apparatus 10, the gesture input inside the paper preview area 41 is determined to be input by the first input method, and the gesture input in the second paper preview area 42 is determined as the second input method. The input is determined to be input.

(変形例2)
上述した実施形態で説明した操作画面のレイアウトは、適宜変更してもよい。例えば、スタンプ画面には、図12(a)に示すように、選択可能な印刷設定と、それに対応するジェスチャーのプレビューとを対応付けたボタンが配されていてもよい。例えば、コピーボタンには、コピーのジェスチャーのプレビューが表示されている。
(Modification 2)
The layout of the operation screen described in the above embodiment may be changed as appropriate. For example, as shown in FIG. 12A, the stamp screen may be provided with a button that associates a selectable print setting with a preview of a corresponding gesture. For example, the copy button displays a preview of a copy gesture.

図12(a)に示すスタンプ画面は、例えば、入力ジェスチャーに対応する画面よりも1つ上位階層の画面へ遷移した場合に表示される(例えば、図10に示すS410やS415の処理の後)。つまり、第2の入力方式による入力が行なわれた場合に表示される。第2の入力方式により入力は、一般に、所望の印刷設定に対応するジェスチャーをユーザが知らない場合が多い。そのため、このようなジェスチャーのプレビューが表示されることにより、ユーザは、ジェスチャーを容易に覚えることができる。   The stamp screen illustrated in FIG. 12A is displayed, for example, when the screen transitions to a screen one level higher than the screen corresponding to the input gesture (for example, after the processing of S410 and S415 illustrated in FIG. 10). . That is, it is displayed when an input is made by the second input method. In general, in many cases, the user does not know a gesture corresponding to a desired print setting. Therefore, by displaying such a gesture preview, the user can easily learn the gesture.

なお、階層画面操作によりスタンプ画面へ遷移した場合には、図3(b)に示すスタンプ画面を表示すればよい。ユーザが、階層画面操作を行なっている場合には、対応するジェスチャーを知りたいと思っていないと推測できるためであり、余分な情報によるストレスを避ける。   Note that when the screen is changed to the stamp screen by the hierarchy screen operation, the stamp screen shown in FIG. 3B may be displayed. This is because the user can assume that he / she does not want to know the corresponding gesture when performing a hierarchical screen operation, and avoids stress due to extra information.

(変形例3)
図7のS201において、ユーザが所望の印刷設定を選択し、図7のS205において、対応する画面へ遷移する間に、例えば、図12(b)に示すように、当該選択された印刷設定に対応するジェスチャーのプレビューを表示するようにしてもよい。これにより、ユーザは、ジェスチャーを容易に覚えることができる。
(Modification 3)
In S201 of FIG. 7, the user selects a desired print setting, and during the transition to the corresponding screen in S205 of FIG. 7, for example, as shown in FIG. A preview of the corresponding gesture may be displayed. Thereby, the user can easily learn a gesture.

(変形例4)
なお、上述した説明では、第2の入力方式による入力が行なわれた場合には、入力ジェスチャーに対応する画面よりも1つ上位階層の画面を表示する場合を例に挙げて説明したが、これに限られない。例えば、画像形成装置10の操作履歴に基づいて、遷移先の画面を動的に生成するようにしてもよい。例えば、入力ジェスチャーに対応する印刷設定に関連して使用される印刷設定を取り出し、それら印刷設定を並べた画面を動的に生成する。
(Modification 4)
In the above description, when an input is performed using the second input method, an example in which a screen one level higher than the screen corresponding to the input gesture is displayed has been described. Not limited to. For example, the transition destination screen may be dynamically generated based on the operation history of the image forming apparatus 10. For example, print settings used in association with the print settings corresponding to the input gesture are taken out, and a screen in which these print settings are arranged is dynamically generated.

例えば、「丸秘」の場合について考えてみる。「丸秘」とともに使用される印刷設定をXとし、当該Xとともに使用される印刷設定をYとする。この場合、Yを「丸秘」の代わりに使用される印刷設定とする。具体的には、操作履歴において、「2in1」や「丸秘」を関連して使用した印刷設定の組み合わせや、「2in1」や「コピー」を関連して使用した印刷設定の組み合わせが多数あったとする。この場合、「コピー」を「丸秘」に関連して使用される印刷設定とする。この結果、例えば、丸秘に関連して使用される印刷設定がコピーや社外秘であったとすると、画像形成装置10は、「丸秘」、「コピー」、「社外秘」を含む操作画面を生成し、当該操作画面へ遷移する。   For example, consider the case of “confidentiality”. The print setting used with “confidential” is X, and the print setting used with X is Y. In this case, Y is a print setting used instead of “confidentiality”. Specifically, in the operation history, there are many combinations of print settings using “2 in 1” and “confidential” in association with each other and combinations of print settings using “2 in 1” and “copy” in association with each other. To do. In this case, “copy” is the print setting used in connection with “confidentiality”. As a result, for example, if the print setting used in connection with confidentiality is copy or confidential, the image forming apparatus 10 generates an operation screen including “confidential”, “copy”, and “confidential”. , Transition to the operation screen.

(変形例5)
ジェスチャー入力時の入力速度を用いて、第1の入力方式と第2の入力方式とを判定するようにしてもよい。入力速度と予め定めた値(例えば、平均値)とを比較して判定する。例えば、ジェスチャーの入力速度が予め定めた値よりも小さければ、第1の入力方式による入力と判定し、予め定めた値以上であれば、第2の入力方式による入力と判定する。この場合、画像形成装置10には、領域管理部22の代わりに、入力速度を計算する入力速度算出部が設けられる。
(Modification 5)
You may make it determine a 1st input system and a 2nd input system using the input speed at the time of gesture input. The determination is made by comparing the input speed with a predetermined value (for example, an average value). For example, if the input speed of the gesture is lower than a predetermined value, it is determined that the input is based on the first input method, and if it is equal to or higher than the predetermined value, it is determined that the input is based on the second input method. In this case, the image forming apparatus 10 is provided with an input speed calculation unit that calculates the input speed instead of the area management unit 22.

また、ジェスチャー入力時の表示画面上への押圧力を用いて、第1の入力方式と第2の入力方式とを判定するようにしてもよい。押圧力と予め定めた値(平均値)とを比較して判定する。例えば、ジェスチャーの押圧力が予め定めた値以上であれば、第1の入力方式による入力と判定し、予め定めた値よりも小さければ、第2の入力方式による入力と判定する。この場合、画像形成装置10には、領域管理部22の代わりに、押圧力を算出する押圧力算出部が設けられる。   Moreover, you may make it determine a 1st input system and a 2nd input system using the pressing force on the display screen at the time of gesture input. Determination is made by comparing the pressing force with a predetermined value (average value). For example, if the gesture pressing force is equal to or greater than a predetermined value, it is determined that the input is based on the first input method, and if it is smaller than the predetermined value, it is determined that the input is based on the second input method. In this case, the image forming apparatus 10 is provided with a pressing force calculation unit that calculates the pressing force, instead of the area management unit 22.

以上が変形例についての説明である。なお、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施態様を採ることもできる。具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。   The above is the description of the modified example. It should be noted that the present invention can also take the form of, for example, a system, apparatus, method, program, or storage medium. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (12)

階層構造からなる操作画面を表示画面上に表示するジェスチャー認識装置であって、
指示体により指示された表示画面上の座標を入力する入力手段と、
ジェスチャーの形状と当該形状に対応する処理の内容とを含むジェスチャー辞書を格納する格納手段と、
前記入力手段により連続する入力座標が入力された場合、前記ジェスチャー辞書に基づいて、当該連続する入力座標と前記ジェスチャーの形状とを比較し、当該入力に対応する処理の内容を認識する認識手段と、
前記入力手段により連続する入力座標が入力された場合、第1の入力方式による入力であるか、第2の入力方式による入力であるかを判定する判定手段と、
前記判定手段により前記第1の入力方式による入力であると判定された場合、前記認識手段により認識された処理の内容に対応した画面への遷移処理を実施し、前記判定手段により前記第2の入力方式による入力であると判定された場合、前記認識手段により認識された処理の内容に対応した画面よりも上位階層の画面への遷移処理を実施する実行手段と
を具備することを特徴とするジェスチャー認識装置。
A gesture recognition device for displaying an operation screen having a hierarchical structure on a display screen,
An input means for inputting coordinates on the display screen instructed by the indicator;
Storage means for storing a gesture dictionary including the shape of the gesture and the content of the processing corresponding to the shape;
Recognizing means for comparing the continuous input coordinates with the shape of the gesture based on the gesture dictionary and recognizing the content of the processing corresponding to the input when continuous input coordinates are input by the input means; ,
A determination unit that determines whether the input is performed by the first input method or the second input method when continuous input coordinates are input by the input unit;
When the determination unit determines that the input is based on the first input method, a transition process to a screen corresponding to the content of the process recognized by the recognition unit is performed, and the determination unit performs the second process. And executing means for executing a transition process to a screen higher than the screen corresponding to the content of the process recognized by the recognition means when it is determined that the input is based on the input method. Gesture recognition device.
前記上位階層の画面には、
前記認識された処理の内容に対応する画面への遷移を指示するボタンが設けられ、
前記ボタンには、
前記認識された処理の内容に対応する画面へ前記第1の入力方式による入力により遷移する際に用いられるジェスチャーの形状のプレビューが表示される
ことを特徴とする請求項1記載のジェスチャー認識装置。
On the upper layer screen,
A button for instructing transition to a screen corresponding to the content of the recognized process is provided,
The buttons include
The gesture recognition apparatus according to claim 1, wherein a preview of a shape of a gesture used when transitioning to a screen corresponding to the content of the recognized process by input using the first input method is displayed.
前記上位階層の画面には、
前記認識された処理の内容に対応する画面への遷移を指示するボタンが設けられ、
前記表示画面上には、
前記ボタンの押下に伴って前記認識された処理の内容に対応する画面へ遷移する間に、当該遷移先の画面へ前記第1の入力方式による入力により遷移する際に用いられるジェスチャーの形状のプレビューが表示される
ことを特徴とする請求項1記載のジェスチャー認識装置。
On the upper layer screen,
A button for instructing transition to a screen corresponding to the content of the recognized process is provided,
On the display screen,
While transitioning to a screen corresponding to the content of the recognized process as the button is pressed, a preview of the shape of the gesture used when transitioning to the transition destination screen by input using the first input method The gesture recognition apparatus according to claim 1, wherein: is displayed.
前記表示画面上を第1の入力領域と第2の入力領域とに分けて管理する領域管理手段
を更に具備し、
前記判定手段は、
前記連続する入力座標が前記第1の入力領域に入力された場合、前記第1の入力方式による入力であると判定し、前記連続する入力座標が前記第2の入力領域に入力された場合、前記第2の入力方式による入力であると判定する
ことを特徴とする請求項1記載のジェスチャー認識装置。
Further comprising area management means for managing the display screen separately into a first input area and a second input area;
The determination means includes
When the continuous input coordinates are input to the first input area, it is determined that the input is based on the first input method, and when the continuous input coordinates are input to the second input area, The gesture recognition apparatus according to claim 1, wherein the gesture recognition apparatus determines that the input is based on the second input method.
前記入力手段は、
印刷の仕上がりイメージを表す用紙プレビュー領域を含む操作画面に対して指示された座標を入力し、
前記領域管理手段は、
前記用紙プレビュー領域の内側を第1の入力領域として管理し、前記用紙プレビュー領域の外側を第2の入力領域として管理し、
前記ジェスチャー辞書は、
前記処理の内容として印刷設定を規定し、
前記実行手段は、
前記判定手段により前記第1の入力方式による入力であると判定された場合、前記認識手段により認識された印刷設定を選択可能な画面への遷移処理を実施し、前記判定手段により前記第2の入力方式による入力であると判定された場合、前記認識手段により認識された印刷設定を選択可能な画面よりも上位階層の画面への遷移処理を実施する
ことを特徴とする請求項4記載のジェスチャー認識装置。
The input means includes
Enter the coordinates indicated on the operation screen including the paper preview area representing the finished image of the print,
The area management means includes:
Managing the inside of the paper preview area as a first input area, managing the outside of the paper preview area as a second input area,
The gesture dictionary
Define print settings as the content of the process,
The execution means includes
When the determination unit determines that the input is based on the first input method, a transition process to a screen capable of selecting the print setting recognized by the recognition unit is performed, and the determination unit performs the second process. The gesture according to claim 4, wherein when it is determined that the input is based on an input method, a transition process to a screen of a higher hierarchy than a screen capable of selecting the print setting recognized by the recognition unit is performed. Recognition device.
前記ジェスチャー辞書には、
前記ジェスチャーの形状と、当該形状と前記用紙プレビュー領域の位置関係と、当該形状に対応する印刷設定とが対応付けて規定されており、
前記認識手段は、
前記連続する入力座標が前記用紙プレビュー領域の内側に入力された場合、当該連続する入力座標及び前記ジェスチャーの形状の比較結果と当該連続する入力座標及び前記用紙プレビュー領域の位置関係とに基づいて、当該入力に対応する印刷設定を認識する
ことを特徴とする請求項5記載のジェスチャー認識装置。
In the gesture dictionary,
The shape of the gesture, the positional relationship between the shape and the paper preview area, and the print settings corresponding to the shape are defined in association with each other,
The recognition means is
When the continuous input coordinates are input inside the paper preview area, based on the comparison results of the continuous input coordinates and the shape of the gesture and the positional relationship between the continuous input coordinates and the paper preview area, The gesture recognition apparatus according to claim 5, wherein a print setting corresponding to the input is recognized.
前記ジェスチャー辞書は、
前記第2の入力方式による入力の開始を指示するジェスチャーの形状を含み、
前記判定手段は、
前記認識手段により前記連続する入力座標が前記第2の入力方式による入力の開始を指示するジェスチャーの形状であると認識された場合、その次に入力される連続する入力座標を前記第2の入力方式による入力であると判定する
ことを特徴とする請求項1記載のジェスチャー認識装置。
The gesture dictionary
Including a shape of a gesture for instructing start of input by the second input method,
The determination means includes
When the recognition means recognizes that the continuous input coordinates are the shape of a gesture instructing the start of input by the second input method, the continuous input coordinates input next are input to the second input The gesture recognition device according to claim 1, wherein the gesture recognition device determines that the input is based on a method.
前記第2の入力方式による入力の開始を指示するジェスチャーの形状は、用紙の形状であり、
前記ジェスチャー辞書には、
ジェスチャーの形状と、当該ジェスチャーの形状と前記用紙の形状が入力された領域との位置関係と、当該ジェスチャーの形状に対応する印刷設定とが対応付けて規定されており、
前記認識手段は、
前記用紙の形状の前記次に入力される連続する入力座標及び前記ジェスチャーの形状の比較結果と前記次に入力される連続する入力座標及び前記用紙の形状が入力された領域の位置関係とに基づいて、当該入力に対応する印刷設定を認識する
ことを特徴とする請求項7記載のジェスチャー認識装置。
The shape of the gesture for instructing the start of input by the second input method is a shape of paper,
In the gesture dictionary,
The gesture shape, the positional relationship between the shape of the gesture and the area where the shape of the paper is input, and the print setting corresponding to the shape of the gesture are defined in association with each other,
The recognition means is
Based on the comparison result of the next input coordinate and the shape of the gesture that are input next to the shape of the paper, and the positional relationship between the input region of the continuous input coordinate that is input next and the shape of the paper The gesture recognition apparatus according to claim 7, wherein a print setting corresponding to the input is recognized.
前記入力手段により連続する入力座標が入力される際の入力速度を算出する入力速度算出手段
を更に具備し、
前記判定手段は、
前記入力速度算出手段により算出された前記入力速度と予め定めた値との比較に基づいて前記第1の入力方式による入力であるか、前記第2の入力方式による入力であるかを判定する
ことを特徴とする請求項1記載のジェスチャー認識装置。
An input speed calculating means for calculating an input speed when continuous input coordinates are input by the input means;
The determination means includes
Determining whether the input is based on the first input method or the second input method based on a comparison between the input speed calculated by the input speed calculation means and a predetermined value. The gesture recognition apparatus according to claim 1.
前記入力手段により連続する入力座標が入力される際の表示画面上に対する押圧力を算出する押圧力算出手段
を更に具備し、
前記判定手段は、
前記押圧力算出手段により算出された押圧力と予め定めた値との比較に基づいて前記第1の入力方式による入力であるか、前記第2の入力方式による入力であるかを判定する
ことを特徴とする請求項1記載のジェスチャー認識装置。
A pressing force calculating means for calculating a pressing force on the display screen when continuous input coordinates are input by the input means;
The determination means includes
Determining whether the input is based on the first input method or the second input method based on a comparison between the pressing force calculated by the pressing force calculating means and a predetermined value. The gesture recognition device according to claim 1, wherein:
階層構造からなる操作画面を表示画面上に表示するジェスチャー認識装置の認識方法であって、
入力手段が、指示体により指示された表示画面上の座標を入力する工程と、
格納手段が、ジェスチャーの形状と当該形状に対応する処理の内容とを含むジェスチャー辞書を格納する工程と、
認識手段が、前記入力手段により連続する入力座標が入力された場合、前記ジェスチャー辞書に基づいて、当該連続する入力座標と前記ジェスチャーの形状とを比較し、当該入力に対応する処理の内容を認識する工程と、
判定手段が、前記入力手段により連続する入力座標が入力された場合、第1の入力方式による入力であるか、第2の入力方式による入力であるかを判定する工程と、
実行手段が、前記判定手段により前記第1の入力方式による入力であると判定された場合、前記認識手段により認識された処理の内容に対応した画面への遷移処理を実施し、前記判定手段により前記第2の入力方式による入力であると判定された場合、前記認識手段により認識された処理の内容に対応した画面よりも上位階層の画面への遷移処理を実施する工程と
を含むことを特徴とするジェスチャー認識装置の認識方法。
A gesture recognition device recognition method for displaying a hierarchical operation screen on a display screen,
An input means for inputting coordinates on the display screen indicated by the indicator;
Storing a gesture dictionary including the shape of the gesture and the content of the process corresponding to the shape;
When continuous input coordinates are input by the input unit, the recognition unit compares the continuous input coordinates with the shape of the gesture based on the gesture dictionary, and recognizes the contents of processing corresponding to the input. And a process of
A step of determining whether a determination unit is an input by a first input method or an input by a second input method when continuous input coordinates are input by the input unit;
When the execution unit determines that the input by the first input method is performed by the determination unit, a transition process to a screen corresponding to the content of the process recognized by the recognition unit is performed, and the determination unit A step of performing a transition process to a screen higher than the screen corresponding to the content of the process recognized by the recognition unit when it is determined that the input is based on the second input method. A recognition method for a gesture recognition device.
階層構造からなる操作画面を表示画面上に表示するジェスチャー認識装置に内蔵されたコンピュータであって、
指示体により指示された表示画面上の座標を入力する入力手段、
ジェスチャーの形状と当該形状に対応する処理の内容とを含むジェスチャー辞書を格納する格納手段、
前記入力手段により連続する入力座標が入力された場合、前記ジェスチャー辞書に基づいて、当該連続する入力座標と前記ジェスチャーの形状とを比較し、当該入力に対応する処理の内容を認識する認識手段、
前記入力手段により連続する入力座標が入力された場合、第1の入力方式による入力であるか、第2の入力方式による入力であるかを判定する判定手段、
前記判定手段により前記第1の入力方式による入力であると判定された場合、前記認識手段により認識された処理の内容に対応した画面への遷移処理を実施し、前記判定手段により前記第2の入力方式による入力であると判定された場合、前記認識手段により認識された処理の内容に対応した画面よりも上位階層の画面への遷移処理を実施する実行手段
として機能させるためのプログラム。
A computer built in a gesture recognition device that displays a hierarchical operation screen on a display screen,
An input means for inputting coordinates on the display screen instructed by the indicator;
Storage means for storing a gesture dictionary including the shape of a gesture and the content of processing corresponding to the shape;
When continuous input coordinates are input by the input means, a recognition means for comparing the continuous input coordinates with the shape of the gesture based on the gesture dictionary and recognizing the content of processing corresponding to the input;
A determination unit that determines whether the input is performed by the first input method or the second input method when continuous input coordinates are input by the input unit;
When the determination unit determines that the input is based on the first input method, a transition process to a screen corresponding to the content of the process recognized by the recognition unit is performed, and the determination unit performs the second process. A program for functioning as an execution means for executing a transition process to a screen higher than the screen corresponding to the content of the process recognized by the recognition means when it is determined that the input is based on the input method.
JP2009291406A 2009-12-22 2009-12-22 Information processing apparatus, control method thereof, and program Expired - Fee Related JP5538869B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009291406A JP5538869B2 (en) 2009-12-22 2009-12-22 Information processing apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009291406A JP5538869B2 (en) 2009-12-22 2009-12-22 Information processing apparatus, control method thereof, and program

Publications (3)

Publication Number Publication Date
JP2011135226A true JP2011135226A (en) 2011-07-07
JP2011135226A5 JP2011135226A5 (en) 2013-02-14
JP5538869B2 JP5538869B2 (en) 2014-07-02

Family

ID=44347511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009291406A Expired - Fee Related JP5538869B2 (en) 2009-12-22 2009-12-22 Information processing apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP5538869B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102890616A (en) * 2012-09-26 2013-01-23 杨生虎 Shortcut input method and shortcut input system of touch screen
WO2014051130A1 (en) * 2012-09-27 2014-04-03 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program
JP2014123250A (en) * 2012-12-21 2014-07-03 Brother Ind Ltd Printer
JP2014188986A (en) * 2013-03-28 2014-10-06 Sharp Corp Image formation apparatus
JP2016008991A (en) * 2014-06-20 2016-01-18 コニカミノルタ株式会社 Print condition setting device, print condition setting system and print condition setting method
WO2021200378A1 (en) * 2020-03-31 2021-10-07 ブラザー工業株式会社 Program and electronic device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345506A (en) * 2002-05-28 2003-12-05 Konica Minolta Holdings Inc Operation inputting device and image forming device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345506A (en) * 2002-05-28 2003-12-05 Konica Minolta Holdings Inc Operation inputting device and image forming device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102890616A (en) * 2012-09-26 2013-01-23 杨生虎 Shortcut input method and shortcut input system of touch screen
CN102890616B (en) * 2012-09-26 2016-03-30 杨生虎 The shortcut input method of touch-screen and system
WO2014051130A1 (en) * 2012-09-27 2014-04-03 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program
JP2014123250A (en) * 2012-12-21 2014-07-03 Brother Ind Ltd Printer
JP2014188986A (en) * 2013-03-28 2014-10-06 Sharp Corp Image formation apparatus
JP2016008991A (en) * 2014-06-20 2016-01-18 コニカミノルタ株式会社 Print condition setting device, print condition setting system and print condition setting method
WO2021200378A1 (en) * 2020-03-31 2021-10-07 ブラザー工業株式会社 Program and electronic device

Also Published As

Publication number Publication date
JP5538869B2 (en) 2014-07-02

Similar Documents

Publication Publication Date Title
US9076085B2 (en) Image processing apparatus, image processing apparatus control method, and storage medium
JP5538869B2 (en) Information processing apparatus, control method thereof, and program
JP6053332B2 (en) Information processing apparatus, information processing apparatus control method, and program
US20130077119A1 (en) Image forming apparatus and non-transitory computer readable medium storing a program for controlling the same
CN104243749B (en) The control method of image processing system and image processing system
CN102541401B (en) Information processing equipment and method for processing information
JP4818036B2 (en) Touch panel control device and touch panel control method
JP2010067135A (en) Information processor, information processing method and computer program
JP5882779B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2012043214A (en) Operation display device and method
JP2009152818A (en) Method for setting output image including image processing information and program for controlling setting
US9843691B2 (en) Image display device, image display system, image display method, and computer-readable storage medium for computer program
KR102205283B1 (en) Electro device executing at least one application and method for controlling thereof
US10979583B2 (en) Information processing apparatus equipped with touch panel type display unit, control method therefor, and storage medium
JP6191567B2 (en) Operation screen display device, image forming apparatus, and display program
KR20150139337A (en) Method for providing a screen for manipulating application execution of image forming apparatus and image forming apparatus using the same
JP2003345506A (en) Operation inputting device and image forming device
JP2013168799A (en) Image processing apparatus, image processing apparatus control method, and program
KR102105492B1 (en) Information processing apparatus, control method of information processing apparatus, and storage medium
JP2008129823A (en) Touch panel input device and image forming apparatus
US20140165011A1 (en) Information processing apparatus
JP2014115787A (en) Input apparatus, input method, and computer program
JP6291942B2 (en) Operation panel device
JP5853778B2 (en) Print setting apparatus, print setting method, print setting program, and recording medium
JP2015099420A (en) Information processing apparatus

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140407

R151 Written notification of patent or utility model registration

Ref document number: 5538869

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140430

LAPS Cancellation because of no payment of annual fees