JP2016062410A - Image forming apparatus and program - Google Patents

Image forming apparatus and program Download PDF

Info

Publication number
JP2016062410A
JP2016062410A JP2014191093A JP2014191093A JP2016062410A JP 2016062410 A JP2016062410 A JP 2016062410A JP 2014191093 A JP2014191093 A JP 2014191093A JP 2014191093 A JP2014191093 A JP 2014191093A JP 2016062410 A JP2016062410 A JP 2016062410A
Authority
JP
Japan
Prior art keywords
user
area
finger
determined
image forming
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014191093A
Other languages
Japanese (ja)
Other versions
JP6337715B2 (en
Inventor
尚孝 船川
Naotaka Funakawa
尚孝 船川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2014191093A priority Critical patent/JP6337715B2/en
Publication of JP2016062410A publication Critical patent/JP2016062410A/en
Application granted granted Critical
Publication of JP6337715B2 publication Critical patent/JP6337715B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technology of determining a non-touch operation of a user more properly.SOLUTION: An image forming apparatus detects a three-dimensional position of a finger of a user in a detection area, and divides the detection area into an area R1 and an area R2. In first determination processing on a position where the finger of the user is located, when the finger of the user is determined to be located in the area R2, the user operation is determined to be a gesture operation (in principle). When second determination processing determines that the finger of the user is located in the area R1 (a movement path P21) even if the first determination processing determines that the finger of the user is located in the area R2, the user operation is determined not to be a gesture operation (but to be a touch operation).SELECTED DRAWING: Figure 7

Description

本発明は、画像形成装置およびそれに関連する技術に関する。   The present invention relates to an image forming apparatus and related technology.

画像形成装置に係る技術ではないが、表示装置への接触動作を伴わずに装置(車載機器)に対して指示を付与する技術が存在する。   Although not a technique related to the image forming apparatus, there is a technique for giving an instruction to the apparatus (on-vehicle apparatus) without causing a contact operation to the display apparatus.

たとえば、特許文献1においては、ユーザが車載機器(カーオーディオ装置等)の液晶パネルに接触することなく車載機器に対して指示(音量の調整等)を付与することが可能な技術が記載されている。具体的には、ユーザが、手の平を車載機器の液晶パネルの前面側にかざし、右側の指が下(液晶パネル側)になるように手の平を傾ける動作(右傾動作)を行うと、音量が大きくなる。一方、左側の指が下(液晶パネル側)になるように手の平を傾ける動作(左傾動作)を行うと、音量が小さくなる。このように、ユーザは、液晶パネルに接触せずに「ジェスチャ操作」によって車載機器に対して指示(音量の調整等)を付与することが可能である。   For example, Patent Document 1 describes a technique that allows a user to give an instruction (volume adjustment, etc.) to an in-vehicle device without touching a liquid crystal panel of the in-vehicle device (such as a car audio device). Yes. Specifically, when the user holds the palm over the front side of the LCD panel of the in-vehicle device and tilts the palm so that the right finger is down (LCD panel side) (right tilt operation), the volume increases. Become. On the other hand, if the operation of tilting the palm so that the left finger is down (the liquid crystal panel side) (left tilt operation), the volume is reduced. In this way, the user can give an instruction (volume adjustment or the like) to the in-vehicle device by “gesture operation” without touching the liquid crystal panel.

特開2008−83946号公報JP 2008-83946 A

ところで、MFP(マルチ・ファンクション・ペリフェラル(Multi-Functional Peripheral))などの画像形成装置においては、操作画面内のボタン等を押下(タッチ)することによって画像形成装置に対して所望の指示を付与する「タッチ操作」が、一般的に採用されている。   By the way, in an image forming apparatus such as an MFP (Multi-Functional Peripheral), a desired instruction is given to the image forming apparatus by pressing (touching) a button or the like in the operation screen. “Touch operation” is generally adopted.

ここにおいて、本願発明者らは、上述のような非接触操作による指示を受け付ける技術を画像形成装置にて採用することを案出した。当該画像形成装置に対しては、「タッチ操作」と「ジェスチャ操作」とを含む複数の操作が行われ得る。この場合、画像形成装置は、これらの操作を次のようにして区別することができる。たとえば、画像形成装置は、ユーザの手指が操作画面に接触すると当該ユーザの操作をタッチ操作として判定し、ユーザの手指が操作画面に接触していなければ当該ユーザの操作をジェスチャ操作として判定する。このように、「タッチ操作」と「ジェスチャ操作」とが利用される場合に、ユーザの手指が操作画面に接触したか否かにより、ユーザ操作が「タッチ操作」と「ジェスチャ操作」とのいずれであるかが判定されること、が考えられる。   Here, the inventors of the present application have devised that the image forming apparatus adopts a technique for receiving an instruction by a non-contact operation as described above. A plurality of operations including “touch operation” and “gesture operation” can be performed on the image forming apparatus. In this case, the image forming apparatus can distinguish these operations as follows. For example, when the user's finger touches the operation screen, the image forming apparatus determines the user's operation as a touch operation, and when the user's finger does not touch the operation screen, the image forming apparatus determines the user's operation as a gesture operation. As described above, when “touch operation” and “gesture operation” are used, the user operation is either “touch operation” or “gesture operation” depending on whether or not the user's finger touches the operation screen. It is conceivable that it is determined whether or not.

しかしながら、操作画面への接触の有無のみに基づいて、「タッチ操作」と「ジェスチャ操作」とが区別される場合には、タッチ操作に先立って行われる非接触操作(後述する「サーチ操作」を含む非接触操作等)がジェスチャ操作として判定(誤判定)されることがある。たとえば、ユーザの中には、操作画面内のボタン等から所望のボタンを探し出す際に、ボタンをタッチ(押下)するために自身の手指を操作画面に近づけつつも、当該操作画面に非接触の状態で当該操作画面の近傍(前面側)にて自身の手指を左右方向等に動かすユーザも存在し得る。なお、このような操作(タッチ操作の際に所望のボタン等を探し出すために操作画面に非接触の状態で手指を動かす操作)は、「サーチ操作」とも称される。   However, when the “touch operation” and the “gesture operation” are distinguished based only on the presence / absence of contact with the operation screen, a non-contact operation (a “search operation” described later) is performed prior to the touch operation. A non-contact operation, etc.) may be determined (erroneous determination) as a gesture operation. For example, when searching for a desired button from among the buttons on the operation screen, some of the users are not touching the operation screen while touching (pressing) the button with their fingers closer to the operation screen. There may be a user who moves his / her finger in the left-right direction or the like in the vicinity of the operation screen in the state (front side). Note that such an operation (an operation of moving a finger without touching the operation screen in order to search for a desired button or the like during a touch operation) is also referred to as a “search operation”.

当該サーチ操作とジェスチャ操作とは、いずれも、操作画面に接触せずに行われる操作である。そのため、画像形成装置はジェスチャ操作とサーチ操作とを区別することができないことがある。その場合、ユーザが行ったサーチ操作を含む操作がジェスチャ操作として判定(誤判定)され、画像形成装置は、ユーザの本来の意図を正しく把握することができない。   The search operation and the gesture operation are both performed without touching the operation screen. Therefore, the image forming apparatus may not be able to distinguish between a gesture operation and a search operation. In this case, an operation including a search operation performed by the user is determined as a gesture operation (erroneous determination), and the image forming apparatus cannot correctly grasp the original intention of the user.

このように、ジェスチャ操作以外の操作がジェスチャ操作として画像形成装置により判定(誤判定)されることに起因して、ユーザの本来の意図が正しく伝達されない恐れがある。   As described above, an operation other than the gesture operation is determined (erroneously determined) by the image forming apparatus as the gesture operation, and thus the user's original intention may not be transmitted correctly.

そこで、本発明は、ユーザによる非接触操作をより的確に判定することが可能な技術を提供することを課題とする。   Then, this invention makes it a subject to provide the technique which can determine more accurately the non-contact operation by a user.

上記課題を解決すべく、請求項1の発明は、画像形成装置であって、前記画像形成装置の操作画面付近の検出領域においてユーザの手指の三次元位置を検出する検出手段と、前記検出領域におけるユーザ操作が複数の種類の操作のいずれであるかを判定する制御手段と、を備え、前記複数の種類の操作は、第1の種類の操作と第2の種類の操作とを有し、前記第1の種類の操作は、前記操作画面内の複数の操作部材のいずれかをタッチするための操作であって、前記複数の操作部材の中から所望の操作部材を探し出す際に前記ユーザの手指を前記操作画面に接触させることなく前記操作画面の近接領域にて移動させるサーチ操作を含む操作であり、前記第2の種類の操作は、前記第1の種類の操作以外の操作であって、前記操作画面に接触せずに行われる操作であり、前記制御手段は、前記検出領域を、前記操作画面に近接する第1の領域と前記第1の領域以外の第2の領域とを有する複数の領域に区分するとともに、前記ユーザの手指の存在位置に関する第1の判定処理において前記ユーザの手指が前記第2の領域に存在する旨が判定される場合に前記ユーザ操作が前記第2の種類の操作である旨を判定するものの、前記第1の判定処理において前記ユーザの手指が前記第2の領域に存在する旨が判定される場合であっても、前記第1の判定処理の後に実行される前記ユーザの手指の存在位置に関する第2の判定処理において前記ユーザの手指が前記第1の領域に存在する旨が判定されるときには、前記ユーザ操作は前記第2の種類の操作ではない旨を判定することを特徴とする。   In order to solve the above-mentioned problem, the invention of claim 1 is an image forming apparatus, wherein a detection means for detecting a three-dimensional position of a user's finger in a detection area near the operation screen of the image forming apparatus, and the detection area Control means for determining which of a plurality of types of user operation is, the plurality of types of operations have a first type of operation and a second type of operation, The first type of operation is an operation for touching any one of the plurality of operation members in the operation screen, and when the user searches for a desired operation member from among the plurality of operation members, The second type of operation is an operation other than the first type of operation, including a search operation that moves a finger in the proximity region of the operation screen without touching the operation screen. , Touch the operation screen The control means divides the detection area into a plurality of areas having a first area close to the operation screen and a second area other than the first area, When it is determined that the user's finger is present in the second area in the first determination process regarding the presence position of the user's finger, it is determined that the user operation is the second type of operation. However, even if it is determined in the first determination process that the user's finger is present in the second area, the user's finger that is executed after the first determination process is determined. When it is determined that the user's finger is present in the first area in the second determination process relating to the presence position, it is determined that the user operation is not the second type of operation. Do

請求項2の発明は、請求項1の発明に係る画像形成装置において、前記制御手段は、前記ユーザの手指が前記第2の領域に存在する旨が前記第1の判定処理において判定され、且つ、前記ユーザの手指が前記第1の領域に存在する旨が前記第2の判定処理において判定される場合には、前記ユーザ操作は前記第1の種類の操作である旨を判定することを特徴とする。   According to a second aspect of the present invention, in the image forming apparatus according to the first aspect of the invention, the control unit determines in the first determination process that the user's finger is present in the second region, and When it is determined in the second determination process that the user's finger exists in the first area, it is determined that the user operation is the first type of operation. And

請求項3の発明は、請求項1または請求項2の発明に係る画像形成装置において、前記制御手段は、前記第1の判定処理において、前記第2の領域において物体が第1の期間に亘って検出される場合には、前記ユーザの手指が前記第2の領域に存在する旨を判定し、前記第2の判定処理において、前記第1の領域において物体が第2の期間に亘って検出される場合には、前記ユーザの手指が前記第1の領域に存在する旨を判定することを特徴とする。   According to a third aspect of the present invention, in the image forming apparatus according to the first or second aspect of the present invention, in the first determination process, the control unit causes the object to remain in the second region over a first period. In the second determination process, an object is detected over the second period in the second determination process. If so, it is determined that the finger of the user exists in the first area.

請求項4の発明は、請求項1ないし請求項3のいずれかの発明に係る画像形成装置において、前記複数の領域は、前記第1の領域と前記第2の領域とのいずれとも異なる第3の領域をも有し、前記制御手段は、前記第1の判定処理において前記ユーザの手指が前記第2の領域に存在する旨が判定される場合に前記ユーザ操作が前記第2の種類の操作である旨を判定するものの、前記第1の判定処理において前記ユーザの手指が前記第2の領域に存在する旨が判定される場合であっても、前記第3の領域にて物体が一定期間に亘って存在する旨が前記第2の判定処理において判定されるときには、前記ユーザ操作は前記第2の種類の操作ではない旨を判定することを特徴とする。   A fourth aspect of the present invention is the image forming apparatus according to any one of the first to third aspects, wherein the plurality of regions are different from both the first region and the second region. And the control means determines that the user operation is the second type of operation when it is determined in the first determination process that the user's finger exists in the second area. However, even if it is determined in the first determination process that the user's finger is present in the second area, the object remains in the third area for a certain period of time. In the second determination process, it is determined that the user operation is not the second type of operation.

請求項5の発明は、請求項4の発明に係る画像形成装置において、前記複数の種類の操作は、前記第1の種類の操作と前記第2の種類の操作とのいずれとも異なる第3の種類の操作をも有し、前記制御手段は、前記ユーザの手指が前記第2の領域に存在する旨が前記第1の判定処理において判定され、且つ、前記ユーザの手指が前記第3の領域に存在する旨が前記第2の判定処理において判定される場合には、前記ユーザ操作は前記第3の種類の操作である旨を判定することを特徴とする。   According to a fifth aspect of the present invention, in the image forming apparatus according to the fourth aspect of the invention, the plurality of types of operations are different from both the first type of operations and the second type of operations. The control means determines in the first determination process that the user's finger is present in the second area, and the user's finger is in the third area. In the second determination process, it is determined that the user operation is the third type of operation.

請求項6の発明は、請求項4または請求項5の発明に係る画像形成装置において、前記第3の種類の操作は、前記操作画面の周辺に設けられた周辺部材に対して前記ユーザがアクセスする操作を含み、前記第3の領域は、前記ユーザによる前記周辺部材へのアクセスの際に前記ユーザの手指が通過する部分に配置される領域を含むことを特徴とする。   According to a sixth aspect of the present invention, in the image forming apparatus according to the fourth or fifth aspect, the third type of operation is performed by the user accessing a peripheral member provided around the operation screen. The third area includes an area arranged in a portion through which the user's finger passes when the user accesses the peripheral member.

請求項7の発明は、請求項4ないし請求項6のいずれかの発明に係る画像形成装置において、前記検出手段は、前記第3の領域の体積が前記検出領域の体積に対して所定の割合よりも大きい場合には、前記検出手段による検出感度を増大して前記検出領域を拡大するとともに前記第2の領域の体積を拡大することを特徴とする。   According to a seventh aspect of the present invention, in the image forming apparatus according to any one of the fourth to sixth aspects, the detection unit is configured such that the volume of the third area is a predetermined ratio with respect to the volume of the detection area. Is larger, the detection sensitivity of the detection means is increased to enlarge the detection area and the volume of the second area.

請求項8の発明は、請求項4ないし請求項7のいずれかの発明に係る画像形成装置において、前記制御手段は、前記一定期間よりも長い所定の期間よりも更に長い期間に亘って前記ユーザの手指が前記検出領域内に存在する場合には、前記第3の領域を無効化し、無効化された前記第3の領域を前記第2の領域とみなして前記第1の判定処理および前記第2の判定処理の少なくとも一方を実行することを特徴とする。   According to an eighth aspect of the present invention, in the image forming apparatus according to any one of the fourth to seventh aspects, the control unit includes the user over a period longer than a predetermined period longer than the predetermined period. When the first finger is present in the detection area, the third area is invalidated, the invalidated third area is regarded as the second area, and the first determination process and the first At least one of the two determination processes is executed.

請求項9の発明は、請求項4ないし請求項7のいずれかの発明に係る画像形成装置において、前記制御手段は、前記操作画面を有する操作パネルであって前記画像形成装置に対して着脱可能な操作パネルが前記画像形成装置から取り外されているときには、前記第3の領域を無効化し、無効化された前記第3の領域を前記第2の領域とみなして前記第1の判定処理および前記第2の判定処理の少なくとも一方を実行することを特徴とする。   According to a ninth aspect of the present invention, in the image forming apparatus according to any one of the fourth to seventh aspects, the control means is an operation panel having the operation screen and is detachable from the image forming apparatus. When the control panel is removed from the image forming apparatus, the third area is invalidated, the invalidated third area is regarded as the second area, and the first determination process and the At least one of the second determination processes is executed.

請求項10の発明は、請求項1ないし請求項3のいずれかの発明に係る画像形成装置において、前記複数の領域は、前記第1の領域と前記第2の領域とのいずれとも異なる第3の領域をも有し、前記制御手段は、前記第1の判定処理において前記ユーザの手指が前記第2の領域に存在する旨が判定される場合に前記ユーザ操作が前記第2の種類の操作である旨を判定するものの、前記第1の判定処理において前記ユーザの手指が前記第2の領域に存在する旨が判定される場合であっても、前記第3の領域にて物体が一定期間に亘って存在する旨が前記第2の判定処理において判定されるときには、前記ユーザ操作は行われなかった旨を判定することを特徴とする。   A tenth aspect of the present invention is the image forming apparatus according to any one of the first to third aspects, wherein the plurality of areas are different from both the first area and the second area. And the control means determines that the user operation is the second type of operation when it is determined in the first determination process that the user's finger exists in the second area. However, even if it is determined in the first determination process that the user's finger is present in the second area, the object remains in the third area for a certain period of time. In the second determination process, it is determined that the user operation has not been performed.

請求項11の発明は、請求項10の発明に係る画像形成装置において、前記第3の領域は、前記画像形成装置の前面側の通路空間と前記検出領域との重複領域に配置される領域であることを特徴とする。   According to an eleventh aspect of the present invention, in the image forming apparatus according to the tenth aspect, the third area is an area arranged in an overlapping area between the passage space on the front side of the image forming apparatus and the detection area. It is characterized by being.

請求項12の発明は、請求項11の発明に係る画像形成装置において、前記制御手段は、前記操作画面を有する操作パネルであって水平方向に対するその回転角度を変更することが可能な操作パネルの回転角度の変更に応じて、前記検出領域内の前記第2の領域の一部分が、前記画像形成装置の最前面部に接する鉛直面よりも更に前面側に突出する場合には、前記一部分を含む領域を前記第3の領域として設定することを特徴とする。   According to a twelfth aspect of the present invention, in the image forming apparatus according to the eleventh aspect of the present invention, the control means is an operation panel having the operation screen, the operation panel being capable of changing a rotation angle with respect to a horizontal direction. If a part of the second area in the detection area protrudes further to the front side than the vertical plane in contact with the foremost part of the image forming apparatus according to the change in the rotation angle, the part is included. An area is set as the third area.

請求項13の発明は、コンピュータに、a)画像形成装置の操作画面付近の検出領域においてユーザの手指の三次元位置を検出するとともに、前記検出領域を、前記操作画面に近接する第1の領域と前記第1の領域以外の第2の領域とを有する複数の領域に区分し、前記ユーザの手指が前記複数の領域のいずれに存在するかに関する第1の判定処理を実行するステップと、b)前記ステップa)の後において、前記ユーザの手指の三次元位置を再び検出するとともに、前記ユーザの手指が前記複数の領域のいずれに存在するかに関する第2の判定処理を実行するステップと、c)前記検出領域におけるユーザ操作が複数の種類の操作のいずれであるかを判定するステップと、を実行させるためのプログラムであって、前記複数の種類の操作は、第1の種類の操作と第2の種類の操作とを有し、前記第1の種類の操作は、前記操作画面内の複数の操作部材のいずれかをタッチするための操作であって、前記複数の操作部材の中から所望の操作部材を探し出す際に前記ユーザの手指を前記操作画面に接触させることなく前記操作画面の近接領域にて移動させるサーチ操作を含む操作であり、前記第2の種類の操作は、前記第1の種類の操作以外の操作であって、前記操作画面に接触せずに行われる操作であり、前記ステップc)においては、前記第1の判定処理において前記ユーザの手指が前記第2の領域に存在する旨が判定される場合に前記ユーザ操作が前記第2の種類の操作である旨が判定されるものの、前記第1の判定処理において前記ユーザの手指が前記第2の領域に存在する旨が判定される場合であっても、前記第2の判定処理において前記ユーザの手指が前記第1の領域に存在する旨が判定されるときには、前記ユーザ操作は前記第2の種類の操作ではない旨が判定されることを特徴とする。   According to a thirteenth aspect of the present invention, a computer detects a three-dimensional position of a user's finger in a detection region near the operation screen of the image forming apparatus, and the detection region is a first region close to the operation screen. And a second region other than the first region, and executing a first determination process regarding which of the plurality of regions the user's fingers are present; b ) After the step a), again detecting the three-dimensional position of the user's finger and executing a second determination process regarding which of the plurality of regions the user's finger exists; c) determining whether a user operation in the detection area is a plurality of types of operations, wherein the plurality of types of operations include: A first type of operation and a second type of operation, wherein the first type of operation is an operation for touching any one of the plurality of operation members in the operation screen, An operation including a search operation for moving a user's finger in a close region of the operation screen without contacting the operation screen when searching for a desired operation member from a plurality of operation members, The type of operation is an operation other than the operation of the first type and is performed without touching the operation screen. In the step c), the user's operation is performed in the first determination process. Although it is determined that the user operation is the second type of operation when it is determined that a finger is present in the second area, the user's finger is determined to be in the first determination process. Exists in the second region Even if it is determined that the user's finger is present in the first area in the second determination process, the user operation is not the second type of operation. It is characterized in that it is determined.

請求項1ないし請求項13に記載の発明によれば、画像形成装置は、検出領域においてユーザの手指の三次元位置を検出するとともに、検出領域を第1の領域と第2の領域とに区分する。そして、画像形成装置は、ユーザの手指の存在位置に関する第1の判定処理においてユーザの手指が第2の領域に存在する旨が判定される場合にユーザ操作が第2の種類の操作である旨を判定するものの、第1の判定処理においてユーザの手指が第2の領域に存在する旨が判定される場合であっても、第2の判定処理においてユーザの手指が第1の領域に存在する旨が判定されるときには、ユーザ操作は第2の種類の操作ではない旨を判定する。そのため、第2の種類の操作以外の非接触操作が第2の種類の操作として判定(誤判定)されることを回避することが可能である。したがって、ユーザによる非接触操作をより的確に判定することが可能である。   According to the first to thirteenth aspects of the invention, the image forming apparatus detects the three-dimensional position of the user's finger in the detection area, and divides the detection area into the first area and the second area. To do. The image forming apparatus notifies that the user operation is the second type of operation when it is determined in the first determination process regarding the presence position of the user's finger that the user's finger exists in the second area. However, even if it is determined in the first determination process that the user's finger exists in the second area, the user's finger exists in the first area in the second determination process. When it is determined, the user operation is determined not to be the second type operation. Therefore, it is possible to avoid a non-contact operation other than the second type operation being determined (erroneously determined) as the second type operation. Therefore, it is possible to more accurately determine the non-contact operation by the user.

画像形成装置(MFP)の外観を示す図である。1 is a diagram illustrating an appearance of an image forming apparatus (MFP). 画像形成装置の機能ブロックを示す図である。It is a figure which shows the functional block of an image forming apparatus. タッチ操作の様子を示す図である。It is a figure which shows the mode of touch operation. ジェスチャ操作の様子を示す図である。It is a figure which shows the mode of gesture operation. 操作画面に対するジェスチャ操作の様子を示す図である。It is a figure which shows the mode of gesture operation with respect to an operation screen. 操作画面に対するジェスチャ操作の様子を示す図である。It is a figure which shows the mode of gesture operation with respect to an operation screen. ユーザの手指の移動経路を示す図である。It is a figure which shows the movement path | route of a user's finger. 移動経路毎の操作種類の判定結果を示す図である。It is a figure which shows the determination result of the operation kind for every movement path | route. 画像形成装置において実行される操作種類判定処理を示すフローチャートである。6 is a flowchart illustrating an operation type determination process executed in the image forming apparatus. 画像形成装置において実行される操作種類判定処理を示すフローチャートである。6 is a flowchart illustrating an operation type determination process executed in the image forming apparatus. 複数のユーザ操作を示す図である。It is a figure which shows several user operation. 第3の領域の配置位置を示す概念図である。It is a conceptual diagram which shows the arrangement position of a 3rd area | region. 第2実施形態に係る移動経路毎の操作種類の判定結果を示す図である。It is a figure which shows the determination result of the operation kind for every movement path | route which concerns on 2nd Embodiment. 付属機器の配置例を示す図である。It is a figure which shows the example of arrangement | positioning of an accessory apparatus. 第2実施形態の変形例に係る第3の領域の配置位置を示す概念図である。It is a conceptual diagram which shows the arrangement position of the 3rd area | region which concerns on the modification of 2nd Embodiment. 付属機器の配置例を示す図である。It is a figure which shows the example of arrangement | positioning of an accessory apparatus. 第3実施形態に係る第3の領域の配置位置を示す概念図である。It is a conceptual diagram which shows the arrangement position of the 3rd area | region which concerns on 3rd Embodiment. 第3実施形態に係る拡大後の第2の領域を示す概念図である。It is a conceptual diagram which shows the 2nd area | region after the expansion which concerns on 3rd Embodiment. 第3実施形態の変形例に係る第3の領域の配置位置を示す概念図である。It is a conceptual diagram which shows the arrangement position of the 3rd area | region which concerns on the modification of 3rd Embodiment. 第3実施形態の変形例に係る拡大後の第2の領域を示す概念図である。It is a conceptual diagram which shows the 2nd area | region after the expansion which concerns on the modification of 3rd Embodiment. 第4実施形態に係る第3の領域の配置位置を示す概念図である。It is a conceptual diagram which shows the arrangement position of the 3rd area | region which concerns on 4th Embodiment. 第4実施形態の変形例に係る第3の領域の配置位置を示す概念図である。It is a conceptual diagram which shows the arrangement position of the 3rd area | region which concerns on the modification of 4th Embodiment.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.第1実施形態>
<1−1.構成概要>
図1は、画像形成装置10の外観を示す図であり、図2は、画像形成装置10の機能ブロックを示す図である。ここでは、画像形成装置10として、MFP(マルチ・ファンクション・ペリフェラル(Multi-Functional Peripheral))を例示する。
<1. First Embodiment>
<1-1. Outline of configuration>
FIG. 1 is a diagram illustrating an appearance of the image forming apparatus 10, and FIG. 2 is a diagram illustrating functional blocks of the image forming apparatus 10. Here, an MFP (Multi-Functional Peripheral) is exemplified as the image forming apparatus 10.

MFP10は、スキャン機能、コピー機能、ファクシミリ機能およびボックス格納機能などを備える装置(複合機とも称する)である。具体的には、MFP10は、図2の機能ブロック図に示すように、画像読取部2、印刷出力部3、通信部4、格納部5、操作部6、検出部13およびコントローラ9等を備えており、これらの各部を複合的に動作させることによって、各種の機能を実現する。   The MFP 10 is a device (also referred to as a multi-function device) having a scan function, a copy function, a facsimile function, a box storage function, and the like. Specifically, as shown in the functional block diagram of FIG. 2, the MFP 10 includes an image reading unit 2, a print output unit 3, a communication unit 4, a storage unit 5, an operation unit 6, a detection unit 13, a controller 9, and the like. Various functions are realized by operating these parts in a complex manner.

画像読取部(スキャン部とも称される)2は、MFP10の所定の位置に載置された原稿を光学的に読み取って(すなわちスキャンして)、当該原稿の画像データ(原稿画像ないしスキャン画像とも称する)を生成する処理部である。   An image reading unit (also referred to as a scan unit) 2 optically reads (that is, scans) a document placed at a predetermined position of the MFP 10, and image data of the document (both a document image or a scan image). A processing unit for generating

印刷出力部3は、印刷対象に関するデータに基づいて紙などの各種の媒体に画像を印刷出力する出力部である。   The print output unit 3 is an output unit that prints out an image on various media such as paper based on data related to a print target.

通信部4は、公衆回線等を介したファクシミリ通信を行うことが可能な処理部である。さらに、通信部4は、ネットワークを介したネットワーク通信を行うことも可能である。このネットワーク通信では、たとえば、TCP/IP(Transmission Control Protocol / Internet Protocol)等の各種のプロトコルが利用される。当該ネットワーク通信を利用することによって、MFP10は、所望の相手先との間で各種のデータを授受することが可能である。通信部4は、各種データを送信する送信部4aと各種データを受信する受信部4bとを有する。   The communication unit 4 is a processing unit capable of performing facsimile communication via a public line or the like. Furthermore, the communication unit 4 can also perform network communication via a network. In this network communication, for example, various protocols such as TCP / IP (Transmission Control Protocol / Internet Protocol) are used. By using the network communication, the MFP 10 can exchange various data with a desired destination. The communication unit 4 includes a transmission unit 4a that transmits various data and a reception unit 4b that receives various data.

格納部5は、ハードディスクドライブ(HDD)等の記憶装置で構成される。格納部5は、各操作画面の画像データ等を記憶する。   The storage unit 5 includes a storage device such as a hard disk drive (HDD). The storage unit 5 stores image data of each operation screen.

操作部6は、MFP10に対する操作入力を受け付ける操作入力部6aと、各種情報の表示出力を行う表示部6bとを備えている。   The operation unit 6 includes an operation input unit 6a that receives an operation input to the MFP 10 and a display unit 6b that displays and outputs various types of information.

このMFP10においては、略板状の操作パネル部6c(図1参照)が設けられている。また、操作パネル部6cは、その正面側にタッチパネル25(図1参照)を有している。タッチパネル25は、操作入力部6aの一部としても機能するとともに、表示部6bの一部としても機能する。タッチパネル25は、液晶表示パネルに圧電センサ等が埋め込まれて構成され、各種情報を表示するとともに操作者(ユーザ)による操作入力(ボタンの押下操作等)を受け付けることが可能である。また、表示部6bは、タッチパネル25に表示される操作画面を選択的に切り換えて表示する。   The MFP 10 is provided with a substantially plate-like operation panel unit 6c (see FIG. 1). Further, the operation panel unit 6c has a touch panel 25 (see FIG. 1) on the front side thereof. The touch panel 25 functions as a part of the operation input unit 6a and also functions as a part of the display unit 6b. The touch panel 25 is configured by embedding a piezoelectric sensor or the like in a liquid crystal display panel, and can display various kinds of information and accept an operation input (such as a button pressing operation) by an operator (user). The display unit 6b selectively switches and displays the operation screen displayed on the touch panel 25.

たとえば、タッチパネル25においては、各種の操作画面(ボタン画像等を含む)が表示される。操作者は、タッチパネル25の操作画面内に仮想的に配置される操作部材(ボタン等)を押下することによって、MFP10の各種動作内容を設定するとともに動作指示を付与することができる。   For example, on the touch panel 25, various operation screens (including button images) are displayed. The operator can set various operation contents of the MFP 10 and give an operation instruction by pressing an operation member (button or the like) virtually arranged in the operation screen of the touch panel 25.

また、タッチパネル25の液晶表示パネルには、格子状に配置された複数の電極(X方向およびY方向の電極)が埋め込まれている。X方向の電極とY方向の電極とが順次に走査(スキャン)され、タッチパネル25の前面側における所定の領域(検出領域(後述))内の物体(操作者の手指等)の静電容量値が測定(検出)される。MFP10は、静電容量値の分布により当該物体のX方向およびY方向の位置を特定する。また、MFP10は、当該静電容量の大きさに応じて当該物体のZ方向の位置(物体とタッチパネル25との距離)を特定する。当該静電容量は、物体とタッチパネル25との距離に応じて変化し、変化後の静電容量に応じて、物体とタッチパネル25との距離(Z方向の位置)が特定される。具体的には、操作者の手指がタッチパネル25に近づくと静電容量が増加し、逆に操作者の手指がタッチパネル25から遠ざかると静電容量が減少する。そして、増加後あるいは減少後の静電容量の大きさに応じて、操作者の手指のZ方向の位置が特定される。なお、物体(操作者の手指等)の位置を特定する手法は、静電容量方式によるものに限定されず、赤外線等によるものであってもよい。たとえば、赤外線が照射され、タッチパネル25の周辺付近等に配置された受光部に入射する赤外線(操作者の手指に反射した赤外線)の角度等によって操作者の手指の位置が特定(検出)されるようにしてもよい。   In addition, a plurality of electrodes (electrodes in the X direction and the Y direction) arranged in a grid pattern are embedded in the liquid crystal display panel of the touch panel 25. The X-direction electrode and the Y-direction electrode are sequentially scanned, and the capacitance value of an object (such as an operator's finger) in a predetermined area (detection area (described later)) on the front surface side of the touch panel 25. Is measured (detected). The MFP 10 specifies the position of the object in the X direction and the Y direction based on the distribution of capacitance values. Further, the MFP 10 specifies the position of the object in the Z direction (distance between the object and the touch panel 25) according to the size of the capacitance. The capacitance changes according to the distance between the object and the touch panel 25, and the distance (position in the Z direction) between the object and the touch panel 25 is specified according to the changed capacitance. Specifically, the capacitance increases when the operator's finger approaches the touch panel 25, and conversely, the capacitance decreases when the operator's finger moves away from the touch panel 25. Then, the position of the operator's finger in the Z direction is specified according to the magnitude of the increased or decreased capacitance. Note that the method for specifying the position of an object (such as an operator's finger) is not limited to a method using a capacitance method, and may be a method using infrared rays or the like. For example, the position of the operator's finger is specified (detected) by the angle of the infrared ray (infrared reflected to the operator's finger) incident on the light receiving unit disposed near the periphery of the touch panel 25 or the like. You may do it.

検出部13は、操作画面200付近の検出領域(ユーザの手指を検出可能な三次元領域(空間領域))において、ユーザの手指(ここではユーザの手指のうち操作画面200に最も近い部分)の三次元位置を検出する。   In the detection region (three-dimensional region (space region) where the user's finger can be detected) near the operation screen 200, the detection unit 13 detects the user's finger (here, the portion of the user's finger closest to the operation screen 200). Detect 3D position.

コントローラ(制御部)9は、MFP10に内蔵され、MFP10を統括的に制御する制御装置である。コントローラ9は、CPUおよび各種の半導体メモリ(RAMおよびROM)等を備えるコンピュータシステムとして構成される。コントローラ9は、CPUにおいて、ROM(例えば、EEPROM)内に格納されている所定のソフトウエアプログラム(以下、単にプログラムとも称する)を実行することによって、各種の処理部を実現する。なお、当該プログラム(詳細にはプログラムモジュール群)は、USBメモリなどの可搬性の記録媒体、あるいはネットワーク等を介してMFP10にインストールされてもよい。   The controller (control unit) 9 is a control device that is built in the MFP 10 and controls the MFP 10 in an integrated manner. The controller 9 is configured as a computer system including a CPU and various semiconductor memories (RAM and ROM). The controller 9 implements various processing units by executing predetermined software programs (hereinafter also simply referred to as programs) stored in a ROM (for example, EEPROM) in the CPU. Note that the program (specifically, a program module group) may be installed in the MFP 10 via a portable recording medium such as a USB memory or a network.

具体的には、図2に示すように、コントローラ(制御部)9は、当該プログラムの実行により、入力制御部11と表示制御部12と判定部14とを含む各種の処理部を実現する。   Specifically, as illustrated in FIG. 2, the controller (control unit) 9 realizes various processing units including an input control unit 11, a display control unit 12, and a determination unit 14 by executing the program.

入力制御部11は、操作入力部6a(タッチパネル25等)に対する操作入力動作を制御する制御部である。たとえば、入力制御部11は、タッチパネル25に表示された操作画面200に対する操作入力を受け付ける動作を制御する。   The input control unit 11 is a control unit that controls an operation input operation to the operation input unit 6a (the touch panel 25 or the like). For example, the input control unit 11 controls an operation for receiving an operation input on the operation screen 200 displayed on the touch panel 25.

表示制御部12は、表示部6b(タッチパネル25等)における表示動作を制御する処理部である。表示制御部12は、操作画面200に各種の情報を表示する動作等を制御する。   The display control unit 12 is a processing unit that controls a display operation in the display unit 6b (the touch panel 25 or the like). The display control unit 12 controls operations for displaying various types of information on the operation screen 200.

判定部14は、後述のように、検出領域を複数(ここでは2つ)の領域に区分するとともに、第1の判定処理と第2の判定処理とにおいて、ユーザの手指の存在位置を判定する。また、判定部14は、第1の判定処理結果に基づき、複数の種類の操作(タッチ目的操作およびジェスチャ操作)のいずれがユーザ操作(ユーザによる操作)として行われているか、を暫定的に決定し、第2の判定処理結果に基づき、複数の種類の操作のいずれがユーザ操作として行われているか、を決定する。   As will be described later, the determination unit 14 divides the detection region into a plurality of (here, two) regions, and determines the presence position of the user's finger in the first determination process and the second determination process. . Further, the determination unit tentatively determines which of a plurality of types of operations (touch purpose operation and gesture operation) is performed as a user operation (operation by the user) based on the first determination processing result. Then, based on the second determination processing result, it is determined which of a plurality of types of operations is performed as a user operation.

<1−2.動作>
第1実施形態においては、検出領域が2つの領域(領域R1および領域R2)に区分される。また、第1実施形態においては、第1の判定処理にてユーザの手指の存在位置が判定されるとともに、第1の判定処理結果に基づきユーザ操作の種類が暫定的に決定される。そして、第2の判定処理にてユーザの手指の存在位置が再び判定されるとともに、第2の判定処理結果に基づきユーザ操作の種類が確定される。
<1-2. Operation>
In the first embodiment, the detection region is divided into two regions (region R1 and region R2). In the first embodiment, the presence position of the user's finger is determined in the first determination process, and the type of user operation is provisionally determined based on the first determination process result. Then, the presence position of the user's finger is determined again in the second determination process, and the type of user operation is determined based on the second determination process result.

<検出領域の区分>
判定部14は、以下に示すように、タッチ目的操作が行われたかジェスチャ操作が行われたか(ユーザ操作はタッチ目的操作であるかジェスチャ操作であるか)、を判定するために検出領域を2つの領域に区分する。
<Detection area classification>
As shown below, the determination unit 14 sets the detection area to 2 to determine whether the touch purpose operation or the gesture operation is performed (whether the user operation is the touch purpose operation or the gesture operation). Divide into two areas.

タッチ目的操作は、操作画面200内の複数の操作部材(ボタン等(たとえば原稿設定ボタン401(図5)))のいずれかをタッチするための操作である。タッチ目的操作は、サーチ操作を含む操作である。当該タッチ目的操作は、タッチ操作自体を含むものであってもよく、タッチ操作を含まないものであってもよい。ここで、タッチ操作は、操作画面200に接触する操作である。図3に示すように、ユーザは、操作画面200内にて仮想的に表示されている操作部材(ボタン等(たとえば原稿設定ボタン401(図5)))を押下(タッチ)する操作(タッチ操作)により、所望の指示をMFP10に付与することができる。また、サーチ操作は、タッチ操作に先立って行われる非接触の操作である。当該サーチ操作は、当該複数の操作部材(ボタン等)の中から所望の操作部材を探し出す際に、ユーザの手指を操作画面200に接触させることなく操作画面200の近接領域にて移動させる操作である。たとえば、ユーザは、タッチ操作に先立って、操作画面200の近接領域でサーチ操作を行いながら、所望のボタンを探すことが可能である。   The touch purpose operation is an operation for touching any of a plurality of operation members (buttons or the like (for example, the document setting button 401 (FIG. 5))) in the operation screen 200. The touch purpose operation is an operation including a search operation. The touch target operation may include the touch operation itself or may not include the touch operation. Here, the touch operation is an operation for touching the operation screen 200. As shown in FIG. 3, the user presses (touches) an operation member (button or the like (for example, the document setting button 401 (FIG. 5))) virtually displayed on the operation screen 200 (touch operation). ), A desired instruction can be given to the MFP 10. The search operation is a non-contact operation that is performed prior to the touch operation. The search operation is an operation of moving the user's finger in the proximity region of the operation screen 200 without touching the operation screen 200 when searching for a desired operation member from the plurality of operation members (buttons or the like). is there. For example, the user can search for a desired button while performing a search operation in the proximity region of the operation screen 200 prior to the touch operation.

ジェスチャ操作は、タッチ目的操作以外の操作であり、図4に示すように、操作画面200に接触せずに行われる操作である。当該ジェスチャ操作は、MFP10に対する指示をジェスチャ(手の動き)によって付与する操作(非接触操作)である。たとえば、ユーザは、操作画面200の前面側空間(上方空間)において自身の手指を移動させる操作(ジェスチャ操作)により、所望の指示をMFP10に付与することができる。ジェスチャ操作について図5および図6を参照しながら具体的に説明する。図5および図6の操作画面200(210)には、水平方向(横方向)に仮想的に配列された複数のボタンのうち、一部のボタン(原稿設定ボタン401,ブック原稿ボタン402,...)が表示対象ボタンとして表示されている。ユーザが、自身の手指を、図5の操作画面210に接触させずに操作画面210の前面側空間の或る位置から左側に向けて移動させるジェスチャ操作を行うと、MFP10は、表示対象ボタンを変更し、ボタン群のスクロール動作を実行する。具体的には、表示制御部12は、当該手指の移動に応じて当該複数のボタンを元の位置(図5)から左側に移動させ、図6の操作画面210をタッチパネル25に表示する。なお、ジェスチャ操作は、(サーチ操作が行われる近接領域と比較して)操作画面200から比較的離れた位置にて行われる。   The gesture operation is an operation other than the touch purpose operation, and is an operation performed without touching the operation screen 200 as shown in FIG. The gesture operation is an operation (non-contact operation) for giving an instruction to the MFP 10 by a gesture (hand movement). For example, the user can give a desired instruction to the MFP 10 by an operation (gesture operation) of moving his / her finger in the front side space (upper space) of the operation screen 200. The gesture operation will be specifically described with reference to FIGS. 5 and 6. The operation screen 200 (210) of FIGS. 5 and 6 includes some buttons (original setting button 401, book original button 402,...) Among a plurality of buttons virtually arranged in the horizontal direction (lateral direction). ..) is displayed as the display target button. When the user performs a gesture operation to move his / her finger from a certain position in the front side space of the operation screen 210 toward the left side without touching the operation screen 210 in FIG. 5, the MFP 10 displays the button to be displayed. Change and execute the scroll operation of the buttons. Specifically, the display control unit 12 moves the plurality of buttons from the original position (FIG. 5) to the left side according to the movement of the finger, and displays the operation screen 210 of FIG. Note that the gesture operation is performed at a position relatively distant from the operation screen 200 (compared to the proximity region where the search operation is performed).

当該サーチ操作とジェスチャ操作とは、いずれも、操作画面200の前面側空間(上方空間)にて非接触で手指を動かす操作(非接触操作)であることから、操作画面200内の所望のボタンを探し出す際に行われたサーチ操作が、ジェスチャ操作としてMFP10により判定(誤判定)される恐れがある。   Both the search operation and the gesture operation are operations (non-contact operation) in which a finger is moved in a non-contact manner in the front side space (upper space) of the operation screen 200. Therefore, a desired button on the operation screen 200 is displayed. There is a possibility that the search operation performed when searching for the image is determined (erroneously determined) by the MFP 10 as a gesture operation.

このような事情から、タッチ目的操作(サーチ操作を含む操作)とジェスチャ操作とのいずれがユーザにより行われたかを区別するため、判定部14は、検出領域を2つの領域(領域R1および領域R2)に区分する(図7参照)。   For this reason, in order to distinguish whether the touch purpose operation (operation including the search operation) or the gesture operation is performed by the user, the determination unit 14 sets the detection area to two areas (area R1 and area R2). ) (See FIG. 7).

領域R1(エリアR1とも称する)は、図7に示すように、2つの領域R1,R2のうち操作画面200に近接する領域であり、「近接領域」とも称される。当該エリアR1にてユーザの手指が検出されると、原則として、判定部14は、「ユーザ操作はタッチ目的操作である」旨を判定する。   As shown in FIG. 7, the region R1 (also referred to as area R1) is a region that is close to the operation screen 200 out of the two regions R1 and R2, and is also referred to as “proximity region”. When the user's finger is detected in the area R1, in principle, the determination unit 14 determines that “the user operation is a touch purpose operation”.

また、領域R2(エリアR2とも称する)は、検出領域のうち、エリアR1以外の所定の領域である。また、エリアR2は、2つの領域R1,R2のうち、エリアR1よりも遠方に存在する領域であり、「離隔領域」とも称される。エリアR2にてユーザの手指が検出されると、原則として、判定部14は、「ユーザ操作はジェスチャ操作である」旨を判定する。   The region R2 (also referred to as area R2) is a predetermined region other than the area R1 in the detection region. The area R2 is a region that is located farther than the area R1 out of the two regions R1 and R2, and is also referred to as a “separated region”. When the user's finger is detected in the area R2, in principle, the determination unit 14 determines that “the user operation is a gesture operation”.

このように、検出領域を2つのエリアR1,R2に区分するとともに、ユーザの手指がエリアR1,R2のいずれに存在するかを判定することによって、ユーザ操作がタッチ目的操作であるかジェスチャ操作であるかを判定することが可能である。   As described above, the detection area is divided into two areas R1 and R2, and it is determined whether the user's finger exists in the areas R1 and R2, thereby determining whether the user operation is a touch-purpose operation or not. It is possible to determine whether there is.

ただし、単純に、ユーザの手指の最初の存在位置(検出領域内での最初の検出位置)のみに基づいてユーザ操作の種類を判定すると、次述するような誤判定が生じ得る。具体的には、ユーザがタッチ目的操作(サーチ操作を含む)を行うことを意図して、その手指を検出領域に対してエリアR2から進入させ、その後、エリアR2からエリアR1へと移動させる(図7の移動経路P21参照)ことがある。この場合、最初にエリアR2に進入したことのみに基づいてユーザ操作の種類を判定すると、(本来はタッチ目的操作である)当該ユーザ操作がジェスチャ操作である、と誤判定される恐れがある。   However, if the type of user operation is simply determined based only on the first presence position of the user's finger (first detection position in the detection area), the following erroneous determination may occur. Specifically, with the intention of the user performing a touch target operation (including a search operation), his / her fingers are moved from the area R2 to the detection area, and then moved from the area R2 to the area R1 ( (See movement path P21 in FIG. 7). In this case, if the type of the user operation is determined based only on the first entry into the area R2, the user operation (which is originally a touch purpose operation) may be erroneously determined as a gesture operation.

そこで、この実施形態においては、さらに、領域R1,R2相互間におけるユーザの手指の移動状況にも基づいて、ユーザ操作の種類を判定する態様を例示する。これによれば、ユーザによる非接触操作の種類がより的確に判定され得る。   Therefore, in this embodiment, a mode in which the type of the user operation is determined based on the movement state of the user's finger between the regions R1 and R2 is further illustrated. According to this, the kind of non-contact operation by the user can be determined more accurately.

<ユーザの手指の移動経路>
ユーザ操作の種類の判定について説明する前に、ユーザの手指の移動経路について説明する。
<Movement path of user's fingers>
Before describing the determination of the type of user operation, the movement path of the user's finger will be described.

図7は、ユーザの手指の移動例を示す図である。図7に示すように、ユーザの手指が検出領域内に進入する経路は、2つの経路(エリアR2から進入する経路P2(移動経路P21,P22)および、エリアR1から進入する経路P1(移動経路P11,P12))に大別される。   FIG. 7 is a diagram illustrating an example of movement of the user's finger. As shown in FIG. 7, there are two routes that the user's finger enters into the detection area (route P2 that enters from area R2 (movement routes P21 and P22) and route P1 that enters from area R1 (movement route). P11, P12)).

ユーザの手指が検出領域に対してエリアR2から進入する経路P2は、その後に、ユーザの手指がエリアR2内に引き続き存在する経路(移動経路P22)と、ユーザの手指がエリアR2からエリアR1へと移動する経路(移動経路P21)とに、さらに分類される。   A route P2 in which the user's finger enters the detection area from the area R2 is a route in which the user's finger continues to exist in the area R2 (movement route P22), and a user's finger from the area R2 to the area R1. And a moving route (moving route P21).

移動経路P22は、ユーザの手指が、検出領域に対してエリアR2から進入し、エリアR2内に引き続き存在する経路である。この移動経路P22には、ユーザの手指がエリアR2内に引き続き存在した後に検出領域外へと移動する経路が含まれる。   The movement path P22 is a path where the user's finger enters the detection area from the area R2 and continues to exist in the area R2. This movement route P22 includes a route in which the user's fingers continue to exist in the area R2 and then move out of the detection area.

移動経路P21は、ユーザの手指がエリアR2からエリアR1へと移動する経路である。たとえば、ユーザが、「タッチ目的操作」を行うために自身の手指を操作画面200に近づける際に、ユーザの手指が、検出領域に対してエリアR2から進入し、その後にエリアR2からエリアR1へと移動して、ユーザがサーチ操作を行うことがある。このような状況において、ユーザの手指が移動経路P21を辿る。   The movement path P21 is a path along which the user's finger moves from the area R2 to the area R1. For example, when the user brings his / her finger close to the operation screen 200 in order to perform the “touch target operation”, the user's finger enters the detection area from the area R2, and then moves from the area R2 to the area R1. The user may perform a search operation. In such a situation, the user's finger follows the movement path P21.

なお、当該移動経路P21のうち、エリアR1に進入後の手指の移動操作のみならずエリアR2における手指の移動操作も「タッチ目的操作」に含まれ得る。すなわち、「タッチ目的操作」には、エリアR1にてユーザが行った操作(サーチ操作)のみならず、エリアR1に進入する直前にユーザがエリアR2にて行った操作(先行操作(たとえば操作画面200への近接操作))も含まれ得る。   In the movement route P21, not only the movement operation of the finger after entering the area R1, but also the movement operation of the finger in the area R2 can be included in the “touch purpose operation”. That is, the “touch target operation” includes not only an operation performed by the user in the area R1 (search operation) but also an operation performed by the user in the area R2 immediately before entering the area R1 (preceding operation (for example, an operation screen)). A proximity operation to 200))) may also be included.

また、ユーザの手指が検出領域に対してエリアR1から検出領域に進入する経路P1は、その後に、ユーザの手指がエリアR1内に引き続き存在する経路(移動経路P11)と、ユーザの手指がエリアR1からエリアR2へと移動する経路(移動経路P12)とに、さらに分類される。   In addition, the route P1 in which the user's finger enters the detection region from the area R1 with respect to the detection region is a route (movement route P11) in which the user's finger continues to exist in the area R1, and the user's finger is the area. The route is further classified into a route (movement route P12) moving from R1 to area R2.

移動経路P11は、ユーザの手指が、検出領域に対してエリアR1から進入し、エリアR1内に引き続き存在する経路である。この移動経路P11には、ユーザの手指がエリアR1内に引き続き存在した後に検出領域外へと移動する経路が含まれる。   The movement path P11 is a path where the user's finger enters the detection area from the area R1 and continues to exist in the area R1. The movement route P11 includes a route in which the user's finger continues to exist in the area R1 and then moves out of the detection area.

移動経路P12は、ユーザの手指がエリアR1からエリアR2へと移動する経路である。たとえば、ユーザが、サーチ操作をエリアR1にて行ったものの所望のボタンを見つけることができず、操作画面200内のボタン群を移動(スライド移動)させるためにエリアR2にてジェスチャ操作を行うことがある。このような状況において、ユーザの手指が移動経路P12を辿る。   The movement path P12 is a path along which the user's finger moves from the area R1 to the area R2. For example, the user has performed a search operation in the area R1, but cannot find a desired button, and performs a gesture operation in the area R2 to move (slide) the buttons in the operation screen 200. There is. In such a situation, the user's finger follows the movement path P12.

このように、ユーザの手指の移動経路は、大きく4つの移動経路P22,P21,P12,P11に分類される(図7参照)。   As described above, the movement paths of the user's fingers are roughly classified into four movement paths P22, P21, P12, and P11 (see FIG. 7).

<ユーザ操作の種類の決定>
つぎに、ユーザ操作(非接触操作)の種類を判定する処理(操作種類判定処理)について、図9および図10等を参照しながら説明する。図9および図10は、MFP10において実行される操作種類判定処理を示すフローチャートである。この操作種類判定処理においては、ユーザの手指の移動経路が上述の4つの移動経路P22,P21,P12,P11のいずれに該当するか等に基づき、ユーザ操作(非接触操作)の種類(「タッチ目的操作」および「ジェスチャ操作」のいずれであるか)が判定される。
<Determination of user operation type>
Next, processing (operation type determination processing) for determining the type of user operation (non-contact operation) will be described with reference to FIGS. 9 and 10 are flowcharts showing the operation type determination process executed in the MFP 10. In this operation type determination process, the type of user operation (non-contact operation) (“touch”) is based on which of the above-described four movement paths P22, P21, P12, and P11 the user's finger movement path corresponds to. It is determined whether it is “target operation” or “gesture operation”.

なお、ジェスチャ操作(非接触操作)の具体的内容を認識する処理(操作内容認識処理とも称する)、および当該操作内容認識処理の処理結果に基づき操作画面を変更する処理(操作画面変更処理とも称する)は、図9および図10には示されていない。操作内容認識処理および操作画面変更処理(いずれも不図示)は、操作種類判定処理(図9および図10)とは別に且つ当該操作種類判定処理と並行して実行される。   A process for recognizing the specific content of the gesture operation (non-contact operation) (also referred to as an operation content recognition process) and a process for changing the operation screen based on the processing result of the operation content recognition process (also referred to as an operation screen change process). ) Is not shown in FIGS. The operation content recognition process and the operation screen change process (both not shown) are executed separately from the operation type determination process (FIGS. 9 and 10) and in parallel with the operation type determination process.

操作内容認識処理においては、たとえば、操作画面200内のボタンを移動(スクロール)させるために手指を左側から右側へとスライド移動させる操作(「右向きスクロール用スライド操作」とも称される)が行われたこと、あるいは、逆向きの操作(「左向きスクロール用スライド操作」とも称される)が行われたことなどが認識される。操作内容認識処理(ジェスチャ操作の具体的内容の認識処理)には一定程度の時間(たとえば1秒)を要する。   In the operation content recognition process, for example, in order to move (scroll) the button in the operation screen 200, an operation of sliding the finger from the left side to the right side (also referred to as “slide operation for rightward scrolling”) is performed. Or a reverse operation (also referred to as a “left-side scroll slide operation”) is recognized. The operation content recognition processing (recognition processing of the specific content of the gesture operation) requires a certain amount of time (for example, 1 second).

また、操作画面変更処理においては、操作内容認識処理にて認識された操作内容に基づいて、対応する動作が実行される。たとえば、「右向きスクロール用スライド操作」が行われた旨が操作内容認識処理にて認識されると、操作画面変更処理において操作画面200内のボタンが右向きにスクロールされる。   In the operation screen change process, a corresponding operation is executed based on the operation content recognized in the operation content recognition process. For example, when the operation content recognition process recognizes that the “slide operation for rightward scrolling” has been performed, the buttons in the operation screen 200 are scrolled to the right in the operation screen change process.

ただし、後述するように、操作内容認識処理で認識された処理内容(認識結果)は、操作種類判定処理にてユーザ操作が「ジェスチャ操作」ではないと判定されるときには、無効化される。換言すれば、操作内容認識処理における認識結果は、操作種類判定処理にてユーザ操作が「ジェスチャ操作」であると判定されることを条件として、有効であると判定される。そして、有効な認識結果に基づき、操作画面変更処理が実行される。なお、ここでは、当該操作内容認識処理の完了後にその認識結果の有効性を判断するための待ち時間(たとえば1秒)を設けるものとするが、これに限定されず、当該待ち時間を設けないようにしてもよい。   However, as will be described later, the processing content (recognition result) recognized in the operation content recognition processing is invalidated when it is determined in the operation type determination processing that the user operation is not a “gesture operation”. In other words, the recognition result in the operation content recognition process is determined to be valid on condition that the user operation is determined to be a “gesture operation” in the operation type determination process. Then, based on the valid recognition result, the operation screen change process is executed. Here, a waiting time (for example, 1 second) for determining the validity of the recognition result after completion of the operation content recognition process is provided, but the present invention is not limited thereto, and the waiting time is not provided. You may do it.

以下では、まず、ユーザの手指が検出領域に対してエリアR2から進入する場合(移動経路P22,P21)に行われる操作種類判定処理について、図9および図10のフローチャートを参照しながら説明する。   In the following, the operation type determination process that is performed when the user's finger enters the detection area from the area R2 (movement paths P22, P21) will be described with reference to the flowcharts of FIGS.

図9のステップS11〜S17においては、ユーザの手指の存在位置に関する第1の判定処理(最初の判定)が行われるとともに、ユーザ操作の種類が暫定的に判定される。   In steps S11 to S17 in FIG. 9, first determination processing (first determination) regarding the presence position of the user's finger is performed, and the type of user operation is tentatively determined.

ステップS11において、判定部14は、検出領域内にてユーザの手指が検出されたか否かを判定する。検出領域内においてユーザの手指が検出部13により検出された旨が判定されると、判定部14は更にユーザの手指の検出位置(三次元位置)を取得し、処理はステップS12へと進む。   In step S <b> 11, the determination unit 14 determines whether or not the user's finger is detected in the detection area. When it is determined that the user's finger has been detected by the detection unit 13 within the detection area, the determination unit 14 further acquires the detection position (three-dimensional position) of the user's finger, and the process proceeds to step S12.

ステップS12において、判定部14は、ユーザの手指の検出位置がエリアR1内であるかエリアR2内であるか、を判定する。ここでは、ユーザの手指がエリアR2において検出された旨が判定されるものとする。   In step S12, the determination unit 14 determines whether the detection position of the user's finger is within the area R1 or the area R2. Here, it is determined that the user's finger has been detected in the area R2.

ステップS13において、判定部14は、タイマー301(図2)の計時動作が実行(計時)中であるか否かを判定する。タイマー301の計時動作が実行中ではない場合には、処理はステップS14へと進み、タイマー301の計時動作が開始される。また、タイマー301の計時動作が実行中である場合には、(ステップS14の処理は行われずに、)処理はステップS15へと進む。   In step S <b> 13, the determination unit 14 determines whether or not the timer 301 (FIG. 2) is executing (timekeeping). If the timer 301 does not perform the timing operation, the process proceeds to step S14, and the timer 301 starts the timing operation. If the timekeeping operation of the timer 301 is being executed, the process proceeds to step S15 (without performing the process of step S14).

ステップS15において、判定部14は、タイマー301の計時動作が開始されてから所定期間T12(たとえば0.5秒)が経過したか否か、を判定する。換言すれば、エリアR2において物体(ここではユーザの手指)が所定期間T12に亘って検出されたか否か、が判定される。なお、当該期間T12は、第1の判定処理においてユーザの手指がエリアR2に存在する旨を判定するための閾値である。   In step S <b> 15, the determination unit 14 determines whether or not a predetermined period T <b> 12 (e.g., 0.5 seconds) has elapsed since the time measurement operation of the timer 301 was started. In other words, it is determined whether or not an object (here, the user's finger) has been detected over the predetermined period T12 in the area R2. The period T12 is a threshold value for determining that the user's finger exists in the area R2 in the first determination process.

タイマー301の経過時間(計時時間)が所定期間T12に達していない場合には、処理はステップS11へと戻り、検出領域内にてユーザの手指が検出されたか否かが再び判定される。   If the elapsed time (timed time) of the timer 301 has not reached the predetermined period T12, the process returns to step S11, and it is determined again whether or not the user's finger has been detected in the detection area.

このように、ステップS11〜S13,S15の各処理が繰り返し行われる(ただし、ステップS12における検出領域は変わらない(ここでは、エリアR2のままである)ものとする。)。   Thus, each process of step S11-S13, S15 is performed repeatedly (however, suppose that the detection area | region in step S12 does not change (here it is the area R2)).

そして、このような繰り返し処理においてタイマー301の経過時間が所定期間T12に達すると、判定部14はタイマー301の計時動作を停止し(ステップS16)、処理はステップS17に進む。   When the elapsed time of the timer 301 reaches the predetermined period T12 in such repetitive processing, the determination unit 14 stops the time counting operation of the timer 301 (step S16), and the process proceeds to step S17.

なお、タイマー301の経過時間が所定期間T12に達する前にユーザの手指がエリアR2から検出領域外に移動する(ステップS15にて「NO」と判定された後にステップS11にて「NO」と判定される)と、ユーザ操作はタッチ目的操作とジェスチャ操作とのいずれでもない旨が判定され、当該操作種類判定処理は終了する。すなわち、エリアR2(あるいはエリアR1)での検出期間が極めて短時間である場合には、意図的な操作は行われていないものと判断される。   Before the elapsed time of the timer 301 reaches the predetermined period T12, the user's finger moves from the area R2 to the outside of the detection region (“NO” is determined in step S15 and then “NO” is determined in step S11). ), It is determined that the user operation is neither a touch purpose operation nor a gesture operation, and the operation type determination process ends. That is, when the detection period in area R2 (or area R1) is extremely short, it is determined that no intentional operation has been performed.

ステップS17においては、判定部14は、ユーザの手指の存在位置を判定する。これにより、第1の判定処理の処理結果(判定結果)が得られる。具体的には、所定期間T12(たとえば0.5秒)に亘って物体がエリアR2において検出される場合には、判定部14は、ユーザの手指がエリアR2に存在する旨を第1の判定処理結果として判定する。   In step S17, the determination unit 14 determines the presence position of the user's finger. Thereby, the process result (determination result) of the first determination process is obtained. Specifically, when an object is detected in the area R2 over a predetermined period T12 (for example, 0.5 seconds), the determination unit 14 performs the first determination that the user's finger exists in the area R2. It is determined as a processing result.

ステップS17においては更に、判定部14は、ユーザの手指の存在位置に関する第1の判定処理の処理結果に基づき、検出領域におけるユーザ操作が複数の種類の操作(ここではジェスチャ操作およびタッチ目的操作)のいずれであるかを暫定的に決定(判定)する。ここでは、ユーザの手指の存在位置がエリアR2であると判定されたこと(第1の判定処理結果)に基づき、ユーザ操作が「ジェスチャ操作」である旨が暫定的に判定される。   In step S <b> 17, the determination unit 14 further includes a plurality of types of user operations in the detection area (here, gesture operation and touch purpose operation) based on the processing result of the first determination process related to the position of the user's finger. Is tentatively determined (determined). Here, it is tentatively determined that the user operation is a “gesture operation” based on the determination that the presence position of the user's finger is the area R2 (first determination processing result).

図10のステップS18〜S26においては、ユーザの手指の存在位置に関する第2の判定処理が行われるとともに、ユーザ操作の種類が決定される。   In steps S18 to S26 in FIG. 10, a second determination process related to the position of the user's finger is performed, and the type of user operation is determined.

詳細には、第2の判定処理においてもユーザの手指が第1の判定処理結果に係る領域(たとえばエリアR2)に引き続き存在するか否かに応じて、ユーザ操作の種類が決定される(図8参照)。なお、図8は、移動経路毎の操作種類の判定結果を示す図である。   Specifically, also in the second determination process, the type of user operation is determined depending on whether or not the user's finger continues to exist in the area related to the first determination process result (for example, area R2) (FIG. 8). FIG. 8 is a diagram illustrating the determination result of the operation type for each movement route.

具体的には、まず、ユーザの手指の現在の(新たな)検出位置に基づく処理が実行される(図10のステップS18,S19参照)。   Specifically, first, processing based on the current (new) detection position of the user's finger is executed (see steps S18 and S19 in FIG. 10).

(1)ユーザの手指の検出位置が第1の判定処理結果に係る位置と同じである場合には、ステップS18の処理が繰り返し実行される。また、検出領域内にユーザの手指が検出されなくなった場合には、ステップS19を経由してステップS26に進む。これらの場合には、ユーザの手指の存在位置に関して、第1の判定処理結果に係る領域(たとえば「エリアR2」)と同じ領域が第2の判定処理結果として判定される。第1の判定処理結果に係る領域がエリアR2であり且つ第2の判定処理結果に係る領域もエリアR2である場合には、移動経路P22(図7参照)によるユーザの手指の移動が行われた旨が判定される。さらに、ユーザ操作の種類に関して、当該第1の判定処理結果に基づく操作種類判定結果(たとえば「ジェスチャ操作」)と同じ内容が最終的な判定結果として決定される(図8の経路P22の欄参照)。   (1) If the detected position of the user's finger is the same as the position related to the first determination process result, the process of step S18 is repeatedly executed. If the user's finger is not detected in the detection area, the process proceeds to step S26 via step S19. In these cases, the same region as the region related to the first determination processing result (for example, “area R2”) is determined as the second determination processing result regarding the presence position of the user's finger. When the area related to the first determination processing result is the area R2 and the area related to the second determination processing result is also the area R2, the user's finger is moved along the movement route P22 (see FIG. 7). It is determined. Further, regarding the type of user operation, the same content as the operation type determination result (for example, “gesture operation”) based on the first determination processing result is determined as the final determination result (see the path P22 column in FIG. 8). ).

一方、(2)ユーザの手指が検出領域内にて検出され且つ当該ユーザの手指の検出位置が第1の判定処理結果に係る位置とは異なる場合には、ステップS20に進む。ステップS20〜S24の処理にて、期間T2に亘って新たな領域位置に存在することが確認されると、ユーザの手指が第1の判定処理結果に係る領域(たとえば「エリアR2」)から別のエリア(たとえば「エリアR1」)に移動した旨が判定される(ステップS25)。第1の判定処理結果に係る領域がエリアR2であり且つ第2の判定処理結果に係る領域がエリアR1である場合には、移動経路P21(図7参照)によるユーザの手指の移動が行われた旨が判定される。さらに、ユーザ操作が第1の判定処理結果に基づく判定結果(たとえば「ジェスチャ操作」)とは異なる種類の操作(「タッチ目的操作」)であると判定される(図8の経路P21の欄参照)。   On the other hand, (2) when the user's finger is detected in the detection region and the detected position of the user's finger is different from the position related to the first determination processing result, the process proceeds to step S20. When it is confirmed in steps S20 to S24 that the user's finger is present at a new region position over the period T2, the user's finger is separated from the region related to the first determination processing result (for example, “area R2”). It is determined that the user has moved to the area (for example, “area R1”) (step S25). When the area related to the first determination processing result is the area R2 and the area related to the second determination processing result is the area R1, the user's finger is moved along the movement route P21 (see FIG. 7). It is determined. Furthermore, it is determined that the user operation is a different type of operation (“touch target operation”) from the determination result based on the first determination processing result (for example, “gesture operation”) (see the column of path P21 in FIG. 8). ).

まず、(1)移動経路P22(図7参照)に対応する操作種類判定処理について更に詳細に説明する。   First, (1) the operation type determination process corresponding to the movement route P22 (see FIG. 7) will be described in more detail.

ステップS18において、判定部14は、ユーザの手指の三次元位置を再び取得し、第1の判定処理結果に係る領域(ユーザの手指が存在すると判定された領域(ここではエリアR2))と同じ領域にてユーザの手指が検出部13により検出されたか否か、を判定する。   In step S18, the determination unit 14 acquires the three-dimensional position of the user's finger again, and is the same as the region related to the first determination processing result (the region determined to have the user's finger (here, the area R2)). It is determined whether or not the user's finger is detected by the detection unit 13 in the area.

ステップS18において、ユーザの手指が引き続きエリアR2にて検出された旨が判定されると、判定部14は、第1の判定処理結果(ユーザの手指の存在位置がエリアR2である旨)をそのまま第2の判定処理結果として維持する。また、判定部14は、ユーザ操作の種類に関する暫定的な判定結果(具体的には、ユーザ操作がジェスチャ操作である旨)をもそのまま維持する。その後、ステップS18の処理が再び実行される。その結果、ユーザの手指が引き続きエリアR2にて検出される期間においては、ユーザ操作がジェスチャ操作である旨が、継続して判定される。なお、上述のように、ユーザ操作の具体的内容は、別個に並列的に動作している操作内容認識処理の処理ルーチン(不図示)によって、同時並列的に認識され得る。   If it is determined in step S18 that the user's finger has been continuously detected in the area R2, the determination unit 14 uses the first determination processing result (that the user's finger is located in the area R2) as it is. This is maintained as the second determination processing result. The determination unit 14 also maintains a provisional determination result regarding the type of user operation (specifically, the fact that the user operation is a gesture operation). Thereafter, the process of step S18 is executed again. As a result, it is continuously determined that the user operation is a gesture operation in a period in which the user's finger is continuously detected in the area R2. As described above, the specific content of the user operation can be recognized simultaneously and in parallel by a processing routine (not shown) of the operation content recognition process operating separately and in parallel.

一方、ユーザの手指がエリアR2外に移動し、エリアR2にてユーザの手指が検出されない場合には、処理はステップS18からステップS19へと進む。   On the other hand, when the user's finger moves out of the area R2 and the user's finger is not detected in the area R2, the process proceeds from step S18 to step S19.

ステップS19においては、第1の判定処理結果に係る領域(ここではエリアR2)の外に移動した手指が、検出領域内にて検出されているか否か、が判定される。検出領域内にてユーザの手指が検出されていない旨が判定される場合には、処理はステップS26へと進む。なお、検出領域内にてユーザの手指が検出部13により検出されている旨が判定されると、処理はステップS20へと進む(後述)。   In step S <b> 19, it is determined whether or not the finger that has moved out of the region related to the first determination processing result (here, area R <b> 2) has been detected in the detection region. If it is determined that the user's finger is not detected in the detection area, the process proceeds to step S26. When it is determined that the user's finger is detected by the detection unit 13 within the detection area, the process proceeds to step S20 (described later).

ステップS26においては、判定部14は、第1の判定処理結果を第2の判定処理結果として決定する。具体的には、ステップS18の処理が繰り返された後にユーザの手指が検出領域外へと移動した場合には、判定部14は、ユーザの手指の存在位置がエリアR2である旨の暫定結果を第2の判定処理結果として確定する。また、ステップS26においては、判定部14は、当該第2の判定処理結果に基づいて、ユーザ操作がジェスチャ操作である旨をユーザ操作の種類の判定結果として確定する。   In step S26, the determination unit 14 determines the first determination processing result as the second determination processing result. Specifically, when the user's finger moves out of the detection area after the process of step S18 is repeated, the determination unit 14 displays a provisional result indicating that the position of the user's finger is the area R2. Confirmed as the second determination processing result. Also, in step S26, the determination unit 14 determines that the user operation is a gesture operation as a determination result of the type of user operation based on the second determination processing result.

なお、ステップS18の処理が繰り返されずにユーザの手指が検出領域外へと移動した場合にも、第1の判定処理結果が第2の判定処理結果としてみなされ(そのまま引き継がれ)、ユーザの手指の存在位置がエリアR2である旨と、ユーザ操作がジェスチャ操作である旨とが決定される。   Even when the user's finger moves out of the detection area without repeating the process of step S18, the first determination processing result is regarded as the second determination processing result (taken over as it is), and the user's finger is moved. It is determined that the location of the user is area R2 and that the user operation is a gesture operation.

このように、ユーザの手指が、検出領域に対してエリアR2から進入した後に、エリアR2内に引き続き存在する(その後に検出領域外に出る)場合には、ユーザ操作はジェスチャ操作である旨が判定される(図8の経路P22の欄参照)。   As described above, when the user's finger continues to exist in the area R2 after entering the detection area from the area R2 (and then goes out of the detection area), the user operation is a gesture operation. It is determined (refer to the column of path P22 in FIG. 8).

つぎに、(2)移動経路P21(図7参照)に対応する操作種類判定処理について更に詳細に説明する。   Next, (2) the operation type determination process corresponding to the movement route P21 (see FIG. 7) will be described in more detail.

移動経路P21の移動が行われ、ユーザの手指がエリアR2からエリアR1へと移動すると、ユーザの手指に関する現在の検出位置に基づいて、ステップS18で「NO」且つステップS19で「YES」と判定され、ユーザの手指がエリアR1にて検出された旨が判定される(ステップS20)。すなわち、ユーザの手指がエリアR2からエリアR1に移動した旨が判定される。   When the movement path P21 is moved and the user's finger moves from the area R2 to the area R1, “NO” is determined in step S18 and “YES” is determined in step S19 based on the current detection position regarding the user's finger. Then, it is determined that the user's finger has been detected in the area R1 (step S20). That is, it is determined that the user's finger has moved from area R2 to area R1.

次のステップS21において、判定部14は、タイマー301の計時動作が実行(計時)中であるか否かを判定する。タイマー301の計時動作が実行中ではない場合には、処理はステップS22へと進み、判定部14はタイマー301の計時動作を開始する。また、タイマー301の計時動作が実行中である場合には、(ステップS22の処理は行われずに、)処理はステップS23へと進む。   In the next step S <b> 21, the determination unit 14 determines whether or not the timer 301 is executing (timekeeping). If the timer 301 does not perform the timekeeping operation, the process proceeds to step S22, and the determination unit 14 starts the timer 301 timekeeping operation. If the time measurement operation of the timer 301 is being executed, the process proceeds to step S23 (without performing the process of step S22).

ステップS23において、判定部14は、タイマー301の計時動作が開始されてから所定期間T21(たとえば0.5秒)が経過したか否か、を判定する。換言すれば、エリアR1において物体(ここではユーザの手指)が所定期間T21に亘って検出されたか否か、が判定される。なお、当該期間T21は、第2の判定処理においてユーザの手指がエリアR1に存在する旨を判定するための閾値である。ここでは、所定期間T21は所定期間T12と同じ長さ(たとえば0.5秒)を有するものとする。   In step S <b> 23, the determination unit 14 determines whether or not a predetermined period T <b> 21 (e.g., 0.5 seconds) has elapsed since the time measurement operation of the timer 301 was started. In other words, it is determined whether or not an object (here, the user's finger) has been detected in the area R1 over the predetermined period T21. The period T21 is a threshold for determining that the user's finger is present in the area R1 in the second determination process. Here, it is assumed that the predetermined period T21 has the same length (for example, 0.5 seconds) as the predetermined period T12.

そして、タイマー301の経過時間(計時時間)が所定期間T21に達すると、判定部14はタイマー301の計時動作を停止し(ステップS24)、処理はステップS25へと進む。   When the elapsed time (timed time) of the timer 301 reaches the predetermined period T21, the determination unit 14 stops the timed operation of the timer 301 (step S24), and the process proceeds to step S25.

なお、タイマー301の経過時間が所定期間T21に達する前に、ユーザの手指が再びエリアR2にて検出された旨が判定されると、タイマー301がリセットされてステップS18の処理が再び実行される。この場合、第2の判定処理結果は、第1の判定処理結果と同じ結果であると暫定的に判定され、ユーザ操作の種類が「ジェスチャ操作」である旨の判定結果も維持される。   If it is determined that the user's finger has been detected again in the area R2 before the elapsed time of the timer 301 reaches the predetermined period T21, the timer 301 is reset and the process of step S18 is executed again. . In this case, the second determination process result is tentatively determined to be the same result as the first determination process result, and the determination result indicating that the type of user operation is “gesture operation” is also maintained.

ステップS25においては、第2の判定処理結果が最終的に決定される。具体的には、第1の判定処理結果とは異なる内容が、第2の判定処理結果として決定される。たとえば、第1の判定処理においてユーザの手指がエリアR2に存在する旨が判定されていた場合において、ステップS20〜S23にてユーザの手指がエリアR1にて所定期間T21に亘って検出されるときには、ユーザの手指の存在位置がエリアR1である旨が第2の判定処理結果として最終的に決定される。換言すれば、ユーザの手指の存在位置がエリアR2からエリアR1に変更された旨が第2の判定処理結果として判定される。   In step S25, the second determination processing result is finally determined. Specifically, content different from the first determination processing result is determined as the second determination processing result. For example, when it is determined in the first determination process that the user's finger is present in the area R2, when the user's finger is detected in the area R1 over a predetermined period T21 in steps S20 to S23. The fact that the position of the user's finger is in the area R1 is finally determined as the second determination processing result. In other words, it is determined as the second determination processing result that the position of the user's finger is changed from the area R2 to the area R1.

ステップS25においては、さらに、当該第2の判定処理結果にも基づき、ユーザ操作の操作種類が判定される。具体的には、ユーザの手指がエリアR2に存在する旨が第1の判定処理にて判定され且つユーザの手指がエリアR1に存在する旨が第2の判定処理にて判定される場合には、判定部14は、ユーザ操作がジェスチャ操作ではない旨(詳細には、タッチ目的操作がユーザにより行われた旨)を最終的に判定する(図8の経路P21の欄参照)。換言すれば、操作種類判定処理の処理結果(最終的な処理結果)として、ユーザ操作がジェスチャ操作ではない旨が判定される。   In step S25, the operation type of the user operation is further determined based on the second determination processing result. Specifically, when it is determined in the first determination process that the user's finger is present in the area R2 and in the second determination process that the user's finger is present in the area R1. The determination unit 14 finally determines that the user operation is not a gesture operation (specifically, the touch target operation is performed by the user) (see the column of the path P21 in FIG. 8). In other words, it is determined that the user operation is not a gesture operation as a processing result (final processing result) of the operation type determination process.

ステップS25にてユーザ操作がジェスチャ操作ではない旨が最終的に判定されると、当該ユーザ操作に対応する操作画面変更処理は行われない。すなわち、操作種類判定処理にてユーザ操作が「ジェスチャ操作」ではないと判定されるときには、操作内容認識処理の認識結果は無効化され、操作画面変更処理は行われない。   If it is finally determined in step S25 that the user operation is not a gesture operation, the operation screen change process corresponding to the user operation is not performed. That is, when it is determined that the user operation is not a “gesture operation” in the operation type determination process, the recognition result of the operation content recognition process is invalidated, and the operation screen change process is not performed.

ここで、操作種類に関する判定対象のユーザ操作は、複数のユーザ操作C1〜C3(次述)(図11参照)のうち、第2の判定処理においてユーザの手指がエリアR1に存在する旨が判定された時点T0よりも前からユーザにより開始されていた操作(一連の操作(先行操作およびサーチ操作))C2,C3(次述)である。   Here, the user operation to be determined regarding the operation type is determined that the user's finger is present in the area R1 in the second determination process among the plurality of user operations C1 to C3 (see below) (see FIG. 11). The operations (series of operations (preceding operation and search operation)) C2 and C3 (described below) started by the user before the time T0 is performed.

図11は、ユーザ操作C1〜C3を示す図である。ユーザ操作は、第2の判定処理においてユーザの手指がエリアR1に存在する旨が判定された時点T0における、その操作内容認識処理等の進捗状況に基づいて、3つのユーザ操作C1〜C3に分類される。   FIG. 11 is a diagram illustrating user operations C1 to C3. The user operation is classified into three user operations C1 to C3 based on the progress status of the operation content recognition process or the like at the time T0 when it is determined in the second determination process that the user's finger is present in the area R1. Is done.

ユーザ操作C1は、時点T0において、その操作内容認識処理と当該操作内容認識処理の処理結果に対応する操作画面変更処理との双方が既に完了している操作(すなわち「画面変更済」の操作)である。   The user operation C1 is an operation in which both the operation content recognition processing and the operation screen change processing corresponding to the processing result of the operation content recognition processing have already been completed at the time T0 (that is, “screen changed” operation). It is.

ユーザ操作C2は、時点T0において、その操作内容認識処理は完了したものの、当該操作内容認識処理の処理結果に対応する操作画面変更処理が未だ開始されていない操作(すなわち「待機中」の操作)である。   The user operation C2 has completed the operation content recognition process at time T0, but has not yet started the operation screen change process corresponding to the process result of the operation content recognition process (ie, “standby” operation). It is.

ユーザ操作C3は、時点T0においてその操作内容認識処理の途中であり且つ第2の判定処理にてタッチ目的操作である旨が確定された操作(すなわち「認識中」の操作)である。ユーザ操作C3は、対応する操作画面変更処理が未だ開始されていない操作でもある。   The user operation C3 is an operation that is in the middle of the operation content recognition process at the time T0 and is determined to be the touch target operation in the second determination process (that is, an operation of “recognizing”). The user operation C3 is also an operation for which the corresponding operation screen change process has not yet been started.

複数のユーザ操作C1〜C3のうち、特に、それに対応する操作画面変更処理が未だ開始されていないユーザ操作C2,C3がジェスチャ操作ではない旨が判定され、その操作内容認識処理の認識結果(右向きスクロール用スライド操作等)は無効化され、操作画面変更処理は行われない。すなわち、ユーザ操作C2,C3は操作画面200を変更しない。   Among the plurality of user operations C1 to C3, in particular, it is determined that the user operations C2 and C3 for which the corresponding operation screen change processing has not yet been started are gesture operations, and the recognition result of the operation content recognition processing (rightward direction) Scroll operation for scrolling etc.) is invalidated, and the operation screen changing process is not performed. That is, the user operations C2 and C3 do not change the operation screen 200.

なお、この実施形態では、ユーザ操作C1に対応する操作画面変更処理が既に完了しているため、ユーザ操作C1は、操作種類に関する判定対象のユーザ操作とはしない。しかしながら、これに限定されず、ユーザ操作C1をも操作種類に関する判定対象として扱い、当該ユーザ操作C1をも無効化するようにしてもよい。詳細には、既に行われた操作画面変更処理の実行前の状態に、操作画面200を戻すようにしてもよい。   In this embodiment, since the operation screen change process corresponding to the user operation C1 has already been completed, the user operation C1 is not a determination target user operation related to the operation type. However, the present invention is not limited to this, and the user operation C1 may be treated as a determination target related to the operation type, and the user operation C1 may be invalidated. Specifically, the operation screen 200 may be returned to the state before the operation screen change process that has already been performed.

ステップS25(あるいはステップS26)の処理が終了すると、操作種類判定処理(図9および図10)の処理ルーチンが終了する。そして、微小期間が経過した後、当該処理ルーチン(ステップS11〜)が再び実行される。   When the process of step S25 (or step S26) ends, the processing routine of the operation type determination process (FIGS. 9 and 10) ends. Then, after the minute period has elapsed, the processing routine (steps S11 to S11) is executed again.

以上のような動作においては、第1の判定処理においてユーザの手指がエリアR2に存在する旨が判定される場合には、ユーザ操作がジェスチャ操作である旨が原則として判定される。ただし、第1の判定処理においてユーザの手指がエリアR2に存在する旨が判定される場合であっても、第2の判定処理においてユーザの手指がエリアR1に存在する旨が判定されるときには、ユーザ操作はジェスチャ操作ではない旨が判定される(ステップS25)。そのため、ジェスチャ操作以外の非接触操作(タッチ目的操作)がジェスチャ操作として判定されることを回避することが可能である。したがって、ユーザによる非接触操作をより的確に判定することが可能である。   In the operation as described above, when it is determined in the first determination process that the user's finger exists in the area R2, it is determined in principle that the user operation is a gesture operation. However, even when it is determined in the first determination process that the user's finger exists in the area R2, when it is determined in the second determination process that the user's finger exists in the area R1, It is determined that the user operation is not a gesture operation (step S25). Therefore, it is possible to avoid a non-contact operation (touch target operation) other than the gesture operation being determined as the gesture operation. Therefore, it is possible to more accurately determine the non-contact operation by the user.

つぎに、ユーザの手指が検出領域に対してエリアR1から進入する場合(移動経路P11,P12)に行われる操作種類判定処理について、図9および図10のフローチャートを参照しながら説明する。   Next, the operation type determination process performed when the user's finger enters the detection area from the area R1 (movement paths P11 and P12) will be described with reference to the flowcharts of FIGS.

具体的には、ユーザの手指がエリアR1内にて検出された旨が判定され(ステップS11,S12)、エリアR1において所定期間T11(たとえば0.5秒)に亘って物体(ユーザの手指)が検出された旨が判定される(ステップS13〜S16)と、ユーザの手指がエリアR1に存在する旨が第1の判定処理結果として判定される(ステップS17)。そして、ユーザ操作がタッチ目的操作である旨が決定される(ステップS17)。なお、当該期間T11は、第1の判定処理においてユーザの手指がエリアR1に存在する旨を判定するための閾値である。   Specifically, it is determined that the user's finger has been detected in the area R1 (steps S11 and S12), and an object (user's finger) in the area R1 for a predetermined period T11 (for example, 0.5 seconds). Is detected (steps S13 to S16), it is determined as a first determination processing result that the user's finger is present in the area R1 (step S17). Then, it is determined that the user operation is a touch purpose operation (step S17). The period T11 is a threshold value for determining that the user's finger exists in the area R1 in the first determination process.

その後、ユーザの手指が、エリアR1内に引き続き存在し(ステップS18)(図7の移動経路P11)、検出領域外へと移動する(ステップS19)と、ユーザの手指がエリアR1に存在する旨が第2の判定処理結果として判定される(ステップS26)。すなわち、移動経路P11のユーザ操作が行われた旨が判定される。さらに、当該ユーザ操作がタッチ目的操作である旨が決定される(図8の経路P11の欄参照)。   Thereafter, when the user's finger continues to exist in area R1 (step S18) (movement path P11 in FIG. 7) and moves out of the detection area (step S19), the user's finger exists in area R1. Is determined as the second determination processing result (step S26). That is, it is determined that the user operation on the movement route P11 has been performed. Further, it is determined that the user operation is a touch purpose operation (see the path P11 column in FIG. 8).

また、エリアR1からエリアR2へとユーザの手指が移動する(図7の移動経路P12)(ステップS18〜S20)と、エリアR2において所定期間T22(たとえば0.5秒)に亘って物体(ユーザの手指)が検出されたか否か、が判定される(ステップS21〜S24)。なお、当該期間T22は、第2の判定処理においてユーザの手指がエリアR2に存在する旨を判定するための閾値である。   Further, when the user's finger moves from area R1 to area R2 (movement path P12 in FIG. 7) (steps S18 to S20), an object (user) over a predetermined period T22 (for example, 0.5 seconds) in area R2. It is determined whether or not a finger is detected (steps S21 to S24). The period T22 is a threshold for determining that the user's finger is present in the area R2 in the second determination process.

所定期間T22に亘って物体がエリアR2にて検出された旨が判定されると、第1の判定処理結果とは異なる内容(ユーザの手指がエリアR2に存在する旨)が、第2の判定処理結果として決定される(ステップS25)。すなわち、移動経路P12のユーザ操作が行われた旨が判定される。そして、ユーザ操作がジェスチャ操作である旨が判定される(図8の経路P12の欄参照)。換言すれば、第1の判定処理においてユーザの手指がエリアR1に存在する旨が判定され且つ第2の判定処理においてユーザの手指がエリアR2に存在する旨が判定される場合には、ユーザ操作はジェスチャ操作である旨が判定される。   When it is determined that the object has been detected in the area R2 over the predetermined period T22, the content different from the first determination processing result (that the user's finger exists in the area R2) is the second determination. The processing result is determined (step S25). That is, it is determined that a user operation on the movement route P12 has been performed. Then, it is determined that the user operation is a gesture operation (see the column of path P12 in FIG. 8). In other words, when it is determined in the first determination process that the user's finger exists in the area R1, and in the second determination process, it is determined that the user's finger exists in the area R2, the user operation Is determined to be a gesture operation.

このように、第1の判定処理においてユーザの手指がエリアR1に存在する旨が判定される場合には、ユーザ操作がタッチ目的操作である旨が原則として判定される。ただし、第1の判定処理においてユーザの手指がエリアR1に存在する旨が判定される場合であっても第2の判定処理においてユーザの手指がエリアR2に存在する旨が判定されるときには、ユーザ操作はタッチ目的操作ではない旨が判定される(ステップS25)。そのため、ユーザによる非接触操作(ジェスチャ操作)がタッチ目的操作として判定されることを回避することが可能である。したがって、ユーザによる非接触操作をより的確に判定することが可能である。   Thus, when it is determined in the first determination process that the user's finger is present in the area R1, it is determined in principle that the user operation is a touch-purpose operation. However, even if it is determined in the first determination process that the user's finger is present in the area R1, if it is determined in the second determination process that the user's finger is present in the area R2, the user It is determined that the operation is not a touch purpose operation (step S25). Therefore, it is possible to avoid the non-contact operation (gesture operation) by the user being determined as the touch purpose operation. Therefore, it is possible to more accurately determine the non-contact operation by the user.

<2.第2実施形態>
第2実施形態は、第1実施形態の変形例である。以下では、第1実施形態との相違点を中心に説明する。
<2. Second Embodiment>
The second embodiment is a modification of the first embodiment. Below, it demonstrates centering on difference with 1st Embodiment.

第1実施形態では、検出領域内にエリアR1とエリアR2とが設けられる態様を例示した。   In the first embodiment, the aspect in which the area R1 and the area R2 are provided in the detection region is illustrated.

この第2実施形態では、検出領域内に、エリアR1,R2に加えてエリアR3(後述)がさらに設けられる態様を例示する。   In the second embodiment, an example in which an area R3 (described later) is further provided in the detection region in addition to the areas R1 and R2 is illustrated.

第2実施形態では、このエリアR3にユーザの手指が進入した際の非接触操作の種類の判定処理について以下に説明する。   In the second embodiment, a determination process of the type of non-contact operation when the user's finger enters the area R3 will be described below.

ユーザが、操作画面200の周辺に設けられた周辺部材(MFP10の付属機器等)を利用する際には、当該ユーザの手指が検出領域(エリアR2)を通過することが考えられる。詳細には、図12の移動経路P23のように、ユーザがMFP10の原稿台(自動給紙装置(ADF:Auto Document Feeder )等)30に原稿を載置する際に当該ユーザの手指が検出領域(エリアR2)を通過すると、当該ユーザの手指の動きがジェスチャ操作として判定される恐れがある。なお、このような操作(周辺部材に対してユーザがアクセスする操作)は、「周辺アクセス操作」とも称される。この「周辺アクセス操作」は、ジェスチャ操作とタッチ目的操作とのいずれとも異なる操作である。   When a user uses a peripheral member (such as an accessory device of the MFP 10) provided around the operation screen 200, it is conceivable that the user's finger passes through the detection area (area R2). Specifically, as shown in the movement path P23 of FIG. 12, when a user places a document on a document table (ADF: Auto Document Feeder (ADF)) 30 of the MFP 10, the user's finger is detected in the detection area. If it passes through (area R2), the movement of the user's finger may be determined as a gesture operation. Such an operation (operation in which the user accesses the peripheral member) is also referred to as “peripheral access operation”. This “peripheral access operation” is an operation different from both the gesture operation and the touch purpose operation.

このような事情から、第2実施形態では、図12に示すように、エリアR1,R2に加えて領域R3(エリアR3とも称する)が検出領域内にさらに設けられる。このエリアR3は、エリアR1とエリアR2とのいずれとも異なる所定の領域であり、操作画面200から(エリアR1よりも)比較的遠く離れて存在する領域の一部に設けられる。また、ここでは、エリアR3は、ユーザによる周辺部材へのアクセスの際にユーザの手指が通過する部分に配置される。たとえば、図12に示すように、検出領域のうち、タッチパネル25よりも高い位置に存在する付属機器(原稿台30)の上面(詳細には、当該上面を含む平面)80よりも上側に存在する領域が、エリアR3として設定される。なお、このエリアR3は、検出部13によりユーザの手指が検出されているとしても(原則として)当該手指の動きが操作画面200に対する操作として認識されない領域であり、「不感領域」あるいは「除外領域」とも称される。   From such a situation, in the second embodiment, as shown in FIG. 12, in addition to the areas R1 and R2, a region R3 (also referred to as area R3) is further provided in the detection region. The area R3 is a predetermined area that is different from both the area R1 and the area R2, and is provided in a part of an area that is relatively far away from the operation screen 200 (than the area R1). In addition, here, the area R3 is arranged in a portion through which the user's finger passes when the user accesses the peripheral member. For example, as shown in FIG. 12, the detection area is located above the upper surface (specifically, the plane including the upper surface) 80 of the accessory device (original table 30) that is higher than the touch panel 25. The area is set as area R3. Note that this area R3 is an area in which the movement of the finger is not recognized as an operation on the operation screen 200 (in principle) even if the user's finger is detected by the detection unit 13; Is also referred to.

この第2実施形態においても、第1実施形態と同様に図9および図10の各処理がそれぞれ行われる。   Also in the second embodiment, each processing of FIG. 9 and FIG. 10 is performed similarly to the first embodiment.

まず、図12の移動経路P22,P23(ユーザの手指が検出領域に対してエリアR2から進入する経路P2)のユーザ操作(非接触操作)に対する操作種類判定処理について、図9および図10のフローチャートを参照しながら、説明する。   First, the operation type determination process for the user operation (non-contact operation) of the movement paths P22 and P23 (the path P2 where the user's finger enters the detection area from the area R2) in FIG. 12 is a flowchart in FIGS. This will be described with reference to FIG.

具体的には、ユーザの手指が検出領域内にて検出された旨が判定される(ステップS11)と、ユーザの手指の三次元位置が取得され、ユーザの手指がエリアR1とエリアR2とエリアR3とのうちのいずれの領域にて検出されたか、が判定される(ステップS12)。ここでは、ユーザの手指がエリアR2にて検出された旨が判定される。   Specifically, when it is determined that the user's finger has been detected in the detection region (step S11), the three-dimensional position of the user's finger is acquired, and the user's finger is in areas R1, R2, and area. It is determined in which region of R3 the detection has been made (step S12). Here, it is determined that the user's finger has been detected in area R2.

そして、エリアR2内に所定期間T12(たとえば0.5秒)に亘って当該ユーザの手指が検出される(ステップS13〜S16)と、ユーザの手指がエリアR2に存在する旨が第1の判定処理結果として判定される(ステップS17)。また、ユーザの手指の存在位置がエリアR2である旨が判定されると、ユーザ操作がジェスチャ操作である旨が暫定的に判定される(ステップS17)。   When the user's finger is detected in the area R2 for a predetermined period T12 (for example, 0.5 seconds) (steps S13 to S16), the first determination is that the user's finger is present in the area R2. It is determined as a processing result (step S17). If it is determined that the position of the user's finger is in the area R2, it is provisionally determined that the user operation is a gesture operation (step S17).

その後、ユーザの手指が、エリアR2内に引き続き存在し(ステップS18)(図12の移動経路P22)、エリアR2から検出領域外へと移動する(ステップS19)と、第1の判定処理結果がそのまま第2の判定処理結果として決定される(ステップS26)。具体的には、ユーザの手指がエリアR2に存在する旨が第2の判定処理結果として判定され、当該第2の判定処理結果にも基づき、ユーザ操作はジェスチャ操作である旨が決定される(図13の経路P22の欄参照)。なお、図13は、第2実施形態に係る移動経路毎の操作種類の判定結果の一部を示す図である。   Thereafter, when the user's finger continues to exist in the area R2 (step S18) (movement path P22 in FIG. 12) and moves out of the detection area (step S19), the first determination processing result is obtained. It is determined as the second determination processing result as it is (step S26). Specifically, it is determined as a second determination processing result that the user's finger is present in the area R2, and based on the second determination processing result, it is determined that the user operation is a gesture operation ( (Refer to the column of path P22 in FIG. 13). FIG. 13 is a diagram illustrating a part of the operation type determination result for each movement route according to the second embodiment.

また、エリアR2からエリアR3へとユーザの手指が移動する(図12の移動経路P23)(ステップS18〜S20)と、エリアR3内に一定期間T23(たとえば0.5秒)に亘ってユーザの手指がエリアR3にて検出されたか否か、が判定される(ステップS21〜S24)。なお、当該期間T23は、第2の判定処理においてユーザの手指がエリアR3に存在する旨を判定するための閾値である。   Further, when the user's finger moves from the area R2 to the area R3 (movement path P23 in FIG. 12) (steps S18 to S20), the user's finger moves in the area R3 over a certain period T23 (for example, 0.5 seconds). It is determined whether or not a finger has been detected in area R3 (steps S21 to S24). The period T23 is a threshold for determining that the user's finger is present in the area R3 in the second determination process.

所定期間T23に亘って物体がエリアR3にて検出された旨が判定されると、第1の判定処理結果とは異なる内容(ユーザの手指がエリアR3に存在する旨)が、第2の判定処理結果として決定される(ステップS25)。すなわち、移動経路P23のユーザ操作が行われた旨が判定される。そして、ユーザ操作(詳細には、第2の判定処理においてエリアR3にて物体が一定期間T23に亘って存在する旨が判定された時点よりも前からユーザにより開始されていた操作)はジェスチャ操作ではない旨が判定される(図13の経路P23の欄参照)。換言すれば、第1の判定処理においてユーザの手指がエリアR2に存在する旨が判定され且つ第2の判定処理においてユーザの手指がエリアR3に存在する旨が判定される場合には、ユーザ操作は周辺アクセス操作である旨が判定される。   When it is determined that the object is detected in the area R3 over the predetermined period T23, the content different from the first determination processing result (that the user's finger exists in the area R3) is the second determination. The processing result is determined (step S25). That is, it is determined that the user operation on the movement route P23 has been performed. The user operation (specifically, the operation started by the user before the time point when it is determined in the second determination process that the object exists in the area R3 for a certain period T23) is a gesture operation. Is determined (see the column of path P23 in FIG. 13). In other words, when it is determined in the first determination process that the user's finger exists in the area R2, and in the second determination process, it is determined that the user's finger exists in the area R3, the user operation Is determined to be a peripheral access operation.

以上のような動作においては、第1の判定処理においてユーザの手指がエリアR2に存在する旨が判定される場合には、ユーザ操作がジェスチャ操作である旨が原則として判定される。ただし、第1の判定処理においてユーザの手指がエリアR2に存在する旨が判定される場合であっても、第2の判定処理においてユーザの手指がエリアR3に存在する旨が判定されるときには、ユーザ操作はジェスチャ操作ではない旨が判定される。そのため、ジェスチャ操作以外の非接触操作(周辺アクセス操作)がジェスチャ操作として判定されることを回避することが可能である。したがって、ユーザによる非接触操作をより的確に判定することが可能である。   In the operation as described above, when it is determined in the first determination process that the user's finger exists in the area R2, it is determined in principle that the user operation is a gesture operation. However, even when it is determined in the first determination process that the user's finger exists in the area R2, when it is determined in the second determination process that the user's finger exists in the area R3, It is determined that the user operation is not a gesture operation. Therefore, it is possible to avoid a non-contact operation (peripheral access operation) other than a gesture operation being determined as a gesture operation. Therefore, it is possible to more accurately determine the non-contact operation by the user.

つぎに、移動経路P33,P32(ユーザの手指が検出領域に対してエリアR3から進入する経路P3)のユーザ操作(非接触操作)に対する操作種類判定処理について、図9および図10のフローチャートを参照しながら、説明する。   Next, for the operation type determination processing for the user operation (non-contact operation) of the movement routes P33 and P32 (the route P3 where the user's finger enters the detection region from the area R3), refer to the flowcharts of FIGS. While explaining.

具体的には、ユーザの手指がエリアR3内にて検出された旨が判定され(ステップS11,S12)、エリアR3において所定期間T13(たとえば0.5秒)に亘って物体(ユーザの手指)が検出された旨が判定される(ステップS13〜S16)と、ユーザの手指がエリアR3に存在する旨が第1の判定処理結果として判定される(ステップS17)。そして、第1の判定処理結果に基づき、ユーザ操作は周辺アクセス操作である旨が判定される(ステップS17)。なお、当該期間T13は、第1の判定処理においてユーザの手指がエリアR3に存在する旨を判定するための閾値である。   Specifically, it is determined that the user's finger has been detected in the area R3 (steps S11 and S12), and an object (user's finger) over a predetermined period T13 (for example, 0.5 seconds) in the area R3. Is detected (steps S13 to S16), it is determined as a first determination processing result that the user's finger is present in the area R3 (step S17). Based on the first determination processing result, it is determined that the user operation is a peripheral access operation (step S17). The period T13 is a threshold value for determining that the user's finger exists in the area R3 in the first determination process.

その後、ユーザの手指がエリアR3内に引き続き存在した後に検出領域外へと移動する(図12の移動経路P33)と、エリアR3にユーザの手指が存在する旨が第2の判定処理結果として判定される(ステップS18〜S26)。すなわち、移動経路P33のユーザ操作が行われた旨が判定される。この場合には、当該ユーザ操作が周辺アクセス操作である旨が決定される(ステップS26)(図13の経路P33の欄参照)。   Thereafter, when the user's fingers continue to exist in the area R3 and then move out of the detection region (movement path P33 in FIG. 12), it is determined as the second determination processing result that the user's fingers are present in the area R3. (Steps S18 to S26). That is, it is determined that the user operation on the movement route P33 has been performed. In this case, it is determined that the user operation is a peripheral access operation (step S26) (see the column of path P33 in FIG. 13).

また、エリアR3からエリアR2へとユーザの手指が移動し(図12の移動経路P32)(ステップS18〜S20)、エリアR2において所定期間T22(たとえば0.5秒)に亘ってユーザの手指が検出される(ステップS21〜S24)と、第1の判定処理とは異なる内容(ユーザの手指がエリアR2に存在する旨)が第2の判定処理結果として決定される(ステップS25)。すなわち、移動経路P32のユーザ操作が行われた旨が判定される。そして、ユーザ操作がジェスチャ操作である旨が決定される(図13の経路P32の欄参照)。換言すれば、第1の判定処理にてユーザの手指がエリアR3に存在する旨が判定され且つ第2の判定処理にてユーザの手指がエリアR2に存在する旨が判定される場合には、ユーザ操作はジェスチャ操作である旨が判定される。   Further, the user's fingers move from area R3 to area R2 (movement path P32 in FIG. 12) (steps S18 to S20), and the user's fingers move in area R2 over a predetermined period T22 (for example, 0.5 seconds). When detected (steps S21 to S24), contents different from the first determination process (that the user's finger exists in the area R2) are determined as the second determination process result (step S25). That is, it is determined that the user operation on the movement route P32 has been performed. Then, it is determined that the user operation is a gesture operation (see the column of path P32 in FIG. 13). In other words, when it is determined in the first determination process that the user's finger is present in the area R3, and in the second determination process, it is determined that the user's finger is present in the area R2, It is determined that the user operation is a gesture operation.

このように、第1の判定処理においてユーザの手指がエリアR3に存在する旨が判定される場合には、ユーザ操作が周辺アクセス操作である旨が原則として判定される。ただし、第1の判定処理においてユーザの手指がエリアR3に存在する旨が判定される場合であっても、第2の判定処理においてユーザの手指がエリアR2に存在する旨が判定されるときには、ユーザ操作は周辺アクセス操作ではない旨が判定される(ステップS25)。そのため、ユーザによる非接触操作(ジェスチャ操作)が周辺アクセス操作として判定されることを回避することが可能である。したがって、ユーザによる非接触操作をより的確に判定することが可能である。   As described above, when it is determined in the first determination process that the user's finger exists in the area R3, it is determined in principle that the user operation is the peripheral access operation. However, even if it is determined in the first determination process that the user's finger is present in the area R3, when it is determined in the second determination process that the user's finger is present in the area R2, It is determined that the user operation is not a peripheral access operation (step S25). Therefore, it is possible to avoid the non-contact operation (gesture operation) by the user being determined as the peripheral access operation. Therefore, it is possible to more accurately determine the non-contact operation by the user.

また、図示の都合上、図12では移動経路P22,P23,P32,P33についてのみ図示されているが、第2実施形態では、ユーザの手指が検出領域に対してエリアR1から進入し、その後、手指がエリアR1からエリアR3に移動する移動経路P13等も存在し得る。また、ユーザの手指が検出領域に対してエリアR3から進入し、その後、手指がエリアR3からエリアR1に移動する移動経路P31も存在し得る。これらの移動経路についても、非接触操作の種類の判定処理等と同様の処理がそれぞれ行われる(図9および図10のフローチャート参照)。   For convenience of illustration, only the movement paths P22, P23, P32, and P33 are shown in FIG. 12, but in the second embodiment, the user's finger enters the detection area from the area R1, and then There may also be a moving path P13 or the like where the finger moves from the area R1 to the area R3. There may also be a movement path P31 in which the user's finger enters the detection area from the area R3 and then moves from the area R3 to the area R1. The same processing as the determination processing of the type of non-contact operation is also performed on these movement paths (see the flowcharts of FIGS. 9 and 10).

具体的には、第1の判定処理(ステップS11〜S17)においてエリアR1にユーザの手指が存在する旨が判定され、第2の判定処理(ステップS18〜S26)においてエリアR3にユーザの手指が存在する旨が判定されると、移動経路P13のユーザ操作が行われた旨が判定される。移動経路P13のユーザ操作は、周辺アクセス操作であると判定される。   Specifically, it is determined in the first determination process (steps S11 to S17) that the user's finger is present in the area R1, and in the second determination process (steps S18 to S26), the user's finger is present in the area R3. If it is determined that the user exists, it is determined that a user operation on the movement route P13 has been performed. It is determined that the user operation on the movement route P13 is a peripheral access operation.

また、第1の判定処理(ステップS11〜S17)においてエリアR3にユーザの手指が存在する旨が判定され、第2の判定処理(ステップS18〜S26)においてエリアR1にユーザの手指が存在する旨が判定されると、移動経路P31のユーザ操作が行われた旨が判定される。移動経路P31のユーザ操作は、タッチ目的操作であると判定される。   Further, it is determined in the first determination process (steps S11 to S17) that the user's finger is present in the area R3, and in the second determination process (steps S18 to S26), the user's finger is present in the area R1. Is determined, it is determined that a user operation on the movement route P31 has been performed. It is determined that the user operation on the movement path P31 is a touch purpose operation.

また、第2実施形態では、付属機器(たとえば原稿台30)がタッチパネル25よりも高い位置に存在する態様を例示したが、これに限定されない。たとえば、付属機器がタッチパネル25の側方に存在する場合であっても第2実施形態の思想が適用されるようにしてもよい。   In the second embodiment, an example in which the accessory device (for example, the document table 30) exists at a position higher than the touch panel 25 is illustrated, but the present invention is not limited to this. For example, the idea of the second embodiment may be applied even when the accessory device is present on the side of the touch panel 25.

図14は、付属機器(ここでは認証装置40)がタッチパネル25の側方(ここでは左側)に配置されている状況(第2実施形態の変形例における周辺機器の配置例)を示す図(平面図)である。なお、ここでは、簡単化のため、操作パネル部6cの水平面に対する角度θ(図12)は0度(0°)であるものとする。   FIG. 14 is a diagram (plan view) illustrating a situation (an example of arrangement of peripheral devices in a modification of the second embodiment) in which an accessory device (here, the authentication device 40) is arranged on the side (here, the left side) of the touch panel 25. Figure). Here, for simplification, it is assumed that the angle θ (FIG. 12) with respect to the horizontal plane of the operation panel unit 6 c is 0 degree (0 °).

図15は、認証装置40がタッチパネル25の左側に配置された状況(図14)におけるエリアR3の配置を示す概念図である。   FIG. 15 is a conceptual diagram showing the arrangement of the area R3 in the situation where the authentication device 40 is arranged on the left side of the touch panel 25 (FIG. 14).

付属機器がタッチパネル25の側方に存在する場合(図14参照)には、タッチパネル25の側方に配置された付属機器へのアクセスに際してユーザの手指が通過する部分に、エリアR3が配置され(図15参照)、ユーザ操作に対する操作種類判定処理(図9および図10)が実行されるようにしてもよい。   When the accessory device is present on the side of the touch panel 25 (see FIG. 14), the area R3 is disposed in a portion through which the user's finger passes when accessing the accessory device disposed on the side of the touch panel 25 ( The operation type determination process (FIGS. 9 and 10) for the user operation may be executed.

<3.第3実施形態>
第3実施形態は、第2実施形態の変形例である。以下では、第2実施形態との相違点を中心に説明する。
<3. Third Embodiment>
The third embodiment is a modification of the second embodiment. Below, it demonstrates centering on difference with 2nd Embodiment.

この第3実施形態においては、エリアR3の体積が検出領域全体の体積に対して所定の割合よりも大きい場合には、検出感度を増大して検出領域を拡大するとともにエリアR2の体積を拡大する態様を例示する。なお、第3実施形態では、付属機器がタッチパネル25の側方等に存在する状況を想定する。   In the third embodiment, when the volume of the area R3 is larger than a predetermined ratio with respect to the volume of the entire detection area, the detection sensitivity is increased to expand the detection area and the volume of the area R2 is expanded. An embodiment is illustrated. In the third embodiment, it is assumed that the accessory device is present on the side of the touch panel 25 or the like.

また、図16は、第3実施形態における周辺機器の配置例を示す図であり、図14とは異なる配置例(周辺機器配置例)を示す図である。図16においては、認証装置40がタッチパネル25の左側に配置され、さらに、キーボード60がタッチパネル25の右側に配置されている状況が示されている。また、図17は、付属機器がタッチパネル25の両側に配置された状況(図16)におけるエリアR3(R3a,R3b)の配置位置を示す概念図である。なお、2つの付属機器に関するエリアR3(R3a,R3b)の体積は、それぞれ適宜の値(たとえば、検出領域全体の体積の30%)に設定される。   FIG. 16 is a diagram illustrating an arrangement example of peripheral devices in the third embodiment, and is a diagram illustrating an arrangement example (peripheral device arrangement example) different from FIG. 14. FIG. 16 shows a situation where the authentication device 40 is arranged on the left side of the touch panel 25 and the keyboard 60 is arranged on the right side of the touch panel 25. FIG. 17 is a conceptual diagram showing the arrangement position of the area R3 (R3a, R3b) in a situation (FIG. 16) in which the accessory devices are arranged on both sides of the touch panel 25. Note that the volume of the area R3 (R3a, R3b) related to the two accessory devices is set to an appropriate value (for example, 30% of the volume of the entire detection region).

ここにおいて、検出領域内(特に水平方向の両端側に)にエリアR3が存在すること等に起因して、エリアR2の体積が小さくなり、ユーザがジェスチャ操作(特に水平方向に手指を移動させるジェスチャ操作)を行いづらくなることが考えられる。   Here, due to the presence of the area R3 in the detection area (especially at both ends in the horizontal direction), the volume of the area R2 becomes small, and the user performs a gesture operation (especially a gesture for moving a finger in the horizontal direction). It may be difficult to perform (operation).

このような事情から、この第3実施形態では、エリアR3の体積が検出領域の体積に対して所定の割合(たとえば50%)よりも大きい場合には、検出部13は、検出感度を増大し、検出領域を拡大するとともにエリアR2の体積を拡大する。   For this reason, in the third embodiment, when the volume of the area R3 is larger than a predetermined ratio (for example, 50%) with respect to the volume of the detection region, the detection unit 13 increases the detection sensitivity. The detection area is enlarged and the volume of the area R2 is enlarged.

図16のように2つの付属機器(認証装置40およびキーボード60)がタッチパネル25の側方(両側)に配置される場合には、エリアR3の全体の体積(エリアR3a,R3bの体積の合計)は、検出領域全体の体積の60%であり、エリアR3の体積は検出領域全体の体積に対して所定の割合(たとえば50%)よりも大きい。操作画面200付近に配置された付属機器の構成(個数等)に基づき、エリアR3の体積が検出領域全体の体積に対して所定の割合よりも大きい旨が判定される場合には、検出部13は、検出感度を増大して検出領域の体積を拡大するとともに、エリアR2の体積を拡大する(図18参照)。具体的には、検出部13は、操作画面200の法線方向(上向き)に検出領域を拡大(詳細には、検出領域の高さを更に所定値(たとえば約5センチメートル)増大)し、検出領域の体積を増大する。そして、検出部13は、検出領域の体積の拡大に伴い、エリアR2を拡大する。具体的には、エリアR3(R3a,R3b)の位置および大きさがそのまま維持されるとともに、検出感度の増大に応じて拡大した検出領域部分(増大部分)の全てがエリアR2に設定される。詳細には、操作画面200の法線方向(上向き)にエリアR2を拡大(エリアR2の高さを所定値(たとえば約5センチメートル)増大)させ、エリアR3の上にもエリアR2を設けることによって、エリアR2を拡大する。   When two accessory devices (authentication device 40 and keyboard 60) are arranged on the sides (both sides) of touch panel 25 as shown in FIG. 16, the entire volume of area R3 (the total volume of areas R3a and R3b) Is 60% of the volume of the entire detection region, and the volume of the area R3 is larger than a predetermined ratio (for example, 50%) with respect to the volume of the entire detection region. When it is determined that the volume of the area R3 is larger than a predetermined ratio with respect to the volume of the entire detection area based on the configuration (number, etc.) of the accessory devices arranged near the operation screen 200, the detection unit 13 Increases the detection sensitivity and expands the volume of the detection region, and expands the volume of the area R2 (see FIG. 18). Specifically, the detection unit 13 expands the detection area in the normal direction (upward) of the operation screen 200 (specifically, the height of the detection area is further increased by a predetermined value (for example, about 5 centimeters)), Increase the volume of the detection area. And the detection part 13 expands area R2 with expansion of the volume of a detection area | region. Specifically, the position and size of the area R3 (R3a, R3b) are maintained as they are, and all of the detection region portion (increased portion) enlarged in accordance with the increase in detection sensitivity is set in the area R2. Specifically, the area R2 is enlarged (the height of the area R2 is increased by a predetermined value (for example, about 5 centimeters)) in the normal direction (upward) of the operation screen 200, and the area R2 is also provided on the area R3. To enlarge the area R2.

なお、1つの付属機器(認証装置40のみ)がタッチパネル25の側方に取り付けられる場合(図14参照)には、エリアR3の体積は検出領域の体積の30%であり、エリアR3の体積は検出領域の体積に対して所定の割合(50%)よりも小さい旨が判定される。この場合には、検出部13は、検出感度を変更せず、検出領域の体積およびエリアR2の体積を拡大しない。検出感度を拡大しないことによれば、消費電力量の増大を回避することが可能である。   When one accessory device (only the authentication device 40) is attached to the side of the touch panel 25 (see FIG. 14), the volume of the area R3 is 30% of the volume of the detection region, and the volume of the area R3 is It is determined that the volume is smaller than a predetermined ratio (50%) with respect to the volume of the detection area. In this case, the detection unit 13 does not change the detection sensitivity, and does not increase the volume of the detection region and the volume of the area R2. By not increasing the detection sensitivity, it is possible to avoid an increase in power consumption.

このように、第3実施形態に係る動作によれば、エリアR3の体積が検出領域の体積に対して所定の割合よりも大きい場合には、検出領域およびエリアR2の体積が拡大される。そのため、エリアR2の体積が拡大されたことによって、エリアR3の存在(エリアR2の体積が小さいこと)に起因してユーザがジェスチャ操作を行いづらいこと、を回避することが可能である。   As described above, according to the operation according to the third embodiment, when the volume of the area R3 is larger than the predetermined ratio with respect to the volume of the detection area, the volumes of the detection area and the area R2 are expanded. Therefore, it is possible to avoid that it is difficult for the user to perform a gesture operation due to the presence of the area R3 (the volume of the area R2 is small) by increasing the volume of the area R2.

なお、第3実施形態では、エリアR3が検出領域内における水平方向の一方側あるいは両側に設定される態様を例示したが、これに限定されない。たとえば、エリアR3が、検出領域内における垂直方向上側に設定される場合に、上記と同様にして、検出感度を増大して検出領域およびエリアR2を拡大するようにしてもよい。   In the third embodiment, the mode in which the area R3 is set on one side or both sides in the horizontal direction in the detection region is exemplified, but the present invention is not limited to this. For example, when the area R3 is set on the upper side in the vertical direction in the detection area, the detection sensitivity and the area R2 may be enlarged by increasing the detection sensitivity in the same manner as described above.

図19は、第3実施形態の変形例に係るエリアR3の配置を示す概念図である。図19においては、原稿台30に関するエリアR3(R3c)が検出領域内における上側にも設定されている。   FIG. 19 is a conceptual diagram showing the arrangement of the area R3 according to a modification of the third embodiment. In FIG. 19, an area R3 (R3c) relating to the document table 30 is also set on the upper side in the detection region.

図19のような配置例において、エリアR3の体積が検出領域の体積に対して所定の割合よりも大きいと判定される場合には、検出部13は、検出感度を増大し、検出領域の体積およびエリアR2の体積を法線方向(上向き)に拡大するようにしてもよい(図20参照)。なお、この場合において、図20に示すように、エリアR3をも拡大するようにしてもよい。   In the arrangement example as shown in FIG. 19, when it is determined that the volume of the area R3 is larger than a predetermined ratio with respect to the volume of the detection region, the detection unit 13 increases the detection sensitivity, and the volume of the detection region. The volume of the area R2 may be expanded in the normal direction (upward) (see FIG. 20). In this case, the area R3 may be enlarged as shown in FIG.

<4.第4実施形態>
第4実施形態は、第2実施形態の変形例である。以下では、第2実施形態との相違点を中心に説明する。
<4. Fourth Embodiment>
The fourth embodiment is a modification of the second embodiment. Below, it demonstrates centering on difference with 2nd Embodiment.

第2実施形態では、エリアR3が、ユーザによる付属機器へのアクセスの際にユーザの手指が通過する部分に配置される態様を例示した。   In 2nd Embodiment, area R3 illustrated the aspect arrange | positioned in the part through which a user's finger passes at the time of access to an attachment apparatus by a user.

第4実施形態では、エリアR3が、MFP10の前面側の通路空間と検出領域との重複領域に配置される態様を例示する。   The fourth embodiment exemplifies a mode in which the area R3 is arranged in an overlapping area between the passage space on the front side of the MFP 10 and the detection area.

また、第2実施形態では、ユーザの手指がエリアR2に存在する旨が第1の判定処理にて判定されたとしても、ユーザの手指がエリアR3に存在する旨が第2の判定処理にて判定される場合には、「ユーザ操作は周辺アクセス操作である」旨が判定される態様を例示した。   In the second embodiment, even if it is determined in the first determination process that the user's finger exists in the area R2, the second determination process indicates that the user's finger exists in the area R3. In the case of determination, an example in which it is determined that “the user operation is a peripheral access operation” is illustrated.

この第4実施形態では、ユーザの手指がエリアR2に存在する旨が第1の判定処理にて判定されたとしても、ユーザの手指がエリアR3に存在する旨が第2の判定処理にて判定される場合には、「ユーザ操作は行われなかった」旨が判定される態様を例示する。   In the fourth embodiment, even if it is determined in the first determination process that the user's finger exists in the area R2, it is determined in the second determination process that the user's finger exists in the area R3. In this case, an example in which it is determined that “user operation has not been performed” is illustrated.

たとえば、MFP10を操作していないユーザ(非操作ユーザ)が、MFP10の前面側を通行する際には、物体(非操作ユーザの体の一部(腕等))がMFP10の前面側の通路空間を(偶発的に)通過することが考えられる。このような場合に当該物体が検出領域内にて検出されると、当該物体の動きがユーザ操作(ジェスチャ操作)として判定(誤判定)される恐れがある。   For example, when a user who is not operating the MFP 10 (non-operating user) passes the front side of the MFP 10, an object (a part of the body (such as an arm) of the non-operating user) is a passage space on the front side of the MFP 10. (Accidentally). In such a case, if the object is detected in the detection area, the movement of the object may be determined (erroneously determined) as a user operation (gesture operation).

このような事情から、この第4実施形態では、MFP10の前面側の通路空間と検出領域との重複領域にエリアR3が配置される。   For this reason, in the fourth embodiment, an area R3 is arranged in an overlapping area between the passage space on the front side of the MFP 10 and the detection area.

具体的には、図21に示すように、検出領域内のエリアR2の一部分が、MFP10の最前面部F1に接する鉛直面90よりも更に前面側に突出する場合には、当該エリアR2の一部分がエリアR3として配置される。   Specifically, as shown in FIG. 21, when a part of the area R2 in the detection region protrudes further to the front side than the vertical surface 90 in contact with the foremost part F1 of the MFP 10, a part of the area R2 Is arranged as area R3.

たとえば、物体がエリアR3のみで検出された旨が判定されると、判定部14は、ユーザ操作は行われていない旨を判定する。   For example, when it is determined that the object is detected only in the area R3, the determination unit 14 determines that no user operation is performed.

また、非操作ユーザの中には、物体(腕等)をエリアR2まで(偶発的に)進入させてしまうユーザも存在し得る。このような場合であっても、操作種類判定処理(図9および図10)により、ユーザ操作が行われたか否かが判定される。   In addition, among non-operating users, there may be a user who causes an object (an arm or the like) to enter the area R2 (accidentally). Even in such a case, it is determined whether or not a user operation has been performed by the operation type determination process (FIGS. 9 and 10).

具体的には、まず、第1の判定処理(ステップS11〜S17)において物体(非操作ユーザの腕等)がエリアR2に存在する旨が判定され、ユーザ操作がジェスチャ操作である旨が暫定的に決定される。   Specifically, first, in the first determination process (steps S11 to S17), it is determined that an object (such as a non-operating user's arm) is present in the area R2, and it is provisional that the user operation is a gesture operation. To be determined.

その後、エリアR2からエリアR3へと物体が移動し(ステップS18〜S20)、エリアR3において一定期間T23(たとえば0.5秒)に亘って物体が存在する旨が判定される(ステップS21〜S24)と、第1の判定処理結果とは異なる内容(物体がエリアR3に存在する旨)が、第2の判定処理結果として決定される(ステップS25)。   Thereafter, the object moves from the area R2 to the area R3 (steps S18 to S20), and it is determined that the object exists in the area R3 for a certain period T23 (for example, 0.5 seconds) (steps S21 to S24). ) And content different from the first determination processing result (that the object exists in the area R3) are determined as the second determination processing result (step S25).

なお、この第4実施形態のステップS25にて、第2の判定処理において物体が一定期間T23に亘ってエリアR3に存在する旨が判定されると、ユーザ操作(詳細には、当該判定の時点よりも前からユーザにより開始されていた操作)は行われなかった旨が判定される。換言すれば、当該物体の動きは、MFP10に対して行われたものではない旨が判定される。   In step S25 of the fourth embodiment, when it is determined in the second determination process that an object exists in the area R3 for a certain period T23, the user operation (specifically, the time of the determination) It is determined that the operation (started by the user from before) has not been performed. In other words, it is determined that the movement of the object is not performed on the MFP 10.

このように、第4実施形態に係る動作によれば、エリアR2の一部分が、MFP10の最前面部F1に接する鉛直面90よりも更に前面側に突出する場合には、当該エリアR2の一部分がエリアR3として設定されるので、MFP10の前面側の通路空間における物体(非操作ユーザの腕等)の動きがユーザ操作として判定されることを回避することが可能である。   As described above, according to the operation according to the fourth embodiment, when a part of the area R2 protrudes further to the front side than the vertical surface 90 in contact with the forefront part F1 of the MFP 10, a part of the area R2 is Since it is set as the area R3, it is possible to avoid the movement of an object (such as a non-operating user's arm) in the passage space on the front side of the MFP 10 being determined as a user operation.

なお、操作パネル部6cが水平方向に対するその回転角度θ(図21および図22参照)を変更することが可能である場合には、当該操作パネル部6cの回転角度θの変更に応じて、エリアR3が変更されるようにしてもよい。   When the operation panel 6c can change the rotation angle θ (see FIGS. 21 and 22) with respect to the horizontal direction, the area can be changed according to the change of the rotation angle θ of the operation panel 6c. R3 may be changed.

図22は、操作パネル部6cの角度θが比較的小さい場合のエリアR3の配置位置を示す図である。たとえば図22の操作パネル部6cの回転角度θが図21の操作パネル部6cの回転角度θへと変更されると、エリアR2のうち、MFP10の最前面部F1に接する鉛直面90よりも前面側に突出する突出部分(当該回転角度θの変更後の突出部分)がエリアR3として設定(変更)されるようにしてもよい。   FIG. 22 is a diagram illustrating an arrangement position of the area R3 when the angle θ of the operation panel unit 6c is relatively small. For example, when the rotation angle θ of the operation panel unit 6c in FIG. 22 is changed to the rotation angle θ of the operation panel unit 6c in FIG. 21, the front surface of the area R2 is higher than the vertical surface 90 in contact with the foremost surface portion F1 of the MFP 10. A protruding portion protruding to the side (a protruding portion after changing the rotation angle θ) may be set (changed) as the area R3.

このように、操作パネル部6cの回転角度θに応じてエリアR3が変更されるので、当該操作パネル部6cの回転角度θに応じた適切なエリアR3を設定することが可能である。   Thus, since the area R3 is changed according to the rotation angle θ of the operation panel unit 6c, it is possible to set an appropriate area R3 according to the rotation angle θ of the operation panel unit 6c.

<5.変形例等>
以上、この発明の実施の形態について説明したが、この発明は上記内容のものに限定されるものではない。
<5. Modified example>
Although the embodiment of the present invention has been described above, the present invention is not limited to the above-described content.

たとえば、上記第1実施形態においては、移動経路P12のユーザ操作が「ジェスチャ操作」であると判定される態様を例示したが、これに限定されず、移動経路P12のユーザ操作が「タッチ目的操作」として判定されるようにしてもよい。   For example, in the first embodiment, the mode in which the user operation on the movement route P12 is determined to be the “gesture operation” is illustrated. However, the present invention is not limited to this. May be determined as “.”

また、上記第2実施形態においては、移動経路P32のユーザ操作が「ジェスチャ操作」であると判定される態様を例示したが、これに限定されず、移動経路P32のユーザ操作が「周辺アクセス操作」として判定されるようにしてもよい。   In the second embodiment, the mode in which the user operation on the movement route P32 is determined to be the “gesture operation” is exemplified. However, the present invention is not limited to this, and the user operation on the movement route P32 is “periphery access operation”. May be determined as “.”

また、上記第2および第3実施形態においては、エリアR3が常に存在する態様を例示したが、これに限定されず、所定の条件が充足されるとエリアR3が無効化され、無効化されたエリアR3がエリアR2とみなされるようにしてもよい。   Moreover, in the said 2nd and 3rd embodiment, although the aspect in which area R3 always exists was illustrated, it is not limited to this, Area R3 was invalidated when the predetermined condition was satisfied, and it was invalidated The area R3 may be regarded as the area R2.

たとえば、閾値T23よりも長い所定の期間T10よりも更に長い期間に亘ってユーザの手指が検出領域内に存在する場合には、エリアR3が無効化され、無効化されたエリアR3がエリアR2とみなされるようにしてもよい。具体的には、判定部14は、ユーザの手指がエリアR3内にて検出されてから所定の期間T10(たとえば2秒)が経過する(すなわち閾値T23(たとえば0.5秒)が経過してから更に1.5秒が経過する)と、エリアR3を無効化する。そして、判定部14は、無効化されたエリアR3をエリアR2とみなし、第1の判定処理および第2の判定処理の少なくとも一方を実行する。換言すれば、比較的長い期間において検出領域(エリアR3)内にユーザの手指が存在するときには、操作画面200に対する操作(ジェスチャ操作)のためにユーザの手指が検出領域内に進入したものとみなされる。そして、エリアR3が無効化されて当該エリアR3がエリアR2とみなされ、タッチ目的操作とジェスチャ操作とのいずれが行われたかが判定される。   For example, when the user's finger exists in the detection area for a period longer than a predetermined period T10 longer than the threshold T23, the area R3 is invalidated, and the invalidated area R3 is defined as the area R2. It may be considered. Specifically, the determination unit 14 determines that a predetermined period T10 (for example, 2 seconds) has elapsed since the user's finger was detected in the area R3 (that is, the threshold T23 (for example, 0.5 seconds) has elapsed). When 1.5 seconds elapses, the area R3 is invalidated. Then, the determination unit 14 regards the invalidated area R3 as the area R2, and executes at least one of the first determination process and the second determination process. In other words, when the user's finger is present in the detection area (area R3) for a relatively long period, it is considered that the user's finger has entered the detection area for an operation (gesture operation) on the operation screen 200. It is. Then, the area R3 is invalidated, the area R3 is regarded as the area R2, and it is determined which of the touch purpose operation and the gesture operation is performed.

あるいは、操作パネル部6cがMFP10に対して着脱可能である場合において、操作パネル部6cがMFP10から取り外されているときには、エリアR3が無効化され、無効化されたエリアR3がエリアR2とみなされるようにしてもよい。具体的には、操作パネル部6cがMFP10から取り外されると、MFP10の付属機器が操作パネル部6cの付近に存在しないものと判定され、判定部14はエリアR3を無効化する。そして、判定部14は、無効化されたエリアR3をエリアR2とみなし、第1の判定処理および第2の判定処理の少なくとも一方を実行する。一方、操作パネル部6cがMFP10に取り付けられた状態のときには、MFP10の周辺部材が操作パネル部6cの付近に存在すると判定され、判定部14はエリアR3を無効化しない。   Alternatively, when the operation panel unit 6c is detachable from the MFP 10 and the operation panel unit 6c is detached from the MFP 10, the area R3 is invalidated and the invalidated area R3 is regarded as the area R2. You may do it. Specifically, when the operation panel unit 6c is detached from the MFP 10, it is determined that the accessory device of the MFP 10 does not exist in the vicinity of the operation panel unit 6c, and the determination unit 14 invalidates the area R3. Then, the determination unit 14 regards the invalidated area R3 as the area R2, and executes at least one of the first determination process and the second determination process. On the other hand, when the operation panel unit 6c is attached to the MFP 10, it is determined that the peripheral members of the MFP 10 exist near the operation panel unit 6c, and the determination unit 14 does not invalidate the area R3.

所定の条件が充足されるとエリアR3が無効化されてエリアR3がエリアR2とみなされることによれば、エリアR2が拡大するので、MFP10は、ジェスチャ操作を行いたいと考えるユーザの本来の意図をより的確に判定することが可能である。   When the predetermined condition is satisfied, the area R3 is invalidated and the area R3 is regarded as the area R2. Therefore, the area R2 is enlarged, so that the MFP 10 intends to perform the gesture operation. Can be determined more accurately.

また、上記各実施形態等においては、ユーザの手指の存在位置を判定するための閾値(所定期間)T12,T21,T11,T22,T23,T13がそれぞれ同じ値(たとえば0.5秒)に設定される態様を例示した。   In each of the above embodiments, the thresholds (predetermined periods) T12, T21, T11, T22, T23, and T13 for determining the position of the user's finger are set to the same value (for example, 0.5 seconds). The embodiment to be illustrated was illustrated.

しかしながら、これに限定されず、ユーザの手指の存在位置を判定するための閾値T12,T21,T11,T22,T23,T13はそれぞれ個別の値に設定されるようにしてもよい。   However, the present invention is not limited to this, and the threshold values T12, T21, T11, T22, T23, and T13 for determining the presence position of the user's finger may be set to individual values.

6c 操作パネル部
10 MFP(画像形成装置)
25 タッチパネル
200,210 操作画面
P11,P12,P21,P22,P23,P32,P33 移動経路
R1〜R3 エリア
6c Operation panel unit 10 MFP (image forming apparatus)
25 Touch panel 200, 210 Operation screen P11, P12, P21, P22, P23, P32, P33 Movement route R1-R3 area

Claims (13)

画像形成装置であって、
前記画像形成装置の操作画面付近の検出領域においてユーザの手指の三次元位置を検出する検出手段と、
前記検出領域におけるユーザ操作が複数の種類の操作のいずれであるかを判定する制御手段と、
を備え、
前記複数の種類の操作は、第1の種類の操作と第2の種類の操作とを有し、
前記第1の種類の操作は、前記操作画面内の複数の操作部材のいずれかをタッチするための操作であって、前記複数の操作部材の中から所望の操作部材を探し出す際に前記ユーザの手指を前記操作画面に接触させることなく前記操作画面の近接領域にて移動させるサーチ操作を含む操作であり、
前記第2の種類の操作は、前記第1の種類の操作以外の操作であって、前記操作画面に接触せずに行われる操作であり、
前記制御手段は、前記検出領域を、前記操作画面に近接する第1の領域と前記第1の領域以外の第2の領域とを有する複数の領域に区分するとともに、前記ユーザの手指の存在位置に関する第1の判定処理において前記ユーザの手指が前記第2の領域に存在する旨が判定される場合に前記ユーザ操作が前記第2の種類の操作である旨を判定するものの、前記第1の判定処理において前記ユーザの手指が前記第2の領域に存在する旨が判定される場合であっても、前記第1の判定処理の後に実行される前記ユーザの手指の存在位置に関する第2の判定処理において前記ユーザの手指が前記第1の領域に存在する旨が判定されるときには、前記ユーザ操作は前記第2の種類の操作ではない旨を判定することを特徴とする画像形成装置。
An image forming apparatus,
Detecting means for detecting a three-dimensional position of a user's finger in a detection region near the operation screen of the image forming apparatus;
Control means for determining which of a plurality of types of user operations in the detection area;
With
The plurality of types of operations include a first type of operation and a second type of operation,
The first type of operation is an operation for touching any one of the plurality of operation members in the operation screen, and when the user searches for a desired operation member from among the plurality of operation members, An operation including a search operation for moving a finger in a proximity region of the operation screen without touching the operation screen;
The operation of the second type is an operation other than the operation of the first type and is performed without touching the operation screen.
The control means divides the detection area into a plurality of areas having a first area close to the operation screen and a second area other than the first area, and the presence position of the user's finger In the first determination process relating to, when it is determined that the user's finger is present in the second area, it is determined that the user operation is the second type of operation. Even if it is determined that the user's finger is present in the second region in the determination process, the second determination regarding the presence position of the user's finger executed after the first determination process An image forming apparatus comprising: determining that the user operation is not the second type operation when it is determined in the processing that the user's finger is present in the first area.
請求項1に記載の画像形成装置において、
前記制御手段は、前記ユーザの手指が前記第2の領域に存在する旨が前記第1の判定処理において判定され、且つ、前記ユーザの手指が前記第1の領域に存在する旨が前記第2の判定処理において判定される場合には、前記ユーザ操作は前記第1の種類の操作である旨を判定することを特徴とする画像形成装置。
The image forming apparatus according to claim 1.
The control means determines in the first determination process that the user's finger is present in the second region, and indicates that the user's finger is present in the first region. When the determination process is performed, it is determined that the user operation is the first type of operation.
請求項1または請求項2に記載の画像形成装置において、
前記制御手段は、
前記第1の判定処理において、前記第2の領域において物体が第1の期間に亘って検出される場合には、前記ユーザの手指が前記第2の領域に存在する旨を判定し、
前記第2の判定処理において、前記第1の領域において物体が第2の期間に亘って検出される場合には、前記ユーザの手指が前記第1の領域に存在する旨を判定することを特徴とする画像形成装置。
The image forming apparatus according to claim 1, wherein:
The control means includes
In the first determination process, when an object is detected in the second region over a first period, it is determined that the user's finger exists in the second region,
In the second determination process, when an object is detected in the first region over a second period, it is determined that the user's finger exists in the first region. An image forming apparatus.
請求項1ないし請求項3のいずれかに記載の画像形成装置において、
前記複数の領域は、前記第1の領域と前記第2の領域とのいずれとも異なる第3の領域をも有し、
前記制御手段は、前記第1の判定処理において前記ユーザの手指が前記第2の領域に存在する旨が判定される場合に前記ユーザ操作が前記第2の種類の操作である旨を判定するものの、前記第1の判定処理において前記ユーザの手指が前記第2の領域に存在する旨が判定される場合であっても、前記第3の領域にて物体が一定期間に亘って存在する旨が前記第2の判定処理において判定されるときには、前記ユーザ操作は前記第2の種類の操作ではない旨を判定することを特徴とする画像形成装置。
The image forming apparatus according to any one of claims 1 to 3,
The plurality of regions also include a third region that is different from both the first region and the second region;
The control means determines that the user operation is the second type operation when it is determined in the first determination process that the user's finger is present in the second area. Even if it is determined in the first determination process that the user's finger is present in the second region, the fact that the object is present in the third region for a certain period of time may be present. An image forming apparatus, wherein when the determination is made in the second determination processing, it is determined that the user operation is not the second type of operation.
請求項4に記載の画像形成装置において、
前記複数の種類の操作は、前記第1の種類の操作と前記第2の種類の操作とのいずれとも異なる第3の種類の操作をも有し、
前記制御手段は、前記ユーザの手指が前記第2の領域に存在する旨が前記第1の判定処理において判定され、且つ、前記ユーザの手指が前記第3の領域に存在する旨が前記第2の判定処理において判定される場合には、前記ユーザ操作は前記第3の種類の操作である旨を判定することを特徴とする画像形成装置。
The image forming apparatus according to claim 4.
The plurality of types of operations also include a third type of operation that is different from both the first type of operation and the second type of operation,
The control means determines in the first determination process that the user's finger is present in the second area, and indicates that the user's finger is present in the third area. When the determination processing is performed, it is determined that the user operation is the third type of operation.
請求項4または請求項5に記載の画像形成装置において、
前記第3の種類の操作は、前記操作画面の周辺に設けられた周辺部材に対して前記ユーザがアクセスする操作を含み、
前記第3の領域は、前記ユーザによる前記周辺部材へのアクセスの際に前記ユーザの手指が通過する部分に配置される領域を含むことを特徴とする画像形成装置。
The image forming apparatus according to claim 4 or 5, wherein:
The third type of operation includes an operation in which the user accesses a peripheral member provided around the operation screen,
The image forming apparatus according to claim 3, wherein the third area includes an area arranged in a portion through which the user's finger passes when the user accesses the peripheral member.
請求項4ないし請求項6のいずれかに記載の画像形成装置において、
前記検出手段は、前記第3の領域の体積が前記検出領域の体積に対して所定の割合よりも大きい場合には、前記検出手段による検出感度を増大して前記検出領域を拡大するとともに前記第2の領域の体積を拡大することを特徴とする画像形成装置。
The image forming apparatus according to any one of claims 4 to 6,
When the volume of the third area is larger than a predetermined ratio with respect to the volume of the detection area, the detection means increases the detection sensitivity by the detection means and expands the detection area. 2. An image forming apparatus, wherein the volume of the area 2 is enlarged.
請求項4ないし請求項7のいずれかに記載の画像形成装置において、
前記制御手段は、前記一定期間よりも長い所定の期間よりも更に長い期間に亘って前記ユーザの手指が前記検出領域内に存在する場合には、前記第3の領域を無効化し、無効化された前記第3の領域を前記第2の領域とみなして前記第1の判定処理および前記第2の判定処理の少なくとも一方を実行することを特徴とする画像形成装置。
The image forming apparatus according to claim 4, wherein:
The control means invalidates the third area when the user's finger exists in the detection area for a period longer than the predetermined period longer than the predetermined period. An image forming apparatus, wherein the third area is regarded as the second area and at least one of the first determination process and the second determination process is executed.
請求項4ないし請求項7のいずれかに記載の画像形成装置において、
前記制御手段は、前記操作画面を有する操作パネルであって前記画像形成装置に対して着脱可能な操作パネルが前記画像形成装置から取り外されているときには、前記第3の領域を無効化し、無効化された前記第3の領域を前記第2の領域とみなして前記第1の判定処理および前記第2の判定処理の少なくとも一方を実行することを特徴とする画像形成装置。
The image forming apparatus according to claim 4, wherein:
The control unit invalidates and invalidates the third area when an operation panel having the operation screen and detachable from the image forming apparatus is detached from the image forming apparatus. The image forming apparatus, wherein the third area is regarded as the second area and at least one of the first determination process and the second determination process is executed.
請求項1ないし請求項3のいずれかに記載の画像形成装置において、
前記複数の領域は、前記第1の領域と前記第2の領域とのいずれとも異なる第3の領域をも有し、
前記制御手段は、前記第1の判定処理において前記ユーザの手指が前記第2の領域に存在する旨が判定される場合に前記ユーザ操作が前記第2の種類の操作である旨を判定するものの、前記第1の判定処理において前記ユーザの手指が前記第2の領域に存在する旨が判定される場合であっても、前記第3の領域にて物体が一定期間に亘って存在する旨が前記第2の判定処理において判定されるときには、前記ユーザ操作は行われなかった旨を判定することを特徴とする画像形成装置。
The image forming apparatus according to any one of claims 1 to 3,
The plurality of regions also include a third region that is different from both the first region and the second region;
The control means determines that the user operation is the second type operation when it is determined in the first determination process that the user's finger is present in the second area. Even if it is determined in the first determination process that the user's finger is present in the second region, the fact that the object is present in the third region for a certain period of time may be present. An image forming apparatus, wherein when it is determined in the second determination process, it is determined that the user operation has not been performed.
請求項10に記載の画像形成装置において、
前記第3の領域は、前記画像形成装置の前面側の通路空間と前記検出領域との重複領域に配置される領域であることを特徴とする画像形成装置。
The image forming apparatus according to claim 10.
The image forming apparatus, wherein the third area is an area arranged in an overlapping area between a passage space on the front side of the image forming apparatus and the detection area.
請求項11に記載の画像形成装置において、
前記制御手段は、前記操作画面を有する操作パネルであって水平方向に対するその回転角度を変更することが可能な操作パネルの回転角度の変更に応じて、前記検出領域内の前記第2の領域の一部分が、前記画像形成装置の最前面部に接する鉛直面よりも更に前面側に突出する場合には、前記一部分を含む領域を前記第3の領域として設定することを特徴とする画像形成装置。
The image forming apparatus according to claim 11.
The control means is an operation panel having the operation screen and can change the rotation angle of the operation panel that can change the rotation angle with respect to the horizontal direction. The image forming apparatus according to claim 1, wherein a part including the part is set as the third area when a part protrudes further to the front side than a vertical surface contacting the foremost part of the image forming apparatus.
コンピュータに、
a)画像形成装置の操作画面付近の検出領域においてユーザの手指の三次元位置を検出するとともに、前記検出領域を、前記操作画面に近接する第1の領域と前記第1の領域以外の第2の領域とを有する複数の領域に区分し、前記ユーザの手指が前記複数の領域のいずれに存在するかに関する第1の判定処理を実行するステップと、
b)前記ステップa)の後において、前記ユーザの手指の三次元位置を再び検出するとともに、前記ユーザの手指が前記複数の領域のいずれに存在するかに関する第2の判定処理を実行するステップと、
c)前記検出領域におけるユーザ操作が複数の種類の操作のいずれであるかを判定するステップと、
を実行させるためのプログラムであって、
前記複数の種類の操作は、第1の種類の操作と第2の種類の操作とを有し、
前記第1の種類の操作は、前記操作画面内の複数の操作部材のいずれかをタッチするための操作であって、前記複数の操作部材の中から所望の操作部材を探し出す際に前記ユーザの手指を前記操作画面に接触させることなく前記操作画面の近接領域にて移動させるサーチ操作を含む操作であり、
前記第2の種類の操作は、前記第1の種類の操作以外の操作であって、前記操作画面に接触せずに行われる操作であり、
前記ステップc)においては、前記第1の判定処理において前記ユーザの手指が前記第2の領域に存在する旨が判定される場合に前記ユーザ操作が前記第2の種類の操作である旨が判定されるものの、前記第1の判定処理において前記ユーザの手指が前記第2の領域に存在する旨が判定される場合であっても、前記第2の判定処理において前記ユーザの手指が前記第1の領域に存在する旨が判定されるときには、前記ユーザ操作は前記第2の種類の操作ではない旨が判定されることを特徴とするプログラム。
On the computer,
a) detecting a three-dimensional position of a user's finger in a detection area near the operation screen of the image forming apparatus, and using the detection area as a first area adjacent to the operation screen and a second area other than the first area; A first determination process relating to which of the plurality of regions the user's fingers are present, and
b) after the step a), again detecting the three-dimensional position of the user's finger and executing a second determination process regarding which of the plurality of regions the user's finger exists; ,
c) determining which one of a plurality of types of user operations in the detection area;
A program for executing
The plurality of types of operations include a first type of operation and a second type of operation,
The first type of operation is an operation for touching any one of the plurality of operation members in the operation screen, and when the user searches for a desired operation member from among the plurality of operation members, An operation including a search operation for moving a finger in a proximity region of the operation screen without touching the operation screen;
The operation of the second type is an operation other than the operation of the first type and is performed without touching the operation screen.
In step c), when it is determined in the first determination process that the user's finger is present in the second region, it is determined that the user operation is the second type of operation. However, even if it is determined in the first determination process that the user's finger is present in the second area, the user's finger is not detected in the second determination process. When it is determined that the user operation is present in the area, it is determined that the user operation is not the second type operation.
JP2014191093A 2014-09-19 2014-09-19 Image forming apparatus and program Active JP6337715B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014191093A JP6337715B2 (en) 2014-09-19 2014-09-19 Image forming apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014191093A JP6337715B2 (en) 2014-09-19 2014-09-19 Image forming apparatus and program

Publications (2)

Publication Number Publication Date
JP2016062410A true JP2016062410A (en) 2016-04-25
JP6337715B2 JP6337715B2 (en) 2018-06-06

Family

ID=55796086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014191093A Active JP6337715B2 (en) 2014-09-19 2014-09-19 Image forming apparatus and program

Country Status (1)

Country Link
JP (1) JP6337715B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021153059A1 (en) * 2020-01-29 2021-08-05 アルプスアルパイン株式会社 Electrostatic input device
WO2022185470A1 (en) * 2021-03-04 2022-09-09 三菱電機株式会社 Vehicle operation device and vehicle operation method
US11842006B2 (en) 2021-01-22 2023-12-12 Canon Kabushiki Kaisha Information processing apparatus
US11968338B2 (en) 2021-06-18 2024-04-23 Canon Kabushiki Kaisha Information processing apparatus and method for controlling information processing apparatus

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010204765A (en) * 2009-02-27 2010-09-16 Pentel Corp Touch panel device
JP2011053971A (en) * 2009-09-02 2011-03-17 Sony Corp Apparatus, method and program for processing information
US20110205151A1 (en) * 2009-12-04 2011-08-25 John David Newton Methods and Systems for Position Detection
JP2013235443A (en) * 2012-05-09 2013-11-21 Konica Minolta Inc Image forming apparatus, flick operation receiving method, and flick operation receiving program
JP2013242916A (en) * 2012-04-27 2013-12-05 Panasonic Corp Input device, input support method, and program
JP2014021748A (en) * 2012-07-19 2014-02-03 Alpine Electronics Inc Operation input device and on-vehicle equipment using the same
JP2014059863A (en) * 2012-08-23 2014-04-03 Denso Corp Operation device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010204765A (en) * 2009-02-27 2010-09-16 Pentel Corp Touch panel device
JP2011053971A (en) * 2009-09-02 2011-03-17 Sony Corp Apparatus, method and program for processing information
US20110205151A1 (en) * 2009-12-04 2011-08-25 John David Newton Methods and Systems for Position Detection
JP2013242916A (en) * 2012-04-27 2013-12-05 Panasonic Corp Input device, input support method, and program
JP2013235443A (en) * 2012-05-09 2013-11-21 Konica Minolta Inc Image forming apparatus, flick operation receiving method, and flick operation receiving program
JP2014021748A (en) * 2012-07-19 2014-02-03 Alpine Electronics Inc Operation input device and on-vehicle equipment using the same
JP2014059863A (en) * 2012-08-23 2014-04-03 Denso Corp Operation device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021153059A1 (en) * 2020-01-29 2021-08-05 アルプスアルパイン株式会社 Electrostatic input device
JP7320082B2 (en) 2020-01-29 2023-08-02 アルプスアルパイン株式会社 electrostatic input device
US11842006B2 (en) 2021-01-22 2023-12-12 Canon Kabushiki Kaisha Information processing apparatus
WO2022185470A1 (en) * 2021-03-04 2022-09-09 三菱電機株式会社 Vehicle operation device and vehicle operation method
US11968338B2 (en) 2021-06-18 2024-04-23 Canon Kabushiki Kaisha Information processing apparatus and method for controlling information processing apparatus

Also Published As

Publication number Publication date
JP6337715B2 (en) 2018-06-06

Similar Documents

Publication Publication Date Title
US8749497B2 (en) Multi-touch shape drawing
TWI427510B (en) Input apparatus, method, and computer-readable program product
WO2010073329A1 (en) Computer program, input device, and input method
US20080150911A1 (en) Hand-held device with touchscreen and digital tactile pixels
JP5705885B2 (en) Input display device
JP6337715B2 (en) Image forming apparatus and program
JP2011134111A (en) Touch panel device, touch panel control method, program, and storage medium
CN103168284A (en) Touch and hover switching
CN102880405A (en) Information processing apparatus, information processing method, program and remote control system
JP2009129443A (en) Input receiving method of touch screen, electronic device with touch screen for implementing the method, and input system of touch screen for implementing the method
CN107533394B (en) Touch screen device, operation method thereof and handheld device
CN103699326A (en) Touch processing method and terminal device
CN103324429A (en) Display control apparatus and control method therefor
JP6142564B2 (en) Information display device and display control program
JP2011070250A (en) Touch operation device
JP5719325B2 (en) Display system, display system control method, control device, control device control method, program, and information storage medium
CN104349000A (en) Numerical value inputting device and electronic equipment
CN104679352B (en) Optical touch device and touch point detection method
WO2010061448A1 (en) Operation input device, information processor, and selected button identification method
JP5958059B2 (en) Flick operation accepting device, flick operation accepting method, and flick operation accepting program
JP6630164B2 (en) Electronic device, control method therefor, program, and storage medium
JP6411067B2 (en) Information processing apparatus and input method
WO2018159414A1 (en) Terminal device and operation control program
JP5827695B2 (en) Information processing apparatus, information processing method, program, and information storage medium
JP2018206072A (en) Display device and display control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170817

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180314

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180423

R150 Certificate of patent or registration of utility model

Ref document number: 6337715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150