JP2019016029A - Information processing device, and control method and program thereof - Google Patents

Information processing device, and control method and program thereof Download PDF

Info

Publication number
JP2019016029A
JP2019016029A JP2017130940A JP2017130940A JP2019016029A JP 2019016029 A JP2019016029 A JP 2019016029A JP 2017130940 A JP2017130940 A JP 2017130940A JP 2017130940 A JP2017130940 A JP 2017130940A JP 2019016029 A JP2019016029 A JP 2019016029A
Authority
JP
Japan
Prior art keywords
series
operations
operation position
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017130940A
Other languages
Japanese (ja)
Inventor
伊藤 光
Hikari Ito
光 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017130940A priority Critical patent/JP2019016029A/en
Publication of JP2019016029A publication Critical patent/JP2019016029A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide a mechanism capable fo appropriately recognizing a tapping operation of a user.SOLUTION: An information processing device recognizes operation of an operation body to a displayed button 701 displayed on an operation plane. The information processing device determines a tap operation in which the operation body approaches to a position closer to the operation plane than a first distance in a height direction and then moves away to a position more distant than a second distance on the basis of a plurality of operation positions P1 to P6 of the operation body, and recognizes the tap operation to the displayed button 701 by the operation body, when a two dimensional operation trajectory on the operation plane determined by the operation positions P1 to P6 of the tapping operation is included in the area of the displayed button 701.SELECTED DRAWING: Figure 7

Description

本発明は、操作面に表示された表示オブジェクトに対する操作体の操作を認識する情報処理装置及びその制御方法、並びに、当該情報処理装置としてコンピュータを機能させるためのプログラムに関するものである。   The present invention relates to an information processing apparatus for recognizing an operation of an operating body on a display object displayed on an operation surface, a control method thereof, and a program for causing a computer to function as the information processing apparatus.

近年、各種のカメラやセンサを使って検出した人の手やペン等の操作体の動きや位置に応じて、ユーザインターフェース(UI)を操作するジェスチャー認識技術を用いた機器操作が広まりつつある。例えば、操作面であるテーブル面に画像やUIを映し、その画像やUIを手やペン等の操作体で触れて操作するテーブルトップインタフェースでは、タッチパネルを用いずに、指先やペン先等の操作体の端部がテーブルにタッチされた状態を検出する手法が使用され始めている。   In recent years, device operation using gesture recognition technology for operating a user interface (UI) in accordance with the movement and position of an operation body such as a human hand or a pen detected using various cameras and sensors is becoming widespread. For example, in a table top interface in which an image or UI is projected on a table surface, which is an operation surface, and the image or UI is touched and operated by an operating body such as a hand or a pen, an operation of a fingertip or a pen tip is performed without using a touch panel. Techniques for detecting the state where the end of the body is touched on the table are beginning to be used.

特許文献1では、ユーザが指先を操作面に接触もしくは近接させ、その後に指先を操作面から遠ざける一連の動作であるタップ操作により、操作面に表示されているUI画面を操作する技術が記載されている。この特許文献1の技術では、タップ操作において、指先の動きが静止したとみなされる位置(指先の動きが一番遅くなる位置)を、タップ操作の操作位置とする。そして、特許文献1では、タップ操作の操作位置を決める理由として、指先が操作面に最も近接する時に指先の動きが一番遅くなると想定している。即ち、特許文献1では、指先が最も操作面に近接する位置により、操作面に表示されているUI画面を操作することができ、ユーザに快適な操作性を提供できることが想定されている。   Patent Document 1 describes a technique for operating a UI screen displayed on an operation surface by a tap operation that is a series of operations in which a user brings a fingertip into contact with or close to the operation surface and then moves the fingertip away from the operation surface. ing. In the technique of this patent document 1, the position at which the fingertip movement is regarded as stationary in the tap operation (the position at which the fingertip movement is slowest) is set as the operation position of the tap operation. In Patent Document 1, it is assumed that the movement of the fingertip is the slowest when the fingertip is closest to the operation surface as a reason for determining the operation position of the tap operation. That is, in Patent Document 1, it is assumed that the UI screen displayed on the operation surface can be operated by the position where the fingertip is closest to the operation surface, and comfortable operability can be provided to the user.

特開2015−43154号公報JP2015-43154A

上述したように、特許文献1では、操作体である手の指先が最も操作面に近接する位置に基づき、操作面に表示されているUI画面を操作(タップ操作)することを想定したものであった。しかしながら、この特許文献1の技術では、操作体である手の指先と操作面との距離を測定する際に測定ノイズの影響を受けて、指先が最も操作面に近接する位置を精度良く測定できない場合があった。そして、この場合、ユーザのタップ操作を適正に認識することが困難となる問題が生じ得る。   As described above, in Patent Document 1, it is assumed that the UI screen displayed on the operation surface is operated (tap operation) based on the position where the fingertip of the hand as the operation body is closest to the operation surface. there were. However, with the technique of Patent Document 1, when measuring the distance between the fingertip of the hand, which is the operating body, and the operation surface, the position where the fingertip is closest to the operation surface cannot be accurately measured due to the influence of measurement noise. There was a case. In this case, there may be a problem that it is difficult to properly recognize the user's tap operation.

本発明は、このような問題点に鑑みてなされたものであり、ユーザのタップ操作を適正に認識し得る仕組みを提供することを目的とする。   The present invention has been made in view of such problems, and an object of the present invention is to provide a mechanism that can properly recognize a user's tap operation.

本発明の情報処理装置は、操作面に表示された表示オブジェクトに対する操作体の操作を認識する情報処理装置であって、前記操作体の操作位置を取得する取得手段と、前記取得手段で取得された複数の前記操作位置に基づいて、前記操作体が前記操作面に対して高さ方向の第1の距離よりも近づいた後に第2の距離よりも遠ざかる一連の操作を判定する判定手段と、前記一連の操作に係る前記複数の操作位置で定まる前記操作面における二次元の操作軌跡が前記表示オブジェクトの領域内に含まれる場合に、前記表示オブジェクトに対する前記操作体の操作を認識する認識手段と、を有する。
また、本発明は、上述した情報処理装置の制御方法、及び、上述した情報処理装置における各手段としてコンピュータを機能させるためのプログラムを含む。
An information processing apparatus according to the present invention is an information processing apparatus that recognizes an operation of an operating body on a display object displayed on an operation surface, and is acquired by an acquisition unit that acquires an operation position of the operating body, and the acquisition unit. Determination means for determining a series of operations that are further away from the second distance after the operation body is closer than the first distance in the height direction to the operation surface based on the plurality of operation positions; Recognizing means for recognizing an operation of the operating body on the display object when a two-dimensional operation trajectory on the operation surface determined by the plurality of operation positions related to the series of operations is included in the area of the display object; Have.
The present invention also includes a method for controlling the information processing apparatus described above and a program for causing a computer to function as each unit in the information processing apparatus described above.

本発明によれば、ユーザのタップ操作を適正に認識することが可能となる。   According to the present invention, it is possible to properly recognize a user's tap operation.

本発明の実施形態に係る情報処理装置を含むテーブルトップインタフェースシステムの概略構成と位置情報の定義の一例を示す図である。It is a figure which shows an example of a schematic structure of a tabletop interface system containing the information processing apparatus which concerns on embodiment of this invention, and a definition of position information. 本発明の実施形態に係る情報処理装置の内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of the information processing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る情報処理装置の制御方法における処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence in the control method of the information processing apparatus which concerns on embodiment of this invention. 図3のステップS307における詳細な処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed process sequence in step S307 of FIG. 図3のステップS308における詳細な処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed process sequence in FIG.3 S308. 図3のステップS309における詳細な処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed process sequence in step S309 of FIG. 本発明の実施形態を示し、図1に示す操作面(xy平面)に投影されたUI画面内の表示ボタン及び当該表示ボタンに対するタップ操作の一例を示す図である。FIG. 4 is a diagram illustrating an example of a display button in a UI screen projected on an operation surface (xy plane) illustrated in FIG. 1 and an example of a tap operation on the display button according to the embodiment of the present invention. 本発明の実施形態を示し、図1に示す操作面から上のz方向の空間における各操作位置の一例を示す図である。FIG. 2 is a diagram illustrating an example of each operation position in a z-direction space above the operation surface illustrated in FIG. 1 according to the embodiment of the present invention.

以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。なお、以下に説明する実施形態は、本発明を実施するための1つの形態を例示したものであり、本発明はこの実施形態に限定されるものではない。   Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings. In addition, embodiment described below illustrates one form for implementing this invention, and this invention is not limited to this embodiment.

図1は、本発明の実施形態に係る情報処理装置110を含むテーブルトップインタフェースシステム100の概略構成と位置情報の定義の一例を示す図である。   FIG. 1 is a diagram illustrating an example of a schematic configuration of a tabletop interface system 100 including an information processing apparatus 110 according to an embodiment of the present invention and definition of position information.

まず、図1(a)について説明する。
図1(a)は、テーブルトップインタフェースシステム100の概略構成の一例を示す図である。テーブルトップインタフェースシステム100は、図1(a)に示すように、情報処理装置110、距離画像センサ120、可視光カメラ130、プロジェクタ140、及び、操作面150を有して構成されている。
First, FIG. 1A will be described.
FIG. 1A is a diagram illustrating an example of a schematic configuration of the table top interface system 100. As shown in FIG. 1A, the table top interface system 100 includes an information processing apparatus 110, a distance image sensor 120, a visible light camera 130, a projector 140, and an operation surface 150.

操作面150は、テーブルトップインタフェースシステム100におけるテーブル面に相当する。ユーザは、手Hの指先で操作面150をタッチすることにより、タッチ操作を入力することが可能である。ただし、本実施形態においては、操作面150にタッチセンサは搭載されていない。そのため、情報処理装置110は、ユーザが操作する指やペン等の操作体が操作面150と実際に接触したかではなく、接触したと見なせる程度に近接した状態をタッチ操作入力中の状態(以下、「タッチ状態」と称する)として検出することにより、操作体による操作を認識するものとする。   The operation surface 150 corresponds to a table surface in the table top interface system 100. The user can input a touch operation by touching the operation surface 150 with the fingertip of the hand H. However, in the present embodiment, no touch sensor is mounted on the operation surface 150. For this reason, the information processing apparatus 110 does not determine whether an operation body such as a finger or a pen operated by the user has actually contacted the operation surface 150, but a state close enough to be regarded as being in contact (hereinafter referred to as a touch operation input state). , Referred to as “touch state”), the operation by the operating body is recognized.

図1(a)に示すテーブルトップインタフェースシステム100では、操作面150の外周部の上方に、操作面150を斜め上方から見下ろすようにして距離画像センサ120が設置されている。ここで、距離画像とは、各画素の値に、当該距離画像を撮像する撮像手段の基準位置(例えばレンズ中心等)から、当該画素に撮像された被写体表面までの距離に対応する情報が反映された画像である。本実施形態において、距離画像センサ120が撮像する距離画像の画素値には、距離画像センサ120から、操作面150或いはその上方に存在する物体表面までの距離が反映される。距離画像センサ120で撮像された距離画像は、情報処理装置110に距離画像として入力される。   In the table top interface system 100 shown in FIG. 1A, the distance image sensor 120 is installed above the outer peripheral portion of the operation surface 150 so that the operation surface 150 is looked down obliquely from above. Here, the distance image reflects information corresponding to the distance from the reference position (for example, the center of the lens) of the imaging unit that captures the distance image to the subject surface captured by the pixel in the value of each pixel. It is an image that was made. In the present embodiment, the pixel value of the distance image captured by the distance image sensor 120 reflects the distance from the distance image sensor 120 to the operation surface 150 or the object surface existing above it. The distance image captured by the distance image sensor 120 is input to the information processing apparatus 110 as a distance image.

なお、本実施形態では、距離画像センサ120として、赤外光の反射時間(または反射パターン)によって距離情報を取得する方式の距離画像センサを利用する。ただし、例えば、ステレオカメラシステムや、赤外光発光素子と赤外受光素子を設置することにより、距離画像を得る構成とすることも可能である。また、操作面150を含む空間において、操作体の高さ方向(z方向)を含む三次元の位置情報が得られる手段であれば、距離画像を撮像する形態に限らず、例えば静電センサや感圧センサや温度センサにより三次元の位置情報を得る形態でも、本発明に適用可能である。なお、操作面150は、タッチパネルディスプレイにより構成されていてもよい。   In the present embodiment, as the distance image sensor 120, a distance image sensor that acquires distance information based on the reflection time (or reflection pattern) of infrared light is used. However, for example, it is possible to obtain a distance image by installing a stereo camera system or an infrared light emitting element and an infrared light receiving element. Further, in the space including the operation surface 150, as long as the three-dimensional position information including the height direction (z direction) of the operation body is obtained, the present invention is not limited to the mode of capturing a distance image, for example, an electrostatic sensor, A form in which three-dimensional position information is obtained by a pressure sensor or a temperature sensor is also applicable to the present invention. Note that the operation surface 150 may be configured by a touch panel display.

情報処理装置110は、本実施形態においては、距離画像センサ120から取得した距離画像を解析することにより、ユーザの手Hや操作面150等の三次元位置を取得し、入力される操作を認識する処理を行う。したがって、ユーザは、操作面150上の空間(操作面150と距離画像センサ120との間の空間)のうち、距離画像センサ120によって撮像可能な範囲において、手H等の操作体を動かすことにより空間ジェスチャー操作を入力することが可能である。また、同様に、ユーザは、手H等の操作体と操作面150との近接状態に基づく操作入力も可能である。   In this embodiment, the information processing apparatus 110 acquires a three-dimensional position of the user's hand H, the operation surface 150, and the like by analyzing the distance image acquired from the distance image sensor 120, and recognizes the input operation. Perform the process. Therefore, the user moves the operating body such as the hand H within the range that can be imaged by the distance image sensor 120 in the space on the operation surface 150 (the space between the operation surface 150 and the distance image sensor 120). It is possible to input a space gesture operation. Similarly, the user can perform an operation input based on the proximity state between the operation body 150 such as the hand H and the operation surface 150.

また、図1(a)に示すテーブルトップインタフェースシステム100では、操作面150を斜め上方から見下ろすようにして可視光カメラ130が設置されている。情報処理装置110は、可視光カメラ130を制御して、操作面150に載置された物体を撮像して、その読み取り画像を得る書画カメラとして機能することができる。したがって、情報処理装置110は、可視光カメラ130によって得られる可視光画像や、距離画像センサ120によって得られる距離画像に基づいて、操作面150上の空間に存在する物体を検出し、さらに識別を行う。ここで、検出される物体には、例えば、ユーザの手、紙媒体や本等のドキュメントや、その他の立体物を含む。ただし、図1(a)に示すテーブルトップインタフェースシステム100の場合、距離画像センサ120と可視光カメラ130の画角には、テーブルの周囲に存在するユーザの頭部は含まれない。そのため、得られた距離画像では、その画像端部がユーザの腕(肩から先の部分)の何処かの一部と交差する。   In the table top interface system 100 shown in FIG. 1A, the visible light camera 130 is installed so that the operation surface 150 is looked down obliquely from above. The information processing apparatus 110 can function as a document camera that controls the visible light camera 130 to capture an image of an object placed on the operation surface 150 and obtain a read image thereof. Therefore, the information processing apparatus 110 detects an object existing in the space on the operation surface 150 based on the visible light image obtained by the visible light camera 130 or the distance image obtained by the distance image sensor 120, and further identifies the object. Do. Here, the detected object includes, for example, a user's hand, a document such as a paper medium or a book, and other three-dimensional objects. However, in the case of the table top interface system 100 shown in FIG. 1A, the angle of view of the distance image sensor 120 and the visible light camera 130 does not include the user's head existing around the table. Therefore, in the obtained distance image, the end of the image intersects some part of the user's arm (portion beyond the shoulder).

また、図1(a)に示すテーブルトップインタフェースシステム100では、操作面150を斜め上方からUI画面152を投影するプロジェクタ140が設置されている。図1(a)に示すテーブルトップインタフェースシステム100では、ユーザは、投影されたUI画面152に含まれる表示オブジェクト(例えば表示ボタン)に対して、タッチや空間ジェスチャーによる操作入力を行う。   Further, in the table top interface system 100 shown in FIG. 1A, a projector 140 that projects the UI screen 152 obliquely from above the operation surface 150 is installed. In the table top interface system 100 illustrated in FIG. 1A, the user performs an operation input by touch or space gesture on a display object (for example, a display button) included in the projected UI screen 152.

上述したように、本実施形態では、手Hの検出及び操作の認識には、距離画像センサ120で取得した距離画像を用いる。この距離画像を用いることで、プロジェクタ140の投影光の影響でユーザの手Hの色が変化しても影響を受け難いという利点がある。テーブルトップインタフェースシステム100の表示装置としては、プロジェクタ140に替えて、操作面150を液晶ディスプレイとする等で構成することもできる。その場合、可視光カメラ130によって得られた可視光画像から肌色領域を検出する等して画像から人の手Hを検出する形態を用いても、投影光の影響は受けずに手Hの検出が可能である。   As described above, in this embodiment, the distance image acquired by the distance image sensor 120 is used for detecting the hand H and recognizing the operation. By using this distance image, there is an advantage that even if the color of the user's hand H changes due to the projection light of the projector 140, the distance image is hardly affected. The display device of the table top interface system 100 may be configured by using the operation surface 150 as a liquid crystal display instead of the projector 140. In this case, even if a form in which a human hand H is detected from an image by detecting a skin color region from a visible light image obtained by the visible light camera 130, the hand H is detected without being affected by the projection light. Is possible.

なお、操作面150を上方から見た画像が得られる構成であれば、必ずしも、距離画像センサ120及び可視光カメラ130自体が上方に設置されている必要はなく、例えば、ミラーを用いて反射光を撮像するように構成してもよい。また、プロジェクタ140も同様に、図1(a)に示す例では、操作面150の斜め上方から見下ろすように操作面150にUI画面152を投影しているが、異なる方向に向けて投影された投影光を、ミラー等を利用して操作面150に反射させてUI画面152を投影してもよい。また、操作面150が壁面やホワイトボードのような鉛直方向に沿った面に設置される場合も、同様である。   Note that the distance image sensor 120 and the visible light camera 130 themselves do not necessarily have to be installed above as long as an image obtained by viewing the operation surface 150 from above is obtained. For example, the reflected light is reflected using a mirror. You may comprise so that it may image. Similarly, in the example shown in FIG. 1A, the projector 140 projects the UI screen 152 onto the operation surface 150 so as to look down from the oblique upper side of the operation surface 150. However, the projector 140 is projected in a different direction. The UI screen 152 may be projected by reflecting the projection light on the operation surface 150 using a mirror or the like. The same applies to the case where the operation surface 150 is installed on a surface along a vertical direction such as a wall surface or a whiteboard.

また、本実施形態では、操作面150上の三次元空間に、図1(a)に示すx軸、y軸及びz軸の座標軸を定義し、原点151を基準とした位置情報を扱うものとする。具体的に、図1(a)に示す例では、操作面150に平行な二次元の面をxy平面とし、操作面150に直交し上方に伸びる方向(法線方向)をz軸の正方向としている。この際、z軸方向は、実世界座標系での高さ方向に相当する。しかしながら、本実施形態は、ホワイトボードや壁面等の水平ではない面を操作面150とするシステムや、操作面150が凹凸を有する場合や、MRを利用して生成された仮想面である場合にも、適用可能である。   Further, in the present embodiment, the coordinate axes of the x axis, the y axis, and the z axis shown in FIG. 1A are defined in the three-dimensional space on the operation surface 150, and position information based on the origin 151 is handled. To do. Specifically, in the example shown in FIG. 1A, a two-dimensional surface parallel to the operation surface 150 is an xy plane, and a direction (normal direction) perpendicular to the operation surface 150 and extending upward is the positive direction of the z axis. It is said. At this time, the z-axis direction corresponds to the height direction in the real world coordinate system. However, in the present embodiment, when a non-horizontal surface such as a whiteboard or a wall surface is used as the operation surface 150, the operation surface 150 is uneven, or a virtual surface generated using MR. Is also applicable.

続いて、図1(b)について説明する。
図1(b)は、図1(a)に示す距離画像センサ120によって撮像される距離画像160の一例を示し、位置情報の定義を説明するための図である。
本実施形態における距離画像160は、受光された反射光の位相遅れを計測することにより、画素毎に、反射するまでにかかった時間に対応する被写体表面までの距離を画素値に反映させたものである。ただし、ここでは、画素値に反映された距離情報は省略し、被写体のエッジのみを明示する。
Subsequently, FIG. 1B will be described.
FIG. 1B shows an example of a distance image 160 captured by the distance image sensor 120 shown in FIG. 1A and is a diagram for explaining the definition of position information.
The distance image 160 in the present embodiment reflects the distance to the subject surface corresponding to the time taken for reflection for each pixel by measuring the phase delay of the received reflected light. It is. However, here, the distance information reflected in the pixel value is omitted, and only the edge of the subject is specified.

上述したように、距離画像センサ120は、操作面150を斜め上方から見下ろすように距離画像160を撮像するため、距離画像160の画素値が表す距離情報は、距離画像センサ120から操作面150を見下ろす方向の奥行き方向の距離である。言い換えれば、距離画像160の各画素値は、操作面150からの高さ方向の位置情報(z座標)を得るための情報を含む。ただし、本実施形態では、距離画像センサ120は、z軸に対して斜めに角度をもつように設置されている。したがって、本実施形態では、距離画像160の画素値をそのままz座標として利用するのではなく、後述するようにセンサや設置環境に応じたパラメータを使った座標変換を施す。   As described above, the distance image sensor 120 captures the distance image 160 so that the operation surface 150 is looked down obliquely from above. Therefore, the distance information represented by the pixel value of the distance image 160 indicates the operation surface 150 from the distance image sensor 120. This is the distance in the depth direction when looking down. In other words, each pixel value of the distance image 160 includes information for obtaining position information (z coordinate) in the height direction from the operation surface 150. However, in the present embodiment, the distance image sensor 120 is installed so as to have an angle with respect to the z-axis. Therefore, in the present embodiment, the pixel value of the distance image 160 is not used as it is as the z coordinate, but is subjected to coordinate conversion using parameters according to the sensor and the installation environment, as will be described later.

図1(b)に示す距離画像160では、図1(a)に示す操作面150及び原点151に対応する箇所を示している。この距離画像160には、図1(b)に示すように、u軸及びv軸による二次元座標系が設定される。また、図1(b)に示す距離画像160において、斜線で示す手領域161は、距離画像160に写っているユーザの手Hの像である。また、画像端163は、距離画像センサ120の画角に相当するものである。また、図1(b)の例では、距離画像160の解像度は、640[dot]×480[dot]であるものとする。また、図1(b)に示す距離画像160では、ユーザの手Hの指先である操作位置162の当該距離画像内の位置座標を(u,v)とし、距離画像センサ120から操作位置162までの距離に相当する画素値をdとする。   In the distance image 160 shown in FIG. 1B, portions corresponding to the operation surface 150 and the origin 151 shown in FIG. In this distance image 160, as shown in FIG. 1B, a two-dimensional coordinate system based on the u axis and the v axis is set. Further, in the distance image 160 shown in FIG. 1B, a hand region 161 indicated by diagonal lines is an image of the user's hand H shown in the distance image 160. The image end 163 corresponds to the angle of view of the distance image sensor 120. In the example of FIG. 1B, it is assumed that the resolution of the distance image 160 is 640 [dot] × 480 [dot]. Further, in the distance image 160 shown in FIG. 1B, the position coordinates in the distance image of the operation position 162 that is the fingertip of the user's hand H is (u, v), and the distance image sensor 120 to the operation position 162. Let d be the pixel value corresponding to the distance.

本実施形態の情報処理装置110は、このように距離画像160内で定義される位置情報に対して、距離画像センサ120のレンズ特性及び操作面150との相対位置関係等に基づく座標変換を施す。これにより、各画素の座標をテーブルに定義された実世界上の座標系にマッピングし、操作位置162について実空間の三次元位置(x,y,z)を取得することができる。この座標変換に利用する変換行列は、例えば、距離画像センサ120が設置された時に、予め調整作業を行って取得する。なお、三次元座標の算出に用いる操作位置162における距離dは、単一の画素値だけでなく、手領域161内で操作位置162の近傍の複数の画素を対象に、平均化処理を実施する。   The information processing apparatus 110 according to the present embodiment performs coordinate conversion on the position information defined in the distance image 160 as described above based on the lens characteristics of the distance image sensor 120 and the relative positional relationship with the operation surface 150. . As a result, the coordinates of each pixel can be mapped to a coordinate system in the real world defined in the table, and the three-dimensional position (x, y, z) in the real space can be acquired for the operation position 162. For example, when the distance image sensor 120 is installed, the transformation matrix used for the coordinate transformation is acquired by performing adjustment work in advance. Note that the distance d at the operation position 162 used for calculating the three-dimensional coordinates is not limited to a single pixel value, but is averaged for a plurality of pixels near the operation position 162 in the hand region 161. .

また、本実施形態の情報処理装置110は、z座標に閾値処理を行うことにより、テーブルの表面である操作面150よりも高い位置に存在する被写体が写る領域を手領域161として検出する。そして、本実施形態の情報処理装置110は、検出される手領域161のそれぞれに対して1箇所の操作位置162を検出する。また、本実施形態において、操作位置162とは、ユーザが指先を使って指し示していると推定される位置の座標である。本実施形態では、前提として、ユーザが操作入力のために点を指定する場合には、1本だけ手Hの指を伸ばした「指さしポーズ」をとることを規定している。これは、1本指を延ばすポーズが、多くの人にとっては1点を指し示すのに自然な体勢と考えられるからである。指差しポーズであれば手Hの端部が操作位置162に相当するため、本実施形態では、手領域161のうちの端部を操作位置162として特定する。具体的に、情報処理装置110は、距離画像160から手領域161を検出し、検出した手領域161のうちの画像端163から最も遠い位置に存在する画素を示す座標を、操作位置162に相当する1点として検出する。なお、操作位置162の特定方法は、これに限定されるものではなく、例えば、手領域161から手Hの五指を検出し、所定の指の端部を特定して操作位置162としてもよい。   In addition, the information processing apparatus 110 according to the present embodiment detects a region in which a subject existing at a position higher than the operation surface 150 that is the surface of the table as a hand region 161 by performing threshold processing on the z coordinate. The information processing apparatus 110 according to the present embodiment detects one operation position 162 for each detected hand region 161. In the present embodiment, the operation position 162 is a coordinate of a position estimated to be pointed by the user using a fingertip. In the present embodiment, as a premise, it is defined that when the user designates a point for operation input, a “pointing pose” in which only one finger of the hand H is extended is taken. This is because the pose of extending one finger is considered to be a natural posture for many people to point to one point. Since the end portion of the hand H corresponds to the operation position 162 in the pointing pose, in the present embodiment, the end portion of the hand region 161 is specified as the operation position 162. Specifically, the information processing apparatus 110 detects the hand region 161 from the distance image 160, and the coordinates indicating the pixel existing at the position farthest from the image end 163 in the detected hand region 161 correspond to the operation position 162. This is detected as one point. Note that the method of specifying the operation position 162 is not limited to this, and for example, the five fingers of the hand H may be detected from the hand region 161 and the end portion of the predetermined finger may be specified as the operation position 162.

また、本実施形態では、フレームレートに従って繰り返し撮像される距離画像160の各フレームにおいて、手領域161が画像端163と交差する部分の中央の位置を、手Hの侵入位置164として定義する。この侵入位置164も、他の位置と同様に、距離画像160内に定義された位置情報を変換することにより、実空間内での三次元位置情報として取得される。また、本実施形態の情報処理装置110は、距離画像160から複数の手領域161が検出された場合、それぞれの手領域161について、操作位置162及び侵入位置164を検出する。そして、本実施形態の情報処理装置110は、複数の手領域161のそれぞれについて操作入力を認識する。   In the present embodiment, the center position of the portion where the hand region 161 intersects the image end 163 in each frame of the distance image 160 repeatedly captured according to the frame rate is defined as the entry position 164 of the hand H. This intrusion position 164 is also acquired as three-dimensional position information in the real space by converting the position information defined in the distance image 160 in the same manner as other positions. In addition, when a plurality of hand regions 161 are detected from the distance image 160, the information processing apparatus 110 according to the present embodiment detects the operation position 162 and the intrusion position 164 for each hand region 161. Then, the information processing apparatus 110 according to the present embodiment recognizes an operation input for each of the plurality of hand regions 161.

以下、本明細書では、ユーザが操作入力に用いる操作体及びその端部の一例として、ユーザの手106及びその指先を適用した場合について説明する。ただし、本実施形態では、操作体として、手指だけではなく、例えばスタイラスやロボットアーム等の器具を利用する場合にも適用可能である。なお、操作体の端部とは、操作入力のために操作位置162を指し示すのに用いられる部位を示すが、操作体の一部に属し、操作入力が可能な部位であれば、突起形状の端部に限定されるものではない。   Hereinafter, in the present specification, a case where the user's hand 106 and its fingertip are applied as an example of the operation body used by the user for operation input and the end thereof will be described. However, in the present embodiment, the present invention can be applied not only to the fingers as the operating body, but also when using an instrument such as a stylus or a robot arm. Note that the end of the operating body refers to a part used to point to the operation position 162 for operation input. However, if the part belongs to a part of the operating body and allows operation input, it has a protruding shape. It is not limited to the end.

次に、情報処理装置110の内部構成について説明する。
図2は、本発明の実施形態に係る情報処理装置110の内部構成の一例を示す図である。図2において、図1に示す構成と同様の構成については同じ符号を付している。
Next, the internal configuration of the information processing apparatus 110 will be described.
FIG. 2 is a diagram illustrating an example of an internal configuration of the information processing apparatus 110 according to the embodiment of the present invention. In FIG. 2, the same components as those shown in FIG.

まず、図2(a)について説明する。
図2(a)は、情報処理装置110の内部のハードウェア構成の一例を示す図である。情報処理装置110は、図2(a)に示すように、中央処理ユニットであるCPU211、ROM212、RAM213、記憶装置214、及び、システムバス215の各ハードウェア構成を有している。
First, FIG. 2A will be described.
FIG. 2A is a diagram illustrating an example of an internal hardware configuration of the information processing apparatus 110. As illustrated in FIG. 2A, the information processing apparatus 110 has hardware configurations of a CPU 211, a ROM 212, a RAM 213, a storage device 214, and a system bus 215 that are central processing units.

CPU211は、RAM213をワークメモリとして、ROM212や記憶装置214に格納されたOSやプログラムを実行して、各種処理の演算や論理判断等を行う。さらに、CPU211は、システムバス215に接続された各構成を制御する。また、CPU211は、各処理の実行結果をRAM213に保持する。   The CPU 211 uses the RAM 213 as a work memory, executes an OS and a program stored in the ROM 212 and the storage device 214, and performs various processing operations and logical determinations. Further, the CPU 211 controls each component connected to the system bus 215. In addition, the CPU 211 holds the execution result of each process in the RAM 213.

記憶装置214は、ハードディスクドライブや各種のインタフェースによって接続された外部記憶装置等であり、本実施形態の操作認識処理に係るプログラムや各種のデータを記憶する。   The storage device 214 is an external storage device or the like connected by a hard disk drive or various interfaces, and stores a program and various data related to the operation recognition process of the present embodiment.

また、距離画像センサ120は、CPU211の制御に従って、アイテム(表示オブジェクト)が表示されるテーブルとアイテムを操作するユーザの手Hを含む、操作面150上の空間の距離画像を撮像し、撮影した距離画像をシステムバス215に出力する。本実施形態では、距離画像の取得方法として、環境光や操作面150の表示の影響が小さい反射時間方式(Time−of−Flight方式)を基に説明を行うが、用途に応じて視差方式や赤外パターン方式等を利用することも可能である。また、プロジェクタ140は、CPU211の制御に従って、操作面150に操作対象となるアイテム(表示オブジェクト)を投影表示する。なお、可視光カメラ130、距離画像センサ120、プロジェクタ140は、それぞれ、情報処理装置110に入出力用のインタフェースを介して接続された外部装置であり、情報処理装置110と協同してテーブルトップインタフェースシステム100を構成する。ただし、これらのデバイスは、情報処理装置110に一体化されていても構わない。なお、距離画像センサ120は、静電センサや感圧センサや温度センサ等でもよく、操作位置162の三次元の位置情報や操作位置162の接触圧力や接触面積等の接触情報を取得する。   In addition, the distance image sensor 120 captures and captures a distance image of the space on the operation surface 150 including the table on which the item (display object) is displayed and the user's hand H that operates the item according to the control of the CPU 211. The distance image is output to the system bus 215. In this embodiment, the distance image acquisition method will be described based on a reflection time method (Time-of-Flight method) that is less affected by ambient light and the display on the operation surface 150. It is also possible to use an infrared pattern method or the like. Further, the projector 140 projects and displays an item (display object) to be operated on the operation surface 150 according to the control of the CPU 211. The visible light camera 130, the distance image sensor 120, and the projector 140 are external devices connected to the information processing apparatus 110 via an input / output interface, respectively. The system 100 is configured. However, these devices may be integrated with the information processing apparatus 110. The distance image sensor 120 may be an electrostatic sensor, a pressure sensor, a temperature sensor, or the like, and acquires three-dimensional position information of the operation position 162 and contact information such as a contact pressure or a contact area of the operation position 162.

続いて、図2(b)について説明する。
図2(b)は、情報処理装置110の内部のソフトウェア構成(機能構成)の一例を示す図である。情報処理装置110は、図2(b)に示すように、距離画像取得部221、操作位置取得部222、操作判定部223、操作軌跡保持部224、認識部225、及び、表示制御部226の各ソフトウェア構成(機能構成)を有している。この図2(b)に示す各構成部221〜226は、図2(a)に示すCPU211が、例えばROM212に格納されたプログラムをRAM213に展開し、当該プログラムを実行することにより実現される。なお、CPU211がプログラムを実行することにより実現される図2(b)に示す各構成部221〜226の代替としてハードウェアを構成する場合には、この図2(b)に示す各構成部221〜226に対応させた演算部や回路を構成すればよい。
Subsequently, FIG. 2B will be described.
FIG. 2B is a diagram illustrating an example of a software configuration (functional configuration) inside the information processing apparatus 110. As illustrated in FIG. 2B, the information processing apparatus 110 includes a distance image acquisition unit 221, an operation position acquisition unit 222, an operation determination unit 223, an operation locus holding unit 224, a recognition unit 225, and a display control unit 226. Each software configuration (functional configuration) is included. Each of the components 221 to 226 shown in FIG. 2B is realized by the CPU 211 shown in FIG. 2A developing, for example, a program stored in the ROM 212 on the RAM 213 and executing the program. When configuring hardware as an alternative to the components 221 to 226 shown in FIG. 2B realized by the CPU 211 executing the program, the components 221 shown in FIG. 2B. A calculation unit or a circuit corresponding to ˜226 may be configured.

距離画像取得部221は、距離画像センサ120によって撮像された距離画像160をフレームレートに従った一定時間毎に距離画像センサ120から取得し、これを保持する。なお、距離画像取得部221が距離画像センサ120から取得する対象は、実際には、距離画像データに対応する信号であるが、本明細書では単に「距離画像を取得する」として説明する。   The distance image acquisition unit 221 acquires the distance image 160 captured by the distance image sensor 120 from the distance image sensor 120 at regular intervals according to the frame rate, and holds this. Note that the object acquired by the distance image acquisition unit 221 from the distance image sensor 120 is actually a signal corresponding to the distance image data, but will be described as simply “acquire a distance image” in this specification.

操作位置取得部222は、距離画像取得部221によって取得された距離画像160の各画素について、距離情報に基づく閾値判定を施し、当該距離画像中の手領域(腕を含む)161を検出する。ここで、手領域161とは、入力された距離画像160のうち、ユーザが操作体として利用する手Hが被写体として写っている画素群である。そして、操作位置取得部222は、検出した手領域161に手IDを付与し、これを保持する。ここで、操作位置取得部222は、異なる距離画像のフレームで検出された手領域が同一の手領域161とみなされた場合には、同じ手IDを付与する。同一の手領域161とみなされる条件としては、時間的に近い距離画像のフレームで検出され、かつ手領域161の侵入位置164の距離が近いことである。一方、操作位置取得部222は、同一の手領域161とみなされない場合には、手領域161が検出された順番に異なる数字を昇順に付与する(手ID=1,2,・・・)。さらに、操作位置取得部222は、検出された手領域161の輪郭情報に基づき、手領域161の端部に当たる1点を操作位置162として検出し取得する。本実施形態では、操作位置取得部222は、手領域161の輪郭のうち、画像端163から最も遠くに存在する画素を示す座標を、操作位置162として検出し取得する。この際、操作位置取得部222は、手領域161と画像端163とが交差する部分の中心を手領域の侵入位置164とし、この侵入位置164から最も遠くに存在する画素を示す座標を、操作位置162として検出し取得する。そして、操作位置取得部222は、検出した操作位置162の距離画像160における位置情報を、実世界におけるxyz座標に変換し、これに手領域161と同じ手IDを付与して保持する。なお、本実施形態においては、静電センサや感圧センサ等により得られた、操作面150に近接する指先位置の三次元の位置情報(座標値)や接触情報(接触圧力や接触面積等)を、操作位置162の位置情報として取得し保持するようにしてもよい。   The operation position acquisition unit 222 performs threshold determination based on distance information for each pixel of the distance image 160 acquired by the distance image acquisition unit 221 and detects a hand region (including an arm) 161 in the distance image. Here, the hand region 161 is a pixel group in which the hand H that the user uses as the operating tool in the input distance image 160 is shown as a subject. And the operation position acquisition part 222 provides hand ID to the detected hand area | region 161, and hold | maintains this. Here, the operation position acquisition unit 222 assigns the same hand ID when the hand regions detected in the frames of different distance images are regarded as the same hand region 161. A condition that is regarded as the same hand region 161 is that it is detected in a frame of a distance image that is close in time and that the intrusion position 164 of the hand region 161 is short. On the other hand, if the operation position acquisition unit 222 is not regarded as the same hand region 161, the operation position acquisition unit 222 assigns different numbers in ascending order to the order in which the hand region 161 is detected (hand ID = 1, 2,...). Further, the operation position acquisition unit 222 detects and acquires one point corresponding to the end of the hand region 161 as the operation position 162 based on the detected contour information of the hand region 161. In the present embodiment, the operation position acquisition unit 222 detects and acquires, as the operation position 162, coordinates indicating a pixel that is farthest from the image end 163 in the contour of the hand region 161. At this time, the operation position acquisition unit 222 sets the center of the portion where the hand region 161 and the image edge 163 intersect as the intrusion position 164 of the hand region, and operates the coordinates indicating the pixel existing farthest from the intrusion position 164. The position 162 is detected and acquired. Then, the operation position acquisition unit 222 converts the position information of the detected operation position 162 in the distance image 160 into xyz coordinates in the real world, and assigns and holds the same hand ID as the hand region 161. In the present embodiment, three-dimensional position information (coordinate values) and contact information (contact pressure, contact area, etc.) of the fingertip position close to the operation surface 150 obtained by an electrostatic sensor, a pressure sensor, or the like. May be acquired and held as position information of the operation position 162.

操作判定部223は、操作位置取得部222により取得された操作位置162の、操作面150に対する近接の度合い(高さ方向であるz方向の近接度合い)に応じて、操作位置162がタッチ状態であるか否かを判定し、その判定結果を保持する。例えば、操作位置162と操作面150との間の距離(高さに相当するz座標)が所定の閾値(第1の距離)よりも小さい場合には、タッチ入力中であるタッチ状態であると判定する。そして、操作判定部223は、タッチ状態の操作位置162により指示された操作面150の位置を追跡することにより、タッチ、リリース、ムーブ、フリック、ピンチ、ローテート等のタッチ操作を判定する。なお、操作位置162により指示された操作面150上の位置としては、操作位置162に基づく操作面150に平行な二次元の位置情報(xy座標)とする。   The operation determination unit 223 determines that the operation position 162 is in a touch state in accordance with the degree of proximity of the operation position 162 acquired by the operation position acquisition unit 222 to the operation surface 150 (the degree of proximity in the z direction that is the height direction). It is determined whether or not there is, and the determination result is held. For example, when the distance (z coordinate corresponding to the height) between the operation position 162 and the operation surface 150 is smaller than a predetermined threshold (first distance), it is assumed that the touch state is a touch input. judge. Then, the operation determination unit 223 determines a touch operation such as touch, release, move, flick, pinch, and rotate by tracking the position of the operation surface 150 indicated by the operation position 162 in the touch state. The position on the operation surface 150 instructed by the operation position 162 is two-dimensional position information (xy coordinates) parallel to the operation surface 150 based on the operation position 162.

操作軌跡保持部224は、操作判定部223により判定された、タッチ状態の開始から終了までの操作位置162の位置情報やその取得時刻を、タッチ操作の操作軌跡として保持する。具体的に、本実施形態においては、操作軌跡保持部224は、タッチ操作の操作軌跡として、操作体である手Hの指先が操作面150に対して高さ方向の第1の距離よりも近づいた後に第2の距離よりも遠ざかる一連の操作であるタップ操作の操作軌跡を保持する。また、操作軌跡保持部224に保持されるタップ操作の操作軌跡は、タップ操作に係る複数の操作位置162で定まる操作面150における二次元の操作軌跡である。   The operation locus holding unit 224 holds the position information and the acquisition time of the operation position 162 from the start to the end of the touch state determined by the operation determination unit 223 as the operation locus of the touch operation. Specifically, in the present embodiment, the operation trajectory holding unit 224 indicates that the fingertip of the hand H, which is the operating body, is closer to the operation surface 150 than the first distance in the height direction as the operation trajectory of the touch operation. After that, the operation locus of the tap operation, which is a series of operations away from the second distance, is held. In addition, the operation locus of the tap operation held in the operation locus holding unit 224 is a two-dimensional operation locus on the operation surface 150 determined by the plurality of operation positions 162 related to the tap operation.

認識部225は、操作軌跡保持部224で保持したタッチ操作の操作軌跡と、操作面150に投影されたUI画面152内の表示ボタン等の表示オブジェクトとの位置関係に応じて、当該表示オブジェクトに対する操作体である手Hの指先の操作を認識する。具体的に、本実施形態においては、認識部225は、操作軌跡保持部224で保持したタップ操作の操作軌跡が操作面150に投影された表示ボタン等の表示オブジェクトの領域内に含まれる場合に、当該表示オブジェクトに対する操作体である手Hの指先の操作を認識する。   The recognizing unit 225 performs the operation on the display object according to the positional relationship between the operation locus of the touch operation held by the operation locus holding unit 224 and the display object such as the display button in the UI screen 152 projected on the operation surface 150. It recognizes the operation of the fingertip of the hand H, which is the operating body. Specifically, in the present embodiment, the recognizing unit 225 determines that the operation locus of the tap operation held by the operation locus holding unit 224 is included in the area of a display object such as a display button projected on the operation surface 150. Then, the operation of the fingertip of the hand H, which is the operation body for the display object, is recognized.

表示制御部226は、認識部225から通知されるタッチ操作の認識結果(タッチイベント等)を反映した描画データを生成し、これをプロジェクタ140に出力することにより、操作面150に表示するUI画面152を表示制御する。この際、ユーザによるタッチ操作は、操作位置162や操作位置162の動き等によって定義され、情報処理装置110に対して何らかの指示を入力することができるものである。   The display control unit 226 generates drawing data reflecting the recognition result (touch event or the like) of the touch operation notified from the recognition unit 225, and outputs the data to the projector 140, thereby displaying the UI screen on the operation surface 150. The display is controlled. At this time, the touch operation by the user is defined by the operation position 162, the movement of the operation position 162, and the like, and any instruction can be input to the information processing apparatus 110.

図3は、本発明の実施形態に係る情報処理装置110の制御方法における処理手順の一例を示すフローチャートである。以下、フローチャートは、CPU211が制御プログラムを実行することにより実現されるものとする。   FIG. 3 is a flowchart illustrating an example of a processing procedure in the control method of the information processing apparatus 110 according to the embodiment of the present invention. Hereinafter, the flowchart is realized by the CPU 211 executing a control program.

情報処理装置110の電源がオンになると、まず、図3のステップS301において、表示制御部226は、例えば記憶装置214から取得したデータに基づいて、表示ボタン等の表示オブジェクトを含むUI画面152を生成し、プロジェクタ140に出力する。プロジェクタ140は、表示制御部226の制御に基づいて、取得したUI画面152を操作面150に投影する。   When the power of the information processing apparatus 110 is turned on, first, in step S301 of FIG. 3, the display control unit 226 displays the UI screen 152 including display objects such as display buttons based on data acquired from the storage device 214, for example. It is generated and output to the projector 140. The projector 140 projects the acquired UI screen 152 on the operation surface 150 based on the control of the display control unit 226.

続いて、ステップS302において、距離画像取得部221は、距離画像センサ120から距離画像を取得する。なお、距離画像センサ120は、情報処理装置110の電源がオンになっている間、操作面150と距離画像センサ120との間の空間における距離画像160を所定の時間間隔で撮像する。   Subsequently, in step S <b> 302, the distance image acquisition unit 221 acquires a distance image from the distance image sensor 120. The distance image sensor 120 captures a distance image 160 in a space between the operation surface 150 and the distance image sensor 120 at a predetermined time interval while the information processing apparatus 110 is turned on.

続いて、ステップS303において、操作位置取得部222は、ステップS302で取得された距離画像に対してユーザの手領域(腕を含む)161の検出処理を行い、手領域161が検出できたか否かを判断する。このステップS303において、操作位置取得部222が、手領域161を検出できなかったと判断した場合には(S303/No)、ステップS302に戻り、ステップS302以降の処理を再度行う。   Subsequently, in step S303, the operation position acquisition unit 222 performs detection processing of the user's hand region (including arms) 161 on the distance image acquired in step S302, and determines whether or not the hand region 161 has been detected. Judging. In this step S303, when the operation position acquisition unit 222 determines that the hand region 161 has not been detected (S303 / No), the process returns to step S302, and the processes after step S302 are performed again.

一方、ステップS303において、操作位置取得部222が、手領域161を検出できたと判断した場合には(S303/Yes)、ステップS304に進む。
ステップS304に進むと、操作位置取得部222は、ステップS303で検出した手領域161に手IDを付与し、これを保持する。ここで、例えば、異なる手領域161については、手IDとして、検出した順番に異なる数字を昇順に付与する(手ID=1,2,・・・)。
On the other hand, when the operation position acquisition unit 222 determines in step S303 that the hand region 161 has been detected (S303 / Yes), the process proceeds to step S304.
In step S304, the operation position acquisition unit 222 assigns a hand ID to the hand region 161 detected in step S303 and holds it. Here, for example, for different hand regions 161, different numbers are assigned to the detected order in ascending order as hand IDs (hand ID = 1, 2,...).

続いて、ステップS305において、操作位置取得部222は、ステップS303で検出した手領域161の距離画像における操作位置(指先位置)162を取得する。そして、操作位置取得部222は、ここで取得した操作位置162に、当該操作位置162を含む手領域161と同じ手IDを付与して、これを保持する。さらに、操作位置取得部222は、操作位置162が取得された距離画像160が取得(または撮像)された時刻を、操作位置162が取得された時刻として保持する。   Subsequently, in step S305, the operation position acquisition unit 222 acquires the operation position (fingertip position) 162 in the distance image of the hand region 161 detected in step S303. Then, the operation position acquisition unit 222 assigns the same hand ID as the hand region 161 including the operation position 162 to the operation position 162 acquired here, and holds this. Furthermore, the operation position acquisition unit 222 holds the time when the distance image 160 from which the operation position 162 is acquired is acquired (or captured) as the time at which the operation position 162 is acquired.

続いて、ステップS306において、操作位置取得部222は、ステップS305で取得した操作位置162の実世界座標における位置情報を、実世界における操作位置162として取得する。   Subsequently, in step S306, the operation position acquisition unit 222 acquires the position information in the real world coordinates of the operation position 162 acquired in step S305 as the operation position 162 in the real world.

続いて、ステップS307において、操作判定部223は、ステップS305で取得された操作位置162に基づきステップS306で取得された操作位置162に基づいて、タッチ状態の判定を行う。そして、操作軌跡保持部224は、タッチ操作の開始から終了までの、ステップS306で取得された操作位置162の位置情報やその取得時刻を、タッチ操作の操作軌跡として取得する。より具体的に、本実施形態においては、操作軌跡保持部224は、タッチ操作の操作軌跡として、操作体である手Hの指先が操作面150に対して第1の距離よりも近づいた後に第2の距離よりも遠ざかる一連の操作であるタップ操作の操作軌跡を保持する。このステップS307の詳細な処理手順については、図4を用いて後述する。   Subsequently, in step S307, the operation determination unit 223 determines the touch state based on the operation position 162 acquired in step S306 based on the operation position 162 acquired in step S305. Then, the operation track holding unit 224 acquires the position information and the acquisition time of the operation position 162 acquired in step S306 from the start to the end of the touch operation as the operation track of the touch operation. More specifically, in the present embodiment, the operation trajectory holding unit 224 determines the touch trajectory as the operation trajectory after the fingertip of the hand H, which is the operating body, approaches the operation surface 150 from the first distance. The operation locus of the tap operation that is a series of operations away from the distance of 2 is held. The detailed processing procedure of step S307 will be described later with reference to FIG.

続いて、ステップS308において、操作判定部223は、ステップS305で取得された操作位置162に基づきステップS306で取得された操作位置162に基づいて、タッチ操作の判定を行う。このステップS308の詳細な処理手順については、図5を用いて後述する。   Subsequently, in step S308, the operation determination unit 223 determines the touch operation based on the operation position 162 acquired in step S306 based on the operation position 162 acquired in step S305. The detailed processing procedure of step S308 will be described later with reference to FIG.

続いて、ステップS309において、認識部225は、ステップS308でのタッチ操作の判定結果に基づき、ステップS307で保持された操作軌跡と、ステップS301で投影されたUI画面152内の表示オブジェクトである表示ボタンとの位置関係に応じて、表示ボタンの操作を判定する。このステップS309の詳細な処理手順については、図6を用いて後述する。   Subsequently, in step S309, the recognizing unit 225 displays the operation locus held in step S307 and the display object in the UI screen 152 projected in step S301 based on the determination result of the touch operation in step S308. The operation of the display button is determined according to the positional relationship with the button. The detailed processing procedure of step S309 will be described later with reference to FIG.

続いて、ステップS310において、表示制御部226は、ステップS309での表示ボタン操作の判定結果に応じて、現在表示されているUI画面152の表示を更新する制御を行う。具体的に、表示制御部226は、ステップS309で表示ボタンが操作されたと判定(認識)した場合には、当該表示ボタンの表示を、当該認識する前の表示状態から変更する制御を行う。例えば、表示制御部226は、ステップS309で表示ボタンが操作されたと判定(認識)した場合には、当該表示ボタンの枠の線を太くし点滅するように表示を更新制御し得る(例えば、図7(a)の701,図7(b)の702,図7(c)の704)。なお、表示ボタンの表示の更新は、色や明るさを変えることや、表示を消す等であってもよい。   Subsequently, in step S310, the display control unit 226 performs control to update the display of the UI screen 152 currently displayed according to the determination result of the display button operation in step S309. Specifically, when the display control unit 226 determines (recognizes) that the display button has been operated in step S309, the display control unit 226 performs control to change the display of the display button from the display state before the recognition. For example, when the display control unit 226 determines (recognizes) that the display button has been operated in step S309, the display control unit 226 can update the display so that the line of the frame of the display button becomes thick and blinks (for example, FIG. 7 (a) 701, FIG. 7 (b) 702, FIG. 7 (c) 704). The display button display may be updated by changing the color or brightness, turning off the display, or the like.

続いて、ステップS311において、情報処理装置110は、電源がオフにされたか否かを判断する。このステップS311において、情報処理装置110が、電源がオフにされていないと判断した場合には(S311/No)、ステップS302に戻り、ステップS302以降の処理を再度行う。   Subsequently, in step S311, the information processing apparatus 110 determines whether or not the power is turned off. In this step S311, when the information processing apparatus 110 determines that the power is not turned off (S311 / No), the process returns to step S302, and the processes after step S302 are performed again.

一方、ステップS311において、情報処理装置110が、電源がオフにされたと判断した場合には(S311/Yes)、図3に示すフローチャートの処理を終了する。   On the other hand, when the information processing apparatus 110 determines in step S311 that the power has been turned off (S311 / Yes), the process of the flowchart illustrated in FIG. 3 ends.

図4は、図3のステップS307における詳細な処理手順の一例を示すフローチャートである。   FIG. 4 is a flowchart showing an example of a detailed processing procedure in step S307 of FIG.

まず、図4のステップS401において、操作判定部223は、ステップS305で取得された操作位置162に基づきステップS306で取得された操作位置162が、第1の距離に相当するタッチ閾値(図8に示す801)以下であるか否かを判断する。   First, in step S401 in FIG. 4, the operation determination unit 223 determines that the operation position 162 acquired in step S306 is based on the operation position 162 acquired in step S305 and the touch threshold value corresponding to the first distance (FIG. 8). 801) It is determined whether or not.

ステップS401において、操作判定部223が、操作位置162がタッチ閾値以下であると判断した場合には(S401/Yes)、ステップS402に進む。
ステップS402に進むと、操作判定部223は、1つ前の操作位置162がタッチ状態であるか否かを判断する。なお、ステップS401における判断対象の操作位置162が最初の操作位置162である場合には、ステップS402ではタッチ状態でない(即ち、リリース状態である)と判断される。
If the operation determination unit 223 determines in step S401 that the operation position 162 is equal to or smaller than the touch threshold (S401 / Yes), the process proceeds to step S402.
In step S402, the operation determination unit 223 determines whether or not the previous operation position 162 is in a touch state. If the operation position 162 to be determined in step S401 is the first operation position 162, it is determined in step S402 that it is not in the touch state (that is, in the release state).

ステップS402において、操作判定部223が、1つ前の操作位置162がタッチ状態であると判断した場合には(S402/Yes)、ステップS403に進む。
ステップS403に進むと、操作判定部223(或いは操作軌跡保持部224)は、ステップS401における判断対象の操作位置162がタッチ状態であることを保持する。
In step S402, when the operation determination unit 223 determines that the previous operation position 162 is in a touch state (S402 / Yes), the process proceeds to step S403.
In step S403, the operation determination unit 223 (or operation locus holding unit 224) holds that the operation position 162 to be determined in step S401 is in a touch state.

続いて、ステップS404において、操作軌跡保持部224は、テップS401における判断対象の操作位置162に係る情報を、タッチ操作(より具体的には、タップ操作)の操作軌跡における操作位置に係る情報として継続して保持する。そして、このステップS404の処理が終了すると、図4に示すフローチャートの処理を終了し、図3のステップS308に進む。   Subsequently, in step S404, the operation track holding unit 224 uses the information related to the operation position 162 to be determined in step S401 as information related to the operation position in the operation track of the touch operation (more specifically, the tap operation). Keep holding. When the process of step S404 is completed, the process of the flowchart shown in FIG. 4 is terminated, and the process proceeds to step S308 of FIG.

また、ステップS402において、操作判定部223が、1つ前の操作位置162がタッチ状態でない(即ち、リリース状態である)と判断した場合には(S402/No)、ステップS405に進む。
ステップS405に進むと、操作判定部223(或いは操作軌跡保持部224)は、ステップS401における判断対象の操作位置162がタッチ状態であることを保持する。さらに、操作判定部223(或いは操作軌跡保持部224)は、ステップS401における判断対象の操作位置162が最初の操作位置162である場合には、1つ前の操作位置がリリース状態であることを保持する。これにより、処理がリリース状態からタッチ状態に切り替わる。
If the operation determination unit 223 determines in step S402 that the previous operation position 162 is not in the touched state (that is, in the released state) (S402 / No), the process proceeds to step S405.
In step S405, the operation determination unit 223 (or operation locus holding unit 224) holds that the operation position 162 to be determined in step S401 is in a touch state. Further, the operation determination unit 223 (or the operation locus holding unit 224) determines that the previous operation position is in the released state when the operation position 162 to be determined in step S401 is the first operation position 162. Hold. Thereby, a process switches from a release state to a touch state.

続いて、ステップS406において、操作軌跡保持部224は、ステップS401における判断対象の操作位置162に係る情報を、タッチ操作(より具体的には、タップ操作)の操作軌跡における開始の操作位置に係る情報として保持する。そして、このステップS406の処理が終了すると、図4に示すフローチャートの処理を終了し、図3のステップS308に進む。   Subsequently, in step S406, the operation locus holding unit 224 relates the information related to the operation position 162 to be determined in step S401 to the start operation position in the operation locus of the touch operation (more specifically, the tap operation). Hold as information. When the process of step S406 is completed, the process of the flowchart shown in FIG. 4 is ended, and the process proceeds to step S308 of FIG.

また、ステップS401において、操作判定部223が、操作位置162がタッチ閾値以下でないと判断した場合には(S401/No)、ステップS407に進む。
ステップS407に進むと、操作判定部223は、1つ前の操作位置162がタッチ状態であるか否かを判断する。このステップS407において、操作判定部223が、1つ前の操作位置162がタッチ状態でない(即ち、リリース状態である)と判断した場合には(S407/No)、図4に示すフローチャートの処理を終了し、図3のステップS308に進む。
If the operation determination unit 223 determines in step S401 that the operation position 162 is not less than or equal to the touch threshold (S401 / No), the process proceeds to step S407.
In step S407, the operation determination unit 223 determines whether or not the previous operation position 162 is in a touch state. In this step S407, when the operation determination unit 223 determines that the previous operation position 162 is not in the touched state (that is, in the released state) (S407 / No), the processing of the flowchart shown in FIG. The process ends, and the process proceeds to step S308 in FIG.

一方、ステップS407において、操作判定部223が、1つ前の操作位置162がタッチ状態であると判断した場合には(S407/Yes)、ステップS408に進む。
ステップS408に進むと、操作判定部223は、ステップS305で取得された操作位置162に基づきステップS306で取得された操作位置162が、第2の距離に相当するリリース閾値(図8に示す802)以上であるか否かを判断する。
On the other hand, when the operation determination unit 223 determines in step S407 that the previous operation position 162 is in a touch state (S407 / Yes), the process proceeds to step S408.
In step S408, the operation determination unit 223 determines that the operation position 162 acquired in step S306 based on the operation position 162 acquired in step S305 is a release threshold (802 shown in FIG. 8) corresponding to the second distance. It is determined whether this is the case.

ステップS408において、操作判定部223が、操作位置162がリリース閾値以上であると判断した場合には(S408/Yes)、ステップS409に進む。
ステップS409に進むと、操作判定部223(或いは操作軌跡保持部224)は、ステップS401における判断対象の操作位置162がリリース状態であることを保持する。これにより、処理がタッチ状態からリリース状態に切り替わる。
In step S408, if the operation determination unit 223 determines that the operation position 162 is equal to or greater than the release threshold (S408 / Yes), the process proceeds to step S409.
In step S409, the operation determination unit 223 (or operation locus holding unit 224) holds that the operation position 162 to be determined in step S401 is in the released state. Thereby, a process switches from a touch state to a release state.

続いて、ステップS410において、操作軌跡保持部224は、テップS401における判断対象の操作位置162に係る情報を、タッチ操作(より具体的には、タップ操作)の操作軌跡における終了(最後)の操作位置に係る情報として保持する。その後、操作軌跡保持部224は、操作軌跡における操作位置に係る情報の保持を終了する。そして、このステップS406の処理が終了すると、図4に示すフローチャートの処理を終了し、図3のステップS308に進む。   Subsequently, in step S410, the operation locus holding unit 224 uses the information related to the operation position 162 to be determined in step S401 as the end (last) operation in the operation locus of the touch operation (more specifically, the tap operation). Stored as information related to the position. Thereafter, the operation trajectory holding unit 224 ends the holding of information related to the operation position in the operation trajectory. When the process of step S406 is completed, the process of the flowchart shown in FIG. 4 is ended, and the process proceeds to step S308 of FIG.

ステップS408において、操作判定部223が、操作位置162がリリース閾値以上でないと判断した場合には(S408/No)、ステップS411に進む。
ステップS411に進むと、操作判定部223(或いは操作軌跡保持部224)は、ステップS401における判断対象の操作位置162がタッチ状態であることを保持する。
If the operation determination unit 223 determines in step S408 that the operation position 162 is not equal to or greater than the release threshold (No in S408), the process proceeds to step S411.
In step S411, the operation determination unit 223 (or operation locus holding unit 224) holds that the operation position 162 to be determined in step S401 is in a touch state.

続いて、ステップS412において、操作軌跡保持部224は、テップS401における判断対象の操作位置162に係る情報を、タッチ操作(より具体的には、タップ操作)の操作軌跡における操作位置に係る情報として継続して保持する。そして、このステップS412の処理が終了すると、図4に示すフローチャートの処理を終了し、図3のステップS308に進む。   Subsequently, in step S412, the operation locus holding unit 224 uses the information related to the operation position 162 to be determined in step S401 as information related to the operation position in the operation locus of the touch operation (more specifically, the tap operation). Keep holding. Then, when the process of step S412 is finished, the process of the flowchart shown in FIG. 4 is finished, and the process proceeds to step S308 of FIG.

図5は、図3のステップS308における詳細な処理手順の一例を示すフローチャートである。   FIG. 5 is a flowchart showing an example of a detailed processing procedure in step S308 of FIG.

まず、図5のステップS501において、操作判定部223は、ステップS307で保持したタッチ状態を参照し、現在の操作位置162がタッチ状態で、かつ1つ前の操作位置162がリリース状態であるか否かを判断する。   First, in step S501 in FIG. 5, the operation determination unit 223 refers to the touch state held in step S307, and determines whether the current operation position 162 is in the touch state and the previous operation position 162 is in the release state. Judge whether or not.

ステップS501において、操作判定部223が、現在の操作位置162がタッチ状態で、かつ1つ前の操作位置162がリリース状態である場合には(S501/Yes)、ステップS502に進む。
ステップS502に進むと、操作判定部223は、認識部225に対してタッチイベントを通知する。そして、このステップS502の処理が終了すると、図5に示すフローチャートの処理を終了し、図3のステップS309に進む。
In step S501, if the current operation position 162 is in the touch state and the previous operation position 162 is in the release state (S501 / Yes), the operation determination unit 223 proceeds to step S502.
In step S502, the operation determination unit 223 notifies the recognition unit 225 of a touch event. When the process of step S502 is completed, the process of the flowchart shown in FIG. 5 is terminated, and the process proceeds to step S309 of FIG.

一方、ステップS501において、操作判定部223が、少なくとも現在の操作位置162がタッチ状態でないか或いは1つ前の操作位置162がリリース状態でない場合には(S501/No)、ステップS503に進む。
ステップS503に進むと、操作判定部223は、ステップS307で保持したタッチ状態を参照し、現在の操作位置162がリリース状態で、かつ1つ前の操作位置162がタッチ状態であるか否かを判断する。このステップS503において、操作判定部223が、少なくとも現在の操作位置162がリリース状態でないか或いは1つ前の操作位置162がタッチ状態でない場合には(S503/No)、図5に示すフローチャートの処理を終了し、図3のステップS309に進む。
On the other hand, in step S501, if at least the current operation position 162 is not in the touched state or the previous operation position 162 is not in the released state (S501 / No), the operation determining unit 223 proceeds to step S503.
In step S503, the operation determination unit 223 refers to the touch state held in step S307 and determines whether or not the current operation position 162 is in the release state and the previous operation position 162 is in the touch state. to decide. In this step S503, when the operation determination unit 223 is at least the current operation position 162 is not in the release state or the previous operation position 162 is not in the touch state (S503 / No), the processing of the flowchart shown in FIG. And the process proceeds to step S309 in FIG.

一方、ステップS503において、現在の操作位置162がリリース状態で、かつ1つ前の操作位置162がタッチ状態である場合には、ステップS504に進む。
ステップS504に進むと、操作判定部223は、認識部225に対してリリースイベントを通知する。
On the other hand, in step S503, if the current operation position 162 is in the released state and the previous operation position 162 is in the touch state, the process proceeds to step S504.
In step S504, the operation determination unit 223 notifies the recognition unit 225 of a release event.

続いて、ステップS505において、操作判定部223は、操作体である手Hの指先が操作面150に対して第1の距離に相当するタッチ閾値よりも近づいた後に、第2の距離に相当するリリース閾値よりも遠ざかる一連の操作であるタップ操作の判定を行う。なお、ここでは、タップ操作の判定基準として、操作体である手Hの指先の、操作面150に対する距離を判定基準とする例を示したが、本実施形態においてはこれに限定されるものではなく、更なる判定基準を設けるようにしてもよい。例えば、最初にタッチ閾値よりも近づいた操作位置162と、最初にリリース閾値よりも遠ざかった操作位置162との操作面150における距離が、所定の閾値以下である条件を上述したタップ操作の判定基準に含める態様も、本実施形態に適用可能である。また、最初にタッチ閾値よりも近づいた操作位置162における時刻から、最初にリリース閾値よりも遠ざかった操作位置162における時刻までの時間が、所定の閾値以下である条件を上述したタップ操作の判定基準に含める態様も、本実施形態に適用可能である。その後、操作判定部223は、認識部225に対して、当該タップ操作に係るタップイベントとタップ操作位置を通知する。このステップS505の処理が終了すると、図5に示すフローチャートの処理を終了し、図3のステップS309に進む。   Subsequently, in step S505, the operation determination unit 223 corresponds to the second distance after the fingertip of the hand H, which is the operation body, approaches the operation surface 150 from a touch threshold corresponding to the first distance. The tap operation, which is a series of operations away from the release threshold, is determined. In addition, although the example which uses the distance with respect to the operation surface 150 of the fingertip of the hand H, which is the operation body, as the determination criterion is shown here as the determination criterion for the tap operation, in the present embodiment, it is not limited to this. There may be provided a further criterion. For example, the criterion for determining the tap operation described above is that the distance on the operation surface 150 between the operation position 162 that first approaches the touch threshold and the operation position 162 that first approaches the release threshold is equal to or less than a predetermined threshold. The aspects included in the above are also applicable to this embodiment. Further, the above-described criterion for determining the tap operation is a condition in which the time from the time at the operation position 162 that first approaches the touch threshold to the time at the operation position 162 that is first far from the release threshold is equal to or less than a predetermined threshold. The aspects included in the above are also applicable to this embodiment. Thereafter, the operation determination unit 223 notifies the recognition unit 225 of the tap event related to the tap operation and the tap operation position. When the process of step S505 ends, the process of the flowchart shown in FIG. 5 ends, and the process proceeds to step S309 of FIG.

図6は、図3のステップS309における詳細な処理手順の一例を示すフローチャートである。   FIG. 6 is a flowchart showing an example of a detailed processing procedure in step S309 of FIG.

まず、図6のステップS601において、認識部225は、ステップS308のタッチ操作の判定処理において、ステップS505のタップ操作の判定がなされたか否かを判断する。   First, in step S601 in FIG. 6, the recognition unit 225 determines whether or not the tap operation determination in step S505 has been made in the touch operation determination processing in step S308.

ステップS601において、認識部225が、ステップS308のタッチ操作の判定処理においてタップ操作の判定がなされたと判断した場合には(S601/Yes)、ステップS602に進む。
ステップS602に進むと、認識部225は、タップ操作の操作軌跡と、ステップS301で投影されたUI画面152内の表示ボタン領域とが重畳(タップ操作の操作軌跡が表示ボタン領域内に重畳)しているか否かを判断する。ここで、表示ボタン領域とは、表示ボタンと関連付けられている領域であり、本実施形態では、操作面150に投影されたUI画面152に表示された表示ボタンの領域とする。なお、ここでの表示ボタン領域として、操作面150に投影されたUI画面152に実際に表示された表示ボタンの領域よりも大きい領域または小さい領域を設定してもよい。
If the recognition unit 225 determines in step S601 that the tap operation has been determined in the touch operation determination process in step S308 (S601 / Yes), the process proceeds to step S602.
When the processing proceeds to step S602, the recognition unit 225 superimposes the operation locus of the tap operation and the display button area in the UI screen 152 projected in step S301 (the operation locus of the tap operation is superimposed on the display button area). Judge whether or not. Here, the display button area is an area associated with the display button, and in this embodiment, is a display button area displayed on the UI screen 152 projected on the operation surface 150. As the display button area here, an area larger or smaller than the area of the display button actually displayed on the UI screen 152 projected on the operation surface 150 may be set.

ステップS602において、認識部225が、タップ操作の操作軌跡と、ステップS301で投影されたUI画面152内の表示ボタン領域とが重畳していると判断した場合には(S602/Yes)、ステップS603に進む。
ステップS603に進むと、認識部225は、ステップS602で重畳していると判断した表示ボタンの操作を認識(検出)する。
If the recognition unit 225 determines in step S602 that the operation locus of the tap operation and the display button area in the UI screen 152 projected in step S301 are superimposed (S602 / Yes), step S603 is performed. Proceed to
In step S603, the recognizing unit 225 recognizes (detects) the operation of the display button determined to be superimposed in step S602.

そして、ステップS603の処理が終了した場合、ステップS601において認識部225がタップ操作の判定がなされなかったと判断した場合(S601/No)、或いは、ステップS602において認識部225がタップ操作の操作軌跡と表示ボタン領域とが重畳していないと判断した場合には(S602/No)、図6に示すフローチャートの処理を終了し、図3のステップS310に進む。   Then, when the process of step S603 is completed, when the recognition unit 225 determines in step S601 that the tap operation has not been determined (S601 / No), or in step S602, the recognition unit 225 determines the operation history of the tap operation. If it is determined that the display button area is not superimposed (S602 / No), the process of the flowchart shown in FIG. 6 is terminated, and the process proceeds to step S310 in FIG.

次に、図7及び図8を参照して、ユーザの手Hの指先による操作入力がなされた場合の情報処理装置110の処理について説明する。   Next, processing of the information processing apparatus 110 when an operation input is performed with the fingertip of the user's hand H will be described with reference to FIGS. 7 and 8.

図7は、本発明の実施形態を示し、図1に示す操作面150(xy平面)に投影されたUI画面152内の表示ボタン及び当該表示ボタンに対するタップ操作の一例を示す図である。具体的に、図7(a)は、表示ボタン及び当該表示ボタンに対するタップ操作の第1例を示す図である。また、図7(b)は、表示ボタン及び当該表示ボタンに対するタップ操作の第2例を示す図である。また、図7(c)は、表示ボタン及び当該表示ボタンに対するタップ操作の第3例を示す図である。   FIG. 7 shows an embodiment of the present invention and is a diagram showing an example of a display button in the UI screen 152 projected on the operation surface 150 (xy plane) shown in FIG. 1 and a tap operation on the display button. Specifically, FIG. 7A is a diagram illustrating a first example of a display button and a tap operation on the display button. FIG. 7B is a diagram illustrating a display button and a second example of a tap operation on the display button. FIG. 7C is a diagram illustrating a display button and a third example of a tap operation on the display button.

図8は、本発明の実施形態を示し、図1に示す操作面150から上のz方向の空間における各操作位置の一例を示す図である。具体的に、図8(a)は、距離画像センサ120により取得された距離画像160に基づき得られた各操作位置の一例を示す図である。また、図8(b)は、ユーザが実際に指先を動かした操作軌跡を示す各操作位置の一例を示す図である。また、図8(a)に示す各操作位置P0〜P6は、それぞれ、図8(b)に示す各操作位置P0〜P6に対応するものである。さらに、図8(a)及び図8(b)に示す各操作位置P1〜P6は、それぞれ、図7(a)〜図7(c)に示す各操作位置P1〜P6に対応するものである。また、図8(a)及び図8(b)には、図4のステップS401の判断基準として用いるタッチ閾値801、図4のステップS408の判断基準として用いるリリース閾値802が示されている。   FIG. 8 is a diagram illustrating an example of each operation position in a space in the z direction above the operation surface 150 illustrated in FIG. 1 according to the embodiment of the present invention. Specifically, FIG. 8A is a diagram illustrating an example of each operation position obtained based on the distance image 160 acquired by the distance image sensor 120. FIG. 8B is a diagram illustrating an example of each operation position indicating an operation locus where the user has actually moved the fingertip. Moreover, each operation position P0-P6 shown to Fig.8 (a) respond | corresponds to each operation position P0-P6 shown in FIG.8 (b), respectively. Further, the operation positions P1 to P6 shown in FIGS. 8A and 8B correspond to the operation positions P1 to P6 shown in FIGS. 7A to 7C, respectively. . 8A and 8B show a touch threshold value 801 used as a determination criterion in step S401 in FIG. 4 and a release threshold value 802 used as a determination criterion in step S408 in FIG.

この図8に示す例では、図8(b)に示すように実際にユーザの指先が操作面150に最も近接する位置は操作位置P3となるが、図8(a)に示すように距離画像センサ120の距離画像160から取得した場合には操作位置P4となっている。即ち、図8では、実際の指先位置と距離画像160から取得した指先位置とが異なる場合を示している。これは、距離画像センサ120で距離画像160を取得する際に、指先位置が操作面150に近接するときに、指先と操作面150の双方の距離測定ノイズが影響を及ぼし合い、距離測定ノイズが大きくなるためであると考えられる。したがって、例えば特許文献1で想定しているように、操作体であるユーザの手Hの指先が操作面150に最も近接する位置に基づきユーザの操作判定を行うと、ユーザの操作を正しく認識することが困難となる場合が生じ得る。これに対して、本発明の実施形態では、操作体であるユーザの手Hの指先における操作軌跡(図8に示す例では、操作位置P1〜P6)に基づきユーザの操作判定を行うため、ユーザの操作を適正に認識することが可能となる。   In the example shown in FIG. 8, the position where the user's fingertip is closest to the operation surface 150 is the operation position P3 as shown in FIG. 8B, but the distance image is shown in FIG. 8A. When acquired from the distance image 160 of the sensor 120, the operation position P4 is obtained. That is, FIG. 8 shows a case where the actual fingertip position and the fingertip position acquired from the distance image 160 are different. This is because, when the distance image 160 is acquired by the distance image sensor 120, when the fingertip position is close to the operation surface 150, the distance measurement noises of both the fingertip and the operation surface 150 influence each other, and the distance measurement noise is generated. This is thought to be due to the increase. Therefore, for example, as assumed in Patent Document 1, when the user's operation determination is performed based on the position where the fingertip of the user's hand H that is the operation body is closest to the operation surface 150, the user's operation is correctly recognized. It may be difficult to do so. On the other hand, in the embodiment of the present invention, the user's operation determination is performed based on the operation locus (the operation positions P1 to P6 in the example illustrated in FIG. 8) at the fingertip of the user's hand H that is the operation body. Can be properly recognized.

<タップ操作の第1例>
まず、図7(a)及び図8(a)を用いて、表示ボタン及び当該表示ボタンに対するタップ操作の第1例の場合における情報処理装置110の処理について説明する。
<First example of tap operation>
First, the processing of the information processing apparatus 110 in the first example of the tap operation on the display button and the display button will be described with reference to FIGS. 7A and 8A.

図7(a)には、操作面150(xy平面)に投影されたUI画面152内の表示ボタンとして、表示ボタン701が示されている。この表示ボタン701の表示は、図3のステップS301において、表示制御部226によってなされる。   In FIG. 7A, a display button 701 is shown as a display button in the UI screen 152 projected onto the operation surface 150 (xy plane). The display button 701 is displayed by the display control unit 226 in step S301 in FIG.

また、図7(a)において、操作位置P1〜P6は、図8(a)に示すように操作体である手Hの指先が操作面150に対して第1の距離であるタッチ閾値801よりも近づいた後に第2の距離であるリリース閾値802よりも遠ざかる一連の操作であるタップ操作の操作軌跡を示している。操作位置P1はタップ操作の開始における指先位置であり、操作位置P6はタップ操作の終了の指先位置である。なお、図7では、タップ操作の終了の指先位置に相当する操作位置を白丸で示している。図7(a)には、ユーザによるタップ操作として、操作位置P1から操作位置P6までの順番に操作がなされたことを時系列で示している。以下に、図7(a)に示す操作位置P1〜P6について説明する。   Further, in FIG. 7A, the operation positions P1 to P6 are based on a touch threshold value 801 in which the fingertip of the hand H that is the operation body is the first distance from the operation surface 150 as shown in FIG. The operation locus of the tap operation, which is a series of operations that move away from the release threshold value 802, which is the second distance, is shown. The operation position P1 is a fingertip position at the start of the tap operation, and the operation position P6 is a fingertip position at the end of the tap operation. In FIG. 7, an operation position corresponding to the fingertip position at the end of the tap operation is indicated by a white circle. FIG. 7A shows, in chronological order, that the operation was performed in the order from the operation position P1 to the operation position P6 as the tap operation by the user. Below, the operation positions P1-P6 shown to Fig.7 (a) are demonstrated.

まず、タップ操作の開始の操作位置である、図7(a)に示す操作位置P1について説明する。
図3のステップS302において、距離画像取得部221は、距離画像センサ120から距離画像160を取得する。続いて、図3のステップS303において、操作位置取得部222は、距離画像160から手領域161を検出すると(S303/Yes)、ステップS304において、操作位置取得部222は、当該手領域161に手IDとして1を付与する。続いて、図3のステップS305において、操作位置取得部222は、当該距離画像160における操作位置162として操作位置P1を取得し、当該操作位置P1とともに当該操作位置P1が取得された時刻t1を保持する。続いて、図3のステップS306において、操作位置取得部222は、実世界における操作位置P1における位置情報(x1,y1,z1)を取得する。
First, the operation position P1 shown in FIG. 7A, which is the operation position at the start of the tap operation, will be described.
In step S <b> 302 of FIG. 3, the distance image acquisition unit 221 acquires the distance image 160 from the distance image sensor 120. 3, when the operation position acquisition unit 222 detects the hand region 161 from the distance image 160 (S303 / Yes), the operation position acquisition unit 222 moves the hand region 161 to the hand region 161 in step S304. 1 is assigned as the ID. Subsequently, in step S305 of FIG. 3, the operation position acquisition unit 222 acquires the operation position P1 as the operation position 162 in the distance image 160, and holds the time t1 when the operation position P1 was acquired together with the operation position P1. To do. Subsequently, in step S306 of FIG. 3, the operation position acquisition unit 222 acquires position information (x1, y1, z1) at the operation position P1 in the real world.

次いで、図3のステップS307において、操作判定部223は、操作位置P1のタッチ状態の判定及び操作軌跡の保持を行う。具体的に、図3のステップS307における詳細な処理手順を示す図4では、まず、ステップS401において、操作判定部223は、図8(a)に示すように操作位置P1がタッチ閾値801以下であると判断(S401/Yes)する。続いて、図4のステップS402において、操作判定部223は、図8(a)に示すように操作位置P1よりも1つ前の操作位置P0がタッチ状態でないと判断(S402/No)する。続いて、図4のステップS405において、操作判定部223(或いは操作軌跡保持部224)は、操作位置P1がタッチ状態であることを保持する。さらに、操作判定部223(或いは操作軌跡保持部224)は、操作位置P1よりも1つ前の操作位置P0がリリース状態であることを保持する。続いて、図4のステップS406において、操作軌跡保持部224は、操作位置P1に係る情報(x1,y1,z1、t1)を、タップ操作の操作軌跡における開始(最初)の操作位置に係る情報として保持する。   Next, in step S307 in FIG. 3, the operation determination unit 223 determines the touch state of the operation position P1 and holds the operation locus. Specifically, in FIG. 4 showing the detailed processing procedure in step S307 in FIG. 3, first, in step S401, the operation determination unit 223 determines that the operation position P1 is less than or equal to the touch threshold value 801 as shown in FIG. It is determined that there is (S401 / Yes). Subsequently, in step S402 in FIG. 4, the operation determination unit 223 determines that the operation position P0 immediately before the operation position P1 is not in the touch state as illustrated in FIG. 8A (S402 / No). Subsequently, in step S405 of FIG. 4, the operation determination unit 223 (or the operation track holding unit 224) holds that the operation position P1 is in the touch state. Furthermore, the operation determination unit 223 (or the operation track holding unit 224) holds that the operation position P0 immediately before the operation position P1 is in the released state. Subsequently, in step S406 of FIG. 4, the operation track holding unit 224 uses the information (x1, y1, z1, t1) related to the operation position P1 as information related to the start (first) operation position in the operation track of the tap operation. Hold as.

次いで、図3のステップS308において、操作判定部223は、操作位置P1に基づいて、タッチ操作の判定を行う。具体的に、図3のステップS308における詳細な処理手順を示す図5では、まず、ステップS501において、操作判定部223は、現在の操作位置P1がタッチ状態で、かつ1つ前の操作位置P0がリリース状態であると判断(S501/Yes)する。続いて、図5のステップS502において、操作判定部223は、認識部225に対してタッチイベントを通知する。   Next, in step S308 of FIG. 3, the operation determination unit 223 determines a touch operation based on the operation position P1. Specifically, in FIG. 5 showing the detailed processing procedure in step S308 of FIG. 3, first, in step S501, the operation determination unit 223 determines that the current operation position P1 is in the touch state and the previous operation position P0. Is in a released state (S501 / Yes). Subsequently, in step S <b> 502 of FIG. 5, the operation determination unit 223 notifies the recognition unit 225 of a touch event.

次いで、図3のステップS309において、認識部225は、表示ボタン操作の判定を行う。具体的に、図3のステップS309における詳細な処理手順を示す図6では、ステップS601において、認識部225は、操作位置P1の処理でタップ操作の判定(S505)がなされていないと判断(S601/No)する。次いで、図3のステップS310において、表示制御部226は、ステップS309で表示ボタン操作の認識がされていないため、現在表示されているUI画面152の表示の更新は行わない。続いて、図3のステップS311において、情報処理装置110は、電源がオフでないと判断(S311/No)し、その後、図3のステップS302に戻る。   Next, in step S309 in FIG. 3, the recognition unit 225 determines display button operation. Specifically, in FIG. 6 showing the detailed processing procedure in step S309 of FIG. 3, in step S601, the recognition unit 225 determines that the determination of the tap operation (S505) has not been made in the processing of the operation position P1 (S601). / No). Next, in step S310 of FIG. 3, the display control unit 226 does not update the display of the UI screen 152 currently displayed because the display button operation is not recognized in step S309. Subsequently, in step S311 in FIG. 3, the information processing apparatus 110 determines that the power is not off (S311 / No), and then returns to step S302 in FIG.

次に、図7(a)に示す操作位置P2について説明する。
操作位置P2の処理について、図3のステップS302からステップS304までの処理は、上述した操作位置P1の処理と同様であるため、その説明は省略する。続いて、図3のステップS305において、操作位置取得部222は、距離画像160における操作位置162として操作位置P2を取得し、当該操作位置P2とともに当該操作位置P2が取得された時刻t2を保持する。続いて、図3のステップS306において、操作位置取得部222は、実世界における操作位置P2における位置情報(x2,y2,z2)を取得する。
Next, the operation position P2 shown in FIG.
Regarding the processing at the operation position P2, the processing from step S302 to step S304 in FIG. Subsequently, in step S305 in FIG. 3, the operation position acquisition unit 222 acquires the operation position P2 as the operation position 162 in the distance image 160, and holds the time t2 at which the operation position P2 was acquired together with the operation position P2. . Subsequently, in step S306 of FIG. 3, the operation position acquisition unit 222 acquires position information (x2, y2, z2) at the operation position P2 in the real world.

次いで、図3のステップS307において、操作判定部223は、操作位置P2のタッチ状態の判定及び操作軌跡の保持を行う。具体的に、図3のステップS307における詳細な処理手順を示す図4では、まず、ステップS401において、操作判定部223は、図8(a)に示すように操作位置P2がタッチ閾値801以下であると判断(S401/Yes)する。続いて、図4のステップS402において、操作判定部223は、図8(a)に示すように操作位置P2よりも1つ前の操作位置P1がタッチ状態であると判断(S402/Yes)する。続いて、図4のステップS403において、操作判定部223(或いは操作軌跡保持部224)は、操作位置P2がタッチ状態であることを保持する。さらに、操作判定部223(或いは操作軌跡保持部224)は、操作位置P2よりも1つ前の操作位置P1がタッチ状態であることを保持する。続いて、図4のステップS404において、操作軌跡保持部224は、操作位置P1に係る情報(x2,y2,z2、t2)を、タップ操作の操作軌跡における操作位置に係る情報として継続して保持する。   Next, in step S307 in FIG. 3, the operation determination unit 223 determines the touch state of the operation position P2 and holds the operation locus. Specifically, in FIG. 4 showing the detailed processing procedure in step S307 in FIG. 3, first, in step S401, the operation determination unit 223 determines that the operation position P2 is equal to or less than the touch threshold value 801 as shown in FIG. It is determined that there is (S401 / Yes). Subsequently, in step S402 in FIG. 4, the operation determination unit 223 determines that the operation position P1 immediately before the operation position P2 is in the touch state as illustrated in FIG. 8A (S402 / Yes). . Subsequently, in step S403 in FIG. 4, the operation determination unit 223 (or the operation locus holding unit 224) holds that the operation position P2 is in the touch state. Furthermore, the operation determination unit 223 (or the operation track holding unit 224) holds that the operation position P1 immediately before the operation position P2 is in the touch state. Subsequently, in step S404 of FIG. 4, the operation locus holding unit 224 continuously holds the information (x2, y2, z2, t2) relating to the operation position P1 as information relating to the operation position in the operation locus of the tap operation. To do.

次いで、図3のステップS308において、操作判定部223は、操作位置P2に基づいて、タッチ操作の判定を行う。具体的に、図3のステップS308における詳細な処理手順を示す図5では、まず、ステップS501において、操作判定部223は、現在の操作位置P2がタッチ状態で、かつ1つ前の操作位置P1がリリース状態でないと判断(S501/No)する。続いて、図5のステップS503において、操作判定部223は、現在の操作位置P2がリリース状態でないと判断(S502/No)する。   Next, in step S308 of FIG. 3, the operation determination unit 223 determines a touch operation based on the operation position P2. Specifically, in FIG. 5 showing the detailed processing procedure in step S308 of FIG. 3, first, in step S501, the operation determination unit 223 determines that the current operation position P2 is in the touch state and the previous operation position P1. Is not in the released state (S501 / No). Subsequently, in step S503 of FIG. 5, the operation determination unit 223 determines that the current operation position P2 is not in the released state (S502 / No).

次いで、図3のステップS309において、認識部225は、表示ボタン操作の判定を行う。具体的に、図3のステップS309における詳細な処理手順を示す図6では、ステップS601において、認識部225は、操作位置P2の処理でタップ操作の判定(S505)がなされていないと判断(S601/No)する。次いで、図3のステップS310において、表示制御部226は、ステップS309で表示ボタン操作の認識がされていないため、現在表示されているUI画面152の表示の更新は行わない。続いて、図3のステップS311において、情報処理装置110は、電源がオフでないと判断(S311/No)し、その後、図3のステップS302に戻る。   Next, in step S309 in FIG. 3, the recognition unit 225 determines display button operation. Specifically, in FIG. 6 showing the detailed processing procedure in step S309 in FIG. 3, in step S601, the recognition unit 225 determines that the determination of the tap operation (S505) is not made in the processing of the operation position P2 (S601). / No). Next, in step S310 of FIG. 3, the display control unit 226 does not update the display of the UI screen 152 currently displayed because the display button operation is not recognized in step S309. Subsequently, in step S311 in FIG. 3, the information processing apparatus 110 determines that the power is not off (S311 / No), and then returns to step S302 in FIG.

図7(a)に示す操作位置P3及び操作位置P4の処理については、上述した操作位置P2の処理と同様であるため、その説明は省略する。   Since the processing at the operation position P3 and the operation position P4 shown in FIG. 7A is the same as the processing at the operation position P2 described above, the description thereof is omitted.

次に、図7(a)に示す操作位置P5について説明する。
操作位置P5の処理について、図3のステップS302からステップS304までの処理は、上述した操作位置P1の処理と同様であるため、その説明は省略する。続いて、図3のステップS305において、操作位置取得部222は、距離画像160における操作位置162として操作位置P5を取得し、当該操作位置P5とともに当該操作位置P5が取得された時刻t5を保持する。続いて、図3のステップS306において、操作位置取得部222は、実世界における操作位置P5における位置情報(x5,y5,z5)を取得する。
Next, the operation position P5 shown in FIG.
Regarding the processing at the operation position P5, the processing from step S302 to step S304 in FIG. Subsequently, in step S305 of FIG. 3, the operation position acquisition unit 222 acquires the operation position P5 as the operation position 162 in the distance image 160, and holds the time t5 at which the operation position P5 was acquired together with the operation position P5. . Subsequently, in step S306 in FIG. 3, the operation position acquisition unit 222 acquires position information (x5, y5, z5) at the operation position P5 in the real world.

次いで、図3のステップS307において、操作判定部223は、操作位置P5のタッチ状態の判定及び操作軌跡の保持を行う。具体的に、図3のステップS307における詳細な処理手順を示す図4では、まず、ステップS401において、操作判定部223は、図8(a)に示すように操作位置P5がタッチ閾値801以下でないと判断(S401/No)する。続いて、図4のステップS407において、操作判定部223は、図8(a)に示すように操作位置P5よりも1つ前の操作位置P4がタッチ状態であると判断(S407/Yes)する。続いて、図4のステップS408において、操作判定部223は、図8(a)に示すように操作位置P5がリリース閾値以上でないと判断(S408/No)する。続いて、図4のステップS411において、操作判定部223(或いは操作軌跡保持部224)は、操作位置P5がタッチ状態であることを保持する。さらに、操作判定部223(或いは操作軌跡保持部224)は、操作位置P5よりも1つ前の操作位置P4がタッチ状態であることを保持する。続いて、図4のステップS412において、操作軌跡保持部224は、操作位置P5に係る情報(x5,y5,z5、t5)を、タップ操作の操作軌跡における操作位置に係る情報として継続して保持する。   Next, in step S307 of FIG. 3, the operation determination unit 223 determines the touch state of the operation position P5 and holds the operation locus. Specifically, in FIG. 4 showing the detailed processing procedure in step S307 in FIG. 3, first, in step S401, the operation determination unit 223 determines that the operation position P5 is not less than or equal to the touch threshold value 801 as shown in FIG. (S401 / No). Subsequently, in step S407 in FIG. 4, the operation determination unit 223 determines that the operation position P4 immediately before the operation position P5 is in the touch state as illustrated in FIG. 8A (S407 / Yes). . Subsequently, in step S408 in FIG. 4, the operation determination unit 223 determines that the operation position P5 is not equal to or greater than the release threshold as illustrated in FIG. 8A (S408 / No). Subsequently, in step S411 in FIG. 4, the operation determination unit 223 (or the operation track holding unit 224) holds that the operation position P5 is in the touch state. Furthermore, the operation determination unit 223 (or the operation track holding unit 224) holds that the operation position P4 immediately before the operation position P5 is in the touch state. Subsequently, in step S <b> 412 of FIG. 4, the operation trajectory holding unit 224 continuously holds information (x5, y5, z5, t5) related to the operation position P5 as information related to the operation position in the operation trajectory of the tap operation. To do.

操作位置P5の処理において、その後の図3のステップS308からステップS311までの処理は、上述した操作位置P2の処理と同様であるため、その説明は省略する。   In the processing at the operation position P5, the subsequent processing from step S308 to step S311 in FIG. 3 is the same as the processing at the operation position P2 described above, and thus description thereof is omitted.

次に、タップ操作の終了の操作位置である、図7(a)に示す操作位置P6について説明する。
操作位置P6の処理について、図3のステップS302からステップS304までの処理は、上述した操作位置P1の処理と同様であるため、その説明は省略する。続いて、図3のステップS306において、操作位置取得部222は、距離画像160における操作位置162として操作位置P6を取得し、当該操作位置P6とともに当該操作位置P6が取得された時刻t6を保持する。続いて、図3のステップS306において、操作位置取得部222は、実世界における操作位置P6における位置情報(x6,y6,z6)を取得する。
Next, the operation position P6 shown in FIG. 7A, which is the operation position at the end of the tap operation, will be described.
Regarding the processing at the operation position P6, the processing from step S302 to step S304 in FIG. Subsequently, in step S306 of FIG. 3, the operation position acquisition unit 222 acquires the operation position P6 as the operation position 162 in the distance image 160, and holds the time t6 when the operation position P6 was acquired together with the operation position P6. . Subsequently, in step S306 of FIG. 3, the operation position acquisition unit 222 acquires position information (x6, y6, z6) at the operation position P6 in the real world.

次いで、図3のステップS307において、操作判定部223は、操作位置P6のタッチ状態の判定及び操作軌跡の保持を行う。具体的に、図3のステップS307における詳細な処理手順を示す図4では、まず、ステップS401において、操作判定部223は、図8(a)に示すように操作位置P6がタッチ閾値801以下でないと判断(S401/No)する。続いて、図4のステップS407において、操作判定部223は、図8(a)に示すように操作位置P6よりも1つ前の操作位置P5がタッチ状態であると判断(S407/Yes)する。続いて、図4のステップS408において、操作判定部223は、図8(a)に示すように操作位置P6がリリース閾値以上であると判断(S408/Yes)する。続いて、図4のステップS409において、操作判定部223(或いは操作軌跡保持部224)は、操作位置P6がリリース状態であることを保持する。さらに、操作判定部223(或いは操作軌跡保持部224)は、操作位置P6よりも1つ前の操作位置P5がタッチ状態であることを保持する。続いて、図4のステップS410において、操作軌跡保持部224は、操作位置P6に係る情報(x6,y6,z6、t6)を、タップ操作の操作軌跡における終了(最後)の操作位置に係る情報として保持する。その後、操作軌跡保持部224は、操作軌跡における操作位置に係る情報の保持を終了する。   Next, in step S307 in FIG. 3, the operation determination unit 223 determines the touch state of the operation position P6 and holds the operation locus. Specifically, in FIG. 4 showing the detailed processing procedure in step S307 in FIG. 3, first, in step S401, the operation determination unit 223 determines that the operation position P6 is not less than or equal to the touch threshold value 801 as shown in FIG. (S401 / No). Subsequently, in step S407 in FIG. 4, the operation determination unit 223 determines that the operation position P5 immediately before the operation position P6 is in a touch state as illustrated in FIG. 8A (S407 / Yes). . Subsequently, in step S408 of FIG. 4, the operation determination unit 223 determines that the operation position P6 is equal to or greater than the release threshold as illustrated in FIG. 8A (S408 / Yes). Subsequently, in step S409 in FIG. 4, the operation determination unit 223 (or the operation track holding unit 224) holds that the operation position P6 is in the released state. Furthermore, the operation determination unit 223 (or the operation track holding unit 224) holds that the operation position P5 immediately before the operation position P6 is in a touch state. Subsequently, in step S410 of FIG. 4, the operation locus holding unit 224 uses the information (x6, y6, z6, t6) relating to the operation position P6 as the information relating to the end (last) operation position in the operation locus of the tap operation. Hold as. Thereafter, the operation trajectory holding unit 224 ends the holding of information related to the operation position in the operation trajectory.

次いで、図3のステップS308において、操作判定部223は、操作位置P6に基づいて、タッチ操作の判定を行う。具体的に、図3のステップS308における詳細な処理手順を示す図5では、まず、ステップS501において、操作判定部223は、現在の操作位置P6がタッチ状態でなく、かつ1つ前の操作位置P5がリリース状態でないと判断(S501/No)する。続いて、図5のステップS503において、操作判定部223は、現在の操作位置P6がリリース状態で、かつ1つ前の操作位置P5がタッチ状態であると判断(S503/Yes)する。続いて、図5のステップS504において、操作判定部223は、認識部225に対してリリースイベントを通知する。続いて、図5のステップS505において、操作判定部223は、操作体である手Hの指先が操作面150に対してタッチ閾値801よりも近づいた後に、リリース閾値802よりも遠ざかる一連の操作であるタップ操作の判定を行う。ここでは、タップ操作の判定基準として、さらに、最初にタッチ閾値801よりも近づいた操作位置P1と、最初にリリース閾値802よりも遠ざかった操作位置P6との操作面150(xy平面)における距離が、所定の閾値以下である条件も含めることとする。そして、ここでは、操作位置P1(x1,y1)と操作位置P6(x6,y6)との操作面150(xy平面)における距離が、所定の閾値L1以下であるものとする。   Next, in step S308 in FIG. 3, the operation determination unit 223 determines a touch operation based on the operation position P6. Specifically, in FIG. 5 showing the detailed processing procedure in step S308 of FIG. 3, first, in step S501, the operation determination unit 223 determines that the current operation position P6 is not in the touch state and the previous operation position. It is determined that P5 is not in the released state (S501 / No). Subsequently, in step S503 of FIG. 5, the operation determination unit 223 determines that the current operation position P6 is in the released state and the previous operation position P5 is in the touch state (S503 / Yes). Subsequently, in step S <b> 504 in FIG. 5, the operation determination unit 223 notifies the recognition unit 225 of a release event. Subsequently, in step S505 of FIG. 5, the operation determination unit 223 performs a series of operations of moving away from the release threshold value 802 after the fingertip of the hand H, which is the operation body, approaches the operation surface 150 from the touch threshold value 801. A tap operation is determined. Here, as a determination criterion for the tap operation, the distance on the operation surface 150 (xy plane) between the operation position P1 that is first closer than the touch threshold value 801 and the operation position P6 that is first farther than the release threshold value 802 is used. In addition, a condition that is equal to or less than a predetermined threshold is included. Here, it is assumed that the distance on the operation surface 150 (xy plane) between the operation position P1 (x1, y1) and the operation position P6 (x6, y6) is equal to or less than a predetermined threshold L1.

次いで、図3のステップS309において、認識部225は、表示ボタン操作の判定を行う。具体的に、図3のステップS309における詳細な処理手順を示す図6では、ステップS601において、認識部225は、操作位置P6の処理でタップ操作の判定(S505)がなされたと判断(S601/Yes)する。続いて、図6のステップS602において、認識部225は、タップ操作の操作軌跡(操作位置P1〜P6)と、図7(a)に示す表示ボタン701の領域とが重畳していると判断(S602/Yes)する。具体的に、図7(a)に示す例では、タップ操作の操作軌跡の一部である操作位置P2及びP3が表示ボタン701の領域と重畳している。続いて、図6のステップS603において、認識部225は、タップ操作の操作軌跡(操作位置P1〜P6)と重畳していると判断した表示ボタン701の操作を認識(検出)する。   Next, in step S309 in FIG. 3, the recognition unit 225 determines display button operation. Specifically, in FIG. 6 showing the detailed processing procedure in step S309 of FIG. 3, in step S601, the recognition unit 225 determines that the determination of the tap operation (S505) has been made in the processing of the operation position P6 (S601 / Yes). ) Subsequently, in step S602 in FIG. 6, the recognition unit 225 determines that the operation locus (operation positions P1 to P6) of the tap operation and the area of the display button 701 illustrated in FIG. S602 / Yes). Specifically, in the example illustrated in FIG. 7A, operation positions P <b> 2 and P <b> 3 that are part of the operation locus of the tap operation are superimposed on the area of the display button 701. Subsequently, in step S603 in FIG. 6, the recognition unit 225 recognizes (detects) the operation of the display button 701 that is determined to be superimposed on the operation locus (operation positions P1 to P6) of the tap operation.

次いで、図3のステップS310において、表示制御部226は、ステップS309で表示ボタン701が操作されたと判定(認識)したため、表示ボタン701の表示を、当該認識する前の表示状態から変更する制御を行う。例えば、表示制御部226は、図7(a)に示すように表示ボタン701の枠の線を太くし点滅するように表示を更新制御する。なお、表示ボタン701の表示の更新は、色や明るさを変えることや、表示を消す等であってもよい。その後、図3のステップS311以降の処理を行う。   Next, in step S310 in FIG. 3, since the display control unit 226 determines (recognizes) that the display button 701 has been operated in step S309, the display control unit 226 performs control to change the display of the display button 701 from the display state before the recognition. Do. For example, the display control unit 226 controls to update the display so that the frame line of the display button 701 is thickened and blinks as shown in FIG. Note that the display button 701 may be updated by changing the color or brightness, turning off the display, or the like. Thereafter, the processing after step S311 in FIG. 3 is performed.

<タップ操作の第2例>
次に、図7(b)及び図8(a)を用いて、表示ボタン及び当該表示ボタンに対するタップ操作の第2例の場合における情報処理装置110の処理について説明する。
<Second example of tap operation>
Next, the processing of the information processing apparatus 110 in the case of the second example of the tap operation on the display button and the display button will be described with reference to FIGS. 7B and 8A.

タップ操作の第2例は、上述したタップ操作の第1例との違いは、図7(b)に示すように、2つの表示ボタンA(702)及び表示ボタンB(703)が近い位置に並んで表示され、タップ操作の操作軌跡が当該2つの表示ボタンに重畳していることである。また、図7(b)に示す操作位置P1〜P6は、それぞれ、図8(a)に示す操作位置P1〜P6に対応する。   The difference between the second example of the tap operation and the first example of the tap operation described above is that the two display buttons A (702) and B (703) are close to each other as shown in FIG. 7B. They are displayed side by side, and the operation locus of the tap operation is superimposed on the two display buttons. Further, the operation positions P1 to P6 shown in FIG. 7B correspond to the operation positions P1 to P6 shown in FIG. 8A, respectively.

まず、図7(b)に示す操作位置P1から操作位置P5までの処理は、図7(a)を用いて上述したタップ操作の第1例の場合と同様であるため、その説明は省略する。   First, the processing from the operation position P1 to the operation position P5 shown in FIG. 7B is the same as that in the first example of the tap operation described above with reference to FIG. .

次に、タップ操作の終了の操作位置である、図7(b)に示す操作位置P6について説明する。
操作位置P6の処理について、図3のステップS302からステップS308までの処理は、上述したタップ操作の第1例の場合と同様であるため、その説明は省略する。続いて、図3のステップS309において、認識部225は、表示ボタン操作の判定を行う。具体的に、図3のステップS309における詳細な処理手順を示す図6では、ステップS601において、認識部225は、操作位置P6の処理でタップ操作の判定(S505)がなされたと判断(S601/Yes)する。続いて、図6のステップS602において、認識部225は、タップ操作の操作軌跡(操作位置P1〜P6)と、図7(b)に示す表示ボタンの領域とが重畳していると判断(S602/Yes)する。具体的に、図7(b)に示す例では、タップ操作の操作軌跡の一部である操作位置P2及びP3が表示ボタンA(702)の領域と重畳し、タップ操作の操作軌跡の一部である操作位置P5及びP6が表示ボタンB(703)の領域と重畳している。
Next, the operation position P6 shown in FIG. 7B, which is the operation position at the end of the tap operation, will be described.
Regarding the processing at the operation position P6, the processing from step S302 to step S308 in FIG. 3 is the same as that in the case of the first example of the tap operation described above, and thus the description thereof is omitted. Subsequently, in step S309 in FIG. 3, the recognition unit 225 determines display button operation. Specifically, in FIG. 6 showing the detailed processing procedure in step S309 of FIG. 3, in step S601, the recognition unit 225 determines that the determination of the tap operation (S505) has been made in the processing of the operation position P6 (S601 / Yes). ) Subsequently, in step S602 in FIG. 6, the recognizing unit 225 determines that the operation locus of the tap operation (operation positions P1 to P6) and the area of the display button shown in FIG. 7B overlap (S602). / Yes). Specifically, in the example illustrated in FIG. 7B, the operation positions P2 and P3, which are part of the operation locus of the tap operation, are superimposed on the area of the display button A (702), and a part of the operation locus of the tap operation. The operation positions P5 and P6 are superimposed on the area of the display button B (703).

続いて、図6のステップS603において、認識部225は、タップ操作の操作軌跡(操作位置P1〜P6)と重畳していると判断した表示ボタンの操作を認識(検出)する。具体的に、認識部225は、図7(b)に示すようにタップ操作の操作軌跡が複数の表示ボタンに重畳した場合には、当該操作軌跡の開始の操作位置P1に最も近い表示ボタンA(702)に対する当該操作と認識する。その理由を以下に記載する。一般的に、ユーザは操作の開始時に(または前半に)より注意を払う(集中して操作を行う)傾向がある。したがって、タップ操作の開始の操作位置に最も近い表示ボタンの操作と認識することにより、よりユーザの操作意図に即した表示ボタンの選択を行うことができ、操作性を向上させることができると考えられるためである。   Subsequently, in step S603 in FIG. 6, the recognition unit 225 recognizes (detects) the operation of the display button that is determined to be superimposed on the operation locus (operation positions P1 to P6) of the tap operation. Specifically, when the operation locus of the tap operation is superimposed on a plurality of display buttons as shown in FIG. 7B, the recognition unit 225 displays the display button A closest to the operation position P1 at which the operation locus starts. This operation is recognized as (702). The reason is described below. Generally, the user tends to pay more attention (concentrate operation) at the start of the operation (or in the first half). Therefore, by recognizing the operation of the display button closest to the operation position at the start of the tap operation, it is possible to select the display button more in line with the user's operation intention and improve the operability. Because it is.

次いで、図3のステップS310において、表示制御部226は、ステップS309で表示ボタンA(702)が操作されたと判定(認識)したため、表示ボタンA(702)の表示を、当該認識する前の表示状態から変更する制御を行う。例えば、表示制御部226は、例えば、図7(b)に示すように表示ボタンA(702)の枠の線を太くし点滅するように表示を更新制御する。なお、表示ボタンA(702)の表示の更新は、色や明るさを変えることや、表示を消す等であってもよい。その後、図3のステップS311以降の処理を行う。   Next, in step S310 in FIG. 3, the display control unit 226 determines (recognizes) that the display button A (702) has been operated in step S309, and therefore displays the display of the display button A (702) before the recognition. Control to change from state. For example, the display control unit 226 controls to update the display so that the frame line of the display button A (702) becomes thick and blinks as shown in FIG. 7B, for example. Note that the display button A (702) may be updated by changing the color or brightness, turning off the display, or the like. Thereafter, the processing after step S311 in FIG. 3 is performed.

<タップ操作の第3例>
次に、図7(c)及び図8(a)を用いて、表示ボタン及び当該表示ボタンに対するタップ操作の第3例の場合における情報処理装置110の処理について説明する。
<Third example of tap operation>
Next, the processing of the information processing apparatus 110 in the case of the third example of the tap operation on the display button and the display button will be described with reference to FIGS. 7C and 8A.

タップ操作の第3例は、上述したタップ操作の第2例との違いは、図7(c)に示すように、単なるタップ操作ではなくダブルタップ操作(タップ操作の2回連続操作)が行われた場合である。具体的に、図7(c)には、操作位置P1から操作位置P6までの操作軌跡で示す第1のタップ操作と、操作位置P7から操作位置P12までの操作軌跡で示す第2のタップ操作とで構成されるダブルタップ操作が行われた場合を示している。ここで、図7(c)に示す操作位置P1〜P6は、それぞれ、図8(a)に示す操作位置P1〜P6に対応する。また、図7(c)に示す操作位置P7〜P12は、それぞれ、図8(a)に示す操作位置P1〜P6に対応するものとする。   The third example of the tap operation is different from the second example of the tap operation described above in that a double tap operation (two consecutive tap operations) is performed instead of a mere tap operation, as shown in FIG. This is the case. Specifically, FIG. 7C shows a first tap operation indicated by an operation locus from the operation position P1 to the operation position P6 and a second tap operation indicated by an operation locus from the operation position P7 to the operation position P12. The case where the double tap operation comprised by these is performed is shown. Here, the operation positions P1 to P6 shown in FIG. 7C correspond to the operation positions P1 to P6 shown in FIG. 8A, respectively. Further, the operation positions P7 to P12 shown in FIG. 7C correspond to the operation positions P1 to P6 shown in FIG. 8A, respectively.

まず、図7(c)に示す第1のタップ操作の操作位置P1から操作位置P5までの処理は、上述したタップ操作の第2例の場合と同様(即ち、図7(a)を用いて上述したタップ操作の第1例の場合と同様)であるため、その説明は省略する。   First, the processing from the operation position P1 to the operation position P5 of the first tap operation shown in FIG. 7C is the same as that in the second example of the tap operation described above (that is, using FIG. 7A). Since this is the same as in the case of the first example of the tap operation described above, the description thereof is omitted.

次に、第1のタップ操作の終了の操作位置である、図7(c)に示す操作位置P6について説明する。
操作位置P6の処理について、図3のステップS302からステップS307までの処理は、上述したタップ操作の第2例の場合と同様(即ち、図7(a)を用いて上述したタップ操作の第1例の場合と同様)であるため、その説明は省略する。
Next, the operation position P6 shown in FIG. 7C, which is the operation position at the end of the first tap operation, will be described.
Regarding the processing at the operation position P6, the processing from step S302 to step S307 in FIG. 3 is the same as in the second example of the tap operation described above (that is, the first tap operation described above with reference to FIG. 7A). Since this is the same as the case of the example), the description thereof is omitted.

次いで、図3のステップS308において、操作判定部223は、操作位置P6に基づいて、タッチ操作の判定を行う。具体的に、図3のステップS308における詳細な処理手順を示す図5では、ステップS501,ステップS503及びステップS504の処理は、上述したタップ操作の第2例の場合と同様(即ち、図7(a)を用いて上述したタップ操作の第1例の場合と同様)であるため、その説明は省略する。続いて、図5のステップS505において、操作判定部223は、操作体である手Hの指先が操作面150に対してタッチ閾値801よりも近づいた後に、リリース閾値802よりも遠ざかる一連の操作であるタップ操作の判定を行う。   Next, in step S308 in FIG. 3, the operation determination unit 223 determines a touch operation based on the operation position P6. Specifically, in FIG. 5 showing the detailed processing procedure in step S308 in FIG. 3, the processing in step S501, step S503, and step S504 is the same as that in the second example of the tap operation described above (that is, FIG. the same as in the case of the first example of the tap operation described above using a), and the description thereof will be omitted. Subsequently, in step S505 of FIG. 5, the operation determination unit 223 performs a series of operations of moving away from the release threshold value 802 after the fingertip of the hand H, which is the operation body, approaches the operation surface 150 from the touch threshold value 801. A tap operation is determined.

さらに、タップ操作の第3例では、操作判定部223は、ダブルタップ操作の判定を行う。即ち、操作判定部223は、所定の条件を満たすか否かに応じて、複数のタップ操作(複数の一連の操作)が、一体操作であるダブルタップ操作であるかを判定する。本実施形態では、操作判定部223によるダブルタップ操作の判定条件として、以下の4つの条件を適用する。
・[第1の条件]第1のタップ操作における終了の操作位置と、当該第1のタップ操作の後になされた第2のタップ操作における開始の操作位置との操作面150(xy平面)における距離が、所定の閾値以下であること。
・[第2の条件]第2のタップ操作における開始の操作位置と、第2のタップ操作における終了の操作位置との操作面150(xy平面)における距離が、所定の閾値以下であること。
・[第3の条件]第1のタップ操作における終了の操作位置における時刻から、当該第1のタップ操作の後になされた第2のタップ操作における開始の操作位置における時刻までの経過時間が、所定の閾値以下であること。
・[第4の条件]第2のタップ操作における開始の操作位置における時刻から、第2のタップ操作における終了の操作位置における時刻までの経過時間が、所定の閾値以下であること。
本実施形態では、操作判定部223は、この第1の条件〜第4の条件を考慮して、ダブルタップ操作を判定する。
Furthermore, in the third example of the tap operation, the operation determination unit 223 determines the double tap operation. That is, the operation determination unit 223 determines whether a plurality of tap operations (a plurality of series of operations) are double tap operations that are integrated operations, depending on whether or not a predetermined condition is satisfied. In the present embodiment, the following four conditions are applied as determination conditions for the double tap operation by the operation determination unit 223.
[First condition] Distance on the operation surface 150 (xy plane) between the operation position at the end of the first tap operation and the operation position at the start of the second tap operation performed after the first tap operation Is below a predetermined threshold.
[Second Condition] The distance on the operation surface 150 (xy plane) between the start operation position in the second tap operation and the end operation position in the second tap operation is not more than a predetermined threshold.
[Third Condition] The elapsed time from the time at the end operation position in the first tap operation to the time at the start operation position in the second tap operation performed after the first tap operation is predetermined. It must be below the threshold value.
[Fourth Condition] The elapsed time from the time at the start operation position in the second tap operation to the time at the end operation position in the second tap operation is not more than a predetermined threshold.
In the present embodiment, the operation determination unit 223 determines a double tap operation in consideration of the first condition to the fourth condition.

ここで、操作位置P6の処理においては、当該操作位置P6を含むタップ操作の前に行われたタップ操作がないため、ダブルタップ操作が行われたとの判定はなされない。操作位置P6の処理において、その後、図3のステップS309以降の処理を行う。   Here, in the process of the operation position P6, since there is no tap operation performed before the tap operation including the operation position P6, it is not determined that the double tap operation has been performed. In the process at the operation position P6, the process after step S309 in FIG.

また、図7(c)に示す操作位置P7〜操作位置P12の処理についても、それぞれ、上述したタップ操作の第3例における操作位置P1〜操作位置P6の処理と同様の処理を行う。ここで、操作位置P12の処理において、図5のステップS505では、操作判定部223は、ダブルタップ操作の判定を行う。この際、図7(c)に示す例では、第1のタップ操作における終了の操作位置P6と、第2のタップ操作における開始の操作位置P7との操作面150(xy平面)における距離が、所定の閾値以下であり、上述した第1の条件を満たすものとする。また、図7(c)に示す例では、第2のタップ操作における開始の操作位置P7と、第2のタップ操作における終了の操作位置P12との操作面150(xy平面)における距離が、所定の閾値以下であり、上述した第2の条件を満たすものとする。さらに、図7(c)に示す例では、第1のタップ操作における終了の操作位置P6における時刻t6から、第2のタップ操作における開始の操作位置P7における時刻t7までの経過時間が、所定の閾値以下であり、上述した第3の条件を満たすものとする。さらに、第2のタップ操作における開始の操作位置P7における時刻t7から、第2のタップ操作における終了の操作位置P12における時刻t12までの経過時間が、所定の閾値以下であり、上述した第4の条件を満たすものとする。
したがって、この場合、操作判定部223は、操作位置P12の処理でダブルタップ操作の判定(S505)を行う。
Also, for the processing of the operation positions P7 to P12 shown in FIG. 7C, the same processing as the processing of the operation positions P1 to P6 in the third example of the tap operation described above is performed. Here, in the process of the operation position P12, in step S505 of FIG. 5, the operation determination unit 223 determines the double tap operation. At this time, in the example shown in FIG. 7C, the distance on the operation surface 150 (xy plane) between the operation position P6 at the end of the first tap operation and the operation position P7 at the start of the second tap operation is It is less than a predetermined threshold value and satisfies the first condition described above. In the example shown in FIG. 7C, the distance on the operation surface 150 (xy plane) between the start operation position P7 in the second tap operation and the end operation position P12 in the second tap operation is predetermined. And the second condition described above is satisfied. Further, in the example shown in FIG. 7C, the elapsed time from the time t6 at the end operation position P6 in the first tap operation to the time t7 at the start operation position P7 in the second tap operation is a predetermined time. It is less than the threshold value and satisfies the third condition described above. Further, the elapsed time from the time t7 at the start operation position P7 in the second tap operation to the time t12 at the end operation position P12 in the second tap operation is equal to or less than a predetermined threshold, and the above-described fourth The condition shall be met.
Accordingly, in this case, the operation determination unit 223 determines a double tap operation (S505) in the process of the operation position P12.

操作位置P12の処理に関し、図3のステップS309以降の処理について説明する。
図3のステップS309における詳細な処理手順を示す図6では、まず、ステップS601において、認識部225は、操作位置P12の処理でダブルタップ操作の判定(S505)がなされたと判断(S601/Yes)する。続いて、図6のステップS602において、認識部225は、ダブルタップ操作の操作軌跡(操作位置P1〜P6及び操作位置P7〜P12)と、図7(c)に示す表示ボタンA(704)及び表示ボタンB(705)の領域とが重畳していると判断(S602/Yes)する。具体的に、図7(c)に示す例では、ダブルタップ操作の操作軌跡の一部である操作位置P2及びP3が表示ボタンA(704)の領域と重畳しており、また、ダブルタップ操作の操作軌跡の一部である操作位置P5,P6,P8〜P10が表示ボタンB(705)の領域と重畳している。
With respect to the process at the operation position P12, the processes after step S309 in FIG. 3 will be described.
In FIG. 6 showing the detailed processing procedure in step S309 of FIG. 3, first, in step S601, the recognition unit 225 determines that the determination of the double tap operation (S505) has been made in the processing of the operation position P12 (S601 / Yes). To do. Subsequently, in step S602 of FIG. 6, the recognition unit 225 includes an operation locus (operation positions P1 to P6 and operation positions P7 to P12) of the double tap operation, a display button A (704) illustrated in FIG. It is determined that the area of the display button B (705) is superimposed (S602 / Yes). Specifically, in the example shown in FIG. 7C, the operation positions P2 and P3, which are part of the operation locus of the double tap operation, are superimposed on the area of the display button A (704), and the double tap operation is performed. The operation positions P5, P6, and P8 to P10, which are a part of the operation locus, are superimposed on the area of the display button B (705).

操作位置P12の処理に関し、続いて、図6のステップS603において、認識部225は、ダブルタップ操作の操作軌跡と重畳していると判断した表示ボタンの操作を認識(検出)する。図7(c)に示すタップ操作の第3例では、操作位置P1〜P6までの第1のタップ操作と、操作位置P7〜P12までの第2のタップ操作とで構成されるダブルタップ操作が行われており、それぞれのタップ操作の操作軌跡が表示ボタンと重畳している。この場合、本実施形態では、認識部225は、ダブルタップ操作における最初の第1のタップ操作の操作軌跡による重畳を優先して、表示ボタンの操作を認識(検出)する。具体的に、図7(c)に示す例では、第1のタップ操作の操作軌跡(操作位置P1〜P6)が、最初に表示ボタンA(704)に重畳しているため、認識部225は、表示ボタンA(704)の操作を認識(検出)する。具体的に、認識部225は、図7(c)に示すようにダブルタップ操作の操作軌跡が複数の表示ボタンに重畳した場合には、ダブルタップ操作における最初の第1のタップ操作の操作軌跡による重畳判定結果を優先して、表示ボタンに対する当該操作と認識する。その理由を以下に記載する。一般的に、ユーザは操作の開始時に(または前半に)より注意を払う(集中して操作を行う)傾向がある。したがって、ダブルタップ操作における最初の第1のタップ操作の操作軌跡による重畳判定結果を優先して表示ボタンの操作を認識することにより、よりユーザの操作意図に即した表示ボタンの選択を行うことができ、操作性を向上させることができると考えられるためである。   Regarding the processing at the operation position P12, the recognition unit 225 subsequently recognizes (detects) the operation of the display button determined to be superimposed on the operation locus of the double tap operation in step S603 of FIG. In the third example of the tap operation shown in FIG. 7C, a double tap operation including a first tap operation from the operation positions P1 to P6 and a second tap operation from the operation positions P7 to P12 is performed. The operation locus of each tap operation is superimposed on the display button. In this case, in the present embodiment, the recognizing unit 225 recognizes (detects) the operation of the display button with priority given to the superimposition by the operation locus of the first first tap operation in the double tap operation. Specifically, in the example illustrated in FIG. 7C, the operation locus (operation positions P1 to P6) of the first tap operation is initially superimposed on the display button A (704). The operation of the display button A (704) is recognized (detected). Specifically, when the operation locus of the double tap operation is superimposed on a plurality of display buttons as shown in FIG. 7C, the recognition unit 225 operates the first operation track of the first tap operation in the double tap operation. Priority is given to the result of the superimposition determination made by, and the operation for the display button is recognized. The reason is described below. Generally, the user tends to pay more attention (concentrate operation) at the start of the operation (or in the first half). Accordingly, by recognizing the operation of the display button by giving priority to the result of superimposition determination based on the operation trajectory of the first first tap operation in the double tap operation, the display button can be selected in accordance with the user's operation intention. This is because it is considered that the operability can be improved.

その後、タップ操作の第1例と同様に、図3のステップS310以降の処理を行う。   Thereafter, similarly to the first example of the tap operation, the processing after step S310 in FIG. 3 is performed.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
This program and a computer-readable storage medium storing the program are included in the present invention.

なお、上述した本発明の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   Note that the above-described embodiments of the present invention are merely examples of implementation in practicing the present invention, and the technical scope of the present invention should not be construed as being limited thereto. It is. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

100:テーブルトップインタフェースシステム、110:情報処理装置、120:距離画像センサ、130:可視光カメラ、140:プロジェクタ、150:操作面 DESCRIPTION OF SYMBOLS 100: Table top interface system, 110: Information processing apparatus, 120: Distance image sensor, 130: Visible light camera, 140: Projector, 150: Operation surface

Claims (15)

操作面に表示された表示オブジェクトに対する操作体の操作を認識する情報処理装置であって、
前記操作体の操作位置を取得する取得手段と、
前記取得手段で取得された複数の前記操作位置に基づいて、前記操作体が前記操作面に対して高さ方向の第1の距離よりも近づいた後に第2の距離よりも遠ざかる一連の操作を判定する判定手段と、
前記一連の操作に係る前記複数の操作位置で定まる前記操作面における二次元の操作軌跡が前記表示オブジェクトの領域内に含まれる場合に、前記表示オブジェクトに対する前記操作体の操作を認識する認識手段と、
を有することを特徴とする情報処理装置。
An information processing apparatus for recognizing an operation of an operating body on a display object displayed on an operation surface,
Obtaining means for obtaining an operation position of the operating body;
Based on a plurality of the operation positions acquired by the acquisition means, a series of operations in which the operating body moves away from the second distance after the operating body approaches the operating surface from the first distance in the height direction. Determination means for determining;
Recognizing means for recognizing an operation of the operating body on the display object when a two-dimensional operation trajectory on the operation surface determined by the plurality of operation positions related to the series of operations is included in the area of the display object; ,
An information processing apparatus comprising:
前記認識手段は、前記操作軌跡のうちの少なくとも一部が前記表示オブジェクトの領域内に重畳した場合に、前記表示オブジェクトに対する前記操作体の操作を認識することを特徴とする請求項1に記載の情報処理装置。   The recognizing unit recognizes an operation of the operating body on the display object when at least a part of the operation trajectory is superimposed on an area of the display object. Information processing device. 前記判定手段は、最初に前記第1の距離よりも近づいた前記操作位置と、最初に前記第2の距離よりも遠ざかった前記操作位置との前記操作面における距離が、所定の閾値以下である場合に、前記一連の操作を判定することを特徴とする請求項1または2に記載の情報処理装置。   In the determination unit, a distance on the operation surface between the operation position first approaching the first distance and the operation position first distant from the second distance is equal to or less than a predetermined threshold. The information processing apparatus according to claim 1, wherein the series of operations is determined. 前記判定手段は、最初に前記第1の距離よりも近づいた前記操作位置における時刻から、最初に前記第2の距離よりも遠ざかった前記操作位置における時刻までの時間が、所定の閾値以下である場合に、前記一連の操作を判定することを特徴とする請求項1または2に記載の情報処理装置。   In the determination unit, a time from the time at the operation position first approaching the first distance to the time at the operation position first distant from the second distance is equal to or less than a predetermined threshold. The information processing apparatus according to claim 1, wherein the series of operations is determined. 前記認識手段は、前記操作軌跡が複数の前記表示オブジェクトの領域内に重畳した場合には、前記操作軌跡の開始の前記操作位置に最も近い前記表示オブジェクトに対する前記操作体の操作を認識することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。   The recognizing means recognizes the operation of the operating body with respect to the display object closest to the operation position at the start of the operation trajectory when the operation trajectory is superimposed in a plurality of display object areas. The information processing apparatus according to any one of claims 1 to 4, wherein the information processing apparatus is characterized in that: 前記認識手段は、前記判定手段において複数の前記一連の操作が判定された場合には、最初に判定された前記一連の操作に係る前記複数の操作位置で定まる前記操作面における前記操作軌跡を用いて、前記認識を行うことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。   The recognizing unit uses the operation locus on the operation surface determined by the plurality of operation positions related to the series of operations determined first when the determining unit determines a plurality of the series of operations. The information processing apparatus according to claim 1, wherein the recognition is performed. 前記判定手段は、所定の条件を満たす複数の前記一連の操作を一体操作と更に判定し、
前記認識手段は、前記判定手段において前記一体操作として判定された前記複数の一連の操作について、前記認識を行うことを特徴とする請求項6に記載の情報処理装置。
The determination means further determines a plurality of the series of operations satisfying a predetermined condition as an integrated operation,
The information processing apparatus according to claim 6, wherein the recognition unit performs the recognition on the series of operations determined as the integrated operation by the determination unit.
前記所定の条件は、前記複数の一連の操作のうち、第1の一連の操作における終了の前記操作位置と、前記第1の一連の操作の後になされた第2の一連の操作における開始の前記操作位置との前記操作面における距離が、所定の閾値以下である条件を含むことを特徴とする請求項7に記載の情報処理装置。   The predetermined condition includes the operation position at the end of the first series of operations among the plurality of series of operations, and the start of the second series of operations performed after the first series of operations. The information processing apparatus according to claim 7, further comprising a condition that a distance from the operation position on the operation surface is a predetermined threshold value or less. 前記所定の条件は、前記複数の一連の操作のうちの第1の一連の操作の後になされた第2の一連の操作における開始の前記操作位置と、前記第2の一連の操作における終了の前記操作位置との前記操作面における距離が、所定の閾値以下である条件を含むことを特徴とする請求項7に記載の情報処理装置。   The predetermined condition includes the operation position at the start of a second series of operations performed after the first series of operations of the plurality of series of operations and the end of the second series of operations. The information processing apparatus according to claim 7, further comprising a condition that a distance from the operation position on the operation surface is a predetermined threshold value or less. 前記所定の条件は、前記複数の一連の操作のうち、第1の一連の操作における終了の前記操作位置における時刻から、前記第1の一連の操作の後になされた第2の一連の操作における開始の前記操作位置における時刻までの時間が、所定の閾値以下である条件を含むことを特徴とする請求項7に記載の情報処理装置。   The predetermined condition is a start in a second series of operations performed after the first series of operations from a time at the operation position at the end of the first series of operations among the plurality of series of operations. The information processing apparatus according to claim 7, further comprising a condition in which a time until the time at the operation position is equal to or less than a predetermined threshold. 前記所定の条件は、前記複数の一連の操作のうちの第1の一連の操作の後になされた第2の一連の操作における開始の前記操作位置における時刻から、前記第2の一連の操作における終了の前記操作位置における時刻までの時間が、所定の閾値以下である条件を含むことを特徴とする請求項7に記載の情報処理装置。   The predetermined condition is the end of the second series of operations from the time at the operation position of the start of the second series of operations performed after the first series of operations of the plurality of series of operations. The information processing apparatus according to claim 7, further comprising a condition in which a time until the time at the operation position is equal to or less than a predetermined threshold. 前記認識手段で前記操作体の操作を認識した前記表示オブジェクトの表示を、当該認識する前の表示状態から変更する制御を行う表示制御手段を更に有することを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。   12. The display control unit according to claim 1, further comprising a display control unit that performs control to change the display of the display object that has recognized the operation of the operating body by the recognition unit from a display state before the recognition. The information processing apparatus according to claim 1. 前記判定手段で判定された前記一連の操作に係る前記操作軌跡を保持する保持手段を更に有し、
前記認識手段は、前記保持手段により保持された前記操作軌跡を用いて、前記認識を行うことを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。
A holding unit that holds the operation locus related to the series of operations determined by the determination unit;
The information processing apparatus according to claim 1, wherein the recognition unit performs the recognition using the operation locus held by the holding unit.
操作面に表示された表示オブジェクトに対する操作体の操作を認識する情報処理装置の制御方法であって、
前記操作体の操作位置を取得する取得ステップと、
前記取得ステップで取得された複数の前記操作位置に基づいて、前記操作体が前記操作面に対して高さ方向の第1の距離よりも近づいた後に第2の距離よりも遠ざかる一連の操作を判定する判定ステップと、
前記一連の操作に係る前記複数の操作位置で定まる前記操作面における二次元の操作軌跡が前記表示オブジェクトの領域内に含まれる場合に、前記表示オブジェクトに対する前記操作体の操作を認識する認識ステップと、
を有することを特徴とする情報処理装置の制御方法。
An information processing apparatus control method for recognizing an operation of an operating tool on a display object displayed on an operation surface,
An acquisition step of acquiring an operation position of the operating body;
Based on the plurality of operation positions acquired in the acquisition step, a series of operations in which the operating body moves away from the second distance after approaching the operating surface from the first distance in the height direction. A determination step for determining;
A recognition step for recognizing an operation of the operating body on the display object when a two-dimensional operation locus on the operation surface determined by the plurality of operation positions related to the series of operations is included in the area of the display object; ,
A method for controlling an information processing apparatus, comprising:
請求項1乃至13のいずれか1項に記載の情報処理装置における各手段としてコンピュータを機能させるためのプログラム。   The program for functioning a computer as each means in the information processing apparatus of any one of Claims 1 thru | or 13.
JP2017130940A 2017-07-04 2017-07-04 Information processing device, and control method and program thereof Pending JP2019016029A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017130940A JP2019016029A (en) 2017-07-04 2017-07-04 Information processing device, and control method and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017130940A JP2019016029A (en) 2017-07-04 2017-07-04 Information processing device, and control method and program thereof

Publications (1)

Publication Number Publication Date
JP2019016029A true JP2019016029A (en) 2019-01-31

Family

ID=65358541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017130940A Pending JP2019016029A (en) 2017-07-04 2017-07-04 Information processing device, and control method and program thereof

Country Status (1)

Country Link
JP (1) JP2019016029A (en)

Similar Documents

Publication Publication Date Title
US8933882B2 (en) User centric interface for interaction with visual display that recognizes user intentions
JP6618276B2 (en) Information processing apparatus, control method therefor, program, and storage medium
US20120169671A1 (en) Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor
US6674424B1 (en) Method and apparatus for inputting information including coordinate data
JP4608326B2 (en) Instruction motion recognition device and instruction motion recognition program
US9035889B2 (en) Information processing apparatus and information processing method
JP2011028366A (en) Operation control device and operation control method
JP6711817B2 (en) Information processing apparatus, control method thereof, program, and storage medium
JP2010079834A (en) Device for determination of mounting position of coordinate detection device and electronic board system
JP2017199289A (en) Information processor, control method thereof, program, and storage medium
JP6381361B2 (en) DATA PROCESSING DEVICE, DATA PROCESSING SYSTEM, DATA PROCESSING DEVICE CONTROL METHOD, AND PROGRAM
JP6452369B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP2016103137A (en) User interface system, image processor and control program
JP6746419B2 (en) Information processing apparatus, control method thereof, and computer program
US20180373392A1 (en) Information processing device and information processing method
JP2017117373A (en) Operation device and control method of the same, and program
JP5342806B2 (en) Display method and display device
JP2017084307A (en) Information processing device, control method therefor, program, and recording medium
JP6555958B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP6618301B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP2018063555A (en) Information processing device, information processing method, and program
JP6452658B2 (en) Information processing apparatus, control method thereof, and program
JP2019016029A (en) Information processing device, and control method and program thereof
JP6643825B2 (en) Apparatus and method
TWI444875B (en) Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and imaging sensor