JP2017084307A - Information processing device, control method therefor, program, and recording medium - Google Patents

Information processing device, control method therefor, program, and recording medium Download PDF

Info

Publication number
JP2017084307A
JP2017084307A JP2015215218A JP2015215218A JP2017084307A JP 2017084307 A JP2017084307 A JP 2017084307A JP 2015215218 A JP2015215218 A JP 2015215218A JP 2015215218 A JP2015215218 A JP 2015215218A JP 2017084307 A JP2017084307 A JP 2017084307A
Authority
JP
Japan
Prior art keywords
hand
operating body
information
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015215218A
Other languages
Japanese (ja)
Inventor
伊藤 光
Hikari Ito
光 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015215218A priority Critical patent/JP2017084307A/en
Publication of JP2017084307A publication Critical patent/JP2017084307A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device which, even when at least one of a plurality of indication positions constituting an operation being inputted cannot be detected due to the fact that a portion of an operation medium has entered the dead angle of imaging means, recognizes that a touch state is continued.SOLUTION: Provided is an information processing device 100 for recognizing input of an operation to an operation face 101 by the end part of an operation medium, the device comprising: a state acquisition unit which, when the end part of the operation medium exists within the range of spaces on the operation face in which the distance from the operation face 101 is smaller than a prescribed reference, acquires, from an image capturing the space on the operation face, information showing the state of the operation medium with respect to a distance image sensor 102 that has captured the image; and a recognition unit which, when it is assumed in association with the acquired information that the end part of the operation medium has entered the dead angle of the distance image sensor 102, recognizes that the end part of the operation medium is inputting an operation to the operation face using a reference different from the case when it is not assumed that a portion has entered the dead angle.SELECTED DRAWING: Figure 1

Description

本発明は、撮像された画像に基づいて操作者の操作を認識する技術に関する。   The present invention relates to a technique for recognizing an operator's operation based on a captured image.

近年では、AR(Augmented Reality)やMR(Mixed Reality)といった環境において、物理的には存在しない操作面(仮想面)に対するタッチ操作が行われる場面がある。また、プロジェクションによって操作者インタフェース(以下、UI)を壁や机など任意の操作面に投影し、投影したUIに対してタッチ操作が行われる場面がある。このような場面においては、ステレオカメラや距離画像センサ等の撮像手段を用い、操作面と、所定の操作体の一部(例えば操作者の指先)との間の距離に基づく判断により、両者が接触しているか否かを判断することが多い。具体的には、操作面と、操作者の指先との間の距離に所定の閾値を設け、間の距離が閾値を下回った場合を両者が接触している状態であるとみなす。   In recent years, in an environment such as AR (Augmented Reality) and MR (Mixed Reality), there is a scene where a touch operation is performed on an operation surface (virtual surface) that does not physically exist. In addition, there is a scene in which an operator interface (hereinafter referred to as UI) is projected onto an arbitrary operation surface such as a wall or a desk by projection, and a touch operation is performed on the projected UI. In such a scene, both are determined based on the distance between the operation surface and a part of a predetermined operation body (for example, the fingertip of the operator) using imaging means such as a stereo camera or a distance image sensor. It is often determined whether or not they are in contact. Specifically, a predetermined threshold is provided for the distance between the operation surface and the fingertip of the operator, and the case where the distance is less than the threshold is regarded as a state where both are in contact.

画像を用いる体の一部の動きに基づく操作の認識においては、撮像手段と操作者の位置関係によっては、検出すべき操作者の体の一部が、撮像手段の死角に入り、その動きを正しく認識できないことが問題となる。   In recognition of an operation based on the movement of a part of the body using an image, depending on the positional relationship between the imaging means and the operator, a part of the operator's body to be detected enters the blind spot of the imaging means, and the movement is detected. The problem is that it cannot be recognized correctly.

上記の問題に対して、特許文献1が開示する技術は、操作者の手先の3次元モデルを用いてその位置と姿勢を連続的にトラッキングすることで、死角に入った場合でも手先位置を大まかに推定し、その動きに基づく空間ジェスチャ操作を継続して認識できる。また、特許文献2では、障害物により遮られて、一時的に画像センサに映らなくなった手の動きを、予め登録された移動軌跡により補完する。   With respect to the above problem, the technique disclosed in Patent Document 1 uses a three-dimensional model of the operator's hand to continuously track its position and posture, so that the hand position can be roughly determined even when entering the blind spot. It is possible to continuously recognize a spatial gesture operation based on the motion. Moreover, in patent document 2, the movement of the hand which was interrupted by the obstacle and temporarily disappeared from the image sensor is complemented by a movement locus registered in advance.

特開2013−205983号公報JP 2013-205983 A 特開2014−21944号公報JP 2014-21944 A

特許文献1および特許文献2は、操作体が描く軌跡の形状に対応づけられた指示を解釈する操作認識方法において、軌跡の一部が欠損した場合に、欠損部分を補完して操作の認識を継続することを可能とするものである。しかしながら、いずれの補完方法を用いても、撮像手段の死角に入った操作体が操作面に接触しているか否かの判定を正確に行うことは困難である。   In Patent Document 1 and Patent Document 2, in an operation recognition method for interpreting an instruction associated with a shape of a trajectory drawn by an operating body, when a part of the trajectory is missing, the missing part is complemented to recognize the operation. It is possible to continue. However, regardless of which complementing method is used, it is difficult to accurately determine whether or not the operating tool that has entered the blind spot of the imaging means is in contact with the operating surface.

そこで本発明は、操作体の一部が撮像手段の死角に入った影響で入力中の操作を構成する複数の指示位置の少なくとも1つの検出が困難となった場合でも、タッチ状態が継続されていることを認識可能とすることを目的とする。   Therefore, the present invention allows the touch state to be continued even when it becomes difficult to detect at least one of a plurality of designated positions constituting the input operation due to the influence of a part of the operating body entering the blind spot of the imaging means. The purpose is to be able to recognize that

本発明は、操作体の端部による操作面への操作の入力を認識する情報処理装置であって、前記操作面上の空間のうち、前記操作面からの距離が所定の基準より小さい範囲内に前記操作体の端部が存在する場合、前記操作面上の空間を撮像した画像から、前記操作体の、前記画像を撮像した撮像手段に対する状態を表す情報を取得する取得手段と、前記取得手段によって取得された情報に関連して前記操作体の端部が前記撮像手段の死角に入っているとみなされる場合は、前記操作体の端部が前記撮像手段の死角に入っているとみなされない場合とは異なる基準を用いて、前記操作体の端部が前記操作面に対する操作の入力中であることを認識する認識手段と、を備える。   The present invention relates to an information processing apparatus for recognizing an input of an operation on an operation surface by an end of an operation body, wherein a distance from the operation surface in a space on the operation surface is smaller than a predetermined reference. An acquisition means for acquiring information representing a state of the operation body with respect to an imaging means for capturing the image from an image obtained by imaging a space on the operation surface; If the end of the operating body is considered to be in the blind spot of the imaging means in relation to the information acquired by the means, the end of the operating body is considered to be in the blind spot of the imaging means. Recognizing means for recognizing that the end of the operation body is inputting an operation on the operation surface, using a different standard from the case where the operation is not performed.

本発明によれば、操作体の一部が撮像手段の死角に入った影響で入力中の操作を構成する複数の指示位置の少なくとも1つの検出が困難となった場合でも、タッチ状態が継続されていることを認識可能となる。   According to the present invention, even when it becomes difficult to detect at least one of a plurality of designated positions constituting an operation being input due to the influence of a part of the operating body entering the blind spot of the imaging unit, the touch state is continued. It becomes possible to recognize that.

情報処理装置を利用するシステムの外観と位置情報の定義の一例を表す図。The figure showing an example of the definition of the appearance and position information of the system which uses information processor. タッチ操作中の手の状況と手領域の対応関係の一例を表す図。The figure showing an example of the correspondence of the condition of the hand during a touch operation, and a hand region. 情報処理装置のハードウェア構成、及び機能構成の一例を表すブロック図。2 is a block diagram illustrating an example of a hardware configuration and a functional configuration of an information processing device. FIG. 本発明の実施例における機能部を表す図。The figure showing the function part in the Example of this invention. タッチ操作を認識する処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the process which recognizes touch operation. タッチ判定処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of a touch determination process. タッチ判定の閾値制御処理の流れの一例を示すフローチャート。The flowchart which shows an example of the flow of the threshold control process of a touch determination. シングルタッチ操作の操作例を示す図。The figure which shows the operation example of single touch operation. シングルタッチ操作の操作例を示す図。The figure which shows the operation example of single touch operation. マルチタッチ操作の操作例を示す図。The figure which shows the operation example of multi-touch operation. マルチタッチ操作の操作例を示す図。The figure which shows the operation example of multi-touch operation. 操作体の先端が隠れている状態を検出する検出精度向上の方法を示す図。The figure which shows the method of the detection accuracy improvement which detects the state which the front-end | tip of an operating body is hidden. 操作体であるユーザの手指の状態とシステムの関係を説明する図。The figure explaining the relationship between the state of the user's finger | toe which is an operation body, and a system.

以下、本発明に係る実施例の情報処理を、図面を参照して詳細に説明する。なお、実施例に記載する構成は例示であり、本発明の範囲をそれらの構成に限定する趣旨のものではない。   Hereinafter, information processing according to an embodiment of the present invention will be described in detail with reference to the drawings. In addition, the structure described in an Example is an illustration and is not the meaning which limits the scope of the present invention to those structures.

<第1の実施形態>
まず、第1の実施形態として、テーブルトップインタフェースシステムのテーブル面に投影されたアイテムに対し操作者が行うタッチ操作を認識する処理の例を説明する。
<First Embodiment>
First, as a first embodiment, an example of processing for recognizing a touch operation performed by an operator on an item projected on a table surface of a table top interface system will be described.

[システムの構成]
図1(a)は、本実施形態に係る情報処理装置100を設置したテーブルトップインタフェースシステムの外観の一例である。操作面101は、テーブルトップインタフェースのテーブル部分であり、操作者は、操作面101をタッチすることでタッチ操作を入力することが可能である。ただし、本実施形態においてタッチ操作とは、操作者が用いる操作体の一部が所定の操作面に対して所定の基準を満たす程度に近接した状態で入力する操作のことを意味する。タッチ操作の入力中に、実際に操作面と操作体とが接触しているか否かは問わない。本実施形態では、操作面101の上方に、操作面を見下ろすようにして距離画像センサ102が設置される。距離画像とは、各画素の値に、当該距離画像を撮像する撮像手段の基準位置(例えばレンズ中心など)から、当該画素に撮像された被写体表面までの距離に対応する情報が反映された画像である。本実施形態において、距離画像センサ102が撮像する距離画像の画素値には、距離画像センサ102から、操作面101あるいはその上方に存在する物体表面までの距離が反映される。本実施形態で利用する距離画像センサ102はTOFセンサ(Time-Of-Flightセンサ)である。TOFセンサでは、被写体表面で反射された光を受光し、その位相遅れを計測することで、光が反射するまでにかかった時間の違いを被写体表面までの距離(深度方向の距離)の違いに対応するものとして検出する。距離画像は、画素毎に上記のようにして得られた距離情報が、画素値として反映されている。また距離画像センサ102は、深度方向の距離の距離情報を得ることから、デプスセンサと呼ばれることもある。なお、本実施形態の距離画像センサ102はTOFセンサに限らず、例えば赤外パターン照射方式のセンサや、ステレオカメラシステムを設置することで距離画像を得ることも可能である。距離画像センサ102によって撮像された距離画像は、情報処理装置100に入力画像として入力される。情報処理装置100は、入力画像を解析することで操作者の手106の三次元位置を取得し、入力される操作を認識する。従って操作者は、操作面上の空間(操作面100と距離画像センサ102の間の空間)のうち、距離画像センサ102によって撮像可能な範囲において、手などの所定の物体を動かすことにより空間ジェスチャ操作を入力することが可能である。
[System configuration]
FIG. 1A is an example of the appearance of a tabletop interface system in which the information processing apparatus 100 according to the present embodiment is installed. The operation surface 101 is a table portion of the table top interface, and the operator can input a touch operation by touching the operation surface 101. However, in this embodiment, the touch operation means an operation that is input in a state in which a part of the operation body used by the operator is close enough to satisfy a predetermined standard with respect to a predetermined operation surface. It does not matter whether the operation surface is actually in contact with the operating body during the input of the touch operation. In the present embodiment, the distance image sensor 102 is installed above the operation surface 101 so as to look down at the operation surface. A distance image is an image in which information corresponding to the distance from the reference position (for example, the center of a lens, etc.) of the imaging means that captures the distance image to the subject surface imaged by the pixel is reflected in the value of each pixel. It is. In the present embodiment, the distance image sensor 102 captures the distance value from the distance image sensor 102 to the operation surface 101 or the object surface above the distance image. The distance image sensor 102 used in the present embodiment is a TOF sensor (Time-Of-Flight sensor). The TOF sensor receives light reflected from the surface of the subject and measures the phase lag to change the difference in time taken to reflect the light to the distance to the subject surface (distance in the depth direction). Detect as corresponding. In the distance image, distance information obtained as described above for each pixel is reflected as a pixel value. Further, the distance image sensor 102 obtains distance information of the distance in the depth direction, and therefore may be called a depth sensor. The distance image sensor 102 of the present embodiment is not limited to the TOF sensor, and for example, a distance image can be obtained by installing an infrared pattern irradiation type sensor or a stereo camera system. A distance image captured by the distance image sensor 102 is input to the information processing apparatus 100 as an input image. The information processing apparatus 100 acquires the three-dimensional position of the operator's hand 106 by analyzing the input image, and recognizes the input operation. Accordingly, the operator moves the space gesture by moving a predetermined object such as a hand within a range that can be imaged by the distance image sensor 102 in the space on the operation surface (the space between the operation surface 100 and the distance image sensor 102). An operation can be entered.

また本実施形態では、可視光カメラ103が上方から操作面101を見下ろすようにして設置される。情報処理装置100は、可視光カメラ103を制御して、操作面101に載置された物体を撮像してその読み取り画像を得る書画カメラとして機能することができる。情報処理装置100は、可視光カメラ103によって得られる可視光画像や、距離画像センサ102によって得られる距離画像に基づいて、操作面101上の空間に存在する物体を検出し、さらに識別する。物体には、例えば、操作者の手、紙媒体や本などのドキュメントやその他の立体物を含む。ただし、図1(a)に例示するシステムの場合は、距離画像センサ102と可視光カメラ103の画角には、テーブル周囲に存在する操作者の頭部は含まれない。そのため得られた入力画像では、画像端部がユーザの腕(肩から先の部分)の何処か一部と交差する。   In the present embodiment, the visible light camera 103 is installed so as to look down on the operation surface 101 from above. The information processing apparatus 100 can function as a document camera that controls the visible light camera 103 to capture an image of an object placed on the operation surface 101 and obtain a read image thereof. The information processing apparatus 100 detects and further identifies an object existing in the space on the operation surface 101 based on a visible light image obtained by the visible light camera 103 and a distance image obtained by the distance image sensor 102. The object includes, for example, an operator's hand, a paper medium, a document such as a book, and other three-dimensional objects. However, in the case of the system illustrated in FIG. 1A, the angle of view of the distance image sensor 102 and the visible light camera 103 does not include the operator's head around the table. Therefore, in the obtained input image, the image end portion intersects some part of the user's arm (portion beyond the shoulder).

プロジェクタ104は、操作面101の上面に画像の投影を行う。本システムでは、操作者は投影された画像に含まれるアイテム105に対して、タッチや空間ジェスチャによる操作を行う。上述したように、本実施形態では、手106の検出および操作の認識には、距離画像センサ102で取得した距離画像を用いる。距離画像を用いることで、プロジェクタ104の投影光の影響で操作者の手の色が変化しても影響を受けにくいという利点がある。本システムの表示装置は、プロジェクタ104に替えて、操作面101を液晶ディスプレイとするなどで構成することもできる。その場合、可視光画像からの肌色領域を検出するなどして画像から人の手を検出する方式を用いても、投影光の影響は受けずに手の検出が可能である。   The projector 104 projects an image on the upper surface of the operation surface 101. In this system, the operator performs an operation by touch or space gesture on the item 105 included in the projected image. As described above, in the present embodiment, the distance image acquired by the distance image sensor 102 is used for detecting the hand 106 and recognizing the operation. By using the distance image, there is an advantage that even if the color of the operator's hand changes due to the projection light of the projector 104, the distance image is hardly affected. The display device of the present system can be configured by using the operation surface 101 as a liquid crystal display instead of the projector 104. In that case, even if a method of detecting a human hand from an image by detecting a skin color region from a visible light image, the hand can be detected without being affected by the projection light.

なお、操作面101を上方から見た画像が得られる構成であれば、必ずしも距離画像センサ102及び可視光カメラ103自体が上方に設置されている必要はなく、例えば操作面に対向するようにミラー設置し、ミラーを撮像するように構成しても構わない。プロジェクタ104も同様に、図1(a)の例では、斜め上方から見下ろすように操作面101上への投影を行うが、異なる方向に向けて投影された投影光を、ミラーなどを利用して操作面101に反射させてもよい。操作面101が鉛直方向に沿って設置されたような場合も同様である。   If the image obtained by viewing the operation surface 101 from above is obtained, the distance image sensor 102 and the visible light camera 103 do not necessarily have to be installed above, for example, a mirror so as to face the operation surface. It may be installed and configured to take an image of the mirror. Similarly, in the example of FIG. 1A, the projector 104 projects onto the operation surface 101 so as to look down from diagonally above, but the projection light projected in different directions is used using a mirror or the like. It may be reflected on the operation surface 101. The same applies to the case where the operation surface 101 is installed along the vertical direction.

本実施形態では、操作面101上の三次元空間に図1に示すx、y、z軸を定義し、位置情報を扱う。図1(a)の例では、点107を座標軸の原点とする。ここでは一例として、テーブルの上面に平行な二次元がxy平面、テーブル上面に直交し上方に伸びる方向をz軸の正方向としている。本実施形態では、z軸方向は、世界座標系での高さ方向に相当する。しかしながら本実施形態は、ホワイトボードや壁面など、水平ではない面を操作面101とするシステムや、操作面が凹凸を有する場合や、MRを利用して生成された仮想面である場合にも適用可能である。   In the present embodiment, the x, y, and z axes shown in FIG. 1 are defined in a three-dimensional space on the operation surface 101, and position information is handled. In the example of FIG. 1A, the point 107 is the origin of the coordinate axes. Here, as an example, the two dimensions parallel to the upper surface of the table are the xy plane, and the direction perpendicular to the table upper surface and extending upward is the positive direction of the z axis. In the present embodiment, the z-axis direction corresponds to the height direction in the world coordinate system. However, the present embodiment is also applied to a system in which a non-horizontal surface such as a whiteboard or a wall surface is used as the operation surface 101, a case where the operation surface has irregularities, or a virtual surface generated using MR. Is possible.

図1(b)は、距離画像センサ102によって撮像される距離画像とシステムの関係を表す図である。画像108は、距離画像センサ102によって撮像される距離画像の内容の一例を表す。距離画像の各画素には、距離画像センサ102から被写体までの距離に対応する値が、画素値として保持される。本実施形態では、距離画像センサ102は操作面101を見下ろすように距離画像を撮像する。従って、距離画像の各画素値は、操作面101からの高さ方向の位置情報(z座標)を得るための情報を含む。ただし、本実施形態では、距離画像センサ102は、z軸に対して斜めに角度をもつように設置されている。従って、本実施形態では距離画像の画素値をそのままz座標として利用するのではなく、センサや設置環境に応じたパラメータを使った座標変換を施すことで、画像内に定義された位置情報を世界座標のxyz座標に変換して利用する。図1(b)に示す距離画像の例では、各画素値に反映された距離情報は省略し、被写体のエッジのみを明示する。テーブル101及び原点107は図1(a)に対応している。範囲111は、距離画像センサ102の画角に相当する。以下では、画像端111と称する。   FIG. 1B is a diagram illustrating the relationship between the distance image captured by the distance image sensor 102 and the system. An image 108 represents an example of the content of a distance image captured by the distance image sensor 102. In each pixel of the distance image, a value corresponding to the distance from the distance image sensor 102 to the subject is held as a pixel value. In the present embodiment, the distance image sensor 102 captures a distance image so that the operation surface 101 is looked down. Accordingly, each pixel value of the distance image includes information for obtaining position information (z coordinate) in the height direction from the operation surface 101. However, in the present embodiment, the distance image sensor 102 is installed so as to have an angle with respect to the z axis. Therefore, in this embodiment, the pixel value of the distance image is not used as it is as the z-coordinate, but the position information defined in the image is converted to the world by performing coordinate conversion using parameters according to the sensor and the installation environment. Used by converting to xyz coordinates. In the example of the distance image shown in FIG. 1B, the distance information reflected in each pixel value is omitted, and only the edge of the subject is clearly shown. The table 101 and the origin 107 correspond to FIG. A range 111 corresponds to an angle of view of the distance image sensor 102. Hereinafter, the image edge 111 is referred to.

斜線で示す領域109は、距離画像108に写っている操作者の手106の像である(以下では単に手領域109という)。本実施形態では、検出される手のそれぞれに対して1箇所の指示位置を検出する。指示位置とは、操作者が手指を使って指し示していると推定される位置の座標である。本実施形態では、前提として、操作者がタッチ操作のために点を指定する場合には、1本だけ指を伸ばした「指さしポーズ」を取ることが規定される。1本指を延ばすポーズが、多くの人にとっては1点を指し示すのに自然な体勢だからである。従って、指示位置としては、手領域109のうち指先だと推定される位置を特定する。具体的には、距離画像から、手領域109を抽出し、手領域109のうち画像端111から最も遠い位置に存在する画素を示す座標を、指示位置とする。これにより、1本だけ伸ばした指の指先位置が、指示位置として特定される。図1(b)に示される手領域109の場合、画像端111から最も遠い点が指示位置110として特定される。ただし、指示位置の特定方法はこれに限らず、例えば、手領域から手の五指を検出して、所定の指の先端を指示位置としてもよい。   A hatched area 109 is an image of the operator's hand 106 in the distance image 108 (hereinafter simply referred to as the hand area 109). In the present embodiment, one designated position is detected for each detected hand. The designated position is a coordinate of a position estimated that the operator is pointing with a finger. In the present embodiment, as a premise, when the operator designates a point for a touch operation, it is prescribed to take a “pointing pose” with one finger extended. This is because a pose with one finger extended is a natural posture for many people to point to one point. Therefore, the position estimated to be the fingertip in the hand area 109 is specified as the designated position. Specifically, the hand region 109 is extracted from the distance image, and the coordinates indicating the pixel existing in the farthest position from the image end 111 in the hand region 109 are set as the designated position. Thereby, the fingertip position of the finger extended by one is specified as the designated position. In the case of the hand area 109 shown in FIG. 1B, the point farthest from the image end 111 is specified as the designated position 110. However, the method for specifying the designated position is not limited to this, and for example, the five fingers of the hand may be detected from the hand area, and the tip of a predetermined finger may be used as the designated position.

距離画像には、図1(b)に示すようにu軸及びv軸による2次元座標系が設定される。なお図1(b)の例では、距離画像の解像度は640[dot]×480[dot]とする。指示位置110の距離画像内の位置座標が(u,v)であり、距離画像センサ102から指示位置までの距離に相当する画素値がdであるとする。本実施形態では、このように距離画像内で定義される位置情報に対して、距離画像センサ102のレンズ特性および操作面101との相対位置関係等に基づく座標変換を施す。これにより、各画素の座標をテーブルに定義された実世界上の座標系にマッピングし、指示位置110について、実空間の3次元位置(x,y,z)を取得することができる。座標変換に利用する変換行列は、距離画像センサ102が設置された時に、予め調整作業を行い取得する。なお、3次元座標の算出に用いる距離dは、単一の画素値だけでなく、手領域内で指示位置110の近傍の数ピクセル分の画素を対象に、ノイズ除去処理や平均化処理を実施した上で特定してもよい。   As shown in FIG. 1B, a two-dimensional coordinate system based on the u axis and the v axis is set in the distance image. In the example of FIG. 1B, the resolution of the distance image is 640 [dot] × 480 [dot]. Assume that the position coordinate in the distance image of the designated position 110 is (u, v), and the pixel value corresponding to the distance from the distance image sensor 102 to the designated position is d. In the present embodiment, coordinate conversion based on the lens characteristics of the distance image sensor 102 and the relative positional relationship with the operation surface 101 is performed on the position information defined in the distance image in this way. As a result, the coordinates of each pixel can be mapped to a coordinate system in the real world defined in the table, and the three-dimensional position (x, y, z) in the real space can be acquired for the designated position 110. The transformation matrix used for coordinate transformation is acquired by performing adjustment work in advance when the distance image sensor 102 is installed. Note that the distance d used for calculating the three-dimensional coordinates is not limited to a single pixel value, but noise removal processing and averaging processing are performed on pixels of several pixels in the vicinity of the indicated position 110 in the hand region. And may be specified.

また本実施形態では、各フレームで、手領域109が画像端111と交差する部分の中央を、手の侵入位置として定義する。図1(b)の手領域109の場合、侵入位置112が特定される。侵入位置112もまた、距離画像内に定義された位置情報を変換することで、実空間内での三次元位置情報として取得される。本実施形態では、距離画像から複数の手領域が検出された場合、そのそれぞれについて、指示位置及び侵入位置が特定される。そして、複数の手領域のそれぞれについてタッチ操作を認識する。本明細書では操作者がタッチ操作の入力に用いる操作体及びその端部の一例として、操作者の手106及びその指が利用されること想定する。ただし、本実施形態では操作体として、手指だけでなくスタイラスやロボットアームなどの器具を利用する場合にも適用可能である。なお操作体の端部とは、タッチ操作のために指示位置を指し示すのに用いられる部位を示す。端部は、操作体の一部に属し、タッチ操作の入力が可能な部位であれば、必ずしも突起部分の先端に限定せずともよい。   In this embodiment, the center of the portion where the hand region 109 intersects the image end 111 in each frame is defined as the hand entry position. In the case of the hand region 109 in FIG. 1B, the intrusion position 112 is specified. The intrusion position 112 is also acquired as three-dimensional position information in real space by converting the position information defined in the distance image. In the present embodiment, when a plurality of hand regions are detected from the distance image, the indicated position and the intrusion position are specified for each of them. Then, the touch operation is recognized for each of the plurality of hand regions. In this specification, it is assumed that an operator's hand 106 and its finger are used as an example of an operation body and an end part thereof used for an input of a touch operation by the operator. However, in the present embodiment, the present invention can be applied not only to fingers but also instruments such as a stylus and a robot arm as the operating body. Note that the end portion of the operating body indicates a part used to point to the designated position for the touch operation. The end is not necessarily limited to the tip of the protruding portion as long as the end belongs to a part of the operation body and can be input by a touch operation.

ここで図2を参照して、本実施形態が解決する課題を改めて説明する。図2は、タッチ操作中の手の状況と手領域の対応関係の一例を表す。図2(a)は、図1(a)に示したテーブルトップインタフェースシステムについて、操作者の手106付近をx軸正方向に沿って見た図である。このとき、操作者の手106は人差指を伸ばして、操作面101をタッチしている。情報処理装置100は、上方から撮像した距離画像に基づいて、人差指の指先の位置を指示位置200として特定し、指示位置200のz座標に対する閾値処理により、操作者が操作面101をタッチしている状態にあると判定する。具体的には、z座標が閾値として設定された操作面101からの高さを表す値よりも小さい場合に、操作面101が指先によってタッチされていると判定する。ここで、操作者の指が操作面101と物理的に接触していなかったとしても、z座標が閾値より低い場合は全てタッチ状態であるとみなされる。なお、この判定処理を、以下ではタッチ判定と言う。また、操作面101が指先によってタッチされている、つまり情報処理装置100が処理対象となっている指示位置に基づくタッチ操作の受け付け中であることを、当該指示位置あるいはその操作体がタッチ状態であると言う。   Here, with reference to FIG. 2, the problem which this embodiment solves is demonstrated anew. FIG. 2 shows an example of the correspondence relationship between the hand situation during the touch operation and the hand region. FIG. 2A is a view of the vicinity of the operator's hand 106 along the x-axis positive direction in the table top interface system shown in FIG. At this time, the operator's hand 106 extends the index finger and touches the operation surface 101. The information processing apparatus 100 specifies the position of the fingertip of the index finger as the designated position 200 based on the distance image captured from above, and the operator touches the operation surface 101 by threshold processing for the z coordinate of the designated position 200. It is determined that it is in a state. Specifically, when the z coordinate is smaller than a value representing the height from the operation surface 101 set as the threshold value, it is determined that the operation surface 101 is touched by the fingertip. Here, even if the operator's finger is not in physical contact with the operation surface 101, if the z coordinate is lower than the threshold value, all are considered to be in the touch state. This determination process is hereinafter referred to as touch determination. The operation surface 101 is touched by a fingertip, that is, the touch operation based on the instruction position that is the processing target of the information processing apparatus 100 is being accepted. Say there.

図1(a)のシステムの構成では、距離画像センサ102は操作面101に対して斜め上方に設置されるため、図2(a)に示すように、手106の角度によっては、手の甲によって指が隠され、指先が距離画像センサ102の死角201に入ってしまう。なお、装置の小型化を実現するためには、距離画像センサ102を設置する高さを制限する必要があり、設置する高さをむやみに高くすることはできない。図2(b)は、図2(a)の状態を距離画像センサ102が撮像した距離画像における、手領域109を表す。指先が死角に入っているため、手領域109のうち画像端111から最も遠い点として特定される指示位置202は、中指の付け根付近となる。図2(a)に示すように、指示位置202は、高さ203の分、実際の指先位置200よりも高い位置に存在する。従って、操作者による操作面101へのタッチの有無を判定するに用いる高さ(z座標)の閾値が、高さ203より小さければ、操作者はタッチしているつもりでいるにも関わらず、情報処理装置100は、タッチされたことを検出できないという課題が生じ得る。なお、手領域から手の五指を検出して、所定の指の先端を指示位置として特定する場合にも、指先が死角201に入ってしまうことにより、所定の指が検出できなかったり、指の長さが実際よりも短く検出されたりするなどの課題が生じ得る。   In the system configuration of FIG. 1A, the distance image sensor 102 is installed obliquely upward with respect to the operation surface 101. Therefore, depending on the angle of the hand 106, as shown in FIG. Is hidden, and the fingertip enters the blind spot 201 of the distance image sensor 102. In order to reduce the size of the apparatus, it is necessary to limit the height at which the distance image sensor 102 is installed, and the installation height cannot be increased excessively. FIG. 2B shows the hand region 109 in the distance image obtained by the distance image sensor 102 capturing the state of FIG. Since the fingertip is in the blind spot, the indication position 202 identified as the point farthest from the image end 111 in the hand region 109 is near the base of the middle finger. As shown in FIG. 2A, the designated position 202 exists at a position higher than the actual fingertip position 200 by the height 203. Therefore, if the height (z coordinate) threshold used for determining whether or not the operator touches the operation surface 101 is smaller than the height 203, the operator intends to touch, but is not touched. The information processing apparatus 100 may have a problem that it cannot detect that it has been touched. In addition, even when detecting the five fingers of the hand from the hand region and specifying the tip of the predetermined finger as the designated position, the predetermined finger cannot be detected because the fingertip enters the blind spot 201, There may be a problem that the length is detected shorter than the actual length.

そこで本実施形態では、操作体の距離画像センサ102に対する状態に基づいて、指先が距離画像センサ102の死角201に入っているとみなされるかを判定する。言い換えれば、指示位置として指先を検出できているとみなされるかを判定する。そして、その結果に応じて、タッチ判定の基準を使い分けることで、指先位置200が距離画像センサ102の死角201に入っている場合にも、タッチ判定の誤判定を低減する。   Therefore, in the present embodiment, it is determined whether the fingertip is considered to be in the blind spot 201 of the distance image sensor 102 based on the state of the operating body with respect to the distance image sensor 102. In other words, it is determined whether the fingertip is considered to be detected as the designated position. And according to the result, by using different touch determination criteria, erroneous determination of touch determination is reduced even when the fingertip position 200 is in the blind spot 201 of the distance image sensor 102.

[判定処理の概要]
ここで、情報処理装置100が実行する、指示位置の高さと、距離画像中の操作者の腕の方向と、撮像位置から指示位置までの方向とに基づいて、操作体の距離画像センサに対する状態を取得し、指先を含む死角の有無を判定する処理の概要を説明する。
[Overview of judgment processing]
Here, based on the height of the designated position, the direction of the operator's arm in the distance image, and the direction from the imaging position to the designated position, executed by the information processing apparatus 100, the state of the operating body with respect to the distance image sensor The outline of the process of acquiring the blind spot and determining the presence or absence of the blind spot including the fingertip will be described.

本実施形態での判定処理は、具体的には、図13(a)に示す条件に従って実行される。図13(a)は、検出した指示位置の高さ、距離画像センサ102が指示位置を撮像する撮像方向と操作体であるユーザの操作体自体の方向の関係、及びそれらに基づく判定結果を表したテーブルである。本実施形態では、まず、検出された指示位置の高さがタッチ閾値よりも低い(タッチ状態にあるとみなされる程度に低い)場合は、指先を含むような死角は存在しないとみなす。なぜなら、本実施形態の課題の発生要因である「指先が手の甲など同じ手の他の部位によって生じた死角に入ってしまった場合」では、図2(b)のように、タッチ中であってもタッチ閾値よりも高い位置で指示位置が検出されることが多い。言いかえれば、検出された指示位置の高さが十分に低い場合は、指先を含むような死角は存在しない可能性が高いと言える。   Specifically, the determination process in the present embodiment is executed according to the conditions shown in FIG. FIG. 13A shows the detected height of the designated position, the relationship between the imaging direction in which the distance image sensor 102 images the designated position and the direction of the operation body of the user as the operating body, and the determination result based on them. It is a table. In the present embodiment, first, when the height of the detected indication position is lower than the touch threshold (low enough to be considered to be in the touch state), it is considered that there is no blind spot including the fingertip. This is because, in the case where the fingertip enters the blind spot caused by another part of the same hand such as the back of the hand, which is the cause of the problem of the present embodiment, as shown in FIG. In many cases, the indicated position is detected at a position higher than the touch threshold. In other words, if the detected indication position is sufficiently low, it can be said that there is a high possibility that there is no blind spot including the fingertip.

本実施形態では、検出された指示位置の高さがタッチ閾値よりも高い(タッチ状態であるとみなされない)場合は、距離画像センサ102の撮像位置と操作体の方向の関係に応じて、指先を含むような死角の有無を区別する。距離画像センサ102の撮像位置と操作体の方向の関係は、具体的には次の2つの方向の角度の差に基づいて区別される。1つは、操作面101上の空間における操作体自体の方向を表す第1の方向である。もう1つは、撮像位置から指示位置の方を見た方向(撮像方向)を表す第2の方向であって、距離画像センサ102の撮像位置と、検出された指示位置とに基づいて特定される。ただし、2つの方向はxy平面上での方向を比較するとする。   In the present embodiment, when the height of the detected indication position is higher than the touch threshold (not considered to be in the touch state), the fingertip is determined according to the relationship between the imaging position of the distance image sensor 102 and the direction of the operating tool. The presence or absence of blind spots that contain Specifically, the relationship between the imaging position of the distance image sensor 102 and the direction of the operating body is distinguished based on the difference in angle between the following two directions. One is a first direction that represents the direction of the operation body itself in the space on the operation surface 101. The other is a second direction representing the direction (imaging direction) when viewing the designated position from the imaging position, and is specified based on the imaging position of the distance image sensor 102 and the detected designated position. The However, the two directions are compared with the directions on the xy plane.

図13(b)は、検出された指示位置の高さが、タッチ閾値より高く、かつ、第1の方向と第2の方向とに、十分な角度差が生じている場合における、操作体の状態とシステムの関係を説明する図である。ユーザの手1300に関し、指示位置1301が検出されているとする。一例として、撮像方向1304の基準となる撮像位置としては、撮像素子1302の中心位置が定義される。図13(b)に示すように、本システムでは、ユーザの手1300の方向1303(第1の方向)と撮像方向1304(第2の方向)に十分に角度の差がある場合、撮像位置からユーザの指先までの間に、手1300の指以外の部位による障害物は生じにくい。従って、死角に指先が入っている可能性は無いとみなすことができる。   FIG. 13B shows that the height of the detected pointing position is higher than the touch threshold value and the operating body has a sufficient angle difference between the first direction and the second direction. It is a figure explaining the relationship between a state and a system. It is assumed that the designated position 1301 is detected for the user's hand 1300. As an example, the center position of the image sensor 1302 is defined as an image pickup position serving as a reference in the image pickup direction 1304. As shown in FIG. 13B, in this system, when there is a sufficient angle difference between the direction 1303 (first direction) of the user's hand 1300 and the imaging direction 1304 (second direction), Obstacles due to parts other than the fingers of the hand 1300 are unlikely to occur between the user's fingertips. Therefore, it can be considered that there is no possibility that the blind spot has a fingertip.

図13(c)は、検出された指示位置の高さがタッチ閾値より高く、かつ、撮像方向と操作体自体の方向とが平行に近い場合における、操作体の状態とシステムの関係を説明する図である。ただし、撮像素子1302と指示位置1301の位置関係は図13(b)と一致しており、撮像方向1304(第2の方向)も、図13(b)の場合と同一であるとする。図13(b)と図13(c)の違いは、操作体であるユーザの手1305の方向1306(第1の方向)にある。図13(c)においても、ユーザの手1305は指さしポーズを取っているが、指先が低く、それより手の甲の方が高い位置に存在し、撮像素子1302はさらに上方に存在し、それらが略直線状に並ぶ。従って、撮像位置から操作者の手の指先を見た場合に手の甲などが障害物となる。このように本システムでは、操作体自体の方向1306(第1の方向)と撮像方向1304(第2の方向)に十分な角度差が無い場合、撮像位置からユーザの指先までの間で、手1300の指以外の部位が障害物となってしまいやすい。従って、本実施形態では、このような場合は指先を含むような死角が存在しているとみなす。   FIG. 13C illustrates the relationship between the state of the operating tool and the system when the height of the detected pointing position is higher than the touch threshold and the imaging direction and the direction of the operating tool itself are nearly parallel. FIG. However, the positional relationship between the imaging element 1302 and the designated position 1301 is the same as that in FIG. 13B, and the imaging direction 1304 (second direction) is also the same as in FIG. 13B. The difference between FIG. 13B and FIG. 13C is in the direction 1306 (first direction) of the user's hand 1305 as the operating tool. Also in FIG. 13C, the user's hand 1305 is in a pointing pose, but the fingertip is lower and the back of the hand is higher than that, and the image sensor 1302 is further upward, and these are substantially the same. Line up in a straight line. Accordingly, when the fingertip of the operator's hand is viewed from the imaging position, the back of the hand becomes an obstacle. As described above, in the present system, when there is no sufficient angle difference between the direction 1306 (first direction) of the operating body itself and the imaging direction 1304 (second direction), the hand is moved from the imaging position to the user's fingertip. Parts other than the 1300 finger are likely to be obstacles. Therefore, in this embodiment, in such a case, it is considered that there is a blind spot including a fingertip.

[装置の構成]
本実施形態では、図13(a)のテーブルに表される規則に基づく判定結果に応じて、タッチ判定の基準を使い分ける。以下では、本実施形態に係る情報処理装置100の構成を説明する。図3(a)は、本実施形態に係る情報処理装置100を含むテーブルトップインタフェースのハードウェア構成図である。中央処理ユニット(CPU)300は、RAM302をワークメモリとして、ROM301や記憶装置303に格納されたOSやプログラムを実行して、各種処理の演算や論理判断などを行い、システムバス304に接続された各構成を制御する。記憶装置303は、ハードディスクドライブや各種インタフェースによって接続された外部記憶装置などであり、実施形態の操作認識処理にかかるプログラムや各種データを記憶する。距離画像センサ102は、CPU300の制御に従い、アイテムが表示されるテーブルとアイテムを操作する操作者の手を含む、操作面101上の空間の距離画像を撮像し、撮影した距離画像をシステムバス304に出力する。本実施形態では、距離画像の取得方法として、環境光やテーブル面の表示の影響が小さいTOF方式を基に説明するが、用途に応じて視差方式や赤外パターン投影方式などを利用することも可能である。プロジェクタ104は、CPU300の制御に従い、テーブルに操作対象となる画像アイテムを投影表示する。
[Device configuration]
In the present embodiment, different touch determination criteria are used according to the determination results based on the rules shown in the table of FIG. Below, the structure of the information processing apparatus 100 which concerns on this embodiment is demonstrated. FIG. 3A is a hardware configuration diagram of a tabletop interface including the information processing apparatus 100 according to the present embodiment. The central processing unit (CPU) 300 is connected to the system bus 304 by using the RAM 302 as a work memory, executing an OS and a program stored in the ROM 301 and the storage device 303, performing various processing operations and logical determinations, and the like. Control each configuration. The storage device 303 is an external storage device connected by a hard disk drive or various interfaces, and stores programs and various data related to the operation recognition processing of the embodiment. The distance image sensor 102 captures a distance image of a space on the operation surface 101 including the table on which the item is displayed and the hand of the operator who operates the item under the control of the CPU 300, and the captured distance image is the system bus 304. Output to. In this embodiment, the distance image acquisition method will be described based on the TOF method that is less affected by ambient light and table surface display. However, a parallax method, an infrared pattern projection method, or the like may be used depending on the application. Is possible. The projector 104 projects and displays the image item to be operated on the table according to the control of the CPU 300.

なお上述したシステムでは、可視光カメラ103、距離画像センサ102、プロジェクタ104はそれぞれ情報処理装置100に入出力用のインタフェースを介して接続された外部装置であり、情報処理装置100と協同して情報処理システムを構成する。ただし、これらのデバイスは、情報処理装置100に一体化されていても構わない。   In the above-described system, the visible light camera 103, the distance image sensor 102, and the projector 104 are external devices connected to the information processing apparatus 100 via an input / output interface, respectively. Configure the processing system. However, these devices may be integrated with the information processing apparatus 100.

図3(b)は、情報処理装置100のソフトウェアの構成を示すブロック図の一例である。これらの各機能部は、CPU300が、ROM301に格納されたプログラムをRAM302に展開し、後述する各フローチャートに従った処理を実行することで実現されている。そして、各処理の実行結果をRAM302に保持する。また例えば、CPU300を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。   FIG. 3B is an example of a block diagram illustrating a software configuration of the information processing apparatus 100. Each of these functional units is realized by the CPU 300 developing a program stored in the ROM 301 in the RAM 302 and executing processing according to each flowchart described below. The execution result of each process is held in the RAM 302. In addition, for example, when configuring hardware as an alternative to software processing using the CPU 300, it is only necessary to configure arithmetic units and circuits corresponding to the processing of each functional unit described here.

画像取得部310は、距離画像センサ102によって撮像された距離画像を、入力画像として一定時間毎に取得し、RAM302に随時保持する。なお画像取得部310が取得し、各機能部とやりとりする対象は、実際には画像データに対応する信号であるが、本明細書では単に「距離画像を取得する」あるいは「入力画像を取得する」として説明する。   The image acquisition unit 310 acquires a distance image captured by the distance image sensor 102 as an input image at regular intervals, and stores the acquired image in the RAM 302 as needed. The object acquired by the image acquisition unit 310 and exchanged with each functional unit is actually a signal corresponding to the image data, but in this specification, simply “acquire a distance image” or “acquire an input image”. ".

手領域抽出部311は、画像取得部310によって取得された入力画像の各画素について、閾値判定やノイズ低減処理を施し、距離画像中の手領域を抽出する。手領域とは、入力された距離画像のうち、操作者が操作体として利用する手が写っている領域である。位置検出部312は、手領域抽出部311によって抽出された手領域の輪郭情報に基づき、操作者の手の指先位置を検出し、指示位置として座標値を特定する。本実施形態では手領域の輪郭のうち画像端111から最も遠くに存在する画素を示す座標を、指示位置として検出する。この際、本実施形態の位置検出部312は、手領域と画像端111が交差する部分の中心を、手領域の侵入位置として検出する。   The hand region extraction unit 311 performs threshold determination and noise reduction processing on each pixel of the input image acquired by the image acquisition unit 310, and extracts a hand region in the distance image. The hand region is a region in which the hand used by the operator as the operating body is shown in the input distance image. The position detection unit 312 detects the fingertip position of the operator's hand based on the contour information of the hand region extracted by the hand region extraction unit 311 and specifies the coordinate value as the designated position. In the present embodiment, coordinates indicating a pixel existing farthest from the image end 111 in the contour of the hand region are detected as the designated position. At this time, the position detection unit 312 according to the present embodiment detects the center of the portion where the hand region and the image edge 111 intersect as the entry position of the hand region.

状態取得部313は、距離画像センサ102が、操作面101上の空間に存在する操作体を撮像した距離画像から、操作体の距離画像センサ102に対する状態を表す情報を取得する。本実施形態では、操作面101上の空間における操作体自体の方向(第1の方向)を表す情報と、撮像方向(第2の方向)を表す情報を取得する。操作面101上の空間における操作体自体の方向は、位置検出部312が検出した侵入位置と指示位置に基づいて特定される直線の方向とし、具体的には、侵入位置を始点とし指示位置を終点とするベクトル情報(第1ベクトル)を取得する。また本実施形態では、撮像方向を表す情報として、距離画像センサ102の撮像位置と検出された指示位置とに基づいて特定される直線の方向を表す情報を取得する。具体的には、撮像位置を始点とし指示位置を終点とするベクトル情報(第2ベクトル)を取得する。第2ベクトルは、距離画像センサ102の撮像位置として定義された位置から、位置検出部312が検出した指示位置を見る方向を示す。なお、距離画像センサ102が、被写体表面で反射された光を1つ以上のミラーなどを介した撮像系を持つ場合、図13(a)に示した規則が適用可能なように、ミラーの位置や数に応じた適切な撮像位置が設定される必要がある。少なくとも、1つ以上のミラーのうち最も被写体に近い位置に設置されたミラーから指示位置を見た方向と、操作体自体の方向が平行に近い場合、図2(b)及び図13(c)と同様の課題が発生し得る。本実施形態に係るタッチ判定の基準の制御を加えることで、課題を解決するためには、少なくとも最も被写体に近い位置に設置されたミラーに基づいて撮像位置が決定される必要がある。   The state acquisition unit 313 acquires information representing the state of the operation body relative to the distance image sensor 102 from the distance image obtained by the distance image sensor 102 capturing an operation body existing in the space on the operation surface 101. In the present embodiment, information representing the direction (first direction) of the operating body in the space on the operation surface 101 and information representing the imaging direction (second direction) are acquired. The direction of the operating body itself in the space on the operation surface 101 is the direction of a straight line specified based on the intrusion position and the designated position detected by the position detection unit 312. Specifically, the designated position is determined from the intrusion position as a starting point. Vector information (first vector) as an end point is acquired. In the present embodiment, information indicating the direction of a straight line specified based on the imaging position of the distance image sensor 102 and the detected indication position is acquired as information indicating the imaging direction. Specifically, vector information (second vector) having the imaging position as the start point and the designated position as the end point is acquired. The second vector indicates the direction in which the designated position detected by the position detection unit 312 is viewed from the position defined as the imaging position of the distance image sensor 102. Note that when the distance image sensor 102 has an imaging system in which the light reflected from the subject surface is passed through one or more mirrors, the position of the mirror so that the rules shown in FIG. It is necessary to set an appropriate imaging position according to the number. 2B and 13C when at least the direction in which the pointing position is viewed from the mirror installed closest to the subject among the one or more mirrors and the direction of the operating body are nearly parallel. The same problem may occur. In order to solve the problem by adding the control of the reference for touch determination according to the present embodiment, it is necessary to determine the imaging position based on at least the mirror installed at the position closest to the subject.

なお、本実施形態では、撮像範囲における操作体の状態を表す情報として、上述した2つの方向を表すベクトルの情報を扱うが、図13(a)及び(b)で示した状態を区別するために利用可能な情報であれば、これに限らない。例えば、方向を表す情報として、ベクトルではなく直線を定義する2点の座標や式、所定の座標軸に対する具体的な回転角度の情報を扱っても良い。また例えば、手領域の慣性主軸に基づいて、操作体自体の方向を表す情報を得てもよい。その他、操作体と距離画像センサ102の位置関係を予め定義された位置関係のパターンに分類した結果を表す情報や、各々の位置を表す座標情報そのものを扱っても良い。   In the present embodiment, the information on the vector representing the two directions described above is handled as the information representing the state of the operating tool in the imaging range, but the state shown in FIGS. 13A and 13B is distinguished. However, the information is not limited to this as long as it can be used. For example, as the information indicating the direction, coordinates of two points that define a straight line instead of a vector, an expression, and information on a specific rotation angle with respect to a predetermined coordinate axis may be handled. Further, for example, information representing the direction of the operating body itself may be obtained based on the inertial principal axis of the hand region. In addition, information indicating the result of classifying the positional relationship between the operating tool and the distance image sensor 102 into a predefined positional relationship pattern, or coordinate information indicating each position itself may be handled.

判定部314は、状態取得部313が取得した操作体の距離画像センサ102に対する状態を表す情報に関連して、操作体のうちタッチ操作の入力に用いられる部分が距離画像センサ102の死角に入っているとみなされるかを判定する。本実施形態では、操作体のうちタッチ操作の入力に用いられる部分とは、操作体の端部である。判定部314は、操作体の端部が、同一の操作体の端部以外の他の部分によって生じる距離画像センサ102の死角に入っているとみなされるかを判定する。操作体が操作者の手の場合、判定部314は、指先が図2(a)に示したように、手の甲など指先以外の部分によって生じる距離画像差センサ102の死角に入っているとみなされるかを判定する。判定部314の具体的な処理は、図5のフローチャートを参照して後述する。   The determination unit 314 relates to the information representing the state of the operating body with respect to the distance image sensor 102 acquired by the state acquisition unit 313, and the portion used for the input of the touch operation in the operating body enters the blind spot of the distance image sensor 102. Determine if it is considered to be. In this embodiment, the part used for the input of touch operation among operation bodies is an edge part of an operation body. The determination unit 314 determines whether the end of the operating body is considered to be within the blind spot of the distance image sensor 102 generated by other parts other than the end of the same operating body. When the operating body is the operator's hand, the determination unit 314 is regarded as entering the blind spot of the distance image difference sensor 102 generated by a part other than the fingertip, such as the back of the hand, as shown in FIG. Determine whether. Specific processing of the determination unit 314 will be described later with reference to the flowchart of FIG.

基準決定部315は、認識部316によって実行される、操作体の端部が、操作面101にタッチ操作を入力中であるか(タッチ状態であるか)を判定するタッチ判定処理に用いられる基準を決定する。本実施形態では、判定部314によって指先が距離画像センサ102の死角に入っているとみなされると判定された場合は、指先が距離画像センサ102の死角に入っているとみなされないと判定された場合とは異なる基準を用いて、タッチ判定を行う。タッチ判定に用いられる基準とは、指示位置の高さ(z座標)と比較する閾値である。本実施形態では、操作体の端部が操作面101にタッチしたかを判定する場合に用いる閾値はタッチ閾値、操作面101にタッチしていた操作体の端部が操作面101から離れたかを判定する場合に用いる閾値はリリース閾値と呼ぶ。基準決定部315は、操作体の端部が距離画像センサ102の死角に入っているとみなされると判定された場合に利用される基準として、操作体の端部が死角に入っているとみなされない場合に利用される基準よりも大きい値による閾値を決定する。   The reference determination unit 315 is a reference used for touch determination processing executed by the recognition unit 316 to determine whether the end of the operating body is inputting a touch operation to the operation surface 101 (whether it is in a touch state). To decide. In this embodiment, when the determination unit 314 determines that the fingertip is considered to be in the blind spot of the distance image sensor 102, it is determined that the fingertip is not considered to be included in the blind spot of the distance image sensor 102. Touch determination is performed using a different standard. The reference used for touch determination is a threshold value to be compared with the height (z coordinate) of the designated position. In this embodiment, the threshold used when determining whether the end of the operating body touches the operation surface 101 is the touch threshold, and whether the end of the operating body that has touched the operating surface 101 is separated from the operation surface 101. The threshold used for determination is called a release threshold. The reference determination unit 315 considers that the end of the operating body is in the blind spot as a reference used when it is determined that the end of the operating body is in the blind spot of the distance image sensor 102. If not, determine a threshold value that is greater than the criterion used.

認識部316は、タッチ判定処理によってタッチ状態であることが特定された操作体により操作面101に入力されるタッチ操作を認識し、タッチ操作を示すタッチイベント情報が表示制御部317など入力に応答する機能部やアプリケーションに通知する。本実施形態ではタッチ状態の指示位置の軌跡が満たす条件に応じて、少なくとも、「TOUCH」、「MOVE」、「RELEASE」の3つのイベントが認識部316によって発行され、表示制御部317に通知される。「TOUCH」は、タッチ状態ではなかった操作体によるタッチが開始されたことを示し、「MOVE」は、操作体がタッチ状態を維持したまま移動したことを示し、「RELEASE」は、タッチ状態にあった操作体が非タッチ状態になった事を示す。なお、本実施形態で説明するタッチイベントは一例であり、情報処理装置100の用途や利用されるセンサなどに応じて通知するタッチイベントは追加あるいは削減することができる。   The recognizing unit 316 recognizes a touch operation input to the operation surface 101 by the operation body identified as being in the touch state by the touch determination process, and touch event information indicating the touch operation responds to an input from the display control unit 317 or the like. To the function unit or application. In the present embodiment, at least three events of “TOUCH”, “MOVE”, and “RELEASE” are issued by the recognition unit 316 and notified to the display control unit 317 according to the condition that the locus of the touched indication position satisfies. The “TOUCH” indicates that the touch of the operation body that is not in the touch state has started, “MOVE” indicates that the operation body has moved while maintaining the touch state, and “RELEASE” indicates that the touch body is in the touch state. This indicates that the operation body that was present is in a non-touch state. Note that the touch event described in the present embodiment is an example, and touch events to be notified can be added or reduced according to the use of the information processing apparatus 100 or the sensor used.

表示制御部317は、ROM301や記憶装置303に記憶された情報を用いて、本実施形態の表示部であるプロジェクタ104によって操作面101上に投影させる画像を生成する。例えば、認識部316の認識結果に基づいて、表示部に表示させている画像の少なくとも一部に対して、移動や拡大/縮小、回転などの変形を施し、表示部に出力させる。出力された画像は、プロジェクタ104によって、操作面101上に投影表示される。投影される画像は、複数のアイテムを含み、アイテム毎に移動や拡大/縮小、回転が可能であってもよく、画像全体が移動や拡大/縮小、回転の対象であってもよい。   The display control unit 317 uses the information stored in the ROM 301 or the storage device 303 to generate an image to be projected on the operation surface 101 by the projector 104 that is the display unit of the present embodiment. For example, based on the recognition result of the recognition unit 316, at least a part of the image displayed on the display unit is subjected to deformation such as movement, enlargement / reduction, rotation, and the like, and is output to the display unit. The output image is projected and displayed on the operation surface 101 by the projector 104. The projected image includes a plurality of items, and may be moved, enlarged / reduced, and rotated for each item, or the entire image may be a target of movement, enlargement / reduction, and rotation.

[タッチ操作認識処理の流れ]
図4のフローチャートは、本実施形態に係る情報処理装置100が実行するタッチ操作認識処理の流れを表す。本実施形態では、情報処理装置100が起動されたことに応じて図4のフローチャートの処理が開始されるとする。
[Touch operation recognition process flow]
The flowchart in FIG. 4 represents the flow of touch operation recognition processing executed by the information processing apparatus 100 according to the present embodiment. In the present embodiment, it is assumed that the processing of the flowchart in FIG. 4 is started in response to the information processing apparatus 100 being activated.

ステップS400において、表示制御部317は、ROM301などから操作面101上に表示する画像の情報を取得し、プロジェクタ104に出力する。プロジェクタ104は、出力された情報に基づいて、操作面101上に画像を投影する。ここで投影される画像は例えば、操作メニューが一覧された初期画面や、情報処理装置100が前回操作された時の最終状態を表す画面などである。ステップS401において、画像取得部310は、RAM302のワーク領域を初期化し、距離画像センサ102によって撮像された距離画像を、入力画像として取得し、RAM302に保持する。   In step S <b> 400, the display control unit 317 acquires image information to be displayed on the operation surface 101 from the ROM 301 or the like and outputs the information to the projector 104. The projector 104 projects an image on the operation surface 101 based on the output information. The image projected here is, for example, an initial screen in which operation menus are listed, a screen representing a final state when the information processing apparatus 100 is operated last time, or the like. In step S <b> 401, the image acquisition unit 310 initializes a work area in the RAM 302, acquires a distance image captured by the distance image sensor 102 as an input image, and stores the input image in the RAM 302.

ステップS402において、手領域抽出部311は、入力画像から、1以上の手領域を抽出し、その情報をRAM302に保持する。本実施形態では、入力画像の各画素が示すz方向の座標値に対して閾値処理を行うことで、操作面101よりも高さが高い座標値を持つ領域を、手領域として抽出する。ただし、抽出方法はこれに限られず、例えば別途撮像された可視光画像のRGB値を解析し、肌色領域に対応する部分を抽出する等してもよい。   In step S <b> 402, the hand region extraction unit 311 extracts one or more hand regions from the input image, and holds the information in the RAM 302. In this embodiment, by performing threshold processing on the z-direction coordinate value indicated by each pixel of the input image, an area having a coordinate value higher than the operation surface 101 is extracted as a hand area. However, the extraction method is not limited to this, and for example, the RGB value of a visible light image captured separately may be analyzed to extract a portion corresponding to the skin color region.

ステップS403において、位置検出部312は、RAM302に保持された手領域の情報を参照することで、ステップS402において抽出された各手領域について、画像端111から最も遠い点を指示位置として特定する。さらに、画像端111と手領域109との交差部分の中央に相当する1点を、侵入位置として特定する。そして、それぞれの入力画像内での位置情報(u,v)をRAM302に保持する。ステップS404において、位置検出部312は、ステップS403で特定した指示位置及び侵入位置の位置情報(u,v)を、実世界での位置情報(x,y,z)に変換する。   In step S <b> 403, the position detection unit 312 refers to the hand region information held in the RAM 302, and identifies the point farthest from the image end 111 as the designated position for each hand region extracted in step S <b> 402. Furthermore, one point corresponding to the center of the intersection between the image edge 111 and the hand area 109 is specified as the entry position. Then, position information (u, v) in each input image is held in the RAM 302. In step S404, the position detection unit 312 converts the position information (u, v) of the designated position and the intrusion position specified in step S403 into position information (x, y, z) in the real world.

ステップS405では、判定部314及び基準決定部315により、タッチ判定に用いる基準を決定する処理が実行される。本実施形態の場合は、予めROM301に保持されている複数パターンのタッチ閾値およびリリース閾値のうち、いずれを用いるかの選択が行われる。ステップS405の処理の詳細は図5のフローチャートを参照して後述する。   In step S405, the determination unit 314 and the reference determination unit 315 execute processing for determining a reference used for touch determination. In the case of the present embodiment, a selection is made as to which of a plurality of patterns of touch threshold values and release threshold values held in advance in the ROM 301 is to be used. Details of the processing in step S405 will be described later with reference to the flowchart of FIG.

ステップS406において、認識部316は、決定された基準に従ってタッチ判定を行う。すなわち、指示位置の高さ(z座標)が、決定されたタッチ閾値より小さいかを判定する。指示位置の高さがタッチ閾値より小さいと判定された場合(ステップS406でYes)には、ステップS407に進む。指示位置の高さがタッチ閾値以上と判定された場合(ステップS406でNo)には、ステップS414に進む。ただし、指示位置の高さがタッチ閾値に一致する場合をいずれの判定結果に含むかは、システムの設置状況などに合わせて適宜選択されればよい。   In step S406, the recognition unit 316 performs touch determination according to the determined criterion. That is, it is determined whether the height (z coordinate) of the designated position is smaller than the determined touch threshold. If it is determined that the height of the indicated position is smaller than the touch threshold (Yes in step S406), the process proceeds to step S407. If it is determined that the height of the indicated position is equal to or greater than the touch threshold (No in step S406), the process proceeds to step S414. However, which determination result includes the case where the height of the designated position matches the touch threshold may be appropriately selected according to the installation status of the system.

ステップS407では、認識部316が、RAM302に保持された情報を参照し、直前までの処理において、既に処理中の指示位置がタッチ状態に遷移していたかを判定する。既にタッチ状態に遷移してはいなかったと判定された場合(ステップS407でNo)、ステップS408に進む。既にタッチ状態に遷移していたと判定された場合(ステップS407でYes)、ステップS411に進む。   In step S407, the recognizing unit 316 refers to the information stored in the RAM 302 and determines whether the indicated position that has already been processed has transitioned to the touch state in the process up to immediately before. If it is determined that the touch state has not been changed (No in step S407), the process proceeds to step S408. If it is determined that the touch state has already been transitioned (Yes in step S407), the process proceeds to step S411.

ステップS408では、認識部316が、処理対象となっている指示位置の状態をタッチ状態に遷移させ、それを示す情報をRAM302に保持させる。ステップ409では、指示位置の位置情報(x,y,z)を、タッチ状態での指示位置の移動の有無を判定するための基準位置としてRAM302に保持する。なおこのとき、ステップS407で利用されたタッチ判定の基準毎に、移動の有無を判定する基準位置を保持する。本実施形態では、後述するようにタッチ判定の基準がデフォルト値である第1のタッチ閾値である場合と、第1の閾値より大きい第2の閾値である場合がある。従って、移動の有無を判定する基準位置は、最大で第1の閾値に関連付けられた位置情報と、第2の閾値に関連付けられた位置情報の2つが保持される。ステップS410では、CPU300が、タッチイベント「TOUCH」を生成し、操作の応答に関連する各機能部に通知する。本実施形態では、少なくとも表示制御部317に対して通知を行う。   In step S408, the recognizing unit 316 changes the state of the designated position to be processed to the touch state, and causes the RAM 302 to store information indicating the transition. In step 409, the position information (x, y, z) of the designated position is held in the RAM 302 as a reference position for determining whether or not the designated position is moved in the touch state. At this time, for each touch determination criterion used in step S407, a reference position for determining the presence or absence of movement is held. In the present embodiment, as described later, there are cases where the reference for touch determination is a first touch threshold that is a default value, and a second threshold that is larger than the first threshold. Therefore, two reference positions for determining the presence or absence of movement are retained: position information associated with the first threshold value and position information associated with the second threshold value at the maximum. In step S410, the CPU 300 generates a touch event “TOUCH” and notifies each functional unit related to the response of the operation. In the present embodiment, at least the display control unit 317 is notified.

一方、ステップS407において、既にタッチ状態に遷移していると判定された場合、ステップS411では、認識部316によって、指示位置の基準位置からの移動距離が所定の距離の閾値より大きいかが判定される。本実施形態では、所定の検出周期で繰り返し検出される指示位置について、直近の2回の検出の間に指示位置が移動した距離の大きさによって移動の有無を判定する。所定の距離の閾値は、指示位置の移動が、操作者が意図して指示位置を動かしたことによる移動の場合と、システムの検出誤差によるブレの場合を区別するために適切な大きさの値が設定される。ステップS411では、基準位置としてROM301に保持されている位置情報と、ステップS403で特定された最新の指示位置の位置情報との間の距離を求めることで、指示位置の移動距離を取得し、閾値と比較する。ただし、ステップS407の判定は、直前のステップS407の処理で利用されたタッチ判定の基準に関連付けられた基準位置を使って行われる。例えば、第1の閾値をタッチ判定の基準としてタッチ状態が検出されたフレームでは、第1の閾値に関連付けられた基準位置から最新の指示位置までの移動距離が所定の距離の閾値と比較される。指示位置の移動距離が所定の距離の閾値より大きいと判定された場合(ステップS411でYes)、ステップS412に進む。指示位置の移動距離が所定の距離の閾値以下であると判定された場合(ステップS411でNo)、ステップS417に進む。   On the other hand, if it is determined in step S407 that the state has already been changed to the touch state, in step S411, the recognition unit 316 determines whether the movement distance of the indicated position from the reference position is greater than a predetermined distance threshold. . In this embodiment, the presence / absence of movement of the designated position that is repeatedly detected at a predetermined detection cycle is determined based on the distance that the designated position has moved during the two most recent detections. The threshold of the predetermined distance is a value that is appropriate for distinguishing between movement of the indicated position that is caused by the operator's intentional movement of the indicated position and blurring caused by a detection error of the system. Is set. In step S411, the movement distance of the designated position is obtained by obtaining the distance between the position information held in the ROM 301 as the reference position and the position information of the latest designated position specified in step S403. Compare with However, the determination in step S407 is performed using a reference position associated with the reference for touch determination used in the immediately preceding process in step S407. For example, in a frame in which a touch state is detected using the first threshold as a reference for touch determination, the moving distance from the reference position associated with the first threshold to the latest designated position is compared with a predetermined distance threshold. . If it is determined that the movement distance of the indicated position is greater than the predetermined distance threshold (Yes in step S411), the process proceeds to step S412. When it is determined that the movement distance of the indicated position is equal to or less than the predetermined distance threshold (No in step S411), the process proceeds to step S417.

ステップS412では、認識部316が、移動の基準位置として保持されている位置情報を、ステップS403で特定された最新の指示位置の位置情報で更新する。つまり本実施形態では、所定の検出周期で繰り返し検出される指示位置について、直近の2回の検出の間に指示位置が移動した距離の大きさによって移動の有無を判定する。ステップS413では、認識部316が、タッチイベント「MOVE」を生成し、操作の応答に関連する各機能部に通知する。本実施形態では、少なくとも表示制御部317に対して通知を行う。   In step S412, the recognition unit 316 updates the position information held as the movement reference position with the position information of the latest designated position specified in step S403. That is, in the present embodiment, the presence / absence of movement of the indicated position repeatedly detected at a predetermined detection cycle is determined based on the distance that the indicated position has moved between the two most recent detections. In step S413, the recognition unit 316 generates a touch event “MOVE” and notifies each function unit related to the response of the operation. In the present embodiment, at least the display control unit 317 is notified.

ステップS414では、認識部316によって、指示位置の高さがリリース閾値より大きいかが判定される。リリース閾値は、指示位置が操作面から十分に離れたことを判定するための高さ(z座標の値)の閾値であって、指示位置の高さがリリース閾値より大きい場合、タッチ操作が終了されたと判定される。つまり情報処理装置100、検出した指示位置の高さがリリース閾値より大きくなったことをもって、操作者が明確に操作面から指を離したとみなす。本実施形態では、タッチ閾値とリリース閾値の値の大きさは異なり、リリース閾値はタッチ閾値よりも大きく設定されるとする。このような設定により、処理対象となっている指示位置がタッチ状態に遷移した後で、検出誤差などによる高さのブレがタッチ閾値を超えたり下回ったりすることがあっても、操作者が明確に操作面から指を離さない限り、継続してタッチ操作を認識可能となる。ただし、タッチ閾値とリリース閾値は同一の値を設定することも可能である。指示位置の高さがリリース閾値より大きいと判定された場合(ステップS414でYes)、ステップS415に進む。指示位置の高さがリリース閾値より以下であると判定された場合(ステップS414でNo)、ステップS417に進む。なお、指示位置の高さがリリース閾値に一致する場合をいずれの判定結果に含むかは、システムの設置状況などに合わせて適宜選択されればよい。   In step S414, the recognition unit 316 determines whether the height of the designated position is greater than the release threshold. The release threshold is a height (z-coordinate value) threshold for determining that the designated position is sufficiently away from the operation surface. When the designated position is larger than the release threshold, the touch operation is terminated. It is determined that That is, the information processing apparatus 100 considers that the operator has clearly lifted his / her finger from the operation surface when the detected height of the indicated position is greater than the release threshold. In the present embodiment, it is assumed that the touch threshold value and the release threshold value are different, and the release threshold value is set to be larger than the touch threshold value. With such a setting, the operator can be clearly identified even if the height blur due to a detection error or the like may exceed or fall below the touch threshold after the designated position to be processed transitions to the touch state. The touch operation can be continuously recognized unless the finger is released from the operation surface. However, the touch threshold value and the release threshold value can be set to the same value. If it is determined that the height of the indicated position is greater than the release threshold (Yes in step S414), the process proceeds to step S415. If it is determined that the height of the indicated position is less than or equal to the release threshold (No in step S414), the process proceeds to step S417. It should be noted that which determination result includes the case where the height of the designated position matches the release threshold may be appropriately selected according to the installation status of the system.

ステップS415では、認識部316が、処理対象となっている指示位置の状態をリリース状態に遷移させ、それを示す情報をRAM302に保持させる。ステップS416では、認識部316が、タッチイベント「RELEASE」を生成し、操作の応答に関連する各機能部に通知する。本実施形態では、少なくとも表示制御部317に対して通知を行う。ステップS417では、表示制御部317によって、操作面に投影される画像が更新される。具体的には、通知されたタッチイベントに応じた表示画像が生成され、プロジェクタ104に出力される。ステップS418では、CPU300が、情報処理装置100の電源を切る等所定の終了操作が入力されたかを判定する。終了操作が入力されたと判定された場合(ステップS418でYes)は、情報処理装置100は全ての処理を終了する。終了操作が入力されてはいないと判定された場合(ステップS418でNo)は、ステップS401の処理へ戻り、新たに取得された距離画像を対象に処理が繰り返される。   In step S415, the recognizing unit 316 changes the state of the designated position to be processed to the release state, and stores information indicating the state in the RAM 302. In step S416, the recognition unit 316 generates a touch event “RELEASE” and notifies each functional unit related to the response of the operation. In the present embodiment, at least the display control unit 317 is notified. In step S417, the image projected on the operation surface is updated by the display control unit 317. Specifically, a display image corresponding to the notified touch event is generated and output to the projector 104. In step S418, the CPU 300 determines whether a predetermined end operation such as turning off the power of the information processing apparatus 100 has been input. If it is determined that the end operation has been input (Yes in step S418), the information processing apparatus 100 ends all the processes. If it is determined that the end operation has not been input (No in step S418), the process returns to step S401, and the process is repeated for the newly acquired distance image.

次に図5のフローチャートを参照して、ステップS405において実行されるタッチ判定基準の決定処理の流れを説明する。ステップS500において、判定部314は、検出された指示位置の高さが、閾値Hより大きいかを判定する。閾値Hとは、指示位置として特定された座標が、タッチ操作中の操作者の指先部分の位置を表しているか、あるいは、指先ではない他の部分(例えば、指の付け根)の位置を表している可能性が高いかを判定するために設けられた閾値である。指示位置として特定された座標がタッチ操作中の操作者の指先部分の位置を表す場合、指示位置の高さは操作面に極力近づいた状態にあることが想定される。それに対し、図2(a)及び(b)で課題として示したように、指先が死角に入ったことで指先ではない部分が手領域の中で侵入位置から最も遠い点として特定された場合、その高さは、その時点で指先が存在する高さよりも傾けられた指の長さ程度高くなる。閾値Hとは、このような2つの状況を識別するために設けられる高さの閾値であって、情報処理装置100の設置環境に合わせて予め適切な値が設定される。検出された指示位置の高さが、閾値Hより大きいと判定された場合(ステップS500でYes)、ステップS501に進む。ステップS501に進むのは、図2(a)及び(b)で示したような、指先が死角に入ってしまった状況であるか、あるいは、指先が正しく検出できているがその指先が閾値Hより高い位置に存在する場合である。検出された指示位置の高さが、閾値H以下であると判定された場合(ステップS500でNo)、ステップS507に進む。ステップS507に進むのは、図2(a)及び(b)で説明したような課題が発生していない可能性が高い場合である。ただし、指示位置の高さが閾値Hと一致する場合をいずれの判定結果に含むかは、システムの設置状況などに合わせて適宜選択されればよい。   Next, the flow of touch determination criterion determination processing executed in step S405 will be described with reference to the flowchart of FIG. In step S <b> 500, the determination unit 314 determines whether the detected height of the indicated position is greater than the threshold value H. The threshold value H represents the position of the fingertip part of the operator who is performing the touch operation, or the position of another part (for example, the base of the finger) that is not the fingertip. This is a threshold value that is set to determine whether or not there is a high possibility. When the coordinates specified as the designated position represent the position of the fingertip portion of the operator who is performing the touch operation, it is assumed that the height of the designated position is as close as possible to the operation surface. On the other hand, as shown in FIG. 2 (a) and (b) as a problem, when the part that is not the fingertip is identified as the point farthest from the intrusion position in the hand region because the fingertip has entered the blind spot, The height is about the length of the tilted finger than the height at which the fingertip is present. The threshold value H is a height threshold value provided to identify such two situations, and an appropriate value is set in advance according to the installation environment of the information processing apparatus 100. When it is determined that the detected height of the indicated position is greater than the threshold value H (Yes in step S500), the process proceeds to step S501. Step S501 proceeds to a situation where the fingertip has entered the blind spot as shown in FIGS. 2A and 2B, or the fingertip has been detected correctly, but the fingertip is at the threshold H. It is a case where it exists in a higher position. When it is determined that the height of the detected indication position is equal to or less than the threshold value H (No in step S500), the process proceeds to step S507. The process proceeds to step S507 when there is a high possibility that the problem described in FIGS. 2A and 2B has not occurred. However, which of the determination results includes the case where the height of the designated position matches the threshold value H may be appropriately selected according to the installation status of the system.

ステップS501では、判定部314が、操作面101上の空間での、タッチ操作に用いられる操作体自体の方向を表す情報として、ステップS403で特定された侵入位置から指示位置への方向を表す第1ベクトルを生成する。   In step S501, the determination unit 314 indicates the direction from the intrusion position specified in step S403 to the designated position as information indicating the direction of the operating body itself used for the touch operation in the space on the operation surface 101. One vector is generated.

そしてステップS502では、判定部314が、距離画像センサ102から、操作体のタッチ操作に用いられる端部を見る方向を表す情報として、撮像位置からステップS403で特定された指示位置への方向を表す第2ベクトルを生成する。なお撮像位置とは、入力された距離画像を撮像した時点での、距離画像センサ102の視野となる範囲の基準を表す位置情報であり、実空間における2次元座標(x,y)として取得される。より詳細には、距離画像センサ102の撮像素子の中心に対応する位置をxy平面上で特定した値であることが好ましい。なお、第2のベクトルに関しては、撮像位置から操作体のうちタッチ操作に用いられる部分を見る方向を大凡表すことが可能であれば、指示位置の位置情報を使う以外の方法で特定されても構わない。例えば、手領域から手首や手の甲を抽出し、それらの位置を撮像位置から見る方向を第2ベクトルとして特定してもよい。人の手の構造上、手首や手の甲と指の位置関係は固定的であり、位置も近いため、手首や手の甲の位置を使った場合も、撮像位置から操作体を見る方向として、指示位置を使った場合に近い方向の情報が得られる。   In step S <b> 502, the determination unit 314 represents the direction from the imaging position to the designated position specified in step S <b> 403 as information indicating the direction of viewing the end portion used for the touch operation of the operating body from the distance image sensor 102. A second vector is generated. The imaging position is position information representing a reference of a range that is a field of view of the distance image sensor 102 at the time when the input distance image is captured, and is acquired as two-dimensional coordinates (x, y) in real space. The More specifically, it is preferably a value that specifies a position corresponding to the center of the image sensor of the distance image sensor 102 on the xy plane. Note that the second vector can be specified by a method other than using the position information of the indicated position as long as it can roughly represent the direction of viewing the portion used for the touch operation of the operating body from the imaging position. I do not care. For example, the wrist or the back of the hand may be extracted from the hand region, and the direction of viewing the position from the imaging position may be specified as the second vector. Due to the structure of the human hand, the positional relationship between the wrist and back of the hand and the finger is fixed, and the positions are close.Therefore, even when the position of the wrist or back of the hand is used, the indicated position is set as the direction of viewing the operating body from the imaging position. Information in a direction close to that used can be obtained.

ステップS503では、判定部314が、ステップS501で生成された第1ベクトルと、ステップS502で生成された第2ベクトルとの角度差を取得する。本実施形態では、xy平面内に生じる角度(z軸周りの回転角度)の差を取得する。ステップS504では、判定部314が、ステップS503で取得された角度差が、閾値Dより小さいかを判定する。閾値Dとは、所定の角度の閾値であって、距離画像センサ102の視野の中で、操作者の腕自体が、距離画像センサ102の死角を作る要因となり得るかを判定するための基準である。   In step S503, the determination unit 314 acquires an angle difference between the first vector generated in step S501 and the second vector generated in step S502. In the present embodiment, a difference between angles (rotation angles around the z axis) generated in the xy plane is acquired. In step S504, the determination unit 314 determines whether the angle difference acquired in step S503 is smaller than the threshold value D. The threshold D is a threshold of a predetermined angle, and is a reference for determining whether the operator's arm itself can be a factor that creates a blind spot of the distance image sensor 102 in the visual field of the distance image sensor 102. is there.

本実施形態では、第1ベクトルと第2ベクトルの角度差が閾値Dより小さきとき、すなわち第1ベクトルと第2ベクトルが基準となる角度より平行状態に近い場合は、操作者の指先が距離画像センサ102の死角に入っている可能性が高いと判定する。図13(c)に示した通り、第1ベクトルと第2ベクトルが平行に近い状態とは、撮像位置から操作者の手の指先を見た場合に、操作者の腕が、撮像位置と指先の間に存在する可能性が高い状態である。さらに人の腕及び腕は関節を有しており、操作者が操作面に接触させる目的で指先の高さを下げる場合、腕の中で指先以外の部分(例えば、手の甲や手首)は相対的に高くなる。従って、上方に設置された距離画像センサ102から見れば、操作者が指先で操作面をタッチしようとする姿勢は、指先との間に障害物が生じやすい姿勢である。従って本実施形態では、上述した2つのベクトルと、角度の閾値を利用して、操作者の指先が距離画像センサ102の死角に入っている可能性が高い状態を検出する。取得された角度差が、閾値Dより小さいと判定された場合(ステップS504でYes)、ステップS505に進む。取得された角度差が、閾値D以上である場合(ステップS504でNo)、ステップS507に進む。ただし、取得した角度差が閾値Dと一致する場合をいずれの判定結果に含むかは、システムの設置状況などに合わせて適宜選択されればよい。   In the present embodiment, when the angle difference between the first vector and the second vector is smaller than the threshold D, that is, when the first vector and the second vector are closer to a parallel state than the reference angle, the fingertip of the operator is a distance image. It is determined that there is a high possibility that the sensor 102 is in the blind spot. As shown in FIG. 13C, the state in which the first vector and the second vector are almost parallel means that when the fingertip of the operator's hand is viewed from the imaging position, the operator's arm is the imaging position and the fingertip. It is a state that is highly likely to exist between. Furthermore, human arms and arms have joints, and when the operator lowers the height of the fingertip for the purpose of contacting the operation surface, the part other than the fingertip (for example, the back of the hand or the wrist) is relatively To be high. Therefore, when viewed from the distance image sensor 102 installed above, the posture in which the operator tries to touch the operation surface with the fingertip is a posture in which an obstacle easily occurs between the fingertip. Therefore, in the present embodiment, a state in which the operator's fingertip is highly likely to be in the blind spot of the distance image sensor 102 is detected using the above-described two vectors and the angle threshold. When it is determined that the acquired angle difference is smaller than the threshold value D (Yes in step S504), the process proceeds to step S505. When the acquired angle difference is greater than or equal to the threshold value D (No in step S504), the process proceeds to step S507. However, which determination result includes the case where the acquired angle difference matches the threshold value D may be appropriately selected according to the installation status of the system.

ステップS505では、表示制御部317が、操作体の端部が死角に入っていることを操作者に向けて通知する。具体的には、操作体が操作者の手106である場合は指先がセンサの死角内に存在すること、あるいはその可能性が高いことを、例えば投影されている画像中のアラート等によって表示する。   In step S505, the display control unit 317 notifies the operator that the end of the operating tool is in the blind spot. Specifically, when the operation body is the operator's hand 106, the fact that the fingertip is present in the blind spot of the sensor or that the possibility is high is displayed by an alert or the like in the projected image, for example. .

ここで通知を行うのは、操作者に姿勢の変更を促すためである。図2(b)で示すように、指先が死角201に入ってしまっている場合、手領域のエッジを構成する画素のうち侵入位置112からの距離が同程度の画素が複数存在してしまう。そのため、フレーム毎に侵入位置112が変わることが有り得る。また、タッチ状態が継続された状態でも、手の姿勢に変化があれば高さに変動が起こるなど、指示位置202を用いる場合は指先位置200を用いる場合に比べてタッチ判定処理の精度が不安定となってしまう。そこで、操作者に姿勢の変更を促し、次フレーム以降の距離画像から指先の検出を可能とすれば、タッチ判定を安定的に行えるようになる。   The notification is performed here to prompt the operator to change the posture. As shown in FIG. 2B, when the fingertip has entered the blind spot 201, there are a plurality of pixels having the same distance from the intrusion position 112 among the pixels constituting the edge of the hand region. Therefore, the intrusion position 112 may change from frame to frame. Further, even when the touch state is continued, the height of the hand changes when the hand posture is changed. For example, when the pointing position 202 is used, the accuracy of the touch determination process is less than when the fingertip position 200 is used. It becomes stable. Therefore, if the operator is prompted to change the posture and the fingertip can be detected from the distance image after the next frame, the touch determination can be performed stably.

ステップS506では、基準決定部315が、タッチ判定の基準を変更する。本実施形態では、予めROM301あるいは記憶装置303に、タッチ判定の基準の選択肢となる情報が保持され、RAM302に読み出されている。具体的には、タッチ閾値とリリース閾値を組み合わせた情報が、デフォルト値として設定される組み合わせを含めて少なくとも複数保持される。本実施形態の場合、デフォルト値では、指示位置が操作者の手のうち指先の位置に対応している場合に用いられるべきタッチ判定の閾値が設定される。すなわち、指先の高さが、指先が操作面に接触しているとみなさる程度かを判定するための第1のタッチ閾値と、指の高さが、指先が操作面から十分に離れたとみなされ程度かを判定する第1のリリース閾値が、タッチ判定の基準のデフォルト値となる。ステップS506では、複数のタッチ閾値とリリース閾値の組み合わせのうち、検出された指示位置が操作者の指の付け根付近に対応している場合に用いられるべき閾値の組み合わせが、タッチ判定の基準として設定される。すなわち、指先の高さが第1のタッチ閾値及び第1のリリース閾値の高さに存在するときに、その指の付け根付近が存在する可能性が高い高さに、それぞれ第2のタッチ閾値及び第2のリリース閾値が設定され、タッチ判定の基準とされる。第2のタッチ閾値及び第2のリリース閾値の値は、予め実験値や統計的解析の結果等に基づいて適切な値が設定されればよい。なお、第2のタッチ閾値及び第2のリリース閾値を設定するのは、指の付け根付近の高さでなくてもよい。例えば、手の甲の中心であったり、手首の中央付近であったりしてもよい。   In step S506, the reference determination unit 315 changes the reference for touch determination. In the present embodiment, information serving as a reference option for touch determination is stored in advance in the ROM 301 or the storage device 303 and read out to the RAM 302. Specifically, at least a plurality of pieces of information including combinations of touch threshold values and release threshold values are stored, including combinations set as default values. In the case of the present embodiment, the default value sets a threshold value for touch determination to be used when the designated position corresponds to the position of the fingertip of the operator's hand. That is, the first touch threshold value for determining whether the height of the fingertip is considered to be a level at which the fingertip is considered to be in contact with the operation surface, and the height of the finger are considered to be sufficiently away from the operation surface. The first release threshold value for determining whether or not the degree is the reference default value for the touch determination. In step S506, a combination of thresholds to be used when the detected pointing position corresponds to the vicinity of the base of the operator's finger among a plurality of combinations of the touch threshold and the release threshold is set as a reference for touch determination. Is done. That is, when the height of the fingertip is at the height of the first touch threshold and the first release threshold, the second touch threshold and A second release threshold is set and used as a reference for touch determination. Appropriate values may be set for the values of the second touch threshold and the second release threshold based on experimental values, results of statistical analysis, and the like in advance. Note that the second touch threshold and the second release threshold need not be set at a height near the base of the finger. For example, it may be at the center of the back of the hand or near the center of the wrist.

一方、ステップS500において、指示位置の高さが閾値H以下であった場合、本実施形態では、ステップS507において、基準決定部315が、タッチ判定の基準としてデフォルト値を設定する。本実施形態では、複数のタッチ閾値とリリース閾値の組み合わせのうち、上述した第1のタッチ閾値と第1のリリース閾値の組み合わせが採用される。   On the other hand, in step S500, when the height of the designated position is equal to or less than the threshold value H, in this embodiment, in step S507, the reference determination unit 315 sets a default value as a reference for touch determination. In the present embodiment, the combination of the first touch threshold and the first release threshold described above is adopted among the combinations of the plurality of touch thresholds and the release threshold.

ステップS506あるいはステップS507において、タッチ判定の基準が設定されたら、図4のフローチャートの処理に戻り、ステップS406以降の処理が実行される。以上が、本実施形態におけるタッチ操作認識処理の一連の流れである。本実施形態では、検出された指示位置の高さに関する判定処理(ステップS500)と、距離画像センサ102の視野内での2つのベクトルの方向に関する判定処理(ステップS504)に基づき、タッチ判定の基準を切り替える。上記2つの判定は、操作体の端部が、操作体自体によって生じる距離画像センサ102の死角に入っているとみなされるかを判定する処理に相当する。   If the reference for touch determination is set in step S506 or step S507, the process returns to the process of the flowchart of FIG. 4 and the processes after step S406 are executed. The above is a series of flow of the touch operation recognition process in this embodiment. In the present embodiment, the reference for touch determination is based on the determination process regarding the height of the detected indication position (step S500) and the determination process regarding the direction of two vectors within the field of view of the distance image sensor 102 (step S504). Switch. The above two determinations correspond to processing for determining whether the end of the operating tool is considered to be within the blind spot of the distance image sensor 102 generated by the operating tool itself.

<操作例1>
次に、図1(a)のテーブルトップシステムが操作されている状況の例を挙げて、情報処理装置100による具体的な処理とその作用を説明する。なお、以下の操作例において、閾値Hはデフォルト値のタッチ閾値(第1のタッチ閾値)と一致するとする。第1のタッチ閾値はT1、第2のタッチ閾値はT2と表記する。なお、各変数は例えば、T1=20mm、T2=100mmのように設定される。リリース閾値は各タッチ閾値よりも10mm大きい値が設定される。また、ステップS504の判定処理に用いる角度の閾値Dは30度であるとする。
<Operation example 1>
Next, an example of a situation in which the table top system of FIG. In the following operation example, it is assumed that the threshold value H matches the default touch threshold value (first touch threshold value). The first touch threshold is denoted as T1, and the second touch threshold is denoted as T2. Each variable is set such that T1 = 20 mm and T2 = 100 mm, for example. The release threshold is set to a value that is 10 mm larger than each touch threshold. Further, it is assumed that the threshold value D of the angle used for the determination process in step S504 is 30 degrees.

まず、操作例1として、図6及び図7を参照して、操作者が操作面をタッチしたまま指をスライド移動させる状況を説明する。図6(a)及び(b)は、操作者が右手の人差指で操作面101上をタッチ中であって、操作者の指先が距離画像センサ102によって撮像可能である状況を表す。図7(a)及び(b)は、図6(a)及び(b)の状況の後、操作者が右手の人差指で操作面101上をタッチしたままx軸の負方向に指をスライド移動させたことで、操作者の指先が距離画像センサ102の死角に入った状況を表す。なお、図6(a)及び図7(a)は、z軸の負方向に沿ってxy平面を見た状態を模式的に表す。破線600は、xy平面において、距離画像中の画像端111に対応する位置を示す。図6(b)及び図7(b)にx軸の正方向に沿ってzy平面を見た状態を模式的に表す。また図7(a)及び(b)において、領域700は、距離画像センサ102の死角となった部分を表す。   First, as an operation example 1, a situation where the operator slides a finger while touching the operation surface will be described with reference to FIGS. 6 and 7. 6A and 6B show a situation where the operator is touching the operation surface 101 with the index finger of the right hand and the fingertip of the operator can be imaged by the distance image sensor 102. FIG. 7 (a) and 7 (b), after the situation shown in FIGS. 6 (a) and 6 (b), the operator slides his / her finger in the negative direction of the x axis while touching the operation surface 101 with the index finger of the right hand. By doing so, it represents the situation where the fingertip of the operator has entered the blind spot of the distance image sensor 102. FIG. 6A and FIG. 7A schematically show a state of viewing the xy plane along the negative direction of the z-axis. A broken line 600 indicates a position corresponding to the image end 111 in the distance image on the xy plane. FIG. 6B and FIG. 7B schematically show a state of viewing the zy plane along the positive direction of the x axis. In FIGS. 7A and 7B, a region 700 represents a portion that is a blind spot of the distance image sensor 102.

図6(a)の場合、距離画像から抽出された手領域に関し、ステップS403及びステップS404の処理により、手106の侵入位置として、手106と破線106が交差する部分の中央にあたるp1(x11,y11)が特定される。また指示位置としては、手領域のうち侵入位置p1から最も遠い点であるp2(x21,y21,z21)が特定される。また、p3(x31,y31)は、距離画像センサ102の撮像位置として予め保持されている位置情報であるとする。   In the case of FIG. 6A, regarding the hand region extracted from the distance image, p1 (x11, x11, which corresponds to the center of the portion where the hand 106 and the broken line 106 intersect is obtained as the intrusion position of the hand 106 by the processing of step S403 and step S404. y11) is specified. Further, p2 (x21, y21, z21) that is the farthest point from the entry position p1 in the hand region is specified as the designated position. Further, it is assumed that p3 (x31, y31) is position information held in advance as an imaging position of the distance image sensor 102.

図6(b)に示すように、指示位置p2の高さz2は、閾値H=T1である高さ601より小さい(ステップS500でNo)。そこで、タッチ判定の基準は、デフォルト値である第1のタッチ閾値と第1のリリース閾値となる。指示位置の高さz2がタッチ閾値T1よりも小さい(ステップS406でYes)ため、図6(a)及び(b)の状態は、指示位置p2はタッチ状態であると判定される。この時点までにタッチ状態に遷移していない場合は(ステップS407でNo)、指示位置p2をタッチ状態に遷移させ(ステップS408)。p2(x21,y21,z21)が、移動操作の基準位置として保持され(ステップS409)、タッチイベント「TOUCH」が表示制御部317に通知され(ステップS410)、投影画像の制御等が実行される(ステップS417)。   As shown in FIG. 6B, the height z2 of the designated position p2 is smaller than the height 601 that is the threshold value H = T1 (No in step S500). Therefore, the reference for touch determination is the first touch threshold and the first release threshold which are default values. Since the height z2 of the designated position is smaller than the touch threshold value T1 (Yes in step S406), it is determined that the designated position p2 is in the touched state in the states of FIGS. 6A and 6B. If the touch state has not been changed by this time (No in step S407), the designated position p2 is changed to the touch state (step S408). p2 (x21, y21, z21) is held as the reference position for the moving operation (step S409), the touch event “TOUCH” is notified to the display control unit 317 (step S410), and control of the projection image is performed. (Step S417).

その後距離画像が取得された時、図7(a)のように状況に変化があったとする。操作者の手106が動かされた後の図7(a)の場合、ステップS403及びステップS404の処理により、手106の侵入位置として、手106と破線106が交差する部分の中央にあたるp4(x12,y12)が特定される。図7(b)の状態では、手自体(操作体自体)の一部によって、距離画像センサ102の視野が遮られたことで死角700が生じている。このとき、距離画像からは図2(b)で示したように、伸ばされた指が検出できないため、手領域のうち侵入位置p4から最も遠い点であるp5(x22,y22,z22)が指示位置として特定される。p3(x31,y31)は、固定されているため変化しない。   Then, when the distance image is acquired, it is assumed that the situation has changed as shown in FIG. In the case of FIG. 7A after the operator's hand 106 has been moved, p4 (x12), which is the center of the portion where the hand 106 and the broken line 106 intersect, is determined as the entry position of the hand 106 by the processing of step S403 and step S404. , Y12) is specified. In the state of FIG. 7B, a blind spot 700 is generated because the field of view of the distance image sensor 102 is blocked by a part of the hand itself (the operation body itself). At this time, since the extended finger cannot be detected from the distance image as shown in FIG. 2B, the point p5 (x22, y22, z22) that is the farthest from the entry position p4 in the hand region is indicated. Identified as a location. Since p3 (x31, y31) is fixed, it does not change.

図7(b)に示すように、このとき、指示位置p5の高さz22は、閾値H=T1である高さ601よりも大きい(ステップS500でYes)。従って本実施形態では、侵入位置p4が始点で指示位置p5が終点の第1のベクトルV1と、撮像位置p3が始点で指示位置p5が終点のベクトルV2を生成する(ステップS501、ステップS502)。生成された2つのベクトルの角度差は18°であるとする(ステップS503)。取得された角度差18°が閾値D=30°より小さい(ステップS504でYes)。従って、本実施形態では、指の端部が距離画像センサ102の死角に入っていることが、操作者に通知される(ステップS505)。例えば、“指先がセンサから見えません”等の文字を投影画像に加えたり、手に赤色のオブジェクトを重ねたりして投影する。そして、タッチ判定の基準を変更する(ステップS506)。本実施形態では、第2のタッチ閾値(閾値T2)と第2のリリース閾値が設定される(ステップS506)。   As shown in FIG. 7B, at this time, the height z22 of the designated position p5 is larger than the height 601 that is the threshold value H = T1 (Yes in step S500). Accordingly, in the present embodiment, the first vector V1 having the entry position p4 as the start point and the designated position p5 as the end point and the vector V2 having the imaging position p3 as the start point and the designated position p5 as the end point are generated (steps S501 and S502). Assume that the angle difference between the two generated vectors is 18 ° (step S503). The acquired angle difference 18 ° is smaller than the threshold D = 30 ° (Yes in step S504). Therefore, in this embodiment, the operator is notified that the end of the finger is in the blind spot of the distance image sensor 102 (step S505). For example, characters such as “the fingertip cannot be seen from the sensor” are added to the projected image, or a red object is superimposed on the hand and projected. Then, the reference for touch determination is changed (step S506). In the present embodiment, a second touch threshold (threshold T2) and a second release threshold are set (step S506).

指示位置p5の高さz22はタッチ判定の閾値T2である高さ701より小さい(ステップS406でYes)。既にタッチ状態であるので(ステップS407でYes)、ステップS411では基準位置から今回の指示位置p5までの距離とムーブ判定の閾値Mとの比較が行われる。ただし、この時点で保持されている基準位置は、タッチ判定の基準として閾値T1が用いられた時に保持されたp2の情報だけであり、直前に用いられた閾値T2に関連付けられた基準位置は保持されていない。p2からp5までの距離は、ユーザの指先が移動した距離とみなすことはできない。本実施形態では、このような場合には移動距離を算出しない。従って、図7の状況では、閾値Mより大きい移動は生じていないということからステップS411の判定結果はNoとなる。この結果、「MOVE」イベントは通知されず、処理は終了する。情報処理装置100に操作終了指示が入力されるまで、上記のような処理が繰り返し実行される。   The height z22 of the designated position p5 is smaller than the height 701 that is the touch determination threshold T2 (Yes in step S406). Since it is already in the touch state (Yes in Step S407), in Step S411, the distance from the reference position to the current designated position p5 is compared with the threshold value M for the move determination. However, the reference position held at this time is only the information of p2 held when the threshold T1 is used as the reference for touch determination, and the reference position associated with the threshold T2 used immediately before is held. It has not been. The distance from p2 to p5 cannot be regarded as the distance that the user's fingertip has moved. In this embodiment, the moving distance is not calculated in such a case. Therefore, in the situation of FIG. 7, since the movement larger than the threshold value M has not occurred, the determination result of step S411 is No. As a result, the “MOVE” event is not notified, and the process ends. The above processing is repeatedly executed until an operation end instruction is input to the information processing apparatus 100.

本実施形態では、図6及び図7の例で示したように、指先が検出できている状態で開始されたタッチ操作中に指先が死角に入ってしまった場合には、タッチ状態であることの認識は継続するが、操作としてムーブが行われたか否かの判定は回避する。これは、操作体の端部が死角に入った場合にはステップS505でユーザに対してそれを通知するので、それを受けたユーザが姿勢を変えるなどの対策行うことを前提としているからである。このような前提において、本実施形態では、図7で示したように指先ではない位置に指示位置が検出される状態が、数フレーム分発生したとしても、その後には修正され、再び指先が検出されるようになる可能性が高いと考える。そのため、指先が死角に入ってしまった場合でも、タッチ状態であることの認識は継続することで、ユーザに操作のやり直し強いることなく、次フレーム以降で再び指先の検出が可能となった場合に、操作の続きを認識可能とする。   In the present embodiment, as shown in the examples of FIGS. 6 and 7, when the fingertip enters the blind spot during the touch operation started with the fingertip being detected, the touch state is set. However, the determination of whether or not a move has been performed as an operation is avoided. This is because when the end of the operating body enters the blind spot, the user is notified of this in step S505, and it is assumed that the user who has received it takes measures such as changing the posture. . Under this premise, in this embodiment, even if several frames of the state where the indicated position is detected at a position other than the fingertip as shown in FIG. 7 occurs, it is corrected after that and the fingertip is detected again. I think that there is a high possibility of becoming. Therefore, even if the fingertip has entered the blind spot, the recognition of the touch state continues, so that the fingertip can be detected again in the next frame or later without forcing the user to redo the operation. The continuation of the operation can be recognized.

操作例1で示したように本実施形態では、操作体の端部が、操作体自体によって生じる距離画像センサ102の死角に入った場合、検出される指示位置の高さが、端部の実際の高さより高くなることを利用し、端部が死角に入ったとみなされるか判定する。また、操作体の端部が、操作体自体によって生じる距離画像センサ102の死角に入ったかを判定するために、操作体自体の方向に対応する第1ベクトルと、撮像位置から操作体を見る方向に対応する第2ベクトルを用いる。本実施形態では、検出された指示位置の高さが所定の高さよりも高く、第1ベクトルと第2ベクトルの角度差が所定の角度の閾値より小さい場合は、操作体の端部が、操作体自体によって生じる距離画像センサ102の死角に入ったと判定している。   As shown in the operation example 1, in this embodiment, when the end of the operating body enters the blind spot of the distance image sensor 102 generated by the operating body itself, the height of the indicated position detected is the actual end of the end. It is determined whether the end is considered to have entered the blind spot by using the fact that the height is higher than the height of. Further, in order to determine whether the end of the operating body has entered the blind spot of the distance image sensor 102 generated by the operating body itself, the first vector corresponding to the direction of the operating body itself and the direction in which the operating body is viewed from the imaging position The second vector corresponding to is used. In the present embodiment, when the detected pointing position is higher than a predetermined height and the angle difference between the first vector and the second vector is smaller than a predetermined angle threshold, the end of the operating body is It is determined that the blind spot of the distance image sensor 102 generated by the body itself has been entered.

なお、図6(a)に示す手106が、xy平面における位置情報はそのまま、指先に対応する指示位置p2の高さz21が、閾値H=T1である高さ601よりも大きくなる位置に存在した場合、実行される処理は以下のようになる。なお図6(a)に示す手106の高さが高い場合とは、指先は正確に検出されているが、ステップS500の判定結果がYesとなる場合の例である。ステップS500の判定結果がYesとなるため、p1からp2に向かう方向の第1ベクトルV1が生成され(ステップS501)、p3からp2に向かう方向の第2ベクトルV2が生成される(ステップS502)。V1とV2の角度差は35度と取得されるとする(ステップS503)。角度差が閾値Dよりも大きいため(ステップS504でNo)、タッチ判定の基準としてはデフォルトの値が設定される(ステップS507)。このように本実施形態では、検出された指示位置の高さが閾値Hより高い場合でも、操作体の方向に対応するV1と、撮像位置から操作体を見る方向に対応するV2の角度差が十分に大きい場合は、距離画像センサ102は操作体の端部を検出可能とみなされる。従って、調整しない初期状態の指先の高さに関する閾値を使ったタッチ判定が実行される。本実施形態では特に、第2ベクトルV2は、撮像位置を始点とし指示位置を終点とするベクトルを生成する。   Note that the hand 106 shown in FIG. 6A exists at a position where the height z21 of the pointing position p2 corresponding to the fingertip is larger than the height 601 where the threshold value H = T1 without changing the position information on the xy plane. In this case, the processing to be executed is as follows. Note that the case where the height of the hand 106 shown in FIG. 6A is high is an example in which the fingertip is accurately detected but the determination result in step S500 is Yes. Since the determination result in step S500 is Yes, the first vector V1 in the direction from p1 to p2 is generated (step S501), and the second vector V2 in the direction from p3 to p2 is generated (step S502). It is assumed that the angle difference between V1 and V2 is acquired as 35 degrees (step S503). Since the angle difference is larger than the threshold value D (No in step S504), a default value is set as a reference for touch determination (step S507). As described above, in the present embodiment, even when the height of the detected indication position is higher than the threshold value H, the angle difference between V1 corresponding to the direction of the operating tool and V2 corresponding to the direction of viewing the operating tool from the imaging position is different. If it is sufficiently large, it is considered that the distance image sensor 102 can detect the end of the operating body. Therefore, the touch determination using the threshold value related to the height of the fingertip in the initial state without adjustment is executed. Particularly in the present embodiment, the second vector V2 generates a vector having the imaging position as a start point and the designated position as an end point.

上述したように、本実施形態によれば、タッチ操作に用いられている操作体の端部が、距離画像センサ102の死角に入った場合でも、タッチ状態の認識を継続可能となる。また、タッチ状態の認識を途切れさせることなく操作体の端部が距離画像センサ102の死角に入ったことを操作者に通知することで、操作者がより安定的なタッチ判定が可能な姿勢を取るように促すことができる。この際ユーザは、入力を改めてやり直すことなく、姿勢を変えれば入力中の操作を継続することができるようになる。このように本実施形態によれば、タッチセンサを用いないシステムでのタッチ操作の認識において操作性が向上する。   As described above, according to the present embodiment, even when the end of the operating body used for the touch operation enters the blind spot of the distance image sensor 102, the recognition of the touch state can be continued. In addition, by notifying the operator that the end of the operating body has entered the blind spot of the distance image sensor 102 without interrupting the recognition of the touch state, the operator can take a posture that enables more stable touch determination. Can be encouraged to take. At this time, the user can continue the input operation without changing the input again if the posture is changed. As described above, according to the present embodiment, operability is improved in recognition of a touch operation in a system that does not use a touch sensor.

[変形例1]
ここまで第1の実施形態では、情報処理装置100が認識可能なタッチ操作は、いわゆるシングルタッチ操作と呼ばれる、1つの指示位置の動きに基づいて認識される操作であると説明していた。しかしながら本実施形態では、複数の操作体の端部によって複数の指示位置が入力され、いわゆるマルチタッチ操作が入力されるシステムにも適用可能である。以下では変形例1として、図1(a)と同じテーブルトップシステムにおいて、マルチタッチ操作を認識する場合の情報処理装置100について説明する。
[Modification 1]
So far, in the first embodiment, the touch operation that can be recognized by the information processing apparatus 100 has been described as a so-called single touch operation that is recognized based on the movement of one designated position. However, the present embodiment can also be applied to a system in which a plurality of designated positions are input by the end portions of a plurality of operating bodies and a so-called multi-touch operation is input. Hereinafter, as a first modification, an information processing apparatus 100 for recognizing a multi-touch operation in the same table top system as that in FIG.

変形例1に係る情報処理装置100のハードウェア構成、及び機能構成は、図3(a)及び(b)で説明した第1の実施形態に準じる。ただし、変形例1の認識部316は、複数の指示位置がタッチ状態と判定された場合には、複数の指示位置の間の距離や相対移動の軌跡に基づいて、マルチタッチ操作のコマンドを認識し、認識結果に応じたタッチイベントを生成する。例えば、タッチ状態の複数の指示位置の間の距離が拡大/縮小した場合は、投影されているアイテムを拡大/縮小させるマルチタッチ操作として認識する。また例えば、タッチ状態にある複数の指示位置が相対的に回転した場合、その回転量に応じて投影されているアイテムを回転させるマルチタッチとして認識する。以上は一例であり、情報処理装置100が認識するマルチタッチ操作はこれに限らない。   The hardware configuration and functional configuration of the information processing apparatus 100 according to Modification 1 are the same as those in the first embodiment described with reference to FIGS. However, when the plurality of designated positions are determined to be in the touch state, the recognizing unit 316 of Modification 1 recognizes the command for the multi-touch operation based on the distance between the plurality of designated positions and the relative movement trajectory. Then, a touch event corresponding to the recognition result is generated. For example, when the distance between a plurality of designated positions in the touch state is enlarged / reduced, it is recognized as a multi-touch operation for enlarging / reducing the projected item. Further, for example, when a plurality of designated positions in the touch state are relatively rotated, the projected item is recognized as a multi-touch for rotating according to the rotation amount. The above is an example, and the multi-touch operation recognized by the information processing apparatus 100 is not limited to this.

変形例1の場合も、情報処理装置100は、図4のフローチャートに沿って、タッチ操作の認識処理を実行する。ステップS402において、手領域抽出部311により複数の手領域が検出された場合、ステップS403では各手領域について指示位置及び侵入位置を特定し、ステップS405では、基準決定部315が、各手領域についてタッチ判定の基準を定める。そして変形例1の場合は、認識部316が、ステップS406でYesと判定される指示位置の数をカウントし、複数の指示位置が同時にタッチ状態に遷移したかの判定を行う。複数の指示位置が同時にタッチ状態に遷移してはいない場合、図4のフローチャートのステップS408の処理が実行される。複数の指示位置が同時にタッチ状態に遷移した場合、マルチタッチ状態であるとして、マルチタッチ操作の認識処理を実行する。なお、タッチ状態である指示位置の数をカウントし、タッチ状態の指示位置が複数ある場合、マルチタッチ状態であるとして、マルチタッチ操作の認識処理を実行してもよい。マルチタッチ操作の認識処理では、上述した拡大/縮小操作や回転操作が認識される。ここでの認識処理は公知の技術であり、本願発明の主題ではないため、説明は省略する。   Also in the case of the modification 1, the information processing apparatus 100 performs a touch operation recognition process according to the flowchart of FIG. If a plurality of hand regions are detected by the hand region extraction unit 311 in step S402, the designated position and the intrusion position are specified for each hand region in step S403, and the reference determination unit 315 for each hand region in step S405. Define the criteria for touch determination. And in the case of the modification 1, the recognition part 316 counts the number of the instruction | indication positions determined to be Yes by step S406, and determines whether the some instruction | indication position changed to the touch state simultaneously. If a plurality of designated positions have not transitioned to the touch state at the same time, the process of step S408 in the flowchart of FIG. 4 is executed. When a plurality of designated positions change to the touch state at the same time, the multi-touch operation recognition process is executed assuming that the multi-touch state is set. Note that the number of designated positions in the touched state is counted, and when there are a plurality of designated positions in the touched state, the multi-touch operation recognition process may be executed assuming that the touched state is present. In the multi-touch operation recognition process, the above-described enlargement / reduction operation and rotation operation are recognized. Since the recognition process here is a known technique and is not the subject of the present invention, the description thereof will be omitted.

<操作例2>
操作例2として、図1(a)のテーブルトップシステムが、複数の操作者の手(複数の操作体)によって同時に操作されている状況の例を挙げて、情報処理装置100による具体的な処理とその作用を説明する。ただし、図6及び図7で説明した操作例1と共通する部分は同じ符番を振り、説明は適宜省略する。図8(a)及び(b)は、向かい合う2人の操作者がそれぞれの右手(手800及び手801)でタッチ入力を行っている状態を表す。このとき、いずれの指先も操作面100に接触しており、2人で1つのマルチタッチ操作を入力している状況であるが、手800の指先は、死角700に入ってしまっている。なお、マルチタッチ操作は1人の操作者の両手で入力されても構わない。
<Operation example 2>
As an operation example 2, an example of a situation in which the table top system of FIG. 1A is simultaneously operated by a plurality of operator's hands (a plurality of operation bodies) will be given, and specific processing by the information processing apparatus 100 will be described. And its operation. However, portions common to the operation example 1 described with reference to FIGS. 6 and 7 are assigned the same reference numerals, and description thereof will be omitted as appropriate. 8A and 8B show a state where two operators facing each other perform touch input with their right hands (hand 800 and hand 801). At this time, all the fingertips are in contact with the operation surface 100 and two multi-touch operations are input by two people, but the fingertips of the hand 800 have entered the blind spot 700. The multi-touch operation may be input with both hands of one operator.

操作例2の場合、情報処理装置100は、取得した距離画像から2つの手領域を抽出し、ステップS403及びステップS404において、各手領域について侵入位置と指示位置を特定し、位置情報を得る。手800については、侵入位置p1(x1,y1)と指示位置p2(x2,y2,z2)が特定される。手801については、侵入位置p4(x4,y4)と指示位置p5(x5,y5,z5)が特定される。なお、操作例2においても、撮像位置p3(x3,y3)は固定されている。   In the case of the operation example 2, the information processing apparatus 100 extracts two hand regions from the acquired distance image, specifies the intrusion position and the designated position for each hand region in step S403 and step S404, and obtains position information. For the hand 800, the intrusion position p1 (x1, y1) and the designated position p2 (x2, y2, z2) are specified. For the hand 801, the entry position p4 (x4, y4) and the designated position p5 (x5, y5, z5) are specified. In the operation example 2 as well, the imaging position p3 (x3, y3) is fixed.

ステップS405の処理では、まず、手800に対応する手領域に関してタッチ判定の基準を決定する処理が実行される。指示位置p2の高さz2は、閾値T1の高さ601よりも高い(ステップS500でYes)。図8(a)の場合、侵入位置p1から指示位置p2までの方向を表す第1ベクトルV1と、撮像位置p3から指示位置p2に向かう方向を表す第2ベクトルV2の角度差は、19度であり、閾値Dよりも小さい(ステップS504でYes)。従って、指先が死角にあることがユーザに通知され(ステップS505)、タッチ判定の基準が第2のタッチ閾値と第2のリリース閾値に変更される(ステップS506)。一方、手801に対応する手領域に関して、指示位置p5の高さz5は、閾値T1の高さ601よりも小さい(ステップS500でNo)。従って、タッチ判定の基準はデフォルトの値である第1のタッチ閾値と第1のリリース閾値が設定される(ステップS507)。   In the process of step S405, first, a process of determining a reference for touch determination regarding the hand region corresponding to the hand 800 is executed. The height z2 of the designated position p2 is higher than the height 601 of the threshold value T1 (Yes in step S500). In the case of FIG. 8A, the angle difference between the first vector V1 representing the direction from the entry position p1 to the designated position p2 and the second vector V2 representing the direction from the imaging position p3 to the designated position p2 is 19 degrees. Yes, smaller than threshold D (Yes in step S504). Accordingly, the user is notified that the fingertip is in the blind spot (step S505), and the reference for touch determination is changed to the second touch threshold and the second release threshold (step S506). On the other hand, regarding the hand region corresponding to the hand 801, the height z5 of the designated position p5 is smaller than the height 601 of the threshold T1 (No in step S500). Accordingly, the first touch threshold and the first release threshold, which are default values, are set as the reference for touch determination (step S507).

以上のようにステップS405の処理が各手領域について実行され、タッチ判定の基準が設定された結果、指示位置p2及び指示位置p5は、いずれもタッチ状態にあると判定される(ステップS406でYes)。変形例1では、タッチ状態の指示位置が複数であることからマルチタッチ操作の認識処理が実行される。   As described above, the process of step S405 is executed for each hand region, and as a result of setting the reference for touch determination, it is determined that both the indicated position p2 and the indicated position p5 are in the touch state (Yes in step S406). ). In Modification 1, since there are a plurality of touched instruction positions, multi-touch operation recognition processing is executed.

上述したように、変形例1によれば、マルチタッチ操作に用いられている複数の操作体のうち少なくとも1つについて、端部が距離画像センサ102の死角に入って検出されない場合でも、マルチタッチ操作の認識が継続可能となる。更に、特定の操作体の端部が距離画像センサ102の死角に入ったことを操作者に通知することで、操作者がより安定的なタッチ判定が可能な姿勢を取るように促すことができる。   As described above, according to the first modification, even when at least one of the plurality of operation objects used for the multi-touch operation is not detected because the end portion enters the blind spot of the distance image sensor 102, the multi-touch operation is performed. Operation recognition can be continued. Furthermore, by notifying the operator that the end of the specific operating body has entered the blind spot of the distance image sensor 102, the operator can be encouraged to take a posture that allows more stable touch determination. .

[変形例2]
さらに、操作体の端部が距離画像センサ102の死角に入ったか否かを判定する処理の精度を上げるために、判定処理を加える変形例を説明する。まず、変形例2では、操作体が手であることを想定し、手の甲の中心位置を特定し、さらに手の甲の中心位置の検出された指示位置との距離の大きさに基づいて、指先が距離画像センサ102の死角に入ったか否かの判定を行う。変形例2では、手領域を抽出した際、慣性主軸に直交する方向を幅として幅の大きさが最も大きい部分を特定し、その幅の中点を手の甲の中心位置とする。そして、手の甲の中心位置を中心とする、所定の半径Rの円内の範囲に、検出された指示位置が含まれる場合は、指先が距離画像センサ102の死角に入っているとみなす。これは、指先が死角に入っている場合には、図2(b)に示したように、検出される指示位置は指の付け根付近に相当し、指先が検出される場合に比較すれば、手の甲の中心に近い範囲で検出されることが多いことを利用する判定方法である。
[Modification 2]
Furthermore, a modified example in which a determination process is added in order to increase the accuracy of the process of determining whether or not the end of the operating body has entered the blind spot of the distance image sensor 102 will be described. First, in the second modification, assuming that the operating body is a hand, the center position of the back of the hand is specified, and further, based on the distance from the detected position of the center position of the back of the hand, It is determined whether or not the blind spot of the image sensor 102 has been entered. In the second modification, when the hand region is extracted, a portion having the largest width is specified with the direction orthogonal to the principal axis of inertia as the width, and the midpoint of the width is set as the center position of the back of the hand. Then, when the detected indication position is included in a range within a circle having a predetermined radius R centering on the center position of the back of the hand, it is considered that the fingertip is in the blind spot of the distance image sensor 102. This is because when the fingertip is in the blind spot, as shown in FIG. 2B, the indicated position to be detected corresponds to the vicinity of the base of the finger. This is a determination method using the fact that it is often detected in a range close to the center of the back of the hand.

図9(a)は、操作面上の空間に差し出された手を、z軸の負方向に沿ってxy平面を見た状態を模式的に表す。図9(a)において、手900は、死角が生じておらず、全体が距離画像センサ102によって撮像可能な状態にある。手900については、距離画像から抽出され手領域のうち、侵入位置901から最も遠い点を特定する処理に基づき、指示位置902の3次元位置情報が取得される。そして、中心位置として位置903が特定される。このとき、手の甲の中心位置を中心として、所定の半径Rの円の範囲内に、指示位置902は含まれない。一方、手904は、死角700が生じ、指示位置905が、指先ではなく人差指の付け根付近で検出されてしまった状態を表す。この場合は、手の甲の中心位置906を中心とした半径Rの園内に、指示位置905が含まれる。   FIG. 9A schematically shows a state in which the hand placed in the space on the operation surface is viewed along the xy plane along the negative direction of the z-axis. In FIG. 9A, the hand 900 has no blind spot, and the entire hand 900 can be imaged by the distance image sensor 102. For the hand 900, the three-dimensional position information of the designated position 902 is acquired based on the process of specifying the point farthest from the entry position 901 in the hand region extracted from the distance image. Then, the position 903 is specified as the center position. At this time, the designated position 902 is not included in a circle having a predetermined radius R with the center position of the back of the hand as the center. On the other hand, the hand 904 represents a state in which a blind spot 700 has occurred and the designated position 905 has been detected not near the fingertip but near the base of the index finger. In this case, the designated position 905 is included in a garden having a radius R centered on the center position 906 of the back of the hand.

以上により変形例2では、手900では、指先は距離画像センサ102の死角に入っておらず、手904では、指先は距離画像センサ102の死角に入っていると判定する。変形例2では、手の甲の中心位置を中心とする、所定の半径Rの円内の範囲に、検出された指示位置が含まれるかを判定する判定部314による処理が、図5のフローチャートのステップS504の直後に追加される。手の甲の中心位置を中心とする、所定の半径Rの円内の範囲に、検出された指示位置が含まれると判定される場合は、ステップS505に進む。そして、手の甲の中心位置を中心とする、所定の半径Rの円内の範囲に、検出された指示位置が含まれないと判定される場合は、ステップS507に進む。これにより、指示位置の高さが閾値Hより高く(ステップS500でYes)、2つのベクトルの角度差が閾値Dより小さい場合(ステップS504でYes)であっても、タッチ判定の基準がデフォルトの値になる場合が発生する。   As described above, in Modification 2, it is determined that the fingertip is not in the blind spot of the distance image sensor 102 in the hand 900 and the fingertip is in the blind spot of the distance image sensor 102 in the hand 904. In the second modification, the process by the determination unit 314 that determines whether the detected indication position is included in a range within a circle having a predetermined radius R centered on the center position of the back of the hand is a step in the flowchart of FIG. Added immediately after S504. When it is determined that the detected indication position is included in a range within a circle with a predetermined radius R centering on the center position of the back of the hand, the process proceeds to step S505. If it is determined that the detected indicated position is not included in the range within the circle having the predetermined radius R centered on the center position of the back of the hand, the process proceeds to step S507. Thereby, even if the height of the indicated position is higher than the threshold value H (Yes in step S500) and the angle difference between the two vectors is smaller than the threshold value D (Yes in step S504), the touch determination criterion is the default. The value may occur.

例えば、図9(b)のように、操作者の指が上を向いている場合、距離画像センサ102から指先は検出可能な状態にある。しかし第1の実施形態では、指示位置が高さ601より高く、腕の方向と撮像位置から指先に向かう方向が平行に近ければ、タッチ閾値が通常の高さ601より大きく設定されるため、誤判定となる可能性がある。しかしながら、第1の実施形態に、上述したような変形例2の処理を加えることによって、図9(b)のように、操作者の指が上を向いているために、指先が閾値Hより高くなってしまう場合のタッチ状態の誤認識を低減できる。なお、変形例2は、変形例1と併用されてもよい。   For example, as shown in FIG. 9B, when the operator's finger is facing upward, the fingertip is in a state that can be detected from the distance image sensor 102. However, in the first embodiment, if the pointing position is higher than the height 601 and the direction of the arm and the direction from the imaging position toward the fingertip are close to parallel, the touch threshold is set to be larger than the normal height 601. There is a possibility of judgment. However, by adding the processing of Modification 2 as described above to the first embodiment, as shown in FIG. 9B, the finger of the operator is above the threshold value H because the operator's finger is facing upward. It is possible to reduce erroneous recognition of the touch state when it becomes higher. Modification 2 may be used in combination with Modification 1.

[変形例3]
変形例3では、タッチ操作に用いられる操作体が、1本の指だけを伸ばす「指さしポーズ」をとった手であることを想定し、手領域の形状と予め用意された形状モデルとの類似度に基づいて、指先が距離画像センサ102の死角に入ったか否かの判定を行う。変形例3では、手領域を抽出した際、慣性主軸に直交する方向を幅として幅の大きさが最も大きい部分の中点を手の甲の中心とし、幅が最も小さい部分を手首の位置とする。指先が距離画像センサ102の死角に入っている場合は、手領域のうち手首から先の部分の形状が、「指さしポーズ」をとっている手とは大きく異なる。具体的な形状の比較は、例えば、手領域のうち手首の位置から先の部分の形状と、予め記憶された所定の形状モデルとで、外周上の複数点抽出し、抽出された点毎に距離計算を行い、距離を積算した合計値で形状の一致度を判定することで行う。
[Modification 3]
In Modification 3, assuming that the operating body used for the touch operation is a hand in a “pointing pose” that extends only one finger, the shape of the hand region is similar to the shape model prepared in advance. Whether or not the fingertip has entered the blind spot of the distance image sensor 102 is determined based on the degree. In Modification 3, when the hand region is extracted, the midpoint of the portion with the largest width with the direction orthogonal to the principal axis of inertia as the width is the center of the back of the hand, and the portion with the smallest width is the position of the wrist. When the fingertip is in the blind spot of the distance image sensor 102, the shape of the portion of the hand area beyond the wrist is significantly different from the hand in the “pointing pose”. Specific shape comparison is performed by, for example, extracting a plurality of points on the outer periphery with the shape of the portion ahead of the wrist position in the hand region and a predetermined shape model stored in advance, and for each extracted point The distance is calculated, and the degree of coincidence of the shape is determined by the total value obtained by integrating the distances.

図10は、指先が検出できていない手領域109について、手の甲の中心1001を基準位置として人差指が伸ばされた状態の形状モデル1000と比較し、手首1002から先の部分の形状を比較する処理を模式的に表すものである。特に人差指部分について、形状が大きくことなることから、指先が検出されていないことが判定できる。   FIG. 10 shows a process of comparing the shape of the portion ahead of the wrist 1002 with respect to the hand region 109 in which the fingertip is not detected, compared with the shape model 1000 in which the index finger is extended with the center 1001 of the back of the hand as a reference position. It is schematically represented. In particular, since the shape of the index finger portion is large, it can be determined that the fingertip is not detected.

変形例3では、上記のように、手領域とモデルとの形状を比較するする判定部314による処理が、図5のフローチャートのステップS504の直後に追加される。比較の結果、手領域の形状が「指さしポーズ」であるとみなされない場合、ステップS505に進む。手領域の形状が「指さしポーズ」であるとみなされた場合、ステップS507に進む。なお、変形例2で説明した手の甲の中心位置から指示位置までの距離の大きさを判定する処理の後に、変形例3の手領域とモデルとの形状を比較する判定処理を加えることで、さらに判定精度を向上させることができる。変形例3によれば、変形例2と同様に、図9(b)のように、操作者の指が上を向いているために、指先が閾値Hより高くなってしまう場合のタッチ状態の誤認識を低減できる。なお、変形例3は、変形例1または2と併用されてもよい。   In the third modification, as described above, the process performed by the determination unit 314 that compares the shape of the hand region and the model is added immediately after step S504 in the flowchart of FIG. As a result of the comparison, when the shape of the hand region is not regarded as the “pointing pose”, the process proceeds to step S505. If it is determined that the shape of the hand area is the “pointing pose”, the process proceeds to step S507. In addition, after the process of determining the magnitude of the distance from the center position of the back of the hand to the designated position described in Modification 2, a determination process for comparing the shape of the hand region and the model of Modification 3 is further added. The determination accuracy can be improved. According to the third modification, as in the second modification, the touch state in the case where the fingertip is higher than the threshold H because the operator's finger is facing upward as shown in FIG. Misrecognition can be reduced. Note that Modification 3 may be used in combination with Modification 1 or 2.

[変形例4]
上述した第1の実施形態及びその変形例では、指先が距離画像センサ102から検出できない場合に検出される指示位置が、指先の位置に対応してはいないことを考慮し、タッチ判定の基準とする高さを変更した。それにより、指先の正確な位置が検出されない状況であっても、操作者の手の高さの実際の変化に基づいて、タッチ状態が継続されているか否かを判定可能とした。
[Modification 4]
In the above-described first embodiment and its modification example, it is considered that the indication position detected when the fingertip cannot be detected from the distance image sensor 102 does not correspond to the fingertip position. The height to be changed was changed. Thereby, even in a situation where the exact position of the fingertip is not detected, it is possible to determine whether or not the touch state is continued based on the actual change in the height of the operator's hand.

一方でタッチ操作では、タッチ状態である間の指示位置の位置情報の軌跡が、入力されるコマンドの解釈において重要な意味を持つことが多い。上述した第1の実施形態とその変形例では、タッチ操作を入力している操作体の端部が死角に入った場合、検出される指示位置の高さ情報を使ってタッチ状態が継続されているか否かが正確に判定されたとしても、指示位置のxy座標が操作者の意図とは異なる。従って、その場合には指示位置のxy座標を操作の解釈に利用しなかった。そこで、変形例4では、タッチ判定の基準を変更した場合、タッチ操作を解釈する根拠とする位置情報を、その時点で検出された指示位置ではなく、推定される指先位置の情報とする。具体的には、タッチ操作中の操作体が、「指さしポーズ」をとった手であることと、指先が検出できていた状態での手の甲の中心と指示位置との位置関係とに基づいて、指先が検出できていない状態での指先位置を推定し、3次元座標情報を特定する。そして、推定された指先情報に基づいて、タッチ判定およびタッチ操作の判定を行う。   On the other hand, in the touch operation, the locus of the position information of the designated position while in the touch state often has an important meaning in interpreting the input command. In the above-described first embodiment and its modification, when the end of the operating body that is inputting the touch operation enters the blind spot, the touch state is continued using the detected height information of the indicated position. Even if it is accurately determined whether or not there is, the xy coordinates of the indicated position are different from the intention of the operator. Therefore, in that case, the xy coordinates of the designated position are not used for the interpretation of the operation. Therefore, in the fourth modification, when the reference for touch determination is changed, the position information that is the basis for interpreting the touch operation is not the indicated position detected at that time but the information on the estimated fingertip position. Specifically, on the basis of the positional relationship between the center of the back of the hand and the indicated position in the state where the fingertip has been detected, the operating body being touched is a hand that has taken a “pointing pose” The fingertip position in a state where the fingertip is not detected is estimated, and the three-dimensional coordinate information is specified. Then, based on the estimated fingertip information, touch determination and touch operation determination are performed.

図11は、変形例4に係る情報処理装置100における指示位置の推定処理の概要を模式的に表す図である。変形例4においても、手領域を抽出した際、慣性主軸に直交する方向を幅として幅の大きさが最も大きい部分の中点を手の甲の中心とする。手1100に関しては、指先が距離画像センサ102で検出可能な位置に存在し、指示位置P1(X1,Y1,Z1)が適正に検出されている。このとき、手の甲の中心位置P2(X2,Y2,Z2)と指示位置P1の位置関係を示す情報として、P2からP1に向かうベクトル1101を生成し保持する。その後、手1102のように、指先が死角701に入ってしまった場合は、手の中心位置P3(X3,Y3,Z3)を特定する。さらに、ベクトル1101に基づいて、指先の位置であることが推定される位置P4(X3+(X1−X2),Y3+(Y1−Y2),Z3+(Z1−Z2))を特定する。変形例4では、指先が死角701に入っている場合、指示位置として特定される位置情報を、指先位置P4の位置情報で補正することで、手の高さに連動したタッチ判定を可能とし、かつ、操作者が意図した軌跡に近い情報を得ることができる。   FIG. 11 is a diagram schematically illustrating an overview of an instruction position estimation process in the information processing apparatus 100 according to the fourth modification. Also in the modified example 4, when the hand region is extracted, the center point of the portion having the largest width and the width orthogonal to the principal axis of inertia is set as the center of the back of the hand. Regarding the hand 1100, the fingertip is present at a position that can be detected by the distance image sensor 102, and the designated position P1 (X1, Y1, Z1) is properly detected. At this time, a vector 1101 from P2 to P1 is generated and held as information indicating the positional relationship between the center position P2 (X2, Y2, Z2) of the back of the hand and the designated position P1. Thereafter, when the fingertip enters the blind spot 701 as in the case of the hand 1102, the center position P3 (X3, Y3, Z3) of the hand is specified. Further, based on the vector 1101, a position P4 (X3 + (X1-X2), Y3 + (Y1-Y2), Z3 + (Z1-Z2)) estimated to be the position of the fingertip is specified. In the modified example 4, when the fingertip is in the blind spot 701, the position information specified as the indicated position is corrected with the position information of the fingertip position P4, thereby enabling touch determination linked to the height of the hand, In addition, information close to the locus intended by the operator can be obtained.

変形例4では、ステップS506において、基準決定部315がタッチ判定の基準を変更する場合、保持されているタッチ閾値とリリース閾値の基準のうち、推定された指先位置の高さを対象としてタッチ判定を実行するための基準が選択される。ここでは、第3のタッチ閾値と第3のリリース閾値とする。第3のタッチ閾値及び第3のリリース閾値は、第1のタッチ閾値と第1のリリース閾値に一致してもよいが、変形例4では、指先位置の推定処理に生じる誤差を考慮するため、第1のタッチ閾値と第1のリリース閾値よりは、少し大きく設定されるとする。さらに変形例4では、ステップS506の直後に、推定された指先位置の情報によって、保持されている指示位置の位置情報を補正する処理が追加される。従って、ステップS409及びステップS412で、移動の基準位置として保持される位置情報は、推定された指先位置となる。なお変形例4では、ステップS507において、タッチ判定の基準がデフォルト値とされた直後に、指示位置の値として保持する情報をステップS403で特定した情報に再設定する。   In the modified example 4, when the reference determination unit 315 changes the touch determination reference in step S506, the touch determination is performed on the estimated fingertip position height among the held touch threshold and release threshold references. A criterion for performing is selected. Here, the third touch threshold and the third release threshold are used. The third touch threshold value and the third release threshold value may coincide with the first touch threshold value and the first release threshold value, but in Modification 4, in order to consider an error that occurs in the fingertip position estimation process, It is assumed that the first touch threshold value and the first release threshold value are set slightly larger. Further, in the fourth modification, immediately after step S506, processing for correcting the position information of the indicated position that is held by the information of the estimated fingertip position is added. Accordingly, in step S409 and step S412, the position information held as the movement reference position is the estimated fingertip position. In Modification 4, immediately after the touch determination criterion is set to the default value in step S507, the information held as the value of the designated position is reset to the information specified in step S403.

なお変形例4では、ステップS406のタッチ判定には、第1の実施形態と同様侵入位置から距離の遠さに基づいて特定された指示位置の高さを利用し、タッチ操作を解釈するためのステップS409以降の処理では、推定された指先位置を用いるとしてもよい。推定された指先位置は、あくまでも最後に指先が検出された時点での、手の甲の中心の位置との位置関係に基づいているため、その後、指の角度や関節の曲がり方が変化した場合には対応できない。従って、タッチ操作中か否かという根本的な判定には、リアルタイムに得ている距離画像から取得される手の高さの情報を利用し、タッチ操作中であると判定された場合にのみ、推定された指先位置の情報を利用することで、誤認識を低減することが可能である。なお、変形例4は、変形例1から3と併用されてもよい。   In Modification 4, the touch determination in step S406 is performed for interpreting the touch operation by using the height of the indicated position specified based on the distance from the intrusion position as in the first embodiment. In the processes after step S409, the estimated fingertip position may be used. The estimated fingertip position is based on the positional relationship with the center position of the back of the hand at the time when the fingertip was last detected, so if the finger angle or how the joint bends subsequently changes I can not cope. Therefore, the fundamental determination of whether or not the touch operation is being performed uses information on the height of the hand acquired from the distance image obtained in real time, and only when it is determined that the touch operation is being performed. It is possible to reduce misrecognition by using information on the estimated fingertip position. Note that Modification 4 may be used in combination with Modifications 1 to 3.

[変形例5]
変形例5では、操作体が手である場合について、指先が距離画像センサ102の死角に入ったか否かを判定するために比較するベクトルの定義を変更する。具体的には、抽出された手領域から手首の位置を特定し、ステップS502では、操作体の方向を表す第1ベクトルとして、手首の位置が始点で手の中心位置が終点となるベクトルを生成する。手首の位置は、変形例3と同様、手領域を抽出した際、慣性主軸に直交する方向を幅として幅の大きさが最も小さい部分として特定する。変形例5ではさらに、ステップS503では、撮像位置から操作体を見る方向を表す第2ベクトルとして、撮像位置が始点で手の中心位置もしくは手首の位置が終点となるベクトルを生成する。
[Modification 5]
In the fifth modification, the definition of a vector to be compared in order to determine whether or not the fingertip has entered the blind spot of the distance image sensor 102 when the operating body is a hand is changed. Specifically, the position of the wrist is specified from the extracted hand region, and in step S502, a vector having the wrist position as the start point and the hand center position as the end point is generated as the first vector representing the direction of the operating tool. To do. As in the third modification, the wrist position is specified as a portion having the smallest width with the width orthogonal to the principal axis of inertia when the hand region is extracted. Further, in the modified example 5, in step S503, a vector in which the imaging position is the start point and the center position of the hand or the wrist position is the end point is generated as the second vector representing the direction in which the operating body is viewed from the imaging position.

変形例5では、侵入位置に替えて、手首の位置を利用して操作体の方向を表すベクトルを生成することで、ユーザが手首を曲げて操作した場合でも、操作体の方向として妥当なベクトルを得ることができる。また、撮像位置から操作体を見る方向として、指示位置に替えて手首の位置あるいは手の中心位置を利用することで、指示位置の検出のブレによる影響を抑えて精度のよい方向ベクトルを生成することができる。従って、変形例5によれば、操作体である操作者の手の手首が曲がった状態であっても、指先が隠れているかを精度よく判定することができる。   In the fifth modification, a vector representing the direction of the operating tool is generated using the position of the wrist instead of the entry position, so that even when the user operates by bending the wrist, the vector is valid as the direction of the operating tool. Can be obtained. In addition, by using the wrist position or the center position of the hand as the direction of viewing the operating body from the imaging position instead of the pointing position, an accurate direction vector can be generated while suppressing the influence of blurring of the pointing position. be able to. Therefore, according to the modified example 5, it is possible to accurately determine whether the fingertip is hidden even when the wrist of the operator's hand as the operation body is bent.

図12(a)は、操作空間に差し出された手を、z軸の負方向に沿ってxy平面を見た状態を模式的に表す。図12(a)において、手1200は、死角が生じておらず、全体が距離画像センサ102によって撮像可能な状態にある。また手1200は、手首部分が曲げられている。このように手首を曲げて操作をする状況は例えば、投影された画像に手1200の影を重ねないようにしたいなどの理由により生じることがある。手1200については、距離画像から抽出され手領域のうち、侵入位置1201から最も遠い点を特定する処理に基づき、指示位置1202が特定される。このとき、侵入位置1201から指示位置1202に向かう方向を表す第1ベクトルV1と、撮像位置1203から指示位置1202に向かう向きを表す第2ベクトルV2の角度の差は、18度と、閾値D=30度を下回る。そのため、第1の実施形態によれば、指示位置の高さが大きいような場合には、実際には撮像位置から指先が検出可能であるにも関わらず、指先が死角に入ったと判定される可能性がある。   FIG. 12A schematically shows a state in which the hand placed in the operation space is viewed along the xy plane along the negative direction of the z axis. In FIG. 12A, the hand 1200 has no blind spot, and the entire hand 1200 can be imaged by the distance image sensor 102. The hand 1200 is bent at the wrist. The situation where the wrist is bent in this way may occur, for example, for reasons such as preventing the shadow of the hand 1200 from being superimposed on the projected image. For the hand 1200, the designated position 1202 is identified based on the process of identifying the point farthest from the entry position 1201 in the hand region extracted from the distance image. At this time, the angle difference between the first vector V1 representing the direction from the entry position 1201 to the designated position 1202 and the second vector V2 representing the direction from the imaging position 1203 to the designated position 1202 is 18 degrees, and the threshold D = Below 30 degrees. Therefore, according to the first embodiment, when the designated position is high, it is determined that the fingertip has entered the blind spot even though the fingertip can actually be detected from the imaging position. there is a possibility.

図12(b)は、図12(a)と同じ状態の手1200を対象に、変形例5に係る処理を行う場合に扱われる位置情報を表す。変形例では、第1ベクトルとして、手首の中心位置1204が始点で手の中心位置1205が終点となるベクトルV3と、第2ベクトルとして、撮像位置が始点で手首の位置が終点となるベクトルV4が生成される。図12(b)は図12(a)と同一の状況であるが、V3とV4の角度差は45度となり、閾値D=30度より大きい。従って、指先を対象にデフォルトの基準を使ったタッチ判定が行われる。このように変形例4によれば、操作体として利用される人の手の柔軟な形状に対応しつつ、精度のよい判定結果を得ることが可能となる。なお、変形例5は、変形例1から4と併用されてもよい。   FIG. 12B illustrates position information that is handled when processing according to the modification 5 is performed on the hand 1200 in the same state as that in FIG. In the modified example, a vector V3 in which the wrist center position 1204 is the start point and the hand center position 1205 is the end point is used as the first vector, and a vector V4 in which the imaging position is the start point and the wrist position is the end point is used as the second vector. Generated. FIG. 12B shows the same situation as FIG. 12A, but the angle difference between V3 and V4 is 45 degrees, which is larger than the threshold D = 30 degrees. Therefore, touch determination using a default reference is performed for the fingertip. As described above, according to the fourth modification, it is possible to obtain a highly accurate determination result while corresponding to the flexible shape of the human hand used as the operating tool. Modification 5 may be used in combination with Modifications 1 to 4.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

310 画像取得部
311 手領域抽出部
312 位置検出部
313 状態取得部
314 判定部
315 基準決定部
316 認識部
317 表示制御部
310 image acquisition unit 311 hand region extraction unit 312 position detection unit 313 state acquisition unit 314 determination unit 315 reference determination unit 316 recognition unit 317 display control unit

Claims (21)

操作体の端部による操作面への操作の入力を認識する情報処理装置であって、
前記操作面上の空間のうち、前記操作面からの距離が所定の基準より小さい範囲内に前記操作体の端部が存在する場合、前記操作面上の空間を撮像した画像から、前記操作体の、前記画像を撮像した撮像手段に対する状態を表す情報を取得する取得手段と、
前記取得手段によって取得された情報に関連して前記操作体の端部が前記撮像手段の死角に入っているとみなされる場合は、前記操作体の端部が前記撮像手段の死角に入っているとみなされない場合とは異なる基準を用いて、前記操作体の端部が前記操作面に対する操作の入力中であることを認識する認識手段と、
を備えることを特徴とする情報処理装置。
An information processing apparatus for recognizing an input of an operation on an operation surface by an end of an operation body,
When the end of the operating body is present within a range in which the distance from the operating surface is smaller than a predetermined reference in the space on the operating surface, the operating body is obtained from an image of the space on the operating surface. Obtaining means for obtaining information representing the state of the imaging means that has captured the image;
When the end of the operating body is considered to be in the blind spot of the imaging means in relation to the information acquired by the acquiring means, the end of the operating body is in the blind spot of the imaging means Recognizing means for recognizing that an end of the operating body is being input for an operation on the operation surface, using a different standard from that not considered
An information processing apparatus comprising:
前記取得手段は、前記空間における前記操作体の方向を表す情報と、前記操作体と前記撮像手段の位置関係に関する情報を取得する取得手段であることを特徴とする請求項1に記載の情報処理装置。   2. The information processing according to claim 1, wherein the acquisition unit is an acquisition unit that acquires information indicating a direction of the operation body in the space and information on a positional relationship between the operation body and the imaging unit. apparatus. 前記操作体と前記撮像手段の位置関係に関する情報とは、前記撮像手段の撮像位置から前記操作体の端部を見る方向を表す情報であることを特徴とする請求項2に記載の情報処理装置。   3. The information processing apparatus according to claim 2, wherein the information related to the positional relationship between the operation tool and the imaging unit is information representing a direction in which an end portion of the operation tool is viewed from an imaging position of the imaging unit. . 更に、前記空間における前記操作体の方向を表す情報と、前記撮像手段の撮像位置から前記操作体の端部を見る方向を表す情報とに基づいて特定される、該2つの方向の角度差に関連して、前記操作体の端部が前記撮像手段の死角に入っているとみなされるかを判定する判定手段を備え、
前記認識手段は、前記判定手段による判定の結果に応じて、前記操作体の端部が前記操作面に対する操作の入力中であることを認識する基準を決定することを特徴とする請求項3に記載の情報処理装置。
Furthermore, an angular difference between the two directions specified based on information indicating the direction of the operating body in the space and information indicating the direction of viewing the end of the operating body from the imaging position of the imaging means. Relatedly, a determination unit that determines whether an end portion of the operation body is considered to be within a blind spot of the imaging unit,
The said recognition means determines the reference | standard which recognizes that the edge part of the said operation body is inputting the operation with respect to the said operation surface according to the determination result by the said determination means. The information processing apparatus described.
前記画像を構成する各画素には、前記空間における位置情報が反映されており、
更に、前記画像に反映された位置情報に基づいて、前記操作体の端部の位置情報を、前記操作体によって指し示される指示位置として検出する位置検出手段を備え、
前記判定手段は、前記位置検出手段によって検出された指示位置の前記操作面からの距離が所定の基準より小さい場合に、前記2つの方向の角度差を用いて、前記操作体の端部が前記撮像手段の死角に入っているとみなされるかを判定することを認識する基準を決定することを特徴とする請求項4に記載の情報処理装置。
Each pixel constituting the image reflects position information in the space,
Furthermore, based on the position information reflected in the image, provided with position detection means for detecting the position information of the end of the operating body as an indicated position pointed to by the operating body,
When the distance from the operation surface of the indicated position detected by the position detection unit is smaller than a predetermined reference, the determination unit uses the angle difference between the two directions, and the end of the operation body is The information processing apparatus according to claim 4, wherein a criterion for recognizing that it is determined whether the image is regarded as being within a blind spot of the imaging unit is determined.
前記認識手段は、前記位置検出手段によって検出された指示位置の前記操作面からの距離に関する基準を用いて、前記操作体の端部が前記操作面にタッチ操作の入力中であることを認識する認識手段であって、
前記取得手段によって取得された情報に関連して前記操作体の端部が前記撮像手段の死角に入っているとみなされる場合は、前記操作体の端部が前記撮像手段の死角に入っているとみなされない場合よりも大きい距離を前記基準として決定することを特徴とする請求項5に記載の情報処理装置。
The recognizing unit recognizes that the end of the operating body is inputting a touch operation to the operation surface using a reference regarding the distance from the operation surface of the indicated position detected by the position detecting unit. A means of recognition,
When the end of the operating body is considered to be in the blind spot of the imaging means in relation to the information acquired by the acquiring means, the end of the operating body is in the blind spot of the imaging means The information processing apparatus according to claim 5, wherein a distance larger than a case where the distance is not regarded as a reference is determined as the reference.
前記認識手段は、前記位置検出手段によって検出された指示位置の前記操作面からの距離が、前記基準となる距離よりも小さい場合に、前記操作体の端部が前記操作面にタッチしていると認識することを特徴とする請求項6に記載の情報処理装置。   The recognizing unit touches the operation surface with an end of the operating body when the distance from the operation surface of the indicated position detected by the position detection device is smaller than the reference distance. The information processing apparatus according to claim 6, wherein the information processing apparatus is recognized. 前記判定手段は、前記位置検出手段によって検出された指示位置の前記操作面からの距離が、所定の距離の閾値より大きい場合、前記2つの方向が基準となる角度よりも平行に近ければ、前記操作体の端部が前記撮像手段の死角に入っているとみなされると判定することを特徴とする請求項5又は6に記載の情報処理装置。   If the distance from the operation surface of the indicated position detected by the position detection unit is greater than a predetermined distance threshold, the determination unit may determine that the two directions are closer to parallel than a reference angle. The information processing apparatus according to claim 5, wherein it is determined that an end portion of the operating body is considered to be in a blind spot of the imaging unit. 前記判定手段は、前記位置検出手段によって検出された指示位置の前記操作面からの距離が、所定の距離の閾値より大きい場合、前記2つの方向の角度差が、前記2つの方向の角度の差が所定の角度の閾値よりも小さければ、前記操作体の端部が前記撮像手段の死角に入っていると判定し、前記2つの方向の角度差が、前記2つの方向の角度の差が前記所定の角度の閾値よりも大きければ、前記操作体の端部が前記撮像手段の死角に入っていないとみなされると判定することを特徴とする請求項5又は6に記載の情報処理装置。   When the distance from the operation surface of the indicated position detected by the position detection unit is larger than a predetermined distance threshold, the determination unit determines that the angle difference between the two directions is the difference between the angles between the two directions. Is smaller than a predetermined angle threshold, it is determined that the end of the operating body is within the blind spot of the imaging means, and the difference between the two directions is the difference between the two directions. 7. The information processing apparatus according to claim 5, wherein if it is larger than a predetermined angle threshold, it is determined that an end portion of the operation body is not considered to be within a blind spot of the imaging unit. 前記空間における前記操作体の方向を表す情報とは、前記画像を用いて特定される前記空間の端部と前記操作体とが交差する位置から、前記位置検出手段によって検出される前記指示位置に基づいて特定される直線の方向を表す情報であって、
前記撮像手段の撮像位置から前記操作体の端部を見る方向を表す情報とは、前記撮像手段の撮像位置と、前記位置検出手段によって検出される前記指示位置とに基づいて特定される直線の方向を表す情報であることを特徴とする請求項5又は6に記載の情報処理装置。
The information indicating the direction of the operating body in the space is the indicated position detected by the position detecting means from the position where the end of the space specified by using the image intersects the operating body. Information indicating the direction of the straight line specified based on
The information indicating the direction of viewing the end of the operating body from the imaging position of the imaging means is a straight line specified based on the imaging position of the imaging means and the indicated position detected by the position detection means. The information processing apparatus according to claim 5, wherein the information processing apparatus is information representing a direction.
前記認識手段は、
前記取得手段によって取得された情報に関連して、前記操作体の端部が、前記操作体のうち端部以外の部分によって生じる死角に入っているとみなされる場合は、前記操作体の端部が前記死角に入っているとみなされない場合とは異なる基準を用いて、前記操作体の端部が前記操作面に対するタッチ操作の入力中であることを認識することを特徴とする請求項6乃至10のいずれか1項に記載の情報処理装置。
The recognition means is
In relation to the information acquired by the acquisition means, when the end of the operating body is considered to be in a blind spot caused by a portion other than the end of the operating body, the end of the operating body 7. The method according to claim 6, further comprising: recognizing that an end of the operation body is inputting a touch operation on the operation surface using a different standard from a case where the operation object is not considered to be in the blind spot. The information processing apparatus according to any one of 10.
前記操作体として操作者の手が用いられる場合、前記操作体の端部とは、前記操作者の手のうち指先に相当する部分であることを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。   12. When an operator's hand is used as the operating body, the end of the operating body is a portion corresponding to a fingertip of the operator's hand. The information processing apparatus according to item. 前記情報処理装置は、テーブルトップインタフェースシステムを構成し、
前記撮像手段は、前記テーブルトップインタフェースシステムを構成する距離画像センサによって撮像され、各画素に前記操作面からの高さ方向に対応する位置情報が反映された距離画像であって、
前記認識手段は、前記距離画像に基づいて特定される前記操作体の一部の高さと、前記操作面からの前記操作体の一部の高さに関する基準とに基づいて、前記操作体の端部が前記操作面にタッチしていることを認識することを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。
The information processing apparatus constitutes a table top interface system,
The imaging means is a distance image that is captured by a distance image sensor that constitutes the table top interface system, and position information corresponding to a height direction from the operation surface is reflected on each pixel,
The recognizing unit is configured to determine an end of the operating body based on a height of a part of the operating body specified based on the distance image and a reference regarding a height of the part of the operating body from the operating surface. The information processing apparatus according to claim 1, wherein the information processing apparatus recognizes that a part touches the operation surface.
前記認識手段は、前記操作面に対する操作の入力中であると認識された操作体が複数である場合、前記位置検出手段によって前記複数の操作体に関して検出された複数の指示位置の軌跡に基づいてマルチタッチ操作を認識することを特徴とする請求項6乃至10のいずれか1項に記載の情報処理装置。   The recognition means, when there are a plurality of operating bodies recognized as being input to the operation surface, based on the trajectories of a plurality of designated positions detected for the plurality of operating bodies by the position detection means. The information processing apparatus according to claim 6, wherein a multi-touch operation is recognized. 前記操作体として操作者の手が用いられる場合、前記操作体の端部とは、前記操作者の手のうち指先に相当する部分に相当し、
更に、前記画像から、前記操作者の手のうち指先とみなされる位置情報を検出する位置検出手段を備え、
前記認識手段は、前記取得手段によって取得された情報と、前記位置検出手段によって検出された位置の前記画像から前記操作者の手のうち手の甲とみなされる部分からの距離の大きさに基づいて、前記操作者の手のうち指先が前記撮像手段の死角に入っているとみなされるかを判定することを特徴とする請求項1に記載の情報処理装置。
When an operator's hand is used as the operating body, the end of the operating body corresponds to a portion corresponding to a fingertip of the operator's hand,
Furthermore, it comprises a position detection means for detecting position information that is regarded as a fingertip of the operator's hand from the image,
The recognizing means is based on the information acquired by the acquiring means and the magnitude of the distance from the image of the position detected by the position detecting means from the portion considered as the back of the hand of the operator's hand, The information processing apparatus according to claim 1, wherein it is determined whether a fingertip of the operator's hand is considered to be in a blind spot of the imaging unit.
前記操作体として操作者の手が用いられる場合、前記操作体の端部とは、前記操作者の手のうち指先に相当する部分に相当し、
前記認識手段は、前記取得手段によって取得された情報と、前記画像から抽出される前記操作体が写る領域の形状と所定の手のモデルの形状とを比較した結果に基づいて、前記操作者の手のうち指先が前記撮像手段の死角に入っているとみなされるかを判定することを特徴とする請求項1に記載の情報処理装置。
When an operator's hand is used as the operating body, the end of the operating body corresponds to a portion corresponding to a fingertip of the operator's hand,
The recognizing means is based on a result of comparing the information acquired by the acquiring means with the shape of a region in which the operating body extracted from the image is captured and the shape of a predetermined hand model. The information processing apparatus according to claim 1, wherein it is determined whether a fingertip of a hand is considered to be in a blind spot of the imaging unit.
前記操作体として操作者の手が用いられる場合、前記操作体の端部とは、前記操作者の手のうち指先に相当する部分に相当し、
前記認識手段は、前記操作者の手のうち指先が前記撮像手段の死角に入っているとみなされる場合、前記操作者の手のうち指先が前記撮像手段の死角に入っていないとみなされた時点で撮像された前記画像における前記操作者の手のうち指先とみなされる位置情報と、前記操作体の手の甲の中心の位置情報とに基づいて推定された指先の位置情報を用いてタッチ操作を認識することを特徴とする請求項1に記載の情報処理装置。
When an operator's hand is used as the operating body, the end of the operating body corresponds to a portion corresponding to a fingertip of the operator's hand,
When the fingertip of the operator's hand is considered to be in the blind spot of the imaging means, the recognition means is considered not to be in the blind spot of the imaging means when the fingertip is considered to be in the blind spot of the imaging means. The touch operation is performed using the position information of the fingertip estimated based on the position information regarded as the fingertip of the operator's hand in the image captured at the time and the position information of the center of the back of the hand of the operating body. The information processing apparatus according to claim 1, wherein the information processing apparatus is recognized.
前記操作体として操作者の手が用いられる場合、前記操作体の端部とは、前記操作者の手のうち指先に相当する部分に相当し、
前記空間における前記操作体の方向を表す情報とは、前記画像を用いて特定される前記操作者の手のうち手首の位置から、前記操作者の手の甲の中心の位置に基づいて特定される直線の方向を表す情報であって、
前記撮像手段の撮像位置から前記操作体の端部を見る方向を表す情報とは、前記撮像手段の撮像位置と、前記操作者の手のうち手首の位置から、前記操作者の手の甲の中心の位置とに基づいて特定される直線の方向を表す情報であることを特徴とする請求項3乃至6のいずれか1項に記載の情報処理装置。
When an operator's hand is used as the operating body, the end of the operating body corresponds to a portion corresponding to a fingertip of the operator's hand,
The information indicating the direction of the operating body in the space is a straight line specified based on the position of the center of the back of the operator's hand from the position of the wrist of the operator's hand specified using the image. Information indicating the direction of
The information indicating the direction of viewing the end of the operating body from the imaging position of the imaging means is the center of the back of the operator's hand from the imaging position of the imaging means and the wrist position of the operator's hand. The information processing apparatus according to claim 3, wherein the information processing apparatus is information indicating a direction of a straight line specified based on the position.
操作体の端部による操作面への操作の入力を認識する情報処理装置の制御方法であって、
前記操作面上の空間のうち、前記操作面からの距離が所定の基準より小さい範囲内に前記操作体の端部が存在する場合、取得手段により、前記操作面上の空間を撮像した画像から、前記操作体の、前記画像を撮像した撮像手段に対する状態を表す情報を取得する取得工程と、
認識手段により、前記取得工程において取得された情報に関連して前記操作体の端部が前記撮像手段の死角に入っているとみなされる場合は、前記操作体の端部が前記撮像手段の死角に入っているとみなされない場合とは異なる基準を用いて、前記操作体の端部が前記操作面に対する操作の入力中であることを認識する認識工程と、
を備えることを特徴とする情報処理装置の制御方法。
A control method for an information processing device that recognizes an input of an operation on an operation surface by an end of an operation body,
In the space on the operation surface, when the end of the operation body exists within a range in which the distance from the operation surface is smaller than a predetermined reference, an acquisition unit obtains an image of the space on the operation surface. An acquisition step of acquiring information representing a state of the operation body with respect to an imaging unit that has captured the image;
When the recognition means regards the end of the operating body as being within the blind spot of the imaging means in relation to the information acquired in the acquisition step, the end of the operating body is the blind spot of the imaging means. A recognition step for recognizing that an end of the operating body is being input for an operation on the operation surface, using a different standard than when not considered to be included,
An information processing apparatus control method comprising:
コンピュータに読み込ませ実行させることによって、前記コンピュータを、請求項1に記載された情報処理装置として機能させるプログラム。   A program that causes a computer to function as the information processing apparatus according to claim 1 by being read and executed by the computer. 請求項20に記載されたプログラムを格納したことを特徴とするコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 20.
JP2015215218A 2015-10-30 2015-10-30 Information processing device, control method therefor, program, and recording medium Pending JP2017084307A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015215218A JP2017084307A (en) 2015-10-30 2015-10-30 Information processing device, control method therefor, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015215218A JP2017084307A (en) 2015-10-30 2015-10-30 Information processing device, control method therefor, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2017084307A true JP2017084307A (en) 2017-05-18

Family

ID=58711240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015215218A Pending JP2017084307A (en) 2015-10-30 2015-10-30 Information processing device, control method therefor, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2017084307A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019083004A (en) * 2017-10-27 2019-05-30 三星電子株式会社Samsung Electronics Co.,Ltd. Method and apparatus for tracking object
JP2019168251A (en) * 2018-03-22 2019-10-03 株式会社Jvcケンウッド Shape measuring apparatus, shape measuring method, and program
CN111373732A (en) * 2017-12-27 2020-07-03 索尼公司 Information processing apparatus, information processing method, and information processing system
WO2022064881A1 (en) * 2020-09-28 2022-03-31 ソニーグループ株式会社 Information processing device, information processing method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019083004A (en) * 2017-10-27 2019-05-30 三星電子株式会社Samsung Electronics Co.,Ltd. Method and apparatus for tracking object
JP7163129B2 (en) 2017-10-27 2022-10-31 三星電子株式会社 Object tracking method and apparatus
US11676421B2 (en) 2017-10-27 2023-06-13 Samsung Electronics Co., Ltd. Method and apparatus for tracking object
CN111373732A (en) * 2017-12-27 2020-07-03 索尼公司 Information processing apparatus, information processing method, and information processing system
EP3734960A4 (en) * 2017-12-27 2021-01-27 Sony Corporation Information processing device, information processing method and information processing system
US11501459B2 (en) 2017-12-27 2022-11-15 Sony Corporation Information processing apparatus, method of information processing, and information processing system
JP2019168251A (en) * 2018-03-22 2019-10-03 株式会社Jvcケンウッド Shape measuring apparatus, shape measuring method, and program
JP7000940B2 (en) 2018-03-22 2022-01-19 株式会社Jvcケンウッド Shape measuring device, shape measuring method and program
WO2022064881A1 (en) * 2020-09-28 2022-03-31 ソニーグループ株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP6618276B2 (en) Information processing apparatus, control method therefor, program, and storage medium
US8933882B2 (en) User centric interface for interaction with visual display that recognizes user intentions
US10456918B2 (en) Information processing apparatus, information processing method, and program
JP6482196B2 (en) Image processing apparatus, control method therefor, program, and storage medium
JP6711817B2 (en) Information processing apparatus, control method thereof, program, and storage medium
EP2846308A2 (en) Pointing direction detecting device and its method, program and computer readable-medium
JP6723814B2 (en) Information processing apparatus, control method thereof, program, and storage medium
CN102541365A (en) System and method for generating multi-touch commands
US10254893B2 (en) Operating apparatus, control method therefor, and storage medium storing program
JP6562752B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP6452369B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP6335695B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP2017084307A (en) Information processing device, control method therefor, program, and recording medium
US20180373392A1 (en) Information processing device and information processing method
JP6555958B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP2016139396A (en) User interface device, method and program
JP6618301B2 (en) Information processing apparatus, control method therefor, program, and storage medium
US10416814B2 (en) Information processing apparatus to display an image on a flat surface, method of controlling the same, and storage medium
JP2018063555A (en) Information processing device, information processing method, and program
JP2018055685A (en) Information processing device, control method thereof, program, and storage medium
JP2018185563A (en) Information processing apparatus, information processing method, computer program and storage medium
JP6570376B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP2017228216A (en) Information processing apparatus, control method therefor, program, and storage medium
US20240069647A1 (en) Detecting method, detecting device, and recording medium
EP3059664A1 (en) A method for controlling a device by gestures and a system for controlling a device by gestures