JP2000259337A - Pointing device - Google Patents

Pointing device

Info

Publication number
JP2000259337A
JP2000259337A JP6323799A JP6323799A JP2000259337A JP 2000259337 A JP2000259337 A JP 2000259337A JP 6323799 A JP6323799 A JP 6323799A JP 6323799 A JP6323799 A JP 6323799A JP 2000259337 A JP2000259337 A JP 2000259337A
Authority
JP
Japan
Prior art keywords
pointer
dimensional model
pointing device
dimensional
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6323799A
Other languages
Japanese (ja)
Inventor
Akira Uchiumi
章 内海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Media Integration and Communication Research Laboratories
Original Assignee
ATR Media Integration and Communication Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Media Integration and Communication Research Laboratories filed Critical ATR Media Integration and Communication Research Laboratories
Priority to JP6323799A priority Critical patent/JP2000259337A/en
Publication of JP2000259337A publication Critical patent/JP2000259337A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Abstract

PROBLEM TO BE SOLVED: To provide a pointing device which can execute an instruction operation while an instruction position is recognized by giving sight feedback. SOLUTION: A hand gesture recognition device 12 recognizes the hand gesture of a user and outputs hand gesture position posture information. A three- dimensional position detection part 8 detects the three-dimensional position of spot light projected by a laser beam emitting part 2. A three-dimensional model generation part 10 generates the three-dimensional model of a scene containing projected spot light on the basis of the three-dimensional position. A support stand control part 14 detects the position of an instruction object on the basis of the three-dimensional model and hand gesture position posture information and controls the posture of a support stand 16 containing the laser beam emitting part 2.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、ポインティング
装置に関し、さらに詳しくは、非接触型インタフェース
の分野におけるポインティング装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pointing device, and more particularly, to a pointing device in the field of a non-contact interface.

【0002】[0002]

【従来の技術】近年、画像処理の分野では、人間の手や
全身の3次元動作を非接触で検出するための研究が進め
られている。このような非接触型の動作検出装置は、コ
マンドインタフェース等への広い応用が可能である。
2. Description of the Related Art In recent years, in the field of image processing, research on non-contact detection of three-dimensional movement of a human hand or a whole body has been advanced. Such a non-contact type motion detection device can be widely applied to a command interface and the like.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
非接触型のインタフェースでは、検出誤差やユーザの動
作の誤りや変動のためにユーザの意図と検出される動き
との間にずれが生じるという問題があった。また、この
ずれを補償する機構が存在しなかった。ポインティング
のように定量的なジェスチャーの場合には、特にこのず
れが問題となってしまう。
However, in the conventional non-contact type interface, there is a problem that a deviation occurs between a user's intention and a detected movement due to a detection error or an error or fluctuation of a user's operation. was there. Further, there was no mechanism for compensating for this deviation. In the case of a quantitative gesture such as pointing, this shift is particularly problematic.

【0004】そこで、本発明はかかる問題を解決するた
めになされたものであり、その目的はユーザが自己の指
示位置を確認しながら指示動作を行なうことができるポ
インティング装置を提供することにある。
Accordingly, the present invention has been made to solve such a problem, and an object of the present invention is to provide a pointing device that allows a user to perform a pointing operation while checking his / her pointing position.

【0005】[0005]

【課題を解決するための手段】請求項1に係るポインテ
ィング装置は、ユーザの指示した位置にポインタを投影
するポインティング装置であって、シーンにポインタを
投影するポインタ投影手段と、シーンを撮影して、ポイ
ンタの位置を観測する観測手段と、ポインタの位置に基
づき、シーンの3次元モデルを生成する3次元モデル生
成手段と、ユーザの指示する手の方向を検出する手振り
認識手段と、検出されたユーザの手の方向と3次元モデ
ルとに基づき、ユーザの指示する位置を算出し、ポイン
タ投影手段の姿勢を制御する制御手段とを備える。
A pointing device according to a first aspect of the present invention is a pointing device for projecting a pointer at a position designated by a user, comprising: pointer projecting means for projecting a pointer on a scene; Observation means for observing the position of the pointer, three-dimensional model generation means for generating a three-dimensional model of the scene based on the position of the pointer, hand gesture recognition means for detecting the direction of the hand specified by the user, A control unit that calculates a position indicated by the user based on the direction of the user's hand and the three-dimensional model, and controls a posture of the pointer projection unit.

【0006】請求項2に係るポインティング装置は、請
求項1に係るポインティング装置であって、ポインタ投
影手段は、レーザ光を出力するレーザ発光手段を含み、
レーザ光により、シーンにポインタであるスポット光が
投影される。
A pointing device according to a second aspect is the pointing device according to the first aspect, wherein the pointer projecting unit includes a laser emitting unit that outputs a laser beam,
A spot light, which is a pointer, is projected onto the scene by the laser light.

【0007】[0007]

【発明の実施の形態】以下、本発明の実施の形態におけ
るポインティング装置1について、図1を用いて説明す
る。なお、以下の説明において、図中同一符号は同一ま
たは相当部分を示す。図1は、本発明の実施の形態にお
けるポインティング装置1の実使用状況を説明するため
の概念図である。図1を参照して、ユーザ20は、シー
ン22に対し指示動作(ポインティング)を行なう。ポ
インティング装置1は、手の動きを認識し、予め生成し
た3次元モデルを用いて指示対象の位置を算出する。そ
して、当該指示対象の位置にポインタであるスポット光
24を投影する。同時に、ポインティング装置1は、ス
ポット光24の位置を検出して3次元モデルを更新す
る。ユーザ20は、視覚によるフィードバックにより正
確な指示動作を行なうことが可能となる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A pointing device 1 according to an embodiment of the present invention will be described below with reference to FIG. In the following description, the same reference numerals in the drawings indicate the same or corresponding parts. FIG. 1 is a conceptual diagram for explaining an actual use situation of the pointing device 1 according to the embodiment of the present invention. Referring to FIG. 1, user 20 performs a pointing operation (pointing) on scene 22. The pointing device 1 recognizes the movement of the hand and calculates the position of the pointing target using a three-dimensional model generated in advance. Then, a spot light 24 as a pointer is projected on the position of the pointing target. At the same time, the pointing device 1 detects the position of the spot light 24 and updates the three-dimensional model. The user 20 can perform an accurate instruction operation by visual feedback.

【0008】ポインティング装置1の全体構成を、図2
を用いて説明する。図2は、本発明の実施の形態におけ
るポインティング装置1の全体構成を示すブロック図で
ある。図2を参照して、ポインティング装置1は、レー
ザ発光部2、カメラ4、画像処理部6、3次元位置検出
部8、3次元モデル生成部10、手振り認識装置12お
よび支持台制御部14を備える。レーザ発光部2および
カメラ4は、支持台16に固定されている。支持台16
の姿勢は、支持台制御部14により制御される。
FIG. 2 shows the entire configuration of the pointing device 1.
This will be described with reference to FIG. FIG. 2 is a block diagram illustrating an overall configuration of the pointing device 1 according to the embodiment of the present invention. Referring to FIG. 2, pointing device 1 includes laser emission unit 2, camera 4, image processing unit 6, three-dimensional position detection unit 8, three-dimensional model generation unit 10, hand gesture recognition device 12, and support base control unit 14. Prepare. The laser emitting unit 2 and the camera 4 are fixed to a support 16. Support 16
Is controlled by the support controller 14.

【0009】レーザ発光部2は、レーザ光を出力する。
これにより、シーン22上にスポット光24が投影され
る。カメラ4は、シーン22のスポット光24を含む部
分を観測する。画像処理部6は、カメラ4で観測した画
像の中から、スポット光24を検出する。より具体的に
は、画像処理部6は、輝度および色情報に基づく領域分
割と重心検出とから画像中におけるスポット光24を検
出する。
The laser emitting section 2 outputs a laser beam.
Thereby, the spot light 24 is projected on the scene 22. The camera 4 observes a portion of the scene 22 including the spot light 24. The image processing unit 6 detects the spot light 24 from the image observed by the camera 4. More specifically, the image processing unit 6 detects the spot light 24 in the image from the area division based on the luminance and color information and the detection of the center of gravity.

【0010】3次元位置検出部8は、ポインタの位置を
観測する(すなわち、スポット光24の3次元位置を検
出する)。3次元モデル生成部10は、シーン22の3
次元モデルを生成する。手振り認識装置12は、ユーザ
20の手振り位置姿勢情報を検出する。支持台制御部1
4は、この手振り姿勢位置情報と3次元モデル生成部1
0で生成されるシーン22の3次元モデルとに基づき、
指示対象の3次元位置(x、y、z)を算出し、指示対
象の3次元位置(x、y、z)に基づきパン角θおよび
チルト角φを算出する。パン角θおよびチルト角φによ
り、支持台16は姿勢を変化させる。
The three-dimensional position detector 8 observes the position of the pointer (that is, detects the three-dimensional position of the spot light 24). The three-dimensional model generation unit 10
Generate a dimensional model. The hand gesture recognition device 12 detects hand gesture position / posture information of the user 20. Support stand control unit 1
Reference numeral 4 denotes the hand posture information and the three-dimensional model generation unit 1
0 based on the three-dimensional model of the scene 22 generated by
The three-dimensional position (x, y, z) of the pointing target is calculated, and the pan angle θ and the tilt angle φ are calculated based on the three-dimensional position (x, y, z) of the pointing target. The support 16 changes its posture according to the pan angle θ and the tilt angle φ.

【0011】ここで、ポインティング装置1の座標系に
ついて図3を用いて説明する。図3は、ポインティング
装置1の座標系を説明するための図である。図3に示す
x軸、y軸、z軸からなる座標系の原点に、支持台16
の回転中心がある。回転中心とレーザ光の光軸とがx−
z面上で距離dだけ離れているものとする。y軸を中心
とする回転角をパン角θと称する。y軸を中心とした回
転後、x軸はx′軸に移動する。x′軸における時計方
向の回転をチルト角φと称する。
Here, the coordinate system of the pointing device 1 will be described with reference to FIG. FIG. 3 is a diagram for explaining a coordinate system of the pointing device 1. The support 16 is located at the origin of the coordinate system including the x-axis, y-axis,
There is a center of rotation. The rotation center and the optical axis of the laser beam are x-
It is assumed that they are separated by a distance d on the z plane. The rotation angle about the y-axis is referred to as a pan angle θ. After rotation about the y-axis, the x-axis moves to the x'-axis. A clockwise rotation on the x 'axis is referred to as a tilt angle φ.

【0012】図4は、x−z平面におけるパン角θを表
わした図である。図4において、座標(x、y)は、指
示対象の位置を示している。図5は、y−z′平面にお
けるチルト角φを表わした図である。図5において、座
標(z、y)は、指示対象の位置を、z″軸は、パン回
転およびチルト回転をした後のz軸を表わしている。
FIG. 4 is a diagram showing the pan angle θ in the xz plane. In FIG. 4, the coordinates (x, y) indicate the position of the pointing target. FIG. 5 is a diagram illustrating the tilt angle φ in the yz ′ plane. In FIG. 5, the coordinates (z, y) indicate the position of the pointing target, and the z ″ axis indicates the z axis after the pan rotation and the tilt rotation.

【0013】図4および図5を参照して、パン角θは、
式(1)および式(2)で決定される。これにより、指
示対象の位置(x、y、z)とパン角θとの間には、式
(3)の関係が成立する。また、指示対象の位置(x、
y、z)とチルト角φとの間には、式(4)の関係が成
立する。支持台制御部14は、指示対象の位置(x、
y、z)に基づき、式(3)および式(4)に従い、パ
ン角θ、チルト角φが決定される。
Referring to FIGS. 4 and 5, the pan angle θ is
It is determined by Expression (1) and Expression (2). As a result, the relationship of Expression (3) is established between the position (x, y, z) of the pointing target and the pan angle θ. In addition, the position (x,
The relationship of equation (4) is established between y, z) and the tilt angle φ. The support base control unit 14 determines the position (x,
The pan angle θ and the tilt angle φ are determined according to the equations (3) and (4) based on (y, z).

【0014】[0014]

【数1】 (Equation 1)

【0015】ここで、指示対象の3次元位置(x、y、
z)を決定する、画像処理部6、3次元位置検出部8、
3次元モデル生成部10および手振り認識装置12のそ
れぞれにおける処理内容を詳しく説明する。
Here, the three-dimensional position (x, y,
z), an image processing unit 6, a three-dimensional position detection unit 8,
The processing contents of each of the three-dimensional model generation unit 10 and the hand gesture recognition device 12 will be described in detail.

【0016】まず、3次元位置検出部8の詳細について
説明する。3次元位置検出部8は、ポインティング装置
1とスポット光24との距離Lを三角測量で決定し、さ
らにスポット光の3次元位置(xs、ys、zs)を決
定する。図6は、3次元位置検出部8の処理を説明する
ための図である。図6に示すように、カメラ4の光軸
が、z″軸(パン回転およびチルト回転をした後のz軸
に相当する)上の正の方向にあるものと仮定する。レー
ザ光は、z″軸に平行であると仮定する。
First, the details of the three-dimensional position detector 8 will be described. The three-dimensional position detector 8 determines the distance L between the pointing device 1 and the spot light 24 by triangulation, and further determines the three-dimensional position (xs, ys, zs) of the spot light. FIG. 6 is a diagram for explaining the processing of the three-dimensional position detection unit 8. 6, it is assumed that the optical axis of the camera 4 is in a positive direction on the z ″ axis (corresponding to the z axis after performing the pan rotation and the tilt rotation). "Assume parallel to axis.

【0017】カメラ2の焦点は、x′−z″平面におい
て(0、−l)に位置する。ここで記号lは、カメラの
焦点距離を表わす。この場合、レーザ光は、位置(−
d、L)を照らす。スポット光は、(−w、0)におい
て観測される。ここで、記号wは、画像上に観測される
スポット光24の原点からの距離を表わす。この場合、
ポインティング装置1とスポット光24との距離Lは、
式(5)の関係にあるため、式(6)により距離Lが定
められる。
The focal point of the camera 2 is located at (0, -1) in the x'-z "plane, where the symbol l represents the focal length of the camera, in which case the laser beam is located at the position (-
d, L). Spot light is observed at (−w, 0). Here, the symbol w represents the distance from the origin of the spot light 24 observed on the image. in this case,
The distance L between the pointing device 1 and the spot light 24 is
Because of the relationship of Expression (5), the distance L is determined by Expression (6).

【0018】l:w=L:d … (5) L=ld/w … (6) ここで、回転がない場合(チルト角θ=0、パン角φ=
0)、スポット光の位置(xs、ys、zs)は、式
(7)の関係にある。
L: w = L: d (5) L = ld / w (6) Here, when there is no rotation (tilt angle θ = 0, pan angle φ =
0) and the position (xs, ys, zs) of the spot light have the relationship of equation (7).

【0019】 (xs、ys、zs)=(d、0、L) …(7) 式(7)に、チルト角θおよびパン角φを加えると、式
(8)の関係が成立する。
(Xs, ys, zs) = (d, 0, L) (7) When the tilt angle θ and the pan angle φ are added to the equation (7), the relation of the equation (8) is established.

【0020】[0020]

【数2】 (Equation 2)

【0021】ここで、Rφ、Rθは、それぞれx軸、y
軸回りのパン角θ、チルト角φの回転を表わす。
Here, Rφ and Rθ are the x-axis and y, respectively.
The rotation of the pan angle θ and the tilt angle φ around the axis is shown.

【0022】距離Lが、(L+△L)に、スポット光の
観測点(w、0)が、(−w+△w)になった場合、式
(9)の関係から、式(10)の関係が成立する。ここ
で、△wは、ピクセルの幅を表わしている。
When the distance L is (L + △ L) and the observation point (w, 0) of the spot light is (−w + △ w), the relation of the equation (9) is used. The relationship is established. Here, △ w represents the width of the pixel.

【0023】 l:w−△w=L+△L:d … (9) △L/△w=L/w=L2/(ld) … (10) 式(10)において、△L/△wは、1ピクセルあたり
の距離の差を表わしている。この場合、焦点距離lの長
いカメラ4を使用することにより、距離検出の精度を高
くすることができる。
L: w−Δw = L + ΔL: d (9) ΔL / Δw = L / w = L 2 / (ld) (10) In equation (10), ΔL / Δw Represents the difference in distance per pixel. In this case, the accuracy of distance detection can be increased by using the camera 4 having a long focal length l.

【0024】次に、3次元モデル生成部10について説
明する。3次元モデル生成部10では、シーン22を走
査することにより、シーン22の3次元モデルを生成す
る。3次元の位置情報(3次元点列)から3次元モデル
を生成する方法については、多くの提案がある。本発明
の実施の形態では、3次元位置検出部8の出力結果に基
づき、シーン22を3角形の集合で表現する。図7は、
3次元モデルの生成の過程を説明するための図である。
図7を参照して、パッチの各頂点p0は、観測点p1に
対応している。本装置は、初期動作において点p1を、
パン角θ、チルト角φの制御により移動させ(図中矢印
方向)、一定間隔毎に頂点p0の位置を決定することに
より初期モデルを生成する。たとえば、図8は、3次元
モデルの生成過程の一例を説明するため図であり、シー
ンの一例を示している。図8に示すシーンは、壁面W1
および壁面W2を含み、壁面W1が、壁面W2より奥行
きを持って配置されている。図9は、図8に対する3次
元モデルを示している。図8に示すシーンは、図9に示
すように、奥行き、高さ、幅を持った3次元空間上にお
ける3角形の集合として表現される。
Next, the three-dimensional model generator 10 will be described. The three-dimensional model generation unit 10 generates a three-dimensional model of the scene 22 by scanning the scene 22. There are many proposals for a method of generating a three-dimensional model from three-dimensional position information (three-dimensional point sequence). In the embodiment of the present invention, the scene 22 is represented by a set of triangles based on the output result of the three-dimensional position detector 8. FIG.
FIG. 7 is a diagram for explaining a process of generating a three-dimensional model.
Referring to FIG. 7, each vertex p0 of the patch corresponds to observation point p1. This device sets the point p1 in the initial operation,
The initial model is generated by controlling the pan angle θ and the tilt angle φ (in the direction of the arrow in the figure) and determining the position of the vertex p0 at regular intervals. For example, FIG. 8 is a diagram for explaining an example of a process of generating a three-dimensional model, and shows an example of a scene. The scene shown in FIG.
And the wall surface W2, and the wall surface W1 is disposed with a greater depth than the wall surface W2. FIG. 9 shows a three-dimensional model corresponding to FIG. The scene shown in FIG. 8 is represented as a set of triangles in a three-dimensional space having depth, height, and width, as shown in FIG.

【0025】次に、手振り認識装置12について説明す
る。ユーザの手振りを認識し、ユーザの手振り位置姿勢
情報を出力する手振り認識装置12については、「手振
り認識装置(特開平10−063864号公報)」に詳
細な内容が記載されている。ここでは、当該手振り認識
装置12の概要を説明する。図10は、手振り認識装置
12の概要を説明するための図である。図10を参照し
て、手振り認識装置12では、カメラ30.1〜30.
kを用いて、手を違いに異なる角度で撮影する。特徴検
出部40.1〜40.kは、撮影された画像に基づき、
手の画像上において、手の重心候補(極大点)から輪郭
までの最短距離を示すスケルトン値を算出する。3次元
重心点・方向検出部42では、手の3次元上の重心Oh
を決定(重心スケルトン値s1〜skを決定)するとと
もに、カメラで得られた手の方向をステレオマッチング
することにより3次元上の手の方向Xhを決定する。回
転角検出部44では、重心スケルトン値に基づき、手の
主軸(Xh)まわりの回転角rを決定する。カメラ選択
部46は、得られた重心位置、手の方向および回転角r
を持つ面(手平面)に対して最も垂直に近い光軸を持つ
カメラを選択する。指先点検出部48は、選択されたカ
メラから得られた画像をラベリング処理することにより
指先候補点を抽出して手平面に投影する。手モデル復元
部50は、回転角および指先点に基づいて手のひらモデ
ルを復元する。当該手振り認識装置12を用いることに
より、図11に示すようにユーザ20の手21における
重心位置Oh=(xh、yh、zh)および手の姿勢X
h=(ah、eh、rh)が決定される。
Next, the hand gesture recognition device 12 will be described. The details of the hand gesture recognition device 12 that recognizes the user's hand gesture and outputs the user's hand gesture position / posture information are described in "Hand Gesture Recognition Device (Japanese Patent Laid-Open No. 10-063864)". Here, the outline of the hand gesture recognition device 12 will be described. FIG. 10 is a diagram for explaining the outline of the hand gesture recognition device 12. Referring to FIG. 10, camera 30.1 to 30.
Using k, the hand is photographed at different angles. Feature detector 40.1-40. k is based on the taken image,
On the hand image, a skeleton value indicating the shortest distance from the candidate center of gravity (maximum point) of the hand to the contour is calculated. The three-dimensional center-of-gravity point / direction detection unit 42 calculates the three-dimensional center of gravity Oh of the hand.
(Determining the centroid skeleton values s1 to sk) and stereo-matching the hand direction obtained by the camera to determine the three-dimensional hand direction Xh. The rotation angle detector 44 determines a rotation angle r about the main axis (Xh) of the hand based on the center of gravity skeleton value. The camera selection unit 46 obtains the obtained center of gravity position, hand direction, and rotation angle r.
Select the camera that has the optical axis that is closest to the plane (hand plane) with. The fingertip point detection unit 48 extracts a fingertip candidate point by performing labeling processing on an image obtained from the selected camera, and projects it on the hand plane. The hand model restoring unit 50 restores the palm model based on the rotation angle and the fingertip point. By using the hand gesture recognition device 12, as shown in FIG. 11, the center of gravity position Oh = (xh, yh, zh) and the hand posture X in the hand 21 of the user 20
h = (ah, eh, rh) is determined.

【0026】次に、支持台制御部14について説明す
る。支持台制御部14においては、手振り認識装置12
より与えられる手の重心位置Oh=(xh、yh、z
h)および手の姿勢Xh=(ah、eh、rh)から決
定される手の指示方向と、3次元モデル生成部10にお
いて生成したシーン22の3次元モデルとの交点(x、
y、z)を求める。当該交点は、指示対象の3次元位置
(x、y、z)を表わしている。この指示対象の3次元
位置(x、y、z)を、式(3)および式(4)に代入
することにより、パン角φおよびチルト角θの値が算出
される。このようにして算出されたパン角θおよびチル
ト角φにより、支持台16の角度が回転する。これによ
り、支持台の姿勢が更新される。更新された姿勢に基づ
きスポット光を投影することで、ユーザへの視覚フィー
ドバックが与えられると同時に3次元モデルが更新され
る。
Next, the support base control unit 14 will be described. In the support control unit 14, the hand gesture recognition device 12
Center of gravity of the hand given by Oh = (xh, yh, z
h) and the hand orientation Xh = (ah, eh, rh) determined by the hand pointing direction and the intersection (x, x) of the 3D model of the scene 22 generated by the 3D model generating unit 10.
y, z). The intersection represents the three-dimensional position (x, y, z) of the pointing target. The values of the pan angle φ and the tilt angle θ are calculated by substituting the three-dimensional position (x, y, z) of the pointing target into Expressions (3) and (4). The angle of the support base 16 is rotated by the pan angle θ and the tilt angle φ calculated as described above. Thereby, the attitude of the support table is updated. Projecting the spotlight based on the updated posture provides visual feedback to the user and updates the three-dimensional model at the same time.

【0027】この発明の有効性を明らかにするため、次
のようなシミュレーション実験を行なった。実験環境と
しては、壁面から約2メートル離れた位置に立った被験
者(ユーザ)に対して、ポインティング装置1を用いて
スポット光で指示位置を指示した場合(視覚フィードバ
ックあり)と視覚フィードバックなしの場合との2条件
のもとで、壁面上の同一点を10回にわたり繰返し指示
させ、指示精度を測定した。指示回数は各10回であ
り、システムの動作速度は約10Hzである。
The following simulation experiment was conducted to clarify the effectiveness of the present invention. As an experimental environment, a pointing device 1 is used to indicate a pointing position (with visual feedback) to a subject (user) standing at a position about 2 meters away from a wall surface (with visual feedback) and without visual feedback. Under the above two conditions, the same point on the wall surface was repeatedly indicated 10 times, and the indicating accuracy was measured. The number of instructions is ten each, and the operating speed of the system is about 10 Hz.

【0028】図12に、実験結果を示す。被験者は、2
人(被験者1、被験者2)である。縦軸は指示位置の標
準誤差を示している。横軸は、被験者の指示方向を示し
ている。図中、白抜きの棒グラフAは本発明の実施の形
態におけるポインティング装置1を使用した場合であ
り、斜線入りの棒グラフBは視覚フィードバックがない
場合にそれぞれ対応している。ポインティング装置1を
用いたほうが、両被験者ともに水平垂直いずれの方向に
ついても指示位置の誤差が小さく、当該装置を用いなか
った場合と有意な差が見られる。これらの結果は、視覚
フィードバック(本発明の実施の形態におけるポインテ
ィング装置)の有効性を示すものと言える。
FIG. 12 shows the results of the experiment. Subjects are 2
Human (subject 1, subject 2). The vertical axis indicates the standard error of the indicated position. The horizontal axis indicates the direction indicated by the subject. In the figure, a white bar graph A corresponds to a case where the pointing device 1 according to the embodiment of the present invention is used, and a hatched bar graph B corresponds to a case where there is no visual feedback. When the pointing device 1 is used, the pointing position error is smaller in both the horizontal and vertical directions for both subjects, and a significant difference is seen from the case where the device is not used. These results show that the visual feedback (the pointing device in the embodiment of the present invention) is effective.

【0029】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
The embodiments disclosed this time are to be considered in all respects as illustrative and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

【0030】[0030]

【発明の効果】以上のように、本発明に係るポインティ
ング装置によれば、投影されたスポット光の位置検出
(および3次元モデルの獲得)と、ユーザの指示した位
置の提示(スポット光の投影)すなわち視覚フィードバ
ックとを同時に行なうことができるため、ユーザは、自
己の指示方向がポインティング装置にどう認識されてい
るかを理解しながら(自分の指示位置を確認しながら)
指示動作を行なうことができる。
As described above, according to the pointing device of the present invention, the position detection of the projected spot light (and the acquisition of the three-dimensional model) and the presentation of the position designated by the user (projection of the spot light) That is, since the user can simultaneously perform the visual feedback, the user can understand how his pointing direction is recognized by the pointing device (while confirming his pointing position).
An instruction operation can be performed.

【0031】これにより、ユーザの指示位置と実際の投
影位置とのずれを小さくすることが可能となる。この結
果、非接触型手振りインタフェースとして、プレゼンテ
ーション、ロボットへの教示等様々なインタフェースに
応用が可能となる。
This makes it possible to reduce the deviation between the position designated by the user and the actual projection position. As a result, as a non-contact hand gesture interface, it can be applied to various interfaces such as presentation and teaching to a robot.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態におけるポインティング装
置1の実使用状況を説明するための図である。
FIG. 1 is a diagram for explaining an actual use situation of a pointing device 1 according to an embodiment of the present invention.

【図2】本発明の実施の形態におけるポインティング装
置1の全体構成を示すブロック図である。
FIG. 2 is a block diagram illustrating an overall configuration of a pointing device 1 according to the embodiment of the present invention.

【図3】ポインティング装置1の座標系を説明するため
の図である。
FIG. 3 is a diagram for explaining a coordinate system of the pointing device 1;

【図4】x−z平面におけるパン角θを表わした図であ
る。
FIG. 4 is a diagram showing a pan angle θ in an xz plane.

【図5】y−z′平面におけるチルト角φを表わした図
である。
FIG. 5 is a diagram showing a tilt angle φ in a yz ′ plane.

【図6】3次元位置検出部8の処理を説明するための図
である。
FIG. 6 is a diagram for explaining processing of a three-dimensional position detection unit 8;

【図7】3次元モデルの生成過程を説明するための図で
ある。
FIG. 7 is a diagram for explaining a generation process of a three-dimensional model.

【図8】3次元モデルの生成過程の一例を説明するため
の図である。
FIG. 8 is a diagram for explaining an example of a process of generating a three-dimensional model.

【図9】図8に対して得られる3次元モデルを説明する
ための図である。
9 is a diagram for explaining a three-dimensional model obtained with respect to FIG.

【図10】手振り認識装置12の概要を説明するための
図である。
FIG. 10 is a diagram for explaining an outline of a hand gesture recognition device 12;

【図11】手振り認識装置12により得られる手振り位
置姿勢情報について説明するための図である。
11 is a diagram for explaining hand position and orientation information obtained by a hand recognition device 12. FIG.

【図12】ポインティング装置1についての実験結果を
説明するための図である。
FIG. 12 is a diagram for explaining an experimental result of the pointing device 1.

【符号の説明】 1 ポインティング装置 2 レーザ発光部 4、30.1〜30.k カメラ 6 画像処理部 8 3次元位置検出部 10 3次元モデル生成部 12 手振り認識装置 14 支持台制御部 16 支持台 40.1〜40.k 特徴検出部 42 3次元重心点・方向検出部 44 回転角検出部 46 カメラ選択部 48 指先検出部 50 手モデル復元部[Description of Signs] 1 Pointing device 2 Laser emission unit 4, 30.1-30. k camera 6 image processing unit 8 three-dimensional position detection unit 10 three-dimensional model generation unit 12 hand gesture recognition device 14 support base control unit 16 support base 40.1-40. k feature detection unit 42 3D barycentric point / direction detection unit 44 rotation angle detection unit 46 camera selection unit 48 fingertip detection unit 50 hand model restoration unit

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/60 G06F 15/70 350H 9A001 Fターム(参考) 2F065 AA02 AA04 AA17 AA31 BB05 BB15 CC16 DD03 FF04 GG04 HH04 JJ03 JJ16 JJ26 MM04 PP13 QQ31 5B057 BA15 DA07 DB03 DC02 DC08 5B087 AA02 AA07 AB14 CC09 CC12 CC24 CC26 CC33 DD06 DE07 5E501 AC37 AC50 BA05 CA02 CB07 CB14 CC11 EB05 FA02 FA14 FA36 FB43 5L096 AA09 CA05 FA14 FA66 FA67 FA69 9A001 DD11 GG01 GG03 HH21 KK37Continued on the front page (51) Int.Cl. 7 Identification code FI Theme coat II (reference) G06T 7/60 G06F 15/70 350H 9A001 F term (reference) 2F065 AA02 AA04 AA17 AA31 BB05 BB15 CC16 DD03 FF04 GG04 HH04 JJ03 JJ16 JJ16 JJ16 JJ16 MM04 PP13 QQ31 5B057 BA15 DA07 DB03 DC02 DC08 5B087 AA02 AA07 AB14 CC09 CC12 CC24 CC26 CC33 DD06 DE07 5E501 AC37 AC50 BA05 CA02 CB07 CB14 CC11 EB05 FA02 FA14 FA36 FB43 5L096 AA09 CA05 FA14 FA66 FA67 GG11A9

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 ユーザの指示した位置にポインタを投影
するポインティング装置であって、 シーンに前記ポインタを投影するポインタ投影手段と、 前記シーンを撮影して、前記ポインタの位置を観測する
観測手段と、 前記ポインタの位置に基づき、前記シーンの3次元モデ
ルを生成する3次元モデル生成手段と、 前記ユーザの指示する手の方向を検出する手振り認識手
段と、 検出された前記ユーザの手の方向と前記3次元モデルと
に基づき、前記ユーザの指示する位置を算出し、前記ポ
インタ投影手段の姿勢を制御する制御手段とを備える、
ポインティング装置。
1. A pointing device for projecting a pointer at a position designated by a user, comprising: pointer projection means for projecting the pointer on a scene; and observation means for photographing the scene and observing the position of the pointer. A three-dimensional model generation unit that generates a three-dimensional model of the scene based on the position of the pointer; a hand gesture recognition unit that detects a direction of a hand pointed by the user; and a detected hand direction of the user. Control means for calculating a position designated by the user based on the three-dimensional model, and controlling a posture of the pointer projection means.
Pointing device.
【請求項2】 前記ポインタ投影手段は、 レーザ光を出力するレーザ発光手段を含み、 前記レーザ光により、前記シーンに前記ポインタである
スポット光が投影される、請求項1記載のポインティン
グ装置。
2. The pointing device according to claim 1, wherein the pointer projecting unit includes a laser light emitting unit that outputs a laser beam, and the laser beam projects a spot light as the pointer on the scene.
JP6323799A 1999-03-10 1999-03-10 Pointing device Pending JP2000259337A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6323799A JP2000259337A (en) 1999-03-10 1999-03-10 Pointing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6323799A JP2000259337A (en) 1999-03-10 1999-03-10 Pointing device

Publications (1)

Publication Number Publication Date
JP2000259337A true JP2000259337A (en) 2000-09-22

Family

ID=13223424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6323799A Pending JP2000259337A (en) 1999-03-10 1999-03-10 Pointing device

Country Status (1)

Country Link
JP (1) JP2000259337A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246856A (en) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology Interface device
JP2009240370A (en) * 2008-03-28 2009-10-22 Advanced Telecommunication Research Institute International Motion detector
KR20160033878A (en) * 2014-09-18 2016-03-29 엘지디스플레이 주식회사 Liquid Crystal Display Device
DE102023117804A1 (en) 2022-07-29 2024-02-01 Faurecia Clarion Electronics Co., Ltd. DATA PROCESSING DEVICE AND DATA PROCESSING METHOD

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246856A (en) * 2002-12-18 2004-09-02 National Institute Of Advanced Industrial & Technology Interface device
US7821531B2 (en) 2002-12-18 2010-10-26 National Institute Of Advanced Industrial Science And Technology Interface system
JP2009240370A (en) * 2008-03-28 2009-10-22 Advanced Telecommunication Research Institute International Motion detector
KR20160033878A (en) * 2014-09-18 2016-03-29 엘지디스플레이 주식회사 Liquid Crystal Display Device
KR102200833B1 (en) 2014-09-18 2021-01-12 엘지디스플레이 주식회사 Liquid Crystal Display Device
DE102023117804A1 (en) 2022-07-29 2024-02-01 Faurecia Clarion Electronics Co., Ltd. DATA PROCESSING DEVICE AND DATA PROCESSING METHOD

Similar Documents

Publication Publication Date Title
EP1629366B1 (en) Single camera system for gesture-based input and target indication
JP3631151B2 (en) Information processing apparatus, mixed reality presentation apparatus and method, and storage medium
US8917240B2 (en) Virtual desktop coordinate transformation
US7752008B2 (en) Method and apparatus for determining position and orientation
JP4708752B2 (en) Information processing method and apparatus
EP1074934A2 (en) Computer input device having six degrees of freedom for controlling movement of a three-dimensional object
JP4608326B2 (en) Instruction motion recognition device and instruction motion recognition program
US20150202776A1 (en) Data generation device for vision sensor and detection simulation system
JP2017059062A (en) Information processing device, information processing method and program
WO2014093608A1 (en) Direct interaction system for mixed reality environments
JP2010210458A (en) Display method of recognition result by three-dimensional visual sensor, and the three-dimensional visual sensor
EP3644826A1 (en) A wearable eye tracking system with slippage detection and correction
JP2015231445A (en) Program and image generating device
JPH1163927A (en) Head position and posture measuring device, and operation monitoring device
CN113116386A (en) Ultrasound imaging guidance method, ultrasound apparatus, and storage medium
JP5198078B2 (en) Measuring device and measuring method
US20220011750A1 (en) Information projection system, controller, and information projection method
JP2009258884A (en) User interface
JP2002008012A (en) Method for calculating position and attitude of subject and method for calculating position and attitude of observation camera
JP2000259337A (en) Pointing device
JP2005147894A (en) Measuring method and measuring instrument
JP7439410B2 (en) Image processing device, image processing method and program
JP2006323454A (en) Three-dimensional instruction input system, three-dimensional instruction input device, three-dimensional instruction input method, and program
EP3744461A1 (en) Weld operation measurement system
CN116135169A (en) Positioning method, positioning device, electronic equipment and computer readable storage medium

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020409