JP6873326B2 - Eye 3D coordinate acquisition device and gesture operation device - Google Patents

Eye 3D coordinate acquisition device and gesture operation device Download PDF

Info

Publication number
JP6873326B2
JP6873326B2 JP2020525143A JP2020525143A JP6873326B2 JP 6873326 B2 JP6873326 B2 JP 6873326B2 JP 2020525143 A JP2020525143 A JP 2020525143A JP 2020525143 A JP2020525143 A JP 2020525143A JP 6873326 B2 JP6873326 B2 JP 6873326B2
Authority
JP
Japan
Prior art keywords
dimensional
eye
gesture
straight line
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020525143A
Other languages
Japanese (ja)
Other versions
JPWO2019244270A1 (en
Inventor
津田 圭一
圭一 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019244270A1 publication Critical patent/JPWO2019244270A1/en
Application granted granted Critical
Publication of JP6873326B2 publication Critical patent/JP6873326B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Description

本発明は、2次元撮像部によって撮像された2次元画像に基づいて、2次元画像に含まれる眼の位置を示す眼3次元座標を取得する眼3次元座標取得装置及びこれを有するジェスチャ操作装置に関する。 The present invention is an eye three-dimensional coordinate acquisition device for acquiring eye three-dimensional coordinates indicating the position of the eye included in the two-dimensional image based on a two-dimensional image captured by the two-dimensional imaging unit, and a gesture operation device having the same. Regarding.

近年、様々な情報機器において、操作者の身振り手振りなどのジェスチャ操作によって情報を入力するジェスチャ操作装置が使用されている。ジェスチャ操作装置の中には、操作者の身体の部位の位置を示す3次元座標を、例えば、ステレオカメラのような機器を用いて取得された3次元画像(すなわち、立体画像)から取得して操作者にとっての操作性を向上させるものが存在する(例えば、特許文献1及び2参照)。 In recent years, in various information devices, a gesture operation device for inputting information by a gesture operation such as a gesture of an operator has been used. In the gesture operation device, three-dimensional coordinates indicating the position of a part of the operator's body are acquired from a three-dimensional image (that is, a stereoscopic image) acquired by using a device such as a stereo camera. There is something that improves operability for the operator (see, for example, Patent Documents 1 and 2).

特開2011−175617号公報(例えば、段落0010〜0013、図2)Japanese Unexamined Patent Publication No. 2011-175617 (for example, paragraphs 0010 to 0013, FIG. 2). 特開2011−54118号公報(例えば、段落0010、図2)Japanese Unexamined Patent Publication No. 2011-54118 (for example, paragraph 0010, FIG. 2)

しかしながら、3次元撮像部を用いて身体の部位の位置を示す3次元座標を取得する機能を備えた装置は、部品点数が多く、構造及び制御が複雑であるという課題がある。 However, a device having a function of acquiring three-dimensional coordinates indicating the position of a body part using a three-dimensional imaging unit has a problem that the number of parts is large and the structure and control are complicated.

本発明は、上記従来技術の課題を解決するためになされたものであり、2次元撮像部によって撮像された2次元画像に基づいて、2次元画像に含まれる眼の位置を示す眼3次元座標を取得することができる眼3次元座標取得装置及びこれを有するジェスチャ操作装置を提供することを目的とする。 The present invention has been made to solve the above-mentioned problems of the prior art, and is based on a two-dimensional image captured by a two-dimensional imaging unit, and has three-dimensional eye coordinates indicating the position of the eye included in the two-dimensional image. It is an object of the present invention to provide an eye three-dimensional coordinate acquisition device capable of acquiring the above and a gesture operation device having the same.

本発明の一形態に係る眼3次元座標取得装置は、2次元撮像部によって撮像された2次元画像と注視点の位置を示す注視点位置情報とから、前記注視点を見る眼の位置を示す眼3次元座標を取得する装置であって、前記2次元画像内における前記眼の2次元位置を示す眼2次元座標を計算する眼2次元座標計算部と、前記2次元撮像部の最大撮像画角と前記眼2次元座標とから、前記2次元撮像部の撮像位置である第1起点から前記眼の位置に向かう第1の3次元ベクトルを方向ベクトルとし且つ前記第1起点を起点とする第1の直線を計算する第1の直線計算部と、前記2次元画像と前記眼2次元座標とから、前記眼の位置である第2起点から前記注視点の位置に向かう第2の3次元ベクトルを計算する3次元ベクトル計算部と、前記第2の3次元ベクトルの逆ベクトルであり、前記注視点の位置である第3起点から前記眼の位置に向かう第3の3次元ベクトルを方向ベクトルとし且つ前記第3起点を起点とする第2の直線を計算する第2の直線計算部と、前記第1の直線と前記第2の直線と前記注視点位置情報とから三角測量法を用いて前記眼3次元座標を計算する眼3次元座標計算部と、を有することを特徴とする。 The eye three-dimensional coordinate acquisition device according to one embodiment of the present invention indicates the position of the eye viewing the gazing point from the two-dimensional image captured by the two-dimensional imaging unit and the gazing point position information indicating the gazing point position. A device that acquires three-dimensional eye coordinates, the two-dimensional eye coordinate calculation unit that calculates the two-dimensional eye coordinates indicating the two-dimensional position of the eye in the two-dimensional image, and the maximum image captured by the two-dimensional imaging unit. From the angle and the two-dimensional coordinates of the eye, the first three-dimensional vector from the first starting point, which is the imaging position of the two-dimensional imaging unit, to the position of the eye is used as the direction vector, and the first starting point is used as the starting point. From the first straight line calculation unit that calculates one straight line, the two-dimensional image, and the two-dimensional coordinates of the eye, a second three-dimensional vector from the second starting point, which is the position of the eye, to the position of the gazing point. And the 3D vector calculation unit that calculates the above, and the 3D vector that is the inverse vector of the 2D 2D vector and that goes from the 3rd starting point, which is the position of the gazing point, to the position of the eye, is used as the direction vector. Moreover, the triangular survey method is used from the second straight line calculation unit that calculates the second straight line starting from the third starting point, the first straight line, the second straight line, and the gazing point position information. It is characterized by having an eye three-dimensional coordinate calculation unit for calculating eye three-dimensional coordinates.

本発明の他の形態に係るジェスチャ操作装置は、上記眼3次元座標取得装置と、ジェスチャ操作を含む2次元画像を撮像する撮像装置と、前記ジェスチャ操作が行われる仮想の操作面である仮想面における前記ジェスチャ操作の位置を示す仮想面内ジェスチャ座標を取得するジェスチャ座標取得部と、を有することを特徴とする。 The gesture operation device according to another embodiment of the present invention includes the eye three-dimensional coordinate acquisition device, an imaging device that captures a two-dimensional image including the gesture operation, and a virtual surface which is a virtual operation surface on which the gesture operation is performed. It is characterized by having a gesture coordinate acquisition unit for acquiring a virtual in-plane gesture coordinate indicating the position of the gesture operation in the above.

本発明に係る眼3次元座標取得装置は、2次元撮像部が撮像する2次元画像に基づいて、2次元画像に含まれる眼の位置を示す眼3次元座標を取得することができる。また、本発明に係る眼3次元座標取得装置によれば、装置の構造及び制御を簡素化することができる。 The eye three-dimensional coordinate acquisition device according to the present invention can acquire eye three-dimensional coordinates indicating the position of the eye included in the two-dimensional image based on the two-dimensional image captured by the two-dimensional imaging unit. Further, according to the eye three-dimensional coordinate acquisition device according to the present invention, the structure and control of the device can be simplified.

本発明に係るジェスチャ操作装置は、眼3次元座標取得装置によって取得された眼3次元座標に基づいて、ジェスチャ操作が行われる仮想面の位置を計算するので、操作者のジェスチャ操作を正確に検出することができる。また、本発明に係るジェスチャ操作装置によれば、装置の構造及び制御を簡素化することができる。 Since the gesture operation device according to the present invention calculates the position of the virtual surface on which the gesture operation is performed based on the eye three-dimensional coordinates acquired by the eye three-dimensional coordinate acquisition device, the gesture operation of the operator is accurately detected. can do. Further, according to the gesture operation device according to the present invention, the structure and control of the device can be simplified.

本発明の実施の形態1に係る眼3次元座標取得装置を示すブロック図である。It is a block diagram which shows the eye 3D coordinate acquisition apparatus which concerns on Embodiment 1 of this invention. 実施の形態1における2次元撮像部の撮像位置、眼の位置、及び注視点の位置の例をzx平面上に示す図である。It is a figure which shows the example of the image pickup position, the eye position, and the gaze point position of the 2D image pickup unit in Embodiment 1 on the zx plane. 実施の形態1における2次元撮像部の撮像位置、眼の位置、及び注視点の位置の例をxy平面上に示す図である。It is a figure which shows the example of the image pickup position, the eye position, and the gaze point position of the 2D image pickup unit in Embodiment 1 on the xy plane. 実施の形態1における注視点としての発光素子の例を示す図である。It is a figure which shows the example of the light emitting element as a gaze point in Embodiment 1. FIG. 実施の形態1に係る眼3次元座標取得装置の眼2次元座標計算部が受信する2次元画像及び眼2次元座標計算部が出力する眼の位置の2次元座標の例を示す図である。It is a figure which shows the example of the 2D image received by the eye 2D coordinate calculation unit of the eye 3D coordinate acquisition apparatus which concerns on Embodiment 1, and the 2D coordinate of the eye position output by the eye 2D coordinate calculation unit. 実施の形態1における2次元撮像部の撮像位置から眼の位置に向かう方向の3次元ベクトルのヨー成分の計算方法を示す図である。It is a figure which shows the calculation method of the yaw component of the 3D vector in the direction from the imaging position of the 2D imaging unit to the position of an eye in Embodiment 1. FIG. 実施の形態1における2次元撮像部の撮像位置から眼の位置に向かう方向の3次元ベクトルのピッチ成分の計算方法を示す図である。It is a figure which shows the calculation method of the pitch component of the 3D vector in the direction from the imaging position of the 2D imaging unit to the position of an eye in Embodiment 1. FIG. 実施の形態1における2次元撮像部の撮像位置である第1起点から眼の位置に向かう方向の第1の3次元ベクトル及び、第1の3次元ベクトルを方向ベクトルとし且つ第1起点を起点とする第1の直線の例を示す図である。The first three-dimensional vector in the direction from the first starting point, which is the imaging position of the two-dimensional imaging unit in the first embodiment, to the position of the eye, the first three-dimensional vector is used as the direction vector, and the first starting point is used as the starting point. It is a figure which shows the example of the 1st straight line. 実施の形態1における眼の位置である第2起点から注視点の位置に向かう方向の第2の3次元ベクトルの例を示す図である。It is a figure which shows the example of the 2nd three-dimensional vector in the direction from the 2nd origin which is the position of an eye in Embodiment 1 toward the position of a gaze point. 実施の形態1における注視点の位置である第3起点から眼の位置に向かう方向の第3の3次元ベクトル(すなわち、第2の3次元ベクトルの逆ベクトル)及び、第3の3次元ベクトルを方向ベクトルとし且つ第3起点を起点とする第2の直線の例を示す図である。The third three-dimensional vector (that is, the inverse vector of the second three-dimensional vector) and the third three-dimensional vector in the direction from the third starting point, which is the position of the gazing point in the first embodiment, to the position of the eye, are used. It is a figure which shows the example of the 2nd straight line which is a direction vector and starts from a 3rd origin. 図8に示される第1の直線と図10に示される第2の直線を三角測量実施平面に射影することで得られた第1の射影直線と第2の射影直線を示す図である。It is a figure which shows the 1st projective line and the 2nd projective line obtained by projecting the 1st straight line shown in FIG. 8 and the 2nd straight line shown in FIG. 10 on the triangulation execution plane. 図11に示される三角測量実施平面上における交点を通る法線と第1の直線及び第2の直線との交点を示す図である。It is a figure which shows the intersection of the normal line passing through the intersection point on the triangulation execution plane shown in FIG. 11, and the first straight line and the second straight line. 図11に示される三角測量実施平面上における交点を通る法線と第1の直線との交点及び法線と第2の直線との交点を示す図である。It is a figure which shows the intersection of the normal and the 1st straight line which pass through the intersection on the triangular survey execution plane shown in FIG. 11 and the intersection of a normal and a 2nd straight line. 本発明の実施の形態2における注視点の提示方法の例を示す図である。It is a figure which shows the example of the presentation method of the gaze point in Embodiment 2 of this invention. 実施の形態2における注視点の提示方法の他の例を示す図である。It is a figure which shows another example of the gaze point presentation method in Embodiment 2. FIG. 実施の形態2における注視点の提示方法のさらに他の例を示す図である。It is a figure which shows still another example of the method of presenting the gaze point in Embodiment 2. FIG. 本発明の実施の形態3に係るジェスチャ操作装置を示すブロック図である。It is a block diagram which shows the gesture operation apparatus which concerns on Embodiment 3 of this invention. 実施の形態3における3次元仮想面の例を示す概略図である。It is the schematic which shows the example of the 3D virtual surface in Embodiment 3. FIG. 実施の形態3における2次元仮想面の例を示す概略図である。It is the schematic which shows the example of the 2D virtual surface in Embodiment 3. FIG. 実施の形態3における2次元仮想面内のジェスチャ画像の例を示す概略図である。It is a schematic diagram which shows the example of the gesture image in the 2D virtual plane in Embodiment 3. FIG. 実施の形態3における2次元仮想面内におけるジェスチャ位置を示す座標の例を示す概略図である。It is the schematic which shows the example of the coordinate which shows the gesture position in the 2D virtual plane in Embodiment 3. FIG. 本発明の実施の形態4に係るジェスチャ操作装置を示すブロック図である。It is a block diagram which shows the gesture operation apparatus which concerns on Embodiment 4 of this invention. 本発明の実施の形態5に係るジェスチャ操作装置を示すブロック図である。It is a block diagram which shows the gesture operation apparatus which concerns on Embodiment 5 of this invention. 実施の形態5に係るジェスチャ操作装置の動作を示す図である。It is a figure which shows the operation of the gesture operation apparatus which concerns on Embodiment 5. 実施の形態1から5の変形例のハードウェア構成の例を示すブロック図である。It is a block diagram which shows the example of the hardware composition of the modification of Embodiments 1-5.

以下に、本発明の実施の形態に係る眼3次元座標取得装置及びこれを有するジェスチャ操作装置を、添付図面を参照しながら説明する。以下の実施の形態は、例にすぎず、本発明の範囲内で種々の変更が可能である。 The eye three-dimensional coordinate acquisition device and the gesture operation device having the eye three-dimensional coordinate acquisition device according to the embodiment of the present invention will be described below with reference to the attached drawings. The following embodiments are merely examples, and various modifications can be made within the scope of the present invention.

以下の説明では、3次元位置を示すためにxyz直交座標系であるワールド座標系を用いる。ワールド座標系において、x軸は、2次元撮像部の光軸に直交する横方向の座標軸である。y軸は、2次元撮像部の光軸に直交する縦方向の座標軸である。z軸は、2次元撮像部の撮像位置(すなわち、2次元撮像部の撮像素子の中心位置)を通る光軸に一致する座標軸である。以下の実施の形態において、撮像位置は、ワールド座標系の原点である。 In the following description, a world coordinate system, which is an xyz Cartesian coordinate system, is used to indicate a three-dimensional position. In the world coordinate system, the x-axis is a lateral coordinate axis orthogonal to the optical axis of the two-dimensional imaging unit. The y-axis is a vertical coordinate axis orthogonal to the optical axis of the two-dimensional imaging unit. The z-axis is a coordinate axis that coincides with the optical axis that passes through the imaging position of the two-dimensional image pickup unit (that is, the center position of the image pickup element of the two-dimensional image pickup unit). In the following embodiments, the imaging position is the origin of the world coordinate system.

また、以下の説明では、2次元撮像部が撮像した2次元画像における2次元位置を示すXY直交座標系を用いる。XY直交座標系において、X軸は、2次元画像の横方向に対応する座標軸であり、Y軸は、2次元画像の縦方向に対応する座標軸である。 Further, in the following description, an XY Cartesian coordinate system indicating a two-dimensional position in a two-dimensional image captured by the two-dimensional imaging unit is used. In the XY Cartesian coordinate system, the X-axis is the coordinate axis corresponding to the horizontal direction of the two-dimensional image, and the Y-axis is the coordinate axis corresponding to the vertical direction of the two-dimensional image.

2次元撮像部における光学歪みが十分に小さい場合には、ワールド座標系におけるx軸とXY直交座標系におけるX軸とは、互いに平行であるとみなすことができる。2次元撮像部における光学歪みが十分に小さい場合には、ワールド座標系におけるy軸とXY直交座標系におけるY軸とは、互いに平行であるとみなすことができる。ただし、通常、ワールド座標系における単位長さとXY直交座標系における単位長さとは一致しない。例えば、ワールド座標系における単位長さ1mmに対応する、XY直交座標系における単位長さは、1画素の長さ(すなわち、互いに隣接する画素の中心位置の間隔)である。 When the optical distortion in the two-dimensional imaging unit is sufficiently small, the x-axis in the world coordinate system and the X-axis in the XY Cartesian coordinate system can be considered to be parallel to each other. When the optical distortion in the two-dimensional imaging unit is sufficiently small, the y-axis in the world coordinate system and the Y-axis in the XY Cartesian coordinate system can be considered to be parallel to each other. However, usually, the unit length in the world coordinate system and the unit length in the XY orthogonal coordinate system do not match. For example, the unit length in the XY Cartesian coordinate system, which corresponds to the unit length of 1 mm in the world coordinate system, is the length of one pixel (that is, the distance between the center positions of adjacent pixels).

実施の形態1.
図1は、実施の形態1に係る眼3次元座標取得装置100を示すブロック図である。眼3次元座標取得装置100は、2次元撮像部101によって撮像領域を撮像して得られた2次元画像(すなわち、2次元画像データ)D11と注視点(「注視対象点」とも言う)の位置31を示す注視点位置情報D12とから、注視点を見る眼の位置をワールド座標系の3次元座標で示す眼3次元座標D18を取得する装置である。眼は、例えば、眼3次元座標取得装置100を有する装置の操作者(例えば、ユーザー)の眼である。注視点は、操作者が注目しやすい(すなわち、操作者の視線が向けられる)物体又は表示された画像部分などである。
Embodiment 1.
FIG. 1 is a block diagram showing an eye three-dimensional coordinate acquisition device 100 according to the first embodiment. The eye three-dimensional coordinate acquisition device 100 captures the imaging region with the two-dimensional imaging unit 101 to obtain a two-dimensional image (that is, two-dimensional image data) D11 and a position of a gazing point (also referred to as a “gazing target point”). It is a device that acquires the eye three-dimensional coordinate D18 indicating the position of the eye viewing the gazing point in the three-dimensional coordinates of the world coordinate system from the gazing point position information D12 indicating the gazing point 31. The eye is, for example, the eye of an operator (for example, a user) of the device having the eye three-dimensional coordinate acquisition device 100. The gazing point is an object or a displayed image portion that the operator can easily pay attention to (that is, the operator's line of sight is directed).

図1に示されるように、眼3次元座標取得装置100は、2次元画像D11内における眼2次元座標D14を計算する眼2次元座標計算部103と、撮像位置を起点(すなわち、第1起点)とする第1の直線LV1(すなわち、D15)を計算する第1の直線計算部104と、眼の位置を起点(すなわち、第2起点)とする第2の3次元ベクトルV2(すなわち、D16)を計算する3次元ベクトル計算部105と、注視点の位置を起点(すなわち、第3起点)とする第2の直線LV3(すなわち、D17)を計算する第2の直線計算部106と、眼3次元座標D18を計算する眼3次元座標計算部107とを有する。眼3次元座標取得装置100は、2次元撮像部101を含んでもよい。また、眼3次元座標取得装置100は、注視点位置情報提供部102を含んでもよい。 As shown in FIG. 1, the eye 3D coordinate acquisition device 100 has an eye 2D coordinate calculation unit 103 that calculates the eye 2D coordinates D14 in the 2D image D11, and an imaging position as a starting point (that is, a first starting point). ), The first straight line calculation unit 104 that calculates the first straight line LV1 (that is, D15), and the second three-dimensional vector V2 (that is, D16) that starts from the position of the eye (that is, the second starting point). ), The second straight line calculation unit 106 that calculates the second straight line LV3 (that is, D17) starting from the position of the gazing point (that is, the third starting point), and the eye. It has an eye three-dimensional coordinate calculation unit 107 that calculates the three-dimensional coordinate D18. The eye three-dimensional coordinate acquisition device 100 may include a two-dimensional imaging unit 101. Further, the eye three-dimensional coordinate acquisition device 100 may include a gazing point position information providing unit 102.

図2は、実施の形態1における2次元撮像部101の撮像位置11、操作者20の眼の位置21、及び注視点の位置31の例をzx平面上に示す図である。図3は、2次元撮像部101の撮像位置11、操作者20の眼の位置21、及び注視点の位置31の例をxy平面上に示す図である。2次元撮像部101は、撮影領域の2次元画像(すなわち、2次元画像データ)D11を取得する。2次元撮像部101は、例えば、撮影領域の画像を取得する撮像素子を備えたカメラである。図2及び図3において、操作者20は、注視点の位置31に視線22を向けている。 FIG. 2 is a diagram showing an example of the imaging position 11 of the two-dimensional imaging unit 101, the eye position 21 of the operator 20, and the gazing point position 31 in the first embodiment on the zx plane. FIG. 3 is a diagram showing an example of the imaging position 11 of the two-dimensional imaging unit 101, the eye position 21 of the operator 20, and the gazing point position 31 on the xy plane. The two-dimensional imaging unit 101 acquires a two-dimensional image (that is, two-dimensional image data) D11 of the photographing region. The two-dimensional image pickup unit 101 is, for example, a camera provided with an image pickup element that acquires an image of a shooting area. In FIGS. 2 and 3, the operator 20 directs the line of sight 22 to the position 31 of the gazing point.

図4は、実施の形態1における注視点としての発光素子30の例を示す図である。図4において、操作者20は、点灯している発光素子30の中心位置である注視点の位置31に視線22を向けている。発光素子30は、例えば、予め決められた位置に配置されたLED(Light Emitting Diode)である。複数の発光素子30を備え、その内のいずれか1つを点灯させることによって、注視点の位置31を変更することができる。注視点位置情報提供部102は、注視点の位置31を示す注視点位置情報D12(例えば、注視点の位置31の3次元座標)を提供する装置である。注視点位置情報提供部102は、注視点位置情報D12を記憶する記憶部、又は、注視点位置情報D12を受信する受信部などである。注視点位置情報提供部102は、眼3次元座標取得装置100に注視点位置情報D12を提供する装置、又は、眼3次元座標取得装置100によって注視点位置情報D12を計算可能にする情報を提供する装置であれば、どのような装置であってもよい。注視点は、ランプの中心点、回転灯の中心点、レーザーポインタによる光照射点、又は特別な手段を備えないが操作者によって注視されるということが予想される予め決められた位置などである。なお、注視点位置情報提供部102は、注視点としての発光素子30を備えた装置、注視点としての発光素子30に接続された装置であってもよい。また、図4において注視点としての発光素子30はx軸上に存在しているが、発光素子30の存在する位置はx軸上に限らず、空間の任意の点に存在してよい。 FIG. 4 is a diagram showing an example of a light emitting element 30 as a gazing point in the first embodiment. In FIG. 4, the operator 20 directs the line of sight 22 to the position 31 of the gazing point, which is the center position of the lit light emitting element 30. The light emitting element 30 is, for example, an LED (Light Emitting Diode) arranged at a predetermined position. The position 31 of the gazing point can be changed by providing a plurality of light emitting elements 30 and lighting any one of them. The gazing point position information providing unit 102 is a device that provides gazing point position information D12 (for example, three-dimensional coordinates of the gazing point position 31) indicating the gazing point position 31. The gazing point position information providing unit 102 is a storage unit that stores the gazing point position information D12, a receiving unit that receives the gazing point position information D12, and the like. The gazing point position information providing unit 102 provides a device that provides the gazing point position information D12 to the eye three-dimensional coordinate acquisition device 100, or provides information that enables the gazing point position information D12 to be calculated by the eye three-dimensional coordinate acquiring device 100. Any device may be used as long as it is a device. The gazing point may be the center point of the lamp, the center point of the rotating light, the light irradiation point by the laser pointer, or a predetermined position that is not provided with any special means but is expected to be gazed by the operator. .. The gaze point position information providing unit 102 may be a device provided with a light emitting element 30 as a gaze point or a device connected to the light emitting element 30 as a gaze point. Further, in FIG. 4, the light emitting element 30 as the gazing point exists on the x-axis, but the position where the light emitting element 30 exists is not limited to the x-axis and may exist at any point in the space.

図5は、実施の形態1に係る眼3次元座標取得装置100の眼2次元座標計算部103が受信する2次元画像D11及び眼2次元座標計算部103が出力する眼の位置の眼2次元座標D14の例を示す図である。図6は、2次元撮像部101の撮像位置11から眼の位置21に向かう方向の3次元ベクトルのヨー成分の計算方法を示す図である。図7は、2次元撮像部101の撮像位置11から眼の位置21に向かう方向の3次元ベクトルのピッチ成分の計算方法を示す図である。なお、図6には、注視点の位置31と眼の位置21とを結ぶ直線と眼の位置21を通りx軸に垂直な直線とによって決まる角γとγも示されている。これらは、実施の形態2で説明される。FIG. 5 shows the two-dimensional image D11 received by the eye two-dimensional coordinate calculation unit 103 of the eye three-dimensional coordinate acquisition device 100 according to the first embodiment and the eye two-dimensional output of the eye two-dimensional coordinate calculation unit 103. It is a figure which shows the example of the coordinate D14. FIG. 6 is a diagram showing a method of calculating the yaw component of the three-dimensional vector in the direction from the imaging position 11 of the two-dimensional imaging unit 101 toward the eye position 21. FIG. 7 is a diagram showing a method of calculating the pitch component of the three-dimensional vector in the direction from the imaging position 11 of the two-dimensional imaging unit 101 toward the position 21 of the eye. Note that FIG. 6 also shows angles γ X and γ Y determined by a straight line connecting the gazing point position 31 and the eye position 21 and a straight line passing through the eye position 21 and perpendicular to the x-axis. These will be described in Embodiment 2.

眼2次元座標計算部103は、2次元撮像部101によって取得された2次元画像D11内における眼2次元座標D14を検出する(すなわち、計算によって取得する)。2次元画像D11から眼2次元座標D14を検出するときには、例えば、ASM(Active Shape Model)又はAAM(Active Appearance Models)などを用いた対象物体の抽出方法を用いることができる。 The eye two-dimensional coordinate calculation unit 103 detects (that is, obtains by calculation) the eye two-dimensional coordinate D14 in the two-dimensional image D11 acquired by the two-dimensional image pickup unit 101. When detecting the two-dimensional eye coordinates D14 from the two-dimensional image D11, for example, an extraction method of a target object using ASM (Active Shape Model) or AAM (Active Appearance Models) can be used.

図6に示されるように、2次元画像D11内における眼2次元座標D14のX座標(例えば、X方向の画素数)をXで表し、2次元画像D11の横方向の総画素数の1/2の画素数をXmaxで表し、3次元ベクトルと撮像系の光軸であるz軸とがなす角度である3次元ベクトルのヨー角をαで表し、2次元画像D11の横方向の撮影最大画角をβで表す。このとき、以下の関係式が成立する。
:Xmax=tanα:tanβ
したがって、3次元ベクトルのヨー角αは、以下の式(1)で計算できる。
As shown in FIG. 6, the X coordinate (for example, the number of pixels in the X direction) of the eye two-dimensional coordinate D14 in the two-dimensional image D11 is represented by X e , and is 1 of the total number of pixels in the horizontal direction of the two-dimensional image D11. The number of pixels of / 2 is represented by X max , and the yaw angle of the 3D vector, which is the angle formed by the 3D vector and the z-axis, which is the optical axis of the imaging system, is represented by α X in the horizontal direction of the 2D image D11. The maximum shooting angle is represented by β X. At this time, the following relational expression holds.
X e : X max = tanα X : tanβ X
Therefore, the yaw angle α X of the three-dimensional vector can be calculated by the following equation (1).

Figure 0006873326
Figure 0006873326

図7に示されるように、2次元画像D11内における眼2次元座標D14のY座標(例えば、Y方向の画素数)をYで表し、2次元画像D11の縦方向の総画素数の1/2の画素数をYmaxで表し、3次元ベクトルと撮像系の光軸であるz軸とがなす角度である3次元ベクトルのピッチ角をαで表し、2次元画像D11の縦方向の撮影最大画角をβで表す。このとき、以下の関係式が成立する。
:Ymax=tanα:tanβ
したがって、3次元ベクトルのピッチ角αは、以下の式(2)で計算できる。
As shown in FIG. 7, Y coordinates of the eye two-dimensional coordinate D14 in the 2-dimensional image D11 (e.g., Y direction number of pixels) and expressed in Y e, 1 of the total number of pixels in the vertical direction of the two-dimensional image D11 The number of pixels of / 2 is represented by Y max , and the pitch angle of the 3D vector, which is the angle formed by the 3D vector and the z-axis, which is the optical axis of the imaging system, is represented by α Y in the vertical direction of the 2D image D11. The maximum shooting angle is expressed in β Y. At this time, the following relational expression holds.
Y e : Y max = tanα Y : tanβ Y
Therefore, the pitch angle α Y of the three-dimensional vector can be calculated by the following equation (2).

Figure 0006873326
Figure 0006873326

なお、眼2次元座標計算部103は、眼の位置21を示す眼2次元座標D14、すなわち、座標(X,Y)として、一方又は両方の眼に基づく眼の代表位置を用いることができる。例えば、眼2次元座標計算部103は、眼の代表位置として、右眼の位置、又は左眼の位置、又は両眼の位置、又は両眼の位置の平均位置などを用いることができる。眼の位置21として一方の眼の位置のみを用いる場合には、眼2次元座標計算部103が一方の眼の位置のみを検出できた場合であっても、眼の位置の計算を行うことができる、すなわち、眼の位置の検出不能の頻度を減らすことができるという利点がある。眼の位置21として、両方の眼の位置を用いる場合には、一方の眼の位置のみを使う場合よりも高精度な眼の位置の計算を行うことができるという利点がある。The eye two-dimensional coordinate calculation unit 103 may use the eye two-dimensional coordinate D14 indicating the eye position 21, that is, the representative position of the eye based on one or both eyes as the coordinates (X e , Ye). it can. For example, the eye two-dimensional coordinate calculation unit 103 can use the position of the right eye, the position of the left eye, the position of both eyes, the average position of the positions of both eyes, or the like as the representative position of the eye. When only the position of one eye is used as the position 21 of the eye, the position of the eye can be calculated even when the two-dimensional coordinate calculation unit 103 of the eye can detect only the position of one eye. This has the advantage of being able to reduce the frequency of undetectable eye positions. When both eye positions are used as the eye positions 21, there is an advantage that the eye position can be calculated with higher accuracy than when only one eye position is used.

図8は、実施の形態1における2次元撮像部101の撮像位置11である第1起点から眼の位置21に向かう方向の第1の3次元ベクトルV1を方向ベクトルとし且つ第1起点を起点とする第1の直線LV1(すなわち、D15)の例を示す図である。第1の直線計算部104は、2次元撮像部101によって撮像された2次元画像D11の最大撮像画角β及びβ(すなわち、D13)と眼2次元座標計算部103によって取得された眼の位置21に対応する眼2次元座標D14とから、2次元撮像部101の撮像位置11である第1起点から眼の位置21に向かう3次元方向の情報を持つ単位ベクトルである撮像位置・眼方向3次元ベクトル、すなわち、第1の3次元ベクトルV1を計算し、第1の3次元ベクトルV1を方向ベクトルとし且つ第1起点を起点とする第1の直線LV1を計算する。In FIG. 8, the first three-dimensional vector V1 in the direction from the first starting point, which is the imaging position 11 of the two-dimensional imaging unit 101 in the first embodiment, to the position 21 of the eye is used as the direction vector, and the first starting point is used as the starting point. It is a figure which shows the example of the 1st straight line LV1 (that is, D15). The first linear calculation unit 104 includes the maximum imaging angles β X and β Y (that is, D13) of the two-dimensional image D11 captured by the two-dimensional imaging unit 101 and the eye acquired by the two-dimensional coordinate calculation unit 103. From the two-dimensional coordinate D14 of the eye corresponding to the position 21 of, the imaging position / eye which is a unit vector having information in the three-dimensional direction from the first starting point which is the imaging position 11 of the two-dimensional imaging unit 101 toward the position 21 of the eye. The direction three-dimensional vector, that is, the first three-dimensional vector V1 is calculated, and the first straight line LV1 having the first three-dimensional vector V1 as the direction vector and the first starting point as the starting point is calculated.

図9は、実施の形態1における眼の位置21である第2起点から注視点の位置31に向かう方向の第2の3次元ベクトルV2(すなわち、D16)の例を示す図である。3次元ベクトル計算部105は、2次元画像D11と眼2次元座標D14とから、眼の位置21である第2起点から注視点の位置31に向かう3次元方向の情報を持つ単位ベクトルである眼・注視点方向3次元ベクトル、すなわち、第2の3次元ベクトルV2を計算する。3次元ベクトル計算部105は、第2の3次元ベクトルV2の方向を計算するためには、目尻目頭法、角膜反射法、明瞳孔法、又は暗瞳孔法などのような公知の方法を用いることができる。また、顔の向きは視線方向と強い相関があるため、顔の向きを視線方向として用いてもよい。この場合、3次元ベクトル計算部105は、2次元画像における操作者20の顔全体の範囲を、カスケード検出器、SVM(Support Vector Machine)、又はディープラーニングなどの方法で検出し、検出された顔全体の範囲内の必要な顔パーツである眼、鼻、又は口の位置をASM法又はAAM法で計算し、検出された顔全体の範囲内における顔パーツの位置の偏りに基づいて、顔の向きを計算することができる。 FIG. 9 is a diagram showing an example of a second three-dimensional vector V2 (that is, D16) in the direction from the second starting point, which is the position 21 of the eye, to the position 31 of the gazing point in the first embodiment. The three-dimensional vector calculation unit 105 is a unit vector having information in the three-dimensional direction from the two-dimensional image D11 and the two-dimensional coordinate D14 of the eye from the second starting point, which is the position 21 of the eye, to the position 31 of the gazing point. -Calculate a three-dimensional vector in the gazing point direction, that is, a second three-dimensional vector V2. In order to calculate the direction of the second three-dimensional vector V2, the three-dimensional vector calculation unit 105 uses a known method such as the outer corner of the eye method, the corneal reflex method, the bright pupil method, or the dark pupil method. Can be done. Further, since the direction of the face has a strong correlation with the direction of the line of sight, the direction of the face may be used as the direction of the line of sight. In this case, the three-dimensional vector calculation unit 105 detects the entire range of the operator 20's face in the two-dimensional image by a method such as a cascade detector, SVM (Support Vector Machine), or deep learning, and the detected face. The positions of the eyes, nose, or mouth, which are the necessary facial parts within the entire range, are calculated by the ASM method or the AAM method, and the position of the facial parts is biased within the detected range of the entire face. The orientation can be calculated.

図10は、実施の形態1における注視点の位置31である第3起点から眼の位置21に向かう方向の第3の3次元ベクトルV3を方向ベクトルとし且つ第3起点を起点とする第2の直線LV3(すなわち、D17)の例を示す図である。第3の3次元ベクトルV3は、第2の3次元ベクトルV2の逆ベクトルである。第2の直線計算部106は、注視点の位置31である第3起点から眼の位置21に向かう3次元方向の情報を持つ単位ベクトルである注視点・眼方向3次元ベクトル、すなわち、第3の3次元ベクトルV3を計算し、第3の3次元ベクトルV3を方向ベクトルとし且つ第3起点を起点とする第2の直線LV3を計算する。 FIG. 10 shows a second configuration in which the third three-dimensional vector V3 in the direction from the third starting point, which is the position 31 of the gazing point in the first embodiment, to the position 21 of the eye is used as the direction vector and the third starting point is used as the starting point. It is a figure which shows the example of the straight line LV3 (that is, D17). The third three-dimensional vector V3 is an inverse vector of the second three-dimensional vector V2. The second linear calculation unit 106 is a gaze point / eye direction three-dimensional vector, that is, a third gaze point / eye direction three-dimensional vector, which is a unit vector having information in the three-dimensional direction from the third starting point which is the gaze point position 31 toward the eye position 21. 3D vector V3 is calculated, and a second straight line LV3 is calculated with the third three-dimensional vector V3 as the direction vector and the third starting point as the starting point.

図11は、図8に示される第1の直線LV1と図10に示される第2の直線LV3を三角測量実施平面40に射影することで得られた第1の射影直線PV1aと第2の射影直線PV3aならびに、第1の射影直線PV1aと第2の射影直線PV3aとの交点23aを示す図である。図12は、図11に示される三角測量実施平面40上における交点23aを通る法線である眼存在範囲直線41と第1の直線LV1及び第2の直線LV3との交点23を示す図である。 FIG. 11 shows a first projective line PV1a and a second projective line obtained by projecting the first straight line LV1 shown in FIG. 8 and the second straight line LV3 shown in FIG. 10 onto the triangular survey execution plane 40. It is a figure which shows the straight line PV3a and the intersection 23a of the 1st projective line PV1a and the 2nd projective line PV3a. FIG. 12 is a diagram showing an intersection 23 of the eye existence range straight line 41, which is a normal line passing through the intersection 23a on the triangulation execution plane 40 shown in FIG. 11, and the first straight line LV1 and the second straight line LV3. ..

眼3次元座標計算部107は、第1の直線LV1と第2の直線LV3と注視点位置情報D12とから三角測量法を用いて眼3次元座標D18を計算する。眼3次元座標D18の計算方法の例を以下に説明する。 The eye three-dimensional coordinate calculation unit 107 calculates the eye three-dimensional coordinate D18 from the first straight line LV1, the second straight line LV3, and the gazing point position information D12 by using the triangulation method. An example of the calculation method of the three-dimensional eye coordinates D18 will be described below.

三角測量法では、3次元空間における直線及び3次元空間上の点を射影する任意の平面である三角測量実施平面40を用いる。図11及び図12において、三角測量実施平面40は、u軸とv軸とを座標軸とするuv直交座標系のuv平面である。u軸及びv軸は、ワールド座標系のx軸、y軸、z軸と平行ではある必要はない。しかし、u軸又はv軸は、x軸、y軸、z軸のいずれかと平行であってもよい。 In the triangulation method, a triangulation plane 40, which is an arbitrary plane that projects a straight line in the three-dimensional space and a point in the three-dimensional space, is used. In FIGS. 11 and 12, the triangulation execution plane 40 is an uv plane of an uv Cartesian coordinate system having a u-axis and a v-axis as coordinate axes. The u-axis and v-axis do not have to be parallel to the x-axis, y-axis, and z-axis of the world coordinate system. However, the u-axis or v-axis may be parallel to any of the x-axis, y-axis, and z-axis.

三角測量実施平面40は、例えば、重力方向(すなわち、鉛直方向)に直交する水平面である。三角測量実施平面40は、2次元撮像部101の光軸と直交し且つ水平面に対して平行な直線と、2次元撮像部101の光軸とを含む平面に平行な平面であってもよい。また、三角測量実施平面40として、他の平面を用いてもよい。 The triangulation execution plane 40 is, for example, a horizontal plane orthogonal to the direction of gravity (that is, the vertical direction). The triangulation execution plane 40 may be a plane parallel to a plane including a straight line orthogonal to the optical axis of the two-dimensional imaging unit 101 and parallel to the horizontal plane and the optical axis of the two-dimensional imaging unit 101. Further, another plane may be used as the triangulation execution plane 40.

三角測量実施平面40を定めた後、眼3次元座標計算部107は、図11に示されるように、撮像位置11から眼の位置21に向かう第1の直線LV1を三角測量実施平面40へ射影することで第1の射影直線PV1aを求める。 After defining the triangular measurement execution plane 40, the eye three-dimensional coordinate calculation unit 107 projects the first straight line LV1 from the imaging position 11 toward the eye position 21 onto the triangular measurement execution plane 40 as shown in FIG. By doing so, the first projective line PV1a is obtained.

同様に、図11に示されるように、眼3次元座標計算部107は、注視点の位置31から眼の位置21に向かう第2の直線LV3を三角測量実施平面40へ射影することで第2の射影直線PV3aを求める。 Similarly, as shown in FIG. 11, the eye three-dimensional coordinate calculation unit 107 projects a second straight line LV3 from the gazing point position 31 toward the eye position 21 onto the triangulation execution plane 40 to obtain a second. The projective line PV3a of is obtained.

ここで、図11に示されるように、第1の射影直線PV1aと第2の射影直線PV3aとの交点23aが、眼の位置21の三角測量実施平面40への射影点となる。したがって、図12に示されるように、眼3次元座標D18は、眼の位置21の三角測量実施平面40への射影点(交点23a)を通り、三角測量実施平面40に垂直な直線(すなわち、法線)を眼存在範囲直線41とすると、眼存在範囲直線41上のいずれかの位置に決定される。 Here, as shown in FIG. 11, the intersection 23a of the first projective line PV1a and the second projective line PV3a is the projection point on the triangulation execution plane 40 at the eye position 21. Therefore, as shown in FIG. 12, the three-dimensional eye coordinate D18 passes through the projection point (intersection point 23a) of the eye position 21 on the triangular survey execution plane 40 and is a straight line perpendicular to the triangular survey execution plane 40 (that is, that is). Assuming that the normal line) is the eye existence range straight line 41, it is determined at any position on the eye existence range straight line 41.

さらに、第1の直線LV1(すなわち、撮像位置11を通り、第1の3次元ベクトルV1を方向ベクトルとする直線)と第2の直線LV3(すなわち、注視点の位置31を通り、第3の3次元ベクトルV3を方向ベクトルとする直線)とは、理論上は、眼存在範囲直線41上の一点である交点23で交わる。このため、眼3次元座標計算部107は、交点23の座標を眼3次元座標D18として出力する。 Further, a first straight line LV1 (that is, a straight line that passes through the imaging position 11 and has the first three-dimensional vector V1 as a direction vector) and a second straight line LV3 (that is, a straight line that passes through the position 31 of the gazing point) and the third The straight line with the three-dimensional vector V3 as the direction vector) theoretically intersects at the intersection 23, which is one point on the eye existence range straight line 41. Therefore, the eye three-dimensional coordinate calculation unit 107 outputs the coordinates of the intersection 23 as the eye three-dimensional coordinates D18.

図13は、図11に示される三角測量実施平面40上における交点23を通る法線である眼存在範囲直線41と第1の直線LV1との交点24及び眼存在範囲直線41と第2の直線LV3との交点25を示す図である。 FIG. 13 shows the intersection point 24 between the eye existence range straight line 41 and the first straight line LV1, which is a normal line passing through the intersection 23 on the triangular survey execution plane 40 shown in FIG. 11, and the eye existence range straight line 41 and the second straight line. It is a figure which shows the intersection 25 with LV3.

実際の計算では、眼2次元座標D14の計算誤差、第2の3次元ベクトルV2の計算誤差、及びコンピュータの計算上の量子化誤差若しくは丸め誤差などにより、図13に示されるように、第1の直線LV1と眼存在範囲直線41との交点24と、第2の直線LV3と眼存在範囲直線41との交点25とが一致しないことがある。これを言い換えれば、第1の直線LV1と第2の直線LV3とが互いにねじれの位置の関係にある場合である。この場合、眼3次元座標計算部107は、第1の直線LV1と眼存在範囲直線41との交点24と、第2の直線LV3と眼存在範囲直線41との交点25とを結び、両端(すなわち、交点24と25)を含む線分、すなわち、交点24と25を結ぶ線分上のいずれかの点の座標である眼3次元座標D18を出力する。眼3次元座標D18を交点24と25を結ぶ線分上のどこに決めるかは、例えば、以下の方法を用いることができる。 In the actual calculation, due to the calculation error of the two-dimensional eye coordinate D14, the calculation error of the second three-dimensional vector V2, the quantization error or the rounding error in the calculation of the computer, and the like, as shown in FIG. The intersection 24 of the straight line LV1 and the eye existence range straight line 41 may not match the intersection 25 of the second straight line LV3 and the eye existence range straight line 41. In other words, this is a case where the first straight line LV1 and the second straight line LV3 are in a twisted position relationship with each other. In this case, the eye three-dimensional coordinate calculation unit 107 connects the intersection 24 of the first straight line LV1 and the eye existence range straight line 41 and the intersection 25 of the second straight line LV3 and the eye existence range straight line 41, and both ends ( That is, the line segment including the intersections 24 and 25), that is, the three-dimensional eye coordinate D18 which is the coordinates of any point on the line segment connecting the intersections 24 and 25 is output. For example, the following method can be used to determine where the three-dimensional eye coordinate D18 is determined on the line segment connecting the intersections 24 and 25.

眼3次元座標計算部107は、第1の直線LV1と眼存在範囲直線41との交点24、又は第2の直線LV3と眼存在範囲直線41との交点25のいずれかを眼3次元座標D18に決めることができる。また、眼3次元座標計算部107は、交点24と交点25の中点を眼3次元座標D18に決めてもよい。さらにまた、眼3次元座標計算部107は、眼2次元座標計算部103が両方の眼の位置を計算したときの、両方の眼の位置の信頼度を併せて計算し、両方の眼の位置の信頼度に応じて内分した内分点を眼3次元座標D18に決めてもよい。なお、このように第1の直線LV1と第2の直線LV3とが互いにねじれの位置の関係にある場合、三角測量実施平面40として、第1の直線LV1と第2の直線LV3との両方に直交する直線(すなわち、共通垂線)に垂直な平面を用いることで、交点24と25を結ぶ線分を最も短く設定することができ、眼3次元座標D18の範囲を最も絞り込むことができる。 The eye three-dimensional coordinate calculation unit 107 sets either the intersection 24 of the first straight line LV1 and the eye existence range straight line 41 or the intersection 25 of the second straight line LV3 and the eye existence range straight line 41 as the eye three-dimensional coordinate D18. Can be decided. Further, the eye three-dimensional coordinate calculation unit 107 may determine the midpoint between the intersection 24 and the intersection 25 as the eye three-dimensional coordinate D18. Furthermore, the eye three-dimensional coordinate calculation unit 107 also calculates the reliability of the positions of both eyes when the eye two-dimensional coordinate calculation unit 103 calculates the positions of both eyes, and calculates the positions of both eyes. The internal division point internally divided according to the reliability of the eye may be determined as the three-dimensional eye coordinate D18. When the first straight line LV1 and the second straight line LV3 are in a twisted position with each other in this way, both the first straight line LV1 and the second straight line LV3 are used as the triangular survey execution plane 40. By using a plane perpendicular to a straight line (that is, a common perpendicular line) that is orthogonal to each other, the line segment connecting the intersections 24 and 25 can be set to be the shortest, and the range of the eye three-dimensional coordinate D18 can be narrowed to the shortest.

以上に説明したように、実施の形態1に係る眼3次元座標取得装置100は、2次元撮像部101によって撮像された2次元画像D11と注視点の位置31を示す注視点位置情報D12とから、注視点を見る眼の位置を示す眼3次元座標D18を取得することができる。また、実施の形態1に係る眼3次元座標取得装置100によれば、3次元撮像部を用いる必要がないので、装置の構造及び制御を簡素化することができる。 As described above, the eye three-dimensional coordinate acquisition device 100 according to the first embodiment is composed of the two-dimensional image D11 captured by the two-dimensional imaging unit 101 and the gazing point position information D12 indicating the gazing point position 31. , The eye three-dimensional coordinate D18 indicating the position of the eye looking at the gazing point can be acquired. Further, according to the eye three-dimensional coordinate acquisition device 100 according to the first embodiment, since it is not necessary to use the three-dimensional imaging unit, the structure and control of the device can be simplified.

実施の形態2.
実施の形態2に係る眼3次元座標取得装置は、注視点の提示方法を除いて、実施の形態1に係る眼3次元座標取得装置100と同じである。実施の形態2においては、注視点は、表示画像の一部である画像部分によって操作者に提示される。実施の形態2では、実施の形態1の説明で用いた図1から図13を参照する。
Embodiment 2.
The eye three-dimensional coordinate acquisition device according to the second embodiment is the same as the eye three-dimensional coordinate acquisition device 100 according to the first embodiment, except for the method of presenting the gazing point. In the second embodiment, the gazing point is presented to the operator by an image portion that is a part of the displayed image. In the second embodiment, FIGS. 1 to 13 used in the description of the first embodiment are referred to.

図14は、実施の形態2における注視点の提示方法の例を示す図である。図14の例では、注視点は、表示装置であるVDT(Visual Display Terminals)装置32aの表示画面にマーク(例えば、矢印形のポインタ)32として表示される。マーク32は、点灯と消灯を交互に繰り返すように点滅させてもよい。また、マーク32を注視することを促すメッセージが表示されてもよい。この場合、注視点位置情報提供部102は、マーク32の位置を示す位置情報を眼3次元座標取得装置に提供する。 FIG. 14 is a diagram showing an example of a method of presenting a gazing point in the second embodiment. In the example of FIG. 14, the gazing point is displayed as a mark (for example, an arrow-shaped pointer) 32 on the display screen of the VDT (Visual Display Thermals) device 32a, which is a display device. The mark 32 may be blinked so as to alternately turn on and off. In addition, a message prompting the user to pay attention to the mark 32 may be displayed. In this case, the gazing point position information providing unit 102 provides the eye three-dimensional coordinate acquisition device with the position information indicating the position of the mark 32.

図15は、実施の形態2における注視点の提示方法の他の例を示す図である。図15の例では、注視点は、プロジェクタ装置33aによってマーク(例えば、矢印形のポインタ)33として投影される。マーク33は、点灯と消灯を交互に繰り返すように点滅させてもよい。また、マーク33を注視することを促すメッセージが表示されてもよい。この場合、注視点位置情報提供部102は、マーク33の位置を示す位置情報を眼3次元座標取得装置に提供する。 FIG. 15 is a diagram showing another example of the method of presenting the gazing point in the second embodiment. In the example of FIG. 15, the gazing point is projected by the projector device 33a as a mark (for example, an arrow-shaped pointer) 33. The mark 33 may be blinked so as to alternately turn on and off. In addition, a message prompting the user to pay attention to the mark 33 may be displayed. In this case, the gazing point position information providing unit 102 provides the eye three-dimensional coordinate acquisition device with the position information indicating the position of the mark 33.

図16は、実施の形態2における注視点の提示方法のさらに他の例を示す図である。図16の例では、注視点は、表示装置であるVDT装置34aの表示画面にマーク(例えば、矢印形のポインタ)34として表示される。図16の例では、VDT装置34aの上部中央付近に2次元撮像部101が配置されている。この場合には、注視点としてのマーク34を、2次元撮像部101の撮像位置11から最も離れた位置に表示する。このように、注視点を示すマーク34の位置を撮像位置11から遠くすることで(図16では、左下隅に移動することで)、三角測量における見込み角(例えば、図6におけるπ/4−α+γ、図7におけるπ/4−α+γ)を大きくすることができ、その結果、眼3次元座標D18の計測精度を向上させることができる。FIG. 16 is a diagram showing still another example of the method of presenting the gazing point in the second embodiment. In the example of FIG. 16, the gazing point is displayed as a mark (for example, an arrow-shaped pointer) 34 on the display screen of the VDT device 34a, which is a display device. In the example of FIG. 16, the two-dimensional imaging unit 101 is arranged near the upper center of the VDT device 34a. In this case, the mark 34 as the gazing point is displayed at the position farthest from the imaging position 11 of the two-dimensional imaging unit 101. In this way, by moving the position of the mark 34 indicating the gazing point far from the imaging position 11 (moving to the lower left corner in FIG. 16), the expected angle in triangulation (for example, π / 4- in FIG. 6). α X + γ X , π / 4-α Y + γ Y in FIG. 7) can be increased, and as a result, the measurement accuracy of the three-dimensional eye coordinate D18 can be improved.

以上に説明したように、実施の形態2に係る眼3次元座標取得装置は、2次元撮像部101によって撮像された2次元画像D11と注視点の位置31を示す注視点位置情報D12とから、注視点を見る眼の位置を示す眼3次元座標D18を取得することができる。また、実施の形態1に係る眼3次元座標取得装置100によれば、3次元撮像部を用いる必要がないので、装置の構造及び制御を簡素化することができる。 As described above, the eye three-dimensional coordinate acquisition device according to the second embodiment is based on the two-dimensional image D11 captured by the two-dimensional imaging unit 101 and the gazing point position information D12 indicating the gazing point position 31. It is possible to acquire the eye three-dimensional coordinate D18 indicating the position of the eye looking at the gazing point. Further, according to the eye three-dimensional coordinate acquisition device 100 according to the first embodiment, since it is not necessary to use the three-dimensional imaging unit, the structure and control of the device can be simplified.

また、実施の形態2に係る眼3次元座標取得装置は、図14のVDT装置32a、図15のプロジェクタ装置33a、又は図16のVDT装置34aを、装置の一部として含んでもよい。 Further, the eye three-dimensional coordinate acquisition device according to the second embodiment may include the VDT device 32a of FIG. 14, the projector device 33a of FIG. 15, or the VDT device 34a of FIG. 16 as a part of the device.

実施の形態3.
図17は、実施の形態3に係るジェスチャ操作装置300を示すブロック図である。図17に示されるように、実施の形態3に係るジェスチャ操作装置300は、実施の形態1又は2に係る眼3次元座標取得装置100と、操作者のジェスチャ操作を含む2次元画像を撮像する撮像装置と、ジェスチャ操作が行われる仮想の操作面である仮想面におけるジェスチャ操作の位置を示す仮想面内ジェスチャ座標D22を取得するジェスチャ座標取得部310とを有する。図17では、撮像装置は、2次元撮像部101であるが、2次元撮像部101と異なる他の2次元撮像部であってもよい。
Embodiment 3.
FIG. 17 is a block diagram showing the gesture operation device 300 according to the third embodiment. As shown in FIG. 17, the gesture operation device 300 according to the third embodiment captures a two-dimensional image including the gesture operation of the operator and the eye three-dimensional coordinate acquisition device 100 according to the first or second embodiment. It has an imaging device and a gesture coordinate acquisition unit 310 that acquires gesture coordinates D22 in a virtual plane indicating the position of the gesture operation on the virtual plane which is a virtual operation plane on which the gesture operation is performed. In FIG. 17, the imaging device is the two-dimensional imaging unit 101, but it may be another two-dimensional imaging unit different from the two-dimensional imaging unit 101.

実施の形態3に係るジェスチャ操作装置300は、ジェスチャ操作UI(User Interface)である。ジェスチャ操作装置300は、空間における操作者の手の位置に対応した仮想面内ジェスチャ座標D22を操作対象機器(図示せず)に送信する。操作対象機器の表示装置(図示せず)の画面上のポインタは、仮想面内ジェスチャ座標D22に応じた位置に移動し、画面上の特定の位置に表示されたアイコンなどの操作部品のいずれかが選択される。ジェスチャ操作装置300を、リモコン又はマウスなどのような物理的な入力装置の代わりに用いることにより、操作対象機器の容易な操作が可能になる。また、ジェスチャ操作装置300では、操作者は空間において身体の部位(例えば、手)を動かすことで操作を行うことができ、入力操作部に手を接触させる必要がないため、衛生面で優れている。 The gesture operation device 300 according to the third embodiment is a gesture operation UI (User Interface). The gesture operation device 300 transmits the virtual in-plane gesture coordinates D22 corresponding to the position of the operator's hand in space to the operation target device (not shown). The pointer on the screen of the display device (not shown) of the operation target device moves to a position corresponding to the gesture coordinate D22 in the virtual plane, and is one of the operation parts such as an icon displayed at a specific position on the screen. Is selected. By using the gesture operation device 300 instead of a physical input device such as a remote controller or a mouse, it is possible to easily operate the operation target device. Further, in the gesture operation device 300, the operator can perform the operation by moving a body part (for example, a hand) in the space, and it is not necessary to touch the input operation unit with the hand, which is excellent in terms of hygiene. There is.

実施の形態3に係るジェスチャ操作装置300では、操作者の手の位置及び動きに応じた仮想面内ジェスチャ座標D22を受信した操作対象機器の表示装置の画面におけるポインタを表示及び移動させる構成を説明する。ジェスチャ操作は、手以外の身体部位、例えば、顔、腕、身体全体、又は脚などによって行われてもよい。また、ジェスチャ操作装置300は、ジェスチャ操作に応じて操作対象機器の表示装置の画面におけるポインタを移動させるのでなく、ジェスチャ操作が開始された座標、ジェスチャ操作を行った身体部位の種類、ジェスチャ操作における身体部位の移動の方向などに応じた内容の動作を、操作対象機器に実行させるように構成されてもよい。表示装置の画面は、例えば、VDT装置、プロジェクタ装置、又はヘッドマウントディスプレイなどである。また、ジェスチャ操作装置300は、表示装置を備えていない操作対象機器の操作に使用することもできる。 In the gesture operation device 300 according to the third embodiment, a configuration for displaying and moving a pointer on the screen of the display device of the operation target device that has received the virtual in-plane gesture coordinates D22 according to the position and movement of the operator's hand will be described. To do. Gesture operations may be performed on body parts other than the hands, such as the face, arms, whole body, or legs. In addition, the gesture operation device 300 does not move the pointer on the screen of the display device of the operation target device in response to the gesture operation, but in the coordinates at which the gesture operation is started, the type of the body part on which the gesture operation is performed, and the gesture operation. The operation target device may be configured to perform an operation of the content according to the direction of movement of the body part. The screen of the display device is, for example, a VDT device, a projector device, a head-mounted display, or the like. In addition, the gesture operation device 300 can also be used to operate an operation target device that does not have a display device.

図17に示されるように、ジェスチャ座標取得部310は、眼3次元座標取得装置100から提供された眼3次元座標D18に基づいて仮想面3次元座標D19を計算する仮想面3次元座標計算部301と、仮想面3次元座標D19に基づいて仮想面2次元座標D20を計算する仮想面2次元座標計算部302と、2次元画像D11から、ジェスチャ操作が行われている位置の2次元座標を示す2次元画像内ジェスチャ座標D21を計算するジェスチャ座標計算部303と、仮想面2次元座標D20と2次元画像内ジェスチャ座標D21とから、仮想面2次元座標D20における仮想面内ジェスチャ座標D22を計算する仮想面内ジェスチャ座標計算部304とを有する。実施の形態3においては、2次元画像内ジェスチャ座標D21は、2次元画像内における手の位置の移動範囲内の位置である。2次元画像内ジェスチャ座標D21の計算には、ルールベースによる方法、テンプレートマッチングによる方法、又はディープラーニングを用いる方法などを使用することができる。 As shown in FIG. 17, the gesture coordinate acquisition unit 310 calculates the virtual surface 3D coordinate D19 based on the eye 3D coordinate D18 provided by the eye 3D coordinate acquisition device 100. From 301, the virtual surface 2D coordinate calculation unit 302 that calculates the virtual surface 2D coordinate D20 based on the virtual surface 3D coordinate D19, and the 2D image D11, the 2D coordinates of the position where the gesture operation is performed are obtained. From the gesture coordinate calculation unit 303 that calculates the gesture coordinate D21 in the two-dimensional image shown, the virtual surface two-dimensional coordinate D20, and the gesture coordinate D21 in the two-dimensional image, the gesture coordinate D22 in the virtual plane in the virtual surface two-dimensional coordinate D20 is calculated. It has a virtual in-plane gesture coordinate calculation unit 304. In the third embodiment, the gesture coordinate D21 in the two-dimensional image is a position within the movement range of the position of the hand in the two-dimensional image. For the calculation of the gesture coordinates D21 in the two-dimensional image, a rule-based method, a template matching method, a method using deep learning, or the like can be used.

図18は、実施の形態3における仮想面371(「仮想操作面」とも言う)の例を示す概略図である。仮想面3次元座標計算部301は、眼3次元座標D18から仮想面371を示す座標である仮想面3次元座標D19を計算する。仮想面371は、操作者20から表示装置の画面又は操作対象機器に向かう方向に存在することが、操作性の点で望ましい。したがって、仮想面3次元座標計算部301は、眼3次元座標D18である起点から予め決められた方向の3次元ベクトルV30(例えば、第2の3次元ベクトルV2)から延在した直線上における、操作者の腕の可動範囲内の点を仮想面基準点372として設定し、仮想面基準点372を含む面を仮想面371として設定する。 FIG. 18 is a schematic view showing an example of a virtual surface 371 (also referred to as a “virtual operation surface”) in the third embodiment. The virtual surface three-dimensional coordinate calculation unit 301 calculates the virtual surface three-dimensional coordinate D19, which is the coordinate indicating the virtual surface 371, from the eye three-dimensional coordinate D18. It is desirable from the viewpoint of operability that the virtual surface 371 exists in the direction from the operator 20 toward the screen of the display device or the device to be operated. Therefore, the virtual surface three-dimensional coordinate calculation unit 301 is on a straight line extending from the three-dimensional vector V30 (for example, the second three-dimensional vector V2) in a predetermined direction from the starting point which is the eye three-dimensional coordinate D18. A point within the movable range of the operator's arm is set as a virtual surface reference point 372, and a surface including the virtual surface reference point 372 is set as a virtual surface 371.

仮想面基準点372は、例えば、仮想面371の中心である。ただし、仮想面基準点372は、仮想面371の中心以外の点であってもよい。仮想面基準点372は、例えば、眼の位置21と注視点の位置31とを結ぶ直線上の点であり、操作者による手の可動範囲は、この直線の位置からいずれかの方向にオフセットしているためである。例えば、手の可動範囲は眼の位置21より鉛直方向の下側であるため、仮想面371を第2の3次元ベクトルV2より少し鉛直方向の下側にオフセットさせて設定することで、操作性が高まる。また、眼の位置21として、一方の眼の位置を使用した場合は、仮想面371を一方の眼の位置の方向にオフセットさせることで、操作性が高まる。また、ジェスチャ操作を行う手が右手であるのか左手であるのかが予めわかっている場合は、仮想面371をジェスチャ操作を行う手の方向にオフセットさせることで、操作性が高まる。このように、ジェスチャ操作の仕様に応じて仮想面371がオフセットするような仮想面基準点372を設定することで、装置の操作性を高めることができる。 The virtual surface reference point 372 is, for example, the center of the virtual surface 371. However, the virtual surface reference point 372 may be a point other than the center of the virtual surface 371. The virtual plane reference point 372 is, for example, a point on a straight line connecting the position 21 of the eye and the position 31 of the gazing point, and the movable range of the hand by the operator is offset in any direction from the position of this straight line. Because it is. For example, since the movable range of the hand is below the position 21 of the eye in the vertical direction, the operability can be set by offsetting the virtual surface 371 slightly below the second three-dimensional vector V2 in the vertical direction. Will increase. Further, when the position of one eye is used as the position 21 of the eyes, the operability is improved by offsetting the virtual surface 371 in the direction of the position of the one eye. Further, when it is known in advance whether the hand performing the gesture operation is the right hand or the left hand, the operability is improved by offsetting the virtual surface 371 in the direction of the hand performing the gesture operation. In this way, by setting the virtual surface reference point 372 such that the virtual surface 371 is offset according to the specifications of the gesture operation, the operability of the device can be improved.

操作者の腕の可動範囲は、予め決められた値の範囲内である。腕の長さの平均値を70cm程度(日本人の平均値)である場合には、眼3次元座標D18から仮想面基準点372まで距離は0〜70cmの範囲内であることが妥当である。しかし、この距離が短過ぎる場合又は長すぎる場合には操作性が低下する。このため、実施の形態3では、眼3次元座標D18から仮想面基準点372までの距離を、腕の長さの平均値の1/2の35cmである場合を説明する。眼3次元座標D18と仮想面基準点372との距離は、操作者の腕の長さ以下の範囲内で選択可能である。 The movable range of the operator's arm is within a predetermined value range. When the average value of the arm length is about 70 cm (the average value of Japanese people), it is appropriate that the distance from the three-dimensional eye coordinate D18 to the virtual plane reference point 372 is within the range of 0 to 70 cm. .. However, if this distance is too short or too long, the operability will deteriorate. Therefore, in the third embodiment, the case where the distance from the three-dimensional eye coordinate D18 to the virtual plane reference point 372 is 35 cm, which is 1/2 of the average value of the arm lengths, will be described. The distance between the three-dimensional eye coordinate D18 and the virtual plane reference point 372 can be selected within the range equal to or less than the length of the operator's arm.

仮想面371は、図18に示されるような曲面であってもよいし、又は平面であってもよい。手の可動範囲は、腕の付け根(肩関節の位置)を中心に円周状又は球面状であるため、仮想面371は手の可動範囲に近い曲面である場合に操作性が向上する。しかし、計算の簡便化のために、仮想面371を平面としてもよい。 The virtual surface 371 may be a curved surface as shown in FIG. 18, or may be a flat surface. Since the movable range of the hand is circular or spherical around the base of the arm (position of the shoulder joint), the operability is improved when the virtual surface 371 is a curved surface close to the movable range of the hand. However, for the sake of simplification of calculation, the virtual surface 371 may be a plane.

図19は、実施の形態3における仮想面381の例を示す概略図である。図20は、実施の形態3におけるジェスチャ操作を含む2次元画像D11の例を示す概略図である。図19及び図20に示されるように、仮想面2次元座標計算部302は、図18に示される仮想面371の2次元画像D11上への投影面である仮想面381の座標である仮想面2次元座標D20を、仮想面371上の仮想面3次元座標D19を用いて計算する。 FIG. 19 is a schematic view showing an example of the virtual surface 381 according to the third embodiment. FIG. 20 is a schematic view showing an example of the two-dimensional image D11 including the gesture operation in the third embodiment. As shown in FIGS. 19 and 20, the virtual surface two-dimensional coordinate calculation unit 302 is a virtual surface which is the coordinates of the virtual surface 381 which is the projection surface of the virtual surface 371 shown in FIG. 18 on the two-dimensional image D11. The two-dimensional coordinates D20 are calculated using the virtual surface three-dimensional coordinates D19 on the virtual surface 371.

図21は、実施の形態3における仮想面381内におけるジェスチャ位置390を示す座標の例を示す概略図である。図21に示されるように、仮想面内ジェスチャ座標計算部304は、仮想面2次元座標D20と2次元画像内ジェスチャ座標D21とから、仮想面内ジェスチャ座標D22を計算する。図21には、仮想面内ジェスチャ座標D22が示す位置として、ジェスチャ操作が行われたジェスチャ領域の中心であるジェスチャ位置390及びジェスチャ領域の四隅391〜394が示されている。仮想面内ジェスチャ座標D22が示す位置は、図21の例に限定されない。 FIG. 21 is a schematic view showing an example of coordinates indicating the gesture position 390 in the virtual surface 381 according to the third embodiment. As shown in FIG. 21, the virtual surface in-plane gesture coordinate calculation unit 304 calculates the virtual in-plane gesture coordinate D22 from the virtual surface two-dimensional coordinate D20 and the two-dimensional image in-plane gesture coordinate D21. In FIG. 21, the gesture position 390, which is the center of the gesture region where the gesture operation was performed, and the four corners 391-394 of the gesture region are shown as the positions indicated by the gesture coordinates D22 in the virtual plane. The position indicated by the gesture coordinate D22 in the virtual plane is not limited to the example of FIG.

また、図20に示されるように、一般に、仮想面381は2次元画像D11に比べて狭い範囲に設定される。このため、仮想面内ジェスチャ座標D22が、仮想面381の外側になる場合があり得る。このような状況は、ジェスチャ座標計算部303が、ジェスチャ操作が行われていない領域の座標をジェスチャ操作の座標であると誤検出した状況であると想定される。このため、仮想面内ジェスチャ座標計算部304は、仮想面内ジェスチャ座標D22が、仮想面381の外側にある場合には、ジェスチャ操作を無効と判定してもよい。 Further, as shown in FIG. 20, the virtual surface 381 is generally set in a narrow range as compared with the two-dimensional image D11. Therefore, the gesture coordinate D22 in the virtual plane may be outside the virtual plane 381. It is assumed that such a situation is a situation in which the gesture coordinate calculation unit 303 erroneously detects the coordinates of the region where the gesture operation is not performed as the coordinates of the gesture operation. Therefore, the virtual in-plane gesture coordinate calculation unit 304 may determine that the gesture operation is invalid when the in-plane gesture coordinate D22 is outside the virtual surface 381.

以上に説明したように、実施の形態3に係るジェスチャ操作装置300は、眼3次元座標取得装置100によって取得された眼3次元座標D18に基づいて、ジェスチャ操作が行われる仮想面371の位置を計算し、仮想面371を2次元画像D11に投影することで仮想面381を設定し、仮想面381内におけるジェスチャ座標である仮想面内ジェスチャ座標D22を出力する。仮想面371は、操作者20の眼の位置21から適切な位置に設定されるので、仮想面381も適切な位置に設定される。したがって、ジェスチャ操作を正確に検出することができる。また、ジェスチャ操作装置300によれば、3次元撮像部を備えていないので、装置の構造及び制御を簡素化することができる。 As described above, the gesture operation device 300 according to the third embodiment determines the position of the virtual surface 371 on which the gesture operation is performed based on the eye three-dimensional coordinate D18 acquired by the eye three-dimensional coordinate acquisition device 100. The virtual surface 381 is set by calculating and projecting the virtual surface 371 onto the two-dimensional image D11, and the virtual in-plane gesture coordinates D22, which are the gesture coordinates in the virtual surface 381, are output. Since the virtual surface 371 is set to an appropriate position from the position 21 of the eyes of the operator 20, the virtual surface 381 is also set to an appropriate position. Therefore, the gesture operation can be detected accurately. Further, according to the gesture operation device 300, since the three-dimensional imaging unit is not provided, the structure and control of the device can be simplified.

実施の形態4.
図22は、実施の形態4に係るジェスチャ操作装置400を示すブロック図である。図22において、図17に示される構成要素と同一又は対応する構成要素には、図17に示される符号と同じ符号が付される。実施の形態4に係るジェスチャ操作装置400は、ジェスチャ座標取得部410のジェスチャ座標計算部403が行う処理方法の点において、実施の形態3に係るジェスチャ操作装置300と異なる。
Embodiment 4.
FIG. 22 is a block diagram showing the gesture operation device 400 according to the fourth embodiment. In FIG. 22, components that are the same as or correspond to the components shown in FIG. 17 are designated by the same reference numerals as those shown in FIG. The gesture operation device 400 according to the fourth embodiment is different from the gesture operation device 300 according to the third embodiment in the processing method performed by the gesture coordinate calculation unit 403 of the gesture coordinate acquisition unit 410.

実施の形態3におけるジェスチャ座標計算部303は、2次元画像D11の全体から、ジェスチャ操作に対応する部分、例えば、ジェスチャ操作を行う手の範囲を抽出している。しかし、このような処理には非常に大きな情報処理量が必要であり、また、情報処理量を削減すると手の範囲の抽出精度が低下する。すなわち、情報処理量と抽出精度にはトレードオフの関係がある。例えば、2次元画像D11内の切り出し範囲であるスライディングウインドウを少しずつ移動させながら、スライディングウインドウ内の画像がジェスチャ操作の範囲に該当するかを判定する場合、スライディングウインドウの移動ステップを大きくすればジェスチャの抽出精度が低下し、スライディングウインドウの移動ステップを小さくすれば処理の繰り返し回数が増加するため、情報処理量が増加する。 The gesture coordinate calculation unit 303 in the third embodiment extracts a portion corresponding to the gesture operation, for example, a range of the hand performing the gesture operation from the entire two-dimensional image D11. However, such processing requires a very large amount of information processing, and if the amount of information processing is reduced, the extraction accuracy of the hand range is lowered. That is, there is a trade-off relationship between the amount of information processing and the extraction accuracy. For example, when determining whether the image in the sliding window corresponds to the range of the gesture operation while gradually moving the sliding window which is the cutout range in the two-dimensional image D11, the gesture can be made by increasing the moving step of the sliding window. If the extraction accuracy of the image is lowered and the moving step of the sliding window is made smaller, the number of times the process is repeated increases, so that the amount of information processing increases.

そこで、実施の形態4におけるジェスチャ座標計算部403は、仮想面2次元座標D20が示す範囲のみから、ジェスチャ操作を検出する。これにより、情報処理量が削減できると共に、仮想面2次元座標D20が示す範囲から外れた領域で、ジェスチャ操作を誤検出することがない。 Therefore, the gesture coordinate calculation unit 403 in the fourth embodiment detects the gesture operation only from the range indicated by the virtual surface two-dimensional coordinate D20. As a result, the amount of information processing can be reduced, and the gesture operation is not erroneously detected in a region outside the range indicated by the virtual surface two-dimensional coordinate D20.

以上に説明したように、実施の形態4に係るジェスチャ操作装置400は、実施の形態3で説明した効果を得ることができる。さらに、実施の形態4に係るジェスチャ操作装置400は、誤検出の抑制と、情報処理量の削減を両立させることができる。 As described above, the gesture operation device 400 according to the fourth embodiment can obtain the effect described in the third embodiment. Further, the gesture operation device 400 according to the fourth embodiment can suppress false detection and reduce the amount of information processing at the same time.

上記以外の点については、実施の形態4に係るジェスチャ操作装置400は、実施の形態3に係るジェスチャ操作装置300と同じである。 Except for the above points, the gesture operating device 400 according to the fourth embodiment is the same as the gesture operating device 300 according to the third embodiment.

実施の形態5.
図23は、実施の形態5に係るジェスチャ操作装置500を示すブロック図である。図23において、図17に示される構成要素と同一又は対応する構成要素には、図17に示される符号と同じ符号が付される。実施の形態5に係るジェスチャ操作装置500は、ジェスチャ座標取得部510の構成の点において、実施の形態3に係るジェスチャ操作装置300と異なる。実施の形態5に係るジェスチャ操作装置500は、実施の形態3に係るジェスチャ操作装置300における仮想面2次元座標計算部302、ジェスチャ座標計算部303、及び仮想面内ジェスチャ座標計算部304に代えて、2次元画像仮想面投影部502と仮想面内ジェスチャ座標計算部503を備えている。
Embodiment 5.
FIG. 23 is a block diagram showing the gesture operation device 500 according to the fifth embodiment. In FIG. 23, components that are the same as or correspond to the components shown in FIG. 17 are designated by the same reference numerals as those shown in FIG. The gesture operating device 500 according to the fifth embodiment is different from the gesture operating device 300 according to the third embodiment in that the gesture coordinate acquisition unit 510 is configured. The gesture operation device 500 according to the fifth embodiment replaces the virtual surface two-dimensional coordinate calculation unit 302, the gesture coordinate calculation unit 303, and the virtual in-plane gesture coordinate calculation unit 304 in the gesture operation device 300 according to the third embodiment. A two-dimensional image virtual surface projection unit 502 and an in-plane gesture coordinate calculation unit 503 are provided.

実施の形態3に係るジェスチャ操作装置300では、ジェスチャ座標計算部303が2次元画像D11から2次元画像内ジェスチャ座標D21を抽出する。しかし、ジェスチャ操作を行う操作者が撮像装置である2次元撮像部101の真正面から離れた位置、すなわち、光軸から離れた位置にいる場合、又は操作者が2次元撮像部101の法線方向と乖離した方向を向いている場合、すなわち、光軸と乖離した方向を向いているような場合には、2次元画像D11内のジェスチャ操作が変形したジェスチャ操作として検出され、2次元画像内ジェスチャ座標D21の正確な検出ができない状況が発生し得る。 In the gesture operation device 300 according to the third embodiment, the gesture coordinate calculation unit 303 extracts the gesture coordinates D21 in the two-dimensional image from the two-dimensional image D11. However, when the operator performing the gesture operation is at a position away from the front of the two-dimensional imaging unit 101, which is an imaging device, that is, at a position away from the optical axis, or when the operator is in the normal direction of the two-dimensional imaging unit 101. When the direction deviates from the optical axis, that is, the direction deviates from the optical axis, the gesture operation in the two-dimensional image D11 is detected as a deformed gesture operation, and the gesture in the two-dimensional image is detected. A situation may occur in which the coordinate D21 cannot be accurately detected.

そこで、実施の形態5に係るジェスチャ操作装置500においては、図23に示されるように、2次元画像仮想面投影部502は、2次元画像D11と仮想面3次元座標D19を用いて、仮想面の変形の補償を行い、その補償結果である2次元画像仮想面射影画像D51を出力する。 Therefore, in the gesture operation device 500 according to the fifth embodiment, as shown in FIG. 23, the two-dimensional image virtual surface projection unit 502 uses the two-dimensional image D11 and the virtual surface three-dimensional coordinates D19 to form a virtual surface. The deformation of the above is compensated, and the two-dimensional image virtual surface projection image D51 which is the compensation result is output.

図24は、実施の形態5に係るジェスチャ操作装置500の動作を示す図である。2次元画像D11内の画素Pの座標を(X,Y)とする。図24に示されるように、2次元画像D11内における画素PのX座標(例えば、X方向の画素数)をXで表し、2次元画像D11の横方向の総画素数の1/2の画素数をXmaxで表し、3次元ベクトルV51と撮像系の光軸であるz軸とがなす角度である3次元ベクトルのヨー角をαで表し、2次元画像D11の横方向の撮影最大画角をβで表す。このとき、以下の関係式が成立する。
:Xmax=tanα:tanβ
したがって、3次元ベクトルのヨー角αは、以下の式(3)で計算できる。
FIG. 24 is a diagram showing the operation of the gesture operation device 500 according to the fifth embodiment. Let the coordinates of the pixel P in the two-dimensional image D11 be (X p , Y p ). As shown in FIG. 24, the X coordinate of the pixel P in the two-dimensional image D11 (for example, the number of pixels in the X direction) is represented by X e, which is 1/2 of the total number of pixels in the horizontal direction of the two-dimensional image D11. The number of pixels is represented by X max , and the yaw angle of the 3D vector, which is the angle formed by the 3D vector V51 and the z-axis, which is the optical axis of the imaging system, is represented by α P. The angle of view is represented by β P. At this time, the following relational expression holds.
X P: X max = tanα P : tanβ P
Therefore, the yaw angle α P of the three-dimensional vector can be calculated by the following equation (3).

Figure 0006873326
Figure 0006873326

3次元ベクトルV51のピッチ角は、式(3)と同様に計算される。 The pitch angle of the three-dimensional vector V51 is calculated in the same manner as in the equation (3).

このようにして画素Pを通る方向ベクトルが得られたことにより、撮像位置を起点とし、起点から画素Pに向かう3次元ベクトルV51を延在することで得られた直線(すなわち、撮像位置を通り、3次元ベクトルV51を方向ベクトルとする直線)と仮想面571の交点が画素Pの投影点572として得られる。仮想面571は、実施の形態3における仮想面371と同様に取得される。 By obtaining the direction vector passing through the pixel P in this way, a straight line (that is, passing through the imaging position) obtained by extending the three-dimensional vector V51 from the imaging position to the pixel P as the starting point. The intersection of the three-dimensional vector V51 as a direction vector) and the virtual surface 571 is obtained as the projection point 572 of the pixel P. The virtual surface 571 is acquired in the same manner as the virtual surface 371 in the third embodiment.

この投影処理を、2次元画像D11上の画素のうちの全ての画素について行うか、又は処理量削減のため、仮想面571上の投影像を得るために必要な範囲内の画像について行うことにより、2次元画像仮想面射影画像D51が得られる。この際、一般には、2次元画像D11と仮想面571との画素粒度が異なるため、何らかの補間が必要になる。補間には、ニアレストネイバー法、バイリニア法、バイキュービック法、ランチョス法などのような画像処理方法を用いることができる。 By performing this projection processing on all the pixels of the pixels on the two-dimensional image D11, or by performing the projection processing on the image within the range necessary for obtaining the projected image on the virtual surface 571 in order to reduce the processing amount. A two-dimensional image virtual surface projection image D51 is obtained. At this time, since the pixel size of the two-dimensional image D11 and the virtual surface 571 are generally different, some kind of interpolation is required. For interpolation, an image processing method such as the nearest neighbor method, the bilinear method, the bicubic method, or the Lanczos method can be used.

また、2次元画像内D11の画素Pを起点にして、仮想面571上の対応する座標を得ているが、逆に、仮想面571内の画素を起点とし、2次元画像D11上の対応する座標を計算してもよい。 Further, the corresponding coordinates on the virtual surface 571 are obtained starting from the pixel P of the two-dimensional image D11, but conversely, the corresponding coordinates on the two-dimensional image D11 are obtained starting from the pixel in the virtual surface 571. Coordinates may be calculated.

仮想面内ジェスチャ座標計算部503は、このようにして得られた2次元画像仮想面射影画像D51から、仮想面内ジェスチャ座標D52を計算する。 The virtual in-plane gesture coordinate calculation unit 503 calculates the in-plane gesture coordinates D52 from the two-dimensional image virtual surface projection image D51 thus obtained.

以上に説明したように、実施の形態5に係るジェスチャ操作装置500は、ジェスチャの認識精度を向上させることができる。さらに、実施の形態5に係るジェスチャ操作装置500は、誤検出の抑制と、情報処理量の削減を両立させることができる。 As described above, the gesture operation device 500 according to the fifth embodiment can improve the gesture recognition accuracy. Further, the gesture operation device 500 according to the fifth embodiment can suppress false detection and reduce the amount of information processing at the same time.

上記以外の点については、実施の形態5に係るジェスチャ操作装置500は、実施の形態3に係るジェスチャ操作装置300と同じである。 Except for the above points, the gesture operating device 500 according to the fifth embodiment is the same as the gesture operating device 300 according to the third embodiment.

変形例.
図25は、実施の形態1から5の変形例のハードウェア構成の例を示すブロック図である。図1に示される眼3次元座標取得装置100は、ソフトウェアとしてのプログラムを格納する記憶装置としてのメモリ91と、メモリ91に格納されたプログラムを実行する情報処理部としてのプロセッサ92とを用いて(例えば、コンピュータにより)実現することができる。この場合には、図1における各構成部分の一部を、図25に示されるメモリ91と、プログラムを実行するプロセッサ92とによって実現することができる。
Modification example.
FIG. 25 is a block diagram showing an example of the hardware configuration of the modified examples of the first to fifth embodiments. The eye three-dimensional coordinate acquisition device 100 shown in FIG. 1 uses a memory 91 as a storage device for storing a program as software and a processor 92 as an information processing unit for executing a program stored in the memory 91. It can be realized (for example, by a computer). In this case, a part of each component in FIG. 1 can be realized by the memory 91 shown in FIG. 25 and the processor 92 that executes the program.

また、図17、図22、及び図23に示されるジェスチャ座標取得部310,410,及び510を、ソフトウェアとしてのプログラムを格納する記憶装置としてのメモリ91と、メモリ91に格納されたプログラムを実行する情報処理部としてのプロセッサ92とを用いて(例えば、コンピュータにより)実現することもできる。この場合には、ジェスチャ座標取得部310,410,及び510の全体又は一部を、図25に示されるメモリ91と、プログラムを実行するプロセッサ92とによって実現することができる。 Further, the gesture coordinate acquisition units 310, 410, and 510 shown in FIGS. 17, 22, and 23 execute a memory 91 as a storage device for storing a program as software and a program stored in the memory 91. It can also be realized by using a processor 92 as an information processing unit (for example, by a computer). In this case, all or part of the gesture coordinate acquisition units 310, 410, and 510 can be realized by the memory 91 shown in FIG. 25 and the processor 92 that executes the program.

11 撮像位置、 20 人(操作者)、 21 眼の位置、 22 視線、 23 第1の直線と第2の直線との交点、 23a 第1の射影直線と第2の射影直線との交点、 24 交点、 25 交点、 30 発光素子、 31 注視点の位置、 31a 注視点の位置の射影点、 32,33,34 ポインタ、 32a,34a VDT装置(表示装置)、 33a プロジェクタ装置、 40 三角測量実施平面、 41 眼存在範囲直線(法線)、 100 眼3次元座標取得装置、 101 2次元撮像部、 102 注視点位置情報提供部、 103 眼2次元座標計算部、 104 第1の直線計算部、 105 3次元ベクトル計算部、 106 第2の直線計算部、 107 眼3次元座標計算部、 301 仮想面3次元座標計算部、 302 仮想面2次元座標計算部、 303 ジェスチャ座標計算部、 304 仮想面内ジェスチャ座標計算部、 310,410,510 ジェスチャ座標取得部、 371 仮想面、 372 仮想面基準点、 381 仮想面、 571 仮想面、 572 二次元画像の仮想面への投影点、 D11 2次元画像、 D12 注視点位置情報、 D13、β、β 最大撮像画角、 D14 眼2次元座標、 D15,LV1 第1の直線、 D16,V2 第2の3次元ベクトル、 D17,LV3 第2の直線、 D18 眼3次元座標、 D19 仮想面3次元座標、 D20 仮想面2次元座標、 D21 2次元画像内ジェスチャ座標、 D22,D42,D52 仮想面内ジェスチャ座標、 PV1a 第1の射影直線、 PV3a 第2の射影直線。11 Imaging position, 20 people (operator), 21 eye position, 22 line of sight, 23 intersection of first straight line and second straight line, 23a intersection of first projection straight line and second projection straight line, 24 Intersection point, 25 intersection point, 30 light emitting element, 31 gazing point position, 31a gazing point position projection point, 32, 33, 34 pointer, 32a, 34a VDT device (display device), 33a projector device, 40 triangular survey execution plane , 41 Eye existence range straight line (normal line), 100 eye 3D coordinate acquisition device, 101 2D imaging unit, 102 gazing point position information providing unit, 103 eye 2D coordinate calculation unit, 104 1st linear calculation unit, 105 3D vector calculation unit, 106 2nd straight line calculation unit, 107 eye 3D coordinate calculation unit, 301 virtual surface 3D coordinate calculation unit, 302 virtual surface 2D coordinate calculation unit, 303 gesture coordinate calculation unit, 304 in virtual plane Gesture coordinate calculation unit, 310,410,510 Gesture coordinate acquisition unit, 371 virtual plane, 372 virtual plane reference point, 381 virtual plane, 571 virtual plane, 572 projection point of 2D image on virtual plane, D11 2D image, D12 gazing point position information, D13, β X , β Y maximum imaging angle, D14 eye two-dimensional coordinates, D15, LV1 first straight line, D16, V2 second three-dimensional vector, D17, LV3 second straight line, D18 eye 3D coordinates, D19 virtual surface 3D coordinates, D20 virtual surface 2D coordinates, D21 2D image in-plane gesture coordinates, D22, D42, D52 virtual in-plane gesture coordinates, PV1a first projection line, PV3a second Projection straight line.

Claims (15)

2次元撮像部によって撮像された2次元画像と注視点の位置を示す注視点位置情報とから、前記注視点を見る眼の位置を示す眼3次元座標を取得する眼3次元座標取得装置であって、
前記2次元画像内における前記眼の2次元位置を示す眼2次元座標を計算する眼2次元座標計算部と、
前記2次元撮像部の最大撮像画角と前記眼2次元座標とから、前記2次元撮像部の撮像位置である第1起点から前記眼の位置に向かう第1の3次元ベクトルを方向ベクトルとし且つ前記第1起点を起点とする第1の直線を計算する第1の直線計算部と、
前記2次元画像と前記眼2次元座標とから、前記眼の位置である第2起点から前記注視点の位置に向かう第2の3次元ベクトルを計算する3次元ベクトル計算部と、
前記第2の3次元ベクトルの逆ベクトルであり、前記注視点の位置である第3起点から前記眼の位置に向かう第3の3次元ベクトルを方向ベクトルとし且つ前記第3起点を起点とする第2の直線を計算する第2の直線計算部と、
前記第1の直線と前記第2の直線と前記注視点位置情報とから三角測量法を用いて前記眼3次元座標を計算する眼3次元座標計算部と、
を有することを特徴とする眼3次元座標取得装置。
It is an eye 3D coordinate acquisition device that acquires eye 3D coordinates indicating the position of the eye viewing the gazing point from the 2D image captured by the 2D imaging unit and the gazing point position information indicating the position of the gazing point. hand,
An eye two-dimensional coordinate calculation unit that calculates eye two-dimensional coordinates indicating the two-dimensional position of the eye in the two-dimensional image, and an eye two-dimensional coordinate calculation unit.
From the maximum imaging angle of the two-dimensional imaging unit and the two-dimensional coordinates of the eye, a first three-dimensional vector from the first starting point, which is the imaging position of the two-dimensional imaging unit, to the position of the eye is used as a direction vector. A first straight line calculation unit that calculates a first straight line starting from the first starting point, and
A three-dimensional vector calculation unit that calculates a second three-dimensional vector from the two-dimensional image and the two-dimensional coordinates of the eye from the second starting point, which is the position of the eye, to the position of the gazing point.
A third vector that is the inverse vector of the second three-dimensional vector, has a third three-dimensional vector from the third starting point, which is the position of the gazing point, toward the position of the eye as a direction vector, and has the third starting point as the starting point. A second straight line calculation unit that calculates two straight lines, and
An eye three-dimensional coordinate calculation unit that calculates the eye three-dimensional coordinates using the triangulation method from the first straight line, the second straight line, and the gazing point position information.
An eye three-dimensional coordinate acquisition device characterized by having.
前記眼3次元座標計算部は、
任意の三角測量実施平面に前記第1の直線を射影することによって第1の射影直線を取得し、
前記三角測量実施平面に前記第2の直線を射影することによって第2の射影直線を取得し、
前記第1の射影直線と前記第2の射影直線との交点における前記三角測量実施平面の法線と、前記第1の直線と、前記第2の直線との交点に基づいて前記眼3次元座標を計算する
ことを特徴とする請求項1に記載の眼3次元座標取得装置。
The eye three-dimensional coordinate calculation unit
The first projective straight line is obtained by projecting the first straight line onto an arbitrary triangulation plane.
A second projective straight line is obtained by projecting the second straight line onto the triangulation execution plane.
The three-dimensional eye coordinates based on the normal line of the triangular survey execution plane at the intersection of the first projective line and the second projective line, and the intersection of the first straight line and the second straight line. The eye three-dimensional coordinate acquisition device according to claim 1, wherein the device is calculated.
前記眼3次元座標計算部は、
任意の三角測量実施平面に前記第1の直線を射影することによって第1の射影直線を取得し、
前記三角測量実施平面に前記第2の直線を射影することによって第2の射影直線を取得し、
前記第1の射影直線と前記第2の射影直線との交点における前記三角測量実施平面の法線と、前記第1の直線との交点、又は前記第2の直線との交点とに基づいて前記眼3次元座標を計算する
ことを特徴とする請求項1に記載の眼3次元座標取得装置。
The eye three-dimensional coordinate calculation unit
The first projective straight line is obtained by projecting the first straight line onto an arbitrary triangulation plane.
A second projective straight line is obtained by projecting the second straight line onto the triangulation execution plane.
The above is based on the intersection of the normal plane of the triangular survey execution plane at the intersection of the first projection straight line and the second projection straight line with the first straight line, or the intersection of the second straight line. The eye three-dimensional coordinate acquisition device according to claim 1, wherein the eye three-dimensional coordinates are calculated.
前記三角測量実施平面は、重力方向に直交する水平面に平行な平面であることを特徴とする請求項2又は3に記載の眼3次元座標取得装置。 The eye three-dimensional coordinate acquisition device according to claim 2 or 3, wherein the triangulation execution plane is a plane parallel to a horizontal plane orthogonal to the direction of gravity. 前記三角測量実施平面は、前記2次元撮像部の光軸と、重力方向に直交し且つ前記光軸と交差する直線と、を含む平面であることを特徴とする請求項2又は3に記載の眼3次元座標取得装置。 The second or third aspect of claim 2 or 3, wherein the triangular survey execution plane is a plane including an optical axis of the two-dimensional imaging unit and a straight line orthogonal to the direction of gravity and intersecting the optical axis. Eye 3D coordinate acquisition device. 前記三角測量実施平面は、前記第1の直線及び前記第2の直線と直交する直線に対して垂直な平面であることを特徴とする請求項2又は3に記載の眼3次元座標取得装置。 The eye three-dimensional coordinate acquisition device according to claim 2 or 3, wherein the triangulation execution plane is a plane perpendicular to the first straight line and the straight line orthogonal to the second straight line. 前記注視点の位置は、発光素子の発光点の位置又はレーザ−ポインタによる光照射点の位置又は視線が向けられることが予想される予め決められた位置であることを特徴とする請求項1から6のいずれか1項に記載の眼3次元座標取得装置。 From claim 1, the position of the gazing point is the position of the light emitting point of the light emitting element, the position of the light irradiation point by the laser pointer, or a predetermined position where the line of sight is expected to be directed. The eye three-dimensional coordinate acquisition device according to any one of 6. 前記注視点の位置は、表示装置に表示された又はプロジェクタ装置によって投射された前記注視点としての映像部分の位置であることを特徴とする請求項1から6のいずれか1項に記載の眼3次元座標取得装置。 The eye according to any one of claims 1 to 6, wherein the position of the gazing point is the position of the image portion as the gazing point displayed on the display device or projected by the projector device. 3D coordinate acquisition device. 請求項1から8のいずれか1項に記載の眼3次元座標取得装置と、
ジェスチャ操作を含む2次元画像を撮像する撮像装置と、
前記ジェスチャ操作が行われる仮想の操作面である仮想面における前記ジェスチャ操作の位置を示す仮想面内ジェスチャ座標を取得するジェスチャ座標取得部と、
を有することを特徴とするジェスチャ操作装置。
The eye three-dimensional coordinate acquisition device according to any one of claims 1 to 8.
An imaging device that captures a two-dimensional image including gesture operations,
A gesture coordinate acquisition unit that acquires gesture coordinates in a virtual plane indicating the position of the gesture operation on a virtual surface that is a virtual operation surface on which the gesture operation is performed, and a gesture coordinate acquisition unit.
A gesture operating device characterized by having.
前記撮像装置は、前記2次元撮像部であることを特徴とする請求項9に記載のジェスチャ操作装置。 The gesture operation device according to claim 9, wherein the image pickup device is the two-dimensional image pickup unit. 前記ジェスチャ座標取得部は、
前記眼3次元座標取得装置から提供された眼3次元座標に基づいて、前記仮想面に含まれる仮想面3次元座標を計算する仮想面3次元座標計算部と、
前記仮想面3次元座標から仮想面2次元座標を計算する仮想面2次元座標計算部と、
を有することを特徴とする請求項9又は10に記載のジェスチャ操作装置。
The gesture coordinate acquisition unit
A virtual surface 3D coordinate calculation unit that calculates the virtual surface 3D coordinates included in the virtual surface based on the eye 3D coordinates provided by the eye 3D coordinate acquisition device.
A virtual surface 2D coordinate calculation unit that calculates virtual surface 2D coordinates from the virtual surface 3D coordinates,
The gesture operating device according to claim 9 or 10.
前記仮想面3次元座標計算部は、前記眼3次元座標取得装置から提供された前記眼3次元座標を起点とし、前記眼3次元座標から前記第2の3次元ベクトルの方向に延在して得られた直線上であって、前記眼3次元座標から予め決められた距離の点を含む面を前記仮想面の3次元座標とすることを特徴とする請求項11に記載のジェスチャ操作装置。 The virtual surface three-dimensional coordinate calculation unit starts from the eye three-dimensional coordinate provided by the eye three-dimensional coordinate acquisition device, and extends from the eye three-dimensional coordinate in the direction of the second three-dimensional vector. The gesture operation device according to claim 11, wherein a surface on the obtained straight line including a point at a predetermined distance from the three-dimensional coordinates of the eye is set as the three-dimensional coordinates of the virtual surface. 前記撮像装置が撮像した2次元画像内におけるジェスチャ操作の範囲を示す2次元画像内ジェスチャ座標を計算するジェスチャ座標計算部と、
前記仮想面2次元座標と前記2次元画像内ジェスチャ座標とから、前記仮想面内ジェスチャ座標を計算する、仮想面内ジェスチャ座標計算部と
を有することを特徴とする請求項11又は12に記載のジェスチャ操作装置。
A gesture coordinate calculation unit that calculates gesture coordinates in a two-dimensional image indicating the range of gesture operations in the two-dimensional image captured by the imaging device.
The 11 or 12 according to claim 11, further comprising a virtual in-plane gesture coordinate calculation unit that calculates the in-virtual gesture coordinates from the two-dimensional virtual surface coordinates and the in-two-dimensional image gesture coordinates. Gesture control device.
前記2次元画像のうち、前記仮想面2次元座標が示す範囲からジェスチャ操作の発生した範囲の2次元画像内ジェスチャ座標を計算するジェスチャ座標計算部と、
前記仮想面2次元座標と、前記2次元画像内ジェスチャ座標とから、前記仮想面内ジェスチャ座標を計算する、仮想面内ジェスチャ座標計算部と
を有することを特徴とする請求項11から13のいずれか1項に記載のジェスチャ操作装置。
Among the two-dimensional images, a gesture coordinate calculation unit that calculates the gesture coordinates in the two-dimensional image of the range in which the gesture operation has occurred from the range indicated by the virtual surface two-dimensional coordinates.
Any of claims 11 to 13, further comprising a virtual in-plane gesture coordinate calculation unit that calculates the in-virtual gesture coordinates from the two-dimensional virtual surface coordinates and the in-two-dimensional image gesture coordinates. The gesture operating device according to item 1.
前記仮想面3次元座標を用いて、前記2次元画像を前記仮想面上に投影した画像を、2次元画像仮想面投影画像として出力する2次元画像仮想面射影部と、
前記2次元画像仮想面投影画像内から、ジェスチャ操作の発生した範囲を前記仮想面内ジェスチャ座標として計算する仮想面内ジェスチャ座標計算部と
を有することを特徴とする請求項11に記載のジェスチャ操作装置。
A two-dimensional image virtual surface projection unit that outputs an image obtained by projecting the two-dimensional image onto the virtual surface as a two-dimensional image virtual surface projection image using the virtual surface three-dimensional coordinates.
The gesture operation according to claim 11, further comprising a virtual in-plane gesture coordinate calculation unit that calculates a range in which a gesture operation has occurred as the in-virtual gesture coordinates from the two-dimensional image virtual surface projection image. apparatus.
JP2020525143A 2018-06-20 2018-06-20 Eye 3D coordinate acquisition device and gesture operation device Active JP6873326B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/023426 WO2019244270A1 (en) 2018-06-20 2018-06-20 Three-dimensional eye coordinate acquisition device and gesture operation device

Publications (2)

Publication Number Publication Date
JPWO2019244270A1 JPWO2019244270A1 (en) 2021-03-11
JP6873326B2 true JP6873326B2 (en) 2021-05-19

Family

ID=68983529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020525143A Active JP6873326B2 (en) 2018-06-20 2018-06-20 Eye 3D coordinate acquisition device and gesture operation device

Country Status (2)

Country Link
JP (1) JP6873326B2 (en)
WO (1) WO2019244270A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100367A (en) * 2003-09-02 2005-04-14 Fuji Photo Film Co Ltd Image generating apparatus, image generating method and image generating program
JP4998364B2 (en) * 2008-04-28 2012-08-15 オムロン株式会社 Gaze detection apparatus and method, and program
WO2016166902A1 (en) * 2015-04-16 2016-10-20 Rakuten, Inc. Gesture interface
JP2016207042A (en) * 2015-04-24 2016-12-08 株式会社コーエーテクモゲームス Program and storage medium

Also Published As

Publication number Publication date
WO2019244270A1 (en) 2019-12-26
JPWO2019244270A1 (en) 2021-03-11

Similar Documents

Publication Publication Date Title
CN109564472B (en) Method, medium, and system for selecting an interaction method with a virtual object
US10102639B2 (en) Building a three-dimensional composite scene
CN108958473B (en) Eyeball tracking method, electronic device and non-transitory computer readable recording medium
US8933882B2 (en) User centric interface for interaction with visual display that recognizes user intentions
US20170308172A1 (en) Moving object detecting apparatus, moving object detecting method, pointing device, and storage medium
JP6548171B2 (en) Pupil detection system, gaze detection system, pupil detection method, and pupil detection program
US20170078570A1 (en) Image processing device, image processing method, and image processing program
US11042730B2 (en) Method, apparatus and device for determining an object, and storage medium for the same
WO2019005644A1 (en) A wearable eye tracking system with slippage detection and correction
JP2012252627A (en) Program, information storage medium, and image generation system
JP5873362B2 (en) Gaze error correction apparatus, program thereof, and method thereof
US20190073820A1 (en) Ray Tracing System for Optical Headsets
CN111275801A (en) Three-dimensional picture rendering method and device
JP2018099174A (en) Pupil detector and pupil detection method
WO2018176773A1 (en) Interactive system for three-dimensional space and operation method therefor
KR20190027079A (en) Electronic apparatus, method for controlling thereof and the computer readable recording medium
JPWO2020080107A1 (en) Information processing equipment, information processing methods, and programs
US20220300120A1 (en) Information processing apparatus, and control method
JP2017219942A (en) Contact detection device, projector device, electronic blackboard system, digital signage device, projector device, contact detection method, program and recording medium
US20170300121A1 (en) Input/output device, input/output program, and input/output method
JP6873326B2 (en) Eye 3D coordinate acquisition device and gesture operation device
JP4563723B2 (en) Instruction motion recognition device and instruction motion recognition program
TW201321712A (en) Systems and methods for determining three-dimensional absolute coordinates of objects
CN110858095A (en) Electronic device capable of being controlled by head and operation method thereof
JP6643825B2 (en) Apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210420

R150 Certificate of patent or registration of utility model

Ref document number: 6873326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250