JP2007029126A - Line-of-sight detecting device - Google Patents
Line-of-sight detecting device Download PDFInfo
- Publication number
- JP2007029126A JP2007029126A JP2005212264A JP2005212264A JP2007029126A JP 2007029126 A JP2007029126 A JP 2007029126A JP 2005212264 A JP2005212264 A JP 2005212264A JP 2005212264 A JP2005212264 A JP 2005212264A JP 2007029126 A JP2007029126 A JP 2007029126A
- Authority
- JP
- Japan
- Prior art keywords
- imaging device
- image
- reference point
- line
- center
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、使用者の視線の検出装置に関し、特に、光源をカメラ等の撮像デバイスの周辺に配置し、撮像デバイスで取得した使用者の眼球像と眼球上の光源の反射像を利用した視線の検出装置に関する。
The present invention relates to an apparatus for detecting a user's line of sight, and in particular, a line of sight using a user's eyeball image acquired by the image pickup device and a reflection image of the light source on the eyeball obtained by arranging a light source around an imaging device such as a camera. The present invention relates to a detection device.
カメラ等の撮像デバイスから得た使用者の目の画像情報から使用者の眼球の回転角を算出し視線の方向を検出する手法及び装置は既に様々に提案されている。
Various methods and apparatuses for calculating the rotation angle of the user's eyeball from the image information of the user's eye obtained from an imaging device such as a camera and detecting the direction of the line of sight have already been proposed.
視線検出の基本的な手法を図2、3、4を用いて説明する。図2にカメラ等の撮像デバイス1の座標系を定義する。
左図のように撮像デバイスの撮像方向を奥行方向の軸としてz軸をとり、レンズ中心を含む平面上の横軸をx軸、縦軸をy軸とする。
それぞれの軸は垂直に交わる。右図は撮像デバイスを正面から見た図である。図3は視線検出手法の原理を説明する図である。
撮像デバイス1と使用者の眼球3を上(y軸正方向)側から見たものである。
撮像デバイスのレンズ2のレンズ中心oから撮像デバイス1および眼球3までの距離をそれぞれF0、F1、角膜曲率半径をRcと表す。
図3において使用者の視線4と角膜表面との交点をeとすると、使用者の視線方向はベクトル<ce>(以下、視線ベクトルと呼ぶ)で表され、視線はこれらの点を結んだ直線ce(以下、視線ceと呼ぶ)で表される。
(ここで、本文では点aから点bへのベクトルの表記を<ab>とする。)
使用者の視線と角膜表面との交点eを表す対象は色々提案されているが、代表的なものは角膜表面の瞳孔や虹彩の中心位置である。
また、瞳孔は角膜より内部にあり角膜表面には屈折した像が現れるので、屈折を考慮した瞳孔中心を交点eとする手法もある(非特許文献1)。
以下の説明では、瞳孔中心を視線と角膜表面との交点eとして説明する。視線検出では、この視線ベクトル<ce>
および視線ceを導出することが目的となる。
A basic method of eye gaze detection will be described with reference to FIGS. FIG. 2 defines a coordinate system of the
As shown in the left figure, the z-axis is taken with the imaging direction of the imaging device as the axis in the depth direction, the horizontal axis on the plane including the lens center is the x-axis, and the vertical axis is the y-axis.
Each axis intersects vertically. The right figure is a view of the imaging device as seen from the front. FIG. 3 is a diagram for explaining the principle of the gaze detection method.
The
The distances from the lens center o of the
In FIG. 3, when the intersection between the user's line of sight 4 and the corneal surface is e, the user's line of sight direction is represented by a vector <ce> (hereinafter referred to as a line of sight vector), and the line of sight is a straight line connecting these points. ce (hereinafter referred to as line of sight ce).
(Here, in the text, the vector notation from point a to point b is <ab>.)
Various objects representing the intersection point e between the user's line of sight and the corneal surface have been proposed, but a typical one is the center position of the pupil or iris on the corneal surface.
Further, since the pupil is inside the cornea and a refracted image appears on the surface of the cornea, there is a method in which the center of the pupil considering refraction is set as the intersection point e (Non-patent Document 1).
In the following description, the center of the pupil will be described as the intersection point e between the line of sight and the corneal surface. In the gaze detection, this gaze vector <ce>
The purpose is to derive the sight line ce.
視線ベクトル<ce>は、レンズ中心oを基点に、<ce>=<oe>−<oc> ・・・(1)
と、レンズ中心oから瞳孔中心eへのベクトル<oe>および角膜曲率中心cへのベクトル<oc>で表せる。
ここで、レンズ中心oと角膜曲率中心cを結ぶ線分ocと角膜表面の交点を基準点rとし、
レンズ系を通して撮像デバイスに映し出された画像における瞳孔中心および基準点に対応する点をそれぞれ、
ei=(Eix,Eiy,Eiz)
ri=(Rix,Riy,Riz)
と表す。ここで、Eiz=Riz=−F0である。
角膜曲率中心cと撮像デバイス上の基準点riは、レンズ中心oを通る同一直線上にあるので、ベクトル<oc>は、幾何学的条件から、
<oc>={(F1+Rc)/F0}×<rio>
と表せる。
また、角膜表面の瞳孔中心eと撮像デバイス上の瞳孔中心eiも、レンズ中心oを通る同一直線上にある。
ここで、レンズ中心からz座標方向に伸ばした直線と角膜曲率中心間が大きく離れていない場合、あるいはレンズ中心から眼球までの距離F1が十分長い場合は、角膜表面の瞳孔中心のz座標をF1に近似できる。
このとき、ベクトル<oe>は、幾何学的条件から、
<oe>=(F1/F0)×<eio>
と表せる。
(近似を使わない場合は、直線oeiと角膜表面の交点により求める。)
ゆえに視線ベクトル<ce>は、式(1)から、
<ce>={(F1+Rc)/F0}×<ori>−(F1/F0)×<oei> ・・・(2)
と表せる。
The line-of-sight vector <ce> is based on the lens center o as <ce> = <oe> − <oc> (1)
And a vector <oe> from the lens center o to the pupil center e and a vector <oc> from the corneal curvature center c.
Here, the intersection point between the segment oc connecting the lens center o and the corneal curvature center c and the corneal surface is defined as a reference point r,
The points corresponding to the pupil center and the reference point in the image projected on the imaging device through the lens system, respectively,
ei = (Eix, Eiy, Eiz)
ri = (Rix, Riy, Riz)
It expresses. Here, Eiz = Riz = −F0.
Since the corneal curvature center c and the reference point ri on the imaging device are on the same straight line passing through the lens center o, the vector <oc>
<Oc> = {(F1 + Rc) / F0} × <rio>
It can be expressed.
The pupil center e on the corneal surface and the pupil center ei on the imaging device are also on the same straight line passing through the lens center o.
Here, if the straight line extending from the lens center in the z-coordinate direction and the corneal curvature center are not far apart, or if the distance F1 from the lens center to the eyeball is sufficiently long, the z-coordinate of the pupil center on the corneal surface is expressed as F1. Can be approximated.
At this time, the vector <oe>
<Oe> = (F1 / F0) × <eo>
It can be expressed.
(If approximation is not used, it is obtained from the intersection of the straight line oei and the corneal surface.)
Therefore, the line-of-sight vector <ce> is obtained from the equation (1):
<Ce> = {(F1 + Rc) / F0} × <ori> − (F1 / F0) × <oei> (2)
It can be expressed.
式(2)内の各パラメータを以下で検証する。
レンズ中心と撮像デバイス間の距離F0は既定である。
レンズ中心と眼球像間の距離F1は使用者の頭部を固定するなどして規定値に使用者を拘束するか、撮像デバイスや測定装置等を使ってF1を直接測定することで決まる。
角膜曲率半径Rcは解剖学的に人間の平均的な値が知られているので利用できる。
撮像デバイス上での瞳孔中心eiは、撮像デバイスで取得した眼球像から検出する。
図4のように、レンズを通して撮像デバイスに使用者の眼球像5が映し出される。
映し出された画像はレンズにより反転されるので、図4ではz軸を中心に座標系を180度反転させている。
この眼球像中の瞳孔6や虹彩7の画像情報から点eiが検出できる。
そして、最後に残った視線ベクトル導出に必要なパラメータが撮像デバイス上での基準点riである。
したがって、視線を検出するには撮像デバイス上での基準点riをどのように求めるかが問題となる。
Each parameter in equation (2) is verified below.
The distance F0 between the lens center and the imaging device is predetermined.
The distance F1 between the center of the lens and the eyeball image is determined by restraining the user to a specified value by fixing the user's head or by directly measuring F1 using an imaging device, a measuring apparatus, or the like.
The corneal curvature radius Rc can be used because an average human value is known anatomically.
The pupil center ei on the imaging device is detected from the eyeball image acquired by the imaging device.
As shown in FIG. 4, the user's
Since the projected image is inverted by the lens, the coordinate system is inverted 180 degrees around the z axis in FIG.
The point ei can be detected from the image information of the pupil 6 and the iris 7 in the eyeball image.
The last remaining parameter necessary for deriving the line-of-sight vector is the reference point ri on the imaging device.
Therefore, how to obtain the reference point ri on the imaging device is a problem in detecting the line of sight.
基準点の導出に広く用いられているのが角膜反射法と呼ばれる手法である。
これは、撮像デバイス側に光源を設置し、撮像デバイスで眼球の画像と一緒に光源の角膜上の反射像(プルキニエ像)を取得し、この反射像から視線算出のための基準点を導出する手法である。
A technique called corneal reflection method is widely used for deriving the reference point.
In this method, a light source is installed on the imaging device side, and a reflection image (Purkinje image) on the cornea of the light source is acquired together with an image of the eyeball by the imaging device, and a reference point for calculating a line of sight is derived from the reflection image. It is a technique.
最も直接的な手法は、特許文献1に示されているハーフミラーを用いたものである。
図5を用いて手法を説明する。
撮像デバイス1と使用者の眼球3を側面(x軸負方向)から見たものである。
眼球とレンズ2の間にハーフミラー8を45度の角度で挿入し、その上部に光源9を設置する。光源からの光はハーフミラーで反射して角膜上にプルキニエ像pが形成される。このとき、プルキニエ像は基準点に一致する。
したがって、撮像デバイス上に映し出されたプルキニエ像piを基準点riとして
式(2)に代入することで視線ベクトルが導出できる。
ただし、この手法の場合は光源からの光が瞳孔の中心付近に照射されることになる。
通常、光源には赤外光を用いる。
理論上、赤外光は撮像デバイスでは検知できるが、人間には知覚できない。
しかし、赤外光のパワーが強いと人間にはストレスに感じられることが知られている。
ゆえに、瞳孔の中心付近に光源からの光が照射されるのは問題である。
The most direct method is to use a half mirror shown in
The method will be described with reference to FIG.
The
A half mirror 8 is inserted at an angle of 45 degrees between the eyeball and the
Therefore, the line-of-sight vector can be derived by substituting the Purkinje image pi projected on the imaging device into the equation (2) as the reference point ri.
However, in the case of this method, light from the light source is irradiated near the center of the pupil.
Usually, infrared light is used as the light source.
In theory, infrared light can be detected by an imaging device, but cannot be perceived by humans.
However, it is known that humans feel stress when the power of infrared light is strong.
Therefore, it is a problem that light from the light source is irradiated near the center of the pupil.
そこで、光源からの光が瞳孔付近に入射しないように光源の位置を調整しているのが非特許文献1のような手法である。
非特許文献1では図6のように撮像デバイスの下側(y軸負方向)に光源9を設置することで基準点とプルキニエ像の位置をあえてずらしている。
図7、8を用いて手法を説明する。
図7の下図は、撮像デバイス1と使用者の眼球3を側面(x軸負方向)から見たものである。
図7の上図は、撮像デバイス1と使用者の眼球3を上(y軸正方向)側から見たものである。
上下の図においてz軸方向を合わせている。
図8は、撮像デバイスに映し出された使用者の眼球像5およびプルキニエ像piを表している。
図7の下図のように、レンズ中心oからy軸負方向に光源9を設置しているので、
プルキニエ像pは基準点rから下方向にずれる。
このずれΔpは、レンズ中心と光源間の距離H、角膜曲率半径Rc、レンズ中心から眼球までの距離F1から、F1がRcより十分大きい場合、近似的に、
Δp≒(Rc×H)/2F1
のように導出できる。
ゆえに、撮像デバイス上の基準点のy座標Riyは、撮像デバイス上のプルキニエ像のy座標Piyから、
Riy≒Piy−(F0/F1)Δp
と近似的に導出できる。
一方、x軸方向については、図7の上図のように、レンズ中心からy軸負方向に光源9を設置している場合は、xz平面において、レンズ中心から角膜曲率中心への線分と
光源から角膜曲率中心への線分が一致する。
これは眼球の位置が移動しても常に成り立つ。
ゆえに、撮像デバイス上での基準点のx座標Rixは、撮像デバイス上でのプルキニエ像のx座標Pixに等しい。
したがって図8のように、撮像デバイス上のプルキニエ像piの真上(y軸負方向)に
基準点riが存在する。
Therefore, the technique as in
In
The method will be described with reference to FIGS.
The lower diagram in FIG. 7 is a view of the
7 shows the
In the upper and lower figures, the z-axis direction is aligned.
FIG. 8 shows the user's
Since the light source 9 is installed in the negative y-axis direction from the lens center o as shown in the lower diagram of FIG.
The Purkinje image p is shifted downward from the reference point r.
This deviation Δp is approximately when the distance H from the lens center to the light source, the corneal curvature radius Rc, and the distance F1 from the lens center to the eyeball is sufficiently larger than Rc,
Δp≈ (Rc × H) / 2F1
Can be derived as follows.
Therefore, the y coordinate Riy of the reference point on the imaging device is obtained from the y coordinate Piy of the Purkinje image on the imaging device.
Riy≈Py− (F0 / F1) Δp
Can be approximated.
On the other hand, in the x-axis direction, as shown in the upper diagram of FIG. 7, when the light source 9 is installed in the negative y-axis direction from the lens center, the line segment from the lens center to the corneal curvature center in the xz plane The line segment from the light source to the corneal curvature center matches.
This is always true even if the position of the eyeball moves.
Therefore, the x coordinate Rix of the reference point on the imaging device is equal to the x coordinate Pix of the Purkinje image on the imaging device.
Therefore, as shown in FIG. 8, the reference point ri exists immediately above the Purkinje image pi on the imaging device (in the negative y-axis direction).
また、特許文献2のように2つの光源を用いる手法も考えられている。
特許文献2では図9のように撮像デバイス1の両脇(x軸方向)に光源9を設置している。
図10、11を用いて手法を説明する。
図10は、撮像デバイス1と使用者の眼球3を上(y軸正方向)側から見たものである。
図11は、撮像デバイスに映し出された使用者の眼球像5および2つのプルキニエ像p1i、p2iを表している。
レンズ中心oの左右に同じ距離Gで光源9を設置すると、プルキニエ像は基準点rを挟んだ左右p1、p2に形成される。
そして、基準点のx座標Rxは、2つのプルキニエ像のx座標P1x、P2xの中点に近似的に一致する。
このとき、角膜上の基準点と同様に、撮像デバイス上の基準点のx座標Rixも
Rix≒(P1ix+P2ix)/2
と表され、撮像デバイス上の2つのプルキニエ像P1ix、P2ixの中点に近似的に一致する。
一方、y軸方向については、図7の上図においてx軸とy軸とを入れ替えた状況に等しい。
つまり、光源がレンズ中心の通るx軸上に配置されている場合、撮像デバイス上での基準点のy座標Riyは、撮像デバイス上での2つのプルキニエ像P1iy、P2iyと等しい。
ゆえに図11のように、撮像デバイス上の2つのプルキニエ像p1i、p2iはx軸と平行に並び、その中点が基準点riとなる。
A method using two light sources as in
In
The method will be described with reference to FIGS.
FIG. 10 is a view of the
FIG. 11 shows a user's
When the light source 9 is installed at the same distance G on the left and right of the lens center o, Purkinje images are formed on the left and right p1 and p2 with the reference point r in between.
The x coordinate Rx of the reference point approximately matches the midpoint of the x coordinates P1x and P2x of the two Purkinje images.
At this time, similarly to the reference point on the cornea, the x coordinate Rix of the reference point on the imaging device is also Rix≈ (P1ix + P2ix) / 2.
And approximately coincides with the midpoint between the two Purkinje images P1ix and P2ix on the imaging device.
On the other hand, the y-axis direction is equivalent to the situation in which the x-axis and the y-axis are interchanged in the upper diagram of FIG.
That is, when the light source is arranged on the x axis passing through the center of the lens, the y coordinate Riy of the reference point on the imaging device is equal to the two Purkinje images P1iiy and P2iiy on the imaging device.
Therefore, as shown in FIG. 11, the two Purkinje images p1i and p2i on the imaging device are arranged in parallel with the x axis, and the midpoint thereof is the reference point ri.
さらに、特許文献2の手法では、
レンズ中心から眼球(正確にはプルキニエ像の発生位置)までの距離F1は、
F1×(F1+Rc)≒F0×G×Rc/|P1ix−P2ix| ・・・(3)
の関係を満足する。
すなわち、撮像デバイス上の2つのプルキニエ像の間隔|P1ix−P2ix|
から、レンズ中心oと眼球間の距離F1を導出できる。
The distance F1 from the center of the lens to the eyeball (exactly where the Purkinje image is generated) is:
F1 × (F1 + Rc) ≈F0 × G × Rc / | P1ix−P2ix | (3)
Satisfy the relationship.
That is, the interval | P1ix−P2ix | between two Purkinje images on the imaging device
From this, the distance F1 between the lens center o and the eyeball can be derived.
背景技術において説明した非特許文献1や特許文献2の手法では測定誤差や計算誤差の影響を受けやすい。
The methods of
非特許文献1の手法の場合、
プルキニエ像から基準点を導出する際に、y座標に関しては光源やレンズ中心から眼球までの距離情報が必要である。
距離情報の測定手段によるが、この情報には測定誤差が発生しやすい。
また、近似式を使っているので計算誤差も発生してしまう。
In the case of the method of
When deriving the reference point from the Purkinje image, distance information from the light source or lens center to the eyeball is necessary for the y coordinate.
Although it depends on the distance information measuring means, a measurement error is likely to occur in this information.
Moreover, since an approximate expression is used, a calculation error also occurs.
特許文献2の手法の場合、非特許文献1の手法に比べると、光源やレンズ中心から眼球までの距離情報が必要ではないので測定誤差の影響は小さいと考えられる。
しかし厳密には、2つのプルキニエ像の中点が基準点と等しくなるのは、レンズ中心を通るz軸に平行な直線上に角膜曲率中心cが存在する場合に限定される。
したがって、角膜曲率中心すなわち眼球位置がその直線から離れるほど導出する基準点のx座標に近似誤差を生じることになる。
もちろん上記のような中点による近似を使わない方法も考えられるが、光源やレンズ中心から眼球までの距離情報が必要となり、かつ計算コストが高くなる問題が新たに生じる。
In the case of the method of
However, strictly speaking, the midpoint of the two Purkinje images is equal to the reference point only when the corneal curvature center c exists on a straight line passing through the lens center and parallel to the z-axis.
Therefore, an approximation error occurs in the x-coordinate of the reference point derived as the center of the corneal curvature, that is, the eyeball position moves away from the straight line.
Of course, a method that does not use the above approximation by the midpoint is also conceivable. However, distance information from the light source and the center of the lens to the eyeball is necessary, and a new problem of high calculation cost arises.
非特許文献1における撮像デバイス上の基準点のx座標Rix、特許文献2における撮像デバイス上の基準点のy座標Riyの導出方法に着目した。
すなわち、非特許文献1では、図7の上図のように、レンズ中心oからy軸方向にずらして光源9を設置している場合は、xz平面において、レンズ中心から角膜曲率中心への線分と光源から角膜曲率中心への線分が幾何学的に一致する。
ゆえに、撮像デバイス1上での基準点のx座標Rixは、撮像デバイス上でのプルキニエ像のx座標Pixに等しい。
同様に、特許文献2では、
レンズ中心からx軸方向にずらして光源を設置している場合は、yz平面において、レンズ中心から角膜曲率中心への線分と光源から角膜曲率中心への線分が幾何学的に一致する。ゆえに、撮像デバイス上での基準点のy座標Riyは、撮像デバイス上でのプルキニエ像のx座標Piyに等しい。
つまり、レンズ中心からy軸方向に光源を設置している場合は撮像デバイス上の基準点のx座標が、レンズ中心からx軸方向に光源を設置している場合は
撮像デバイス上の基準点のy座標が、それぞれプルキニエ像を検出するだけで近似無しで正しく導出できる。
Attention was paid to the method of deriving the x-coordinate Rix of the reference point on the imaging device in
That is, in
Therefore, the x coordinate Rix of the reference point on the
Similarly, in
In the case where the light source is installed shifted from the lens center in the x-axis direction, the line segment from the lens center to the corneal curvature center and the line segment from the light source to the corneal curvature center in the yz plane geometrically match. Therefore, the y coordinate Riy of the reference point on the imaging device is equal to the x coordinate Piy of the Purkinje image on the imaging device.
That is, when the light source is installed in the y-axis direction from the center of the lens, the x coordinate of the reference point on the imaging device is equal to that of the reference point on the imaging device when the light source is installed in the x-axis direction from the lens center. The y-coordinate can be correctly derived without approximation only by detecting the Purkinje image.
そこで本発明では、
2つの光源をレンズ中心からx軸方向とy軸方向にそれぞれずらして配置し、それぞれの光源に対応する撮像デバイス上のプルキニエ像の座標値を検出する。
そして、x軸方向にずらした光源に対応するプルキニエ像のy座標を撮像デバイス上の基準点のy座標とし、y軸方向にずらした光源に対応するプルキニエ像のx座標を
撮像デバイス上の基準点のx座標とする。
Therefore, in the present invention,
Two light sources are arranged so as to be shifted from the lens center in the x-axis direction and the y-axis direction, respectively, and the coordinate value of the Purkinje image on the imaging device corresponding to each light source is detected.
Then, the y coordinate of the Purkinje image corresponding to the light source shifted in the x-axis direction is set as the y coordinate of the reference point on the imaging device, and the x coordinate of the Purkinje image corresponding to the light source shifted in the y-axis direction is the reference on the imaging device. Let it be the x coordinate of the point.
本発明では、
撮像デバイス上でのプルキニエ像の座標値がそのまま撮像デバイス上の基準点の座標値となるので、基準点を導出するための数値演算を必要としない。
ゆえに、基準点の検出手順が簡潔で検出速度も速い。
また、近時計算を使用しないので計算誤差が発生しない。
ゆえに、基準点の検出精度が高い。
In the present invention,
Since the coordinate value of the Purkinje image on the image pickup device becomes the coordinate value of the reference point on the image pickup device as it is, numerical calculation for deriving the reference point is not required.
Therefore, the reference point detection procedure is simple and the detection speed is fast.
Moreover, since a recent calculation is not used, a calculation error does not occur.
Therefore, the reference point detection accuracy is high.
図12は、本発明を実施するための形態例の撮像デバイスと光源の位置関係を表したものである。
例えば、図のように、撮像デバイス1のレンズ中心oの真横(x軸負方向)と真下(y軸負方向)に
光源9をそれぞれ配置する。
光源には使用者に不快感を与えない赤外線が照射可能な発光ダイオード等の投光器を用いる。
撮像デバイスには赤外光領域に応答可能なものを使用する。
さらに、赤外光以外の応答を抑制するようなフィルタを撮像デバイスのレンズに装着することで、投光器以外の照明(自然光など)の影響を抑えることができる。
FIG. 12 shows the positional relationship between an imaging device and a light source according to an embodiment for carrying out the present invention.
For example, as shown in the figure, the light sources 9 are respectively arranged just beside the lens center o of the imaging device 1 (x-axis negative direction) and directly below (y-axis negative direction).
As the light source, a projector such as a light emitting diode capable of emitting infrared rays that does not cause discomfort to the user is used.
An imaging device that can respond to the infrared light region is used.
Furthermore, by attaching a filter that suppresses a response other than infrared light to the lens of the imaging device, the influence of illumination (such as natural light) other than the projector can be suppressed.
撮像デバイスを使用者の眼球へ向けると、撮像デバイスには図1のように使用者の眼球像5およびx軸方向とy軸方向の光源に対応する2つのプルキニエ像p1i、p2iが映し出される。
「課題を解決するための手段」で説明したように、撮像デバイス上の基準点のy座標Riyはx軸方向の光源に対応するプルキニエ像p1iのy座標P1iyに等しい。
また、撮像デバイス上の基準点のx座標Rixもy軸方向の光源に対応するプルキニエ像p2iのx座標P2ixに等しい。
ゆえに、撮像デバイス上の2つのプルキニエ像の座標値P2ix、P1iyがそのまま撮像デバイス上の基準点riの座標値になる。
When the imaging device is directed toward the user's eyeball, the user's
As described in “Means for Solving the Problem”, the y coordinate Riy of the reference point on the imaging device is equal to the y coordinate P1ii of the Purkinje image p1i corresponding to the light source in the x-axis direction.
In addition, the x coordinate Rix of the reference point on the imaging device is also equal to the x coordinate P2ix of the Purkinje image p2i corresponding to the light source in the y-axis direction.
Therefore, the coordinate values P2ix and P1ii of the two Purkinje images on the imaging device become the coordinate values of the reference point ri on the imaging device as they are.
また、2つの光源の間隔をD0とし、撮像デバイス上の2つのプルキニエ像の間隔をDpとすると、レンズ中心から眼球までの距離F1は、特許文献2の式(3)の場合と同様に、
F1×(F1+Rc)≒F0×D0×Rc/Dp ・・・(4)
の関係を満足する。
すなわち、2つの光源の間隔D0と2つのプルキニエ像の間隔Dpよりレンズ中o心から眼球までの距離F1を導出できる。
ここで、2つの光源の間隔D0は、レンズ中心oからx軸方向の光源9までの距離をG、
レンズ中心oからy軸方向の光源9までの距離をHをすると、
D0=√(G2+H2)
と計算され、2つのプルキニエ像の間隔Dpは、
Dp=√{(P1ix−P2ix)2+(P1iy−P2iy)2}
と計算される。
また、2つのプルキニエ像のx座標間の距離やy座標間の距離でも同様にF1を導出できる。
Further, when the interval between the two light sources is D0 and the interval between the two Purkinje images on the imaging device is Dp, the distance F1 from the lens center to the eyeball is similar to the case of Equation (3) in
F1 × (F1 + Rc) ≈F0 × D0 × Rc / Dp (4)
Satisfy the relationship.
That is, the distance F1 from the center of the lens to the eyeball can be derived from the distance D0 between the two light sources and the distance Dp between the two Purkinje images.
Here, the distance D0 between the two light sources is the distance from the lens center o to the light source 9 in the x-axis direction G,
If the distance from the lens center o to the light source 9 in the y-axis direction is H,
D0 = √ (G2 + H2)
And the distance Dp between the two Purkinje images is
Dp = √ {(P1ix−P2ix) 2+ (P1ii−P2ii) 2}
Is calculated.
Similarly, F1 can be derived from the distance between the x coordinates and the distance between the y coordinates of two Purkinje images.
図13は、本発明に係る視線検出装置を視線入力によるポインティングデバイスに
適用した際の実施例を表したものである。
この図を参照しながらこの実施例について説明する。
FIG. 13 shows an embodiment when the line-of-sight detection apparatus according to the present invention is applied to a pointing device based on line-of-sight input.
This embodiment will be described with reference to this figure.
本発明に係る視線検出装置は、図13に示すように、カメラ等の撮像デバイス1、2つの光源9、演算装置10から構成され、本発明を視線入力によるポインティングデバイスに適用した場合は、さらにコンピュータ11、ディスプレー12から構成される。
使用者は撮像デバイスの正面から撮像デバイスへ顔を向ける。
まず、上記「最良の形態」で示したように設置した撮像デバイスの横側および下側の2つの光源から使用者の目3に向けて赤外光を照射する。
撮像デバイスには、使用者の眼球像5および2つのプルキニエ像p1i、p2iが映し出される。
演算装置では、瞳孔領域や虹彩領域を抽出し、それらの情報から瞳孔中心eiを特定する。
また、プルキニエ像の領域を抽出し位置を特定する。
この際、重心計算などの画像処理を利用することで撮像デバイスの解像度を超えた精度(サブピクセル)でプルキニエ像の位置を特定できる。
そして、撮像デバイス上の2つのプルキニエ像の座標値をそのまま撮像デバイス上の基準値の座標値riに当てはめる。
そして、式(2)に従い視線ベクトルを導出する。
この際、レンズ中心と眼球間の距離F1を式(6)で導出しても良いし、使用者の頭部を固定しても良いし、別の測定装置によりF1を直接測定しても良い。
そして、視線ベクトルから視線を表す直線4が求められる。
この視線4とディスプレー12を表す平面の交点が使用者の注視している位置13となる。
この注視している位置をコンピュータ上の座標値に変換し、ディスプレー上で入力可能な位置を示すカーソル14の座標値とすることで、視線入力によるカーソルの位置制御を行うことができる。
このカーソル座標値をコンピュータ11に送り、コンピュータはディスプレー12にカーソル14を表示させる。
As shown in FIG. 13, the line-of-sight detection apparatus according to the present invention is composed of an imaging device such as a
The user turns his / her face from the front of the imaging device to the imaging device.
First, infrared light is irradiated toward the user's
A user's
In the arithmetic device, the pupil region and the iris region are extracted, and the pupil center ei is specified from the information.
Further, the region of the Purkinje image is extracted and the position is specified.
At this time, the position of the Purkinje image can be specified with accuracy (subpixel) exceeding the resolution of the imaging device by using image processing such as centroid calculation.
Then, the coordinate values of the two Purkinje images on the imaging device are directly applied to the coordinate value ri of the reference value on the imaging device.
Then, a line-of-sight vector is derived according to Equation (2).
At this time, the distance F1 between the lens center and the eyeball may be derived by Expression (6), the user's head may be fixed, or F1 may be directly measured by another measuring device. .
Then, a straight line 4 representing the line of sight is obtained from the line-of-sight vector.
The intersection of the line of sight 4 and the plane representing the
By converting the gaze position into a coordinate value on the computer and setting it as the coordinate value of the cursor 14 indicating the position that can be input on the display, the position control of the cursor by the gaze input can be performed.
This cursor coordinate value is sent to the computer 11, and the computer displays the cursor 14 on the
実施例の視線入力によるポインティングデバイスのように、視線方向に基づいた対象物の操作への応用や、特許文献2にも挙げられている、カメラのファインダーに内蔵して使用者の視線方向に基づいた撮影のように、視線方向に基づいた画像や装置などの処理への応用が考えられる。
Application to the operation of an object based on the line-of-sight direction, such as a pointing device based on the line-of-sight input of the embodiment, or based on the line-of-sight direction of the user built in the camera finder, which is also cited in
1 撮像デバイス
2 撮像デバイスのレンズ
3 使用者の眼球
4 使用者の視線
5 撮像デバイスに映し出された使用者の眼球像
6 撮像デバイスに映し出された使用者の瞳孔画像
7 撮像デバイスに映し出された使用者の虹彩画像
8 ハーフミラー
9 光源
10 視線方向の演算装置
11 コンピュータ
12 コンピュータのディスプレー
13 使用者の注視位置
14 カーソル位置
DESCRIPTION OF
Claims (1)
The imaging direction of the imaging device is the depth direction, and two light sources are installed on the plane including the lens center in the vertical direction and the horizontal direction of the lens center, respectively, and the imaging device includes the pupil image of the user and the reflected images of the two light sources. An image acquisition means for acquiring an ocular image, and an ordinate of a reflection image of a light source installed in a lateral direction of the imaging device, with an intersection point on a linear imaging device connecting a lens center and a corneal curvature center as a reference point, and A line-of-sight detection method for detecting a line of sight from the positional relationship between the pupil image and the reference point, with the abscissa of the reflected image of the light source installed in the vertical direction as the ordinate and abscissa of the reference point, and the two reflections A line-of-sight calculation apparatus comprising: a distance measuring unit that calculates a distance between the user's eyeball and the imaging device from a distance between images.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005212264A JP2007029126A (en) | 2005-07-22 | 2005-07-22 | Line-of-sight detecting device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005212264A JP2007029126A (en) | 2005-07-22 | 2005-07-22 | Line-of-sight detecting device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007029126A true JP2007029126A (en) | 2007-02-08 |
Family
ID=37789107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005212264A Pending JP2007029126A (en) | 2005-07-22 | 2005-07-22 | Line-of-sight detecting device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007029126A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007209384A (en) * | 2006-02-07 | 2007-08-23 | Gen Tec:Kk | Visual axis vector detecting method and device |
JP2010230651A (en) * | 2009-03-27 | 2010-10-14 | Utechzone Co Ltd | Visual line tracing method and visual line tracing system |
JP2010237979A (en) * | 2009-03-31 | 2010-10-21 | Kddi Corp | Information terminal equipment |
JP2012029940A (en) * | 2010-07-30 | 2012-02-16 | Hiroshima City Univ | Method and apparatus for measuring visual axis |
JP5229928B1 (en) * | 2012-08-30 | 2013-07-03 | 広太郎 海野 | Gaze position specifying device and gaze position specifying program |
JP2013528406A (en) * | 2010-03-22 | 2013-07-11 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | System and method for tracking observer's line of sight |
US8523358B2 (en) | 2010-12-27 | 2013-09-03 | Casio Computer Co., Ltd. | Information processing apparatus, method, and storage medium storing program |
WO2016088418A1 (en) * | 2014-12-02 | 2016-06-09 | ソニー株式会社 | Information processing device, information processing method, and program |
CN109715046A (en) * | 2017-08-04 | 2019-05-03 | 株式会社艾尔莱兹 | Ophthalmic measurement device and ophthalmic measurement system |
-
2005
- 2005-07-22 JP JP2005212264A patent/JP2007029126A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007209384A (en) * | 2006-02-07 | 2007-08-23 | Gen Tec:Kk | Visual axis vector detecting method and device |
JP2010230651A (en) * | 2009-03-27 | 2010-10-14 | Utechzone Co Ltd | Visual line tracing method and visual line tracing system |
JP2010237979A (en) * | 2009-03-31 | 2010-10-21 | Kddi Corp | Information terminal equipment |
JP2013528406A (en) * | 2010-03-22 | 2013-07-11 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | System and method for tracking observer's line of sight |
JP2012029940A (en) * | 2010-07-30 | 2012-02-16 | Hiroshima City Univ | Method and apparatus for measuring visual axis |
US8523358B2 (en) | 2010-12-27 | 2013-09-03 | Casio Computer Co., Ltd. | Information processing apparatus, method, and storage medium storing program |
JP5229928B1 (en) * | 2012-08-30 | 2013-07-03 | 広太郎 海野 | Gaze position specifying device and gaze position specifying program |
WO2016088418A1 (en) * | 2014-12-02 | 2016-06-09 | ソニー株式会社 | Information processing device, information processing method, and program |
CN106999038A (en) * | 2014-12-02 | 2017-08-01 | 索尼公司 | Message processing device, information processing method and program |
CN109715046A (en) * | 2017-08-04 | 2019-05-03 | 株式会社艾尔莱兹 | Ophthalmic measurement device and ophthalmic measurement system |
US11058295B2 (en) | 2017-08-04 | 2021-07-13 | Elrise Corporation | Ophthalmic measurement device and ophthalmic measurement system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6902075B2 (en) | Line-of-sight tracking using structured light | |
US10154254B2 (en) | Time-of-flight depth sensing for eye tracking | |
KR102062658B1 (en) | Sphere tracking of the cornea to create an ocular model | |
US9904054B2 (en) | Headset with strain gauge expression recognition system | |
JP2007029126A (en) | Line-of-sight detecting device | |
US20140218281A1 (en) | Systems and methods for eye gaze determination | |
US9244529B2 (en) | Point-of-gaze estimation robust to head rotations and/or device rotations | |
US6659611B2 (en) | System and method for eye gaze tracking using corneal image mapping | |
US10304253B2 (en) | Computer program, object tracking method, and display device | |
WO2019085487A1 (en) | Display apparatus and method and device for adjusting image display of the display apparatus | |
JP2010259605A (en) | Visual line measuring device and visual line measuring program | |
WO2007113975A1 (en) | View point detecting device | |
US20190073820A1 (en) | Ray Tracing System for Optical Headsets | |
CN116033864A (en) | Eye tracking using non-spherical cornea models | |
JP2018099174A (en) | Pupil detector and pupil detection method | |
US9002074B2 (en) | Facial validation sensor | |
JP2005253778A (en) | Visual axis detecting method and device | |
JP2019215688A (en) | Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration | |
JP2014042806A (en) | Gaze line measuring method, gaze line measuring device, eyeball turning point measuring method and eye point measuring device | |
WO2019021601A1 (en) | Information processing device, information processing method, and program | |
JP6747172B2 (en) | Diagnosis support device, diagnosis support method, and computer program | |
JP5590487B2 (en) | Gaze measurement method and gaze measurement device | |
CN113138664A (en) | Eyeball tracking system and method based on light field perception | |
JP2016200753A (en) | Image display device | |
WO2019116675A1 (en) | Information processing device, information processing method, and program |