JP2007029126A - Line-of-sight detecting device - Google Patents

Line-of-sight detecting device Download PDF

Info

Publication number
JP2007029126A
JP2007029126A JP2005212264A JP2005212264A JP2007029126A JP 2007029126 A JP2007029126 A JP 2007029126A JP 2005212264 A JP2005212264 A JP 2005212264A JP 2005212264 A JP2005212264 A JP 2005212264A JP 2007029126 A JP2007029126 A JP 2007029126A
Authority
JP
Japan
Prior art keywords
imaging device
image
reference point
line
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005212264A
Other languages
Japanese (ja)
Inventor
Seiji Kameda
成司 亀田
Katsuhisa Okame
勝久 大亀
Atsushi Iwata
穆 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SYSTEM ARTWARE KK
Original Assignee
SYSTEM ARTWARE KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SYSTEM ARTWARE KK filed Critical SYSTEM ARTWARE KK
Priority to JP2005212264A priority Critical patent/JP2007029126A/en
Publication of JP2007029126A publication Critical patent/JP2007029126A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve detection precision and to simplify processing in a line-of-sight detecting device for detecting a user's line of sight. <P>SOLUTION: An imaging direction of an imaging device is taken as the depth direction, and two light sources are disposed respectively in the lengthwise direction and the lateral direction of the center of a lens in a plane including the center of the lens. An eye ball image 5 including a user's pupil image and two reflection images p1i, p2i of the light sources is acquired. Then, an intersection of a straight line connecting the center of the lens and the center of a corneal curvature with the imaging device is taken as a reference point ri, and the ordinate of the reflection image of the light source placed in the lateral direction of the imaging device and the abscissa of the reflection image of the light source placed in the lengthwise direction are respectively taken as the ordinate and abscissa of the reference point. The direction of the line of sight is detected from the positional relationship between the pupil image and the reference point. Since coordinates of the reference point are determined only by obtaining the coordinates of the reflection images of the light sources, no calculation errors due to the calculation of the reference point are made, and the processing is simplified. Moreover, a distance between the eyeball and the imaging device is calculated from a distance Dp between the reflection images of two light sources. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、使用者の視線の検出装置に関し、特に、光源をカメラ等の撮像デバイスの周辺に配置し、撮像デバイスで取得した使用者の眼球像と眼球上の光源の反射像を利用した視線の検出装置に関する。
The present invention relates to an apparatus for detecting a user's line of sight, and in particular, a line of sight using a user's eyeball image acquired by the image pickup device and a reflection image of the light source on the eyeball obtained by arranging a light source around an imaging device such as a camera. The present invention relates to a detection device.

カメラ等の撮像デバイスから得た使用者の目の画像情報から使用者の眼球の回転角を算出し視線の方向を検出する手法及び装置は既に様々に提案されている。
Various methods and apparatuses for calculating the rotation angle of the user's eyeball from the image information of the user's eye obtained from an imaging device such as a camera and detecting the direction of the line of sight have already been proposed.

視線検出の基本的な手法を図2、3、4を用いて説明する。図2にカメラ等の撮像デバイス1の座標系を定義する。
左図のように撮像デバイスの撮像方向を奥行方向の軸としてz軸をとり、レンズ中心を含む平面上の横軸をx軸、縦軸をy軸とする。
それぞれの軸は垂直に交わる。右図は撮像デバイスを正面から見た図である。図3は視線検出手法の原理を説明する図である。
撮像デバイス1と使用者の眼球3を上(y軸正方向)側から見たものである。
撮像デバイスのレンズ2のレンズ中心oから撮像デバイス1および眼球3までの距離をそれぞれF0、F1、角膜曲率半径をRcと表す。
図3において使用者の視線4と角膜表面との交点をeとすると、使用者の視線方向はベクトル<ce>(以下、視線ベクトルと呼ぶ)で表され、視線はこれらの点を結んだ直線ce(以下、視線ceと呼ぶ)で表される。
(ここで、本文では点aから点bへのベクトルの表記を<ab>とする。)
使用者の視線と角膜表面との交点eを表す対象は色々提案されているが、代表的なものは角膜表面の瞳孔や虹彩の中心位置である。
また、瞳孔は角膜より内部にあり角膜表面には屈折した像が現れるので、屈折を考慮した瞳孔中心を交点eとする手法もある(非特許文献1)。
以下の説明では、瞳孔中心を視線と角膜表面との交点eとして説明する。視線検出では、この視線ベクトル<ce>
および視線ceを導出することが目的となる。
A basic method of eye gaze detection will be described with reference to FIGS. FIG. 2 defines a coordinate system of the imaging device 1 such as a camera.
As shown in the left figure, the z-axis is taken with the imaging direction of the imaging device as the axis in the depth direction, the horizontal axis on the plane including the lens center is the x-axis, and the vertical axis is the y-axis.
Each axis intersects vertically. The right figure is a view of the imaging device as seen from the front. FIG. 3 is a diagram for explaining the principle of the gaze detection method.
The imaging device 1 and the user's eyeball 3 are viewed from above (y-axis positive direction).
The distances from the lens center o of the lens 2 of the imaging device to the imaging device 1 and the eyeball 3 are respectively represented as F0 and F1, and the corneal curvature radius is represented as Rc.
In FIG. 3, when the intersection between the user's line of sight 4 and the corneal surface is e, the user's line of sight direction is represented by a vector <ce> (hereinafter referred to as a line of sight vector), and the line of sight is a straight line connecting these points. ce (hereinafter referred to as line of sight ce).
(Here, in the text, the vector notation from point a to point b is <ab>.)
Various objects representing the intersection point e between the user's line of sight and the corneal surface have been proposed, but a typical one is the center position of the pupil or iris on the corneal surface.
Further, since the pupil is inside the cornea and a refracted image appears on the surface of the cornea, there is a method in which the center of the pupil considering refraction is set as the intersection point e (Non-patent Document 1).
In the following description, the center of the pupil will be described as the intersection point e between the line of sight and the corneal surface. In the gaze detection, this gaze vector <ce>
The purpose is to derive the sight line ce.

視線ベクトル<ce>は、レンズ中心oを基点に、<ce>=<oe>−<oc> ・・・(1)
と、レンズ中心oから瞳孔中心eへのベクトル<oe>および角膜曲率中心cへのベクトル<oc>で表せる。
ここで、レンズ中心oと角膜曲率中心cを結ぶ線分ocと角膜表面の交点を基準点rとし、
レンズ系を通して撮像デバイスに映し出された画像における瞳孔中心および基準点に対応する点をそれぞれ、
ei=(Eix,Eiy,Eiz)
ri=(Rix,Riy,Riz)
と表す。ここで、Eiz=Riz=−F0である。
角膜曲率中心cと撮像デバイス上の基準点riは、レンズ中心oを通る同一直線上にあるので、ベクトル<oc>は、幾何学的条件から、
<oc>={(F1+Rc)/F0}×<rio>
と表せる。
また、角膜表面の瞳孔中心eと撮像デバイス上の瞳孔中心eiも、レンズ中心oを通る同一直線上にある。
ここで、レンズ中心からz座標方向に伸ばした直線と角膜曲率中心間が大きく離れていない場合、あるいはレンズ中心から眼球までの距離F1が十分長い場合は、角膜表面の瞳孔中心のz座標をF1に近似できる。
このとき、ベクトル<oe>は、幾何学的条件から、
<oe>=(F1/F0)×<eio>
と表せる。
(近似を使わない場合は、直線oeiと角膜表面の交点により求める。)
ゆえに視線ベクトル<ce>は、式(1)から、
<ce>={(F1+Rc)/F0}×<ori>−(F1/F0)×<oei> ・・・(2)
と表せる。
The line-of-sight vector <ce> is based on the lens center o as <ce> = <oe> − <oc> (1)
And a vector <oe> from the lens center o to the pupil center e and a vector <oc> from the corneal curvature center c.
Here, the intersection point between the segment oc connecting the lens center o and the corneal curvature center c and the corneal surface is defined as a reference point r,
The points corresponding to the pupil center and the reference point in the image projected on the imaging device through the lens system, respectively,
ei = (Eix, Eiy, Eiz)
ri = (Rix, Riy, Riz)
It expresses. Here, Eiz = Riz = −F0.
Since the corneal curvature center c and the reference point ri on the imaging device are on the same straight line passing through the lens center o, the vector <oc>
<Oc> = {(F1 + Rc) / F0} × <rio>
It can be expressed.
The pupil center e on the corneal surface and the pupil center ei on the imaging device are also on the same straight line passing through the lens center o.
Here, if the straight line extending from the lens center in the z-coordinate direction and the corneal curvature center are not far apart, or if the distance F1 from the lens center to the eyeball is sufficiently long, the z-coordinate of the pupil center on the corneal surface is expressed as F1. Can be approximated.
At this time, the vector <oe>
<Oe> = (F1 / F0) × <eo>
It can be expressed.
(If approximation is not used, it is obtained from the intersection of the straight line oei and the corneal surface.)
Therefore, the line-of-sight vector <ce> is obtained from the equation (1):
<Ce> = {(F1 + Rc) / F0} × <ori> − (F1 / F0) × <oei> (2)
It can be expressed.

式(2)内の各パラメータを以下で検証する。
レンズ中心と撮像デバイス間の距離F0は既定である。
レンズ中心と眼球像間の距離F1は使用者の頭部を固定するなどして規定値に使用者を拘束するか、撮像デバイスや測定装置等を使ってF1を直接測定することで決まる。
角膜曲率半径Rcは解剖学的に人間の平均的な値が知られているので利用できる。
撮像デバイス上での瞳孔中心eiは、撮像デバイスで取得した眼球像から検出する。
図4のように、レンズを通して撮像デバイスに使用者の眼球像5が映し出される。
映し出された画像はレンズにより反転されるので、図4ではz軸を中心に座標系を180度反転させている。
この眼球像中の瞳孔6や虹彩7の画像情報から点eiが検出できる。
そして、最後に残った視線ベクトル導出に必要なパラメータが撮像デバイス上での基準点riである。
したがって、視線を検出するには撮像デバイス上での基準点riをどのように求めるかが問題となる。
Each parameter in equation (2) is verified below.
The distance F0 between the lens center and the imaging device is predetermined.
The distance F1 between the center of the lens and the eyeball image is determined by restraining the user to a specified value by fixing the user's head or by directly measuring F1 using an imaging device, a measuring apparatus, or the like.
The corneal curvature radius Rc can be used because an average human value is known anatomically.
The pupil center ei on the imaging device is detected from the eyeball image acquired by the imaging device.
As shown in FIG. 4, the user's eyeball image 5 is displayed on the imaging device through the lens.
Since the projected image is inverted by the lens, the coordinate system is inverted 180 degrees around the z axis in FIG.
The point ei can be detected from the image information of the pupil 6 and the iris 7 in the eyeball image.
The last remaining parameter necessary for deriving the line-of-sight vector is the reference point ri on the imaging device.
Therefore, how to obtain the reference point ri on the imaging device is a problem in detecting the line of sight.

基準点の導出に広く用いられているのが角膜反射法と呼ばれる手法である。
これは、撮像デバイス側に光源を設置し、撮像デバイスで眼球の画像と一緒に光源の角膜上の反射像(プルキニエ像)を取得し、この反射像から視線算出のための基準点を導出する手法である。
A technique called corneal reflection method is widely used for deriving the reference point.
In this method, a light source is installed on the imaging device side, and a reflection image (Purkinje image) on the cornea of the light source is acquired together with an image of the eyeball by the imaging device, and a reference point for calculating a line of sight is derived from the reflection image. It is a technique.

最も直接的な手法は、特許文献1に示されているハーフミラーを用いたものである。
図5を用いて手法を説明する。
撮像デバイス1と使用者の眼球3を側面(x軸負方向)から見たものである。
眼球とレンズ2の間にハーフミラー8を45度の角度で挿入し、その上部に光源9を設置する。光源からの光はハーフミラーで反射して角膜上にプルキニエ像pが形成される。このとき、プルキニエ像は基準点に一致する。
したがって、撮像デバイス上に映し出されたプルキニエ像piを基準点riとして
式(2)に代入することで視線ベクトルが導出できる。
ただし、この手法の場合は光源からの光が瞳孔の中心付近に照射されることになる。
通常、光源には赤外光を用いる。
理論上、赤外光は撮像デバイスでは検知できるが、人間には知覚できない。
しかし、赤外光のパワーが強いと人間にはストレスに感じられることが知られている。
ゆえに、瞳孔の中心付近に光源からの光が照射されるのは問題である。
The most direct method is to use a half mirror shown in Patent Document 1.
The method will be described with reference to FIG.
The imaging device 1 and the user's eyeball 3 are viewed from the side surface (x-axis negative direction).
A half mirror 8 is inserted at an angle of 45 degrees between the eyeball and the lens 2, and a light source 9 is installed on the half mirror 8. The light from the light source is reflected by the half mirror and a Purkinje image p is formed on the cornea. At this time, the Purkinje image coincides with the reference point.
Therefore, the line-of-sight vector can be derived by substituting the Purkinje image pi projected on the imaging device into the equation (2) as the reference point ri.
However, in the case of this method, light from the light source is irradiated near the center of the pupil.
Usually, infrared light is used as the light source.
In theory, infrared light can be detected by an imaging device, but cannot be perceived by humans.
However, it is known that humans feel stress when the power of infrared light is strong.
Therefore, it is a problem that light from the light source is irradiated near the center of the pupil.

そこで、光源からの光が瞳孔付近に入射しないように光源の位置を調整しているのが非特許文献1のような手法である。
非特許文献1では図6のように撮像デバイスの下側(y軸負方向)に光源9を設置することで基準点とプルキニエ像の位置をあえてずらしている。
図7、8を用いて手法を説明する。
図7の下図は、撮像デバイス1と使用者の眼球3を側面(x軸負方向)から見たものである。
図7の上図は、撮像デバイス1と使用者の眼球3を上(y軸正方向)側から見たものである。
上下の図においてz軸方向を合わせている。
図8は、撮像デバイスに映し出された使用者の眼球像5およびプルキニエ像piを表している。
図7の下図のように、レンズ中心oからy軸負方向に光源9を設置しているので、
プルキニエ像pは基準点rから下方向にずれる。
このずれΔpは、レンズ中心と光源間の距離H、角膜曲率半径Rc、レンズ中心から眼球までの距離F1から、F1がRcより十分大きい場合、近似的に、
Δp≒(Rc×H)/2F1
のように導出できる。
ゆえに、撮像デバイス上の基準点のy座標Riyは、撮像デバイス上のプルキニエ像のy座標Piyから、
Riy≒Piy−(F0/F1)Δp
と近似的に導出できる。
一方、x軸方向については、図7の上図のように、レンズ中心からy軸負方向に光源9を設置している場合は、xz平面において、レンズ中心から角膜曲率中心への線分と
光源から角膜曲率中心への線分が一致する。
これは眼球の位置が移動しても常に成り立つ。
ゆえに、撮像デバイス上での基準点のx座標Rixは、撮像デバイス上でのプルキニエ像のx座標Pixに等しい。
したがって図8のように、撮像デバイス上のプルキニエ像piの真上(y軸負方向)に
基準点riが存在する。
Therefore, the technique as in Non-Patent Document 1 adjusts the position of the light source so that light from the light source does not enter the vicinity of the pupil.
In Non-Patent Document 1, as shown in FIG. 6, the position of the reference point and the Purkinje image is intentionally shifted by installing the light source 9 below the imaging device (in the negative y-axis direction).
The method will be described with reference to FIGS.
The lower diagram in FIG. 7 is a view of the imaging device 1 and the user's eyeball 3 as viewed from the side (in the negative x-axis direction).
7 shows the imaging device 1 and the user's eyeball 3 as viewed from above (y-axis positive direction).
In the upper and lower figures, the z-axis direction is aligned.
FIG. 8 shows the user's eyeball image 5 and Purkinje image pi projected on the imaging device.
Since the light source 9 is installed in the negative y-axis direction from the lens center o as shown in the lower diagram of FIG.
The Purkinje image p is shifted downward from the reference point r.
This deviation Δp is approximately when the distance H from the lens center to the light source, the corneal curvature radius Rc, and the distance F1 from the lens center to the eyeball is sufficiently larger than Rc,
Δp≈ (Rc × H) / 2F1
Can be derived as follows.
Therefore, the y coordinate Riy of the reference point on the imaging device is obtained from the y coordinate Piy of the Purkinje image on the imaging device.
Riy≈Py− (F0 / F1) Δp
Can be approximated.
On the other hand, in the x-axis direction, as shown in the upper diagram of FIG. 7, when the light source 9 is installed in the negative y-axis direction from the lens center, the line segment from the lens center to the corneal curvature center in the xz plane The line segment from the light source to the corneal curvature center matches.
This is always true even if the position of the eyeball moves.
Therefore, the x coordinate Rix of the reference point on the imaging device is equal to the x coordinate Pix of the Purkinje image on the imaging device.
Therefore, as shown in FIG. 8, the reference point ri exists immediately above the Purkinje image pi on the imaging device (in the negative y-axis direction).

また、特許文献2のように2つの光源を用いる手法も考えられている。
特許文献2では図9のように撮像デバイス1の両脇(x軸方向)に光源9を設置している。
図10、11を用いて手法を説明する。
図10は、撮像デバイス1と使用者の眼球3を上(y軸正方向)側から見たものである。
図11は、撮像デバイスに映し出された使用者の眼球像5および2つのプルキニエ像p1i、p2iを表している。
レンズ中心oの左右に同じ距離Gで光源9を設置すると、プルキニエ像は基準点rを挟んだ左右p1、p2に形成される。
そして、基準点のx座標Rxは、2つのプルキニエ像のx座標P1x、P2xの中点に近似的に一致する。
このとき、角膜上の基準点と同様に、撮像デバイス上の基準点のx座標Rixも
Rix≒(P1ix+P2ix)/2
と表され、撮像デバイス上の2つのプルキニエ像P1ix、P2ixの中点に近似的に一致する。
一方、y軸方向については、図7の上図においてx軸とy軸とを入れ替えた状況に等しい。
つまり、光源がレンズ中心の通るx軸上に配置されている場合、撮像デバイス上での基準点のy座標Riyは、撮像デバイス上での2つのプルキニエ像P1iy、P2iyと等しい。
ゆえに図11のように、撮像デバイス上の2つのプルキニエ像p1i、p2iはx軸と平行に並び、その中点が基準点riとなる。
A method using two light sources as in Patent Document 2 is also considered.
In Patent Document 2, the light source 9 is installed on both sides (x-axis direction) of the imaging device 1 as shown in FIG.
The method will be described with reference to FIGS.
FIG. 10 is a view of the imaging device 1 and the user's eyeball 3 as seen from above (y-axis positive direction).
FIG. 11 shows a user's eyeball image 5 and two Purkinje images p1i and p2i projected on the imaging device.
When the light source 9 is installed at the same distance G on the left and right of the lens center o, Purkinje images are formed on the left and right p1 and p2 with the reference point r in between.
The x coordinate Rx of the reference point approximately matches the midpoint of the x coordinates P1x and P2x of the two Purkinje images.
At this time, similarly to the reference point on the cornea, the x coordinate Rix of the reference point on the imaging device is also Rix≈ (P1ix + P2ix) / 2.
And approximately coincides with the midpoint between the two Purkinje images P1ix and P2ix on the imaging device.
On the other hand, the y-axis direction is equivalent to the situation in which the x-axis and the y-axis are interchanged in the upper diagram of FIG.
That is, when the light source is arranged on the x axis passing through the center of the lens, the y coordinate Riy of the reference point on the imaging device is equal to the two Purkinje images P1iiy and P2iiy on the imaging device.
Therefore, as shown in FIG. 11, the two Purkinje images p1i and p2i on the imaging device are arranged in parallel with the x axis, and the midpoint thereof is the reference point ri.

さらに、特許文献2の手法では、
レンズ中心から眼球(正確にはプルキニエ像の発生位置)までの距離F1は、
F1×(F1+Rc)≒F0×G×Rc/|P1ix−P2ix| ・・・(3)
の関係を満足する。
すなわち、撮像デバイス上の2つのプルキニエ像の間隔|P1ix−P2ix|
から、レンズ中心oと眼球間の距離F1を導出できる。

大野健彦、武川直樹、吉川厚、‘‘2点補正による簡易キャリブレーションを実現した視線測定システム’’、情報処理学会論文誌、Vol.44、No.4、pp.1136−1149、2003. 特開S61−172552号公報 特開H02−264632号公報
Furthermore, in the method of Patent Document 2,
The distance F1 from the center of the lens to the eyeball (exactly where the Purkinje image is generated) is:
F1 × (F1 + Rc) ≈F0 × G × Rc / | P1ix−P2ix | (3)
Satisfy the relationship.
That is, the interval | P1ix−P2ix | between two Purkinje images on the imaging device
From this, the distance F1 between the lens center o and the eyeball can be derived.

Takehiko Ohno, Naoki Takegawa, Atsushi Yoshikawa, “Gaze Measurement System Realizing Simple Calibration with Two-Point Correction”, Transactions of Information Processing Society of Japan, Vol. 44, no. 4, pp. 1136-1149, 2003. JP S61-172552 A JP H02-264632 A

背景技術において説明した非特許文献1や特許文献2の手法では測定誤差や計算誤差の影響を受けやすい。
The methods of Non-Patent Document 1 and Patent Document 2 described in the background art are easily affected by measurement errors and calculation errors.

非特許文献1の手法の場合、
プルキニエ像から基準点を導出する際に、y座標に関しては光源やレンズ中心から眼球までの距離情報が必要である。
距離情報の測定手段によるが、この情報には測定誤差が発生しやすい。
また、近似式を使っているので計算誤差も発生してしまう。
In the case of the method of Non-Patent Document 1,
When deriving the reference point from the Purkinje image, distance information from the light source or lens center to the eyeball is necessary for the y coordinate.
Although it depends on the distance information measuring means, a measurement error is likely to occur in this information.
Moreover, since an approximate expression is used, a calculation error also occurs.

特許文献2の手法の場合、非特許文献1の手法に比べると、光源やレンズ中心から眼球までの距離情報が必要ではないので測定誤差の影響は小さいと考えられる。
しかし厳密には、2つのプルキニエ像の中点が基準点と等しくなるのは、レンズ中心を通るz軸に平行な直線上に角膜曲率中心cが存在する場合に限定される。
したがって、角膜曲率中心すなわち眼球位置がその直線から離れるほど導出する基準点のx座標に近似誤差を生じることになる。
もちろん上記のような中点による近似を使わない方法も考えられるが、光源やレンズ中心から眼球までの距離情報が必要となり、かつ計算コストが高くなる問題が新たに生じる。
In the case of the method of Patent Document 2, it is considered that the influence of the measurement error is small because the distance information from the light source and the lens center to the eyeball is not necessary as compared with the method of Non-Patent Document 1.
However, strictly speaking, the midpoint of the two Purkinje images is equal to the reference point only when the corneal curvature center c exists on a straight line passing through the lens center and parallel to the z-axis.
Therefore, an approximation error occurs in the x-coordinate of the reference point derived as the center of the corneal curvature, that is, the eyeball position moves away from the straight line.
Of course, a method that does not use the above approximation by the midpoint is also conceivable. However, distance information from the light source and the center of the lens to the eyeball is necessary, and a new problem of high calculation cost arises.

非特許文献1における撮像デバイス上の基準点のx座標Rix、特許文献2における撮像デバイス上の基準点のy座標Riyの導出方法に着目した。
すなわち、非特許文献1では、図7の上図のように、レンズ中心oからy軸方向にずらして光源9を設置している場合は、xz平面において、レンズ中心から角膜曲率中心への線分と光源から角膜曲率中心への線分が幾何学的に一致する。
ゆえに、撮像デバイス1上での基準点のx座標Rixは、撮像デバイス上でのプルキニエ像のx座標Pixに等しい。
同様に、特許文献2では、
レンズ中心からx軸方向にずらして光源を設置している場合は、yz平面において、レンズ中心から角膜曲率中心への線分と光源から角膜曲率中心への線分が幾何学的に一致する。ゆえに、撮像デバイス上での基準点のy座標Riyは、撮像デバイス上でのプルキニエ像のx座標Piyに等しい。
つまり、レンズ中心からy軸方向に光源を設置している場合は撮像デバイス上の基準点のx座標が、レンズ中心からx軸方向に光源を設置している場合は
撮像デバイス上の基準点のy座標が、それぞれプルキニエ像を検出するだけで近似無しで正しく導出できる。
Attention was paid to the method of deriving the x-coordinate Rix of the reference point on the imaging device in Non-Patent Document 1 and the y-coordinate Riy of the reference point on the imaging device in Patent Document 2.
That is, in Non-Patent Document 1, as shown in the upper diagram of FIG. 7, when the light source 9 is installed shifted from the lens center o in the y-axis direction, a line from the lens center to the corneal curvature center in the xz plane. The line segment from the light source to the corneal curvature center geometrically matches.
Therefore, the x coordinate Rix of the reference point on the imaging device 1 is equal to the x coordinate Pix of the Purkinje image on the imaging device.
Similarly, in Patent Document 2,
In the case where the light source is installed shifted from the lens center in the x-axis direction, the line segment from the lens center to the corneal curvature center and the line segment from the light source to the corneal curvature center in the yz plane geometrically match. Therefore, the y coordinate Riy of the reference point on the imaging device is equal to the x coordinate Piy of the Purkinje image on the imaging device.
That is, when the light source is installed in the y-axis direction from the center of the lens, the x coordinate of the reference point on the imaging device is equal to that of the reference point on the imaging device when the light source is installed in the x-axis direction from the lens center. The y-coordinate can be correctly derived without approximation only by detecting the Purkinje image.

そこで本発明では、
2つの光源をレンズ中心からx軸方向とy軸方向にそれぞれずらして配置し、それぞれの光源に対応する撮像デバイス上のプルキニエ像の座標値を検出する。
そして、x軸方向にずらした光源に対応するプルキニエ像のy座標を撮像デバイス上の基準点のy座標とし、y軸方向にずらした光源に対応するプルキニエ像のx座標を
撮像デバイス上の基準点のx座標とする。
Therefore, in the present invention,
Two light sources are arranged so as to be shifted from the lens center in the x-axis direction and the y-axis direction, respectively, and the coordinate value of the Purkinje image on the imaging device corresponding to each light source is detected.
Then, the y coordinate of the Purkinje image corresponding to the light source shifted in the x-axis direction is set as the y coordinate of the reference point on the imaging device, and the x coordinate of the Purkinje image corresponding to the light source shifted in the y-axis direction is the reference on the imaging device. Let it be the x coordinate of the point.

本発明では、
撮像デバイス上でのプルキニエ像の座標値がそのまま撮像デバイス上の基準点の座標値となるので、基準点を導出するための数値演算を必要としない。
ゆえに、基準点の検出手順が簡潔で検出速度も速い。
また、近時計算を使用しないので計算誤差が発生しない。
ゆえに、基準点の検出精度が高い。
In the present invention,
Since the coordinate value of the Purkinje image on the image pickup device becomes the coordinate value of the reference point on the image pickup device as it is, numerical calculation for deriving the reference point is not required.
Therefore, the reference point detection procedure is simple and the detection speed is fast.
Moreover, since a recent calculation is not used, a calculation error does not occur.
Therefore, the reference point detection accuracy is high.

図12は、本発明を実施するための形態例の撮像デバイスと光源の位置関係を表したものである。
例えば、図のように、撮像デバイス1のレンズ中心oの真横(x軸負方向)と真下(y軸負方向)に
光源9をそれぞれ配置する。
光源には使用者に不快感を与えない赤外線が照射可能な発光ダイオード等の投光器を用いる。
撮像デバイスには赤外光領域に応答可能なものを使用する。
さらに、赤外光以外の応答を抑制するようなフィルタを撮像デバイスのレンズに装着することで、投光器以外の照明(自然光など)の影響を抑えることができる。
FIG. 12 shows the positional relationship between an imaging device and a light source according to an embodiment for carrying out the present invention.
For example, as shown in the figure, the light sources 9 are respectively arranged just beside the lens center o of the imaging device 1 (x-axis negative direction) and directly below (y-axis negative direction).
As the light source, a projector such as a light emitting diode capable of emitting infrared rays that does not cause discomfort to the user is used.
An imaging device that can respond to the infrared light region is used.
Furthermore, by attaching a filter that suppresses a response other than infrared light to the lens of the imaging device, the influence of illumination (such as natural light) other than the projector can be suppressed.

撮像デバイスを使用者の眼球へ向けると、撮像デバイスには図1のように使用者の眼球像5およびx軸方向とy軸方向の光源に対応する2つのプルキニエ像p1i、p2iが映し出される。
「課題を解決するための手段」で説明したように、撮像デバイス上の基準点のy座標Riyはx軸方向の光源に対応するプルキニエ像p1iのy座標P1iyに等しい。
また、撮像デバイス上の基準点のx座標Rixもy軸方向の光源に対応するプルキニエ像p2iのx座標P2ixに等しい。
ゆえに、撮像デバイス上の2つのプルキニエ像の座標値P2ix、P1iyがそのまま撮像デバイス上の基準点riの座標値になる。
When the imaging device is directed toward the user's eyeball, the user's eyeball image 5 and two Purkinje images p1i and p2i corresponding to the light sources in the x-axis direction and the y-axis direction are displayed on the imaging device as shown in FIG.
As described in “Means for Solving the Problem”, the y coordinate Riy of the reference point on the imaging device is equal to the y coordinate P1ii of the Purkinje image p1i corresponding to the light source in the x-axis direction.
In addition, the x coordinate Rix of the reference point on the imaging device is also equal to the x coordinate P2ix of the Purkinje image p2i corresponding to the light source in the y-axis direction.
Therefore, the coordinate values P2ix and P1ii of the two Purkinje images on the imaging device become the coordinate values of the reference point ri on the imaging device as they are.

また、2つの光源の間隔をD0とし、撮像デバイス上の2つのプルキニエ像の間隔をDpとすると、レンズ中心から眼球までの距離F1は、特許文献2の式(3)の場合と同様に、
F1×(F1+Rc)≒F0×D0×Rc/Dp ・・・(4)
の関係を満足する。
すなわち、2つの光源の間隔D0と2つのプルキニエ像の間隔Dpよりレンズ中o心から眼球までの距離F1を導出できる。
ここで、2つの光源の間隔D0は、レンズ中心oからx軸方向の光源9までの距離をG、
レンズ中心oからy軸方向の光源9までの距離をHをすると、
D0=√(G2+H2)
と計算され、2つのプルキニエ像の間隔Dpは、
Dp=√{(P1ix−P2ix)2+(P1iy−P2iy)2}
と計算される。
また、2つのプルキニエ像のx座標間の距離やy座標間の距離でも同様にF1を導出できる。
Further, when the interval between the two light sources is D0 and the interval between the two Purkinje images on the imaging device is Dp, the distance F1 from the lens center to the eyeball is similar to the case of Equation (3) in Patent Document 2,
F1 × (F1 + Rc) ≈F0 × D0 × Rc / Dp (4)
Satisfy the relationship.
That is, the distance F1 from the center of the lens to the eyeball can be derived from the distance D0 between the two light sources and the distance Dp between the two Purkinje images.
Here, the distance D0 between the two light sources is the distance from the lens center o to the light source 9 in the x-axis direction G,
If the distance from the lens center o to the light source 9 in the y-axis direction is H,
D0 = √ (G2 + H2)
And the distance Dp between the two Purkinje images is
Dp = √ {(P1ix−P2ix) 2+ (P1ii−P2ii) 2}
Is calculated.
Similarly, F1 can be derived from the distance between the x coordinates and the distance between the y coordinates of two Purkinje images.

図13は、本発明に係る視線検出装置を視線入力によるポインティングデバイスに
適用した際の実施例を表したものである。
この図を参照しながらこの実施例について説明する。
FIG. 13 shows an embodiment when the line-of-sight detection apparatus according to the present invention is applied to a pointing device based on line-of-sight input.
This embodiment will be described with reference to this figure.

本発明に係る視線検出装置は、図13に示すように、カメラ等の撮像デバイス1、2つの光源9、演算装置10から構成され、本発明を視線入力によるポインティングデバイスに適用した場合は、さらにコンピュータ11、ディスプレー12から構成される。
使用者は撮像デバイスの正面から撮像デバイスへ顔を向ける。
まず、上記「最良の形態」で示したように設置した撮像デバイスの横側および下側の2つの光源から使用者の目3に向けて赤外光を照射する。
撮像デバイスには、使用者の眼球像5および2つのプルキニエ像p1i、p2iが映し出される。
演算装置では、瞳孔領域や虹彩領域を抽出し、それらの情報から瞳孔中心eiを特定する。
また、プルキニエ像の領域を抽出し位置を特定する。
この際、重心計算などの画像処理を利用することで撮像デバイスの解像度を超えた精度(サブピクセル)でプルキニエ像の位置を特定できる。
そして、撮像デバイス上の2つのプルキニエ像の座標値をそのまま撮像デバイス上の基準値の座標値riに当てはめる。
そして、式(2)に従い視線ベクトルを導出する。
この際、レンズ中心と眼球間の距離F1を式(6)で導出しても良いし、使用者の頭部を固定しても良いし、別の測定装置によりF1を直接測定しても良い。
そして、視線ベクトルから視線を表す直線4が求められる。
この視線4とディスプレー12を表す平面の交点が使用者の注視している位置13となる。
この注視している位置をコンピュータ上の座標値に変換し、ディスプレー上で入力可能な位置を示すカーソル14の座標値とすることで、視線入力によるカーソルの位置制御を行うことができる。
このカーソル座標値をコンピュータ11に送り、コンピュータはディスプレー12にカーソル14を表示させる。
As shown in FIG. 13, the line-of-sight detection apparatus according to the present invention is composed of an imaging device such as a camera 1, two light sources 9, and an arithmetic unit 10, and when the present invention is applied to a pointing device based on line-of-sight input, A computer 11 and a display 12 are included.
The user turns his / her face from the front of the imaging device to the imaging device.
First, infrared light is irradiated toward the user's eyes 3 from the two light sources on the lateral side and the lower side of the image pickup device installed as shown in the “best mode”.
A user's eyeball image 5 and two Purkinje images p1i and p2i are displayed on the imaging device.
In the arithmetic device, the pupil region and the iris region are extracted, and the pupil center ei is specified from the information.
Further, the region of the Purkinje image is extracted and the position is specified.
At this time, the position of the Purkinje image can be specified with accuracy (subpixel) exceeding the resolution of the imaging device by using image processing such as centroid calculation.
Then, the coordinate values of the two Purkinje images on the imaging device are directly applied to the coordinate value ri of the reference value on the imaging device.
Then, a line-of-sight vector is derived according to Equation (2).
At this time, the distance F1 between the lens center and the eyeball may be derived by Expression (6), the user's head may be fixed, or F1 may be directly measured by another measuring device. .
Then, a straight line 4 representing the line of sight is obtained from the line-of-sight vector.
The intersection of the line of sight 4 and the plane representing the display 12 is the position 13 at which the user is gazing.
By converting the gaze position into a coordinate value on the computer and setting it as the coordinate value of the cursor 14 indicating the position that can be input on the display, the position control of the cursor by the gaze input can be performed.
This cursor coordinate value is sent to the computer 11, and the computer displays the cursor 14 on the display 12.

実施例の視線入力によるポインティングデバイスのように、視線方向に基づいた対象物の操作への応用や、特許文献2にも挙げられている、カメラのファインダーに内蔵して使用者の視線方向に基づいた撮影のように、視線方向に基づいた画像や装置などの処理への応用が考えられる。
Application to the operation of an object based on the line-of-sight direction, such as a pointing device based on the line-of-sight input of the embodiment, or based on the line-of-sight direction of the user built in the camera finder, which is also cited in Patent Document 2 As in the case of photographing, it can be applied to processing of images and devices based on the line-of-sight direction.

本発明を実施するための形態例の撮像デバイスに映し出された眼球像とプルキニエ像を表した図である。It is the figure showing the eyeball image and the Purkinje image which were projected on the imaging device of the form example for implementing this invention. 視線検出に用いる撮像デバイスとその座標系の立体図(左)と正面図(右)である。FIG. 3 is a three-dimensional view (left) and a front view (right) of an imaging device used for eye-gaze detection and its coordinate system. 基本的な視線検出手法の原理を説明するための装置系を上面から見た図である。It is the figure which looked at the apparatus system for demonstrating the principle of a basic gaze detection method from the upper surface. 基本的な視線算出手法での撮像デバイスに映し出された眼球像を表した図である。It is a figure showing the eyeball image projected on the image pick-up device by a basic look calculation method. 特許文献1の視線検出手法を説明するための装置系を側面から図である。It is a figure from the side of an apparatus system for explaining a gaze detection method of patent documents 1. 非特許文献1の撮像デバイスと光源の位置関係を表した立体図(左)と正面図(右)である。3A and 3B are a three-dimensional view (left) and a front view (right) illustrating a positional relationship between the imaging device and the light source of Non-Patent Document 1. 非特許文献1の視線検出手法を説明するための装置系を側面から見た図(下)と上面から見た図(上)である。It is the figure (bottom) which looked at the apparatus system for demonstrating the gaze detection method of a nonpatent literature 1 from the side, and the figure (top) seen from the upper surface. 非特許文献1の撮像デバイスに映し出された眼球像とプルキニエ像を表した図である。It is the figure showing the eyeball image and the Purkinje image which were projected on the imaging device of nonpatent literature 1. 特許文献2の撮像デバイスと光源の位置関係を表した立体図(左)と正面図(右)である。They are the three-dimensional figure (left) and the front view (right) showing the positional relationship of the imaging device of patent document 2, and a light source. 特許文献2の視線検出手法を説明するための装置系を上面から見た図である。It is the figure which looked at the apparatus system for demonstrating the gaze detection method of patent document 2 from the upper surface. 特許文献2の撮像デバイスに映し出された眼球像とプルキニエ像を表した図である。It is the figure showing the eyeball image and the Purkinje image which were projected on the imaging device of patent document 2. FIG. 本発明を実施するための形態例の撮像デバイスと光源の位置関係を表した図である。It is a figure showing the positional relationship of the imaging device and light source of the form example for implementing this invention. 本発明に係る視線検出装置を視線入力によるポインティングデバイスに適用した際の実施例を表した図である。It is a figure showing the Example at the time of applying the gaze detection apparatus which concerns on this invention to the pointing device by gaze input.

符号の説明Explanation of symbols

1 撮像デバイス
2 撮像デバイスのレンズ
3 使用者の眼球
4 使用者の視線
5 撮像デバイスに映し出された使用者の眼球像
6 撮像デバイスに映し出された使用者の瞳孔画像
7 撮像デバイスに映し出された使用者の虹彩画像
8 ハーフミラー
9 光源
10 視線方向の演算装置
11 コンピュータ
12 コンピュータのディスプレー
13 使用者の注視位置
14 カーソル位置

DESCRIPTION OF SYMBOLS 1 Imaging device 2 Lens of imaging device 3 User's eyeball 4 User's line of sight 5 User's eyeball image projected on imaging device 6 User's pupil image projected on imaging device 7 Use projected on imaging device Iris image 8 Half mirror 9 Light source 10 Gaze direction computing device 11 Computer 12 Computer display 13 User gaze position 14 Cursor position

Claims (1)

撮像デバイスの撮像方向を奥行方向としレンズ中心を含む平面上において2つの光源をレンズ中心の縦方向と横方向にそれぞれ設置し、撮像デバイスで使用者の瞳孔像と2つの光源の反射像を含んだ眼球像を取得する画像取得手段と、レンズ中心と角膜曲率中心とを結んだ直線の撮像デバイス上の交点を基準点とし、前記撮像デバイスの横方向に設置した光源の反射像の縦座標および縦方向に設置した光源の反射像の横座標をそのまま該基準点の縦座標および横座標とし、前記瞳孔像と該基準点との位置関係から視線を検出する視線検出手法と、前記2つの反射像間の距離から前記使用者の眼球と前記撮像デバイス間の距離を計算する距離測定手段とを備えていることを特徴とする視線算出装置。

The imaging direction of the imaging device is the depth direction, and two light sources are installed on the plane including the lens center in the vertical direction and the horizontal direction of the lens center, respectively, and the imaging device includes the pupil image of the user and the reflected images of the two light sources. An image acquisition means for acquiring an ocular image, and an ordinate of a reflection image of a light source installed in a lateral direction of the imaging device, with an intersection point on a linear imaging device connecting a lens center and a corneal curvature center as a reference point, and A line-of-sight detection method for detecting a line of sight from the positional relationship between the pupil image and the reference point, with the abscissa of the reflected image of the light source installed in the vertical direction as the ordinate and abscissa of the reference point, and the two reflections A line-of-sight calculation apparatus comprising: a distance measuring unit that calculates a distance between the user's eyeball and the imaging device from a distance between images.

JP2005212264A 2005-07-22 2005-07-22 Line-of-sight detecting device Pending JP2007029126A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005212264A JP2007029126A (en) 2005-07-22 2005-07-22 Line-of-sight detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005212264A JP2007029126A (en) 2005-07-22 2005-07-22 Line-of-sight detecting device

Publications (1)

Publication Number Publication Date
JP2007029126A true JP2007029126A (en) 2007-02-08

Family

ID=37789107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005212264A Pending JP2007029126A (en) 2005-07-22 2005-07-22 Line-of-sight detecting device

Country Status (1)

Country Link
JP (1) JP2007029126A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007209384A (en) * 2006-02-07 2007-08-23 Gen Tec:Kk Visual axis vector detecting method and device
JP2010230651A (en) * 2009-03-27 2010-10-14 Utechzone Co Ltd Visual line tracing method and visual line tracing system
JP2010237979A (en) * 2009-03-31 2010-10-21 Kddi Corp Information terminal equipment
JP2012029940A (en) * 2010-07-30 2012-02-16 Hiroshima City Univ Method and apparatus for measuring visual axis
JP5229928B1 (en) * 2012-08-30 2013-07-03 広太郎 海野 Gaze position specifying device and gaze position specifying program
JP2013528406A (en) * 2010-03-22 2013-07-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ System and method for tracking observer's line of sight
US8523358B2 (en) 2010-12-27 2013-09-03 Casio Computer Co., Ltd. Information processing apparatus, method, and storage medium storing program
WO2016088418A1 (en) * 2014-12-02 2016-06-09 ソニー株式会社 Information processing device, information processing method, and program
CN109715046A (en) * 2017-08-04 2019-05-03 株式会社艾尔莱兹 Ophthalmic measurement device and ophthalmic measurement system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007209384A (en) * 2006-02-07 2007-08-23 Gen Tec:Kk Visual axis vector detecting method and device
JP2010230651A (en) * 2009-03-27 2010-10-14 Utechzone Co Ltd Visual line tracing method and visual line tracing system
JP2010237979A (en) * 2009-03-31 2010-10-21 Kddi Corp Information terminal equipment
JP2013528406A (en) * 2010-03-22 2013-07-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ System and method for tracking observer's line of sight
JP2012029940A (en) * 2010-07-30 2012-02-16 Hiroshima City Univ Method and apparatus for measuring visual axis
US8523358B2 (en) 2010-12-27 2013-09-03 Casio Computer Co., Ltd. Information processing apparatus, method, and storage medium storing program
JP5229928B1 (en) * 2012-08-30 2013-07-03 広太郎 海野 Gaze position specifying device and gaze position specifying program
WO2016088418A1 (en) * 2014-12-02 2016-06-09 ソニー株式会社 Information processing device, information processing method, and program
CN106999038A (en) * 2014-12-02 2017-08-01 索尼公司 Message processing device, information processing method and program
CN109715046A (en) * 2017-08-04 2019-05-03 株式会社艾尔莱兹 Ophthalmic measurement device and ophthalmic measurement system
US11058295B2 (en) 2017-08-04 2021-07-13 Elrise Corporation Ophthalmic measurement device and ophthalmic measurement system

Similar Documents

Publication Publication Date Title
JP6902075B2 (en) Line-of-sight tracking using structured light
US10154254B2 (en) Time-of-flight depth sensing for eye tracking
KR102062658B1 (en) Sphere tracking of the cornea to create an ocular model
US9904054B2 (en) Headset with strain gauge expression recognition system
JP2007029126A (en) Line-of-sight detecting device
US20140218281A1 (en) Systems and methods for eye gaze determination
US9244529B2 (en) Point-of-gaze estimation robust to head rotations and/or device rotations
US6659611B2 (en) System and method for eye gaze tracking using corneal image mapping
US10304253B2 (en) Computer program, object tracking method, and display device
WO2019085487A1 (en) Display apparatus and method and device for adjusting image display of the display apparatus
JP2010259605A (en) Visual line measuring device and visual line measuring program
WO2007113975A1 (en) View point detecting device
US20190073820A1 (en) Ray Tracing System for Optical Headsets
CN116033864A (en) Eye tracking using non-spherical cornea models
JP2018099174A (en) Pupil detector and pupil detection method
US9002074B2 (en) Facial validation sensor
JP2005253778A (en) Visual axis detecting method and device
JP2019215688A (en) Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration
JP2014042806A (en) Gaze line measuring method, gaze line measuring device, eyeball turning point measuring method and eye point measuring device
WO2019021601A1 (en) Information processing device, information processing method, and program
JP6747172B2 (en) Diagnosis support device, diagnosis support method, and computer program
JP5590487B2 (en) Gaze measurement method and gaze measurement device
CN113138664A (en) Eyeball tracking system and method based on light field perception
JP2016200753A (en) Image display device
WO2019116675A1 (en) Information processing device, information processing method, and program