JPH09206279A - Eyeball tissue shape detector and gaze detector - Google Patents

Eyeball tissue shape detector and gaze detector

Info

Publication number
JPH09206279A
JPH09206279A JP8015455A JP1545596A JPH09206279A JP H09206279 A JPH09206279 A JP H09206279A JP 8015455 A JP8015455 A JP 8015455A JP 1545596 A JP1545596 A JP 1545596A JP H09206279 A JPH09206279 A JP H09206279A
Authority
JP
Japan
Prior art keywords
boundary position
eyeball
weighting calculation
eyeball tissue
weighting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP8015455A
Other languages
Japanese (ja)
Inventor
Akira Akashi
彰 明石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP8015455A priority Critical patent/JPH09206279A/en
Publication of JPH09206279A publication Critical patent/JPH09206279A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately estimate the shape of the eyeball tissue by receiving an eyeball image of a user, detecting boundary position information of the eyeball tissue in the eyeball image, performing a prescribed weighted calculation in relation to the boundary position information, and estimating the shape of the eyeball tissue using the weighted boundary position information. SOLUTION: An image of the eyeball 1 lighted by an infrared emission diode 2 is picked up by an image-formation optical system 3 and an area sensor 4 so as to output an analog image signal row 6. Secondly, in a microcomputer 5, the analog signal row is A/D converted, the converted results 7 are stored in a RAM, and the digital image data row is provided. The signal is processed in relation to the image data row in the RAM, a pair of reflecting images of the cornea and a plurality of the pupil edges are detected, and their coordinates are stored. Thirdly, the pupil circle is estimated by the least square operation weighted according to changes in the signals (luminance) of the pupil edge part based on a plurality of coordinates of the pupil edges, and the eyeball rotation angle is calculated based on its central coordinate and the coordinates of the cornea reflecting images.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、使用者の眼球組織
の形状を検出する眼球組織形状検出装置および検出した
眼球組織の形状を用いて使用者の視線を検出する視線検
出装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an eyeball tissue shape detecting apparatus for detecting the shape of a user's eyeball tissue and a visual axis detecting apparatus for detecting a user's line of sight using the detected eyeball tissue shape. .

【0002】[0002]

【従来の技術】従来より、カメラの使用者がファインダ
のどの位置を注視しているかを検出する、視線検出装置
は種々提案されている。
2. Description of the Related Art Conventionally, various line-of-sight detection devices have been proposed for detecting which position of a finder a user of a camera is gazing at.

【0003】例えば、本出願人による特開平1-241511号
公報では、赤外発光ダイオード(以下、「IRED」と略記
する)で照明された使用者の眼球の前眼部を、エリアセ
ンサを用いて撮像し、その像信号を処理して使用者のフ
ァインダ上での視線座標を検出し、その結果に基づいて
カメラの複数の焦点検出領域や測光領域の内の1つを選
択するカメラが開示されている。
For example, in Japanese Patent Application Laid-Open No. 1-241511 by the present applicant, an area sensor is used for the anterior segment of the eyeball of a user illuminated by an infrared light emitting diode (hereinafter abbreviated as "IRED"). Disclosed is a camera that picks up an image, processes the image signal, detects the line-of-sight coordinates on the finder of the user, and selects one of a plurality of focus detection areas and photometric areas of the camera based on the result. Has been done.

【0004】また、像信号処理の具体的な方法として
は、例えば本出願人による特開平4-347131号公報に詳し
く開示されている。
A specific method of image signal processing is disclosed in detail in, for example, Japanese Patent Application Laid-Open No. 4-347131 by the present applicant.

【0005】以下、同公報による信号処理方法を説明す
る。
The signal processing method according to this publication will be described below.

【0006】図2は使用者の眼球を撮像したときに、エ
リアセンサから出力される像信号を視覚的に表したもの
である。
FIG. 2 is a visual representation of the image signal output from the area sensor when the eyeball of the user is imaged.

【0007】図中10は眼球像全体、11はその内の虹彩
部、12は瞳孔部、13a、13bはIREDの角膜反射像(この例
では2つ)をそれぞれ表す。この信号から瞳孔中心と角
膜反射像の相対位置関係を検出できれば、使用者の視線
座標を算出することができる。
In the figure, 10 is the entire eyeball image, 11 is the iris portion, 12 is the pupil portion, and 13a and 13b are IRED corneal reflection images (two in this example). If the relative positional relationship between the center of the pupil and the corneal reflection image can be detected from this signal, the line-of-sight coordinates of the user can be calculated.

【0008】特に瞳孔中心は瞳孔部と虹彩部の境界(以
下「瞳孔エッジ」と称する)座標に基づいて算出する。
In particular, the center of the pupil is calculated based on the coordinates of the boundary between the pupil portion and the iris portion (hereinafter referred to as "pupil edge").

【0009】図3は瞳孔エッジの抽出方法を説明する図
である。
FIG. 3 is a diagram for explaining a method of extracting a pupil edge.

【0010】20は複数の瞳孔エッジ、21a、21bは検出し
た2個の角膜反射像を表す。22はエリアセンサから像信
号を読み出し、瞳孔エッジと角膜反射像を検出する処理
方向を表す。
Reference numeral 20 indicates a plurality of pupil edges, and 21a and 21b indicate two detected corneal reflection images. Reference numeral 22 represents a processing direction for reading an image signal from the area sensor and detecting a pupil edge and a corneal reflection image.

【0011】角膜反射像は像信号中で輝度が著しく高
く、その前後で輝度変化が急峻であることを条件として
検出する。瞳孔エッジは、水平あるいは垂直方向に所定
の輝度変化があり、さらに信号が立ち下がった部分(瞳
孔部)での輝度が十分に低いことが検出条件となる。
The corneal reflection image has a significantly high luminance in the image signal, and is detected on the condition that the luminance change before and after that is sharp. The detection condition is that the pupil edge has a predetermined luminance change in the horizontal or vertical direction, and the luminance at the portion where the signal falls (pupil portion) is sufficiently low.

【0012】前記公報では、読み出し/処理方向に沿っ
て上記条件に合致する部分を探索し、条件を満足する部
分を角膜反射像(図中21a、21b)あるいは瞳孔エッジ
(図中20)として検出し、その座標を記憶している。
In the above publication, a portion that meets the above conditions is searched for along the reading / processing direction, and a portion that satisfies the conditions is detected as a corneal reflection image (21a, 21b in the figure) or a pupil edge (20 in the figure). However, the coordinates are stored.

【0013】次に瞳孔中心を求めるには、記憶している
複数の瞳孔エッジ座標を観測値として、円の最小2乗推
定を用いる。即ち、瞳孔エッジ座標から推定誤差が最小
となるような円のパラメータ(中心座標および半径)を
算出する。
Next, in order to find the center of the pupil, the least squares estimation of the circle is used with the plurality of stored pupil edge coordinates as observation values. That is, the parameters of the circle (center coordinates and radius) that minimize the estimation error are calculated from the pupil edge coordinates.

【0014】図4に示すように、瞳孔エッジが抽出でき
れば(同図A)、最小2乗法を用いて推定誤差が最小と
なる円(中心座標xc、yc、半径rc)を算出できる(同図
B)。
As shown in FIG. 4, if the pupil edge can be extracted (A in the same figure), the circle (center coordinates xc, yc, radius rc) with the smallest estimation error can be calculated using the least squares method (the same figure).
B).

【0015】図5に瞳孔部の像信号の例を示す。FIG. 5 shows an example of the image signal of the pupil portion.

【0016】図中は40は信号の輝度を表し、瞳孔部にお
いては他の部分よりも際だって輝度が低くなっている。
In the figure, reference numeral 40 represents the luminance of the signal, and the luminance is significantly lower in the pupil portion than in other portions.

【0017】図中の網掛けの部分が検出されるべき瞳孔
エッジ座標である。
The shaded area in the figure is the pupil edge coordinates to be detected.

【0018】複数の瞳孔エッジ座標から瞳孔円を推定す
る最小2乗演算を以下に説明する。
A least-squares calculation for estimating a pupil circle from a plurality of pupil edge coordinates will be described below.

【0019】n個の瞳孔エッジ座標を各々(x1,y1)、(x2,
y2)、……… (xn,yn)とすると、これらのデータに基づ
く最小2乗法を用いた推定円(中心(xc,yc)、半径rc)
は、 Err = Σ{(xi-xc)2 + (yi-yc)2 - rc2}2 --- (1) を最小にするものである。
The n pupil edge coordinates are (x1, y1), (x2,
y2), ……… (xn, yn), an estimated circle (center (xc, yc), radius rc) using the least squares method based on these data
Is the one that minimizes Err = Σ {(xi-xc) 2 + (yi-yc) 2-rc2} 2 --- (1).

【0020】式(1)から、 xc = { W1・V2 - W2・W4 - (W6-Y1・Z1)・W3 } / { 2・(X2・V2 - W5 - W6・X1/n } --- (2) yc = { W2・V1 - W1・W4 - (W7-X1・Z1)・W3 } / { 2・(Y2・V1 - W5 - W7・Y1/n } --- (3) rc = √{W3 - 2・(xc・X1+yc・Y1)/n + xc2 + yc2} --- (4) X1 = Σxi --- (5) X2 = Σxi2 --- (6) X3 = Σxi3 --- (7) Y1 = Σyi --- (8) Y2 = Σyi2 --- (9) Y3 = Σyi3 --- (10) Z1 = Σxi・yi --- (11) Z2 = Σxi2・yi --- (12) Z3 = Σxi・yi2 --- (13)From the equation (1), xc = {W1 ・ V2-W2 ・ W4-(W6-Y1 ・ Z1) ・ W3} / {2 ・ (X2 ・ V2-W5-W6 ・ X1 / n} --- (2) yc = (W2 ・ V1-W1 ・ W4-(W7-X1 ・ Z1) ・ W3} / {2 ・ (Y2 ・ V1-W5-W7 ・ Y1 / n} --- (3) rc = √ (W3 -2 ・ (xc ・ X1 + yc ・ Y1) / n + xc 2 + yc 2 } --- (4) X1 = Σxi --- (5) X2 = Σxi 2 --- (6) X3 = Σxi 3 --- (7) Y1 = Σyi --- (8) Y2 = Σyi 2 --- (9) Y3 = Σyi 3 --- (10) Z1 = Σxi ・ yi --- (11) Z2 = Σxi 2・ yi --- (12) Z3 = Σxi ・ yi 2 --- (13)

【0021】 さらに、V1 = X2 - X12/n ---(14) V2 = Y2 - Y12/n --- (15) W1 = X3 + Z3 --- (16) W2 = Y3 + Z3 --- (17) W3 = (X2+Y2)/n --- (18) W4 = Z1 - X1・Y1/n --- (19) W5 = (Z1 - 2・X1・Y1/n)・Z1 --- (20) W6 = X1・Y2 --- (21) W7 = X2・Y1 --- (22) を得る。Further, V1 = X2-X1 2 / n --- (14) V2 = Y2-Y1 2 / n --- (15) W1 = X3 + Z3 --- (16) W2 = Y3 + Z3- -(17) W3 = (X2 + Y2) / n --- (18) W4 = Z1-X1 ・ Y1 / n --- (19) W5 = (Z1-2 ・ X1 ・ Y1 / n) ・ Z1 --- (20) W6 = X1 ・ Y2 --- (21) W7 = X2 ・ Y1 --- (22)

【0022】円周上(と思われる)の複数の観測点を用
いて、上記の数値計算を行えば、推定円の中心座標(xc,
yc)と半径rcを算出することができる。
If the above numerical calculation is performed using a plurality of observation points on the circumference of the circle (probably), the center coordinates (xc,
yc) and radius rc can be calculated.

【0023】[0023]

【発明が解決しようとする課題】しかしながら、従来の
最小2乗法による瞳孔円の推定は、所定の基準で抽出し
た瞳孔エッジの座標をそのまま用いて瞳孔円を推定して
いたので、まぶたや、まつげなどによって生じる偽の瞳
孔エッジが1つでも存在すると、2乗誤差であるが故に
その座標の影響を受け易いという欠点があった。
However, in the conventional estimation of the pupil circle by the least-squares method, the pupil circle is estimated by using the coordinates of the pupil edge extracted according to a predetermined criterion as it is, and therefore the eyelid and the eyelashes are estimated. If there is even one false pupil edge caused by the above, there is a drawback that it is susceptible to the coordinates because it is a squared error.

【0024】最小2乗法による瞳孔円の推定は、全ての
瞳孔エッジの座標で誤差の2乗を演算するため、全ての
瞳孔エッジ座標が同一の円周上の近傍に存在すれば正し
い円を推定することができる。しかし、眼球の特に上下
方向はまぶたや、まつげの影響によって正しい瞳孔エッ
ジが検出でないことが多く、誤った瞳孔エッジ(偽の瞳
孔エッジ)を検出してしまう。そして、検出した瞳孔エ
ッジの座標をそのまま用いて最小2乗法によって瞳孔円
を推定すると、推定した瞳孔円は大きな誤差を含んでし
まう。
In the estimation of the pupil circle by the method of least squares, the square of the error is calculated with the coordinates of all the pupil edges. Therefore, if all the pupil edge coordinates exist in the vicinity on the same circumference, the correct circle is estimated. can do. However, a correct pupil edge is often not detected due to the influence of the eyelids and eyelashes, especially in the vertical direction of the eyeball, and an incorrect pupil edge (false pupil edge) is detected. Then, if the pupil circle is estimated by the least squares method using the detected coordinates of the pupil edge as it is, the estimated pupil circle includes a large error.

【0025】例えば、図6(A)に示したように真の瞳孔
エッジ座標20以外に、離れた位置に偽の瞳孔エッジ座標
23が存在すると、この23の影響によって同図(B)の31の
ように推定すべき真の瞳孔円30とは大きく離れた円を推
定してしまう。
For example, as shown in FIG. 6 (A), in addition to the true pupil edge coordinates 20, false pupil edge coordinates are set at distant positions.
If 23 exists, due to the influence of 23, a circle greatly separated from the true pupil circle 30 to be estimated, such as 31 in FIG.

【0026】[0026]

【課題を解決するための手段】上述した課題に鑑み、本
発明は、使用者の眼球画像を受光する受光手段と、該受
光手段が受光した眼球画像に含まれる眼球組織の境界位
置情報を検出する境界位置検出手段と、検出した境界位
置情報に対して所定の重み付け演算を行う重み付け演算
手段と、該重み付け演算手段によって重み付けされた境
界位置情報を用いて、眼球組織の形状を推定する推定演
算手段とから構成され、検出した境界位置情報に対して
重み付け演算を行うので不確かな境界位置情報の影響に
よる誤差を小さくすることができる。
In view of the above-mentioned problems, the present invention detects light receiving means for receiving an eyeball image of a user and boundary position information of eyeball tissue included in the eyeball image received by the light receiving means. Boundary position detection means, weighting calculation means for performing a predetermined weighting calculation on the detected boundary position information, and estimation calculation for estimating the shape of the eye tissue using the boundary position information weighted by the weighting calculation means. Since the weighting calculation is performed on the detected boundary position information, the error due to the influence of the uncertain boundary position information can be reduced.

【0027】[0027]

【発明の実施の形態】図1は本発明の実施形態を説明す
るための構成図であり、使用者の眼球1を照明する一対
のIRED2、眼球1の像を得るための結像光学系3およびエ
リアセンサ4、眼球像情報を演算処理するマイクロコン
ピュータ5から構成され、マイクロコンピュータ5はROM
内に予め格納されているプログラムに従って、概ね以下
の手順で視線検出を実行する。 (1) IRED2で照明された使用者の眼球1を、結像光学系3
とエリアセンサ4を用いて撮像する。 (2)エリアセンサ4からアナログ像信号列6を出力させ
る。 (3)マイクロコンピュータ5内のA/D変換器を用いて、ア
ナログ像信号列をA/D変換し、変換結果7を順次マイクロ
コンピュータ5内のRAMに格納し、ディジタル像データ列
を得る。 (4)マイクロコンピュータ5はRAM内の像データ列に対し
て前述の信号処理を施し、一対の角膜反射像と複数の瞳
孔エッジを検出し、その座標を記憶する (5)瞳孔中心の決定に際しては、瞳孔と虹彩の境界形状
は円であると仮定し、複数の瞳孔エッジの座標から最小
2乗法を用いて瞳孔円を推定する。 (6)角膜反射像の座標と瞳孔円の中心座標から、使用者
の眼球回転角を算出する。本発明の第1実施形態では、
最小2乗演算の課程において、瞳孔エッジ部分の信号
(輝度)の変化に応じた重みを付した状態で最小2乗演
算を行うものである。
1 is a block diagram for explaining an embodiment of the present invention, a pair of IREDs 2 for illuminating an eyeball 1 of a user, and an imaging optical system 3 for obtaining an image of the eyeball 1. The area sensor 4 and the microcomputer 5 for calculating eyeball image information, and the microcomputer 5 is a ROM.
According to a program stored in advance, the line-of-sight detection is executed according to the following procedure. (1) The eyeball 1 of the user illuminated by IRED2 is moved to the imaging optical system 3
And the area sensor 4 is used for imaging. (2) The area sensor 4 outputs the analog image signal train 6. (3) The analog image signal sequence is A / D converted using the A / D converter in the microcomputer 5, and the conversion result 7 is sequentially stored in the RAM in the microcomputer 5 to obtain a digital image data sequence. (4) The microcomputer 5 performs the above-described signal processing on the image data sequence in the RAM, detects a pair of corneal reflection images and a plurality of pupil edges, and stores the coordinates thereof (5) When determining the pupil center Assumes that the boundary shape between the pupil and the iris is a circle, and estimates the pupil circle from the coordinates of a plurality of pupil edges using the method of least squares. (6) The eye rotation angle of the user is calculated from the coordinates of the corneal reflection image and the center coordinates of the pupil circle. In the first embodiment of the present invention,
In the process of least-squares calculation, the least-squares calculation is performed with weighting according to the change of the signal (luminance) at the pupil edge portion.

【0028】図7を用いて第1の実施形態を説明する。The first embodiment will be described with reference to FIG.

【0029】同図(A)の信号例は瞳孔と虹彩の境界の輝
度変化が大きく、瞳孔エッジ41、42を明確に抽出できる
が、(B)の右側のエッジ44の部分は輝度変化が小さいの
で、明確な境界が決定しにくい。
In the signal example of FIG. 7A, the brightness change at the boundary between the pupil and the iris is large, and the pupil edges 41 and 42 can be clearly extracted, but the brightness change is small at the edge 44 on the right side of FIG. Therefore, it is difficult to determine a clear boundary.

【0030】(B)のような状況は、眼球照明の制御状
態、眼球とカメラの距離、使用者の個人差、外光の影響
等により、しばしば発生する。
The situation of (B) often occurs due to the control state of the eyeball illumination, the distance between the eyeball and the camera, the individual difference of the user, the influence of external light, and the like.

【0031】このようなエッジ44では、左のエッジ43に
比較して最小2乗演算に対する影響を軽減させるような
重みを付して演算するわけである。
The edge 44 is calculated by weighting it so as to reduce the influence on the least-squares calculation as compared with the left edge 43.

【0032】瞳孔エッジ座標(xi,yi)のx方向の前後の輝
度差s(i)を、 s(i) = d(i-1) - d(i+1) --- (23) で求め、s(i)の大きさに応じて(xi,yi)に重みw(i)を付
ける。即ち、輝度変化の大きなエッジに対しては重み付
けを大きくし、逆に輝度変化の小さいエッジに対しては
重み付けを小さくするわけである。
The brightness difference s (i) before and after the pupil edge coordinate (xi, yi) in the x direction is expressed by s (i) = d (i-1)-d (i + 1) --- (23) Then, the weight w (i) is added to (xi, yi) according to the size of s (i). That is, the weight is increased for the edge having a large luminance change, and conversely, the weight is decreased for the edge having a small luminance change.

【0033】重みw(i)はs(i)から演算式で連続的に決定
しても良いし、あるいは所定のしきい値と比較して離散
的に決定しても良い。
The weight w (i) may be continuously determined from s (i) by an arithmetic expression, or may be discretely determined by comparing with a predetermined threshold value.

【0034】前者の場合は、例えば、 w(i) = a・s(i) + b --- (24) なる一次式の演算が考えられる。a、bは所定の係数であ
る。
In the former case, for example, a calculation of a linear expression w (i) = a.s (i) + b-(24) can be considered. a and b are predetermined coefficients.

【0035】後者の場合は、例えば、 s(i) < s1 ならば w(i) = w0 s(i) >= s1 ならば w(i) = w1 s(i) >= s2 ならば w(i) = w2 --- (25) というように決定する。但し、s1、s2、s3は輝度差に対
するしきい値、w0、w1、w2は予め定められた重み付け係
数である。
In the latter case, for example, if s (i) <s1 then w (i) = w0 s (i)> = s1 if w (i) = w1 s (i)> = s2 then w (i) = w1 s (i)> = s2 i) = w2 --- (25) However, s1, s2, and s3 are threshold values for the brightness difference, and w0, w1, and w2 are predetermined weighting coefficients.

【0036】また、重み付け係数w(i)は整数でも実数で
も良い。
The weighting coefficient w (i) may be an integer or a real number.

【0037】このようにして決定した重み付け演算を瞳
孔エッジ情報に対して行うので、前述の最小2乗演算式
(5)〜(13)を次のように修正する。
Since the weighting operation thus determined is performed on the pupil edge information, the above least squares operation formula
Modify (5) to (13) as follows.

【0038】 X1 = Σw(i)・xi --- (5') X2 = Σw(i)・xi2 --- (6') X3 = Σw(i)・xi3 --- (7') Y1 = Σw(i)・yi --- (8') Y2 = Σw(i)・yi2 --- (9') Y3 = Σw(i)・yi3 --- (10') Z1 = Σw(i)・xi・yi --- (11') Z2 = Σw(i)・xi2・yi --- (12') Z3 = Σw(i)・xi・yi2 ---(13')X1 = Σw (i) ・ xi --- (5 ') X2 = Σw (i) ・ xi 2 --- (6') X3 = Σw (i) ・ xi 3 --- (7 ') Y1 = Σw (i) ・ yi --- (8 ') Y2 = Σw (i) ・ yi 2 --- (9') Y3 = Σw (i) ・ yi 3 --- (10 ') Z1 = Σw (i) ・ xi ・ yi --- (11 ') Z2 = Σw (i) ・ xi 2・ yi --- (12') Z3 = Σw (i) ・ xi ・ yi 2 --- (13 ')

【0039】さらに、エッジ数も修正されなければなら
ない。重みがない(あるいは一律の重み)の場合、 n = Σ1 --- (26) であるが、重みを考慮すると、 n = Σw(i) --- (26') となる。
Furthermore, the number of edges must also be modified. In the case of no weight (or uniform weight), n = Σ1 --- (26), but considering weight, n = Σw (i) --- (26 ').

【0040】このようにして、式(5')〜(13')、(26')を
計算し、さらに式(14)〜(22)を計算すれば、式(2)、
(3)、(4)から重み付け演算を行った最小2乗推定円を算
出することができる。
In this way, if equations (5 ') to (13') and (26 ') are calculated and equations (14) to (22) are further calculated, equation (2),
It is possible to calculate the least-squares estimated circle that is weighted from (3) and (4).

【0041】式(23)は水平方向の輝度変化を求めている
が、これはエッジは水平方向のエッジの場合であって、
垂直方向のエッジでは垂直方向の輝度差を用いる。
Equation (23) finds the change in luminance in the horizontal direction. This is the case when the edge is the edge in the horizontal direction.
A vertical luminance difference is used for a vertical edge.

【0042】本実施形態では、エッジ部の信号(輝度)
の変化に応じて重み付けを変えているが、単なる虹彩部
と瞳孔部の輝度差に基づいて重み付けを変えても良い。
In this embodiment, the edge signal (luminance)
Although the weighting is changed according to the change of the above, the weighting may be changed based on a mere difference in luminance between the iris portion and the pupil portion.

【0043】第2の実施形態では、エリアセンサの読み
出し方向に基づいて重み付けを行う実施形態を記述して
いる。
The second embodiment describes an embodiment in which weighting is performed based on the reading direction of the area sensor.

【0044】前述したようにマイクロコンピュータを用
いて視線検出を行っているが、通常のマイクロコンピュ
ータのメモリ容量には制限があり、総ての眼球画像デー
タを同時に格納しておくことができない。そのため、マ
イクロコンピュータはエリアセンサから眼球画像信号を
読み出しつつ、角膜反射像や瞳孔エッジの抽出を逐次的
に実行するわけであるが、読み出し方向と同じ方向の画
像データは長く連続した画像データを得ることができる
が、エリアセンサの読み出し方向と直交する方向のデー
タはメモリの制約であまり長く連続した画像データを得
ることができない。
As described above, the line-of-sight detection is performed using the microcomputer, but the memory capacity of a normal microcomputer is limited, and it is not possible to store all eyeball image data at the same time. Therefore, the microcomputer sequentially extracts the corneal reflection image and the pupil edge while reading the eyeball image signal from the area sensor, but the image data in the same direction as the reading direction obtains long continuous image data. However, the data in the direction orthogonal to the reading direction of the area sensor cannot obtain continuous image data for too long due to the memory limitation.

【0045】従って、読み出し方向と直交する方向の瞳
孔エッジは誤った抽出する可能性が高くなってしまう。
Therefore, the pupil edge in the direction orthogonal to the reading direction is highly likely to be erroneously extracted.

【0046】図8、9に一例を示す。An example is shown in FIGS.

【0047】図中24はまぶたの影響で検出した偽の瞳孔
エッジである。読み出し方向(この例では水平方向)な
らば、細かく条件を限定することで偽のエッジを排除す
る余地はあるが、読み出し方向と直交する方向(すなわ
ち、垂直方向)は、上述した理由で水平方向よりも偽の
エッジを抽出しやすい。
In the figure, 24 is a false pupil edge detected by the influence of the eyelids. In the reading direction (horizontal direction in this example), there is room to eliminate false edges by finely limiting the conditions, but the direction orthogonal to the reading direction (that is, the vertical direction) is the horizontal direction for the reason described above. False edges are easier to extract than.

【0048】そこで、本発明の第2実施形態では、読み
出し方向に基づいて、抽出したエッジの重み付けを変え
ることで、読み出し方向と直交する方向のエッジの影響
を少なくしている。
Therefore, in the second embodiment of the present invention, the influence of the edge in the direction orthogonal to the reading direction is reduced by changing the weighting of the extracted edge based on the reading direction.

【0049】即ち、ある瞳孔エッジ(xi,yi)が水平エッ
ジならば、その重みをwh(i)とし、垂直エッジならが重
みをwv(i)とする。wh(i)とwv(i)には次の関係を持たし
ておく。
That is, if a certain pupil edge (xi, yi) is a horizontal edge, its weight is wh (i), and if it is a vertical edge, its weight is wv (i). wh (i) and wv (i) have the following relationship.

【0050】 wh(i) > wv(i) --- (27) あとは第1実施形態と同様の演算を実行すれば、エリア
センサの読み出し方向の瞳孔エッジを優先した最小2乗
推定を行うことができる。
Wh (i)> wv (i) --- (27) After that, if the same calculation as in the first embodiment is executed, the least-squares estimation in which the pupil edge in the reading direction of the area sensor is prioritized is performed. be able to.

【0051】さらに、本実施形態において、装置の姿勢
を検出する姿勢検出センサを設け、装置の姿勢に応じて
重み付け演算を変更することも可能になる。
Further, in the present embodiment, it is possible to provide a posture detection sensor for detecting the posture of the device and change the weighting calculation according to the posture of the device.

【0052】特に、カメラのように様々な姿勢で使用さ
れる機器に本発明の視線検出装置を応用した場合には、
大きな効果を得ることができる。例えば、カメラが横位
置で使用される際にはエリアセンサの読み出し方向は眼
球に対して水平方向であり、水平方向の瞳孔エッジはま
ぶたやまつ毛の影響がない。ところが、カメラが縦位置
になると、読み出し方向は眼球に対して垂直方向となっ
てしまうので、瞳孔エッジにまぶたやまつ毛の影響が現
れる可能性がある。そこで、カメラが縦位置で使用され
る際には水平エッジの重み付けと垂直エッジの重み付け
とを上記の関係とは逆にすることで、まぶたやまつ毛の
影響を少なくすることができる。
In particular, when the line-of-sight detection device of the present invention is applied to equipment used in various postures such as a camera,
A great effect can be obtained. For example, when the camera is used in the horizontal position, the reading direction of the area sensor is horizontal to the eyeball, and the pupillary edge in the horizontal direction is not affected by the eyelids and eyelashes. However, when the camera is in the vertical position, the read-out direction is perpendicular to the eyeballs, so that the eyelid and eyelashes may affect the pupil edge. Therefore, when the camera is used in the vertical position, the weighting of the horizontal edges and the weighting of the vertical edges are reversed from the above relationship, so that the influence of the eyelids and eyelashes can be reduced.

【0053】また、図2に示したの眼球画像の例から判
るように、通常瞳孔部分はエリアセンサの画面の中央部
に存在することが多い。
Further, as can be seen from the example of the eyeball image shown in FIG. 2, the pupil portion usually exists in the central portion of the screen of the area sensor in many cases.

【0054】そこで、エリアセンサ上の瞳孔エッジ座標
に基づいて重み付けを変更することによって、偽の瞳孔
エッジを排除することができる。つまり、瞳孔エッジの
もつ座標情報からその瞳孔エッジがエリアセンサ上のど
の位置に存在するか判断し、エリアセンサの中央部に近
い位置に存在する瞳孔エッジほど重み付けが大きくなる
ように演算処理すれば、エリアセンサの端部に存在する
偽の瞳孔エッジの影響を効果的に排除することができ
る。
Therefore, the false pupil edges can be eliminated by changing the weighting based on the pupil edge coordinates on the area sensor. That is, the position of the pupil edge on the area sensor is determined from the coordinate information of the pupil edge, and the weighting is increased for the pupil edge located closer to the center of the area sensor. , The effect of false pupil edges present at the edge of the area sensor can be effectively eliminated.

【0055】また、エリアセンサ上の絶対座標を基準に
重み付けを変更する実施形態のほかに、角膜反射像(図
2の13a、13b)の位置に対する相対的な位置情報を用い
て重み付けを変更する実施形態も考えられる。
In addition to the embodiment in which the weighting is changed based on the absolute coordinates on the area sensor, the weighting is changed by using the relative position information with respect to the position of the corneal reflection image (13a, 13b in FIG. 2). Embodiments are also conceivable.

【0056】すなわち、図2に示したの眼球画像の例か
ら判るように、正しい瞳孔は概ね角膜反射像の近傍に存
在し、あまりにも離れた位置のエッジは偽である可能性
が高い。そこで、角膜反射像の位置と各瞳孔エッジ座標
の対応的な位置関係を重み付けの基準とすれば、角膜反
射像から遠く離れた偽のエッジの影響を排除することが
できる。
That is, as can be seen from the example of the eyeball image shown in FIG. 2, the correct pupil is almost in the vicinity of the corneal reflection image, and the edge at a position too far away is likely to be false. Therefore, if the corresponding positional relationship between the position of the corneal reflection image and each pupil edge coordinate is used as a weighting reference, the influence of a false edge far away from the corneal reflection image can be eliminated.

【0057】[0057]

【発明の効果】以上説明したように、本願の請求項1に
記載した発明は、使用者の眼球画像を受光する受光手段
と、該受光手段が受光した眼球画像に含まれる眼球組織
の境界位置情報を検出する境界位置検出手段と、検出し
た境界位置情報に対して所定の重み付け演算を行う重み
付け演算手段と、該重み付け演算手段によって重み付け
された境界位置情報を用いて、眼球組織の形状を推定す
る推定演算手段とから構成され、検出した境界位置情報
に対して重み付け演算を行い、重み付けされた境界位置
情報から眼球組織の形状を推定するので、不確かな境界
位置情報の影響による誤差を小さくすることができ、よ
り高精度に眼球組織の形状を検出することができる。
As described above, according to the invention described in claim 1 of the present application, the boundary position between the light receiving means for receiving the eyeball image of the user and the eyeball tissue included in the eyeball image received by the light receiving means. Boundary position detection means for detecting information, weighting calculation means for performing a predetermined weighting calculation on the detected boundary position information, and the boundary position information weighted by the weighting calculation means are used to estimate the shape of the eye tissue. The estimation calculation means is configured to perform a weighting calculation on the detected boundary position information, and the shape of the eyeball tissue is estimated from the weighted boundary position information, thereby reducing the error due to the influence of the uncertain boundary position information. Therefore, the shape of the eyeball tissue can be detected with higher accuracy.

【0058】また、本願の請求項5に記載した発明は、
前記受光手段は複数の画素を有し、前記境界位置検出手
段は前記受光手段が有する前記複数の画素の中から隣接
する画素との受光レベル差が所定値以上である画素の位
置を眼球組織の境界位置として検出し、前記重み付け演
算手段は前記境界位置検出手段が前記境界位置として検
出した画素と隣接画素との受光レベル差に応じて重み付
け演算を変更することによって、前記境界位置検出手段
が眼球組織の境界位置として検出した画素に対して適切
な条件で重み付け演算ができ、不確かな境界位置情報の
影響による誤差を小さくすることができ、より高精度に
眼球組織の形状を検出することができる。
The invention described in claim 5 of the present application is
The light receiving unit has a plurality of pixels, and the boundary position detecting unit determines a position of a pixel having a light receiving level difference from an adjacent pixel among the plurality of pixels of the light receiving unit that is equal to or more than a predetermined value to the eye tissue The boundary position detecting means detects the boundary position, and the weighting calculating means changes the weighting calculation according to the light receiving level difference between the pixel detected by the boundary position detecting means as the boundary position and the adjacent pixel, whereby the boundary position detecting means detects the eyeball. Pixels detected as tissue boundary positions can be weighted under appropriate conditions, errors due to uncertain boundary position information can be reduced, and the shape of eye tissue can be detected with higher accuracy. .

【0059】さらに、本願の請求項13に記載した発明
は、使用者の眼球画像を受光する受光手段と、該受光手
段が受光した眼球画像に含まれる眼球組織の境界位置情
報を検出する境界位置検出手段と、検出した境界位置情
報に対して所定の重み付け演算を行う重み付け演算手段
と、該重み付け演算手段によって重み付けされた境界位
置情報を用いて、眼球組織の形状を推定する推定演算手
段と、該推定演算手段によって推定された眼球組織の形
状を利用して該使用者の視線を演算する視線演算手段と
から構成され、不確かな境界位置情報の影響による誤差
を小さくすることができ、眼球組織の形状を高精度に検
出することができるので、使用者の視線を正確に検出す
ることができる。
Further, in the invention described in claim 13 of the present application, the light receiving means for receiving the eye image of the user and the boundary position for detecting the boundary position information of the eye tissue included in the eye image received by the light receiving means. Detection means, weighting calculation means for performing a predetermined weighting calculation on the detected boundary position information, and estimation calculation means for estimating the shape of the eye tissue using the boundary position information weighted by the weighting calculation means, And a visual line calculation unit that calculates the visual line of the user by using the shape of the eye tissue estimated by the estimation calculation unit, and an error due to the influence of uncertain boundary position information can be reduced. Since it is possible to detect the shape of the item with high accuracy, it is possible to accurately detect the line of sight of the user.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施形態を説明する構成図FIG. 1 is a configuration diagram illustrating an embodiment of the present invention.

【図2】エリアセンサで得ることができる眼球画像の例
を説明する図
FIG. 2 is a diagram illustrating an example of an eyeball image that can be obtained by an area sensor.

【図3】瞳孔エッジ抽出の例を説明する図FIG. 3 is a diagram illustrating an example of pupil edge extraction.

【図4】瞳孔円推定を説明する図FIG. 4 is a diagram for explaining pupil circle estimation.

【図5】瞳孔部の像信号の例を説明する図FIG. 5 is a diagram illustrating an example of an image signal of a pupil portion.

【図6】偽の瞳孔エッジの例を説明する図FIG. 6 is a diagram illustrating an example of a false pupil edge.

【図7】瞳孔部の像信号の例を説明する図FIG. 7 is a diagram illustrating an example of an image signal of a pupil portion.

【図8】偽の瞳孔エッジの例を説明する図FIG. 8 is a diagram illustrating an example of a false pupil edge.

【図9】図8の瞳孔エッジを抽出する例を説明する図9 is a diagram illustrating an example of extracting the pupil edge of FIG.

【符号の説明】[Explanation of symbols]

1 使用者の眼球 2 赤外発光ダイオード(IRED) 3 結像光学系 4 エリアセンサ 5 マイクロコンピュータ 11 眼球画像信号中の虹彩部 12 眼球画像信号中の瞳孔部 13a、13b 眼球画像信号中の角膜反射像 20 瞳孔エッジ 1 Eyeball of User 2 Infrared Light Emitting Diode (IRED) 3 Imaging Optical System 4 Area Sensor 5 Microcomputer 11 Iris Part in Eyeball Image Signal 12 Pupillary Part in Eyeball Image Signal 13a, 13b Corneal Reflection in Eyeball Image Signal Image 20 pupil edge

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】 使用者の眼球画像を受光する受光手段
と、該受光手段が受光した眼球画像に含まれる眼球組織
の境界位置情報を検出する境界位置検出手段と、検出し
た境界位置情報に対して所定の重み付け演算を行う重み
付け演算手段と、該重み付け演算手段によって重み付け
された境界位置情報を用いて、眼球組織の形状を推定す
る推定演算手段とを有する眼球組織形状検出装置。
1. A light receiving unit for receiving an eyeball image of a user, a boundary position detecting unit for detecting boundary position information of an eyeball tissue included in an eyeball image received by the light receiving unit, and the detected boundary position information. An eyeball tissue shape detecting device having a weighting calculation means for performing a predetermined weighting calculation and an estimation calculation means for estimating the shape of the eyeball tissue using the boundary position information weighted by the weighting calculation means.
【請求項2】 前記眼球組織は略円形状をしているとと
もに、前記推定演算手段は最小2乗法により眼球組織形
状を推定演算する請求項1に記載した眼球組織形状検出
装置。
2. The eyeball tissue shape detecting device according to claim 1, wherein the eyeball tissue has a substantially circular shape, and the estimating and calculating means estimates and calculates the eyeball tissue shape by a least square method.
【請求項3】 前記受光手段は複数の画素を有し、前記
境界位置検出手段は前記受光手段が有する前記複数の画
素の中から隣接する画素との受光レベル差が所定値以上
である画素の位置を眼球組織の境界位置として検出する
請求項1または2に記載した眼球組織形状検出装置。
3. The light receiving unit has a plurality of pixels, and the boundary position detecting unit detects a pixel having a light receiving level difference from an adjacent pixel among the plurality of pixels included in the light receiving unit to a predetermined value or more. 3. The eyeball tissue shape detecting device according to claim 1, wherein the position is detected as a boundary position of the eyeball tissue.
【請求項4】 前記受光手段は複数の画素を有し、前記
境界位置検出手段は前記受光手段が有する前記複数の画
素の中から隣接する画素との輝度差が所定値以上である
画素の位置を眼球組織の境界位置として検出する請求項
1または2に記載した眼球組織形状検出装置。
4. The light receiving unit has a plurality of pixels, and the boundary position detecting unit has a position of a pixel in which a brightness difference from an adjacent pixel among the plurality of pixels of the light receiving unit is a predetermined value or more. Is detected as the boundary position of the eye tissue.
The eyeball tissue shape detecting device described in 1 or 2.
【請求項5】 前記重み付け演算手段は前記境界位置検
出手段が前記境界位置として検出した画素と隣接画素と
の受光レベル差に応じて重み付け演算を変更する請求項
3または4に記載した眼球組織形状検出装置。
5. The weighting calculation means changes the weighting calculation according to a light reception level difference between a pixel detected by the boundary position detection means as the boundary position and an adjacent pixel.
The eyeball tissue shape detecting device described in 3 or 4.
【請求項6】 前記重み付け演算手段は前記境界位置検
出手段が前記境界位置として検出した画素と隣接画素と
の受光レベル差が大きいものほど大きい重み付けを行う
ことを特徴とする請求項5に記載した眼球組織形状検出
装置。
6. The method according to claim 5, wherein the weighting calculation means performs greater weighting as the light reception level difference between the pixel detected by the boundary position detection means as the boundary position and an adjacent pixel is larger. Eyeball tissue shape detector.
【請求項7】 前記重み付け演算手段は前記境界位置検
出手段が前記境界位置として検出した画素と隣接画素と
の輝度差に応じて重み付け演算を変更する請求項3また
は4に記載した眼球組織形状検出装置。
7. The eyeball tissue shape detection according to claim 3, wherein the weighting calculation unit changes the weighting calculation according to a brightness difference between a pixel detected as the boundary position by the boundary position detection unit and an adjacent pixel. apparatus.
【請求項8】 前記重み付け演算手段は前記境界位置検
出手段が前記境界位置として検出した画素が有する隣接
画素との輝度差が大きいものほど大きい重み付けを行う
ことを特徴とする請求項7に記載した眼球組織形状検出
装置。
8. The method according to claim 7, wherein the weighting calculation means performs greater weighting for a pixel having a larger brightness difference from an adjacent pixel included in the pixel detected as the boundary position by the boundary position detecting means. Eyeball tissue shape detector.
【請求項9】 前記重み付け演算手段は前記境界位置検
出手段が前記境界位置として検出した画素の位置に応じ
て重み付け演算を変更する請求項3または4に記載した眼
球組織形状検出装置。
9. The eyeball tissue shape detecting apparatus according to claim 3, wherein the weighting calculation unit changes the weighting calculation according to the position of the pixel detected by the boundary position detection unit as the boundary position.
【請求項10】 前記重み付け演算手段は前記境界位置
検出手段が前記境界位置として検出した画素の位置座標
が前記受光手段の中央部に近いものほど大きい重み付け
を行うことを特徴とする請求項9に記載した眼球組織形
状検出装置。
10. The weighting calculation means performs a greater weighting as the position coordinates of the pixel detected by the boundary position detection means as the boundary position are closer to the center of the light receiving means. The described eyeball tissue shape detection device.
【請求項11】 前記受光手段はエリアセンサであっ
て、前記重み付け演算手段は該エリアセンサの読み出し
方向に応じて重み付け演算を変更する請求項3または4に
記載した眼球組織形状検出装置。
11. The eyeball tissue shape detecting apparatus according to claim 3, wherein the light receiving unit is an area sensor, and the weighting calculation unit changes the weighting calculation according to a reading direction of the area sensor.
【請求項12】 前記眼球組織形状検出装置は該装置が
使用されるときの姿勢を検出する姿勢検出手段を有し、
前記重み付け演算手段は該姿勢検出手段の検出結果に基
づいて重み付け演算を変更する請求項3または4に記載し
た眼球組織形状検出装置。
12. The eyeball tissue shape detecting device has a posture detecting means for detecting a posture when the device is used,
5. The eyeball tissue shape detecting device according to claim 3, wherein the weighting calculation unit changes the weighting calculation based on a detection result of the posture detection unit.
【請求項13】 使用者の眼球画像を受光する受光手段
と、該受光手段が受光した眼球画像に含まれる眼球組織
の境界位置情報を検出する境界位置検出手段と、検出し
た境界位置情報に対して所定の重み付け演算を行う重み
付け演算手段と、該重み付け演算手段によって重み付け
された境界位置情報を用いて、眼球組織の形状を推定す
る推定演算手段と、該推定演算手段によって推定された
眼球組織の形状を利用して該使用者の視線を演算する視
線演算手段とを有する視線検出装置。
13. A light receiving unit for receiving an eyeball image of a user, a boundary position detecting unit for detecting boundary position information of an eyeball tissue included in an eyeball image received by the light receiving unit, and the detected boundary position information. A weighting calculation means for performing a predetermined weighting calculation, an estimation calculation means for estimating the shape of the eyeball tissue by using the boundary position information weighted by the weighting calculation means, and an estimation of the eyeball tissue estimated by the estimation calculation means. A line-of-sight detection device having a line-of-sight calculation means for calculating the line-of-sight of the user using the shape.
【請求項14】 前記眼球組織は略円形状をしていると
ともに、前記推定演算手段は最小2乗法により眼球組織
形状を推定演算する請求項13に記載した視線検出装置。
14. The line-of-sight detection apparatus according to claim 13, wherein the eyeball tissue has a substantially circular shape, and the estimation calculation means estimates and calculates the eyeball tissue shape by a least square method.
【請求項15】 前記受光手段は複数の画素を有し、前
記境界位置検出手段は前記受光手段が有する前記複数の
画素の中から隣接する画素との輝度差が所定値以上であ
る画素の位置を眼球組織の境界位置として検出する請求
項13に記載した視線検出装置。
15. The position of a pixel in which the light receiving unit has a plurality of pixels, and the boundary position detecting unit has a luminance difference from an adjacent pixel of the plurality of pixels included in the light receiving unit to a predetermined value or more. 14. The line-of-sight detection device according to claim 13, which detects a boundary position of eye tissue.
【請求項16】 前記重み付け演算手段は前記境界位置
検出手段が前記境界位置として検出した画素と隣接画素
との輝度差に応じて重み付け演算を変更する請求項15に
記載した視線検出装置。
16. The line-of-sight detection apparatus according to claim 15, wherein the weighting calculation unit changes the weighting calculation according to a brightness difference between a pixel detected by the boundary position detection unit as the boundary position and an adjacent pixel.
【請求項17】 前記重み付け演算手段は前記境界位置
検出手段が前記境界位置として検出した画素の位置に応
じて重み付け演算を変更する請求項15に記載した視線検
出装置。
17. The line-of-sight detection apparatus according to claim 15, wherein the weighting calculation unit changes the weighting calculation according to the position of the pixel detected by the boundary position detection unit as the boundary position.
JP8015455A 1996-01-31 1996-01-31 Eyeball tissue shape detector and gaze detector Withdrawn JPH09206279A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8015455A JPH09206279A (en) 1996-01-31 1996-01-31 Eyeball tissue shape detector and gaze detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8015455A JPH09206279A (en) 1996-01-31 1996-01-31 Eyeball tissue shape detector and gaze detector

Publications (1)

Publication Number Publication Date
JPH09206279A true JPH09206279A (en) 1997-08-12

Family

ID=11889286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8015455A Withdrawn JPH09206279A (en) 1996-01-31 1996-01-31 Eyeball tissue shape detector and gaze detector

Country Status (1)

Country Link
JP (1) JPH09206279A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100949743B1 (en) * 2009-03-20 2010-03-25 동국대학교 산학협력단 Apparatus and method for wearable eye tracking having goggle typed
JP2014530730A (en) * 2011-10-24 2014-11-20 アイリス・メディカル・テクノロジーズ・リミテッド System and method for identifying eye symptoms

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100949743B1 (en) * 2009-03-20 2010-03-25 동국대학교 산학협력단 Apparatus and method for wearable eye tracking having goggle typed
JP2014530730A (en) * 2011-10-24 2014-11-20 アイリス・メディカル・テクノロジーズ・リミテッド System and method for identifying eye symptoms

Similar Documents

Publication Publication Date Title
US10614303B2 (en) Reliability of gaze tracking data for left and right eye
EP3681371B1 (en) Reliability of gaze tracking data for left and right eye
EP2774380B1 (en) Method and system for stereo gaze tracking
Zhu et al. Robust pupil center detection using a curvature algorithm
EP3689236A1 (en) Posture estimation device, behavior estimation device, posture estimation program, and posture estimation method
CN113808160B (en) Sight direction tracking method and device
JP3143819B2 (en) Eyelid opening detector
KR20210122271A (en) Eye tracking devices and methods
JP5626039B2 (en) Gaze detection apparatus and gaze detection method
CN112464793A (en) Method, system and storage medium for detecting cheating behaviors in online examination
WO2018220963A1 (en) Information processing device, information processing method, and program
JP3726122B2 (en) Gaze detection system
JP2501288B2 (en) Gaze point estimation device
CN113221815A (en) Gait identification method based on automatic detection technology of skeletal key points
US20220084244A1 (en) Information processing apparatus, information processing method, and program
US11823413B2 (en) Eye gaze tracking system, associated methods and computer programs
JPH09206279A (en) Eyeball tissue shape detector and gaze detector
JP4055858B2 (en) Gaze detection system
JP2005081101A (en) System and methodology for detecting visual axis direction
KR101601508B1 (en) Method for tracking gaze
JP3376207B2 (en) Eye gaze detecting apparatus and method
JPH1099279A (en) Visual axis detecting device and optical instrument
US11156831B2 (en) Eye-tracking system and method for pupil detection, associated systems and computer programs
CN110058693B (en) Data acquisition method and device, electronic equipment and storage medium
Karmali et al. Automatic detection of camera translation in eye video recordings using multiple methods

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20030401