JP3225270B2 - Gaze measurement method, gaze measurement device - Google Patents

Gaze measurement method, gaze measurement device

Info

Publication number
JP3225270B2
JP3225270B2 JP15843799A JP15843799A JP3225270B2 JP 3225270 B2 JP3225270 B2 JP 3225270B2 JP 15843799 A JP15843799 A JP 15843799A JP 15843799 A JP15843799 A JP 15843799A JP 3225270 B2 JP3225270 B2 JP 3225270B2
Authority
JP
Japan
Prior art keywords
eyeball
calibration data
gaze
line
measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP15843799A
Other languages
Japanese (ja)
Other versions
JP2000308618A (en
Inventor
浩 斉藤
Original Assignee
経済産業大臣
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 経済産業大臣 filed Critical 経済産業大臣
Priority to JP15843799A priority Critical patent/JP3225270B2/en
Publication of JP2000308618A publication Critical patent/JP2000308618A/en
Application granted granted Critical
Publication of JP3225270B2 publication Critical patent/JP3225270B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【発明の属する技術分野】本発明は、人の視線の方向を
正確に計測することのできる視線計測方法及び視線計測
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a gaze measuring method and a gaze measuring device capable of accurately measuring the direction of a gaze of a person.

【従来の技術】従来の視線方向計測装置としては、例え
ば特開平9−238905に示されたようなものがあ
る。かかる装置においては、眼球位置と眼球回転角を検
出することにより視線方向を算出することができる。
2. Description of the Related Art As a conventional line-of-sight direction measuring apparatus, for example, there is one as disclosed in Japanese Patent Application Laid-Open No. 9-238905. In such an apparatus, the gaze direction can be calculated by detecting the eyeball position and the eyeball rotation angle.

【発明が解決しようとする課題】しかしながら、同じ対
象を見ていても眼球の位置がずれると、眼球回転角が変
化し、正確な視線方向を算出することができなくなる。
そこで従来は、図12のような校正方法を採用してい
た。図12(a)は、眼球1が校正用の第1の視標3を
見ている状態を真上から見たものである。なお、図12
(a)には第1の視標3の他に第2の視標5、第3の視
標7をそれぞれ示している。同図において眼球がX
位置にある時、第1の視標3を見ていれば、眼球回転角
がθ=θと検出される。ここで、眼球位置及び眼球回
転角を検出しているときに人の頭は常に同一位置に正確
に位置しているものではなく、時間と共に左右に若干ず
れる傾向にあり、例えば頭が左方向にずれて眼球位置が
にあったとすると、第1の視標3に対し眼球回転角
はθ=θと検出されることになる。従って、同じ第1
の視標3に視線方向がありながら眼球回転角θが異なっ
て検出されることになり、眼球位置Xと眼球回転角θ
とから視線方向を算出すると算出される視線方向がず
れるという問題がある。こうした、従来の視線計測装置
にあっては、図12(b)のような校正データライン9
を作成して視線方向の校正を行うことになる。この校正
方法は、以下のように行なわれる。例えば眼球1が第1
の視標3を見ているときに頭部移動に応じた眼球回転角
θ=θ,θ等、複数の眼球回転角を検出し、かかる
検出を第2の視標5及び第3の視標7についても行い、
それぞれ複数、例えば図12(b)のようにそれぞれの
視標毎に2個のデータをそれぞれ検出する。これらのデ
ータに基づいて最小二乗法を適用し、校正データライン
9を得る。そして、例えば眼球回転角θが検出された
場合に、その眼球回転角θと校正データライン9との
交点における左右方向の位置10が校正された視線方向
を表すことになる。尚、図12においては水平方向の頭
部の移動についての校正を示したが、垂直方向の頭部の
移動による校正も同様に行う。しかしながら、眼球回転
角θ=θが検出されたとき、図12(b)のように校
正データライン9による視線方向は本来の視線方向であ
る第1の視標3から距離Sだけずれることになり、頭部
の移動を許容して校正を行っても正確な校正にはならな
いという問題があった。本発明は、眼球位置も考慮した
より正確な校正によって視線方向の計測を行うことので
きる視線計測方法及び視線計測装置の提供を課題とす
る。
However, if the position of the eyeball deviates even if the same object is viewed, the eyeball rotation angle changes, and it becomes impossible to calculate an accurate gaze direction.
Therefore, conventionally, a calibration method as shown in FIG. 12 has been adopted. FIG. 12A shows a state in which the eyeball 1 is viewing the first target 3 for calibration from directly above. FIG.
(A) shows a second optotype 5 and a third optotype 7 in addition to the first optotype 3 respectively. When the eye is at the position of X o in the figure, if viewed first target 3, the eyeball rotation angle is detected to θ = θ o. Here, when detecting the eyeball position and the eyeball rotation angle, the head of the person is not always accurately located at the same position, and tends to slightly shift left and right with time, for example, the head moves to the left. When deviated eye position was in X 1, the eyeball rotation angle with respect to the first target 3 will be detected as theta = theta 1. Therefore, the same first
The eyeball rotation angle θ is detected differently while the target 3 has a line-of-sight direction, and the eyeball position Xo and the eyeball rotation angle θ
There is a problem that when the gaze direction is calculated from 1 , the calculated gaze direction is shifted. In such a conventional eye gaze measuring apparatus, a calibration data line 9 as shown in FIG.
Is created and the gaze direction is calibrated. This calibration method is performed as follows. For example, the eyeball 1 is the first
A plurality of eyeball rotation angles, such as eyeball rotation angles θ = θ 1 , θo, etc., corresponding to the movement of the head when looking at the target 3, and the detection is performed by the second target 5 and the third target. The same goes for the target 7,
A plurality of data, for example, two data are detected for each optotype as shown in FIG. A calibration data line 9 is obtained by applying the least square method based on these data. Then, for example, when the eyeball rotation angle theta 1 is detected, the position in the lateral direction of 10 at the intersection between the eyeball rotation angle theta 1 and the calibration data line 9 will represent calibrated viewing direction. In FIG. 12, the calibration for the movement of the head in the horizontal direction is shown, but the calibration for the movement of the head in the vertical direction is performed in the same manner. However, when the eyeball rotation angle theta = theta 1 is detected, to deviate from the 12 first target 3 viewing direction by the calibration data line 9 is the original visual line direction as shown in (b) by a distance S Therefore, there is a problem that even if the calibration is performed while allowing the movement of the head, the calibration is not accurate. An object of the present invention is to provide a gaze measurement method and a gaze measurement device capable of measuring a gaze direction by more accurate calibration in consideration of an eyeball position.

【課題を解決するための手段】請求項1の発明は、眼球
が特定の対象を注視しているときの視線方向に対応した
物理量を該眼球が移動し得る視線計測可能範囲の複数の
特定された位置毎にそれぞれ求め、該特定された眼球位
置での複数の物理量を複数の特定の対象について各対象
毎に複数組求め、該複数組の各組毎に求められた特定さ
れた眼球位置での複数の物理量に基づき、選択された眼
球位置における校正データポイントを各組毎に求め、該
複数の校正データポイントに基づき前記選択された眼球
位置における校正データラインを求め、該眼球位置を考
慮した校正データラインを用いて視線方向を求めること
を特徴とする。請求項2の発明は、眼球が特定の対象を
注視しているときの視線方向に対応した物理量を複数回
求め、該複数の物理量を複数の特定の対象について各対
象毎に複数組求め、該複数組の各組毎に各複数の物理量
に基づき眼球が移動し得る視線計測可能範囲の複数の特
定された位置毎に視線方向に対応した複数の物理量を複
数組推定し、該複数組の各組毎に推定された特定された
眼球位置での複数の物理量に基づき、選択された眼球位
置における校正データポイントを各組毎に求め、該複数
の校正データポイントに基づき前記選択された眼球位置
における校正データラインを求め、該眼球位置を考慮し
た校正データラインを用いて視線方向を求めることを特
徴とする。請求項3の発明は、請求項1又は2記載の視
線計測方法であって、前記眼球位置を考慮した校正デー
タラインと前記選択された眼球位置における視線方向に
対応した物理量とから視線方向を求めることを特徴とす
る。請求項4の発明は、被験者の眼球位置を計測する眼
球位置計測手段と、被験者の視線方向に対応した物理量
を計測する物理量計測手段と、眼球が特定の対象を注視
しているときの視線方向に対応した物理量を該眼球が移
動し得る視線計測可能範囲の複数の特定された位置毎
それぞれ求め、該特定された眼球位置での複数の物理量
を複数の特定の対象について各対象毎に複数組抽出して
記憶する特定の物理量抽出記憶手段と、該複数組の各組
毎に抽出された特定された眼球位置での複数の物理量に
基づき、選択された眼球位置における校正データポイン
トを各組毎に算出する校正データポイント演算手段と、
該複数の校正データポイントに基づき前記選択された眼
球位置における校正データラインを算出する校正データ
ライン演算手段とを備え、該眼球位置を考慮した校正デ
ータラインを用いて視線方向を求めることを特徴とす
る。請求項5の発明は、被験者の眼球位置を計測する眼
球位置計測手段と、被験者の視線方向に対応した物理量
を計測する物理量計測手段と、眼球が特定の対象を注視
しているときの視線方向に対応した物理量を複数回求
め、該複数の物理量を複数の特定した各対象毎に複数組
求め、該複数組の各組毎に各複数の物理量に基づき眼球
が移動し得る視線計測可能範囲の複数の特定された位置
に視線方向に対応した複数の物理量を複数組推定して
記憶する特定の物理量推定記憶手段と、該複数組の各組
毎に推定された特定された眼球位置での複数の物理量に
基づき、選択された眼球位置における校正データポイン
トを各組毎に算出する校正データポイント演算手段と、
該複数の校正データポイントに基づき前記選択された眼
球位置における校正データラインを算出する校正データ
ライン演算手段とを備え、該眼球位置を考慮した校正デ
ータラインを用いて視線方向を求めることを特徴とす
る。請求項6の発明は、請求項4又は5記載の視線計測
装置であって、前記眼球位置を考慮した校正データライ
と前記眼球位置計測手段で計測され選択された眼球位
置における視線方向に対応した物理量とから視線方向を
算出する視線方向算出手段を備えたことを特徴とする。
請求項7の発明は、請求項4〜6のいずれかに記載の視
線計測装置であって、前記眼球位置計測手段は、被験者
の目を含む顔の画像を撮像する撮像手段と、該撮像手段
による顔画像から円形領域を抽出し、該円形領域の重心
位置を眼球位置とする眼球位置算出手段とからなること
を特徴とする。請求項8の発明は、請求項7に記載の視
線計測装置であって、前記物理量計測手段は、前記被験
者の顔を照射する照明手段と、該照明手段に基づく角膜
反射像と前記眼球位置算出手段による重心位置との距離
を物理量に対応した眼球特徴量とする眼球特徴量計測手
段とからなることを特徴とする。請求項9の発明は、請
求項8記載の視線計測装置であって、前記眼球特徴量計
測手段は、前記円形領域の回りに角膜の大きさを上回る
矩形の領域を設定し、該矩形の領域内の最も明るい点を
角膜反射像とすることを特徴とする。請求項10の発明
は、請求項4記載の視線計測装置であって、前記特定の
物理量抽出記憶手段は、前記特定の対象として視標を特
定位置に投影する視標投影手段と、該視標投影手段を制
御し前記特定位置を複数とする視標制御手段とを備えて
いることを特徴とする。請求項11の発明は、請求項5
記載の視線計測装置であって、前記特定の物理量推定記
憶手段は、前記特定の対象として視標を特定位置に投影
する視標投影手段と、該視標投影手段を制御し前記特定
位置を複数とする視標制御手段とを備えていることを特
徴とする。
SUMMARY OF THE INVENTION claims 1 invention, eyeball a physical quantity corresponding to the line-of-sight direction when gazing at the specific target multiple gaze measurable range in which the eye can move
The eyeball position determined for each of the specified positions
Plural sets determined, specific of determined for each of the plurality of sets of each set a plurality of physical quantities for each object more specific object at location
Based on a plurality of physical quantities at the selected eye position, a calibration data point at the selected eye position is determined for each set, and a calibration data line at the selected eye position is determined based on the plurality of calibration data points. Consider eyeball position
The gaze direction is obtained by using the considered calibration data line . The invention according to claim 2 is to determine a plurality of physical quantities corresponding to the direction of the line of sight when the eyeball is gazing at a specific target, and to obtain a plurality of sets of the plurality of physical quantities for each of the plurality of specific targets. For each of the plurality of sets, based on a plurality of physical quantities, a plurality of characteristics of a gaze measurable range in which an eyeball can move.
A plurality of sets of a plurality of physical quantities corresponding to the line of sight directions are estimated for each of the determined positions, and the identified and estimated sets are estimated for each of the plurality of sets .
Based on a plurality of physical quantity at eye position, determine the calibration data point in a selected eye position for each set, determine the calibration data lines in the selected eye position based on the calibration data points of said plurality, the eyeball position Taking into account
The gaze direction is obtained using the corrected calibration data line . According to a third aspect of the present invention, there is provided the eye gaze measuring method according to the first or second aspect, wherein the calibration data considering the eyeball position is used.
And obtaining the viewing direction and a physical quantity corresponding to the viewing direction in the selected eye position and Tarain. The invention according to claim 4 is an eyeball position measuring means for measuring an eyeball position of a subject, a physical quantity measuring means for measuring a physical quantity corresponding to a gaze direction of the subject, and a gaze direction when the eyeball is gazing at a specific target. the eyeball is moved a physical quantity corresponding to the
A plurality of physical quantities at the specified eyeball positions are obtained for each of a plurality of specified positions in the movable eye gaze measurable range , and a plurality of physical quantities at the specified eyeball positions are extracted and stored for each of the plurality of specific targets. Physical quantity extraction storage means, and a calibration data point calculation for calculating a calibration data point at a selected eyeball position for each set based on a plurality of physical quantities at a specified eyeball position extracted for each of the plurality of sets. Means,
Calibration de to a calibration data line calculating means for calculating the calibration data lines in the selected eye position based on the calibration data points of said plurality, considering the eyeball position
And obtaining the sight line direction using a Tarain. The invention according to claim 5 is an eyeball position measuring means for measuring the eyeball position of a subject, a physical quantity measuring means for measuring a physical quantity corresponding to the gaze direction of the subject, and a gaze direction when the eyeball is gazing at a specific target. Are obtained a plurality of times, and a plurality of sets of the plurality of physical quantities are obtained for each of the plurality of specified objects, and the eyeball is determined for each of the plurality of sets based on the plurality of physical quantities.
Multiple specified positions in the gaze measurable range where the user can move
Based on a plurality of physical quantity of a plurality of physical quantity and specific physical quantity estimation storage means for plurality of sets estimated and stored, in the eyeball position specified is estimated for each of the plurality of sets of each set corresponding to the viewing direction for each, Calibration data point calculation means for calculating the calibration data points at the selected eyeball position for each set,
Calibration de to a calibration data line calculating means for calculating the calibration data lines in the selected eye position based on the calibration data points of said plurality, considering the eyeball position
And obtaining the sight line direction using a Tarain. According to a sixth aspect of the present invention, there is provided the eye gaze measuring apparatus according to the fourth or fifth aspect, wherein a calibration data line considering the eyeball position is provided.
Characterized in that the emissions from the physical quantity corresponding to the viewing direction in is selected eyeball position measured by the eyeball position measuring means with a gaze direction calculating means for calculating a viewing direction.
According to a seventh aspect of the present invention, in the eye gaze measuring device according to any one of the fourth to sixth aspects, the eyeball position measuring unit includes an imaging unit configured to capture an image of a face including a subject's eyes, and the imaging unit. And an eyeball position calculating means for extracting a circular region from the face image according to (1) and using the position of the center of gravity of the circular region as an eyeball position. The invention according to claim 8 is the eye gaze measuring device according to claim 7, wherein the physical quantity measuring means includes an illuminating means for irradiating the face of the subject, a corneal reflection image based on the illuminating means, and the eyeball position calculation. And an eyeball feature amount measuring means for setting a distance from the center of gravity by the means to an eyeball feature amount corresponding to the physical quantity. According to a ninth aspect of the present invention, in the eye gaze measuring apparatus according to the eighth aspect, the eyeball feature amount measuring means sets a rectangular area around the circular area that exceeds the size of the cornea, and the rectangular area The brightest point within is defined as a corneal reflection image. According to a tenth aspect of the present invention, in the eye gaze measuring apparatus according to the fourth aspect, the specific physical quantity extracting and storing means includes a target projecting means for projecting a target as a specific target at a specific position; And an optotype control means for controlling the projection means to make the specific position a plurality. The invention of claim 11 is the invention of claim 5
The eye gaze measuring device according to claim 1, wherein the specific physical quantity estimation storage means includes: a target projection means for projecting a target at a specific position as the specific target; and a plurality of the specific positions by controlling the target projection means. And a target control means.

【発明の効果】請求項1の発明では、視線方向に対応し
た物理量を眼球が移動し得る視線計測可能範囲の複数の
特定された位置、例えば視線計測装置が検出可能な限界
位置毎にそれぞれ求めて、該複数の物理量を複数の特定
の対象について複数組求めることにより校正データライ
ンを作成するから、正確な校正データラインを得ること
ができる。すなわち視線計測装置の計測可能な限界位置
というのは、その中間位置とは異なり、常に一定した位
置であり、かかる一定した位置(眼球位置)における視
線方向に対応した物理量に基づいて校正データラインを
作成すると、眼球位置を考慮した正確な校正データライ
ンを得ることができ、該校正データラインによって正確
な視線方向を求めることができる。請求項2の発明で
は、検出された複数の物理量に基づき眼球が移動し得る
視線計測可能範囲の複数の特定された位置毎に視線方向
に対応した複数の物理量を複数組推定することに基づい
て校正データラインを作成するから、上記同様特定され
た眼球位置の物理量を用いることができ、眼球位置を考
慮した正確な校正データラインを得ることができて正確
な視線方向を計測することができる。請求項3の発明で
は、請求項1又は2の発明の効果に加え、眼球位置を考
慮した校正データラインに対し、計測等によって選択さ
れた眼球位置における視線方向に対応した物理量を当て
はめることによって、正確な視線方向を得ることができ
る。請求項4の発明では、検出された複数の物理量に基
づき、眼球が移動し得る計測可能範囲の複数の特定され
た位置毎に視線方向に対応した複数の物理量を複数組求
めることに基づいて校正データラインを作成するから眼
球位置を考慮した正確な校正データラインを得ることが
でき、正確な視線方向を計測することができる。請求項
5の発明では、検出された複数の物理量に基づき眼球が
移動し得る計測可能範囲の複数の特定された位置毎に視
線方向に対応した複数の物理量を複数組推定することに
基づいて校正データラインを作成するから眼球位置を考
慮した正確な校正データラインを得ることができ、正確
な視線方向を計測することができる。請求項6の発明で
は、請求項4又は5の発明の効果に加え、眼球位置を考
慮した校正データラインに眼球位置計測手段で計測され
選択された眼球位置における視線方向に対応した物理量
を当てはめることによって、視線方向算出手段により正
確な視線方向を算出することができる。請求項7の発明
では、請求項4〜6の何れかの発明の効果に加え、被験
者の目を含む顔の画像を撮像し、該顔画像から円形領域
を抽出し、円形領域の重心位置を眼球位置とするため、
眼球位置を正確に計測することができ、より正確な視線
方向を得ることができる。請求項8の発明では、請求項
7の発明の効果に加え、角膜反射像と重心位置との距離
によって物理量に対応した眼球特徴量を計測することが
でき、より正確な物理量計測により正確な視線方向を得
ることができる。請求項9の発明では、請求項8の発明
の効果に加え、眼球位置を特定する円形領域の回りに角
膜の大きさを考慮した矩形の領域を設定するから、より
正確に角膜反射像を得ることができ、正確な視線方向を
得ることができる。請求項10の発明では、請求項4の
発明の効果に加え、視標を複数の所定位置のそれぞれに
正確に投影することができ、特定の物理量を迅速かつ確
実に抽出記憶することができる。請求項11の発明で
は、請求項5の発明の効果に加え、視標を複数の所定位
置のそれぞれに正確に投影することができ、特定の物理
量を迅速かつ確実に推定記憶することができる。
According to the first aspect of the present invention, a physical quantity corresponding to the gaze direction is obtained for each of a plurality of specified positions in the gaze measurement range where the eyeball can move, for example, for each limit position where the gaze measurement device can detect. Thus, since a calibration data line is created by obtaining a plurality of sets of the plurality of physical quantities for a plurality of specific objects, an accurate calibration data line can be obtained. In other words, the measurable limit position of the gaze measurement device is always a constant position, unlike the intermediate position, and the calibration data line is set based on the physical quantity corresponding to the gaze direction at the fixed position (eyeball position). When created, it is possible to obtain an accurate calibration data line in consideration of the eyeball position, and it is possible to obtain an accurate gaze direction using the calibration data line. According to the invention of claim 2, based on estimating a plurality of sets of a plurality of physical quantities corresponding to a gaze direction for each of a plurality of specified positions in a gaze measurable range in which an eyeball can move based on a plurality of detected physical quantities. Since the calibration data line is created, the physical quantity of the eyeball position specified similarly to the above can be used, and an accurate calibration data line in consideration of the eyeball position can be obtained, and the accurate gaze direction can be measured. According to the third aspect of the present invention, in addition to the effects of the first or second aspect, by applying a physical quantity corresponding to a line-of-sight direction at an eyeball position selected by measurement or the like to a calibration data line considering the eyeball position, An accurate gaze direction can be obtained. According to the fourth aspect of the present invention, calibration is performed based on a plurality of sets of a plurality of physical quantities corresponding to a line-of-sight direction for each of a plurality of specified positions in a measurable range in which an eyeball can move based on a plurality of detected physical quantities. Since the data line is created, it is possible to obtain an accurate calibration data line in consideration of the eyeball position, and it is possible to measure an accurate gaze direction. According to the fifth aspect of the present invention, calibration is performed based on a plurality of sets of a plurality of physical quantities corresponding to the gaze direction estimated for each of a plurality of specified positions in a measurable range in which the eyeball can move based on the plurality of detected physical quantities. Since the data line is created, it is possible to obtain an accurate calibration data line in consideration of the eyeball position, and it is possible to measure an accurate gaze direction. According to the sixth aspect of the invention, in addition to the effects of the fourth or fifth aspect, a physical quantity corresponding to the direction of the line of sight at the selected eyeball position measured and selected by the eyeball position measuring means is applied to the calibration data line considering the eyeball position. Thereby, the gaze direction calculating means can calculate the accurate gaze direction. According to the seventh aspect of the invention, in addition to the effects of any one of the fourth to sixth aspects, a face image including the eyes of the subject is captured, a circular region is extracted from the face image, and the center of gravity of the circular region is determined. To set the eyeball position,
The eyeball position can be accurately measured, and a more accurate gaze direction can be obtained. According to the eighth aspect of the invention, in addition to the effect of the seventh aspect, an eyeball feature quantity corresponding to a physical quantity can be measured based on a distance between the corneal reflection image and the position of the center of gravity. You can get directions. According to the ninth aspect of the invention, in addition to the effect of the eighth aspect, a rectangular area is set around the circular area specifying the eyeball position in consideration of the size of the cornea, so that a corneal reflection image is more accurately obtained. And a correct gaze direction can be obtained. According to the tenth aspect, in addition to the effects of the fourth aspect, the optotype can be accurately projected on each of the plurality of predetermined positions, and a specific physical quantity can be quickly and reliably extracted and stored. According to the eleventh aspect, in addition to the effect of the fifth aspect, the target can be accurately projected on each of the plurality of predetermined positions, and the specific physical quantity can be quickly and reliably estimated and stored.

【発明の実施の形態】図1は本発明の一実施形態に係る
視線計測装置の概略ブロック図を示している。ここで、
視線計測の手法については被験者にゴーグル状の計測器
を装着させるタイプや、「ドイツのSenso Mot
oric Instruments社(日本輸入総代理
店モンテシステム)の注視点解析装置」のように非接触
で視線方向を計測可能なタイプ等々いずれの計測装置に
も適用可能である。但し、本実施形態では非接触型の視
線計測装置を例に挙げている。図1の視線計測装置は、
眼球位置計測手段11と物理量計測手段13と物理量推
定記憶手段15と校正データ作成手段17と視線方向算
出手段21と視線方向出力手段23とからなっている。
前記眼球位置計測手段11は被験者の眼球位置を計測す
るもので、撮像手段25と眼球位置算出手段27とから
なっている。前記撮像手段25は、CCDカメラで構成
され、近赤外域にも感度を持ち、被験者の目位置を含む
顔の画像を撮像する。前記眼球位置算出手段27は、撮
像手段25による顔画像から被験者の瞳孔を抽出する。
前記物理量計測手段13は、被験者の視線方向に応じた
物理量を計測するもので、照明手段29と眼球特徴量計
測手段31とからなっている。照明手段29は、近赤外
線照明であり、眼球を含む顔面を照明する。この照明手
段29は常時点灯しても画像入力時のみ点灯しても良
い。前記眼球特徴量計測手段31は、照明手段29に基
づく角膜反射像と眼球位置算出手段27による瞳孔重心
位置との距離δ,δ(後述)を物理量に対応した眼
球特徴量として計測する。前記物理量推定記憶手段15
は、眼球が特定の対象、図1では視標33を注視してい
るときの視線方向に対応した物理量を複数回求め、該複
数の特定した各対象毎に複数組求め、該複数組の各組毎
に各複数の物理量に基づき眼球が移動する複数の特定さ
れた位置毎に視線方向に対応した複数の物理量を複数組
推定して記憶するもので、視標投影手段35と視標制御
手段37と校正データ一時記憶手段39と校正データ作
成手段17の一部からなっている。前記視標投影手段3
5は、プロジェクタで構成され、校正用の視標33を特
定された位置に投影する。前記視標制御手段37は、前
記視標投影手段35を制御して投影位置を決定し、視標
33を投影する特定位置を複数とする。前記校正データ
一時記憶手段39は、眼球が特定の対象を注視している
ときの視線方向に対応した物理量を複数回求め、該複数
の物理量を複数の特定した位置の各視標毎に複数組求め
たもの、すなわち、校正時に取得した後述する瞳孔重心
位置とδH,δVとを一時記憶する。前記校正データ作
成手段17は、前記複数組の各組毎に各複数の物理量と
してのδ,δに基づき眼球が移動する複数の特定さ
れた位置毎にδ,δを複数組推定して記憶する。眼
球が移動する複数の特定された位置については後述す
る。また、前記校正データ作成手段17は校正データポ
イント演算手段及び校正データライン演算手段を構成す
る。校正データポイント演算手段は、複数組の各組毎に
推定した複数の物理量であるδ,δに基づき、眼球
位置に応じた校正データポイントを各組毎に算出するも
のである。また校正データライン演算手段は、複数の校
正データポイントに基づき選択された眼球位置における
校正データラインを算出する。前記視線方向算出手段2
1は、校正データ作成手段17において作成された校正
データラインと眼球位置計測手段11で計測され選択さ
れた眼球位置における視線方向に対応した物理量として
のδ,δとから被験者の視線方向を算出する。前記
視線方向出力手段23は、算出した視線方向を出力する
もので、例えば画面に表示するようなものである。本装
置の座標系を含めたレイアウト図を図2に示している。
図2では視線計測可能範囲40の中央位置(X
)における視線方向を示し、被験者の前方に位置
A,B,C,D,Eの横方向、及び位置F,G,H,
I,Jの縦方向にそれぞれ視標33を切り替えて投影す
る状態を示している。但し、この図2では、便宜上すべ
ての位置において視標33を示している。そして、眼球
位置(X,Y)において位置Aの視標33を注視し
た場合の視線の水平方向偏角をθとし、位置Fの視標
33を注視した場合の垂直方向偏角をθとして示して
いる。また視線計測可能範囲の端の位置Xmin,X
max,Ymax,Yminを眼球が移動する複数の特
定された位置、すなわち特別な位置としている。校正デ
ータを作成する場合には、視標33の投影位置をAから
Jまで切替え、かつ各位置毎に複数回視線方向に対応し
た物理量である水平方向偏角θ、垂直方向偏角θ
応じた眼球特徴量δ,δを後述するように計測す
る。そして、まず校正においては、照明手段29を点灯
し、撮像手段25により被験者の眼球1を含む画像を撮
像する。次いで、照明手段29を消灯し、眼球位置算出
手段27によって入力画像から瞳孔が抽出され、その重
心位置が計測される。処理の詳細は後述する。次に、眼
球特徴量計測手段31によって照明手段29に基づく角
膜反射像と眼球位置算出手段27による瞳孔重心位置と
の距離δ,δを物理量に対応した眼球特徴量として
算出する。処理の詳細は後述する。次いで、校正データ
一時記憶手段39に図2の位置Aにおける視標33の注
視時に得られたデータである旨を付与して、上記瞳孔重
心位置とδ,δとが記憶される。この記憶は被験者
の頭の動きに対応して複数回行われる。すなわち眼球1
が特定の対象である視標33を注視しているときの視線
方向に対応した物理量を複数回求めて記憶している。更
に、視標制御手段37によって視標投影手段35が制御
され、同時に校正データ一時記憶手段39へも信号が入
力されることによって、各投影位置における視標33毎
に瞳孔重心位置とδ,δとが記憶される。すなわち
複数の物理量を複数の特定した各対象毎に複数組求めて
いる。更に、校正データ作成手段17が、校正データ一
時記憶手段39に保持されたデータから、眼球1が図2
の計測可能領域40の端である位置Xmin
max,Ymin,Ymaxにあると仮定したときの
δ,δを、複数組推定して記憶する。すなわち各対
象毎の複数組の各組毎に各複数の物理量に基づき眼球が
移動する複数の特定された位置毎に視線方向に対応した
複数の物理量を複数組推定して記憶している。処理の詳
細は後述する。次に、視線計測においては、図1の視標
制御手段37、視標投影手段35、校正データ一時記憶
手段39を除いた構成で実行される。被験者が作業を行
っている間、以下の処理が繰り返し実行される。すなわ
ち、まず照明手段29が点灯され、撮像手段25により
被験者の眼球位置を含む画像が撮像される。次いで照明
手段29が消灯され、眼球位置算出手段27によって入
力画像から瞳孔が抽出され、その重心位置が計測され
る。処理の詳細は後述する。次に、眼球特徴量計測手段
31によってδ,δが算出される。処理の詳細は後
述する。次に、視線方向算出手段21において得られた
瞳孔重心位置を用いて前記のように作成された校正デー
タを基にその選択された眼球位置で予測される校正デー
タを推定する。すなわち複数組の各組毎に推定された複
数の物理量に基づき選択された眼球位置における構成デ
ータポイントを各組毎に算出し、複数の構成データポイ
ントに基づき選択された眼球位置における構成データラ
インを算出する。処理の詳細は後述する。そして、視線
方向算出手段21は、校正データラインを用いて視線方
向を求める。即ち、被験者の眼球1の眼球特徴量を取り
込み、校正データラインにより視線方向を算出する。該
算出された視線方向は、視線方向出力手段23によって
出力する。そして、かかる正確な視線方向の出力を用い
ることにより、「工場プラントのモニタ監視作業」に代
表される視環境設計(計器の配置、大きさ等の設計)に
利用することができる。また、自動車のメータパネル表
示装置において、被験者にそのメータパネルを見せ、そ
のメータの出来の良さを評価したり、目の見ている方向
に応じて情報を出し入れし、カメラマンが覗いた位置に
ピントを合わせる等の作用効果を奏することができる。
次に図3,図4のフローチャートを用い、図1、図2を
参照しつつ視線計測方法及び視線計測装置の作用を説明
する。図2のフローが実行されると、まずステップS1
において眼球位置検出が行われる。この眼球位置検出
は、前記のように、図1の眼球位置算出手段27の眼球
位置を読み込むことによって行われる。ステップS2で
は眼球回転角検出が行われる。この眼球回転角検出は、
図1の眼球特徴量計測手段31の計測結果を読み込むこ
とによって行われる。眼球回転角と眼球特徴量との関係
は後述する。ステップS3においては、被験者の頭部の
動きを考慮するため、眼球位置、眼球回転角を複数回検
出したか否かが判断され、決められた回数例えばn=5
回検出された場合に、ステップS4へ移行し、複数の視
標位置につき検出したか否かの判断が行われる。この複
数位置の視標は、前記のように図1の視標制御手段37
による視標投影手段35の制御によるものであり、視標
33が図2のA〜Jの異なった特定位置に投影されるも
ので、前記判断は、該それぞれの特定の位置における視
標33について前記眼球位置、眼球回転角の検出がそれ
ぞれ行なわれたか否かとなる。複数の視標位置につき検
出された場合はステップS5へ移行し、特定位置データ
の予測が行われる。特定位置というのは、前記図2のX
min,Xmax,Ymin,Ymaxである。そして
該特定位置における眼球回転角が、位置の異なる各視標
33毎に複数組予測推定される。次いで、ステップS6
において、眼球位置が読み込まれ、該眼球位置における
校正データが作成される。この校正データの作成は前記
のように校正データ作成手段17において校正データポ
イントを算出し、更に校正データラインを算出するもの
である。以上のステップS1〜ステップS6までが校正
ステップを表している。次いで、ステップS7におい
て、眼球回転角検出が行われる。この眼球回転角検出
は、前記眼球特徴量計測手段31において眼球特徴量が
計測されることによって行われる。ステップS8では、
前記校正データと眼球回転角を用いて視線方向の算出が
行われる。このステップS7,S8が計測ステップであ
る。前記ステップS6の校正データ作成の詳細フローは
図4のようになっている。この図4の(a)は横方向の
校正データ作成、(b)は縦方向の校正データ作成のフ
ローをそれぞれ示している。まず(a)のように、ステ
ップS31において横方向の眼球位置Xが読込まれ、
ステップS32において眼球位置Xでの校正データポ
イントが予測される。ステップS33では位置の異なる
各視標33毎に校正データポイントが予測されたか否か
の判断が行われ、各視標位置毎に予測された場合はステ
ップS34において眼球位置Xにおける予測校正デー
タラインの出力が行われる。また、横方向の校正データ
ラインの出力が行われると、(b)のフローが実行さ
れ、前記同様な処理によりステップS35〜S38が実
行され、眼球位置Yにおける予測校正データラインが
出力される。従って、かかる横方向、縦方向の校正デー
タラインを用いることにより、前記のように視線方向算
出手段21において視線方向が正確に算出され、視線方
向出力手段23において正確な視線方向を出力すること
ができる。図5〜図7は、前記眼球位置算出手段27及
び眼球特徴量計測手段31における前記ステップS1の
眼球位置検出及びステップS2の眼球回転角検出の処理
を示したものである。まず図5のステップS111は、
入力された顔画像が読み込まれた状態を示している。ス
テップS112では二値化処理を行い、一定の明るさ以
下の領域を残している。ステップS113では円形領域
の抽出を行っている。この抽出はテンプレートマッチン
グあるいは領域の形状解析等によって行っている。前記
テンプレートマッチングは、予め検出したい形状を持つ
テンプレートを準備しておき、このテンプレートを対象
となる画像上のすべての点に対して重ね合わせ、一致度
を算出する。一致度の高い場所に、作用させたテンプレ
ートと同じ形状が存在することがわかる。本実施形態の
場合、円形もしくは楕円形のテンプレートを数種類用意
しておき、それらのテンプレートとの一致度を計数して
いる。また領域の形状解析による場合は、領域の円形度
を測る手法として、領域の面積と周囲長を基に評価する
方法がよく知られている。これは領域の面積をS、周囲
長をLとしたとき、対象領域が円に近いほどL*L/S
が4πに近いという判定方法に基づくものである。次に
検出された円形領域の重心を算出する。すなわち図6の
ステップS114において瞳孔抽出結果が読み込まれ、
ステップS212において角膜反射像探索領域設定が行
われる。角膜反射像は必ず瞳孔の近傍にあるので、抽出
した瞳孔近傍に矩形領域を設定する。すなわち円形領域
の回りに角膜の大きさを上回る矩形の領域を設定する。
ステップS213では、入力された画像の上で設定した
矩形の領域内の最も明るい点Pを探索する。この点Pが
角膜反射像となる。次いでステップS214において視
線方向に応じて変化する眼球の特徴量δ,δを算出
する。この算出は例えば図7のように行なう。図7はス
テップS213の探索結果を示したもので、瞳孔41、
瞳孔重心43、角膜反射像Pが示されている。この図7
のように、瞳孔重心43位置と角膜反射像Pとの位置ず
れ、すなわち横方向、縦方向の距離δ,δを算出す
る。この距離δ,δは、視線方向に応じて変化する
眼球の特徴量であり、該眼球の特徴量δ,δは、視
線方向に対応した物理量、例えば前記眼球の回転角θに
対応している。図8は校正方法の一例を示したもので、
(a)は水平方向、(b)は垂直方向をそれぞれ示して
いる。視線方向に対応した物理量(例えば眼球の回転角
θ)とそれに応じて変化する眼球の特徴量(例えば瞳孔
重心と角膜反射像との位置ずれδ)の関係は、例えばこ
の図8のようになる。この関係を得るのが校正作業であ
る。すなわち校正によって(δHi,θHi)(i=
1,2,…,n)が得られたとする。この場合水平方向
のみについて考える。図8よりθ=aδ+bと近似し、
予測される視線方向(aδHi+b)と実際の視線方向
(θHi)との差の二乗和で記述される誤差をSとする
と、
FIG. 1 is a schematic block diagram of a gaze measuring apparatus according to an embodiment of the present invention. here,
As for the method of gaze measurement, a type in which a subject wears a goggle-shaped measuring device or a method such as “Senso Mot of Germany”
It can be applied to any measuring device such as a type that can measure the direction of the line of sight in a non-contact manner, such as a gaze point analyzing device of oric Instruments (Monte System of Japan Import Agency). However, in the present embodiment, a non-contact type eye gaze measuring device is taken as an example. The eye gaze measuring device of FIG.
It comprises an eyeball position measuring means 11, a physical quantity measuring means 13, a physical quantity estimating storage means 15, a calibration data creating means 17, a gaze direction calculating means 21, and a gaze direction output means 23.
The eyeball position measuring means 11 measures the eyeball position of the subject, and comprises an imaging means 25 and an eyeball position calculating means 27. The imaging means 25 is constituted by a CCD camera, has sensitivity in the near infrared region, and captures an image of a face including the eye position of the subject. The eyeball position calculation means 27 extracts the pupil of the subject from the face image obtained by the imaging means 25.
The physical quantity measuring means 13 measures a physical quantity according to the gaze direction of the subject, and includes an illuminating means 29 and an eyeball feature quantity measuring means 31. The illumination unit 29 is a near-infrared illumination, and illuminates the face including the eyeball. The illuminating means 29 may be turned on all the time or only when an image is input. The eye feature amount measuring unit 31 measures the ocular feature amounts corresponding distance [delta] H of the pupil centroid position according to the corneal reflection image and the eyeball position calculating means 27 based on the illumination means 29, [delta] V (described below) to the physical quantity. The physical quantity estimation storage means 15
1, the physical quantity corresponding to the direction of the line of sight when the eyeball is gazing at the target 33 in FIG. 1 is obtained a plurality of times, a plurality of sets are obtained for each of the plurality of specified targets, and each of the plurality of sets is obtained. A plurality of sets of a plurality of physical quantities corresponding to the line of sight directions are estimated and stored for each of a plurality of specified positions where the eyeball moves based on the plurality of physical quantities for each set. 37, a calibration data temporary storage means 39 and a part of the calibration data creation means 17. The target projection means 3
Reference numeral 5 denotes a projector configured to project the calibration target 33 to the specified position. The optotype control means 37 controls the optotype projection means 35 to determine a projection position, and sets a plurality of specific positions at which the optotype 33 is projected. The calibration data temporary storage unit 39 obtains a plurality of physical quantities corresponding to the direction of the line of sight when the eyeball gazes at a specific target, and obtains a plurality of sets of the plurality of physical quantities for each target at a plurality of specified positions. The obtained values, that is, pupil barycentric positions and δH and δV, which will be described later, acquired during calibration are temporarily stored. The calibration data generating means 17, the plurality of sets of [delta] H as the plurality of physical quantities for each set, a plurality of the identified for each position [delta] H eyeball moves based on the [delta] V, [delta] V plural sets estimation And memorize. The plurality of specified positions where the eyeball moves will be described later. Further, the calibration data creating means 17 constitutes calibration data point computing means and calibration data line computing means. The calibration data point calculation means calculates a calibration data point corresponding to the eyeball position for each set based on a plurality of physical quantities δ H and δ V estimated for each of the plurality of sets. The calibration data line calculating means calculates a calibration data line at the selected eyeball position based on the plurality of calibration data points. Gaze direction calculation means 2
1 denotes the gaze direction of the subject from the calibration data line created by the calibration data creation unit 17 and δ H and δ V as physical quantities corresponding to the gaze direction at the selected eyeball position measured and selected by the eyeball position measurement unit 11. calculate. The line-of-sight direction output means 23 outputs the calculated line-of-sight direction, and is, for example, displayed on a screen. FIG. 2 shows a layout diagram including the coordinate system of the present apparatus.
In FIG. 2, the center position (X o ,
Y o ) indicates the line-of-sight direction, the lateral directions of the positions A, B, C, D, and E, and the positions F, G, H,
A state is shown in which the target 33 is switched and projected in the vertical direction of I and J, respectively. However, in FIG. 2, the optotypes 33 are shown at all positions for convenience. Then, at the eyeball position (X o , Y o ), the horizontal deviation angle of the line of sight when the gaze target 33 at the position A is gazed is θ H, and the vertical deviation angle when the gaze target 33 at the position F is gazed is It is shown as θ V. Further, the positions X min , X at the ends of the sight line measurable range
max, Y max, a plurality of specified positions of Y min moves eyeball, that is, a special position. When the calibration data is created, the projection position of the target 33 is switched from A to J, and the horizontal declination θ H and the vertical declination θ V are physical quantities corresponding to the gaze direction a plurality of times for each position. eye feature quantity [delta] H corresponding to the measures as described below [delta] V. Then, in the calibration, first, the lighting unit 29 is turned on, and the imaging unit 25 captures an image including the eyeball 1 of the subject. Next, the illumination unit 29 is turned off, the pupil is extracted from the input image by the eyeball position calculation unit 27, and the position of the center of gravity is measured. Details of the processing will be described later. Next, the distances δ H and δ V between the corneal reflection image based on the illumination means 29 and the pupil center of gravity position calculated by the eye position calculation means 27 are calculated as eye characteristic amounts corresponding to physical quantities by the eye characteristic amount measuring means 31. Details of the processing will be described later. Next, the calibration data temporary storage means 39 is provided with information indicating that the data is obtained when the target 33 is gazed at the position A in FIG. 2, and the pupil center-of-gravity position and δ H and δ V are stored. This memory is performed a plurality of times in accordance with the subject's head movement. That is, the eyeball 1
Has obtained and stored a plurality of physical quantities corresponding to the direction of the line of sight when gazing at the target 33 as a specific target. Further, the optotype projection means 35 is controlled by the optotype control means 37, and at the same time, a signal is also inputted to the calibration data temporary storage means 39, so that the pupil barycenter position and δ H , and [delta] V is stored. That is, a plurality of sets of a plurality of physical quantities are obtained for each of the plurality of specified objects. Further, the calibration data creating means 17 converts the eyeball 1 from the data held in the calibration data temporary storage means 39 into FIG.
X min , which is the end of the measurable area 40 of
A plurality of pairs of δ H and δ V assuming that they are at X max , Y min , and Y max are estimated and stored. That is, a plurality of physical quantities corresponding to the direction of the line of sight are estimated and stored for each of a plurality of specified positions where the eyeball moves based on the plurality of physical quantities for each of the plurality of sets for each object. Details of the processing will be described later. Next, the eye gaze measurement is performed in a configuration excluding the eye target control unit 37, the eye target projection unit 35, and the calibration data temporary storage unit 39 in FIG. While the subject is performing the work, the following processing is repeatedly executed. That is, first, the illumination unit 29 is turned on, and the imaging unit 25 captures an image including the eyeball position of the subject. Next, the illumination means 29 is turned off, the pupil is extracted from the input image by the eyeball position calculation means 27, and the position of the center of gravity is measured. Details of the processing will be described later. Next, δ H and δ V are calculated by the eyeball feature amount measuring means 31. Details of the processing will be described later. Next, the calibration data predicted at the selected eyeball position is estimated based on the calibration data created as described above using the pupil center-of-gravity position obtained by the gaze direction calculation means 21. That is, the configuration data points at the eyeball positions selected based on the plurality of physical quantities estimated for each of the plurality of sets are calculated for each set, and the configuration data lines at the eyeball positions selected based on the plurality of configuration data points are calculated. calculate. Details of the processing will be described later. Then, the line-of-sight direction calculating unit 21 obtains the line-of-sight direction using the calibration data line. That is, the eyeball feature amount of the subject's eyeball 1 is fetched, and the gaze direction is calculated by the calibration data line. The calculated line-of-sight direction is output by the line-of-sight direction output unit 23. Then, by using the output of the accurate line-of-sight direction, it can be used for visual environment design (design of the arrangement and size of instruments, etc.) typified by “monitor monitoring work of a factory plant”. In addition, on a meter panel display device of a car, the subject is shown the meter panel, evaluates the quality of the meter, puts information in and out according to the direction in which the eyes are looking, and focuses on the position where the photographer peeks. It is possible to obtain an operation effect such as matching.
Next, the operation of the gaze measuring method and the gaze measuring apparatus will be described with reference to FIGS. When the flow of FIG. 2 is executed, first, in step S1
, The eyeball position is detected. This eyeball position detection is performed by reading the eyeball position of the eyeball position calculating means 27 in FIG. 1 as described above. In step S2, an eyeball rotation angle is detected. This eyeball rotation angle detection is
The measurement is performed by reading the measurement result of the eyeball feature amount measurement unit 31 in FIG. The relationship between the eyeball rotation angle and the eyeball feature amount will be described later. In step S3, in order to consider the movement of the subject's head, it is determined whether the eyeball position and the eyeball rotation angle have been detected a plurality of times, and the determined number of times, for example, n = 5
If it has been detected twice, the process proceeds to step S4, and it is determined whether or not detection has been performed for a plurality of optotype positions. As described above, the optotypes at the plurality of positions are used as the optotype control means 37 in FIG.
The target 33 is projected at different specific positions A to J in FIG. 2, and the determination is made with respect to the target 33 at each of the specific positions. It is determined whether the eyeball position and the eyeball rotation angle have been detected. If detection is performed for a plurality of target positions, the process proceeds to step S5, where specific position data is predicted. The specific position is defined as X in FIG.
min , Xmax , Ymin , and Ymax . Then, a plurality of sets of eyeball rotation angles at the specific position are predicted and estimated for each of the optotypes 33 at different positions. Next, step S6
In, the eyeball position is read, and calibration data at the eyeball position is created. As described above, the calibration data is created by calculating the calibration data points in the calibration data creating means 17 and further calculating the calibration data line. The above steps S1 to S6 represent a calibration step. Next, in step S7, an eyeball rotation angle is detected. The detection of the eyeball rotation angle is performed by the eyeball feature value measuring means 31 measuring the eyeball feature value. In step S8,
The gaze direction is calculated using the calibration data and the eyeball rotation angle. Steps S7 and S8 are measurement steps. The detailed flow of the calibration data creation in step S6 is as shown in FIG. FIG. 4A shows the flow of creating calibration data in the horizontal direction, and FIG. 4B shows the flow of creating calibration data in the vertical direction. First (a), in eye position X i in the lateral direction read in at step S31,
Calibration data points at eye position X i is predicted in step S32. Step calibration data points differs for each optotype 33 by the position at S33 is performed is determined whether the predicted prediction calibration data lines in the eyeball position X i in step S34 if it is predicted for each optotype position Is output. When the output of the lateral calibration data line is performed, is executed flow (b), step S35~S38 are executed by the same processing, prediction calibration data lines in the eye position Y i is output . Therefore, by using the horizontal and vertical calibration data lines, the gaze direction can be accurately calculated by the gaze direction calculation unit 21 as described above, and the accurate gaze direction can be output by the gaze direction output unit 23. it can. FIGS. 5 to 7 show processes of the eyeball position detection in step S1 and the eyeball rotation angle detection in step S2 in the eyeball position calculation unit 27 and the eyeball feature amount measurement unit 31. First, step S111 in FIG.
This shows a state where the input face image is read. In step S112, binarization processing is performed, and an area having a certain brightness or less is left. In step S113, a circular area is extracted. This extraction is performed by template matching or region shape analysis. In the template matching, a template having a shape to be detected is prepared in advance, and the template is superimposed on all points on a target image to calculate a degree of coincidence. It can be seen that the same shape as the acted template exists at a location with a high degree of coincidence. In the case of the present embodiment, several types of circular or elliptical templates are prepared, and the degree of coincidence with those templates is counted. In the case of analyzing the shape of a region, a well-known method for measuring the circularity of the region is to evaluate the region based on the area and the perimeter of the region. This means that when the area of the region is S and the perimeter is L, the closer the target region is to a circle, the more L * L / S
Is close to 4π. Next, the center of gravity of the detected circular area is calculated. That is, the pupil extraction result is read in step S114 of FIG.
In step S212, a corneal reflection image search area is set. Since the corneal reflection image is always near the pupil, a rectangular area is set near the extracted pupil. That is, a rectangular area larger than the size of the cornea is set around the circular area.
In step S213, the brightest point P in the rectangular area set on the input image is searched for. This point P becomes a corneal reflection image. Next, in step S214, the feature amounts δ H and δ V of the eyeball that change according to the line of sight are calculated. This calculation is performed, for example, as shown in FIG. FIG. 7 shows the search result of step S213, in which the pupil 41,
The pupil center of gravity 43 and the corneal reflection image P are shown. This FIG.
, The positional deviation between the pupil barycenter 43 and the corneal reflection image P, that is, the horizontal and vertical distances δ H and δ V are calculated. The distances δ H , δ V are characteristic amounts of the eyeball that change according to the line-of-sight direction, and the characteristic amounts δ H , δ V of the eyeball are physical amounts corresponding to the line-of-sight direction, for example, the rotation angle θ of the eyeball. Yes, it is. FIG. 8 shows an example of the calibration method.
(A) shows the horizontal direction and (b) shows the vertical direction. The relationship between the physical quantity (for example, the rotation angle θ of the eyeball) corresponding to the line of sight and the feature quantity of the eyeball (for example, the positional shift δ between the pupil center of gravity and the corneal reflection image) that changes accordingly is as shown in FIG. 8, for example. . Obtaining this relationship is the calibration work. That is, (δ Hi , θ Hi ) (i =
, N) are obtained. In this case, consider only the horizontal direction. From FIG. 8, it is approximated that θ = aδ + b,
If the error is written in the square sum of the difference between the predicted line-of-sight direction (aδ Hi + b) and the actual viewing direction (theta Hi) and S,

【数1】 ★となる。一般に、このような手順によって校正を行っ
ている(最小二乗法)。尚、視線方向は水平、垂直の各
成分を持っているため、上記操作を水平方向図8
(a)、垂直方向図8(b)のそれぞれについて行うも
のである。図9は前記校正データー時記憶手段39によ
り記憶した各指標位置A〜J毎の複数組の眼球特徴量δ
,δを示している。(a)は水平方向、(b)は垂
直方向である。各位置において、δ,δが複数示さ
れているのは、前記のように被験者の頭は絶えず移動
し、これに応じて眼球位置が移動するからである。この
δ,δのバラツキは、眼球位置と一対一に対応して
いるため、眼球が特別な位置Xmin,Xmax,Y
min,Ymaxにあると仮定したときのδ,δ
推定可能である。推定は前述した最小二乗近似によって
実行可能である。例えば、位置Aにおける視標を注視し
たときに得られたn個の計測値を眼球位置Xに応じて
図10のように再配置し、そのグラフに最小二乗近似を
適用し、得られた近似直線にX=Xmin,Xmax
与え、対応するδH1min,δH2maxを得る。す
なわち前記(1),(2),(3)式においてθHi
に置き換えれば良い。同様にして、各位置B,C,
D,E各々を注視したときのデータに対して同じ処理を
行うと、図11に示すデータが得られる。すなわち前記
図2で説明した視線計測可能範囲39の端の位置X
min,Xmaxにおける眼球特徴量δが算出され
る。例えば図11は計測により選択された眼球位置X=
におけるデータを示しており、例えば指標位置Aに
おいてX=Xmax,X=Xminで算出されたデータ
47,49は、δH1max,δH1minとなる。ま
た指標位置Aにおいて視標を臨んだ視線の水平方向偏角
はθH1となる。同様にして、X=Xmax,X=X
minにおいて指標位置B,C,D,Eにおける眼球特
徴量δをそれぞれ示したのが上下のポイント(51,
53),(55,57),(59,61),(63,6
5)となっている。またこの時の視線の水平方向偏角も
θH2からθH5となっている。そしてこのX=X
minに対する結果、X=Xmaxに対する結果に対
し、それぞれ最小二乗近似を施すと同図に示す眼球位置
を考慮した校正データポイント67,69,71,7
3,75、校正データライン77を得ることができる。
又、垂直方向についても同一処理を行い、Y=
min,Y=Ymaxにおける校正データラインを推
定する。作成された校正データラインは校正データ作成
手段17に保持されることになる。尚、他の眼球位置X
における校正データラインの予測も同様に行われる。
このようにして前記ステップS31〜S34,S35〜
S38が実行され、校正データライン77等が校正デー
タ作成手段17に記憶されることになる。そして視線方
向算出手段21では、眼球回転角検出S8によって検出
された眼球特徴量δを図11のX=Xにおける校正
データライン77に適合させたとき、対応するθδH
眼球位置X=Xでの視線の水平方向になる。最終的に
算出される視線方向は水平垂直2成分で記述され、(θ
δH,θδV)で表現される。算出された視線方向は、
視線方向出力手段23において座標データとして表示さ
れ、あるいは一時記憶される。計測終了後にその結果を
読み出して作業中の視線の動きの分析を行う。かかる分
析は、正確な校正によって正確に行うことができる。
尚、上記実施形態では、計測可能範囲の端の位置におけ
る眼球特徴量を最小二乗近似で推定することにより求め
ていたが、この端の位置に被験者の眼球を固定して実際
に眼球特徴量を計測して求めることもできる。例えば被
験者の眼球を計測可能範囲の端の位置の4点
(Xmin,0),(Xmax,0),(0,
min),(0,Ymax)に固定するように顎乗せ
台等を用いて被験者の頭を固定し、校正を行うのであ
る。従って、眼球が特定の対象を注視しているときの視
線方向に対応した物理量を該眼球が移動する複数の特定
された位置毎にそれぞれ求め、該複数の物理量を複数の
特定の対象について各対象毎に複数組求めることにな
る。この場合、前記物理量推定記憶手段15に代えて、
顎乗せ台等を含めた物理量抽出記憶手段を設けることに
なる。さらに、前記特定の位置Xmin,Xmax
は、計測可能範囲の端の位置としたが、位置が空間的に
特定できるものであれば、他の位置におけるデータ
δ,δを計測して用いることもできる。
(Equation 1) ★ Generally, calibration is performed by such a procedure (least square method). Since the line of sight has horizontal and vertical components, the above operation is performed in the horizontal direction in FIG.
8 (a) and the vertical direction FIG. 8 (b). FIG. 9 shows a plurality of sets of eyeball feature amounts δ for each index position A to J stored by the calibration data time storage means 39.
H, shows [delta] V. (A) is a horizontal direction, (b) is a vertical direction. The reason why a plurality of δ H and δ V are shown at each position is that the subject's head constantly moves as described above, and the eyeball position moves accordingly. Since the variations of δ H and δ V correspond one-to-one with the positions of the eyeballs, the eyeballs are positioned at special positions X min , X max , Y
It is possible to estimate δ H , δ V assuming that they are at min , Y max . The estimation can be performed by the aforementioned least squares approximation. For example, the n number of measurement values obtained when watching the visual target at positions A and repositioned as shown in FIG. 10 in accordance with the eye position X i, applying the least-squares approximation to the graph, the resulting X = X min and X max are given to the approximate straight line to obtain corresponding δ H1min and δ H2max . That is, in the above equations (1), (2) and (3), θ Hi may be replaced with X i . Similarly, each position B, C,
If the same processing is performed on the data obtained when each of D and E is watched, the data shown in FIG. 11 is obtained. That is, the position X of the end of the visual line measurable range 39 described in FIG.
min, ocular feature quantity [delta] H in X max is calculated. For example, FIG. 11 illustrates an eyeball position X =
Shows the data of X o, for example X = X max at index position A, X = X min data calculated in 47, 49, δ H1max, the δ H1min. The horizontal deviation of the line of sight facing the target at the index position A is θ H1 . Similarly, X = X max , X = X
index position B in min, C, D, the upper and lower points were respectively the eye feature quantity [delta] H in E (51,
53), (55, 57), (59, 61), (63, 6)
5). In addition, the horizontal deviation of the line of sight at this time is also from θ H2 to θ H5 . And this X = X
Results for min, X = result of X max to calibration data points considering eyeball position shown in the figure as each subjected to least squares approximation 67,69,71,7
3, 75 and the calibration data line 77 can be obtained.
The same processing is performed for the vertical direction, and Y =
Estimate the calibration data line at Y min , Y = Y max . The created calibration data line is stored in the calibration data creating means 17. In addition, other eyeball positions X
The prediction of the calibration data line at i is performed similarly.
Thus, the steps S31 to S34, S35 to
S38 is executed, and the calibration data line 77 and the like are stored in the calibration data creating means 17. Then the gaze direction calculation unit 21, when adapted eye feature quantity [delta] H detected by the eyeball rotation angle detection S8 calibration data lines 77 in the X = X o in Figure 11, the corresponding theta delta] H eyeball position X = made in a horizontal direction of the line-of-sight in the X o. The gaze direction finally calculated is described by two horizontal and vertical components, and (θ
δH, it is represented by θ δV). The calculated gaze direction is
The line-of-sight direction output means 23 displays or temporarily stores the coordinate data. After the measurement is completed, the result is read out and the movement of the line of sight during the work is analyzed. Such an analysis can be accurately performed by accurate calibration.
In the above embodiment, the eyeball feature at the end of the measurable range is determined by estimating the least squares approximation, but the eyeball of the subject is fixed at the end of the eyeball and the eyeball feature is actually calculated. It can also be determined by measuring. For example, four points (X min , 0), (X max , 0), (0,
The subject's head is fixed using a chin rest or the like so as to be fixed at (Y min ), (0, Y max ), and calibration is performed. Therefore, a physical quantity corresponding to the direction of the line of sight when the eyeball is gazing at a specific target is obtained for each of a plurality of specified positions where the eyeball moves, and the plurality of physical quantities are determined for each of the plurality of specific targets. Each time, a plurality of sets will be obtained. In this case, instead of the physical quantity estimation storage unit 15,
A physical quantity extraction storage unit including a chin rest and the like will be provided. Further, the specific positions X min , X max .
Is the end position of the measurable range. However, as long as the position can be specified spatially, data δ H and δ V at other positions can be measured and used.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係る構成図である。FIG. 1 is a configuration diagram according to an embodiment of the present invention.

【図2】一実施形態に係るレイアウト図である。FIG. 2 is a layout diagram according to one embodiment.

【図3】一実施形態に係るフローチャートである。FIG. 3 is a flowchart according to one embodiment.

【図4】一実施形態に係る校正データ作成のフローチャ
ートであり、(a)は水平方向、(b)は垂直方向のフ
ローチャートである。
FIGS. 4A and 4B are flowcharts of calibration data creation according to an embodiment, wherein FIG. 4A is a flowchart in a horizontal direction and FIG. 4B is a flowchart in a vertical direction.

【図5】一実施形態に係る画像処理のフローチャートで
ある。
FIG. 5 is a flowchart of image processing according to one embodiment.

【図6】一実施形態に係る画像処理のフローチャートで
ある。
FIG. 6 is a flowchart of image processing according to an embodiment.

【図7】眼球特徴量を示す拡大図である。FIG. 7 is an enlarged view showing an eyeball feature amount.

【図8】最小二乗近似を説明するもので、(a)は水平
方向、(b)は垂直方向の説明図である。
FIGS. 8A and 8B are diagrams for explaining least square approximation, in which FIG. 8A is an explanatory diagram in a horizontal direction and FIG. 8B is an explanatory diagram in a vertical direction.

【図9】それぞれ5個の眼球特徴量のデータを示し、
(a)は水平方向、(b)は垂直方向の説明図である。
FIG. 9 shows data of five eyeball feature amounts,
(A) is an explanatory view in the horizontal direction, and (b) is an explanatory view in the vertical direction.

【図10】最小二乗近似による校正を示す説明図であ
る。
FIG. 10 is an explanatory diagram showing calibration by least squares approximation.

【図11】最小二乗近似により校正データラインを求め
た説明図である。
FIG. 11 is an explanatory diagram in which a calibration data line is obtained by least squares approximation.

【図12】従来例に係り、(a)は特定の視標を見たと
きの眼球の回転角を示す平面図、(b)は校正結果を示
す説明図である。
12A is a plan view showing a rotation angle of an eyeball when a specific target is viewed, and FIG. 12B is an explanatory view showing a calibration result.

【符号の説明】[Explanation of symbols]

1 眼球 11 眼球位置計測手段 13 物理量計測手段 15 物理量推定記憶手段 17 校正データ作成手段(校正データポイント演算手
段、校正データライン演算手段) 21 視線方向算出手段 23 視線方向出力手段 25 撮像手段 27 眼球位置算出手段 29 照明手段 31 眼球特徴量計測手段 33 視標
Reference Signs List 1 eyeball 11 eyeball position measurement means 13 physical quantity measurement means 15 physical quantity estimation storage means 17 calibration data creation means (calibration data point calculation means, calibration data line calculation means) 21 gaze direction calculation means 23 gaze direction output means 25 imaging means 27 eyeball position Calculation means 29 Lighting means 31 Eyeball feature quantity measurement means 33 Optotype

Claims (11)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 眼球が特定の対象を注視しているときの
視線方向に対応した物理量を該眼球が移動し得る視線計
測可能範囲の複数の特定された位置毎にそれぞれ求め、 該特定された眼球位置での複数の物理量を複数の特定の
対象について各対象毎に複数組求め、 該複数組の各組毎に求められた特定された眼球位置での
複数の物理量に基づき、選択された眼球位置における校
正データポイントを各組毎に求め、 該複数の校正データポイントに基づき前記選択された眼
球位置における校正データラインを求め、 該眼球位置を考慮した校正データラインを用いて視線方
向を求めることを特徴とする視線計測方法。
1. A sight gauge eyeball is the eyeball physical quantity corresponding to the line-of-sight direction when gazing at the particular subject may move
A plurality of physical quantities at the specified eyeball position are obtained for each of a plurality of specified positions in the measurable range , and a plurality of physical quantities at the specified eyeball positions are obtained for each of a plurality of specific objects. Based on a plurality of physical quantities at the specified specified eyeball position, calibration data points at the selected eyeball position are determined for each set, and at the selected eyeball position based on the plurality of calibration data points, determined calibration data line, line-of-sight measurement method characterized by determining the gaze direction by using the calibration data lines in consideration of the eyeball position.
【請求項2】 眼球が特定の対象を注視しているときの
視線方向に対応した物理量を複数回求め、 該複数の物理量を複数の特定の対象について各対象毎に
複数組求め、 該複数組の各組毎に各複数の物理量に基づき眼球が移動
し得る視線計測可能範囲の複数の特定された位置毎に視
線方向に対応した複数の物理量を複数組推定し、 該複数組の各組毎に推定された特定された眼球位置での
複数の物理量に基づき、選択された眼球位置における校
正データポイントを各組毎に求め、 該複数の校正データポイントに基づき前記選択された眼
球位置における校正データラインを求め、 該眼球位置を考慮した校正データラインを用いて視線方
向を求めることを特徴とする視線計測方法。
2. A plurality of physical quantities corresponding to the direction of the line of sight when the eyeball is gazing at a specific target are obtained a plurality of times, a plurality of sets of the plurality of physical quantities are obtained for each of the plurality of specific targets, and the plurality of sets are obtained. Eyeball moves based on multiple physical quantities for each set of
A plurality of sets of a plurality of physical quantities corresponding to the line of sight directions are estimated for each of a plurality of specified positions in the gaze measurable range that can be measured, and at the specified eyeball position estimated for each of the plurality of sets, > based on a plurality of physical quantities, determine the calibration data point in a selected eye position for each set, determine the calibration data lines in the selected eye position based on the calibration data points of said plurality, considering the eyeball position A gaze measuring method, wherein a gaze direction is obtained using a calibration data line .
【請求項3】 請求項1又は2記載の視線計測方法であ
って、 前記眼球位置を考慮した校正データラインと前記選択さ
れた眼球位置における視線方向に対応した物理量とから
視線方向を求めることを特徴とする視線計測方法。
3. The eye gaze measuring method according to claim 1, wherein the gaze direction is obtained from a calibration data line considering the eyeball position and a physical quantity corresponding to the gaze direction at the selected eyeball position. Characteristic gaze measurement method.
【請求項4】 被験者の眼球位置を計測する眼球位置計
測手段と、 被験者の視線方向に対応した物理量を計測する物理量計
測手段と、 眼球が特定の対象を注視しているときの視線方向に対応
した物理量を該眼球が移動し得る視線計測可能範囲の複
数の特定された位置毎にそれぞれ求め、該特定された眼
球位置での複数の物理量を複数の特定の対象について各
対象毎に複数組抽出して記憶する特定の物理量抽出記憶
手段と、 該複数組の各組毎に抽出された特定された眼球位置での
複数の物理量に基づき、選択された眼球位置における校
正データポイントを各組毎に算出する校正データポイン
ト演算手段と、 該複数の校正データポイントに基づき前記選択された眼
球位置における校正データラインを算出する校正データ
ライン演算手段とを備え、 該眼球位置を考慮した校正データラインを用いて視線方
向を求めることを特徴とする視線計測装置。
4. An eyeball position measuring means for measuring a subject's eyeball position, a physical quantity measuring means for measuring a physical quantity corresponding to the subject's gaze direction, and corresponding to a gaze direction when the eyeball is gazing at a specific target. double the physical quantity of the line of sight measurement range which the eye can move
The number of specified positions is determined for each of the specified eyes.
A specific physical quantity extraction storage unit that extracts and stores a plurality of sets of a plurality of physical quantities at a spherical position for each of a plurality of specific objects for each of the plurality of specific objects; and a specified eyeball position extracted for each of the plurality of sets. based on the <br/> plurality of physical quantity, calibration in selected and calibration data points calculating unit that calibration data point in the eyeball position is calculated for each set, the selected eye position based on the calibration data points of said plurality and a calibration data line calculating means for calculating a data line, line of sight measuring device and obtaining the sight line direction using the calibration data lines in consideration of the eyeball position.
【請求項5】 被験者の眼球位置を計測する眼球位置計
測手段と、 被験者の視線方向に対応した物理量を計測する物理量計
測手段と、 眼球が特定の対象を注視しているときの視線方向に対応
した物理量を複数回求め、該複数の物理量を複数の特定
した各対象毎に複数組求め、該複数組の各組毎に各複数
の物理量に基づき眼球が移動し得る視線計測可能範囲の
複数の特定された位置毎に視線方向に対応した複数の物
理量を複数組推定して記憶する特定の物理量推定記憶手
段と、 該複数組の各組毎に推定された特定された眼球位置での
複数の物理量に基づき、選択された眼球位置における校
正データポイントを各組毎に算出する校正データポイン
ト演算手段と、 該複数の校正データポイントに基づき前記選択された眼
球位置における校正データラインを算出する校正データ
ライン演算手段とを備え、 該眼球位置を考慮した校正データラインを用いて視線方
向を求めることを特徴とする視線計測装置。
5. An eyeball position measuring means for measuring a subject's eyeball position, a physical quantity measuring means for measuring a physical quantity corresponding to the subject's gaze direction, and a gaze direction when the eyeball is gazing at a specific target. The obtained physical quantity is obtained a plurality of times, a plurality of sets of the plurality of physical quantities are obtained for each of the plurality of specified objects, and a gaze measurement range in which the eyeball can move based on each of the plurality of physical quantities for each of the plurality of sets .
Specific physical quantity estimation storage means for estimating and storing a plurality of sets of a plurality of physical quantities corresponding to the line-of-sight directions for each of the plurality of specified positions; and at a specified eyeball position estimated for each of the plurality of sets . a calibration data point calculating means for calculating a calibration data point at a selected eyeball position for each set based on a plurality of physical quantities; and calibration data at the selected eyeball position based on the plurality of calibration data points. and a calibration data line calculating means for calculating a line, line of sight measuring device and obtaining the sight line direction using the calibration data lines in consideration of the eyeball position.
【請求項6】 請求項4又は5記載の視線計測装置であ
って、 前記眼球位置を考慮した校正データラインと前記眼球位
置計測手段で計測され選択された眼球位置における視線
方向に対応した物理量とから視線方向を算出する視線方
向算出手段を備えたことを特徴とする視線計測装置。
6. The eye gaze measuring apparatus according to claim 4, wherein a calibration data line considering the eyeball position and a physical quantity corresponding to a gaze direction at the eyeball position selected and measured by the eyeball position measuring means. A gaze direction calculating unit for calculating a gaze direction from the gaze direction;
【請求項7】 請求項4〜6のいずれかに記載の視線計
測装置であって、 前記眼球位置計測手段は、被験者の目を含む顔の画像を
撮像する撮像手段と、 該撮像手段による顔画像から円形領域を抽出し、該円形
領域の重心位置を眼球位置とする眼球位置算出手段とか
らなることを特徴とする視線計測装置。
7. The eye gaze measuring device according to claim 4, wherein said eyeball position measuring means is configured to capture an image of a face including eyes of a subject, and a face by said imaging means. An eye-gaze measuring device, comprising: an eyeball position calculating unit that extracts a circular region from an image and uses the position of the center of gravity of the circular region as an eyeball position.
【請求項8】 請求項7に記載の視線計測装置であっ
て、 前記物理量計測手段は、前記被験者の顔を照射する照明
手段と、該照明手段に基づく角膜反射像と前記眼球位置
算出手段による重心位置との距離を物理量に対応した眼
球特徴量とする眼球特徴量計測手段とからなることを特
徴とする視線計測装置。
8. The eye-gaze measuring device according to claim 7, wherein the physical quantity measuring unit includes an illuminating unit that irradiates the face of the subject, a corneal reflection image based on the illuminating unit, and the eyeball position calculating unit. An eye gaze measuring apparatus, comprising: an eyeball feature amount measuring means for setting a distance from the position of the center of gravity to an eyeball feature amount corresponding to a physical quantity.
【請求項9】 請求項8記載の視線計測装置であって、 前記眼球特徴量計測手段は、前記円形領域の回りに角膜
の大きさを上回る矩形の領域を設定し、該矩形の領域内
の最も明るい点を角膜反射像とすることを特徴とする視
線計測装置。
9. The eye gaze measuring apparatus according to claim 8, wherein the eyeball feature quantity measuring unit sets a rectangular area around the circular area that exceeds the size of the cornea, and sets the rectangular area within the rectangular area. An eye gaze measuring device wherein the brightest point is a corneal reflection image.
【請求項10】 請求項4記載の視線計測装置であっ
て、 前記特定の物理量抽出記憶手段は、前記特定の対象とし
て視標を特定位置に投影する視標投影手段と、該視標投
影手段を制御し前記特定位置を複数とする視標制御手段
とを備えていることを特徴とする視線計測装置。
10. The eye gaze measuring device according to claim 4, wherein the specific physical quantity extraction storage means projects a target as a specific target at a specific position, and the target projection means. An eye-gaze measuring device, comprising: a target control means for controlling the target position and making the specific position plural.
【請求項11】 請求項5記載の視線計測装置であっ
て、 前記特定の物理量推定記憶手段は、前記特定の対象とし
て視標を特定位置に投影する視標投影手段と、該視標投
影手段を制御し前記特定位置を複数とする視標制御手段
とを備えていることを特徴とする視線計測装置。
11. The eye gaze measuring apparatus according to claim 5, wherein the specific physical quantity estimation storage means projects a target as a specific target at a specific position, and the target projection means. An eye-gaze measuring device, comprising: a target control means for controlling the target position and making the specific position plural.
JP15843799A 1999-04-28 1999-04-28 Gaze measurement method, gaze measurement device Expired - Lifetime JP3225270B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15843799A JP3225270B2 (en) 1999-04-28 1999-04-28 Gaze measurement method, gaze measurement device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15843799A JP3225270B2 (en) 1999-04-28 1999-04-28 Gaze measurement method, gaze measurement device

Publications (2)

Publication Number Publication Date
JP2000308618A JP2000308618A (en) 2000-11-07
JP3225270B2 true JP3225270B2 (en) 2001-11-05

Family

ID=15671757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15843799A Expired - Lifetime JP3225270B2 (en) 1999-04-28 1999-04-28 Gaze measurement method, gaze measurement device

Country Status (1)

Country Link
JP (1) JP3225270B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011080890A (en) * 2009-10-08 2011-04-21 Toshiba Corp Object identification device
CN107515101B (en) * 2017-09-04 2020-06-09 中国电子科技集团公司第四十一研究所 Dynamic parameter calibration device and method for stability measuring device of photoelectric sight stabilizing system
WO2019135281A1 (en) 2018-01-05 2019-07-11 三菱電機株式会社 Line-of-sight direction calibration device, line-of-sight direction calibration method, and line-of-sight direction calibration program
WO2019186680A1 (en) * 2018-03-27 2019-10-03 株式会社ニューロプログラミングリサーチ Eyeball tracking method, eyeball tracking device, and program

Also Published As

Publication number Publication date
JP2000308618A (en) 2000-11-07

Similar Documents

Publication Publication Date Title
US10016131B2 (en) Eye tracking system and method to detect the dominant eye
US11903644B2 (en) Measuring eye refraction
US20030123027A1 (en) System and method for eye gaze tracking using corneal image mapping
US20110242486A1 (en) Autism diagnosis support apparatus
JP4517049B2 (en) Gaze detection method and gaze detection apparatus
US9173561B2 (en) Alignment apparatus
US11448903B2 (en) Method for correcting centering parameters and/or an axial position and corresponding computer program and methods
US20170100033A1 (en) Ophthalmologic apparatus
JP6881755B2 (en) Line-of-sight detection calibration methods, systems, and computer programs
CN109634431B (en) Medium-free floating projection visual tracking interaction system
JP2017111746A (en) Sight line detection device and sight line detection method
JP2019215688A (en) Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration
CN114931353B (en) Convenient and fast contrast sensitivity detection system
CN114360043B (en) Model parameter calibration method, sight tracking method, device, medium and equipment
CN110537895A (en) Retina detecting system based on virtual reality technology
KR101984993B1 (en) Visual field examination device using personalized marker control
JP3225270B2 (en) Gaze measurement method, gaze measurement device
US20210153794A1 (en) Evaluation apparatus, evaluation method, and evaluation program
JP3726122B2 (en) Gaze detection system
Miller et al. Videographic Hirschberg measurement of simulated strabismic deviations.
CN116382473A (en) Sight calibration, motion tracking and precision testing method based on self-adaptive time sequence analysis prediction
KR101398193B1 (en) Device and Method for Calibration
US11937928B2 (en) Evaluation apparatus, evaluation method, and evaluation program
EP3922166B1 (en) Display device, display method and display program
JP4055858B2 (en) Gaze detection system

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term