JP6631951B2 - Eye gaze detection device and eye gaze detection method - Google Patents

Eye gaze detection device and eye gaze detection method Download PDF

Info

Publication number
JP6631951B2
JP6631951B2 JP2015247614A JP2015247614A JP6631951B2 JP 6631951 B2 JP6631951 B2 JP 6631951B2 JP 2015247614 A JP2015247614 A JP 2015247614A JP 2015247614 A JP2015247614 A JP 2015247614A JP 6631951 B2 JP6631951 B2 JP 6631951B2
Authority
JP
Japan
Prior art keywords
light source
image
camera
corneal
pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015247614A
Other languages
Japanese (ja)
Other versions
JP2017111746A (en
Inventor
嘉伸 海老澤
嘉伸 海老澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2015247614A priority Critical patent/JP6631951B2/en
Publication of JP2017111746A publication Critical patent/JP2017111746A/en
Application granted granted Critical
Publication of JP6631951B2 publication Critical patent/JP6631951B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は、人の画像から視線を検出する視線検出装置及び視線検出方法に関する。   The present invention relates to a gaze detection device and a gaze detection method for detecting a gaze from a human image.

近年、近赤外光源等の光源とビデオカメラを使用した視線検出装置が普及しつつある。このような視線検出装置では、「瞳孔−角膜反射法」と呼ばれる検出方法が用いられている。「瞳孔−角膜反射法」とは、ビデオカメラに対する被験者の視線方向の角度の変化によりビデオカメラで得られる画像中の瞳孔と角膜反射との位置関係が変化することを用いて、視線方向を検出する方法である。この方法では、予め座標が既知の点を被験者に見させて、画像における瞳孔と角膜反射との位置関係と視線方向の角度との関係を予め求めておいた上で、その関係を利用して視線方向が検出される。瞳孔−角膜反射法は視線検出精度が高いという利点を持つ。   In recent years, gaze detection devices using a light source such as a near-infrared light source and a video camera have become widespread. In such a line-of-sight detection device, a detection method called “pupil-corneal reflection method” is used. "Pupil-corneal reflex method" detects the gaze direction by using a change in the positional relationship between the pupil and the corneal reflex in an image obtained by the video camera due to a change in the angle of the gaze direction of the subject with respect to the video camera. How to In this method, the subject is made to look at a point whose coordinates are known in advance, and the relationship between the positional relationship between the pupil and the corneal reflex and the angle of the line of sight in the image is determined in advance, and the relationship is used. The gaze direction is detected. The pupil-corneal reflex method has the advantage of high gaze detection accuracy.

一方で、瞳孔−角膜反射法は視線方向の検出が可能な角度範囲が限られる傾向がある。すなわち、従来の視線検出装置では、カメラに光源が取り付けられていることが一般的なため、被験者がカメラに向かう方向から大きく外れた方向を見た場合に、角膜反射像が出現しないため、視線方向が検出できなくなる。   On the other hand, the pupil-corneal reflection method tends to have a limited angle range in which the gaze direction can be detected. That is, in the conventional gaze detection device, since a light source is generally attached to the camera, when a subject looks in a direction far away from the direction toward the camera, a corneal reflection image does not appear. The direction cannot be detected.

上記の問題を考慮した視線検出装置としては、下記特許文献1に記載の装置が知られている。この装置では、互いに異なる位置に配置された複数の光源を備え、第1の光源が被験者を照明している間に被験者の眼を撮影した第1の画像と、第2の光源が被験者を照明している間に被験者の眼を撮影した第2の画像とを得て、第1及び第2の画像のうちのどちらかで検出された瞳孔中心及び角膜反射像との位置関係に応じて視線方向を検出する。   As an eye-gaze detecting device in consideration of the above-described problem, an apparatus described in Patent Literature 1 below is known. In this device, a plurality of light sources arranged at different positions from each other are provided, and a first image of the subject's eye taken while the first light source illuminates the subject, and a second light source illuminates the subject. A second image obtained by photographing the subject's eye while performing the operation, and the gaze is determined according to the positional relationship between the pupil center and the corneal reflection image detected in one of the first and second images. Detect direction.

特許第5621456号Patent No. 562,456

しかしながら、上述した従来の装置では、被験者の視線方向を広い範囲で検出しようとすると複数の光源をカメラから離して配置する必要があるが、そのように配置するとその複数の光源の照明によって検出される角膜反射の位置の間にばらつきが生じてしまう。その結果、従来の装置では、視線方向を広い範囲で検出しながら視線方向の検出精度を保つことは困難である。   However, in the above-described conventional apparatus, in order to detect the gaze direction of the subject in a wide range, it is necessary to dispose a plurality of light sources away from the camera. The corneal reflection position varies. As a result, it is difficult for the conventional apparatus to maintain the line-of-sight direction detection accuracy while detecting the line-of-sight direction in a wide range.

本発明は、上記課題に鑑みて為されたものであり、被験者の視線方向を広い範囲で検出しながら、その視線方向の検出精度を保つことが可能な視線検出装置及び視線検出方法を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a gaze detection apparatus and a gaze detection method that can maintain the gaze direction detection accuracy while detecting the gaze direction of a subject in a wide range. The purpose is to:

上記課題を解決するため、本発明の一形態にかかる視線検出装置は、対象者の眼を撮像することで眼画像を取得する第1及び第2のカメラと、第1のカメラに取り付けられ、対象者の眼を照明する第1の光源と、第2のカメラに取り付けられ、対象者の眼を照明する第2の光源と、第1及び第2のカメラのレンズの光軸から離れる位置に配置され、対象者の眼を照明する少なくとも2つの第3の光源と、第1〜第3の光源の点灯を制御する点灯制御部と、第1及び第2のカメラのそれぞれによって取得された眼画像を対象にして、瞳孔中心の位置及び角膜反射の位置を検出し、瞳孔中心の位置及び角膜反射の位置を基に対象者の視線方向を算出する算出部と、を備え、算出部は、眼画像において第1又は第2の光源による角膜反射の位置が検出できなかった際には、眼画像において第3の光源による2つの角膜反射の位置を検出し、当該2つの角膜反射の位置を基に第1又は第2の光源による角膜反射の位置を推定し、推定した角膜反射の位置を用いて対象者の視線方向を算出する。   In order to solve the above problem, a gaze detection device according to one embodiment of the present invention is attached to first and second cameras that acquire an eye image by imaging an eye of a subject, and attached to the first camera, A first light source for illuminating the subject's eye, a second light source attached to the second camera and illuminating the subject's eye, and at a position away from the optical axes of the lenses of the first and second cameras At least two third light sources that are arranged and illuminate the eyes of the subject, a lighting control unit that controls lighting of the first to third light sources, and eyes acquired by the first and second cameras, respectively. For the image, a calculating unit that detects the position of the pupil center and the position of the corneal reflex, and calculates the gaze direction of the subject based on the position of the pupil center and the position of the corneal reflex, In the eye image, the position of the corneal reflection by the first or second light source is detected. If not, the position of two corneal reflections by the third light source is detected in the eye image, and the position of the corneal reflection by the first or second light source is estimated based on the positions of the two corneal reflections. The gaze direction of the subject is calculated using the estimated position of the corneal reflection.

或いは、本発明の他の形態にかかる視線検出方法は、第1及び第2のカメラを用いて対象者の眼を撮像することで眼画像を取得する眼画像取得ステップと、第1のカメラに取り付けられた第1の光源と、第2のカメラに取り付けられた第2の光源とを用いて、対象者の眼を照明する照明ステップと、記第1及び第2のカメラのレンズの光軸から離れる位置に配置された少なくとも2つの第3の光源を用いて、対象者の眼を照明する補助照明ステップと、第1及び第2のカメラのそれぞれによって取得された眼画像を対象にして、瞳孔中心の位置及び角膜反射の位置を検出し、瞳孔中心の位置及び角膜反射の位置を基に対象者の視線方向を算出する算出ステップと、を備え、算出ステップでは、眼画像において第1又は第2の光源による角膜反射の位置が検出できなかった際には、眼画像において第3の光源による2つの角膜反射の位置を検出し、当該2つの角膜反射の位置を基に第1又は第2の光源による角膜反射の位置を推定し、推定した角膜反射の位置を用いて対象者の視線方向を算出する。   Alternatively, a gaze detection method according to another aspect of the present invention includes an eye image obtaining step of obtaining an eye image by imaging an eye of a subject using the first and second cameras; An illumination step of illuminating an eye of a subject using the attached first light source and a second light source attached to the second camera; and optical axes of lenses of the first and second cameras. Using at least two third light sources arranged at a position away from the auxiliary lighting step of illuminating the subject's eye, and targeting the eye image acquired by each of the first and second cameras, A calculating step of detecting the position of the pupil center and the position of the corneal reflex, and calculating the gaze direction of the subject based on the position of the pupil center and the position of the corneal reflex. Cornea anti-corneal by second light source When the position of the corneal reflection cannot be detected, the position of two corneal reflections by the third light source is detected in the eye image, and the position of the corneal reflection by the first or second light source is detected based on the positions of the two corneal reflections. The position is estimated, and the gaze direction of the subject is calculated using the estimated position of the corneal reflection.

上記形態の視線検出装置或いは視線検出方法によれば、第1の光源が取り付けられた第1のカメラ及び第2の光源が取り付けられた第2のカメラによって、対象者の眼が照明された状態での眼画像が取得され、それぞれの眼画像における瞳孔中心の位置及び角膜反射の位置を基に対象者の視線方向が検出される。その際、第1又は第2の光源による角膜反射の位置が検出できなかった際には、第1及び第2のカメラのレンズの光軸から離れて配置された少なくとも2つの第3の光源による眼画像上の2つの角膜反射の位置が検出され、その2つ角膜反射の位置を用いて第1又は第2の光源による角膜反射の位置が推定され、それを用いて視線方向が検出される。これにより、常にカメラに近い第1又は第2の光源による角膜反射の位置が推定されて視線方向が検出されるので、被験者の視線方向を広い範囲で検出しながら、その視線方向の検出精度を保つことができる。   According to the eye gaze detecting device or the eye gaze detecting method of the above-described embodiment, the state in which the eye of the subject is illuminated by the first camera to which the first light source is attached and the second camera to which the second light source is attached. Are obtained, and the gaze direction of the subject is detected based on the position of the center of the pupil and the position of the corneal reflection in each eye image. At this time, when the position of corneal reflection by the first or second light source cannot be detected, at least two third light sources arranged apart from the optical axis of the lens of the first and second cameras. The positions of two corneal reflections on the eye image are detected, the positions of the corneal reflections by the first or second light source are estimated using the positions of the two corneal reflections, and the gaze direction is detected using the positions. . Thereby, since the position of the corneal reflection by the first or second light source that is always close to the camera is estimated and the gaze direction is detected, the detection accuracy of the gaze direction is detected while detecting the gaze direction of the subject in a wide range. Can be kept.

ここで、算出部は、第1及び第2のカメラによって取得された2つの眼画像を基に、瞳孔中心の3次元位置を算出し、第1又は2の光源の3次元位置と、第3の光源の3次元位置と、瞳孔中心の3次元位置とを用いて、眼画像における第1又は第2の光源による角膜反射の位置を推定する、こととしてもよい。この場合、第1及び第2の光源による角膜反射の位置を幾何学的に容易に推定できる。   Here, the calculation unit calculates the three-dimensional position of the pupil center based on the two eye images acquired by the first and second cameras, and calculates the three-dimensional position of the first or second light source and the third or third light source. The position of the corneal reflection by the first or second light source in the eye image may be estimated using the three-dimensional position of the light source and the three-dimensional position of the pupil center. In this case, the positions of the corneal reflection by the first and second light sources can be easily estimated geometrically.

また、算出部は、第1又は第2の光源の3次元位置と第3の光源のうちの一方の光源の3次元位置と瞳孔中心の3次元位置とを通る第1の平面と、第1又は第2の光源の3次元位置と第3の光源のうちの他方の光源の3次元位置と瞳孔中心の3次元位置とを通る第2の平面と、の位置を特定し、第1又は第2のカメラの画像面上における、第1の平面の傾きと、第2の平面の傾きとを算出し、第1又は第2のカメラによって取得された2つの眼画像上で、一方の光源による角膜反射の位置を通り第1の平面の傾きに対応する傾きを有する直線と、他方の光源による角膜反射の位置を通り第2の平面の傾きに対応する傾きを有する直線との交点を、第1又は第2の光源による角膜反射の位置として算出する、こととしてもよい。この場合には、第1及び第2の光源による角膜反射の位置を、2つの直線の交点を求めて算出することにより、幾何学的により単純かつ正しく推定できる。   The calculation unit may further include a first plane passing through a three-dimensional position of the first or second light source, a three-dimensional position of one of the third light sources, and a three-dimensional position of the center of the pupil; Or, the position of the three-dimensional position of the second light source, the second plane passing through the three-dimensional position of the other light source of the third light source, and the three-dimensional position of the center of the pupil is specified, and the first or the second is determined. Calculating the inclination of the first plane and the inclination of the second plane on the image plane of the second camera, and using one of the light sources on the two eye images acquired by the first or second camera The intersection of a straight line passing through the position of corneal reflection and having a slope corresponding to the slope of the first plane and a straight line passing through the position of corneal reflection by the other light source and having a slope corresponding to the slope of the second plane is defined as It may be calculated as the position of corneal reflection by the first or second light source. In this case, the position of the corneal reflection by the first and second light sources is calculated by calculating the intersection of the two straight lines, so that it is geometrically simpler and more accurate.

また、算出部は、いったん瞳孔中心の3次元位置を用いて眼画像における第1又は第2の光源による角膜反射の位置を推定した後に、推定した角膜反射の位置を用いて対象者の視線方向を算出し、さらに、視線方向と瞳孔中心の3次元位置とを基に対象者の角膜球中心の3次元位置を算出し、角膜球中心の3次元位置を用いて眼画像における第1又は第2の光源による角膜反射の位置を推定した後に、推定した角膜反射の位置を用いて対象者の視線方向を再度算出する、こととしてもよい。この場合には、第1及び第2の光源による角膜反射の位置の推定の精度を確保することができ、その結果、視線方向の検出精度をより一層安定化することができる。   Further, the calculating unit once estimates the position of the corneal reflection by the first or second light source in the eye image using the three-dimensional position of the center of the pupil, and then uses the estimated position of the corneal reflection to determine the gaze direction of the subject. Is further calculated based on the line of sight direction and the three-dimensional position of the center of the pupil, and the three-dimensional position of the center of the corneal sphere of the subject is calculated. After estimating the position of the corneal reflection by the two light sources, the gaze direction of the subject may be calculated again using the estimated position of the corneal reflection. In this case, the accuracy of estimating the position of the corneal reflection by the first and second light sources can be secured, and as a result, the detection accuracy of the gaze direction can be further stabilized.

また、第3の光源は、3つ以上で第1及び第2のカメラの周囲に配置されていてもよい。この場合には、視線方向が検出できる範囲を第1及び第2のカメラの周囲に広げることができる。   Further, three or more third light sources may be arranged around the first and second cameras. In this case, the range in which the line-of-sight direction can be detected can be extended around the first and second cameras.

また、第3の光源は、第1及び第2のカメラの近傍から見て等角度間隔で第1及び第2のカメラの周囲に配置されていてもよい。この場合、視線方向が検出できる範囲を第1及び第2のカメラの周囲に効率的に広げることができる。   Further, the third light source may be arranged around the first and second cameras at equal angular intervals when viewed from the vicinity of the first and second cameras. In this case, the range in which the line-of-sight direction can be detected can be efficiently expanded around the first and second cameras.

また、 第3の光源は、第1及び第2のカメラの近傍から見て等角度間隔で第1及び第2のカメラの周囲に配置された光源群を複数有し、点灯制御部は、複数の光源群ごとに点灯させるように制御する、こととしてもよい。この場合は、光源群毎の点灯により生じる角膜反射の位置を容易に特定でき、それらの位置を基に眼画像上の第1及び第2の光源による角膜反射の位置を容易に推定できる。その結果、広い範囲での視線方向の検出を容易に実現できる。   The third light source includes a plurality of light source groups arranged around the first and second cameras at equal angular intervals when viewed from the vicinity of the first and second cameras. May be controlled to be turned on for each light source group. In this case, the positions of corneal reflection caused by lighting for each light source group can be easily specified, and the positions of corneal reflection by the first and second light sources on the eye image can be easily estimated based on those positions. As a result, it is possible to easily detect the gaze direction in a wide range.

さらに、第3の光源は、第1及び第2のカメラの近傍からの距離が不均一となるように配置されていてもよい。この場合は、複数の第3の光源毎の点灯により生じる角膜反射の位置を容易に特定でき、それらの位置を基に眼画像上の第1及び第2の光源による角膜反射の位置を容易に推定できる。その結果、広い範囲での視線方向の検出を容易に実現できる。   Furthermore, the third light source may be arranged so that the distance from the vicinity of the first and second cameras is not uniform. In this case, the positions of the corneal reflection caused by the lighting of each of the plurality of third light sources can be easily specified, and the positions of the corneal reflection by the first and second light sources on the eye image can be easily determined based on those positions. Can be estimated. As a result, it is possible to easily detect the gaze direction in a wide range.

また、対象者の眼を照明する光源が取り付けられたカメラを第1及び第2のカメラを含めて3組以上備えていてもよい。かかる構成を採れば、対象者において生じる眼鏡反射や対象者の睫毛等によって視線方向が検出できなくなることを防止できる。   Further, three or more sets of cameras including the first and second cameras to which the light source for illuminating the eye of the subject is attached may be provided. With this configuration, it is possible to prevent the line of sight from being undetectable due to spectacle reflection or eyelashes of the subject.

本発明によれば、被験者の視線方向を広い範囲で検出しながら、その視線方向の検出精度を保つことができる。   According to the present invention, it is possible to maintain the detection accuracy of the gaze direction while detecting the gaze direction of the subject in a wide range.

実施形態に係る視線検出装置を示す斜視図である。FIG. 1 is a perspective view illustrating a visual line detection device according to an embodiment. カメラのレンズ部分を示す平面図である。FIG. 3 is a plan view showing a lens portion of the camera. 実施形態に係る画像処理装置のハードウェア構成を示す図である。FIG. 2 is a diagram illustrating a hardware configuration of the image processing apparatus according to the embodiment. 実施形態に係る視線検出装置の機能構成を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of a visual line detection device according to the embodiment. 実施形態に係る視線検出装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the gaze detection apparatus which concerns on embodiment. 視線の検出を説明するための図である。It is a figure for explaining detection of a look. 本実施形態にかかる算出部が特定する、角膜球中心C、2つの補助光源の3次元座標、及びカメラの光源の3次元座標との位置関係を示す図である。FIG. 5 is a diagram illustrating a positional relationship among a corneal sphere center C, three-dimensional coordinates of two auxiliary light sources, and three-dimensional coordinates of a light source of a camera, which are specified by a calculation unit according to the embodiment. 本実施形態にかかるカメラによって得られる差分前瞳孔画像の画像イメージを示す図である。It is a figure showing the image picture of the pupil image before difference obtained by the camera concerning this embodiment. 本実施形態にかかる補助光源の配置状態を示す図である。FIG. 3 is a diagram illustrating an arrangement state of an auxiliary light source according to the embodiment. 本実施形態にかかる視線検出装置によって計算される差分前瞳孔画像上の2つの直線のイメージを示す図である。It is a figure showing the image of two straight lines on the pre-difference pupil image calculated by the gaze detection device according to the present embodiment. 人間の眼球の構造を簡略化して示す図である。It is a figure which shows the structure of the human eyeball in a simplified manner. 本実施形態のカメラ10に取り付けられた光源13によって生じる角膜反射の検出状態を示す図である。FIG. 3 is a diagram illustrating a detection state of corneal reflection generated by a light source 13 attached to the camera 10 of the embodiment. 本実施形態の補助光源40によって生じる角膜反射の検出状態を示す図である。FIG. 4 is a diagram illustrating a detection state of corneal reflection generated by the auxiliary light source 40 according to the embodiment. 本実施形態の視線検出装置1によって取得されたカメラ画像とその解析画像を示す図である。FIG. 3 is a diagram illustrating a camera image acquired by the visual line detection device 1 of the present embodiment and an analysis image thereof. 変形例にかかる補助光源の配置状態を示す図である。It is a figure showing an arrangement state of an auxiliary light source concerning a modification. 変形例にかかる光源の点灯タイミング、及びカメラの撮影タイミングを示すタイミングチャートである。It is a timing chart which shows the lighting timing of the light source concerning a modification, and the imaging timing of a camera. 変形例にかかる光源の点灯タイミング、及びカメラの撮影タイミングを示すタイミングチャートである。It is a timing chart which shows the lighting timing of the light source concerning a modification, and the imaging timing of a camera. 別の変形例にかかる補助光源の配置状態を示す図である。It is a figure which shows the arrangement | positioning state of the auxiliary light source concerning another modification. 別の変形例にかかる光源の点灯タイミング、及びカメラの撮影タイミングを示すタイミングチャートである。11 is a timing chart showing lighting timing of a light source and shooting timing of a camera according to another modification.

以下、図面を参照しつつ本発明に係る視線検出装置及び視線検出方法の好適な実施形態について詳細に説明する。なお、図面の説明においては、同一又は相当部分には同一符号を付し、重複する説明を省略する。   Hereinafter, preferred embodiments of a gaze detection device and a gaze detection method according to the present invention will be described in detail with reference to the drawings. In the description of the drawings, the same or corresponding parts will be denoted by the same reference characters, without redundant description.

[視線検出装置の構成]
まず、図1〜4を用いて、実施形態に係る視線検出装置1の構成を説明する。視線検出装置1は、対象者の眼を撮像することで対象者の視線方向を検出するコンピュータシステムであり、この装置により、本実施形態に係る視線検出方法が実施される。対象者とは、視線方向を検出する対象となる人であり、被験者ともいうことができる。視線検出装置1および視線検出方法の利用目的は何ら限定されず、例えば、よそ見運転の検出、運転者のサイドミラーやルームミラーの安全確認動作の確認、運転者の眠気の検出、商品の興味の度合いの調査、アミューズメント装置等に利用されるコンピュータへのデータ入力、乳幼児の自閉症診断等の診断用装置などに視線検出装置1を利用することができる。
[Configuration of line-of-sight detection device]
First, the configuration of the visual line detection device 1 according to the embodiment will be described with reference to FIGS. The gaze detection device 1 is a computer system that detects the gaze direction of the target person by imaging the eye of the target person, and the gaze detection method according to the present embodiment is performed by this device. The target person is a person whose gaze direction is to be detected, and can also be called a subject. The purpose of use of the line-of-sight detection device 1 and the line-of-sight detection method is not limited at all, and for example, detection of driving aside, confirmation of the driver's side mirror or room mirror safety confirmation operation, detection of driver's drowsiness, interest in products The eye gaze detecting device 1 can be used for a degree investigation, data input to a computer used for an amusement device or the like, a diagnostic device for autism diagnosis of an infant or the like, and the like.

図1に模式的に示すように、視線検出装置1は、ステレオカメラとして機能する一対のカメラ(第1のカメラおよび第2のカメラ)10と画像処理装置20と補助光源(第3の光源)40とを備える。以下では、必要に応じて、一対のカメラ10を、対象者Aの左側にある左カメラ10と、対象者Aの右側にある右カメラ10とに区別する。本実施形態では、視線検出装置1は、対象者Aが見る対象であるディスプレイ装置30をさらに備えるが、視線検出装置1の利用目的は上記のように限定されないので、対象者Aの視線の先にある物はディスプレイ装置30に限定されず、例えば自動車のフロントガラスでもあり得る。したがって、ディスプレイ装置30は視線検出装置1における必須の要素ではない。それぞれのカメラ10は画像処理装置20と無線または有線により接続され、カメラ10と画像処理装置20との間で各種のデータまたは命令が送受信される。各カメラ10に対しては予めカメラ較正が行われる。 As schematically shown in FIG. 1, the line-of-sight detection device 1 includes a pair of cameras (first camera and second camera) 10 functioning as a stereo camera, an image processing device 20, and an auxiliary light source (third light source). 40. Hereinafter, if necessary, it distinguishes a pair of camera 10, and the left camera 10 L on the left side of the subject A, in the right camera 10 R on the right side of the subject A. In the present embodiment, the gaze detection device 1 further includes the display device 30 that is the target of the subject A, but the purpose of use of the gaze detection device 1 is not limited as described above. Is not limited to the display device 30, and may be, for example, a windshield of an automobile. Therefore, the display device 30 is not an essential element in the visual line detection device 1. Each of the cameras 10 is connected to the image processing apparatus 20 by wireless or wire, and various data or commands are transmitted and received between the camera 10 and the image processing apparatus 20. Camera calibration is performed on each camera 10 in advance.

カメラ10は対象者Aの瞳孔およびその周辺を含む眼を撮影するために用いられる。一対のカメラ10は水平方向に沿って所定の間隔をおいて配され、かつ、対象者Aが眼鏡をかけているときの顔画像における反射光の写り込みを防止する目的で対象者Aの顔より低い位置に設けられる。水平方向に対するカメラ10の仰角は、瞳孔の確実な検出と対象者Aの視野範囲の妨げの回避との双方を考慮して、例えば20〜35度の範囲に設定される。個々のカメラ10に対しては予めカメラ較正が行われる。   The camera 10 is used for photographing the eye including the pupil of the subject A and its surroundings. The pair of cameras 10 are arranged at predetermined intervals along the horizontal direction, and the face of the subject A is used for the purpose of preventing reflected light from being reflected in a face image when the subject A is wearing glasses. It is provided at a lower position. The elevation angle of the camera 10 with respect to the horizontal direction is set to, for example, a range of 20 to 35 degrees in consideration of both reliable detection of the pupil and avoidance of obstruction of the visual field range of the subject A. Camera calibration is performed on each camera 10 in advance.

本実施形態では、カメラ10は、インターレーススキャン方式の一つであるNTSC方式のカメラである。NTSC方式では、1秒間に30枚得られる1フレームの画像データは、奇数番目の水平画素ラインで構成される奇数フィールドと、偶数番目の水平画素ラインで構成される偶数フィールドから構成され、奇数フィールドの画像と偶数フィールドの画像とが1/60秒の間隔で交互に撮影されることで生成される。したがって、一つのフレームは、一対の奇数フィールドおよび偶数フィールドに相当する。カメラ10は、画像処理装置20からの命令に応じて対象者Aを撮像し、画像データを画像処理装置20に出力する。   In the present embodiment, the camera 10 is an NTSC camera, which is one of the interlaced scan methods. In the NTSC system, one frame of image data obtained in 30 frames per second includes an odd field composed of odd-numbered horizontal pixel lines and an even field composed of even-numbered horizontal pixel lines. And the image of the even field are alternately photographed at an interval of 1/60 second. Thus, one frame corresponds to a pair of odd and even fields. The camera 10 captures an image of the subject A in response to a command from the image processing device 20, and outputs image data to the image processing device 20.

カメラ10のレンズ部分を図2に模式的に示す。この図に示すように、カメラ10では、対物レンズ11が円形状の開口部12に収容され、開口部12の外側に光源(第1の光源又は第2の光源)13が取り付けられている。光源13は、対象者Aの眼に向けて照明光を照射するための機器であり、複数の発光素子13aと複数の発光素子13bとから成る。発光素子13aは、出力光の中心波長が850nmの半導体発光素子(LED)であり、開口部12の縁に沿って等間隔でリング状に配される。発光素子13bは、出力光の中心波長が940nmの半導体発光素子であり、発光素子13aの外側に等間隔でリング状に配される。したがって、カメラ10の光軸から発光素子13bまでの距離は、該光軸から発光素子13aまでの距離よりも大きい。それぞれの発光素子13a,13bは、カメラ10の光軸に沿って照明光を出射するように設けられる。なお、光源13の配置は図2に示す構成に限定されず、カメラをピンホールモデルとみなすことができれば他の配置であってもよい。光源13は、画像処理装置20からの命令に応じたタイミングで照明光を出射する。   FIG. 2 schematically shows a lens portion of the camera 10. As shown in this figure, in the camera 10, the objective lens 11 is accommodated in a circular opening 12, and a light source (first light source or second light source) 13 is attached outside the opening 12. The light source 13 is a device for irradiating illumination light toward the eye of the subject A, and includes a plurality of light emitting elements 13a and a plurality of light emitting elements 13b. The light-emitting elements 13 a are semiconductor light-emitting elements (LEDs) having a center wavelength of output light of 850 nm, and are arranged in a ring shape at equal intervals along the edge of the opening 12. The light emitting elements 13b are semiconductor light emitting elements having a center wavelength of the output light of 940 nm, and are arranged in a ring shape at equal intervals outside the light emitting element 13a. Therefore, the distance from the optical axis of the camera 10 to the light emitting element 13b is larger than the distance from the optical axis to the light emitting element 13a. Each of the light emitting elements 13a and 13b is provided so as to emit illumination light along the optical axis of the camera 10. Note that the arrangement of the light sources 13 is not limited to the configuration shown in FIG. 2, and may be another arrangement as long as the camera can be regarded as a pinhole model. The light source 13 emits illumination light at a timing according to a command from the image processing device 20.

図1に戻って、視線検出装置1には、カメラ10の光源(第1の光源)13及びカメラ10の光源(第2の光源)13の周囲に複数の補助光源40が設けられている。この補助光源40は、それぞれ、単一の半導体発光素子等の発光素子によって構成されていてもよいし、光源13と同様にリング状に配置された複数の発光素子によって構成されていてもよいし、複数の発光素子がひとかたまりで配置されていてもよい。補助光源40は、例えば近赤外波長等の予め設定された波長の出力光を出力して対象者Aの眼を照明可能な光源であり、少なくとも2つ設けられている。それぞれの補助光源40は、2つの光源13の中心からカメラ10及びカメラ10の対物レンズ11の光軸に垂直な方向に離れる位置に配置される。従って、それぞれのカメラ10の光軸から補助光源40までの距離は、該光軸からそれぞれのカメラの光源13までの距離よりも大きい。また、それぞれの補助光源40は、画像処理装置20と無線または有線により接続され、画像処理装置20からの命令に応じたタイミングで照明光を出射する。 Returning to FIG. 1, the line-of-sight detection device 1, a plurality of auxiliary light sources 40 surrounding a camera 10 R of the light source (first light source) 13 and a camera 10 L of a light source (second light source) 13 is provided I have. Each of the auxiliary light sources 40 may be constituted by a single light emitting element such as a single semiconductor light emitting element, or may be constituted by a plurality of light emitting elements arranged in a ring like the light source 13. , A plurality of light emitting elements may be arranged in a lump. The auxiliary light source 40 is a light source that can output the output light having a predetermined wavelength such as a near-infrared wavelength and illuminate the eye of the subject A, and is provided with at least two auxiliary light sources. Each of the auxiliary light source 40 is disposed from the center of the two light sources 13 in a position away in a direction perpendicular to the optical axis of the camera 10 R and the camera 10 L of the objective lens 11. Therefore, the distance from the optical axis of each camera 10 to the auxiliary light source 40 is greater than the distance from the optical axis to the light source 13 of each camera. Each of the auxiliary light sources 40 is connected to the image processing device 20 by wireless or wired, and emits illumination light at a timing according to a command from the image processing device 20.

画像処理装置20は、カメラ10、光源13、及び補助光源40の制御と、対象者Aの視線方向の検出とを実行するコンピュータである。画像処理装置20は、据置型または携帯型のパーソナルコンピュータ(PC)により構築されてもよいし、ワークステーションにより構築されてもよいし、他の種類のコンピュータにより構築されてもよい。あるいは、画像処理装置20は複数台の任意の種類のコンピュータを組み合わせて構築されてもよい。複数台のコンピュータを用いる場合には、これらのコンピュータはインターネットやイントラネットなどの通信ネットワークを介して接続される。   The image processing device 20 is a computer that controls the camera 10, the light source 13, and the auxiliary light source 40 and detects the gaze direction of the subject A. The image processing device 20 may be configured by a stationary or portable personal computer (PC), may be configured by a workstation, or may be configured by another type of computer. Alternatively, the image processing apparatus 20 may be constructed by combining a plurality of arbitrary types of computers. When a plurality of computers are used, these computers are connected via a communication network such as the Internet or an intranet.

画像処理装置20の一般的なハードウェア構成を図3に示す。画像処理装置20は、オペレーティングシステムやアプリケーション・プログラムなどを実行するCPU(プロセッサ)101と、ROMおよびRAMで構成される主記憶部102と、ハードディスクやフラッシュメモリなどで構成される補助記憶部103と、ネットワークカードあるいは無線通信モジュールで構成される通信制御部104と、キーボードやマウスなどの入力装置105と、ディスプレイやプリンタなどの出力装置106とを備える。   FIG. 3 shows a general hardware configuration of the image processing apparatus 20. The image processing apparatus 20 includes a CPU (processor) 101 that executes an operating system and application programs, a main storage unit 102 including a ROM and a RAM, and an auxiliary storage unit 103 including a hard disk and a flash memory. , A communication control unit 104 including a network card or a wireless communication module, an input device 105 such as a keyboard and a mouse, and an output device 106 such as a display and a printer.

後述する画像処理装置20の各機能要素は、CPU101または主記憶部102の上に所定のソフトウェアを読み込ませ、CPU101の制御の下で通信制御部104や入力装置105、出力装置106などを動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶部102または補助記憶部103内に格納される。   Each functional element of the image processing device 20 described below causes predetermined software to be read on the CPU 101 or the main storage unit 102, and operates the communication control unit 104, the input device 105, the output device 106, and the like under the control of the CPU 101. This is realized by reading and writing data in the main storage unit 102 or the auxiliary storage unit 103. Data and a database required for processing are stored in the main storage unit 102 or the auxiliary storage unit 103.

図4に示すように、画像処理装置20は機能的構成要素として点灯制御部21、画像取得部22、及び算出部23を備える。点灯制御部21は、光源13及び補助光源40の点灯タイミングを制御する。画像取得部22は、カメラ10の撮影タイミングを光源13及び補助光源40の点灯タイミングに同期して制御することで、カメラ10から画像データ(眼画像のデータ)を取得する機能要素である。算出部23は、画像データから得られる視線ベクトルに基づいて視線方向を検出する機能要素である。視線とは、対象者の瞳孔中心と該対象者の注視点(対象者が見ている点)とを結ぶ線である。なお、「視線」という用語は、起点、終点、および方向の意味(概念)を含む。また、「視線ベクトル」とは、対象者の視線の方向をベクトルで表したもので、「視線方向」を表す一形態である。画像処理装置20の検出結果の視線方向の出力先は何ら限定されない。例えば、画像処理装置20は判定結果を画像、図形、またはテキストでモニタに表示してもよいし、メモリやデータベースなどの記憶装置に格納してもよいし、通信ネットワーク経由で他のコンピュータシステムに送信してもよい。   As illustrated in FIG. 4, the image processing device 20 includes a lighting control unit 21, an image acquisition unit 22, and a calculation unit 23 as functional components. The lighting control unit 21 controls the lighting timing of the light source 13 and the auxiliary light source 40. The image acquisition unit 22 is a functional element that acquires image data (eye image data) from the camera 10 by controlling the shooting timing of the camera 10 in synchronization with the lighting timing of the light source 13 and the auxiliary light source 40. The calculation unit 23 is a functional element that detects a gaze direction based on a gaze vector obtained from image data. The line of sight is a line connecting the center of the pupil of the subject and the gazing point (point that the subject is looking at) of the subject. The term “line of sight” includes the meaning (concept) of the starting point, the ending point, and the direction. The “line-of-sight vector” represents the direction of the line of sight of the target person as a vector, and is a form of “line-of-sight direction”. The output destination in the line of sight direction of the detection result of the image processing device 20 is not limited at all. For example, the image processing apparatus 20 may display the determination result as an image, a graphic, or text on a monitor, may store the determination result in a storage device such as a memory or a database, or may transmit the determination result to another computer system via a communication network. You may send it.

[視線検出方法]
次に、図5〜8を用いて、視線検出装置1の動作について説明するとともに、本実施形態に係る視線検出方法について説明する。
[Gaze detection method]
Next, the operation of the gaze detection device 1 will be described with reference to FIGS. 5 to 8, and the gaze detection method according to the present embodiment will be described.

(処理の概要)
視線検出方法の概要を図5に示す。まず、点灯制御部21が光源13及び補助光源40の点灯タイミングを制御し、そのタイミングに合わせて画像取得部22がそれぞれのカメラ10から明瞳孔画像(眼画像)および暗瞳孔画像(眼画像)を取得する(ステップS11;照明ステップ、補助照明ステップ、眼画像取得ステップ)。続いて、算出部23が、それぞれのカメラ10からの明瞳孔画像及び暗瞳孔画像を対象にして、眼画像中の瞳孔中心の位置及び角膜反射の位置を検出する(ステップS12)。そして、算出部23は、眼画像中で光源13による角膜反射の位置が検出されているか否かを検出し(ステップS13)、角膜反射の位置が検出された場合には(ステップS13;YES)、検出した角膜反射の位置及び瞳孔中心の位置を用いて視線ベクトルを算出する(ステップS14)。一方、角膜反射の位置が検出されなかった場合には(ステップS13;NO)、眼画像中で補助光源40による角膜反射の位置を少なくとも2つ検出する(ステップS15)。その後、検出した2つの補助光源40による角膜反射の位置を用いて光源13による角膜反射の位置を推定する(ステップS16)。次に、推定した角膜反射の位置と瞳孔中心の位置とを用いて視線ベクトルを算出する(ステップS17、以上算出ステップ)。以上の処理は、視線検出処理の終了の指示が受け付けられるまで、繰り返し実行される(ステップS18)。
(Overview of processing)
FIG. 5 shows an outline of the gaze detection method. First, the lighting control unit 21 controls the lighting timing of the light source 13 and the auxiliary light source 40, and the image acquisition unit 22 sends the bright pupil image (eye image) and the dark pupil image (eye image) from each camera 10 in accordance with the timing. (Step S11; lighting step, auxiliary lighting step, eye image obtaining step). Subsequently, the calculation unit 23 detects the position of the center of the pupil and the position of the corneal reflection in the eye image for the bright pupil image and the dark pupil image from the respective cameras 10 (step S12). Then, the calculation unit 23 detects whether or not the position of the corneal reflection by the light source 13 is detected in the eye image (Step S13), and when the position of the corneal reflection is detected (Step S13; YES). Then, a gaze vector is calculated using the detected position of the corneal reflection and the position of the center of the pupil (step S14). On the other hand, when the position of the corneal reflection is not detected (Step S13; NO), at least two positions of the corneal reflection by the auxiliary light source 40 are detected in the eye image (Step S15). Thereafter, the position of the corneal reflection by the light source 13 is estimated using the detected positions of the corneal reflection by the two auxiliary light sources 40 (step S16). Next, a line-of-sight vector is calculated using the estimated position of the corneal reflex and the position of the center of the pupil (step S17, the above calculation step). The above processing is repeatedly executed until an instruction to end the line-of-sight detection processing is received (step S18).

以下、各ステップの処理について詳細に説明する。   Hereinafter, the processing of each step will be described in detail.

(眼画像の取得)
眼に入った光は網膜で乱反射し、反射光のうち瞳孔を通り抜けた光は強い指向性をもって光源へ戻る性質がある。カメラの開口部近くにある光源が発光した時にカメラを露光させると、網膜で反射した光の一部がその開口部に入るため、瞳孔が瞳孔周辺よりも明るく写った画像を取得することができる。この画像が明瞳孔画像である。これに対して、カメラの開口部から離れた位置にある光源が発光した時にカメラを露光させると、眼から戻ってきた光はカメラの開口部にほとんど戻らないため、瞳孔が暗く写った画像を取得することができる。この画像が暗瞳孔画像である。また、透過率が高い波長の光を眼に照射すると、網膜での光の反射が多くなるので瞳孔が明るく写り、透過率が低い波長の光を眼に照射すると、網膜での光の反射が少なくなるので瞳孔が暗く写る。
(Acquisition of eye images)
Light that has entered the eye is irregularly reflected by the retina, and of the reflected light, light that has passed through the pupil has the property of returning to the light source with strong directivity. When the camera is exposed when the light source near the opening of the camera emits light, part of the light reflected by the retina enters the opening, so that an image in which the pupil is brighter than the pupil periphery can be obtained. . This image is a bright pupil image. On the other hand, if the camera is exposed when a light source located at a position distant from the camera opening emits light, the light returned from the eyes hardly returns to the camera opening, so that an image with a dark pupil appears. Can be obtained. This image is the dark pupil image. Also, irradiating the eye with light of a wavelength having a high transmittance increases the reflection of light on the retina, so that the pupil appears brighter.When irradiating light with a wavelength of a low transmittance on the eye, the light is reflected on the retina. The pupil appears dark because it is less.

本実施形態では、透過率が高い波長の光(中心波長が850nm)を発する発光素子13aが開口部12に隣接した位置に設けられ、眼の透過率が低い波長の光(中心波長が940nm)を発する発光素子13bを開口部12から離れた位置に設けられる。点灯制御部21及び画像取得部22は、カメラ10の奇数フィールドに合わせて発光素子13aを点灯させて明瞳孔画像を撮影し、カメラ10の偶数フィールドに合わせて発光素子13bを点灯させて暗瞳孔画像を撮影する。さらに、画像取得部22は2つのカメラ10の間で作動タイミングをわずかにずらし、個々のカメラ10の露光時間はそのずらし時間以下に設定される。点灯制御部21は、各カメラ10の露光時間中に、対応する発光素子13aおよび発光素子13bを交互に発光させることで、一方のカメラ10の光源13からの光が他方のカメラ10の画像に影響を与えないようにする(クロストークが起こらないようにする)。加えて、点灯制御部21は、2つのカメラの作動タイミング中において継続的に全ての補助光源40を点灯させるように制御する。   In the present embodiment, the light emitting element 13a that emits light of a wavelength with high transmittance (center wavelength of 850 nm) is provided adjacent to the opening 12, and light of a wavelength with low eye transmittance (center wavelength of 940 nm). Is provided at a position away from the opening 12. The lighting control unit 21 and the image acquisition unit 22 shoot the bright pupil image by turning on the light emitting element 13a in accordance with the odd field of the camera 10 and turn on the light emitting element 13b in accordance with the even field of the camera 10 to turn on the dark pupil. Take an image. Further, the image acquisition unit 22 slightly shifts the operation timing between the two cameras 10, and the exposure time of each camera 10 is set to be equal to or shorter than the shift time. The lighting control unit 21 alternately emits the corresponding light emitting elements 13a and 13b during the exposure time of each camera 10, so that the light from the light source 13 of one camera 10 becomes an image of the other camera 10. Avoid influence (prevent crosstalk). In addition, the lighting control unit 21 controls so that all the auxiliary light sources 40 are continuously turned on during the operation timing of the two cameras.

画像取得部22は、これらの一連の制御により得られる明瞳孔画像および暗瞳孔画像を取得する。一方のカメラ10から得られる明瞳孔画像または暗瞳孔画像は第1瞳孔画像に相当し、他方のカメラ10から得られる明瞳孔画像または暗瞳孔画像は第2瞳孔画像に相当する。得られる画像データは、奇数フィールド又は偶数フィールドのみに有効画素を有しているため、画像取得部22は、隣接する有効画素の画素ラインの輝度平均をそのライン間の画素値に埋め込むことによって、明瞳孔画像または暗瞳孔画像を生成する。画像取得部22は2つのカメラ10によって得られた明瞳孔画像および暗瞳孔画像を算出部23に出力する。   The image acquisition unit 22 acquires a bright pupil image and a dark pupil image obtained by a series of these controls. A bright pupil image or a dark pupil image obtained from one camera 10 corresponds to a first pupil image, and a bright pupil image or a dark pupil image obtained from the other camera 10 corresponds to a second pupil image. Since the obtained image data has an effective pixel only in the odd field or the even field, the image acquisition unit 22 embeds the average luminance of the pixel line of the adjacent effective pixel in the pixel value between the lines, Generate a bright pupil image or a dark pupil image. The image acquisition unit 22 outputs the bright pupil image and the dark pupil image obtained by the two cameras 10 to the calculation unit 23.

(角膜反射の位置及び瞳孔中心の位置の検出)
算出部23は、画像取得部22から入力された明瞳孔画像および暗瞳孔画像のそれぞれから複数の角膜反射を検出する。具体的には、算出部23は1枚の画像に対してPタイル法による2値化とラベリングとを行い、形状や輝度平均などの情報に基づいてその画像から複数の角膜反射を選択する。このような処理により、算出部23は明瞳孔画像および暗瞳孔画像のそれぞれから、複数の角膜反射を得る。
(Detection of corneal reflex position and pupil center position)
The calculation unit 23 detects a plurality of corneal reflections from each of the bright pupil image and the dark pupil image input from the image acquisition unit 22. Specifically, the calculation unit 23 performs binarization and labeling on one image by the P tile method, and selects a plurality of corneal reflections from the image based on information such as a shape and a luminance average. Through such processing, the calculation unit 23 obtains a plurality of corneal reflections from each of the bright pupil image and the dark pupil image.

続いて、算出部23は明瞳孔画像および暗瞳孔画像から検出された複数の角膜反射の中にカメラ10の光源13による角膜反射が存在するか否かを判定する。例えば、この判定は、角膜反射の形状又は大きさを判別したり、複数の角膜反射との位置関係を判定したりすることで行われる。判定の結果、複数の角膜反射の中に光源13によるものが存在しない場合には、算出部23は後述する角膜反射位置の推定処理を起動させる。一方で、判定の結果、光源13による角膜反射が存在する場合には、それを基に明瞳孔画像及び暗瞳孔画像中の角膜反射の位置を算出する。   Subsequently, the calculation unit 23 determines whether or not the corneal reflection by the light source 13 of the camera 10 exists in the plurality of corneal reflections detected from the bright pupil image and the dark pupil image. For example, this determination is performed by determining the shape or size of the corneal reflection or determining the positional relationship with a plurality of corneal reflections. As a result of the determination, if there is no corneal reflection caused by the light source 13, the calculation unit 23 activates a corneal reflection position estimation process described later. On the other hand, if the result of the determination is that corneal reflection by the light source 13 exists, the position of the corneal reflection in the bright pupil image and the dark pupil image is calculated based on the corneal reflection.

さらに、算出部23は、推定又は算出された角膜反射の位置に基づいて明瞳孔画像と暗瞳孔画像との間での角膜反射の移動量を位置補正量として計算する。続いて、算出部23はそれら二つの角膜反射の位置が一致するように、前フィールド(i番目のフィールド)の画像を、次フィールド((i+1)番目のフィールド)の画像に位置補正量だけずらした上で、これら2画像から差分画像を生成する。そして、算出部23は一致させた角膜反射の画像上の座標(位置)を取得する。   Further, the calculation unit 23 calculates a movement amount of the corneal reflection between the bright pupil image and the dark pupil image as a position correction amount based on the estimated or calculated corneal reflection position. Subsequently, the calculation unit 23 shifts the image of the previous field (the i-th field) to the image of the next field (the (i + 1) -th field) by the position correction amount so that the positions of the two corneal reflections match. Then, a difference image is generated from these two images. Then, the calculation unit 23 acquires the coordinate (position) on the image of the matched corneal reflection.

続いて、算出部23は差分画像から瞳孔位置を特定する。具体的には、算出部23は、前フレームと輝度が大きく変化しないことを利用して、前フレームで検出された瞳孔の輝度平均を利用して、その平均輝度の半分の値を閾値として差分画像を2値化し、ラベリングを行う。続いて、算出部23は、瞳孔らしい面積、サイズ、面積比、正方形度、および瞳孔特徴量等の形状パラメータに基づいて、ラベルづけされた画素の連結成分の中から瞳孔を選択し、瞳孔中心の座標(位置)を算出する。   Subsequently, the calculation unit 23 specifies a pupil position from the difference image. Specifically, the calculation unit 23 uses the average luminance of the pupil detected in the previous frame, utilizing the fact that the luminance does not greatly change from that of the previous frame, and sets a half value of the average luminance as a threshold value. The image is binarized and labeled. Subsequently, the calculation unit 23 selects a pupil from the connected components of the labeled pixels based on shape parameters such as the pupil-like area, size, area ratio, squareness, and pupil feature, and calculates the pupil center. Is calculated.

続いて、算出部23は瞳孔中心の3次元座標を求める。具体的には、算出部23はステレオ法を用いて、2つのカメラ10から取得した第1及び第2の瞳孔画像を用いて算出した瞳孔中心の座標から瞳孔中心の3次元位置を計算する。ステレオ法とは、カメラのレンズの焦点距離、画像中心、画素サイズなどの内部パラメータと、カメラの位置や姿勢等の外部パラメータとを予め計測しておき、複数台のステレオカメラで対象物を撮影したときに、画像中の点の座標を基に、内部パラメータおよび外部パラメータを用いてその点の空間上の位置を決定する方法である。具体的には、算出部23は、2台のカメラ10からの画像データを基に検出した画像座標系における瞳孔中心の座標と、3次元空間内の世界座標系における瞳孔中心の座標との関係式を、キャリブレーションデータを参照しながら取得する。次に、算出部23は、関係式から世界座標系における対象者Aの瞳孔中心の3次元座標を求める。   Subsequently, the calculation unit 23 obtains three-dimensional coordinates of the pupil center. Specifically, the calculation unit 23 calculates the three-dimensional position of the pupil center from the coordinates of the pupil center calculated using the first and second pupil images acquired from the two cameras 10 using the stereo method. The stereo method measures internal parameters such as the focal length of the camera lens, image center, and pixel size, and external parameters such as the position and orientation of the camera in advance, and shoots an object using multiple stereo cameras. Then, based on the coordinates of the point in the image, the spatial position of the point is determined using the internal parameters and the external parameters. Specifically, the calculation unit 23 determines the relationship between the coordinates of the center of the pupil in the image coordinate system detected based on the image data from the two cameras 10 and the coordinates of the center of the pupil in the world coordinate system in a three-dimensional space. The equation is obtained with reference to the calibration data. Next, the calculation unit 23 obtains three-dimensional coordinates of the center of the pupil of the subject A in the world coordinate system from the relational expression.

なお、算出部23が明瞳孔画像および暗瞳孔画像から検出された複数の角膜反射からカメラ10の光源13による角膜反射を抽出する手法としては、下記の手法が採用されてもよい。すなわち、算出部23は、2つのカメラ10によって取得された瞳孔画像を基に抽出した1組の角膜反射の位置を利用して、ステレオマッチングを行うことにより、角膜球中心の3次元位置を算出する。そして、算出した角膜球中心の3次元位置と瞳孔中心の3次元座標とを結ぶ候補ベクトルを算出する。さらに、算出部23は、算出した候補ベクトルが予め設定されたベクトル条件を満たすか否かを判定し、ベクトル条件を満たす候補ベクトルの算出に用いた1組の角膜反射の位置を、それぞれのカメラで取得された瞳孔画像における光源13による角膜反射の位置として抽出する。このベクトル条件とは、候補ベクトルと基準線との角度が閾値以下であり、かつ、候補ベクトルの長さが所定の範囲内であるという条件である。例えば、基準線としては、2台のカメラ10の間の中点と瞳孔中心とを結ぶ線が設定される。また、画面内を見ているということを条件とするならば、候補ベクトルではなく視線(視軸)を検出してから、視線と画面平面との交点(注視点)が画面上の所定範囲内にあれば、正しい瞳孔中心と角膜反射とが検出されていると判断してもよい。   Note that the following method may be employed as a method in which the calculation unit 23 extracts the corneal reflection by the light source 13 of the camera 10 from the plurality of corneal reflections detected from the bright pupil image and the dark pupil image. That is, the calculation unit 23 calculates the three-dimensional position of the center of the corneal sphere by performing stereo matching using a pair of corneal reflection positions extracted based on the pupil images acquired by the two cameras 10. I do. Then, a candidate vector connecting the calculated three-dimensional position of the corneal sphere center and the three-dimensional coordinates of the pupil center is calculated. Further, the calculation unit 23 determines whether or not the calculated candidate vector satisfies a preset vector condition, and determines a position of a set of corneal reflections used for calculating a candidate vector satisfying the vector condition, for each camera. Is extracted as the position of the corneal reflection by the light source 13 in the pupil image acquired in step (1). The vector condition is a condition that the angle between the candidate vector and the reference line is equal to or smaller than a threshold value and the length of the candidate vector is within a predetermined range. For example, a line connecting the midpoint between the two cameras 10 and the center of the pupil is set as the reference line. Also, if the condition is that the user is looking in the screen, after detecting the line of sight (the visual axis) instead of the candidate vector, the intersection (fixation point) between the line of sight and the screen plane is within a predetermined range on the screen. , It may be determined that the correct pupil center and corneal reflex have been detected.

(視線方向の検出)
算出部23は、瞳孔中心の3次元座標、差分画像上における瞳孔中心の位置、及び差分画像上における角膜反射の位置に基づいて視線を検出する。図6に示すように、瞳孔中心の3次元位置Pに基づいて、カメラ10の開口部12の中心を原点Oとし、その原点Oと瞳孔中心Pを結ぶ基準線OPを法線とする仮想視点平面X’−Y’を考える。この仮想視点平面X’−Y’は、カメラ10で捉えられる画像の投影面(画像面)に対応する。ここで、X’軸は、世界座標系のX−Z平面と仮想視点平面との交線に相当する。
(Detection of gaze direction)
The calculation unit 23 detects the line of sight based on the three-dimensional coordinates of the pupil center, the position of the pupil center on the difference image, and the position of the corneal reflection on the difference image. As shown in FIG. 6, based on the three-dimensional position P of the center of the pupil, a virtual viewpoint having the origin O as the center of the opening 12 of the camera 10 and the reference line OP connecting the origin O and the center P of the pupil as a normal line. Consider the plane X'-Y '. This virtual viewpoint plane X′-Y ′ corresponds to a projection plane (image plane) of an image captured by the camera 10. Here, X 'axis corresponds to the line of intersection between X W -Z W plane and the virtual viewpoint plane of the world coordinate system.

算出部23は、画像面Sにおける角膜反射Gから瞳孔中心Pまでのベクトルrを算出し、そのベクトルrを、距離OPから求められたカメラの拡大率を用いて実寸に換算したベクトルrに変換する。このとき、各カメラ10をピンホールモデルと考え、角膜反射Gと瞳孔中心Pとが、仮想視点平面X’−Y’と平行な平面上にあると仮定する。つまり、算出部23は、仮想視点平面と平行であって瞳孔中心Pの3次元座標を含む平面上において、瞳孔中心Pと角膜反射点Gの相対座標をベクトルrとして算出し、このベクトルrは角膜反射点Gから瞳孔中心Pまでの実距離を表す。 Calculator 23 calculates a vector r G from corneal reflection G in the image plane S G to the pupil center P, and the vector r G, was converted to the actual size with the magnification of the camera obtained from the distance OP vector Convert to r. At this time, each camera 10 is considered as a pinhole model, and it is assumed that the corneal reflection G and the pupil center P are on a plane parallel to the virtual viewpoint plane X′-Y ′. That is, the calculating unit 23 calculates the relative coordinates of the pupil center P and the corneal reflection point G as a vector r on a plane parallel to the virtual viewpoint plane and including the three-dimensional coordinates of the pupil center P. It represents the actual distance from the corneal reflection point G to the pupil center P.

続いて、算出部23は、対象者Aの仮想視点平面上の注視点Tに関して、直線OTの水平軸X’に対する傾きφが、ベクトルrの画像面上の水平軸Xに対する傾きφ’と等しいと仮定する。さらに、算出部23は、対象者Aの視線ベクトル、すなわち、瞳孔中心Pと注視点Tとを結ぶベクトルPTと、基準線OPとの成す角θを、ゲイン値kを含むパラメータを使った下記式(1)により計算する。
θ=f(r)=k×|r| …(1)
Subsequently, the calculation unit 23, with respect to the fixation point T on the virtual viewpoint plane of the subject A, the horizontal axis X of the straight line OT 'inclination φ for the inclination φ to the horizontal axis X G in the image plane of the vector r' and Assume equal. Further, the calculation unit 23 calculates the angle θ between the line of sight of the subject A, that is, the vector PT connecting the pupil center P and the gazing point T, and the reference line OP using a parameter including a gain value k as follows. It is calculated by equation (1).
θ = f 1 (r) = k × | r | (1)

このような角度φ,θの計算は、瞳孔中心Pの存在する平面上のベクトルrを仮想視点平面上で拡大したものがそのまま対象者Aの注視点に対応するとみなすことにより行われる。より詳しくは、対象者Aの視線PTの基準線OPに対する角度θは、瞳孔中心と角膜反射の距離|r|との間で線形関係を有すると仮定する。   Such calculation of the angles φ and θ is performed by assuming that the vector r on the plane where the pupil center P exists on the virtual viewpoint plane corresponds to the gazing point of the subject A as it is. More specifically, it is assumed that the angle θ of the line of sight PT of the subject A with respect to the reference line OP has a linear relationship between the pupil center and the distance | r | of the corneal reflection.

角度θと距離|r|とは線形近似できるという仮定、および二つの傾きφ,φ’が等しいという仮定を利用することで、(θ,φ)と(|r|,φ’)とを1対1に対応させることができる。このとき、算出部23は、カメラ10の開口部12の中心に設定された原点Oと、仮想視点平面上の注視点Tとを結ぶベクトルOTを次式(2)により得る。
By using the assumption that the angle θ and the distance | r | can be linearly approximated and the assumption that the two inclinations φ and φ ′ are equal, (θ, φ) and (| r |, φ ′) become 1 One-to-one correspondence is possible. At this time, the calculation unit 23 obtains a vector OT connecting the origin O set at the center of the opening 12 of the camera 10 and the gazing point T on the virtual viewpoint plane by the following equation (2).

最後に、算出部23は視線ベクトルPTと視対象平面(ディスプレイ装置30)との交点である注視点Qを次式(3)で求める。
Q=nPT+P …(3)
Lastly, the calculation unit 23 obtains the gazing point Q, which is the intersection of the line-of-sight vector PT and the viewing target plane (display device 30), by the following equation (3).
Q = nPT + P (3)

しかし、一般的にヒトの視軸(瞳孔中心および中心窩を通る軸)と光軸(角膜からレンズの中心へと延びる法線)との間にはずれがあり、対象者Aがカメラを注視した際にも角膜反射と瞳孔中心とは一致しない。そこで、これを補正する原点補正ベクトルrを定義し、カメラ画像から実測した角膜反射−瞳孔中心ベクトルをr’とすると、ベクトルrはr=r’−rで表されるので、式(1)は下記式(4)のように書き換えられる。
θ=k×|r’−r| …(4)
計測されたr’に対して原点補正を行うことで、(θ,φ)と(|r|,φ’)とを1対1に対応させることができ、精度の高い注視点検出を行うことができる。
However, there is generally a deviation between the human visual axis (the axis passing through the center of the pupil and the fovea) and the optical axis (the normal extending from the cornea to the center of the lens) and subject A gazes at the camera Even at this time, the corneal reflex does not coincide with the center of the pupil. Therefore, if an origin correction vector r 0 for correcting this is defined and the corneal reflection-pupil center vector actually measured from the camera image is defined as r ′, the vector r is represented by r = r′−r 0 , and the equation ( 1) can be rewritten as the following equation (4).
θ = k × | r′−r 0 | (4)
By performing origin correction on the measured r ′, (θ, φ) and (| r |, φ ′) can be made to correspond one-to-one, and highly accurate gaze point detection is performed. Can be.

(角膜反射位置の推定処理)
ここで、算出部23は、明瞳孔画像および暗瞳孔画像から検出された複数の角膜反射の中に光源13による角膜反射が存在しない場合は、次のような明瞳孔画像及び暗瞳孔画像のそれぞれ(以下、単に「差分前瞳孔画像」ともいう)について角膜反射位置の推定処理を実行する。まず、算出部23は、差分前瞳孔画像において検出された複数の角膜反射のうちから、2つの補助光源40による角膜反射を抽出する。この抽出は、角膜反射の形状又は大きさを判別したり、複数の角膜反射との位置関係を判定したりすることで行われる。そして、算出部23は、抽出した2つの角膜反射を生じさせている2つの補助光源40の3次元座標L,Lと、カメラ10の光源13の中心の3次元座標Lと、第1又は第2の瞳孔画像を用いて算出した瞳孔中心の3次元位置Pと、を特定する。3次元座標L,L,Lの3次元座標は、それぞれが既知であり、予め画像処理装置20内のデータベースに格納され、算出部23により読み出される。ここで、カメラ10の位置とそれに取り付けられている光源13の位置とは同じと近似され、瞳孔中心の3次元位置Pと角膜球中心の3次元位置とは同じであると近似される。
(Cornea reflection position estimation processing)
Here, when the corneal reflection by the light source 13 does not exist among the plurality of corneal reflections detected from the bright pupil image and the dark pupil image, the calculation unit 23 calculates the following bright pupil image and dark pupil image respectively. A corneal reflection position estimation process is executed for the pupil image before (hereinafter simply referred to as “pre-difference pupil image”). First, the calculation unit 23 extracts corneal reflections from the two auxiliary light sources 40 from among a plurality of corneal reflections detected in the pre-difference pupil image. This extraction is performed by determining the shape or size of the corneal reflection or by determining the positional relationship with a plurality of corneal reflections. Then, the calculation unit 23 calculates the three-dimensional coordinates L 1 and L 2 of the two auxiliary light sources 40 that cause the two extracted corneal reflections, the three-dimensional coordinates L 0 of the center of the light source 13 of the camera 10, The three-dimensional position P of the pupil center calculated using the first or second pupil image is specified. The three-dimensional coordinates of the three-dimensional coordinates L 0 , L 1 , and L 2 are already known, are stored in advance in a database in the image processing device 20, and are read by the calculation unit 23. Here, the position of the camera 10 and the position of the light source 13 attached thereto are approximated to be the same, and the three-dimensional position P of the pupil center and the three-dimensional position of the corneal sphere are approximated to be the same.

図7には、世界座標系における、角膜球中心Cと、2つの補助光源40の3次元座標L,Lと、カメラ10の光源13の中心の3次元座標Lとの位置関係を示し、図8には、カメラ10によって得られる差分前瞳孔画像の画像イメージを示している。 FIG. 7 shows the positional relationship between the corneal sphere center C, the three-dimensional coordinates L 1 and L 2 of the two auxiliary light sources 40, and the three-dimensional coordinate L 0 of the center of the light source 13 of the camera 10 in the world coordinate system. 8 shows an image image of the pre-difference pupil image obtained by the camera 10.

これらの図に示すように、光源13とカメラ10とが同じ位置であると近似した場合、角膜球CNの中心Cがどこに存在していても、光源13が点灯したときには、この光源13による角膜反射は3次元座標Lと角膜球中心Cとを通る直線の方向に検出される。よって、差分前画像中においては角膜球GCの輪郭の中心に光源13による角膜反射GRが必ず現れると考えられる(ここでは、差分前画像に角膜球の輪郭が現れるとして図示している)。また、上述したように2つのカメラ10に対応した差分画像を用いてステレオマッチングにより瞳孔中心の3次元座標Pが求められており、それを角膜球中心Cの位置として近似する。その結果、算出部23は、カメラ10の中心である原点Oから角膜球中心Cに向かうベクトルOCを求めることができる。 As shown in these figures, when the light source 13 and the camera 10 are approximated to be at the same position, no matter where the center C of the corneal sphere CN exists, when the light source 13 is turned on, The reflection is detected in the direction of a straight line passing through the three-dimensional coordinates L 0 and the center C of the corneal sphere. Therefore, in the differential before the image corneal reflection GR 0 by the light source 13 is considered to always appear in the center of the contour of the cornea sphere GC (here is shown as a contour of the cornea sphere appears in the difference image before). Further, as described above, the three-dimensional coordinates P of the center of the pupil are obtained by stereo matching using the difference images corresponding to the two cameras 10 and are approximated as the position of the center C of the corneal sphere. As a result, the calculation unit 23 can obtain the vector OC from the origin O, which is the center of the camera 10, to the corneal sphere center C.

続いて、算出部23は、光源13の3次元座標L(原点O)と一方の補助光源40の3次元座標Lと角膜球中心Cとを通る平面LCLの世界座標芸における位置と、光源13の3次元座標L(原点O)と他方の補助光源40の3次元座標Lと角膜球中心Cとを通る平面LCLの世界座標系における位置とを、平面の式を求めることで特定する。平面LCLと平面LCLとは、ともに3次元空間内で角膜球中心Cを通るため、これらの平面LCL,LCLの仮想視点平面X’−Y’に沿った断面が、それぞれ、差分前画像上における2つの直線SL,SLに相当する。角膜球GNを球と近似するとこれらの2本の直線SL,SLは、角膜球GNの中心を通る直線となり、両直線SL,SLの交点が角膜球の中心となると理解される。差分前画像中の角膜球GCの中心は、角膜球中心を画像平面上に投影したものであり、カメラ10の光源13による角膜反射の位置GRに一致する。さらに、それぞれの直線SL,SLは、差分前画像上で補助光源40による角膜反射の位置GR,GRをそれぞれ通ると理解される。 Subsequently, the calculation unit 23 calculates the three-dimensional coordinates L 0 (origin O) of the light source 13, the three-dimensional coordinates L 1 of one auxiliary light source 40, and the plane L 0 CL 1 passing through the center C of the corneal sphere in the world coordinate system. The position and the position in the world coordinate system of the plane L 0 CL 2 passing through the three-dimensional coordinates L 0 (origin O) of the light source 13, the three-dimensional coordinates L 2 of the other auxiliary light source 40, and the corneal sphere center C are represented by It is specified by calculating the equation. Since the plane L 0 CL 1 and the plane L 0 CL 2 both pass through the center C of the corneal sphere in a three-dimensional space, the plane L 0 CL 1 and the plane L 0 CL 2 correspond to the virtual viewpoint plane X′-Y ′ of these planes L 0 CL 1 and L 0 CL 2. The cross sections along the lines respectively correspond to two straight lines SL 1 and SL 2 on the pre-difference image. When the corneal sphere GN is approximated to a sphere, these two straight lines SL 1 and SL 2 become straight lines passing through the center of the corneal sphere GN, and it is understood that the intersection of both straight lines SL 1 and SL 2 becomes the center of the corneal sphere. . Center of the cornea sphere GC in the difference image before is obtained by projecting the cornea ball centered on the image plane, coincides with the position GR 0 of corneal reflection by the light source 13 of the camera 10. Furthermore, it is understood that the straight lines SL 1 and SL 2 respectively pass through the positions GR 1 and GR 2 of the corneal reflection by the auxiliary light source 40 on the pre-difference image.

上記の性質を使用して、算出部23は、求めた2つの平面の式を利用して、差分前画像中の2本の直線SL,SLの位置を求めて、それらの2本の直線SL,SLの交点を求めることにより、差分前画像中の光源13よる角膜反射の位置GRを推定する。すなわち、図7において、仮想視点平面X’−Y’の法線のうち原点Oを通る法線は角膜球中心Cを通る。従って、角膜球が移動すると仮想視点平面X’−Y’も原点Oを中心に向きが変わることになる。算出部23は、補助光源40の3次元座標L,Lのそれぞれと角膜球中心Cとを通る2つの直線と、仮想視点平面X’−Y’との交点を計算し、それらの交点の3次元座標L’,L’とする。さらに、算出部23は、求めた交点の3次元座標L’,L’を仮想視点平面X’−Y’上の座標に変換し、仮想視点平面X’−Y’上におけるX’軸に対する2つの直線(交線)OL’,OL’の傾き角ε,εを計算する。 Using the above properties, the calculation unit 23 obtains the positions of the two straight lines SL 1 and SL 2 in the pre-difference image using the obtained two plane equations, and calculates those two straight lines SL 1 and SL 2 . By calculating the intersection of the straight lines SL 1 and SL 2 , the position GR 0 of the corneal reflection by the light source 13 in the pre-difference image is estimated. That is, in FIG. 7, among the normals of the virtual viewpoint plane X′-Y ′, the normal passing through the origin O passes through the corneal sphere center C. Therefore, when the corneal sphere moves, the direction of the virtual viewpoint plane X′-Y ′ also changes around the origin O. The calculation unit 23 calculates an intersection point between two straight lines passing through each of the three-dimensional coordinates L 1 and L 2 of the auxiliary light source 40 and the corneal sphere center C, and the virtual viewpoint plane X′-Y ′. Are three-dimensional coordinates L 1 ′, L 2 ′. Further, the calculation unit 23 converts the obtained three-dimensional coordinates L 1 ′, L 2 ′ of the intersection into coordinates on the virtual viewpoint plane X′-Y ′, and converts the X ′ axis on the virtual viewpoint plane X′-Y ′. The inclination angles ε 1 and ε 2 of two straight lines (intersection lines) OL 1 ′ and OL 2 ′ with respect to are calculated.

ここで、カメラ10はカメラ較正が行われているので、カメラ10の位置及び方向(外部カメラ較正値)と、焦点距離、画像中心座標等の内部カメラ較正値とが予め既知となっている。従って、算出部23は、カメラ較正値を用いて世界座標系からカメラ座標系への変換を行った後にさらに画像座標系への変換を行うことで、世界座標系におけるX’軸の位置を、画像座標系における水平軸ALの位置(図8)に変換する。続いて、算出部23は、差分前画像上において角膜反射の位置GRを通り水平軸ALに対して傾き角εの直線の式を求め、同様にして、差分前画像上において角膜反射の位置GRを通り水平軸ALに対して傾き角εの直線の式を求める。その後、算出部23は、求めた2つの直線の交点を求めることで、その交点を、角膜球中心の位置とするとともに光源13による角膜反射の位置GRと推定する。 Here, since the camera 10 has been calibrated, the position and direction (external camera calibration value) of the camera 10 and internal camera calibration values such as focal length and image center coordinates are known in advance. Therefore, the calculation unit 23 performs the conversion from the world coordinate system to the camera coordinate system using the camera calibration value, and further performs the conversion to the image coordinate system, thereby calculating the position of the X ′ axis in the world coordinate system. It is converted to the position of the horizontal axis AL in the image coordinate system (FIG. 8). Subsequently, the calculation unit 23 obtains a straight line equation inclination angle epsilon 1 position GR 1 cornea reflective to as the horizontal axis AL on the difference previous image, in the same manner, a corneal reflection on the difference image before determining the equation of a straight line inclination angle epsilon 2 position GR 2 relative as horizontal axis AL. Thereafter, the calculation unit 23, by obtaining the two intersection points of the straight line obtained, to estimate the intersection, the position GR 1 of corneal reflection by the light source 13 with the position of the cornea sphere center.

さらに、算出部23は、推定した明瞳孔画像及び暗瞳孔画像上での光源13による角膜反射の位置GRを利用して、上述した視線方向の検出方法を用いて視線ベクトルPTを算出する。この視線ベクトルPTは角膜球中心Cと瞳孔中心Pとを通るベクトルとなる。上記角膜反射位置の推定処理では、瞳孔中心の3次元位置Pを角膜球中心の3次元位置Cに近似して計算していたが、実際はカメラ10から見た時は瞳孔中心の位置Pと角膜球中心の位置Cとは角度的にずれて観察される。このずれが傾き角ε,εに誤差を生じさせる。そこで、算出部23は、視線ベクトルPTを計算した後に、次のような処理を行って角膜反射位置の推定処理を再度繰り返してもよい。 Furthermore, the calculation unit 23 uses the position GR 1 of corneal reflection by the light source 13 on the estimated bright pupil image and a dark pupil image, and calculates the eye vector PT by using the detection method of the above-described line-of-sight direction. This line-of-sight vector PT is a vector passing through the center C of the corneal sphere and the center P of the pupil. In the estimation processing of the corneal reflection position, the three-dimensional position P of the center of the pupil is calculated by approximating the three-dimensional position C of the center of the cornea sphere. It is observed that the angle is deviated from the position C of the center of the sphere. This shift causes an error in the tilt angles ε 1 and ε 2 . Therefore, after calculating the line-of-sight vector PT, the calculation unit 23 may perform the following processing to repeat the corneal reflection position estimation processing again.

すなわち、算出部23は、求めた視線ベクトルPTを、瞳孔中心と角膜球中心を通る眼球の光軸の方向ベクトルvとして用い、下記式(5);
x=p+tv …(5)
によって眼球の光軸上の点xを表現する。上記式(5)中、ベクトルpは瞳孔中心の3次元位置を表す位置ベクトルを表し、tは正値又は負値を有するスカラー量である未定定数を表す。そして、算出部23は、対象者Aがカメラ10の方向を向いたときに瞳孔中心と角膜球中心の間の距離(相対距離)を計測することができるので、その距離を基にスカラー量tを決定し、そのスカラー量tを上記式(5)に適用することで、真の角膜球中心の位置Cを算出する。上記相対距離の計測方法は、「遠隔注視点検出装置における真の瞳孔-角膜反射ペアーの決定法とその有効性,第20回画像センシングシンポジウム(SSII2014),IS2-33,8 pages(2014年6月)」に記載の方法が用いられる。最後に、算出部23は、算出した真の角膜球中心の位置Cを用いて、角膜反射位置の推定処理、及び視線方向の検出処理を繰り返すことにより、視線ベクトルを再度算出する。ここで、瞳孔中心の位置ベクトルpを利用して求めた光軸の方向ベクトルvは多少誤差を持つが、tが正確であるので点xの位置に大きく影響しない。そのため、新たに求まった真の角膜球中心の位置を基に計算された傾き角ε,εを利用して求められた視線方向は、格段に正確な値になり、瞳孔中心の位置Pをそのまま用いて計算された値に比較してより正確な値となる。
That is, the calculation unit 23 uses the obtained line-of-sight vector PT as the direction vector v of the optical axis of the eyeball passing through the center of the pupil and the center of the cornea sphere, and the following equation (5):
x = p + tv (5)
Represents a point x on the optical axis of the eyeball. In the above equation (5), the vector p represents a position vector representing the three-dimensional position of the pupil center, and t represents an undetermined constant that is a scalar having a positive or negative value. Then, since the calculation unit 23 can measure the distance (relative distance) between the center of the pupil and the center of the corneal sphere when the subject A faces the camera 10, the scalar amount t is calculated based on the distance. Is determined and the scalar amount t is applied to the above equation (5) to calculate the true position C of the corneal sphere center. The method of measuring the relative distance is described in "Determination of True Pupil-Cornea Reflection Pair in Remote Gaze Point Detector and Its Effectiveness, 20th Image Sensing Symposium (SSII2014), IS2-33, 8 pages (June 2014) Month) ”is used. Finally, the calculating unit 23 calculates the line-of-sight vector again by repeating the process of estimating the corneal reflection position and the process of detecting the line-of-sight direction using the calculated position C of the true corneal sphere center. Here, the direction vector v of the optical axis obtained using the position vector p of the center of the pupil has some errors, but does not significantly affect the position of the point x because t is accurate. Therefore, the line-of-sight direction calculated using the inclination angles ε 1 and ε 2 calculated based on the position of the newly obtained true corneal sphere center becomes a much more accurate value, and the pupil center position P Will be more accurate compared to the value calculated using as is.

(補助光源の配置の実施例)
次に、視線検出装置1における補助光源40の配置の実施例について説明する。図9は、対象者A側から見た補助光源40の配置状態を示す図である。同図に示すように、補助光源40は、4つの補助光源40a,40b,40c,40dによって構成され、これらの補助光源40a,40b,40c,40dは、2つのカメラ10の光源13の周囲に配置されている。具体的には、2つの光源13の中心から補助光源40a,40b,40c,40dまでの距離が不均一になるように配置されている。より詳細には、補助光源40aは、補助光源40bよりも水平方向に光源13側に寄って配置され、補助光源40cよりも垂直方向に光源13側に寄って配置されている。また、補助光源40dは、補助光源40bよりも垂直方向に下側に配置され、補助光源40cよりも水平方向に光源13から離れるように配置されている。このような配置により、算出部23による差分前画像中の角膜反射がどの補助光源40によるものかの判定が容易となる。すなわち、差分前画像中で検出された2つの角膜反射において2つの角膜反射を結ぶ線が水平線に対して反時計回りに傾いている場合にはその2つの角膜反射が補助光源40a,40cによるものと判定可能となり、2つの角膜反射を結ぶ線が水平線に対して時計回りに傾いている場合にはその2つの角膜反射が補助光源40b,40dによるものと判定可能となる。さらに、差分前画像中で検出された2つの角膜反射において2つの角膜反射を結ぶ線が垂直線に対して時計回りに傾いている場合にはその2つの角膜反射が補助光源40a,40bによるものと判定可能となり、2つの角膜反射を結ぶ線が垂直線に対して反時計回りに傾いている場合にはその2つの角膜反射が補助光源40c,40dによるものと判定可能となる。また、このように補助光源40を配置することにより、検出可能な対象者Aの視線範囲を上下左右に広くすることができる。ただし、補助光源40は少なくとも3つで構成されていればよく、4つの補助光源40a,40b,40c,40dのうちの1つは省略されていてもよい。
(Example of arrangement of auxiliary light source)
Next, an embodiment of the arrangement of the auxiliary light source 40 in the visual line detection device 1 will be described. FIG. 9 is a diagram illustrating an arrangement state of the auxiliary light source 40 viewed from the subject A side. As shown in the figure, the auxiliary light source 40 is composed of four auxiliary light sources 40a, 40b, 40c, 40d, and these auxiliary light sources 40a, 40b, 40c, 40d are arranged around the light source 13 of the two cameras 10. Are located. Specifically, they are arranged such that the distances from the centers of the two light sources 13 to the auxiliary light sources 40a, 40b, 40c, 40d are not uniform. More specifically, the auxiliary light source 40a is disposed closer to the light source 13 in the horizontal direction than the auxiliary light source 40b, and is disposed closer to the light source 13 in the vertical direction than the auxiliary light source 40c. In addition, the auxiliary light source 40d is disposed below the auxiliary light source 40b in the vertical direction, and is disposed further away from the light source 13 in the horizontal direction than the auxiliary light source 40c. With such an arrangement, it is easy for the calculation unit 23 to determine which auxiliary light source 40 causes the corneal reflection in the pre-difference image. That is, when the line connecting the two corneal reflections in the two corneal reflections detected in the pre-difference image is inclined counterclockwise with respect to the horizontal line, the two corneal reflections are caused by the auxiliary light sources 40a and 40c. When the line connecting the two corneal reflections is inclined clockwise with respect to the horizontal line, it is possible to determine that the two corneal reflections are caused by the auxiliary light sources 40b and 40d. Furthermore, when the line connecting the two corneal reflections in the two corneal reflections detected in the pre-difference image is inclined clockwise with respect to the vertical line, the two corneal reflections are caused by the auxiliary light sources 40a and 40b. When the line connecting the two corneal reflections is tilted counterclockwise with respect to the vertical line, it is possible to determine that the two corneal reflections are due to the auxiliary light sources 40c and 40d. Further, by arranging the auxiliary light source 40 in this manner, the range of the line of sight of the target person A that can be detected can be widened in the vertical and horizontal directions. However, the auxiliary light sources 40 need only be composed of at least three, and one of the four auxiliary light sources 40a, 40b, 40c, and 40d may be omitted.

なお、視線検出装置1における光源13に対する補助光源40の位置は、光源13を中心にした複数の補助光源40の位置の角度間隔が直角に近いことが好ましい。角度間隔が極端に小さかったり、角度間隔が極端に大きかったりすると、算出部23による角膜反射位置の推定処理において、算出される2つの直線SL,SLの間の傾きε−εの絶対値が、極端に小さくなったり大きくなったりすることとなる。その結果、推定される角膜反射の位置の1次元方向の誤差が大きくなってしまう(図10(a),10(b))。これに対して、本実施形態によれば、補助光源40の位置の角度間隔が直角に近いので、算出される2つの直線SL,SLの間の傾きε−εの絶対値が、直角に近い値となり、推定される角膜反射の位置の誤差を2次元的に小さくすることができる(図10(c))。また、視線検出装置1の算出部23は、角膜反射位置の推定処理において、差分前画像において検出された2以上の角膜反射から2つの角膜反射を抽出する際に、その2つの角膜反射の位置から算出される傾きε−εの絶対値が直角に近くなるように2つの角膜反射を抽出することも好ましい。このようにしても、推定される角膜反射の位置の誤差を2次元的に小さくすることができる。 In addition, as for the position of the auxiliary light source 40 with respect to the light source 13 in the visual line detection device 1, it is preferable that the angular interval between the positions of the plurality of auxiliary light sources 40 around the light source 13 is close to a right angle. If the angle interval is extremely small or the angle interval is extremely large, in the process of estimating the corneal reflection position by the calculation unit 23, the slope ε 2 −ε 1 between the two calculated straight lines SL 1 and SL 2 is calculated. The absolute value becomes extremely small or large. As a result, the error of the estimated position of the corneal reflection in the one-dimensional direction increases (FIGS. 10A and 10B). In contrast, according to the present embodiment, since the angular interval between the positions of the auxiliary light sources 40 is close to a right angle, the absolute value of the calculated slope ε 2 −ε 1 between the two straight lines SL 1 and SL 2 is , And a value close to a right angle, and the error of the estimated position of the corneal reflection can be reduced two-dimensionally (FIG. 10C). Further, in the estimation process of the corneal reflection position, when calculating two corneal reflections from two or more corneal reflections detected in the pre-difference image, the calculation unit 23 of the gaze detecting device 1 calculates the positions of the two corneal reflections. It is also preferable to extract the two corneal reflections so that the absolute value of the slope ε 2 −ε 1 calculated from is close to a right angle. Even in this case, the error of the estimated position of the corneal reflection can be reduced two-dimensionally.

以上説明した視線検出装置1、及びそれを用いた視線検出方法によれば、カメラ10によってカメラ10に取り付けられた光源13の角膜反射が観測できない場合であっても、カメラ10の周囲に設けられた補助光源40によって生じる角膜反射の位置を基に、カメラ10に近い光源13による角膜反射の位置が推定されて視線方向が検出されるので、対象者Aの視線方向を広い範囲で検出しながら、その視線方向の検出精度を保つことができる。すなわち、視線検出に用いる角膜反射を生じさせる光源の位置とカメラ10の位置とが対象者Aから見て角度的に大きくずれている場合には、ベクトルrから角度θを求める式の誤差が大きくなってしまう。その理由は、カメラ10に対して光源の位置をずらすと角膜反射の位置もずれるが、そのずれ量が角膜球の曲率半径に依存するため、曲率半径が明らかにされなければ式の精度が得られないためである。その上、角膜球は角膜の周辺部(白目に近い部分)では球からずれた形状を有するため、角度θの精度が悪化する。これに対して、本実施形態では、視線検出に用いる角膜反射を生じさせる光源の位置とカメラ10の位置とほぼ一致しているため、角度θを精度よく求めることができる。また、上述した角膜反射位置の推定処理を採用することで、光源13による角膜反射の位置を2つの直線の交点を求めて算出することにより、光源13による角膜反射の位置を幾何学的に単純かつ正しく推定できる。つまり、複数の角膜反射間の距離を利用して角膜反射の位置を推定する手法に比較すると、2つの直線の交点を求める手法のほうが、推定の精度が安定しやすい。さらに、視線検出装置1は2台のカメラ10のみを有しており、光源を増やすだけでカメラの台数は増やす必要が無いので、簡易な構成で高精度の視線方向の検出が実現できる。   According to the eye-gaze detecting device 1 and the eye-gaze detecting method using the same as described above, even if the corneal reflection of the light source 13 attached to the camera 10 cannot be observed by the camera 10, the camera is provided around the camera 10. Based on the position of the corneal reflection generated by the auxiliary light source 40, the position of the corneal reflection by the light source 13 close to the camera 10 is estimated and the gaze direction is detected, so that the gaze direction of the subject A is detected in a wide range. , The detection accuracy of the line-of-sight direction can be maintained. In other words, when the position of the light source that causes corneal reflection used for gaze detection and the position of the camera 10 are significantly different in angle as viewed from the subject A, the error in the equation for obtaining the angle θ from the vector r is large. turn into. The reason is that if the position of the light source is shifted with respect to the camera 10, the position of the corneal reflection also shifts. However, since the amount of the shift depends on the radius of curvature of the corneal sphere, the accuracy of the equation can be obtained unless the radius of curvature is clarified. This is because it cannot be done. In addition, since the corneal sphere has a shape deviated from the sphere at a peripheral portion of the cornea (a portion near the white eye), the accuracy of the angle θ is deteriorated. On the other hand, in the present embodiment, since the position of the light source that causes corneal reflection used for gaze detection substantially matches the position of the camera 10, the angle θ can be obtained with high accuracy. In addition, by employing the above-described estimation process of the corneal reflection position, the position of the corneal reflection by the light source 13 is calculated by calculating the intersection of two straight lines, so that the position of the corneal reflection by the light source 13 is geometrically simple. And it can be correctly estimated. That is, as compared with a method of estimating the position of the corneal reflection using the distance between a plurality of corneal reflections, the accuracy of the estimation is more stable in the method of finding the intersection of two straight lines. Furthermore, since the line-of-sight detection device 1 has only two cameras 10, and it is not necessary to increase the number of cameras merely by increasing the number of light sources, highly accurate detection of the line-of-sight direction can be realized with a simple configuration.

また、視線検出装置1の算出部23は、いったん瞳孔中心の3次元位置を用いて求めた対象者Aの視線方向を基に、真の角膜球中心の3次元位置を算出し、それを用いて光源13による角膜反射の位置を推定した後に、推定した角膜反射の位置を用いて対象者Aの視線方向を再度算出する。これにより、光源13による角膜反射の位置の推定の精度を確保することができ、その結果、視線方向の検出精度をより一層安定化することができる。   The calculation unit 23 of the gaze detection device 1 calculates the true three-dimensional position of the center of the corneal sphere based on the gaze direction of the subject A once obtained using the three-dimensional position of the center of the pupil, and uses it. After estimating the position of the corneal reflection by the light source 13, the gaze direction of the subject A is calculated again using the estimated position of the corneal reflection. Thereby, the accuracy of estimating the position of the corneal reflection by the light source 13 can be secured, and as a result, the detection accuracy of the line-of-sight direction can be further stabilized.

さらに、視線検出装置1においては補助光源40が光源13の周囲に配置されているので、視線方向が検出できる範囲をカメラ10の上下左右の周囲に広げることができる。   Furthermore, since the auxiliary light source 40 is disposed around the light source 13 in the visual line detection device 1, the range in which the visual line direction can be detected can be extended to the upper, lower, left, and right sides of the camera 10.

ここで、対象者Aの視線方向の変化に応じた本実施形態の効果を、具体的に説明する。   Here, the effect of the present embodiment according to the change in the line of sight of the subject A will be specifically described.

図11は人間の眼球の構造を簡略化して示している。眼球EBの前面は白色の結膜に覆われ、その前面の中心部から透明な角膜CNが突出している。角膜CNがほぼ球状とみなされるために、角膜球とも言われる。眼球EBはその中心CEBを中心にして眼窩の中で回転する。この眼球EBにはその対称性から光学軸(光軸)VAが存在する。光学軸と視線はおよそ一致する。瞳孔は光量を調整するための虹彩IRによって遮られていない光が透過する部分であり、その瞳孔の中心が瞳孔中心Pである。 FIG. 11 shows a simplified structure of a human eyeball. The anterior surface of the eyeball EB is covered with a white conjunctiva, and a transparent cornea CN protrudes from the center of the anterior surface. Since the cornea CN is considered to be substantially spherical, it is also called a corneal sphere. The eyeball EB rotates in the orbit about its center CEB . The eyeball EB has an optical axis (optical axis) VA due to its symmetry. The optical axis and the line of sight approximately coincide. The pupil is a portion through which light not blocked by the iris IR for adjusting the amount of light passes, and the center of the pupil is the pupil center P.

図12には、本実施形態のカメラ10に取り付けられた光源13によって生じる角膜反射の検出状態を示しており、図12(a)〜(c)のそれぞれにおいて、下方に対象者Aの眼球とカメラ10及び光源13との位置関係を示しており、上方にはカメラ10によって取得された差分前画像のイメージを示している。また、図13には、本実施形態の補助光源40によって生じる角膜反射の検出状態を示しており、図13(a)〜(c)のそれぞれにおいて、下方に対象者Aの眼球とカメラ10及び補助光源40との位置関係を示しており、上方にはカメラ10によって取得された差分前画像のイメージを示している。   FIG. 12 shows a detection state of corneal reflection generated by the light source 13 attached to the camera 10 of the present embodiment. In each of FIGS. The positional relationship between the camera 10 and the light source 13 is shown, and the image of the pre-difference image acquired by the camera 10 is shown above. FIG. 13 illustrates a detection state of corneal reflection generated by the auxiliary light source 40 of the present embodiment. In each of FIGS. 13A to 13C, the eyeball of the subject A, the camera 10, and The positional relationship with the auxiliary light source 40 is shown, and the image of the pre-difference image acquired by the camera 10 is shown above.

図12(a)に示すように、対象者Aがカメラ10及び光源13の方向を見ている場合には、眼球EBの光軸VAがちょうどカメラ10及び光源13の方向に向き、このとき得られる画像においては、角膜反射GRの位置は瞳孔像GPの中心の位置に一致する。これに対して、図12(b)に示すように、対象者Aがカメラ10の右側に外れた方向を見ている場合には、画像上での瞳孔像GPの中心が角膜反射GRよりも右側にずれるとともに、瞳孔像GPの形状が楕円となる。図12(c)に示すように、対象者Aがカメラ10の右側にさらに大きく外れた方向を見ている場合には、角膜反射像が検出できなくなり角膜反射像よりも大きめの白目反射GR10が現れる。この白目反射GR10と瞳孔中心との位置関係から光軸を検出する方法では、検出精度が確保できない。このように、カメラ10と光源13とが一体化された位置関係のとき、カメラ10から角度的に離れた方向を対象者Aが見ていると、角膜反射の代わりに白目反射しか現れなかったり、角膜反射も白目反射も現れないことが多々ある。また、カメラ10から見て上まつ毛が瞳孔や角膜反射に被さってしまうことを避けるために、ディスプレイ装置30の下方にカメラ10が配置されている。その結果、ディスプレイ装置30の画面サイズを大きくした場合に、対象者Aがディスプレイ装置30の上部を見たときカメラ10から角度的に大きく離れた位置を見ることになるので、注視点が検出できなくなったり、高精度な注視点検出ができなくなることがある。 As shown in FIG. 12A, when the subject A is looking in the directions of the camera 10 and the light source 13, the optical axis VA of the eyeball EB is exactly in the direction of the camera 10 and the light source 13. in the image that is, the position of the corneal reflection GR 0 corresponds to the position of the center of the pupil image GP. On the other hand, as shown in FIG. 12B, when the subject A looks in a direction deviating to the right of the camera 10, the center of the pupil image GP on the image is determined by the corneal reflection GR 0 . Also shifts to the right, and the shape of the pupil image GP becomes an ellipse. As shown in FIG. 12C, when the subject A looks farther to the right of the camera 10, the corneal reflection image cannot be detected, and the white-eye reflection GR 10 larger than the corneal reflection image. Appears. In the method of detecting the optical axis from the positional relationship between the white of the eye reflection GR 10 and the pupil center, the detection accuracy can not be secured. As described above, when the camera 10 and the light source 13 are in an integrated positional relationship, when the subject A looks at a direction angularly distant from the camera 10, only the white-eye reflection appears instead of the corneal reflection. Often, neither corneal reflection nor white-eye reflection appears. Further, the camera 10 is disposed below the display device 30 to prevent the upper lashes from being covered by the pupil and the corneal reflex when viewed from the camera 10. As a result, when the screen size of the display device 30 is increased, when the subject A looks at the top of the display device 30, the subject A sees a position that is greatly separated from the camera 10, so that the gazing point can be detected. In some cases, high-precision detection of the gazing point may not be possible.

図13(a)に示すように、カメラ10の位置からずらして設置された補助光源40が点灯しているときには、対象者Aがカメラ10の方向を見ている場合に得られる画像においては、補助光源40による角膜反射GRが観測され、その位置は瞳孔像GPの中心の位置からわずかにずれて検出される。図13(b)に示すように、対象者Aがカメラ10の右側に大きく外れた方向を見ている場合でも、画像上での白目反射は観測されず、角膜反射GRが観測される。本実施形態では、カメラ10からずらして配置された補助光源40によって生じる角膜反射像を利用して光軸を決定することにより、視線検出が可能な角度範囲を拡張することができる。ただし、図13(c)に示すように、対象者Aがカメラ10の左側に外れる方向を見たときには、画像上で白目反射GR11が観測されてしまっている。本実施形態では、カメラ10を上下左右に取り囲む位置に4つの補助光源40が設けられているので視線検出が可能な角度範囲を上下左右に拡張することができる。さらに、本実施形態によれば、眼鏡をかけた対象者Aがディスプレイ装置30の画面の上部方向を見た時に眼鏡反射が瞳孔や角膜反射に重なることで視線検出ができなくなることを防止できる。 As shown in FIG. 13A, when the auxiliary light source 40 installed at a position shifted from the position of the camera 10 is turned on, in an image obtained when the subject A looks in the direction of the camera 10, corneal reflection GR 1 by the auxiliary light source 40 is observed, its position is detected slightly deviated from the position of the center of the pupil image GP. As shown in FIG. 13 (b), even when the subject A is watching large deviated direction on the right side of the camera 10, pewter reflections on the image was not observed, the corneal reflection GR 1 is observed. In the present embodiment, by determining the optical axis by using the corneal reflection image generated by the auxiliary light source 40 shifted from the camera 10, the angle range in which the line of sight can be detected can be extended. However, as shown in FIG. 13 (c), the subject A is when viewed in a direction deviating to the left of the camera 10, pewter reflection GR 11 will have been observed on the image. In the present embodiment, since the four auxiliary light sources 40 are provided at positions surrounding the camera 10 in the vertical and horizontal directions, the angle range in which the line of sight can be detected can be extended in the vertical and horizontal directions. Furthermore, according to the present embodiment, it is possible to prevent the eyesight detection from being disabled because the spectacle reflection overlaps the pupil or the corneal reflection when the subject A wearing glasses looks in the upper direction of the screen of the display device 30.

本実施形態にかかる視線検出装置1による視線ベクトルの検出例について述べる。図14において、(a)は、対象者Aが上方向を見た時のカメラ画像とその解析画像を、(b)は、対象者Aが左方向を見た時のカメラ画像とその解析画像を、(c)は、対象者Aが右方向を見た時のカメラ画像とその解析画像を、それぞれ示している。図14(a)に示すように、対象者Aが上方向を見た際には、2つの補助光源40a,40cによる角膜反射が瞳孔の左右端に映っており、カメラ10に取り付けた光源13の角膜反射が映っていないことがわかる。解析画像における小さな正方形の中心が推定された光源13による角膜反射の位置を示しており、光源13による角膜反射の位置が正しく推定できている。また、左下の画像中の矢印は、検出された視線方向を示している。本来、白目反射が映っていてもよいのであるが、下まぶたに隠れているため映っていない。図14(b)に示すように、対象者Aが左方向を見た際には、補助光源40a,40bによる2つの角膜反射が映っている。カメラ10の光源13による角膜反射、及び残りの補助光源40による角膜反射は写っていないが、白目反射が映っている。図14(c)に示すように、対象者Aが右方向を見た際には、補助光源40c,40dによる2つの角膜反射が映っているが、他の光源による角膜反射、及び残りの補助光源40による角膜反射は写っていない。図14(b),(c)の両方の場合とも、光源13による角膜反射の位置が表示されており、視線も検出されている。さらに、どの画像においても、2個の角膜反射が映っていて、それらの間隔が離れているために、それぞれの角膜反射の中心座標を容易かつ正確に検出できる。このことは、互いの補助光源40の位置をさらに近づけることができることを意味している。これらの結果から、カメラ10に取り付けた光源13による角膜反射が検出できないような大きな視線角度θにおいても、カメラ10から離れた補助光源40を使用することで視線が検出できることがわかる。   An example of gaze vector detection by the gaze detection device 1 according to the present embodiment will be described. In FIG. 14, (a) shows a camera image and its analysis image when the subject A looks upward, and (b) shows a camera image and its analysis image when the subject A looks left. (C) shows a camera image when the subject A looks rightward and an analysis image thereof. As shown in FIG. 14A, when the subject A looks upward, the corneal reflections of the two auxiliary light sources 40a and 40c are reflected on the left and right ends of the pupil, and the light source 13 attached to the camera 10 It can be seen that the corneal reflection is not reflected. The center of the small square in the analysis image indicates the estimated position of corneal reflection by the light source 13, and the position of corneal reflection by the light source 13 can be correctly estimated. The arrow in the lower left image indicates the detected gaze direction. Originally, the white eye reflection may be reflected, but it is not reflected because it is hidden by the lower eyelid. As shown in FIG. 14B, when the subject A looks in the left direction, two corneal reflections by the auxiliary light sources 40a and 40b are reflected. The corneal reflection by the light source 13 of the camera 10 and the corneal reflection by the remaining auxiliary light source 40 are not shown, but the white-eye reflection is shown. As shown in FIG. 14C, when the subject A looks right, two corneal reflections by the auxiliary light sources 40c and 40d are shown, but corneal reflections by other light sources and the remaining auxiliary light are shown. The corneal reflection by the light source 40 is not shown. In both cases of FIGS. 14B and 14C, the position of the corneal reflection by the light source 13 is displayed, and the line of sight is detected. Further, in any image, two corneal reflections are reflected and the distance between them is large, so that the center coordinates of each corneal reflection can be easily and accurately detected. This means that the positions of the auxiliary light sources 40 can be closer to each other. From these results, it can be seen that the gaze can be detected by using the auxiliary light source 40 remote from the camera 10 even at a large gaze angle θ at which corneal reflection by the light source 13 attached to the camera 10 cannot be detected.

本発明は、上述した実施形態に限定されるものではない。上記実施形態の補助光源40の配置は他の配置に変更されてもよい。   The present invention is not limited to the embodiments described above. The arrangement of the auxiliary light source 40 in the above embodiment may be changed to another arrangement.

例えば、複数の補助光源40が2つのカメラ10の近傍を中心として等角度間隔で2つのカメラ10の周囲に配置されてもよい。図15(a)に示す変形例においては、8個の補助光源40〜40が、2つのカメラ10の間の中点CCを中心とした円上に約45度の等角度間隔で放射状に配置されている。8個の補助光源40〜40のうち、約90度の角度間隔で配置された4個の補助光源40,40,40,40とで一方の光源群が構成され、約90度の角度間隔で配置された4個の補助光源40,40,40,40とで他方の光源群が構成される。これらの2つの光源群はそれぞれ異なるタイミングで点灯可能とされる。これらの補助光源40〜40は、暗瞳孔画像を生じさせるための光源としても機能する。従って、カメラ10に取り付けられる光源13は明瞳孔画像を生じさせることができればよいため、発光素子13a(図2)のみを有する単波長の1重リング光源であってもよい。 For example, a plurality of auxiliary light sources 40 may be arranged around the two cameras 10 at equal angular intervals around the vicinity of the two cameras 10. Figure In the modification shown in 15 (a), radially eight auxiliary light source 40 1 to 40 8, equiangular intervals of about 45 degrees on a circle the center point CC centered between the two cameras 10 Are located in Of the eight auxiliary light source 40 1 to 40 8, about 90 degrees of the four auxiliary light source arranged at angular intervals 40 1, 40 3, 40 5, 40 7 and in one of the light source group is constructed, approximately 90 degrees of the four auxiliary light source arranged at angular intervals 40 2, 40 4, 40 6, the other light source group is composed of 40 8. These two light source groups can be turned on at different timings. These auxiliary light source 40 1 to 40 8 also functions as a light source for generating a dark pupil image. Therefore, since the light source 13 attached to the camera 10 only needs to be able to generate a bright pupil image, it may be a single wavelength single ring light source having only the light emitting element 13a (FIG. 2).

このような変形例においては、対象者Aが補助光源40の方向を見た時、カメラ10と瞳孔中心とを結ぶ直線と視線ベクトルとのなす角が大きい場合には、カメラ10の画像には補助光源40,40,40による角膜反射のみが映る。しかし、このとき、補助光源40は眼鏡反射を生じやすく、その眼鏡反射が瞳孔や角膜反射に重なる場合がある。このような場合は、補助光源40,40のみで視線検出が可能なのであれば、補助光源40は補助光源40,40と同時に点灯させるべきではない。また、別の状況として、対象者Aが補助光源40の方向を見た時には、補助光源40,40,40による角膜反射のみが映る。このような場合は、補助光源40による眼鏡反射が障害になる一方で、補助光源40,40による角膜反射によって視線検出が可能となる。さらに、別の状況として、対象者Aが補助光源40と補助光源40との間のおよそ中間の方向を見たとすると、カメラ10の方向に対する視線ベクトルの角度の大きさにもよるが、一般には、補助光源40〜40による角膜反射のみが映る。この場合には、補助光源40,40と補助光源40,40とが別のタイミングで点灯していれば、補助光源40又は補助光源40による眼鏡反射が瞳孔や角膜反射の検出を妨害しても、補助光源40,40による2つの角膜反射、もしくは補助光源40,40による2つの角膜反射のいずれかを用いて視線検出が可能となる。 In such modification, when the subject A saw in the direction of the auxiliary light source 40 3, when the angle between the straight line and the line-of-sight vector connecting the camera 10 and the pupil center is large, the image of the camera 10 only the corneal reflection by the auxiliary light source 40 2, 40 3, 40 4 is reflected. However, this time, the auxiliary light source 40 3 prone to eyeglass reflection, there is a case where the eyeglasses reflection overlaps the pupil and corneal reflection. In such a case, if the auxiliary light source 40 2, 40 4 than capable gaze detected by only the auxiliary light source 40 3 auxiliary light source 40 2, 40 4 at the same time it should not be turned. As another situation, the subject A is when viewed in the direction of the auxiliary light source 40 2, the auxiliary light source 40 1, 40 2, 40 3 only by the corneal reflection reflected. In such cases, while the glasses reflection by the auxiliary light source 40 2 fails, it is possible to line-of-sight detected by the corneal reflection by the auxiliary light source 40 1, 40 3. Further, as another situation, when the subject A saw approximately direction intermediate between the auxiliary light source 40 2 and the auxiliary light source 40 3, depending on the size of the angle of the line of sight vector with respect to the direction of the camera 10, generally, only the corneal reflection by the auxiliary light source 40 1 to 40 4 is reflected. In this case, if the auxiliary light source 40 2, 40 4 and the auxiliary light source 40 1, 40 3 should be on at different times, eyeglass reflection by the auxiliary light source 40 2 or the auxiliary light source 40 3 pupil and the corneal reflection also interfere with the detection, it is possible to line-of-sight detection with auxiliary light source 40 2, two corneal reflection by 40 4, or one of the two corneal reflection by the auxiliary light source 40 1, 40 3.

また、図15(b)に示す変形例では、図15(a)に示す変形例に比較して、補助光源40〜40のうちの一部の光源群40,40,40,40について、中心CCからの距離が不均一となるように配置されている。このように配置することで、算出部23が画像中で角膜反射を検出した際に、その角膜反射がどの補助光源40によるものなのかの判定が容易となる。具体的には、図15(b)の配置においては、対象者Aが補助光源40の近くの方向を見ているときには、補助光源40,40による角膜反射を視線検出に利用し、対象者Aが補助光源40の近くの方向を見ているときには、補助光源40,40による角膜反射を視線検出に利用することになる。一般に、カメラの画像中の瞳孔中心位置と、画像中に現れる2個の角膜反射の位置との関係はほとんど変化しないので、何らかの判定情報が無ければ対象者Aが補助光源40の方向を見ているのか補助光源40の方向を見ているのかは判別できない。この変形例の配置によれば、補助光源40の配置の角度間隔は変えずに中心CCからの距離だけが変えられているので、補助光源40と補助光源40とを結ぶ線の傾きと補助光源40と補助光源40とを結ぶ線の傾きとが異なることになる。同様に、補助光源40と補助光源40とを結ぶ線の傾きと補助光源40と補助光源40とを結ぶ線の傾きとが異なることになる。従って、検出した2個の角膜反射を結ぶ角度を利用することで、どの補助光源40による角膜反射かを判定可能となる。 Further, in the modification shown in FIG. 15 (b), as compared to the modification shown in FIG. 15 (a), a part of the light source group 40 2 of the auxiliary light source 40 1 to 40 8, 40 4, 40 6 for 40 8, the distance from the center CC is arranged to be non-uniform. By arranging in this way, when the calculating unit 23 detects corneal reflection in an image, it becomes easy to determine which auxiliary light source 40 causes the corneal reflection. Specifically, in the arrangement of FIG. 15 (b), when the subject A is looking in the direction of nearby auxiliary light source 40 1, using the corneal reflection by the auxiliary light source 40 2, 40 8 to line-of-sight detection, when subject a is watching nearby direction of the auxiliary light source 40 5 would utilize a corneal reflection by the auxiliary light source 40 4, 40 6 to visual axis detection. See generally, a pupil center position in the camera image, the relation between the position of the two cornea reflection which appears in the image hardly changes, if there is any decision information subject A is the direction of the auxiliary light source 40 1 and whether or looking toward the direction of the auxiliary light source 40 5 and can not be determined. According to the arrangement of this modification, since only is changed distance from the center CC without changing the angular spacing of the arrangement of the auxiliary light source 40, the slope of the line connecting the auxiliary light source 40 2 and the auxiliary light source 40 8 and the slope of the line connecting the auxiliary light source 40 4 and the auxiliary light source 40 6 will be different. Similarly, the slope of the line connecting the auxiliary light source 40 2 and the auxiliary light sources 40 4 and the auxiliary light source 40 8 and the slope of the line connecting the auxiliary light source 40 6 will be different. Therefore, it is possible to determine which auxiliary light source 40 is the corneal reflection by using the angle connecting the two detected corneal reflections.

図16には、図15(a),(b)に示す構成を有する変形例において、点灯制御部21によって制御される光源の点灯タイミング、及び画像取得部22によって制御されるカメラ10の撮影タイミングを示している。図16において、(a)は、カメラ10による画像取得のタイミングを、(b)は、光源13の点灯タイミングを、(c)は、補助光源40のうちの一方の光源群の点灯タイミングを、(d)は、補助光源40のうちの他方の光源群の点灯タイミングを、それぞれ示している。本変形例においては、取得フレーム間隔が非常に短い(例えば、0.5μ秒)の高速度カメラをカメラ10として用いる。また、本変形例では、基本的に2台のカメラ10が使用されるが、説明の簡単化のため1台のカメラ10を対象にした発光制御と画像取得制御の方法について説明する。図16に示すように、連続した時間T〜Tの5つのタイミングにおいて、「暗瞳孔画像1」、「無照明画像1」、「明瞳孔画像」、「無照明画像2」、「暗瞳孔画像2」の順に5枚の画像が取得される。そして、算出部23は、特許第5145555号に記載された公知の手法を用いて、最初の3枚の画像を画像処理することによって、瞳孔中心と複数の角膜反射の中心座標を取得する。同様に、算出部23は、最後の3枚の画像を画像処理することによって、瞳孔中心と複数の角膜反射の中心座標を取得する。算出部23は、各3組の画像を用いて視線が検出できれば、それらの平均に関する情報を検出結果として出力し、眼鏡反射等の問題でどちらか一方の3枚の画像からしか視線が検出できない場合はその視線に関する情報を出力する。 FIG. 16 shows the lighting timing of the light source controlled by the lighting control unit 21 and the photographing timing of the camera 10 controlled by the image acquisition unit 22 in a modified example having the configuration shown in FIGS. Is shown. In FIG. 16, (a) shows the image acquisition timing by the camera 10, (b) shows the lighting timing of the light source 13, (c) shows the lighting timing of one of the auxiliary light sources 40, (D) shows the lighting timing of the other light source group of the auxiliary light sources 40, respectively. In this modification, a high-speed camera with a very short acquisition frame interval (for example, 0.5 μsec) is used as the camera 10. In this modification, two cameras 10 are basically used. However, for simplicity of description, a method of light emission control and image acquisition control for one camera 10 will be described. As shown in FIG. 16, at five consecutive times T 1 to T 5 , “dark pupil image 1”, “non-illuminated image 1”, “bright pupil image”, “non-illuminated image 2”, and “dark pupil image 2” Five images are acquired in the order of “pupil image 2”. Then, the calculation unit 23 performs image processing on the first three images using a known method described in Japanese Patent No. 5145555, thereby acquiring the center of the pupil and the center coordinates of a plurality of corneal reflections. Similarly, the calculation unit 23 obtains the center coordinates of the pupil center and a plurality of corneal reflections by performing image processing on the last three images. If the gaze can be detected using each of the three sets of images, the calculation unit 23 outputs information about the average thereof as a detection result, and can detect the gaze only from one of the three images due to a problem such as spectacle reflection. In this case, information about the line of sight is output.

図17には、図15(a),(b)に示す構成を有する変形例において、点灯制御部21によって制御される光源の点灯タイミング、及び画像取得部22によって制御されるカメラ10の撮影タイミングを示している。図17において、(a)は、一方のカメラ10による画像取得のタイミングを、(b)は、他方のカメラ10による画像取得のタイミングを、(c)は、一方のカメラ10に取り付けられた光源13の点灯タイミングを、(d)は、他方のカメラ10に取り付けられた光源13の点灯タイミングを、(e)は、補助光源40のうちの一方の光源群の点灯タイミングを、(f)は、補助光源40のうちの他方の光源群の点灯タイミングを、それぞれ示している。この場合は、2つのカメラ10を用いて画像を取得する例が示されている。図17に示す例では、一方のカメラ10では、連続した時間T〜Tの6つのタイミングのうちの1つのタイミングTでは、画像を取得しないか、取得しても算出部23で使用されないように制御される。一方のカメラ10は、タイミングT〜Tの間で、「暗瞳孔画像1」、「無照明画像」、「明瞳孔画像」、「無照明画像」、「暗瞳孔画像2」の順で画像を取得する。他方のカメラ10では、連続した時間T〜Tの6つのタイミングのうちの1つのタイミングTでは、画像を取得しないか、取得しても算出部23で使用されないように制御される。他方のカメラ10は、タイミングT〜Tの間で、「暗瞳孔画像1」、「無照明画像」、「明瞳孔画像」、「無照明画像」、「暗瞳孔画像2」の順で画像を取得する。 FIG. 17 shows, in a modification having the configuration shown in FIGS. 15A and 15B, the lighting timing of the light source controlled by the lighting control unit 21 and the shooting timing of the camera 10 controlled by the image acquisition unit 22. Is shown. In FIG. 17, (a) shows the timing of image acquisition by one camera 10, (b) shows the timing of image acquisition by the other camera 10, and (c) shows the light source attached to one camera 10. 13, (d) shows the lighting timing of the light source 13 attached to the other camera 10, (e) shows the lighting timing of one of the auxiliary light sources 40, and (f) shows the lighting timing. , The lighting timing of the other light source group of the auxiliary light sources 40 is shown. In this case, an example in which an image is obtained using two cameras 10 is shown. In the example shown in FIG. 17, the one camera 10, in one timing T 4 of the six timing of successive time T 1 through T 6, or not obtaining an image, used in calculating portion 23 also acquires It is controlled not to be performed. One of the cameras 10 in the order of “dark pupil image 1”, “non-illuminated image”, “bright pupil image”, “non-illuminated image”, and “dark pupil image 2” during timings T 1 to T 6. Get an image. In other camera 10, in one timing T 3 of the six timing of successive time T 1 through T 6, or not obtaining an image, it is controlled so as not to be used by the calculation unit 23 acquires. The other camera 10 in the order of “dark pupil image 1”, “non-illuminated image”, “bright pupil image”, “no-illuminated image”, and “dark pupil image 2” during timings T 1 to T 6. Get an image.

これまで述べてきた実施形態においては、角膜球中心とカメラ10とを結ぶ線を基準として、対象者Aの視線方向と頭部方向はほぼ同じ方向に変化することを前提としていた。しかしながら、車を運転中のドライバーの視線方向と頭部方向とは必ずしもそのような関係を持たない状況が容易に予測できる。また、ドライバーを対象とした視線検出以外も含んだ汎用性の高い視線検出を実現するためには、対象者Aの視線方向と頭部方向にはずれがあることを前提とする必要がある。また、対象者Aによっては瞳孔にまつ毛がかかりやすい場合が想定される。そのような場合、まつ毛の影響により、不規則に異なる補助光源40による角膜反射が検出できない場合がある。これらのことを考慮すると、上記実施形態及び変形例における互いに約90度の角度間隔で配置された補助光源40の組み合わせ(光源群)は、可能な限り多いことが好ましい。   In the embodiments described above, it is assumed that the line of sight of the subject A and the head direction change in substantially the same direction based on the line connecting the center of the cornea sphere and the camera 10. However, it is possible to easily predict a situation in which the driver's line of sight and head direction do not necessarily have such a relationship. In addition, in order to realize highly versatile gaze detection including other than gaze detection for the driver, it is necessary to assume that the gaze direction and the head direction of the subject A are shifted. Also, depending on the subject A, it is assumed that eyelashes are likely to be applied to the pupil. In such a case, the corneal reflection by the irregularly different auxiliary light source 40 may not be detected due to the influence of the eyelashes. In consideration of the above, it is preferable that the number of combinations (light source groups) of the auxiliary light sources 40 arranged at an angular interval of about 90 degrees from each other in the above-described embodiment and modified examples is as large as possible.

図18には、光源群を4組有する変形例における補助光源40の配置例を示している。同図に示す変形例は、互いに約90度の角度間隔で配置された4つの補助光源4011によって構成された第1の光源群と、互いに約90度の角度間隔で配置された4つの補助光源4012によって構成された第2の光源群と、互いに約90度の角度間隔で配置された4つの補助光源4013によって構成された第3の光源群と、互いに約90度の角度間隔で配置された4つの補助光源4014によって構成された第4の光源群とを含んでいる。 FIG. 18 shows an arrangement example of the auxiliary light source 40 in a modified example having four light source groups. Variation shown in the figure, a first light source group including a four auxiliary light sources 40 11 arranged at angular intervals of approximately 90 degrees from each other, four arranged at angular intervals of approximately 90 degrees from each other aid a second light source group that is configured by the light source 40 12, a third light source group constituted by four auxiliary light sources 40 13 arranged at angular intervals of approximately 90 degrees from each other, at an angle interval of approximately 90 degrees from each other and a fourth light source group constructed by the arrangement is four auxiliary light sources 40 14 was.

図19には、図18に示す構成を有する変形例において、点灯制御部21によって制御される光源の点灯タイミング、及び画像取得部22によって制御されるカメラの撮影タイミングを示している。図19において、(a)は、一方のカメラ10による画像取得のタイミングを、(b)は、他方のカメラ10による画像取得のタイミングを、(c)は、一方のカメラ10に取り付けられた光源13の点灯タイミングを、(d)は、他方のカメラ10に取り付けられた光源13の点灯タイミングを、(e)は、補助光源40のうちの第1の光源群の点灯タイミングを、(f)は、補助光源40のうちの第2の光源群の点灯タイミングを、(e)は、補助光源40のうちの第3の光源群の点灯タイミングを、(f)は、補助光源40のうちの第4の光源群の点灯タイミングを、それぞれ示している。このように、各カメラ10で1度明瞳孔画像を取得する間に第1〜第4の光源群を全て点灯させるのではなく、第1及び第2の光源群と、第3及び第4の光源群とを時間的に分けて点灯させてもよい。これにより、視線が検出する間隔が不均一にはなるが、角膜反射と瞳孔中心の検出の時間差が小さいまま維持されるので、対象者Aの頭部の動きによる検出誤差の低下の影響を受けにくい。   FIG. 19 shows the lighting timing of the light source controlled by the lighting control unit 21 and the photographing timing of the camera controlled by the image acquisition unit 22 in the modification having the configuration shown in FIG. In FIG. 19, (a) shows the timing of image acquisition by one camera 10, (b) shows the timing of image acquisition by the other camera 10, and (c) shows the light source attached to one camera 10. 13, (d) shows the lighting timing of the light source 13 attached to the other camera 10, (e) shows the lighting timing of the first light source group of the auxiliary light sources 40, (f). Is the lighting timing of the second light source group of the auxiliary light sources 40, (e) is the lighting timing of the third light source group of the auxiliary light sources 40, and (f) is the lighting timing of the auxiliary light source 40. The lighting timings of the fourth light source group are shown. Thus, instead of turning on all of the first to fourth light source groups while acquiring the bright pupil image once by each camera 10, the first and second light source groups and the third and fourth light source groups are not turned on. The light source group and the light source group may be turned on separately in time. As a result, the intervals at which the eyes are detected become non-uniform, but the time difference between the corneal reflection and the detection of the center of the pupil is kept small. Hateful.

上述した実施形態においては、対象者Aが眼鏡を装着していると、光源からの光が眼鏡のレンズの表面で反射し、カメラ画像中に眼鏡反射像が生じる場合がある。一般的にレンズの曲率半径は角膜に比較して大きいので、その結果、眼鏡反射は画像中において角膜反射に比べて大きく映る。また、角膜反射を確実に検出できるように光源の発光強度を上げると、眼鏡反射像は画像中において飽和しやすい。その結果、画像中で眼鏡反射が瞳孔や角膜反射に重なってしまい、それらの位置の検出が困難となる。このような問題を解決するためには、カメラ10と光源13の組み合わせを3組以上備えることも好ましい。このような構成を備えれば、最低1つのカメラ10の画像中で眼鏡反射が瞳孔や角膜反射に重なることを防ぐことができ、視線検出ができないという問題を回避することができる。   In the above-described embodiment, when the subject A wears spectacles, light from the light source is reflected on the surface of the spectacle lens, and a spectacle reflection image may be generated in the camera image. In general, the radius of curvature of the lens is larger than that of the cornea, and as a result, spectacle reflection appears larger in the image than that of the cornea. Further, if the light emission intensity of the light source is increased so that corneal reflection can be reliably detected, the spectacle reflection image is likely to be saturated in the image. As a result, the spectacle reflection overlaps the pupil and the corneal reflection in the image, making it difficult to detect their positions. In order to solve such a problem, it is preferable to provide three or more combinations of the camera 10 and the light source 13. With such a configuration, it is possible to prevent the spectacle reflection from overlapping the pupil and the corneal reflection in the image of at least one camera 10, and to avoid the problem that the line of sight cannot be detected.

また、上記実施形態では、算出部23が、瞳孔中心の3次元位置Pを角膜球中心の3次元位置Cに近似して、瞳孔中心の3次元位置Pを用いて視線ベクトルPTを算出した後に、視線ベクトルPTを用いて角膜反射位置の推定処理を再度繰り返していた。このような処理に代えて、算出部23は、2つのカメラ10によって取得された瞳孔画像を対象にして、瞳孔中心の3次元位置Pを用いて角膜反射位置の推定処理を実行して2つのカメラ10の画像上の光源13による角膜反射の位置を推定し、推定した2つの角膜反射の位置をステレオマッチングすることで、角膜球中心の3次元位置Cを算出してもよい。さらに、算出部23は、算出した角膜球中心の3次元位置Cを用いて角膜反射位置の推定処理を再度繰り返して視線ベクトルを算出してもよい。   In the above embodiment, the calculation unit 23 approximates the three-dimensional position P of the center of the pupil to the three-dimensional position C of the center of the corneal sphere, and calculates the line-of-sight vector PT using the three-dimensional position P of the center of the pupil. The estimation process of the corneal reflex position using the line-of-sight vector PT has been repeated again. Instead of such a process, the calculation unit 23 executes a process of estimating a corneal reflection position using the three-dimensional position P of the pupil center with respect to the pupil image acquired by the two cameras 10 and performs two processes. The three-dimensional position C of the center of the corneal sphere may be calculated by estimating the position of the corneal reflection by the light source 13 on the image of the camera 10 and stereo-matching the two estimated positions of the corneal reflection. Furthermore, the calculation unit 23 may calculate the line-of-sight vector by repeating the process of estimating the corneal reflection position again using the calculated three-dimensional position C of the corneal sphere center.

A…対象者、C…角膜球中心、P…瞳孔中心、PT…視線ベクトル、40,40〜40,40a〜40b,4011〜4014…補助光源、1…視線検出装置、10,10,10,13光源、20…画像処理装置、21…点灯制御部、22…画像取得部、23…算出部。 A ... subject, C ... cornea ball center, P ... pupil center, PT ... sight vector, 40,40 1 ~40 8, 40a~40b, 40 11 ~40 14 ... auxiliary light source, 1 ... line-of-sight detection device, 10, 10 L , 10 R , 13 light sources, 20: image processing device, 21: lighting control unit, 22: image acquisition unit, 23: calculation unit.

Claims (10)

対象者の眼を撮像することで眼画像を取得する第1及び第2のカメラと、
前記第1のカメラに取り付けられ、前記対象者の眼を照明する第1の光源と、
前記第2のカメラに取り付けられ、前記対象者の眼を照明する第2の光源と、
前記第1及び第2のカメラのレンズの光軸から離れる位置に配置され、前記対象者の眼を照明する少なくとも2つの第3の光源と、
前記第1〜第3の光源の点灯を制御する点灯制御部と、
前記第1及び第2のカメラのそれぞれによって取得された前記眼画像を対象にして、瞳孔中心の位置及び角膜反射の位置を検出し、前記瞳孔中心の位置及び前記角膜反射の位置を基に前記対象者の視線方向を算出する算出部と、を備え、
前記算出部は、前記眼画像において前記第1又は第2の光源による角膜反射の位置が検出できなかった際には、前記眼画像において前記第3の光源による2つの角膜反射の位置を検出し、当該2つの角膜反射の位置を基に前記第1又は第2の光源による角膜反射の位置を推定し、推定した前記角膜反射の位置を用いて前記対象者の視線方向を算出する、
視線検出装置。
First and second cameras for acquiring an eye image by imaging the eye of the subject;
A first light source attached to the first camera and illuminating the subject's eye;
A second light source attached to the second camera and illuminating the eye of the subject;
At least two third light sources arranged at positions away from the optical axes of the lenses of the first and second cameras, and illuminating the eyes of the subject;
A lighting control unit that controls lighting of the first to third light sources;
Targeting the eye image acquired by each of the first and second cameras, a position of a pupil center and a position of corneal reflection are detected, and the position of the pupil center and the position of the corneal reflection are detected based on the position. A calculation unit that calculates the gaze direction of the subject,
The calculating unit, when the position of the corneal reflection by the first or second light source cannot be detected in the eye image, detects the position of the two corneal reflections by the third light source in the eye image. Estimating the position of the corneal reflection by the first or second light source based on the positions of the two corneal reflections, and calculating the gaze direction of the subject using the estimated position of the corneal reflection,
Eye gaze detection device.
前記算出部は、前記第1及び第2のカメラによって取得された2つの前記眼画像を基に、前記瞳孔中心の3次元位置を算出し、
前記第1又は2の光源の3次元位置と、第3の光源の3次元位置と、前記瞳孔中心の3次元位置とを用いて、前記眼画像における第1又は第2の光源による角膜反射の位置を推定する、
請求項1記載の視線検出装置。
The calculation unit calculates a three-dimensional position of the center of the pupil based on the two eye images acquired by the first and second cameras,
Using the three-dimensional position of the first or second light source, the three-dimensional position of the third light source, and the three-dimensional position of the center of the pupil, the corneal reflection by the first or second light source in the eye image Estimating location,
The gaze detection device according to claim 1.
前記算出部は、前記第1又は前記第2の光源の3次元位置と第3の光源のうちの一方の光源の3次元位置と前記瞳孔中心の3次元位置とを通る第1の平面と、前記第1又は前記第2の光源の3次元位置と第3の光源のうちの他方の光源の3次元位置と前記瞳孔中心の3次元位置とを通る第2の平面と、の位置を特定し、
前記第1又は第2のカメラの画像面上における、前記第1の平面の傾きと、前記第2の平面の傾きとを算出し、
前記第1又は第2のカメラによって取得された2つの前記眼画像上で、前記一方の光源による角膜反射の位置を通り前記第1の平面の傾きに対応する傾きを有する直線と、前記他方の光源による角膜反射の位置を通り前記第2の平面の傾きに対応する傾きを有する直線との交点を、第1又は第2の光源による角膜反射の位置として算出する、
請求項1又は2記載の視線検出装置。
A first plane passing through a three-dimensional position of the first or second light source, a three-dimensional position of one of the third light sources, and a three-dimensional position of the center of the pupil; A position of a three-dimensional position of the first or second light source, a second plane passing through a three-dimensional position of the other light source of the third light source, and a three-dimensional position of the center of the pupil is specified. ,
Calculating an inclination of the first plane and an inclination of the second plane on an image plane of the first or second camera;
On the two eye images acquired by the first or second camera, a straight line passing through the position of corneal reflection by the one light source and having a slope corresponding to the slope of the first plane, and the other of the other Calculating the intersection of a straight line passing through the position of the corneal reflection by the light source and having a slope corresponding to the slope of the second plane as the position of the corneal reflection by the first or second light source;
The line-of-sight detection device according to claim 1.
前記算出部は、いったん前記瞳孔中心の3次元位置を用いて前記眼画像における第1又は第2の光源による角膜反射の位置を推定した後に、推定した前記角膜反射の位置を用いて前記対象者の視線方向を算出し、
さらに、前記視線方向と前記瞳孔中心の3次元位置とを基に前記対象者の角膜球中心の3次元位置を算出し、前記角膜球中心の3次元位置を用いて前記眼画像における第1又は第2の光源による角膜反射の位置を推定した後に、推定した前記角膜反射の位置を用いて前記対象者の視線方向を再度算出する、
請求項2記載の視線検出装置。
The calculation unit estimates the position of corneal reflection by the first or second light source in the eye image once using the three-dimensional position of the pupil center, and then uses the estimated position of the corneal reflection to estimate the subject's position. Gaze direction of the
Further, a three-dimensional position of the center of the corneal sphere of the subject is calculated based on the gaze direction and the three-dimensional position of the center of the pupil, and the first or the third in the eye image is calculated using the three-dimensional position of the center of the corneal sphere. After estimating the position of the corneal reflection by the second light source, the gaze direction of the subject is calculated again using the estimated position of the corneal reflection,
The eye gaze detecting device according to claim 2.
前記第3の光源は、3つ以上で前記第1及び第2のカメラの周囲に配置されている、
請求項1〜4のいずれか1項に記載の視線検出装置。
Three or more third light sources are arranged around the first and second cameras,
The line-of-sight detection device according to any one of claims 1 to 4.
前記第3の光源は、第1及び第2のカメラの近傍から見て等角度間隔で前記第1及び第2のカメラの周囲に配置されている、
請求項5記載の視線検出装置。
The third light source is disposed around the first and second cameras at equal angular intervals when viewed from near the first and second cameras,
The line-of-sight detection device according to claim 5.
前記第3の光源は、第1及び第2のカメラの近傍から見て等角度間隔で前記第1及び第2のカメラの周囲に配置された光源群を複数有し、
前記点灯制御部は、前記複数の光源群ごとに点灯させるように制御する、
請求項6記載の視線検出装置。
The third light source has a plurality of light source groups arranged around the first and second cameras at equal angular intervals when viewed from near the first and second cameras,
The lighting control unit controls to light each of the plurality of light source groups,
The gaze detection device according to claim 6.
前記第3の光源は、前記第1及び第2のカメラの近傍からの距離が不均一となるように配置されている、
請求項6記載の視線検出装置。
The third light source is arranged so that the distance from the vicinity of the first and second cameras is not uniform.
The gaze detection device according to claim 6.
前記対象者の眼を照明する光源が取り付けられたカメラを前記第1及び第2のカメラを含めて3組以上備える、
請求項1〜8のいずれか1項に記載の視線検出装置。
A camera equipped with a light source that illuminates the eye of the subject is provided with three or more sets including the first and second cameras,
The line-of-sight detection device according to any one of claims 1 to 8.
第1及び第2のカメラを用いて対象者の眼を撮像することで眼画像を取得する眼画像取得ステップと、
前記第1のカメラに取り付けられた第1の光源と、前記第2のカメラに取り付けられた第2の光源とを用いて、前記対象者の眼を照明する照明ステップと、
記第1及び第2のカメラのレンズの光軸から離れる位置に配置された少なくとも2つの第3の光源を用いて、前記対象者の眼を照明する補助照明ステップと、
前記第1及び第2のカメラのそれぞれによって取得された前記眼画像を対象にして、瞳孔中心の位置及び角膜反射の位置を検出し、前記瞳孔中心の位置及び前記角膜反射の位置を基に前記対象者の視線方向を算出する算出ステップと、を備え、
前記算出ステップでは、前記眼画像において前記第1又は第2の光源による角膜反射の位置が検出できなかった際には、前記眼画像において前記第3の光源による2つの角膜反射の位置を検出し、当該2つの角膜反射の位置を基に前記第1又は第2の光源による角膜反射の位置を推定し、推定した前記角膜反射の位置を用いて前記対象者の視線方向を算出する、
視線検出方法。
An eye image acquisition step of acquiring an eye image by imaging the eye of the subject using the first and second cameras;
An illumination step of illuminating the subject's eye using a first light source attached to the first camera and a second light source attached to the second camera;
An auxiliary lighting step of illuminating the subject's eye using at least two third light sources arranged at positions separated from the optical axes of the lenses of the first and second cameras;
Targeting the eye image acquired by each of the first and second cameras, a position of a pupil center and a position of corneal reflection are detected, and the position of the pupil center and the position of the corneal reflection are detected based on the position. Calculating a gaze direction of the target person,
In the calculating step, when the position of corneal reflection by the first or second light source cannot be detected in the eye image, the position of two corneal reflections by the third light source is detected in the eye image. Estimating the position of the corneal reflection by the first or second light source based on the positions of the two corneal reflections, and calculating the gaze direction of the subject using the estimated position of the corneal reflection,
Gaze detection method.
JP2015247614A 2015-12-18 2015-12-18 Eye gaze detection device and eye gaze detection method Active JP6631951B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015247614A JP6631951B2 (en) 2015-12-18 2015-12-18 Eye gaze detection device and eye gaze detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015247614A JP6631951B2 (en) 2015-12-18 2015-12-18 Eye gaze detection device and eye gaze detection method

Publications (2)

Publication Number Publication Date
JP2017111746A JP2017111746A (en) 2017-06-22
JP6631951B2 true JP6631951B2 (en) 2020-01-15

Family

ID=59080805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015247614A Active JP6631951B2 (en) 2015-12-18 2015-12-18 Eye gaze detection device and eye gaze detection method

Country Status (1)

Country Link
JP (1) JP6631951B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3420887A1 (en) * 2017-06-30 2019-01-02 Essilor International Method for determining the position of the eye rotation center of the eye of a subject, and associated device
KR102024993B1 (en) * 2017-10-13 2019-09-24 국립암센터 Method for analyzing image of eyeball
JP7173836B2 (en) * 2018-11-05 2022-11-16 京セラ株式会社 Controller, position determination device, position determination system, display system, program, and recording medium
JP7269617B2 (en) * 2018-11-30 2023-05-09 国立大学法人静岡大学 Face image processing device, image observation system, and pupil detection system
JP7283841B2 (en) 2019-03-28 2023-05-30 株式会社豊田中央研究所 Gaze measurement device
FI130748B1 (en) 2020-02-21 2024-02-26 Seetrue Tech Oy Gaze tracking
JP2022036452A (en) * 2020-08-24 2022-03-08 株式会社Jvcケンウッド Line of sight detection device, line of sight detection method, and line of sight detection program
CN114167947A (en) * 2021-11-26 2022-03-11 深圳市思坦科技有限公司 Eye protection device and method, blue light display device and storage medium
WO2023120892A1 (en) * 2021-12-20 2023-06-29 삼성전자주식회사 Device and method for controlling light sources in gaze tracking using glint

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5621456B2 (en) * 2010-09-21 2014-11-12 富士通株式会社 Gaze detection device, gaze detection method, computer program for gaze detection, and portable terminal
EP2649932A4 (en) * 2010-12-08 2017-06-14 National University Corporation Shizuoka University Method for detecting point of gaze and device for detecting point of gaze

Also Published As

Publication number Publication date
JP2017111746A (en) 2017-06-22

Similar Documents

Publication Publication Date Title
JP6631951B2 (en) Eye gaze detection device and eye gaze detection method
JP6963820B2 (en) Line-of-sight detector
JP5858433B2 (en) Gaze point detection method and gaze point detection device
US6659611B2 (en) System and method for eye gaze tracking using corneal image mapping
US8885177B2 (en) Medical wide field of view optical tracking system
JP5915981B2 (en) Gaze point detection method and gaze point detection device
US20180336720A1 (en) Systems and Methods For Generating and Using Three-Dimensional Images
WO2005063114A1 (en) Sight-line detection method and device, and three- dimensional view-point measurement device
US11624907B2 (en) Method and device for eye metric acquisition
JP7030317B2 (en) Pupil detection device and pupil detection method
US20220148218A1 (en) System and method for eye tracking
JP6324119B2 (en) Rotation angle calculation method, gazing point detection method, information input method, rotation angle calculation device, gazing point detection device, information input device, rotation angle calculation program, gazing point detection program, and information input program
JP2019215688A (en) Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration
JP7046347B2 (en) Image processing device and image processing method
US11099641B2 (en) Calibration, customization, and improved user experience for bionic lenses
KR101817436B1 (en) Apparatus and method for displaying contents using electrooculogram sensors
JP6430813B2 (en) Position detection apparatus, position detection method, gazing point detection apparatus, and image generation apparatus
JP6780161B2 (en) Line-of-sight detection device and line-of-sight detection method
JP6496917B2 (en) Gaze measurement apparatus and gaze measurement method
JP2005013752A (en) Sight line detecting system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191202

R150 Certificate of patent or registration of utility model

Ref document number: 6631951

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250