JP2017102731A - Gaze detection device and gaze detection method - Google Patents
Gaze detection device and gaze detection method Download PDFInfo
- Publication number
- JP2017102731A JP2017102731A JP2015235889A JP2015235889A JP2017102731A JP 2017102731 A JP2017102731 A JP 2017102731A JP 2015235889 A JP2015235889 A JP 2015235889A JP 2015235889 A JP2015235889 A JP 2015235889A JP 2017102731 A JP2017102731 A JP 2017102731A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- coordinates
- pupil
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 96
- 210000001747 pupil Anatomy 0.000 claims abstract description 107
- 238000003384 imaging method Methods 0.000 claims abstract description 9
- 239000013598 vector Substances 0.000 claims description 34
- 210000001508 eye Anatomy 0.000 abstract description 35
- 230000000007 visual effect Effects 0.000 abstract description 11
- 238000012545 processing Methods 0.000 description 37
- 230000006870 function Effects 0.000 description 23
- 230000003287 optical effect Effects 0.000 description 16
- 238000000034 method Methods 0.000 description 15
- 238000012986 modification Methods 0.000 description 14
- 230000004048 modification Effects 0.000 description 14
- 210000003128 head Anatomy 0.000 description 11
- 210000004087 cornea Anatomy 0.000 description 9
- 230000000052 comparative effect Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000005286 illumination Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 210000001525 retina Anatomy 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 206010003805 Autism Diseases 0.000 description 1
- 208000020706 Autistic disease Diseases 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Landscapes
- Eye Examination Apparatus (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、人の画像から視線を検出する視線検出装置及び視線検出方法に関する。 The present invention relates to a gaze detection apparatus and a gaze detection method for detecting a gaze from a human image.
近年、近赤外光源等の光源とビデオカメラを使用した視線検出装置が普及しつつある。このような視線検出装置では、ビデオカメラに対する被験者の視線方向の角度の変化によりビデオカメラで得られる画像中の瞳孔と角膜反射との位置関係が変化することを用いて、視線方向を検出する方法である。具体的には、瞳孔の中心と角膜反射との間のベクトルと、そのベクトルのビデオカメラの座標系の座標軸に対する角度とを取得し、これらから視線方向を検出する(下記特許文献1)。また、眼の凝視方向を検出する装置であって、ディスプレイの周囲に配置されたフォトセンサ及び複数の光源と、計算・制御ユニットとを備えるものも知られている(下記特許文献2)。 In recent years, a line-of-sight detection device using a light source such as a near-infrared light source and a video camera is becoming popular. In such a gaze detection apparatus, a method for detecting a gaze direction using a change in the positional relationship between a pupil and a cornea reflection in an image obtained by the video camera due to a change in the angle of the gaze direction of the subject with respect to the video camera It is. Specifically, the vector between the center of the pupil and the corneal reflection and the angle of the vector with respect to the coordinate axis of the coordinate system of the video camera are acquired, and the line-of-sight direction is detected from these (Patent Document 1 below). An apparatus that detects the gaze direction of an eye and that includes a photosensor and a plurality of light sources arranged around a display and a calculation / control unit is also known (Patent Document 2 below).
ここで、デジタルサイネージ等の公共空間に設置された表示画面上の視線を検出する場合には、視線検出装置と対象者との間の距離が様々変化するため、精度良く視線を検出するためには、視線検出装置にはズーム機構やオートフォーカス機能を備えるカメラが要求される。そのようなカメラを備える視線検出装置には、ズーム機能による画像の倍率値(ズーム値)を基に検出値をキャリブレーションする機能が具備されている(下記特許文献3)。 Here, when detecting the line of sight on a display screen installed in a public space such as digital signage, the distance between the line-of-sight detection device and the subject changes variously, so that the line of sight can be detected with high accuracy. The gaze detection device requires a camera having a zoom mechanism and an autofocus function. A line-of-sight detection device including such a camera has a function of calibrating a detection value based on a magnification value (zoom value) of an image by a zoom function (Patent Document 3 below).
上述した特許文献3に記載の装置では、ズーム機能を備えたカメラから出力されたズーム値を基に被験者と対象物との距離を算出し、その距離を基に対象物上の被験者の視線の移動量を算出する。しかしながら、カメラのズーム機能の制御には遅延や誤差が存在するため、画像の各フレームにおける実際の倍率とカメラから出力されたズーム値との間に誤差が生じやすい。その結果、検出する視線に誤差が生じる場合があった。 In the apparatus described in Patent Document 3 described above, the distance between the subject and the object is calculated based on the zoom value output from the camera having the zoom function, and the line of sight of the subject on the object is calculated based on the distance. The amount of movement is calculated. However, since there are delays and errors in controlling the zoom function of the camera, an error is likely to occur between the actual magnification in each frame of the image and the zoom value output from the camera. As a result, an error may occur in the line of sight to be detected.
本発明は、上記課題に鑑みて為されたものであり、ズーム機能を備えたカメラを用いた際に視線方向を精度よく検出することが可能な視線検出装置及び視線検出方法を提供することを目的とする。 The present invention has been made in view of the above problems, and provides a gaze detection device and a gaze detection method capable of accurately detecting the gaze direction when using a camera having a zoom function. Objective.
上記課題を解決するため、本発明の一形態にかかる視線検出装置は、対象者の眼を撮像することで眼の3次元位置を検出する3次元位置検出手段と、対象者の眼を撮像する少なくも1台のカメラと、対象者に向けられた異なる位置に配置された第1及び第2の光源と、カメラによって撮像された眼の画像を基に、対象者の瞳孔の画像上の座標と、第1及び第2の光源による第1及び第2の角膜反射の画像上の座標とを検出し、瞳孔の座標と第1角膜反射及び第2の角膜反射のうちの少なくとも1つの座標とを基に対象者の視線の方向を算出する視線算出手段とを備え、視線算出手段は、第1の角膜反射の座標と第2の角膜反射の座標と眼の3次元位置とを基にカメラによる画像の拡大率を算出し、拡大率を基に視線の方向を算出する。 In order to solve the above problems, a line-of-sight detection apparatus according to an aspect of the present invention images a target person's eyes by using a three-dimensional position detection unit that detects a three-dimensional position of the eye by imaging the target person's eyes. Coordinates on the image of the subject's pupil based on at least one camera, first and second light sources arranged at different positions directed at the subject, and the eye image captured by the camera And coordinates on the images of the first and second corneal reflections by the first and second light sources, and the coordinates of the pupil and at least one coordinate of the first corneal reflection and the second corneal reflection; Line-of-sight calculation means for calculating the direction of the line of sight of the subject based on the camera, and the line-of-sight calculation means is a camera based on the first corneal reflection coordinates, the second corneal reflection coordinates, and the three-dimensional eye position. The image enlargement rate is calculated, and the direction of the line of sight is calculated based on the enlargement rate.
或いは、本発明の他の形態にかかる視線検出方法は、対象者の眼を撮像する少なくも1台のカメラと、対象者に向けられた異なる位置に配置された第1及び第2の光源と、対象者の視線の方向を算出する視線検出手段と、を備える視線検出装置が、対象者の眼を撮像することで眼の3次元位置を検出する3次元位置検出ステップと、視線検出装置が、カメラによって撮像された眼の画像を基に、対象者の瞳孔の画像上の座標と、第1及び第2の光源による第1及び第2の角膜反射の画像上の座標とを検出し、瞳孔の座標と第1角膜反射及び第2の角膜反射のうちの少なくとも1つの座標とを基に対象者の視線の方向を算出する視線算出ステップとを備え、視線算出ステップでは、第1の角膜反射の座標と第2の角膜反射の座標と眼の3次元位置とを基にカメラによる画像の拡大率を算出し、拡大率を基に視線の方向を算出する。 Alternatively, the line-of-sight detection method according to another aspect of the present invention includes at least one camera that captures an image of the subject's eyes, and first and second light sources arranged at different positions directed toward the subject. A line-of-sight detection device comprising: a line-of-sight detection means for calculating a direction of the line of sight of the subject; a three-dimensional position detection step of detecting a three-dimensional position of the eye by imaging the eye of the subject; Detecting the coordinates on the pupil image of the subject and the coordinates on the first and second corneal reflection images by the first and second light sources based on the eye image captured by the camera; A line-of-sight calculation step of calculating the direction of the line of sight of the subject based on the coordinates of the pupil and at least one coordinate of the first corneal reflection and the second corneal reflection. In the line-of-sight calculation step, The coordinates of the reflection, the coordinates of the second corneal reflection and the three-dimensional position of the eye DOO calculates the magnification of the image by the camera based on, calculates the direction of line of sight based on the magnification.
上記形態の視線検出装置或いは視線検出方法によれば、カメラによって撮像された対象者の眼の画像を基に、第1及び第2の光源による第1及び第2の角膜反射の画像上の座標が検出され、それらの画像上の座標と、別途検出された対象者の眼の3次元座標とを基にカメラの画像による拡大率が算出される。そして、算出した拡大率と、対象者の瞳孔の画像上の座標と、第1の角膜反射及び第2の角膜反射のうちの少なくとも1つの画像上の座標とを基に対象者の視線の方向が算出される。これにより、カメラによって画像が取得された際の画像の拡大率を正確に計算することができ、その画像と拡大率を用いることで精度よく対象者の視線の方向を算出することができる。その結果、ズーム機能を備えたカメラを用いた際に視線方向を精度よく検出することができる。 According to the line-of-sight detection device or line-of-sight detection method of the above aspect, the coordinates on the images of the first and second corneal reflections by the first and second light sources based on the eye image of the subject imaged by the camera. , And the enlargement ratio based on the image of the camera is calculated based on the coordinates on the images and the three-dimensional coordinates of the eyes of the subject detected separately. Then, the direction of the line of sight of the subject based on the calculated magnification, the coordinates on the image of the pupil of the subject, and the coordinates on the image of at least one of the first corneal reflection and the second corneal reflection Is calculated. Thereby, the enlargement ratio of the image when the image is acquired by the camera can be accurately calculated, and the direction of the line of sight of the subject can be accurately calculated by using the image and the enlargement ratio. As a result, it is possible to accurately detect the line-of-sight direction when using a camera having a zoom function.
ここで、視線算出手段は、第1の角膜反射の座標と第2の角膜反射の座標との間の画像上距離を算出し、当該画像上距離と眼の3次元位置とを基にカメラによる画像の拡大率を算出する、こととしてもよい。この場合、画像上における2つの光源によって生じる角膜反射の間の距離を用いて、カメラによって画像が取得された際の画像の拡大率を正確に計算することができる。 Here, the line-of-sight calculation means calculates an on-image distance between the first corneal reflection coordinate and the second corneal reflection coordinate, and is determined by the camera based on the on-image distance and the three-dimensional position of the eye. The image enlargement ratio may be calculated. In this case, using the distance between the corneal reflections generated by the two light sources on the image, the magnification of the image when the image is acquired by the camera can be accurately calculated.
また、視線算出手段は、画像上距離と、第1及び第2の光源の位置と眼の3次元位置とから計算される第1の角膜反射から第2の角膜反射までの実寸距離との比を計算することにより、カメラによる画像の拡大率を算出する、こととしてもよい。この場合には、画像上における2つの光源によって生じる角膜反射の間の距離と実寸の距離との比を用いて、カメラによって画像が取得された際の画像の拡大率を正確に計算することができる。 Further, the line-of-sight calculation means is a ratio of the distance on the image and the actual distance from the first corneal reflection to the second corneal reflection calculated from the positions of the first and second light sources and the three-dimensional position of the eye. It is good also as calculating the magnification rate of the image by a camera by calculating. In this case, the ratio of the distance between the corneal reflections caused by the two light sources on the image and the actual distance can be used to accurately calculate the magnification of the image when the image is acquired by the camera. it can.
また、視線算出手段は、第1角膜反射又は第2の角膜反射のいずれかの座標から瞳孔の座標までの角膜反射−瞳孔ベクトルを算出し、角膜反射−瞳孔ベクトルに拡大率を乗ずることで、カメラと瞳孔を結ぶ線からの視線の方向のなす角度を算出する、こととしてもよい。この場合には、算出した拡大率を基にカメラと瞳孔を結ぶ線からの視線の方向のなす角度を精度よく算出することができる。 Further, the line-of-sight calculation means calculates a corneal reflection-pupil vector from the coordinates of either the first corneal reflection or the second corneal reflection to the coordinates of the pupil, and multiplies the corneal reflection-pupil vector by an enlargement ratio. The angle formed by the direction of the line of sight from the line connecting the camera and the pupil may be calculated. In this case, the angle formed by the line of sight from the line connecting the camera and the pupil can be accurately calculated based on the calculated magnification.
また、第1及び第2の光源は、第1及び第2の光源を結ぶ線がカメラを通るように配置されていてもよい。この場合には、第1及び第2の角膜反射の画像上の座標と対象者の眼の3次元座標とを用いた拡大率の計算が単純化され、拡大率の正確性も向上させることができる。 The first and second light sources may be arranged such that a line connecting the first and second light sources passes through the camera. In this case, the calculation of the enlargement ratio using the coordinates on the first and second corneal reflection images and the three-dimensional coordinates of the eye of the subject can be simplified, and the accuracy of the enlargement ratio can be improved. it can.
本発明によれば、ズーム機能を備えたカメラを用いた際に視線方向を精度よく検出することができる。 According to the present invention, it is possible to accurately detect the line-of-sight direction when using a camera having a zoom function.
以下、図面を参照しつつ本発明に係る視線検出装置及び視線検出方法の好適な実施形態について詳細に説明する。なお、図面の説明においては、同一又は相当部分には同一符号を付し、重複する説明を省略する。 Hereinafter, preferred embodiments of a line-of-sight detection device and a line-of-sight detection method according to the present invention will be described in detail with reference to the drawings. In the description of the drawings, the same or corresponding parts are denoted by the same reference numerals, and redundant description is omitted.
[視線検出装置の構成]
まず、図1〜3を用いて、実施形態に係る視線検出装置1の構成を説明する。視線検出装置1は、対象者の眼を撮像することで対象者の視線方向を検出するコンピュータシステムであり、この装置により、本実施形態に係る視線検出方法が実施される。対象者とは、視線方向を検出する対象となる人であり、被験者ともいうことができる。視線検出装置1および視線検出方法の利用目的は何ら限定されず、例えば、よそ見運転の検出、運転者の眠気の検出、運転者のサイドミラーやルームミラーの安全確認動作の確認、商品の興味の度合いの調査、アミューズメント装置等に利用されるコンピュータへのデータ入力、乳幼児の自閉症診断等の診断用装置などに視線検出装置1を利用することができる。特に、本実施形態に係る視線検出装置1は、公共の場所に設置されたデジタルサイネージ等の対象物に対する対象者の視線方向を検出する装置、商品の陳列棚においてどの商品を見ているかを検出する装置等、対象者と装置との間の距離が変動する状況下での使用に適している。ただし、このような状況下での使用に限定されるものではない。
[Configuration of eye-gaze detection device]
First, the configuration of the visual line detection device 1 according to the embodiment will be described with reference to FIGS. The line-of-sight detection apparatus 1 is a computer system that detects the line-of-sight direction of the subject by imaging the eye of the subject, and the line-of-sight detection method according to the present embodiment is performed by this apparatus. The target person is a person who detects the line-of-sight direction, and can also be called a subject. The purpose of use of the line-of-sight detection device 1 and the line-of-sight detection method is not limited at all. For example, detection of looking away, detection of driver's drowsiness, confirmation of driver's side mirror and room mirror safety confirmation operation, The line-of-sight detection device 1 can be used for a degree survey, data input to a computer used for an amusement device or the like, a diagnostic device for autism diagnosis of infants, and the like. In particular, the line-of-sight detection device 1 according to the present embodiment detects a product that is viewed on a display shelf of a device that detects the direction of the subject's line of sight with respect to an object such as digital signage installed in a public place. It is suitable for use in a situation where the distance between the subject and the device varies, such as a device that performs such operations. However, it is not limited to use under such circumstances.
図1に模式的に示すように、視線検出装置1は、ステレオカメラとして機能する一対の広視野カメラ10と、対象者の頭部の3次元位置を検出する対象者検出装置20と、対象者の眼を撮像する2台の狭視野カメラ30と、画像処理装置40とを備える。以下では、必要に応じて、一対の広視野カメラ10を、対象者の左側にあるカメラ10Lと、対象者の右側にあるカメラ10Rとに区別する。同様に、必要に応じて、2台の狭視野カメラ30を対象者の左側にあるカメラ30Lと、対象者の右側にあるカメラ30Rとに区別する。本実施形態では、視線検出装置1は、対象者が見る対象であるディスプレイ装置50をさらに備えるが、視線検出装置1の利用目的は上記のように限定されないので、対象者の視線の先にある物はディスプレイ装置50に限定されず、例えば自動車のフロントガラス等でもあり得る。したがって、ディスプレイ装置50は視線検出装置1における必須の要素ではない。それぞれの広視野カメラ10、それぞれの狭視野カメラ30、及び対象者検出装置20は、画像処理装置40と無線または有線により接続され、互いに各種のデータまたは命令を送受信可能とされる。各広視野カメラ10、及び各狭視野カメラ30に対しては予めカメラ較正が行われる。 As schematically shown in FIG. 1, the line-of-sight detection device 1 includes a pair of wide-field cameras 10 that function as stereo cameras, a subject detection device 20 that detects the three-dimensional position of the subject's head, and a subject. Two narrow-field cameras 30 that image the eyes of the camera and an image processing device 40. Hereinafter, if necessary, it distinguishes a pair of wide-field camera 10, a camera 10 L on the left side of the subject, the camera 10 R on the right side of the subject. Similarly, if necessary, to distinguish the two narrow field of view camera 30 and the camera 30 L on the left side of the subject, the camera 30 R on the right side of the subject. In the present embodiment, the line-of-sight detection device 1 further includes a display device 50 that is an object to be viewed by the subject. However, the purpose of use of the line-of-sight detection device 1 is not limited as described above, and is ahead of the subject's line of sight. A thing is not limited to the display apparatus 50, For example, it may be a windshield etc. of a motor vehicle. Therefore, the display device 50 is not an essential element in the line-of-sight detection device 1. Each wide-field camera 10, each narrow-field camera 30, and the subject detection device 20 are connected to the image processing device 40 wirelessly or by wire, and can transmit and receive various data or commands to and from each other. Camera calibration is performed in advance for each wide-field camera 10 and each narrow-field camera 30.
対象者検出装置20は、TOF(Time of flight)カメラと、演算部とを内蔵し、TOFカメラによって取得された距離画像から対象者の頭部らしき物体を認識し、その認識結果を基に頭部の3次元座標を所定の周期で出力する装置である。対象者検出装置20は、赤外線プロジェクターと赤外線カメラとを内蔵し、赤外線カメラで取得された画像上における赤外線プロジェクターによって照射された赤外線のパターンの歪みを検出し、その歪みを基に距離を認識することで距離画像を取得する装置であってもよい。この対象者検出装置20は、狭視野カメラ30の姿勢を対象者の頭部の3次元位置に合わせて制御するために設けられる。 The subject detection device 20 includes a TOF (Time of Flight) camera and a calculation unit, recognizes an object that appears to be the subject's head from a distance image acquired by the TOF camera, and based on the recognition result, This is a device that outputs the three-dimensional coordinates of a part at a predetermined cycle. The subject detection device 20 includes an infrared projector and an infrared camera, detects distortion of an infrared pattern irradiated by the infrared projector on an image acquired by the infrared camera, and recognizes a distance based on the distortion. Thus, an apparatus for acquiring a distance image may be used. This subject detection device 20 is provided to control the posture of the narrow-field camera 30 according to the three-dimensional position of the subject's head.
広視野カメラ10は対象者の眼を含む周辺を広視野角で撮影する撮像装置であり、対象者の眼の3次元位置を検出するための3次元位置検出手段として用いられる。広視野カメラ10には、固定焦点レンズが内蔵され、その視野角が、例えば、対象者の上半身が含まれるような角度に予め設定される。一対の広視野カメラ10は、ディスプレイ装置50の上部に水平方向に沿って所定の間隔をおいて配される。例えば、一対の広視野カメラ10は、それらの水平方向の間隔が430.0mmに設定される。個々の広視野カメラ10に対しては予めカメラ較正が行われる。 The wide-field camera 10 is an imaging device that captures the periphery including the subject's eyes with a wide viewing angle, and is used as a three-dimensional position detection means for detecting the three-dimensional position of the subject's eyes. The wide-field camera 10 includes a fixed-focus lens, and the viewing angle is set in advance to an angle that includes the upper body of the subject, for example. The pair of wide-field cameras 10 are arranged on the upper part of the display device 50 at a predetermined interval along the horizontal direction. For example, the pair of wide-field cameras 10 is set to have a horizontal interval of 430.0 mm. Camera calibration is performed on each wide-field camera 10 in advance.
本実施形態では、広視野カメラ10は、インターレーススキャン方式の一つであるNTSC方式のカメラである。NTSC方式では、1秒間に30枚得られる1フレームの画像データは、奇数番目の水平画素ラインで構成される奇数フィールドと、偶数番目の水平画素ラインで構成される偶数フィールドから構成され、奇数フィールドの画像と偶数フィールドの画像とが1/60秒の間隔で交互に撮影されることで生成される。したがって、一つのフレームは、一対の奇数フィールドおよび偶数フィールドに相当する。広視野カメラ10は、画像処理装置40からの命令に応じて対象者を撮像し、画像データを画像処理装置40に出力する。 In the present embodiment, the wide-field camera 10 is an NTSC camera that is one of the interlace scan methods. In the NTSC system, 30 frames of image data obtained per second is composed of an odd field composed of odd-numbered horizontal pixel lines and an even field composed of even-numbered horizontal pixel lines. And even field images are alternately captured at 1/60 second intervals. Therefore, one frame corresponds to a pair of odd and even fields. The wide-field camera 10 captures the subject in response to a command from the image processing device 40 and outputs image data to the image processing device 40.
この広視野カメラ10は、レンズが収容された開口部12の外側に取り付けられた光源13を含んでいる。光源13は、対象者の眼に向けて照明光を照射するための機器であり、複数の発光素子13aと複数の発光素子13bとから成る。発光素子13aは、出力光の中心波長が850nmの半導体発光素子(LED)であり、開口部12の縁に沿って等間隔でリング状に配される。発光素子13bは、出力光の中心波長が940nmの半導体発光素子であり、発光素子13aの外側に等間隔でリング状に配される。したがって、広視野カメラ10の光軸から発光素子13bまでの距離は、該光軸から発光素子13aまでの距離よりも大きい。それぞれの発光素子13a,13bは、広視野カメラ10の光軸に沿って照明光を出射するように設けられる。なお、光源13の配置は図1に示す構成に限定されず、カメラをピンホールモデルとみなすことができれば他の配置であってもよい。光源13は、画像処理装置40からの命令に応じたタイミングで照明光を出射する。 The wide-field camera 10 includes a light source 13 attached to the outside of an opening 12 in which a lens is accommodated. The light source 13 is a device for irradiating illumination light toward the eye of the subject, and includes a plurality of light emitting elements 13a and a plurality of light emitting elements 13b. The light emitting elements 13 a are semiconductor light emitting elements (LEDs) having a center wavelength of output light of 850 nm, and are arranged in a ring shape at equal intervals along the edge of the opening 12. The light emitting element 13b is a semiconductor light emitting element having a center wavelength of output light of 940 nm, and is arranged in a ring shape at equal intervals outside the light emitting element 13a. Therefore, the distance from the optical axis of the wide-field camera 10 to the light emitting element 13b is larger than the distance from the optical axis to the light emitting element 13a. Each of the light emitting elements 13 a and 13 b is provided so as to emit illumination light along the optical axis of the wide-field camera 10. The arrangement of the light source 13 is not limited to the configuration shown in FIG. 1, and other arrangements may be used as long as the camera can be regarded as a pinhole model. The light source 13 emits illumination light at a timing according to a command from the image processing device 40.
狭視野カメラ30は、対象者の眼を含む周辺を狭視野角で撮影する撮像装置であり、対象者の眼に含まれる瞳孔中心の位置と、対象者の眼において後述する光源33によって生じる角膜反射の位置を検出するために設けられる。この狭視野カメラ30には、電動ズームレンズが内蔵され、外部からの制御によりズーム値(画像の拡大率)を調整するズーム調整機能と、自動で電動ズームレンズの焦点距離を対象者に焦点が合うように調整するオートフォーカス機能とを有している。狭視野カメラ30のズーム調整機能により設定可能な視野角の範囲は、例えば、対象者の顔全体が含まれるような角度を含むように設定される。2台の狭視野カメラ30は、ディスプレイ装置50の下部に水平方向に沿って所定の間隔をおいて配される。例えば、2台の狭視野カメラ30は、それらの水平方向の間隔が954.0mmに設定される。個々の狭視野カメラ30に対しては予めカメラ較正が行われる。 The narrow-field camera 30 is an imaging device that captures the periphery including the subject's eyes with a narrow viewing angle, and the position of the center of the pupil included in the subject's eyes and the cornea generated by the light source 33 described later in the subject's eyes. It is provided to detect the position of reflection. The narrow-field camera 30 has a built-in electric zoom lens, and a zoom adjustment function that adjusts the zoom value (image enlargement ratio) by external control, and the focal length of the electric zoom lens is automatically focused on the subject. It has an auto-focus function that adjusts to fit. The range of the viewing angle that can be set by the zoom adjustment function of the narrow-field camera 30 is set so as to include an angle that includes the entire face of the subject, for example. The two narrow-field cameras 30 are arranged below the display device 50 at a predetermined interval along the horizontal direction. For example, the two narrow-field cameras 30 are set to have a horizontal interval of 954.0 mm. Camera calibration is performed on each narrow-field camera 30 in advance.
本実施形態では、狭視野カメラ30は、広視野カメラ10と同様に、インターレーススキャン方式の一つであるNTSC方式のカメラである。狭視野カメラ30は、画像処理装置40からの命令に応じて対象者を撮像し、画像データを画像処理装置40に出力する。 In the present embodiment, the narrow-field camera 30 is an NTSC system camera that is one of the interlaced scanning systems, like the wide-field camera 10. The narrow-field camera 30 captures the subject in response to a command from the image processing device 40 and outputs image data to the image processing device 40.
また、この狭視野カメラ30のそれぞれには、外部からの制御により狭視野カメラ30の姿勢を調整するパンチルト機構31が取り付けられている。パンチルト機構31は、狭視野カメラ30の光軸を水平方向及び垂直方向のそれぞれに振るように狭視野カメラ30を回転駆動する。 Each narrow-field camera 30 is provided with a pan / tilt mechanism 31 that adjusts the posture of the narrow-field camera 30 by external control. The pan / tilt mechanism 31 rotationally drives the narrow field camera 30 such that the optical axis of the narrow field camera 30 is swung in the horizontal direction and the vertical direction.
さらに、狭視野カメラ30は、レンズが収容された開口部32の外側に取り付けられた光源33を含んでいる。光源33は、対象者の眼に向けて照明光を照射するための機器であり、複数の発光素子33aと複数の発光素子33bとから成る。発光素子33aは、出力光の中心波長が810nmの半導体発光素子(LED)であり、開口部32の縁に沿って等間隔でリング状に配される。発光素子33bは、出力光の中心波長が810nmの半導体発光素子であり、狭視野カメラ30の開口部32の上部に発光素子33aから離れて配される。この複数の発光素子33bは等間隔でリング状に配置される。 Further, the narrow-field camera 30 includes a light source 33 attached to the outside of the opening 32 in which a lens is accommodated. The light source 33 is a device for irradiating illumination light toward the eye of the subject, and includes a plurality of light emitting elements 33a and a plurality of light emitting elements 33b. The light emitting elements 33 a are semiconductor light emitting elements (LEDs) having a center wavelength of output light of 810 nm, and are arranged in a ring shape at equal intervals along the edge of the opening 32. The light emitting element 33 b is a semiconductor light emitting element having a center wavelength of output light of 810 nm, and is disposed above the opening 32 of the narrow-field camera 30 and away from the light emitting element 33 a. The plurality of light emitting elements 33b are arranged in a ring shape at equal intervals.
したがって、狭視野カメラ30の光軸から発光素子33bまでの距離は、該光軸から発光素子33aまでの距離よりも大きい。それぞれの発光素子33a,33bは、狭視野カメラ30の光軸に沿って照明光を出射するように設けられる。また、2つの光源33は、それぞれ、狭視野カメラ30L,30Rの開口部32の近傍の互いに離れた(異なる)位置に配置されているので、狭視野カメラ30Lの発光素子33aの中心と狭視野カメラ30Rの発光素子33aの中心とを結ぶ線は両方の狭視野カメラ30L,30Rの開口部32の近傍を水平方向に通過することになる。同様に、狭視野カメラ30Lの発光素子33bの中心と狭視野カメラ30Rの発光素子33bの中心とを結ぶ線は両方の狭視野カメラ30L,30Rの開口部32の近傍を水平方向に通過することになる。 Therefore, the distance from the optical axis of the narrow-field camera 30 to the light emitting element 33b is larger than the distance from the optical axis to the light emitting element 33a. Each of the light emitting elements 33 a and 33 b is provided so as to emit illumination light along the optical axis of the narrow-field camera 30. Further, since the two light sources 33 are respectively arranged at different (different) positions in the vicinity of the openings 32 of the narrow field cameras 30 L and 30 R , the center of the light emitting element 33 a of the narrow field camera 30 L is provided. DOO line connecting the center of the narrow-field camera 30 R of the light emitting element 33a will pass through the vicinity of both the narrow-field camera 30 L, 30 R of the opening 32 in the horizontal direction. Similarly, horizontal in the vicinity of the narrow-field camera 30 L of the light emitting element 33b and the center of the narrow-field camera 30 R narrow-field camera 30 both the line connecting the center of the light emitting element 33b of L, 30 R of the opening 32 Will pass through.
なお、光源33の配置は図1に示す構成に限定されず、カメラをピンホールモデルとみなすことができれば他の配置であってもよい。例えば、光源33の配置は光源13と同様であってもよい。光源33は、画像処理装置40からの命令に応じたタイミングで照明光を出射する。 The arrangement of the light source 33 is not limited to the configuration shown in FIG. 1, and other arrangements may be used as long as the camera can be regarded as a pinhole model. For example, the arrangement of the light source 33 may be the same as that of the light source 13. The light source 33 emits illumination light at a timing according to a command from the image processing device 40.
画像処理装置40は、広視野カメラ10、狭視野カメラ30、及び対象者検出装置20の制御と、対象者の視線方向の検出とを実行するコンピュータである。画像処理装置40は、据置型または携帯型のパーソナルコンピュータ(PC)により構築されてもよいし、ワークステーションにより構築されてもよいし、他の種類のコンピュータにより構築されてもよい。あるいは、画像処理装置40は複数台の任意の種類のコンピュータを組み合わせて構築されてもよい。複数台のコンピュータを用いる場合には、これらのコンピュータはインターネットやイントラネットなどの通信ネットワークを介して接続される。 The image processing device 40 is a computer that executes control of the wide-field camera 10, the narrow-field camera 30, and the subject detection device 20 and detection of the subject's line-of-sight direction. The image processing apparatus 40 may be constructed by a stationary or portable personal computer (PC), may be constructed by a workstation, or may be constructed by another type of computer. Alternatively, the image processing apparatus 40 may be constructed by combining a plurality of arbitrary types of computers. When a plurality of computers are used, these computers are connected via a communication network such as the Internet or an intranet.
画像処理装置40の一般的なハードウェア構成を図2に示す。画像処理装置40は、オペレーティングシステムやアプリケーション・プログラムなどを実行するCPU(プロセッサ)101と、ROMおよびRAMで構成される主記憶部102と、ハードディスクやフラッシュメモリなどで構成される補助記憶部103と、ネットワークカードあるいは無線通信モジュールで構成される通信制御部104と、キーボードやマウスなどの入力装置105と、ディスプレイやプリンタなどの出力装置106とを備える。 A general hardware configuration of the image processing apparatus 40 is shown in FIG. The image processing apparatus 40 includes a CPU (processor) 101 that executes an operating system, application programs, and the like, a main storage unit 102 that includes a ROM and a RAM, and an auxiliary storage unit 103 that includes a hard disk, a flash memory, and the like. The communication control unit 104 includes a network card or a wireless communication module, an input device 105 such as a keyboard and a mouse, and an output device 106 such as a display and a printer.
後述する画像処理装置40の各機能要素は、CPU101または主記憶部102の上に所定のソフトウェアを読み込ませ、CPU101の制御の下で通信制御部104や入力装置105、出力装置106などを動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶部102または補助記憶部103内に格納される。 Each functional element of the image processing apparatus 40 described later reads predetermined software on the CPU 101 or the main storage unit 102, and operates the communication control unit 104, the input device 105, the output device 106, and the like under the control of the CPU 101. This is realized by reading and writing data in the main storage unit 102 or the auxiliary storage unit 103. Data and a database necessary for processing are stored in the main storage unit 102 or the auxiliary storage unit 103.
図3に示すように、画像処理装置40は機能的構成要素としてカメラ/光源制御部41、瞳孔座標算出部(3次元位置検出手段)42、瞳孔/角膜反射座標算出部43、拡大率算出部44、及び注視点算出部45を備える。これらの瞳孔/角膜反射座標算出部43、拡大率算出部44、及び注視点算出部45は、対象者の視線の方向を算出する視線算出手段として機能する。 As shown in FIG. 3, the image processing apparatus 40 includes a camera / light source control unit 41, a pupil coordinate calculation unit (three-dimensional position detection unit) 42, a pupil / corneal reflection coordinate calculation unit 43, and an enlargement factor calculation unit as functional components. 44 and a gazing point calculation unit 45. The pupil / corneal reflection coordinate calculation unit 43, the magnification rate calculation unit 44, and the gaze point calculation unit 45 function as a line-of-sight calculation unit that calculates the direction of the line of sight of the subject.
カメラ/光源制御部41は、広視野カメラ10及び狭視野カメラ30の撮影タイミングと、光源13及び光源33の点灯タイミングを制御する。また、カメラ/光源制御部41は、対象者検出装置20から出力された対象者の頭部の3次元座標を基に、2台の狭視野カメラ30の姿勢、及び2台の狭視野カメラ30のズーム値を調整するように制御する。具体的には、カメラ/光源制御部41は、2台の狭視野カメラ30の光軸が対象者の頭部を向くようにパンチルト機構31を駆動制御するとともに、狭視野カメラ30から対象者の頭部までの距離に応じて対象者の頭部全体が視野に入るようにズーム値を調整する。瞳孔座標算出部42は、一対の広視野カメラ10から取得された画像データを処理することで対象者の瞳孔中心の3次元座標を算出する。瞳孔/角膜反射座標算出部43は、狭視野カメラ30から取得された画像データを処理することにより、対象者の瞳孔中心の画像上の座標と、光源33によって生じる角膜反射の画像上の座標とを算出する。拡大率算出部44は、瞳孔/角膜反射座標算出部43によって算出された画像上の座標と、瞳孔座標算出部42によって算出された瞳孔中心の3次元座標とを基に、狭視野カメラ30における画像の拡大率を算出する。注視点算出部45は、瞳孔/角膜反射座標算出部43によって算出された画像上の座標と、拡大率算出部44によって算出された拡大率とを用いて視線ベクトルを計算し、その視線ベクトルに基づいて対象者の視線方向を検出する。視線とは、対象者の瞳孔中心と該対象者の注視点(対象者が見ている点)とを結ぶ線である。なお、「視線」という用語は、起点、終点、および方向の意味(概念)を含む。また、「視線ベクトル」とは、対象者の視線の方向をベクトルで表したもので、「視線方向」を表す一形態である。画像処理装置40の検出結果の視線方向の出力先は何ら限定されない。例えば、画像処理装置40は判定結果を画像、図形、またはテキストでモニタに表示してもよいし、メモリやデータベースなどの記憶装置に格納してもよいし、通信ネットワーク経由で他のコンピュータシステムに送信してもよい。 The camera / light source control unit 41 controls the shooting timing of the wide-field camera 10 and the narrow-field camera 30 and the lighting timing of the light source 13 and the light source 33. Further, the camera / light source control unit 41 is based on the three-dimensional coordinates of the subject's head output from the subject detection device 20, and the postures of the two narrow-field cameras 30 and the two narrow-field cameras 30. Control to adjust the zoom value. Specifically, the camera / light source control unit 41 drives and controls the pan / tilt mechanism 31 so that the optical axes of the two narrow-field cameras 30 face the subject's head, and the narrow-field camera 30 controls the subject's head. The zoom value is adjusted so that the entire head of the subject enters the field of view according to the distance to the head. The pupil coordinate calculation unit 42 processes the image data acquired from the pair of wide-field cameras 10 to calculate the three-dimensional coordinates of the subject's pupil center. The pupil / corneal reflection coordinate calculation unit 43 processes the image data acquired from the narrow-field camera 30 to obtain the coordinates on the image of the subject's pupil center and the coordinates on the image of the corneal reflection generated by the light source 33. Is calculated. The enlargement ratio calculation unit 44 uses the narrow-field camera 30 based on the coordinates on the image calculated by the pupil / corneal reflection coordinate calculation unit 43 and the three-dimensional coordinates of the pupil center calculated by the pupil coordinate calculation unit 42. Calculate the magnification of the image. The gaze point calculation unit 45 calculates a line-of-sight vector using the coordinates on the image calculated by the pupil / corneal reflection coordinate calculation unit 43 and the magnification rate calculated by the magnification rate calculation unit 44, and uses the line-of-sight vector as the line-of-sight vector. Based on this, the gaze direction of the subject is detected. The line of sight is a line connecting the center of the subject's pupil and the gaze point of the subject (the point the subject is looking at). The term “line of sight” includes the meaning (concept) of the starting point, the ending point, and the direction. The “line-of-sight vector” represents the direction of the line of sight of the subject as a vector, and is one form representing the “line-of-sight direction”. The output destination of the line-of-sight direction of the detection result of the image processing device 40 is not limited at all. For example, the image processing apparatus 40 may display the determination result as an image, graphic, or text on a monitor, store it in a storage device such as a memory or a database, or transfer it to another computer system via a communication network. You may send it.
[視線検出方法]
次に、図4〜7を用いて、視線検出装置1の動作について説明するとともに、本実施形態に係る視線検出方法について説明する。
[Gaze detection method]
Next, the operation of the visual line detection device 1 will be described with reference to FIGS. 4 to 7 and the visual line detection method according to the present embodiment will be described.
(処理の概要)
視線検出方法の概要を図4に示す。視線検出装置1による視線検出処理は外部からのユーザの指示入力に応じて開始され、まず、対象者検出装置20によって対象者の頭部の3次元座標が取得され、その3次元座標が画像処理装置40に出力される(ステップS01)。そして、画像処理装置40のカメラ/光源制御部41によって、狭視野カメラ30の姿勢及びズーム値が調整されるとともに、狭視野カメラ30のオートフォーカス機能が起動される。それと同時に、カメラ/光源制御部41によって、広視野カメラ10及び狭視野カメラ30の撮影タイミングと、光源13及び光源33の点灯タイミングとが制御される(ステップS02)。その後、画像処理装置40の瞳孔座標算出部42により、一対の広視野カメラ10から出力された画像データを基に、対象者の瞳孔中心の3次元座標が検出される(ステップS03)。次に、画像処理装置40の瞳孔/角膜反射座標算出部43により、狭視野カメラ30から出力された画像データを対象に、瞳孔中心の画像上の座標が検出される(ステップS04)。それとともに、瞳孔/角膜反射座標算出部43により、狭視野カメラ30から出力された画像データを対象に、2つの光源33による2つの角膜反射の画像上の座標が検出される(ステップS05)。その後、画像処理装置40の拡大率算出部44により、対象者の瞳孔中心の3次元座標と、2つの角膜反射の画像上の座標とを基に、狭視野カメラ30による画像の拡大率が算出される(ステップS06)。さらに、画像処理装置40の注視点算出部45によって、算出された拡大率と、瞳孔中心の画像上の座標と、2つの角膜反射のうちの少なくとも1つの角膜反射の画像上の座標とを基に、対象者の視線ベクトルが算出され、その視線ベクトルを基に対象者のディスプレイ装置50の表示画面上の注視点が検出および出力される(ステップS07)。
(Outline of processing)
An outline of the gaze detection method is shown in FIG. The line-of-sight detection processing by the line-of-sight detection device 1 is started in response to an external user instruction input. First, the subject detection device 20 acquires the three-dimensional coordinates of the subject's head, and the three-dimensional coordinates are subjected to image processing. It is output to the device 40 (step S01). Then, the camera / light source control unit 41 of the image processing apparatus 40 adjusts the attitude and zoom value of the narrow-field camera 30 and activates the auto-focus function of the narrow-field camera 30. At the same time, the camera / light source control unit 41 controls the photographing timing of the wide-field camera 10 and the narrow-field camera 30 and the lighting timing of the light source 13 and the light source 33 (step S02). Thereafter, the pupil coordinate calculation unit 42 of the image processing device 40 detects the three-dimensional coordinates of the center of the subject's pupil based on the image data output from the pair of wide-field cameras 10 (step S03). Next, the pupil / corneal reflection coordinate calculation unit 43 of the image processing device 40 detects the coordinates of the pupil center on the image for the image data output from the narrow-field camera 30 (step S04). At the same time, the pupil / corneal reflection coordinate calculation unit 43 detects the coordinates on the two corneal reflection images by the two light sources 33 for the image data output from the narrow-field camera 30 (step S05). Thereafter, the enlargement ratio calculation unit 44 of the image processing apparatus 40 calculates the enlargement ratio of the image by the narrow-field camera 30 based on the three-dimensional coordinates of the subject's pupil center and the coordinates on the two corneal reflection images. (Step S06). Further, based on the magnification ratio calculated by the gazing point calculation unit 45 of the image processing device 40, the coordinates on the pupil center image, and the coordinates on the image of at least one of the two corneal reflections. Then, the gaze vector of the subject is calculated, and the point of gaze on the display screen of the subject's display device 50 is detected and output based on the gaze vector (step S07).
上記のステップS01〜S02の処理は、所定の周期で繰り返し実行され、ステップS03〜S07の処理は、1フレーム毎に繰り返し実行される。そして、上記のステップS01〜S07の処理は、外部から処理終了の指示入力が受け付けられるまで、繰り返し実行される(ステップS08)。 The processes in steps S01 to S02 are repeatedly executed at a predetermined cycle, and the processes in steps S03 to S07 are repeatedly executed for each frame. Then, the processes in steps S01 to S07 are repeatedly executed until an instruction to end the process is received from the outside (step S08).
以下、視線検出処理について詳細に説明する。 Hereinafter, the line-of-sight detection process will be described in detail.
(瞳孔像の取得)
眼に入った光は網膜で乱反射し、反射光のうち瞳孔を通り抜けた光は強い指向性をもって光源へ戻る性質がある。カメラの開口部近くにある光源が発光した時にカメラを露光させると、網膜で反射した光の一部がその開口部に入るため、瞳孔が瞳孔周辺よりも明るく写った画像を取得することができる。この画像が明瞳孔画像である。これに対して、カメラの開口部から離れた位置にある光源が発光した時にカメラを露光させると、眼から戻ってきた光はカメラの開口部にほとんど戻らないため、瞳孔が暗く写った画像を取得することができる。この画像が暗瞳孔画像である。また、透過率が高い波長の光を眼に照射すると、網膜での光の反射が多くなるので瞳孔が明るく写り、透過率が低い波長の光を眼に照射すると、網膜での光の反射が少なくなるので瞳孔が暗く写る。
(Acquisition of pupil image)
Light that enters the eye is diffusely reflected by the retina, and light that passes through the pupil of the reflected light has a property of returning to the light source with strong directivity. When the camera is exposed when a light source near the opening of the camera emits light, a part of the light reflected by the retina enters the opening, so an image in which the pupil appears brighter than the periphery of the pupil can be acquired. . This image is a bright pupil image. On the other hand, when the camera is exposed when a light source located far from the camera opening emits light, the light returned from the eye hardly returns to the camera opening. Can be acquired. This image is a dark pupil image. In addition, when light with a wavelength with high transmittance is irradiated on the eye, the reflection of light on the retina increases, so the pupil appears bright, and when light with a wavelength with low transmittance is irradiated on the eye, the light is reflected on the retina. The pupil will appear dark because it will decrease.
本実施形態では、カメラ/光源制御部41は、広視野カメラ10の奇数フィールドに合わせて発光素子13aを点灯させて明瞳孔画像を撮影し、広視野カメラ10の偶数フィールドに合わせて発光素子13bを点灯させて暗瞳孔画像を撮影する。さらに、カメラ/光源制御部41は2つの広視野カメラ10の間で作動タイミングをわずかにずらし、個々の広視野カメラ10の露光時間はそのずらし時間以下に設定される。カメラ/光源制御部41は、各広視野カメラ10の露光時間中に、対応する発光素子13aおよび発光素子13bを交互に発光させることで、一方の広視野カメラ10の光源13からの光が他方の広視野カメラ10の画像に影響を与えないようにする(クロストークが起こらないようにする)。 In the present embodiment, the camera / light source control unit 41 illuminates the light emitting element 13a in accordance with the odd field of the wide-field camera 10 and takes a bright pupil image, and then matches the even field of the wide field camera 10 with the light emitting element 13b. Turn on the to take a dark pupil image. Furthermore, the camera / light source control unit 41 slightly shifts the operation timing between the two wide-field cameras 10, and the exposure time of each wide-field camera 10 is set to be equal to or less than the shift time. The camera / light source control unit 41 alternately emits the corresponding light emitting element 13a and light emitting element 13b during the exposure time of each wide field camera 10, so that the light from the light source 13 of one wide field camera 10 is the other. The image of the wide-field camera 10 is not affected (so that crosstalk does not occur).
同様に、カメラ/光源制御部41は、狭視野カメラ30の奇数フィールドに合わせてその狭視野カメラ30に取り付けられた発光素子33aを点灯させて明瞳孔画像を撮影し、狭視野カメラ30の偶数フィールドに合わせてその狭視野カメラ30に取り付けられた発光素子33bを点灯させて暗瞳孔画像を撮影する。さらに、カメラ/光源制御部41は、2つの狭視野カメラ30の間で作動タイミングを同期させるとともに、2つの狭視野カメラ30の露光時間中に、対応する発光素子33aおよび発光素子33bを交互に発光させる。すなわち、2つの狭視野カメラ30に取り付けられた2つの発光素子33aは、発光が同期するように制御され、2つの狭視野カメラ30に取り付けられた2つの発光素子33bは、発光が同期するように制御される。このとき、2つの狭視野カメラ30による明瞳孔画像の露光タイミングは、2台の広視野カメラ10の明瞳孔画像の露光タイミングからわずかにずらされ、2つの狭視野カメラ30による暗瞳孔画像の露光タイミングは、2台の広視野カメラ10の暗瞳孔画像の露光タイミングからわずかにずらされる。これにより、広視野カメラ10の光源13からの光が狭視野カメラ30の画像に影響を与えないようにする(クロストークが起こらないようにする)。 Similarly, the camera / light source control unit 41 shoots a bright pupil image by turning on the light emitting element 33 a attached to the narrow field camera 30 in accordance with the odd field of the narrow field camera 30. A dark pupil image is taken by turning on the light emitting element 33b attached to the narrow-field camera 30 in accordance with the field. Furthermore, the camera / light source control unit 41 synchronizes the operation timing between the two narrow-field cameras 30 and alternately switches the corresponding light-emitting elements 33 a and light-emitting elements 33 b during the exposure time of the two narrow-field cameras 30. Make it emit light. That is, the two light emitting elements 33a attached to the two narrow-field cameras 30 are controlled so that the light emission is synchronized, and the two light emitting elements 33b attached to the two narrow-field cameras 30 are synchronized with the light emission. Controlled. At this time, the exposure timing of the bright pupil images by the two narrow-field cameras 30 is slightly shifted from the exposure timing of the bright pupil images of the two wide-field cameras 10, and the dark pupil images are exposed by the two narrow-field cameras 30. The timing is slightly shifted from the exposure timing of the dark pupil images of the two wide-field cameras 10. This prevents light from the light source 13 of the wide-field camera 10 from affecting the image of the narrow-field camera 30 (so that crosstalk does not occur).
図5は、カメラ/光源制御部41によって制御された各カメラの露光タイミング及び各光源の点灯タイミングを示すタイミングチャートである。図5において、(a)は、広視野カメラ10Lの露光タイミング、(b)は、広視野カメラ10Lの発光素子13aの点灯タイミング、(c)は、広視野カメラ10Lの発光素子13bの点灯タイミング、(d)は、広視野カメラ10Rの露光タイミング、(e)は、広視野カメラ10Rの発光素子13aの点灯タイミング、(f)は、広視野カメラ10Rの発光素子13bの点灯タイミング、(g)は、2台の狭視野カメラ30の露光タイミング、(h)は、2台の狭視野カメラ30の発光素子33aの点灯タイミング、(i)は、2台の狭視野カメラ30の発光素子33bの点灯タイミングをそれぞれ示している。 FIG. 5 is a timing chart showing the exposure timing of each camera and the lighting timing of each light source controlled by the camera / light source control unit 41. In FIG. 5, (a), the exposure timing of the wide-field camera 10 L, (b), the lighting timing of the light emitting element 13a of the wide-field camera 10 L, (c), the light emitting element 13b of the wide-field camera 10 L lighting timing of, (d), the exposure timing of the wide-field camera 10 R, (e), the lighting timing of the light emitting element 13a of the wide-field camera 10 R, (f), the light emitting element 13b of the wide-field camera 10 R (G) is the exposure timing of the two narrow-field cameras 30, (h) is the lighting timing of the light emitting elements 33a of the two narrow-field cameras 30, and (i) is the two narrow-field cameras. The lighting timing of the light emitting element 33b of the camera 30 is shown.
(瞳孔の3次元座標の検出)
瞳孔座標算出部42は、一対の広視野カメラ10から、上記の一連の制御により得られる明瞳孔画像および暗瞳孔画像を取得する。得られる画像データは、奇数フィールド又は偶数フィールドのみに有効画素を有しているため、瞳孔座標算出部42は、隣接する有効画素の画素ラインの輝度平均をそのライン間の画素値に埋め込むことによって、明瞳孔画像または暗瞳孔画像を生成する。
(Detection of 3D coordinates of pupil)
The pupil coordinate calculation unit 42 acquires a bright pupil image and a dark pupil image obtained by the series of controls from the pair of wide-field cameras 10. Since the obtained image data has effective pixels only in the odd field or even field, the pupil coordinate calculation unit 42 embeds the luminance average of the pixel lines of adjacent effective pixels in the pixel values between the lines. Then, a bright pupil image or a dark pupil image is generated.
続いて、瞳孔座標算出部42は、1フレーム内の明瞳孔画像と暗瞳孔画像とから差分画像を生成する。次に、瞳孔座標算出部42は差分画像から瞳孔中心位置を特定する。具体的には、瞳孔座標算出部42は、前フレームと輝度が大きく変化しないことを利用して、前フレームで検出された瞳孔の輝度平均を利用して、その平均輝度の半分の値を閾値として差分画像を2値化し、ラベリングを行う。続いて、瞳孔座標算出部42は、瞳孔らしい面積、サイズ、面積比、正方形度、および瞳孔特徴量等の形状パラメータに基づいて、ラベルづけされた画素の連結成分の中から瞳孔を選択し、瞳孔中心の座標(位置)を算出する。 Subsequently, the pupil coordinate calculation unit 42 generates a difference image from the bright pupil image and the dark pupil image in one frame. Next, the pupil coordinate calculation unit 42 specifies the pupil center position from the difference image. Specifically, the pupil coordinate calculation unit 42 uses the luminance average of the pupil detected in the previous frame by using the fact that the luminance does not change greatly from the previous frame, and sets the half value of the average luminance as a threshold value. As a result, the difference image is binarized and labeled. Subsequently, the pupil coordinate calculation unit 42 selects a pupil from among the connected components of the labeled pixels, based on shape parameters such as the area, size, area ratio, squareness, and pupil feature amount that are likely to be pupils, The coordinates (position) of the pupil center are calculated.
続いて、瞳孔座標算出部42は瞳孔中心の3次元座標を求める。具体的には、瞳孔座標算出部42はステレオ法を用いて、2つの広視野カメラ10から取得した明瞳孔画像及び暗瞳孔画像を用いて算出した2つの瞳孔中心の座標から瞳孔中心の3次元位置を計算する。ステレオ法とは、カメラのレンズの焦点距離、画像中心、画素サイズなどの内部パラメータと、カメラの位置や姿勢等の外部パラメータとを予め計測しておき、複数台のステレオカメラで対象物を撮影したときに、画像中の点の座標を基に、内部パラメータおよび外部パラメータを用いてその点の空間上の位置を決定する方法である。具体的には、瞳孔座標算出部42は、2台の広視野カメラ10からの画像データを基に検出した画像座標系における瞳孔中心の座標と、3次元空間内の世界座標系における瞳孔中心の座標との関係式を、キャリブレーションデータを参照しながら取得する。次に、瞳孔座標算出部42は、関係式から世界座標系における対象者の瞳孔中心の3次元座標を求める。 Subsequently, the pupil coordinate calculation unit 42 obtains the three-dimensional coordinates of the pupil center. Specifically, the pupil coordinate calculation unit 42 uses the stereo method to calculate the three-dimensional pupil center from the coordinates of the two pupil centers calculated using the bright pupil image and the dark pupil image acquired from the two wide-field cameras 10. Calculate the position. The stereo method measures internal parameters such as the focal length of the camera lens, image center, and pixel size, and external parameters such as the camera position and orientation, and shoots an object using multiple stereo cameras. In this case, based on the coordinates of the point in the image, the position of the point in the space is determined using the internal parameter and the external parameter. Specifically, the pupil coordinate calculation unit 42 coordinates the pupil center in the image coordinate system detected based on the image data from the two wide-field cameras 10, and the pupil center in the world coordinate system in the three-dimensional space. A relational expression with the coordinates is acquired with reference to the calibration data. Next, the pupil coordinate calculation unit 42 obtains the three-dimensional coordinates of the pupil center of the subject in the world coordinate system from the relational expression.
(角膜反射の位置の検出)
瞳孔/角膜反射座標算出部43は、広視野カメラ10からの画像データの取得と同様にして、狭視野カメラ30から1フレーム毎に明瞳孔画像及び暗瞳孔画像を取得する。瞳孔/角膜反射座標算出部43は、入力された明瞳孔画像および暗瞳孔画像のそれぞれから、2つの光源33によって生じる2つの角膜反射を検出する。明瞳孔画像からは2つの発光素子33aによって生じる2つの角膜反射を検出し、暗瞳孔画像からは2つの発光素子33bによって生じる2つの角膜反射を検出する。具体的には、瞳孔/角膜反射座標算出部43は、1枚の画像に対してPタイル法による2値化とラベリングとを行い、形状や輝度平均などの情報に基づいてその画像から2つの角膜反射を選択する。このとき、2つの光源33の配置関係から2つの角膜反射は画像上で水平方向に並ぶと予測されるので、その幾何学的特徴を利用して角膜反射の候補位置から2つの角膜反射の位置を選択する。さらに、瞳孔/角膜反射座標算出部43は、選択された2つの角膜反射のうち、処理対象の画像が取得された狭視野カメラ30に取り付けられた光源33に対応する1つの角膜反射の位置に基づいて明瞳孔画像と暗瞳孔画像との間での角膜反射の移動量を位置補正量として計算する。続いて、瞳孔/角膜反射座標算出部43はそれらの画像間で角膜反射の位置が一致するように、前フィールド(i番目のフィールド)の画像を、次フィールド((i+1)番目のフィールド)の画像に位置補正量だけずらした上で、これら2画像から差分画像を生成する。そして、瞳孔/角膜反射座標算出部43は一致させた画像上の2つの角膜反射の座標(位置)を取得する。
(Detection of corneal reflection position)
The pupil / corneal reflection coordinate calculation unit 43 acquires the bright pupil image and the dark pupil image for each frame from the narrow field camera 30 in the same manner as the acquisition of the image data from the wide field camera 10. The pupil / corneal reflection coordinate calculation unit 43 detects two corneal reflections generated by the two light sources 33 from each of the input bright pupil image and dark pupil image. Two corneal reflections generated by the two light emitting elements 33a are detected from the bright pupil image, and two corneal reflections generated by the two light emitting elements 33b are detected from the dark pupil image. Specifically, the pupil / corneal reflection coordinate calculation unit 43 performs binarization and labeling by the P tile method on one image, and based on information such as the shape and the luminance average, Select corneal reflex. At this time, since the two corneal reflections are predicted to be arranged in the horizontal direction on the image based on the arrangement relationship of the two light sources 33, the position of the two corneal reflections from the candidate position of the corneal reflection using the geometric feature. Select. Further, the pupil / corneal reflection coordinate calculation unit 43 sets the position of one selected corneal reflection at the position of one corneal reflection corresponding to the light source 33 attached to the narrow-field camera 30 from which the processing target image is acquired. Based on this, the movement amount of corneal reflection between the bright pupil image and the dark pupil image is calculated as a position correction amount. Subsequently, the pupil / corneal reflection coordinate calculation unit 43 converts the image of the previous field (i-th field) into the next field ((i + 1) -th field) so that the positions of the corneal reflection match between the images. After shifting the position correction amount to the image, a difference image is generated from these two images. Then, the pupil / corneal reflection coordinate calculation unit 43 acquires two corneal reflection coordinates (positions) on the matched images.
このような処理により、瞳孔/角膜反射座標算出部43は明瞳孔画像と暗瞳孔画像との差分画像から、2つの角膜反射の画像座標系における座標(画像上の座標)を得る。さらに、瞳孔/角膜反射座標算出部43は、瞳孔座標算出部42の上述した処理と同様にして、狭視野カメラ30から得られた1フレーム毎の明瞳孔画像と暗瞳孔画像との差分画像を基に、瞳孔中心の画像上の座標を算出する。 By such processing, the pupil / corneal reflection coordinate calculation unit 43 obtains coordinates (coordinates on the image) in the image coordinate system of two corneal reflections from the difference image between the bright pupil image and the dark pupil image. Further, the pupil / corneal reflection coordinate calculation unit 43 obtains a difference image between the bright pupil image and the dark pupil image for each frame obtained from the narrow-field camera 30 in the same manner as the processing of the pupil coordinate calculation unit 42 described above. Based on this, the coordinates on the pupil center image are calculated.
(画像の拡大率の算出)
続いて、拡大率算出部44は、瞳孔/角膜反射座標算出部43によって算出された瞳孔中心の画像上の座標及び2つの角膜反射の画像上の座標を基に、狭視野カメラ30の画像の拡大率を算出する。図6は、拡大率算出部44による拡大率の算出原理を説明するための概念図である。このような拡大率の算出は、狭視野カメラ30Lから取得された画像データを基にした差分画像GL1上の瞳孔中心CPの座標及び2つの角膜反射G1,G2の座標と、瞳孔座標算出部42によって算出された瞳孔中心の3次元座標とを用いて実行される一方で、狭視野カメラ30Rから取得された画像データを基にした差分画像GR1上の瞳孔中心CPの座標及び2つの角膜反射G1,G2の座標と、瞳孔座標算出部42によって算出された瞳孔中心の3次元座標とを用いても実行される。以下では、差分画像GL1を用いた処理方法のみ説明する。
(Calculation of image magnification)
Subsequently, the enlargement ratio calculator 44 calculates the image of the narrow-field camera 30 based on the coordinates on the pupil center image calculated by the pupil / corneal reflection coordinate calculator 43 and the coordinates on the two corneal reflection images. Calculate the magnification. FIG. 6 is a conceptual diagram for explaining the calculation principle of the enlargement factor by the enlargement factor calculator 44. Such magnification calculation, and narrow-field camera 30 the pupil center C coordinates and two cornea reflection G 1 of P in the difference image G L1 based on a image data obtained from the L, G 2 coordinates, while being executed by using the three-dimensional coordinates of the pupil center calculated by the pupil coordinate calculating unit 42, the narrow field of view camera 30 the pupil center on the difference image G R1 based on a image data obtained from R C P And the coordinates of the two corneal reflections G 1 and G 2 and the three-dimensional coordinates of the pupil center calculated by the pupil coordinate calculation unit 42 are also executed. Only the processing method using the difference image G L1 will be described below.
まず、拡大率算出部44は、瞳孔中心の3次元座標から対象者の角膜球中心の3次元座標Cを推定し、既知である2つの光源13の3次元座標N1,N2を特定する。例えば、角膜球中心の3次元座標Cを瞳孔中心の3次元座標に近似し、2つの光源13の3次元座標N1,N2を補助記憶部103(図2)等から読み出す。ここで、対象者の眼球EB及び角膜球CBが2つの狭視野カメラ30から等距離に位置していると仮定し、||CN1||が||CN2||に等しいとすると、対称性から明らかなように、角膜球CB上の一方の角膜反射R2は∠N1CN2の2等分線上に存在することが分かる。以下の説明では、||Z||は、ベクトルZの大きさを示すものとする。 First, the enlargement ratio calculator 44 estimates the three-dimensional coordinates C of the subject's corneal sphere center from the three-dimensional coordinates of the pupil center, and specifies the known three-dimensional coordinates N 1 and N 2 of the two light sources 13. . For example, the three-dimensional coordinates C of the corneal sphere center are approximated to the three-dimensional coordinates of the pupil center, and the three-dimensional coordinates N 1 and N 2 of the two light sources 13 are read from the auxiliary storage unit 103 (FIG. 2) or the like. Here, it is assumed that the subject's eyeball EB and corneal sphere CB are located equidistant from the two narrow-field cameras 30, and if || CN 1 || is equal to || CN 2 || As is clear from the above, it can be seen that one corneal reflection R 2 on the corneal sphere CB exists on the bisector of ∠N 1 CN 2 . In the following description, || Z || indicates the size of the vector Z.
そのような幾何学的性質を利用すべく、拡大率算出部44は、上記2等分線の方向の単位ベクトルnを下記式(1);
により計算する。さらに、拡大率算出部44は、角膜球CB上の一方の角膜反射R2の3次元座標を示す位置ベクトルを下記式(2);
により計算する。ここで、dは角膜球CBの半径であり既知の値として与えられる。例えば、標準的な角膜球CBの半径としてd=7.7mmが設定される。
In order to use such a geometric property, the enlargement ratio calculation unit 44 sets the unit vector n in the direction of the bisector to the following formula (1);
Calculate according to Further, enlargement ratio calculating section 44, one of the corneal reflection R the following formula position vector representing the 3-dimensional coordinates of the two on the cornea sphere CB (2);
Calculate according to Here, d is the radius of the corneal sphere CB and is given as a known value. For example, d = 7.7 mm is set as the radius of the standard corneal sphere CB.
一方、角膜球CB上の他方の角膜反射R1は3次元座標N1の位置に配置された光源13によるものであり、角膜球中心C、角膜反射R1、及び3次元座標N1は同一直線上に存在する。よって、拡大率算出部44は、下記式(3);
により、他方の角膜反射R1の3次元座標を示す位置ベクトルを計算することができる。そして、拡大率算出部44は、2つの角膜反射の位置ベクトルR1,R2を基に、下記式(4);
を用いて、2つの角膜反射R1,R2の3次元座標間の距離(実寸距離)を算出する。
While the other cornea reflection R 1 on the cornea sphere CB are by a light source 13 arranged at the position of the three-dimensional coordinates N 1, cornea ball center C, the corneal reflection R 1, and 3-dimensional coordinates N 1 is the same It exists on a straight line. Therefore, the enlargement ratio calculation unit 44 has the following formula (3);
Thus, a position vector indicating the three-dimensional coordinates of the other corneal reflection R 1 can be calculated. Then, the enlargement ratio calculation unit 44 uses the two corneal reflection position vectors R 1 and R 2 to obtain the following formula (4);
Is used to calculate the distance (actual distance) between the three-dimensional coordinates of the two corneal reflections R 1 and R 2 .
次に、拡大率算出部44は、差分画像GL1上の2つの角膜反射G1,G2の座標を基に、2つの角膜反射G1,G2の間の画像上距離||G1G2||を算出する。そして、拡大率算出部44は、算出した実寸距離と、算出した画像上距離との比を計算することにより、下記式(5);
e=||R2−R1||/||G1G2|| (5)
により、狭視野カメラ30による画像の拡大率eを算出する。なお、予め角膜球半径dの値を7.7mmと与えたが、上記式(5)から分かるように、上記式(4)中のd(角膜球半径)の誤差はeで補償されるため,結果的にdは任意の正の値に設定されていても良いことになる。
Next, the enlargement factor calculation unit 44, based on the coordinates of the two corneal reflections G 1 and G 2 on the difference image G L1, the on-image distance || G 1 between the two corneal reflections G 1 and G 2. G 2 || is calculated. Then, the enlargement ratio calculation unit 44 calculates the ratio between the calculated actual distance and the calculated distance on the image, thereby obtaining the following formula (5);
e = || R 2 −R 1 || / || G 1 G 2 || (5)
Thus, the enlargement ratio e of the image by the narrow-field camera 30 is calculated. In addition, although the value of the corneal sphere radius d was given as 7.7 mm in advance, as can be seen from the above equation (5), the error of d (corneal sphere radius) in the above equation (4) is compensated by e. As a result, d may be set to any positive value.
(視線方向の検出)
注視点算出部45は、瞳孔/角膜反射座標算出部43によって算出された瞳孔中心の画像上の座標及び2つの角膜反射のうちの少なくとも1つの角膜反射の画像上の座標と、拡大率算出部44によって算出された拡大率eとを基に、対象者の視線方向を検出する。一例として、注視点算出部45は、瞳孔中心の画像上の座標、及び2つの角膜反射のうち処理対象の画像データが取得された狭視野カメラ30に取り付けられた光源33に対応する角膜反射の画像上の座標を用いて、視線方向を検出する。他の例として、注視点算出部45は、瞳孔中心の画像上の座標、及び2つの角膜反射の画像上の座標を用いて、視線方向を検出することもできる。図7は、注視点算出部45による1つの角膜反射を用いた視線方向の検出原理を説明するための概念図である。このような視線方向の算出は、狭視野カメラ30Lから取得された画像データを基にした差分画像を対象に実行される一方で、狭視野カメラ30Rから取得された画像データを基にした差分画像を対象にも実行される。図7に示すように、瞳孔中心の3次元位置Pに基づいて、狭視野カメラ30の開口部32の中心を原点Oとし、その原点Oと瞳孔中心Pを結ぶ基準線OPを法線とする仮想視点平面X’−Y’を考える。ここで、X’軸は、世界座標系のXW−ZW平面と仮想視点平面との交線に相当する。
(Gaze direction detection)
The gazing point calculation unit 45 includes coordinates on the pupil center image calculated by the pupil / corneal reflection coordinate calculation unit 43, coordinates on the image of at least one corneal reflection of the two corneal reflections, and an enlargement ratio calculation unit. The line-of-sight direction of the subject is detected based on the enlargement ratio e calculated by 44. As an example, the gazing point calculation unit 45 calculates the coordinates of the pupil center and the corneal reflection corresponding to the light source 33 attached to the narrow-field camera 30 from which the image data to be processed among the two corneal reflections is acquired. The line-of-sight direction is detected using the coordinates on the image. As another example, the gazing point calculation unit 45 can also detect the line-of-sight direction using the coordinates on the pupil center image and the coordinates on the two corneal reflection images. FIG. 7 is a conceptual diagram for explaining the principle of detection of the gaze direction using one corneal reflection by the gaze point calculation unit 45. Such calculation of gaze direction, while being executed in the target differential image based on the image data acquired from the narrow field of view camera 30 L, based on a image data obtained from the narrow field of view camera 30 R It is also executed on the difference image. As shown in FIG. 7, based on the three-dimensional position P of the pupil center, the center of the opening 32 of the narrow-field camera 30 is the origin O, and the reference line OP connecting the origin O and the pupil center P is the normal line. Consider a virtual viewpoint plane X′-Y ′. Here, the X ′ axis corresponds to the intersection of the X W -Z W plane of the world coordinate system and the virtual viewpoint plane.
詳細には、注視点算出部45は、画像面SGにおける角膜反射Gから瞳孔中心Pまでの角膜反射−瞳孔ベクトルrGを算出する。このとき、2つの角膜反射G1,G2のうちから処理対象の狭視野カメラ30に取り付けられている光源33によるものを選択し、選択した角膜反射の画像上の位置を角膜反射Gの位置とする。そして、注視点算出部45は、その角膜反射−瞳孔ベクトルrGに、拡大率算出部44によって算出された拡大率eを乗ずることにより、カメラの画像拡大率に対応して実寸に換算された角膜反射−瞳孔ベクトルrに変換する。このとき、各狭視野カメラ30をピンホールモデルと考え、角膜反射Gと瞳孔中心Pとが、仮想視点平面X’−Y’と平行な平面上にあると仮定する。つまり、注視点算出部45は、仮想視点平面X’−Y’と平行であって瞳孔中心Pの3次元座標を含む平面上において、瞳孔中心Pと角膜反射点Gの相対座標を角膜反射−瞳孔ベクトルrとして算出し、この角膜反射−瞳孔ベクトルrは角膜反射点Gから瞳孔中心Pまでの実距離を表す。 Specifically, the gazing point calculation unit 45 calculates a corneal reflection-pupil vector r G from the corneal reflection G to the pupil center P on the image plane S G. At this time, the light source 33 attached to the narrow-field camera 30 to be processed is selected from the two corneal reflections G 1 and G 2 , and the position of the selected corneal reflection on the image is the position of the corneal reflection G. And The gazing point calculation unit 45, the corneal reflection - the pupil vector r G, by multiplying the magnification e calculated by the magnification calculator 44, which is converted to actual size corresponding to the camera image magnification Convert to corneal reflection-pupil vector r. At this time, each narrow-field camera 30 is considered as a pinhole model, and it is assumed that the corneal reflection G and the pupil center P are on a plane parallel to the virtual viewpoint plane X′-Y ′. That is, the gaze point calculation unit 45 calculates the relative coordinates of the pupil center P and the corneal reflection point G on the plane parallel to the virtual viewpoint plane X′-Y ′ and including the three-dimensional coordinates of the pupil center P. It is calculated as a pupil vector r, and this corneal reflection-pupil vector r represents the actual distance from the corneal reflection point G to the pupil center P.
続いて、注視点算出部45は、対象者Aの仮想視点平面上の注視点Tに関して、直線OTの水平軸X’に対する傾きφが、角膜反射−瞳孔ベクトルrの画像面上の水平軸XGに対する傾きφ’と等しいと仮定する。さらに、注視点算出部45は、対象者Aの視線ベクトル、すなわち、瞳孔中心Pと注視点Tとを結ぶベクトルPTと、基準線OPとの成す角θを、ゲイン値kを含むパラメータを使った下記式(6)により計算する。
θ=f1(r)=k×|r−r0| (6)
Subsequently, the gazing point calculation unit 45 relates to the gazing point T on the virtual viewpoint plane of the subject A, and the inclination φ of the straight line OT with respect to the horizontal axis X ′ is the horizontal axis X on the image plane of the corneal reflection-pupil vector r. Assume that the gradient φ ′ with respect to G is equal to φ ′. Further, the gaze point calculation unit 45 uses an angle θ formed by the reference line OP and a line PT of the subject A, that is, a vector PT connecting the pupil center P and the gaze point T, and a parameter including the gain value k. It is calculated by the following formula (6).
θ = f 1 (r) = k × | r−r 0 | (6)
このような角度φ,θの計算は、瞳孔中心Pの存在する平面上の角膜反射−瞳孔ベクトルrを仮想視点平面上で拡大したものがそのまま対象者Aの注視点に対応するとみなすことにより行われる。より詳しくは、対象者Aの視線PTの基準線OPに対する角度θは、瞳孔中心と角膜反射の距離|r−r0|との間で線形関係を有すると仮定する。ここで、r0は、予め設定された原点補正ベクトルである。一般に人の視軸(瞳孔中心および中心窩を通る軸)と光軸(角膜からレンズの中心へと延びる法線)とはずれかあり、カメラを注視した際にも角膜反射と瞳孔中心とは一致しない。原点補正ベクトルr0は、角膜反射−瞳孔ベクトルrにおけるそのようなずれを補正するために用いられる。 Such calculation of the angles φ and θ is performed by assuming that an enlarged corneal reflection-pupil vector r on the plane where the pupil center P exists corresponds to the gazing point of the subject A as it is. Is called. More specifically, it is assumed that the angle θ of the visual line PT of the subject A with respect to the reference line OP has a linear relationship between the pupil center and the corneal reflection distance | r−r 0 |. Here, r 0 is a preset origin correction vector. Generally, the human visual axis (the axis passing through the center of the pupil and the fovea) and the optical axis (the normal extending from the cornea to the center of the lens) deviate, and the corneal reflection and the pupil center coincide even when the camera is observed. do not do. The origin correction vector r 0 is used to correct such a shift in the corneal reflection-pupil vector r.
角度θと距離|r−r0|とは線形近似できるという仮定、および二つの傾きφ,φ’が等しいという仮定を利用することで、(θ,φ)と(|r−r0|,φ’)とを1対1に対応させることができる。さらに、注視点算出部45は、狭視野カメラ30の開口部32の中心に設定された原点Oと、仮想視点平面上の注視点Tとを結ぶベクトルOTを角度φ,θを用いて計算する。最後に、注視点算出部45は視線ベクトルPTと視対象平面(ディスプレイ装置50の表示面)との交点である注視点Qを次式(7)で求める。
Q=αPT+P (7)
By using the assumption that the angle θ and the distance | r−r 0 | can be linearly approximated and the two inclinations φ and φ ′ are equal, (θ, φ) and (| r−r 0 |, φ ′) can be made to correspond one-to-one. Further, the gaze point calculation unit 45 calculates a vector OT connecting the origin O set at the center of the opening 32 of the narrow-field camera 30 and the gaze point T on the virtual viewpoint plane using the angles φ and θ. . Finally, the gazing point calculation unit 45 obtains the gazing point Q that is the intersection of the line-of-sight vector PT and the viewing plane (display surface of the display device 50) by the following equation (7).
Q = αPT + P (7)
以上説明した視線検出装置1、及びそれを用いた視線検出方法によれば、狭視野カメラ30によって撮像された対象者の眼の画像を基に、2つの光源33による2つの角膜反射の画像上の座標が検出され、それらの画像上の座標と、別途検出された対象者の瞳孔中心の3次元座標とを基に、狭視野カメラ30による画像の拡大率eが算出される。そして、算出した拡大率eと、対象者の瞳孔中心の画像上の座標と、2つの角膜反射のうちの少なくとも1つの角膜反射の画像上の座標とを基に対象者の視線の方向が算出される。これにより、狭視野カメラ30によって画像が取得された際の画像の拡大率を正確に計算することができ、その画像と拡大率を用いることで精度よく対象者の視線の方向を算出することができる。その結果、ズーム機能を備えたカメラを用いた際に視線方向を精度よく検出することができる。 According to the line-of-sight detection device 1 and the line-of-sight detection method using the line-of-sight detection device 1 described above, on the image of the two corneal reflections by the two light sources 33 based on the eye image of the subject imaged by the narrow-field camera 30 The image enlargement ratio e by the narrow-field camera 30 is calculated based on the coordinates on the images and the three-dimensional coordinates of the pupil center of the subject detected separately. Then, the direction of the line of sight of the subject is calculated based on the calculated magnification e, the coordinates on the subject's pupil center image, and the coordinates on the image of at least one of the two corneal reflections. Is done. Thereby, the magnification rate of the image when the image is acquired by the narrow-field camera 30 can be accurately calculated, and the direction of the line of sight of the subject can be accurately calculated by using the image and the magnification rate. it can. As a result, it is possible to accurately detect the line-of-sight direction when using a camera having a zoom function.
ズーム調整機能及びオートフォーカス機能を備えたカメラを用いて視線方向を検出する場合には、ズーム調整機能及びオートフォーカス機能を制御する2つの制御電圧とズームレンズの拡大率との関係を予め測定しておく方法もある。そして、2つの制御電圧をモニタして予め測定した関係を用いることでズームレンズの拡大率を測定することもできる。しかし、この方法を用いた場合は、画像取得時刻と制御電圧の測定タイミングとの間に時間的ずれが生じ、その結果、測定した拡大率に誤差が生じる。また、2つの機能は別々に動作しているため、2つの制御電圧によって測定したズームレンズの拡大率は実際とは異なり誤差を生じる場合がある。さらに、仮にズーム調整機能の制御電圧の時間的ずれを無くすことができても、オートフォーカス機能の制御電圧の時間的ずれがあれば、正確な拡大率を測定することはできない。その結果、注視点検出の精度が低下してしまう傾向にある。これに対して、本実施形態では、注視点の検出処理の対象となる画像を取得したタイミングでの画像の拡大率を正確に算出することができるので、高精度の注視点検出を実現することができる。 When a gaze direction is detected using a camera equipped with a zoom adjustment function and an autofocus function, the relationship between the two control voltages for controlling the zoom adjustment function and the autofocus function and the zoom lens magnification is measured in advance. There is also a way to keep it. The zoom lens magnification can also be measured by monitoring the two control voltages and using a previously measured relationship. However, when this method is used, a time lag occurs between the image acquisition time and the control voltage measurement timing, and as a result, an error occurs in the measured magnification. Further, since the two functions operate separately, the zoom lens magnification measured by the two control voltages may cause an error different from the actual one. Furthermore, even if the time lag of the control voltage of the zoom adjustment function can be eliminated, if the time lag of the control voltage of the autofocus function is present, an accurate enlargement ratio cannot be measured. As a result, the accuracy of gazing point detection tends to decrease. On the other hand, in this embodiment, it is possible to accurately calculate the enlargement ratio of the image at the timing when the image that is the target of the gazing point detection process is acquired, thereby realizing highly accurate gazing point detection. Can do.
ここで、本実施形態では、画像処理装置40は、2つの角膜反射の座標の間の画像上距離と、2つの光源33の位置と対象者の瞳孔中心の3次元座標とから計算される実寸距離との比を計算することにより、狭視野カメラ30による画像の拡大率を算出する。このようにすることで、狭視野カメラ30によって画像が取得された際の画像の拡大率を正確に計算することができる。 Here, in the present embodiment, the image processing apparatus 40 calculates the actual size calculated from the distance on the image between the two corneal reflection coordinates, the position of the two light sources 33, and the three-dimensional coordinates of the pupil center of the subject. By calculating the ratio with the distance, the enlargement ratio of the image by the narrow-field camera 30 is calculated. By doing in this way, the magnification of the image when the image is acquired by the narrow-field camera 30 can be accurately calculated.
また、本実施形態では、2つの光源33は、2つの光源33を結ぶ線が狭視野カメラ30を通るように配置されているので、2つの角膜反射の画像上の座標と対象者の瞳孔中心の3次元座標とを用いた拡大率の計算が単純化される。その結果、算出される画像の拡大率の正確性を向上させることができる。 In the present embodiment, since the two light sources 33 are arranged so that the line connecting the two light sources 33 passes through the narrow-field camera 30, the coordinates on the two cornea reflection images and the pupil center of the subject The calculation of the enlargement ratio using the three-dimensional coordinates is simplified. As a result, the accuracy of the calculated enlargement ratio of the image can be improved.
次に、本実施形態の視線検出装置1による注視点の検出結果を比較例と比較しつつ示す。図8は、複数のフレーム毎に連続して検出された注視点のX軸方向(水平方向)の座標の検出値を示しており、本実施形態による検出値と、拡大率の検出のために制御電圧を用いた比較例による検出値とを示している。図8(a)には、被験者Aを対象にした検出値を示し、図8(b)には、被験者Bを対象にした検出値を示している。また、図9には、被験者A,Bを対象にして9点を注視させた際の、注視点のX軸方向(水平方向)座標の標準偏差の平均と、注視点のY軸方向(垂直方向)座標の標準偏差の平均とを、本実施形態及び比較例に関して示している。 Next, a gaze point detection result by the line-of-sight detection device 1 of the present embodiment is shown in comparison with a comparative example. FIG. 8 shows the detected value of the coordinate in the X-axis direction (horizontal direction) of the gazing point continuously detected for each of a plurality of frames. For detection of the detected value and the enlargement ratio according to the present embodiment. The detected value by the comparative example using a control voltage is shown. FIG. 8A shows detection values for the subject A, and FIG. 8B shows detection values for the subject B. FIG. 9 also shows the average standard deviation of the X-axis direction (horizontal direction) coordinates of the gazing point and the Y-axis direction (vertical) of the gazing point when nine points are focused on the subjects A and B. The average of the standard deviation of the (direction) coordinates is shown for this embodiment and the comparative example.
これらの検出結果に示すように、被験者Aの検出値は、比較例では注視点座標が中期的に大きく振動しているのに対して、本実施形態では注視点座標の振動が小さく抑えられている。被験者Bの検出値に関しては、本実施形態と比較例との間で振動状態に大きな差は無かったが、本実施形態における検出値がより安定して一定の座標を示していることが分かった。また、本実施形態では比較例に比較して検出値の標準偏差が小さく抑えられていることもわかった。 As shown in these detection results, in the comparative example, the detected value of the subject A is greatly vibrated in the middle term in the comparative example, whereas in the present embodiment, the vibration of the gaze coordinate is suppressed small. Yes. Regarding the detection value of the subject B, there was no significant difference in the vibration state between the present embodiment and the comparative example, but it was found that the detection value in the present embodiment showed more stable and constant coordinates. . In addition, it was found that the standard deviation of the detected value is suppressed to be small in this embodiment as compared with the comparative example.
カメラの電動ズームレンズが常に動作している場合は、そのカメラから取り込んだ画像は対象者が前後に頭部の移動を繰り返しているように映る。これは、ズームの制御電圧及びフォーカスの制御電圧が理想的な電圧値に対して誤差がある状態で停止したり、理想的な電圧値を超えて停止したりするからである。また、電動ズームレンズのズームの制御電圧及びフォーカスの制御電圧と画像の拡大率との関係が常に適切な関係になっているとは限らず、フォーカスが変わってしまうことで拡大率も変化してしまうことも考えられる。比較例では、画像から得られる拡大率ではなく、制御電圧から誤差のある拡大率を求めてしまうことで、注視点座標の振動及び標準偏差が大きくなったと予想される。これに対して、本実施形態では、画像から得られる情報から拡大率を求めているため、振動及び標準偏差を小さくすることができると考えられる。 When the electric zoom lens of the camera is always operating, the image captured from the camera appears as if the subject has repeatedly moved the head back and forth. This is because the zoom control voltage and the focus control voltage stop in a state where there is an error with respect to the ideal voltage value, or stop after exceeding the ideal voltage value. In addition, the relationship between the zoom control voltage and the focus control voltage of the electric zoom lens and the image enlargement ratio is not always appropriate, and the enlargement ratio changes as the focus changes. It can also be considered. In the comparative example, it is expected that the vibration and the standard deviation of the gazing point coordinates are increased by obtaining the error enlargement ratio from the control voltage instead of the enlargement ratio obtained from the image. On the other hand, in this embodiment, since the enlargement ratio is obtained from information obtained from an image, it is considered that vibration and standard deviation can be reduced.
本発明は、上述した実施形態に限定されるものではない。上記実施形態の構成は様々変更されうる。 The present invention is not limited to the embodiment described above. The configuration of the above embodiment can be variously changed.
例えば、視線検出装置1は、対象者検出装置20を除いた構成が採用されてもよい。この場合は、画像処理装置40は、広視野カメラ10によって検出された瞳孔中心の3次元座標から対象者の頭部の3次元座標を求めてもよい。 For example, the line-of-sight detection device 1 may employ a configuration excluding the subject detection device 20. In this case, the image processing apparatus 40 may obtain the three-dimensional coordinates of the subject's head from the three-dimensional coordinates of the pupil center detected by the wide-field camera 10.
また、視線検出装置1は、広視野カメラ10を除いた構成が採用されてもよい。その場合は、対象者の瞳孔中心の3次元座標を検出するためのステレオカメラとして狭視野カメラ30が代用されてもよい。その場合、カメラの方向を、高速かつ高精度に検出できる角度センサがあればよい。 Further, the line-of-sight detection device 1 may employ a configuration excluding the wide-field camera 10. In that case, the narrow-field camera 30 may be substituted as a stereo camera for detecting the three-dimensional coordinates of the subject's pupil center. In that case, an angle sensor that can detect the direction of the camera at high speed and with high accuracy is sufficient.
また、視線検出装置1は、狭視野カメラ30を2台備える必要は無く1台のみ備えていてもよい。この場合は、狭視野カメラ30の開口部32近傍に設けられた一方の光源33と、狭視野カメラの開口部32から水平方向に離れて配置された他方の光源33とを備えていれば、狭視野カメラ30による画像の拡大率を算出することができる。この他方の光源33は、2つの発光素子33a,33bのうちいずれかにより構成されていればよい。 Further, the line-of-sight detection device 1 does not need to include two narrow-field cameras 30 and may include only one. In this case, if one light source 33 provided in the vicinity of the opening 32 of the narrow-field camera 30 and the other light source 33 disposed in the horizontal direction away from the opening 32 of the narrow-field camera are provided, The enlargement ratio of the image by the narrow-field camera 30 can be calculated. This other light source 33 should just be comprised by either of the two light emitting elements 33a and 33b.
さらに、視線検出装置1においては、2つの光源33及び狭視野カメラ30が水平方向に並んで配置される構成には限定されず、垂直方向に並んで配置されていてもよいし、斜めに並んで配置されてもよい。この場合も、2つの角膜反射の画像上の座標と対象者の瞳孔中心の3次元座標とを用いた拡大率の計算が単純化される。図10〜15には、光源の配置の変形例を示している。 Furthermore, the line-of-sight detection device 1 is not limited to the configuration in which the two light sources 33 and the narrow-field camera 30 are arranged in the horizontal direction, and may be arranged in the vertical direction or arranged obliquely. May be arranged. Also in this case, the calculation of the enlargement ratio using the coordinates on the two corneal reflection images and the three-dimensional coordinates of the subject's pupil center is simplified. 10 to 15 show modifications of the arrangement of the light sources.
図10に示す配置例では、光源33が取り付けられた2台のカメラ30の下方の両カメラ30から等距離の位置に補助光源33cが設けられる。このような補助光源33cを光源33と同時に点灯させてカメラ30で画像を取得するように制御する。このようにすることによって、仮に一方のカメラ30の画像において他方のカメラ30に取り付けた光源33の角膜反射が検出できなくても、補助光源33cの角膜反射と一方のカメラ30自体に取り付けた光源33の角膜反射との間の距離を利用することで、画像の拡大率eが算出できる。カメラ30が1台の場合もこのような補助光源33cを利用することで画像の拡大率eが算出できる。特に、正面から対象者の顔を写す場合には、まつげが角膜反射に重なることが多いため、一つの角膜反射が検出できなくても、別の角膜反射が検出できれば、拡大率eを検出できる。従って、このように光源の数を増やすことは有効である。図10に示すように、光源33を取り付けたカメラ30どうしの距離と、カメラ30と別途設けた補助光源33cとの間の距離は、異なっていてもよい。 In the arrangement example shown in FIG. 10, the auxiliary light source 33 c is provided at a position equidistant from both cameras 30 below the two cameras 30 to which the light source 33 is attached. Such an auxiliary light source 33c is turned on simultaneously with the light source 33, and control is performed so that the camera 30 acquires an image. By doing so, even if the corneal reflection of the light source 33 attached to the other camera 30 cannot be detected in the image of one camera 30, the corneal reflection of the auxiliary light source 33c and the light source attached to one camera 30 itself. By using the distance between 33 and the corneal reflection, the magnification e of the image can be calculated. Even when the number of cameras 30 is one, the magnification e of the image can be calculated by using such an auxiliary light source 33c. In particular, when the subject's face is photographed from the front, the eyelash often overlaps the corneal reflection, so even if one corneal reflection cannot be detected, the magnification e can be detected if another corneal reflection can be detected. . Therefore, it is effective to increase the number of light sources in this way. As shown in FIG. 10, the distance between the cameras 30 to which the light source 33 is attached and the distance between the camera 30 and the auxiliary light source 33c provided separately may be different.
また、図11に示すように、光源33を取り付けた2台のカメラ30と同一直線上に、任意の数の補助光源33d,33eを配置してもよい。この場合も、カメラ30に取り付けた光源といずれかの補助光源33d,33eとを同時に点灯させ、その際に撮像された画像上の2つの角膜反射間の距離を利用すればよい。 As shown in FIG. 11, any number of auxiliary light sources 33d and 33e may be arranged on the same straight line as the two cameras 30 to which the light source 33 is attached. Also in this case, the light source attached to the camera 30 and any one of the auxiliary light sources 33d and 33e may be turned on at the same time, and the distance between the two corneal reflections on the image taken at that time may be used.
さらに、図12〜15に示すように2台のカメラ30に対する補助光源33f〜33qの配置は様々な態様を取りうるし、補助光源の個数は様々変更され得る。また、カメラ30の台数も2台以上であってもよい。 Furthermore, as shown in FIGS. 12 to 15, the arrangement of the auxiliary light sources 33 f to 33 q for the two cameras 30 can take various forms, and the number of auxiliary light sources can be changed variously. Further, the number of cameras 30 may be two or more.
また、視線検出装置1においては、狭視野カメラ30に取り付けられた光源33は必須ではなく、狭視野カメラ30に離れて配置された2以上の光源を備えていてもよい。図16及び図17には、狭視野カメラ30及び光源の配置の変形例を示している。図16に示すように、2つの光源133a,133bを結ぶ直線上に、具体的には、2つの光源133a,133bの中点の位置に狭視野カメラ30の光軸が通るように配置されている。また、図17に示すように、光源133c,133dの組、及び光源133e,133fの組が、それらを結ぶ直線が斜めに狭視野カメラ30の光軸を通るように、より具体的にはそれらの中点が狭視野カメラ30の光軸を通るように配置されていてもよい。このような光源133c,133dの組、及び光源133e,133fの組は、それらの組の2つの光源間の距離が異なるように配置されていてもよい。 In the line-of-sight detection device 1, the light source 33 attached to the narrow-field camera 30 is not essential, and may include two or more light sources arranged away from the narrow-field camera 30. 16 and 17 show modified examples of the arrangement of the narrow-field camera 30 and the light source. As shown in FIG. 16, on the straight line connecting the two light sources 133a and 133b, specifically, the optical axis of the narrow-field camera 30 passes through the middle point of the two light sources 133a and 133b. Yes. As shown in FIG. 17, more specifically, the pair of light sources 133c and 133d and the pair of light sources 133e and 133f are arranged so that the straight line connecting them obliquely passes through the optical axis of the narrow-field camera 30. The middle point may be arranged so as to pass through the optical axis of the narrow-field camera 30. Such a set of the light sources 133c and 133d and a set of the light sources 133e and 133f may be arranged such that the distance between the two light sources in the set is different.
上記の光源の配置例を採用した場合においても、画像処理装置40の拡大率算出部44は、画像の拡大率eを算出することができる。図18に示すように、狭視野カメラ30の光軸から等距離の位置に2つの光源N3,N4が配置されているとする。2つの光源N3,N4の組は、図16の2つの光源133a,133bの組、図17の光源133c,133dの組、又は光源133e,133fの組に相当する。 Even when the above arrangement example of the light source is adopted, the enlargement ratio calculation unit 44 of the image processing apparatus 40 can calculate the enlargement ratio e of the image. As shown in FIG. 18, it is assumed that two light sources N 3 and N 4 are arranged at positions equidistant from the optical axis of the narrow-field camera 30. The set of two light sources N 3 and N 4 corresponds to the set of two light sources 133a and 133b in FIG. 16, the set of light sources 133c and 133d in FIG. 17, or the set of light sources 133e and 133f.
狭視野カメラ30から見た光源N3と光源N4の角膜反射の位置をそれぞれR3とR4とすると、角膜反射R3は狭視野カメラ30と角膜球中心Cを通る直線と光源N3と角膜球中心Cを通る直線の二等分線上に存在する。同様に、角膜反射R4は狭視野カメラ30と角膜球中心Cを通る直線と光源N4と角膜球中心Cを通る直線の二等分線上に存在する。ただし、狭視野カメラ30と対象者との距離がある程度大きく、||CN3||=||CM||、かつ||CN4||=||CM||の関係が成立するとする。Mは、狭視野カメラ30の3次元位置である。このとき、それら二等分線の単位方向ベクトルをそれぞれ、n3及びn4とすると、角膜反射R3,R4は、下記式(8)、(9)
R3=C+d・n3 (8)
R4=C+d・n4 (9)
と表せる。
If the corneal reflection positions of the light source N 3 and the light source N 4 viewed from the narrow-field camera 30 are R 3 and R 4 , respectively, the corneal reflection R 3 is a straight line passing through the narrow-field camera 30 and the corneal sphere center C and the light source N 3. And a bisector of a straight line passing through the corneal sphere center C. Similarly, the corneal reflection R 4 exists on a bisector of a straight line passing through the narrow-field camera 30 and the corneal sphere center C and a straight line passing through the light source N 4 and the corneal sphere center C. However, it is assumed that the distance between the narrow-field camera 30 and the subject is somewhat large, and the relationship || CN 3 || = || CM || and || CN 4 || = || CM || M is the three-dimensional position of the narrow-field camera 30. At this time, if the unit direction vectors of these bisectors are n 3 and n 4 , respectively, the corneal reflections R 3 and R 4 are expressed by the following equations (8) and (9).
R 3 = C + d · n 3 (8)
R 4 = C + d · n 4 (9)
It can be expressed.
拡大率算出部44は、式(1)と同様にして、下記式(10)、(11)を用いて単位方向ベクトルn3,n4を算出する。
そして、||CN3||=||CN4||とみなすことにより、拡大率算出部44は、下記式(12)を用いて、2つの角膜反射間の距離を算出することができ、この距離を基に画像の拡大率eを計算できる。
ここで、狭視野カメラ30が角度的に光源N3もしくは光源N4に近いときも同様に計算できる。つまり、狭視野カメラ30の光軸が2つの光源を結ぶ直線上のどこにあったとしても、2つの角膜反射の間の距離は式(12)で与えられることに変わりはない。
The enlargement factor calculation unit 44 calculates the unit direction vectors n 3 and n 4 using the following formulas (10) and (11) in the same manner as the formula (1).
Then, by assuming that || CN 3 || = || CN 4 ||, the enlargement ratio calculating unit 44 can calculate the distance between two corneal reflections using the following equation (12). Based on this distance, the image enlargement ratio e can be calculated.
Here, the same calculation can be performed when the narrow-field camera 30 is angularly close to the light source N 3 or the light source N 4 . That is, wherever the optical axis of the narrow-field camera 30 is on the straight line connecting the two light sources, the distance between the two corneal reflections is still given by equation (12).
さらに、図16及び図17の光源の配置例を採用した場合にも、画像処理装置40の注視点算出部45は、視線方向を検出することができる。すなわち、光源N3,N4による2つの角膜反射の画像上の座標を基に、狭視野カメラ30に取り付けられたと仮定した光源の座標を推定することができる。詳細には、光源N3,N4による2つの角膜反射の中点座標を狭視野カメラ30に取り付けられたと仮定した光源の座標として推定することができる。そして、注視点算出部45は、推定した光源の座標を用いて、上述した視線方向の検出方法と同様にして、視線方向を検出することができる。ここでは、瞳孔を暗瞳孔画像から検出する方法が採用された場合に、2つの角膜反射も暗瞳孔画像から検出される。従って、狭視野カメラ30に取り付ける光源が不要になるだけでなく、狭視野カメラ30から離れた位置に光源を配置することで強い暗瞳孔効果が得られ瞳孔が検出しやすくなる。 Furthermore, even when the light source arrangement examples of FIGS. 16 and 17 are employed, the gaze point calculation unit 45 of the image processing apparatus 40 can detect the line-of-sight direction. That is, the coordinates of the light source assumed to be attached to the narrow-field camera 30 can be estimated based on the coordinates on the two corneal reflection images by the light sources N 3 and N 4 . Specifically, the midpoint coordinates of the two corneal reflections by the light sources N 3 and N 4 can be estimated as the coordinates of the light source assumed to be attached to the narrow-field camera 30. And the gaze point calculation part 45 can detect a gaze direction like the detection method of the gaze direction mentioned above using the coordinate of the estimated light source. Here, when the method of detecting the pupil from the dark pupil image is adopted, two corneal reflections are also detected from the dark pupil image. Therefore, not only a light source attached to the narrow-field camera 30 is unnecessary, but also a strong dark pupil effect is obtained by arranging the light source at a position away from the narrow-field camera 30, and the pupil is easily detected.
さらに、図19には、光源の取り付けていない狭視野カメラ30を2台使用する場合の光源の配置の他の変形例を示した。すなわち、2個の光源133g、133hを結ぶ直線上に2台の狭視野カメラ30が配置されている。この場合にも、視線を検出するためには、各狭視野カメラ30毎に得られた画像から、各狭視野カメラ30に光源が取り付けてあると仮定したときのその光源による角膜反射の出現位置を推定して、その位置を利用して視線を検出する。図19の場合は、対象者から向かって左から、光源133g、狭視野カメラ30L、狭視野カメラ30R、光源133hが等間隔に並べられている。例えば、左の狭視野カメラ30Lは2つの光源133g,133hの間を1:2の比で分割した位置に配置されているため、検出される2つの角膜反射の間を2:1に内分する位置を画像上で求め、その位置を利用して視線検出に利用する。なお、狭視野カメラ30はパンチルト機構31に取り付けられており、その位置が変動する。画像処理装置40の注視点算出部45は、そのことを考慮して、視線を計算する際の狭視野カメラ30の位置を求め、その位置に基づいた内分比を計算することにより、より高い精度で視線方向が得られる。 Further, FIG. 19 shows another modification example of the arrangement of the light sources when two narrow-field cameras 30 to which no light sources are attached are used. That is, two narrow-field cameras 30 are arranged on a straight line connecting the two light sources 133g and 133h. Also in this case, in order to detect the line of sight, the appearance position of the corneal reflection by the light source when it is assumed that the light source is attached to each narrow field camera 30 from the image obtained for each narrow field camera 30. And the line of sight is detected using the position. In the case of FIG. 19, the left from a subject, a light source 133 g, narrow-field camera 30 L, the narrow field of view camera 30 R, the light source 133h are arranged at equal intervals. For example, the left narrow-field camera 30 L are two light sources 133 g, between 133 h 1: since it is arranged to the divided position 2 ratio, between the two corneal reflection to be detected 2: inner 1 The position to be divided is obtained on the image, and the position is used for eye gaze detection. Note that the narrow-field camera 30 is attached to a pan / tilt mechanism 31, and its position varies. The gazing point calculation unit 45 of the image processing device 40 takes this into consideration, obtains the position of the narrow-field camera 30 when calculating the line of sight, and calculates the internal ratio based on the position to obtain a higher value. Gaze direction can be obtained with accuracy.
また、図20には、2つの光源N3,N4を結ぶ直線上に狭視野カメラ30の光軸が存在するが、その光軸が2つの光源N3,N4の間から外側に位置している場合を図示している。この場合も、図18の場合と同様に、上記式(12)によって2つの角膜反射間の距離が算出できる。 In FIG. 20, the optical axis of the narrow-field camera 30 exists on a straight line connecting the two light sources N 3 and N 4 , and the optical axis is located outside between the two light sources N 3 and N 4. The case is shown. Also in this case, as in the case of FIG. 18, the distance between the two corneal reflections can be calculated by the above equation (12).
1…視線検出装置、10,10L,10R…広視野カメラ、12…開口部、13…光源、30,30L,30R…狭視野カメラ、32…開口部、33…光源、40…画像処理装置、41…カメラ/光源制御部、42…瞳孔座標算出部(3次元位置検出手段)、43…瞳孔/角膜反射座標算出部(視線算出手段)、44…拡大率算出部(視線算出手段)、45…注視点算出部(視線算出手段)、50…ディスプレイ装置、A…対象者。 1 ... visual axis detecting device, 10, 10 L, 10 R ... wide-view camera, 12 ... opening, 13 ... light source, 30, 30 L, 30 R ... narrow-field camera, 32 ... opening, 33 ... light source, 40 ... Image processing apparatus 41... Camera / light source control unit 42. Pupil coordinate calculation unit (three-dimensional position detection unit) 43. Pupil / corneal reflection coordinate calculation unit (line-of-sight calculation unit) 44. Enlargement rate calculation unit (line-of-sight calculation) Means), 45 ... gaze point calculation unit (line-of-sight calculation means), 50 ... display device, A ... subject.
Claims (6)
前記対象者の眼を撮像する少なくも1台のカメラと、
前記対象者に向けられた異なる位置に配置された第1及び第2の光源と、
前記カメラによって撮像された前記眼の画像を基に、前記対象者の瞳孔の前記画像上の座標と、前記第1及び第2の光源による第1及び第2の角膜反射の前記画像上の座標とを検出し、前記瞳孔の前記座標と前記第1角膜反射及び前記第2の角膜反射のうちの少なくとも1つの前記座標とを基に前記対象者の視線の方向を算出する視線算出手段とを備え、
前記視線算出手段は、前記第1の角膜反射の前記座標と前記第2の角膜反射の前記座標と前記眼の3次元位置とを基に前記カメラによる画像の拡大率を算出し、前記拡大率を基に前記視線の方向を算出する、
視線検出装置。 Three-dimensional position detecting means for detecting the three-dimensional position of the eye by imaging the eye of the subject;
At least one camera for imaging the eye of the subject;
First and second light sources disposed at different positions directed to the subject;
Based on the image of the eye imaged by the camera, the coordinates of the subject's pupil and the coordinates of the first and second corneal reflections by the first and second light sources on the image Gaze calculation means for calculating the direction of the gaze of the subject based on the coordinates of the pupil and at least one of the coordinates of the first corneal reflection and the second corneal reflection. Prepared,
The line-of-sight calculation means calculates an enlargement ratio of the image by the camera based on the coordinates of the first corneal reflection, the coordinates of the second corneal reflection, and the three-dimensional position of the eye, and the enlargement ratio Calculate the direction of the line of sight based on
Gaze detection device.
請求項1記載の視線検出装置。 The line-of-sight calculation means calculates an image distance between the coordinates of the first corneal reflection and the coordinates of the second corneal reflection, and based on the image distance and the three-dimensional position of the eye. To calculate the magnification of the image by the camera,
The gaze detection apparatus according to claim 1.
請求項2記載の視線検出装置。 The line-of-sight calculation means is an actual size from the first corneal reflection to the second corneal reflection calculated from the distance on the image, the positions of the first and second light sources, and the three-dimensional position of the eye. By calculating the ratio with the distance, the enlargement ratio of the image by the camera is calculated.
The gaze detection apparatus according to claim 2.
請求項1〜3のいずれか1項に記載の視線検出装置。 The line-of-sight calculation means calculates a corneal reflection-pupil vector from the coordinates of the first corneal reflection or the second corneal reflection to the coordinates of the pupil, and adds the corneal reflection-pupil vector to the corneal reflection-pupil vector. By multiplying by an enlargement factor, an angle formed by the direction of the line of sight from a line connecting the camera and the pupil is calculated.
The gaze detection apparatus according to any one of claims 1 to 3.
請求項1〜4のいずれか1項に記載の視線検出装置。 The first and second light sources are arranged such that a line connecting the first and second light sources passes through the camera.
The line-of-sight detection device according to any one of claims 1 to 4.
前記視線検出装置が、前記カメラによって撮像された前記眼の画像を基に、前記対象者の瞳孔の前記画像上の座標と、前記第1及び第2の光源による第1及び第2の角膜反射の前記画像上の座標とを検出し、前記瞳孔の前記座標と前記第1角膜反射及び前記第2の角膜反射のうちの少なくとも1つの前記座標とを基に前記対象者の視線の方向を算出する視線算出ステップとを備え、
前記視線算出ステップでは、前記第1の角膜反射の前記座標と前記第2の角膜反射の前記座標と前記眼の3次元位置とを基に前記カメラによる画像の拡大率を算出し、前記拡大率を基に前記視線の方向を算出する、
視線検出方法。 At least one camera that captures the eye of the subject, first and second light sources arranged at different positions directed to the subject, and eye gaze detection means for calculating the direction of the eye of the subject A line-of-sight detection device comprising: a three-dimensional position detection step of detecting a three-dimensional position of the eye by imaging the eye of the subject;
Based on the image of the eye captured by the camera, the line-of-sight detection device has coordinates on the image of the subject's pupil and first and second corneal reflections by the first and second light sources. On the image, and calculates the direction of the line of sight of the subject based on the coordinates of the pupil and at least one of the coordinates of the first corneal reflection and the second corneal reflection. And a line-of-sight calculation step.
In the line-of-sight calculation step, an enlargement ratio of the image by the camera is calculated based on the coordinates of the first corneal reflection, the coordinates of the second corneal reflection, and the three-dimensional position of the eye, and the enlargement ratio Calculate the direction of the line of sight based on
Gaze detection method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015235889A JP6780161B2 (en) | 2015-12-02 | 2015-12-02 | Line-of-sight detection device and line-of-sight detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015235889A JP6780161B2 (en) | 2015-12-02 | 2015-12-02 | Line-of-sight detection device and line-of-sight detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017102731A true JP2017102731A (en) | 2017-06-08 |
JP6780161B2 JP6780161B2 (en) | 2020-11-04 |
Family
ID=59016596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015235889A Active JP6780161B2 (en) | 2015-12-02 | 2015-12-02 | Line-of-sight detection device and line-of-sight detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6780161B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020081756A (en) * | 2018-11-30 | 2020-06-04 | 国立大学法人静岡大学 | Face image processing device, image observation system, and pupil detection system |
CN112101064A (en) * | 2019-06-17 | 2020-12-18 | 北京七鑫易维科技有限公司 | Sight tracking method, device, equipment and storage medium |
CN114500839A (en) * | 2022-01-25 | 2022-05-13 | 青岛根尖智能科技有限公司 | Vision holder control method and system based on attention tracking mechanism |
-
2015
- 2015-12-02 JP JP2015235889A patent/JP6780161B2/en active Active
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020081756A (en) * | 2018-11-30 | 2020-06-04 | 国立大学法人静岡大学 | Face image processing device, image observation system, and pupil detection system |
JP7269617B2 (en) | 2018-11-30 | 2023-05-09 | 国立大学法人静岡大学 | Face image processing device, image observation system, and pupil detection system |
CN112101064A (en) * | 2019-06-17 | 2020-12-18 | 北京七鑫易维科技有限公司 | Sight tracking method, device, equipment and storage medium |
CN114500839A (en) * | 2022-01-25 | 2022-05-13 | 青岛根尖智能科技有限公司 | Vision holder control method and system based on attention tracking mechanism |
CN114500839B (en) * | 2022-01-25 | 2024-06-07 | 青岛根尖智能科技有限公司 | Visual cradle head control method and system based on attention tracking mechanism |
Also Published As
Publication number | Publication date |
---|---|
JP6780161B2 (en) | 2020-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5858433B2 (en) | Gaze point detection method and gaze point detection device | |
JP5915981B2 (en) | Gaze point detection method and gaze point detection device | |
JP6631951B2 (en) | Eye gaze detection device and eye gaze detection method | |
JP6963820B2 (en) | Line-of-sight detector | |
JP5467303B1 (en) | Gaze point detection device, gaze point detection method, personal parameter calculation device, personal parameter calculation method, program, and computer-readable recording medium | |
JP6548171B2 (en) | Pupil detection system, gaze detection system, pupil detection method, and pupil detection program | |
JP7030317B2 (en) | Pupil detection device and pupil detection method | |
US11624907B2 (en) | Method and device for eye metric acquisition | |
JPWO2017026371A1 (en) | Head mounted display | |
CN108697321B (en) | Device for gaze tracking within a defined operating range | |
JP6324119B2 (en) | Rotation angle calculation method, gazing point detection method, information input method, rotation angle calculation device, gazing point detection device, information input device, rotation angle calculation program, gazing point detection program, and information input program | |
JP6870474B2 (en) | Gaze detection computer program, gaze detection device and gaze detection method | |
JP2016099759A (en) | Face detection method, face detection device, and face detection program | |
JP6780161B2 (en) | Line-of-sight detection device and line-of-sight detection method | |
JP6452236B2 (en) | Eyeball identification device and eyeball identification method | |
JP7046347B2 (en) | Image processing device and image processing method | |
JP6288770B2 (en) | Face detection method, face detection system, and face detection program | |
KR101817436B1 (en) | Apparatus and method for displaying contents using electrooculogram sensors | |
JP6430813B2 (en) | Position detection apparatus, position detection method, gazing point detection apparatus, and image generation apparatus | |
JP6370168B2 (en) | Illumination imaging apparatus and line-of-sight detection apparatus including the same | |
JP2021179815A (en) | Sight line measurement calibration method and apparatus using change of pupil diameter, and sight line measuring apparatus and camera apparatus | |
JP2016057906A (en) | Measurement method and system of viewpoint position | |
US8967803B2 (en) | Image capturing apparatus and auto-focusing method thereof | |
JP2023063760A (en) | identification device | |
JP2014228949A (en) | Information processing device and processing execution method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191021 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200709 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6780161 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |