JP2019098024A - Image processing device and method - Google Patents

Image processing device and method Download PDF

Info

Publication number
JP2019098024A
JP2019098024A JP2017234588A JP2017234588A JP2019098024A JP 2019098024 A JP2019098024 A JP 2019098024A JP 2017234588 A JP2017234588 A JP 2017234588A JP 2017234588 A JP2017234588 A JP 2017234588A JP 2019098024 A JP2019098024 A JP 2019098024A
Authority
JP
Japan
Prior art keywords
inclination
right eyes
line
dimensional coordinates
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017234588A
Other languages
Japanese (ja)
Other versions
JP7046347B2 (en
Inventor
嘉伸 海老澤
Yoshinobu Ebisawa
嘉伸 海老澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2017234588A priority Critical patent/JP7046347B2/en
Publication of JP2019098024A publication Critical patent/JP2019098024A/en
Application granted granted Critical
Publication of JP7046347B2 publication Critical patent/JP7046347B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

To accurately and stably detect a sight line direction of a subject.SOLUTION: A sight line detection device 1 comprises: a camera 10 for imaging left and right pupils P, Pof an object person A and surrounding parts thereof, for acquiring eye images; and a calculation part 23 for calculating any optic axis of left and right pupils P, Pbased on the eye images, and correcting the optic axis to a preset deviation angle Δθand deviation direction Δφfor calculating a visual axis of the object person A, in which the calculation part 23 calculates an inclination of a line connecting three-dimensional coordinates of the left and right pupils P, Pin view along a reference line which is any of the calculated optic axis and calculated sight line, then corrects the deviation direction Δφbased on the inclination and calculates a visual axis using the corrected deviation direction Δφ.SELECTED DRAWING: Figure 4

Description

本発明は、人の画像を処理する画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for processing an image of a person.

近年、近赤外光源等の光源とビデオカメラを使用した視線検出装置が普及しつつある(例えば、下記特許文献1参照)。このような視線検出装置では、「瞳孔−角膜反射法」と呼ばれる検出方法が用いられている。「瞳孔−角膜反射法」とは、ビデオカメラに対する被験者の眼の光軸の向きの変化によりビデオカメラで得られる画像中の瞳孔と角膜反射との位置関係が変化することを用いて、視線方向を検出する方法である。   In recent years, a gaze detection apparatus using a light source such as a near-infrared light source and a video camera is becoming popular (for example, see Patent Document 1 below). In such a gaze detection apparatus, a detection method called "pupil-corneal reflection method" is used. The “pupil-corneal reflex method” refers to the change in the positional relationship between the pupil and the corneal reflection in the image obtained by the video camera due to the change in the direction of the optical axis of the subject's eye with respect to the video camera. Is a method of detecting

一般に、カメラによって取得される画像によって検出される眼球の光軸(例えば、眼球の対象軸)と、注視点と眼球の中心点(例えば、瞳孔中心、眼球中心)とを通る視軸とには、ずれが存在する。このずれは、個人間あるいは左右の眼球間で異なっている。上記の装置では、被験者の光軸と実際の注視点を通る視軸とのずれとして原点補正ベクトルをあらかじめ計算し、被験者の頭部が傾いたときに原点補正ベクトルの視軸周りの回転角度が被験者の左眼と右眼で同一であるという拘束条件に基づいて、両眼の注視点が所定平面上で近くなるように回転角度を求めることにより原点補正ベクトルを補正し、その原点補正ベクトルを用いて被験者の視線の方向を計算する。   Generally, for the optical axis of the eye detected by the image acquired by the camera (for example, the target axis of the eye) and the visual axis passing through the gaze point and the central point of the eye (for example, pupil center or eye center) There is a gap. This deviation is different between individuals or between the left and right eyeballs. In the above apparatus, the origin correction vector is calculated in advance as a deviation between the subject's optical axis and the visual axis passing through the actual fixation point, and when the subject's head is inclined, the rotation angle of the origin correction vector around the visual axis is Based on the constraint that the left eye and right eye of the subject are identical, the origin correction vector is corrected by finding the rotation angle so that the fixation points of both eyes are close on a predetermined plane, and the origin correction vector is Use to calculate the subject's gaze direction.

一方、原点補正ベクトルを異なる手法で補正が可能な視線検出装置も知られている(下記特許文献2参照。)。この装置においては、被験者の眼を撮像することで得られた瞳孔画像を用いて瞳孔の輪郭を算出し、その輪郭に基づいて被験者の眼球の視軸周りの回転角度を算出し、この回転角度を用いて原点補正ベクトルを補正することを行う。   On the other hand, there is also known a gaze detection apparatus capable of correcting the origin correction vector by a different method (see Patent Document 2 below). In this device, the pupil contour is calculated using a pupil image obtained by imaging the subject's eye, and the rotation angle of the subject's eye around the visual axis is calculated based on the contour, and this rotation angle Use to correct the origin correction vector.

特開2015−169959号公報JP, 2015-169959, A 特開2016−24616号公報JP, 2016-24616, A

しかしながら、上述した特許文献1に記載の装置では、被験者の両眼の所定平面上における注視点が輻輳開放眼球運動等によって離れた場合、眼球の回転角度の状態が正しく認識できず原点補正ベクトルの補正値の解が安定せず、検出する視線が不安定になる傾向があった。また、上述した特許文献2に記載の装置では、カメラの分解能の影響で瞳孔の輪郭の形状を精度よく検出できなかった場合、または、被験者の眼球がカメラに対して斜めを向いている場合には、眼球の回転角度の算出精度が低下する傾向にあった。   However, in the device described in Patent Document 1 described above, when the fixation point on the predetermined plane of both eyes of the subject is separated due to convergence open eye movement or the like, the state of the rotational angle of the eye can not be correctly recognized, and The solution of the correction value is not stable, and the line of sight to be detected tends to be unstable. Further, in the device described in Patent Document 2 described above, when the shape of the contour of the pupil can not be accurately detected due to the influence of the resolution of the camera, or when the eye of the subject is obliquely directed to the camera In this case, the calculation accuracy of the rotation angle of the eyeball tends to decrease.

本発明は、上記課題に鑑みて為されたものであり、被験者の眼球の回転角度を安定して精度よく検出することが可能な画像処理装置及び画像処理方法を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing apparatus and an image processing method capable of stably and accurately detecting the rotation angle of the eyeball of a subject.

上記課題を解決するため、本発明の一形態に係る画像処理装置は、対象者の左右の眼及び該眼の周辺部を撮像することで眼画像を取得する少なくとも1台のカメラと、眼画像を基に左右の眼のいずれかの光軸あるいは視線を算出する算出部と、を備え、算出部は、算出した光軸あるいは視線のいずれかである基準線に沿って見たときの左右の眼の特徴点の3次元座標あるいは左右の眼の周辺部の特徴点の3次元座標を結ぶ線の傾きを算出し、傾きを基に対象者の頭部の傾きの回転角度を算出する。   In order to solve the above problems, an image processing apparatus according to an aspect of the present invention includes at least one camera for acquiring an eye image by imaging the left and right eyes of a subject and the peripheral part of the eye, and an eye image Calculating the optical axis or the line of sight of either of the left and right eyes based on the left and right of the right eye as viewed along the reference line which is either the calculated optical axis or the line of sight The inclination of a line connecting the three-dimensional coordinates of the feature points of the eye or the three-dimensional coordinates of the feature points at the peripheral portions of the left and right eyes is calculated, and the rotation angle of the inclination of the head of the subject is calculated based on the inclination.

或いは、本発明の他の形態にかかる画像処理方法は、対象者の左右の眼及び該眼の周辺部を撮像することで眼画像を取得する画像取得ステップと、眼画像を基に左右の眼のいずれかの光軸あるいは視線を算出する算出ステップと、を備え、算出ステップでは、算出した光軸あるいは視線のいずれかである基準線に沿って見たときの左右の眼の特徴点の3次元座標あるいは左右の眼の周辺部の特徴点の3次元座標を結ぶ線の傾きを算出し、傾きを基に対象者の頭部の傾きの回転角度を算出する。   Alternatively, in the image processing method according to another aspect of the present invention, an image acquisition step of acquiring an eye image by imaging the left and right eyes of the subject and the periphery of the eye, and the left and right eyes based on the eye image Calculating at least one of the optical axis or the line of sight, and in the calculating step, three of the feature points of the left and right eyes when viewed along the reference line which is either the calculated optical axis or the line of sight The inclination of the line connecting the three-dimensional coordinates of the feature points of the peripheral portions of the left and right eyes is calculated, and the rotation angle of the inclination of the subject's head is calculated based on the inclination.

上記形態の画像処理装置或いは画像処理方法によれば、対象者の左右の眼の眼画像を基に左右の眼のいずれかの光軸あるいは視線が算出される。その際、対象者の視線あるいは光軸に沿った方向から見た対象者の左右の眼の特徴点あるいは左右の眼の周辺の特徴点の間の傾きが算出され、その傾きを基に対象者の頭部の傾きの回転角度が求められる。これにより、対象者の両眼の注視点の位置の関係にかかわらず対象者の眼球の回転角度を安定して検出することができるとともに、カメラの性能、あるいは、対象者の眼部のカメラに対する向きに関係なく、対象者の眼球の回転角度を精度よく検出することができる。   According to the image processing apparatus or the image processing method of the above aspect, an optical axis or a line of sight of either of the left and right eyes is calculated based on the eye images of the left and right eyes of the object person. At that time, the inclination between the feature points of the left and right eyes of the object person or the feature points around the left and right eyes as viewed from the direction of the line of sight or the optical axis of the object person is calculated. The rotation angle of the head tilt is determined. This makes it possible to stably detect the rotational angle of the eye of the subject regardless of the positional relationship of the fixation points of the subject's eyes, and also to the performance of the camera or the camera of the eye of the subject. Regardless of the orientation, it is possible to accurately detect the rotation angle of the subject's eyeball.

ここで、算出部は、基準線に沿って見たときの頭部の傾きの回転角度を算出する、こととしてもよい。かかる構成により、基準線に沿って見たときの対象者の眼球の回転角度を精度よく検出することができる。   Here, the calculation unit may calculate the rotation angle of the inclination of the head when viewed along the reference line. According to this configuration, it is possible to accurately detect the rotation angle of the eyeball of the subject when viewed along the reference line.

また、算出部は、光軸を予め設定されるずれ角度及びずれ方向に補正することによって視線を算出し、傾きを基にずれ方向を補正し、補正後のずれ方向を用いて視線を算出する、こととしてもよい。こうすれば、対象者の左右の眼の眼画像を基に左右の眼のいずれかの光軸が算出され、光軸を予め設定されるずれ角度及びずれ方向に補正することによって視線が算出される。その際、対象者の視線あるいは光軸に沿った方向から見た対象者の左右の眼の特徴点あるいは左右の眼の周辺部の特徴点の間の傾きが算出され、視線を算出するためのずれ方向がその傾きによって補正される。これにより、対象者の両眼の注視点の位置の関係にかかわらず視線を安定して検出することができるとともに、カメラの性能、あるいは、対象者の眼部のカメラに対する向きに関係なく、視線を精度よく検出することができる。   Further, the calculation unit calculates the line of sight by correcting the optical axis to the preset deviation angle and direction, corrects the deviation direction based on the inclination, and calculates the line of sight using the corrected deviation direction. , May be. In this way, the optical axis of either of the left and right eyes is calculated based on the eye images of the left and right eyes of the object person, and the line of sight is calculated by correcting the optical axis to the preset shift angle and shift direction. Ru. At that time, the inclination between the feature points of the left and right eyes of the subject or the feature points of the peripheral portions of the left and right eyes as calculated from the line of sight or the optical axis of the subject is calculated, and the line of sight is calculated. The deviation direction is corrected by the inclination. As a result, the line of sight can be stably detected regardless of the positional relationship of the fixation points of the subject's eyes and the line of sight regardless of the camera performance or the direction of the subject's eyes with respect to the camera. Can be accurately detected.

また、算出部は、基準線を含み所定軸に沿った基準平面と、基準線と左右の眼の特徴点の3次元座標あるいは左右の眼の周辺部の特徴点の3次元座標とを含む顔方向平面とを設定し、基準平面に対する顔方向平面の傾きを、左右の眼の特徴点の3次元座標あるいは左右の眼の周辺部の特徴点の3次元座標を結ぶ線の傾きとして算出する、こととしてもよい。この場合、対象者の視線あるいは光軸に沿った方向から見た対象者の左右の眼の特徴点あるいは左右の眼の周辺の特徴点の傾きが簡易に算出できるので、視線検出のための演算量を削減することができる。   In addition, the calculation unit includes a reference plane and a reference plane along a predetermined axis, and a face including the reference line and the three-dimensional coordinates of the left and right eye feature points or the three-dimensional coordinates of the left and right eye peripheral points. Set the orientation plane and calculate the inclination of the face orientation plane with respect to the reference plane as the inclination of the line connecting the three-dimensional coordinates of the left and right eye feature points or the three-dimensional coordinates of the left and right eye peripheral points. You may do it. In this case, the inclinations of the feature points of the left and right eyes of the subject or the feature points around the left and right eyes viewed from the direction of the line of sight or the optical axis of the subject can be easily calculated. The amount can be reduced.

また、算出部は、基準平面の法線と顔方向平面の法線との間の傾きを、左右の眼の特徴点の3次元座標あるいは左右の眼の周辺部の特徴点の3次元座標を結ぶ線の傾きとして算出する、こととしてもよい。この場合にも、対象者の視線あるいは光軸に沿った方向から見た対象者の左右の眼の特徴点あるいは左右の眼の周辺部の特徴点の傾きがさらに簡易に算出できるので、視線検出のための演算量をさらに削減することができる。   In addition, the calculation unit may set the inclination between the normal to the reference plane and the normal to the face direction plane, the three-dimensional coordinates of the feature points of the left and right eyes, or the three-dimensional coordinates of the feature points of the peripheral portions of the left and right eyes. It may be calculated as the slope of the connecting line. Also in this case, the inclinations of the feature points of the left and right eyes of the subject or the feature points of the peripheral portions of the left and right eyes viewed from the direction of the line of sight or the optical axis of the subject can be calculated more simply. Can further reduce the amount of computation for

また、算出部は、予め設定された位置の視標を対象者に見させた際の左右の眼の特徴点の3次元座標あるいは左右の眼の周辺部の特徴点の3次元座標及び光軸を基に、ずれ方向の初期値及び傾きの初期値を算出し、視線を検出する際に、左右の眼の特徴点の3次元座標あるいは左右の眼の周辺部の特徴点の3次元座標及び光軸を基に傾きの実測値を算出し、傾きの実測値から傾きの初期値を減算した値を基にずれ方向の初期値を補正し、補正後のずれ方向の初期値を用いて視線を算出する、こととしてもよい。この場合には、視標を用いてずれ方向及び傾きの初期値が正確に算出でき、その後の傾きの実測値を基に視線が正確に算出できる。   In addition, the calculation unit may be configured to calculate the three-dimensional coordinates of the feature points of the left and right eyes or the three-dimensional coordinates and the optical axis of the feature points of the peripheral portions of the left and right eyes When the line of sight is detected by calculating the initial value of the shift direction and the initial value of the inclination based on the three-dimensional coordinates of the feature points of the left and right eyes or the three-dimensional coordinates of the feature points of the peripheral portions of the left and right eyes The actual measured value of the inclination is calculated based on the optical axis, and the initial value of the deviation direction is corrected based on the value obtained by subtracting the initial value of the inclination from the measured value of inclination, and the sight line is used using the initial value of the deviation direction after correction. May be calculated. In this case, the initial values of the shift direction and the inclination can be accurately calculated using the visual target, and the line of sight can be accurately calculated based on the actual measurement values of the inclination thereafter.

また、眼画像を取得する2台のカメラを備え、算出部は、2台のカメラによって取得された眼画像を基に、左右の眼の特徴点の3次元座標あるいは左右の眼の周辺部の特徴点の3次元座標を算出する、こととしてもいてもよい。この場合には、左右の眼の特徴点の3次元座標あるいは左右の眼の周辺部の特徴点の3次元座標が簡易な構成で算出でき、視線の検出が簡易な構成で実現できる。   In addition, the camera includes two cameras for acquiring eye images, and the calculation unit calculates three-dimensional coordinates of feature points of the left and right eyes or peripheral parts of the left and right eyes based on the eye images acquired by the two cameras. The three-dimensional coordinates of the feature points may be calculated. In this case, the three-dimensional coordinates of the feature points of the left and right eyes or the three-dimensional coordinates of the feature points of the peripheral portions of the left and right eyes can be calculated with a simple configuration, and detection of the sight line can be realized with a simple configuration.

また、算出部は、左右の眼の特徴点として、瞳孔、目頭、目尻、虹彩、角膜球、あるいは角膜反射のうちのいずれか、左右の眼の周辺部の特徴点として、両眼中点、眉間、眉毛、鼻孔、鼻の先端、鼻の周囲、口角、口の中心のうちのいずれかを検出する、こととしてもよい。   In addition, the calculation unit may use any one of the pupil, the inside of the eye, the corner of the eye, an iris, a cornea ball, and a corneal reflex as feature points of the left and right eyes, and a binocular midpoint and an intercostal space as feature points of the peripheral portions of the left and right eyes The eyebrow, the nostril, the tip of the nose, the circumference of the nose, the corner of the mouth, or the center of the mouth may be detected.

本発明によれば、被験者の眼球の回転角度を安定して精度よく検出することができる。   According to the present invention, it is possible to stably and accurately detect the rotation angle of the eyeball of the subject.

実施形態に係る視線検出装置を示す斜視図である。It is a perspective view showing a gaze detection device concerning an embodiment. カメラのレンズ部分を示す平面図である。It is a top view which shows the lens part of a camera. 実施形態に係る画像処理装置のハードウェア構成を示す図である。It is a figure showing hardware constitutions of an image processing device concerning an embodiment. 実施形態に係る視線検出装置の機能構成を示すブロック図である。It is a block diagram showing functional composition of a look detection apparatus concerning an embodiment. 実施形態に係る視線検出装置の基本動作を示すフローチャートである。It is a flowchart which shows the basic operation | movement of the gaze detection apparatus which concerns on embodiment. 視線の検出を説明するための図である。It is a figure for demonstrating detection of a look. 従来装置におけるディスプレイ装置上の注視点の検出状態を示す図である。It is a figure which shows the detection state of the gaze point on the display apparatus in a conventional apparatus. カメラ10によって取得される2次元画像における対象者Aの瞳孔の検出状態を示す図である。FIG. 2 is a diagram showing a detection state of a pupil of a subject person A in a two-dimensional image acquired by a camera 10. カメラ10によって取得される2次元画像における対象者Aの瞳孔の検出状態を示す図である。FIG. 2 is a diagram showing a detection state of a pupil of a subject person A in a two-dimensional image acquired by a camera 10. カメラ10によって取得される2次元画像における対象者Aの瞳孔の検出状態を示す図である。FIG. 2 is a diagram showing a detection state of a pupil of a subject person A in a two-dimensional image acquired by a camera 10. 算出部23による光軸と視軸との間の角度ベクトルVθを補正するイメージを示す図である。It is a figure which shows the image which correct | amends angle vector V (theta) between the optical axis by the calculation part 23, and a visual axis. 算出部23による角度ベクトルVθの初期値及び左右の瞳孔P,Pの3次元座標を結ぶ線の傾きの算出イメージを示す図である。The initial value of the angle vector Vθ by the calculating section 23 and the left and right pupils P L, is a diagram showing a calculation image of the slope of a line connecting the three-dimensional coordinates of P R. 視線検出装置1を用いた実験結果を示すグラフである。5 is a graph showing experimental results using the gaze detection apparatus 1;

以下、図面を参照しつつ本発明に係る画像処理装置及び画像処理方法の好適な実施形態について詳細に説明する。なお、図面の説明においては、同一又は相当部分には同一符号を付し、重複する説明を省略する。   Hereinafter, preferred embodiments of an image processing apparatus and an image processing method according to the present invention will be described in detail with reference to the drawings. In the description of the drawings, the same or corresponding parts will be denoted by the same reference symbols, without redundant description.

[視線検出装置の構成]
まず、図1〜4を用いて、実施形態に係る画像処理装置である視線検出装置1の構成を説明する。視線検出装置1は、対象者の眼を撮像することで対象者の視線方向を検出するコンピュータシステムであり、この装置により、本実施形態に係る視線検出方法が実施される。対象者とは、視線方向を検出する対象となる人であり、被験者ともいうことができる。視線検出装置1および視線検出方法の利用目的は何ら限定されず、例えば、よそ見運転の検出、運転者のサイドミラーやルームミラーの安全確認動作の確認、運転者の眠気の検出、商品の興味の度合いの調査、アミューズメント装置等に利用されるコンピュータへのデータ入力、乳幼児の自閉症診断等の診断用装置などに視線検出装置1を利用することができる。
[Configuration of gaze detection device]
First, the configuration of the visual axis detection device 1 which is an image processing device according to the embodiment will be described with reference to FIGS. The gaze detection apparatus 1 is a computer system that detects the gaze direction of the target person by imaging the eye of the target person, and the gaze detection method according to the present embodiment is implemented by this device. The subject is a person who is a target for detecting the gaze direction, and can also be referred to as a subject. The purpose of using the gaze detection apparatus 1 and the gaze detection method is not limited at all. For example, the detection of the driver looking away, the confirmation of the safety confirmation operation of the driver's side mirror and the rearview mirror, the driver's drowsiness detection, and the product interest The line-of-sight detection device 1 can be used for examination of the degree, data input to a computer used for an amusement device or the like, a diagnostic device for autism diagnosis of an infant or the like, or the like.

図1に模式的に示すように、視線検出装置1は、ステレオカメラとして機能する一対のカメラ10と画像処理装置20とを備える。以下では、必要に応じて、一対のカメラ10を、対象者Aの左側にある左カメラ10と、対象者Aの右側にある右カメラ10とに区別する。本実施形態では、視線検出装置1は、対象者Aが見る対象であるディスプレイ装置30をさらに備えるが、視線検出装置1の利用目的は上記のように限定されないので、対象者Aの視線の先にある物はディスプレイ装置30に限定されず、例えば自動車のフロントガラスでもあり得る。したがって、ディスプレイ装置30は視線検出装置1における必須の要素ではない。それぞれのカメラ10は画像処理装置20と無線または有線により接続され、カメラ10と画像処理装置20との間で各種のデータまたは命令が送受信される。各カメラ10に対しては予めカメラ較正が行われる。 As schematically shown in FIG. 1, the visual axis detection device 1 includes a pair of cameras 10 functioning as a stereo camera and an image processing device 20. Hereinafter, if necessary, it distinguishes a pair of camera 10, and the left camera 10 L on the left side of the subject A, in the right camera 10 R on the right side of the subject A. In the present embodiment, the visual axis detection device 1 further includes the display device 30 which the target person A views, but the purpose of use of the visual axis detection device 1 is not limited as described above. The object is not limited to the display device 30, but may be, for example, a windshield of a car. Therefore, the display device 30 is not an essential element in the gaze detection device 1. Each camera 10 is connected to the image processing apparatus 20 wirelessly or by wire, and various data or commands are transmitted and received between the camera 10 and the image processing apparatus 20. Camera calibration is performed on each camera 10 in advance.

カメラ10は対象者Aの左右の眼およびそれらの周辺部を含む部分を撮影するために用いられる。一対のカメラ10は水平方向に沿って所定の間隔をおいて配され、かつ、対象者Aが眼鏡をかけているときの顔画像における反射光の写り込みを防止する目的で対象者Aの顔より低い位置に設けられる。水平方向に対するカメラ10の仰角は、瞳孔の確実な検出と対象者Aの視野範囲の妨げの回避との双方を考慮して、例えば20〜35度の範囲に設定される。個々のカメラ10に対しては予めカメラ較正が行われる。   The camera 10 is used to capture a part including the left and right eyes of the subject person A and their peripheral parts. The pair of cameras 10 are arranged at predetermined intervals along the horizontal direction, and the face of the subject A for the purpose of preventing reflection of reflected light in the face image when the subject A is wearing glasses It is provided at a lower position. The elevation angle of the camera 10 with respect to the horizontal direction is set, for example, in the range of 20 to 35 degrees in consideration of both the reliable detection of the pupil and the avoidance of the obstruction of the visual field range of the subject A. Camera calibration is performed on each camera 10 in advance.

本実施形態では、カメラ10は、インターレーススキャン方式の一つであるNTSC方式のカメラである。NTSC方式では、1秒間に30枚得られる1フレームの画像データは、奇数番目の水平画素ラインで構成される奇数フィールドと、偶数番目の水平画素ラインで構成される偶数フィールドから構成され、奇数フィールドの画像と偶数フィールドの画像とが1/60秒の間隔で交互に撮影されることで生成される。したがって、一つのフレームは、一対の奇数フィールドおよび偶数フィールドに相当する。カメラ10は、画像処理装置20からの命令に応じて対象者Aを撮像し、画像データを画像処理装置20に出力する。   In the present embodiment, the camera 10 is an NTSC camera which is one of interlace scan methods. In the NTSC system, one frame of image data obtained for 30 sheets per second is composed of an odd field composed of odd-numbered horizontal pixel lines and an even field composed of even-numbered horizontal pixel lines. And an even field image are alternately captured at intervals of 1/60 seconds. Thus, one frame corresponds to a pair of odd and even fields. The camera 10 captures an image of the subject A in response to an instruction from the image processing device 20 and outputs image data to the image processing device 20.

カメラ10のレンズ部分を図2に模式的に示す。この図に示すように、カメラ10では、対物レンズ11が円形状の開口部12に収容され、開口部12の外側に光源13が取り付けられている。光源13は、対象者Aの眼に向けて照明光を照射するための機器であり、複数の発光素子13aと複数の発光素子13bとから成る。発光素子13aは、出力光の中心波長が850nmの半導体発光素子(LED)であり、開口部12の縁に沿って等間隔でリング状に配される。発光素子13bは、出力光の中心波長が940nmの半導体発光素子であり、発光素子13aの外側に等間隔でリング状に配される。したがって、カメラ10の光軸から発光素子13bまでの距離は、該光軸から発光素子13aまでの距離よりも大きい。それぞれの発光素子13a,13bは、カメラ10の光軸に沿って照明光を出射するように設けられる。なお、光源13の配置は図2に示す構成に限定されず、カメラをピンホールモデルとみなすことができれば他の配置であってもよい。光源13は、画像処理装置20からの命令に応じたタイミングで照明光を出射する。   The lens portion of the camera 10 is schematically shown in FIG. As shown in this figure, in the camera 10, the objective lens 11 is accommodated in the circular opening 12, and the light source 13 is attached to the outside of the opening 12. The light source 13 is a device for emitting illumination light toward the eye of the target person A, and includes a plurality of light emitting elements 13a and a plurality of light emitting elements 13b. The light emitting elements 13 a are semiconductor light emitting elements (LEDs) having a central wavelength of output light of 850 nm, and are arranged in a ring along the edge of the opening 12 at equal intervals. The light emitting element 13b is a semiconductor light emitting element whose center wavelength of output light is 940 nm, and is arranged in a ring shape at equal intervals outside the light emitting element 13a. Therefore, the distance from the optical axis of the camera 10 to the light emitting element 13b is larger than the distance from the optical axis to the light emitting element 13a. The respective light emitting elements 13 a and 13 b are provided to emit illumination light along the optical axis of the camera 10. The arrangement of the light sources 13 is not limited to the configuration shown in FIG. 2 and may be another arrangement as long as the camera can be regarded as a pinhole model. The light source 13 emits illumination light at a timing according to an instruction from the image processing device 20.

画像処理装置20は、カメラ10、及び光源13の制御と、対象者Aの視線方向の検出とを実行するコンピュータである。画像処理装置20は、据置型または携帯型のパーソナルコンピュータ(PC)により構築されてもよいし、ワークステーションにより構築されてもよいし、他の種類のコンピュータにより構築されてもよい。あるいは、画像処理装置20は複数台の任意の種類のコンピュータを組み合わせて構築されてもよい。複数台のコンピュータを用いる場合には、これらのコンピュータはインターネットやイントラネットなどの通信ネットワークを介して接続される。   The image processing device 20 is a computer that executes control of the camera 10 and the light source 13 and detection of the gaze direction of the subject A. The image processing apparatus 20 may be configured by a stationary or portable personal computer (PC), may be configured by a workstation, or may be configured by another type of computer. Alternatively, the image processing apparatus 20 may be constructed by combining a plurality of arbitrary types of computers. When using a plurality of computers, these computers are connected via a communication network such as the Internet or an intranet.

画像処理装置20の一般的なハードウェア構成を図3に示す。画像処理装置20は、オペレーティングシステムやアプリケーション・プログラムなどを実行するCPU(プロセッサ)101と、ROMおよびRAMで構成される主記憶部102と、ハードディスクやフラッシュメモリなどで構成される補助記憶部103と、ネットワークカードあるいは無線通信モジュールで構成される通信制御部104と、キーボードやマウスなどの入力装置105と、ディスプレイやプリンタなどの出力装置106とを備える。   A general hardware configuration of the image processing apparatus 20 is shown in FIG. The image processing apparatus 20 includes a CPU (processor) 101 that executes an operating system and application programs, a main storage unit 102 configured by a ROM and a RAM, and an auxiliary storage unit 103 configured by a hard disk and a flash memory. And a communication control unit 104 configured by a network card or a wireless communication module, an input device 105 such as a keyboard or a mouse, and an output device 106 such as a display or a printer.

後述する画像処理装置20の各機能要素は、CPU101または主記憶部102の上に所定のソフトウェアを読み込ませ、CPU101の制御の下で通信制御部104や入力装置105、出力装置106などを動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶部102または補助記憶部103内に格納される。   Each functional element of the image processing apparatus 20 described later loads predetermined software on the CPU 101 or the main storage unit 102, and operates the communication control unit 104, the input device 105, the output device 106, etc. under the control of the CPU 101. This is realized by reading and writing data in the main storage unit 102 or the auxiliary storage unit 103. Data and databases necessary for processing are stored in the main storage unit 102 or the auxiliary storage unit 103.

図4に示すように、画像処理装置20は機能的構成要素として点灯制御部21、画像取得部22、及び算出部23を備える。点灯制御部21は、光源13の点灯タイミングを制御する。画像取得部22は、カメラ10の撮影タイミングを光源13の点灯タイミングに同期して制御することで、カメラ10から画像データ(眼画像のデータ)を取得する機能要素である。算出部23は、画像データから得られる視線ベクトルに基づいて視軸(視線ともいう)の方向を検出する機能要素である。視軸(視線)とは、対象者の瞳孔中心と該対象者の注視点(対象者が見ている点)とを結ぶ線である。なお、「視軸」という用語は、起点、終点、および方向の意味(概念)を含む。また、「視線ベクトル」とは、対象者の視軸の方向をベクトルで表したもので、「視軸の方向」を表す一形態である。画像処理装置20の検出結果の視軸の方向の出力先は何ら限定されない。例えば、画像処理装置20は判定結果を画像、図形、またはテキストでモニタに表示してもよいし、メモリやデータベースなどの記憶装置に格納してもよいし、通信ネットワーク経由で他のコンピュータシステムに送信してもよい。   As shown in FIG. 4, the image processing apparatus 20 includes a lighting control unit 21, an image acquisition unit 22, and a calculation unit 23 as functional components. The lighting control unit 21 controls the lighting timing of the light source 13. The image acquisition unit 22 is a functional element that acquires image data (data of an eye image) from the camera 10 by controlling the imaging timing of the camera 10 in synchronization with the lighting timing of the light source 13. The calculation unit 23 is a functional element that detects the direction of a visual axis (also referred to as a line of sight) based on a line-of-sight vector obtained from image data. The visual axis (line of sight) is a line connecting the pupil center of the subject and the gaze point of the subject (the point at which the subject is looking). The term "visual axis" includes the meaning (concept) of the starting point, the end point, and the direction. Further, the “line-of-sight vector” is a vector representing the direction of the visual axis of the subject, and is a form representing the “direction of the visual axis”. The output destination of the direction of the visual axis of the detection result of the image processing apparatus 20 is not limited at all. For example, the image processing apparatus 20 may display the determination result in the form of an image, a figure, or a text on a monitor, or may store the determination result in a storage device such as a memory or a database. It may be sent.

[視線検出方法の基本動作]
次に、図5及び図6を用いて、視線検出装置1による視線検出方法(画像処理方法)の基本動作について説明する。図5は、視線検出方法の基本動作を示すフローチャート、図6は、視線検出装置1による視線の検出を説明するための図である。
[Basic operation of gaze detection method]
Next, the basic operation of the gaze detection method (image processing method) by the gaze detection apparatus 1 will be described using FIGS. 5 and 6. FIG. 5 is a flowchart showing the basic operation of the gaze detection method, and FIG. 6 is a diagram for explaining the detection of the gaze by the gaze detection apparatus 1.

まず、点灯制御部21が光源13の点灯タイミングを制御し、そのタイミングに合わせて画像取得部22がそれぞれのカメラ10から明瞳孔画像(眼画像)および暗瞳孔画像(眼画像)を取得する(ステップS11;画像取得ステップ)。続いて、算出部23が、それぞれのカメラ10からの明瞳孔画像及び暗瞳孔画像を対象にして、それぞれのカメラ10の眼画像中の瞳孔中心(眼の特徴点)の位置及び角膜反射の位置を検出する(ステップS12)。そして、算出部23は、対象者Aの左右の瞳孔中心の3次元座標を算出する(ステップS13)。さらに、算出部23は、算出したいずれかのカメラ10の眼画像における瞳孔中心の位置及び角膜反射の位置、及び左右の瞳孔の3次元座標を基に、左右の瞳孔の光軸を算出する(ステップS14)。ここでいう、「光軸」とは、カメラ10によって取得される画像によって検出される眼球の光軸であり、例えば、眼球の対象軸と一致する。その後、算出部23は、左右の瞳孔における光軸と視軸との間のずれ角度及びずれ方向を示すずれ角度ベクトルを算出する(ステップS15)。さらに、算出部23は、算出したずれ角度ベクトルを用いて光軸を補正することによって視軸を算出した後、算出した視軸を参照して所定の視対称平面上の注視点を算出する(ステップS16、以上算出ステップ)。以上の処理は、視線検出処理の終了の指示が受け付けられるまで、繰り返し実行される(ステップS17)。   First, the lighting control unit 21 controls the lighting timing of the light source 13, and the image acquiring unit 22 acquires a bright pupil image (eye image) and a dark pupil image (eye image) from each camera 10 according to the timing Step S11: Image acquisition step). Subsequently, the calculation unit 23 targets the bright pupil image and the dark pupil image from each camera 10, and the position of the pupil center (feature point of the eye) in the eye image of each camera 10 and the position of the corneal reflection Is detected (step S12). Then, the calculation unit 23 calculates three-dimensional coordinates of the pupil centers on the left and right of the subject person A (step S13). Furthermore, the calculation unit 23 calculates the optical axes of the left and right pupils based on the calculated position of the pupil center and the position of the corneal reflection in the eye image of any one of the cameras 10 and the three-dimensional coordinates of the left and right pupils Step S14). Here, the “optical axis” is an optical axis of an eyeball detected by an image acquired by the camera 10, and coincides with, for example, a target axis of the eyeball. Thereafter, the calculation unit 23 calculates a shift angle vector indicating a shift angle and a shift direction between the optical axis and the visual axis in the left and right pupils (step S15). Furthermore, the calculator 23 calculates the visual axis by correcting the optical axis using the calculated displacement angle vector, and then calculates the gaze point on the predetermined visual symmetry plane with reference to the calculated visual axis Step S16, calculation step above). The above process is repeatedly executed until an instruction to end the sight line detection process is received (step S17).

以下、各ステップの処理について詳細に説明する。   The process of each step will be described in detail below.

(眼画像の取得)
眼に入った光は網膜で乱反射し、反射光のうち瞳孔を通り抜けた光は強い指向性をもって光源へ戻る性質がある。カメラの開口部近くにある光源が発光した時にカメラを露光させると、網膜で反射した光の一部がその開口部に入るため、瞳孔が瞳孔周辺よりも明るく写った画像を取得することができる。この画像が明瞳孔画像である。これに対して、カメラの開口部から離れた位置にある光源が発光した時にカメラを露光させると、眼から戻ってきた光はカメラの開口部にほとんど戻らないため、瞳孔が暗く写った画像を取得することができる。この画像が暗瞳孔画像である。また、透過率が高い波長の光を眼に照射すると、網膜での光の反射が多くなるので瞳孔が明るく写り、透過率が低い波長の光を眼に照射すると、網膜での光の反射が少なくなるので瞳孔が暗く写る。
(Acquisition of eye image)
The light entering the eye is diffusely reflected by the retina, and of the reflected light, the light passing through the pupil has the property of returning to the light source with strong directivity. When the camera is exposed when the light source near the camera aperture emits light, a part of the light reflected by the retina enters the aperture, so it is possible to obtain an image in which the pupil is brighter than the periphery of the pupil . This image is a bright pupil image. On the other hand, if the camera is exposed when the light source located at a distance from the camera aperture emits light, the light returned from the eye hardly returns to the camera aperture, so an image with a dark pupil appears It can be acquired. This image is a dark pupil image. In addition, when light with a wavelength with high transmittance is irradiated to the eye, reflection of light at the retina increases, so the pupil appears bright, and when light with a wavelength with low transmittance is irradiated to the eye, light is reflected in the retina The pupils appear dark because they are reduced.

本実施形態では、透過率が高い波長の光(中心波長が850nm)を発する発光素子13aが開口部12に隣接した位置に設けられ、眼の透過率が低い波長の光(中心波長が940nm)を発する発光素子13bを開口部12から離れた位置に設けられる。点灯制御部21及び画像取得部22は、カメラ10の奇数フィールドに合わせて発光素子13aを点灯させて明瞳孔画像を撮影し、カメラ10の偶数フィールドに合わせて発光素子13bを点灯させて暗瞳孔画像を撮影する。さらに、画像取得部22は2つのカメラ10の間で作動タイミングをわずかにずらし、個々のカメラ10の露光時間はそのずらし時間以下に設定される。点灯制御部21は、各カメラ10の露光時間中に、対応する発光素子13aおよび発光素子13bを交互に発光させることで、一方のカメラ10の光源13からの光が他方のカメラ10の画像に影響を与えないようにする(クロストークが起こらないようにする)。   In the present embodiment, the light emitting element 13a emitting light of a wavelength with high transmittance (the center wavelength is 850 nm) is provided at a position adjacent to the opening 12, and light of a wavelength with low transmittance of the eye (the center wavelength is 940 nm) The light emitting element 13 b emitting light is provided at a position away from the opening 12. The lighting control unit 21 and the image acquisition unit 22 light the light emitting element 13a in accordance with the odd field of the camera 10 to capture a bright pupil image, and light the light emitting element 13b in accordance with the even field of the camera 10 to perform the dark pupil Take an image. Furthermore, the image acquisition unit 22 slightly shifts the operation timing between the two cameras 10, and the exposure time of each camera 10 is set to less than the shift time. The lighting control unit 21 causes the corresponding light emitting element 13 a and the light emitting element 13 b to emit light alternately during the exposure time of each camera 10, so that the light from the light source 13 of one camera 10 becomes the image of the other camera 10. Do not affect (do not create crosstalk).

画像取得部22は、これらの一連の制御により得られる明瞳孔画像および暗瞳孔画像を取得する。得られる画像データは、奇数フィールド又は偶数フィールドのみに有効画素を有しているため、画像取得部22は、隣接する有効画素の画素ラインの輝度平均をそのライン間の画素値に埋め込むことによって、明瞳孔画像または暗瞳孔画像を生成する。画像取得部22は2つのカメラ10によって得られた明瞳孔画像および暗瞳孔画像を算出部23に出力する。   The image acquisition unit 22 acquires a bright pupil image and a dark pupil image obtained by the series of control. Since the obtained image data has effective pixels only in the odd field or even field, the image acquiring unit 22 embeds the luminance average of the pixel lines of the adjacent effective pixels in the pixel values between the lines. Generate a bright pupil image or a dark pupil image. The image acquisition unit 22 outputs the bright pupil image and the dark pupil image obtained by the two cameras 10 to the calculation unit 23.

(角膜反射の位置及び瞳孔中心の位置の検出)
算出部23は、画像取得部22から入力された明瞳孔画像および暗瞳孔画像のそれぞれから左右の眼における角膜反射を検出する。具体的には、算出部23は1枚の画像に対してPタイル法による2値化とラベリングとを行い、形状や輝度平均などの情報に基づいてその画像から左右の眼における角膜反射を選択する。このような処理により、算出部23は明瞳孔画像および暗瞳孔画像のそれぞれから、左右の眼における角膜反射を得る。
(Detection of position of corneal reflex and position of pupil center)
The calculation unit 23 detects corneal reflection in the left and right eyes from each of the bright pupil image and the dark pupil image input from the image acquisition unit 22. Specifically, the calculating unit 23 performs binarization and labeling by a P tile method on one image, and selects corneal reflections in the left and right eyes from the image based on information such as shape and luminance average. Do. By such processing, the calculation unit 23 obtains corneal reflection in the left and right eyes from each of the bright pupil image and the dark pupil image.

さらに、算出部23は、算出された角膜反射の位置に基づいて明瞳孔画像と暗瞳孔画像との間での角膜反射の移動量を位置補正量として計算する。続いて、算出部23はそれら二つの角膜反射の位置が一致するように、前フィールド(i番目のフィールド)の画像を、次フィールド((i+1)番目のフィールド)の画像に位置補正量だけずらした上で、これら2画像から差分画像を生成する。そして、算出部23は一致させた角膜反射の画像上の座標(位置)を取得する。   Furthermore, the calculation unit 23 calculates the movement amount of the corneal reflection between the bright pupil image and the dark pupil image as the position correction amount based on the calculated position of the corneal reflection. Subsequently, the calculation unit 23 shifts the image of the previous field (i-th field) to the image of the next field ((i + 1) -th field) by the position correction amount so that the positions of the two corneal reflections coincide. Then, a difference image is generated from these two images. Then, the calculation unit 23 acquires the coordinates (position) on the image of the corneal reflection that has been made to coincide.

続いて、算出部23は差分画像から左右の瞳孔位置を特定する。具体的には、算出部23は、前フレームと輝度が大きく変化しないことを利用して、前フレームで検出された瞳孔の輝度平均を利用して、その平均輝度の半分の値を閾値として差分画像を2値化し、ラベリングを行う。続いて、算出部23は、瞳孔らしい面積、サイズ、面積比、正方形度、および瞳孔特徴量等の形状パラメータに基づいて、ラベルづけされた画素の連結成分の中から瞳孔を選択し、左右の瞳孔中心の座標(位置)を算出する。   Subsequently, the calculation unit 23 identifies left and right pupil positions from the difference image. Specifically, calculation unit 23 makes use of the fact that the luminance does not change significantly with the previous frame, and uses the luminance average of the pupils detected in the previous frame to set a difference of half the average luminance as a threshold The image is binarized and labeled. Subsequently, the calculation unit 23 selects a pupil from connected components of labeled pixels based on shape parameters such as pupil-like area, size, area ratio, squareness, and pupil feature amount, and Calculate the coordinates (position) of the pupil center.

(左右の瞳孔の3次元座標の算出)
続いて、算出部23は左右の瞳孔中心の3次元座標を求める。具体的には、算出部23はステレオ法を用いて、2つのカメラ10から取得した差分画像を用いて算出した左右の瞳孔中心の座標から、左右の瞳孔中心の3次元位置をそれぞれ計算する。ステレオ法とは、カメラのレンズの焦点距離、画像中心、画素サイズなどの内部パラメータと、カメラの位置や姿勢等の外部パラメータとを予め計測しておき、複数台のステレオカメラで対象物を撮影したときに、画像中の点の座標を基に、内部パラメータおよび外部パラメータを用いてその点の空間上の位置を決定する方法である。具体的には、算出部23は、2台のカメラ10からの画像データを基に検出した画像座標系における瞳孔中心の座標と、3次元空間内の世界座標系における瞳孔中心の座標との関係式を、キャリブレーションデータを参照しながら取得する。次に、算出部23は、関係式から世界座標系における対象者Aの瞳孔中心の3次元座標を求める。
(Calculation of 3D coordinates of left and right pupils)
Subsequently, the calculation unit 23 obtains three-dimensional coordinates of the left and right pupil centers. Specifically, the calculation unit 23 calculates the three-dimensional positions of the left and right pupil centers from the coordinates of the left and right pupil centers calculated using the difference images acquired from the two cameras 10 using the stereo method. With stereo method, internal parameters such as camera lens focal length, image center, and pixel size, and external parameters such as camera position and attitude are measured in advance, and objects are photographed with multiple stereo cameras. Then, based on the coordinates of the point in the image, the internal parameter and the external parameter are used to determine the spatial position of the point. Specifically, the calculating unit 23 calculates the relationship between the coordinates of the pupil center in the image coordinate system detected based on the image data from the two cameras 10 and the coordinates of the pupil center in the world coordinate system in the three-dimensional space. An equation is obtained with reference to calibration data. Next, the calculation unit 23 obtains three-dimensional coordinates of the pupil center of the subject A in the world coordinate system from the relational expression.

(光軸の算出)
算出部23は、左右の瞳孔中心の3次元座標、差分画像上における瞳孔中心の位置、及び差分画像上における角膜反射の位置に基づいて光軸を算出する。なお、算出部23は、左右の眼のいずれか眼の瞳孔中心の位置、及び左右の眼のいずれか眼の角膜反射の位置に基づいて、その眼の光軸を検出してもよいし、左右の眼の両方の瞳孔中心の位置、及び左右の眼の両方の角膜反射の位置に基づいて、両方の眼の光軸を検出してもよい。以降では、いずれか一方の眼の光軸を検出することを例に説明する。
(Calculation of optical axis)
The calculation unit 23 calculates the optical axis based on the three-dimensional coordinates of the pupil centers on the left and right, the position of the pupil center on the difference image, and the position of the corneal reflection on the difference image. The calculating unit 23 may detect the optical axis of the eye based on the position of the pupil center of either of the left and right eyes and the position of corneal reflection of either of the left and right eyes. The optical axes of both eyes may be detected based on the positions of both pupil centers of the left and right eyes and the positions of corneal reflexes of both the left and right eyes. In the following, detection of the optical axis of one of the eyes will be described as an example.

図6に示すように、瞳孔中心の3次元位置Pに基づいて、カメラ10の開口部12の中心を原点Oとし、その原点Oと瞳孔中心Pを結ぶ基準線OPを法線とする仮想視点平面X’−Y’を考える。この仮想視点平面X’−Y’は、カメラ10で捉えられる画像の投影面(画像面)に対応する。ここで、X’軸は、世界座標系のX−Z平面と仮想視点平面との交線に相当する。 As shown in FIG. 6, based on the three-dimensional position P of the pupil center, a virtual viewpoint with the center of the opening 12 of the camera 10 as an origin O and a reference line OP connecting the origin O and the pupil center P as a normal Consider a plane X'-Y '. The virtual viewpoint plane X′-Y ′ corresponds to a projection plane (image plane) of an image captured by the camera 10. Here, X 'axis corresponds to the line of intersection between X W -Z W plane and the virtual viewpoint plane of the world coordinate system.

算出部23は、画像面Sにおける角膜反射Gから瞳孔中心Pまでのベクトルrを算出し、そのベクトルrを、距離OPから求められたカメラの拡大率を用いて実寸に換算したベクトルrに変換する。このとき、各カメラ10をピンホールモデルと考え、角膜反射Gと瞳孔中心Pとが、仮想視点平面X’−Y’と平行な平面上にあると仮定する。つまり、算出部23は、仮想視点平面と平行であって瞳孔中心Pの3次元座標を含む平面上において、瞳孔中心Pと角膜反射点Gの相対座標をベクトルrとして算出し、このベクトルrは角膜反射点Gから瞳孔中心Pまでの実距離を表す。 Calculator 23 calculates a vector r G from corneal reflection G in the image plane S G to the pupil center P, and the vector r G, was converted to the actual size with the magnification of the camera obtained from the distance OP vector Convert to r At this time, each camera 10 is considered to be a pinhole model, and it is assumed that the corneal reflection G and the pupil center P are on a plane parallel to the virtual viewpoint plane X'-Y '. That is, on the plane parallel to the virtual viewpoint plane and including the three-dimensional coordinates of the pupil center P, the calculation unit 23 calculates the relative coordinates of the pupil center P and the corneal reflection point G as a vector r. This represents the actual distance from the corneal reflection point G to the pupil center P.

続いて、算出部23は、対象者Aの仮想視点平面上の光軸との交点T’に関して、直線OT’の水平軸X’に対する傾きφが、ベクトルrの画像面上の水平軸Xに対する傾きφ’と等しいと仮定する。さらに、算出部23は、対象者Aの光軸のベクトル、すなわち、瞳孔中心Pと交点T’とを結ぶベクトルPT’と、基準線OPとの成す角θを、ゲイン値kを含むパラメータを使った下記式(1)により計算する。
θ=f(r)=k×|r| …(1)
Subsequently, the calculating unit 23 calculates the inclination φ of the straight line OT ′ with respect to the horizontal axis X ′ with respect to the intersection T ′ with the optical axis on the virtual viewpoint plane of the subject A as the horizontal axis X G on the image plane of the vector r. It is assumed that it is equal to the slope φ 'for. Furthermore, the calculation unit 23 calculates the parameter including the gain value k, the angle θ formed by the vector of the optical axis of the subject A, that is, the vector PT ′ connecting the pupil center P and the intersection T ′, and the reference line OP. Calculated by the following equation (1) used.
θ = f 1 (r) = k × | r | (1)

このような角度φ,θの計算は、瞳孔中心Pの存在する平面上のベクトルrを仮想視点平面上で拡大したものがそのまま対象者Aの光軸との交点T’に対応するとみなすことにより行われる。より詳しくは、対象者Aの光軸のベクトルPT’の基準線OPに対する角度θは、瞳孔中心と角膜反射の距離|r|との間で線形関係を有すると仮定する。   Such calculation of the angles φ and θ is performed by assuming that the vector r on the plane on which the pupil center P exists is enlarged on the virtual viewpoint plane as it corresponds to the intersection T ′ with the optical axis of the object person A as it is. To be done. More specifically, it is assumed that the angle θ of the vector PT 'of the optical axis of the subject A with respect to the reference line OP has a linear relationship between the pupil center and the distance | r | of the corneal reflection.

角度θと距離|r|とは線形近似できるという仮定、および二つの傾きφ,φ’が等しいという仮定を利用することで、(θ,φ)と(|r|,φ’)とを1対1に対応させることができる。そして、算出部23は、算出した(θ,φ)を基に、対象者Aの光軸のベクトルPT’を得ることができる。   By using the assumption that the angle θ and the distance | r | can be linearly approximated and the assumption that the two inclinations φ and φ 'are equal, (θ, φ) and (| r |, φ') can be 1 It can be made to correspond to a pair. Then, the calculation unit 23 can obtain the vector PT ′ of the optical axis of the subject A based on the calculated (θ, φ).

(光軸と視軸との間のずれ角度ベクトルの算出)
算出部23によるずれ角度ベクトルの算出手順を説明する前に、ずれ角度ベクトルの算出の必要性について説明する。
(Calculation of deviation angle vector between the optical axis and the visual axis)
Before describing the calculation procedure of the shift angle vector by the calculation unit 23, the necessity of calculation of the shift angle vector will be described.

光源13とカメラ10が実質的に同じ位置にある場合は、例えば対象者Aがそのカメラ10のほうを見たときは眼球の対称性があれば、そのカメラ10によって取得された画像においては瞳孔の中央に角膜反射が映るはずである。しかし、実際には対象者Aの眼において光軸と視軸とはずれが生じるのが一般的である。このような光軸と視軸とのずれは、個人間あるいは左右の眼球間で異なる。つまり、対象者Aの仮想視点平面上の注視点をTとした場合に、視軸のベクトルPTは、光軸のベクトルPT’からずれることとなる(図6)。   In the case where the light source 13 and the camera 10 are at substantially the same position, for example, when the subject A looks at the camera 10, if there is symmetry of the eye, the pupil in the image acquired by the camera 10 The corneal reflex should be visible in the center of. However, in actuality, it is common that the optical axis and the visual axis deviate in the eye of the subject person A. Such deviation between the optical axis and the visual axis differs between individuals or between the left and right eyeballs. That is, when the gaze point on the virtual viewpoint plane of the subject A is T, the vector PT of the visual axis deviates from the vector PT 'of the optical axis (FIG. 6).

従来の視線検出装置では、対象者Aが規定点を見た際に算出される光軸が視軸に一致するようにベクトルrを補正するための補正ベクトルrを算出し、画像上で検出したベクトルr’を、下記式;
r=r’−r
で補正し、補正したベクトルrを用いて視軸のベクトルPTを検出していた。
The conventional gaze detection apparatus calculates a correction vector r 0 for correcting the vector r so that the optical axis calculated when the target person A sees the specified point coincides with the visual axis, and detects it on the image The following equation r;
r = r '-r 0
, And the vector PT of the visual axis is detected using the corrected vector r.

しかしながら、対象者Aに対していったん補正ベクトルrを決定した場合であっても、装置に対して対象者Aの頭部が視線を同じ方向に向けながら左右方向に傾いた(以下、「側屈」という。)場合に、視軸と光軸との間のずれ方向が変化するため正確に光軸から視軸を検出することができない。具体的には、図7(a)に示すように、補正ベクトルrを算出した時の対象者Aの側屈の傾きと視軸検出時の側屈の傾きが同一の場合には、両眼のそれぞれにおいて光軸と視軸のずれが正しく補正されるために両眼において検出された視軸がディスプレイ装置30上の注視点Qにおいて一致する。一方で、図7(b)に示すように、補正ベクトルrを算出した時の対象者Aの側屈の傾きから視軸検出時の側屈の傾きが変化した場合には、光軸と視軸とのずれの方向も視軸(光軸)周りに変化するために補正ベクトルrをそのまま使った場合には両眼において検出された視軸が注視点Qに一致しない。 However, even when the correction vector r 0 is determined once for the subject A, the head of the subject A is inclined in the left-right direction while the sight line is directed in the same direction with respect to the device (hereinafter referred to as “side In the case of “bending”), since the direction of displacement between the visual axis and the optical axis changes, the visual axis can not be accurately detected from the optical axis. Specifically, as shown in FIG. 7A, when the inclination of the lateral bending of the subject A at the time of calculating the correction vector r 0 and the inclination of the lateral bending at the time of visual axis detection are the same, The visual axes detected in both eyes coincide at the gaze point Q on the display device 30 in order to correct the deviation of the optical axis and the visual axis in each of the eyes correctly. On the other hand, as shown in FIG. 7B, when the inclination of lateral bending at the time of visual axis detection changes from the inclination of lateral bending of the subject A when the correction vector r 0 is calculated, direction deviation of the visual axis also visual axis (optical axis) in the case of using as a correction vector r 0 to changes around the detected visual axis in both eyes do not match the gaze point Q.

本実施形態では、光軸(あるいは視軸)方向から見た対象者Aの側屈の傾きを基に、光軸に対する視軸のずれる方向を光軸周りに変化させることで視軸の検出精度を上げようとするものである。ただし、単純にカメラ10によって得られた画像上の対象者Aの左右の眼の位置から対象者Aの側屈の傾きを得るのは限界がある。つまり、カメラ10によって対象者Aの視線方向に対して斜め方向から(例えば、上下にずれた方向から)対象者の眼部の2次元画像を取得した場合には、2次元画像において、対象者Aの側屈の状態と対象者Aが視線方向に垂直な方向を軸に回転(以下、単に「回転」という。)した状態を区別することが困難となる。   In this embodiment, the detection accuracy of the visual axis is changed by changing the direction in which the visual axis deviates from the optical axis based on the inclination of the lateral bending of the subject person A viewed from the optical axis (or visual axis) direction. Try to raise However, there is a limit to simply obtaining the inclination of the lateral bending of the subject A from the positions of the eyes of the subject A on the image obtained by the camera 10. That is, in the case where the camera 10 acquires a two-dimensional image of the subject's eye from a direction oblique to the gaze direction of the subject A (for example, from a direction shifted up and down), the two-dimensional image It becomes difficult to distinguish between the state of lateral bending of A and the state in which the subject person A rotates about a direction perpendicular to the viewing direction (hereinafter simply referred to as “rotation”).

図8〜図10を参照して、カメラ10によって取得される2次元画像における対象者Aの瞳孔の検出状態を説明する。   The detection state of the pupil of the subject person A in the two-dimensional image acquired by the camera 10 will be described with reference to FIGS. 8 to 10.

図8に示すように、対象者Aの前方に2台のカメラ10,10が設置してあり、対象者Aが左カメラ10を注視しており、左カメラ10から見て対象者Aの頭部の側屈の傾きはなく左の瞳孔Pと右の瞳孔Pとが水平線上に位置している状態を想定する。このとき対象者Aの左の瞳孔Pに着目すると、視軸Vが瞳孔Pの中心及び左カメラ10を通ることになる。画像処理装置20の算出部23によって検出されるのは瞳孔Pの光軸Eであり、光軸Eに対する視軸Vのずれは、左カメラ10を通り視軸Vに垂直な平面として仮想平面VPを設定すると、光軸Eと視軸Vとのなす角度(ずれ角度)Δθと、光軸Eと視軸Vの仮想平面VP上の2つの交点を結ぶ直線LNの仮想平面VP上での傾き(ずれ方向)Δφとで表現することができる。言い換えれば、傾き(ずれ方向)Δφは、2台のカメラ10,10と瞳孔Pとを通る平面PLAと、光軸Eと視軸Vとの両方を含む平面PLAとのなす角度でもある。このとき、右の瞳孔Pも平面PLA上に位置している。この傾きΔφの基準線は特定のものには限定されないが、例えば2つのカメラ10,10を結ぶ水平軸LNとすることができる。本実施形態では、光軸Eに対する視軸Vのずれが、角度ベクトル(ずれ角度ベクトル)Vθ=(Δθ,Δφ)で表現される。本実施形態では、視軸Vを仮想平面VPを基準とした角度ベクトルVθで表し、光軸Eを仮想平面VPを基準とした角度ベクトルVθで表した場合に、Vθ=Vθ −Vθと表せて、vθを角度ベクトル(ずれ角度ベクトル)Vθ=(Δθ,Δφ)として定義する。そして、本実施形態では、後述するように、角度ベクトルVθのうちの値Δφを対象者Aの側屈の状態に応じて補正しようとするものである。 As shown in FIG. 8, the camera 10 R of the two in front of the subject A, 10 L is Yes installed, the subject A are gazing at the left camera 10 L, viewed from the left camera 10 L target who inclination of lateral bending of the head a and the pupil P L and the right pupil P R of the left rather than to assume when positioned in a horizontal line. When this time paying attention to the pupil P L of the left of the subject A, so that the visual axis V passes through the center and left camera 10 L of the pupil P L. Be detected by the calculating unit 23 of the image processing apparatus 20 is an optical axis E of the pupil P L, the deviation of the visual axis V relative to the optical axis E, the virtual as a plane perpendicular to the left camera 10 L as the visual axis V setting plane VP 1, the angle (deviation angle) [Delta] [theta] 0 of the optical axis E and the visual axis V, the straight line LN 1 connecting the two intersection points on the virtual plane VP 1 of the optical axis E and the visual axis V virtual It can be expressed as inclination (displacement direction) Δφ 0 on the plane VP 1 . In other words, the inclination (displacement direction) [Delta] [phi 0 is the plane PLA 1 passing through the two cameras 10 L, 10 R and the pupil P L, the plane PLA 2 containing both the optical axis E and the visual axis V It is also an angle. At this time, the right pupil P R is also located on the plane PLA 1 . Although the reference line of this inclination Δφ 0 is not limited to a specific one, it may be, for example, a horizontal axis LN 0 connecting two cameras 10 L and 10 R. In the present embodiment, the shift of the visual axis V with respect to the optical axis E is expressed by an angle vector (shift angle vector) Vθ = (Δθ 0 , Δφ 0 ). In the present embodiment, when representing a visual axis V virtual illustrates a planar VP 1 at the angle vector V [theta] V as a reference, the optical axis E of the virtual plane VP 1 at the angle vector V [theta] E with a reference, V [theta] V = V [theta] Expressed as E −Vθ, vθ is defined as an angle vector (deviation angle vector) Vθ = (Δθ 0 , Δφ 0 ). Then, in the present embodiment, as will be described later, the value Δφ 0 of the angle vector Vθ is to be corrected according to the state of the side bend of the subject person A.

ここで、対象者Aの頭部が回転して対象者Aの右の瞳孔Pが平面PLA上で移動したことを考えると、対象者Aの側屈は生じないため、光軸Eに対する視軸Vのずれは変化しない。それとともに、カメラ10から見た2次元画像における左の瞳孔Pに対する右の瞳孔Pの水平軸LNからの高さは変化しない。 Here, considering that the head of the subject A rotates and the right pupil P R of the subject A moves on the plane PLA 1 , lateral bending of the subject A does not occur. The shift of the visual axis V does not change. At the same time, the height from the horizontal axis LN 0 of the right pupil P R with respect to the left pupil P L in the two-dimensional image viewed from the camera 10 L does not change.

一方で、図9に示すように、対象者Aの側屈の傾きが左に傾くように変化して左の瞳孔Pの位置がそのままで右の瞳孔Pが視軸V周りに角度αだけ回転した状態を想定する。この場合、光軸Eは視軸V周りに側屈の傾きの変化角度αだけ回転する。その結果、算出部23の検出する角度ベクトルVθ=(Δθ,Δφ+α)となる。つまり、図8の状態を基準とした場合は、基準となる対象者Aの頭部姿勢におけるカメラ10と左右の瞳孔P,Pとを含む平面PLAと、頭部の側屈状態の変化後の平面PLAとのなす角度が、視軸V周りの光軸Eの回転角度となる。このとき、カメラ10から見た2次元画像において、左の瞳孔Pに対する右の瞳孔Pの水平軸LNからの高さが変化するため、2次元画像上で左の瞳孔Pに対する右の瞳孔Pの回転角度を算出すれば角度αを検出することができ、その結果、角度ベクトルVθ=(Δθ,Δφ+α)を正しく計算することができる。 On the other hand, as shown in FIG. 9, the inclination angle of the lateral bending is changed to be inclined in the left position of the left pupil P L is the right pupil P R as it around the visual axis V of the subject A alpha Assume a state of rotating by two . In this case, the optical axis E rotates around the visual axis V by the change angle α 2 of the inclination of the side bending. As a result, the angle vector Vθ detected by the calculation unit 23 becomes (Δθ 0 , Δφ 0 + α 2 ). That is, when the state of FIG. 8 is used as a reference, a plane PLA 1 including the camera 10 L and the left and right pupils P L and P R in the head posture of the target person A serving as the reference The angle made with the plane PLA 3 after the change of is the rotation angle of the optical axis E around the visual axis V. At this time, in the two-dimensional image viewed from the camera 10 L, the height from the horizontal axis LN 0 of the right pupil P R with respect to the left pupil P L changes, so the left pupil P L on the two-dimensional image it is possible to detect the angle alpha 2 by calculating the rotational angle of the right pupil P R, as a result, angle vector Vθ = (Δθ 0, Δφ 0 + α 2) can be correctly calculated.

さらに、対象者Aが右カメラ10を注視した場合も同様に考えることができ、2つの瞳孔P,Pと2台のカメラ10,10とが同一平面上にある場合は、光軸Eの視軸V周りの回転は生じない。従って、左の瞳孔Pに関しては、右カメラ10をあるいは左カメラ10のいずれかの2次元画像を用いて、左瞳孔Pの視軸Vを中心に右の瞳孔Pが回転した角度を計測し、それを基に角度ベクトルVθを計算することができる。右の瞳孔Pに関しても、同様に2次元画像を用いて角度ベクトルVθを計算することができる。 Furthermore, it can be considered similarly when the subject A gazes at the right camera 10 R , and when the two pupils P L and P R and the two cameras 10 L and 10 R are on the same plane, There is no rotation about the visual axis V of the optical axis E. Thus, for the left pupil P L, the right camera 10 R or with either of the two-dimensional image of the left camera 10 L, the pupil P R of right around the viewing axis V of the left pupil P L is rotated The angle can be measured and an angle vector Vθ can be calculated based thereon. Regard right pupil P R, can be calculated angle vector Vθ similarly using the two-dimensional image.

次に、図10に示すように、図8に示す状態から対象者Aの視軸Vに対してカメラ10,10をカメラ10,10を結ぶ線を平行に保ったまま下方に移動させた場合を想定する。図10には、移動させる前のカメラの位置を符号10’,10’で示している。この場合はカメラ10,10の高さに対して視軸Vを上方に変化させたのと同じ状態と考えることができる。 Next, as shown in FIG. 10, downwardly while keeping parallel to the line of the camera 10 L, 10 R connecting the camera 10 L, 10 R with respect to the visual axis V of the subject A from the state shown in FIG. 8 Assume the case of moving. In FIG. 10, the position of the camera before moving is indicated by reference numerals 10 L ′ and 10 R ′. In this case, it can be considered to be the same as changing the visual axis V upward with respect to the height of the cameras 10 L and 10 R.

最初に、元のカメラの位置10’,10’及び左の瞳孔Pを含む平面PLA上に右の瞳孔Pが位置しており、その後、対象者Aの頭部が回転した結果、右の瞳孔Pが平面PLA上を左カメラ10から見て後方に移動して瞳孔P’の位置となったことを考える。このとき、右の瞳孔P’は、もはや2つのカメラ10,10と左の瞳孔Pを含む平面PLA上には存在しないことになる。このことは、左カメラ10から見れば、対象者Aの頭部の回転の状態と図9に示したような対象者Aの頭部の側屈の傾きとを区別することはできないことを意味する。このように、カメラ10,10によって撮像した2次元画像のみでは、対象者Aの視軸V周りの光軸Eの回転角度を検出することは困難である。 First, position 10 L of the original camera ', 10 R' is located right of the pupil P R on the plane PLA 1 containing and left pupil P L, then the head of the subject A is rotated results, given that the right pupil P R becomes moved backward as viewed on the plane PLA 1 from the left camera 10 L and the position of the pupil P R '. At this time, the right pupil P R ′ is no longer present on the plane PLA 4 including the two cameras 10 L and 10 R and the left pupil P L. This means that, from the viewpoint of the left camera 10 L, it is impossible to distinguish between the state of rotation of the head of the subject A and the inclination of lateral bending of the head of the subject A as shown in FIG. means. As described above, it is difficult to detect the rotation angle of the optical axis E around the visual axis V of the target person A only with the two-dimensional images captured by the cameras 10 L and 10 R.

そこで、本実施形態に係る算出部23は、以下のようにして、光軸と視軸との間の角度ベクトルVθを補正して算出する。   Therefore, the calculation unit 23 according to the present embodiment corrects and calculates the angle vector Vθ between the optical axis and the visual axis as follows.

すなわち、図11に示すように、算出部23は、対象者Aにディスプレイ装置30に表示された較正用の規定点(視標)POを注視させた状態で、左右の瞳孔(眼の特徴点)P,Pの3次元位置と、左の瞳孔Pの光軸Eを算出する。次に、算出部23は、光軸Eに垂直な仮想平面VPを設定し、光軸Eと、規定点PO及び左の瞳孔Pの位置によって決まる視軸Vとを基に、角度ベクトルの初期値Vθ=(Δθ,Δφ)を較正する。ここで、仮想平面VPの横軸は、仮想平面VPと世界座標系のX−Z平面と交線に相当する(以下、別の仮想平面においても同じ)。さらに、算出部23は、基準線である光軸Eに沿った方向から見たときの左右の瞳孔P,Pの3次元座標を結ぶ線の傾き(傾きの初期値)αを算出する。この傾きαが、光軸E周りの右の瞳孔Pの回転角度である。具体的には、算出部23は、左右の瞳孔P,Pの3次元座標のそれぞれを仮想平面VP上に投影することによって仮想平面VP上に座標変換される投影点PJ,PJに関して、仮想平面VP上の水平線からの2つの投影点PJ,PJを結ぶ線の傾きを求めることによって、左右の瞳孔P,Pの3次元座標を結ぶ線の傾きαを算出する。なお、算出部23は、算出した視軸Vに沿った基準線の方向から見たときの左右の瞳孔P,Pの3次元座標を結ぶ線の傾きを算出してもよい。 That is, as illustrated in FIG. 11, the calculation unit 23 causes the subject A to gaze at the left and right pupils (feature points of the eye) in a state in which the target person A gazes at the calibration specified point (target) PO displayed on the display device 30. The three-dimensional position of P L and P R and the optical axis E 0 of the left pupil P L are calculated. Subsequently, the computing unit 23 sets the virtual plane VP 0 perpendicular to the optical axis E 0, and the optical axis E 0, based on the visual axis V 0 which is determined by the position of the specified point PO and left pupil P L , Calibrate the initial value Vθ of the angle vector (Δθ 0 , Δφ 0 ). The horizontal axis of the virtual plane VP 0, the virtual plane VP 0 and corresponds to X W -Z W plane intersection line in the world coordinate system (hereinafter, the same in another virtual plane). Furthermore, the calculation unit 23 determines the slope (initial value of the slope) α 0 of the line connecting the three-dimensional coordinates of the left and right pupils P L and P R when viewed from the direction along the optical axis E 0 which is a reference line. calculate. The inclination alpha 0 is the angle of rotation of the right pupil P R around the optical axis E 0. Specifically, the calculation unit 23 projects projection points PJ L , which are coordinate-transformed on the virtual plane VP 0 by projecting the three-dimensional coordinates of the left and right pupils P L and P R onto the virtual plane VP 0 , respectively. Regarding PJ R , the inclination α of the line connecting the three-dimensional coordinates of the left and right pupils P L and P R by finding the inclination of a line connecting two projection points PJ L and PJ R from the horizontal line on the virtual plane VP 0 Calculate 0 . The calculating unit 23 may calculate an inclination of a line connecting the three-dimensional coordinates of the left and right pupils P L and P R when viewed from the direction of the reference line along the calculated visual axis V 0 .

さらに、算出部23は、対象者Aの視軸を実際に算出するタイミングにおいて、左右の瞳孔P,Pの3次元位置と、左の瞳孔Pの光軸Eを算出する。次に、算出部23は、光軸Eに垂直な仮想平面VPをあらためて設定する。さらに、算出部23は、基準線である光軸Eに沿った方向から見たときの左右の瞳孔P,Pの3次元座標を結ぶ線の傾き(傾きの実測値)αを算出する。具体的には、算出部23は、左右の瞳孔P,Pの3次元座標のそれぞれを仮想平面VP上に投影することによって仮想平面VP上に座標変換される投影点PJ,PJに関して、仮想平面VP上の水平線からの2つの投影点PJ,PJを結ぶ線の傾きを求めることによって、左右の瞳孔P,Pの3次元座標を結ぶ線の傾きαを算出する。なお、算出部23は、角度ベクトルの初期値Vθ=(Δθ,Δφ)と光軸Eとを基にいったん算出した視軸に沿った方向を基準線として、その基準線から見た左右の瞳孔P,Pの3次元座標を結ぶ線の傾きを算出してもよい。 Furthermore, the calculation unit 23 calculates the three-dimensional positions of the left and right pupils P L and P R and the optical axis E 1 of the left pupil P L at the timing at which the visual axis of the object person A is actually calculated. Subsequently, the computing unit 23 again sets the virtual plane perpendicular VP 2 to the optical axis E 1. Furthermore, the calculation unit 23 determines the inclination (measured value of inclination) α 1 of the line connecting the three-dimensional coordinates of the left and right pupils P L and P R when viewed from the direction along the optical axis E 1 which is a reference line. calculate. Specifically, the calculation unit 23, left and right pupils P L, P projection points are coordinate transformation on the virtual plane VP 2 by the respective three-dimensional coordinates projected onto the virtual plane VP 2 of R PJ L, For PJ R , the inclination α of the line connecting the three-dimensional coordinates of the left and right pupils P L and P R by finding the inclination of the line connecting the two projected points PJ L and PJ R from the horizontal line on the virtual plane VP 2 Calculate 1 The calculation unit 23 is viewed from the reference line with the direction along the visual axis once calculated based on the initial value Vθ = (Δθ 0 , Δφ 0 ) of the angle vector and the optical axis E 1 as a reference line. The inclination of a line connecting the three-dimensional coordinates of the left and right pupils P L and P R may be calculated.

そして、算出部23は、算出した左右の瞳孔P,Pの3次元座標を結ぶ線の傾きαを基に、角度ベクトルVθの初期値を視軸算出のための角度ベクトルVθに補正する。具体的には、算出部23は、傾きαから傾きαを減算し、その減算値(α−α)を基に角度ベクトルVθの傾きの初期値Δφを、下記式によって補正する。
Δφ=Δφ+(α−α
このようにして、算出部23は、視軸を検出する際に用いる角度ベクトルVθ=(Δθ,Δφ)を決定する。なお、対象者Aに較正用の規定点POを注視させた状態での傾きα及び角度ベクトルVθの初期値Δθ,Δφの算出は、最初の視軸検出時に一度実行されればよく、それらの値がその後の複数回の視軸の検出時に繰り返し用いられてもよい。
The calculation unit 23 calculates the left and right pupils P L, based on the gradient alpha 1 of a line connecting the three-dimensional coordinates of P R, correcting the initial value of the angle vector Vθ the angle vector Vθ for visual axis calculation Do. Specifically, the calculation unit 23 subtracts the inclination alpha 0 from the inclination alpha 1, the initial value [Delta] [phi 0 of inclination of the angle vector Vθ the subtracted value (α 10) based on the correction by the following formula Do.
Δφ = Δφ 0 + (α 1 −α 0 )
Thus, the calculation unit 23 determines the angle vector Vθ = (Δθ 0 , Δφ) used when detecting the visual axis. The calculation of the inclination α 0 and the initial values Δθ 0 and Δφ 0 of the angle vector Vθ in a state in which the target person A gazes at the specified point PO for calibration may be performed once at the time of the first visual axis detection. These values may be repeatedly used in subsequent detection of a plurality of visual axes.

図12を参照して、算出部23による角度ベクトルVθの初期値及び左右の瞳孔P,Pの3次元座標を結ぶ線の傾きの算出方法の詳細について説明する。 Details of a method of calculating the inclination of a line connecting the initial value of the angle vector Vθ and the three-dimensional coordinates of the left and right pupils P L and P R by the calculation unit 23 will be described with reference to FIG.

算出部23は、規定点POを対象者に注視させた際に得られる視軸Vと光軸Eとのなす角を計算することにより、なす角度の初期値Δθを検出できる。また、算出部23は、視軸の検出対象の左の瞳孔Pと2台のカメラ10,10とを通る平面PLAの法線ベクトルNS1と光軸Eとの外積ベクトルに対して平行であって、左の瞳孔を通る直線LNを設定し、その直線LNの周りに平面PLAを角度η回転させた面を平面PLAと設定する。この角度ηは、平面PLAと光軸Eとのなす角として求められる。このようにして設定される平面PLAは、基準線である光軸Eを含み、直線LNに沿った基準平面である。そして、算出部23は、平面PLAの法線ベクトルNS2と視軸Vと光軸Eとを含む平面PLAの法線ベクトルNとのなす角を計算することにより、傾きの初期値Δφを検出できる。 The calculation unit 23 can detect the initial value Δθ 0 of the formed angle by calculating the angle formed by the visual axis V and the optical axis E obtained when the target person gazes at the specified point PO. Further, the calculation unit 23, to the outer product vector between the normal vector N S1 and the optical axis E of the plane PLA 4 passing through the camera 10 L, 10 R detects the subject left pupil P L and two of the visual axis A straight line LN 2 passing through the left pupil is set, and a plane obtained by rotating the plane PLA 4 around the straight line LN 2 by an angle η is set as a plane PLA 1 . This angle η is determined as the angle between the plane PLA 4 and the optical axis E. The plane PLA 1 set in this manner includes the optical axis E which is a reference line, and is a reference plane along the straight line LN 2 . The calculation unit 23, by calculating the angle between the normal vector N P of the plane PLA 2 containing the normal vector N S2 plane PLA 1 viewing axis V and the optical axis E, the inclination initial value of Δφ 0 can be detected.

また、算出部23は、左右の瞳孔P,Pの3次元座標を結ぶ線の傾きα,αを、平面PLAに対する、左右の瞳孔P,Pと光軸Eとを含む平面(顔方向平面)のなす角(傾き)を計算することで得ることができる。具体的には、算出部23は、平面PLAの法線ベクトルNS2と顔方向平面の法線ベクトルとの間のなす角を計算する。 Further, the calculation unit 23, left and right pupils P L, P inclination alpha 0 of a line connecting the three-dimensional coordinates of R, the alpha 1, with respect to the plane PLA 1, the left and right pupil P L, and P R and optical axis E It can be obtained by calculating the angle (inclination) formed by the included plane (face direction plane). Specifically, the calculation unit 23 calculates the angle between the normal vector of N S2 and the face direction plane of plane PLA 1.

(視軸及び注視点の算出)   (Calculation of visual axis and gaze point)

算出部23は、計算によって求めた光軸Eを、上記の手法で補正した角度ベクトルVθを用いて補正することによって、視軸VをベクトルPTとして求める。さらに、算出部23は、視軸Vと視対象平面(ディスプレイ装置30)との交点である注視点Qを次式で求める。
Q=nPT+P
The calculation unit 23 obtains the visual axis V as a vector PT by correcting the optical axis E obtained by the calculation using the angle vector Vθ corrected by the above method. Furthermore, the calculation unit 23 obtains a gaze point Q which is an intersection point of the viewing axis V and the viewing target plane (display device 30) by the following equation.
Q = nPT + P

以上説明した視線検出装置1、及びそれを用いた視線検出方法によれば、対象者Aの左右の瞳孔の画像を基に、左右の瞳孔の3次元位置及び左右の眼のいずれかの光軸Eが算出され、光軸を予め設定されるずれ角度及びずれ方向に補正することによって視軸Vが算出される。その際、対象者Aの視軸あるいは光軸に沿った方向から見た対象者Aの左右の瞳孔の間の傾きが算出され、視軸を算出するためのずれ方向がその傾きによって補正される。これにより、対象者Aの両眼の注視点の位置の関係にかかわらず視線を安定して検出することができるとともに、カメラ10の性能、あるいは、対象者Aの眼部のカメラに対する向きに関係なく、視線を精度よく検出することができる。   According to the line-of-sight detection device 1 described above and the line-of-sight detection method using the same, based on the images of the left and right pupils of the subject A, the three-dimensional positions of the left and right pupils E is calculated, and the visual axis V is calculated by correcting the optical axis to the predetermined deviation angle and deviation direction. At that time, the inclination between the right and left pupils of the subject A as viewed from the direction along the visual axis or the optical axis of the subject A is calculated, and the shift direction for calculating the visual axis is corrected by the inclination . This makes it possible to stably detect the line of sight regardless of the positional relationship of the fixation points of both eyes of the subject A, and relates to the performance of the camera 10 or the direction of the eye of the subject A relative to the camera. The line of sight can be detected accurately.

ここで、画像処理装置20の算出部23は、2つの平面の傾きを計算することで左右の瞳孔の3次元座標を結ぶ線の傾きとして算出している。このようにすることで、対象者Aの視線あるいは光軸に沿った方向から見た対象者Aの左右の瞳孔の傾きが簡易に算出できるので、視線検出のための演算量を削減することができる。さらには、算出部23は、2つの平面の法線の傾きを計算することで左右の瞳孔の3次元座標を結ぶ線の傾きとして算出している。このようにすることで、対象者Aの視線あるいは光軸に沿った方向から見た対象者Aの左右の瞳孔の傾きが一層簡易に算出できるので、視線検出のための演算量をさらに削減することができる。   Here, the calculating unit 23 of the image processing apparatus 20 calculates the inclination of two planes by calculating the inclination of a line connecting the three-dimensional coordinates of the left and right pupils. In this way, the inclinations of the right and left pupils of the subject A as viewed from the line of sight of the subject A or the direction along the optical axis can be easily calculated, so that the amount of calculation for sight line detection can be reduced. it can. Furthermore, the calculation unit 23 calculates the inclination of the normals of the two planes as the inclination of a line connecting the three-dimensional coordinates of the left and right pupils. By doing this, the inclinations of the right and left pupils of the subject A as viewed from the line of sight of the subject A or the direction along the optical axis can be calculated more simply, thereby further reducing the amount of calculation for sight line detection. be able to.

また、算出部23は、予め設定された位置の視標を対象者Aに見させた際の左右の瞳孔の3次元座標及び光軸を基に、光軸に対する視軸のずれ方向の初期値及び左右の瞳孔の3次元座標を結ぶ線の傾きの初期値を算出している。その後、算出部23は、視線を検出する際に、対象者Aの瞳孔の3次元座標及び光軸を基に傾きの実測値を算出し、傾きの実測値から傾きの初期値を減算した値を基にずれ方向の初期値を補正し、補正後のずれ方向の初期値を用いて視線を算出している。この場合、視標を用いてずれ方向及び傾きの初期値が正確に算出でき、その後の傾きの実測値を基に視線が正確に算出できる。   In addition, the calculation unit 23 sets the initial value of the direction of displacement of the visual axis with respect to the optical axis based on the three-dimensional coordinates of the left and right pupils and the optical axis when the target person A looks at the target at the preset position. And the initial value of the inclination of the line connecting the three-dimensional coordinates of the left and right pupils is calculated. Thereafter, when detecting the line of sight, the calculation unit 23 calculates the actual measurement value of the inclination based on the three-dimensional coordinates of the pupil of the subject A and the optical axis, and subtracts the initial value of the inclination from the actual measurement value of the inclination. Based on the above, the initial value of the shift direction is corrected, and the line of sight is calculated using the corrected initial value of the shift direction. In this case, the initial values of the shift direction and the inclination can be accurately calculated using the visual target, and the line of sight can be accurately calculated based on the measured values of the inclination thereafter.

また、本実施形態では2台のカメラ10,10を用いている。このような構成により、左右の瞳孔の3次元座標が簡易な構成で算出でき、視線の検出が簡易な構成で実現できる。 In the present embodiment, two cameras 10 L and 10 R are used. With such a configuration, the three-dimensional coordinates of the left and right pupils can be calculated with a simple configuration, and detection of the sight line can be realized with a simple configuration.

ここで、本実施形態に係る視線検出装置1による視線検出の効果を具体的に説明する。   Here, the effect of the gaze detection by the gaze detection apparatus 1 according to the present embodiment will be specifically described.

図13には、視線検出装置1を用いた実験結果を示している。実験においては、カメラ10として16mmレンズおよび可視光カットフィルタを備えるデジタルカメラを用い、光源13として中心波長850nmの近赤外線LED光源と中心波長940nmの近赤外線LED光源とを用い、ディスプレイ装置30には19インチディスプレイを用いた。実験の対象者として被験者A〜Eの5名をディスプレイ装置30の画面正面から約80cmの位置に座らせ、画面上の5行5列で均等に配置された位置に視標25点を順番に表示させ1点ずつ注視させた。その上で、視線検出装置1を動作させて注視点を検出し、検出結果から平均視角誤差[deg]を計測した。図13(a)には、各被験者A〜E及び被験者全体の平均の左眼に関する平均視角誤差を示し、図13(b)には、各被験者A〜E及び被験者全体の平均の右眼に関する平均視角誤差を示している。それぞれの測定結果においては、被験者A〜Eの頭部の傾き(側屈の傾き)が発生しない場合と、被験者A〜Eの頭部の傾きがあって角度ベクトルVθの補正処理を動作させていない場合と、被験者A〜Eの頭部の傾きがあって角度ベクトルVθの補正処理を動作させている場合とにおける結果を分けて示している。   FIG. 13 shows an experimental result using the sight line detection device 1. In the experiment, a digital camera provided with a 16 mm lens and a visible light cut filter as the camera 10, a near infrared LED light source with a central wavelength of 850 nm and a near infrared LED light source with a central wavelength of 940 nm as the light source 13 A 19 inch display was used. Place five subjects A to E at a position approximately 80 cm from the front of the screen of the display device 30 as a subject of the experiment, and place 25 marks in order at positions evenly arranged in 5 rows and 5 columns on the screen I displayed it and watched one point at a time. Then, the visual axis detection device 1 is operated to detect the fixation point, and the average visual angle error [deg] is measured from the detection result. FIG. 13 (a) shows the average viewing angle error for each subject A to E and the average left eye of the whole subject, and FIG. 13 (b) relates to the average right eye for each subject A to E and the whole subject The average viewing angle error is shown. In each of the measurement results, there is no inclination of the head of the test subjects A to E (tilt of the lateral bending), and there is an inclination of the head of the test subjects A to E, and the correction processing of the angle vector Vθ is operated. The results in the case where there is no inclination of the head of the test subjects A to E and the correction processing of the angle vector Vθ is operated are shown separately.

この結果より、頭部の傾きが発生しない場合の左眼の平均視角誤差が0.90±0.33deg、右眼の平均視角誤差が1.10±0.41degであり、頭部の傾きがあって補正処理を動作させていない場合の左眼の平均視角誤差が1.58±0.61deg、右眼の平均視角誤差が1.73±0.59degであり、頭部の傾きがあって補正処理を動作させている場合の左眼の平均視角誤差が0.95±0.57deg、右眼の平均視角誤差が1.22±0.62degであった。このように、補正なしの場合に対して補正ありの場合は左眼で約30.9%、右眼で約27.6%ほど誤差が軽減されていることがわかった。また、補正ありの場合の結果は頭部の傾きがない場合の結果とほぼ同程度であった。なお、補正の効果が対象者によって異なっているが、本実施形態の方法は視軸と光軸とのずれを補正するものであるため、視軸と光軸とのずれが大きい被験者のほうが誤差軽減の効果が大きいためと思われる。   From this result, the average visual angle error of the left eye is 0.90 ± 0.33 deg, the average visual angle error of the right eye is 1.10 ± 0.41 deg when the head inclination does not occur, and the head inclination is The average viewing angle error of the left eye is 1.58 ± 0.61 deg and the average viewing angle error of the right eye is 1.73 ± 0.59 deg when the correction processing is not operated, and the head tilt is When the correction process was operated, the average visual angle error of the left eye was 0.95 ± 0.57 deg, and the average visual angle error of the right eye was 1.22 ± 0.62 deg. Thus, it was found that the error was reduced by about 30.9% with the left eye and about 27.6% with the right eye when corrected with respect to the case without correction. The results with correction were almost the same as the results without head tilt. Although the effect of the correction differs depending on the subject, since the method of the present embodiment corrects the deviation between the visual axis and the optical axis, the subject with a large deviation between the visual axis and the optical axis has an error. It seems that the effect of mitigation is large.

本発明は、上述した実施形態に限定されるものではない。例えば、上記実施形態では、カメラ10として2台のカメラ10,10を含むステレオカメラを用いていたが、TOF(Time-of-Flight)カメラのような1台のカメラで対象者Aの瞳孔の3次元座標を検出可能なカメラを用いてもよい。また、TOFカメラを用いなくても、1台のカメラで対象者Aの2つの瞳孔P,Pに含めて鼻孔等の対象者Aの他の特徴点を撮像し、その結果得られた3点の画像上の位置を用いて2つの瞳孔P,Pの3次元位置を検出する構成であってもよい。 The present invention is not limited to the embodiments described above. For example, in the above embodiment, a stereo camera including two cameras 10 L and 10 R is used as the camera 10, but one camera such as a TOF (Time-of-Flight) camera is used for the target person A A camera capable of detecting three-dimensional coordinates of the pupil may be used. In addition, even if the TOF camera is not used, one feature camera is included in the two pupils P L and P R of the subject A to image other feature points of the subject A such as a nostril, and the result is obtained. The three-dimensional position of the two pupils P L and P R may be detected using the positions on the three-point image.

また、上記実施形態では、対象者Aの左右の眼の特徴点として、左右の瞳孔P,Pを用いて視軸を計算しているがこれに限定されるものではなく、瞳孔の代わりに、左右の眼の特徴点として、目頭、目尻、虹彩、角膜球、あるいは角膜反射のうちのいずれか、あるいはこれらの組み合わせを検出してもよい。 In the above embodiment, the visual axes are calculated using the left and right pupils P L and P R as feature points of the left and right eyes of the subject person A, but the present invention is not limited to this. In addition, as the feature points of the left and right eyes, any one of the inside of the eye, the back of the eye, the iris, the cornea, the corneal reflection, or a combination thereof may be detected.

例えば、算出部23は、瞳孔中心、虹彩中心、あるいは角膜球中心を検出してもよいし、それらの端部を検出してもよい。角膜球中心は、角膜半径を予め与えておくことで検出することができる。角膜球の表面で反射する位置を検出してもよい。   For example, the calculation unit 23 may detect the pupil center, the iris center, or the corneal sphere center, or may detect their ends. The corneal sphere center can be detected by giving the corneal radius in advance. The position of reflection on the surface of the corneal sphere may be detected.

算出部23は、目頭、目尻等のそのものの特徴点の3次元座標を求めてもよいし、両方の中点の3次元座標を求めてもよい。さらに、両目の目頭、目尻の計4点の位置を基に最小二乗法で求めた直線の傾きを計算してもよい。さらに、眼画像中の黒い部分を眼部として検出し、それら輝度重心を特徴点の位置として検出してもよい。   The calculation unit 23 may obtain three-dimensional coordinates of the feature points such as the inner and outer corners of the eye and the like, or may obtain three-dimensional coordinates of both middle points. Furthermore, the slope of the straight line determined by the least squares method may be calculated based on the positions of the four eyes of the eyes and the corners of the eyes. Furthermore, a black part in an eye image may be detected as an eye part, and the luminance gravity centers may be detected as the positions of feature points.

また、上記実施形態では、対象者Aの左右の眼の特徴点の代わりに対象者Aの左右の眼の周辺部の特徴点の3次元座標を検出して、それらの3次元座標を基に対象者Aの側屈の傾きの角度を算出してもよい。このような眼の周辺部としては、両眼中点、眉間、眉毛、鼻孔、鼻の先端、鼻の周囲、口角、口の中心のうちのいずれか、あるいはこれらの組み合わせが例示される。対象者Aの眼の周辺部の特徴点として、鼻の先端、眉間、口の中心等を検出する場合には、算出部23は、左右の瞳孔をつなぐ直線を水平線として考えたとき、水平線に対して垂直であって特徴点を通る線を代わりに求めて、この線を含む顔方向平面を対象に傾きを計算することができる。   Further, in the above embodiment, instead of the feature points of the left and right eyes of the subject person A, the three-dimensional coordinates of the feature points of the peripheral portions of the left and right eyes of the subject person A are detected. The inclination angle of the side bend of the subject person A may be calculated. As such a peripheral part of the eye, any one of a binocular middle point, intercostal space, eyebrow, nostril, nose tip, circumference of nose, mouth corner, mouth center, or a combination thereof is exemplified. When detecting the tip of the nose, intercostal space, center of the mouth, etc. as the feature points of the peripheral part of the subject A's eyes, the calculating unit 23 sets the horizon to the horizon when considering the straight line connecting the left and right pupils. A line that is perpendicular to and passes through the feature points can instead be determined and the slope can be calculated for the face direction plane containing this line.

A…対象者、1…視線検出装置、10,10,10…カメラ、13…光源、20…画像処理装置、21…点灯制御部、22…画像取得部、23…算出部、E,E,E…光軸、P,P…瞳孔、PO…規定点(視標)、Q…注視点、V,V…視軸、Vθ…角度ベクトル、Δθ…ずれ角度、Δφ…ずれ方向。 A: target person, 1: eye gaze detection device, 10, 10 L , 10 R : camera, 13: light source, 20: image processing device, 21: lighting control unit, 22: image acquisition unit, 23: calculation unit, E, E 0 , E 1 ... optical axis, P L , P R ... pupil, PO ... prescribed point (target), Q ... fixation point, V, V 0 ... visual axis, Vθ ... angle vector, Δθ 0 ... shift angle, Δφ 0 ... shift direction.

Claims (9)

対象者の左右の眼及び該眼の周辺部を撮像することで眼画像を取得する少なくとも1台のカメラと、
前記眼画像を基に前記左右の眼のいずれかの光軸あるいは視線を算出する算出部と、を備え、
前記算出部は、算出した前記光軸あるいは前記視線のいずれかである基準線に沿って見たときの前記左右の眼の特徴点の3次元座標あるいは前記左右の眼の周辺部の特徴点の3次元座標を結ぶ線の傾きを算出し、前記傾きを基に前記対象者の頭部の傾きの回転角度を算出する、
画像処理装置。
At least one camera for acquiring an eye image by imaging the left and right eyes of the subject and the periphery of the eye;
A calculation unit that calculates an optical axis or a line of sight of one of the left and right eyes based on the eye image;
The calculation unit may select three-dimensional coordinates of feature points of the left and right eyes or feature points of peripheral portions of the left and right eyes when viewed along a reference line which is either the calculated optical axis or the line of sight. The inclination of a line connecting three-dimensional coordinates is calculated, and the rotation angle of the inclination of the head of the subject is calculated based on the inclination.
Image processing device.
前記算出部は、前記基準線に沿って見たときの前記頭部の傾きの回転角度を算出する、
請求項1記載の画像処理装置。
The calculation unit calculates a rotation angle of the inclination of the head when viewed along the reference line.
An image processing apparatus according to claim 1.
前記算出部は、前記光軸を予め設定されるずれ角度及びずれ方向に補正することによって前記視線を算出し、前記傾きを基に前記ずれ方向を補正し、補正後の前記ずれ方向を用いて前記視線を算出する、
請求項1又は2に記載の画像処理装置。
The calculation unit calculates the sight line by correcting the optical axis to a preset shift angle and shift direction, corrects the shift direction based on the inclination, and uses the corrected shift direction. Calculate the line of sight,
The image processing apparatus according to claim 1.
前記算出部は、前記基準線を含み所定軸に沿った基準平面と、前記基準線と前記左右の眼の特徴点の3次元座標あるいは前記左右の眼の周辺部の特徴点の3次元座標とを含む顔方向平面とを設定し、前記基準平面に対する前記顔方向平面の傾きを、前記左右の眼の特徴点の3次元座標あるいは前記左右の眼の周辺部の特徴点の3次元座標を結ぶ線の傾きとして算出する、
請求項1〜3のいずれか1項に記載の画像処理装置。
The calculation unit includes: a reference plane including the reference line and extending along a predetermined axis; three-dimensional coordinates of the reference line and the feature points of the left and right eyes or three-dimensional coordinates of feature points of peripheral portions of the left and right eyes Setting the inclination of the face direction plane with respect to the reference plane, and connecting the three-dimensional coordinates of the feature points of the left and right eyes or the three-dimensional coordinates of the feature points of the peripheral portions of the left and right eyes Calculated as the slope of the line,
The image processing apparatus according to any one of claims 1 to 3.
前記算出部は、前記基準平面の法線と前記顔方向平面の法線との間の傾きを、前記左右の眼の特徴点の3次元座標あるいは前記左右の眼の周辺部の特徴点の3次元座標を結ぶ線の傾きとして算出する、
請求項4記載の画像処理装置。
The calculation unit may determine an inclination between the normal line of the reference plane and the normal line of the face direction plane, the three-dimensional coordinates of the feature points of the left and right eyes, or the feature points of peripheral parts of the left and right eyes. Calculated as the slope of a line connecting dimensional coordinates,
The image processing apparatus according to claim 4.
前記算出部は、予め設定された位置の視標を前記対象者に見させた際の前記左右の眼の特徴点の3次元座標あるいは前記左右の眼の周辺部の特徴点の3次元座標及び前記光軸を基に、前記ずれ方向の初期値及び前記傾きの初期値を算出し、前記視線を検出する際に、前記左右の眼の特徴点の3次元座標あるいは前記左右の眼の周辺部の特徴点の3次元座標及び前記光軸を基に前記傾きの実測値を算出し、前記傾きの実測値から前記傾きの初期値を減算した値を基に前記ずれ方向の初期値を補正し、補正後の前記ずれ方向の初期値を用いて前記視線を算出する、
請求項3に記載の画像処理装置。
The calculation unit is configured to: three-dimensional coordinates of feature points of the left and right eyes or three-dimensional coordinates of feature points of peripheral portions of the left and right eyes when the target person is caused to look at a target at a preset position. When calculating the initial value of the shift direction and the initial value of the inclination based on the optical axis and detecting the sight line, three-dimensional coordinates of the feature points of the left and right eyes or peripheral parts of the left and right eyes The actual measurement value of the inclination is calculated based on the three-dimensional coordinates of the feature points of the feature point and the optical axis, and the initial value in the deviation direction is corrected based on a value obtained by subtracting the initial value of the inclination from the actual measurement value of the inclination. Calculating the sight line using an initial value of the deviation direction after correction;
The image processing apparatus according to claim 3.
前記眼画像を取得する2台のカメラを備え、
前記算出部は、前記2台のカメラによって取得された前記眼画像を基に、前記左右の眼の特徴点の3次元座標あるいは前記左右の眼の周辺部の特徴点の3次元座標を算出する、
請求項1〜6のいずれか1項に記載の画像処理装置。
It has two cameras for acquiring the eye image,
The calculation unit calculates the three-dimensional coordinates of the feature points of the left and right eyes or the three-dimensional coordinates of the feature points of the peripheral part of the left and right eyes based on the eye images acquired by the two cameras. ,
The image processing apparatus according to any one of claims 1 to 6.
前記算出部は、前記左右の眼の特徴点として、瞳孔、目頭、目尻、虹彩、角膜球、あるいは角膜反射のうちのいずれか、前記左右の眼の周辺部の特徴点として、両眼中点、眉間、眉毛、鼻孔、鼻の先端、鼻の周囲、口角、口の中心のうちのいずれかを検出する、
請求項1〜7のいずれか1項に記載の画像処理装置。
The calculation unit is any one of the pupil, the inner eye, the corner of the eye, an iris, a corneal ball, and a corneal reflex as feature points of the left and right eyes, and a binocular midpoint as a feature point of peripheral portions of the left and right eyes. Detect any of the intercostal region, eyebrows, nostrils, nose tip, nose circumference, mouth corners, mouth center,
The image processing apparatus according to any one of claims 1 to 7.
対象者の左右の眼及び該眼の周辺部を撮像することで眼画像を取得する画像取得ステップと、
前記眼画像を基に前記左右の眼のいずれかの光軸あるいは視線を算出する算出ステップと、を備え、
前記算出ステップでは、算出した前記光軸あるいは前記視線のいずれかである基準線に沿って見たときの前記左右の眼の特徴点の3次元座標あるいは前記左右の眼の周辺部の特徴点の3次元座標を結ぶ線の傾きを算出し、前記傾きを基に前記対象者の頭部の傾きの回転角度を算出する、
画像処理方法。
An image acquisition step of acquiring an eye image by imaging the left and right eyes of the subject and the periphery of the eye;
Calculating an optical axis or a line of sight of one of the left and right eyes based on the eye image;
In the calculating step, the three-dimensional coordinates of the feature points of the left and right eyes or the feature points of the peripheral part of the left and right eyes when viewed along the reference line which is either the calculated optical axis or the sight line The inclination of a line connecting three-dimensional coordinates is calculated, and the rotation angle of the inclination of the head of the subject is calculated based on the inclination.
Image processing method.
JP2017234588A 2017-12-06 2017-12-06 Image processing device and image processing method Active JP7046347B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017234588A JP7046347B2 (en) 2017-12-06 2017-12-06 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017234588A JP7046347B2 (en) 2017-12-06 2017-12-06 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2019098024A true JP2019098024A (en) 2019-06-24
JP7046347B2 JP7046347B2 (en) 2022-04-04

Family

ID=66974893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017234588A Active JP7046347B2 (en) 2017-12-06 2017-12-06 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7046347B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110750157A (en) * 2019-10-18 2020-02-04 天津理工大学 Eye control auxiliary input device and method based on 3D eyeball model
CN112597872A (en) * 2020-12-18 2021-04-02 深圳地平线机器人科技有限公司 Gaze angle estimation method and device, storage medium, and electronic device
WO2021090354A1 (en) 2019-11-05 2021-05-14 日本電気株式会社 Iris authentication device and iris authentication method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130188834A1 (en) * 2010-08-09 2013-07-25 Yoshinobu Ebisawa Gaze point detection method and gaze point detection device
JP2015169959A (en) * 2014-03-04 2015-09-28 国立大学法人静岡大学 Rotation angle calculation method, gaze point detection method, information input method, rotation angle calculation apparatus, gaze point detection apparatus, information input apparatus, rotation angle calculation program, gaze point detection program, and information input program
JP2016024616A (en) * 2014-07-18 2016-02-08 国立大学法人静岡大学 Eyeball measurement system, visual line detection system, eyeball measurement method, eyeball measurement program, visual line detection method, and visual line detection program
JP2016099759A (en) * 2014-11-20 2016-05-30 国立大学法人静岡大学 Face detection method, face detection device, and face detection program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130188834A1 (en) * 2010-08-09 2013-07-25 Yoshinobu Ebisawa Gaze point detection method and gaze point detection device
JP2015169959A (en) * 2014-03-04 2015-09-28 国立大学法人静岡大学 Rotation angle calculation method, gaze point detection method, information input method, rotation angle calculation apparatus, gaze point detection apparatus, information input apparatus, rotation angle calculation program, gaze point detection program, and information input program
JP2016024616A (en) * 2014-07-18 2016-02-08 国立大学法人静岡大学 Eyeball measurement system, visual line detection system, eyeball measurement method, eyeball measurement program, visual line detection method, and visual line detection program
JP2016099759A (en) * 2014-11-20 2016-05-30 国立大学法人静岡大学 Face detection method, face detection device, and face detection program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110750157A (en) * 2019-10-18 2020-02-04 天津理工大学 Eye control auxiliary input device and method based on 3D eyeball model
CN110750157B (en) * 2019-10-18 2023-12-01 天津理工大学 Eye control auxiliary input device and method based on 3D eyeball model
WO2021090354A1 (en) 2019-11-05 2021-05-14 日本電気株式会社 Iris authentication device and iris authentication method
CN112597872A (en) * 2020-12-18 2021-04-02 深圳地平线机器人科技有限公司 Gaze angle estimation method and device, storage medium, and electronic device

Also Published As

Publication number Publication date
JP7046347B2 (en) 2022-04-04

Similar Documents

Publication Publication Date Title
JP6548171B2 (en) Pupil detection system, gaze detection system, pupil detection method, and pupil detection program
JP6586523B2 (en) Eye tracking using structured light
JP6631951B2 (en) Eye gaze detection device and eye gaze detection method
JP5858433B2 (en) Gaze point detection method and gaze point detection device
JP6963820B2 (en) Line-of-sight detector
JP4649319B2 (en) Gaze detection device, gaze detection method, and gaze detection program
US6659611B2 (en) System and method for eye gaze tracking using corneal image mapping
JP5915981B2 (en) Gaze point detection method and gaze point detection device
JP7030317B2 (en) Pupil detection device and pupil detection method
JP2005185431A (en) Line-of-sight detection method and line-of-sight detector
US11624907B2 (en) Method and device for eye metric acquisition
JP6324119B2 (en) Rotation angle calculation method, gazing point detection method, information input method, rotation angle calculation device, gazing point detection device, information input device, rotation angle calculation program, gazing point detection program, and information input program
JP7046347B2 (en) Image processing device and image processing method
JP6948688B2 (en) Line-of-sight measurement device, line-of-sight measurement method, and line-of-sight measurement program
JP6452235B2 (en) Face detection method, face detection device, and face detection program
JP2019215688A (en) Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration
JP5590487B2 (en) Gaze measurement method and gaze measurement device
JP6430813B2 (en) Position detection apparatus, position detection method, gazing point detection apparatus, and image generation apparatus
JP6780161B2 (en) Line-of-sight detection device and line-of-sight detection method
JP6468755B2 (en) Feature point detection system, feature point detection method, and feature point detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220315

R150 Certificate of patent or registration of utility model

Ref document number: 7046347

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150