JP2018099174A - Pupil detector and pupil detection method - Google Patents

Pupil detector and pupil detection method Download PDF

Info

Publication number
JP2018099174A
JP2018099174A JP2016245664A JP2016245664A JP2018099174A JP 2018099174 A JP2018099174 A JP 2018099174A JP 2016245664 A JP2016245664 A JP 2016245664A JP 2016245664 A JP2016245664 A JP 2016245664A JP 2018099174 A JP2018099174 A JP 2018099174A
Authority
JP
Japan
Prior art keywords
image
pupil
subject
pupils
eyeball
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016245664A
Other languages
Japanese (ja)
Other versions
JP7030317B2 (en
Inventor
嘉伸 海老澤
Yoshinobu Ebisawa
嘉伸 海老澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2016245664A priority Critical patent/JP7030317B2/en
Publication of JP2018099174A publication Critical patent/JP2018099174A/en
Application granted granted Critical
Publication of JP7030317B2 publication Critical patent/JP7030317B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a pupil detector that improves detection accuracy of a position of a pupil while simplifying a configuration of an optical system.SOLUTION: A pupil detector includes: an optical system including a camera 2 for photographing a target person's face and light sources 3a, 3b for illuminating the face; and a detection unit 13 for calculating three-dimensional positions of two pupils of the target person on the basis of a face image output by the camera 2. The detection unit 13 includes: a feature point detection unit 17 that on the basis of a position of each of the two pupils detected on the face image and a direction of an optical axis of the target person's eyeball, calculates a position on the image of a rotation center of each of the target person's two eyeballs; and a face posture detection unit 18 and line-of-sight detection unit 19 that calculate three-dimensional positions of the two pupils on the basis of the positions on the image of the rotation centers of the two eyeballs and positions on the image of the target person's nostrils.SELECTED DRAWING: Figure 3

Description

本発明の一形態は、瞳孔検出装置及び瞳孔検出方法に関する。   One embodiment of the present invention relates to a pupil detection device and a pupil detection method.

従来から、1台のカメラとそのカメラの撮像レンズの近傍に設けられた光源とを用いて対象者の顔画像を取得し、その顔画像を用いて左右の瞳孔中心の二次元座標及び左右の鼻孔中心の二次元座標を検出し、それらの二次元座標を基に算出した左右の瞳孔中心の三次元座標及び左右の鼻孔中心の三次元座標を基に顔姿勢を検出する方法が知られている(下記特許文献1参照)。この方法によれば、左右の瞳孔のそれぞれの三次元位置と、左右の鼻孔間の中点の三次元座標が算出でき、それらの3点を通る平面の法線を頭部方向として検出し、それらの3点の重心を頭部位置として検出することができる。また、この方法を発展させた方法として、時系列に得られた画像フレームにおける瞳孔あるいは鼻孔等の特徴点の移動予測を高精度に行うことで、対象者の頭部に動きがあった場合に特徴点の追跡のロバスト性を向上させる方法が知られている(下記特許文献2参照)。   Conventionally, a target person's face image is acquired using one camera and a light source provided in the vicinity of the imaging lens of the camera, and the two-dimensional coordinates of the left and right pupil centers and There is a known method of detecting the face posture based on the three-dimensional coordinates of the left and right pupil centers and the three-dimensional coordinates of the left and right nostrils centers, which are detected based on the two-dimensional coordinates of the nostrils. (See Patent Document 1 below). According to this method, the three-dimensional position of each of the left and right pupils and the three-dimensional coordinates of the midpoint between the left and right nostrils can be calculated, and the normal of the plane passing through those three points is detected as the head direction. The center of gravity of these three points can be detected as the head position. In addition, this method has been developed as a method for predicting the movement of feature points such as pupils or nostrils in a time-series image frame with high accuracy so that the subject's head moves. A method for improving the robustness of feature point tracking is known (see Patent Document 2 below).

一方で、対象者の視線を検出する装置において、1台のカメラで取得された顔画像を基に検出された瞳孔の二次元位置及び角膜反射の二次元位置を用いて視線および注視点を算出するために、2台のカメラをさらに設けて瞳孔の三次元位置を検出する構成が知られている(下記特許文献3参照)。   On the other hand, in a device that detects the line of sight of the subject, the line of sight and gaze point are calculated using the two-dimensional position of the pupil and the two-dimensional position of the corneal reflection detected based on the face image acquired by one camera. In order to achieve this, a configuration is known in which two cameras are further provided to detect the three-dimensional position of the pupil (see Patent Document 3 below).

特許第4431749号公報Japanese Patent No. 4343149 特許第5429885号公報Japanese Patent No. 5429885 特許第4517049号公報Japanese Patent No. 4517049

しかしながら、上述した特許文献1及び特許文献1に記載の方法においては、対象者の視線が変化した場合に、瞳孔の三次元位置の検出精度が低下する傾向にある。すなわち、視線が変化するとカメラから見た検出対象の2つの瞳孔と鼻孔との3点間の位置関係が変化するために、カメラで取得された顔画像を用いて検出された瞳孔の三次元位置に誤差が生じやすい。上述した特許文献3に記載の構成によれば、2台のカメラを用いることで瞳孔の三次元座標の検出精度は維持できるが光学システムの構成が複雑化する傾向にある。   However, in the methods described in Patent Document 1 and Patent Document 1 described above, when the subject's line of sight changes, the detection accuracy of the three-dimensional position of the pupil tends to decrease. That is, when the line of sight changes, the positional relationship between the two points of the two pupils to be detected and the nostrils as viewed from the camera changes, so that the three-dimensional position of the pupil detected using the face image acquired by the camera Errors are likely to occur. According to the configuration described in Patent Document 3 described above, the detection accuracy of the three-dimensional coordinates of the pupil can be maintained by using two cameras, but the configuration of the optical system tends to be complicated.

本発明は、上記課題に鑑みて為されたものであり、光学システムの構成を単純化しながら瞳孔の位置の検出精度をより向上させることが可能な瞳孔検出装置及び瞳孔検出方法を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a pupil detection device and a pupil detection method capable of further improving the detection accuracy of the position of the pupil while simplifying the configuration of the optical system. Objective.

上記課題を解決するため、本発明の一形態にかかる瞳孔検出装置は、対象者の顔を撮像する撮像装置と顔を照明する照明装置とを含む光学システムと、撮像装置によって出力された画像を基に対象者の2つの瞳孔の三次元位置を算出する処理部と、を備え、処理部は、画像上で検出した2つの瞳孔のそれぞれの位置と、対象者の眼球の光軸の方向とを基に、対象者の2つの眼球のそれぞれの回転中心の画像上の位置を算出する回転中心算出部と、2つの眼球の回転中心の画像上の位置と、対象者の鼻孔の画像上の位置とを基に、2つの瞳孔の三次元位置を算出する瞳孔位置算出部と、を有する。   In order to solve the above-described problem, a pupil detection device according to an aspect of the present invention includes an optical system including an imaging device that captures an image of a subject's face and an illumination device that illuminates the face, and an image output by the imaging device. A processing unit that calculates a three-dimensional position of the two pupils of the subject based on the position of each of the two pupils detected on the image and the direction of the optical axis of the eyeball of the subject Based on the rotation center calculation unit for calculating the position on the image of the rotation center of each of the two eyeballs of the subject, the position on the image of the rotation center of the two eyeballs, and the image on the nostril of the subject And a pupil position calculation unit that calculates a three-dimensional position of the two pupils based on the position.

或いは、本発明の他の形態にかかる瞳孔検出方法は、対象者の顔を照明装置によって照明しながら顔を撮像装置によって撮像するステップと、撮像装置によって出力された画像を基に対象者の2つの瞳孔の三次元位置を算出するステップと、を備え、三次元位置を算出するステップは、画像上で検出した2つの瞳孔のそれぞれの位置と、対象者の眼球の光軸の方向とを基に、対象者の2つの眼球のそれぞれの回転中心の画像上の位置を算出するステップと、2つの眼球の回転中心の画像上の位置と、対象者の鼻孔の画像上の位置とを基に、2つの瞳孔の三次元位置を算出するステップと、を有する。   Alternatively, in the pupil detection method according to another aspect of the present invention, the face of the subject is illuminated by the illumination device while the face of the subject is illuminated by the illumination device, and the subject's 2 is detected based on the image output by the imaging device. Calculating a three-dimensional position of two pupils, and the step of calculating the three-dimensional position is based on the positions of the two pupils detected on the image and the direction of the optical axis of the eyeball of the subject. And calculating the position of the rotation center of each of the two eyeballs of the subject on the image, the position of the rotation center of the two eyeballs on the image, and the position of the subject's nostril on the image. Calculating a three-dimensional position of the two pupils.

上記形態の瞳孔検出装置、あるいは瞳孔検出方法によれば、光学システムによって取得された画像上の2つの瞳孔のそれぞれの位置と眼球の光軸の方向とを基に2つの眼球のそれぞれの回転中心の画像上の位置が算出され、算出された2つの眼球の回転中心の画像上の位置と鼻孔の画像上の位置とを基に、2つの瞳孔の三次元位置が算出される。これにより、対象者の視線方向が変化した場合であっても2つの眼球の回転中心と鼻孔との3点の位置関係は維持されるので、高精度の瞳孔の位置検出が実現される。加えて、光学システムにおける撮像装置の台数が削減可能とされ、光学システムの構成が単純化される。   According to the pupil detection device or the pupil detection method of the above aspect, the respective rotation centers of the two eyeballs based on the respective positions of the two pupils on the image acquired by the optical system and the direction of the optical axis of the eyeball The positions of the two pupils are calculated, and the three-dimensional positions of the two pupils are calculated based on the calculated positions on the images of the rotation centers of the two eyeballs and the positions of the nostrils on the image. As a result, even if the subject's line-of-sight direction changes, the positional relationship between the three rotation centers of the two eyeballs and the nostril is maintained, so that highly accurate pupil position detection is realized. In addition, the number of imaging devices in the optical system can be reduced, and the configuration of the optical system is simplified.

ここで、上記形態の瞳孔検出装置においては、回転中心算出部は、2つの瞳孔のそれぞれの位置と2つの瞳孔のそれぞれに対応して生じる角膜反射の画像上の位置とを基に眼球の光軸の方向を求め、眼球の光軸の方向を基に回転中心の画像上の位置を算出する、ことが好適である。この場合、瞳孔の画像上の位置と角膜反射の画像上の位置から眼球の回転中心の画像上の位置が算出され、簡易な演算で高精度の瞳孔の位置検出が可能となる。   Here, in the pupil detection device of the above-described form, the rotation center calculation unit calculates the light of the eyeball based on the position of each of the two pupils and the position on the image of the corneal reflection that occurs corresponding to each of the two pupils. It is preferable to obtain the direction of the axis and calculate the position of the rotation center on the image based on the direction of the optical axis of the eyeball. In this case, the position on the image of the center of rotation of the eyeball is calculated from the position on the image of the pupil and the position on the image of corneal reflection, and the position of the pupil can be detected with high accuracy by simple calculation.

また、回転中心算出部は、画像上で検出される2つの瞳孔のそれぞれに関する楕円度を基に眼球の光軸の方向を求め、眼球の光軸の方向を基に回転中心の画像上の位置を算出する、ことも好適である。この場合にも、画像上での瞳孔に関する楕円度を使って求められた光軸の方向を基にして眼球の回転中心の画像上の位置が算出され、高精度の瞳孔の位置検出が可能となる。   The rotation center calculation unit obtains the direction of the optical axis of the eyeball based on the ellipticity related to each of the two pupils detected on the image, and the position of the rotation center on the image based on the direction of the optical axis of the eyeball. It is also preferable to calculate. Also in this case, the position of the center of rotation of the eyeball on the image is calculated based on the direction of the optical axis obtained using the ellipticity related to the pupil on the image, and the position of the pupil can be detected with high accuracy. Become.

また、処理部は、回転中心算出部として、2つの瞳孔のそれぞれの位置と2つの瞳孔のそれぞれに対応して生じる角膜反射の画像上の位置とを基に眼球の光軸の方向を求め、眼球の光軸の方向を基に回転中心の画像上の位置を算出する第1の処理部と、画像上で検出される2つの瞳孔のそれぞれに関する楕円度を基に眼球の光軸の方向を求め、眼球の光軸の方向を基に回転中心の画像上の位置を算出する第2の処理部とを含んでおり、第1の処理部による処理結果と第2の処理部による処理結果を加味して2つの瞳孔の三次元位置を算出する、ことも好適である。この場合、角膜反射の画像上の位置を利用した算出結果と画像上で検出された瞳孔に関する楕円度を利用した算出結果を加味することにより、より高精度の瞳孔の位置検出が実現される。   In addition, the processing unit obtains the direction of the optical axis of the eyeball based on the position of each of the two pupils and the position on the image of the corneal reflection corresponding to each of the two pupils as the rotation center calculation unit, The first processing unit that calculates the position of the center of rotation on the image based on the direction of the optical axis of the eyeball, and the direction of the optical axis of the eyeball based on the ellipticity of each of the two pupils detected on the image And a second processing unit that calculates a position on the image of the center of rotation based on the direction of the optical axis of the eyeball. The processing result by the first processing unit and the processing result by the second processing unit are obtained. In consideration of this, it is also preferable to calculate the three-dimensional positions of the two pupils. In this case, by adding the calculation result using the position of the cornea reflection on the image and the calculation result using the ellipticity of the pupil detected on the image, more accurate detection of the position of the pupil is realized.

また、処理部は、回転中心算出部として、2つの瞳孔のそれぞれの位置と2つの瞳孔のそれぞれに対応して生じる角膜反射の画像上の位置とを基に眼球の光軸の方向を求め、眼球の光軸の方向を基に回転中心の画像上の位置を算出する第1の処理部と、画像上で検出される2つの瞳孔のそれぞれに関する楕円度を基に眼球の光軸の方向を求め、眼球の光軸の方向を基に回転中心の画像上の位置を算出する第2の処理部とを含んでおり、第1の処理部及び第2の処理部のいずれかの処理結果を選択して用いることにより2つの瞳孔の三次元位置を算出する、ことも好適である。かかる構成では、角膜反射の画像上の位置を利用した算出結果と画像上で検出された瞳孔に関する楕円度を利用した算出結果を選択して用いることにより、より高精度の瞳孔の位置検出が実現される。   In addition, the processing unit obtains the direction of the optical axis of the eyeball based on the position of each of the two pupils and the position on the image of the corneal reflection corresponding to each of the two pupils as the rotation center calculation unit, The first processing unit that calculates the position of the center of rotation on the image based on the direction of the optical axis of the eyeball, and the direction of the optical axis of the eyeball based on the ellipticity of each of the two pupils detected on the image And a second processing unit that calculates the position of the center of rotation on the image based on the direction of the optical axis of the eyeball, and the processing result of either the first processing unit or the second processing unit is obtained. It is also preferable to calculate the three-dimensional positions of the two pupils by selecting and using them. In such a configuration, more accurate pupil position detection is realized by selecting and using the calculation result using the position of the corneal reflection on the image and the calculation result using the ellipticity of the pupil detected on the image. Is done.

また、対象者の一方の瞳孔に対応する角膜反射が検出され、対象者の他方の瞳孔に対応する角膜反射が検出されなかった場合、第1の処理部及び第2の処理部の処理結果のうち、一方の瞳孔に関する第1の処理部の処理結果を優先して用いる、ことが好適である。これにより、より高精度の瞳孔の位置検出が実現される。   Further, when the corneal reflection corresponding to one pupil of the subject is detected and the corneal reflection corresponding to the other pupil of the subject is not detected, the processing result of the first processing unit and the second processing unit Of these, it is preferable to preferentially use the processing result of the first processing unit related to one pupil. As a result, more accurate pupil position detection is realized.

さらに、瞳孔位置算出部は、2つの眼球の回転中心の画像上の位置と、対象者の鼻孔の画像上の位置とを基に、2つの眼球の回転中心の三次元位置と鼻孔の三次元位置とを算出することにより、対象者の顔方向を検出する、ことも好適である。かかる構成により、対象者の顔方向を高精度で検出することができる。   Further, the pupil position calculation unit is configured to determine the three-dimensional position of the rotation center of the two eyeballs and the three-dimensional of the nostril based on the position on the image of the rotation center of the two eyeballs and the position on the image of the nostril of the subject. It is also preferable to detect the face direction of the subject person by calculating the position. With this configuration, the face direction of the subject can be detected with high accuracy.

またさらに、眼球の光軸の方向を基に対象者の視線方向を求める視線検出部をさらに備え、瞳孔位置算出部は、2つの眼球の回転中心の画像上の位置と、対象者の鼻孔の画像上の位置とを基に、2つの眼球の回転中心の三次元位置と鼻孔の三次元位置とを算出することにより、対象者の顔方向を検出し、視線検出部は、対象者の顔方向を基に、対象者の視線方向が二方向のうちのどちらであるかを判定する、ことも好適である。これにより、高精度の視線検出が可能となる。   Further, the image processing apparatus further includes a line-of-sight detection unit that obtains the direction of the subject's line of sight based on the direction of the optical axis of the eyeball, and the pupil position calculation unit includes the position of the rotation center of the two eyeballs on the image, The face direction of the subject is detected by calculating the three-dimensional position of the center of rotation of the two eyeballs and the three-dimensional position of the nostril based on the position on the image. It is also preferable to determine which of the two directions the subject's line-of-sight direction is based on the direction. Thereby, it is possible to detect the line of sight with high accuracy.

さらにまた、光学システムを少なくとも2系統備え、処理部は、少なくとも2系統の光学システムから出力された画像を基に、2つの瞳孔の間の第1の距離、及び瞳孔と鼻孔との間の第2の距離とを計測し、第1の距離及び第2の距離とを用いて、2つの瞳孔の三次元位置を算出する、ことが好適である。これにより、広範囲に位置する対象者を対象に高精度の視線検出が可能となる。   Furthermore, at least two systems of optical systems are provided, and the processing unit has a first distance between the two pupils and a first distance between the pupils and the nostrils based on images output from the at least two systems of optical systems. It is preferable to measure the two distances and calculate the three-dimensional positions of the two pupils using the first distance and the second distance. Thereby, it is possible to detect a line of sight with high accuracy for a target person located in a wide range.

本発明によれば、光学システムの構成を単純化しながら瞳孔の位置の検出精度をより向上させることができる。   According to the present invention, it is possible to further improve the detection accuracy of the pupil position while simplifying the configuration of the optical system.

第1実施形態に係る瞳孔検出装置を示す平面図である。It is a top view which shows the pupil detection apparatus which concerns on 1st Embodiment. 図1の画像処理装置1のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the image processing apparatus 1 of FIG. 図1の画像処理装置1の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus 1 of FIG. 図3の特徴点検出部17による計算の前提となる眼球モデルを示す平面図である。It is a top view which shows the eyeball model used as the premise of the calculation by the feature point detection part 17 of FIG. 図4の眼球モデルでモデル化された対象者Aの眼部を対象にしてカメラ2で撮像された画像イメージを示す図である。It is a figure which shows the image image imaged with the camera 2 aiming at the eye part of the subject person A modeled with the eyeball model of FIG. 第2実施形態の瞳孔検出装置を構成する画像処理装置1Aの機能構成を示すブロック図である。It is a block diagram which shows the function structure of 1 A of image processing apparatuses which comprise the pupil detection apparatus of 2nd Embodiment. (a)部及び(b)部は、図6の視線検出部19Aの実行する瞳孔形状法の原理を説明するための図である。Parts (a) and (b) are diagrams for explaining the principle of the pupil shape method executed by the line-of-sight detection unit 19A of FIG. 図6の視線検出部19Aの実行する瞳孔形状法の原理を説明するための図である。It is a figure for demonstrating the principle of the pupil shape method which 19 A of gaze detection parts of FIG. 6 perform. 第3実施形態の瞳孔検出装置を構成する画像処理装置1Bの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus 1B which comprises the pupil detection apparatus of 3rd Embodiment. 光学系4に対する対象者Aの状態を示す平面図である。4 is a plan view showing a state of a subject A with respect to the optical system 4. FIG. 光学系4に対する対象者Aの状態を示す平面図である。4 is a plan view showing a state of a subject A with respect to the optical system 4. FIG.

以下、図面を参照しつつ本発明に係る瞳孔検出装置の好適な実施形態について詳細に説明する。なお、図面の説明においては、同一又は相当部分には同一符号を付し、重複する説明を省略する。また、各図面は説明用のために作成されたものであり、説明の対象部位を特に強調するように描かれている。そのため、図面における各部分の寸法比率は、必ずしも実際のものとは一致しない。
[第1実施形態]
Hereinafter, a preferred embodiment of a pupil detection device according to the present invention will be described in detail with reference to the drawings. In the description of the drawings, the same or corresponding parts are denoted by the same reference numerals, and redundant description is omitted. Each drawing is made for the purpose of explanation, and is drawn so as to particularly emphasize the target portion of the explanation. Therefore, the dimensional ratio of each part in the drawings does not necessarily match the actual one.
[First Embodiment]

まず、図1〜図3を参照しながら、第1実施形態に係る瞳孔検出装置10の構成を説明する。図1は、瞳孔検出装置10の平面図であり、図2は、図1の画像処理装置1のハードウェア構成を示すブロック図、図3は、図1の画像処理装置1の機能構成を示すブロック図である。本実施形態の瞳孔検出装置は、対象者の視線移動を検出することによってパーソナルコンピュータのモニタ画面上のカーソルを移動させるポインティングデバイス、瞳孔又は視線の動きを監視して運転者の眠気を検知する眠気検知システム、対象者の瞳孔又は視線の動きを検出して自閉症等の診断を行う診断システム等として利用される。   First, the configuration of the pupil detection device 10 according to the first embodiment will be described with reference to FIGS. FIG. 1 is a plan view of the pupil detection device 10, FIG. 2 is a block diagram showing a hardware configuration of the image processing device 1 in FIG. 1, and FIG. 3 shows a functional configuration of the image processing device 1 in FIG. It is a block diagram. The pupil detection device of the present embodiment is a pointing device that moves the cursor on the monitor screen of a personal computer by detecting the movement of the subject's line of sight, the sleepiness of detecting the sleepiness of the driver by monitoring the movement of the pupil or the line of sight It is used as a detection system, a diagnosis system for diagnosing autism or the like by detecting the movement of the subject's pupil or line of sight.

図1に示すように、瞳孔検出装置10は、対象者Aの顔画像を撮像する1台のカメラ(撮像装置)2、カメラ2の前面2aの撮像レンズの近傍に設けられ対象者Aの顔を照明する光源(照明装置)3a、及びカメラ2の前面2aから離れた位置に設けられ対象者Aの顔を照明する光源(照明装置)3bを含む光学系(光学システム)4と、カメラ2及び光源3a,3bと接続された画像処理装置1とを備えている。この画像処理装置1は、カメラ2によって対象者Aの顔画像を基に、対象者Aの左右の瞳孔の三次元位置を算出するとともに、それを基に対象者Aの視線方向あるいは注視点と対象者Aの顔姿勢(顔方向)とを検出する演算部(プロセッサ)である。   As shown in FIG. 1, the pupil detection device 10 includes a single camera (imaging device) 2 that captures a face image of the subject A and the face of the subject A provided in the vicinity of the imaging lens on the front surface 2 a of the camera 2. An optical system (optical system) 4 including a light source (illumination device) 3a that illuminates the subject 2 and a light source (illumination device) 3b that is provided at a position away from the front surface 2a of the camera 2 and illuminates the face of the subject A And an image processing apparatus 1 connected to the light sources 3a and 3b. The image processing apparatus 1 calculates the three-dimensional positions of the left and right pupils of the subject A based on the face image of the subject A by the camera 2 and uses the gaze direction or gazing point of the subject A as a basis. It is a calculating part (processor) which detects the subject's A face posture (face direction).

カメラ2は、対象者Aの顔画像を生成できる撮像装置であれば特定の種類のものには限定されないが、画像データをリアルタイム性が高く処理できるという点で、CCD、CMOS等の撮像素子を内蔵するデジタルカメラを用いる。このカメラ2は、対象者Aがカメラ2の前面2aに向かい合うように配置されている。   The camera 2 is not limited to a specific type as long as it is an imaging device that can generate a face image of the subject A, but an image sensor such as a CCD or CMOS is used in that the image data can be processed with high real-time properties. Use the built-in digital camera. The camera 2 is arranged so that the subject A faces the front surface 2 a of the camera 2.

光源3aは、カメラ2の光軸L1に沿って、光軸L1上に位置する対象者Aをカバーする範囲に向けて、近赤外光成分を有する照明光を照射可能に構成されている。光源3bは、光軸L1からの距離が光源3aよりも離れた位置に固定され、光軸L1に沿って対象者Aをカバーする範囲に向けて、近赤外光成分を有する照明光を照射可能に構成されている。ここで、2つの光源3a,3bから照射される照明光が瞳孔の部分に輝度差を生じさせるような異なる波長成分(例えば、中心波長が850nmと950nm)を有するように設定され、かつ、光源3bは光軸L1からの距離が光源3aと等しい位置に固定されていてもよい。また、光源3a,3bは、1つの発光素子で構成されるものには限らず、複数の発光素子が所定の形状(円形状、リング状等)で配置されているものであってもよい。この場合は、瞳孔の部分に輝度差を生じさせながら、光源の構成を簡略化及び小型化することができる。ただし、必ずしも光源3a,3bが異なる波長成分の照明光を照射するものでなくてもよいし、それぞれの光源3a,3bが、リング状でなくてもよい。   The light source 3a is configured to be able to irradiate illumination light having a near-infrared light component toward a range covering the subject A located on the optical axis L1 along the optical axis L1 of the camera 2. The light source 3b is fixed at a position where the distance from the optical axis L1 is further away from the light source 3a, and irradiates illumination light having a near-infrared light component toward a range covering the subject A along the optical axis L1. It is configured to be possible. Here, the illumination light irradiated from the two light sources 3a and 3b is set so as to have different wavelength components (for example, the center wavelengths are 850 nm and 950 nm) that cause a luminance difference in the pupil part, and the light source 3b may be fixed at a position where the distance from the optical axis L1 is equal to the light source 3a. In addition, the light sources 3a and 3b are not limited to being configured by a single light emitting element, and a plurality of light emitting elements may be arranged in a predetermined shape (circular shape, ring shape, or the like). In this case, the configuration of the light source can be simplified and reduced in size while causing a luminance difference in the pupil portion. However, the light sources 3a and 3b do not necessarily have to emit illumination light having different wavelength components, and the light sources 3a and 3b do not have to be ring-shaped.

なお、カメラ2及び光源3a,3bは、対象者Aが眼鏡をかけていたときの顔画像における反射光の写り込みを防止し、対象者Aの鼻孔を検出し易くする目的で、対象者Aの顔の高さよりも低い位置(例えば、光軸L1の水平面に対する傾斜角が20〜35度となり、光軸L1が対象者Aの方向を向くような位置)に設けられることが好ましい。   The camera 2 and the light sources 3a and 3b are provided for the purpose of preventing the reflected light from being reflected in the face image when the subject A is wearing glasses and making it easier to detect the nostril of the subject A. It is preferable to be provided at a position lower than the face height (for example, a position where the inclination angle of the optical axis L1 with respect to the horizontal plane is 20 to 35 degrees and the optical axis L1 faces the direction of the subject A).

画像処理装置1は、カメラ2による撮像、及び光源3a,3bによる照明光の照射を制御するとともに、カメラ2によって取得された対象者Aの頭部画像に基づいて、対象者Aの瞳孔の三次元位置、対象者Aの視線方向および注視点、及び対象者Aの顔姿勢を検出する処理を実行する。   The image processing apparatus 1 controls imaging by the camera 2 and irradiation of illumination light by the light sources 3a and 3b, and based on the head image of the subject A acquired by the camera 2, the tertiary of the pupil of the subject A A process of detecting the original position, the line-of-sight direction and gazing point of the subject A, and the face posture of the subject A is executed.

以下、図2及び図3を参照して、上述した画像処理装置1の構成について詳細に説明する。画像処理装置1は、カメラ2及び光源3a,3bの制御と、カメラ2によって取得された顔画像の処理を実行するコンピュータであり得る。画像処理装置1は、据置型又は携帯型のパーソナルコンピュータ(PC)により構築されてもよいし、ワークステーションにより構築されてもよいし、他の種類のコンピュータにより構築されてもよい。あるいは、画像処理装置1は複数台の任意の種類のコンピュータを組み合わせて構築されてもよい。複数台のコンピュータを用いる場合には、これらのコンピュータはインターネットやイントラネットなどの通信ネットワークを介して接続される。   Hereinafter, the configuration of the above-described image processing apparatus 1 will be described in detail with reference to FIGS. 2 and 3. The image processing apparatus 1 may be a computer that executes control of the camera 2 and the light sources 3 a and 3 b and processing of a face image acquired by the camera 2. The image processing apparatus 1 may be constructed by a stationary or portable personal computer (PC), may be constructed by a workstation, or may be constructed by another type of computer. Alternatively, the image processing apparatus 1 may be constructed by combining a plurality of arbitrary types of computers. When a plurality of computers are used, these computers are connected via a communication network such as the Internet or an intranet.

図2に示されるように、画像処理装置1は、CPU(プロセッサ)101と、主記憶部102と、補助記憶部103と、通信制御部104と、入力装置105と、出力装置106とを備える。CPU101は、オペレーティングシステムやアプリケーション・プログラムなどを実行する。主記憶部102は、ROM及びRAMで構成される。補助記憶部103は、ハードディスクやフラッシュメモリなどで構成される。通信制御部104は、ネットワークカードあるいは無線通信モジュールで構成される。入力装置105は、キーボードやマウスなどを含む。出力装置106は、ディスプレイやプリンタなどを含む。入力装置105及び出力装置106は、タッチパネルディスプレイであってもよい。   As illustrated in FIG. 2, the image processing apparatus 1 includes a CPU (processor) 101, a main storage unit 102, an auxiliary storage unit 103, a communication control unit 104, an input device 105, and an output device 106. . The CPU 101 executes an operating system, application programs, and the like. The main storage unit 102 includes a ROM and a RAM. The auxiliary storage unit 103 is configured by a hard disk, a flash memory, or the like. The communication control unit 104 includes a network card or a wireless communication module. The input device 105 includes a keyboard and a mouse. The output device 106 includes a display, a printer, and the like. The input device 105 and the output device 106 may be touch panel displays.

後述する画像処理装置1の各機能要素は、CPU101又は主記憶部102の上に所定のソフトウェアを読み込ませ、CPU101の制御の下で通信制御部104や入力装置105、出力装置106などを動作させ、主記憶部102又は補助記憶部103におけるデータの読み出し及び書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶部102又は補助記憶部103内に格納される。   Each functional element of the image processing apparatus 1 to be described later reads predetermined software on the CPU 101 or the main storage unit 102, and operates the communication control unit 104, the input device 105, the output device 106, and the like under the control of the CPU 101. This is realized by reading and writing data in the main storage unit 102 or the auxiliary storage unit 103. Data and a database necessary for processing are stored in the main storage unit 102 or the auxiliary storage unit 103.

図3に示されるように、画像処理装置1は機能的構成要素として、カメラ駆動ユニット11と、点灯制御ユニット12と、検出ユニット(処理部)13とを有する。カメラ駆動ユニット11は、カメラ2の撮影タイミングを制御する機能要素である。具体的には、カメラ2を所定のフレームレート及び所定の露光時間で繰り返し撮像し、顔画像として交互に明瞳孔画像及び暗瞳孔画像を取得するように制御する。この明瞳孔画像は、相対的に対象者Aの瞳孔が明るく映った状態の顔画像であり、暗瞳孔画像は、相対的に対象者Aの瞳孔が暗く映った状態の顔画像である。点灯制御ユニット12は、カメラ2の撮影タイミングに同期させて、光源3a,3bの点灯タイミングを制御する機能要素である。具体的には、点灯制御ユニット12は、明瞳孔画像の撮像時には光源3aを点灯させ、暗瞳孔画像の撮像時には光源3bを点灯させるように制御する。検出ユニット13は、カメラ2から出力された顔画像データを処理する機能要素である。処理結果の出力先は何ら限定されない。例えば、画像処理装置1は、処理結果を画像、図形、又はテキストでモニタに表示してもよいし、メモリやデータベースなどの記憶装置に格納してもよいし、通信ネットワーク経由で他のコンピュータシステムに送信してもよい。   As illustrated in FIG. 3, the image processing apparatus 1 includes a camera drive unit 11, a lighting control unit 12, and a detection unit (processing unit) 13 as functional components. The camera drive unit 11 is a functional element that controls the shooting timing of the camera 2. Specifically, control is performed so that the camera 2 repeatedly captures images at a predetermined frame rate and a predetermined exposure time, and alternately acquires a bright pupil image and a dark pupil image as a face image. The bright pupil image is a face image in a state where the pupil of the subject A is relatively bright, and the dark pupil image is a face image in a state where the pupil of the subject A is relatively dark. The lighting control unit 12 is a functional element that controls the lighting timing of the light sources 3 a and 3 b in synchronization with the photographing timing of the camera 2. Specifically, the lighting control unit 12 performs control so that the light source 3a is turned on when a bright pupil image is captured, and the light source 3b is turned on when a dark pupil image is captured. The detection unit 13 is a functional element that processes face image data output from the camera 2. The output destination of the processing result is not limited at all. For example, the image processing apparatus 1 may display the processing result as an image, graphic, or text on a monitor, store it in a storage device such as a memory or database, or other computer system via a communication network. May be sent to.

検出ユニット13は、機能的構成要素として、画像取得部14と、差分画像生成部16と、特徴点検出部(回転中心算出部)17と、顔姿勢検出部(瞳孔位置算出部)18と、視線検出部(瞳孔位置算出部)19とを有する。画像取得部14は、カメラ2から所定のフレームレートで交互に撮影される明瞳孔画像及び暗瞳孔画像を、顔画像データとして取得する。差分画像生成部16は、明瞳孔画像及び暗瞳孔画像の差分画像を生成する。具体的には、差分画像生成部16は、明瞳孔画像及び暗瞳孔画像の対応する画素間の輝度の差分を計算することにより、差分画像を生成する。   The detection unit 13 includes, as functional components, an image acquisition unit 14, a difference image generation unit 16, a feature point detection unit (rotation center calculation unit) 17, a face posture detection unit (pupil position calculation unit) 18, A line-of-sight detection unit (pupil position calculation unit) 19. The image acquisition unit 14 acquires, as face image data, bright pupil images and dark pupil images that are alternately captured from the camera 2 at a predetermined frame rate. The difference image generation unit 16 generates a difference image between the bright pupil image and the dark pupil image. Specifically, the difference image generation unit 16 generates a difference image by calculating a luminance difference between corresponding pixels of the bright pupil image and the dark pupil image.

特徴点検出部17は、差分画像を利用して2つの瞳孔像の中心(瞳孔中心)の画像上位置(二次元位置)を算出し、明瞳孔画像及び暗瞳孔画像を利用してそれぞれの瞳孔像に対応する角膜反射像の二次元位置、及び2つの鼻孔像の中心(鼻孔中心)の二次元位置を算出する機能要素である。まず、特徴点検出部17は、差分画像を2値化し、孤立点除去、モルフォロジー処理によるノイズ除去、ラベリングを行う。そして、特徴点検出部17は、最も瞳孔らしい形状を有する画素群を、瞳孔として検出する。このとき、瞳孔がまぶたやまつ毛で隠れた場合にも、まぶたやまつ毛と瞳孔との境界を偽の瞳孔輪郭として排除し、真の瞳孔輪郭のみを楕円フィッティングして、求まる楕円の式から瞳孔中心の二次元位置を算出する。また、特徴点検出部17は、明瞳孔画像の瞳孔の近傍から瞳孔輝度よりも高い閾値で2値化し、角膜反射像の中心(角膜反射中心)の二次元位置を、輝度を考慮した重心として求める。瞳孔輝度は、楕円フィッティングした結果得られる楕円の面積ではなく、2値化して得られた瞳孔を構成する画素の輝度平均で与えられる。特徴点検出部17は、角膜反射中心の二次元位置を、暗瞳孔画像を対象にしても算出する。さらに、特徴点検出部17は、明瞳孔画像及び暗瞳孔画像を用いて、本発明者による特許第4431749号に記載の方法と同様にして、2つの鼻孔中心の二次元位置を算出する。   The feature point detection unit 17 calculates the on-image position (two-dimensional position) of the centers of the two pupil images (pupil center) using the difference image, and uses the bright pupil image and the dark pupil image to calculate each pupil. This is a functional element that calculates the two-dimensional position of the corneal reflection image corresponding to the image and the two-dimensional position of the center of the two nostril images (the nostril center). First, the feature point detection unit 17 binarizes the difference image, and performs isolated point removal, noise removal by morphological processing, and labeling. Then, the feature point detection unit 17 detects a pixel group having a shape most likely to be a pupil as a pupil. At this time, even if the pupil is hidden by the eyelids or eyelashes, the boundary between the eyelids or eyelashes and the pupil is excluded as a false pupil contour, and only the true pupil contour is elliptically fitted. The two-dimensional position of is calculated. Also, the feature point detection unit 17 binarizes from the vicinity of the pupil of the bright pupil image with a threshold value higher than the pupil luminance, and uses the two-dimensional position of the center of the cornea reflection image (corneal reflection center) as the center of gravity considering luminance. Ask. The pupil luminance is given not by the area of the ellipse obtained as a result of the ellipse fitting, but by the luminance average of the pixels constituting the pupil obtained by binarization. The feature point detection unit 17 calculates the two-dimensional position of the corneal reflection center even for the dark pupil image. Furthermore, the feature point detection unit 17 calculates the two-dimensional positions of the two nostril centers using the bright pupil image and the dark pupil image in the same manner as the method described in Japanese Patent No. 4431799 by the present inventor.

上記機能に加えて、特徴点検出部17は、対象者Aの2つの眼球の回転中心の画像上の位置(二次元位置)を算出する機能も有する。すなわち、特徴点検出部17は、図4に示すような眼球モデルを前提にして2つの眼球の回転中心の二次元位置を算出する。図4に示すように、対象者Aの眼部は、略球状の眼球EBの内部の前方寄りに略球状の角膜球CBが固定された構造を有し、対象者Aの視線が変化すると眼球EBと角膜球CBとが、眼球EBの中心である回転中心Eを中心にして一体的に回転運動をするという眼球モデルでモデル化される。この眼球モデルでは、カメラ2の前面の光源3a,3bによって照射される照明光のうち角膜球中心Cを通る方向の成分BMが角膜球CBの表面の点Crで反射されて角膜反射としてカメラ2の画像上に写ることとなる。また、対象者Aの視線に対応する眼球EBの光軸L2は、眼球の回転中心Eと角膜球中心Cと瞳孔中心Pとを通る直線に近似すると考えることができる。図5には、図4の眼球モデルでモデル化された対象者Aの眼部を対象にしてカメラ2で撮像された画像イメージを示しており、(a)部は眼部全体の画像イメージを、(b)部は画像イメージにおける主要点の位置関係を、それぞれ示している。図5の(a)部に示すように、カメラ2の画像上では、眼球の回転中心Eと角膜球中心Cと瞳孔中心Pとはほぼ一直線上に位置し、この角膜球中心Cの位置に一致して角膜反射像が現れる。このとき、上述した眼球モデルに従えば、図5の(b)部に示すように、画像上における瞳孔中心Pと角膜反射中心Crとの間の距離PCrと、画像上における瞳孔中心Pと眼球の回転中心Eとの間の距離PEとの比は、既定の比(1:t)で近似することができ、視線変化により対象者Aの光軸L2(図4)の方向が変化しても一定となる。例えば、論文「伴野 明,“視線検出のための瞳孔撮影光学系の設計法”, 電子情報通信学会論文誌D-II Vol.74-DII No.6 pp.736-747, 1991年6月」に記載された眼球モデルによれば、PC=4.3mm,PE=9.8mmと設定され、t=PE/PC=2.3 と想定される。つまり、三次元空間における距離PCと距離PEとの比は、画像上における距離PCrと距離PEとの比と同じとなる。   In addition to the above functions, the feature point detection unit 17 also has a function of calculating the position (two-dimensional position) on the image of the rotation center of the two eyeballs of the subject A. That is, the feature point detection unit 17 calculates the two-dimensional position of the rotation center of two eyeballs on the assumption of an eyeball model as shown in FIG. As shown in FIG. 4, the eye part of the subject A has a structure in which a substantially spherical corneal sphere CB is fixed toward the front inside the substantially spherical eyeball EB, and the eyeball changes when the line of sight of the subject A changes. The EB and the corneal sphere CB are modeled by an eyeball model in which the EB and the corneal sphere CB integrally rotate around the rotation center E that is the center of the eyeball EB. In this eyeball model, the component BM in the direction passing through the corneal sphere center C in the illumination light irradiated by the light sources 3a and 3b on the front surface of the camera 2 is reflected by the point Cr on the surface of the corneal sphere CB and is reflected as corneal reflection. Will appear on the image. Further, it can be considered that the optical axis L2 of the eyeball EB corresponding to the line of sight of the subject A approximates a straight line passing through the rotation center E of the eyeball, the corneal ball center C, and the pupil center P. FIG. 5 shows an image image captured by the camera 2 targeting the eye part of the subject A modeled by the eyeball model of FIG. 4, and part (a) shows an image image of the entire eye part. , (B) shows the positional relationship between the main points in the image. As shown in part (a) of FIG. 5, on the image of the camera 2, the rotation center E of the eyeball, the corneal sphere center C, and the pupil center P are located substantially in a straight line. A cornea reflection image appears in agreement. At this time, according to the eyeball model described above, as shown in FIG. 5B, the distance PCr between the pupil center P and the corneal reflection center Cr on the image, and the pupil center P and the eyeball on the image. The ratio of the distance PE to the center of rotation E can be approximated by a predetermined ratio (1: t), and the direction of the optical axis L2 (FIG. 4) of the subject A changes due to a change in the line of sight. Is also constant. For example, the paper “Akira Banno,“ Design method of pupil imaging optical system for gaze detection ”, IEICE Transactions D-II Vol.74-DII No.6 pp.736-747, June 1991” According to the eyeball model described in the above, it is assumed that PC = 4.3 mm, PE = 9.8 mm, and t = PE / PC = 2.3. That is, the ratio between the distance PC and the distance PE in the three-dimensional space is the same as the ratio between the distance PCr and the distance PE on the image.

このような眼球モデルを想定して、特徴点検出部17は、顔画像上で検出した2つの瞳孔中心のそれぞれの二次元位置と、それに対応して検出された角膜反射中心を基に推定される対象者Aの眼球の光軸L2の画像上の方向とを基に、次のように処理する機能を有する。具体的には、特徴点検出部17は、それぞれの撮影タイミングで算出された瞳孔中心の二次元位置を示す位置ベクトルVとそれに対応する角膜反射中心の二次元位置を示す位置ベクトルVとを基に、下記式(1);
=V+t(V−V)=(1−t)V+tV …(1)
によって、眼球の回転中心の二次元位置を示す位置ベクトルVを算出する。ここで、上記式(1)中の係数tは、想定する眼球モデルに対応して予め設定される。特徴点検出部17は、同様の手順で、対象者の2つの眼球の回転中心の二次元位置を算出する。
Assuming such an eyeball model, the feature point detector 17 is estimated based on the two-dimensional position of each of the two pupil centers detected on the face image and the cornea reflection center detected correspondingly. Based on the direction on the image of the optical axis L2 of the eyeball of the subject A who has the function of processing as follows. Specifically, the feature point detection unit 17, a position vector V C indicating the two-dimensional position of the position vector V P and the corneal reflection center corresponding thereto indicating the two-dimensional position of the pupil center calculated at each imaging timing On the basis of the following formula (1);
V E = V P + t (V C −V P ) = (1−t) V P + tV C (1)
By calculating the position vector V E indicating the two-dimensional position of the center of rotation of the eyeball. Here, the coefficient t in the above equation (1) is set in advance corresponding to the assumed eyeball model. The feature point detection unit 17 calculates the two-dimensional position of the rotation center of the two eyeballs of the subject in the same procedure.

顔姿勢検出部18は、特徴点検出部17によって算出された2つの眼球の回転中心の二次元位置及び2つの鼻孔中心の二次元位置とを基に、対象者Aの顔姿勢を検出する。すなわち、本発明者による特許第4431749号に記載の方法を応用して、2つの眼球の回転中心の二次元位置及び2つの鼻孔中心の2次元位置とを基に、2つの眼球の回転中心の三次元位置及び2つの鼻孔中心の三次元位置を算出する。さらに、同特許に記載の方法を応用して、顔姿勢検出部18は、2つの眼球の回転中心と2つの鼻孔中心とのうちの3点の組み合わせを第1及び第2基準部位群として選択して、それぞれの基準部位群を含む平面の法線ベクトルを算出して、それらの法線ベクトルの合成ベクトルを対象者Aの顔姿勢として導き出す。加えて、顔姿勢検出部18は、それぞれの第1及び第2基準部位群に含まれる3点の重心を算出し、2つの重心間の重心を対象者Aの顔位置として算出する。なお、顔姿勢検出部18は、2つの鼻孔中心の二次元位置の中点を用いて顔姿勢及び顔位置を算出してもよいし、2つの鼻孔中心の二次元位置のいずれか一方のみを用いて顔姿勢及び顔位置を算出してもよい。   The face posture detection unit 18 detects the face posture of the subject A based on the two-dimensional position of the rotation center of the two eyeballs and the two-dimensional position of the two nostril centers calculated by the feature point detection unit 17. That is, by applying the method described in Japanese Patent No. 4431799 by the present inventor, based on the two-dimensional position of the center of rotation of the two eyes and the two-dimensional position of the center of the two nostrils, The three-dimensional position and the three-dimensional position of the two nostril centers are calculated. Further, by applying the method described in the patent, the face posture detection unit 18 selects a combination of three points of the rotation center of the two eyeballs and the center of the two nostrils as the first and second reference region groups. Then, a normal vector of a plane including each reference region group is calculated, and a combined vector of these normal vectors is derived as the face posture of the subject person A. In addition, the face posture detection unit 18 calculates the centroids of the three points included in the first and second reference part groups, and calculates the centroid between the two centroids as the face position of the subject A. Note that the face posture detection unit 18 may calculate the face posture and the face position using the midpoint of the two-dimensional positions of the two nostril centers, or only one of the two-dimensional positions of the two nostril centers. It may be used to calculate the face posture and the face position.

ここで、顔姿勢検出部18は、顔姿勢の検出時には、基準部位群を構成する3点間の実測距離が画像処理装置1内の補助記憶部103(図2)等の記憶部から参照される。これにより、基準部位群を構成する3点の三次元位置を精度よく求めることができる。例えば、2つの鼻孔中心の二次元位置の中点を用いる場合には、2つの眼球の回転中心間の実測距離と、2つの鼻孔中心間の中点とそれぞれの眼球の回転中心との間の実測距離とが予め記憶されて、顔姿勢の検出時に参照される。これらの実測距離は、予め物差し等の計測具で実測することができる。例えば、2つの眼球の回転中心間の実測距離は、対象者Aに正面を遠方視させた状態で両目の瞳孔間距離を測定し、その測定値を眼球の回転中心間の距離と等しい仮定することにより得ることができる。一方で、2つの眼球の回転中心間の実測距離としては、人間の平均的な値として所定値(例えば、65mm)に設定されてもよい。鼻孔中心間の中点とそれぞれの眼球の回転中心までの実測距離の精度は、瞳孔の三次元位置の精度にはあまり影響しないが、検出される対象者Aの頭部の上下方向及び左右方向の姿勢に影響する。顔姿勢の左右方向の検出精度が高精度である必要がなければ、鼻孔中心間の中点とそれぞれの眼球の回転中心との間の実測距離が等しく設定されてもよい。また、顔姿勢の検出精度が高精度である必要がなければ、2つの瞳孔を結ぶ直線と鼻孔間中点の間の距離を実測した値が予め設定されてもよい。   Here, when detecting the face posture, the face posture detection unit 18 refers to a measured distance between three points constituting the reference region group from a storage unit such as the auxiliary storage unit 103 (FIG. 2) in the image processing apparatus 1. The Thereby, the three-dimensional positions of the three points constituting the reference part group can be obtained with high accuracy. For example, when using the midpoint of the two-dimensional position of two nostril centers, the measured distance between the rotation centers of two eyeballs and the midpoint between the two nostril centers and the rotation centers of the respective eyeballs are used. The measured distance is stored in advance and is referred to when detecting the face posture. These measured distances can be measured in advance with a measuring tool such as a ruler. For example, it is assumed that the measured distance between the rotation centers of two eyeballs is the distance between the pupils of both eyes when the subject A is viewed from the front, and the measured value is equal to the distance between the rotation centers of the eyeballs. Can be obtained. On the other hand, the measured distance between the rotation centers of the two eyeballs may be set to a predetermined value (for example, 65 mm) as an average human value. The accuracy of the measured distance from the midpoint between the nostril centers to the rotation center of each eyeball does not significantly affect the accuracy of the three-dimensional position of the pupil, but the detected subject A's head in the vertical and horizontal directions Affects attitude. If the detection accuracy of the face posture in the left-right direction need not be high, the measured distances between the midpoint between the nostril centers and the rotation centers of the respective eyeballs may be set equal. Further, if the detection accuracy of the face posture is not required to be high, a value obtained by actually measuring the distance between the straight line connecting the two pupils and the midpoint between the nostrils may be set in advance.

視線検出部19は、特徴点検出部17によって検出された対象者Aの2つの瞳孔中心の二次元位置と、顔姿勢検出部18によって検出された対象者Aの2つの眼球の回転中心の三次元位置とを基に、対象者Aの2つの瞳孔の三次元位置を算出する。ここで、カメラ2の画像上に瞳孔像と角膜反射像とが同時に現れるのは光学系4と対象者Aの瞳孔中心Pとを結ぶ直線と眼球の光軸L2(図4)との成す角θが最大で30度と想定される。そもそも、眼球の回転中心Eは瞳孔中心Pと近く、それらの間の距離は上述した眼球モデルでは9.4mm程度と小さい。従って、対象者Aの視線が30度変化しても瞳孔中心のカメラ2からの距離は(1-cos30°)×100=13パーセント変化するだけである。よって、カメラ2から見て瞳孔中心Pは眼球の回転中心Eよりも手前の所定距離(例えば、9.4mm)の位置に存在すると推定できる。このことを利用して、視線検出部19は、カメラ2の光軸L1に垂直であってカメラ2からの距離が眼球の回転中心から所定距離(例えば、9.4mm)手前に位置する平面を設定し、その平面と、顔画像から得られるカメラ2の中心(ピンホール)と瞳孔中心Pとを通る直線と、の交点を求め、その交点を瞳孔中心Pの三次元位置として算出する。同様にして、視線検出部19は、2つの瞳孔中心Pの三次元位置を算出する。   The line-of-sight detection unit 19 is a cubic of the two-dimensional position of the two pupil centers of the subject A detected by the feature point detection unit 17 and the rotation center of the two eyeballs of the subject A detected by the face posture detection unit 18. Based on the original position, the three-dimensional position of the two pupils of the subject A is calculated. Here, the pupil image and the corneal reflection image appear on the image of the camera 2 at the same time as the angle formed by the straight line connecting the optical system 4 and the pupil center P of the subject A and the optical axis L2 of the eyeball (FIG. 4). It is assumed that θ is 30 degrees at the maximum. In the first place, the rotation center E of the eyeball is close to the pupil center P, and the distance between them is as small as about 9.4 mm in the above-described eyeball model. Therefore, even if the line of sight of the subject A changes by 30 degrees, the distance from the camera 2 at the center of the pupil only changes by (1-cos30 °) × 100 = 13%. Accordingly, it can be estimated that the pupil center P is present at a predetermined distance (for example, 9.4 mm) in front of the rotation center E of the eyeball as viewed from the camera 2. Using this, the line-of-sight detection unit 19 sets a plane that is perpendicular to the optical axis L1 of the camera 2 and that is located a predetermined distance (eg, 9.4 mm) from the center of rotation of the eyeball. Then, an intersection point between the plane and the center (pinhole) of the camera 2 obtained from the face image and a straight line passing through the pupil center P is obtained, and the intersection point is calculated as a three-dimensional position of the pupil center P. Similarly, the line-of-sight detection unit 19 calculates the three-dimensional position of the two pupil centers P.

さらに、視線検出部19は、対象者Aの眼部それぞれについて視線ベクトル(視線方向)および注視点を算出する。すなわち、瞳孔中心Pの三次元位置と、瞳孔中心Pの二次元位置と角膜反射中心の二次元位置とから計算される瞳孔中心Pから角膜反射中心までのベクトルrとを用いて、本発明者による特許第4517049の方法と同様にしてカメラ2と瞳孔中心とを通る直線と光軸L2とのなす角θを求めることにより、視線ベクトルおよび所定平面上の注視点を算出する。そして、視線検出部19は、2つの眼部それぞれについて算出した2つの視線ベクトルを用いて最終的な視線方向および注視点を算出する。   Furthermore, the line-of-sight detection unit 19 calculates a line-of-sight vector (line-of-sight direction) and a gazing point for each eye part of the subject A. That is, the present inventor uses the three-dimensional position of the pupil center P and the vector r from the pupil center P to the corneal reflection center calculated from the two-dimensional position of the pupil center P and the two-dimensional position of the corneal reflection center. In the same manner as in Japanese Patent No. 4517049, the angle θ formed by the straight line passing through the camera 2 and the center of the pupil and the optical axis L2 is obtained to calculate the line-of-sight vector and the gaze point on a predetermined plane. Then, the gaze detection unit 19 calculates the final gaze direction and gaze point using the two gaze vectors calculated for each of the two eyes.

なお、視線検出部19は、瞳孔中心Pの代わりに角膜球中心Cを用いて視線方向を算出してもよい。すなわち、上述した眼球モデルでは、光軸L2は眼球の回転中心Eと角膜球中心Cとを通り、それらの間の距離は上述した眼球モデルでは5.6mm程度となる。そして、対象者Aの視線が30度変化しても角膜球中心のカメラ2から見た距離は13パーセント変化するだけであるので、カメラ2から見て角膜球中心Cは眼球の回転中心Eよりも手前の所定距離(例えば、5.6mm)の位置に存在すると推定できる。このことを利用して、視線検出部19は、カメラ2の光軸L1に垂直であってカメラ2からの距離が眼球の回転中心から所定距離(例えば、5.6mm)手前に位置する平面を設定し、その平面と、顔画像から得られるカメラ2の中心(ピンホール)と角膜反射中心Crとを通る直線と、の交点を求め、その交点を角膜球中心Cの三次元位置として算出する。さらに、視線検出部19は、角膜球中心Cの三次元位置と、瞳孔中心Pの二次元位置と角膜反射中心の二次元位置とから計算される瞳孔中心Pから角膜反射中心Crまでのベクトルrとを用いて、カメラ2と角膜球中心とを通る直線と光軸L2とのなす角θを求めることにより、視線ベクトルおよび所定平面上の注視点を算出することができる。   Note that the line-of-sight detection unit 19 may calculate the line-of-sight direction using the corneal sphere center C instead of the pupil center P. That is, in the eyeball model described above, the optical axis L2 passes through the rotation center E and the corneal ball center C of the eyeball, and the distance between them is about 5.6 mm in the eyeball model described above. Even if the line of sight of the subject A changes by 30 degrees, the distance seen from the camera 2 at the center of the corneal sphere only changes by 13%, so the corneal sphere center C seen from the camera 2 is more than the rotation center E of the eyeball. Can be estimated to be present at a predetermined distance (for example, 5.6 mm). Using this, the line-of-sight detection unit 19 sets a plane that is perpendicular to the optical axis L1 of the camera 2 and that is located a predetermined distance (eg, 5.6 mm) from the center of rotation of the eyeball. Then, an intersection point between the plane and the straight line passing through the center (pinhole) of the camera 2 obtained from the face image and the corneal reflection center Cr is obtained, and the intersection point is calculated as a three-dimensional position of the corneal sphere center C. Further, the line-of-sight detection unit 19 calculates a vector r from the pupil center P to the corneal reflection center Cr calculated from the three-dimensional position of the corneal sphere center C and the two-dimensional position of the pupil center P and the two-dimensional position of the corneal reflection center. , The line-of-sight vector and the gazing point on a predetermined plane can be calculated by obtaining the angle θ between the straight line passing through the camera 2 and the center of the corneal sphere and the optical axis L2.

次に、上述した瞳孔検出装置10の動作手順について説明するとともに、本実施形態にかかる瞳孔検出方法について説明する。   Next, the operation procedure of the above-described pupil detection device 10 will be described, and the pupil detection method according to the present embodiment will be described.

まず、瞳孔検出装置10に対するユーザによる入力装置105を用いた指示入力によって瞳孔検出処理が起動されると、画像処理装置1によって、対象者Aの顔を光源3a,3bによって照明しながらその顔をカメラ2によって連続的に撮像するように制御される(撮像ステップ)。   First, when pupil detection processing is activated by an instruction input by the user using the input device 105 to the pupil detection device 10, the image processing device 1 illuminates the face of the subject A with the light sources 3a and 3b. Control is performed so that images are continuously captured by the camera 2 (imaging step).

その後、画像処理装置1の検出ユニット13により、カメラ2によって取得された明瞳孔画像と暗瞳孔画像を基に2つの眼球の回転中心Eの二次元位置が算出され、それを基に2つの瞳孔中心Pの三次元位置が算出される(瞳孔検出ステップ)。この瞳孔検出ステップは、明瞳孔画像と暗瞳孔画像とから生成された差分画像を基に瞳孔中心Pの二次元位置と対象者Aの眼球の光軸L2の画像上の方向とを検出し、それらを基に対象者Aの眼球の回転中心Eの二次元位置を算出するステップと、眼球の回転中心Eの二次元位置と対象者Aの鼻孔中心の二次元位置とを基に瞳孔中心Pの三次元位置を算出するステップとを含む。   Thereafter, the two-dimensional position of the rotation center E of the two eyeballs is calculated by the detection unit 13 of the image processing apparatus 1 based on the bright pupil image and the dark pupil image acquired by the camera 2, and the two pupils are calculated based on the two-dimensional positions. A three-dimensional position of the center P is calculated (pupil detection step). In this pupil detection step, a two-dimensional position of the pupil center P and a direction on the image of the optical axis L2 of the eyeball of the subject A are detected based on the difference image generated from the bright pupil image and the dark pupil image, Based on these, the step of calculating the two-dimensional position of the rotation center E of the eyeball of the subject A, and the pupil center P based on the two-dimensional position of the center of rotation E of the eyeball and the two-dimensional position of the nostril center of the subject A Calculating a three-dimensional position.

最後に、画像処理装置1の検出ユニット13により、対象者Aの顔姿勢が算出されるとともに、対象者Aの視線方向および注視点が算出され、それらの結果が出力装置106に出力される(顔姿勢・視線検出ステップ)。   Finally, the detection unit 13 of the image processing apparatus 1 calculates the face posture of the subject A, calculates the gaze direction and gazing point of the subject A, and outputs the results to the output device 106 ( Face posture / gaze detection step).

以上説明した瞳孔検出装置10によれば、光学系4によって取得された顔画像上の2つの瞳孔中心Pのそれぞれの二次元位置と眼球の光軸L2の画像上の方向とを基に2つの眼球のそれぞれの回転中心Eの二次元位置が算出され、算出された2つの眼球の回転中心Eの二次元位置と鼻孔中心の二次元位置とを基に、2つの瞳孔中心Pの三次元位置が算出される。ここで、対象者Aの視線方向が変化した場合であっても2つの眼球の回転中心Eと鼻孔中心との3点の位置関係は維持される。つまり、眼球は眼窩の中で回転運動をする球体であるとモデル化され、視線が変化して眼球が回転しても眼球の回転中心の位置はほとんど変化しない。従って、視線方向の変化があっても、眼球の骨格座標系に対する変動は限りなく少ない。一方で鼻孔も骨格座標系に対して固定されているので、結果的に、2つの眼球の回転中心と鼻孔中心との3点間の距離は視線方向が骨格座標系に対して変動しても変化しないことになる。この性質を利用することで、高精度の瞳孔の位置検出、さらには、高精度の顔姿勢の検出、高精度の視線方向および注視点の検出が実現される。加えて、瞳孔検出装置10の構成によれば、光学系におけるカメラの台数が削減可能とされ、光学系の構成が単純化される。   According to the pupil detection device 10 described above, two pupil positions based on the two-dimensional positions of the two pupil centers P on the face image acquired by the optical system 4 and the direction of the optical axis L2 of the eyeball on the image are used. The two-dimensional position of each rotation center E of the eyeball is calculated, and based on the calculated two-dimensional position of the rotation center E of the two eyeballs and the two-dimensional position of the nostril center, the three-dimensional position of the two pupil centers P Is calculated. Here, even when the viewing direction of the subject A changes, the positional relationship between the three points of the rotation center E of the two eyeballs and the nostril center is maintained. In other words, the eyeball is modeled as a sphere that rotates in the orbit, and the position of the center of rotation of the eyeball hardly changes even if the eyeball rotates by changing the line of sight. Therefore, even if there is a change in the line-of-sight direction, the variation of the eyeball with respect to the skeleton coordinate system is extremely small. On the other hand, since the nostrils are also fixed with respect to the skeletal coordinate system, as a result, the distance between the three points between the rotation center of the two eyeballs and the nostril center varies even if the line-of-sight direction varies with respect to the skeleton coordinate system It will not change. By utilizing this property, it is possible to detect the position of the pupil with high accuracy, further detect the face posture with high accuracy, and detect the gaze direction and the gazing point with high accuracy. In addition, according to the configuration of the pupil detection device 10, the number of cameras in the optical system can be reduced, and the configuration of the optical system is simplified.

また、上記形態の瞳孔検出装置10においては、2つの瞳孔中心Pのそれぞれの二次元位置と2つの瞳孔中心Pのそれぞれに対応して生じる角膜反射中心Crの二次元位置とを基に眼球の光軸L2の方向が求められ、眼球の光軸L2の方向を基に回転中心Eの二次元位置が算出される。この場合、瞳孔中心Pの二次元位置と角膜反射中心Crの二次元位置から眼球の回転中心Eの二次元位置が算出されるので、簡易な演算で高精度の瞳孔の位置検出が可能となる。   In the pupil detection device 10 having the above-described configuration, the eyeball is based on the two-dimensional position of each of the two pupil centers P and the two-dimensional position of the corneal reflection center Cr generated corresponding to each of the two pupil centers P. The direction of the optical axis L2 is obtained, and the two-dimensional position of the rotation center E is calculated based on the direction of the optical axis L2 of the eyeball. In this case, since the two-dimensional position of the rotation center E of the eyeball is calculated from the two-dimensional position of the pupil center P and the two-dimensional position of the corneal reflection center Cr, it is possible to detect the position of the pupil with high accuracy by simple calculation. .

さらに、2つの眼球の回転中心Eの二次元位置と、鼻孔中心の二次元位置とを基に、2つの眼球の回転中心Eの三次元位置と鼻孔中心の三次元位置とが算出されることにより対象者Aの顔姿勢が検出されるので、対象者Aの顔姿勢を高精度で検出することができる。
[第2実施形態]
Further, based on the two-dimensional position of the rotation center E of the two eyeballs and the two-dimensional position of the nostril center, the three-dimensional position of the rotation center E of the two eyeballs and the three-dimensional position of the nostril center are calculated. Thus, the face posture of the subject person A is detected, so that the face posture of the subject person A can be detected with high accuracy.
[Second Embodiment]

次に、第2実施形態にかかる瞳孔検出装置の構成について説明する。図6は、第2実施形態の瞳孔検出装置を構成する画像処理装置1Aの機能構成を示すブロック図である。同図に示す画像処理装置1Aと第1実施形態にかかる画像処理装置1とでは、検出ユニット13に含まれる特徴点検出部17A、視線検出部19Aの機能が異なっている。   Next, the configuration of the pupil detection device according to the second embodiment will be described. FIG. 6 is a block diagram illustrating a functional configuration of the image processing apparatus 1A that constitutes the pupil detection apparatus of the second embodiment. In the image processing apparatus 1A shown in the figure and the image processing apparatus 1 according to the first embodiment, the functions of the feature point detection unit 17A and the line-of-sight detection unit 19A included in the detection unit 13 are different.

視線検出部19Aは、第1実施形態における瞳孔中心Pから角膜反射中心までのベクトルrとを用いた視線ベクトルの算出方法(以下、「瞳孔−角膜反射法」と呼ぶ。)に代えて、顔画像上で検出された瞳孔の形状を用いた視線ベクトルの算出方法(以下、「瞳孔形状法」と呼ぶ。)を実行する機能を有する。   The line-of-sight detection unit 19A replaces the line-of-sight vector calculation method using the vector r from the pupil center P to the corneal reflection center in the first embodiment (hereinafter referred to as “pupil-corneal reflection method”). It has a function of executing a line-of-sight vector calculation method (hereinafter referred to as “pupil shape method”) using the pupil shape detected on the image.

視線検出部19Aが実行する瞳孔形状法の原理について説明する。図7の(a)部は、対象者Aがカメラ2を含む光学系4を見ているときの対象者Aの眼球EBを示す。図7の(b)部は、対象者Aが光学系4とは別の場所を見ているときの対象者Aの眼球EBを示す。図7の(a)部及び図7の(b)部では、対象者Aの眼球EBがカメラ2を含む光学系4から無限遠にあると仮定している。図7の(a)部に示されるように、対象者Aが光学系4を見ているとき、カメラ2から得られる顔画像における瞳孔EPの形状は、円である。この円の直径TDは長さA1である。一方、図7の(b)部及び図8に示されるように、カメラ2と瞳孔中心とを結ぶ軸線A3に対して眼球EBの光軸L2が傾きθだけ傾いた場合には、画像における瞳孔EPの形状は、楕円である。この楕円の長径Lと短径Lは下記式(2),(3)により示される。
長径L=A1 …(2)
短径L=A1・cos(θ) …(3)
The principle of the pupil shape method executed by the line-of-sight detection unit 19A will be described. FIG. 7A shows the eyeball EB of the subject A when the subject A is looking at the optical system 4 including the camera 2. Part (b) of FIG. 7 shows the eyeball EB of the subject A when the subject A is looking at a place different from the optical system 4. In FIG. 7A and FIG. 7B, it is assumed that the eyeball EB of the subject A is at infinity from the optical system 4 including the camera 2. As shown in part (a) of FIG. 7, when the subject A is looking at the optical system 4, the shape of the pupil EP in the face image obtained from the camera 2 is a circle. The diameter TD of this circle is the length A1. On the other hand, as shown in part (b) of FIG. 7 and FIG. 8, when the optical axis L2 of the eyeball EB is inclined by the inclination θ S with respect to the axis A3 connecting the camera 2 and the pupil center, The shape of the pupil EP is an ellipse. Major axis L A and minor axis L B is formula of the ellipse (2), as indicated by (3).
Long diameter L A = A1 (2)
Minor axis L B = A1 · cos (θ S ) (3)

ここで、楕円度Rを定義する。画像における瞳孔EPの形状が楕円であるとき、楕円度Rは長径Lと短径Lとにより示される(下記式(4)参照)。
楕円度=長径L/短径L …(4)
Here, the ellipticity R is defined. When the shape of the pupil EP of the image is elliptical, ellipticity R is represented by a major axis L A and minor axis L B (formula (4) refer).
Ellipticity = major axis L A / minor axis L B (4)

そして、式(2)〜(4)によれば、傾きθは式(5)により示される。この傾きθは、カメラ2と瞳孔中心とを通る直線と光軸L2とのなす角θの大きさ|θ|に対応する。
θ=cos-1(短径L/長径L)=cos-1(1/楕円度) …(5)
And according to Formula (2)-(4), inclination (theta) S is shown by Formula (5). This inclination θ S corresponds to the magnitude | θ | of the angle θ formed by the straight line passing through the camera 2 and the pupil center and the optical axis L2.
θ S = cos −1 (minor axis L B / major axis L A ) = cos −1 (1 / ellipticity) (5)

図8は、光学系4から見た眼球EBを示す。例えば、瞳孔Paは、対象者Aが光学系4を見ているときの様子を示す。瞳孔Pbは、対象者Aが光学系4よりも上方を見ているときの様子を示す。その他の瞳孔Pcは、対象者Aが光学系4とは別の位置を見ているときの様子をそれぞれ示す。矢印Dは、視線の方向を示す。図8に示されるように、視線の方向(矢印D)の向きによって、瞳孔EPの形状を示す楕円の短軸方向が変化する。短軸方向は、世界座標系の水平軸X’に対する視線の方向(矢印D)の傾きφにより示される。   FIG. 8 shows the eyeball EB viewed from the optical system 4. For example, the pupil Pa shows a state when the subject A is looking at the optical system 4. The pupil Pb shows a state when the subject A is looking above the optical system 4. The other pupils Pc respectively show a state when the subject A is looking at a position different from the optical system 4. An arrow D indicates the direction of the line of sight. As shown in FIG. 8, the minor axis direction of the ellipse indicating the shape of the pupil EP changes depending on the direction of the line of sight (arrow D). The minor axis direction is indicated by the inclination φ of the direction of the line of sight (arrow D) with respect to the horizontal axis X ′ of the world coordinate system.

上記の原理を利用して、視線検出部19Aは、特徴点検出部17によって楕円フィッティングにより特定された顔画像上の2つの瞳孔EPの形状を基に、それぞれの形状の楕円度及び楕円の短軸の方向を算出する。そして、視線検出部19Aは、楕円度の逆数の逆余弦成分(傾きθ)と、短軸の方向(傾きφ)とを得ることにより、傾き角θと傾きφとにより特定される視線ベクトルPTを、2つの眼球を対象に算出する。このとき、視線検出部19Aは、視線ベクトルPTの始点を顔姿勢検出部18によって検出される眼球の回転中心Eの三次元位置に設定する。 Using the above principle, the line-of-sight detection unit 19A is based on the shape of the two pupils EP on the face image specified by the ellipse fitting by the feature point detection unit 17, and the ellipticity of each shape and the shortness of the ellipse. Calculate the direction of the axis. The line-of-sight detection unit 19A obtains the inverse cosine component (inclination θ S ) of the reciprocal of ellipticity and the direction of the minor axis (inclination φ), thereby identifying the line of sight specified by the inclination angle θ S and the inclination φ. The vector PT is calculated for two eyes. At this time, the line-of-sight detection unit 19A sets the start point of the line-of-sight vector PT to the three-dimensional position of the rotation center E of the eyeball detected by the face posture detection unit 18.

なお、瞳孔形状法によって得られる算出結果は、光軸L2の方向である。従って、上記の算出方法では、光軸L2が視線に対応すると仮定されている。視軸(瞳孔中心の位置P及び中心窩をとおる軸)と光軸L2(眼球光学系の対称軸)との間にはずれがある。従って、瞳孔形状法によって得られる結果を較正すれば、瞳孔検出装置の出力結果を実際の視線に近づけることができる。視線検出部19Aは、視軸に対する光軸L2のずれを示すずれ角θを導入する。すなわち、視線検出部19Aは、下記式(6)により傾きθを較正して較正後の傾きθSaを算出することもできる。
θSa=θ−θ …(6)
上記式(6)において、傾きθSaは、視軸を示す視線ベクトルに対応する。ずれ角θは、視軸に対する光軸L2のずれを示すベクトルである。ずれ角θは、ずれ角θの大きさ|θ|と傾きφとにより定義され、θ=(|θ|,φ)として示される。
Note that the calculation result obtained by the pupil shape method is the direction of the optical axis L2. Therefore, in the above calculation method, it is assumed that the optical axis L2 corresponds to the line of sight. There is a deviation between the visual axis (axis P through the center of the pupil and the axis passing through the fovea) and the optical axis L2 (the axis of symmetry of the eyeball optical system). Therefore, if the result obtained by the pupil shape method is calibrated, the output result of the pupil detection device can be brought close to the actual line of sight. The line-of-sight detection unit 19A introduces a deviation angle θ 0 indicating the deviation of the optical axis L2 with respect to the visual axis. That is, the line-of-sight detection unit 19A can also calculate the tilt θ Sa after calibration by calibrating the tilt θ S by the following equation (6).
θ Sa = θ S −θ 0 (6)
In the above equation (6), the inclination θ Sa corresponds to a line-of-sight vector indicating the visual axis. The shift angle θ 0 is a vector indicating the shift of the optical axis L2 with respect to the visual axis. The deviation angle θ 0 is defined by the magnitude | θ 0 | of the deviation angle θ 0 and the inclination φ 0 and is represented as θ 0 = (| θ 0 |, φ 0 ).

特徴点検出部17Aは、視線検出部19Aによって算出された視線ベクトルの方向を基に、2つの眼球の回転中心Eの二次元位置を算出する。詳細には、特徴点検出部17Aは、直前の画像フレームの顔画像を対象に顔姿勢検出部18によって算出された眼球の回転中心Eの三次元座標を基に、カルマンフィルタ等の等速運動モデルを用いた推定手法を用いて処理対象の画像フレームにおける眼球の回転中心Eの三次元座標を推定する。次に、特徴点検出部17Aは、第1実施形態の視線検出部19と同様にして、瞳孔中心Pの三次元位置を算出する。このとき、特徴点検出部17Aは、顔画像上に角膜反射像が現れない場合を想定して光学系4と瞳孔中心Pとを結ぶ直線と眼球の光軸L2との成す角θが30度程度とし、カメラ2から見て瞳孔中心Pは眼球の回転中心Eの手前の所定距離(例えば、9.4mm×cos30°=8.1mm)に位置すると仮定して瞳孔中心Pの三次元位置を算出する。さらに、特徴点検出部17Aは、算出した瞳孔中心Pの三次元位置を示す位置ベクトルWと、視線検出部19Aによって瞳孔形状法を用いて算出された眼球の光軸L2の方向を示す単位ベクトルWとを基に、下記式(7)によって眼球の回転中心Eの三次元位置を示す位置ベクトルWを算出する。
=W−κ・W …(7)
上記式(7)中、κは、予め設定された瞳孔中心Pと回転中心Eとの間の距離を示す数値である。そして、特徴点検出部17Aは、求めた眼球の回転中心Eの三次元位置をカメラ2のピンホールモデルを用いて顔画像上の二次元位置に変換する。同様の手順で、特徴点検出部17は、2つの眼球の回転中心Eの二次元位置を算出する。算出した2つの眼球の回転中心Eの二次元位置は、処理対象の画像フレームにおける顔姿勢検出部18による顔姿勢の検出に用いられる。
The feature point detection unit 17A calculates the two-dimensional position of the rotation center E of the two eyeballs based on the direction of the line-of-sight vector calculated by the line-of-sight detection unit 19A. Specifically, the feature point detection unit 17A is a constant velocity motion model such as a Kalman filter based on the three-dimensional coordinates of the rotation center E of the eyeball calculated by the face posture detection unit 18 for the face image of the immediately preceding image frame. The three-dimensional coordinates of the center of rotation E of the eyeball in the image frame to be processed are estimated using an estimation method using. Next, the feature point detection unit 17A calculates the three-dimensional position of the pupil center P in the same manner as the line-of-sight detection unit 19 of the first embodiment. At this time, assuming that a corneal reflection image does not appear on the face image, the feature point detection unit 17A has an angle θ formed by a straight line connecting the optical system 4 and the pupil center P and the optical axis L2 of the eyeball is 30 degrees. Assuming that the pupil center P is located at a predetermined distance (for example, 9.4 mm × cos 30 ° = 8.1 mm) before the rotation center E of the eyeball as viewed from the camera 2, the three-dimensional position of the pupil center P is calculated. . Further, the feature point detection unit 17A includes a position vector W P indicating the three-dimensional position of the calculated pupil center P, a unit that indicates the direction of the optical axis L2 of the eyeball is calculated by using the pupil shape method by line-of-sight detection section 19A based on the vector W 0, it calculates the position vector W E showing the three-dimensional position of the center of rotation E of the eye by the following formula (7).
W E = W P −κ E · W 0 (7)
In the above equation (7), κ E is a numerical value indicating the distance between the preset pupil center P and the rotation center E. Then, the feature point detection unit 17A converts the obtained three-dimensional position of the rotation center E of the eyeball into a two-dimensional position on the face image using the pinhole model of the camera 2. In the same procedure, the feature point detection unit 17 calculates the two-dimensional position of the rotation center E of the two eyeballs. The calculated two-dimensional position of the rotation center E of the two eyeballs is used for detection of the face posture by the face posture detection unit 18 in the image frame to be processed.

以上説明した第2実施形態の瞳孔検出装置によれば、対象者Aの頭部の変則的な動きに対して、瞳孔位置および視線を比較的正確に検出することができる。第1実施形態の瞳孔検出装置では顔画像に現れた瞳孔像と角膜反射像との両方を利用して瞳孔位置を検出していたが、鼻孔像を検出するためにカメラ2を対象者Aの正面の下方(正面から下方30度)に設置する場合、対象者Aが正面より上方を見ると角度θが30度を超えるため、対象者Aによっては角膜反射が出現しなくなる。その一方で、カメラ2から観察される瞳孔の楕円度は高くなり、視線の角度変化に対する楕円度の変化割合が高くなり、その結果瞳孔形状法を利用した際の角度θの検出分解能が高くなる。同時に、楕円度が増すと短軸の方向も高精度に求まるようになる。その結果、対象者Aがカメラ2の方向から離れた方向を見る際には、第2実施形態の瞳孔形状法を用いることにより、瞳孔位置および視線検出の精度が上昇する。
[第3実施形態]
According to the pupil detection device of the second embodiment described above, the pupil position and line of sight can be detected relatively accurately with respect to the irregular movement of the head of the subject A. In the pupil detection device according to the first embodiment, the pupil position is detected by using both the pupil image and the cornea reflection image that appear in the face image, but the camera 2 is used to detect the nostril image. When installed below the front (30 degrees below the front), when the subject A looks above the front, the angle θ exceeds 30 degrees, so that the corneal reflection does not appear depending on the subject A. On the other hand, the ellipticity of the pupil observed from the camera 2 becomes high, and the change rate of the ellipticity with respect to the change of the gaze angle becomes high, and as a result, the detection resolution of the angle θ when using the pupil shape method becomes high. . At the same time, as the ellipticity increases, the direction of the minor axis can be obtained with high accuracy. As a result, when the subject A looks in a direction away from the direction of the camera 2, the accuracy of pupil position and line-of-sight detection is increased by using the pupil shape method of the second embodiment.
[Third Embodiment]

次に、第3実施形態にかかる瞳孔検出装置の構成について説明する。図9は、第3実施形態の瞳孔検出装置を構成する画像処理装置1Bの機能構成を示すブロック図である。同図に示す画像処理装置1Bと第1実施形態にかかる画像処理装置1とでは、検出ユニット13に含まれる特徴点検出部17B、視線検出部19Bの機能が異なっている。   Next, the configuration of the pupil detection device according to the third embodiment will be described. FIG. 9 is a block diagram illustrating a functional configuration of the image processing apparatus 1B that configures the pupil detection apparatus of the third embodiment. The image processing apparatus 1B shown in the figure and the image processing apparatus 1 according to the first embodiment are different in the functions of the feature point detection unit 17B and the line-of-sight detection unit 19B included in the detection unit 13.

すなわち、視線検出部19Bは、第1実施形態の視線検出部19と同様にして瞳孔−角膜反射法を用いて視線ベクトルを算出する機能を有する処理部22aと、第2実施形態の視線検出部19Aと同様にして瞳孔形状法を用いて視線ベクトルを算出する機能を有する処理部22bと有し、最終的に処理部22aの処理結果と処理部22bの処理結果とを加味して視線ベクトルを算出する。例えば、両方の処理部の処理結果の平均値を算出したり、両方の処理部の処理結果を重み付け加算して視線ベクトルを算出する。また、視線検出部19Bは、処理部22aと処理部22bとの処理結果のいずれかを選択して用いることにより視線ベクトルを算出してもよい。例えば、計算される瞳孔形状の楕円度が所定の値以上の場合は処理部22bの処理結果が選択され、瞳孔形状の楕円度が所定の値未満の場合は処理部22aの処理結果が選択される。   That is, the line-of-sight detection unit 19B includes a processing unit 22a having a function of calculating a line-of-sight vector using the pupil-cornea reflection method in the same manner as the line-of-sight detection unit 19 of the first embodiment, and the line-of-sight detection unit of the second embodiment. Similarly to 19A, it has a processing unit 22b having a function of calculating a line-of-sight vector using the pupil shape method. Finally, the line-of-sight vector is calculated by taking into account the processing result of the processing unit 22a and the processing result of the processing unit 22b. calculate. For example, the average value of the processing results of both processing units is calculated, or the line-of-sight vector is calculated by weighted addition of the processing results of both processing units. Further, the line-of-sight detection unit 19B may calculate the line-of-sight vector by selecting and using one of the processing results of the processing unit 22a and the processing unit 22b. For example, when the calculated ellipticity of the pupil shape is a predetermined value or more, the processing result of the processing unit 22b is selected, and when the ellipticity of the pupil shape is less than the predetermined value, the processing result of the processing unit 22a is selected. The

特徴点検出部17Bは、第1実施形態の特徴点検出部17と同様にして2つの眼球の回転中心Eの二次元位置を算出する処理部21aと、第2実施形態と同様にして2つの瞳孔中心Pの三次元位置及び2つの眼球の回転中心Eの二次元位置を算出する処理部21bとを有し、2つの処理部21a,21bの処理結果が加味されて利用されてもよい。例えば、顔姿勢検出部18は、処理部21aによる処理結果を用いて算出した2つの瞳孔中心Pの三次元位置と、処理部21bによって算出された2つの瞳孔中心Pの三次元位置とを加味して、最終的な2つの瞳孔中心Pの三次元位置を算出する。例えば、両方の処理結果の平均値を算出したり、両方の処理結果を重み付け加算して瞳孔中心Pの三次元位置を算出する。また、顔姿勢検出部18は、処理部21aと処理部21bとの処理結果のいずれかを選択して用いることにより瞳孔中心Pの三次元位置又は顔姿勢を求めてもよい。例えば、視線検出部19Bにおいて計算される瞳孔形状の楕円度が所定の値以上の場合は処理部21bの処理結果が選択され、瞳孔形状の楕円度が所定の値未満の場合は処理部21aの処理結果が選択される。   The feature point detection unit 17B includes a processing unit 21a that calculates the two-dimensional position of the rotation center E of the two eyeballs in the same manner as the feature point detection unit 17 in the first embodiment, and two feature points in the same manner as in the second embodiment. The processing unit 21b that calculates the three-dimensional position of the pupil center P and the two-dimensional position of the rotation center E of the two eyeballs may be used by taking into account the processing results of the two processing units 21a and 21b. For example, the face posture detection unit 18 takes into account the three-dimensional positions of the two pupil centers P calculated using the processing result of the processing unit 21a and the three-dimensional positions of the two pupil centers P calculated by the processing unit 21b. Then, the final three-dimensional positions of the two pupil centers P are calculated. For example, the average value of both processing results is calculated, or the three-dimensional position of the pupil center P is calculated by weighting and adding both processing results. Further, the face posture detection unit 18 may obtain the three-dimensional position or the face posture of the pupil center P by selecting and using one of the processing results of the processing unit 21a and the processing unit 21b. For example, when the ellipticity of the pupil shape calculated by the line-of-sight detection unit 19B is equal to or greater than a predetermined value, the processing result of the processing unit 21b is selected, and when the ellipticity of the pupil shape is less than the predetermined value, the processing unit 21a A processing result is selected.

以上の第3実施形態にかかる瞳孔検出装置によれば、角膜反射像の二次元位置を利用した算出結果と画像上で検出された瞳孔像に関する楕円度を利用した算出結果を加味することにより、より高精度の瞳孔位置検出および視線検出が実現される。また、角膜反射像の二次元位置を利用した算出結果と画像上で検出された瞳孔像に関する楕円度を利用した算出結果を選択して用いることにより、より高精度の瞳孔位置検出および視線検出が実現される。   According to the pupil detection device according to the third embodiment described above, by adding the calculation result using the two-dimensional position of the corneal reflection image and the calculation result using the ellipticity related to the pupil image detected on the image, More accurate pupil position detection and line-of-sight detection are realized. Moreover, by selecting and using the calculation result using the two-dimensional position of the cornea reflection image and the calculation result using the ellipticity of the pupil image detected on the image, more accurate pupil position detection and gaze detection can be performed. Realized.

本発明は、上述した実施形態に限定されるものではない。上記実施形態においては下記の構成に変更されてもよい。   The present invention is not limited to the embodiment described above. In the said embodiment, you may change into the following structure.

例えば、上述した各実施形態における顔姿勢検出部18による顔姿勢の検出は、本発明者による特許第4501003号に記載の方法を用いて、両眼と右鼻孔とからなる平面の法線の方向と、両眼と左鼻孔とからなる平面の法線の方向とを検出することによって行われてもよい。さらに、顔姿勢検出部18による顔姿勢の検出においては、両眼と鼻孔の追尾性を良くするために、顔姿勢を利用した差分位置補正法および特徴点追跡の方法(本発明者による特許第5429885号に記載の方法)を用いてもよい。   For example, the detection of the face posture by the face posture detection unit 18 in each of the above-described embodiments is performed using the method described in Japanese Patent No. 4501003 by the present inventor and the direction of the normal line of the plane composed of both eyes and the right nostril And detecting the direction of the normal line of the plane composed of both eyes and the left nostril. Furthermore, in the detection of the face posture by the face posture detection unit 18, in order to improve the tracking of both eyes and nostrils, a differential position correction method and a feature point tracking method using the face posture (patent no. The method described in No. 5429885 may be used.

対象者Aの両眼を対象にして、第1実施形態における特徴点検出部17、顔姿勢検出部18、及び視線検出部19による瞳孔の三次元位置及び視線ベクトルの算出方法と、第2実施形態における特徴点検出部17A、顔姿勢検出部18、及び視線検出部19Aによる瞳孔の三次元位置及び視線ベクトルの算出方法とが、同時に別々に使用されてもよい。   A method for calculating a three-dimensional pupil position and a line-of-sight vector by the feature point detection unit 17, the face posture detection unit 18, and the line-of-sight detection unit 19 in the first embodiment for both eyes of the subject A, and a second embodiment The method of calculating the three-dimensional position of the pupil and the line-of-sight vector by the feature point detection unit 17A, the face posture detection unit 18, and the line-of-sight detection unit 19A in the form may be used separately at the same time.

また、第2実施形態にかかる特徴点検出部17Aにおける瞳孔中心Pの三次元位置の算出は、視線検出部19Bによって算出された光軸L2の方向を基に行ってもよい。具体的には、特徴点検出部17Aは、光軸L2の方向に沿って回転中心Eから手前の所定距離にある平面を設定し、その平面と、顔画像から得られるカメラ2のピンホールと瞳孔中心Pとを通る直線と、の交点を求め、その交点を瞳孔中心Pの三次元位置として算出してもよい。   Further, the calculation of the three-dimensional position of the pupil center P in the feature point detection unit 17A according to the second embodiment may be performed based on the direction of the optical axis L2 calculated by the line-of-sight detection unit 19B. Specifically, the feature point detection unit 17A sets a plane at a predetermined distance in front of the rotation center E along the direction of the optical axis L2, and the plane and the pinhole of the camera 2 obtained from the face image An intersection point with a straight line passing through the pupil center P may be obtained, and the intersection point may be calculated as a three-dimensional position of the pupil center P.

第3実施形態の画像処理装置1Bでは、対象者Aの一方の眼に関してのみ角膜反射の画像上の位置が検出され、他方の眼の角膜反射の位置が検出されなかった場合、処理部22aの処理結果を優先して視線ベクトルを決定してもよい。例えば、一方の眼に関して処理部22aによって検出された視線ベクトルのみを用いて視線ベクトルを算出してもよいし、処理部22aによる処理結果に対する重み付けを大きくして視線ベクトルを算出してもよい。   In the image processing apparatus 1B of the third embodiment, when the position on the corneal reflection image is detected only for one eye of the subject A and the position of the corneal reflection of the other eye is not detected, the processing unit 22a The line-of-sight vector may be determined giving priority to the processing result. For example, the line-of-sight vector may be calculated using only the line-of-sight vector detected by the processing unit 22a for one eye, or the line-of-sight vector may be calculated by increasing the weight on the processing result by the processing unit 22a.

また、第3実施形態の視線検出部19Bは、瞳孔形状法を用いて視線ベクトルを算出する際には、次のようにして、視線ベクトルがカメラ2に対して右方向を向いているか左方向を向いているかを判定してもよい。つまり、瞳孔形状法を単に用いた場合には対象者Aがカメラに対してどちらの方向を向いているかは判別できないため、下記の方法により視線ベクトルの方向を判定する。   In addition, when the line-of-sight detection unit 19B of the third embodiment calculates the line-of-sight vector using the pupil shape method, the line-of-sight vector is directed rightward or leftward with respect to the camera 2 as follows. You may determine whether you are facing. That is, when the pupil shape method is simply used, it cannot be determined which direction the subject A is facing the camera, so the direction of the line-of-sight vector is determined by the following method.

図10及び図11は、光学系4に対する対象者Aの状態を示す平面図である。図10の(a)部は、光学系4に対して対象者Aが光学系4に向かってやや右方向を見ている場合を示している。この場合、対象者Aの頭部の回転は少ないため、視線検出部19Bは瞳孔−角膜反射法を用いて視線ベクトルを検出できる。また、図10の(b)部は、対象者Aがカメラ2の右側に視線を移した場合を示しているが、この場合角度θが大きいため角膜反射像が現れない。そこで、視線検出部19Bは瞳孔形状法を用いて視線ベクトルを検出することになるが、対象者Aがカメラ2の右側を見ているか左側を見ているかは瞳孔形状からは判別できない。しかし、対象者Aが意図的に視線を移さない限り、図10の(c)部に示すように、視線ベクトルDPTだけでなく顔方向DPも右方向に回転する。図11の(a)部には、対象者Aが光学系4に対して比較的大きく左側を見た場合を示しており、この場合視線検出部19Bは瞳孔形状法を用いて視線ベクトルを検出する。この場合は、視線ベクトルDPTだけでなく顔方向DPも左方向に回転する。この傾向を利用して、視線検出部19Bは、視線ベクトルを求める際には、顔姿勢検出部18によって検出された顔方向を参照することにより、右方向を向いているか左方向を向いているかを判定する。具体的には、視線検出部19Bは、角度θの絶対値が30度を超えている場合には、顔方向DPが左方向に所定角度Th以上傾いている場合には視線ベクトルが左方向に傾いているものとして視線ベクトルを算出し、顔方向DPが右方向に所定角度Th以上傾いている場合には視線ベクトルが右方向に傾いているものとして視線ベクトルを算出する。ここで、閾値としての角度Thは、5度程度に設定される。この際、対象者Aの正面方向は、本発明者による特許第5004099号に記載の方法を利用して較正してもよい。すなわち、2つの眼球の回転中心と鼻孔間中点からなる三角形の法線と顔正面は上下に大きくずれているのが一般的であるため、それらの間のずれ角度を較正値として求め、その較正値を利用して顔方向を較正する。   10 and 11 are plan views showing the state of the subject A with respect to the optical system 4. Part (a) of FIG. 10 shows a case where the subject A is looking slightly rightward toward the optical system 4 with respect to the optical system 4. In this case, since the rotation of the head of the subject A is small, the line-of-sight detection unit 19B can detect the line-of-sight vector using the pupil-cornea reflection method. 10B shows a case where the subject A moves his / her line of sight to the right side of the camera 2. In this case, since the angle θ is large, a corneal reflection image does not appear. Therefore, the line-of-sight detection unit 19B detects the line-of-sight vector using the pupil shape method, but it cannot be determined from the pupil shape whether the subject A is looking at the right side or the left side of the camera 2. However, unless the subject A intentionally shifts his / her line of sight, not only the line-of-sight vector DPT but also the face direction DP rotates to the right as shown in FIG. Part (a) of FIG. 11 shows a case where the subject A looks relatively left with respect to the optical system 4, and in this case, the line-of-sight detection unit 19B detects the line-of-sight vector using the pupil shape method. To do. In this case, not only the line-of-sight vector DPT but also the face direction DP rotates to the left. Using this tendency, when the line-of-sight detection unit 19B obtains the line-of-sight vector, it refers to the face direction detected by the face posture detection unit 18 so as to face the right direction or the left direction. Determine. Specifically, the line-of-sight detection unit 19B determines that when the absolute value of the angle θ exceeds 30 degrees, the line-of-sight vector is leftward when the face direction DP is inclined to the left by a predetermined angle Th or more. The line-of-sight vector is calculated as being inclined, and when the face direction DP is inclined rightward by a predetermined angle Th or more, the line-of-sight vector is calculated as if the line-of-sight vector is inclined rightward. Here, the angle Th as the threshold is set to about 5 degrees. At this time, the front direction of the subject A may be calibrated using the method described in Japanese Patent No. 5004099 by the present inventor. In other words, since the normal of the triangle consisting of the center of rotation of the two eyeballs and the midpoint between the nostrils and the front of the face are generally greatly displaced up and down, the deviation angle between them is obtained as a calibration value, Calibrate the face direction using the calibration value.

なお、図11の(b)部に示す状態のように、対象者Aの頭部は比較的大きく左側を見ているにもかかわらず眼部の光軸はむしろ頭部方向より右側を向いている場合のように、対象者Aがどこか1点を見ながら頭部を回転させることが起こりうる。しかし、この場合は角度θが小さく、瞳孔−角膜反射法を用いて視線ベクトルを検出できるため問題はない。図11の(c)部に示す状態では、図11の(b)部に示す状態よりも対象者Aがさらに右側を見ているケースを想定しているが、顔方向に対ししてこのように大きく右方向に視線を向けることは不自然であるだけでなく、この状態でさえも角度θが30度以下であるため瞳孔−角膜反射法を用いて視線ベクトルを検出できるため問題はない。   Note that, as in the state shown in part (b) of FIG. 11, the optical axis of the eye part rather faces the right side rather than the head direction, even though the head of the subject A is relatively large looking left. It is possible that the subject A rotates his / her head while looking at one point as in the case where the user is present. However, in this case, there is no problem because the angle θ is small and the line-of-sight vector can be detected using the pupil-corneal reflection method. In the state shown in part (c) of FIG. 11, it is assumed that the subject A is looking further to the right than in the state shown in part (b) of FIG. 11. It is not only unnatural to turn the line of sight largely to the right, and even in this state, since the angle θ is 30 degrees or less, the line-of-sight vector can be detected using the pupil-cornea reflection method, and there is no problem.

上述した視線検出部19Bによる視線ベクトルの方向の判定方法は、光学系4を中心とした左右方向だけでなく、光学系4を中心とした点対称のその他の方向(例えば、上下方向)に応用してもよい。   The above-described method for determining the direction of the line-of-sight vector by the line-of-sight detection unit 19B is applied not only to the horizontal direction about the optical system 4 but also to other point-symmetrical directions (for example, the vertical direction) about the optical system 4. May be.

また、上述した第1〜第3の実施形態の瞳孔検出装置においては、予め光学系4を少なくとも2系統で複数系統備えていてもよい。この複数系統の光学系4のうちの2系統の光学系4の組み合わせは予めカメラ較正がされてステレオマッチングによる対象物の三次元計測が可能とされている。例えば、対象者Aの存在範囲の中心位置から見て左右に15度の方向に配置された2つの光学系4を備えてもよい。左右の両方向に45度の範囲で撮像可能な光学系を2系統備えれば、例えば、全体で水平方向の120度の範囲で対象者Aが撮像可能となる。このような瞳孔検出装置の画像処理装置1,1A,1Bでは、予め対象者Aを中心位置において2つの光学系4に正対するように位置させた状態で、2つの光学系4から出力された画像を基に、ステレオマッチングにより、対象者Aの2つの瞳孔中心及び鼻孔中心(または、2つの鼻孔中心間の中点)の三次元位置を計測することができる。そして、画像処理装置1,1A,1Bは、計測した対象者Aの2つの瞳孔中心及び鼻孔中心の三次元位置を基に、2つの瞳孔中心間の距離(第1の距離)と、2つの瞳孔中心と鼻孔中心との間の距離(第2の距離)とを計算しておく。その後、画像処理装置1,1A,1Bは、それらの距離を基に、上述した第1〜第3の実施形態に記載の方法により、対象者Aの瞳孔の三次元位置、顔姿勢、顔位置、視線ベクトル、及び注視点を検出することができる。このとき、計算する第2の距離としては、2つの瞳孔中心のそれぞれと鼻孔中心との間の距離であってもよいし、2つの瞳孔中心を結ぶ直線と鼻孔中心との間の距離であってもよい。このような瞳孔検出装置によれば、広い角度範囲に位置する対象者Aを対象にして顔方向及び視線方向を検出することができる。また、2つの光学系4の組み合わせが複数組配置された瞳孔検出装置によれば、さらに広い角度範囲で顔方向及び視線方向を検出することができる。   Further, in the pupil detection devices of the first to third embodiments described above, a plurality of optical systems 4 may be provided in advance in at least two systems. The combination of the two optical systems 4 of the plurality of optical systems 4 is preliminarily camera calibrated to enable three-dimensional measurement of the object by stereo matching. For example, you may provide the two optical systems 4 arrange | positioned in the direction of 15 degree | times on either side seeing from the center position of the subject person's A presence range. If two systems of optical systems capable of imaging in the range of 45 degrees in both the left and right directions are provided, for example, the subject A can image in the range of 120 degrees in the horizontal direction as a whole. In such image processing apparatuses 1, 1 </ b> A, and 1 </ b> B of the pupil detection device, the image is output from the two optical systems 4 in a state where the subject A is previously positioned so as to face the two optical systems 4 at the center position. Based on the image, the three-dimensional position of the two pupil centers and nostril centers (or the midpoint between the two nostril centers) of the subject A can be measured by stereo matching. Then, the image processing apparatuses 1, 1 </ b> A, 1 </ b> B, based on the measured three-dimensional positions of the two pupil centers and the nostril center of the subject A, the distance between the two pupil centers (first distance), and two The distance (second distance) between the pupil center and the nostril center is calculated in advance. Thereafter, the image processing apparatuses 1, 1 </ b> A, 1 </ b> B perform the three-dimensional position, face posture, and face position of the pupil of the subject A by the method described in the first to third embodiments based on the distances. , Line-of-sight vector, and gaze point can be detected. At this time, the second distance to be calculated may be a distance between each of the two pupil centers and the nostril center, or a distance between a straight line connecting the two pupil centers and the nostril center. May be. According to such a pupil detection device, it is possible to detect the face direction and the line-of-sight direction for the subject A located in a wide angle range. Moreover, according to the pupil detection device in which a plurality of combinations of the two optical systems 4 are arranged, the face direction and the line-of-sight direction can be detected in a wider angle range.

1,1A,1B…画像処理装置,2…カメラ(撮像装置)、3a,3b…光源(照明装置)、4…光学系(光学システム)、10…瞳孔検出装置、13…検出ユニット(処理部)、17,17A,17B…特徴点検出部(回転中心算出部、瞳孔位置算出部)、18…顔姿勢検出部(瞳孔位置算出部)、19,19A,19B…視線検出部(瞳孔位置算出部)、21a,22a…処理部(第1の処理部)、21b,22b…処理部(第2の処理部)、A…対象者、C…角膜球中心、CB…角膜球、Cr…角膜反射中心、E…眼球回転中心、EB…眼球、EP…瞳孔、P…瞳孔中心。   DESCRIPTION OF SYMBOLS 1,1A, 1B ... Image processing device, 2 ... Camera (imaging device), 3a, 3b ... Light source (illumination device), 4 ... Optical system (optical system), 10 ... Pupil detection device, 13 ... Detection unit (processing part) ), 17, 17A, 17B ... feature point detector (rotation center calculator, pupil position calculator), 18 ... face posture detector (pupil position calculator), 19, 19A, 19B ... gaze detector (pupil position calculator) Part), 21a, 22a ... processing part (first processing part), 21b, 22b ... processing part (second processing part), A ... subject, C ... corneal sphere center, CB ... corneal sphere, Cr ... cornea Reflection center, E ... center of eyeball rotation, EB ... eyeball, EP ... pupil, P ... pupil center.

Claims (10)

対象者の顔を撮像する撮像装置と前記顔を照明する照明装置とを含む光学システムと、
前記撮像装置によって出力された画像を基に前記対象者の2つの瞳孔の三次元位置を算出する処理部と、
を備え、
前記処理部は、
前記画像上で検出した前記2つの瞳孔のそれぞれの位置と、前記対象者の眼球の光軸の方向とを基に、前記対象者の2つの眼球のそれぞれの回転中心の前記画像上の位置を算出する回転中心算出部と、
前記2つの眼球の回転中心の前記画像上の位置と、前記対象者の鼻孔の画像上の位置とを基に、前記2つの瞳孔の三次元位置を算出する瞳孔位置算出部と、
を有する、
瞳孔検出装置。
An optical system including an imaging device that images the face of the subject and an illumination device that illuminates the face;
A processing unit that calculates a three-dimensional position of two pupils of the subject based on an image output by the imaging device;
With
The processor is
Based on the position of each of the two pupils detected on the image and the direction of the optical axis of the eyeball of the subject person, the position on the image of the rotation center of each of the eyeballs of the subject person is determined. A rotation center calculation unit to calculate,
A pupil position calculation unit that calculates a three-dimensional position of the two pupils based on the position on the image of the rotation center of the two eyeballs and the position of the nostril of the subject;
Having
Pupil detection device.
前記回転中心算出部は、前記2つの瞳孔のそれぞれの位置と前記2つの瞳孔のそれぞれに対応して生じる角膜反射の画像上の位置とを基に前記眼球の光軸の方向を求め、前記眼球の光軸の方向を基に前記回転中心の前記画像上の位置を算出する、
請求項1記載の瞳孔検出装置。
The rotation center calculation unit obtains the direction of the optical axis of the eyeball based on each position of the two pupils and a position on the image of corneal reflection that occurs corresponding to each of the two pupils, and the eyeball Calculating the position of the center of rotation on the image based on the direction of the optical axis of
The pupil detection device according to claim 1.
前記回転中心算出部は、前記画像上で検出される前記2つの瞳孔のそれぞれに関する楕円度を基に前記眼球の光軸の方向を求め、前記眼球の光軸の方向を基に前記回転中心の前記画像上の位置を算出する、
請求項1記載の瞳孔検出装置。
The rotation center calculation unit obtains the direction of the optical axis of the eyeball based on the ellipticity related to each of the two pupils detected on the image, and calculates the rotation center based on the direction of the optical axis of the eyeball. Calculating a position on the image;
The pupil detection device according to claim 1.
前記処理部は、前記回転中心算出部として、前記2つの瞳孔のそれぞれの位置と前記2つの瞳孔のそれぞれに対応して生じる角膜反射の画像上の位置とを基に前記眼球の光軸の方向を求め、前記眼球の光軸の方向を基に前記回転中心の前記画像上の位置を算出する第1の処理部と、前記画像上で検出される前記2つの瞳孔のそれぞれに関する楕円度を基に前記眼球の光軸の方向を求め、前記眼球の光軸の方向を基に前記回転中心の前記画像上の位置を算出する第2の処理部とを含んでおり、
前記第1の処理部による処理結果と前記第2の処理部による処理結果を加味して前記2つの瞳孔の三次元位置を算出する、
請求項1記載の瞳孔検出装置。
The processing unit, as the rotation center calculation unit, is a direction of the optical axis of the eyeball based on each position of the two pupils and a position on the image of corneal reflection that occurs corresponding to each of the two pupils. A first processing unit that calculates the position of the rotation center on the image based on the direction of the optical axis of the eyeball, and an ellipticity relating to each of the two pupils detected on the image. A second processing unit that obtains the direction of the optical axis of the eyeball and calculates the position of the center of rotation on the image based on the direction of the optical axis of the eyeball,
Taking into account the processing result by the first processing unit and the processing result by the second processing unit to calculate the three-dimensional position of the two pupils;
The pupil detection device according to claim 1.
前記処理部は、前記回転中心算出部として、前記2つの瞳孔のそれぞれの位置と前記2つの瞳孔のそれぞれに対応して生じる角膜反射の画像上の位置とを基に前記眼球の光軸の方向を求め、前記眼球の光軸の方向を基に前記回転中心の前記画像上の位置を算出する第1の処理部と、前記画像上で検出される前記2つの瞳孔のそれぞれに関する楕円度を基に前記眼球の光軸の方向を求め、前記眼球の光軸の方向を基に前記回転中心の前記画像上の位置を算出する第2の処理部とを含んでおり、
前記第1の処理部及び前記第2の処理部のいずれかの処理結果を選択して用いることにより前記2つの瞳孔の三次元位置を算出する、
請求項1記載の瞳孔検出装置。
The processing unit, as the rotation center calculation unit, is a direction of the optical axis of the eyeball based on each position of the two pupils and a position on the image of corneal reflection that occurs corresponding to each of the two pupils. A first processing unit that calculates the position of the rotation center on the image based on the direction of the optical axis of the eyeball, and an ellipticity relating to each of the two pupils detected on the image. A second processing unit that obtains the direction of the optical axis of the eyeball and calculates the position of the center of rotation on the image based on the direction of the optical axis of the eyeball,
Calculating a three-dimensional position of the two pupils by selecting and using any one of the processing results of the first processing unit and the second processing unit;
The pupil detection device according to claim 1.
前記対象者の一方の瞳孔に対応する角膜反射が検出され、前記対象者の他方の瞳孔に対応する角膜反射が検出されなかった場合、前記第1の処理部及び前記第2の処理部の処理結果のうち、前記一方の瞳孔に関する第1の処理部の処理結果を優先して用いる、
請求項4又は5記載の瞳孔検出装置。
When the corneal reflection corresponding to one pupil of the subject is detected and the corneal reflection corresponding to the other pupil of the subject is not detected, the processing of the first processing unit and the second processing unit Among the results, the processing result of the first processing unit related to the one pupil is preferentially used.
The pupil detection device according to claim 4 or 5.
前記瞳孔位置算出部は、前記2つの眼球の回転中心の前記画像上の位置と、前記対象者の鼻孔の画像上の位置とを基に、前記2つの眼球の回転中心の三次元位置と前記鼻孔の三次元位置とを算出することにより、前記対象者の顔方向を検出する、
請求項1〜6のいずれか1項に記載の瞳孔検出装置。
The pupil position calculation unit, based on the position on the image of the rotation center of the two eyeballs and the position on the image of the nostril of the subject, and the three-dimensional position of the rotation center of the two eyeballs and the Detecting the face direction of the subject by calculating the three-dimensional position of the nostrils;
The pupil detection apparatus of any one of Claims 1-6.
前記眼球の光軸の方向を基に前記対象者の視線方向を求める視線検出部をさらに備え、
前記瞳孔位置算出部は、前記2つの眼球の回転中心の前記画像上の位置と、前記対象者の鼻孔の画像上の位置とを基に、前記2つの眼球の回転中心の三次元位置と前記鼻孔の三次元位置とを算出することにより、前記対象者の顔方向を検出し、
前記視線検出部は、前記対象者の顔方向を基に、前記対象者の視線方向が二方向のうちのどちらであるかを判定する、
請求項3記載の瞳孔検出装置。
A line-of-sight detection unit that obtains the line-of-sight direction of the subject based on the direction of the optical axis of the eyeball;
The pupil position calculation unit, based on the position on the image of the rotation center of the two eyeballs and the position on the image of the nostril of the subject, and the three-dimensional position of the rotation center of the two eyeballs and the By detecting the three-dimensional position of the nostril and detecting the face direction of the subject,
The line-of-sight detection unit determines whether the line-of-sight direction of the subject person is one of two directions based on the face direction of the subject person.
The pupil detection device according to claim 3.
前記光学システムを少なくとも2系統備え、
前記処理部は、少なくとも2系統の前記光学システムから出力された画像を基に、前記2つの瞳孔の間の第1の距離、及び前記瞳孔と前記鼻孔との間の第2の距離とを計測し、前記第1の距離及び第2の距離とを用いて、前記2つの瞳孔の三次元位置を算出する、
請求項1〜8のいずれか1項に記載の瞳孔検出装置。
Comprising at least two systems of the optical system;
The processing unit measures a first distance between the two pupils and a second distance between the pupils and the nostrils based on images output from at least two systems of the optical system. And using the first distance and the second distance to calculate a three-dimensional position of the two pupils,
The pupil detection device according to any one of claims 1 to 8.
対象者の顔を照明装置によって照明しながら前記顔を撮像装置によって撮像するステップと、
前記撮像装置によって出力された画像を基に前記対象者の2つの瞳孔の三次元位置を算出するステップと、
を備え、
前記三次元位置を算出するステップは、
前記画像上で検出した前記2つの瞳孔のそれぞれの位置と、前記対象者の眼球の光軸の方向とを基に、前記対象者の2つの眼球のそれぞれの回転中心の前記画像上の位置を算出するステップと、
前記2つの眼球の回転中心の前記画像上の位置と、前記対象者の鼻孔の画像上の位置とを基に、前記2つの瞳孔の三次元位置を算出するステップと、
を有する、
瞳孔検出方法。
Imaging the face with an imaging device while illuminating the face of the subject with an illumination device;
Calculating a three-dimensional position of two pupils of the subject based on an image output by the imaging device;
With
The step of calculating the three-dimensional position includes:
Based on the position of each of the two pupils detected on the image and the direction of the optical axis of the eyeball of the subject person, the position on the image of the rotation center of each of the eyeballs of the subject person is determined. A calculating step;
Calculating a three-dimensional position of the two pupils based on a position on the image of the rotation center of the two eyeballs and a position on the image of the nostril of the subject;
Having
Pupil detection method.
JP2016245664A 2016-12-19 2016-12-19 Pupil detection device and pupil detection method Active JP7030317B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016245664A JP7030317B2 (en) 2016-12-19 2016-12-19 Pupil detection device and pupil detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016245664A JP7030317B2 (en) 2016-12-19 2016-12-19 Pupil detection device and pupil detection method

Publications (2)

Publication Number Publication Date
JP2018099174A true JP2018099174A (en) 2018-06-28
JP7030317B2 JP7030317B2 (en) 2022-03-07

Family

ID=62714795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016245664A Active JP7030317B2 (en) 2016-12-19 2016-12-19 Pupil detection device and pupil detection method

Country Status (1)

Country Link
JP (1) JP7030317B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020048971A (en) * 2018-09-27 2020-04-02 アイシン精機株式会社 Eyeball information estimation device, eyeball information estimation method, and eyeball information estimation program
WO2020235940A1 (en) * 2019-05-21 2020-11-26 (의) 삼성의료재단 Apparatus, method, and system for measuring exophthalmos using 3d depth camera
KR20200133923A (en) * 2019-05-21 2020-12-01 (의) 삼성의료재단 Method and system for monitoring related disease using face perception of mobile phone
KR102477699B1 (en) * 2022-06-28 2022-12-14 주식회사 타이로스코프 A method, an imaging device and a recording medium for acquiring a lateral image for eye protrusion analysis
WO2023277548A1 (en) * 2021-06-30 2023-01-05 주식회사 타이로스코프 Method for acquiring side image for eye protrusion analysis, image capture device for performing same, and recording medium
US11663719B2 (en) 2021-06-30 2023-05-30 Thyroscope Inc. Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same
US11741610B2 (en) 2021-06-30 2023-08-29 Thyroscope Inc. Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02224637A (en) * 1988-11-16 1990-09-06 A T R Tsushin Syst Kenkyusho:Kk System for detecting glance
JP2004167152A (en) * 2002-11-22 2004-06-17 National Institute Of Advanced Industrial & Technology Method and system for correcting deviation movement of the head in visual axis position measurement
JP2008102902A (en) * 2006-07-18 2008-05-01 Advanced Telecommunication Research Institute International Visual line direction estimation device, visual line direction estimation method, and program for making computer execute visual line direction estimation method
JP2013252301A (en) * 2012-06-07 2013-12-19 Toyota Central R&D Labs Inc Device and program for estimating eyeball center position
JP2016106668A (en) * 2014-12-02 2016-06-20 ソニー株式会社 Information processing apparatus, information processing method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02224637A (en) * 1988-11-16 1990-09-06 A T R Tsushin Syst Kenkyusho:Kk System for detecting glance
JP2004167152A (en) * 2002-11-22 2004-06-17 National Institute Of Advanced Industrial & Technology Method and system for correcting deviation movement of the head in visual axis position measurement
JP2008102902A (en) * 2006-07-18 2008-05-01 Advanced Telecommunication Research Institute International Visual line direction estimation device, visual line direction estimation method, and program for making computer execute visual line direction estimation method
JP2013252301A (en) * 2012-06-07 2013-12-19 Toyota Central R&D Labs Inc Device and program for estimating eyeball center position
JP2016106668A (en) * 2014-12-02 2016-06-20 ソニー株式会社 Information processing apparatus, information processing method and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020048971A (en) * 2018-09-27 2020-04-02 アイシン精機株式会社 Eyeball information estimation device, eyeball information estimation method, and eyeball information estimation program
JP7198023B2 (en) 2018-09-27 2022-12-28 株式会社アイシン Eyeball information estimation device, eyeball information estimation method, and eyeball information estimation program
WO2020235940A1 (en) * 2019-05-21 2020-11-26 (의) 삼성의료재단 Apparatus, method, and system for measuring exophthalmos using 3d depth camera
KR20200133923A (en) * 2019-05-21 2020-12-01 (의) 삼성의료재단 Method and system for monitoring related disease using face perception of mobile phone
WO2020235939A3 (en) * 2019-05-21 2021-02-04 (의) 삼성의료재단 Method and system for monitoring related diseases by means of face recognition in mobile communication terminal
KR102293824B1 (en) * 2019-05-21 2021-08-24 (의) 삼성의료재단 Method and system for monitoring related disease using face perception of mobile phone
WO2023277548A1 (en) * 2021-06-30 2023-01-05 주식회사 타이로스코프 Method for acquiring side image for eye protrusion analysis, image capture device for performing same, and recording medium
US11663719B2 (en) 2021-06-30 2023-05-30 Thyroscope Inc. Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same
US11717160B2 (en) 2021-06-30 2023-08-08 Thyroscope Inc. Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor
US11741610B2 (en) 2021-06-30 2023-08-29 Thyroscope Inc. Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same
US11748884B2 (en) 2021-06-30 2023-09-05 Thyroscope Inc. Method for hospital visit guidance for medical treatment for active thyroid eye disease, and system for performing same
KR102477699B1 (en) * 2022-06-28 2022-12-14 주식회사 타이로스코프 A method, an imaging device and a recording medium for acquiring a lateral image for eye protrusion analysis

Also Published As

Publication number Publication date
JP7030317B2 (en) 2022-03-07

Similar Documents

Publication Publication Date Title
JP6902075B2 (en) Line-of-sight tracking using structured light
US20230037046A1 (en) Depth plane selection for multi-depth plane display systems by user categorization
JP7030317B2 (en) Pupil detection device and pupil detection method
US6659611B2 (en) System and method for eye gaze tracking using corneal image mapping
US9244529B2 (en) Point-of-gaze estimation robust to head rotations and/or device rotations
US20140218281A1 (en) Systems and methods for eye gaze determination
JP6631951B2 (en) Eye gaze detection device and eye gaze detection method
WO2005063114A1 (en) Sight-line detection method and device, and three- dimensional view-point measurement device
GB2544460A (en) Systems and methods for generating and using three-dimensional images
JP4500992B2 (en) 3D viewpoint measuring device
US11624907B2 (en) Method and device for eye metric acquisition
JP2019215688A (en) Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration
CN113260299A (en) System and method for eye tracking
CN108537103B (en) Living body face detection method and device based on pupil axis measurement
JP7046347B2 (en) Image processing device and image processing method
JP6555707B2 (en) Pupil detection device, pupil detection method, and pupil detection program
CN113138664A (en) Eyeball tracking system and method based on light field perception
Li et al. An efficient method for eye tracking and eye-gazed FOV estimation
JP2011172853A (en) Device, method and program for measuring visual axis
JP6430813B2 (en) Position detection apparatus, position detection method, gazing point detection apparatus, and image generation apparatus
Sugimoto et al. Detecting a gazing region by visual direction and stereo cameras
JP2015123262A (en) Sight line measurement method using corneal surface reflection image, and device for the same
JP2016057906A (en) Measurement method and system of viewpoint position

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220215

R150 Certificate of patent or registration of utility model

Ref document number: 7030317

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150