JP2014052813A - Pupil detection device and pupil detection method - Google Patents

Pupil detection device and pupil detection method Download PDF

Info

Publication number
JP2014052813A
JP2014052813A JP2012196436A JP2012196436A JP2014052813A JP 2014052813 A JP2014052813 A JP 2014052813A JP 2012196436 A JP2012196436 A JP 2012196436A JP 2012196436 A JP2012196436 A JP 2012196436A JP 2014052813 A JP2014052813 A JP 2014052813A
Authority
JP
Japan
Prior art keywords
image
pupil
value
candidate
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012196436A
Other languages
Japanese (ja)
Other versions
JP6011173B2 (en
Inventor
Masaru Ninomiya
賢 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012196436A priority Critical patent/JP6011173B2/en
Publication of JP2014052813A publication Critical patent/JP2014052813A/en
Application granted granted Critical
Publication of JP6011173B2 publication Critical patent/JP6011173B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a pupil detection device capable of precisely detecting a pupil with a small computational quantity.SOLUTION: The pupil detection device includes: an image acquisition part which acquires a first image including a pupil of a person being irradiated with infrared light from a light source arranged at a first position and a second image including the pupil of the person irradiated with infrared light from a light source arranged at a second position; a difference value calculation part which calculates difference values between luminances of a plurality of image areas included in the first image and luminances of a plurality of image areas included in the second image and corresponding to the plurality of image areas of the first image; a candidate area specification part which specifies a plurality of successive image areas whose calculated difference values are equal to or larger than a first threshold as a candidate area for the pupil; a variance value calculation part which calculates a variance value indicative of how the respective image areas in the candidate area vary in luminance; and a pupil detection part which detects the candidate area as the position of the pupil of the person when the variance value is equal to or less than a second threshold.

Description

本発明は、瞳孔検出装置および瞳孔検出方法に関する。   The present invention relates to a pupil detection device and a pupil detection method.

従来、検査対象者等にモニタ画面などの観察面を注視させ、このときの検査対象者の顔画像を解析することにより、検査対象者の注視点を検出する装置が知られている。このような装置においては、瞳孔による光の反射に基づいて瞳孔位置を特定するが、検査対象者が眼鏡を掛けているような場合には、眼鏡のレンズやフレームにおいても光が反射してしまい、瞳孔と誤って検出してしまう場合がある。   2. Description of the Related Art Conventionally, there has been known an apparatus that detects a gaze point of a person to be inspected by causing a person to be inspected to gaze an observation surface such as a monitor screen and analyzing a face image of the person to be inspected at this time. In such an apparatus, the position of the pupil is specified based on the reflection of light by the pupil. However, when the subject to be inspected wears spectacles, the light is also reflected on the lens or frame of the spectacles. In some cases, it is erroneously detected as a pupil.

このような誤検出を防ぐ技術として、例えば特許文献1には、検査対象者の赤外画像と可視画像とを取得し、赤外画像において所定値以上の明るさを示す高輝度領域のうち、可視画像において対応する領域の輝度が所定値未満である領域に基づいて、瞳孔位置を算出する技術が開示されている。また、特許文献2には、異なる方向から2つの光源を点灯させ、各光源を点灯させた際に撮影された2つの画像に基づいて角膜反射像を検出する技術が開示されている。   As a technique for preventing such erroneous detection, for example, Patent Document 1 acquires an infrared image and a visible image of a person to be inspected, and in a high-luminance region that shows brightness of a predetermined value or more in the infrared image, A technique for calculating a pupil position based on a region where the luminance of a corresponding region in a visible image is less than a predetermined value is disclosed. Patent Document 2 discloses a technique for detecting a cornea reflection image based on two images taken when two light sources are turned on from different directions and each light source is turned on.

特許第3450801号公報Japanese Patent No. 3450801 特開2010−244156号公報JP 2010-244156 A

しかしながら、特許文献1の技術においては赤外画像において所定値以上の明るさを示す領域が、瞳孔以外にも多く検出されてしまい、瞳孔の誤検出の可能性が高いという問題があった。また、特許文献2の技術においては、検出対象となる角膜反射が小さく、検出のための演算負荷が大きくなってしまうという問題があった。   However, the technique disclosed in Patent Document 1 has a problem in that many regions other than the pupil that show brightness of a predetermined value or more in the infrared image are detected, and the possibility of erroneous detection of the pupil is high. Moreover, in the technique of patent document 2, there existed a problem that the corneal reflection used as a detection target was small and the calculation load for detection became large.

本発明は、上記に鑑みてなされたものであって、少ない演算量で精度よく瞳孔を検出することのできる瞳孔検出装置および瞳孔検出方法を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a pupil detection device and a pupil detection method capable of accurately detecting a pupil with a small amount of calculation.

上述した課題を解決し、目的を達成するために、本発明は、瞳孔検出装置であって撮像部により撮像された第1画像であって、第1の位置に配置された光源から赤外光が照射された状態の人物の瞳孔を含む前記第1画像と、前記撮像部により撮像された第2画像であって、前記第1の位置に比べて前記撮像部との間の距離が長い位置である第2の位置に配置された光源から赤外光が照射された状態の前記人物の瞳孔を含む第2画像とを取得する画像取得部と、前記第1画像に含まれる複数の画像領域それぞれの輝度と、前記第1画像の複数の画像領域それぞれに対応する、前記第2画像の複数の画像領域それぞれの輝度の差分値を算出する差分値算出部と、前記差分値を第1閾値と比較し、前記第1閾値以上の差分値が算出された連続する複数の前記画像領域を前記瞳孔の候補領域として特定する候補領域特定部と、前記候補領域内の各画像領域の輝度のばらつきの程度を示すばらつき値を算出するばらつき値算出部と、前記ばらつき値と第2閾値とを比較し、前記ばらつき値が前記第2閾値以下である場合に、前記候補領域を前記人物の瞳孔の位置として検出する瞳孔検出部とを備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is a pupil detection device, which is a first image picked up by an image pickup unit, which is infrared light from a light source arranged at a first position. The first image including the pupil of the person in the state of being irradiated and the second image captured by the imaging unit, where the distance between the imaging unit is longer than the first position An image acquisition unit that acquires a second image including the pupil of the person irradiated with infrared light from a light source arranged at a second position, and a plurality of image regions included in the first image A difference value calculating unit for calculating a difference value between each of the plurality of image areas of the second image corresponding to each of the plurality of image areas of the first image; Compared to the first threshold value, a differential value greater than or equal to the first threshold value is calculated. A candidate region specifying unit that specifies the image region as a candidate region of the pupil, a variation value calculating unit that calculates a variation value indicating a degree of luminance variation of each image region in the candidate region, and the variation value A pupil detection unit that compares with a second threshold value and detects the candidate region as the position of the pupil of the person when the variation value is equal to or less than the second threshold value.

また、本発明は、瞳孔検出方法であって、撮像部により撮像された第1画像であって、第1の位置に配置された光源から赤外光が照射された状態の人物の瞳孔を含む前記第1画像と、前記撮像部により撮像された第2画像であって、前記第1の位置に比べて前記撮像部との間の距離が長い位置である第2の位置に配置された光源から赤外光が照射された状態の前記人物の瞳孔を含む第2画像とを取得する画像取得工程と、前記第1画像に含まれる複数の画像領域それぞれの輝度と、前記第1画像の複数の画像領域それぞれに対応する、前記第2画像の複数の画像領域それぞれの輝度の差分値を算出する差分値算出工程と、前記差分値を第1閾値と比較し、前記第1閾値以上の差分値が算出された連続する複数の前記画像領域を前記瞳孔の候補領域として特定する候補領域特定工程と、前記候補領域内の各画像領域の輝度のばらつきの程度を示すばらつき値を算出するばらつき値算出工程と、前記ばらつき値と第2閾値とを比較し、前記ばらつき値が前記第2閾値以下である場合に、前記候補領域を前記人物の瞳孔の位置として検出する瞳孔検出工程とを含むことを特徴とする。   In addition, the present invention is a pupil detection method, including a first image captured by an imaging unit, which includes a human pupil that is irradiated with infrared light from a light source disposed at a first position. A light source disposed at a second position, which is the first image and a second image captured by the imaging unit, the distance between the first image and the imaging unit being longer than the first position An image acquisition step of acquiring a second image including the pupil of the person irradiated with infrared light, brightness of each of a plurality of image regions included in the first image, and a plurality of the first images A difference value calculating step of calculating a difference value of brightness of each of the plurality of image areas of the second image corresponding to each of the image areas, and comparing the difference value with a first threshold value, and a difference greater than or equal to the first threshold value A plurality of consecutive image areas whose values are calculated are candidates for the pupil A candidate area specifying step for specifying as a region, a variation value calculating step for calculating a variation value indicating a degree of luminance variation of each image region in the candidate region, and comparing the variation value with a second threshold value, A pupil detection step of detecting the candidate region as the position of the pupil of the person when a variation value is equal to or less than the second threshold value.

本発明によれば、少ない演算量で精度よく瞳孔を検出することができるという効果を奏する。   According to the present invention, it is possible to accurately detect the pupil with a small amount of calculation.

図1は、視線方向検出装置の概略構成を示す図である。FIG. 1 is a diagram illustrating a schematic configuration of a gaze direction detection device. 図2は、視線方向装置の処理に利用される座標系を説明するための図である。FIG. 2 is a diagram for explaining a coordinate system used for processing of the line-of-sight direction device. 図3は、図1に示す各部の詳細な機能の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of detailed functions of each unit illustrated in FIG. 1. 図4は、視線検出処理を示すフローチャートである。FIG. 4 is a flowchart showing the line-of-sight detection process. 図5は、瞳孔検出処理における詳細な処理を示すフローチャートである。FIG. 5 is a flowchart showing detailed processing in pupil detection processing. 図6−1は、カメラ明画像を示す図である。FIG. 6A is a diagram illustrating a bright camera image. 図6−2は、カメラ暗画像を示す図である。FIG. 6B is a diagram illustrating a camera dark image. 図6−3は、差分画像を示す図である。FIG. 6C is a diagram illustrating the difference image. 図7−1は、瞳孔による反射光に対する輝度と、差分値とを示す図である。FIG. 7A is a diagram illustrating the luminance with respect to the reflected light from the pupil and the difference value. 図7−2は、眼鏡による反射光に対する輝度と、差分値とを示す図である。FIG. 7B is a diagram illustrating the luminance with respect to the reflected light from the glasses and the difference value. 図8は、第2の実施の形態にかかる視線方向検出装置の処理示すフローチャートである。FIG. 8 is a flowchart illustrating processing of the gaze direction detecting device according to the second embodiment.

以下に添付図面を参照して、瞳孔検出装置および瞳孔検出方法の実施の形態を詳細に説明する。   Hereinafter, embodiments of a pupil detection device and a pupil detection method will be described in detail with reference to the accompanying drawings.

(第1の実施の形態)
図1は、第1の実施の形態にかかる視線方向検出装置100の構成を示すブロック図である。視線方向検出装置100は、視線方向の検出対象となる被検出者の瞳孔を検出し、瞳孔の位置に基づいて、視線方向を検出する装置であり、瞳孔検出装置を含んでいる。
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration of a gaze direction detection device 100 according to the first embodiment. The line-of-sight detection device 100 is a device that detects the pupil of the detection target who is the detection target of the line-of-sight direction and detects the direction of the line of sight based on the position of the pupil, and includes a pupil detection device.

視線方向検出装置100は、第1表示部101と、第2表示部102と、スピーカ103と、ステレオカメラとして機能する2つのカメラ110R,110Lと、明光源112R,112Lと、暗光源114R,114Lと、駆動・IF部130と、制御部140と、記憶部160とを備えている。   The line-of-sight detection device 100 includes a first display unit 101, a second display unit 102, a speaker 103, two cameras 110R and 110L functioning as a stereo camera, bright light sources 112R and 112L, and dark light sources 114R and 114L. A drive / IF unit 130, a control unit 140, and a storage unit 160.

第1表示部101は、被検出者に注視させる画像等を表示する。第2表示部102は、当該視線方向検出装置100の操作内容などを表示する。第1表示部101および第2表示部102は、例えばモニタ画面である。スピーカ103は、視線方向検出時に被検出者に注意を促すための音声などを出力する。なお、第2表示部102は備えなくともよく、この場合には、操作内容などは、第1表示部101が表示してもよい。   The 1st display part 101 displays the image etc. which a to-be-detected person gazes at. The second display unit 102 displays the operation content of the line-of-sight direction detection device 100 and the like. The first display unit 101 and the second display unit 102 are, for example, monitor screens. The speaker 103 outputs a sound or the like for alerting the person to be detected when the line-of-sight direction is detected. Note that the second display unit 102 may not be provided, and in this case, the operation content and the like may be displayed by the first display unit 101.

右カメラ110Rおよび左カメラ110Lは、それぞれ第1表示部101の下側において第1表示部101に向かって右側および左側に設置されている。右カメラ110Rおよび左カメラ110Lは、ステレオ撮影が可能な撮像部である。以下、右カメラ110Rと左カメラ110Lとを、適宜ステレオカメラ110と称する。   The right camera 110 </ b> R and the left camera 110 </ b> L are respectively installed on the right side and the left side toward the first display unit 101 below the first display unit 101. The right camera 110R and the left camera 110L are imaging units capable of stereo shooting. Hereinafter, the right camera 110R and the left camera 110L are appropriately referred to as a stereo camera 110.

ステレオカメラ110は、被検出者の顔を撮像する。ステレオカメラ110は、明光源112R,112L、暗光源114R,114Lから赤外線が照射されているタイミングにおいて、画像を撮像する。すなわち、ステレオカメラ110は、赤外線の反射光の画像を撮像する。   The stereo camera 110 images the face of the person to be detected. The stereo camera 110 captures an image at a timing when infrared light is irradiated from the bright light sources 112R and 112L and the dark light sources 114R and 114L. That is, the stereo camera 110 captures an image of infrared reflected light.

なお、ステレオカメラ110は、被検出者の瞳孔を撮像可能な位置に設置されていればよく、その設置位置は実施の形態に限定されるものではない。また、撮像される画像(以下、撮像画像と称する)は、被検出者の瞳孔を含む画像であればよく、瞳孔を含む顔の一部のみを含む画像であってもよく、また顔に加えて、顔以外を含む画像であってもよい。   The stereo camera 110 only needs to be installed at a position where the pupil of the detection subject can be imaged, and the installation position is not limited to the embodiment. Further, the image to be captured (hereinafter referred to as a captured image) may be an image including the pupil of the detection subject, may be an image including only a part of the face including the pupil, and may be added to the face. It may be an image including other than the face.

明光源112R,112Lおよび暗光源114R,114Lは、いずれもLED(Light Emitting Diode)光源である。明光源112R,112Lは、ステレオカメラ110の周囲に配置されている。暗光源114R,114Lは、ステレオカメラ110の間の位置に配置されている。すなわち、暗光源114R,114Lとステレオカメラ110の間の距離は、明光源112R,112Lとステレオカメラ110の距離に比べて長くなっている。より具体的には、右明光源112Rおよび左明光源112Lは、それぞれ、右カメラ110Rおよび左カメラ110Lのレンズの周囲に円周方向に沿って配置されている。これにより、各カメラ110R,110Lには、瞳孔による反射光が均一に入射する。一方、右暗光源114Rおよび左暗光源114Lは、それぞれ右カメラ110Rと左カメラ110Lの間において、第1表示部101に向かって右側及び左側に配置されている。   The bright light sources 112R and 112L and the dark light sources 114R and 114L are all LED (Light Emitting Diode) light sources. The bright light sources 112R and 112L are arranged around the stereo camera 110. The dark light sources 114R and 114L are disposed at a position between the stereo cameras 110. That is, the distance between the dark light sources 114R and 114L and the stereo camera 110 is longer than the distance between the bright light sources 112R and 112L and the stereo camera 110. More specifically, the right bright light source 112R and the left bright light source 112L are arranged along the circumferential direction around the lenses of the right camera 110R and the left camera 110L, respectively. Thereby, the reflected light from the pupil is uniformly incident on each of the cameras 110R and 110L. On the other hand, the right dark light source 114R and the left dark light source 114L are arranged on the right side and the left side toward the first display unit 101 between the right camera 110R and the left camera 110L, respectively.

このように、明光源112R,112Lは、暗光源114R,114Lに比べて、ステレオカメラ110により近い位置に配置されているので、明光源112R,112Lから光が照射された状態においてステレオカメラ110により被検出者の瞳孔画像が撮像された場合には、暗光源114R,114Lから光が照射された状態において撮像された場合に比べて、輝度の高い(明るい)瞳孔画像が得られる。   As described above, since the bright light sources 112R and 112L are arranged closer to the stereo camera 110 than the dark light sources 114R and 114L, the stereo camera 110 is irradiated with light from the bright light sources 112R and 112L. When a pupil image of the person to be detected is captured, a brighter (brighter) pupil image is obtained than when captured in a state where light is emitted from the dark light sources 114R and 114L.

なお、他の例としては、明光源112R,112Lと暗光源114R,114Lの配置は逆であってもよい。すなわち、右暗光源114Rおよび左暗光源114Lがそれぞれ右カメラ110Rおよび左カメラ110Lの周囲に配置され、右明光源112Rおよび左明光源112Lがそれぞれ右カメラ110Rと左カメラ110Lの間において、第1表示部101に向かって右側及び左側に配置されていてもよい。   As another example, the arrangement of the bright light sources 112R and 112L and the dark light sources 114R and 114L may be reversed. That is, the right dark light source 114R and the left dark light source 114L are arranged around the right camera 110R and the left camera 110L, respectively, and the right bright light source 112R and the left bright light source 112L are respectively between the right camera 110R and the left camera 110L. You may arrange | position at the right side and the left side toward the display part 101. FIG.

駆動・IF部130は、ステレオカメラ110に含まれる各部を駆動する。また、駆動・IF部130は、ステレオカメラ110に含まれる各部と、制御部140とのインタフェースとして機能する。   The drive / IF unit 130 drives each unit included in the stereo camera 110. The drive / IF unit 130 functions as an interface between each unit included in the stereo camera 110 and the control unit 140.

制御部140は、第1表示部101、第2表示部102および駆動・IF部130と接続している。制御部140は、第1表示部101および第2表示部102に表示すべき画像等を制御する。   The control unit 140 is connected to the first display unit 101, the second display unit 102, and the drive / IF unit 130. The control unit 140 controls images to be displayed on the first display unit 101 and the second display unit 102.

制御部140はまた、ステレオカメラ110により得られた撮像画像に基づいて、被検出者の瞳孔を検出し、瞳孔位置に基づいて、視線方向を検出する。   The control unit 140 also detects the pupil of the person to be detected based on the captured image obtained by the stereo camera 110, and detects the line-of-sight direction based on the pupil position.

記憶部160は、各種情報を記憶する。記憶部160は例えば、第1表示部101に表示する画像等を記憶する。記憶部160はまた、後述する閾値などを記憶する。   The storage unit 160 stores various information. For example, the storage unit 160 stores an image to be displayed on the first display unit 101. The storage unit 160 also stores a threshold value to be described later.

図2は、視線方向検出装置100の処理に利用される座標系を説明するための図である。本実施の形態にかかる第1表示部101は、横方向を長辺とする長方形の画面である。視線方向検出装置100は、図2に示すような、第1表示部101の画面の中央位置を原点として、上下をY座標(上を+方向とする)、横をX座標(第1表示部101に向かって右を+方向とする)、奥行きをZ座標(第1表示部101の手前を+方向とする)とするXYZ座標系において処理を行う。   FIG. 2 is a diagram for explaining a coordinate system used for processing of the line-of-sight direction detection apparatus 100. The first display unit 101 according to the present embodiment is a rectangular screen having a long side in the horizontal direction. As shown in FIG. 2, the line-of-sight direction detection apparatus 100 uses the center position of the screen of the first display unit 101 as the origin, the top and bottom are the Y coordinates (up is the + direction), and the side is the X coordinates (the first display unit). Processing is performed in an XYZ coordinate system in which the right direction is 101 and the depth is the Z coordinate (the front side of the first display unit 101 is the + direction).

図3は、図1に示す各部の詳細な機能の一例を示すブロック図である。駆動・IF部130は、カメラIF131R,131Lと、LED駆動制御部133と、スピーカ駆動部134とを備えている。右カメラIF131Rおよび左カメラIF131Lは、それぞれ右カメラ110Rおよび左カメラ110Lと接続し、右カメラ110Rおよび左カメラ110Lを駆動する。右カメラ110Rは、左カメラ110LおよびLED駆動制御部133にフレーム同期信号を送信する。   FIG. 3 is a block diagram illustrating an example of detailed functions of each unit illustrated in FIG. 1. The drive / IF unit 130 includes camera IFs 131R and 131L, an LED drive control unit 133, and a speaker drive unit 134. The right camera IF 131R and the left camera IF 131L are connected to the right camera 110R and the left camera 110L, respectively, and drive the right camera 110R and the left camera 110L. The right camera 110R transmits a frame synchronization signal to the left camera 110L and the LED drive control unit 133.

LED駆動制御部133は、明光源112R,112Lおよび暗光源114R,114Lの発光を制御する。具体的には、LED駆動制御部133は、フレーム同期信号に基づいて、第1フレームで、タイミングをずらして右明光源112Rと左明光源112Lを発光させる。これに対応して、右カメラ110Rは、右明光源112Rの照射中に顔画像を撮像し、左カメラ110Lは、左明光源112Lの照射中に顔画像を撮像する。   The LED drive control unit 133 controls light emission of the bright light sources 112R and 112L and the dark light sources 114R and 114L. Specifically, the LED drive control unit 133 causes the right bright light source 112R and the left bright light source 112L to emit light in the first frame at different timings based on the frame synchronization signal. Correspondingly, the right camera 110R captures a face image during irradiation of the right bright light source 112R, and the left camera 110L captures a face image during irradiation of the left bright light source 112L.

さらに、LED駆動制御部133は、第2フレームで、同様にタイミングをずらして右暗光源114Rと左暗光源114Lを発光させる。これに対応して、右カメラ110Rは、右暗光源114Rの照射中に顔画像を撮像し、左カメラ110Lは、左暗光源114Lの照射中に顔画像を撮像する。なお、左右カメラ110R,110Lにより撮像された画像は、カメラIF131R,131Lを介して制御部140に入力される。   Further, the LED drive control unit 133 causes the right dark light source 114R and the left dark light source 114L to emit light in the second frame with the timing similarly shifted. Correspondingly, the right camera 110R captures a face image during irradiation of the right dark light source 114R, and the left camera 110L captures a face image during irradiation of the left dark light source 114L. Note that images captured by the left and right cameras 110R and 110L are input to the control unit 140 via the camera IFs 131R and 131L.

なお、以下、右明光源112R照射中に右カメラ110Rにより撮像された画像を右カメラ明画像、左明光源112L照射中に左カメラ110Lにより撮像された画像を左カメラ明画像、右暗光源114R照射中に右カメラ110Rにより撮像された画像を右カメラ暗画像、左暗光源114L照射中に左カメラ110Lにより撮像された画像を左カメラ暗画像と称する。   Note that, hereinafter, an image captured by the right camera 110R during irradiation of the right bright light source 112R is a right camera bright image, an image captured by the left camera 110L during irradiation of the left bright light source 112L is a left camera bright image, and a right dark light source 114R. An image captured by the right camera 110R during irradiation is referred to as a right camera dark image, and an image captured by the left camera 110L during irradiation of the left dark light source 114L is referred to as a left camera dark image.

スピーカ駆動部134は、スピーカ103を駆動する。制御部140は、視線方向検出装置100全体を制御する。制御部140は、具体的には、表示制御部141と、画像取得部142と、差分画像生成部143と、候補領域特定部144と、面積算出部145と、縦横比算出部146と、平均輝度算出部147と、瞳孔検出部148と、視線方向検出部149とを備えている。表示制御部141は、第1表示部101および第2表示部102への各種情報の表示を制御する。   The speaker driving unit 134 drives the speaker 103. The controller 140 controls the visual line direction detection device 100 as a whole. Specifically, the control unit 140 includes a display control unit 141, an image acquisition unit 142, a difference image generation unit 143, a candidate area specification unit 144, an area calculation unit 145, an aspect ratio calculation unit 146, an average A luminance calculation unit 147, a pupil detection unit 148, and a gaze direction detection unit 149 are provided. The display control unit 141 controls display of various types of information on the first display unit 101 and the second display unit 102.

画像取得部142は、カメラIF131R,131Lから撮像画像を取得する。差分画像生成部143は、右カメラ明画像と右カメラ暗画像の対応する各画素の輝度の差分値を算出し、差分値を各画素の値とする右差分画像を生成する。同様に、差分画像生成部143は、左カメラ明画像と左カメラ暗画像に基づいて、左差分画像を生成する。すなわち、差分画像生成部143は、差分算出部として機能する。なお、本実施の形態にかかる視線方向検出装置100においては、画像に含まれる領域の処理に際し、画素単位で処理を行うこととするが、処理単位は実施の形態に限定されるものではなく、画像を任意のサイズの画像領域に分割し、画像領域単位で輝度等の値を処理すればよい。   The image acquisition unit 142 acquires captured images from the camera IFs 131R and 131L. The difference image generation unit 143 calculates a difference value of the luminance of each pixel corresponding to the right camera bright image and the right camera dark image, and generates a right difference image using the difference value as the value of each pixel. Similarly, the difference image generation unit 143 generates a left difference image based on the left camera bright image and the left camera dark image. That is, the difference image generation unit 143 functions as a difference calculation unit. In the line-of-sight direction detection apparatus 100 according to the present embodiment, processing is performed in units of pixels when processing a region included in an image, but the processing unit is not limited to the embodiment. What is necessary is just to divide an image into image areas of an arbitrary size and process values such as luminance in units of image areas.

候補領域特定部144は、右差分画像および左差分画像の各画素の値を予め設定された二値化閾値を用いて二値化処理する。候補領域特定部144は、二値化閾値以上となる画素が連続する領域を、候補領域として特定する。候補領域特定部144は、さらに特定した候補領域に連続する番号を付与する、すなわちラベル化処理を行う。なお、候補領域とは、瞳孔の候補となる領域である。   The candidate area specifying unit 144 binarizes each pixel value of the right difference image and the left difference image using a preset binarization threshold. The candidate area specifying unit 144 specifies an area where pixels that are equal to or higher than the binarization threshold are continuous as a candidate area. The candidate area specifying unit 144 further assigns consecutive numbers to the specified candidate areas, that is, performs a labeling process. The candidate region is a region that is a candidate for a pupil.

面積算出部145は、候補領域の面積を算出する。縦横比算出部146は、候補領域の縦横比を算出する。縦横比算出部146は具体的には、候補領域の横方向(X軸方向)における最も右側の画素位置と、最も左側の画素位置とを特定し、両画素位置間のX軸方向における距離を横の長さとして特定する。縦横比算出部146はさらに、候補領域の縦方向(Y軸方向)における最も上側の画素位置と、最も下側の画素位置とを特定し、両画素位置間のY軸方向における距離を縦の長さとして特定する。縦横比算出部146は、特定した縦の長さと横の長さの比を縦横比として算出する。   The area calculation unit 145 calculates the area of the candidate region. The aspect ratio calculation unit 146 calculates the aspect ratio of the candidate area. Specifically, the aspect ratio calculation unit 146 specifies the rightmost pixel position and the leftmost pixel position in the horizontal direction (X-axis direction) of the candidate area, and determines the distance in the X-axis direction between the two pixel positions. Specified as horizontal length. The aspect ratio calculation unit 146 further specifies the uppermost pixel position and the lowermost pixel position in the vertical direction (Y-axis direction) of the candidate region, and sets the distance in the Y-axis direction between the two pixel positions to the vertical direction. Specify as length. The aspect ratio calculation unit 146 calculates a ratio between the specified vertical length and horizontal length as an aspect ratio.

平均輝度算出部147は、候補領域に含まれる各画素の輝度値の平均、すなわち平均輝度を算出する。瞳孔検出部148は、各候補領域の面積、縦横比および平均輝度に基づいて、被検出者の瞳孔を検出する。   The average luminance calculation unit 147 calculates the average luminance value of each pixel included in the candidate area, that is, the average luminance. The pupil detection unit 148 detects the pupil of the detected person based on the area, aspect ratio, and average luminance of each candidate region.

視線方向検出部149は、瞳孔検出部148の検出結果に基づいて、被検出者の視線方向を検出する。視線方向検出部149は、具体的には、まずステレオ視の手法により、右カメラ明画像および左カメラ明画像を用いて、右差分画像および左差分画像それぞれから検出された瞳孔の、図2に示す三次元座標系における位置、すなわち瞳孔位置を算出する。視線方向検出部149はさらに、右カメラ明画像および左カメラ明画像に基づいて、被検出者の角膜反射の位置を算出する。視線方向検出部149は、さらに瞳孔と左右カメラ110R,110Lの間の距離である瞳孔カメラ間距離を算出する。そして、視線方向検出部149は、瞳孔位置と、角膜反射位置と、瞳孔カメラ間距離とに基づいて、被検出者の視線方向を検出し、さらに、第1表示部101の表示面と視線方向との交点を注視点として検出する。なお、視線方向検出処理の詳細については、例えば特許第4517049号を参照することができる。   The line-of-sight direction detection unit 149 detects the line-of-sight direction of the detection subject based on the detection result of the pupil detection unit 148. Specifically, the line-of-sight direction detection unit 149 first detects the pupils detected from the right difference image and the left difference image, respectively, using the right camera bright image and the left camera bright image by the stereo vision technique. The position in the three-dimensional coordinate system shown, that is, the pupil position is calculated. The line-of-sight direction detection unit 149 further calculates the position of the corneal reflection of the detected person based on the right camera bright image and the left camera bright image. The line-of-sight direction detection unit 149 further calculates the distance between the pupil cameras, which is the distance between the pupil and the left and right cameras 110R and 110L. The line-of-sight direction detection unit 149 detects the line-of-sight direction of the detected person based on the pupil position, the corneal reflection position, and the inter-pupil camera distance, and further, the display surface of the first display unit 101 and the line-of-sight direction The point of intersection with is detected as the point of interest. For details of the gaze direction detection processing, for example, Japanese Patent No. 4517049 can be referred to.

なお、明画像を用いることにより、暗画像に比べて瞳孔を明確に判別することができる。そのため、本実施の形態においては、視線方向検出部149は、左右カメラ明画像を用いて、視線方向を検出することとしたが、他の例としては、視線方向検出部149は、左右カメラ暗画像を用いて、視線方向を検出することとしてもよい。   By using a bright image, the pupil can be clearly identified as compared to a dark image. Therefore, in this embodiment, the gaze direction detection unit 149 detects the gaze direction using the left and right camera bright images, but as another example, the gaze direction detection unit 149 The line-of-sight direction may be detected using an image.

図4は、視線検出装置100の処理を示すフローチャートである。図4に示すように、視線検出処理において、まずLED駆動制御部133は、左明光源112Lを点灯させる(ステップS101)。次に、左カメラ110Lは、左明光源112Lが照射された状態での被検出者の顔画像を撮像し、画像取得部142は、左カメラ110Lにより得られた左カメラ明画像を取得する(ステップS102)。   FIG. 4 is a flowchart showing the processing of the visual line detection device 100. As shown in FIG. 4, in the line-of-sight detection process, first, the LED drive control unit 133 turns on the left bright light source 112L (step S101). Next, the left camera 110L captures the face image of the detection subject in a state where the left bright light source 112L is irradiated, and the image acquisition unit 142 acquires the left camera bright image obtained by the left camera 110L ( Step S102).

次に、LED駆動制御部133は、右明光源112Rを点灯させる(ステップS103)。次に、右カメラ110Rは、右明光源112Rが照射された状態での被検出者の顔画像を撮像し、画像取得部142は、右カメラ110Rにより得られた右カメラ明画像を取得する(ステップS104)。   Next, the LED drive control unit 133 turns on the right bright light source 112R (step S103). Next, the right camera 110R captures the face image of the detection subject in a state where the right bright light source 112R is irradiated, and the image acquisition unit 142 acquires the right camera bright image obtained by the right camera 110R ( Step S104).

次に、LED駆動制御部133は、左暗光源114Lを点灯させる(ステップS105)。次に、左カメラ110Lは、左暗光源114Lが照射された状態での被検出者の顔画像を撮像し、画像取得部142は、左カメラ110Lにより得られた左カメラ暗画像を取得する(ステップS106)。   Next, the LED drive control unit 133 turns on the left dark light source 114L (step S105). Next, the left camera 110L captures a face image of the detected person in a state where the left dark light source 114L is irradiated, and the image acquisition unit 142 acquires a left camera dark image obtained by the left camera 110L ( Step S106).

次に、LED駆動制御部133は、右暗光源114Rを点灯させる(ステップS107)。次に、右カメラ110Rは、右暗光源114Rが照射された状態での被検出者の顔画像を撮像し、画像取得部142は、右カメラ110Rにより得られた右カメラ暗画像を取得する(ステップS108)。   Next, the LED drive control unit 133 turns on the right dark light source 114R (step S107). Next, the right camera 110R captures the face image of the detection subject in a state where the right dark light source 114R is irradiated, and the image acquisition unit 142 acquires the right camera dark image obtained by the right camera 110R ( Step S108).

次に、差分画像生成部143は、左カメラ110Lにより得られた左カメラ明画像と左カメラ暗画像の対応する各画素の輝度の差分を算出し、算出した差分値を各画素の値とする左差分画像を生成する。さらに、差分画像生成部143は、右カメラ110Rにより得られた右カメラ明画像と右カメラ暗画像の対応する各画素の輝度の差分を算出し、算出した差分値を各画素の値とする右差分画像を生成する(ステップS109)。次に、瞳孔検出部148等により、左差分画像および右差分画像を用いた瞳孔検出処理が行われる(ステップS110)。瞳孔検出処理については後述する。   Next, the difference image generation unit 143 calculates a luminance difference between corresponding pixels of the left camera bright image and the left camera dark image obtained by the left camera 110L, and uses the calculated difference value as the value of each pixel. A left difference image is generated. Further, the difference image generation unit 143 calculates the luminance difference between the corresponding pixels of the right camera bright image and the right camera dark image obtained by the right camera 110R, and uses the calculated difference value as the value of each pixel. A difference image is generated (step S109). Next, pupil detection processing using the left difference image and the right difference image is performed by the pupil detection unit 148 and the like (step S110). The pupil detection process will be described later.

瞳孔が検出されると、視線方向検出部149は、さらに左カメラ明画像および右カメラ明画像を利用し、瞳孔近辺の画像から角膜反射の位置を算出する(ステップS111)。次に、視線方向検出部149は、瞳孔カメラ間距離を算出する(ステップS112)。視線方向検出部149は、さらに瞳孔位置を算出し、瞳孔位置と、角膜反射位置と、瞳孔カメラ間距離とに基づいて、視線方向を検出する(ステップS113)。そして、処理の終了指示がない場合には(ステップS114,No)、ステップS101に戻り、処理を繰り返す。処理の終了指示があると(ステップS114,Yes)、処理が完了する。   When the pupil is detected, the line-of-sight direction detection unit 149 further uses the left camera bright image and the right camera bright image to calculate the position of corneal reflection from the image near the pupil (step S111). Next, the line-of-sight direction detection unit 149 calculates the inter-pupil camera distance (step S112). The gaze direction detection unit 149 further calculates the pupil position, and detects the gaze direction based on the pupil position, the corneal reflection position, and the inter-pupil camera distance (step S113). If there is no instruction to end the process (step S114, No), the process returns to step S101 and the process is repeated. When there is an instruction to end the process (step S114, Yes), the process is completed.

図5は、瞳孔検出処理(ステップS110)における詳細な処理を示すフローチャートである。瞳孔検出処理(ステップS110)においては、左差分画像および右差分画像それぞれを用いて、それぞれ瞳孔検出のための処理が行われる。なお、左差分画像および右差分画像いずれを用いる場合であっても、処理は同様であり、以下、図5の説明においては、左差分画像および右差分画像を単に差分画像と称する。   FIG. 5 is a flowchart showing detailed processing in the pupil detection processing (step S110). In the pupil detection process (step S110), a process for pupil detection is performed using each of the left difference image and the right difference image. Note that the process is the same regardless of whether the left difference image or the right difference image is used. Hereinafter, in the description of FIG. 5, the left difference image and the right difference image are simply referred to as difference images.

まず候補領域特定部144は、二値化閾値を用いて、差分画像の各画素の値を二値化する(ステップS201)。次に、候補領域特定部144は、二値化処理により二値化閾値以上と判定された画素のうち、連続する画素の領域を候補領域として特定する。さらに、候補領域特定部144は、特定した候補領域に対し順次番号(ラベル)を付与する。すなわち、候補領域特定部144は、候補領域のラベル化を行う(ステップS202)。   First, the candidate area specifying unit 144 binarizes the value of each pixel of the difference image using the binarization threshold (step S201). Next, the candidate area specifying unit 144 specifies a continuous pixel area as a candidate area among the pixels determined to be equal to or higher than the binarization threshold by the binarization process. Further, the candidate area specifying unit 144 sequentially assigns numbers (labels) to the specified candidate areas. That is, the candidate area specifying unit 144 labels candidate areas (step S202).

次に、候補領域特定部144は、ラベル化された候補領域を選択する(ステップS203)。ステップS203においては、未処理の複数の候補領域のうち番号の小さい候補領域を選択する。次に、瞳孔検出部148は、ラベル化された候補領域に対し、順次以下の処理を実行する。すなわち、瞳孔検出部148はまず、面積算出部145に対し、選択された候補領域の面積算出を指示する。面積算出部145は、この指示にしたがい、選択された候補領域の面積を算出する(ステップS204)。   Next, the candidate area specifying unit 144 selects a labeled candidate area (step S203). In step S203, a candidate area with a smaller number is selected from a plurality of unprocessed candidate areas. Next, the pupil detection unit 148 sequentially performs the following processing on the labeled candidate regions. That is, the pupil detection unit 148 first instructs the area calculation unit 145 to calculate the area of the selected candidate region. In accordance with this instruction, the area calculation unit 145 calculates the area of the selected candidate region (step S204).

次に、瞳孔検出部148は、算出された面積の値と、予め設定されている面積の値の範囲である面積範囲とを比較する。瞳孔検出部148は、算出された面積の値が面積範囲内の値である場合に(ステップS205,Yes)、縦横比算出部146に対し、選択された候補領域の縦横比の算出を指示する。縦横比算出部146は、この指示にしたがい、選択された候補領域の縦横比を算出する(ステップS206)。   Next, the pupil detection unit 148 compares the calculated area value with an area range that is a preset area value range. When the calculated area value is within the area range (step S205, Yes), the pupil detection unit 148 instructs the aspect ratio calculation unit 146 to calculate the aspect ratio of the selected candidate region. . In accordance with this instruction, the aspect ratio calculation unit 146 calculates the aspect ratio of the selected candidate area (step S206).

次に、瞳孔検出部148は、算出された縦横比の値と、予め設定されている縦横比の値の範囲である縦横比範囲とを比較する。瞳孔検出部148は、算出された縦横比の値が縦横比範囲内の値である場合に(ステップS207,Yes)、平均輝度算出部147に対し、選択された候補領域の平均輝度の算出を指示する。平均輝度算出部147は、この指示にしたがい、選択された候補領域の平均輝度を算出する(ステップS208)。   Next, the pupil detection unit 148 compares the calculated aspect ratio value with an aspect ratio range that is a range of preset aspect ratio values. The pupil detection unit 148 calculates the average luminance of the selected candidate region to the average luminance calculation unit 147 when the calculated aspect ratio is a value within the aspect ratio range (Yes in step S207). Instruct. In accordance with this instruction, the average luminance calculation unit 147 calculates the average luminance of the selected candidate area (step S208).

次に、瞳孔検出部148は、候補領域のばらつき値を算出する(ステップS209)。具体的には、瞳孔検出部148は、候補領域内の各画素の値の標準偏差をばらつき値として算出する。なお、本実施の形態においては、瞳孔検出部148は、ばらつき値として標準偏差を算出することとしたが、ばらつき値は、候補領域内の画素の値のばらつきの程度を示す値であればよく、標準偏差に限定されるものではない。   Next, the pupil detection unit 148 calculates the variation value of the candidate area (step S209). Specifically, the pupil detection unit 148 calculates the standard deviation of the value of each pixel in the candidate area as the variation value. In the present embodiment, the pupil detection unit 148 calculates the standard deviation as the variation value, but the variation value may be a value indicating the degree of variation in the pixel values in the candidate region. The standard deviation is not limited.

次に、瞳孔検出部148は、算出したばらつき値と、予め設定されているばらつき値に対する閾値であるばらつき閾値とを比較する。そして、瞳孔検出部148は、ばらつき値がばらつき閾値以下である場合に(ステップS210,Yes)、選択された候補領域は瞳孔であると判断する(ステップS211)。   Next, the pupil detection unit 148 compares the calculated variation value with a variation threshold that is a threshold for a preset variation value. Then, when the variation value is equal to or less than the variation threshold value (step S210, Yes), the pupil detection unit 148 determines that the selected candidate region is a pupil (step S211).

一方、ステップS205において、面積が面積範囲内の値でない場合(ステップS205,No)、ステップS207において、縦横比が縦横比範囲内の値でない場合(ステップS207,No)、ステップS210において、ばらつき値がばらつき閾値よりも大きい場合には(ステップS210,No)、瞳孔検出部148は、選択された候補領域は瞳孔ではないと判断する(ステップS212)。   On the other hand, if the area is not within the area range in step S205 (step S205, No), or if the aspect ratio is not within the aspect ratio range in step S207 (step S207, No), the variation value in step S210. Is larger than the variation threshold (No in step S210), the pupil detection unit 148 determines that the selected candidate region is not a pupil (step S212).

次に、未処理のラベルの候補領域がある場合には(ステップS213,Yes)、ステップS203に戻り、未処理の選択候補を選択する(ステップS203)。未処理の候補領域がない場合には(ステップS213,No)、瞳孔検出処理(ステップS110)は完了する。   Next, when there is an unprocessed label candidate area (step S213, Yes), the process returns to step S203, and an unprocessed selection candidate is selected (step S203). When there is no unprocessed candidate area (step S213, No), the pupil detection process (step S110) is completed.

ここで、図6−1〜図6−3を参照しつつ、差分画像におけるばらつき値と瞳孔との関係について説明する。図6−1は、左右カメラ110R,110Lいずれかにより撮影されたカメラ明画像を示す図である。図6−2は、左右カメラ110R,110Lいずれかにより撮影されたカメラ暗画像を示す図である。図6−3は、図6−1に示すカメラ明画像と図6−2に示すカメラ暗画像から生成される差分画像を示す図である。   Here, the relationship between the variation value in the difference image and the pupil will be described with reference to FIGS. FIG. 6A is a diagram illustrating a bright camera image captured by either of the left and right cameras 110R and 110L. FIG. 6B is a diagram illustrating a camera dark image captured by either the left or right camera 110R or 110L. FIG. 6C is a diagram illustrating a difference image generated from the camera bright image illustrated in FIG. 6A and the camera dark image illustrated in FIG.

明光源112R,112Lや、暗光源114R,114Lが照射された場合には、瞳孔だけでなく眼鏡のレンズやフレームにおいても光が反射される。このため、図6−1および図6−2に示すように、瞳孔の領域501,503だけでなく、眼鏡のレンズやフレームの領域502,504において、他の領域に比べて輝度の高い画像が得られる。   When the bright light sources 112R and 112L and the dark light sources 114R and 114L are irradiated, the light is reflected not only by the pupil but also by the lens and frame of the glasses. For this reason, as shown in FIGS. 6A and 6B, not only the pupil regions 501 and 503 but also the glasses lenses and the frame regions 502 and 504 have images with higher brightness than the other regions. can get.

明光源112R,112Lに対する瞳孔による反射は比較的大きく、図6−1に示すように、瞳孔の領域501は、他の領域に比べて輝度の高い領域となる。また、瞳孔の領域501の輝度はほぼ一定の値となる。暗光源114R,114Lに対する瞳孔による反射は、明光源112R,112Lに対する瞳孔による反射に比べて非常に小さい。このため、図6−2に示すカメラ暗画像においては、瞳孔の領域503の輝度は、領域501の輝度に比べて非常に小さい値となる。なお、領域503においても輝度はほぼ一定の値となる。このため、図6−3に示すように差分画像においては、瞳孔の領域505は、ほぼ一定の輝度の画像となる。   Reflection by the pupil with respect to the bright light sources 112R and 112L is relatively large, and as illustrated in FIG. 6A, the pupil region 501 is a region having a higher luminance than other regions. In addition, the luminance of the pupil region 501 has a substantially constant value. The reflection by the pupil with respect to the dark light sources 114R and 114L is very small compared to the reflection by the pupil with respect to the bright light sources 112R and 112L. For this reason, in the camera dark image shown in FIG. 6B, the luminance of the pupil region 503 is very small compared to the luminance of the region 501. Note that the luminance in the region 503 is a substantially constant value. For this reason, as shown in FIG. 6C, in the difference image, the pupil region 505 is an image having a substantially constant luminance.

一方、明光源112R,112Lと、暗光源114R,114Lの位置が異なることなどに起因し、カメラ明画像とカメラ暗画像において眼鏡による反射として得られる輝度の高い領域502,504は、その位置が一致しない。また、眼鏡による反射に対応して得られる輝度の値も一定の値とならない。このため、図6−3に示すように差分画像においては、領域506のように、領域502と領域504が一致しないことに起因し、領域502および領域504に比べて面積が小さく、かつ高輝度を示す領域や、領域507のように、1つの連続領域として得られた領域の一部の輝度の差分が0となる領域などが生じる場合がある。   On the other hand, due to the positions of the bright light sources 112R and 112L and the dark light sources 114R and 114L being different, the positions of the high brightness regions 502 and 504 obtained as the reflection by the glasses in the camera bright image and the camera dark image are in the positions. It does not match. Also, the luminance value obtained corresponding to the reflection by the glasses is not a constant value. For this reason, in the differential image as shown in FIG. 6C, the area 502 and the area 504 do not coincide with each other as in the area 506, and the area is smaller than that of the area 502 and the area 504, and the luminance is high. In some cases, a region where the difference in luminance of a part of a region obtained as one continuous region is 0, such as a region indicating, or a region 507 may occur.

図7−1および図7−2は、それぞれ瞳孔と眼鏡による反射光に対応する輝度と、輝度の差分値とを示している。図7−1に示すように、瞳孔においては、明光源からの光に対応して得られた輝度は一様に高い値を示す。暗光源からの光に対して得られた輝度は、明光源からの輝度に対応して得られた輝度に比べて非常に低い輝度となるものの一様の値となる。このため、差分画像は一様の値を示す。   FIGS. 7A and 7B illustrate the luminance corresponding to the reflected light from the pupil and the glasses and the luminance difference value, respectively. As shown in FIG. 7A, in the pupil, the luminance obtained corresponding to the light from the bright light source is uniformly high. The luminance obtained with respect to the light from the dark light source is a uniform value although the luminance is much lower than the luminance obtained corresponding to the luminance from the bright light source. For this reason, a difference image shows a uniform value.

これに対し、図7−2に示すように、眼鏡による反射は一様にならず、このため、差分もばらついた値を示す。図7−2に示すように、眼鏡による反射では、中央部分が相殺し合い、差分画像が2つの領域に分かれる場合がある。また、眼鏡による反射では、反射エッジの部分で均一性がなくなり、輝度平均に対する変化が部分的に大きくなる場合がある。   On the other hand, as shown in FIG. 7-2, the reflection by the glasses is not uniform, and therefore the difference is also a variable value. As shown in FIG. 7-2, in the reflection by the glasses, the central portion may cancel each other, and the difference image may be divided into two regions. Further, in the reflection by the glasses, there is a case where the uniformity at the reflection edge portion is lost and a change with respect to the luminance average is partially increased.

このように、瞳孔による反射と、眼鏡による反射においては、それぞれにより得られた輝度の差分のばらつきの程度が異なる。すなわち、瞳孔に対応する領域においては、眼鏡に対応する領域に比べて、差分のばらつきの程度が小さい。そこで、本実施の形態の視線方向検出装置100においては、上述のように、候補領域のばらつきの程度がばらつき閾値以下となる場合に、この候補領域を瞳孔と判断することとした。   Thus, the degree of variation in the difference in luminance obtained by the reflection by the pupil and the reflection by the glasses are different. That is, the degree of variation in the difference in the region corresponding to the pupil is smaller than that in the region corresponding to the glasses. Therefore, in the gaze direction detecting apparatus 100 according to the present embodiment, as described above, when the degree of variation of the candidate region is equal to or less than the variation threshold, the candidate region is determined to be a pupil.

このように、本実施の形態にかかる視線方向検出装置100は、明瞳孔を含むカメラ明画像と暗瞳孔を含むカメラ暗画像との差分を示す差分画像を生成し、差分画像における高輝度領域における輝度のばらつき値がばらつき閾値以下か否かにより、瞳孔か否かを判断することができる。すなわち、視線方向検出装置100は、少ない演算量で精度よく瞳孔を検出し、これに基づいて視線方向を検出することができる。   As described above, the line-of-sight direction detection apparatus 100 according to the present embodiment generates a difference image indicating a difference between a camera bright image including a bright pupil and a camera dark image including a dark pupil, and in a high-luminance region in the difference image. Whether or not the pupil is a pupil can be determined based on whether or not the luminance variation value is equal to or less than the variation threshold. That is, the line-of-sight direction detection apparatus 100 can accurately detect the pupil with a small amount of calculation, and can detect the line-of-sight direction based on the pupil.

(第2の実施の形態)
第2の実施の形態にかかる視線方向検出装置100は、より精度よく瞳孔を検出すべく、図5に示す瞳孔検出処理(ステップS110)において、瞳孔と判断された複数の候補領域から2つの候補領域を抽出し、この2つの候補領域の組み合わせが被検出者の左右の瞳孔であるか否かを判断する。
(Second Embodiment)
The line-of-sight detection device 100 according to the second embodiment uses two candidates from a plurality of candidate areas determined to be pupils in the pupil detection process (step S110) shown in FIG. 5 in order to detect the pupils with higher accuracy. A region is extracted, and it is determined whether or not the combination of the two candidate regions is the left and right pupils of the detection subject.

図8は、第2の実施の形態にかかる視線方向検出装置100の具体的な処理示すフローチャートである。図5に示すステップS213において、すべてのラベルについて処理が完了すると、図8に示すステップS231に進み、瞳孔検出部148は、ステップS211において瞳孔と判断した候補領域から2つの候補領域の組み合わせを抽出する(ステップS231)。   FIG. 8 is a flowchart illustrating specific processing of the gaze direction detecting device 100 according to the second embodiment. When the process is completed for all labels in step S213 shown in FIG. 5, the process proceeds to step S231 shown in FIG. 8, and the pupil detection unit 148 extracts a combination of two candidate areas from the candidate areas determined to be pupils in step S211. (Step S231).

なお、ステップS211において、2つの候補領域のみが瞳孔と判断された場合には、図8に示すステップS231以降の処理は、この2つの候補領域についてのみ行えばよい。一方、ステップS211において、3つ以上の候補領域が瞳孔と判断された場合には、3つの候補領域から取り得るすべての2つの候補領域の組み合わせを抽出し、各組み合わせに対し、ステップS231以降の処理を行う。   If it is determined in step S211 that only two candidate areas are pupils, the processes in and after step S231 shown in FIG. 8 need only be performed for these two candidate areas. On the other hand, if it is determined in step S211 that three or more candidate regions are pupils, combinations of all two candidate regions that can be taken from the three candidate regions are extracted, and for each combination, the steps after step S231 are performed. Process.

次に、瞳孔検出部148は、2つの候補領域の面積の比(面積比)を算出する(ステップS232)。瞳孔検出部148は、具体的には、大きい方の面積を基準とした、小さい方の面積の割合を面積比として算出する。   Next, the pupil detection unit 148 calculates an area ratio (area ratio) between the two candidate regions (step S232). Specifically, the pupil detection unit 148 calculates a ratio of the smaller area with respect to the larger area as the area ratio.

次に、瞳孔検出部148は、算出した面積比と、予め設定された面積比閾値とを比較する。面積比が面積比閾値以下である場合には(ステップS233,Yes)、瞳孔検出部148は、さらに2つの候補領域の平均輝度の比(平均輝度比)を算出する(ステップS234)。瞳孔検出部148は、具体的には、大きい方の平均輝度を基準とした、小さい方の平均輝度の割合を平均輝度比として算出する。   Next, the pupil detection unit 148 compares the calculated area ratio with a preset area ratio threshold. If the area ratio is less than or equal to the area ratio threshold (step S233, Yes), the pupil detection unit 148 further calculates the ratio of the average luminance (average luminance ratio) between the two candidate regions (step S234). Specifically, the pupil detection unit 148 calculates, as an average luminance ratio, a ratio of the smaller average luminance based on the larger average luminance.

次に、瞳孔検出部148は、算出した平均輝度比と、予め設定された平均輝度比閾値とを比較する。平均輝度比が平均輝度比閾値以下である場合には(ステップS235,Yes)、瞳孔検出部148は、2つの候補領域を瞳孔であると判断する(ステップS236)。また、ステップS233において、面積比が面積比閾値よりも大きい場合(ステップS233,No)、ステップS235において、平均輝度比が平均輝度比閾値よりも大きい場合(ステップS235,No)には、瞳孔検出部148は、2つの候補領域を瞳孔ではないと判断する(ステップS237)。   Next, the pupil detection unit 148 compares the calculated average luminance ratio with a preset average luminance ratio threshold value. When the average luminance ratio is equal to or less than the average luminance ratio threshold (step S235, Yes), the pupil detection unit 148 determines that the two candidate regions are pupils (step S236). In step S233, when the area ratio is larger than the area ratio threshold (step S233, No), and in step S235, when the average luminance ratio is larger than the average luminance ratio threshold (step S235, No), pupil detection is performed. The unit 148 determines that the two candidate regions are not pupils (step S237).

そして、未処理の2つの候補領域の組み合わせが存在する場合には(ステップS238,Yes)、ステップS231に進む。未処理の2つの候補領域の組み合わせが存在しない場合には(ステップS238,No)、処理は完了する。   If there is a combination of two unprocessed candidate areas (step S238, Yes), the process proceeds to step S231. If there is no combination of two unprocessed candidate areas (No at step S238), the process is completed.

本実施の形態においては、瞳孔検出部148は、面積比と面積比閾値とを比較することにより、2つの候補領域の面積を評価したが、2つの候補領域の面積の差が所定の範囲内であるか否かを判断できればよく、そのための具体的な処理は実施の形態に限定されるものではない。例えば、2つの面積のうち一方を基準として許容範囲を定め、他方の面積がこの許容範囲内の値である場合に、瞳孔と判断するための面積の条件を満たしていると判断してもよい。また、他の例としては、2つの面積の差分値が所定の閾値以下か否かを判断してもよい。また、平均輝度比についても同様である。すなわち、2つの平均輝度のうち一方を基準として許容範囲を定め、他方の平均輝度がこの許容範囲内の値である場合に、瞳孔と判断するための平均輝度の条件を満たしていると判断してもよい。   In the present embodiment, the pupil detection unit 148 evaluates the areas of the two candidate areas by comparing the area ratio and the area ratio threshold, but the difference between the areas of the two candidate areas is within a predetermined range. It is only necessary to be able to determine whether or not, and specific processing for that purpose is not limited to the embodiment. For example, when an allowable range is defined based on one of the two areas, and the other area is a value within the allowable range, it may be determined that the area condition for determining a pupil is satisfied. . As another example, it may be determined whether or not a difference value between two areas is equal to or less than a predetermined threshold. The same applies to the average luminance ratio. That is, when an allowable range is defined based on one of the two average luminances and the other average luminance is a value within the allowable range, it is determined that the average luminance condition for determining a pupil is satisfied. May be.

なお、第2の実施の形態にかかる視線検出装置100のこれ以外の構成および処理は、第1の実施の形態にかかる視線検出装置100の構成および処理と同様である。   The remaining configuration and processing of the visual line detection device 100 according to the second embodiment are the same as the configuration and processing of the visual line detection device 100 according to the first embodiment.

以上、本発明を実施の形態を用いて説明したが、上記実施の形態に多様な変更または改良を加えることができる。例えば、車載装置などにおける運転者の視線検出、視線により操作を行う装置における視線検出等に用いてもよい。   As described above, the present invention has been described using the embodiment, but various changes or improvements can be added to the above embodiment. For example, the present invention may be used for detecting a driver's line of sight in an in-vehicle device or the like, and detecting a line of sight in a device that performs an operation using the line of sight.

100 視線方向検出装置
110R,110L カメラ
112R,112L 明光源
114R,114L 暗光源
130 駆動・IF部
133 LED駆動制御部
140 制御部
141 表示制御部
142 画像取得部
143 差分画像生成部
144 候補領域特定部
145 画像算出部
146 縦横比算出部
147 平均輝度算出部
148 瞳孔検出部
149 視線方向検出部
160 記憶部
DESCRIPTION OF SYMBOLS 100 Gaze direction detection apparatus 110R, 110L Camera 112R, 112L Bright light source 114R, 114L Dark light source 130 Drive / IF part 133 LED drive control part 140 Control part 141 Display control part 142 Image acquisition part 143 Difference image generation part 144 Candidate area | region identification part 145 Image calculation unit 146 Aspect ratio calculation unit 147 Average luminance calculation unit 148 Pupil detection unit 149 Gaze direction detection unit 160 Storage unit

Claims (5)

撮像部により撮像された第1画像であって、第1の位置に配置された光源から赤外光が照射された状態の人物の瞳孔を含む前記第1画像と、前記撮像部により撮像された第2画像であって、前記第1の位置に比べて前記撮像部との間の距離が長い位置である第2の位置に配置された光源から赤外光が照射された状態の前記人物の瞳孔を含む第2画像とを取得する画像取得部と、
前記第1画像に含まれる複数の画像領域それぞれの輝度と、前記第1画像の複数の画像領域それぞれに対応する、前記第2画像の複数の画像領域それぞれの輝度の差分値を算出する差分値算出部と、
前記差分値を第1閾値と比較し、前記第1閾値以上の差分値が算出された連続する複数の前記画像領域を前記瞳孔の候補領域として特定する候補領域特定部と、
前記候補領域内の各画像領域の輝度のばらつきの程度を示すばらつき値を算出するばらつき値算出部と、
前記ばらつき値と第2閾値とを比較し、前記ばらつき値が前記第2閾値以下である場合に、前記候補領域を前記人物の瞳孔の位置として検出する瞳孔検出部と
を備えることを特徴とする瞳孔検出装置。
A first image captured by the imaging unit, the first image including a human pupil irradiated with infrared light from a light source arranged at a first position, and the first image captured by the imaging unit A second image of the person in a state in which infrared light is irradiated from a light source disposed at a second position where the distance from the imaging unit is longer than the first position. An image acquisition unit for acquiring a second image including a pupil;
A difference value for calculating a difference value between each of a plurality of image areas included in the first image and each of a plurality of image areas of the second image corresponding to each of the plurality of image areas of the first image. A calculation unit;
A candidate area specifying unit that compares the difference value with a first threshold value and specifies a plurality of continuous image areas in which a difference value equal to or greater than the first threshold value is calculated as a candidate area of the pupil;
A variation value calculation unit that calculates a variation value indicating a degree of variation in luminance of each image region in the candidate region;
A pupil detection unit that compares the variation value with a second threshold value and detects the candidate region as the position of the pupil of the person when the variation value is equal to or less than the second threshold value. Pupil detection device.
前記算出部は、前記ばらつき値として、前記候補領域内の各画像領域の輝度の標準偏差を算出することを特徴とする請求項1に記載の瞳孔検出装置。   The pupil detection device according to claim 1, wherein the calculation unit calculates a standard deviation of luminance of each image region in the candidate region as the variation value. 前記候補領域内の各画像領域の輝度の平均値を算出する平均輝度算出部をさらに備え、
前記瞳孔検出部は、前記ばらつき値が前記第2閾値以下となる、異なる2つの前記候補領域を抽出し、抽出した2つの前記候補領域の一方の前記平均値が他方の前記平均値を基準とする第1範囲内の値である場合に、前記2つの前記候補領域を前記人物の2つの瞳孔の位置として検出することを特徴とする請求項1に記載の瞳孔検出装置。
An average luminance calculating unit for calculating an average value of the luminance of each image area in the candidate area;
The pupil detection unit extracts two different candidate areas in which the variation value is equal to or less than the second threshold, and the average value of one of the two extracted candidate areas is based on the other average value. The pupil detection device according to claim 1, wherein the two candidate regions are detected as positions of two pupils of the person when the value is within a first range.
前記候補領域の面積を算出する面積算出部をさらに備え、
前記瞳孔検出部は、抽出した2つの前記候補領域の一方の前記面積が他方の前記面積を基準とする第2範囲内の値である場合であって、抽出した2つの前記候補領域の一方の前記平均値が他方の前記平均値を基準とする前記第1範囲内の値である場合に、前記2つの前記候補領域を前記人物の2つの瞳孔の位置として検出することを特徴とする請求項3に記載の瞳孔検出装置。
An area calculation unit for calculating the area of the candidate region;
The pupil detection unit is a case where the area of one of the two extracted candidate regions is a value within a second range based on the other area, and one of the two candidate regions extracted The two candidate regions are detected as positions of two pupils of the person when the average value is a value within the first range with the other average value as a reference. 4. The pupil detection device according to 3.
撮像部により撮像された第1画像であって、第1の位置に配置された光源から赤外光が照射された状態の人物の瞳孔を含む前記第1画像と、前記撮像部により撮像された第2画像であって、前記第1の位置に比べて前記撮像部との間の距離が長い位置である第2の位置に配置された光源から赤外光が照射された状態の前記人物の瞳孔を含む第2画像とを取得する画像取得工程と、
前記第1画像に含まれる複数の画像領域それぞれの輝度と、前記第1画像の複数の画像領域それぞれに対応する、前記第2画像の複数の画像領域それぞれの輝度の差分値を算出する差分値算出工程と、
前記差分値を第1閾値と比較し、前記第1閾値以上の差分値が算出された連続する複数の前記画像領域を前記瞳孔の候補領域として特定する候補領域特定工程と、
前記候補領域内の各画像領域の輝度のばらつきの程度を示すばらつき値を算出するばらつき値算出工程と、
前記ばらつき値と第2閾値とを比較し、前記ばらつき値が前記第2閾値以下である場合に、前記候補領域を前記人物の瞳孔の位置として検出する瞳孔検出工程と
を含むことを特徴とする瞳孔検出方法。
A first image captured by the imaging unit, the first image including a human pupil irradiated with infrared light from a light source arranged at a first position, and the first image captured by the imaging unit A second image of the person in a state in which infrared light is irradiated from a light source disposed at a second position where the distance from the imaging unit is longer than the first position. An image acquisition step of acquiring a second image including the pupil;
A difference value for calculating a difference value between each of a plurality of image areas included in the first image and each of a plurality of image areas of the second image corresponding to each of the plurality of image areas of the first image. A calculation process;
A candidate area specifying step of comparing the difference value with a first threshold value and specifying a plurality of consecutive image areas in which a difference value equal to or greater than the first threshold value is calculated as a candidate area of the pupil;
A variation value calculating step of calculating a variation value indicating a degree of variation in luminance of each image region in the candidate region;
A pupil detection step of comparing the variation value with a second threshold value and detecting the candidate region as the position of the pupil of the person when the variation value is equal to or less than the second threshold value. Pupil detection method.
JP2012196436A 2012-09-06 2012-09-06 Pupil detection device and pupil detection method Active JP6011173B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012196436A JP6011173B2 (en) 2012-09-06 2012-09-06 Pupil detection device and pupil detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012196436A JP6011173B2 (en) 2012-09-06 2012-09-06 Pupil detection device and pupil detection method

Publications (2)

Publication Number Publication Date
JP2014052813A true JP2014052813A (en) 2014-03-20
JP6011173B2 JP6011173B2 (en) 2016-10-19

Family

ID=50611261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012196436A Active JP6011173B2 (en) 2012-09-06 2012-09-06 Pupil detection device and pupil detection method

Country Status (1)

Country Link
JP (1) JP6011173B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014181775A1 (en) * 2013-05-08 2014-11-13 国立大学法人静岡大学 Pupil detection light source device, pupil detection device and pupil detection method
WO2017001426A1 (en) * 2015-06-29 2017-01-05 Universität des Saarlandes Purkinje meter and method for automatic evaluation
EP3225154A3 (en) * 2016-03-31 2017-10-11 Fujitsu Limited Gaze detection apparatus and gaze detection method
JP2017537366A (en) * 2014-10-08 2017-12-14 マイクロソフト テクノロジー ライセンシング,エルエルシー Eye tracking through eyewear

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04104532A (en) * 1990-08-24 1992-04-07 Nippon Hoso Kyokai <Nhk> Television audience rating measuring instrument
JP2004021406A (en) * 2002-06-13 2004-01-22 Matsushita Electric Ind Co Ltd Eye position specifying method, and authentication apparatus
JP2009254691A (en) * 2008-04-18 2009-11-05 Calsonic Kansei Corp Pupil detecting method and apparatus
JP2009254525A (en) * 2008-04-15 2009-11-05 Calsonic Kansei Corp Pupil detecting method and apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04104532A (en) * 1990-08-24 1992-04-07 Nippon Hoso Kyokai <Nhk> Television audience rating measuring instrument
JP2004021406A (en) * 2002-06-13 2004-01-22 Matsushita Electric Ind Co Ltd Eye position specifying method, and authentication apparatus
JP2009254525A (en) * 2008-04-15 2009-11-05 Calsonic Kansei Corp Pupil detecting method and apparatus
JP2009254691A (en) * 2008-04-18 2009-11-05 Calsonic Kansei Corp Pupil detecting method and apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014181775A1 (en) * 2013-05-08 2014-11-13 国立大学法人静岡大学 Pupil detection light source device, pupil detection device and pupil detection method
JPWO2014181775A1 (en) * 2013-05-08 2017-02-23 国立大学法人静岡大学 Pupil detection light source device, pupil detection device, and pupil detection method
US9898658B2 (en) 2013-05-08 2018-02-20 National University Corporation Shizuoka University Pupil detection light source device, pupil detection device and pupil detection method
JP2017537366A (en) * 2014-10-08 2017-12-14 マイクロソフト テクノロジー ライセンシング,エルエルシー Eye tracking through eyewear
WO2017001426A1 (en) * 2015-06-29 2017-01-05 Universität des Saarlandes Purkinje meter and method for automatic evaluation
RU2722976C2 (en) * 2015-06-29 2020-06-05 ЯНУНТС ХОЛДИНГ УГ (хафтунгсбешренкт) Purkinje measurer and automatic evaluation method
US10694938B2 (en) 2015-06-29 2020-06-30 Janunts Holding Ug (Haftungsbeschrankt) Purkinje meter and method for automatic evaluation
EP3225154A3 (en) * 2016-03-31 2017-10-11 Fujitsu Limited Gaze detection apparatus and gaze detection method

Also Published As

Publication number Publication date
JP6011173B2 (en) 2016-10-19

Similar Documents

Publication Publication Date Title
JP6036065B2 (en) Gaze position detection device and gaze position detection method
JP4895797B2 (en) Wrinkle detection device, wrinkle detection method and program
EP3075304B1 (en) Line-of-sight detection assistance device and line-of-sight detection assistance method
US10156437B2 (en) Control method of a depth camera
US20190147241A1 (en) Line-of-sight detection device and method for detecting line of sight
EP3011894B1 (en) Eye gaze detection apparatus and eye gaze detection method
JP6011173B2 (en) Pupil detection device and pupil detection method
JP2013237389A (en) Lamplight detecting device and vehicle control system
EP3158921A1 (en) Line of sight detection system and method
US20200081249A1 (en) Internal edge verification
EP2976990B1 (en) Pupil detection device and pupil detection method
US10748301B2 (en) Corneal reflex position detection device, eye-gaze tracking device, and corneal reflex position detection method
EP3028644B1 (en) Diagnosis assistance device and diagnosis assistance method
CN106599930B (en) Virtual reality space positioning feature point screening method
JP2017151565A (en) Detection system, detection method, and detection program
CN111522431B (en) Classifying glints using an eye tracking system
JP2010286995A (en) Image processing system for vehicle
WO2017154356A1 (en) Sight line detection device and sight line detection method
JP2005296383A (en) Visual line detector
JP2019146915A (en) Evaluation device, evaluation method, and evaluation program
JP6269177B2 (en) Pupil detection device, gaze detection device, and pupil detection method
JP2015047427A (en) Line-of-sight detection apparatus
US20230034076A1 (en) Information processing apparatus, information processing method, and storage medium
WO2023095679A1 (en) Visual confirmation status determination device and visual confirmation status determination system
JP2023177049A (en) arm detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160905

R150 Certificate of patent or registration of utility model

Ref document number: 6011173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150