JP2010205076A - Eye detecting device, and method used in the device - Google Patents

Eye detecting device, and method used in the device Download PDF

Info

Publication number
JP2010205076A
JP2010205076A JP2009051222A JP2009051222A JP2010205076A JP 2010205076 A JP2010205076 A JP 2010205076A JP 2009051222 A JP2009051222 A JP 2009051222A JP 2009051222 A JP2009051222 A JP 2009051222A JP 2010205076 A JP2010205076 A JP 2010205076A
Authority
JP
Japan
Prior art keywords
eye
candidate
eyelid
eyelid candidate
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009051222A
Other languages
Japanese (ja)
Inventor
Kenichi Ogami
健一 大上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2009051222A priority Critical patent/JP2010205076A/en
Publication of JP2010205076A publication Critical patent/JP2010205076A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an eye detecting device which accurately detects the corner and inner corner of a person's eye even if the shapes of persons' eyes have individual difference. <P>SOLUTION: Contour enhanced images are generated, which enhance the contours of face images which are obtained by imaging the images of persons' faces. On the basis of the contour enhanced images thus generated, the candidates of pixels, which individually indicate the upper eyelids and the lower eyelids, are detected as the upper eyelid candidates and the lower eyelid candidates, respectively. The detected upper eyelid candidates and lower eyelid candidates are combined as the eyelid candidates, and shape values which become indicators for the shapes of the eyelids, are computed for each of the combined eyelid candidates. According to the computed shape values, the adequate tail and inner corner patterns of the persons' eyes are selected to make pattern-matching processing. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、顔画像に基づいて人の眼を検出する検出装置、及び方法に関する。   The present invention relates to a detection apparatus and method for detecting a human eye based on a face image.

従来、人の顔を含む画像を撮像し、撮像した画像に基づいて人の眼を検出する様々な検出装置が開発されている。このような検出装置の一例として、例えば、特許文献1に記載の眼検出装置(以下、従来技術と称する)が挙げられる。   2. Description of the Related Art Conventionally, various detection devices that capture an image including a human face and detect a human eye based on the captured image have been developed. As an example of such a detection apparatus, for example, an eye detection apparatus described in Patent Document 1 (hereinafter referred to as a conventional technique) can be given.

従来技術では、車両を運転している運転者の背景を含む顔を顔画像として撮像する。顔画像を撮像すると、従来技術では、例えば、横エッジ検出用ソーベルフィルタ、及び縦エッジ検出用ソーベルフィルタなどのフィルタ処理を顔画像に対してすることによって、顔画像の中から運転者の上瞼と下瞼との組み合わせの候補を瞼候補として検出する。瞼候補を検出すると、従来技術では、瞼候補の中から瞼を特定するために、それぞれの瞼候補の下瞼の左右端に目尻目頭領域をそれぞれ設定する。   In the prior art, a face including the background of the driver driving the vehicle is captured as a face image. When a face image is captured, in the prior art, for example, by performing filter processing such as a horizontal edge detection Sobel filter and a vertical edge detection Sobel filter on the face image, the driver's image is detected from the face image. A candidate for a combination of upper and lower eyelids is detected as a candidate for eyelids. When the eyelid candidates are detected, in the prior art, in order to identify the eyelids from the eyelid candidates, eye corner areas are respectively set on the left and right ends of the lower eyelids of the eyelid candidates.

従来技術では、予め定められた目尻目頭パターンを、フィルタ処理をする前の顔画像における目尻目頭領域に重畳させ、重畳させた目尻目頭パターンにおける肌部分の画素と重複する顔画像の画素の輝度値の平均値(以下、肌画素平均値と称する)と、重複させた目尻目頭パターンにおける眼部分の画素と重複する顔画像の画素の輝度値の平均値(以下、眼画素平均値と称する)とを算出する。肌画素平均値と、眼画素平均値とを算出するとき、従来技術では、瞼候補毎に左右の目尻目頭領域の肌画素平均値と、眼画素平均値とをそれぞれ算出する。   In the prior art, a predetermined brightness value of a face image pixel is overlapped with a skin area pixel in the overlapped eye corner eye pattern by superimposing a predetermined eye corner eye pattern in the face image before the filtering process. Average value (hereinafter referred to as skin pixel average value) and an average value of luminance values of face image pixels overlapping with pixels of the eye part in the overlapped eye corner pattern (hereinafter referred to as eye pixel average value). Is calculated. When calculating the skin pixel average value and the eye pixel average value, the conventional technique calculates the skin pixel average value and the eye pixel average value of the left and right eye corner areas for each eyelid candidate.

瞼候補毎に左右の肌画素平均値と、眼画素平均値とを算出すると、従来技術では、肌画素平均値から眼画素平均値を引いた目尻目頭評価値を、設定した目尻目頭領域毎に算出する。従来技術では、それぞれの瞼候補の左右の目尻目頭領域毎に目尻目頭評価値を算出する。目尻目頭評価値を算出すると、従来技術では、左の目尻目頭評価値と右の目尻目頭評価値との加算値を、それぞれの瞼候補の左右の目尻目頭領域毎に算出し、算出した加算値が最も大きい瞼候補と、2番目に大きい瞼候補とを目尻目頭パターンで示される目尻、及び目頭に最も近い目尻、及び目頭と2番目に近い目尻、及び目頭をそれぞれ有する左右の瞼として特定する。   When the average value of the left and right skin pixels and the average value of the eye pixels are calculated for each eyelid candidate, in the conventional technique, an eye corner eye evaluation value obtained by subtracting the eye pixel average value from the skin pixel average value is set for each set eye corner eye area. calculate. In the prior art, the eye corner eye evaluation value is calculated for each of the left and right eye corner areas of each eyelid candidate. When calculating the eye corner eye evaluation value, in the conventional technology, the addition value of the left eye corner eye evaluation value and the right eye corner eye evaluation value is calculated for each right and left eye corner area of each eyelid candidate, and the calculated addition value Identifies the candidate with the largest eyelid and the candidate with the second largest eyelid as the left and right eyelids having the eye corners indicated by the eye corner-eye pattern, the eye corner closest to the eye corner, the eye corner second and the eye corner closest to the eye, and the eye head, respectively. .

特開2008−226125号公報JP 2008-226125 A

しかしながら、上記従来技術では、以下に述べるような課題を有する。すなわち、人の眼の形状には、丸目、及び細目などの個人差がある。しかし、上記従来技術では、1種類の目尻目頭パターンだけを用いて目尻目頭評価値を算出するため、当該目尻目頭パターンと大きく異なる形状の眼の目尻、及び目頭に近い目尻、及び目頭を有する瞼候補を瞼として正確に検出することができない。   However, the above prior art has the following problems. That is, there are individual differences in the shape of the human eye, such as round eyes and fine eyes. However, in the above prior art, since the eye-eye-eye evaluation value is calculated using only one kind of eye-eye-eye-head pattern, the eye-eye of the eye having a shape greatly different from the eye-eye-eye-head pattern, the eye-ear close to the eye, and the eyelid Candidates cannot be accurately detected as traps.

それ故に、本発明は、人の眼の形状に個人差があったとしても、目尻、及び目頭を正確に検出できる眼検出装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an eye detection device that can accurately detect the corners of the eyes and the eyes even if there are individual differences in the shape of human eyes.

本発明は、上記目的を達成するために、以下に示すような特徴を有する。
第1の発明は、対象者の顔を含む画像を顔画像として撮像する撮像手段と、撮像手段によって撮像された顔画像に基づき、対象者の上瞼と下瞼とをそれぞれ示す画素の候補の組み合わせをそれぞれ瞼候補として検出する検出手段と、顔画像の中で検出手段によって検出された瞼候補毎の目尻、及び目頭を示す画像との類似度を算出するために予め定められた画像の目尻目頭パターンを2以上だけ記憶する記憶手段と、検出手段によって検出された瞼候補毎の形状を示す形状値に基づき、記憶手段に記憶された目尻目頭パターンの中から1つの目尻目頭パターンを当該瞼候補毎に選択して対応付ける選択手段と、顔画像の中で検出手段によって検出された瞼候補毎の目尻、及び目頭を示す画像と、選択手段によって当該瞼候補毎に選択された目尻目頭パターンの画像との類似度をそれぞれ算出する特定手段とを備える。
In order to achieve the above object, the present invention has the following features.
According to a first aspect of the present invention, there are provided an imaging unit that captures an image including a face of the subject as a face image, and pixel candidates that respectively indicate the upper eyelid and the lower eyelid of the subject based on the face image captured by the imaging unit. A detection unit that detects each combination as a candidate for eyelids, an eye corner for each eyelid candidate detected by the detection unit in the face image, and an eye corner of a predetermined image for calculating the similarity between the images indicating the eyes Based on the shape value indicating the shape of each eyelid candidate detected by the detecting means and the storage means for storing only two or more eyeball patterns, one eye corner eye pattern is selected from the eye corner eye pattern stored in the memory means. Selection means for selecting and associating with each candidate, an image showing the eye corners and eyes of each eyelid candidate detected by the detecting means in the face image, and the eye selected for each eyelid candidate by the selection means And a specifying unit configured to calculate a similarity between the image of inner corner pattern.

第2の発明は、上記第1の発明に従属する発明であって、検出手段によって検出された瞼候補として組み合わされた下瞼の候補を示す画素の目尻側、及び目頭側の少なくともいずれか一方の端点と、上瞼の候補を示す画素の中で顔画像における垂直方向の最も高い頂点の画素とを結ぶ線の傾きを形状値として検出する傾き検出手段をさらに備え、選択手段は、傾き検出手段によって検出された傾きに基づき、目尻目頭パターンを選択する。   A second invention is an invention subordinate to the first invention, and is at least one of a corner of the eye and a head of a pixel indicating a candidate for a lower eyelid combined as a candidate for eyelid detected by the detecting means And an inclination detecting means for detecting the inclination of a line connecting the end point of the image and the pixel at the highest vertex in the vertical direction in the face image among the pixels indicating the upper eyelid candidate, and the selecting means detects the inclination Based on the inclination detected by the means, an eye corner pattern is selected.

第3の発明は、上記第2の発明に従属する発明であって、傾き検出手段は、検出手段によって検出された瞼候補としてそれぞれ組み合わされる下瞼の候補を示す画素の目尻側の端点と、頂点の画素とを結ぶ線の傾きを形状値として検出する。   A third invention is an invention subordinate to the second invention, wherein the inclination detection means includes an end point on the eye corner side of a pixel indicating a lower eyelid candidate combined as an eyelid candidate detected by the detection means, The inclination of the line connecting the vertex pixel is detected as a shape value.

第4の発明は、上記第2の発明に従属する発明であって、傾き検出手段は、検出手段によって検出された瞼候補としてそれぞれ組み合わされる下瞼の候補を示す画素の目頭側の端点と、頂点の画素とを結ぶ線の傾きを形状値として検出する。   A fourth invention is an invention subordinate to the second invention, wherein the inclination detection means includes an end point on the top side of a pixel indicating a lower eyelid candidate combined as a eyelid candidate detected by the detection means, and The inclination of the line connecting the vertex pixel is detected as a shape value.

第5の発明は、上記第2の発明に従属する発明であって、傾き検出手段は、検出手段によって検出された瞼候補としてそれぞれ組み合わされる下瞼の候補の目尻側の端点の画素と目頭側の端点の画素とのそれぞれと頂点の画素とを結ぶ線の傾きを形状値として検出する。   The fifth invention is an invention subordinate to the second invention, wherein the inclination detecting means includes a pixel at an end of the eyelid side and a front side of a candidate for a lower eyelid combined as a candidate for eyelid detected by the detecting means. The slope of the line connecting each of the end point pixels and the vertex pixel is detected as a shape value.

第6の発明は、上記第1の発明に従属する発明であって、検出手段によって検出された瞼候補毎に瞼の開度を形状値として検出する開度検出手段をさらに備え、選択手段は、開度検出手段によって検出された開度に基づき、目尻目頭パターンを選択する。   A sixth invention is an invention subordinate to the first invention, further comprising opening degree detecting means for detecting the opening degree of the eyelid as a shape value for each eyelid candidate detected by the detecting means, and the selecting means comprises Then, based on the opening detected by the opening detection means, an eye corner pattern is selected.

第7の発明は、上記第1の発明に従属する発明であって、検出手段によって検出された瞼候補毎に、当該瞼候補として組み合わされた上瞼の候補の画素の曲率を形状値として検出する曲率検出手段をさらに備え、選択手段は、曲率検出手段によって検出された曲率に基づき、目尻目頭パターンを選択する。   The seventh invention is an invention subordinate to the first invention, and detects, for each wrinkle candidate detected by the detecting means, the curvature of a pixel of an upper eyelid candidate combined as the wrinkle candidate as a shape value. And a curvature detecting means for selecting the eye corner pattern based on the curvature detected by the curvature detecting means.

第8の発明は、上記第1の発明に従属する発明であって、対象者に照射される環境光の照度を検出する照度検出手段をさらに備え、選択手段は、照度検出手段によって検出される環境光の照度が予め定められたしきい値未満であるとき、目尻目頭パターンを選択する。   The eighth invention is an invention dependent on the first invention, further comprising illuminance detection means for detecting the illuminance of the ambient light irradiated to the subject, and the selection means is detected by the illuminance detection means. When the illuminance of the ambient light is less than a predetermined threshold, an eye corner-eye pattern is selected.

第9の発明は、上記第1の発明に従属する発明であって、現在の時刻を検知する時刻検知手段をさらに備え、選択手段は、時刻検知手段によって検出される時刻が夜間を示すとき、目尻目頭パターンを選択する。   A ninth invention is an invention subordinate to the first invention, further comprising time detection means for detecting the current time, and the selection means, when the time detected by the time detection means indicates nighttime, Select the corner pattern.

第10の発明は、上記第1の発明に従属する発明であって、車両に搭載され、車両のワイパーが作動しているか否かを判断する作動検出手段をさらに備え、選択手段は、作動検出手段によってワイパーが作動していると判断されたとき、目尻目頭パターンを選択する。   A tenth invention is an invention subordinate to the first invention, further comprising operation detection means mounted on the vehicle for determining whether or not a wiper of the vehicle is operating, and the selection means is an operation detection When it is determined by the means that the wiper is operating, an eye corner pattern is selected.

第11の発明は、対象者の顔を含む画像を顔画像として撮像する撮像ステップと、撮像ステップで撮像された顔画像に基づき、対象者の上瞼と下瞼とをそれぞれ示す画素の候補の組み合わせをそれぞれ瞼候補として検出する検出ステップと、顔画像の中で検出ステップにおいて検出された瞼候補毎の目尻、及び目頭を示す画像との類似度を算出するために予め定められた画像の2以上の目尻目頭パターンの中から、当該瞼候補毎の形状を示す形状値に基づき、1つの目尻目頭パターンを当該瞼候補毎に選択して対応付ける選択ステップと、顔画像の中で検出ステップにおいて検出された瞼候補毎の目尻、及び目頭を示す画像と、選択ステップにおいて当該瞼候補毎に選択された目尻目頭パターンの画像との類似度をそれぞれ算出する特定ステップとを備える。   An eleventh aspect of the present invention is an imaging step of capturing an image including a face of the subject as a face image, and pixel candidates indicating the upper eyelid and the lower eyelid of the subject based on the face image captured in the imaging step. The detection step for detecting each combination as a wrinkle candidate, and 2 of images determined in advance to calculate the similarity between the image indicating the eye corners and the eyes for each wrinkle candidate detected in the detection step in the face image Based on the shape value indicating the shape of each eyelid candidate from the above eye corner eye pattern, a selection step for selecting and correlating one eye corner eye pattern for each eyelid candidate, and detection in the detection step in the face image A specific step for calculating the similarity between the image indicating the corners and the eyes of each eyelid candidate and the image of the eye corners pattern selected for each eyelid candidate in the selection step. And a flop.

上記第1の発明によれば、顔画像における瞼候補の形状に基づいて、顔画像における目尻、及び目頭を検出するための目尻目頭パターンを選択するので、人の眼の形状に個人差があったとしても、目尻、及び目頭を正確に検出できる。   According to the first aspect of the invention, since the corners of the face image and the corners of the eyes for detecting the eyes are selected based on the shape of the eyelid candidate in the face image, there are individual differences in the shape of the human eye. Even so, the corners of the eyes and the head of the eyes can be accurately detected.

上記第2の発明によれば、瞼候補として上瞼候補と組み合わされる下瞼候補を示す画素の目頭側、及び目尻側の少なくともいずれか一方の端点と、当該上瞼候補を示す画素の頂点とを結ぶ線の傾きとして検出された形状値に基づいて、目尻目頭パターンを選択できる。   According to the second aspect of the present invention, at least one of the endpoints of the top side and the bottom side of the pixel indicating the lower eyelid candidate combined with the upper eyelid candidate as the eyelid candidate, and the vertex of the pixel indicating the upper eyelid candidate An eye corner pattern can be selected based on the shape value detected as the slope of the line connecting the two.

上記第3の発明によれば、瞼候補として上瞼候補と組み合わされる下瞼候補を示す画素の目尻側の端点と、当該上瞼候補を示す画素の頂点とを結ぶ線の傾きとして検出された形状値に基づいて、目尻目頭パターンを選択できる。   According to the third aspect, the inclination of the line connecting the end of the pixel indicating the lower eyelid candidate combined with the upper eyelid candidate as the eyelid candidate and the vertex of the pixel indicating the upper eyelid candidate is detected. Based on the shape value, an eye corner pattern can be selected.

上記第4の発明によれば、瞼候補として上瞼候補と組み合わされる下瞼候補を示す画素の目頭側の端点と、当該上瞼候補を示す画素の頂点とを結ぶ線の傾きとして検出された形状値に基づいて、目尻目頭パターンを選択できる。   According to the fourth aspect of the invention, it is detected as the slope of the line connecting the top end of the pixel indicating the lower eyelid candidate combined with the upper eyelid candidate as the eyelid candidate and the vertex of the pixel indicating the upper eyelid candidate. Based on the shape value, an eye corner pattern can be selected.

上記第5の発明によれば、瞼候補として上瞼候補と組み合わされる下瞼候補を示す画素の目頭側の端点と目頭側の端点とを結ぶ線とのそれぞれと上瞼候補を示す画素の頂点とを結ぶそれぞれの線の傾きとして検出された形状値に基づいて、目尻目頭パターンを選択できる。   According to the fifth aspect, each of the line connecting the end point on the eye side of the pixel indicating the lower eyelid candidate combined with the upper eyelid candidate as the eyelid candidate and the vertex of the pixel indicating the upper eyelid candidate Can be selected based on the shape value detected as the slope of each line connecting the two.

上記第6の発明によれば、瞼の開度に基づいて、目尻目頭パターンを選択できる。   According to the sixth aspect of the present invention, an eye corner pattern can be selected based on the opening degree of the eyelid.

上記第7の発明によれば、上瞼候補を示す画素の曲率半径に基づいて、目尻目頭パターンを選択できる。   According to the seventh aspect, it is possible to select an eye corner pattern based on the radius of curvature of the pixel indicating the upper eyelid candidate.

上記第8の発明によれば、環境光の影響を受けずに撮像した顔画像に基づいて目尻目頭パターンを選択できる。   According to the eighth aspect of the invention, it is possible to select an eye corner pattern based on a face image captured without being affected by ambient light.

上記第9の発明によれば、環境光の影響を受けずに撮像した顔画像に基づいて目尻目頭パターンを選択できる。   According to the ninth aspect, it is possible to select an eye corner pattern based on a face image captured without being affected by ambient light.

上記第10の発明によれば、雨天のために環境光の影響を受けずに撮像した運転者の顔画像に基づいて目尻目頭パターンを選択できる。   According to the tenth aspect of the invention, it is possible to select an eye corner pattern based on a driver's face image captured without being affected by ambient light due to rain.

また、本発明における眼検出方法によれば、本発明に係る上述した眼検出装置と同様の効果を得ることができる。   Further, according to the eye detection method of the present invention, the same effects as those of the above-described eye detection device according to the present invention can be obtained.

第1の実施形態に係る眼検出装置の機能構成を示す機能ブロック図Functional block diagram showing a functional configuration of the eye detection apparatus according to the first embodiment 本発明において撮像される顔画像の一例を示す図The figure which shows an example of the face image imaged in this invention 本発明における撮像部の設置位置の一例を示す図The figure which shows an example of the installation position of the imaging part in this invention 本発明における輪郭強調画像の一例を示す図The figure which shows an example of the outline emphasis image in this invention 上瞼候補と下瞼候補とを組み合わせを説明する図The figure explaining the combination of the upper eyelid candidate and the lower eyelid candidate 第1の実施形態で算出される形状値の一例を示す図The figure which shows an example of the shape value calculated in 1st Embodiment 瞼候補の形状が細目の場合の形状値の一例を示す図The figure which shows an example of the shape value when the shape of a wrinkle candidate is fine 瞼候補の形状が標準の場合の形状値の一例を示す図The figure which shows an example of the shape value in case the shape of a wrinkle candidate is standard 瞼候補の形状が丸目の場合の形状値の一例を示す図The figure which shows an example of the shape value when the shape of a wrinkle candidate is round 細目の瞼候補に対応する目尻目頭パターンの一例を示す図The figure which shows an example of an eye corner eye pattern corresponding to a fine eyelid candidate 標準の瞼候補に対応する目尻目頭パターンの一例を示す図The figure which shows an example of an eye corner eye pattern corresponding to a standard eyelid candidate 丸目の瞼候補に対応する目尻目頭パターンの一例を示す図The figure which shows an example of an eye corner eye pattern corresponding to a round eyelid candidate 第1の実施形態に係る眼検出装置の処理を示すフローチャートThe flowchart which shows the process of the eye detection apparatus which concerns on 1st Embodiment. 開度として算出される形状値の一例を示す図The figure which shows an example of the shape value calculated as an opening degree 瞼候補の形状が細目の場合の開度の一例を示す図The figure which shows an example of the opening degree when the shape of a heel candidate is fine 瞼候補の形状が標準の場合の開度の一例を示す図The figure which shows an example of the opening degree when the shape of a heel candidate is standard 瞼候補の形状が丸目の場合の開度の一例を示す図The figure which shows an example of the opening degree when the shape of a heel candidate is round 曲率として算出される形状値の一例を示す図The figure which shows an example of the shape value calculated as a curvature 瞼候補の形状が細目の場合に曲率を算出するときの円の一例を示す図The figure which shows an example of a circle when calculating a curvature when the shape of a wrinkle candidate is fine 瞼候補の形状が標準の場合に曲率を算出するときの円の一例を示す図The figure which shows an example of a circle when calculating a curvature when the shape of a heel candidate is standard 瞼候補の形状が丸目の場合に曲率を算出するときの円の一例を示す図The figure which shows an example of a circle when calculating a curvature when the shape of a wrinkle candidate is round

(第1の実施形態)
図1は、本発明の第1の実施形態に係る眼検出装置1の機能構成を示す機能ブロック図である。本実施形態に係る眼検出装置1は、撮像部101と、検出部102と、組み合わせ部103と、形状値算出部104と、選択部105と、特定部106と、記憶部107とを備える。尚、本実施形態の説明では、眼検出装置1で、車両を運転している運転者の顔を含む画像を撮像した顔画像を処理する場合を一例として説明する。
(First embodiment)
FIG. 1 is a functional block diagram showing a functional configuration of the eye detection apparatus 1 according to the first embodiment of the present invention. The eye detection apparatus 1 according to this embodiment includes an imaging unit 101, a detection unit 102, a combination unit 103, a shape value calculation unit 104, a selection unit 105, a specification unit 106, and a storage unit 107. In the description of the present embodiment, a case where the eye detection apparatus 1 processes a face image obtained by capturing an image including the face of the driver driving the vehicle will be described as an example.

撮像部101は、典型的にはCCDカメラであって、図2に一例として示すような、運転者の顔を含む画像を顔画像として逐次撮像し、顔画像を撮像する度に、撮像した顔画像を示す顔画像データを生成する。撮像部101の車両における設置位置は、本実施形態に係る眼検出装置1で運転者の顔の目尻、及び目頭などを正確に認識できるのであればどのような設置位置であってもよいが、一例としては、図3に示すように、運転席に着座した運転者の顔を正面から撮像できるように車両のステアリングコラムの上部に設置してもよい。また、撮像部101を設置するときに、撮像部101の撮像範囲に赤外光を照射する光源も設置し、赤外領域の波長の光に対する感度を相対的に高めた撮像部101を用いて顔画像を撮像してもよい。   The imaging unit 101 is typically a CCD camera, and sequentially captures an image including a driver's face as a face image as shown in FIG. 2 as a face image. Face image data indicating an image is generated. The installation position of the imaging unit 101 in the vehicle may be any installation position as long as the eye detection apparatus 1 according to the present embodiment can accurately recognize the corners of the driver's face, the eyes, and the like. As an example, as shown in FIG. 3, the driver's face seated in the driver's seat may be installed on the upper part of the steering column of the vehicle so that the face of the driver can be imaged from the front. In addition, when installing the imaging unit 101, a light source that irradiates infrared light in the imaging range of the imaging unit 101 is also installed, and the imaging unit 101 that has relatively enhanced sensitivity to light of wavelengths in the infrared region is used. A face image may be taken.

検出部102と、組み合わせ部103と、形状値算出部104と、選択部105と、特定部106との機能構成は、典型的には、CPU、LSI、及びマイクロコンピュータなどの集積回路からなる制御部であって、記憶部107から予め定められたプログラムを当該制御部が読み出して解釈実行することによって、当該制御部がそれぞれの機能構成として適宜処理をすることによって実現される。   The functional configurations of the detection unit 102, the combination unit 103, the shape value calculation unit 104, the selection unit 105, and the specification unit 106 are typically controlled by integrated circuits such as a CPU, LSI, and microcomputer. The control unit reads out a predetermined program from the storage unit 107 and interprets and executes the program, so that the control unit appropriately processes each function configuration.

検出部102は、撮像部101によって顔画像データが生成される度に生成された顔画像データを取得する。顔画像データを取得すると、検出部102は、取得した顔画像データを記憶部107に記憶させる。顔画像データを記憶部107に記憶させると、検出部102は、記憶部107に記憶されている顔画像データによって示される顔画像から、上瞼、下瞼、鼻孔、及び口などの顔の部品(以下、顔部品と称する)の中で少なくとも上瞼と下瞼とをそれぞれ示す画素の候補を検出する処理をする。   The detection unit 102 acquires face image data generated each time face image data is generated by the imaging unit 101. When the face image data is acquired, the detection unit 102 causes the storage unit 107 to store the acquired face image data. When the face image data is stored in the storage unit 107, the detection unit 102 detects facial parts such as upper eyelid, lower eyelid, nostril, and mouth from the face image indicated by the face image data stored in the storage unit 107. A process of detecting candidate pixels each indicating at least upper eyelid and lower eyelid in (hereinafter referred to as a face part) is performed.

より詳細には、検出部102は、まず、記憶部107に記憶されている顔画像データによって示される顔画像に対して輪郭を強調するフィルタ処理などをして、顔画像データによって示される顔画像における顔部品の輪郭を強調した画像を輪郭強調画像として生成する処理をする。輪郭強調画像を生成すると、検出部102は、生成した輪郭強調画像をさらに記憶部107に記憶させる。輪郭強調画像を記憶部107に記憶させると、検出部102は、パターンマッチングなどの手法を用いて、記憶部107に記憶されている輪郭強調画像の中から上瞼と下瞼とをそれぞれ示す画素の候補をそれぞれ上瞼候補、及び下瞼候補として検出する。   More specifically, the detection unit 102 first performs a filter process for emphasizing a contour on the face image indicated by the face image data stored in the storage unit 107, and the face image indicated by the face image data. A process for generating an image in which the contour of the facial part is enhanced as a contour-enhanced image is performed. When the contour enhanced image is generated, the detection unit 102 further stores the generated contour enhanced image in the storage unit 107. When the edge enhancement image is stored in the storage unit 107, the detection unit 102 uses the technique such as pattern matching to indicate pixels indicating the upper eyelid and the lower eyelid from the edge enhancement image stored in the storage unit 107, respectively. Are detected as an upper eyelid candidate and a lower eyelid candidate, respectively.

検出部102は、上瞼候補、及び下瞼候補をそれぞれ検出するとき、輪郭強調画像に基づいて上瞼候補、及び下瞼候補を検出するときの検出精度を高める処理をさらにしてもよい。検出部102が、上瞼候補、及び下瞼候補を検出するときの検出精度を高める処理の一例としては、輪郭強調画像においてパターンマッチングなどの手法を用いた処理で上瞼、或いは下瞼を示す候補であると判断された画素の中から、予め定められた距離よりも近い画素同士を同一の上瞼、或いは同一の下瞼を示す画素の候補として纏めて1つの上瞼候補、或いは1つの下瞼候補としてグループ化する処理が挙げられる。また、検出部102が、上瞼候補、及び下瞼候補を検出するときの検出精度を高める処理の他の一例としては、輪郭強調画像における全ての上瞼候補、及び下瞼候補を検出した後、検出した上瞼候補、及び下瞼候補の中でそれぞれ互いに重複した画素を含む上瞼候補同士、或いは下瞼候補同士をそれぞれ1つの上瞼候補、或いは下瞼候補として纏めてグループ化する処理が挙げられる。   When detecting the upper eyelid candidate and the lower eyelid candidate, respectively, the detection unit 102 may further perform processing for improving the detection accuracy when detecting the upper eyelid candidate and the lower eyelid candidate based on the contour-enhanced image. As an example of processing for improving the detection accuracy when the detection unit 102 detects the upper eyelid candidate and the lower eyelid candidate, the upper edge or the lower eyelid is indicated by processing using a method such as pattern matching in the contour-enhanced image. Among pixels determined to be candidates, pixels closer than a predetermined distance are grouped together as candidates for pixels having the same upper eyelid or the same lower eyelid, or one upper eyelid candidate, or one A grouping process is listed as a candidate for Shimojo. Further, as another example of the processing for improving the detection accuracy when the detection unit 102 detects the upper eyelid candidate and the lower eyelid candidate, after detecting all the upper eyelid candidates and the lower eyelid candidates in the contour-enhanced image Processing for grouping the upper eyelid candidates or the lower eyelid candidates that include overlapping pixels among the detected upper eyelid candidates and lower eyelid candidates as one upper eyelet candidate or lower eyelid candidate. Is mentioned.

図4は、検出部102によって検出された上瞼候補、及び下瞼候補の一例を示す図である。図4に示す例では、上瞼候補um1乃至um5の5つの上瞼候補と、下瞼候補sm1乃至sm3の3つの下瞼候補とが検出部102によって検出された場合を示している。図4に示す上瞼候補um1、um3、及びum5は、それぞれ実際には眉、及び口の輪郭を強調した画素であるが、上述した上瞼候補、及び下瞼候補をそれぞれ検出する手法では、眉の輪郭を示す画素など、上瞼、或いは下瞼に形状の似ている画素が、上瞼候補、及び下瞼候補としてそれぞれ1以上だけ検出される場合もある。   FIG. 4 is a diagram illustrating an example of the upper eyelid candidate and the lower eyelid candidate detected by the detection unit 102. The example illustrated in FIG. 4 illustrates a case where the detection unit 102 detects five upper eyelid candidates of upper eyelid candidates um1 to um5 and three lower eyelid candidates of lower eyelid candidates sm1 to sm3. The upper eyelid candidates um1, um3, and um5 shown in FIG. 4 are pixels in which the outlines of the eyebrows and the mouth are actually emphasized, but in the method for detecting the upper eyelid candidates and the lower eyelid candidates described above, In some cases, one or more pixels having a shape similar to the upper eyelid or the lower eyelid, such as a pixel indicating the outline of the eyebrows, are detected as the upper eyelid candidate and the lower eyelid candidate.

尚、図4には説明の便宜のため、上瞼候補、及び下瞼候補をそれぞれ破線で示しているが、輪郭強調画像において上瞼候補、及び下瞼候補を示す画素は破線で示されなくてもよい。また、検出部102によって検出される上瞼候補、及び下瞼候補は、それぞれ図4に示すように線形状として検出されてもよいし、上瞼、或いは下瞼の形状に似た形状の画素の集まりとして検出されてもよい。また、検出部102が、上瞼候補、及び下瞼候補をそれぞれ検出するときには、撮像部101から取得した顔画像データによって示される顔画像に対して水平方向のソーベルフィルタ処理をすることによって生成した輪郭強調画像を用いてもよい。   In FIG. 4, for convenience of explanation, the upper eyelid candidate and the lower eyelid candidate are indicated by broken lines, but the pixels indicating the upper eyelid candidate and the lower eyelid candidate are not indicated by broken lines in the outline-enhanced image. May be. Further, the upper eyelid candidate and the lower eyelid candidate detected by the detection unit 102 may be detected as a line shape as shown in FIG. 4 respectively, or pixels having a shape similar to the shape of the upper eyelid or the lower eyelid. May be detected as a collection of In addition, when the detection unit 102 detects the upper eyelid candidate and the lower eyelid candidate, respectively, the detection unit 102 generates by performing horizontal Sobel filter processing on the face image indicated by the face image data acquired from the imaging unit 101. The contour-enhanced image may be used.

検出部102は、上瞼候補と下瞼候補とをそれぞれ検出すると、検出した上瞼候補、及び下瞼候補がそれぞれ左右のいずれの候補であるかを、検出した上瞼候補毎、及び下瞼候補毎にそれぞれ判断する。検出した上瞼候補、及び下瞼候補がそれぞれ左右のいずれの候補であるかを判断するとき、検出部102は、撮像部101から取得した顔画像データによって示される顔画像に対して、顔画像の垂直方向の輪郭を強調するフィルタ処理をして生成した垂直輪郭強調画像に基づいて判断してもよい。   When detecting the upper eyelid candidate and the lower eyelid candidate, the detecting unit 102 determines whether the detected upper eyelid candidate and the lower eyelid candidate are left and right candidates for each detected upper eyelid candidate and lower eyelid. Judgment is made for each candidate. When determining whether the detected upper eyelid candidate and lower eyelid candidate are left or right candidates, the detection unit 102 performs face image processing on the face image indicated by the face image data acquired from the imaging unit 101. The determination may be made based on a vertical contour emphasis image generated by performing filter processing for emphasizing the vertical contour.

より詳細には、検出部102は、検出した上瞼候補、及び下瞼候補がそれぞれ左右のいずれの候補であるかを判断するとき、まず、記憶部107に記憶されている顔画像データによって示される顔画像に対して、顔画像の垂直方向の輪郭を強調するフィルタ処理(例えば、垂直方向のソーベルフィルタ処理など)をすることによって垂直輪郭強調画像を生成し、記憶部107にさらに記憶させる。垂直輪郭強調画像を記憶部107に記憶させると、検出部102は、垂直輪郭強調画像の画素の輝度値を垂直方向の画素列毎に積算して、積算した画素の輝度値を水平方向に沿って並べた垂直輪郭強調画像のヒストグラムを作成する。この垂直輪郭強調画像のヒストグラムの横軸は、垂直輪郭強調画像の水平方向の画素の位置を示し、縦軸が積算した輝度値を示すことになる。そして、垂直輪郭強調画像のヒストグラムには、顔の両端に相当する水平方向の位置にそれぞれピーク値が生じる。検出部102は、垂直輪郭強調画像のヒストグラムに生じるピーク値の水平方向の位置に基づいて、顔の左端の水平方向の位置、及び顔の右端の水平方向の位置を検出し、さらに、検出したそれぞれの水平方向の位置の中心を顔の中心の水平方向の位置として検出する。   More specifically, when the detection unit 102 determines whether the detected upper eyelid candidate and lower eyelid candidate are the left and right candidates, first, the detection unit 102 indicates the face image data stored in the storage unit 107. A vertical contour emphasis image is generated by performing filter processing (for example, vertical Sobel filter processing, etc.) for emphasizing the vertical contour of the face image on the face image to be stored, and further storing it in the storage unit 107 . When the vertical contour enhanced image is stored in the storage unit 107, the detection unit 102 accumulates the luminance values of the pixels of the vertical contour enhanced image for each pixel column in the vertical direction, and the accumulated luminance values of the pixels along the horizontal direction. Create a histogram of the vertical contour-enhanced images arranged side by side. The horizontal axis of the histogram of the vertical contour emphasized image indicates the pixel position in the horizontal direction of the vertical contour emphasized image, and the vertical axis indicates the integrated luminance value. In the histogram of the vertical contour emphasis image, peak values are generated at horizontal positions corresponding to both ends of the face. The detection unit 102 detects the horizontal position of the left end of the face and the horizontal position of the right end of the face based on the horizontal position of the peak value generated in the histogram of the vertical contour enhanced image, and further detects The center of each horizontal position is detected as the horizontal position of the center of the face.

顔の中心の水平方向の位置を検出すると、検出部102は、検出した顔の中心の水平方向の位置と、既に検出した上瞼候補、及び下瞼候補のそれぞれを示す画素の位置とを比較する。本実施形態では、顔画像、輪郭強調画像、及び垂直輪郭強調画像などの画像における画素の位置は、図3、及び図4などに一例として示すように、画像の原点を基準とするX−Y座標系で示されるものとする。そして、検出部102は、輪郭強調画像において顔の中心の水平方向の位置よりも左に位置する上瞼候補、及び下瞼候補、すなわち、顔の中心のX座標よりも小さいX座標に位置する画素の上瞼候補、及び下瞼候補をそれぞれ顔の右側の上瞼候補、及び下瞼候補と判断する。一方、検出部102は、輪郭強調画像において顔の中心の水平方向の位置よりも右に位置する上瞼候補、及び下瞼候補、すなわち、顔の中心のX座標よりも大きいX座標に位置する画素の上瞼候補、及び下瞼候補をそれぞれ顔の左側の上瞼候補、及び下瞼候補と判断する。これにより、検出部102は、検出した上瞼候補、及び下瞼候補が顔画像における顔の左右のいずれに存在するかを判断することができる。   When the horizontal position of the center of the face is detected, the detection unit 102 compares the detected horizontal position of the center of the face with the positions of pixels indicating the already detected upper eyelid candidate and lower eyelid candidate. To do. In the present embodiment, pixel positions in images such as a face image, a contour-enhanced image, and a vertical contour-enhanced image are XY based on the origin of the image as shown in FIG. 3 and FIG. 4 as an example. It shall be indicated in the coordinate system. Then, the detection unit 102 is located at an X coordinate smaller than the X coordinate of the upper eyelid candidate and the lower eyelid candidate positioned to the left of the horizontal center position of the face in the contour-enhanced image, that is, the face center X coordinate. A pixel upper eyelid candidate and a lower eyelid candidate are determined as an upper eyelid candidate and a lower eyelid candidate on the right side of the face, respectively. On the other hand, the detection unit 102 is positioned at an X coordinate larger than the X coordinate of the upper eyelid candidate and the lower eyelid candidate positioned to the right of the horizontal position of the face center in the contour-enhanced image, that is, the face center. The upper eyelid candidate and the lower eyelid candidate of the pixel are determined as the upper eyelid candidate and the lower eyelid candidate on the left side of the face, respectively. Thereby, the detection unit 102 can determine whether the detected upper eyelid candidate and lower eyelid candidate exist on the left or right side of the face in the face image.

尚、検出部102によって検出される上瞼候補、及び下瞼候補は、それぞれ上述したように線形状、又は、瞼(上瞼、又は下瞼)の形状に似た形状の画素の集まり、すなわち、複数の画素の集まりとして検出される。そして、検出部102が、検出した顔の中心の水平方向の位置と、既に検出した上瞼候補、及び下瞼候補のそれそれを示す画素の位置とを比較するときには、上瞼候補、又は下瞼候補をそれぞれ示す画素のいずれの位置と、顔の中心の水平方向の位置とを比較してもよいが、一例としては、上瞼候補、又は下瞼候補をそれぞれ示す画素の水平方向の位置の平均値と、顔の中心の水平方向の位置とを比較する手法が挙げられる。   Note that the upper eyelid candidate and the lower eyelid candidate detected by the detection unit 102 are each a collection of pixels having a linear shape or a shape similar to the shape of the eyelid (upper eyelid or lower eyelid), as described above. , Detected as a collection of a plurality of pixels. When the detection unit 102 compares the horizontal position of the detected center of the face with the positions of the pixels indicating the detected upper eyelid candidates and lower eyelid candidates, the upper eyelid candidate or the lower Any position of the pixels indicating the eyelid candidates may be compared with the horizontal position of the center of the face, but as an example, the horizontal positions of the pixels indicating the upper eyelid candidates or the lower eyelid candidates. And a method of comparing the average value of the face and the horizontal position of the center of the face.

検出部102は、上瞼候補と下瞼候補とをそれぞれ検出し、検出した上瞼候補、及び下瞼候補がそれぞれ左右のいずれに存在するかを判断すると、検出した上瞼候補と下瞼候補とをそれぞれ示す上下瞼候補データを生成する。より具体的には、検出部102は、検出した上瞼候補毎に、1つの上瞼候補を示す全ての画素の輪郭強調画像におけるそれぞれの位置と、上瞼候補が顔の左右のいずれに存在するかを示す情報と、上瞼候補をそれぞれ識別するための識別子とを対応付けて示す上瞼候補データを生成する。さらに、検出部102は、検出した下瞼候補毎に、1つの下瞼候補を示す全ての画素の輪郭強調画像におけるそれぞれの位置と、下瞼候補が顔の左右のいずれに存在するかを示す情報と、下瞼候補をそれぞれ識別するための識別子とを対応付けて示す下瞼候補データを生成する。そして、検出部102は、上瞼候補データと下瞼候補データとをそれぞれ生成すると、生成した上瞼候補データと下瞼候補データとを纏めて示すデータを上下瞼候補データとして生成し、記憶部107に記憶させる。   When the detection unit 102 detects the upper eyelid candidate and the lower eyelid candidate, and determines whether the detected upper eyelid candidate and the lower eyelid candidate exist on the left or right, the detected upper eyelid candidate and the lower eyelid candidate The upper and lower eyelid candidate data indicating the above are generated. More specifically, for each detected upper eyelid candidate, the detection unit 102 has each position in the contour-enhanced image of all pixels indicating one upper eyelid candidate, and the upper eyelid candidate exists on either the left or right side of the face Upper eyelid candidate data is generated by associating information indicating whether or not to be identified with identifiers for identifying upper eyelid candidates. Further, the detection unit 102 indicates, for each detected lower eyelid candidate, each position in the contour-enhanced image of all pixels indicating one lower eyelid candidate and whether the lower eyelid candidate exists on the left or right of the face. The lower eyelid candidate data indicating the information and the identifiers for identifying the lower eyelid candidates in association with each other is generated. Then, when the detection unit 102 generates the upper eyelid candidate data and the lower eyelid candidate data, respectively, the detection unit 102 generates data indicating the generated upper eyelid candidate data and the lower eyelid candidate data as upper and lower eyelid candidate data, and the storage unit It is memorized in 107.

組み合わせ部103は、記憶部107に記憶されている上下瞼候補データによって示される上瞼候補と、下瞼候補とをそれぞれ瞼候補として組み合わせる。より詳細には、記憶部107に上下瞼候補データが記憶されると、組み合わせ部103は、記憶部107に記憶されている上下瞼候補データとして纏められている上瞼候補データと、下瞼候補データとによってそれぞれ示される上瞼候補と、下瞼候補とを組み合わせて瞼候補とする。   The combination unit 103 combines the upper eyelid candidate and the lower eyelid candidate indicated by the upper and lower eyelid candidate data stored in the storage unit 107 as the eyelid candidate. More specifically, when the upper and lower eyelid candidate data is stored in the storage unit 107, the combination unit 103 combines the upper eyelid candidate data and the lower eyelid candidate stored as the upper and lower eyelid candidate data stored in the storage unit 107. The upper eyelid candidate and the lower eyelid candidate respectively indicated by the data are combined to make the eyelid candidate.

組み合わせ部103は、上瞼候補と下瞼候補とを組み合わせるとき、左右に存在する上瞼候補、及び下瞼候補を分けてそれぞれ組み合わせる。より具体的には、組み合わせ部103は、上瞼候補と下瞼候補とを組み合わせるとき、左の上瞼候補と下瞼候補とをそれぞれ組み合わせ、右の上瞼候補と下瞼候補とをそれぞれ組み合わせる。また、組み合わせ部103は、上瞼候補と下瞼候補とを組み合わせるとき、図5に示すように、輪郭強調画像上の上瞼候補の垂直方向の位置から予め定められた画素数stだけ下方向の領域に存在する下瞼候補と当該上瞼候補とをそれぞれ組み合わせるようにしてもよい。このときの上瞼候補の垂直方向の輪郭強調画像上の位置とは、1つの上瞼候補を示す画素の中で最も高い垂直方向の位置に存在する画素の位置であってもよい。   When combining the upper eyelid candidate and the lower eyelid candidate, the combining unit 103 divides and combines the upper eyelid candidate and the lower eyelid candidate existing on the left and right respectively. More specifically, when combining the upper eyelid candidate and the lower eyelid candidate, the combining unit 103 combines the left upper eyelid candidate and the lower eyelid candidate, and combines the right upper eyelid candidate and the lower eyelid candidate. . Further, when combining the upper eyelid candidate and the lower eyelid candidate, the combination unit 103 moves downward by a predetermined number of pixels st from the vertical position of the upper eyelid candidate on the contour-enhanced image, as shown in FIG. The lower eyelid candidate and the upper eyelid candidate existing in the region may be combined respectively. At this time, the position of the upper eyelid candidate on the contour-enhanced image in the vertical direction may be the position of the pixel present at the highest vertical position among the pixels indicating one upper eyelid candidate.

組み合わせ部103は、上瞼候補と下瞼候補とを瞼候補として組み合わせると、上瞼候補と下瞼候補とを組み合わせた瞼候補を示す瞼候補データを生成する。より詳細には、組み合わせ部103は、瞼候補毎に、組み合わせた上瞼候補の識別子と、組み合わせた下瞼候補の識別子と、瞼候補を識別するための識別子とを対応付けて示す瞼候補データを生成する。瞼候補データを生成すると、組み合わせ部103は、生成した瞼候補データを記憶部107に記憶させる。尚、図5に示す例では、上瞼候補um1と下瞼候補sm1との組、上瞼候補um2と下瞼候補sm1との組、上瞼候補um3と下瞼候補sm2との組、上瞼候補um4と下瞼候補sm2との組がそれぞれ組み合わせ部103によって瞼候補として組み合わせられ、組み合わせられた瞼候補を示す瞼候補データが生成される。これに対して、上瞼候補um5と下瞼候補sm3とは、それぞれ組み合わせられる上瞼候補、又は下瞼候補が存在しないため、上瞼候補um5と下瞼候補sm3とをそれぞれ組み合わせに含む瞼候補は、瞼候補データによって示される瞼候補とならない。   When combining the upper eyelid candidate and the lower eyelid candidate as the eyelid candidate, the combination unit 103 generates eyelid candidate data indicating the eyelid candidate combining the upper eyelid candidate and the lower eyelid candidate. More specifically, the combination unit 103 displays, for each candy candidate, candy candidate data indicating the combined upper candy candidate identifier, the combined lower candy candidate identifier, and the identifier for identifying the candy candidate in association with each other. Is generated. When the wrinkle candidate data is generated, the combination unit 103 causes the storage unit 107 to store the generated wrinkle candidate data. In the example shown in FIG. 5, a pair of the upper eyelid candidate um1 and the lower eyelid candidate sm1, a pair of the upper eyelid candidate um2 and the lower eyelid candidate sm1, a pair of the upper eyelid candidate um3 and the lower eyelid candidate sm2, A pair of the candidate um4 and the lower eyelid candidate sm2 is combined as an eyelid candidate by the combining unit 103, and eyelid candidate data indicating the combined eyelid candidates is generated. On the other hand, since the upper eyelid candidate um5 and the lower eyelid candidate sm3 are not combined with the upper eyelid candidate or the lower eyelid candidate, respectively, the upper eyelid candidate um5 and the lower eyelid candidate sm3 are included in the combination. Does not become a candy candidate indicated by the candy candidate data.

尚、検出部102が上瞼候補、及び下瞼候補を検出するときから、組み合わせ部103で瞼候補データを生成するまでの処理は、上述で説明したように上瞼候補、及び下瞼候補を検出でき、形状値算出部104、選択部105、及び特定部106が後述するように処理できるデータを生成できるのであれば、上述した処理の代わりに、任意の公知の手法を用いて構わない。   The process from when the detection unit 102 detects the upper eyelid candidate and the lower eyelid candidate to when the combination unit 103 generates the eyelid candidate data, as described above, selects the upper eyelid candidate and the lower eyelid candidate. Any known method may be used instead of the above-described processing as long as it can be detected and data that can be processed by the shape value calculation unit 104, the selection unit 105, and the specification unit 106 as described later can be generated.

形状値算出部104は、記憶部107に瞼候補データが記憶されたとき、記憶されている瞼候補データによって示される瞼候補毎に、瞼候補の形状を示す値を形状値として算出する。   When the eyelid candidate data is stored in the storage unit 107, the shape value calculating unit 104 calculates a value indicating the shape of the eyelid candidate as a shape value for each eyelid candidate indicated by the stored eyelid candidate data.

図6は、形状値算出部104が算出する形状値の一例を示す図である。図6には、説明の便宜のため、図5に示す上瞼候補、及び下瞼候補の内、上瞼候補um2と下瞼候補sm1とを拡大して示している。形状値算出部104は、1つの瞼候補の形状値を算出するとき、図6に示すように、瞼候補データによって対応付けられている1つの上瞼候補を示す画素の中で垂直方向の最も高い位置に存在する頂点の画素utの位置と、当該上瞼候補の識別子に瞼候補として対応付けられている識別子の下瞼候補を示す画素の目尻側の端点mj、及び目頭側の端点mgの少なくともいずれか一方の端点とを結ぶ直線の傾きを形状値として算出する。尚、1つの上瞼候補を示す画素の中で垂直方向の最も高い位置に存在する頂点の画素utの位置と、顔画像における当該位置とは同じ位置である。   FIG. 6 is a diagram illustrating an example of a shape value calculated by the shape value calculation unit 104. In FIG. 6, for the convenience of explanation, the upper eyelid candidate um2 and the lower eyelid candidate sm1 among the upper eyelid candidate and the lower eyelid candidate shown in FIG. When the shape value calculation unit 104 calculates the shape value of one eyelid candidate, as shown in FIG. 6, the shape value calculating unit 104 has the highest vertical direction among the pixels indicating one upper eyelid candidate associated with the eyelid candidate data. The position of the apex pixel ut present at a high position, the end mj on the eye corner side of the pixel indicating the lower eyelid candidate of the identifier associated with the identifier of the upper eyelid candidate, and the end point mg on the eye side The slope of a straight line connecting at least one of the end points is calculated as a shape value. It should be noted that the position of the vertex pixel ut present at the highest position in the vertical direction among the pixels indicating one upper eyelid candidate and the position in the face image are the same position.

形状値算出部104が算出する傾きは、1つの上瞼候補を示す画素の中で垂直方向の最も高い位置に存在する頂点の画素utの位置と、当該上瞼候補の識別子に瞼候補として瞼候補データによって対応付けられている識別子の下瞼候補を示す目尻側の端点mjとを結ぶ直線mjlの傾き(以下、目尻傾きと称する)であってもよい。また、形状値算出部104が算出する傾きは、1つの上瞼候補を示す画素の中で垂直方向の最も高い位置に存在する頂点の画素utの位置と、当該上瞼候補の識別子に瞼候補として瞼候補データによって対応付けられている識別子の下瞼候補を示す目頭側の端点mgとを結ぶ直線mglの傾き(以下、目頭傾きと称する)であってもよい。また、形状値算出部104が算出する傾きは、前述の目尻傾きと、前述の目頭傾きとの両方の傾きであってもよい。   The inclination calculated by the shape value calculation unit 104 is determined as a heel candidate based on the position of the vertex pixel ut present at the highest position in the vertical direction among pixels indicating one upper heel candidate and the identifier of the upper heel candidate. It may be an inclination of a straight line mjl (hereinafter referred to as an eye corner inclination) that connects an end point mj on the eye corner side indicating a lower eyelid candidate associated with the candidate data. In addition, the inclination calculated by the shape value calculation unit 104 is determined based on the position of the vertex pixel ut present at the highest position in the vertical direction among the pixels indicating one upper eyelid candidate and the identifier of the upper eyelid candidate. The slope of a straight line mgl connecting the end point mg on the eye side indicating the lower eyelid candidate of the identifier associated with the eyelid candidate data (hereinafter referred to as the eye inclination). In addition, the inclination calculated by the shape value calculation unit 104 may be both the above-described eye corner inclination and the above-mentioned eye inclination.

図7A乃至図7Cは、それぞれ検出部102によって検出された上瞼候補um2、及び下瞼候補sm1とを組み合わせた瞼候補の形状がそれぞれ細目に近い形状、標準の形状に近い形状、及び丸目に近い形状であった場合の目尻傾きmjk、及び目頭傾きmgkの一例をそれぞれ示す図である。図7A乃至図7Cにそれぞれ示すように、形状値算出部104によって形状値として算出される目尻傾きmjk、及び目頭傾きmgkは、それぞれ細目、標準、及び丸目の順番に大きくなり、上瞼候補、及び下瞼候補を組み合わせた瞼候補の形状の指標となる。尚、形状値算出部104によって形状値として算出される目尻傾きmjk、及び目頭傾きmgkはそれぞれ、図7A乃至図7Cにそれぞれ示すように角度で示されてもよいし、それぞれの直線の傾きであってもよい。   FIGS. 7A to 7C show that the shape of the eyelid candidate combining the upper eyelid candidate um2 and the lower eyelid candidate sm1 detected by the detection unit 102 is close to a fine shape, a shape close to a standard shape, and a round shape, respectively. It is a figure which respectively shows an example of the corner | angular inclination mjk and the eye inclination mgk when it is a near shape. As shown in FIGS. 7A to 7C, the eye corner inclination mjk and the eye inclination mgk calculated as shape values by the shape value calculation unit 104 increase in the order of fine, standard, and round, respectively. And the shape of the heel candidate combining the lower heel candidates. Note that the eye corner inclination mjk and the eye head inclination mgk calculated as shape values by the shape value calculation unit 104 may be indicated by angles as shown in FIGS. 7A to 7C, respectively, or by the inclinations of the respective straight lines. There may be.

形状値算出部104は、記憶部107に記憶された瞼候補データによって示される瞼候補毎に形状値を算出すると、算出した形状値を、瞼候補データによって示される瞼候補の識別子にそれぞれ対応付けて、記憶部107に記憶されている瞼候補データに追加して記憶させる。   When the shape value calculation unit 104 calculates a shape value for each of the eyelid candidates indicated by the eyelid candidate data stored in the storage unit 107, the shape value calculation unit 104 associates the calculated shape value with the identifier of the eyelid candidate indicated by the eyelid candidate data. Then, it is stored in addition to the eyelid candidate data stored in the storage unit 107.

選択部105は、形状値算出部104によって、記憶部107に記憶されている瞼候補データに形状値が追加されると、瞼候補データによって示される瞼候補毎に目尻、及び目頭をそれぞれ特定部106で特定するための目尻目頭パターンを選択する。   When the shape value is added to the eyelid candidate data stored in the storage unit 107 by the shape value calculating unit 104, the selection unit 105 identifies the eye corner and the eye head for each eyelid candidate indicated by the eyelid candidate data. An eye corner pattern for specifying at 106 is selected.

ここで、記憶部107に予め記憶されている目尻目頭パターンについて、図8A乃至図8Cを参照しながら説明する。図8A乃至図8Cは、それぞれ本実施形態に係る記憶部107に予め記憶されている目尻目頭パターンをそれぞれ示す図である。図8A乃至図8Cには、一例として、右の瞼候補の目尻、及び目頭を特定部106で特定するための目尻目頭パターンを示している。   Here, an eye corner pattern stored in advance in the storage unit 107 will be described with reference to FIGS. 8A to 8C. FIG. 8A to FIG. 8C are diagrams each showing an eye corner pattern stored in advance in the storage unit 107 according to the present embodiment. FIG. 8A to FIG. 8C show, as an example, an eye corner pattern of a right eyelid candidate and an eye corner eye pattern for specifying the eye head by the specifying unit 106.

本実施形態における目尻目頭パターンとは、図8A乃至図8Cにそれぞれ示す目尻パターンと目頭パターンとを組み合わせたパターンのことである。そして、目尻パターンと目頭パターンとは、それぞれ目尻、及び目頭における肌部分と眼部分とに相当する2つの領域を有する予め定められた広さを有し、実際の人の目尻、及び目頭を模した画像である。また、本実施形態における目尻目頭パターンは、それぞれの画像の画素の輝度値の上限値で肌部分(図8A乃至図8Cでは白部分)を示し、それぞれの画像の画素の輝度値の下限値で眼部分(図8A乃至図8Cでは黒部分)を示すものとするが、目尻目頭パターンにおける肌部分、及び眼部分の示し方は、これに限られなくてもよい。また、記憶部107に記憶されている目尻パターン、及び目頭パターンには、それぞれ特定部106が目尻パターン、及び目頭パターンを顔画像上に配置するために、これらのパターンの下瞼候補を示す画素の端点(上瞼候補との接点側の端点)に相当する箇所の画素の位置が基準点として予め定められている。   The eye corner pattern in the present embodiment is a pattern in which the eye corner pattern and the eye pattern shown in FIGS. 8A to 8C are combined. The eye corner pattern and the eye head pattern each have a predetermined area having two areas corresponding to the eye corner and the skin part and the eye part of the eye head, respectively. It is an image. In addition, the eye corner pattern in the present embodiment indicates the skin portion (the white portion in FIGS. 8A to 8C) with the upper limit value of the luminance value of the pixel of each image, and the lower limit value of the luminance value of the pixel of each image. Although the eye part (black part in FIGS. 8A to 8C) is shown, the way of showing the skin part and the eye part in the eye corner pattern is not limited to this. In addition, the eye corner pattern and the eye pattern stored in the storage unit 107 are pixels that indicate candidates for the lower eyelid of the pattern so that the specifying unit 106 arranges the eye corner pattern and the eye pattern on the face image, respectively. The position of the pixel corresponding to the end point (end point on the contact side with the upper eyelid candidate) is predetermined as a reference point.

本実施形態では、一例として、図8A乃至図8Cにそれぞれ示す、細目、標準、及び丸目の瞼候補の形状にそれぞれ対応する3つの目尻目頭パターンを予め定めてそれぞれを識別する識別子と共に記憶部107に記憶させるものとする。図8A乃至図8Cから明らかなように、細目、標準、及び丸目にそれぞれ対応する目尻目頭パターンでは、目尻パターン、及び目頭パターンのそれぞれにおける肌部分と眼部分との領域の割合が互いに異なる。より具体的には、細目に対応する目尻目頭パターンの目尻パターン、及び目頭パターンでは、肌部分の割合が最も大きく、眼部分の割合が最も小さい。これに対して、丸目に対応する目尻目頭パターンの目尻パターン、及び目頭パターンでは、肌部分の割合が最も小さく、眼部分の割合が最も大きい。   In the present embodiment, as an example, the storage unit 107 together with identifiers that predetermine three eye corner patterns corresponding respectively to the shapes of the narrow, standard, and round eyelid candidates shown in FIGS. 8A to 8C and identify each of them. Shall be memorized. As is clear from FIGS. 8A to 8C, the ratio of the area between the skin part and the eye part in the eye corner pattern and the eye pattern is different from each other in the eye corner pattern corresponding to each of the fine, standard, and round eyes. More specifically, the ratio of the skin part is the largest and the ratio of the eye part is the smallest in the eye corner pattern and the eye head pattern of the eye corner eye pattern corresponding to the fine details. On the other hand, the ratio of the skin part is the smallest and the ratio of the eye part is the largest in the eye corner pattern and the eye pattern corresponding to the round eyes.

このように、本実施形態では、図8A乃至図8Cに示すように、前述の予め定められた広さにおいて、細目、標準、及び丸目などの眼の形状によって変化する目尻、及び目頭のそれぞれにおける肌部分と眼部分との領域の割合をそれぞれの形状に応じて近くなるように予め定めた目尻目頭パターンを記憶部107に記憶させている。   As described above, in this embodiment, as shown in FIGS. 8A to 8C, in each of the corners of the eyes and the eyes that change according to the shape of the eyes, such as fine, standard, and round eyes, in the above-described predetermined area. The eye corner-eye pattern is stored in the storage unit 107 in advance so that the ratio of the area between the skin part and the eye part becomes close to each shape.

選択部105には、記憶部107に記憶されている瞼候補データによって瞼候補と対応付けられている形状値に応じて記憶部107に記憶されている目尻目頭パターンを選択するためのしきい値が予め定められている。本実施形態に係る選択部105には、一例として、記憶部107に記憶されている3つの目尻目頭パターンを選択するために、大きさが順番に大きくなるしきい値a、及びしきい値bの2つのしきい値が予め定められている。ここで、しきい値aとしきい値bとの間には、a<bの関係があるものとする。   The selection unit 105 includes a threshold value for selecting an eye corner pattern stored in the storage unit 107 in accordance with the shape value associated with the eyelid candidate by the eyelid candidate data stored in the storage unit 107. Is predetermined. As an example, the selection unit 105 according to the present embodiment selects a threshold value a and a threshold value b that increase in order in order to select three eye corner patterns stored in the storage unit 107. These two threshold values are predetermined. Here, it is assumed that there is a relationship of a <b between the threshold value a and the threshold value b.

選択部105は、記憶部107に記憶されている瞼候補データに形状値が追加されると、記憶されている瞼候補データによって示される瞼候補毎に対応付けられている形状値としきい値とを比較する。形状値としきい値とを比較するとき、選択部105は、まず、1つの瞼候補に対応付けられた形状値と、最も小さいしきい値aとを比較する。そして、選択部105は、比較した形状値がしきい値aよりも小さいと判断したとき、当該形状値に対応付けられた瞼候補の形状は細目であると判断して、細目に対応する目尻目頭パターンの識別子を当該瞼候補の識別子に対応付け、記憶部107に記憶されている瞼候補データに追加して記憶させる。また、選択部105は、比較した形状値がしきい値a以上であると判断したとき、しきい値aの次に大きいしきい値bと当該形状値とを比較する。選択部105は、比較した形状値がしきい値bよりも小さいと判断したとき、当該形状値に対応付けられた瞼候補の形状は標準であると判断して、標準に対応する目尻目頭パターンの識別子を当該瞼候補の識別子に対応付け、記憶部107に記憶されている瞼候補データに追加して記憶させる。また、選択部105は、比較した形状値がしきい値b以上であると判断したとき、当該形状値に対応付けられた瞼候補の形状は丸目であると判断して、丸目に対応する目尻目頭パターンの識別子を当該瞼候補に対応付け、記憶部107に記憶されている瞼候補データに追加して記憶させる。   When the shape value is added to the eyelid candidate data stored in the storage unit 107, the selection unit 105 adds the shape value and the threshold value associated with each eyelid candidate indicated by the stored eyelid candidate data. Compare When comparing the shape value with the threshold value, the selection unit 105 first compares the shape value associated with one wrinkle candidate with the smallest threshold value a. Then, when the selection unit 105 determines that the compared shape value is smaller than the threshold value a, the selection unit 105 determines that the shape of the eyelid candidate associated with the shape value is fine, and the corner of the eye corresponding to the detail The eye pattern identifier is associated with the eyelid candidate identifier and added to the eyelid candidate data stored in the storage unit 107 and stored. When the selection unit 105 determines that the compared shape value is greater than or equal to the threshold value a, the selection unit 105 compares the shape value with the threshold value b that is the next larger than the threshold value a. When the selection unit 105 determines that the compared shape value is smaller than the threshold value b, the selection unit 105 determines that the shape of the wrinkle candidate associated with the shape value is a standard, and an eye corner pattern corresponding to the standard Is associated with the identifier of the candidate for wrinkle and added to the candidate for wrinkle data stored in the storage unit 107 for storage. When the selection unit 105 determines that the compared shape value is equal to or greater than the threshold value b, the selection unit 105 determines that the shape of the eyelid candidate associated with the shape value is a round eye, The eye pattern identifier is associated with the eyelid candidate and added to the eyelid candidate data stored in the storage unit 107 and stored.

このように、選択部105が、瞼候補の形状値に応じて記憶部107に記憶されている目尻目頭パターンを選択することにより、上述したように瞼候補の形状の指標となる形状値に応じて、瞼候補の形状に応じて上述したように予め定めた目尻目頭パターンの中から、瞼候補データによって示される瞼候補毎に適切な目尻目頭パターンを選択することができる。   As described above, the selection unit 105 selects the eye corner-eye pattern stored in the storage unit 107 according to the shape value of the eyelid candidate, and thus, according to the shape value serving as an index of the shape of the eyelid candidate as described above. Thus, it is possible to select an appropriate eye-eye-eye pattern for each eyelid candidate indicated by the eyelid candidate data, from among the eye-eye corner patterns determined in advance according to the shape of the eyelid candidate.

特定部106は、記憶部107に記憶されている瞼候補データに目尻目頭パターンの識別子が追加されると、記憶部107に記憶されている瞼候補データによって示される瞼候補毎に目尻、及び目頭の位置を特定する。   When the identifier of the eye corner eye pattern is added to the eyelid candidate data stored in the storage unit 107, the specifying unit 106 adds the eye corner and the eyeball to each eyelid candidate indicated by the eyelid candidate data stored in the storage unit 107. Specify the position of.

より詳細には、特定部106は、瞼候補の目尻、及び目頭の位置を特定するとき、当該瞼候補に対応付けられた目尻目頭パターンの目尻パターン、及び目頭パターンのそれぞれを記憶部107に記憶されている顔画像に配置する処理をする。より具体的には、特定部106は、記憶部107に記憶されている瞼候補データによって瞼候補毎に対応付けられている識別子の下瞼候補の目尻側の端点の画素の位置に、当該瞼候補に対応付けられている識別子の目尻目頭パターンの目尻パターンの基準点を一致させて、当該目尻パターンを顔画像上に重畳させて配置する処理をする。また、特定部106は、記憶部107に記憶されている瞼候補データによって瞼候補毎に対応付けられている下瞼候補の目頭側の端点の画素の位置に、当該瞼候補に対応付けられている識別子の目尻目頭パターンの目頭パターンの基準点を一致させて、当該目頭パターンを顔画像上に重畳させて配置する処理をする。尚、特定部106によって、目尻パターン、及び目頭パターンとがそれぞれ重畳させられている顔画像の中の画像は、瞼候補データによって示される瞼候補毎の目尻、及び目頭を示すと考えられる画像となる。   More specifically, when specifying the eye corners and eye positions of the eyelid candidates, the specifying unit 106 stores each of the eye corner patterns and the eye patterns of the eye corner eye patterns associated with the eyelid candidates in the storage unit 107. The image is placed on the face image. More specifically, the identifying unit 106 sets the eyelid side end pixel position of the lower eyelid candidate of the identifier associated with each eyelid candidate by the eyelid candidate data stored in the storage unit 107 in the position of the eyelid. Processing is performed to match the reference points of the eye corner pattern of the eye corner eye pattern of the identifier associated with the candidate and to superimpose the eye corner pattern on the face image. In addition, the specifying unit 106 associates the eyelid candidate with the eyelid candidate corresponding to the eyelid end point pixel position of the lower eyelid candidate associated with each eyelid candidate by the eyelid candidate data stored in the storage unit 107. A process is performed in which the eye pattern reference point of the eye corner pattern of the identifier is matched and the eye pattern is superimposed on the face image. Note that the image in the face image in which the eye corner pattern and the eye pattern are superimposed by the specifying unit 106 is an image that is considered to indicate the eye corner and the eye head for each eyelid candidate indicated by the eyelid candidate data. Become.

尚、記憶部107に記憶されている下瞼候補の画素の位置は、輪郭強調画像上における位置であるが、本実施形態では、輪郭強調画像と顔画像との画素数は、輪郭を強調する処理をしたとしても変わらないため、輪郭強調画像上における下瞼候補の画素の位置は、そのまま顔画像上の位置と対応している。   Note that the position of the lower eyelid candidate pixel stored in the storage unit 107 is the position on the contour enhanced image, but in this embodiment, the number of pixels of the contour enhanced image and the face image enhances the contour. Since it does not change even if the process is performed, the position of the lower eyelid candidate pixel on the contour emphasized image directly corresponds to the position on the face image.

より詳細には、本実施形態では、輪郭強調画像を生成するときに、顔画像データによって示される顔画像に対してそのままフィルタ処理をし、互いの画像の間で画素数が変化することがないため、輪郭強調画像における画素の位置と、顔画像における画素の位置とはそのまま対応している。しかしながら、輪郭強調画像を生成するときの処理の負担を低減するために、顔画像データによって示される顔画像の画素を間引いてから輪郭強調画像を生成する処理をする場合には、輪郭強調画像における画素の位置と、顔画像における画素の位置とがそのまま対応しない。したがって、特定部106が、顔画像の画素を間引いてから生成された輪郭強調画像において検出された下瞼候補の目尻側の端点の位置、及び目頭側の端点の位置に基づいて、顔画像上に目尻パターン、及び目頭パターンを重畳させる場合には、これらの目尻側の端点の画素の位置、及び目頭側の端点の画素の位置をそれぞれ顔画像上の画素の位置に変換して対応させる処理もしなければならない。   More specifically, in the present embodiment, when generating an edge-enhanced image, the face image indicated by the face image data is directly filtered, and the number of pixels does not change between the images. Therefore, the pixel position in the contour enhanced image and the pixel position in the face image correspond to each other as they are. However, in order to reduce the processing burden when generating the contour-enhanced image, when the process of generating the contour-enhanced image after thinning out the pixels of the face image indicated by the face image data, The position of the pixel does not correspond directly to the position of the pixel in the face image. Therefore, based on the position of the eyelid side end point of the lower eyelid candidate and the position of the eye side end point detected in the contour-enhanced image generated after the identification unit 106 thins out the pixels of the face image, When the eye corner pattern and the eye pattern are superimposed on each other, the position of the pixel at the end of the eye corner and the position of the pixel at the end of the eye are converted into the position of the pixel on the face image to correspond to each other. There must be.

特定部106は、目尻パターン、及び目頭パターンを顔画像上に重畳させる処理をするとき、右側の下瞼候補の目頭側、及び目尻側のそれぞれの端点の画素の位置に対応する顔画像上の位置には、図8A乃至図8Cを参照しながら説明した右用の目尻パターン、及び目頭パターンをそれぞれそのまま重畳させ、左側の下瞼候補の目頭側、及び目尻側のそれぞれの端点の画素の位置に対応する顔画像上の位置には、図8A乃至図8Cを参照しながら説明した右用の目尻パターン、及び目頭パターンの左右をそれぞれ反転させたパターンをそれぞれ重畳させる。尚、他の一実施形態では、記憶部107に左右のそれぞれの目尻目頭パターンを予め定めて記憶させ、左右の下瞼候補の目頭側、及び目尻側のそれぞれの端点の画素の位置に対応する顔画像上の位置に左右の目尻目頭パターンをそれぞれ重畳させてもよい。   When the identifying unit 106 performs processing to superimpose the eye corner pattern and the eye pattern on the face image, the identifying unit 106 on the face image corresponding to the position of the pixel on each of the right eyelid side and the eye corner side of the lower eyelid candidate In the position, the right eye corner pattern and the eye head pattern described with reference to FIGS. 8A to 8C are superimposed as they are, and the position of the pixel at each of the left and lower eyelid candidates on the left and right corners of the eyelid candidate 8A to 8C, the right eye corner pattern described with reference to FIGS. 8A to 8C and the pattern obtained by inverting the right and left of the eye pattern are superimposed on the position on the face image corresponding to. In another embodiment, the left and right eye corner patterns are preliminarily stored in the storage unit 107, and correspond to the positions of the respective end point pixels on the left and right eyelid candidates. The right and left eye corner patterns may be superimposed on positions on the face image.

特定部106は、目尻パターン、及び目頭パターンを顔画像上に重畳させると、顔画像上において目尻パターン、及び目頭パターンがそれぞれ重畳している領域の画像と、重畳させた目尻パターン、及び目頭パターンとして定められている画像との類似度を算出するパターンマッチング処理をする。特定部106は、記憶部107に記憶されている瞼候補データによって示される瞼候補毎に全てパターンマッチング処理をした後、顔画像における左右のそれぞれにおいて、目尻、及び目頭の類似度の和が最も大きい瞼候補をそれぞれ左右の瞼として特定する。尚、特定部106によって為されるパターンマッチング処理は、任意の公知の手法を用いて構わない。   When the eye part pattern and the eye pattern are superimposed on the face image, the specifying unit 106 superimposes the image of the area where the eye part pattern and the eye pattern are superimposed on the face image, the superimposed eye part pattern, and the eye pattern. A pattern matching process is performed to calculate the degree of similarity with the image defined as. The identification unit 106 performs pattern matching processing for each of the eyelid candidates indicated by the eyelid candidate data stored in the storage unit 107, and then the sum of the similarity between the corners of the eyes and the eyes is the highest in each of the left and right sides of the face image. Identify large heel candidates as left and right heels, respectively. The pattern matching process performed by the specifying unit 106 may use any known method.

以上が、本実施形態に係る眼検出装置1の概略構成の説明である。次に、図9に示すフローチャートを参照しながら、本実施形態に係る眼検出装置1の処理を説明する。尚、図9のフローチャートに示す処理は、上述したように、予め定められたプログラムを記憶部107から読み込んだ制御部が、それぞれ検出部102、組み合わせ部103、形状値算出部104、選択部105、及び特定部106の機能構成として適宜処理をして機能することによって、当該制御部によって実行される。   The above is the description of the schematic configuration of the eye detection device 1 according to the present embodiment. Next, processing of the eye detection apparatus 1 according to the present embodiment will be described with reference to the flowchart shown in FIG. In the process shown in the flowchart of FIG. 9, as described above, the control unit that has read a predetermined program from the storage unit 107 detects the detection unit 102, the combination unit 103, the shape value calculation unit 104, and the selection unit 105. And, it is executed by the control unit by appropriately processing and functioning as the functional configuration of the specifying unit 106.

ステップS101において、制御部は、検出部102として、撮像部101によって顔画像データが生成されたか否かを判断する。制御部は、ステップS101において、顔画像データが生成されたと判断したとき、ステップS102へ処理を進める。一方、制御部は、ステップS101において、顔画像データが生成されていないと判断したとき、ステップS101の処理を繰り返す。   In step S <b> 101, the control unit, as the detection unit 102, determines whether face image data has been generated by the imaging unit 101. When the control unit determines in step S101 that face image data has been generated, the control unit proceeds to step S102. On the other hand, when the control unit determines in step S101 that face image data has not been generated, the control unit repeats the process of step S101.

ステップS102において、制御部は、検出部102として、撮像部101によって生成された顔画像データを取得して記憶部107に記憶させ、記憶部107に記憶させた顔画像データによって示される顔画像に対して、上述した輪郭を強調するフィルタ処理をして、輪郭強調画像を生成し、生成した輪郭強調画像を記憶部107に記憶させる。制御部は、ステップS102の処理を完了すると、ステップS103へ処理を進める。   In step S <b> 102, the control unit acquires, as the detection unit 102, the face image data generated by the imaging unit 101, stores it in the storage unit 107, and converts the face image data indicated by the face image data stored in the storage unit 107. On the other hand, the above-described filter processing for emphasizing the contour is performed to generate a contour-enhanced image, and the generated contour-enhanced image is stored in the storage unit 107. When the control section completes the process step of step S102, the control section advances the process to step S103.

ステップS103において、制御部は、検出部102として、記憶部107に記憶させた輪郭強調画像に基づいて、パターンマッチング処理などをすることによって、上述した上瞼候補を検出する。制御部は、ステップS103の処理を完了すると、ステップS104へ処理を進める。   In step S <b> 103, the control unit detects the above-described upper eyelid candidate by performing pattern matching processing or the like based on the contour-enhanced image stored in the storage unit 107 as the detection unit 102. When the control section completes the process step of step S103, the control section advances the process to step S104.

ステップS104において、制御部は、検出部102として、記憶部107に記憶させた輪郭強調画像に基づいて、パターンマッチングなどの手法を用いて、上述した下瞼候補を検出する。制御部は、ステップS104の処理を完了すると、ステップS105へ処理を進める。   In step S <b> 104, the control unit detects the above-described lower eyelid candidate using a method such as pattern matching based on the contour-enhanced image stored in the storage unit 107 as the detection unit 102. When the control section completes the process step of step S104, the control section advances the process to step S105.

ステップS105において、制御部は、検出部102として、上述した上下瞼候補データを生成する。より詳細には、ステップS105において、制御部は、ステップS103で検出した上瞼候補毎に、1つの上瞼候補を示す全ての画素の輪郭強調画像におけるそれぞれの位置と、上瞼候補が顔の左右のいずれに存在するかを示す情報と、上瞼候補をそれぞれ識別するための識別子とを対応付けて示す上瞼候補データを生成する。さらに、ステップS105において、制御部は、ステップS104で検出した下瞼候補毎に、1つの下瞼候補を示す全ての画素の輪郭強調画像におけるそれぞれの位置と、下瞼候補が顔の左右のいずれに存在するかを示す情報と、下瞼候補をそれぞれ識別するための識別子とを対応付けて示す下瞼候補データを生成する。さらに、制御部は、ステップS105において、上瞼候補データと、下瞼候補データとをそれぞれ生成すると、生成した上瞼候補データと下瞼候補データとを纏めて示すデータを上下瞼候補データとして生成し、記憶部107に記憶させる。制御部は、ステップS105の処理を完了すると、ステップS106へ処理を進める。   In step S <b> 105, the control unit generates the above-described upper and lower eyelid candidate data as the detection unit 102. More specifically, in step S105, the control unit determines, for each upper eyelid candidate detected in step S103, each position in the contour-enhanced image of all pixels indicating one upper eyelid candidate, and whether the upper eyelid candidate is a face. Upper eyelid candidate data is generated by associating information indicating whether it exists on the left or right with an identifier for identifying each upper eyelid candidate. Further, in step S105, the control unit determines, for each lower eyelid candidate detected in step S104, each position in the contour-enhanced image of all pixels indicating one lower eyelid candidate, and whether the lower eyelid candidate is on the left or right side of the face. The lower eyelid candidate data is generated by associating information indicating whether the lower eyelid candidates exist with identifiers for identifying the lower eyelid candidates. Further, when generating the upper eyelid candidate data and the lower eyelid candidate data in step S105, the control unit generates data indicating the generated upper eyelid candidate data and the lower eyelid candidate data as upper and lower eyelid candidate data. And stored in the storage unit 107. When the control section completes the process step of step S105, the control section advances the process to step S106.

ステップS106において、制御部は、組み合わせ部103として、記憶部107に記憶されている上下瞼候補データによって示される上瞼候補と、下瞼候補とを、上述したようにそれぞれ瞼候補として組み合わせて、組み合わせた瞼候補を示す瞼候補データを生成し、生成した瞼候補データを記憶部107に記憶させる。制御部は、ステップS106の処理を完了すると、ステップS107へ処理を進める。   In step S106, the control unit combines the upper eyelid candidate and the lower eyelid candidate indicated by the upper and lower eyelid candidate data stored in the storage unit 107 as the combination unit 103, as described above, respectively as the eyelid candidates, The cocoon candidate data indicating the combined cocoon candidates is generated, and the generated cocoon candidate data is stored in the storage unit 107. When the control section completes the process step of step S106, the control section advances the process to step S107.

ステップS107において、制御部は、形状値算出部104として、記憶部107に記憶された瞼候補データによって示される瞼候補毎に形状値を算出し、算出した形状値を、瞼候補データによって示される瞼候補の識別子にそれぞれ対応付けて、記憶部107に記憶されている瞼候補データに追加して記憶させる。制御部は、ステップS107の処理を完了すると、ステップS108へ処理を進める。   In step S107, the control unit calculates a shape value for each wrinkle candidate indicated by the wrinkle candidate data stored in the storage unit 107 as the shape value calculating unit 104, and the calculated shape value is indicated by the wrinkle candidate data. In association with the identifiers of the wrinkle candidates, the wrinkle candidate data stored in the storage unit 107 are added and stored. When the control section completes the process step of step S107, the control section advances the process to step S108.

ステップS108において、制御部は、選択部105として、記憶部107に記憶されている瞼候補データによって示される瞼候補毎に、上述したように瞼候補の形状値に応じて記憶部107に記憶されている目尻目頭パターンを選択し、選択した目尻目頭パターンの識別子を当該瞼候補に対応付け、記憶部107に記憶されている瞼候補データに追加して記憶させる。制御部は、ステップS108の処理を完了すると、ステップS109へ処理を進める。   In step S108, the control unit stores the selection unit 105 in the storage unit 107 according to the shape value of the wrinkle candidate as described above for each wrinkle candidate indicated by the wrinkle candidate data stored in the storage unit 107. The selected corner area pattern is associated with the eyelid candidate identifier and added to the eyelid candidate data stored in the storage unit 107 and stored. When the control section completes the process step of step S108, the control section advances the process to step S109.

ステップS109において、制御部は、特定部106として、記憶部107に記憶されている瞼候補データによって示される瞼候補毎に、瞼候補として組み合わされている下瞼候補の画素の目尻側の端点の画素の位置、及び目頭側の端点の画素の位置にそれぞれ対応する顔画像上の位置に、それぞれ当該瞼候補に対応付けられた識別子の目尻目頭パターンの目尻パターン、及び目頭パターンを上述したように重畳させてパターンマッチング処理をし、顔画像における左右の瞼をそれぞれ特定する。制御部は、ステップS109の処理を完了すると、ステップS101へ処理を戻す。   In step S <b> 109, the control unit, as the specifying unit 106, for each eyelid candidate indicated by the eyelid candidate data stored in the storage unit 107, the end point on the eye corner side of the lower eyelid candidate pixel combined as the eyelid candidate. As described above, the eye corner pattern and the eye pattern of the eye corner eye pattern of the identifier respectively associated with the position of the face corresponding to the position of the pixel and the position of the pixel at the end point on the eye side, respectively. The pattern matching process is performed by superimposing them, and the left and right wrinkles in the face image are specified. When the control section completes the process step of step S109, the control section returns the process to step S101.

以上が、本実施形態に係る眼検出装置1の説明である。本実施形態に係る眼検出装置1によれば、輪郭強調画像に基づいて検出した瞼候補の形状に応じて、パターンマッチング処理に用いる適切な目尻目頭パターンを選択でき、人の眼の形状に個人差があったとしても、正確に瞼を特定できる。   The above is the description of the eye detection device 1 according to the present embodiment. According to the eye detection device 1 according to the present embodiment, an appropriate eye corner pattern used for the pattern matching process can be selected according to the shape of the eyelid candidate detected based on the contour-enhanced image. Even if there is a difference, it is possible to accurately identify wrinkles.

また、本実施形態に係る眼検出装置1によれば、有限の数の目尻目頭パターンを記憶部107に記憶させておくだけで、人の眼の形状に個人差があったとしても、正確に瞼を特定することができ、記憶部107に記憶させる情報量を削減することができる。   Further, according to the eye detection device 1 according to the present embodiment, it is possible to accurately store even a limited number of eye corner patterns in the storage unit 107, even if there are individual differences in human eye shapes. A bag can be identified, and the amount of information stored in the storage unit 107 can be reduced.

尚、第1の実施形態の説明では、形状値算出部104は、形状値として、瞼候補データによって対応付けられている1つの上瞼候補を示す画素の中で垂直方向の最も高い位置に存在する頂点の画素utの位置と、当該上瞼候補の識別子に瞼候補として対応付けられている識別子の下瞼候補を示す画素の目尻側の端点mj、及び目頭側の端点mgの少なくともいずれか一方の端点とを結ぶ直線の傾きを形状値として算出するものとした。しかしながら、他の一実施形態に係る形状値算出部104は、瞼候補データによって示される瞼候補毎に瞼候補の開度を形状値として算出してもよい。   In the description of the first embodiment, the shape value calculation unit 104 exists as the shape value at the highest position in the vertical direction among pixels indicating one upper eyelid candidate associated with the eyelid candidate data. At least one of the position of the vertex pixel ut and the end mj on the outer corner of the pixel indicating the lower eyelid candidate of the identifier associated as the eyelid candidate with the identifier of the upper eyelid candidate and the end mg on the eye side It was assumed that the slope of a straight line connecting the end points was calculated as a shape value. However, the shape value calculation unit 104 according to another embodiment may calculate the opening degree of the eyelid candidate as the shape value for each eyelid candidate indicated by the eyelid candidate data.

図10は、他の一実施形態に係る形状値算出部104によって算出される瞼候補の開度を説明する図である。図10には、説明の便宜のため、図5に示す上瞼候補、及び下瞼候補の内、上瞼候補um2と下瞼候補sm1とを拡大して示している。形状値算出部104は、1つの瞼候補の形状値として瞼候補の開度を算出するとき、図10に示すように、瞼候補データによって対応付けられている1つの上瞼候補を示す画素の中で垂直方向の最も高い位置に存在する頂点の画素utと、当該上瞼候補の識別子に瞼候補として対応付けられている識別子の下瞼候補を示す画素の中で垂直方向の最も低い位置に存在する頂点の画素dtとを結ぶ直線の長さを開度として算出してもよい。   FIG. 10 is a diagram illustrating the opening degree of the wrinkle candidate calculated by the shape value calculation unit 104 according to another embodiment. For the convenience of explanation, FIG. 10 shows the upper eyelid candidate um2 and the lower eyelid candidate sm1 enlarged among the upper eyelid candidate and the lower eyelid candidate shown in FIG. When the shape value calculating unit 104 calculates the opening degree of the eyelid candidate as the shape value of one eyelid candidate, as illustrated in FIG. 10, the pixel value indicating one upper eyelid candidate associated with the eyelid candidate data is displayed. The pixel ut at the vertex in the highest position in the vertical direction and the lowest pixel in the vertical direction among the pixels indicating the lower eyelid candidate of the identifier associated as the eyelid candidate with the identifier of the upper eyelid candidate You may calculate the length of the straight line which connects the pixel dt of the existing vertex as an opening degree.

図11A乃至図11Cは、それぞれ検出部102によって検出された上瞼候補um2、及び下瞼候補sm1とを組み合わせた瞼候補の形状がそれぞれ細目に近い形状、標準の形状に近い形状、及び丸目に近い形状であった場合の開度kdの一例をそれぞれ示す図である。図11A乃至図11Cにそれぞれ示すように、形状値算出部104によって形状値として算出される開度kdは、それぞれ細目、標準、及び丸目の順番に大きくなり、上述で説明した傾きと同様に、上瞼候補、及び下瞼候補を組み合わせた瞼候補の眼の形状の指標となる。   11A to 11C show the shape of the eyelid candidate combining the upper eyelid candidate um2 and the lower eyelid candidate sm1 detected by the detection unit 102, respectively, a shape close to a fine shape, a shape close to a standard shape, and a round shape. It is a figure which shows an example of the opening degree kd when it is a near shape, respectively. As shown in FIG. 11A to FIG. 11C, the opening degree kd calculated as the shape value by the shape value calculation unit 104 increases in the order of fine, standard, and round, respectively, and similarly to the inclination described above, It becomes an index of the eye shape of the eyelid candidate combining the upper eyelid candidate and the lower eyelid candidate.

形状値算出部104が形状値として開度を算出する場合でも、選択部105は、上述したように形状値としきい値とを比較することにより、形状値として傾きを算出する場合と同様に、瞼候補の形状の指標となる形状値に応じて、瞼候補の形状に応じて上述したように予め定めた目尻目頭パターンの中から、瞼候補データによって示される瞼候補毎に適切な目尻目頭パターンを選択することができる。   Even when the shape value calculation unit 104 calculates the opening degree as the shape value, the selection unit 105 compares the shape value with the threshold value as described above, as in the case where the inclination is calculated as the shape value. According to the shape value that is an index of the shape of the eyelid candidate, an appropriate eye corner eye pattern for each eyelid candidate indicated by the eyelid candidate data is selected from among the eye corner eye patterns previously determined according to the shape of the eyelid candidate. Can be selected.

また、他の一実施形態に係る形状値算出部104は、形状値として、瞼候補として組み合わされている上瞼候補の形状に最も近い円の曲率を瞼候補毎に算出してもよい。   In addition, the shape value calculation unit 104 according to another embodiment may calculate, as the shape value, the curvature of the circle closest to the shape of the upper eyelid candidate combined as the eyelid candidate for each eyelid candidate.

図12は、他の一実施形態に係る形状値算出部104によって算出される瞼候補の曲率を説明する図である。図12には、説明の便宜のため、図5に示す上瞼候補、及び下瞼候補の内、上瞼候補um2と下瞼候補sm1とを拡大して示している。形状値算出部104は、1つの瞼候補の形状値として瞼候補の曲率を算出するとき、図12に示すように、瞼候補データによって対応付けられている1つの上瞼候補を示す画素の形状に最も近い半径Rの円を求める演算をし、演算した円の曲率を形状値として算出してもよい。   FIG. 12 is a diagram illustrating the curvature of a wrinkle candidate calculated by the shape value calculation unit 104 according to another embodiment. For the convenience of explanation, FIG. 12 shows the upper eyelid candidate um2 and the lower eyelid candidate sm1 among the upper eyelid candidate and the lower eyelid candidate shown in FIG. When the shape value calculation unit 104 calculates the curvature of the eyelid candidate as the shape value of one eyelid candidate, as shown in FIG. 12, the shape of the pixel indicating one upper eyelid candidate associated with the eyelid candidate data It is also possible to calculate a circle having a radius R closest to, and calculate the curvature of the calculated circle as a shape value.

図13A乃至図13Cは、それぞれ検出部102によって検出された上瞼候補um2、及び下瞼候補sm1とを組み合わせた瞼候補の形状がそれぞれ細目に近い形状、標準の形状に近い形状、及び丸目に近い形状であった場合に曲率を算出する半径Rの円の一例をそれぞれ示す図である。図13A乃至図13Cにそれぞれ示すように、形状値算出部104によって形状値として算出される曲率は、前述の円の半径Rがそれぞれ細目、標準、及び丸目の順番に小さくなるため、それぞれ細目、標準、及び丸目の順番に大きくなり、上述で説明した傾きと同様に、上瞼候補、及び下瞼候補を組み合わせた瞼候補の眼の形状の指標となる。   FIG. 13A to FIG. 13C show that the shape of the eyelid candidate combining the upper eyelid candidate um2 and the lower eyelid candidate sm1 detected by the detection unit 102 is close to the fine shape, the shape close to the standard shape, and the round shape, respectively. It is a figure which respectively shows an example of the circle | round | yen of the radius R which calculates a curvature when it is a near shape. As shown in FIGS. 13A to 13C, the curvature calculated as the shape value by the shape value calculation unit 104 is such that the radius R of the circle decreases in the order of fine, standard, and round, respectively. It becomes larger in the order of standard and rounded eyes, and becomes an index of the eye shape of the eyelid candidate combining the upper eyelid candidate and the lower eyelid candidate in the same manner as the inclination described above.

形状値算出部104が形状値として曲率を算出する場合でも、上述したようにしきい値を定めた選択部105で上述したように形状値としきい値とを比較することにより、形状値として傾きを算出する場合と同様に、瞼候補の形状の指標となる形状値に応じて、瞼候補の形状に応じて上述したように予め定めた目尻目頭パターンの中から、瞼候補データによって示される瞼候補毎に適切な目尻目頭パターンを選択することができる。   Even when the shape value calculation unit 104 calculates the curvature as the shape value, the selection unit 105 that determines the threshold value as described above compares the shape value with the threshold value as described above, and thereby the inclination is obtained as the shape value. As in the case of the calculation, the eyelid candidate indicated by the eyelid candidate data is selected from the eye corner eye patterns determined in advance according to the shape of the eyelid candidate according to the shape value serving as an index of the shape of the eyelid candidate. An appropriate eye corner pattern can be selected for each.

また、他の一実施形態に係る眼検出装置1では、図9のフローチャートに示す処理の内、ステップS101乃至ステップS108までの処理、すなわち、目尻目頭パターンの選択までの処理を、例えば、車両に取り付けられた照度センサ(コンライトセンサ)によって検出される環境光の照度が予め定められたしきい値未満であるときのみに行うようにしてもよい。そして、一度目尻目頭パターンを選択した後は、運転者が変わらない限り、選択部105の処理を省略したステップS101乃至ステップS109までの処理をして、瞼の特定をしてよい。車両に取り付けられた照度センサとは、例えば、図3に示すように車両の速度などを示す計器盤の背面方向のインストルメントパネル上に設置され、車両の周囲の環境光の照度を検出する照度センサであってもよい。照度センサによって検出される環境光の照度が予め定められたしきい値未満であるときのみに目尻目頭パターンの選択をすることにより、太陽光などを含む環境光の影響を受けない顔画像に基づいて、より正確に目尻目頭パターンを選択した後に、より正確な目尻目頭パターンで瞼の特定をすることができる。   Further, in the eye detection device 1 according to another embodiment, among the processing shown in the flowchart of FIG. 9, the processing from step S101 to step S108, that is, the processing until the selection of the eye corner pattern is performed, for example, on the vehicle. It may be performed only when the illuminance of the ambient light detected by the attached illuminance sensor (conlight sensor) is less than a predetermined threshold value. Then, once the eye corner pattern is selected, as long as the driver does not change, the process from step S101 to step S109 in which the process of the selection unit 105 is omitted may be specified. The illuminance sensor attached to the vehicle is, for example, an illuminance that is installed on an instrument panel in the back direction of the instrument panel indicating the speed of the vehicle as shown in FIG. 3 and detects the illuminance of ambient light around the vehicle It may be a sensor. Based on facial images that are not affected by ambient light, including sunlight, by selecting the corner-eye pattern only when the ambient light illuminance detected by the illuminance sensor is below a predetermined threshold Thus, after more accurately selecting the outer corner of the eye pattern, it is possible to identify the eyelid with the more accurate outer corner of the eye pattern.

また、他の一実施形態に係る眼検出装置1では、現在の時刻を検出する時計、或いはタイマーなどの計時装置を用いて、例えば、計時装置によって示される時刻が夜間を示すときにのみ、図9のフローチャートに示す処理の内、ステップS101乃至ステップS108までの処理、すなわち、目尻目頭パターンの選択までの処理をするようにしてもよい。そして、一度目尻目頭パターンを選択した後は、運転者が変わらない限り、選択部105の処理を省略したステップS101乃至ステップS109までの処理をして、瞼の特定をしてよい。夜間であるときのみに目尻目頭パターンの選択をすることにより、太陽光などを含む環境光の影響を受けない顔画像に基づいて、より正確に目尻目頭パターンを選択した後に、より正確な目尻目頭パターンで瞼の特定をすることができる。   Further, in the eye detection device 1 according to another embodiment, a timepiece such as a clock or timer that detects the current time is used, for example, only when the time indicated by the timepiece indicates nighttime. Of the processes shown in the flowchart of FIG. 9, the processes from step S101 to step S108, that is, the process up to the selection of the corner area pattern may be performed. Then, once the eye corner pattern is selected, as long as the driver does not change, the process from step S101 to step S109 in which the process of the selection unit 105 is omitted may be specified. By selecting the upper corner of the eye pattern only when it is at night, a more accurate outer corner of the eye after selecting the outer eye pattern more accurately based on face images that are not affected by ambient light including sunlight. You can identify cocoons with patterns.

また、他の一実施形態に係る眼検出装置1では、車両に搭載されたワイパーが作動しているときにのみ、図9のフローチャートに示す処理の内、ステップS101乃至ステップS108までの処理、すなわち、目尻目頭パターンの選択までの処理をするようにしてもよい。そして、一度目尻目頭パターンを選択した後は、運転者が変わらない限り、選択部105の処理を省略したステップS101乃至ステップS109までの処理をして、瞼の特定をしてよい。ワイパーが作動しているときのみに目尻目頭パターンの選択をすることにより、雨天であって太陽光の影響を受けない顔画像に基づいて、より正確に目尻目頭パターンを選択した後に、より正確な目尻目頭パターンで瞼の特定をすることができる。   Further, in the eye detection device 1 according to another embodiment, only when the wiper mounted on the vehicle is operating, the processing from step S101 to step S108 in the processing shown in the flowchart of FIG. The processing up to the selection of the corner area pattern may be performed. Then, once the eye corner pattern is selected, as long as the driver does not change, the process from step S101 to step S109 in which the process of the selection unit 105 is omitted may be specified. By selecting the outer corner pattern only when the wiper is in operation, it is more accurate after selecting the outer corner pattern on the basis of a face image that is rainy and unaffected by sunlight. The eyelids can be identified by the pattern of the eyes.

また、本発明に係る眼検出装置1は、例えば、近年、車両などの移動体に搭載されている運転者の状態を監視する、一般的には、ドライバーモニタシステムと呼ばれるシステムに適用することができる。より詳細には、近年、車両などの移動体には、運転者の顔画像に基づいて瞼の開度、及び顔向きの角度などを検出し、居眠り運転、及び脇見運転などをしていると判断したときに運転者に警告を発するシステムが搭載されている。このようなシステムでは、運転者の瞼の開度、及び顔向きの角度などを検出するときに、本発明で類似度を算出した瞼候補の開度のみを算出し、さらに、このようにして算出した瞼候補の開度に基づき瞬きをしたと判断した瞼候補の位置を運転者の眼の顔画像における位置として確定する手法が採用されている場合がある。そして、このように確定した顔画像における運転者の眼の位置に基づき、前述のシステムでは顔向きの角度を検出している場合もある。本発明によれば、このようなシステムにおいて類似度を算出するときの精度を向上させることもできる。   The eye detection device 1 according to the present invention can be applied to a system generally called a driver monitor system that monitors the state of a driver mounted on a moving body such as a vehicle in recent years. it can. More specifically, in recent years, a moving body such as a vehicle has been detected to detect the opening degree of the heel and the angle of the face based on the driver's face image, and perform a doze driving, a side-viewing driving, etc. It is equipped with a system that issues a warning to the driver when judged. In such a system, when detecting the opening degree of the driver's eyelids, the angle of the face, etc., only the opening degree of the eyelid candidate whose similarity is calculated in the present invention is calculated. There is a case where a method is adopted in which the position of the eyelid candidate determined to have blinked based on the calculated opening degree of the eyelid candidate is determined as the position in the face image of the driver's eye. Then, based on the position of the driver's eyes in the face image determined in this way, the face angle may be detected by the above-described system. According to the present invention, it is possible to improve the accuracy when calculating the similarity in such a system.

また、上述したように環境光の照度がしきい値未満であるときのみ、夜間であるときのみ、及びワイパーが作動しているときのみに図9のフローチャートに示す処理の内、ステップS101乃至ステップS108までの処理、すなわち、目尻目頭パターンの選択までの処理をする他の一実施形態で、本発明を上述したシステムに適用する場合には、当該システムが瞼を特定しようとするタイミングで、一度も目尻目頭パターンが選択されていない場合が生じる可能性がある。このようなときは、予めデフォルトとして定めた目尻目頭パターンを用いて瞼を特定するようにしてもよい。   Also, as described above, only when the ambient light illuminance is less than the threshold value, only at night, and only when the wiper is in operation, steps S101 through S101 are included in the processing shown in the flowchart of FIG. When the present invention is applied to the above-described system in another embodiment in which the processing up to S108, that is, the processing up to the selection of the eye corner pattern is performed, once the system tries to identify the eyelid, However, there is a possibility that a corner pattern is not selected. In such a case, the eyelid may be specified using a corner-eye pattern that is set in advance as a default.

以上、本発明を詳細に説明してきたが、上述の説明はあらゆる点において本発明の一例にすぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。   Although the present invention has been described in detail above, the above description is merely an example of the present invention in all respects and is not intended to limit the scope thereof. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention.

本発明によれば、人の顔の中でも特に目尻、及び目頭を正確に検出できる眼検出装置を提供することができ、例えば、自動車などの移動体に搭載される眼検出装置などに利用できる。   ADVANTAGE OF THE INVENTION According to this invention, the eye detection apparatus which can detect especially an eye corner and an eye head especially in a human face can be provided, For example, it can utilize for the eye detection apparatus etc. which are mounted in moving bodies, such as a motor vehicle.

1 眼検出装置
101 撮像部
102 検出部
103 組み合わせ部
104 形状値算出部
105 選択部
106 特定部
107 記憶部
DESCRIPTION OF SYMBOLS 1 Eye detection apparatus 101 Imaging part 102 Detection part 103 Combining part 104 Shape value calculation part 105 Selection part 106 Identification part 107 Storage part

Claims (11)

対象者の顔を含む画像を顔画像として撮像する撮像手段と、
前記撮像手段によって撮像された前記顔画像に基づき、前記対象者の上瞼と下瞼とをそれぞれ示す画素の候補の組み合わせをそれぞれ瞼候補として検出する検出手段と、
前記顔画像の中で前記検出手段によって検出された前記瞼候補毎の目尻、及び目頭を示す画像との類似度を算出するために予め定められた画像の目尻目頭パターンを2以上だけ記憶する記憶手段と、
前記検出手段によって検出された前記瞼候補毎の形状を示す形状値に基づき、前記記憶手段に記憶された前記目尻目頭パターンの中から1つの前記目尻目頭パターンを当該瞼候補毎に選択して対応付ける選択手段と、
前記顔画像の中で前記検出手段によって検出された前記瞼候補毎の目尻、及び目頭を示す画像と、前記選択手段によって当該瞼候補毎に選択された前記目尻目頭パターンの画像との前記類似度をそれぞれ算出する特定手段とを備える、眼検出装置。
Imaging means for imaging an image including the face of the subject as a face image;
Detection means for detecting each candidate combination of pixels indicating the upper eyelid and lower eyelid of the subject as the eyelid candidates based on the face image imaged by the imaging means;
A memory for storing only two or more eye corner patterns of a predetermined image for calculating a similarity between the eye corners for each eyelid candidate detected by the detection means in the face image and an image indicating the eye head Means,
Based on the shape value indicating the shape of each eyelid candidate detected by the detecting means, one eye corner eye pattern is selected from the eye corner eye pattern stored in the storage means and associated with each eyelid candidate. A selection means;
The similarity between the image showing the eye corners and the eyes of each eyelid candidate detected by the detection means in the face image, and the image of the eye corners eye pattern selected for each eyelid candidate by the selection means An eye detection apparatus comprising: a specifying unit that calculates each of.
前記検出手段によって検出された前記瞼候補として組み合わされた前記下瞼の候補を示す画素の目尻側、及び目頭側の少なくともいずれか一方の端点と、前記上瞼の候補を示す画素の中で前記顔画像における垂直方向の最も高い頂点の画素とを結ぶ線の傾きを前記形状値として検出する傾き検出手段をさらに備え、
前記選択手段は、前記傾き検出手段によって検出された前記傾きに基づき、前記目尻目頭パターンを選択する、請求項1に記載の眼検出装置。
Among the pixels indicating the upper eyelid candidate and at least one end point of the eye corner side and the eye side of the pixel indicating the lower eyelid candidate combined as the eyelid candidate detected by the detecting means Further comprising an inclination detection means for detecting an inclination of a line connecting a pixel at the highest vertex in the vertical direction in the face image as the shape value;
The eye detection device according to claim 1, wherein the selection unit selects the eye corner pattern based on the inclination detected by the inclination detection unit.
前記傾き検出手段は、前記検出手段によって検出された前記瞼候補としてそれぞれ組み合わされる前記下瞼の候補を示す画素の目尻側の端点と、前記頂点の画素とを結ぶ線の傾きを前記形状値として検出する、請求項2に記載の眼検出装置。   The inclination detection means uses, as the shape value, an inclination of a line connecting the end point on the outer corner side of the pixel indicating the lower eyelid candidate combined with the eyelid candidate detected as the eyelid candidate detected by the detection means, and the vertex pixel. The eye detection device according to claim 2, which detects the eye detection device. 前記傾き検出手段は、前記検出手段によって検出された前記瞼候補としてそれぞれ組み合わされる前記下瞼の候補を示す画素の目頭側の端点と、前記頂点の画素とを結ぶ線の傾きを前記形状値として検出する、請求項2に記載の眼検出装置。   The inclination detection means uses, as the shape value, an inclination of a line connecting an end point on the top side of a pixel indicating the lower eyelid candidate combined with the eyelid candidate detected as the eyelid candidate detected by the detection means, and the vertex pixel. The eye detection device according to claim 2, which detects the eye detection device. 前記傾き検出手段は、前記検出手段によって検出された前記瞼候補としてそれぞれ組み合わされる前記下瞼の候補の目尻側の端点の画素と目頭側の端点の画素とのそれぞれと前記頂点の画素とを結ぶ線の傾きを前記形状値として検出する、請求項2に記載の眼検出装置。   The inclination detection unit connects each of the pixel at the corner of the eye corner and the pixel at the corner of the eye of the lower eyelid candidate combined with each of the candidates for the eyelid detected by the detection unit and the pixel at the vertex. The eye detection device according to claim 2, wherein an inclination of a line is detected as the shape value. 前記検出手段によって検出された前記瞼候補毎に瞼の開度を前記形状値として検出する開度検出手段をさらに備え、
前記選択手段は、前記開度検出手段によって検出された前記開度に基づき、前記目尻目頭パターンを選択する、請求項1に記載の眼検出装置。
Opening degree detecting means for detecting the opening degree of the eyelid as the shape value for each eyelid candidate detected by the detecting means;
The eye detection apparatus according to claim 1, wherein the selection unit selects the eye corner pattern based on the opening detected by the opening detection unit.
前記検出手段によって検出された前記瞼候補毎に、当該瞼候補として組み合わされた前記上瞼の候補の画素の曲率を前記形状値として検出する曲率検出手段をさらに備え、
前記選択手段は、前記曲率検出手段によって検出された前記曲率に基づき、前記目尻目頭パターンを選択する、請求項1に記載の眼検出装置。
Curvature detection means for detecting, as the shape value, the curvature of the upper eyelid candidate pixel combined as the eyelid candidate for each of the eyelid candidates detected by the detection means,
The eye detection apparatus according to claim 1, wherein the selection unit selects the eye corner pattern based on the curvature detected by the curvature detection unit.
前記対象者に照射される環境光の照度を検出する照度検出手段をさらに備え、
前記選択手段は、前記照度検出手段によって検出される環境光の照度が予め定められたしきい値未満であるとき、前記目尻目頭パターンを選択する、請求項1に記載の眼検出装置。
Further comprising illuminance detection means for detecting the illuminance of the ambient light irradiated to the subject,
The eye detection apparatus according to claim 1, wherein the selection unit selects the eye corner pattern when the illuminance of the ambient light detected by the illuminance detection unit is less than a predetermined threshold value.
現在の時刻を検知する時刻検知手段をさらに備え、
前記選択手段は、前記時刻検知手段によって検出される時刻が夜間を示すとき、前記目尻目頭パターンを選択する、請求項1に記載の眼検出装置。
It further comprises time detection means for detecting the current time,
The eye detection device according to claim 1, wherein the selection unit selects the eye corner pattern when the time detected by the time detection unit indicates night.
車両に搭載され、
前記車両のワイパーが作動しているか否かを判断する作動検出手段をさらに備え、
前記選択手段は、前記作動検出手段によってワイパーが作動していると判断されたとき、前記目尻目頭パターンを選択する、請求項1に記載の眼検出装置。
Mounted on the vehicle,
An operation detecting means for determining whether or not the vehicle wiper is operating;
The eye detection device according to claim 1, wherein the selection unit selects the eye corner pattern when it is determined by the operation detection unit that a wiper is operating.
対象者の顔を含む画像を顔画像として撮像する撮像ステップと、
前記撮像ステップで撮像された前記顔画像に基づき、前記対象者の上瞼と下瞼とをそれぞれ示す画素の候補の組み合わせをそれぞれ瞼候補として検出する検出ステップと、
前記顔画像の中で前記検出ステップにおいて検出された前記瞼候補毎の目尻、及び目頭を示す画像との類似度を算出するために予め定められた画像の2以上の目尻目頭パターンの中から、当該瞼候補毎の形状を示す形状値に基づき、1つの前記目尻目頭パターンを当該瞼候補毎に選択して対応付ける選択ステップと、
前記顔画像の中で前記検出ステップにおいて検出された前記瞼候補毎の目尻、及び目頭を示す画像と、前記選択ステップにおいて当該瞼候補毎に選択された前記目尻目頭パターンの画像との前記類似度をそれぞれ算出する特定ステップとを備える、眼検出方法。
An imaging step of capturing an image including the face of the subject as a face image;
A detection step of detecting each candidate combination of pixels indicating the upper eyelid and the lower eyelid of the target person as an eyelid candidate based on the face image imaged in the imaging step;
Among the two or more eye corner eye patterns of a predetermined image for calculating the degree of similarity between the eye corner for each eyelid candidate detected in the detection step in the face image and an image indicating the eye head, A selection step of selecting and correlating one eye corner pattern for each eyelid candidate based on a shape value indicating the shape of each eyelid candidate;
The similarity between the image showing the eye corners and the eyes for each eyelid candidate detected in the detection step in the face image, and the image of the eye corners eye pattern selected for each eyelid candidate in the selection step And a specific step of calculating each of the eye detection methods.
JP2009051222A 2009-03-04 2009-03-04 Eye detecting device, and method used in the device Pending JP2010205076A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009051222A JP2010205076A (en) 2009-03-04 2009-03-04 Eye detecting device, and method used in the device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009051222A JP2010205076A (en) 2009-03-04 2009-03-04 Eye detecting device, and method used in the device

Publications (1)

Publication Number Publication Date
JP2010205076A true JP2010205076A (en) 2010-09-16

Family

ID=42966472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009051222A Pending JP2010205076A (en) 2009-03-04 2009-03-04 Eye detecting device, and method used in the device

Country Status (1)

Country Link
JP (1) JP2010205076A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115771387A (en) * 2021-09-06 2023-03-10 博泰车联网(南京)有限公司 Sun shield control method and device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115771387A (en) * 2021-09-06 2023-03-10 博泰车联网(南京)有限公司 Sun shield control method and device

Similar Documents

Publication Publication Date Title
EP2074550B1 (en) Eye opening detection system and method of detecting eye opening
CN104200192B (en) Driver&#39;s gaze detection system
JP4307496B2 (en) Facial part detection device and program
US8345922B2 (en) Apparatus for detecting a pupil, program for the same, and method for detecting a pupil
JP5592441B2 (en) Light distribution control device
WO2016038784A1 (en) Driver state determination apparatus
JP4793269B2 (en) Sleepiness detection device
JP4840146B2 (en) Sleepiness detection device
JP5737401B2 (en) 瞼 Detection device
JP4992823B2 (en) Face detection apparatus and face detection method
JP6855872B2 (en) Face recognition device
JP4989249B2 (en) Eye detection device, dozing detection device, and method of eye detection device
JP2009219555A (en) Drowsiness detector, driving support apparatus, drowsiness detecting method
JP2010191793A (en) Alarm display and alarm display method
JP2014109958A (en) Photographed image display device, and photographed image display method
JP2008257574A (en) Image processing method, image processing device, image processing system and computer program
JP2008183933A (en) Noctovision equipment
JP2004053324A (en) Collision safety controller for automobile
JP2009125518A (en) Driver&#39;s blink detection method, driver&#39;s awakening degree determination method, and device
JP4623172B2 (en) Pupil detection device, program for pupil detection device, and pupil detection method
JP2010205076A (en) Eye detecting device, and method used in the device
JPH1044824A (en) Driver&#39;s-eye open/closed state determination device for vehicle
JP4623171B2 (en) Pupil detection device, program for pupil detection device, and pupil detection method
KR101360412B1 (en) A system for monitoring loose/droway driver using head moving information
JP4781292B2 (en) Closed eye detection device, dozing detection device, closed eye detection method, and closed eye detection program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110901