JP2010205076A - Eye detecting device, and method used in the device - Google Patents
Eye detecting device, and method used in the device Download PDFInfo
- Publication number
- JP2010205076A JP2010205076A JP2009051222A JP2009051222A JP2010205076A JP 2010205076 A JP2010205076 A JP 2010205076A JP 2009051222 A JP2009051222 A JP 2009051222A JP 2009051222 A JP2009051222 A JP 2009051222A JP 2010205076 A JP2010205076 A JP 2010205076A
- Authority
- JP
- Japan
- Prior art keywords
- eye
- candidate
- eyelid
- eyelid candidate
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、顔画像に基づいて人の眼を検出する検出装置、及び方法に関する。 The present invention relates to a detection apparatus and method for detecting a human eye based on a face image.
従来、人の顔を含む画像を撮像し、撮像した画像に基づいて人の眼を検出する様々な検出装置が開発されている。このような検出装置の一例として、例えば、特許文献1に記載の眼検出装置(以下、従来技術と称する)が挙げられる。 2. Description of the Related Art Conventionally, various detection devices that capture an image including a human face and detect a human eye based on the captured image have been developed. As an example of such a detection apparatus, for example, an eye detection apparatus described in Patent Document 1 (hereinafter referred to as a conventional technique) can be given.
従来技術では、車両を運転している運転者の背景を含む顔を顔画像として撮像する。顔画像を撮像すると、従来技術では、例えば、横エッジ検出用ソーベルフィルタ、及び縦エッジ検出用ソーベルフィルタなどのフィルタ処理を顔画像に対してすることによって、顔画像の中から運転者の上瞼と下瞼との組み合わせの候補を瞼候補として検出する。瞼候補を検出すると、従来技術では、瞼候補の中から瞼を特定するために、それぞれの瞼候補の下瞼の左右端に目尻目頭領域をそれぞれ設定する。 In the prior art, a face including the background of the driver driving the vehicle is captured as a face image. When a face image is captured, in the prior art, for example, by performing filter processing such as a horizontal edge detection Sobel filter and a vertical edge detection Sobel filter on the face image, the driver's image is detected from the face image. A candidate for a combination of upper and lower eyelids is detected as a candidate for eyelids. When the eyelid candidates are detected, in the prior art, in order to identify the eyelids from the eyelid candidates, eye corner areas are respectively set on the left and right ends of the lower eyelids of the eyelid candidates.
従来技術では、予め定められた目尻目頭パターンを、フィルタ処理をする前の顔画像における目尻目頭領域に重畳させ、重畳させた目尻目頭パターンにおける肌部分の画素と重複する顔画像の画素の輝度値の平均値(以下、肌画素平均値と称する)と、重複させた目尻目頭パターンにおける眼部分の画素と重複する顔画像の画素の輝度値の平均値(以下、眼画素平均値と称する)とを算出する。肌画素平均値と、眼画素平均値とを算出するとき、従来技術では、瞼候補毎に左右の目尻目頭領域の肌画素平均値と、眼画素平均値とをそれぞれ算出する。 In the prior art, a predetermined brightness value of a face image pixel is overlapped with a skin area pixel in the overlapped eye corner eye pattern by superimposing a predetermined eye corner eye pattern in the face image before the filtering process. Average value (hereinafter referred to as skin pixel average value) and an average value of luminance values of face image pixels overlapping with pixels of the eye part in the overlapped eye corner pattern (hereinafter referred to as eye pixel average value). Is calculated. When calculating the skin pixel average value and the eye pixel average value, the conventional technique calculates the skin pixel average value and the eye pixel average value of the left and right eye corner areas for each eyelid candidate.
瞼候補毎に左右の肌画素平均値と、眼画素平均値とを算出すると、従来技術では、肌画素平均値から眼画素平均値を引いた目尻目頭評価値を、設定した目尻目頭領域毎に算出する。従来技術では、それぞれの瞼候補の左右の目尻目頭領域毎に目尻目頭評価値を算出する。目尻目頭評価値を算出すると、従来技術では、左の目尻目頭評価値と右の目尻目頭評価値との加算値を、それぞれの瞼候補の左右の目尻目頭領域毎に算出し、算出した加算値が最も大きい瞼候補と、2番目に大きい瞼候補とを目尻目頭パターンで示される目尻、及び目頭に最も近い目尻、及び目頭と2番目に近い目尻、及び目頭をそれぞれ有する左右の瞼として特定する。 When the average value of the left and right skin pixels and the average value of the eye pixels are calculated for each eyelid candidate, in the conventional technique, an eye corner eye evaluation value obtained by subtracting the eye pixel average value from the skin pixel average value is set for each set eye corner eye area. calculate. In the prior art, the eye corner eye evaluation value is calculated for each of the left and right eye corner areas of each eyelid candidate. When calculating the eye corner eye evaluation value, in the conventional technology, the addition value of the left eye corner eye evaluation value and the right eye corner eye evaluation value is calculated for each right and left eye corner area of each eyelid candidate, and the calculated addition value Identifies the candidate with the largest eyelid and the candidate with the second largest eyelid as the left and right eyelids having the eye corners indicated by the eye corner-eye pattern, the eye corner closest to the eye corner, the eye corner second and the eye corner closest to the eye, and the eye head, respectively. .
しかしながら、上記従来技術では、以下に述べるような課題を有する。すなわち、人の眼の形状には、丸目、及び細目などの個人差がある。しかし、上記従来技術では、1種類の目尻目頭パターンだけを用いて目尻目頭評価値を算出するため、当該目尻目頭パターンと大きく異なる形状の眼の目尻、及び目頭に近い目尻、及び目頭を有する瞼候補を瞼として正確に検出することができない。 However, the above prior art has the following problems. That is, there are individual differences in the shape of the human eye, such as round eyes and fine eyes. However, in the above prior art, since the eye-eye-eye evaluation value is calculated using only one kind of eye-eye-eye-head pattern, the eye-eye of the eye having a shape greatly different from the eye-eye-eye-head pattern, the eye-ear close to the eye, and the eyelid Candidates cannot be accurately detected as traps.
それ故に、本発明は、人の眼の形状に個人差があったとしても、目尻、及び目頭を正確に検出できる眼検出装置を提供することを目的とする。 Therefore, an object of the present invention is to provide an eye detection device that can accurately detect the corners of the eyes and the eyes even if there are individual differences in the shape of human eyes.
本発明は、上記目的を達成するために、以下に示すような特徴を有する。
第1の発明は、対象者の顔を含む画像を顔画像として撮像する撮像手段と、撮像手段によって撮像された顔画像に基づき、対象者の上瞼と下瞼とをそれぞれ示す画素の候補の組み合わせをそれぞれ瞼候補として検出する検出手段と、顔画像の中で検出手段によって検出された瞼候補毎の目尻、及び目頭を示す画像との類似度を算出するために予め定められた画像の目尻目頭パターンを2以上だけ記憶する記憶手段と、検出手段によって検出された瞼候補毎の形状を示す形状値に基づき、記憶手段に記憶された目尻目頭パターンの中から1つの目尻目頭パターンを当該瞼候補毎に選択して対応付ける選択手段と、顔画像の中で検出手段によって検出された瞼候補毎の目尻、及び目頭を示す画像と、選択手段によって当該瞼候補毎に選択された目尻目頭パターンの画像との類似度をそれぞれ算出する特定手段とを備える。
In order to achieve the above object, the present invention has the following features.
According to a first aspect of the present invention, there are provided an imaging unit that captures an image including a face of the subject as a face image, and pixel candidates that respectively indicate the upper eyelid and the lower eyelid of the subject based on the face image captured by the imaging unit. A detection unit that detects each combination as a candidate for eyelids, an eye corner for each eyelid candidate detected by the detection unit in the face image, and an eye corner of a predetermined image for calculating the similarity between the images indicating the eyes Based on the shape value indicating the shape of each eyelid candidate detected by the detecting means and the storage means for storing only two or more eyeball patterns, one eye corner eye pattern is selected from the eye corner eye pattern stored in the memory means. Selection means for selecting and associating with each candidate, an image showing the eye corners and eyes of each eyelid candidate detected by the detecting means in the face image, and the eye selected for each eyelid candidate by the selection means And a specifying unit configured to calculate a similarity between the image of inner corner pattern.
第2の発明は、上記第1の発明に従属する発明であって、検出手段によって検出された瞼候補として組み合わされた下瞼の候補を示す画素の目尻側、及び目頭側の少なくともいずれか一方の端点と、上瞼の候補を示す画素の中で顔画像における垂直方向の最も高い頂点の画素とを結ぶ線の傾きを形状値として検出する傾き検出手段をさらに備え、選択手段は、傾き検出手段によって検出された傾きに基づき、目尻目頭パターンを選択する。 A second invention is an invention subordinate to the first invention, and is at least one of a corner of the eye and a head of a pixel indicating a candidate for a lower eyelid combined as a candidate for eyelid detected by the detecting means And an inclination detecting means for detecting the inclination of a line connecting the end point of the image and the pixel at the highest vertex in the vertical direction in the face image among the pixels indicating the upper eyelid candidate, and the selecting means detects the inclination Based on the inclination detected by the means, an eye corner pattern is selected.
第3の発明は、上記第2の発明に従属する発明であって、傾き検出手段は、検出手段によって検出された瞼候補としてそれぞれ組み合わされる下瞼の候補を示す画素の目尻側の端点と、頂点の画素とを結ぶ線の傾きを形状値として検出する。 A third invention is an invention subordinate to the second invention, wherein the inclination detection means includes an end point on the eye corner side of a pixel indicating a lower eyelid candidate combined as an eyelid candidate detected by the detection means, The inclination of the line connecting the vertex pixel is detected as a shape value.
第4の発明は、上記第2の発明に従属する発明であって、傾き検出手段は、検出手段によって検出された瞼候補としてそれぞれ組み合わされる下瞼の候補を示す画素の目頭側の端点と、頂点の画素とを結ぶ線の傾きを形状値として検出する。 A fourth invention is an invention subordinate to the second invention, wherein the inclination detection means includes an end point on the top side of a pixel indicating a lower eyelid candidate combined as a eyelid candidate detected by the detection means, and The inclination of the line connecting the vertex pixel is detected as a shape value.
第5の発明は、上記第2の発明に従属する発明であって、傾き検出手段は、検出手段によって検出された瞼候補としてそれぞれ組み合わされる下瞼の候補の目尻側の端点の画素と目頭側の端点の画素とのそれぞれと頂点の画素とを結ぶ線の傾きを形状値として検出する。 The fifth invention is an invention subordinate to the second invention, wherein the inclination detecting means includes a pixel at an end of the eyelid side and a front side of a candidate for a lower eyelid combined as a candidate for eyelid detected by the detecting means. The slope of the line connecting each of the end point pixels and the vertex pixel is detected as a shape value.
第6の発明は、上記第1の発明に従属する発明であって、検出手段によって検出された瞼候補毎に瞼の開度を形状値として検出する開度検出手段をさらに備え、選択手段は、開度検出手段によって検出された開度に基づき、目尻目頭パターンを選択する。 A sixth invention is an invention subordinate to the first invention, further comprising opening degree detecting means for detecting the opening degree of the eyelid as a shape value for each eyelid candidate detected by the detecting means, and the selecting means comprises Then, based on the opening detected by the opening detection means, an eye corner pattern is selected.
第7の発明は、上記第1の発明に従属する発明であって、検出手段によって検出された瞼候補毎に、当該瞼候補として組み合わされた上瞼の候補の画素の曲率を形状値として検出する曲率検出手段をさらに備え、選択手段は、曲率検出手段によって検出された曲率に基づき、目尻目頭パターンを選択する。 The seventh invention is an invention subordinate to the first invention, and detects, for each wrinkle candidate detected by the detecting means, the curvature of a pixel of an upper eyelid candidate combined as the wrinkle candidate as a shape value. And a curvature detecting means for selecting the eye corner pattern based on the curvature detected by the curvature detecting means.
第8の発明は、上記第1の発明に従属する発明であって、対象者に照射される環境光の照度を検出する照度検出手段をさらに備え、選択手段は、照度検出手段によって検出される環境光の照度が予め定められたしきい値未満であるとき、目尻目頭パターンを選択する。 The eighth invention is an invention dependent on the first invention, further comprising illuminance detection means for detecting the illuminance of the ambient light irradiated to the subject, and the selection means is detected by the illuminance detection means. When the illuminance of the ambient light is less than a predetermined threshold, an eye corner-eye pattern is selected.
第9の発明は、上記第1の発明に従属する発明であって、現在の時刻を検知する時刻検知手段をさらに備え、選択手段は、時刻検知手段によって検出される時刻が夜間を示すとき、目尻目頭パターンを選択する。 A ninth invention is an invention subordinate to the first invention, further comprising time detection means for detecting the current time, and the selection means, when the time detected by the time detection means indicates nighttime, Select the corner pattern.
第10の発明は、上記第1の発明に従属する発明であって、車両に搭載され、車両のワイパーが作動しているか否かを判断する作動検出手段をさらに備え、選択手段は、作動検出手段によってワイパーが作動していると判断されたとき、目尻目頭パターンを選択する。 A tenth invention is an invention subordinate to the first invention, further comprising operation detection means mounted on the vehicle for determining whether or not a wiper of the vehicle is operating, and the selection means is an operation detection When it is determined by the means that the wiper is operating, an eye corner pattern is selected.
第11の発明は、対象者の顔を含む画像を顔画像として撮像する撮像ステップと、撮像ステップで撮像された顔画像に基づき、対象者の上瞼と下瞼とをそれぞれ示す画素の候補の組み合わせをそれぞれ瞼候補として検出する検出ステップと、顔画像の中で検出ステップにおいて検出された瞼候補毎の目尻、及び目頭を示す画像との類似度を算出するために予め定められた画像の2以上の目尻目頭パターンの中から、当該瞼候補毎の形状を示す形状値に基づき、1つの目尻目頭パターンを当該瞼候補毎に選択して対応付ける選択ステップと、顔画像の中で検出ステップにおいて検出された瞼候補毎の目尻、及び目頭を示す画像と、選択ステップにおいて当該瞼候補毎に選択された目尻目頭パターンの画像との類似度をそれぞれ算出する特定ステップとを備える。 An eleventh aspect of the present invention is an imaging step of capturing an image including a face of the subject as a face image, and pixel candidates indicating the upper eyelid and the lower eyelid of the subject based on the face image captured in the imaging step. The detection step for detecting each combination as a wrinkle candidate, and 2 of images determined in advance to calculate the similarity between the image indicating the eye corners and the eyes for each wrinkle candidate detected in the detection step in the face image Based on the shape value indicating the shape of each eyelid candidate from the above eye corner eye pattern, a selection step for selecting and correlating one eye corner eye pattern for each eyelid candidate, and detection in the detection step in the face image A specific step for calculating the similarity between the image indicating the corners and the eyes of each eyelid candidate and the image of the eye corners pattern selected for each eyelid candidate in the selection step. And a flop.
上記第1の発明によれば、顔画像における瞼候補の形状に基づいて、顔画像における目尻、及び目頭を検出するための目尻目頭パターンを選択するので、人の眼の形状に個人差があったとしても、目尻、及び目頭を正確に検出できる。 According to the first aspect of the invention, since the corners of the face image and the corners of the eyes for detecting the eyes are selected based on the shape of the eyelid candidate in the face image, there are individual differences in the shape of the human eye. Even so, the corners of the eyes and the head of the eyes can be accurately detected.
上記第2の発明によれば、瞼候補として上瞼候補と組み合わされる下瞼候補を示す画素の目頭側、及び目尻側の少なくともいずれか一方の端点と、当該上瞼候補を示す画素の頂点とを結ぶ線の傾きとして検出された形状値に基づいて、目尻目頭パターンを選択できる。 According to the second aspect of the present invention, at least one of the endpoints of the top side and the bottom side of the pixel indicating the lower eyelid candidate combined with the upper eyelid candidate as the eyelid candidate, and the vertex of the pixel indicating the upper eyelid candidate An eye corner pattern can be selected based on the shape value detected as the slope of the line connecting the two.
上記第3の発明によれば、瞼候補として上瞼候補と組み合わされる下瞼候補を示す画素の目尻側の端点と、当該上瞼候補を示す画素の頂点とを結ぶ線の傾きとして検出された形状値に基づいて、目尻目頭パターンを選択できる。 According to the third aspect, the inclination of the line connecting the end of the pixel indicating the lower eyelid candidate combined with the upper eyelid candidate as the eyelid candidate and the vertex of the pixel indicating the upper eyelid candidate is detected. Based on the shape value, an eye corner pattern can be selected.
上記第4の発明によれば、瞼候補として上瞼候補と組み合わされる下瞼候補を示す画素の目頭側の端点と、当該上瞼候補を示す画素の頂点とを結ぶ線の傾きとして検出された形状値に基づいて、目尻目頭パターンを選択できる。 According to the fourth aspect of the invention, it is detected as the slope of the line connecting the top end of the pixel indicating the lower eyelid candidate combined with the upper eyelid candidate as the eyelid candidate and the vertex of the pixel indicating the upper eyelid candidate. Based on the shape value, an eye corner pattern can be selected.
上記第5の発明によれば、瞼候補として上瞼候補と組み合わされる下瞼候補を示す画素の目頭側の端点と目頭側の端点とを結ぶ線とのそれぞれと上瞼候補を示す画素の頂点とを結ぶそれぞれの線の傾きとして検出された形状値に基づいて、目尻目頭パターンを選択できる。 According to the fifth aspect, each of the line connecting the end point on the eye side of the pixel indicating the lower eyelid candidate combined with the upper eyelid candidate as the eyelid candidate and the vertex of the pixel indicating the upper eyelid candidate Can be selected based on the shape value detected as the slope of each line connecting the two.
上記第6の発明によれば、瞼の開度に基づいて、目尻目頭パターンを選択できる。 According to the sixth aspect of the present invention, an eye corner pattern can be selected based on the opening degree of the eyelid.
上記第7の発明によれば、上瞼候補を示す画素の曲率半径に基づいて、目尻目頭パターンを選択できる。 According to the seventh aspect, it is possible to select an eye corner pattern based on the radius of curvature of the pixel indicating the upper eyelid candidate.
上記第8の発明によれば、環境光の影響を受けずに撮像した顔画像に基づいて目尻目頭パターンを選択できる。 According to the eighth aspect of the invention, it is possible to select an eye corner pattern based on a face image captured without being affected by ambient light.
上記第9の発明によれば、環境光の影響を受けずに撮像した顔画像に基づいて目尻目頭パターンを選択できる。 According to the ninth aspect, it is possible to select an eye corner pattern based on a face image captured without being affected by ambient light.
上記第10の発明によれば、雨天のために環境光の影響を受けずに撮像した運転者の顔画像に基づいて目尻目頭パターンを選択できる。 According to the tenth aspect of the invention, it is possible to select an eye corner pattern based on a driver's face image captured without being affected by ambient light due to rain.
また、本発明における眼検出方法によれば、本発明に係る上述した眼検出装置と同様の効果を得ることができる。 Further, according to the eye detection method of the present invention, the same effects as those of the above-described eye detection device according to the present invention can be obtained.
(第1の実施形態)
図1は、本発明の第1の実施形態に係る眼検出装置1の機能構成を示す機能ブロック図である。本実施形態に係る眼検出装置1は、撮像部101と、検出部102と、組み合わせ部103と、形状値算出部104と、選択部105と、特定部106と、記憶部107とを備える。尚、本実施形態の説明では、眼検出装置1で、車両を運転している運転者の顔を含む画像を撮像した顔画像を処理する場合を一例として説明する。
(First embodiment)
FIG. 1 is a functional block diagram showing a functional configuration of the
撮像部101は、典型的にはCCDカメラであって、図2に一例として示すような、運転者の顔を含む画像を顔画像として逐次撮像し、顔画像を撮像する度に、撮像した顔画像を示す顔画像データを生成する。撮像部101の車両における設置位置は、本実施形態に係る眼検出装置1で運転者の顔の目尻、及び目頭などを正確に認識できるのであればどのような設置位置であってもよいが、一例としては、図3に示すように、運転席に着座した運転者の顔を正面から撮像できるように車両のステアリングコラムの上部に設置してもよい。また、撮像部101を設置するときに、撮像部101の撮像範囲に赤外光を照射する光源も設置し、赤外領域の波長の光に対する感度を相対的に高めた撮像部101を用いて顔画像を撮像してもよい。
The
検出部102と、組み合わせ部103と、形状値算出部104と、選択部105と、特定部106との機能構成は、典型的には、CPU、LSI、及びマイクロコンピュータなどの集積回路からなる制御部であって、記憶部107から予め定められたプログラムを当該制御部が読み出して解釈実行することによって、当該制御部がそれぞれの機能構成として適宜処理をすることによって実現される。
The functional configurations of the
検出部102は、撮像部101によって顔画像データが生成される度に生成された顔画像データを取得する。顔画像データを取得すると、検出部102は、取得した顔画像データを記憶部107に記憶させる。顔画像データを記憶部107に記憶させると、検出部102は、記憶部107に記憶されている顔画像データによって示される顔画像から、上瞼、下瞼、鼻孔、及び口などの顔の部品(以下、顔部品と称する)の中で少なくとも上瞼と下瞼とをそれぞれ示す画素の候補を検出する処理をする。
The
より詳細には、検出部102は、まず、記憶部107に記憶されている顔画像データによって示される顔画像に対して輪郭を強調するフィルタ処理などをして、顔画像データによって示される顔画像における顔部品の輪郭を強調した画像を輪郭強調画像として生成する処理をする。輪郭強調画像を生成すると、検出部102は、生成した輪郭強調画像をさらに記憶部107に記憶させる。輪郭強調画像を記憶部107に記憶させると、検出部102は、パターンマッチングなどの手法を用いて、記憶部107に記憶されている輪郭強調画像の中から上瞼と下瞼とをそれぞれ示す画素の候補をそれぞれ上瞼候補、及び下瞼候補として検出する。
More specifically, the
検出部102は、上瞼候補、及び下瞼候補をそれぞれ検出するとき、輪郭強調画像に基づいて上瞼候補、及び下瞼候補を検出するときの検出精度を高める処理をさらにしてもよい。検出部102が、上瞼候補、及び下瞼候補を検出するときの検出精度を高める処理の一例としては、輪郭強調画像においてパターンマッチングなどの手法を用いた処理で上瞼、或いは下瞼を示す候補であると判断された画素の中から、予め定められた距離よりも近い画素同士を同一の上瞼、或いは同一の下瞼を示す画素の候補として纏めて1つの上瞼候補、或いは1つの下瞼候補としてグループ化する処理が挙げられる。また、検出部102が、上瞼候補、及び下瞼候補を検出するときの検出精度を高める処理の他の一例としては、輪郭強調画像における全ての上瞼候補、及び下瞼候補を検出した後、検出した上瞼候補、及び下瞼候補の中でそれぞれ互いに重複した画素を含む上瞼候補同士、或いは下瞼候補同士をそれぞれ1つの上瞼候補、或いは下瞼候補として纏めてグループ化する処理が挙げられる。
When detecting the upper eyelid candidate and the lower eyelid candidate, respectively, the
図4は、検出部102によって検出された上瞼候補、及び下瞼候補の一例を示す図である。図4に示す例では、上瞼候補um1乃至um5の5つの上瞼候補と、下瞼候補sm1乃至sm3の3つの下瞼候補とが検出部102によって検出された場合を示している。図4に示す上瞼候補um1、um3、及びum5は、それぞれ実際には眉、及び口の輪郭を強調した画素であるが、上述した上瞼候補、及び下瞼候補をそれぞれ検出する手法では、眉の輪郭を示す画素など、上瞼、或いは下瞼に形状の似ている画素が、上瞼候補、及び下瞼候補としてそれぞれ1以上だけ検出される場合もある。
FIG. 4 is a diagram illustrating an example of the upper eyelid candidate and the lower eyelid candidate detected by the
尚、図4には説明の便宜のため、上瞼候補、及び下瞼候補をそれぞれ破線で示しているが、輪郭強調画像において上瞼候補、及び下瞼候補を示す画素は破線で示されなくてもよい。また、検出部102によって検出される上瞼候補、及び下瞼候補は、それぞれ図4に示すように線形状として検出されてもよいし、上瞼、或いは下瞼の形状に似た形状の画素の集まりとして検出されてもよい。また、検出部102が、上瞼候補、及び下瞼候補をそれぞれ検出するときには、撮像部101から取得した顔画像データによって示される顔画像に対して水平方向のソーベルフィルタ処理をすることによって生成した輪郭強調画像を用いてもよい。
In FIG. 4, for convenience of explanation, the upper eyelid candidate and the lower eyelid candidate are indicated by broken lines, but the pixels indicating the upper eyelid candidate and the lower eyelid candidate are not indicated by broken lines in the outline-enhanced image. May be. Further, the upper eyelid candidate and the lower eyelid candidate detected by the
検出部102は、上瞼候補と下瞼候補とをそれぞれ検出すると、検出した上瞼候補、及び下瞼候補がそれぞれ左右のいずれの候補であるかを、検出した上瞼候補毎、及び下瞼候補毎にそれぞれ判断する。検出した上瞼候補、及び下瞼候補がそれぞれ左右のいずれの候補であるかを判断するとき、検出部102は、撮像部101から取得した顔画像データによって示される顔画像に対して、顔画像の垂直方向の輪郭を強調するフィルタ処理をして生成した垂直輪郭強調画像に基づいて判断してもよい。
When detecting the upper eyelid candidate and the lower eyelid candidate, the detecting
より詳細には、検出部102は、検出した上瞼候補、及び下瞼候補がそれぞれ左右のいずれの候補であるかを判断するとき、まず、記憶部107に記憶されている顔画像データによって示される顔画像に対して、顔画像の垂直方向の輪郭を強調するフィルタ処理(例えば、垂直方向のソーベルフィルタ処理など)をすることによって垂直輪郭強調画像を生成し、記憶部107にさらに記憶させる。垂直輪郭強調画像を記憶部107に記憶させると、検出部102は、垂直輪郭強調画像の画素の輝度値を垂直方向の画素列毎に積算して、積算した画素の輝度値を水平方向に沿って並べた垂直輪郭強調画像のヒストグラムを作成する。この垂直輪郭強調画像のヒストグラムの横軸は、垂直輪郭強調画像の水平方向の画素の位置を示し、縦軸が積算した輝度値を示すことになる。そして、垂直輪郭強調画像のヒストグラムには、顔の両端に相当する水平方向の位置にそれぞれピーク値が生じる。検出部102は、垂直輪郭強調画像のヒストグラムに生じるピーク値の水平方向の位置に基づいて、顔の左端の水平方向の位置、及び顔の右端の水平方向の位置を検出し、さらに、検出したそれぞれの水平方向の位置の中心を顔の中心の水平方向の位置として検出する。
More specifically, when the
顔の中心の水平方向の位置を検出すると、検出部102は、検出した顔の中心の水平方向の位置と、既に検出した上瞼候補、及び下瞼候補のそれぞれを示す画素の位置とを比較する。本実施形態では、顔画像、輪郭強調画像、及び垂直輪郭強調画像などの画像における画素の位置は、図3、及び図4などに一例として示すように、画像の原点を基準とするX−Y座標系で示されるものとする。そして、検出部102は、輪郭強調画像において顔の中心の水平方向の位置よりも左に位置する上瞼候補、及び下瞼候補、すなわち、顔の中心のX座標よりも小さいX座標に位置する画素の上瞼候補、及び下瞼候補をそれぞれ顔の右側の上瞼候補、及び下瞼候補と判断する。一方、検出部102は、輪郭強調画像において顔の中心の水平方向の位置よりも右に位置する上瞼候補、及び下瞼候補、すなわち、顔の中心のX座標よりも大きいX座標に位置する画素の上瞼候補、及び下瞼候補をそれぞれ顔の左側の上瞼候補、及び下瞼候補と判断する。これにより、検出部102は、検出した上瞼候補、及び下瞼候補が顔画像における顔の左右のいずれに存在するかを判断することができる。
When the horizontal position of the center of the face is detected, the
尚、検出部102によって検出される上瞼候補、及び下瞼候補は、それぞれ上述したように線形状、又は、瞼(上瞼、又は下瞼)の形状に似た形状の画素の集まり、すなわち、複数の画素の集まりとして検出される。そして、検出部102が、検出した顔の中心の水平方向の位置と、既に検出した上瞼候補、及び下瞼候補のそれそれを示す画素の位置とを比較するときには、上瞼候補、又は下瞼候補をそれぞれ示す画素のいずれの位置と、顔の中心の水平方向の位置とを比較してもよいが、一例としては、上瞼候補、又は下瞼候補をそれぞれ示す画素の水平方向の位置の平均値と、顔の中心の水平方向の位置とを比較する手法が挙げられる。
Note that the upper eyelid candidate and the lower eyelid candidate detected by the
検出部102は、上瞼候補と下瞼候補とをそれぞれ検出し、検出した上瞼候補、及び下瞼候補がそれぞれ左右のいずれに存在するかを判断すると、検出した上瞼候補と下瞼候補とをそれぞれ示す上下瞼候補データを生成する。より具体的には、検出部102は、検出した上瞼候補毎に、1つの上瞼候補を示す全ての画素の輪郭強調画像におけるそれぞれの位置と、上瞼候補が顔の左右のいずれに存在するかを示す情報と、上瞼候補をそれぞれ識別するための識別子とを対応付けて示す上瞼候補データを生成する。さらに、検出部102は、検出した下瞼候補毎に、1つの下瞼候補を示す全ての画素の輪郭強調画像におけるそれぞれの位置と、下瞼候補が顔の左右のいずれに存在するかを示す情報と、下瞼候補をそれぞれ識別するための識別子とを対応付けて示す下瞼候補データを生成する。そして、検出部102は、上瞼候補データと下瞼候補データとをそれぞれ生成すると、生成した上瞼候補データと下瞼候補データとを纏めて示すデータを上下瞼候補データとして生成し、記憶部107に記憶させる。
When the
組み合わせ部103は、記憶部107に記憶されている上下瞼候補データによって示される上瞼候補と、下瞼候補とをそれぞれ瞼候補として組み合わせる。より詳細には、記憶部107に上下瞼候補データが記憶されると、組み合わせ部103は、記憶部107に記憶されている上下瞼候補データとして纏められている上瞼候補データと、下瞼候補データとによってそれぞれ示される上瞼候補と、下瞼候補とを組み合わせて瞼候補とする。
The
組み合わせ部103は、上瞼候補と下瞼候補とを組み合わせるとき、左右に存在する上瞼候補、及び下瞼候補を分けてそれぞれ組み合わせる。より具体的には、組み合わせ部103は、上瞼候補と下瞼候補とを組み合わせるとき、左の上瞼候補と下瞼候補とをそれぞれ組み合わせ、右の上瞼候補と下瞼候補とをそれぞれ組み合わせる。また、組み合わせ部103は、上瞼候補と下瞼候補とを組み合わせるとき、図5に示すように、輪郭強調画像上の上瞼候補の垂直方向の位置から予め定められた画素数stだけ下方向の領域に存在する下瞼候補と当該上瞼候補とをそれぞれ組み合わせるようにしてもよい。このときの上瞼候補の垂直方向の輪郭強調画像上の位置とは、1つの上瞼候補を示す画素の中で最も高い垂直方向の位置に存在する画素の位置であってもよい。
When combining the upper eyelid candidate and the lower eyelid candidate, the combining
組み合わせ部103は、上瞼候補と下瞼候補とを瞼候補として組み合わせると、上瞼候補と下瞼候補とを組み合わせた瞼候補を示す瞼候補データを生成する。より詳細には、組み合わせ部103は、瞼候補毎に、組み合わせた上瞼候補の識別子と、組み合わせた下瞼候補の識別子と、瞼候補を識別するための識別子とを対応付けて示す瞼候補データを生成する。瞼候補データを生成すると、組み合わせ部103は、生成した瞼候補データを記憶部107に記憶させる。尚、図5に示す例では、上瞼候補um1と下瞼候補sm1との組、上瞼候補um2と下瞼候補sm1との組、上瞼候補um3と下瞼候補sm2との組、上瞼候補um4と下瞼候補sm2との組がそれぞれ組み合わせ部103によって瞼候補として組み合わせられ、組み合わせられた瞼候補を示す瞼候補データが生成される。これに対して、上瞼候補um5と下瞼候補sm3とは、それぞれ組み合わせられる上瞼候補、又は下瞼候補が存在しないため、上瞼候補um5と下瞼候補sm3とをそれぞれ組み合わせに含む瞼候補は、瞼候補データによって示される瞼候補とならない。
When combining the upper eyelid candidate and the lower eyelid candidate as the eyelid candidate, the
尚、検出部102が上瞼候補、及び下瞼候補を検出するときから、組み合わせ部103で瞼候補データを生成するまでの処理は、上述で説明したように上瞼候補、及び下瞼候補を検出でき、形状値算出部104、選択部105、及び特定部106が後述するように処理できるデータを生成できるのであれば、上述した処理の代わりに、任意の公知の手法を用いて構わない。
The process from when the
形状値算出部104は、記憶部107に瞼候補データが記憶されたとき、記憶されている瞼候補データによって示される瞼候補毎に、瞼候補の形状を示す値を形状値として算出する。
When the eyelid candidate data is stored in the
図6は、形状値算出部104が算出する形状値の一例を示す図である。図6には、説明の便宜のため、図5に示す上瞼候補、及び下瞼候補の内、上瞼候補um2と下瞼候補sm1とを拡大して示している。形状値算出部104は、1つの瞼候補の形状値を算出するとき、図6に示すように、瞼候補データによって対応付けられている1つの上瞼候補を示す画素の中で垂直方向の最も高い位置に存在する頂点の画素utの位置と、当該上瞼候補の識別子に瞼候補として対応付けられている識別子の下瞼候補を示す画素の目尻側の端点mj、及び目頭側の端点mgの少なくともいずれか一方の端点とを結ぶ直線の傾きを形状値として算出する。尚、1つの上瞼候補を示す画素の中で垂直方向の最も高い位置に存在する頂点の画素utの位置と、顔画像における当該位置とは同じ位置である。
FIG. 6 is a diagram illustrating an example of a shape value calculated by the shape
形状値算出部104が算出する傾きは、1つの上瞼候補を示す画素の中で垂直方向の最も高い位置に存在する頂点の画素utの位置と、当該上瞼候補の識別子に瞼候補として瞼候補データによって対応付けられている識別子の下瞼候補を示す目尻側の端点mjとを結ぶ直線mjlの傾き(以下、目尻傾きと称する)であってもよい。また、形状値算出部104が算出する傾きは、1つの上瞼候補を示す画素の中で垂直方向の最も高い位置に存在する頂点の画素utの位置と、当該上瞼候補の識別子に瞼候補として瞼候補データによって対応付けられている識別子の下瞼候補を示す目頭側の端点mgとを結ぶ直線mglの傾き(以下、目頭傾きと称する)であってもよい。また、形状値算出部104が算出する傾きは、前述の目尻傾きと、前述の目頭傾きとの両方の傾きであってもよい。
The inclination calculated by the shape
図7A乃至図7Cは、それぞれ検出部102によって検出された上瞼候補um2、及び下瞼候補sm1とを組み合わせた瞼候補の形状がそれぞれ細目に近い形状、標準の形状に近い形状、及び丸目に近い形状であった場合の目尻傾きmjk、及び目頭傾きmgkの一例をそれぞれ示す図である。図7A乃至図7Cにそれぞれ示すように、形状値算出部104によって形状値として算出される目尻傾きmjk、及び目頭傾きmgkは、それぞれ細目、標準、及び丸目の順番に大きくなり、上瞼候補、及び下瞼候補を組み合わせた瞼候補の形状の指標となる。尚、形状値算出部104によって形状値として算出される目尻傾きmjk、及び目頭傾きmgkはそれぞれ、図7A乃至図7Cにそれぞれ示すように角度で示されてもよいし、それぞれの直線の傾きであってもよい。
FIGS. 7A to 7C show that the shape of the eyelid candidate combining the upper eyelid candidate um2 and the lower eyelid candidate sm1 detected by the
形状値算出部104は、記憶部107に記憶された瞼候補データによって示される瞼候補毎に形状値を算出すると、算出した形状値を、瞼候補データによって示される瞼候補の識別子にそれぞれ対応付けて、記憶部107に記憶されている瞼候補データに追加して記憶させる。
When the shape
選択部105は、形状値算出部104によって、記憶部107に記憶されている瞼候補データに形状値が追加されると、瞼候補データによって示される瞼候補毎に目尻、及び目頭をそれぞれ特定部106で特定するための目尻目頭パターンを選択する。
When the shape value is added to the eyelid candidate data stored in the
ここで、記憶部107に予め記憶されている目尻目頭パターンについて、図8A乃至図8Cを参照しながら説明する。図8A乃至図8Cは、それぞれ本実施形態に係る記憶部107に予め記憶されている目尻目頭パターンをそれぞれ示す図である。図8A乃至図8Cには、一例として、右の瞼候補の目尻、及び目頭を特定部106で特定するための目尻目頭パターンを示している。
Here, an eye corner pattern stored in advance in the
本実施形態における目尻目頭パターンとは、図8A乃至図8Cにそれぞれ示す目尻パターンと目頭パターンとを組み合わせたパターンのことである。そして、目尻パターンと目頭パターンとは、それぞれ目尻、及び目頭における肌部分と眼部分とに相当する2つの領域を有する予め定められた広さを有し、実際の人の目尻、及び目頭を模した画像である。また、本実施形態における目尻目頭パターンは、それぞれの画像の画素の輝度値の上限値で肌部分(図8A乃至図8Cでは白部分)を示し、それぞれの画像の画素の輝度値の下限値で眼部分(図8A乃至図8Cでは黒部分)を示すものとするが、目尻目頭パターンにおける肌部分、及び眼部分の示し方は、これに限られなくてもよい。また、記憶部107に記憶されている目尻パターン、及び目頭パターンには、それぞれ特定部106が目尻パターン、及び目頭パターンを顔画像上に配置するために、これらのパターンの下瞼候補を示す画素の端点(上瞼候補との接点側の端点)に相当する箇所の画素の位置が基準点として予め定められている。
The eye corner pattern in the present embodiment is a pattern in which the eye corner pattern and the eye pattern shown in FIGS. 8A to 8C are combined. The eye corner pattern and the eye head pattern each have a predetermined area having two areas corresponding to the eye corner and the skin part and the eye part of the eye head, respectively. It is an image. In addition, the eye corner pattern in the present embodiment indicates the skin portion (the white portion in FIGS. 8A to 8C) with the upper limit value of the luminance value of the pixel of each image, and the lower limit value of the luminance value of the pixel of each image. Although the eye part (black part in FIGS. 8A to 8C) is shown, the way of showing the skin part and the eye part in the eye corner pattern is not limited to this. In addition, the eye corner pattern and the eye pattern stored in the
本実施形態では、一例として、図8A乃至図8Cにそれぞれ示す、細目、標準、及び丸目の瞼候補の形状にそれぞれ対応する3つの目尻目頭パターンを予め定めてそれぞれを識別する識別子と共に記憶部107に記憶させるものとする。図8A乃至図8Cから明らかなように、細目、標準、及び丸目にそれぞれ対応する目尻目頭パターンでは、目尻パターン、及び目頭パターンのそれぞれにおける肌部分と眼部分との領域の割合が互いに異なる。より具体的には、細目に対応する目尻目頭パターンの目尻パターン、及び目頭パターンでは、肌部分の割合が最も大きく、眼部分の割合が最も小さい。これに対して、丸目に対応する目尻目頭パターンの目尻パターン、及び目頭パターンでは、肌部分の割合が最も小さく、眼部分の割合が最も大きい。
In the present embodiment, as an example, the
このように、本実施形態では、図8A乃至図8Cに示すように、前述の予め定められた広さにおいて、細目、標準、及び丸目などの眼の形状によって変化する目尻、及び目頭のそれぞれにおける肌部分と眼部分との領域の割合をそれぞれの形状に応じて近くなるように予め定めた目尻目頭パターンを記憶部107に記憶させている。
As described above, in this embodiment, as shown in FIGS. 8A to 8C, in each of the corners of the eyes and the eyes that change according to the shape of the eyes, such as fine, standard, and round eyes, in the above-described predetermined area. The eye corner-eye pattern is stored in the
選択部105には、記憶部107に記憶されている瞼候補データによって瞼候補と対応付けられている形状値に応じて記憶部107に記憶されている目尻目頭パターンを選択するためのしきい値が予め定められている。本実施形態に係る選択部105には、一例として、記憶部107に記憶されている3つの目尻目頭パターンを選択するために、大きさが順番に大きくなるしきい値a、及びしきい値bの2つのしきい値が予め定められている。ここで、しきい値aとしきい値bとの間には、a<bの関係があるものとする。
The
選択部105は、記憶部107に記憶されている瞼候補データに形状値が追加されると、記憶されている瞼候補データによって示される瞼候補毎に対応付けられている形状値としきい値とを比較する。形状値としきい値とを比較するとき、選択部105は、まず、1つの瞼候補に対応付けられた形状値と、最も小さいしきい値aとを比較する。そして、選択部105は、比較した形状値がしきい値aよりも小さいと判断したとき、当該形状値に対応付けられた瞼候補の形状は細目であると判断して、細目に対応する目尻目頭パターンの識別子を当該瞼候補の識別子に対応付け、記憶部107に記憶されている瞼候補データに追加して記憶させる。また、選択部105は、比較した形状値がしきい値a以上であると判断したとき、しきい値aの次に大きいしきい値bと当該形状値とを比較する。選択部105は、比較した形状値がしきい値bよりも小さいと判断したとき、当該形状値に対応付けられた瞼候補の形状は標準であると判断して、標準に対応する目尻目頭パターンの識別子を当該瞼候補の識別子に対応付け、記憶部107に記憶されている瞼候補データに追加して記憶させる。また、選択部105は、比較した形状値がしきい値b以上であると判断したとき、当該形状値に対応付けられた瞼候補の形状は丸目であると判断して、丸目に対応する目尻目頭パターンの識別子を当該瞼候補に対応付け、記憶部107に記憶されている瞼候補データに追加して記憶させる。
When the shape value is added to the eyelid candidate data stored in the
このように、選択部105が、瞼候補の形状値に応じて記憶部107に記憶されている目尻目頭パターンを選択することにより、上述したように瞼候補の形状の指標となる形状値に応じて、瞼候補の形状に応じて上述したように予め定めた目尻目頭パターンの中から、瞼候補データによって示される瞼候補毎に適切な目尻目頭パターンを選択することができる。
As described above, the
特定部106は、記憶部107に記憶されている瞼候補データに目尻目頭パターンの識別子が追加されると、記憶部107に記憶されている瞼候補データによって示される瞼候補毎に目尻、及び目頭の位置を特定する。
When the identifier of the eye corner eye pattern is added to the eyelid candidate data stored in the
より詳細には、特定部106は、瞼候補の目尻、及び目頭の位置を特定するとき、当該瞼候補に対応付けられた目尻目頭パターンの目尻パターン、及び目頭パターンのそれぞれを記憶部107に記憶されている顔画像に配置する処理をする。より具体的には、特定部106は、記憶部107に記憶されている瞼候補データによって瞼候補毎に対応付けられている識別子の下瞼候補の目尻側の端点の画素の位置に、当該瞼候補に対応付けられている識別子の目尻目頭パターンの目尻パターンの基準点を一致させて、当該目尻パターンを顔画像上に重畳させて配置する処理をする。また、特定部106は、記憶部107に記憶されている瞼候補データによって瞼候補毎に対応付けられている下瞼候補の目頭側の端点の画素の位置に、当該瞼候補に対応付けられている識別子の目尻目頭パターンの目頭パターンの基準点を一致させて、当該目頭パターンを顔画像上に重畳させて配置する処理をする。尚、特定部106によって、目尻パターン、及び目頭パターンとがそれぞれ重畳させられている顔画像の中の画像は、瞼候補データによって示される瞼候補毎の目尻、及び目頭を示すと考えられる画像となる。
More specifically, when specifying the eye corners and eye positions of the eyelid candidates, the specifying
尚、記憶部107に記憶されている下瞼候補の画素の位置は、輪郭強調画像上における位置であるが、本実施形態では、輪郭強調画像と顔画像との画素数は、輪郭を強調する処理をしたとしても変わらないため、輪郭強調画像上における下瞼候補の画素の位置は、そのまま顔画像上の位置と対応している。
Note that the position of the lower eyelid candidate pixel stored in the
より詳細には、本実施形態では、輪郭強調画像を生成するときに、顔画像データによって示される顔画像に対してそのままフィルタ処理をし、互いの画像の間で画素数が変化することがないため、輪郭強調画像における画素の位置と、顔画像における画素の位置とはそのまま対応している。しかしながら、輪郭強調画像を生成するときの処理の負担を低減するために、顔画像データによって示される顔画像の画素を間引いてから輪郭強調画像を生成する処理をする場合には、輪郭強調画像における画素の位置と、顔画像における画素の位置とがそのまま対応しない。したがって、特定部106が、顔画像の画素を間引いてから生成された輪郭強調画像において検出された下瞼候補の目尻側の端点の位置、及び目頭側の端点の位置に基づいて、顔画像上に目尻パターン、及び目頭パターンを重畳させる場合には、これらの目尻側の端点の画素の位置、及び目頭側の端点の画素の位置をそれぞれ顔画像上の画素の位置に変換して対応させる処理もしなければならない。
More specifically, in the present embodiment, when generating an edge-enhanced image, the face image indicated by the face image data is directly filtered, and the number of pixels does not change between the images. Therefore, the pixel position in the contour enhanced image and the pixel position in the face image correspond to each other as they are. However, in order to reduce the processing burden when generating the contour-enhanced image, when the process of generating the contour-enhanced image after thinning out the pixels of the face image indicated by the face image data, The position of the pixel does not correspond directly to the position of the pixel in the face image. Therefore, based on the position of the eyelid side end point of the lower eyelid candidate and the position of the eye side end point detected in the contour-enhanced image generated after the
特定部106は、目尻パターン、及び目頭パターンを顔画像上に重畳させる処理をするとき、右側の下瞼候補の目頭側、及び目尻側のそれぞれの端点の画素の位置に対応する顔画像上の位置には、図8A乃至図8Cを参照しながら説明した右用の目尻パターン、及び目頭パターンをそれぞれそのまま重畳させ、左側の下瞼候補の目頭側、及び目尻側のそれぞれの端点の画素の位置に対応する顔画像上の位置には、図8A乃至図8Cを参照しながら説明した右用の目尻パターン、及び目頭パターンの左右をそれぞれ反転させたパターンをそれぞれ重畳させる。尚、他の一実施形態では、記憶部107に左右のそれぞれの目尻目頭パターンを予め定めて記憶させ、左右の下瞼候補の目頭側、及び目尻側のそれぞれの端点の画素の位置に対応する顔画像上の位置に左右の目尻目頭パターンをそれぞれ重畳させてもよい。
When the identifying
特定部106は、目尻パターン、及び目頭パターンを顔画像上に重畳させると、顔画像上において目尻パターン、及び目頭パターンがそれぞれ重畳している領域の画像と、重畳させた目尻パターン、及び目頭パターンとして定められている画像との類似度を算出するパターンマッチング処理をする。特定部106は、記憶部107に記憶されている瞼候補データによって示される瞼候補毎に全てパターンマッチング処理をした後、顔画像における左右のそれぞれにおいて、目尻、及び目頭の類似度の和が最も大きい瞼候補をそれぞれ左右の瞼として特定する。尚、特定部106によって為されるパターンマッチング処理は、任意の公知の手法を用いて構わない。
When the eye part pattern and the eye pattern are superimposed on the face image, the specifying
以上が、本実施形態に係る眼検出装置1の概略構成の説明である。次に、図9に示すフローチャートを参照しながら、本実施形態に係る眼検出装置1の処理を説明する。尚、図9のフローチャートに示す処理は、上述したように、予め定められたプログラムを記憶部107から読み込んだ制御部が、それぞれ検出部102、組み合わせ部103、形状値算出部104、選択部105、及び特定部106の機能構成として適宜処理をして機能することによって、当該制御部によって実行される。
The above is the description of the schematic configuration of the
ステップS101において、制御部は、検出部102として、撮像部101によって顔画像データが生成されたか否かを判断する。制御部は、ステップS101において、顔画像データが生成されたと判断したとき、ステップS102へ処理を進める。一方、制御部は、ステップS101において、顔画像データが生成されていないと判断したとき、ステップS101の処理を繰り返す。
In step S <b> 101, the control unit, as the
ステップS102において、制御部は、検出部102として、撮像部101によって生成された顔画像データを取得して記憶部107に記憶させ、記憶部107に記憶させた顔画像データによって示される顔画像に対して、上述した輪郭を強調するフィルタ処理をして、輪郭強調画像を生成し、生成した輪郭強調画像を記憶部107に記憶させる。制御部は、ステップS102の処理を完了すると、ステップS103へ処理を進める。
In step S <b> 102, the control unit acquires, as the
ステップS103において、制御部は、検出部102として、記憶部107に記憶させた輪郭強調画像に基づいて、パターンマッチング処理などをすることによって、上述した上瞼候補を検出する。制御部は、ステップS103の処理を完了すると、ステップS104へ処理を進める。
In step S <b> 103, the control unit detects the above-described upper eyelid candidate by performing pattern matching processing or the like based on the contour-enhanced image stored in the
ステップS104において、制御部は、検出部102として、記憶部107に記憶させた輪郭強調画像に基づいて、パターンマッチングなどの手法を用いて、上述した下瞼候補を検出する。制御部は、ステップS104の処理を完了すると、ステップS105へ処理を進める。
In step S <b> 104, the control unit detects the above-described lower eyelid candidate using a method such as pattern matching based on the contour-enhanced image stored in the
ステップS105において、制御部は、検出部102として、上述した上下瞼候補データを生成する。より詳細には、ステップS105において、制御部は、ステップS103で検出した上瞼候補毎に、1つの上瞼候補を示す全ての画素の輪郭強調画像におけるそれぞれの位置と、上瞼候補が顔の左右のいずれに存在するかを示す情報と、上瞼候補をそれぞれ識別するための識別子とを対応付けて示す上瞼候補データを生成する。さらに、ステップS105において、制御部は、ステップS104で検出した下瞼候補毎に、1つの下瞼候補を示す全ての画素の輪郭強調画像におけるそれぞれの位置と、下瞼候補が顔の左右のいずれに存在するかを示す情報と、下瞼候補をそれぞれ識別するための識別子とを対応付けて示す下瞼候補データを生成する。さらに、制御部は、ステップS105において、上瞼候補データと、下瞼候補データとをそれぞれ生成すると、生成した上瞼候補データと下瞼候補データとを纏めて示すデータを上下瞼候補データとして生成し、記憶部107に記憶させる。制御部は、ステップS105の処理を完了すると、ステップS106へ処理を進める。
In step S <b> 105, the control unit generates the above-described upper and lower eyelid candidate data as the
ステップS106において、制御部は、組み合わせ部103として、記憶部107に記憶されている上下瞼候補データによって示される上瞼候補と、下瞼候補とを、上述したようにそれぞれ瞼候補として組み合わせて、組み合わせた瞼候補を示す瞼候補データを生成し、生成した瞼候補データを記憶部107に記憶させる。制御部は、ステップS106の処理を完了すると、ステップS107へ処理を進める。
In step S106, the control unit combines the upper eyelid candidate and the lower eyelid candidate indicated by the upper and lower eyelid candidate data stored in the
ステップS107において、制御部は、形状値算出部104として、記憶部107に記憶された瞼候補データによって示される瞼候補毎に形状値を算出し、算出した形状値を、瞼候補データによって示される瞼候補の識別子にそれぞれ対応付けて、記憶部107に記憶されている瞼候補データに追加して記憶させる。制御部は、ステップS107の処理を完了すると、ステップS108へ処理を進める。
In step S107, the control unit calculates a shape value for each wrinkle candidate indicated by the wrinkle candidate data stored in the
ステップS108において、制御部は、選択部105として、記憶部107に記憶されている瞼候補データによって示される瞼候補毎に、上述したように瞼候補の形状値に応じて記憶部107に記憶されている目尻目頭パターンを選択し、選択した目尻目頭パターンの識別子を当該瞼候補に対応付け、記憶部107に記憶されている瞼候補データに追加して記憶させる。制御部は、ステップS108の処理を完了すると、ステップS109へ処理を進める。
In step S108, the control unit stores the
ステップS109において、制御部は、特定部106として、記憶部107に記憶されている瞼候補データによって示される瞼候補毎に、瞼候補として組み合わされている下瞼候補の画素の目尻側の端点の画素の位置、及び目頭側の端点の画素の位置にそれぞれ対応する顔画像上の位置に、それぞれ当該瞼候補に対応付けられた識別子の目尻目頭パターンの目尻パターン、及び目頭パターンを上述したように重畳させてパターンマッチング処理をし、顔画像における左右の瞼をそれぞれ特定する。制御部は、ステップS109の処理を完了すると、ステップS101へ処理を戻す。
In step S <b> 109, the control unit, as the specifying
以上が、本実施形態に係る眼検出装置1の説明である。本実施形態に係る眼検出装置1によれば、輪郭強調画像に基づいて検出した瞼候補の形状に応じて、パターンマッチング処理に用いる適切な目尻目頭パターンを選択でき、人の眼の形状に個人差があったとしても、正確に瞼を特定できる。
The above is the description of the
また、本実施形態に係る眼検出装置1によれば、有限の数の目尻目頭パターンを記憶部107に記憶させておくだけで、人の眼の形状に個人差があったとしても、正確に瞼を特定することができ、記憶部107に記憶させる情報量を削減することができる。
Further, according to the
尚、第1の実施形態の説明では、形状値算出部104は、形状値として、瞼候補データによって対応付けられている1つの上瞼候補を示す画素の中で垂直方向の最も高い位置に存在する頂点の画素utの位置と、当該上瞼候補の識別子に瞼候補として対応付けられている識別子の下瞼候補を示す画素の目尻側の端点mj、及び目頭側の端点mgの少なくともいずれか一方の端点とを結ぶ直線の傾きを形状値として算出するものとした。しかしながら、他の一実施形態に係る形状値算出部104は、瞼候補データによって示される瞼候補毎に瞼候補の開度を形状値として算出してもよい。
In the description of the first embodiment, the shape
図10は、他の一実施形態に係る形状値算出部104によって算出される瞼候補の開度を説明する図である。図10には、説明の便宜のため、図5に示す上瞼候補、及び下瞼候補の内、上瞼候補um2と下瞼候補sm1とを拡大して示している。形状値算出部104は、1つの瞼候補の形状値として瞼候補の開度を算出するとき、図10に示すように、瞼候補データによって対応付けられている1つの上瞼候補を示す画素の中で垂直方向の最も高い位置に存在する頂点の画素utと、当該上瞼候補の識別子に瞼候補として対応付けられている識別子の下瞼候補を示す画素の中で垂直方向の最も低い位置に存在する頂点の画素dtとを結ぶ直線の長さを開度として算出してもよい。
FIG. 10 is a diagram illustrating the opening degree of the wrinkle candidate calculated by the shape
図11A乃至図11Cは、それぞれ検出部102によって検出された上瞼候補um2、及び下瞼候補sm1とを組み合わせた瞼候補の形状がそれぞれ細目に近い形状、標準の形状に近い形状、及び丸目に近い形状であった場合の開度kdの一例をそれぞれ示す図である。図11A乃至図11Cにそれぞれ示すように、形状値算出部104によって形状値として算出される開度kdは、それぞれ細目、標準、及び丸目の順番に大きくなり、上述で説明した傾きと同様に、上瞼候補、及び下瞼候補を組み合わせた瞼候補の眼の形状の指標となる。
11A to 11C show the shape of the eyelid candidate combining the upper eyelid candidate um2 and the lower eyelid candidate sm1 detected by the
形状値算出部104が形状値として開度を算出する場合でも、選択部105は、上述したように形状値としきい値とを比較することにより、形状値として傾きを算出する場合と同様に、瞼候補の形状の指標となる形状値に応じて、瞼候補の形状に応じて上述したように予め定めた目尻目頭パターンの中から、瞼候補データによって示される瞼候補毎に適切な目尻目頭パターンを選択することができる。
Even when the shape
また、他の一実施形態に係る形状値算出部104は、形状値として、瞼候補として組み合わされている上瞼候補の形状に最も近い円の曲率を瞼候補毎に算出してもよい。
In addition, the shape
図12は、他の一実施形態に係る形状値算出部104によって算出される瞼候補の曲率を説明する図である。図12には、説明の便宜のため、図5に示す上瞼候補、及び下瞼候補の内、上瞼候補um2と下瞼候補sm1とを拡大して示している。形状値算出部104は、1つの瞼候補の形状値として瞼候補の曲率を算出するとき、図12に示すように、瞼候補データによって対応付けられている1つの上瞼候補を示す画素の形状に最も近い半径Rの円を求める演算をし、演算した円の曲率を形状値として算出してもよい。
FIG. 12 is a diagram illustrating the curvature of a wrinkle candidate calculated by the shape
図13A乃至図13Cは、それぞれ検出部102によって検出された上瞼候補um2、及び下瞼候補sm1とを組み合わせた瞼候補の形状がそれぞれ細目に近い形状、標準の形状に近い形状、及び丸目に近い形状であった場合に曲率を算出する半径Rの円の一例をそれぞれ示す図である。図13A乃至図13Cにそれぞれ示すように、形状値算出部104によって形状値として算出される曲率は、前述の円の半径Rがそれぞれ細目、標準、及び丸目の順番に小さくなるため、それぞれ細目、標準、及び丸目の順番に大きくなり、上述で説明した傾きと同様に、上瞼候補、及び下瞼候補を組み合わせた瞼候補の眼の形状の指標となる。
FIG. 13A to FIG. 13C show that the shape of the eyelid candidate combining the upper eyelid candidate um2 and the lower eyelid candidate sm1 detected by the
形状値算出部104が形状値として曲率を算出する場合でも、上述したようにしきい値を定めた選択部105で上述したように形状値としきい値とを比較することにより、形状値として傾きを算出する場合と同様に、瞼候補の形状の指標となる形状値に応じて、瞼候補の形状に応じて上述したように予め定めた目尻目頭パターンの中から、瞼候補データによって示される瞼候補毎に適切な目尻目頭パターンを選択することができる。
Even when the shape
また、他の一実施形態に係る眼検出装置1では、図9のフローチャートに示す処理の内、ステップS101乃至ステップS108までの処理、すなわち、目尻目頭パターンの選択までの処理を、例えば、車両に取り付けられた照度センサ(コンライトセンサ)によって検出される環境光の照度が予め定められたしきい値未満であるときのみに行うようにしてもよい。そして、一度目尻目頭パターンを選択した後は、運転者が変わらない限り、選択部105の処理を省略したステップS101乃至ステップS109までの処理をして、瞼の特定をしてよい。車両に取り付けられた照度センサとは、例えば、図3に示すように車両の速度などを示す計器盤の背面方向のインストルメントパネル上に設置され、車両の周囲の環境光の照度を検出する照度センサであってもよい。照度センサによって検出される環境光の照度が予め定められたしきい値未満であるときのみに目尻目頭パターンの選択をすることにより、太陽光などを含む環境光の影響を受けない顔画像に基づいて、より正確に目尻目頭パターンを選択した後に、より正確な目尻目頭パターンで瞼の特定をすることができる。
Further, in the
また、他の一実施形態に係る眼検出装置1では、現在の時刻を検出する時計、或いはタイマーなどの計時装置を用いて、例えば、計時装置によって示される時刻が夜間を示すときにのみ、図9のフローチャートに示す処理の内、ステップS101乃至ステップS108までの処理、すなわち、目尻目頭パターンの選択までの処理をするようにしてもよい。そして、一度目尻目頭パターンを選択した後は、運転者が変わらない限り、選択部105の処理を省略したステップS101乃至ステップS109までの処理をして、瞼の特定をしてよい。夜間であるときのみに目尻目頭パターンの選択をすることにより、太陽光などを含む環境光の影響を受けない顔画像に基づいて、より正確に目尻目頭パターンを選択した後に、より正確な目尻目頭パターンで瞼の特定をすることができる。
Further, in the
また、他の一実施形態に係る眼検出装置1では、車両に搭載されたワイパーが作動しているときにのみ、図9のフローチャートに示す処理の内、ステップS101乃至ステップS108までの処理、すなわち、目尻目頭パターンの選択までの処理をするようにしてもよい。そして、一度目尻目頭パターンを選択した後は、運転者が変わらない限り、選択部105の処理を省略したステップS101乃至ステップS109までの処理をして、瞼の特定をしてよい。ワイパーが作動しているときのみに目尻目頭パターンの選択をすることにより、雨天であって太陽光の影響を受けない顔画像に基づいて、より正確に目尻目頭パターンを選択した後に、より正確な目尻目頭パターンで瞼の特定をすることができる。
Further, in the
また、本発明に係る眼検出装置1は、例えば、近年、車両などの移動体に搭載されている運転者の状態を監視する、一般的には、ドライバーモニタシステムと呼ばれるシステムに適用することができる。より詳細には、近年、車両などの移動体には、運転者の顔画像に基づいて瞼の開度、及び顔向きの角度などを検出し、居眠り運転、及び脇見運転などをしていると判断したときに運転者に警告を発するシステムが搭載されている。このようなシステムでは、運転者の瞼の開度、及び顔向きの角度などを検出するときに、本発明で類似度を算出した瞼候補の開度のみを算出し、さらに、このようにして算出した瞼候補の開度に基づき瞬きをしたと判断した瞼候補の位置を運転者の眼の顔画像における位置として確定する手法が採用されている場合がある。そして、このように確定した顔画像における運転者の眼の位置に基づき、前述のシステムでは顔向きの角度を検出している場合もある。本発明によれば、このようなシステムにおいて類似度を算出するときの精度を向上させることもできる。
The
また、上述したように環境光の照度がしきい値未満であるときのみ、夜間であるときのみ、及びワイパーが作動しているときのみに図9のフローチャートに示す処理の内、ステップS101乃至ステップS108までの処理、すなわち、目尻目頭パターンの選択までの処理をする他の一実施形態で、本発明を上述したシステムに適用する場合には、当該システムが瞼を特定しようとするタイミングで、一度も目尻目頭パターンが選択されていない場合が生じる可能性がある。このようなときは、予めデフォルトとして定めた目尻目頭パターンを用いて瞼を特定するようにしてもよい。 Also, as described above, only when the ambient light illuminance is less than the threshold value, only at night, and only when the wiper is in operation, steps S101 through S101 are included in the processing shown in the flowchart of FIG. When the present invention is applied to the above-described system in another embodiment in which the processing up to S108, that is, the processing up to the selection of the eye corner pattern is performed, once the system tries to identify the eyelid, However, there is a possibility that a corner pattern is not selected. In such a case, the eyelid may be specified using a corner-eye pattern that is set in advance as a default.
以上、本発明を詳細に説明してきたが、上述の説明はあらゆる点において本発明の一例にすぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。 Although the present invention has been described in detail above, the above description is merely an example of the present invention in all respects and is not intended to limit the scope thereof. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention.
本発明によれば、人の顔の中でも特に目尻、及び目頭を正確に検出できる眼検出装置を提供することができ、例えば、自動車などの移動体に搭載される眼検出装置などに利用できる。 ADVANTAGE OF THE INVENTION According to this invention, the eye detection apparatus which can detect especially an eye corner and an eye head especially in a human face can be provided, For example, it can utilize for the eye detection apparatus etc. which are mounted in moving bodies, such as a motor vehicle.
1 眼検出装置
101 撮像部
102 検出部
103 組み合わせ部
104 形状値算出部
105 選択部
106 特定部
107 記憶部
DESCRIPTION OF
Claims (11)
前記撮像手段によって撮像された前記顔画像に基づき、前記対象者の上瞼と下瞼とをそれぞれ示す画素の候補の組み合わせをそれぞれ瞼候補として検出する検出手段と、
前記顔画像の中で前記検出手段によって検出された前記瞼候補毎の目尻、及び目頭を示す画像との類似度を算出するために予め定められた画像の目尻目頭パターンを2以上だけ記憶する記憶手段と、
前記検出手段によって検出された前記瞼候補毎の形状を示す形状値に基づき、前記記憶手段に記憶された前記目尻目頭パターンの中から1つの前記目尻目頭パターンを当該瞼候補毎に選択して対応付ける選択手段と、
前記顔画像の中で前記検出手段によって検出された前記瞼候補毎の目尻、及び目頭を示す画像と、前記選択手段によって当該瞼候補毎に選択された前記目尻目頭パターンの画像との前記類似度をそれぞれ算出する特定手段とを備える、眼検出装置。 Imaging means for imaging an image including the face of the subject as a face image;
Detection means for detecting each candidate combination of pixels indicating the upper eyelid and lower eyelid of the subject as the eyelid candidates based on the face image imaged by the imaging means;
A memory for storing only two or more eye corner patterns of a predetermined image for calculating a similarity between the eye corners for each eyelid candidate detected by the detection means in the face image and an image indicating the eye head Means,
Based on the shape value indicating the shape of each eyelid candidate detected by the detecting means, one eye corner eye pattern is selected from the eye corner eye pattern stored in the storage means and associated with each eyelid candidate. A selection means;
The similarity between the image showing the eye corners and the eyes of each eyelid candidate detected by the detection means in the face image, and the image of the eye corners eye pattern selected for each eyelid candidate by the selection means An eye detection apparatus comprising: a specifying unit that calculates each of.
前記選択手段は、前記傾き検出手段によって検出された前記傾きに基づき、前記目尻目頭パターンを選択する、請求項1に記載の眼検出装置。 Among the pixels indicating the upper eyelid candidate and at least one end point of the eye corner side and the eye side of the pixel indicating the lower eyelid candidate combined as the eyelid candidate detected by the detecting means Further comprising an inclination detection means for detecting an inclination of a line connecting a pixel at the highest vertex in the vertical direction in the face image as the shape value;
The eye detection device according to claim 1, wherein the selection unit selects the eye corner pattern based on the inclination detected by the inclination detection unit.
前記選択手段は、前記開度検出手段によって検出された前記開度に基づき、前記目尻目頭パターンを選択する、請求項1に記載の眼検出装置。 Opening degree detecting means for detecting the opening degree of the eyelid as the shape value for each eyelid candidate detected by the detecting means;
The eye detection apparatus according to claim 1, wherein the selection unit selects the eye corner pattern based on the opening detected by the opening detection unit.
前記選択手段は、前記曲率検出手段によって検出された前記曲率に基づき、前記目尻目頭パターンを選択する、請求項1に記載の眼検出装置。 Curvature detection means for detecting, as the shape value, the curvature of the upper eyelid candidate pixel combined as the eyelid candidate for each of the eyelid candidates detected by the detection means,
The eye detection apparatus according to claim 1, wherein the selection unit selects the eye corner pattern based on the curvature detected by the curvature detection unit.
前記選択手段は、前記照度検出手段によって検出される環境光の照度が予め定められたしきい値未満であるとき、前記目尻目頭パターンを選択する、請求項1に記載の眼検出装置。 Further comprising illuminance detection means for detecting the illuminance of the ambient light irradiated to the subject,
The eye detection apparatus according to claim 1, wherein the selection unit selects the eye corner pattern when the illuminance of the ambient light detected by the illuminance detection unit is less than a predetermined threshold value.
前記選択手段は、前記時刻検知手段によって検出される時刻が夜間を示すとき、前記目尻目頭パターンを選択する、請求項1に記載の眼検出装置。 It further comprises time detection means for detecting the current time,
The eye detection device according to claim 1, wherein the selection unit selects the eye corner pattern when the time detected by the time detection unit indicates night.
前記車両のワイパーが作動しているか否かを判断する作動検出手段をさらに備え、
前記選択手段は、前記作動検出手段によってワイパーが作動していると判断されたとき、前記目尻目頭パターンを選択する、請求項1に記載の眼検出装置。 Mounted on the vehicle,
An operation detecting means for determining whether or not the vehicle wiper is operating;
The eye detection device according to claim 1, wherein the selection unit selects the eye corner pattern when it is determined by the operation detection unit that a wiper is operating.
前記撮像ステップで撮像された前記顔画像に基づき、前記対象者の上瞼と下瞼とをそれぞれ示す画素の候補の組み合わせをそれぞれ瞼候補として検出する検出ステップと、
前記顔画像の中で前記検出ステップにおいて検出された前記瞼候補毎の目尻、及び目頭を示す画像との類似度を算出するために予め定められた画像の2以上の目尻目頭パターンの中から、当該瞼候補毎の形状を示す形状値に基づき、1つの前記目尻目頭パターンを当該瞼候補毎に選択して対応付ける選択ステップと、
前記顔画像の中で前記検出ステップにおいて検出された前記瞼候補毎の目尻、及び目頭を示す画像と、前記選択ステップにおいて当該瞼候補毎に選択された前記目尻目頭パターンの画像との前記類似度をそれぞれ算出する特定ステップとを備える、眼検出方法。 An imaging step of capturing an image including the face of the subject as a face image;
A detection step of detecting each candidate combination of pixels indicating the upper eyelid and the lower eyelid of the target person as an eyelid candidate based on the face image imaged in the imaging step;
Among the two or more eye corner eye patterns of a predetermined image for calculating the degree of similarity between the eye corner for each eyelid candidate detected in the detection step in the face image and an image indicating the eye head, A selection step of selecting and correlating one eye corner pattern for each eyelid candidate based on a shape value indicating the shape of each eyelid candidate;
The similarity between the image showing the eye corners and the eyes for each eyelid candidate detected in the detection step in the face image, and the image of the eye corners eye pattern selected for each eyelid candidate in the selection step And a specific step of calculating each of the eye detection methods.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009051222A JP2010205076A (en) | 2009-03-04 | 2009-03-04 | Eye detecting device, and method used in the device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009051222A JP2010205076A (en) | 2009-03-04 | 2009-03-04 | Eye detecting device, and method used in the device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010205076A true JP2010205076A (en) | 2010-09-16 |
Family
ID=42966472
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009051222A Pending JP2010205076A (en) | 2009-03-04 | 2009-03-04 | Eye detecting device, and method used in the device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010205076A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115771387A (en) * | 2021-09-06 | 2023-03-10 | 博泰车联网(南京)有限公司 | Sun shield control method and device |
-
2009
- 2009-03-04 JP JP2009051222A patent/JP2010205076A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115771387A (en) * | 2021-09-06 | 2023-03-10 | 博泰车联网(南京)有限公司 | Sun shield control method and device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2074550B1 (en) | Eye opening detection system and method of detecting eye opening | |
CN104200192B (en) | Driver's gaze detection system | |
JP4307496B2 (en) | Facial part detection device and program | |
US8345922B2 (en) | Apparatus for detecting a pupil, program for the same, and method for detecting a pupil | |
JP5592441B2 (en) | Light distribution control device | |
WO2016038784A1 (en) | Driver state determination apparatus | |
JP4793269B2 (en) | Sleepiness detection device | |
JP4840146B2 (en) | Sleepiness detection device | |
JP5737401B2 (en) | 瞼 Detection device | |
JP4992823B2 (en) | Face detection apparatus and face detection method | |
JP6855872B2 (en) | Face recognition device | |
JP4989249B2 (en) | Eye detection device, dozing detection device, and method of eye detection device | |
JP2009219555A (en) | Drowsiness detector, driving support apparatus, drowsiness detecting method | |
JP2010191793A (en) | Alarm display and alarm display method | |
JP2014109958A (en) | Photographed image display device, and photographed image display method | |
JP2008257574A (en) | Image processing method, image processing device, image processing system and computer program | |
JP2008183933A (en) | Noctovision equipment | |
JP2004053324A (en) | Collision safety controller for automobile | |
JP2009125518A (en) | Driver's blink detection method, driver's awakening degree determination method, and device | |
JP4623172B2 (en) | Pupil detection device, program for pupil detection device, and pupil detection method | |
JP2010205076A (en) | Eye detecting device, and method used in the device | |
JPH1044824A (en) | Driver's-eye open/closed state determination device for vehicle | |
JP4623171B2 (en) | Pupil detection device, program for pupil detection device, and pupil detection method | |
KR101360412B1 (en) | A system for monitoring loose/droway driver using head moving information | |
JP4781292B2 (en) | Closed eye detection device, dozing detection device, closed eye detection method, and closed eye detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110901 |