JP2006260397A - Eye opening degree estimating device - Google Patents

Eye opening degree estimating device Download PDF

Info

Publication number
JP2006260397A
JP2006260397A JP2005079525A JP2005079525A JP2006260397A JP 2006260397 A JP2006260397 A JP 2006260397A JP 2005079525 A JP2005079525 A JP 2005079525A JP 2005079525 A JP2005079525 A JP 2005079525A JP 2006260397 A JP2006260397 A JP 2006260397A
Authority
JP
Japan
Prior art keywords
eye
axis
opening degree
eye opening
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005079525A
Other languages
Japanese (ja)
Inventor
Yusuke Nakano
雄介 中野
Yuichi Kawakami
雄一 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2005079525A priority Critical patent/JP2006260397A/en
Priority to US11/375,146 priority patent/US20060210121A1/en
Publication of JP2006260397A publication Critical patent/JP2006260397A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an eye opening degree estimating device for properly estimating the eye opening degree of the eyes of a figure. <P>SOLUTION: In an eye opening degree estimating device 1A, a search axis SA to be used for estimating an eye opening degree is set in an eye region image ERI, and the luminance value of the eye region image ERI is integrated for the position of the direction of the search axis SA along a direction vertical to the search axis SA so that a vertical integration projection histogram HI(x) can be generated. Then, the eye opening degree of an eye included in the eye region image ERI is estimated based on featured values relating to at least one of the vertical integration projection histogram HI(x) and the eye region image ERI at the position in the direction of the search axis SA where the vertical integration projection histogram HI(x) is set as an extremal value. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、開眼度を推定する開眼度推定装置に関する。   The present invention relates to an eye opening degree estimation device that estimates an eye opening degree.

従来より、人物の顔を撮影した複数の顔画像の中から、最も目の開いた顔画像を人手で選択することが行われている。例えば、運転免許証に掲載される顔画像は、複数の顔画像の中から、最も目の開いた顔画像を人手で選択することにより得られている。しかし、このような人手による選択作業は煩雑であるため、開眼度を自動的に推定して、複数の顔画像の中から、最も目の開いた顔画像を自動的に選択できるようにすることが望まれている。   Conventionally, a face image with the most open eyes is manually selected from a plurality of face images obtained by photographing a person's face. For example, the face image posted on the driver's license is obtained by manually selecting the face image with the most open eyes from the plurality of face images. However, since such manual selection is complicated, the degree of eye opening is automatically estimated so that the face image with the most open eyes can be automatically selected from a plurality of face images. Is desired.

なお、開眼度を自動的に推定する技術としては、例えば、特許文献1の技術が知られている。特許文献1の技術では、目領域画像の縦方向の連続黒色画素数から開眼度を推定している。   As a technique for automatically estimating the degree of eye opening, for example, the technique of Patent Document 1 is known. In the technique of Patent Document 1, the eye opening degree is estimated from the number of continuous black pixels in the vertical direction of the eye region image.

特開平6−32154号公報JP-A-6-32154

しかし、特許文献1の技術は、顔の傾きや眼鏡の影響を受けやすく、開眼度を適切に推定できないという問題がある。   However, the technique of Patent Document 1 has a problem that it is easily influenced by the inclination of the face and glasses, and the degree of eye opening cannot be estimated appropriately.

本発明は、この問題を解決するためになされたもので、顔の傾きや眼鏡の影響を排除しつつ、開眼度を適切に推定可能な開眼度推定装置を提供することを目的とする。   The present invention has been made to solve this problem, and an object of the present invention is to provide an eye opening degree estimation device that can appropriately estimate an eye opening degree while eliminating the influence of face inclination and spectacles.

上記課題を解決するため、請求項1の発明は、人物の目の開眼度を推定する開眼度推定装置であって、開眼度の推定に用いられる第1軸を開眼度の推定対象となる目を含む目領域画像に設定する軸設定手段と、前記目領域画像の輝度値を前記第1軸と垂直な方向に沿って前記第1軸の方向の異なる位置ごとに積分して、前記第1軸の方向の積分値の分布を表現した関数である第1ヒストグラムを生成する第1ヒストグラム生成手段と、前記第1ヒストグラムが極値をとる前記第1軸の方向の位置における、前記第1ヒストグラムおよび前記目領域画像のうちの少なくとも1つに関する特徴量を導出する特徴量導出手段と、前記特徴量に基づいて、前記目領域画像に含まれる目の開眼度を推定する推定手段とを備える。   In order to solve the above problem, the invention of claim 1 is an eye opening degree estimation device for estimating the eye opening degree of a person's eyes, wherein the eye that is the eye opening degree estimation target is the first axis used for the eye opening degree estimation. An axis setting means for setting an eye area image including the eye area image, and integrating the luminance value of the eye area image at different positions in the direction of the first axis along a direction perpendicular to the first axis. First histogram generating means for generating a first histogram that is a function expressing the distribution of integral values in the direction of the axis, and the first histogram at a position in the direction of the first axis at which the first histogram takes an extreme value. And feature amount deriving means for deriving a feature amount related to at least one of the eye region images, and estimation means for estimating an eye opening degree included in the eye region image based on the feature amount.

請求項2の発明は、請求項1に記載の開眼度推定装置において、前記軸設定手段は、前記目領域画像の輝度値を第2軸と垂直な方向に沿って前記第2軸の方向の異なる位置ごとに積分して、前記第2軸の方向の積分値の分布を表現した関数である第2ヒストグラムを生成する第2ヒストグラム生成手段と、前記第2ヒストグラムが極値をとる前記第2軸の方向の位置に基づいて、前記第2軸の方向の前記第1軸の位置を決定する決定手段と、を備える。   According to a second aspect of the present invention, in the eye opening degree estimating device according to the first aspect, the axis setting means sets the luminance value of the eye area image in the direction of the second axis along a direction perpendicular to the second axis. A second histogram generating means for generating a second histogram which is a function expressing an integrated value distribution in the direction of the second axis by integrating at different positions; and the second histogram in which the second histogram takes an extreme value. Determining means for determining the position of the first axis in the direction of the second axis based on the position in the direction of the axis.

請求項3の発明は、請求項1または請求項2に記載の開眼度推定装置において、前記第1軸設定手段は、開眼度の推定対象の目における瞼の開閉方向と略垂直な慣性主軸を検出し、当該慣性主軸と平行に前記第1軸を設定する。   According to a third aspect of the present invention, in the eye opening degree estimating device according to the first or second aspect, the first axis setting means has an inertia main axis substantially perpendicular to the eyelid opening / closing direction of the eye whose eye opening degree is to be estimated. Detect and set the first axis parallel to the inertial main axis.

請求項4の発明は、請求項1ないし請求項3のいずれかに記載の開眼度推定装置において、入力された画像から前記目領域画像を抽出する抽出手段をさらに備え、入力された複数の画像の各々から抽出した複数の前記目領域画像の各々について目の開眼度を推定し、最も開いた目を含む画像を特定する。   According to a fourth aspect of the present invention, in the eye opening degree estimation device according to any one of the first to third aspects of the present invention, the eye opening degree estimating device further includes an extraction unit that extracts the eye region image from the input image, and the plurality of input images The eye opening degree is estimated for each of the plurality of eye region images extracted from each of the eye regions, and an image including the most open eye is specified.

請求項1ないし請求項4の発明によれば、目の開き具合を反映した特徴量に基づいて目の開眼度が推定されるので、顔の傾きや眼鏡の影響を避けて開眼度を高精度に推定可能である。   According to the first to fourth aspects of the invention, since the eye opening degree is estimated based on the feature amount reflecting the degree of eye opening, the eye opening degree is highly accurate while avoiding the influence of the inclination of the face and the glasses. Can be estimated.

請求項2の発明によれば、第1軸を適切に設定可能であるので、開眼度をより高精度に推定可能である。   According to the invention of claim 2, since the first axis can be set appropriately, the eye opening degree can be estimated with higher accuracy.

請求項3の発明によれば、目が水平でない場合や顔が傾いている場合にも第1軸を慣性主軸と平行に設定可能であるので、開眼度をより高精度に推定可能である。   According to the invention of claim 3, since the first axis can be set parallel to the inertial main axis even when the eyes are not horizontal or the face is inclined, the eye opening degree can be estimated with higher accuracy.

請求項4の発明によれば、複数の画像を与えるだけで、最も目が開いている画像を自動的に特定可能である。   According to the fourth aspect of the present invention, it is possible to automatically specify the image with the most open eyes simply by giving a plurality of images.

本発明の第1実施形態〜第3実施形態に係る開眼度推定装置1A〜1Cは、入力画像(顔画像)に含まれる人物の目の開き具合を数値化し開眼度として推定する。以下では、このような開眼度推定装置1A〜1Cの構成および動作について説明する。   The eye opening degree estimation devices 1A to 1C according to the first to third embodiments of the present invention numerically estimate the degree of eye opening of a person included in an input image (face image) and estimate the degree of eye opening. Below, the structure and operation | movement of such an eye-opening degree estimation apparatus 1A-1C are demonstrated.

{1 第1実施形態}
<1.1 ハードウエア構成>
図1は、本発明の第1実施形態に係る開眼度推定装置1Aのハードウエア構成を示すブロック図である。
{1 First embodiment}
<1.1 Hardware configuration>
FIG. 1 is a block diagram showing a hardware configuration of an eye opening degree estimation apparatus 1A according to the first embodiment of the present invention.

図1に示すように、開眼度推定装置1Aは、画像入力装置10と画像処理コンピュータ20とを備える。画像入力装置10は、例えば、デジタルカメラやスキャナであり、画像を生成して出力する。画像処理コンピュータ20は、少なくともCPU21およびメモリ22を備えるコンピュータであり、インストールされた開眼度推定プログラム23を実行して、与えられた画像から開眼度を推定する。画像入力装置10と画像処理コンピュータ20とは、通信可能に接続され、画像入力装置10から画像処理コンピュータ20へは、画像処理コンピュータ20の処理対象となる画像(画像データ)が与えられる。なお、画像が記録された記録媒体を画像処理コンピュータ20に読み取らせて画像処理コンピュータ20に画像を与えることや、電気通信回線を経由して画像処理コンピュータ20に画像を与えることも妨げられない。   As shown in FIG. 1, the eye opening degree estimation device 1 </ b> A includes an image input device 10 and an image processing computer 20. The image input device 10 is, for example, a digital camera or a scanner, and generates and outputs an image. The image processing computer 20 is a computer including at least a CPU 21 and a memory 22 and executes an installed eye opening degree estimation program 23 to estimate an eye opening degree from a given image. The image input device 10 and the image processing computer 20 are communicably connected, and an image (image data) to be processed by the image processing computer 20 is given from the image input device 10 to the image processing computer 20. In addition, it is not prevented that the image processing computer 20 reads the recording medium on which the image is recorded and gives the image to the image processing computer 20 or gives the image to the image processing computer 20 via an electric communication line.

<1.2 画像処理コンピュータの機能的構成>
図2は、画像処理コンピュータ20の機能的構成を示すブロック図である。図2に示す顔領域検出部25、目領域解析部26および出力部27は、CPU21およびメモリ22が協働して開眼度推定プログラム23を実行することにより実現される機能を示している。もちろん、これらの機能の全部または一部を、専用の画像処理プロセッサによってハードウエア的に実現してもよい。
<1.2 Functional configuration of image processing computer>
FIG. 2 is a block diagram showing a functional configuration of the image processing computer 20. The face area detection unit 25, the eye area analysis unit 26, and the output unit 27 illustrated in FIG. 2 indicate functions that are realized when the CPU 21 and the memory 22 cooperate to execute the eye opening degree estimation program 23. Of course, all or part of these functions may be realized by hardware using a dedicated image processor.

図2を参照して、顔領域検出部25は、入力画像の中の顔領域を検出し、顔領域を含む検出枠の情報を目領域解析部26へ出力する。   With reference to FIG. 2, the face area detection unit 25 detects a face area in the input image and outputs information of a detection frame including the face area to the eye area analysis unit 26.

目領域解析部26は、入力された検出枠の中の、開眼度の推定対象となる目を含む目領域に係る画像(以下では、「目領域画像」とも称する)から目の開眼度を推定する。さらに、目領域解析部26は、複数の入力画像の各々について開眼度を推定し、最も開いた目を含む入力画像を特定する。   The eye area analysis unit 26 estimates the eye opening degree from the image related to the eye area including the eye whose eye opening degree is to be estimated (hereinafter, also referred to as “eye area image”) in the input detection frame. To do. Further, the eye region analysis unit 26 estimates the eye opening degree for each of the plurality of input images, and specifies the input image including the most open eye.

出力部27は、最も開いた目を含む入力画像等の目領域解析部26の解析結果を、例えば、画像処理コンピュータ20に設けられたディスプレイに視認可能に表示する。   The output unit 27 displays the analysis result of the eye region analysis unit 26 such as an input image including the most open eye so as to be visible on a display provided in the image processing computer 20, for example.

以下では、上述の顔領域検出部25および目領域解析部26のより詳細な構成について説明する。   Below, the more detailed structure of the above-mentioned face area | region detection part 25 and the eye area | region analysis part 26 is demonstrated.

<1.2.1 顔領域検出部>
図3は、顔領域検出部25の詳細な構成を示すブロック図である。以下では、図3に示す各機能ブロックについて順次説明する。
<1.2.1 Face Area Detection Unit>
FIG. 3 is a block diagram showing a detailed configuration of the face area detection unit 25. Hereinafter, each functional block shown in FIG. 3 will be described in sequence.

○ウインドウ切り出し部;
ウインドウ切り出し部251は、入力画像の中に矩形のウインドウを設定する。ウインドウ切り出し部251は、入力画像の中のウインドウの位置を可変に設定可能であるとともに、望ましくは、入力画像に対するウインドウの相対的な大きさも可変に設定可能である。入力画像に対するウインドウの相対的な大きさの変更は、ウインドウの大きさを変更することにより実現してもよいし、ウインドウの大きさを一定に維持したまま入力画像を拡大または縮小することにより実現してもよい。後者の場合、入力画像のサブサンプリングにより得られる画像ピラミッドに含まれる様々な大きさの画像の中にウインドウを適宜設定することにより、入力画像に対するウインドウの相対的な大きさを変化させることが望ましい。なお、以下の説明では、当該画像ピラミッドを構成する画像の中でウインドウを移動させることにより、画像ピラミッドを構成する画像をウインドウで走査するものとして説明を進める。このように、入力画像に対するウインドウの相対的な大きさを変更可能とすることにより、入力画像に含まれる顔の大きさが変化しても、後述する識別部253における識別を適切に実行可能である。
○ Window cutout part;
The window cutout unit 251 sets a rectangular window in the input image. The window cutout unit 251 can variably set the position of the window in the input image, and preferably can variably set the relative size of the window with respect to the input image. Changing the relative size of the window with respect to the input image may be realized by changing the size of the window, or by expanding or reducing the input image while keeping the size of the window constant. May be. In the latter case, it is desirable to change the relative size of the window with respect to the input image by appropriately setting the window in images of various sizes included in the image pyramid obtained by subsampling the input image. . In the following description, the description will be made on the assumption that the image forming the image pyramid is scanned by the window by moving the window in the image forming the image pyramid. Thus, by making it possible to change the relative size of the window with respect to the input image, even if the size of the face included in the input image changes, it is possible to appropriately perform identification in the identification unit 253 described later. is there.

○前処理部;
前処理部252は、ウインドウ切り出し部251が設定したウインドウに対してマスキング処理を行う。当該マスキング処理では、顔の特徴と無関係の背景が含まれる、ウインドウの縁部の画像情報を除去するマスクがウインドウに対して適用される。さらに、前処理部252は、ウインドウの中のマスキングがされていない部分(以下では、「非マスク部分」とも称する)の画像が、人物の顔領域の画像であるか否かの予備判定を行い、非マスク部分の画像が顔領域の画像ではない(非マスク部分の画像が非顔領域の画像である)と判定したウインドウを破棄して以降の処理の対象から除外する。また、前処理部252は、予備判定により破棄しなかったウインドウに対して、輝度の正規化を行う。輝度の正規化としては、輝度勾配を補正する平面当てはめ正規化や全ての輝度値に同数の画素を割り当てるようにヒストグラムを変換するヒストグラム平坦化等を行うことができる。
○ Pre-processing part;
The preprocessing unit 252 performs a masking process on the window set by the window cutout unit 251. In the masking process, a mask that removes image information at the edge of the window, including a background unrelated to facial features, is applied to the window. Further, the pre-processing unit 252 performs a preliminary determination as to whether or not the image of the unmasked portion of the window (hereinafter also referred to as “non-mask portion”) is an image of a person's face area. The window determined that the image of the non-mask part is not the image of the face area (the image of the non-mask part is the image of the non-face area) is discarded and excluded from the target of the subsequent processing. In addition, the preprocessing unit 252 normalizes the luminance of the window that has not been discarded due to the preliminary determination. As normalization of luminance, it is possible to perform normal fitting for correcting the luminance gradient, flattening of the histogram for converting the histogram so as to allocate the same number of pixels to all luminance values, and the like.

○識別部;
識別部253は、非マスク部分の画像が顔領域の画像であるか否かを識別する。より具体的には、識別部253は、非マスク部分の画像をベクトル化し、得られたベクトルを、あらかじめ準備されている識別用の特徴空間に射影する。さらに、識別部253は、当該ベクトルの射影結果に基づいて、当該ベクトルの基礎となった非マスク部分の画像が顔領域の画像であるか否かを識別し、非マスク部分の画像が顔領域の画像であると識別したウインドウの位置および大きさを後処理部254へ出力する。
○ Identification part;
The identification unit 253 identifies whether or not the image of the non-mask portion is a face region image. More specifically, the identification unit 253 vectorizes the image of the non-mask part and projects the obtained vector onto a feature space for identification prepared in advance. Further, the identification unit 253 identifies whether or not the image of the non-mask part that is the basis of the vector is a face area image based on the projection result of the vector, and the image of the non-mask part is the face area The position and size of the window identified as an image of the image is output to the post-processing unit 254.

識別用の特徴空間としては、顔領域の画像であるか否かが既知の多数の画像に係るベクトルに対して主成分分析(PCA)を施すことにより得られる主成分空間を用いることができる。したがって、識別用の特徴空間は、顔領域の画像に係るベクトルおよび非顔領域の画像に係るベクトルの射影結果が大きく異なるような部分空間を形成している。また、顔領域の画像であるか否かの識別は、例えば、非マスク部分の画像に係るベクトルの特徴空間までの距離と所定の閾値との大小関係に基づいて行われる。識別部253における識別処理のために必要な情報は、識別辞書255にあらかじめ格納されている。   As the feature space for identification, a principal component space obtained by performing principal component analysis (PCA) on vectors related to a large number of images that are known to be facial region images can be used. Therefore, the feature space for identification forms a partial space in which the projection results of the vectors related to the face area image and the non-face area image differ greatly. The identification of whether or not the image is a face region image is performed based on, for example, the magnitude relationship between the distance to the feature space of the vector related to the image of the non-mask portion and a predetermined threshold. Information necessary for the identification processing in the identification unit 253 is stored in the identification dictionary 255 in advance.

○後処理部;
後処理部254は、入力されたウインドウの位置および大きさに基づいて検出枠を設定し、設定した検出枠の位置および大きさを目領域解析部26へ出力する。より具体的には、後処理部254は、近傍に他のウインドウが存在しないウインドウについては、位置および大きさが当該ウインドウの位置および大きさと一致する検出枠を設定し、近傍に他のウインドウが存在するウインドウについては、近傍の複数のウインドウを統合する検出枠を設定する。ここで、統合後の検出枠の位置および大きさは、それぞれ、統合前の複数のウインドウの位置および大きさの平均値となっている。なお、相互に重なるような複数の検出枠については、当該検出枠の内部の画像に係るベクトルの、特徴空間までの距離等に基づいて1つの検出枠のみが選択され、残余の検出枠は誤検出として破棄される。
○ Post-processing section;
The post-processing unit 254 sets a detection frame based on the input window position and size, and outputs the set detection frame position and size to the eye region analysis unit 26. More specifically, the post-processing unit 254 sets a detection frame whose position and size coincide with the position and size of the window for a window in which no other window exists in the vicinity, and there is another window in the vicinity. For existing windows, a detection frame for integrating a plurality of neighboring windows is set. Here, the positions and sizes of the detection frames after integration are average values of the positions and sizes of the plurality of windows before integration, respectively. For a plurality of detection frames that overlap each other, only one detection frame is selected based on the distance to the feature space, etc. of the vector related to the image inside the detection frame, and the remaining detection frames are erroneous. Discarded as a detection.

<1.2.2 目領域解析部>
図4は、第1実施形態に係る目領域解析部26の詳細な構成を示すブロック図である。以下では、図4に示す各機能ブロックについて順次説明する。
<1.2.2 Eye region analysis unit>
FIG. 4 is a block diagram showing a detailed configuration of the eye region analysis unit 26 according to the first embodiment. Hereinafter, each functional block shown in FIG. 4 will be sequentially described.

○目領域設定部;
目領域設定部261は、顔領域検出部25で設定された検出枠の中に、開眼度の推定対象となる目を含む目領域を設定する。例えば、水平(左右)方向をX軸、鉛直(上下)方向をY軸とするXY直交座標系が定義された図5に示すように、左上隅の点PLUの座標が(x0,y0)であり、一辺の長さがLである正方形の検出枠FRが顔領域検出部25で設定されている場合、目領域設定部261は、中心C11の位置(座標)が(x0+L/4,y0+L/4)であり、一辺の長さがL/4であるような右目EY1を含む正方形の目領域AR11と、中心C12の位置(座標)が(x0+3L/4,y0+L/4)であり、一辺の長さがL/4であるような左目EY2を含む正方形の目領域AR12とを設定する。これにより、開眼度推定装置1Aでは、入力画像から目領域画像が抽出されたことになる。目領域AR11,AR12は、検出枠FRに対する中心C11,C12の相対な位置および検出枠FRに対する相対的な大きさが一定の領域となっている。
○ Eye area setting part;
The eye area setting unit 261 sets an eye area including an eye whose eye opening degree is to be estimated in the detection frame set by the face area detection unit 25. For example, as shown in FIG. 5 in which an XY orthogonal coordinate system is defined in which the horizontal (left / right) direction is the X axis and the vertical (up / down) direction is the Y axis, the coordinates of the point PLU at the upper left corner are (x 0 , y 0 ) And a square detection frame FR having a side length L is set by the face region detection unit 25, the eye region setting unit 261 has the position (coordinates) of the center C11 as (x 0 + L). / 4, y 0 + L / 4), and the position (coordinates) of the square eye area AR11 including the right eye EY1 whose side is L / 4 and the center C12 is (x 0 + 3L / 4, y 0 + L / 4), and a square eye area AR12 including the left eye EY2 having a side length of L / 4 is set. Thereby, in the eye opening degree estimation device 1A, the eye area image is extracted from the input image. The eye areas AR11 and AR12 are areas in which the relative positions of the centers C11 and C12 with respect to the detection frame FR and the relative size with respect to the detection frame FR are constant.

これらの目領域AR11,AR12を大きくすれば、開眼度の推定対象となる目EY1,EY2が目領域AR11,AR12に含まれる可能性は高くなるが、後述する積分投影ヒストグラムの生成における演算量が増加して開眼度の推定に要する時間が増加する。一方、この目領域を小さくすれば、後述する積分投影ヒストグラムの生成における計算量が減少して開眼度の推定に要する時間が減少するが、開眼度の推定対象となる目EY1,EY2が目領域AR11,AR12に含まれる可能性が低くなる。このため、目領域AR11,AR12は、開眼度の推定対象となる目EY1,EY2が確実に含まれる範囲内で、できる限り小さくすることが望まれる。   Increasing these eye areas AR11 and AR12 increases the possibility that the eyes EY1 and EY2 whose eye opening degree is to be estimated are included in the eye areas AR11 and AR12. The time required to estimate the degree of eye opening increases. On the other hand, if the eye area is reduced, the amount of calculation for generating an integral projection histogram, which will be described later, is reduced and the time required for estimating the eye opening degree is reduced, but the eyes EY1 and EY2 that are targets for eye opening degree estimation are the eye area. The possibility of being included in AR11 and AR12 is reduced. For this reason, it is desirable that the eye areas AR11 and AR12 be as small as possible within a range in which the eyes EY1 and EY2 that are targets for eye opening degree estimation are reliably included.

○探索軸設定部;
探索軸設定部262は、開眼度の推定に用いられる探索軸を目領域画像に設定する。さらに、探索軸設定部262は、探索軸に加えて、探索軸の位置の決定に用いられる位置決定軸を目領域画像に設定する。位置決定軸は、探索軸を設定すべき方向と垂直な方向に設定される。探索軸および位置決定軸の設定方向は必ずしも限定されないが、以下では、水平方向をX軸、鉛直方向をY軸とするXY直交座標系が定義された図6に例示すように、座標(x1,y1),(x1,y2),(x2,y2),(x2,y1)[x1<x2,y1<y2]を頂点とする矩形の目領域画像ERIに、探索軸SAがX軸方向(水平方向)に設定され、位置決定軸PAがY軸方向(垂直方向)に設定されているものとして説明を進める。したがって、以下では、探索軸SAの方向の位置はx座標で表現されるとともに、位置決定軸PAの方向の位置はy座標で表現される。
○ Search axis setting part;
The search axis setting unit 262 sets a search axis used for eye opening degree estimation in the eye area image. In addition to the search axis, the search axis setting unit 262 sets a position determination axis used for determining the position of the search axis in the eye region image. The position determination axis is set in a direction perpendicular to the direction in which the search axis should be set. The setting directions of the search axis and the position determination axis are not necessarily limited, but in the following, as shown in FIG. 6 in which an XY orthogonal coordinate system is defined in which the horizontal direction is the X axis and the vertical direction is the Y axis, the coordinates (x 1 , y 1 ), (x 1 , y 2 ), (x 2 , y 2 ), (x 2 , y 1 ) [x 1 <x 2 , y 1 <y 2 ] The description will proceed on the assumption that the search axis SA is set in the X-axis direction (horizontal direction) and the position determination axis PA is set in the Y-axis direction (vertical direction) in the image ERI. Therefore, in the following, the position in the direction of the search axis SA is expressed by the x coordinate, and the position in the direction of the position determination axis PA is expressed by the y coordinate.

ここで、図4に戻って説明すると、探索軸設定部262は、より詳細には、水平方向積分投影ヒストグラム生成部262aと探索軸位置決定部262bとを備える。   Here, returning to FIG. 4, the search axis setting unit 262 includes a horizontal integral projection histogram generation unit 262a and a search axis position determination unit 262b in more detail.

水平方向積分投影ヒストグラム生成部262aは、目領域画像ERIの輝度値I(x,y)をX軸方向に沿ってY軸方向の異なる位置ごとに積分して、式(1)に示すような、Y軸方向の積分値の分布を表現した関数である水平方向積分投影ヒストグラムVI(y)を生成する。なお、輝度値I(x,y)は、座標(x,y)における輝度値を示している。   The horizontal direction integral projection histogram generation unit 262a integrates the luminance value I (x, y) of the eye region image ERI along the X axis direction at different positions in the Y axis direction, as shown in Expression (1). The horizontal integral projection histogram VI (y), which is a function expressing the distribution of integral values in the Y-axis direction, is generated. The luminance value I (x, y) indicates the luminance value at the coordinates (x, y).

Figure 2006260397
Figure 2006260397

式(1)から明らかなように、水平方向積分投影ヒストグラムVI(y)は、目領域画像ERIの全体について輝度値I(x,y)を積分することにより得られている。   As is clear from Equation (1), the horizontal direction integral projection histogram VI (y) is obtained by integrating the luminance value I (x, y) for the entire eye region image ERI.

探索軸位置決定部262bは、水平方向積分投影ヒストグラムVI(y)に基づいて、探索軸SAのy座標を決定する。より具体的には、探索軸位置決定部262bは、水平方向投影ヒストグラムVI(y)が極小値をとるy座標が1つである場合には、当該y座標を探索軸SAのy座標とし、水平方向投影ヒストグラムVI(y)が極小値をとるy座標が複数である場合には、そのうちで最大のy座標を探索軸SAのy座標とする。これは、人の目の中心付近には略円形状を有する黒(または黒類似色)の眼球が存在するため、水平方向積分投影ヒストグラムVI(y)が極小値をとるy座標は、目の中心のy座標に一致する可能性が高いという性質を利用したものである。   The search axis position determination unit 262b determines the y coordinate of the search axis SA based on the horizontal direction integral projection histogram VI (y). More specifically, when there is one y coordinate at which the horizontal projection histogram VI (y) has a minimum value, the search axis position determination unit 262b sets the y coordinate as the y coordinate of the search axis SA, When there are a plurality of y coordinates at which the horizontal projection histogram VI (y) has a minimum value, the maximum y coordinate is set as the y coordinate of the search axis SA. This is because there is a black (or similar black) eyeball in the vicinity of the center of the human eye, and the y coordinate at which the horizontal integral projection histogram VI (y) takes the minimum value is This utilizes the property that there is a high possibility of matching the center y coordinate.

○鉛直方向積分投影ヒストグラム生成部;
鉛直方向積分投影ヒストグラム生成部263は、目領域画像ERIの輝度値I(x,y)をY軸方向に沿ってX軸方向の異なる位置ごとに積分して、式(2)に示すような、X軸方向の積分値の分布を表現した関数である鉛直方向積分投影ヒストグラムHI(x)を生成する。
○ Vertical direction integral projection histogram generation unit;
The vertical direction integral projection histogram generation unit 263 integrates the luminance value I (x, y) of the eye region image ERI along the Y axis direction at different positions in the X axis direction, as shown in Expression (2). Then, a vertical integral projection histogram HI (x), which is a function expressing the distribution of integral values in the X-axis direction, is generated.

Figure 2006260397
Figure 2006260397

式(2)から明らかなように、鉛直方向積分投影ヒストグラムHI(x)は、探索軸y=y3からの距離が距離δy3以内の、探索軸y=y3を中心とする帯状のヒストグラム計算領域HCAの中で輝度値I(x,y)を積分することにより得られている。距離δy3の具体的値は、例えば、L/6程度に設定することが望ましい。 As is apparent from equation (2), the vertical integral projection histogram HI (x) is the distance from the search axis y = y 3 distance .delta.y 3 within the strip-shaped histogram about the search axis y = y 3 It is obtained by integrating the luminance value I (x, y) in the calculation area HCA. The specific value of the distance δy 3 is desirably set to about L / 6, for example.

○特徴量計算部;
特徴量計算部264は、鉛直方向積分投影ヒストグラムHI(x)に基づいて、目の開き具合を反映した特徴量P1を導出する。より具体的には、特徴量計算部264は、鉛直方向積分投影ヒストグラムHI(x)が極小値をとるx座標x3を特定し、式(3)に示すような、当該x座標x3における鉛直方向積分投影ヒストグラムHI(x)の値(極小値)を特徴量P1として導出する。
○ Feature amount calculation unit;
The feature amount calculation unit 264 derives a feature amount P 1 reflecting the degree of eye opening based on the vertical direction integral projection histogram HI (x). More specifically, the feature amount calculating unit 264, the vertical integral projection histogram HI (x) is to identify the x-coordinate x 3 of the minima, as shown in equation (3), in the x-coordinate x 3 The value (minimum value) of the vertical integral projection histogram HI (x) is derived as the feature amount P 1 .

Figure 2006260397
Figure 2006260397

○開眼度推定部;
開眼度推定部265は、特徴量計算部264が導出した特徴量P1に基づいて、目領域画像ERIに含まれる目の開眼度Pを推定する。なお、第1実施形態では、特徴量P1そのものが開眼度Pとして扱われる。当該開眼度Pは、目の開き具合が大きくなるほど小さな値をとる。
○ Eye opening degree estimation part;
The eye opening degree estimation unit 265 estimates the eye opening degree P included in the eye region image ERI based on the feature amount P 1 derived by the feature amount calculation unit 264. In the first embodiment, the feature amount P 1 itself is handled as the eye opening degree P. The eye opening degree P takes a smaller value as the degree of eye opening increases.

○比較部;
比較部266は、複数の入力画像の各々から抽出した目領域画像ERIの各々について推定された開眼度Pを比較して、最も開いた目を含む(開眼度Pが最小の)入力画像を特定して解析結果として出力する。
○ Comparison part;
The comparison unit 266 compares the eye opening degree P estimated for each of the eye area images ERI extracted from each of the plurality of input images, and identifies the input image including the most open eye (the eye opening degree P is the smallest). And output as an analysis result.

<1.3 動作>
続いて、開眼度推定装置1Aの動作について、顔領域検出部25の動作と目領域解析部26の動作とに分けて順次説明する。
<1.3 Operation>
Subsequently, the operation of the eye opening degree estimation device 1A will be described in order by dividing it into the operation of the face region detection unit 25 and the operation of the eye region analysis unit 26.

○顔領域検出部の動作;
図7は、顔領域検出部25の動作を示すフローチャートである。
○ Operation of the face area detection unit;
FIG. 7 is a flowchart showing the operation of the face area detection unit 25.

図7のステップS101〜S106は、非マスク部分の画像が顔領域の画像であるようなウインドウの位置および大きさを特定するためのステップ群である。   Steps S101 to S106 in FIG. 7 are a group of steps for specifying the position and size of the window such that the image of the non-mask portion is an image of the face area.

画像入力装置10から画像が入力されると、顔領域検出部25では、最初に、ウインドウ切り出し部251により、入力画像の中にウインドウが設定される(ステップS101)。   When an image is input from the image input device 10, the face area detection unit 25 first sets a window in the input image by the window cutout unit 251 (step S101).

続いて、前処理部252により、設定されたウインドウに対するマスキング処理が行われ(ステップS102)、非マスク部分の画像が非顔領域の画像であるウインドウを破棄するための予備判定が行われる(ステップS103)。ステップS103において、非マスク部分の画像が非顔領域の画像であると判定された場合、続くステップS104およびS105は実行されることなく、ステップS106への移行が行われる。一方、非マスク部分の画像が非顔領域の画像であると判定されなかった場合、ステップS104およびS105が順次実行された後に、ステップS106への移行が行われる。このように、特徴空間を用いた識別(ステップS105)に先立って予備判定(ステップS103)を実行することにより、非マスク部分の画像が非顔領域の画像であることが明らかなウインドウに対して、特徴空間を用いた識別を行う必要がなくなり、画像処理コンピュータ20の負荷を軽減可能である。なお、負荷の軽減を実現するためには、予備判定は、特徴空間を用いた識別よりも低い負荷で実行可能な処理とする必要がある。このため、予備判定では、例えば、非マスク部分の画像に含まれる肌色の画素の割合と所定の閾値との大小関係に基づく簡便な判定方法等が用いられる。   Subsequently, the pre-processing unit 252 performs a masking process on the set window (step S102), and performs a preliminary determination for discarding the window in which the image of the non-mask portion is an image of the non-face area (step S102). S103). If it is determined in step S103 that the image of the non-mask part is an image of a non-face area, the subsequent steps S104 and S105 are not executed, and the process proceeds to step S106. On the other hand, when it is not determined that the image of the non-mask part is an image of the non-face area, Steps S104 and S105 are sequentially executed, and then the process proceeds to Step S106. As described above, by performing the preliminary determination (step S103) prior to the identification using the feature space (step S105), a window in which it is clear that the image of the non-mask portion is an image of the non-face area. Therefore, it is not necessary to perform identification using the feature space, and the load on the image processing computer 20 can be reduced. In order to realize the reduction of the load, the preliminary determination needs to be a process that can be executed with a lower load than the identification using the feature space. For this reason, in the preliminary determination, for example, a simple determination method based on the magnitude relationship between the ratio of the skin color pixels included in the image of the non-masked portion and a predetermined threshold is used.

ステップS104では、前処理部252により、ステップS103で破棄されなかったウインドウの非マスク部分の画像について輝度の正規化が行われ、ステップS105では、識別部253により、非マスク部分の画像が顔領域の画像であるか否かが特徴空間を用いて識別される。そして、非マスク部分の画像が顔領域の画像であると識別されたウインドウの位置および大きさはメモリ22に記憶される。   In step S104, the pre-processing unit 252 normalizes the luminance of the image of the non-masked portion of the window that has not been discarded in step S103. It is identified using the feature space. Then, the position and size of the window that is identified as the image of the non-mask part is the image of the face area are stored in the memory 22.

ステップS106では、入力画像の全体に対するウインドウの走査が完了したか否かによる処理の分岐が行われ、走査が完了した場合、ステップS107への移行が行われ、走査が完了していない場合、ステップS101への移行が行われ、ウインドウの位置を変更して、改めてステップS101〜S106の処理が行われる。   In step S106, the process branches depending on whether or not the window scan for the entire input image is completed. If the scan is completed, the process proceeds to step S107. If the scan is not completed, the process proceeds to step S106. The process proceeds to S101, the position of the window is changed, and the processes of steps S101 to S106 are performed again.

続いて、後処理部254により、非マスク部分の画像が顔領域の画像であると識別されたウインドウの位置および大きさに基づいて、検出枠FRの位置と大きさとが決定され(ステップS107)、決定された検出枠FRの情報が目領域解析部26へ出力され、(ステップS108)、しかる後に顔領域検出部25の動作は終了する。   Subsequently, the post-processing unit 254 determines the position and size of the detection frame FR based on the position and size of the window in which the image of the non-mask portion is identified as the face region image (step S107). The information of the determined detection frame FR is output to the eye region analysis unit 26 (step S108), and then the operation of the face region detection unit 25 is finished.

○目領域解析部の動作;
図8は、目領域解析部26の動作を示すフローチャートである。
○ Operation of eye area analysis unit;
FIG. 8 is a flowchart showing the operation of the eye region analysis unit 26.

図8に示すように、検出枠FRの情報が顔領域検出部25から入力されると、目領域解析部26では、目領域設定部261により、検出枠FRの中に目領域AR11,AR12が設定される(ステップS201)。   As shown in FIG. 8, when information on the detection frame FR is input from the face region detection unit 25, the eye region analysis unit 26 sets the eye regions AR 11 and AR 12 in the detection frame FR by the eye region setting unit 261. It is set (step S201).

ステップS201に続くステップS202およびS203は、探索軸設定部262による探索軸SAの設定が行われるステップ群である。探索軸SAの設定にあたっては、まず、水平方向積分投影ヒストグラム生成部262aにより、水平方向積分投影ヒストグラムVI(y)が生成され(ステップS202)、探索軸位置決定部262bにより、水平方向積分投影ヒストグラムVI(y)が極小値をとるy座標に基づいて、探索軸SAのy座標が決定される(ステップS203)。   Steps S202 and S203 subsequent to step S201 are a group of steps in which the search axis SA is set by the search axis setting unit 262. In setting the search axis SA, first, the horizontal direction integral projection histogram generation unit 262a generates a horizontal direction integral projection histogram VI (y) (step S202), and the search axis position determination unit 262b sets the horizontal direction integral projection histogram. Based on the y coordinate where VI (y) takes the minimum value, the y coordinate of the search axis SA is determined (step S203).

続いて、鉛直方向積分投影ヒストグラム生成部263により、ヒストグラム計算領域HCAが設定され(ステップS204)、ヒストグラム計算領域HCAの中で輝度値I(x,y)を積分することにより垂直方向積分投影ヒストグラムHI(x)が生成される(ステップS205)。   Subsequently, the histogram calculation area HCA is set by the vertical direction integral projection histogram generation unit 263 (step S204), and the luminance value I (x, y) is integrated in the histogram calculation area HCA to thereby obtain the vertical direction integral projection histogram. HI (x) is generated (step S205).

さらに、特徴量計算部264により、鉛直方向積分投影ヒストグラムHI(x)が極小値をとるx座標x3が特定され(ステップS206)、当該x座標x3における鉛直方向積分投影ヒストグラムHI(x)の値HI(x3)が特徴量P1として導出される(ステップS207)。先述したように、この特徴量P1は、開眼度Pともなっている。ステップS206では、水平方向積分投影ヒストグラムHI(x)が極小値をとるx座標x3は、目の中心のx座標に一致する可能性が高いという性質を利用して、目の中心の位置における鉛直方向積分投影ヒストグラムHI(x)の挙動を特徴量P1として採用していることになる。 In addition, the feature amount calculating unit 264, the vertical integral projection histogram HI (x) is identified x-coordinate x 3 taking a minimum value (step S206), the x-coordinate x 3 in the vertical direction integral projection histogram HI (x) Value HI (x 3 ) is derived as the feature amount P 1 (step S207). As described above, the feature amount P 1 is also the eye opening degree P. In step S206, in the horizontal x-coordinate x 3 where the direction integral projection histogram HI (x) has the minimum value, by utilizing the property that it is likely to match the x-coordinate of the center of the eye, the eye position of the center of the The behavior of the vertical integral projection histogram HI (x) is adopted as the feature amount P 1 .

このように、開眼度推定装置1Aでは、目の開き具合を反映した特徴量P1に基づいて目の開眼度Pが推定されるので、顔の傾きや眼鏡の影響を避けて開眼度を高精度に推定可能である。加えて、開眼度推定装置1Aでは、探索軸SAのy座標が探索軸設定部262により可変に設定されるので、探索軸SAを目の中心の位置に適切に設定可能となり、開眼度を高精度に推定可能となっている。 As described above, in the eye opening degree estimation device 1A, the eye opening degree P is estimated based on the feature amount P 1 reflecting the degree of eye opening, so that the eye opening degree is increased while avoiding the influence of the inclination of the face and the glasses. The accuracy can be estimated. In addition, in the eye opening degree estimating apparatus 1A, the y coordinate of the search axis SA is variably set by the search axis setting unit 262, so that the search axis SA can be appropriately set at the center position of the eye, and the eye opening degree is increased. The accuracy can be estimated.

加えて、上述の動作フローにおいては、目の中心の位置の決定と開眼度Pの推定とを別々に行う必要がないので、画像処理コンピュータ20の負荷を低減可能となっている。また、上述の動作フローにより、目領域画像ERIが目から若干ずれていても開眼度Pを適切に推定可能であるので、目領域AR11,AR12の設定を容易に行うことができる。   In addition, in the above-described operation flow, it is not necessary to separately determine the center position of the eye and estimate the eye opening degree P, so that the load on the image processing computer 20 can be reduced. Further, according to the above-described operation flow, the eye opening degree P can be appropriately estimated even if the eye area image ERI is slightly deviated from the eyes, so that the eye areas AR11 and AR12 can be easily set.

さらに、開眼度推定装置1Aでは、比較部266により、複数の入力画像の各々から抽出された目領域画像ERIの各々についての開眼度Pの比較により開眼度Pが最小となる画像が特定されて(ステップS208)、出力部27により、解析結果として出力される(ステップS209)。これにより、開眼度推定装置1Aでは、複数の画像を与えるだけで、最も目が開いている画像を自動的に特定して出力可能となっている。   Furthermore, in the eye opening degree estimation device 1A, the comparison unit 266 identifies an image with the smallest eye opening degree P by comparing the eye opening degree P for each of the eye region images ERI extracted from each of the plurality of input images. (Step S208), the output unit 27 outputs the result as an analysis result (Step S209). As a result, the eye opening degree estimation device 1A can automatically specify and output an image with the most open eyes simply by giving a plurality of images.

{2 第2実施形態}
本発明の第2実施形態に係る開眼度推定装置1Bは、第1実施形態に係る開眼度推定装置1Aと類似の構成を有するが、目領域解析部36の詳細な構成が、第1実施形態の目領域解析部26と相違している。そこで、以下では、目領域解析部36の詳細な構成および動作について説明し、開眼度推定装置1Aと同様の残余の構成および動作についての重複説明は省略する。
{2 Second Embodiment}
The eye opening degree estimation device 1B according to the second embodiment of the present invention has a configuration similar to that of the eye opening degree estimation device 1A according to the first embodiment, but the detailed configuration of the eye region analysis unit 36 is the first embodiment. This is different from the eye region analysis unit 26. Therefore, in the following, a detailed configuration and operation of the eye region analysis unit 36 will be described, and a redundant description of the remaining configuration and operation similar to the eye opening degree estimation device 1A will be omitted.

<2.1 目領域解析部の詳細な構成>
図9は、目領域解析部36の詳細な構成を示すブロック図である。
<2.1 Detailed configuration of eye area analysis unit>
FIG. 9 is a block diagram illustrating a detailed configuration of the eye region analysis unit 36.

図9に示す機能ブロックのうち、探索軸位置決定部362b(探索軸設定部362)、特徴量計算部364、開眼度推定部365および比較部366は、第1実施形態の探索軸位置決定部262b(探索軸設定部262)、特徴量計算部264、開眼度推定部265および比較部266と異なる機能を有しており、残余の機能ブロックである目領域設定部361および鉛直方向積分投影ヒストグラム生成部363は、第1実施形態の対応する機能ブロックである目領域設定部261および鉛直方向積分投影ヒストグラム生成部263と同様の機能を有している。そこで、以下では、探索軸位置決定部362b、特徴量計算部364および比較部366について順次説明し、残余の機能ブロックについての説明は省略する。   Among the functional blocks shown in FIG. 9, the search axis position determination unit 362b (search axis setting unit 362), the feature amount calculation unit 364, the eye opening degree estimation unit 365, and the comparison unit 366 are the search axis position determination unit of the first embodiment. 262b (search axis setting unit 262), feature amount calculation unit 264, eye opening degree estimation unit 265, and comparison unit 266 have different functions, and an eye area setting unit 361 and a vertical direction integral projection histogram which are remaining functional blocks. The generation unit 363 has the same functions as the eye area setting unit 261 and the vertical direction integral projection histogram generation unit 263 which are corresponding functional blocks of the first embodiment. Therefore, in the following, the search axis position determination unit 362b, the feature amount calculation unit 364, and the comparison unit 366 will be described in order, and description of the remaining functional blocks will be omitted.

○探索軸位置決定部;
探索軸位置決定部362bは、探索軸決定部262bと同様に、水平方向積分投影ヒストグラムVI(y)に基づいて探索軸SAのy座標を決定する。ただし、探索軸位置決定部362bは、眉や眼鏡の影響をより詳細に考慮して探索軸SAのy座標を決定している点が、探索軸決定部262bとは異なる。
○ Search axis position determination unit;
Similar to the search axis determination unit 262b, the search axis position determination unit 362b determines the y coordinate of the search axis SA based on the horizontal direction integral projection histogram VI (y). However, the search axis position determination unit 362b differs from the search axis determination unit 262b in that the y coordinate of the search axis SA is determined in consideration of the influence of eyebrows and glasses in more detail.

より具体的には、探索軸位置決定部362bは、水平方向積分投影ヒストグラムVI(y)の複数の極値の間の関係を考慮して、水平方向積分投影ヒストグラムVI(y)が極値をとるy座標が、眉の位置、目の中心の位置および眼鏡のフレームの位置のいずれに対応しているのかを判定する。   More specifically, the search axis position determining unit 362b considers the relationship between the plurality of extreme values of the horizontal integral projection histogram VI (y), and the horizontal integral projection histogram VI (y) determines the extreme value. It is determined whether the y coordinate taken corresponds to the position of the eyebrows, the position of the center of the eye, or the position of the eyeglass frame.

特に、探索軸位置決定部362bは、図10に示すように、目領域画像ERIの上端部近傍の1/4の領域を眉候補領域EBAとみなして、水平方向投影ヒストグラムVI(y)が最小値(複数の極小値のうちの最小のもの)をとるy座標が眉候補領域EBAに含まれる場合、当該最小値と他の極小値との関係を調べて、当該y座標が眉の位置に対応している可能性が高いときは他の極小値をとるy座標を探索軸SAのy座標とする。   In particular, as shown in FIG. 10, the search axis position determination unit 362b regards a quarter region near the upper end of the eye region image ERI as the eyebrow candidate region EBA, and the horizontal projection histogram VI (y) is minimum. When the y-coordinate that takes a value (the minimum of a plurality of local minimum values) is included in the eyebrow candidate area EBA, the relationship between the minimum value and other local minimum values is examined, and the y-coordinate is located at the eyebrow position. When there is a high possibility of correspondence, the y coordinate having another minimum value is set as the y coordinate of the search axis SA.

○特徴量計算部;
特徴量計算部364は、鉛直方向積分投影ヒストグラムHI(x)に基づいて、目の開き具合を反映した複数の特徴量P1〜P3を導出する。より具体的には、特徴量計算部364は、第1実施形態と同様の特徴量P1に加えて、鉛直方向積分投影ヒストグラムHI(x)が極小値をとるx座標x3における鉛直方向積分投影ヒストグラムHI(x)の凹凸状態の指標値である特徴量P2を式(4)に基づいて計算する。
○ Feature amount calculation unit;
The feature amount calculation unit 364 derives a plurality of feature amounts P 1 to P 3 reflecting the degree of eye opening based on the vertical direction integral projection histogram HI (x). More specifically, in addition to the feature value P 1 as in the first embodiment, the feature value calculation unit 364 integrates in the vertical direction at the x coordinate x 3 at which the vertical integral projection histogram HI (x) takes a minimum value. A feature amount P 2 that is an index value of the uneven state of the projection histogram HI (x) is calculated based on Expression (4).

Figure 2006260397
Figure 2006260397

加えて、特徴量計算部364は、x座標x3における鉛直方向積分投影ヒストグラムHI(x)に関する特徴量P1およびP2に加えて、x座標x3における目領域画像ERIに関する特徴量P3も導出する。ここで、特徴量P3としては、例えば、図10に示すヒストグラム計算領域HCAの中のx=x3における黒色画素数を採用可能である。 In addition, the feature amount calculating unit 364, in addition to the characteristic quantity P 1 and P 2 about vertical integral projection histogram HI in x-coordinate x 3 (x), the feature amount P 3 about the eye region image ERI in x-coordinate x 3 Is also derived. Here, as the feature amount P 3 , for example, the number of black pixels at x = x 3 in the histogram calculation area HCA shown in FIG. 10 can be adopted.

○開眼度推定部;
開眼度推定部365は、特徴量計算部364が導出した特徴量P1〜P3に基づいて、目領域画像ERIに含まれる目の開眼度Pを推定する。例えば、開眼度推定部365は、式(5)に示すように、特徴量P1〜P3を重み定数ωiによって重み付けしてから加算することにより、開眼度Pを推定する。
○ Eye opening degree estimation part;
The eye opening degree estimation unit 365 estimates the eye opening degree P included in the eye region image ERI based on the feature amounts P 1 to P 3 derived by the feature amount calculation unit 364. For example, as shown in Expression (5), the eye opening degree estimation unit 365 estimates the eye opening degree P by weighting the feature amounts P 1 to P 3 with a weighting constant ω i and adding them.

Figure 2006260397
Figure 2006260397

式(5)に含まれる重み定数ωiは、例えば、開眼度が既知のN個の目領域画像(サンプル画像)から導出された特徴量Pi jを独立変数、サンプル画像の既知の開眼度hj(i=1,2,3;j=1,2,...,N)を従属変数とする重回帰分析を行うことによりあらかじめ決定され、開眼度判定辞書367に格納されている。すなわち、重み定数ωiは、式(6)の右辺に示す目的関数Eを最小化するように決定されて、開眼度判定辞書367に記憶されている。 The weighting constant ω i included in the expression (5) is, for example, a feature amount P i j derived from N eye region images (sample images) whose eye opening degree is known as an independent variable, and the known eye opening degree of the sample image. It is determined in advance by performing multiple regression analysis using h j (i = 1, 2, 3; j = 1, 2,..., N) as a dependent variable, and is stored in the eye opening degree determination dictionary 367. That is, the weighting constant ω i is determined so as to minimize the objective function E shown on the right side of Expression (6), and is stored in the eye opening degree determination dictionary 367.

Figure 2006260397
Figure 2006260397

あるいは、式(7)に示すように、重み定数ωiを成分とする重みベクトルΩ、特徴量Pi jを成分とする特徴量マトリックスQおよび開眼度hjを成分とする開眼度ベクトルHを定義して、式(8)により重みベクトルΩを算出することにより、重み定数ωiは特定される。但し、Tは行列の転置を表し、-1は逆行列を示している。 Alternatively, as shown in Expression (7), a weight vector Ω having a weight constant ω i as a component, a feature amount matrix Q having a feature amount P i j as a component, and an eye opening degree vector H having an eye opening degree h j as a component By defining and calculating the weight vector Ω according to the equation (8), the weight constant ω i is specified. However, T represents transposition of a matrix, and -1 represents an inverse matrix.

Figure 2006260397
Figure 2006260397

Figure 2006260397
Figure 2006260397

なお、上述の説明では特徴量の数は3個であったが、特徴量の数が2個または4個以上としても同様に開眼度Pを推定可能である。   In the above description, the number of feature amounts is three. However, even when the number of feature amounts is two or four or more, the eye opening degree P can be similarly estimated.

○比較部;
比較部366は、比較部266と同様に、複数の入力画像についての開眼度Pを比較して、複数の入力画像の各々から抽出した複数の目領域画像ERIの各々について推定された開眼度Pを比較して、最も開いた目を含む(開眼度Pが最大の)入力画像を特定して解析結果として出力する。加えて、比較部366は、開眼度Pを所定の閾値と比較して、開眼度Pが閾値より大きい場合のみ比較対象とし、開眼度Pが閾値より大きい入力画像がなければ、出力部27に当該情報を出力して画像処理コンピュータ20に設けられたディスプレイ等に警告メッセージを表示させる。
○ Comparison part;
Similar to the comparison unit 266, the comparison unit 366 compares the eye opening degrees P for the plurality of input images and estimates the eye opening degree P estimated for each of the plurality of eye region images ERI extracted from each of the plurality of input images. Are compared, the input image including the most open eye (the eye opening degree P is the maximum) is specified and output as an analysis result. In addition, the comparison unit 366 compares the eye opening degree P with a predetermined threshold value, and makes a comparison only when the eye opening degree P is larger than the threshold value. The information is output and a warning message is displayed on a display or the like provided in the image processing computer 20.

<2.2 目領域解析部の動作>
○目領域解析部の動作;
図11は、目領域解析部36の動作を示すフローチャートである。
<2.2 Operation of eye area analysis unit>
○ Operation of eye area analysis unit;
FIG. 11 is a flowchart showing the operation of the eye region analysis unit 36.

図11に示すように、検出枠FRの情報が顔領域検出部25から入力されると、目領域解析部36では、先述のステップS201およびS202と同様の処理がステップS301およびS302において行われる。   As shown in FIG. 11, when the information of the detection frame FR is input from the face area detection unit 25, the eye area analysis unit 36 performs the same processing as steps S201 and S202 described above in steps S301 and S302.

続くステップS303は、探索軸位置決定部362bが探索軸SAのy座標を決定するサブルーチンである。当該サブルーチンについては後述する。   The subsequent step S303 is a subroutine in which the search axis position determination unit 362b determines the y coordinate of the search axis SA. This subroutine will be described later.

さらに続いて、先述のステップS204〜S206と同様の処理がステップS304〜S306において行われる。   Subsequently, the same processing as in steps S204 to S206 described above is performed in steps S304 to S306.

ステップS307では、特徴量計算部364により、鉛直方向積分投影ヒストグラムHI(x)が極小値をとるx座標における鉛直方向積分投影ヒストグラムHI(x)に関する特徴量P1,P2および目領域画像ERIに関する特徴量P3が導出される。 In step S307, the feature amount calculation unit 364 causes the feature amounts P 1 and P 2 and the eye region image ERI relating to the vertical direction integral projection histogram HI (x) at the x coordinate at which the vertical direction integral projection histogram HI (x) has a minimum value. A feature amount P 3 is derived.

ステップS308では、開眼度推定部365により開眼度Pが推定される。   In step S308, the eye opening degree estimation unit 365 estimates the eye opening degree P.

ステップS309では、比較部366により、開眼度Pと所定の閾値ε4との大小関係が比較される。ステップS309において、開眼度Pが閾値ε4より大きい場合、換言すれば、目が十分に開いている画像が存在する場合は、ステップS310への移行が行われ、開眼度Pが閾値ε4より大きい目領域画像ERIを比較対象として、ステップS208と同様の比較が行われる。一方、開眼度Pが閾値ε4より小さい場合、換言すれば、目が十分に開いている画像が存在しない場合は、その旨の情報が出力部27に与えられ、目が十分に開いている画像が存在しないことが操作者に警告報知される(ステップS312)。これにより、操作者は全ての画像が失敗(目つむり)画像であることを容易に認識可能である。 In step S309, the comparison unit 366 compares the magnitude relationship between the eye opening degree P and the predetermined threshold value ε 4 . In step S309, the case the eye opening degree P are larger than the threshold epsilon 4, in other words, if there is an image that the eye is sufficiently open, the transition to step S310 is performed, the eye opening degree P are than the threshold epsilon 4 Comparison similar to step S208 is performed using the large eye region image ERI as a comparison target. On the other hand, when the eye opening degree P is smaller than the threshold value ε 4 , in other words, when there is no image in which the eyes are sufficiently open, information to that effect is given to the output unit 27 and the eyes are sufficiently open. The operator is warned that there is no image (step S312). As a result, the operator can easily recognize that all images are failed (blink) images.

ステップS311では、S211と同様の処理が行われる。   In step S311, the same process as in S211 is performed.

このように、開眼度推定装置1Bでも、目の開き具合を反映した複数の特徴量P1〜P3に基づいて目の開眼度Pが推定されるので、顔の傾きや眼鏡の影響を避けて開眼度Pを高精度に推定可能である。加えて、開眼度推定装置1Bでも、探索軸SAのy座標が探索軸設定部362により可変に設定されるので、探索軸SAを目の中心の位置に適切に設定可能となり、開眼度Pを高精度に推定可能となっている。 As described above, the eye opening degree estimation device 1B also estimates the eye opening degree P based on the plurality of feature amounts P 1 to P 3 reflecting the degree of eye opening, thereby avoiding the influence of face inclination and glasses. Thus, the eye opening degree P can be estimated with high accuracy. In addition, in the eye opening degree estimation device 1B, the y coordinate of the search axis SA is variably set by the search axis setting unit 362. Therefore, the search axis SA can be appropriately set at the center of the eye, and the eye opening degree P is set. It can be estimated with high accuracy.

加えて、開眼度推定装置1Bでも、目の中心の位置の決定と開眼度Pの推定とを別々に行う必要がないので、画像処理コンピュータ20の負荷を低減可能となっている。また、上述の動作フローにより、目領域画像ERIが目から若干ずれていても開眼度Pを適切に推定可能であるので、目領域AR11,AR12の設定を容易に行うことができる。   In addition, the eye opening degree estimation device 1B does not need to separately determine the position of the center of the eye and estimate the degree of eye opening P, so that the load on the image processing computer 20 can be reduced. Further, according to the above-described operation flow, the eye opening degree P can be appropriately estimated even if the eye area image ERI is slightly deviated from the eyes, so that the eye areas AR11 and AR12 can be easily set.

さらに、開眼度推定装置1Bでも、複数の画像を与えるだけで、最も目が開いている画像を自動的に特定して出力可能となっている。   Further, the eye opening degree estimation device 1B can automatically specify and output an image with the most open eyes only by giving a plurality of images.

○探索軸のy座標決定(サブルーチン);
続いて、ステップS303の探索軸SAのy座標決定(サブルーチン)係る動作について、図12のフローチャートを参照しながら説明する。なお、以下では、目領域画像ERIの左上隅の点が座標系の原点であるとして説明を進める。
○ Determine y-coordinate of search axis (subroutine);
Next, the operation relating to the y coordinate determination (subroutine) of the search axis SA in step S303 will be described with reference to the flowchart of FIG. In the following description, it is assumed that the upper left corner point of the eye area image ERI is the origin of the coordinate system.

当該サブルーチンにおいては、最初に、最小値をとるy座標y3が特定され、当該y座標y3が、眉候補領域EBAに含まれるか否かが判定される、すなわち、式(9)の条件式が満たされるか否かが判定される。式(9)の条件式が満たされる場合、y座標y3は眉の位置に対応する可能性が高いので、ステップS403以降でさらなる判定が行われ、満たされない場合、当該y座標y3を探索軸SAのy座標と決定して(ステップS408)、サブルーチンを終了する。 In this subroutine, first, the y-coordinate y 3 which takes the minimum value is identified, the y-coordinate y 3 is whether included in the eyebrow candidate region EBA is determined, i.e., the condition of equation (9) It is determined whether the expression is satisfied. If the conditional expression of Expression (9) is satisfied, the y coordinate y 3 is likely to correspond to the position of the eyebrow. Therefore, further determination is performed in step S403 and after, and if not satisfied, the y coordinate y 3 is searched. The y coordinate of the axis SA is determined (step S408), and the subroutine is terminated.

Figure 2006260397
Figure 2006260397

ステップS403では、y座標y3の下方の幅δbの範囲すなわち区間I=[y3,y3+δb]において水平投影積分ヒストグラムVI(y)が極小値をとるy座標y4が特定され、ステップS404では、y座標y3およびy座標y4における水平投影積分ヒストグラムVI(y)の値の差と所定の閾値ε1との大小関係が調べられ、式(10)の条件式が満たされるか否かが判定される。 In step S403, the y coordinate y 4 that range That section of the width [delta] b below the y-coordinate y 3 I = [y 3, y 3 + δb] In the horizontal projection integral histogram VI (y) has the minimum value is specified, in step S404, examined the magnitude relation between the y-coordinate y 3 and y-coordinate y difference with a predetermined threshold epsilon 1 values of the horizontal projection integral histogram VI in 4 (y), is satisfied condition of formula (10) It is determined whether or not.

Figure 2006260397
Figure 2006260397

式(10)の条件式が満たされる場合、y座標y4において水平投影積分ヒストグラムVI(y)が十分に低下することから、y座標y4は目の中心のy座標に対応する可能性が高いと考えられるので、y座標y4を探索軸SAのy座標と決定して(ステップS409)、サブルーチンを終了する。一方、式(10)の条件式が満たされない場合、y座標y3およびy座標y4における水平投影積分ヒストグラムVI(y)の値の差と所定の閾値ε2との大小関係が調べられ、式(11)の条件式が満たされるか否かが判定される。 If conditional expression (10) is satisfied, since the horizontal projection integral histogram VI (y) is sufficiently reduced in the y-coordinate y 4, y-coordinate y 4 is likely to correspond to the y coordinate of the center of the eye Since it is considered to be high, the y coordinate y 4 is determined as the y coordinate of the search axis SA (step S409), and the subroutine is terminated. On the other hand, if the conditional expression (10) is not satisfied, the magnitude relationship between the difference between the values of the horizontal projection integral histogram VI (y) at the y-coordinate y 3 and the y-coordinate y 4 and the predetermined threshold value ε 2 is examined. It is determined whether or not the conditional expression (11) is satisfied.

Figure 2006260397
Figure 2006260397

式(11)の条件式が満たされる場合、y座標y4において水平投影積分ヒストグラムVI(y)が十分に低下しないことから、y座標y4は眼鏡のフレームに対応する位置である、または、ノイズの誤検出である可能性が高いと考えられるので、y座標y3を探索軸SAのy座標と決定して(ステップS408)、サブルーチンを終了する。一方、式(11)の条件式が満たされない場合、ステップS406以降でさらなる判定が行われる。 If the conditional expression is satisfied in the formula (11), since the horizontal projection integral histogram VI (y) is not sufficiently reduced in the y-coordinate y 4, y-coordinate y 4 is the position corresponding to the frame of the glasses, or, Since it is considered that there is a high possibility of erroneous detection of noise, the y coordinate y 3 is determined as the y coordinate of the search axis SA (step S408), and the subroutine is terminated. On the other hand, when the conditional expression of Expression (11) is not satisfied, further determination is performed after Step S406.

続いて、y座標y4の下方で水平投影積分ヒストグラムVI(y)が極大値をとるy座標y5が特定され(ステップS406)、y座標y4およびy座標y5における水平投影積分ヒストグラムVI(y)の値の差と所定の閾値ε3との大小関係が調べられ、式(12)の条件式が満たされるか否かが判定される。 Then, y coordinate y 4 in the horizontal projection integral histogram VI below (y) is y-coordinate y 5 which takes a maximum value is specified (step S406), the horizontal projection integral in the y-coordinate y 4 and y-coordinate y 5 Histogram VI The magnitude relationship between the difference in the values of (y) and the predetermined threshold value ε 3 is examined, and it is determined whether or not the conditional expression of Expression (12) is satisfied.

Figure 2006260397
Figure 2006260397

式(12)の条件式が満たされる場合、y座標y4において水平投影積分ヒストグラムVI(y)が十分に低下しないことから、y座標y4は眼鏡のフレームに対応する位置である可能性が高いと考えられるので、y座標y3を探索軸SAのy座標と決定して(ステップS408)、サブルーチンを終了する。一方、式(12)の条件式が満たされる場合、y座標y4において水平投影積分ヒストグラムVI(y)が十分に低下することから、y座標y4は目の中心のy座標に対応する可能性が高いと考えられるので、y座標y4を探索軸SAのy座標と決定して(ステップS409)、サブルーチンを終了する。 If the conditional expression of Expression (12) is satisfied, since the horizontal projection integral histogram VI (y) is not sufficiently reduced in the y-coordinate y 4, possible y coordinate y 4 is a position corresponding to the frame of eyeglasses Since it is considered to be high, the y coordinate y 3 is determined as the y coordinate of the search axis SA (step S408), and the subroutine is terminated. On the other hand, if the condition of Equation (12) is satisfied, since the horizontal projection integral histogram VI in the y-coordinate y 4 (y) is sufficiently reduced, the y coordinate y 4 is possible which corresponds to the y coordinate of the center of the eye Therefore, the y coordinate y 4 is determined as the y coordinate of the search axis SA (step S409), and the subroutine is terminated.

{3 第3実施形態}
本発明の第3実施形態に係る開眼度推定装置1Cは、第2実施形態に係る開眼度推定装置1Bと類似の構成を有するが、目領域解析部46の詳細な構成が、第1実施形態の目領域解析部36と相違している。そこで、以下では、目領域解析部46の詳細な構成および動作について説明し、開眼度推定装置1Bと同様の残余の構成および動作についての重複説明は省略する。
{3 Third Embodiment}
The eye opening degree estimation apparatus 1C according to the third embodiment of the present invention has a configuration similar to that of the eye opening degree estimation apparatus 1B according to the second embodiment, but the detailed configuration of the eye region analysis unit 46 is the same as that of the first embodiment. This is different from the eye region analysis unit 36. Therefore, in the following, the detailed configuration and operation of the eye region analysis unit 46 will be described, and redundant description of the remaining configuration and operation similar to the eye opening degree estimation device 1B will be omitted.

<3.1 目領域解析部の詳細な構成>
図13は、目領域解析部46の詳細な構成を示すブロック図である。
<3.1 Detailed Configuration of Eye Area Analysis Unit>
FIG. 13 is a block diagram showing a detailed configuration of the eye region analysis unit 46.

図13に示すように、目領域解析部46は、目領域解析部46と同様の機能ブロック(目領域設定部461、探索軸設定部462(水平方向積分投影ヒストグラム生成部462aおよび探索軸位置決定部462b)、鉛直方向積分投影ヒストグラム生成部463、特徴量計算部464、開眼度推定部465、比較部465および開眼度判定辞書467)に加え、主軸設定部468を備える。   As shown in FIG. 13, the eye region analysis unit 46 has the same functional blocks as the eye region analysis unit 46 (eye region setting unit 461, search axis setting unit 462 (horizontal direction integrated projection histogram generation unit 462a and search axis position determination). 462b), a vertical integral projection histogram generation unit 463, a feature amount calculation unit 464, an eye opening degree estimation unit 465, a comparison unit 465, and an eye opening degree determination dictionary 467), and a main axis setting unit 468.

開眼度検出装置1Bでは、探索軸SAが水平方向に設定されたが、開眼度推定装置1Cでは、開眼度の推定対象の目における瞼の開閉方向と略垂直な慣性主軸方向に探索軸SAの方向を設定可能であり、主軸設定部468は、当該慣性主軸を検出する機能を有している。これにより、目が水平でない場合や顔が傾いている場合にも探索軸SAを慣性主軸と平行に設定可能であるので、開眼度をより高精度に推定可能である。   In the eye opening degree detection device 1B, the search axis SA is set in the horizontal direction, but in the eye opening degree estimation device 1C, the search axis SA is set in the inertial main axis direction substantially perpendicular to the eyelid opening / closing direction in the eye whose eye opening degree is to be estimated. The direction can be set, and the spindle setting unit 468 has a function of detecting the inertia spindle. As a result, the search axis SA can be set parallel to the inertial main axis even when the eyes are not horizontal or the face is tilted, so that the degree of eye opening can be estimated with higher accuracy.

<3.2 目領域解析部の動作>
図14は、目領域解析部46の動作を示すフローチャートである。
<3.2 Operation of Eye Area Analysis Unit>
FIG. 14 is a flowchart showing the operation of the eye region analysis unit 46.

図14のフローチャートにおけるステップS501〜S512は、図11のフローチャートのステップS301〜S312と同様の処理を行っているが、図14のフローチャートでは、水平方向積分投影ヒストグラムVI(y)の生成(ステップS502)に先立って、慣性主軸を検出して、図15に示すように慣性主軸MAの方向をX軸方向とする処理が行われる(ステップS513)。なお、慣性主軸MAの検出は、例えば、仮に設定した探索軸SAの方向を変化させながら、鉛直方向積分投影ヒストグラムHI(x)の極小値が最も小さくなる方向を特定することにより行われる。   Steps S501 to S512 in the flowchart of FIG. 14 perform the same processing as steps S301 to S312 of the flowchart of FIG. 11, but in the flowchart of FIG. 14, the horizontal integrated projection histogram VI (y) is generated (step S502). ), The inertia main axis is detected, and the process of setting the direction of the inertia main axis MA to the X-axis direction as shown in FIG. 15 is performed (step S513). The inertia main axis MA is detected by, for example, specifying the direction in which the minimum value of the vertical integral projection histogram HI (x) is the smallest while changing the direction of the temporarily set search axis SA.

このように、開眼度推定装置1Cでも、目の開き具合を反映した複数の特徴量P1〜P3に基づいて目の開眼度Pが推定されるので、顔の傾きや眼鏡の影響を避けて開眼度を高精度に推定可能である。加えて、開眼度推定装置1Cでも、探索軸SAのy座標が探索軸設定部462により可変に設定されるので、探索軸SAを目の中心の位置に適切に設定可能となり、開眼度を高精度に推定可能となっている。 As described above, even with the eye opening degree estimation device 1C, the eye opening degree P is estimated based on the plurality of feature amounts P 1 to P 3 reflecting the degree of eye opening, so that the influence of the inclination of the face and the glasses is avoided. Thus, it is possible to estimate the degree of eye opening with high accuracy. In addition, in the eye opening degree estimation device 1C, the y coordinate of the search axis SA is variably set by the search axis setting unit 462, so that the search axis SA can be appropriately set at the center of the eye, and the eye opening degree is increased. The accuracy can be estimated.

加えて、開眼度推定装置1Cでも、目の中心の位置の決定と開眼度Pの推定とを別々に行う必要がないので、画像処理コンピュータ20の負荷を低減可能となっている。また、上述の動作フローにより、目領域画像ERIが目から若干ずれていても開眼度Pを適切に推定可能であるので、目領域AR11,AR12の設定を容易に行うことができる。   In addition, the eye opening degree estimation device 1 </ b> C does not need to separately determine the position of the center of the eye and estimate the eye opening degree P, so that the load on the image processing computer 20 can be reduced. Further, according to the above-described operation flow, the eye opening degree P can be appropriately estimated even if the eye area image ERI is slightly deviated from the eyes, so that the eye areas AR11 and AR12 can be easily set.

さらに、開眼度推定装置1Cでも、複数の画像を与えるだけで、最も目が開いている画像を自動的に特定して出力可能となっている。   Further, the eye opening degree estimation device 1C can automatically specify and output an image with the most open eyes only by giving a plurality of images.

{4 変形例}
第1実施形態〜第3実施形態における水平方向積分投影ヒストグラム生成部262a(362a,462a)および鉛直方向積分投影ヒストグラム投影部263(363,463)は類似の演算を行うので、これらを共通の機能ブロックとして開眼度推定装置1A〜1Cを構成してもよい。同様に、探索軸位置決定部262b(362b,462b)および特徴量推定部264(364,464)も類似の演算を行うので、これらを共通の機能ブロックとして開眼度推定装置1A〜1Cを構成してもよい。
{4 Modifications}
Since the horizontal direction integral projection histogram generation unit 262a (362a, 462a) and the vertical direction integral projection histogram projection unit 263 (363, 463) in the first to third embodiments perform similar calculations, these functions are shared. You may comprise eye opening degree estimation apparatus 1A-1C as a block. Similarly, since the search axis position determination unit 262b (362b, 462b) and the feature amount estimation unit 264 (364, 464) perform similar calculations, the eye opening degree estimation devices 1A to 1C are configured using these as common function blocks. May be.

本発明の実施形態に係る開眼度推定装置1A〜1Cのハードウエア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the eye opening degree estimation apparatuses 1A-1C which concern on embodiment of this invention. 画像処理コンピュータ20の機能的構成を示すブロック図である。2 is a block diagram showing a functional configuration of an image processing computer 20. FIG. 顔領域検出部25の構成を示すブロック図である。3 is a block diagram showing a configuration of a face area detection unit 25. FIG. 目領域解析部26の構成を示すブロック図である。3 is a block diagram showing a configuration of an eye area analysis unit 26. FIG. 検出枠FRの中に設定された目領域を例示する図である。It is a figure which illustrates the eye field set up in detection frame FR. 目領域画像ERIに設定された探索軸SAを例示する図である。It is a figure which illustrates search axis SA set up in eye field picture ERI. 顔領域検出部25の動作を示すフローチャートである。7 is a flowchart showing the operation of the face area detection unit 25. 目領域解析部26の動作を示すフローチャートである。5 is a flowchart showing the operation of the eye region analysis unit 26. 目領域解析部36の詳細な構成を示すブロック図である。4 is a block diagram showing a detailed configuration of an eye region analysis unit 36. FIG. 目領域画像ERIの中の眉候補領域EBAを例示する図である。It is a figure which illustrates eyebrow candidate field EBA in eye field picture ERI. 目領域解析部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of an eye area | region analysis part. 探索軸SAのy座標決定に係る動作を示すフローチャートである。It is a flowchart which shows the operation | movement which concerns on y coordinate determination of search axis | shaft SA. 目領域解析部46の詳細な構成を示すブロック図である。4 is a block diagram showing a detailed configuration of an eye region analysis unit 46. FIG. 目領域解析部46の動作を示すフローチャートである。5 is a flowchart showing the operation of the eye region analysis unit 46. 開眼度の推定対象の目における瞼の開閉方向と略垂直な慣性主軸方向に探索軸SAの方向(x軸方向)が設定された状態を示す図である。It is a figure which shows the state by which the direction (x-axis direction) of the search axis SA was set to the inertial principal axis direction substantially perpendicular to the eyelid opening / closing direction of the eye whose eye opening degree is to be estimated.

符号の説明Explanation of symbols

FR 検出枠
AR11,AR12 目領域
ERI 目領域画像
SA 探索軸
PA 位置検出軸
HCA ヒストグラム計算領域
EBA 眉候補領域
MA 慣性主軸
262,362,462 探索軸設定部
263,363,463 鉛直方向積分投影ヒストグラム生成部
264,364,464 特徴量計算部
265,365,465 開眼度推定部
FR detection frame AR11, AR12 Eye area ERI Eye area image SA Search axis PA Position detection axis HCA Histogram calculation area EBA Eyebrow candidate area MA Inertial main axis 262, 362, 462 Search axis setting unit 263, 363, 463 Vertical integral projection histogram generation Unit 264, 364, 464 feature amount calculation unit 265, 365, 465 eye opening degree estimation unit

Claims (4)

人物の目の開眼度を推定する開眼度推定装置であって、
開眼度の推定に用いられる第1軸を開眼度の推定対象となる目を含む目領域画像に設定する軸設定手段と、
前記目領域画像の輝度値を前記第1軸と垂直な方向に沿って前記第1軸の方向の異なる位置ごとに積分して、前記第1軸の方向の積分値の分布を表現した関数である第1ヒストグラムを生成する第1ヒストグラム生成手段と、
前記第1ヒストグラムが極値をとる前記第1軸の方向の位置における、前記第1ヒストグラムおよび前記目領域画像のうちの少なくとも1つに関する特徴量を導出する特徴量導出手段と、
前記特徴量に基づいて、前記目領域画像に含まれる目の開眼度を推定する推定手段と、
を備えることを特徴とする開眼度推定装置。
An eye opening degree estimation device for estimating the degree of eye opening of a person,
Axis setting means for setting the first axis used for the estimation of the degree of eye opening to an eye area image including the eye for which the degree of eye opening is to be estimated;
A function expressing the distribution of integral values in the direction of the first axis by integrating the luminance value of the eye area image at different positions in the direction of the first axis along the direction perpendicular to the first axis. First histogram generating means for generating a certain first histogram;
Feature amount deriving means for deriving a feature amount related to at least one of the first histogram and the eye region image at a position in the direction of the first axis at which the first histogram takes an extreme value;
Estimating means for estimating the degree of eye opening included in the eye region image based on the feature amount;
An eye opening degree estimation device comprising:
請求項1に記載の開眼度推定装置において、
前記軸設定手段は、
前記目領域画像の輝度値を第2軸と垂直な方向に沿って前記第2軸の方向の異なる位置ごとに積分して、前記第2軸の方向の積分値の分布を表現した関数である第2ヒストグラムを生成する第2ヒストグラム生成手段と、
前記第2ヒストグラムが極値をとる前記第2軸の方向の位置に基づいて、前記第2軸の方向の前記第1軸の位置を決定する決定手段と、
を備えることを特徴とする開眼度推定装置。
In the eye opening degree estimation device according to claim 1,
The axis setting means includes
A function that expresses a distribution of integral values in the direction of the second axis by integrating the luminance value of the eye area image at different positions in the direction of the second axis along a direction perpendicular to the second axis. Second histogram generation means for generating a second histogram;
Determining means for determining the position of the first axis in the direction of the second axis based on the position in the direction of the second axis at which the second histogram takes an extreme value;
An eye opening degree estimation device comprising:
請求項1または請求項2に記載の開眼度推定装置において、
前記第1軸設定手段は、
開眼度の推定対象の目における瞼の開閉方向と略垂直な慣性主軸を検出し、当該慣性主軸と平行に前記第1軸を設定することを特徴とする開眼度推定装置。
In the eye opening degree estimation device according to claim 1 or 2,
The first axis setting means includes
An eye opening degree estimation device, wherein an eye main axis of an eye whose eye opening degree is to be estimated is detected by an inertia main axis substantially perpendicular to the eyelid opening / closing direction, and the first axis is set in parallel to the inertia main axis.
請求項1ないし請求項3のいずれかに記載の開眼度推定装置において、
入力された画像から前記目領域画像を抽出する抽出手段をさらに備え、
入力された複数の画像の各々から抽出した複数の前記目領域画像の各々について目の開眼度を推定し、
最も開いた目を含む画像を特定することを特徴とする開眼度推定装置。
In the eye opening degree estimation device according to any one of claims 1 to 3,
An extraction means for extracting the eye area image from the input image;
Estimating the degree of eye opening for each of the plurality of eye region images extracted from each of the plurality of input images;
An eye opening degree estimation device that identifies an image including the most open eye.
JP2005079525A 2005-03-18 2005-03-18 Eye opening degree estimating device Withdrawn JP2006260397A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005079525A JP2006260397A (en) 2005-03-18 2005-03-18 Eye opening degree estimating device
US11/375,146 US20060210121A1 (en) 2005-03-18 2006-03-14 Eye opening degree estimating apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005079525A JP2006260397A (en) 2005-03-18 2005-03-18 Eye opening degree estimating device

Publications (1)

Publication Number Publication Date
JP2006260397A true JP2006260397A (en) 2006-09-28

Family

ID=37010368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005079525A Withdrawn JP2006260397A (en) 2005-03-18 2005-03-18 Eye opening degree estimating device

Country Status (2)

Country Link
US (1) US20060210121A1 (en)
JP (1) JP2006260397A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008234209A (en) * 2007-03-19 2008-10-02 Toyota Central R&D Labs Inc Eye tilt detection apparatus and program
JP2008242800A (en) * 2007-03-27 2008-10-09 Seiko Epson Corp Image processing for detecting position of subject
JP2014215645A (en) * 2013-04-22 2014-11-17 富士通株式会社 Image processing device, image processing method and image processing program
CN110287900A (en) * 2019-06-27 2019-09-27 深圳市商汤科技有限公司 Verification method and verifying device
JP2020035137A (en) * 2018-08-29 2020-03-05 カシオ計算機株式会社 Open/closed state determination device, method, program, sound recognition device, and robot

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4345755B2 (en) * 2006-02-16 2009-10-14 セイコーエプソン株式会社 Input position setting method, input position setting device, input position setting program, and information input system
US7747066B2 (en) * 2006-03-15 2010-06-29 International Business Machines Corporation Z-axis optical detection of mechanical feature height
US8102417B2 (en) * 2006-10-25 2012-01-24 Delphi Technologies, Inc. Eye closure recognition system and method
JP4898532B2 (en) * 2007-04-13 2012-03-14 富士フイルム株式会社 Image processing apparatus, photographing system, blink state detection method, blink state detection program, and recording medium on which the program is recorded
JP2009003730A (en) 2007-06-22 2009-01-08 Nintendo Co Ltd Information processing program and information processor
CN101430576B (en) * 2007-11-05 2010-04-21 鸿富锦精密工业(深圳)有限公司 Eye protection warning device and method
US8027540B2 (en) * 2008-01-15 2011-09-27 Xerox Corporation Asymmetric score normalization for handwritten word spotting system
KR100947990B1 (en) * 2008-05-15 2010-03-18 성균관대학교산학협력단 Gaze Tracking Apparatus and Method using Difference Image Entropy
CN101383007B (en) * 2008-09-28 2010-10-13 腾讯科技(深圳)有限公司 Image processing method and system based on integration histogram
KR101571331B1 (en) * 2008-11-20 2015-11-24 삼성전자주식회사 Method and apparatus for displaying luminance and digital photographing apparatus using thereof
JP5887139B2 (en) * 2008-12-30 2016-03-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Phototherapy system and method
ES2377303B1 (en) * 2009-06-05 2013-02-01 Vodafone España S.A.U. METHOD AND SYSTEM TO RECOMMEND PHOTOGRAPHS.
JP5627511B2 (en) * 2011-03-03 2014-11-19 アイシン精機株式会社 State estimation device, state estimation method and program
WO2012146823A1 (en) * 2011-04-29 2012-11-01 Nokia Corporation Method, apparatus and computer program product for blink detection in media content
CN103620621B (en) * 2011-06-30 2017-10-24 诺基亚技术有限公司 For the method and apparatus using the feature tracking for integrating gradient projection
WO2013008305A1 (en) * 2011-07-11 2013-01-17 トヨタ自動車株式会社 Eyelid detection device
US10064546B2 (en) * 2012-10-24 2018-09-04 Nidek Co., Ltd. Ophthalmic analysis apparatus and ophthalmic analysis program
US9305225B2 (en) * 2013-10-14 2016-04-05 Daon Holdings Limited Methods and systems for determining user liveness
CN105205462A (en) * 2015-09-18 2015-12-30 北京百度网讯科技有限公司 Shooting promoting method and device
JP2017068576A (en) * 2015-09-30 2017-04-06 パナソニックIpマネジメント株式会社 State determination apparatus, eye-close determination apparatus, state determination method, state determination program, and recording medium
CN107730550B (en) * 2017-10-31 2019-12-06 华中科技大学 detection method of puncture biopsy needle in ultrasonic image

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3452685B2 (en) * 1995-05-10 2003-09-29 三菱電機株式会社 Face image processing device
JP3426060B2 (en) * 1995-07-28 2003-07-14 三菱電機株式会社 Face image processing device
JP3350296B2 (en) * 1995-07-28 2002-11-25 三菱電機株式会社 Face image processing device
FR2773521B1 (en) * 1998-01-15 2000-03-31 Carlus Magnus Limited METHOD AND DEVICE FOR CONTINUOUSLY MONITORING THE DRIVER'S VIGILANCE STATE OF A MOTOR VEHICLE, IN ORDER TO DETECT AND PREVENT A POSSIBLE TREND AS IT GOES TO SLEEP
JP3600755B2 (en) * 1999-05-13 2004-12-15 三菱電機株式会社 Face image processing device
JP3636927B2 (en) * 1999-05-18 2005-04-06 三菱電機株式会社 Face image processing device
JP3969894B2 (en) * 1999-05-24 2007-09-05 三菱電機株式会社 Face image processing device
JP3695990B2 (en) * 1999-05-25 2005-09-14 三菱電機株式会社 Face image processing device
AUPQ896000A0 (en) * 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
US7386406B2 (en) * 2003-10-31 2008-06-10 Agilent Technologies, Inc. Forced-alignment measurement tools for composite eye diagrams

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008234209A (en) * 2007-03-19 2008-10-02 Toyota Central R&D Labs Inc Eye tilt detection apparatus and program
JP2008242800A (en) * 2007-03-27 2008-10-09 Seiko Epson Corp Image processing for detecting position of subject
JP2014215645A (en) * 2013-04-22 2014-11-17 富士通株式会社 Image processing device, image processing method and image processing program
JP2020035137A (en) * 2018-08-29 2020-03-05 カシオ計算機株式会社 Open/closed state determination device, method, program, sound recognition device, and robot
JP7196467B2 (en) 2018-08-29 2022-12-27 カシオ計算機株式会社 Opening/closing state determination device, opening/closing state determination method, and program
CN110287900A (en) * 2019-06-27 2019-09-27 深圳市商汤科技有限公司 Verification method and verifying device

Also Published As

Publication number Publication date
US20060210121A1 (en) 2006-09-21

Similar Documents

Publication Publication Date Title
JP2006260397A (en) Eye opening degree estimating device
US8331619B2 (en) Image processing apparatus and image processing method
CN105590312B (en) Foreground image dividing method and device
US7376270B2 (en) Detecting human faces and detecting red eyes
JP5538160B2 (en) Pupil detection device and pupil detection method
US8577099B2 (en) Method, apparatus, and program for detecting facial characteristic points
JP5728080B2 (en) Wrinkle detection device, wrinkle detection method and program
JP2000105829A (en) Method and device for face parts image detection
JP6822482B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
WO2012140782A1 (en) Eyelid-detection device, eyelid-detection method, and program
JP2013215549A (en) Image processing device, image processing program, and image processing method
US11462052B2 (en) Image processing device, image processing method, and recording medium
CN111488836A (en) Face contour correction method, device, equipment and storage medium
JP2007025900A (en) Image processor and image processing method
EP3961495B1 (en) System and method for finding an area of an eye from a facial image
JP2008176645A (en) Three-dimensional shape processing apparatus, control method of three-dimensional shape processing apparatus, and control program of three-dimensional shape processing apparatus
US20120076418A1 (en) Face attribute estimating apparatus and method
US20200074612A1 (en) Image analysis apparatus, image analysis method, and recording medium
JP2002269545A (en) Face image processing method and face image processing device
WO2018159037A1 (en) Facial detection device, and control method and program for same
JP5035139B2 (en) Eye image processing device
JP6244885B2 (en) Image processing apparatus, image processing method, and program
JP3963789B2 (en) Eye detection device, eye detection program, recording medium for recording the program, and eye detection method
KR101276792B1 (en) Eye detecting device and method thereof
JP2006209582A (en) Device and method for estimating degree of eye-opening

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071016

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071023

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20091106