JP2007323104A - Method, device and program for discriminating state of eye - Google Patents

Method, device and program for discriminating state of eye Download PDF

Info

Publication number
JP2007323104A
JP2007323104A JP2006149201A JP2006149201A JP2007323104A JP 2007323104 A JP2007323104 A JP 2007323104A JP 2006149201 A JP2006149201 A JP 2006149201A JP 2006149201 A JP2006149201 A JP 2006149201A JP 2007323104 A JP2007323104 A JP 2007323104A
Authority
JP
Japan
Prior art keywords
eye
image
open
face
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006149201A
Other languages
Japanese (ja)
Inventor
Kensuke Terakawa
賢祐 寺川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2006149201A priority Critical patent/JP2007323104A/en
Publication of JP2007323104A publication Critical patent/JP2007323104A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To increase the speed of face detection in a picture while keeping an erroneous detection rate low. <P>SOLUTION: The face picture FP is detected from an entire picture P, and an existence region ER in which eyes should exist is extracted from the face picture FP. Then, it is determined whether or not the opened eyes may exist in the extracted existence region ER. When it is determined the existence, it is determined that the eyes are opened, and when it is determined no existence, it is determined that the eyes are closed. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、顔画像の目が開いている状態であるか閉じている状態であるかを判別する目の状態判別方法および装置ならびにプログラムに関するものである。   The present invention relates to an eye state determination method, apparatus, and program for determining whether eyes of a face image are in an open state or a closed state.

現在、デジタルカメラにより取得された画像から目の状態を検出し、目が閉じている場合には撮影をやり直すことができるように、デジタルカメラのモニタを介して撮影者にアドバイスし、もしくは閉じた目の部分を開いた目に合成する等を行うことが提案されている。このとき、画像から顔を検出する方法もしくは顔の中から目を検出する方法として、ニューラルネットワークを用いた検出方法の他にブースティング(Boosting)アルゴリズムによる検出方法が用いられる(特許文献1,2参照)。   Currently, the photographer is advised or closed via the monitor of the digital camera so that the eye state can be detected from the image acquired by the digital camera and the image can be redone if the eye is closed. It has been proposed to synthesize an eye part with an open eye. At this time, as a method of detecting a face from an image or a method of detecting eyes from a face, a detection method using a boosting algorithm is used in addition to a detection method using a neural network (Patent Documents 1 and 2). reference).

このブースティングアルゴリズムは複数の弱い判別器(弱判別器)を結合することにより1つの強い判別器を形成する2クラス判別器の学習方法であって、無数のパターンの中から検出すべき1つの対象物を選択するものである。
米国特許出願公開2002/102024号明細書 米国特許出願公開2005/13479号明細書
This boosting algorithm is a learning method of a two-class classifier that forms a strong classifier by combining a plurality of weak classifiers (weak classifiers). The object is selected.
US Patent Application Publication No. 2002/102024 US Patent Application Publication No. 2005/13479

しかし、特許文献1、2に示すようなブースティングアルゴリズムは、対象物であるか否かを判断するものであって、対象物Aであるか対象物Bであるかを分類することは前提としていない。具体的には、ブースティングアルゴリズムを用いて目が開いているか閉じているかの判別を行う場合、開いた目である画像であるかそれ以外の画像であるかという分類が行われる。つまり、開いた目以外の画像は、たとえば閉じた目と目尻のシワのように種類が違うものであっても「開いた目ではない」という同じカテゴリーに分類されてしまい、閉じた目の判別が困難になってしまうという問題がある。同様に、閉じた目であるか否かを判別した場合にも開いた目の判別が困難になってしまうという問題がある。   However, the boosting algorithms as shown in Patent Documents 1 and 2 determine whether or not the object is an object, and it is assumed that the object is the object A or the object B. Not in. Specifically, when the boosting algorithm is used to determine whether the eyes are open or closed, a classification is made as to whether the images are open eyes or other images. In other words, images other than open eyes are classified into the same category of `` not open eyes '' even if they are of different types, such as closed eyes and wrinkles on the corners of the eyes. There is a problem that becomes difficult. Similarly, when it is determined whether or not the eyes are closed, there is a problem that it is difficult to determine the eyes that are open.

さらに、上記ブースティングアルゴリズムに限らず、閉じた目はほぼ線状の形状を有し目尻のシワと形状が似ているため検出が難しいという問題がある。   Furthermore, the present invention is not limited to the boosting algorithm described above, and closed eyes have a substantially linear shape and have a problem that detection is difficult because the shape is similar to the wrinkles of the corners of the eyes.

そこで、本発明は、目が開いた状態なのか閉じた状態なのかを精度良く判別することができる目の状態判別方法および装置ならびにプログラムを提供することを目的とするものである。   Accordingly, an object of the present invention is to provide an eye state determination method, apparatus, and program capable of accurately determining whether an eye is open or closed.

本発明の目の状態判別方法は、全体画像に含まれる顔画像を検出し、検出した顔画像の輪郭から目が存在すべき存在領域を抽出し、抽出した存在領域内に開いた目が存在するか否かを検出し、存在領域内から開いた目が検出されたときに目が開いている状態であると判別し、検出されなかったときに目が閉じている状態であると判別することを特徴とするものである。   According to the eye state determination method of the present invention, a face image included in the entire image is detected, an existing region where the eye should exist is extracted from the detected contour of the face image, and an open eye exists in the extracted existing region Whether the eye is open when an open eye is detected from within the existing area, and when the eye is not detected, it is determined that the eye is closed It is characterized by this.

本発明の目の状態判別装置は、全体画像に含まれる顔画像を検出する顔検出手段と、顔検出手段により検出された顔画像から目が存在すべき存在領域を抽出する領域抽出手段と、領域抽出手段により抽出された存在領域内に開いた目が存在するか否かを検出する目検出手段と、目検出手段において開いた目が存在領域内から検出されたとき目が開いている状態であると判別し、検出されなかったとき目が閉じている状態であると判別する状態判別手段とを備えたことを特徴とするものである。   An eye state determination apparatus according to the present invention includes a face detection unit that detects a face image included in an entire image, a region extraction unit that extracts an existing region where an eye should exist from the face image detected by the face detection unit, Eye detection means for detecting whether or not there is an open eye in the existing area extracted by the area extraction means, and a state in which the eye is open when the open eye is detected in the existing area by the eye detection means And a state determining unit that determines that the eyes are closed when the eyes are not detected.

本発明の目の状態判別プログラムは、コンピュータに、全体画像に含まれる顔画像を検出し、検出した顔画像の輪郭から目が存在すべき存在領域を抽出し、抽出した存在領域内に開いた目が存在するか否かを検出し、存在領域内から開いた目が検出されたとき目が開いている状態であると判別し、検出されなかったとき目が閉じている状態であると判別するように機能させることを特徴とするものである。   According to the eye state determination program of the present invention, a face image included in the entire image is detected by a computer, an existing region where the eye should be present is extracted from the detected outline of the face image, and the eye is opened in the extracted existing region. Detects whether or not an eye exists, determines that the eye is open when an open eye is detected from within the existing area, and determines that the eye is closed when no eye is detected It is made to function like this.

ここで、領域抽出手段は、顔画像から目が存在すると予想される存在領域を抽出するものであればその方法を問わず、たとえば抽出された顔画像の輪郭、大きさ等から目が配置されている確率の高い存在領域を抽出するようにしてもよい。   Here, as long as the region extracting unit extracts an existing region where eyes are expected to exist from the face image, regardless of the method, for example, the eyes are arranged based on the contour, size, etc. of the extracted face image. It is also possible to extract an existence region having a high probability of being present.

なお、目検出手段は、開いた目が存在するか否かを検出するものであればどのような手法であってもよい。たとえば、目検出手段は、パターンマッチングを用いて開いた目を検出するものであってもよいし、複数の弱判別器による複数の判別結果から最終的な判別を行う判別器を備えたものであり、判別器は、正解サンプル画像として開いた目の画像を用い、不正解サンプル画像として閉じた目の画像を用いて学習されたものであってもよい。このとき、判別器は不正解サンプル画像として閉じた目の画像の他に目の周辺画像を用いて学習されたものであることが好ましい。   The eye detection means may be any method as long as it detects whether or not there are open eyes. For example, the eye detection means may be one that detects an open eye using pattern matching, or includes a discriminator that performs final discrimination from a plurality of discrimination results by a plurality of weak discriminators. The discriminator may be one that has been learned by using an image of an open eye as a correct sample image and using an image of a closed eye as an incorrect sample image. At this time, it is preferable that the discriminator has been learned using an eye peripheral image in addition to the closed eye image as an incorrect sample image.

本発明の目の状態判別方法および装置ならびにプログラムによれば、全体画像に含まれる顔画像を検出し、検出した顔画像から目が存在すべき存在領域を抽出し、抽出した存在領域内に開いた目が存在するか否かを検出し、存在領域内から開いた目が検出されたとき目が開いている状態であると判別し、検出されなかったとき目が閉じている状態であると判別することにより、顔における目の位置が既知であることおよび開いた目は閉じた目に比べて構造的特徴が多く判別しやすいことに着目し、目の存在領域内において判別しやすい開いた目のみを検出すれば同時に閉じた目を検出することになるため、結果として目の開いた状態もしくは閉じた状態を精度良く判別することができる。   According to the eye state determination method, apparatus, and program of the present invention, a face image included in the entire image is detected, an existing region where the eye should be present is extracted from the detected face image, and the eye is opened in the extracted existing region. It is determined whether or not there is an eye, and when an open eye is detected from within the existing area, it is determined that the eye is open, and when it is not detected, the eye is closed Focusing on the fact that the position of the eye in the face is known, and that the open eye has more structural features than the closed eye, it is easier to discriminate, and it is easier to discriminate within the eye presence area. If only eyes are detected, closed eyes are detected at the same time. As a result, it is possible to accurately determine whether the eyes are open or closed.

特に、目検出手段が、複数の弱判別器による複数の判別結果から最終的な判別を行う判別器を備えたものであり、判別器が、正解サンプル画像として開いた目の画像を用い、不正解サンプル画像として閉じた目の画像を用いて学習されたものであれば、判別器による開いた目の判別を精度良く行うことができるため、閉じた目も精度良く判別を行うことになり、結果として目の状態判別を精度良く行うことができる。   In particular, the eye detection means includes a discriminator that performs final discrimination from a plurality of discrimination results obtained by a plurality of weak discriminators, and the discriminator uses an eye image that is opened as a correct sample image. If it is learned using a closed eye image as the correct sample image, it is possible to accurately determine the open eye by the discriminator, so the closed eye is also accurately determined, As a result, the eye state can be determined with high accuracy.

以下、図面を参照して本発明の目の状態判別装置の実施の形態を詳細に説明する。なお、図1のような目の状態判別装置1の構成は、補助記憶装置に読み込まれた目の状態判別プログラムをコンピュータ(たとえばパーソナルコンピュータ等)上で実行することにより実現される。また、この目の状態判別プログラムは、CD−ROM等の情報記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされることになる。   Embodiments of an eye state determination device according to the present invention will be described below in detail with reference to the drawings. The configuration of the eye state determination apparatus 1 as shown in FIG. 1 is realized by executing an eye state determination program read into the auxiliary storage device on a computer (for example, a personal computer). Further, the eye state determination program is stored in an information storage medium such as a CD-ROM, or distributed via a network such as the Internet and installed in a computer.

目の状態判別装置1は、全体画像に含まれる顔画像FPを検出する顔検出手段10と、顔画像FPから目が存在すべき存在領域を抽出する領域抽出手段15と、存在領域内に開いた目が存在するか否かを検出する目検出手段20と、開いた目が領域内から検出されたときに目が開いていると判別し、検出されなかったときに目が閉じていると判別する状態判別手段30とを備えている。   The eye state determination apparatus 1 includes a face detection unit 10 that detects a face image FP included in an entire image, a region extraction unit 15 that extracts an existing region where an eye should exist from the face image FP, and an open in the existing region. Eye detection means 20 for detecting whether or not there is an eye, and when the open eye is detected from within the region, it is determined that the eye is open, and when the eye is not detected, the eye is closed And a state discriminating means 30 for discriminating.

顔検出手段10は、たとえばデジタルカメラ等において取得された全体画像の中から顔を判別し、判別した顔を顔画像FPとして検出する機能を有している。顔検出手段10は、全体画像P上にサブウィンドウWを走査させることにより部分画像PPを生成する部分画像生成手段11と、部分画像生成手段11により生成された複数の部分画像PPにおいて、顔である部分画像を検出する顔判別器12とを有している。   The face detection means 10 has a function of discriminating a face from an entire image acquired by a digital camera or the like, for example, and detecting the discriminated face as a face image FP. The face detection unit 10 is a face in the partial image generation unit 11 that generates the partial image PP by scanning the sub window W over the entire image P and the plurality of partial images PP generated by the partial image generation unit 11. And a face discriminator 12 for detecting a partial image.

なお、部分画像生成手段11に入力される全体画像Pは前処理手段10aにより前処理が施されている。前処理手段10aは、全体画像Pに対し図2(A)〜(D)に示すように、全体画像Pを多重解像度化して解像度の異なる複数の全体画像P2、P3、P4を生成する機能を有している。さらに、前処理手段10aは、生成した複数の全体画像Pに対して、局所的な領域におけるコントラストのばらつきを抑制し全体画像Pの全領域においてコントラストを所定レベルに揃える正規化(以下、局所正規化という)を施す機能を有している。   Note that the entire image P input to the partial image generating unit 11 is preprocessed by the preprocessing unit 10a. As shown in FIGS. 2A to 2D, the preprocessing unit 10a has a function of generating a plurality of whole images P2, P3, and P4 having different resolutions by converting the whole image P into multiple resolutions as shown in FIGS. Have. Further, the preprocessing unit 10a normalizes the plurality of generated whole images P by suppressing the variation in contrast in the local region and aligning the contrast at a predetermined level in the whole region of the whole image P (hereinafter referred to as local normalization). It has a function to apply).

部分画像生成手段11は、図2(A)に示すように、設定された画素数(たとえば32画素×32画素)を有するサブウィンドウWを全体画像P内において走査させ、サブウィンドウWにより囲まれた領域を切り出すことにより設定画素数からなる部分画像PPを生成するようになっている。なお、部分画像生成手段11は、図2(B)〜(D)に示すように、生成された低解像度画像上においてサブウィンドウWを走査させたときの部分画像PPをも生成するようになっている。このように、低解像度画像からも部分画像PPを生成することにより、全体画像PにおいてサブウィンドウW内に顔もしくは顔が収まらなかった場合であっても、低解像度画像上においてはサブウィンドウW内に収めることが可能となり、検出を確実に行うことができる。   As shown in FIG. 2A, the partial image generating unit 11 scans a sub window W having a set number of pixels (for example, 32 pixels × 32 pixels) in the entire image P, and an area surrounded by the sub window W Are cut out to generate a partial image PP having a set number of pixels. As shown in FIGS. 2B to 2D, the partial image generating unit 11 also generates a partial image PP when the sub window W is scanned on the generated low resolution image. Yes. As described above, by generating the partial image PP from the low-resolution image, even if the face or the face does not fit in the sub-window W in the entire image P, the partial image PP fits in the sub-window W on the low-resolution image. It is possible to perform detection reliably.

図1の顔判別器12は、部分画像PPが顔であるか非顔かの2値判別を行う機能を有し、アダブーストアルゴリズム(Adaboost Algorithm)により学習されたものであって、複数の弱判別器CF〜CF(M:弱判別器の個数)を有している。各弱判別器CF〜CFはそれぞれ部分画像PPから特徴量xを抽出し、この特徴量xを用いて部分画像PPが顔であるか否かの判別を行う機能を備える。そして、顔判別器22は弱判別器CF〜CFおける判別結果を用いて顔であるか否かの最終的な判別を行うようになっている。 The face discriminator 12 of FIG. 1 has a function of performing binary discrimination of whether the partial image PP is a face or a non-face, and is learned by an Adaboost algorithm, and has a plurality of weaknesses. Discriminators CF 1 to CF M (M: number of weak discriminators) are included. Each of the weak classifiers CF 1 ~CF M respectively extracts the feature x from the partial images PP, partial images PP by using the feature x is a function of performing determination of whether or not a face. The face classifier 22 is configured to perform the final determination of whether or not a face with a weak classifiers CF 1 ~CF M definitive determination result.

具体的には、各弱判別器CF〜CFは図3に示すように部分画像PP内の設定された座標P1a、P1b、P1cにおける輝度値等を抽出する。さらに、部分画像PPの低解像度画像PP2内の設定された座標位置P2a、P2b、低解像度画像PP3内の設定された座標位置P3a、P3bにおける輝度値等をそれぞれ抽出する。その後、上述した7個の座標P1a〜P3bの2つをペアとして組み合わせ、この組み合わせた輝度の差分を特徴量xとする。各弱判別器CF〜CF毎にそれぞれ異なる特徴量が用いられるものであり、たとえば弱判別器CFでは座標P1a、P1cにおける輝度の差分を特徴量として用い、弱判別器CFでは座標P2a、P2bにおける輝度の差分を特徴量として用いるようになっている。 Specifically, each of the weak classifiers CF 1 ~CF M extracts coordinates set P1a in the partial image PP as shown in FIG. 3, P1b, the luminance value or the like in P1c. Furthermore, the coordinate values P2a and P2b set in the low resolution image PP2 of the partial image PP, the luminance values at the set coordinate positions P3a and P3b in the low resolution image PP3, and the like are extracted. Thereafter, two of the seven coordinates P1a to P3b described above are combined as a pair, and the difference of the combined luminance is defined as a feature amount x. Are those each weak classifier CF different feature amount for each 1 ~CF M is used, for example, the weak classifiers CF 1 The coordinate P1a, used as a feature quantity difference of brightness in P1c, weak classifier CF 2 The coordinate The luminance difference between P2a and P2b is used as a feature amount.

なお、各弱判別器CF〜CFがそれぞれ特徴量xを抽出する場合について例示しているが、複数の部分画像PPについて上述した特徴量xを予め抽出しておき、各弱判別器CF〜CFに入力するようにしてもよい。さらに、輝度値を用いた場合について例示しているが、コントラスト、エッジ等の情報を用いるようにしても良い。 Note that although the case where each of the weak classifiers CF 1 ~CF M extracts characteristic amounts x, respectively, in advance extracts a feature x described above for a plurality of partial images PP, each of the weak classifiers CF it may be input to the 1 ~CF M. Furthermore, although the case where the luminance value is used is illustrated, information such as contrast and edge may be used.

各弱判別器CF〜CFは図4に示すようなヒストグラムを有しており、このヒストグラムに基づいて特徴量xの値に応じたスコアf(x)〜f(x)を出力する。さらに、各弱判別器CF〜CFは判別性能を示す信頼度β〜βを有している。各弱判別器CF〜CFは、スコアf(x)〜f(x)と信頼度β〜βとを用いて判定スコアβ・f(x)を算出するようになっている。そして、各弱判別器CFの判定スコアβ・f(x)自体が設定しきい値Sref以上であるか否かを判断し、設定しきい値以上であるときに顔であると判別する(β・f(x)≧Sref)。 Each weak discriminator CF 1 to CF M has a histogram as shown in FIG. 4, and outputs scores f 1 (x) to f M (x) corresponding to the value of the feature quantity x based on this histogram. To do. Further, each of the weak classifiers CF 1 ~CF M have confidence values β 1M indicating the discrimination performance. Each of the weak classifiers CF 1 ~CF M so as to calculate the determination score β m · f m (x) with a score f 1 (x) ~f M ( x) and reliability β 1M It has become. Then, it is determined whether or not the determination score β m · f m (x) itself of each weak discriminator CF m is equal to or greater than a set threshold value Sref, and when it is equal to or greater than the set threshold value, it is determined that the face is a face. (Β m · f m (x) ≧ Sref).

また、顔判別器12の各弱判別器CF〜CFはカスケード構造を有しており、各弱判別器CF〜CFのすべてが顔であると判別した部分画像PPのみを顔画像FPとして出力するようになっている。つまり、弱判別器CFにおいて顔であると判別した部分画像PPのみ下流側の弱判別器CFm+1による判別を行い、弱判別器CFで非顔であると判別された部分画像PPは下流側の弱判別器CFm+1による判別は行わない。これにより、下流側の弱判別器において判別すべき部分画像PPの量を減らすことができるため、判別作業の高速化を図ることができる。なお、カスケード構造を有する判別器の詳細は、Shihong LAO等、「高速全方向顔検出」、画像の認識・理解シンポジウム(MIRU2004)、2004年7月に開示されている。 Further, each of the weak classifiers CF 1 ~CF face classifier 12 M has a cascade structure, each of the weak classifiers CF 1 ~CF M of all it is determined to be a face part image PP only a face image It outputs as FP. That is, only the partial image PP determined to be a face by the weak classifier CF m is determined by the downstream weak classifier CF m + 1, and the partial image PP determined to be a non-face by the weak classifier CF m is downstream. No discrimination is performed by the weak discriminator CF m + 1 on the side. As a result, the amount of the partial image PP to be discriminated in the downstream weak discriminator can be reduced, so that the discrimination operation can be speeded up. Details of the discriminator having a cascade structure are disclosed in Shihong LAO et al., “High-speed omnidirectional face detection”, Image Recognition and Understanding Symposium (MIRU 2004), July 2004.

なお、各弱判別器CF〜CFから出力された判定スコアS〜Sをそれぞれ個別に判定スコアしきい値Sref以上であるか否かを判断するのではなく、弱判別器CFにおいて判別を行う際、弱判別器CFの上流側の弱判別器CF〜CFm−1での判定スコアの和Σr=1 β・fが判定スコアしきい値S1ref以上であるか否かにより判別を行うようにしても良い(Σr=1 β・f(x)≧S1ref)。これにより、上流側の弱判別器による判定スコアを考慮した判定を行うことができるため、判定精度の向上を図ることができる。 Incidentally, each of the weak classifiers CF 1 ~CF M a determination score S 1 to S M output from each rather than determining whether a individual determination score threshold Sref above, the weak classifier CF m in the case of performing the determination, the weak classifiers CF sum Σ r = 1 m β r · f r of determination score on the upstream side of the weak classifiers CF 1 ~CF m-1 m is determined score threshold S1ref more may be performed discriminated by whether (Σ r = 1 m β r · f r (x) ≧ S1ref). Thereby, since the determination which considered the determination score by an upstream weak discriminator can be performed, the determination precision can be improved.

図1の領域抽出手段15は顔検出手段10により抽出された顔画像FPにおいて目が存在すべき存在領域ERを抽出するものであって、一般的に顔の輪郭(顔画像FPの大きさ)から目が存在する位置が含まれるような領域を存在領域ERとして抽出する。具体的には図5に示すように、顔の向きが頭が上、あごが下にあるとき、顔画像FPの下端から所定量L1refだけ上側であって、左右端から所定量L10ref離れた領域を特定するようになっている。この所定量L1ref、L10refは統計的に一般人の顔の輪郭から目の位置までの距離として予め定められている。   The area extracting means 15 in FIG. 1 extracts an existing area ER where the eyes should be present in the face image FP extracted by the face detecting means 10, and is generally a face outline (size of the face image FP). The region including the position where the eye exists is extracted as the existing region ER. Specifically, as shown in FIG. 5, when the face is headed up and the chin is down, a region that is a predetermined amount L1ref above the lower end of the face image FP, and a predetermined amount L10ref away from the left and right ends Is to identify. The predetermined amounts L1ref and L10ref are statistically determined in advance as a distance from the contour of the face of a general person to the eye position.

図1の目検出手段20は存在領域ER内に開いた目が存在するか否かを検出するものであって、領域抽出手段15により特定された領域から複数の周辺画像SCPを生成する周辺画像生成手段21と、周辺画像生成手段21により生成された複数の周辺画像SCPの目の状態を判別する目判別器22とを有している。周辺画像生成手段21は、図6に示すように、存在領域ER内を設定画素数(たとえば32画素×32画素)からなるウィンドウ枠を走査し、ウィンドウ枠W10に囲まれた画像を周辺画像SCPとして生成するようになっている。   The eye detection unit 20 in FIG. 1 detects whether or not an open eye exists in the existence region ER, and generates a plurality of peripheral images SCP from the region specified by the region extraction unit 15. The generating unit 21 includes an eye discriminator 22 that discriminates the eye states of the plurality of peripheral images SCP generated by the peripheral image generating unit 21. As shown in FIG. 6, the peripheral image generation unit 21 scans a window frame having a set number of pixels (for example, 32 pixels × 32 pixels) in the existence area ER, and displays an image surrounded by the window frame W10 as a peripheral image SCP. Is supposed to generate as

図1の目判別器22は、上述した顔判別器12と同様にアダブーストアルゴリズムにより学習されたものであって、周辺画像SCPが開いた目であるか否かを判別する機能を有している。具体的には、目判別器22は、複数の弱判別器CF10〜CF(N:弱判別器の個数)を有している。各弱判別器CF10〜CFはそれぞれ周辺画像PPから特徴量xを抽出し、この特徴量xを用いて部分画像PPが顔であるか否かの判別を行う機能を備える。そして、目判別器22は弱判別器CF10〜CFおける判別結果を用いて周辺画像SCPが開いた目であるか否か最終的な判別を行うようになっている。ここで、目判別器22が開いた目を判別することができるために、目判別器22の学習には正解サンプルとして開いた目の画像が用いられ、不正解サンプルとして閉じた目の画像および目の周辺画像が用いられている。 The eye discriminator 22 in FIG. 1 is learned by the Adaboost algorithm in the same manner as the face discriminator 12 described above, and has a function of discriminating whether or not the surrounding image SCP is an open eye. Yes. Specifically, the eye classifier 22 has a plurality of weak classifiers CF 10 to CF N (N: the number of weak classifiers). Each of the weak classifiers CF 10 ~CF N extracts feature x from the peripheral images PP, respectively, the partial images PP by using the feature x is a function of performing determination of whether or not a face. The eyes discriminator 22 is configured to perform whether the final determination peripheral image SCP is eyes opened using weak classifiers CF 10 ~CF N definitive determination result. Here, since the eye discriminator 22 can discriminate the opened eye, the eye discriminator 22 uses the image of the opened eye as the correct answer sample, and the closed eye image as the incorrect answer sample. Eye peripheral images are used.

状態判別手段30は、目検出手段20における開いた目の判別結果に基づいて目の状態を判別するものであって、開いた目が存在領域ER内から検出されたときに目が開いている状態であると判別する。一方、開いた目が検出されなかったとき、目が存在すべき存在領域ERに開いた目が存在しなかったものであるから、目が閉じている状態であると判別する。   The state discriminating means 30 discriminates the eye state based on the open eye discrimination result in the eye detection means 20, and the eye is open when the open eye is detected from within the existence region ER. It is determined that the state is present. On the other hand, when an open eye is not detected, it is determined that the eye is closed because there is no open eye in the existence region ER where the eye should exist.

図7は本発明の目の状態判別方法の好ましい実施の形態を示すフローチャートであり、図1から図7を参照して目の状態判別方法の一例について説明する。まず、顔検出手段10において全体画像Pに前処理が施された後(ステップST1、図2参照)、全体画像P上をウィンドウ枠が走査することにより部分画像PPが生成される(ステップST2)。その後、部分画像PPに対し顔判別器12による判別が行われ、顔画像FPが検出される(ステップST3)。   FIG. 7 is a flowchart showing a preferred embodiment of the eye state determination method of the present invention. An example of the eye state determination method will be described with reference to FIGS. First, after pre-processing is performed on the entire image P in the face detection means 10 (see step ST1, FIG. 2), a partial frame PP is generated by scanning the window frame on the entire image P (step ST2). . Thereafter, discrimination by the face discriminator 12 is performed on the partial image PP, and the face image FP is detected (step ST3).

次に、領域抽出手段15により検出された顔画像FPから目が存在すべき存在領域ERが抽出される(ステップST4、図5参照)。周辺画像生成手段21において抽出した存在領域ER内からウィンドウ枠を走査することにより周辺画像SCPが生成される(ステップST5、図6参照)。そして目判別器22によりこの周辺画像SCPが開いた目であるか否かが判別される(ステップST6)。その後、状態判別手段30において、存在領域ERから生成された複数の周辺画像SCPに開いた目が存在したときには、目が開いていると判断され、複数の周辺画像SCPに開いた目がなかったときには、目が閉じていると判断される(ステップST7)。   Next, the presence area ER where the eye should exist is extracted from the face image FP detected by the area extraction means 15 (see step ST4, FIG. 5). The peripheral image SCP is generated by scanning the window frame from the existence area ER extracted by the peripheral image generation means 21 (see step ST5, FIG. 6). Then, the eye discriminator 22 determines whether or not the peripheral image SCP is an open eye (step ST6). Thereafter, in the state determination unit 30, when there are open eyes in the plurality of peripheral images SCP generated from the existence region ER, it is determined that the eyes are open, and there are no open eyes in the plurality of peripheral images SCP. Sometimes it is determined that the eyes are closed (step ST7).

このように、目が存在すべき存在領域ER内において開いた目の判別を行うことにより、目が開いているか閉じているかの2つの状態を精度良く判別することができる。まず、開いた目と閉じた目とを比較した場合、開いた目は横長の明るい(白い)楕円の中に、暗い円構造を含んでいるという多くの特徴的構造を有している。一方、閉じた目は主として直線状の構造からなっており特徴的構造が少なく、目の周辺画像として取り込まれる目尻のシワ等と構造が似ている。よって、開いた目を正解サンプルとして学習させた判別器と、閉じた目を正解サンプルとして学習させた判別器とを比較した場合、開いた目を正解サンプルとして学習させた判別器の方が誤検出率を低くすることができる。このように、開いた目の方が閉じた目よりも構造的特徴が多いことを利用し、開いた目の判別を精度良く行うことができるようになっている。   In this way, by determining the eyes that are open in the existence region ER where the eyes should be present, it is possible to accurately determine the two states of whether the eyes are open or closed. First, when an open eye is compared with a closed eye, the open eye has many characteristic structures including a dark circular structure in a horizontally long bright (white) ellipse. On the other hand, closed eyes are mainly composed of a linear structure, have few characteristic structures, and are similar in structure to the wrinkles of the corners of the eyes that are captured as peripheral images of the eyes. Therefore, when comparing a discriminator trained with the open eye as the correct sample and a discriminator trained with the closed eye as the correct sample, the discriminator trained with the open eye as the correct sample is incorrect. The detection rate can be lowered. Thus, using the fact that the open eye has more structural features than the closed eye, it is possible to accurately determine the open eye.

一方、顔において目が存在する領域は個人差があるものの既知であり、検出された顔画像FPから目が存在すべき存在領域ERを検出することができる。これを利用し、検出された顔画像FPの輪郭から予め目が存在する存在領域ERを抽出し、この存在領域ER内において開いた目の判別を行う。目が必ず存在する存在領域ERに開いた目がないとき、それは存在領域ERの目は閉じていることを意味する。このように、存在領域ER内に開いた目を判別することにより、開いた目であるか否か(対象物か非対象物であるか)といった判別しかできないブースティングアルゴリズムを用いて、開いた目であるか閉じた目であるか(対象物Aであるか対象物Bであるか)という2つの状態を精度良く判別することができる。   On the other hand, the region where the eyes are present in the face is known although there are individual differences, and the presence region ER where the eyes should be present can be detected from the detected face image FP. Using this, an existing area ER where eyes are present is extracted in advance from the detected contour of the face image FP, and an open eye is discriminated in the existing area ER. When there is no open eye in the presence region ER where the eye always exists, it means that the eye in the presence region ER is closed. In this way, by using the boosting algorithm that can only determine whether the eyes are open (whether they are objects or non-objects) by determining the eyes that are open in the existence region ER. It is possible to accurately discriminate between two states of eyes or closed eyes (whether the object is an object A or an object B).

上記実施の形態によれば、顔における目の位置が既知であることおよび開いた目は閉じた目に比べて構造的特徴が多く判別しやすいことに着目し、目の存在領域内において判別しやすい開いた目のみを検出すれば同時に閉じた目を検出することになるため、結果として目の開いた状態もしくは閉じた状態を精度良く判別することができる。   According to the above-described embodiment, focusing on the fact that the position of the eye in the face is known and that the open eye has more structural features than the closed eye, it is easier to discriminate within the eye presence region. If only easy open eyes are detected, closed eyes are detected at the same time. As a result, it is possible to accurately determine whether the eyes are open or closed.

特に、目検出手段20が、複数の弱判別器CF10〜CFによる複数の判別結果から最終的な判別を行う判別器22を備えたものであり、判別器22が、正解サンプル画像として開いた目の画像を用い、不正解サンプル画像として閉じた目の画像を用いて学習されたものであれば、判別器22による開いた目の判別を精度良く行うことができるため、閉じた目も精度良く判別を行うことになり、結果として目の状態判別を精度良く行うことができる。 In particular, the eye detection unit 20, which includes a discriminator 22 for final determination of a plurality of determination results by the plurality of weak classifiers CF 10 ~CF N, discriminator 22, opens as the correct sample images If an eye image is used and learning is performed using a closed eye image as an incorrect sample image, the discriminator 22 can accurately discriminate open eyes. As a result, the eye state can be determined with high accuracy.

なお、本発明の実施の形態は上記実施の形態に限定されない。たとえば、上記実施の形態において、正面顔の場合について例示しているが、横顔もしくは斜め顔にも適用することができる。また、顔判別器12(目判別器22)にアダブーストアルゴリズムを用いた場合について例示しているが、公知のニューラルネットワーク技術等を用いて顔もしくは目の判別を行うようにしても良い。この場合であっても、存在領域ERから開いた目の検出が行われる。   The embodiment of the present invention is not limited to the above embodiment. For example, in the above embodiment, the case of a front face is illustrated, but the present invention can also be applied to a side face or an oblique face. Further, although the case where the Adaboost algorithm is used for the face discriminator 12 (eye discriminator 22) is illustrated, the face or eye may be discriminated using a known neural network technique or the like. Even in this case, the eyes opened from the existence area ER are detected.

本発明の目の状態判別装置の好ましい実施の形態を示すブロック図The block diagram which shows preferable embodiment of the state determination apparatus of the eye of this invention 図1の部分画像生成手段においてサブウィンドウが走査される様子を示す模式図Schematic diagram showing how the sub-window is scanned in the partial image generating means of FIG. 図1の弱判別器により部分画像から特徴量が抽出される様子を示す模式図Schematic diagram showing how feature quantities are extracted from partial images by the weak classifier of FIG. 図1の弱判別器が有するヒストグラムの一例を示すグラフ図The graph figure which shows an example of the histogram which the weak discriminator of FIG. 1 has 図1の領域抽出手段において顔画像から存在領域が抽出される様子を示す模式図The schematic diagram which shows a mode that a presence area is extracted from a face image in the area | region extraction means of FIG. 図1の周辺画像生成手段において存在領域から周辺画像が生成される様子を示す模式図The schematic diagram which shows a mode that a periphery image is produced | generated from an existing area in the periphery image generation means of FIG. 本発明の目の状態判別方法の好ましい実施の形態を示すフローチャートThe flowchart which shows preferable embodiment of the eye state determination method of this invention

符号の説明Explanation of symbols

1 目の状態判別装置
10 顔検出手段
15 領域抽出手段
20 目検出手段
21 周辺画像生成手段
21 判別器
22 目判別器
30 状態判別手段
ER 存在領域
P 全体画像
FP 顔画像
1 eye state discriminating apparatus 10 face detecting means 15 area extracting means 20 eye detecting means 21 peripheral image generating means 21 discriminator 22 eye discriminator 30 state discriminating means ER existence area P whole image FP face image

Claims (4)

全体画像の中から顔画像を検出し、
検出した前記顔画像から目が存在すべき存在領域を抽出し、
抽出した前記存在領域内に開いた目が存在するか否かを検出し、
前記存在領域内から前記開いた目が検出されたとき目が開いている状態であると判別し、検出されなかったとき目が閉じている状態であると判別する
ことを特徴とする目の状態判別方法。
Detect a face image from the whole image,
Extracting the presence area where the eyes should be present from the detected face image,
Detecting whether or not there is an open eye in the extracted existence region;
When the open eye is detected from within the existence area, it is determined that the eye is in an open state, and when it is not detected, the eye is determined to be in a closed state. How to determine.
全体画像の中から顔画像を検出する顔検出手段と、
該顔検出手段により検出された前記顔画像から目が存在すべき存在領域を抽出する領域抽出手段と、
該領域抽出手段により抽出された前記存在領域内に開いた目が存在するか否かを検出する目検出手段と、
該目検出手段において開いた目が前記存在領域内から検出されたときに目が開いている状態であると判別し、検出されなかったとき目が閉じている状態であると判別する状態判別手段と
を備えたことを特徴とする目の状態判別装置。
Face detection means for detecting a face image from the entire image;
An area extracting means for extracting an existing area where an eye should exist from the face image detected by the face detecting means;
Eye detection means for detecting whether or not an open eye exists in the existence area extracted by the area extraction means;
State determining means for determining that the eye is open when the opened eye is detected from within the existence area, and for determining that the eye is closed when the eye is not detected And an eye state discriminating device.
前記目検出手段が、複数の弱判別器による複数の判別結果から最終的な判別を行う判別器を備えたものであり、該判別器が、正解サンプル画像として開いた目の画像を用い、不正解サンプル画像として閉じた目の画像を用いて学習されたものであることを特徴とする請求項2記載の目の状態判別装置。 The eye detection means includes a discriminator that performs final discrimination from a plurality of discrimination results by a plurality of weak discriminators, and the discriminator uses an image of an eye that is opened as a correct sample image, 3. The eye state discriminating apparatus according to claim 2, wherein learning is performed using an image of a closed eye as a correct sample image. コンピュータに、
全体画像に含まれる顔画像を検出し、
検出した前記顔画像から目が存在すべき存在領域を抽出し、
抽出した前記存在領域内に開いた目が存在するか否かを検出し、
前記存在領域内から前記開いた目が検出されたとき目が開いている状態であると判別し、検出されなかったとき目が閉じている状態であると判別する
ことを実行させるための目の状態判別プログラム。
On the computer,
Detect the face image included in the whole image,
Extracting the presence area where the eyes should be present from the detected face image,
Detecting whether or not there is an open eye in the extracted existence region;
An eye for causing the eyes to be determined to be in an open state when the open eye is detected from within the existence area, and to be determined to be in a closed state when the eye is not detected State determination program.
JP2006149201A 2006-05-30 2006-05-30 Method, device and program for discriminating state of eye Withdrawn JP2007323104A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006149201A JP2007323104A (en) 2006-05-30 2006-05-30 Method, device and program for discriminating state of eye

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006149201A JP2007323104A (en) 2006-05-30 2006-05-30 Method, device and program for discriminating state of eye

Publications (1)

Publication Number Publication Date
JP2007323104A true JP2007323104A (en) 2007-12-13

Family

ID=38855893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006149201A Withdrawn JP2007323104A (en) 2006-05-30 2006-05-30 Method, device and program for discriminating state of eye

Country Status (1)

Country Link
JP (1) JP2007323104A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041307A (en) * 2013-08-23 2015-03-02 日本電気株式会社 Collation device and collation method and collation system and computer program
JP2018018401A (en) * 2016-07-29 2018-02-01 東芝アルパイン・オートモティブテクノロジー株式会社 Eyelid opening/closing detector and eyelid opening/closing detection method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041307A (en) * 2013-08-23 2015-03-02 日本電気株式会社 Collation device and collation method and collation system and computer program
JP2018018401A (en) * 2016-07-29 2018-02-01 東芝アルパイン・オートモティブテクノロジー株式会社 Eyelid opening/closing detector and eyelid opening/closing detection method

Similar Documents

Publication Publication Date Title
JP6630999B2 (en) Image recognition device, image recognition method, and image recognition program
JP2007305030A (en) Red-eye processing method, device and program
EP1357520B1 (en) Method for verifying users and updating database, and face verification system using the same
US8463049B2 (en) Image processing apparatus and image processing method
JP4657934B2 (en) Face detection method, apparatus and program
JP2007265367A (en) Program, apparatus and method for detecting line of sight
US7869632B2 (en) Automatic trimming method, apparatus and program
JP4806101B2 (en) Object detection apparatus and object detection method
Boehnen et al. A fast multi-modal approach to facial feature detection
US20070177794A1 (en) Method and apparatus for automatic eyeglasses detection using a nose ridge mask
US20160078319A1 (en) Method, Apparatus and Computer Readable Recording Medium for Detecting a Location of a Face Feature Point Using an Adaboost Learning Algorithm
Lee et al. An automated video-based system for iris recognition
JP5755046B2 (en) Image recognition apparatus, image recognition method, and program
JP2021103538A (en) Information processor, method for processing information, and information processing program
JP4749879B2 (en) Face discrimination method, apparatus, and program
JP2006285959A (en) Learning method of face recognition device, and method, device and program for face recognition
JP2007323104A (en) Method, device and program for discriminating state of eye
JP2006244385A (en) Face-discriminating apparatus, program and learning method for the apparatus
JP2007304675A (en) Method, device and program for image composition
Gul et al. A machine learning approach to detect occluded faces in unconstrained crowd scene
Suma Dense feature based face recognition from surveillance video using convolutional neural network
JP5283267B2 (en) Content identification method and apparatus
Uhl et al. Fusion of iris segmentation results
CN115116147B (en) Image recognition, model training, living body detection method and related device
KR102579610B1 (en) Apparatus for Detecting ATM Abnormal Behavior and Driving Method Thereof

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090804