JP2007323104A - Method, device and program for discriminating state of eye - Google Patents
Method, device and program for discriminating state of eye Download PDFInfo
- Publication number
- JP2007323104A JP2007323104A JP2006149201A JP2006149201A JP2007323104A JP 2007323104 A JP2007323104 A JP 2007323104A JP 2006149201 A JP2006149201 A JP 2006149201A JP 2006149201 A JP2006149201 A JP 2006149201A JP 2007323104 A JP2007323104 A JP 2007323104A
- Authority
- JP
- Japan
- Prior art keywords
- eye
- image
- open
- face
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、顔画像の目が開いている状態であるか閉じている状態であるかを判別する目の状態判別方法および装置ならびにプログラムに関するものである。 The present invention relates to an eye state determination method, apparatus, and program for determining whether eyes of a face image are in an open state or a closed state.
現在、デジタルカメラにより取得された画像から目の状態を検出し、目が閉じている場合には撮影をやり直すことができるように、デジタルカメラのモニタを介して撮影者にアドバイスし、もしくは閉じた目の部分を開いた目に合成する等を行うことが提案されている。このとき、画像から顔を検出する方法もしくは顔の中から目を検出する方法として、ニューラルネットワークを用いた検出方法の他にブースティング(Boosting)アルゴリズムによる検出方法が用いられる(特許文献1,2参照)。 Currently, the photographer is advised or closed via the monitor of the digital camera so that the eye state can be detected from the image acquired by the digital camera and the image can be redone if the eye is closed. It has been proposed to synthesize an eye part with an open eye. At this time, as a method of detecting a face from an image or a method of detecting eyes from a face, a detection method using a boosting algorithm is used in addition to a detection method using a neural network (Patent Documents 1 and 2). reference).
このブースティングアルゴリズムは複数の弱い判別器(弱判別器)を結合することにより1つの強い判別器を形成する2クラス判別器の学習方法であって、無数のパターンの中から検出すべき1つの対象物を選択するものである。
しかし、特許文献1、2に示すようなブースティングアルゴリズムは、対象物であるか否かを判断するものであって、対象物Aであるか対象物Bであるかを分類することは前提としていない。具体的には、ブースティングアルゴリズムを用いて目が開いているか閉じているかの判別を行う場合、開いた目である画像であるかそれ以外の画像であるかという分類が行われる。つまり、開いた目以外の画像は、たとえば閉じた目と目尻のシワのように種類が違うものであっても「開いた目ではない」という同じカテゴリーに分類されてしまい、閉じた目の判別が困難になってしまうという問題がある。同様に、閉じた目であるか否かを判別した場合にも開いた目の判別が困難になってしまうという問題がある。 However, the boosting algorithms as shown in Patent Documents 1 and 2 determine whether or not the object is an object, and it is assumed that the object is the object A or the object B. Not in. Specifically, when the boosting algorithm is used to determine whether the eyes are open or closed, a classification is made as to whether the images are open eyes or other images. In other words, images other than open eyes are classified into the same category of `` not open eyes '' even if they are of different types, such as closed eyes and wrinkles on the corners of the eyes. There is a problem that becomes difficult. Similarly, when it is determined whether or not the eyes are closed, there is a problem that it is difficult to determine the eyes that are open.
さらに、上記ブースティングアルゴリズムに限らず、閉じた目はほぼ線状の形状を有し目尻のシワと形状が似ているため検出が難しいという問題がある。 Furthermore, the present invention is not limited to the boosting algorithm described above, and closed eyes have a substantially linear shape and have a problem that detection is difficult because the shape is similar to the wrinkles of the corners of the eyes.
そこで、本発明は、目が開いた状態なのか閉じた状態なのかを精度良く判別することができる目の状態判別方法および装置ならびにプログラムを提供することを目的とするものである。 Accordingly, an object of the present invention is to provide an eye state determination method, apparatus, and program capable of accurately determining whether an eye is open or closed.
本発明の目の状態判別方法は、全体画像に含まれる顔画像を検出し、検出した顔画像の輪郭から目が存在すべき存在領域を抽出し、抽出した存在領域内に開いた目が存在するか否かを検出し、存在領域内から開いた目が検出されたときに目が開いている状態であると判別し、検出されなかったときに目が閉じている状態であると判別することを特徴とするものである。 According to the eye state determination method of the present invention, a face image included in the entire image is detected, an existing region where the eye should exist is extracted from the detected contour of the face image, and an open eye exists in the extracted existing region Whether the eye is open when an open eye is detected from within the existing area, and when the eye is not detected, it is determined that the eye is closed It is characterized by this.
本発明の目の状態判別装置は、全体画像に含まれる顔画像を検出する顔検出手段と、顔検出手段により検出された顔画像から目が存在すべき存在領域を抽出する領域抽出手段と、領域抽出手段により抽出された存在領域内に開いた目が存在するか否かを検出する目検出手段と、目検出手段において開いた目が存在領域内から検出されたとき目が開いている状態であると判別し、検出されなかったとき目が閉じている状態であると判別する状態判別手段とを備えたことを特徴とするものである。 An eye state determination apparatus according to the present invention includes a face detection unit that detects a face image included in an entire image, a region extraction unit that extracts an existing region where an eye should exist from the face image detected by the face detection unit, Eye detection means for detecting whether or not there is an open eye in the existing area extracted by the area extraction means, and a state in which the eye is open when the open eye is detected in the existing area by the eye detection means And a state determining unit that determines that the eyes are closed when the eyes are not detected.
本発明の目の状態判別プログラムは、コンピュータに、全体画像に含まれる顔画像を検出し、検出した顔画像の輪郭から目が存在すべき存在領域を抽出し、抽出した存在領域内に開いた目が存在するか否かを検出し、存在領域内から開いた目が検出されたとき目が開いている状態であると判別し、検出されなかったとき目が閉じている状態であると判別するように機能させることを特徴とするものである。 According to the eye state determination program of the present invention, a face image included in the entire image is detected by a computer, an existing region where the eye should be present is extracted from the detected outline of the face image, and the eye is opened in the extracted existing region. Detects whether or not an eye exists, determines that the eye is open when an open eye is detected from within the existing area, and determines that the eye is closed when no eye is detected It is made to function like this.
ここで、領域抽出手段は、顔画像から目が存在すると予想される存在領域を抽出するものであればその方法を問わず、たとえば抽出された顔画像の輪郭、大きさ等から目が配置されている確率の高い存在領域を抽出するようにしてもよい。 Here, as long as the region extracting unit extracts an existing region where eyes are expected to exist from the face image, regardless of the method, for example, the eyes are arranged based on the contour, size, etc. of the extracted face image. It is also possible to extract an existence region having a high probability of being present.
なお、目検出手段は、開いた目が存在するか否かを検出するものであればどのような手法であってもよい。たとえば、目検出手段は、パターンマッチングを用いて開いた目を検出するものであってもよいし、複数の弱判別器による複数の判別結果から最終的な判別を行う判別器を備えたものであり、判別器は、正解サンプル画像として開いた目の画像を用い、不正解サンプル画像として閉じた目の画像を用いて学習されたものであってもよい。このとき、判別器は不正解サンプル画像として閉じた目の画像の他に目の周辺画像を用いて学習されたものであることが好ましい。 The eye detection means may be any method as long as it detects whether or not there are open eyes. For example, the eye detection means may be one that detects an open eye using pattern matching, or includes a discriminator that performs final discrimination from a plurality of discrimination results by a plurality of weak discriminators. The discriminator may be one that has been learned by using an image of an open eye as a correct sample image and using an image of a closed eye as an incorrect sample image. At this time, it is preferable that the discriminator has been learned using an eye peripheral image in addition to the closed eye image as an incorrect sample image.
本発明の目の状態判別方法および装置ならびにプログラムによれば、全体画像に含まれる顔画像を検出し、検出した顔画像から目が存在すべき存在領域を抽出し、抽出した存在領域内に開いた目が存在するか否かを検出し、存在領域内から開いた目が検出されたとき目が開いている状態であると判別し、検出されなかったとき目が閉じている状態であると判別することにより、顔における目の位置が既知であることおよび開いた目は閉じた目に比べて構造的特徴が多く判別しやすいことに着目し、目の存在領域内において判別しやすい開いた目のみを検出すれば同時に閉じた目を検出することになるため、結果として目の開いた状態もしくは閉じた状態を精度良く判別することができる。 According to the eye state determination method, apparatus, and program of the present invention, a face image included in the entire image is detected, an existing region where the eye should be present is extracted from the detected face image, and the eye is opened in the extracted existing region. It is determined whether or not there is an eye, and when an open eye is detected from within the existing area, it is determined that the eye is open, and when it is not detected, the eye is closed Focusing on the fact that the position of the eye in the face is known, and that the open eye has more structural features than the closed eye, it is easier to discriminate, and it is easier to discriminate within the eye presence area. If only eyes are detected, closed eyes are detected at the same time. As a result, it is possible to accurately determine whether the eyes are open or closed.
特に、目検出手段が、複数の弱判別器による複数の判別結果から最終的な判別を行う判別器を備えたものであり、判別器が、正解サンプル画像として開いた目の画像を用い、不正解サンプル画像として閉じた目の画像を用いて学習されたものであれば、判別器による開いた目の判別を精度良く行うことができるため、閉じた目も精度良く判別を行うことになり、結果として目の状態判別を精度良く行うことができる。 In particular, the eye detection means includes a discriminator that performs final discrimination from a plurality of discrimination results obtained by a plurality of weak discriminators, and the discriminator uses an eye image that is opened as a correct sample image. If it is learned using a closed eye image as the correct sample image, it is possible to accurately determine the open eye by the discriminator, so the closed eye is also accurately determined, As a result, the eye state can be determined with high accuracy.
以下、図面を参照して本発明の目の状態判別装置の実施の形態を詳細に説明する。なお、図1のような目の状態判別装置1の構成は、補助記憶装置に読み込まれた目の状態判別プログラムをコンピュータ(たとえばパーソナルコンピュータ等)上で実行することにより実現される。また、この目の状態判別プログラムは、CD−ROM等の情報記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされることになる。 Embodiments of an eye state determination device according to the present invention will be described below in detail with reference to the drawings. The configuration of the eye state determination apparatus 1 as shown in FIG. 1 is realized by executing an eye state determination program read into the auxiliary storage device on a computer (for example, a personal computer). Further, the eye state determination program is stored in an information storage medium such as a CD-ROM, or distributed via a network such as the Internet and installed in a computer.
目の状態判別装置1は、全体画像に含まれる顔画像FPを検出する顔検出手段10と、顔画像FPから目が存在すべき存在領域を抽出する領域抽出手段15と、存在領域内に開いた目が存在するか否かを検出する目検出手段20と、開いた目が領域内から検出されたときに目が開いていると判別し、検出されなかったときに目が閉じていると判別する状態判別手段30とを備えている。
The eye state determination apparatus 1 includes a
顔検出手段10は、たとえばデジタルカメラ等において取得された全体画像の中から顔を判別し、判別した顔を顔画像FPとして検出する機能を有している。顔検出手段10は、全体画像P上にサブウィンドウWを走査させることにより部分画像PPを生成する部分画像生成手段11と、部分画像生成手段11により生成された複数の部分画像PPにおいて、顔である部分画像を検出する顔判別器12とを有している。
The face detection means 10 has a function of discriminating a face from an entire image acquired by a digital camera or the like, for example, and detecting the discriminated face as a face image FP. The
なお、部分画像生成手段11に入力される全体画像Pは前処理手段10aにより前処理が施されている。前処理手段10aは、全体画像Pに対し図2(A)〜(D)に示すように、全体画像Pを多重解像度化して解像度の異なる複数の全体画像P2、P3、P4を生成する機能を有している。さらに、前処理手段10aは、生成した複数の全体画像Pに対して、局所的な領域におけるコントラストのばらつきを抑制し全体画像Pの全領域においてコントラストを所定レベルに揃える正規化(以下、局所正規化という)を施す機能を有している。
Note that the entire image P input to the partial
部分画像生成手段11は、図2(A)に示すように、設定された画素数(たとえば32画素×32画素)を有するサブウィンドウWを全体画像P内において走査させ、サブウィンドウWにより囲まれた領域を切り出すことにより設定画素数からなる部分画像PPを生成するようになっている。なお、部分画像生成手段11は、図2(B)〜(D)に示すように、生成された低解像度画像上においてサブウィンドウWを走査させたときの部分画像PPをも生成するようになっている。このように、低解像度画像からも部分画像PPを生成することにより、全体画像PにおいてサブウィンドウW内に顔もしくは顔が収まらなかった場合であっても、低解像度画像上においてはサブウィンドウW内に収めることが可能となり、検出を確実に行うことができる。
As shown in FIG. 2A, the partial
図1の顔判別器12は、部分画像PPが顔であるか非顔かの2値判別を行う機能を有し、アダブーストアルゴリズム(Adaboost Algorithm)により学習されたものであって、複数の弱判別器CF1〜CFM(M:弱判別器の個数)を有している。各弱判別器CF1〜CFMはそれぞれ部分画像PPから特徴量xを抽出し、この特徴量xを用いて部分画像PPが顔であるか否かの判別を行う機能を備える。そして、顔判別器22は弱判別器CF1〜CFMおける判別結果を用いて顔であるか否かの最終的な判別を行うようになっている。
The
具体的には、各弱判別器CF1〜CFMは図3に示すように部分画像PP内の設定された座標P1a、P1b、P1cにおける輝度値等を抽出する。さらに、部分画像PPの低解像度画像PP2内の設定された座標位置P2a、P2b、低解像度画像PP3内の設定された座標位置P3a、P3bにおける輝度値等をそれぞれ抽出する。その後、上述した7個の座標P1a〜P3bの2つをペアとして組み合わせ、この組み合わせた輝度の差分を特徴量xとする。各弱判別器CF1〜CFM毎にそれぞれ異なる特徴量が用いられるものであり、たとえば弱判別器CF1では座標P1a、P1cにおける輝度の差分を特徴量として用い、弱判別器CF2では座標P2a、P2bにおける輝度の差分を特徴量として用いるようになっている。 Specifically, each of the weak classifiers CF 1 ~CF M extracts coordinates set P1a in the partial image PP as shown in FIG. 3, P1b, the luminance value or the like in P1c. Furthermore, the coordinate values P2a and P2b set in the low resolution image PP2 of the partial image PP, the luminance values at the set coordinate positions P3a and P3b in the low resolution image PP3, and the like are extracted. Thereafter, two of the seven coordinates P1a to P3b described above are combined as a pair, and the difference of the combined luminance is defined as a feature amount x. Are those each weak classifier CF different feature amount for each 1 ~CF M is used, for example, the weak classifiers CF 1 The coordinate P1a, used as a feature quantity difference of brightness in P1c, weak classifier CF 2 The coordinate The luminance difference between P2a and P2b is used as a feature amount.
なお、各弱判別器CF1〜CFMがそれぞれ特徴量xを抽出する場合について例示しているが、複数の部分画像PPについて上述した特徴量xを予め抽出しておき、各弱判別器CF1〜CFMに入力するようにしてもよい。さらに、輝度値を用いた場合について例示しているが、コントラスト、エッジ等の情報を用いるようにしても良い。 Note that although the case where each of the weak classifiers CF 1 ~CF M extracts characteristic amounts x, respectively, in advance extracts a feature x described above for a plurality of partial images PP, each of the weak classifiers CF it may be input to the 1 ~CF M. Furthermore, although the case where the luminance value is used is illustrated, information such as contrast and edge may be used.
各弱判別器CF1〜CFMは図4に示すようなヒストグラムを有しており、このヒストグラムに基づいて特徴量xの値に応じたスコアf1(x)〜fM(x)を出力する。さらに、各弱判別器CF1〜CFMは判別性能を示す信頼度β1〜βMを有している。各弱判別器CF1〜CFMは、スコアf1(x)〜fM(x)と信頼度β1〜βMとを用いて判定スコアβm・fm(x)を算出するようになっている。そして、各弱判別器CFmの判定スコアβm・fm(x)自体が設定しきい値Sref以上であるか否かを判断し、設定しきい値以上であるときに顔であると判別する(βm・fm(x)≧Sref)。 Each weak discriminator CF 1 to CF M has a histogram as shown in FIG. 4, and outputs scores f 1 (x) to f M (x) corresponding to the value of the feature quantity x based on this histogram. To do. Further, each of the weak classifiers CF 1 ~CF M have confidence values β 1 ~β M indicating the discrimination performance. Each of the weak classifiers CF 1 ~CF M so as to calculate the determination score β m · f m (x) with a score f 1 (x) ~f M ( x) and reliability β 1 ~β M It has become. Then, it is determined whether or not the determination score β m · f m (x) itself of each weak discriminator CF m is equal to or greater than a set threshold value Sref, and when it is equal to or greater than the set threshold value, it is determined that the face is a face. (Β m · f m (x) ≧ Sref).
また、顔判別器12の各弱判別器CF1〜CFMはカスケード構造を有しており、各弱判別器CF1〜CFMのすべてが顔であると判別した部分画像PPのみを顔画像FPとして出力するようになっている。つまり、弱判別器CFmにおいて顔であると判別した部分画像PPのみ下流側の弱判別器CFm+1による判別を行い、弱判別器CFmで非顔であると判別された部分画像PPは下流側の弱判別器CFm+1による判別は行わない。これにより、下流側の弱判別器において判別すべき部分画像PPの量を減らすことができるため、判別作業の高速化を図ることができる。なお、カスケード構造を有する判別器の詳細は、Shihong LAO等、「高速全方向顔検出」、画像の認識・理解シンポジウム(MIRU2004)、2004年7月に開示されている。
Further, each of the weak classifiers CF 1 ~CF
なお、各弱判別器CF1〜CFMから出力された判定スコアS1〜SMをそれぞれ個別に判定スコアしきい値Sref以上であるか否かを判断するのではなく、弱判別器CFmにおいて判別を行う際、弱判別器CFmの上流側の弱判別器CF1〜CFm−1での判定スコアの和Σr=1 mβr・frが判定スコアしきい値S1ref以上であるか否かにより判別を行うようにしても良い(Σr=1 mβr・fr(x)≧S1ref)。これにより、上流側の弱判別器による判定スコアを考慮した判定を行うことができるため、判定精度の向上を図ることができる。 Incidentally, each of the weak classifiers CF 1 ~CF M a determination score S 1 to S M output from each rather than determining whether a individual determination score threshold Sref above, the weak classifier CF m in the case of performing the determination, the weak classifiers CF sum Σ r = 1 m β r · f r of determination score on the upstream side of the weak classifiers CF 1 ~CF m-1 m is determined score threshold S1ref more may be performed discriminated by whether (Σ r = 1 m β r · f r (x) ≧ S1ref). Thereby, since the determination which considered the determination score by an upstream weak discriminator can be performed, the determination precision can be improved.
図1の領域抽出手段15は顔検出手段10により抽出された顔画像FPにおいて目が存在すべき存在領域ERを抽出するものであって、一般的に顔の輪郭(顔画像FPの大きさ)から目が存在する位置が含まれるような領域を存在領域ERとして抽出する。具体的には図5に示すように、顔の向きが頭が上、あごが下にあるとき、顔画像FPの下端から所定量L1refだけ上側であって、左右端から所定量L10ref離れた領域を特定するようになっている。この所定量L1ref、L10refは統計的に一般人の顔の輪郭から目の位置までの距離として予め定められている。
The area extracting means 15 in FIG. 1 extracts an existing area ER where the eyes should be present in the face image FP extracted by the
図1の目検出手段20は存在領域ER内に開いた目が存在するか否かを検出するものであって、領域抽出手段15により特定された領域から複数の周辺画像SCPを生成する周辺画像生成手段21と、周辺画像生成手段21により生成された複数の周辺画像SCPの目の状態を判別する目判別器22とを有している。周辺画像生成手段21は、図6に示すように、存在領域ER内を設定画素数(たとえば32画素×32画素)からなるウィンドウ枠を走査し、ウィンドウ枠W10に囲まれた画像を周辺画像SCPとして生成するようになっている。
The
図1の目判別器22は、上述した顔判別器12と同様にアダブーストアルゴリズムにより学習されたものであって、周辺画像SCPが開いた目であるか否かを判別する機能を有している。具体的には、目判別器22は、複数の弱判別器CF10〜CFN(N:弱判別器の個数)を有している。各弱判別器CF10〜CFNはそれぞれ周辺画像PPから特徴量xを抽出し、この特徴量xを用いて部分画像PPが顔であるか否かの判別を行う機能を備える。そして、目判別器22は弱判別器CF10〜CFNおける判別結果を用いて周辺画像SCPが開いた目であるか否か最終的な判別を行うようになっている。ここで、目判別器22が開いた目を判別することができるために、目判別器22の学習には正解サンプルとして開いた目の画像が用いられ、不正解サンプルとして閉じた目の画像および目の周辺画像が用いられている。
The
状態判別手段30は、目検出手段20における開いた目の判別結果に基づいて目の状態を判別するものであって、開いた目が存在領域ER内から検出されたときに目が開いている状態であると判別する。一方、開いた目が検出されなかったとき、目が存在すべき存在領域ERに開いた目が存在しなかったものであるから、目が閉じている状態であると判別する。 The state discriminating means 30 discriminates the eye state based on the open eye discrimination result in the eye detection means 20, and the eye is open when the open eye is detected from within the existence region ER. It is determined that the state is present. On the other hand, when an open eye is not detected, it is determined that the eye is closed because there is no open eye in the existence region ER where the eye should exist.
図7は本発明の目の状態判別方法の好ましい実施の形態を示すフローチャートであり、図1から図7を参照して目の状態判別方法の一例について説明する。まず、顔検出手段10において全体画像Pに前処理が施された後(ステップST1、図2参照)、全体画像P上をウィンドウ枠が走査することにより部分画像PPが生成される(ステップST2)。その後、部分画像PPに対し顔判別器12による判別が行われ、顔画像FPが検出される(ステップST3)。
FIG. 7 is a flowchart showing a preferred embodiment of the eye state determination method of the present invention. An example of the eye state determination method will be described with reference to FIGS. First, after pre-processing is performed on the entire image P in the face detection means 10 (see step ST1, FIG. 2), a partial frame PP is generated by scanning the window frame on the entire image P (step ST2). . Thereafter, discrimination by the
次に、領域抽出手段15により検出された顔画像FPから目が存在すべき存在領域ERが抽出される(ステップST4、図5参照)。周辺画像生成手段21において抽出した存在領域ER内からウィンドウ枠を走査することにより周辺画像SCPが生成される(ステップST5、図6参照)。そして目判別器22によりこの周辺画像SCPが開いた目であるか否かが判別される(ステップST6)。その後、状態判別手段30において、存在領域ERから生成された複数の周辺画像SCPに開いた目が存在したときには、目が開いていると判断され、複数の周辺画像SCPに開いた目がなかったときには、目が閉じていると判断される(ステップST7)。
Next, the presence area ER where the eye should exist is extracted from the face image FP detected by the area extraction means 15 (see step ST4, FIG. 5). The peripheral image SCP is generated by scanning the window frame from the existence area ER extracted by the peripheral image generation means 21 (see step ST5, FIG. 6). Then, the
このように、目が存在すべき存在領域ER内において開いた目の判別を行うことにより、目が開いているか閉じているかの2つの状態を精度良く判別することができる。まず、開いた目と閉じた目とを比較した場合、開いた目は横長の明るい(白い)楕円の中に、暗い円構造を含んでいるという多くの特徴的構造を有している。一方、閉じた目は主として直線状の構造からなっており特徴的構造が少なく、目の周辺画像として取り込まれる目尻のシワ等と構造が似ている。よって、開いた目を正解サンプルとして学習させた判別器と、閉じた目を正解サンプルとして学習させた判別器とを比較した場合、開いた目を正解サンプルとして学習させた判別器の方が誤検出率を低くすることができる。このように、開いた目の方が閉じた目よりも構造的特徴が多いことを利用し、開いた目の判別を精度良く行うことができるようになっている。 In this way, by determining the eyes that are open in the existence region ER where the eyes should be present, it is possible to accurately determine the two states of whether the eyes are open or closed. First, when an open eye is compared with a closed eye, the open eye has many characteristic structures including a dark circular structure in a horizontally long bright (white) ellipse. On the other hand, closed eyes are mainly composed of a linear structure, have few characteristic structures, and are similar in structure to the wrinkles of the corners of the eyes that are captured as peripheral images of the eyes. Therefore, when comparing a discriminator trained with the open eye as the correct sample and a discriminator trained with the closed eye as the correct sample, the discriminator trained with the open eye as the correct sample is incorrect. The detection rate can be lowered. Thus, using the fact that the open eye has more structural features than the closed eye, it is possible to accurately determine the open eye.
一方、顔において目が存在する領域は個人差があるものの既知であり、検出された顔画像FPから目が存在すべき存在領域ERを検出することができる。これを利用し、検出された顔画像FPの輪郭から予め目が存在する存在領域ERを抽出し、この存在領域ER内において開いた目の判別を行う。目が必ず存在する存在領域ERに開いた目がないとき、それは存在領域ERの目は閉じていることを意味する。このように、存在領域ER内に開いた目を判別することにより、開いた目であるか否か(対象物か非対象物であるか)といった判別しかできないブースティングアルゴリズムを用いて、開いた目であるか閉じた目であるか(対象物Aであるか対象物Bであるか)という2つの状態を精度良く判別することができる。 On the other hand, the region where the eyes are present in the face is known although there are individual differences, and the presence region ER where the eyes should be present can be detected from the detected face image FP. Using this, an existing area ER where eyes are present is extracted in advance from the detected contour of the face image FP, and an open eye is discriminated in the existing area ER. When there is no open eye in the presence region ER where the eye always exists, it means that the eye in the presence region ER is closed. In this way, by using the boosting algorithm that can only determine whether the eyes are open (whether they are objects or non-objects) by determining the eyes that are open in the existence region ER. It is possible to accurately discriminate between two states of eyes or closed eyes (whether the object is an object A or an object B).
上記実施の形態によれば、顔における目の位置が既知であることおよび開いた目は閉じた目に比べて構造的特徴が多く判別しやすいことに着目し、目の存在領域内において判別しやすい開いた目のみを検出すれば同時に閉じた目を検出することになるため、結果として目の開いた状態もしくは閉じた状態を精度良く判別することができる。 According to the above-described embodiment, focusing on the fact that the position of the eye in the face is known and that the open eye has more structural features than the closed eye, it is easier to discriminate within the eye presence region. If only easy open eyes are detected, closed eyes are detected at the same time. As a result, it is possible to accurately determine whether the eyes are open or closed.
特に、目検出手段20が、複数の弱判別器CF10〜CFNによる複数の判別結果から最終的な判別を行う判別器22を備えたものであり、判別器22が、正解サンプル画像として開いた目の画像を用い、不正解サンプル画像として閉じた目の画像を用いて学習されたものであれば、判別器22による開いた目の判別を精度良く行うことができるため、閉じた目も精度良く判別を行うことになり、結果として目の状態判別を精度良く行うことができる。
In particular, the
なお、本発明の実施の形態は上記実施の形態に限定されない。たとえば、上記実施の形態において、正面顔の場合について例示しているが、横顔もしくは斜め顔にも適用することができる。また、顔判別器12(目判別器22)にアダブーストアルゴリズムを用いた場合について例示しているが、公知のニューラルネットワーク技術等を用いて顔もしくは目の判別を行うようにしても良い。この場合であっても、存在領域ERから開いた目の検出が行われる。 The embodiment of the present invention is not limited to the above embodiment. For example, in the above embodiment, the case of a front face is illustrated, but the present invention can also be applied to a side face or an oblique face. Further, although the case where the Adaboost algorithm is used for the face discriminator 12 (eye discriminator 22) is illustrated, the face or eye may be discriminated using a known neural network technique or the like. Even in this case, the eyes opened from the existence area ER are detected.
1 目の状態判別装置
10 顔検出手段
15 領域抽出手段
20 目検出手段
21 周辺画像生成手段
21 判別器
22 目判別器
30 状態判別手段
ER 存在領域
P 全体画像
FP 顔画像
1 eye
Claims (4)
検出した前記顔画像から目が存在すべき存在領域を抽出し、
抽出した前記存在領域内に開いた目が存在するか否かを検出し、
前記存在領域内から前記開いた目が検出されたとき目が開いている状態であると判別し、検出されなかったとき目が閉じている状態であると判別する
ことを特徴とする目の状態判別方法。 Detect a face image from the whole image,
Extracting the presence area where the eyes should be present from the detected face image,
Detecting whether or not there is an open eye in the extracted existence region;
When the open eye is detected from within the existence area, it is determined that the eye is in an open state, and when it is not detected, the eye is determined to be in a closed state. How to determine.
該顔検出手段により検出された前記顔画像から目が存在すべき存在領域を抽出する領域抽出手段と、
該領域抽出手段により抽出された前記存在領域内に開いた目が存在するか否かを検出する目検出手段と、
該目検出手段において開いた目が前記存在領域内から検出されたときに目が開いている状態であると判別し、検出されなかったとき目が閉じている状態であると判別する状態判別手段と
を備えたことを特徴とする目の状態判別装置。 Face detection means for detecting a face image from the entire image;
An area extracting means for extracting an existing area where an eye should exist from the face image detected by the face detecting means;
Eye detection means for detecting whether or not an open eye exists in the existence area extracted by the area extraction means;
State determining means for determining that the eye is open when the opened eye is detected from within the existence area, and for determining that the eye is closed when the eye is not detected And an eye state discriminating device.
全体画像に含まれる顔画像を検出し、
検出した前記顔画像から目が存在すべき存在領域を抽出し、
抽出した前記存在領域内に開いた目が存在するか否かを検出し、
前記存在領域内から前記開いた目が検出されたとき目が開いている状態であると判別し、検出されなかったとき目が閉じている状態であると判別する
ことを実行させるための目の状態判別プログラム。 On the computer,
Detect the face image included in the whole image,
Extracting the presence area where the eyes should be present from the detected face image,
Detecting whether or not there is an open eye in the extracted existence region;
An eye for causing the eyes to be determined to be in an open state when the open eye is detected from within the existence area, and to be determined to be in a closed state when the eye is not detected State determination program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006149201A JP2007323104A (en) | 2006-05-30 | 2006-05-30 | Method, device and program for discriminating state of eye |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006149201A JP2007323104A (en) | 2006-05-30 | 2006-05-30 | Method, device and program for discriminating state of eye |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007323104A true JP2007323104A (en) | 2007-12-13 |
Family
ID=38855893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006149201A Withdrawn JP2007323104A (en) | 2006-05-30 | 2006-05-30 | Method, device and program for discriminating state of eye |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007323104A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015041307A (en) * | 2013-08-23 | 2015-03-02 | 日本電気株式会社 | Collation device and collation method and collation system and computer program |
JP2018018401A (en) * | 2016-07-29 | 2018-02-01 | 東芝アルパイン・オートモティブテクノロジー株式会社 | Eyelid opening/closing detector and eyelid opening/closing detection method |
-
2006
- 2006-05-30 JP JP2006149201A patent/JP2007323104A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015041307A (en) * | 2013-08-23 | 2015-03-02 | 日本電気株式会社 | Collation device and collation method and collation system and computer program |
JP2018018401A (en) * | 2016-07-29 | 2018-02-01 | 東芝アルパイン・オートモティブテクノロジー株式会社 | Eyelid opening/closing detector and eyelid opening/closing detection method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6630999B2 (en) | Image recognition device, image recognition method, and image recognition program | |
JP2007305030A (en) | Red-eye processing method, device and program | |
EP1357520B1 (en) | Method for verifying users and updating database, and face verification system using the same | |
US8463049B2 (en) | Image processing apparatus and image processing method | |
JP4657934B2 (en) | Face detection method, apparatus and program | |
JP2007265367A (en) | Program, apparatus and method for detecting line of sight | |
US7869632B2 (en) | Automatic trimming method, apparatus and program | |
JP4806101B2 (en) | Object detection apparatus and object detection method | |
Boehnen et al. | A fast multi-modal approach to facial feature detection | |
US20070177794A1 (en) | Method and apparatus for automatic eyeglasses detection using a nose ridge mask | |
US20160078319A1 (en) | Method, Apparatus and Computer Readable Recording Medium for Detecting a Location of a Face Feature Point Using an Adaboost Learning Algorithm | |
Lee et al. | An automated video-based system for iris recognition | |
JP5755046B2 (en) | Image recognition apparatus, image recognition method, and program | |
JP2021103538A (en) | Information processor, method for processing information, and information processing program | |
JP4749879B2 (en) | Face discrimination method, apparatus, and program | |
JP2006285959A (en) | Learning method of face recognition device, and method, device and program for face recognition | |
JP2007323104A (en) | Method, device and program for discriminating state of eye | |
JP2006244385A (en) | Face-discriminating apparatus, program and learning method for the apparatus | |
JP2007304675A (en) | Method, device and program for image composition | |
Gul et al. | A machine learning approach to detect occluded faces in unconstrained crowd scene | |
Suma | Dense feature based face recognition from surveillance video using convolutional neural network | |
JP5283267B2 (en) | Content identification method and apparatus | |
Uhl et al. | Fusion of iris segmentation results | |
CN115116147B (en) | Image recognition, model training, living body detection method and related device | |
KR102579610B1 (en) | Apparatus for Detecting ATM Abnormal Behavior and Driving Method Thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090804 |