JP3629164B2 - Face image processing device - Google Patents

Face image processing device Download PDF

Info

Publication number
JP3629164B2
JP3629164B2 JP14272099A JP14272099A JP3629164B2 JP 3629164 B2 JP3629164 B2 JP 3629164B2 JP 14272099 A JP14272099 A JP 14272099A JP 14272099 A JP14272099 A JP 14272099A JP 3629164 B2 JP3629164 B2 JP 3629164B2
Authority
JP
Japan
Prior art keywords
eye
face
face image
candidate
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP14272099A
Other languages
Japanese (ja)
Other versions
JP2000331172A (en
Inventor
知子 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP14272099A priority Critical patent/JP3629164B2/en
Publication of JP2000331172A publication Critical patent/JP2000331172A/en
Application granted granted Critical
Publication of JP3629164B2 publication Critical patent/JP3629164B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、目候補画像より、目が細線部分をもつ特徴を用いて、目と他の像を判別する顔画像処理装置に関するものである。
【0002】
【従来の技術】
従来の運転者の顔画像を処理する画像処理装置は、例えば特開平8−175218号公報(眉領域及び目領域を含むテンプレートによるマッチングにより目領域を判定する)、及び特開平8−300978号公報に記載されている。
以下、特開平8−300978号公報につき、詳細に説明する。
図14は、特開平8−300978号公報に示される従来の顔画像処理装置の全体構成を示す図である。
図において、1は運転者を撮像するカメラ、2は撮像に用いられる近赤外照明、3は近赤外照明2を制御する照明制御手段、4はカメラ1の撮像した画像を処理する顔画像処理装置で、画像入力手段5、濃淡レベル変換手段6、浮動2値化手段7、目存在領域設定手段8、候補領域設定手段9、目領域判定手段10から構成されている。11は顔画像処理装置4によって画像処理された結果を用いて、まばたきを検出する瞬目検出手段、12は画像処理結果から居眠り状態を判定する居眠り判定手段、13は警報手段である。
【0003】
図15は、従来の顔画像処理装置の目領域判定手段の動作の流れを示すフローチャートである。
図において、14は目評価関数演算手段、15は目領域選定手段である。
特開平8−300978号公報における実施例1では、目領域判定手段10は、目候補領域の顔横方向幅EAWを読み出し、EAWが予め設定した所定範囲内にある場合のみ、目領域であるとし、領域のX軸ヒストグラムSUMXを読み出し、SUMXの最大値SUMXMAXを算出後、さらに評価関数EFV1=Σy(SUMXMAX−SUMX)/ΣySUMX、評価関数EFV2=SUMXMAX−C(C:定数)を算出後、目評価関数値EFV=EFV1×EFV2(またはC1×EFV1+C2×EFV2(重みC1>重みC2がベター)が、所定値EFVMINより大きいものを目領域として判定する。目領域が複数ある場合は、目領域の代表点と顔重心との距離が最小のものを最終的に目領域として判定する。
実施例3では、X軸ヒストグラムの度数分布曲線の重心位置MC、ピーク値PH、半値幅HWとする時、眉領域ではシングルピーク、目領域ではツインピークを示すことを利用し、目評価関数値HW/PHが最大でMCの左右にピークが存在する目候補領域を目領域として判定する。
実施例4では、実施例1における目評価関数値の時間的変化を用いて目領域を判定する。
実施例5では、左右目候補領域代表点のX座標XECと顔重心のX座標XFCの偏差DX、及び左右目候補領域代表点のY座標YECと顔重心のY座標YFCの偏差DYがともに所定値より小さく、なおかつ最小値の組み合わせのものを目領域として判定する方法が述べられている。
【0004】
【発明が解決しようとする課題】
しかしながら、画像を多値データのまますべての処理を行うと、非常に時間がかかり、2値化においても眼鏡装着の有無や天候・髪等の付属情報によって顔の状態(眉と目の関係等)は変化し不安定である。ところが上記従来装置では、2値データをもとに作成したX・Y軸ヒストグラムを用いた目評価関数値と、目候補領域と顔重心または左右目候補領域の位置関係により、目領域を判定しているため、誤検出を起こしやすい。
【0005】
この発明は、上記のような課題を解決するためになされたもので、眉や眼鏡フレームにはほとんど存在しない細線部分の割合を算出することで、目を判別するようにした顔画像処理装置を得ることを目的にしている。
【0006】
【課題を解決するための手段】
この発明に係わる顔画像処理装置においては、カメラによって撮影されマトリックス状に配置された多数の画素によって表示されるように構成された顔画像が記憶される画像メモリ、この画像メモリに記憶された顔画像を2値化すると共に目候補を抽出する候補抽出手段、この候補抽出手段によって2値化された顔画像内で目の存在する範囲を示す目検索領域を推定する目検索領域設定手段、この目検索領域設定手段によって推定された目検索領域内に含まれる目候補について、画像メモリに記憶されている顔画像を用いて顔の縦方向の走査を顔の横方向に順次行い、走査毎に細線部分を抽出し、この細線部分が抽出された走査ライン数の目候補の画像の顔の横方向の走査ライン数に対する比率を計算し、比率が所定値以上の目候補を目と判別する目確定手段を備えたものである。
また、目確定手段は、顔画像中の特定画素と、この特定画素から顔の縦方向の所定長さの位置にある2画素との輝度の比較を行って細線部分を抽出するものである。
【0007】
また、カメラによって撮影されマトリックス状に配置された多数の画素によって表示されるように構成された顔画像が記憶される画像メモリ、この画像メモリに記憶された顔画像を2値化すると共に目候補を抽出する候補抽出手段、この候補抽出手段によって2値化された顔画像内で目の存在する範囲を示す目検索領域を推定する目検索領域設定手段、この目検索領域設定手段によって推定された目検索領域内に含まれる目候補について、画像メモリに記憶されている顔画像を用いて細線部分を抽出し、目候補の画像全体に対する細線部分の割合によって目を判別する目確定手段を備え、目確定手段は、顔画像中の特定画素と、この特定画素から顔の縦方向の所定長さの位置にある2画素及び顔の横方向の所定長さの位置にある画素との輝度の比較を行って細線部分を抽出するものである。
さらに、横方向の所定長さの位置にある画素は、特定画素から顔の外側に向けてあるものである。
【0008】
また、目確定手段は、目候補の重心から外側に特定画素がある場合は、顔の外側に向けて横方向の所定長さの位置にある画素との輝度の比較を行うと共に、目候補の重心から内側に特定画素がある場合は、顔の内側に向けて横方向の所定長さの位置にある画素との輝度の比較を行うものである。
また、目確定手段は、特定画素とこの特定画素に縦方向に隣接する画素との輝度の差分値を算出し、算出された差分値のピークからピークまでの長さによって細線部分を抽出するものである。
【0009】
さらにまた、目検索領域設定手段は、鼻孔領域を設定し、設定された鼻孔領域に基づき、目検索領域を推定するものである。
また、候補抽出手段は、顔画像を眉及び目の幅に対応した長さのMAX/MINフィルタを通して、目候補を抽出するものである。
【0010】
【発明の実施の形態】
実施の形態1.
以下、この発明の実施の形態1を図にそって説明する。
図1は、この発明の実施の形態1による顔画像処理装置の構成を示す図である。
図において、17は顔画像を撮影するCCDカメラ、18はCCDカメラ17から出力され、マトリックス状に配置された多数の画素によって表示されるように構成された顔画像の多値データを記憶する画像メモリ、19は画像メモリ18のデータをもとに画像処理を行うCPUである。
図2は、図1におけるCPU内の処理の概要を示すフローチャートである。
図において、20は顔画像入力手段、21は候補抽出手段、22は目検索領域設定手段、23は目確定手段であり、顔画像入力手段20で画像メモリ18より顔画像データをCPU19に入力し、入力された画像内で候補抽出手段21により、2値化を行い目候補を抽出し(2値化データは別メモリに保存し、入力画像データも後に参照できるようにする)、目検索領域設定手段22により目が存在する範囲を示す目検索領域を推定する。さらに、設定した目検索領域内の目候補から目確定手段23により目を確定する。各手段の詳細については後述する。
【0011】
図3は、この発明の実施の形態1による顔画像処理装置におけるカメラよりの入力画像を示す図であり、顔画像入力手段20によってCPU19に入力される。
図において、25はCCDカメラ17より入力された顔画像である。
図4は、この発明の実施の形態1による顔画像処理装置の候補抽出手段21によって2値化された2値化画像を示す図である。
図において、26は顔画像25を2値化した画像、27は処理方向を示している。
図5は、この発明の実施の形態1による顔画像処理装置の候補抽出手段21に用いられるMAX/MINフィルタの説明図であり、図5(a)はMAXフィルタ及びMINフィルタをかける前後の画像信号を示す図、図5(b)は図5(a)に対応させて輝度値を模式化したものである。図5(c)はMAX/MINフィルタ処理後の画像信号を示す図、図5(d)は図5(c)に対応させて輝度値を模式化したものである。
図において、28は入力画像の一部分の画像信号、29はMAXフィルタをかけた後の画像信号、30はMINフィルタをかけた後の画像信号、31は画像信号28に対応する輝度値、32は画像信号29に対応する輝度値、33は画像信号30に対応する輝度値である。ここでは各輝度値を囲む1枠は1画素を表し、簡単のため輝度値を0〜20までの値とした。
【0012】
図6は、この発明の実施の形態1による顔画像処理装置の候補抽出手段21の説明図であり、図6(a)は入力画像にMAX/MINフィルタをかけた後の画像信号を示す図、図6(b)は2値化後の信号を示す図である。
図において、35はMAX/MINフィルタをかけた後の画像信号、36は2値化するときの閾値である。
図7は、この発明の実施の形態1による顔画像処理装置の目検索領域設定手段の流れを示すフローチャートである。
図において、37は鼻孔領域設定手段、38は鼻孔検索手段、39は鼻孔確定手段、40は目領域推定手段であり、詳細については、後述する。
図8は、この発明の実施の形態1による顔画像処理装置の鼻孔領域設定手段、鼻孔検索手段、鼻孔確定手段の一部を示す図であり、図8(a)は入力画像上で、鼻孔検索領域を示す図、図8(b)は2値化画像とX軸方向、Y軸方向のヒストグラムを表す図である。
【0013】
図9は、この発明の実施の形態1による顔画像処理装置の目検索領域設定手段22で設定された目検索領域を示す図である。
図10は、この発明の実施の形態1による顔画像処理装置の目確定手段23を説明する顔画像の細線部分を示す図であり、図10(a)は、入力画像をもとに候補の細線部分の検出を説明する図、図10(b)は、輝度値を表す図である。
【0014】
以下、図2をもとに、図4〜図10を用いて図2に示す各手段の詳細について説明する。
顔画像入力手段20によって、画像メモリ18より顔画像データがCPU19に入力される。
次いで、候補抽出手段21により、2値化を行い、目候補を抽出する。
候補抽出手段21では、目候補を抽出するためにMAX/MINフィルタを用いる。最初に入力画像にMAXフィルタをかけるが、MAXフィルタは所定の長さ(画素数aとする。以下フィルターサイズという)をもち、フィルタ中央の画素の輝度値をフィルタ内の最大輝度値に変換する。例えばaを5とし、図5(b)輝度模式31の太線部にMAXフィルタをかけると、ここでは最大輝度は9であるので、フィルタの中央の画素31aの輝度値は7から9に変換される。1画素ずつ右にシフトして同様にMAXフィルタをかけると、図5(b)の輝度模式31は輝度模式32のように変換される。
【0015】
次に、MAXフィルタ処理後の画像にMINフィルタをかける。MINフィルタもMAXフィルタと同じフィルターサイズをもち、フィルタ中央の画素の輝度値をフィルタ内の最小輝度値に変換するものである。MAXフィルタ処理後の図5(b)の輝度模式32に、1画素ずつ右にシフトしてMINフィルタをかけると、図5(b)の輝度模式33のように変換される。そして、MAN/MIXフィルタ処理後の画像から,入力画像をひくとフィルターサイズ以下の幅の低輝度の領域が抽出される。図では、図5(b)の輝度模式33から輝度模式31をひいた図5(d)が得られ、画像信号になおすと図5(c)になる。ただし、MAXフィルタ、MINフィルタは共に、最初にかけたフィルタの中央から変換がはじまり、最後にかけたフィルタの中央で変換が終わるため、MAXフィルタ処理後のデータは、図5(b)32a〜32b、MINフィルタ処理後のデータは図5(b)33a〜33bとなり、MAX/MINフィルタ処理後の画像は結局、処理開始位置、処理終了位置よりそれぞれa−1画素ずつ小さくなる。
【0016】
実施の形態1では、顔縦方向に沿って一行ずつ処理を行う(処理方向:図4の27)。図6(a)の画像信号35は入力画像に眉、及び目の幅に対応した長さのMAX/MINフィルタをかけた後の画像信号である。ここでは眉及び目より幅の狭い鼻、口等も抽出される。眉及び目等の顔画像の特徴点は周りとの輝度差が大きいため、差分後の輝度値が大きくなる(35a)が、影や衣服などは周りとの輝度差が小さい(35b)。そこで図6(a)のように閾値36を設定し、これをもとに2値化を行う。図6(b)は2値化後の信号である。以上の処理によって得られた画像を示したものが図4である。
【0017】
候補抽出手段21により抽出された2値化画像内で、目候補が存在する範囲を示す目検索領域を推定する目検索領域設定手段22は、例えば図7のフローチャートに示すように、鼻孔領域設定手段37、鼻孔検索手段38、鼻孔確定手段39、目領域推定手段40からなり、鼻孔検索モード中は図8(a)鼻孔検索領域5n、鼻孔追跡モード中は鼻孔追跡領域5nnに示すような領域を設定する。鼻孔検索モードとは鼻孔位置学習が未(未だ目を見つけていない状態)をさし、鼻孔追跡モードとは鼻孔学習済の状態を指す。検索領域5nは画面内で通常の運転姿勢で顔が入る範囲に限定し設定する。追跡領域5nnは、鼻孔学習位置(または、鼻孔前回位置)5gnから所定幅の領域を設定する。鼻孔検索手段38では、図8(a)に示すような、等円が顔横方向に二つ並ぶような領域を検索する。検索は例えば図8(b)に示すような、X軸方向ヒストグラム及びY軸方向ヒストグラムを用いて行う。鼻孔確定手段39では、検索した候補中より最も鼻孔らしいものを選択し、その位置を算出する。鼻孔確定後は目領域推定手段40により、鼻孔位置を基準に左右の目が存在すると思われる領域である図9の5r5lを設定する。5r5lは目が十分入る大きさとし、図2の目確定手段23により、眉と目の判別を行う。
なお、鼻孔確定手段39により確定した鼻孔位置は、メモリ内に保存し、鼻孔追跡モード時の鼻孔領域設定に用いる。
【0018】
次に、目確定手段23により上記で抽出した領域中の目候補及び目位置を確定する。目候補は目検索領域設定手段22によって推定された目検索領域内に存在する要素ブロックを、例えばX軸ヒストグラム及びY軸ヒストグラムを用いて抽出する。次に抽出した要素ブロックに対して、似た形状である眉及び目の判別を行うために、図10(a)に示すように、入力画像データ(多値)をもとに各候補の細線部分を検出する。検出は、各顔縦方向ラインにつき順次走査し、少なくとも図10(a)に示すような2点以上から構成されるフィルタ点(41a、41b)を通過する点(41)をもつラインを細線ラインとしてカウントする。通過は注目画素(41)の輝度値がフィルタ点(41a、41b)の輝度値より所定値小さいことが条件である(図10(b))。
【0019】
細線割合は各候補の顔横方向ライン数に対する細線ライン数で表す。目が最も細線部分(瞼ライン)が多いと推定されることから、細線割合が所定値以上でかつ最大値をとるものを目として判定する。フィルタ点41aまたは41bは注目点よりそれぞれ固定のOFSTを持つ点、または注目点より所定範囲内に存在する画素の最明点、または注目点より所定範囲内に存在する画素輝度値の平均値等が考えられる。
(図10(a)で、
眉:細線割合=(細線ライン数19×100)/顔方向ライン数41=46%
目:細線割合=(細線ライン数26×100)/顔方向ライン数36=72%)
このとき、眼鏡フレームの細いものは目候補抽出時にカットできるため、あまり問題なく、太いものや眉などは顔縦方向に幅が太い部分が多く、フィルタを通過しにくいため、候補に入りにくいと思われる。よって精度良く目が抽出できる。
また、細線条件通過点があれば、そこでそのラインの処理は終了するので、処理は比較的高速に行える。
【0020】
実施の形態2.
図11は、この発明の実施の形態2による顔画像処理装置の顔画像の細線部分を示す図である。
実施の形態2は、実施の形態1の目確定手段23を次のように変更したものである。
目候補は、目検索領域設定手段22によって推定された目検索領域内に存在する要素ブロックを、例えばX軸方向ヒストグラム及びY軸方向ヒストグラムを用いて抽出する。次に、抽出した要素ブロックに対して、似た形状である眉及び目の判別を行うために、図11(a)に示すように、入力画像データ(多値)をもとに、各候補の細線部分を検出する。検出は、各顔縦方向ラインにつき順次走査し、少なくとも図11(a)に示すような3点以上から構成されるフィルタ点(42a、42b、42c)を通過する点(42)をもつラインを、細線ラインとしてカウントする(但し、図11(a)に示すのは左目であり、右目に関してはフィルタ点42cを顔縦方向線に対し対照にする必要がある)。通過は注目画素(42)の輝度値がフィルタ点(42a、42b、42c)の輝度値より所定値小さいことが条件である(図11(b))。細線割合は、各候補の顔横方向ライン数に対する細線ライン数で表す。目が最も細線部分(瞼ライン)が多く、また目尻ラインの曲率が高いためフィルタ点42cの条件を満たしやすいと推定されることから、細線割合が所定値以上でかつ最大値をとるものを目として判定する。
【0021】
フィルタ点42a、42b、42cは、注目点よりそれぞれ固定のOFSTを持つ点、または注目点より所定範囲内に存在する画素の最明点、または注目点より所定範囲内に存在する画素輝度値の平均値が考えられる。
(図11(a)で、
眉:細線割合=(細線ライン数15×100)/顔方向ライン数41=36%
目:細線割合=(細線ライン数21×100)/顔方向ライン数36=58%)
ここで眼鏡フレームの細いものは、目候補抽出時にカットできるため、あまり問題なく、太いものや眉などは顔縦方向に幅が太い部分が多く、フィルタを通過しにくいため、候補に入りにくいと思われる。また顔横方向ライン(42c)もみるため、目に比べ曲率の少ない眉は、フィルタを通過しにくく候補に入りにくいと思われる。よって、精度良く目が抽出できる。また、細線条件通過点があればそこでそのラインの処理は終了するので、処理は比較的高速に行える。
【0022】
実施の形態3.
図12は、この発明の実施の形態3による顔画像処理装置の顔画像の細線部分を示す図である。
実施の形態3は、実施の形態1の目確定手段23を次のように変更したものである。
目候補は、目検索領域設定手段22によって確定された目検索領域内に存在する要素ブロックを、例えばX軸方向ヒストグラム及びY軸方向ヒストグラムを用いて抽出する。次に抽出した要素ブロックに対して、似た形状である眉及び目の判別を行うために図12(a)に示すように、入力画像データ(多値)をもとに各候補の細線部分を検出する。検出は、各顔縦方向ラインにつき順次走査し、少なくとも図に示すような3点以上から構成されるフィルタ点43、43a、43b、43cまたは44、44a、44b、44cを通過する点(43、44)をもつラインを細線ラインとしてカウントする。但し、フィルタ点43は目候補の重心位置より顔横方向左側半分、44は顔右側半分に対して用い、通過は注目画素(43または44)の輝度値がフィルタ点(43a、43b、43cまたは44a、44b、44c)の輝度値より所定値小さいことが条件である(図12(b))。細線割合は各候補の顔横方向ライン数に対する細線ライン数で表す。目が最も細線部分(瞼ライン)が多く、また目尻ラインの曲率が高いためフィルタ点の条件を満たしやすいと推定されることから、細線割合が所定値以上でかつ最大値をとるものを目として判定する。
【0023】
フィルタ点43a、43b、43cまたは44a、44b、44cは、注目点よりそれぞれ固定のOFSTを持つ点、または注目点より所定範囲内に存在する画素の最明点、または注目点より所定範囲内に存在する画素輝度値の平均値等が考えられる。
(図12(a)で、
眉:細線割合=(細線ライン数19×100)/顔方向ライン41=46%
目:細線割合=(細線ライン数26×100)/顔方向ライン数36=72%)
ここで、眼鏡フレームの細いものは、目候補抽出時にカットできるため、あまり問題なく、太いものや眉などは顔縦方向に幅が太い部分が多く、フィルタを通過しにくいため、候補に入りにくいと思われる。
また、顔横方向ライン(43cまたは44c)もみるため、目に比べ曲率の少ない眉はフィルタを通過しにくく候補に入りにくいと思われる。よって、精度良く目が抽出できる。
また、細線条件通過点があれば、そこでそのラインの処理は終了するので、処理は比較的高速に行える。
【0024】
実施の形態4.
図13は、この発明の実施の形態4による顔画像処理装置の顔画像の細線部分を示す図である。
実施の形態4は、実施の形態1の目確定手段23を次のように変更したものである。
目候補は、目検索領域設定手段22によって推定された目検索領域内に存在する要素ブロックを、例えばX軸方向ヒストグラム及びY軸方向ヒストグラムを用いて抽出する。次に抽出した要素ブロックに対して、似た形状である眉及び目の判別を行うために、図13(a)に示すように、入力画像データ(多値)をもとに各候補の細線部分を検出する。検出は、各顔縦方向ラインにつき順次走査し、注目画素と前画素の輝度の差分(=微分値 図13(b))を算出し、微分値のピーク45aからピーク45bまでの幅が所定以下のラインを、細線ラインとしてカウントする。
【0025】
細線割合は各候補の顔横方向ライン数に対する細線ライン数で表す。目が最も細線部分(瞼ライン)が多いと推定されることから、細線割合が所定値以上でかつ最大値をとるものを目として判定する。
(図13(a)で、
眉:細線割合=(細線ライン数16×100)/顔方向ライン数41=39%
目:細線割合=(細線ライン数24×100)/顔方向ライン数36=66%)
ここで、眼鏡フレームの細いものは目候補抽出時にカットできるため、あまり問題なく、太いものや眉などは顔縦方向に幅が太い部分が多く、候補に入りにくいと思われる。よって、精度良く目が抽出できる。
また、細線条件通過点があれば、そこでそのラインの処理は終了するので、処理は比較的高速に行える。
【0026】
【発明の効果】
この発明は、以上説明したように構成されているので、以下に示すような効果を奏する。
カメラによって撮影されマトリックス状に配置された多数の画素によって表示されるように構成された顔画像が記憶される画像メモリ、この画像メモリに記憶された顔画像を2値化すると共に目候補を抽出する候補抽出手段、この候補抽出手段によって2値化された顔画像内で目の存在する範囲を示す目検索領域を推定する目検索領域設定手段、この目検索領域設定手段によって推定された目検索領域内に含まれる目候補について、画像メモリに記憶されている顔画像を用いて顔の縦方向の走査を顔の横方向に順次行い、走査毎に細線部分を抽出し、この細線部分が抽出された走査ライン数の目候補の画像の顔の横方向の走査ライン数に対する比率を計算し、比率が所定値以上の目候補を目と判別する目確定手段を備えたので、細線部分の抽出を画像メモリに入力されている多値顔画像で行い、細線部分の抽出された走査ライン数の比率により目と判定することにより、正確に目を判別することができると共に、2値化画像を用いて目検索領域を推定するので、高速に処理することができる。
また、目確定手段は、顔画像中の特定画素と、この特定画素から顔の縦方向の所定長さの位置にある2画素との輝度の比較を行って細線部分を抽出するので、精度よく細線部分を抽出できる。
【0027】
また、カメラによって撮影されマトリックス状に配置された多数の画素によって表示されるように構成された顔画像が記憶される画像メモリ、この画像メモリに記憶された顔画像を2値化すると共に目候補を抽出する候補抽出手段、この候補抽出手段によって2値化された顔画像内で目の存在する範囲を示す目検索領域を推定する目検索領域設定手段、この目検索領域設定手段によって推定された目検索領域内に含まれる目候補について、画像メモリに記憶されている顔画像を用いて細線部分を抽出し、目候補の画像全体に対する細線部分の割合によって目を判別する目確定手段を備え、目確定手段は、顔画像中の特定画素と、この特定画素から顔の縦方向の所定長さの位置にある2画素及び顔の横方向の所定長さの位置にある画素との輝度の比較を行って細線部分を抽出するので、目確定手段は、細線部分の抽出を画像メモリに入力されている多値顔画像で行うことにより、正確に目を判別することができると共に、顔の横方向の画素も用いることにより、より正確に細線部分を抽出することができる。
さらに、横方向の所定長さの位置にある画素は、特定画素から顔の外側にあるので、細線部分抽出の確実度が増す。
【0028】
また、目確定手段は、目候補の重心から外側に特定画素がある場合は、顔の外側に向けて横方向の所定長さの位置にある画素との輝度の比較を行うと共に、目候補の重心から内側に特定画素がある場合は、顔の内側に向けて横方向の所定長さの位置にある画素との輝度の比較を行うので、細線部分抽出の確実度が増す。
また、目確定手段は、特定画素とこの特定画素に縦方向に隣接する画素との輝度の差分値を算出し、算出された差分値のピークからピークまでの長さによって細線部分を抽出するので、精度よく細線部分を抽出することができる。
【0029】
さらにまた、目検索領域設定手段は、鼻孔領域を設定し、設定された鼻孔領域に基づき、目検索領域を推定するので、確実に目検索領域を推定することができる。
また、候補抽出手段は、顔画像を眉及び目の幅に対応した長さのMAX/MINフィルタを通して、目候補を抽出するので、効率よく目候補を抽出することができる。
【図面の簡単な説明】
【図1】この発明の実施の形態1による顔画像処理装置の構成を示す図である。
【図2】この発明の実施の形態1による顔画像処理装置の処理の流れを示すフローチャートである。
【図3】この発明の実施の形態1による顔画像処理装置におけるカメラよりの入力画像を示す図である。
【図4】この発明の実施の形態1による顔画像処理装置の2値化画像を示す図である。
【図5】この発明の実施の形態1による顔画像処理装置のMAX/MINフィルタの説明図である。
【図6】この発明の実施の形態1による顔画像処理装置の候補抽出手段の説明図である。
【図7】この発明の実施の形態1による顔画像処理装置の目検索領域設定手段の流れを示すフローチャートである。
【図8】この発明の実施の形態1による顔画像処理装置の鼻孔領域設定手段、鼻孔検索手段、鼻孔確定手段の一部を示す図である。
【図9】この発明の実施の形態1による顔画像処理装置の目検索領域を示す図である。
【図10】この発明の実施の形態1による顔画像処理装置の顔画像の細線部分を示す図である。
【図11】この発明の実施の形態2による顔画像処理装置の顔画像の細線部分を示す図である。
【図12】この発明の実施の形態3による顔画像処理装置の顔画像の細線部分を示す図である。
【図13】この発明の実施の形態4による顔画像処理装置の顔画像の細線部分を示す図である。
【図14】従来の顔画像処理装置の装置全体の構成を示す図である。
【図15】従来の顔画像処理装置の目領域判定手段の動作の流れを示すフローチャートである。
【符号の説明】
17 CCDカメラ、 18 画像メモリ、 19 CPU、
20 顔画像入力手段、 21 候補抽出手段、
22 目検索領域設定手段、 23 目確定手段、
37 鼻孔領域設定手段、 38 鼻孔検索手段、
39 鼻孔確定手段、 40 目領域推定手段。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a face image processing apparatus that discriminates an eye from another image by using a feature in which an eye has a thin line portion from an eye candidate image.
[0002]
[Prior art]
Conventional image processing apparatuses for processing a driver's face image are disclosed in, for example, Japanese Patent Application Laid-Open No. 8-175218 (the eye region is determined by matching with a template including an eyebrow region and an eye region), and Japanese Patent Application Laid-Open No. 8-300978. It is described in.
Hereinafter, JP-A-8-300978 will be described in detail.
FIG. 14 is a diagram showing an overall configuration of a conventional face image processing apparatus disclosed in Japanese Patent Application Laid-Open No. 8-300978.
In the figure, 1 is a camera for imaging a driver, 2 is near-infrared illumination used for imaging, 3 is illumination control means for controlling the near-infrared illumination 2, and 4 is a face image for processing an image captured by the camera 1. The processing apparatus comprises an image input means 5, a density level conversion means 6, a floating binarization means 7, an eye presence area setting means 8, a candidate area setting means 9, and an eye area determination means 10. 11 is a blink detection unit that detects blinking using the result of image processing performed by the face image processing device 4, 12 is a doze determination unit that determines a doze state from the image processing result, and 13 is an alarm unit.
[0003]
FIG. 15 is a flowchart showing the flow of the operation of the eye area determination unit of the conventional face image processing apparatus.
In the figure, 14 is an eye evaluation function calculating means, and 15 is an eye area selecting means.
In Example 1 of Japanese Patent Laid-Open No. 8-300978, the eye area determination means 10 reads the face lateral width EAW of the eye candidate area, and only when the EAW is within a predetermined range set as an eye area. After reading the X-axis histogram SUMX of the region and calculating the maximum value SUMXMAX of the SUMX, the evaluation function EFV1 = Σy (SUMXMAX−SUMX) / ΣySUMX and the evaluation function EFV2 = SUMXMAX−C (C: constant) are calculated, An evaluation function value EFV = EFV1 × EFV2 (or C1 × EFV1 + C2 × EFV2 (weight C1> weight C2 is better)) is determined as an eye region that is larger than a predetermined value EFVMIN. The one having the smallest distance between the representative point and the face center of gravity is finally determined as the eye area.
In Example 3, when the center of gravity position MC, the peak value PH, and the half-value width HW of the frequency distribution curve of the X-axis histogram are used, a single peak is shown in the eyebrow region and a twin peak is shown in the eye region. An eye candidate region having a maximum HW / PH and a peak on the left and right of the MC is determined as the eye region.
In the fourth embodiment, the eye area is determined using the temporal change in the eye evaluation function value in the first embodiment.
In the fifth embodiment, the deviation DX between the X coordinate XEC of the left and right eye candidate area representative point and the X coordinate XFC of the face center of gravity, and the deviation DY of the Y coordinate YEC of the left and right eye candidate area representative point and the Y coordinate YFC of the face center of gravity are both predetermined. A method is described in which a combination of a minimum value and a minimum value is determined as an eye area.
[0004]
[Problems to be solved by the invention]
However, it takes a long time to process all images with multi-valued data. Even in binarization, the state of the face (brows-eye relationship, etc.) depends on the presence of glasses and the attached information such as weather and hair. ) Changes and is unstable. However, in the above-described conventional device, the eye area is determined based on the eye evaluation function value using the X / Y-axis histogram created based on the binary data and the positional relationship between the eye candidate area and the face center of gravity or the left and right eye candidate areas. Therefore, it is easy to cause a false detection.
[0005]
The present invention has been made to solve the above-described problems. A face image processing apparatus configured to discriminate eyes by calculating a ratio of a thin line portion that hardly exists in an eyebrow or a spectacle frame. The purpose is to get.
[0006]
[Means for Solving the Problems]
In the face image processing apparatus according to the present invention, an image memory that stores a face image that is captured by a camera and displayed by a large number of pixels arranged in a matrix, and a face stored in the image memory. Candidate extraction means for binarizing an image and extracting eye candidates, eye search area setting means for estimating an eye search area indicating a range in which an eye exists in a face image binarized by the candidate extraction means, Using the face image stored in the image memory for the eye candidates included in the eye search area estimated by the eye search area setting means Scans the face in the vertical direction sequentially in the horizontal direction of the face, Extract the thin line part, The ratio of the number of scanning lines from which the thin line portion is extracted to the number of scanning lines in the horizontal direction of the face of the image of the eye candidate is calculated, and eye candidates whose ratio is a predetermined value or more are determined as eyes. It is provided with an eye determination means.
The eye determination means extracts a thin line portion by comparing the luminance of a specific pixel in the face image with two pixels located at a predetermined length in the vertical direction of the face from the specific pixel.
[0007]
Also, An image memory that stores a face image that is captured by a camera and displayed by a large number of pixels arranged in a matrix, binarizes the face image stored in this image memory, and extracts eye candidates Candidate extracting means for performing eye search area setting means for estimating an eye search area indicating a range where the eyes exist in the face image binarized by the candidate extracting means, and eye search estimated by the eye search area setting means For the eye candidates included in the region, an eye determination unit that extracts a thin line portion using a face image stored in the image memory and discriminates the eye based on a ratio of the thin line portion to the entire image of the eye candidate, The eye determination means compares the luminance of a specific pixel in the face image with two pixels located at a predetermined length in the vertical direction of the face from the specific pixel and a pixel located at a predetermined length in the horizontal direction of the face. To extract the thin line portion.
Further, the pixel at a position of a predetermined length in the horizontal direction is directed from the specific pixel toward the outside of the face.
[0008]
In addition, when there is a specific pixel outside the center of gravity of the eye candidate, the eye determination unit compares the luminance with a pixel at a predetermined length in the lateral direction toward the outside of the face, and When there is a specific pixel on the inner side from the center of gravity, the luminance is compared with a pixel located at a predetermined length in the horizontal direction toward the inner side of the face.
The eye determining means calculates a luminance difference value between a specific pixel and a pixel adjacent to the specific pixel in the vertical direction, and extracts a thin line portion based on a length from the peak to the peak of the calculated difference value. It is.
[0009]
Furthermore, the eye search region setting means sets a nostril region and estimates the eye search region based on the set nostril region.
The candidate extracting means extracts eye candidates from the face image through a MAX / MIN filter having a length corresponding to the width of the eyebrows and eyes.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Embodiment 1 FIG.
Embodiment 1 of the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram showing a configuration of a face image processing apparatus according to Embodiment 1 of the present invention.
In the figure, 17 is a CCD camera that captures a face image, 18 is an image that is output from the CCD camera 17 and stores multi-value data of a face image that is configured to be displayed by a large number of pixels arranged in a matrix. A memory 19 is a CPU that performs image processing based on data in the image memory 18.
FIG. 2 is a flowchart showing an outline of processing in the CPU in FIG.
In the figure, 20 is a face image input means, 21 is a candidate extraction means, 22 is an eye search area setting means, and 23 is an eye determination means. The face image input means 20 inputs face image data from the image memory 18 to the CPU 19. In the input image, the candidate extraction means 21 performs binarization to extract eye candidates (binary data is stored in a separate memory so that input image data can be referred to later), and an eye search area The setting means 22 estimates an eye search area indicating a range where eyes are present. Further, the eyes are determined by the eye determination means 23 from the eye candidates in the set eye search area. Details of each means will be described later.
[0011]
FIG. 3 is a diagram showing an input image from the camera in the face image processing apparatus according to Embodiment 1 of the present invention, which is input to the CPU 19 by the face image input means 20.
In the figure, reference numeral 25 denotes a face image input from the CCD camera 17.
FIG. 4 is a diagram showing a binarized image binarized by the candidate extracting means 21 of the face image processing apparatus according to Embodiment 1 of the present invention.
In the figure, 26 indicates an image obtained by binarizing the face image 25, and 27 indicates a processing direction.
FIG. 5 is an explanatory diagram of the MAX / MIN filter used in the candidate extraction means 21 of the face image processing apparatus according to Embodiment 1 of the present invention, and FIG. 5 (a) is an image before and after applying the MAX filter and the MIN filter. FIG. 5B is a diagram showing a signal, and FIG. 5B schematically shows luminance values corresponding to FIG. FIG. 5C shows the image signal after the MAX / MIN filter processing, and FIG. 5D schematically shows the luminance value corresponding to FIG. 5C.
In the figure, 28 is an image signal of a part of the input image, 29 is an image signal after applying the MAX filter, 30 is an image signal after applying the MIN filter, 31 is a luminance value corresponding to the image signal 28, and 32 is A luminance value corresponding to the image signal 29 and 33 is a luminance value corresponding to the image signal 30. Here, one frame surrounding each luminance value represents one pixel, and the luminance value is a value from 0 to 20 for simplicity.
[0012]
FIG. 6 is an explanatory diagram of the candidate extraction means 21 of the face image processing apparatus according to Embodiment 1 of the present invention, and FIG. 6 (a) is a diagram showing an image signal after the MAX / MIN filter is applied to the input image. FIG. 6B is a diagram showing a signal after binarization.
In the figure, 35 is an image signal after applying the MAX / MIN filter, and 36 is a threshold value for binarization.
FIG. 7 is a flowchart showing the flow of the eye search area setting means of the face image processing apparatus according to Embodiment 1 of the present invention.
In the figure, 37 is a nostril area setting means, 38 is a nostril search means, 39 is a nostril determination means, and 40 is an eye area estimation means. Details will be described later.
FIG. 8 is a diagram showing part of the nostril region setting means, nostril search means, and nostril determination means of the face image processing apparatus according to Embodiment 1 of the present invention, and FIG. FIG. 8B is a diagram showing a search area, and FIG. 8B is a diagram showing a binarized image and histograms in the X-axis direction and the Y-axis direction.
[0013]
FIG. 9 is a diagram showing the eye search area set by the eye search area setting means 22 of the face image processing apparatus according to Embodiment 1 of the present invention.
FIG. 10 is a diagram showing a fine line portion of the face image for explaining the eye determination means 23 of the face image processing apparatus according to Embodiment 1 of the present invention. FIG. 10 (a) shows candidate candidates based on the input image. FIG. 10B is a diagram for explaining the detection of the thin line portion, and FIG.
[0014]
The details of each means shown in FIG. 2 will be described below with reference to FIG.
Face image data is input to the CPU 19 from the image memory 18 by the face image input means 20.
Next, binarization is performed by the candidate extraction means 21 to extract eye candidates.
The candidate extraction means 21 uses a MAX / MIN filter to extract eye candidates. First, a MAX filter is applied to the input image. The MAX filter has a predetermined length (the number of pixels is a. Hereinafter referred to as filter size), and converts the luminance value of the pixel at the center of the filter into the maximum luminance value in the filter. . For example, if a is 5 and the MAX filter is applied to the thick line portion of the luminance model 31 in FIG. 5B, the maximum luminance is 9 here, so the luminance value of the pixel 31a in the center of the filter is converted from 7 to 9. The When the pixel is shifted to the right by one pixel and the MAX filter is applied in the same manner, the luminance model 31 in FIG. 5B is converted into a luminance model 32.
[0015]
Next, the MIN filter is applied to the image after the MAX filter processing. The MIN filter also has the same filter size as the MAX filter, and converts the luminance value of the pixel at the center of the filter to the minimum luminance value in the filter. When the luminance pattern 32 in FIG. 5B after the MAX filter processing is shifted to the right by one pixel and the MIN filter is applied, the luminance pattern 33 in FIG. 5B is converted. Then, when the input image is drawn from the image after the MAN / MIX filter processing, a low luminance area having a width equal to or smaller than the filter size is extracted. In the figure, FIG. 5D obtained by subtracting the luminance model 31 from the luminance model 33 of FIG. 5B is obtained, and when converted to an image signal, FIG. 5C is obtained. However, since both the MAX filter and the MIN filter start conversion from the center of the first filter, and the conversion ends at the center of the last filter, the data after the MAX filter processing is shown in FIGS. The data after the MIN filter processing is shown in FIG. 5B 33a to 33b, and the image after the MAX / MIN filter processing is eventually smaller by a-1 pixels than the processing start position and the processing end position.
[0016]
In the first embodiment, processing is performed line by line along the vertical direction of the face (processing direction: 27 in FIG. 4). The image signal 35 in FIG. 6A is an image signal after the input image is subjected to a MAX / MIN filter having a length corresponding to the width of the eyebrows and the eyes. Here, the nose, mouth, etc., which are narrower than the eyebrows and eyes, are also extracted. Since the feature points of the face image such as the eyebrows and the eyes have a large luminance difference with the surroundings, the luminance value after the difference is large (35a), but the shadow and clothes have a small luminance difference with the surroundings (35b). Therefore, a threshold value 36 is set as shown in FIG. 6A, and binarization is performed based on this. FIG. 6B shows a signal after binarization. FIG. 4 shows an image obtained by the above processing.
[0017]
In the binarized image extracted by the candidate extraction means 21, the eye search area setting means 22 for estimating the eye search area indicating the range where the eye candidates exist is, for example, as shown in the flowchart of FIG. 8 includes a means 37, a nostril search means 38, a nostril determination means 39, and an eye area estimation means 40. The nostril search area 5n in the nostril search mode and the nostril tracking area 5nn in the nostril tracking mode. Set. The nostril search mode refers to a state in which nostril position learning has not yet been performed (a state in which eyes have not yet been found), and the nostril tracking mode refers to a state in which nostril learning has been completed. The search area 5n is set to be limited to a range where the face enters with a normal driving posture on the screen. The tracking region 5nn sets a region having a predetermined width from the nostril learning position (or the previous nostril position) 5gn. The nostril search means 38 searches an area where two equal circles are arranged in the lateral direction of the face as shown in FIG. The search is performed using, for example, an X-axis direction histogram and a Y-axis direction histogram as shown in FIG. The nostril determination means 39 selects the most likely nostril from the retrieved candidates and calculates its position. After the nostril is determined, the eye area estimation means 40 sets 5r5l in FIG. 9 which is an area where the left and right eyes are supposed to exist based on the nostril position. The size of 5r5l is sufficient for the eyes to enter, and the eye determination means 23 in FIG.
The nostril position determined by the nostril determination means 39 is stored in the memory and used for setting the nostril region in the nostril tracking mode.
[0018]
Next, the eye determination means 23 determines the eye candidates and eye positions in the region extracted above. For the eye candidates, element blocks existing in the eye search area estimated by the eye search area setting unit 22 are extracted using, for example, an X-axis histogram and a Y-axis histogram. Next, in order to discriminate the eyebrows and eyes having similar shapes with respect to the extracted element block, as shown in FIG. 10A, the fine line of each candidate based on the input image data (multi-value) Detect part. The detection is performed by sequentially scanning each vertical line of the face, and a line having a point (41) passing through filter points (41a, 41b) composed of at least two points as shown in FIG. Count as. Passing is a condition that the luminance value of the pixel of interest (41) is smaller than the luminance value of the filter points (41a, 41b) by a predetermined value (FIG. 10 (b)).
[0019]
The fine line ratio is represented by the number of fine line lines with respect to the number of lines in the face horizontal direction of each candidate. Since it is estimated that the eyes have the most thin line portions (the wrinkle lines), those having a fine line ratio equal to or greater than a predetermined value and taking the maximum value are determined as eyes. The filter point 41a or 41b has a fixed OFST from the point of interest, or the brightest point of a pixel existing within a predetermined range from the point of interest, an average value of pixel luminance values existing within a predetermined range from the point of interest, or the like Can be considered.
(In FIG.
Eyebrow: Fine line ratio = (Number of fine line lines 19 x 100) / face side Number of direction lines 41 = 46%
Eye: Fine line ratio = (Number of fine line lines 26 × 100) / face side Number of direction lines 36 = 72%)
At this time, thin eyeglass frames can be cut at the time of eye candidate extraction, so there is no problem, and thick objects and eyebrows etc. have many parts that are wide in the vertical direction of the face and it is difficult to pass through the filter, so it is difficult to enter candidates Seem. Therefore, eyes can be extracted with high accuracy.
Further, if there is a fine line condition passing point, the processing of the line is completed there, so that the processing can be performed at a relatively high speed.
[0020]
Embodiment 2. FIG.
FIG. 11 is a diagram showing a fine line portion of a face image of the face image processing apparatus according to Embodiment 2 of the present invention.
In the second embodiment, the eye determination means 23 of the first embodiment is changed as follows.
For the eye candidates, element blocks existing in the eye search area estimated by the eye search area setting unit 22 are extracted using, for example, an X-axis direction histogram and a Y-axis direction histogram. Next, in order to discriminate eyebrows and eyes having similar shapes with respect to the extracted element block, as shown in FIG. 11A, each candidate is based on the input image data (multivalue). The thin line part of is detected. The detection is performed by sequentially scanning the vertical lines of each face, and a line having a point (42) passing through filter points (42a, 42b, 42c) composed of at least three points as shown in FIG. 11 (a). The line is counted as a fine line (however, the left eye is shown in FIG. 11A, and the filter point 42c needs to be contrasted with the vertical line of the face for the right eye). The passage condition is that the luminance value of the pixel of interest (42) is smaller than the luminance values of the filter points (42a, 42b, 42c) by a predetermined value (FIG. 11 (b)). The fine line ratio is represented by the number of fine line lines with respect to the number of lines in the face horizontal direction of each candidate. Since the eye has the most thin line portions (the wrinkle line) and the curvature of the eye corner line is high, it is estimated that the condition of the filter point 42c is easily satisfied. Judge as.
[0021]
The filter points 42a, 42b, and 42c are points having a fixed OFST from the point of interest, or the brightest point of a pixel existing within a predetermined range from the point of interest, or a pixel luminance value existing within a predetermined range from the point of interest. Average values are possible.
(In FIG.
Eyebrow: Fine line ratio = (Number of fine line lines 15 x 100) / face side Number of direction lines 41 = 36%
Eye: Fine line ratio = (Number of fine line lines 21 x 100) / face side Number of direction lines 36 = 58%)
Here, thin eyeglass frames can be cut when extracting eye candidates, so there is not much problem, and thick objects and eyebrows have many parts that are wide in the vertical direction of the face, and it is difficult to pass through the filter. Seem. In addition, since the face horizontal direction line (42c) is also seen, it is considered that an eyebrow having a smaller curvature than the eyes is difficult to pass through the filter and to enter a candidate. Therefore, eyes can be extracted with high accuracy. Further, if there is a thin line condition passing point, the processing of the line is completed at that point, so that the processing can be performed at a relatively high speed.
[0022]
Embodiment 3 FIG.
FIG. 12 is a diagram showing a fine line portion of a face image of the face image processing apparatus according to Embodiment 3 of the present invention.
In the third embodiment, the eye determination means 23 of the first embodiment is changed as follows.
As the eye candidates, element blocks existing in the eye search area determined by the eye search area setting unit 22 are extracted using, for example, an X-axis direction histogram and a Y-axis direction histogram. Next, in order to discriminate eyebrows and eyes having similar shapes with respect to the extracted element blocks, as shown in FIG. 12A, the thin line portions of each candidate based on the input image data (multivalue) Is detected. The detection is performed by sequentially scanning each face longitudinal direction line and passing through filter points 43, 43a, 43b, 43c or 44, 44a, 44b, 44c composed of at least three points as shown in the figure (43, 44) is counted as a thin line. However, the filter point 43 is used for the left lateral half of the face from the center of gravity position of the eye candidate, 44 is used for the right half of the face, and the luminance value of the pixel of interest (43 or 44) is passed through the filter point (43a, 43b, 43c or 44a, 44b, 44c) is a condition that the predetermined value is smaller than the luminance value (FIG. 12B). The fine line ratio is represented by the number of fine line lines with respect to the number of lines in the face horizontal direction of each candidate. Since the eye has the most thin line parts (the wrinkle line) and the curvature of the eye corner line is high, it is presumed that the filter point condition is easily satisfied. judge.
[0023]
Filter points 43a, 43b, 43c or 44a, 44b, 44c are points having a fixed OFST from the point of interest, or the brightest point of a pixel existing within a predetermined range from the point of interest, or within a predetermined range from the point of interest. An average value of the existing pixel luminance values can be considered.
(In FIG.
Eyebrow: Fine line ratio = (Number of fine line lines 19 x 100) / face side Direction line 41 = 46%
Eye: Fine line ratio = (Number of fine line lines 26 × 100) / face side Number of direction lines 36 = 72%)
Here, thin eyeglass frames can be cut when eye candidates are extracted, so there is no problem. Thick objects, eyebrows, etc. have many parts that are wide in the vertical direction of the face, and do not easily pass through filters, making it difficult to enter candidates. I think that the.
Further, since the face horizontal direction line (43c or 44c) is also seen, it is considered that an eyebrow having a smaller curvature than the eyes is difficult to pass through the filter and to enter a candidate. Therefore, eyes can be extracted with high accuracy.
Further, if there is a fine line condition passing point, the processing of the line is completed there, so that the processing can be performed at a relatively high speed.
[0024]
Embodiment 4 FIG.
FIG. 13 is a diagram showing a fine line portion of a face image of the face image processing apparatus according to Embodiment 4 of the present invention.
In the fourth embodiment, the eye determination means 23 of the first embodiment is changed as follows.
For the eye candidates, element blocks existing in the eye search area estimated by the eye search area setting unit 22 are extracted using, for example, an X-axis direction histogram and a Y-axis direction histogram. Next, in order to discriminate eyebrows and eyes having similar shapes with respect to the extracted element block, as shown in FIG. 13A, the fine line of each candidate is based on the input image data (multivalue). Detect part. The detection is performed by sequentially scanning the vertical lines of each face, calculating the difference in luminance between the target pixel and the previous pixel (= differential value, FIG. 13B), and the width from the peak 45a to the peak 45b of the differential value is equal to or less than a predetermined value. Are counted as thin line.
[0025]
The fine line ratio is represented by the number of fine line lines with respect to the number of lines in the face horizontal direction of each candidate. Since it is estimated that the eyes have the most thin line portions (the wrinkle lines), those having a fine line ratio equal to or greater than a predetermined value and taking the maximum value are determined as eyes.
(In FIG.
Eyebrow: fine line ratio = (number of fine line lines 16 x 100) / face side Number of direction lines 41 = 39%
Eye: fine line ratio = (number of fine line lines 24 × 100) / face side Number of direction lines 36 = 66%)
Here, a thin eyeglass frame can be cut at the time of eye candidate extraction, so there is not much problem, and a thick object, eyebrows, etc. have many parts with a wide width in the vertical direction of the face, and it seems difficult to enter candidates. Therefore, eyes can be extracted with high accuracy.
Further, if there is a fine line condition passing point, the processing of the line is completed there, so that the processing can be performed at a relatively high speed.
[0026]
【The invention's effect】
Since the present invention is configured as described above, the following effects can be obtained.
An image memory that stores a face image that is captured by a camera and displayed by a large number of pixels arranged in a matrix, binarizes the face image stored in this image memory, and extracts eye candidates Candidate extracting means for performing eye search area setting means for estimating an eye search area indicating a range where the eyes exist in the face image binarized by the candidate extracting means, and eye search estimated by the eye search area setting means Using eye images stored in the image memory for eye candidates included in the area Scans the face in the vertical direction sequentially in the horizontal direction of the face, Extract the thin line part, The ratio of the number of scanning lines from which the thin line portion is extracted to the number of scanning lines in the horizontal direction of the face of the image of the eye candidate is calculated, and eye candidates whose ratio is a predetermined value or more are determined as eyes. Since the eye determination means is provided, the extraction of the thin line portion is performed with the multi-valued face image input to the image memory. And determine the eye by the ratio of the number of scanning lines extracted in the thin line portion As a result, the eyes can be accurately discriminated and the eye search area is estimated using the binarized image, so that high-speed processing can be performed.
Further, the eye determination means extracts the fine line portion by comparing the luminance between the specific pixel in the face image and two pixels located at a predetermined length in the vertical direction of the face from the specific pixel. A thin line portion can be extracted.
[0027]
Also, An image memory that stores a face image that is captured by a camera and displayed by a large number of pixels arranged in a matrix, binarizes the face image stored in this image memory, and extracts eye candidates Candidate extracting means for performing eye search area setting means for estimating an eye search area indicating a range where the eyes exist in the face image binarized by the candidate extracting means, and eye search estimated by the eye search area setting means For the eye candidates included in the region, an eye determination unit that extracts a thin line portion using a face image stored in the image memory and discriminates the eye based on a ratio of the thin line portion to the entire image of the eye candidate, The eye determination means compares the luminance of a specific pixel in the face image with two pixels located at a predetermined length in the vertical direction of the face from the specific pixel and a pixel located at a predetermined length in the horizontal direction of the face. To extract the thin line part, The eye determination means can accurately determine the eye by performing the extraction of the thin line portion with the multi-valued face image input to the image memory, and also using the pixels in the lateral direction of the face, The thin line portion can be extracted more accurately.
Furthermore, since the pixel at the position of the predetermined length in the horizontal direction is outside the face from the specific pixel, the certainty of the thin line portion extraction is increased.
[0028]
In addition, when there is a specific pixel outside the center of gravity of the eye candidate, the eye determination unit compares the luminance with a pixel at a predetermined length in the lateral direction toward the outside of the face, and When there is a specific pixel on the inner side from the center of gravity, since the luminance is compared with a pixel at a position of a predetermined length in the horizontal direction toward the inner side of the face, the certainty of thin line portion extraction is increased.
Further, the eye determination means calculates the difference value of the luminance between the specific pixel and the pixel adjacent to the specific pixel in the vertical direction, and extracts the thin line portion by the length from the peak to the peak of the calculated difference value. The thin line portion can be extracted with high accuracy.
[0029]
Furthermore, the eye search area setting means sets the nostril area and estimates the eye search area based on the set nostril area, so that the eye search area can be reliably estimated.
In addition, since the candidate extraction unit extracts the eye candidates through the MAX / MIN filter having a length corresponding to the width of the eyebrows and the eyes, the candidate extraction unit can efficiently extract the eye candidates.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a face image processing apparatus according to Embodiment 1 of the present invention.
FIG. 2 is a flowchart showing a process flow of the face image processing apparatus according to the first embodiment of the present invention.
FIG. 3 is a diagram showing an input image from a camera in the face image processing apparatus according to Embodiment 1 of the present invention;
FIG. 4 is a diagram showing a binarized image of the face image processing apparatus according to Embodiment 1 of the present invention.
FIG. 5 is an explanatory diagram of a MAX / MIN filter of the face image processing apparatus according to Embodiment 1 of the present invention.
FIG. 6 is an explanatory diagram of candidate extraction means of the face image processing apparatus according to Embodiment 1 of the present invention;
FIG. 7 is a flowchart showing a flow of eye search area setting means of the face image processing apparatus according to Embodiment 1 of the present invention;
FIG. 8 is a diagram showing a part of nostril region setting means, nostril search means, and nostril determination means of the face image processing apparatus according to Embodiment 1 of the present invention;
FIG. 9 is a diagram showing an eye search area of the face image processing apparatus according to Embodiment 1 of the present invention;
FIG. 10 is a diagram showing a fine line portion of a face image of the face image processing apparatus according to Embodiment 1 of the present invention;
FIG. 11 is a diagram showing a fine line portion of a face image of a face image processing device according to Embodiment 2 of the present invention;
FIG. 12 is a diagram showing a fine line portion of a face image of a face image processing apparatus according to Embodiment 3 of the present invention.
FIG. 13 is a diagram showing a fine line portion of a face image of a face image processing apparatus according to Embodiment 4 of the present invention.
FIG. 14 is a diagram showing the overall configuration of a conventional face image processing apparatus.
FIG. 15 is a flowchart showing a flow of operation of an eye area determination unit of a conventional face image processing apparatus.
[Explanation of symbols]
17 CCD camera, 18 image memory, 19 CPU,
20 face image input means, 21 candidate extraction means,
22 eye search area setting means, 23 eye determination means,
37 nostril region setting means, 38 nostril search means,
39 Nostril determination means, 40 eye area estimation means.

Claims (8)

カメラによって撮影されマトリックス状に配置された多数の画素によって表示されるように構成された顔画像が記憶される画像メモリ、この画像メモリに記憶された顔画像を2値化すると共に目候補を抽出する候補抽出手段、この候補抽出手段によって2値化された顔画像内で目の存在する範囲を示す目検索領域を推定する目検索領域設定手段、この目検索領域設定手段によって推定された目検索領域内に含まれる目候補について、上記画像メモリに記憶されている顔画像を用いて顔の縦方向の走査を顔の横方向に順次行い、上記走査毎に細線部分を抽出し、この細線部分が抽出された走査ライン数の上記目候補の画像の上記顔の横方向の走査ライン数に対する比率を計算し、上記比率が所定値以上の目候補を目と判別する目確定手段を備えたことを特徴とする顔画像処理装置。An image memory that stores a face image that is captured by a camera and displayed by a large number of pixels arranged in a matrix, binarizes the face image stored in the image memory, and extracts eye candidates Candidate extraction means for performing eye search, an eye search area setting means for estimating an eye search area indicating a range in which an eye exists in the face image binarized by the candidate extraction means, and eye search estimated by the eye search area setting means for eye candidates included in the region, using the face image stored in the image memory is performed sequentially in the vertical direction of the scan of the face in the lateral direction of the face, to extract the fine line portion for each of the scan, the fine line portion calculate the ratio but the lateral direction of the scanning line number of the face images of the first candidate for the scan line number that is extracted, comprise an eye determination means that the ratio is determined to eye eye candidates equal to or more than a predetermined value Face image processing apparatus characterized by. 目確定手段は、顔画像中の特定画素と、この特定画素から顔の縦方向の所定長さの位置にある2画素との輝度の比較を行って細線部分を抽出することを特徴とする請求項1記載の顔画像処理装置。The eye determination means extracts a thin line portion by comparing the luminance of a specific pixel in the face image with two pixels located at a predetermined length in the vertical direction of the face from the specific pixel. Item 2. The face image processing apparatus according to Item 1. カメラによって撮影されマトリックス状に配置された多数の画素によって表示されるように構成された顔画像が記憶される画像メモリ、この画像メモリに記憶された顔画像を2値化すると共に目候補を抽出する候補抽出手段、この候補抽出手段によって2値化された顔画像内で目の存在する範囲を示す目検索領域を推定する目検索領域設定手段、この目検索領域設定手段によって推定された目検索領域内に含まれる目候補について、上記画像メモリに記憶されている顔画像を用いて細線部分を抽出し、上記目候補の画像全体に対する細線部分の割合によって目を判別する目確定手段を備え、上記目確定手段は、顔画像中の特定画素と、この特定画素から顔の縦方向の所定長さの位置にある2画素及び顔の横方向の所定長さの位置にある画素との輝度の比較を行って細線部分を抽出することを特徴とする顔画像処理装置。 An image memory that stores a face image that is captured by a camera and displayed by a large number of pixels arranged in a matrix, binarizes the face image stored in the image memory, and extracts eye candidates Candidate extraction means for performing eye search, an eye search area setting means for estimating an eye search area indicating a range in which an eye exists in the face image binarized by the candidate extraction means, and eye search estimated by the eye search area setting means For the eye candidates included in the region, an eye determination unit that extracts a thin line portion using a face image stored in the image memory and discriminates an eye based on a ratio of the thin line portion to the entire image of the eye candidate, It said second determining means includes a specific pixel in the face image, and the pixels from the specific pixel to 2 pixels and lateral position of the predetermined length of the face in the longitudinal direction of the predetermined length of the position of the face Face image processing apparatus you and extracting the thin line portion by performing a comparison of brightness. 横方向の所定長さの位置にある画素は、特定画素から顔の外側に向けてあることを特徴とする請求項3記載の顔画像処理装置。4. The face image processing apparatus according to claim 3, wherein the pixel located at a predetermined length in the horizontal direction is directed from the specific pixel toward the outside of the face. 目確定手段は、目候補の重心から外側に特定画素がある場合は、顔の外側に向けて横方向の所定長さの位置にある画素との輝度の比較を行うと共に、上記目候補の重心から内側に特定画素がある場合は、顔の内側に向けて横方向の所定長さの位置にある画素との輝度の比較を行うことを特徴とする請求項3記載の顔画像処理装置。When there is a specific pixel outside the center of gravity of the eye candidate, the eye determination means compares the luminance with the pixel located at a predetermined length in the lateral direction toward the outside of the face, and the center of gravity of the eye candidate. 4. The face image processing apparatus according to claim 3, wherein when there is a specific pixel on the inner side of the face, luminance comparison is performed with a pixel at a position of a predetermined length in the horizontal direction toward the inner side of the face. 目確定手段は、特定画素とこの特定画素に縦方向に隣接する画素との輝度の差分値を算出し、算出された差分値のピークからピークまでの長さによって細線部分を抽出することを特徴とする請求項1記載の顔画像処理装置。The eye determination means calculates a luminance difference value between the specific pixel and a pixel adjacent to the specific pixel in the vertical direction, and extracts a thin line portion based on a length from the peak to the peak of the calculated difference value. The face image processing apparatus according to claim 1. 目検索領域設定手段は、鼻孔領域を設定し、設定された鼻孔領域に基づき、目検索領域を推定することを特徴とする請求項1〜請求項6のいずれか一項記載の顔画像処理装置。The face image processing device according to any one of claims 1 to 6, wherein the eye search region setting means sets a nostril region and estimates the eye search region based on the set nostril region. . 候補抽出手段は、顔画像を眉及び目の幅に対応した長さのMAX/MINフィルタを通して、目候補を抽出することを特徴とする請求項1〜請求項7のいずれか一項記載の顔画像処理装置。8. The face according to claim 1, wherein the candidate extraction unit extracts the eye candidate from the face image through a MAX / MIN filter having a length corresponding to the width of the eyebrows and the eyes. Image processing device.
JP14272099A 1999-05-24 1999-05-24 Face image processing device Expired - Fee Related JP3629164B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14272099A JP3629164B2 (en) 1999-05-24 1999-05-24 Face image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14272099A JP3629164B2 (en) 1999-05-24 1999-05-24 Face image processing device

Publications (2)

Publication Number Publication Date
JP2000331172A JP2000331172A (en) 2000-11-30
JP3629164B2 true JP3629164B2 (en) 2005-03-16

Family

ID=15322018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14272099A Expired - Fee Related JP3629164B2 (en) 1999-05-24 1999-05-24 Face image processing device

Country Status (1)

Country Link
JP (1) JP3629164B2 (en)

Also Published As

Publication number Publication date
JP2000331172A (en) 2000-11-30

Similar Documents

Publication Publication Date Title
EP1426898B1 (en) Human detection through face detection and motion detection
US5715325A (en) Apparatus and method for detecting a face in a video image
JP3350296B2 (en) Face image processing device
JP4307496B2 (en) Facial part detection device and program
EP1693782B1 (en) Method for facial features detection
JP4845698B2 (en) Eye detection device, eye detection method, and program
JP4912206B2 (en) Image processing method, image processing apparatus, image processing system, and computer program
CN111191573A (en) Driver fatigue detection method based on blink rule recognition
CN101447023B (en) Method and system for detecting human head
JP3830998B2 (en) Ruled line removal method and character recognition apparatus using the same
WO2017061106A1 (en) Information processing device, image processing system, image processing method, and program recording medium
JP4082203B2 (en) Open / close eye determination device
JP3444115B2 (en) Dozing state detection device
JP3629164B2 (en) Face image processing device
JPH07311833A (en) Human face detecting device
JP5493676B2 (en) Eye position recognition device
KR100871557B1 (en) A Method for Detecting and Determining Face for Image-based Security
JP2005209137A (en) Method and apparatus for object identification, and face direction identification apparatus
JP4107104B2 (en) Facial part tracking device
JP2010009234A (en) Eye image processing device
JPH11283036A (en) Object detector and object detection method
JP2000193420A (en) Eye position detecting device
CN111488843A (en) Face sunglasses distinguishing method based on step-by-step inhibition of missing report and false report rate
KR20010108613A (en) Method for extracting front face area through the matching of the upper and lower face parts
CN115578781A (en) Method for detecting and identifying iris by removing shielding and readable storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040928

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041210

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071217

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081217

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091217

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091217

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101217

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111217

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111217

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121217

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121217

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees