JP4895876B2 - 眼検出装置及びプログラム - Google Patents

眼検出装置及びプログラム Download PDF

Info

Publication number
JP4895876B2
JP4895876B2 JP2007066599A JP2007066599A JP4895876B2 JP 4895876 B2 JP4895876 B2 JP 4895876B2 JP 2007066599 A JP2007066599 A JP 2007066599A JP 2007066599 A JP2007066599 A JP 2007066599A JP 4895876 B2 JP4895876 B2 JP 4895876B2
Authority
JP
Japan
Prior art keywords
nostril
face
eye
center line
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007066599A
Other languages
English (en)
Other versions
JP2008224589A (ja
Inventor
義 浅野
謙一 小川
重康 魚住
勇二 蜷川
健一 大上
真一 小島
悟 中西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Motor Corp
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Motor Corp, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2007066599A priority Critical patent/JP4895876B2/ja
Publication of JP2008224589A publication Critical patent/JP2008224589A/ja
Application granted granted Critical
Publication of JP4895876B2 publication Critical patent/JP4895876B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、例えば、車両等の移動体を運転している運転者等の顔の眼を検出する眼検出装置及びプログラムに関する。
現在、運転者の顔画像より眼を検出する機能を備える眼検出装置が実用化されている。これらの眼検出装置の中でも、眼を検出するために先ず鼻孔を検出する眼検出装置がある。特許文献1には鼻孔を検出する鼻検出装置が開示されている。
特許文献1に開示されている鼻検出装置は、先ず、運転者の顔の画像より縦方向及び横方向のエッジを検出する。次に、縦方向及び横方向のエッジの共通点に基づいて鼻孔の候補を検出し、横方向のエッジに基づいて眼の候補を検出する。検出した鼻孔の候補と眼の候補とからそれらの位置関係によって好適な鼻孔と眼との組み合わせの候補を抽出し、抽出した鼻孔と眼との組み合わせの候補から統計的な処理によって鼻孔の位置を検出する。
特開2006−38689号公報
しかし、特許文献1に開示されている技術では、黒子を鼻孔と誤検出してしまう可能性がある。
また、運転者の顔の向きによっては、鼻孔と眼との位置関係が変わり、正確な検出ができない。
本発明は上記問題点に鑑みてなされたものであり、正確に鼻孔を検出でき、その鼻孔に基づいて眼を検出できる眼検出装置、及び、プログラムを提供することを目的とする。
上記目的を達成するために、本発明の第1の観点に係る眼検出装置は、
対象者の顔の画像を記憶する顔画像記憶手段と、
前記顔画像記憶手段が記憶する顔の画像に基づいて、顔の中心線を判別する顔中心線判別手段と、
前記顔画像記憶手段が記憶する顔の画像に基づいて、顔の位置を判別する顔位置判別手段と、
前記顔位置判別手段が判別した顔の位置に基づいて、鼻孔探索領域を設定する領域設定手段と、
前記顔画像記憶手段が記憶する顔の画像に基づいて、前記領域設定手段が設定した鼻孔探索領域より鼻孔の候補を抽出する鼻孔候補抽出手段と、
前記鼻孔候補抽出手段が抽出した鼻孔の候補のうちで、前記顔中心線判別手段が判別した顔の中心線に対して対称である鼻孔の候補の組み合わせを左右鼻孔として判別する鼻孔判別手段と、
前記鼻孔判別手段が判別した左右鼻孔の位置を基準として眼を検出する眼検出手段と、
前記顔位置判別手段が判別した顔の位置と、前記顔中心線判別手段が判別した顔の中心線とに基づいて、顔の向きを表すパラメータを算出するパラメータ算出手段と、
前記パラメータ算出手段が算出したパラメータが所定の範囲内である場合、前記領域設定手段に鼻孔探索領域を設定させ、前記鼻孔候補抽出手段に鼻孔の候補を抽出させ、前記鼻孔判別手段に左右鼻孔を判別させ、前記眼検出手段に眼を検出させ、前記パラメータ算出手段が算出したパラメータが所定の範囲外である場合、前記領域設定手段に鼻孔探索領域を設定させず、前記鼻孔候補抽出手段に鼻孔の候補を抽出させず、前記鼻孔判別手段に左右鼻孔を判別させず、前記眼検出手段に眼を検出させないように、前記領域設定手段と前記鼻孔候補抽出手段と前記鼻孔判別手段と前記眼検出手段とを制御する制御手段と、を備える、
ことを特徴とする。
本発明の第2の観点に係るプログラムは、
コンピュータを、
対象者の顔の画像を記憶する顔画像記憶手段、
前記顔画像記憶手段が記憶する顔の画像に基づいて、顔の中心線を判別する顔中心線判別手段、
前記顔画像記憶手段が記憶する顔の画像に基づいて、顔の位置を判別する顔位置判別手段、
前記顔位置判別手段が判別した顔の位置に基づいて、鼻孔探索領域を設定する領域設定手段、
前記顔画像記憶手段が記憶する顔の画像に基づいて、前記領域設定手段が設定した鼻孔探索領域より鼻孔の候補を抽出する鼻孔候補抽出手段、
前記鼻孔候補抽出手段が抽出した鼻孔の候補のうちで、前記顔中心線判別手段が判別した顔の中心線に対して対称である鼻孔の候補の組み合わせを左右鼻孔として判別する鼻孔判別手段、
前記鼻孔判別手段が判別した左右鼻孔の位置を基準として眼を検出する眼検出手段、
前記顔位置判別手段が判別した顔の位置と、前記顔中心線判別手段が判別した顔の中心線とに基づいて、顔の向きを表すパラメータを算出するパラメータ算出手段、
前記パラメータ算出手段が算出したパラメータが所定の範囲内である場合、前記領域設定手段に鼻孔探索領域を設定させ、前記鼻孔候補抽出手段に鼻孔の候補を抽出させ、前記鼻孔判別手段に左右鼻孔を判別させ、前記眼検出手段に眼を検出させ、前記パラメータ算出手段が算出したパラメータが所定の範囲外である場合、前記領域設定手段に鼻孔探索領域を設定させず、前記鼻孔候補抽出手段に鼻孔の候補を抽出させず、前記鼻孔判別手段に左右鼻孔を判別させず、前記眼検出手段に眼を検出させないように、前記領域設定手段と前記鼻孔候補抽出手段と前記鼻孔判別手段と前記眼検出手段とを制御する制御手段、
として機能させることを特徴とする。
本発明によれば、正確に眼と鼻孔を検出できる。
以下、本発明の第1の実施形態に係る眼検出装置50について説明する。
第1の実施形態の眼検出装置50は、図1に示すように、ドライバーの顔を撮影して顔画像を生成するカメラ10と、ドライバーの顔を照明する照明光源12と、ドライバーの眼及び鼻孔を検出するコンピュータ14と、コンピュータ14に接続された表示装置16と、から構成される。
カメラ10は例えばCCDカメラ等から構成され、ドライバーの顔の階調画像を一定周期(例えば、1/30秒)で取得し、出力する。カメラ10から順次出力される顔画像は、ドライバーの顔(の画像)だけでなく、その背景(の画像)なども含む。
表示装置16は、LCD(Liquid Crystal Display)又はCRT(Cathode Ray Tube)などから構成され、カメラ10で撮影された顔画像などを表示する。
コンピュータ14は、カメラ10により取得された顔動画像を処理してその鼻孔の位置を検出する装置である。コンピュータ14は、図2に示すように、A/D変換器21と、画像メモリ22と、ROM(Read Only Memory)23と、CPU(Central Processing Unit)24と、RAM(Random Access Memory)25と、表示制御装置26と、光源制御装置27と、設定メモリ28と、操作装置29と、から構成される。
A/D(アナログ/ディジタル)変換器21は、カメラ10で撮影されたアナログ画像信号をディジタル信号に変換する。
画像メモリ22は、カメラ10により生成され、A/D変換器21でディジタル化された画像データを格納する。
ROM23は、CPUの動作を制御するためのプログラムを記憶する。また、ROM23は、後述する画像処理を実行するための様々な固定データを記憶する。
CPU24は、コンピュータ14全体を制御する。また、CPU24は、ROM23に格納されているプログラムを実行することにより、カメラ10により取得された一連の顔画像を処理して眼を検出する。
RAM25は、CPU24のワークエリアとして機能する。
表示制御装置26は、CPU24の制御のもと、映像データ等を表示装置16が出力可能なデータ形式に変換し、表示装置16に出力する。
光源制御装置27は、照明光源12の点灯・消灯を制御する。
設定メモリ28は、CPU24が顔画像を処理して眼を検出する処理の設定に関する情報(以下、設定情報)を格納する。
操作装置29は、ユーザから操作情報を受け付け、操作に応じた操作信号をCPU24に送出する。
次に、ROM23に格納される固定データの例を、図3を参照しながら説明する。まず、ROM23は、図3(a)に示すような、縦エッジ検出用ソーベルフィルタのオペレータを格納する。縦エッジ検出用ソーベルフィルタは、図3(c)に示すような横方向の濃淡差を強調するためのオペレータである。また、ROM23は、図3(b)に示すような、横エッジ検出用ソーベルフィルタのオペレータを格納する。横エッジ検出用ソーベルフィルタは、図3(d)に示すような横方向の濃淡差を強調するためのオペレータである。
ただし、前提として、顔画像を構成する各画素は、RGBの各色が8ビットの諧調を有するように設定されており、第0階調〜第255階調の256諧調の内いずれかの諧調を有するものとする。第0階調は黒、第255階調は白である。
設定メモリ28に格納される各種パラメータの例を、図4を参照しながら説明する。
先ず、閾値Athは、顔向きが所定の範囲内の向きであるか否かを判別するための閾値である。
鼻孔探索領域設定パラメータe,f,gは、検出された顔位置から鼻孔が存在すると推定される鼻孔探索領域を算出するためのパラメータである。
眼探索領域設定パラメータhは、検出された顔位置と鼻孔位置とから鼻孔が存在すると推定される眼探索領域を算出するためのパラメータである。
眼検出用横ソーベル閾値は、顔画像から顔の眼候補を抽出する際に横エッジ検出用ソーベルフィルタを用いて処理した各画素の微分値から、横エッジラインか否かを判別するための閾値である。
閾値Lth,Cxth,Dthは、眼候補となるエッジラインペアを抽出するために使用する閾値である。
閾値Ethは、眼候補であるエッジラインペアから眼を判別するために使用する閾値である。
以下、上記構成を有する本実施形態に係る眼検出装置50の動作を説明する。
まず、図3〜8を参照して、眼検出装置50が、顔画像中の眼及び鼻孔を検出する動作の概要を説明する。
カメラ10は、図5(a)に示すような対象者の顔画像を所定周期(例えば、1/30秒周期)で撮影して顔画像を出力する。出力された顔画像は画像メモリ22に順次格納される。
次に、CPU24は、画像メモリ22に格納されている顔画像を順次読み出し、以下の処理を行う。
先ず、CPU24は、縦エッジ検出用ソーベルフィルタ(図3(a))を用いて、読み出した顔画像を処理し、その顔画像の各画素の輝度値に基づいて顔の左右端を検出する。また、CPU24は、横エッジ検出用ソーベルフィルタ(図3(b))を用いて、読み出した顔画像を処理し、その顔画像の各画素の輝度値に基づいて顔の上下端を検出する。
例えば、図5(a)に示す顔画像の場合、顔の左右端は、x=i,jであり、上下端は、y=m,nである。顔の左右端と上下端から、顔の位置が検出できる。ただし、顔の上端は眉毛と額の間であり、顔の下端は口と顎の間である。
次に、CPU24は、顔画像より対象者の顔の中心線Bを検出する。ただし、顔の中心線とは、顔の正面における中心線であり、顎から鼻を通り、額に伸びる線である。
中心線Bの測定手法自体は任意であるが、本実施形態では、CPU24が顔画像より次式に基づいて、顔のx軸方向の中心(重心)位置の座標を求めるものとする。
B(顔の中心のx座標)=Σ(xi・Gi)/ΣGi・・・(1)
xi:i番目の画素のx座標の値
Gi:i番目の画素の諧調値
i:1〜n nは画素の総数
CPU24は、算出した顔の左右端と中心線Bとに基づいて、顔向きを判別し、判別した顔向きにより以後の処理を行うか否かを判別する。具体的には、CPU24は、図5(a)に示すように、顔中心線Bが左右両端位置の中心(i+j)/2より閾値Ath以上離れている場合は以後の処理を行う。また、図5(b)に示すように、顔中心線Bが左右両端位置の中心(i+j)/2より閾値Ath以上離れている場合は以後の処理を行わない。
以後の処理を行う場合には、CPU24は、鼻孔探索領域Aを抽出し、その領域から鼻孔の候補を抽出する。
具体的には、CPU24は、図6(a)(b)に示すような、a≦x≦b,d≦y≦cの範囲である鼻孔探索領域Aを抽出する。
ただし、a={i+(j−i)・e}
b={j−(j−i)・e}
c={m−(m−n)・f}
d={n+(m−n)・g}
e=5/16
f=5/16
g=2/16 であり、数値e,f,gは、設定メモリ28に格納されているパラメータである。
CPU24は、鼻孔探索領域Aにおいて所定の輝度値以下の画素が横方向に3〜5画素分連続しているもの(横エッジ)を検出する。また、CPU24は、鼻孔探索領域Aにおいて所定の輝度値以下の画素が縦方向に3〜5画素分連続しているもの(縦エッジ)を検出する。CPU24は、図6(c)に示すように、横エッジと縦エッジのうちで重なっているものを鼻孔候補として検出する。図6(c)に示す例では、C1とD1とE1とが鼻孔候補として検出されている。
CPU24は、各鼻孔候補の重心を算出し、顔中心線検出処理で検出した中心線Bに対して左右対称である鼻孔候補の組み合わせを左右鼻孔として判別する。例えば、図6(b)〜(d)に示す例では、CPU24は、図6(b)に示す鼻孔探索領域Aより、図6(c)に示すような鼻孔候補C1、D1、E1を抽出する。そして、CPU24は、図6(d)に示すような、鼻孔候補C1の重心C2と、D1の重心D2と、E1の重心E2とを算出する。CPU24は、重心D2とE2は左右対称であるので、鼻孔候補D1,E1を左右鼻孔と判別する。
CPU24は、設定メモリ28に格納されているパラメータと検出した顔位置と鼻孔位置とに基づいて図7(a)に示すような、眼が含まれると推定される眼探索領域Fを抽出する。図7(a)に示す図を用いて、具体的に説明すると、顔の左右端が、x=i,jであり、上下端が、y=m,nであり、左右鼻孔の重心のy座標がuである場合、図4に示されるような、設定メモリ28に格納される眼領域設定パラメータhを用いて、眼探索領域Fは、i≦x≦j且つw≦y≦m(ただし、w=u−h)で表される。
CPU24は、横エッジ検出用ソーベルフィルタ(図3(a))を用いて眼領域の画像内の横エッジラインを抽出する処理を行う。ここで、CPU24は、横エッジ検出用ソーベルフィルタを用いて処理した各画素の微分値が眼検出用横ソーベル閾値(図4)以上である画素の連なりを横エッジラインと判別する。
その結果、図7(c)に示すように、y軸方向に明るい画素から暗い画素に移るエッジラインがマイナスエッジとして表され、y軸方向に光度が暗い画素から明るい画素に移るエッジラインがプラスエッジとして現れる。なお、図面上は、プラスエッジを破線で、マイナスエッジを実線で表す。
次に、CPU24は、求めたマイナスエッジラインとプラスエッジラインとから、次の三つの数式を満たすマイナスエッジとプラスエッジの組み合わせを抽出する。
Lp−Lm<Lth・・・(2)
ただし、Lpはプラスエッジの長さを表す値であり、Lmはマイナスエッジの長さを表す値であり、Lthは閾値である。ただし、閾値Lthは、図4に示されるように、設定メモリ28に格納されている。数式(2)を満たすマイナスエッジとプラスエッジとの長さは閾値Lthの範囲で近似している。
Cxp−Cxm<Cxth・・・(3)
ただし、Cxpはプラスエッジの重心のx座標であり、Cxmはマイナスエッジの重心のx座標であり、Cxthは閾値である。ただし、閾値Cxthは、図4に示されるように、設定メモリ28に格納されている。数式(3)を満たすマイナスエッジとプラスエッジとの重心のx座標は閾値Cxthの範囲で近似している。
Dg<Dth・・・(4)
ただし、Dgはマイナスエッジの重心とプラスエッジの重心との間の距離であり、Dthは閾値である。ただし、閾値Dthは、図4に示されるように、設定メモリ28に格納されている。数式(4)を満たすマイナスエッジとプラスエッジとの重心間距離は閾値Dth以内である。
上記三つの数式を使って、抽出されたマイナスエッジとプラスエッジの組み合わせの内、マイナスエッジは上瞼候補とされ、プラスエッジは下瞼候補とされる。
つまり、数式(2)〜(4)を満たすマイナスエッジとプラスエッジの組み合わせは、ある程度、長さが等しく、位置が近く、重心のx座標が一致しているマイナスエッジとプラスエッジの組み合わせである。
図7(d)に、数式(2)〜(4)を満たすマイナスエッジとプラスエッジの組み合わせの一例を示す。プラスエッジとマイナスエッジとの組み合わせである候補1〜7が対象者の眼の候補(以下、眼候補)である。
CPU24は、眼候補のうちで鼻孔に対する相対的な位置が同じであり、且つ、図8に示すような、その眼候補のマイナスエッジの重心とプラスエッジの重心との間の距離Dgの履歴が瞬きに起因する変化を含む眼候補を眼として判別する。
具体的に述べると、
Dgの最大値−Dgの最小値>閾値Eth・・・(5)
である眼候補を眼として判別する。
ここで、本実施形態に係る眼検出装置50が行う眼検出処理について図9に示すフローチャートを参照して説明する。
コンピュータ14内のCPU24は、周期的に(例えば、1/30秒毎)に図9の眼検出処理を開始する。
先ず、眼検出装置50の電源が投入されると、CPU24は、後述する前処理を行い、ドライバーの顔画像を取り込み、縦エッジを強調した画像と横エッジを強調した画像とを生成する(ステップS100)。
次に、CPU24は、後述する顔位置検出処理を行い、上記の前処理で生成した縦エッジを強調した画像を使用して顔の左右端を検出し、横エッジを強調した画像を使用して顔の上下端を検出し、顔画像における顔の位置を検出する(ステップS200)。
CPU24は、顔中心線検出処理を行い、上記の(1)式を使用して顔の中心線Bを検出する(ステップS300)。
CPU24は、検出した顔の位置と中心線Bとに基づいて、顔向きが所定の範囲内の向きか否かを判別する(ステップS400)。
顔向きが所定の範囲内の向きではないと判別すると(S400;NO)、CPU24は、処理を終了させる。
顔向きが所定の範囲内の向きであると判別すると(S400;YES)、CPU24は、後述する鼻孔候補抽出処理を行う(ステップS500)。具体的に述べると、顔画像における鼻孔探索領域を抽出し、抽出した鼻孔探索領域から鼻孔候補を抽出する。
CPU24は、後述する鼻孔判別処理を行う(ステップS600)。具体的に述べると、CPU24は、鼻孔候補と中心線Bとの距離に基づいて、左右鼻孔を判別する。
CPU24は、左右鼻孔を検出したか否かを判別する(ステップS700)。
左右鼻孔を検出していないと判別すると(S700;NO)、CPU24は、処理を終了させる。
左右鼻孔を検出したと判別すると(S700;YES)、CPU24は、後述する眼候補抽出処理を行う(ステップS800)。具体的に述べると、CPU24は、上記の顔位置検出処理で検出した顔の位置と上記の鼻孔判別処理で判別した鼻孔の位置とを使用して顔画像中から眼探索領域Fを抽出し、横エッジラインを抽出し、抽出した横エッジラインから眼の候補となるエッジラインの対を抽出する。
CPU24は、後述する眼判別処理を行う(ステップS900)。具体的に述べると、CPU24は、上瞼候補と下瞼候補のエッジラインの重心の間の距離Dgを計測し、鼻孔に対する相対的な位置が同じである、且つ、計測した距離Dgの履歴が瞬きに起因する変化を含むエッジラインの対を眼として判別すると、処理を終了する。
このようにして、眼検出処理によれば、顔画像を取得して、その画像から鼻孔及び眼を検出することを周期的に繰り返すことができる。
次に、眼検出処理のステップS100において行われる前処理を説明する。簡単に説明すると、前処理において、眼検出装置50は、ドライバーの顔画像を撮像し、ソーベルフィルタを使用してエッジ検出を行う。
以下、図10を参照して、前処理(S100)を詳細に説明する。
先ず、CPU24は、カメラ10が撮影した対象者の顔画像をA/D変換器21を介して取り込み、画像メモリ22に格納するキャプチャ処理を行う(ステップS110)。
次に、CPU24は、座標変換処理を行い、画像メモリ22に格納した各顔画像の画素を後述するソーベルフィルタ処理実行可能な程度に間引く処理を行う(ステップS120)。
CPU24は、ROM23に格納されている縦エッジ検出用オペレータ(図3(a))を用いて座標変換後の顔画像を処理して、顔画像内の縦エッジを強調した画像を生成する。また、CPU24は、ROM23に格納されている横エッジ検出用オペレータ(図3(b))を用いて座標変換後の顔画像を処理して、顔画像内の横エッジを強調した画像を生成する(ステップS130)。
このようにして、前処理によれば、撮像した顔画像の縦エッジを強調した画像と横エッジを強調した画像を生成することができる。
ここで、眼検出処理のステップS200において行われる顔位置検出処理を説明する。簡単に説明すると顔位置検出処理において、眼検出装置50は、前処理において生成した縦エッジを強調した画像と横エッジを強調した画像を用いて顔画像における顔の位置を検出する。
以下、図11を参照して、顔位置検出処理(S200)を詳細に説明する。
先ず、CPU24は、後述する顔左右端検出処理を行い、前処理において生成した縦エッジを強調した画像を用いて、顔画像における顔の左右端の位置を検出する(ステップS210)。
次に、CPU24は、後述する顔上下端検出処理を行い、前処理において生成した横エッジを強調した画像を用いて、顔画像における顔の上下端の位置を検出すると(ステップS220)、顔位置検出処理を終了する。
このようにして、顔位置検出処理によれば、顔の左右端と上下端を検出することによって顔画像における顔の位置を検出することができる。
ここで、顔位置検出処理のステップS210において行われる顔左右端検出処理を説明する。簡単に説明すると顔左右端検出処理において、眼検出装置50は、前処理において生成した縦エッジを強調した画像を用いて、顔画像における顔の左右端の位置を検出する。
以下、図12を参照して、顔左右端検出処理(S210)を詳細に説明する。
先ず、CPU24は、縦エッジ検出用ソーベルフィルタを用いたソーベルフィルタ処理後の各画素の値を縦方向に投影してヒストグラムを作成する顔左右端検出用ヒストグラム作成処理を行う(ステップS211)。具体的に述べると、各座標の画素値を何段階かに分割し、x値毎に最も多く各座標の画素値を取る段階を決定する。x値毎の上記段階の平均値のグラフを上記のヒストグラムとする。
CPU24は、ステップS211において作成したヒストグラムにおいて、ピークを取る点(以下、ピーク点)を抽出する(ステップS212)。
CPU24は、ステップS212において抽出したピーク点からそのヒストグラム値が閾値以上のものを顔の左右端候補として抽出する(ステップS213)。
CPU24は、ステップS213の処理の結果、顔の左右端の候補として、ヒストグラム値が閾値以上のピーク点が二つ抽出されたか否かを判別する(ステップS214)。
ヒストグラム値が閾値以上のピーク点が二つ抽出されたと判別すると(ステップS214;YES)、CPU24は、処理をステップS216に進め、抽出した二つのピーク点を取る位置を顔の左右端と決定する(ステップS216)。
ヒストグラム値が閾値以上の二つのピーク点が抽出されていないと判別すると(ステップS214;NO)、CPU24は、ピーク点から、二点の距離が人の顔幅として適切な間隔を有する二つのピーク点の組み合わせを抽出する(ステップS215)。
CPU24は、抽出した二つのピーク点を取る位置を顔の左右端と決定する(ステップS216)。
このようにして、顔左右端検出処理によれば、顔画像において顔の左右端を検出することができる。
ここで、顔位置検出処理のステップS220において行われる顔上下端検出処理を説明する。簡単に説明すると顔上下端検出処理において、眼検出装置50は、前処理において生成した横エッジラインを強調した画像を用いて、顔画像における顔の上下端の位置を検出する。
以下、図13を参照して、顔上下端検出処理(S220)を詳細に説明する。
先ず、CPU24は、横エッジ検出用ソーベルフィルタを用いたソーベルフィルタ処理後の各画素の値を横方向に投影してヒストグラムを作成する顔上下端検出用ヒストグラム作成処理を行う(ステップS221)。具体的に述べると、各座標の画素値を何段階かに分割し、y値毎に最も多く各座標の画素値を取る段階を決定する。y値毎の上記段階の平均値のグラフを上記のヒストグラムとする。
CPU24は、ステップS221において作成したヒストグラムにおいて、ピークを取る点(以下、ピーク点)を抽出する(ステップS222)。
CPU24は、ステップS222において抽出したピーク点のヒストグラム値に基づいて各ピーク点を眼・眉・口等に対応付ける(ステップS223)。
CPU24は、ステップS223において眼・眉・口等に対応付けられた各ピーク点に基づいて、顔画像における顔の上下端の位置を算出する(ステップS224)。例えば、検出した眉から3画素分上の位置を顔の上端とし、検出した口から3画素分下の位置を顔の下端(口と顎の間)とする。
このようにして、顔上下端検出処理によれば、顔画像において顔の上下端の位置を算出することができる。
ここで、眼検出処理のステップS500において行われる鼻孔候補抽出処理を説明する。簡単に説明すると、鼻孔候補抽出処理において、眼検出装置50は、顔位置検出処理で検出した顔の位置に基づいて鼻孔探索領域を抽出する。その後、眼検出装置50は、抽出した領域から鼻孔の候補を抽出する。
以下、図14を参照して鼻孔候補抽出処理(S500)を詳細に説明する。
先ず、CPU24は、顔位置検出処理で検出した顔の左右端と上下端との位置と鼻孔領域設定パラメータとに基づいて、画像メモリ22に格納した各顔画像から鼻孔が存在すると推定される鼻孔探索領域の画像を抽出する(ステップS510)。
CPU24は、鼻孔探索領域において所定の輝度値以下の画素が横方向に3〜5画素分連続しているもの(横エッジ)を検出する(ステップS520)。
CPU24は、鼻孔探索領域において所定の輝度値以下の画素が縦方向に3〜5画素分連続しているもの(縦エッジ)を検出する(ステップS530)。
CPU24は、横エッジと縦エッジのうちで重なっているものを鼻孔候補として検出する(ステップS540)。
このように、鼻孔探索領域において所定の輝度値以下の画素の固まりを鼻孔候補として検出することができる。
ここで、眼検出処理のステップS600において行われる鼻孔判別処理を説明する。簡単に説明すると、鼻孔判別処理において、眼検出装置50は、鼻孔候補抽出処理で抽出した鼻孔候補の重心を算出する。その後、眼検出装置50は、算出した鼻孔候補の重心と、顔中心線検出処理で検出した中心線とに基づいて鼻孔候補より鼻孔を判別する。
以下、図15を参照して鼻孔判別処理(S600)を詳細に説明する。
先ず、CPU24は、鼻孔候補抽出処理で抽出した鼻孔候補の重心を算出する(ステップS610)。
次に、CPU24は、左右対称である鼻孔候補を抽出する(ステップS620)。
CPU24は、ステップS620において、抽出した鼻孔候補を左右鼻孔として記憶し(ステップS630)、処理を終了する。なお、左右対称である鼻孔候補が存在しない場合も、このまま、処理を終了する。
このように、鼻孔候補抽出処理において抽出した鼻孔候補のうちで、中心線に対して左右対称なものを左右鼻孔として判別し、記憶することができる。
ここで、眼検出処理のステップS800において行われる眼候補抽出処理を説明する。簡単に説明すると、眼候補抽出処理において、眼検出装置50は、顔位置検出処理で検出した顔の位置と鼻孔判別処理で判別した左右鼻孔の重心の位置とに基づいて眼探索領域を抽出する。その後、眼検出装置50は、抽出した領域から横エッジライン検出用ソーベルフィルタを用いて、プラスエッジとマイナスエッジを検出し、上記の(2)〜(4)式を満たすエッジラインペアを眼の候補として抽出する。
以下、図16を参照して眼候補抽出処理(S800)を詳細に説明する。
先ず、CPU24は、顔位置検出処理で検出した顔の左右端と上下端との位置と鼻孔判別処理で判別した左右鼻孔の重心の位置と眼領域設定パラメータとに基づいて、画像メモリ22に格納した各顔画像から眼が存在すると推定される眼探索領域の画像を抽出する(ステップS810)。
CPU24は、ROM23に格納されている横エッジ検出用オペレータ(図3(b))を用いてステップS310において抽出した領域の画像を処理して、その画像の各画素の微分値が眼検出用横ソーベル閾値以上である画素を横エッジラインと判別し、抽出する(ステップS820)。
CPU24は、ステップS820において抽出した横エッジラインのうちの、プラスエッジの長さLp,マイナスエッジの長さLm,プラスエッジの重心のx座標Cxp,マイナスエッジのx座標Cxm,マイナスエッジの重心とプラスエッジの重心との間の距離Dgを算出する(ステップS830)。
CPU24は、ステップS830において算出した各パラメータを用いて、上記の(2)〜(4)式を満たすマイナスエッジとプラスエッジの組み合わせを眼の候補として抽出する(ステップS840)。
このように、眼候補抽出処理によれば、眼が存在すると推定される領域において眼の候補となるマイナスエッジとプラスエッジの組み合わせを抽出することができる。
ここで、眼検出処理のステップS900において行われる眼判別処理を説明する。簡単に説明すると、眼検出装置50は、眼候補抽出処理で抽出した眼候補のうちから鼻孔に対する相対的な位置が同じであるものを抽出する。次に、眼検出装置50は、抽出した各眼候補の距離Dgの履歴を抽出する。その後、眼検出装置50は、距離Dgの履歴において、瞬きに起因する変化を含むエッジラインの対(眼候補)を眼として判別する。
以下、図17を参照して、眼判別処理(S900)を詳細に説明する。
先ず、CPU24は、眼候補抽出処理で抽出した眼候補の位置及び距離Dgの履歴を抽出する(ステップS910)。
CPU24は、眼候補抽出処理で抽出した眼候補のうちから、鼻孔判別処理で判別した鼻孔の位置に対する眼候補の下瞼部分の位置の重心の相対的な位置が常に同じであるものを抽出する(ステップS920)。
CPU24は、ステップS920において抽出した眼候補のうちから、その距離Dgが閾値Eth以上である眼候補を抽出する(ステップS930)。
CPU24は、ステップS930において抽出した眼候補が左右対称であるか否かを判別する(ステップS940)。
ステップS930において抽出した眼候補が左右対称ではないと判別すると(S940;NO)、CPU24は、処理を終了する。
ステップS930において抽出した眼候補が左右対称であると判別すると(S940;YES)、CPU24は、抽出した眼候補を眼として判別し、RAM25に記憶し(ステップS950)、処理を終了する。
このようにして、眼判別処理によれば、眼候補からその鼻孔に対する相対的な位置が同じであり、且つ、瞬きに相当する動きを取るものを眼と判別することができる。
以上、本実施形態における眼検出装置50は、異なるタイミングで撮像した複数の顔画像より顔の位置を検出する。それから、眼検出装置50は、その顔の位置に基づいて鼻孔が存在すると推定される領域を抽出し、その領域から鼻孔候補を抽出する。眼検出装置50は、抽出した鼻孔候補のうちから鼻孔を判別する。眼検出装置50は、検出した鼻孔に基づいて眼を検出する。よって、眼検出装置50は、正確に短時間に眼を検出することができる。
なお、この発明は上記実施形態に限定されず、種々の変形及び応用が可能である。
上記実施形態では、眼検出装置50は、眼候補を抽出する際に、ソーベルフィルタを使用したエッジ検出によって抽出したが、画像の濃度勾配を利用した濃度検出によって抽出してもよい。
上記実施形態では、コンピュータ14は、カメラ10が撮影した対象者の顔の動画像について眼検出処理を行った。しかし、応用例では、カメラ10以外の外部装置から取得した対象者の顔の動画像を画像メモリ22に格納しておき、その動画像について眼検出処理を行ってもよい。また、複数の顔の画像について眼検出処理を行ってもよい。
また、上記実施形態では、顔位置検出処理(S200)において、顔画像にソーベルフィルタ処理を施し、その画素値に基づいたヒストグラムから顔位置を検出した。しかし、応用例では、特開2004−310396号公報に開示されているように、撮像画像を構成する各画素について時間微分し、さらに、この時間微分された画像を縦方向に投影してヒストグラムを作成し、エッジ抽出画像のヒストグラムと時間微分画像のヒストグラムとを合計して、合計したヒストグラムのピーク値の高いものを顔の両端として判別し、顔位置を検出するようにしてもよい。
また、顔位置検出処理(S200)において、テンプレートマッチング法を用い、顔画像に予め登録してあるテンプレートにマッチングさせて、顔の位置を検出してもよい。
なお、本発明に係る瞼検出装置は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、顔画像を入力可能な構成のコンピュータに、上記動作を実行するためのプログラムを、コンピュータシステムが読みとり可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、当該プログラムをコンピュータシステムにインストールすることにより、上述の処理を実行する瞼検出装置を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有するストレージに当該プログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで瞼検出装置を構成してもよい。
また、上述の機能を、OS(Operating System)とアプリケーションとの分担、またはOSとアプリケーションとの協働により実現する場合などには、アプリケーション部分のみを記録媒体やストレージに格納してもよい。
また、搬送波にプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上のサーバに前記プログラムを格納し、ネットワークを介して前記プログラムを配信してもよい。そして、このプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、上述の処理を実行できるように構成してもよい。
本発明の実施形態に係る瞼検出装置の構成を示すブロック図である。 図1に示すコンピュータの構成を示すブロック図である。 ROMに格納されている各種データを説明するための図である。 設定メモリに格納されている各種データを説明するための図である。 本発明の実施形態に係る顔向きを判別する処理の概要を説明するための図である。 本発明の実施形態に係る鼻孔位置を抽出する処理の概要を説明するための図である。 本発明の実施形態に係る瞼候補を抽出する処理の概要を説明するための図である。 本発明の実施形態に係る瞼を判別する処理の概要を説明するための図である。 本発明の実施形態に係る眼検出処理を説明するためのフローチャートである。 眼検出処理における前処理を説明するためのフローチャートである。 眼検出処理における顔位置検出処理を説明するためのフローチャートである。 顔位置検出処理における顔左右端検出処理を説明するためのフローチャートである。 顔位置検出処理における顔上下端検出処理を説明するためのフローチャートである。 眼検出処理における鼻孔候補抽出処理を説明するためのフローチャートである。 眼検出処理における鼻孔判別処理を説明するためのフローチャートである。 眼検出処理における眼候補抽出処理を説明するためのフローチャートである。 眼検出処理における眼判別処理を説明するためのフローチャートである。
符号の説明
10 カメラ
12 照明光源
14 コンピュータ
16 表示装置
21 A/D変換器
22 画像メモリ(顔画像記憶手段)
23 ROM
24 CPU(顔中心線判別手段、鼻孔候補抽出手段、鼻孔判別手段、眼検出手段、顔判別手段、領域設定手段、パラメータ算出手段)
25 RAM
26 表示制御装置
28 設定メモリ
29 操作装置
50 眼検出装置

Claims (2)

  1. 対象者の顔の画像を記憶する顔画像記憶手段と、
    前記顔画像記憶手段が記憶する顔の画像に基づいて、顔の中心線を判別する顔中心線判別手段と、
    前記顔画像記憶手段が記憶する顔の画像に基づいて、顔の位置を判別する顔位置判別手段と、
    前記顔位置判別手段が判別した顔の位置に基づいて、鼻孔探索領域を設定する領域設定手段と、
    前記顔画像記憶手段が記憶する顔の画像に基づいて、前記領域設定手段が設定した鼻孔探索領域より鼻孔の候補を抽出する鼻孔候補抽出手段と、
    前記鼻孔候補抽出手段が抽出した鼻孔の候補のうちで、前記顔中心線判別手段が判別した顔の中心線に対して対称である鼻孔の候補の組み合わせを左右鼻孔として判別する鼻孔判別手段と、
    前記鼻孔判別手段が判別した左右鼻孔の位置を基準として眼を検出する眼検出手段と、
    前記顔位置判別手段が判別した顔の位置と、前記顔中心線判別手段が判別した顔の中心線とに基づいて、顔の向きを表すパラメータを算出するパラメータ算出手段と、
    前記パラメータ算出手段が算出したパラメータが所定の範囲内である場合、前記領域設定手段に鼻孔探索領域を設定させ、前記鼻孔候補抽出手段に鼻孔の候補を抽出させ、前記鼻孔判別手段に左右鼻孔を判別させ、前記眼検出手段に眼を検出させ、前記パラメータ算出手段が算出したパラメータが所定の範囲外である場合、前記領域設定手段に鼻孔探索領域を設定させず、前記鼻孔候補抽出手段に鼻孔の候補を抽出させず、前記鼻孔判別手段に左右鼻孔を判別させず、前記眼検出手段に眼を検出させないように、前記領域設定手段と前記鼻孔候補抽出手段と前記鼻孔判別手段と前記眼検出手段とを制御する制御手段と、を備える、
    ことを特徴とする眼検出装置。
  2. コンピュータを、
    対象者の顔の画像を記憶する顔画像記憶手段、
    前記顔画像記憶手段が記憶する顔の画像に基づいて、顔の中心線を判別する顔中心線判別手段、
    前記顔画像記憶手段が記憶する顔の画像に基づいて、顔の位置を判別する顔位置判別手段、
    前記顔位置判別手段が判別した顔の位置に基づいて、鼻孔探索領域を設定する領域設定手段、
    前記顔画像記憶手段が記憶する顔の画像に基づいて、前記領域設定手段が設定した鼻孔探索領域より鼻孔の候補を抽出する鼻孔候補抽出手段、
    前記鼻孔候補抽出手段が抽出した鼻孔の候補のうちで、前記顔中心線判別手段が判別した顔の中心線に対して対称である鼻孔の候補の組み合わせを左右鼻孔として判別する鼻孔判別手段、
    前記鼻孔判別手段が判別した左右鼻孔の位置を基準として眼を検出する眼検出手段、
    前記顔位置判別手段が判別した顔の位置と、前記顔中心線判別手段が判別した顔の中心線とに基づいて、顔の向きを表すパラメータを算出するパラメータ算出手段、
    前記パラメータ算出手段が算出したパラメータが所定の範囲内である場合、前記領域設定手段に鼻孔探索領域を設定させ、前記鼻孔候補抽出手段に鼻孔の候補を抽出させ、前記鼻孔判別手段に左右鼻孔を判別させ、前記眼検出手段に眼を検出させ、前記パラメータ算出手段が算出したパラメータが所定の範囲外である場合、前記領域設定手段に鼻孔探索領域を設定させず、前記鼻孔候補抽出手段に鼻孔の候補を抽出させず、前記鼻孔判別手段に左右鼻孔を判別させず、前記眼検出手段に眼を検出させないように、前記領域設定手段と前記鼻孔候補抽出手段と前記鼻孔判別手段と前記眼検出手段とを制御する制御手段、
    として機能させることを特徴とするプログラム。
JP2007066599A 2007-03-15 2007-03-15 眼検出装置及びプログラム Expired - Fee Related JP4895876B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007066599A JP4895876B2 (ja) 2007-03-15 2007-03-15 眼検出装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007066599A JP4895876B2 (ja) 2007-03-15 2007-03-15 眼検出装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2008224589A JP2008224589A (ja) 2008-09-25
JP4895876B2 true JP4895876B2 (ja) 2012-03-14

Family

ID=39843381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007066599A Expired - Fee Related JP4895876B2 (ja) 2007-03-15 2007-03-15 眼検出装置及びプログラム

Country Status (1)

Country Link
JP (1) JP4895876B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8879790B2 (en) 2010-02-22 2014-11-04 Toyota Jidosha Kabushiki Kaisha Image processing device and drowsiness assessment device
KR101726061B1 (ko) * 2015-07-28 2017-04-12 주식회사 포스코 판 위치 측정 장치, 판 쏠림 제어 장치 및 판 쏠림 계산 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3452685B2 (ja) * 1995-05-10 2003-09-29 三菱電機株式会社 顔画像の処理装置
JP3422183B2 (ja) * 1996-08-22 2003-06-30 トヨタ自動車株式会社 顔画像における目の検出方法
JPH1139469A (ja) * 1997-07-24 1999-02-12 Mitsubishi Electric Corp 顔画像処理装置
JP3926507B2 (ja) * 1999-05-28 2007-06-06 沖電気工業株式会社 目位置及び顔位置検出装置
JP4706362B2 (ja) * 2005-07-11 2011-06-22 トヨタ自動車株式会社 車両用ナビゲーションシステム

Also Published As

Publication number Publication date
JP2008224589A (ja) 2008-09-25

Similar Documents

Publication Publication Date Title
JP4309928B2 (ja) 瞼検出装置、瞼検出方法、及び、プログラム
JP4307496B2 (ja) 顔部位検出装置及びプログラム
JP5262243B2 (ja) 眼開閉判別装置、及びプログラム
JP4845698B2 (ja) 眼部検出装置、眼部検出方法及びプログラム
JP4739870B2 (ja) サングラス検出装置及び顔中心位置検出装置
JP3761059B2 (ja) ヒトの顔を検出する方法および装置、ならびに観察者トラッキングディスプレイ
JP4445454B2 (ja) 顔中心位置検出装置、顔中心位置検出方法、及び、プログラム
JP4912206B2 (ja) 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム
JP2005327009A (ja) 画像補正装置
JP2008192100A (ja) 瞼検出装置及びプログラム
JP2007272435A (ja) 顔特徴抽出装置及び顔特徴抽出方法
JP2000105819A (ja) 顔領域検出装置
JP4848301B2 (ja) 瞼検出装置及びプログラム
JP4895876B2 (ja) 眼検出装置及びプログラム
JP6098133B2 (ja) 顔構成部抽出装置、顔構成部抽出方法及びプログラム
JP2008046691A (ja) 顔画像処理装置及びコンピュータのプログラム
JP4878273B2 (ja) 眼鏡検出装置、画像処理装置、眼鏡検出方法、及び、コンピュータプログラム
JP4996943B2 (ja) 顔特徴点検出装置、顔特徴点検出方法及びプログラム
JP4848303B2 (ja) 眼開閉判別装置及びプログラム
JP3963789B2 (ja) 眼検出装置、眼検出プログラム、そのプログラムを記録する記録媒体及び眼検出方法
JP2008226189A (ja) 特徴点検出装置及びプログラム
JP4848302B2 (ja) 目検出装置、目検出方法およびプログラム
JP2001331795A (ja) 画像正規化装置及び方法
JP2008052509A (ja) 鼻孔検出装置及びプログラム
JP2005275916A (ja) 画像認識装置及び画像認識方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100225

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111213

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111220

R151 Written notification of patent or utility model registration

Ref document number: 4895876

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees