JP4996943B2 - 顔特徴点検出装置、顔特徴点検出方法及びプログラム - Google Patents

顔特徴点検出装置、顔特徴点検出方法及びプログラム Download PDF

Info

Publication number
JP4996943B2
JP4996943B2 JP2007043332A JP2007043332A JP4996943B2 JP 4996943 B2 JP4996943 B2 JP 4996943B2 JP 2007043332 A JP2007043332 A JP 2007043332A JP 2007043332 A JP2007043332 A JP 2007043332A JP 4996943 B2 JP4996943 B2 JP 4996943B2
Authority
JP
Japan
Prior art keywords
nostril
face
detected
eye
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007043332A
Other languages
English (en)
Other versions
JP2008209969A (ja
Inventor
智晴 鈴木
淳 足立
敬彦 吉永
重康 魚住
勇二 蜷川
健一 大上
健太郎 高橋
悟 中西
真一 小島
伸征 白木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Motor Corp
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Motor Corp, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2007043332A priority Critical patent/JP4996943B2/ja
Publication of JP2008209969A publication Critical patent/JP2008209969A/ja
Application granted granted Critical
Publication of JP4996943B2 publication Critical patent/JP4996943B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、顔画像から所定の特徴点を検出する顔特徴点検出装置、特徴点検出方法及びプログラムに関する。
顔画像に基づいて眼の状態を判定し、その人の視線の方向を計測したり、その人の覚醒度を推定する方法がある。眼の状態を判定するためには、顔画像の眼部を正確に検出することが必要である。また、車両の運転者の状態を判定するような場合には、リアルタイムに顔の特徴点を検出することが必要である。顔画像から眼を正確にしかも短時間で検出するために、瞼のような動きがない鼻孔を検出して、鼻孔の位置から眼部を探索する領域を限定する方法がある。
例えば、特許文献1には、鼻の検出精度の向上を図る技術が記載されている。特許文献1の技術では、運転者の顔を撮影し、撮影した顔の画像について、画像縦方向及び横方向にエッジ検出する。そして、検出した画像縦方向及び横方向のエッジの共通点から鼻の候補を検出すると共に、画像横方向のエッジから眼の候補を検出する。次いで、検出した鼻及び眼の候補を組み合わせ、これら組み合わせから眼鼻の候補として成立するものを選択し、選択した眼鼻の候補から、統計的処理によって鼻の座標を推定する。
また、顔中心位置を検出する技術として、例えば、特許文献2がある。特許文献2の技術は、顔の両端の範囲内で、横エッジを横方向に投影してヒストグラムを作成して、ヒストグラムのピークに基づいて顔の上及び下位置を推定する。そして、縦方向に白黒白と変化する箇所である横エッジを構成する各画素のx座標の平均値を顔中心位置として検出する。
特開2006−38689号公報 特開2006−65673号公報
従来の技術は、顔画像に鼻孔が2個検出可能な状態を前提にしている。撮像対象の顔が横を向いたときのように顔画像中に鼻孔が2個見えていない場合には、従来の方法では鼻孔を検出できない。また、鼻位置付近にほくろ等の鼻孔らしく見えるものが存在する場合、それを鼻孔と誤検出する可能性がある。誤検出した鼻孔にもとづいて眼を探索する結果、眼を検出できないおそれがある。
従来は、顔画像に対して予め設定された処理領域内全てにエッジ検出処理を実施して眼鼻候補を検出しているので、鼻候補検出で眼鏡の鼻当て部などを検出する場合がある。その後の処理で鼻候補選択が必要である。
本発明はこうした状況に鑑みてなされたものであり、その目的は、顔が正面を向いていない場合でも、鼻孔又は眼などの顔の特徴点を効率よく正確に検出できる顔特徴点検出装置を提供することである。
上記目的を達成するため、本発明の第1の観点に係る顔特徴点検出装置は、顔画像を取得する画像取得手段と、前記顔画像から顔中心位置を検出する顔中心検出手段と、前記顔画像から鼻孔候補を検出し、該鼻孔候補から鼻孔を検出する鼻孔検出手段と、前記顔中心検出手段で検出した顔中心位置が前記顔画像のほぼ中央であるときに、前記鼻孔検出手段で検出した鼻孔の位置を基準鼻孔位置として記憶する基準鼻孔位置設定手段と、前記基準鼻孔位置が設定されている場合に、前記顔中心検出手段で検出した顔中心位置が前記顔画像のほぼ中央の所定の範囲にない場合、前記鼻孔検出手段で検出する鼻孔候補のうち、水平方向の座標が前記顔中心位置に、垂直方向の座標が前記基準鼻孔位置に最も近い鼻孔候補を鼻孔と判定する鼻孔判定手段と、を備えることを特徴とする。
好ましくは、前記鼻孔検出手段で検出した鼻孔の位置にもとづいて、前記顔画像の中に眼探索領域を設定する眼探索領域設定手段と、前記眼探索領域設定手段で設定した前記眼探索領域内で、眼を探索する眼部探索手段と、を備え、前記顔中心検出手段で検出した顔中心位置と前記顔画像の中央との偏差が所定の値以上の場合に、前記眼探索領域設定手段は、片方の眼のみを探索する眼探索領域を設定し、前記眼部探索手段は、片方の眼のみを探索する、ことを特徴とする。
好ましくは、前記鼻孔判定手段は、前記顔中心位置の近傍に鼻孔が1つしか検出されない場合でも、その候補を鼻孔とすることを特徴とする。
また、前記鼻孔検出手段は、前記顔画像に対する顔中心位置に応じて鼻孔を探索する鼻孔探索領域の位置及び/又は幅を設定し、前記鼻孔探索領域で鼻孔を検出してもよい。
本発明の第の観点に係る顔特徴点検出方法は、顔画像から顔中心位置を検出する顔中心検出ステップと、前記顔画像から鼻孔候補を検出し、該鼻孔候補から鼻孔を検出する鼻孔検出ステップと、前記顔中心検出ステップで検出した顔中心位置が前記顔画像のほぼ中央であるときに、前記鼻孔検出ステップで検出した鼻孔の位置を基準鼻孔位置として記憶する基準鼻孔位置設定ステップと、前記基準鼻孔位置が設定されている場合に、前記顔中心検出ステップで検出した顔中心位置が前記顔画像のほぼ中央でない場合、前記鼻孔検出ステップで検出する鼻孔候補のうち、水平方向の座標が前記顔中心位置に、垂直方向の座標が前記基準鼻孔位置に最も近い鼻孔候補を鼻孔と判定する鼻孔判定ステップと、を備えることを特徴とする。
本発明の第の観点に係るプログラムは、コンピュータを、顔画像から顔中心位置を検出する顔中心検出手段と、前記顔画像から鼻孔候補を検出し、該鼻孔候補から鼻孔を検出する鼻孔検出手段と、前記顔中心検出手段で検出した顔中心位置が前記顔画像のほぼ中央であるときに、前記鼻孔検出手段で検出した鼻孔の位置を基準鼻孔位置として記憶する基準鼻孔位置設定手段と、前記基準鼻孔位置が設定されている場合に、前記顔中心検出手段で検出した顔中心位置が前記顔画像のほぼ中央でない場合、前記鼻孔検出手段で検出する鼻孔候補のうち、水平方向の座標が前記顔中心位置に、垂直方向の座標が前記基準鼻孔位置に最も近い鼻孔候補を鼻孔と判定する鼻孔判定手段、として機能させることを特徴とする。
本発明の顔特徴点検出装置によれば、顔向き角度が変化しても正しく鼻孔を検出できる。また、片方の鼻孔しか見えない場合でも正しく鼻孔を検出できる。
以下、この発明の実施の形態について図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付し、その説明は繰り返さない。図1は、本発明の一実施の形態に係る眼部検出装置の構成を示すブロック図である。本実施形態の眼部検出装置1は、運転者の顔を撮影して顔画像を生成するカメラ2と、運転者の顔を照明する照明光源3と、運転者の眼部を検出するコンピュータ10と、コンピュータ10に接続された表示装置4とを備える。なお、表示装置4は必須の構成要素ではなく、顔画像や検出結果及び判定結果等を表示する必要がなければ特に設ける必要はない。
カメラ2は、例えば、CCD(Charge Coupled Device)などでレンズの結像を電気信号に変換し、画素ごとにデジタル化した画像データを出力する。カメラ2は、例えば、運転者の顔の階調画像を取得する。カメラ2によって生成される画像データは、運転者の顔だけでなく、その背景なども含まれている。
表示装置4は、LCD(Liquid Crystal Display)又はCRT(Cathode Ray Tube)などから構成され、カメラ2で撮影された顔画像から生成された二値化画像などを表示する。
コンピュータ10は、カメラ2により取得された画像データを処理して顔の左右両端位置、上下位置を検出する。この検出した左右両端位置、上下位置に基づいて、顔中心位置を検出する。顔中心位置にもとづいて鼻孔探索領域を設定し、鼻孔を検出する。そして、鼻孔の位置に基づいて眼部を探索する領域(眼探索領域)を設定し、眼探索領域における上下瞼を検出する。
図2は、本発明の一実施の形態である眼部検出装置1の論理的な構成を示すブロック図である。眼部検出装置1は、カメラ2、画像入力部21、顔中心検出部22、鼻孔探索領域設定部23、鼻孔検出部24、基準鼻孔位置設定部25、鼻孔判定部26、眼探索領域設定部27、上下瞼検出部28、開閉眼判定部29、表示処理部30、データ保持部5、表示装置4などから構成される。データ保持部5には、顔画像データ51、顔中心データ52、鼻孔探索領域データ53、基準鼻孔位置データ54、鼻孔データ55、眼探索領域データ56、瞼データ57が記憶保持される。眼部検出装置1は、顔画像から眼部の上瞼と下瞼のペアを検出する。
図3は、眼部検出装置1の物理的な構成の一例を示すブロック図である。コンピュータ10は、図3に示すように、送受信部16と、画像メモリ12と、外部記憶部13と、制御部14と、主記憶部15と、表示制御装置17と、光源制御装置18と、を備える。画像メモリ12、外部記憶部13、主記憶部15、送受信部16、表示制御装置17及び光源制御装置18はいずれも内部バス11を介して制御部14に接続されている。
制御部14はCPU(Central Processing Unit)等から構成され、外部記憶部13に記憶されているプログラムに従って、画像入力部21、顔中心検出部22、鼻孔探索領域設定部23、鼻孔検出部24、基準鼻孔位置設定部25、鼻孔判定部26、眼探索領域設定部27、上下瞼検出部28、開閉眼判定部29及び表示処理部30の処理を実行する。画像入力部21、顔中心検出部22、鼻孔探索領域設定部23、鼻孔検出部24、基準鼻孔位置設定部25、鼻孔判定部26、眼探索領域設定部27、上下瞼検出部28、開閉眼判定部29及び表示処理部30は、制御部14とその上で実行されるプログラムで実現される。
主記憶部15はRAM(Random-Access Memory)等から構成され、制御部14の作業領域として用いられる。データ保持部5は、画像メモリ12及び主記憶部15の一部に記憶領域の構造体として記憶保持される。
外部記憶部13は、フラッシュメモリ、ハードディスク、DVD(Digital Versatile Disc)、DVD−RAM(Digital Versatile Disc Random-Access Memory)、DVD−RW(Digital Versatile Disc ReWritable)等の不揮発性メモリから構成され、前記の処理を制御部14に行わせるためのプログラムを予め記憶し、また、制御部14の指示に従って、このプログラムのデータを制御部14に供給し、制御部14から供給されたデータを記憶する。例えば、時系列画像データは、外部記憶部13に格納されている場合がある。
送受信部16は、モデム又は網終端装置、及びそれらと接続するシリアルインタフェース又はLAN(Local Area Network)インタフェースあるいはNTSCインタフェース等から構成されている。制御部14は、送受信部16を介して、カメラ2から画像データを入力する。画像メモリ12は、カメラ2により生成され、送受信部16を経由して入力された画像データを記憶する。
表示制御装置17は、制御部14の制御下に、表示装置4を制御する。
光源制御装置18は、照明光源3の点灯・消灯を制御する。
制御部14は、外部記憶部13に格納されているプログラムを実行することにより、カメラ2により取得された画像データを処理して顔の中心位置を検出し、この検出した顔中心位置に基づいて鼻孔探索領域を設定し、鼻孔を検出する。そして、検出した鼻孔に基づいて眼探索領域を設定し、眼探索領域における上下瞼を検出して、開閉眼を判定する。
図2に戻って、眼部検出装置1の各部の作用を説明する。カメラ2は顔の画像を撮像する。画像入力部21は、一定時間間隔でカメラ2から時系列の画像データを入力し、データ保持部5に顔画像データ51として記憶する。
顔中心検出部22は、顔画像データ51から顔領域を抽出し、顔の向きすなわち顔中心位置を検出する。顔の領域を抽出するには、例えば、顔画像から顔輪郭のエッジを算出する。あるいは、顔輪郭のパターンマッチングによって顔輪郭を抽出してもよい。顔輪郭の範囲で、上から眉のエッジを、下から口下のエッジを検出することによって、顔の領域を設定する。検出した口下の位置と顔領域を、顔中心データ52の一部として、データ保持部5に記憶する。
図4Aないし図4Dは、エッジ算出用の固定データの例を説明する図である。外部記憶部13は、図4A、図4Bに示すような、水平方向エッジ検出用と垂直方向エッジ検出用ソーベルフィルタのオペレータを格納する。本発明では、画像中で水平方向に輝度が明から暗、又は暗から明に変化する点の連なりを水平方向エッジという。水平方向エッジの点は概ね縦方向に連続するので、縦エッジともいう。また、垂直方向に輝度が明から暗、又は暗から明に変化する点の連なりを垂直方向エッジという。垂直方向エッジの点は概ね横方向に連続するので、横エッジともいう。
図4Aに示す水平方向エッジ(縦エッジ)検出用ソーベルフィルタは、図4Cに示すような縦方向に連続する濃淡差の境界(エッジ)を抽出するためのオペレータである。図4Bに示す垂直方向エッジ(横エッジ)検出用のソーベルフィルタは、図4Dに示すような横方向に連続する濃淡差の境界(エッジ)を抽出するためのオペレータである。
顔中心位置を検出するには、まず、顔左右位置、つまり運転者の顔の両端位置を検出する。例えば、制御部14は、顔画像の縦エッジを計算し、その縦エッジを縦方向に投影してヒストグラムを作成する。このとき、顔の両端部分にピークが現れるので、そのピークを顔の両端、すなわち左右位置として検出する。なお、ヒストグラム作成時には、時間差分や長さによる重み付けを行い、ノイズ成分(ヘッドレストや窓枠などの背景)を除去するとよい。
次に、制御部14は、顔の両端の範囲内で、横エッジを横方向に投影してヒストグラムを作成する。このヒストグラムでは、眉、眼、口に相当する部分にピークが生じる。そこで、ヒストグラムのピークに基づいて顔の上及び下位置を判定する。
なお、顔の左右位置及び上下位置の検出方法は、上記の例に限定されるものではなく、その他テンプレートマッチングや距離画像を用いる手法であってもよい。
制御部14は、顔画像データ51に対して、所定の閾値を用いて、縦方向に白→黒→白と変化する箇所である横エッジ(白黒白エッジ)を検出する。ここで、白とは画素の輝度が所定の閾値より上のものであり、黒は画素の輝度が所定の閾値より下のものである。白黒白エッジとは、単に白と黒の境界となるエッジではなく、白→黒→白と変化し、所定の幅を有する横エッジをいう。
画像中の顔の縦幅が例えば60ピクセル程度の場合、縦方向に2〜4ピクセル幅の黒い画素、つまり輝度が低い画素を検出すればよい。これにより、1ピクセル幅の黒い画素を無視するのでノイズ成分を除去することができる。また、検出幅を4ピクセル以下に限定することで、顔部品(眉、眼、鼻、口)に限定してエッジを検出することができる。なお、縦方向の検出幅は、上記の2〜4ピクセル幅に限定されるものではない。顔の縦幅が60ピクセルから異なるときは、それに応じて変更すればよい。すなわち、顔の縦幅に応じて縦方向の検出幅を変えればよい。
さらに、制御部14は、検出した顔の左右位置から顔幅を算出し、白黒白エッジのうち横方向の長さが所定値以上(例えば、顔幅の10%以上)の白黒白エッジである白黒白長さエッジを検出する。これにより、ノイズによる短い横エッジを除去することができる。ここで、「10%以上」としたのは、顔画像の統計的データによると、顔幅に対する顔部品の幅は10%以上になるため、10%未満は顔部品ではないと考えられるからである。なお、本実施形態では「10%」としたが、横方向のノイズを除去できるものであれば、この数値に限定されるものでない。以下では、白黒白長さエッジを単に横エッジとして説明する。
制御部14は、横エッジを構成する各画素のx座標の平均値を算出して、その平均値を顔中心位置iFaceCenterとして検出する。制御部14は、横エッジの画像全体を走査して、横エッジを構成する画素を検出したときはそのx座標を加算してiXsumを求めると共に、その加算した回数をiCountとする。横エッジの存在する画素のx座標の平均値である顔中心位置iFaceCenterを、次の式で算出する。
iFaceCenter = iXsum/iCount
眉、眼、鼻、口の顔部品は左右対称であるため、横エッジが存在する画素のx座標の平均値を、顔の中心位置とみなすことできる。同じように、横エッジが存在する画素のy座標の平均値を顔中心のy座標と定義できる。
以上のように、顔画像から所定範囲内の幅を有する横エッジを検出し、横エッジの座標の平均値を顔中心位置として検出することにより、非常に多くのテンプレートを予め用意してマッチングを行うことで顔中心位置を検出する場合に比べて、演算負担が小さく済み、高速かつ確実に顔中心位置を検出することができる。
撮影対象の顔がカメラ2に対して正面を向いていないときは、顔中心位置を正確に検出することができない。その理由は、顔が横向きの場合、顔が向いた方向の眉や眼に相当する横エッジが短くなってしまい、その結果、横エッジのx座標の平均値であるiFaceCenterの値が、実際の顔中心位置とずれてしまうからである。
そこで、単純なx座標平均値に代えて、重み付けx座標平均値を用いる。重み付けx座標平均値算の重み係数としては、例えば、次の式で表されるiWeightを演算する。
iWeight = 1+3・|(x−Xmax/2)/(Xmax/2)|
ここで、Xmaxはx座標の最大値、記号|X|はXの絶対値を表す。
重み係数iWeightは、x座標が画像中心位置(x=X_MAX/2)にあるときは最小値1になり、x座標が画像の両端(x=0又はX_MAX)にあるときは最大値4になる。つまり、重み係数iWeightは、x座標が画像中心位置のときに最小値(極小値)をとり、画像中心位置から両端に移行するに従って単調増加する係数である。
なお、重み係数iWeightの最大値4は一例であり、試験をして最適な値に調整してもよい。重み係数iWeightは、画像中心位置から両端に移行するに従って単調増加する係数であればよい。
この重み係数を用いて横エッジのx座標の重み付けを行えば、顔の両端側の横エッジが重視されるので、顔中心位置を修正することができる。iXsumに重み付けされたx座標を加算し(iXsum=iXsum+x・iWeight)、iCountに重み係数iWeightを加算して(iCount=iCount+iWeight)、前述のiFaceCenterを計算する。
このように、制御部14は、画像中心位置から画像両端側に向かうに従って横エッジの重みを増大させながら、横エッジの重み付けされたx座標の平均値を求める。この結果、顔が横を向いて、眉や眼に相当する横エッジが短くなってしまった場合でも、その短い横エッジに重みをおいてx座標の平均値を求めることによって、正確に顔中心位置を検出することができる。
顔中心のy座標は、横エッジのy座標の平均とした場合、顔の向きが縦方向に変化しても、顔に対する位置は殆ど変化しないので、重み付け平均値としなくてもよい。
図5は、顔の円筒モデルを表す。図5(a)は、顔の正面やや下から見た円筒モデル、図5(b)は、円筒モデルを上から見た平面図である。撮影された顔画像を図5に示すような円筒モデルとして考える。顔を円筒として捉えると、顔画像における顔中心の位置によって、顔の向き(角度)を判定できる。図5(b)では、顔が角度θだけ横を向いたときの鼻の位置を破線で示す。
顔が正面を向いているときに、顔中心位置に対して鼻孔探索領域を設定することができる。顔を円筒モデルとしてとらえた場合、正面の向きで設定された鼻孔探索領域を顔の向きに応じて変換することができる。
図6は、顔が正面を向いている場合の鼻孔探索領域Nを模式的に示す。図6には、顔中心位置が縦の中心線Lvと中心位置の高さを示す線Lhで示される。また、検出された鼻孔に対する眼探索領域Eを示す。顔が正面を向いている場合に、顔中心位置に対して鼻孔が存在する範囲を統計的に求めることによって、顔中心位置に対する鼻孔探索領域Nを設定することができる。顔中心位置のy座標は便宜的なものであって、確実に算出できればどのように定義しても構わない。定義した顔中心に対して鼻孔探索領域Nが決定できればよい。
図2にもどって、顔中心検出部22は、顔中心位置を算出して、顔中心データ52に記憶する。鼻孔探索領域設定部23は、顔中心位置に対して鼻孔探索領域Nを設定し、鼻孔探索領域データ53としてデータ保持部5に記憶する。
鼻孔検出部24は、鼻孔探索領域Nの範囲で、ほぼ丸い形の暗所を探索して、鼻孔を検出する。例えば、鼻孔探索領域Nの範囲で、水平方向エッジ及び垂直方向エッジを検出する。ここで、左から右に向かって明から暗に変化する点を縦マイナスエッジ、左から右に向かって暗から明に変化する点を縦プラスエッジとする。また、上から下に向かって明から暗に変化する点を横マイナスエッジ、上から下に向かって暗から明に変化する点を横プラスエッジとする。
鼻孔の1つは、顔画像に向かって、縦マイナスエッジが左に、縦プラスエッジが右に、横マイナスエッジが上に、横プラスエッジが下に現れる。それら4種類のエッジがそれぞれ、外側の明領域に向かって中央がふくらむ凸形状であって、エッジの両端が上述の順序で重なる場合に、鼻孔の1つの候補とする。
顔が正面を向いている場合は、鼻孔は2つ見えるので、2つの隣り合ったほぼ丸い形の暗所を探索して、鼻孔を検出する。例えば、4種類のエッジの集合が横にならんで2つ隣り合って検出された場合に、それらを鼻孔候補とする。鼻孔検出部24は、検出した鼻孔の位置を鼻孔データ55として、データ保持部5に記憶する。
基準鼻孔位置設定部25は、顔が正面を向いているとき、すなわち、顔中心位置が顔領域の中央の所定の範囲にあるときに、顔領域に対して検出した鼻孔の位置を基準鼻孔位置として設定する。そして、基準鼻孔位置を基準鼻孔位置データ54に記憶する。図6では、基準鼻孔位置の高さを破線Hで示す。
例えば、基準鼻孔位置は次のように設定する。図7は、鼻孔位置の座標と瞬き回数の関係を表したグラフである。図7はx座標を表す。y座標についても同様のグラフが得られる。顔向き正面時の瞬き回数をN、瞬きしたときの鼻孔位置を(Xn、Yn)、閾値係数をαとする。瞬き回数がα×Nである鼻孔位置を(Xn_min、Yn_min)、(Xn_max、Yn_max)として、基準鼻孔位置(Xn_n、Yn_n)を、例えば、次の式で定義する。
Xn_n = 平均(Xn_max − Xn_min)
Yn_n = 平均(Yn_max − Yn_min)
又は、瞬き回数が最大である鼻孔位置を基準鼻孔位置としてもよい。統計的に、正面以外の方向を向いているときには瞬きが少なく、正面を向いているときに瞬きが最も多くなるという運転者の特性を利用している。
鼻孔判定部26は、鼻孔の候補が複数検出された場合に、最も鼻孔らしい候補を鼻孔と判定する。顔が正面を向いている場合には、顔中心位置に最も近く、左右均等に配置する候補を鼻孔と判定する。
眼探索領域設定部27は、鼻孔の位置に基づいて顔領域の中に眼探索領域Eを設定する。鼻孔に対して眼が必ず検出できる最小の範囲を統計的に調査して、眼探索領域Eとする。例えば、辺の長さを顔領域の縦又は横の長さに所定の比率を乗じた長さとする長方形を、鼻孔の上に所定の間隔をあけて設置して、眼探索領域Eとすることができる。眼探索領域設定部27は、設定した眼探索領域Eを、眼探索領域データ56として、データ保持部5に記憶する。
図6に、眼探索領域Eの例を示す。図6で鼻孔探索領域Nの上に配置された2つの長方形が眼探索領域Eを表す。顔が正面を向いている場合は、眼は顔中心に対してほぼ左右対称にあると想定されるので、眼探索領域Eを顔中心に対して左右対称の位置に設定する。図6では、顔中心からの横方向距離をa、1つの眼探索領域Eの幅をbで表す。
上下瞼検出部28は、上下の瞼を眼探索領域Eの中で探索する。例えば図4Bに示すフィルタを用いて、垂直方向エッジを眼探索領域Eで走査して算出する。多くの場合、眼探索領域Eを下から走査して、最初に検出される所定の長さ以上の横プラスエッジ(上から下に向かって暗から明に変化するエッジ)を下瞼とすることができる。被写体が眼鏡をかけている場合は、レンズの枠が検出されることがある。しかし、レンズの枠は眼や眉より細く、上下のエッジがほぼ平行に現れるので、容易に判断できる。
上下瞼検出部28は、下瞼の上の領域で上瞼を検出する。例えば図4Bに示すフィルタを用いて、下瞼の上を下から上に走査して、最初に検出される所定の長さ以上の横マイナスエッジ(上から下に向かって明から暗に変化するエッジ)を上瞼とする。
下瞼は、鼻孔に基づいて設定された眼探索領域Eを下から走査して検出されるので、確定している。下瞼の上に最初に検出される横マイナスエッジは、虹彩の上エッジを除けば、上瞼しかない。所定の長さ未満のエッジを棄却すれば、下から探索して最初の横マイナスエッジを上瞼とすることができる。上下瞼検出部28は、検出した左右の上下瞼を瞼データ57としてデータ保持部5に記憶する。
開閉眼判定部29は、上瞼と下瞼の対から眼の開いている度合いを計算する。開いている度合い(開度)は、例えば、上瞼の中心と下瞼の中心の距離である。
上下瞼の対とその開度を時系列に対応づけて、開度の変化が瞬きと判定される場合、閉眼とは判定しない。例えば、開度が所定の値以上の瞼候補が、所定のフレーム数以下の画像において、開度が小さくなり、再び開度が大きくなった場合に瞬きと判定する。
顔中心検出部22で、顔中心位置が顔領域の中央の所定の領域からはずれて検出された場合、すなわち顔が正面を向いていないと判定された場合の各部の処理を説明する。鼻孔探索領域設定部23は、例えば、図5の円筒モデルに従って、顔中心位置の角度を算出し、その角度に合わせて、鼻孔探索領域Nを変換する。鼻孔探索領域設定部23は、顔中心位置に従って変換した鼻孔探索領域Nを鼻孔探索領域データ53としてデータ保持部5に記憶する。
図8は、顔が正面を向いていない場合の鼻孔探索領域Nの例を模式的に示す。図8は、図5(b)の顔が角度θだけ横を向いたときの状況に対応している。顔中心位置は縦の中心線Lvと高さを示す線Lhの交点で示される。顔向き角度をθとして、図6の鼻孔探索領域Nを図5の円筒モデルに従って変換すると、図8の鼻孔探索領域Nの幅c’は次の式で表される。
c’=γ×c×cosθ
ここで、γは補正係数である。また、顔幅をwとすると、顔中心線は(w/2)・sinθほど顔正面から偏るので、鼻孔探索領域Nの右端位置は、(w/2)・sinθ−c’/2となる。鼻孔探索領域Nの縦hもh’に変換されるべきだが、変化は小さいので正面の場合と同じとしてもよい。
顔の円筒モデルの中心軸と、カメラ2の光軸が直交していない場合、顔が横を向く(円筒が中心軸のまわりに回転する)と、顔中心の高さが変化するので、それに合わせて鼻孔領域の高さを変換する。顔の仰角が変化した(円筒モデルの中心軸が傾いた)場合も、顔中心位置と顔領域の傾きから仰角を推定して、同様に鼻孔探索領域Nを変換する。正面を向いている場合の鼻孔探索領域Nを長方形とすると、顔向きが変化した場合の鼻孔探索領域Nは台形(厳密には不等辺四角形)に変換されるべきであるが、鼻孔検出処理を簡易にするために、その領域を含む長方形としてよい。
ただし、鼻孔探索領域設定部23は、眼探索領域Eが顔領域の範囲、すなわち顔画像の処理範囲に収まるように、鼻孔探索領域Nの上限を設定する。眼探索領域Eが顔領域の外にかかった場合、上下瞼の検出に無駄な領域を走査することになり、誤った候補を検出する可能性がある。鼻孔探索領域Nの上限を限定することにより、そのような誤検出の可能性をできるだけ排除し、上下瞼検出処理の効率を高めることができる。
鼻孔検出部24は、変換された鼻孔探索領域Nを走査して、鼻孔を検出する。顔が横を向いている場合、鼻孔は1つしか見えないことがある。鼻孔が1つしか検出されない場合でも、顔の向き(顔中心位置)を考慮して妥当であると判断できれば、それを鼻孔候補とする。また、顔の向きが変わると鼻孔の形状が変化する。特に顔が下を向いた場合には、鼻孔は扁平になる。顔向きによって鼻孔の形状が変化することを考慮して、顔向きに従って鼻孔の検出条件を調節してもよい。
鼻孔判定部26は、すでに設定されている基準鼻孔位置と顔中心位置にもとづいて、鼻孔候補の中から最も鼻孔らしい候補を鼻孔として決定する。基準鼻孔位置を顔の向き(顔中心位置)に従って変換した位置に、鼻孔候補が検出されていれば、それを鼻孔とする。基準鼻孔位置を変換した位置に、鼻孔候補が検出されていない場合、その位置に最も近い鼻孔候補を鼻孔と判定する。鼻孔が1つしか検出されない場合でも、顔の向き(顔中心位置)を考慮して妥当であると判断できれば、基準鼻孔位置を変換した位置に最も近い候補を鼻孔とする。
基準鼻孔位置の高さは、顔向きが変化してもあまり変わらないので、基準鼻孔位置を変換した位置でなく、基準鼻孔位置の高さと縦の中心線Lvとの交点に最も近い候補を鼻孔としてもよい。図8では、基準鼻孔位置すなわち前回正面時の鼻孔位置の高さを破線Hで示す。図8では、基準鼻孔位置を変換した高さは、破線Hより少し低い位置になる。
眼探索領域設定部27は、鼻孔位置と顔中心位置から、例えば、図5の円筒モデルに従って、眼探索領域Eを変換する。図7を参照して、顔向き角度をθとして、図6の鼻孔探索領域Nを図5の円筒モデルに従って変換すると、図8の眼探索領域Eは次の式で表される。
a’=α×a×cosθ
b’=β×b×cosθ
ここで、α、βは補正係数である。また、眼探索領域Eの右端位置は、(w/2)・sinθ−a’/2−b’/2と表される。眼探索領域設定部27は、変換した眼探索領域Eを眼探索領域データ56としてデータ保持部5に記憶する。
例えば図8に示すように、顔向きによっては眼探索領域Eは片側しか現れない。角度θの絶対値が所定の値より大きい場合に、眼探索領域Eを片側のみとする。また、眼探索領域Eも顔向きが変化した場合に台形(一般には不等辺四角形)に変換されるべきであるが、上下瞼検出処理を簡易にするために、その領域を含む長方形としてよい。
上下瞼検出部28は、変換された眼探索領域Eを走査して、上下の瞼を検出する。眼探索領域Eが片側しか設定されていない場合は、その片側の上下瞼のみを検出する。その場合、開閉眼判定部29は、片方の眼で開閉眼を判定する。
開閉眼判定部29は、例えば、所定のフレーム数以上、連続した画像において、瞼の開度が所定の値よりも小さい場合に閉眼と判定する。瞼の開度を他の処理に利用することができる。例えば、閉眼と判定された場合に、居眠りと判定することができる。また、眼の開度を顔の向きに加算して、視線の方向を推定することができる。
表示処理部30は、検出された結果の上下瞼を顔の輪郭等とともに表示装置4に表示する。また、上下瞼の開閉度や、居眠りと判定された場合に音響等を含む警告表示を行ってもよい。また、推定された視線の方向を表示してもよい。
つぎに、眼部検出装置1の動作について説明する。なお、眼部検出装置1の動作は、制御部14がカメラ2、送受信部16、画像メモリ12、外部記憶部13及び主記憶部15と協働して行う。
図9は、眼部検出装置1の動作の一例を示すフローチャートである。制御部14は送受信部16を介してカメラ2から時系列の顔画像を入力する(ステップS1)。そして、前述のとおり、顔中心位置を検出する(ステップS2)。
図10は、ステップS2における顔中心検出処理の動作の一例を示すフローチャートである。制御部14は、データ保持部5から顔画像データ51を読み出し、この顔画像の画素値を横方向(水平方向)に微分する(ステップA1)。具体的には、各画素の輝度とその画素に隣接する画素の輝度との差分を算出して、エッジ部抽出画像を生成する。エッジ部抽出画像において、背景の縦エッジと顔画像の縦エッジのみが抽出される。これらの縦エッジは、運転者の顔が動いていない場合でも、抽出される。
なお、エッジ部抽出画像の画素値(輝度の微分値)を縦方向(垂直方向)に投影して得られるヒストグラムでは、すべてのエッジ部の強度がほぼ等しいので、顔の両端位置を特定することはできない。
制御部14は、顔画像の画素値を時間で微分する(ステップA2)。具体的には、ある時刻における各画素の輝度とその直前の画像の各画素の輝度との差分を算出して、動く対象のみを強調した画素値時間微分画像を生成する。
運転者は運転中に完全に静止するのではないので、画素値時間微分画像では、動いているものの輪郭、つまり運転者の顔の輪郭が太く検出される。これに対して、窓、ピラー、ヘッドレスト等の背景は全く動かないため、ほとんど残らない。但し、画素値時間分画像では、運転者がよく動く場合には顔の輪郭が検出されるが、運転者がほとんど動かない場合にはほとんど検出されない。そこで、次の処理が必要となる。
制御部14は、エッジ部抽出画像と画素値時間微分画像とを合成して第1の合成画像を生成し(ステップA3)、第1の合成画像の画素値(輝度)を縦方向に投影してヒストグラムを生成する。第1の合成画像は、エッジ部抽出画像と画素値時間微分画像とが合成された画像である。よって、運転者が動いていない場合でも動いている場合でも、第1の合成画像には、運転者の顔の縦エッジ又は輪郭が現れる。
なお、エッジ部抽出画像の画素値と画素値時間微分画像の画素値をそれぞれ縦方向に投影して2つのヒストグラムを生成し、この2つのヒストグラムを合計してもよい。そして、第1の合成画像のヒストグラムからピークを検出する(ステップA4)。
制御部14は、第1の合成画像のヒストグラムから検出された複数のピークの中から、人の顔幅に最も対応するピーク間隔となる2つのピークを検出し、この2つのピークを顔の左右位置として検出する(ステップA5)。
なお、顔左右位置検出ルーチンは、上記の例に限定されるものではなく、例えば次のようなものでもよい。
例えば、制御部14は、ステップA2において、画素値の時間微分演算の対象として顔画像を用いたが、その代わりにエッジ部抽出画像を用いてもよい。つまり、ステップA2では、エッジ部抽出画像の画素値(輝度)を時間で微分して、エッジ部時間微分画像を生成してもよい。これにより、エッジ部抽出画像内の複数の縦エッジのうち、窓、ヘッドレスト等の全く動かない背景の縦エッジを消去して動きのある顔画像の中の縦エッジのみを抽出できる。
ステップA3以降は、上記と同様である。なお、ステップA3及びA4では、制御部14は、上記と同様に、エッジ部抽出画像とエッジ部時間微分画像とを合成して第2の合成画像を生成し、第2の合成画像の画素値(輝度)を縦方向に投影してヒストグラムを生成し、このヒストグラムからピークを検出すればよい。
次に、制御部14は、顔の両端の範囲内で、横エッジを横方向に投影してヒストグラムを作成する。このヒストグラムでは、眉、眼、口に相当する部分にピークが生じている。そこで、ヒストグラムのピークに基づいて顔の上及び下位置を検出する(ステップA6)。なお、顔の両端の範囲内で、垂直方向エッジを上から探索して、眉上のエッジを検出し、垂直方向エッジを下から探索して、口下のエッジを検出してもよい。
顔中心検出部22で説明したように、白→黒→白の横エッジの座標の平均値を算出して、顔中心位置とする(ステップA7)。なお、顔の左右位置及び上下位置の検出方法は、上記の例に限定されるものではなく、その他テンプレートマッチングや距離画像を用いる手法であってもよい。
図9のフローチャートに戻って、基準鼻孔位置をまだ設定していない場合(ステップS3;No)、顔向きが正面であるかどうかを判断する(ステップS4)。すなわち、顔中心位置が顔領域の中央の所定の範囲にある場合は正面、その範囲外にある場合は正面でないと判断する。顔向きが正面でない場合は(ステップS4;No)、顔画像入力(ステップS1)に戻って顔中心検出を繰り返す。
顔向きが正面の場合(ステップS4;Yes)、鼻孔探索領域Nを設定する(ステップS5)。前述のとおり、例えば、顔中心位置と統計的データに基づいた比率で、顔領域の中に鼻孔探索領域Nを設定する。
制御部14は、設定した鼻孔探索領域Nの範囲で、鼻孔を検出する(ステップS6)。図11は、ステップS6の鼻孔検出処理の動作の一例を示すフローチャートである。
制御部14は、顔領域の範囲における画素の平均輝度を算出し、その平均輝度から明暗を識別するための明暗閾値を算出する(ステップB1)。ついで、鼻孔探索領域Nの範囲の画素から、明暗閾値より低い(暗い)輝度値の画素を探索する。そして、連続する低輝度画素群の丸らしい尤度を算出し、鼻孔探索領域Nにおける尤度マップを作成する(ステップB2)。
連続する低輝度画素群の丸らしい尤度は、例えば、前述の低輝度画素群の周囲の4種類のエッジについて、エッジの長さに対する、エッジの中点と重心の距離を用いることができる。又は、例えば、円に近いほど、周長に対する面積が大きいことを利用して、低輝度画素群の境界を構成する画素の数に対する、低輝度画素群内の画素数としてもよい。
制御部14は、尤度マップの中で最大尤度から、尤度の閾値を算出する(ステップB3)。尤度閾値を超える低輝度画素群を鼻孔候補とする(ステップB4)。顔向きが正面の場合
(図9のステップS4;Yes)、距離が近い候補同士をペアにしておいてもよい。
制御部14は、鼻孔候補のうち、最も尤度が高い候補を鼻孔と決定する(ステップB5)。顔向きが正面の場合は、鼻孔は2個ならんで検出されるので、距離が近い候補同士のペアで判定してよい。鼻孔候補のうち、鼻孔探索領域Nの中で出現度の高い位置に最も近い候補を鼻孔と判定してもよい。例えば、口下位置に最も近い候補を鼻孔と判定してもよい。
図9のフローチャートに戻って、鼻孔位置に基づいて眼探索領域Eを設定する(ステップS7)。前述のとおり、顔向きが正面の場合は、顔中心位置に対して所定の位置に眼探索領域Eを設定する。顔向きが正面でない場合は、顔中心位置と顔領域から推定される顔の向きに対して、眼探索領域Eを変換して設定する。
制御部14は、眼探索領域Eを走査して上下瞼を検出する(ステップS8)。そして、時系列の顔画像データ51から瞬きを検出する(ステップS9)。瞬きを検出できた上下瞼の位置を眼位置として決定する(ステップS10)。眼位置が決定できたので、鼻孔検出処理(ステップS6)で検出した鼻孔の位置は正しいと判断できる。その鼻孔位置を記憶する(ステップS11)。
例えば、画素単位で区分できる鼻孔位置ごとに検出した瞬きの回数をカウントし、瞬き回数が閾値以上の場合に(ステップS12;Yes)、基準鼻孔位置を設定する(ステップS13)。顔向きが正面の場合に、顔特徴点検出処理を繰り返せば、瞬き回数が閾値以上の鼻孔位置が検出できるので、基準鼻孔位置を決定できる。瞬き回数が閾値以上でない場合には(ステップS12;No)、基準鼻孔位置を設定しない。
基準鼻孔位置がまだ設定されていなければ(ステップS14;No)、処理を終了して次の画像フレームについて特徴点検出処理を行う。基準鼻孔位置が設定されていないときには、顔向きが正面の場合にしかステップS5以降の処理を行わないので、この場合は、鼻孔が正確に検出できているとみなしてよい。
基準鼻孔位置が設定された後は、顔の向きにかかわらず(ステップS3;Yes)鼻孔探索領域設定(ステップS5)以下の処理を行う。そのときは顔向きが正面でない場合、又は、基準鼻孔位置に鼻孔が検出できなかった場合があるので、改めて鼻孔を決定する(ステップS15)。図12は、ステップS15の鼻孔決定処理の動作の一例を示すフローチャートである。
制御部14は、基準鼻孔位置を顔向きで変換した位置(基準位置)に鼻孔が検出されていれば(ステップC1;Yes)、その鼻孔位置の候補を鼻孔と決定する(ステップC8)。基準位置に鼻孔が検出されていない場合は(ステップC1;No)、顔中心線を検出する(ステップC2)。ここで、改めて顔中心線を検出してもよいし、顔中心検出処理(ステップS2)で検出された顔中心位置を利用してもよい。
次に、基準鼻孔位置の縦方向位置を算出する(ステップC3)。すなわち、基準鼻孔位置を顔向き(顔中心位置)に合わせて変換したy座標を求める。そして、鼻孔エッジを検出する(ステップC4)。ステップC2及びステップC3で求めた、変換された基準鼻孔位置の周りで改めて検出してもよいし、鼻孔検出処理(ステップS6)で検出した鼻孔候補データを利用してもよい。
鼻孔候補データのなかで、顔中心線と(変換された)基準鼻孔位置に最も近い候補を選択する。すなわち、鼻孔候補を選択して(ステップC5)、前の候補と比較して顔中心、基準鼻孔位置との距離が近い方を選択する(ステップC6)。鼻孔候補が他にあれば(ステップC7;Yes)、新たな鼻孔候補を選択して(ステップC5)、距離を比較する。鼻孔候補がなくなったところで(ステップC7;No)、選択された鼻孔候補を鼻孔と決定する(ステップC8)。
以上、説明したとおり、顔画像データから検出した顔中心位置にもとづいて、鼻孔探索領域Nを設定し、その中で鼻孔を検出する。顔の向きによっては、鼻孔が1つしか検出されない場合でも、その候補を鼻孔と判定する。従って、顔の向きが正面でなくても鼻孔を正しく検出できる。そして、鼻孔位置に基づいて眼探索領域Eを設定するので、上下瞼を正確に早く検出することができる。
さらに、顔中心位置の顔画像の中央に対する偏差が所定の値を超えた場合に、眼探索領域Eを片側のみに設定するので、顔が横を向いて一方の眼しか顔画像に写っていない場合でも、上下瞼を確実に検出することができる。
また、顔中心と変換された基準鼻孔位置に最も近い鼻孔候補を鼻孔と決定するので、ほくろなどを鼻孔と誤って検出することを回避し、鼻孔を正しく検出できる。
なお、眼探索領域Eが顔画像の処理範囲に収まるように、鼻孔探索領域Nの上限を設定するので、上下瞼の誤検出の可能性をできるだけ排除し、上下瞼検出処理の効率を高めることができる。
その他、前記のハードウエア構成やフローチャートは一例であり、任意に変更及び修正が可能である。
制御部14、送受信部16、画像メモリ12、外部記憶部13及び主記憶部15などから構成される眼部検出装置1の処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。例えば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読みとり可能な記録媒体(フレキシブルディスク、CD-ROM、DVD-ROM等)に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する眼部検出装置1を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで眼部検出装置1を構成してもよい。
また、眼部検出装置1の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS, Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。
本発明の実施形態に係る眼部検出装置のブロック図である。 本発明の一実施の形態である眼部検出装置の論理的な構成を示すブロック図である。 図1に示すコンピュータの構成を示すブロック図である。 縦エッジ検出用オペレータの例を示す図である。 横エッジ検出用オペレータの例を示す図である。 縦方向に連続する濃淡差の例を表す図である。 横方向に連続する濃淡差の例を表す図である。 顔の円筒モデルを表す図である。 顔が正面を向いている場合の鼻孔探索領域を模式的に示す図である。 鼻孔位置の座標と瞬き回数の関係を表したグラフである。 顔が正面を向いていない場合の鼻孔探索領域の例を模式的に示す図である。 眼部検出装置の動作の一例を示すフローチャートである。 顔中心検出処理の動作の一例を示すフローチャートである。 鼻孔検出処理の動作の一例を示すフローチャートである。 鼻孔決定処理の動作の一例を示すフローチャートである。
符号の説明
1 眼部検出装置
2 カメラ(画像取得手段)
5 データ保持部
10 コンピュータ
12 画像メモリ
13 外部記憶部
14 制御部(画像取得手段、顔中心検出手段、鼻孔検出手段、基準鼻孔位置設定手段、鼻孔判定手段、眼探索領域設定手段、眼部探索手段)
15 主記憶部
16 送受信部(画像取得手段)
21 画像入力部(画像取得手段)
22 顔中心検出部(顔中心検出手段)
23 鼻孔探索領域設定部(鼻孔探索領域設定手段)
24 鼻孔検出部(鼻孔検出手段)
25 基準鼻孔位置設定部(基準鼻孔位置設定手段)
26 鼻孔判定部(鼻孔判定手段)
27 眼探索領域設定部(眼探索領域設定手段)
28 上下瞼検出部(眼部探索手段)
29 開閉眼判定部
51 顔画像データ
52 顔中心データ
53 鼻孔探索領域データ
54 基準鼻孔位置データ
55 鼻孔データ
56 眼探索領域データ
57 瞼データ
E 眼探索領域
N 鼻孔探索領域

Claims (6)

  1. 顔画像を取得する画像取得手段と、
    前記顔画像から顔中心位置を検出する顔中心検出手段と、
    前記顔画像から鼻孔候補を検出し、該鼻孔候補から鼻孔を検出する鼻孔検出手段と、
    前記顔中心検出手段で検出した顔中心位置が前記顔画像のほぼ中央であるときに、前記鼻孔検出手段で検出した鼻孔の位置を基準鼻孔位置として記憶する基準鼻孔位置設定手段と、
    前記基準鼻孔位置が設定されている場合に、前記顔中心検出手段で検出した顔中心位置が前記顔画像のほぼ中央の所定の範囲にない場合、前記鼻孔検出手段で検出する鼻孔候補のうち、水平方向の座標が前記顔中心位置に、垂直方向の座標が前記基準鼻孔位置に最も近い鼻孔候補を鼻孔と判定する鼻孔判定手段と、
    を備えることを特徴とする顔特徴点検出装置。
  2. 前記鼻孔検出手段で検出した鼻孔の位置にもとづいて、前記顔画像の中に眼探索領域を設定する眼探索領域設定手段と、
    前記眼探索領域設定手段で設定した前記眼探索領域内で、眼を探索する眼部探索手段と、
    を備え、
    前記顔中心検出手段で検出した顔中心位置と前記顔画像の中央との偏差が所定の値以上の場合に、
    前記眼探索領域設定手段は、片方の眼のみを探索する眼探索領域を設定し、
    前記眼部探索手段は、片方の眼のみを探索する、
    ことを特徴とする請求項1に記載の顔特徴点検出装置。
  3. 前記鼻孔判定手段は、前記顔中心位置の近傍に鼻孔が1つしか検出されない場合でも、その候補を鼻孔とすることを特徴とする請求項1に記載の顔特徴点検出装置。
  4. 前記鼻孔検出手段は、前記顔画像に対する顔中心位置に応じて鼻孔を探索する鼻孔探索領域の位置及び/又は幅を設定し、前記鼻孔探索領域で鼻孔を検出することを特徴とする請求項1に記載の顔特徴点検出装置。
  5. 顔画像から顔中心位置を検出する顔中心検出ステップと、
    前記顔画像から鼻孔候補を検出し、該鼻孔候補から鼻孔を検出する鼻孔検出ステップと、
    前記顔中心検出ステップで検出した顔中心位置が前記顔画像のほぼ中央であるときに、前記鼻孔検出ステップで検出した鼻孔の位置を基準鼻孔位置として記憶する基準鼻孔位置設定ステップと、
    前記基準鼻孔位置が設定されている場合に、前記顔中心検出ステップで検出した顔中心位置が前記顔画像のほぼ中央でない場合、前記鼻孔検出ステップで検出する鼻孔候補のうち、水平方向の座標が前記顔中心位置に、垂直方向の座標が前記基準鼻孔位置に最も近い鼻孔候補を鼻孔と判定する鼻孔判定ステップと、
    を備えることを特徴とする顔特徴点検出方法。
  6. コンピュータを、
    顔画像から顔中心位置を検出する顔中心検出手段と、
    前記顔画像から鼻孔候補を検出し、該鼻孔候補から鼻孔を検出する鼻孔検出手段と、
    前記顔中心検出手段で検出した顔中心位置が前記顔画像のほぼ中央であるときに、前記鼻孔検出手段で検出した鼻孔の位置を基準鼻孔位置として記憶する基準鼻孔位置設定手段と、
    前記基準鼻孔位置が設定されている場合に、前記顔中心検出手段で検出した顔中心位置が前記顔画像のほぼ中央でない場合、前記鼻孔検出手段で検出する鼻孔候補のうち、水平方向の座標が前記顔中心位置に、垂直方向の座標が前記基準鼻孔位置に最も近い鼻孔候補を鼻孔と判定する鼻孔判定手段、
    として機能させることを特徴とするプログラム。
JP2007043332A 2007-02-23 2007-02-23 顔特徴点検出装置、顔特徴点検出方法及びプログラム Expired - Fee Related JP4996943B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007043332A JP4996943B2 (ja) 2007-02-23 2007-02-23 顔特徴点検出装置、顔特徴点検出方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007043332A JP4996943B2 (ja) 2007-02-23 2007-02-23 顔特徴点検出装置、顔特徴点検出方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2008209969A JP2008209969A (ja) 2008-09-11
JP4996943B2 true JP4996943B2 (ja) 2012-08-08

Family

ID=39786245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007043332A Expired - Fee Related JP4996943B2 (ja) 2007-02-23 2007-02-23 顔特徴点検出装置、顔特徴点検出方法及びプログラム

Country Status (1)

Country Link
JP (1) JP4996943B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858471B2 (en) 2015-09-09 2018-01-02 Kabushiki Kaisha Toshiba Identification apparatus and authentication system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5367037B2 (ja) * 2011-09-26 2013-12-11 本田技研工業株式会社 顔向き検出装置
KR101788070B1 (ko) * 2012-12-14 2017-10-20 동국대학교 산학협력단 코 영역 검출 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2773521B1 (fr) * 1998-01-15 2000-03-31 Carlus Magnus Limited Procede et dispositif pour surveiller en continu l'etat de vigilance du conducteur d'un vehicule automobile, afin de detecter et prevenir une tendance eventuelle a l'endormissement de celui-ci
JP2000105829A (ja) * 1998-09-29 2000-04-11 Matsushita Electric Ind Co Ltd 顔パーツ検出方法及びその装置
JP2006026308A (ja) * 2004-07-21 2006-02-02 Aruze Corp 遊技機
JP4687955B2 (ja) * 2005-03-15 2011-05-25 オムロン株式会社 画像処理装置および方法、記録媒体、並びにプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858471B2 (en) 2015-09-09 2018-01-02 Kabushiki Kaisha Toshiba Identification apparatus and authentication system

Also Published As

Publication number Publication date
JP2008209969A (ja) 2008-09-11

Similar Documents

Publication Publication Date Title
JP4845698B2 (ja) 眼部検出装置、眼部検出方法及びプログラム
JP4307496B2 (ja) 顔部位検出装置及びプログラム
JP4895797B2 (ja) 瞼検出装置、瞼検出方法及びプログラム
JP4331197B2 (ja) 眼開度検出装置及び方法
JP5262243B2 (ja) 眼開閉判別装置、及びプログラム
JP4309926B2 (ja) 顔特徴点検出装置、顔特徴点検出方法及びプログラム
JP4895847B2 (ja) 瞼検出装置及びプログラム
JP4180027B2 (ja) 顔部品位置検出装置及び方法並びにプログラム
US10311583B2 (en) Eye motion detection method, program, program storage medium, and eye motion detection device
JP4130820B2 (ja) 顔中心位置検出装置及び方法並びにプログラム
JP2002056394A (ja) 眼位置検出方法および眼位置検出装置
US20150029461A1 (en) Cycloduction measurement device, cycloduction measurement method, and cycloduction measurement program
JP2007272435A (ja) 顔特徴抽出装置及び顔特徴抽出方法
JP2003150942A (ja) 目位置追跡方法
JP4082203B2 (ja) 開閉眼判定装置
JP4996943B2 (ja) 顔特徴点検出装置、顔特徴点検出方法及びプログラム
JP2004192552A (ja) 開閉眼判定装置
JP2018088236A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP5128454B2 (ja) 瞼検出装置、瞼検出方法及びプログラム
JP2008226047A (ja) 瞼検出装置及びプログラム
JP3963789B2 (ja) 眼検出装置、眼検出プログラム、そのプログラムを記録する記録媒体及び眼検出方法
JP2013029996A (ja) 画像処理装置
JP2011086051A (ja) 眼位置認識装置
JP4895876B2 (ja) 眼検出装置及びプログラム
JP4848303B2 (ja) 眼開閉判別装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100129

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100528

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110628

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110825

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120203

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120514

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4996943

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees