JP2008226189A - 特徴点検出装置及びプログラム - Google Patents

特徴点検出装置及びプログラム Download PDF

Info

Publication number
JP2008226189A
JP2008226189A JP2007067588A JP2007067588A JP2008226189A JP 2008226189 A JP2008226189 A JP 2008226189A JP 2007067588 A JP2007067588 A JP 2007067588A JP 2007067588 A JP2007067588 A JP 2007067588A JP 2008226189 A JP2008226189 A JP 2008226189A
Authority
JP
Japan
Prior art keywords
edge line
edge
image
face
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007067588A
Other languages
English (en)
Inventor
Atsushi Adachi
淳 足立
Tadashi Asano
義 浅野
Yuji Ninagawa
勇二 蜷川
Kenichi Ogami
健一 大上
Shinichi Kojima
真一 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Aisin Seiki Co Ltd
Priority to JP2007067588A priority Critical patent/JP2008226189A/ja
Publication of JP2008226189A publication Critical patent/JP2008226189A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ノイズ成分を含む顔画像から特徴点を抽出する。また、不明確な顔画像から特徴点を抽出する。更に、顔画像の内から選択された一部の領域から特徴点を探索する。
【解決手段】CPU24は、特徴点を抽出する対象となるカメラ10から取得された顔画像に含まれる画素列の内、所定の大きさLn未満である画素列をノイズ成分として、除去する。更に、設定メモリ28に記憶されたパラメータが示すエッジラインを探索する領域内にて、特徴点の候補となるエッジラインを探索する。
【選択図】図2

Description

本発明は、例えば車両等の移動体を運転している運転者等の顔の特徴点を検出する特徴点検出装置、プログラムに関する。
運転者の顔画像から特徴点を検出する機能を備える特徴点検出装置が特許文献1に開示されている。
特許文献1に開示されている特徴点検出装置は、画像入力部から入力される顔画像を白又は黒に二値化して、二値化した顔画像から顔面の候補となる領域を抽出する。顔面の候補となる領域に接しない所定領域はマスク処理を施してラベリングを行い、顔面の候補となる領域が顔面の画像であるときは、顔面の画像の内から特徴点として顔幅、眼の位置、眼の開閉状態等が抽出される。
特許3063504号明細書
特許文献1の特徴点検出装置は、二値化した顔画像から顔面の候補となる領域を抽出するときに、領域の区画となるエッジを取得して顔面の候補となる領域を抽出する。しかし、特許文献1の特徴点検出装置は、領域の区切りと呼べないような小さいエッジ或いは顔画像に含まれるノイズ成分に起因するエッジなどをも処理対象とする。
このため、顔面の特徴点を抽出するときに、正しくない特徴点を検出するおそれがある。
また、実際に取得できる顔画像は撮影環境の影響等により完全なものではないことが多い。例えば、画像のコントラストが低い場合、領域の境界が曖昧になり、エッジラインが正確に検出されず、破線状のエッジライン等を検出してしまうことがある。このような場合にも、特徴点を正確に検出することは困難である。
本発明は、上記問題点に鑑みてなされたものであり、ノイズ成分を含む顔画像から特徴点を抽出できる特徴点検出装置を提供することを第1の目的とする。
また、本発明は、不明確な顔画像から特徴点を抽出できる特徴点検出装置を提供することを第2の目的とする。
更に、本発明は、顔画像の内から選択された一部の領域から特徴点を探索できる特徴点検出装置を提供することを第3の目的とする。
上記目的を達成するために、本発明の第1の観点に係る特徴点検出装置は、
対象者の顔を撮影して得られた顔画像に含まれる、階調の異なる領域の境界線であるエッジラインを抽出するエッジライン抽出手段と、
該エッジライン抽出手段が抽出したエッジラインのうちから、所定の大きさ未満であるエッジラインをノイズ成分として除去するノイズ処理手段と、
該ノイズ処理手段によってノイズ成分が除去されたエッジラインの内で所定の条件を満たすものを、前記対象者の特徴点を示すエッジラインであると判別する特徴点判別手段と、
を備えることを特徴とする。
例えば、前記エッジライン抽出手段は、
前記顔画像に基づき、該顔画像の階調が変化する程度を表す階調変化画像を生成する画像処理手段と、
前記画像処理手段により生成された階調変化画像中のエッジラインを細線化する細線化手段と、を備え、
前記ノイズ処理手段は、前記細線化手段により細線化されたエッジラインの内から、所定の大きさ未満と判別されたものをノイズ成分として除去する、ことを特徴とする。
例えば、前記エッジライン抽出手段は、
前記顔画像に基づき、該顔画像の二値化画像を生成する画像処理手段と、
前記画像処理手段により生成された二値化画像の明暗の境界をエッジラインとして検出する境界検出手段と、を備え、
前記ノイズ処理手段は、前記境界検出手段により検出されたエッジラインの内から、所定の大きさ未満と判別されたものをノイズ成分として除去する、ことを特徴とする。
例えば、エッジラインを探索する領域を示すパラメータを記憶する記憶手段を備え、
前記エッジライン抽出手段は、前記記憶手段が記憶するパラメータが示す領域内でエッジラインを探索する、ことを特徴とする。
上記目的を達成するために、本発明の第2の観点に係るプログラムは、
コンピュータに、
対象者の顔の撮像画像を取得するステップ、
前記取得された顔画像から、画像領域の境界を示すエッジラインを抽出するエッジライン抽出ステップ、
抽出したエッジラインのうちから、所定の大きさ未満のエッジラインをノイズ成分として除去するノイズ除去ステップ、
前記ノイズ成分が除去されたエッジラインのうちから所定の条件を満たすものを、対象者の特徴点を示すエッジラインとして処理するステップ、
を実行させる。
本発明によれば、特徴点を探索する顔画像にノイズ成分が含まれる場合でも、所定の大きさ未満であるエッジラインをノイズ成分として除去することにより、ノイズ成分がある程度除去され、特徴点を正確に求めることができる。
(実施形態1)
以下、図1乃至17を参照して、本発明の実施形態1に係る特徴点検出装置50について説明する。
先ず、図1乃至3を参照して、実施形態1の特徴点検出装置50の構成について説明する。
本実施形態の特徴点検出装置50は、図1に示す全体構成のように、ドライバーの顔を撮影して顔画像を生成するカメラ10、ドライバーの顔を照明する照明光源12、ドライバーの顔画像から特徴点を抽出するコンピュータ14、コンピュータ14に接続された表示装置16、を備える。なお、表示装置16は必須の構成ではなく、必ずしも設ける必要はない。
カメラ10は例えばCCD(Charge Coupled Devices)カメラ等から構成され、ドライバーの顔の階調画像を取得する。カメラ10によって生成される顔画像は、ドライバーの顔だけでなく、その背景なども含まれている。
表示装置16は、LCD(Liquid Crystal Display)又はCRT(Cathode Ray Tube)などから構成され、カメラ10で撮影された顔画像から抽出された階調の変化する程度を表す階調変化画像などを表示する。
コンピュータ14は、カメラ10により取得された顔画像を処理して、上瞼と下瞼との組み合わせ(以下、「上下瞼」という)の候補となるエッジラインを抽出する装置である。また、眼や鼻孔、口等の顔特徴点を抽出する装置である。
コンピュータ14は、図2に示す回路構成のように、A/D変換器21、画像メモリ22、ROM(Read Only Memory)23、CPU(Central Processing Unit)24、RAM(Random Access Memory)25、表示制御装置26、光源制御装置27、設定メモリ28、操作装置29、を備える。
A/D(アナログ/ディジタル)変換器21は、カメラ10で撮影されたアナログ画像信号をディジタル信号に変換する。
画像メモリ22は、カメラ10により生成され、A/D変換器21でディジタル化された画像データを格納する。
ROM23は、CPUの動作を制御するためのプログラムを記憶する。また、ROM23は、後述する画像処理を実行するための様々な固定データを記憶する。
CPU24は、コンピュータ14全体を制御する。また、CPU24は、ROM23に格納されているプログラムを実行することにより、カメラ10により取得された顔動画像を処理して顔動画像中の眼または瞼を検出する。
RAM25は、CPU24のワークエリアとして機能する。
表示制御装置26は、CPU24の制御のもと、映像データ等を表示装置16が出力可能なデータ形式に変換し、表示装置16に出力する。
光源制御装置27は、照明光源12の点灯・消灯を制御する。
設定メモリ28は、CPU24が顔動画像を処理して眼または瞼を検出する処理の設定に関する情報(以下、設定情報)を格納する。
操作装置29は、ユーザから操作情報を受け付け、操作に応じた操作信号をCPU24に送出する。
次に、図3を参照して、ROM23に格納される固定データの例を説明する。
ROM23は、図3(a)、(b)に示すような、縦エッジ検出用と横エッジ検出用ソーベルフィルタのオペレータを格納する。縦エッジ検出用ソーベルフィルタと横エッジ検出用のソーベルフィルタとは、それぞれ、図3(c)、(d)に示すような縦方向の濃淡差、横方向の濃淡差を強調するためのオペレータである。
設定メモリ28には、図3(e)に示すような、画像メモリ22に格納される顔画像において鼻孔や口の画像が存在すると想定される領域を示す設定情報が格納されている。
例えば、図3(e)では、鼻孔や口の画像が存在すると想定される領域が「y1≦y≦y2」の範囲に設定されている。また、鼻孔や口の画像が存在すると想定される領域より上部の領域である顔上部領域Aを特定するデータが格納されている。以下、鼻孔や口の画像が存在すると想定される領域、及び、顔上部領域A、を設定領域と呼ぶ。
また、ユーザは操作装置29を介して設定領域を入力して、設定メモリ28に設定情報を格納させることも可能である。
設定メモリ28には、顔画像から抽出されたエッジラインが上下瞼の候補か否かを判別するための、エッジラインの大きさ(長さ)の基準値である特徴点閾値Lfも格納されている。
実施形態1では、特徴点閾値Lfは4〜9に設定されており、特徴点閾値Lfに基づいて、横方向の大きさが4〜9画素分以上であるエッジラインが上下瞼の候補となるエッジラインとして判別される。なお、特徴点閾値Lfは任意の値に設定されていてもよい。
また、設定メモリ28には、顔画像から抽出したエッジラインがノイズ成分か否かを判別するための所定のノイズ閾値Lnが格納されている。
実施形態1では、エッジラインの横方向の大きさが1であるか否かに基づいてノイズ成分を判別するものとして、ノイズ閾値Ln=1に設定されているものとする。
以下、図4乃至17を参照して、上記構成を有する実施形態1に係る特徴点検出装置50が、カメラ10により取得されたドライバーの顔画像から顔の特徴点として上下瞼を抽出する動作を説明する。
先ず、実施形態1の特徴点検出装置50が上下瞼を抽出する動作の概要について説明する。
実施形態1では、車両を運転するドライバーの顔動画像の内から、顔の特徴点として上下瞼の候補となるエッジラインを抽出する。
ここで、エッジラインを抽出するために、図3(a)、(b)に示したソーベルフィルタにより顔画像の階調の変化の割合が抽出されるように顔画像を処理する。
なお、以下では、図3(a)の縦エッジ検出用ソーベルフィルタにより縦エッジを強調する処理の施された顔画像を「縦ソーベル画像」といい、図3(b)の横エッジ検出用ソーベルフィルタにより横エッジを強調する処理が施された顔画像を「横ソーベル画像」という。また、縦ソーベル画像と横ソーベル画像とを併せて、「ソーベル画像」(階調変化画像)と総称する。
また、ソーベル画像の各画素は、それぞれ変化の方向にプラス若しくはマイナスの符号を持つ。
次に、ソーベル画像に細線化処理を行うことによって、エッジラインを抽出する。
細線化処理は、例えば、横ソーベル画像において、横ソーベル画像の各列を縦方向に走査していき、極大、極小となる画素を検出する方法を採用できる。また、縦ソーベル画像において、縦ソーベル画像の各列を横方向に走査していき、極大、極小となる画素を検出する方法を採用できる。
ソーベル値が極大、極小となる画素がエッジラインを構成するため、このような画素を検出すること(細線化処理)により、エッジラインが抽出される(エッジライン抽出処理)。
ソーベル画像の内から抽出された上下瞼の候補となるエッジラインの内、大きさが所定の大きさ(ノイズ閾値Ln=1)以下のエッジラインはノイズ成分であると判別されて、除去される(ノイズ除去処理)。
具体的には、縦横各ソーベル画像の内からエッジラインとして抽出された画素に対して、ラベリング処理を行う。エッジラインを構成する各画素において、上下左右斜めの8方向に同じ符号を持つエッジラインの画素があれば、同じラベルをつけておく。これにより、連続しているエッジラインの画素をグループ化することができる。
グループ化されたエッジライン毎にその画素数を検出し、画素数が所定の閾値(Ln=1)以下であるエッジラインの画素は除去される(ノイズ除去処理)。
ソーベル画像からノイズ成分が除去されると、特徴点閾値Lf(=4〜9)に基づいて、上下瞼の候補となるエッジラインを抽出する。
ノイズ成分が除去されたソーベル画像内の各エッジラインは、その大きさが所定の大きさ(特徴点閾値Lf=4〜9画素)であるか否か判別される。大きさが4〜9画素であるエッジラインは、上下瞼の候補となるエッジラインであると判別される。
上下瞼の候補となるエッジラインを抽出すると、上下瞼の候補になる各エッジラインの内で所定の条件を満たすエッジラインが、上下瞼を構成する組の候補として抽出される。
上下瞼の候補になる各エッジラインの、上瞼と下瞼との重心間の距離を示す瞼開度と、瞼開度が得られた時の時刻と、を対応付けた瞼開度時系列情報が生成され、瞼開度時系列情報が所定の条件に合致したエッジラインが正しい上下瞼として定められる。
これにより、ソーベル画像からノイズ成分を除去した上で、上下瞼候補ひいては上下瞼を判別することができる。
以下、実施形態1の特徴点検出装置50が上下瞼を抽出する動作について、詳細に説明する。
電源が投入されると、コンピュータ14内のCPU24は、図4に示す処理を繰り返して実行する。即ち、CPU24は、前処理(ステップA0)、顔位置判別処理(ステップB0)、顔中心線検出処理(ステップC0)、鼻孔検出処理(ステップD0)、エッジライン抽出処理(ステップE0)、ノイズ除去処理(ステップE3)、上下瞼候補決定処理(ステップE5)、上下瞼判別処理(ステップF0)、から構成される処理を繰り返して実行する。
図4に示す前処理(ステップA0)と顔位置判別処理(ステップB0)とは、ドライバーの左右方向及び上下方向の顔の位置(座標)を求めるための処理である。
顔中心線検出処理(ステップC0)は、ドライバーの顔の左右の中心線(仮想線)を検出するための処理である。
鼻孔検出処理(ステップD0)は、ドライバーの鼻孔(鼻孔に相当する画像)を検出するための処理である。
エッジライン抽出処理(ステップE0)は、ドライバーの鼻孔(の位置)に基づいて、上下瞼を探索する探索範囲を示す顔上部領域Aを抽出(設定)する処理である。
また、顔上部領域A内のソーベル画像から上瞼に対応するエッジラインの候補及び下瞼に対応するエッジラインの候補となるエッジライン(群)の抽出を行うための処理である。
このように、本実施形態においては、先ず鼻孔を検出し、検出された鼻孔に基づいて顔上部領域Aを設定し、設定した顔上部領域Aにおいてエッジラインの抽出を行っている。
ノイズ除去処理(ステップE3)は、抽出されたエッジラインの内、ノイズ成分を除去するステップである。
上下瞼候補決定処理(ステップE5)は、ノイズ成分が除去された後に残ったエッジラインから、上下瞼の候補となるエッジラインを決定する処理である。
上下瞼判別処理(ステップF0)は、顔上部領域Aから抽出された上瞼の候補及び下瞼の候補となるエッジライン(群)の重心が移動する態様から瞼開度を算出し、瞼開度が所定の条件を満たす上下瞼候補のエッジラインを本物の瞼であると判定するための処理である。
以下、本実施形態に係る特徴点検出処理について説明する。
先ず、前処理(ステップA0)について説明する。
前処理(ステップA0)は、図5に示すように、キャプチャ処理(ステップA1)と、座標変換処理(ステップA2)と、ソーベルフィルタ処理(画像処理)(ステップA3)と、から構成される。
キャプチャ処理(ステップA1)は、カメラ10の撮影したドライバーの1フレーム分の顔画像をA/D変換器21を介して取り込み、画像メモリ22に格納する処理である。
座標変換処理(ステップA2)は、処理可能な程度に画素を間引く処理である。
ソーベルフィルタ処理(ステップA3)は、ROM23に格納されている縦エッジ検出用ソーベルフィルタ(図3(a))を用いて座標変換後の顔画像を処理して、顔画像内の縦エッジを強調する処理を施す。
また、ソーベルフィルタ処理(ステップA3)は、横エッジ検出用ソーベルフィルタ(図3(b))を用いて座標変換後の顔画像を処理して、顔画像内の横エッジを強調する処理も行う。
なお、ソーベルフィルタの処理動作について、より具体的に説明する。
前提として、顔画像を構成する各画素は、第0階調〜第255階調の256階調の内いずれかの階調を有するものとする。第0階調は黒、第255階調は白である。顔画像は、白黒画像でもカラー画像でもよい。
CPU24は、カメラ10により取得された顔画像にて1つの画素を抽出する。抽出した画素を、図3(a)又は(b)の3×3行列の中心に対応させて、抽出した画素の階調とその画素に隣接する全ての画素が有する各階調とに、図3(a)又は(b)に示されるオペレータにて対応する値をそれぞれ乗算する。
乗算して得られた値を全て合計して、その合計値を抽出した画素の階調に設定する。以下、図3(a)又は(b)のオペレータによる操作後に各画素の階調として設定された値を「ソーベル値」という。
この操作を順次繰り返して顔画像全体に施すことにより、該顔画像の階調の変化の割合(階調の縦方向又は横方向の微分)を示すソーベル画像が抽出される。
なお、CPU24は、ステップA3において抽出された図3(e)のソーベル画像をRAM25に記憶させる。
次に、顔位置判別処理(ステップB0)について説明する。
図4の顔位置判別処理(ステップB0)は、前処理済みのソーベル画像を用いて顔の左右両端位置と上下位置を検出する処理であり、図6に示すように、顔両端検出処理(ステップB1)と顔上下位置検出処理(ステップB2)とから構成される。
顔両端検出処理(ステップB1)は、顔画像を図3(a)の縦エッジ検出用のオペレータで操作した縦ソーベル画像について、顔の両端を構成するラインを特定する処理であり、既知の任意の手法を採用することができる。
例えば、図7に示すように、顔両端検出用のヒストグラム作成処理を行う(ステップB11)。
具体的に述べると、各画素のソーベル値を何段階かに分割し、x値毎に最も多く各画素のソーベル値を取る段階を決定する。x値毎の上記段階の平均値のグラフを上記のヒストグラムとする。
続いて、このヒストグラムのピーク値の高いものを所定数抽出して、これをソートして(ステップB12)、ヒストグラム値に基づき、端点を抽出する(ステップB13)。例えば、ヒストグラム値の上位1又は2つが他と比較して極端に値が大きい場合、その点を端点とする。
次に、端点が2つ(両端)抽出されたか否かを判別する(ステップB14)。2つ抽出されていれば(ステップB14;Yes)、抽出した2点を顔の両端(x座標)として決定する処理を行う(ステップB16)。ここでは、顔の両端(x座標)として座標a,bが得られたものとする。
一方、端点が2つ抽出できていなければ(ステップB14;No)、2点の距離が、人の顔幅としてもっともらしい間隔を有する組み合わせを抽出することにより、端点を決定し(ステップB15)、最終的に、顔面の両端(x座標)を決定する処理を行う(ステップB16)。
顔両端検出処理(ステップB1)が完了すると、処理を顔上下位置検出処理(ステップB2)に移す。
顔上下位置検出処理(ステップB2)は、顔両端検出処理(ステップB1)と同様の処理を横エッジについて行って、顔のほぼ眉の位置(上端)と口の位置(下端)を検出する処理である。
顔上下位置検出処理(ステップB2)は、図8に示すように、ヒストグラム作成処理(ステップB21)、目下候補検出処理(ステップB22)、顔上下位置算出処理(ステップB23)、から構成される。
ヒストグラム作成処理(ステップB21)は、顔画像を図3(b)の横エッジ検出用のオペレータで操作した横ソーベル画像の各画素のソーベル値を横方向に投影してヒストグラムを作成する処理である。
具体的に述べると、各画素のソーベル値を何段階かに分割し、y値毎に最も多く各画素のソーベル値を取る段階を決定する。y値毎の上記段階の平均値のグラフを上記のヒストグラムとする。
目下候補検出処理(ステップB22)は、ヒストグラム値に基づいて、目・眉、口などに対応するヒストグラム値の候補を選択する処理である。
顔上下位置算出処理(ステップB23)は、選択した候補から、顔の上端位置(y座標)(例えば、目・眉の位置)を検出する処理である。なお、顔上端位置(y座標)は、例えば、検出した眉から3画素分上の位置とし、下端位置は検出した口から3画素分下の位置(口と顎の間)などに設定される。
CPU24は、ステップB1及びB2で求めた、顔両端(左右側端)位置(x座標)及び顔の上下位置(y座標)をRAM25に記憶する。
ここで、顔両端位置(x座標)を図3(e)のドライバーの顔画像に表した場合、図9に示すように、顔の両端位置の座標a、bに対応する。また、顔上下位置(y座標)は、顔の上下位置の座標c、eに対応する。
次に、顔中心線検出処理(ステップC0)の処理内容について説明する。
顔中心線検出処理(ステップC0)は、ドライバーの顔の中心線Bを求めて、ドライバーの顔が正面を向いているか否かを判別する処理であり、例えば、図10に示す構成を有する。
中心線Bの測定手法自体は任意であるが、実施形態1では、CPU24が、次式から顔のx軸方向の中心(重心)位置の座標を求めるものとする。
顔の中心のx座標=Σ(xi・Gi)/ΣGi
xi:i番目の画素のx座標の値
Gi:i番目の画素の階調値
i:1〜n nは画素の総数
CPU24は、顔中心線Bを求めると(ステップC1)、ドライバーが正面を向いているか否かを判別するために、顔両端検出処理(ステップB1)で算出した顔両端位置(x座標)a、bをRAM25から読み出す。
CPU24は、ドライバーの顔が右方向を向いているか否かをx軸の顔中心線Bが左右両端位置の中心(a+b)/2より小さいか否かにより判別する(ステップC2)。
B<(a+b)/2である場合(ステップC2;Yes)、CPU24は、図11に示すように顔は右方向を向いていると判別して、処理をステップC1に移す。
一方、B<(a+b)/2でない場合(ステップC2;No)、CPU24は、ドライバーの顔が左方向を向いているか、正面を向いているかを、x軸の顔中心線Bが左右両端位置の中心(a+b)/2より大きいか否かにより判別する(ステップC3)。
B>(a+b)/2である場合(ステップC3;Yes)、CPU24は、図12に示すようにドライバーの顔が左方向を向いていると判別して、処理をステップC1に移す。
B>(a+b)/2でない場合(ステップC3;No)、CPU24は、ドライバーの顔が正面を向いていると判別して、処理を鼻孔検出処理(ステップD0)に移す。
このように顔が正面を向いているときに、鼻孔検出処理を行う。
次に、鼻孔検出処理(ステップD0)の処理内容について説明する。鼻孔検出処理(ステップD0)では、ソーベル処理前の顔画像中で階調値が所定の閾値より小さい画素が3〜5画素で連続している画素領域を鼻孔の候補であると判別する。
鼻孔探索領域の抽出処理において、鼻孔の存在が予定されている領域を定義する領域指定データ(図3(e)に示すy1,y2)をROM23から読み出し、領域指定データ内に該当する顔画像(鼻孔領域)を切り出す。
更に、切り出した鼻孔領域の内で座標aと座標bとの間に含まれる領域を抽出する(ステップD1)。即ち、ステップD1で抽出された領域内に存在する画素は、a≦x≦b、y1≦y≦y2、の範囲の座標値を有する。
なお、以下では座標(x,y)に位置する画素を「画素(x,y)」で示す。また、ステップD1で抽出された領域(a≦x≦b、y1≦y≦y2)を「鼻孔探索領域」という。
顔画像中の鼻孔探索領域内において、所定の閾値より階調値が小さい画素が縦横ともに3〜5連続している領域を鼻孔候補とし、例えば、鼻孔候補が水平に2つ並んでいるものを鼻孔として、その2つの鼻孔候補の中心を鼻孔位置とする。
鼻孔検出処理で鼻孔を検出した後に、上下瞼を検出するために、エッジラインの抽出、ノイズの除去を行う。
先ず、処理をエッジライン抽出処理(ステップE0)に移す。
次に、エッジライン抽出処理(ステップE0)について説明する。
エッジライン抽出処理は、ソーベル画像を得る画像処理、画像処理により得られたソーベル画像を細線化する細線化処理、から構成される。
本実施形態においては、前処理(ステップA0)のソーベルフィルタ処理(ステップA3)によりソーベル画像が予め得られているため、前処理で得られたソーベル画像を用いている。
なお、前処理においてソーベルフィルタ処理が不要な場合(例えば、顔位置、顔向き、等を検出する必要がない場合)には、細線化処理の前に画像処理としてのソーベルフィルタ処理を行い、ソーベル画像を得るようにしてもよい。
エッジライン抽出処理(ステップE0)は、先ず、ドライバーの上下瞼を抽出するために探索する領域である顔上部領域Aを定める処理を実行する(ステップE1)。
顔上部領域Aを抽出する方法は任意である。
実施形態1では鼻孔の位置に基づいて、顔上部領域Aを抽出するように設定されている。
例えば、鼻孔から上方に所定距離だけ離れた位置に顔上部領域Aを抽出する。
顔上部領域Aを定めると、エッジライン抽出処理(ステップE0)は、横エッジ抽出処理(細線化処理)(ステップE2)を行う。
横エッジを検出する手法自体は任意であるが、実施形態1では、ソーベル画像において座標値xを順次更新しながら、顔上部領域Aの画素をy方向に走査し、ソーベル値が極大あるいは極小となる画素を検出する。
このような画像を検出することにより、当該画素をエッジラインとして抽出することができる。エッジラインを抽出した後、以下のノイズ除去処理を行う。
ノイズ除去処理(ステップE3)は、図14に示すように、ラベリング処理(ステップE31)、ノイズ判定処理(ステップE32)により構成される。
ラベリング処理(ステップE31)は、上記のようにしてエッジラインとして検出された画素において、各画素の周囲に同じ種類のエッジラインの画素が存在するか否かを判別し、存在する場合には、対象となる画素とその周囲に存在する画素とを同一のエッジラインを構成する画素としてラベリングする。
ノイズ判定処理(ステップE32)は、設定メモリ28に記憶されているノイズ閾値Lnに基づいてノイズ成分を検出して、除去する処理を行う。
具体的には、ラベリングにより分類された各エッジライン毎に、エッジラインの連続数を検出し、連続数が所定値以下のものをノイズとして除去することで行うことができる。
以上により、横エッジについてエッジライン抽出処理及びノイズ除去処理が完了する。
本実施形態においては、横エッジのノイズ除去処理が完了後、縦エッジについてエッジライン抽出処理及びノイズ除去処理を実行している。具体的には、横エッジの場合と同様であるが、細線化処理としての縦エッジ抽出処理を以下のように行う。
縦エッジ抽出処理は、ソーベル画像において座標値yを順次更新しながら、顔上部領域Aの画素をx方向に走査し、ソーベル値が極大あるいは極小となる画素を、エッジラインを構成する画素として記憶する。それ以降は、基本的に横エッジの場合と同様に行われる。
縦エッジ抽出処理のノイズ除去処理が完了すれば、処理を上下瞼候補決定処理(ステップE5)に移す。
上下瞼候補の決定処理(ステップE5)は、図15に示すように、横エッジ抽出処理(ステップE2)及び縦エッジ抽出処理完了後、顔上部領域A(a≦x≦b、d≦y≦c)内の画像に、横方向の連続数が4〜9であるエッジラインが得られているか否かを判別する(ステップE51)。
得られている場合には(ステップE51;Yes)、上下瞼の候補となるエッジラインが検出されたと決定して(ステップE52)、処理を上下瞼判別処理(ステップF0)に移す。
次に、上下瞼判別処理(ステップF0)の処理内容について説明する。
上下瞼判別処理(ステップF0)は、例えば、図16に示す構成を有する。
CPU24は、エッジライン抽出処理(ステップE0)により、ノイズ成分が除去された上瞼の候補のエッジライン及び下瞼の候補のエッジラインをRAM25から読み出す(ステップF1)。
ここで、エッジライン抽出処理(ステップE0)完了後の顔上部領域Aはソーベルフィルタ処理(ステップA3)が施されていることにより、図17(a)に示すように、y軸方向に輝度が暗い画素から明るい画素に移るエッジラインがマイナスエッジとして点線で表され、y軸方向に光度が明るい画素から暗い画素に移るエッジラインがプラスエッジとして実線で表されている。
ステップF1にてRAM25から読み出した上記のマイナスエッジラインとプラスエッジラインとから、次の三つの数式を満たすマイナスエッジとプラスエッジの組み合わせを抽出する。
先ず、CPU24は数式(1)を満たすマイナスエッジとプラスエッジの組み合わせがあるか否かを判別して、数式(1)を満たすマイナスエッジとプラスエッジの組み合わせを抽出する(ステップF2)。
|Lp−Lm|<Lth・・・(1)
ただし、Lpはプラスエッジの長さを表す値であり、Lmはマイナスエッジの長さを表す値であり、Lthは閾値である。数式(1)を満たすマイナスエッジとプラスエッジとの長さは閾値Lthの範囲で近似している。
また、CPU24は数式(2)を満たすマイナスエッジとプラスエッジの組み合わせがあるか否かを判別して、数式(2)を満たすマイナスエッジとプラスエッジの組み合わせを抽出する(ステップF3)。
|Cxp−Cxm|<Cxth・・・(2)
ただし、Cxpはプラスエッジの重心のx座標、Cxmはマイナスエッジの重心のx座標、Cxthは閾値、である。数式(2)を満たすマイナスエッジとプラスエッジとの重心のx座標は閾値Cxthの範囲で近似している。
更に、CPU24は数式(3)を満たすマイナスエッジとプラスエッジの組み合わせがあるか否かを判別して、数式(3)を満たすマイナスエッジとプラスエッジの組み合わせを抽出する(ステップF4)。
Dg<Dth・・・(3)
ただし、Dgはマイナスエッジの重心とプラスエッジの重心との間の距離であり、Dthは閾値である。数式(3)を満たすマイナスエッジとプラスエッジとの重心間距離は閾値Dth以内である。
つまり、数式(1)〜(3)を満たすマイナスエッジとプラスエッジの組み合わせは、ある程度、長さが等しく、位置が近く、重心のx座標が一致しているマイナスエッジとプラスエッジの組み合わせである。
図17(a)の内から、数式(1)〜(3)を満たすマイナスエッジとプラスエッジの組み合わせをドライバーの瞼の候補として抽出する。このとき、プラスエッジPE1とマイナスエッジME1との組み合わせが候補1、プラスエッジPE2とマイナスエッジME2との組み合わせが候補2、プラスエッジPE3とマイナスエッジME3との組み合わせが候補3、プラスエッジPE4とマイナスエッジME4との組み合わせが候補4、となる。
更に、上下瞼候補を抽出する際には、次のような条件を付加してもよい。
つまり、プラスエッジの重心のy座標とマイナスエッジの重心のy座標との中点のy座標を求め、このy座標のx軸方向両側(あるいは一方)に縦エッジが存在する場合に、当該プラスエッジとマイナスエッジとの組合せを上下瞼候補として抽出するようにしてもよい。
そして、特徴点検出装置50は、候補1〜4について、マイナスエッジの重心とプラスエッジの重心との間の距離Dgの時間軸に対する変化を計測する。図18(a)〜(d)に示すグラフは、候補1〜4の、時間軸に対するマイナスエッジとプラスエッジとの重心間距離Dgの変化を示すグラフである。
候補1は、図18(a)に示すように、距離Dgは時間軸に対してほとんど変化がない。また、候補2も、図18(b)に示すように、距離Dgは時間軸に対してほとんど変化がない。
候補3〜4は、図18(c)〜(d)に示すように距離Dgの時間軸に対するグラフにおいて極小値MV1〜MV6を持つ。
CPU24は、y軸方向又はその反対方向に重心が移動するマイナスエッジとプラスエッジの組み合わせがあるか否かを判別する(ステップF5)。
CPU24は、y軸方向又はその反対方向に重心が移動するマイナスエッジとプラスエッジの組み合わせがない場合(ステップF5;No)、CPU24は、設定メモリ28に格納されている設定情報を変更することにより、設定領域を変更または拡大して(ステップF6)、処理をステップF1に戻す。
上記の瞼の候補の内、図17(b)に示すように、プラスエッジの重心がy軸方向と反対方向に移動しているときにマイナスエッジの重心がy軸方向に移動し、プラスエッジの重心がy軸方向に移動しているときに(ステップF5;Yes)、マイナスエッジの重心がy軸方向と反対方向に移動する候補を瞼と判定する(ステップF7)。
これにより、ソーベル画像からドライバーの正しい上下瞼が求められ、図4の全ての処理が終了する。
上記説明したように、実施形態1では、顔画像にソーベルフィルタ処理を施した顔画像から抽出した顔の特徴点を示すエッジラインで、正しい上下瞼の組み合わせを検出することができる。
なお、鼻孔検出処理(ステップD0)又はエッジライン抽出処理(ステップE0)にて、顔の特徴点を示すエッジライン(鼻孔の候補、又は、上下瞼の候補)を抽出する方法は、任意の手法を用いるようにしてもよい。
顔上部領域Aは、操作装置29を介してユーザから変更可能としてもよい。
これにより、顔の特徴点を示す画像を検出するときに、検出処理時間を短縮することが可能となる。
(実施形態2)
実施形態1では、ソーベルフィルタにより階調の変化の割合を抽出する処理を顔画像に施して、ソーベル画像から顔の特徴点を示すエッジラインを抽出した。しかし、顔の特徴点を示すエッジラインの抽出はソーベルフィルタ処理以外の処理を施した顔画像から抽出するようにしてもよい。
実施形態2では、顔画像に二値化処理(画像処理)を施した後の顔画像(二値化画像)から顔の特徴点を示すエッジラインを抽出する例を示す。
以下、図18を参照して、本発明に係る実施形態2について説明する。
実施形態2の特徴点検出装置50の構成、及び、コンピュータ14の回路構成は、実施形態1と同一である。
次に、実施形態2の顔の特徴点を抽出する処理について説明する。
実施形態2の顔の特徴点を抽出する動作は、以下の点において実施形態1と異なる。
実施形態2の前処理(ステップA0)では、図5のソーベルフィルタ処理(ステップA3)を行う代わりに、二値化処理を実行する。
実施形態2のエッジライン抽出処理(ステップE0)では、ソーベル画像から上下瞼のエッジラインを抽出する代わりに、図19の境界抽出処理を行うことにより二値化処理の施された顔画像(以下、「二値化画像」という)から鼻孔又は眼の画像を抽出する。
以下、実施形態2の前処理(ステップA0)について説明する。
実施形態2の前処理(ステップA0)では、座標変換処理(ステップA2)を施した後の顔画像を、所定の閾値に基づいて二値化する。二値化する際の閾値には、例えば、顔画像を形成する全画素の階調の平均値を使用できる。
これにより、図19(a)に示すように、二値化処理の施されたドライバーの顔画像(二値化画像)が生成される。
前処理(ステップA0)が完了すると、処理を顔位置判別処理(ステップB0)、顔中心線検出処理(ステップC0)に移す。
実施形態2の顔位置判別処理(ステップB0)、顔中心線検出処理(ステップC0)は、実施形態1と同様である。
顔位置判別処理(ステップB0)により、図18(a)に示すように、ドライバーの左右方向及び上下方向の顔の位置(座標)a,b,c,dが定まる。また、顔中心線検出処理(ステップC0)により、図18(a)に示すように、ドライバーの顔の左右の中心線(仮想線)Bが検出される。
実施形態2の鼻孔検出処理(ステップD0)の処理内容についても、実施形態1と同様である。
更に、鼻孔決定処理(ステップD4)によりドライバーの左右の鼻孔の画像が検出されると、上下瞼の候補となるエッジラインを抽出するために、処理をエッジライン抽出処理(ステップE0)に移す。
なお、実施形態1及び実施形態2に共通するが、顔位置判別処理、顔中心線検出処理、鼻孔検出処理、は実行しなくてもよい。前処理を行った後、以下のエッジライン抽出処理(ステップE0)を実行するようにしてもよい。
以下、実施形態2のエッジライン抽出処理(ステップE0)について説明する。
実施形態2のエッジライン抽出処理(ステップE0)は、図13に示す実施形態1のエッジライン抽出処理(ステップE0)と基本的な流れは同一である。
ただし、実施形態2のエッジライン抽出処理(ステップE0)では、二値化画像の明暗の境界をエッジラインとして抽出することにより眼の候補の画像を抽出して、眼の候補の画像から上下瞼の候補のエッジラインを抽出する。
実施形態2のエッジライン抽出処理においては、実施形態1においてソーベル値が極大、極小となる画素を検出しているのに対し、二値化画像の明暗の境界に位置する画素をエッジラインを構成する画素として検出する点で異なる。
つまり、二値化画像において座標値xを順次更新しながら、顔上部領域Aの画素をy方向に走査し、明暗(白黒)が明(白)から暗(黒)に変化したときの、明(白)あるいは暗(黒)の画素を、明から暗へのエッジラインを構成する画素として検出する。
同様に、暗(黒)から明(白)に変化したときの暗(黒)あるいは明(白)の画素を、暗から明へのエッジラインを構成する画素として検出する。
これにより、エッジラインが抽出される。
次に、ノイズ除去処理を実行する。
ノイズ除去処理(ステップE3)は、基本的には実施形態1と同様である。
ただし、図14のノイズ除去処理(ステップE3)において、ラベリング処理(ステップE31)は、エッジラインとして抽出された画素において、各画素の周囲に同じ種類(ここでは、明→暗、あるいは、暗→明)のエッジラインの画素が存在するか否かを判別し、存在する場合には、対象となる画素とその周囲に存在する画素とを同一のエッジラインを構成する画素としてラベリングする点が異なる。
エッジライン抽出処理、ノイズ除去処理が完了すると、処理を上下瞼候補決定処理(ステップE5)に移す。上下瞼候補決定処理(ステップE5)は、実施形態1と同様である。
上下瞼候補決定処理を完了すると、処理を上下瞼判別処理に移す。
実施形態2の上下瞼判別処理(ステップF0)は、実施形態1と同様である。
上下瞼判別処理(ステップF0)により、上下瞼の候補のエッジラインの内から、図17(b)に示すように、プラスエッジの重心がy軸方向と反対方向に移動しているときにマイナスエッジの重心がy軸方向に移動し、プラスエッジの重心がy軸方向に移動しているときに、マイナスエッジの重心がy軸方向と反対方向に移動する候補が、上下瞼として判定される。
ノイズ成分か否かを判別するためのノイズ閾値Lnは1に限らず、任意の値を設定できるようにすればよい。
また、顔の特徴点を示すエッジラインと黒の画素との間に位置する白の連続数も任意の値を設定できるようにしてもよい。
顔上部領域Aは、操作装置29を介してユーザから変更可能としてもよい。
これにより、顔の特徴点を示す画像を検出するときに、検出処理時間を短縮することが可能となる。
なお、この発明は上記実施形態に限定されず、種々の変形及び応用が可能である。
本実施形態では、コンピュータ14は、カメラ10が撮影した対象者の顔の動画像について眼瞼検出処理を行ったが、カメラ10以外の外部装置から取得した対象者の顔の動画像を画像メモリ22に格納しておき、その動画像について眼瞼検出処理を行ってもよい。
コンピュータ14としては、携帯電話、PDA(Personal Data Assistance),パーソナルコンピュータ(ノート型、ラップトップ型等)、ウエアラブルコンピュータ、車両・船舶などの移動体に設定されたコンピュータなどを広く利用可能である。
その他、本発明の概念は、専用のコンピュータシステムに限らず、通信機能を備える任意の電子装置に適用可能である。即ち、コンピュータを上述のコンピュータ14として機能・動作させるためのコンピュータプログラムを作成し、配布し、貸与し、これをコンピュータにインストールして、上記コンピュータ14として、これを使用、譲渡、貸与などしてもよい。
本発明の実施形態1に係る特徴点検出装置の構成を示すブロック図である。 図1に示すコンピュータの構成を示すブロック図である。 ROMまたはRAMに格納されている各種データを説明するための図である。 本発明の実施形態1に係る処理の概要を説明するための図である。 本発明の実施形態の前処理を説明するためのフローチャートである。 本発明の実施形態の顔位置判別処理を説明するためのフローチャートである。 本発明の実施形態の顔両端検出処理を説明するためのフローチャートである。 本発明の実施形態の顔上下位置検出処理を説明するためのフローチャートである。 ソーベルフィルタ処理を施したときのドライバーの顔画像を示す図である。 本発明の実施形態の顔中心線検出処理を説明するためのフローチャートである。 ドライバーが右方向を向いているときの顔画像を示す図である。 ドライバーが左方向を向いているときの顔画像を示す図である。 本発明の実施形態1のエッジライン抽出処理を説明するためのフローチャートである。 本発明の実施形態1のノイズ除去処理を説明するためのフローチャートである。 本発明の実施形態1の上下瞼候補決定処理を説明するためのフローチャートである。 本発明の実施形態1の上下瞼判別処理を説明するためのフローチャートである。 (a)は、顔上部領域における、上下瞼の候補となるエッジラインの組み合わせを示す図である。(b)は、(a)の上下瞼の候補となるエッジラインの内から正しい瞼を判別するときの、正しい瞼に該当する上下瞼の候補のエッジラインが示すべき動作を説明するための図である。 図17(a)における上下瞼の候補となるエッジラインの重心間距離の経時変化を示す図である。 (a)は、二値化処理を施したときのドライバーの顔画像を示す図である。(b)は、(a)から鼻孔領域を抽出した画像を示す図である。(c)は、(a)から顔上部領域を抽出した画像を示す図である。(d)は、(c)から上下瞼の候補となるエッジラインを抽出した画像を示す図である。
符号の説明
10 カメラ
12 照明光源
14 コンピュータ
16 表示装置
21 A/D変換器
22 画像メモリ
23 ROM
24 CPU(エッジライン抽出手段、ノイズ処理手段、特徴点判別手段、画像処理手段、細線化手段、境界検出手段)
25 RAM
26 表示制御装置
28 設定メモリ(記憶手段)
29 操作装置
50 特徴点検出装置

Claims (5)

  1. 対象者の顔を撮影して得られた顔画像に含まれる、階調の異なる領域の境界線であるエッジラインを抽出するエッジライン抽出手段と、
    該エッジライン抽出手段が抽出したエッジラインのうちから、所定の大きさ未満であるエッジラインをノイズ成分として除去するノイズ処理手段と、
    該ノイズ処理手段によってノイズ成分が除去されたエッジラインの内で所定の条件を満たすものを、前記対象者の特徴点を示すエッジラインであると判別する特徴点判別手段と、
    を備えることを特徴とする特徴点検出装置。
  2. 前記エッジライン抽出手段は、
    前記顔画像に基づき、該顔画像の階調が変化する程度を表す階調変化画像を生成する画像処理手段と、
    前記画像処理手段により生成された階調変化画像を細線化してエッジラインを抽出する細線化手段と、を備え、
    前記ノイズ処理手段は、前記細線化手段により抽出されたエッジラインの内から、所定の大きさ未満と判別されたものをノイズ成分として除去する、ことを特徴とする請求項1に記載の特徴点検出装置。
  3. 前記エッジライン抽出手段は、
    前記顔画像に基づき、該顔画像の二値化画像を生成する画像処理手段と、
    前記画像処理手段により生成された二値化画像の明暗の境界をエッジラインとして検出する境界検出手段と、を備え、
    前記ノイズ処理手段は、前記境界検出手段により検出されたエッジラインの内から、所定の大きさ未満と判別されたものをノイズ成分として除去する、ことを特徴とする請求項1に記載の特徴点検出装置。
  4. エッジラインを探索する領域を示すパラメータを記憶する記憶手段を備え、
    前記エッジライン抽出手段は、前記記憶手段が記憶するパラメータが示す領域内でエッジラインを探索する、ことを特徴とする請求項1に記載の特徴点検出装置。
  5. コンピュータに、
    対象者の顔の撮像画像を取得するステップ、
    前記取得された顔画像から、画像領域の境界を示すエッジラインを抽出するエッジライン抽出ステップ、
    抽出したエッジラインのうちから、所定の大きさ未満のエッジラインをノイズ成分として除去するノイズ除去ステップ、
    前記ノイズ成分が除去されたエッジラインのうちから所定の条件を満たすものを、対象者の特徴点を示すエッジラインとして処理するステップ、
    を実行させるプログラム。
JP2007067588A 2007-03-15 2007-03-15 特徴点検出装置及びプログラム Pending JP2008226189A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007067588A JP2008226189A (ja) 2007-03-15 2007-03-15 特徴点検出装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007067588A JP2008226189A (ja) 2007-03-15 2007-03-15 特徴点検出装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2008226189A true JP2008226189A (ja) 2008-09-25

Family

ID=39844665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007067588A Pending JP2008226189A (ja) 2007-03-15 2007-03-15 特徴点検出装置及びプログラム

Country Status (1)

Country Link
JP (1) JP2008226189A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010146159A (ja) * 2008-12-17 2010-07-01 Aisin Seiki Co Ltd 瞼検出装置、瞼検出方法及びプログラム
WO2013005560A1 (ja) * 2011-07-01 2013-01-10 アイシン精機株式会社 瞼検出装置、瞼検出方法及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0678901A (ja) * 1992-06-12 1994-03-22 Nec Corp 上まぶた領域、目頭・目尻・上まぶた領域及び目の構造の検出方法及び装置
JP2000137792A (ja) * 1998-10-30 2000-05-16 Toyota Motor Corp 眼部検出装置
JP2003173436A (ja) * 2001-09-27 2003-06-20 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理方法及びそのプログラムをコンピュータ読み取り可能に記録した記録媒体
JP2003323640A (ja) * 2002-04-26 2003-11-14 Asia Air Survey Co Ltd レーザスキャナデータと空中写真画像を用いた高精度都市モデルの生成方法及び高精度都市モデルの生成システム並びに高精度都市モデルの生成のプログラム
JP2004341954A (ja) * 2003-05-16 2004-12-02 Nissan Motor Co Ltd 覚醒度レベル判定装置
JP2005293539A (ja) * 2004-03-08 2005-10-20 Matsushita Electric Works Ltd 表情認識装置
JP2006065640A (ja) * 2004-08-27 2006-03-09 Toyota Central Res & Dev Lab Inc 顔部品位置検出装置及び方法並びにプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0678901A (ja) * 1992-06-12 1994-03-22 Nec Corp 上まぶた領域、目頭・目尻・上まぶた領域及び目の構造の検出方法及び装置
JP2000137792A (ja) * 1998-10-30 2000-05-16 Toyota Motor Corp 眼部検出装置
JP2003173436A (ja) * 2001-09-27 2003-06-20 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理方法及びそのプログラムをコンピュータ読み取り可能に記録した記録媒体
JP2003323640A (ja) * 2002-04-26 2003-11-14 Asia Air Survey Co Ltd レーザスキャナデータと空中写真画像を用いた高精度都市モデルの生成方法及び高精度都市モデルの生成システム並びに高精度都市モデルの生成のプログラム
JP2004341954A (ja) * 2003-05-16 2004-12-02 Nissan Motor Co Ltd 覚醒度レベル判定装置
JP2005293539A (ja) * 2004-03-08 2005-10-20 Matsushita Electric Works Ltd 表情認識装置
JP2006065640A (ja) * 2004-08-27 2006-03-09 Toyota Central Res & Dev Lab Inc 顔部品位置検出装置及び方法並びにプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010146159A (ja) * 2008-12-17 2010-07-01 Aisin Seiki Co Ltd 瞼検出装置、瞼検出方法及びプログラム
WO2013005560A1 (ja) * 2011-07-01 2013-01-10 アイシン精機株式会社 瞼検出装置、瞼検出方法及びプログラム
JP2013015970A (ja) * 2011-07-01 2013-01-24 Aisin Seiki Co Ltd 瞼検出装置、瞼検出方法及びプログラム

Similar Documents

Publication Publication Date Title
JP4309926B2 (ja) 顔特徴点検出装置、顔特徴点検出方法及びプログラム
JP4307496B2 (ja) 顔部位検出装置及びプログラム
JP4845698B2 (ja) 眼部検出装置、眼部検出方法及びプログラム
JP4309928B2 (ja) 瞼検出装置、瞼検出方法、及び、プログラム
JP4739870B2 (ja) サングラス検出装置及び顔中心位置検出装置
WO2011028023A2 (en) Apparatus and method for detecting eye state
JP4309927B2 (ja) まぶた検出装置及びプログラム
JP2008192100A (ja) 瞼検出装置及びプログラム
JP2008158922A (ja) 瞼検出装置、瞼検出方法及びプログラム
JP2008140270A (ja) 眼部検出装置、眼部検出方法及びプログラム
CN109951635A (zh) 拍照处理方法、装置、移动终端以及存储介质
JP2005190400A (ja) 顔画像検出方法及び顔画像検出システム並びに顔画像検出プログラム
JP2007072628A (ja) 顔向き判別装置
JP2005165984A (ja) 人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム
JP2000105819A (ja) 顔領域検出装置
CN112288697B (zh) 用于量化异常程度的方法、装置、电子设备及可读存储介质
JP2005134966A (ja) 顔画像候補領域検索方法及び検索システム並びに検索プログラム
JP2008226189A (ja) 特徴点検出装置及びプログラム
JP2002269545A (ja) 顔画像処理方法及び顔画像処理装置
JP4878273B2 (ja) 眼鏡検出装置、画像処理装置、眼鏡検出方法、及び、コンピュータプログラム
JP2005316743A (ja) 画像処理方法および画像処理装置
JP5128454B2 (ja) 瞼検出装置、瞼検出方法及びプログラム
JP2005165983A (ja) 人物顔のあご検出方法及びあご検出システム並びにあご検出プログラム
JP2007219899A (ja) 個人識別装置、個人識別方法および個人識別プログラム
Chang et al. Multi-level smile intensity measuring based on mouth-corner features for happiness detection

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090305

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111018

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120221