JP2008226189A - 特徴点検出装置及びプログラム - Google Patents
特徴点検出装置及びプログラム Download PDFInfo
- Publication number
- JP2008226189A JP2008226189A JP2007067588A JP2007067588A JP2008226189A JP 2008226189 A JP2008226189 A JP 2008226189A JP 2007067588 A JP2007067588 A JP 2007067588A JP 2007067588 A JP2007067588 A JP 2007067588A JP 2008226189 A JP2008226189 A JP 2008226189A
- Authority
- JP
- Japan
- Prior art keywords
- edge line
- edge
- image
- face
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 66
- 238000000605 extraction Methods 0.000 claims abstract description 46
- 230000008859 change Effects 0.000 claims description 14
- 238000007689 inspection Methods 0.000 claims 2
- 238000000034 method Methods 0.000 description 134
- 230000008569 process Effects 0.000 description 127
- 210000000744 eyelid Anatomy 0.000 description 65
- 230000005484 gravity Effects 0.000 description 15
- 230000001815 facial effect Effects 0.000 description 14
- 239000000284 extract Substances 0.000 description 13
- 238000007781 pre-processing Methods 0.000 description 13
- 238000003708 edge detection Methods 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 9
- 238000002372 labelling Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 210000003928 nasal cavity Anatomy 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】CPU24は、特徴点を抽出する対象となるカメラ10から取得された顔画像に含まれる画素列の内、所定の大きさLn未満である画素列をノイズ成分として、除去する。更に、設定メモリ28に記憶されたパラメータが示すエッジラインを探索する領域内にて、特徴点の候補となるエッジラインを探索する。
【選択図】図2
Description
特許文献1に開示されている特徴点検出装置は、画像入力部から入力される顔画像を白又は黒に二値化して、二値化した顔画像から顔面の候補となる領域を抽出する。顔面の候補となる領域に接しない所定領域はマスク処理を施してラベリングを行い、顔面の候補となる領域が顔面の画像であるときは、顔面の画像の内から特徴点として顔幅、眼の位置、眼の開閉状態等が抽出される。
このため、顔面の特徴点を抽出するときに、正しくない特徴点を検出するおそれがある。
対象者の顔を撮影して得られた顔画像に含まれる、階調の異なる領域の境界線であるエッジラインを抽出するエッジライン抽出手段と、
該エッジライン抽出手段が抽出したエッジラインのうちから、所定の大きさ未満であるエッジラインをノイズ成分として除去するノイズ処理手段と、
該ノイズ処理手段によってノイズ成分が除去されたエッジラインの内で所定の条件を満たすものを、前記対象者の特徴点を示すエッジラインであると判別する特徴点判別手段と、
を備えることを特徴とする。
前記顔画像に基づき、該顔画像の階調が変化する程度を表す階調変化画像を生成する画像処理手段と、
前記画像処理手段により生成された階調変化画像中のエッジラインを細線化する細線化手段と、を備え、
前記ノイズ処理手段は、前記細線化手段により細線化されたエッジラインの内から、所定の大きさ未満と判別されたものをノイズ成分として除去する、ことを特徴とする。
前記顔画像に基づき、該顔画像の二値化画像を生成する画像処理手段と、
前記画像処理手段により生成された二値化画像の明暗の境界をエッジラインとして検出する境界検出手段と、を備え、
前記ノイズ処理手段は、前記境界検出手段により検出されたエッジラインの内から、所定の大きさ未満と判別されたものをノイズ成分として除去する、ことを特徴とする。
前記エッジライン抽出手段は、前記記憶手段が記憶するパラメータが示す領域内でエッジラインを探索する、ことを特徴とする。
コンピュータに、
対象者の顔の撮像画像を取得するステップ、
前記取得された顔画像から、画像領域の境界を示すエッジラインを抽出するエッジライン抽出ステップ、
抽出したエッジラインのうちから、所定の大きさ未満のエッジラインをノイズ成分として除去するノイズ除去ステップ、
前記ノイズ成分が除去されたエッジラインのうちから所定の条件を満たすものを、対象者の特徴点を示すエッジラインとして処理するステップ、
を実行させる。
以下、図1乃至17を参照して、本発明の実施形態1に係る特徴点検出装置50について説明する。
本実施形態の特徴点検出装置50は、図1に示す全体構成のように、ドライバーの顔を撮影して顔画像を生成するカメラ10、ドライバーの顔を照明する照明光源12、ドライバーの顔画像から特徴点を抽出するコンピュータ14、コンピュータ14に接続された表示装置16、を備える。なお、表示装置16は必須の構成ではなく、必ずしも設ける必要はない。
コンピュータ14は、図2に示す回路構成のように、A/D変換器21、画像メモリ22、ROM(Read Only Memory)23、CPU(Central Processing Unit)24、RAM(Random Access Memory)25、表示制御装置26、光源制御装置27、設定メモリ28、操作装置29、を備える。
ROM23は、図3(a)、(b)に示すような、縦エッジ検出用と横エッジ検出用ソーベルフィルタのオペレータを格納する。縦エッジ検出用ソーベルフィルタと横エッジ検出用のソーベルフィルタとは、それぞれ、図3(c)、(d)に示すような縦方向の濃淡差、横方向の濃淡差を強調するためのオペレータである。
例えば、図3(e)では、鼻孔や口の画像が存在すると想定される領域が「y1≦y≦y2」の範囲に設定されている。また、鼻孔や口の画像が存在すると想定される領域より上部の領域である顔上部領域Aを特定するデータが格納されている。以下、鼻孔や口の画像が存在すると想定される領域、及び、顔上部領域A、を設定領域と呼ぶ。
また、ユーザは操作装置29を介して設定領域を入力して、設定メモリ28に設定情報を格納させることも可能である。
実施形態1では、特徴点閾値Lfは4〜9に設定されており、特徴点閾値Lfに基づいて、横方向の大きさが4〜9画素分以上であるエッジラインが上下瞼の候補となるエッジラインとして判別される。なお、特徴点閾値Lfは任意の値に設定されていてもよい。
実施形態1では、エッジラインの横方向の大きさが1であるか否かに基づいてノイズ成分を判別するものとして、ノイズ閾値Ln=1に設定されているものとする。
実施形態1では、車両を運転するドライバーの顔動画像の内から、顔の特徴点として上下瞼の候補となるエッジラインを抽出する。
なお、以下では、図3(a)の縦エッジ検出用ソーベルフィルタにより縦エッジを強調する処理の施された顔画像を「縦ソーベル画像」といい、図3(b)の横エッジ検出用ソーベルフィルタにより横エッジを強調する処理が施された顔画像を「横ソーベル画像」という。また、縦ソーベル画像と横ソーベル画像とを併せて、「ソーベル画像」(階調変化画像)と総称する。
また、ソーベル画像の各画素は、それぞれ変化の方向にプラス若しくはマイナスの符号を持つ。
細線化処理は、例えば、横ソーベル画像において、横ソーベル画像の各列を縦方向に走査していき、極大、極小となる画素を検出する方法を採用できる。また、縦ソーベル画像において、縦ソーベル画像の各列を横方向に走査していき、極大、極小となる画素を検出する方法を採用できる。
ソーベル値が極大、極小となる画素がエッジラインを構成するため、このような画素を検出すること(細線化処理)により、エッジラインが抽出される(エッジライン抽出処理)。
グループ化されたエッジライン毎にその画素数を検出し、画素数が所定の閾値(Ln=1)以下であるエッジラインの画素は除去される(ノイズ除去処理)。
ノイズ成分が除去されたソーベル画像内の各エッジラインは、その大きさが所定の大きさ(特徴点閾値Lf=4〜9画素)であるか否か判別される。大きさが4〜9画素であるエッジラインは、上下瞼の候補となるエッジラインであると判別される。
上下瞼の候補になる各エッジラインの、上瞼と下瞼との重心間の距離を示す瞼開度と、瞼開度が得られた時の時刻と、を対応付けた瞼開度時系列情報が生成され、瞼開度時系列情報が所定の条件に合致したエッジラインが正しい上下瞼として定められる。
これにより、ソーベル画像からノイズ成分を除去した上で、上下瞼候補ひいては上下瞼を判別することができる。
電源が投入されると、コンピュータ14内のCPU24は、図4に示す処理を繰り返して実行する。即ち、CPU24は、前処理(ステップA0)、顔位置判別処理(ステップB0)、顔中心線検出処理(ステップC0)、鼻孔検出処理(ステップD0)、エッジライン抽出処理(ステップE0)、ノイズ除去処理(ステップE3)、上下瞼候補決定処理(ステップE5)、上下瞼判別処理(ステップF0)、から構成される処理を繰り返して実行する。
鼻孔検出処理(ステップD0)は、ドライバーの鼻孔(鼻孔に相当する画像)を検出するための処理である。
また、顔上部領域A内のソーベル画像から上瞼に対応するエッジラインの候補及び下瞼に対応するエッジラインの候補となるエッジライン(群)の抽出を行うための処理である。
このように、本実施形態においては、先ず鼻孔を検出し、検出された鼻孔に基づいて顔上部領域Aを設定し、設定した顔上部領域Aにおいてエッジラインの抽出を行っている。
上下瞼候補決定処理(ステップE5)は、ノイズ成分が除去された後に残ったエッジラインから、上下瞼の候補となるエッジラインを決定する処理である。
前処理(ステップA0)は、図5に示すように、キャプチャ処理(ステップA1)と、座標変換処理(ステップA2)と、ソーベルフィルタ処理(画像処理)(ステップA3)と、から構成される。
また、ソーベルフィルタ処理(ステップA3)は、横エッジ検出用ソーベルフィルタ(図3(b))を用いて座標変換後の顔画像を処理して、顔画像内の横エッジを強調する処理も行う。
前提として、顔画像を構成する各画素は、第0階調〜第255階調の256階調の内いずれかの階調を有するものとする。第0階調は黒、第255階調は白である。顔画像は、白黒画像でもカラー画像でもよい。
乗算して得られた値を全て合計して、その合計値を抽出した画素の階調に設定する。以下、図3(a)又は(b)のオペレータによる操作後に各画素の階調として設定された値を「ソーベル値」という。
この操作を順次繰り返して顔画像全体に施すことにより、該顔画像の階調の変化の割合(階調の縦方向又は横方向の微分)を示すソーベル画像が抽出される。
なお、CPU24は、ステップA3において抽出された図3(e)のソーベル画像をRAM25に記憶させる。
図4の顔位置判別処理(ステップB0)は、前処理済みのソーベル画像を用いて顔の左右両端位置と上下位置を検出する処理であり、図6に示すように、顔両端検出処理(ステップB1)と顔上下位置検出処理(ステップB2)とから構成される。
具体的に述べると、各画素のソーベル値を何段階かに分割し、x値毎に最も多く各画素のソーベル値を取る段階を決定する。x値毎の上記段階の平均値のグラフを上記のヒストグラムとする。
続いて、このヒストグラムのピーク値の高いものを所定数抽出して、これをソートして(ステップB12)、ヒストグラム値に基づき、端点を抽出する(ステップB13)。例えば、ヒストグラム値の上位1又は2つが他と比較して極端に値が大きい場合、その点を端点とする。
一方、端点が2つ抽出できていなければ(ステップB14;No)、2点の距離が、人の顔幅としてもっともらしい間隔を有する組み合わせを抽出することにより、端点を決定し(ステップB15)、最終的に、顔面の両端(x座標)を決定する処理を行う(ステップB16)。
顔両端検出処理(ステップB1)が完了すると、処理を顔上下位置検出処理(ステップB2)に移す。
顔上下位置検出処理(ステップB2)は、図8に示すように、ヒストグラム作成処理(ステップB21)、目下候補検出処理(ステップB22)、顔上下位置算出処理(ステップB23)、から構成される。
具体的に述べると、各画素のソーベル値を何段階かに分割し、y値毎に最も多く各画素のソーベル値を取る段階を決定する。y値毎の上記段階の平均値のグラフを上記のヒストグラムとする。
顔上下位置算出処理(ステップB23)は、選択した候補から、顔の上端位置(y座標)(例えば、目・眉の位置)を検出する処理である。なお、顔上端位置(y座標)は、例えば、検出した眉から3画素分上の位置とし、下端位置は検出した口から3画素分下の位置(口と顎の間)などに設定される。
ここで、顔両端位置(x座標)を図3(e)のドライバーの顔画像に表した場合、図9に示すように、顔の両端位置の座標a、bに対応する。また、顔上下位置(y座標)は、顔の上下位置の座標c、eに対応する。
顔中心線検出処理(ステップC0)は、ドライバーの顔の中心線Bを求めて、ドライバーの顔が正面を向いているか否かを判別する処理であり、例えば、図10に示す構成を有する。
顔の中心のx座標=Σ(xi・Gi)/ΣGi
xi:i番目の画素のx座標の値
Gi:i番目の画素の階調値
i:1〜n nは画素の総数
一方、B<(a+b)/2でない場合(ステップC2;No)、CPU24は、ドライバーの顔が左方向を向いているか、正面を向いているかを、x軸の顔中心線Bが左右両端位置の中心(a+b)/2より大きいか否かにより判別する(ステップC3)。
B>(a+b)/2でない場合(ステップC3;No)、CPU24は、ドライバーの顔が正面を向いていると判別して、処理を鼻孔検出処理(ステップD0)に移す。
このように顔が正面を向いているときに、鼻孔検出処理を行う。
鼻孔探索領域の抽出処理において、鼻孔の存在が予定されている領域を定義する領域指定データ(図3(e)に示すy1,y2)をROM23から読み出し、領域指定データ内に該当する顔画像(鼻孔領域)を切り出す。
なお、以下では座標(x,y)に位置する画素を「画素(x,y)」で示す。また、ステップD1で抽出された領域(a≦x≦b、y1≦y≦y2)を「鼻孔探索領域」という。
顔画像中の鼻孔探索領域内において、所定の閾値より階調値が小さい画素が縦横ともに3〜5連続している領域を鼻孔候補とし、例えば、鼻孔候補が水平に2つ並んでいるものを鼻孔として、その2つの鼻孔候補の中心を鼻孔位置とする。
先ず、処理をエッジライン抽出処理(ステップE0)に移す。
エッジライン抽出処理は、ソーベル画像を得る画像処理、画像処理により得られたソーベル画像を細線化する細線化処理、から構成される。
本実施形態においては、前処理(ステップA0)のソーベルフィルタ処理(ステップA3)によりソーベル画像が予め得られているため、前処理で得られたソーベル画像を用いている。
なお、前処理においてソーベルフィルタ処理が不要な場合(例えば、顔位置、顔向き、等を検出する必要がない場合)には、細線化処理の前に画像処理としてのソーベルフィルタ処理を行い、ソーベル画像を得るようにしてもよい。
実施形態1では鼻孔の位置に基づいて、顔上部領域Aを抽出するように設定されている。
例えば、鼻孔から上方に所定距離だけ離れた位置に顔上部領域Aを抽出する。
このような画像を検出することにより、当該画素をエッジラインとして抽出することができる。エッジラインを抽出した後、以下のノイズ除去処理を行う。
ラベリング処理(ステップE31)は、上記のようにしてエッジラインとして検出された画素において、各画素の周囲に同じ種類のエッジラインの画素が存在するか否かを判別し、存在する場合には、対象となる画素とその周囲に存在する画素とを同一のエッジラインを構成する画素としてラベリングする。
以上により、横エッジについてエッジライン抽出処理及びノイズ除去処理が完了する。
本実施形態においては、横エッジのノイズ除去処理が完了後、縦エッジについてエッジライン抽出処理及びノイズ除去処理を実行している。具体的には、横エッジの場合と同様であるが、細線化処理としての縦エッジ抽出処理を以下のように行う。
縦エッジ抽出処理のノイズ除去処理が完了すれば、処理を上下瞼候補決定処理(ステップE5)に移す。
得られている場合には(ステップE51;Yes)、上下瞼の候補となるエッジラインが検出されたと決定して(ステップE52)、処理を上下瞼判別処理(ステップF0)に移す。
上下瞼判別処理(ステップF0)は、例えば、図16に示す構成を有する。
ここで、エッジライン抽出処理(ステップE0)完了後の顔上部領域Aはソーベルフィルタ処理(ステップA3)が施されていることにより、図17(a)に示すように、y軸方向に輝度が暗い画素から明るい画素に移るエッジラインがマイナスエッジとして点線で表され、y軸方向に光度が明るい画素から暗い画素に移るエッジラインがプラスエッジとして実線で表されている。
|Lp−Lm|<Lth・・・(1)
ただし、Lpはプラスエッジの長さを表す値であり、Lmはマイナスエッジの長さを表す値であり、Lthは閾値である。数式(1)を満たすマイナスエッジとプラスエッジとの長さは閾値Lthの範囲で近似している。
|Cxp−Cxm|<Cxth・・・(2)
ただし、Cxpはプラスエッジの重心のx座標、Cxmはマイナスエッジの重心のx座標、Cxthは閾値、である。数式(2)を満たすマイナスエッジとプラスエッジとの重心のx座標は閾値Cxthの範囲で近似している。
Dg<Dth・・・(3)
ただし、Dgはマイナスエッジの重心とプラスエッジの重心との間の距離であり、Dthは閾値である。数式(3)を満たすマイナスエッジとプラスエッジとの重心間距離は閾値Dth以内である。
図17(a)の内から、数式(1)〜(3)を満たすマイナスエッジとプラスエッジの組み合わせをドライバーの瞼の候補として抽出する。このとき、プラスエッジPE1とマイナスエッジME1との組み合わせが候補1、プラスエッジPE2とマイナスエッジME2との組み合わせが候補2、プラスエッジPE3とマイナスエッジME3との組み合わせが候補3、プラスエッジPE4とマイナスエッジME4との組み合わせが候補4、となる。
つまり、プラスエッジの重心のy座標とマイナスエッジの重心のy座標との中点のy座標を求め、このy座標のx軸方向両側(あるいは一方)に縦エッジが存在する場合に、当該プラスエッジとマイナスエッジとの組合せを上下瞼候補として抽出するようにしてもよい。
候補3〜4は、図18(c)〜(d)に示すように距離Dgの時間軸に対するグラフにおいて極小値MV1〜MV6を持つ。
CPU24は、y軸方向又はその反対方向に重心が移動するマイナスエッジとプラスエッジの組み合わせがない場合(ステップF5;No)、CPU24は、設定メモリ28に格納されている設定情報を変更することにより、設定領域を変更または拡大して(ステップF6)、処理をステップF1に戻す。
これにより、ソーベル画像からドライバーの正しい上下瞼が求められ、図4の全ての処理が終了する。
これにより、顔の特徴点を示す画像を検出するときに、検出処理時間を短縮することが可能となる。
実施形態1では、ソーベルフィルタにより階調の変化の割合を抽出する処理を顔画像に施して、ソーベル画像から顔の特徴点を示すエッジラインを抽出した。しかし、顔の特徴点を示すエッジラインの抽出はソーベルフィルタ処理以外の処理を施した顔画像から抽出するようにしてもよい。
実施形態2では、顔画像に二値化処理(画像処理)を施した後の顔画像(二値化画像)から顔の特徴点を示すエッジラインを抽出する例を示す。
実施形態2の特徴点検出装置50の構成、及び、コンピュータ14の回路構成は、実施形態1と同一である。
実施形態2の顔の特徴点を抽出する動作は、以下の点において実施形態1と異なる。
実施形態2の前処理(ステップA0)では、座標変換処理(ステップA2)を施した後の顔画像を、所定の閾値に基づいて二値化する。二値化する際の閾値には、例えば、顔画像を形成する全画素の階調の平均値を使用できる。
これにより、図19(a)に示すように、二値化処理の施されたドライバーの顔画像(二値化画像)が生成される。
前処理(ステップA0)が完了すると、処理を顔位置判別処理(ステップB0)、顔中心線検出処理(ステップC0)に移す。
顔位置判別処理(ステップB0)により、図18(a)に示すように、ドライバーの左右方向及び上下方向の顔の位置(座標)a,b,c,dが定まる。また、顔中心線検出処理(ステップC0)により、図18(a)に示すように、ドライバーの顔の左右の中心線(仮想線)Bが検出される。
実施形態2のエッジライン抽出処理(ステップE0)は、図13に示す実施形態1のエッジライン抽出処理(ステップE0)と基本的な流れは同一である。
ただし、実施形態2のエッジライン抽出処理(ステップE0)では、二値化画像の明暗の境界をエッジラインとして抽出することにより眼の候補の画像を抽出して、眼の候補の画像から上下瞼の候補のエッジラインを抽出する。
同様に、暗(黒)から明(白)に変化したときの暗(黒)あるいは明(白)の画素を、暗から明へのエッジラインを構成する画素として検出する。
これにより、エッジラインが抽出される。
次に、ノイズ除去処理を実行する。
ただし、図14のノイズ除去処理(ステップE3)において、ラベリング処理(ステップE31)は、エッジラインとして抽出された画素において、各画素の周囲に同じ種類(ここでは、明→暗、あるいは、暗→明)のエッジラインの画素が存在するか否かを判別し、存在する場合には、対象となる画素とその周囲に存在する画素とを同一のエッジラインを構成する画素としてラベリングする点が異なる。
エッジライン抽出処理、ノイズ除去処理が完了すると、処理を上下瞼候補決定処理(ステップE5)に移す。上下瞼候補決定処理(ステップE5)は、実施形態1と同様である。
上下瞼候補決定処理を完了すると、処理を上下瞼判別処理に移す。
上下瞼判別処理(ステップF0)により、上下瞼の候補のエッジラインの内から、図17(b)に示すように、プラスエッジの重心がy軸方向と反対方向に移動しているときにマイナスエッジの重心がy軸方向に移動し、プラスエッジの重心がy軸方向に移動しているときに、マイナスエッジの重心がy軸方向と反対方向に移動する候補が、上下瞼として判定される。
また、顔の特徴点を示すエッジラインと黒の画素との間に位置する白の連続数も任意の値を設定できるようにしてもよい。
これにより、顔の特徴点を示す画像を検出するときに、検出処理時間を短縮することが可能となる。
本実施形態では、コンピュータ14は、カメラ10が撮影した対象者の顔の動画像について眼瞼検出処理を行ったが、カメラ10以外の外部装置から取得した対象者の顔の動画像を画像メモリ22に格納しておき、その動画像について眼瞼検出処理を行ってもよい。
12 照明光源
14 コンピュータ
16 表示装置
21 A/D変換器
22 画像メモリ
23 ROM
24 CPU(エッジライン抽出手段、ノイズ処理手段、特徴点判別手段、画像処理手段、細線化手段、境界検出手段)
25 RAM
26 表示制御装置
28 設定メモリ(記憶手段)
29 操作装置
50 特徴点検出装置
Claims (5)
- 対象者の顔を撮影して得られた顔画像に含まれる、階調の異なる領域の境界線であるエッジラインを抽出するエッジライン抽出手段と、
該エッジライン抽出手段が抽出したエッジラインのうちから、所定の大きさ未満であるエッジラインをノイズ成分として除去するノイズ処理手段と、
該ノイズ処理手段によってノイズ成分が除去されたエッジラインの内で所定の条件を満たすものを、前記対象者の特徴点を示すエッジラインであると判別する特徴点判別手段と、
を備えることを特徴とする特徴点検出装置。 - 前記エッジライン抽出手段は、
前記顔画像に基づき、該顔画像の階調が変化する程度を表す階調変化画像を生成する画像処理手段と、
前記画像処理手段により生成された階調変化画像を細線化してエッジラインを抽出する細線化手段と、を備え、
前記ノイズ処理手段は、前記細線化手段により抽出されたエッジラインの内から、所定の大きさ未満と判別されたものをノイズ成分として除去する、ことを特徴とする請求項1に記載の特徴点検出装置。 - 前記エッジライン抽出手段は、
前記顔画像に基づき、該顔画像の二値化画像を生成する画像処理手段と、
前記画像処理手段により生成された二値化画像の明暗の境界をエッジラインとして検出する境界検出手段と、を備え、
前記ノイズ処理手段は、前記境界検出手段により検出されたエッジラインの内から、所定の大きさ未満と判別されたものをノイズ成分として除去する、ことを特徴とする請求項1に記載の特徴点検出装置。 - エッジラインを探索する領域を示すパラメータを記憶する記憶手段を備え、
前記エッジライン抽出手段は、前記記憶手段が記憶するパラメータが示す領域内でエッジラインを探索する、ことを特徴とする請求項1に記載の特徴点検出装置。 - コンピュータに、
対象者の顔の撮像画像を取得するステップ、
前記取得された顔画像から、画像領域の境界を示すエッジラインを抽出するエッジライン抽出ステップ、
抽出したエッジラインのうちから、所定の大きさ未満のエッジラインをノイズ成分として除去するノイズ除去ステップ、
前記ノイズ成分が除去されたエッジラインのうちから所定の条件を満たすものを、対象者の特徴点を示すエッジラインとして処理するステップ、
を実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007067588A JP2008226189A (ja) | 2007-03-15 | 2007-03-15 | 特徴点検出装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007067588A JP2008226189A (ja) | 2007-03-15 | 2007-03-15 | 特徴点検出装置及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008226189A true JP2008226189A (ja) | 2008-09-25 |
Family
ID=39844665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007067588A Pending JP2008226189A (ja) | 2007-03-15 | 2007-03-15 | 特徴点検出装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008226189A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010146159A (ja) * | 2008-12-17 | 2010-07-01 | Aisin Seiki Co Ltd | 瞼検出装置、瞼検出方法及びプログラム |
WO2013005560A1 (ja) * | 2011-07-01 | 2013-01-10 | アイシン精機株式会社 | 瞼検出装置、瞼検出方法及びプログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0678901A (ja) * | 1992-06-12 | 1994-03-22 | Nec Corp | 上まぶた領域、目頭・目尻・上まぶた領域及び目の構造の検出方法及び装置 |
JP2000137792A (ja) * | 1998-10-30 | 2000-05-16 | Toyota Motor Corp | 眼部検出装置 |
JP2003173436A (ja) * | 2001-09-27 | 2003-06-20 | Matsushita Electric Ind Co Ltd | 画像処理装置、画像処理方法及びそのプログラムをコンピュータ読み取り可能に記録した記録媒体 |
JP2003323640A (ja) * | 2002-04-26 | 2003-11-14 | Asia Air Survey Co Ltd | レーザスキャナデータと空中写真画像を用いた高精度都市モデルの生成方法及び高精度都市モデルの生成システム並びに高精度都市モデルの生成のプログラム |
JP2004341954A (ja) * | 2003-05-16 | 2004-12-02 | Nissan Motor Co Ltd | 覚醒度レベル判定装置 |
JP2005293539A (ja) * | 2004-03-08 | 2005-10-20 | Matsushita Electric Works Ltd | 表情認識装置 |
JP2006065640A (ja) * | 2004-08-27 | 2006-03-09 | Toyota Central Res & Dev Lab Inc | 顔部品位置検出装置及び方法並びにプログラム |
-
2007
- 2007-03-15 JP JP2007067588A patent/JP2008226189A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0678901A (ja) * | 1992-06-12 | 1994-03-22 | Nec Corp | 上まぶた領域、目頭・目尻・上まぶた領域及び目の構造の検出方法及び装置 |
JP2000137792A (ja) * | 1998-10-30 | 2000-05-16 | Toyota Motor Corp | 眼部検出装置 |
JP2003173436A (ja) * | 2001-09-27 | 2003-06-20 | Matsushita Electric Ind Co Ltd | 画像処理装置、画像処理方法及びそのプログラムをコンピュータ読み取り可能に記録した記録媒体 |
JP2003323640A (ja) * | 2002-04-26 | 2003-11-14 | Asia Air Survey Co Ltd | レーザスキャナデータと空中写真画像を用いた高精度都市モデルの生成方法及び高精度都市モデルの生成システム並びに高精度都市モデルの生成のプログラム |
JP2004341954A (ja) * | 2003-05-16 | 2004-12-02 | Nissan Motor Co Ltd | 覚醒度レベル判定装置 |
JP2005293539A (ja) * | 2004-03-08 | 2005-10-20 | Matsushita Electric Works Ltd | 表情認識装置 |
JP2006065640A (ja) * | 2004-08-27 | 2006-03-09 | Toyota Central Res & Dev Lab Inc | 顔部品位置検出装置及び方法並びにプログラム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010146159A (ja) * | 2008-12-17 | 2010-07-01 | Aisin Seiki Co Ltd | 瞼検出装置、瞼検出方法及びプログラム |
WO2013005560A1 (ja) * | 2011-07-01 | 2013-01-10 | アイシン精機株式会社 | 瞼検出装置、瞼検出方法及びプログラム |
JP2013015970A (ja) * | 2011-07-01 | 2013-01-24 | Aisin Seiki Co Ltd | 瞼検出装置、瞼検出方法及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4309926B2 (ja) | 顔特徴点検出装置、顔特徴点検出方法及びプログラム | |
JP4307496B2 (ja) | 顔部位検出装置及びプログラム | |
JP4845698B2 (ja) | 眼部検出装置、眼部検出方法及びプログラム | |
JP4309928B2 (ja) | 瞼検出装置、瞼検出方法、及び、プログラム | |
JP4739870B2 (ja) | サングラス検出装置及び顔中心位置検出装置 | |
WO2011028023A2 (en) | Apparatus and method for detecting eye state | |
JP4309927B2 (ja) | まぶた検出装置及びプログラム | |
JP2008192100A (ja) | 瞼検出装置及びプログラム | |
JP2008158922A (ja) | 瞼検出装置、瞼検出方法及びプログラム | |
JP2008140270A (ja) | 眼部検出装置、眼部検出方法及びプログラム | |
CN109951635A (zh) | 拍照处理方法、装置、移动终端以及存储介质 | |
JP2005190400A (ja) | 顔画像検出方法及び顔画像検出システム並びに顔画像検出プログラム | |
JP2007072628A (ja) | 顔向き判別装置 | |
JP2005165984A (ja) | 人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム | |
JP2000105819A (ja) | 顔領域検出装置 | |
CN112288697B (zh) | 用于量化异常程度的方法、装置、电子设备及可读存储介质 | |
JP2005134966A (ja) | 顔画像候補領域検索方法及び検索システム並びに検索プログラム | |
JP2008226189A (ja) | 特徴点検出装置及びプログラム | |
JP2002269545A (ja) | 顔画像処理方法及び顔画像処理装置 | |
JP4878273B2 (ja) | 眼鏡検出装置、画像処理装置、眼鏡検出方法、及び、コンピュータプログラム | |
JP2005316743A (ja) | 画像処理方法および画像処理装置 | |
JP5128454B2 (ja) | 瞼検出装置、瞼検出方法及びプログラム | |
JP2005165983A (ja) | 人物顔のあご検出方法及びあご検出システム並びにあご検出プログラム | |
JP2007219899A (ja) | 個人識別装置、個人識別方法および個人識別プログラム | |
Chang et al. | Multi-level smile intensity measuring based on mouth-corner features for happiness detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20090305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20090305 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090806 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110801 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111018 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120221 |