JP4848302B2 - 目検出装置、目検出方法およびプログラム - Google Patents

目検出装置、目検出方法およびプログラム Download PDF

Info

Publication number
JP4848302B2
JP4848302B2 JP2007066166A JP2007066166A JP4848302B2 JP 4848302 B2 JP4848302 B2 JP 4848302B2 JP 2007066166 A JP2007066166 A JP 2007066166A JP 2007066166 A JP2007066166 A JP 2007066166A JP 4848302 B2 JP4848302 B2 JP 4848302B2
Authority
JP
Japan
Prior art keywords
nostril
candidate
face
face image
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007066166A
Other languages
English (en)
Other versions
JP2008226073A (ja
Inventor
義 浅野
重康 魚住
勇二 蜷川
健一 大上
真一 小島
悟 中西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Motor Corp
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Motor Corp, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2007066166A priority Critical patent/JP4848302B2/ja
Publication of JP2008226073A publication Critical patent/JP2008226073A/ja
Application granted granted Critical
Publication of JP4848302B2 publication Critical patent/JP4848302B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、たとえば車両等の移動体を運転している運転者等の目を検出する目検出装置、目検出方法およびプログラムに関する。
人の顔を含む画像から、人の顔や眼の位置を検出する技術が知られている。たとえば、特許文献1には、入力された人の顔の画像の縦方向の画素列に沿って画素の濃度を検出し、画素列の濃度値および当該濃度値の変化値によりポイントを抽出し、抽出したポイントの連続データとして眼の瞼の領域を捉える居眠り状態検出装置が開示されている。
特開平10−275212号公報
しかし、特許文献1の居眠り状態検出装置では、画素の濃度値および濃度値の変化値により眼の位置を検討しているため、眉毛や鼻下などにおける画素の濃度変化を眼の位置と誤検出することがある。また、髪型などにより眉毛が消えたり、眼鏡などの要因が存在するといった、眼の位置の探索領域を探すときの誤判定要因が存在する。これらの誤判定要因のため、特許文献1の居眠り状態検出装置では、眼の位置の探索領域を間違えることがある。
本発明は、上記問題点に鑑みてなされたものであり、目の位置の探索領域を間違えることのない目検出装置、目検出方法およびプログラムを提供することを課題とする。
上記課題を解決するために、本発明の第1の観点に係る目検出装置は、
対象者の顔の画像を記憶する顔画像記憶手段と、
前記顔画像記憶手段が記憶した顔画像に基づいて、該顔画像内の目の下の位置の候補を求める目下位置候補検出手段と、
前記顔画像記憶手段に記憶されている前記顔画像上の所定の鼻孔検索領域内で顔の鼻孔を検索し、鼻孔が検出できたときに、検出した鼻孔の位置を基準として、前記目の下の位置の候補のうちから顔画像の目の下に位置するものを選択する目下位置選択手段と、
前記目下位置選択手段が選択した目下位置に基づいて定められた目探索領域内において、対象者の目に対応する画像を検出する目検出手段と、から構成され、
前記目下位置候補検出手段は、
前記顔画像記憶手段に記憶されている顔画像を横ソーベルフィルタで処理して横ソーベル画像を生成する横ソーベル手段と、
前記横ソーベル手段により生成された横ソーベル画像の各横ライン上の画素の階調値のヒストグラムを生成する手段と、
階調値のヒストグラムに基づいて、目の下を通る横ラインの候補を求め、該横ラインの位置を目下位置の候補として出力する目下位置候補出力手段と、
から構成されることを特徴とする。
前記目下位置候補出力手段は、
階調値のヒストグラムに基づいて、ヒストグラムのピーク値の高いものを所定数抽出して、抽出したヒストグラムが得られた位置を目下位置候補とする、
ことを特徴としてもよい。
前記目下位置選択手段は、前記目下位置候補検出手段により検出された目の下の位置の候補の一つに基づいて、前記鼻孔探索領域を設定する、
ことを特徴としてもよい。
前記顔画像記憶手段が記憶している顔画像の中心線を検出する顔中心線検出手段をさらに備え、
前記目下位置選択手段は、
前記鼻孔検索領域内で顔の鼻孔の候補を検索する検索手段と、
前記検索手段が検出した顔の鼻孔の候補の位置を求める鼻孔位置判別手段と、
前記鼻孔位置判別手段が判別した各備考の候補の位置と前記中心線とに基づいて、前記検索手段が検索した鼻孔の候補のうちで、前記顔の中心線に対してほぼ線対称をなす鼻孔候補の対を検出し、鼻孔と判別する手段と、
をさらに備えることを特徴としてもよい。
前記目下位置選択手段は、鼻孔が検出できたとき、鼻孔の上に位置し、最も鼻孔に近い目下位置候補を、目の下の位置として出力する、
ことを特徴としてもよい。
上記課題を解決するため、本発明の第2の観点に係る目検出方法は、
記憶されている顔画像を横ソーベルフィルタで処理して横ソーベル画像を生成し、生成した横ソーベル画像の各横ライン上の画素の階調値のヒストグラムを生成し、階調値のヒストグラムに基づいて、目の下を通る横ラインの候補を求め、該横ラインの位置を該顔画像内の目の下に位置する横ラインの候補として出力し、
前記顔画像上の所定の鼻孔検索領域内で顔の鼻孔を検索し、
鼻孔が検出できたときに、検出した鼻孔の位置を基準として、横ラインの候補のうちから顔画像の目の下に位置するものを選択し、
選択した横ラインに基づいて前記顔画像上に目探索領域を設定し、
設定した目探索領域内において、対象者の目に対応する画像を検出する、
ことを特徴とする。
上記課題を解決するため、本発明の第3の観点に係るプログラムは、
コンピュータを、
対象者の顔の画像を記憶する顔画像記憶手段、
前記顔画像記憶手段に記憶されている顔画像を横ソーベルフィルタで処理して横ソーベル画像を生成する横ソーベル手段、
前記横ソーベル手段により生成された横ソーベル画像の各横ライン上の画素の階調値のヒストグラムを生成する手段、
階調値のヒストグラムに基づいて、目の下を通る横ラインの候補を求め、該横ラインの位置を該顔画像内の目の下の位置の候補として出力する目下位置候補出力手段、
前記顔画像記憶手段に記憶されている前記顔画像上の所定の鼻孔検索領域内で顔の鼻孔を検索し、鼻孔が検出できたときに、検出した鼻孔の位置を基準として、前記目の下の位置の候補のうちから顔画像の目の下に位置するものを選択する目下位置選択手段、
前記目下位置選択手段が選択した目下位置に基づいて定められた目探索領域内において、対象者の目に対応する画像を検出する目検出手段、
として機能させる。
本発明によれば、目の位置の探索領域を間違えることのない目検出装置、目検出方法およびプログラムを提供できる。
以下、図面を参照して、本発明の実施形態に係る目検出装置50について説明する。
まず、図1から3を参照して、本実施形態の目検出装置50の構成について説明する。
目検出装置50は、図1に示すように、ドライバーの顔を撮影して顔画像を生成するカメラ10、ドライバーの顔を照明する照明光源12、ドライバーの顔画像から特徴点を抽出するコンピュータ14、コンピュータ14に接続された表示装置16、を備える。
カメラ10はたとえばCCD(Charge Coupled Devices)カメラ等から構成され、ドライバーの顔の階調画像を取得する。カメラ10によって生成される顔画像は、ドライバーの顔だけでなく、その背景なども含まれている。
表示装置16は、LCD(Liquid Crystal Display)またはCRT(Cathode Ray Tube)などから構成され、カメラ10で撮像された顔画像などを表示する。
コンピュータ14は、カメラ10により取得された顔画像を処理して、瞼を検出する。
コンピュータ14は、図2に示すように、A/D変換器21、画像メモリ22、ROM(Read Only Memory)23、CPU(Central Processing Unit)24、RAM(Random Access Memory)25、表示制御装置26、光源制御装置27、設定メモリ28、操作装置29、を備える。
A/D(アナログ/ディジタル)変換器21は、カメラ10で撮影されたアナログ画像信号をディジタル信号に変換する。
画像メモリ22は、カメラ10により生成され、A/D変換器21でディジタル化された画像データを格納する。
ROM23は、CPUの動作を制御するためのプログラムを記憶する。また、ROM23は、後述する画像処理を実行するための様々な固定データを記憶する。
CPU24は、コンピュータ14全体を制御する。また、CPU24は、ROM23に格納されているプログラムを実行することにより、カメラ10により取得された顔動画像を処理して顔動画像中の眼または瞼を検出する。
RAM25は、CPU24のワークエリアとして機能する。
表示制御装置26は、CPU24の制御のもと、映像データ等を表示装置16が出力可能なデータ形式に変換し、表示装置16に出力する。
光源制御装置27は、照明光源12の点灯・消灯を制御する。
設定メモリ28は、CPU24が顔動画像を処理して眼または瞼を検出する処理の設定に関する情報(以下、設定情報)を格納する。
操作装置29は、ユーザから操作情報を受け付け、操作に応じた操作信号をCPU24に送出する。
次に、図3を参照して、ROM23に格納される固定データの例を説明する。
ROM23は、図3(a)、(b)に示すような、縦エッジ検出用と横エッジ検出用ソーベルフィルタのオペレータを格納する。縦エッジ検出用ソーベルフィルタと横エッジ検出用のソーベルフィルタとは、それぞれ、図3(c)、(d)に示すような縦方向の濃淡差、横方向の濃淡差を強調するためのオペレータである。
以下、図4から図19を参照して、上記構成を有する本実施形態に係る目検出装置50が、カメラ10により取得されたドライバーの顔画像から顔の特徴点として上下瞼を抽出する動作を説明する。
まず、本実施形態の目検出装置50が上下瞼を抽出する動作の概要について説明する。
本実施形態では、車両を運転するドライバーの顔動画像の内から、顔の特徴点として上下瞼の候補となるエッジラインを抽出する。
ここで、エッジラインを抽出する前に、図3(a)、(b)に示したソーベルフィルタにより顔画像の階調の変化の割合が抽出されるように顔画像を処理する。
なお、以下では、図3(a)の横エッジ検出用ソーベルフィルタにより横エッジを強調する処理の施された顔画像を「横ソーベル画像」と呼び、図3(b)の縦エッジ検出用ソーベルフィルタにより縦エッジを強調する処理が施された顔画像を「縦ソーベル画像」と呼ぶ。また、横ソーベル画像と縦ソーベル画像とをあわせて、「ソーベル画像」と呼ぶ。
次に、顔画像に基づいて、顔の中心を通る縦のラインである顔の中心線を求め、顔の中心線の座標と、顔の左右端の座標とに基づいて、顔の向きが鼻の両孔が検出できる程度であるかどうかを判別する。顔の向きが鼻の両孔が検出できる程度でなければ、前処理に戻って処理をやり直す。
次に、横ソーベル画像に基づいて、眼(瞼)の直下を通るライン(目(瞼)の直下の位置)の候補となるライン(目下候補ライン)を抽出し、目下候補ラインの近傍で鼻孔が検出できるか否かを判別する。鼻孔が検出できたら、鼻孔の直上(鼻孔の上に位置する目下候補ラインのうち、鼻孔に最も近いもの)にある目下候補ラインを、眼(瞼)の直下を通るライン(目下ライン)として抽出する。
次に、横ソーベル画像の目下ラインの近傍を含む領域内からエッジラインを抽出し、上下瞼の候補になる各エッジラインの内で所定の条件を満たすエッジラインを、上下瞼を構成する組の候補として抽出する。
上下瞼の候補になる各エッジラインの、上瞼と下瞼との重心間の距離を示す瞼開度と、瞼開度が得られた時の時刻と、を対応付けた瞼開度時系列情報を生成し、瞼開度時系列情報が所定の条件に合致したエッジラインを正しい上下瞼として抽出する。
以下、本実施形態の目検出装置50が上下瞼を抽出する動作について、詳細に説明する。
電源が投入されると、コンピュータ14内のCPU24は、図4に示す瞼検出処理を繰り返して実行する。
すなわち、CPU24は、前処理(ステップS01)、顔位置・目下候補判別処理(ステップS02)、顔向き判別処理(ステップS03)、目下候補検索処理(ステップS04)、鼻孔検出処理(ステップS05)、上下瞼判別処理(ステップS06)、から構成される瞼検出処理を繰り返して実行する。
図4に示す前処理(ステップS01)と顔位置判別処理(ステップS02)とは、ドライバーの左右方向および上下方向の顔の位置(座標)を求めるための処理である。
顔向き判別処理(ステップS03)は、ドライバーの顔の左右の向きを判別するための処理である。
目下候補検索処理(ステップS04)は、ドライバーの眼(瞼)の直下を通るラインの候補となるライン(目下候補ライン)を検索する処理である。
鼻孔検出処理(ステップS05)は、目下候補ラインの近傍にあるドライバーの鼻孔に相当する画像を検出するための処理である。
上下瞼判別処理(ステップS06)は、ドライバーの鼻孔の位置に基づいて、上下瞼を探索する探索範囲を示す顔上部領域Aを設定し、顔上部領域A内のソーベル画像から上瞼に対応するエッジラインの候補および下瞼に対応するエッジラインの候補となるエッジライン(群)の抽出を行い、上下瞼の候補となるエッジラインの内で上下瞼の重心が移動する態様から瞼開度を算出し、瞼開度が所定の条件を満たす上下瞼候補のエッジラインを本物の瞼であると判定するための処理である。
以下、ステップS01〜S06までの各ステップにおいて実行される動作について詳細に説明する。
まず、前処理(ステップS01)について説明する。
前処理(ステップS01)は、図5に示すように、キャプチャ処理(ステップS011)と、座標変換処理(ステップS012)と、横ソーベルフィルタ処理(ステップS013)と、縦ソーベルフィルタ処理(ステップS014)と、から構成される。
キャプチャ処理(ステップS011)は、CPU24がカメラ10の撮影したドライバーの1フレーム(1/30秒)分の顔画像をA/D変換器21を介して取り込み、画像メモリ22に格納する処理である。
座標変換処理(ステップS012)は、CPU24が処理可能な程度に画素を間引く処理である。
横ソーベルフィルタ処理(ステップS013)は、CPU24がROM23に格納されている横エッジ検出用ソーベルフィルタ(図3(a))を用いて座標変換後の顔画像を処理して、顔画像内の横エッジを強調する処理を施したものを、RAM25に格納する処理である。
縦ソーベルフィルタ処理(ステップS014)は、CPU24がROM23に格納されている縦エッジ検出用ソーベルフィルタ(図3(b))を用いて座標変換後の顔画像を処理して、顔画像内の縦エッジを強調する処理を施したものを、RAM25に格納する処理である。
なお、ソーベルフィルタの処理動作について、より具体的に説明する。
前提として、顔画像を構成する各画素は、RGBの各色が8ビットの階調を有するように設定されており、第0階調〜第255階調の256階調の内いずれかの階調を有するものとする。第0階調は黒、第255階調は白である。
CPU24は、カメラ10により取得された顔画像から1つの画素を抽出する。抽出した画素を、図3(a)または(b)の3×3行列の中心に対応させて、抽出した画素の階調とその画素に隣接する全ての画素が有する各階調とに、図3(a)または(b)に示されるオペレータに対応する値をそれぞれ乗算する。
CPU24は、乗算して得られた値を全て合計して、その合計値を抽出した当該画素の階調に設定する。以下、図3(a)または(b)のオペレータによる操作後に各画素の階調として設定された値を「階調値」と呼ぶ。
これらの操作を順次繰り返して顔画像全体に施すことにより、該顔画像の階調の変化の割合(階調の横方向または縦方向の微分)を示すソーベル画像が抽出される。
次に、顔両端位置判別処理(ステップS02)について説明する。
顔両端位置判別処理(ステップS02)は、CPU24が顔画像を図3(b)の縦エッジ検出用のオペレータで操作した縦ソーベル画像について、顔の両端を構成するラインを特定する処理であり、既知の任意の手法を採用することができる。
たとえば、図6に示すように、CPU24はRAM25に格納された縦ソーベル画像に基づいて、顔両端検出のために、階調値のヒストグラムの作成処理を行い、作成したヒストグラムをRAM25に格納する(ステップS021)。続いて、CPU24はこのヒストグラムのピーク値の高いものを所定数抽出して、これらピーク値の高いものをソートして(ステップS022)、ヒストグラム値に基づき、端点を抽出する(ステップS023)。たとえば、ヒストグラム値の上位1または2つが他と比較して極端に値が大きい場合、その点を端点とする。
次に、CPU24は端点が2つ(両端)抽出されたか否かを判別する(ステップS024)。2つ抽出されていれば(ステップS024;Yes)、CPU24は抽出した2点を顔の両端(x座標)として決定する処理を行う(ステップS026)。ここでは、顔の両端(x座標)として座標a、bが得られたものとする。
一方、端点が2つ抽出できていなければ(ステップS024;No)、CPU24は、2点の距離が、人の顔幅としてもっともらしい間隔を有する組み合わせを抽出することにより、端点を決定し(ステップS025)、最終的に、顔面の両端(x座標)を決定する処理を行う(ステップS026)。
CPU24は、このようにしてステップS02で求めた、顔両端(左右側端)位置(x座標)をRAM25に記憶する。
ここで、顔両端位置(x座標)をドライバーの顔画像に表した場合、図3(e)に示すように、顔の両端位置の座標a、bに対応する。
次に、図7に示す顔向き判別処理(ステップS03)の処理内容について説明する。顔向き判別処理(ステップS03)は、顔画像から顔の中心線Bを求め、顔の中心線Bの座標および顔両端位置判別処理(図6ステップS02)後に得られた顔の両端の位置に基づいて、顔の左右の向きが鼻の両孔を検出できる程度か否かを判別する処理である。
縦線である(y軸に平行な)顔の中心線Bの算出手法自体は任意であるが、本実施形態においては、CPU24は、次式から顔のx軸方向の中心(重心)位置の座標を求め、当該重心位置を通る縦線を顔の中心線Bとして算出する。
顔の中心のx座標=Σ(xi・Gi)/ΣGi
xi:i番目の画素のx座標の値
Gi:i番目の画素の階調値
i:1〜n (nは画素の総数)
CPU24は、顔の中心線Bを算出すると(ステップS031)、ドライバーが正面を向いているか否かを判別するために、顔両端検出処理(図6ステップS02)で算出した顔両端位置(x座標)a、bをRAM25から読み出す。
CPU24は、ドライバーの顔が右方向を向いているか否かを顔中心線Bのx座標が(a+b)/2−Dthより小さいか否かにより判別する(ステップS032)。ここで、(a+b)/2は左右両端位置の中心であり、DthはROM23に格納される顔向き方向の閾値である。すなわち、図8に示すように、ドライバーの顔が左右両端の中心から少しずれていても(この場合、顔が少し右を向いていても)、顔の右向きの程度が両鼻孔の検出に問題がない範囲であれば、ステップS05の鼻孔検出処理を行うというものである。
なお、顔向き方向の閾値DthはRAM25や設定メモリ28に格納されてもよい。また、顔向き方向の閾値Dthは、任意の値をとってもよい。
顔中心線Bのx座標の値が(a+b)/2−Dthより小さい場合(ステップS032;Yes)、CPU24は、図7に示すように顔は右方向を向いていると判別して、処理を前処理(ステップS01)に移す。
一方、顔中心線Bのx座標の値が(a+b)/2−Dthより小さくない場合(ステップS032;No)、CPU24は、ドライバーの顔が左方向を向いているか否かを、顔中心線Bのx座標が(a+b)/2+Dthより大きいか否かにより判別する(ステップS033)。すなわち、ドライバーの顔が少し左を向いていても、顔の左向きの程度が両鼻孔の検出に問題がない範囲であれば、ステップS05の鼻孔検出処理を行うというものである。
顔中心線Bのx座標の値が(a+b)/2+Dthより大きい場合(ステップS033;Yes)、CPU24は、ドライバーの顔が左方向を向いていると判別して、処理を前処理(ステップS01)に移す。
顔中心線Bのx座標の値が(a+b)/2+Dthより大きくない場合(ステップS033;No)、CPU24は、処理を目下候補検出処理(ステップS04)に移す。
次に、図9に示す目下候補検出処理(ステップS04)について説明する。
目下候補検出処理(ステップS04)は、ヒストグラム値に基づいて、CPU24が眼(瞼)に対応するヒストグラム値の候補を選択する処理である。
CPU24は、RAM25に格納されている横ソーベル画像に基づいて、横方向の階調値のヒストグラムを作成する(ステップS041)。そのヒストグラムに基づいて、ヒストグラム値が高く、かつヒストグラムのピーク値が連続しているラインの縦の座標(y座標)をRAM25に記憶させる(ステップS042)。
図10は、顔画像、および横方向のヒストグラムのピーク値(右側の三角線)を示したものである。ピーク値は三角の頂点に対応し、その頂点が左側にあるほどピーク値が大きい。図10に示すように、ヒストグラム値が高く、かつヒストグラムのピーク値が連続しているラインは、たとえば、上方からそれぞれ、顔の上端(頭頂部)を通るライン(図10(g))、頭髪と皮膚との境目を通るライン(図10(f))、眉を通るライン(図10(e))、眼(瞼)の直下を通るライン(図10(d))、鼻孔直下を通るライン(図10(c))、口の直下を通るライン(図10(b))、顔の下端(顎部)を通るライン(図10(a))、と7つある。
CPU24は、これらのラインを所定数検出し、検出したラインのヒストグラムのピーク値に基づいてソートして(ステップS043)、検出したラインのうち所定数を目下候補のライン(眼(瞼)の直下を通るラインの候補)としてRAM25に記憶する(ステップS044)。たとえば、図10の場合、ヒストグラム値の高い4つのライン(たとえば、図10(c)(d)(e)(f))を目下候補のラインとして記憶する。
次に、図11に示す鼻孔検出処理(ステップS05)の処理内容について説明する。
鼻孔検出処理は、ステップS04において記憶された目下候補のラインの近傍に位置する鼻孔をソーベル画像から検出し、眼(瞼)の直下を通る目下ラインを決定し出力する処理である。
本実施形態における鼻孔検出処理(ステップS05)では、縦方向および横方向の大きさが共に3〜5画素である画素領域を鼻孔の候補であると判別する。なお、当該画素領域の範囲は任意に定めてよい。
鼻孔検出処理(ステップS05)は、図11に示すように、鼻孔探索領域の抽出処理(ステップS051)と、鼻孔探索領域の絞り込み処理(ステップS052)と、縦方向画素列抽出処理(ステップS053)と、横方向画素列抽出処理(ステップS054)と、鼻孔決定処理(ステップS055)と、目下ライン記憶処理(ステップS056)と、から構成される。
鼻孔探索領域の抽出処理(ステップS051)において、CPU24は、顔画像を画像メモリ22から読み出し、顔両端検出処理(図6ステップS021)で算出した顔両端位置(x座標)a、bをRAM25から読み出し、目下候補検出処理(図4ステップS04)において検出した目下候補のラインのy座標をRAM25から読み出して、読み出した顔画像のうち、a≦x≦b、ymin≦y≦ymax(yminは目下候補のラインの中でもっとも小さいy座標の値、ymaxは目下候補のラインの中でもっとも大きいy座標の値)となる領域を切り出す。たとえば、図10の場合、yminは図10(c)のy座標の値となる。
続いて、CPU24は、ステップS051で鼻孔を探索する領域(鼻孔探索領域)を絞り込む(ステップS052)。鼻孔探索領域を絞り込む方法は任意である。本実施形態では、ステップS051で切り出された顔画像の領域を所定の比率で按分することによって、鼻孔探索領域を図12に示す太線内の領域と設定する。
縦方向画素列抽出処理(ステップS053)は、図13に示すように、CPU24が鼻孔探索領域内の二値化画像の画素をy方向に走査して、鼻孔の候補となる画素列を抽出する処理である。
ステップS052で絞り込まれた鼻孔探索領域から鼻孔の候補となる画像を抽出するための起点として、処理対象の画素(x,y)を初期値の(x0,y0)に設定する(ステップS0531)。ここで、x0は鼻孔探索領域の左下の頂点のx座標の値、y0は鼻孔探索領域の左下の頂点のy座標の値である。
CPU24は、画素(x,y)のy座標値を1ずつインクリメントしながら、y方向へ走査を行い、階調値が第0〜第10階調(黒、または、ほぼ黒)が縦方向に連続する画素列の座標を、RAM25に記憶する(ステップS0532)。ここで、第0〜第10階調の画素をカウントしているのは、鼻孔の階調値が第0〜第10階調の画素であるとしていることによる。なお、鼻孔として、任意の階調値の画素をカウントしてもよい。
CPU24は、走査が完了すると、画素の階調値が第0〜第10階調である画素列のうち、縦方向に連続する3〜5画素からなる(鼻孔の画素数は3〜5画素とする)画素列があるか否かを判別する(ステップS0533)。そのような画素列があれば(ステップS0533;Yes)、その画素列の座標をRAM25に記憶する(ステップS0534)。
これにより、鼻孔の特徴点を構成する候補となる、縦方向の連続数が3〜5である黒の画素列が抽出される。
画素の階調値が第0〜第10階調である画素列のうち、縦方向に連続する3〜5画素からなる画素列がないならば(ステップS0533;No)、処理をステップS0535に進める。
続いて、CPU24は、画素(x,y)のx座標を1インクリメントし、y座標を初期値(=y0)として、次のラインの走査をするための準備をする(ステップS0535)。
CPU24は、ステップS0545の処理が終わると、鼻孔探索領域の全てにおいて走査が終わったか否かを判別する(ステップS0536)。走査が終わったならば(ステップS0536;Yes)、CPU24は、その後、処理を横方向画素列抽出処理(ステップS054)に移し、そうでなければ(ステップS0536;No)、走査が完了していないものとしてステップS0532へ処理を移す。
横方向画素列抽出処理(ステップS054)は、縦方向画素列抽出処理(ステップS053)と同様の動作により、ステップS053で絞り込んだ鼻孔探索領域内の二値化画像から、鼻孔の候補となる画像として、横方向の連続数が3〜5の大きさを有する階調値が第0〜第10階調の画素列を検出する処理である。
横方向の画素列を検出する手法自体は任意であるが、図14に示す方法が利用できる。図14の横方向画素列抽出処理(ステップS054)は、鼻孔探索領域の画素をx方向に走査する点を除けば、図13の縦方向画素列抽出処理(ステップS053)と基本的に同一である。
まず、CPU24は、ステップS052で絞り込まれた鼻孔探索領域から鼻孔の候補となる画像を抽出するための起点として、処理対象の画素(x,y)を初期値の(x0,y0)に設定する(ステップS0541)。ここで、x0は鼻孔探索領域の左下の頂点のx座標の値、y0は鼻孔探索領域の左下の頂点のy座標の値である。
CPU24は、画素(x,y)のx座標値を1ずつインクリメントしながら、x方向へ走査を行い、階調値が第0〜第10階調(黒、または、ほぼ黒)が縦方向に連続する画素列の座標を、RAM25に格納する(ステップS0542)。ここで、第0〜第10階調の画素をカウントしているのは、鼻孔の階調値が第0〜第10階調の画素であるとしていることによる。なお、鼻孔として、任意の階調値の画素をカウントしてもよい。
CPU24は、走査が完了すると、画素の階調値が第0〜第10階調である画素列のうち、横方向に連続する3〜5画素からなる(鼻孔の画素数は3〜5画素とする)画素列があるか否かを判別する(ステップS0543)。そのような画素列があれば(ステップS0543;Yes)、その画素列の座標をRAM25に記憶する(ステップS0544)。
これにより、鼻孔の特徴点を構成する候補となる、横方向の連続数が3〜5である黒の画素列が抽出される。
画素の階調値が第0〜第10階調である画素列のうち、横方向に連続する3〜5画素からなる画素列がないならば(ステップS0543;No)、処理をステップS0545に進める。
続いて、CPU24は、画素(x,y)のy座標を1インクリメントし、x座標を初期値(=x0)として、次のラインの走査をするための準備をする(ステップS0545)。
CPU24は、ステップS0545の処理が終わると、鼻孔探索領域の全てにおいて走査が終わったか否かを判別する(ステップS0546)。走査が終わったならば(ステップS0546;Yes)、CPU24は、その後、処理を鼻孔決定処理(ステップS055)に移し、そうでなければ(ステップS0546;No)、走査が完了していないものとしてステップS0542へ処理を移す。
鼻孔決定処理(ステップS055)は、図11、及び、図15に示すように、縦方向画素列抽出処理(ステップS053)および横方向画素列抽出処理(ステップS054)完了後、ステップS052にて絞り込んだ鼻孔探索領域内の画像に、両鼻孔が正しい位置に検出されているかを決定する処理である。
まず、CPU24は、縦方向および横方向の連続数が共に3〜5である第0〜10階調の画素領域を求め(ステップS0551)、その領域があるか否かを判別する(ステップS0552)。存在すると判別した場合は(ステップS0552;Yes)、その画素領域が鼻孔の候補となる画素領域と決定し、処理をステップS0553に移す。
鼻孔の候補となる画素領域を決定すると、次式から鼻孔の候補となる画素領域のx軸方向およびy軸方向の中心(重心)位置の座標を求める(ステップS0553)。
鼻孔の中心のx座標=Σxi・Gi/ΣGi
鼻孔の中心のy座標=Σyi・Gi/ΣGi
xi:階調値が第0〜第10階調であるi番目の鼻孔の候補の画素のx座標の値
yi:階調値が第0〜第10階調であるi番目の鼻孔の候補の画素のy座標の値
Gi:階調値が第0〜第10階調であるi番目の鼻孔の候補の画素の階調値
i:1〜n (nは階調値が第0〜第10階調である鼻孔の候補の画素の総数)
ステップS0553で算出した鼻孔の候補となる画素領域の内に、重心のx座標が顔中心線Bのx座標よりも小さい画素領域が存在するか否かを判別する(ステップS0554)。顔中心線Bのx座標よりも重心の座標xが小さい鼻孔の候補となる画素領域が存在すれば(ステップS0554;Yes)、その画素列を右鼻孔の候補の画素領域として抽出する(ステップS0555)。
CPU24は、更に、ステップS0555で抽出した右鼻孔の候補の画素領域の重心位置と顔中心線Bに対してほぼ線対称である位置に、鼻孔の候補となる画素領域(左鼻孔の候補となる画素領域)が存在するか否かを判別する(ステップS0556)。
左鼻孔の候補の画素領域が存在したときには(ステップS0556;Yes)、ステップS0555で抽出した右鼻孔の候補の画素領域と、ステップS0556で判別した左鼻孔の候補の画素領域と、が離間して存在するか否かを判別する(ステップS0557)。
ステップS0555で抽出した右鼻孔の候補の画素領域と、ステップS0556で判別された左鼻孔の候補の画素領域と、が離間して存在すれば(ステップS0557;Yes)、右鼻孔の候補となる画素領域と左鼻孔の候補となる画素領域との組み合わせを対象者の鼻孔と判別し、RAM25に格納する(ステップS0558)。
このように、本発明の実施形態に係る目検出装置50は、鼻孔探索領域に対象者の口などが含まれている場合でも正しい両鼻孔を検出できる。
両鼻孔が検出されたことにより、CPU24は、処理を目下ライン記憶処理(ステップS057)に移す。
ステップS0552、S0554、S0556、S0557、における各判別条件を満たす画素領域がない場合(ステップS0552、S0554、S0556、S0557のいずれか;No)、鼻孔が正しく検出できなかったものとして、CPU24は処理を前処理(ステップS01)に戻す。
CPU24は、図4ステップS04の目下候補検索処理において検出したそれぞれの目下候補のラインをRAM25から読み出し、鼻孔探索領域を設定して以上に述べた鼻孔検出処理(図11,ステップS05)を行う。このように、顔画像全体ではなく、所定の鼻孔探索領域に限定して鼻孔検出を行うことで、鼻孔の検出を高速化することができる。また、上述のように、鼻孔の直上に位置する目下候補ラインが、眼(瞼)の直下を通るライン(目下ライン)であると判別できる。すなわち、瞼の検出領域を、鼻孔探索により判別した目下ラインに基づいて絞り込むことができ、瞼の検出を高速化することができる。
CPU24は、上述のように、判別した目下ラインのy座標y2(図10の場合、(d)に相当するy座標)を、RAM25に格納する(ステップS056)。
次に、図16を用いて、上下瞼判別処理(ステップS06)について説明する。
上下瞼判別処理(ステップS06)において、CPU24は、まず、ドライバーの上下瞼を抽出するときに探索する領域である顔上部領域Aを定める処理を実行する(ステップS061)。
顔上部領域Aを設定する方法は任意である。
本実施形態では、鼻孔検出処理(図11ステップS05)により検出できた顔両端検出処理(ステップS021)で定めた顔両端位置(x座標)aおよびbや、目下ライン記憶処理(図15ステップS055)で定めた目下ラインのy座標に基づいて、顔上部領域Aを設定する。
まず、CPU24は、目下ライン記憶処理(図15ステップS055)で記憶した目下ラインのy座標y2をRAM25から読み出す。そして、y座標y2(図10の場合、(d)に相当するy座標)とy座標ymax(ymaxは目下候補のラインの中でもっとも大きいy座標の値)との間の範囲と、x座標aとx座標bとの間の範囲に含まれる領域を顔上部領域Aとして設定する(ステップS061)。
すなわち、ステップS061にて設定された顔上部領域A内の画素(x,y)は、図17に示すように、a≦x≦b、y2≦y≦ymax、の範囲の座標値を有する。
これにより、顔の特徴点を示す画像を検出するときに、範囲を限定することにより、上下瞼の判別処理時間を短縮することが可能になる。
なお、顔上部領域Aは、操作装置29を介してユーザから変更可能としてもよい。
CPU24は、顔上部領域A内のソーベル画像から、上下瞼の候補となるエッジラインを抽出する(ステップS062)。
ここで、顔上部領域Aは、横ソーベルフィルタ処理(図5ステップS013)が施されていることにより、図18(a)に示すように、y軸方向に輝度が明るい画素から暗い画素に移るエッジラインがマイナスエッジとして点線で表され、y軸方向に光度が暗い画素から明るい画素に移るエッジラインがプラスエッジとして実線で表されている。
ステップS063において、CPU24は、上記のマイナスエッジラインとプラスエッジラインとから、次の三つの数式を満たすマイナスエッジとプラスエッジの組み合わせを抽出する。
まず、CPU24は数式(1)を満たすマイナスエッジとプラスエッジの組み合わせがあるか否かを判別して、数式(1)を満たすマイナスエッジとプラスエッジの組み合わせを抽出する(ステップS063)。
|Lp−Lm|<Lth・・・(1)
ただし、Lpはプラスエッジの長さを表す値であり、Lmはマイナスエッジの長さを表す値であり、Lthは閾値である。数式(1)を満たすマイナスエッジとプラスエッジとの長さは閾値Lthの範囲で近似している。
また、CPU24は数式(2)を満たすマイナスエッジとプラスエッジの組み合わせがあるか否かを判別して、数式(2)を満たすマイナスエッジとプラスエッジの組み合わせを抽出する(ステップS064)。
|Cxp−Cxm|<Cxth・・・(2)
ただし、Cxpはプラスエッジの重心のx座標、Cxmはマイナスエッジの重心のx座標、Cxthは閾値、である。数式(2)を満たすマイナスエッジとプラスエッジとの重心のx座標は閾値Cxthの範囲で近似している。
更に、CPU24は数式(3)を満たすマイナスエッジとプラスエッジの組み合わせがあるか否かを判別して、数式(3)を満たすマイナスエッジとプラスエッジの組み合わせを抽出する(ステップS065)。
Dg<Dth・・・(3)
ただし、Dgはマイナスエッジの重心とプラスエッジの重心との間の距離であり、Dthは閾値である。数式(3)を満たすマイナスエッジとプラスエッジとの重心間距離は閾値Dth以内である。
つまり、数式(1)〜(3)を満たすマイナスエッジとプラスエッジの組み合わせは、ある程度、長さが等しく、位置が近く、重心のx座標が一致しているマイナスエッジとプラスエッジの組み合わせである。
図18(a)の内から、数式(1)〜(3)を満たすマイナスエッジとプラスエッジの組み合わせを対象者の瞼の候補として抽出する。このとき、プラスエッジPE1とマイナスエッジME1との組み合わせが候補1、プラスエッジPE2とマイナスエッジME2との組み合わせが候補2、プラスエッジPE3とマイナスエッジME3との組み合わせが候補3、プラスエッジPE4とマイナスエッジME4との組み合わせが候補4、となる。
そして、目検出装置50は、候補1〜4について、マイナスエッジの重心とプラスエッジの重心との間の距離Dgの時間軸に対する変化を計測する。図19(a)〜(d)に示すグラフは、候補1〜4の、時間軸に対するマイナスエッジとプラスエッジとの重心間距離Dg(瞼候補の開度)の変化を示すグラフである。
候補1は、図19(a)に示すように、距離Dgは時間軸に対してほとんど変化がない。また、候補2も、図19(b)に示すように、距離Dgは時間軸に対してほとんど変化がない。
候補3〜4は、図19(c)〜(d)に示すように距離Dgの時間軸に対するグラフにおいて極小値MV1〜MV6を持つ。すなわち、候補3および4は瞬きをしている瞼と判別でき、極小値MV1〜MV6は瞼の瞬きにおいて閉眼しているタイミングであると判別できる。
CPU24は、y軸方向またはその反対方向に重心が移動するマイナスエッジとプラスエッジの組み合わせがあるか否かを判別する(ステップS066)。
CPU24は、y軸方向またはその反対方向に重心が移動するマイナスエッジとプラスエッジの組み合わせがない場合(ステップS066;No)、CPU24は、瞼がないと判別し、設定メモリ28に格納されている設定情報を変更し、設定領域を変更または拡大し(ステップS067)、処理をステップS062に戻す。
上記の瞼の候補の内、図18(b)に示すように、プラスエッジの重心がy軸方向と反対方向に移動しているときにマイナスエッジの重心がy軸方向に移動し、プラスエッジの重心がy軸方向に移動している場合(ステップS066;Yes)、CPU24はマイナスエッジの重心がy軸方向と反対方向に移動する候補を瞼と判定する(ステップS068)。すなわち、CPU24は、当該候補を、瞬きをする瞼であると判別する。
以上で瞼が求められ、図4に示す瞼検出処理が終了する。
以上説明したように、本発明の実施形態に係る目検出装置50は、顔画像のヒストグラムおよび鼻孔探索に基づいて眼(瞼)の直下を通る横ラインである目下ラインを算出し、目下ライン近傍の所定の領域から瞼を検出する。したがって、従来のドライバー監視システムのようにドライバーの顔画像全体をスキャンして濃度値による選定を行って瞼を検出するのに比して、眉毛や鼻下などの濃度変化に影響されることなく、正確に瞼を検出することができ、誤判定や未判定を解消することができる。
さらに、本発明の実施形態に係る目検出装置50は、瞼候補の開度に基づいて瞼を判別する。また、ドライバーの眼(瞼)の探索領域を正確に捉え、さらには眼(瞼)の探索領域から瞬きをする瞼の位置を検出することができ、運転者のより正確な情報を捉えることができる。
なお、このようにして特定した上瞼と下瞼の位置に基づいて、以後、運転者の注視方向の特定や、運転者が起きているか否かを判別するために利用することができる。たとえば、瞼の位置に対応する瞳の位置を求め、さらに、顔の向きを求め、これらから運転者の視線の向きを判別することができ、判別した視線の向きを車両の様々な制御に利用できる。また、上瞼と下瞼との距離(Dg)が所定の基準値より小さい状態が一定時間以上継続した場合に、運転者が寝ていると判別し、所定の制御を行うといったことも可能となる。
なお、この発明は上記実施形態に限定されず、種々の変形および応用が可能である。
本実施形態では、コンピュータ14は、カメラ10が撮影した対象者の顔の動画像について眼瞼検出処理を行ったが、カメラ10以外の外部装置から取得した対象者の顔の動画像を画像メモリ22に格納しておき、その動画像について眼瞼検出処理を行ってもよい。
本実施形態では、たとえば、7つの目下候補ライン上の所定の領域から鼻孔を探索し、その結果に基づいて目下ラインを定めたが、目下候補ライン数はもっと少なくともよい。たとえば、目下候補ラインのうち、画面下方から数えて2つの目下候補ライン、すなわち、顔の下端(顎部)を通るライン(たとえば、図10(a))および口の直下を通るライン(たとえば、図10(b))は検出が容易であり、かつ鼻孔が存在しないと考えられる。したがって、目下候補ラインを検出したときに、下方に存在する2つの目下候補ラインのy座標はRAM25に記憶させなくともよい。また、下方から数えて6つ目以降の目下候補ライン、すなわち顔の上端(頭頂部)を通るライン(たとえば、図10(f))および頭髪と皮膚との境目を通るライン(たとえば、図10(g))も鼻孔が存在しないと考えられる。したがって、これらの目下候補ラインのy座標もRAM25に記憶させなくともよい。換言すれば、目下候補ラインのうち3つのみ(たとえば、図10(c)(d)(e)のみ)をRAM25に記憶させればよい。このようにすることで、目下候補ライン上の所定の領域から鼻孔を検索する処理を省略することができ、鼻孔の検索および目下ラインの決定が高速化される。
鼻孔探索領域の設定は任意である。たとえば、ある目下候補ラインを下端とする所定の領域を鼻孔探索領域として設定し、鼻孔を探索してもよい。もし、その領域に鼻孔がみつからなかった場合は、1つ上の目下候補ラインに設定された鼻孔探索領域から鼻孔を探索すればよい。もし、鼻孔が探索できた場合は、当該目下候補ラインの1つ上の目下候補ラインを目下ラインと決定すればよい。上述の実施形態では、按分により鼻孔探索領域を決定してから鼻孔の探索を行ったが、このようにすることで、按分によらずとも鼻孔を探索できる。
本発明に係る目検出装置は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、上述の動作を実行するためのプログラムを、コンピュータシステムが読みとり可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、当該プログラムをコンピュータシステムにインストールすることにより、上述の処理を実行する目検出装置を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有するストレージに当該プログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで目検出装置を構成してもよい。
また、上述の機能を、OS(Operating System)とアプリケーションとの分担、またはOSとアプリケーションとの協働により実現する場合などには、アプリケーション部分のみを記録媒体やストレージに格納してもよい。
また、搬送波にプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(Bulletin Board System)に前記プログラムを掲示し、ネットワークを介して前記プログラムを配信してもよい。そして、このプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、上述の処理を実行できるように構成してもよい。
本発明の実施形態に係る目検出装置の構成を示すブロック図である。 図1に示すコンピュータの構成を示すブロック図である。 ROMまたはRAMに格納されている各種データを説明するための図である。 本発明の実施形態に係る処理の概要を説明するための図である。 本発明の実施形態の前処理を説明するためのフローチャートである。 本発明の実施形態の顔両端位置判別処理を説明するためのフローチャートである。 本発明の実施形態の顔向き判別処理を説明するためのフローチャートである。 ドライバーが右方向を向いているときの顔画像を示す図である。 本発明の実施形態の目下候補検出処理を説明するためのフローチャートである。 横ソーベル画像において、ヒストグラム値が高く、かつヒストグラムのピーク値が連続しているラインを示す図である。 本発明の実施形態の鼻孔検出処理を説明するためのフローチャートである。 鼻孔探索領域を設定した画像を示す図である。 本発明の実施形態の縦方向画素列抽出処理を説明するためのフローチャートである。 本発明の実施形態の横方向画素列抽出処理を説明するためのフローチャートである。 本発明の実施形態の鼻孔決定処理を説明するためのフローチャートである。 本発明の実施形態の上下瞼判別処理を説明するためのフローチャートである。 本発明の実施形態の顔上部領域Aを説明するための図である。 (a)は、顔上部領域における、上下瞼の候補となるエッジラインの組み合わせを示す図である。(b)は、(a)の上下瞼の候補となるエッジラインの内から正しい瞼を判別するときの、正しい瞼に該当する上下瞼の候補のエッジラインが示すべき動作を説明するための図である。 図18(a)における上下瞼の候補となるエッジラインの重心間距離の経時変化を示す図である。
符号の説明
10 カメラ
12 照明光源
14 コンピュータ
16 表示装置
21 A/D変換器 (顔画像記憶手段)
22 画像メモリ (顔画像記憶手段、顔中心線検出手段)
23 ROM (横ソーベル手段)
24 CPU (目下位置候補検出手段、目下位置選択手段、
目検出手段、横ソーベル手段、
階調値のヒストグラムを生成する手段、
目下位置候補出力手段、顔中心線検出手段、検索手段、
鼻孔位置判別手段、鼻孔と判別する手段)
25 RAM (CPU24のワークエリア)
26 表示制御装置
28 設定メモリ
29 操作装置
50 目検出装置

Claims (7)

  1. 対象者の顔の画像を記憶する顔画像記憶手段と、
    前記顔画像記憶手段が記憶した顔画像に基づいて、該顔画像内の目の下の位置の候補を求める目下位置候補検出手段と、
    前記顔画像記憶手段に記憶されている前記顔画像上の所定の鼻孔検索領域内で顔の鼻孔を検索し、鼻孔が検出できたときに、検出した鼻孔の位置を基準として、前記目の下の位置の候補のうちから顔画像の目の下に位置するものを選択する目下位置選択手段と、
    前記目下位置選択手段が選択した目下位置に基づいて定められた目探索領域内において、対象者の目に対応する画像を検出する目検出手段と、から構成され、
    前記目下位置候補検出手段は、
    前記顔画像記憶手段に記憶されている顔画像を横ソーベルフィルタで処理して横ソーベル画像を生成する横ソーベル手段と、
    前記横ソーベル手段により生成された横ソーベル画像の各横ライン上の画素の階調値のヒストグラムを生成する手段と、
    階調値のヒストグラムに基づいて、目の下を通る横ラインの候補を求め、該横ラインの位置を目下位置の候補として出力する目下位置候補出力手段と、
    から構成されることを特徴とする目検出装置。
  2. 前記目下位置候補出力手段は、
    階調値のヒストグラムに基づいて、ヒストグラムのピーク値の高いものを所定数抽出して、抽出したヒストグラムが得られた位置を目下位置候補とする、
    ことを特徴とする請求項に記載の目検出装置。
  3. 前記目下位置選択手段は、前記目下位置候補検出手段により検出された目の下の位置の候補の一つに基づいて、前記鼻孔探索領域を設定する、
    ことを特徴とする請求項1に記載の目検出装置。
  4. 前記顔画像記憶手段が記憶している顔画像の中心線を検出する顔中心線検出手段をさらに備え、
    前記目下位置選択手段は、
    前記鼻孔検索領域内で顔の鼻孔の候補を検索する検索手段と、
    前記検索手段が検出した顔の鼻孔の候補の位置を求める鼻孔位置判別手段と、
    前記鼻孔位置判別手段が判別した各備考の候補の位置と前記中心線とに基づいて、前記検索手段が検索した鼻孔の候補のうちで、前記顔の中心線に対してほぼ線対称をなす鼻孔候補の対を検出し、鼻孔と判別する手段と、
    をさらに備えることを特徴とする請求項1に記載の目検出装置。
  5. 前記目下位置選択手段は、鼻孔が検出できたとき、鼻孔の上に位置し、最も鼻孔に近い目下位置候補を、目の下の位置として出力する、
    ことを特徴とする請求項1に記載の目検出装置。
  6. 記憶されている顔画像を横ソーベルフィルタで処理して横ソーベル画像を生成し、生成した横ソーベル画像の各横ライン上の画素の階調値のヒストグラムを生成し、階調値のヒストグラムに基づいて、目の下を通る横ラインの候補を求め、該横ラインの位置を該顔画像内の目の下に位置する横ラインの候補として出力し、
    前記顔画像上の所定の鼻孔検索領域内で顔の鼻孔を検索し、
    鼻孔が検出できたときに、検出した鼻孔の位置を基準として、横ラインの候補のうちから顔画像の目の下に位置するものを選択し、
    選択した横ラインに基づいて前記顔画像上に目探索領域を設定し、
    設定した目探索領域内において、対象者の目に対応する画像を検出する、
    ことを特徴とする目検出方法。
  7. コンピュータを、
    対象者の顔の画像を記憶する顔画像記憶手段、
    前記顔画像記憶手段に記憶されている顔画像を横ソーベルフィルタで処理して横ソーベル画像を生成する横ソーベル手段、
    前記横ソーベル手段により生成された横ソーベル画像の各横ライン上の画素の階調値のヒストグラムを生成する手段、
    階調値のヒストグラムに基づいて、目の下を通る横ラインの候補を求め、該横ラインの位置を該顔画像内の目の下の位置の候補として出力する目下位置候補出力手段、
    前記顔画像記憶手段に記憶されている前記顔画像上の所定の鼻孔検索領域内で顔の鼻孔を検索し、鼻孔が検出できたときに、検出した鼻孔の位置を基準として、前記目の下の位置の候補のうちから顔画像の目の下に位置するものを選択する目下位置選択手段、
    前記目下位置選択手段が選択した目下位置に基づいて定められた目探索領域内において、対象者の目に対応する画像を検出する目検出手段、
    として機能させるプログラム。
JP2007066166A 2007-03-15 2007-03-15 目検出装置、目検出方法およびプログラム Expired - Fee Related JP4848302B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007066166A JP4848302B2 (ja) 2007-03-15 2007-03-15 目検出装置、目検出方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007066166A JP4848302B2 (ja) 2007-03-15 2007-03-15 目検出装置、目検出方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2008226073A JP2008226073A (ja) 2008-09-25
JP4848302B2 true JP4848302B2 (ja) 2011-12-28

Family

ID=39844579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007066166A Expired - Fee Related JP4848302B2 (ja) 2007-03-15 2007-03-15 目検出装置、目検出方法およびプログラム

Country Status (1)

Country Link
JP (1) JP4848302B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043914A (ja) * 2019-09-13 2021-03-18 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3452685B2 (ja) * 1995-05-10 2003-09-29 三菱電機株式会社 顔画像の処理装置
JP3926507B2 (ja) * 1999-05-28 2007-06-06 沖電気工業株式会社 目位置及び顔位置検出装置
JP4180027B2 (ja) * 2004-08-27 2008-11-12 株式会社豊田中央研究所 顔部品位置検出装置及び方法並びにプログラム

Also Published As

Publication number Publication date
JP2008226073A (ja) 2008-09-25

Similar Documents

Publication Publication Date Title
JP4307496B2 (ja) 顔部位検出装置及びプログラム
JP4309928B2 (ja) 瞼検出装置、瞼検出方法、及び、プログラム
JP4845698B2 (ja) 眼部検出装置、眼部検出方法及びプログラム
JP4445454B2 (ja) 顔中心位置検出装置、顔中心位置検出方法、及び、プログラム
US7936926B2 (en) Apparatus, method, and program for face feature point detection
US7912251B2 (en) Eyelid detection apparatus and program therefor
EP3767520B1 (en) Method, device, equipment and medium for locating center of target object region
JP3143819B2 (ja) まぶたの開度検出装置
JP4739870B2 (ja) サングラス検出装置及び顔中心位置検出装置
JP4825473B2 (ja) 顔向き判別装置
JP2005339522A (ja) 髪領域の自動抽出方法
JP2008192100A (ja) 瞼検出装置及びプログラム
JP2008140270A (ja) 眼部検出装置、眼部検出方法及びプログラム
JP6784261B2 (ja) 情報処理装置、画像処理システム、画像処理方法及びプログラム
JP2007272435A (ja) 顔特徴抽出装置及び顔特徴抽出方法
JP6956986B1 (ja) 判定方法、判定装置、及び判定プログラム
KR101343623B1 (ko) 적응적 피부색 검출 방법, 그리고 이를 이용한 얼굴 검출 방법 및 그 장치
JP4848302B2 (ja) 目検出装置、目検出方法およびプログラム
JP4996943B2 (ja) 顔特徴点検出装置、顔特徴点検出方法及びプログラム
JP2008084109A (ja) 目開閉判定装置及び目開閉判定方法
JP4895876B2 (ja) 眼検出装置及びプログラム
JP5172995B2 (ja) 顔向き判別装置およびコンピュータプログラム
JP2008226189A (ja) 特徴点検出装置及びプログラム
JP4848303B2 (ja) 眼開閉判別装置及びプログラム
WO2021095278A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100225

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111011

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111017

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4848302

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees