JP2008234208A - 顔部位検出装置及びプログラム - Google Patents

顔部位検出装置及びプログラム Download PDF

Info

Publication number
JP2008234208A
JP2008234208A JP2007071524A JP2007071524A JP2008234208A JP 2008234208 A JP2008234208 A JP 2008234208A JP 2007071524 A JP2007071524 A JP 2007071524A JP 2007071524 A JP2007071524 A JP 2007071524A JP 2008234208 A JP2008234208 A JP 2008234208A
Authority
JP
Japan
Prior art keywords
face
detected
image
eye
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007071524A
Other languages
English (en)
Other versions
JP4307496B2 (ja
Inventor
Shinichi Kojima
真一 小島
Kenichi Ogami
健一 大上
Yuji Ninagawa
勇二 蜷川
Shigeyasu Uozumi
重康 魚住
Atsushi Adachi
淳 足立
Tomoharu Suzuki
智晴 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Aisin Seiki Co Ltd
Priority to JP2007071524A priority Critical patent/JP4307496B2/ja
Priority to CN2008100850763A priority patent/CN101271517B/zh
Priority to US12/050,620 priority patent/US7916904B2/en
Priority to EP20080152880 priority patent/EP1973059B1/en
Publication of JP2008234208A publication Critical patent/JP2008234208A/ja
Application granted granted Critical
Publication of JP4307496B2 publication Critical patent/JP4307496B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Abstract

【解決課題】顔が動いても、顔の所定部位の位置を簡易な計算処理で検出することができるようにする。
【解決手段】顔画像から左右の鼻孔を検出して、左右の鼻孔を表わす領域の重心の中点の位置を鼻位置として検出し(104)、検出された鼻位置を基準位置として、予め定められた所定位置に存在する領域を右目探索領域及び左目探索領域として設定する(106)。そして、右目探索領域の画像及び左目探索領域の画像の各々に対して、エッジ処理を行い、左右の目の各々のエッジ画像に基づいて、下まぶたの位置の候補を複数検出し(108)、鼻位置を基準とした下まぶたの位置の複数候補の各々の相対位置を各々算出する(110)。そして、前回の相対位置と、算出された相対位置の各々とを比較し、下まぶたの位置を検出する(112)。
【選択図】図6

Description

本発明は、顔部位検出装置及びプログラムに係り、特に、顔を撮像した画像から、顔の所定部位の位置を検出する顔部位検出装置及びプログラムに関する。
従来より、前回計測した目位置に基づいて、目探索領域を設定し、目探索領域内で目が見つかったら前回見つけたものと同一とみなす居眠り状態検出装置が知られている(特許文献1、特許文献2)。
また、鼻位置を検出し、検出された鼻位置を基準として、目の探索領域を設定する眼位置検出装置が知られている(特許文献3)。
また、鼻や眉などと上まぶたとの縦方向の距離を調べ、正しく目が検出できているか否かを判断する眼の状態検出装置が知られている(特許文献4)。
特許第3312562号 特許第3444115号 特開2000−67225 特開2001−307076
しかしながら、上記特許文献1及び特許文献2に記載の技術では、顔が大きく左右に移動した場合には、設定した目探索領域から目が外れてしまうため、目を検出することができない、という問題がある。
また、上記特許文献3に記載の技術では、目の探索領域内で、目の候補が複数見つかった場合は、目の位置を検出するために複雑な処理が必要となってしまう、という問題がある。
また、上記特許文献4に記載の技術では、鼻や眉の位置と上まぶたとの位置関係を縦方向にしか調べていないため、顔が左右に動いた場合には、目を正しく検出することができない、という問題がある。
本発明は、上記の問題点を解決するためになされたもので、顔が動いても、顔の所定部位の位置を簡易な計算処理で検出することができる顔部位検出装置及びプログラムを提供することを目的とする。
上記の目的を達成するために本発明に係る顔部位検出装置は、被観察者の顔を撮像する撮像手段と、前記撮像手段によって撮像された前記顔を表す顔画像から、鼻の特徴を表わす位置及び眉間の特徴を表わす位置の何れか一方の位置を検出する位置検出手段と、前記位置検出手段によって過去に検出された位置を基準とした前記顔の所定部位の過去の相対位置を算出する算出手段と、前記算出手段によって算出された前記過去の相対位置と、前記位置検出手段によって検出された現在の位置とに基づいて、前記所定部位の位置を検出する部位位置検出手段とを含んで構成されている。
また、本発明に係るプログラムは、コンピュータを、被観察者の顔を撮像する撮像手段によって撮像された前記顔を表す顔画像から、鼻の特徴を表わす位置及び眉間の特徴を表わす位置の何れか一方の位置を検出する位置検出手段、前記位置検出手段によって過去に検出された位置を基準とした前記顔の所定部位の過去の相対位置を算出する算出手段、及び前記算出手段によって算出された前記過去の相対位置と、前記位置検出手段によって検出された現在の位置とに基づいて、前記所定部位の位置を検出する部位位置検出手段として機能させるためのプログラムである。
本発明によれば、撮像手段によって、被観察者の顔を撮像し、位置検出手段によって、撮像手段によって撮像された顔を表す顔画像から、鼻の特徴を表わす位置及び眉間の特徴を表わす位置の何れか一方の位置を検出する。また、算出手段によって、位置検出手段によって過去に検出された位置を基準とした顔の所定部位の過去の相対位置を算出する。
そして、部位位置検出手段によって、算出手段によって算出された過去の相対位置と、位置検出手段によって検出された現在の位置とに基づいて、所定部位の位置を検出する。
このように、鼻の特徴を表わす位置及び眉間の特徴を表わす位置の何れか一方の位置を基準として、過去の相対位置を用いて、顔の所定部位の位置を検出することにより、簡易に検出できる鼻の特徴を表わす位置又は眉間の特徴を表わす位置を用いて、顔の所定部位の位置を検出するため、顔が動いても、簡易な計算処理で、顔の所定部位の位置を検出することができる。
また、本発明の顔部位検出装置は、所定部位の位置の候補を複数検出する候補検出手段を更に含み、部位位置検出手段は、位置検出手段によって検出された現在の位置を基準とした複数の候補の各々の現在の相対位置と、算出手段によって算出された過去の相対位置との比較により、所定部位の位置を検出することができる。これにより、現在の相対位置の候補と過去の相対位置とを比較して、簡易な計算処理で、現在の所定部位の位置を検出することができる。
また、本発明に係る部位位置検出手段は、位置検出手段によって検出された現在の位置を基準とした算出手段によって算出された過去の相対位置に基づいて、所定部位の位置を検出することができる。これにより、簡易な計算処理で、現在の所定部位の位置を検出することができる。
上記の鼻の特徴を表わす位置を、顔画像における左右各々の鼻孔の領域の重心の中点の位置とすることができる。これにより、簡易に検出することができる左右各々の鼻孔の領域を用いて、簡易な計算処理で、現在の所定部位の位置を検出することができる。
また、上記の顔の所定部位の位置を、目の位置とし、顔画像における上まぶたと眼球との境界、顔画像における下まぶたと眼球との境界、顔画像における瞳の重心、及び上まぶたと眼球との境界と下まぶたと眼球との境界との中点の何れかの位置で表わすことができる。
上記の顔の所定部位の位置を、目の位置とし、顔画像における下まぶたと眼球との境界の上下方向の位置及び上まぶたと眼球との境界の左右方向の位置で表わすことができる。これにより、顔の所定部位の位置を高精度に表わすことができる。
以上説明したように、本発明の顔部位検出装置及びプログラムによれば、鼻の特徴を表わす位置及び眉間の特徴を表わす位置の何れか一方の位置を基準として、過去の相対位置を用いて、顔の所定部位の位置を検出することにより、簡易に検出できる鼻の特徴を表わす位置又は眉間の特徴を表わす位置を用いて、顔の所定部位の位置を検出するため、顔が動いても、簡易な計算処理で、顔の所定部位の位置を検出することができる、という効果が得られる。
以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、連続的に撮像された顔画像から、目の位置を検出して追跡する目位置検出装置に本発明を適用した場合を例に説明する。
図1に示すように、第1の実施の形態に係る目位置検出装置10は、対象とする被験者の顔を含む画像を撮像するCCDカメラ等からなる画像撮像部12と、画像撮像部12のシャッターの作動に同期して撮影対象を照明するための、赤外ストロボや赤外LED等からなる照明部14と、画像処理を行うコンピュータ16と、CRT等で構成された表示装置18とを備えている。
コンピュータ16は、CPU、後述する画像処理ルーチンのプログラムを記憶したROM、データ等を記憶するRAM、及びこれらを接続するバスを含んで構成されている。このコンピュータ16をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、コンピュータ16は、画像撮像部12から出力される濃淡画像である顔画像を入力する画像入力部20と、画像入力部20の出力である顔画像から鼻の位置を検出する鼻位置検出部22と、鼻位置に基づいて目探索領域を設定する目探索領域設定部24と、目探索領域の画像から下まぶたの位置の候補を複数検出するまぶた候補検出部26と、鼻の位置に対する下まぶたの位置の候補の各々の相対位置を各々算出する相対位置算出部27と、下まぶたの位置の候補の各々の相対位置に基づいて、目位置として下まぶたの位置を検出するまぶた位置検出部28と、前回の鼻の位置に対するまぶたの位置の相対位置を記憶する前回相対位置記憶部30とを備えている。
画像入力部20は、例えば、A/Dコンバータや1画面の画像データを記憶する画像メモリ等で構成される。
また、鼻位置検出部22は、以下に説明するように、顔画像から鼻の特徴としての左右の鼻孔の位置(画像座標で表される位置)を検出し、左右の鼻孔の位置の中点の画像座標を鼻位置として検出する。
まず、図2に示すように、顔画像から顔領域Fを抽出する。顔領域Fの抽出は、顔輪郭のエッジを算出し、あるいは、顔輪郭のパターンマッチングによって顔輪郭を抽出し、顔輪郭の範囲で、顔領域Fを抽出する。そして、顔領域Fの下から口下のエッジを検出して、口下位置Mを検出し、口下位置Mに基づいて、鼻孔を探索する鼻孔探索領域を設定する。このとき、口下の位置と統計的データとに基づいた比率で、顔領域Fの中に鼻孔探索領域Nを設定する。特に、顔の中央部に鼻孔探索領域を設定するように、検出された口下位置Mから所定の距離だけ上方向に離れた位置に、鼻孔探索領域Nを設定する。
例えば、鼻孔探索領域Nとして、顔領域Fの縦をH、幅をWとして、縦が9/16・H、幅が6/16・Wである長方形の領域を、口下位置Mから上方向に2/16・Hだけ離れた位置であって、かつ、横方向に顔領域Fの中央となる位置に設定する。
そして、鼻孔探索領域Nの範囲で、2つの隣り合ったほぼ丸い形の暗所を探索して、鼻孔を検出する。例えば、鼻孔探索領域Nの範囲で、水平方向エッジ及び垂直方向エッジを検出する。ここで、左から右に向かって明から暗に変化する点を縦プラスエッジ、左から右に向かって暗から明に変化する点を縦マイナスエッジとする。また、上から下に向かって明から暗に変化する点を横プラスエッジ、上から下に向かって暗から明に変化する点を横マイナスエッジとする。鼻孔の1つは、顔画像に向かって、縦プラスエッジが左に、縦マイナスエッジが右に、横プラスエッジが上に、横マイナスエッジが下に現れる。
それら4種類のエッジが上述した位置関係で得られた位置を、鼻孔の1つの候補とする。そして、このようなエッジの集合が横にならんで2つ隣り合って検出された場合に、それらを鼻孔候補とする。また、鼻孔探索領域Nに鼻孔候補が2つ以上検出された場合には、そのうち口下位置Mに最も近い鼻孔候補を鼻孔と判定する。
そして、上記のように得られた隣り合った2つの鼻孔に基づいて、図3に示すように、顔画像における左右各々の鼻孔の領域の重心の中点の位置(画像座標で表される位置)を、鼻位置として検出する。
また、目探索領域設定部24は、検出された鼻位置を用いて、以下に説明するように、目探索領域として設定する。図4に示すように、検出された鼻位置に基づいて顔領域Fの中に右目探索領域E及び左目探索領域Eを設定する。ここで、顔領域Fにおいて目が必ず検出できる最小の範囲を統計的に調査して、目探索領域とする。例えば、辺の長さを顔領域Fの縦又は横の長さに所定の比率を乗じた長さとした長方形を、鼻孔の上に所定の間隔をあけて設置して、目探索領域とする。
例えば、顔領域Fの幅をWとして、右目探索領域E及び左目探索領域Eを、縦0.35W、横0.26Wの長方形とする。そして、鼻孔の重心Cnの上0.08Wから上に、また、左右は鼻孔の重心Cnを中心に間を0.13Wだけ離して2つの長方形を右目探索領域E及び左目探索領域Eとして設定する。
まぶた候補検出部26は、右目探索領域の右目画像及び左目探索領域の左目画像の各々に対して、エッジ処理を行って、左右の目の各々のエッジ画像から、下まぶたと眼球との境界(下まぶたの上縁)に相当するエッジのエッジ特徴点を抽出し、抽出されたエッジ特徴点に基づいて、下まぶたの位置の候補(画像座標で表される位置の候補)を左右の目の各々について検出する。なお、エッジ特徴点の抽出は、以下のように行われる。まず、図5(A)に示すような右目探索領域の右目画像及び左目探索領域の左目画像の各々から、例えばSobelオペレータを用いて、図5(B)に示すようなまばたき方向を上から下へ向かう方向の画素毎の濃淡変化の大きさを表すSobelエッジ画像を生成する。
生成されたSobelエッジ画像から、まばたき方向であって、上から下へ向かう方向における原画像の画素値変化の大きさの変化が得られる。一般に、眼球部分は皮膚部分であるまぶたに比べて、反射率が小さいため、暗く撮影されるので、上まぶたと眼球との境界付近では、上から下に向かって、明から暗へ、そして、下まぶたと眼球との境界付近では、上から下に向かって逆に暗から明に画素値が変化する。従って、得られる画素値変化を示すエッジ値は、眼球と上まぶたとの境界部分では、エッジ値が正の所定値以上となり、境界部分の中心のエッジ値が極大値となる。また、眼球と下まぶたとの境界部分では、エッジ値が負の所定値以下となり、境界部分の中心のエッジ値が極小値となる。
従って、Sobelエッジ画像の検出対象の画素列の各画素を、上から下へ走査し、注目画素のエッジ値が負のしきい値より小さい場合には、注目画素のエッジ値が、まばたき方向に極小値となるか否かを判定し、一つ上の画素、注目画素、及び一つ下の画素のエッジ値に基づいて、注目画素のエッジ値が極小値であると判定されると、この注目画素の位置をエッジ特徴点として検出する。これにより、下まぶたと眼球との境界のエッジを示すエッジ特徴点が検出される。なお、下まぶたと眼球との境界のエッジを示すエッジ特徴点が複数検出された場合には、鼻孔の位置との相対位置に基づいて、下まぶたと眼球との境界のエッジを示すエッジ特徴点を選択すればよい。
相対位置算出部27は、検出された鼻位置の画像座標を基準とした下まぶたの位置の候補の画像座標の各々の相対位置(画像座標で表される相対位置)を左右の目の各々について算出する。
また、まぶた位置検出部28は、左右の目の各々について、検出された下まぶたの位置の複数の候補の各々の相対位置と、前回の鼻位置を基準とした下まぶたの位置の相対位置とを比較し、現在のまぶたの位置の画像座標を目位置として検出して、目位置の時系列対応を左右の目の各々について計算する。
次に、目位置検出装置10の動作について説明する。まず、画像撮像部12で被験者の顔画像を連続的に撮像する。この際に、周囲の外乱光の影響を低減させるために、例えば、赤外ストロボからなる照明部14を、画像撮像部12の撮影と同期して発光させることにより、被験者の顔部を照明する。なお、照明部14から連続光を発光させれば、画像撮像部12との同期は不要となり、構成が簡単になる。
そして、コンピュータ16において、図6に示す画像処理ルーチンを実行する。まず、ステップ100において、画像撮像部12で撮像された顔画像を、ビデオ信号として取り込み、ステップ102で、ビデオ信号をA/D変換して、2次元ディジタル画像を生成する。本実施例においては、以降の処理は、このディジタル画像に基づいて、ディジタル処理により行われるので、以後、単に画像という場合にはディジタル画像を意味することとする。
そして、ステップ104において、顔画像から左右の鼻孔を検出して、左右の鼻孔を表わす領域の重心の中点の位置を鼻位置として検出し、次のステップ106では、上記ステップ104で検出された鼻位置を基準位置として、予め定められた所定位置に存在する領域を右目探索領域及び左目探索領域として設定する。
そして、ステップ108では、図7に示すように、右目探索領域の画像及び左目探索領域の画像の各々に対して、エッジ処理を行い、左右の目の各々のエッジ画像に基づいて、下まぶたの位置の候補の画像座標(候補x、候補y)を複数検出する。次のステップ110で、左右の目の各々について、以下の式に基づいて、鼻位置(鼻x、鼻y)を基準とした下まぶたの位置の複数候補の各々の相対位置(相対x、相対y)を各々算出する。
(相対x、相対y)=(候補x−鼻x、候補y−鼻y)
そして、ステップ112で、左右の目の各々について、前回相対位置記憶部30に記憶された前回の相対位置と、上記ステップ110で算出された相対位置の各々とを比較し、前回の相対位置に最も近い相対位置を選択し、鼻位置を基準位置として、選択された相対位置となる位置を、下まぶたの位置として検出する。
そして、ステップ114で、左右の目の各々について、上記ステップ112で選択された相対位置、すなわち、上記ステップ104で検出された鼻位置を基準とした、上記ステップ112で検出されたまぶた位置の相対位置を、前回相対位置記憶部30に記憶し、前回の相対位置を更新する。そして、ステップ116において、上記ステップ112で検出された下まぶたの位置を用いて、左右の目の各々について、目位置の時間的対応を表示装置18に表示する。
そして、ステップ118で、追跡処理を終了するか否かを判定し、終了しない場合には、上記ステップ100へ戻り、新たに撮像された顔画像に基づいて、上記ステップ100〜116の処理を実行するが、追跡処理を終了すると判断すると、画像処理ルーチンを終了する。
以上説明したように、第1の実施の形態に係る目位置検出装置によれば、鼻の特徴を表わす位置を基準として、現在の相対位置の候補と前回の相対位置とを比較して、目位置を検出することにより、目位置より簡易に検出でき、かつ、検出率が高い鼻の特徴を表わす位置を用いて、目位置を検出するため、顔が動いても、簡易な計算処理で、目位置を検出して追跡することができる。
また、顔が上下左右に移動しても保存される鼻と目との相対位置を用いることにより、計算コストの高いまぶたパターンの相関演算方式を用いずに目位置の時間的な対応をとることができ、また、顔が動いた場合でも正しく時間的な対応を取ることができる。
瞬き時にも上下位置があまり動かない下まぶたの境界の位置を目位置として検出することにより、正しく目位置を検出することができる。
なお、上記の実施の形態では、下まぶたの境界の位置を目位置として検出する場合を例に説明したが、これに限定されるものではなく、例えば、顔画像における上まぶたと眼球との境界(上まぶたの下縁)の位置、顔画像における瞳の重心、又は上まぶたと眼球との境界と前記下まぶたと眼球との境界との中点を目位置として検出するようにしてもよい。
また、顔画像に向かって、縦プラスエッジが左に、縦マイナスエッジが右に、横プラスエッジが上に、横マイナスエッジが下に現れる領域を、鼻孔を表わす領域として検出する場合を例に説明したが、これに限定されるものではなく、例えば、顔画像から抽出される顔領域における平均濃度値、すなわち輝度の平均値を計算し、計算された平均濃度値に応じた黒画素判定閾値thを用いて鼻孔探索開始点を検出して、鼻孔探索開始点を中心とした鼻孔の候補となる複数の探索円を検出し、1組の鼻孔に対応する円形ペアを鼻孔を表わす領域として検出するようにしてもよい。
また、鼻孔領域の画像について、白から黒へ、更に白へと変化する横方向にのびたエッジである白黒白横エッジを検出して、鼻孔領域の画像中で縦方向に2〜3画素の幅の黒い画素列を検出すると共に、白から黒へ、更に白へと変化する縦方向にのびたエッジである白黒白横エッジを検出して、鼻孔領域の画像中で横方向に2〜3画素の幅の黒い画素列を検出することにより、鼻孔の位置を検出するようにしてもよい。
次に、第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成の部分については、同一符号を付して説明を省略する。
第2の実施の形態では、相対位置の基準位置として、眉間の位置を検出している点が第1の実施の形態と異なっている。
図8に示すように、第2の実施の形態に係る目位置検出装置210のコンピュータ216は、画像入力部20と、画像入力部20の出力である顔画像から眉間位置を検出する眉間位置検出部222と、検出された眉間位置に基づいて目探索領域を設定する目探索領域設定部224と、まぶた候補検出部26と、眉間位置に対する下まぶたの位置の候補の各々の相対位置を各々算出する相対位置算出部227と、まぶた位置検出部28と、前回の眉間位置を基準とした下まぶたの位置の相対位置を記憶する前回相対位置記憶部230とを備えている。
また、眉間位置検出部222は、以下に説明するように、顔画像から眉間の特徴を表わす眉間位置を検出する。例えば、図9に示すような、6つの矩形形状の結合した眉間検出フィルタを用意する。この6分割矩形フィルタである眉間検出フィルタは、鼻筋は両目領域よりも明るい、目領域は頬部よりも暗い、という顔の特徴を抽出し、顔の眉間の特徴を表わす位置を求めるフィルタである。点(x、y)を中心として、横i画素、縦j画素(i,j:自然数)の矩形の枠を設けている。そして、図10に示すように、顔画像に眉間検出フィルタを当てはめて、フィルタリング処理によって眉間候補点の位置を抽出する。そして、その抽出された眉間候補点の位置を中心として、所定の大きさで対象画像を切り出すと共に、パターン判別処理に応じて眉間候補点のうちから真の候補点を選択して、眉間位置を検出する。
目探索領域設定部224は、顔画像において顔領域を設定し、検出された眉間位置に基づいて顔領域の中に右目探索領域及び左目探索領域を設定する。例えば、辺の長さを顔領域の縦又は横の長さに所定の比率を乗じた長さとした長方形を、検出された眉間位置の左右に、所定の間隔をあけて設置して、右目探索領域及び左目探索領域とする。
相対位置算出部27は、検出された眉間位置を基準とした下まぶたの位置の候補の各々の相対位置を左右の目の各々について算出する。
また、前回相対位置記憶部230には、左右の目の各々について、前回検出された眉間位置を基準とした前回の下まぶたの位置の相対位置が記憶されている。
第2の実施の形態では、エッジ画像処理ルーチンにおいて、顔画像から眉間位置を検出し、検出された眉間位置を基準位置として、予め定められた所定位置に存在する領域を右目探索領域及び左目探索領域として設定する。そして、右目探索領域の画像及び左目探索領域の画像の各々から、下まぶたの位置の候補を複数検出し、左右の目の各々について、眉間位置と下まぶたの位置の候補の各々との相対位置を各々算出し、左右の目の各々について、前回相対位置記憶部230に記憶された前回の相対位置と、算出された相対位置の各々とを比較し、前回の相対位置に最も近い相対位置を選択し、検出された現在の眉間位置を基準として、選択された相対位置となる位置を、下まぶたの位置として検出する。
また、左右の目の各々について、検出された眉間位置を基準とした検出された下まぶたの位置の相対位置を、前回相対位置記憶部230に記憶し、前回の相対位置を更新する。
このように、眉間の特徴を表わす位置を基準として、現在の相対位置の候補と前回の相対位置とを比較して、目位置を検出することにより、目位置より簡易に検出でき、かつ、検出率が高い眉間の特徴を表わす位置を用いて、目位置を検出するため、顔が動いても、簡易な計算処理で、目位置を検出して追跡することができる。
次に、第3の実施の形態について説明する。なお、第1の実施の形態と同様の構成の部分については、同一符号を付して説明を省略する。
第3の実施の形態では、鼻位置と前回の下まぶたの相対位置とに基づいて目探索領域を設定している点が第1の実施の形態と異なっている。
図11に示すように、第3の実施の形態に係る目位置検出装置310のコンピュータ316は、画像入力部20と、鼻位置検出部22と、鼻位置と前回の下まぶたの相対位置とに基づいて、目探索領域を設定する目探索領域設定部324と、目探索領域から下まぶたの位置を検出するまぶた位置検出部326と、鼻位置を基準とした検出された下まぶたの位置の相対位置を算出する相対位置算出部328と、前回相対位置記憶部30とを備えている。
次に、第3の実施の形態に係る画像処理ルーチンについて図12を用いて説明する。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
まず、ステップ100において、画像撮像部12で撮像された顔画像を、ビデオ信号として取り込み、ステップ102で、ビデオ信号をA/D変換して、2次元ディジタル画像を生成する。そして、ステップ104において、顔画像から左右の鼻孔を検出し、左右の鼻孔を表わす領域の重心の中点の位置を鼻位置として検出する。
そして、次のステップ350では、上記ステップ104で検出された鼻位置を基準として、前回相対位置記憶部30に記憶された前回の相対位置となる位置を中心とする小領域を、右目探索領域及び左目探索領域として設定する。
そして、ステップ352では、右目探索領域の画像及び左目探索領域の画像の各々に対して、エッジ処理を行い、得られた左右の目の各々のエッジ画像に基づいて、エッジ特徴点を検出し、検出されたエッジ特徴点に基づいて、左右の目の各々について、下まぶたの位置を目位置として検出する。次のステップ354では、左右の目の各々について、上記ステップ104で検出された鼻位置を基準とした上記ステップ352で検出された下まぶたの位置の相対位置を算出し、ステップ114で、上記ステップ354で算出された相対位置を、前回相対位置記憶部30に記憶し、左右の目の各々について、前回の相対位置を更新する。そして、ステップ116で、上記ステップ352で検出された下まぶたの位置を用いて、左右の目の各々について、目位置の時間的対応を表示装置18に表示する。
そして、ステップ118で、追跡処理を終了するか否かを判定し、終了しない場合には、上記ステップ100へ戻り、新たに撮像された顔画像に基づいて、上述した処理を実行するが、追跡処理を終了すると判断されると、画像処理ルーチンを終了する。
このように、鼻の特徴を表わす位置を基準として、前回の相対位置を用いて、目位置を検出することにより、目位置より簡易に検出でき、かつ、検出率が高い鼻の特徴を表わす位置を用いて、目位置を検出するため、顔が動いても、簡易な計算処理で、目位置を検出して追跡することができる。
また、鼻位置を基準とした前回の相対位置となる位置に、目探索領域を設定することにより、目探索領域を特定することができるため、簡易な計算処理で、目位置を検出することができる。
次に、第4の実施の形態について説明する。なお、第4の実施の形態に係る目位置検出装置の構成は、第1の実施の形態と同様の構成であるため、同一符号を付して説明を省略する。
第4の実施の形態では、下まぶたの境界の上下方向の位置と上まぶたの境界の左右方向の位置とで表される目位置を検出している点が第1の実施の形態と異なっている。
第4の実施の形態に係る目位置検出装置では、目探索領域のエッジ画像から、図13に示すように、上まぶたと眼球との境界を示すエッジ特徴点を検出し、検出されたエッジ特徴点から、開眼時の上まぶたの境界を示す曲線の変曲点に相当するエッジ特徴点を抽出し、抽出されたエッジ特徴点の左右方向の位置を検出する。また、目探索領域のエッジ画像から、下まぶたと眼球との境界を示すエッジ特徴点を検出し、検出されたエッジ特徴点から、下まぶたと眼球との境界の上下方向の位置を検出する。そして、上記のように検出された上まぶたの境界の変曲点の左右方向の位置を、目位置の左右方向の位置とし、また、下まぶたと眼球との境界の上下方向の位置を、目位置の上下方向の位置として、目位置として検出する。
なお、上まぶたの位置については、エッジ画像に基づいて、エッジ値が正の所定値以上であって、エッジ値が極大値となるエッジ極大点を検索し、下まぶたの位置より上において検索されたエッジ極大点を、上まぶたと眼球との境界を示すエッジ特徴点として検出すればよい。また、下まぶたの位置より上において、虹彩を示すエッジ極大点が検出される可能性があるが、検出されるエッジ特徴点のエッジ値について、正のしきい値を設けて、虹彩を示すエッジ極大点を除外すればよい。
このように、開眼時の上まぶたは丸く湾曲しており、左右方向の代表位置を決めるのは下まぶたよりも上まぶたの方が容易であるため、上まぶたの境界の変曲点の左右方向の位置を検出することにより、目位置の左右方向の位置を容易に検出することができる。また、下まぶたは直線に近いため、下まぶたの境界の上下方向の位置を検出することにより、目位置の上下方向の位置を容易に検出することができる。
なお、上記の実施の形態では、目位置を検出する場合を例に説明したが、これに限定されるものではなく、例えば、眼鏡の位置や、口の位置、眉毛の位置、顎の位置、耳の位置などの顔の所定部位の位置を検出するようにしてもよい。
また、画像入力部で入力した濃淡画像から濃淡変化の大きさを表すエッジ画像を生成する場合を例に説明したが、画像入力部で入力した画像がカラー画像であってもよい。この場合には、カラー画像の濃度値の変化の大きさを表すエッジ画像を生成すればよい。
また、エッジ画像のエッジ値が極小値となる点を下まぶたのエッジに相当するエッジ特徴点として検出し、エッジ値が極大値となる点を上まぶたのエッジに相当するエッジ特徴点として検出する場合を例に説明したが、これに限定されるものではなく、例えば、目画像において、眼球部分が明るく、肌部分が暗くなっている場合には、エッジ画像のエッジ値が極大値となる点を下まぶたのエッジ上のエッジ特徴点として検出し、エッジ値が極小値となる点を上まぶたのエッジ上のエッジ特徴点として検出するようにすればよい。
本発明の第1の実施の形態に係る目位置検出装置の構成を示すブロック図である。 顔画像に設定される顔領域及び鼻孔探索領域を示すイメージ図である。 顔画像における鼻孔を表わす領域の重心の中点を示すイメージ図である。 顔画像に設定される右目探索領域及び左目探索領域を示すイメージ図である。 (A)右目画像及び左目画像を示すイメージ図、及び(B)右目画像及び左目画像のSobelエッジ画像を示すイメージ図である。 本発明の第1の実施の形態に係る目位置検出装置における画像処理ルーチンの内容を示すフローチャートである。 下まぶたの位置の複数の候補及び鼻位置を示すイメージ図である。 本発明の第2の実施の形態に係る目位置検出装置の構成を示すブロック図である。 眉間位置を検出するための6分割矩形フィルタを示すイメージ図である。 顔画像に6分割矩形フィルタをあてた様子を示すイメージ図である。 本発明の第3の実施の形態に係る目位置検出装置の構成を示すブロック図である。 本発明の第3の実施の形態に係る目位置検出装置における画像処理ルーチンの内容を示すフローチャートである。 目位置を表わすための上まぶたの境界の変曲点と下まぶたの境界の点とを示すイメージ図である。
符号の説明
10、210、310 目位置検出装置
12 画像撮像部
16、216、316 コンピュータ
18 表示装置
22 鼻位置検出部
24、224、324 目探索領域設定部
26 まぶた候補検出部
27、227、328 相対位置算出部
28、326 まぶた位置検出部
30、230 前回相対位置記憶部
222 眉間位置検出部

Claims (7)

  1. 被観察者の顔を撮像する撮像手段と、
    前記撮像手段によって撮像された前記顔を表す顔画像から、鼻の特徴を表わす位置及び眉間の特徴を表わす位置の何れか一方の位置を検出する位置検出手段と、
    前記位置検出手段によって過去に検出された位置を基準とした前記顔の所定部位の過去の相対位置を算出する算出手段と、
    前記算出手段によって算出された前記過去の相対位置と、前記位置検出手段によって検出された現在の位置とに基づいて、前記所定部位の位置を検出する部位位置検出手段と、
    を含む顔部位検出装置。
  2. 前記所定部位の位置の候補を複数検出する候補検出手段を更に含み、
    前記部位位置検出手段は、前記位置検出手段によって検出された現在の位置を基準とした前記複数の候補の各々の現在の相対位置と、前記算出手段によって算出された前記過去の相対位置との比較により、前記所定部位の位置を検出する請求項1記載の顔部位検出装置。
  3. 前記部位位置検出手段は、前記位置検出手段によって検出された現在の位置を基準とした前記算出手段によって算出された前記過去の相対位置に基づいて、前記所定部位の位置を検出する請求項1記載の顔部位検出装置。
  4. 前記鼻の特徴を表わす位置を、前記顔画像における左右各々の鼻孔の領域の重心の中点の位置とした請求項1〜請求項3の何れか1項記載の顔部位検出装置。
  5. 前記顔の所定部位の位置を、目の位置とし、前記顔画像における上まぶたと眼球との境界、前記顔画像における下まぶたと眼球との境界、前記顔画像における瞳の重心、及び前記上まぶたと眼球との境界と前記下まぶたと眼球との境界との中点の何れかの位置で表わした請求項1〜請求項4の何れか1項記載の顔部位検出装置。
  6. 前記顔の所定部位の位置を、目の位置とし、前記顔画像における下まぶたと眼球との境界の上下方向の位置及び前記上まぶたと眼球との境界の左右方向の位置で表した請求項1〜請求項4の何れか1項記載の顔部位検出装置。
  7. コンピュータを、
    被観察者の顔を撮像する撮像手段によって撮像された前記顔を表す顔画像から、鼻の特徴を表わす位置及び眉間の特徴を表わす位置の何れか一方の位置を検出する位置検出手段、
    前記位置検出手段によって過去に検出された位置を基準とした前記顔の所定部位の過去の相対位置を算出する算出手段、及び
    前記算出手段によって算出された前記過去の相対位置と、前記位置検出手段によって検出された現在の位置とに基づいて、前記所定部位の位置を検出する部位位置検出手段
    として機能させるためのプログラム。
JP2007071524A 2007-03-19 2007-03-19 顔部位検出装置及びプログラム Active JP4307496B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007071524A JP4307496B2 (ja) 2007-03-19 2007-03-19 顔部位検出装置及びプログラム
CN2008100850763A CN101271517B (zh) 2007-03-19 2008-03-17 面部区域检测装置和方法
US12/050,620 US7916904B2 (en) 2007-03-19 2008-03-18 Face region detecting device, method, and computer readable recording medium
EP20080152880 EP1973059B1 (en) 2007-03-19 2008-03-18 Face region detecting device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007071524A JP4307496B2 (ja) 2007-03-19 2007-03-19 顔部位検出装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2008234208A true JP2008234208A (ja) 2008-10-02
JP4307496B2 JP4307496B2 (ja) 2009-08-05

Family

ID=39405080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007071524A Active JP4307496B2 (ja) 2007-03-19 2007-03-19 顔部位検出装置及びプログラム

Country Status (4)

Country Link
US (1) US7916904B2 (ja)
EP (1) EP1973059B1 (ja)
JP (1) JP4307496B2 (ja)
CN (1) CN101271517B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013513155A (ja) * 2009-12-02 2013-04-18 タタ コンサルタンシー サービシズ リミテッド 目の追跡及び運転者の覚醒度を識別する費用対効果が高くロバストなシステム及び方法
JP2015075914A (ja) * 2013-10-09 2015-04-20 アイシン精機株式会社 眼部検出装置、方法、およびプログラム
JP2015075915A (ja) * 2013-10-09 2015-04-20 アイシン精機株式会社 顔検出装置、方法およびプログラム
JP2016224597A (ja) * 2015-05-28 2016-12-28 浜松ホトニクス株式会社 瞬目計測方法、瞬目計測装置、及び瞬目計測プログラム

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4137969B2 (ja) * 2006-12-04 2008-08-20 アイシン精機株式会社 眼部検出装置、眼部検出方法及びプログラム
TW200930069A (en) * 2007-12-21 2009-07-01 Altek Corp Method for correcting red-eye
US8345922B2 (en) * 2008-09-03 2013-01-01 Denso Corporation Apparatus for detecting a pupil, program for the same, and method for detecting a pupil
JP5554987B2 (ja) * 2009-12-28 2014-07-23 キヤノン株式会社 オブジェクト識別装置及びその制御方法
KR20120057033A (ko) * 2010-11-26 2012-06-05 한국전자통신연구원 Iptv 제어를 위한 원거리 시선 추적 장치 및 방법
KR20120113579A (ko) * 2011-04-05 2012-10-15 현대자동차주식회사 길안내 정보의 윈드쉴드 표시 장치 및 그 방법
DE102011081391A1 (de) * 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen von Störobjekten in der Umgebungsluft eines Fahrzeugs
JP5367037B2 (ja) * 2011-09-26 2013-12-11 本田技研工業株式会社 顔向き検出装置
US9082004B2 (en) 2011-12-15 2015-07-14 The Nielsen Company (Us), Llc. Methods and apparatus to capture images
US8861802B2 (en) * 2012-03-13 2014-10-14 Honeywell International Inc. Face image prioritization based on face quality analysis
US9449412B1 (en) 2012-05-22 2016-09-20 Image Metrics Limited Adaptive, calibrated simulation of cosmetic products on consumer devices
US9460462B1 (en) 2012-05-22 2016-10-04 Image Metrics Limited Monetization using video-based simulation of cosmetic products
US9104908B1 (en) 2012-05-22 2015-08-11 Image Metrics Limited Building systems for adaptive tracking of facial features across individuals and groups
US9129147B1 (en) 2012-05-22 2015-09-08 Image Metrics Limited Optimal automatic capture of facial movements and expressions in video sequences
US9111134B1 (en) 2012-05-22 2015-08-18 Image Metrics Limited Building systems for tracking facial features across individuals and groups
TWI498857B (zh) * 2012-09-14 2015-09-01 Utechzone Co Ltd 瞌睡提醒裝置
US8769557B1 (en) 2012-12-27 2014-07-01 The Nielsen Company (Us), Llc Methods and apparatus to determine engagement levels of audience members
US9070015B2 (en) * 2013-02-07 2015-06-30 Ittiam Systems (P) Ltd. System and method for iris detection in digital images
JP6261206B2 (ja) * 2013-06-28 2018-01-17 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6227996B2 (ja) * 2013-12-18 2017-11-08 浜松ホトニクス株式会社 計測装置及び計測方法
AU2016310452B2 (en) * 2015-08-21 2021-04-22 Magic Leap, Inc. Eyelid shape estimation
CN108135469B (zh) 2015-08-21 2021-03-09 奇跃公司 使用眼睛姿态测量的眼睑形状估计
CN114140867A (zh) 2015-10-16 2022-03-04 奇跃公司 使用眼睛特征的眼睛姿态识别
US9984282B2 (en) * 2015-12-10 2018-05-29 Perfect Corp. Systems and methods for distinguishing facial features for cosmetic application
JP2017202038A (ja) * 2016-05-10 2017-11-16 富士通株式会社 判別装置、判別方法、および判別プログラム
US10157323B2 (en) * 2016-08-30 2018-12-18 Qualcomm Incorporated Device to provide a spoofing or no spoofing indication
JP6973928B2 (ja) * 2017-11-10 2021-12-01 アルパイン株式会社 瞼開閉判定装置および眠気検知装置
CN107944393B (zh) * 2017-11-27 2021-03-30 电子科技大学 人脸鼻尖定位方法
JP6919619B2 (ja) * 2018-04-12 2021-08-18 オムロン株式会社 画像解析装置、方法およびプログラム
CN111444748B (zh) * 2019-01-17 2021-11-26 北京字节跳动网络技术有限公司 一种坐姿检测方法、装置、设备及存储介质
US10949649B2 (en) 2019-02-22 2021-03-16 Image Metrics, Ltd. Real-time tracking of facial features in unconstrained video
US11711638B2 (en) 2020-06-29 2023-07-25 The Nielsen Company (Us), Llc Audience monitoring systems and related methods
US11195301B1 (en) * 2020-07-26 2021-12-07 Nec Corporation Of America Estimation of head yaw in an image
US11860704B2 (en) 2021-08-16 2024-01-02 The Nielsen Company (Us), Llc Methods and apparatus to determine user presence
US11758223B2 (en) 2021-12-23 2023-09-12 The Nielsen Company (Us), Llc Apparatus, systems, and methods for user presence detection for audience monitoring

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2932551B2 (ja) 1989-12-28 1999-08-09 日産自動車株式会社 虹彩位置検出装置及び運転者の状態検出装置
FR2690822B1 (fr) * 1992-05-06 1994-08-05 Dior Christian Parfums Procede de maquillage du visage, en particulier des yeux, et dispositif pour sa mise en óoeuvre.
JP3063504B2 (ja) 1993-12-22 2000-07-12 日産自動車株式会社 画像データの特徴量検出装置
JP3143819B2 (ja) 1994-05-20 2001-03-07 株式会社豊田中央研究所 まぶたの開度検出装置
JP3533722B2 (ja) 1994-09-30 2004-05-31 オムロン株式会社 不良検査方法およびその装置
JP3312562B2 (ja) 1996-07-18 2002-08-12 日産自動車株式会社 居眠り状態検出装置
JPH1044824A (ja) 1996-07-30 1998-02-17 Nissan Motor Co Ltd 車両運転者の開閉眼判定装置
JP3422183B2 (ja) 1996-08-22 2003-06-30 トヨタ自動車株式会社 顔画像における目の検出方法
JP3529954B2 (ja) * 1996-09-05 2004-05-24 株式会社資生堂 顔だち分類法及び顔だちマップ
JP3444115B2 (ja) 1996-11-13 2003-09-08 日産自動車株式会社 居眠り状態検出装置
JPH1139469A (ja) * 1997-07-24 1999-02-12 Mitsubishi Electric Corp 顔画像処理装置
JPH1166320A (ja) 1997-08-12 1999-03-09 Mitsubishi Electric Corp 目画像追跡装置
JP2000067225A (ja) 1998-08-26 2000-03-03 Nissan Motor Co Ltd 眼位置検出装置
JP2000123188A (ja) 1998-10-20 2000-04-28 Toyota Motor Corp 眼開閉判定装置
JP2000137792A (ja) 1998-10-30 2000-05-16 Toyota Motor Corp 眼部検出装置
JP3695990B2 (ja) 1999-05-25 2005-09-14 三菱電機株式会社 顔画像処理装置
US6130617A (en) * 1999-06-09 2000-10-10 Hyundai Motor Company Driver's eye detection method of drowsy driving warning system
CN100362975C (zh) * 1999-10-21 2008-01-23 泰思诺拉斯眼科系统公司 用于光学治疗的虹膜识别和跟踪
JP2001307076A (ja) 2000-04-24 2001-11-02 Niles Parts Co Ltd 眼の状態検出装置、居眠り検出装置
US6937755B2 (en) * 2000-06-27 2005-08-30 Rami Orpaz Make-up and fashion accessory display and marketing system and method
JP4469476B2 (ja) * 2000-08-09 2010-05-26 パナソニック株式会社 眼位置検出方法および眼位置検出装置
US7079158B2 (en) * 2000-08-31 2006-07-18 Beautyriot.Com, Inc. Virtual makeover system and method
KR100856169B1 (ko) * 2000-12-26 2008-09-03 가부시키가이샤 시세이도 마스카라 선정방법, 마스카라 선정 시스템 및 마스카라카운셀링 툴
US7058209B2 (en) * 2001-09-20 2006-06-06 Eastman Kodak Company Method and computer program product for locating facial features
JP4789408B2 (ja) * 2003-06-30 2011-10-12 株式会社 資生堂 目の形態分類方法及び形態分類マップ並びに目の化粧方法
JP4390487B2 (ja) 2003-07-03 2009-12-24 セコム株式会社 頭部領域抽出装置
JP4506250B2 (ja) 2004-04-12 2010-07-21 日産自動車株式会社 上瞼検出装置
JP4130820B2 (ja) 2004-08-27 2008-08-06 株式会社豊田中央研究所 顔中心位置検出装置及び方法並びにプログラム
US8249695B2 (en) * 2006-09-29 2012-08-21 Tearscience, Inc. Meibomian gland imaging

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013513155A (ja) * 2009-12-02 2013-04-18 タタ コンサルタンシー サービシズ リミテッド 目の追跡及び運転者の覚醒度を識別する費用対効果が高くロバストなシステム及び方法
JP2015075914A (ja) * 2013-10-09 2015-04-20 アイシン精機株式会社 眼部検出装置、方法、およびプログラム
JP2015075915A (ja) * 2013-10-09 2015-04-20 アイシン精機株式会社 顔検出装置、方法およびプログラム
US10372972B2 (en) 2013-10-09 2019-08-06 Aisin Seiki Kabushiki Kaisha Face detection apparatus, face detection method, and program
JP2016224597A (ja) * 2015-05-28 2016-12-28 浜松ホトニクス株式会社 瞬目計測方法、瞬目計測装置、及び瞬目計測プログラム

Also Published As

Publication number Publication date
EP1973059A2 (en) 2008-09-24
CN101271517A (zh) 2008-09-24
CN101271517B (zh) 2012-09-19
EP1973059B1 (en) 2015-04-22
US7916904B2 (en) 2011-03-29
US20080232650A1 (en) 2008-09-25
JP4307496B2 (ja) 2009-08-05
EP1973059A3 (en) 2013-03-06

Similar Documents

Publication Publication Date Title
JP4307496B2 (ja) 顔部位検出装置及びプログラム
JP4845698B2 (ja) 眼部検出装置、眼部検出方法及びプログラム
JP3761059B2 (ja) ヒトの顔を検出する方法および装置、ならびに観察者トラッキングディスプレイ
JP4895797B2 (ja) 瞼検出装置、瞼検出方法及びプログラム
JP4739870B2 (ja) サングラス検出装置及び顔中心位置検出装置
JP4445454B2 (ja) 顔中心位置検出装置、顔中心位置検出方法、及び、プログラム
JP3143819B2 (ja) まぶたの開度検出装置
JP4912206B2 (ja) 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム
JP2008226125A (ja) 瞼検出装置、瞼検出方法、及び、プログラム
JP2007272435A (ja) 顔特徴抽出装置及び顔特徴抽出方法
JP2003150942A (ja) 目位置追跡方法
JP2005049854A (ja) 対象決定装置及び撮像装置
JP4082203B2 (ja) 開閉眼判定装置
JP2014102713A (ja) 顔構成部抽出装置、顔構成部抽出方法及びプログラム
JP2005165983A (ja) 人物顔のあご検出方法及びあご検出システム並びにあご検出プログラム
JP3963789B2 (ja) 眼検出装置、眼検出プログラム、そのプログラムを記録する記録媒体及び眼検出方法
JP2008209969A (ja) 顔特徴点検出装置、顔特徴点検出方法及びプログラム
JP2010146159A (ja) 瞼検出装置、瞼検出方法及びプログラム
US9082002B2 (en) Detection device and detection method
JP4852454B2 (ja) 目傾き検出装置及びプログラム
JP4895876B2 (ja) 眼検出装置及びプログラム
JP5093540B2 (ja) 目の位置の検出方法および検出システム
JP4831361B2 (ja) 目の位置の検出方法および検出システム
JP2008226189A (ja) 特徴点検出装置及びプログラム
JP4848302B2 (ja) 目検出装置、目検出方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090414

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090428

R150 Certificate of patent or registration of utility model

Ref document number: 4307496

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140515

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250