JP5221436B2 - 顔特徴点検出装置及びプログラム - Google Patents

顔特徴点検出装置及びプログラム Download PDF

Info

Publication number
JP5221436B2
JP5221436B2 JP2009090065A JP2009090065A JP5221436B2 JP 5221436 B2 JP5221436 B2 JP 5221436B2 JP 2009090065 A JP2009090065 A JP 2009090065A JP 2009090065 A JP2009090065 A JP 2009090065A JP 5221436 B2 JP5221436 B2 JP 5221436B2
Authority
JP
Japan
Prior art keywords
eye
parameter
corner
eyelid
shape model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009090065A
Other languages
English (en)
Other versions
JP2010244178A (ja
Inventor
悟 中西
芳樹 二宮
貴志 内藤
真一 小島
嘉修 竹前
拓寛 大見
淳 足立
崇 平槇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Denso Corp
Toyota Motor Corp
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Denso Corp, Toyota Motor Corp, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2009090065A priority Critical patent/JP5221436B2/ja
Priority to US13/259,065 priority patent/US8331630B2/en
Priority to EP10758593.7A priority patent/EP2416294B1/en
Priority to CN2010800132867A priority patent/CN102362291B/zh
Priority to KR1020117022723A priority patent/KR101267205B1/ko
Priority to PCT/JP2010/055454 priority patent/WO2010113821A1/ja
Publication of JP2010244178A publication Critical patent/JP2010244178A/ja
Application granted granted Critical
Publication of JP5221436B2 publication Critical patent/JP5221436B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、顔特徴点検出装置及びプログラムに係り、特に顔特徴点として目頭位置及び目尻位置を検出する顔特徴点検出装置及びプログラムに関する。
従来、検出対象の画像に含まれる顔を検出し、この顔の検出情報を用いて、顔を構成する目を検出し、この目の検出情報を用いて、目の目頭及び目尻を検出する顔特徴点検出方法において、予め複数のサンプル画像を用いて生成された学習識別器を用いて目頭及び目尻を検出する顔特徴点検出方法が提案されている(例えば、特許文献1参照)。
また、上瞼のエッジと下瞼のエッジとの交点を、コーナー検出法を利用して目尻目頭候補点として検出し、検出された候補点の周辺パターンを切り出して、予め登録してある目尻及び目頭のテンプレートとの類似度を計算して、類似度の高い目尻候補及び目頭候補を目尻及び目頭として検出する特徴点検出装置が提案されている(例えば、特許文献2参照)。
特開2007−213377号公報 特開2007−94906号公報
しかしながら、上記特許文献1記載の技術では、学習識別器により、検出する領域の目尻または目頭らしさを判別することはできるものの、顔特徴点としての目尻位置及び目頭位置の検出としては精度がよくない、という問題がある。また、検出精度を向上させるためには、高精細な学習識別器を生成して記憶しておく必要があり、計算時間及び必要メモリ量が増大する、という問題がある。
また、上記特許文献2記載の技術では、コーナー検出法により検出した候補点の周辺の微小な範囲に対してテンプレートとの類似度を計算しているため、眼鏡の映り込みなどのノイズにより目尻及び目頭部分が隠れている場合には、目尻位置及び目頭位置の検出が困難になる、という問題がある。
本発明は、上記の問題を解決するために成されたものであり、眼鏡の映り込みなどのノイズにより目頭及び目尻部分が隠れている場合でも、顔特徴点として目頭位置及び目尻位置を精度よく検出することができる顔特徴点検出装置及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明の顔特徴点検出装置は、目頭及び目尻を備えた目領域を含む画像の画像データを取得する取得手段と、前記取得手段で取得した画像データから、パターンマッチングにより目頭の第1位置及び目尻の第1位置を検出する位置検出手段と、前記位置検出手段で検出された目頭の第1位置及び目尻の第1位置を端点とする上側の曲線及び下側の曲線で表され、かつ前記上側の曲線上に定めた上瞼位置を第1のパラメータ及び前記下側の曲線上に定めた下瞼位置を第2のパラメータとする第1の瞼形状モデルにおいて、前記第1のパラメータ及び前記第2のパラメータを変更したときの前記第1の瞼形状モデルと前記画像に含まれる瞼の形状とが一致する度合いを示す第1の尤度を、前記第1のパラメータ及び前記第2のパラメータ毎に演算する第1の演算手段と、前記第1の演算手段で演算された第1の尤度が最も高い前記第1の瞼形状モデルで、かつ目頭位置を第3のパラメータ及び目尻位置を第4のパラメータとした第2の瞼形状モデルにおいて、前記第3のパラメータ及び前記第4のパラメータを変更したときの前記第2の瞼形状モデルと前記画像に含まれる瞼の形状とが一致する度合いを示す第2の尤度を、前記第3のパラメータ及び前記第4のパラメータ毎に演算する第2の演算手段と、前記第2の演算手段で演算された第2の尤度が最も高い前記第2の瞼形状モデルの第3のパラメータで示される位置を目頭の第2位置及び第4のパラメータで示される位置を目尻の第2位置として決定する位置決定手段と、を含んで構成されている。
また、本発明の顔特徴点検出プログラムは、コンピュータを、目頭及び目尻を備えた目領域を含む画像の画像データを取得する取得手段と、前記取得手段で取得した画像データから、パターンマッチングにより目頭の第1位置及び目尻の第1位置を検出する位置検出手段と、前記位置検出手段で検出された目頭の第1位置及び目尻の第1位置を端点とする上側の曲線及び下側の曲線で表され、かつ前記上側の曲線上に定めた上瞼位置を第1のパラメータ及び前記下側の曲線上に定めた下瞼位置を第2のパラメータとする第1の瞼形状モデルにおいて、前記第1のパラメータ及び前記第2のパラメータを変更したときの前記第1の瞼形状モデルと前記画像に含まれる瞼の形状とが一致する度合いを示す第1の尤度を、前記第1のパラメータ及び前記第2のパラメータ毎に演算する第1の演算手段と、前記第1の演算手段で演算された第1の尤度が最も高い前記第1の瞼形状モデルで、かつ目頭位置を第3のパラメータ及び目尻位置を第4のパラメータとした第2の瞼形状モデルにおいて、前記第3のパラメータ及び前記第4のパラメータを変更したときの前記第2の瞼形状モデルと前記画像に含まれる瞼の形状とが一致する度合いを示す第2の尤度を、前記第3のパラメータ及び前記第4のパラメータ毎に演算する第2の演算手段と、前記第2の演算手段で演算された第2の尤度が最も高い前記第2の瞼形状モデルの第3のパラメータで示される位置を目頭の第2位置及び第4のパラメータで示される位置を目尻の第2位置として決定する位置決定手段として機能させるためのプログラムである。
本発明の顔特徴点検出装置及びプログラムによれば、取得手段が、目頭及び目尻を備えた目領域を含む画像の画像データを取得し、位置検出手段が、取得手段で取得した画像データから、パターンマッチングにより目頭の第1位置及び目尻の第1位置を検出する。ここで、目頭及び目尻付近にノイズが存在しているなどの場合には、目頭の第1位置及び目尻の第1位置は精度よく検出されない場合がある。そこで、第1の演算手段が、位置検出手段で検出された目頭の第1位置及び目尻の第1位置を端点とする上側の曲線及び下側の曲線で表され、かつ上側の曲線上に定めた上瞼位置を第1のパラメータ及び下側の曲線上に定めた下瞼位置を第2のパラメータとする第1の瞼形状モデルにおいて、第1のパラメータ及び第2のパラメータを変更したときの第1の瞼形状モデルと画像に含まれる瞼の形状とが一致する度合いを示す第1の尤度を、第1のパラメータ及び第2のパラメータ毎に演算し、第2の演算手段が、第1の演算手段で演算された第1の尤度が最も高い第1の瞼形状モデルで、かつ目頭位置を第3のパラメータ及び目尻位置を第4のパラメータとした第2の瞼形状モデルにおいて、第3のパラメータ及び第4のパラメータを変更したときの第2の瞼形状モデルと画像に含まれる瞼の形状とが一致する度合いを示す第2の尤度を、第3のパラメータ及び第4のパラメータ毎に演算し、位置決定手段が、第2の演算手段で演算された第2の尤度が最も高い第2の瞼形状モデルの第3のパラメータで示される位置を目頭の第2位置及び第4のパラメータで示される位置を目尻の第2位置として決定する。
このように、画像に含まれる瞼の形状との尤度が最も高い第1の瞼形状モデルの目頭位置を第3のパラメータ及び目尻位置を第4のパラメータとする第2の瞼形状モデルにおいて、画像に含まれる瞼の形状との尤度が最も高い第2の瞼形状モデルの第3のパラメータで示される位置を目頭の第2位置及び第4のパラメータで示される位置を目尻の第2位置として決定するため、眼鏡の映り込みなどのノイズにより目頭及び目尻部分が隠れている場合でも、顔特徴点として目頭位置及び目尻位置を精度よく検出することができる。
また、本発明の前記第2の演算手段は、前記位置検出手段によるパターンマッチングのマッチング度が予め定めた閾値より小さい場合に、前記画像に含まれる瞼の形状のうち前記第2の瞼形状モデルの上瞼位置及び下瞼位置近傍の部分を用いて第2の尤度を演算するようにすることができる。位置検出手段によるパターンマッチングのマッチング度が予め定めた閾値より小さい場合には、目頭及び目尻付近にノイズが存在している可能性が高いため、第2の瞼形状モデルの上瞼位置及び下瞼位置近傍の部分を用いて第2の尤度を演算することにより、ノイズの影響を除外して尤度を演算することができる。
また、本発明の前記位置検出手段は、パターンマッチングのマッチング度が予め定めた閾値より小さい場合に、目頭の第1位置として複数の目頭候補点を検出し、目尻の第1位置として複数の目尻候補点を検出し、前記第1の演算手段は、前記複数の目頭候補点から選択した1つの目頭候補点及び前記複数の目尻候補点から選択した1つの目尻候補点を端点とする第1の瞼形状モデルにおいて、目頭候補点と目尻候補点との組合せの全てについて前記第1の尤度を演算するようにすることができる。これにより、第1の瞼形状モデルを柔軟に設定することができ、尤度の高いパラメータを決定することができる。
また、本発明の前記第2の演算手段は、前記第2の瞼形状モデルの上瞼位置と下瞼位置との距離が予め定めた開度閾値より小さい場合には、前記第3のパラメータ及び前記第4のパラメータを予め定めた範囲内で変更するようにすることができる。目の開度が小さい場合には、しわなどの影響で本来の目頭及び目尻とはずれた位置で目頭位置及び目尻位置が検出される場合があるため、第3のパラメータ及び第4のパラメータを予め定めた範囲内で変更するようにすることにより、検出される目頭位置及び目尻位置が大きくずれることを防止することができる。
また、本発明の顔特徴点検出装置は、前記位置決定手段で今回決定された目頭の第2位置と目頭の第1位置との差、及び今回決定された目尻の第2位置と目尻の第1位置との差の少なくとも一方が予め定めた前回差閾値より大きい場合には、今回決定された目頭の第2位置及び目尻の第2位置を目頭の第1位置及び目尻の第1位置として置き換えて、再度目頭の第2位置及び目尻の第2位置を決定するように制御する制御手段を含んで構成することができる。これにより、検出精度が向上する。
また、本発明の顔特徴点検出プログラムは、コンピュータを、本発明の顔特徴点検出装置を構成する各手段として機能させるためのプログラムである。
以上説明したように、本発明の顔特徴点検出装置及びプログラムによれば、瞼形状との尤度が高い瞼形状モデルのパラメータとして目頭位置及び目尻位置を検出するため、眼鏡の映り込みなどのノイズにより目尻及び目頭部分が隠れている場合でも、顔特徴点として目頭位置及び目尻位置を精度よく検出することができる、という効果が得られる。
本実施の形態に係る顔特徴点検出装置の構成を示すブロック図である。 第1の実施の形態の顔特徴点検出装置における顔特徴点検出処理の処理ルーチンの内容を示すフローチャートである。 第1の実施の形態における目頭目尻位置検出処理の処理ルーチンの内容を示すフローチャートである。 (A)顔領域の検出、(B)目の探索範囲の設定、及び(C)目領域の検出を説明するための図である。 目頭の探索範囲、及び目尻の探索範囲の設定を説明するための図である。 目頭領域の検出を説明するための図である。 目頭の第1位置の検出を説明するための図である。 第1の実施の形態における上下瞼位置検出処理の処理ルーチンの内容を示すフローチャートである。 (A)瞼形状モデルとしてのベジエ曲線、及び制御点を説明するための図、並びに(B)制御点Pと上瞼位置候補との関係を説明するための図である。 フィッティング評価値と上瞼位置及び下瞼位置との関係を説明するための図である。 第1の実施の形態における目頭目尻位置決定処理の処理ルーチンの内容を示すフローチャートである。 (A)ノイズがない場合、及び(B)ノイズがある場合におけるフィッティングについて説明するための図である。 第2の実施の形態における目頭目尻位置検出処理の処理ルーチンの内容を示すフローチャートである。 複数の目頭位置候補の設定を説明するための図である。 第2の実施の形態における上下瞼位置検出処理の処理ルーチンの内容を示すフローチャートである。 第3の実施の形態における目頭目尻位置決定処理の処理ルーチンの内容を示すフローチャートである。 目の開度による目頭位置及び目尻位置検出への影響を説明するための図である。 第4の実施の形態の顔特徴点検出装置における顔特徴点検出処理の処理ルーチンの内容を示すフローチャートである。 瞼形状ウインドウによる瞼形状モデルを説明するための図である。
以下、図面を参照して、本発明の顔特徴点検出装置の実施の形態を詳細に説明する。
図1に示すように、第1の実施の形態に係る顔特徴点検出装置10は、撮影の対象となる対象物を撮影するカメラ12、表示装置14、及びコンピュータ16を備えている。
表示装置14は、入力された情報に基づいた表示を行うLCD(Liquid Crystal Display)またはCRT(Cathode Ray Tube)で構成されている。
コンピュータ16は、I/O(入出力)ポート16a、ROM(Read Only Memory)16b、HDD(Hard Disk Drive)16c、CPU(Central Processing Unit)16d、RAM(Random Access Memory)16e、並びにこれらI/Oポート16a、ROM16b、HDD16c、CPU16d、及びRAM16eを互いに接続するバス16fを含んで構成されている。
記憶媒体としてのROM16bまたはHDD16cには、OS等の基本プログラム、及び後述する顔特徴点検出処理の処理ルーチンを実行するための顔特徴点検出プログラム等の各種プログラム、並びに各種データが記憶されている。
CPU16dは、プログラムをROM16b及びHDD16cから読み出して実行し、RAM16eには、各種データが一時的に記憶される。
I/Oポート16aには、カメラ12及び表示装置14が接続されている。
次に、図2を参照して、第1の実施の形態の顔特徴点検出装置における顔特徴点検出処理の処理ルーチンについて説明する。なお、本ルーチンは、顔特徴点検出装置10のスイッチ(図示せず)がオンされた時点から所定時間間隔(例えば、数10msec)毎にコンピュータ16のCPU16dによって実行される。
ステップ100で、カメラ12で撮影された顔画像の画像データを取り込む。次に、ステップ102で、上記ステップ100で取り込んだ画像データに基づく画像から、目頭の第1位置及び目尻の第1位置を検出する目頭目尻位置検出処理を実行する。次に、ステップ104で、上記ステップ102で検出された目頭の第1位置及び目尻の第1位置に基づいて上瞼位置及び下瞼位置を検出する上下瞼位置検出処理を実行する。次に、ステップ106で、上記ステップ104で検出された上瞼位置及び下瞼位置に基づいて目頭の第2位置及び目尻の第2位置を決定する目頭目尻位置決定処理を実行する。次に、ステップ108で、上記ステップ106で決定された目頭の第2位置及び目尻の第2位置を目尻位置及び目頭位置の検出結果として表示するように、表示装置14の表示を制御して、処理を終了する。
次に、図3を参照して、上記顔特徴点検出処理の処理ルーチン(図2)のステップ102で実行される目頭目尻位置検出処理の処理ルーチンについて説明する。
ステップ110で、図4(A)に示すように、テンプレートマッチング等の手法により画像から例えば矩形領域の顔領域30を検出する。
次に、ステップ112で、上記ステップ110で検出された顔領域30に対して、図4(B)に示すように目の探索範囲32を設定する。目の探索範囲32は、検出された顔領域30の大きさ等に応じて、目が存在すると想定される顔領域30内に、右目用及び左目用の探索範囲を設定する。そして、図4(C)に示すように、設定した目の探索範囲32から、テンプレートマッチング等の手法により、例えば矩形領域の目領域34を検出する。
次に、ステップ114で、上記ステップ112で検出された目領域34に基づいて、図5に示すように、目頭の探索範囲36、及び目尻の探索範囲38を設定する。目頭の探索範囲36は、例えば、左目の場合、目領域を横方向に3分割した場合の右側領域及びその周辺領域のように設定することができる。なお、本ステップ以降の処理は、右目及び左目のそれぞれについて行われるが、ここでは、左目の処理について説明し、右目の処理は同様であるので説明を省略する。
次に、ステップ116で、図6に示すように、上記ステップ114で設定された目頭の探索範囲36に対して、例えば矩形の目頭探索ウインドウ40を走査して目頭領域を検出し、テンプレートマッチング等の手法により、目頭領域の画像とテンプレートとのマッチング度を示す出力値Vheadを算出する。
次に、ステップ118で、上記ステップ116で算出された出力値Vheadが、予め定めた閾値αより小さいか否かを判定する。出力値Vheadが小さい場合、すなわちテンプレートとのマッチング度が低い場合には、目頭領域に眼鏡などの映り込みによるノイズが影響している可能性が高いと判断できる。そこで、閾値αは、ノイズの存在の有無を判定できる値を予め定めておく。Vhead<αの場合には、ステップ120へ進んで、図7に示すように、目頭の探索範囲36の中心を目頭の第1位置として検出する。一方、Vhead≧αの場合には、ステップ122へ進んで、図6に示すように、目頭領域(目頭探索ウインドウ40)の中心を目頭の第1位置として検出する。
なお、目頭の第1位置は、画像上の画素に対応した座標(x、y)により特定される。後述する目尻の第1位置、上瞼位置、下瞼位置等についても同様である。
次に、ステップ124〜130で、目頭の第1位置を検出した処理と同様の処理により、目尻探索ウインドウ42を用いて、出力値Vtailを算出して、目尻の第1位置を検出して、リターンする。
次に、図8を参照して、上記顔特徴点検出処理の処理ルーチン(図2)のステップ104で実行される上下瞼位置検出処理の処理ルーチンについて説明する。
ステップ132で、図9(A)に示すように、目頭目尻位置検出処理で検出された目頭の第1位置を制御点P、目尻の第1位置を制御点P、及び上瞼位置に対応する制御点Pを設定する。制御点P及びPは固定とする。そして、制御点P、P、及びPに基づいて定まるベジエ曲線を上瞼形状モデルとする。ここで、図9(B)に示すように、制御点P及びPを端点とする線分に制御点Pから下ろした垂線の中点を上瞼位置候補と定める。
次に、ステップ134で、制御点Pを変更しながら、下記(1)式によりフィッティング評価値λを算出する。
Figure 0005221436
ここで、pは、ベジエ曲線上の点iにおける法線ベクトル、eは、点iにおける画像の輝度勾配ベクトル、及びnは、ベジエ曲線上の点iの数である。点iにおける法線ベクトルと画像の輝度勾配ベクトルとの内積から、ベジエ曲線と画像に含まれる瞼の形状との尤度を算出するものである。なお、制御点Pの変更範囲は、例えば、目の探索範囲32内であって、かつ制御点P及びPを通る直線の上方範囲とすることができる。
次に、ステップ136で、変更範囲内の全ての位置において制御点Pの変更を行ってフィッティング評価値λを算出したか否かを判定する。算出していない場合には、ステップ132へ戻り、次の位置に制御点Pを設定して、フィッティング評価値λの算出処理を繰り返す。全ての位置において算出処理が終了した場合には、ステップ138へ進み、図10に示すように、算出されたフィッティング評価値λが最大となるときの制御点Pにより定まる上瞼位置候補を上瞼位置として検出する。
次に、ステップ140〜146で、上瞼位置を検出した処理と同様の処理により、下瞼位置に対応する制御点Pを用いて、フィッティング評価値λを算出し、フィッティング評価値λが最大となるときの制御点Pにより定まる下瞼位置候補を下瞼位置として検出して、リターンする。
次に、図11を参照して、上記顔特徴点検出処理の処理ルーチン(図2)のステップ106で実行される目頭目尻位置決定処理の処理ルーチンについて説明する。
ステップ150で、図12(A)に示すように、上下瞼位置検出処理で検出された上瞼位置の制御点をP、下瞼位置の制御点をP、目頭目尻位置検出処理で検出された目尻の第1位置を制御点P、及び目頭の第2位置候補を制御点Pとして設定する。上瞼位置、下瞼位置及びPは固定とする。そして、制御点P、P、及びPに基づいて定まるベジエ曲線、及び、制御点P、P、及びPに基づいて定まるベジエ曲線を上下瞼形状モデルとする。
次に、ステップ152で、目頭目尻位置検出処理(図3)のステップ116で算出された出力値Vheadが閾値α以上か否かを判定することにより、目頭付近にノイズが存在する可能性があるかないかを判定する。Vhead≧αの場合には、ステップ154へ進んで、制御点P〜制御点P、及び制御点P〜制御点Pのベジエ曲線上の点iを用いて、上記(1)式によりフィッティング評価値λを算出する。一方、Vhead<αの場合には、ステップ156へ進んで、図12(B)に示すように、上瞼位置及び下瞼位置近傍のベジエ曲線上の点iを用いてフィッティング評価値λを算出する。上瞼位置近傍とは、例えば、制御点P〜上瞼位置間の曲線上の上瞼位置より1/2〜1/3の範囲とすることができる。下瞼位置近傍についても同様である。このように、ノイズが生じている目頭付近の瞼形状を用いることなくフィッティング評価値λを算出することにより、評価値の算出精度を向上させることができる。
次に、ステップ158で、変更範囲内の全ての位置において制御点Pの変更を行ってフィッティング評価値λを算出したか否かを判定する。ここで、変更範囲は、例えば、目頭の探索範囲36内とすることができる。算出していない場合には、ステップ150へ戻り、次の位置に制御点Pを設定して、フィッティング評価値λの算出処理を繰り返す。全ての位置において算出処理が終了した場合には、ステップ160へ進み、算出されたフィッティング評価値λが最大となるときの制御点Pの位置を目頭の第2位置として決定する。
次に、ステップ162〜172で、目頭の第2位置を決定した処理と同様の処理により、上下瞼位置検出処理で検出された上瞼位置の制御点をP、下瞼位置の制御点をP、上記ステップ160で決定された目頭の第2位置を制御点P、及び目尻の第2位置候補を制御点Pとして設定し、上瞼位置、下瞼位置及びPを固定し、制御点Pを変更しながらフィッティング評価値λを算出し、フィッティング評価値λが最大となるときの制御点Pの位置を目尻の第2位置として決定して、リターンする。
以上説明したように、第1の実施の形態の顔特徴点検出装置によれば、目頭目尻位置検出処理で検出された目頭の第1位置及び目尻の第1位置を用いて、第1の瞼形状モデルとのフィッティングを行い、フィッティング評価値が最大のときの上瞼位置及び下瞼位置を用いて、第2の瞼形状モデルとのフィッティングを行って目頭の第2位置及び目尻の第2位置を決定するため、眼鏡の映り込みなどのノイズにより目頭または目尻部分が隠れている場合でも、顔特徴点として目頭位置及び目尻位置を精度よく検出することができる。
次に、第2の実施の形態について説明する。第1の実施の形態では、目頭の第1位置及び目尻の第1位置をそれぞれ1点のみ検出する場合について説明したが、第2の実施の形態では、ノイズが発生している場合に複数の候補点を検出する点が異なる。なお、第1の実施の形態と同一の構成及び処理については、同一の符号を付して説明を省略する。
図13を参照して、第2の実施の形態における目頭目尻位置検出処理の処理ルーチンについて説明する。
第1の実施の形態の場合と同様に、ステップ116で、目頭の探索範囲36に対して、例えば矩形の目頭探索ウインドウ40を走査して目頭領域を検出し、テンプレートマッチング等の手法により、目頭領域の画像とテンプレートとのマッチング度を示す出力値Vheadを算出し、次に、ステップ118で、Vheadが閾値αより小さいか否かを判定する。閾値αより小さい場合には、ステップ200へ進み、図14に示すように、目頭の探索範囲36内に複数の目頭位置候補を設定する。また、目尻位置についても同様に、出力値Vtailが閾値αより小さい場合には、ステップ202で、目尻の探索範囲38内に複数の目尻位置候補を設定する。
次に、図15を参照して、第2の実施の形態における上下瞼位置検出処理の処理ルーチンについて説明する。
ステップ210で、目頭目尻位置検出処理で複数の目頭位置候補または目尻位置候補が設定されている場合には、その中から1つずつ選択し、次に、ステップ132で、選択した目頭位置候補を制御点P、及び目尻位置候補を制御点Pとして固定し、次に、ステップ134で、フィッティング評価値λを算出する。
ステップ136で、変更範囲内の全ての位置でフィッティングが終了したと判定された場合には、ステップ212へ進んで、全ての目頭位置候補及び目尻位置候補の組合せについて選択して処理が終了したか否かを判定し、まだ全て終了していない場合には、ステップ210へ戻って、次の目頭位置候補または目尻位置候補を選択する。全て終了した場合には、ステップ138で、目頭位置候補から選択された1つの第1の目頭位置と目尻位置候補から選択された1つの第1の目尻位置との組合せの全てについて算出されたフィッティング評価値λが最大のときの制御点Pにより定まる上瞼位置候補を上瞼位置として検出する。
また、目尻位置についても同様に、ステップ214で、目頭位置候補及び目尻位置候補から1つずつ選択し、ステップ216で、全ての組合せを選択して処理が終了したか否かを判定する。
以上説明したように、第2の実施の形態の顔特徴点検出装置によれば、目頭目尻位置検出処理の際に、目頭または目尻付近にノイズが存在していた場合には、目頭の第1位置または目尻の第1位置として複数の候補点を検出し、その全ての組合せについてフィッティング行い、フィッティング評価値が最大のときの上瞼位置及び下瞼位置を検出するため、上瞼位置及び下瞼位置の検出精度が向上し、この上瞼位置及び下瞼位置を用いて決定される目頭の第2位置及び目尻の第2位置の決定精度も向上する。
次に、第3の実施の形態について説明する。第3の実施の形態では、目の開度によって目頭の第2位置及び目尻の第2位置を検出するための制御点の変更範囲に制限を加える点が第1の実施の形態と異なっている。なお、第1の実施の形態と同一の構成及び処理については、同一の符号を付して説明を省略する。
図16を参照して、第3の実施の形態における目頭目尻位置決定処理の処理ルーチンについて説明する。
ステップ300で、上下瞼位置検出処理で検出された上瞼位置と下瞼位置との距離で表される目の開度が開度閾値以下か否かを判定する。図17に示すように、目の開度が小さい場合には、目頭及び目尻部分に生じるしわなどの影響を受け、本来の目頭位置及び目尻位置とは大きく異なる位置が目頭位置及び目尻位置として検出されてしまう可能性がある。そこで、開度閾値としては、上記のような影響により目頭位置及び目尻位置の判別が困難になる目の開度を判別できるような値を予め設定しておく。目の開度が開度閾値以下の場合には、ステップ302へ進み、開度が開度閾値より大きい場合には、ステップ150へ進む。
ステップ302で、制御点P及びPの変更範囲を限定する。例えば、目の開度が開度閾値以上のときに決定された目頭の第2位置及び目尻の第2位置を所定の記憶領域に記憶しておき、この位置からの距離が所定範囲内になるような範囲に限定することができる。また、目領域の画像を所定サイズ(例えば縦20画素×横40画素)に正規化し、制御点PとPとの距離が、顔が正面を向いている顔画像の場合には、30画素分の距離、顔が斜め(45°)を向いている顔画像の場合には、20画素分の距離になるように変更範囲を限定することもできる。
以下、第1の実施の形態における目頭目尻位置決定処理と同様に処理し、ステップ158及びステップ170では、上記ステップ302で限定された変更範囲内の全ての点で制御点PまたはPを変更して、フィッティング評価値λの算出を終了したか否かを判定するようにする。
以上説明したように、第3の実施の形態の顔特徴点検出装置によれば、目の開度が小さい場合でも、目頭及び目尻付近に生じたしわなどの影響により目頭位置及び目尻位置が大きくずれて検出されることを防止することができる。
次に、第4の実施の形態について説明する。第4の実施の形態では、目頭目尻位置決定処理を繰り返し実行する点が第1の実施の形態と異なっている。なお、第1の実施の形態と同一の構成及び処理については、同一の符号を付して説明を省略する。
図18を参照して、第4の実施の形態の顔特徴点検出装置における顔特徴点検出処理の処理ルーチンについて説明する。
ステップ100で、顔画像の画像データを取り込み、次に、ステップ102で、目頭の第1位置及び目尻の第1位置を検出する目頭目尻位置検出処理を実行し、次に、ステップ104で、上瞼位置及び下瞼位置を検出する上下瞼位置検出処理を実行し、次に、ステップ106で、目頭の第2位置及び目尻の第2位置を決定する目頭目尻位置決定処理を実行する。
次に、ステップ400で、上記ステップ106で決定された目頭の第2位置及び目尻の第2位置と、目頭の第1位置及び目尻の第1位置との差が所定範囲内か否かを判定する。所定範囲内の場合には、ステップ108へ進んで、検出結果を表示する。一方、所定範囲外の場合には、ステップ402へ進む。
ステップ402で、上記ステップ106で決定された目頭の第2位置及び目尻の第2位置を、目頭の第1位置及び目尻の第1位置として置換して、ステップ104へ戻る。ステップ104では、上記ステップ402で置換された目頭の第1位置及び目尻の第1位置を用いて、再度上瞼位置及び下瞼位置を検出し、次に、ステップ106で、再度目頭の第2位置及び目尻の第2位置を決定する。
以上説明したように、第4の実施の形態の顔画像特徴点検出装置によれば、目頭目尻位置検出処理で検出された目頭の第1位置及び目尻の第1位置よりも精度よく決定された目頭の第2位置及び目尻の第2位置を用いて、再度上瞼位置及び下瞼位置の検出、目頭の第2位置及び目尻の第2位置の決定を行い、目頭の第1位置及び目尻の第1位置との差が所定範囲となるまで繰り返すため、目頭の第2位置及び目尻の第2位置を精度よく決定することができる。
なお、上記各実施の形態では、ベジエ曲線上の点iにおける法線ベクトルと画像の輝度勾配ベクトルとの内積に基づいてフィッティング評価値を算出する場合について説明したが、上下瞼には横エッジが強く現れるため、横エッジの強度を使用したフィッティング評価値を算出するようにしてもよい。
また、上記各実施の形態では、瞼形状モデルとして、目頭位置、目尻位置、及び上下瞼位置に対応した制御点により示されるベジエ曲線を用いる場合について説明したが、これに限定されるものではない。例えば、図19に示すような、3つのウインドウ50a、50b、50cを組み合わせた瞼形状ウインドウ50を瞼形状モデルとしてもよい。この場合、この瞼形状ウインドウ50を目の探索範囲内で走査しながら、左右のウインドウ50a及び50c内に現れる縦エッジの強度を検出し、中央のウインドウ50b内に現れる横エッジの強度を検出し、その強度の和を用いてフィッティングを行うことができる。
10 顔特徴点検出装置
12 カメラ
14 表示装置
16 コンピュータ
16d CPU

Claims (7)

  1. 目頭及び目尻を備えた目領域を含む画像の画像データを取得する取得手段と、
    前記取得手段で取得した画像データから、パターンマッチングにより目頭の第1位置及び目尻の第1位置を検出する位置検出手段と、
    前記位置検出手段で検出された目頭の第1位置及び目尻の第1位置を端点とする上側の曲線及び下側の曲線で表され、かつ前記上側の曲線上に定めた上瞼位置を第1のパラメータ及び前記下側の曲線上に定めた下瞼位置を第2のパラメータとする第1の瞼形状モデルにおいて、前記第1のパラメータ及び前記第2のパラメータを変更したときの前記第1の瞼形状モデルと前記画像に含まれる瞼の形状とが一致する度合いを示す第1の尤度を、前記第1のパラメータ及び前記第2のパラメータ毎に演算する第1の演算手段と、
    前記第1の演算手段で演算された第1の尤度が最も高い前記第1の瞼形状モデルで、かつ目頭位置を第3のパラメータ及び目尻位置を第4のパラメータとした第2の瞼形状モデルにおいて、前記第3のパラメータ及び前記第4のパラメータを変更したときの前記第2の瞼形状モデルと前記画像に含まれる瞼の形状とが一致する度合いを示す第2の尤度を、前記第3のパラメータ及び前記第4のパラメータ毎に演算する第2の演算手段と、
    前記第2の演算手段で演算された第2の尤度が最も高い前記第2の瞼形状モデルの第3のパラメータで示される位置を目頭の第2位置及び第4のパラメータで示される位置を目尻の第2位置として決定する位置決定手段と、
    を含む顔特徴点検出装置。
  2. 前記第2の演算手段は、前記位置検出手段によるパターンマッチングのマッチング度が予め定めた閾値より小さい場合に、前記画像に含まれる瞼の形状のうち前記第2の瞼形状モデルの上瞼位置及び下瞼位置近傍の部分を用いて第2の尤度を演算する請求項1記載の顔特徴点検出装置。
  3. 前記位置検出手段は、パターンマッチングのマッチング度が予め定めた閾値より小さい場合に、目頭の第1位置として複数の目頭候補点を検出し、目尻の第1位置として複数の目尻候補点を検出し、
    前記第1の演算手段は、前記複数の目頭候補点から選択した1つの目頭候補点及び前記複数の目尻候補点から選択した1つの目尻候補点を端点とする第1の瞼形状モデルにおいて、目頭候補点と目尻候補点との組合せの全てについて前記第1の尤度を演算する
    請求項1または請求項2記載の顔特徴点検出装置。
  4. 前記第2の演算手段は、前記第2の瞼形状モデルの上瞼位置と下瞼位置との距離が予め定めた開度閾値より小さい場合には、前記第3のパラメータ及び前記第4のパラメータを予め定めた範囲内で変更する請求項1〜請求項3のいずれか1項記載の顔特徴点検出装置。
  5. 前記位置決定手段で今回決定された目頭の第2位置と目頭の第1位置との差、及び今回決定された目尻の第2位置と目尻の第1位置との差の少なくとも一方が予め定めた前回差閾値より大きい場合には、今回決定された目頭の第2位置及び目尻の第2位置を目頭の第1位置及び目尻の第1位置として置き換えて、再度目頭の第2位置及び目尻の第2位置を決定するように制御する制御手段を含む請求項1〜請求項4のいずれか1項記載の顔特徴点検出装置。
  6. コンピュータを、
    目頭及び目尻を備えた目領域を含む画像の画像データを取得する取得手段と、
    前記取得手段で取得した画像データから、パターンマッチングにより目頭の第1位置及び目尻の第1位置を検出する位置検出手段と、
    前記位置検出手段で検出された目頭の第1位置及び目尻の第1位置を端点とする上側の曲線及び下側の曲線で表され、かつ前記上側の曲線上に定めた上瞼位置を第1のパラメータ及び前記下側の曲線上に定めた下瞼位置を第2のパラメータとする第1の瞼形状モデルにおいて、前記第1のパラメータ及び前記第2のパラメータを変更したときの前記第1の瞼形状モデルと前記画像に含まれる瞼の形状とが一致する度合いを示す第1の尤度を、前記第1のパラメータ及び前記第2のパラメータ毎に演算する第1の演算手段と、
    前記第1の演算手段で演算された第1の尤度が最も高い前記第1の瞼形状モデルで、かつ目頭位置を第3のパラメータ及び目尻位置を第4のパラメータとした第2の瞼形状モデルにおいて、前記第3のパラメータ及び前記第4のパラメータを変更したときの前記第2の瞼形状モデルと前記画像に含まれる瞼の形状とが一致する度合いを示す第2の尤度を、前記第3のパラメータ及び前記第4のパラメータ毎に演算する第2の演算手段と、
    前記第2の演算手段で演算された第2の尤度が最も高い前記第2の瞼形状モデルの第3のパラメータで示される位置を目頭の第2位置及び第4のパラメータで示される位置を目尻の第2位置として決定する位置決定手段と、
    して機能させるための顔特徴点検出プログラム。
  7. コンピュータを、請求項1〜請求項5のいずれか1項記載の顔特徴点検出装置を構成する各手段として機能させるための顔特徴点検出プログラム。
JP2009090065A 2009-04-02 2009-04-02 顔特徴点検出装置及びプログラム Active JP5221436B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2009090065A JP5221436B2 (ja) 2009-04-02 2009-04-02 顔特徴点検出装置及びプログラム
US13/259,065 US8331630B2 (en) 2009-04-02 2010-03-26 Face feature point detection device and program
EP10758593.7A EP2416294B1 (en) 2009-04-02 2010-03-26 Face feature point detection device and program
CN2010800132867A CN102362291B (zh) 2009-04-02 2010-03-26 脸部特征点检测装置及方法
KR1020117022723A KR101267205B1 (ko) 2009-04-02 2010-03-26 얼굴특징점 검출 장치 및 프로그램
PCT/JP2010/055454 WO2010113821A1 (ja) 2009-04-02 2010-03-26 顔特徴点検出装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009090065A JP5221436B2 (ja) 2009-04-02 2009-04-02 顔特徴点検出装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2010244178A JP2010244178A (ja) 2010-10-28
JP5221436B2 true JP5221436B2 (ja) 2013-06-26

Family

ID=42828112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009090065A Active JP5221436B2 (ja) 2009-04-02 2009-04-02 顔特徴点検出装置及びプログラム

Country Status (6)

Country Link
US (1) US8331630B2 (ja)
EP (1) EP2416294B1 (ja)
JP (1) JP5221436B2 (ja)
KR (1) KR101267205B1 (ja)
CN (1) CN102362291B (ja)
WO (1) WO2010113821A1 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103493097B (zh) * 2011-04-15 2015-09-16 爱信精机株式会社 眼睑检测装置、眼睑检测方法
WO2012144020A1 (ja) * 2011-04-19 2012-10-26 アイシン精機株式会社 瞼検出装置、瞼検出方法及びプログラム
US8811686B2 (en) 2011-08-19 2014-08-19 Adobe Systems Incorporated Methods and apparatus for automated portrait retouching using facial feature localization
JP5802524B2 (ja) * 2011-11-21 2015-10-28 株式会社Pfu 画像処理装置、画像処理方法、および画像処理プログラム
KR101141901B1 (ko) 2011-12-13 2012-07-12 한국 한의학 연구원 윗 눈꺼풀 모양 검출장치 및 방법
KR101164769B1 (ko) 2011-12-13 2012-07-12 한국 한의학 연구원 눈 특징점 검출장치 및 방법
CN103208111B (zh) * 2012-01-17 2015-10-07 富士通株式会社 用于修正图像角点的方法和装置以及图像处理设备
US20130243270A1 (en) * 2012-03-16 2013-09-19 Gila Kamhi System and method for dynamic adaption of media based on implicit user input and behavior
JP5850380B2 (ja) * 2012-07-23 2016-02-03 富士通株式会社 形状データ生成方法及び装置
KR102012254B1 (ko) * 2013-04-23 2019-08-21 한국전자통신연구원 이동 단말기를 이용한 사용자 응시점 추적 방법 및 그 장치
US9122914B2 (en) * 2013-05-09 2015-09-01 Tencent Technology (Shenzhen) Co., Ltd. Systems and methods for matching face shapes
JP6227996B2 (ja) * 2013-12-18 2017-11-08 浜松ホトニクス株式会社 計測装置及び計測方法
CN105279764B (zh) 2014-05-27 2020-09-11 北京三星通信技术研究有限公司 眼睛图像处理设备和方法
US10089525B1 (en) 2014-12-31 2018-10-02 Morphotrust Usa, Llc Differentiating left and right eye images
US9846807B1 (en) 2014-12-31 2017-12-19 Morphotrust Usa, Llc Detecting eye corners
US9710707B1 (en) 2014-12-31 2017-07-18 Morphotrust Usa, Llc Detecting iris orientation
US9747508B2 (en) * 2015-07-24 2017-08-29 Honda Motor Co., Ltd. Surrounding environment recognition device
US10146997B2 (en) * 2015-08-21 2018-12-04 Magic Leap, Inc. Eyelid shape estimation using eye pose measurement
AU2016340222B2 (en) 2015-10-16 2021-07-01 Magic Leap, Inc. Eye pose identification using eye features
JP2019082743A (ja) * 2016-03-18 2019-05-30 三菱電機株式会社 情報処理装置及び情報処理方法
US10082866B2 (en) 2016-04-12 2018-09-25 International Business Machines Corporation Gaze point detection using dynamic facial reference points under varying lighting conditions
CN106203262A (zh) * 2016-06-27 2016-12-07 辽宁工程技术大学 一种基于眼睑曲线相似度与眼型指数的眼型分类方法
JP6946831B2 (ja) * 2017-08-01 2021-10-13 オムロン株式会社 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
JP6698966B2 (ja) * 2018-02-13 2020-05-27 三菱電機株式会社 誤検出判定装置及び誤検出判定方法
CN110634174B (zh) * 2018-06-05 2023-10-10 深圳市优必选科技有限公司 一种表情动画过渡方法、系统及智能终端
CN110956067B (zh) * 2019-05-26 2022-05-17 魔门塔(苏州)科技有限公司 一种人眼眼睑曲线的构建方法及装置
CN113221599B (zh) * 2020-01-21 2022-06-10 魔门塔(苏州)科技有限公司 一种眼睑曲线的构建方法及装置
CN111582270A (zh) * 2020-04-24 2020-08-25 哈尔滨工业大学 基于高精度的桥梁区域视觉靶标特征点的识别追踪方法
SE2250299A1 (en) * 2022-03-04 2023-09-05 Tobii Ab Eye openness

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPQ896000A0 (en) * 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
CN100382751C (zh) * 2005-05-08 2008-04-23 上海交通大学 基于vpf和改进的susan的眼角和瞳孔的定位方法
JP2007094906A (ja) * 2005-09-29 2007-04-12 Toshiba Corp 特徴点検出装置および方法
JP4414401B2 (ja) 2006-02-10 2010-02-10 富士フイルム株式会社 顔特徴点検出方法および装置並びにプログラム
JP2007265367A (ja) * 2006-03-30 2007-10-11 Fujifilm Corp 視線検出方法および装置ならびにプログラム
FR2907569B1 (fr) * 2006-10-24 2009-05-29 Jean Marc Robin Procede et dispositif de simulation virtuelle d'une sequence d'images video.
FR2911984B1 (fr) * 2007-01-30 2009-02-27 Siemens Vdo Automotive Sas Procede pour identifier des points symboliques sur une image d'un visage d'une personne
JP4309928B2 (ja) * 2007-03-15 2009-08-05 アイシン精機株式会社 瞼検出装置、瞼検出方法、及び、プログラム
JP4825737B2 (ja) * 2007-06-20 2011-11-30 トヨタ自動車株式会社 開眼度判定装置
CN100561503C (zh) * 2007-12-28 2009-11-18 北京中星微电子有限公司 一种人脸眼角与嘴角定位与跟踪的方法及装置
JP2010033305A (ja) * 2008-07-29 2010-02-12 Hitachi Ltd 画像情報処理方法、及び装置
US8345922B2 (en) * 2008-09-03 2013-01-01 Denso Corporation Apparatus for detecting a pupil, program for the same, and method for detecting a pupil
FR2920938B1 (fr) 2008-09-30 2010-01-29 Jean Marc Robin Procede et dispositif de simulation virtuelle d'une image
JP4788786B2 (ja) * 2009-02-09 2011-10-05 株式会社デンソー 眠気検出装置,プログラムおよび眠気検出方法

Also Published As

Publication number Publication date
CN102362291B (zh) 2013-09-04
EP2416294B1 (en) 2013-05-29
EP2416294A4 (en) 2012-04-11
WO2010113821A1 (ja) 2010-10-07
CN102362291A (zh) 2012-02-22
JP2010244178A (ja) 2010-10-28
KR101267205B1 (ko) 2013-05-24
US8331630B2 (en) 2012-12-11
US20120014610A1 (en) 2012-01-19
KR20120006493A (ko) 2012-01-18
EP2416294A1 (en) 2012-02-08

Similar Documents

Publication Publication Date Title
JP5221436B2 (ja) 顔特徴点検出装置及びプログラム
US11775056B2 (en) System and method using machine learning for iris tracking, measurement, and simulation
CN109426835B (zh) 信息处理装置、信息处理装置的控制方法和存储介质
JP4895847B2 (ja) 瞼検出装置及びプログラム
JP4137969B2 (ja) 眼部検出装置、眼部検出方法及びプログラム
CN108985210A (zh) 一种基于人眼几何特征的视线追踪方法及系统
JP2007042072A (ja) 追跡装置
US9990710B2 (en) Apparatus and method for supporting computer aided diagnosis
JP4680161B2 (ja) 画像評価装置および方法並びにプログラム
JP2007241579A (ja) 特徴点検出装置及びその方法
EP2639743A2 (en) Image processing device, image processing program, and image processing method
CN109816051B (zh) 一种危化品货物特征点匹配方法及系统
CN116051631A (zh) 光斑标注方法及系统
CN112560584A (zh) 一种人脸检测方法及装置、存储介质、终端
JPWO2017030056A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN111639582A (zh) 活体检测方法及设备
JP5201184B2 (ja) 画像処理装置及びプログラム
US10140509B2 (en) Information processing for detection and distance calculation of a specific object in captured images
JP2021099749A (ja) ほうれい線の検出方法
JP5035139B2 (ja) 眼画像処理装置
KR101276792B1 (ko) 눈 검출 장치 및 방법
JP5655491B2 (ja) 開眼状態検出装置
WO2022242490A1 (en) Method for detecting and removing personnel interference while measuring volume of an object
US20240233135A1 (en) Method for detecting and removing personnel interference while measuring volume of an object
TW202203079A (zh) 智能鏡的臉部影像定位方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120321

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20120412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130307

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5221436

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250