JP5429885B2 - 特徴点追跡方法及び特徴点追跡装置 - Google Patents

特徴点追跡方法及び特徴点追跡装置 Download PDF

Info

Publication number
JP5429885B2
JP5429885B2 JP2010521735A JP2010521735A JP5429885B2 JP 5429885 B2 JP5429885 B2 JP 5429885B2 JP 2010521735 A JP2010521735 A JP 2010521735A JP 2010521735 A JP2010521735 A JP 2010521735A JP 5429885 B2 JP5429885 B2 JP 5429885B2
Authority
JP
Japan
Prior art keywords
image
feature
feature point
coordinate system
point tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010521735A
Other languages
English (en)
Other versions
JPWO2010010926A1 (ja
Inventor
嘉伸 海老澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2010521735A priority Critical patent/JP5429885B2/ja
Publication of JPWO2010010926A1 publication Critical patent/JPWO2010010926A1/ja
Application granted granted Critical
Publication of JP5429885B2 publication Critical patent/JP5429885B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Description

本発明は、対象者の画像に基づいて対象者の特徴点を追跡する特徴点追跡方法及び特徴点追跡装置に関するものである。
従来から、瞳孔移動を検出することによってパーソナルコンピュータのモニター画面上のカーソルを移動させたり、運転者の眠気を検知したりする目的において、対象者の瞳孔等の特徴点を追跡する技術が開発されている。例えば、時系列のフレーム画像から瞳孔等の特徴点を検出する技術が知られている(下記特許文献1及び下記特許文献2参照)。
下記特許文献1に開示された瞳孔検出方法では、瞳孔を検出するために時間的に連続する2つの画像の差分を取る際に、鼻孔の位置のずれ量を検出してそのずれ量に対応する分だけずれを打ち消す方向に画像の位置補正を行った後に2つの画像を差分するとするものである。また、下記特許文献2に開示された瞳孔検出方法では、角膜反射位置のずれ量に対応する分だけ画像の位置補正を行った後に上記と同様にして2つの画像を差分するというものである。これらの位置補正は画像を撮影するタイミング間の時間差の補正を目的としている。
特開2007−268026号公報 特開2008−029702号公報
しかしながら、鼻孔の位置のずれ量を利用して画像補正する場合には、頭部の回転時には鼻孔の移動量と瞳孔の移動量が一致しないために瞳孔の検出精度が十分でない場合がある。また、角膜反射のずれ量を利用して画像補正する場合は、視線方向がカメラの光軸方向と大きくずれていると角膜反射が現れないため、画像の補正が機能しない傾向にあった。
そこで、本発明は、かかる課題に鑑みて為されたものであり、時系列の画像フレームにおける特徴点の移動予測を高精度に行うことで、特徴点の追跡のロバスト性を向上させることが可能な特徴点追跡方法及び特徴点追跡装置を提供することを目的とする。
上記課題を解決するため、本発明の特徴点追跡方法は、対象者の頭部画像に基づいて、該対象者の特徴点の位置を追跡する特徴点追跡方法であって、対象者の3つの特徴点の組み合わせである特徴部位群の2次元位置を撮像手段によって撮像し、特徴部位群の3次元位置を時系列で検出する位置検出ステップと、過去の撮像タイミングにおける特徴部位群の3次元位置に基づいて、該特徴部位群を基準とした顔座標系の所定の基準座標系からの回転角度及び変位を算出する変換係数算出ステップと、当該算出された顔座標系の基準座標系からの回転角度及び変位に基づいて、現在の撮像タイミングにおける顔座標系の回転角度及び変位を予測する変換係数予測ステップと、当該予測された回転角度及び変位に基づいて、現在の撮像タイミングの特徴部位群の3次元予測位置を算出する予測位置算出ステップとを備え、位置検出ステップでは、当該算出された特徴部位群の3次元予測位置に基づいて、現在の撮像タイミングの画像フレーム上にそれぞれの特徴部位群用のウィンドウを設定し、それぞれのウィンドウを対象にして特徴部位群の画像を検出する。
或いは、本発明の特徴点追跡装置は、対象者の頭部画像に基づいて、該対象者の特徴点の位置を追跡する特徴点追跡装置であって、対象者の3つの特徴点の組み合わせである特徴部位群の2次元位置を撮像手段によって撮像し、特徴部位群の3次元位置を時系列で検出する位置検出手段と、過去の撮像タイミングにおける特徴部位群の3次元位置に基づいて、該特徴部位群を基準とした顔座標系の所定の基準座標系からの回転角度及び変位を算出する変換係数算出手段と、当該算出された顔座標系の基準座標系からの回転角度及び変位に基づいて、現在の撮像タイミングにおける顔座標系の回転角度及び変位を予測する変換係数予測手段と、当該予測された回転角度及び変位に基づいて、現在の撮像タイミングの特徴部位群の3次元予測位置を算出する予測位置算出手段とを備え、位置検出手段は、当該算出された特徴部位群の3次元予測位置に基づいて、現在の撮像タイミングの画像フレーム上にそれぞれの特徴部位群用のウィンドウを設定し、それぞれのウィンドウを対象にして特徴部位群の画像を検出する。
このような特徴点追跡方法及び特徴点追跡装置によれば、対象者の3つの特徴点の組み合わせである特徴部位群が撮像されてその3次元位置が時系列で検出され、過去の撮像タイミングでの特徴部位群の3次元位置に基づいて、特徴部位群を基準にした顔座標系の基準座標系からの回転角度及び変位が算出され、この回転角度及び変位に基づいて現在の撮影タイミングでの顔座標系の回転角度及び変位が予測されて特徴部位群の現在の撮影タイミングでの3次元予測位置が算出された後、現在の特徴部位群の画像の検出に際しては、この算出された3次元予測位置に基づいて画像フレーム上にウィンドウが設定される。これにより、対象者の頭部の任意の動きに対しても時系列の画像フレーム中の特徴部位群の位置を予測することができ、時系列の画像フレーム中の特徴部位群を正確に追跡することが可能になる。その結果、対象者の頭部を対象にした特徴点追跡処理のロバスト性を向上させることができる。
本発明による特徴点追跡方法及び特徴点追跡装置によれば、時系列の画像フレームにおける特徴点の移動予測を高精度に行うことで、特徴点の追跡のロバスト性を向上させることができる。
本発明の好適な一実施形態である特徴点追跡装置を示す平面図である。 図1のカメラの撮像レンズの主点を原点とした2次元座標系における画像平面と特徴点の3次元座標との関係を示す図である。 図1の画像処理装置で設定されるカメラ座標系と顔座標系との位置関係を示す図である。 図3のカメラ座標系から顔座標系への座標変換を説明するための図である。 図3のカメラ座標系から顔座標系への座標変換を説明するための図である。 図3のカメラ座標系から顔座標系への座標変換を説明するための図である。 図3のカメラ座標系から顔座標系への座標変換を説明するための図である。 本実施形態の特徴点追跡方法による左右の瞳孔の検出結果を示すグラフである。 従来の瞳孔検出方法による左右の瞳孔の検出結果を示すグラフである。 図1の画像処理装置で設定される2値化閾値と、検出される連結成分の最大面積との関係を示すグラフである。 顔座標系における鼻孔方向ベクトルの方向及び位置を示す図である。 顔座標系における鼻孔方向ベクトルの方向及び位置を示す図である。 顔座標系における鼻孔方向ベクトルの方向及び位置を示す図である。
以下、図面を参照しつつ本発明に係る特徴点追跡方法及び特徴点追跡装置の好適な実施形態について詳細に説明する。なお、図面の説明においては同一又は相当部分には同一符号を付し、重複する説明を省略する。
まず、本発明にかかる特徴点追跡方法を実施するための特徴点追跡装置の構成について、図面を参照しながら説明する。本発明の特徴点追跡装置は、瞳孔移動を検出することによってパーソナルコンピュータのモニター画面上のカーソルを移動させるポインティングデバイスや、瞳孔の動きを監視して運転者の眠気を検知する眠気検知システム等として利用される。
図1は、本発明の好適な一実施形態である特徴点追跡装置10を示す平面図である。同図に示すように、特徴点追跡装置10は、対象者Aの顔画像を撮像する1台のカメラ(撮像手段)2と、カメラ2の前面2aの撮像レンズの近傍に設けられた光源3aと、カメラ2の前面2aから離れた位置に設けられた光源3bと、カメラ2及び光源3a,3bと接続された画像処理装置1とを備えている。この画像処理装置1は、特徴点追跡処理における位置検出手段、変換係数算出手段、変換係数予測手段、予測位置算出手段として機能する。
カメラ2は、対象者Aの顔画像を生成できる撮像手段であれば特定の種類のものには限定されないが、画像データをリアルタイム性が高く処理できるという点で、CCD、CMOS等の撮像素子を内蔵するデジタルカメラを用いる。このカメラ2は、対象者Aがカメラ2の撮像レンズ(図示せず)の光軸L1上に位置するように配置されている。
光源3aは、カメラ2の光軸L1に沿って、光軸L1上に位置する対象者Aをカバーする範囲に向けて、近赤外光成分を有する照明光を照射可能に構成されている。光源3bは、光軸L1からの距離が光源3aよりも離れた位置に固定され、光軸L1に沿って対象者Aをカバーする範囲に向けて、近赤外光成分を有する照明光を照射可能に構成されている。ここで、2つの光源3a,3bから照射される照明光が瞳孔の部分に輝度差を生じさせるような異なる波長成分(例えば、中心波長が850nmと950nm)を有するように設定され、かつ、光源3bは光軸L1からの距離が光源3aと等しい位置に固定されていてもよい。この場合は、瞳孔の部分に輝度差を生じさせながら、光源の構成を簡略化及び小型化することができる。
なお、カメラ2及び光源3a,3bは、対象者Aが眼鏡をかけていたときの顔画像における反射光の写り込みを防止し、対象者Aの鼻孔を検出し易くする目的で、対象者Aの顔の高さよりも低い位置(例えば、光軸L1の水平面に対する傾斜角が20〜35度となり、光軸L1が対象者Aの方向を向くような位置)に設けられることが好ましい。
画像処理装置1は、カメラ2による撮像、及び光源3a,3bによる照明光の照射を制御するとともに、カメラ2によって取得された対象者Aの頭部画像に基づいて、対象者Aの瞳孔、鼻孔等の特徴点を追跡する処理を実行する(詳細は後述する。)。
次に、上述した特徴点追跡装置10の動作について説明するとともに特徴点追跡装置10を用いた特徴点追跡方法について説明する。
まず、対象者Aの左右の瞳孔中心及び左右の鼻孔中心の4つの各特徴点(特徴部位群)間の距離を実測しておく。次に、対象者Aをカメラ2の光軸L1上に位置させ、画像処理装置1によって撮像タイミング及び照明タイミングが制御されることにより、任意の方向を向いた対象者Aの顔画像が時系列で撮像される。このようにしてカメラ2によって生成された時系列の画像フレームは画像処理装置1に送られ、画像処理装置1によってそれぞれのフレーム画像上の左右の瞳孔中心の2次元座標、及び左右の鼻孔中心の中間点の2次元座標が検出される。その後、画像処理装置1によって、これらの2次元座標が3次元座標に変換される(以上、位置検出ステップ)。
ここで、位置検出ステップにおける処理について、詳細に説明する。
(位置検出ステップ)
対象者Aの撮像時には、画像処理装置1は、光源3a,3bを交互に点灯させて、それぞれの点灯に同期した顔画像を交互に生成させることによって、明瞳孔画像及び暗瞳孔画像を得る。明瞳孔画像は、光源3aの照射に伴って得られる画像であり、瞳孔部分の輝度が相対的に明るくなっている。これに対し、暗瞳孔画像は、光源3bの照射に伴って得られる画像であり、瞳孔部分の輝度が相対的に暗くなっている。これらの2種類の画像は、2つの光源3a,3bからの照明光の照射に伴う瞳孔からの反射光の強度が異なることに起因して得られる。例えば、フィールド走査を採用するカメラの場合は、光源3a,3bをカメラ2のフィールド信号に同期させて点灯させることで、奇数フィールドと偶数フィールド間で明瞳孔画像と暗瞳孔画像とを分離することができる。そして、画像処理装置1は、明瞳孔画像と暗瞳孔画像のそれぞれの所定位置にウィンドウを設定し、互いのウィンドウ内の画像間で明瞳孔画像と暗瞳孔画像との差分を取った後に瞳孔部分の範囲を判別する。これらのウィンドウは、後述するように、過去の撮像タイミングにおける瞳孔中心の3次元位置に基づいてその位置が設定される。このような差分処理を行うことで、ロバスト性の高い瞳孔の検出を行うことができる。
その後、画像処理装置1は、検出した瞳孔の輪郭を特定して、その輪郭に近似できる楕円を算出してその楕円の中心を瞳孔の中心位置として求める。また、差分処理を施された画像を用いて、その画像を2値化した後に重心法を用いて瞳孔中心の位置を算出してもよい。このとき、画像中に目蓋等の動く対象があると瞳孔以外も明るく写る場合があるので、重心を求める際の画像領域の広さの選択が問題となる。そこで、特開2005−348832号公報に記載にように、分離度フィルタを用いて瞳孔中心の位置を算出してもよい。すなわち、円形に近いパターンを用いて分離度が最大になる中心座標を求める。
さらに、画像処理装置1は、左右の鼻孔中心の2次元座標及びそれらの中間点の2次元座標を、明瞳孔画像又は暗瞳孔画像を参照して検出する。すなわち、左右の瞳孔中心の中点を求め、それより下の位置に、対象者Aが正面を向いていたと仮定した場合に中心がほぼ鼻孔位置に一致する大ウィンドウを設定し、その大ウィンドウ内で鼻孔を検出する。そして、画像の大ウィンドウ内を対象にP−tile法により輝度が低いほうから0.8%の画素を検出し、HIGH画素及びLOW画素からなる2値化画像に変換する。その後、検出された2値化画像の膨張処理及び収縮処理(モルフォロジー処理)を繰り返し画像内の領域を明確化させた後、ラベリング処理を施して大きなほうから2つの領域を選び出し、それぞれの領域について上下左右の端点より形成される長方形の中心、縦横比、及び面積を算出する。ここで、膨張処理とは、2値画像中で対象画素の近傍の8画素の1つでもHIGH画素がある場合に、対象画素をHIGH画素に変換する処理であり、収縮処理とは、2値画像中で対象画素の近傍の8画素の1つでもLOW画素がある場合に、対象画素をLOW画素に変換する処理である。そして、縦横比が0.5より小さいか0.7より大きく、かつ、全体の画像サイズが640×240画素に対して面積が100画素より小さいか300画素より大きい場合は、鼻孔像を示す領域ではないと判断する。そうでない場合は、上記長方形の中心を中心に30×30画素の小ウィンドウを設定し、もとの画像の小ウィンドウ内を対象に、P−tile法により輝度が低いほうから5%の画素を抽出する。その後、上記のモルフォロジー処理及びラベリング処理を繰り返し、最大面積の領域を求める。その領域の面積が130画素以上か70画素以下の場合は鼻孔像でないと判断し、そうでない場合は鼻孔像であると判断し、領域の上下左右の端点より形成される長方形の中心を鼻孔の中心として求める。その結果、2つの鼻孔中心が検出されたら、それぞれの座標値の大きさから左右の鼻孔の対応関係を判断する。
上記のように、大ウィンドウと小ウィンドウとを用いて鼻孔検出を行うと、撮像条件の異なる2つの鼻孔のそれぞれを検出するのに最適な閾値を与えることができ、確実に鼻孔を検出できる。
ここで、対象者Aを撮像する特徴点追跡装置10におけるカメラ光学系は、図2に示すように焦点距離fのピンホールモデルと仮定することができる。同図に示すように、画像処理装置1が検出したフレーム画像上の右瞳孔、左瞳孔、左鼻孔、及び右鼻孔の中心点の2次元座標を、それぞれ、Q(x,y)、Q(x,y)、Q(x,y)、及びQ(x,y)とする。この場合、ピンホールを原点Oとしたカメラ座標系(基準座標系)X−Y−Zにおける各特徴点の3次元座標Qは、(x,y,f)(n=1,2,3,4)で表される。また、ピンホールOから各特徴点へ向かう位置ベクトルに対応した単位ベクトルは、下記式(1);
Figure 0005429885

で表され、各特徴点の位置ベクトルは定数a(n=1,2,3,4)を用いて下記式(2);
Figure 0005429885

で表される。
なお、各特徴点間の距離Lmn(m,n=1,2,3,4)は予め測定され既知であるので、両瞳孔P,Pと左鼻孔Pを組み合わせた三角形について考えると、下記式(3);
Figure 0005429885

が成立する。従って、画像処理装置1は、3つの特徴点P,P,Pについての次の連立方程式(4)を解くことにより、カメラ座標系における位置ベクトルP,P,Pを求めることができる。同様に、位置ベクトルP及び左右の鼻孔中心の中間点の位置ベクトルPも算出することができる。さらに、画像処理装置1は、特徴点P,P,Pの重心G(x,y,z)、及び特徴点P,P,Pを通る平面の法線ベクトルV=(n,n,n)を求める。この法線ベクトルVは、対象者Aの顔方向を示している。
Figure 0005429885
上記位置検出ステップを時間的に連続した画像フレームで実行する毎に、画像処理装置1は、過去の画像フレームで検出した特徴点P,P,Pの3次元位置に基づいて顔座標系のカメラ座標系からの回転角度及び変位を算出する(変換係数算出ステップ)。
(変換係数算出ステップ)
図3に示すように、カメラ座標系XYZに対して特徴点P,P,P及びそれらの重心Gを基準にした顔座標系xyzを定義する。このx軸、y軸、z軸は、顔座標系の原点が重心Gとなるように設定される。また、同図に示すように、y軸上にあって負値をとるように設定された鼻孔間中点P00、及びxy平面上に位置するように設定された瞳孔位置P10,P20に対応する姿勢を顔座標系xyzに対応する基準姿勢と定義する。
画像処理装置1は、以下のようにして、ある撮像タイミングにおける特徴点P,P,Pに対応した顔座標系を求めることができる。まず、図4に示すように、法線ベクトルVのY軸のまわりの回転角αは、Z軸からX軸へ向かう角度を正とすると、下記式(5);
Figure 0005429885

によって求まる。
次に、図5に示すように、Y軸周りに回転角αだけ回転させたX軸及びZ軸をX’軸及びZ’軸とすると、法線ベクトルVのX’軸周りの回転角βは、Y軸からZ’軸へ向かう角度を正とすると、下記式(6);
Figure 0005429885

によって求まる。
さらに、図6に示すように、X’軸周りに回転角βだけ回転させたY軸及びZ’軸をY’軸及びZ’’軸とすると、Z’’軸と法線ベクトルVは一致することになる。このようにして得られたX’軸,Y’軸Z’’軸が任意の時点での法線ベクトルVに対応する顔座標系となる。画像処理装置1は、上記のようにして、顔座標系のカメラ座標系からの回転角度α、β及び原点の変位を算出することができる。
従って、画像処理装置1は、カメラ座標系の特徴点の3次元座標P(n=0,1,2)を、下記式(7);
Figure 0005429885

を用いて顔座標系における座標P’に変換することができる。ここで、T(β)及びT(α)は下記式(8);
Figure 0005429885

によって定義される。
このようにして得られた顔座標系における対象者Aの基準姿勢の特徴点座標をP00,P10,P20とすると、対象者Aの特徴点座標P’,P’,P’は顔座標系のxy平面上に位置するため、画像処理装置1は、任意のタイミングでの対象者Aの姿勢に関する基準姿勢からのz軸周りの回転角γを算出することができる。顔座標系のz軸の正方向から見た基準姿勢の特徴点座標と、対象者Aの特徴点座標との関係を図7に示す。なお、回転角γは、x軸からy軸へ向かう方向を正とする。例えば、基準姿勢の特徴点座標P00と検出された対象者Aの特徴点座標P’に基づいて、下記式(9);
Figure 0005429885

を用いて回転角γを算出する。
これにより、画像処理装置1は、顔座標系における顔重心Gの周りの任意の点の位置ベクトルを、下記式(10)及び(11)で計算される変換行列を用いて、カメラ座標系における位置ベクトルに変換できる。
Figure 0005429885

Figure 0005429885

また、画像処理装置1は、カメラ座標系上の任意点の位置ベクトルを、下記式(12);
Figure 0005429885

により顔座標系上の位置ベクトルに変換することもできる。
上記変換係数算出ステップの後に、画像処理装置1は、過去のタイミングの画像フレームに対して算出された回転角度(α,β,γ)及び重心位置Gに基づいて、処理対象の撮像タイミングにおける顔座標系の回転角度(α,β,γ)及び原点の変位を予測する(変換係数予測ステップ)。
(変換係数予測ステップ)
具体的には、画像処理装置1は、時間的に連続するフィールド画像間で対象者Aの顔方向と顔重心は連続的に変化するので、処理対象の画像フレームの顔姿勢の回転角度及び顔重心を、過去のフィールド画像から予測することができる。例えば、画像処理装置1は、m番目のフィールド画像の回転角度(α,β,γ)及び重心位置Gと、その直前のm−1番目のフィールド画像の回転角度(α,β,γ)及び重心位置Gとを利用して、カルマンフィルター等の予測手法を用いることによって、m+1番目のフィールド画像の予測回転角度(α,β,γ)及び予測重心位置Gを予測する。
(予測位置算出ステップ)
その後、画像処理装置1は、変換係数予測ステップによって予測された処理対象のフィールド画像の予測回転角度(α,β,γ)及び予測重心位置Gを参照して顔座標系の基準姿勢における特徴点座標を求めることによって、左右の瞳孔中心及び左右の鼻孔中心の3次元予測位置の座標を算出する。さらに、画像処理装置1は、算出した3次元予測位置の座標に対して、式(10)により与えられる変換行列を適用した後重心Gだけ変位させることにより、カメラ座標系における特徴点の予測3次元座標Pn1を算出する。
(位置検出ステップでの瞳孔検出用ウィンドウの設定)
画像処理装置1は、位置検出ステップでm+1番目のフィールド画像における瞳孔画像を検出するために、連続するm番目及びm+1番目のフィールド間で明瞳孔画像と暗瞳孔画像とを差分する際には、m+1番目のフィールド画像上のウィンドウに対して、左右の瞳孔中心の予測3次元座標P11,P21の移動分に応じた位置補正を施す。すなわち、画像処理装置1は、カメラ座標系における特徴点の予測3次元座標Pn1=(Xn1,Yn1,Zn1)を、下記式(13);
Figure 0005429885

を用いて、撮像平面PL(図2参照)上の予測2次元座標Qn1に変換する。そして、画像処理装置1は、m+1番目のフィールド画像の予測2次元座標Q11,Q21を中心にして、左右の瞳孔検出用の小ウィンドウを設定する。一方、m番目のフィールド画像に関しては、既に位置検出ステップで検出された2次元座標Q,Qを中心にして正方形の小ウィンドウを設定し、2つの小ウィンドウ間で差分画像を生成することによって、瞳孔画像の検出を行う。
この際、画像処理装置1は、設定する小ウィンドウのサイズを、直前のフィールド画像において検出した瞳孔像の直径に応じて調整する。例えば、瞳孔の直径が16ピクセルであった場合は、小ウィンドウの幅として16+50=66ピクセルと設定される。
また、画像処理装置1は、m番目のフィールド画像で一方の瞳孔像の検出が失敗した場合は、すぐにウィンドウサイズを大きくするのではなくて、瞳孔の予測座標をそのフィールド画像での位置と仮定して、m+1番目のフィールド画像での顔姿勢を予測する。ただし、2回連続して一方の瞳孔像の検出が失敗した場合は、該当する瞳孔用のウィンドウのサイズを少しずつ大きくして次フレーム画像での検出を試みる。例えば、1つのフィールドを処理する度に1画素ずつウィンドウサイズを大きくし、10回連続して検出が失敗した場合は、150×60ピクセル等の大きさの中ウィンドウによる瞳孔の検出を行う。
また、m番目のフィールド画像で両方の瞳孔像の検出が失敗した場合(例えば、瞬きをした場合)は、瞳孔の予測座標をそのフィールド画像での位置と仮定して、m+1番目のフィールド画像での顔姿勢を予測する。ただし、10回連続して検出が失敗した場合は、中ウィンドウより大きいサイズの大ウィンドウによる瞳孔の検出を行う。
以上説明した特徴点追跡装置10及び特徴点追跡装置10を用いた特徴点追跡方法によれば、対象者Aの3つの特徴点P,P,Pの組み合わせである特徴部位群が撮像されてその3次元位置P,P,Pが時系列で検出され、過去の撮像タイミングでの特徴部位群の3次元位置P,P,Pに基づいて、特徴部位群を基準にした顔座標系x−y−zのカメラ座標系X−Y−Zからの回転角度(α,β,γ)及び変位が算出される。そして、この回転角度(α,β,γ)及び変位に基づいて現在の撮影タイミングでの顔座標系x−y−zの予測回転角度(α,β,γ)及び原点Gが予測されて特徴部位群の現在の撮影タイミングでの予測3次元座標Pn1が算出される。その後、現在の特徴部位群の画像の検出に際しては、この算出された予測3次元座標Pn1に基づいて画像フレーム上にウィンドウが設定される。これにより、対象者Aの頭部の任意の動きに対しても時系列の画像フレーム中の特徴部位群の位置を予測することができ、時系列の画像フレーム中の特徴部位群を正確に追跡することが可能になる。その結果、対象者Aの頭部を対象にした特徴点追跡処理のロバスト性を向上させることができる。
より具体的に言えば、対象者Aがカメラ2の方向から大きくずれた方向を向いた場合であって角膜反射が検出しにくい場合であっても、異なる撮影タイミング間での位置補正が機能するので、画像差分により特徴点を追跡する際の精度が向上する。
また、瞳孔と鼻孔の位置が正確に予測されるため、特徴点検出用の小ウィンドウのサイズを小さくしても瞳孔の一部がウィンドウからはみ出す確率が小さくなり、特徴点の中心及び面積の検出のロバスト性が向上するとともに、処理速度も向上する。
また、各特徴点のウィンドウが残りの3個の特徴点のウィンドウに、いわば引っ張られるために、個々のウィンドウが分離されてしまう現象が低減する。その結果、眼鏡フレームにおける反射光等のノイズが瞳孔の近傍を横切った時でも、それに引きずられることなく実際の瞳孔に近い位置にウィンドウが付与されて、瞳孔の誤検出が極めて少なくなる。
さらに、ある画像フレームで片方の瞳孔が何らかの理由で検出できなくなっても、そのまま瞳孔が検出できるまで瞳孔位置を予測しながら小ウィンドウを付与し続けることで、特徴点の誤検出が少なくなる。特に、眼鏡における反射光が瞳孔近辺を横切っても、その後に即座に瞳孔に小ウィンドウを与えることができる。
また、過去に検出された瞳孔像の大きさに合わせて小ウィンドウのサイズを設定することで、より効率的かつ高速な追跡処理が実現できる。
また、特徴点の画像の検出が連続して失敗した場合にはウィンドウのサイズが大きくされるので、特徴点の検出率を効果的に向上させることができる。
なお、最初に与えられる対象者Aの特徴点間距離は,厳密に実測する必要はない。正確でない特徴点間距離が与えられると、各特徴点の3次元位置は誤って決定されるため顔重心も顔方向も誤って検出される。しかし、その誤って検出された値に基づいて与えられる2次元画像上のウィンドウ位置は正しく与えられる。具体的には、与えた特徴点間距離よりもすべてが一定割合だけ短い対象者Aの場合、顔方向はほとんど変わらず顔重心だけがカメラから実際よりも離れた位置に認識される。このように顔重心が遠くにあると認識されると、各特徴点間距離も2次元画像上では短く換算されるために、結果的にウィンドウ位置は2次元画像上で正しく与えられる。また,2つの瞳孔間の距離が与えた値よりも短い対象者Aの場合も、実際の顔方向よりも顔が上向き気味に認識されるだけであって、ウィンドウ位置は正しく与えられる。このように、特徴点間距離の誤差は、顔重心位置や顔方向のずれに吸収されてしまい、ウィンドウ位置の誤差を生じさせることはない。極端に言えば、カメラレンズを25mmから16mmに変えるなどして顔画像のサイズが変化しても、提案する方法は問題なく機能する。
図8は、本実施形態の特徴点追跡方法による左右の瞳孔の検出結果を示すグラフ、図9は、従来の瞳孔検出方法によるによる左右の瞳孔の検出結果を示すグラフである。なお、この従来法では、特開2008−029702号公報に開示されたように、鼻孔移動量を利用した差分位置補正及び角膜反射移動量を利用した差分位置補正を用いている。また、小ウィンドウの大きさは、一辺が70,66,56,46,36ピクセルで固定の正方形とした。測定に際しては、被験者が眼鏡をかけた状態で顔を左右に3往復振る、上下に3往復振る、斜めに3往復振るという動作を26秒間行った。測定結果における「正検出率」とは、全フィールド数に対する、瞳孔像がウィンドウ内に収まっており、かつ、瞳孔が正しく検出されているフィールド数の割合である。また、「ウィンドウ外率」とは、瞳孔は正しく検出されているが、瞳孔像がウィンドウ内に収まっていないフィールド数の割合であり、「誤検出率」とは、瞳孔でないもの(眼鏡反射や白目反射)を瞳孔として検出しているフィールド数の割合である。
この結果により、本実施形態によれば、従来法に比してあらゆるウィンドウサイズにおいて正検出率が高く保たれていることが分かる。また、ウィンドウサイズが大きくなっても、誤検出率が大きく低減されており、ウィンドウサイズが小さくなっても、ウィンドウ外率が大きく低減されていることが分かる。
なお、本発明は、前述した実施形態に限定されるものではない。例えば、本発明の特徴点追跡装置10においては、左右の瞳孔中心及び左右の鼻孔中心の中間点を基準にして顔座標系が設定されているが、左右の鼻孔中心の中間点に代えて左右の鼻孔中心を基準にしてもよい。
また、本発明の特徴点追跡装置10においては、現在の撮影タイミングにおいて予測された左右の鼻孔中心の予測3次元座標P31,P41を用いて、左右の鼻孔中心を中心にして小ウィンドウを設定した後に、鼻孔像を検出するようにしてもよい。
また、本発明の特徴点追跡装置10においては、位置検出ステップで、ウィンドウを対象にしてp−tile法により所定の閾値を用いて画像フレームを2値化画像に変換して、2値化画像を基に左右の鼻孔画像を検出し、そのとき用いる閾値を、2値化画像内の連結エリアの最大面積の微分値が最大になるような閾値との関係に基づいて自動決定してもよい。このようにして鼻孔画像を検出することで、対象者Aに最も適した閾値を決定することができる。つまり、鼻孔の形状には対象者毎に個人差があり、全ての対象者に同一の比率の画素を2値化するように閾値を決定する場合には検出が不安定になる場合がある。また、同一の対象者の場合でも顔が動くと鼻孔の見え方が変化し、画像中の鼻孔の形状や面積が変動するため、一定の比率を用いる場合では顔の角度が基準姿勢からずれるほど鼻孔検出が不安定になることがある。上述のように閾値を決定することで、対象者の違いや顔の動きに対しても、鼻孔検出を最適化することができる。
詳細には、画像処理装置1は、対象者Aに関する明瞳孔画像又は暗瞳孔画像中に設定されたウィンドウ内の画像に対し、閾値を255から1まで1ずつ減らしながらその閾値と画素値を比較することにより2値化画像に変換した後に、各閾値に対応して得られた2値化画像に孤立点除去処理、膨張処理、収縮処理、及びラベリング処理を施す。そこで、画像処理装置1は、2値化画像内の同一画素値からなる連結成分(連結エリア)の最大面積を閾値毎に算出し、その最大面積の閾値に関する微分値が最大値をとる場合の閾値Thmaxを特定する。また、閾値Thmaxから閾値を上げていった時に最初に最大面積が0になる閾値Thminも特定する。例えば、図10に示すような閾値と最大面積との関係が得られた場合には、Thmax=176、Thmin=227と求められる。そして、画像処理装置1は、閾値Thmaxと閾値Thminとの関係から下記式(14);
Th = (Thmax+Thmin)/2 …(14)
を用いて閾値Thを決定し、この閾値を用いてウィンドウ内から2値化画像を得て左右の鼻孔像を検出する。なお、閾値Thのときの鼻孔2値化画像から検出された最大面積を持つラベルの面積をSmax[pixel]、2値化画像全体の面積をS[pixel]とすると、鼻孔を検出する際の2値化閾値を決定する基準となるPタイル値Pは、P=Smax/Sで求めることができる。
一方、上記のような閾値の自動決定処理は、255個の閾値に対して2値化、孤立点除去、膨張収縮、およびラベリングを行うので処理に時間がかかり、1フレームごとにこの処理を行おうとすると処理時間が長くなりリアルタイム性に欠ける。そのため、処理は最初に一度、例えば、後述するような鼻孔基準画像の取得時に行うことが好適である。
また、本発明の特徴点追跡装置10においては、位置検出ステップで、ウィンドウを対象にしてp−tile法により画像フレームの所定割合(Pタイル値)の画素を2値化することで2値化画像に変換して、その2値化画像を基に鼻孔画像を検出し、変換係数予測ステップで予測された顔座標系の予測回転角度(α,β,γ)に基づいて鼻孔の画像フレーム上の鼻孔推定像を予測し、鼻孔推定像を基にp−tile法におけるPタイル値を決定してもよい。これにより、対象者Aの顔の動きによって画像中の鼻孔の形状や面積が変動しても、鼻孔検出を安定化させることができる。
以下、鼻孔推定像によるPタイル値の決定の原理及びその処理の詳細について説明する。
まず、鼻孔を孔状ではなく鼻孔の部分に黒い平面が張り付いているようなモデルを考える。このときの鼻孔が張り付いている平面を鼻孔平面PL1と定義する。瞳孔と鼻孔の位置関係は対象者Aに関して一定であり、それらが作る顔平面に対する鼻孔平面PL1の角度も一定である。図11,図12に示すように、鼻孔平面PL1は顔平面を顔座標系のx軸周りに一定角度δだけ回転し、鼻孔間中点Pを通る平面と考えることができる。また、鼻孔平面PL1の法線ベクトルで鼻孔間中点P0を通るものを鼻孔方向ベクトルkと定義する。鼻孔方向ベクトルkは顔平面と鼻孔平面PL1との関係と同様に顔方向ベクトルVをx軸周りに角度δだけ回転したものを鼻孔間中点Pを通るように平行移動させたものである(図13)。顔座標系xyzでの鼻孔方向ベクトルkは、顔座標系での顔方向ベクトルV=(0,0,1)より下記式(15);
Figure 0005429885

により求めることができる。さらに、顔座標系xyzでの鼻孔方向ベクトルkから、座標変換によりカメラ座標系XYZでの鼻孔方向ベクトルkを求めることができる。すなわち、鼻孔方向ベクトルkは、顔座標系の回転角度(α,β,γ)を反映した式(10),式(11)で計算される変換行列を用いて計算することができる。また、鼻孔方向ベクトルkの水平角α、垂直角β、および回転角γは、下記式(16);
Figure 0005429885

によって求めることができる。
そこで、画像処理装置1は、上述した2値化閾値の自動決定処理時に対象者Aに関する鼻孔像を保存する。このとき、画像処理装置1は、2値化閾値自動決定時の鼻孔像を変形することで、鼻孔方向ベクトルがカメラ座標系のZ軸と平行になる状態、つまり鼻孔が最大面積に見える状態の鼻孔像を取得する。具体的には、2値化閾値自動決定処理を行うとき、対象者Aはカメラ2に対して正対し、カメラ2の光軸L1より角度ζ(約60度)だけ上方を向いているとする。ただし、画像処理装置1が対象者Aに自分の正面と思われる方向を向いてもらった時に計測した回転角度βから、ζ=−βとして角度ζを求めてもよい。そして、鼻孔方向ベクトルの水平角αおよび回転角γは0度であると仮定する。この場合、画像処理装置1は、変形前の鼻孔ラベル内の画素(鼻孔画素)の座標を(X,Y)とすると、変形後の鼻孔画素の座標(X,Y)を、下記式(17);
Figure 0005429885

によって算出する。すなわち、画像処理装置1は、鼻孔像のy成分を1/cos(δ−ζ)倍に拡大する。
このようにして変形した鼻孔像は鼻孔基準像とされ、鼻孔方向ベクトルの水平角α、垂直角β、および回転角γがそれぞれ0度であるときの鼻孔像であると捉えることができる。よって、画像処理装置1は、変換係数予測ステップで予測された顔座標系の予測回転角度(α,β,γ)に基づいて鼻孔方向ベクトルの水平角α、垂直角β、および回転角γを算出し、鼻孔基準像を三次元空間で回転させることによって次フレームの鼻孔像を推定することができる。具体的には、まず、画像処理装置1は、二次元座標系の鼻孔標準像を三次元座標系に展開する。すなわち、鼻孔像の2値化画像における重心を原点とした二次元画像上の画素の座標をN2D(X,Y)とし、それを三次元座標系のXY平面上に展開した座標をN3D(x,y,z)とすると、(x,y,z)=(X,Y,0)と表すことができる。ここで、画像処理装置1は、鼻孔方向ベクトルの水平角α、垂直角β、および回転角γを用いて、三次元画像系の鼻孔標準像を三次元空間で回転させる。回転後の鼻孔標準像の座標N’3Dは、式(10),式(11)の変換行列を用いて、下記式(18);
N’3D(x,y,z)=T(−α,−β,−γ)N3D(x,y,z) …(18)
によって求められる。さらに、画像処理装置1は、得られた鼻孔標準像の画素の座標N’3Dを撮像平面PLに投影することにより、座標N’2D(X,Y)=(x×f/z,y×f/z)を得る。この変換処理を鼻孔標準像中の画素全てに対して行うことにより、鼻孔標準像から次フィールドの左右の鼻孔の推定像を予測することができる。なお、このようにして得られた鼻孔推定像は、カメラ2から鼻孔までの距離による鼻孔サイズの変化についても考慮されている。そして、画像処理装置1は、鼻孔推定像を基に鼻孔領域の画素数を算出し、その画素数とウィンドウサイズの関係に基づいて、実際に鼻孔を検出する際のPタイル値を決定する。例えば、Pタイル値がP[%]の場合には、ウィンドウ内の画像を対象に、輝度の低いほうから割合P[%]までの画素を検出して2値化閾値を設定する。
ここで、位置検出ステップでは、過去の撮像タイミングにおいて検出された特徴部位群の画像の大きさに応じて、特徴部位群用のウィンドウのサイズを調整する、ことが好ましい。この場合、過去の特徴部位群の画像の大きさに合わせてウィンドウを設定することで、より効率的かつ高速な追跡処理が実現できる。
また、位置検出ステップでは、過去の撮像タイミングにおいて特徴部位群の画像の検出が失敗した場合には、特徴部位群用のウィンドウのサイズを大きくする、ことも好ましい。こうすれば、特徴部位群の検出率を効果的に向上させることができる。
本発明は、対象者の画像に基づいて対象者の特徴点を追跡する特徴点追跡方法及び特徴点追跡装置を使用用途とし、時系列の画像フレームにおける特徴点の移動予測を高精度に行うことで、特徴点の追跡のロバスト性を向上させることができるものである。
10…特徴点追跡装置、1…画像処理装置、2…カメラ(撮像手段)、A…対象者、P,P,P…特徴点(特徴部位群)、Q…2次元位置、α,β,γ…回転角度、XYZ…カメラ座標系(基準座標系)、xyz…顔座標系。

Claims (6)

  1. 対象者の頭部画像に基づいて、該対象者の特徴点の位置を追跡する特徴点追跡方法であって、
    前記対象者の3つの特徴点の組み合わせである特徴部位群の2次元位置を撮像手段によって撮像し、前記特徴部位群の3次元位置を時系列で検出する位置検出ステップと、
    過去の撮像タイミングにおける前記特徴部位群の前記3次元位置に基づいて、該特徴部位群を基準とした顔座標系の所定の基準座標系からの回転角度及び変位を算出する変換係数算出ステップと、
    当該算出された前記顔座標系の前記基準座標系からの回転角度及び変位に基づいて、現在の撮像タイミングにおける前記顔座標系の回転角度及び変位を予測する変換係数予測ステップと、
    当該予測された前記回転角度及び前記変位に基づいて、現在の撮像タイミングの前記特徴部位群の3次元予測位置を算出する予測位置算出ステップとを備え、
    前記位置検出ステップでは、当該算出された前記特徴部位群の3次元予測位置に基づいて、現在の撮像タイミングの画像フレーム上にそれぞれの前記特徴部位群用のウィンドウを設定し、それぞれの前記ウィンドウを対象にして前記特徴部位群の画像を検出する、
    ことを特徴とする特徴点追跡方法。
  2. 前記位置検出ステップでは、過去の撮像タイミングにおいて検出された特徴部位群の画像の大きさに応じて、前記特徴部位群用のウィンドウのサイズを調整する、
    ことを特徴とする請求項1記載の特徴点追跡方法。
  3. 前記位置検出ステップでは、過去の撮像タイミングにおいて前記特徴部位群の画像の検出が失敗した場合には、前記特徴部位群用の前記ウィンドウのサイズを大きくする、
    ことを特徴とする請求項1又は2に記載の特徴点追跡方法。
  4. 前記位置検出ステップでは、前記ウィンドウを対象にして所定の閾値を用いて前記画像フレームを2値化画像に変換して、前記2値化画像を基に前記特徴部位群のいずれかを検出し、前記2値化画像内の連結エリアの最大面積の微分値が、最大になるような前記所定の閾値との関係に基づいて、前記所定の閾値を決定する、
    ことを特徴とする請求項1〜3のいずれか1項に記載の特徴点追跡方法。
  5. 前記位置検出ステップでは、前記ウィンドウを対象にして前記画像フレームの所定割合の画素を2値化することで2値化画像に変換して、前記2値化画像を基に前記特徴部位群のいずれかを検出し、前記変換係数予測ステップで予測された前記顔座標系の前記回転角度に基づいて前記特徴部位群のいずれかの前記画像フレーム上の推定像を予測し、前記推定像を基に前記所定割合の値を決定する、
    ことを特徴とする請求項1〜4のいずれか1項に記載の特徴点追跡方法。
  6. 対象者の頭部画像に基づいて、該対象者の特徴点の位置を追跡する特徴点追跡装置であって、
    前記対象者の3つの特徴点の組み合わせである特徴部位群の2次元位置を撮像手段によって撮像し、前記特徴部位群の3次元位置を時系列で検出する位置検出手段と、
    過去の撮像タイミングにおける前記特徴部位群の前記3次元位置に基づいて、該特徴部位群を基準とした顔座標系の所定の基準座標系からの回転角度及び変位を算出する変換係数算出手段と、
    当該算出された前記顔座標系の前記基準座標系からの回転角度及び変位に基づいて、現在の撮像タイミングにおける前記顔座標系の回転角度及び変位を予測する変換係数予測手段と、
    当該予測された前記回転角度及び前記変位に基づいて、現在の撮像タイミングの前記特徴部位群の3次元予測位置を算出する予測位置算出手段とを備え、
    前記位置検出手段は、当該算出された前記特徴部位群の3次元予測位置に基づいて、現在の撮像タイミングの画像フレーム上にそれぞれの前記特徴部位群用のウィンドウを設定し、それぞれの前記ウィンドウを対象にして前記特徴部位群の画像を検出する、
    ことを特徴とする特徴点追跡装置。
JP2010521735A 2008-07-24 2009-07-23 特徴点追跡方法及び特徴点追跡装置 Active JP5429885B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010521735A JP5429885B2 (ja) 2008-07-24 2009-07-23 特徴点追跡方法及び特徴点追跡装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008191136 2008-07-24
JP2008191136 2008-07-24
JP2010521735A JP5429885B2 (ja) 2008-07-24 2009-07-23 特徴点追跡方法及び特徴点追跡装置
PCT/JP2009/063197 WO2010010926A1 (ja) 2008-07-24 2009-07-23 特徴点追跡方法及び特徴点追跡装置

Publications (2)

Publication Number Publication Date
JPWO2010010926A1 JPWO2010010926A1 (ja) 2012-01-05
JP5429885B2 true JP5429885B2 (ja) 2014-02-26

Family

ID=41570386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010521735A Active JP5429885B2 (ja) 2008-07-24 2009-07-23 特徴点追跡方法及び特徴点追跡装置

Country Status (2)

Country Link
JP (1) JP5429885B2 (ja)
WO (1) WO2010010926A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI452540B (zh) 2010-12-09 2014-09-11 Ind Tech Res Inst 影像式之交通參數偵測系統與方法及電腦程式產品
JP2012125373A (ja) * 2010-12-15 2012-07-05 Hitachi Aloka Medical Ltd 超音波画像処理装置
KR101320337B1 (ko) 2012-05-02 2013-10-29 한국항공우주연구원 위치 및 자세 추정시스템
EP2857939B1 (en) * 2012-05-25 2018-08-29 National University Corporation Shizuoka University Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method
JP6627450B2 (ja) * 2015-11-20 2020-01-08 カシオ計算機株式会社 特徴点追跡装置、特徴点追跡方法及びプログラム
CN115082978A (zh) 2021-03-10 2022-09-20 佳能株式会社 面部姿态的检测装置、方法、图像处理系统及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002007095A1 (fr) * 2000-07-17 2002-01-24 Mitsubishi Denki Kabushiki Kaisha Dispositif de representation en 3d du visage et dispositif de reconnaissance peripherique comprenant ce dernier
JP2003015816A (ja) * 2001-06-29 2003-01-17 Honda Motor Co Ltd ステレオカメラを使用した顔・視線認識装置
JP2005309992A (ja) * 2004-04-23 2005-11-04 Toyota Motor Corp 画像処理装置および画像処理方法
JP2007026073A (ja) * 2005-07-15 2007-02-01 National Univ Corp Shizuoka Univ 顔姿勢検出システム
JP2007172237A (ja) * 2005-12-21 2007-07-05 Denso Corp 推定装置
JP2007268026A (ja) * 2006-03-31 2007-10-18 National Univ Corp Shizuoka Univ 瞳孔を検出する方法及び装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002007095A1 (fr) * 2000-07-17 2002-01-24 Mitsubishi Denki Kabushiki Kaisha Dispositif de representation en 3d du visage et dispositif de reconnaissance peripherique comprenant ce dernier
JP2003015816A (ja) * 2001-06-29 2003-01-17 Honda Motor Co Ltd ステレオカメラを使用した顔・視線認識装置
JP2005309992A (ja) * 2004-04-23 2005-11-04 Toyota Motor Corp 画像処理装置および画像処理方法
JP2007026073A (ja) * 2005-07-15 2007-02-01 National Univ Corp Shizuoka Univ 顔姿勢検出システム
JP2007172237A (ja) * 2005-12-21 2007-07-05 Denso Corp 推定装置
JP2007268026A (ja) * 2006-03-31 2007-10-18 National Univ Corp Shizuoka Univ 瞳孔を検出する方法及び装置

Also Published As

Publication number Publication date
JPWO2010010926A1 (ja) 2012-01-05
WO2010010926A1 (ja) 2010-01-28

Similar Documents

Publication Publication Date Title
JP4452833B2 (ja) 視線移動検出方法及び視線移動検出装置
JP4307496B2 (ja) 顔部位検出装置及びプログラム
JP5158842B2 (ja) 眼球運動計測方法および眼球運動計測装置
CN106175801B (zh) 眨眼测量方法、眨眼测量装置及眨眼测量程序
JP5429885B2 (ja) 特徴点追跡方法及び特徴点追跡装置
JP4452836B2 (ja) 瞳孔を検出する方法及び装置
US10311583B2 (en) Eye motion detection method, program, program storage medium, and eye motion detection device
JP5578603B2 (ja) 視線制御装置、視線制御方法、及びそのプログラム
JP4501003B2 (ja) 顔姿勢検出システム
JP2008146356A (ja) 視線方向推定装置及び視線方向推定方法
US20220100268A1 (en) Eye tracking device and a method thereof
JP7030317B2 (ja) 瞳孔検出装置及び瞳孔検出方法
JP6452235B2 (ja) 顔検出方法、顔検出装置、及び顔検出プログラム
JP6957048B2 (ja) 眼部画像処理装置
JP4431749B2 (ja) 顔姿勢検出方法
JPWO2013008304A1 (ja) 瞼検出装置
JP2006236184A (ja) 画像処理による人体検知方法
JP2010244156A (ja) 画像特徴量検出装置及びこれを用いた視線方向検出装置
KR101961266B1 (ko) 시선 추적 장치 및 이의 시선 추적 방법
JP6555707B2 (ja) 瞳孔検出装置、瞳孔検出方法及び瞳孔検出プログラム
JP7046347B2 (ja) 画像処理装置及び画像処理方法
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
JP2004192552A (ja) 開閉眼判定装置
JP6652263B2 (ja) 口領域検出装置及び口領域検出方法
JP4696571B2 (ja) 眼位置検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131128

R150 Certificate of patent or registration of utility model

Ref document number: 5429885

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250