JP4829141B2 - 視線検出装置及びその方法 - Google Patents

視線検出装置及びその方法 Download PDF

Info

Publication number
JP4829141B2
JP4829141B2 JP2007030670A JP2007030670A JP4829141B2 JP 4829141 B2 JP4829141 B2 JP 4829141B2 JP 2007030670 A JP2007030670 A JP 2007030670A JP 2007030670 A JP2007030670 A JP 2007030670A JP 4829141 B2 JP4829141 B2 JP 4829141B2
Authority
JP
Japan
Prior art keywords
dimensional
feature points
line
face model
pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007030670A
Other languages
English (en)
Other versions
JP2008194146A (ja
Inventor
達夫 小坂谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007030670A priority Critical patent/JP4829141B2/ja
Priority to US12/019,027 priority patent/US8107688B2/en
Publication of JP2008194146A publication Critical patent/JP2008194146A/ja
Application granted granted Critical
Publication of JP4829141B2 publication Critical patent/JP4829141B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Description

本発明は、画像上の顔の視線方向を推定する視線検出装置及びその方法に関する。
画像からの人物の視線検出は、特別な装置を装着させずに対象者の注視領域を推定することができるため非常に有用であるが、視線方向は眼球運動だけでなく、対象者の頭部姿勢にも依存し、さらに虹彩付近の画像パターンは頭部姿勢や眼球方向だけでなく個人の顔貌によっても多様に変化するため、困難な課題であった。
特許文献1が開示する視線検出方法は、対象者の虹彩の形状を楕円で近似し、その楕円のパラメータに基づいて視線方向を検出するものである。しかし、頭部姿勢による虹彩の見え変化と、実際の眼球運動による虹彩の見えの変化を区別することができないため、任意の頭部姿勢に対して視線方向を検出することができなかった。
特許文献2が開示する視線検出方法は、瞳の方向別パターン辞書を予め用意しておき、それら辞書と入力画像の瞳パターンとのマッチングによって視線方向を検出するものである。しかし、高精度に視線方向を検出するためには、予め多様な視線方向パターンを学習する必要があった。
特許文献3が開示する視線検出方法は、ステレオカメラから眼球形状を推定し、虹彩中心における眼球との接平面を推定し、その接平面の法線として視線方向を検出するものである。しかし、ステレオカメラのキャリブレーションが必要で、システムが大掛かりになるという問題点があった。
特開2005−13752公報 特許第3790680号公報 特開2004−255074公報
上述したように、従来技術では、任意の頭部姿勢において単眼カメラから、事前にキャリブレーションや瞳の方向別パターンを学習することなく視線方向を推定することができないという問題点があった。
そこで本発明は、上記従来技術の問題点を解決するためになされたものであって、任意の頭部姿勢において単眼カメラから、事前にキャリブレーションや瞳の方向別パターンを学習することなく視線方向を推定する視線検出装置及びその方法を提供することを目的とする。
本発明は、入力された1枚の画像中の顔から瞳を含む同一平面上に存在しない4点以上の画像特徴点を抽出する特徴点検出部と、少なくとも一つの3次元顔モデル、前記3次元顔モデル上で前記画像特徴点にそれぞれ対応する基準特徴点の座標及び前記3次元顔モデル上の眼球に関する3次元眼球モデルを記憶する3次元顔モデル保持部と、前記画像特徴点と前記基準特徴点の間の対応関係に基づいて、前記画像特徴点の一つである瞳座標を3次元顔モデルの表面へ変換する変換部と、前記3次元眼球モデルと、前記変換した瞳座標に基づいて3次元的な視線方向を推定する視線推定部と、を有し、前記3次元眼球モデルは、前記3次元顔モデルにおける眼球の中心座標を含み、前記視線推定部は、前記3次元眼球モデルの中心座標と、前記変換した瞳座標に基づいて前記視線方向を推定し、前記変換部は、前記画像特徴点と前記基準特徴点との間の射影行列を計算し、前記射影行列を用いて前記画像上の瞳座標を前記3次元顔モデルの表面上へ変換する、ことを特徴とする視線検出装置である。
また、本発明は、入力された1枚の画像中の顔から瞳を含む同一平面上に存在しない4点以上の画像特徴点を抽出する特徴点検出部と、少なくとも一つの3次元顔モデル、前記3次元顔モデル上で前記画像特徴点にそれぞれ対応する基準特徴点の座標及び前記3次元顔モデル上の眼球に関する3次元眼球モデルを記憶する3次元顔モデル保持部と、前記画像特徴点と前記基準特徴点の間の対応関係に基づいて、前記画像特徴点の一つである瞳座標を3次元顔モデルの表面へ変換する変換部と、前記3次元眼球モデルと、前記変換した瞳座標に基づいて3次元的な視線方向を推定する視線推定部と、を有し、前記3次元顔モデル保持部は、複数の3次元顔モデルを保持しており、前記変換部は、前記変換された画像特徴点と前記基準特徴点との誤差を計算し、前記画像上の顔と前記各3次元顔モデルのそれぞれの対応関係の信頼度を計算し、前記視線推定部は、前記信頼度が最も高い3次元顔モデルを選択し、前記選択した3次元顔モデルに基づいて前記視線方向を検出する、ことを特徴とする視線検出装置である。
本発明によれば、1枚の画像のみから事前のキャリブレーションを行うことなく撮影された顔の向きを考慮した3次元的な視線方向を推定することができる。
以下、本発明の実施形態の視線検出装置10について図面に基づいて説明する。
(第1の実施形態)
以下、本発明に係わる第1の実施形態の視線検出装置10について図1から図3に基づいて述べる。
(1)視線検出装置10の構成
図1は、本実施形態の視線検出装置10の構成を表す。
図1に示すように、視線検出装置10は、対象となる人物の顔を入力する画像入力部12と、入力された画像内から瞳を含む特徴点を抽出する特徴点検出部14と、3次元顔モデルと3次元眼球モデルを記憶しておく3次元顔モデル保持部16と、抽出された特徴点と3次元顔モデル上の特徴点との対応付けを行い、画像上の瞳座標を3次元顔モデル上へ変換する変換部18と、変換された3次元顔モデル上の瞳点と3次元眼球モデルから視線方向を推定する視線推定部20とを備えている。
(2)視線検出装置10の動作
次に、視線検出装置10の動作を図1を用いて説明する。
(2−1)画像入力部12
まず、画像入力部12は、処理対象となる瞳を含む顔画像を1枚入力する。画像入力部12より得られた1枚の画像は逐次、特徴点検出部14に送られる。
画像入力部12を構成する装置の一つの例として、USBカメラやデジタルカメラ等が挙げられる。また、予め撮影、保存された顔画像データを保持している記録装置やビデオテープ、DVD等を用いても良いし、顔写真をスキャンするスキャナでも良い。ネットワーク等を経由して画像を入力しても構わない。
(2−2)特徴点検出部14
特徴点検出部14では、瞳を含む画像中の顔部位の座標が検出される。特徴点の検出はどのような方法を用いても構わないが、例えば、文献(福井、山口、「形状抽出とパターン照合の組合せによる特徴点抽出」,信学論(D-II) vol.J80-D-II,No.9,p.2170-2177,1997.)で述べられている方法を用いて検出することができる。
検出する特徴点は、瞳を含み、同一平面状に存在しない4点以上であれば、任意の組合せでよい。例えば、瞳、口端、鼻頂点などが挙げられる。なお、両瞳が必ずしも検出される必要はないが、片方のみ検出できた場合には、検出された瞳に関する視線方向が推定される。そのため横顔が入力された場合など、片方の瞳が隠れている状態でも本実施形態は適用可能である。
(2−3)3次元顔モデル保持部16
3次元顔モデル保持部16では、顔の3次元空間的な情報である3次元顔モデルと3次元眼球モデルが保持されている。
3次元顔モデルは、コンピュータグラフィクスで利用されているポリゴンメッシュにより構成されていても良いし、顔表面の奥行き情報を表すデプスマップにより構成されていても良い。
この3次元顔モデルには、特徴点検出部14により抽出される特徴点の種類を含む座標、すなわち、基準特徴点座標が保持されていることとする。例えば、物体検出部14で瞳、口端、鼻頂点が抽出された場合には、基準特徴点にも少なくとも瞳、口端、鼻頂点が含まれる。
図2に抽出された特徴点と基準特徴点との関係を示す。図2の左側が入力された顔画像及びx印で特徴点を示しており、図2の右側が3次元顔モデル及び丸印で基準特徴点を示している。図2のように、画像から検出された特徴点に対応する基準特徴点は必ず定義され、各特徴点部位に対して1対1に対応付けられている。なお、抽出された特徴点の種類と基準特徴点の種類は必ずしも一致している必要はない。
また、3次元眼球モデルとして、眼球中心座標、正面を向いたときの顔モデル上での瞳位置(瞳の基準特徴点座標と同じでも良いし、別個に定義しても良い)、半径などを保持している。3次元眼球モデルを楕円とし、長軸、短軸の情報を含めても構わない。
3次元顔モデルとして、必要な基準特徴点座標や眼球中心などの座標に限って情報を保持しておくことで、ステレオ法などの密な3次元モデル情報が必要な方法と比較してメモリなどを節約することも可能である。
また、これらの顔の3次元情報は複数人の顔の形状から作成する平均モデルや、一般的な顔を表現するような一般モデルでも良いし、個人毎の顔モデルが得られている場合には、それを用いることによりさらなる高精度化が可能である。
(2−4)変換部18
変換部18では、抽出された特徴点と3次元顔モデル上の基準特徴点を利用して、入力された顔と3次元顔モデルの対応付けを行い、画像上の瞳座標を顔モデル上へ変換する。
まず、特徴点検出部14から得られた特徴点(x,y)と、対応する3次元形状上の基準特徴点(x’,y’,z’)を用いて、入力された顔との対応関係を表す射影行列Mは(1)式、(2)式及び(3)式により定義される。
Figure 0004829141
なお、射影行列Mの求め方は上述した方法に限らない。例えば、上述した方法では、簡単のため平行投影モデルを用いて射影行列Mを計算したが、より現実世界に近い透視投影モデルに基づいて特徴点を定義し、射影行列Mを計算することで、より高精度に姿勢推定を行うこともできる。
また、以後の説明では射影行列Mを用いて説明を行っているが、3次元顔モデルと入力された顔との対応付けがなされるようなものであれば、何を用いても構わない。例えば、3次元顔モデルと入力された顔の対応付けを表すテーブルが得られたとしても、以後に説明する方法が容易に適用可能である。
次に、射影行列Mを用いて瞳座標を顔モデル上へ変換する。画像上の瞳座標(X,Y)と対応する3次元顔モデル上の瞳座標(x,y,z)は射影行列Mによって、以下の(6)式が成り立つ。なお、厳密には、顔モデルと実際の顔形状との相違や、平行投影による誤差があるため等号は成り立たないが、ここではその誤差は無視可能であるとする。
Figure 0004829141
さらに、顔モデル上の瞳座標(x,y,z)は3次元眼球モデル上に存在しなければならないので、3次元眼球モデルが中心(a,b,c)、半径rで表されているとすると、以下の(7)式が成り立つ。

(x−a)+(y−b)+(z−c)=r (7)

この(6)式、(7)式を解くことにより、顔モデル上の瞳座標(x,y,z)を求めることができる。
(2−5)視線推定部20
視線推定部20では、変換部18で求めた顔モデル上の瞳座標(x,y,z)に基づいて、視線方向を計算する。
3次元顔モデルを基準とする3次元空間内での視線方向は、眼球中心(a,b,c)から瞳座標(x,y,z)へのベクトル(x−a,y−b,z−c)として表現できる。この視線ベクトルが、3次元顔モデルに対する視線方向となる。
図3に視線ベクトルの計算に関する概念図を示す。図3の顔は3次元顔モデルであり、点線で描かれた球が3次元眼球モデルであり、x印が眼球中心、丸印が変換された瞳点である。視線方向は図の矢印で書かれた眼球中心と瞳点を結ぶベクトルとなる。図では右目について図示したが、左目についても全く同様である。
このとき、3次元顔モデルが正面向きで定義されていれば、入力された顔の姿勢によらず、正面向きとした場合の視線方向が決定される。
しかし、画像上(実世界)における視線方向を求める場合には、射影行列Mから、入力された顔と3次元顔モデルとの間の回転行列Rを求め、視線ベクトルをRによって画像上の視線ベクトルへ変換する必要がある。回転行列Rは、例えば以下のような方法で求めることができる。
(2−5−1)第1の方法
第1の方法について説明する。射影行列Mは、実際には、入力された顔を固定しカメラ向きが変化したとみなした場合のカメラの座標軸運動を表す運動行列とみなすことができる。すなわち、射影行列Mの各行ベクトルをノルム1に正規化したベクトルの転置がカメラ座標の3つの基底ベクトルのうち2つの基底ベクトルi,jになっており、i,jの外積から残りの基底ベクトルkが求まる。これらの基底ベクトルから成る行列が回転行列Rとなる。
(2−5−2)第2の方法
第2の方法によっても回転行列Rを求めることができる。(4)式を解いて得られる射影行列Mは、回転・拡大による変形だけでなく3次元アフィン変換による変形が表現可能なため、上記基底ベクトルi,jが直交しない(回転行列としての性質を満たさない)場合がある。そのような場合には、(3)式を極力満たしながら、射影行列Mの行ベクトル同士が直交するという拘束条件を加えることにより、回転・拡大成分のみを持つような射影行列Mを求めることができる。この射影行列Mの基底ベクトルから上記方法により回転行列Rを求める。これにより、より高精度な回転行列Rを求めることが可能となる。
(3)効果
このように第1の実施形態に係る視線検出装置10によれば、瞳を含む複数の特徴点と、3次元顔モデル、3次元眼球モデルを用いて、事前にキャリブレーションを行わずに任意の頭部姿勢に対して単眼カメラの画像1枚のみから視線を推定することができる。
(第2の実施形態)
次に、第2の実施形態の視線検出装置10について図4と図5に基づいて説明する。
(1)視線検出装置10の構成
図4は、本実施形態の視線検出装置10の構成を表す。
図4に示すように、視線検出装置10は、対象となる人物の顔を入力する画像入力部12と、入力された画像内から瞳を含む特徴点を抽出する特徴点検出部14と、3次元顔モデルと3次元眼球モデルを記憶しておく3次元顔モデル保持部16と、抽出された特徴点と3次元顔モデル上の特徴点との対応付けを行い、画像上の瞳座標を3次元顔モデル上へ変換する変換部18と、変換された3次元顔モデル上の瞳点と3次元眼球モデルから視線方向を推定する視線推定部20と、得られた視線方向に対してユーザの注視領域を選択する注視領域選択部20とを備えている。
なお、画像入力部12、特徴点検出部14、変換部18、視線推定部20は、第1の実施形態に記載してあるものと同じであるので説明は省略する。
(2)視線検出装置10の動作
次に、図4を用いて本実施形態に係わる視線検出装置10の動作について説明する。
注視領域選択部20では、視線推定部20から得られた視線方向に対して、ユーザが注視している領域を予め決められた候補内から選択する。
図5に注視領域選択に関する概念図を示す。
図5のようにユーザがカメラの前に立ち、x印の部分について注視していたとする。視線推定部20から、ユーザの頭部姿勢を考慮に入れた視線方向が得られているため、そのままカメラに対する視線方向として利用することができる。
また、カメラの位置や画角等が事前に判明している場合には、画像内のユーザの位置などにより、3次元空間内の立ち位置を推定することができる。
なお、単眼カメラのみでは奥行き方向の特定が完全にはできないが、例えば、頭部や瞳のサイズを利用することで奥行き位置も推定することが可能である。
これらから、ユーザの頭部位置及び視線方向が計算できるため、実際の3次元空間内でユーザがカメラに対してどの方向を注視しているかが計算可能である。そして、予めカメラに対する注視候補領域を3次元空間内に定義しておき、ユーザの3次元空間内の視線ベクトルと注視候補領域の重なり度合いや距離を算出することで、最も適切な注視領域を選択することができる。
得られた視線方向に対して適切な注視候補領域が存在しない場合は、予め決められた注視候補領域以外を見ていると出力することもできる。
注視候補領域は、どのようなものに対して定義しても構わないが、例えば、パソコンのインターフェースに応用する場合には操作ボタンやアイコンなど、マーケティングにおける消費者行動解析に応用する場合には棚に陳列されている商品などに対して注視候補領域を設定することが考えられる。
また、両瞳に対する視線ベクトルが得られている場合には、2つの視線ベクトルの平均を用いて注視領域を選択しても良いし、例えば、2つの視線ベクトルから両眼の輻輳角を求め、輻輳角が大きすぎる場合には視線検出誤りとしてリジェクトすることで、より高精度に注視領域を選択することも可能である。
さらに、2つの視線ベクトルの3次元空間上の交点(または2直線の最接近点)を求め、この点を3次元空間上の注視点とすることで、ユーザが目の焦点を合わせている注視領域を推定することも可能である。
(変更例)
本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
(1)変更例1
変更例1について説明する。
第1の実施形態においては、変換部18において画像上の瞳座標を3次元顔モデル上の座標へ変換したが、瞳以外の任意の特徴点も3次元顔モデル上へと変換し、それらと対応する基準特徴点座標との誤差を求めることで、入力された顔と3次元顔モデルとの対応付け誤差を求めることができ、それを推定された視線方向の信頼度として出力することも可能である。
瞳以外の一般の特徴点の変換に関しては、3次元眼球モデルを用いた(7)式のような拘束条件が存在しないため、例えば変換後の奥行き(z座標)は対応する基準特徴点座標と不変であるなどの条件を新たに加える。
3次元顔モデル上へ変換された座標と、対応する基準特徴点座標との誤差は、入力された顔と3次元顔モデルの射影行列Mによる対応付けの妥当性を表していると考えられる。仮に、入力された顔と3次元顔モデルとが大きく異なっている場合、すなわち、入力された実世界上の特徴点と3次元顔モデル特徴点の配置が3次元的な相似関係から大きく逸脱している場合には、いかなる射影行列Mを用いても変換後の特徴点には大きな誤差が発生する。このように実世界上の特徴点配置と3次元顔モデルとの相違が大きい場合には、結果として推定された視線方向にも誤差が生じている可能性がある。
したがって、推定した視線方向とともに、この変換後の特徴点誤差を3次元顔モデルの対応付けに対する信頼度とすることで、視線方向の検出間違いを減らすことが可能となる。なお、変換後の特徴点誤差から信頼度を求める方法としては、複数の特徴点を変換した結果の誤差の和や、最大値、最小値など、その他いかなる方法でも構わない。
また、3次元顔モデルを複数用意しておき、最も信頼度の高い(変換誤差の小さい)3次元顔モデルを選択し、その3次元顔モデルを用いて視線方向を推定することも可能である。
(2)変更例2
変更例2について説明する。
第1の実施形態において、変換部18で射影行列Mを求める際に、瞳座標を除いて計算することにより、顔の非剛体な変形による誤差を抑制することも可能である。眼球運動による瞳座標の移動は、3次元顔モデル及び射影行列Mで表現することのできない非剛体な変形であるため、射影行列Mを求める際にはノイズとなる。したがって、(1)式、(2)式における行列S及び行列Wを計算する際に、瞳座標を除くことで対応付けにおけるノイズを抑制することができる。
また、結果として得られる視線方向が正面、つまり変換後の瞳座標と対応する基準特徴点座標が十分近い場合には、再度瞳を加えて射影行列Mを計算することで、数値安定性を向上させることも可能である。
また、瞳に限らず、非剛体運動をすると考えられるような特徴点(例えば口端など)を除いて射影行列Mを計算しても構わないし、例えば両口端点をそのまま使う代わりに、より変形に対して安定な口端点の重心などに変換した後に射影行列Mを計算しても構わない。なお、非剛体運動をすると考えられるような特徴点とは、対応付け処理において3次元顔モデルを拡大、縮小、回転させるだけでは表現できない、または大きな誤差が生じる可能性のある特徴点をいう。
これにより、3次元顔モデルで表現できない非剛体な変形誤差を抑制し、より安定に視線方向を推定することが可能となる。
(3)変更例3
変更例3について説明する。
第1の実施形態では、視線方向は、視線推定部20において変換部18で求めた顔モデル上の瞳座標(x,y,z)と眼球中心(a,b,c)を結ぶ直線により計算していたが、それ以外の方法によっても視線方向を推定することは可能である。
例えば、顔モデル(3次元眼球モデル)上の任意の座標における法線ベクトルは3次元形状から簡単に計算することができるため、瞳座標(x,y,z)における法線ベクトルも計算可能である。この瞳座標における法線ベクトルの向きを視線方向とすることもできる。また、顔モデル上の法線ベクトルを予め計算しておき、テーブルなどに保存しておくことで、高速に視線方向を推定することも可能である。
また、顔モデル上の瞳座標(x,y,z)と正視状態の瞳座標の距離によって視線方向を推定することも可能である。検出された瞳座標と、正視状態における瞳座標との距離が大きければ大きいほど視線方向の角度は大きくなり、逆に距離が小さくなれば正視状態に近くなり視線方向の角度は小さくなる。
また、顔モデル上の瞳座標と正視状態の瞳座標の2点を結ぶ直線の角度から、視線の向きを求めることができる。この向きと上述の角度の大きさを組み合わせることで、3次元的な視線方向を求めることが可能である。これらの視線方向推定方法は、3次元眼球モデルの中心座標を用いなくても計算可能である。そのため、顔・3次元眼球モデルの持つ情報量や、要求される処理速度に応じて好適な視線方向推定方法を選択することも可能であるし、複数の方法により得られた視線方向推定結果を組み合わせることにより、より高精度に視線方向を推定することも可能である。
本発明の第1の実施形態に係わる視線検出装置の構成を示すブロック図である。 抽出された特徴点と基準特徴点の関係図である。 視線ベクトルの計算に関する概念図である。 本発明の第2の実施形態に係わるの視線検出装置の構成を示すブロック図である。 視線方向による注視候補選択の図である。
符号の説明
10 視線検出装置
12 画像入力部
14 特徴点検出部
16 3次元顔モデル保持部
18 変換部
20 視線推定部

Claims (14)

  1. 入力された1枚の画像中の顔から瞳を含む同一平面上に存在しない4点以上の画像特徴点を抽出する特徴点検出部と、
    少なくとも一つの3次元顔モデル、前記3次元顔モデル上で前記画像特徴点にそれぞれ対応する基準特徴点の座標及び前記3次元顔モデル上の眼球に関する3次元眼球モデルを記憶する3次元顔モデル保持部と、
    前記画像特徴点と前記基準特徴点の間の対応関係に基づいて、前記画像特徴点の一つである瞳座標を3次元顔モデルの表面へ変換する変換部と、
    前記3次元眼球モデルと、前記変換した瞳座標に基づいて3次元的な視線方向を推定する視線推定部と、
    を有し、
    前記3次元眼球モデルは、前記3次元顔モデルにおける眼球の中心座標を含み、
    前記視線推定部は、前記3次元眼球モデルの中心座標と、前記変換した瞳座標に基づいて前記視線方向を推定し、
    前記変換部は、前記画像特徴点と前記基準特徴点との間の射影行列を計算し、前記射影行列を用いて前記画像上の瞳座標を前記3次元顔モデルの表面上へ変換する、
    ことを特徴とする視線検出装置。
  2. 前記視線推定部は、前記眼球の中心座標と、前記変換した瞳座標を結ぶ直線により前記視線方向を推定する、
    請求項1記載の視線検出装置。
  3. 前記3次元眼球モデルは、前記3次元顔モデルの正視状態における瞳座標を含み、
    前記視線推定部は、前記正視状態における瞳座標と、前記変換した瞳座標に基づいて前記視線方向を推定する、
    請求項1記載の視線検出装置。
  4. 前記3次元的な視線方向に基づいて、3次元空間内に予め定義された注視候補領域から注視領域を選択する注視領域選択部を有する、
    請求項1記載の視線検出装置。
  5. 前記変換部は、前記瞳の画像特徴点以外の前記画像特徴点と前記基準特徴点に基づいて前記対応関係を計算する、
    請求項1記載の視線検出装置。
  6. 前記変換部は、前記瞳以外の前記画像特徴点と対応する前記基準特徴点、及び、前記瞳の画像特徴点の間の重心に基づいて前記対応関係を計算する、
    請求項1記載の視線検出装置。
  7. 入力された1枚の画像中の顔から瞳を含む同一平面上に存在しない4点以上の画像特徴点を抽出する特徴点検出部と、
    少なくとも一つの3次元顔モデル、前記3次元顔モデル上で前記画像特徴点にそれぞれ対応する基準特徴点の座標及び前記3次元顔モデル上の眼球に関する3次元眼球モデルを記憶する3次元顔モデル保持部と、
    前記画像特徴点と前記基準特徴点の間の対応関係に基づいて、前記画像特徴点の一つである瞳座標を3次元顔モデルの表面へ変換する変換部と、
    前記3次元眼球モデルと、前記変換した瞳座標に基づいて3次元的な視線方向を推定する視線推定部と、
    を有し、
    前記3次元顔モデル保持部は、複数の3次元顔モデルを保持しており、
    前記変換部は、前記変換された画像特徴点と前記基準特徴点との誤差を計算し、前記画像上の顔と前記各3次元顔モデルのそれぞれの対応関係の信頼度を計算し、
    前記視線推定部は、前記信頼度が最も高い3次元顔モデルを選択し、前記選択した3次元顔モデルに基づいて前記視線方向を検出する、
    ことを特徴とする視線検出装置。
  8. 入力された1枚の画像中の顔から瞳を含む同一平面上に存在しない4点以上の画像特徴点を抽出する特徴点検出ステップと、
    少なくとも一つの3次元顔モデル、前記3次元顔モデル上で前記画像特徴点にそれぞれ対応する基準特徴点の座標及び前記3次元顔モデル上の眼球に関する3次元眼球モデルを記憶する3次元顔モデル保持ステップと、
    前記画像特徴点と前記基準特徴点の間の対応関係に基づいて、前記画像特徴点の一つである瞳座標を3次元顔モデルの表面へ変換する変換ステップと、
    前記3次元眼球モデルと、前記変換した瞳座標に基づいて3次元的な視線方向を推定する視線推定ステップと、
    を有し、
    前記3次元眼球モデルは、前記3次元顔モデルにおける眼球の中心座標を含み、
    前記視線推定ステップにおいて、前記3次元眼球モデルの中心座標と、前記変換した瞳座標に基づいて前記視線方向を推定し、
    前記変換ステップにおいて、前記画像特徴点と前記基準特徴点との間の射影行列を計算し、前記射影行列を用いて前記画像上の瞳座標を前記3次元顔モデルの表面上へ変換する、
    ことを特徴とする視線検出方法。
  9. 前記視線推定ステップにおいて、前記眼球の中心座標と、前記変換した瞳座標を結ぶ直線により前記視線方向を推定する、
    請求項8記載の視線検出方法。
  10. 前記3次元眼球モデルは、前記3次元顔モデルの正視状態における瞳座標を含み、
    前記視線推定ステップにおいて、前記正視状態における瞳座標と、前記変換した瞳座標に基づいて前記視線方向を推定する、
    請求項8記載の視線検出方法。
  11. 前記3次元的な視線方向に基づいて、3次元空間内に予め定義された注視候補領域から注視領域を選択する注視領域選択部を有する、
    請求項8記載の視線検出方法。
  12. 前記変換ステップにおいて、前記瞳の画像特徴点以外の前記画像特徴点と前記基準特徴点に基づいて前記対応関係を計算する、
    請求項8記載の視線検出方法。
  13. 前記変換ステップにおいて、前記瞳以外の前記画像特徴点と対応する前記基準特徴点、及び、前記瞳の画像特徴点の間の重心に基づいて前記対応関係を計算する、
    請求項8記載の視線検出方法。
  14. 入力された1枚の画像中の顔から瞳を含む同一平面上に存在しない4点以上の画像特徴点を抽出する特徴点検出ステップと、
    少なくとも一つの3次元顔モデル、前記3次元顔モデル上で前記画像特徴点にそれぞれ対応する基準特徴点の座標及び前記3次元顔モデル上の眼球に関する3次元眼球モデルを記憶する3次元顔モデル保持ステップと、
    前記画像特徴点と前記基準特徴点の間の対応関係に基づいて、前記画像特徴点の一つである瞳座標を3次元顔モデルの表面へ変換する変換ステップと、
    前記3次元眼球モデルと、前記変換した瞳座標に基づいて3次元的な視線方向を推定する視線推定ステップと、
    を有し、
    前記3次元顔モデル保持ステップにおいて、複数の3次元顔モデルを保持しており、
    前記変換ステップにおいて、前記変換された画像特徴点と前記基準特徴点との誤差を計算し、前記画像上の顔と前記各3次元顔モデルのそれぞれの対応関係の信頼度を計算し、
    前記視線推定ステップにおいて、前記信頼度が最も高い3次元顔モデルを選択し、前記選択した3次元顔モデルに基づいて前記視線方向を検出する、
    ことを特徴とする視線検出方法。
JP2007030670A 2007-02-09 2007-02-09 視線検出装置及びその方法 Active JP4829141B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007030670A JP4829141B2 (ja) 2007-02-09 2007-02-09 視線検出装置及びその方法
US12/019,027 US8107688B2 (en) 2007-02-09 2008-01-24 Gaze detection apparatus and the method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007030670A JP4829141B2 (ja) 2007-02-09 2007-02-09 視線検出装置及びその方法

Publications (2)

Publication Number Publication Date
JP2008194146A JP2008194146A (ja) 2008-08-28
JP4829141B2 true JP4829141B2 (ja) 2011-12-07

Family

ID=39685849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007030670A Active JP4829141B2 (ja) 2007-02-09 2007-02-09 視線検出装置及びその方法

Country Status (2)

Country Link
US (1) US8107688B2 (ja)
JP (1) JP4829141B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458104A (zh) * 2019-08-12 2019-11-15 广州小鹏汽车科技有限公司 人眼视线检测系统的人眼视线方向确定方法和系统
US11232585B2 (en) 2016-10-31 2022-01-25 Nec Corporation Line-of-sight estimation device, line-of-sight estimation method, and program recording medium

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100565583C (zh) * 2004-11-12 2009-12-02 欧姆龙株式会社 人脸特征点检测装置、特征点检测装置
JP4093273B2 (ja) * 2006-03-13 2008-06-04 オムロン株式会社 特徴点検出装置、特徴点検出方法および特徴点検出プログラム
US7516572B2 (en) * 2006-12-01 2009-04-14 En-Cheng Yang Method of preventing and controlling insect pests
JP2010134489A (ja) * 2008-12-02 2010-06-17 Omron Corp 視線検出装置および方法、並びに、プログラム
JP2010217955A (ja) * 2009-03-13 2010-09-30 Omron Corp 検出装置、評価装置および方法、並びに、プログラム
JP5106459B2 (ja) 2009-03-26 2012-12-26 株式会社東芝 立体物判定装置、立体物判定方法及び立体物判定プログラム
WO2011030263A1 (en) * 2009-09-11 2011-03-17 Koninklijke Philips Electronics N.V. Image processing system
JP2011090466A (ja) * 2009-10-21 2011-05-06 Sony Corp 情報処理装置及び方法、並びにプログラム
JP5578603B2 (ja) * 2009-12-04 2014-08-27 国立大学法人佐賀大学 視線制御装置、視線制御方法、及びそのプログラム
CN101815174B (zh) * 2010-01-11 2015-03-04 北京中星微电子有限公司 摄像控制方法及控制装置
US9595127B2 (en) * 2010-12-22 2017-03-14 Zspace, Inc. Three-dimensional collaboration
JP5765015B2 (ja) * 2011-03-30 2015-08-19 富士通株式会社 視線検出装置、視線検出方法および視線検出プログラム
FR2980681A3 (fr) * 2011-09-29 2013-04-05 Fittingbox Procede de determination des mesures oculaires et optiques d'interet pour la fabrication et le montage de verre de lunettes correcteurs, a l'aide d'une camera en contexte non controle
US8879801B2 (en) * 2011-10-03 2014-11-04 Qualcomm Incorporated Image-based head position tracking method and system
US10009579B2 (en) * 2012-11-21 2018-06-26 Pelco, Inc. Method and system for counting people using depth sensor
KR20140090538A (ko) * 2013-01-09 2014-07-17 삼성전자주식회사 디스플레이 장치 및 제어 방법
US9921648B2 (en) * 2013-02-22 2018-03-20 University Of Seoul Industry Cooperation Foundation Apparatuses, methods and recording medium for control portable communication terminal and its smart watch
CN104978548B (zh) * 2014-04-02 2018-09-25 汉王科技股份有限公司 一种基于三维主动形状模型的视线估计方法与装置
KR102212209B1 (ko) 2014-04-10 2021-02-05 삼성전자주식회사 시선 추적 방법, 장치 및 컴퓨터 판독가능한 기록 매체
JP2016057906A (ja) * 2014-09-10 2016-04-21 国立研究開発法人産業技術総合研究所 視点位置の計測方法及び計測システム
KR101628543B1 (ko) * 2014-11-26 2016-06-08 현대자동차주식회사 시선추적장치 및 그의 추적정확도 측정방법
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
FR3060170B1 (fr) * 2016-12-14 2019-05-24 Smart Me Up Systeme de reconnaissance d'objets base sur un modele generique 3d adaptatif
TW201901529A (zh) * 2017-05-22 2019-01-01 宏達國際電子股份有限公司 眼球追蹤方法、電子裝置及非暫態電腦可讀取記錄媒體
US10254832B1 (en) * 2017-09-28 2019-04-09 Microsoft Technology Licensing, Llc Multi-item selection using eye gaze
CN108345848A (zh) * 2018-01-31 2018-07-31 广东欧珀移动通信有限公司 用户注视方向识别方法及相关产品
JP7152651B2 (ja) * 2018-05-14 2022-10-13 富士通株式会社 プログラム、情報処理装置、及び情報処理方法
US11733824B2 (en) * 2018-06-22 2023-08-22 Apple Inc. User interaction interpreter
CN109389069B (zh) * 2018-09-28 2021-01-05 北京市商汤科技开发有限公司 注视点判断方法和装置、电子设备和计算机存储介质
TWI704473B (zh) * 2018-11-16 2020-09-11 財團法人工業技術研究院 視線向量偵測方向與裝置
CN111985384A (zh) * 2020-08-14 2020-11-24 深圳地平线机器人科技有限公司 获取脸部关键点的3d坐标及3d脸部模型的方法和装置
CN112288855A (zh) * 2020-10-29 2021-01-29 张也弛 一种操作者眼睛注视模型的建立方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6992665B2 (en) * 2000-03-29 2006-01-31 Minolta Co., Ltd. Method and device for fitting surface to point group, modeling device, and computer program
JP4055858B2 (ja) * 2000-07-28 2008-03-05 独立行政法人産業技術総合研究所 視線検出システム
JP2002274265A (ja) * 2001-03-22 2002-09-25 Honda Motor Co Ltd ミラー調整装置
JP3790680B2 (ja) * 2001-05-25 2006-06-28 株式会社東芝 画像処理システム及びこれを用いた運転支援システム
JP4140399B2 (ja) * 2003-02-27 2008-08-27 トヨタ自動車株式会社 視線方向検出装置および視線方向検出方法
JP4653606B2 (ja) * 2005-05-23 2011-03-16 株式会社東芝 画像認識装置、方法およびプログラム
JP4774818B2 (ja) * 2005-06-07 2011-09-14 トヨタ自動車株式会社 画像処理装置及び画像処理方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11232585B2 (en) 2016-10-31 2022-01-25 Nec Corporation Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
US11232586B2 (en) 2016-10-31 2022-01-25 Nec Corporation Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
US11232584B2 (en) 2016-10-31 2022-01-25 Nec Corporation Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
CN110458104A (zh) * 2019-08-12 2019-11-15 广州小鹏汽车科技有限公司 人眼视线检测系统的人眼视线方向确定方法和系统

Also Published As

Publication number Publication date
US20080192990A1 (en) 2008-08-14
JP2008194146A (ja) 2008-08-28
US8107688B2 (en) 2012-01-31

Similar Documents

Publication Publication Date Title
JP4829141B2 (ja) 視線検出装置及びその方法
JP4950787B2 (ja) 画像処理装置及びその方法
JP4653606B2 (ja) 画像認識装置、方法およびプログラム
JP5812599B2 (ja) 情報処理方法及びその装置
JP3962803B2 (ja) 頭部検出装置、頭部検出方法および頭部検出プログラム
US10140777B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
WO2009091029A1 (ja) 顔姿勢推定装置、顔姿勢推定方法、及び、顔姿勢推定プログラム
JP5159950B2 (ja) 画像処理装置、方法、プログラム
JP2020526845A (ja) 姿勢変動に頑健な顔位置調整のためのシステム及び方法
KR101612605B1 (ko) 얼굴 특징점 추출 방법 및 이를 수행하는 장치
CN113366491B (zh) 眼球追踪方法、装置及存储介质
JP6207210B2 (ja) 情報処理装置およびその方法
JPWO2006049147A1 (ja) 三次元形状推定システム及び画像生成システム
CN114742863A (zh) 具有滑动检测和校正功能的方法和装置
JP2019096113A (ja) キーポイントデータに関する加工装置、方法及びプログラム
JPWO2018189795A1 (ja) 認識装置、認識方法および認識プログラム
US11676362B2 (en) Training system and analysis system
JP2009003813A (ja) 手指形状推定装置及び手指形状推定方法、並びにプログラム
CN114333046A (zh) 舞蹈动作评分方法、装置、设备和存储介质
JP2010211732A (ja) 物体認識装置および方法
JP5448952B2 (ja) 同一人判定装置、同一人判定方法および同一人判定プログラム
WO2020144848A1 (ja) オーサリング装置、オーサリング方法、及びオーサリングプログラム
JP2019046096A (ja) 情報処理装置及びその方法
JP5688514B2 (ja) 視線計測システム、方法およびプログラム
JP2018200175A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110915

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4829141

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350