JP4921486B2 - 視覚的に頭と目を追跡するシステムにおける眼鏡の視覚的追跡 - Google Patents

視覚的に頭と目を追跡するシステムにおける眼鏡の視覚的追跡 Download PDF

Info

Publication number
JP4921486B2
JP4921486B2 JP2008542562A JP2008542562A JP4921486B2 JP 4921486 B2 JP4921486 B2 JP 4921486B2 JP 2008542562 A JP2008542562 A JP 2008542562A JP 2008542562 A JP2008542562 A JP 2008542562A JP 4921486 B2 JP4921486 B2 JP 4921486B2
Authority
JP
Japan
Prior art keywords
face
glasses
head
image
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008542562A
Other languages
English (en)
Other versions
JP2009517745A (ja
Inventor
ヨッヘン・ハインツマン
グラント・グラッブ
デニス・テル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seeing Machines Ltd
Original Assignee
Seeing Machines Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2005906710A external-priority patent/AU2005906710A0/en
Application filed by Seeing Machines Ltd filed Critical Seeing Machines Ltd
Publication of JP2009517745A publication Critical patent/JP2009517745A/ja
Application granted granted Critical
Publication of JP4921486B2 publication Critical patent/JP4921486B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

本発明は、顔追跡の分野に関し、詳細には、顔追跡において眼鏡に関する情報を利用して優れた結果を生成するシステムを開示する。
技術システムの複雑さが高まるにつれて、そのような技術システムとオペレータとの対話にますます焦点が当てられるようになった。1つの重要な側面は、頭姿勢、注視方向、閉眼および表情などの顔パラメータの測定である。コンピュータビジョンが改良され、安価な計算機能力が利用可能になって、消費者用システムはそのような顔パラメータを測定できるようになった。
注視検出システムの例は、本願の譲受人に譲渡された「Facial Image
Processing System」と題する特許協力条約出願番号PCT/AU01/00249と、「Eye tracking system and method」と題するPCT/AU2004/000413に提案されたものであり、これらの内容は、相互参照により本明細書に組み込まれる。
一般に、そのような顔パラメータ測定システムでは、イメージセンサが利用され、オペレータに焦点が合わせられ、画像シーケンスから必要な情報をリアルタイムで取得する。そのような顔パラメータを測定する能力は、多数の用途を有し、多くの新しい用途が次々と作り出されている。
ヒューマンマシンインタフェース(HMI)設計などの分野では、システム自体の設計を最適化するために、システムとオペレータの対話を測定することが極めて望ましい。その一例は、自動車運転席とナビゲーションシステムなどの補助装置の設計である。この場合、システムから運転者に提供される大量の情報によって、運転者が、当初の追跡タスクから気を反らさないようにすることが極めて重要である。開発者達はしばしば、ユーザが、特定の情報を取得するかまたは特定のタスクを実行するために制御盤をどれくらいの頻度でどれくらい長い時間見るかを測定する。次に、このデータを使用してHMIのレイアウトを最適化する。
他のシステムでは、ユーザの顔パラメータの測定がシステム自体の動作の一部であることもある。例えば、顔パラメータから疲労および注意散漫情報を導出する自動車運転者支援システムがある。疲労が関心対象となる他の分野は、航空管制、軍事任務管制、プラント制御、採鉱と石油探査での重機制御、海上や航空などの他の輸送形態での重機制御などの技術システムの操作がある。
頭と注視の追跡システムは、今日、障害者のパーソナルコンピュータ入力装置としても使用されている。パーソナルコンピュータに対するインタフェースが発展するにつれて、頭と注視の追跡は、コンピュータキーボードやマウスと同じくらい広範に分布する(ユビキタスになる)可能性がある。既に、頭と目の追跡システムを使用するコンピュータゲームおよびチャットルームでは、ユーザにコンピュータアバターの顔を制御させるシステムが利用できるようになっている。
頭と顔の追跡は、また、生物測定学的顔認識システムに有力な用途を有する。認識に適したカメラビューの局所化と識別は、顔認識システムの基本的な機能であり、特に、認識される人が、典型的な「人混みの中にある顔」の認識に使用される場合のように、システムと協力しないときに重要である。
正確な顔追跡システムは、ユーザが眼鏡をかけている場合には特別な問題に直面し、適切に動作できないことがある。
本発明の目的は、眼鏡などが存在する状態の顔追跡の改善された形態を提供することである。
本発明の第1の態様によれば、顔追跡システムにおいて、顔特徴を追跡する方法が提供され、この方法は、(a)眼鏡のリム、フレームまたはつるが、追跡する顔の一部を構成するかどうかを判定し、(b)リム、フレームまたはつるが構造の一部を形成する場合に、リム、フレームまたはつるを利用して顔特徴を追跡する行程を含む。
この方法は、眼鏡のフレーム、リムまたはつるの外観を利用して、眼鏡フレームまたは頭/顔の二次元位置または三次元姿勢を追跡する。この方法は、眼鏡のフレーム、リムまたはつるの外観から得られた二次元画像位置または三次元姿勢を利用して、他の顔特徴または頭の二次元画像位置または三次元姿勢を全体として追跡することが好ましい。顔画像を更に処理するために、眼鏡の二次元画像位置または三次元姿勢を利用して、眼鏡のフレーム、リム、つるまたはレンズによって覆われた画像領域を除去し、除外し、または重み付けすることが好ましい。眼鏡のリムまたはフレームあるいはフレームのつるによって生成される画像内のエッジを使用して、眼鏡の二次元画像位置または三次元姿勢の位置を追跡することが好ましい。眼鏡のリムまたはフレームの二次元または三次元形状モデルを利用して、眼鏡の二次元画像位置または三次元姿勢を追跡することができる。
本発明の更に他の態様によれば、顔または顔特徴追跡システムの一部として眼鏡のフレーム、リムまたはつるの外観を使用する顔または顔特徴追跡システムが提供される。
本発明の更に他の態様によれば、眼鏡のフレーム、リムまたはつるの外観を利用して、眼鏡フレームまたは頭/顔の二次元画像位置または三次元姿勢を追跡する顔または顔特徴追跡システムが提供される。
本発明の更に他の態様によれば、顔画像処理方法が提供され、この方法は、(a)顔画像を更に処理するために、眼鏡の二次元画像位置または三次元姿勢を追跡して眼鏡のフレーム、リム、つるまたはレンズによって覆われた画像領域を除去し、除外しまたは重み付けする行程を含む。
本発明の更に他の態様によれば、現在の入力画像シーケンスで顔上の眼鏡フレームを追跡する方法が提供され、この方法は、画像のトレーニングデータベースを利用して対象上の眼鏡の第1の例示的構造情報を導出する行程と、前記第1の例示的構造情報の主成分分析を利用して、一連のパラメータ値を含む構造情報の発生モデルを導出する行程と、現在の入力画像シーケンスのために、初期セットのパラメータ値とそれにより生成される対応する初期モデルを導出する行程と、初期モデルを現在の入力画像と比較してその違いの程度を導出する行程と、違いの程度を最小化するようにパラメータ値を変更する行程とを備える。
一実施形態では、第1の例示的構造情報は、眼鏡の三次元輪郭情報を含む。構造情報は、前記輪郭情報の一連の制御点を含み、前記制御点に基づいて主成分分析を行うことができる。この比較は、二次元空間上の初期モデルの投影と、入力画像のエッジ検出フィルタバージョンとの間に行うことができる。最小化は、レーベンバーグ・マルカート法の最小化を利用して行うことができる。
以下に、本発明の好ましい形態を添付図面と関連して説明する。
視覚的な顔および顔特徴追跡システムは、一般に、目、目尻、口、鼻孔などの顔の多くの特徴を識別し、これらの特徴や他の顔特徴を追跡して、頭、目または瞼の位置を識別する。
眼鏡の外観は他の顔特徴と異なるので、眼鏡のフレームは、一般に、これらのシステムの問題となる。顔の生来の特徴は、ほぼ平面であり、特徴の中心点近くの局所的外観によってモデル化することができるが、眼鏡のフレームは、顔の前の数ミリメートルから2センチメートルの間のどこかに配置された比較的細いリムによって生成される。顔が回転するとき、眼鏡のフレーム上の点のすぐ後ろに見える顔の部分が変化し、極めて構造化されている目の部分では、フレーム上またはそのまわりの特徴の局所的外観がかなり変化する。フレーム近くの特徴部分は、フレームのリムによって部分的に隠されることがあり、その識別と追跡が困難になる。また、フレームの反射によるフレーム自体上のハイライトによって、フレーム上のポイントの追跡が困難になる。
好ましい実施形態では、眼鏡のリムによって生じる画像特徴が、顔追跡を妨げるのではなく顔追跡を支援するために利用される。これは、眼鏡の外観をモデル化することによって達成される。これには2つの大きな利点がある。第1に、眼鏡の位置を追跡することによって、他の顔特徴の位置の追跡を強化することができ、第2に、眼鏡のリムがある画像位置を局所化することによって、リムの後ろの特徴、虹彩や瞳位置などの目自体の最も重要な特徴、目または網膜の表面の反射、および目を瞼が覆っている割合の情報を抽出するために、それらの位置を予め考慮することができる。
以下の説明では、「姿勢」は、三次元ユークリッド変換を指す。
好ましい実施形態の行程は、適切にプログラムされたコンピュータ上で実施することができ、図1に示されている。
好ましい実施形態は、発生モデルの開発を使用して進めることができる。このモデルでは、最初に、行程1で、実例のトレーニングセットが提供される。トレーニングセットは、様々なタイプの眼鏡フレームを使用するユーザの多数の実例から成ることができる。各モデルごとに、行程2で、実際の眼鏡の三次元輪郭図を抽出することができ、この三次元輪郭図は、眼鏡のリムとつるを含む。
次に、カメラ投影モデルが既知であると仮定すると、ビデオのフレーム内の眼鏡の外観の完全なモデルが、眼鏡の発生形状モデルと姿勢のパラメータによって提供される。
行程3で、主成分分析(PCA)を使用して発生モデルを作成することができる。トレーニングデータベース内の各眼鏡フレームの輪郭は、N個の三次元制御点g=(x,y,z)、p=1…Nに離散(discretised)される。PCAは、データベース内のフレーム輪郭の離散的収集に適用される。PCA法によれば、第1のK個の固有ベクトルは、眼鏡フレームの形状を表わす低次元パラメータモデルを形成するように選択される。NとKは、追跡性能を最適化するために試行錯誤法によって選択することができる。一例では、N=40、K=16である。平均形状は、gによって表わされ、選択された固有ベクトルgは、主変形モード(main modes of variation)を含む。
また、トレーニングセットからは、トレーニングセットで形状をモデル化する各固有ベクトルの標準偏差δが得られる。これらの標準偏差は、変形スケールパラメータλを3つの標準偏差−3δ≦λ≦3δに制限するために使用される。それにより、スケールパラメータセットΛ=(λ…λ16)が、所定の眼鏡フレームの形状をモデル化する。
選択された固有ベクトルgは、適切な形状パラメータλを選択することによってすべての適切な眼鏡形状の提案された発生モデルの基準となる。
PCAの結果は、平均形状gと主変形モードgを提供する。次に、新しく遭遇した眼鏡のフレームの形状を平均形状と変形モードの一次結合としてモデル化することができる。
Figure 0004921486
平均形状と主変形モードは、すべての適切な眼鏡形状のモデルを有効に構成する。本発明の実施例では、最初の16個の固有ベクトルgが使用され、従ってE=[1…16]になる。
次に、眼鏡フレームの三次元モデルを追跡のために使用する。好ましい実施形態では、眼鏡トラッカ(glasses tracker)は、先行技術に開示されているような特徴に基づく頭トラッカ(head tracker)と一体化される。しかしながら、眼鏡トラッカは、他のトラッカに一体化されてもよく、単独で使用されてもよい。
形状パラメータλは、確率的手段または任意の手段によって適切に制限されてもよい。当業者は、推定制御点を設定する際に、物理モデルなどの他のモデリング技術も適切であることを理解するであろう。
眼鏡フレームのモデル化された近似は、形状パラメータと三次元姿勢パラメータによって決定される。三次元姿勢パラメータは、次の式で表される。
Figure 0004921486
この式は、同種の変換マトリクスの形で組み合わされた回転マトリクスR3x3と並進ベクトルT3x1を含む。眼鏡トラッカは、生成された形状モデルの輪郭が、画像に見られるエッジ(即ち、高空間勾配点)にどれだけよく適合するかの基準を使用する。1組の形状パラメータλと姿勢パラメータhが提供された場合、予測された画像エッジと実際の画像エッジの位置の違いによって、トラッカは、より良く適合するようにパラメータを調整することができる。
所定の入力画像の場合、顔に対する眼鏡の姿勢が一定であるか、場合によっては平均値の近くで変化していると仮定すると、最初に形状パラメータと姿勢パラメータが変化できるようにすることによって眼鏡トラッカをブートストラップすることができる。眼鏡形状の確実な推定と顔に対する眼鏡の姿勢が決定されたらすぐに、対応する形状パラメータを固定したままにして、眼鏡と顔の組み合わせ姿勢パラメータだけを変化させることができる。
ビデオ画像から形状パラメータと姿勢パラメータを決定するために、眼鏡トラッカは、生成された形状モデルの輪郭が、画像内に見られるエッジ(即ち、高空間勾配強度点)とどれだけよく適合するかの基準を使用することができる。1組の形状パラメータと姿勢パラメータが提供された場合、予測された画像エッジと実際の画像エッジの位置の違いにより、トラッカは、よりよく適合するようにパラメータを調整することができる。詳細には、各ビデオ画像内の費用関数を最小にすることによって追跡が進む。
最小化は、姿勢パラメータと形状パラメータに関して行われ、非線形最小二乗勾配降下法、例えば、周知のレーベンバーグ・マルカート法を使用して実行される。最小化する費用関数は、眼鏡モデル輪郭点から最高画像輝度勾配点までの距離の2乗の和でよい。費用関数を計算するために、行程4で、姿勢パラメータと形状パラメータの現在の推定値を使用して眼鏡モデルが画像に投影される。投影されたモデルの輪郭に沿った各点ごとに、画像輝度エッジが、モデル輪郭と垂直な線に沿って検出される。一定半径内にある最も強いエッジが選択され、そのエッジまでの距離が測定される。次に、費用関数は、そのような距離の2乗の合計である。行程5で、各ビデオ画像内で費用関数が局所的最小値に集束するまで、最小化を実行することができる。行程5において、ビデオシーケンスの追跡は、現在の画像内の出発点として前の画像からの最適化されたパラメータを使用することによって達成される。
例示的実施形態では、画像とモデルの適合性の基準を得るために以下のプロセスが使用される。最初に、ソース画像の二値化エッジ画像Eを計算する。好ましい実施形態では、エッジは、周知のCannyエッジ検出器を使用して認識される。第2の行程で、PCAモデルの形状パラメータ表示Λを選択し、三次元姿勢hを選択し次に得られた三次元制御点を画像に投影する行程によって、眼鏡モデルの制御点Gが二値画像に投影され、その結果、二次元ベクトルg =(x ,y )が得られる。各制御点g ごとに、エッジ画像E内の制御点とクローズエッジ画素との間のユークリッド距離Δ が計算される。
次に、眼鏡の適合のみを追跡する測定基準が、次のように計算される。
Figure 0004921486
レーベンバーグ・マルカート法の最小化を使用して、姿勢問題と形状問題の組み合わせに対する解決策としてhとΛの最適な組み合わせを計算することができる。
本発明の例示的実施形態では、眼鏡トラッカの解決策を、顔または顔特徴トラッカに組み込むことができる。眼鏡トラッカを、先行技術に開示されているような、特徴に基づく頭トラッカと一体化するために、好ましい実施形態は、1組の顔特徴Mの1組の顔特徴点f,m∈Mの距離を測定基準に加える。顔特徴はそれぞれ、テンプレート相関によって各フレーム内に配置され、その結果画像位置f が測定される。眼鏡制御点の距離に加えて、測定された点f と投影点f (h)の間のユークリッド距離として、想定された頭姿勢hの距離Δ が計算される。頭姿勢hの他に、頭に対する眼鏡の姿勢hを推定しなければならない。
次に、レーベンバーグ・マルカート法は、全体の最良の頭姿勢を次のように計算する。
Figure 0004921486
顔に対する眼鏡の姿勢hが一定かまたは場合によっては平均値の近くでゆっくりと変化すると仮定すると、最初に形状パラメータΛと姿勢パラメータh,hが変化できるようにすることによって、眼鏡トラッカをブートストラップすることができる。眼鏡形状の確実な推定値Λと顔に対する眼鏡の姿勢hが決定されたらすぐに、対応するパラメータを一定に保持し、眼鏡と顔の組み合わされた姿勢パラメータhだけを変化させることができる。
モデルを開発する際、システムは、理想的には、ビデオ入力機能を有するコンピュータシステム上で実現される。図2に、システム例を概略的に示す。ビデオ入力10は、前述の方法を使用して顔を連続的に追跡するコンピュータシステム11に入力され、結果は、ディスプレイ12上に出力される。
以上は、本発明の好ましい形態を示す。本発明の範囲から逸脱することなく、当業者に明らかな修正を行うことができる。
本発明の好ましい実施形態の方法の行程を示す図である。 本発明の好ましい実施形態の動作環境を示す図である。
符号の説明
10 ビデオカメラ
11 コンピュータシステム
12 ディスプレイ

Claims (16)

  1. /頭を追跡するように構成された追跡システムにおいて、前記顔/頭の顔特徴を追跡する方法であって、
    (a)眼鏡のリム、フレームまたはつるが、前記顔/頭上に存在するかどうかを判定する行程と、
    (b)前記リム、フレームまたはつるが前記顔/頭上に存在する場合に、前記リム、フレームまたはつるの外観特徴判定し、判定された前記外観特徴によって、前記眼鏡または顔/頭の二次元画像位置または三次元姿勢測定値得る行程とを備え
    前記二次元画像位置または三次元姿勢測定値を得る行程が、分析を行い、眼鏡形状パラメータおよび眼鏡姿勢パラメータで定義される、眼鏡の三次元発生モデルの適合性を、前記顔/頭を含む連続的な入力画像の組へ徐々に最適化する行程を含む、顔/頭の顔特徴を追跡する方法。
  2. 前記眼鏡のフレーム、リムまたはつるの前記判定された外観特徴から得られた二次元画像位置または三次元姿勢測定値を利用して、前記顔の他の顔特徴の二次元画像位置または三次元姿勢を、または前記頭の二次元画像位置または三次元姿勢を全体として追跡する請求項1に記載の顔/頭の顔特徴を追跡する方法。
  3. 前記顔/頭を画像を更に処理するために、前記二次元画像位置または三次元姿勢測定値に基づいて、前記眼鏡のフレーム、リム、つるまたはレンズによって覆われた一以上の画像領域を除去し、除外し、あるいは重み付けする請求項1に記載の顔/頭の顔特徴を追跡する方法。
  4. 前記眼鏡のリムフレームまたはつるによって生成された前記画像内の一以上のエッジが、眼鏡の二次元画像位置または三次元姿勢の位置を追跡するために使用される請求項1に記載の顔/頭の顔特徴を追跡する方法。
  5. 前記眼鏡のリムまたはフレームの二次元または三次元形状モデルを利用して、前記二次元画像位置または三次元姿勢測定値得る請求項1に記載の顔/頭の顔特徴を追跡する方法。
  6. 前記眼鏡のリムまたはフレームの二次元または三次元発生モデルを利用して、前記二次元画像位置または三次元姿勢測定値得る請求項1に記載の顔/頭の顔特徴を追跡する方法。
  7. 顔/頭にかける眼鏡のフレーム、リムまたはつるの外観特徴が、顔または顔特徴追跡システムの一部として使用され
    分析を行い、眼鏡形状パラメータおよび眼鏡姿勢パラメータで定義される、眼鏡の三次元発生モデルの適合性を、前記顔/頭を含む連続的な入力画像の組へ徐々に最適化する行程を含む、
    顔または顔特徴追跡システム。
  8. 顔/頭にかける一対の眼鏡のフレーム、リムまたはつるの外観特徴判定し、前記一対の鏡または前記顔/頭の二次元画像位置または三次元姿勢を追跡する顔または顔特徴追跡システムであって、
    分析を行い、眼鏡形状パラメータおよび眼鏡姿勢パラメータで定義される、眼鏡の三次元発生モデルの適合性を、前記顔/頭を含む連続的な入力画像の組へ徐々に最適化する行程を含む、顔または顔特徴追跡システム
  9. 顔/頭にかける眼鏡のフレーム、リムまたはつるの外観特徴から得られた二次元画像位置または三次元姿勢測定を利用して、前記顔/頭の他の顔特徴または頭の二次元画像位置または三次元姿勢を追跡する顔または顔特徴追跡システムであって、
    前記二次元画像位置または三次元姿勢測定値を得る行程が、分析を行い、眼鏡形状パラメータおよび眼鏡姿勢パラメータで定義される、眼鏡の三次元発生モデルの適合性を、前記顔/頭を含む連続的な入力画像の組へ徐々に最適化する行程を含む、顔または顔特徴追跡システム
  10. (a)連続的な入力顔画像の組を示すデータを受信する行程と、
    (b)前記顔画像を更に処理するために、フレーム、リム、つるおよびレンズを備える、顔/頭にかける一対の眼鏡の二次元画像位置または三次元姿勢を前記顔画像内で追跡して、前記眼鏡のフレーム、リム、つるまたはレンズによって覆われた一以上の画像領域を除去し、除外し、または重み付けする行程を備え、前記二次元画像位置または三次元姿勢を追跡する行程が、分析を行い、眼鏡形状パラメータおよび眼鏡姿勢パラメータで定義される、眼鏡の三次元発生モデルの適合性を、前記入力画像へ徐々に最適化する行程を含む、
    顔画像処理方法。
  11. 力画像シーケンスで顔上の眼鏡フレームを追跡する方法であって、
    画像のトレーニングデータベースを利用して、対象上の眼鏡の三次元輪郭情報を導出する行程と、
    前記三次元輪郭情報の主成分分析を利用して前記三次元輪郭情報の一連のパラメータ値を含む三次元発生モデルを導出する行程と、
    記入力画像シーケンス初期入力画像のために、ラメータ値の初期セットそれにより生成される対応する初期発生モデルを導出し、前記初期発生モデルを前記入力画像シーケンスの前記初期入力画像と比較して違いの程度を導出し、前記違いの程度を最小にするようにパラメータ値を変更する行程と
    前記入力画像シーケンスの後続の入力画像のために、前記変更されたパラメータ値を利用し、パラメータ値の後続のセットと、それにより生成される対応する後続発生モデルを導出し、前記後続発生モデルを前記入力画像シーケンスの前記後続入力画像と比較して違いの程度を導出し、前記違いの程度を最小にするようにパラメータ値を変更する行程とを備える方法。
  12. 前記三次元輪郭情報、一連の制御点を含む請求項11に記載の方法。
  13. 前記主成分分析が、前記制御点に関して行なわれる請求項12に記載の方法。
  14. 前記比較が、二次元空間への初期モデルの投影と現在の入力画像のエッジ検出フィルタバージョンとの間で行われる請求項11に記載の方法。
  15. 前記最小化が、レーベンバーグ・マルカート型の最小化を含む請求項11に記載の方法。
  16. 前記眼鏡フレームの追跡を顔トラッカに組み込む行程を更に備える請求項11に記載の方法。
JP2008542562A 2005-11-30 2006-11-30 視覚的に頭と目を追跡するシステムにおける眼鏡の視覚的追跡 Expired - Fee Related JP4921486B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AU2005906710 2005-11-30
AU2005906710A AU2005906710A0 (en) 2005-11-30 Visual tracking of eye glasses in visual head and eye tracking systems
PCT/AU2006/001824 WO2007062478A1 (en) 2005-11-30 2006-11-30 Visual tracking of eye glasses in visual head and eye tracking systems

Publications (2)

Publication Number Publication Date
JP2009517745A JP2009517745A (ja) 2009-04-30
JP4921486B2 true JP4921486B2 (ja) 2012-04-25

Family

ID=38091807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008542562A Expired - Fee Related JP4921486B2 (ja) 2005-11-30 2006-11-30 視覚的に頭と目を追跡するシステムにおける眼鏡の視覚的追跡

Country Status (4)

Country Link
US (1) US8165347B2 (ja)
EP (1) EP1977374A4 (ja)
JP (1) JP4921486B2 (ja)
WO (1) WO2007062478A1 (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10039445B1 (en) 2004-04-01 2018-08-07 Google Llc Biosensors, communicators, and controllers monitoring eye movement and methods for using them
US8781162B2 (en) * 2011-01-05 2014-07-15 Ailive Inc. Method and system for head tracking and pose estimation
JP5024161B2 (ja) * 2008-03-31 2012-09-12 トヨタ自動車株式会社 顔位置推定装置
WO2010071928A1 (en) 2008-12-22 2010-07-01 Seeing Machines Limited Automatic calibration of a gaze direction algorithm from user behaviour
IT1397294B1 (it) * 2010-01-07 2013-01-04 3Dswitch S R L Dispositivo e metodo per il riconoscimento di occhiali per visione stereoscopica, e relativometodo di controllo della visualizzazione di un flusso video stereoscopico.
US8890946B2 (en) * 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
JP5025823B2 (ja) * 2011-01-07 2012-09-12 シャープ株式会社 立体画像表示装置及び立体視用眼鏡
WO2012097503A1 (zh) * 2011-01-18 2012-07-26 青岛海信信芯科技有限公司 一种立体显示的控制方法及装置
US8687840B2 (en) * 2011-05-10 2014-04-01 Qualcomm Incorporated Smart backlights to minimize display power consumption based on desktop configurations and user eye gaze
US8911087B2 (en) 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
US8885877B2 (en) 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
JP5839220B2 (ja) 2011-07-28 2016-01-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US9202265B2 (en) 2012-04-30 2015-12-01 Nikon Corporation Point spread function cost function with non-uniform weights
US9342948B2 (en) * 2012-09-12 2016-05-17 Bally Gaming, Inc. Head tracking in community wagering games
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US8856541B1 (en) 2013-01-10 2014-10-07 Google Inc. Liveness detection
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9852512B2 (en) 2013-03-13 2017-12-26 Electronic Scripting Products, Inc. Reduced homography based on structural redundancy of conditioned motion
US8970709B2 (en) * 2013-03-13 2015-03-03 Electronic Scripting Products, Inc. Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty
US9384383B2 (en) * 2013-09-12 2016-07-05 J. Stephen Hudgins Stymieing of facial recognition systems
DE102015202846B4 (de) 2014-02-19 2020-06-25 Magna Electronics, Inc. Fahrzeugsichtsystem mit Anzeige
US9454699B2 (en) * 2014-04-29 2016-09-27 Microsoft Technology Licensing, Llc Handling glare in eye tracking
WO2016028864A1 (en) 2014-08-22 2016-02-25 Intelligent Technologies International, Inc. Secure testing device, system and method
US10540907B2 (en) 2014-07-31 2020-01-21 Intelligent Technologies International, Inc. Biometric identification headpiece system for test taking
US9465991B2 (en) * 2014-08-11 2016-10-11 Microsoft Technology Licensing, Llc Determining lens characteristics
US10410535B2 (en) 2014-08-22 2019-09-10 Intelligent Technologies International, Inc. Secure testing device
KR101628493B1 (ko) * 2014-10-10 2016-06-21 현대자동차주식회사 안경 착용자의 시선 추적 장치 및 그 방법
US10438106B2 (en) 2014-11-04 2019-10-08 Intellignet Technologies International, Inc. Smartcard
US9405120B2 (en) 2014-11-19 2016-08-02 Magna Electronics Solutions Gmbh Head-up display and vehicle using the same
WO2016135078A1 (en) * 2015-02-23 2016-09-01 Fittingbox Process and method for real-time physically accurate and realistic-looking glasses try-on
US10324297B2 (en) 2015-11-30 2019-06-18 Magna Electronics Inc. Heads up display system for vehicle
US10678958B2 (en) 2015-12-28 2020-06-09 Intelligent Technologies International, Inc. Intrusion-protected memory component
WO2017130407A1 (ja) * 2016-01-29 2017-08-03 パイオニア株式会社 情報生成装置、情報生成方法、情報生成プログラム及び記録媒体
US10621418B2 (en) * 2016-02-18 2020-04-14 Mitsubishi Electric Corporation Passenger detection device, passenger detection system, and passenger detection method
US10401621B2 (en) 2016-04-19 2019-09-03 Magna Electronics Inc. Display unit for vehicle head-up display system
US9854968B2 (en) 2016-05-20 2018-01-02 International Business Machines Corporation Behind-eye monitoring using natural reflection of lenses
US11577159B2 (en) 2016-05-26 2023-02-14 Electronic Scripting Products Inc. Realistic virtual/augmented/mixed reality viewing and interactions
GB2559978A (en) * 2017-02-22 2018-08-29 Fuel 3D Tech Limited Systems and methods for obtaining eyewear information
CN110892452A (zh) * 2017-05-04 2020-03-17 Mim软件有限公司 用于预测性融合的系统和方法
WO2018225518A1 (ja) * 2017-06-07 2018-12-13 ソニー株式会社 画像処理装置、画像処理方法、プログラム、およびテレコミュニケーションシステム
CN109753850B (zh) * 2017-11-03 2022-10-25 富士通株式会社 面部识别模型的训练方法和训练设备
EP3699808B1 (en) 2017-11-14 2023-10-25 Huawei Technologies Co., Ltd. Facial image detection method and terminal device

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5016282A (en) * 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
US6819783B2 (en) * 1996-09-04 2004-11-16 Centerframe, Llc Obtaining person-specific images in a public venue
JP3459950B2 (ja) * 1997-04-30 2003-10-27 学校法人立命館 顔検出及び顔追跡方法並びにその装置
GB2333590A (en) * 1998-01-23 1999-07-28 Sharp Kk Detecting a face-like region
US6154559A (en) * 1998-10-01 2000-11-28 Mitsubishi Electric Information Technology Center America, Inc. (Ita) System for classifying an individual's gaze direction
JP4086422B2 (ja) * 1999-07-21 2008-05-14 日本放送協会 被写体認識装置
US6807290B2 (en) * 2000-03-09 2004-10-19 Microsoft Corporation Rapid computer modeling of faces for animation
US20020039111A1 (en) * 2000-06-27 2002-04-04 James Gips Automated visual tracking for computer access
AUPQ896000A0 (en) * 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
EP1239405A3 (en) * 2001-03-09 2004-05-19 Kabushiki Kaisha Toshiba Face image recognition apparatus
JP3970573B2 (ja) * 2001-10-19 2007-09-05 アルパイン株式会社 顔画像認識装置および方法
US7197165B2 (en) * 2002-02-04 2007-03-27 Canon Kabushiki Kaisha Eye tracking using image data
JP4151341B2 (ja) * 2002-08-02 2008-09-17 日産自動車株式会社 顔状態検出装置
US7391900B2 (en) * 2002-10-31 2008-06-24 Korea Institute Of Science And Technology Image processing method for removing glasses from color facial images
JP2005242428A (ja) * 2004-02-24 2005-09-08 Nissan Motor Co Ltd 運転者の顔画像撮影装置
US7578593B2 (en) * 2006-06-01 2009-08-25 Delphi Technologies, Inc. Eye monitoring method with glare spot shifting
US7370970B2 (en) * 2006-06-14 2008-05-13 Delphi Technologies, Inc. Eyeglass detection method

Also Published As

Publication number Publication date
JP2009517745A (ja) 2009-04-30
US20080285801A1 (en) 2008-11-20
WO2007062478A1 (en) 2007-06-07
EP1977374A4 (en) 2012-09-05
EP1977374A1 (en) 2008-10-08
US8165347B2 (en) 2012-04-24

Similar Documents

Publication Publication Date Title
JP4921486B2 (ja) 視覚的に頭と目を追跡するシステムにおける眼鏡の視覚的追跡
KR102204810B1 (ko) 안경테를 가상으로 조정하기 위한 방법, 장치 및 컴퓨터 프로그램
JP3962803B2 (ja) 頭部検出装置、頭部検出方法および頭部検出プログラム
CN106796449B (zh) 视线追踪方法及装置
US9864430B2 (en) Gaze tracking via eye gaze model
KR102056333B1 (ko) 안경 렌즈 에지의 표시를 설정하기 위한 방법 및 장치 및 컴퓨터 프로그램
EP3413234B1 (en) Gaze-tracking device, gaze-tracking method, program, and computer-readable medium
KR101304374B1 (ko) 객체 특징을 위치결정하는 방법
JP5016175B2 (ja) 顔画像処理システム
JP3361980B2 (ja) 視線検出装置及びその方法
CN111480164B (zh) 头部姿势和分心估计
US8077217B2 (en) Eyeball parameter estimating device and method
US20030108220A1 (en) Robust, on-line, view-based appearance models for visual motion analysis and visual tracking
CN109643366A (zh) 用于监控车辆驾驶员的状况的方法和系统
EP3953859B1 (en) Method and system for estimating eye-related geometric parameters of a user
US20130243258A1 (en) Methods and apparatus for estimating point-of-gaze in three dimensions
EP2149856A2 (en) Image information processing method and apparatus
KR20100094560A (ko) 얼굴 자세 추정 장치, 얼굴 자세 추정 방법 및 얼굴 자세 추정 프로그램
JP5578603B2 (ja) 視線制御装置、視線制御方法、及びそのプログラム
CN102830793A (zh) 视线跟踪方法和设备
WO2014001058A1 (en) Improvements in or relating to three dimensional close interactions
CN112102389A (zh) 确定实物至少一部分的3d重构件的空间坐标的方法和系统
CN113692527B (zh) 用于测量眼镜片的局部屈光力和/或屈光力分布的方法和装置
JP2013156680A (ja) フェーストラッキング方法、フェーストラッカおよび車両
KR20220145412A (ko) 머리 특징부의 치수 및 거리를 결정하기 위한 컴퓨터 구현 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110614

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110908

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120202

R150 Certificate of patent or registration of utility model

Ref document number: 4921486

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150210

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees