JP6515086B2 - 経時的な確率的オブジェクト追跡のためのシステムおよび方法 - Google Patents

経時的な確率的オブジェクト追跡のためのシステムおよび方法 Download PDF

Info

Publication number
JP6515086B2
JP6515086B2 JP2016511156A JP2016511156A JP6515086B2 JP 6515086 B2 JP6515086 B2 JP 6515086B2 JP 2016511156 A JP2016511156 A JP 2016511156A JP 2016511156 A JP2016511156 A JP 2016511156A JP 6515086 B2 JP6515086 B2 JP 6515086B2
Authority
JP
Japan
Prior art keywords
target
interest
tracking
data
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016511156A
Other languages
English (en)
Other versions
JP2016520917A5 (ja
JP2016520917A (ja
Inventor
マンティク ラドスラヴ
マンティク ラドスラヴ
バズルク バルトシュ
バズルク バルトシュ
マンティク ラファル
マンティク ラファル
Original Assignee
ミラメトリックス インコーポレイテッド
ミラメトリックス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ミラメトリックス インコーポレイテッド, ミラメトリックス インコーポレイテッド filed Critical ミラメトリックス インコーポレイテッド
Publication of JP2016520917A publication Critical patent/JP2016520917A/ja
Publication of JP2016520917A5 publication Critical patent/JP2016520917A5/ja
Application granted granted Critical
Publication of JP6515086B2 publication Critical patent/JP6515086B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本出願は、2013年4月29日に出願された米国仮出願第61/817,189号明細書の優先権を主張するものであり、その内容は参照により本明細書に組み込まれる。
本発明は、オブジェクトの追跡のためのシステムおよび方法に関し、より詳細には、シーンにおける、ポイント・オブ・インタレスト(point of interest)データおよびオブジェクトの移動情報を用いた、オブジェクトの追跡に関する。
多くの分野において、信号、および参照するシーンとの間の関連性を決定することは、不可欠である。それにもかかわらず、提供された信号に、重大(significant)な固有のノイズが含まれることは稀ではなく、しばしば、不正確および誤りがちな決定をする。例えば、人間の視線は、コンピュータマウス、またはタッチスクリーンのような、入力デバイスを操作するよりも、より速く、より直観的で、ユーザからの少ない労力しか必要としない、特に良好なポインティングデバイスと考えられる。しかしながら、人間の視覚システムの特性および現在の視線追跡装置における固有のエラーの両方に起因して、提供される注視点に関する情報は、その所望する用途において、通常、あまりにも無関係な情報となっている。人間に関する、目の動きの重要性を考慮すると、現在のシステムは、この情報を確実に用いることができないことが、これらのシステムの欠点と考えられる。
本発明の一態様において、あるシーンにおける、経時的なオブジェクトの追跡方法が提供され、その方法は、追跡装置から追跡データを取得するステップであって、追跡データは追跡された少なくとも1つのポイント・オブ・インタレストに関連する情報を備える、ステップと、シーン情報プロバイダから位置データを取得するステップであって、そのシーンは複数のターゲットに関連し、その位置データはシーンにおけるターゲットに対応する、ステップと、追跡されたエンティティに関連する関心のあるターゲットを予測するために、確率的グラフィカルモデルを前記追跡データおよび前記ターゲットデータに適用するステップと、正確なポイント・オブ・インタレストを判定するために、関心のあるターゲットを使用するステップ、ならびに正確なポイント・オブ・インタレスト、および関心のあるターゲットの少なくとも1つを出力するステップの少なくとも1つを実行するステップとを備える。
別の態様において、上記の方法を実行するためのコンピュータ実行可能命令を含むコンピュータ可読媒体が提供される。
さらに別の態様において、上記の方法を実行するように構成されたシステムが提供される。
添付図面を参照して、例示として、実施形態を説明する。
追跡環境の概略図である。 追跡環境の概略図である。 追跡環境の概略図である。 ターゲットに関連するオブジェクト、および注視点(POGs)に関するシーンが3次元(3D)で示されている。 注視−駆動オブジェクト追跡(GDOT)モジュールにより実行されるコンピュータ実行可能命令を例示したフローチャートである。 典型的な視線追跡システムにおけるGDOTモジュールに関する構成を例示した概略ブロック図である。 一実施形態において、GDOTモジュールによる凝視に適用される隠れマルコフモデル(HMM)のアプリケーション例の状態遷移図である。 GDOTモジュールと接続される3Dレンダリングエンジンにより実行されるコンピュータ実行可能命令を例示したフローチャートである。 GDOTモジュールと、視線追跡システムの他のコンポーネントとの1つまたは複数のインタフェースにより実行されるコンピュータ実行可能命令を例示したフローチャートである。 関心のあるターゲット(TOI)を生成するときに、GDOTモジュールにより実行されるコンピュータ実行可能命令を例示したフローチャートであり、これは、表示されたシーンと視線追跡データの情報を用いて、新たな注視点(POG)を決定するために用いられる。
適切と考えられる例示の簡易化および明確化のため、参照番号は、対応する要素または類似する要素を示すために図面間で繰り返される場合があることが理解されるであろう。また、多くの具体的な詳細は、本明細書に記載の実施例の完全な理解を提供するために説明される。しかしながら、本明細書に記載の実施例は、これらの具体的な詳細を用いることなく実施されることが当業者によって理解されるであろう。他の例では、本明細書に記載の実施例を不明瞭にしないように、周知の方法、手順および構成要素(コンポーネント)は詳細に説明していない。さらに、説明は、本明細書に記載の実施例の範囲を限定するものと見做されるものではない。
本明細書で用いられる例および対応する図は、例示の目的のみのためにあることが理解されるであろう。異なる構成および用語は、本明細書に示される原理から逸脱することなく用いられる。例えば、コンポーネントおよびモジュールは、これらの原理から逸脱することなく、追加、削除、変更、または異なる接続で配置することができる。
ユーザが観察しているものを、より正確に予測することにより、非常に効果的な選択装置が得られるだけではなく、関心に附随する(interest-contingent)機能を有するコンテンツの表示が向上されるかもしれないことがわかる。例えば、(遠近)調節関連の焦点キュー(focal cues)は、多焦点ディスプレイを必要とすることなく、視覚体験を強化するためにシミュレートすることができる。
上記の内容において入力として、注視追跡などの関心の追跡を用いることができる限定要因は、例えば、注視追跡におけるアイトラッカーなど、用いられる信号追跡装置の精度である。一般的に、ほとんどのアイトラッカーは、かすかな角膜反射に依存し、数例を挙げると、頭部の動き、瞳を隠す眼瞼、照明の変化、影、および赤外線(IR)光源に干渉する日光により影響を受けるので、この制限要因を克服することは困難である。しかしながら、目の位置および方向の最適な位置合わせが可能であっても、目の動きは視覚系の注視パターンに厳密には従っていないことがわかる。観察者が一点に注視している場合であっても、眼球の衝動性運動および震動のために、その点の周りをさまよう。
視線追跡のような信号追跡を効果的に展開(deploy)するために、本明細書に記載のシステムは、表示されたシーンにおいて、潜在的にノイズの多い信号追跡データからユーザの凝視パターンを予測するための確率論ベースのプロセスを採用している。視線追跡の例において、以下に記載されるシステムは、相互作用スキーム(interaction scheme)の注視付随的なコンポーネントの精度、ロバスト性、および安定性を改善するために、そのシーンについての、視線追跡データおよび所定の、または別の既知の情報の両方を利用するように構成される。事前に設定されたターゲットポイントのいずれかが注意して見られる尤度が割り当てられる、確率モデルが用いられる。
本明細書の目的において、用語「シーン」はオブジェクトの構成のことをいう。これは、レンダリングされたシーン(例えば、ビデオゲームにおける3次元環境)を包含する。シーンは、さらに視野にユーザの視線が含まれるカメラのビデオフィード、または、その他の任意の種類の可観測の視覚系、若しくはシーンに対応する。ここで、シーンは、ユーザに可視であり、すなわち、ユーザの視線は、ある時点において、シーン内のオブジェクトと交差する可能性がある。このように、任意のタイプのシーンは、特にシーン内のオブジェクトの直感的な情報が知られている場合、本明細書で説明される原理から便益を受ける。
以下でより詳細に説明するように、本説明において、単一の物理的オブジェクトは、そのオブジェクトに関連付けられた1つ以上のターゲットによって近似することができ、このターゲットは、オブジェクトの意味的特徴をまとめた(abstract)および/または、この意味的特徴に付する無次元のエンティティ(例えば、これは、空間上の点として想像することができる)とみなされてもよい。これらのターゲットは、通常動作時において、観察者に不可視であるが、以下で説明するGDOTモジュールに入力される。
視線追跡は、例えば、注視付随的な被写界深度のレンダリングを用いて焦点キューを誘導し、ビデオゲーム、またはコンピュータ環境に直感的な制御を追加し、信頼性の高い視覚的特性(saliency)モデルを生成することなどに用いられる。以下で記載される、計算された確率は、動いている、または静止しているターゲットの位置および速度に対する注視スキャンパスの整合性を利用する。凝視(fixation)の時間特性は、最も可能性の高い凝視パターンに関するソリューションを導く隠れマルコフモデル(HMM)のような、確率的グラフィカルモデル(PGM)によって与えられる。本明細書に記載された方法は、様々な視線追跡実験によって実証することができる。例えば、ある実験において、実際の視線追跡の記録(readings)および観察者が観察するように依頼されたターゲットの位置は、経時的なトラッキングエラーを計算するために用いられた。第2の実験において、丁度可知差異(JND)でスケールされた品質測定は、追跡アルゴリズムのエラーに起因して、品質の知覚損失を定量化し、導出された。品質の損失は、2つのタイプの不正確さ、すなわち、エラーの割合とエラーの頻度により生じるので、実験的に、それらと観察者の品質判断との知覚的関係を見つけることにより、追跡アルゴリズムの後の評価が可能とされた。この実験の顕著な結果は、追跡エラーの頻度が高いことは、エラーの割合が高いことよりも著しく煩わしいものとして、しばしば報告されているということだった。両方の実験からのデータは、本明細書に記載の実施例の適用性を確認するため、および方法の性能を評価するために用いられた。本明細書に記載された方法は、両方の実験の結果において、非常に低いエラーの頻度、および著しく低いエラーの割合を提供することにより、一般的に用いられる代替方法(すなわち、凝視アルゴリズム)を上回ることがわかっている。また、記載された方法において、視線追跡の名目上の誤差よりも小さいオブジェクトを追跡することが、可能であることが示された。
少なくとも1つの態様において、以下では、シーン、およびそのシーン内のアニメーションに関する情報を利用する追跡方法を提供する。シーンは、アルゴリズムに関する事前情報として機能し、上記の信号追跡エラーの精度を向上させる。この方法が、コンピュータゲームにおけるポインティングデバイス、および注意モデルとして、焦点深度キュー(focal depth cues)のシミュレーションに基づいて、有益な改善を提供することは知られている。このようなアプリケーションは、ユーザが凝視している正確な点、いわゆる「凝視点」に関する、極めて正確な情報を必要とする。高度な視線追跡では、瞳孔と角膜反射の赤外線画像を登録することにより、便利で、非侵襲的で、かつ潜在的に安価な方法で、瞬時に注視方向を判定することができる。現在のところ、角膜瞳孔視線追跡の重要な制約は、その精度であることが認識されている。高性能な装置であっても、典型的なデスクトップディスプレイ上の100画素以上の注視点の拡がりに対応して、視度を1および1.5の範囲で変動させて、注視点測定の標準的なエラーを報告する。このような精度は、ほとんどのリアルタイムのアプリケーションにおいて十分ではない。以下のシステムは、視線追跡システムに関して高い精度を提供し、いくつかの実施例において、システムの出力は、キャリブレーション等のような操作を実行するために用いられる。
例示的な視線追跡環境8は、図1aに示されている。この例において、視線追跡環境8では、ユーザ16または被写体の目14の視線12の注視点(POG)を判定し、追跡するためのアイトラッカー10を用いる。この例において、POGは、3Dテレビ、またはその他の映像出力装置のようなディスプレイ18を介して、図示されているシーンに向けられる。アイトラッカー10は、レンダリングエンジン20に結合される注視駆動対象追跡(GDOT)モジュール22に結合されるか、または含まれる。レンダリングエンジン20は、ディスプレイ18と結合、または通信可能な状態にあり、ディスプレイ18を用いてシーンを表示するのに用いられ、また、以下でより詳細に説明されるように、関心(interest)のターゲットを判定し、アイトラッカー10に関する、正確なPOGを任意に提供するGDOTモジュール22を補助するための、シーンに関する情報を包含、またはその情報にアクセスする。
図1bは、シーン18がレンダリングエンジン20に結合されていない、わずかに異なる視線追跡環境8´を示している。ここで、ユーザ16は、アイトラッカー10、およびユーザ16の目14の視線12をその視野(FOV)内に含む、カメラモジュール25を有する、ヘッドマウントデバイス23を装着している。この状況において、シーン18は、カメラモジュール25のFOV内で可視であるものによって限定される。ここで、カメラモジュール25は、シーン18を分析し、オブジェクトを判定および追跡し、またGDOTモジュール22に入力されるターゲットを抽出する、画像キャプチャおよび分析システム21に結合され、または含まれる。GDOTモジュール22は、さらに、注視データを取得し、必要に応じて正確な注視データを提供するための、アイトラッカー10と通信する。
図1aおよび図1bは、GDOTモジュール22がシーンの異なるタイプを含む、種々の用途に用いられることを示している一方で、図1cは、これらの原理が、同様に、追跡信号がシーン内のポイント・オブ・インタレスト(POI)に向けられ、このPOIが監視されるアプリケーション、例えば、視線追跡の域を超える(beyond)環境に適用されることを示している。ここで、図1cを参照すると、この例において、GDOTモジュール22は、図1aおよび図1bの例においてアイトラッカーおよびシーン18を注視する目である、追跡信号プロバイダ14´からの追跡信号12´を観察する追跡信号レコーダ10´に結合される。また、GDOTモジュール22は、図1aおよび図1bの例において、レンダリングエンジン20、フロントカメラ、および画像認識システムの各々に結合され、シーンからターゲットを抽出する役割を果たす、シーン情報プロバイダ20´に結合される。GDOTモジュール22は、さらに、シーン18にリンクされ、処理された追跡データ(例えば、TOI/POI)を用いるデータ分析および解釈システム6に結合される。処理された追跡データは、データ分析および解釈モジュール6においてのみ用いられるか、または観察者に対する顕著で、迅速なフィードバックのために、シーン18に転送し返される。視線追跡環境において、後者が、適応的に、追跡エラーを低減する精度向上アルゴリズム、注視に付随するディスプレイ機能、また注視駆動のユーザインタフェースの拡張を特徴とする一方で、前者は、異なる顕著性解析アプリケーションに対応することができる。GDOTモジュールは、一般に、追跡信号レコーダ10´より提供される信号が正確でなく、また精度が低いのに対して、シーン情報プロバイダ20´より提供されるデータは正確であり、また精度が高いことを前提とすることに留意すべきである。
ここで、図2を参照すると、表示された3Dシーン30は、標準の凝視アルゴリズムに用いられる、(図2において示される推定されたPOG34のような)未処理の視線追跡の測定値よりも多くの情報を有することが示される。本明細書に記載された、このシステムの例では、3D表示は、シーン内のターゲット36、それらの位置、および移動経路に関して、情報を提供する。上述したように、オブジェクト32とターゲット36とは、区別されることに留意されたい。上述したように、任意の単一の物理的オブジェクト32は、1つ以上のターゲット36を有することもできる。これらのターゲット36は、人の頭部の目、鼻、または口などのように、オブジェクト32の論理的に重要な部分に対応させることができる。オブジェクトに対する相対的なターゲットの決定は、一般的に、シーンおよびオブジェクトに依存し、特定のシーンに関してオフラインで実行される。ターゲットの割り当ては、また自動オンラインシステムを用いて実行することができ、オフラインの構成に限定されると考慮されるべきではない。上述したように、GDOTモジュール22は、アイトラッカー10からのデータ、および表示されたシーンからの情報を結合し、実行される視線追跡の精度を向上させるために用いられる。
図1aに示されるようなシステムにおいて、GDOTモジュール22は、キャリブレーションのような他のアプリケーションとの間で、動的で、高品質な被写界深度(DoF)の効果をシミュレーションするために用いられる。リアルタイムのコンピュータグラフィックスに用いられる、注視追跡は、また、所定の時間に、おそらくより注意して見られているオブジェクトを見つけることにおいて有利である。
図3は、GDOTモジュール22を用いて、図1aおよび図1bに示されるシステムによって実行される、たとえば、正確なPOGまたはターゲット固有の情報を生成し、用いるなどの操作を図示している。40において、注視データはアイトラッカー10から取得され、また、42において、ターゲットオブジェクトおよび位置データは、レンダリングエンジン20、または画像キャプチャおよび分析システム21から取得される。40および42において取得されたデータは、その後に、44において、本明細書において関心のあるターゲット(TOI)という、ターゲット固有の情報を予測するために、確率的グラフィカルモデル(PGM)を適用するときに用いられる。このTOIは、その後に、49において、ユーザの注視しているターゲット(たとえば、オブジェクトの選択、ヴァーチャルキャラクタの対話、注視(attention)ベースの環境の変更)に基づいてシーンを修正するように、より粒度の細かいアプリケーションのために、システムにより用いられる。また、正確なPOG(または、図1cに示される例における正確なPOI)は、46において、POGの精度を高めるために(たとえば、POGをTOIの重心(centroid)に合わせることで)、TOIを用いて出力される。正確なPOGは、48において、例えば、アイトラッカー10のキャリブレーションを実行することに用いられる。正確なPOGの他の用途は、被写界深度のレンダリングおよび相互に影響するトーンマッピングを含む。
ここで、図4を参照すると、図1に示されるシステムのさらなる詳細が提供される。図4に示すように、第1のインタフェースモジュール50は、アイトラッカー10により提供される注視サンプル52を取得、および格納またはキャッシュし、54で注視データを再サンプリングする。アイトラッカーの測定周波数はディスプレイ18の周波数よりも一般的に高いことから、注視位置は、ディスプレイのリフレッシュレートに適合させ、また、アイトラッカーの測定におけるノイズおよびサンプリングにおける不一致を低減するように、再サンプリングされる。注視データ52を再サンプリングするために用いられるサンプリングレートは、レンダリングエンジン20により供給されるクロック信号58により制御されてもよい。
54で測定された、再サンプリングされた注視データは、第2のインタフェースモジュール62に供給され、注視位置データ64として格納またはキャッシュされる。第2のインタフェースモジュール62は、またレンダリングエンジン20からターゲット位置66を取得する。第1のインタフェースモジュール50および第2のインタフェースモジュール62は、アイトラッカー10、GDOTモジュール22、レンダリングエンジン20に含まれるか、または、分割、結合、および/または図示した機能を実行する、任意の適切な組み合わせにおいて、提供されてもよいことが理解される。
注視位置データ64およびターゲット位置66は、GDOTモジュール22における、ターゲットおよび注視選択ステージ68に供給される。このデータは、ユーザが特定のターゲットを注視している尤度を推定するために用いられる。より具体的には、この尤度は、ターゲットの位置に対するユーザの注視位置、およびターゲットの速度に対する、注視速度のようなユーザの移動導出(derived)情報の類似性に関連してモデル化される。ターゲットおよび注視のデータストリームは、速度計算ステージ70において速度を計算するために用いられ、したがって、ターゲットおよびユーザの注視の両方の速度72を生成する。78において、ターゲットおよび注視データはターゲット位置の確率を計算するために用いられ、76において、上記速度およびフィルタ処理された注視速度74は、領域速度の確率を計算するために用いられる。80において、2つの確率は加算され、82において、確率的グラフィカルモデルは、TOIを予測するために用いられる。このTOIは正確なPOG(図3における46)を提供するために任意で用いられ、60において、シーンを表示する上で入力としてレンダリングエンジン20に提供され、また、56において、オブジェクトおよび領域の位置は、GDOTモジュール22により実行される次の反復(iteration)処理に関する新しい位置データを提供するために、アップデートされる。前の時間ステップ(t0)から次の時間ステップ(t1)までで、画面に表示されるアニメーションは時間内でさらに進むことから、オブジェクトおよび領域の位置は、その後にアップデートされる。次に、GDOTは、t1におけるターゲット位置の新しいサンプル(sample)を受信する。同時に、アイトラッカーは、再サンプリングした後、次の反復処理を開始するために、GDOTモジュール22に提供される、新しい注視サンプルを収集する。
ターゲット36は、通常、ユーザの注意を引き付ける可能性の高いスポットである。複数のターゲット36は、より大きなオブジェクト32上に分配されてもよく、また、単一のターゲット36は、通常、各々より小さいオブジェクト32に割り当てられる。GDOTモジュール22のタスクは、現在の時間ステップに関する、最も注意を引く可能性の高いターゲットを選択することである。これは、これまでのアニメーションフレームの情報のみが利用可能なオンラインシステムにおいて実行される。例えば、注視されたターゲットの識別子(ID)は、レンダリングエンジン20に渡され、この情報は、フィールドシミュレーションの深度のような、所望の用途に用いられてもよい。
注視されるターゲット32に関して、それは、注視点の近くにあるはずであり、また、視線のスキャンパスと同様の速度で動くはずである。したがって、ターゲットを注視する確率iは、以下で示される。
ここで、P(pi)は、注視点が(位置が一致している)ターゲットoiに向けられる尤度であり、P(vi) は、視線のスキャンパスが(速度が一致している)ターゲット36を追尾する尤度である。確率の合計(∪)は、ターゲット36が注視されていても、位置または速度のいずれかが不整合である可能性があることから、位置および速度の整合性のために用いられる。位置の不整合は、注視点がターゲット位置に近いが、めったにターゲット位置に当たらないような、不完全なアイトラッカーのキャリブレーションによって、よく引き起こされる。速度の整合性は、アイトラッカーの測定値が目の一定の動きを示している間、速度がゼロである静止したターゲットに関して、通常、非常に低い。しかしながら、整合性は、ターゲット36が移動し、円滑追跡眼球運動がアイトラッカー10により登録されたときに、非常に高くなり始める。ターゲットの確率の記述は、単に位置および速度のみを含む必要はなく、任意の移動導出(derived)データ(例えば、加速度)が、ターゲットを注視する確率を推定するために用いられることに留意すべきである。
アイトラッカーの注視点およびターゲット36との間の近接する距離は、オブジェクトが注視されていることの最も信頼性の高い指標として、観測される。しかしながら、特定の距離が、オブジェクトが注視されていることを示す尤度を適切にモデリングするには、注意が必要である。なぜならば、距離は、ターゲットポイントを中心とする円上のすべての点を指定し、円の円周は、その距離と、また、結果として、そのような距離、観測する確率P(di)に比例して、増大するからである。この確率は、距離の幾何学的性質によるもので、注視したオブジェクトの選択に関して重要ではない。離散点において、ターゲットに対する距離を観測するヒストグラムは、ヒストグラムの特定のビンに属するすべてのピクセルをカバーするアニュラス(annulus)の領域によって正規化される必要がある。このような正規化は、ベイズルールの結果である。
ここで、diは注視点およびオブジェクトoiのユークリッド距離であり、画面の座標で表される。P(di|oi)は、オブジェクトが追跡されるときに、注視点とオブジェクトとの距離diを観測する確率である。このような確率は、視線追跡のエラーの大きさを示すパラメータσsを用いて、半正規分布で十分に近似される。ωpは速度の整合性(0から1まで)に関連する位置の整合性の重要度である。
位置の整合性の信頼性が低くなった場合において、その速度が円滑追跡眼球運動と一致しているならば、ターゲットはなお追跡される。スキャンパスから直接、計算される速度は、多くの場合、視線追跡のノイズ、眼球の衝動性運動および震動によって影響が及ぼされるように信頼できない指標と考えられる。都合の良いことに、円滑追跡運動はより長い期間にわたって動作し、そのため、この例では、おおよそ2秒に等しい時定数で、ローパスフィルタを用いて、ノイズの多いデータから抽出される。人間の視覚システムは、通常、動作する条件に対応していなければならないので、この定数は、例示の値であるが、大きく変更してはならない。
速度の整合性P(vi)は、ローパスフィルタでフィルタ処理された注視パスの速度ベクトルutとターゲットの速度ベクトルvt,iとの間の角度で定義される場合、最も安定し、これらの速度の大きさとは無関係であることがわかる。そのような角度の相関は、以下で示される。
ここで、〇は内積であり、また、εは、ターゲット、または注視点のいずれかが静止しているときに、0で除算することを防止する、小さな定数(0.001)である。実験データに基づくと、この相関関係の逆余弦(arc cos)は、指数分布に従う。そのため、速度が整合する尤度は、次のように示される。
ここで、σvは、角度誤差の許容される大きさを示す。ων は、ωρに類似し、位置の整合性に関連する速度の整合性の重要度である。
パラメータos ,σν,ων,およびωpは、シーンに依存する変動性を包含し、したがって、理想的に、最適なターゲットを追跡するために、シーンごとに適合することに留意すべきである。
ターゲット追跡アルゴリズムは、時間(または、フレーム)内の指定された時点で、各々のターゲットの確率を計算すると同時に、最も確率の高いオブジェクトを選択する。しかしながら、これは、あるターゲットから別のターゲットに追跡を頻繁にシフトすることになる。本明細書に記載の方法では、例えば、HMMなどのPGMは、過度な時間遅延なしで、データのもっともらしくない解釈を無効にする効果的な方法であり、ターゲット間の注視点のシフトをモデル化するために用いられる。使用される方法はHMMに限定されることなく、他の可能性のある方法の例として、条件付き確率場およびカルマンフィルタがあることに留意すべきである。図5に示される状態図で説明されるように、このようなプロセスにおける各々の状態は、特定のターゲット32の追跡に対応している。凝視が短すぎてはいけないので、特定の状態に留まる確率は、通常、別の状態に遷移する確率よりもはるかに高い(このケースでは、95%対5%)。このように、目は、あるターゲットから別のターゲットにすぐに動く(jump)よりも、同じターゲットの追跡を維持する可能性が高い。
HMMのソリューションは、特定の時点での状態(追跡ターゲット)の最も可能性の高いシーケンスを提供する。このアプローチの強みは、最も良いシーケンスが時間的に前の時点における最も良いシーケンスとは無関係に選択されることであり、そのため、新しいデータを着信すると、時間の前のステップにおいて、特定のターゲット32を選択する決定は、より可能性の高いシーケンスを選択するように修正される。そのため、そのモデルに新しい確率値を加算し、結果の状態を読み出す間に、少しの遅延を導入するのに好都合である。本方法のこの実施例で用いられた、一次のHMMに関して、最も良いシーケンスは、ビタビアルゴリズムと呼ばれる動的なプログラミングアルゴリズムを用いて、効果的に計算される。
提案されたGDOTモジュール22は、様々な用途(アプリケーション)を有し、そのいくつかは、具体的には、グラフィック指向のアプリケーション、すなわち、注視依存の深度のフィールドシミュレーション、コンピュータゲームにおける注視付随的な制御、およびアイトラッカーがサポートされた注視モデルにおいて、適合性のためにテストされる。
ユーザは、時間的な注視方向により能動的に制御される被写界深度のシミュレーションを好むことがわかっている。なぜなら、それは、ヴァーチャルな環境において集中を高めるからである。そのような焦点キューの注視付随的な導入は、多焦点面ディスプレイの代替として見られ、それは構築する上で大きな技術的課題を提起する。注視付随的な被写界深度シミュレーションを実現するために、色漏れを減少させた逆写像技術に基づいて、被写界深度レンダリングアルゴリズムは実装された。同様のレンダリングの他の実装と比較して、GDOTモジュール22の使用は、物体が高速に移動しても、意図された焦点面の識別の精度と安定性を向上させることができる。
本明細書に記載の追跡技術の別の用途は、アイトラッカー10をゲームコントローラとして用いることにある。例えば、ゲームプレイ中に、それを見るだけで、相手の衛星(spacecraft)に関する情報を表示することができる。また、カメラは、プレイヤの武器のねらいを定めるための、より魅力的な方法を生成するために、注視したターゲットを追尾することを開始する。GDOTモジュール22は、円滑追跡眼球運動により追尾されるターゲットを正しく識別することができる。提案される方法はまた、アイトラッカーの誤差の半径よりも小さいオブジェクトを識別することができる。
この方法は、注視したオブジェクトのシーケンスを予測するので、未処理の視線追跡データを解釈する注視モデルとして用いることができる。注視のモデリングは、イメージを解釈し、視線追跡データに依存しない計算モデルに通常、関連付けられる。しかしながら、これらは、視覚的注意のタスク駆動型で、トップダウン型の特質のために、信頼できない可能性がある。視線追跡はグランドトゥルースの注意パターンを生成すると考えられるが、実際に、そのようなデータは、比較的大きなオブジェクトと地域に限定され、非常にノイズが多く、シーンがアニメーション化された場合であっても信頼性が低い。提案されたアルゴリズムは、未処理の視線追跡データをフィルタリングし、実際の注視パターンを抽出するため、そのようなデータの分析を大幅に簡素化することができる。
さらに、本明細書に記載される追跡技術の別の用途は、既存のキャリブレーション方法を強化するために、アイトラッカー10のサブシステムとして用いることである(たとえば、これらは、PCT国際特許出願番号PCT/CA2012/050761に、十分に記載されている)。視線追跡の標準的なキャリブレーション動作の間に、追跡アルゴリズムは、注視点の精度を高めるために、また適切なキャリブレーション補正係数を計算するために用いられる。その係数は、現在のキャリブレーション係数を調整すること、または注視データの座標に関して追加のマッピングステージを提供することのいずれかにより、適用される。既存のキャリブレーション方法に関して、典型的な不正確さが予定されるにもかかわらず、そのようなアプリケーションにおいて、GDOTモジュール22は、円滑追跡眼球運動により追尾される、移動するターゲットを、ある程度の信頼性を保持して識別することが可能であり、そのため、必要な補正を計算することができる。同様のアプローチは、人の特定の機能に対して、一般的なキャリブレーションマッピングを適応的に調整するために、固有のキャリブレーションを実行するために用いられる。そのような手順において、観察者は、複雑なシーンを見ている間に、更新されているキャリブレーションの補正係数を意識する必要がない。しかしながら、未処理(natural)の注視パターンは継続的に収集され、精度を向上させる目的で用いられる。両方の方法の組み合わせも可能であり、ユーザは、(潜在的に、GDOTモジュールにより提供される円滑追跡情報を用いて)一度(one time)キャリブレーションを実行し、キャリブレーションは、固有のキャリブレーション補正を用いて、デバイスの動作の期間中に定期的または連続的に補正されることが考慮されるべきである。
ここで、図6から図8を参照すると、例えば、上記で示され、説明されたコンポーネントにより実行された、コンピュータにおいて実行可能な操作が示される。
図6において、レンダリングモジュール20は、100で、シーンを表示し、例えば、第1のインタフェースモジュール50を用いて、ターゲットの位置データをGDOTモジュール22に提供する。図4において説明されたように、オブジェクトおよび領域の位置は、104で、TOIと共にアップデートされ、また、106で、正確なPOGが、GDOTモジュールから任意に受信され、それは、108で、例えば、ビデオゲームの出力の表示などに用いられる。
図7は、第1のインタフェースモジュール50および第2のインタフェースモジュールにより実行される操作を示す。注視サンプルは、120で、アイトラッカー10から取得され、上述したように、122で、再サンプリングされる。ターゲット位置はまた、126で、レンダリングエンジン20から受信され、注視データおよびターゲット位置データは、124および128の各々で、提供され、130で、GDOTモジュール22にデータを通信する。
図8において、GDOTモジュール22は、200で、インタフェース50、62からデータを受信し、202で注視速度を、また、204でターゲットの速度を計算する。速度は、次に、208で、任意にフィルタリング処理され、結果として得られたデータは、212で、領域速度の確率を計算するために用いられる。206で、任意のフィルタリング処理と同様の処理が位置データに対して適用され、結果として得られたデータは、210で、ターゲット位置の確率を計算するために用いられる。次に、TOIおよび任意の正確なPOGは、216で計算され、218で出力される。処理は、これまでに、レンダリングされたシーンに基づいて、特定の用途に関する、正確なPOGデータを提供するために、連続的または定期的に繰り返される。
本明細書において例示された、命令を実行する任意のモジュールまたはコンポーネントは、例えば、磁気ディスク、光ディスク、もしくはテープなどの、記憶媒体、コンピュータ記憶媒体、または(取り外し可能および/または取り外し不可能な)データ記憶装置のような、コンピュータ可読媒体を含むか、または、そうでなければ、コンピュータ可読媒体にアクセスできることが理解されるであろう。コンピュータ記憶媒体は、揮発性および不揮発性を含み、取り外し可能および取り外し不可能な媒体は、コンピュータ可読命令、データストラクチャ、プログラムモジュール、またはその他のデータのような情報を記憶するために任意の方法または技術で実装される。コンピュータ記憶媒体の例は、RAM、ROM、EEPROM、フラッシュメモリ、もしくはその他のメモリ技術、CD−ROM、デジタルヴァーサタイルディスク(DVD)、もしくはその他の光学式ストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ、もしくはその他の磁気ストレージデバイス、または所望の情報を記憶するのに用いられ、アプリケーション、モジュール、もしくはその両方によってアクセスされる、その他の媒体を含む。そのような任意のコンピュータ記憶媒体は、アイトラッカー10、GDOTモジュール22、レンダリングエンジン20、ディスプレイ、そのようなコンポーネントの、またはそのようなコンポーネントに関連する任意のコンポーネントなど、または、これにアクセス可能、もしくは接続可能なコンポーネントの一部である。本明細書に記載された、任意のアプリケーション、またはモジュールは、コンピュータ可読媒体により格納、さもなければ保持されたコンピュータ可読/実行可能な命令を用いて実装される。
本明細書に記載されたフローチャートおよび概略図における手順または動作は、例示のためのものである。上記で説明された原理から逸脱することなく、これらの手順または操作に対して、多くのバリエーションがあってもよい。例えば、手順は異なる順序で実行することができ、また手順を追加、削除、または修正することができる。
上記の原理は、ある特定の実施例を参照して説明したが、添付の特許請求の範囲に概説されるように、様々な変形が当業者には明らかであろう。

Claims (21)

  1. シーンにおける、経時的な追跡データに関連付けられた関心のあるターゲットを選択する方法であって、
    追跡装置から追跡データを取得するステップであって、前記追跡データは前記追跡装置により計算された少なくとも1つのポイント・オブ・インタレストを含む、ステップと、
    シーン情報プロバイダからターゲットデータを取得するステップであって、前記シーンは複数のターゲットを含み、前記ターゲットデータは前記シーンにおけるターゲットに対応し、各々のターゲットは前記シーンにおける1つまたは複数の点により示される、ステップと、
    追跡される各々のポイント・オブ・インタレストに関して、関連する関心のあるターゲットを予測するために、確率的グラフィカルモデルを前記追跡データおよび前記ターゲットデータに適用するステップであって、
    前記確率的グラフィカルモデルは、前記モデルの状態が前記ターゲットデータからのターゲットを示すように前記ターゲットデータから構築され、エッジによって各々のターゲットをそれ自身に接続し、かつターゲットを適用可能な他のターゲットに接続し、
    前記確率的グラフィカルモデルは、前記追跡データからの前記少なくとも1つのポイント・オブ・インタレストを考慮し、前記追跡データからの各々のポイント・オブ・インタレストに関して予測された関心のあるターゲットを出力する、ステップと、
    前記予測された関心のあるターゲットを、前記追跡データに関連付けられた前記選択された関心のあるターゲットとして出力するステップと
    を備える方法。
  2. 追跡精度を高めるために、前記選択された関心のあるターゲットを使用するステップをさらに備えることを特徴とする請求項1に記載の方法。
  3. 前記使用するステップは、
    前記選択された関心のあるターゲットを、追跡された信号データを受信するシステムへの入力として使用するステップ、および
    正確な追跡信号の判定を補助するために、前記選択された関心のあるターゲットを前記追跡装置に送信するステップ
    の1つまたは複数を備えることを特徴とする請求項2に記載の方法。
  4. 後続の処理のために、前記選択された関心のあるターゲットを提供するステップをさらに備えることを特徴とする請求項1から請求項3のいずれか1項に記載の方法。
  5. 追跡サンプルは、前記追跡データを提供するために、再サンプリングされることを特徴とする請求項1から請求項4のいずれか1項に記載の方法。
  6. 前記再サンプリングは、前記シーン情報プロバイダにより提供されるクロック信号に従って実行されることを特徴とする請求項5に記載の方法。
  7. 前記シーン情報プロバイダは、
    前記シーンをレンダリングするために用いられるレンダリングエンジン、
    記録されたポイント・オブ・インタレストデータから判定される、1つまたは複数の顕著性マッピング、
    機械学習または画像処理により判定される、1つまたは複数の顕著性マッピング、
    および
    画像処理システムを用いて追跡されたビデオ映像
    のいずれか1つまたは複数を含むことを特徴とする請求項1から6のいずれか1項に記載の方法。
  8. 前記追跡データを用いて、移動に依存する情報を計算するステップと、
    前記ターゲットデータを用いて、移動に依存する情報を計算するステップと、
    前記計算された情報を用いて、前記予測された関心のあるターゲットを生成することを備える、前記確率的グラフィカルモデルを適用するステップと
    をさらに備えることを特徴とする請求項1から7のいずれか1項に記載の方法。
  9. 前記追跡データを用いて、追跡速度を計算するステップと、
    置データを用いて、ターゲットの速度を計算するステップと、
    前記追跡速度および前記ターゲットの速度を使用して、前記予測された関心のあるターゲットを生成することを備える、前記確率的グラフィカルモデルを適用するステップと
    をさらに備えることを特徴とする請求項8に記載の方法。
  10. 前記移動に依存する情報および前記ターゲットデータを用いて、移動に依存する確率を計算するステップと、
    各々のターゲットに関する関心の確率を取得するために前記計算された確率で計算を実行するステップと、
    前記計算された確率を用いて、前記予測された関心のあるターゲットを生成することを備える、前記確率的グラフィカルモデルを適用するステップと
    をさらに備えることを特徴とする請求項8または請求項9に記載の方法。
  11. 前記追跡速度およびターゲット速度を用いて領域速度の確率を計算するステップと、
    前記追跡データおよび前記ターゲットデータを用いてターゲット位置の確率を計算するステップと、
    各々のターゲットに関する関心の確率を取得するために、前記領域速度の確率および前記ターゲット位置の確率を加算するステップと、
    前記計算された確率を用いて、前記予測された関心のあるターゲットを生成することを備える、前記確率的グラフィカルモデルを適用するステップと
    をさらに含むことを特徴とする請求項10に記載の方法。
  12. 前記確率モデルは、隠れマルコフモデルに基づくことを特徴とする請求項1から請求項11のいずれか1項に記載の方法。
  13. 前記追跡データは、アイトラッカーにより取得される注視データに対応し、前記ポイント・オブ・インタレストは注視点であることを特徴とする請求項1から12のいずれか1項に記載の方法。
  14. 注視点、計算された関心のあるターゲット、およびアイトラッカーのキャリブレーションの実行における正確な注視点を取得するために、初期のキャリブレーションプロファイルを使用するステップをさらに備えることを特徴とする請求項1から13のいずれか1項に記載の方法。
  15. 前記アイトラッカーのキャリブレーションは、円滑な追跡の間、グランドトゥルースの注視点の判定において、前記正確なポイント・オブ・インタレストを使用するステップを備えることを特徴とする請求項14に記載の方法。
  16. 前記アイトラッカーのキャリブレーションは、前記関連する関心のあるターゲット、および正確な注視点を使用して、複雑なシーンにおいて、固有のキャリブレーションを可能にするステップを備えることを特徴とする請求項14または請求項15に記載の方法。
  17. 前記アイトラッカーのキャリブレーションは、前記エンティティが前記シーンを注視するとき、新しいグランドトゥルースの注視点として、正確な注視点を使用して、少なくとも1つの追加のキャリブレーションを実行するために、前記関連する関心のあるターゲットおよび正確な注視点を使用することを備えることを特徴とする請求項14から請求項16のいずれか1つまたは複数の方法。
  18. シーンにおける、経時的な追跡データに関連付けられた関心のあるターゲットを選択することを実行するコンピュータ実行可能命令を備えたコンピュータ可読媒体であって、
    追跡装置から追跡データを取得し、前記追跡データは前記追跡装置により計算された少なくとも1つのポイント・オブ・インタレストを含み、
    シーン情報プロバイダからターゲットデータを取得し、前記シーンは複数のターゲットを含み、前記ターゲットデータは前記シーンにおけるターゲットに対応し、各々のターゲットは前記シーンにおける1つまたは複数の点により示され、
    追跡される各々のポイント・オブ・インタレストに関して、関連する関心のあるターゲットを予測するために、確率的グラフィカルモデルを前記追跡データおよび前記ターゲットデータに適用し、
    前記確率的グラフィカルモデルは、前記モデルの状態が前記ターゲットデータからのターゲットを示すように前記ターゲットデータから構築され、エッジによって各々のターゲットをそれ自身に接続し、かつターゲットを適用可能な他のターゲットに接続し、
    前記確率的グラフィカルモデルは、前記追跡データからの前記少なくとも1つのポイント・オブ・インタレストを考慮し、前記追跡データからの各々のポイント・オブ・インタレストに関して予測された関心のあるターゲットを出力し、
    前記予測された関心のあるターゲットを、前記追跡データに関連付けられた前記選択された関心のあるターゲットとして出力する
    命令を備えたコンピュータ可読媒体。
  19. オブジェクト追跡のための装置であって、プロセッサおよびメモリを備え、少なくとも追跡装置と結合しており、前記メモリは、
    追跡装置から追跡データを取得し、前記追跡データは前記追跡装置により計算された少なくとも1つのポイント・オブ・インタレストを含み、
    シーン情報プロバイダからターゲットデータを取得し、シーンは複数のターゲットを含み、前記ターゲットデータは前記シーンにおけるターゲットに対応し、各々のターゲットは前記シーンにおける1つまたは複数の点により示され、
    追跡される各々のポイント・オブ・インタレストに関して、関連する関心のあるターゲットを予測するために、確率的グラフィカルモデルを前記追跡データおよび前記ターゲットデータに適用し、
    前記確率的グラフィカルモデルは、前記モデルの状態が前記ターゲットデータからのターゲットを示すように前記ターゲットデータから構築され、エッジによって各々のターゲットをそれ自身に接続し、かつターゲットを適用可能な他のターゲットに接続し、
    前記確率的グラフィカルモデルは、前記追跡データからの前記少なくとも1つのポイント・オブ・インタレストを考慮し、前記追跡データからの各々のポイント・オブ・インタレストに関して予測された関心のあるターゲットを出力し、
    前記予測された関心のあるターゲットを、前記追跡データに関連付けられた選択された関心のあるターゲットとして出力する
    ことによって、前記シーンにおける、経時的な追跡データに関連付けられた関心のあるターゲットを選択するコンピュータ実行可能命令を格納している、装置。
  20. 前記装置は、前記シーンを生成するように構成されたシーン情報プロバイダ装置に、さらに結合されることを特徴とする請求項19に記載の装置。
  21. 前記装置は、前記追跡装置に組み込まれることを特徴とする請求項19または請求項20に記載の装置。
JP2016511156A 2013-04-29 2014-04-29 経時的な確率的オブジェクト追跡のためのシステムおよび方法 Active JP6515086B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361817189P 2013-04-29 2013-04-29
US61/817,189 2013-04-29
PCT/IB2014/061090 WO2014178005A1 (en) 2013-04-29 2014-04-29 System and method for probabilistic object tracking over time

Publications (3)

Publication Number Publication Date
JP2016520917A JP2016520917A (ja) 2016-07-14
JP2016520917A5 JP2016520917A5 (ja) 2017-06-15
JP6515086B2 true JP6515086B2 (ja) 2019-05-15

Family

ID=50942720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016511156A Active JP6515086B2 (ja) 2013-04-29 2014-04-29 経時的な確率的オブジェクト追跡のためのシステムおよび方法

Country Status (5)

Country Link
US (1) US9965031B2 (ja)
EP (1) EP2992405A1 (ja)
JP (1) JP6515086B2 (ja)
CA (1) CA2910552C (ja)
WO (1) WO2014178005A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6445784B2 (ja) * 2014-05-16 2018-12-26 キヤノン株式会社 画像診断支援装置、その処理方法及びプログラム
GB201410635D0 (en) 2014-06-13 2014-07-30 Univ Bangor Improvements in and relating to the display of images
CN106033601B (zh) * 2015-03-09 2019-01-18 株式会社理光 检测异常情形的方法和装置
CA2986150A1 (en) 2015-05-19 2016-11-24 Irystec Software Inc. System and method for color retargeting
EP3141985A1 (en) * 2015-09-10 2017-03-15 Alcatel Lucent A gazed virtual object identification module, a system for implementing gaze translucency, and a related method
WO2017153355A1 (de) * 2016-03-07 2017-09-14 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Verfahren und vorrichtung zum durchführen einer blickabbildung
JP6632443B2 (ja) * 2016-03-23 2020-01-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
US10642352B2 (en) * 2017-05-18 2020-05-05 Tectus Coporation Gaze calibration via motion detection for eye-mounted displays
SE543121C2 (en) 2019-02-04 2020-10-13 Tobii Ab Method and system for determining a current gaze direction
US20210011550A1 (en) * 2019-06-14 2021-01-14 Tobii Ab Machine learning based gaze estimation with confidence
US11726349B2 (en) 2020-02-14 2023-08-15 Magic Leap, Inc. Virtual object movement speed curve for virtual and augmented reality display systems
DE102020120546A1 (de) 2020-08-04 2022-02-10 Gestigon Gmbh Verfahren und vorrichtung zum identifizieren eines objekts, das für eine bestimmte person von interesse ist, auf der basis des erfassbaren verhaltens dieser person
CN116959214B (zh) * 2023-07-18 2024-04-02 北京至真互联网技术有限公司 一种通过智能眼镜提醒用户护眼方法及系统

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6499025B1 (en) * 1999-06-01 2002-12-24 Microsoft Corporation System and method for tracking objects by fusing results of multiple sensing modalities
US20020039111A1 (en) * 2000-06-27 2002-04-04 James Gips Automated visual tracking for computer access
AU2003269772A1 (en) * 2002-10-15 2004-05-04 Volvo Technology Corporation Method and arrangement for interpreting a subjects head and eye activity
US7436980B2 (en) * 2004-05-27 2008-10-14 Siemens Corporate Research, Inc. Graphical object models for detection and tracking
US8111873B2 (en) * 2005-03-18 2012-02-07 Cognimatics Ab Method for tracking objects in a scene
US7536030B2 (en) * 2005-11-30 2009-05-19 Microsoft Corporation Real-time Bayesian 3D pose tracking
US8219438B1 (en) * 2008-06-30 2012-07-10 Videomining Corporation Method and system for measuring shopper response to products based on behavior and facial expression
WO2010071928A1 (en) * 2008-12-22 2010-07-01 Seeing Machines Limited Automatic calibration of a gaze direction algorithm from user behaviour
WO2011008793A1 (en) * 2009-07-13 2011-01-20 Emsense Corporation Systems and methods for generating bio-sensory metrics
US9507418B2 (en) * 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
US8649606B2 (en) * 2010-02-10 2014-02-11 California Institute Of Technology Methods and systems for generating saliency models through linear and/or nonlinear integration
US20110263946A1 (en) * 2010-04-22 2011-10-27 Mit Media Lab Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences
US20120106793A1 (en) * 2010-10-29 2012-05-03 Gershenson Joseph A Method and system for improving the quality and utility of eye tracking data
JP5648443B2 (ja) * 2010-11-26 2015-01-07 ソニー株式会社 画像処理装置および方法、並びにプログラム
CA2853709C (en) 2011-10-27 2020-09-01 Tandemlaunch Technologies Inc. System and method for calibrating eye gaze data
US9489743B2 (en) * 2013-03-13 2016-11-08 Mecommerce, Inc. Determining dimension of target object in an image using reference object
US9734587B2 (en) * 2015-09-30 2017-08-15 Apple Inc. Long term object tracker

Also Published As

Publication number Publication date
EP2992405A1 (en) 2016-03-09
WO2014178005A4 (en) 2014-12-24
CA2910552A1 (en) 2014-11-06
WO2014178005A1 (en) 2014-11-06
US9965031B2 (en) 2018-05-08
US20160026245A1 (en) 2016-01-28
CA2910552C (en) 2024-04-02
JP2016520917A (ja) 2016-07-14

Similar Documents

Publication Publication Date Title
JP6515086B2 (ja) 経時的な確率的オブジェクト追跡のためのシステムおよび方法
US9791927B2 (en) Systems and methods of eye tracking calibration
US8509484B2 (en) Information processing device and information processing method
EP2994812B1 (en) Calibration of eye location
US9785233B2 (en) Systems and methods of eye tracking calibration
CN110502099B (zh) 可靠地检测注视与刺激之间的关联的方法
CN109891189B (zh) 策划的摄影测量
JP5689850B2 (ja) 映像解析装置、映像解析方法、および注視点表示システム
JP2020034919A (ja) 構造化光を用いた視線追跡
US20170148215A1 (en) Eye Tracking for Mitigating Vergence and Accommodation Conflicts
JP2019531782A (ja) アイトラッキング用途のためのセンサフュージョンのシステムおよび方法
WO2017126172A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
US20150309567A1 (en) Device and method for tracking gaze
KR20170111938A (ko) 시선 인식을 이용하는 콘텐츠 재생 장치 및 방법
CN112578903B (zh) 眼动追踪方法和眼动追踪器
US11054903B2 (en) Method, eyetracker and computer program for determining eye positions in digital image data
CN116820251B (zh) 一种手势轨迹交互方法、智能眼镜及存储介质
CN113780414B (zh) 眼动行为分析方法、图像渲染方法、组件、装置和介质
CN116204060A (zh) 鼠标指针基于手势的移动和操纵
IL295191A (en) Method and system for determining gaze direction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170501

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190415

R150 Certificate of patent or registration of utility model

Ref document number: 6515086

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250