JP6515086B2 - 経時的な確率的オブジェクト追跡のためのシステムおよび方法 - Google Patents
経時的な確率的オブジェクト追跡のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP6515086B2 JP6515086B2 JP2016511156A JP2016511156A JP6515086B2 JP 6515086 B2 JP6515086 B2 JP 6515086B2 JP 2016511156 A JP2016511156 A JP 2016511156A JP 2016511156 A JP2016511156 A JP 2016511156A JP 6515086 B2 JP6515086 B2 JP 6515086B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- interest
- tracking
- data
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 57
- 238000009877 rendering Methods 0.000 claims description 19
- 230000001419 dependent effect Effects 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 4
- 238000012952 Resampling Methods 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000010801 machine learning Methods 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 description 11
- 230000004424 eye movement Effects 0.000 description 8
- 238000002474 experimental method Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000004088 simulation Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 206010044565 Tremor Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/61—Scene description
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Description
Claims (21)
- シーンにおける、経時的な追跡データに関連付けられた関心のあるターゲットを選択する方法であって、
追跡装置から追跡データを取得するステップであって、前記追跡データは前記追跡装置により計算された少なくとも1つのポイント・オブ・インタレストを含む、ステップと、
シーン情報プロバイダからターゲットデータを取得するステップであって、前記シーンは複数のターゲットを含み、前記ターゲットデータは前記シーンにおけるターゲットに対応し、各々のターゲットは前記シーンにおける1つまたは複数の点により示される、ステップと、
追跡される各々のポイント・オブ・インタレストに関して、関連する関心のあるターゲットを予測するために、確率的グラフィカルモデルを前記追跡データおよび前記ターゲットデータに適用するステップであって、
前記確率的グラフィカルモデルは、前記モデルの状態が前記ターゲットデータからのターゲットを示すように前記ターゲットデータから構築され、エッジによって各々のターゲットをそれ自身に接続し、かつターゲットを適用可能な他のターゲットに接続し、
前記確率的グラフィカルモデルは、前記追跡データからの前記少なくとも1つのポイント・オブ・インタレストを考慮し、前記追跡データからの各々のポイント・オブ・インタレストに関して予測された関心のあるターゲットを出力する、ステップと、
前記予測された関心のあるターゲットを、前記追跡データに関連付けられた前記選択された関心のあるターゲットとして出力するステップと
を備える方法。 - 追跡精度を高めるために、前記選択された関心のあるターゲットを使用するステップをさらに備えることを特徴とする請求項1に記載の方法。
- 前記使用するステップは、
前記選択された関心のあるターゲットを、追跡された信号データを受信するシステムへの入力として使用するステップ、および
正確な追跡信号の判定を補助するために、前記選択された関心のあるターゲットを前記追跡装置に送信するステップ
の1つまたは複数を備えることを特徴とする請求項2に記載の方法。 - 後続の処理のために、前記選択された関心のあるターゲットを提供するステップをさらに備えることを特徴とする請求項1から請求項3のいずれか1項に記載の方法。
- 追跡サンプルは、前記追跡データを提供するために、再サンプリングされることを特徴とする請求項1から請求項4のいずれか1項に記載の方法。
- 前記再サンプリングは、前記シーン情報プロバイダにより提供されるクロック信号に従って実行されることを特徴とする請求項5に記載の方法。
- 前記シーン情報プロバイダは、
前記シーンをレンダリングするために用いられるレンダリングエンジン、
記録されたポイント・オブ・インタレストデータから判定される、1つまたは複数の顕著性マッピング、
機械学習または画像処理により判定される、1つまたは複数の顕著性マッピング、
および
画像処理システムを用いて追跡されたビデオ映像
のいずれか1つまたは複数を含むことを特徴とする請求項1から6のいずれか1項に記載の方法。 - 前記追跡データを用いて、移動に依存する情報を計算するステップと、
前記ターゲットデータを用いて、移動に依存する情報を計算するステップと、
前記計算された情報を用いて、前記予測された関心のあるターゲットを生成することを備える、前記確率的グラフィカルモデルを適用するステップと
をさらに備えることを特徴とする請求項1から7のいずれか1項に記載の方法。 - 前記追跡データを用いて、追跡速度を計算するステップと、
位置データを用いて、ターゲットの速度を計算するステップと、
前記追跡速度および前記ターゲットの速度を使用して、前記予測された関心のあるターゲットを生成することを備える、前記確率的グラフィカルモデルを適用するステップと
をさらに備えることを特徴とする請求項8に記載の方法。 - 前記移動に依存する情報および前記ターゲットデータを用いて、移動に依存する確率を計算するステップと、
各々のターゲットに関する関心の確率を取得するために前記計算された確率で計算を実行するステップと、
前記計算された確率を用いて、前記予測された関心のあるターゲットを生成することを備える、前記確率的グラフィカルモデルを適用するステップと
をさらに備えることを特徴とする請求項8または請求項9に記載の方法。 - 前記追跡速度およびターゲット速度を用いて領域速度の確率を計算するステップと、
前記追跡データおよび前記ターゲットデータを用いてターゲット位置の確率を計算するステップと、
各々のターゲットに関する関心の確率を取得するために、前記領域速度の確率および前記ターゲット位置の確率を加算するステップと、
前記計算された確率を用いて、前記予測された関心のあるターゲットを生成することを備える、前記確率的グラフィカルモデルを適用するステップと
をさらに含むことを特徴とする請求項10に記載の方法。 - 前記確率モデルは、隠れマルコフモデルに基づくことを特徴とする請求項1から請求項11のいずれか1項に記載の方法。
- 前記追跡データは、アイトラッカーにより取得される注視データに対応し、前記ポイント・オブ・インタレストは注視点であることを特徴とする請求項1から12のいずれか1項に記載の方法。
- 注視点、計算された関心のあるターゲット、およびアイトラッカーのキャリブレーションの実行における正確な注視点を取得するために、初期のキャリブレーションプロファイルを使用するステップをさらに備えることを特徴とする請求項1から13のいずれか1項に記載の方法。
- 前記アイトラッカーのキャリブレーションは、円滑な追跡の間、グランドトゥルースの注視点の判定において、前記正確なポイント・オブ・インタレストを使用するステップを備えることを特徴とする請求項14に記載の方法。
- 前記アイトラッカーのキャリブレーションは、前記関連する関心のあるターゲット、および正確な注視点を使用して、複雑なシーンにおいて、固有のキャリブレーションを可能にするステップを備えることを特徴とする請求項14または請求項15に記載の方法。
- 前記アイトラッカーのキャリブレーションは、前記エンティティが前記シーンを注視するとき、新しいグランドトゥルースの注視点として、正確な注視点を使用して、少なくとも1つの追加のキャリブレーションを実行するために、前記関連する関心のあるターゲットおよび正確な注視点を使用することを備えることを特徴とする請求項14から請求項16のいずれか1つまたは複数の方法。
- シーンにおける、経時的な追跡データに関連付けられた関心のあるターゲットを選択することを実行するコンピュータ実行可能命令を備えたコンピュータ可読媒体であって、
追跡装置から追跡データを取得し、前記追跡データは前記追跡装置により計算された少なくとも1つのポイント・オブ・インタレストを含み、
シーン情報プロバイダからターゲットデータを取得し、前記シーンは複数のターゲットを含み、前記ターゲットデータは前記シーンにおけるターゲットに対応し、各々のターゲットは前記シーンにおける1つまたは複数の点により示され、
追跡される各々のポイント・オブ・インタレストに関して、関連する関心のあるターゲットを予測するために、確率的グラフィカルモデルを前記追跡データおよび前記ターゲットデータに適用し、
前記確率的グラフィカルモデルは、前記モデルの状態が前記ターゲットデータからのターゲットを示すように前記ターゲットデータから構築され、エッジによって各々のターゲットをそれ自身に接続し、かつターゲットを適用可能な他のターゲットに接続し、
前記確率的グラフィカルモデルは、前記追跡データからの前記少なくとも1つのポイント・オブ・インタレストを考慮し、前記追跡データからの各々のポイント・オブ・インタレストに関して予測された関心のあるターゲットを出力し、
前記予測された関心のあるターゲットを、前記追跡データに関連付けられた前記選択された関心のあるターゲットとして出力する
命令を備えたコンピュータ可読媒体。 - オブジェクト追跡のための装置であって、プロセッサおよびメモリを備え、少なくとも追跡装置と結合しており、前記メモリは、
追跡装置から追跡データを取得し、前記追跡データは前記追跡装置により計算された少なくとも1つのポイント・オブ・インタレストを含み、
シーン情報プロバイダからターゲットデータを取得し、シーンは複数のターゲットを含み、前記ターゲットデータは前記シーンにおけるターゲットに対応し、各々のターゲットは前記シーンにおける1つまたは複数の点により示され、
追跡される各々のポイント・オブ・インタレストに関して、関連する関心のあるターゲットを予測するために、確率的グラフィカルモデルを前記追跡データおよび前記ターゲットデータに適用し、
前記確率的グラフィカルモデルは、前記モデルの状態が前記ターゲットデータからのターゲットを示すように前記ターゲットデータから構築され、エッジによって各々のターゲットをそれ自身に接続し、かつターゲットを適用可能な他のターゲットに接続し、
前記確率的グラフィカルモデルは、前記追跡データからの前記少なくとも1つのポイント・オブ・インタレストを考慮し、前記追跡データからの各々のポイント・オブ・インタレストに関して予測された関心のあるターゲットを出力し、
前記予測された関心のあるターゲットを、前記追跡データに関連付けられた選択された関心のあるターゲットとして出力する
ことによって、前記シーンにおける、経時的な追跡データに関連付けられた関心のあるターゲットを選択するコンピュータ実行可能命令を格納している、装置。 - 前記装置は、前記シーンを生成するように構成されたシーン情報プロバイダ装置に、さらに結合されることを特徴とする請求項19に記載の装置。
- 前記装置は、前記追跡装置に組み込まれることを特徴とする請求項19または請求項20に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361817189P | 2013-04-29 | 2013-04-29 | |
US61/817,189 | 2013-04-29 | ||
PCT/IB2014/061090 WO2014178005A1 (en) | 2013-04-29 | 2014-04-29 | System and method for probabilistic object tracking over time |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016520917A JP2016520917A (ja) | 2016-07-14 |
JP2016520917A5 JP2016520917A5 (ja) | 2017-06-15 |
JP6515086B2 true JP6515086B2 (ja) | 2019-05-15 |
Family
ID=50942720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016511156A Active JP6515086B2 (ja) | 2013-04-29 | 2014-04-29 | 経時的な確率的オブジェクト追跡のためのシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9965031B2 (ja) |
EP (1) | EP2992405A1 (ja) |
JP (1) | JP6515086B2 (ja) |
CA (1) | CA2910552C (ja) |
WO (1) | WO2014178005A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6445784B2 (ja) * | 2014-05-16 | 2018-12-26 | キヤノン株式会社 | 画像診断支援装置、その処理方法及びプログラム |
GB201410635D0 (en) | 2014-06-13 | 2014-07-30 | Univ Bangor | Improvements in and relating to the display of images |
CN106033601B (zh) * | 2015-03-09 | 2019-01-18 | 株式会社理光 | 检测异常情形的方法和装置 |
CA2986150A1 (en) | 2015-05-19 | 2016-11-24 | Irystec Software Inc. | System and method for color retargeting |
EP3141985A1 (en) * | 2015-09-10 | 2017-03-15 | Alcatel Lucent | A gazed virtual object identification module, a system for implementing gaze translucency, and a related method |
WO2017153355A1 (de) * | 2016-03-07 | 2017-09-14 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Verfahren und vorrichtung zum durchführen einer blickabbildung |
JP6632443B2 (ja) * | 2016-03-23 | 2020-01-22 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理システム、および情報処理方法 |
US10642352B2 (en) * | 2017-05-18 | 2020-05-05 | Tectus Coporation | Gaze calibration via motion detection for eye-mounted displays |
SE543121C2 (en) | 2019-02-04 | 2020-10-13 | Tobii Ab | Method and system for determining a current gaze direction |
US20210011550A1 (en) * | 2019-06-14 | 2021-01-14 | Tobii Ab | Machine learning based gaze estimation with confidence |
US11726349B2 (en) | 2020-02-14 | 2023-08-15 | Magic Leap, Inc. | Virtual object movement speed curve for virtual and augmented reality display systems |
DE102020120546A1 (de) | 2020-08-04 | 2022-02-10 | Gestigon Gmbh | Verfahren und vorrichtung zum identifizieren eines objekts, das für eine bestimmte person von interesse ist, auf der basis des erfassbaren verhaltens dieser person |
CN116959214B (zh) * | 2023-07-18 | 2024-04-02 | 北京至真互联网技术有限公司 | 一种通过智能眼镜提醒用户护眼方法及系统 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6499025B1 (en) * | 1999-06-01 | 2002-12-24 | Microsoft Corporation | System and method for tracking objects by fusing results of multiple sensing modalities |
US20020039111A1 (en) * | 2000-06-27 | 2002-04-04 | James Gips | Automated visual tracking for computer access |
AU2003269772A1 (en) * | 2002-10-15 | 2004-05-04 | Volvo Technology Corporation | Method and arrangement for interpreting a subjects head and eye activity |
US7436980B2 (en) * | 2004-05-27 | 2008-10-14 | Siemens Corporate Research, Inc. | Graphical object models for detection and tracking |
US8111873B2 (en) * | 2005-03-18 | 2012-02-07 | Cognimatics Ab | Method for tracking objects in a scene |
US7536030B2 (en) * | 2005-11-30 | 2009-05-19 | Microsoft Corporation | Real-time Bayesian 3D pose tracking |
US8219438B1 (en) * | 2008-06-30 | 2012-07-10 | Videomining Corporation | Method and system for measuring shopper response to products based on behavior and facial expression |
WO2010071928A1 (en) * | 2008-12-22 | 2010-07-01 | Seeing Machines Limited | Automatic calibration of a gaze direction algorithm from user behaviour |
WO2011008793A1 (en) * | 2009-07-13 | 2011-01-20 | Emsense Corporation | Systems and methods for generating bio-sensory metrics |
US9507418B2 (en) * | 2010-01-21 | 2016-11-29 | Tobii Ab | Eye tracker based contextual action |
US8649606B2 (en) * | 2010-02-10 | 2014-02-11 | California Institute Of Technology | Methods and systems for generating saliency models through linear and/or nonlinear integration |
US20110263946A1 (en) * | 2010-04-22 | 2011-10-27 | Mit Media Lab | Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences |
US20120106793A1 (en) * | 2010-10-29 | 2012-05-03 | Gershenson Joseph A | Method and system for improving the quality and utility of eye tracking data |
JP5648443B2 (ja) * | 2010-11-26 | 2015-01-07 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
CA2853709C (en) | 2011-10-27 | 2020-09-01 | Tandemlaunch Technologies Inc. | System and method for calibrating eye gaze data |
US9489743B2 (en) * | 2013-03-13 | 2016-11-08 | Mecommerce, Inc. | Determining dimension of target object in an image using reference object |
US9734587B2 (en) * | 2015-09-30 | 2017-08-15 | Apple Inc. | Long term object tracker |
-
2014
- 2014-04-29 JP JP2016511156A patent/JP6515086B2/ja active Active
- 2014-04-29 CA CA2910552A patent/CA2910552C/en active Active
- 2014-04-29 WO PCT/IB2014/061090 patent/WO2014178005A1/en active Application Filing
- 2014-04-29 EP EP14730201.2A patent/EP2992405A1/en active Pending
-
2015
- 2015-10-05 US US14/874,761 patent/US9965031B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP2992405A1 (en) | 2016-03-09 |
WO2014178005A4 (en) | 2014-12-24 |
CA2910552A1 (en) | 2014-11-06 |
WO2014178005A1 (en) | 2014-11-06 |
US9965031B2 (en) | 2018-05-08 |
US20160026245A1 (en) | 2016-01-28 |
CA2910552C (en) | 2024-04-02 |
JP2016520917A (ja) | 2016-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6515086B2 (ja) | 経時的な確率的オブジェクト追跡のためのシステムおよび方法 | |
US9791927B2 (en) | Systems and methods of eye tracking calibration | |
US8509484B2 (en) | Information processing device and information processing method | |
EP2994812B1 (en) | Calibration of eye location | |
US9785233B2 (en) | Systems and methods of eye tracking calibration | |
CN110502099B (zh) | 可靠地检测注视与刺激之间的关联的方法 | |
CN109891189B (zh) | 策划的摄影测量 | |
JP5689850B2 (ja) | 映像解析装置、映像解析方法、および注視点表示システム | |
JP2020034919A (ja) | 構造化光を用いた視線追跡 | |
US20170148215A1 (en) | Eye Tracking for Mitigating Vergence and Accommodation Conflicts | |
JP2019531782A (ja) | アイトラッキング用途のためのセンサフュージョンのシステムおよび方法 | |
WO2017126172A1 (ja) | 情報処理装置、情報処理方法、及び記録媒体 | |
US20150309567A1 (en) | Device and method for tracking gaze | |
KR20170111938A (ko) | 시선 인식을 이용하는 콘텐츠 재생 장치 및 방법 | |
CN112578903B (zh) | 眼动追踪方法和眼动追踪器 | |
US11054903B2 (en) | Method, eyetracker and computer program for determining eye positions in digital image data | |
CN116820251B (zh) | 一种手势轨迹交互方法、智能眼镜及存储介质 | |
CN113780414B (zh) | 眼动行为分析方法、图像渲染方法、组件、装置和介质 | |
CN116204060A (zh) | 鼠标指针基于手势的移动和操纵 | |
IL295191A (en) | Method and system for determining gaze direction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160622 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170501 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170501 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181010 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6515086 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |