JP2017523487A - 適応ホモグラフィ写像に基づく視線追跡 - Google Patents
適応ホモグラフィ写像に基づく視線追跡 Download PDFInfo
- Publication number
- JP2017523487A JP2017523487A JP2016552536A JP2016552536A JP2017523487A JP 2017523487 A JP2017523487 A JP 2017523487A JP 2016552536 A JP2016552536 A JP 2016552536A JP 2016552536 A JP2016552536 A JP 2016552536A JP 2017523487 A JP2017523487 A JP 2017523487A
- Authority
- JP
- Japan
- Prior art keywords
- data
- gaze
- head
- homography
- adaptive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 59
- 238000013507 mapping Methods 0.000 title claims abstract description 40
- 238000000034 method Methods 0.000 claims abstract description 48
- 238000012549 training Methods 0.000 claims abstract description 17
- 230000001419 dependent effect Effects 0.000 claims abstract description 9
- 210000003128 head Anatomy 0.000 claims description 61
- 238000012937 correction Methods 0.000 claims description 29
- 210000001508 eye Anatomy 0.000 claims description 29
- 210000001747 pupil Anatomy 0.000 claims description 22
- 230000009466 transformation Effects 0.000 claims description 21
- 238000003860 storage Methods 0.000 claims description 16
- 230000004886 head movement Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 11
- 238000013519 translation Methods 0.000 claims description 10
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 7
- 230000009471 action Effects 0.000 claims description 3
- 230000014616 translation Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 abstract description 18
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 230000006978 adaptation Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 241000201295 Euphrasia Species 0.000 description 1
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 230000003292 diminished effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000000193 eyeblink Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001915 proofreading effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Multimedia (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
概して、1つ以上のカメラ108(1)〜108(n)は、頭部位置視線偏り補正器116に結合されるか、またはそれを組み込む、視線検出器114を含む、画像処理構成要素112に送り込まれる画像を取り込む。本明細書において説明されているように、偏り補正器は、訓練された適応ホモグラフィ写像構成要素を含む。画像処理構成要素112は、ユーザが、処理されている所与のフレームまたは同様のものの内部のどこを現在注視しているのかを表す注視座標などの、視線検出出力118を提供する。このような出力118は、他の入力(例えば、マウスクリックまたはジェスチャ)と共に用いるなどするために、バッファされてもよく、オペレーティングシステムによって(例えば、カーソルを動かすために)消費されてもよく、アプリケーションおよび/または同様のものによって(例えば、メニュー項目を強調するために)用いられてもよい。概して、現在の視線情報は、ユーザインタフェースの状態を変更することに関するアクションをとるために用いられてもよい。視線検出は、他の状態変更のために、例えば、ディスプレイを待機状態もしくはオフ状態からアクティブ状態へオンにするために、(またはその逆のために、)場合により、眼の瞬きのパターンなどの他の(例えば、ジェスチャ)検出と組み合わせて用いられてもよい。
PoRCR=HGL(HgG(p))=HCR(p) (1)
ここで、HgGは平面Πgを平面ΠGに写像し、HGLは平面ΠGを平面ΠLに写像し、HCRはHGLとHgGとの合成変換である。しかし、これらの単純化の仮定は実際には妥当でないため、大きな視線推定の偏りが観察される。
PoRAH=HNL(HA(HCR(p))) (4)
式(4)において、偏り補正ホモグラフィHNLは、校正時に式(3)における同じ最小化プロセスによって計算され、同じ対象者について不変のままであることに留意されたい。対照的に、適応ホモグラフィ写像HAは、校正位置に対する現在の頭部位置、および視線方向に対して適応的に変化する必要がある。1つ以上の態様では、適応ホモグラフィは本明細書において回帰問題として説明される。すなわち、相対頭部位置および視線方向を記述する予測変数が与えられると、システムは、HA内の値を予測することを求める。
HA,x=f(x,β) (5)
2次回帰では、適応ホモグラフィの値は、定数項、線形項、2次項、および相互作用項を包含する、予測変数に対して線形である。
[0062] 図9は、本明細書において説明されている主題の諸態様が実装されてもよい好適なモバイルデバイス900の一例を示す。モバイルデバイス900はデバイスのほんの一例にすぎず、本明細書において説明されている主題の諸態様の使用または機能性の範囲に関するいかなる限定を示唆することも意図されていない。また、モバイルデバイス900は、例示的なモバイルデバイス900内に示されている構成要素のうちの任意のものまたはそれらの組み合わせに関連する任意の依存性または要求を有すると解釈されてもならない。モバイルデバイスは、スマートフォン、タブレット、ラップトップ等などのハンドヘルドデバイスを含んでもよい。パーソナルコンピュータが、例えば、ディスプレイに搭載されたカメラおよび光源とともに代替的に用いられてもよい。
[0083] 本発明は様々な変更および代替構成の余地があるが、その特定の例示された実施形態が図面に示され、以上において詳細に説明された。しかし、本発明を、開示されている特定の形態に限定する意図はなく、逆に、意図は、本発明の趣旨および範囲に含まれる全ての変更、代替構成、および同等物を包括することであることを理解されたい。
Claims (10)
- 対象者の眼からの輝点としての角膜反射を発生させるように構成される少なくとも4つの光源と、
前記輝点を包含する現在の画像を取り込むように構成されるカメラと、
視線頭部位置偏り補正器を組み込むか、または前記視線頭部位置偏り補正器に結合される視線検出器であって、前記視線検出器は、前記輝点を包含する前記現在の画像を受信し、前記対象者の眼の視線を推定するように構成され、前記視線頭部位置偏り補正器は、前記対象者の眼の前記視線の前記推定を受信し、前記輝点に対応する特徴データ、および前記対象者の瞳孔関連データを整合させることによって、前記推定された視線における偏りを補正し、前記対象者の眼が現在どこを注視しているのかを指示する補正された視線情報を出力するように構成され、前記視線偏り補正器は、校正位置に対する頭部ロケーションを表す1つ以上の変数を含む1つ以上の変数を介して学習された適応ホモグラフィ写像を用いる、視線検出器と、
を備えるシステム。 - 校正位置に対する頭部ロケーション、および注視位置を表す前記変数が、模擬データに少なくとも一部基づく、請求項1に記載のシステム。
- 前記模擬データが、様々な頭部位置における前記予測変数を得るべく校正を通じて前記適応ホモグラフィ写像を訓練するためのグランドトゥルースデータを収集するように構成される、請求項2に記載のシステム。
- 校正位置に対する頭部ロケーションを表す前記変数が、アフィン変換、相似変換および/またはホモグラフィ変換によって少なくとも一部符号化された前記様々な頭部位置の間での相対頭部移動に対応する、請求項1に記載のシステム。
- 偏り補正のために適応ホモグラフィ写像を用いることを含む、視線を推定することを含む方法であって、前記適応ホモグラフィ写像は、空間的に変化する視線誤差、または校正位置に対する頭部姿勢依存誤差、あるいはその両方に基づいて訓練され、前記推定することは、複数の光源とカメラとを用いて現在の輝点データおよび瞳孔関連データを画像内に取り込むことと、前記画像から処理された前記現在の輝点データおよび瞳孔関連データを、前記学習された適応ホモグラフィ写像に基づいて、現在の視線情報を決定するために用いられる、頭部姿勢依存データを得るための特徴として提供することと、を含む、方法。
- 位置データおよび瞳孔位置データの前記複数のセットを用いることが、異なる頭部位置スケーリングおよび/または異なる頭部位置平行移動における偏り補正値を予測することを含む少なくともいくらかの模擬データを用いることを含む、請求項5に記載の方法。
- 前記現在の視線情報を出力することと、
ユーザインタフェースの状態を変更することに関するアクションをとるために前記現在の視線情報を用いることと、
をさらに含む、請求項5に記載の方法。 - 前記適応ホモグラフィ写像モデルを学習することが、アフィン変換によって、相似変換またはホモグラフィ変換によって、相対頭部移動を符号化することを含む、請求項5に記載の方法。
- 前記適応ホモグラフィ写像モデルを学習することが、1つ以上の特徴としての視線方向を表す瞳孔関連データを符号化することを含む、請求項5に記載の方法。
- 実行可能命令を有する1つ以上の機械可読記憶媒体またはハードウェア論理であって、前記実行可能命令は、実行されると、
輝点データおよび瞳孔関連データが特徴として抽出される対象者の眼を含む画像を取り込むステップであって、前記輝点データおよび瞳孔関連データは、複数の光源によって発生させられた対象者の眼からの角膜反射に基づく、ステップと、
適応ホモグラフィ写像に対応する頭部位置の偏り補正に基づいて視線方向を決定するために前記特徴を前記適応ホモグラフィ写像に用いるステップと、
を含むステップを遂行する、機械可読記憶媒体またはハードウェア論理。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/226,467 US9684827B2 (en) | 2014-03-26 | 2014-03-26 | Eye gaze tracking based upon adaptive homography mapping |
US14/226,467 | 2014-03-26 | ||
PCT/US2015/020178 WO2015179008A1 (en) | 2014-03-26 | 2015-03-12 | Eye gaze tracking based upon adaptive homography mapping |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017523487A true JP2017523487A (ja) | 2017-08-17 |
JP2017523487A5 JP2017523487A5 (ja) | 2018-03-22 |
JP6502370B2 JP6502370B2 (ja) | 2019-04-17 |
Family
ID=54066176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016552536A Active JP6502370B2 (ja) | 2014-03-26 | 2015-03-12 | 適応ホモグラフィ写像に基づく視線追跡 |
Country Status (11)
Country | Link |
---|---|
US (1) | US9684827B2 (ja) |
EP (1) | EP3123283B1 (ja) |
JP (1) | JP6502370B2 (ja) |
KR (1) | KR102334139B1 (ja) |
CN (1) | CN106133648B (ja) |
AU (1) | AU2015264699B2 (ja) |
CA (1) | CA2940241C (ja) |
ES (1) | ES2680825T3 (ja) |
MX (1) | MX2016012193A (ja) |
RU (1) | RU2685020C2 (ja) |
WO (1) | WO2015179008A1 (ja) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8885882B1 (en) * | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
US9465444B1 (en) * | 2014-06-30 | 2016-10-11 | Amazon Technologies, Inc. | Object recognition for gesture tracking |
JP6547268B2 (ja) * | 2014-10-02 | 2019-07-24 | 富士通株式会社 | 視線位置検出装置、視線位置検出方法及び視線位置検出プログラム |
RU2596062C1 (ru) * | 2015-03-20 | 2016-08-27 | Автономная Некоммерческая Образовательная Организация Высшего Профессионального Образования "Сколковский Институт Науки И Технологий" | Способ коррекции изображения глаз с использованием машинного обучения и способ машинного обучения |
US9990921B2 (en) * | 2015-12-09 | 2018-06-05 | Lenovo (Singapore) Pte. Ltd. | User focus activated voice recognition |
US10423830B2 (en) | 2016-04-22 | 2019-09-24 | Intel Corporation | Eye contact correction in real time using neural network based machine learning |
US10664949B2 (en) * | 2016-04-22 | 2020-05-26 | Intel Corporation | Eye contact correction in real time using machine learning |
US10178948B2 (en) * | 2016-05-11 | 2019-01-15 | Miraco Light Inc. | Self operatable ophthalmic device |
JP2017211430A (ja) * | 2016-05-23 | 2017-11-30 | ソニー株式会社 | 情報処理装置および情報処理方法 |
DE102016210288A1 (de) | 2016-06-10 | 2017-12-14 | Volkswagen Aktiengesellschaft | Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung |
US11042984B2 (en) * | 2016-11-10 | 2021-06-22 | Movea | Systems and methods for providing image depth information |
KR20180061956A (ko) * | 2016-11-30 | 2018-06-08 | 삼성전자주식회사 | 눈 위치 예측 방법 및 장치 |
US10152822B2 (en) * | 2017-04-01 | 2018-12-11 | Intel Corporation | Motion biased foveated renderer |
US10319064B2 (en) | 2017-04-10 | 2019-06-11 | Intel Corporation | Graphics anti-aliasing resolve with stencil mask |
WO2018222897A1 (en) * | 2017-06-01 | 2018-12-06 | University Of Washington | Smartphone-based digital pupillometer |
US10810773B2 (en) * | 2017-06-14 | 2020-10-20 | Dell Products, L.P. | Headset display control based upon a user's pupil state |
CN107357429B (zh) * | 2017-07-10 | 2020-04-07 | 京东方科技集团股份有限公司 | 用于确定视线的方法、设备和计算机可读存储介质 |
WO2019054598A1 (ko) * | 2017-09-13 | 2019-03-21 | 주식회사 비주얼캠프 | 시선 추적 방법 및 이를 수행하기 위한 사용자 단말 |
US11181977B2 (en) | 2017-11-17 | 2021-11-23 | Dolby Laboratories Licensing Corporation | Slippage compensation in eye tracking |
EP3540574B1 (en) * | 2018-03-15 | 2021-08-11 | HTC Corporation | Eye tracking method, electronic device, and non-transitory computer readable storage medium |
KR102094953B1 (ko) * | 2018-03-28 | 2020-03-30 | 주식회사 비주얼캠프 | 시선 추적 방법 및 이를 수행하기 위한 단말 |
JP7118697B2 (ja) | 2018-03-30 | 2022-08-16 | 株式会社Preferred Networks | 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル |
SE1851597A1 (en) * | 2018-12-17 | 2020-06-02 | Tobii Ab | Gaze tracking via tracing of light paths |
US11113842B2 (en) | 2018-12-24 | 2021-09-07 | Samsung Electronics Co., Ltd. | Method and apparatus with gaze estimation |
US11221671B2 (en) | 2019-01-31 | 2022-01-11 | Toyota Research Institute, Inc. | Opengaze: gaze-tracking in the wild |
CN112183160A (zh) * | 2019-07-04 | 2021-01-05 | 北京七鑫易维科技有限公司 | 视线估计方法及装置 |
CN110647800B (zh) * | 2019-08-06 | 2022-06-03 | 广东工业大学 | 一种基于深度学习的眼神交流检测方法 |
GB2596541B (en) * | 2020-06-30 | 2023-09-13 | Sony Interactive Entertainment Inc | Video processing |
CN113057860B (zh) * | 2021-03-17 | 2023-06-27 | 上海海洋大学 | 一种基于物联网的眼部肌肉锻炼装置及使用方法 |
US11816260B2 (en) | 2022-04-06 | 2023-11-14 | Inseye Inc. | System and method for continuous calibration of eye tracking systems used in VR/AR HMD units |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040174496A1 (en) * | 2003-03-06 | 2004-09-09 | Qiang Ji | Calibration-free gaze tracking under natural head movement |
US20040227693A1 (en) * | 2003-05-14 | 2004-11-18 | Darwin Rambo | Integral eye-path alignment on telephony and computer video devices using two or more image sensing devices |
US7742623B1 (en) * | 2008-08-04 | 2010-06-22 | Videomining Corporation | Method and system for estimating gaze target, gaze sequence, and gaze map from video |
US20110182472A1 (en) * | 2008-07-08 | 2011-07-28 | Dan Witzner Hansen | Eye gaze tracking |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6578962B1 (en) * | 2001-04-27 | 2003-06-17 | International Business Machines Corporation | Calibration-free eye gaze tracking |
US7515173B2 (en) * | 2002-05-23 | 2009-04-07 | Microsoft Corporation | Head pose tracking system |
US8159519B2 (en) * | 2007-05-31 | 2012-04-17 | Eastman Kodak Company | Personal controls for personal video communications |
CN102063624A (zh) * | 2010-11-13 | 2011-05-18 | 天津大学 | 基于单应性约束的立体图像匹配方法 |
RU2455676C2 (ru) * | 2011-07-04 | 2012-07-10 | Общество с ограниченной ответственностью "ТРИДИВИ" | Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления |
CN102567989A (zh) * | 2011-11-30 | 2012-07-11 | 重庆大学 | 基于双目立体视觉的空间定位方法 |
-
2014
- 2014-03-26 US US14/226,467 patent/US9684827B2/en active Active
-
2015
- 2015-03-12 JP JP2016552536A patent/JP6502370B2/ja active Active
- 2015-03-12 MX MX2016012193A patent/MX2016012193A/es unknown
- 2015-03-12 CN CN201580015458.7A patent/CN106133648B/zh active Active
- 2015-03-12 ES ES15760529.6T patent/ES2680825T3/es active Active
- 2015-03-12 CA CA2940241A patent/CA2940241C/en active Active
- 2015-03-12 KR KR1020167026540A patent/KR102334139B1/ko active IP Right Grant
- 2015-03-12 WO PCT/US2015/020178 patent/WO2015179008A1/en active Application Filing
- 2015-03-12 EP EP15760529.6A patent/EP3123283B1/en active Active
- 2015-03-12 RU RU2016137779A patent/RU2685020C2/ru active
- 2015-03-12 AU AU2015264699A patent/AU2015264699B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040174496A1 (en) * | 2003-03-06 | 2004-09-09 | Qiang Ji | Calibration-free gaze tracking under natural head movement |
US20040227693A1 (en) * | 2003-05-14 | 2004-11-18 | Darwin Rambo | Integral eye-path alignment on telephony and computer video devices using two or more image sensing devices |
US20110182472A1 (en) * | 2008-07-08 | 2011-07-28 | Dan Witzner Hansen | Eye gaze tracking |
US7742623B1 (en) * | 2008-08-04 | 2010-06-22 | Videomining Corporation | Method and system for estimating gaze target, gaze sequence, and gaze map from video |
Also Published As
Publication number | Publication date |
---|---|
US20150278599A1 (en) | 2015-10-01 |
JP6502370B2 (ja) | 2019-04-17 |
ES2680825T3 (es) | 2018-09-11 |
CN106133648A (zh) | 2016-11-16 |
CA2940241A1 (en) | 2015-11-26 |
RU2016137779A (ru) | 2018-03-23 |
AU2015264699B2 (en) | 2019-11-14 |
WO2015179008A1 (en) | 2015-11-26 |
CN106133648B (zh) | 2019-05-31 |
US9684827B2 (en) | 2017-06-20 |
KR20160138062A (ko) | 2016-12-02 |
RU2685020C2 (ru) | 2019-04-16 |
KR102334139B1 (ko) | 2021-12-03 |
RU2016137779A3 (ja) | 2018-10-02 |
AU2015264699A1 (en) | 2016-09-08 |
EP3123283B1 (en) | 2018-04-25 |
MX2016012193A (es) | 2017-01-05 |
EP3123283A1 (en) | 2017-02-01 |
CA2940241C (en) | 2023-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6502370B2 (ja) | 適応ホモグラフィ写像に基づく視線追跡 | |
CN106133649B (zh) | 使用双目注视约束的眼睛凝视跟踪 | |
US10943402B2 (en) | Method and system for mixed reality interaction with peripheral device | |
CN108229284B (zh) | 视线追踪及训练方法和装置、系统、电子设备和存储介质 | |
US9202280B2 (en) | Position estimation based rotation of switched off light source | |
KR101722654B1 (ko) | 점 특징 및 선 특징을 사용한 강력한 추적 | |
US20200380784A1 (en) | Concealing loss of distributed simultaneous localization and mapping (slam) data in edge cloud architectures | |
US9430040B2 (en) | Eye gaze detection with multiple light sources and sensors | |
WO2020228643A1 (zh) | 交互控制方法、装置、电子设备及存储介质 | |
KR101320683B1 (ko) | 증강현실 기반의 디스플레이 보정 방법 및 모듈, 이를 이용한 객체정보 디스플레이 방법 및 시스템 | |
CN107852447A (zh) | 基于设备运动和场景距离使电子设备处的曝光和增益平衡 | |
US20210256733A1 (en) | Resolving region-of-interest (roi) overlaps for distributed simultaneous localization and mapping (slam) in edge cloud architectures | |
US10937192B2 (en) | Resolving incorrect distributed simultaneous localization and mapping (SLAM) data in edge cloud architectures | |
KR20210070175A (ko) | 깊이 카메라를 이용한 동적 멀티 카메라 조정을 위한 장치 및 방법 | |
CN116261706A (zh) | 用于使用融合数据进行对象跟踪的系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180207 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190320 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6502370 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |