RU2016137779A - Слежение за взглядом на основе адаптивного гомографического сопоставления - Google Patents
Слежение за взглядом на основе адаптивного гомографического сопоставления Download PDFInfo
- Publication number
- RU2016137779A RU2016137779A RU2016137779A RU2016137779A RU2016137779A RU 2016137779 A RU2016137779 A RU 2016137779A RU 2016137779 A RU2016137779 A RU 2016137779A RU 2016137779 A RU2016137779 A RU 2016137779A RU 2016137779 A RU2016137779 A RU 2016137779A
- Authority
- RU
- Russia
- Prior art keywords
- gaze
- data
- head
- homographic
- adaptive
- Prior art date
Links
- 230000003044 adaptive effect Effects 0.000 title claims 11
- 210000003128 head Anatomy 0.000 claims 14
- 230000009466 transformation Effects 0.000 claims 13
- 210000001747 pupil Anatomy 0.000 claims 8
- 238000000844 transformation Methods 0.000 claims 6
- 238000000034 method Methods 0.000 claims 5
- 238000013507 mapping Methods 0.000 claims 4
- 238000006073 displacement reaction Methods 0.000 claims 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims 2
- 230000001419 dependent effect Effects 0.000 claims 2
- 238000001514 detection method Methods 0.000 claims 1
- 230000003760 hair shine Effects 0.000 claims 1
- 230000004886 head movement Effects 0.000 claims 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Multimedia (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices By Optical Means (AREA)
Claims (24)
1. Система, содержащая:
- по меньшей мере, четыре источника света, выполненные с возможностью формировать роговичные отражения в качестве блесков из глаза объекта;
- камеру, выполненную с возможностью захватывать текущее изображение, содержащее блески; и
- детектор взгляда, включающий или соединенный с корректором смещения положения головы вместе со взглядом,
- причем детектор взгляда выполнен с возможностью принимать текущее изображение, содержащее блески, и оценивать взгляд глаза объекта,
- причем корректор смещения положения головы вместе со взглядом выполнен с возможностью принимать оценку взгляда глаза объекта и корректировать смещение в оцененном взгляде посредством сопоставления данных признака, соответствующих блескам, и связанных со зрачком данных объекта, чтобы выводить скорректированную информацию взгляда, указывающую, куда в данный момент смотрит глаз объекта,
- при этом корректор смещения положения головы вместе со взглядом выполнен с возможностью корректировать смещение в оцененном взгляде с использованием адаптивного преобразования гомографического сопоставления, обученного, чтобы компенсировать пространственно варьирующиеся ошибки обнаружения взгляда или зависимые от позы головы ошибки относительно позиции калибровки, или и то, и другое.
2. Система по п. 1, в которой переменные, представляющие местоположения головы относительно позиции калибровки и позиций взгляда, основаны, по меньшей мере, частично на моделированных данных.
3. Система по п. 2, в которой моделированные данные выполнены с возможностью собирать экспериментально полученные данные для обучения адаптивного гомографического сопоставления посредством калибровки, чтобы получать предикторные переменные при различных положениях головы.
4. Система по п. 1, в которой переменные, представляющие местоположения головы относительно позиции калибровки, соответствуют относительным движениям головы между различными положениями головы, кодированными, по меньшей мере, частично посредством аффинных преобразований, преобразований подобия и/или гомографических преобразований.
5. Способ, содержащий этапы, на которых:
- оценивают взгляд, что включает в себя этап, на котором используют адаптивное преобразование гомографического сопоставления для коррекции смещения, при этом адаптивное преобразование гомографического сопоставления обучается, чтобы компенсировать пространственно варьирующиеся ошибки взгляда или зависимые от позы головы ошибки относительно позиции калибровки, или и то, и другое, что включает в себя этапы, на которых:
- захватывают текущие данные блесков и связанные со зрачком данные в изображении с использованием множества источников света и камеры, и
- предоставляют текущие данные блесков и связанные со зрачком данные, обработанные из изображения, в качестве признаков, чтобы получать зависимые от позы головы данные, на основе распознаваемого адаптивного преобразования гомографического сопоставления, которые используются, чтобы определять текущую информацию взгляда.
6. Способ по п. 5, в котором использование множества наборов позиционных данных и данных позиции зрачка содержит этап, на котором используют, по меньшей мере, некоторые моделированные данные, что включает в себя этап, на котором прогнозируют значения коррекции смещения при различных масштабированиях положения головы и/или различных движениях в пространстве положения головы.
7. Способ по п. 5, дополнительно содержащий этапы, на которых:
- выводят текущую информацию взгляда; и
- используют текущую информацию взгляда, чтобы предпринимать действие относительно изменения состояния пользовательского интерфейса.
8. Способ по п. 5, в котором распознавание модели адаптивного гомографического сопоставления содержит этап, на котором кодируют относительные движения головы посредством аффинных преобразований, посредством преобразований подобия или гомографических преобразований.
9. Способ по п. 5, в котором распознавание модели адаптивного гомографического сопоставления содержит этап, на котором кодируют связанные со зрачком данные, представляющие направления взгляда, в качестве одного или более признаков.
10. Один или более машиночитаемых носителей данных или аппаратная логика, имеющая исполняемые инструкции, причем исполняемые инструкции вынуждают процессор выполнять операции, содержащие:
- захват изображения, включающего в себя глаз объекта, из которого извлекаются данные блесков и связанные со зрачком данные в качестве признаков, причем данные блесков и связанные со зрачком данные основаны на роговичных отражениях от глаза объекта, сформированных посредством множества источников света; и
- оценку взгляда, что включает в себя использование адаптивного преобразования гомографического сопоставления для коррекции смещения, при этом адаптивное преобразование гомографического сопоставления обучается, чтобы компенсировать пространственно варьирующиеся ошибки взгляда или зависимые от позы головы ошибки относительно позиции калибровки, или и то, и другое, что включает в себя:
- предоставление текущих данных блесков и связанных со зрачком данных, извлеченных из изображения, в качестве признаков, чтобы получать зависимые от позы головы данные, на основе распознаваемого адаптивного преобразования гомографического сопоставления, которые используются, чтобы определять текущее направление взгляда.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/226,467 US9684827B2 (en) | 2014-03-26 | 2014-03-26 | Eye gaze tracking based upon adaptive homography mapping |
US14/226,467 | 2014-03-26 | ||
PCT/US2015/020178 WO2015179008A1 (en) | 2014-03-26 | 2015-03-12 | Eye gaze tracking based upon adaptive homography mapping |
Publications (3)
Publication Number | Publication Date |
---|---|
RU2016137779A true RU2016137779A (ru) | 2018-03-23 |
RU2016137779A3 RU2016137779A3 (ru) | 2018-10-02 |
RU2685020C2 RU2685020C2 (ru) | 2019-04-16 |
Family
ID=54066176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2016137779A RU2685020C2 (ru) | 2014-03-26 | 2015-03-12 | Слежение за взглядом на основе адаптивного гомографического сопоставления |
Country Status (11)
Country | Link |
---|---|
US (1) | US9684827B2 (ru) |
EP (1) | EP3123283B1 (ru) |
JP (1) | JP6502370B2 (ru) |
KR (1) | KR102334139B1 (ru) |
CN (1) | CN106133648B (ru) |
AU (1) | AU2015264699B2 (ru) |
CA (1) | CA2940241C (ru) |
ES (1) | ES2680825T3 (ru) |
MX (1) | MX2016012193A (ru) |
RU (1) | RU2685020C2 (ru) |
WO (1) | WO2015179008A1 (ru) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8885882B1 (en) * | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
US9465444B1 (en) * | 2014-06-30 | 2016-10-11 | Amazon Technologies, Inc. | Object recognition for gesture tracking |
JP6547268B2 (ja) * | 2014-10-02 | 2019-07-24 | 富士通株式会社 | 視線位置検出装置、視線位置検出方法及び視線位置検出プログラム |
RU2596062C1 (ru) * | 2015-03-20 | 2016-08-27 | Автономная Некоммерческая Образовательная Организация Высшего Профессионального Образования "Сколковский Институт Науки И Технологий" | Способ коррекции изображения глаз с использованием машинного обучения и способ машинного обучения |
US9990921B2 (en) * | 2015-12-09 | 2018-06-05 | Lenovo (Singapore) Pte. Ltd. | User focus activated voice recognition |
US10664949B2 (en) * | 2016-04-22 | 2020-05-26 | Intel Corporation | Eye contact correction in real time using machine learning |
US10423830B2 (en) * | 2016-04-22 | 2019-09-24 | Intel Corporation | Eye contact correction in real time using neural network based machine learning |
US10178948B2 (en) * | 2016-05-11 | 2019-01-15 | Miraco Light Inc. | Self operatable ophthalmic device |
JP2017211430A (ja) * | 2016-05-23 | 2017-11-30 | ソニー株式会社 | 情報処理装置および情報処理方法 |
DE102016210288A1 (de) | 2016-06-10 | 2017-12-14 | Volkswagen Aktiengesellschaft | Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung |
US11042984B2 (en) * | 2016-11-10 | 2021-06-22 | Movea | Systems and methods for providing image depth information |
KR20180061956A (ko) * | 2016-11-30 | 2018-06-08 | 삼성전자주식회사 | 눈 위치 예측 방법 및 장치 |
US10152822B2 (en) * | 2017-04-01 | 2018-12-11 | Intel Corporation | Motion biased foveated renderer |
US10319064B2 (en) | 2017-04-10 | 2019-06-11 | Intel Corporation | Graphics anti-aliasing resolve with stencil mask |
US11647903B2 (en) * | 2017-06-01 | 2023-05-16 | University Of Washington | Smartphone-based digital pupillometer |
US10810773B2 (en) * | 2017-06-14 | 2020-10-20 | Dell Products, L.P. | Headset display control based upon a user's pupil state |
CN107357429B (zh) * | 2017-07-10 | 2020-04-07 | 京东方科技集团股份有限公司 | 用于确定视线的方法、设备和计算机可读存储介质 |
US11250242B2 (en) * | 2017-09-13 | 2022-02-15 | Visualcamp Co., Ltd. | Eye tracking method and user terminal performing same |
US11181977B2 (en) | 2017-11-17 | 2021-11-23 | Dolby Laboratories Licensing Corporation | Slippage compensation in eye tracking |
EP3540574B1 (en) * | 2018-03-15 | 2021-08-11 | HTC Corporation | Eye tracking method, electronic device, and non-transitory computer readable storage medium |
KR102094953B1 (ko) | 2018-03-28 | 2020-03-30 | 주식회사 비주얼캠프 | 시선 추적 방법 및 이를 수행하기 위한 단말 |
JP7118697B2 (ja) | 2018-03-30 | 2022-08-16 | 株式会社Preferred Networks | 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル |
SE542553C2 (en) * | 2018-12-17 | 2020-06-02 | Tobii Ab | Gaze tracking via tracing of light paths |
US11113842B2 (en) | 2018-12-24 | 2021-09-07 | Samsung Electronics Co., Ltd. | Method and apparatus with gaze estimation |
US11221671B2 (en) | 2019-01-31 | 2022-01-11 | Toyota Research Institute, Inc. | Opengaze: gaze-tracking in the wild |
CN112183160B (zh) * | 2019-07-04 | 2024-08-13 | 北京七鑫易维科技有限公司 | 视线估计方法及装置 |
CN110647800B (zh) * | 2019-08-06 | 2022-06-03 | 广东工业大学 | 一种基于深度学习的眼神交流检测方法 |
JP7521220B2 (ja) | 2020-03-27 | 2024-07-24 | 日本電気株式会社 | 画像処理装置、視線推定装置、視線推定システム、画像処理方法およびプログラム |
GB2596541B (en) * | 2020-06-30 | 2023-09-13 | Sony Interactive Entertainment Inc | Video processing |
CN113057860B (zh) * | 2021-03-17 | 2023-06-27 | 上海海洋大学 | 一种基于物联网的眼部肌肉锻炼装置及使用方法 |
US11816260B2 (en) | 2022-04-06 | 2023-11-14 | Inseye Inc. | System and method for continuous calibration of eye tracking systems used in VR/AR HMD units |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6578962B1 (en) * | 2001-04-27 | 2003-06-17 | International Business Machines Corporation | Calibration-free eye gaze tracking |
US7515173B2 (en) * | 2002-05-23 | 2009-04-07 | Microsoft Corporation | Head pose tracking system |
US7306337B2 (en) | 2003-03-06 | 2007-12-11 | Rensselaer Polytechnic Institute | Calibration-free gaze tracking under natural head movement |
US8299979B2 (en) * | 2003-05-14 | 2012-10-30 | Broadcom Corporation | Integral eye-path alignment on telephony and computer video devices using two or more image sensing devices |
US8159519B2 (en) * | 2007-05-31 | 2012-04-17 | Eastman Kodak Company | Personal controls for personal video communications |
EP2306891A1 (en) * | 2008-07-08 | 2011-04-13 | IT University of Copenhagen | Eye gaze tracking |
US7742623B1 (en) * | 2008-08-04 | 2010-06-22 | Videomining Corporation | Method and system for estimating gaze target, gaze sequence, and gaze map from video |
CN102063624A (zh) * | 2010-11-13 | 2011-05-18 | 天津大学 | 基于单应性约束的立体图像匹配方法 |
RU2455676C2 (ru) * | 2011-07-04 | 2012-07-10 | Общество с ограниченной ответственностью "ТРИДИВИ" | Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления |
CN102567989A (zh) * | 2011-11-30 | 2012-07-11 | 重庆大学 | 基于双目立体视觉的空间定位方法 |
-
2014
- 2014-03-26 US US14/226,467 patent/US9684827B2/en active Active
-
2015
- 2015-03-12 AU AU2015264699A patent/AU2015264699B2/en active Active
- 2015-03-12 CN CN201580015458.7A patent/CN106133648B/zh active Active
- 2015-03-12 CA CA2940241A patent/CA2940241C/en active Active
- 2015-03-12 EP EP15760529.6A patent/EP3123283B1/en active Active
- 2015-03-12 ES ES15760529.6T patent/ES2680825T3/es active Active
- 2015-03-12 MX MX2016012193A patent/MX2016012193A/es unknown
- 2015-03-12 WO PCT/US2015/020178 patent/WO2015179008A1/en active Application Filing
- 2015-03-12 KR KR1020167026540A patent/KR102334139B1/ko active IP Right Grant
- 2015-03-12 RU RU2016137779A patent/RU2685020C2/ru active
- 2015-03-12 JP JP2016552536A patent/JP6502370B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
MX2016012193A (es) | 2017-01-05 |
KR20160138062A (ko) | 2016-12-02 |
US9684827B2 (en) | 2017-06-20 |
RU2016137779A3 (ru) | 2018-10-02 |
AU2015264699B2 (en) | 2019-11-14 |
CN106133648A (zh) | 2016-11-16 |
WO2015179008A1 (en) | 2015-11-26 |
KR102334139B1 (ko) | 2021-12-03 |
AU2015264699A1 (en) | 2016-09-08 |
CA2940241C (en) | 2023-01-17 |
RU2685020C2 (ru) | 2019-04-16 |
JP6502370B2 (ja) | 2019-04-17 |
US20150278599A1 (en) | 2015-10-01 |
EP3123283B1 (en) | 2018-04-25 |
ES2680825T3 (es) | 2018-09-11 |
EP3123283A1 (en) | 2017-02-01 |
JP2017523487A (ja) | 2017-08-17 |
CN106133648B (zh) | 2019-05-31 |
CA2940241A1 (en) | 2015-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2016137779A (ru) | Слежение за взглядом на основе адаптивного гомографического сопоставления | |
JP2017523487A5 (ru) | ||
KR101365789B1 (ko) | 얼굴 특징점 위치 보정 장치, 얼굴 특징점 위치 보정 방법, 및 얼굴 특징점 위치 보정 프로그램을 기록한 컴퓨터 판독가능 기록 매체 | |
US20180365515A1 (en) | Edge-based recognition, systems and methods | |
WO2021135827A1 (zh) | 视线方向确定方法、装置、电子设备及存储介质 | |
US11138419B2 (en) | Distance image processing device, distance image processing system, distance image processing method, and non-transitory computer readable recording medium | |
JP2017506379A5 (ru) | ||
JP2018028899A5 (ru) | ||
JP6007682B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN103793693A (zh) | 一种人脸转向的检测方法及其应用该方法的脸型优化方法 | |
RU2017141158A (ru) | Способ моделирования трехмерного пространства | |
JP2007128195A5 (ru) | ||
KR101288447B1 (ko) | 시선 추적 장치와 이를 이용하는 디스플레이 장치 및 그 방법 | |
JP2014137756A5 (ru) | ||
US20160104036A1 (en) | Method and apparatus for detecting blink | |
WO2017161734A1 (zh) | 通过电视和体感配件矫正人体动作及系统 | |
US11080888B2 (en) | Information processing device and information processing method | |
EP3966834A1 (en) | Scoring metric for physical activity performance and training | |
Huang et al. | Building a self-learning eye gaze model from user interaction data | |
US20180005069A1 (en) | Information Processing Apparatus and Information Processing Method | |
WO2014112346A1 (ja) | 特徴点位置検出装置、特徴点位置検出方法および特徴点位置検出プログラム | |
JPWO2018078857A1 (ja) | 視線推定装置、視線推定方法及びプログラム記録媒体 | |
JP2019012497A (ja) | 部位認識方法、装置、プログラム、及び撮像制御システム | |
WO2015198592A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
WO2015181729A1 (en) | Method of determining liveness for eye biometric authentication |