CN111308697A - 适应性视线追踪的校正方法 - Google Patents

适应性视线追踪的校正方法 Download PDF

Info

Publication number
CN111308697A
CN111308697A CN201910134285.0A CN201910134285A CN111308697A CN 111308697 A CN111308697 A CN 111308697A CN 201910134285 A CN201910134285 A CN 201910134285A CN 111308697 A CN111308697 A CN 111308697A
Authority
CN
China
Prior art keywords
pupil data
eyeball model
preset
pupil
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910134285.0A
Other languages
English (en)
Other versions
CN111308697B (zh
Inventor
简韶逸
方亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of CN111308697A publication Critical patent/CN111308697A/zh
Application granted granted Critical
Publication of CN111308697B publication Critical patent/CN111308697B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0012Optical design, e.g. procedures, algorithms, optimisation routines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

一种适应性视线追踪的校正方法,包含产生一眼球模型,作为当前眼球模型;校正眼球模型;当发生预设事件时,比较即时瞳孔数据集与当前眼球模型相应的瞳孔数据集,以得到瞳孔数据差值;及如果瞳孔数据差值大于预设临界值,则产生新的眼球模型。

Description

适应性视线追踪的校正方法
技术领域
本发明是有关视线追踪,特别是关于一种适应性视线追踪的校正方法。
背景技术
视线追踪(eye tracking)是一种使用感测装置以得到人眼注视位置(gazeposition)的技术。视线追踪装置(又称眼动仪)根据配置位置可分为远距型(remote)与携带型(mobile)两大类。远距型的视线追踪装置距离人眼至少为数十厘米以上,因此准确度较低。携带型的视线追踪装置设置于人眼附近,例如设置于眼镜架上,可达成较高的准确度。然而,在进行追踪时,视线追踪装置的电源须持续开启,因此使用时间受到限制,例如仅能使用数小时。
视线追踪装置可适用于各种的应用场合。例如,使用视线追踪装置于医疗照护(healthcare),可辅助侦测眨眼来改善或预防干眼症状。使用视线追踪装置于车用安全,可对驾驶进行专注力分析以预防疲劳驾驶的情形发生。使用视线追踪装置于虚拟实境(VR)或扩增实境(AR),可辅助收集资讯,使虚拟实境或扩增实境达到更好的效能。
在使用视线追踪装置之前,通常需进行校正程序。图1显示传统视线追踪校正的示意图。传统视线追踪的校正程序主要是借由侦测反射点位置以得到眼球模型与光轴(optical axis),且借由校正点可得到视轴(visual axis)。最后,计算光轴与视轴两者的差值,以完成校正。
传统视线追踪装置于持续使用过程中或使用者再次使用同一装置时,其位置不可避免的会发生变动或滑动,因而造成追踪误差或错误。因此亟需提出一种新颖的视线追踪校正方法,用以改善传统视线追踪装置的缺失。
发明内容
鉴于上述,本发明实施例的目的之一在于提出一种适应性视线追踪的校正方法,可适用于视线追踪装置以得到人眼的注视位置。当视线追踪装置的位置发生变动时,本实施例可适应性自动完成补偿或自动进行校正,以避免追踪误差或错误。
根据本发明实施例,适应性视线追踪的校正方法包含以下步骤:(a)产生一眼球模型,作为当前眼球模型;(b)校正眼球模型;(c)当发生预设事件时,比较即时瞳孔数据集与当前眼球模型相应的瞳孔数据集,以得到瞳孔数据差值;及(d)如果瞳孔数据差值大于预设临界值,则产生新的眼球模型。
前述的适应性视线追踪的校正方法,其中该步骤(a)包含:接收多个瞳孔影像以得到相应的瞳孔数据集,据以产生该眼球模型;及根据所产生的该眼球模型,得到光轴。
前述的适应性视线追踪的校正方法,其中该步骤(b)包含:使用至少一个校正点以得到视轴;及根据该视轴与该光轴之间的差值,对该眼球模型进行校正。
前述的适应性视线追踪的校正方法,其中该步骤(b)包含:根据该校正点与该光轴,计算得到旋转矩阵,据以进行旋转匹配而补偿该视轴与该光轴之间的差值,对该眼球模型进行校正。
前述的适应性视线追踪的校正方法,其中该预设事件的判断是使用计时器以计数是否已达预设期间,若已达预设期间则表示发生该预设事件;或者该预设事件的判断是等待一或多个事件源,当该事件源发出触发或通知时则表示发生该预设事件。
前述的适应性视线追踪的校正方法,其中该预设期间根据该瞳孔数据差值动态设定。
前述的适应性视线追踪的校正方法,更包含:如果该瞳孔数据差值未大于该预设临界值,则使用该即时瞳孔数据集以更新该当前眼球模型。
前述的适应性视线追踪的校正方法,更包含:如果该瞳孔数据差值未大于该预设临界值,则判断是否发生该预设事件。
一种适应性视线追踪的校正方法,包含:(a)接收多个瞳孔影像以得到相应的瞳孔数据集,据以产生一眼球模型;(b)根据所产生的该眼球模型,得到光轴;(c)使用至少一个校正点以得到视轴;(d)根据该视轴与该光轴之间的差值,对该眼球模型进行校正;(e)判断是否发生预设事件;(f)当发生预设事件时,比较即时瞳孔数据集与该当前眼球模型相应的瞳孔数据集,以得到瞳孔数据差值;及(g)如果该瞳孔数据差值大于预设临界值,则产生新的眼球模型。
前述的适应性视线追踪的校正方法,其中该步骤(d)包含:根据该校正点与该光轴,计算得到旋转矩阵,据以进行旋转匹配而补偿该视轴与该光轴之间的差值,对该眼球模型进行校正。
前述的适应性视线追踪的校正方法,其中该步骤(e)包含:使用计时器以计数是否已达预设期间,若已达预设期间则表示发生该预设事件;或者等待一或多个事件源,当该事件源发出触发或通知时则表示发生该预设事件。
前述的适应性视线追踪的校正方法,其中该预设期间根据该瞳孔数据差值动态设定。
前述的适应性视线追踪的校正方法,更包含:如果该瞳孔数据差值未大于该预设临界值,则使用该即时瞳孔数据集以更新该当前眼球模型。
前述的适应性视线追踪的校正方法,更包含:如果该瞳孔数据差值未大于该预设临界值,则执行该步骤(e)以判断是否发生该预设事件。
借由上述技术方案,本发明适应性视线追踪的校正方法至少具有以下优点效果:本发明适用于视线追踪装置以得到人眼的注视位置。当视线追踪装置的位置发生变动时,本实施例可适应性自动完成补偿或自动进行校正,以避免追踪误差或错误。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1显示传统视线追踪校正的示意图。
图2显示本发明实施例的适应性视线追踪的校正方法的流程图。
图3例示智能型眼镜的立体图。
【主要元件符号说明】
200:适应性视线追踪的校正方法
21:产生眼球模型
22:校正眼球模型
23:判断是否发生预设事件
24:判断瞳孔数据差值是否大于临界值
25:更新眼球模型
31:镜腿
32:控制盒
33:镜框
34:镜片
具体实施方式
图2显示本发明实施例的适应性(adaptive)视线追踪(eye tracking)的校正方法200的流程图,可用以自动校正视线追踪装置以得到人眼的注视位置(gaze position)。本实施例可适用于远距型(remote)视线追踪装置,例如视线追踪装置与人眼相距0.5米。本实施例也可适用于携带型(mobile)视线追踪装置,例如穿戴式电脑眼镜(wearable computerglasses),或称为智能型眼镜(smart glasses)。图3例示智能型眼镜的立体图,主要包含镜腿(leg)31、镜框(frame)33及镜片34。智能型眼镜还包含控制盒32,可设于镜框33或镜腿31上。控制盒32内可设有处理器(例如数字影像处理器),用以执行本实施例的校正方法200。控制盒32内还可设有视线追踪装置的其他元件,例如感测器、发光器(illuminator)等。
在本实施例中(如图2所示),在步骤21,接收多个瞳孔影像以得到相应的瞳孔数据集,据以产生眼球模型,作为当前(current)眼球模型。根据所产生的眼球模型,可得到光轴(optical axis),其代表瞳孔向量。在本实施例中,眼球模型的产生可使用传统方法来产生,其细节不予赘述。
接着,在步骤22,使用至少一个校正点以得到视轴(visual axis),再根据视轴与光轴之间的差值,对(步骤21产生的)眼球模型进行校正。在本实施例中,根据校正点与光轴,计算得到旋转矩阵,据以进行旋转匹配而补偿视轴与光轴之间的差值,因而完成校正。
在校正完成后,视线追踪装置即可开始进行视线追踪。然而,在持续使用过程中或使用者再次使用同一装置时,视线追踪装置(例如智能型眼镜)的位置不可避免的会发生变动或滑动。鉴于此,本实施例在后续的步骤当中,进行适应性的自动补偿或自动校正,以避免追踪误差或错误。
在步骤23,判断是否发生预设事件(event)。在一实施例中,使用计时器以计数是否已达预设期间(time interval)。若已达预设期间(表示发生预设事件),则流程进入步骤24;否则,重复执行步骤23。借此,本实施例即可定时执行后续步骤所进行的适应性自动补偿或自动校正。在本说明书中,预设一词可指系统开机时所设定的,也可为系统使用期间所动态设定的。
在另一替代(alternative)实施例中,步骤23是等待一或多个事件源(eventsource),当事件源发出触发(trigger)或通知(notification)时(表示发生预设事件),则流程进入步骤24;否则,重复执行步骤23。借此,本实施例即可于需要时执行后续步骤所进行的适应性自动补偿或自动校正。
在步骤24,(当发生预设事件时)接收多个即时(real-time)瞳孔影像以得到相应的即时瞳孔数据集,据以和当前眼球模型相应的瞳孔数据集进行比较,以得到两者之间的瞳孔数据(绝对)差值。如果瞳孔数据差值大于预设临界值(表示当前眼球模型相应的瞳孔数据集已经产生实质的误差,或者表示当前眼球模型的中心与相应光轴之间的几何距离过大且其分布过于分散),则进入步骤21以产生新的眼球模型,作为当前(current)眼球模型。如前所述,步骤23当中的预设期间是可以动态设定的。例如,当瞳孔数据差值愈大,则将预设期间设得愈小,使得本实施例的校正方法200的执行频率变高。相反的,当瞳孔数据差值愈小,则将预设期间设得愈大,使得本实施例的校正方法200的执行频率变低。
如果步骤24当中瞳孔数据差值未大于预设临界值(表示当前眼球模型相应的瞳孔数据集未产生实质的误差),则进入步骤25,使用(步骤24得到的)即时瞳孔数据集以更新当前眼球模型。
在另一替代(alternative)实施例中,如果步骤24当中瞳孔数据差值未大于预设临界值,例如瞳孔数据差值过小(远小于预设临界值),则流程直接回到步骤23(而不执行步骤25),如虚线所示。
根据上述实施例,视线追踪装置于持续使用过程中或使用者再次使用同一装置时,可能造成视线追踪装置的位置的变动,本实施例可适应性自动完成补偿或自动进行校正,不需使用者的介入,也不会造成使用的中断。
以上所述,仅是本发明的较佳实施例而已,并非对本发明做任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容做出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。

Claims (14)

1.一种适应性视线追踪的校正方法,其特征在于包含:
(a)产生一眼球模型,作为当前眼球模型;
(b)校正该眼球模型;
(c)当发生预设事件时,比较即时瞳孔数据集与该当前眼球模型相应的瞳孔数据集,以得到瞳孔数据差值;及
(d)如果该瞳孔数据差值大于预设临界值,则产生新的眼球模型。
2.根据权利要求1所述的适应性视线追踪的校正方法,其特征在于,其中该步骤(a)包含:
接收多个瞳孔影像以得到相应的瞳孔数据集,据以产生该眼球模型;及
根据所产生的该眼球模型,得到光轴。
3.根据权利要求2所述的适应性视线追踪的校正方法,其特征在于,其中该步骤(b)包含:
使用至少一个校正点以得到视轴;及
根据该视轴与该光轴之间的差值,对该眼球模型进行校正。
4.根据权利要求3所述的适应性视线追踪的校正方法,其特征在于,其中该步骤(b)包含:
根据该校正点与该光轴,计算得到旋转矩阵,据以进行旋转匹配而补偿该视轴与该光轴之间的差值,对该眼球模型进行校正。
5.根据权利要求1所述的适应性视线追踪的校正方法,其特征在于:其中该预设事件的判断是使用计时器以计数是否已达预设期间,若已达预设期间则表示发生该预设事件;或者该预设事件的判断是等待一或多个事件源,当该事件源发出触发或通知时则表示发生该预设事件。
6.根据权利要求5所述的适应性视线追踪的校正方法,其特征在于:其中该预设期间根据该瞳孔数据差值动态设定。
7.根据权利要求1所述的适应性视线追踪的校正方法,其特征在于更包含:
如果该瞳孔数据差值未大于该预设临界值,则使用该即时瞳孔数据集以更新该当前眼球模型。
8.根据权利要求1所述的适应性视线追踪的校正方法,其特征在于更包含:
如果该瞳孔数据差值未大于该预设临界值,则判断是否发生该预设事件。
9.一种适应性视线追踪的校正方法,其特征在于包含:
(a)接收多个瞳孔影像以得到相应的瞳孔数据集,据以产生一眼球模型;
(b)根据所产生的该眼球模型,得到光轴;
(c)使用至少一个校正点以得到视轴;
(d)根据该视轴与该光轴之间的差值,对该眼球模型进行校正;
(e)判断是否发生预设事件;
(f)当发生预设事件时,比较即时瞳孔数据集与该当前眼球模型相应的瞳孔数据集,以得到瞳孔数据差值;及
(g)如果该瞳孔数据差值大于预设临界值,则产生新的眼球模型。
10.根据权利要求9所述的适应性视线追踪的校正方法,其特征在于,其中该步骤(d)包含:
根据该校正点与该光轴,计算得到旋转矩阵,据以进行旋转匹配而补偿该视轴与该光轴之间的差值,对该眼球模型进行校正。
11.根据权利要求9所述的适应性视线追踪的校正方法,其特征在于,其中该步骤(e)包含:
使用计时器以计数是否已达预设期间,若已达预设期间则表示发生该预设事件;或者等待一或多个事件源,当该事件源发出触发或通知时则表示发生该预设事件。
12.根据权利要求11所述的适应性视线追踪的校正方法,其特征在于:其中该预设期间根据该瞳孔数据差值动态设定。
13.根据权利要求9所述的适应性视线追踪的校正方法,其特征在于更包含:
如果该瞳孔数据差值未大于该预设临界值,则使用该即时瞳孔数据集以更新该当前眼球模型。
14.根据权利要求9所述的适应性视线追踪的校正方法,其特征在于更包含:
如果该瞳孔数据差值未大于该预设临界值,则执行该步骤(e)以判断是否发生该预设事件。
CN201910134285.0A 2018-12-11 2019-02-22 适应性视线追踪的校正方法 Active CN111308697B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW107144502 2018-12-11
TW107144502A TWI676821B (zh) 2018-12-11 2018-12-11 適應性視線追蹤的校正方法

Publications (2)

Publication Number Publication Date
CN111308697A true CN111308697A (zh) 2020-06-19
CN111308697B CN111308697B (zh) 2021-11-05

Family

ID=69189048

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910134285.0A Active CN111308697B (zh) 2018-12-11 2019-02-22 适应性视线追踪的校正方法

Country Status (3)

Country Link
US (1) US10895910B2 (zh)
CN (1) CN111308697B (zh)
TW (1) TWI676821B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE2151198A1 (en) * 2021-09-30 2023-03-31 Tobii Ab Gaze defect compensation

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5481622A (en) * 1994-03-01 1996-01-02 Rensselaer Polytechnic Institute Eye tracking apparatus and method employing grayscale threshold values
US20050175218A1 (en) * 2003-11-14 2005-08-11 Roel Vertegaal Method and apparatus for calibration-free eye tracking using multiple glints or surface reflections
US20060239670A1 (en) * 2005-04-04 2006-10-26 Dixon Cleveland Explicit raytracing for gimbal-based gazepoint trackers
CA2685976A1 (en) * 2007-05-23 2008-11-27 The University Of British Columbia Methods and apparatus for estimating point-of-gaze in three dimensions
JP2013252301A (ja) * 2012-06-07 2013-12-19 Toyota Central R&D Labs Inc 眼球中心推定装置及びプログラム
CN104750232A (zh) * 2013-12-28 2015-07-01 华为技术有限公司 一种眼动跟踪方法及装置
CN106168853A (zh) * 2016-06-23 2016-11-30 中国科学技术大学 一种自由空间头戴式视线跟踪系统
CN106662917A (zh) * 2014-04-11 2017-05-10 眼球控制技术有限公司 眼睛跟踪校准系统和方法
CN107358217A (zh) * 2017-07-21 2017-11-17 北京七鑫易维信息技术有限公司 一种视线估计方法及装置
CN108960045A (zh) * 2017-05-22 2018-12-07 宏达国际电子股份有限公司 眼球追踪方法、电子装置及非暂态电脑可读取记录媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105930762A (zh) * 2015-12-02 2016-09-07 中国银联股份有限公司 一种眼球跟踪的方法及装置
US10528131B2 (en) * 2018-05-16 2020-01-07 Tobii Ab Method to reliably detect correlations between gaze and stimuli

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5481622A (en) * 1994-03-01 1996-01-02 Rensselaer Polytechnic Institute Eye tracking apparatus and method employing grayscale threshold values
US20050175218A1 (en) * 2003-11-14 2005-08-11 Roel Vertegaal Method and apparatus for calibration-free eye tracking using multiple glints or surface reflections
US20060239670A1 (en) * 2005-04-04 2006-10-26 Dixon Cleveland Explicit raytracing for gimbal-based gazepoint trackers
CA2685976A1 (en) * 2007-05-23 2008-11-27 The University Of British Columbia Methods and apparatus for estimating point-of-gaze in three dimensions
JP2013252301A (ja) * 2012-06-07 2013-12-19 Toyota Central R&D Labs Inc 眼球中心推定装置及びプログラム
CN104750232A (zh) * 2013-12-28 2015-07-01 华为技术有限公司 一种眼动跟踪方法及装置
CN106662917A (zh) * 2014-04-11 2017-05-10 眼球控制技术有限公司 眼睛跟踪校准系统和方法
CN106168853A (zh) * 2016-06-23 2016-11-30 中国科学技术大学 一种自由空间头戴式视线跟踪系统
CN108960045A (zh) * 2017-05-22 2018-12-07 宏达国际电子股份有限公司 眼球追踪方法、电子装置及非暂态电脑可读取记录媒体
CN107358217A (zh) * 2017-07-21 2017-11-17 北京七鑫易维信息技术有限公司 一种视线估计方法及装置

Also Published As

Publication number Publication date
CN111308697B (zh) 2021-11-05
US20200183489A1 (en) 2020-06-11
TW202022432A (zh) 2020-06-16
US10895910B2 (en) 2021-01-19
TWI676821B (zh) 2019-11-11

Similar Documents

Publication Publication Date Title
US8913789B1 (en) Input methods and systems for eye positioning using plural glints
CN107506036B (zh) Vr瞳距调节方法和装置
US9291834B2 (en) System for the measurement of the interpupillary distance using a device equipped with a display and a camera
CN104090371B (zh) 一种3d眼镜及3d显示系统
CN106843474B (zh) 一种移动终端显示处理方法及系统
US10749929B2 (en) Providing eyewear equipment using a same identifier among designer, manufacturer, and purchaser
WO2015035823A1 (en) Image collection with increased accuracy
CN111513670B (zh) 用于眼睛追踪中的角膜半径的估计
CN111124104A (zh) 使用瞳孔中心位置的映射进行注视跟踪
CN104614876A (zh) 预防近视和矫正坐姿的装置
EP2706396A1 (en) Method for adapting the optical function of an adaptive ophtalmic lenses system
KR101628493B1 (ko) 안경 착용자의 시선 추적 장치 및 그 방법
CN105678209B (zh) 用于检测人的脸部方向的方法
WO2019237838A1 (zh) 可穿戴设备的参数调整方法、装置、穿戴设备及存储介质
EP3979896A1 (en) Devices, systems and methods for predicting gaze-related parameters
CN111308697B (zh) 适应性视线追踪的校正方法
WO2019021601A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN109716204B (zh) 用于对向光学系统使用者的图像显示进行管理的方法
CN111417893B (zh) 用于检验眼科镜片在镜架中的安装的方法和组件
US20190347833A1 (en) Head-mounted electronic device and method of utilizing the same
CN110426862B (zh) 一种调节智能眼镜度数的方法及智能眼镜
WO2024085895A1 (en) Online calibration of smartglasses frame deformation
WO2022259232A1 (en) System and method for fitting eye wear
CN115525139A (zh) 在头戴式显示设备中获取注视目标的方法及装置
WO2022234077A1 (en) Method, processing device and system for determining at least one centration parameter for aligning spectacle lenses in a spectacle frame to eyes of a wearer

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant