CN106200901B - 一种头戴式眼追踪装置的校正方法及头戴式眼追踪装置 - Google Patents

一种头戴式眼追踪装置的校正方法及头戴式眼追踪装置 Download PDF

Info

Publication number
CN106200901B
CN106200901B CN201610476301.0A CN201610476301A CN106200901B CN 106200901 B CN106200901 B CN 106200901B CN 201610476301 A CN201610476301 A CN 201610476301A CN 106200901 B CN106200901 B CN 106200901B
Authority
CN
China
Prior art keywords
image
feature point
skull image
wear
skull
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610476301.0A
Other languages
English (en)
Other versions
CN106200901A (zh
Inventor
杨大业
宋建华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201610476301.0A priority Critical patent/CN106200901B/zh
Publication of CN106200901A publication Critical patent/CN106200901A/zh
Application granted granted Critical
Publication of CN106200901B publication Critical patent/CN106200901B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Abstract

本申请提供了一种头戴式眼追踪装置的校正方法及头戴式眼追踪装置,方法包括:对头戴式眼追踪装置进行初始校正;在进行初始校正后,获取用户的超声头骨图像作为基准超声头骨图像;在预设时长后,获取当前的超声头骨图像;将当前的超声头骨图像与基准超声头骨图像比对,获得头戴式眼追踪装置的漂移量;基于漂移量对头戴式眼追踪装置进行校正。本申请提供的方法及装置能够基于超声头骨图像对头戴式眼追踪装置在使用过程中产生的漂移进行实时校正,因此,提高了头戴式眼追踪装置的追踪性能,用户体验较好。

Description

一种头戴式眼追踪装置的校正方法及头戴式眼追踪装置
技术领域
本发明涉及数据处理技术领域,尤其涉及一种头戴式眼追踪装置的校正方法及头戴式眼追踪装置。
背景技术
随着增强现实AR和虚拟现实VR技术的普及,其应用已经从过去专业的工业应用快速推进到消费娱乐应用,其使用场景也由相对固定的场所(例如设计室、实验室等)扩散到日常生活的场所,移动应用场景越来越丰富,例如游戏等。
由于使用场景和技术基础和传统PC、手机等差异很大,传统的输入设备,例如鼠标、键盘等无法应用于AR/VR场景,而头戴式眼追踪技术是一种适合移动AR/VR应用的技术。
然而,头戴式眼追踪技术的跟踪精度会随着用户使用时间和移动幅度(包括人为触碰)而发生漂移,对于一定时间的应用(例如10-60分钟),其精度漂移会影响到视觉凝视预测的可靠性,从而降低眼追踪系统的性能和用户体验。
发明内容
有鉴于此,本发明提供了一种头戴式眼追踪装置的校正方法及装置,用以校正头戴式眼追踪装置随着用户使用时间和移动幅度而发生的漂移,其技术方案如下:
一种头戴式眼追踪装置的校正方法,所述方法包括:
对所述头戴式眼追踪装置进行初始校正;
在进行初始校正后,获取用户的超声头骨图像作为基准超声头骨图像;
在预设时长后,获取当前的超声头骨图像;
将所述当前的超声头骨图像与所述基准超声头骨图像比对,获得所述头戴式眼追踪装置的漂移量;
基于所述漂移量对所述头戴式眼追踪装置进行校正。
其中,所述将所述当前的超声头骨图像与所述基准超声头骨图像比对,获得所述头戴式眼追踪装置的漂移量,包括:
获取所述基准超声头骨图像中目标特征点的第一位置数据,以及所述当前的超声头骨图像中所述目标特征点的第二位置数据,所述目标特征点为所述超声头骨图像中目标特征物的一特征点;
通过所述第一位置数据和所述第二位置数据计算所述目标特征点的位置偏差量作为所述头戴式眼追踪装置的漂移量。
其中,所述获取所述基准超声头骨图像中目标特征点的第一位置数据,以及所述当前的超声头骨图像中所述目标特征点的第二位置数据,包括:
通过所述基准超声头骨图像中所述目标特征物的特征数据和所述当前的超声头骨图像中所述目标特征物的特征数据,利用最大相关性分析算法分别从所述基准超声头骨图像中和所述当前的超声头骨图像中确定出相关性最大的第一特征点和第二特征点,所述第一特征点为所述基准超声头骨图像中的所述目标特征点,所述第二特征点为所述当前的超声头骨图像中的所述目标特征点;
获取所述第一特征点的位置数据作为所述基准超声头骨图像中目标特征点的第一位置数据,并获取所述第二特征点的位置数据作为所述当前的超声头骨图像中所述目标特征点的第二位置数据。
其中,所述在进行初始校正后,获取用户的超声头骨图像作为基准超声头骨图像,包括:
在进行所述初始校正后,通过至少两个超声图像传感器获取至少两个交叉平面的超声头骨图像作为所述基准超声头骨图像。
其中,所述通过所述基准超声头骨图像中目标特征物的特征数据和所述当前的超声头骨图像中所述目标特征物的特征数据,利用最大相关性分析算法分别从所述基准超声头骨图像中和所述当前的超声头骨图像中确定出相关性最大的第一特征点和第二特征点,具体为:
将所述基准超声头骨图像处理成基准三维网格并将所述当前的超声头骨图像处理成当前三维网格;
从所述基准三维网格中查找具有所述目标特征物的基准特征网格点,并从所述当前三维网格中查找具有所述目标特征物的当前特征网格点;
利用最大相关性分析算法从所述基准特征网格点和所述当前特征网格点中确定相关性最大的第一特征点和第二特征点。
其中,所述基于所述漂移量对所述头戴式眼追踪装置进行校正,包括:
通过所述初始校正后眼球与所述基准超声头骨图像中目标特征物的相对位置关系以及所述漂移量,对所述头戴式眼追踪装置进行校正。
一种头戴式眼追踪装置,包括:超声图像传感器和处理器;
所述处理器,用于对所述头戴式眼追踪装置进行初始校正;
所述超声图像传感器,用于在所述处理器进行初始校正后,获取用户的超声头骨图像作为基准超声头骨图像,并在预设时长后,获取当前的超声头骨图像;
所述处理器,还用于将所述超声图像传感器获取的所述当前的超声头骨图像与所述基准超声头骨图像比对,获得所述头戴式眼追踪装置的漂移量,并基于所述漂移量对所述头戴式眼追踪装置进行校正。
其中,所述将所述当前的超声头骨图像与所述基准超声头骨图像比对,获得所述头戴式眼追踪装置的漂移量的所述处理器,具体用于获取所述基准超声头骨图像中目标特征点的第一位置数据,以及所述当前的超声头骨图像中所述目标特征点的第二位置数据,并通过所述第一位置数据和所述第二位置数据计算所述目标特征点的位置偏差量作为所述头戴式眼追踪装置的漂移量,其中,所述目标特征点为所述超声头骨图像中目标特征物的一特征点。
其中,所述获取所述基准超声头骨图像中目标特征点的第一位置数据,以及所述当前的超声头骨图像中所述目标特征点的第二位置数据的所述处理器,具体用于通过所述基准超声头骨图像中所述目标特征物的特征数据和所述当前的超声头骨图像中所述目标特征物的特征数据,利用最大相关性分析算法分别从所述基准超声头骨图像中和所述当前的超声头骨图像中确定出相关性最大的第一特征点和第二特征点,所述第一特征点为所述基准超声头骨图像中的所述目标特征点,所述第二特征点为所述当前的超声头骨图像中的所述目标特征点;获取所述第一特征点的位置数据作为所述基准超声头骨图像中目标特征点的第一位置数据,并获取所述第二特征点的位置数据作为所述当前的超声头骨图像中所述目标特征点的第二位置数据。
其中,所述超声图像传感器至少为两个;
至少两个所述超声图像传感器,具体用于在所述处理器进行所述初始校正后,获取至少两个交叉平面的超声头骨图像作为所述基准超声头骨图像。
其中,所述通过所述基准超声头骨图像中目标特征物的特征数据和所述当前的超声头骨图像中所述目标特征物的特征数据,利用最大相关性分析算法分别从所述基准超声头骨图像中和所述当前的超声头骨图像中确定出相关性最大的第一特征点和第二特征点的所述处理器,具体用于将所述基准超声头骨图像处理成基准三维网格,并将所述当前的超声头骨图像处理成当前三维网格从所述基准三维网格中查找具有所述目标特征物的基准特征网格点,并从所述当前三维网格中查找具有所述目标特征物的当前特征网格点,利用最大相关性分析算法从所述基准特征网格点和所述当前特征网格点中确定相关性最大的第一特征点和第二特征点。
其中,所述基于所述漂移量对所述头戴式眼追踪装置进行校正的所述处理器,具体用于通过所述初始校正后眼球与所述基准超声头骨图像中目标特征物的相对位置关系以及所述漂移量,对所述头戴式眼追踪装置进行校正。
上述技术方案具有如下有益效果:
本发明提供的头戴式眼追踪装置的校正方法及头戴式眼追踪装置,在进行初始校正后获取用户头骨的超声图像作为基准超声头骨图像,一段时间后,由于使用时间和移动幅度会导致头戴式眼追踪装置发生漂移,这使得头戴式眼追踪装置无法进行精确的追踪,为了使头戴式眼追踪装置能够精确追踪,本发明获取当前的超声头骨图像,将当前的超声头骨图像与基准超声头骨图像进行比对,从而能够确定出漂移量,在确定出漂移量后便可基于该漂移量对头戴式眼追踪装置进行校正。由此可见,本发明提供的头戴式眼追踪装置的校正方法适合于移动应用场景,其能对头戴式眼追踪装置在使用过程中产生的漂移进行实时校正,因此,能够保证头戴式眼追踪装置在使用过程中具有较高的追踪精度,即提高了头戴式眼追踪装置的追踪性能,用户体验较好。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的头戴式眼追踪装置的校正方法的一流程示意图;
图2为本发明实施例提供的头戴式眼追踪装置的校正方法的另一流程示意图;
图3为本发明实施例提供的头戴式眼追踪装置的校正方法中,获取基准超声头骨图像中目标特征点的第一位置数据,以及当前的超声头骨图像中目标特征点的第二位置数据的实现过程的流程示意图;
图4为本发明实施例提供的头戴式眼追踪装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供了一种头戴式眼追踪装置的校正方法,请参阅图1,示出了该方法的流程示意图,该方法可以包括:
步骤S101:对头戴式眼追踪装置进行初始校正。
初始校正在头戴式眼追踪装置的使用初期进行,其是对头戴式眼追踪装置进行的静态校正。
步骤S102:在进行初始校正后,获取用户的超声头骨图像作为基准超声头骨图像。
超声波的频率为1-18Mhz,其波长在4mm-0.1mm,其不同的介质中速度不同会影响到波长。在人的头骨中,超声波声速为3000m/s,如果使用8Mhz超声波,波长为0.4mm,脑颅组织中波长为0.2mm。人的头骨直径约550mm,因此,超声波分辨率可以提供很高的角分辨率,其理论值比目前人眼跟踪设备的分辨率高一个数量级以上。基于超声波的上述特性,本发明实施例采用超声波图像对头戴式眼追踪装置所产生漂移进行校正。
步骤S103:在预设时长后,获取当前的超声头骨图像。
步骤S104:将当前的超声头骨图像与基准超声头骨图像比对,获得头戴式眼追踪装置的漂移量。
头戴式眼追踪装置使用一段时间后,由于用户的移动等因素导致头戴式眼追踪装置发生漂移,因此,获取的超声头骨图像相对基准超声头骨图像已发生偏移,通过将当前的超声头骨图像与基准超声头骨图进行比对便可获得头戴式眼追踪装置的漂移量。
步骤S105:基于漂移量对头戴式眼追踪装置进行校正。
本发明实施例提供的头戴式眼追踪装置的校正方法,在进行初始校正后获取用户头骨的超声图像作为基准超声头骨图像,一段时间后,由于使用时间和移动幅度会导致头戴式眼追踪装置发生漂移,这使得头戴式眼追踪装置无法进行精确的追踪,为了使头戴式眼追踪装置能够精确追踪,本发明实施例获取当前的超声头骨图像,将当前的超声头骨图像与基准超声头骨图像进行比对,从而能够确定出漂移量,在确定出漂移量后便可基于该漂移量对头戴式眼追踪装置进行校正。由此可见,本发明实施例提供的头戴式眼追踪装置的校正方法适合于移动应用场景,其能对头戴式眼追踪装置在使用过程中产生的漂移进行实时校正,因此,能够保证头戴式眼追踪装置在使用过程中具有较高的追踪精度,即提高了头戴式眼追踪装置的追踪性能,用户体验较好。
请参阅图2,示出了本发明实施例提供的头戴式眼追踪装置的校正方法的另一流程示意图,可以包括:
步骤S201:对头戴式眼追踪装置进行初始校正。
初始校正在头戴式眼追踪装置的使用初期进行,其是对头戴式眼追踪装置进行的静态校正。
步骤S202:在进行初始校正后,获取用户的超声头骨图像作为基准超声头骨图像。
在本实施例中,可通过至少两个超声图像传感器采集至少两个交叉平面的超声头骨图像作为基准超声头骨图像。
步骤S203:在预设时长后,获取当前的超声头骨图像。
步骤S204:获取基准超声头骨图像中目标特征点的第一位置数据,以及当前的超声头骨图像中目标特征点的第二位置数据。
其中,目标特征点为超声头骨图像中目标特征物的一特征点。
具体的,请参阅图3,示出了获取基准超声头骨图像中目标特征点的第一位置数据,以及当前的超声头骨图像中目标特征点的第二位置数据的实现过程的流程示意图,可以包括:
步骤S301:通过基准超声头骨图像中目标特征物的特征数据和当前的超声头骨图像中目标特征物的特征数据,利用最大相关性分析算法分别从基准超声头骨图像中和当前的超声头骨图像中确定出相关性最大的第一特征点和第二特征点。
其中,第一特征点为基准超声头骨图像中的目标特征点,第二特征点为当前的超声头骨图像中的目标特征点。
在本实施例中,通过基准超声头骨图像中目标特征物的特征数据和当前的超声头骨图像中目标特征物的特征数据,利用最大相关性分析算法分别从基准超声头骨图像中和当前的超声头骨图像中确定出相关性最大的第一特征点和第二特征点的具体实现过程为:
首先,将基准超声头骨图像处理成基准三维网格,并将当前的超声头骨图像处理成当前三维网格。
考虑到三维网格比较有利于信息的处理,例如,某个特征直接可以通过其占有的三维网格来进行编码,因此,本实施例将通过至少两个传感器获取的超声图像处理成三维网格。其中,网格具体的大小取决于所用超声波波长特征以及系统的设计。
其次,从基准三维网格中查找具有目标特征物的基准特征网格点,并从当前三维网格中查找具有目标特征物的当前特征网格点。
最后,利用最大相关性分析算法从基准特征网格点和当前特征网格点中确定相关性最大的第一特征点和第二特征点。
具体的,可从基准特征网格点中获取一特征网格点作为第一特征点,计算该第一特征点的质心,然后计算各个边界点到第一特征点质心的距离;对于当前特征网格点中的各个特征网格点同样计算其质心,然后计算各个边界点到该质心的距离,如此,便得到了与当前特征网格点中各个特征网格点对应的距离数据;将第一特征点对应的距离数据分别与当前特征网格点中各个特征网格点对应的距离数据进行比较,从当前特征网格点中的各个特征网格点中找出与第一特征点相关性最大的点,将当前特征网格点中与第一特征点相关性最大的特征点作为第二特征点。第一特征点与第二特征点的相关性对大,表明第一特征点和第二特征点为同一特征点。
步骤S302:获取第一特征点的位置数据作为基准超声头骨图像中目标特征点的第一位置数据,并获取第二特征点的位置数据作为当前的超声头骨图像中目标特征点的第二位置数据。
步骤S205:通过第一位置数据和第二位置数据计算目标特征点的位置偏差量作为头戴式眼追踪装置的漂移量。
步骤S206:基于漂移量对头戴式眼追踪装置进行校正。
具体的,通过初始校正后眼球与基准超声头骨图像中目标特征物的相对位置关系以及漂移量对头戴式眼追踪装置进行校正。
本发明实施例提供的头戴式眼追踪装置的校正方法,在进行初始校正后获取用户头骨的超声图像作为基准超声头骨图像,一段时间后,由于使用时间和移动幅度会导致头戴式眼追踪装置发生漂移,这使得头戴式眼追踪装置无法进行精确的追踪,为了使头戴式眼追踪装置能够精确追踪,本发明实施例获取当前的超声头骨图像,通过当前超声头骨图像中目标特征点的位置与基准超声头骨图像中目标特征点的位置确定目标特征点的位置偏移量作为头戴式眼追踪装置的漂移量,在确定出漂移量后便可基于该漂移量对头戴式眼追踪装置进行校正。由此可见,本发明实施例提供的头戴式眼追踪装置的校正方法适合于移动应用场景,其能对头戴式眼追踪装置在使用过程中产生的漂移进行实时校正,因此,能够保证头戴式眼追踪装置在使用过程中具有较高的追踪精度,即提高了头戴式眼追踪装置的追踪性能,用户体验较好。
本发明实施例还提供了一种头戴式眼追踪装置,请参阅图4,示出了该装置的结构示意图,可以包括:超声图像传感器401和处理器402。
其中,处理器401,用于对头戴式眼追踪装置进行初始校正。
超声图像传感器402,用于在处理器401进行初始校正后,获取用户的超声头骨图像作为基准超声头骨图像,并在预设时长后,获取当前的超声头骨图像。
处理器401,还用于将超声图像传感器402获取的当前的超声头骨图像与基准超声头骨图像比对,获得头戴式眼追踪装置的漂移量,并基于漂移量对头戴式眼追踪装置进行校正。
本发明实施例提供的头戴式眼追踪装置,在进行初始校正后获取用户头骨的超声图像作为基准超声头骨图像,一段时间后,由于使用时间和移动幅度会导致头戴式眼追踪装置发生漂移,这使得头戴式眼追踪装置无法进行精确的追踪,为了使头戴式眼追踪装置能够精确追踪,本发明实施例提供的头戴式眼追踪装置通过超声图像传感器获取当前的超声头骨图像,将当前的超声头骨图像与基准超声头骨图像进行比对,从而能够确定出漂移量,在确定出漂移量后便可基于该漂移量对头戴式眼追踪装置进行校正。由此可见,本发明实施例提供的头戴式眼追踪装置适合于移动应用场景,其能对头戴式眼追踪装置在使用过程中产生的漂移进行实时校正,因此,能够保证头戴式眼追踪装置在使用过程中具有较高的追踪精度,即提高了头戴式眼追踪装置的追踪性能,用户体验较好。
在上述实施例提供的头戴式眼追踪装置中,将当前的超声头骨图像与基准超声头骨图像比对,获得头戴式眼追踪装置的漂移量的处理器,具体用于获取基准超声头骨图像中目标特征点的第一位置数据,以及当前的超声头骨图像中目标特征点的第二位置数据,并通过第一位置数据和第二位置数据计算目标特征点的位置偏差量作为头戴式眼追踪装置的漂移量,其中,目标特征点为超声头骨图像中目标特征物的一特征点。
在上述实施例提供的头戴式眼追踪装置中,获取基准超声头骨图像中目标特征点的第一位置数据,以及当前的超声头骨图像中目标特征点的第二位置数据的处理器,具体用于通过基准超声头骨图像中目标特征物的特征数据和当前的超声头骨图像中目标特征物的特征数据,利用最大相关性分析算法分别从基准超声头骨图像中和当前的超声头骨图像中确定出相关性最大的第一特征点和第二特征点,其中,第一特征点为基准超声头骨图像中的目标特征点,第二特征点为当前的超声头骨图像中的目标特征点;还具体用于获取第一特征点的位置数据作为基准超声头骨图像中目标特征点的第一位置数据,并获取第二特征点的位置数据作为当前的超声头骨图像中目标特征点的第二位置数据。
在上述实施例提供的头戴式眼追踪装置中,超声图像传感器至少为两个。则至少两个超声图像传感器,具体用于在处理器进行初始校正后,获取至少两个交叉平面的超声头骨图像作为基准超声头骨图像。
在上述实施例提供的头戴式眼追踪装置中,通过基准超声头骨图像中目标特征物的特征数据和当前的超声头骨图像中目标特征物的特征数据,利用最大相关性分析算法分别从基准超声头骨图像中和当前的超声头骨图像中确定出相关性最大的第一特征点和第二特征点的处理器,具体用于将基准超声头骨图像处理成基准三维网格,并将当前的超声头骨图像处理成当前三维网格,从基准三维网格中查找具有目标特征物的基准特征网格点,并从当前三维网格中查找具有目标特征物的当前特征网格点,利用最大相关性分析算法从基准特征网格点和当前特征网格点中确定相关性最大的第一特征点和第二特征点。
在上述实施例提供的头戴式眼追踪装置中,基于漂移量对头戴式眼追踪装置进行校正的处理器,具体用于通过初始校正后眼球与基准超声头骨图像中目标特征物的相对位置关系以及漂移量对头戴式眼追踪装置进行校正。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法、装置和设备,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种头戴式眼追踪装置的校正方法,其特征在于,所述方法包括:
对所述头戴式眼追踪装置进行初始校正;
在进行初始校正后,获取用户的超声头骨图像作为基准超声头骨图像;
在预设时长后,获取当前的超声头骨图像;
将所述当前的超声头骨图像与所述基准超声头骨图像比对,获得所述头戴式眼追踪装置的漂移量;
基于所述漂移量对所述头戴式眼追踪装置进行校正;
其中,所述将所述当前的超声头骨图像与所述基准超声头骨图像比对,获得所述头戴式眼追踪装置的漂移量,包括:获取所述基准超声头骨图像中目标特征点的第一位置数据,以及所述当前的超声头骨图像中所述目标特征点的第二位置数据,所述目标特征点为所述超声头骨图像中目标特征物的一特征点;
通过所述第一位置数据和所述第二位置数据计算所述目标特征点的位置偏差量作为所述头戴式眼追踪装置的漂移量。
2.根据权利要求1所述的头戴式眼追踪装置的校正方法,其特征在于,所述获取所述基准超声头骨图像中目标特征点的第一位置数据,以及所述当前的超声头骨图像中所述目标特征点的第二位置数据,包括:
通过所述基准超声头骨图像中所述目标特征物的特征数据和所述当前的超声头骨图像中所述目标特征物的特征数据,利用最大相关性分析算法分别从所述基准超声头骨图像中和所述当前的超声头骨图像中确定出相关性最大的第一特征点和第二特征点,所述第一特征点为所述基准超声头骨图像中的所述目标特征点,所述第二特征点为所述当前的超声头骨图像中的所述目标特征点;
获取所述第一特征点的位置数据作为所述基准超声头骨图像中目标特征点的第一位置数据,并获取所述第二特征点的位置数据作为所述当前的超声头骨图像中所述目标特征点的第二位置数据。
3.根据权利要求1所述的头戴式眼追踪装置的校正方法,其特征在于,所述在进行初始校正后,获取用户的超声头骨图像作为基准超声头骨图像,包括:
在进行所述初始校正后,通过至少两个超声图像传感器获取至少两个交叉平面的超声头骨图像作为所述基准超声头骨图像。
4.根据权利要求2所述的头戴式眼追踪装置的校正方法,其特征在于,所述通过所述基准超声头骨图像中目标特征物的特征数据和所述当前的超声头骨图像中所述目标特征物的特征数据,利用最大相关性分析算法分别从所述基准超声头骨图像中和所述当前的超声头骨图像中确定出相关性最大的第一特征点和第二特征点,具体为:
将所述基准超声头骨图像处理成基准三维网格并将所述当前的超声头骨图像处理成当前三维网格;
从所述基准三维网格中查找具有所述目标特征物的基准特征网格点,并从所述当前三维网格中查找具有所述目标特征物的当前特征网格点;
利用最大相关性分析算法从所述基准特征网格点和所述当前特征网格点中确定相关性最大的第一特征点和第二特征点。
5.根据权利要求1-4中任意一项所述的头戴式眼追踪装置的校正方法,其特征在于,所述基于所述漂移量对所述头戴式眼追踪装置进行校正,包括:
通过所述初始校正后眼球与所述基准超声头骨图像中目标特征物的相对位置关系以及所述漂移量,对所述头戴式眼追踪装置进行校正。
6.一种头戴式眼追踪装置,其特征在于,包括:超声图像传感器和处理器;
所述处理器,用于对所述头戴式眼追踪装置进行初始校正;
所述超声图像传感器,用于在所述处理器进行初始校正后,获取用户的超声头骨图像作为基准超声头骨图像,并在预设时长后,获取当前的超声头骨图像;
所述处理器,还用于将所述超声图像传感器获取的所述当前的超声头骨图像与所述基准超声头骨图像比对,获得所述头戴式眼追踪装置的漂移量,并基于所述漂移量对所述头戴式眼追踪装置进行校正;
所述处理器在将所述超声图像传感器获取的所述当前的超声头骨图像与所述基准超声头骨图像比对,获得所述头戴式眼追踪装置的漂移量时,具体用于获取所述基准超声头骨图像中目标特征点的第一位置数据,以及所述当前的超声头骨图像中所述目标特征点的第二位置数据,并通过所述第一位置数据和所述第二位置数据计算所述目标特征点的位置偏差量作为所述头戴式眼追踪装置的漂移量,其中,所述目标特征点为所述超声头骨图像中目标特征物的一特征点。
7.根据权利要求6所述的头戴式眼追踪装置,其特征在于,所述获取所述基准超声头骨图像中目标特征点的第一位置数据,以及所述当前的超声头骨图像中所述目标特征点的第二位置数据的所述处理器,具体用于通过所述基准超声头骨图像中所述目标特征物的特征数据和所述当前的超声头骨图像中所述目标特征物的特征数据,利用最大相关性分析算法分别从所述基准超声头骨图像中和所述当前的超声头骨图像中确定出相关性最大的第一特征点和第二特征点,所述第一特征点为所述基准超声头骨图像中的所述目标特征点,所述第二特征点为所述当前的超声头骨图像中的所述目标特征点;获取所述第一特征点的位置数据作为所述基准超声头骨图像中目标特征点的第一位置数据,并获取所述第二特征点的位置数据作为所述当前的超声头骨图像中所述目标特征点的第二位置数据。
8.根据权利要求6所述的头戴式眼追踪装置,其特征在于,所述超声图像传感器至少为两个;
至少两个所述超声图像传感器,具体用于在所述处理器进行所述初始校正后,获取至少两个交叉平面的超声头骨图像作为所述基准超声头骨图像。
9.根据权利要求7所述的头戴式眼追踪装置,其特征在于,所述通过所述基准超声头骨图像中目标特征物的特征数据和所述当前的超声头骨图像中所述目标特征物的特征数据,利用最大相关性分析算法分别从所述基准超声头骨图像中和所述当前的超声头骨图像中确定出相关性最大的第一特征点和第二特征点的所述处理器,具体用于将所述基准超声头骨图像处理成基准三维网格,并将所述当前的超声头骨图像处理成当前三维网格从所述基准三维网格中查找具有所述目标特征物的基准特征网格点,并从所述当前三维网格中查找具有所述目标特征物的当前特征网格点,利用最大相关性分析算法从所述基准特征网格点和所述当前特征网格点中确定相关性最大的第一特征点和第二特征点。
10.根据权利要求6-9中任意一项所述的头戴式眼追踪装置,其特征在于,所述基于所述漂移量对所述头戴式眼追踪装置进行校正的所述处理器,具体用于通过所述初始校正后眼球与所述基准超声头骨图像中目标特征物的相对位置关系以及所述漂移量,对所述头戴式眼追踪装置进行校正。
CN201610476301.0A 2016-06-24 2016-06-24 一种头戴式眼追踪装置的校正方法及头戴式眼追踪装置 Active CN106200901B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610476301.0A CN106200901B (zh) 2016-06-24 2016-06-24 一种头戴式眼追踪装置的校正方法及头戴式眼追踪装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610476301.0A CN106200901B (zh) 2016-06-24 2016-06-24 一种头戴式眼追踪装置的校正方法及头戴式眼追踪装置

Publications (2)

Publication Number Publication Date
CN106200901A CN106200901A (zh) 2016-12-07
CN106200901B true CN106200901B (zh) 2019-03-29

Family

ID=57461879

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610476301.0A Active CN106200901B (zh) 2016-06-24 2016-06-24 一种头戴式眼追踪装置的校正方法及头戴式眼追踪装置

Country Status (1)

Country Link
CN (1) CN106200901B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10191539B2 (en) * 2017-03-20 2019-01-29 Intel Corporation User aware odometry correction technology
CN108663806A (zh) * 2017-03-31 2018-10-16 及至微机电股份有限公司 具有瞳孔追踪功能的影像投影装置及其瞳孔位置追踪装置
CN107024992B (zh) * 2017-04-14 2019-11-19 苏州蜗牛数字科技股份有限公司 一种限定vr头盔追踪范围的方法
CN108196676B (zh) * 2018-01-02 2021-04-13 联想(北京)有限公司 跟踪识别方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103458770A (zh) * 2011-03-18 2013-12-18 Smi创新传感技术有限公司 照射特性能够调节的用于捕获至少一个眼睛的至少一个参数的光学测量装置和方法
CN103838378A (zh) * 2014-03-13 2014-06-04 广东石油化工学院 一种基于瞳孔识别定位的头戴式眼睛操控系统
WO2015103444A1 (en) * 2013-12-31 2015-07-09 Eyefluence, Inc. Systems and methods for gaze-based media selection and editing

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201310368D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-mountable apparatus and systems

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103458770A (zh) * 2011-03-18 2013-12-18 Smi创新传感技术有限公司 照射特性能够调节的用于捕获至少一个眼睛的至少一个参数的光学测量装置和方法
WO2015103444A1 (en) * 2013-12-31 2015-07-09 Eyefluence, Inc. Systems and methods for gaze-based media selection and editing
CN103838378A (zh) * 2014-03-13 2014-06-04 广东石油化工学院 一种基于瞳孔识别定位的头戴式眼睛操控系统

Also Published As

Publication number Publication date
CN106200901A (zh) 2016-12-07

Similar Documents

Publication Publication Date Title
CN106200901B (zh) 一种头戴式眼追踪装置的校正方法及头戴式眼追踪装置
CN106896403B (zh) 弹性高斯束偏移成像方法和系统
CN104658012A (zh) 一种基于惯性与光学测量融合的运动捕捉方法
CN110288638B (zh) 一种断骨模型粗配准方法、系统及断骨模型配准方法
KR20150067250A (ko) 사용자 인터페이스를 위한 터치리스 입력
CN109425348A (zh) 一种同时定位与建图的方法和装置
CN104020846A (zh) 一种主机运动感测方法、组件及运动感测系统
CN108961343A (zh) 虚拟坐标系的构建方法、装置、终端设备及可读存储介质
CN104620201A (zh) 不需要指针的三维虚拟对象信息获得装置
CN109903377B (zh) 一种无需相位展开的三维人脸建模方法及系统
CN105303609A (zh) 一种三维成像和实时建模的装置和方法
CN111400747B (zh) 一种基于轨迹隐私保护的度量方法
Chang et al. RF-copybook: A millimeter level calligraphy copybook based on commodity RFID
Chakraborty et al. Captive: a cube with augmented physical tools
CN106802958B (zh) Cad数据到gis数据的转换方法及系统
CN110262667B (zh) 一种虚拟现实设备及定位方法
CN108924925A (zh) 一种施工人员定位方法及其定位系统
CN111433783A (zh) 手部模型生成方法、装置、终端设备及手部动作捕捉方法
CN111354029A (zh) 手势深度确定方法、装置、设备及存储介质
CN109933190A (zh) 一种头戴显示设备及其交互方法
CN112372632A (zh) 一种机械臂动作控制方法、设备及计算机可读存储介质
CN105451009B (zh) 一种信息处理方法及电子设备
CN107506572B (zh) 获取目标点的高度的方法和装置
CN110399039A (zh) 一种基于眼动跟踪的虚实场景融合方法
CN104540098B (zh) 基于众包的位置定位方法、系统及服务器

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant