CN110377157B - 一种应用于眼动追踪的校准方法、装置及系统 - Google Patents
一种应用于眼动追踪的校准方法、装置及系统 Download PDFInfo
- Publication number
- CN110377157B CN110377157B CN201910660856.4A CN201910660856A CN110377157B CN 110377157 B CN110377157 B CN 110377157B CN 201910660856 A CN201910660856 A CN 201910660856A CN 110377157 B CN110377157 B CN 110377157B
- Authority
- CN
- China
- Prior art keywords
- user
- calibration
- calibration parameters
- parameters
- equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明公开了一种应用于眼动追踪的校准方法、装置及系统,通过第一设备采集用户的校准数据,并基于所述校准数据生成校准参数,使得第二设备能够基于该校准参数实现目标功能。由于第一设备和第二设备的功能属性相匹配,完成了校准和体验的分布式设置,解决了现有技术中校准数据采集和实现目标功能全部依靠同一设备完成的问题,因此可以实现在用户体验的同时,对其他用户进行校准数据采集,这样可以在用户体验时无需再次进行校准数据采集,可以直接进行校准后体验,减少了等待校准的时间,提升了用户的体验效果。
Description
技术领域
本发明涉及眼动追踪技术领域,特别是涉及一种应用于眼动追踪的校准方法、装置及系统。
背景技术
随着眼动追踪技术的快速发展,眼动追踪在计算机视觉领域的关注度也日益增加。而由于每个用户的眼睛的生理结构存在一些差异,因此目前大多眼动追踪系统需要在使用前对用户进行校准,以获得用户的眼球生理数据。
例如,虚拟现实(Virtual Reality,VR)设备在使用眼动追踪功能之前,需要对使用者进行校准。但是,在实际应用场景中,如VR产品展会现场、利用VR进行集体培训或者VR游戏厅等场所,由于准备参与体验的人较多,需要对每一个人进行校准,并且只有在当前体验者体验完成后,才能使得下一位体验者进行校准后体验,这样逐个体验者完成校准和体验的过程,使得每一位体验者等待体验的时间较长,使得用户的体验效果较差。
发明内容
针对于上述问题,本发明提供一种应用于眼动追踪的校准方法、装置及系统,减少了用户等待体验的时间,提升了用户体验效果。
为了实现上述目的,本发明提供了如下技术方案:
一种应用于眼动追踪的校准方法,该方法包括:
利用第一设备采集用户的校准数据;
基于所述校准数据生成校准参数,使得第二设备能够基于所述校准参数实现目标功能;
其中,所述第一设备与所述第二设备的功能属性相匹配。
可选地,所述目标功能包括眼球追踪功能,该方法还包括:
通过所述第一设备生成校准参数,使得第二设备能够基于所述校准参数实现眼球追踪功能;其中,所述第一设备和所述第二设备的硬件相同。
可选地,该方法还包括:
将所述校准参数与用户标识进行匹配存储,获得校准参数数据集;
响应于用户对第二设备的使用,在所述校准参数数据集中通过所述用户标识,调用与所述用户相匹配的校准参数,使得所述第二设备通过所述校准参数实现所述目标功能。
可选地,所述用户标识包括生物识别标识,所述响应于用户对所述第二设备的使用,在所述校准参数数据集中通过所述用户标识,调用与所述用户相匹配的校准参数,包括:
响应于用户对所述第二设备的使用,获取所述用户的生物识别标识;
基于所述生物识别标识,在所述校准参数数据集中调用与所述用户相匹配的校准参数。
可选地,所述用户对所述第二设备的使用包括:拥有至少两个用户的用户集合对所述第二设备进行使用,所述用户标识包括顺序标识,其中,所述在所述校准参数数据集中通过所述用户标识,调用与所述用户相匹配的校准参数,包括:
确定所述用户集合中的每个用户针对所述第二设备的使用顺序,并生成各个用户的顺序标识;
基于所述顺序标识,在所述校准参数数据集中调用与所述用户相匹配的校准参数。
可选地,所述第一设备与所述第二设备能够进行数据传输,该方法还包括:
通过所述第一设备将所述校准参数发送至所述第二设备,使得所述第二设备能够基于所述校准参数实现目标功能,其中,所述第一设备基于所述校准数据,生成校准参数。
可选地,所述第一设备包括至少一个设备,且各个设备并行分布,其中,所述利用第一设备采集用户的校准数据,包括:
通过所述第一设备的各个设备并行采集用户的校准数据。
可选地,所述第二设备为虚拟现实设备,其中,所述第一设备与所述第二设备的硬件相同,包括:
所述第一设备与所述第二设备存在相同的头显装置、眼动追踪配件和管理模块。
一种应用于眼球追踪的校准装置,该装置包括:
采集单元,用于利用第一设备采集用户的校准数据;
生成单元,用于基于所述校准数据,生成校准参数,使得第二设备能够基于所述校准参数实现目标功能;
其中,所述第一设备与所述第二设备的功能属性相匹配。
一种应用于眼动追踪的校准系统,该系统包括:
第一设备,用于采集用户的校准数据,并基于所述校准数据生成校准参数;
第二设备,用于根据所述校准参数实现目标功能;
其中,所述第一设备和所述第二设备的功能属性相匹配。
可选地,该系统还包括:
存储设备,用于存储所述第一设备生成的校准参数;
其中,所述第二设备通过调用所述存储设备中的校准参数,实现与所述校准参数对应的目标功能。
可选地,该系统还包括:
连接设备,用于连接所述第一设备和所述第二设备;
其中,所述第一设备基于所述连接设备将所述校准参数发送至所述第二设备。
相较于现有技术,本发明提供了一种应用于眼动追踪的校准方法、装置及系统,通过第一设备采集用户的校准数据,并基于所述校准数据生成校准参数,使得第二设备能够基于该校准参数实现目标功能。由于第一设备和第二设备的功能属性相匹配,完成了校准和体验的分布式设置,解决了现有技术中校准数据采集和实现目标功能全部依靠同一设备完成的问题,因此可以实现在用户体验的同时,对其他用户进行校准数据采集,这样可以在用户体验时无需再次进行校准数据采集,可以直接进行校准后体验,减少了等待校准的时间,提升了用户的体验效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例一提供的一种应用于眼动追踪的校准方法的流程示意图;
图2为本发明实施例二提供的一种校准设备部署示意图;
图3为本发明实施例三提供的一种校准参数的调用方法的流程示意图;
图4为本发明实施例四提供的一种校准参数的调用方法的流程示意图;
图5为本发明实施例五提供的一种校准设备的布局示意图;
图6为本发明实施例六提供的一种应用于眼球追踪的校准装置的结构示意图;
图7为本发明实施例七提供的一种应用于眼球追踪的校准系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”和“第二”等是用于区别不同的对象,而不是用于描述特定的顺序。此外术语“包括”和“具有”以及他们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有设定于已列出的步骤或单元,而是可包括没有列出的步骤或单元。
在本发明实施例中提供了校准方法及其相关处理的方法步骤应用于眼动追踪技术,眼动追踪是通过测量眼睛运动情况来估计眼睛的视线和/或注视点的技术,眼球追踪技术需要用到专用设备,如眼动仪。在这些专用设备使用过程中,用户需要根据特定的眼动方式才可以控制设备,因此每个用户可以根据自己特定的眼动习惯对设备进行校准,使得后续的眼动控制可以根据用户的眼动习惯来操作。
实施例一
在本发明的实施例一中提供了一种应用于眼动追踪的校准方法,参见图1,该方法包括:
S101、利用第一设备采集用户的校准数据;
S102、基于校准数据生成校准参数,使得第二设备能够基于校准参数实现目标功能。
在该实施例中的校准方法,利用了两个设备完成,即实现了分布式校准。其中,第一设备和第二设备的功能属性相匹配,例如,二者能够实现相同的功能。
第一设备主要负责采集用户的校准数据。当第一设备采集到用户的校准数据后,可以由第一设备生成对应的校准参数,也可以由第二设备生成校准参数,又或者可以通过第一设备和第一设备共同进行数据传输连接的第三设备完成校准参数生成的过程。具体的,可以结合第一设备和第二设备的功能属性来确定生成校准参数的设备。为了进一步节省用户的体验等待时间和节省硬件成本,在本发明实施例中优选通过第一设备生成校准参数,这样第二设备可以在用户体验时直接调用生成的校准参数实现对应的目标功能,即只进行体验处理,而无需参与校准处理过程。因此,实现了校准过程在第一设备实现,应用过程在第二设备实现的目的。可以解决现有技术中即在同一设备上进行校准和应用带来的时间较长的问题。
在眼动追踪领域中,第一设备首先采集用户的校准数据,其中,该校准数据可以为包括用户眼部特征数据的图像数据,如用户的眼部图像或者用户的脸部图像,也可以为能够实现对用户进行校准的生物特征数据。
例如,通过视线追踪装置进行校准数据采集时,由于视线追踪装置可以是MEMS微机电系统,例如包括MEMS红外扫描反射镜、红外光源、红外接收器,通过拍摄眼部图像检测眼球运动;也可以是电容传感器,其通过眼球与电容极板之间的电容值来检测眼球运动;还可以是肌电流检测器,例如通过在鼻梁、额头、耳朵或耳垂处放置电极,通过检测的肌电流信号模式来检测眼球运动。
因此用户的校准数据可以包括:眼部特征图像和/或电容值和/或肌电流信号等数据。眼部特征图像包括:瞳孔位置、瞳孔形状、虹膜位置、虹膜形状、眼皮位置、眼角位置、光斑位置等。
由于每个人的用眼习惯不同,这就使得需要根据采集到的校准数据,生成与用户相匹配的校准参数,该校准参数可以表征对第二设备进行目标功能时的调整参数,如调整视线追踪模块的控制参数。
对应的,第二设备进入的目标功能可以是眼动追踪的体验功能,如虚拟现实游戏功能。
本发明实施例一提供了一种应用于眼动追踪的校准方法,通过第一设备采集用户的校准数据,并基于所述校准数据生成校准参数,使得第二设备能够基于该校准参数实现目标功能。由于第一设备和第二设备的功能属性相匹配,完成了校准和体验的分布式设置,解决了现有技术中校准数据采集和实现目标功能全部依靠同一设备完成的问题,因此可以实现在用户体验的同时,对其他用户进行校准数据采集,这样可以在用户体验时无需再次进行校准数据采集,可以直接进行校准后体验,减少了等待校准的时间,提升了用户的体验效果。
实施例二
参见图2,为本申请实施例二提供的一种校准设备部署示意图,在该图中分为了校准区域和体验区域,在校准区域设置了三台第一设备101和存储服务器102,第一设备101用于采集用户的校准数据,并生成校准参数,将校准参数发送至存储服务器102进行存储。当该用户在体验区对第二设备103进行使用时,会调取该存储服务器102中的校准参数,来完成对第二设备103的校准,并进入相应的目标功能。
需要说明的是,为了将用户进行区分,需要将第一设备101生成的校准参数与用户标识进行匹配存储,获得校准参数数据集。即为了减少用户的等待体验时间,通常会设置有多台的第一设备,为了能够满足第二设备快速调取数据的需求,第一设备需要将采集到的校准参数与被采集用户的用户标识同时存储至存储服务器中。例如,仍参见上图2所示,同时对三位用户进行校准数据的采集,这样用户1的校准参数匹配的用户标识为第一用户,用户2的校准参数匹配的用户标识为第二用户,用户3的校准参数匹配的用户标识为第三用户,以此类推。校准参数数据集最终呈现的就是用户标识与校准参数一一对应的关系。
可以理解的是,用户标识为表征用户身份的唯一信息,可以是用户的生物身份信息、用户名称、电话号码或者是第一设备自动为其分配的唯一号码标识。也可以为代表用户唯一身份的生物识别标识,或者是对应于多人体验场景中表征用户使用顺序的顺序标识。
这样当第一用户对第二设备进行使用时,即期望通过第二设备实现目标功能时,第二设备可以直接从存储服务器上获取与第一用户相匹配的校准参数,对第二设备的相关部件进行校准,并且在校准完成后直接进入该目标功能即可。因此,通过用户标识来获取校准参数可以节省校准参数匹配时间,也提高了校准的准确性。
实施例三
在以上实施例的基础上,为了进一步减少用户对第二设备进行体验的等待时间,在该实施例三中针对了拥有至少两个以上用户的用户集合对第二设备的使用场景,例如,对VR(虚拟现实)设备的体验场景,该实施例还提供了一种校准参数的调用方法,参见图3,该方法包括:
S301、确定用户集合中的每个用户针对第二设备的使用顺序,并生成各个用户的顺序标识;
S302、基于顺序标识调取校准参数,在所述校准参数数据集中调用与所述用户相匹配的校准参数。
在该实施例中的用户标识为顺序标识,当第一设备进行校准数据采集时,可以根据该顺序标识进行校准数据采集,这样可以使得生成的校准参数也是按该顺序标识进行存储的,方便于第二设备的调用。当然,也可以在第一设备进行校准数据采集时按照第一设备默认的顺序进行采集,但是要保证最后生成的校准参数与该顺序标识是匹配存储的,这样在第二设备进行校准参数调用的时候,才可以确保按照顺序标识调取到与之对应的用户的校准参数。
举例说明,例如现场有10名用户需要对VR设备进行体验,这10名用户依次在第一设备(可以是多个第一设备)上进行校准数据的采集并得到对应的顺序标识001-010。每个用户的校准数据和顺序标识一一对应的存储在存储服务器中,当用户在第二设备上进行VR体验时,就可以根据顺序标识001-010依次进行顺序体验。
另一种可能的实施例,如果用户没有按照顺序标识的顺序进行VR体验,例如第一位用户体验完毕后,第四位用户想提前进行VR体验,这时只要将第四位用户的顺序标识004输入第二设备,第二设备就可以根据该用户的顺序标识004从存储服务器上获取与该用户相匹配的校准参数,对第二设备的相关部件进行校准,并且在校准完成后直接进入VR体验。需要说明的,顺序标识001-010可以按照用户在第一设备上完成校准数据采集的时间先后顺序进行分配,即第一个完成校准数据采集的用户获得顺序标识001,第二个完成校准数据采集的用户获得顺序标识002……以此类推。
还可以采用按照提前预约的先后顺序进行编号的方式,例如,有四位用户甲乙丙丁分别预约了虚拟现实体验项目,根据其预约的先后顺序,用户甲的预约编号是001、用户丙的预约编号是002、用户丁的预约编号是003、用户乙的预约编号是004,当用户甲乙丙丁分别到达体验现场的时候,可以依据其预约编号进行校准数据的采集,另一实施方式也可以根据其到达的先后顺序进行校准数据的采集,但是需要将采集到的校准数据及生成的校准参数与预约编号进行匹配存储。并且在用户进行虚拟现实项目的体验的时候,将该预约编号对应的顺序作为体验顺序,即第一位体验用户为用户甲,对应的调用预约编号为001对应的校准参数对体验设备进行校准后进入相关的体验项目即可。当用户甲完成体验后,由用户丙进行体验,随后调用预约编号为002的校准参数,依次类推,完成用户丁和用户乙的体验项目。
在多人需要使用或者体验第二设备时,先生成用户针对第二设备的使用顺序的顺序标识,然后基于该顺序标识使得第二设备调取校准参数。例如,当多个用户需要对第二设备进行体验时,可以配置各个用户的顺序标识,该顺序标识可以来源于用户的排队顺序或者预约顺序等。然后根据该顺序标识来调用校准参数,若校准参数是与该顺序标识进行匹配存储的,可以直接通过该顺序标识来获得校准参数。若不是,则需要对该顺序标识进行解析,获得用户相关信息,然后根据该用户相关信息来确定校准参数。
如果校准参数并不是与用户进行体验时的顺序标识进行匹配存储的,可以理解为校准参数存储时具有其对应的存储顺序与用户体验时顺序标识对应的体验顺序是不同。在这种情况下,当用户进行体验时,先根据体验的顺序标识进行标识信息解析,获得对应于该用户的用户身份信息,然后根据该用户身份信息提取用户的校准参数,具体的可以为根据用户的身份信息匹配到用户的校准参数的存储标识,然后依据该存储标识确定用户的校准参数,最后利用该校准参数进行校准后完成体验。举例说明,假设有五位用户进行眼动跟踪项目的体验活动,这五位用户的体验标识分别是第一用户为001、第二用户为002、第三用户为003、第四用户为004和第五用户为005,但是这五位用户进行校准数据采集后生成的校准参数并不是按照该顺序进行存储的,而是第一用户的存储标识是a,第二用户的是b,第三用户的是c,第四用户的是d和第五用户的是e。当第一用户进行体验时,根据其顺序标识001确定是第一用户,然后基于第一用户确定其存储标识是a,根据存储标识a调用对应的校准参数;当第二用户进行体验时,根据其顺序标识002确定是第二用户,然后基于第二用户确定其存储标识是b,根据存储标识b调用对应的校准参数,以此类推,完成其余的用户的体验过程。
这样可以在当前用户对第二设备体验完成时立即对第二设备进行针对下一用户的校准,无需用户输入相应的校准指令也可以直在当前用户体验完成后,直接依据用户的顺序标识自动完成对第二设备的校准,可以更加节省校准时间。
实施例四
由于第一设备采集用户的校准参数时,主要是采集包括用户眼部特征的数据信息,因此,可以在采集用户的校准参数时,同时采集用户的生物识别信息,生成生物识别标识,如采集用户的瞳孔信息,根据瞳孔信息生成生物识别标识。
该实施例还提供了另一种校准参数的调用方法,参见图4,该方法包括:
S401、响应于用户对所述第二设备的使用,获取所述用户的生物识别标识;
S402、基于所述生物识别标识,在所述校准参数数据集中调用与所述用户相匹配的校准参数。
在第一设备对用户进行校准数据采集并生成校准参数时,需要将校准参数与用户的生物识别标识进行匹配存储。其中,生物识别标识为包括用户的生物识别信息的标识,生物识别信息可以为指纹信息、面部信息、瞳孔信息和唇纹信息中的任意一种。由于本发明提供的技术方案会主要应用在眼球追踪技术领域,所以将瞳孔信息作为生物识别标识会减少生物识别标识生成过程中的计算量和采集数据量。这是由于在第一设备采集校准数据的时候会涉及到用户的眼部特征数据,因此可以在该眼部特征数据中提取瞳孔信息,来生成生物识别标识,减少了瞳孔信息的采集步骤,会提高生成包括生物识别标识的校准参数的效率。
当用户对第二设备进行使用时,第二设备可以先获取用户的生物识别信息,根据生物识别信息生成对应的生物识别标识,再根据该生物识别标识在校准参数数据集中调取与之对应的校准参数。例如,第二设备为虚拟现实体验设备,生物识别标识为瞳孔信息,当用户佩戴第二设备的时候,第二设备可以先采集用户的瞳孔信息,基于该瞳孔信息生成该用户的生物识别标识,将该用户的生物识别标识与校准参数数据集中的生物识别标识进行比对,然后去调取第一设备生成的与该生物识别标识匹配的校准参数,然后利用该校准参数对第二设备进行校准。从而使得用户能够更好地体验虚拟现实场景。
实施例五
参见图5,其为本发明实施例五提供的一种校准设备的布局示意图,在该图中,第一设备501与第二设备502能够直接进行通讯连接,即第一设备与第二设备能够进行数据传输。通过第一设备将校准参数发送至第二设备,使得第二设备能够基于校准参数进入目标功能。当第一设备和第二设备进行数据传输时,可以基于TCP/IP协议进行组网,即构建一个小型的局域网。
在该实施方式中由于第一设备和第二设备能够直接进行通讯连接,可以使得第一设备生成的校准参数直接发送至第二设备,而无需存储至存储设备中,可以实现数据的高效传递和快速加载。
需要说明的是,在本发明的各个实施例中,第一设备包括至少一个设备,且各个设备并行分布,可以通过第一设备的各个设备并行采集用户的校准数据,这样可以节省当有多个用户等待体验时的校准数据采集的时间。
若第二设备的目标功能是眼球追踪功能,则第一设备和第二设备的硬件相同,即具有相同的眼动追踪设备等。进一步的,若第二设备为虚拟显示设备,则第一设备与第二设备存在相同的头显装置、眼动追踪配件和管理模块,其中,管理模块中存储有相同版本管理软件。
实施例六
参见图6,其示出了一种应用于眼球追踪的校准装置的结构示意图,该装置包括:
采集单元601,用于利用第一设备采集用户的校准数据;
生成单元602,用于基于所述校准数据,生成校准参数,使得第二设备能够基于所述校准参数实现目标功能;
其中,所述第一设备与所述第二设备的功能属性相匹配。
本发明提供了一种应用于眼动追踪的校准装置,在采集单元和生成单元中通过第一设备采集用户的校准数据,并基于所述校准数据生成校准参数,使得第二设备能够基于该校准参数实现目标功能。由于第一设备和第二设备的功能属性相匹配,完成了校准和体验的分布式设置,解决了现有技术中校准数据采集和实现目标功能全部依靠同一设备完成的问题,因此可以实现在用户体验的同时,对其他用户进行校准数据采集,这样可以在用户体验时无需再次进行校准数据采集,可以直接进行校准后体验,减少了等待校准的时间,提升了用户的体验效果。
在上述实施例的基础上,所述生成单元具体用于:
通过所述第一设备生成校准参数,使得第二设备能够基于所述校准参数实现眼球追踪功能;其中,所述第一设备和所述第二设备的硬件相同;所述目标功能包括眼球追踪功能。
在上述实施例的基础上,该装置还包括:
存储单元,用于将所述第一设备生成的校准参数与用户标识进行匹配存储,获得校准参数数据集;
调用单元,用于响应于用户对所述第二设备的使用,在所述校准参数数据集中通过所述用户标识,调用与所述用户相匹配的校准参数,使得所述第二设备通过所述校准参数实现所述目标功能。
在上述实施例的基础上,所述采集单元还用于:
利用所述第一设备采集用户的生物识别信息;
对应的,所述生成单元还用于根据所述生物识别信息生成生物识别标识。
在上述实施例的基础上,当用户标识包括生物识别标识时,所述调用单元,包括:
生物标识获取单元,用于响应于用户对所述第二设备的使用,获取所述用户的生物识别标识;
第一调用子单元,用于通过所述生物识别标识,在所述校准参数数据集中调用与所述用户相匹配的校准参数。
在上述实施例的基础上,当用户标识包括顺序标识时,对应的调用单元还包括:
顺序确定子单元,确定用户集合中的每个用户针对所述第二设备的使用顺序,并生成各个用户的顺序标识,其中,所述用户集合包括至少两个对所述第二设备进行使用的用户;
第二调用子单元,用于基于所述顺序标识,在所述校准参数数据集中调用与所述用户相匹配的校准参数。
在上述实施例的基础上,该装置还包括:
发送单元,用于通过所述第一设备将所述校准参数发送至所述第二设备,使得所述第二设备能够基于所述校准参数实现目标功能,其中,所述第一设备基于所述校准数据,生成校准参数。
在上述实施例的基础上,所述采集单元具体用于:
通过所述第一设备的各个设备并行采集用户的校准数据,所述第一设备包括至少一个设备,且各个设备并行分布。
在上述实施例的基础上,所述第一设备与所述第二设备的硬件相同,包括:
所述第一设备与所述第二设备存在相同的头显装置、眼动追踪配件和管理模块;所述第二设备为虚拟现实设备。
实施例七
参见图7,其为本发明实施例七提供的一种应用于眼动追踪的校准系统,该系统包括:
第一设备701,用于采集用户的校准数据,并基于所述校准数据生成校准参数;
第二设备702,用于根据所述校准参数实现目标功能;
其中,所述第一设备和所述第二设备的功能属性相匹配。
需要说明的是,在实施例七中提供的应用于眼动追踪的校准系统是包括了两个设备即第一设备和第二设备,由第一设备完成校准数据采集和校准参数生成,第二设备根据校准参数实现目标功能。对应的,第一设备也可以包括两个独立的设备,即采集设备和处理设备,由采集设备完成校准数据采集,由处理设备生成校准参数。也可以是第一设备只进校准数据采集,由第三设备生成校准参数,第二设备与第三设备连接,获取校准参数实现目标功能。
在上述实施例的基础上,该系统还包括:
存储设备,用于存储所述第一设备生成的校准参数;
其中,所述第二设备通过调用所述存储设备中的校准参数,实现与所述校准参数对应的用户相匹配的目标功能。
在上述实施例的基础上,该系统还包括:
连接设备,用于连接所述第一设备和所述第二设备;
其中,所述第一设备基于所述连接设备将所述校准参数发送至所述第二设备。
本发明提供了一种应用于眼动追踪的校准系统,通过第一设备采集用户的校准数据,并基于所述校准数据生成校准参数,使得第二设备能够基于该校准参数进入与用户匹配的目标功能。由于第一设备和第二设备的功能属性相匹配,完成了校准和体验的分布式设置,解决了现有技术中校准数据采集和实现目标功能全部依靠同一设备完成的问题,因此可以实现在用户体验的同时,对其他用户进行校准数据采集,这样可以在用户体验时无需再次进行校准数据采集,可以直接进行校准后体验,减少了等待校准的时间,提升了用户的体验效果。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (9)
1.一种应用于眼动追踪的校准方法,其特征在于,该方法包括:
利用第一设备采集用户的校准数据;
基于所述校准数据生成校准参数,使得第二设备能够基于所述校准参数实现目标功能;
其中,所述第一设备与所述第二设备的功能属性相匹配;
其中,所述目标功能包括眼球追踪功能,该方法还包括:
通过所述第一设备生成校准参数,使得第二设备能够基于所述校准参数实现眼球追踪功能;其中,所述第一设备和所述第二设备的硬件相同;
该方法还包括:
将所述校准参数与用户标识进行匹配存储,获得校准参数数据集;
响应于用户对所述第二设备的使用,在所述校准参数数据集中通过所述用户标识,调用与所述用户相匹配的校准参数,使得所述第二设备通过所述校准参数实现所述目标功能。
2.根据权利要求1所述的方法,其特征在于,所述用户标识包括生物识别标识,所述响应于用户对所述第二设备的使用,在所述校准参数数据集中通过所述用户标识,调用与所述用户相匹配的校准参数,包括:
响应于用户对所述第二设备的使用,获取所述用户的生物识别标识;
基于所述生物识别标识,在所述校准参数数据集中调用与所述用户相匹配的校准参数。
3.根据权利要求1所述的方法,其特征在于,所述用户对所述第二设备的使用包括:拥有至少两个用户的用户集合对所述第二设备进行使用,所述用户标识包括顺序标识,其中,所述在所述校准参数数据集中通过所述用户标识,调用与所述用户相匹配的校准参数,包括:
确定所述用户集合中的每个用户针对所述第二设备的使用顺序,并生成各个用户的顺序标识;
基于所述顺序标识,在所述校准参数数据集中调用与所述用户相匹配的校准参数。
4.根据权利要求1所述的方法,其特征在于,所述第一设备与所述第二设备能够进行数据传输,该方法还包括:
通过所述第一设备将所述校准参数发送至所述第二设备,使得所述第二设备能够基于所述校准参数实现目标功能,其中,所述第一设备基于所述校准数据,生成校准参数。
5.根据权利要求1所述的方法,其特征在于,所述第一设备包括至少一个设备,且各个设备并行分布,其中,所述利用第一设备采集用户的校准数据,包括:
通过所述第一设备的各个设备并行采集用户的校准数据。
6.根据权利要求1所述的方法,其特征在于,所述第二设备为虚拟现实设备,其中,所述第一设备与所述第二设备的硬件相同,包括:
所述第一设备与所述第二设备存在相同的头显装置、眼动追踪配件和管理模块。
7.一种应用于眼球追踪的校准装置,其特征在于,该装置包括:
采集单元,用于利用第一设备采集用户的校准数据;
生成单元,用于基于所述校准数据生成校准参数,使得第二设备能够基于所述校准参数实现目标功能;
其中,所述第一设备与所述第二设备的功能属性相匹配;
其中,所述目标功能包括眼球追踪功能,该装置还包括:
通过所述第一设备生成校准参数,使得第二设备能够基于所述校准参数实现眼球追踪功能;其中,所述第一设备和所述第二设备的硬件相同;
该装置还包括:
将所述校准参数与用户标识进行匹配存储,获得校准参数数据集;
响应于用户对所述第二设备的使用,在所述校准参数数据集中通过所述用户标识,调用与所述用户相匹配的校准参数,使得所述第二设备通过所述校准参数实现所述目标功能。
8.一种应用于眼动追踪的校准系统,其特征在于,该系统包括:
第一设备,用于采集用户的校准数据,并基于所述校准数据生成校准参数;
第二设备,用于根据所述校准参数实现目标功能;其中,所述目标功能包括眼球追踪功能;
其中,所述第一设备和所述第二设备的功能属性相匹配;所述第一设备和所述第二设备的硬件相同;
该系统还包括:
存储设备,用于存储所述第一设备生成的校准参数;
其中,所述第二设备通过调用所述存储设备中的校准参数,实现与所述校准参数对应的目标功能;其中,将所述校准参数与用户标识进行匹配存储,获得校准参数数据集;响应于用户对所述第二设备的使用,在所述校准参数数据集中通过所述用户标识,调用与所述用户相匹配的校准参数,使得所述第二设备通过所述校准参数实现所述目标功能。
9.根据权利要求8所述的系统,其特征在于,该系统还包括:
连接设备,用于连接所述第一设备和所述第二设备;
其中,所述第一设备基于所述连接设备将所述校准参数发送至所述第二设备。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910660856.4A CN110377157B (zh) | 2019-07-22 | 2019-07-22 | 一种应用于眼动追踪的校准方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910660856.4A CN110377157B (zh) | 2019-07-22 | 2019-07-22 | 一种应用于眼动追踪的校准方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110377157A CN110377157A (zh) | 2019-10-25 |
CN110377157B true CN110377157B (zh) | 2023-05-26 |
Family
ID=68254620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910660856.4A Active CN110377157B (zh) | 2019-07-22 | 2019-07-22 | 一种应用于眼动追踪的校准方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110377157B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112799518B (zh) * | 2021-04-15 | 2021-06-25 | 南昌虚拟现实研究院股份有限公司 | 眼球追踪数据处理方法及系统 |
CN116893953B (zh) * | 2023-09-11 | 2024-04-30 | 深圳联友科技有限公司 | 一种基于眼动追踪的界面可用性评估方法和系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107390863B (zh) * | 2017-06-16 | 2020-07-07 | 北京七鑫易维信息技术有限公司 | 设备的控制方法及装置、电子设备、存储介质 |
KR101922343B1 (ko) * | 2017-07-13 | 2018-11-26 | 광운대학교 산학협력단 | 동체 시력 검사 방법 및 시스템 |
CN109410285B (zh) * | 2018-11-06 | 2021-06-08 | 北京七鑫易维信息技术有限公司 | 一种校准方法、装置、终端设备及存储介质 |
CN109558012B (zh) * | 2018-12-26 | 2022-05-13 | 北京七鑫易维信息技术有限公司 | 一种眼球追踪方法及装置 |
-
2019
- 2019-07-22 CN CN201910660856.4A patent/CN110377157B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110377157A (zh) | 2019-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10564720B2 (en) | User input validation and verification for augmented and mixed reality experiences | |
CN109410285B (zh) | 一种校准方法、装置、终端设备及存储介质 | |
CN107390863B (zh) | 设备的控制方法及装置、电子设备、存储介质 | |
CN104038476B (zh) | 一种用于登录管理的方法、设备与系统 | |
CN110377157B (zh) | 一种应用于眼动追踪的校准方法、装置及系统 | |
CN108681399B (zh) | 一种设备控制方法、装置、控制设备及存储介质 | |
CN110568930B (zh) | 注视点校准方法及相关设备 | |
US20210196174A1 (en) | Apparatus, method and program for determining a cognitive state of a user of a mobile device | |
CN107683446A (zh) | 用于自动识别眼睛追踪设备的至少一个用户的方法以及眼睛追踪设备 | |
CN101453941A (zh) | 图像输出装置、图像输出方法以及图像输出程序 | |
CN110472485A (zh) | 识别身份的方法和装置 | |
CN112748798B (zh) | 一种眼球追踪校准方法及相关设备 | |
CN109543633A (zh) | 一种人脸识别方法、装置、机器人和存储介质 | |
CN109259724A (zh) | 一种用眼监控方法、装置、存储介质及穿戴式设备 | |
WO2016114496A1 (ko) | 시선 인식 및 생체 신호를 이용한 헤드 마운트 디스플레이를 통해 사용자 인터페이스를 제공하는 방법, 이를 이용한 장치 및 컴퓨터 판독 가능한 기록 매체 | |
CN101453938A (zh) | 图像记录装置、图像记录方法以及图像记录程序 | |
CN113495613B (zh) | 眼球追踪校准方法及装置 | |
CN110208946A (zh) | 一种穿戴设备及基于穿戴设备的交互方法 | |
CN108388338B (zh) | 一种基于vr设备的控制方法及系统 | |
CN109413470A (zh) | 一种待检测图像帧的确定方法和终端设备 | |
CN112651270B (zh) | 一种注视信息确定方法、装置、终端设备及展示对象 | |
CN113491502A (zh) | 一种眼球追踪校准检验方法、装置、设备及存储介质 | |
CN111240471A (zh) | 信息交互方法及穿戴式设备 | |
CN112784655A (zh) | 基于注视信息的活体检测方法及装置、检测设备 | |
JP5989725B2 (ja) | 電子機器及び情報表示プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |