CN112578901A - 眼球追踪校准方法及相关设备 - Google Patents

眼球追踪校准方法及相关设备 Download PDF

Info

Publication number
CN112578901A
CN112578901A CN201910945827.2A CN201910945827A CN112578901A CN 112578901 A CN112578901 A CN 112578901A CN 201910945827 A CN201910945827 A CN 201910945827A CN 112578901 A CN112578901 A CN 112578901A
Authority
CN
China
Prior art keywords
calibration
groups
determining
function
fixation point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910945827.2A
Other languages
English (en)
Inventor
韩世广
陈岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201910945827.2A priority Critical patent/CN112578901A/zh
Publication of CN112578901A publication Critical patent/CN112578901A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本申请公开了一种眼球追踪校准方法及相关设备,应用于电子设备,所述方法包括:在第一游戏进行的过程中,采集M组拟合数据,以及通过所述M组拟合数据确定注视点函数,所述M为大于0的整数;在所述第一游戏进行的过程中,采集N组测试数据,所述N为大于0的整数;在通过所述N组测试数据确定所述注视点函数符合校准要求时,将所述注视点函数定义为用于确定眼球注视点的注视点函数。采用本申请实施例可在不损失用户体验的情况下,获取更多的数据去校准预测点函数,从而得到更加准确的预测点函数。

Description

眼球追踪校准方法及相关设备
技术领域
本申请涉及电子技术领域,尤其涉及一种眼球追踪校准方法及相关设备。
背景技术
眼球追踪是一种机器视觉技术,通过设备捕捉用户眼部图像,然后采用算法进行分析,最后得到用户注视位置的技术。用户在首次使用眼球追踪相关设备时,需要对用户注视点进行校正,以保证在使用过程中注视点定位的准确性。目标,相关厂商为了提高用户体验性,尽可能的使用较少的校准数据,这样会导致注视点函数欠拟合,从而降低了注视点定位的准确性。
发明内容
本申请实施例提供一种眼球追踪校准方法及相关设备,用于在不损失用户体验的情况下,获取更多的数据去校准预测点函数,从而得到更加准确的预测点函数。
第一方面,本申请实施例提供一种眼球追踪校准方法,应用于电子设备,所述方法包括:
在第一游戏进行的过程中,采集M组拟合数据,以及通过所述M组拟合数据确定注视点函数,所述M为大于0的整数;
在所述第一游戏进行的过程中,采集N组测试数据,所述N为大于0的整数;
在基于所述N组测试数据确定所述注视点函数符合校准要求时,将所述注视点函数定义为用于确定眼球注视点的注视点函数。
第二方面,本申请实施例提供一种眼球追踪校准装置,应用于电子设备,所述装置包括:
采集单元,用于在第一游戏进行的过程中,采集M组拟合数据;
确定单元,用于通过所述M组拟合数据确定注视点函数,所述M为大于0的整数;
所述采集单元,还用于在所述第一游戏进行的过程中,采集N组测试数据,所述N为大于0的整数;
定义单元,用于在基于所述N组测试数据确定所述注视点函数符合校准要求时,将所述注视点函数定义为用于确定眼球注视点的注视点函数。
第三方面,本申请实施例提供一种电子设备,该电子设备包括处理器、存储器、通信接口,以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置由所述处理器执行,所述程序包括用于执行如本申请实施例第一方面所述的方法中所描述的部分或全部步骤的指令。
第四方面,本申请实施例提供了一种计算机可读存储介质,其中,上述计算机可读存储介质用于存储计算机程序,其中,上述计算机程序被处理器执行,以实现如本申请实施例第一方面所述的方法中所描述的部分或全部步骤。
第五方面,本申请实施例提供了一种计算机程序产品,其中,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如本申请实施例第一方面所述的方法中所描述的部分或全部步骤。该计算机程序产品可以为一个软件安装包。
可以看出,在本申请实施例中,在第一游戏进行过程中,首先采集M组拟合数据用于确定注视点函数,然后再采集N组测试数据去测试该注视点函数是否符合校准要求,如果符合校准要求就将其定义为用于确定眼球注视点的注视点函数,拟合数据和测试数据都是在第一游戏进行过程中采集的,因此用户对于该采集过程不会产生枯燥,从而可以采集更多的数据去确定和校准注视点函数,在不损失用户体验甚至提升用户体验的同时,能够得到更加准确的预测点函数。
本申请的这些方面或其他方面在以下实施例的描述中会更加简明易懂。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种电子设备硬件的结构示意图;
图2是本申请实施例提供的一种眼球追踪校准方法的软件架构图;
图3是本申请实施例提供的一种眼球追踪校准方法的流程示意图;
图4是本申请实施例提供的一种眼球追踪校准方法的人机交互图;
图5是本申请实施例提供的一种眼球追踪校准方法中第一标定向量的结构示意图;
图6是本申请实施例提供的一种眼球追踪校准方法的场景示意图;
图7是本申请实施例提供的一种眼球追踪校准方法的流程示意图;
图8是本申请实施例提供的一种电子设备的结构示意图;
图9是本申请实施例提供的一种眼球追踪校准装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
以下分别进行详细说明。
本申请的说明书和权利要求书及所述附图中的术语“第一”、“第二”、“第三”和“第四”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
以下,对本申请中的部分用语进行解释说明,以便于本领域技术人员理解。
电子设备可以包括各种具有无线通信功能的手持设备、车载设备、可穿戴设备(例如智能手表、智能手环、计步器等)、计算设备或通信连接到无线调制解调器的其他处理设备,以及各种形式的用户设备(User Equipment,UE),移动台(Mobile Station,MS),终端设备(terminal device)等等。为方便描述,上面提到的设备统称为电子设备。
如图1所示,图1是本申请实施例提供的一种电子设备硬件的结构示意图。该电子设备包括处理器、存储器、信号处理器、收发器、显示屏、扬声器、麦克风、随机存取存储器(Random Access Memory,RAM)、摄像头、传感器和红外光(Infrared light source,IR)等等。其中,存储器、信号处理器、显示屏、扬声器、麦克风、RAM、摄像头、传感器、IR与处理器连接,收发器与信号处理器连接。
其中,显示屏可以是液晶显示器(Liquid Crystal Display,LCD)、有机或无机发光二极管(Organic Light-Emitting Diode,OLED)、有源矩阵有机发光二极体面板(ActiveMatrix/Organic Light Emitting Diode,AMOLED)等。
其中,该摄像头可以是普通摄像头、也可以是红外摄像,在此不作限定。该摄像头可以是前置摄像头或后置摄像头,在此不作限定。
其中,传感器包括以下至少一种:光感传感器、陀螺仪、红外接近传感器、指纹传感器、压力传感器等等。其中,光感传感器,也称为环境光传感器,用于检测环境光亮度。光线传感器可以包括光敏元件和模数转换器。其中,光敏元件用于将采集的光信号转换为电信号,模数转换器用于将上述电信号转换为数字信号。可选的,光线传感器还可以包括信号放大器,信号放大器可以将光敏元件转换的电信号进行放大后输出至模数转换器。上述光敏元件可以包括光电二极管、光电三极管、光敏电阻、硅光电池中的至少一种。
其中,处理器是电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器内的软体程序和/或模块,以及调用存储在存储器内的数据,执行电子设备的各种功能和处理数据,从而对电子设备进行整体监控。
其中,处理器可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器中。
其中,存储器用于存储软体程序和/或模块,处理器通过运行存储在存储器的软件程序和/或模块,从而执行电子设备的各种功能应用以及数据处理。存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的软体程序等;存储数据区可存储根据电子设备的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
其中,IR用于照射人眼,在人眼上产生亮斑(glint),摄像头用于拍摄人眼,得到包括亮斑和瞳孔(pupil)的图像。
如图2所示,图2是本申请实施例提供的一种眼球追踪校准方法的软件架构图。该软件架构图包括四层,其中,第一层包括电子书、浏览器、启动器、系统、解锁、移动支付、兴趣点跟踪等应用。第二层为眼球追踪服务(OEyeTrackerService),包括眼球追踪授权(OEyeTrackerAuthentication)、眼球追踪策略(OEyeTrackerStrategy)、眼球追踪算法(OEyeTrackerAlgo)和眼球追踪参数(OEyeTrackerParams)等,第二层的OEyeTrackerService通过眼球追踪SDK(OEyeTrackerSDK)接口与第一层的应用连接起来;第二层还包括相机NDK界面(CameraNDKInterface)、相机服务(CameraService),CameraNDKInterface与OEyeTrackerService连接,CameraService与CameraNDKInterface相互连接。第三层包括谷歌HAL界面(Google HAL Interface)、高通HAL界面(Qualcomm HALInterface)、Cam X、Chi-cdk等,Google HAL Interface与第二层的CameraService连接,Qualcomm HAL Interface与Google HAL Interface连接,Cam X分别与Qualcomm HALInterface和Chi-cdk连接,第四层包括RGB传感器(RGB sensor)、数字信号处理器(DSP)、红外传感器(IR sensor)、激光(Laser)和发光二极管(LED)等,IR sensor与第三层的Cam X连接。OEyeTrackerService与OEyeTrackerSDK之间的连接、CameraService与CameraNDKInterface之间的连接以及Google HAL Interface与CameraService之间的连接均通过Binder架构。
其中,OEyeTrackerSDK负责为普通应用提供获取注视点以及输入的api,形式为jar/aar包。OEyeTrackerService负责管理注视点算法、注视点后处理、输入处理以及鉴权和参数设置。EyeTrackerAlgo是眼球追踪的核心算法,包括本申请中的确定注视点函数的算法。OEyeTrackerStrategy与算法后处理相关,如滤波、注视点跳动、注视点转监听、注视点输入。OEyeTrackerAuthentication回调各模块,负责鉴权请求者是否被允许。OEyeTrackerParam负责解析配置和热更新配置。
如图3所示,图3是本申请实施例提供的一种眼球追踪校准方法的流程示意图,应用于如图1和图2所示的电子设备,所述方法包括:
步骤301:在第一游戏进行的过程中,采集M组拟合数据,以及通过所述M组拟合数据确定注视点函数,所述M为大于0的整数。
其中,第一游戏可以为捕捉目标的游戏,该捕捉目标的游戏例如可以为“打地鼠”、“拍螃蟹”、“眼疾手快捉老鼠”、“赶走偷吃的兔子”等游戏。
在本申请的一实现方式中,所述电子设备包括摄像头和红外灯,所述采集M组拟合数据,包括:
通过所述红外灯照射人眼,所述红外灯用于在所述人眼上产生亮斑;
通过所述摄像头拍摄包括亮斑的人眼得到M张第一图像;
解析所述M张第一图像得到M组拟合数据,所述M组拟合数据与所述M张第一图像一一对应,每组拟合数据包括第一亮斑坐标和第一瞳孔坐标。
如图4所示,图4是本申请实施例提供的一种眼球追踪校准方法的人机交互图。图4中的硬件如图1所示,图4中的软件如图2所示。用户首先启动第一游戏,第一游戏显示第一界面,也就是进行眼球追踪校准活动(OEyeTrackerActivity),第一界面会触发OEyeTrackerService,该OEyeTrackerService启动OEyeTrackerAlgo,OEyeTrackerAlgo启动相机服务(Camera Service)和相机HAL(Camera HAL),然后通过相应的硬件驱动红外光和相机驱动(IR&Camera Driver)调用IR照射红外光,使用户的人眼产生亮斑,以及调用相机中的摄像头拍摄该人眼。摄像头将拍摄到的第一图像逐级上传到OEyeTrackerAlgo处理,得到第一个拟合数据,然后OEyeTrackerAlgo通知OEyeTrackerActivity显示第二界面,以及重复该过程处理得到第二个拟合数据,直到采集完M个拟合数据。
在本申请的一实现方式中,所述通过所述M组拟合数据确定注视点函数,包括:
通过所述M组拟合数据确定M个第一标定向量,所述M个第一标定向量与所述M组拟合数据一一对应,每个第一标定向量是基于所述第一亮斑坐标和所述第一瞳孔坐标确定的;
基于所述M个第一标定向量确定拟合参数;
基于所述拟合参数确定注视点函数。
具体地,所述每个第一标定向量是基于所述第一亮斑坐标和所述第一瞳孔坐标确定的,包括:若第一亮斑坐标为(x1,y1),第一瞳孔坐标为(x2,y2),则第一标定向量为V(Vx,Vy),其中Vx=x1-x2,Vy=y1-y2
如图5所示,图5是本申请实施例提供的一种眼球追踪校准方法中第一标定向量的结构示意图。如图5所示为处理第一图像得到的目标图像,假定第一亮斑坐标为(x1,y1),瞳孔坐标为(x2,y2),则标定向量为V(x1-x2,y1-y2)。
具体地,所述基于所述M个第一标定向量确定拟合参数,基于所述拟合参数确定注视点函数,包括:
设定拟合函数为
Xgaze=a0+a1*Vx+a2*Vy+a3*Vx+Vy和Ygaze=b0+b1*Vx+b2*Vy+b3*Vy*Vy,
其中,所述Xgaze和Ygaze分别为注视点的横坐标和纵坐标,所述Vx和分别为第一标定向量的横坐标和纵坐标,所述a0、所述a1、所述a2、所述a3、所述b0、所述b1、所述b2和所述b3为拟合参数;
基于所述M个第一标定向量和所述拟合函数确定M个方程;
基于所述M个方程求解所述拟合参数;
将所述拟合参数代入所述拟合函数得到注视点函数。
其中,所述M为大于或等于7的整数。
步骤302:在所述第一游戏进行的过程中,采集N组测试数据,所述N为大于0的整数。
需要说明的是,步骤302中N组测试数据的采集过程可参见图4,在此不再详述。
在本申请的一实现方式中,所述采集N组测试数据之后,所述方法还包括:
基于所述N组测试数据确定所述注视点函数符合是否校准要求。
具体地,所述基于所述N组测试数据确定所述注视点函数符合是否校准要求,包括:
通过所述N组测试数据确定N个第二标定向量,所述N个第二标定向量与所述N组测试数据一一对应;
基于所述N个第二标定向量和所述注视点函数确定N个预测注视点坐标,所述N个预测注视点坐标与所述N个第二标定向量一一对应;
确定N个第一距离,每个第一距离为其对应的预测注视点坐标与其对应的实际注视点坐标之间的距离,所述其对应的实际注视点坐标是基于所述其对应的预测注视点坐标确定;
基于所述N个第一距离确定所述注视点函数是否符合所述校准要求。
需要说明的是,N个第二标定向量的确定方法可参见图5中M个第一标定向量的确定方法,在此不再详述。
在本申请的一实现方式中,所述第一游戏包括捕捉目标的游戏,在所述第一游戏中,目标当前出现的位置的坐标为所述实际注视点的坐标。
进一步地,若实际注视点的坐标为O0(x0,y0),预测注视点的坐标为O(x,y),则第一距离为[(x-x0)2+(y-y0)2]1/2
步骤303:在基于所述N组测试数据确定所述注视点函数符合校准要求时,将所述注视点函数定义为用于确定眼球注视点的注视点函数。
在本申请的一实现方式中,所述方法还包括:
在通过所述N组测试数据确定所述注视点函数不符合所述校准要求时,执行所述在第一游戏进行的过程中,采集M组拟合数据,以及通过所述M组拟合数据确定注视点函数的步骤。
在本申请的一实现方式中,所述基于所述N个第一距离确定所述注视点函数是否符合所述校准要求,包括:
在第一条件下,确定所述注视点函数符合所述校准要求,所述第一条件包括以下至少一种:所述N个第一距离均小于或等于第一阈值,所述N个第一距离小于或等于第二阈值的个数大于或等于第三阈值,所述N个第一距离的均值小于或等于第四阈值,所述N个第一阈值的方差小于或等于第五阈值;
在第二条件下,确定所述注视点函数不符合所述校准要求,所述第二条件包括以下至少一种:所述N个第一距离中至少有一个大于所述第一阈值,所述N个第一距离小于所述第二阈值的个数小于所述第三阈值,所述N个第一距离的均值大于所述第四阈值,所述N个第一阈值的方差大于所述第五阈值。
其中,第一阈值可以与第二阈值相同,也可以与第二阈值不同,第一阈值可以为0.1mm、0.5mm、1mm、1.5mm或是其他值,第二阈值可以为0.1mm、0.5mm、1mm、1.5mm或是其他值,在此均不做限定。
其中,第三阈值例如可以为3、5、7、10或是其他值,第四阈值例如可以为0.1mm、0.5mm、1mm、1.5mm或是其他值,第五阈值例如可以为0.1mm2、0.5mm2、1mm2、1.5mm2,在此均不做限定。
如图6所示,图6是本申请实施例提供的一种眼球追踪校准方法的场景示意图。图6中的电子设备可以为图1中的电子设备,该电子设备的软件架构如图2所示。在本申请实施例中,电子设备首先显示第一游戏的启动界面,第一游戏为“打地鼠”游戏。如图6所示,启动界面包括“打地鼠”游戏的图标,显示语“准备好了吗?和我一起开始进行眼球追踪校准吧!”,还包括游戏启动按钮。当用户按下游戏启动按钮时,“打地鼠”游戏运行,显示屏上显示地鼠,用户的眼睛看向显示屏上的地鼠。电子设备通过红外光照射用户的眼睛,然后通过摄像头拍摄用户的眼睛,得到第一图像。电子设备后台处理第一图像得到拟合数据,然后用拟合数据进行确定拟合参数,从而确定注视点函数。同样电子设备再重复采集过程,得到测试数据,用测试数据去测试注视点函数是否符合要求。
可以看出,在本申请实施例中,在第一游戏进行过程中,首先采集M组拟合数据用于确定注视点函数,然后再采集N组测试数据去测试该注视点函数是否符合校准要求,如果符合校准要求就将其定义为用于确定眼球注视点的注视点函数,拟合数据和测试数据都是在第一游戏进行过程中采集的,因此用户对于该采集过程不会产生枯燥,从而可以采集更多的数据去确定和校准注视点函数,在不损失用户体验甚至提升用户体验的同时,能够得到更加准确的预测点函数。
在本申请的一实现方式中,在通过所述N组测试数据确定所述注视点函数不符合所述校准要求时,所述方法还包括:
确定所述目标出现的第一时长,所述第一时长大于第二时长,所述第二时长为通过所述N组测试数据确定所述注视点函数符合所述校准要求时,所述目标出现的时长。
其中,第一时长例如为0.5s、1s、1.5s或是其他值,第一时长例如为0.8s、1.3s、1.8s或是其他值,在此均不做限定。
可以看出,在本申请实施例中,通过延长第一游戏中目标出现的时长,以使得用户能够更加准确定位目标,从而得到更准确的数据。
与所述图3所示的实施例一致的,请参阅图7,图7是本申请实施例提供的一种眼球追踪校准方法的流程示意图,应用于电子设备,所述电子设备包括摄像头和红外灯,所述方法包括:
步骤701:在第一游戏进行的过程中,通过所述红外灯照射人眼,所述红外灯用于在所述人眼上产生亮斑。
步骤702:通过所述摄像头拍摄包括亮斑的人眼得到M张第一图像,所述M为大于0的整数。
步骤703:解析所述M张第一图像得到M组拟合数据,所述M组拟合数据与所述M张第一图像一一对应,每组拟合数据包括第一亮斑坐标和第一瞳孔坐标。
步骤704:通过所述M组拟合数据确定M个第一标定向量,所述M个第一标定向量与所述M组拟合数据一一对应,每个第一标定向量是基于所述第一亮斑坐标和所述第一瞳孔坐标确定的。
步骤705:基于所述M个第一标定向量确定拟合参数。
步骤706:基于所述拟合参数确定注视点函数。
步骤707:在所述第一游戏进行的过程中,采集N组测试数据,所述N为大于0的整数。
步骤708:通过所述N组测试数据确定N个第二标定向量,所述N个第二标定向量与所述N组测试数据一一对应。
步骤709:基于所述N个第二标定向量和所述注视点函数确定N个预测注视点坐标,所述N个预测注视点坐标与所述N个第二标定向量一一对应。
步骤710:确定N个第一距离,每个第一距离为其对应的预测注视点坐标与其对应的实际注视点坐标之间的距离,所述其对应的实际注视点坐标是基于所述其对应的预测注视点坐标确定。
步骤711:基于所述N个第一距离确定所述注视点函数是否符合所述校准要求。
若是,则执行步骤712;
若否,则执行步骤701。
步骤712:将所述注视点函数定义为用于确定眼球注视点的注视点函数。
需要说明的是,本实施例的具体实现过程可参见上述方法实施例所述的具体实现过程,在此不再叙述。
与上述图3和图7所示的实施例一致的,请参阅图8,图8是本申请实施例提供的一种电子设备的结构示意图,如图所示,该电子设备包括存储器、通信接口以及一个或多个程序,其中,上述一个或多个程序被存储在上述存储器中,并且被配置由上述处理器执行,上述程序包括用于执行以下步骤的指令:
在第一游戏进行的过程中,采集M组拟合数据,以及通过所述M组拟合数据确定注视点函数,所述M为大于0的整数;
在所述第一游戏进行的过程中,采集N组测试数据,所述N为大于0的整数;
在基于所述N组测试数据确定所述注视点函数符合校准要求时,将所述注视点函数定义为用于确定眼球注视点的注视点函数。
在本申请的一实现方式中,所述电子设备包括摄像头和红外灯,在采集M组拟合数据方面,上述程序包括具体用于执行以下步骤的指令:
通过所述红外灯照射人眼,所述红外灯用于在所述人眼上产生亮斑;
通过所述摄像头拍摄包括亮斑的人眼得到M张第一图像;
解析所述M张第一图像得到M组拟合数据,所述M组拟合数据与所述M张第一图像一一对应,每组拟合数据包括第一亮斑坐标和第一瞳孔坐标。
在本申请的一实现方式中,在通过所述M组拟合数据确定注视点函数方面,上述程序包括具体用于执行以下步骤的指令:
通过所述M组拟合数据确定M个第一标定向量,所述M个第一标定向量与所述M组拟合数据一一对应,每个第一标定向量是基于所述第一亮斑坐标和所述第一瞳孔坐标确定的;
基于所述M个第一标定向量确定拟合参数;
基于所述拟合参数确定注视点函数。
在本申请的一实现方式中,在采集N组测试数据之后,上述程序包括还用于执行以下步骤的指令:
通过所述N组测试数据确定N个第二标定向量,所述N个第二标定向量与所述N组测试数据一一对应;
基于所述N个第二标定向量和所述注视点函数确定N个预测注视点坐标,所述N个预测注视点坐标与所述N个第二标定向量一一对应;
确定N个第一距离,每个第一距离为其对应的预测注视点坐标与其对应的实际注视点坐标之间的距离,所述其对应的实际注视点坐标是基于所述其对应的预测注视点坐标确定;
基于所述N个第一距离确定所述注视点函数是否符合所述校准要求。
在本申请的一实现方式中,在基于所述N个第一距离确定所述注视点函数是否符合所述校准要求方面,上述程序包括具体用于执行以下步骤的指令:
在第一条件下,确定所述注视点函数符合所述校准要求,所述第一条件包括以下至少一种:所述N个第一距离均小于或等于第一阈值,所述N个第一距离小于或等于第二阈值的个数大于或等于第三阈值,所述N个第一距离的均值小于或等于第四阈值,所述N个第一阈值的方差小于或等于第五阈值;
在第二条件下,确定所述注视点函数不符合所述校准要求,所述第二条件包括以下至少一种:所述N个第一距离中至少有一个大于所述第一阈值,所述N个第一距离小于所述第二阈值的个数小于所述第三阈值,所述N个第一距离的均值大于所述第四阈值,所述N个第一阈值的方差大于所述第五阈值。
在本申请的一实现方式中,所述第一游戏包括捕捉目标的游戏,在所述第一游戏中,目标当前出现的位置的坐标为所述实际注视点的坐标。
在本申请的一实现方式中,上述程序包括还用于执行以下步骤的指令:
在通过所述N组测试数据确定所述注视点函数不符合所述校准要求时,执行所述在第一游戏进行的过程中,采集M组拟合数据,以及通过所述M组拟合数据确定注视点函数的步骤。
需要说明的是,本实施例的具体实现过程可参见上述方法实施例所述的具体实现过程,在此不再叙述。
上述实施例主要从方法侧执行过程的角度对本申请实施例的方案进行了介绍。可以理解的是,电子设备为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据所述方法示例对电子设备进行功能单元的划分,例如,可以对应各个功能划分各个功能单元,也可以将两个或两个以上的功能集成在一个处理单元中。所述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
需要说明的是,本申请实施例中对单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
下面为本申请装置实施例,本申请装置实施例用于执行本申请方法实施例所实现的方法。请参阅图9,图9是本申请实施例提供的一种眼球追踪校准装置的结构示意图,应用于电子设备,所述装置包括:
采集单元901,用于在第一游戏进行的过程中,采集M组拟合数据;
确定单元902,用于通过所述M组拟合数据确定注视点函数,所述M为大于0的整数;
所述采集单元901,还用于在所述第一游戏进行的过程中,采集N组测试数据,所述N为大于0的整数;
定义单元903,用于在基于所述N组测试数据确定所述注视点函数符合校准要求时,将所述注视点函数定义为用于确定眼球注视点的注视点函数。
在本申请的一实现方式中,所述电子设备包括摄像头和红外灯,在采集M组拟合数据方面,所述采集单元901,具体用于:
通过所述红外灯照射人眼,所述红外灯用于在所述人眼上产生亮斑;
通过所述摄像头拍摄包括亮斑的人眼得到M张第一图像;
解析所述M张第一图像得到M组拟合数据,所述M组拟合数据与所述M张第一图像一一对应,每组拟合数据包括第一亮斑坐标和第一瞳孔坐标。
在本申请的一实现方式中,在通过所述M组拟合数据确定注视点函数方面,所述确定单元902,具体用于:
通过所述M组拟合数据确定M个第一标定向量,所述M个第一标定向量与所述M组拟合数据一一对应,每个第一标定向量是基于所述第一亮斑坐标和所述第一瞳孔坐标确定的;
基于所述M个第一标定向量确定拟合参数;
基于所述拟合参数确定注视点函数。
在本申请的一实现方式中,在采集N组测试数据之后,所述确定单元902,还用于通过所述N组测试数据确定N个第二标定向量,所述N个第二标定向量与所述N组测试数据一一对应;基于所述N个第二标定向量和所述注视点函数确定N个预测注视点坐标,所述N个预测注视点坐标与所述N个第二标定向量一一对应;确定N个第一距离,每个第一距离为其对应的预测注视点坐标与其对应的实际注视点坐标之间的距离,所述其对应的实际注视点坐标是基于所述其对应的预测注视点坐标确定;基于所述N个第一距离确定所述注视点函数是否符合所述校准要求。
在本申请的一实现方式中,在基于所述N个第一距离确定所述注视点函数是否符合所述校准要求方面,所述确定单元902,具体用于:
在第一条件下,确定所述注视点函数符合所述校准要求,所述第一条件包括以下至少一种:所述N个第一距离均小于或等于第一阈值,所述N个第一距离小于或等于第二阈值的个数大于或等于第三阈值,所述N个第一距离的均值小于或等于第四阈值,所述N个第一阈值的方差小于或等于第五阈值;
在第二条件下,确定所述注视点函数不符合所述校准要求,所述第二条件包括以下至少一种:所述N个第一距离中至少有一个大于所述第一阈值,所述N个第一距离小于所述第二阈值的个数小于所述第三阈值,所述N个第一距离的均值大于所述第四阈值,所述N个第一阈值的方差大于所述第五阈值。
在本申请的一实现方式中,所述第一游戏包括捕捉目标的游戏,在所述第一游戏中,目标当前出现的位置的坐标为所述实际注视点的坐标。
在本申请的一实现方式中,上述程序包括还用于执行以下步骤的指令:
在通过所述N组测试数据确定所述注视点函数不符合所述校准要求时,执行所述在第一游戏进行的过程中,采集M组拟合数据,以及通过所述M组拟合数据确定注视点函数的步骤。
需要说明的是,采集单元901、确定单元902和定义单元903可通过处理器实现。
本申请实施例还提供一种计算机存储介质,其中,该计算机存储介质存储用于电子数据交换的计算机程序,该计算机程序使得计算机执行如上述方法实施例中记载的任一方法的部分或全部步骤,上述计算机包括电子设备。
本申请实施例还提供一种计算机程序产品,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如上述方法实施例中记载的任一方法的部分或全部步骤。该计算机程序产品可以为一个软件安装包,上述计算机包括电子设备。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例上述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取器(英文:Random Access Memory,简称:RAM)、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (10)

1.一种眼球追踪校准方法,其特征在于,应用于电子设备,所述方法包括:
在第一游戏进行的过程中,采集M组拟合数据,以及通过所述M组拟合数据确定注视点函数,所述M为大于0的整数;
在所述第一游戏进行的过程中,采集N组测试数据,所述N为大于0的整数;
在基于所述N组测试数据确定所述注视点函数符合校准要求时,将所述注视点函数定义为用于确定眼球注视点的注视点函数。
2.根据权利要求1所述的方法,其特征在于,所述电子设备包括摄像头和红外灯,所述采集M组拟合数据,包括:
通过所述红外灯照射人眼,所述红外灯用于在所述人眼上产生亮斑;
通过所述摄像头拍摄包括亮斑的人眼得到M张第一图像;
解析所述M张第一图像得到M组拟合数据,所述M组拟合数据与所述M张第一图像一一对应,每组拟合数据包括第一亮斑坐标和第一瞳孔坐标。
3.根据权利要求2所述的方法,其特征在于,所述通过所述M组拟合数据确定注视点函数,包括:
通过所述M组拟合数据确定M个第一标定向量,所述M个第一标定向量与所述M组拟合数据一一对应,每个第一标定向量是基于所述第一亮斑坐标和所述第一瞳孔坐标确定的;
基于所述M个第一标定向量确定拟合参数;
基于所述拟合参数确定注视点函数。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述采集N组测试数据之后,所述方法还包括:
通过所述N组测试数据确定N个第二标定向量,所述N个第二标定向量与所述N组测试数据一一对应;
基于所述N个第二标定向量和所述注视点函数确定N个预测注视点坐标,所述N个预测注视点坐标与所述N个第二标定向量一一对应;
确定N个第一距离,每个第一距离为其对应的预测注视点坐标与其对应的实际注视点坐标之间的距离,所述其对应的实际注视点坐标是基于所述其对应的预测注视点坐标确定;
基于所述N个第一距离确定所述注视点函数是否符合所述校准要求。
5.根据权利要求4所述的方法,其特征在于,所述基于所述N个第一距离确定所述注视点函数是否符合所述校准要求,包括:
在第一条件下,确定所述注视点函数符合所述校准要求,所述第一条件包括以下至少一种:所述N个第一距离均小于或等于第一阈值,所述N个第一距离小于或等于第二阈值的个数大于或等于第三阈值,所述N个第一距离的均值小于或等于第四阈值,所述N个第一阈值的方差小于或等于第五阈值;
在第二条件下,确定所述注视点函数不符合所述校准要求,所述第二条件包括以下至少一种:所述N个第一距离中至少有一个大于所述第一阈值,所述N个第一距离小于所述第二阈值的个数小于所述第三阈值,所述N个第一距离的均值大于所述第四阈值,所述N个第一阈值的方差大于所述第五阈值。
6.根据权利要求4或5所述的方法,其特征在于,所述第一游戏包括捕捉目标的游戏,在所述第一游戏中,目标当前出现的位置的坐标为所述实际注视点的坐标。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述方法还包括:
在通过所述N组测试数据确定所述注视点函数不符合所述校准要求时,执行所述在第一游戏进行的过程中,采集M组拟合数据,以及通过所述M组拟合数据确定注视点函数的步骤。
8.一种眼球追踪校准装置,其特征在于,应用于电子设备,所述装置包括:
采集单元,用于在第一游戏进行的过程中,采集M组拟合数据;
确定单元,用于通过所述M组拟合数据确定注视点函数,所述M为大于0的整数;
所述采集单元,还用于在所述第一游戏进行的过程中,采集N组测试数据,所述N为大于0的整数;
定义单元,用于在基于所述N组测试数据确定所述注视点函数符合校准要求时,将所述注视点函数定义为用于确定眼球注视点的注视点函数。
9.一种电子设备,其特征在于,包括处理器、存储器、通信接口,以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置由所述处理器执行,所述程序包括用于执行如权利要求1-7任一项所述的方法中的步骤的指令。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行以实现权利要求1至7任意一项所述的方法。
CN201910945827.2A 2019-09-30 2019-09-30 眼球追踪校准方法及相关设备 Pending CN112578901A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910945827.2A CN112578901A (zh) 2019-09-30 2019-09-30 眼球追踪校准方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910945827.2A CN112578901A (zh) 2019-09-30 2019-09-30 眼球追踪校准方法及相关设备

Publications (1)

Publication Number Publication Date
CN112578901A true CN112578901A (zh) 2021-03-30

Family

ID=75117087

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910945827.2A Pending CN112578901A (zh) 2019-09-30 2019-09-30 眼球追踪校准方法及相关设备

Country Status (1)

Country Link
CN (1) CN112578901A (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150049013A1 (en) * 2013-08-19 2015-02-19 Qualcomm Incorporated Automatic calibration of eye tracking for optical see-through head mounted display
CN105850113A (zh) * 2014-01-06 2016-08-10 欧库勒斯虚拟现实有限责任公司 虚拟现实系统的校准
CN108259887A (zh) * 2018-04-13 2018-07-06 宁夏大学 注视点校准方法及装置、注视点标定方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150049013A1 (en) * 2013-08-19 2015-02-19 Qualcomm Incorporated Automatic calibration of eye tracking for optical see-through head mounted display
CN105850113A (zh) * 2014-01-06 2016-08-10 欧库勒斯虚拟现实有限责任公司 虚拟现实系统的校准
CN108259887A (zh) * 2018-04-13 2018-07-06 宁夏大学 注视点校准方法及装置、注视点标定方法及装置

Similar Documents

Publication Publication Date Title
US11172817B2 (en) Fundus image capture system
US20200293754A1 (en) Task execution method, terminal device, and computer readable storage medium
CN108989678B (zh) 一种图像处理方法、移动终端
KR102329765B1 (ko) 홍채 기반 인증 방법 및 이를 지원하는 전자 장치
CN111182205B (zh) 拍摄方法、电子设备及介质
KR20190038594A (ko) 얼굴 인식-기반 인증
EP3584740B1 (en) Method for detecting biological feature data, biological feature recognition apparatus and electronic terminal
CN108848313B (zh) 一种多人拍照方法、终端和存储介质
US9888090B2 (en) Magic wand methods, apparatuses and systems
KR20180052002A (ko) 이미지 처리 방법 및 이를 지원하는 전자 장치
CN108345845B (zh) 图像传感器、镜头模组、移动终端、人脸识别方法及装置
CN112748798B (zh) 一种眼球追踪校准方法及相关设备
CN108040164A (zh) 近景拍摄方法、终端及计算机可读存储介质
CN108513067B (zh) 一种拍摄控制方法及移动终端
US11151398B2 (en) Anti-counterfeiting processing method, electronic device, and non-transitory computer-readable storage medium
CN111552389A (zh) 注视点抖动消除方法、装置及存储介质
CN108156378A (zh) 拍照方法、移动终端及计算机可读存储介质
CN108063859A (zh) 一种自动拍照控制方法、终端及计算机存储介质
CN109688325B (zh) 一种图像显示方法及终端设备
CN111292504A (zh) 一种通过图像识别进行安全告警方法及系统
WO2014075026A1 (en) Remote control using depth camera
WO2018117681A1 (ko) 이미지 처리 방법 및 이를 지원하는 전자 장치
CN110462617A (zh) 用于通过多个相机认证生物数据的电子装置和方法
CN111083374B (zh) 滤镜添加方法及电子设备
CN113395438B (zh) 眼球追踪技术的图像校正方法及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210330