CN111857333B - 眼动追踪方法、装置及电子设备 - Google Patents
眼动追踪方法、装置及电子设备 Download PDFInfo
- Publication number
- CN111857333B CN111857333B CN202010607001.8A CN202010607001A CN111857333B CN 111857333 B CN111857333 B CN 111857333B CN 202010607001 A CN202010607001 A CN 202010607001A CN 111857333 B CN111857333 B CN 111857333B
- Authority
- CN
- China
- Prior art keywords
- calibration
- gaze
- offset parameter
- target user
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Ophthalmology & Optometry (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明实施例提供一种眼动追踪方法、装置及电子设备,该方法中,会先获取目标用户眼睛的瞳孔在显示屏上的第一注视位置信息,再通过与所述目标用户对应的注视位置偏移参数,对所述第一注视位置信息进行校准,得到第二注视位置信息。这样,在目标用户注视的真实注视位置信息与电子设备检测到的第一注视位置信息不同时,可以利用注视位置偏移参数进行校准,从而可以及时消除电子设备确定目标用户注视位置时存在的偏移差,进而可以提高追踪精度,避免误触发,确保追踪方法的实用性。
Description
技术领域
本发明涉及通信技术领域,尤其涉及一种眼动追踪方法、装置及电子设备。
背景技术
随着电子技术的快速发展,利用眼动追踪技术的应用越来越多,比如,这类应用广泛应用于个人游戏机、AR/VR眼镜等电子设备上。该眼动追踪技术是电子设备通过捕捉用户眼睛的注视方向,确定用户实际注视位置的技术。
目前的眼动追踪技术中,发明人在研究过程中发现,目前的眼动追踪技术多对于斜视患者追踪误差大,这样会导致追踪精度较低,进而会使得误触发眼动追踪对应的操作,眼动追踪技术的实用性较低。
发明内容
本发明实施例提供一种眼动追踪方法、装置及电子设备,以解决目前的眼动追踪技术多对于斜视患者追踪误差大,精度较低,进而会使得误触发眼动追踪对应的操作,眼动追踪技术的实用性较低的问题。
为了解决上述技术问题,本发明是这样实现的:
第一方面,本发明实施例提供一种眼动追踪方法,所述方法包括:
获取目标用户眼睛的瞳孔在显示屏上的第一注视位置信息;
通过与所述目标用户对应的注视位置偏移参数,对所述第一注视位置信息进行校准,得到第二注视位置信息。
第二方面,本发明实施例还提供了一种电子设备,该电子设备具备景深摄像模组以及屏幕,包括:
第一获取模块,用于获取目标用户眼睛的瞳孔在显示屏上的第一注视位置信息;
校准模块,用于通过与所述目标用户对应的注视位置偏移参数,对所述第一注视位置信息进行校准,得到第二注视位置信息。
第三方面,本发明实施例提供了一种电子设备,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面所述的眼动追踪方法的步骤。
第四方面,本发明实施例提供了一种可读存储介质,所述计算机可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如第一方面所述的眼动追踪方法的步骤。
第五方面,本申请实施例提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如第一方面所述的眼动追踪方法。
综上所述,本发明实施例提供的眼动追踪方法,会先通过景深摄像模组,获取用户目标用户眼睛的瞳孔在屏幕显示屏上对应的瞳孔第一注视位置信息,再通过与所述目标用户对应的注视位置偏移参数,对所述第一注视位置信息进行校准,得到第二注视位置信息根据与用户对应的注视位置偏移参数,对瞳孔注视位置信息进行校准,获得用户眼睛在屏幕上的实际注视位置信息。这样,在用户目标用户注视的真实注视位置信息与电子设备检测到的瞳孔第一注视位置信息不同时,可以利用注视位置偏移参数进行校准,从而可以及时消除电子设备确定用户目标用户注视位置时存在的偏移差,进而提高电子设备定位用户目标用户注视位置的准确性,进而可以提高追踪精度,避免误触发,确保追踪方法的实用性。
附图说明
图1表示本发明实施例提供的一种眼动追踪方法的步骤流程图;
图2表示本发明实施例的另一种眼动追踪方法的步骤流程图;
图3是本发明实施例提供的一种获取注视位置偏移参数界面的示意图;
图4是本发明实施例提供的一种计算注视位置偏移参数的示意图;
图5是本发明实施例提供的又一种计算注视位置偏移参数的示意图;
图6是本发明实施例提供的另一种计算注视位置偏移参数的示意图;
图7表示本发明实施例提供的一种电子设备的结构框图;
图8表示本发明实施例的一种电子设备的硬件结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1是本发明实施例提供的一种眼动追踪方法的步骤流程图,如图1所示,该方法可以包括:
步骤101,获取目标用户眼睛的瞳孔在显示屏上的第一注视位置信息。
本发明实施例中,目标用户可以是需要获取注视位置信息的用户。第一注视位置信息可以是目标用户瞳孔在显示屏上的注视位置,可以是根据景深摄像模组检测目标用户的瞳孔位置来确定瞳孔在显示屏上的注视位置。景深摄像模组可以是深感摄像(Time ofFlight,TOF)模组,该景深摄像模组中可以包括光发射器和接收器,利用光发射器发射高频光线,比如红外光线,在高频光线碰到物体后反射回来时,接收器可以捕捉反射回来的高频光线,并得到高频光线来回的传播时间,根据传播时间可以得到该物体相对于景深摄像模组的距离。由于眼睛中的瞳孔在照射进红外光线时,并不会反射红外光线,则可以利用景深摄像模组确定目标用户的瞳孔位置,具体的,可以是在景深摄像模组拍摄目标用户时,将不反射红外光线的位置作为目标用户的瞳孔位置。
需要说明的是,第一注视位置信息可以是基于显示屏所在的平面建立的坐标系中,目标用户瞳孔在显示屏上的注视位置对应的坐标点,该坐标系可以是以平行于电子设备显示屏短边的方向作为水平轴,即X轴,以平行于显示屏长边的方向作为竖直轴,即Y轴,以镜头所在位置的中心点作为坐标原点建立坐标系,在该坐标系中可以确定目标用户在注视显示屏时,第一注视位置信息对应的坐标点。
步骤102,通过与所述目标用户对应的注视位置偏移参数,对所述第一注视位置信息进行校准,得到第二注视位置信息。
本发明实施例中,注视位置偏移参数可以是用来校准电子设备检测的第一注视位置信息的偏移量,该注视位置偏移参数可以是通过预设的获取注视位置偏移参数的步骤确定的,也可以是用户手动输入的。
需要说明的是,不同用户对应的注视位置偏移参数是不同的,通过利用目标用户对应的注视位置偏移参数对检测到的第一注视位置信息进行校准,将校准后的第一注视位置信息作为第二注视位置信息,而第二注视位置信息与目标用户的真实注视位置信息重合,则可以将第二注视位置信息作为目标用户眼睛在显示屏上的真实注视位置信息。真实注视位置信息可以是目标用户实际在显示屏上的注视位置。示例的,假设目标用户为斜视用户,则该用户的真实注视位置与电子设备检测到该用户的注视位置可能是不同,比如,该用户的真实注视位置信息对应的是目标A,而利用电子设备检测到该用户的第一注视位置信息对应的是目标B,其中,目标A与目标B在显示屏上的位置并不相同,通过对第一注视位置信息进行校准,使得校准后得到的第二注视位置信息对应的是目标A,因此,通过对第一注视位置信息进行校准,可以有效的消除电子设备检测目标用户的注视位置时产生的偏差,从而可以提高电子设备确定用户注视位置的准确性。
进一步地,目标用户对应的注视位置偏移参数可以是对目标用户每只眼睛分别确定一个注视位置偏移参数,从而可以更准确的消除第一注视位置信息存在的偏差,进而提高确定用户注视位置的准确性。例如,目标用户左眼的第一注视位置信息为(x1,y1),注视位置偏移参数对应的校正参数可以为1和1,则第二注视位置信息可以为,而目标用户右眼的第一注视位置信息为(x2,y2),注视位置偏移参数对应的校正参数可以为2和2,则第二注视位置信息可以为。
综上所述,本发明实施例提供的眼动追踪方法,会先获取目标用户眼睛的瞳孔在显示屏上的第一注视位置信息,再通过与所述目标用户对应的注视位置偏移参数,对所述第一注视位置信息进行校准,得到第二注视位置信息。这样,在目标用户注视的真实注视位置信息与电子设备检测到的第一注视位置信息不同时,可以利用注视位置偏移参数进行校准,从而可以及时消除电子设备确定目标用户注视位置时存在的偏移差,进而可以提高追踪精度,避免误触发,确保追踪方法的实用性。
图2是本发明实施例提供的另一种眼动追踪方法的步骤流程图,如图2所示,该方法可以包括:
步骤201、显示N个标定点;其中,所述N为正整数。
本发明实施例中,标定点可以是在获取注视位置偏移参数的界面上显示的符号,标定点可以用于提示用户进行注视,以便于后续进行注视位置偏移参数的标定。该标定点的形状可以是根据实际情况预先设定,比如,正方形或圆形等,而该获取注视位置偏移参数的界面可以是预先设定的,可以是在未检测到目标用户的注视位置偏移参数时,显示获取注视位置偏移参数的界面并显示N个标定点,也可以是用户通过输入操作显示获取注视位置偏移参数的界面的。
在N大于1的情况下,可以是依次显示第一标定点和第i个第二标定点,其中,i为正整数,且i ≤ N-1,根据第一标定点和第i个第二标定点,确定注视位置偏移参数的第i个误差值,在第i个误差值不满足预设条件的情况下,显示第i+1个第二标定点,其中,第二标定点为N个标定点中除第一标定点之外的任一标定点。具体的,标定点可以包括第一标定点以及第二标定点,第一标定点可以是用来获取目标用户的注视位置偏移参数的标定点,第二标定点可以是用来验证注视位置偏移参数的标定点。依次显示第一标定点和第i个第二标定点,可以是先显示第一标定点,再显示第二标定点,显示第二标定点时,可以显示i个第二标定点。确定注视位置偏移参数的第i个误差值,可以是在显示第二标定点时,利用根据第一标定点得到的注视位置偏移参数,对注视第二标定点的注视位置信息进行校准,得到的误差值。示例的,显示第2个第二标定点,可以得到针对该第2个第二标定点的第2个误差值,当该第2个误差值不满足预设条件时,显示第3个第二标定点。这样依次显示标定点,可以避免显示的标定点过多对用户造成干扰,使用户花费过多时间确定需要注视的标定点。
在N大于1的情况下,也可以是显示N个标定点,且按预设顺序,采用预设标识标记标定点的注视顺序。这样,仅需执行一次显示操作即可显示完标定点,进而一定程度上可以提高显示效率。具体的,可以一次显示N个标定点,预设顺序可以是目标用户注视标定点的注视顺序,该注视顺序可以根据实际情况预先设定,可以对标定点进行编号,将编号顺序作为注视顺序,引导目标用户根据编号顺序依次注视标定点。采用预设标识标记标定点的注视顺序,可以是将当前需要注视的标定点放大显示,也可以更换标定点的显示颜色,还可以利用提示信息提示目标用户注视标注点,该提示信息可以是语音提示,也可以是文字提示,本发明对标定点采用预设标识标记的方法不作具体限定。按照预设顺序,采用预设标识标记标定点,可以方便目标用户快速确定当前需要注视的标定点。示例的,可以显示3个标定点,将1号标定点放大,并在显示屏上显示“请注视1号标定点”的提示信息,提示用户当前需要注视的标定点为1号标定点;将2号标定点由黑色变为红色,并在显示屏上显示“请注视2号标定点”的提示信息,提示用户当前需要注视的标定点为2号标定点。
示例的,图3是本发明实施例提供的一种获取注视位置偏移参数界面的示意图,如图3所示,电子设备具备景深摄像模组21及显示屏22,显示屏22上显示的是获取注视位置偏移参数界面,该界面上显示有标定点23,共有9个标定点23,该标定点23为圆圈与编号组成,其中,该编号对应的顺序可以是标定点的预设顺序。
需要说明的是,可以为每个标定点设置不同的显示位置,比如,可以在显示屏的左上角和右下角分别显示一个或多个标定点,这样,可以引导目标用户注视不同的方向,从而可以获取目标用户在不同方向上的注视位置偏移参数,进而可以提高利用注视位置偏移参数校正的准确性。
步骤202、通过景深摄像模组,获取所述目标用户注视所述N个标定点的N个注视位置信息。
本发明实施例中,可以是通过景深摄像模组,获取目标用户的瞳孔在注视一个标定点时,对应在显示屏上的注视位置信息,当有N个标定点时,则可以得到对应的N个注视位置信息。具体的,目标用户可以根据提示信息,注视显示屏上的标注点,并通过景深摄像模组确定目标用户注视该标注点时在显示屏上对应的注视位置信息。
注视位置信息可以是目标用户的瞳孔在显示屏上的注视位置,可以是根据目标用户眼睛的瞳孔位置来确定瞳孔在显示屏上的注视位置信息的。具体的,瞳孔位置可以是根据偏差角和目标距离确定的,其中,偏差角可以是根据瞳孔所在方向和眼睛位置确定的,可以是将瞳孔所在方向与眼睛位置相对于景深摄像模组的中心点之间的夹角,作为偏差角。而瞳孔所在方向可以是根据景深摄像模组发射的红外光线,将未发生反射的红外光线所在的方向,确定为目标用户眼睛中瞳孔相对于景深摄像模组镜头中心点所在的方向。眼睛位置可以是根据人脸识别确定的眼睛位置,具体的,可以是在利用预设识别模板与目标用户脸部进行匹配时,将模板中眼睛的中心点位置作为目标用户的眼睛位置,该预设识别模板可以是预先设定的人脸识别模型。目标距离可以是眼睛位置到景深摄像模组镜头的中心点之间的距离,即,可以作为眼睛位置与显示屏之间的目标距离,具体的,可以通过景深摄像模组向眼睛位置发射红外光线,根据反射时长确定眼睛位置到景深摄像模组中心点的距离,将该距离作为目标距离。
本发明实施例还可以基于显示屏所在的平面建立三维坐标系,具体的,可以是以景深摄像模组的中心点作为坐标原点,在显示屏所在的平面上以平行于显示屏短边的方向建立横向坐标轴X轴,以平行于显示屏长边的方向建立纵向坐标轴Y轴,以垂直于显示屏所在平面的方向建立竖直坐标轴Z轴。利用景深摄像模组可以获取到眼睛位置、目标距离以及瞳孔所在方向,其中,眼睛位置可以是目标用户眼睛所在的坐标点;瞳孔所在方向可以是一端位于坐标原点的射线,且该射线相对于每个坐标平面的夹角是已知的,而瞳孔位置位于该瞳孔所在方向上;偏差角可以是瞳孔所在方向与眼睛位置相对于坐标原点的夹角。
需要说明的是,眼睛位置可以位于上述坐标系中的Z轴上,可以在获取注视位置偏移参数界面上通过提示信息引导目标用户移动,比如,语音提示“请向左移动”,或者在显示屏上显示“请向左移动”的提示信息,引导目标用户相对于显示屏进行移动,使得目标用户的眼睛位置位于坐标系中的竖直坐标轴Z轴上,这样可以方便后续步骤的计算,从而可以提高信息处理的效率。比如,若检测的目标距离为z1,则眼睛位置对应的坐标值可以为(0,0,z1)。眼睛位置也可以不位于上述坐标系中的Z轴上,可以将眼睛位置与Z轴之间的夹角作为误差量,则目标距离可以为眼睛位置到景深摄像模组的距离,根据眼睛位置与Z轴之间的夹角和目标距离,确定眼睛位置在坐标系中的坐标点,比如,眼睛位置为(x1,y1,z1),再根据眼睛位置(x1,y1,z1)确定瞳孔位置。
瞳孔位置可以是目标用户瞳孔所在的坐标点,可以根据偏差角与目标距离来确定。由于偏差角的角度较小,相应地,瞳孔位置与眼睛位置之间的距离也很小,当眼睛位置位于Z轴上时,则可以将瞳孔位置到眼睛位置的距离作为瞳孔位置到Z轴上的距离。而瞳孔位置对应每个坐标轴的坐标值,可以是根据偏差角和瞳孔位置到眼睛位置的距离,利用三角函数进行计算,得到瞳孔位置对应每个坐标的坐标值。
具体的,可以将偏差角和目标距离输入第一预设公式中,以计算该目标距离与偏差角的正切值的乘积,然后将该乘积作为瞳孔位置到眼睛位置的距离,再根据该距离可以得到瞳孔位置。其中,该第一预设公式可以为:
由于眼睛位置与瞳孔位置位于同一平面上,该平面为垂直于显示屏所在平面,即眼睛位置与瞳孔位置位于坐标系中的YOZ平面上,则确定瞳孔位置以及对应每个坐标轴的坐标值。比如,目标距离为,偏差角为,计算得到瞳孔位置到眼睛位置的距离为,则瞳孔位置对应的坐标值为(0,,)。
示例的,图4是本发明实施例提供的一种计算注视位置偏移参数的示意图,如图4所示,电子设备具备景深摄像模组21及显示屏22,显示屏22上显示有标定点23,可以通过景深摄像模组21识别到目标用户眼睛24上的眼睛位置25,还可以利用景深摄像模组21识别到目标用户眼睛24上的瞳孔位置26,当目标用户注视的标定点为标定点23,可以得到目标用户在注视标定点23时对应的注视位置信息27。
示例的,图5是本发明实施例提供的又一种计算注视位置偏移参数的示意图,如图5所示,图中为在三维坐标系中的YOZ平面上,坐标原点O为景深摄像模组21的中心点,Y轴为显示屏22长边所在的方向,Z轴为垂直于显示屏22所在平面的方向,目标用户眼睛24上的眼睛位置25位于Z轴上,其中,目标距离为眼睛位置25到坐标原点的距离,则目标距离为L0,以及偏差角为瞳孔位置26与眼睛位置25相对于坐标原点之间的夹角,则偏差角为θ,在确定目标用户注视显示屏22上的标定点时对应的注视位置信息27时,可以根据相似三角形的计算方法,利用瞳孔位置26确定目标用户在显示屏上对应的注视位置信息27。
需要说明的是,在注视标定点时,目标用户可以执行输入操作,相应地,电子设备可以接收该输入操作,响应于该输入操作,获取目标用户注视标定点时的注视位置信息。该输入操作可以是对显示屏的点击操作,也可以是目标用户确定注视标注点的语音输入。根据目标用户的输入操作获取该标定点对应的注视位置信息,可以保证获取信息的有效性,避免在目标用户未注视标注点时获取注视位置信息,从而可以提高信息处理的效率。
步骤203、根据所述N个标定点的标定位置信息和所述N个注视位置信息,确定与所述目标用户对应的注视位置偏移参数。
本发明实施例中,通过显示N个标定点,并根据通过景深摄像模组获取到的N个注视位置信息和N个标定点的标定位置信息,进一步确定目标用户对应的注视位置偏移参数,可以较为准确的表征目标用户的注视偏差,进而使得后续过程中可以使用注视位置偏移参数进行校正,进而提高准确度。
具体的,本步骤可以根据下述子步骤(1)-(2)确定注视位置偏移参数。
子步骤(1)、根据所述第一标定点的第三注视位置信息,以及所述第一标定点的标定位置信息,确定与所述目标用户对应的第一偏移参数。
示例的,第一标定点为1号标定点,则目标用户注视1号标定点时对应的第三注视位置信息,以及该1号标定点的标定位置信息,可以得到对应1号标定点的第一偏移参数。通过先利用第一标定点获取第一偏移参数,可以快速确定目标用户的初始偏移参数,从而可以提高处理速度。
子步骤(2)、根据所述第二标定点的第四注视位置信息,对所述第一偏移参数进行校正,得到所述注视位置偏移参数。
本发明实施例中,通过利用第二标定点对第一偏移参数进行校正,可以进一步提高确定偏移参数的准确性,从而可以确保利用偏移参数进行校准的有效性。
具体的,首先,在第j个第二标定点显示后,通过所述第一偏移参数,对所述第j个第二标定点的第四注视位置信息进行校准,得到第j个校准结果。
本发明实施例中,校准结果可以是利用第一偏移参数校准后的注视位置信息确定的,可以是校准后的注视位置信息对应每个坐标轴的坐标点,也可以是校准后注视位置信息到第二标定点的标定位置信息的距离。
示例的,显示第2个第二标定点可以为显示2号标定点,第一偏移参数可以为和,目标用户注视2号标定点时的第四注视位置信息为(x2,y2,0),则利用第一偏移参数对第四注视位置信息进行校准,得到的校准后的注视位置信息为(x2-,y2-,0)。
在所述第j个校准结果超出预设误差范围的情况下,对所述第一偏移参数进行校正,并根据校正后的第一偏移参数,在第j+1个第二标定点显示后,通过所述第一偏移参数,对所述第j+1个第二标定点的第四注视位置信息进行校准,得到第j+1个校准结果;其中,j为正整数,所述第j个第二标定点为所述N个标定点中的任一个第二标定点。
本发明实施例中,校准结果在预设误差范围之外,可以是校准后的第四注视位置信息到第i个第二标定点的标定位置信息的距离大于预设阈值,即,校准后第四注视位置信息与第i个第二标定点的标定位置信息不重合,其中,该预设阈值可以是根据实际情况预先设定的。需要说明的是,第二标定点的标定位置信息在显示屏上的显示位置可以不同,针对不同显示位置上的第二标定点对应的第四注视位置信息,进行校正,可以使得第一偏移参数可以适应不同方向上对注视位置的校准要求,从而可以提高利用第一偏移参数校准的准确性。
示例的,第二标定点的标定位置信息可以为(x0,y0,0),第一偏移参数可以为和,注视该第二标定点的第四注视位置信息为(x2,y2,0),校准后的第四注视位置信息为(x2-,y2-,0),当校准后的第四注视位置信息(x2-,y2-,0)与第二标定点的标定位置信息(x0,y0,0)不重合时,则校准结果在误差范围之外,可以对第一偏移参数的和进行校正。具体的,进行校正时,可以是根据第二标定点的注视位置信息以及标定位置信息,确定与述目标用户对应的第二偏移参数;然后计算第二偏移参数与第一偏移参数的平均值,得到校正后的第一偏移参数。其中,根据第二标定点的注视位置信息以及标定位置信息,确定与述目标用户对应的第二偏移参数的实现过程,可以参照前述计算第一偏移参数的方式,本发明实施例对此不作限定。
进一步地,在所述第j个校准结果在预设误差范围之内的情况下,将所述第一偏移参数作为所述注视位置偏移参数。
本发明实施例中,校准结果在预设误差范围之内,可以是校准后的第四注视位置信息到对应的第二标定点的标定位置信息的距离小于预设阈值,即,校准后第四注视位置信息与第二标定点的标定位置信息重合。当校准结果在误差范围之内时,将第一偏移参数作为注视位置偏移参数,可以是将第一偏移参数对应每个坐标轴的校准参数作为注视位置偏移参数在每个坐标轴的校准参数。本发明实施例中,通过根据第二标定点逐个对第一偏移参数进行校准,在校准结果超出预设误差范围的情况下才会继续进行后续计算,进而可以避免执行不必要的操作。同时,在校准结果在预设误差范围之内的情况下,将第一偏移参数作为注视位置偏移参数,可以确保注视位置偏移参数的准确性。
示例的,第二标定点的标定位置信息可以为(x0,y0,0),第一偏移参数可以为和,注视该第二标定点的第四注视位置信息为(x2,y2,0),校准后的第四注视位置信息为(x2-,y2-,0),当校准后的第四注视位置信息(x2-,y2-,0)与第二标定点的标定位置信息(x0,y0,0)重合时,则校准结果在误差范围之内,可以将第一偏移参数的和作为注视位置偏移参数。
需要说明的是,可以分别对目标用户的每个眼睛获取注视位置偏移参数,将每个眼睛的注视位置偏移参数作为该目标用户的注视位置偏移参数。具体的,先获取目标用户注视标定点时的瞳孔注视位置信息,可以是分别获取目标用户左眼和右眼注视标定点时,得到的左瞳孔注视位置信息和右瞳孔注视位置信息,再分别根据左瞳孔注视位置信息和右瞳孔注视位置信息,确定左注视位置偏移参数和右注视位置偏移参数。通过获取目标用户每个眼睛的注视位置偏移参数,可以更准确的针对每个眼睛的瞳孔注视位置信息进行校准,从而可以提高注视位置偏移参数校准的精确性。
可选的,在另一种实现方式中,也可以通过下述操作实现根据第二标定点的第四注视位置信息,对第一偏移参数进行校正:根据每个第二标定点的第四注视位置信息以及标定位置信息,确定每个第二标定点与目标用户对应的第二偏移参数,将每个第二标定点与目标用户对应的每个第二偏移参数和第一偏移参数的平均值确定为注视位置偏移参数。其中,第二偏移参数可以是根据每个第二标定点的标定位置信息和针对每个第二标定点的第四注视位置信息,确定目标用户对应的第二偏移参数,即,第i个第二标定点的标定位置信息到对应的第四瞳孔注视位置信息的偏移量。这样,无需进行额外的判断,仅需执行计算偏移参数平均值的过程,即可实现对第一偏移参数进行校正,进而一定程度上可以简化校正过程,提高校正效率。
步骤204、获取目标用户眼睛的瞳孔在显示屏上的第一注视位置信息。
本发明实施例中,第一注视位置信息可以包括在至少一个坐标轴的第一坐标值,坐标轴可以是基于显示屏所在平面设置的坐标系中的坐标轴。
具体的,本步骤可以先通过景深摄像模组,获取目标用户眼睛中瞳孔的瞳孔位置、目标用户眼睛的眼睛位置和眼睛位置与显示屏之间的目标距离;具体的获取瞳孔位置、眼睛位置及眼睛位置与显示屏之间的目标距离的实现方式可以参照前述步骤中的相关描述,本发明实施例在此不做限定。接着,可以根据目标距离、瞳孔位置和眼睛位置,确定第一坐标值。这样,由于瞳孔的瞳孔位置、目标用户眼睛的眼睛位置及眼睛位置与显示屏之间的目标距离一定程度上可以体现用户的注视位置,因此,结合这三者可以较为准确的确定第一坐标值。
本发明实施例中,第一坐标值包括X坐标轴上的第一坐标值以及Y坐标轴上的第一坐标值。可以通过下述步骤确定第一坐标值。
首先,确定瞳孔位置和眼睛位置相对于景深摄像模组之间的偏差角θ。
具体的,可以根据步骤202确定瞳孔位置和眼睛位置相对于景深摄像模组之间的偏差角θ。
其次,根据瞳孔位置和偏差角θ,确定偏差角θ相对每个坐标轴的偏差角分量。
本发明实施例中,确定第一注视位置信息在每个坐标轴上的第一坐标值。由于第一注视位置信息是目标用户在注视标定点时,根据瞳孔位置确定的目标用户在显示屏上的注视点,则该第一注视位置信息可以是在显示屏所在平面XOY上的点,比如,第一注视位置信息为(1,2,0),则第一坐标值可以是(1,2,0)。根据偏差角分量对注视位置进行校准,可以提高校准的准确性,从而可以保证校准后的第二注视位置信息的有效性,
最后,根据目标距离和偏差角分量,通过以下公式,计算第一坐标值:
其中,x表示X坐标轴上的第一坐标值、y表示Y坐标轴上的第一坐标值、θx表示相对X坐标轴的偏差角分量、θy表示相对Y坐标轴的偏差角分量、L0表示目标距离、r表示预设的眼睛半径。
本发明实施例中,通过先计算偏差角,接着根据偏差角计算偏差角分量,并结合上述公式计算第一坐标值的方式中由于偏差角分量可以较为精准的体现用户的注视偏差,因此,结合公式根据偏差角分量进行计算的方式,一定程度上可以确保计算得到的第一坐标值的准确性。
本发明实施例中,在计算第一注视位置信息之前,可以先对偏差角进行分解,得到偏差角相对X坐标轴的偏差角分量与相对Y坐标轴的偏差角分量,其中,相对X坐标轴的偏差角分量可以是偏差角与平面YOZ之间的夹角,即,相对X坐标轴的偏差角分量可以是偏差角与平面XOZ之间的夹角,即,可以根据瞳孔位置对应每个坐标轴的坐标值,利用反三角函数分别计算得到与。
则第一注视位置信息可以为(x,y,0)。
示例的,图6是本发明实施例提供的又一种计算注视位置偏移参数的示意图,如图6所示,在显示屏22所在平面上建立坐标系XOY,以景深摄像模组21为坐标原点O,过坐标原点O的水平方向上建立横向坐标轴X轴,垂直方向上建立纵向坐标轴Y轴,当标定点23为目标用户注视的标定点时,则可以得到目标用户在注视标定点23时的第一注视位置信息27,第一注视位置信息27的坐标为(x,y,0),第一注视位置信息27到坐标原点O的距离为L。
步骤205、通过与所述目标用户对应的注视位置偏移参数,对所述第一注视位置信息进行校准,得到第二注视位置信息。
本发明实施例中,注视位置偏移参数可以是目标用户在注视标定点时,第一注视位置信息相对于该标定点的标定位置信息的偏移量。其中,注视位置偏移参数包括对应每个坐标轴的校正参数,第二注视位置信息包括对应每个所述坐标轴的第二坐标值。
具体的,本步骤可以通过分别计算对应每个坐标轴的第一坐标值与对应每个坐标轴的校正参数的差值,得到对应每个坐标轴的第二坐标值。这样,通过分别计算相对于每个坐标轴的校正参数的差值进行校准,可以较为精准的实现校准。
具体的,注视位置偏移参数可以是第一注视位置信息与标定点的标定位置信息之间的距离,而注视位置偏移参数对应每个坐标轴的校准参数,可以分为对应X轴的水平校准参数和对应Y轴的垂直校准参数,其中,水平校准参数可以是注视位置偏移参数在X轴方向上的分量,即,垂直校准参数可以是注视位置偏移参数在Y轴方向上的分量,即。
第二注视位置信息可以是利用注视位置偏移参数对第一注视位置信息校准后得到的位置,而第二注视位置信息对应各坐标轴上的第二坐标值,可以是第一注视位置信息在对应每个坐标轴上,根据注视位置偏移参数的水平校准参数和垂直校准参数移动后得到的坐标点,例如,第一注视位置信息为(x,y,0),注视位置偏移参数对应的校准参数可以为和,则第二注视位置信息对应的第二坐标值可以为。
示例的,如图6所示,标定点23的标定位置信息,以及目标用户注视标定点23时的第一注视位置信息27,第一注视位置信息27对应的第一坐标值为(x,y,0),第一注视位置信息27与标定点23的标定位置信息之间的距离为注视位置偏移参数D,相应地,注视位置偏移参数D对应的水平校准参数可以为,垂直校准参数可以为,则利用注视位置偏移参数校准后的第一注视位置信息27为,即第二注视位置信息对应的第二坐标值为。
需要说明的是,由于景深摄像模组不论在亮环境下还是在暗环境下,都可以获取目标用户注视标定点时的瞳孔注视位置信息,则可以避免目标用户在暗环境下无法获取瞳孔注视位置信息的问题,可以提高眼动追踪技术的实用性。
综上所述,本发明实施例提供的眼动追踪方法,会先显示N个标定点,并通过景深摄像模组,获取目标用户注视N个标定点的N个注视位置信息,再根据N个标定点的标定位置信息和N个注视位置信息,确定与目标用户对应的注视位置偏移参数,最后,获取目标用户眼睛的瞳孔在显示屏上的第一注视位置信息,并通过与目标用户对应的注视位置偏移参数,对第一注视位置信息进行校准,得到第二注视位置信息。这样,在不存在与目标用户对应的注视位置偏移参数的情况下,通过获取目标用户对应第一标定点的第三注视位置信息以及对应第二标定点的第四注视位置信息来确定注视位置偏移参数,可以提高利用注视位置偏移参数校准的准确性,以便及时消除电子设备确定目标用户注视位置时存在的偏移差,进而可以提高追踪精度,避免误触发,确保追踪方法的实用性。
以上介绍了本发明实施例提供的应用程序的眼动追踪方法,下面将结合附图介绍本发明实施例提供的电子设备。
图7是本发明实施例还提供了一种电子设备的结构框图,如图7所示,该电子设备30具备景深摄像模组以及显示屏,可以包括:
第一获取模块301,用于获取目标用户眼睛的瞳孔在显示屏上的第一注视位置信息;
校准模块302,用于通过与所述目标用户对应的注视位置偏移参数,对所述第一注视位置信息进行校准,得到第二注视位置信息。
综上所述,本发明实施例提供的眼动追踪装置,会先获取目标用户眼睛的瞳孔在显示屏上的第一注视位置信息,再通过与所述目标用户对应的注视位置偏移参数,对所述第一注视位置信息进行校准,得到第二注视位置信息。这样,在目标用户注视的真实注视位置信息与电子设备检测到的第一注视位置信息不同时,可以利用注视位置偏移参数进行校准,从而可以及时消除电子设备确定目标用户注视位置时存在的偏移差,进而可以提高追踪精度,避免误触发,确保追踪方法的实用性。
可选的,所述电子设备30,还包括:
显示模块,用于显示N个标定点;其中,所述N为正整数;
第二获取模块,用于通过景深摄像模组,获取所述目标用户注视所述N个标定点的N个注视位置信息;
确定模块,用于根据所述N个标定点的标定位置信息和所述N个注视位置信息,确定与所述目标用户对应的注视位置偏移参数。
可选的,在N大于1的情况下,所述显示模块,还用于:
依次显示第一标定点和第i个第二标定点;其中,i为正整数,i ≤ N-1;
根据所述第一标定点和所述第i个第二标定点,确定所述注视位置偏移参数的第i个误差值;
在所述第i个误差值不满足预设条件的情况下,显示第i+1个第二标定点;
其中,所述第二标定点为所述N个标定点中除所述第一标定点之外的任一标定点。
可选的,在N大于1的情况下,所述显示模块,还用于:
显示所述N个标定点,且按预设顺序,采用预设标识标记所述标定点的注视顺序。
可选的,所述确定模块,还用于:
根据所述第一标定点的第三注视位置信息,以及所述第一标定点的标定位置信息,确定与所述目标用户对应的第一偏移参数;
根据所述第二标定点的第四注视位置信息,对所述第一偏移参数进行校正,得到所述注视位置偏移参数。
可选的,所述确定模块,还用于:
在第j个第二标定点显示后,通过所述第一偏移参数,对所述第j个第二标定点的第四注视位置信息进行校准,得到第j个校准结果;
在所述第j个校准结果超出预设误差范围的情况下,对所述第一偏移参数进行校正,并根据校正后的第一偏移参数,在第j+1个第二标定点显示后,通过所述第一偏移参数,对所述第j+1个第二标定点的第四注视位置信息进行校准,得到第j+1个校准结果;其中,j为正整数,所述第j个第二标定点为所述N个标定点中的任一个第二标定点;
在所述第j个校准结果在预设误差范围之内的情况下,将所述第一偏移参数作为所述注视位置偏移参数。
可选的,所述确定模块,还用于:
根据每个所述第二标定点的第四注视位置信息以及标定位置信息,确定每个所述第二标定点与所述目标用户对应的第二偏移参数;
将所述N个标定点与所述目标用户对应的N-1个第二偏移参数和所述第一偏移参数的平均值确定为所述注视位置偏移参数。
可选的,所述第一注视位置信息包括在至少一个坐标轴的第一坐标值,所述坐标轴是基于所述显示屏所在平面设置的坐标系中的坐标轴;所述第一获取模块,还用于:
过所述景深摄像模组,获取所述目标用户眼睛中瞳孔的瞳孔位置、目标用户眼睛的眼睛位置和所述眼睛位置与所述屏幕之间的目标距离;
根据所述目标距离、所述瞳孔位置和所述眼睛位置,确定所述第一坐标值。
可选的,所述第一坐标值包括X坐标轴上的第一坐标值以及Y坐标轴上的第一坐标值;所述第一获取模块301,还用于:
确定所述瞳孔位置和所述眼睛位置相对于所述景深摄像模组之间的偏差角θ;
根据所述瞳孔位置和所述偏差角θ,确定所述偏差角θ相对每个所述坐标轴的偏差角分量;
根据所述目标距离和所述偏差角分量,通过以下公式,计算所述第一坐标值:
其中,x表示X坐标轴上的第一坐标值、y表示Y坐标轴上的第一坐标值、θx表示相对X坐标轴的偏差角分量、θy表示相对Y坐标轴的偏差角分量、L0表示目标距离、r表示预设的眼睛半径。
可选的,所述校准模块302,还用于:
分别计算对应每个所述坐标轴的第一坐标值与对应每个所述坐标轴的校正参数的差值,得到对应每个所述坐标轴的第二坐标值。
综上所述,本发明实施例提供的眼动追踪装置,会先显示N个标定点,并通过景深摄像模组,获取目标用户目标用户注视N个标定点的N个注视位置信息,再根据N个标定点的标定位置信息和N个注视位置信息,确定与目标用户对应的注视位置偏移参数,最后,获取目标用户眼睛的瞳孔在显示屏上的第一注视位置信息,并通过与目标用户对应的注视位置偏移参数,对第一注视位置信息进行校准,得到第二注视位置信息。这样,在不存在与目标用户对应的注视位置偏移参数的情况下,通过获取目标用户对应第一标定点的第三注视位置信息以及对应第二标定点的第四注视位置信息来确定注视位置偏移参数,可以提高利用注视位置偏移参数校准的准确性,以便及时消除电子设备确定目标用户注视位置时存在的偏移差,进而可以提高追踪精度,避免误触发,确保追踪方法的实用性。
图8为实现本发明各个实施例的一种电子设备的硬件结构示意图;
该电子设备400包括但不限于:射频单元401、网络模块402、音频输出单元403、输入单元404、传感器405、显示单元406、用户输入单元407、接口单元408、存储器409、处理器410、以及电源411等部件。本领域技术人员可以理解,图4中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,电子设备包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端、可穿戴设备、以及计步器等。
其中,处理器410,用于通过所述景深摄像模组,获取目标用户眼睛的瞳孔在所述显示屏上对应的瞳孔注视位置信息;
处理器410,用于根据与所述目标用户对应的注视位置偏移参数,对所述瞳孔注视位置信息进行校准,获得目标用户眼睛在所述显示屏上的实际注视位置信息
综上所述,本发明实施例提供的眼动追踪方法,会先获取目标用户眼睛的瞳孔在显示屏上的第一注视位置信息,再通过与所述目标用户对应的注视位置偏移参数,对所述第一注视位置信息进行校准,得到第二注视位置信息。这样,在目标用户注视的真实注视位置信息与电子设备检测到的第一注视位置信息不同时,可以利用注视位置偏移参数进行校准,从而可以及时消除电子设备确定目标用户注视位置时存在的偏移差,进而可以提高追踪精度,避免误触发,确保追踪方法的实用性。
应理解的是,本发明实施例中,射频单元401可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器410处理;另外,将上行的数据发送给基站。通常,射频单元401包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元401还可以通过无线通信系统与网络和其他设备通信。
电子设备通过网络模块402为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元403可以将射频单元401或网络模块402接收的或者在存储器409中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元403还可以提供与电子设备400执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元403包括扬声器、蜂鸣器以及受话器等。
输入单元404用于接收音频或视频信号。输入单元404可以包括图形处理器(Graphics Processing Unit,GPU)4041和麦克风4042,图形处理器4041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元406上。经图形处理器4041处理后的图像帧可以存储在存储器409(或其它存储介质)中或者经由射频单元401或网络模块402进行发送。麦克风4042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元401发送到移动通信基站的格式输出。
电子设备400还包括至少一种传感器405,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板4061的亮度,接近传感器可在电子设备400移动到耳边时,关闭显示面板4061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别电子设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器405还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元406用于显示由用户输入的信息或提供给用户的信息。显示单元606可包括显示面板4061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板4061。
用户输入单元407可用于接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元407包括触控面板4071以及其他输入设备4072。触控面板4071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板4071上或在触控面板4071附近的操作)。触控面板4071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器410,接收处理器410发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板4071。除了触控面板4071,用户输入单元407还可以包括其他输入设备4072。具体地,其他输入设备4072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板4071可覆盖在显示面板4061上,当触控面板4071检测到在其上或附近的触摸操作后,传送给处理器410以确定触摸事件的类型,随后处理器410根据触摸事件的类型在显示面板4061上提供相应的视觉输出。虽然在图4中,触控面板4071与显示面板4061是作为两个独立的部件来实现电子设备的输入和输出功能,但是在某些实施例中,可以将触控面板4071与显示面板4061集成而实现电子设备的输入和输出功能,具体此处不做限定。
接口单元408为外部装置与电子设备400连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元408可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到电子设备400内的一个或多个元件或者可以用于在电子设备400和外部装置之间传输数据。
存储器409可用于存储软件程序以及各种数据。存储器409可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器409可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器410是电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器409内的软件程序和/或模块,以及调用存储在存储器409内的数据,执行电子设备的各种功能和处理数据,从而对电子设备进行整体监控。处理器410可包括一个或多个处理单元;优选的,处理器410可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器410中。
电子设备400还可以包括给各个部件供电的电源411(比如电池),优选的,电源411可以通过电源管理系统与处理器410逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,电子设备400包括一些未示出的功能模块,在此不再赘述。
优选的,本发明实施例还提供一种电子设备,包括处理器410,存储器409,存储在存储器409上并可在所述处理器410上运行的计算机程序,该计算机程序被处理器410执行时实现上述眼动追踪方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述眼动追踪方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
本申请实施例另提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现上述眼动追踪方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本申请实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。
Claims (10)
1.一种眼动追踪方法,其特征在于,所述方法包括:
获取目标用户眼睛的瞳孔在显示屏上的第一注视位置信息;
通过与所述目标用户对应的注视位置偏移参数,对所述第一注视位置信息进行校准,得到第二注视位置信息;
其中,所述第一注视位置信息包括在至少一个坐标轴的第一坐标值,所述第一坐标值包括X坐标轴上的第一坐标值以及Y坐标轴上的第一坐标值,所述坐标轴是基于所述显示屏所在平面设置的坐标系中的坐标轴;所述获取目标用户眼睛的瞳孔在显示屏上的第一注视位置信息,包括:
通过景深摄像模组,获取所述目标用户眼睛中瞳孔的瞳孔位置、目标用户眼睛的眼睛位置和所述眼睛位置与所述显示屏之间的目标距离;
确定所述瞳孔位置和所述眼睛位置相对于所述景深摄像模组之间的偏差角θ;
根据所述瞳孔位置和所述偏差角θ,确定所述偏差角θ相对每个所述坐标轴的偏差角分量;
根据所述目标距离和所述偏差角分量,通过以下公式,计算所述第一坐标值:
其中,x表示X坐标轴上的第一坐标值、y表示Y坐标轴上的第一坐标值、θx表示相对X坐标轴的偏差角分量、θy表示相对Y坐标轴的偏差角分量、L0表示目标距离、r表示预设的眼睛半径。
2.根据权利要求1所述的方法,其特征在于,所述获取目标用户眼睛的瞳孔在显示屏上的第一注视位置信息之前,还包括:
显示N个标定点;其中,所述N为正整数;
通过所述景深摄像模组,获取所述目标用户注视所述N个标定点的N个注视位置信息;
根据所述N个标定点的标定位置信息和所述N个注视位置信息,确定与所述目标用户对应的注视位置偏移参数。
3.根据权利要求2所述的方法,其特征在于,在N大于1的情况下,所述显示N个标定点,包括:
依次显示第一标定点和第i个第二标定点;其中,i为正整数,且i≤N-1;
根据所述第一标定点和所述第i个第二标定点,确定所述注视位置偏移参数的第i个误差值;
在所述第i个误差值不满足预设条件的情况下,显示第i+1个第二标定点;
其中,所述第二标定点为所述N个标定点中除所述第一标定点之外的任一标定点。
4.根据权利要求2所述的方法,其特征在于,在N大于1的情况下,所述显示N个标定点,包括:
显示所述N个标定点,且按预设顺序,采用预设标识标记所述标定点的注视顺序。
5.根据权利要求3或4所述的方法,其特征在于,所述根据所述N个标定点的标定位置信息和所述N个注视位置信息,确定与所述目标用户对应的注视位置偏移参数,包括:
根据第一标定点的第三注视位置信息,以及所述第一标定点的标定位置信息,确定与所述目标用户对应的第一偏移参数;
根据第二标定点的第四注视位置信息,对所述第一偏移参数进行校正,得到所述注视位置偏移参数。
6.根据权利要求5所述的方法,其特征在于,所述根据所述第二标定点的第四注视位置信息,对所述第一偏移参数进行校正,得到所述注视位置偏移参数,包括:
在第j个第二标定点显示后,通过所述第一偏移参数,对所述第j个第二标定点的第四注视位置信息进行校准,得到第j个校准结果;
在所述第j个校准结果超出预设误差范围的情况下,对所述第一偏移参数进行校正,并根据校正后的第一偏移参数,在第j+1个第二标定点显示后,通过所述第一偏移参数,对所述第j+1个第二标定点的第四注视位置信息进行校准,得到第j+1个校准结果;其中,j为正整数,所述第j个第二标定点为所述N个标定点中的任一个第二标定点;
在所述第j个校准结果在预设误差范围之内的情况下,将所述第一偏移参数作为所述注视位置偏移参数。
7.根据权利要求5所述的方法,其特征在于,所述根据所述第二标定点的第四注视位置信息,对所述第一偏移参数进行校正,得到所述注视位置偏移参数,包括:
根据每个所述第二标定点的第四注视位置信息以及标定位置信息,确定每个所述第二标定点与所述目标用户对应的第二偏移参数;
将所述N个标定点与所述目标用户对应的N-1个第二偏移参数和所述第一偏移参数的平均值确定为所述注视位置偏移参数。
8.根据权利要求1所述的方法,其特征在于,所述注视位置偏移参数包括对应每个所述坐标轴的校准参数,所述第二注视位置信息包括对应每个所述坐标轴的第二坐标值;
所述通过与所述目标用户对应的注视位置偏移参数,对所述第一注视位置信息进行校准,得到第二注视位置信息,包括:
分别计算对应每个所述坐标轴的第一坐标值与对应每个所述坐标轴的校准参数的差值,得到对应每个所述坐标轴的第二坐标值。
9.一种眼动追踪装置,其特征在于,所述装置包括:
第一获取模块,用于获取目标用户眼睛的瞳孔在显示屏上的第一注视位置信息;
校准模块,用于通过与所述目标用户对应的注视位置偏移参数,对所述第一注视位置信息进行校准,得到第二注视位置信息;
其中,所述第一注视位置信息包括在至少一个坐标轴的第一坐标值,所述第一坐标值包括X坐标轴上的第一坐标值以及Y坐标轴上的第一坐标值,所述坐标轴是基于所述显示屏所在平面设置的坐标系中的坐标轴;所述第一获取模块,还用于通过景深摄像模组,获取所述目标用户眼睛中瞳孔的瞳孔位置、目标用户眼睛的眼睛位置和所述眼睛位置与所述显示屏之间的目标距离;确定所述瞳孔位置和所述眼睛位置相对于所述景深摄像模组之间的偏差角θ;根据所述瞳孔位置和所述偏差角θ,确定所述偏差角θ相对每个所述坐标轴的偏差角分量;根据所述目标距离和所述偏差角分量,通过以下公式,计算所述第一坐标值: 其中,x表示X坐标轴上的第一坐标值、y表示Y坐标轴上的第一坐标值、θx表示相对X坐标轴的偏差角分量、θy表示相对Y坐标轴的偏差角分量、L0表示目标距离、r表示预设的眼睛半径。
10.一种电子设备,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如权利要求1至8中任一项所述的眼动追踪方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010607001.8A CN111857333B (zh) | 2020-06-29 | 2020-06-29 | 眼动追踪方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010607001.8A CN111857333B (zh) | 2020-06-29 | 2020-06-29 | 眼动追踪方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111857333A CN111857333A (zh) | 2020-10-30 |
CN111857333B true CN111857333B (zh) | 2022-09-13 |
Family
ID=72989376
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010607001.8A Active CN111857333B (zh) | 2020-06-29 | 2020-06-29 | 眼动追踪方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111857333B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113208558B (zh) * | 2021-04-30 | 2022-10-21 | 南昌虚拟现实研究院股份有限公司 | 眼球追踪方法、装置、电子设备及存储介质 |
CN113570916B (zh) * | 2021-08-03 | 2023-02-10 | 浙江鸿昌机械有限公司 | 一种多媒体远程教学辅助方法、设备及其系统 |
CN116339510B (zh) * | 2023-02-27 | 2023-10-20 | 荣耀终端有限公司 | 眼动追踪方法、装置、电子设备及计算机可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110341617A (zh) * | 2019-07-08 | 2019-10-18 | 北京七鑫易维信息技术有限公司 | 眼球追踪方法、装置、车辆和存储介质 |
CN110427101A (zh) * | 2019-07-08 | 2019-11-08 | 北京七鑫易维信息技术有限公司 | 眼球追踪的校准方法、装置、设备和存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6547268B2 (ja) * | 2014-10-02 | 2019-07-24 | 富士通株式会社 | 視線位置検出装置、視線位置検出方法及び視線位置検出プログラム |
CN106990843B (zh) * | 2017-04-01 | 2021-01-08 | 维沃移动通信有限公司 | 一种眼睛跟踪系统的参数校准方法及电子设备 |
CN108968907B (zh) * | 2018-07-05 | 2019-06-18 | 四川大学 | 眼动数据的校正方法及装置 |
EP3656285B1 (en) * | 2018-11-15 | 2023-04-19 | Tobii AB | Method and device for calibrating an eye tracker |
CN110338750B (zh) * | 2019-07-08 | 2022-04-05 | 北京七鑫易维信息技术有限公司 | 一种眼球追踪设备 |
CN110908511B (zh) * | 2019-11-08 | 2022-03-15 | Oppo广东移动通信有限公司 | 触发重新校正的方法及相关装置 |
-
2020
- 2020-06-29 CN CN202010607001.8A patent/CN111857333B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110341617A (zh) * | 2019-07-08 | 2019-10-18 | 北京七鑫易维信息技术有限公司 | 眼球追踪方法、装置、车辆和存储介质 |
CN110427101A (zh) * | 2019-07-08 | 2019-11-08 | 北京七鑫易维信息技术有限公司 | 眼球追踪的校准方法、装置、设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111857333A (zh) | 2020-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111857333B (zh) | 眼动追踪方法、装置及电子设备 | |
CN108153422B (zh) | 一种显示对象控制方法和移动终端 | |
AU2020263183B2 (en) | Parameter Obtaining Method and Terminal Device | |
CN109381165B (zh) | 一种皮肤检测方法及移动终端 | |
CN110769155B (zh) | 一种摄像头控制方法及电子设备 | |
CN111031234B (zh) | 一种图像处理方法及电子设备 | |
CN108650408B (zh) | 一种屏幕解锁方法和移动终端 | |
CN109190356B (zh) | 一种屏幕解锁方法及终端 | |
CN109688325B (zh) | 一种图像显示方法及终端设备 | |
CN111314616A (zh) | 图像获取方法、电子设备、介质及可穿戴设备 | |
CN111405181B (zh) | 调焦的方法及电子设备 | |
CN111652942B (zh) | 摄像模组的标定方法、第一电子设备和第二电子设备 | |
CN111338489B (zh) | 参数调整方法、电子设备 | |
CN112748798B (zh) | 一种眼球追踪校准方法及相关设备 | |
CN110457885B (zh) | 一种操作方法及电子设备 | |
CN110442261B (zh) | 电子设备及其触控操作检测方法 | |
CN111158548A (zh) | 屏幕折叠方法及电子设备 | |
CN111328132B (zh) | 一种发射功率的调整方法及电子设备 | |
CN110471808B (zh) | 一种压力按键检测方法、装置及移动终端 | |
CN110113490B (zh) | 一种信息处理方法、终端及计算机可读存储介质 | |
CN108960097B (zh) | 一种获取人脸深度信息的方法及装置 | |
CN108563983B (zh) | 一种基于触摸屏的指纹识别方法、终端设备 | |
CN110661978B (zh) | 一种拍照方法、电子设备 | |
CN108536371A (zh) | 一种图像显示方法及终端 | |
CN111443859B (zh) | 一种触控交互方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |