CN114428547A - 视线追踪方法、装置、设备及存储介质 - Google Patents
视线追踪方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN114428547A CN114428547A CN202011182061.6A CN202011182061A CN114428547A CN 114428547 A CN114428547 A CN 114428547A CN 202011182061 A CN202011182061 A CN 202011182061A CN 114428547 A CN114428547 A CN 114428547A
- Authority
- CN
- China
- Prior art keywords
- determining
- sight
- sight line
- line direction
- pupil
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 210000001747 pupil Anatomy 0.000 claims abstract description 78
- 230000003287 optical effect Effects 0.000 claims description 24
- 230000004438 eyesight Effects 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 238000012795 verification Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 claims description 4
- 210000001508 eye Anatomy 0.000 description 54
- 238000010586 diagram Methods 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 8
- 210000004087 cornea Anatomy 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 210000005252 bulbus oculi Anatomy 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000012216 screening Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明实施例公开了一种视线追踪方法、装置、设备及存储介质。包括:提取眼部图像的瞳孔信息及光斑信息;确定各光斑和各红外光源的匹配关系,获得目标匹配序列;根据所述目标匹配序列及所述瞳孔信息确定第一视线方向;根据所述瞳孔信息确定第二视线方向;将所述第一视线方向和所述第二视线方向进行融合,获得目标视线方向。本发明实施例公开的视线追踪方法,将由目标匹配序列及瞳孔信息确定的第一视线方向和由瞳孔信息确定的第二视线方向融合,获得目标视线方向,可以克服由于注视方位光斑个数不足,而无法确定视线方向的问题,提高了视线追踪的准确性及可靠性。
Description
技术领域
本发明实施例涉及眼动追踪技术领域,尤其涉及一种视线追踪方法、装置、设备及存储介质。
背景技术
视线追踪技术,亦被称为眼动追踪技术,是一种用于计算人眼注视点或者视线方向的技术。可以实时、准确地记录人们观察场景信息时的眼球运动情况,已被广泛应用于医疗、航空、车辆驾驶、AR/VR等领域
相关技术中,在视线追踪时采用光斑法实现视线估计。该种方法依赖于光斑数量,当某个注视方位光斑个数不足时,则无法得出视线结果。且依赖于光斑匹配的准确性,若该匹配过程存在问题,则可能无法得出视线结果。
发明内容
本发明实施例提供一种视线追踪方法、装置、设备及存储介质,以实现对人眼视线的追踪,提高视线追踪的准确性及可靠性。
第一方面,本发明实施例提供了一种视线追踪方法,包括:
提取眼部图像的瞳孔信息及光斑信息;
确定各光斑和各红外光源的匹配关系,获得目标匹配序列;
根据所述目标匹配序列及所述瞳孔信息确定第一视线方向;
根据所述瞳孔信息确定第二视线方向;
将所述第一视线方向和所述第二视线方向进行融合,获得目标视线方向。
第二方面,本发明实施例还提供了一种视线追踪装置,包括:
信息提取模块,用于提取眼部图像的瞳孔信息及光斑信息;
目标匹配序列获取模块,用于确定各光斑和各红外光源的匹配关系,获得目标匹配序列;
第一视线方向确定模块,用于根据所述目标匹配序列及所述瞳孔信息确定第一视线方向;
第二视线方向确定模块,用于根据所述瞳孔信息确定第二视线方向;
目标视线方向获取模块,用于将所述第一视线方向和所述第二视线方向进行融合,获得目标视线方向。
第三方面,本发明实施例还提供了一种计算机设备,所述设备包括:包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如本发明实施例所述的视线追踪方法。
第四方面,本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理装置执行时实现如本发明实施例所述的视线追踪方法。
本发明实施例提供了一种视线追踪方法、装置、设备及存储介质。提取眼部图像的瞳孔信息及光斑信息;确定各光斑和各红外光源的匹配关系,获得目标匹配序列;根据目标匹配序列及瞳孔信息确定第一视线方向;根据瞳孔信息确定第二视线方向;将第一视线方向和第二视线方向进行融合,获得目标视线方向。本发明实施例公开的视线追踪方法,将由目标匹配序列及瞳孔信息确定的第一视线方向和由瞳孔信息确定的第二视线方向融合,获得目标视线方向,可以克服由于注视方位光斑个数不足,而无法确定视线方向的问题,提高了视线追踪的准确性及可靠性。
附图说明
图1是本发明实施例一中的一种视线追踪方法的流程图;
图2是本发明实施例二中的一种视线追踪装置的结构示意图;
图3是本发明实施例三中的一种计算机设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种视线追踪方法的流程图,本实施例可适用于对人眼的视线进行追踪的情况,该方法可以由视线追踪装置来执行,该装置可由硬件和/或软件组成,并一般可集成在具有视线追踪功能的设备中,该设备可以是服务器或服务器集群等电子设备。如图1所示,具体包括如下步骤:
步骤110,提取眼部图像的瞳孔信息及光斑信息。
其中,眼部图像可以是由设置于视线追踪设备的红外相机拍摄的,眼部图像中包含人眼的瞳孔及红外光源照射于人眼形成的光斑。瞳孔信息包括图像瞳孔中心、椭圆长轴长度、椭圆短轴长度及长轴角度。椭圆可以理解为由瞳孔轮廓形成的椭圆,长轴角度可以是椭圆长轴在相机坐标系中的偏角。光斑信息可以理解为各光斑的中心位置。
本实施例中,提取眼部图像的瞳孔信息的方式可以是:过滤眼部图像中的光斑区域;对过滤后的眼部图像进行边缘提取,获得边缘点集;对边缘点进行椭圆拟合,提取拟合椭圆的长短轴长度及长轴角度,并将拟合椭圆的中心确定为图像瞳孔中心。
其中,过滤眼部图像中的光斑区域的方式可以是采用低值滤波技术或图像腐蚀技术进行过滤。对过滤后的眼部图像进行边缘提取可以采用Sobel算子、Laplacian算子或者Canny算子等边缘检测算法进行提取。
可选的,对过滤后的眼部图像进行边缘提取,获得边缘点集(以下简称第一边缘点集)后,还可以根据上一帧眼部图像的瞳孔检测结果对第一边缘点集进行筛选,基于筛选后的边缘点集进行椭圆拟合。
其中,根据上一帧眼部图像的瞳孔检测结果对第一边缘点集进行筛选的方式可以是:根据上一帧眼部图像的瞳孔检测结果确定第二边缘点集;基于第二边缘点集对第一边缘点集进行筛选。
具体的,根据上一帧眼部图像的瞳孔检测结果确定第二边缘点集的过程可以是:以上一帧眼部图像的瞳孔中心的位置信息对应的像素点为种子点,按照上一帧的步长值进行区域生长,获得瞳孔区域;将瞳孔区域的边缘点确定为第二边缘点集。或者,遍历上一帧眼部图像的瞳孔边缘点集,获取遍历到的瞳孔边缘点的梯度值及灰度值,若梯度值和灰度值均满足设定条件,则将遍历到的边缘点确定为第二边缘点。其中,设定条件可以是遍历到的边缘点的梯度值与该边缘点周围像素点中的最大梯度值间的偏差小于第一阈值,且遍历到的边缘点的灰度值与该边缘点周围像素点中的最大灰度值间的偏差小于第二阈值。
具体的,基于第二边缘点集对第一边缘点集进行筛选的方式可以是:遍历第一边缘点集,判断第二边缘点集中是否存在满足设定条件的点;若存在,则保留遍历到的第一边缘点;或者,将遍历到的第一边缘点与满足设定条件的第二边缘点间的中点确定为目标边缘点。其中,设定条件为与遍历到的第一边缘点的距离小于第三设定值。
步骤120,确定各光斑和各红外光源的匹配关系,获得目标匹配序列。
其中,匹配关系可以理解为光斑与红外光源的对应关系,即确定光斑是由哪个红外光源产生的。匹配序列中光斑与红外光源一一对应。
本实施例中,确定各光斑和红外光源的匹配关系的方式可以是:确定各光源的光源坐标以及各光斑的光斑坐标;建立各光斑分别与不同的光源的匹配关系,获得多组匹配序列;根据各光源坐标和各光斑坐标确定每组匹配序列的匹配分值;将匹配分值最高的匹配序列确定为目标匹配序列。
具体的,在确定每组匹配序列的匹配分值时,还应该结合设备的结构参数及相机参数。
具体的,根据各光源坐标和各光斑坐标确定每组匹配序列对应的匹配分值的过程可以是:针对每组匹配序列,根据各光源坐标和各光斑坐标,确定匹配序列对应的至少一个匹配参数;将各匹配参数均落入预设参数范围的匹配序列确定为候选匹配序列;针对每组候选匹配序列,根据预设参数范围对各匹配参数进行分值评估,得到各匹配参数的参数得分;将各参数得分根据预设加权系数进行加权求和,得到候选匹配序列对应的匹配分值。
其中,匹配参数包括光源光斑匹配向量最大夹角、光源与光斑边长比、多边形内角误差、直线交点与光源光斑距离比、直线交点误差、直线交点与光斑光源连线夹角、拟合圆半径、拟合圆半径误差、瞳孔坐标与直线交点参考点连线夹角和/或直线交点坐标。
步骤130,根据目标匹配序列及瞳孔信息确定第一视线方向。
其中,视线方向可以由注视点的坐标来表征,注视点即视线与注视平面的交点。
本实施例中,根据目标匹配序列确定第一视线方向的过程可以是:对目标匹配序列中各光斑和各红外光源的匹配关系进行验证,获取置信度满足条件的匹配关系,确定为目标匹配关系;根据目标匹配关系确定角膜曲率中心;根据角膜曲率中心和图像瞳孔中心确定实际瞳孔中心;根据角膜曲率中心和实际瞳孔中心确定光轴方向;根据光轴方向和第一校准系数确定第一视线方向。
其中,可以根据已知的红外光源和相机的位置信息验证目标匹配序列中各光斑和各红外光源的匹配关系。图像瞳孔中心可以理解为眼部图像中的瞳孔中心,实际瞳孔中心可以理解为实际眼球的瞳孔中心。
具体的,根据目标匹配关系确定角膜曲率中心的方式可以是:基于光线反射原理建立多项式,然后基于多项式确定角膜曲率中心。其中,光线反射原理为:入射光线、反射光线及在反射点处的法线在同一平面;入射角和反射角相等。根据光线反射原理确定角膜曲率中心的过程可以是:假设其中一组目标匹配关系中红外光源的坐标为L1,光斑中心为U1,反射点为Q1,红外相机的位置坐标为O,待确定的角膜曲率中心为C,那么根据U1、O和相机自身的fc/cc等数据得到OQ1的方向向量,且满足Q1-O=k1(O-U1),为k1赋一个初始值,可以计算得到反射点的坐标Q1。再根据光线反射原理可以建立多项式:(L1-O)×(Q1-O)·(C-O)=0;(L1-Q)·(Q1-C)||O-Q1||=(O-Q1)·(Q1-C)||L1-Q1||。且眼球半径的表达式可以表示为R=||Q1-C||。上述各个式中的字母分别代表该点的三维坐标。联立上述式子,由于L1、O,Q1及R均为已知量,可求得一个角膜曲率中心C的坐标。
对于另一组目标匹配关系中红外光源的坐标为L2,光斑中心为U2,反射点为Q2,根据U2、O和相机自身的fc/cc等数据得到OQ2的方向向量,基于上述求出的角膜曲率中心C,可以求出反射点Q2的坐标,获得入射光线L2Q2、反射光线Q2O及反射点处的法线CQ2。然后根据入射光线L2Q2、反射光线Q2O及反射点处的法线CQ2验证反射原理。由于根据初始值k1求出的C不一定能使L2-U2满足反射原理,所以,需要不断的调整k1,直到L2--U2的反射解最优。在L2--U2的反射解最优时,求出的C即为最终的角膜曲率中心。
同理,当目标匹配关系有多组时,利用其中一组光源光斑匹配关系假定的K1使得其余组的目标匹配关系尽量满足光线反射原理。另外,在优化过程中,若其中一组和其余几组的反射公式的解始终存在较大偏差,则可以确定该组匹配关系有误。
具体的,根据角膜曲率中心和图像瞳孔中心确定实际瞳孔中心的方式可以是:根据光学折射原理建立多项式,基于建立的多项式确定实际瞳孔中心。其中,折射原理为:入射光线、折射光线和折射点处的法线在同一平面;入射角和折射角满足n1sinθ1=n2sinθ2,其中,n1为空气折射率,θ1为入射角,n2为眼球折射率,θ2为折射角。假设折射点为r、图像瞳孔中心为V,实际瞳孔中心为P,则根据这些原理建立的多项式为:(r-O)×(C-O)·(P-O)=0;n1·||(r-C)×(P-r)||·||O-r|=n2·||(r-C×(O-r))||·||P-r||;r=O+k2(O-V);||r-C||=R。上述各个式中的字母分别代表该点的三维坐标。联立上述式子,其中V、O、R、n1和n2为已知量,首先对上述式子进行运算使P由已知量表示,然后计算出k2。根据计算出的k2即可得到折射点r的坐标,然后根据C、r及P三点的位置关系即可求出实际瞳孔中心P的坐标。
根据角膜曲率中心和实际瞳孔中心确定光轴方向的方式为:将角膜曲率中心和实际瞳孔中心连线,即为光轴方向。
其中,第一校准系数包括第一横向偏移角和第一纵向偏移角。第一校准系数的获取过程可以是:在屏幕上显示对应点位引导用户观看,可获得用户的实际视线方向,采集用户的眼部图像,基于上述方式分析眼部图像,获得光轴方向,计算光轴方向和实际视线方向的偏差,获得第一校准系数。
具体,根据第一横向偏移角和第一纵向偏移角对光轴方向进行调整,获得第一视线方向。
步骤140,根据瞳孔信息确定第二视线方向。
其中,瞳孔信息包括椭圆长短轴长度及长轴角度。
具体的,根据瞳孔信息确定第二视线方向的方式可以是:获取拍摄眼部图像的相机位置信息;根据相机位置信息和瞳孔信息基于成像原理确定实际瞳孔朝向;根据实际瞳孔朝向和第二校准系数确定第二视线方向。
其中,实际瞳孔朝向可以理解为人眼瞳孔所在平面的法向量对应的方向。相机位置信息可以理解为红外相机拍摄点的坐标。本实施例中,基于成像原理,根据椭圆长短轴长度、长轴角度及相机位置信息可以确定实际瞳孔的所在的平面,根据实际瞳孔所在的平面即可确定实际瞳孔朝向。
其中,第二校准系数包括第二横向偏移角和第二纵向偏移角。第二校准系数的获取过程可以是:在屏幕上显示对应点位引导用户观看,可获得用户的实际视线方向,采集用户的眼部图像,基于上述方式分析眼部图像,获得实际瞳孔朝向,计算实际瞳孔朝向方向和实际视线方向的偏差,获得第二校准系数。
具体的,根据二横向偏移角和第二纵向偏移角对实际瞳孔朝向进行调整,获得第二视线方向。
步骤150,将第一视线方向和第二视线方向进行融合,获得目标视线方向。
其中,第一视线方向包括第一左眼视线方向和第一右眼视线方向;第二视线方向包括第二左眼视线方向和第二右眼视线方向。
具体的,将第一视线方向和第二视线方向进行融合,获得目标视线方向的方式可以是:基于第一预设权重表获取第一视线方向对应的第一权重;基于第二预设权重表获取第二视线方向对应的第二权重;根据第一权重和第二权重对第一视线方向和第二视线方向进行加权求和,获得目标视线方向。
其中,权重表记录注视区域与权重的对应关系。第一预设权重表包括第一左眼预设权重表和第一右眼预设权重表;第二预设权重表包括第二左眼预设权重表和第二右眼预设权重表。第一权重包括第一左眼权重和第一右眼权重;第二权重包括第二左眼权重和第二右眼权重。本实施例中,由于红外光源位置、左右眼位置不同的原因,用户在注视不同区域时,在用户眼部形成的光斑数量不同,因此,需要预先根据结构参数及相机参数建立权重表。
可选的,还包括如下步骤:对第一左眼视线方向、第一右眼视线方向、第二左眼视线方向和第二右眼视线方向进行排异性验证,删除不满足条件的视线方向。
其中,视线方向由注视点坐标来表征,因此需要对四个注视点坐标进行排异性验证。排异性验证时可以参考各视线方向在权重表中的权重信息进行,假如注视点所在的区域在权重表中显示落入该区域的数据不可用,在需要将该注视点对应的视线方向删除。示例性的,假设第一左眼视线方向和第一右眼视线方向接近位置a,第二左眼视线方向和第二右眼视线接近位置b。在第一左眼权重表中,位置a对应的置信度低于设定值,则表明此时的第一左眼视线方向不满足条件,应该删除。第一右眼权重表中,位置a对应的置信度高于设定值。在第二左眼权重表和第二右眼权重表中,位置b对应的置信度均大于设定值。由于第一右眼视线方向接近的位置和第二左眼视线方向及第二右眼视线方向接近位置不同,即第一右眼视线方向存在差异性,因此,还需要将第一右眼视线方向排除掉。因此,在此次排异性验证中,将第一左眼视线方向和第一右眼视线方向删除,保留第二左眼视线方向及第二右眼视线方向。
具体的,在删除不满足条件的视线方向后,对保留的视线方向进行加权求和,获得目标视线方向。
本实施例的技术方案,提取眼部图像的瞳孔信息及光斑信息;确定各光斑和各红外光源的匹配关系,获得目标匹配序列;根据目标匹配序列及瞳孔信息确定第一视线方向;根据瞳孔信息确定第二视线方向;将第一视线方向和第二视线方向进行融合,获得目标视线方向。本发明实施例公开的视线追踪方法,将由目标匹配序列及瞳孔信息确定的第一视线方向和由瞳孔信息确定的第二视线方向融合,获得目标视线方向,可以克服由于注视方位光斑个数不足,而无法确定视线方向的问题,提高了视线追踪的准确性及可靠性。
实施例二
图2是本发明实施例二提供的一种视线追踪装置的结构示意图。如图2所示,该装置包括:
信息提取模块210,用于提取眼部图像的瞳孔信息及光斑信息;
目标匹配序列获取模块220,用于确定各光斑和各红外光源的匹配关系,获得目标匹配序列;
第一视线方向确定模块230,用于根据目标匹配序列及瞳孔信息确定第一视线方向;
第二视线方向确定模块240,用于根据瞳孔信息确定第二视线方向;
目标视线方向获取模块250,用于将第一视线方向和第二视线方向进行融合,获得目标视线方向。
可选内的,目标匹配序列获取模块220,还用于:
确定各光源的光源坐标以及各光斑的光斑坐标;
建立各光斑分别与不同的光源的匹配关系,获得多组匹配序列;每组匹配序列中光斑与光源一一对应;
根据各光源坐标和各光斑坐标确定每组匹配序列的匹配分值;
将匹配分值最高的匹配序列确定为目标匹配序列。
可选的,第一视线方向确定模块230,还用于:
对目标匹配序列中各光斑和各红外光源的匹配关系进行验证,获取置信度满足条件的匹配关系,确定为目标匹配关系;
根据目标匹配关系确定角膜曲率中心;
根据角膜曲率中心和图像瞳孔中心确定实际瞳孔中心;
根据角膜曲率中心和实际瞳孔中心确定光轴方向;
根据光轴方向和第一校准系数确定第一视线方向。
可选的,第一校准系数包括第一横向偏移角和第一纵向偏移角;第一视线方向确定模块230,还用于:
根据第一横向偏移角和第一纵向偏移角对光轴方向进行调整,获得第一视线方向。
可选的,瞳孔信息包括图像瞳孔中心、椭圆长短轴长度及长轴角度;信息提取模块210,还用于:
过滤眼部图像中的光斑区域;
对过滤后的眼部图像进行边缘提取,获得边缘点集;
对边缘点进行椭圆拟合,提取拟合椭圆的长短轴长度及长轴角度,并将拟合椭圆的中心确定为图像瞳孔中心;其中,长轴角度为椭圆长轴在相机坐标系中的偏角。
可选的,第二视线方向确定模块240,还用于:
获取拍摄眼部图像的相机位置信息;
根据相机位置信息和瞳孔信息基于成像原理确定实际瞳孔朝向;
根据实际瞳孔朝向和第二校准系数确定第二视线方向。
可选的,第二校准系数包括第二横向偏移角和第二纵向偏移角;第二视线方向确定模块240,还用于:
根据二横向偏移角和第二纵向偏移角对实际瞳孔朝向进行调整,获得第二视线方向。
可选的,目标视线方向获取模块250,还用于:
基于第一预设权重表获取第一视线方向对应的第一权重;
基于第二预设权重表获取第二视线方向对应的第二权重;
根据第一权重和第二权重对第一视线方向和第二视线方向进行加权求和,获得目标视线方向;权重表记录注视区域与权重的对应关系。
可选的,第一视线方向包括第一左眼视线方向和第一右眼视线方向;第二视线方向包括第二左眼视线方向和第二右眼视线方向;还包括:视线方向验证模块,用于:
对第一左眼视线方向、第一右眼视线方向、第二左眼视线方向和第二右眼视线方向进行排异性验证,删除不满足条件的视线方向。
上述装置可执行本发明前述所有实施例所提供的方法,具备执行上述方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明前述所有实施例所提供的方法。
实施例三
图3为本发明实施例三提供的一种计算机设备的结构示意图。图3示出了适于用来实现本发明实施方式的计算机设备312的框图。图3显示的计算机设备312仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。设备312是典型的视线追踪功能的计算设备。
如图3所示,计算机设备312以通用计算设备的形式表现。计算机设备312的组件可以包括但不限于:一个或者多个处理器316,存储装置328,连接不同系统组件(包括存储装置328和处理器316)的总线318。
总线318表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture,ISA)总线,微通道体系结构(Micro Channel Architecture,MCA)总线,增强型ISA总线、视频电子标准协会(Video Electronics Standards Association,VESA)局域总线以及外围组件互连(Peripheral Component Interconnect,PCI)总线。
计算机设备312典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备312访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储装置328可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory,RAM)330和/或高速缓存存储器332。计算机设备312可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统334可以用于读写不可移动的、非易失性磁介质(图3未显示,通常称为“硬盘驱动器”)。尽管图3中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如只读光盘(Compact Disc-Read Only Memory,CD-ROM)、数字视盘(Digital Video Disc-Read Only Memory,DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线318相连。存储装置328可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块326的程序336,可以存储在例如存储装置328中,这样的程序模块326包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块326通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备312也可以与一个或多个外部设备314(例如键盘、指向设备、摄像头、显示器324等)通信,还可与一个或者多个使得用户能与该计算机设备312交互的设备通信,和/或与使得该计算机设备312能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口322进行。并且,计算机设备312还可以通过网络适配器320与一个或者多个网络(例如局域网(Local AreaNetwork,LAN),广域网Wide Area Network,WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器320通过总线318与计算机设备312的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备312使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、磁盘阵列(Redundant Arrays of IndependentDisks,RAID)系统、磁带驱动器以及数据备份存储系统等。
处理器316通过运行存储在存储装置328中的程序,从而执行各种功能应用以及数据处理,例如实现本发明上述实施例所提供的视线追踪方法。
实施例四
本发明实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该程序被处理装置执行时实现如本发明实施例中的注视点的映射方法。本发明上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:提取眼部图像的瞳孔信息及光斑信息;确定各光斑和各红外光源的匹配关系,获得目标匹配序列;根据所述目标匹配序列及所述瞳孔信息确定第一视线方向;根据所述瞳孔信息确定第二视线方向;将所述第一视线方向和所述第二视线方向进行融合,获得目标视线方向。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (12)
1.一种视线追踪方法,其特征在于,包括:
提取眼部图像的瞳孔信息及光斑信息;
确定各光斑和各红外光源的匹配关系,获得目标匹配序列;
根据所述目标匹配序列及所述瞳孔信息确定第一视线方向;
根据所述瞳孔信息确定第二视线方向;
将所述第一视线方向和所述第二视线方向进行融合,获得目标视线方向。
2.根据权利要求1所述的方法,其特征在于,确定各光斑和红外光源的匹配关系,包括:
确定各光源的光源坐标以及各光斑的光斑坐标;
建立各所述光斑分别与不同的光源的匹配关系,获得多组匹配序列;每组匹配序列中光斑与光源一一对应;
根据各所述光源坐标和各所述光斑坐标确定每组匹配序列的匹配分值;
将匹配分值最高的匹配序列确定为目标匹配序列。
3.根据权利要求1或2所述的方法,其特征在于,根据所述目标匹配序列确定第一视线方向,包括:
对所述目标匹配序列中各光斑和各红外光源的匹配关系进行验证,获取置信度满足条件的匹配关系,确定为目标匹配关系;
根据所述目标匹配关系确定角膜曲率中心;
根据所述角膜曲率中心和图像瞳孔中心确定实际瞳孔中心;
根据所述角膜曲率中心和实际瞳孔中心确定光轴方向;
根据所述光轴方向和第一校准系数确定第一视线方向。
4.根据权利要求3所述的方法,其特征在于,所述第一校准系数包括第一横向偏移角和第一纵向偏移角;根据所述光轴方向和第一校准系数确定第一视线方向,包括:
根据所述第一横向偏移角和第一纵向偏移角对所述光轴方向进行调整,获得第一视线方向。
5.根据权利要求1所述的方法,其特征在于,所述瞳孔信息包括图像瞳孔中心、椭圆长短轴长度及长轴角度;提取眼部图像的瞳孔信息,包括:
过滤所述眼部图像中的光斑区域;
对过滤后的眼部图像进行边缘提取,获得边缘点集;
对所述边缘点进行椭圆拟合,提取拟合椭圆的长短轴长度及长轴角度,并将拟合椭圆的中心确定为图像瞳孔中心;其中,所述长轴角度为椭圆长轴在相机坐标系中的偏角。
6.根据权利要求1或5所述的方法,其特征在于,根据所述瞳孔信息确定第二视线方向,包括:
获取拍摄所述眼部图像的相机位置信息;
根据所述相机位置信息和所述瞳孔信息基于成像原理确定实际瞳孔朝向;
根据所述实际瞳孔朝向和第二校准系数确定第二视线方向。
7.根据权利要求6所述的方法,其特征在于,所述第二校准系数包括第二横向偏移角和第二纵向偏移角;根据所述实际瞳孔朝向和第二校准系数确定第二视线方向,包括:
根据所述二横向偏移角和第二纵向偏移角对所述实际瞳孔朝向进行调整,获得第二视线方向。
8.根据权利要求1所述的方法,其特征在于,将所述第一视线方向和所述第二视线方向进行融合,获得目标视线方向,包括:
基于第一预设权重表获取所述第一视线方向对应的第一权重;
基于第二预设权重表获取所述第二视线方向对应的第二权重;
根据所述第一权重和所述第二权重对所述第一视线方向和所述第二视线方向进行加权求和,获得目标视线方向;所述权重表记录注视区域与权重的对应关系。
9.根据权利要求8所述的方法,其特征在于,所述第一视线方向包括第一左眼视线方向和第一右眼视线方向;第二视线方向包括第二左眼视线方向和第二右眼视线方向;还包括:
根据所述权重表对所述第一左眼视线方向、第一右眼视线方向、第二左眼视线方向和第二右眼视线方向进行排异性验证,删除不满足条件的视线方向。
10.一种视线追踪装置,其特征在于,包括:
信息提取模块,用于提取眼部图像的瞳孔信息及光斑信息;
目标匹配序列获取模块,用于确定各光斑和各红外光源的匹配关系,获得目标匹配序列;
第一视线方向确定模块,用于根据所述目标匹配序列及所述瞳孔信息确定第一视线方向;
第二视线方向确定模块,用于根据所述瞳孔信息确定第二视线方向;
目标视线方向获取模块,用于将所述第一视线方向和所述第二视线方向进行融合,获得目标视线方向。
11.一种计算机设备,其特征在于,所述设备包括:包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1-9任一所述的视线追踪方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现如权利要求1-9中任一所述的视线追踪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011182061.6A CN114428547A (zh) | 2020-10-29 | 2020-10-29 | 视线追踪方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011182061.6A CN114428547A (zh) | 2020-10-29 | 2020-10-29 | 视线追踪方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114428547A true CN114428547A (zh) | 2022-05-03 |
Family
ID=81309006
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011182061.6A Pending CN114428547A (zh) | 2020-10-29 | 2020-10-29 | 视线追踪方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114428547A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024125578A1 (zh) * | 2022-12-14 | 2024-06-20 | 南昌虚拟现实研究院股份有限公司 | 注视信息的确定方法、装置、眼动追踪设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040196433A1 (en) * | 2001-08-15 | 2004-10-07 | Durnell L.Aurence | Eye tracking systems |
CN106778641A (zh) * | 2016-12-23 | 2017-05-31 | 北京七鑫易维信息技术有限公司 | 视线估计方法及装置 |
CN107767421A (zh) * | 2017-09-01 | 2018-03-06 | 北京七鑫易维信息技术有限公司 | 视线追踪设备中光斑光源匹配方法和装置 |
US20190121427A1 (en) * | 2016-06-08 | 2019-04-25 | South China University Of Technology | Iris and pupil-based gaze estimation method for head-mounted device |
-
2020
- 2020-10-29 CN CN202011182061.6A patent/CN114428547A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040196433A1 (en) * | 2001-08-15 | 2004-10-07 | Durnell L.Aurence | Eye tracking systems |
US20190121427A1 (en) * | 2016-06-08 | 2019-04-25 | South China University Of Technology | Iris and pupil-based gaze estimation method for head-mounted device |
CN106778641A (zh) * | 2016-12-23 | 2017-05-31 | 北京七鑫易维信息技术有限公司 | 视线估计方法及装置 |
CN107767421A (zh) * | 2017-09-01 | 2018-03-06 | 北京七鑫易维信息技术有限公司 | 视线追踪设备中光斑光源匹配方法和装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024125578A1 (zh) * | 2022-12-14 | 2024-06-20 | 南昌虚拟现实研究院股份有限公司 | 注视信息的确定方法、装置、眼动追踪设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10334235B2 (en) | Binocular see-through AR head-mounted display device and information display method therefor | |
Itoh et al. | Interaction-free calibration for optical see-through head-mounted displays based on 3d eye localization | |
Fuhl et al. | Non-intrusive practitioner pupil detection for unmodified microscope oculars | |
CN113808160B (zh) | 视线方向追踪方法和装置 | |
CN108968907B (zh) | 眼动数据的校正方法及装置 | |
US9696798B2 (en) | Eye gaze direction indicator | |
CN107358217B (zh) | 一种视线估计方法及装置 | |
WO2015190204A1 (ja) | 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム | |
JP6596678B2 (ja) | 視線測定装置および視線測定方法 | |
US20220100268A1 (en) | Eye tracking device and a method thereof | |
WO2021007087A1 (en) | Eye tracking latency enhancements | |
CN110658916A (zh) | 目标跟踪方法和系统 | |
US20220365342A1 (en) | Eyeball Tracking System and Method based on Light Field Sensing | |
CN115830675A (zh) | 一种注视点跟踪方法、装置、智能眼镜及存储介质 | |
CN114428547A (zh) | 视线追踪方法、装置、设备及存储介质 | |
Kang et al. | A robust extrinsic calibration method for non-contact gaze tracking in the 3-D space | |
CN114429670A (zh) | 瞳孔检测方法、装置、设备及存储介质 | |
JP2016130693A (ja) | 画像データ処理方法、画像データ処理装置および画像データ処理プログラム | |
JP2012217524A (ja) | 視線測定装置および視線測定プログラム | |
CN112258647A (zh) | 地图重建方法及装置、计算机可读介质和电子设备 | |
JP2003079577A (ja) | 視線測定装置及びその方法と、視線測定プログラム及びそのプログラムを記録した記録媒体 | |
CN112651270A (zh) | 一种注视信息确定方法、装置、终端设备及展示对象 | |
CN115456974A (zh) | 基于人脸关键点的斜视检测系统、方法、设备及介质 | |
CN109284002B (zh) | 一种用户距离估算方法、装置、设备及存储介质 | |
WO2017179280A1 (ja) | 視線測定装置および視線測定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |