CN103530618A - 一种基于角膜反射的非接触式视线追踪方法 - Google Patents
一种基于角膜反射的非接触式视线追踪方法 Download PDFInfo
- Publication number
- CN103530618A CN103530618A CN201310501357.3A CN201310501357A CN103530618A CN 103530618 A CN103530618 A CN 103530618A CN 201310501357 A CN201310501357 A CN 201310501357A CN 103530618 A CN103530618 A CN 103530618A
- Authority
- CN
- China
- Prior art keywords
- point
- pupil
- hot spot
- coordinate
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供了一种基于角膜反射的非接触式视线追踪方法,步骤1:人眼定位;步骤2:计算光斑坐标;步骤3:瞳孔精确定位;步骤4:空间映射:根据计算出的屏幕上四个光斑和瞳孔中心坐标,利用射影几何中的交比不变原理进行空间坐标的映射。本发明提出的技术方案不需要配戴其它设备,大大降低了对使用者的限制;提出一种新的瞳孔边缘拟合方案,循环拟合剔除假点,最终得到精确的瞳孔中心,提高了映射的精度。本发明与现有的相关研究相比,在精度上有了较大的提升。
Description
技术领域
本发明涉及计算机视觉领域,主要涉及瞳孔检测与识别,椭圆拟合,多光斑的检测与提取,及三维空间几何映射等。
背景技术
人们的信息绝大部分是通过眼睛来获取的,正因为通过视觉获取的信息对人们的生活有重要意义,视觉方面的研究显得至关重要。随着科技的飞速发展,视觉跟踪日趋成为国内外专家学者研究的焦点。由于起步较晚和技术支持的局限性,视觉跟踪方面的研究仍处于萌芽状态,目前仍没有一种理想的方案能广泛地应用到日常生活中。
发明内容
针对现有的基于CCD(Charge Coupled Device,电荷耦合器件)摄像机的视线跟踪技术瞳孔提取不准确,人眼注视坐标定位不准确,以及对姿势限制过多等方面的不足,提出一种利用角膜反射原理,采用5组近红外光源(4组位于屏幕4个角,另1组位于CCD摄像机靠近光轴处)作为系统光源的基于单CCD摄像机的非侵入式视线跟踪技术。
本发明提供了一种基于角膜反射的非接触式视线追踪方法,
步骤1:人眼定位:
利用眼睛不同部位对红外光的反射和折射率不同,瞳孔对红外光的反射最弱,因而瞳孔在红外光的照射下呈黑色,而其他部分都不是黑色的特点定位人的眼睛;
步骤2:计算光斑坐标:
步骤2.1:首先根据经验阈值分割感兴趣区域图像,然后找出面积最大的五个光斑;
步骤2.2:利用质心法计算出五个光斑的中心坐标,同时利用光斑的相对位置进行检测,剔除假的光斑信息;图像中光斑面积小、亮度大、受干扰影响较小,采用圆模型处理,提取光斑区域质心位置;由前面得到的光斑阈值,在二值化图中粗定光斑中心(xc,yc)和初始半径r;
式中area表示面积,pi表示圆周率,假定原图中光斑光强为二维高斯分布,通过最小化(3)式确定光强下降最快之处对应的r;
I(r,x,y,θ)为光斑边界点光强,δ=1,θ是由r,x,y确定的边界弧线角度;为防止丢失信息,取1.5-3.5r对应区域作为光斑区域,在此区域采用带权重的“质心法”计算光斑中心位置;
步骤2.3:如果有没有找到的光斑点,则用找到的光斑的坐标预测没有找到的光斑的位置,同时减小阈值,在预测区域搜索没有找到的光斑,重复进行直到找到光斑为止;
步骤3:瞳孔精确定位:
依据光斑位置,确定瞳孔搜索区域,用粗定的瞳孔中心作为搜索瞳孔边界的起始点,在不同方向上做一维扫描,在搜索线上感兴趣区域,结合像素点灰度值、梯度值及边界曲线的平滑特性,由(5)式通过寻找最大值,决定边缘点位置r,提取瞳孔边缘的候选点,
f(r)=k0G(r)-k1(I(r)-Ip)-k2(r-rn-1) (5)
f为判据函数,I(r)为搜索点灰度值,Ip为瞳孔阈值,G(r)为搜索点梯度值,由一维梯度算子[11000]计算得到,rn-1为相邻搜索线上得到的边界点半径,k0、k1、k2为由试验定值的权重参数;
步骤4:空间映射:
根据计算出的屏幕上四个光斑和瞳孔中心坐标,利用射影几何中的交比不变原理进行空间坐标的映射。
作为本发明的进一步改进,步骤1中,人眼定位具体方法如下:
首先将获取到的彩色图像转换成灰度图,然后利用直方图分析出图像中灰度值最低的子区域,以这个灰度值作为域值将图像分割成二值化图像,利用所有小于阈值的点(xi,yi)(i=1…N),N是直方图中灰度小于阈值的点的个数,在二值化图像粗定位瞳孔中心位置(xpupil,ypupil),如式(1)和式(2):
根据粗定的瞳孔中心,把以它为中心的40*40-100*100像素的矩形区域设置为感兴趣区域。
作为本发明的进一步改进,根据粗定的瞳孔中心,把以它为中心的60*60像素的矩形区域设置为感兴趣区域。
作为本发明的进一步改进,步骤2.1中经验阈值取值为30-80。
作为本发明的进一步改进,步骤2.2中,取2.5r对应区域作为光斑区域。
作为本发明的进一步改进,步骤3中,边提取界点方法如下:
对边界点提取中的所有候选点进行多次的椭圆拟合,采用直接最小二乘法椭圆拟合法来进行椭圆拟合,并剔除与椭圆轮廓较远的点,重复进行,直到获取的椭圆中心稳定,这样求出的椭圆中心就是最终用到的瞳孔中心;椭圆方程可以用一般的圆锥曲线方程表示如下:
Ax2+Bxy+Cy2+Dx+Ey+F=0 (6)
需要得到的是系数,这时不再是求一直线到各(x,y)的距离最小,而是求一向量(A,B,C,D,E,F)到各点(x2,y2,xy,x,y)的距离最小,这是高维的最小二乘拟合,需要解线性方程组。
作为本发明的进一步改进,步骤4中,空间坐标的映射具体如下:
V1、V2、V3、V4是屏幕上四个光斑D1、D2、D3、D4投射到虚平面上的虚点,UV1、UV2、UV3、UV4是虚平面上的点投射到摄相机图像平面的虚点,p点为瞳孔中心在虚平面上的点,Up为p投影到摄像机图像平面的点;
假设摄像机上方光源在人眼角膜曲面上产生的光斑是r0,屏幕上四个光源在人眼角膜曲面上的光斑是r1、r2、r3、r4,这五个光斑在CCD捕获的图像平面中对应的实点是I0、I1、I2、I3、I4,它们和虚点UV1、UV2、UV3、UV4之间存在一个转换关系,即:
UV1=I0+α1(I1–I0) (7)
式(7)中α1是固定的,I0和I1可以通过计算得出,只要Uv1已知,α1就可求,具体如下:
设I0(A1,A2),I1(B1,B2),Uv1(x1,y1),则有式(8)中的关系,
x1=A1+α1(B1-A1) (8)
整理得式(9)
α1=(x1-A1)/(B1-A1) (9)
同理可计算出其它三个方向上的α2、α3、α4;这样,虚点UV1、UV2、UV3、UV4的坐标就可计算出来,根据交比不变原理,这等价于D1D4的交比可以计算出来了;
因此,只要在计算过程中利用交比建立等式,当未知点只剩下g时,就可以。
作为本发明的进一步改进,通过公式变换把g求出来,详细方法如下:
直线UV1UV2上四点UV1(x1,y1)、M1(x2,y2)、M2(x3,y3)、UV2(x4,y4)四个点的交比CRX满足下面等式:
本发明提出的技术方案不需要配戴其它设备,大大降低了对使用者的限制;提出一种新的瞳孔边缘拟合方案,循环拟合剔除假点,最终得到精确的瞳孔中心,提高了映射的精度。本发明与现有的相关研究相比,在精度上有了较大的提升。
附图说明
图1是本发明瞳孔像素级边缘点提取示意图;
图2是本发明拟合后的瞳孔边缘;
图3是本发明空间映射关系图。
具体实施方式
下面结合附图对本发明做进一步说明。
本发明设计了一种利用角膜反射原理,采用5个近红外光源作为系统光源的基于单CCD摄像机的非侵入式视线跟踪技术。利用图像的灰度进行人眼的初定位,快速而准确。提出一种采用直接最小二乘椭圆拟合进行循环拟合,去除噪点,直到椭圆中心固定的拟合方法,最终得到精确的瞳孔中心。利用交比不变原理进行坐标映射,精确计算出注视坐标。系统不需要外戴设备,而且对人头部的自然转动有较好的适应性。
针对现有的视觉追踪技术设备复杂、对姿势限制过多、要头部佩戴专用设备、精度低和效率慢等方面的不足,在前人研究的基础之上,提出一种实现视觉追踪技术的新方法,采用五个近红外光灯作为角膜反射的光源。该方法不需要带任何头戴设备,并且能适应头部的自然运动,设计的算法计算出来的视线位置精度较高。提出一种新的瞳孔边缘拟合方案,循环拟合剔除假点,最终得到精确的瞳孔中心,提高了映射的精度。利用图像的灰度进行人眼的初定位,快速而准确。利用交比不变原理进行坐标映射,更精确地计算出注视坐标。利用上述技术的实现成果,实现眼控鼠标系统,来展示出视觉追踪的效果。
人眼定位
本发明在实验的基础上提出了一种新的快速的检测方法。眼睛不同部位对红外光的反射和折射率不同,瞳孔对红外光的反射最弱,因而瞳孔在红外光的照射下呈黑色,而其他部分都不是黑色。利用这一点,可以快速定位到人的眼睛,这样节省时间和计算开销,同时精度也很高。
首先将获取到的彩色图像转换成灰度图,然后利用直方图分析出图像中灰度值最低的子区域,以这个灰度值作为域值将图像分割成二值化图像。利用所有小于阈值的点(xi,yi)(i=1…N),N是直方图中灰度小于阈值的点的个数(通常小于4000),在二值化图像粗定位瞳孔中心位置(xpupil,ypupil),如式(1)和式(2)。
根据粗定的瞳孔中心,把以它为中心的40*40-100*100(通常情况下取60*60)像素的矩形区域设置为感兴趣区域ROI(region-of-interest),这样就缩小图像处理的范围,仅对感兴趣区域进行操作,提高了图像处理效率。
光斑坐标计算
要计算出精确的注视点位置,必须首先获取红外灯在角膜中反射的五个光斑的坐标。因而快速准确的获取光斑坐标是至关重要的。由于图像噪声的存在和头部的运动的影响,光斑的强度可能不稳定,有时会变得很暗淡,增加了寻找光斑的难度,为此本文提出了一种健壮快速的光斑提取方法。
第一步:首先根据经验阈值(30-80,通常取60)分割ROI图像,由于光斑的灰度值在图像中是最高的,因而用适当的阈值处理可以获取光斑信息。然后找出面积最大的五个光斑。
第二步:利用质心法计算出五个光斑的中心坐标,同时利用光斑的相对位置进行检测,剔除假的光斑信息。图像中光斑面积小、亮度大、受干扰影响较小,采用圆模型处理,提取光斑区域质心位置。由前面得到的光斑阈值,在二值化图中粗定光斑中心(xc,yc)和初始半径r;
假定原图中光斑光强为二维高斯分布,通过最小化(3)(式中area表示面积,pi表示圆周率)式确定光强下降最快之处对应的r。
I(r,x,y,θ)为光斑边界点光强,δ=1,θ是由r,x,y确定的边界弧线角度。为防止丢失信息,取1.5-3.5r(通常取2.5r)对应区域作为光斑区域,包括了99%的光斑光强分布。在此区域采用带权重的“质心法”(像素点灰度值的二次方关系)计算光斑中心位置。试验表明阈值在较大区间变化情况下,光斑中心的定位精度优于0.02像素。
第三步:如果有没有找到的光斑点,则用找到的光斑的坐标预测没有找到的光斑的位置,同时减小阈值,在预测区域搜索没有找到的光斑。重复进行直到找到光斑为止。
瞳孔精确定位
本发明依据光斑位置,确定瞳孔搜索区域。用粗定的瞳孔中心作为搜索瞳孔边界的起始点,在不同方向上做一维扫描,在搜索线上感兴趣区域,结合像素点灰度值、梯度值及边界曲线的平滑特性,由(5)式通过寻找最大值,决定边缘点位置r,提取瞳孔边缘的候选点。
f(r)=k0G(r)-k1(I(r)-Ip)-k2(r-rn-1) (5)
f为判据函数,I(r)为搜索点灰度值,Ip为瞳孔阈值,G(r)为搜索点梯度值,由一维梯度算子[11000]计算得到,rn-1为相邻搜索线上得到的边界点半径。k0、k1、k2为由试验定值的权重参数。搜索示意图如图1所示。
在已有的研究中,普遍采用随机椭圆拟合的方法进行边缘拟合,这种方法可能会把很多非边界点的点也用于拟合,这样拟合出来的边缘就不精确。
针对这样的问题,本发明提出了一种新的边界点提取方案。对边界点提取中的所有候选点进行多次的椭圆拟合,采用直接最小二乘法椭圆拟合法来进行椭圆拟合,并剔除与椭圆轮廓较远的点,重复进行,直到获取的椭圆中心稳定,这样求出的椭圆中心就是最终用到的瞳孔中心,实验证明这种方法不会产生误算,最终算出的瞳孔中心最接近真实中心。拟合结果如图2所示。
椭圆方程可以用一般的圆锥曲线方程表示如下:
Ax2+Bxy+Cy2+Dx+Ey+F=0 (6)
需要得到的是系数,这时不再是求一直线到各(x,y)的距离最小,而是求一向量(A,B,C,D,E,F)到各点(x2,y2,xy,x,y)的距离最小,这是高维的最小二乘拟合,需要解线性方程组。
空间映射
本发明根据计算出的屏幕上四个光斑和瞳孔中心坐标,利用射影几何中的交比不变原理进行空间坐标的映射。本发明计算模型如图3所示。
图3中V1、V2、V3、V4是屏幕上四个光斑D1、D2、D3、D4投射到虚平面上的虚点,UV1、UV2、UV3、UV4是虚平面上的点投射到摄相机图像平面的虚点,p点为瞳孔中心在虚平面上的点,Up为p投影到摄像机图像平面的点。
假设摄像机上方光源在人眼角膜曲面上产生的光斑是r0,屏幕上四个光源在人眼角膜曲面上的光斑是r1、r2、r3、r4,这五个光斑在CCD捕获的图像平面中对应的实点是I0、I1、I2、I3、I4,它们和虚点UV1、UV2、UV3、UV4之间存在一个转换关系,即:
UV1=I0+α1(I1–I0) (7)
式(7)中α1是固定的,I0和I1可以通过计算得出,只要Uv1已知,α1就可求。具体如下:
设I0(A1,A2),I1(B1,B2),Uv1(x1,y1),则有式(8)中的关系。
x1=A1+α1(B1-A1) (8)
整理得式(9)
α1=(x1-A1)/(B1-A1) (9)
同理可计算出其它三个方向上的α2、α3、α4。这样,虚点UV1、UV2、UV3、UV4的坐标就可计算出来。根据交比不变原理,这等价于D1D4的交比可以计算出来了。
因此,只要在计算过程中利用交比建立等式,当未知点只剩下g时,就可以通过公式变换把g求出来。详细方法如下:
用交比的方法对眼睛注视点进行估算。假设E是UV1UV3和UV2UV4的交点。先计算出UV1UV2和UV3UV4延长线的交点N2,从N2出发过Up和E的直线交UV1UV2于M1和M2。假设g的坐标为
直线UV1UV2上四点UV1(x1,y1)、M1(x2,y2)、M2(x3,y3)、UV2(x4,y4)四个点的交比CRX满足下面等式:
同理,屏幕上的四个点D1(0,0)、M1’(w/2,0)、D2(w,0)的交比满足下面等式,即
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (8)
1.一种基于角膜反射的非接触式视线追踪方法,其特征在于:
步骤1:人眼定位:
利用眼睛不同部位对红外光的反射和折射率不同,瞳孔对红外光的反射最弱,因而瞳孔在红外光的照射下呈黑色,而其他部分都不是黑色的特点定位人的眼睛;
步骤2:计算光斑坐标:
步骤2.1:首先根据经验阈值分割感兴趣区域图像,然后找出面积最大的五个光斑;
步骤2.2:利用质心法计算出五个光斑的中心坐标,同时利用光斑的相对位置进行检测,剔除假的光斑信息;图像中光斑面积小、亮度大、受干扰影响较小,采用圆模型处理,提取光斑区域质心位置;由前面得到的光斑阈值,在二值化图中粗定光斑中心(xc,yc)和初始半径r;
式中area表示面积,pi表示圆周率,假定原图中光斑光强为二维高斯分布,通过最小化(3)式确定光强下降最快之处对应的r;
I(r,x,y,θ)为光斑边界点光强,δ=1,θ是由r,x,y确定的边界弧线角度;为防止丢失信息,取1.5-3.5r对应区域作为光斑区域,在此区域采用带权重的“质心法”计算光斑中心位置;
步骤2.3:如果有没有找到的光斑点,则用找到的光斑的坐标预测没有找到的光斑的位置,同时减小阈值,在预测区域搜索没有找到的光斑,重复进行直到找到光斑为止;
步骤3:瞳孔精确定位:
依据光斑位置,确定瞳孔搜索区域,用粗定的瞳孔中心作为搜索瞳孔边界的起始点,在不同方向上做一维扫描,在搜索线上感兴趣区域,结合像素点灰度值、梯度值及边界曲线的平滑特性,由(5)式通过寻找最大值,决定边缘点位置r,提取瞳孔边缘的候选点,
f(r)=k0G(r)-k1(I(r)-Ip)-k2(r-rn-1) (5)
f为判据函数,I(r)为搜索点灰度值,Ip为瞳孔阈值,G(r)为搜索点梯度值,由一维梯度算子[11000]计算得到,rn-1为相邻搜索线上得到的边界点半径,k0、k1、k2为由试验定值的权重参数;
步骤4:空间映射:
根据计算出的屏幕上四个光斑和瞳孔中心坐标,利用射影几何中的交比不变原理进行空间坐标的映射。
2.根据权利要求1所述的一种基于角膜反射的非接触式视线追踪方法,其
特征在于:步骤1中,人眼定位具体方法如下:
首先将获取到的彩色图像转换成灰度图,然后利用直方图分析出图像中灰度值最低的子区域,以这个灰度值作为域值将图像分割成二值化图像,利用所有小于阈值的点(xi,yi)(i=1…N),N是直方图中灰度小于阈值的点的个数,在二值化图像粗定位瞳孔中心位置(xpupil,ypupil),如式(1)和式(2):
根据粗定的瞳孔中心,把以它为中心的40*40-100*100像素的矩形区域设置为感兴趣区域。
3.根据权利要求2所述的一种基于角膜反射的非接触式视线追踪方法,其特征在于:根据粗定的瞳孔中心,把以它为中心的60*60像素的矩形区域设置为感兴趣区域。
4.根据权利要求1所述的一种基于角膜反射的非接触式视线追踪方法,其特征在于:步骤2.1中经验阈值取值为30-80。
5.根据权利要求1所述的一种基于角膜反射的非接触式视线追踪方法,其特征在于:步骤2.2中,取2.5r对应区域作为光斑区域。
6.根据权利要求1所述的一种基于角膜反射的非接触式视线追踪方法,其特征在于:步骤3中,边提取界点方法如下:
对边界点提取中的所有候选点进行多次的椭圆拟合,采用直接最小二乘法椭圆拟合法来进行椭圆拟合,并剔除与椭圆轮廓较远的点,重复进行,直到获取的椭圆中心稳定,这样求出的椭圆中心就是最终用到的瞳孔中心;椭圆方程可以用一般的圆锥曲线方程表示如下:
Ax2+Bxy+Cy2+Dx+Ey+F=0 (6)
需要得到的是系数,这时不再是求一直线到各(x,y)的距离最小,而是求一向量(A,B,C,D,E,F)到各点(x2,y2,xy,x,y)的距离最小,这是高维的最小二乘拟合,需要解线性方程组。
7.根据权利要求1所述的一种基于角膜反射的非接触式视线追踪方法,其特征在于:步骤4中,空间坐标的映射具体如下:
V1、V2、V3、V4是屏幕上四个光斑D1、D2、D3、D4投射到虚平面上的虚点,UV1、UV2、UV3、UV4是虚平面上的点投射到摄相机图像平面的虚点,p点为瞳孔中心在虚平面上的点,Up为p投影到摄像机图像平面的点;
假设摄像机上方光源在人眼角膜曲面上产生的光斑是r0,屏幕上四个光源在人眼角膜曲面上的光斑是r1、r2、r3、r4,这五个光斑在CCD捕获的图像平面中对应的实点是I0、I1、I2、I3、I4,它们和虚点UV1、UV2、UV3、UV4之间存在一个转换关系,即:
UV1=I0+α1(I1–I0) (7)
式(7)中α1是固定的,I0和I1可以通过计算得出,只要Uv1已知,α1就可求,具体如下:
设I0(A1,A2),I1(B1,B2),Uv1(x1,y1),则有式(8)中的关系,
x1=A1+α1(B1-A1) (8)
整理得式(9)
α1=(x1-A1)/(B1-A1) (9)
同理可计算出其它三个方向上的α2、α3、α4;这样,虚点UV1、UV2、UV3、UV4的坐标就可计算出来,根据交比不变原理,这等价于D1D4的交比可以计算出来了;
因此,只要在计算过程中利用交比建立等式,当未知点只剩下g时,就可以。
8.根据权利要求7所述的一种基于角膜反射的非接触式视线追踪方法,其特征在于:
通过公式变换把g求出来,详细方法如下:
直线UV1UV2上四点UV1(x1,y1)、M1(x2,y2)、M2(x3,y3)、UV2(x4,y4)四个点的交比CRX满足下面等式:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310501357.3A CN103530618A (zh) | 2013-10-23 | 2013-10-23 | 一种基于角膜反射的非接触式视线追踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310501357.3A CN103530618A (zh) | 2013-10-23 | 2013-10-23 | 一种基于角膜反射的非接触式视线追踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103530618A true CN103530618A (zh) | 2014-01-22 |
Family
ID=49932617
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310501357.3A Pending CN103530618A (zh) | 2013-10-23 | 2013-10-23 | 一种基于角膜反射的非接触式视线追踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103530618A (zh) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104092494A (zh) * | 2014-06-24 | 2014-10-08 | 西安空间无线电技术研究所 | 一种高精度光学相控捕跟系统 |
CN104751467A (zh) * | 2015-04-01 | 2015-07-01 | 电子科技大学 | 一种基于动态交比的凝视点估计方法及其系统 |
CN105590109A (zh) * | 2016-02-29 | 2016-05-18 | 徐鹤菲 | 一种虹膜识别预处理方法和装置 |
CN105678286A (zh) * | 2016-02-29 | 2016-06-15 | 徐鹤菲 | 一种瞳孔定位方法及设备 |
CN107729871A (zh) * | 2017-11-02 | 2018-02-23 | 北方工业大学 | 基于红外光的人眼活动轨迹追踪方法及装置 |
CN107767421A (zh) * | 2017-09-01 | 2018-03-06 | 北京七鑫易维信息技术有限公司 | 视线追踪设备中光斑光源匹配方法和装置 |
CN107835551A (zh) * | 2017-11-01 | 2018-03-23 | 中国科学院长春光学精密机械与物理研究所 | 三维扫描系统中照明光源功率的控制方法及装置 |
CN108140244A (zh) * | 2015-12-01 | 2018-06-08 | Jvc 建伍株式会社 | 视线检测装置以及视线检测方法 |
CN108280403A (zh) * | 2017-12-27 | 2018-07-13 | 北京七鑫易维信息技术有限公司 | 确定瞳孔位置的方法和装置 |
CN108663806A (zh) * | 2017-03-31 | 2018-10-16 | 及至微机电股份有限公司 | 具有瞳孔追踪功能的影像投影装置及其瞳孔位置追踪装置 |
CN108814543A (zh) * | 2018-06-06 | 2018-11-16 | 中国科学院苏州生物医学工程技术研究所 | 高速视频眼震仪系统 |
CN109189216A (zh) * | 2018-08-16 | 2019-01-11 | 北京七鑫易维信息技术有限公司 | 一种视线检测的方法、装置和系统 |
CN109766818A (zh) * | 2019-01-04 | 2019-05-17 | 京东方科技集团股份有限公司 | 瞳孔中心定位方法及系统、计算机设备及可读存储介质 |
WO2019154012A1 (zh) * | 2018-02-12 | 2019-08-15 | 北京七鑫易维信息技术有限公司 | 匹配光源与光斑的方法和装置 |
CN110464365A (zh) * | 2018-05-10 | 2019-11-19 | 深圳先进技术研究院 | 一种关注度确定方法、装置、设备和存储介质 |
CN110623629A (zh) * | 2019-07-31 | 2019-12-31 | 毕宏生 | 一种基于眼球运动的视觉注意检测方法及系统 |
CN110634146A (zh) * | 2019-08-30 | 2019-12-31 | 广东奥普特科技股份有限公司 | 一种圆心亚像素精度定位方法 |
CN110929672A (zh) * | 2019-11-28 | 2020-03-27 | 联想(北京)有限公司 | 瞳孔定位方法和电子设备 |
CN112051920A (zh) * | 2019-06-05 | 2020-12-08 | 京东方科技集团股份有限公司 | 视线落点确定方法和装置 |
CN113190117A (zh) * | 2021-04-29 | 2021-07-30 | 南昌虚拟现实研究院股份有限公司 | 瞳孔、光斑定位方法、数据计算方法及相关装置 |
CN113342161A (zh) * | 2021-05-27 | 2021-09-03 | 常州工学院 | 一种基于近眼相机的视线追踪方法 |
CN114020155A (zh) * | 2021-11-05 | 2022-02-08 | 沈阳飞机设计研究所扬州协同创新研究院有限公司 | 一种基于眼动仪的高精度视线定位方法 |
CN114114687A (zh) * | 2020-08-27 | 2022-03-01 | 托比股份公司 | 眼动跟踪系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6659611B2 (en) * | 2001-12-28 | 2003-12-09 | International Business Machines Corporation | System and method for eye gaze tracking using corneal image mapping |
CN102125422A (zh) * | 2010-01-12 | 2011-07-20 | 北京科技大学 | 视线追踪系统中基于瞳孔-角膜反射的视线估计方法 |
-
2013
- 2013-10-23 CN CN201310501357.3A patent/CN103530618A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6659611B2 (en) * | 2001-12-28 | 2003-12-09 | International Business Machines Corporation | System and method for eye gaze tracking using corneal image mapping |
CN102125422A (zh) * | 2010-01-12 | 2011-07-20 | 北京科技大学 | 视线追踪系统中基于瞳孔-角膜反射的视线估计方法 |
Non-Patent Citations (2)
Title |
---|
KAI HAN ET AL.: "AN EFFICIENT VISUAL TRACKING METHOD BASED ON SINGLE CCD CAMERA", 《PROCEEDINGS OF THE 2012 INTERNATIONAL CONFERENCE ON MACHINE LEARING AND CYBERNETICS》 * |
高迪等: "基于角膜反射的非侵入式视线跟踪技术", 《通信学报》 * |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104092494B (zh) * | 2014-06-24 | 2016-09-21 | 西安空间无线电技术研究所 | 一种高精度光学相控捕跟系统 |
CN104092494A (zh) * | 2014-06-24 | 2014-10-08 | 西安空间无线电技术研究所 | 一种高精度光学相控捕跟系统 |
CN104751467A (zh) * | 2015-04-01 | 2015-07-01 | 电子科技大学 | 一种基于动态交比的凝视点估计方法及其系统 |
CN104751467B (zh) * | 2015-04-01 | 2017-11-24 | 电子科技大学 | 一种基于动态交比的凝视点估计方法及其系统 |
CN108140244B (zh) * | 2015-12-01 | 2021-09-24 | Jvc 建伍株式会社 | 视线检测装置以及视线检测方法 |
CN108140244A (zh) * | 2015-12-01 | 2018-06-08 | Jvc 建伍株式会社 | 视线检测装置以及视线检测方法 |
CN105678286A (zh) * | 2016-02-29 | 2016-06-15 | 徐鹤菲 | 一种瞳孔定位方法及设备 |
CN105590109A (zh) * | 2016-02-29 | 2016-05-18 | 徐鹤菲 | 一种虹膜识别预处理方法和装置 |
CN105678286B (zh) * | 2016-02-29 | 2019-03-15 | 徐鹤菲 | 一种瞳孔定位方法及设备 |
CN105590109B (zh) * | 2016-02-29 | 2019-02-15 | 徐鹤菲 | 一种虹膜识别预处理方法和装置 |
CN108663806A (zh) * | 2017-03-31 | 2018-10-16 | 及至微机电股份有限公司 | 具有瞳孔追踪功能的影像投影装置及其瞳孔位置追踪装置 |
CN107767421B (zh) * | 2017-09-01 | 2020-03-27 | 北京七鑫易维信息技术有限公司 | 视线追踪设备中光斑光源匹配方法和装置 |
CN107767421A (zh) * | 2017-09-01 | 2018-03-06 | 北京七鑫易维信息技术有限公司 | 视线追踪设备中光斑光源匹配方法和装置 |
CN107835551A (zh) * | 2017-11-01 | 2018-03-23 | 中国科学院长春光学精密机械与物理研究所 | 三维扫描系统中照明光源功率的控制方法及装置 |
CN107729871A (zh) * | 2017-11-02 | 2018-02-23 | 北方工业大学 | 基于红外光的人眼活动轨迹追踪方法及装置 |
CN108280403A (zh) * | 2017-12-27 | 2018-07-13 | 北京七鑫易维信息技术有限公司 | 确定瞳孔位置的方法和装置 |
US10853967B2 (en) | 2017-12-27 | 2020-12-01 | Beijing 7Invensun Technology Co., Ltd. | Method and apparatus for determining pupil position |
CN108280403B (zh) * | 2017-12-27 | 2020-08-04 | 北京七鑫易维信息技术有限公司 | 确定瞳孔位置的方法和装置 |
WO2019154012A1 (zh) * | 2018-02-12 | 2019-08-15 | 北京七鑫易维信息技术有限公司 | 匹配光源与光斑的方法和装置 |
CN110464365A (zh) * | 2018-05-10 | 2019-11-19 | 深圳先进技术研究院 | 一种关注度确定方法、装置、设备和存储介质 |
CN110464365B (zh) * | 2018-05-10 | 2022-08-12 | 深圳先进技术研究院 | 一种关注度确定方法、装置、设备和存储介质 |
CN108814543A (zh) * | 2018-06-06 | 2018-11-16 | 中国科学院苏州生物医学工程技术研究所 | 高速视频眼震仪系统 |
CN108814543B (zh) * | 2018-06-06 | 2021-04-02 | 中国科学院苏州生物医学工程技术研究所 | 高速视频眼震仪系统 |
CN109189216A (zh) * | 2018-08-16 | 2019-01-11 | 北京七鑫易维信息技术有限公司 | 一种视线检测的方法、装置和系统 |
CN109766818A (zh) * | 2019-01-04 | 2019-05-17 | 京东方科技集团股份有限公司 | 瞳孔中心定位方法及系统、计算机设备及可读存储介质 |
CN112051920B (zh) * | 2019-06-05 | 2023-12-19 | 京东方科技集团股份有限公司 | 视线落点确定方法和装置 |
CN112051920A (zh) * | 2019-06-05 | 2020-12-08 | 京东方科技集团股份有限公司 | 视线落点确定方法和装置 |
CN110623629A (zh) * | 2019-07-31 | 2019-12-31 | 毕宏生 | 一种基于眼球运动的视觉注意检测方法及系统 |
CN110634146B (zh) * | 2019-08-30 | 2022-06-17 | 广东奥普特科技股份有限公司 | 一种圆心亚像素精度定位方法 |
CN110634146A (zh) * | 2019-08-30 | 2019-12-31 | 广东奥普特科技股份有限公司 | 一种圆心亚像素精度定位方法 |
CN110929672A (zh) * | 2019-11-28 | 2020-03-27 | 联想(北京)有限公司 | 瞳孔定位方法和电子设备 |
CN110929672B (zh) * | 2019-11-28 | 2024-03-01 | 联想(北京)有限公司 | 瞳孔定位方法和电子设备 |
CN114114687A (zh) * | 2020-08-27 | 2022-03-01 | 托比股份公司 | 眼动跟踪系统 |
CN113190117A (zh) * | 2021-04-29 | 2021-07-30 | 南昌虚拟现实研究院股份有限公司 | 瞳孔、光斑定位方法、数据计算方法及相关装置 |
CN113342161A (zh) * | 2021-05-27 | 2021-09-03 | 常州工学院 | 一种基于近眼相机的视线追踪方法 |
CN113342161B (zh) * | 2021-05-27 | 2022-10-14 | 常州工学院 | 一种基于近眼相机的视线追踪方法 |
CN114020155A (zh) * | 2021-11-05 | 2022-02-08 | 沈阳飞机设计研究所扬州协同创新研究院有限公司 | 一种基于眼动仪的高精度视线定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103530618A (zh) | 一种基于角膜反射的非接触式视线追踪方法 | |
CN109857254B (zh) | 瞳孔定位方法和装置、vr/ar设备以及计算机可读介质 | |
EP3225154A2 (en) | Gaze detection apparatus and gaze detection method | |
Gu et al. | Feature points extraction from faces | |
CN103390152B (zh) | 基于sopc的适合人机交互的视线跟踪系统 | |
Tian et al. | Fast algorithm and application of hough transform in iris segmentation | |
CN103761519A (zh) | 一种基于自适应校准的非接触式视线追踪方法 | |
US20150160726A1 (en) | System and Method for On-Axis Eye Gaze Tracking | |
CN105759967B (zh) | 一种基于深度数据的手部全局姿态检测方法 | |
CN104978012B (zh) | 一种指向交互方法、装置及系统 | |
CN103632136A (zh) | 人眼定位方法和装置 | |
CN105138965A (zh) | 一种近眼式视线跟踪方法及其系统 | |
CN104573634A (zh) | 一种三维人脸识别方法 | |
CN107895157B (zh) | 一种低分辨率图像虹膜中心精确定位的方法 | |
CN110516548B (zh) | 一种基于三维眼球模型和Snakuscule的虹膜中心定位方法 | |
Lu et al. | Estimating 3D gaze directions using unlabeled eye images via synthetic iris appearance fitting | |
Li et al. | A geometry-appearance-based pupil detection method for near-infrared head-mounted cameras | |
CN116051631A (zh) | 光斑标注方法及系统 | |
Dong et al. | Eye detection based on integral projection and hough round transform | |
CN114020155A (zh) | 一种基于眼动仪的高精度视线定位方法 | |
Li et al. | Accurate iris location based on region of interest | |
Liu et al. | Implementation System of Human Eye Tracking Algorithm Based on FPGA. | |
Zhang et al. | Pupil localization algorithm combining convex area voting and model constraint | |
Zhao et al. | Fast localization algorithm of eye centers based on improved hough transform | |
Cao et al. | Gaze tracking on any surface with your phone |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20140122 |
|
RJ01 | Rejection of invention patent application after publication |