CN113342161B - 一种基于近眼相机的视线追踪方法 - Google Patents

一种基于近眼相机的视线追踪方法 Download PDF

Info

Publication number
CN113342161B
CN113342161B CN202110587119.3A CN202110587119A CN113342161B CN 113342161 B CN113342161 B CN 113342161B CN 202110587119 A CN202110587119 A CN 202110587119A CN 113342161 B CN113342161 B CN 113342161B
Authority
CN
China
Prior art keywords
pixel
image
pupil
point
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110587119.3A
Other languages
English (en)
Other versions
CN113342161A (zh
Inventor
王鹏
袁洪春
戚建宇
张燕
樊家华
宋子洋
周文豪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuxi Makeway Information Technology Co ltd
Original Assignee
Changzhou Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou Institute of Technology filed Critical Changzhou Institute of Technology
Priority to CN202110587119.3A priority Critical patent/CN113342161B/zh
Publication of CN113342161A publication Critical patent/CN113342161A/zh
Application granted granted Critical
Publication of CN113342161B publication Critical patent/CN113342161B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于近眼相机的视线追踪方法,其技术方案要点是:包括先采用近眼相机采集眼部灰度图像,还包括以下步骤:Step1.眼部图像预处理;Step2.视线特征提取;Step3.视线落点估计;所述Step1包括以下子步骤:Step11.获取感兴趣区域:获取眼部灰度图像中包含完整瞳孔部分的感兴趣区域;Step12.中值滤波:对获取感兴趣区域的眼部灰度图像进行中值滤波;本发明提出了一种基于近眼相机的视线追踪方法,该方法解决了阴影区域噪声及反射光斑对瞳孔边缘提取产生干扰的问题,同时根据瞳孔的不同遮挡情况,提出了相对应的采样点选取算法,提升了瞳孔中心定位的准确性。该视线追踪方法具有鲁棒性强、瞳孔中心定位精度高以及实时性好等优点。

Description

一种基于近眼相机的视线追踪方法
技术领域
本发明涉及视线追踪技术领域,特别涉及一种基于近眼相机的视线追踪方法。
背景技术
人眼视线能够反映人的关注信息,视线追踪技术即利用软件算法、机械、电子、光学等各种检测手段获取受试者当前视线方向的技术,它广泛应用于人机交互、辅助驾驶、心理研究、虚拟现实和军事等多个领域。
近年来,随着计算机和图像处理技术的发展,基于视频图像处理的视线追踪技术逐渐成为主流。如今的视线追踪系统主要分为穿戴式和非穿戴式两类。其中穿戴式指需受试者穿戴头盔、眼镜等装置,利用近眼相机采集人眼图像,并对其进行处理后得到人眼视线信息。由于穿戴式装置与受试者头部之间固定连接,因此具有成像清晰、图像背景简单的优点,但仍然存在眼部阴影、睫毛遮挡、角膜反射光斑以及瞳孔部分被遮挡等因素对瞳孔中心坐标的提取造成的影响。
发明内容
针对背景技术中提到的问题,本发明的目的是提供一种基于近眼相机的视线追踪方法,以解决背景技术中提到的问题。
本发明的上述技术目的是通过以下技术方案得以实现的:
一种基于近眼相机的视线追踪方法,包括先采用近眼相机采集眼部灰度图像,其特征在于:还包括以下步骤:
Step1.眼部图像预处理;
Step2.视线特征提取;
Step3.视线落点估计。
较佳的,所述Step1包括以下子步骤:
Step11.获取感兴趣区域:获取眼部灰度图像中包含完整瞳孔部分的感兴趣区域;
Step12.中值滤波:对获取感兴趣区域的眼部灰度图像进行中值滤波。
较佳的,所述Step11包括以下子步骤:
Step111、图像预裁剪:以原始图像中心为中心点,选取长宽均为原始图像2/3的矩形区域对图像进行裁剪,仅保留矩形区域内像素,得到预裁剪图像;
Step112、感兴趣区域裁剪:设定像素数量阈值NUM,灰度级tn(n=0,1,2…,255),初始值t0=0,遍历预裁剪图像,计算灰度值小于等于t0的像素数量num;当num<NUM的时候,增加灰度级,即t1=1,重新遍历预裁剪图像,再次计算小于等于此灰度级的像素数num,并与NUM进行比较,重复此过程,直至num满足num≥NUM,记录此时的灰度级tn,并将其值赋予灰度阈值T,即令T=tn;然后将预裁剪图像中所有灰度值小于T的像素利用如下公式(1),计算得到瞳孔区域的灰度质心:
Figure GDA0003742361340000021
其中,图像左上角作为参考坐标系原点,i和j分别表示像素的横坐标和纵坐标,f(i,j)表示像素灰度值,m和n分别表示图像中像素总列数和总行数。
较佳的,所述Step12中值滤波具体包括以下子步骤:
Step121.将含有若干个点的窗口的滤波模板中心与感兴趣区域图像中的某个像素位置重合;
Step122.读取与模板重合的所有像素的灰度值;
Step123.将这些灰度值从小到大进行排列;
Step124.取这些数据的中值,将其赋予对应模板中心位置的像素,如果窗口中有奇数个像素,中值取按灰度值大小排序后的中间像素的灰度值,如果窗口中有偶数个像素,中值取按灰度值大小排序后,中间两个像素灰度的平均值;
Step125.更改滤波模板位置,按照从左到右、从上到下的顺序,重复Step121到Step124,遍历整幅感兴趣区域图像。
较佳的,所述Step2包括以下子步骤:
Step210.二值化分割;
Step220.形态学处理;
Step230.获取最大连通区域;
Step240.瞳孔边缘提取;
Step250.光斑区域去除;
Step260.椭圆拟合。
较佳的,所述Step210二值化分割时,利用步骤Step112中得到的灰度阈值T,根据如下公式(2)对图像进行二值化分割:
Figure GDA0003742361340000031
其中,f(x,y)为灰度图像,g(x,y)为分割后的二值图像。
较佳的,所述Step220形态学处理时,利用公式(3)对二值图像先进行形态学闭运算处理,再利用公式(4)对形态学闭运算处理后的图像进行形态学开运算处理,用以去除二值图像中的残余睫毛、瞳孔边缘噪点以及小面积阴影区域:
Figure GDA0003742361340000041
Figure GDA0003742361340000042
所述Step230获取最大连通区域时遍历整幅图像,标记出每个连通区域,并计算各个连通区域的像素数量,最后仅保留像素数量最多的连通区域,用以去除图像中的与瞳孔区域面积接近的阴影或眉毛等噪声区域;
所述Step230步骤中,最大连通区域的获取包括以下步骤:
Step231、按照从左到右、从上到下的顺序遍历图像,标号初始值为1,当遇到像素值为1的点时,判断其邻接的左、左上、上、右上这4个像素是否已被标记,若没有被标记则将该像素点赋予新的标号;若已被标记,则将该像素赋予同一标号,如果邻接像素存在多种标号,则将该像素赋予最小的标号,并将这多个标号记为一个等价对;
Step232、将存在直接或间接等价关系的等价对合并为一个等价序列,并赋予每个等价序列一个序列号,序列号以1为初始值逐次递增,然后重新遍历一次图像,将属于同一等价序列的标记像素赋予该等价序列的序列号,即标记出每个连通区域;
Step233、计算每个连通区域的像素数量,将像素数量最大的连通区域予以保留,将其像素值置为1,其余像素值均置为0,完成获取最大连通区域步骤。
较佳的,所述Step240瞳孔边缘提取时,采用Canny算子对图像进行处理,包括利用一阶偏导的有限差分计算梯度幅值和方向、对梯度幅值进行非极大值抑制、双阈值法检测和连接边缘三个子步骤;
Step241、用一阶偏导的有限差分计算梯度幅值和方向:
使用Sobel算子计算X和Y方向上的梯度以及梯度的方向角;
将待检测边缘的图像I分别与X和Y方向的卷积因子进行卷积,采用公式(5)如下:
Figure GDA0003742361340000051
求得X、Y方向的梯度后,再采用公式(6)计算梯度图像的幅值:
Figure GDA0003742361340000052
最后采用公式(7)计算梯度的方向角:
Figure GDA0003742361340000053
Step242、对梯度幅值进行非极大值抑制:
对Step241得到的幅值图像进行非极大值抑制,消除非边缘点的噪声并细化边缘,以待判断像素点为中心分为四个扇区,代表梯度方向近似的四个可能的角度,将梯度角离散为圆周的四个扇区,对应于8邻域空间的四种可能组合;抑制逻辑为:沿着待判断点的梯度方向,比较前后两个点的幅值大小,若该点大于前后两点,则保留,若该点小于前后两点,则置为0,对每一个像素点都进行此操作,即完成了非极大值抑制;
Step243、用双阈值算法检测和连接边缘:
所述双阈值的机理为指定一个低阈值和一个高阈值,对非极大值抑制后的图像进行判断,根据判断结果分为以下三种情况:如果某一像素位置的梯度幅值超过高阈值,则该像素被保留为边缘像素;如果某一像素位置的梯度幅值小于低阈值,则该像素被排除;如果某一像素位置的梯度幅值介于高、低阈值之间,则判断该像素8邻域空间的像素是否存在高于高阈值的像素,如果存在,则该像素被保留。
较佳的,所述Step250光斑区域去除时,设置光斑灰度阈值Tspot,利用阈值分割法对灰度图像进行处理,得到仅包含光斑区域的二值图像;利用光斑区域外接矩形中心作为中心,设置长宽为该外接矩形2倍的矩形区域,对该区域的像素坐标位置进行标记,将该标记范围内的像素的值置为0,作为假性边缘点进行去除;
所述Step260椭圆拟合时,通过计算瞳孔区域的对称性,将瞳孔分为遮挡和未遮挡两种情况,对不同情况采取不同的拟合点采样方式,利用最小二乘法对瞳孔边缘点进行椭圆拟合,进而得到椭圆中心坐标,并将其视作瞳孔中心;
所述Step260椭圆拟合时,包括以下子步骤:
Step261、计算每行瞳孔左右边缘像素点之间的距离,找到距离最大的两个边缘点将其连接,作为瞳孔区域上下部分的分割线,然后分别求取上下部分外接矩形的高度H1和H2,计算二者之比R,得到公式(8):
Figure GDA0003742361340000061
Step262、将R的阈值设置为0.9,即当R≥0.9时,认定瞳孔未被遮挡;而当R<0.9时,认定瞳孔区域被遮挡;
Step262、采样点选取:对于瞳孔未被遮挡的情况,所有瞳孔边缘点均为有效采样点,采用随机10点采样的方法选取采样点;对于瞳孔被遮挡的情况,取瞳孔轮廓的左、右、下3个特征边缘点,即瞳孔区域上下部分的分割线与瞳孔左右边缘的交点,以及瞳孔边缘纵坐标最小点,同时对瞳孔轮廓的下半部分边缘进行随机7点采样,将这10个点共同组成被遮挡瞳孔的采样点;
Step263、建立二维平面坐标系下的椭圆方程,即公式(9):
x2+Axy+By2+Cx+Dy+E=0 (9);
其中x、y分别为横、纵坐标,A、B、C、D、E为待定参数,设Pi(xi,yi)(i=1,2,…,10)为瞳孔边缘轮廓上的采样点,依据最小二乘原理,所拟合的目标函数为公式(10):
Figure GDA0003742361340000071
F要达到最小,需要满足公式(11)条件:
Figure GDA0003742361340000072
因此得到以下公式(12)方程:
Figure GDA0003742361340000073
解此方程得到参数A、B、C、D、E的值,最后根据椭圆的几何运算计算出椭圆中心(Xe,Ye);
所述Step3包括以下步骤:
Step310、采用基于九点标定的二维多项式映射的方法,计算瞳孔中心坐标与交互界面标定点之间的拟合参数,采用的标定方法如下:将交互界面的长、宽三等分得到等面积的9个注视区域,取每个区域的中心点作为标定点,用户佩戴近眼相机,保持头部位置不动,眼睛依次注视标定界面上的九个点,同时记录每组瞳孔中心坐标及对应的标定界面注视点坐标;
Step320、建立公式(13)的二维映射方程:
Figure GDA0003742361340000074
其中,XC、YC分别为标定界面的标定点的横、纵坐标,Xe、Ye分别为对应瞳孔中心横、纵坐标,a0~a5和b0~b5为待定参数,将9组标定坐标数据代入方程组中,求解待定参数即可得到映射方程。
综上所述,本发明主要具有以下有益效果:
本发明对现有视线追踪方法进行了分析和改进,提出了一种由粗到精进行瞳孔中心点获取的视线追踪方法。首先在图像预处理步骤中采用了改进的灰度质心算法得到瞳孔粗定位中心,并以此中心裁剪得到包含完整瞳孔的感兴趣区域,大大减小了原始图像中噪声影响以及所要处理的数据量,提高了后续算法的处理速度和准确性;其次在视线特征提取步骤中采用了改进的连通区域标记算法,提高了标记速度,从而提高了算法的实时性;最后通过光斑检测算法对受光斑区域影响的瞳孔边缘点进行了剔除,并在椭圆拟合步骤中采用了瞳孔遮挡判定的方法,对不同遮挡情况进行相应的算法处理,提高了椭圆拟合算法的效率和准确性。本方法同现有的视线追踪方法相比,在光照不良环境下、角膜反射光斑明显、睫毛和眼睑遮挡瞳孔情况下均表现出较好的鲁棒性,具有较高的精确性,同时具有良好的实时性。本发明提出了一种基于近眼相机的视线追踪方法,该方法解决了阴影区域噪声及反射光斑对瞳孔边缘提取产生干扰的问题,同时根据瞳孔的不同遮挡情况,提出了相对应的采样点选取算法,提升了瞳孔中心定位的准确性。该视线追踪方法具有鲁棒性强、瞳孔中心定位精度高以及实时性好等优点。
附图说明
图1是本发明的算法流程图;
图2是获取灰度阈值T的流程图;
图3是二值图像阵列示意图;
图4是标记像素阵列及等价对示意图;
图5等价序列及标记连通像素阵列示意图;
图6最大连通区域像素矩阵示意图;
图7是Sobel算子图;
图8是梯度方向示意图;
图9是瞳孔未遮挡情况示意图;
图10是瞳孔遮挡情况示意图
图11是遮挡瞳孔轮廓特征点示意图;
图12是九点标定界面示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参考图1至图12,一种基于近眼相机的视线追踪方法,包括先采用近眼相机采集眼部灰度图像,其特征在于:还包括以下步骤:
Step1.眼部图像预处理;
Step2.视线特征提取;
Step3.视线落点估计。
较佳的,Step1包括以下子步骤:
Step11.获取感兴趣区域:获取眼部灰度图像中包含完整瞳孔部分的感兴趣区域;
Step12.中值滤波:对获取感兴趣区域的眼部灰度图像进行中值滤波。
其中,Step11包括以下子步骤:
Step111、图像预裁剪:以原始图像中心为中心点,选取长宽均为原始图像2/3的矩形区域对图像进行裁剪,仅保留矩形区域内像素,得到预裁剪图像;
Step112、感兴趣区域裁剪:设定像素数量阈值NUM,灰度级tn(n=0,1,2…,255),初始值t0=0,遍历预裁剪图像,计算灰度值小于等于t0的像素数量num;当num<NUM的时候,增加灰度级,即t1=1,重新遍历预裁剪图像,再次计算小于等于此灰度级的像素数num,并与NUM进行比较,重复此过程,直至num满足num≥NUM,记录此时的灰度级tn,并将其值赋予灰度阈值T,即令T=tn;然后将预裁剪图像中所有灰度值小于T的像素利用如下公式(1),计算得到瞳孔区域的灰度质心:
Figure GDA0003742361340000101
其中,图像左上角作为参考坐标系原点,i和j分别表示像素的横坐标和纵坐标,f(i,j)表示像素灰度值,m和n分别表示图像中像素总列数和总行数。
其中,Step12中值滤波具体包括以下子步骤:
Step121.将含有若干个点的窗口的滤波模板中心与感兴趣区域图像中的某个像素位置重合;
Step122.读取与模板重合的所有像素的灰度值;
Step123.将这些灰度值从小到大进行排列;
Step124.取这些数据的中值,将其赋予对应模板中心位置的像素,如果窗口中有奇数个像素,中值取按灰度值大小排序后的中间像素的灰度值,如果窗口中有偶数个像素,中值取按灰度值大小排序后,中间两个像素灰度的平均值;
Step125.更改滤波模板位置,按照从左到右、从上到下的顺序,重复Step121到Step124,遍历整幅感兴趣区域图像。
较佳的,Step2包括以下子步骤:
Step210.二值化分割;
Step220.形态学处理;
Step230.获取最大连通区域;
Step240.瞳孔边缘提取;
Step250.光斑区域去除;
Step260.椭圆拟合。
其中,Step210二值化分割时,利用步骤Step112中得到的灰度阈值T,根据如下公式(2)对图像进行二值化分割:
Figure GDA0003742361340000111
其中,f(x,y)为灰度图像,g(x,y)为分割后的二值图像。
其中,Step220形态学处理时,利用公式(3)对二值图像先进行形态学闭运算处理,再利用公式(4)对形态学闭运算处理后的图像进行形态学开运算处理,用以去除二值图像中的残余睫毛、瞳孔边缘噪点以及小面积阴影区域:
Figure GDA0003742361340000112
Figure GDA0003742361340000113
Step230获取最大连通区域时遍历整幅图像,标记出每个连通区域,并计算各个连通区域的像素数量,最后仅保留像素数量最多的连通区域,用以去除图像中的与瞳孔区域面积接近的阴影或眉毛等噪声区域;
Step230步骤中,最大连通区域的获取包括以下步骤:
Step231、按照从左到右、从上到下的顺序遍历图像,标号初始值为1,当遇到像素值为1的点时,判断其邻接的左、左上、上、右上这4个像素是否已被标记,若没有被标记则将该像素点赋予新的标号;若已被标记,则将该像素赋予同一标号,如果邻接像素存在多种标号,则将该像素赋予最小的标号,并将这多个标号记为一个等价对;
Step232、将存在直接或间接等价关系的等价对合并为一个等价序列,并赋予每个等价序列一个序列号,序列号以1为初始值逐次递增,然后重新遍历一次图像,将属于同一等价序列的标记像素赋予该等价序列的序列号,即标记出每个连通区域;
Step233、计算每个连通区域的像素数量,将像素数量最大的连通区域予以保留,将其像素值置为1,其余像素值均置为0,完成获取最大连通区域步骤。
其中,所述Step240瞳孔边缘提取时,采用Canny算子对图像进行处理,包括利用一阶偏导的有限差分计算梯度幅值和方向、对梯度幅值进行非极大值抑制、双阈值法检测和连接边缘三个子步骤;
Step241、用一阶偏导的有限差分计算梯度幅值和方向:
使用Sobel算子计算X和Y方向上的梯度以及梯度的方向角;
将待检测边缘的图像I分别与X和Y方向的卷积因子进行卷积,采用公式(5)如下:
Figure GDA0003742361340000121
求得X、Y方向的梯度后,再采用公式(6)计算梯度图像的幅值:
Figure GDA0003742361340000122
最后采用公式(7)计算梯度的方向角:
Figure GDA0003742361340000123
Step242、对梯度幅值进行非极大值抑制:
对Step241得到的幅值图像进行非极大值抑制,消除非边缘点的噪声并细化边缘,以待判断像素点为中心分为四个扇区,代表梯度方向近似的四个可能的角度,将梯度角离散为圆周的四个扇区,对应于8邻域空间的四种可能组合;抑制逻辑为:沿着待判断点的梯度方向,比较前后两个点的幅值大小,若该点大于前后两点,则保留,若该点小于前后两点,则置为0,对每一个像素点都进行此操作,即完成了非极大值抑制;
Step243、用双阈值算法检测和连接边缘:
双阈值的机理为指定一个低阈值和一个高阈值,对非极大值抑制后的图像进行判断,根据判断结果分为以下三种情况:如果某一像素位置的梯度幅值超过高阈值,则该像素被保留为边缘像素;如果某一像素位置的梯度幅值小于低阈值,则该像素被排除;如果某一像素位置的梯度幅值介于高、低阈值之间,则判断该像素8邻域空间的像素是否存在高于高阈值的像素,如果存在,则该像素被保留。
其中,Step250光斑区域去除时,设置光斑灰度阈值Tspot,利用阈值分割法对灰度图像进行处理,得到仅包含光斑区域的二值图像;利用光斑区域外接矩形中心作为中心,设置长宽为该外接矩形2倍的矩形区域,对该区域的像素坐标位置进行标记,将该标记范围内的像素的值置为0,作为假性边缘点进行去除;
Step260椭圆拟合时,通过计算瞳孔区域的对称性,将瞳孔分为遮挡和未遮挡两种情况,对不同情况采取不同的拟合点采样方式,利用最小二乘法对瞳孔边缘点进行椭圆拟合,进而得到椭圆中心坐标,并将其视作瞳孔中心;
Step260椭圆拟合时,包括以下子步骤:
Step261、计算每行瞳孔左右边缘像素点之间的距离,找到距离最大的两个边缘点将其连接,作为瞳孔区域上下部分的分割线,然后分别求取上下部分外接矩形的高度H1和H2,计算二者之比R,得到公式(8):
Figure GDA0003742361340000131
Step262、将R的阈值设置为0.9,即当R≥0.9时,认定瞳孔未被遮挡;而当R<0.9时,认定瞳孔区域被遮挡;
Step262、采样点选取:对于瞳孔未被遮挡的情况,所有瞳孔边缘点均为有效采样点,采用随机10点采样的方法选取采样点;对于瞳孔被遮挡的情况,取瞳孔轮廓的左、右、下3个特征边缘点,如图11中“×”点所示,同时对瞳孔轮廓的下半部分边缘进行随机7点采样,将这10个点共同组成被遮挡瞳孔的采样点;
Step263、建立二维平面坐标系下的椭圆方程,即公式(9):
x2+Axy+By2+Cx+Dy+E=0 (9);
其中x、y分别为横、纵坐标,A、B、C、D、E为待定参数,设Pi(xi,yi)(i=1,2,…,10)为瞳孔边缘轮廓上的采样点,依据最小二乘原理,所拟合的目标函数为公式(10):
Figure GDA0003742361340000141
F要达到最小,需要满足公式(11)条件:
Figure GDA0003742361340000142
因此得到以下公式(12)方程:
Figure GDA0003742361340000143
解此方程得到参数A、B、C、D、E的值,最后根据椭圆的几何运算计算出椭圆中心(x0,y0);
Figure GDA0003742361340000151
其中Step3.视线落点估计包括以下步骤:
Step310、采用基于九点标定的二维多项式映射的方法,计算瞳孔中心坐标与交互界面标定点之间的拟合参数。标定方法如下:将交互界面的长、宽三等分得到等面积的9个注视区域,取每个区域的中心点作为标定点,如图12所示。用户佩戴近眼相机,保持头部位置不动,眼睛依次注视标定界面上的九个点,同时记录每组瞳孔中心坐标及对应的标定界面注视点坐标。
Step320、建立如下二维映射方程:
Figure GDA0003742361340000152
其中,XC、YC分别为标定界面的标定点的横、纵坐标,Xe、Ye分别为对应瞳孔中心横、纵坐标,a0~a5和b0~b5为待定参数,将9组标定坐标数据代入方程组中,求解待定参数即可得到映射方程。此步骤的目的在于获取瞳孔坐标平面与交互平面的映射关系,通过这种映射关系,可以将瞳孔的中心坐标转换为交互平面上的坐标,进而实现视线追踪。
其中,本发明对现有视线追踪方法进行了分析和改进,提出了一种由粗到精进行瞳孔中心点获取的视线追踪方法。首先在图像预处理步骤中采用了改进的灰度质心算法得到瞳孔粗定位中心,并以此中心裁剪得到包含完整瞳孔的感兴趣区域,大大减小了原始图像中噪声影响以及所要处理的数据量,提高了后续算法的处理速度和准确性;其次在视线特征提取步骤中采用了改进的连通区域标记算法,提高了标记速度,从而提高了算法的实时性;最后通过光斑检测算法对受光斑区域影响的瞳孔边缘点进行了剔除,并在椭圆拟合步骤中采用了瞳孔遮挡判定的方法,对不同遮挡情况进行相应的算法处理,提高了椭圆拟合算法的效率和准确性。本方法同现有的视线追踪方法相比,在光照不良环境下、角膜反射光斑明显、睫毛和眼睑遮挡瞳孔情况下均表现出较好的鲁棒性,具有较高的精确性,同时具有良好的实时性。本发明提出了一种基于近眼相机的视线追踪方法,该方法解决了阴影区域噪声及反射光斑对瞳孔边缘提取产生干扰的问题,同时根据瞳孔的不同遮挡情况,提出了相对应的采样点选取算法,提升了瞳孔中心定位的准确性。该视线追踪方法具有鲁棒性强、瞳孔中心定位精度高以及实时性好等优点。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (3)

1.一种基于近眼相机的视线追踪方法,包括先采用近眼相机采集眼部灰度图像,其特征在于:还包括以下步骤:
Step1.眼部图像预处理;
Step2.视线特征提取;
Step3.视线落点估计;
所述Step1包括以下子步骤:
Step11.获取感兴趣区域:获取眼部灰度图像中包含完整瞳孔部分的感兴趣区域;
Step12.中值滤波:对获取感兴趣区域的眼部灰度图像进行中值滤波;
所述Step11包括以下子步骤:
Step111、图像预裁剪:以原始图像中心为中心点,选取长宽均为原始图像2/3的矩形区域对图像进行裁剪,仅保留矩形区域内像素,得到预裁剪图像;
Step112、感兴趣区域裁剪:设定像素数量阈值NUM,灰度级tn(n=0,1,2…,255),初始值t0=0,遍历预裁剪图像,计算灰度值小于等于t0的像素数量num;当num<NUM的时候,增加灰度级,即t1=1,重新遍历预裁剪图像,再次计算小于等于此灰度级的像素数num,并与NUM进行比较,重复此过程,直至num满足num≥NUM,记录此时的灰度级tn,并将其值赋予灰度阈值T,即令T=tn;然后将预裁剪图像中所有灰度值小于T的像素利用如下公式(1),计算得到瞳孔区域的灰度质心:
Figure FDA0003717248950000021
其中,图像左上角作为参考坐标系原点,i和j分别表示像素的横坐标和纵坐标,f(i,j)表示像素灰度值,m和n分别表示图像中像素总列数和总行数;
所述Step2包括以下子步骤:
Step210.二值化分割;
Step220.形态学处理;
Step230.获取最大连通区域;
Step240.瞳孔边缘提取;
Step250.光斑区域去除;
Step260.椭圆拟合;
所述Step220形态学处理时,利用公式(3)对二值图像先进行形态学闭运算处理,再利用公式(4)对形态学闭运算处理后的图像进行形态学开运算处理,用以去除二值图像中的残余睫毛、瞳孔边缘噪点以及小面积阴影区域:
Figure FDA0003717248950000022
Figure FDA0003717248950000023
所述Step230获取最大连通区域时遍历整幅图像,标记出每个连通区域,并计算各个连通区域的像素数量,最后仅保留像素数量最多的连通区域,用以去除图像中的与瞳孔区域面积接近的噪声区域;
所述Step230步骤中,最大连通区域的获取包括以下步骤:
Step231、按照从左到右、从上到下的顺序遍历图像,标号初始值为1,当遇到像素值为1的点时,判断其邻接的左、左上、上、右上这4个像素是否已被标记,若没有被标记则将该像素点赋予新的标号;若已被标记,则将该像素赋予同一标号,如果邻接像素存在多种标号,则将该像素赋予最小的标号,并将这多个标号记为一个等价对;
Step232、将存在直接或间接等价关系的等价对合并为一个等价序列,并赋予每个等价序列一个序列号,序列号以1为初始值逐次递增,然后重新遍历一次图像,将属于同一等价序列的标记像素赋予该等价序列的序列号,即标记出每个连通区域;
Step233、计算每个连通区域的像素数量,将像素数量最大的连通区域予以保留,将其像素值置为1,其余像素值均置为0,完成获取最大连通区域步骤;
所述Step240瞳孔边缘提取时,采用Canny算子对图像进行处理,包括利用一阶偏导的有限差分计算梯度幅值和方向、对梯度幅值进行非极大值抑制、双阈值法检测和连接边缘三个子步骤;
Step241、用一阶偏导的有限差分计算梯度幅值和方向:
使用Sobel算子计算X和Y方向上的梯度以及梯度的方向角;
将待检测边缘的图像I分别与X和Y方向的卷积因子进行卷积,采用公式(5)如下:
Figure FDA0003717248950000031
求得X、Y方向的梯度后,再采用公式(6)计算梯度图像的幅值:
Figure FDA0003717248950000032
最后采用公式(7)计算梯度的方向角:
Figure FDA0003717248950000041
Step242、对梯度幅值进行非极大值抑制:
对Step241得到的幅值图像进行非极大值抑制,消除非边缘点的噪声并细化边缘,以待判断像素点为中心分为四个扇区,代表梯度方向的四个角度,将梯度角离散为圆周的四个扇区,对应于8邻域空间的四种组合;抑制逻辑为:沿着待判断点的梯度方向,比较前后两个点的幅值大小,若该点大于前后两点,则保留,若该点小于前后两点,则置为0,对每一个像素点都进行此操作,即完成了非极大值抑制;
Step243、用双阈值算法检测和连接边缘:
所述双阈值的机理为指定一个低阈值和一个高阈值,对非极大值抑制后的图像进行判断,根据判断结果分为以下三种情况:如果某一像素位置的梯度幅值超过高阈值,则该像素被保留为边缘像素;如果某一像素位置的梯度幅值小于低阈值,则该像素被排除;如果某一像素位置的梯度幅值介于高、低阈值之间,则判断该像素8邻域空间的像素是否存在高于高阈值的像素,如果存在,则该像素被保留;
所述Step250光斑区域去除时,设置光斑灰度阈值Tspot,利用阈值分割法对灰度图像进行处理,得到仅包含光斑区域的二值图像;利用光斑区域外接矩形中心作为中心,设置长宽为该外接矩形2倍的矩形区域,对该区域的像素坐标位置进行标记,将该标记范围内的像素的值置为0,作为假性边缘点进行去除;
所述Step260椭圆拟合时,通过计算瞳孔区域的对称性,将瞳孔分为遮挡和未遮挡两种情况,对不同情况采取不同的拟合点采样方式,利用最小二乘法对瞳孔边缘点进行椭圆拟合,进而得到椭圆中心坐标,并将其视作瞳孔中心;
所述Step260椭圆拟合时,包括以下子步骤:
Step261、计算每行瞳孔左右边缘像素点之间的距离,找到距离最大的两个边缘点将其连接,作为瞳孔区域上下部分的分割线,然后分别求取上下部分外接矩形的高度H1和H2,计算二者之比R,得到公式(8):
Figure FDA0003717248950000051
Step262、将R的阈值设置为0.9,即当R≥0.9时,认定瞳孔未被遮挡;而当R<0.9时,认定瞳孔区域被遮挡;
Step262、采样点选取:对于瞳孔未被遮挡的情况,所有瞳孔边缘点均为有效采样点,采用随机10点采样的方法选取采样点;对于瞳孔被遮挡的情况,取瞳孔轮廓的左、右、下3个特征边缘点,即瞳孔区域上下部分的分割线与瞳孔左右边缘的交点,以及瞳孔边缘纵坐标最小点,同时对瞳孔轮廓的下半部分边缘进行随机7点采样,将这10个点共同组成被遮挡瞳孔的采样点;
Step263、建立二维平面坐标系下的椭圆方程,即公式(9):
x2+Axy+By2+Cx+Dy+E=0 (9);
其中x、y分别为横、纵坐标,A、B、C、D、E为待定参数,设Pi(xi,yi)(i=1,2,…,10)为瞳孔边缘轮廓上的采样点,依据最小二乘原理,所拟合的目标函数为公式(10):
Figure FDA0003717248950000052
F要达到最小,需要满足公式(11)条件:
Figure FDA0003717248950000053
因此得到以下公式(12)方程:
Figure FDA0003717248950000061
解此方程得到参数A、B、C、D、E的值,最后根据椭圆的几何运算计算出椭圆中心(Xe,Ye);
所述Step3包括以下步骤:
Step310、采用基于九点标定的二维多项式映射的方法,计算瞳孔中心坐标与交互界面标定点之间的拟合参数,采用的标定方法如下:将交互界面的长、宽三等分得到等面积的9个注视区域,取每个区域的中心点作为标定点,用户佩戴近眼相机,保持头部位置不动,眼睛依次注视标定界面上的九个点,同时记录每组瞳孔中心坐标及对应的标定界面注视点坐标;
Step320、建立公式(13)的二维映射方程:
Figure FDA0003717248950000062
其中,XC、YC分别为标定界面的标定点的横、纵坐标,Xe、Ye分别为对应瞳孔中心横、纵坐标,a0~a5和b0~b5为待定参数,将9组标定坐标数据代入方程组中,求解待定参数得到映射方程。
2.根据权利要求1所述的一种基于近眼相机的视线追踪方法,其特征在于:所述Step12中值滤波具体包括以下子步骤:
Step121.将含有若干个点的窗口的滤波模板中心与感兴趣区域图像中的某个像素位置重合;
Step122.读取与模板重合的所有像素的灰度值;
Step123.将这些灰度值从小到大进行排列;
Step124.取这些数据的中值,将其赋予对应模板中心位置的像素,如果窗口中有奇数个像素,中值取按灰度值大小排序后的中间像素的灰度值,如果窗口中有偶数个像素,中值取按灰度值大小排序后,中间两个像素灰度的平均值;
Step125.更改滤波模板位置,按照从左到右、从上到下的顺序,重复Step121到Step124,遍历整幅感兴趣区域图像。
3.根据权利要求1所述的一种基于近眼相机的视线追踪方法,其特征在于:所述Step210二值化分割时,利用步骤Step112中得到的灰度阈值T,根据如下公式(2)对图像进行二值化分割:
Figure FDA0003717248950000071
其中,f(x,y)为灰度图像,g(x,y)为分割后的二值图像。
CN202110587119.3A 2021-05-27 2021-05-27 一种基于近眼相机的视线追踪方法 Active CN113342161B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110587119.3A CN113342161B (zh) 2021-05-27 2021-05-27 一种基于近眼相机的视线追踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110587119.3A CN113342161B (zh) 2021-05-27 2021-05-27 一种基于近眼相机的视线追踪方法

Publications (2)

Publication Number Publication Date
CN113342161A CN113342161A (zh) 2021-09-03
CN113342161B true CN113342161B (zh) 2022-10-14

Family

ID=77472402

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110587119.3A Active CN113342161B (zh) 2021-05-27 2021-05-27 一种基于近眼相机的视线追踪方法

Country Status (1)

Country Link
CN (1) CN113342161B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113870639A (zh) * 2021-09-13 2021-12-31 上海市精神卫生中心(上海市心理咨询培训中心) 一种基于虚拟现实的训练评估方法及系统
CN114020155A (zh) * 2021-11-05 2022-02-08 沈阳飞机设计研究所扬州协同创新研究院有限公司 一种基于眼动仪的高精度视线定位方法
CN114373217B (zh) * 2022-01-20 2024-04-26 天津大学 一种高鲁棒性瞳孔定位方法
CN114529715B (zh) * 2022-04-22 2022-07-19 中科南京智能技术研究院 一种基于边缘提取的图像识别方法及系统
CN116687340A (zh) * 2023-06-26 2023-09-05 湖南火眼医疗科技有限公司 一种基于人脸眼部特征识别的眼科检查辅助设备
CN117422813A (zh) * 2023-11-08 2024-01-19 上海卓昕医疗科技有限公司 基于像素的医学图像三维重建方法、装置、设备和介质
CN117237786B (zh) * 2023-11-14 2024-01-30 中国科学院空天信息创新研究院 评价数据获取方法、装置、系统、电子设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101266645A (zh) * 2008-01-24 2008-09-17 电子科技大学中山学院 一种基于多分辨率分析的虹膜定位方法
CN101359365A (zh) * 2008-08-07 2009-02-04 电子科技大学中山学院 一种基于最大类间方差和灰度信息的虹膜定位方法
CN103530618A (zh) * 2013-10-23 2014-01-22 哈尔滨工业大学深圳研究生院 一种基于角膜反射的非接触式视线追踪方法
CN105488803A (zh) * 2015-12-09 2016-04-13 重庆康华瑞明科技股份有限公司 一种人眼瞳孔图像判断方法
CN106056092A (zh) * 2016-06-08 2016-10-26 华南理工大学 基于虹膜与瞳孔的用于头戴式设备的视线估计方法
CN106774863A (zh) * 2016-12-03 2017-05-31 西安中科创星科技孵化器有限公司 一种基于瞳孔特征实现视线追踪的方法
CN109146851A (zh) * 2018-07-30 2019-01-04 南京慧视医疗科技有限公司 一种诊断前庭系统疾病的眼震信号特征提取和追踪算法
CN109614858A (zh) * 2018-10-31 2019-04-12 北京航天晨信科技有限责任公司 一种瞳孔中心的检测方法和装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101266645A (zh) * 2008-01-24 2008-09-17 电子科技大学中山学院 一种基于多分辨率分析的虹膜定位方法
CN101359365A (zh) * 2008-08-07 2009-02-04 电子科技大学中山学院 一种基于最大类间方差和灰度信息的虹膜定位方法
CN103530618A (zh) * 2013-10-23 2014-01-22 哈尔滨工业大学深圳研究生院 一种基于角膜反射的非接触式视线追踪方法
CN105488803A (zh) * 2015-12-09 2016-04-13 重庆康华瑞明科技股份有限公司 一种人眼瞳孔图像判断方法
CN106056092A (zh) * 2016-06-08 2016-10-26 华南理工大学 基于虹膜与瞳孔的用于头戴式设备的视线估计方法
CN106774863A (zh) * 2016-12-03 2017-05-31 西安中科创星科技孵化器有限公司 一种基于瞳孔特征实现视线追踪的方法
CN109146851A (zh) * 2018-07-30 2019-01-04 南京慧视医疗科技有限公司 一种诊断前庭系统疾病的眼震信号特征提取和追踪算法
CN109614858A (zh) * 2018-10-31 2019-04-12 北京航天晨信科技有限责任公司 一种瞳孔中心的检测方法和装置

Also Published As

Publication number Publication date
CN113342161A (zh) 2021-09-03

Similar Documents

Publication Publication Date Title
CN113342161B (zh) 一种基于近眼相机的视线追踪方法
Fuhl et al. Excuse: Robust pupil detection in real-world scenarios
EP3355104B1 (de) Verfahren und vorrichtung sowie computerprogramm zum ermitteln einer repräsentation eines brillenglasrands
US5953440A (en) Method of measuring the focus of close-up images of eyes
US8401247B2 (en) Image processing apparatus, biometric authentication apparatus, image processing method and recording medium
CN104794721B (zh) 一种基于多尺度斑点检测的快速视盘定位方法
Xiong et al. An approach to locate optic disc in retinal images with pathological changes
CN111291701B (zh) 一种基于图像梯度和椭圆拟合算法的视线追踪方法
US10311583B2 (en) Eye motion detection method, program, program storage medium, and eye motion detection device
Gabbur et al. A fast connected components labeling algorithm and its application to real-time pupil detection
CN110807427B (zh) 一种视线追踪方法、装置、计算机设备和存储介质
CN108710832A (zh) 一种无参考虹膜图像清晰度检测方法
CN109446935B (zh) 一种用于远距离行进中虹膜识别的虹膜定位方法
CN114202795A (zh) 一种老年人瞳孔快速定位方法
CN111738241B (zh) 基于双摄像头的瞳孔检测方法及装置
CN114020155A (zh) 一种基于眼动仪的高精度视线定位方法
Qureshi et al. Automatic localization of the optic disc in retinal fundus images using multiple features
EP4113464A1 (en) An eye tracking system
CN115661110A (zh) 一种透明工件识别与定位的方法
CN110751064B (zh) 基于图像处理的眨眼次数分析方法和系统
CN111488843A (zh) 基于漏报与误报率分步骤抑制的人脸墨镜判别方法
Dewi et al. Robust pupil localization algorithm under off-axial pupil occlusion
CN111369496B (zh) 一种基于星射线的瞳孔中心定位方法
Jin et al. Research on pupil center localization in eye gaze tracking system
Parker et al. Gaze tracking: A sclera recognition approach

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230625

Address after: 214000 705-4, 7th floor, 22 dongbeitang east section, Xigang Road, Xishan District, Wuxi City, Jiangsu Province

Patentee after: Wuxi makeway Information Technology Co.,Ltd.

Address before: 213032 No. 666 Liaohe Road, Xinbei District, Changzhou City, Jiangsu Province

Patentee before: CHANGZHOU INSTITUTE OF TECHNOLOGY