CN108427926A - 一种视线跟踪系统中的瞳孔定位方法 - Google Patents
一种视线跟踪系统中的瞳孔定位方法 Download PDFInfo
- Publication number
- CN108427926A CN108427926A CN201810217448.7A CN201810217448A CN108427926A CN 108427926 A CN108427926 A CN 108427926A CN 201810217448 A CN201810217448 A CN 201810217448A CN 108427926 A CN108427926 A CN 108427926A
- Authority
- CN
- China
- Prior art keywords
- pupil
- image
- profile
- tracking system
- gaze tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像处理和模式识别领域,公开了一种视线跟踪系统中的瞳孔定位方法。此算法基于红外光源的亮暗瞳技术,首先通过采集得到亮瞳和暗瞳图像,然后将这两幅图像分别逆二值化。接着再将逆二值化后的暗瞳和亮瞳图像做差分操作得到差分图像,进一步地在差分图像中提取轮廓,并用训练好的分类器对轮廓进行选择得到粗定位的瞳孔中心。最后根据粗定位的瞳孔中心在暗瞳中的位置选取感兴趣区域,并在感兴趣区域中进行椭圆合得到瞳孔中心。该瞳孔定位算法具有较高的鲁棒性和实时性,能满足视线跟踪系统中瞳孔定位的需要。
Description
技术领域
本发明涉及图像处理和模式识别领域,是一种属于视线跟踪系统中的关键技术,即瞳孔定位方法。
背景技术
目前,业内常用的现有技术是这样的:瞳孔定位算法是在视线跟踪系统中一项重要技术,瞳孔定位算法的性能决定系统的性能,所以鲁棒且实时的瞳孔定位算法是很关键的。在视线跟踪系统中,瞳孔定位算法一直是研究的热点。近些年来,机器学习和深度学习方向非常火热,出现了一种使用单目摄像头快速定位人眼的方法。即通过改进的Adboost方法构造出强分类器先定位人脸,之后再检测人眼。先通过Harr特征检测出人脸,然后再训练分类器定位到瞳孔部位。这些基于机器学习的方法一方面需要制作大量的正负样本,当用户戴上眼镜后,眼周围噪声光斑较多,很难制作出具有代表性的样本。另一方面,Adboost算法比较耗时,很难满足高帧率的实时系统。这些算法虽然在一定程度上能够比较好的定位瞳孔,但是正确率依然不能令人满意,只有80%多。这样会使视线跟踪系统工作不稳定。还有通过积分投影的方法对瞳孔进行定位,这种方法在图像质量高的情况下,确实具有很好的实时性和鲁棒性,然后对于在戴眼镜情下,眼镜上会存在较多的干扰光斑,极大地影响了瞳孔提取成功率。除了上诉两种瞳孔定位方法外,还有多种瞳孔定位方法,但是它们基本都有缺陷,要么太耗时,要么准确率不高,总之适用场合有限。
综上所述,现有技术存在的问题是:现存在的视线跟踪系统中瞳孔定位算法,有的比较复杂,耗时多,有的面对质量低的图像,特别是当戴眼镜的图像中存在较多的干扰光斑点时,瞳孔定位的准确率会低很多,基本大多数瞳孔定位算法不能兼顾实时性和鲁棒性。
解决上述技术问题的难度和意义:面对目前大多数瞳孔定位算法不能兼顾实时性和鲁棒性的特点,研究出一种既实时又鲁棒的瞳孔定位算法是有具有挑战的,特别是对戴眼镜的图像进行瞳孔定位时富有挑战性,因为戴眼镜的图像中存在的大量的干扰光斑,这对目前大多数的瞳孔定位算法来说都是难点。如果能研究出一种既实时有鲁棒的瞳孔定位算法,那么能够极大地提高视线跟踪系统的性能,使视线跟踪系统工作更稳定。
发明内容
针对现有技术存在的问题,本发明提供了一种视线跟踪系统中瞳孔定位方法、视线跟踪系统。
2、本发明是这样实现的,一种视线跟踪系统中瞳孔定位方法,所述视线跟踪系统中瞳孔定位方法通过采集得到亮瞳和暗瞳图像,将图像分别逆二值化,逆二值化后的暗瞳和亮瞳图像做差分操作得到差分图像,进一步地在差分图像中提取轮廓,并用训练好的分类器对轮廓进行选择得到粗定位的瞳孔中心。最后根据粗定位的瞳孔中心在暗瞳中的位置选取感兴趣区域,并在感兴趣区域中进行椭圆合得到瞳孔中心。
进一步,所述视线跟踪系统中瞳孔定位方法包括以下步骤:
步骤一,从红外摄像头采集亮瞳图像和暗瞳图像;
步骤二,对亮瞳图像和暗瞳图像进行平滑处理;
步骤三,对亮瞳和暗瞳图像进行自适应逆二值化处理;
步骤四,用逆二值化的暗瞳图像减去逆二值化的亮瞳图像得到差分图像;
步骤五,在差分图像中提取轮廓,并计算轮廓的Hu矩;
步骤六,用分类器对轮廓进行选择,选择属于瞳孔的轮廓;
步骤七,对属于瞳孔的轮廓周围选取感性区域;
步骤八,对感性区域二值化处理;
步骤九,对感性区域的轮廓进行椭圆拟合得到最终的瞳孔中心。
进一步,所述步骤二中对亮瞳图像和暗瞳图像进行平滑处理,采用的平滑操作为均值滤波操作,滤波模板大小为3*3。
进一步,所述步骤三中对亮瞳和暗瞳图像进行自适应逆二值化处理采用的自适应逆二值化处理的步骤为:对图像中每一个像素,值大于周围领域窗口内像素的均值,像素值取0,否则取255。
进一步,所述步骤四中用逆二值化的暗瞳图像减去逆二值化的亮瞳图像得到差分图像,即利用逆二值化的暗瞳图像减去逆二值化的亮瞳图像,得到差分图像。
进一步,所述步骤六中用分类器对轮廓进行选择,选择属于瞳孔的轮廓;分类器采用SVM线性分类器。
进一步,所述SVM线性分类器训练的方法包括:
步骤一,采集正负样本,正样本由包含瞳孔的图片经过二值化处理,提取瞳孔轮廓,对瞳孔轮廓进行Hu计算,得到7个基本的Hu矩向量;负样本由包含非瞳孔物体的图片经过二值化处理,提取非瞳孔物体的轮廓,对非瞳孔物体的轮廓进行Hu计算,得到7个基本的Hu矩向量;
步骤二,对正负样本加标签,正样本标签是1,负样本标签是0;
步骤三:利用准备好的正负样本训练SVM线性分类器,确定SVM线性分类器的权值系数;
进一步,所述步骤七中对属于瞳孔的轮廓周围选取感性区域,感性区域的是以属于瞳孔轮廓的中心为中心的候选框。
进一步,所述步骤八中对感性区域二值化处理将感性区域中每一个像素与阈值进行比较,大于阈值就取255,小于阈值就取0;
所述步骤九中对感性区域的轮廓进行椭圆拟合得到最终的瞳孔中心;用在步骤八中得到的轮廓进行椭圆拟合,得到拟合椭圆中心,中心为瞳孔中心。
综上所述,本发明的优点及积极效果为:利用机器学习Adaboost和深度学习来定位瞳孔来定位到瞳孔部位,基于机器学习的方法一方面需要制作大量的正负样本,用户戴上眼镜后,眼周围杂斑较多,很难制作出具有代表性的样本。另一方面,此类算法比较耗时,很难满足高帧率的实时系统。而本发明不需要复杂的算法计算,实时性能满足要求且对带眼镜的情况也适用。基于模板匹配和积分投影等方法对于用户戴上眼镜后,眼周围杂斑较多的情况下基本不能提定位瞳孔,而本发明能在一定程度上克服以上问题,能够满足系统的准确率。本发明利用亮暗瞳图像进行二值化处理和图像相减操作,在线性时间内完成,花费很少的时间,同时一次均值滤波操作和轮廓提取,以及Hu矩计算也不会花费太多的时间,实时性能满足视线跟踪的需求。
本发明在实时系统中测试好、一般两种情况,测试人员为6人,结果显示本发明的实时性和鲁棒性,即瞳孔定位准确率,能满足视线跟踪的需求,测试结果在表1和表2中。
附图说明
图1是本发明实施例提供的视线跟踪系统中瞳孔定位方法流程图。
图2是本发明实施例提供的亮暗瞳形成原理图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明为了保证正确率和实时性,采用基于亮暗瞳机制的方法,对瞳孔进行快速定位和跟踪。这种方法不仅在图像质量较好的情况下有着比较好的效果,而且在外界环境相对复杂的情况下同样适用。
如图1所示,本发明实施例提供的视线跟踪系统中瞳孔定位方法包括以下步骤:
S101:从红外摄像头采集亮瞳图像和暗瞳图像;
S102:对亮瞳图像和暗瞳图像进行平滑处理;
S103:对亮瞳和暗瞳图像进行自适应逆二值化处理;
S104:用逆二值化的暗瞳图像减去逆二值化的亮瞳图像得到差分图像;
S105:在差分图像中提取轮廓,并计算轮廓的Hu矩;
S106:用分类器对轮廓进行选择,选择属于瞳孔的轮廓;
S107:对属于瞳孔的轮廓周围选取感性区域;
S108:对感性区域二值化处理;
S109:对感性区域的轮廓进行椭圆拟合得到最终的瞳孔中心。
本发明实施中,步骤S101中亮瞳图像和暗瞳图像的形成原理如图2,同轴关源产生亮瞳图像,异轴光源产生暗瞳图像,亮瞳和暗瞳图像大小一致。
本发明实施中,步骤S102中对亮瞳图像和暗瞳图像进行平滑处理。所采用的平滑操作为均值滤波操作。滤波模板大小为3*3。
本发明实施中,步骤S103中对亮瞳和暗瞳图像进行自适应逆二值化处理。所采用的自适应逆二值化处理的步骤为:对图像中每一个像素,如果其值大于周围领域窗口内像素的均值,那么该像素值取0(黑),否则取255(白)。
本发明实施中,步骤S104中用逆二值化的暗瞳图像减去逆二值化的亮瞳图像得到差分图像。就是利用在步骤S103中逆二值化的亮瞳图像和暗瞳图像,用暗瞳图像减去亮瞳图像,即得到差分图像。
本发明实施中,步骤S105中在差分图像提取轮廓,并计算轮廓的Hu矩。几何矩是由Hu(Visual pattern recognitionby moment invariants)在1962年提出的,具有平移、旋转和尺度不变性。Hu矩能够很好的描述物体形状。在得到轮廓后就能够利用轮廓来计算Hu矩了。
本发明实施中,步骤S106中用分类器对轮廓进行选择,选择属于瞳孔的轮廓。此处的分类器采用SVM线性分类器,SVM线性分类器的训练步骤为:
步骤一:采集正负样本。正样本由包含瞳孔的图片经过二值化处理,然后提取瞳孔轮廓,对瞳孔轮廓进行Hu计算,得到7个基本的Hu矩向量。负样本由包含非瞳孔物体的图片经过二值化处理,然后提取非瞳孔物体的轮廓,对非瞳孔物体的轮廓进行Hu计算,得到7个基本的Hu矩向量。
步骤二:对正负样本加标签,正样本标签是1,负样本标签是0。
步骤三:利用准备好的正负样本训练SVM线性分类器。最终确定SVM线性分类器的权值系数。
用分类器对轮廓进行选择,即把先计算轮廓的Hu矩,然后将计算好的Hu矩送给SVM线性分类器进行分类,是瞳孔轮廓就输出1,否则输出0。
本发明实施中,步骤S107中对属于瞳孔的轮廓周围选取感性区域。其中感性区域的是以属于瞳孔轮廓的中心为中心的候选框。
本发明实施中,步骤S108中对感性区域二值化处理。即将感性区域中每一个像素与阈值进行比较,如果大于阈值就取255,小于阈值就取0。
本发明实施中,步骤S109中对感性区域的轮廓进行椭圆拟合得到最终的瞳孔中心。即用在步骤S108中得到的轮廓进行椭圆拟合,最后得到拟合椭圆中心,此中心即为瞳孔中心。
下面结合测试对本发明的应用效果作详细的描述。
表1-表2,分别表示好、一般两种情况,每个表标出了算法运行时间和瞳孔定位准确率,测试人数为6人,测试配置为Intel Core i76500u 2.50GHz,4G内存。
表1,情况为好
表1,情况为一般
从表1和和表2来看,在好的情况下,该算法的瞳孔定位准确率较高,瞳孔定位平均时间在10ms左右。在一般的情况下,该算法的瞳孔定位准确率也不低,瞳孔定位平均时间在11ms左右。综上,该算法经测试,准确率和实时性足够满足视线跟踪系统的需求。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种视线跟踪系统中瞳孔定位方法,其特征在于,所述视线跟踪系统中瞳孔定位方法通过采集得到亮瞳和暗瞳图像,将图像分别逆二值化;逆二值化后的暗瞳和亮瞳图像做差分操作得到差分图像,进一步地在差分图像中提取轮廓,并用训练好的分类器对轮廓进行选择得到粗定位的瞳孔中心。最后根据粗定位的瞳孔中心在暗瞳中的位置选取感兴趣区域,并在感兴趣区域中进行椭圆合得到瞳孔中心。
2.如权利要求1所述的视线跟踪系统中瞳孔定位方法,其特征在于,所述视线跟踪系统中瞳孔定位方法包括以下步骤:
步骤一,从红外摄像头采集亮瞳图像和暗瞳图像;
步骤二,对亮瞳图像和暗瞳图像进行平滑处理;
步骤三,对亮瞳和暗瞳图像进行自适应逆二值化处理;
步骤四,用逆二值化的暗瞳图像减去逆二值化的亮瞳图像得到差分图像;
步骤五,在差分图像中提取轮廓,并计算轮廓的Hu矩;
步骤六,用分类器对轮廓进行选择,选择属于瞳孔的轮廓;
步骤七,对属于瞳孔的轮廓周围选取感性区域;
步骤八,对感性区域二值化处理;
步骤九,对感性区域的轮廓进行椭圆拟合得到最终的瞳孔中心。
3.如权利要求2所述的视线跟踪系统中瞳孔定位方法,其特征在于,所述步骤二中对亮瞳图像和暗瞳图像进行平滑处理,采用的平滑操作为均值滤波操作,滤波模板大小为3*3。
4.如权利要求2所述的视线跟踪系统中瞳孔定位方法,其特征在于,所述步骤三中对亮瞳和暗瞳图像进行自适应逆二值化处理采用的自适应逆二值化处理的步骤为:对图像中每一个像素,如果像素值大于周围领域窗口内像素的均值,像素值取0,否则取255。
5.如权利要求2所述的视线跟踪系统中瞳孔定位方法,其特征在于,所述步骤四中用逆二值化的暗瞳图像减去逆二值化的亮瞳图像得到差分图像,即利用逆二值化的暗瞳图像减去逆二值化的亮瞳图像,得到差分图像。
6.如权利要求2所述的视线跟踪系统中瞳孔定位方法,其特征在于,所述步骤六中用分类器对轮廓进行选择,选择属于瞳孔的轮廓;分类器采用SVM线性分类器。
7.如权利要求6所述的视线跟踪系统中瞳孔定位方法,其特征在于,所述SVM线性分类器训练的方法包括:
步骤一,采集正负样本,正样本由包含瞳孔的图片经过二值化处理,提取瞳孔轮廓,对瞳孔轮廓进行Hu计算,得到7个基本的Hu矩向量;负样本由包含非瞳孔物体的图片经过二值化处理,提取非瞳孔物体的轮廓,对非瞳孔物体的轮廓进行Hu计算,得到7个基本的Hu矩向量;
步骤二,对正负样本加标签,正样本标签是1,负样本标签是0;
步骤三:利用准备好的正负样本训练SVM线性分类器,确定SVM线性分类器的权值系数。
8.如权利要求2所述的视线跟踪系统中瞳孔定位方法,其特征在于,所述步骤七中对属于瞳孔的轮廓周围选取感性区域,感性区域是以属于瞳孔的轮廓中心为中心的候选框。
9.如权利要求2所述的视线跟踪系统中瞳孔定位方法,其特征在于,所述步骤八中对感性区域二值化处理,即将感性区域中每一个像素与阈值进行比较,大于阈值就取255,小于阈值就取0。
10.如权利要求2所述的视线跟踪系统中瞳孔定位方法,其特征在于,所述步骤九中对感性区域的轮廓进行椭圆拟合得到最终的瞳孔中心,即用在步骤八中得到的轮廓进行椭圆拟合,得到拟合椭圆中心,中心为瞳孔中心。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810217448.7A CN108427926A (zh) | 2018-03-16 | 2018-03-16 | 一种视线跟踪系统中的瞳孔定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810217448.7A CN108427926A (zh) | 2018-03-16 | 2018-03-16 | 一种视线跟踪系统中的瞳孔定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108427926A true CN108427926A (zh) | 2018-08-21 |
Family
ID=63158284
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810217448.7A Pending CN108427926A (zh) | 2018-03-16 | 2018-03-16 | 一种视线跟踪系统中的瞳孔定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108427926A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110675416A (zh) * | 2019-08-29 | 2020-01-10 | 南京理工大学 | 基于抽象轮廓分析的瞳孔中心检测方法 |
US11009946B2 (en) | 2018-04-24 | 2021-05-18 | Boe Technology Group Co., Ltd. | Pupil center positioning apparatus and method, and virtual reality device |
Citations (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070076958A1 (en) * | 2005-10-03 | 2007-04-05 | Shalini Venkatesh | Method and system for determining gaze direction in a pupil detection system |
CN101093538A (zh) * | 2006-06-19 | 2007-12-26 | 电子科技大学 | 一种基于小波变换过零表示的虹膜识别方法 |
CN101359365A (zh) * | 2008-08-07 | 2009-02-04 | 电子科技大学中山学院 | 一种基于最大类间方差和灰度信息的虹膜定位方法 |
CN101699510A (zh) * | 2009-09-02 | 2010-04-28 | 北京科技大学 | 视线追踪系统中的基于粒子滤波的瞳孔跟踪方法 |
CN101788848A (zh) * | 2009-09-29 | 2010-07-28 | 北京科技大学 | 用于视线追踪系统的眼部特征参数检测方法 |
CN102339379A (zh) * | 2011-04-28 | 2012-02-01 | 重庆邮电大学 | 手势识别方法及基于手势识别控制的智能轮椅人机系统 |
CN102830793A (zh) * | 2011-06-16 | 2012-12-19 | 北京三星通信技术研究有限公司 | 视线跟踪方法和设备 |
CN102902967A (zh) * | 2012-10-16 | 2013-01-30 | 第三眼(天津)生物识别科技有限公司 | 基于人眼结构分类的虹膜和瞳孔的定位方法 |
CN103067662A (zh) * | 2013-01-21 | 2013-04-24 | 天津师范大学 | 一种自适应视线跟踪系统 |
CN103076876A (zh) * | 2012-11-22 | 2013-05-01 | 西安电子科技大学 | 基于视线跟踪与语音识别的字符输入装置和方法 |
CN103440476A (zh) * | 2013-08-26 | 2013-12-11 | 大连理工大学 | 一种人脸视频中瞳孔的定位方法 |
CN103761519A (zh) * | 2013-12-20 | 2014-04-30 | 哈尔滨工业大学深圳研究生院 | 一种基于自适应校准的非接触式视线追踪方法 |
CN104182720A (zh) * | 2013-05-22 | 2014-12-03 | 北京三星通信技术研究有限公司 | 瞳孔检测方法和装置 |
CN105094337A (zh) * | 2015-08-19 | 2015-11-25 | 华南理工大学 | 一种基于虹膜和瞳孔的三维视线估计方法 |
JP2016095584A (ja) * | 2014-11-12 | 2016-05-26 | 国立大学法人静岡大学 | 瞳孔検出装置、瞳孔検出方法及び瞳孔検出プログラム |
EP3073415A1 (en) * | 2015-03-26 | 2016-09-28 | Omron Corporation | Image processing apparatus and image processing method |
CN106022375A (zh) * | 2016-05-19 | 2016-10-12 | 东华大学 | 一种基于hu不变矩和支持向量机的服装款式识别方法 |
CN106326880A (zh) * | 2016-09-08 | 2017-01-11 | 电子科技大学 | 瞳孔中心点定位方法 |
CN106599881A (zh) * | 2016-12-30 | 2017-04-26 | 首都师范大学 | 学生状态的确定方法、装置及系统 |
CN107071267A (zh) * | 2017-01-19 | 2017-08-18 | 西安电子科技大学 | 一种用于视线跟踪系统的双路同步亮暗瞳图像采集方法 |
CN107730573A (zh) * | 2017-09-22 | 2018-02-23 | 西安交通大学 | 一种基于特征提取的人物肖像漫画风格化生成方法 |
-
2018
- 2018-03-16 CN CN201810217448.7A patent/CN108427926A/zh active Pending
Patent Citations (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070076958A1 (en) * | 2005-10-03 | 2007-04-05 | Shalini Venkatesh | Method and system for determining gaze direction in a pupil detection system |
CN101093538A (zh) * | 2006-06-19 | 2007-12-26 | 电子科技大学 | 一种基于小波变换过零表示的虹膜识别方法 |
CN101359365A (zh) * | 2008-08-07 | 2009-02-04 | 电子科技大学中山学院 | 一种基于最大类间方差和灰度信息的虹膜定位方法 |
CN101699510A (zh) * | 2009-09-02 | 2010-04-28 | 北京科技大学 | 视线追踪系统中的基于粒子滤波的瞳孔跟踪方法 |
CN101788848A (zh) * | 2009-09-29 | 2010-07-28 | 北京科技大学 | 用于视线追踪系统的眼部特征参数检测方法 |
CN102339379A (zh) * | 2011-04-28 | 2012-02-01 | 重庆邮电大学 | 手势识别方法及基于手势识别控制的智能轮椅人机系统 |
CN102830793A (zh) * | 2011-06-16 | 2012-12-19 | 北京三星通信技术研究有限公司 | 视线跟踪方法和设备 |
CN102902967A (zh) * | 2012-10-16 | 2013-01-30 | 第三眼(天津)生物识别科技有限公司 | 基于人眼结构分类的虹膜和瞳孔的定位方法 |
CN103076876A (zh) * | 2012-11-22 | 2013-05-01 | 西安电子科技大学 | 基于视线跟踪与语音识别的字符输入装置和方法 |
CN103067662A (zh) * | 2013-01-21 | 2013-04-24 | 天津师范大学 | 一种自适应视线跟踪系统 |
CN104182720A (zh) * | 2013-05-22 | 2014-12-03 | 北京三星通信技术研究有限公司 | 瞳孔检测方法和装置 |
CN103440476A (zh) * | 2013-08-26 | 2013-12-11 | 大连理工大学 | 一种人脸视频中瞳孔的定位方法 |
CN103761519A (zh) * | 2013-12-20 | 2014-04-30 | 哈尔滨工业大学深圳研究生院 | 一种基于自适应校准的非接触式视线追踪方法 |
JP2016095584A (ja) * | 2014-11-12 | 2016-05-26 | 国立大学法人静岡大学 | 瞳孔検出装置、瞳孔検出方法及び瞳孔検出プログラム |
EP3073415A1 (en) * | 2015-03-26 | 2016-09-28 | Omron Corporation | Image processing apparatus and image processing method |
CN105094337A (zh) * | 2015-08-19 | 2015-11-25 | 华南理工大学 | 一种基于虹膜和瞳孔的三维视线估计方法 |
CN106022375A (zh) * | 2016-05-19 | 2016-10-12 | 东华大学 | 一种基于hu不变矩和支持向量机的服装款式识别方法 |
CN106326880A (zh) * | 2016-09-08 | 2017-01-11 | 电子科技大学 | 瞳孔中心点定位方法 |
CN106599881A (zh) * | 2016-12-30 | 2017-04-26 | 首都师范大学 | 学生状态的确定方法、装置及系统 |
CN107071267A (zh) * | 2017-01-19 | 2017-08-18 | 西安电子科技大学 | 一种用于视线跟踪系统的双路同步亮暗瞳图像采集方法 |
CN107730573A (zh) * | 2017-09-22 | 2018-02-23 | 西安交通大学 | 一种基于特征提取的人物肖像漫画风格化生成方法 |
Non-Patent Citations (7)
Title |
---|
FUHL W等: ""PupilNet v2.0:Convolutional Neural Networks for CPU based real time Robust Pupil Detection"", 《ARXIV》 * |
WOLFGANG FUHL等: ""ExCuSe:Robust Pupil Detection in Real-World Scenarios"", 《SPRINGER》 * |
XIA Y等: ""Pupil Contour Extraction Method of Anti-light Spot Interference for Iris Image Captured in Visible Light"", 《SPRINGER INTERNATIONAL PUBLISHING》 * |
ZHIWEI ZHU等: ""Robust real-time eye detection and tracking under variable lighting conditions and various face orientations"", 《COMPUTER VISION AND IMGAE UNDERSTANDING》 * |
崔耀等: ""基于眼视线跟踪的打字系统在TMS320DM6446 EVM上的实现"", 《数据采集与处理》 * |
迟健男等: ""一种由粗及精的视线追踪系统平面视线参数检测方法"", 《兵工学报》 * |
陈健等: ""基于图像特征的快速瞳孔提取算法"", 《电子测量与仪器学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11009946B2 (en) | 2018-04-24 | 2021-05-18 | Boe Technology Group Co., Ltd. | Pupil center positioning apparatus and method, and virtual reality device |
CN110675416A (zh) * | 2019-08-29 | 2020-01-10 | 南京理工大学 | 基于抽象轮廓分析的瞳孔中心检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105956578B (zh) | 一种基于身份证件信息的人脸验证方法 | |
CN103632136B (zh) | 人眼定位方法和装置 | |
CN109101865A (zh) | 一种基于深度学习的行人重识别方法 | |
CN110084149B (zh) | 一种基于难样本四元组动态边界损失函数的人脸验证方法 | |
CN105117705B (zh) | 一种虹膜图像质量级联式评价方法 | |
Jan | Segmentation and localization schemes for non-ideal iris biometric systems | |
Iga et al. | A gender and age estimation system from face images | |
CN104318262A (zh) | 通过人脸照片更换皮肤的方法及系统 | |
WO2018142388A1 (en) | A method for pupil detection for cognitive monitoring, analysis, and biofeedback-based treatment and training | |
CN107066932A (zh) | 人脸识别中关键特征点的检测与定位方法 | |
CN110046587A (zh) | 基于Gabor差分权重的人脸表情特征提取方法 | |
CN107895157A (zh) | 一种低分辨率图像虹膜中心精确定位的方法 | |
CN110728185A (zh) | 一种判别驾驶人存在手持手机通话行为的检测方法 | |
CN109711309A (zh) | 一种自动识别人像图片是否闭眼的方法 | |
CN108427926A (zh) | 一种视线跟踪系统中的瞳孔定位方法 | |
CN114973307A (zh) | 生成对抗和余弦三元损失函数的指静脉识别方法及系统 | |
CN109344720A (zh) | 一种基于自适应特征选择的情感状态检测方法 | |
Basit et al. | Efficient Iris Recognition Method for Human Identification. | |
CN110909601A (zh) | 一种基于深度学习的美瞳识别方法及系统 | |
CN105631816B (zh) | 一种虹膜图像噪声分类检测方法 | |
Nishiyama et al. | Face recognition using the classified appearance-based quotient image | |
CN108694398A (zh) | 一种图像分析方法及装置 | |
CN114240743B (zh) | 一种基于高反差磨皮的人脸图像的美肤方法 | |
CN206363347U (zh) | 基于角点检测与匹配的药品识别系统 | |
Wang et al. | Recognition oriented iris image quality assessment in the feature space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20221101 |