CN108280403A - 确定瞳孔位置的方法和装置 - Google Patents

确定瞳孔位置的方法和装置 Download PDF

Info

Publication number
CN108280403A
CN108280403A CN201711455783.2A CN201711455783A CN108280403A CN 108280403 A CN108280403 A CN 108280403A CN 201711455783 A CN201711455783 A CN 201711455783A CN 108280403 A CN108280403 A CN 108280403A
Authority
CN
China
Prior art keywords
edge
region
pupil
edge region
obtains
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711455783.2A
Other languages
English (en)
Other versions
CN108280403B (zh
Inventor
刘伟
任冬淳
王健
聂凤梅
杨孟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing 7Invensun Technology Co Ltd
Beijing Qixin Yiwei Information Technology Co Ltd
Original Assignee
Beijing Qixin Yiwei Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Qixin Yiwei Information Technology Co Ltd filed Critical Beijing Qixin Yiwei Information Technology Co Ltd
Priority to CN201711455783.2A priority Critical patent/CN108280403B/zh
Publication of CN108280403A publication Critical patent/CN108280403A/zh
Priority to US16/348,872 priority patent/US10853967B2/en
Priority to PCT/CN2018/120677 priority patent/WO2019128715A1/zh
Priority to TW107147366A priority patent/TWI692729B/zh
Application granted granted Critical
Publication of CN108280403B publication Critical patent/CN108280403B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/64Analysis of geometric attributes of convexity or concavity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种确定瞳孔位置的方法和装置。其中,该方法包括:获取图像中瞳孔的第一参数、瞳孔的初始边缘区域以及图像中光斑的第二参数;根据第一参数以及第二参数对初始边缘区域进行处理,得到第一边缘区域;根据第一边缘区域内的边缘片段确定瞳孔边缘区域,其中,边缘片段为由第一边缘区域内满足第一预设条件的点集所组成的区域;对瞳孔边缘区域进行拟合处理,得到瞳孔的位置。本发明解决了由于光斑的遮挡导致无法对瞳孔进行精确定位的技术问题。

Description

确定瞳孔位置的方法和装置
技术领域
本发明涉及图像处理领域,具体而言,涉及一种确定瞳孔位置的方法和装置。
背景技术
随着科学技术的高速发展,信息安全成为人们日益关注的问题。而现有技术常采用身份认证的方式来确保信息安全,例如,通过指纹、人脸等生物特征进行身份认证。作为生物特征之一的虹膜具有唯一性、稳定性、非侵犯性以及可活体检测等优点。因此,虹膜识别技术常作为生物特征识别的一个研究方向。但在虹膜识别技术中,准确确定瞳孔位置对虹膜识别的准确性至关重要。然而,在实际应用中,相机的光源对瞳孔的精确定位会产生一定的影响,如在图1所示的眼睛的图像上,瞳孔附近有两个光斑,由于有光斑的遮挡,现有技术对图像进行处理后,得到的瞳孔通常不是完整的瞳孔,由此,也无法对瞳孔进行精确的定位。
针对上述由于光斑的遮挡导致无法对瞳孔进行精确定位的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种确定瞳孔位置的方法和装置,以至少解决由于光斑的遮挡导致无法对瞳孔进行精确定位的技术问题。
根据本发明实施例的一个方面,提供了一种确定瞳孔位置的方法,包括:获取图像中瞳孔的第一参数、瞳孔的初始边缘区域以及图像中光斑的第二参数;根据第一参数以及第二参数对初始边缘区域进行处理,得到第一边缘区域;根据第一边缘区域内的边缘片段确定瞳孔边缘区域,其中,边缘片段为由第一边缘区域内满足第一预设条件的点集所组成的区域;对瞳孔边缘区域进行拟合处理,得到瞳孔的位置。
根据本发明实施例的另一方面,还提供了一种确定瞳孔位置的装置,包括:获取模块,用于获取图像中瞳孔的第一参数、瞳孔的初始边缘区域以及图像中光斑的第二参数;处理模块,用于根据第一参数以及第二参数对初始边缘区域进行处理,得到第一边缘区域;确定模块,用于根据第一边缘区域内的边缘片段确定瞳孔边缘区域,其中,边缘片段为由第一边缘区域内满足预设条件的点集所组成的区域;拟合模块,用于对瞳孔边缘区域进行拟合处理,得到瞳孔的位置。
根据本发明实施例的另一方面,还提供了一种存储介质,该存储介质包括存储的程序,其中,程序执行过滤光斑的方法。
根据本发明实施例的另一方面,还提供了一种处理器,该处理器用于运行程序,其中,程序运行时执行过滤光斑的方法。
在本发明实施例中,采用瞳孔边缘区域的拟合结果对瞳孔进行定位的方式,通过获取图像中瞳孔的第一参数、瞳孔的初始边缘区域以及图像中光斑的第二参数,并根据第一参数以及第二参数对初始边缘区域进行处理,得到第一边缘区域,然后根据第一边缘区域内的边缘片段确定瞳孔边缘区域,最后对瞳孔边缘区域进行拟合处理,得到瞳孔的位置,其中,边缘片段为由第一边缘区域内满足第一预设条件的点集所组成的区域,达到了在有光斑遮挡的情况下,对瞳孔进行精确定位的目的,进而解决了由于光斑的遮挡导致无法对瞳孔进行精确定位的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种可选的带有光斑的眼睛的图像示意图;
图2是根据本发明实施例的一种确定瞳孔位置的方法流程图;
图3是根据本发明实施例的一种可选的圆环与瞳孔的位置示意图;以及
图4是根据本发明实施例的一种确定瞳孔位置的装置结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例1
根据本发明实施例,提供了一种确定瞳孔位置的方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图2是根据本发明实施例的确定瞳孔位置的方法流程图,如图2所示,该方法包括如下步骤:
步骤S202,获取图像中瞳孔的第一参数、瞳孔的初始边缘区域以及图像中光斑的第二参数。
需要说明的是,上述第一参数至少包括如下之一:瞳孔中心的初始位置以及瞳孔的半径,第二参数至少包括如下之一:光斑中心的位置以及光斑的半径。
在一种可选的实施例中,将眼睛的图像输入至图像处理设备中,其中,该眼睛的图像中有光斑,如图1所示的图像。图像处理设备在获取到图像之后,使用图像分割算法将图像中的瞳孔以及光斑进行粗略的分割,并得到分割后的瞳孔中心的初始位置以及瞳孔的半径、图像中光斑中心的位置以及光斑的半径。然后,使用边缘检测算法对眼睛的图像进行边缘提取,由于提取出的边缘较为杂乱,除了瞳孔的边缘之外,还可能包括眼皮、光斑以及其他一些杂乱的边缘,即此时提取到的瞳孔的边缘是包含瞳孔边缘以及其他干扰边缘的边缘区域。另外,上述图像分割算法可以为但不限于基于阈值的分割算法、基于边缘的分割算法、基于区域的分割算法等,上述边缘检测算法可以为但不限于Roberts算法、Sobel算法、Prewitt算法、Canny算法、Log算法以及改进的Sobel算法等。
步骤S204,根据第一参数以及第二参数对初始边缘区域进行处理,得到第一边缘区域。
具体的,可通过圆环对初始边缘区域进行过滤。在使用圆环之前,需要调整瞳孔中心的初始位置,在确定瞳孔中心的初始位置之后,再使用圆环对初始边缘区域进行过滤,并通过添加限制条件来对过滤后的初始边缘区域进行限定,从而对瞳孔的初始边缘区域内的光斑以及杂乱的边缘进行初步处理,得到第一边缘区域。
步骤S206,根据第一边缘区域内的边缘片段确定瞳孔边缘区域,其中,边缘片段为由第一边缘区域内满足第一预设条件的点集所组成的区域。
需要说明的是,在得到第一边缘区域后,为防止瞳孔外部的杂乱边缘或者瞳孔内部的杂乱边缘没有彻底去除,需要再使用第一边缘区域内的边缘片段对第一边缘区域进行进一步的过滤。其中,使用边缘片段可有效的去除瞳孔外部的杂乱边缘,再使用形态学算法对瞳孔内部的杂乱边缘进行过滤。在完成对瞳孔外部的杂乱边缘以及瞳孔内部的杂乱边缘进行滤除后,可得到不包含杂乱边缘或者包含少量杂乱边缘的瞳孔边缘区域。
另外,上述第一预设条件可以为但不限于距离条件,例如,第一边缘区域内的点A和点B的距离小于L,点A和点C的距离大于L,则将点A和点B划分为一个区域,该区域即为边缘片段。
步骤S208,对瞳孔边缘区域进行拟合处理,得到瞳孔的位置。
容易注意到的是,得到的瞳孔边缘区域可能并不是连续的封闭区域,在瞳孔边缘区域中可能包含多条不连续的线条或点集,由此需要对得到的瞳孔边缘区域进行拟合处理,从而得到瞳孔边缘。然后根据瞳孔边缘所包含的区域,确定与该区域最相似的圆或者椭圆,根据得到的圆的圆心或者椭圆的焦点即可确定瞳孔的中心坐标,即确定瞳孔的位置。
基于上述步骤S202至步骤S208所限定的方案,可以获知,通过获取图像中瞳孔的第一参数、瞳孔的初始边缘区域以及图像中光斑的第二参数,并根据第一参数以及第二参数对初始边缘区域进行处理,得到第一边缘区域,然后根据第一边缘区域内的边缘片段确定瞳孔边缘区域,最后对瞳孔边缘区域进行拟合处理,得到瞳孔的位置,其中,边缘片段为由第一边缘区域内满足第一预设条件的点集所组成的区域。
容易注意到的是,通过瞳孔的第一参数和光斑的第二参数可以对瞳孔的初始边缘区域进行第一次过滤,可以有效的滤除大部分的光斑;在完成对初始边缘区域的第一次过滤之后,再根据第一边缘区域内的边缘片段对初始边缘区域进行第二次过滤,从而进一步滤除剩余的光斑以及瞳孔边缘区域内的杂乱区域,达到了准确确定瞳孔边缘区域的技术效果。由于精确确定了瞳孔边缘区域,在此基础上,对瞳孔边缘区域进行拟合,便可以达到精确的瞳孔中心,进而达到了在有光斑遮挡的情况下,精确确定瞳孔中心的目的。
由上述内容可知,本申请可以达到在有光斑遮挡的情况下,对瞳孔进行精确定位的目的,进而解决了由于光斑的遮挡导致无法对瞳孔进行精确定位的技术问题。
在一种可选的实施例中,根据第一参数以及第二参数可对瞳孔中心的初始位置进行调整,并根据调整后的初始位置确定圆环,然后使用圆环来对瞳孔的初始边缘进行处理。其中,根据第一参数以及第二参数对初始边缘区域进行处理,得到第一边缘区域,具体包括如下步骤:
步骤S1040,根据第一参数调整瞳孔中心的初始位置;
步骤S1042,基于调整后的初始位置以及瞳孔的半径得到第一圆环;
步骤S1044,根据第一圆环对初始边缘区域进行处理,得到第二边缘区域;
步骤S1046,根据第二预设条件对第二边缘区域进行处理,得到第一边缘区域。
具体的,根据第一参数中的初始瞳孔位置确定初始圆环,再基于初始圆环对瞳孔中心的初始位置进行调整。在得到调整后的瞳孔中心的初始位置之后,以调整后的初始位置为圆心,以瞳孔的半径加上第一数值作为第一圆环的外圆,以瞳孔的半径减去第二数值作为第一圆环的内圆,根据得到的外圆和内圆即可确定第一圆环。使用第一圆环对瞳孔的初始边缘处理可得到包含光斑边缘以及瞳孔附近的杂乱边缘的第二边缘区域,然后再使用第二预设条件对第二边缘区域进行限定,从而得到滤除光斑边缘以及瞳孔外的杂乱边缘的第一边缘区域。
需要说明的是,上述第一数值和第二数值可以相同也可不同,第一数值和第二数值的区域范围可以为但不限于3-4个像素。
此外,还需要说明的是,使用圆环对初始边缘区域进行处理,可得到干扰边缘较少的瞳孔边缘区域。在使用圆环对初始边缘区域进行处理时,瞳孔中心通常与圆环中心重合,由此得到的瞳孔边缘区域包含的干扰边缘比较少。然而,在实际应用中,瞳孔中心与圆环中心通常不重合,如图3所示的一种可选的圆环与瞳孔的位置示意图,瞳孔中心与圆环的中心并不重合,并且,瞳孔边缘并没有完全落入到圆环的区域内,为确保圆环能够对干扰边缘进行有效的滤除,需要对瞳孔中心的初始位置进行调整。其中,根据第一参数调整瞳孔中心的初始位置,具体包括如下步骤:
步骤S1040a,根据瞳孔中心的初始位置确定瞳孔的至少一个候选位置;
步骤S1040b,根据瞳孔的候选位置以及瞳孔的半径得到至少一个第二圆环;
步骤S1040c,确定第二圆环与初始边缘区域的交叉区域;
步骤S1040d,获取在每个交叉区域内射线的数量,其中,以候选位置为端点,每隔预设角度得到射线;
步骤S1040e,确定射线的数量最多的交叉区域,其中,交叉区域对应的候选位置为瞳孔中心的调整后的初始位置。
具体的,在瞳孔中心的初始位置周围的预设区域内确定多个候选点作为瞳孔的候选位置,以每个候选点的位置为圆心,以瞳孔的半径加上第一数值作为圆环的外圆,以瞳孔的半径加上第二数值作为圆环的内圆,由此,可得到多个圆环,即第二圆环。然后以每个候选点作为端点,每隔1°向外产生射线,可产生360条射线。之后,确定在第二圆环与初始边缘区域的交叉区域内射线的数量,射线数量最多的交叉区域所对应的候选位置作为调整后的瞳孔中心的初始位置。
需要说明的是,在得到调整后的瞳孔中心的初始位置之后,根据调整后的初始位置以及瞳孔半径可得到第一圆环,确定第一圆环内的初始边缘区域为第二边缘区域,再对第二边缘区域进行第二预设条件的限定,其中,第二预设条件包括:距离限定条件和灰度限定条件。
具体的,根据距离限定条件对第二边缘区域内的边缘点进行第一过滤处理,并根据灰度限定条件对经过第一过滤处理的第二边缘区域进行第二过滤处理,得到第一边缘区域;或,根据灰度限定条件对第二边缘区域内的边缘点进行第二过滤处理,并根据距离限定条件对经过第二过滤处理的第一边缘区域进行第一过滤处理,得到第一边缘区域。
其中,距离限定条件为:
Distanconglinti≤α*glintradiusi
Distanconglinti为第二边缘区域内的边缘点至第i个光斑中心的位置的距离,glintradiusi为第i个光斑的半径,α为预设常数。
灰度限定条件为:
ConGray≥MinGray*1.5+15
ConGray为第二边缘区域内的边缘点的灰度值,MinGray为图像中的最小灰度值。
需要说明的是,使用距离限定条件可有效滤除光斑的边缘,使用灰度限定条件可有效滤除瞳孔外部的杂乱边缘,至此,光斑的大部分边缘以及瞳孔外部的大部分杂乱边缘均得到了有效地滤除。
此外,还需要说明的是,为使瞳孔外部的杂乱边缘能够有效的滤除,需要对第一边缘进行去除孤立边缘点的操作,并根据第一边缘区域中的边缘片段确定瞳孔边缘区域。其中,根据第一边缘区域中的边缘片段确定瞳孔边缘区域包括如下步骤:
步骤S1060,获取第一边缘区域内的边缘片段;
步骤S1062,基于第一边缘区域内的边缘片段对第一边缘区域进行处理得到第三边缘区域;
步骤S1064,对第三边缘区域的凸包进行处理得到第四边缘区域;
步骤S1066,根据第三边缘区域和第四边缘区域得到瞳孔边缘区域。
具体的,基于第一边缘区域中的边缘片段对第一边缘区域进行处理得到第三边缘区域,包括如下步骤:
步骤A,获取第一边缘区域内的第一边缘片段,其中,第一边缘片段为第一边缘区域内最长的边缘片段;
步骤B,根据第一边缘片段得到第一包围圆;
步骤C,获取第一边缘区域内的第二边缘片段,将第二边缘片段与第一边缘片段进行组合,得到第三边缘片段,其中,第二边缘片段为第一边缘区域内的边缘片段;
步骤D,根据第三边缘片段得到第二包围圆;
步骤E,如果第一包围圆的圆心和半径与第二包围圆的圆心和半径的差值大于预设差值,则去除第二边缘片段,并再次执行步骤C;
步骤F,如果差值小于等于预设差值,则将第三边缘片段更新为第一边缘片段;
重复执行步骤A至步骤F,直至遍历第一边缘区域内的长度小于预设长度的边缘片段为止,其中,根据更新后的第一边缘片段得到第三边缘区域。
在一种可选的实施例中,第一边缘区域包含10个边缘片段,从中选取长度最长的边缘片段作为第一边缘片段,然后确定能够包围第一边缘片段的最小的圆,即得到第一包围圆,同时,获取第一包围圆的圆心以及半径。然后将任意一个第一边缘区域内的其他边缘片段加入到第一边缘片段中,从而得到第三边缘片段。同样,确定能够包围第三边缘片段的最小的圆,即得到第二包围圆。如果第一包围圆的半径与第二包围圆的半径的差值小于等于预设差值,则以第三边缘片段作为最长的边缘片段继续执行步骤B、C和D;如果第一包围圆的半径与第二包围圆的半径的差值大于预设差值,则去除第二边缘片段,同时,从剩余的边缘片段中选择一个边缘片段加入到第一边缘片段中,继续执行步骤B、C和D,直至第一边缘区域内的所有边缘片段均遍历完。
需要说明的是,在得到第三边缘区域后,光斑的边缘以及瞳孔外部的杂乱边缘已全部取出,但瞳孔内部依然存在一些杂乱边缘。瞳孔内部的杂乱边缘对瞳孔的拟合也会产生影响,因此,还需要对第三边缘区域进行进一步过滤。其中,可通过对第三边缘区域的凸包进行处理,已得到去除瞳孔内部杂乱边缘的第四边缘区域,具体方法如下:
步骤S1064a,确定第三边缘区域的凸包;
步骤S1064b,根据第三边缘区域的凸包提取第三边缘区域的边缘;
步骤S1064c,根据第三边缘区域的边缘确定第四边缘区域。
需要说明的是,图像处理设备可获取第三边缘区域的凸包,然后提取第三边缘区域的凸包的边缘,该凸包的边缘即为第四边缘区域。
另外,在得到第三边缘区域之后,根据第三边缘区域和第四边缘区域即可得到瞳孔边缘区域,具体如下:
步骤S1066a,对第四边缘区域进行形态学处理,得到第五边缘区域;
步骤S1066b,获取第三边缘区域和第五边缘区域的重合区域;
步骤S1066c,根据重合区域确定瞳孔边缘区域。
需要说明的是,图像处理中的形态学处理的运算包括膨胀、腐蚀、开运算以及闭运算。
具体的,以预设个像素为单位对第四边缘区域的外部和内部分别进行膨胀处理,从而得到第五边缘区域,然后,对第三边缘区域和第五边缘区域进行求交集的操作,得到重合区域,该重合区域即为最终确定的瞳孔边缘区域。
此外,还需要说明的是,上述操作可有效去除瞳孔内部的杂乱边缘。在得到瞳孔边缘区域之后,还需要对其进行拟合处理,才能得到瞳孔边缘的轮廓,进而与瞳孔边缘的轮廓最相近的圆的圆心即为瞳孔位置,圆的半径即为瞳孔半径。其中,在瞳孔的半径大于预设半径的情况下,对瞳孔边缘区域进行椭圆拟合处理,得到瞳孔的位置;在瞳孔的半径小于等于预设半径的情况下,对瞳孔边缘区域进行圆拟合处理,得到瞳孔的位置。容易注意到的是,针对不同的瞳孔半径进行不同形式的数据拟合,可以得到更为准确的拟合结果,进而,可以对瞳孔位置进行精确定位。
实施例2
根据本发明实施例,提供了一种确定瞳孔位置的装置实施例,其中,图4是根据本发明实施例的确定瞳孔位置的装置结构示意图,如图4所示,该装置包括:获取模块401、处理模块403、确定模块405以及拟合模块407。
其中,获取模块401,用于获取图像中瞳孔的第一参数、瞳孔的初始边缘区域以及图像中光斑的第二参数;处理模块403,用于根据第一参数以及第二参数对初始边缘区域进行处理,得到第一边缘区域;确定模块405,用于根据第一边缘区域内的边缘片段确定瞳孔边缘区域,其中,边缘片段为由第一边缘区域内满足预设条件的点集所组成的区域;拟合模块407,用于对瞳孔边缘区域进行拟合处理,得到瞳孔的位置。
需要说明的是,上述获取模块401、处理模块403、确定模块405以及拟合模块407对应于实施例1中的步骤S202至步骤S208,四个模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例1所公开的内容。
在一种可选的实施例中,第一参数至少包括如下之一:瞳孔中心的初始位置以及瞳孔的半径,第二参数至少包括如下之一:光斑中心的位置以及光斑的半径。
在一种可选的实施例中,处理模块包括:调整模块、第一处理模块、第二处理模块以及第三处理模块。其中,调整模块,用于根据第一参数调整瞳孔中心的初始位置;第一处理模块,用于基于调整后的初始位置以及瞳孔的半径得到第一圆环;第二处理模块,用于根据第一圆环对初始边缘区域进行处理,得到第二边缘区域;第三处理模块,用于根据第二预设条件对第二边缘区域进行处理,得到第一边缘区域。
需要说明的是,上述调整模块、第一处理模块、第二处理模块以及第三处理模块对应于实施例1中的步骤S1040至步骤S1046,四个模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例1所公开的内容。
在一种可选的实施例中,调整模块包括:第一确定模块、第四处理模块、第二确定模块、第一获取模块以及第四确定模块。其中,第一确定模块,用于根据瞳孔中心的初始位置确定瞳孔的至少一个候选位置;第四处理模块,用于根据瞳孔的候选位置以及瞳孔的半径得到至少一个第二圆环;第二确定模块,用于确定第二圆环与初始边缘区域的交叉区域;第一获取模块,用于获取在每个交叉区域内射线的数量,其中,以候选位置为端点,每隔预设角度得到射线;第四确定模块,用于确定射线的数量最多的交叉区域,其中,交叉区域对应的候选位置为瞳孔中心的调整后的初始位置。
需要说明的是,上述第一确定模块、第四处理模块、第二确定模块、第一获取模块以及第四确定模块对应于实施例1中的步骤S1040a至步骤S1040e,五个模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例1所公开的内容。
在一种可选的实施例中,第二预设条件包括:距离限定条件和灰度限定条件,其中,第三处理模块包括:第一过滤模块或第二过滤模块。其中,第一过滤模块,用于根据距离限定条件对第二边缘区域内的边缘点进行第一过滤处理,并根据灰度限定条件对经过第一过滤处理的第二边缘区域进行第二过滤处理,得到第一边缘区域;第二过滤模块,用于根据灰度限定条件对第二边缘区域内的边缘点进行第二过滤处理,并根据距离限定条件对经过第二过滤处理的第一边缘区域进行第一过滤处理,得到第一边缘区域。
在一种可选的实施例中,距离限定条件为:
Distanconglinti≤α*glintradiusi
其中,Distanconglinti为第二边缘区域内的边缘点至第i个光斑中心的位置的距离,glintradiusi为第i个光斑的半径,α为预设常数。
在一种可选的实施例中,灰度限定条件为:
ConGray≥MinGray*1.5+15
其中,ConGray为第二边缘区域内的边缘点的灰度值,MinGray为图像中的最小灰度值。
在一种可选的实施例中,确定模块包括:第二获取模块、第五处理模块、第六处理模块以及第七处理模块。其中,第二获取模块,用于获取第一边缘区域内的边缘片段;第五处理模块,用于基于第一边缘区域内的边缘片段对第一边缘区域进行处理得到第三边缘区域;第六处理模块,用于对第三边缘区域的凸包进行处理得到第四边缘区域;第七处理模块,用于根据第三边缘区域和第四边缘区域得到瞳孔边缘区域。
需要说明的是,上述第二获取模块、第五处理模块、第六处理模块以及第七处理模块对应于实施例1中的步骤S1060至步骤S1066,四个模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例1所公开的内容。
在一种可选的实施例中,第五处理模块执行如下步骤:步骤A,获取第一边缘区域内的第一边缘片段,其中,第一边缘片段为第一边缘区域内最长的边缘片段;步骤B,根据第一边缘片段得到第一包围圆;步骤C,获取第一边缘区域内的第二边缘片段,将第二边缘片段与第一边缘片段进行组合,得到第三边缘片段,其中,第二边缘片段为第一边缘区域内的边缘片段;步骤D,根据第三边缘片段得到第二包围圆;步骤E,如果第一包围圆的圆心和半径与第二包围圆的圆心和半径的差值大于预设差值,则去除第二边缘片段,并再次执行步骤C;步骤F,如果差值小于等于预设差值,则将第三边缘片段更新为第一边缘片段;重复执行步骤A至步骤F,直至遍历第一边缘区域内的长度小于预设长度的边缘片段为止,其中,根据更新后的第一边缘片段得到第三边缘区域。
在一种可选的实施例中,第六处理模块包括:第五确定模块、提取模块以及第六确定模块。其中,第五确定模块,用于确定第三边缘区域的凸包;提取模块,用于根据第三边缘区域的凸包提取第三边缘区域的边缘;第六确定模块,用于根据第三边缘区域的边缘确定第四边缘区域。
需要说明的是,上述第五确定模块、提取模块以及第六确定模块对应于实施例1中的步骤S1064a至步骤S1064c,三个模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例1所公开的内容。
在一种可选的实施例中,第七处理模块包括:第八处理模块、第三获取模块以及第七确定模块。其中,第八处理模块,用于对第四边缘区域进行形态学处理,得到第五边缘区域;第三获取模块,用于获取第三边缘区域和第五边缘区域的重合区域;第七确定模块,用于根据重合区域确定瞳孔边缘区域。
需要说明的是,上述第八处理模块、第三获取模块以及第七确定模块对应于实施例1中的步骤S1066a至步骤S1066c,三个模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例1所公开的内容。
在一种可选的实施例中,拟合模块包括:第一拟合模块以及第二拟合模块。其中,第一拟合模块,用于在瞳孔的半径大于预设半径的情况下,对瞳孔边缘区域进行椭圆拟合处理,得到瞳孔的位置;第二拟合模块,用于在瞳孔的半径小于等于预设半径的情况下,对瞳孔边缘区域进行圆拟合处理,得到瞳孔的位置。
实施例3
根据本发明实施例的另一方面,还提供了一种存储介质,该存储介质包括存储的程序,其中,程序执行上述实施例1中的过滤光斑的方法。
实施例4
根据本发明实施例的另一方面,还提供了一种处理器,该处理器用于运行程序,其中,程序运行时执行上述实施例1中的过滤光斑的方法。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (20)

1.一种确定瞳孔位置的方法,其特征在于,包括:
获取图像中瞳孔的第一参数、所述瞳孔的初始边缘区域以及所述图像中光斑的第二参数;
根据所述第一参数以及所述第二参数对所述初始边缘区域进行处理,得到第一边缘区域;
根据所述第一边缘区域内的边缘片段确定瞳孔边缘区域,其中,所述边缘片段为由所述第一边缘区域内满足第一预设条件的点集所组成的区域;
对所述瞳孔边缘区域进行拟合处理,得到所述瞳孔的位置。
2.根据权利要求1所述的方法,其特征在于,所述第一参数至少包括如下之一:瞳孔中心的初始位置以及所述瞳孔的半径,所述第二参数至少包括如下之一:光斑中心的位置以及所述光斑的半径。
3.根据权利要求2所述的方法,其特征在于,根据所述第一参数以及所述第二参数对所述初始边缘区域进行处理,得到第一边缘区域,包括:
根据所述第一参数调整所述瞳孔中心的初始位置;
基于调整后的初始位置以及所述瞳孔的半径得到第一圆环;
根据所述第一圆环对所述初始边缘区域进行处理,得到第二边缘区域;
根据第二预设条件对所述第二边缘区域进行处理,得到所述第一边缘区域。
4.根据权利要求3所述的方法,其特征在于,根据所述第一参数调整所述瞳孔中心的初始位置,包括:
根据所述瞳孔中心的初始位置确定所述瞳孔的至少一个候选位置;
根据所述瞳孔的候选位置以及所述瞳孔的半径得到至少一个第二圆环;
确定所述第二圆环与所述初始边缘区域的交叉区域;
获取在每个所述交叉区域内射线的数量,其中,以所述候选位置为端点,每隔预设角度得到所述射线;
确定所述射线的数量最多的交叉区域,其中,所述交叉区域对应的候选位置为所述瞳孔中心的调整后的初始位置。
5.根据权利要求3所述的方法,其特征在于,所述第二预设条件包括:距离限定条件和灰度限定条件,其中,根据第二预设条件对所述第二边缘区域进行处理,得到所述第一边缘区域,包括:
根据所述距离限定条件对所述第二边缘区域内的边缘点进行第一过滤处理,并根据所述灰度限定条件对经过所述第一过滤处理的第二边缘区域进行第二过滤处理,得到所述第一边缘区域;或,
根据所述灰度限定条件对所述第二边缘区域内的边缘点进行第二过滤处理,并根据所述距离限定条件对经过所述第二过滤处理的第一边缘区域进行第一过滤处理,得到所述第一边缘区域。
6.根据权利要求2所述的方法,其特征在于,根据所述第一边缘区域内的边缘片段确定瞳孔边缘区域,包括:
获取所述第一边缘区域内的边缘片段;
基于所述第一边缘区域内的边缘片段对所述第一边缘区域进行处理得到第三边缘区域;
对所述第三边缘区域的凸包进行处理得到第四边缘区域;
根据所述第三边缘区域和所述第四边缘区域得到所述瞳孔边缘区域。
7.根据权利要求6所述的方法,其特征在于,基于所述第一边缘区域中的边缘片段对所述第一边缘区域进行处理得到第三边缘区域,包括:
步骤A,获取所述第一边缘区域内的第一边缘片段,其中,所述第一边缘片段为所述第一边缘区域内最长的边缘片段;
步骤B,根据所述第一边缘片段得到第一包围圆;
步骤C,获取所述第一边缘区域内的第二边缘片段,将第二边缘片段与所述第一边缘片段进行组合,得到第三边缘片段,其中,所述第二边缘片段为所述第一边缘区域内的边缘片段;
步骤D,根据所述第三边缘片段得到第二包围圆;
步骤E,如果所述第一包围圆的圆心和半径与所述第二包围圆的圆心和半径的差值大于预设差值,则去除所述第二边缘片段,并再次执行步骤C;
步骤F,如果所述差值小于等于所述预设差值,则将所述第三边缘片段更新为第一边缘片段;
重复执行所述步骤A至步骤F,直至遍历所述第一边缘区域内的长度小于预设长度的边缘片段为止,其中,根据更新后的第一边缘片段得到所述第三边缘区域。
8.根据权利要求6所述的方法,其特征在于,对所述第三边缘区域的凸包进行处理得到第四边缘区域,包括:
确定所述第三边缘区域的凸包;
根据第三边缘区域的凸包提取所述第三边缘区域的边缘;
根据所述第三边缘区域的边缘确定所述第四边缘区域。
9.根据权利要求6所述的方法,其特征在于,根据所述第三边缘区域和所述第四边缘区域得到所述瞳孔边缘区域,包括:
对所述第四边缘区域进行形态学处理,得到第五边缘区域;
获取所述第三边缘区域和所述第五边缘区域的重合区域;
根据所述重合区域确定所述瞳孔边缘区域。
10.根据权利要求2所述的方法,其特征在于,对所述瞳孔边缘区域进行拟合处理,得到所述瞳孔的位置,包括:
在所述瞳孔的半径大于预设半径的情况下,对所述瞳孔边缘区域进行椭圆拟合处理,得到所述瞳孔的位置;
在所述瞳孔的半径小于等于所述预设半径的情况下,对所述瞳孔边缘区域进行圆拟合处理,得到所述瞳孔的位置。
11.一种确定瞳孔位置的装置,其特征在于,包括:
获取模块,用于获取图像中瞳孔的第一参数、所述瞳孔的初始边缘区域以及所述图像中光斑的第二参数;
处理模块,用于根据所述第一参数以及所述第二参数对所述初始边缘区域进行处理,得到第一边缘区域;
确定模块,用于根据所述第一边缘区域内的边缘片段确定瞳孔边缘区域,其中,所述边缘片段为由所述第一边缘区域内满足预设条件的点集所组成的区域;
拟合模块,用于对所述瞳孔边缘区域进行拟合处理,得到所述瞳孔的位置。
12.根据权利要求11所述的装置,其特征在于,所述第一参数至少包括如下之一:瞳孔中心的初始位置以及所述瞳孔的半径,所述第二参数至少包括如下之一:光斑中心的位置以及所述光斑的半径。
13.根据权利要求12所述的装置,其特征在于,所述处理模块包括:
调整模块,用于根据所述第一参数调整所述瞳孔中心的初始位置;
第一处理模块,用于基于调整后的初始位置以及所述瞳孔的半径得到第一圆环;
第二处理模块,用于根据所述第一圆环对所述初始边缘区域进行处理,得到第二边缘区域;
第三处理模块,用于根据第二预设条件对所述第二边缘区域进行处理,得到所述第一边缘区域。
14.根据权利要求13所述的装置,其特征在于,所述调整模块包括:
第一确定模块,用于根据所述瞳孔中心的初始位置确定所述瞳孔的至少一个候选位置;
第四处理模块,用于根据所述瞳孔的候选位置以及所述瞳孔的半径得到至少一个第二圆环;
第二确定模块,用于确定所述第二圆环与所述初始边缘区域的交叉区域;
第一获取模块,用于获取在每个所述交叉区域内射线的数量,其中,以所述候选位置为端点,每隔预设角度得到所述射线;
第四确定模块,用于确定所述射线的数量最多的交叉区域,其中,所述交叉区域对应的候选位置为所述瞳孔中心的调整后的初始位置。
15.根据权利要求13所述的装置,其特征在于,所述第二预设条件包括:距离限定条件和灰度限定条件,其中,所述第三处理模块包括:
第一过滤模块,用于根据所述距离限定条件对所述第二边缘区域内的边缘点进行第一过滤处理,并根据所述灰度限定条件对经过所述第一过滤处理的第二边缘区域进行第二过滤处理,得到所述第一边缘区域;或,
第二过滤模块,用于根据所述灰度限定条件对所述第二边缘区域内的边缘点进行第二过滤处理,并根据所述距离限定条件对经过所述第二过滤处理的第一边缘区域进行第一过滤处理,得到所述第一边缘区域。
16.根据权利要求12所述的装置,其特征在于,所述确定模块包括:
第二获取模块,用于获取所述第一边缘区域内的边缘片段;
第五处理模块,用于基于所述第一边缘区域内的边缘片段对所述第一边缘区域进行处理得到第三边缘区域;
第六处理模块,用于对所述第三边缘区域的凸包进行处理得到第四边缘区域;
第七处理模块,用于根据所述第三边缘区域和所述第四边缘区域得到所述瞳孔边缘区域。
17.根据权利要求16所述的装置,其特征在于,所述第五处理模块执行如下步骤:
步骤A,获取所述第一边缘区域内的第一边缘片段,其中,所述第一边缘片段为所述第一边缘区域内最长的边缘片段;
步骤B,根据所述第一边缘片段得到第一包围圆;
步骤C,获取所述第一边缘区域内的第二边缘片段,将第二边缘片段与所述第一边缘片段进行组合,得到第三边缘片段,其中,所述第二边缘片段为所述第一边缘区域内的边缘片段;
步骤D,根据所述第三边缘片段得到第二包围圆;
步骤E,如果所述第一包围圆的圆心和半径与所述第二包围圆的圆心和半径的差值大于预设差值,则去除所述第二边缘片段,并再次执行步骤C;
步骤F,如果所述差值小于等于所述预设差值,则将所述第三边缘片段更新为第一边缘片段;
重复执行所述步骤A至步骤F,直至遍历所述第一边缘区域内的长度小于预设长度的边缘片段为止,其中,根据更新后的第一边缘片段得到所述第三边缘区域。
18.根据权利要求16所述的装置,其特征在于,所述第六处理模块包括:
第五确定模块,用于确定所述第三边缘区域的凸包;
提取模块,用于根据第三边缘区域的凸包提取所述第三边缘区域的边缘;
第六确定模块,用于根据所述第三边缘区域的边缘确定所述第四边缘区域。
19.根据权利要求16所述的装置,其特征在于,所述第七处理模块包括:
第八处理模块,用于对所述第四边缘区域进行形态学处理,得到第五边缘区域;
第三获取模块,用于获取所述第三边缘区域和所述第五边缘区域的重合区域;
第七确定模块,用于根据所述重合区域确定所述瞳孔边缘区域。
20.根据权利要求12所述的装置,其特征在于,所述拟合模块包括:
第一拟合模块,用于在所述瞳孔的半径大于预设半径的情况下,对所述瞳孔边缘区域进行椭圆拟合处理,得到所述瞳孔的位置;
第二拟合模块,用于在所述瞳孔的半径小于等于所述预设半径的情况下,对所述瞳孔边缘区域进行圆拟合处理,得到所述瞳孔的位置。
CN201711455783.2A 2017-12-27 2017-12-27 确定瞳孔位置的方法和装置 Active CN108280403B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201711455783.2A CN108280403B (zh) 2017-12-27 2017-12-27 确定瞳孔位置的方法和装置
US16/348,872 US10853967B2 (en) 2017-12-27 2018-12-12 Method and apparatus for determining pupil position
PCT/CN2018/120677 WO2019128715A1 (zh) 2017-12-27 2018-12-12 确定瞳孔位置的方法和装置
TW107147366A TWI692729B (zh) 2017-12-27 2018-12-27 確定瞳孔位置的方法和裝置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711455783.2A CN108280403B (zh) 2017-12-27 2017-12-27 确定瞳孔位置的方法和装置

Publications (2)

Publication Number Publication Date
CN108280403A true CN108280403A (zh) 2018-07-13
CN108280403B CN108280403B (zh) 2020-08-04

Family

ID=62802463

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711455783.2A Active CN108280403B (zh) 2017-12-27 2017-12-27 确定瞳孔位置的方法和装置

Country Status (4)

Country Link
US (1) US10853967B2 (zh)
CN (1) CN108280403B (zh)
TW (1) TWI692729B (zh)
WO (1) WO2019128715A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109145821A (zh) * 2018-08-16 2019-01-04 新智数字科技有限公司 一种对人眼图像中瞳孔图像进行定位的方法及装置
WO2019128715A1 (zh) * 2017-12-27 2019-07-04 北京七鑫易维信息技术有限公司 确定瞳孔位置的方法和装置
CN110555875A (zh) * 2019-07-25 2019-12-10 深圳壹账通智能科技有限公司 瞳孔半径的检测方法、装置、计算机设备和存储介质
CN111339982A (zh) * 2020-03-05 2020-06-26 西北工业大学 一种基于特征的多级瞳孔中心定位技术实现方法
CN114758407A (zh) * 2022-06-17 2022-07-15 慧眼识真(北京)电子科技有限公司 一种基于仿射变换的虹膜视角矫正方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112464829B (zh) * 2020-12-01 2024-04-09 中航航空电子有限公司 一种瞳孔定位方法、设备、存储介质及视线追踪系统
CN113190117B (zh) * 2021-04-29 2023-02-03 南昌虚拟现实研究院股份有限公司 瞳孔、光斑定位方法、数据计算方法及相关装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103530618A (zh) * 2013-10-23 2014-01-22 哈尔滨工业大学深圳研究生院 一种基于角膜反射的非接触式视线追踪方法
CN103679180A (zh) * 2012-09-19 2014-03-26 武汉元宝创意科技有限公司 一种基于单摄像头单光源的视线追踪方法
CN104463159A (zh) * 2014-12-31 2015-03-25 北京释码大华科技有限公司 一种定位虹膜的图像处理方法和装置
CN105094337A (zh) * 2015-08-19 2015-11-25 华南理工大学 一种基于虹膜和瞳孔的三维视线估计方法
CN106919933A (zh) * 2017-03-13 2017-07-04 重庆贝奥新视野医疗设备有限公司 瞳孔定位的方法及装置
CN107871322A (zh) * 2016-09-27 2018-04-03 北京眼神科技有限公司 虹膜图像分割方法和装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6980691B2 (en) * 2001-07-05 2005-12-27 Corel Corporation Correction of “red-eye” effects in images
JP2007144113A (ja) * 2005-10-25 2007-06-14 Olympus Corp 生体情報収集及び提示装置並びに瞳孔径測定装置
CN101211413A (zh) * 2006-12-28 2008-07-02 台正 一种基于视频图像处理的快速瞳孔中心定位的方法
US9892315B2 (en) * 2013-05-10 2018-02-13 Sension, Inc. Systems and methods for detection of behavior correlated with outside distractions in examinations
TW201533609A (zh) * 2014-02-20 2015-09-01 Utechzone Co Ltd 以輔助燈光相對位置為基礎之瞳孔定位方法、其系統以及其電腦程式產品
US9552061B2 (en) * 2014-03-26 2017-01-24 Microsoft Technology Licensing, Llc Eye gaze tracking using binocular fixation constraints
US9355315B2 (en) * 2014-07-24 2016-05-31 Microsoft Technology Licensing, Llc Pupil detection
TWI577327B (zh) * 2014-08-14 2017-04-11 由田新技股份有限公司 瞳孔定位方法與裝置及其電腦程式產品
CN106056092B (zh) * 2016-06-08 2019-08-20 华南理工大学 基于虹膜与瞳孔的用于头戴式设备的视线估计方法
CN106022315B (zh) 2016-06-17 2019-07-12 北京极创未来科技有限公司 一种用于虹膜识别的瞳孔中心定位方法
CN106203358B (zh) 2016-07-14 2019-11-19 北京无线电计量测试研究所 一种虹膜定位方法和设备
CN108280403B (zh) 2017-12-27 2020-08-04 北京七鑫易维信息技术有限公司 确定瞳孔位置的方法和装置
CN109635761B (zh) * 2018-12-18 2021-09-10 北京七鑫易维信息技术有限公司 一种虹膜识别图像确定方法、装置、终端设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103679180A (zh) * 2012-09-19 2014-03-26 武汉元宝创意科技有限公司 一种基于单摄像头单光源的视线追踪方法
CN103530618A (zh) * 2013-10-23 2014-01-22 哈尔滨工业大学深圳研究生院 一种基于角膜反射的非接触式视线追踪方法
CN104463159A (zh) * 2014-12-31 2015-03-25 北京释码大华科技有限公司 一种定位虹膜的图像处理方法和装置
CN105094337A (zh) * 2015-08-19 2015-11-25 华南理工大学 一种基于虹膜和瞳孔的三维视线估计方法
CN107871322A (zh) * 2016-09-27 2018-04-03 北京眼神科技有限公司 虹膜图像分割方法和装置
CN106919933A (zh) * 2017-03-13 2017-07-04 重庆贝奥新视野医疗设备有限公司 瞳孔定位的方法及装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019128715A1 (zh) * 2017-12-27 2019-07-04 北京七鑫易维信息技术有限公司 确定瞳孔位置的方法和装置
US10853967B2 (en) 2017-12-27 2020-12-01 Beijing 7Invensun Technology Co., Ltd. Method and apparatus for determining pupil position
CN109145821A (zh) * 2018-08-16 2019-01-04 新智数字科技有限公司 一种对人眼图像中瞳孔图像进行定位的方法及装置
CN109145821B (zh) * 2018-08-16 2020-11-06 新智数字科技有限公司 一种对人眼图像中瞳孔图像进行定位的方法及装置
CN110555875A (zh) * 2019-07-25 2019-12-10 深圳壹账通智能科技有限公司 瞳孔半径的检测方法、装置、计算机设备和存储介质
WO2021012370A1 (zh) * 2019-07-25 2021-01-28 深圳壹账通智能科技有限公司 瞳孔半径的检测方法、装置、计算机设备和存储介质
CN111339982A (zh) * 2020-03-05 2020-06-26 西北工业大学 一种基于特征的多级瞳孔中心定位技术实现方法
CN114758407A (zh) * 2022-06-17 2022-07-15 慧眼识真(北京)电子科技有限公司 一种基于仿射变换的虹膜视角矫正方法
CN114758407B (zh) * 2022-06-17 2022-09-20 慧眼识真(北京)电子科技有限公司 一种基于仿射变换的虹膜视角矫正方法

Also Published As

Publication number Publication date
CN108280403B (zh) 2020-08-04
TWI692729B (zh) 2020-05-01
TW201928759A (zh) 2019-07-16
WO2019128715A1 (zh) 2019-07-04
US10853967B2 (en) 2020-12-01
US20200320735A1 (en) 2020-10-08

Similar Documents

Publication Publication Date Title
CN108280403A (zh) 确定瞳孔位置的方法和装置
AU2019204639B2 (en) Image and feature quality, image enhancement and feature extraction for ocular-vascular and facial recognition, and fusing ocular-vascular with facial and/or sub-facial information for biometric systems
CN106203358B (zh) 一种虹膜定位方法和设备
CN105046250B (zh) 人脸识别的眼镜消除方法
CN108073889A (zh) 虹膜区域提取的方法和设备
CN107844736A (zh) 虹膜定位方法和装置
CN105991593B (zh) 一种识别用户风险的方法及装置
US20140294252A1 (en) Quality metrics for biometric authentication
JP2009523266A (ja) 目に関して取得される画像中の虹彩を表す画素を特定する方法
CN105868731A (zh) 双目虹膜特征获取方法及装置、身份验证方法及系统
CN109389560A (zh) 一种自适应加权滤波图像降噪方法、装置及图像处理设备
CN109635669A (zh) 图像分类方法、装置及分类模型的训练方法、装置
Roy et al. Segmentation of unideal iris images using game theory
CN105224936B (zh) 一种虹膜特征信息提取方法和装置
Paderes A comparative review of biometric security systems
Kim et al. Facial landmark extraction scheme based on semantic segmentation
CN106920266A (zh) 验证码的背景生成方法和装置
CN112818899A (zh) 人脸图像处理方法、装置、计算机设备和存储介质
Gino Sophia et al. Zadeh max–min composition fuzzy rule for dominated pixel values in iris localization
CN109034004A (zh) 一种基于人脸识别的身份核验方法及装置
Zhong et al. VeinDeep: Smartphone unlock using vein patterns
CN115620117A (zh) 一种用于网络访问权限认证的人脸信息加密方法及系统
CN109784157A (zh) 一种图像处理方法、装置及系统
CN110502996A (zh) 一种面向模糊指静脉图像的动态识别方法
Pichai et al. Human skin detection in digital images using multi colour scheme system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant