CN108648201A - 瞳孔定位方法及装置、存储介质、电子设备 - Google Patents

瞳孔定位方法及装置、存储介质、电子设备 Download PDF

Info

Publication number
CN108648201A
CN108648201A CN201810456220.3A CN201810456220A CN108648201A CN 108648201 A CN108648201 A CN 108648201A CN 201810456220 A CN201810456220 A CN 201810456220A CN 108648201 A CN108648201 A CN 108648201A
Authority
CN
China
Prior art keywords
pupil
boundary
bianry image
image
match points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810456220.3A
Other languages
English (en)
Inventor
薛鸿臻
孙建康
楚明磊
陈丽莉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Beijing BOE Optoelectronics Technology Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Beijing BOE Optoelectronics Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd, Beijing BOE Optoelectronics Technology Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201810456220.3A priority Critical patent/CN108648201A/zh
Publication of CN108648201A publication Critical patent/CN108648201A/zh
Priority to US16/288,293 priority patent/US20190347824A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本公开涉及图像处理技术领域,尤其涉及一种瞳孔定位方法及装置、存储介质、电子设备。该方法可以包括:从待处理图片中的目标瞳孔边界上获取多个拟合点,并将多个拟合点按照预设方向移动预设距离后得到多个目标拟合点,结合克拉默法则对多个目标拟合点进行椭圆拟合得到一椭圆和该椭圆的中心点,将中心点按照与预设方向相反的方向移动预设距离,并将移动后的中心点确定为瞳孔。本公开可以减少FPGA的运算位宽且能够在FPGA上运行,同时,大大减少了运算误差、运算量和存储空间,提高了运算的效率和准确率,使得瞳孔的定位更加精确。

Description

瞳孔定位方法及装置、存储介质、电子设备
技术领域
本公开涉及图像处理技术领域,尤其涉及一种瞳孔定位方法及装置、存储介质、电子设备。
背景技术
对眼睛及其运动的研究是了解人类视觉机制、理解人的情感和行为以及基于眼动的人机交互等问题的关键。瞳孔检测与跟踪是人脸识别、表情识别、眼动分析、虹膜识别等技术的必要步骤,涉及图像处理、计算机视觉、模式识别等多个学科。
目前,瞳孔定位算法非常普遍,且定位非常准确。然而现有的瞳孔定位算法的计算量大,且对于存储空间的需求较高,因此,现有的瞳孔定位算法都运行在PC端,而无法运行在FPGA上。若要运行在FPGA上,需要计算量较小且对存储空间要求不高的瞳孔定位算法。
因此,本公开需要提供一种可运行在FPGA上的瞳孔定位算法。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种瞳孔定位方法及装置、存储介质、电子设备,进而至少在一定程度上克服无法在FPGA上运行瞳孔定位算法等问题。
根据本公开的一个方面,提供一种瞳孔定位方法,包括:
获取待处理图像,并对所述待处理图像进行预处理得到二值图像;
对所述二值图像中的瞳孔候选区域进行边界提取得到与各所述瞳孔候选区域对应的瞳孔候选边界;
计算各所述瞳孔候选边界的长度,并将长度最长的所述瞳孔候选边界确定为目标瞳孔边界;
在所述目标瞳孔边界上获取多个拟合点,并将多个所述拟合点按照一预设方向移动一预设距离得到多个目标拟合点;
结合克拉默法则对多个所述目标拟合点进行椭圆拟合得到一椭圆,并获取所述椭圆的中心点;
将所述中心点按照与所述预设方向相反的方向移动所述预设距离,并将移动后的中心点确定为瞳孔。
在本公开的一种示例性实施例中,所述对所述待处理图像进行预处理得到二值图像包括:
获取所述待处理图像的灰度图像;
对所述灰度图像进行高斯滤波,以得到去噪后的所述灰度图像;
通过一灰度阈值将去噪后的所述灰度图像转化为二值图像。
在本公开的一种示例性实施例中,所述对所述二值图像中的瞳孔候选区域进行边界提取得到与各所述瞳孔候选区域对应的瞳孔候选边界包括:
通过一边界检测算法分别提取各所述瞳孔候选区域的边界点;
通过对各所述瞳孔候选区域的边界点进行连通域分析,得到与各所述瞳孔候选区域对应的瞳孔候选边界。
在本公开的一种示例性实施例中,所述在所述目标瞳孔边界上获取多个拟合点包括:
将所述目标瞳孔边界等分为多个边界段,分别在各所述边界段上选取一个所述拟合点,以得到多个所述拟合点,其中,所述边界段的数量至少为六个。
在本公开的一种示例性实施例中,所述对所述二值图像中的瞳孔候选区域进行边界提取包括:
对所述二值图像进行曝光处理,以得到曝光后的所述二值图像;
对曝光后的所述二值图像中的瞳孔候选区域进行边界提取。
在本公开的一种示例性实施例中,所述对曝光后的所述二值图像中的瞳孔候选区域进行边界提取包括:
对曝光后的所述二值图像进行开运算,得到开运算后的所述二值图像;
对开运算后的所述二值图像中的瞳孔候选区域进行边界提取。
在本公开的一种示例性实施例中,所述对所述二值图像中的瞳孔候选区域进行边界提取包括:
对所述二值图像进行开运算,得到开运算后的所述二值图像;
对开运算后的所述二值图像中的瞳孔候选区域进行边界提取。
根据本公开的一个方面,提供一种瞳孔定位装置,包括:
处理模块,用于获取待处理图像,并对所述待处理图像进行预处理得到二值图像;
提取模块,用于对所述二值图像中的瞳孔候选区域进行边界提取得到与各所述瞳孔候选区域对应的瞳孔候选边界;
计算模块,用于计算各所述瞳孔候选边界的长度,并将长度最长的所述瞳孔候选边界确定为目标瞳孔边界;
获取模块,用于在所述目标瞳孔边界上获取多个拟合点,并将多个所述拟合点按照一预设方向移动一预设距离得到多个目标拟合点;
拟合模块,用于结合克拉默法则对多个所述目标拟合点进行椭圆拟合得到一椭圆,并获取所述椭圆的中心点;
确定模块,用于将所述中心点按照与所述预设方向相反的方向移动所述预设距离,并将移动后的中心点确定为瞳孔。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的瞳孔定位方法。
根据本公开的一个方面,提供一种电子设备,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行上述中任意一项所述的瞳孔定位方法。
本公开一种示例实施例提供的瞳孔定位方法及装置、存储介质、电子设备。从待处理图片中的目标瞳孔边界上获取多个拟合点,并将多个拟合点按照预设方向移动预设距离后得到多个目标拟合点,结合克拉默法则对多个目标拟合点进行椭圆拟合得到一椭圆和该椭圆的中心点,将中心点按照与预设方向相反的方向移动预设距离,并将移动后的中心点确定为瞳孔。一方面,将多个拟合点按照预设方向移动预设距离后得到多个目标拟合点,并对多个目标拟合点进行椭圆拟合,相比于直接对多个拟合点进行椭圆拟合,降低了计算量,同时也大大的减少了FPGA的运算位宽;另一方面,由于FPGA无法进行浮点数的运算,而结合克拉默法则对多个目标拟合点进行椭圆拟合的过程中不会产生浮点数,因此,结合克拉默法则对多个目标拟合点进行椭圆拟合使得该瞳孔定位方法能够在FPGA上运行,同时,由于在运算的过程中不产生浮点数,相对于产生浮点数的运算方法,避免出现对浮点数不断进行运算而导致的运算误差不断积累的问题,大大减少了运算误差、运算量和存储空间,提高了运算的效率和准确率,使得瞳孔的定位更加精确;又一方面,又由于在对多个目标拟合点拟合之后,将获得中心点按照与预设方向相反的方向移动预设距离,确保了最终得到中心点的位置的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
通过参照附图来详细描述其示例性实施例,本公开的上述和其它特征及优点将变得更加明显。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1为本公开一种瞳孔定位方法的流程图;
图2为本公开一示例性实施例中提供的获取二值图像的流程图;
图3为本公开一示例性实施例中提供的二值图像的示意图;
图4为本公开一示例性实施例中提供的开运算后的二值图像的示意图;
图5为本公开一示例性实施例中提供的对图4中的瞳孔候选区域进行边界提取后的示意图;
图6为本公开一示例性实施例中提供的获取拟合点的示意图;
图7为本公开一种瞳孔定位装置的框图;
图8为本公开示一示例性实施例中的电子设备的模块示意图;
图9为本公开示一示例性实施例中的程序产品示意图。
具体实施方式
现在将参考附图更全面地描述示例实施例。然而,示例实施例能够以多种形式实施,且不应被理解为限于在此阐述的实施例;相反,提供这些实施例使得本公开将全面和完整,并将示例实施例的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有所述特定细节中的一个或更多,或者可以采用其它的方法、组元、材料、装置、步骤等。在其它情况下,不详细示出或描述公知结构、方法、装置、实现、材料或者操作以避免模糊本公开的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个软件硬化的模块中实现这些功能实体或功能实体的一部分,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本示例性实施例中首先公开了一种瞳孔定位方法,参照图1所示,所述瞳孔定位方法可以包括以下步骤:
步骤S110、获取待处理图像,并对所述待处理图像进行预处理得到二值图像;
步骤S120、对所述二值图像中的瞳孔候选区域进行边界提取得到与各所述瞳孔候选区域对应的瞳孔候选边界;
步骤S130、计算各所述瞳孔候选边界的长度,并将长度最长的所述瞳孔候选边界确定为目标瞳孔边界;
步骤S140、在所述目标瞳孔边界上获取多个拟合点,并将多个所述拟合点按照一预设方向移动一预设距离得到多个目标拟合点;
步骤S150、结合克拉默法则对多个所述目标拟合点进行椭圆拟合得到一椭圆,并获取所述椭圆的中心点;
步骤S160、将所述中心点按照与所述预设方向相反的方向移动所述预设距离,并将移动后的中心点确定为瞳孔。
根据本示例性实施例中的瞳孔定位方法,一方面,将多个拟合点按照预设方向移动预设距离后得到多个目标拟合点,并对多个目标拟合点进行椭圆拟合,相比于直接对多个拟合点进行椭圆拟合,降低了计算量,同时也大大的减少了FPGA的运算位宽;另一方面,由于FPGA无法进行浮点数的运算,而结合克拉默法则对多个目标拟合点进行椭圆拟合的过程中不会产生浮点数,因此,结合克拉默法则对多个目标拟合点进行椭圆拟合使得该瞳孔定位方法能够在FPGA上运行,同时,由于在运算的过程中不产生浮点数,相对于产生浮点数的运算方法,避免出现对浮点数不断进行运算而导致的运算误差不断积累的问题,大大减少了运算误差、运算量和存储空间,提高了运算的效率和准确率,使得瞳孔的定位更加精确;又一方面,又由于在对多个目标拟合点拟合之后,将获得中心点按照与预设方向相反的方向移动预设距离,确保了最终得到中心点的位置的准确性。
下面,将参照图1,对本示例性实施例中的瞳孔定位方法作进一步说明。
在步骤S110中,获取待处理图像,并对所述待处理图像进行预处理得到二值图像。
在本示例性实施例中,可以通过图像获取装置获取待处理图片,所述图像获取装置例如可以为相机、手机等,本示例性实施例对此不作特殊限定。所述待处理图片可以包括眼球和眼睑区域。需要说明的是,由于通过图像获取装置获取到的原始图像可以包括整个人脸区域,因此,在获取到的原始图像包括整个人脸区域时,可以通过在整个人脸区域中截取眼球和眼睑区域,以获得待处理图片。
如图2所示,所述对所述待处理图像进行预处理得到二值图像可以包括步骤S210~步骤S230,其中:
在步骤S210中,获取所述待处理图像的灰度图像。
在本示例性实施例中,获取待处理图像的灰度图像的方式可以包括以下两种,其中:
第一种方式可以为:获取待处理图像中的各像素分别在RGB三个通道上的分量,并根据下述公式分别计算各像素的灰度值,以得到待处理图像的灰度图像。
f(i,j)=0.30R(i,j)+0.59G(i,j)+0.11B(i,j)
其中,f(i,j)为第i行第j列像素的灰度值,R(i,j)为第i行第j列像素在R通道上的分量,G(i,j)为第i行第j列像素在G通道上的分量,B(i,j)为第i行第j列像素在B通道上的分量。
第二种方式可以为:获取待处理图像中的各像素分别在RGB三个通道上的分量,并根据下述公式计算各像素的灰度值,以得到待处理图像的灰度图像。
f(i,j)=(R(i,j)+G(i,j)+B(i,j))/3
其中,f(i,j)为第i行第j列像素的灰度值,R(i,j)为第i行第j列像素在R通道上的分量,G(i,j)为第i行第j列像素在G通道上的分量,B(i,j)为第i行第j列像素在B通道上的分量。
需要说明的是,上述获取待处理图像的灰度图像的方式仅为示例性的,并不用于限定本发明。
在步骤S220中,对所述灰度图像进行高斯滤波,以得到去噪后的所述灰度图像。
在本示例性实施例中,对灰度图像进行高斯滤波的过程可以包括:获取各像素及其周边的各像素的灰度值;分别计算各像素及其周边各像素的灰度值的加权平均值;分别将各像素及其周边各像素的灰度值的加权平均值作为各像素的灰度值,即将各像素的灰度值替换为其和其周边的各像素的灰度值的加权平均值。通过对灰度图像进行高斯滤波,以对灰度图像进行了平滑处理,进而降低噪音。
在步骤S230中,通过一灰度阈值将去噪后的所述灰度图像转化为二值图像。
在本示例性实施例中,所述灰度阈值的确定方法可以包括多种,具体的可根据实际需求进行选择。例如,灰度阈值的确定方法可以为:获取灰度图像中各像素的灰度值,并计算像素的平均灰度值,即将所有像素的灰度值相加并除以像素的总数量得到的值即为像素的平均灰度值,并将该平均灰度值确定为灰度阈值。再例如,获取灰度阈值的确定方法还可以为:根据灰度图像中的各像素的灰度值获取最大灰度值,并将该最大灰度值的三分之一确定为灰度阈值。
将灰度图像转化为二值图像的过程可以包括:分别将各像素的灰度值与灰度阈值进行比较,将灰度值大于等于灰度阈值的像素标记为0,将灰度值小于灰度阈值的像素标记为1,从而将灰度图像转化为二值图像。例如,图3中示出了二值图像的示意图。
在步骤S120中,对所述二值图像中的瞳孔候选区域进行边界提取得到与各所述瞳孔候选区域对应的瞳孔候选边界。
在本示例性实施例中,可以通过聚类分析在二值图像中获取瞳孔候选区域,具体过程可以包括:对二值图像中的像素进行遍历,将距离最近且标记为1的像素进行合并,以得到瞳孔候选区域,需要说明的是,瞳孔候选区域的数量可以为0个,也可以为1个,还可以为2个、3个等。需要说明的是,在瞳孔候选区域的数量为0个时,直接停止计算,并提示用户重新提供待处理图像。
所述对所述二值图像中的瞳孔候选区域进行边界提取得到与各所述瞳孔候选区域对应的瞳孔候选边界可以包括:通过一边界检测算法分别提取各所述瞳孔候选区域的边界点;通过对各所述瞳孔候选区域的边界点进行连通域分析,得到与各所述瞳孔候选区域对应的瞳孔候选边界。
在本示例性实施例中,所述边界检测算法例如可以为Canny边界检测算法、Soble(索贝尔)边界检测算法等,本示例性实施例对此不作特殊限定。通过边界检测算法对二值图像进行处理,即可得到各瞳孔候选区域的边界点。在确定各瞳孔候选区域的边界点时,将各边界点标记为1,各瞳孔候选区域的边界之外的点标记为0。
在提取到各瞳孔候选区域的边界点之后,通过连通域分析得到瞳孔候选边界的具体过程为:对二值图像进行遍历,将二值图像中标记为1且相邻的点进行合并,每个合并后的边界即为一个瞳孔候选边界。所述连通域分析可以为4连通域分析,还可以为8连通域分析等,本示例性实施例对此不作特殊限定。由于连通域分析仅需缓存一帧的图像中边界点的二值图像,因此,相对于缓存一阵灰度图像,其大大的节省了内存。
为了能够提高瞳孔候选区域的边界提取的准确性,所述对所述二值图像中的瞳孔候选区域进行边界提取可以包括:对所述二值图像进行曝光处理,以得到曝光后的所述二值图像;对曝光后的所述二值图像中的瞳孔候选区域进行边界提取。
在本示例性实施例中,对于过度曝光的二值图像,可以通过调节二值图像的曝光度,以降低二值图像的曝光度,使得二值图像中的瞳孔候选区域的边界更加清晰。对于曝光不足的二值图像,可以通过调节二值图像的曝光度,以提高二值图像的曝光度,使得二值图像中的瞳孔候选区域的边界更加清晰。显然,通过曝光处理可使瞳孔候选区域的边界更加清晰,进而提高了瞳孔候选区域的边界提取的准确率。
需要说明的是,对曝光处理后的二值图像中的瞳孔候选区域进行边界提取的原理与步骤S120中的瞳孔候选区域的边界提取原理相同,因此此处不再赘述。
此外,所述对曝光后的所述二值图像中的瞳孔候选区域进行边界提取可以包括:对曝光后的所述二值图像进行开运算,得到开运算后的所述二值图像;对开运算后的所述二值图像中的瞳孔候选区域进行边界提取。
在本示例性实施例中,对曝光后的二值图像进行开运算包括:先对曝光后的二值图像进行腐蚀运算,再对腐蚀运算后的二值图像进行膨胀运算。具体的,可以先通过一M*N的矩阵对曝光后的二值图像进行腐蚀运算,再通过一M*N的矩阵对腐蚀运算后的二值图像进行膨胀运算。该M*N的矩阵可以由开发人员进行设定,例如,该M*N的矩阵为3*3且值全为1的矩阵,但本示例性实施例中的M*N的矩阵不限于此。需要说明的是,用于腐蚀运算的M*N的矩阵和用于膨胀运算的M*N的矩阵可以相同,也可以不同,本示例性实施例对此不作特殊限定。
通过对曝光后的二值图像进行开元算,可以消除曝光后的二值图像中的较小的杂点(例如,暗点),即干扰点,并平滑边界的轮廓。基于此,由于消除了较小的杂点,即干扰点,可以提高后期提取边界的准确性,进而提高瞳孔定位的准确性,另外还减少了后期边界提取和边界计算的运算量,进而提高了计算效率,从而也提高了瞳孔定位的效率。
需要说明的时,对开运算后的所述二值图像中的瞳孔候选区域进行边界提取的原理与步骤S120中的瞳孔候选区域的边界提取原理相同,因此此处不再赘述。
另外,所述对所述二值图像中的瞳孔候选区域进行边界提取可以包括:对所述二值图像进行开运算,得到开运算后的所述二值图像;对开运算后的所述二值图像中的瞳孔候选区域进行边界提取。
在本示例性实施例中,由于对二值图像进行开运算的原理与上述对曝光后的二值图像进行开运算的原理相同,因此此处不再赘述。由于对开运算后的所述二值图像中的瞳孔候选区域进行边界提取的原理与步骤S120中的瞳孔候选区域的边界提取原理相同,因此此处不再赘述。图4中示出了对图3进行开元算后的二值图像,从图中可以看出,相对于图3,图4中的较小的杂点已经被消除。图5中示出了对图4中的瞳孔候选区域进行边界提取后的示意图。
通过对二值图像进行开运算可以消除曝光后的二值图像中的较小的杂点(例如暗点),即干扰点,并平滑边界的轮廓。基于此,由于消除了较小的杂点,即干扰点,可以提高后期提取边界的准确性,进而提高了瞳孔定位的准确性,此外,还减少了后期边界提取和边界计算的运算量,进而提高计算效率,从而也提高了瞳孔定位的效率。
在步骤S130中,计算各所述瞳孔候选边界的长度,并将长度最长的所述瞳孔候选边界确定为目标瞳孔边界。
在本示例性实施例中,可以获取各瞳孔候选边界中的各边界点的坐标,并根据各瞳孔候选边界的各边界点的坐标计算各瞳孔候选边界的长度。在得到各瞳孔候选边界的长度后,可以通过两两比较的方法获取长度最长的瞳孔候选边界,并将该长度最长的瞳孔候选边界确定为目标瞳孔边界。应当理解的是,如果长度最长的瞳孔候选边界为多个的情况下,可以选取其中的任一个作为目标瞳孔边界。
在步骤S140中,在所述目标瞳孔边界上获取多个拟合点,并将多个所述拟合点按照一预设方向移动一预设距离得到多个目标拟合点。
在本示例性实施例中,可以通过一获取模块在目标瞳孔边界上获取多个拟合点。所述拟合点数量可以根据实际的需求进行确定,但是拟合点的数量至少为六个。各拟合点可以在目标瞳孔边界上呈等间距排列,也可以呈随机排列等,本示例性实施例对此不作特殊限定。
在目标瞳孔边界上获取多个拟合点的方式包括很多种,例如,可以将所述目标瞳孔边界等分为多个边界段,分别在各所述边界段上选取一个所述拟合点,以得到多个所述拟合点,其中,所述边界段的数量至少为六个,如图6所示,在拟合点的数量为10时,可以将目标瞳孔边界划分为10个边界段,每个边界段对应的角度均为36度,在每个边界段上取一拟合点,以得到10个拟合点。再例如,还可以在目标瞳孔边界上随机获取多个拟合点。
所述预设方向和预设距离可以根据实际情况进行设置。例如,所述预设方向可以为左上方,也可以为左下方,还可以为右上方等,本示例性实施例对此不作特殊限定。例如,所述预设距离可以为1厘米,也可以为1.5厘米,还可以为2厘米等,本示例性实施例对不作特殊限定。
在步骤S150中,结合克拉默法则对多个所述目标拟合点进行椭圆拟合得到一椭圆,并获取所述椭圆的中心点。
在本示例性实施例中,由于所述克拉默法则为线性代数中一个求解线性方程组的定理,因此此处不再赘述。对多个目标拟合点进行椭圆拟合的过程为:将各目标拟合点的坐标代入下述椭圆公式中,以得到多个待求解的椭圆公式;利用克拉默法则对多个待求解的椭圆公式进行求解,以得到椭圆公式中的六个系数(即a、b、c、d、e、f)的具体数值,进而得到与多个目标拟合点契合的椭圆。
所述椭圆公式为:
aX2+bY2+cXY+dX+eY+f=0
其中,a、b、c、d、e、f分别为椭圆公式中的系数,X为目标拟合点在X轴上的坐标,Y为目标拟合点在Y轴上的坐标。
在得到椭圆公式中的各系数的具体数值后,通过各系数计算椭圆的中心点。
在步骤S160中,将所述中心点按照与所述预设方向相反的方向移动所述预设距离,并将移动后的中心点确定为瞳孔。
在本示例性实施例中,将所述中心点按照与步骤S140中预设方向相反的方向移动与步骤S140中的预设距离相等的距离,即可得到瞳孔的位置,即将移动后的中心点确定为瞳孔。
综上所述,将多个拟合点按照预设方向移动预设距离后得到多个目标拟合点,即将坐标数值较大的多个拟合点转化为坐标数值较小的多个目标拟合点,相比于直接对多个拟合点进行椭圆拟合的方式,对多个目标拟合点进行椭圆拟合的方式大大的降低了计算量。又由于在对多个目标拟合点拟合之后,将获得中心点按照与预设方向相反的方向移动预设距离,确保了最终得到中心点的位置的准确性。另外,由于将坐标数值较大的多个拟合点转化为数值较小的多个目标拟合点,大大的减少了FPGA的运算位宽。例如,拟合点的坐标为(902,903),将拟合点在X轴和Y轴上分别向负方向平移900,得到的目标拟合点的坐标为(2,3)。由于坐标(902,903)的二进制表示方式为:(1110000110,1110000111),而坐标(2,3)的二进制表示方式为:(10,11),显然,在直接对多个拟合点进行椭圆拟合时,FPGA需要至少10个运算位宽来计算,而对多个目标拟合点进行椭圆拟合时,FPGA仅需要2个运算位宽来计算,大大的降低了FPGA的运算位宽。此外,克拉默法则的特点就是各个计算步骤都是整数运算,不会产生浮点数,从而解决了FPGA无法对浮点数进行运算的问题,使得该瞳孔定位方法能够在FPGA上运行,同时,由于克拉默法则中的每个计算步骤均不产生浮点数,相比于不断产生浮点数的运算方法,避免出现对浮点数不断进行运算而导致的运算误差不断积累的问题,大大减少了运算误差、运算量和存储空间,提高了运算的效率和准确率,使得瞳孔的定位更加精确。
需要说明的是,为了不影响下一帧待处理图片的处理和瞳孔定位的实时性,上述连通域分析和椭圆拟合的处理可以在帧消隐区进行。
需要说明的是,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
在本公开的示例性实施例中,还提供了瞳孔定位装置,如图7所示,所述瞳孔定位装置700可以包括处理模块701、提取模块702、计算模块703、获取模块704、拟合模块705以及确定模块706,其中:
处理模块701,可以用于获取待处理图像,并对所述待处理图像进行预处理得到二值图像;
提取模块702,可以用于对所述二值图像中的瞳孔候选区域进行边界提取得到与各所述瞳孔候选区域对应的瞳孔候选边界;
计算模块703,可以用于计算各所述瞳孔候选边界的长度,并将长度最长的所述瞳孔候选边界确定为目标瞳孔边界;
获取模块704,可以用于在所述目标瞳孔边界上获取多个拟合点,并将多个所述拟合点按照一预设方向移动一预设距离得到多个目标拟合点;
拟合模块705,可以用于结合克拉默法则对多个所述目标拟合点进行椭圆拟合得到一椭圆,并获取所述椭圆的中心点;
确定模块706,可以用于将所述中心点按照与所述预设方向相反的方向移动所述预设距离,并将移动后的中心点确定为瞳孔。
上述中各瞳孔定位装置模块的具体细节已经在对应的瞳孔定位方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图8来描述根据本发明的这种实施方式的电子设备800。图8显示的电子设备800仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800以通用计算设备的形式表现。电子设备800的组件可以包括但不限于:上述至少一个处理单元810、上述至少一个存储单元820、连接不同系统组件(包括存储单元820和处理单元810)的总线830、显示单元840。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元810执行,使得所述处理单元810执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元810可以执行如图1中所示的步骤S110、获取待处理图像,并对所述待处理图像进行预处理得到二值图像;步骤S120、对所述二值图像中的瞳孔候选区域进行边界提取得到与各所述瞳孔候选区域对应的瞳孔候选边界;步骤S130、计算各所述瞳孔候选边界的长度,并将长度最长的所述瞳孔候选边界确定为目标瞳孔边界;步骤S140、在所述目标瞳孔边界上获取多个拟合点,并将多个所述拟合点按照一预设方向移动一预设距离得到多个目标拟合点;步骤S150、结合克拉默法则对多个所述目标拟合点进行椭圆拟合得到一椭圆,并获取所述椭圆的中心点;步骤S160、将所述中心点按照与所述预设方向相反的方向移动所述预设距离,并将移动后的中心点确定为瞳孔。
存储单元820可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)8201和/或高速缓存存储单元8202,还可以进一步包括只读存储单元(ROM)8203。
存储单元820还可以包括具有一组(至少一个)程序模块8205的程序/实用工具8204,这样的程序模块8205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线830可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备800也可以与一个或多个外部设备870(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备800交互的设备通信,和/或与使得该电子设备800能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口850进行。并且,电子设备800还可以通过网络适配器860与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器860通过总线830与电子设备800的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备800使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
参考图9所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品900,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。

Claims (10)

1.一种瞳孔定位方法,其特征在于,包括:
获取待处理图像,并对所述待处理图像进行预处理得到二值图像;
对所述二值图像中的瞳孔候选区域进行边界提取得到与各所述瞳孔候选区域对应的瞳孔候选边界;
计算各所述瞳孔候选边界的长度,并将长度最长的所述瞳孔候选边界确定为目标瞳孔边界;
在所述目标瞳孔边界上获取多个拟合点,并将多个所述拟合点按照一预设方向移动一预设距离得到多个目标拟合点;
结合克拉默法则对多个所述目标拟合点进行椭圆拟合得到一椭圆,并获取所述椭圆的中心点;
将所述中心点按照与所述预设方向相反的方向移动所述预设距离,并将移动后的中心点确定为瞳孔。
2.根据权利要求1所述的瞳孔定位方法,其特征在于,所述对所述待处理图像进行预处理得到二值图像包括:
获取所述待处理图像的灰度图像;
对所述灰度图像进行高斯滤波,以得到去噪后的所述灰度图像;
通过一灰度阈值将去噪后的所述灰度图像转化为二值图像。
3.根据权利要求1所述的瞳孔定位方法,其特征在于,所述对所述二值图像中的瞳孔候选区域进行边界提取得到与各所述瞳孔候选区域对应的瞳孔候选边界包括:
通过一边界检测算法分别提取各所述瞳孔候选区域的边界点;
通过对各所述瞳孔候选区域的边界点进行连通域分析,得到与各所述瞳孔候选区域对应的瞳孔候选边界。
4.根据权利要求1所述的瞳孔定位方法,其特征在于,所述在所述目标瞳孔边界上获取多个拟合点包括:
将所述目标瞳孔边界等分为多个边界段,分别在各所述边界段上选取一个所述拟合点,以得到多个所述拟合点,其中,所述边界段的数量至少为六个。
5.根据权利要求1所述的瞳孔定位方法,其特征在于,所述对所述二值图像中的瞳孔候选区域进行边界提取包括:
对所述二值图像进行曝光处理,以得到曝光后的所述二值图像;
对曝光后的所述二值图像中的瞳孔候选区域进行边界提取。
6.根据权利要求5所述的瞳孔定位方法,其特征在于,所述对曝光后的所述二值图像中的瞳孔候选区域进行边界提取包括:
对曝光后的所述二值图像进行开运算,得到开运算后的所述二值图像;
对开运算后的所述二值图像中的瞳孔候选区域进行边界提取。
7.根据权利要求1所述的瞳孔定位方法,其特征在于,所述对所述二值图像中的瞳孔候选区域进行边界提取包括:
对所述二值图像进行开运算,得到开运算后的所述二值图像;
对开运算后的所述二值图像中的瞳孔候选区域进行边界提取。
8.一种瞳孔定位装置,其特征在于,包括:
处理模块,用于获取待处理图像,并对所述待处理图像进行预处理得到二值图像;
提取模块,用于对所述二值图像中的瞳孔候选区域进行边界提取得到与各所述瞳孔候选区域对应的瞳孔候选边界;
计算模块,用于计算各所述瞳孔候选边界的长度,并将长度最长的所述瞳孔候选边界确定为目标瞳孔边界;
获取模块,用于在所述目标瞳孔边界上获取多个拟合点,并将多个所述拟合点按照一预设方向移动一预设距离得到多个目标拟合点;
拟合模块,用于结合克拉默法则对多个所述目标拟合点进行椭圆拟合得到一椭圆,并获取所述椭圆的中心点;
确定模块,用于将所述中心点按照与所述预设方向相反的方向移动所述预设距离,并将移动后的中心点确定为瞳孔。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~7中任意一项所述的瞳孔定位方法。
10.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~7中任意一项所述的瞳孔定位方法。
CN201810456220.3A 2018-05-14 2018-05-14 瞳孔定位方法及装置、存储介质、电子设备 Pending CN108648201A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810456220.3A CN108648201A (zh) 2018-05-14 2018-05-14 瞳孔定位方法及装置、存储介质、电子设备
US16/288,293 US20190347824A1 (en) 2018-05-14 2019-02-28 Method and apparatus for positioning pupil, storage medium, electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810456220.3A CN108648201A (zh) 2018-05-14 2018-05-14 瞳孔定位方法及装置、存储介质、电子设备

Publications (1)

Publication Number Publication Date
CN108648201A true CN108648201A (zh) 2018-10-12

Family

ID=63755146

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810456220.3A Pending CN108648201A (zh) 2018-05-14 2018-05-14 瞳孔定位方法及装置、存储介质、电子设备

Country Status (2)

Country Link
US (1) US20190347824A1 (zh)
CN (1) CN108648201A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109766818A (zh) * 2019-01-04 2019-05-17 京东方科技集团股份有限公司 瞳孔中心定位方法及系统、计算机设备及可读存储介质
CN112837337A (zh) * 2021-02-04 2021-05-25 成都国翼电子技术有限公司 一种基于fpga的海量像素分块的连通区域识别方法及装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110785114A (zh) * 2017-06-12 2020-02-11 罗敦司得有限公司 高精确地确定眼睛的瞳孔直径的方法和与此相关的设备
CN112989878A (zh) * 2019-12-13 2021-06-18 Oppo广东移动通信有限公司 瞳孔检测方法及相关产品
CN111627069B (zh) * 2020-04-29 2023-05-05 深圳辰视智能科技有限公司 圆点检测方法、终端和计算机可读存储介质
CN112037287B (zh) * 2020-08-26 2024-02-09 深圳市广宁股份有限公司 相机标定方法、电子设备及存储介质
CN112465894B (zh) * 2020-11-25 2024-02-27 创新奇智(成都)科技有限公司 圆环内外径拟合方法、装置、电子设备及存储介质
CN112634300B (zh) * 2020-12-25 2022-11-22 创新奇智(北京)科技有限公司 一种工件装配方法、装置和系统
CN112926536B (zh) * 2021-04-06 2024-04-16 科大讯飞股份有限公司 变形瞳孔定位方法、装置以及设备
CN113284160B (zh) * 2021-04-23 2024-03-12 北京天智航医疗科技股份有限公司 一种手术导航标记珠体识别的方法、装置和设备
CN115294202B (zh) * 2022-10-08 2023-01-31 南昌虚拟现实研究院股份有限公司 瞳孔位置标注方法及系统
CN116740068B (zh) * 2023-08-15 2023-10-10 贵州毅丹恒瑞医药科技有限公司 一种白内障手术用智能导航系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102788552A (zh) * 2012-02-28 2012-11-21 王锦峰 一种线性坐标校正方法
CN103440476A (zh) * 2013-08-26 2013-12-11 大连理工大学 一种人脸视频中瞳孔的定位方法
CN106022315A (zh) * 2016-06-17 2016-10-12 北京极创未来科技有限公司 一种用于虹膜识别的瞳孔中心定位方法
CN106874556A (zh) * 2017-01-13 2017-06-20 北京临近空间飞行器系统工程研究所 一种基于源项的网格变形方法
CN106919933A (zh) * 2017-03-13 2017-07-04 重庆贝奥新视野医疗设备有限公司 瞳孔定位的方法及装置
CN107833251A (zh) * 2017-11-13 2018-03-23 京东方科技集团股份有限公司 瞳孔定位装置和方法、虚拟现实设备的显示驱动器

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102788552A (zh) * 2012-02-28 2012-11-21 王锦峰 一种线性坐标校正方法
CN103440476A (zh) * 2013-08-26 2013-12-11 大连理工大学 一种人脸视频中瞳孔的定位方法
CN106022315A (zh) * 2016-06-17 2016-10-12 北京极创未来科技有限公司 一种用于虹膜识别的瞳孔中心定位方法
CN106874556A (zh) * 2017-01-13 2017-06-20 北京临近空间飞行器系统工程研究所 一种基于源项的网格变形方法
CN106919933A (zh) * 2017-03-13 2017-07-04 重庆贝奥新视野医疗设备有限公司 瞳孔定位的方法及装置
CN107833251A (zh) * 2017-11-13 2018-03-23 京东方科技集团股份有限公司 瞳孔定位装置和方法、虚拟现实设备的显示驱动器

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
周俊等: "利用坐标平移计算重积分", 《长江大学学报(自然科学版)》 *
郭健等: "《Visual C++空间图形可视化算法原理与实践》", 30 September 2012 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109766818A (zh) * 2019-01-04 2019-05-17 京东方科技集团股份有限公司 瞳孔中心定位方法及系统、计算机设备及可读存储介质
CN112837337A (zh) * 2021-02-04 2021-05-25 成都国翼电子技术有限公司 一种基于fpga的海量像素分块的连通区域识别方法及装置
CN112837337B (zh) * 2021-02-04 2022-08-12 成都国翼电子技术有限公司 一种基于fpga的海量像素分块的连通区域识别方法及装置

Also Published As

Publication number Publication date
US20190347824A1 (en) 2019-11-14

Similar Documents

Publication Publication Date Title
CN108648201A (zh) 瞳孔定位方法及装置、存储介质、电子设备
US11734851B2 (en) Face key point detection method and apparatus, storage medium, and electronic device
CN108205655B (zh) 一种关键点预测方法、装置、电子设备及存储介质
CN110348543B (zh) 眼底图像识别方法、装置、计算机设备及存储介质
CN108229277B (zh) 手势识别、手势控制及多层神经网络训练方法、装置及电子设备
CN109101919B (zh) 用于生成信息的方法和装置
CN109313490A (zh) 使用神经网络的眼睛注视跟踪
CN105027144A (zh) 用于无校准注视估计的方法和设备
CN108491823B (zh) 用于生成人眼识别模型的方法和装置
KR20200118076A (ko) 생체 검출 방법 및 장치, 전자 기기 및 저장 매체
CN112767329A (zh) 图像处理方法及装置、电子设备
CN108958487A (zh) 使用标记区域对视频流的手势预处理
CN108734078B (zh) 图像处理方法、装置、电子设备、存储介质及程序
CN109919077A (zh) 姿态识别方法、装置、介质和计算设备
CN109389076B (zh) 图像分割方法及装置
CN112446322B (zh) 眼球特征检测方法、装置、设备及计算机可读存储介质
CN110298850B (zh) 眼底图像的分割方法和装置
Gong et al. Application of static gesture segmentation based on an improved canny operator
CN112115900B (zh) 图像处理方法、装置、设备及存储介质
CN110827341A (zh) 一种图片深度估计方法、装置和存储介质
CN117011156A (zh) 图像处理方法、装置、设备及存储介质
CN110472673B (zh) 参数调整方法、眼底图像处理方法、装置、介质及设备
CN117218246A (zh) 图像生成模型的训练方法、装置、电子设备及存储介质
KR20190113252A (ko) 시선 추적 방법 및 이를 수행하기 위한 단말
CN112037305B (zh) 对图像中的树状组织进行重建的方法、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181012