CN107301391B - 区域确定方法及装置、存储介质 - Google Patents
区域确定方法及装置、存储介质 Download PDFInfo
- Publication number
- CN107301391B CN107301391B CN201710459386.6A CN201710459386A CN107301391B CN 107301391 B CN107301391 B CN 107301391B CN 201710459386 A CN201710459386 A CN 201710459386A CN 107301391 B CN107301391 B CN 107301391B
- Authority
- CN
- China
- Prior art keywords
- eye image
- point
- image
- target
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 94
- 230000005484 gravity Effects 0.000 claims abstract description 139
- 238000012545 processing Methods 0.000 claims abstract description 78
- 210000001747 pupil Anatomy 0.000 claims abstract description 43
- 210000001508 eye Anatomy 0.000 claims description 445
- 238000001514 detection method Methods 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 22
- 230000003628 erosive effect Effects 0.000 claims description 18
- 210000000697 sensory organ Anatomy 0.000 claims description 10
- 238000005260 corrosion Methods 0.000 claims description 5
- 230000007797 corrosion Effects 0.000 claims description 5
- 210000000554 iris Anatomy 0.000 description 52
- 238000012216 screening Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 10
- 230000001815 facial effect Effects 0.000 description 10
- 238000010801 machine learning Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种区域确定方法及装置、存储介质,属于图像处理领域。所述方法包括:获取脸部图像;从脸部图像中提取至少一个眼睛图像;确定第一眼睛图像的重心点,第一眼睛图像为至少一个眼睛图像中的任一眼睛图像;对第一眼睛图像进行检测,以确定第一眼睛图像中的目标点,其中,目标点中每个目标点的灰度值与rA/n的差小于预设灰度值阈值;将第一眼睛图像中所有目标点和重心点所在的区域确定为:第一眼睛图像中的瞳孔和虹膜所在的目标区域。本发明解决了确定出的目标区域的准确度也较低的问题,提高了确定出的目标区域的准确度,本发明用于目标区域的确定。
Description
技术领域
本申请涉及图像处理技术领域,特别涉及一种区域确定方法及装置、终端、存储介质。
背景技术
随着科技的发展,图像处理技术得到了广泛的应用。示例的,在获取人脸图像后,可以采用图像处理技术确定人脸图像中瞳孔和虹膜所在的目标区域。
相关技术中,可以直接采用图像处理技术中的五官定位法对人脸图像进行处理,以确定该人脸图像中眼睛的重心点,以及瞳孔和虹膜所在的目标区域(圆形区域)的最大半径。然后,根据该人脸图像中眼睛的重心点以及目标区域的最大半径,确定瞳孔和虹膜所在的目标区域。
但是,由于五官定位法确定出的重心点和最大半径的准确度均较低,因此,根据重心点和最大半径确定出的目标区域的准确度也较低。
发明内容
为了解决确定出的目标区域的准确度也较低的问题,本申请提供了一种区域确定方法及装置、存储介质。所述技术方案如下:
第一方面,提供了一种区域确定方法,所述方法包括:
获取脸部图像;
从所述脸部图像中提取至少一个眼睛图像;
确定第一眼睛图像的重心点,所述第一眼睛图像为所述至少一个眼睛图像中的任一眼睛图像;
对所述第一眼睛图像进行检测,以确定所述第一眼睛图像中的目标点,其中,所述目标点中每个目标点的灰度值与rA/n的差小于预设灰度值阈值,所述rA为所述眼睛图像中所有目标点与所述重心点的灰度值之和,所述n为所述第一眼睛图像中所有目标点与所述重心点的个数之和;
将所述第一眼睛图像中所有目标点和重心点所在的区域确定为:所述第一眼睛图像中的瞳孔和虹膜所在的目标区域。
可选的,所述第一眼睛图像中,与所述每个目标点相邻的像素点中存在所述重心点或至少一个目标点。
可选的,在所述获取脸部图像之后,所述方法还包括:采用五官定位法对所述脸部图像进行处理,以确定所述目标区域的最大半径;
所述每个目标点与像素点(xA/n,yA/n)的距离小于或等于所述最大半径,所述xA为所述第一眼睛图像中所有目标点与所述重心点的横坐标之和,所述yA为所述第一眼睛图像中所有目标点与所述重心点的纵坐标之和。
可选的,所述第一眼睛图像为:所述脸部图像中属于眼睛的像素点的红色通道所组成的图像。
可选的,所述确定第一眼睛图像的重心点,包括:
确定所述第一眼睛图像的多个第一累加灰度值和多个第二累加灰度值,其中,所述第一累加灰度值为:所述第一眼睛图像中位于同一行的所有像素点的灰度值之和,所述第二累加灰度值为:所述第一眼睛图像中位于同一列的所有像素点的灰度值之和;
根据所述第一眼睛图像的多个第一累加灰度值和多个第二累加灰度值,确定所述第一眼睛图像中颜色最深的像素点;
根据所述第一眼睛图像中颜色最深的像素点,确定所述第一眼睛图像的重心点。
可选的,所述从所述脸部图像中提取至少一个眼睛图像,包括:从所述脸部图像中提取两个眼睛图像;
所述根据所述第一眼睛图像中颜色最深的像素点,确定所述第一眼睛图像的重心点,包括:
获取第一参考点的坐标,所述第一参考点为所述两个眼睛图像中除所述第一眼睛图像外的另一个眼睛图像中的颜色最深的像素点;
根据至少一个参考坐标对所述第一眼睛图像中颜色最深的像素点进行校正,确定所述第一眼睛图像的重心点,所述至少一个参考坐标包括所述第一参考点的坐标。
可选的,所述脸部图像为多帧连续的脸部图像中的第m帧脸部图像,所述m为大于1的整数,在所述获取脸部图像之前,所述方法还包括:
获取第二参考点的坐标,所述第二参考点的横坐标等于:参考眼睛图像的目标区域内所有点的横坐标的平均值,所述第二参考点的纵坐标等于:所述参考眼睛图像的目标区域内所有点的纵坐标的平均值,所述参考眼睛图像为:从所述多帧连续的脸部图像中的第m-1帧脸部图像中提取得到的图像,且所述参考眼睛图像与所述第一眼睛图像均属于同一只眼睛的图像,所述至少一个参考坐标还包括所述第二参考点的坐标。
可选的,所述方法还包括:
在检测所述第一眼睛图像中目标点的过程中,若检测时长达到预设时长,则停止对所述第一眼睛图像的检测;
或者,在检测所述第一眼睛图像中目标点的过程中,若所述n在预设时间段内未发生改变,则停止对所述第一眼睛图像的检测;
或者,在检测所述第一眼睛图像中目标点的过程中,若被检测过的像素点的数量达到预设数量阈值,则停止对所述第一眼睛图像的检测。
可选的,在所述从所述脸部图像中提取至少一个眼睛图像之后,所述方法还包括:对所述第一眼睛图像依次进行图像腐蚀处理和图像膨胀处理,消除所述第一眼睛图像中的图像噪声;
所述确定第一眼睛图像的重心点,包括:确定消除图像噪声后的所述第一眼睛图像的重心点;
在所述将所述第一眼睛图像中所有目标点和重心点所在的区域确定为:所述第一眼睛图像中的瞳孔和虹膜所在的目标区域之后,所述方法还包括:
对所述第一眼睛图像依次进行图像膨胀处理和图像腐蚀处理,去除所述第一眼睛图像的目标区域中的空洞;
对去除所述空洞之后的所述第一眼睛图像依次进行图像腐蚀处理和图像膨胀处理,去除所述第一眼睛图像的目标区域中的触角状突出。
第二方面,提供了一种区域确定装置,所述区域确定装置包括:
第一获取模块,用于获取脸部图像;
提取模块,用于从所述脸部图像中提取至少一个眼睛图像;
第一确定模块,用于确定第一眼睛图像的重心点,所述第一眼睛图像为所述至少一个眼睛图像中的任一眼睛图像;
检测模块,用于对所述第一眼睛图像进行检测,以确定所述第一眼睛图像中的目标点,其中,所述目标点中每个目标点的灰度值与rA/n的差小于预设灰度值阈值,所述rA为所述眼睛图像中所有目标点与所述重心点的灰度值之和,所述n为所述第一眼睛图像中所有目标点与所述重心点的个数之和;
第二确定模块,用于将所述第一眼睛图像中所有目标点和重心点所在的区域确定为:所述第一眼睛图像中的瞳孔和虹膜所在的目标区域。
可选的,所述第一眼睛图像中,与所述每个目标点相邻的像素点中存在所述重心点或至少一个目标点。
可选的,所述区域确定装置还包括:第一处理模块,用于采用五官定位法对所述脸部图像进行处理,以确定所述目标区域的最大半径;
所述每个目标点与像素点(xA/n,yA/n)的距离小于或等于所述最大半径,所述xA为所述第一眼睛图像中所有目标点与所述重心点的横坐标之和,所述yA为所述第一眼睛图像中所有目标点与所述重心点的纵坐标之和。
可选的,所述第一眼睛图像为:所述脸部图像中属于眼睛的像素点的红色通道所组成的图像。
可选的,所述第一确定模块包括:
第一确定单元,用于确定所述第一眼睛图像的多个第一累加灰度值和多个第二累加灰度值,其中,所述第一累加灰度值为:所述第一眼睛图像中位于同一行的所有像素点的灰度值之和,所述第二累加灰度值为:所述第一眼睛图像中位于同一列的所有像素点的灰度值之和;
第二确定单元,用于根据所述第一眼睛图像的多个第一累加灰度值和多个第二累加灰度值,确定所述第一眼睛图像中颜色最深的像素点;
第三确定单元,用于根据所述第一眼睛图像中颜色最深的像素点,确定所述第一眼睛图像的重心点。
可选的,所述提取模块还用于:从所述脸部图像中提取两个眼睛图像;
所述第三确定单元还用于:
获取第一参考点的坐标,所述第一参考点为所述两个眼睛图像中除所述第一眼睛图像外的另一个眼睛图像中的颜色最深的像素点;
根据至少一个参考坐标对所述第一眼睛图像中颜色最深的像素点进行校正,确定所述第一眼睛图像的重心点,所述至少一个参考坐标包括所述第一参考点的坐标。
可选的,所述脸部图像为多帧连续的脸部图像中的第m帧脸部图像,所述m为大于1的整数,所述区域确定装置还包括:
第二获取模块,用于获取第二参考点的坐标,所述第二参考点的横坐标等于:参考眼睛图像的目标区域内所有点的横坐标的平均值,所述第二参考点的纵坐标等于:所述参考眼睛图像的目标区域内所有点的纵坐标的平均值,所述参考眼睛图像为:从所述多帧连续的脸部图像中的第m-1帧脸部图像中提取得到的图像,且所述参考眼睛图像与所述第一眼睛图像均属于同一只眼睛的图像,所述至少一个参考坐标还包括所述第二参考点的坐标。
可选的,所述区域确定装置还包括:
第一停止模块,用于在检测所述第一眼睛图像中目标点的过程中,若检测时长达到预设时长,则停止对所述第一眼睛图像的检测;
或者,第二停止模块,用于在检测所述第一眼睛图像中目标点的过程中,若所述n在预设时间段内未发生改变,则停止对所述第一眼睛图像的检测;
或者,第三停止模块,用于在检测所述第一眼睛图像中目标点的过程中,若被检测过的像素点的数量达到预设数量阈值,则停止对所述第一眼睛图像的检测。
可选的,所述区域确定装置还包括:第二处理模块,用于对所述第一眼睛图像依次进行图像腐蚀处理和图像膨胀处理,消除所述第一眼睛图像中的图像噪声;
所述第一确定模块还用于:确定消除图像噪声后的所述第一眼睛图像的重心点;
所述区域确定装置还包括:
第三处理模块,用于对所述第一眼睛图像依次进行图像膨胀处理和图像腐蚀处理,去除所述第一眼睛图像的目标区域中的空洞;
第四处理模块,用于对去除所述空洞之后的所述第一眼睛图像依次进行图像腐蚀处理和图像膨胀处理,去除所述第一眼睛图像的目标区域中的触角状突出。
第三方面,提供了一种区域确定装置,所述区域确定装置包括:
处理器;
用于存储所述处理器的可执行指令的存储器;
其中,所述处理器被配置为:
获取脸部图像;
从所述脸部图像中提取至少一个眼睛图像;
确定第一眼睛图像的重心点,所述第一眼睛图像为所述至少一个眼睛图像中的任一眼睛图像;
对所述第一眼睛图像进行检测,以确定所述第一眼睛图像中的目标点,其中,所述目标点中每个目标点的灰度值与rA/n的差小于预设灰度值阈值,所述rA为所述眼睛图像中所有目标点与所述重心点的灰度值之和,所述n为所述第一眼睛图像中所有目标点与所述重心点的个数之和;
将所述第一眼睛图像中所有目标点和重心点所在的区域确定为:所述第一眼睛图像中的瞳孔和虹膜所在的目标区域。
第四方面,提供了一种存储介质,当所述存储介质中的指令由区域确定装置中的处理器执行时,使得所述区域确定装置能够执行一种区域确定方法,所述方法包括:
获取脸部图像;
从所述脸部图像中提取至少一个眼睛图像;
确定第一眼睛图像的重心点,所述第一眼睛图像为所述至少一个眼睛图像中的任一眼睛图像;
对所述第一眼睛图像进行检测,以确定所述第一眼睛图像中的目标点,其中,所述目标点中每个目标点的灰度值与rA/n的差小于预设灰度值阈值,所述rA为所述眼睛图像中所有目标点与所述重心点的灰度值之和,所述n为所述第一眼睛图像中所有目标点与所述重心点的个数之和;
将所述第一眼睛图像中所有目标点和重心点所在的区域确定为:所述第一眼睛图像中的瞳孔和虹膜所在的目标区域。
第五方面,提供了一种包含指令的程序产品,当所述程序产品在处理器上运行时,使得处理器执行第一方面所提供的区域确定方法。
本发明提供了一种区域确定方法及装置、存储介质,在确定眼睛图像的重心点后,还根据属于瞳孔和虹膜的点的灰度值特征,在眼睛图像中找到目标点,并根据目标点和重心点确定目标区域。也即是,本发明实施例中对眼睛图像中的每个点均进行了验证,保证划入目标区域的每个点均满足属于瞳孔和虹膜的点的灰度值特征,有效的防止了将不满足属于瞳孔和虹膜的点的灰度值特征的非目标点划入目标区域,所以,提高了确定出的目标区域的准确度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种脸部图像的示意图;
图2为本发明实施例提供的一种区域确定方法的方法流程图;
图3为本发明实施例提供的一种区域确定方法的方法流程图;
图4为本发明实施例提供的一种区域确定装置的结构示意图;
图5为本发明实施例提供的另一种区域确定装置的结构示意图;
图6为本发明实施例提供的又一种区域确定装置的结构示意图;
图7为本发明实施例提供的一种第一确定模块的结构示意图;
图8为本发明实施例提供的再一种区域确定装置的结构示意图;
图9为本发明另一实施例提供的一种区域确定装置的结构示意图。
通过上述附图,已示出本发明明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本发明构思的范围,而是通过参考特定实施例为本领域技术人员说明本发明的概念。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
图1为本发明实施例提供的一种脸部图像的示意图,如图1所示,该脸部图像可以为人脸图像,该脸部图像0可以包括两个眼睛01、两个眉毛02、一个鼻子03、一个嘴巴04和两个耳朵05的图像。其中,每个眼睛01包括眼白区域011和目标区域012,该目标区域012也即是瞳孔和虹膜所在的区域。
图2为本发明实施例提供的一种区域确定方法的方法流程图,该区域确定方法可以用于对图1中的脸部图像进行分析,以确定该脸部图像中的目标区域。如图2所示,该方法可以包括:
步骤201、获取脸部图像;
步骤202、从脸部图像中提取至少一个眼睛图像;
步骤203、确定第一眼睛图像的重心点,第一眼睛图像为至少一个眼睛图像中的任一眼睛图像;
步骤204、对第一眼睛图像进行检测,以确定第一眼睛图像中的目标点,其中,目标点中每个目标点的灰度值与rA/n的差小于预设灰度值阈值,rA为眼睛图像中所有目标点与重心点的灰度值之和,n为第一眼睛图像中所有目标点与重心点的个数之和;
步骤205、将第一眼睛图像中所有目标点和重心点所在的区域确定为:第一眼睛图像中的瞳孔和虹膜所在的目标区域。
综上所述,由于本发明实施例提供的区域确定方法中,在确定眼睛图像的重心点后,还根据属于瞳孔和虹膜的点的灰度值特征,在眼睛图像中找到目标点,并根据目标点和重心点确定目标区域。也即是,本发明实施例中对眼睛图像中的每个点均进行了验证,保证划入目标区域的每个点均满足属于瞳孔和虹膜的点的灰度值特征,有效的防止了将不满足属于瞳孔和虹膜的点的灰度值特征的非目标点划入目标区域,所以,提高了确定出的目标区域的准确度。
图3为本发明实施例提供的一种区域确定方法的方法流程图,该区域确定方法可以用于对图1中的脸部图像进行分析,以确定该脸部图像中的目标区域。如图3所示,该方法可以包括:
步骤301、获取脸部图像。
示例的,本发明提供的区域确定方法可以被区域确定装置执行,该区域确定装置可以为手机、平板电脑或台式电脑,该区域确定装置还可以为其他装置,本发明实施例对此不作限定。在步骤301中,用户可以在区域确定装置上操控,并将脸部对准区域确定装置上设置的摄像头,使得区域确定装置能够通过摄像头采集人脸的脸部图像,从而获取到如图1所示的脸部图像。
步骤302、采用五官定位法对脸部图像进行处理,以确定目标区域的最大半径。
在获取到脸部图像后,区域确定装置可以采用图像处理技术中的五官定位法,对脸部图像进行处理,以确定脸部图像中瞳孔和虹膜所在的目标区域的最大半径。
步骤303、从脸部图像中提取至少一个眼睛图像。
可选的,在步骤301中获取到脸部图像后,区域确定装置还可以从该脸部图像中提取至少一个眼睛图像(也即是包括至少一个眼睛的图像,可选的,每个眼睛图像还可以包括部分脸部皮肤)。示例的,本发明实施例中区域确定装置可以从脸部图像中提取两个眼睛图像(也即脸部图像中两个眼睛的图像,共两个图像)。
需要说明的是,步骤301中获取到的脸部图像可以包括多个像素点,且每个像素点可以包括红色通道、绿色通道和蓝色通道。
示例的,虹膜的颜色可能为黑色、蓝色或绿色。当虹膜的颜色为蓝色时,眼睛图像中虹膜的像素点中蓝色通道的亮度较高,而虹膜的像素点中红色通道与绿色通道的亮度均较低,眼睛图像中眼白的像素点的亮度较高;当虹膜的颜色为绿色时,眼睛图像中虹膜的像素点中绿色通道的亮度较高,而虹膜的像素点中红色通道与蓝色通道的亮度均较低,眼睛图像中眼白的像素点的亮度较高;当虹膜的颜色为黑色时,眼睛图像中虹膜的像素点中蓝色通道、红色通道与绿色通道的亮度均较低,眼睛图像中眼白的像素点的亮度较高。所以,为了提高步骤303中提取到的眼睛图像中虹膜的像素点与眼白的像素点的对比度,无论虹膜的颜色为黑色、蓝色还是绿色,均可以在提取眼睛图像时仅提取红色通道,从而使得提取得到的仅仅包含红色通道的眼睛图像中虹膜的像素点与眼白的像素点的对比度较高,便于后续对虹膜的识别。
因此,在步骤303中提取眼睛图像时,区域确定装置可以直接提取该脸部图像中,属于眼睛的像素点中的红色通道,使得每个眼睛图像为脸部图像中属于眼睛的像素点的红色通道所组成的图像。也即是,眼睛图像包括多个像素点,每个像素点的灰度值为:该像素点在脸部图像中对应的像素点的红色通道的灰度值。
步骤304、对每个眼睛图像,依次进行图像腐蚀处理和图像膨胀处理,消除每个眼睛图像中的图像噪声。
区域确定装置在获取到眼睛图像后,可以对每个眼睛图像首先进行图像腐蚀处理,然后在对图像腐蚀处理后的眼睛图像进行图像膨胀处理,从而消除每个眼睛图像中的图像噪声。
步骤305、确定消除图像噪声后的每个眼睛图像的重心点。
在消除眼睛图像中的图像噪声后,区域确定装置可以确定每个眼睛图像的重心点。示例的,第一眼睛图像可以为获取到的至少一个眼睛图像中的任意一个眼睛图像。该第一眼睛图像可以包含多个像素点,且每个像素点具有一个灰度值。区域确定装置在确定第一眼睛图像的重心点时,可以首先确定第一眼睛图像的多个第一累加灰度值和多个第二累加灰度值。其中,第一累加灰度值为:第一眼睛图像中位于同一行的所有像素点的灰度值之和,第二累加灰度值为:每个眼睛图像中位于同一列的所有像素点的灰度值之和。然后,区域确定装置可以根据第一眼睛图像的多个第一累加灰度值和多个第二累加灰度值,确定第一眼睛图像中颜色最深的像素点,并根据第一眼睛图像中颜色最深的像素点,确定第一眼睛图像的重心点。
可选的,在确定第一眼睛图像中颜色最深的像素点时,区域确定装置可以首先确定多个第一累加灰度值中的最小第一累加灰度值,以及多个第二累加灰度值中的最小第二累加灰度值;然后确定目标行和目标列,其中,该最小的第一累加灰度值为位于目标行的所有像素点的灰度值之和,该最小的第二累加灰度值为位于目标列的所有像素点的灰度值之和。最后,区域确定装置可以将第一眼睛图像中,位于目标行和目标列的像素点确定为第一眼睛图像中颜色最深的像素点。
示例的,区域确定装置在根据第一眼睛图像中颜色最深的像素点,确定第一眼睛图像的重心点时,可以首先获取第一参考点的坐标,并根据至少一个参考坐标对第一眼睛图像中颜色最深的像素点进行校正,得到第一眼睛图像的重心点。其中,至少一个参考坐标包括第一参考点的坐标,第一参考点为两个眼睛图像中除该第一眼睛图像之外的另一个眼睛图像中的颜色最深的像素点。示例的,该第一眼睛图像可以为左眼睛的图像,该另一个眼睛图像可以为右眼睛的图像。由于人眼在观看事物时两个眼睛的方向较一致,因此,该两个眼睛图像中颜色最深的像素点所在的区域应该是相同的,所以,区域确定装置在确定两个眼睛图像中每个眼睛图像中颜色最深的像素点后,可以结合另一个眼睛图像中颜色最深的像素点对第一眼睛图像中颜色最深的像素点进行校正,以得到第一眼睛图像的重心点。
进一步的,本发明实施例中区域确定装置能够获取多帧连续的脸部图像(也也即视频),并在每次获取到一帧脸部图像后执行一遍步骤302到步骤309所示的方法,以确定每帧脸部图像中的目标区域。
示例的,假设步骤301中区域确定装置获取到的脸部图像为多帧连续的脸部图像中的第m帧脸部图像,m为大于1的整数,在获取该第m帧脸部图像之前,该区域确定装置还可以获取第m-1帧脸部图像,并采用类似步骤302至步骤309的方法确定第m-1帧脸部图像的目标区域,并根据该第m-1帧脸部图像的目标区域确定第二参考点的坐标,其中,该第二参考点的横坐标可以等于:第m-1帧脸部图像中参考眼睛图像的目标区域内所有点的横坐标的平均值,第二参考点的纵坐标等于:第m-1帧脸部图像中参考眼睛图像的目标区域内所有点的纵坐标的平均值,该参考眼睛图像为与第一眼睛图像均属于同一只眼睛的图像。
区域确定装置对第一眼睛图像中颜色最深的像素点进行校正得到第一眼睛图像的重心点时,所使用到的至少一个参考坐标也可以包括该第二参考坐标点的坐标。也即是,区域确定装置还可以结合连续的两帧脸部图像中同一眼睛的位置差异较小的特点,结合上一帧参考眼睛图像中的第二参考点,对第一眼睛图像中颜色最深的像素点进行校正,以得到第一眼睛图像的重心点。
步骤306、检测消除图像噪声后的每个眼睛图像中的目标点。
在步骤304中消除每个眼睛图像中的图像噪声后,区域确定装置还可以检测每个眼睛图像中的目标点。示例的,第一眼睛图像中的目标点需要满足以下三个筛选条件:目标点的灰度值与rA/n的差小于预设灰度值阈值,与目标点相邻的像素点中存在重心点或至少一个目标点,以及目标点与像素点(xA/n,yA/n)的距离小于或等于最大半径。其中,rA为第一眼睛图像中所有目标点与重心点的灰度值之和,n为第一眼睛图像中所有目标点与重心点的个数之和,xA为第一眼睛图像中所有目标点与重心点的横坐标之和,yA为第一眼睛图像中所有目标点与重心点的纵坐标之和。
示例的,区域确定装置在检测第一眼睛图像中的目标点时,可以对第一眼睛图像中除重心点之外的每个像素点进行检测,可选的,可以从与第一眼睛图像中重心点相邻的像素点开始检测。
当对第一眼睛图像中的第一个像素点进行检测时,由于当前还未检测到目标点,所以,当前的三个筛选条件中的rA等于重心点的灰度值,xA等于重心点的横坐标,yA等于重心点的纵坐标。此时,区域确定装置可以判断该第一个像素点是否满足当前的三个筛选条件。若该第一个像素点同时符合当前的三个筛选条件,则区域确定装置可以将该第一个像素点标记为目标点。
然后,区域确定装置可以对第一眼睛图像中的第二个像素点进行检测,此时,由于第一个像素点已经被标记为目标点,所以,当前的三个筛选条件中的rA等于重心点的灰度值与该第一个像素点的灰度值之和,xA等于重心点的横坐标和该第一个像素点的横坐标之和,yA等于重心点的纵坐标与该第一个像素点的纵坐标之和。在对第二个像素点进行检测时,区域确定装置可以判断该第二个像素点是否满足当前的三个筛选条件。若第二个像素点也符合当前的三个筛选条件,则将该第二个像素点标记为目标点。
之后,区域确定装置可以对第一眼睛图像中的第三个像素点进行检测,此时,由于第一个像素点和第二像素点均已经被标记为目标点,所以,当前的三个筛选条件中的rA等于重心点的灰度值、第一个像素点的灰度值以及第二个像素点的灰度值之和,xA等于重心点的横坐标、第一个像素点的横坐标以及第二个像素点的横坐标之和,yA等于重心点的纵坐标、第一个像素点的纵坐标以及第二个像素点的纵坐标之和。
也即是,该区域确定装置可以依次对第一眼睛图像中除重心点之外的每个像素点进行检测,且在每次检测到一个目标点时,对当前的三个筛选条件中的参数进行更新。进一步的,区域确定装置在对第一眼睛图像中除重心点之外的所有像素点均检测完毕后,可以重新再次对已经确定为目标点的所有目标点再次进行重复验证,也即对每个目标点再次进行验证。
示例的,在区域确定装置在对第一眼睛图像中除重心点之外的所有像素点均检测完毕后,当前的三个筛选条件中的rA等于重心点的灰度值与第一眼睛图像中所有目标点的灰度值之和,xA等于重心点的横坐标与所有目标点的横坐标之和,yA等于重心点的纵坐标与所有目标点的纵坐标之和。然后,区域确定装置可以再次根据当前的三个筛选条件对第一个目标点进行验证,若该第一个目标点满足当前的三个筛选条件,则根据当前的三个筛选条件再次对第二个目标点进行验证;若该第一个目标点不同时满足当前的三个筛选条件,则可以确定该第一个目标点并不是目标点,并将该第一个目标点从已经确定出的所有目标点中剔除,且由于当前确定出的所有目标点发生了改变,所以可以根据当前的所有目标点(剔除第一个目标点之后的所有目标点)的灰度和坐标,以及重心点的灰度和坐标,再次更新当前的三个筛选条件,之后再根据更新后的当前的三个筛选条件对第二个目标点进行验证。
示例的,区域确定装置在检测第一眼睛图像中目标点的过程中,若检测时长达到预设时长,则可以停止对第一眼睛图像的检测;或者,区域确定装置在检测第一眼睛图像中目标点的过程中,若检测到的目标点的个数(n)在预设时间段内均未发生改变,则可以停止对第一眼睛图像的检测;或者,区域确定装置在检测第一眼睛图像中目标点的过程中,若被检测过的像素点的数量达到预设数量阈值,则可以停止对第一眼睛图像的检测。
步骤307、将每个眼睛图像中所有目标点和重心点所在的区域确定为瞳孔和虹膜所在的目标区域。
在检测到第一眼睛图像中的目标点,并确定第一眼睛图像的重心点后,区域确定装置可以将检测到的所有目标点和重心点所在的区域为:第一眼睛图像中瞳孔和虹膜所在的目标区域。
步骤308、对每个眼睛图像依次进行图像膨胀处理和图像腐蚀处理,去除眼睛图像的目标区域中的空洞。
进一步的,在确定第一眼睛图像的目标区域后,区域确定装置还可以首先对第一眼睛图像进行图像膨胀处理,然后在对图像膨胀处理后的第一眼睛图像进行图像腐蚀处理,以去除第一眼睛图像的目标区域中的空洞。
步骤309、对去除空洞之后的每个眼睛图像,依次进行图像腐蚀处理和图像膨胀处理,去除眼睛图像的目标区域中的触角状突出。
在去除目标区域中的空洞后,区域确定装置还可以再次对第一眼睛图像进行图像腐蚀处理,然后在对第一眼睛图像进行图像腐蚀处理后的第一眼睛图像进行图像膨胀处理,以去除第一眼睛图像的目标区域中的触角状突出。
相关技术中,为了准确的确定瞳孔和虹膜所在的目标区域,可以采用专业的红外相机获取红外脸部图像,并对该红外脸部图像进行处理,确定该红外脸部图像中的目标区域,但是红外相机的造价较高。另外,相关技术中,为了准确的确定瞳孔和虹膜所在的目标区域,还可以通过机器学习算法对大量的脸部图像进行训练,得到适用于确定目标区域的机器学习算法,并使用该适用于确定目标区域的机器学习算法对脸部图像进行分析,进而确定瞳孔和虹膜所在的目标区域。但是,由于机器学习算法的计算量较大,采用机器学习算法确定出脸部图像中的目标区域所需的时间较长。
本发明实施例中提供的区域确定方法中,无需使用到造价较高的红外相机,且在对图像进行处理的过程中,无需采用机器学习算法,因此,确定出脸部图像中的目标区域所需的时间较短,确定出目标区域的速度较快。
综上所述,由于本发明实施例提供的区域确定方法中,在确定眼睛图像的重心点后,还根据属于瞳孔和虹膜的点的灰度值特征,在眼睛图像中找到目标点,并根据目标点和重心点确定目标区域。也即是,本发明实施例中对眼睛图像中的每个点均进行了验证,保证划入目标区域的每个点均满足属于瞳孔和虹膜的点的灰度值特征,有效的防止了将不满足属于瞳孔和虹膜的点的灰度值特征的非目标点划入目标区域,所以,提高了确定出的目标区域的准确度。
需要说明的是,本发明实施例提供的区域确定方法步骤的先后顺序可以进行适当调整,步骤也可以根据情况进行相应增减,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化的方法,都应涵盖在本发明的保护范围之内,因此不再赘述。
图4为本发明实施例提供的一种区域确定装置的结构示意图,如图4所示,该区域确定装置50可以包括:
第一获取模块401,用于获取脸部图像;
提取模块402,用于从脸部图像中提取至少一个眼睛图像;
第一确定模块403,用于确定第一眼睛图像的重心点,第一眼睛图像为至少一个眼睛图像中的任一眼睛图像;
检测模块404,用于对第一眼睛图像进行检测,以确定第一眼睛图像中的目标点,其中,目标点中每个目标点的灰度值与rA/n的差小于预设灰度值阈值,rA为眼睛图像中所有目标点与重心点的灰度值之和,n为第一眼睛图像中所有目标点与重心点的个数之和;
第二确定模块405,用于将第一眼睛图像中所有目标点和重心点所在的区域确定为:第一眼睛图像中的瞳孔和虹膜所在的目标区域。
综上所述,由于本发明实施例提供的区域确定装置中,第一确定模块在确定眼睛图像的重心点后,检测模块还根据属于瞳孔和虹膜的点的灰度值特征,在眼睛图像中检测目标点,第二确定模块根据目标点和重心点确定目标区域。也即是,本发明实施例中对眼睛图像中的每个点均进行了验证,保证划入目标区域的每个点均满足属于瞳孔和虹膜的点的灰度值特征,有效的防止了将不满足属于瞳孔和虹膜的点的灰度值特征的非目标点划入目标区域,所以,提高了确定出的目标区域的准确度。
可选的,第一眼睛图像中,与每个目标点相邻的像素点中存在重心点或至少一个目标点。
可选的,图5为本发明实施例提供的另一种区域确定装置的结构示意图,如图5所示,在图4的基础上,该区域确定装置50还可以包括:
第一处理模块406,用于采用五官定位法对脸部图像进行处理,以确定目标区域的最大半径;
每个目标点与像素点(xA/n,yA/n)的距离小于或等于最大半径,xA为第一眼睛图像中所有目标点与重心点的横坐标之和,yA为第一眼睛图像中所有目标点与重心点的纵坐标之和。
可选的,第一眼睛图像为:脸部图像中属于眼睛的像素点的红色通道所组成的图像。
可选的,图6为本发明实施例提供的一种第一确定模块的结构示意图,如图6所示,该第一确定模块403可以包括:
第一确定单元4031,用于确定第一眼睛图像的多个第一累加灰度值和多个第二累加灰度值,其中,第一累加灰度值为:第一眼睛图像中位于同一行的所有像素点的灰度值之和,第二累加灰度值为:第一眼睛图像中位于同一列的所有像素点的灰度值之和;
第二确定单元4032,用于根据第一眼睛图像的多个第一累加灰度值和多个第二累加灰度值,确定第一眼睛图像中颜色最深的像素点;
第三确定单元4033,用于根据第一眼睛图像中颜色最深的像素点,确定第一眼睛图像的重心点。
可选的,该提取模块402还可以用于:从脸部图像中提取两个眼睛图像;
第三确定单元4033还可以用于:
获取第一参考点的坐标,第一参考点为两个眼睛图像中除第一眼睛图像外的另一个眼睛图像中的颜色最深的像素点;
根据至少一个参考坐标对第一眼睛图像中颜色最深的像素点进行校正,确定第一眼睛图像的重心点,至少一个参考坐标包括第一参考点的坐标。
可选的,脸部图像为多帧连续的脸部图像中的第m帧脸部图像,m为大于1的整数,图7为本发明实施例提供的又一种区域确定装置的结构示意图,如图7所示,在图5的基础上,该区域确定装置还可以包括:
第二获取模块407,用于获取第二参考点的坐标,第二参考点的横坐标等于:参考眼睛图像的目标区域内所有点的横坐标的平均值,第二参考点的纵坐标等于:参考眼睛图像的目标区域内所有点的纵坐标的平均值,参考眼睛图像为:从多帧连续的脸部图像中的第m-1帧脸部图像中提取得到的图像,且参考眼睛图像与第一眼睛图像均属于同一只眼睛的图像,至少一个参考坐标还包括第二参考点的坐标。
可选的,本发明实施例提供的区域确定装置还可以包括:
第一停止模块(图4-图7均未示出),用于在检测第一眼睛图像中目标点的过程中,若检测时长达到预设时长,则停止对第一眼睛图像的检测;
或者,第二停止模块(图4-图7均未示出),用于在检测第一眼睛图像中目标点的过程中,若n在预设时间段内未发生改变,则停止对第一眼睛图像的检测;
或者,第三停止模块(图4-图7均未示出),用于在检测第一眼睛图像中目标点的过程中,若被检测过的像素点的数量达到预设数量阈值,则停止对第一眼睛图像的检测。
可选的,图8为本发明实施例提供的再一种区域确定装置的结构示意图,如图8所示,在图4的基础上,该区域确定装置还可以包括:
第二处理模块408,用于对第一眼睛图像依次进行图像腐蚀处理和图像膨胀处理,消除第一眼睛图像中的图像噪声;
第一确定模块403还可以用于:确定消除图像噪声后的第一眼睛图像的重心点;
第三处理模块409,用于对第一眼睛图像依次进行图像膨胀处理和图像腐蚀处理,去除第一眼睛图像的目标区域中的空洞;
第四处理模块410,用于对去除空洞之后的第一眼睛图像依次进行图像腐蚀处理和图像膨胀处理,去除第一眼睛图像的目标区域中的触角状突出。
综上所述,由于本发明实施例提供的区域确定装置中,第一确定模块在确定眼睛图像的重心点后,检测模块还根据属于瞳孔和虹膜的点的灰度值特征,在眼睛图像中检测目标点,第二确定模块根据目标点和重心点确定目标区域。也即是,本发明实施例中对眼睛图像中的每个点均进行了验证,保证划入目标区域的每个点均满足属于瞳孔和虹膜的点的灰度值特征,有效的防止了将不满足属于瞳孔和虹膜的点的灰度值特征的非目标点划入目标区域,所以,提高了确定出的目标区域的准确度。
图9为本发明另一实施例提供的一种区域确定装置500的结构示意图。例如,装置500可以是的移动电话,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图9,装置500可以包括以下一个或多个组件:处理组件5002,存储器5004,电源组件5006,多媒体组件5008,音频组件5010,输入/输出(I/O)的接口5012,传感器组件5014,以及通信组件5016。
处理组件5002通常控制装置500的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件5002可以包括一个或多个处理器5020来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件5002可以包括一个或多个模块,便于处理组件5002和其他组件之间的交互。例如,处理组件5002可以包括多媒体模块,以方便多媒体组件5008和处理组件5002之间的交互。
存储器5004被配置为存储各种类型的数据以支持在装置500的操作。这些数据的示例包括用于在装置500上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器5004可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件5006为装置500的各种组件提供电力。电源组件5006可以包括电源管理系统,一个或多个电源,及其他与为装置500生成、管理和分配电力相关联的组件。
多媒体组件5008包括在所述装置500和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件5008包括一个前置摄像头和/或后置摄像头。当装置500处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件5010被配置为输出和/或输入音频信号。例如,音频组件5010包括一个麦克风(MIC),当装置500处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器5004或经由通信组件5016发送。在一些实施例中,音频组件5010还包括一个扬声器,用于输出音频信号,该扬声器可以被配置为接收外部音频信号。
I/O接口5012为处理组件5002和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件5014包括一个或多个传感器,用于为装置500提供各个方面的状态评估。例如,传感器组件5014可以检测到装置500的打开/关闭状态,组件的相对定位,例如所述组件为装置500的显示器和小键盘,传感器组件5014还可以检测装置500或装置500一个组件的位置改变,用户与装置500接触的存在或不存在,装置500方位或加速/减速和装置500的温度变化。传感器组件5014可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件5014还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件5014还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件5016被配置为便于装置500和其他设备之间有线或无线方式的通信。装置500可以接入基于通信标准的无线网络,如WiFi,2G或3G等,或它们的组合。在一个示例性实施例中,通信组件5016经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件5016还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置500可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器5004,上述指令可由装置500的处理器5020执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由装置500的处理器执行时,使得区域确定装置500能够执行一种区域确定方法,该方法包括:
获取脸部图像;
从所述脸部图像中提取至少一个眼睛图像;
确定第一眼睛图像的重心点,所述第一眼睛图像为所述至少一个眼睛图像中的任一眼睛图像;
对所述第一眼睛图像进行检测,以确定所述第一眼睛图像中的目标点,其中,所述目标点中每个目标点的灰度值与rA/n的差小于预设灰度值阈值,所述rA为所述眼睛图像中所有目标点与所述重心点的灰度值之和,所述n为所述第一眼睛图像中所有目标点与所述重心点的个数之和;
将所述第一眼睛图像中所有目标点和重心点所在的区域确定为:所述第一眼睛图像中的瞳孔和虹膜所在的目标区域。
可选的,所述第一眼睛图像中,与所述每个目标点相邻的像素点中存在所述重心点或至少一个目标点。
可选的,在所述获取脸部图像之后,所述方法还包括:采用五官定位法对所述脸部图像进行处理,以确定所述目标区域的最大半径;
所述每个目标点与像素点(xA/n,yA/n)的距离小于或等于所述最大半径,所述xA为所述第一眼睛图像中所有目标点与所述重心点的横坐标之和,所述yA为所述第一眼睛图像中所有目标点与所述重心点的纵坐标之和。
可选的,所述第一眼睛图像为:所述脸部图像中属于眼睛的像素点的红色通道所组成的图像。
可选的,所述确定第一眼睛图像的重心点,包括:
确定所述第一眼睛图像的多个第一累加灰度值和多个第二累加灰度值,其中,所述第一累加灰度值为:所述第一眼睛图像中位于同一行的所有像素点的灰度值之和,所述第二累加灰度值为:所述第一眼睛图像中位于同一列的所有像素点的灰度值之和;
根据所述第一眼睛图像的多个第一累加灰度值和多个第二累加灰度值,确定所述第一眼睛图像中颜色最深的像素点;
根据所述第一眼睛图像中颜色最深的像素点,确定所述第一眼睛图像的重心点。
可选的,所述从所述脸部图像中提取至少一个眼睛图像,包括:从所述脸部图像中提取两个眼睛图像;
所述根据所述第一眼睛图像中颜色最深的像素点,确定所述第一眼睛图像的重心点,包括:
获取第一参考点的坐标,所述第一参考点为所述两个眼睛图像中除所述第一眼睛图像外的另一个眼睛图像中的颜色最深的像素点;
根据至少一个参考坐标对所述第一眼睛图像中颜色最深的像素点进行校正,确定所述第一眼睛图像的重心点,所述至少一个参考坐标包括所述第一参考点的坐标。
可选的,所述脸部图像为多帧连续的脸部图像中的第m帧脸部图像,所述m为大于1的整数,在所述获取脸部图像之前,所述方法还包括:
获取第二参考点的坐标,所述第二参考点的横坐标等于:参考眼睛图像的目标区域内所有点的横坐标的平均值,所述第二参考点的纵坐标等于:所述参考眼睛图像的目标区域内所有点的纵坐标的平均值,所述参考眼睛图像为:从所述多帧连续的脸部图像中的第m-1帧脸部图像中提取得到的图像,且所述参考眼睛图像与所述第一眼睛图像均属于同一只眼睛的图像,所述至少一个参考坐标还包括所述第二参考点的坐标。
可选的,所述方法还包括:
在检测所述第一眼睛图像中目标点的过程中,若检测时长达到预设时长,则停止对所述第一眼睛图像的检测;
或者,在检测所述第一眼睛图像中目标点的过程中,若所述n在预设时间段内未发生改变,则停止对所述第一眼睛图像的检测;
或者,在检测所述第一眼睛图像中目标点的过程中,若被检测过的像素点的数量达到预设数量阈值,则停止对所述第一眼睛图像的检测。
可选的,在所述从所述脸部图像中提取至少一个眼睛图像之后,所述方法还包括:对所述第一眼睛图像依次进行图像腐蚀处理和图像膨胀处理,消除所述第一眼睛图像中的图像噪声;
所述确定第一眼睛图像的重心点,包括:确定消除图像噪声后的所述第一眼睛图像的重心点;
在所述将所述第一眼睛图像中所有目标点和重心点所在的区域确定为:所述第一眼睛图像中的瞳孔和虹膜所在的目标区域之后,所述方法还包括:
对所述第一眼睛图像依次进行图像膨胀处理和图像腐蚀处理,去除所述第一眼睛图像的目标区域中的空洞;
对去除所述空洞之后的所述第一眼睛图像依次进行图像腐蚀处理和图像膨胀处理,去除所述第一眼睛图像的目标区域中的触角状突出。
综上所述,由于本发明实施例提供的区域确定装置中,在确定眼睛图像的重心点后,还根据属于瞳孔和虹膜的点的灰度值特征,在眼睛图像中找到目标点,并根据目标点和重心点确定目标区域。也即是,本发明实施例中对眼睛图像中的每个点均进行了验证,保证划入目标区域的每个点均满足属于瞳孔和虹膜的点的灰度值特征,有效的防止了将不满足属于瞳孔和虹膜的点的灰度值特征的非目标点划入目标区域,所以,提高了确定出的目标区域的准确度。
上述所示的实施例,均能够全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,能够全部或部分地以程序产品的形式实现,所述程序产品包括一个或多个指令。在处理组件上加载和执行所述指令时,全部或部分地产生按照本公开实施例所述的流程或功能。所述指令能够存储在处理组件的可读存储介质中,或者从一个可读存储介质向另一个可读存储介质传输。所述可用介质能够是磁性介质、光介质,或者半导体介质等。
需要说明的是,本发明实施例提供的方法实施例能够与相应的装置实施例相互参考,本发明实施例对此不做限定。本发明实施例提供的方法实施例步骤的先后顺序能够进行适当调整,步骤也能够根据情况进行相应增减,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化的方法,都应涵盖在本发明的保护范围之内,因此不再赘述。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种区域确定方法,其特征在于,所述方法包括:
获取脸部图像;
采用五官定位法对所述脸部图像进行处理,以确定目标区域的最大半径;
从所述脸部图像中提取至少一个眼睛图像;
确定第一眼睛图像的重心点,所述第一眼睛图像为所述至少一个眼睛图像中的任一眼睛图像;
对所述第一眼睛图像进行检测,以确定所述第一眼睛图像中的目标点,其中,所述目标点中每个目标点的灰度值与rA/n的差小于预设灰度值阈值,所述rA为所述眼睛图像中所有目标点与所述重心点的灰度值之和,所述n为所述第一眼睛图像中所有目标点与所述重心点的个数之和;所述每个目标点与像素点(xA/n,yA/n)的距离小于或等于所述最大半径,所述xA为所述第一眼睛图像中所有目标点与所述重心点的横坐标之和,所述yA为所述第一眼睛图像中所有目标点与所述重心点的纵坐标之和;
将所述第一眼睛图像中所有目标点和重心点所在的区域确定为:所述第一眼睛图像中的瞳孔和虹膜所在的目标区域。
2.根据权利要求1所述的方法,其特征在于,
所述第一眼睛图像中,与所述每个目标点相邻的像素点中存在所述重心点或至少一个目标点。
3.根据权利要求1或2所述的方法,其特征在于,所述第一眼睛图像为:所述脸部图像中属于眼睛的像素点的红色通道所组成的图像。
4.根据权利要求1所述的方法,其特征在于,所述确定第一眼睛图像的重心点,包括:
确定所述第一眼睛图像的多个第一累加灰度值和多个第二累加灰度值,其中,所述第一累加灰度值为:所述第一眼睛图像中位于同一行的所有像素点的灰度值之和,所述第二累加灰度值为:所述第一眼睛图像中位于同一列的所有像素点的灰度值之和;
根据所述第一眼睛图像的多个第一累加灰度值和多个第二累加灰度值,确定所述第一眼睛图像中颜色最深的像素点;
根据所述第一眼睛图像中颜色最深的像素点,确定所述第一眼睛图像的重心点。
5.根据权利要求4所述的方法,其特征在于,
所述从所述脸部图像中提取至少一个眼睛图像,包括:从所述脸部图像中提取两个眼睛图像;
所述根据所述第一眼睛图像中颜色最深的像素点,确定所述第一眼睛图像的重心点,包括:
获取第一参考点的坐标,所述第一参考点为所述两个眼睛图像中除所述第一眼睛图像外的另一个眼睛图像中的颜色最深的像素点;
根据至少一个参考坐标对所述第一眼睛图像中颜色最深的像素点进行校正,确定所述第一眼睛图像的重心点,所述至少一个参考坐标包括所述第一参考点的坐标。
6.根据权利要求5所述的方法,其特征在于,所述脸部图像为多帧连续的脸部图像中的第m帧脸部图像,所述m为大于1的整数,在所述获取脸部图像之前,所述方法还包括:
获取第二参考点的坐标,所述第二参考点的横坐标等于:参考眼睛图像的目标区域内所有点的横坐标的平均值,所述第二参考点的纵坐标等于:所述参考眼睛图像的目标区域内所有点的纵坐标的平均值,所述参考眼睛图像为:从所述多帧连续的脸部图像中的第m-1帧脸部图像中提取得到的图像,且所述参考眼睛图像与所述第一眼睛图像均属于同一只眼睛的图像,所述至少一个参考坐标还包括所述第二参考点的坐标。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在检测所述第一眼睛图像中目标点的过程中,若检测时长达到预设时长,则停止对所述第一眼睛图像的检测;
或者,在检测所述第一眼睛图像中目标点的过程中,若所述n在预设时间段内未发生改变,则停止对所述第一眼睛图像的检测;
或者,在检测所述第一眼睛图像中目标点的过程中,若被检测过的像素点的数量达到预设数量阈值,则停止对所述第一眼睛图像的检测。
8.根据权利要求1所述的方法,其特征在于,
在所述从所述脸部图像中提取至少一个眼睛图像之后,所述方法还包括:对所述第一眼睛图像依次进行图像腐蚀处理和图像膨胀处理,消除所述第一眼睛图像中的图像噪声;
所述确定第一眼睛图像的重心点,包括:确定消除图像噪声后的所述第一眼睛图像的重心点;
在所述将所述第一眼睛图像中所有目标点和重心点所在的区域确定为:所述第一眼睛图像中的瞳孔和虹膜所在的目标区域之后,所述方法还包括:
对所述第一眼睛图像依次进行图像膨胀处理和图像腐蚀处理,去除所述第一眼睛图像的目标区域中的空洞;
对去除所述空洞之后的所述第一眼睛图像依次进行图像腐蚀处理和图像膨胀处理,去除所述第一眼睛图像的目标区域中的触角状突出。
9.一种区域确定装置,其特征在于,所述区域确定装置包括:
处理器;
用于存储所述处理器的可执行指令的存储器;
其中,所述处理器被配置为:
获取脸部图像;
采用五官定位法对所述脸部图像进行处理,以确定目标区域的最大半径;
从所述脸部图像中提取至少一个眼睛图像;
确定第一眼睛图像的重心点,所述第一眼睛图像为所述至少一个眼睛图像中的任一眼睛图像;
对所述第一眼睛图像进行检测,以确定所述第一眼睛图像中的目标点,其中,所述目标点中每个目标点的灰度值与rA/n的差小于预设灰度值阈值,所述rA为所述眼睛图像中所有目标点与所述重心点的灰度值之和,所述n为所述第一眼睛图像中所有目标点与所述重心点的个数之和;所述每个目标点与像素点(xA/n,yA/n)的距离小于或等于所述最大半径,所述xA为所述第一眼睛图像中所有目标点与所述重心点的横坐标之和,所述yA为所述第一眼睛图像中所有目标点与所述重心点的纵坐标之和;
将所述第一眼睛图像中所有目标点和重心点所在的区域确定为:所述第一眼睛图像中的瞳孔和虹膜所在的目标区域。
10.一种存储介质,其特征在于,当所述存储介质中的指令由区域确定装置中的处理器执行时,使得所述区域确定装置能够执行一种区域确定方法,所述方法包括:
获取脸部图像;
采用五官定位法对所述脸部图像进行处理,以确定目标区域的最大半径;
从所述脸部图像中提取至少一个眼睛图像;
确定第一眼睛图像的重心点,所述第一眼睛图像为所述至少一个眼睛图像中的任一眼睛图像;
对所述第一眼睛图像进行检测,以确定所述第一眼睛图像中的目标点,其中,所述目标点中每个目标点的灰度值与rA/n的差小于预设灰度值阈值,所述rA为所述眼睛图像中所有目标点与所述重心点的灰度值之和,所述n为所述第一眼睛图像中所有目标点与所述重心点的个数之和;所述每个目标点与像素点(xA/n,yA/n)的距离小于或等于所述最大半径,所述xA为所述第一眼睛图像中所有目标点与所述重心点的横坐标之和,所述yA为所述第一眼睛图像中所有目标点与所述重心点的纵坐标之和;
将所述第一眼睛图像中所有目标点和重心点所在的区域确定为:所述第一眼睛图像中的瞳孔和虹膜所在的目标区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710459386.6A CN107301391B (zh) | 2017-06-16 | 2017-06-16 | 区域确定方法及装置、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710459386.6A CN107301391B (zh) | 2017-06-16 | 2017-06-16 | 区域确定方法及装置、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107301391A CN107301391A (zh) | 2017-10-27 |
CN107301391B true CN107301391B (zh) | 2020-02-07 |
Family
ID=60136350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710459386.6A Active CN107301391B (zh) | 2017-06-16 | 2017-06-16 | 区域确定方法及装置、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107301391B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113885699B (zh) * | 2021-09-03 | 2023-12-01 | 南京信息工程大学 | 一种眼标控制方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102789575A (zh) * | 2012-07-10 | 2012-11-21 | 广东工业大学 | 一种人眼中心点定位的方法 |
CN103927509A (zh) * | 2013-01-16 | 2014-07-16 | 腾讯科技(深圳)有限公司 | 眼睛定位方法及装置 |
CN104809458A (zh) * | 2014-12-29 | 2015-07-29 | 华为技术有限公司 | 一种瞳孔中心定位方法及装置 |
CN105678286A (zh) * | 2016-02-29 | 2016-06-15 | 徐鹤菲 | 一种瞳孔定位方法及设备 |
CN106203375A (zh) * | 2016-07-20 | 2016-12-07 | 济南大学 | 一种基于人脸图像中人脸和人眼检测的瞳孔定位方法 |
-
2017
- 2017-06-16 CN CN201710459386.6A patent/CN107301391B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102789575A (zh) * | 2012-07-10 | 2012-11-21 | 广东工业大学 | 一种人眼中心点定位的方法 |
CN103927509A (zh) * | 2013-01-16 | 2014-07-16 | 腾讯科技(深圳)有限公司 | 眼睛定位方法及装置 |
CN104809458A (zh) * | 2014-12-29 | 2015-07-29 | 华为技术有限公司 | 一种瞳孔中心定位方法及装置 |
CN105678286A (zh) * | 2016-02-29 | 2016-06-15 | 徐鹤菲 | 一种瞳孔定位方法及设备 |
CN106203375A (zh) * | 2016-07-20 | 2016-12-07 | 济南大学 | 一种基于人脸图像中人脸和人眼检测的瞳孔定位方法 |
Non-Patent Citations (2)
Title |
---|
一种人眼瞳孔定位方法;孙艳丰 等;《北京工业大学学报》;20110228;第37卷(第2期);第272-276页 * |
正面人脸图像中眼睛的定位算法;杜志军 等;《计算机辅助设计与图形学学报》;20090630;第21卷(第6期);第763-769页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107301391A (zh) | 2017-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9674395B2 (en) | Methods and apparatuses for generating photograph | |
CN105095881B (zh) | 人脸识别方法、装置及终端 | |
EP2977956B1 (en) | Method, apparatus and device for segmenting an image | |
EP3582187A1 (en) | Face image processing method and apparatus | |
US11061202B2 (en) | Methods and devices for adjusting lens position | |
US9924090B2 (en) | Method and device for acquiring iris image | |
CN107692997B (zh) | 心率检测方法及装置 | |
CN111553864B (zh) | 图像修复方法及装置、电子设备和存储介质 | |
US10216976B2 (en) | Method, device and medium for fingerprint identification | |
CN107944367B (zh) | 人脸关键点检测方法及装置 | |
US10650502B2 (en) | Image processing method and apparatus, and storage medium | |
CN107784279B (zh) | 目标跟踪方法及装置 | |
CN108668080B (zh) | 提示镜头脏污程度的方法及装置、电子设备 | |
CN108154466B (zh) | 图像处理方法及装置 | |
CN106557759B (zh) | 一种标志牌信息获取方法及装置 | |
EP3208742A1 (en) | Method and apparatus for detecting pressure | |
EP3040912A1 (en) | Method and device for classifying pictures | |
CN112188091B (zh) | 人脸信息识别方法、装置、电子设备及存储介质 | |
EP2975574A2 (en) | Method, apparatus and terminal for image retargeting | |
CN112927122A (zh) | 水印去除方法、装置及存储介质 | |
CN105678296B (zh) | 确定字符倾斜角度的方法及装置 | |
CN110286813B (zh) | 图标位置确定方法和装置 | |
US10846513B2 (en) | Method, device and storage medium for processing picture | |
CN107564047B (zh) | 图像处理方法及装置、电子设备和计算机可读存储介质 | |
US9665925B2 (en) | Method and terminal device for retargeting images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20221201 Address after: 31a, 15 / F, building 30, maple mall, bangrang Road, Brazil, Singapore Patentee after: Baiguoyuan Technology (Singapore) Co.,Ltd. Address before: 511442 room 2705, 27 / F, building B-1, Wanda Plaza North, Wanbo business district, 79 Wanbo 2nd Road, Nancun Town, Panyu District, Guangzhou City, Guangdong Province Patentee before: GUANGZHOU BAIGUOYUAN INFORMATION TECHNOLOGY Co.,Ltd. |