CN108376240A - 一种面向人脸五官识别定位的连通区域标记方法 - Google Patents

一种面向人脸五官识别定位的连通区域标记方法 Download PDF

Info

Publication number
CN108376240A
CN108376240A CN201810078932.6A CN201810078932A CN108376240A CN 108376240 A CN108376240 A CN 108376240A CN 201810078932 A CN201810078932 A CN 201810078932A CN 108376240 A CN108376240 A CN 108376240A
Authority
CN
China
Prior art keywords
sense
human face
point
organ
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810078932.6A
Other languages
English (en)
Inventor
闫秀英
张晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Architecture and Technology
Original Assignee
Xian University of Architecture and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Architecture and Technology filed Critical Xian University of Architecture and Technology
Priority to CN201810078932.6A priority Critical patent/CN108376240A/zh
Publication of CN108376240A publication Critical patent/CN108376240A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种面向人脸五官识别定位的连通区域标记方法,包括以下步骤:步骤1:色彩空间的选取,在肤色检测之前先对采集的人脸五官图像进行分段线性颜色变换,由YCbCr到YCb'Cr'作如下变换:步骤2:二值化处理,在输入的人脸五官图像的肤色区域被检测后,再进行二值化处理;步骤3:二值图像进行形态学侵蚀、扩张运算,这是一个处理集合的过程,可以将二值化图像中有些背景近似肤色的噪点消除;步骤4:利用改进连通区域标记算法进行人脸五官识别定位,该算法的基本思路是一次标记整个连通区域,然后再标记下一个区域,直到所有的连通区域都被标记。本发明在原有连通区域标记算法基础上,实现了对人脸目标器官的提取。

Description

一种面向人脸五官识别定位的连通区域标记方法
技术领域
本发明属于人脸五官识别定位技术领域,具体涉及一种面向人脸五官识别定位的连通区域标记方法。
背景技术
在过去的几十年里,人脸五官识别定位在计算机视觉和模式识别领域获得了越来越广泛的关注。作为计量生物学领域最为成功的应用技术之一,人脸五官识别定位技术可以被用于社会机器人技术领域,以一个自然、无接触的方式实现人物身份验证。在实用中,人脸图像被很多因素影响,比如照明条件,人物姿态,面部表情等。其中,具有真实遮挡的人脸五官识别定位是一个非常重要和困难的亟待解决的问题。因此,基于视觉的人脸五官识别定位吸引了来自计算机视觉、机器人技术、人工智能等领域的学者的研究。
近年来互联网行业发生了重大的改变,随着智能移动终端的出现,人们越来越习惯于通过它们来体验和分享网上的各种应用。人脸识别作为移动终端的安全验证技术,越来越多地得到人们的重视。其中,人脸五官特征定位技术作为人脸识别的关键技术,其研究具有重要的理论意义和实用价值。
Feature-based的人脸检测方式,此方法的理论基础是利用人脸图像中的某些特征辅助检测人脸,如眼睛、鼻子、嘴唇等,主要利用图像中单一人脸,且有较高准确性,缺点在侧脸和脸部有遮蔽物时不理想且容易受到照明的影响。
基于知识方法(knowledge-based),这种基于经验法则的方法,主要是将建立典型人脸的理论知识来进行编码,通常这些规则的获得来自于人脸五官特征,而且此方法主要设计用来进行人脸的局部化。常用规则:
1)轮廓规则:由于人脸形状,均具有类似椭圆形的外观,再利用椭圆长短轴的比例来标定人脸。
2)器官分布规则:普遍人脸通用的规则以五官为主,一般都存在五官相对位置,用来建立相关信息,再做出比对图像,找到可能的人脸。
3)对称规则:人脸存在对称性,大体上都有相对称的特性,如双眼和双脸颊。其中运用人脸关系来标定人脸区域,即为运用人脸知识的一种方法。
Templatematching为基础的方法,模板匹配采取的做法是先将几个标准的人脸样本照片储存起来,并用它来描述整个人脸或是个别的脸部特征,并计算输入图像与储存样本图像之间相互的关联性,以进行人脸检测,此方法亦可同时用来进行人脸特征的局部化,也有研究者在分别检测出各个五官后再利用其相对位置组合起来检测。Templatematching优点容易操作,缺点是应该考虑脸部方向性、旋转角度、人脸大小等条件时,执行时间的复杂度将会提高很多,需要大量的计算成本与记忆体容量,所以不太有效率。
发明内容
本发明的目的是为了改进算法应用的效率,经过试验验证,具有较高效率和较强的鲁棒性。本发明在原有连通区域标记算法基础上提出了一种面向人脸五官识别定位的连通区域标记方法,从而来实现对人脸目标器官的提取。该算法在一次人脸图像扫描中就可以完成所有连通区域的标记,避免了大多数改进算法都必须处理的重复标记的问题,从而提高了标记效率;同时,该算法不受所标记的图形形状的影响。
为达到上述目的,本发明是通过以下技术方案来实现:
一种面向人脸五官识别定位的连通区域标记方法,包括以下步骤:
步骤1:色彩空间的选取
在肤色检测之前先对采集的人脸五官图像进行分段线性颜色变换,由YCbCr到YCb'Cr'作如下变换:
其中,g表示b或者r,是RGB模型中的r=1,b=1的面,Kg和Kh为常量,Cg(Y)为聚类两头尖的椭圆形的中轴线的值,是Cb、Cr两个分量随Y变化的聚类中心线处的值;
步骤2:二值化处理
在输入的人脸五官图像的肤色区域被检测后,再进行二值化处理,二值化公式如下:
其中,0代表人脸肤色,255代表背景;
步骤3:侵蚀运算
消除二值化后人脸五官图像里的噪点和尖锐的边角,使原人脸五官图像去掉一层边;
步骤4:扩张运算
扩大肤色二值化人脸五官图像内的区域应用来弥补较小的凹洞,使原人脸五官图像将会增长一层边;
步骤5:在二值化人脸五官图像中,先由左向右、再由上而下扫描,若扫描到的c点其像素值M(x,y)=255,则继续扫描下一点;
步骤6:当M(x,y)=0时,则给改点1一个新的标记m,且把该标记的累计数目n值加1,再依阿拉伯数字的顺序判断其周围各点像素值是否为0,若像素值为0,则重新指定该点为1点,并设定其标记为m与前一个1点一样,且该标记数目N再累加1,如此重复进行,直到搜寻点(1点)的八个方向皆无黑点时则此区域标记化结束,同时获得此区域的标记数目n;
步骤7:然后再回到此区域最原始1点的下一个像素点,根据步骤1和2再做扫描,直到整个图像都被扫描过后停止。
本发明进一步的改进在于,步骤1中,Kg和Kh分别为125和188。
本发明进一步的改进在于,步骤5中,对于二值化人脸五官图像连通区域的标记,方法如下:一次标记整个连通区域,然后再标记下一个区域,直到所有的连通区域都被标记。
本发明进一步的改进在于,具体实现方法如下:
首先,对输入的二值化人脸五官图像实行逐行扫描,找到一个未标记区域的第一点,标记该点;检查该点的八邻域点并标记满足连通性要求的,且尚未被标记的点,同时将新增的标记点记录下来作为“区域增长”的种子点;在后续的标记的过程中,不断地从记录种子点的数组中取出一个种子,施行上述的操作,如此循环,直到记录种子点的数组为空;
一个连通区域标记结束,接着再标记下一个未标记区域,直到输入二值图像的所有连通区域都被标记。
与现有技术相比,本发明具有以下有益的技术效果:
本发明公开的面向人脸五官识别定位的连通区域标记算法,对于普通的人脸图像定位成功率较高、算法的鲁棒性和稳定性也比较好,该算法在一次人脸图像扫描中就可以完成所有连通区域的标记,避免了大多数改进算法都必须处理的重复标记的问题,从而提高了标记效率;同时,该算法不受所标记的图形形状的影响。为了评价本发明算法的实现效率,本发明设计了与传统算法和改进算法的对比实验。用计算机自动生成800×600、1024×1024、2048×1024三幅测试图像,其相应的连通区域数分别是:50、100和200,标记点数分别是:320406、424541和1091891。为了测试传统算法和改进算法对标记不同形状的连通区域的鲁棒性,本发明还手工绘制一幅包含U形和E形连通区域的,大小为512×512图像,连通区25个,对应标记点数126171;其中U形、E形连通区域7个,对应标记点数81515。实验结果如表3所示。
进一步,该改进算法具有较高效率和较强的鲁棒性,定位效率提高了约30%~50%,能够满足用户的实际使用需求。
附图说明
图1为YCbCr立体图;
图2为区域标记法图;
图3为肤色检测结果;
图4为二值化处理之后示意图;
图5为侵蚀处理过程示意图,a表示原始二值化图像,b表示侵蚀处理过程,c表示侵蚀后二值化图像;
图6为扩张处理过程示意图,a表示原始二值化图像,b表示扩张处理过程,c表示扩张后二值化图像;
图7为连通区域标记(0—背景;1—模式图形;L—标记);
图8和图9均为对拍摄后的图像进行人脸五官定位。
具体实施方式
以下结合附图和实施例对本发明做出进一步的说明。
本发明涉及的技术主要解决人脸五官识别定位中具有真实遮挡和掩盖时鲁棒性较差和迭代计算开销较大的问题。本发明提供的一种面向人脸五官识别定位的连通区域标记方法,包括以下步骤:
步骤1:色彩空间的选取。为了降低环境光线变化对肤色检测的影响,对光线较不敏感且转换公式相当简单的YCbCr色彩空间。YCbCr色彩空间如图1所示分别代表亮度元素(Luminance)Y、蓝色元素(Blueness)Cb与红色元素(Redness)Cr。对于亮度与彩度的分离性较高。且转换公式简单,可提高执行速度。实验在肤色检测之前要先对图像进行分段线性颜色变换。由YCbCr到YCb'Cr'作如下变换:
其中,g表示b或者r,是RGB模型中的r=1,b=1的面,Kg和Kh为常量分别为125和188。Cg(Y)为聚类两头尖的椭圆形的中轴线的值,实际上是Cb、Cr两个分量随Y变化的聚类中心线处的值。
步骤2:二值化处理。选用转换到YCbCr空间,对于亮度与彩度的分离性较高,而且转换公式简单,可提高执行速度。
YCbCr与RGB色彩空间关系如下所示:
Cb=-0.16874*R-0.33126*G+0.5000*B+128 (2)
Cr=0.5000*R-0.41869*G-0.08131*B+128 (3)
在输入图像的肤色区域被检测后,再进行二值化处理。接下来将个别选取Cb、Cr的范围,以获得人脸肤色如下图,这里选取77≤Cb≤127,
133≤Cr≤173。肤色检测结果如图3所示。
二值化公式如下:
其中0代表人脸肤色,255代表背景。二值化处理之后如图4所示。
步骤3:侵蚀运算。消除二值化后图像里的噪点和尖锐的边角,使原本图像去掉一层边。侵蚀运算说明如下:
表1结构元素
P1 P2 P3
P4 P0 P5
P6 P7 P8
结构元素B如上图所示为一个3*3的遮挡矩阵,中心点P0为扫描点,为被侵蚀的二值化图像,本发明以数值0表示肤色区域(黑色),255表示背景区域(白色),将遮挡B沿着A由左向右、由上而下扫描,若遮挡B(P0~P8)所对应图像A的9个像素点内,只要有一个像素点的像素值为255,则对应扫描点P0下的像素点其像素值设为255,否则设为0。如图5所示为侵蚀处理过程示意图。
步骤4:扩张运算。扩大肤色二值化图像内的区域应用来弥补较小的凹洞,使原影像将会增长一层边。扩张运算说明如下:
表2结构元素
P1 P2 P3
P4 P0 P5
P6 P7 P8
结构元素B为一个3*3的遮挡矩阵,中心点P0为扫描点,A为欲扩张的二值化图像,本发明以数值0表示肤色区域(黑色),255表示背景区域(白色),将遮挡B沿着A由左向右、由上而下扫描,若遮挡B(P0~P8)所对应图像A的9个像素点内,只要有一个像素点的像素值为0,则对应扫描点P0下A的像素点其像素值设为0,否则设为255。如图6所示为扩张处理过程示意图。
步骤5:在二值化图像中,先由左向右、再由上而下扫描,若扫描到的点(c点)其像素值M(x,y)=255(即白点),则继续扫描下一点。
步骤6:当M(x,y)=0(即黑点)时,则给改点1一个新的标记m,且把该标记的累计数目n值加1,再依阿拉伯数字的顺序判断其周围各点像素值是否为0,若像素值为0,则重新指定该点为1点,并设定其标记为m与前一个1点一样,且该标记数目N再累加1,如此重复进行。直到搜寻点(1点)的八个方向皆无黑点时则此区域标记化结束,同时此区域的标记数目n也已获得。
步骤7:然后再回到此区域最原始1点的下一个像素点,根据步骤(1)、(2)再做扫描,直到整个图像都被扫描过后停止。
步骤8:图2为区域标记法示意图,由可知经由连接区域标记法后可标记出m=1~6不同大小的区域,且标记顺序是由上而下,由左而右的顺序标出。又可知标记m=1的个数有n=3个。
为了说明本发明的优势,下面对比本发明进行实验验证,并分别在红米1S、华为荣耀4A上进行了实验测试。
如图7所示,为了评价本发明算法的实现效率,本发明设计了与传统算法和改进算法的对比实验。用计算机自动生成800×600、1024×1024、2048×1024三幅测试图像,其相应的连通区域数分别是:50、100和200,标记点数分别是:320406、424541和1091891。为了测试传统算法和改进算法对标记不同形状的连通区域的鲁棒性,本发明还手工绘制一幅包含U形和E形连通区域的,大小为512×512图像,连通区25个,对应标记点数126171;其中U形、E形连通区域7个,对应标记点数81515。实验结果如表3所示。
表3传统标记算法与改进连通标记法运行效率的试验比较
分析表3的对比实验数据,本发明得出如下几个重要的实验结论:
(1)本发明算法的实现效率十分明显。在目前已有的改进算法中,基于扫描线的连通标记方法目的实现效率是较高的,而本发明算法的效率提高了约30%~50%。
(2)本发明算法的鲁棒性很好,不受所标记图形形状的影响。而传统算法和改进算法对标记图形形状十分敏感,尤其是在标记图形呈明显的凹凸不齐形状时,算法的实现效率将变得非常低,因为在这种情况下,重复标记十分严重。
(3)必须指出的是,在所标记图形形状比较规则的情况下。传统算法的效率会很高,超过本发明算法。这是因为在这种情况下,重复标记较少发生,甚至不发生传统算法不需要处理标记重复的问题;而本发明算法仍要对所有的连通区域做逐像素的八邻域搜索。
最后,本发明将在Android平台上实现,分别在红米1S、华为荣耀4A上进行了实验测试。实验过程中分别在在不同的室内环境,不同时段,不同的光照条件下拍摄人脸图像。这些照片的大小有1280*1204、1280*800、640*480或者320*240这几种规格,拍摄后的图像格式是bmp或者最常用的JPEG格式。拍摄要求是人脸允许一定角度的范围内偏转(正负15度以内)、可以有一定程度的侧光或者逆光、瞳孔部分不能被眼镜、头发或者其它遮蔽物挡住,可以佩戴浅色的透明眼镜。如图8、图9所示。
实验中对拍摄得到的71副不同的人脸图像进行五官定位测试后的全部结果统计如表4所示:
表4实验结果统计表
图像数量 成功数量 定位成功率
71 67 94.4%

Claims (4)

1.一种面向人脸五官识别定位的连通区域标记方法,其特征在于,包括以下步骤:
步骤1:色彩空间的选取
在肤色检测之前先对采集的人脸五官图像进行分段线性颜色变换,由YCbCr到YCb'Cr'作如下变换:
其中,g表示b或者r,是RGB模型中的r=1,b=1的面,Kg和Kh为常量,Cg(Y)为聚类两头尖的椭圆形的中轴线的值,是Cb、Cr两个分量随Y变化的聚类中心线处的值;
步骤2:二值化处理
在输入的人脸五官图像的肤色区域被检测后,再进行二值化处理,二值化公式如下:
其中,0代表人脸肤色,255代表背景;
步骤3:侵蚀运算
消除二值化后人脸五官图像里的噪点和尖锐的边角,使原人脸五官图像去掉一层边;
步骤4:扩张运算
扩大肤色二值化人脸五官图像内的区域应用来弥补较小的凹洞,使原人脸五官图像将会增长一层边;
步骤5:在二值化人脸五官图像中,先由左向右、再由上而下扫描,若扫描到的c点其像素值M(x,y)=255,则继续扫描下一点;
步骤6:当M(x,y)=0时,则给改点1一个新的标记m,且把该标记的累计数目n值加1,再依阿拉伯数字的顺序判断其周围各点像素值是否为0,若像素值为0,则重新指定该点为1点,并设定其标记为m与前一个1点一样,且该标记数目N再累加1,如此重复进行,直到搜寻点(1点)的八个方向皆无黑点时则此区域标记化结束,同时获得此区域的标记数目n;
步骤7:然后再回到此区域最原始1点的下一个像素点,根据步骤1和2再做扫描,直到整个图像都被扫描过后停止。
2.根据权利要求1所述的一种面向人脸五官识别定位的连通区域标记方法,其特征在于,步骤1中,Kg和Kh分别为125和188。
3.根据权利要求1所述的一种面向人脸五官识别定位的连通区域标记方法,其特征在于,步骤5中,对于二值化人脸五官图像连通区域的标记,方法如下:一次标记整个连通区域,然后再标记下一个区域,直到所有的连通区域都被标记。
4.根据权利要求3所述的一种面向人脸五官识别定位的连通区域标记方法,其特征在于,具体实现方法如下:
首先,对输入的二值化人脸五官图像实行逐行扫描,找到一个未标记区域的第一点,标记该点;检查该点的八邻域点并标记满足连通性要求的,且尚未被标记的点,同时将新增的标记点记录下来作为“区域增长”的种子点;在后续的标记的过程中,不断地从记录种子点的数组中取出一个种子,施行上述的操作,如此循环,直到记录种子点的数组为空;
一个连通区域标记结束,接着再标记下一个未标记区域,直到输入二值图像的所有连通区域都被标记。
CN201810078932.6A 2018-01-26 2018-01-26 一种面向人脸五官识别定位的连通区域标记方法 Pending CN108376240A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810078932.6A CN108376240A (zh) 2018-01-26 2018-01-26 一种面向人脸五官识别定位的连通区域标记方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810078932.6A CN108376240A (zh) 2018-01-26 2018-01-26 一种面向人脸五官识别定位的连通区域标记方法

Publications (1)

Publication Number Publication Date
CN108376240A true CN108376240A (zh) 2018-08-07

Family

ID=63016980

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810078932.6A Pending CN108376240A (zh) 2018-01-26 2018-01-26 一种面向人脸五官识别定位的连通区域标记方法

Country Status (1)

Country Link
CN (1) CN108376240A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110807402A (zh) * 2019-10-29 2020-02-18 深圳市梦网百科信息技术有限公司 一种基于肤色检测的五官定位方法、系统和终端设备
CN117929280A (zh) * 2024-03-21 2024-04-26 宁德时代新能源科技股份有限公司 电池蓝膜包覆系统及电池蓝膜包覆的检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080044064A1 (en) * 2006-08-15 2008-02-21 Compal Electronics, Inc. Method for recognizing face area
CN101706874A (zh) * 2009-12-25 2010-05-12 青岛朗讯科技通讯设备有限公司 基于肤色特征的人脸检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080044064A1 (en) * 2006-08-15 2008-02-21 Compal Electronics, Inc. Method for recognizing face area
CN101706874A (zh) * 2009-12-25 2010-05-12 青岛朗讯科技通讯设备有限公司 基于肤色特征的人脸检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
左文明: "连通区域提取算法研究", 《计算机应用与软件》 *
李彦君: "人脸五官定位算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
陈柏生: "一种二值图像连通区域标记的新方法", 《计算机工程与应用》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110807402A (zh) * 2019-10-29 2020-02-18 深圳市梦网百科信息技术有限公司 一种基于肤色检测的五官定位方法、系统和终端设备
CN110807402B (zh) * 2019-10-29 2023-08-08 深圳市梦网视讯有限公司 一种基于肤色检测的五官定位方法、系统和终端设备
CN117929280A (zh) * 2024-03-21 2024-04-26 宁德时代新能源科技股份有限公司 电池蓝膜包覆系统及电池蓝膜包覆的检测方法

Similar Documents

Publication Publication Date Title
CN104751142B (zh) 一种基于笔划特征的自然场景文本检测方法
Hsieh et al. A statistic approach to the detection of human faces in color nature scene
CN107563396A (zh) 一种电力巡检中保护屏智能识别系统的构建方法
CN109657612B (zh) 一种基于人脸图像特征的质量排序系统及其使用方法
CN109145915A (zh) 一种复杂场景下车牌快速畸变矫正方法
CN109740572A (zh) 一种基于局部彩色纹理特征的人脸活体检测方法
CN103839058A (zh) 一种基于标准模版的文档图像的信息定位方法
CN104598907B (zh) 一种基于笔画宽度图的图像中文字数据提取方法
CN103679145A (zh) 一种手势自动识别方法
CN105894503A (zh) 一种对Kinect植株彩色和深度检测图像的修复方法
CN101615244A (zh) 手写板坯号自动识别方法及识别装置
CN107358184A (zh) 文档文字的提取方法及提取装置
CN108460833A (zh) 一种基于bim构建传统建筑数字化保护与修复的信息平台
CN114782953A (zh) 一种印章智能识别方法
CN112906550A (zh) 一种基于分水岭变换的静态手势识别方法
CN106355607A (zh) 一种宽基线彩色图像模板匹配方法
CN108376240A (zh) 一种面向人脸五官识别定位的连通区域标记方法
CN102831428B (zh) 图像内快速响应矩阵码区域的提取方法
CN109949348A (zh) 一种基于超像素运动统计的误匹配去除方法
CN108274476A (zh) 一种人形机器人抓取球体的方法
CN109766850B (zh) 基于特征融合的指纹图像匹配方法
CN109543525B (zh) 一种通用表格图像的表格提取方法
CN109711420B (zh) 基于人类视觉注意机制的多仿射目标的检测与识别方法
CN110414517A (zh) 一种用于配合拍照场景的快速高精度身份证文本识别算法
CN111429416B (zh) 一种人脸色素斑识别方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180807